JP2011039776A - Moving image content detection device - Google Patents

Moving image content detection device Download PDF

Info

Publication number
JP2011039776A
JP2011039776A JP2009186566A JP2009186566A JP2011039776A JP 2011039776 A JP2011039776 A JP 2011039776A JP 2009186566 A JP2009186566 A JP 2009186566A JP 2009186566 A JP2009186566 A JP 2009186566A JP 2011039776 A JP2011039776 A JP 2011039776A
Authority
JP
Japan
Prior art keywords
shot boundary
feature amount
moving image
content
image content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009186566A
Other languages
Japanese (ja)
Other versions
JP5297297B2 (en
Inventor
Yusuke Uchida
祐介 内田
Masayuki Hashimoto
真幸 橋本
Akio Yoneyama
暁夫 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2009186566A priority Critical patent/JP5297297B2/en
Publication of JP2011039776A publication Critical patent/JP2011039776A/en
Application granted granted Critical
Publication of JP5297297B2 publication Critical patent/JP5297297B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Storage Device Security (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique which can accurately and quickly detect a content even when the content is an illegally distributed content in which edition in a time-base direction such as segmentation of a part of a content of which the free distribution is not granted by a copyright holder or the like or an illegally distributed content of which the whole is deteriorated due to compression noise or the like. <P>SOLUTION: A moving image content detection device 1 includes: a shot boundary detection part 10 for detecting a shot boundary of a moving image content; a shot boundary feature value extraction part 20 for extracting feature values from front and rear frames of the shot boundary detected by the shot boundary detection part 10; and a feature value collation part 40 for collating the shot boundary feature value which is a feature value concerned with one moving image content and extracted by the shot boundary feature value extraction part 20 with shot boundary feature values concerned with a plurality of moving image contents stored in a database 50. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、動画コンテンツ検出装置に関する。   The present invention relates to a moving image content detection apparatus.

近年のブロードバンドの普及、およびHDD(Hard Disk Drive)、DVD(Digital Versatile Disk)、Blu-ray disc等のストレージの大容量化に伴って、デジタルコンテンツを著作権者やコンテンツプロバイダ(以下、「著作権者等」という)の許諾を得ずに、ネットワークを介して共有・公開することが容易になってきており、このような不正な共有・公開が問題となっている。このような問題に対して、デジタルコンテンツの指紋(特徴量)を利用して、複数のデジタルコンテンツの中から、著作権者等が自由配布を許諾していない特定のコンテンツを自動的に検出する技術が提案されている(特許文献1、2、非特許文献1参照)。   With the spread of broadband in recent years and the increase in storage capacity of HDDs (Hard Disk Drives), DVDs (Digital Versatile Disks), Blu-ray discs, etc., digital content has become copyright holders and content providers (hereinafter referred to as "Copyrights"). It has become easy to share and publish via a network without obtaining permission from a right holder or the like), and such illegal sharing and publishing has become a problem. To deal with such problems, the digital content fingerprint (feature value) is used to automatically detect a specific content that the copyright holder or the like does not permit free distribution from among a plurality of digital content. Techniques have been proposed (see Patent Documents 1 and 2 and Non-Patent Document 1).

特許文献1では、三次元周波数解析と主成分分析を用いて、コンテンツの特徴量を記述し、特定のコンテンツを検出している。この手法では、空間周波数解析(DCT)で得られた係数に時間軸方向への周波数解析(FFT)を加えた三次元周波数解析を行ない、さらに主成分分析により三次元周波数解析で得られた係数から特徴量を抽出している。特許文献2では、特許文献1で利用されている特徴量を用いて、流通コンテンツと類似している特定コンテンツを絞り込み、絞り込めない場合には、位相限定相関法を用いて流通コンテンツと最も類似している特定コンテンツを決定し、閾値によって同一コンテンツであるか否かを判定している。   In Patent Document 1, a feature amount of a content is described using a three-dimensional frequency analysis and a principal component analysis, and a specific content is detected. This method performs 3D frequency analysis by adding frequency analysis (FFT) in the time axis direction to the coefficient obtained by spatial frequency analysis (DCT), and then the coefficient obtained by 3D frequency analysis by principal component analysis. Feature values are extracted from. In Patent Document 2, the specific content similar to the distributed content is narrowed down using the feature amount used in Patent Document 1, and when it cannot be narrowed down, the most similar to the distributed content using the phase-only correlation method Specific content is determined, and it is determined whether or not the same content is based on a threshold value.

また、非特許文献1ではまず、映像から隣接フレームの輝度値の平均絶対誤差(Motion intensity)を求め、その平均絶対誤差が極値を取るフレームをキーフレームとする。次に各キーフレームからHarris detectorによってコーナーと呼ばれる特徴点を検出し、その周辺からGaussian derivativeを用いて特徴量を抽出する。その後、各特徴量とデータベースとのマッチング・投票を行い、投票数が多いコンテンツを不正流通コンテンツとして検出している。この手法では映像に時間的な編集が行なわれた場合であっても、不正流通コンテンツを検出できるようにしている。   In Non-Patent Document 1, first, an average absolute error (Motion intensity) of luminance values of adjacent frames is obtained from a video, and a frame in which the average absolute error takes an extreme value is set as a key frame. Next, a feature point called a corner is detected from each key frame by a Harris detector, and a feature amount is extracted from the periphery using a Gaussian derivative. Thereafter, matching and voting are performed between each feature quantity and the database, and content with a large number of votes is detected as illegally distributed content. In this method, unauthorized distribution content can be detected even when video is temporally edited.

特開2005−18675号公報JP 2005-18675 A 特開2006−285907号公報JP 2006-285907 A

J.Law-To et al.,“Video Copy Detection:A Comparative Study,”in Proc.ACM CIVR’07,pp.371-378,2007. J. Law-To et al., “Video Copy Detection: A Comparative Study,” in Proc. ACM CIVR’07, pp.371-378, 2007.

しかしながら、特許文献1および2で開示されている手法では、動画コンテンツ1つから1つの特徴量を抽出するため、例えば、動画コンテンツを分割する等の時間軸方向の編集が行われると検出ができなくなるという問題がある。一方、非特許文献1で開示されている手法では、下記の問題がある。まず、Motion intensityによってキーフレームを選択しているが、Motion intensityの極値がノイズに対して不安定であり、キーフレームがずれることによって精度が低下するという問題がある。また、Motion intensityによって抽出されるキーフレームの数がシーンによって異なり、冗長なキーフレームが抽出されることにより処理時間が増加するという問題がある。さらに、抽出されるGaussian derivative特徴量は圧縮ノイズ等に比較的敏感であるため、このようなノイズが付加された場合には精度が低下するという問題がある。   However, in the methods disclosed in Patent Documents 1 and 2, since one feature amount is extracted from one moving image content, for example, it can be detected when editing in the time axis direction such as dividing the moving image content is performed. There is a problem of disappearing. On the other hand, the method disclosed in Non-Patent Document 1 has the following problems. First, a key frame is selected based on the motion intensity. However, there is a problem that the extreme value of the motion intensity is unstable with respect to noise, and the accuracy is lowered due to the shift of the key frame. In addition, the number of key frames extracted by the motion intensity varies depending on the scene, and there is a problem that processing time increases due to the extraction of redundant key frames. Furthermore, since the extracted Gaussian derivative feature amount is relatively sensitive to compression noise or the like, there is a problem that accuracy is lowered when such noise is added.

本発明は、このような事情に鑑みてなされたものであり、著作権者等が自由配布を許諾していないコンテンツの一部分を切り出すなど時間軸方向の編集が行われた不正流通コンテンツや、全体が圧縮ノイズなどによって劣化した不正流通コンテンツであっても、精度よくかつ高速に検出することができる技術を提供することを目的とする。   The present invention has been made in view of such circumstances, and illegally distributed content that has been edited in the time axis direction, such as cutting out a part of content that the copyright holder or the like does not permit free distribution, It is an object of the present invention to provide a technology capable of accurately and rapidly detecting even illegally distributed content deteriorated due to compression noise or the like.

上記問題を解決するために、本発明の一態様である動画コンテンツ検出装置は、動画コンテンツのショット境界を検出するショット境界検出部と、ショット境界検出部によって検出されたショット境界の前後のフレームから特徴量を抽出するショット境界特徴量抽出部と、一の動画コンテンツに係る特徴量であってショット境界特徴量抽出部によって抽出されたショット境界特徴量を、記憶部に記憶されている複数の動画コンテンツに係るショット境界特徴量と照合する特徴量照合部とを備えることを特徴とする。   In order to solve the above problem, a video content detection apparatus according to an aspect of the present invention includes a shot boundary detection unit that detects a shot boundary of video content, and frames before and after the shot boundary detected by the shot boundary detection unit. A shot boundary feature amount extraction unit that extracts feature amounts, and a plurality of moving images in which a shot boundary feature amount that is a feature amount related to one moving image content and is extracted by the shot boundary feature amount extraction unit is stored in the storage unit And a feature amount matching unit for matching with a shot boundary feature amount related to the content.

上記動画コンテンツ検出装置において、ショット境界検出部は、動画コンテンツを構成するフレームであって一定間隔毎に存在する所定のフレームの情報を用いて一定間隔内にショット境界が存在するか否かを判定し、ショット境界が存在すると判定した一定間隔内の各フレーム間がショット境界であるか否かを判定して、動画コンテンツのショット境界を検出してもよい。   In the moving image content detection apparatus, the shot boundary detection unit determines whether a shot boundary exists within a certain interval using information of a predetermined frame that is included in the moving image content and is present at certain intervals. Then, the shot boundary of the moving image content may be detected by determining whether or not each frame within a certain interval determined to have a shot boundary is a shot boundary.

上記動画コンテンツ検出装置において、所定のフレームは、圧縮後の動画コンテンツを構成するフレームのうち他のフレームを参照することなくデコードできるフレームであってもよい。   In the moving image content detection apparatus, the predetermined frame may be a frame that can be decoded without referring to another frame among frames constituting the compressed moving image content.

上記動画コンテンツ検出装置において、ショット境界特徴量抽出部は、ショット境界の前後のフレームの相関を基にショット境界特徴量を抽出してもよい。また、ショット境界特徴量抽出部は、ショット境界の前後のフレームをそれぞれ複数のブロックに分割し、これら複数のブロックから一定個数のブロックの組を作成し、それらブロックの組の相関を基に前記ショット境界特徴量を抽出してもよい。   In the moving image content detection apparatus, the shot boundary feature amount extraction unit may extract the shot boundary feature amount based on a correlation between frames before and after the shot boundary. Further, the shot boundary feature amount extraction unit divides the frames before and after the shot boundary into a plurality of blocks, creates a set of a certain number of blocks from the plurality of blocks, and based on the correlation between the sets of the blocks, A shot boundary feature amount may be extracted.

上記動画コンテンツ検出装置において、ショット境界特徴量抽出部は、ショット境界の前後のフレームをそれぞれ複数のブロックに分割し、これら複数のブロックから一定個数のブロックの組を作成し、ブロックの組の平均輝度、動き強度、エッジ量の大小関係の少なくとも1つを基にショット境界特徴量を抽出するようにしてもよい。   In the moving image content detection apparatus, the shot boundary feature amount extraction unit divides each frame before and after the shot boundary into a plurality of blocks, creates a set of a predetermined number of blocks from the plurality of blocks, and averages the set of blocks You may make it extract a shot boundary feature-value based on at least one of the magnitude relationship of a brightness | luminance, motion intensity | strength, and edge amount.

上記動画コンテンツ検出装置において、特徴量照合部は、一の動画コンテンツに係るショット境界特徴量と記憶部に記憶されている動画コンテンツに係るショット境界特徴量との距離を算出し、当該距離に基づいて一の動画コンテンツと記憶部に記憶されている動画コンテンツとを照合し、距離算出において、平均輝度、動き強度、エッジ量が近いブロックの組の大小関係は利用しないようにしもよい。   In the moving image content detection apparatus, the feature amount matching unit calculates a distance between the shot boundary feature amount related to one moving image content and the shot boundary feature amount related to the moving image content stored in the storage unit, and based on the distance Thus, the moving image content stored in the storage unit and the moving image content stored in the storage unit may be collated, and in the distance calculation, the magnitude relationship between the sets of blocks having similar average luminance, motion intensity, and edge amount may not be used.

本発明によれば、著作権者等が自由配布を許諾していないコンテンツの一部分を切り出すなど時間軸方向の編集が行われた不正流通コンテンツや、全体が圧縮ノイズなどによって劣化した不正流通コンテンツであっても、精度よくかつ高速に検出することができるようになる。   According to the present invention, illegal distribution content that has been edited in the time axis direction, such as cutting out a part of content that the copyright holder or the like has not permitted free distribution, or illegal distribution content that has deteriorated due to compression noise or the like as a whole. Even if it exists, it becomes possible to detect with high accuracy and high speed.

本発明の一実施形態による動画コンテンツ検出装置1の機能ブロック図である。It is a functional block diagram of the moving image content detection apparatus 1 by one Embodiment of this invention. ショット境界検出部10の動作の一例を示すフローチャートである。4 is a flowchart illustrating an example of the operation of the shot boundary detection unit 10. ショット境界検出部10の動作を説明する説明図である。FIG. 6 is an explanatory diagram for explaining the operation of the shot boundary detection unit 10. ショット境界特徴量抽出部20の動作を説明する説明図である。FIG. 6 is an explanatory diagram for explaining an operation of a shot boundary feature quantity extraction unit 20. 特徴量照合部40の動作を説明する説明図である。FIG. 6 is an explanatory diagram for explaining an operation of a feature amount matching unit 40.

以下、本発明の一実施形態について図面を参照して説明する。本発明の一実施形態による動画コンテンツ検出装置1は、検査対象の動画コンテンツ(クエリコンテンツ)の特徴量と、著作権者等が自由配布を許諾していない特定のコンテンツ(以下、「リファレンスコンテンツ」という)の特徴量とを用いて、不正流通コンテンツと推測されるクエリコンテンツを検出する。動画コンテンツ検出装置1は、図1(a)に示すように、ショット境界検出部10、ショット境界特徴量抽出部20、特徴量登録部30、特徴量照合部40およびデータベース(記憶部)50を備える。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. The moving image content detection apparatus 1 according to the embodiment of the present invention includes a feature amount of a moving image content (query content) to be inspected and specific content (hereinafter referred to as “reference content”) that the copyright holder or the like does not permit free distribution. The query content that is presumed to be illegally distributed content is detected using the feature amount of As shown in FIG. 1A, the moving image content detection apparatus 1 includes a shot boundary detection unit 10, a shot boundary feature amount extraction unit 20, a feature amount registration unit 30, a feature amount collation unit 40, and a database (storage unit) 50. Prepare.

ショット境界検出部10は、動画コンテンツ(リファレンスコンテンツおよびクエリコンテンツ)のショット境界を検出する。具体的には、まず、ショット境界検出部10は、動画コンテンツを構成するフレームであって一定間隔毎に存在する所定のフレームの情報を用いて一定間隔内にショット境界が存在するか否かを判定する。所定のフレームは、例えば、圧縮された動画コンテンツを構成するフレームのうち他のフレームを参照することなくデコードできるフレーム、即ち、該フレーム単独でデコードできるフレームである。GOP(Group of Picture)におけるIフレーム(Intra Picture)は、上記所定のフレームに相当する。   The shot boundary detection unit 10 detects shot boundaries of moving image content (reference content and query content). Specifically, first, the shot boundary detection unit 10 determines whether or not a shot boundary exists within a certain interval by using information of predetermined frames that are frames constituting the moving image content and exist at every certain interval. judge. The predetermined frame is, for example, a frame that can be decoded without referring to another frame among frames constituting the compressed moving image content, that is, a frame that can be decoded alone. An I frame (Intra Picture) in a GOP (Group of Picture) corresponds to the predetermined frame.

続いて、ショット境界検出部10は、ある一定間隔内にショット境界が存在すると判定した場合、当該一定間隔内の各フレーム間について、各フレーム間がショット境界に該当するか否かを更に判定する。一方、ショット境界検出部10は、ショット境界が存在しないと判定した一定間隔内の各フレーム間については、各フレーム間がショット境界に該当するか否かを更に判定しない。即ち、ショット境界検出部10は、所定のフレームの情報を用いて各一定間隔のショット境界の存否を判定し、ショット境界が存在すると判定した一定間隔内からのみショット境界を検出する。   Subsequently, when the shot boundary detection unit 10 determines that a shot boundary exists within a certain interval, the shot boundary detection unit 10 further determines whether each frame corresponds to a shot boundary for each frame within the certain interval. . On the other hand, the shot boundary detection unit 10 does not further determine whether or not each frame corresponds to a shot boundary for each frame within a certain interval determined that there is no shot boundary. In other words, the shot boundary detection unit 10 determines whether or not there is a shot boundary at each fixed interval using information of a predetermined frame, and detects a shot boundary only from the fixed interval at which it is determined that a shot boundary exists.

ショット境界を検出したショット境界検出部10は、ショット境界の前後2枚のフレームをキーフレームとして抽出する。以下、キーフレームとして抽出した前後2枚のフレームをキーフレームペアともいう。キーフレームペアを抽出したショット境界検出部10は、抽出したキーフレームペアをショット境界特徴量抽出部20に供給する。   The shot boundary detection unit 10 that has detected the shot boundary extracts two frames before and after the shot boundary as key frames. Hereinafter, the two front and rear frames extracted as key frames are also referred to as key frame pairs. The shot boundary detection unit 10 that has extracted the key frame pair supplies the extracted key frame pair to the shot boundary feature quantity extraction unit 20.

以下、図2乃至図4を用いてショット境界検出部10の動作を詳細に説明する。なお、ショット境界検出部10において利用する特徴量は、例えば、下記参考文献1に記載の特徴量としてもよいが、高速化のために単体で最も精度が高いとされる色ヒストグラム間のカイ二乗値とする。
(参考文献1)K.Matsumoto,M.Naito,K.Hoashi,and F.Sugaya,“SVM-Based Shot Boundary Detection With a Novel Feature,”in Proc.of ICME’06, pp.1837-1840,2006.
Hereinafter, the operation of the shot boundary detection unit 10 will be described in detail with reference to FIGS. Note that the feature amount used in the shot boundary detection unit 10 may be, for example, the feature amount described in Reference Document 1 below, but the chi-square between color histograms that are considered to have the highest accuracy alone for speeding up. Value.
(Reference 1) K. Matsumoto, M. Naito, K. Hoashi, and F. Sugaya, “SVM-Based Shot Boundary Detection With a Novel Feature,” in Proc. Of ICME'06, pp.1837-1840, 2006 .

図2のフローチャートに示すように、ショット境界検出部10は、まず、動画コンテンツ(リファレンスコンテンツおよびクエリコンテンツ)内のあるGOPに係るIフレームを抽出する(ステップS10)。例えば、ショット境界検出部10は、本処理を実行する毎に、動画コンテンツの先頭から順にIフレームを抽出する。   As shown in the flowchart of FIG. 2, the shot boundary detection unit 10 first extracts an I frame related to a certain GOP in the moving image content (reference content and query content) (step S10). For example, each time this process is executed, the shot boundary detection unit 10 extracts I frames in order from the top of the moving image content.

ショット境界検出部10は、当該Iフレームを含むGOP内にショット境界が存在するか否かを判定する(ステップS20)。以下、あるGOP内にショット境界が存在するか否かを判定する処理をGOPレベルショット境界検出処理という。   The shot boundary detection unit 10 determines whether or not a shot boundary exists in the GOP including the I frame (step S20). Hereinafter, processing for determining whether or not a shot boundary exists in a certain GOP is referred to as GOP level shot boundary detection processing.

図3(a)は、GOPレベルショット境界判定処理に利用する特徴量の抽出法を示す概念図である。ショット境界検出部10は、例えば、GOPレベルショット境界判定処理の判定対象となるGOP、即ち当該Iフレームを含むGOPの前後各N個のIフレームから特徴量を抽出する。   FIG. 3A is a conceptual diagram showing a feature amount extraction method used for the GOP level shot boundary determination process. For example, the shot boundary detection unit 10 extracts a feature amount from each of N I frames before and after the GOP to be determined in the GOP level shot boundary determination process, that is, the GOP including the I frame.

具体的には、まず、ショット境界検出部10は、各IフレームをX×Y個の領域に等分割し、等分割後の各領域から色ヒストグラムを抽出する。なお、上記参考文献1では、Ohtaの色空間でのヒストグラムを利用しているが、色空間の変換に必要な計算量を省くためYCbCr色空間でのヒストグラムを利用する。次に、ショット境界検出部10は、隣接するIフレームの同一の領域のヒストグラム間距離として、下記式(1)を用いてカイ二乗値dを算出する。 Specifically, first, the shot boundary detection unit 10 equally divides each I frame into X × Y regions, and extracts a color histogram from each region after the equal division. In the above-mentioned reference 1, a histogram in the Ohta color space is used, but a histogram in the YCbCr color space is used in order to save the amount of calculation necessary for the color space conversion. Then, the shot boundary detector 10, as a histogram distance between the same region of the adjacent I frames, calculates the chi-square value d X using the following equation (1).

Figure 2011039776
Figure 2011039776

次に、ショット境界検出部10は、SVM判別に利用する特徴量として、下記式(2)を用いて、全ての隣接Iフレーム間の全ての領域に対するカイ二乗値dであるVinterを算出する。 Next, the shot boundary detection unit 10 calculates V inter that is a chi-square value d X for all regions between all adjacent I frames, using the following equation (2) as a feature amount used for SVM discrimination. To do.

Figure 2011039776
Figure 2011039776

ショット境界検出部10は、上記特徴量を利用し、予めショット境界のラベリングを行ったコンテンツを利用し、当該Iフレームを含むGOP内にショット境界が存在する特徴を正例、それ以外の特徴を負例として学習しておくことでGOPレベルショット境界判定処理を実現する。   The shot boundary detection unit 10 uses the above-described feature amount, uses the content that has been previously labeled with the shot boundary, uses a feature in which a shot boundary exists in the GOP including the I frame as a positive example, and other features. The GOP level shot boundary determination process is realized by learning as a negative example.

ショット境界検出部10は、GOPレベルショット境界検出処理の結果、当該Iフレームを含むGOP内にショット境界が存在すると判定した場合(ステップS20:Yes)、当該GOP内のあるフレーム間がショット境界に該当するか否かを判定する(ステップS30)。例えば、ショット境界検出部10は、本処理を実行する毎に、当該GOPの先頭のフレーム間から順に、ショット境界に該当するか否かを判定する。以下、あるフレーム間がショット境界に該当するか否かを判定する処理をフレームレベルショット境界検出処理という。即ち、ショット境界検出部10は、GOPレベルショット境界検出処理においてGOP内にショット境界が存在すると判定されたGOPについて、フレームレベルショット境界検出処理を実行する。   As a result of the GOP level shot boundary detection process, the shot boundary detection unit 10 determines that a shot boundary exists in the GOP including the I frame (step S20: Yes), and a certain frame in the GOP becomes a shot boundary. It is determined whether it is applicable (step S30). For example, each time this process is executed, the shot boundary detection unit 10 determines whether or not the shot boundary corresponds to the first frame of the GOP in order. Hereinafter, the process of determining whether a certain frame corresponds to a shot boundary is referred to as a frame level shot boundary detection process. In other words, the shot boundary detection unit 10 executes the frame level shot boundary detection process for the GOP that is determined to have a shot boundary in the GOP in the GOP level shot boundary detection process.

図3(b)は、フレームレベルショット境界判定処理に利用する特徴量の抽出法を示す概念図である。フレームレベルショット境界判定処理において利用する特徴量は、図3(b)に示す通り、GOPレベル境界検出処理で利用した特徴量とほぼ同じである。但し、特徴量を抽出するフレームが、判定対象のGOP外に存在する場合は、不要なデコード処理の発生を防ぐため、判定対象のGOP外に存在するフレームとの間のカイ二乗値dを実際には求めずにショット境界でないフレーム間のカイ二乗値の平均値を利用する。 FIG. 3B is a conceptual diagram illustrating a feature amount extraction method used for frame level shot boundary determination processing. The feature quantity used in the frame level shot boundary determination process is substantially the same as the feature quantity used in the GOP level boundary detection process, as shown in FIG. However, if the frame from which the feature amount is extracted exists outside the determination target GOP, the chi-square value d X between the frame existing outside the determination target GOP is set to prevent generation of unnecessary decoding processing. An average value of chi-square values between frames that are not actually obtained and that are not shot boundaries is used.

ショット境界検出部10は、フレームレベルショット境界検出処理の結果、当該GOP内の当該フレーム間がショット境界に該当すると判定した場合(ステップS30:Yes)、当該フレーム間の前後のキーフレームペアを抽出する(ステップS40)。なお、キーフレームペアを抽出したショット境界検出部10は、ショット境界に該当すると判定した当該フレーム間の時刻(例えば、コンテンツの先頭からの時刻。以下、「ショット境界時刻」という)に対応付けて当該キーフレームペアを一時記憶する。   The shot boundary detection unit 10 extracts key frame pairs before and after the frames when it is determined that the frames in the GOP correspond to the shot boundaries as a result of the frame level shot boundary detection processing (step S30: Yes). (Step S40). The shot boundary detection unit 10 that has extracted the key frame pair is associated with the time between the frames determined to correspond to the shot boundary (for example, the time from the beginning of the content; hereinafter referred to as “shot boundary time”). The key frame pair is temporarily stored.

ショット境界検出部10は、当該GOP内の当該フレーム間がショット境界に該当しないと判定した場合(ステップS30:No)、または、キーフレームペアを抽出した場合(ステップS40)、当該GOP内の全フレーム間を対象にフレームレベルショット境界判定処理を実施したか否かを判断する(ステップS50)。ショット境界検出部10は、当該GOP内の全フレーム間を対象にフレームレベルショット境界判定処理を実施していないと判断した場合(ステップS50:No)、ステップS30に戻って、当該GOP内の次のフレーム間がショット境界に該当するか否かを判定する(ステップS30)。   When the shot boundary detection unit 10 determines that the frames in the GOP do not correspond to the shot boundaries (step S30: No) or extracts a key frame pair (step S40), the shot boundary detection unit 10 extracts all the frames in the GOP. It is determined whether or not frame level shot boundary determination processing has been performed between frames (step S50). When the shot boundary detection unit 10 determines that the frame level shot boundary determination process is not performed between all frames in the GOP (step S50: No), the process returns to step S30 to return to the next in the GOP. It is determined whether or not a frame boundary corresponds to a shot boundary (step S30).

ショット境界検出部10は、当該Iフレームを含むGOP内にショット境界が存在しないと判定した場合(ステップS20:No)、または、当該GOP内の全フレーム間を対象にフレームレベルショット境界判定処理を実施したと判断した場合(ステップS50:Yes)、当該コンテンツ内の全GOPを対象にGOPレベルショット境界判定処理を実施したか否かを判断する(ステップS60)。ショット境界検出部10は、当該コンテンツ内の全GOPを対象にGOPレベルショット境界判定処理を実施していないと判断した場合(ステップS60:No)、ステップS10に戻って、当該コンテンツ内の次のGOPに係るIフレームを抽出する(ステップS10)。   When it is determined that there is no shot boundary in the GOP including the I frame (step S20: No), the shot boundary detection unit 10 performs a frame level shot boundary determination process for all frames in the GOP. If it is determined that the GOP level shot boundary determination process has been performed on all GOPs in the content (step S50: Yes), it is determined (step S60). When the shot boundary detection unit 10 determines that the GOP level shot boundary determination process has not been performed for all GOPs in the content (step S60: No), the process returns to step S10 to return to the next in the content An I frame related to the GOP is extracted (step S10).

ショット境界検出部10は、当該コンテンツ内の全GOPを対象にGOPレベルショット境界判定処理を実施したと判断した場合(ステップS60:Yes)、コンテンツを識別するコンテンツIDとともに、一時記憶しているショット境界時刻とキーフレームペアとをショット境界特徴量抽出部20に供給し、本フローチャートは終了する。   When the shot boundary detection unit 10 determines that the GOP level shot boundary determination process has been performed on all GOPs in the content (step S60: Yes), the shot temporarily stored together with the content ID for identifying the content The boundary time and the key frame pair are supplied to the shot boundary feature quantity extraction unit 20, and this flowchart ends.

以上説明した様に、ショット境界検出においては、圧縮されたコンテンツの基本構造であるGOPに着目し、フレームレベルショット境界判定処理に先立ってGOPレベルショット境界検出処理を実行している。従って、デコード等の処理時間が削減され、ショット境界の検出処理が高速化する。なお、動画コンテンツの符号化情報を利用することによって、全フレームをデコードすることなく、ショット境界を高速に検出する手法が存在するが、当該方法は、特定のコーデックに依存した符号化情報を利用するため、特定のコーデックで圧縮された動画コンテンツのみにしか適用できず、汎用的ではない。   As described above, in shot boundary detection, attention is paid to GOP which is a basic structure of compressed content, and GOP level shot boundary detection processing is executed prior to frame level shot boundary determination processing. Accordingly, the processing time for decoding and the like is reduced, and the shot boundary detection process is accelerated. Note that there is a method for detecting shot boundaries at high speed without decoding all frames by using encoded information of video content, but this method uses encoded information that depends on a specific codec. Therefore, it can be applied only to moving image content compressed with a specific codec, and is not general purpose.

ショット境界特徴量抽出部20は、ショット境界検出部10から、コンテンツIDとショット境界時刻とキーフレームペアとを取得する。ショット境界特徴量抽出部20は、ショット境界検出部10から取得したキーフレームペアから特徴量(以下、「ショット境界特徴量」という)を抽出する。   The shot boundary feature quantity extraction unit 20 acquires a content ID, a shot boundary time, and a key frame pair from the shot boundary detection unit 10. The shot boundary feature amount extraction unit 20 extracts a feature amount (hereinafter referred to as “shot boundary feature amount”) from the key frame pair acquired from the shot boundary detection unit 10.

具体的には、ショット境界特徴量抽出部20は、各キーフレームの相関を基にショット境界特徴量を抽出する。例えば、ショット境界特徴量抽出部20は、各キーフレームをそれぞれ複数のブロックに分割し、これら複数のブロックから一定個数のブロックの組を作成し、それらブロックの組の相関を基にショット境界特徴量を抽出する。例えば、ショット境界特徴量抽出部20は、ブロックの組の平均輝度、動き強度、エッジ量の大小関係の少なくとも1つを基にショット境界特徴量を抽出する。   Specifically, the shot boundary feature amount extraction unit 20 extracts a shot boundary feature amount based on the correlation of each key frame. For example, the shot boundary feature amount extraction unit 20 divides each key frame into a plurality of blocks, creates a set of a certain number of blocks from the plurality of blocks, and creates shot boundary features based on the correlation between the sets of blocks. Extract the amount. For example, the shot boundary feature amount extraction unit 20 extracts a shot boundary feature amount based on at least one of the magnitude relationship between the average luminance, the motion intensity, and the edge amount of a block set.

リファレンスコンテンツのショット境界特徴量を抽出したショット境界特徴量抽出部20は、当該リファレンスコンテンツに係るショット情報(コンテンツID、ショット境界時刻、ショット境界特徴量)を特徴量登録部30に供給する。クエリコンテンツのショット境界特徴量を抽出したショット境界特徴量抽出部20は、当該クエリコンテンツに係るショット情報(コンテンツID、ショット境界時刻、ショット境界特徴量)を特徴量照合部40に供給する。なお、ショット境界特徴量抽出部20は、例えば、ユーザからの入力に基づいて、当該コンテンツがリファレンスコンテンツであるかクエリコンテンツであるかを判断してもよい。例えば、動画コンテンツ検出装置はユーザからのモード選択を受け付けるモード選択受付部(非図示)を備え、モード選択受付部を介してリファレンスコンテンツのショット境界特徴量をデータベース50に登録する登録モードを受け付けた場合には、ショット境界特徴量抽出部20は当該コンテンツがリファレンスコンテンツであると判断し、クエリコンテンツとリファレンスコンテンツとを照合する照合モードを受け付けた場合には、ショット境界特徴量抽出部20は当該コンテンツがクエリコンテンツであると判断する。   The shot boundary feature quantity extraction unit 20 that has extracted the shot boundary feature quantity of the reference content supplies shot information (content ID, shot boundary time, shot boundary feature quantity) related to the reference content to the feature quantity registration unit 30. The shot boundary feature amount extraction unit 20 that has extracted the shot boundary feature amount of the query content supplies the feature amount matching unit 40 with the shot information (content ID, shot boundary time, shot boundary feature amount) related to the query content. Note that the shot boundary feature amount extraction unit 20 may determine whether the content is reference content or query content based on an input from the user, for example. For example, the moving image content detection apparatus includes a mode selection receiving unit (not shown) that receives a mode selection from the user, and receives a registration mode for registering the shot boundary feature quantity of the reference content in the database 50 via the mode selection receiving unit. In this case, when the shot boundary feature quantity extraction unit 20 determines that the content is reference content and receives a matching mode for matching the query content and the reference content, the shot boundary feature quantity extraction unit 20 Determine that the content is query content.

以下、ショット境界特徴量抽出部20がブロックの組のエッジ量の大小関係を基にショット境界特徴量を抽出する例を説明する。まず、ショット境界特徴量抽出部20は、各キーフレームをそれぞれN×M個の領域に分割する。次に、ショット境界特徴量抽出部20は、下記式(3)または下記式(4)を用いて、分割後の各領域のエッジ量E(i,j)を算出する。   Hereinafter, an example in which the shot boundary feature amount extraction unit 20 extracts a shot boundary feature amount based on the magnitude relationship between the edge amounts of a set of blocks will be described. First, the shot boundary feature quantity extraction unit 20 divides each key frame into N × M areas. Next, the shot boundary feature quantity extraction unit 20 calculates an edge quantity E (i, j) of each divided area using the following formula (3) or the following formula (4).

Figure 2011039776
Figure 2011039776

次に、ショット境界特徴量抽出部20は、図4に示すように、下記式(5)(6)にて表されるN×Mビットのショット境界特徴量B(i,j)を算出する。但し、エッジ量E(i,j)はショット境界の前のキーフレーム、エッジ量E(i,j)はショット境界の後のキーフレームである。 Next, as shown in FIG. 4, the shot boundary feature quantity extraction unit 20 calculates an N × M bit shot boundary feature quantity B (i, j) represented by the following equations (5) and (6). . However, the edge amount E (i, j) is a key frame before the shot boundary, and the edge amount E + (i, j) is a key frame after the shot boundary.

Figure 2011039776
Figure 2011039776

以上説明した様に、ショット境界特徴量の抽出においては、ビット表現されるショット境界特徴量を生成するため、XORによる高速な特徴量間の距離計算が可能になる。また、データベース50の登録(蓄積)コストの削減が可能になる。なお、画像をビット列表現する手法は複数存在するが、それらの主な課題はロバスト性である。ロバスト性とは、画像に何らかの改変が加えられた際に、特徴量がなるべく変化しない特性のことである。従来の手法は、主にロゴやキャプション等のパターンが挿入された際に、大きく特徴量が変化してしまうという課題があった。本実施形態の手法では、1枚のフレームから特徴量を抽出するのではなく、キーフレームペア、すなわち2枚のキーフレームの相関情報を利用して特徴量を抽出するため、パターン挿入を含む様々な改変にロバストな特徴量を抽出することができる。   As described above, in the extraction of the shot boundary feature value, since the shot boundary feature value expressed in bits is generated, the distance between the feature values can be calculated at high speed by XOR. Further, the registration (accumulation) cost of the database 50 can be reduced. Note that there are a plurality of methods for representing a bit string of an image, but the main problem is robustness. Robustness is a characteristic in which a feature amount does not change as much as possible when some modification is made to an image. The conventional method has a problem that the feature amount largely changes when a pattern such as a logo or a caption is inserted. In the method of the present embodiment, feature amounts are not extracted from one frame, but feature amounts are extracted by using correlation information between key frame pairs, that is, two key frames. It is possible to extract feature amounts that are robust to various modifications.

なお、具体例として、ショット境界特徴量抽出部20がブロックの組のエッジ量の大小関係を基にショット境界特徴量を抽出する例を説明したが、平均輝度、動き強度の大小関係を基に境界特徴量を抽出する場合も同様である。   As a specific example, the example in which the shot boundary feature amount extraction unit 20 extracts the shot boundary feature amount based on the magnitude relationship between the edge amounts of the block sets has been described, but based on the magnitude relationship between the average luminance and the motion intensity. The same applies to the case where the boundary feature amount is extracted.

特徴量登録部30は、ショット境界特徴量抽出部20から、リファレンスコンテンツに係るショット情報(コンテンツID、ショット境界時刻、ショット境界特徴量)を取得する。リファレンスコンテンツに係るショット情報を取得した特徴量登録部30は、当該リファレンスコンテンツに係るショット情報をデータベース50に登録(記憶)する。なお、特徴量登録部30は、ショット境界特徴量のハッシュ値を算出し、当該ハッシュ値をハッシュキーとして、各ショット情報を複数のハッシュテーブルに記憶する。なお、ハッシングは、例えば、下記参考文献2に記載のLocal Sensitive Hashingを利用してもよい。
(参考文献2)Datar,M.,N.Immorlica,P.Indyk and V.Mirrokni,“Locality-Sensitive Hashing Scheme Based on p-Stable Distributions,” Proceedings of the 20th Symposium on Computational Geometry,pp.253-262,2004.
The feature amount registration unit 30 acquires shot information (content ID, shot boundary time, shot boundary feature amount) related to the reference content from the shot boundary feature amount extraction unit 20. The feature amount registration unit 30 that has acquired the shot information related to the reference content registers (stores) the shot information related to the reference content in the database 50. The feature amount registration unit 30 calculates a hash value of the shot boundary feature amount, and stores each shot information in a plurality of hash tables using the hash value as a hash key. For hashing, for example, Local Sensitive Hashing described in Reference Document 2 below may be used.
(Reference 2) Datar, M., N. Immorlica, P. Indyk and V. Mirrokni, “Locality-Sensitive Hashing Scheme Based on p-Stable Distributions,” Proceedings of the 20th Symposium on Computational Geometry, pp.253-262 , 2004.

以上説明した様に、特徴量の登録においては、各ショット情報は、ショット境界特徴量を基に、例えばLocal Sensitive Hashingによって複数のハッシュテーブルに登録されるため、探索処理が高速化する。   As described above, in registering feature amounts, each piece of shot information is registered in a plurality of hash tables based on shot boundary feature amounts, for example, by Local Sensitive Hashing.

データベース50は、リファレンスコンテンツに係るショット情報(コンテンツID、ショット境界の時刻、ショット境界特徴量)が登録(記憶)されている。なお、上述の如く、各ショット情報は、ショット境界特徴量をハッシュキーとして、複数のハッシュテーブルに登録されている。   The database 50 registers (stores) shot information (content ID, shot boundary time, shot boundary feature amount) related to the reference content. As described above, each piece of shot information is registered in a plurality of hash tables using the shot boundary feature quantity as a hash key.

特徴量照合部40は、ショット境界特徴量抽出部20から、クエリコンテンツに係るショット情報(コンテンツID、ショット境界時刻、ショット境界特徴量)を取得する。クエリコンテンツに係るショット情報を取得した特徴量照合部40は、当該クエリコンテンツに係るショット境界特徴量を、データベース50に記憶されている複数のリファレンスコンテンツに係るショット境界特徴量と照合する。即ち、特徴量照合部40は、クエリコンテンツのショット境界特徴量を取得した場合、リファレンスコンテンツのショット境界特徴量を予め登録しているデータベース50を参照し、クエリコンテンツがリファレンスコンテンツの少なくとも一部をコピーしたものに該当するか否かを照合する。   The feature amount matching unit 40 acquires shot information (content ID, shot boundary time, shot boundary feature amount) related to the query content from the shot boundary feature amount extraction unit 20. The feature amount collation unit 40 that has acquired the shot information related to the query content collates the shot boundary feature amount related to the query content with the shot boundary feature amount related to a plurality of reference contents stored in the database 50. That is, when acquiring the shot boundary feature amount of the query content, the feature amount matching unit 40 refers to the database 50 in which the shot boundary feature amount of the reference content is registered in advance, and the query content includes at least a part of the reference content. Check whether it corresponds to the copied one.

具体的には、まず、特徴量照合部40は、クエリコンテンツの各ショット境界のショット情報(ショット境界の時刻、ショット境界特徴量)を基に、クエリコンテンツと最も類似するリファレンスコンテンツの区間を推定し、当該区間の類似度と閾値とを利用してクエリコンテンツがリファレンスコンテンツのコピーであるか否かを判定する。類似するリファレンス区間の推定は、クエリコンテンツとリファレンスコンテンツのショット境界同士のマッチングを投票によって纏めることで実現する。また、当該区間の類似度は、当該区間の投票数に基づいて算出する。   Specifically, the feature amount matching unit 40 first estimates the reference content section most similar to the query content based on the shot information (shot boundary time, shot boundary feature amount) of each shot boundary of the query content. Then, it is determined whether the query content is a copy of the reference content using the similarity and threshold value of the section. The estimation of the similar reference section is realized by collecting matching between query content and reference content shot boundaries by voting. Further, the similarity of the section is calculated based on the number of votes in the section.

以下、図5を用いて特徴量照合部40の動作を具体的に説明する。なお、データベース50には、複数のリファレンスコンテンツに係るショット情報(コンテンツID、ショット境界時刻、ショット境界特徴量)が登録されているものとする。   Hereinafter, the operation of the feature amount matching unit 40 will be specifically described with reference to FIG. It is assumed that shot information (content ID, shot boundary time, shot boundary feature value) related to a plurality of reference contents is registered in the database 50.

特徴量照合部40は、ショット境界特徴量抽出部20から、図5(a)に示すクエリコンテンツQに係るショット情報(コンテンツID、ショット境界時刻、ショット境界特徴量)を取得する。なお、ショット境界時刻tはショット境界Qのショット境界時刻、ショット境界時刻tはショット境界Qのショット境界時刻、ショット境界時刻tはショット境界Qのショット境界時刻であるものとする。 The feature amount matching unit 40 acquires shot information (content ID, shot boundary time, shot boundary feature amount) related to the query content Q shown in FIG. 5A from the shot boundary feature amount extraction unit 20. The shot boundary time t 1 is the shot boundary time of the shot boundary Q 1 , the shot boundary time t 2 is the shot boundary time of the shot boundary Q 2 , and the shot boundary time t 3 is the shot boundary time of the shot boundary Q 3. To do.

クエリコンテンツQに係るショット情報を取得した特徴量照合部40は、クエリコンテンツQの各ショット境界Q、Q、Qの各ショット特徴量と類似するショット特徴量を有するリファレンスコンテンツに係るショット境界をマッチングによってデータベース50から検索する。具体的には、特徴量照合部40は、クエリコンテンツとリファレンスコンテンツのショット特徴量同士の距離(類似度)が一定以下になるショット境界、または、当該ショット特徴量同士の距離が近い方から所定の個数のショット境界の何れかを類似するショット境界として検索する。 The feature amount matching unit 40 that has acquired the shot information related to the query content Q, the shot related to the reference content having a shot feature amount similar to each shot feature amount of each shot boundary Q 1 , Q 2 , Q 3 of the query content Q. The boundary is searched from the database 50 by matching. Specifically, the feature amount matching unit 40 is predetermined from a shot boundary in which the distance (similarity) between the shot feature amounts of the query content and the reference content is equal to or less than a certain value, or the distance between the shot feature amounts is shorter. Are searched as similar shot boundaries.

具体的には、特徴量照合部40は、上述のショット特徴量同士の距離は、例えば、クエリコンテンツに係るショット境界特徴量であるN×Mビット、リファレンスコンテンツに係るショット境界特徴量であるN×Mビットの同士のハミング距離として単純なビット操作によって高速に算出可能である。例えば、N×Mビットのクエリコンテンツに係るショット境界特徴量Bが下記式(7)、N×Mビットのリファレンスコンテンツに係るショット境界特徴量B’が下記式(8)によって表される場合、特徴量照合部40は、N×Mビットのビット列(B XOR B’)を生成し、当該ビット列(B XOR B’)に含まれる1の個数をBとB’のハミング距離として算出する。   Specifically, the feature amount matching unit 40 determines that the distance between the above-described shot feature amounts is, for example, N × M bits that are shot boundary feature amounts related to query content, and N is a shot boundary feature amount related to reference content. The Hamming distance between × M bits can be calculated at high speed by a simple bit operation. For example, when the shot boundary feature amount B related to the N × M bit query content is expressed by the following equation (7), and the shot boundary feature amount B ′ related to the N × M bit reference content is expressed by the following equation (8): The feature amount matching unit 40 generates an N × M-bit bit string (B XOR B ′) and calculates the number of 1 included in the bit string (B XOR B ′) as the Hamming distance between B and B ′.

Figure 2011039776
Figure 2011039776

但し、特徴量照合部40は、平均輝度、動き強度、エッジ量が近いブロックの組の大小関係については、上記距離の算出対象から除外してもよい。例えば、エッジ量が近いブロックの組の大小関係を上記距離の算出対象から除外する場合、クエリコンテンツのショット境界の前後の各キーフレームのブロック(i,j)のエッジ量をE(i,j)およびE(i,j)とするとき、|E(i,j)−E(i,j)|が小さい方から一定個のブロックに相当するビットに関しては距離算出に利用しないようにしてもよい。カイ二乗値d(i,j)が小さいブロックは、E(i,j)とE(i,j)の大小関係が変わりやすいためビットの値の信頼性が低いためである。 However, the feature amount matching unit 40 may exclude the size relationship between sets of blocks having similar average luminance, motion intensity, and edge amount from the distance calculation target. For example, when excluding the size relationship of a set of blocks having close edge amounts from the calculation target of the distance, the edge amount of each key frame block (i, j) before and after the shot boundary of the query content is set to E (i, j) and E + (i, when a j), | E + (i , j) -E - (i, j) | is not used in the distance calculation with respect to bits corresponding to a predetermined number of blocks from the smallest You may do it. This is because a block having a small chi-square value d X (i, j) has a low bit value reliability because the magnitude relationship between E (i, j) and E + (i, j) is easily changed.

なお、距離の算出に|E(i,j)−E(i,j)|が小さい方から一定個のブロックに相当するビットを利用しないときは、まず、特徴量照合部40は、下記式(9)によって表されるマスク特徴量H(i,j)を作成する。そして、特徴量照合部40は、上述のビット列(B XOR B’)に代えて、下記式(10)によって表されるN×Mビットのビット列Hを利用して、ビット列((B XOR B’) AND H)を生成し、生成したビット列((B XOR B’) AND H)に含まれる1の個数をBとB’のハミング距離として算出する。 The distance for the calculation of | E + (i, j) -E - (i, j) | when not using the bits corresponding to a predetermined number of blocks from the smaller, first, the feature checker 40, A mask feature amount H (i, j) represented by the following equation (9) is created. Then, the feature amount matching unit 40 uses a bit string ((B XOR B ′) by using an N × M bit bit string H represented by the following equation (10) instead of the above bit string (B XOR B ′). ) AND H) is generated, and the number of 1 included in the generated bit string ((B XOR B ′) AND H) is calculated as the Hamming distance between B and B ′.

Figure 2011039776
Figure 2011039776

以上にようにして、特徴量照合部40は、例えば、図5(b)に示すように、リファレンスコンテンツAの各ショット境界A、A、A、A、A、リファレンスコンテンツBの各ショット境界B、B、Bを検索する。 As described above, the feature amount matching unit 40, for example, as shown in FIG. 5B, each shot boundary A 1 , A 2 , A 3 , A 4 , A 5 , and reference content B of the reference content A Each shot boundary B 1 , B 2 , B 3 is searched.

リファレンスコンテンツに係るショット境界を検索した特徴量照合部40は、マッチングを行った全てのショット境界のペアに関して、(リファレンスコンテンツに係るショット境界の時刻−クエリコンテンツに係るショット境界の時刻)に投票を行う。当該投票は、コピー区間の先頭の推定である。即ち、当該投票は、図5(c)に示すように、マッチングが正しければ、実際のコピー区間の先頭と推定される時刻に集中し、マッチングが正しくなければ、分散する。従って、特徴量照合部40は、最も多くの投票が集中する時刻への投票数が閾値以上であるか否かを判定し、閾値以上であれば、当該時刻はコピー区間の先頭であると推定する。なお、最も多くの投票が集中する時刻はコピー区間の先頭であると推定した特徴量照合部40は、当該クエリコンテンツは不正流通コンテンツであると推測した旨の情報を外部に出力する。また、特徴量照合部40は、当該クエリコンテンツは不正流通コンテンツであると推測した旨の情報に代えてまたは加えて、例えば、クエリコンテンツおよびリファレンスコンテンツに係るショット情報、並びに、コピー区間の先頭位置を示す情報などを外部に出力してもよい。   The feature amount matching unit 40 that has searched for the shot boundary related to the reference content votes for (shot time related to the reference content−time of shot boundary related to the query content) for all the matched shot boundary pairs. Do. The vote is an estimate of the beginning of the copy section. That is, as shown in FIG. 5C, the voting is concentrated at the time estimated to be the head of the actual copy section if the matching is correct, and dispersed if the matching is not correct. Therefore, the feature amount matching unit 40 determines whether or not the number of votes at the time when the most votes are concentrated is greater than or equal to a threshold, and if it is greater than or equal to the threshold, the time is estimated to be the head of the copy section. To do. Note that the feature amount matching unit 40, which has estimated that the time when the most votes are concentrated, is the head of the copy section, outputs information indicating that the query content is unauthorized distribution content to the outside. Further, the feature amount matching unit 40, for example, instead of or in addition to the information that the query content is estimated to be unauthorized distribution content, for example, shot information related to the query content and the reference content, and the start position of the copy section Or the like may be output to the outside.

以上説明したように、動画コンテンツ検出装置1は、クエリコンテンツの特徴量とリファレンスコンテンツの特徴量とを用いて、不正流通コンテンツと推測されるクエリコンテンツを検出する。動画コンテンツ検出装置1は、クエリコンテンツがリファレンスコンテンツの少なくとも一部を含む不正流通コンテンツであるか否かを判定する。   As described above, the moving image content detection apparatus 1 detects query content that is presumed to be illegally distributed content using the feature amount of the query content and the feature amount of the reference content. The moving image content detection apparatus 1 determines whether the query content is unauthorized distribution content including at least a part of the reference content.

動画コンテンツ検出装置1では、ショット境界からキーフレームを抽出するため、ノイズにロバストかつ冗長でないキーフレームが抽出される。また、ショット境界の前後2枚のキーフレームの相関を基に算出した特徴量を利用するため、コンテンツの変容(例えば、編集、改変、ノイズ)に対してロバストなマッチングが可能になる。また、コンテンツ内の全フレームのデコードを要しないため、高速に検出することができる。即ち、動画コンテンツ検出装置1によれば、著作権者等が自由配布を許諾していないコンテンツの一部分を切り出すなど時間軸方向の編集が行われた不正流通コンテンツや、全体が圧縮ノイズなどによって劣化した不正流通コンテンツであっても、精度よくかつ高速に検出することができるようになる。   In the moving image content detection apparatus 1, since key frames are extracted from shot boundaries, key frames that are robust against noise and not redundant are extracted. In addition, since the feature amount calculated based on the correlation between the two key frames before and after the shot boundary is used, robust matching can be performed with respect to the content change (for example, editing, modification, noise). In addition, since it is not necessary to decode all frames in the content, it can be detected at high speed. That is, according to the moving image content detection apparatus 1, illegally distributed content that has been edited in the time axis direction, such as cutting out a part of the content that the copyright holder or the like has not permitted to distribute freely, or the entire content is deteriorated due to compression noise or the like Even illegally distributed content can be detected accurately and at high speed.

なお、動画コンテンツ検出装置1は、図1(a)に示すように、ショット境界検出部10、ショット境界特徴量抽出部20および特徴量照合部40に加え、特徴量登録部30およびデータベース50を備える例を説明したが、当該構成に限定されない。例えば、動画コンテンツ検出装置1は、図1(b)に示すように、ショット境界検出部10、ショット境界特徴量抽出部20および特徴量照合部40のみを備えてもよい。動画コンテンツ検出装置1は、図1(b)に示す構成の場合、上述のショット境界検出部10、ショット境界特徴量抽出部20および特徴量登録部30を備える外部の装置によってリファレンスコンテンツに係るショット情報が登録されている外部のデータベース50を参照し、不正流通コンテンツと推測されるクエリコンテンツを検出する。   As shown in FIG. 1A, the moving image content detection apparatus 1 includes a feature amount registration unit 30 and a database 50 in addition to the shot boundary detection unit 10, the shot boundary feature amount extraction unit 20, and the feature amount comparison unit 40. Although the example provided is demonstrated, it is not limited to the said structure. For example, the moving image content detection apparatus 1 may include only the shot boundary detection unit 10, the shot boundary feature amount extraction unit 20, and the feature amount comparison unit 40 as illustrated in FIG. In the case of the configuration shown in FIG. 1B, the moving image content detection device 1 is a shot related to reference content by an external device including the above-described shot boundary detection unit 10, shot boundary feature amount extraction unit 20, and feature amount registration unit 30. Referring to the external database 50 in which information is registered, query content that is presumed to be illegally distributed content is detected.

なお、本発明の一実施形態による動画コンテンツ検出装置1の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本発明の一実施形態による動画コンテンツ検出装置1の各処理に係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Note that a program for executing each process of the moving image content detection apparatus 1 according to an embodiment of the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by a computer system. By executing, the above-described various processes related to each process of the moving image content detection apparatus 1 according to the embodiment of the present invention may be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1 動画コンテンツ検出装置 10 ショット境界検出部 20 ショット境界特徴量抽出部 30 特徴量登録部 40 特徴量照合部 50 データベース(記憶部) DESCRIPTION OF SYMBOLS 1 Movie content detection apparatus 10 Shot boundary detection part 20 Shot boundary feature-value extraction part 30 Feature-value registration part 40 Feature-value collation part 50 Database (memory | storage part)

Claims (7)

動画コンテンツのショット境界を検出するショット境界検出部と、
前記ショット境界検出部によって検出されたショット境界の前後のフレームから特徴量を抽出するショット境界特徴量抽出部と、
一の動画コンテンツに係る特徴量であって前記ショット境界特徴量抽出部によって抽出されたショット境界特徴量を、記憶部に記憶されている複数の動画コンテンツに係る前記ショット境界特徴量と照合する特徴量照合部と
を備えることを特徴とする動画コンテンツ検出装置。
A shot boundary detector for detecting the shot boundary of the video content;
A shot boundary feature amount extraction unit that extracts feature amounts from frames before and after the shot boundary detected by the shot boundary detection unit;
A feature that is a feature amount related to one moving image content, and that matches a shot boundary feature amount extracted by the shot boundary feature amount extraction unit with the shot boundary feature amount related to a plurality of moving image contents stored in a storage unit A video content detection apparatus comprising: a quantity verification unit.
前記ショット境界検出部は、
動画コンテンツを構成するフレームであって一定間隔毎に存在する所定のフレームの情報を用いて一定間隔内に前記ショット境界が存在するか否かを判定し、前記ショット境界が存在すると判定した一定間隔内の各フレーム間がショット境界であるか否かを判定して、動画コンテンツのショット境界を検出する
ことを特徴とする請求項1に記載の指定動画コンテンツ検出装置。
The shot boundary detection unit
It is determined whether or not the shot boundary exists within a fixed interval using information of a predetermined frame that is a frame constituting video content and exists at fixed intervals, and the fixed interval at which the shot boundary is determined to exist The designated moving image content detection apparatus according to claim 1, wherein a shot boundary of moving image content is detected by determining whether or not each of the frames is a shot boundary.
前記所定のフレームは、
圧縮後の動画コンテンツを構成するフレームのうち他のフレームを参照することなくデコードできるフレームである
ことを特徴とする請求項2に記載の指定動画コンテンツ検出装置。
The predetermined frame is:
3. The designated moving image content detection apparatus according to claim 2, wherein the specified moving image content detection apparatus is a frame that can be decoded without referring to other frames among the frames constituting the compressed moving image content.
前記ショット境界特徴量抽出部は、
前記ショット境界の前後のフレームの相関を基に前記ショット境界特徴量を抽出する
ことを特徴とする請求項2または請求項3の何れかに記載の指定動画コンテンツ検出装置。
The shot boundary feature amount extraction unit
4. The designated moving image content detection apparatus according to claim 2, wherein the shot boundary feature amount is extracted based on a correlation between frames before and after the shot boundary.
前記ショット境界特徴量抽出部は、
前記ショット境界の前後のフレームをそれぞれ複数のブロックに分割し、これら複数のブロックから一定個数のブロックの組を作成し、それらブロックの組の相関を基に前記ショット境界特徴量を抽出する
ことを特徴とする請求項2または請求項3の何れかに記載の指定動画コンテンツ検出装置。
The shot boundary feature amount extraction unit
The frame before and after the shot boundary is divided into a plurality of blocks, a set of a predetermined number of blocks is created from the plurality of blocks, and the shot boundary feature amount is extracted based on the correlation of the block sets. The designated moving image content detection apparatus according to claim 2, wherein the moving image content detection apparatus is a specified moving image content detection apparatus.
前記ショット境界特徴量抽出部は、
前記ショット境界の前後のフレームをそれぞれ複数のブロックに分割し、これら複数のブロックから一定個数のブロックの組を作成し、ブロックの組の平均輝度、動き強度、エッジ量の大小関係の少なくとも1つを基に前記ショット境界特徴量を抽出する
ことを特徴とする請求項2または請求項3の何れかに記載の指定動画コンテンツ検出装置。
The shot boundary feature amount extraction unit
Each of the frames before and after the shot boundary is divided into a plurality of blocks, a set of a certain number of blocks is created from the plurality of blocks, and at least one of the magnitude relationships of the average luminance, motion intensity, and edge amount of the block set The specified moving image content detection apparatus according to claim 2, wherein the shot boundary feature amount is extracted based on.
前記特徴量照合部は、
前記一の動画コンテンツに係る前記ショット境界特徴量と前記記憶部に記憶されている動画コンテンツに係る前記ショット境界特徴量との距離を算出し、当該距離に基づいて前記一の動画コンテンツと前記記憶部に記憶されている動画コンテンツとを照合し、
前記距離算出において、平均輝度、動き強度、エッジ量が近いブロックの組の大小関係は利用しない
ことを特徴とする請求項2または請求項3の何れかに記載の指定動画コンテンツ検出装置。
The feature amount matching unit
A distance between the shot boundary feature amount related to the one moving image content and the shot boundary feature amount related to the moving image content stored in the storage unit is calculated, and the one moving image content and the storage are calculated based on the distance Check the video content stored in the
4. The designated moving image content detection apparatus according to claim 2, wherein the distance calculation does not use a magnitude relationship between a set of blocks having close average brightness, motion intensity, and edge amount.
JP2009186566A 2009-08-11 2009-08-11 Video content detection device Expired - Fee Related JP5297297B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009186566A JP5297297B2 (en) 2009-08-11 2009-08-11 Video content detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009186566A JP5297297B2 (en) 2009-08-11 2009-08-11 Video content detection device

Publications (2)

Publication Number Publication Date
JP2011039776A true JP2011039776A (en) 2011-02-24
JP5297297B2 JP5297297B2 (en) 2013-09-25

Family

ID=43767482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009186566A Expired - Fee Related JP5297297B2 (en) 2009-08-11 2009-08-11 Video content detection device

Country Status (1)

Country Link
JP (1) JP5297297B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015515770A (en) * 2012-02-29 2015-05-28 アルトネット、インコーポレイテッド Stream recognition and filtering

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001313956A (en) * 2000-03-07 2001-11-09 Lg Electronics Inc Hierarchical mixed type shot conversion detecting method in mpeg compression video environment

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001313956A (en) * 2000-03-07 2001-11-09 Lg Electronics Inc Hierarchical mixed type shot conversion detecting method in mpeg compression video environment

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200202409008; 児玉 明: 'MSP情報検索システムとその動画像検索エンジンに関する検討' 情報処理学会研究報告 第2001巻 第19号, 20010302, p.43-48, 社団法人情報処理学会 *
CSNG200900423023; 内田 祐介: 'カラーレイアウト記述子を利用したコピー検出手法の性能評価' 電子情報通信学会技術研究報告 第109巻 第65号, 20090521, p.159-164, 社団法人電子情報通信学会 *
JPN6013001065; 内田 祐介: 'カラーレイアウト記述子を利用したコピー検出手法の性能評価' 電子情報通信学会技術研究報告 第109巻 第65号, 20090521, p.159-164, 社団法人電子情報通信学会 *
JPN6013001067; 児玉 明: 'MSP情報検索システムとその動画像検索エンジンに関する検討' 情報処理学会研究報告 第2001巻 第19号, 20010302, p.43-48, 社団法人情報処理学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015515770A (en) * 2012-02-29 2015-05-28 アルトネット、インコーポレイテッド Stream recognition and filtering
US9703869B2 (en) 2012-02-29 2017-07-11 Global File Systems Holdings, Llc Stream recognition and filtering
US10068017B2 (en) 2012-02-29 2018-09-04 Global File Systems Holdings, Llc Stream recognition and filtering

Also Published As

Publication number Publication date
JP5297297B2 (en) 2013-09-25

Similar Documents

Publication Publication Date Title
US9177209B2 (en) Temporal segment based extraction and robust matching of video fingerprints
US8175413B1 (en) Video identification through detection of proprietary rights logos in media
US9185338B2 (en) System and method for fingerprinting video
JP5878238B2 (en) Method and apparatus for comparing pictures
US20090274364A1 (en) Apparatus and methods for detecting adult videos
US20090290752A1 (en) Method for producing video signatures and identifying video clips
US20160063343A1 (en) Method for selecting frames from video sequences based on incremental improvement
Lian et al. Content-based video copy detection–a survey
GB2464123A (en) Event-based temporal video fingerprinting
Küçüktunç et al. Video copy detection using multiple visual cues and MPEG-7 descriptors
US20110216939A1 (en) Apparatus and method for tracking target
Kim et al. Adaptive weighted fusion with new spatial and temporal fingerprints for improved video copy detection
US20150304705A1 (en) Synchronization of different versions of a multimedia content
KR101373176B1 (en) Copy video data detection method and apparatus, storage medium
JP2010186307A (en) Moving image content identification apparatus and moving image content identification method
JP5297297B2 (en) Video content detection device
Su et al. Efficient copy detection for compressed digital videos by spatial and temporal feature extraction
KR101033296B1 (en) Apparatus and method for extracting and decision-making of spatio-temporal feature in broadcasting and communication systems
JP2010263327A (en) Feature vector computation apparatus and program
Gavade et al. Passive blind forensic scheme for copy-move temporal tampering detection
Roopalakshmi et al. Robust features for accurate spatio-temporal registration of video copies
Bagiwa Passive Video Forgery Detection Using Frame Correlation Statistical Features
Aminu Mustapha Passive video forgery detection using frame correlation statistical features/Aminu Mustapha Bagiwa
Seidl et al. A study of gradual transition detection in historic film material
Sandhya et al. A comprehensive analysis of digital video forensics techniques and challenges

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130614

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees