JP2008085540A - Program, detection method and detector - Google Patents

Program, detection method and detector Download PDF

Info

Publication number
JP2008085540A
JP2008085540A JP2006261868A JP2006261868A JP2008085540A JP 2008085540 A JP2008085540 A JP 2008085540A JP 2006261868 A JP2006261868 A JP 2006261868A JP 2006261868 A JP2006261868 A JP 2006261868A JP 2008085540 A JP2008085540 A JP 2008085540A
Authority
JP
Japan
Prior art keywords
image
similarity
images
reduced
cut change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006261868A
Other languages
Japanese (ja)
Other versions
JP4662169B2 (en
Inventor
Mototsugu Abe
素嗣 安部
Masayuki Nishiguchi
正之 西口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006261868A priority Critical patent/JP4662169B2/en
Publication of JP2008085540A publication Critical patent/JP2008085540A/en
Application granted granted Critical
Publication of JP4662169B2 publication Critical patent/JP4662169B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To accurately detect a cut change including a blend cut change. <P>SOLUTION: A feature extraction part 811 extracts the features of a first image, a second image and a third image, and a similarity degree calculation part 813 calculates the similarity degree of the features of the two images among the first image, the second image and the third image. A reduced image generation part 814 generates the reduced images of the first image, the second image and the third image, a synthesis image generation part 816 generates the synthesis images of the reduced images of the first image and the third image positioned before and after the second image timewise, and a similarity degree calculation part 817 calculates the similarity degree of the reduced image of the second image and the synthesis image. A judgement part 818 judges whether or not the cut change is present between the first image and the third image on the basis of the similarity degree of the features of the two images among the first image, the second image and the third image and the similarity degree of the reduced image of the second image and the synthesis image. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、プログラム、検出方法、及び検出装置に関し、特に、カットチェンジの検出を高精度に行うことができるようにするプログラム、検出方法、及び検出装置に関する。   The present invention relates to a program, a detection method, and a detection apparatus, and more particularly, to a program, a detection method, and a detection apparatus that can detect cut changes with high accuracy.

画像からカットチェンジを検出する処理は、画像の分析、符号化、検索等を行う場合に有用である。   The process of detecting a cut change from an image is useful when performing image analysis, encoding, retrieval, or the like.

ここで、カットとは、空間的に連続するひとまとまりの画像区間(画像クリップ)を意味し、カットチェンジは、カットの切り替え点、すなわち、時間的若しくは空間的に不連続な画像クリップどうしが連結された境界である画像の変化点のことを意味する。   Here, “cut” means a group of spatially continuous image segments (image clips), and “cut change” means a cut switching point, that is, temporally or spatially discontinuous image clips connected to each other. It means the change point of the image that is the bound.

なお、カットチェンジは、ショットチェンジ、シーンチェンジ、画像変化点等と称される場合があるが、本明細書においては、カットチェンジと称する。   The cut change may be referred to as a shot change, a scene change, an image change point, or the like, but is referred to as a cut change in this specification.

ところで、従来のカットチェンジの検出方法として、統計量差分法、画素差分法、符号化データ法、エッジ法等が知られているが、最も精度がよいと認識されているのは、ヒストグラム差分法である。   By the way, as a conventional cut change detection method, a statistic difference method, a pixel difference method, an encoded data method, an edge method, and the like are known, but it is recognized that the most accurate method is the histogram difference method. It is.

ヒストグラム差分法においては、ヒストグラムの差分値が用いられる。   In the histogram difference method, a histogram difference value is used.

ここで、ヒストグラムは、あるフレームの画像の各ピクセルを、その輝度または色の画素値に対応して、適当な階調数(一般には、16乃至64階調がよく用いられる)に分割された各要素(ビン)に投票することで、その画像の輝度または色の頻度分布を求めたものである。   Here, in the histogram, each pixel of an image of a certain frame is divided into an appropriate number of gradations (generally 16 to 64 gradations are commonly used) corresponding to the luminance or color pixel value. By voting for each element (bin), the luminance or color frequency distribution of the image is obtained.

ヒストグラム差分法には、単純ヒストグラム差分法と分割ヒストグラム差分法がある。   The histogram difference method includes a simple histogram difference method and a divided histogram difference method.

単純ヒストグラム差分法においては、処理対象とする、例えば2フレームの画像のそれぞれのヒストグラムどうしの違いが評価量として算出される(例えば、非特許文献1参照)。   In the simple histogram difference method, for example, a difference between histograms of images of two frames to be processed is calculated as an evaluation amount (see, for example, Non-Patent Document 1).

また、単純ヒストグラム差分法においては、一般に、ヒストグラムどうしの違いとして、ヒストグラムの同じビンどうしの差分値のヒストグラム全体に関する絶対和(以下、適宜、ヒストグラム差分絶対和という)が評価量として算出される。   In the simple histogram difference method, generally, as the difference between histograms, the absolute sum of the difference values between the same bins of the histograms regarding the entire histogram (hereinafter referred to as the histogram difference absolute sum as appropriate) is calculated as the evaluation amount.

分割ヒストグラム差分法においては、処理対象とする、例えば2フレームの画像のそれぞれの画像全体が所定数のブロック(例えば、非特許文献1では、16個のブロック)に分割され、各ブロックのヒストグラムどうしの違いが求められ、そのヒストグラムどうしの違いが小さい方から所定数のブロックのみが、評価量の算出に用いられる(例えば、非特許文献1及び2参照)。   In the divided histogram difference method, for example, the entire image of each of the two-frame images to be processed is divided into a predetermined number of blocks (for example, 16 blocks in Non-Patent Document 1), and the histograms of each block are shared. The difference between the histograms is calculated, and only a predetermined number of blocks are used for calculating the evaluation amount from the one with the smaller difference between the histograms (see, for example, Non-Patent Documents 1 and 2).

ところで、カットチェンジは、一般に、上述したような隣り合う画像の間に生じることが多く、かかるカットチェンジを、以下、適宜、通常カットチェンジという。これに対して、前後の画像が混合されたような画像内で、2つのカットが連結されるようなカットチェンジもある。これを、ブレンドカットチェンジという。   By the way, in general, a cut change often occurs between adjacent images as described above. Such a cut change is hereinafter referred to as a normal cut change as appropriate. On the other hand, there is a cut change in which two cuts are connected in an image in which the preceding and following images are mixed. This is called blend cut change.

通常カットチェンジの検出方法では、上述したように、処理対象とする2つの画像どうしの類似度が評価量として計算され、その類似度が所定の閾値よりも低い場合に、すなわち、非類似度が所定の閾値よりも高い場合に、2つの画像の間の画像の変化がカットチェンジであると判定される。   In the normal cut change detection method, as described above, the similarity between two images to be processed is calculated as an evaluation amount, and when the similarity is lower than a predetermined threshold, that is, the dissimilarity is If it is higher than the predetermined threshold, it is determined that the change in the image between the two images is a cut change.

しかし、このような方法では、ブレンドカットチェンジを正確に検出することが困難である。すなわち、通常カットチェンジの例を示している図1において、フレームF61乃至フレームF63は、時間的に隣接する一連の画像であり、フレームF61から順番に2つずつの画像がカットチェンジを検出する処理対象とされる。すなわち、最初に、フレームF61とフレームF62が処理対象とされ、次に、フレームF62とフレームF63が処理対象とされる。   However, with such a method, it is difficult to accurately detect the blend cut change. That is, in FIG. 1 showing an example of normal cut change, frames F61 to F63 are a series of temporally adjacent images, and two images sequentially detect cut changes from frame F61. Be targeted. That is, first, the frame F61 and the frame F62 are processed, and then the frame F62 and the frame F63 are processed.

図1において、人が撮影対象となっているフレームF61と家が撮影対象となっているフレームF62の類似度が低くなっており、その類似度が所定の閾値以下であれば、フレームF61とフレームF62の間の画像の変化が、通常カットチェンジであると判定される。また、家が撮影対象となっているフレームF62とやはり家が撮影対象となっているフレームF63の類似度が高くなっており、その類似度が閾値以下でなければ、カットチェンジではないと判定される。   In FIG. 1, if the similarity between the frame F61 for shooting a person and the frame F62 for shooting a house is low and the similarity is equal to or less than a predetermined threshold, the frame F61 and the frame It is determined that the image change during F62 is a normal cut change. Further, if the similarity between the frame F62 whose home is the subject of shooting and the frame F63 whose home is the subject of shooting is high, and the similarity is not less than the threshold value, it is determined that it is not a cut change. The

これに対して、ブレンドカットチェンジの例を示している図2において、フレームF71乃至フレームF73は、時間的に隣接する一連の画像であり、フレームF71から順番に2つずつの画像がカットチェンジ検出の処理対象とされる。すなわち、最初に、フレームF71とフレームF72が処理対象とされ、次に、フレームF72とフレームF73が処理対象とされる。   On the other hand, in FIG. 2 showing an example of blend cut change, frames F71 to F73 are a series of temporally adjacent images, and two images in order from the frame F71 are cut change detected. To be processed. That is, first, the frame F71 and the frame F72 are processed, and then the frame F72 and the frame F73 are processed.

人と家が撮影対象となっているフレームF72は、人が撮影対象である前のフレームF71と、家が撮影対象である後のフレームF73が混合したような画像となっており、フレームF72内で2つのカットが連結されているので、フレームF72はブレンドカットチェンジとなっている。   The frame F72 in which the person and the house are the shooting target is an image in which the frame F71 before the person is the shooting target and the frame F73 after the house is the shooting target are mixed. Since the two cuts are connected, the frame F72 is a blend cut change.

このようなブレンドカットチェンジは、例えば、カットチェンジが同一画像内のフィールド間で生じる場合(かかるカットチェンジを、以下、適宜、フィールドカットチェンジという)、画像フィルタにより隣接する画像どうしが混合された場合、符号化若しくは復号化時に隣接する画像どうしが混合された場合、編集時に隣接する画像どうしが混合された場合等に生じる。   Such a blend cut change is, for example, when a cut change occurs between fields in the same image (this cut change is hereinafter referred to as a field cut change as appropriate), or when adjacent images are mixed by an image filter. This occurs when adjacent images are mixed at the time of encoding or decoding, or when adjacent images are mixed at the time of editing.

図2において、フレームF72は、フレームF71またはF73と類似する部分をそれぞれ含んでおり、フレームF72はフレームF71とフレームF73のどちらに対しても類似度が高くなっているので、隣り合う2つの画像どうしの類似度に基づいて、カットチェンジを検出する方法を採用しても、ブレンドカットチェンジを検出することは困難である。   In FIG. 2, the frame F72 includes portions similar to the frame F71 or F73, and the frame F72 has a high similarity to both the frame F71 and the frame F73. It is difficult to detect a blend cut change even if a method of detecting a cut change based on the degree of similarity is employed.

ブレンドカットチェンジの1つであるフィールドカットチェンジを検出する方法が、特許文献1に提案されている。特許文献1の方法では、隣接する2つの画像どうしの類似度ではなく、1フレームおいた2つのフレームの画像どうしの類似度に基づいて、カットチェンジが検出される。   Patent Document 1 proposes a method for detecting a field cut change which is one of blend cut changes. In the method of Patent Document 1, a cut change is detected based on the similarity between two frames of one frame instead of the similarity between two adjacent images.

しかしながら、特許文献1の方法を用いた場合、各フレームの画像が撮影対象が早く動く画像である場合には、カットチェンジが検出できないおそれがある。   However, when the method of Patent Document 1 is used, there is a possibility that the cut change cannot be detected when the image of each frame is an image in which the shooting target moves quickly.

例えば、図3において、フレームF81乃至フレームF83は、時間的に隣接する一連の画像であり、人が家から画面内の左方向に次第に離れていく画像を表している。フレームF81乃至フレームF83の画像は、人が画面内の左方向に高速に移動している画像であり、カットチェンジは生じていない。   For example, in FIG. 3, frames F <b> 81 to F <b> 83 are a series of temporally adjacent images and represent images in which a person gradually moves away from the house in the left direction in the screen. The images in the frames F81 to F83 are images in which a person is moving at high speed in the left direction in the screen, and no cut change occurs.

図3において、人の全部と家の左側の一部を含む画像のフレームF81と、人の全部と家の左側のより広い範囲を含む画像のフレームF82の類似度、並びに、そのフレームF82と人の右側半分と家の全部を含む画像のフレームF83の類似度はそれぞれ高くなっているが、人の動きが早いので、人の全部と家の左側の一部を含む画像のフレームF81と、人の右側半分と家の全部を含む画像のフレームF83の類似度は低くなっている。   In FIG. 3, the similarity between the frame F81 of the image including the whole person and a part of the left side of the house, the similarity of the frame F82 of the image including the entire range of the person and the left side of the house, and the frame F82 and the person. Although the similarity between the right half of the image and the frame F83 of the image including the entire house is high, the movement of the person is fast, so the frame F81 of the image including the entire person and a part of the left side of the house The degree of similarity between the right half of the frame and the frame F83 of the image including the entire house is low.

上述した特許文献1の方法を用いた場合、カットチェンジを検出する処理対象とするフレームF81乃至フレームF83のうちの、例えば、1つおきのフレームF81とフレームF83の類似度を求めるとすると、フレームF81とフレームF83の類似度は低いので、フレームF81乃至フレームF83の間の画像の変化がブレンドカットチェンジと誤って判定されてしまうおそれが高い。   When the method of Patent Document 1 described above is used, for example, when the similarity between every other frame F81 and frame F83 among the frames F81 to F83 to be cut change detected is obtained, Since the similarity between F81 and frame F83 is low, there is a high possibility that an image change between frames F81 to F83 is erroneously determined as a blend cut change.

また、特許文献2には、符号化データを用いて、フィールドカットチェンジを検出する方法が提案されている。しかし、この方法は、特定の符号化方式の符号化画像に特有の特徴量を利用するため、その符号化方式を用いて符号化された画像にしか適用できない。   Patent Document 2 proposes a method for detecting a field cut change using encoded data. However, since this method uses a characteristic amount peculiar to an encoded image of a specific encoding method, it can be applied only to an image encoded using the encoding method.

特許文献3には、処理対象とする2つの画像のピクセルどうしの差分値の画像全体に関する絶対和(以下、適宜、差分絶対和という)を求めるとともに、さらに、差分絶対和どうしの差分値を求めることにより、通常カットチェンジとフィールドカットチェンジを区別して検出する方法が提案されている。しかしながら、この方法を用いた場合でも、ブレンドカットチェンジ(フィールドカットチェンジを含む)を精度よく検出することは困難である。   In Patent Document 3, an absolute sum of the difference values between pixels of two images to be processed (hereinafter referred to as an absolute difference sum as appropriate) is obtained, and further, a difference value between absolute difference sums is obtained. Thus, a method for distinguishing and detecting a normal cut change and a field cut change has been proposed. However, even when this method is used, it is difficult to accurately detect blend cut changes (including field cut changes).

情報処理学会論文誌,長坂晃朗,田中譲,1992年4月,Vol.33,No.4,P.543-550IPSJ Journal, Nagasaka Goro, Tanaka Joe, April 1992, Vol.33, No.4, P.543-550 Comparison of Video Shot Boundary Detection Techniques, John S. Boreczky, Lawrence A. Rowe. Storage and Retrieval for Image and Video Databases (SPIE) (1996) p170-179Comparison of Video Shot Boundary Detection Techniques, John S. Boreczky, Lawrence A. Rowe.Storage and Retrieval for Image and Video Databases (SPIE) (1996) p170-179 特開2000−295624号公報JP 2000-295624 A 特開2002−64823号公報JP 2002-64823 A 特開2000−324499号公報JP 2000-324499 A

以上のように、従来の方法では、ブレンドカットチェンジの検出を精度よく行うことは困難であった。特に、各フレームの画像が撮影対象が早く動く画像である場合等に、ブレンドカットチェンジの誤検出を生じるおそれがあった。   As described above, it has been difficult for the conventional method to accurately detect the blend cut change. In particular, there is a possibility that an erroneous detection of a blend cut change may occur when the image of each frame is an image in which the shooting target moves quickly.

本発明は、このような状況に鑑みてなされたものであり、ブレンドカットチェンジを含むカットチェンジの検出を正確に行うことができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to accurately detect a cut change including a blend cut change.

本発明の一側面のプログラムまたは検出方法は、画像のカットチェンジを検出する検出処理をコンピュータに実行させるプログラムまたは検出方法において、第1の画像、第2の画像、及び第3の画像の特徴を抽出し、前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度を算出し、前記第1の画像、前記第2の画像及び前記第3の画像の縮小画像を生成し、前記第2の画像に対して時間的に前または後に位置する前記第1の画像と前記第3の画像の縮小画像の合成画像を生成し、前記第2の画像の縮小画像と前記合成画像の類似度を算出し、前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度、並びに前記第2の画像の縮小画像と前記合成画像の類似度に基づいて、前記第1の画像と前記第3の画像の間に、カットチェンジが存在するかを判定するステップを備える。   A program or a detection method according to one aspect of the present invention is a program or a detection method for causing a computer to execute a detection process for detecting a cut change of an image, wherein the characteristics of the first image, the second image, and the third image are characterized. Extracting, calculating the similarity of the characteristics of two images of the first image, the second image, and the third image, and calculating the first image, the second image, and the third image; A reduced image of the first image, a combined image of the reduced image of the first image and the third image positioned before or after the second image in time, and the second image The similarity between the reduced image of the image and the composite image is calculated, the similarity between the features of two images of the first image, the second image, and the third image, and the second image Based on the similarity between the reduced image and the composite image, During the serial first image and the third image comprises determining whether there is cut change.

本発明の一側面の検出装置は、画像のカットチェンジを検出する検出装置において、第1の画像、第2の画像、及び第3の画像の特徴を抽出する特徴抽出手段と、前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度を算出する第1の類似度算出手段と、前記第1の画像、前記第2の画像及び前記第3の画像の縮小画像を生成する縮小画像生成手段と、前記第2の画像に対して時間的に前または後に位置する前記第1の画像と前記第3の画像の縮小画像の合成画像を生成する合成画像生成手段と、前記第2の画像の縮小画像と前記合成画像の類似度を算出する第2の類似度算出手段と、前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度、並びに前記第2の画像の縮小画像と前記合成画像の類似度に基づいて、前記第1の画像と前記第3の画像の間に、カットチェンジが存在するかを判定する判定手段とを備える。   According to another aspect of the present invention, there is provided a detection device that detects a cut change of an image, a feature extraction unit that extracts features of a first image, a second image, and a third image; First similarity calculating means for calculating the similarity of the features of two images of the image, the second image, and the third image; the first image; the second image; A reduced image generating means for generating a reduced image of the third image, and a combined image of the reduced image of the first image and the third image located before or after the second image in time Composite image generating means, second similarity calculating means for calculating the similarity between the reduced image of the second image and the composite image, the first image, the second image, and the third image Similarity between features of two of the images, and reduction of the second image Based on the similarity of the image and the synthetic image, between the first image and the third image, and a determining means for determining there is cut change.

本発明の一側面においては、第1の画像、第2の画像、及び第3の画像の特徴が抽出され、第1の画像、第2の画像及び第3の画像のうちの2つの画像の特徴の類似度が算出され、第1の画像、第2の画像及び第3の画像の縮小画像が生成される。また、第2の画像に対して時間的に前または後に位置する第1の画像と第3の画像の縮小画像の合成画像が生成される。第2の画像の縮小画像と合成画像の類似度が算出され、第1の画像、第2の画像及び第3の画像のうちの2つの画像の特徴の類似度、並びに第2の画像の縮小画像と合成画像の類似度に基づいて、第1の画像と第3の画像の間に、カットチェンジが存在するかが判定される。   In one aspect of the present invention, features of the first image, the second image, and the third image are extracted, and two of the first image, the second image, and the third image are extracted. The feature similarity is calculated, and reduced images of the first image, the second image, and the third image are generated. In addition, a combined image of the reduced image of the first image and the third image positioned before or after the second image in time is generated. The similarity between the reduced image of the second image and the synthesized image is calculated, the similarity between the features of the two images of the first image, the second image, and the third image, and the reduction of the second image. Based on the similarity between the image and the composite image, it is determined whether a cut change exists between the first image and the third image.

本発明の一側面によれば、ブレンドカットチェンジを含むカットチェンジの検出を行うことができる。   According to one aspect of the present invention, a cut change including a blend cut change can be detected.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面のプログラムまたは検出方法は、
画像のカットチェンジを検出する検出処理をコンピュータに実行させるプログラムまたは検出方法において、
第1の画像、第2の画像、及び第3の画像の特徴を抽出し(例えば、図6のステップS601)、
前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度を算出し(例えば、図6のステップS602)、
前記第1の画像、前記第2の画像及び前記第3の画像の縮小画像を生成し(例えば、図6のステップS603)、
前記第2の画像に対して時間的に前または後に位置する前記第1の画像と前記第3の画像の縮小画像の合成画像を生成し(例えば、図6のステップS604)、
前記第2の画像の縮小画像と前記合成画像の類似度を算出し(例えば、図6のステップS605)、
前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度、並びに前記第2の画像の縮小画像と前記合成画像の類似度に基づいて、前記第1の画像と前記第3の画像の間に、カットチェンジが存在するかを判定する(例えば、図6のステップS606)
ステップを備える。
A program or a detection method according to one aspect of the present invention includes:
In a program or a detection method for causing a computer to execute a detection process for detecting an image cut change,
Extracting features of the first image, the second image, and the third image (for example, step S601 in FIG. 6);
Calculating the similarity of the features of two images of the first image, the second image, and the third image (for example, step S602 in FIG. 6);
Generating reduced images of the first image, the second image, and the third image (for example, step S603 in FIG. 6);
Generating a composite image of the reduced image of the first image and the third image positioned before or after the second image in time (for example, step S604 in FIG. 6);
Calculating the similarity between the reduced image of the second image and the composite image (for example, step S605 in FIG. 6);
Based on the similarity between the characteristics of two images of the first image, the second image, and the third image, and the similarity between the reduced image of the second image and the synthesized image, It is determined whether a cut change exists between the first image and the third image (for example, step S606 in FIG. 6).
Comprising steps.

本発明の一側面の検出装置は、
画像のカットチェンジを検出する検出装置(例えば、図4のパーソナルコンピュータ1)において、
第1の画像、第2の画像、及び第3の画像の特徴を抽出する特徴抽出手段(例えば、図5の特徴抽出部811)と、
前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度を算出する第1の類似度算出手段(例えば、図5の類似度算出部813)と、
前記第1の画像、前記第2の画像及び前記第3の画像の縮小画像を生成する縮小画像生成手段(例えば、図5の縮小画像生成部814)と、
前記第2の画像に対して時間的に前または後に位置する前記第1の画像と前記第3の画像の縮小画像の合成画像を生成する合成画像生成手段(例えば、図5の合成画像生成部816)と、
前記第2の画像の縮小画像と前記合成画像の類似度を算出する第2の類似度算出手段(例えば、図5の類似度算出部817)と、
前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度、並びに前記第2の画像の縮小画像と前記合成画像の類似度に基づいて、前記第1の画像と前記第3の画像の間に、カットチェンジが存在するかを判定する判定手段(例えば、図5の判定部818)と
を備える。
A detection device according to one aspect of the present invention includes:
In a detection device (for example, the personal computer 1 in FIG. 4) that detects an image cut change,
Feature extraction means (for example, feature extraction unit 811 in FIG. 5) for extracting features of the first image, the second image, and the third image;
First similarity calculation means for calculating the similarity of the features of two images of the first image, the second image, and the third image (for example, the similarity calculation unit 813 in FIG. 5). When,
Reduced image generating means for generating reduced images of the first image, the second image, and the third image (for example, the reduced image generating unit 814 in FIG. 5);
Composite image generation means for generating a composite image of the reduced image of the first image and the third image positioned before or after the second image in time (for example, the composite image generation unit in FIG. 5) 816),
Second similarity calculation means (for example, a similarity calculation unit 817 in FIG. 5) that calculates the similarity between the reduced image of the second image and the composite image;
Based on the similarity between the characteristics of two images of the first image, the second image, and the third image, and the similarity between the reduced image of the second image and the synthesized image, And a determination unit (for example, a determination unit 818 in FIG. 5) for determining whether or not a cut change exists between the first image and the third image.

以下、図面を参照して本発明を適用した実施の形態について説明する。   Embodiments to which the present invention is applied will be described below with reference to the drawings.

図4は、本発明を適用した検出装置の一実施の形態の構成例を示すブロック図である。   FIG. 4 is a block diagram showing a configuration example of an embodiment of a detection apparatus to which the present invention is applied.

図4において、検出装置としてのパーソナルコンピュータ1は、CPU(Central Processing Unit)21,ROM(Read Only Memory)22,RAM(Random Access Memory)23、バス24、入出力インタフェース25、入力部26、出力部27、記憶部28、通信部29、ドライブ30、及びリムーバブルメディア31から構成される。   In FIG. 4, a personal computer 1 as a detection device includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, a bus 24, an input / output interface 25, an input unit 26, and an output. Unit 27, storage unit 28, communication unit 29, drive 30, and removable medium 31.

バス24には、CPU21、ROM22、RAM23、および入出力インタフェース25が接続され、入出力インタフェース25には、バス24、入力部26、出力部27、記憶部28、通信部29、及びドライブ30が接続されている。   The CPU 24, ROM 22, RAM 23, and input / output interface 25 are connected to the bus 24, and the bus 24, input unit 26, output unit 27, storage unit 28, communication unit 29, and drive 30 are connected to the input / output interface 25. It is connected.

CPU21は、ROM22または記憶部28に記憶されたプログラムに従って各種の処理を実行する。また、CPU21は、入力部26から入力される指令に対応して各種の処理を実行し、また、処理の結果を出力部27に出力する。   The CPU 21 executes various processes according to programs stored in the ROM 22 or the storage unit 28. Further, the CPU 21 executes various processes in response to commands input from the input unit 26, and outputs processing results to the output unit 27.

ROM22は、CPU21が実行するプログラム等を記憶する。   The ROM 22 stores a program executed by the CPU 21 and the like.

RAM23は、CPU21が実行するプログラムやデータなどを適宜記憶する。また、RAM23は、例えば、外部から入力される画像を一時的に記憶するバッファを有する。   The RAM 23 appropriately stores programs executed by the CPU 21 and data. The RAM 23 includes a buffer that temporarily stores an image input from the outside, for example.

入力部26は、キーボード、マウス、マイクロホン等で構成される。   The input unit 26 includes a keyboard, a mouse, a microphone, and the like.

出力部27は、ディスプレイ、スピーカ等で構成される。   The output unit 27 includes a display, a speaker, and the like.

記憶部28は、例えばハードディスクからなり、CPU21が実行するプログラムや各種のデータを記憶する。   The storage unit 28 includes, for example, a hard disk and stores programs executed by the CPU 21 and various data.

通信部29は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   The communication unit 29 communicates with an external device via a network such as the Internet or a local area network.

なお、通信部29を介してプログラムが取得され、記憶部28に記憶されてもよい。   A program may be acquired via the communication unit 29 and stored in the storage unit 28.

ドライブ30は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア31が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部28に転送され、記憶される。   When a removable medium 31 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is loaded, the drive 30 drives them to acquire programs and data recorded therein. The acquired program and data are transferred to and stored in the storage unit 28 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図4に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア31、ROM22や、記憶部28を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部29を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 4, a program recording medium that stores a program that is installed in a computer and can be executed by the computer is a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory, DVD (Digital Versatile Disc), a magneto-optical disk, or a removable medium 31 that is a package medium composed of a semiconductor memory, ROM 22, and a hard disk that constitutes the storage unit 28. The program is stored in the program recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 29 that is an interface such as a router or a modem as necessary. Done.

また、パーソナルコンピュータ1のCPU21は、ROM22または記憶部28に記憶されたプログラムを実行することにより、カットチェンジを検出するカットチェンジ検出装置として機能する。   The CPU 21 of the personal computer 1 functions as a cut change detection device that detects a cut change by executing a program stored in the ROM 22 or the storage unit 28.

図5は、パーソナルコンピュータ1のソフトウェアにより構成されるカットチェンジ検出装置51の実施の形態の構成を示すブロック図である。   FIG. 5 is a block diagram showing a configuration of an embodiment of a cut change detection device 51 configured by software of the personal computer 1.

図5において、カットチェンジ検出装置51は、外部からの画像を、例えば、RAM23のバッファから読み出すことにより入力し、カットチェンジ検出処理を行う。   In FIG. 5, the cut change detection device 51 inputs an external image by reading it from, for example, a buffer of the RAM 23 and performs a cut change detection process.

図5において、カットチェンジ検出装置51は、特徴抽出部811、特徴量バッファ812、類似度算出部813、縮小画像生成部814、縮小画像バッファ815、合成画像生成部816、類似度算出部817、及び判定部818から構成される。   In FIG. 5, the cut change detection device 51 includes a feature extraction unit 811, a feature amount buffer 812, a similarity calculation unit 813, a reduced image generation unit 814, a reduced image buffer 815, a composite image generation unit 816, a similarity calculation unit 817, And a determination unit 818.

特徴抽出部811には、カットチェンジ検出装置51に入力された画像が供給される。   An image input to the cut change detection device 51 is supplied to the feature extraction unit 811.

いま、カットチェンジ検出装置51に入力された直近の3つの画像、すなわち、時間順に、前々の画像、前の画像、または現画像を、それぞれ、第1の注目画像、第2の注目画像、または第3の注目画像とする。   Now, the latest three images input to the cut change detection device 51, that is, the previous image, the previous image, or the current image in time order, are respectively referred to as a first attention image, a second attention image, Alternatively, the third attention image is used.

特徴抽出部811は、そこに供給される第1乃至第3の注目画像のそれぞれの特徴量を抽出し、特徴量バッファ812に供給する。   The feature extraction unit 811 extracts the feature amounts of the first to third attention images supplied thereto and supplies them to the feature amount buffer 812.

かかる特徴量として、例えば、図8と図9を参照して後述する輝度または色のヒストグラムが採用されるが、この他、一般的なカットチェンジの検出方法のものも採用することができ、例えば、非特許文献1及び非特許文献2に示されているように、輝度の平均値若しくは分散値、符号化で得られるDCT係数若しくは動きベクトル、エッジ検出で得られるエッジ等を用いることができる。   As such feature amount, for example, a luminance or color histogram described later with reference to FIGS. 8 and 9 is adopted, but in addition, a general cut change detection method can also be adopted, for example, As shown in Non-Patent Document 1 and Non-Patent Document 2, an average value or variance value of luminance, a DCT coefficient or motion vector obtained by encoding, an edge obtained by edge detection, or the like can be used.

特徴量バッファ812は、特徴抽出部811から供給される第1乃至第3の注目画像の特徴量を保存する。また、特徴量バッファ812は、少なくとも直近の3つの画像、つまり、第1乃至第3の注目画像も保存する。   The feature amount buffer 812 stores the feature amounts of the first to third attention images supplied from the feature extraction unit 811. The feature amount buffer 812 also stores at least the latest three images, that is, the first to third attention images.

類似度算出部813は、特徴量バッファ812から、第1乃至第3の注目画像を読み出し、第1の注目画像の特徴量と第3の注目画像の特徴量の類似度(以下、適宜、類似度1という)である第1の類似度1、第1の注目画像の特徴量と第2の注目画像の特徴量の類似度1である第2の類似度1、及び第2の注目画像の特徴量と第3の注目画像の特徴量の類似度1である第3の類似度1をそれぞれ算出し、その第1乃至第3の類似度1を判定部818にそれぞれ供給する。   The similarity calculation unit 813 reads the first to third attention images from the feature amount buffer 812, and calculates the similarity between the feature amount of the first attention image and the feature amount of the third attention image (hereinafter, similar as appropriate). The first similarity 1, which is 1 degree), the second similarity 1, which is the similarity 1 between the feature amount of the first attention image and the feature amount of the second attention image, and the second attention image A third similarity 1 that is a similarity 1 between the feature quantity and the feature quantity of the third target image is calculated, and the first to third similarity degrees 1 are supplied to the determination unit 818, respectively.

かかる類似度1として、例えば、図10を参照して後述するヒストグラム類似度が採用されるが、この他、一般的なカットチェンジの検出方法で用いるものを採用することができ、例えば、非特許文献1または非特許文献2に示されているように、隣接する2つの画像のそれぞれの輝度の平均値若しくは分散値どうしの差分値、隣接する2つの画像の差分絶対和または差分2乗和(2乗距離)、ヒストグラム差分絶対和、DCT係数の差分値、動きベクトルを用いて予測した画像と実際の画像との誤差である予測誤差の大きさ、エッジの数またはエッジの分布どうしの違い等を用いることができる。   As the similarity 1, for example, the histogram similarity described later with reference to FIG. 10 is adopted, but in addition to this, the one used in a general cut change detection method can be adopted. As shown in Document 1 or Non-Patent Document 2, the average value or the difference value between the luminance values of two adjacent images, the difference absolute sum or the difference square sum of two adjacent images ( Square distance), absolute difference of histogram difference, difference value of DCT coefficient, magnitude of prediction error that is error between image predicted using motion vector and actual image, difference in number of edges or distribution of edges, etc. Can be used.

縮小画像生成部814には、カットチェンジ検出装置51に入力された画像、すなわち、第1乃至第3の注目画像がそれぞれ供給される。縮小画像生成部814は、そこに供給される第1乃至第3の注目画像をそれぞれ縮小した縮小画像を生成し、縮小画像バッファ815に供給する。縮小画像には、例えば、8ピクセル×8ピクセルから16ピクセル×16ピクセル程度のサイズに縮小したものが用いられる。   The reduced image generation unit 814 is supplied with the image input to the cut change detection device 51, that is, the first to third attention images. The reduced image generation unit 814 generates reduced images obtained by reducing the first to third attention images supplied thereto, and supplies the reduced images to the reduced image buffer 815. As the reduced image, for example, an image reduced to a size of about 16 pixels × 16 pixels from 8 pixels × 8 pixels is used.

縮小画像バッファ815は、縮小画像生成部814から供給される第1乃至第3の注目画像のそれぞれの縮小画像を保存する。また、縮小画像バッファ815は、少なくとも直近の3つの画像、つまり、第1乃至第3の注目画像も保存する。   The reduced image buffer 815 stores the reduced images of the first to third attention images supplied from the reduced image generation unit 814. The reduced image buffer 815 also stores at least the latest three images, that is, the first to third attention images.

合成画像生成部816は、縮小画像バッファ815から、第2の注目画像に対して時間的に前または後に位置する第1の注目画像の縮小画像と第3の注目画像の縮小画像をそれぞれ読み出し、第1の注目画像の縮小画像と第3の注目画像の縮小画像を合成した合成画像を生成し、類似度算出部817に供給する。   The composite image generation unit 816 reads, from the reduced image buffer 815, a reduced image of the first target image and a reduced image of the third target image that are temporally before or after the second target image, respectively. A synthesized image obtained by synthesizing the reduced image of the first image of interest and the reduced image of the third image of interest is generated and supplied to the similarity calculation unit 817.

合成画像の点(x,y)の画素値G(x, y)は、例えば、第1の画像の縮小画像の画素値をF1(x, y)、第3の画像の縮小画像の画素値をF3(x, y)とすると、所定の定数a、bを用いて、式(1)で表される。 For example, the pixel value G (x, y) of the point (x, y) of the composite image is expressed by F 1 (x, y) as the pixel value of the reduced image of the first image and the pixel of the reduced image of the third image. When the value is F 3 (x, y), it is expressed by Expression (1) using predetermined constants a and b.

Figure 2008085540
Figure 2008085540

ここで、xまたはyは、それぞれ各画像のX座標またはY座標を表す。   Here, x or y represents the X coordinate or Y coordinate of each image, respectively.

類似度算出部817は、縮小画像バッファ815から第2の注目画像の縮小画像を読み出し、合成画像生成部816から供給される第1の注目画像の縮小画像と第3の注目画像の縮小画像を合成した合成画像と第2の画像の縮小画像との類似度である類似度2を算出し、判定部818に供給する。   The similarity calculation unit 817 reads the reduced image of the second attention image from the reduced image buffer 815, and uses the reduced image of the first attention image and the reduced image of the third attention image supplied from the composite image generation unit 816. A similarity 2 that is a similarity between the synthesized image and the reduced image of the second image is calculated and supplied to the determination unit 818.

類似度2には、例えば、合成画像と縮小画像の同一ピクセルどうしの差分値の画像全体に関する2乗和の符号を反転したものか、あるいは、合成画像と縮小画像の相関関数の最大(最大相関値)等を用いてもよい。   The similarity 2 is, for example, a value obtained by inverting the sign of the sum of squares of the difference value between the same pixels of the synthesized image and the reduced image, or the maximum (maximum correlation) of the correlation function between the synthesized image and the reduced image. Value) or the like.

判定部818は、類似度算出部813から供給される第1乃至第3の類似度1と類似度算出部817から供給される類似度2に基づいて、第1の注目画像と第2の注目画像の境界、または第2の注目画像と第3の注目画像の境界が、カットチェンジであるか、すなわち、第1の注目画像と第3の注目画像の間にカットチェンジが存在するかを判定する。   The determination unit 818 uses the first to third similarity 1 supplied from the similarity calculation unit 813 and the similarity 2 supplied from the similarity calculation unit 817 to determine the first attention image and the second attention. It is determined whether the boundary between the images or the boundary between the second attention image and the third attention image is a cut change, that is, whether there is a cut change between the first attention image and the third attention image. To do.

次に、図6のフローチャートを参照して、カットチェンジ検出装置51によるカットチェンジ検出処理について説明する。   Next, the cut change detection process by the cut change detection device 51 will be described with reference to the flowchart of FIG.

特徴抽出部811には、カットチェンジ検出装置51に入力された画像が供給される。   An image input to the cut change detection device 51 is supplied to the feature extraction unit 811.

いま、カットチェンジ検出装置51に入力された直近の3つの画像、すなわち、時間順に、前々の画像、前の画像、または現画像を、それぞれ、図7に示されるフレームF511、フレームF512、またはフレームF513の画像とする。人が撮影対象とされているフレームF511の画像と家が撮影対象とされているフレームF513の画像の類似度は低く、フレームF512の画像は、前のフレームF511の画像と後のフレームF513の画像が混合したような画像となっているので、フレームF511の画像とフレームF512の画像の類似度、及びフレームF512の画像とフレームF513の画像の類似度は、それぞれ高くなっている。すなわち、フレームF512には、フレームF511までのカットとフレームF513以降のカットを連結する境界であるブレンドカットチェンジが存在する。   Now, the three most recent images input to the cut change detection device 51, that is, the previous image, the previous image, or the current image in time order, are represented by a frame F511, a frame F512, or The image is a frame F513. The similarity between the image of the frame F511 that is a subject of photographing and the image of the frame F513 that is subject of photographing of the house is low, and the image of the frame F512 is the image of the previous frame F511 and the image of the subsequent frame F513. Therefore, the similarity between the image of the frame F511 and the image of the frame F512 and the similarity between the image of the frame F512 and the image of the frame F513 are high. That is, the frame F512 includes a blend cut change that is a boundary that connects the cut up to the frame F511 and the cut after the frame F513.

ステップS601において、特徴抽出部811は、そこに供給されるフレームF511乃至F513のそれぞれの特徴量を抽出する。   In step S601, the feature extraction unit 811 extracts the feature amounts of the frames F511 to F513 supplied thereto.

具体的には、例えば、図8に示される原画像の画像データが入力されると、図9に示されるようなヒストグラムが特徴量として抽出され生成される。   Specifically, for example, when image data of the original image shown in FIG. 8 is input, a histogram as shown in FIG. 9 is extracted and generated as a feature amount.

図9において、横軸は、輝度を表し、縦軸は、頻度を表している。原画像P101には、背景の灰色の領域と、中央の白と黒の領域があるので、ヒストグラムH101では、比較的小さい輝度(黒)、中間的な輝度(灰色)、及び比較的大きい輝度(白)のそれぞれに頻度が集中している。   In FIG. 9, the horizontal axis represents luminance and the vertical axis represents frequency. Since the original image P101 has a background gray area and a central white and black area, the histogram H101 has a relatively small luminance (black), an intermediate luminance (gray), and a relatively large luminance ( The frequency is concentrated in each of (white).

この特徴量としてのヒストグラムは、特徴量バッファ812に保存される。   The histogram as the feature amount is stored in the feature amount buffer 812.

ステップS602において、類似度算出部813は、特徴量バッファ812から、フレームF511乃至F513のそれぞれの特徴量を読み出し、フレームF511の特徴量とフレームF513の特徴量の類似度である第1の類似度1、フレームF511の特徴量とフレームF512の特徴量の類似度である第2の類似度1、及びフレームF512の特徴量とフレームF513の特徴量の類似度である第3の類似度1をそれぞれ算出し、その第1乃至第3の類似度1を判定部818にそれぞれ供給する。   In step S602, the similarity calculation unit 813 reads the feature amounts of the frames F511 to F513 from the feature amount buffer 812, and the first similarity that is the similarity between the feature amount of the frame F511 and the feature amount of the frame F513. 1, the second similarity 1 that is the similarity between the feature amount of the frame F511 and the feature amount of the frame F512, and the third similarity 1 that is the similarity between the feature amount of the frame F512 and the feature amount of the frame F513. The first to third similarity 1 is calculated and supplied to the determination unit 818.

具体的には、例えば、特徴量としてヒストグラムを生成する場合、そのヒストグラムどうしの類似度には、ヒストグラムどうしの重なり率を採用してもよい。   Specifically, for example, when generating a histogram as a feature amount, an overlapping rate between histograms may be adopted as the similarity between the histograms.

例えば、図10に示されるように、ヒストグラムH111とヒストグラムH112の重なり率は、ヒストグラムH111とヒストグラムH112に共通する部分の面積(ヒストグラムの斜線の部分の面積)とされる。   For example, as shown in FIG. 10, the overlapping rate of the histogram H111 and the histogram H112 is the area of the portion common to the histogram H111 and the histogram H112 (the area of the hatched portion of the histogram).

また、ヒストグラム類似度には、その他、ヒストグラムの各要素(ビン)の頻度を成分とするベクトル(以下、適宜、ヒストグラムベクトルという)どうしの類似度を用いてもよい。ヒストグラムベクトルどうしの類似度としては、例えば、ヒストグラムベクトルどうしの絶対距離である、いわゆるマンハッタン距離(実質的に、ヒストグラム間の重なり率に等しい)や、ヒストグラムベクトルどうしの2乗距離であるユークリッド距離等を用いてもよい。   In addition, for the histogram similarity, a similarity between vectors (hereinafter, appropriately referred to as histogram vectors) having the frequency of each element (bin) of the histogram as a component may be used. As the similarity between histogram vectors, for example, the so-called Manhattan distance (substantially equal to the overlap ratio between histograms) that is an absolute distance between histogram vectors, the Euclidean distance that is the square distance between histogram vectors, and the like. May be used.

縮小画像生成部814には、カットチェンジ検出装置51に入力された画像、すなわち、フレームF511乃至F513の画像がそれぞれ供給される。   The reduced image generation unit 814 is supplied with the image input to the cut change detection device 51, that is, the images of the frames F511 to F513.

ステップS603において、縮小画像生成部814は、そこに供給されるフレームF511乃至F513の画像をそれぞれ縮小した縮小画像を生成し、縮小画像バッファ815に保存させる。すなわち、LCD(Liquid Crystal Display)等の表示部に表示されるサイズの画像が、例えば、8ピクセル×8ピクセルのサイズに縮小される。この縮小は、例えば、原画像を8×8個のブロックに区分し、各ブロックの平均値を求めることで行われる。   In step S <b> 603, the reduced image generation unit 814 generates reduced images obtained by reducing the images of the frames F <b> 511 to F <b> 513 supplied thereto, and stores the reduced images in the reduced image buffer 815. That is, an image having a size displayed on a display unit such as an LCD (Liquid Crystal Display) is reduced to, for example, a size of 8 pixels × 8 pixels. This reduction is performed, for example, by dividing the original image into 8 × 8 blocks and obtaining an average value of each block.

ステップS604において、合成画像生成部816は、縮小画像バッファ815からフレームF512より時間的に前のフレームF511の縮小画像と、フレームF512より時間的に後のフレームF513の縮小画像をそれぞれ読み出し、式(1)に従って、フレームF511の縮小画像とフレームF513の縮小画像を合成した合成画像を生成し、類似度算出部817に供給する。   In step S604, the composite image generation unit 816 reads, from the reduced image buffer 815, a reduced image of the frame F511 temporally preceding the frame F512 and a reduced image of the frame F513 temporally subsequent to the frame F512, respectively. In accordance with 1), a combined image obtained by combining the reduced image of the frame F511 and the reduced image of the frame F513 is generated and supplied to the similarity calculation unit 817.

ステップS605において、類似度算出部817は、縮小画像バッファ815からフレームF512の縮小画像を読み出し、合成画像生成部816から供給されるフレームF511の縮小画像とフレームF513の縮小画像を合成した合成画像とフレームF512の縮小画像の類似度である類似度2を算出する。具体的には、合成画像と縮小画像の2乗距離の符号を反転したもの、または、両者の相関関数の最大値が演算される。演算結果としての類似度2は、判定部818に供給される。   In step S605, the similarity calculation unit 817 reads the reduced image of the frame F512 from the reduced image buffer 815, and combines the reduced image of the frame F511 and the reduced image of the frame F513 supplied from the combined image generation unit 816 with each other. The similarity 2 that is the similarity of the reduced image of the frame F512 is calculated. Specifically, a value obtained by reversing the sign of the square distance between the composite image and the reduced image, or the maximum value of the correlation function of both is calculated. The similarity 2 as the calculation result is supplied to the determination unit 818.

ステップS606において、判定部818は、類似度算出部813から供給される第1乃至第3の類似度1と類似度算出部817から供給される類似度2に基づいて、第1の注目画像と第2の注目画像の境界、または第2の注目画像と第3の注目画像の境界が、カットチェンジであるかを判定する。そして、この後、カットチェンジ検出処理は終了される。   In step S <b> 606, the determination unit 818 determines the first target image based on the first to third similarity 1 supplied from the similarity calculation unit 813 and the similarity 2 supplied from the similarity calculation unit 817. It is determined whether the boundary between the second attention image or the boundary between the second attention image and the third attention image is a cut change. Thereafter, the cut change detection process is terminated.

次に、図11のフローチャートを参照して、図6のステップS606で判定部818が行う判定処理について説明する。   Next, the determination process performed by the determination unit 818 in step S606 in FIG. 6 will be described with reference to the flowchart in FIG.

判定部818には、図5の類似度算出部813から第1乃至第3の類似度1が、類似度算出部817から類似度2が、それぞれ供給される。   The determination unit 818 is supplied with the first to third similarity 1 from the similarity calculation unit 813 and the similarity 2 from the similarity calculation unit 817, respectively.

ステップS631において、判定部818は、フレームF511の画像とフレームF513の画像の類似度1(第1の類似度1)は予め設定されている所定の閾値より大きいかを判定する。第1の類似度1が閾値より大きい場合、ステップS635において、判定部818は、フレームF511乃至フレームF513における画像の変化を、カットチェンジではないと判定する。   In step S631, the determination unit 818 determines whether the similarity 1 (first similarity 1) between the image of the frame F511 and the image of the frame F513 is greater than a predetermined threshold value. When the first similarity 1 is larger than the threshold value, in step S635, the determination unit 818 determines that the image change in the frames F511 to F513 is not a cut change.

例えば、図12Aに示されるように、フレームF511乃至F513の画像が殆ど変化していない場合、あるいは、図12Bに示されるように、フレームF511とフレームF513の画像は殆ど変化していないが、その間のフレームF512の画像がフレームF511、F513に較べて明るさが異なる場合(例えば、フラッシュがたかれたり、フレーム落ちなどの場合)、カットチェンジではないと判定される。   For example, as shown in FIG. 12A, when the images of the frames F511 to F513 are hardly changed, or as shown in FIG. 12B, the images of the frames F511 and F513 are hardly changed. If the image of the frame F512 is different in brightness compared to the frames F511 and F513 (for example, when a flash is applied or the frame is dropped), it is determined that the image is not a cut change.

一方、ステップS631において、第1の類似度1は閾値より大きくないと判定された場合、ステップ632において、判定部818は、フレームF511とフレームF512の画像の類似度1(第2の類似度1)が予め設定されている所定の閾値より大きいかを判定する。   On the other hand, when it is determined in step S631 that the first similarity 1 is not greater than the threshold value, in step 632, the determination unit 818 determines the similarity 1 (second similarity 1 between the images of the frames F511 and F512). ) Is larger than a predetermined threshold value set in advance.

ステップS632において、第2の類似度1が閾値より大きいと判定された場合、ステップS633において、判定部818は、フレームF512とフレームF513の画像の類似度1(第3の類似度1)は予め設定されている所定の閾値より大きいかを判定する。   If it is determined in step S632 that the second similarity 1 is greater than the threshold value, in step S633, the determination unit 818 determines that the similarity 1 (third similarity 1) between the images of the frames F512 and F513 is in advance. It is judged whether it is larger than a predetermined threshold value that has been set.

ステップS633において、第3の類似度1は閾値より大きいと判定された場合、ステップS634において、判定部818は、類似度2は予め設定されている所定の閾値より大きいかを判定する。   If it is determined in step S633 that the third similarity 1 is greater than the threshold, in step S634, the determination unit 818 determines whether the similarity 2 is greater than a predetermined threshold.

ステップS634において、類似度2が閾値より大きくないと判定された場合、すなわち、フレームF511とフレームF513の画像の類似度1が閾値より小さく、フレームF511とフレームF512の画像の類似度1が閾値より大きく、フレームF512とフレームF513の画像の類似度1が閾値より大きく、かつ、類似度2が閾値より小さい場合、ステップS635において、判定部818は、フレームF511乃至フレームF513における画像の変化を、カットチェンジではないと判定する。   If it is determined in step S634 that the similarity 2 is not greater than the threshold, that is, the similarity 1 between the images of the frames F511 and F513 is smaller than the threshold, and the similarity 1 between the images of the frames F511 and F512 is less than the threshold. If the similarity between the images of the frames F512 and F513 is larger than the threshold and the similarity 2 is smaller than the threshold, the determination unit 818 cuts the image changes in the frames F511 to F513 in step S635. Judge that it is not a change.

例えば、図12Cに示されるように、フレームF511乃至F513の画像が、人が家から速い動きで離れていく画像である場合であって、フレームF511とフレームF513の画像は類似していないが、フレームF511とフレームF512の画像は類似し、フレームF512とフレームF513の画像は類似し、フレームF511とフレームF513の縮小画像を合成した画像と、フレームF512の縮小画像は類似していない場合、カットチェンジではないと判定される。   For example, as shown in FIG. 12C, the images of frames F511 to F513 are images in which a person moves away from the house with a fast movement, and the images of frames F511 and F513 are not similar. If the images of the frames F511 and F512 are similar, the images of the frames F512 and F513 are similar, and the image obtained by combining the reduced images of the frames F511 and F513 and the reduced image of the frame F512 are not similar, the cut change It is determined that it is not.

ステップS634において、類似度2が閾値より大きいと判定された場合、すなわち、フレームF511とフレームF513の画像の類似度1が閾値より小さく、フレームF511とフレームF512の画像の類似度1が閾値より大きく、フレームF512とフレームF513の画像の類似度1が閾値より大きく、かつ、類似度2が閾値より大きい場合、ステップS636において、判定部818は、フレームF511乃至フレームF513における画像の変化を、ブレンドカットチェンジであると判定する。   If it is determined in step S634 that the similarity 2 is greater than the threshold, that is, the similarity 1 between the images of the frames F511 and F513 is less than the threshold, and the similarity 1 between the images of the frames F511 and F512 is greater than the threshold. When the similarity 1 between the images of the frames F512 and F513 is greater than the threshold and the similarity 2 is greater than the threshold, the determination unit 818 determines whether the image changes in the frames F511 to F513 are blend cut in step S636. Judge that it is a change.

例えば、図12Gに示されるように、人の画像であるフレームF511の画像と、家の画像であるフレームF513の画像は類似していないが、フレームF512の画像は人と家を合成したような画像であるため、フレームF511とフレームF512の画像は類似し、フレームF512とフレームF513の画像は類似し、フレームF511とフレームF513の縮小画像を合成した画像と、フレームF512の縮小画像は類似する場合、ブレンドカットチェンジであると判定される。   For example, as shown in FIG. 12G, the image of the frame F511 that is a person image and the image of the frame F513 that is a house image are not similar, but the image of the frame F512 is a combination of a person and a house. Since these are images, the images of the frames F511 and F512 are similar, the images of the frames F512 and F513 are similar, and the image obtained by combining the reduced images of the frames F511 and F513 is similar to the reduced image of the frame F512. It is determined that it is a blend cut change.

一方、ステップS632において、第2の類似度1が閾値より小さいと判定された場合、ステップS637において、判定部818は、フレームF512とフレームF513の類似度1(第3の類似度1)は予め設定されている所定の閾値より大きいかを判定する。ステップS637において、第3の類似度1は閾値より大きいと判定された場合、すなわち、フレームF511とフレームF513の画像の類似度1が閾値より小さく、フレームF511とフレームF512の画像の類似度1が閾値より小さく、フレームF512とフレームF513の画像の類似度1が閾値より大きい場合、ステップS639において、判定部818は、フレームF511乃至フレームF513における画像の変化は、通常カットチェンジであると判定する。   On the other hand, if it is determined in step S632 that the second similarity 1 is smaller than the threshold value, in step S637, the determination unit 818 determines that the similarity 1 (third similarity 1) between the frame F512 and the frame F513 is in advance. It is judged whether it is larger than a predetermined threshold value that has been set. If it is determined in step S637 that the third similarity 1 is greater than the threshold, that is, the similarity 1 between the images of the frames F511 and F513 is smaller than the threshold, and the similarity 1 between the images of the frames F511 and F512 is If it is smaller than the threshold value and the similarity 1 between the images of the frames F512 and F513 is larger than the threshold value, in step S639, the determination unit 818 determines that the image change in the frames F511 to F513 is a normal cut change.

例えば、図12Dに示されるように、人の画像であるフレームF511の画像と、家の画像であるフレームF513の画像は類似しておらず、フレームF512の画像は家の画像であるため、フレームF511とフレームF512の画像は類似しておらず、フレームF512とフレームF513の画像は類似する場合、通常のカットチェンジであると判定される。   For example, as shown in FIG. 12D, the image of the frame F511 that is a person image and the image of the frame F513 that is a house image are not similar, and the image of the frame F512 is a house image. If the images of F511 and F512 are not similar and the images of F512 and F513 are similar, it is determined that the image is a normal cut change.

ステップS633において、第3の類似度1は閾値より小さいと判定された場合、すなわち、フレームF511とフレームF513の画像の類似度1が閾値より小さく、フレームF511とフレームF512の画像の類似度1が閾値より大きく、フレームF512とフレームF513の画像の類似度1が閾値より小さい場合、ステップS639において、判定部818は、フレームF511乃至フレームF513における画像の変化は、通常カットチェンジであると判定する。   If it is determined in step S633 that the third similarity 1 is smaller than the threshold, that is, the similarity 1 between the images of the frames F511 and F513 is smaller than the threshold, and the similarity 1 between the images of the frames F511 and F512 is If it is larger than the threshold and the similarity 1 between the images of the frames F512 and F513 is smaller than the threshold, in step S639, the determination unit 818 determines that the image change in the frames F511 to F513 is a normal cut change.

例えば、図12Eに示されるように、人の画像であるフレームF511の画像と、家の画像であるフレームF513の画像は類似しておらず、フレームF512の画像は人の画像であるため、フレームF511とフレームF512の画像は類似し、フレームF512とフレームF513の画像は類似していない場合、通常のカットチェンジであると判定される。   For example, as shown in FIG. 12E, the image of the frame F511 that is a person image and the image of the frame F513 that is a house image are not similar, and the image of the frame F512 is a person image. If the images of F511 and F512 are similar and the images of the frames F512 and F513 are not similar, it is determined that the image is a normal cut change.

ステップS637において、第3の類似度1は閾値より小さいと判定された場合、ステップS638において、判定部818は、類似度2は予め設定されている所定の閾値より大きいかを判定する。ステップS638において、類似度2は閾値より大きいと判定された場合、すなわち、フレームF511とフレームF513の画像の類似度1が閾値より小さく、フレームF511とフレームF512の画像の類似度1が閾値より小さく、フレームF512とフレームF513の類似度1が閾値より小さく、かつ、類似度2が閾値より大きい場合、ステップS636において、判定部818は、フレームF511乃至フレームF513における画像の変化を、ブレンドカットチェンジであると判定する。   If it is determined in step S637 that the third similarity 1 is smaller than the threshold, in step S638, the determination unit 818 determines whether the similarity 2 is greater than a predetermined threshold. In step S638, when it is determined that the similarity 2 is larger than the threshold, that is, the similarity 1 between the images of the frames F511 and F513 is smaller than the threshold, and the similarity 1 between the images of the frames F511 and F512 is smaller than the threshold. When the similarity 1 between the frame F512 and the frame F513 is smaller than the threshold and the similarity 2 is larger than the threshold, in step S636, the determination unit 818 determines the image change in the frames F511 to F513 by blend cut change. Judge that there is.

例えば、図12Gに示されるように、人の画像であるフレームF511の画像と、家の画像であるフレームF513の画像は類似しておらず、フレームF512の画像は人と家を合成したような画像であるが、フレームF511とフレームF512の画像、並びにフレームF512とフレームF513の画像は類似していないと判定された場合でも、フレームF511とフレームF513の縮小画像を合成した画像と、フレームF512の縮小画像が類似する場合、ブレンドカットチェンジであると判定される。   For example, as shown in FIG. 12G, the image of the frame F511 that is a person image and the image of the frame F513 that is a house image are not similar, and the image of the frame F512 is a combination of a person and a house. Even if it is determined that the images of the frames F511 and F512 and the images of the frames F512 and F513 are not similar to each other, an image obtained by combining the reduced images of the frames F511 and F513 and the frame F512 If the reduced images are similar, it is determined to be a blend cut change.

一方、ステップS638において、類似度2は閾値より小さいと判定された場合、すなわち、フレームF511とフレームF513の画像の類似度1が閾値より小さく、フレームF511とフレームF512の類似度1が閾値より小さく、フレームF512とフレームF513の類似度1が閾値より小さく、かつ、類似度2が閾値より小さい場合、判定部818は、フレームF511乃至フレームF513における画像の変化は、通常カットチェンジであると判定する。   On the other hand, when it is determined in step S638 that the similarity 2 is smaller than the threshold, that is, the similarity 1 between the images of the frames F511 and F513 is smaller than the threshold, and the similarity 1 between the frames F511 and F512 is smaller than the threshold. When the similarity 1 between the frames F512 and F513 is smaller than the threshold and the similarity 2 is smaller than the threshold, the determination unit 818 determines that the image change in the frames F511 to F513 is a normal cut change. .

例えば、図12Fに示されるように、人の画像であるフレームF511の画像と、山の画像であるフレームF513の画像は類似しておらず、フレームF512の画像は家の画像であるため、フレームF511とフレームF512の画像は類似しておらず、フレームF512とフレームF513の画像も類似していない場合、フレームF511とフレームF513の縮小画像を合成した画像と、フレームF512の縮小画像が類似していないとき、通常のカットチェンジであると判定される。   For example, as shown in FIG. 12F, the image of the frame F511 that is a human image and the image of the frame F513 that is a mountain image are not similar, and the image of the frame F512 is a house image. When the images of F511 and F512 are not similar, and the images of frames F512 and F513 are also not similar, the image obtained by combining the reduced images of frames F511 and F513 and the reduced image of frame F512 are similar. If not, it is determined to be a normal cut change.

以上のように、図5の判定部818は、類似度算出部813から供給される第1乃至第3の類似度1、並びに、類似度算出部817から供給される類似度2に基づいて、フレームF511乃至フレームF513の間の画像の変化は、通常のカットチェンジであるか、さらに、ブレンドカットチェンジであるかを判定する。   As described above, the determination unit 818 in FIG. 5 is based on the first to third similarity 1 supplied from the similarity calculation unit 813 and the similarity 2 supplied from the similarity calculation unit 817. It is determined whether the image change between the frames F511 to F513 is a normal cut change or a blend cut change.

また、判定部818は、第1乃至第3の類似度1及び類似度2のそれぞれが、第1乃至第3の類似度1及び類似度2のそれぞれに対して設定された適切な閾値に対して大きいかまたは小さいかを判定する閾値判定を行い、第1乃至第3の類似度1及び類似度2のそれぞれに対する閾値判定結果の組み合わせに基づいて、カットチェンジであるかを判定する。なお、値が閾値と等しい場合には、大きいかまたは小さいかのいずれかに判定される。   In addition, the determination unit 818 determines that each of the first to third similarity 1 and the similarity 2 is an appropriate threshold set for each of the first to third similarity 1 and the similarity 2. The threshold is determined to determine whether the change is large or small, and based on the combination of the threshold determination results for each of the first to third similarities 1 and 2, it is determined whether the change is a cut change. When the value is equal to the threshold value, it is determined as either large or small.

図13は、図11の判定処理と図12の3フレームの画像のパターンの関係をまとめたものである。   FIG. 13 summarizes the relationship between the determination process of FIG. 11 and the image pattern of the three frames of FIG.

図13において、類似度の欄が「大」である場合、その類似度が所定の閾値より大きいことを表し、類似度の欄が「小」である場合、その類似度が所定の閾値より小さいことを表す。   In FIG. 13, when the similarity column is “large”, it indicates that the similarity is greater than a predetermined threshold, and when the similarity column is “small”, the similarity is less than the predetermined threshold. Represents that.

図13の上から2行目において、フレームF511とフレームF513の類似度1が「大」の場合には、他の類似度が「大」、「小」のいずれの値であっても、カットチェンジではないと判定される。このような場合に対応する画像パターンは、例えば、図12Aまたは図12Bに示されている。   In the second line from the top in FIG. 13, when the similarity 1 between the frames F511 and F513 is “large”, the cut is performed regardless of whether the other similarities are “large” or “small”. It is determined that it is not a change. An image pattern corresponding to such a case is shown in FIG. 12A or FIG. 12B, for example.

図13の上から3行目において、フレームF511とフレームF513の類似度1が「小」、フレームF511とフレームF512の類似度1が「大」、フレームF512とフレームF513の類似度1が「大」、類似度2が「大」の場合には、ブレンドカットチェンジであると判定される。このような場合に対応する画像パターンは、例えば、図12Gに示されている。   In the third line from the top of FIG. 13, the similarity 1 between the frames F511 and F513 is “low”, the similarity 1 between the frames F511 and F512 is “high”, and the similarity 1 between the frames F512 and F513 is “high”. When the similarity 2 is “high”, it is determined that the blend cut change has occurred. An image pattern corresponding to such a case is shown in FIG. 12G, for example.

図13の上から4行目において、フレームF511とフレームF513の類似度1が「小」、フレームF511とフレームF512の類似度1が「大」、フレームF512とフレームF513の類似度1が「大」、類似度2が「小」の場合には、カットチェンジでないと判定される。このような場合に対応する画像パターンは、例えば、図12Cに示されている。   In the fourth line from the top of FIG. 13, the similarity 1 between the frames F511 and F513 is “small”, the similarity 1 between the frames F511 and F512 is “large”, and the similarity 1 between the frames F512 and F513 is “high”. When the similarity 2 is “small”, it is determined that the cut change is not made. An image pattern corresponding to such a case is shown in FIG. 12C, for example.

図13の上から5行目において、フレームF511とフレームF513の類似度1が「小」、フレームF511と像F512の類似度1が「大」、フレームF512とフレームF513の類似度1が「小」の場合、類似度2が「大」若しくは「小」のいずれでも、通常カットチェンジであると判定される。このような場合に対応する画像パターンは、例えば、図12Eに示されている。   In the fifth line from the top of FIG. 13, the similarity 1 between the frames F511 and F513 is “low”, the similarity 1 between the frames F511 and F512 is “high”, and the similarity 1 between the frames F512 and F513 is “low”. ", It is determined that the cut is a normal cut change regardless of whether the degree of similarity 2 is" large "or" small ". An image pattern corresponding to such a case is shown in FIG. 12E, for example.

図13の上から6行目において、フレームF511とフレームF513の類似度1が「小」、フレームF511とフレームF512の類似度1が「小」、フレームF512とフレームF513の類似度1が「大」の場合、類似度2が「大」若しくは「小」のいずれでも、通常カットチェンジであると判定される。このような場合に対応する画像パターンは、例えば、図12Dに示されている。   In the sixth line from the top in FIG. 13, the similarity 1 between the frames F511 and F513 is “low”, the similarity 1 between the frames F511 and F512 is “low”, and the similarity 1 between the frames F512 and F513 is “high”. ", It is determined that the cut is a normal cut change regardless of whether the degree of similarity 2 is" large "or" small ". An image pattern corresponding to such a case is shown in FIG. 12D, for example.

図13の上から7行目において、フレームF511とフレームF513の類似度1が「小」、フレームF511とフレームF512の類似度1が「小」、フレームF512とフレームF513の類似度1が「小」、類似度2が「大」の場合には、ブレンドカットチェンジであると判定される。このような場合に対応する画像パターンは、例えば、図12Gに示されている。   In the seventh line from the top in FIG. 13, the similarity 1 between the frames F511 and F513 is “small”, the similarity 1 between the frames F511 and F512 is “small”, and the similarity 1 between the frames F512 and F513 is “small”. When the similarity 2 is “high”, it is determined that the blend cut change has occurred. An image pattern corresponding to such a case is shown in FIG. 12G, for example.

図13の上から8行目において、フレームF511とフレームF513の類似度1が「小」、フレームF511とフレームF512の類似度1が「小」、フレームF512とフレームF513の類似度1が「小」、類似度2が「小」の場合には、通常カットチェンジであると判定される。このような場合に対応する画像パターンは、例えば、図12Fに示されている。   In the eighth line from the top in FIG. 13, the similarity 1 between the frames F511 and F513 is “small”, the similarity 1 between the frames F511 and F512 is “small”, and the similarity 1 between the frames F512 and F513 is “small”. When the similarity 2 is “small”, it is determined that the normal cut change is made. An image pattern corresponding to such a case is shown in FIG. 12F, for example.

例えば、フェード、ディゾルブ、ワイプ等の連続的な画像の変化を伴う画像効果を用いた画像区間の接続における画像の変化であるブレンドカットチェンジも、カットチェンジとして検出することができ、ブレンドカットチェンジを含むカットチェンジの検出を正確に行うことができる。   For example, a blend cut change that is an image change at the connection of an image section using an image effect accompanied by a continuous image change such as fade, dissolve, and wipe can also be detected as a cut change. It is possible to accurately detect the cut change including.

なお、図5の判定部818は、この他、ベイズ識別法やニューラルネットワーク法、サポートベクターマシン法等の統計的判別法を用いて、第1乃至第3の類似度1と類似度2に基づいて、カットチェンジであるかを判別する判別器を有する構成としてもよい。   Note that the determination unit 818 in FIG. 5 is based on the first to third similarities 1 and 2 using a statistical discrimination method such as a Bayes identification method, a neural network method, and a support vector machine method. The discriminator for discriminating whether it is a cut change may be provided.

なお、上述した各処理では、画像をフレーム単位で扱うように説明したが、画像をフィールド単位で扱うようにすることもできる。   In each of the above-described processes, it has been described that an image is handled in units of frames. However, an image can be handled in units of fields.

また、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   Further, in this specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the described order, but is not necessarily performed in time series. Or the process performed separately is also included.

本発明は、ソフトウェアにより構成する他、ハードウェアにより構成することができる。   The present invention can be configured by hardware in addition to software.

本発明は、放送機器、画像編集機器、カムコーダ、画像処理用のパーソナルコンピュータ、DVDレコーダ、ハードディスクレコーダ等の画像を処理するあらゆる検出装置に適用することができる。   The present invention can be applied to all detection devices that process images, such as broadcast equipment, image editing equipment, camcorders, personal computers for image processing, DVD recorders, and hard disk recorders.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

通常カットチェンジの例を示す図である。It is a figure which shows the example of a normal cut change. ブレンドカットチェンジの例を示す図である。It is a figure which shows the example of a blend cut change. 撮影対象の早い動きの例を示す図である。It is a figure which shows the example of a quick motion of imaging | photography object. 本発明を適用したパーソナルコンピュータの一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the personal computer to which this invention is applied. パーソナルコンピュータにより構成されるカットチェンジ検出装置の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the cut change detection apparatus comprised with a personal computer. カットチェンジ検出処理を説明するフローチャートである。It is a flowchart explaining a cut change detection process. 合成画像の生成を説明する図である。It is a figure explaining the production | generation of a synthesized image. 原画像の例を示す図である。It is a figure which shows the example of an original image. ヒストグラムの例を示す図である。It is a figure which shows the example of a histogram. ヒストグラムどうしの重なり率を説明する図である。It is a figure explaining the overlapping rate of histograms. 図6のステップS606の判定処理を説明するフローチャートである。It is a flowchart explaining the determination process of step S606 of FIG. 画像パターンとカットチェンジの関係を示す図である。It is a figure which shows the relationship between an image pattern and a cut change. 類似度1及び類似度2とカットチェンジの判定結果の関係を示す図である。It is a figure which shows the relationship between the similarity 1 and the similarity 2, and the determination result of cut change.

符号の説明Explanation of symbols

1 パーソナルコンピュータ, 21 CPU, 22 ROM, 23 RAM, 24 バス, 25 入出力インタフェース, 26 入力部, 27 出力部, 28 記憶部, 29 通信部, 30 ドライブ, 31 リムーバブルメディア, 51 カットチェンジ検出装置, 811 特徴抽出部, 812 特徴量バッファ, 813 類似度算出部, 814 縮小画像生成部, 815 縮小画像バッファ, 816 合成画像生成部, 817 類似度算出部, 818 判定部   1 personal computer, 21 CPU, 22 ROM, 23 RAM, 24 bus, 25 I / O interface, 26 input unit, 27 output unit, 28 storage unit, 29 communication unit, 30 drive, 31 removable media, 51 cut change detection device, 811 feature extraction unit, 812 feature amount buffer, 813 similarity calculation unit, 814 reduced image generation unit, 815 reduced image buffer, 816 composite image generation unit, 817 similarity calculation unit, 818 determination unit

Claims (3)

画像のカットチェンジを検出する検出処理をコンピュータに実行させるプログラムにおいて、
第1の画像、第2の画像、及び第3の画像の特徴を抽出し、
前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度を算出し、
前記第1の画像、前記第2の画像及び前記第3の画像の縮小画像を生成し、
前記第2の画像に対して時間的に前または後に位置する前記第1の画像と前記第3の画像の縮小画像の合成画像を生成し、
前記第2の画像の縮小画像と前記合成画像の類似度を算出し、
前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度、並びに前記第2の画像の縮小画像と前記合成画像の類似度に基づいて、前記第1の画像と前記第3の画像の間に、カットチェンジが存在するかを判定する
ステップを備えるプログラム。
In a program for causing a computer to execute a detection process for detecting a cut change of an image,
Extracting features of the first image, the second image, and the third image;
Calculating the similarity of the features of two images of the first image, the second image, and the third image;
Generating reduced images of the first image, the second image, and the third image;
Generating a composite image of the reduced image of the first image and the third image located before or after in time with respect to the second image;
Calculating a similarity between the reduced image of the second image and the composite image;
Based on the similarity between the characteristics of two images of the first image, the second image, and the third image, and the similarity between the reduced image of the second image and the synthesized image, A program comprising a step of determining whether a cut change exists between a first image and the third image.
画像のカットチェンジを検出する検出方法において、
第1の画像、第2の画像、及び第3の画像の特徴を抽出し、
前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度を算出し、
前記第1の画像、前記第2の画像及び前記第3の画像の縮小画像を生成し、
前記第2の画像に対して時間的に前または後に位置する前記第1の画像と前記第3の画像の縮小画像の合成画像を生成し、
前記第2の画像の縮小画像と前記合成画像の類似度を算出し、
前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度、並びに前記第2の画像の縮小画像と前記合成画像の類似度に基づいて、前記第1の画像と前記第3の画像の間に、カットチェンジが存在するかを判定する
ステップを備える検出方法。
In the detection method for detecting the cut change of the image,
Extracting features of the first image, the second image, and the third image;
Calculating the similarity of the features of two images of the first image, the second image, and the third image;
Generating reduced images of the first image, the second image, and the third image;
Generating a composite image of the reduced image of the first image and the third image located before or after in time with respect to the second image;
Calculating a similarity between the reduced image of the second image and the composite image;
Based on the similarity between the characteristics of two images of the first image, the second image, and the third image, and the similarity between the reduced image of the second image and the synthesized image, A detection method comprising a step of determining whether a cut change exists between the first image and the third image.
画像のカットチェンジを検出する検出装置において、
第1の画像、第2の画像、及び第3の画像の特徴を抽出する特徴抽出手段と、
前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度を算出する第1の類似度算出手段と、
前記第1の画像、前記第2の画像及び前記第3の画像の縮小画像を生成する縮小画像生成手段と、
前記第2の画像に対して時間的に前または後に位置する前記第1の画像と前記第3の画像の縮小画像の合成画像を生成する合成画像生成手段と、
前記第2の画像の縮小画像と前記合成画像の類似度を算出する第2の類似度算出手段と、
前記第1の画像、前記第2の画像及び前記第3の画像のうちの2つの画像の特徴の類似度、並びに前記第2の画像の縮小画像と前記合成画像の類似度に基づいて、前記第1の画像と前記第3の画像の間に、カットチェンジが存在するかを判定する判定手段と
を備える検出装置。
In the detection device that detects the cut change of the image,
Feature extraction means for extracting features of the first image, the second image, and the third image;
First similarity calculation means for calculating the similarity of features of two images of the first image, the second image, and the third image;
Reduced image generating means for generating reduced images of the first image, the second image, and the third image;
A composite image generating means for generating a composite image of the reduced image of the first image and the third image located before or after the second image in time;
Second similarity calculation means for calculating the similarity between the reduced image of the second image and the composite image;
Based on the similarity between the characteristics of two images of the first image, the second image, and the third image, and the similarity between the reduced image of the second image and the synthesized image, A detection device comprising: determination means for determining whether a cut change exists between the first image and the third image.
JP2006261868A 2006-09-27 2006-09-27 Program, detection method, and detection apparatus Expired - Fee Related JP4662169B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006261868A JP4662169B2 (en) 2006-09-27 2006-09-27 Program, detection method, and detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006261868A JP4662169B2 (en) 2006-09-27 2006-09-27 Program, detection method, and detection apparatus

Publications (2)

Publication Number Publication Date
JP2008085540A true JP2008085540A (en) 2008-04-10
JP4662169B2 JP4662169B2 (en) 2011-03-30

Family

ID=39355959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006261868A Expired - Fee Related JP4662169B2 (en) 2006-09-27 2006-09-27 Program, detection method, and detection apparatus

Country Status (1)

Country Link
JP (1) JP4662169B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013519286A (en) * 2010-02-09 2013-05-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3D video format detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07288840A (en) * 1994-04-18 1995-10-31 Matsushita Electric Ind Co Ltd Method for detecting change point of video image
JPH10224741A (en) * 1997-02-10 1998-08-21 Kokusai Denshin Denwa Co Ltd <Kdd> Cut point detection method for moving image
JP2000324499A (en) * 1999-05-14 2000-11-24 Fujitsu Ltd Picture processor and method for detecting scene change

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07288840A (en) * 1994-04-18 1995-10-31 Matsushita Electric Ind Co Ltd Method for detecting change point of video image
JPH10224741A (en) * 1997-02-10 1998-08-21 Kokusai Denshin Denwa Co Ltd <Kdd> Cut point detection method for moving image
JP2000324499A (en) * 1999-05-14 2000-11-24 Fujitsu Ltd Picture processor and method for detecting scene change

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013519286A (en) * 2010-02-09 2013-05-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3D video format detection
US9325964B2 (en) 2010-02-09 2016-04-26 Koninklijke Philips N.V. 3D video format detection
US9729852B2 (en) 2010-02-09 2017-08-08 Koninklijke Philips N.V. 3D video format detection

Also Published As

Publication number Publication date
JP4662169B2 (en) 2011-03-30

Similar Documents

Publication Publication Date Title
JP4720705B2 (en) Program, detection method, and detection apparatus
Chen et al. Automatic detection of object-based forgery in advanced video
KR100901904B1 (en) Video content understanding through real time video motion analysis
US7027509B2 (en) Hierarchical hybrid shot change detection method for MPEG-compressed video
US20070030396A1 (en) Method and apparatus for generating a panorama from a sequence of video frames
US8718324B2 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
US8879894B2 (en) Pixel analysis and frame alignment for background frames
Karaman et al. Comparison of static background segmentation methods
US20080253617A1 (en) Method and Apparatus for Determining the Shot Type of an Image
WO2016036591A1 (en) A method for selecting frames from video sequences based on incremental improvement
JP2009147911A (en) Video data compression preprocessing method, video data compression method employing the same and video data compression system
US8363726B2 (en) Electronic apparatus, motion vector detecting method, and program therefor
JP4662169B2 (en) Program, detection method, and detection apparatus
KR101667011B1 (en) Apparatus and Method for detecting scene change of stereo-scopic image
US20060268181A1 (en) Shot-cut detection
JP2010016660A (en) Scene change detector, scene change detection method and program
KR20100094803A (en) Content-based video copy detection method using segment feature extraction
JP4743601B2 (en) Moving image processing device
JP2009266169A (en) Information processor and method, and program
JP4225503B2 (en) Moving image cut point detection device
Tiburzi et al. Camera motion analysis in on-line MPEG sequences
Prabavathy et al. Gradual transition detection in shot boundary using gradual curve point.
JP4835540B2 (en) Electronic device, video feature detection method and program
JP2008085539A (en) Program, detection method, detector, image processing method and image processor
Saoudi et al. Spatio-temporal video slice edges analysis for shot transition detection and classification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140114

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees