JPH06319108A - Scene change detector - Google Patents

Scene change detector

Info

Publication number
JPH06319108A
JPH06319108A JP5105683A JP10568393A JPH06319108A JP H06319108 A JPH06319108 A JP H06319108A JP 5105683 A JP5105683 A JP 5105683A JP 10568393 A JP10568393 A JP 10568393A JP H06319108 A JPH06319108 A JP H06319108A
Authority
JP
Japan
Prior art keywords
vector
distribution
distribution vector
correlation
scene change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5105683A
Other languages
Japanese (ja)
Inventor
Minoru Eito
稔 栄藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP5105683A priority Critical patent/JPH06319108A/en
Publication of JPH06319108A publication Critical patent/JPH06319108A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve the detection accuracy of a scene change by expressing at which part of a picture and what kind of a color are in existence in terms of a distribution vector and calculating a distance from a picture element to the distribution vector so as to obtain a change in a content between frames with higher accuracy. CONSTITUTION:A color vector of a picture of a position vector generated at random is read out of a frame memory 101 storing in a current frame of a motion picture to combine a characteristic vector. Clustering is executed by using a distribution vector decision section 104 and a distribution vector revision section distribution vector storage memory 107 and a distribution parameter comprising a mean value and a covariance of colors and positions of a picture element subjected to clustering is obtained as the distribution vector. After a succeeding frame is read, a distance up to the distribution vector closest to the picture element selected at random is obtained and the number of picture element decided to have correlation is counted by a pixel count section 108 and the result is used for the correlation. Then a decision section 109 detects a scene change based on the correlation.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像のシーンが変化し
たことを検出できるシーン変化検出装置に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a scene change detecting device capable of detecting a change in a scene of an image.

【0002】[0002]

【従来の技術】従来のシーン変化検出装置に関しては、
特開平3−214364号公報に輝度ヒストグラムの変
化を利用した装置が示されている。図4は、そのシーン
変化検出装置の機能ブロック図である。この図を用いて
輝度ヒストグラムの変化に基づくシーン変化装置の動作
を説明する。輝度判定部401は入力信号を解析し輝度
を判定する。ヒストグラム作成部402は判定された輝
度に基づきヒストグラムを作成する。この結果は、ヒス
トグラム記憶部1(403)またはヒストグラム記憶部
2(404)に交互に入力される。この交互入力は隣接
する2つの動画像フレームの結果を記憶するためであ
る。ヒストグラム差分絶対値演算部405では、連続す
る2フレームのヒストグラムの結果を記憶部403,4
04から読み出して、ヒストグラムの数値すなわち、輝
度毎の画素度数の差分絶対値を求める。ヒストグラム差
分総和演算部406では、前記差分絶対値を総和して、
その総和が、しきい値設定部408より設定されたしき
い値より大きければシーン変化判断部407がシーンの
切れ目であるとの結果を出力する。なお、ヒストグラム
には、画像の濃淡値である輝度を用いても良いし、また
カラー画像では、RGB3原色の組合せを用いても良
い。
2. Description of the Related Art Regarding a conventional scene change detecting device,
Japanese Unexamined Patent Publication No. 3-214364 discloses an apparatus that utilizes changes in a luminance histogram. FIG. 4 is a functional block diagram of the scene change detection device. The operation of the scene changing device based on the change in the luminance histogram will be described with reference to this figure. The brightness determination unit 401 analyzes the input signal and determines the brightness. The histogram creation unit 402 creates a histogram based on the determined brightness. The result is alternately input to the histogram storage unit 1 (403) or the histogram storage unit 2 (404). This alternate input is for storing the results of two adjacent moving image frames. The histogram difference absolute value calculation unit 405 stores the results of the histograms of two consecutive frames in the storage units 403 and 4.
The value is read from 04, and the absolute value of the difference between the pixel values for each luminance, that is, the pixel frequency is calculated. The histogram difference summation calculation unit 406 sums the difference absolute values,
If the total sum is larger than the threshold value set by the threshold value setting unit 408, the scene change determination unit 407 outputs a result indicating that the scene is a break. It should be noted that the histogram may use the brightness that is the gray value of the image, and the color image may use the combination of the three primary colors RGB.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記の
ような従来の構成では、画素の輝度ヒストグラムの変化
のみに注目しているために、内容が異なるが同じ輝度、
配色の画像が連続する場合、シーン変化を検出しなくな
る可能性がある。すなわち、シーン変化の度合を過小評
価する可能性がある。
However, in the conventional configuration as described above, since only the change in the luminance histogram of the pixel is focused on, the same luminance, although the contents are different,
If the images of the color scheme are continuous, there is a possibility that the scene change will not be detected. That is, the degree of scene change may be underestimated.

【0004】これに対して、輝度ヒストグラムに基づく
装置の改良として、画像を格子状に区切って、各格子内
の輝度ヒストグラムの変化に注目する技術がある(例え
ば、長坂、田中:カラービデオ映像における自動検索索
引付けと物体探索法、情報処理学会論文誌、Vol.33, N
o.4,1992.)。しかしながら、この場合、カメラの首振
りにより画面全体で分割したヒストグラムが変化する
と、シーン変化として誤検出する場合がある。
On the other hand, as an improvement of the device based on the brightness histogram, there is a technique of dividing an image into a grid shape and paying attention to the change of the brightness histogram in each grid (for example, Nagasaka and Tanaka: in a color video image. Automatic Search Indexing and Object Search Method, IPSJ Transactions, Vol.33, N
o.4,1992.). However, in this case, if the histogram divided over the entire screen changes due to the camera swing, it may be erroneously detected as a scene change.

【0005】本発明は、上記のような従来のシーン変化
装置の課題を考慮し、動画像の内容の変化に対してより
忠実なシーン変化検出装置を提することを目的とする。
An object of the present invention is to provide a scene change detecting apparatus that is more faithful to changes in the content of a moving image, in consideration of the problems of the conventional scene changing apparatus as described above.

【0006】[0006]

【課題を解決するための手段】本発明は、画像の画素
を、画素の特徴量と位置を特徴ベクトルとしてクラスタ
リングして、特徴ベクトルの分布パラメータからなる分
布ベクトル集合を生成する分布ベクトル生成手段と、画
像から、画素を複数取り出して、画素の特徴量と位置を
特徴ベクトルに用いて、前記分布ベクトルで記述される
画素の特徴ベクトル分布への誤差に相当する距離を基に
画像の相関値を求める相関演算手段を有し、動画像の前
後するフレームに前記分布ベクトル生成手段を適用する
ことにより、順次、分布ベクトルを生成するとともに、
前記相関演算手段により、相関値を計測することによ
り、画像内容の変化を検出するシーン変化検出装置であ
る。
According to the present invention, there is provided distribution vector generation means for clustering pixels of an image with feature amounts and positions of the pixels as feature vectors to generate a distribution vector set including distribution parameters of the feature vectors. , A plurality of pixels are extracted from the image, the feature amount and position of the pixel are used as the feature vector, and the correlation value of the image is calculated based on the distance corresponding to the error to the feature vector distribution of the pixel described by the distribution vector. By having the correlation calculating means for obtaining and applying the distribution vector generating means to the frames before and after the moving image, the distribution vectors are sequentially generated,
The scene change detecting device detects a change in image content by measuring a correlation value by the correlation calculating means.

【0007】[0007]

【作用】動画像中のフレームに対して、分布ベクトル生
成手段により、画素の特徴量と位置からなる特徴ベクト
ルをクラスタリングして、特徴ベクトルの分布パラメー
タからなる分布ベクトル集合を生成する。次フレームに
対して、相関演算手段により、画素の特徴量と位置から
なる特徴ベクトルを読み出して、前記分布ベクトルで記
述される画素の特徴ベクトル分布への誤差に相当する距
離を求め、この距離に基づいて画像の相関値を求める。
With respect to the frames in the moving image, the distribution vector generation means clusters the characteristic vectors consisting of the characteristic amounts and positions of the pixels to generate a distribution vector set consisting of distribution parameters of the characteristic vectors. For the next frame, the correlation calculation means reads out the feature vector including the feature amount and the position of the pixel, finds the distance corresponding to the error to the feature vector distribution of the pixel described by the distribution vector, Based on this, the correlation value of the image is obtained.

【0008】これにより、相関値が低い場合、シーン変
化があったと見なす。カメラの首振りにより、画像全体
が左右に流れた場合、分布ベクトルで記述される画素の
特徴ベクトル分布への誤差に相当する距離が大きくなる
が、シーン変化による距離の増大に比べれば小さい。従
って、効果的なシーン変化を検出することができる。
Accordingly, when the correlation value is low, it is considered that there is a scene change. When the entire image flows to the left and right due to the camera swing, the distance corresponding to the error in the feature vector distribution of the pixels described by the distribution vector increases, but it is smaller than the increase in the distance due to the scene change. Therefore, an effective scene change can be detected.

【0009】[0009]

【実施例】以下、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0010】図1は、本発明の一実施例におけるシーン
変化検出装置の機能ブロック図である。図2は本実施例
におけるシーン変化検出装置の動作を説明するための図
である。図3は本実施例における特徴分布の説明図であ
る。まず、本実施例の基本的な前提事項を説明する。本
実施例では、画素の特徴量として、色を用いる。これを
RGBの列ベクトルであるxとする。画素位置を水平位
置ξ、垂直位置ηの列ベクトルである p=(ξ,η)t
とする(tは行列、ベクトルの転置を表わす)。そし
て、画素の特徴ベクトルを(x,p)とする。本実施例
では、画像をクラスタリングすることにより、最大N個
のクラスタに分割して、各クラスタ内の特徴ベクトルの
分布パラメータからなる分布ベクトルの集合により画像
を表現する。この概念を図3に示す。画像は複数の小領
域から構成されていると考え、その小領域を分布ベクト
ルで表現する。分布ベクトルは色ベクトルxの平均x ̄
と共分散X,位置ベクトルpの平均p ̄と共分散Pの並
びからなるパラメータである。分布ベクトル集合をθi
=(x ̄i,Xi,p ̄i,Pi),1≦i≦Nと表現する
ことにする。
FIG. 1 is a functional block diagram of a scene change detection apparatus according to an embodiment of the present invention. FIG. 2 is a diagram for explaining the operation of the scene change detection device in this embodiment. FIG. 3 is an explanatory diagram of the feature distribution in this embodiment. First, the basic prerequisites of this embodiment will be described. In this embodiment, color is used as the feature amount of the pixel. Let this be x, which is a column vector of RGB. The pixel position is a column vector of horizontal position ξ and vertical position η p = (ξ, η) t
( T represents transposition of matrix and vector). Then, the feature vector of the pixel is set to (x, p). In the present embodiment, the images are clustered to be divided into a maximum of N clusters, and the images are represented by a set of distribution vectors composed of distribution parameters of feature vectors in each cluster. This concept is shown in FIG. An image is considered to be composed of a plurality of small areas, and the small areas are represented by a distribution vector. The distribution vector is the average of color vectors x
And the covariance X, the average p of the position vector p, and the covariance P. Let θ i be the distribution vector set
= (X i , X i , p i i , P i ), 1 ≦ i ≦ N.

【0011】図1において、101はフレームメモリ、
102は画像の位置ベクトルpをランダムに発生するラ
ンダムアドレス発生部、103はランダムアドレス発生
部102で得られた位置ベクトルpにより、その位置に
ある画素の色ベクトルxをフレームメモリ101から読
み出して、特徴ベクトル(x,p)を合成し出力する特
徴ベクトル合成部、104はその特徴ベクトル(x,
p)に基づき、分布ベクトルを決定する分布ベクトル決
定部、105は次に述べる各部106、108を制御す
る制御部、106は分布ベクトルを変更する分布ベクト
ル変更部、107はN個の分布ベクトル格納のためのス
ロットが1からNまである分布ベクトル格納メモリ、1
08は分布ベクトル決定部104の出力を受けて相関画
素を計数する相関画素計数部、109はその相関画素計
数値を利用して判定する判定部である。特徴ベクトル合
成部103、分布ベクトル決定部106、分布ベクトル
格納メモリ104、分布ベクトル変更部106等で分布
ベクトル生成手段を構成する。
In FIG. 1, 101 is a frame memory,
Reference numeral 102 denotes a random address generation unit that randomly generates a position vector p of an image, and 103 uses the position vector p obtained by the random address generation unit 102 to read the color vector x of the pixel at that position from the frame memory 101, A feature vector synthesis unit that synthesizes and outputs the feature vector (x, p), and 104 is the feature vector (x, p
p), a distribution vector determination unit that determines a distribution vector, 105 a control unit that controls each of the units 106 and 108 described below, 106 a distribution vector change unit that changes the distribution vector, and 107 stores N distribution vector Vector storage memory with slots for 1 to N, 1
Reference numeral 08 is a correlation pixel counting unit that receives the output of the distribution vector determination unit 104 and counts correlation pixels, and 109 is a determination unit that determines using the correlation pixel count value. A distribution vector generation unit is configured by the feature vector synthesis unit 103, the distribution vector determination unit 106, the distribution vector storage memory 104, the distribution vector change unit 106, and the like.

【0012】以上の構成により本実施例は、動画像の1
フレームについてクラスタリング行なったあと、第2フ
レーム以降は、相関演算とクラスタリングを前後して行
なう。この相関演算とクラスタリングの切替えは、制御
部(105)が行なう。
With the above-described structure, this embodiment can
After performing clustering on frames, correlation calculation and clustering are performed before and after the second frame. The control unit (105) switches between the correlation calculation and the clustering.

【0013】すなわち、はじめに、検索画像の画素をそ
の特徴ベクトル(x,p)よりクラスリングする。図2
に示す例では、第1フレーム201について、クラスタ
リングを行ない、第1フレームクラスタリング結果20
2が得られている。図2では、一つのクラスタを楕円と
して表示した。クラスタリングされた画素のクラスタは
結果は必ずしも楕円領域を形成する保証はないが、色に
加えて位置を特徴ベクトルとしていることから、似たよ
うな色でかつ距離の近い近傍の画素が一つのクラスタを
形成する。これにより、例えば、髪の黒い部分、顔の肌
色の部分に対して各々一つの分布ベクトルが割り当てら
れる。このように、色ベクトルと位置ベクトルの結合し
た画素の特徴ベクトルをクラスタリングすることによ
り、「どこに、どのような色の分布があるか」が表現さ
れる。このクラスタリングには、様々な方法が提案され
ているが、本実施例では競合学習方式により実現してい
る。これを以下に示す。
That is, first, the pixels of the search image are classified from the feature vector (x, p). Figure 2
In the example shown in, clustering is performed on the first frame 201, and the first frame clustering result 20
2 has been obtained. In FIG. 2, one cluster is displayed as an ellipse. The result of clustered pixel clusters is not always guaranteed to form an elliptical region, but since position is used as a feature vector in addition to color, a cluster of pixels with similar colors and close distances is one cluster. To form. As a result, for example, one distribution vector is assigned to each of the black part of hair and the flesh-colored part of the face. In this way, by clustering the feature vectors of pixels in which the color vector and the position vector are combined, "where and what color distribution is present" are expressed. Although various methods have been proposed for this clustering, in this embodiment, they are realized by the competitive learning method. This is shown below.

【0014】ステップ1:分布ベクトルメモリ107の
各スロットには、1,0の2値をとる有効フラグが付随
している。1の時、有効、0の時無効とする。はじめに
N個のスロットの内c個(c≦N)のスロットの有効フ
ラグを1とし他を0とする。離散時間tの分布ベクトル
集合を、 θi(t)=(x ̄i(t),Xi(t),p ̄i(t),Pi
(t)),1≦i≦N と表現することにする。有効フラグの1である分布ベク
トルスロットのメモリ内容を初期化する。初期化は、共
分散行列Xi(0)、Pi(0)は単位行列であるとし、
色ベクトルxの平均x ̄i(0)と位置ベクトルpの平
均p ̄i(0)は、ランダムに設定する。初期化時の離
散時間tは0である。
Step 1: Each slot of the distribution vector memory 107 is associated with a valid flag which takes a binary value of 1,0. When 1 is valid, when 0 is invalid. First, the valid flags of c slots (c ≦ N) of the N slots are set to 1 and the others are set to 0. The distribution vector set of discrete time t is represented by θ i (t) = (x− i (t), X i (t), p− i (t), P i
(T)), 1 ≦ i ≦ N. Initialize the memory contents of the distribution vector slot that is 1 of the valid flag. Initialization is performed assuming that the covariance matrices X i (0) and P i (0) are unit matrices,
The average P i of the average x¯ i (0) and the position vector p color vector x (0) is set at random. The discrete time t at the time of initialization is 0.

【0015】ステップ2:特徴ベクトル合成部103で
は、ランダムアドレス発生部102で得られた位置ベク
トルpにより、その位置にある画素の色ベクトルxを読
み出して、特徴ベクトル(x,p)を合成し出力する。
分布ベクトル決定部103では、N個スロットの中で有
効フラグが1であるスロット内の分布ベクトルについ
て、特徴ベクトルとの距離を計算する。この距離の評価
は(数1)で行なう。
Step 2: The feature vector synthesizing unit 103 reads the color vector x of the pixel at that position from the position vector p obtained by the random address generating unit 102 and synthesizes the feature vector (x, p). Output.
The distribution vector determination unit 103 calculates the distance from the feature vector for the distribution vector in the slot in which the valid flag is 1 among the N slots. This distance is evaluated by (Equation 1).

【0016】[0016]

【数1】 [Equation 1]

【0017】ここで、|X|と|P|は各共分散行列の
行列式である。(数1)は、画素の分布が、色ベクトル
xと位置ベクトルpが各々独立に、平均x ̄i,p ̄i
共分散Xi,Piで正規分布していると仮定した時、その
確率密度関数の対数(対数尤度)から求めることができ
る統計的な測度である。N個のスロットの中で、有効フ
ラグが1の分布ベクトルについて距離を計算し、最短距
離であったスロットの番号をkとして、分布ベクトル決
定部104はその番号kと標本を分布ベクトル変更部1
06へ送る。分布ベクトル変更部106では、スロット
番号kの分布ベクトルを標本に(数1)の距離関数の下
で、より近くなるよう(数2、3、4、5)で変更す
る。(数6)は実験的に定める利得係数である。
Here, | X | and | P | are determinants of each covariance matrix. (Equation 1), when the distribution of the pixel are independently color vector x and the position vector p are each an average x¯ i, i and covariance X i, was assumed to be normally distributed with P i, It is a statistical measure that can be obtained from the logarithm (log likelihood) of the probability density function. Of the N slots, the distance is calculated for the distribution vector whose effective flag is 1, and the number of the slot having the shortest distance is k, and the distribution vector determination unit 104 sets the number k and the sample to the distribution vector change unit 1.
Send to 06. The distribution vector changing unit 106 changes the distribution vector of the slot number k to be closer to the sample under the distance function of (Equation 1) (Equations 2, 3, 4, 5). (Equation 6) is an experimentally determined gain coefficient.

【0018】[0018]

【数2】 [Equation 2]

【0019】[0019]

【数3】 [Equation 3]

【0020】[0020]

【数4】 [Equation 4]

【0021】[0021]

【数5】 [Equation 5]

【0022】[0022]

【数6】 [Equation 6]

【0023】時刻tを1増加させる。The time t is incremented by 1.

【0024】以上のステップ2を所定の回数(例えば1
0000回)繰り返すことにより、自己組織化による画
素のクラスタリングがおこなわれる。すなわち、ランダ
ムに選ばれた特徴ベクトルにもっとも近い分布ベクトル
が、よりその標本を近くなるように分布パラメタータを
修正することにより、一つのクラスタが形成される。ラ
ンダムアドレス発生は、逐次分布ベクトルを変更する時
の偏りを防ぐためである。
The above step 2 is performed a predetermined number of times (for example, 1
By repeating (0000 times), pixel clustering by self-organization is performed. That is, one cluster is formed by modifying the distribution parameter data so that the distribution vector closest to the randomly selected feature vector is closer to the sample. Random address generation is to prevent bias when changing the successive distribution vector.

【0025】このステップ2の繰り返しの中で、分布ベ
クトル変更部106は、条件1:(分布ベクトルの総ス
ロット数N)−(現在有効な分布ベクトルスロット数
c)>0であり、条件2: ln|Xi|+ln|Pi
が所定のしきい値以上、であれば、分布ベクトルθi
表現されるクラスタを分割する。このために分布ベクト
ルθi を有効フラグが0である(無効な)分布ベクトル
スロットjに複製し、θj=θiを作る。そして、各々、
平均ベクトルをε加減する。εの値は実験的に定める。
これを(数7、8、9、10)に示す。
During the repetition of step 2, the distribution vector changing unit 106 satisfies the condition 1: (total number of distribution vector slots N)-(currently effective distribution vector slot number c)> 0, and condition 2: ln | X i | + ln | P i |
Is greater than or equal to a predetermined threshold, the cluster represented by the distribution vector θ i is divided. For this purpose, the distribution vector θ i is duplicated in the distribution vector slot j whose valid flag is 0 (invalid), and θ j = θ i is created. And each,
The average vector is adjusted by ε. The value of ε is experimentally determined.
This is shown in (Equations 7, 8, 9, 10).

【0026】[0026]

【数7】 [Equation 7]

【0027】[0027]

【数8】 [Equation 8]

【0028】[0028]

【数9】 [Equation 9]

【0029】[0029]

【数10】 [Equation 10]

【0030】そして、スロットjの有効フラグを1に
し、有効な分布ベクトルスロット数cを1増やして、以
後の自己組織化の反復に用いる。これにより、 ln|
i|+ln|Pi|が大きなクラスタが分割される。
Then, the effective flag of the slot j is set to 1, the effective distribution vector slot number c is increased by 1, and used for the repetition of self-organization thereafter. As a result, ln |
A cluster having a large X i | + ln | P i | is divided.

【0031】またステップ2の繰り返しの中で、所定の
期間、一度もランダムに選ばれた標本ベクトルの割当が
得られなかった、すなわち最短距離とならなかった分布
ベクトルのスロットの有効フラグを0にし、有効な分布
ベクトルスロット数cを1減ずる。これは、誤った値に
収束した分布ベクトルのパラメータを取り消すために必
要である。
Further, during the repetition of step 2, the valid flag of the slot of the distribution vector for which the randomly selected sample vector has never been obtained for a predetermined period, that is, the shortest distance is not set, is set to 0. , The effective distribution vector slot number c is decremented by 1. This is necessary to cancel the parameters of the distribution vector that have converged to the wrong value.

【0032】以上の処理により、検索対象画像につい
て、無効な分布ベクトルを含めてN個の分布ベクトルか
らなる分布ベクトル集合が生成される。図2の第1フレ
ームクラスタリング結果202では14の分布ベクトル
で画像が表現されていることになる。
By the above processing, a distribution vector set consisting of N distribution vectors including invalid distribution vectors is generated for the image to be searched. In the first frame clustering result 202 of FIG. 2, the image is represented by 14 distribution vectors.

【0033】次に第2フレームをフレームメモリ101
に入力する。制御部105は、分布ベクトル変更部10
6の動作を止めて、相関画素計数部108の動作を起動
する。分布ベクトル決定部104はクラスタリング時と
同じ動作を行なう。即ち、N個のスロットの中で、有効
フラグが1の分布ベクトルについて距離を計算し、最短
距離である分布ベクトルkを求める。そして、(数1)
のなかで、共分散の行列式の値を除いた(数11)に示
す成分のみを距離χとして、相関画素計数部108へ送
る。
Next, the second frame is set to the frame memory 101.
To enter. The control unit 105 includes the distribution vector changing unit 10
The operation of 6 is stopped, and the operation of the correlated pixel counting unit 108 is activated. The distribution vector determination unit 104 performs the same operation as at the time of clustering. That is, in N slots, the distance is calculated for the distribution vector whose effective flag is 1, and the distribution vector k which is the shortest distance is obtained. And (Equation 1)
Among these, only the component shown in (Equation 11) excluding the value of the determinant of covariance is sent to the correlated pixel counting unit 108 as the distance χ.

【0034】[0034]

【数11】 [Equation 11]

【0035】ここで、相関画素計数部108は、最短距
離χ<閾値Tの画素を計数する。具体的には、相関値の
初期値を0として、閾値T以下の最短距離が分布ベクト
ル決定部104より入力されたら数を1増やす。これを
所定の回数(例えば10000回)繰り返す。ここで、
距離χは特徴ベクトルから、平均x ̄k,p ̄kまでの正
規化距離であるマハラノビス距離である。マハラノビス
距離は、特徴ベクトルが正規分布していると仮定する
と、χ2 乗分布に従う。したがって、閾値Tはχ2乗検
定に用いる閾値を用いることができる。例えば、自由度
5のχ2乗分布では、T=16.7496とすると、同
一の画像であれば、99.5%の画素が、しきい値T以
下として計数されることが期待される。計数された画素
数は相関値として判定部109へ送られる。この相関値
が所定のしきい値以下であると、連続するフレームの相
関が弱いと見なし、シーン変化の信号を出力する。
Here, the correlation pixel counting unit 108 counts pixels having the shortest distance χ <threshold value T. Specifically, the initial value of the correlation value is set to 0, and when the shortest distance equal to or less than the threshold value T is input from the distribution vector determination unit 104, the number is increased by 1. This is repeated a predetermined number of times (for example, 10,000 times). here,
Distance χ from the feature vector, the mean X - k, a Mahalanobis distance is normalized distance to p¯ k. The Mahalanobis distance follows a χ 2 distribution, assuming that the feature vector is normally distributed. Therefore, as the threshold value T, the threshold value used for the χ 2 test can be used. For example, in a χ 2 distribution with 5 degrees of freedom, assuming that T = 16.749, it is expected that 99.5% of pixels are counted as the threshold value T or less in the same image. The counted number of pixels is sent to the determination unit 109 as a correlation value. If this correlation value is less than or equal to a predetermined threshold value, it is considered that the correlation between consecutive frames is weak, and a scene change signal is output.

【0036】以上、相関演算時ではランダムな特徴ベク
トルの読み出し、分布ベクトルの決定と正規化距離χの
演算、正規化距離χの閾値処理による相関画素の計数を
繰り返して、相関値を計算することにより、シーン変化
を決定する。以後、クラスタリングによる現フレームの
分布ベクトル記述、次フレームの入力に伴う相関演算、
の繰り返しを行なう。
As described above, at the time of the correlation calculation, the correlation value is calculated by repeating the reading of the random feature vector, the determination of the distribution vector, the calculation of the normalized distance χ, and the counting of the correlated pixels by the threshold processing of the normalized distance χ. Determines the scene change. After that, the distribution vector description of the current frame by clustering, the correlation calculation with the input of the next frame,
Repeat.

【0037】図2の第2フレーム203では、第1フレ
ーム201と相関があり、相関値は大きい。第2フレー
ム以降では、クラスタリングの初期値は、前フレームの
クラスタリング結果を用いる。図2では、第2フレーム
203をクラスタリングしてクラスタリング結果204
を得ている。そして、同様の相関演算を第3フレーム2
05に行なっている。この場合、第2フレーム203と
第3フレーム205の間にシーンの変化があるために、
相関値は小さくなり、シーン変化として検出される。
The second frame 203 in FIG. 2 has a correlation with the first frame 201, and the correlation value is large. After the second frame, the clustering result of the previous frame is used as the initial value of clustering. In FIG. 2, the second frame 203 is clustered to obtain a clustering result 204.
Is getting Then, the same correlation calculation is performed in the third frame 2
I am going to 05. In this case, since there is a change in the scene between the second frame 203 and the third frame 205,
The correlation value becomes small and is detected as a scene change.

【0038】以上に示した本実施例によれば、画像のど
こに、どのような色が存在しているを分布ベクトルによ
り表現して、その分布ベクトルへの距離を計算すること
により、フレーム間の内容の変化を、より精緻に得るこ
とができる。また、相関値は、χ2乗分布に準じるた
め、しきい値の設定は、統計的パラメータとして決定す
ることができる。
According to the present embodiment described above, by expressing the existence of what kind of color in the image by a distribution vector and calculating the distance to the distribution vector, it is possible to calculate the distance between frames. Changes in content can be obtained more precisely. Moreover, since the correlation value conforms to the χ 2 distribution, the threshold value can be set as a statistical parameter.

【0039】なお、本発明の画素の特徴量は、上記実施
例では色を用いたが、これに限られない。
Although the feature amount of the pixel of the present invention uses color in the above embodiment, it is not limited to this.

【0040】また、本発明のクラスタリングは、上記実
施例の方式に限らず、他のクラスタリング方式を採用出
来る。
Further, the clustering of the present invention is not limited to the system of the above embodiment, and other clustering system can be adopted.

【0041】また、本発明の各手段は、コンピュータを
用いてソフトウェア的に実現し、あるいはそれら各機能
を有する専用のハード回路を用いて実現する事が出来
る。
Further, each means of the present invention can be realized by software using a computer, or can be realized by using a dedicated hardware circuit having the respective functions.

【0042】[0042]

【発明の効果】以上述べたところから明らかなように、
本発明によれば、次のような効果を得ることができる。
As is apparent from the above description,
According to the present invention, the following effects can be obtained.

【0043】(1)画像のどこに、例えば、どのような
色が存在しているかを分布ベクトルにより表現して、そ
の分布ベクトルへの距離を計算することにより、フレー
ム間の内容の変化を、より精緻に得ることができ、従来
の輝度ヒストグラムに基づく装置よりも、より正確にシ
ーン変化を検出することができる。例えば、同じ配色の
画像が連続しても、その位置が異なれば、シーンの変化
として検出することができる。
(1) Where in the image, for example, what kind of color exists, is expressed by a distribution vector, and the distance to the distribution vector is calculated, so that the change in the content between frames can be further reduced. It can be obtained with precision and can detect scene changes more accurately than with conventional luminance histogram based devices. For example, even if images with the same color arrangement are consecutive, if the positions are different, it can be detected as a change in the scene.

【0044】(2)分布ベクトルは、位置に依存した特
徴の分布を表現している。したがって、この結果を動画
像の各フレームに付与しておくことにより、画像検索な
どの処理に応用できる。
(2) The distribution vector represents the distribution of features depending on the position. Therefore, by adding this result to each frame of the moving image, it can be applied to processing such as image retrieval.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のシーン変化検出装置にかかる一実施例
におけるブロック図である。
FIG. 1 is a block diagram of an embodiment of a scene change detection device of the present invention.

【図2】上記実施例における動作説明図である。FIG. 2 is an operation explanatory diagram in the above embodiment.

【図3】上記実施例における特徴ベクトル分布の説明図
である。
FIG. 3 is an explanatory diagram of a feature vector distribution in the above embodiment.

【図4】従来のシーン変化検出装置のブロック図であ
る。
FIG. 4 is a block diagram of a conventional scene change detection device.

【符号の説明】[Explanation of symbols]

101 フレームメモリ 102 ランダムアドレス発生部 103 特徴ベクトル合成部 104 分布ベクトル決定部 105 制御部 106 分布ベクトル変更部 107 分布ベクトル格納メモリ 108 相関画素計数部(相関演算手段) 109 判定部 201 第1フレーム 202 第1フレームクラスタリング結果 203 第2フレーム 204 第2フレームクラスタリング結果 205 第3フレーム 101 frame memory 102 random address generator 103 feature vector combiner 104 distribution vector determiner 105 controller 106 distribution vector changer 107 distribution vector storage memory 108 correlation pixel counter (correlation calculation means) 109 judgment unit 201 first frame 202 1-frame clustering result 203 Second frame 204 Second-frame clustering result 205 Third frame

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】画像の画素を、画素の特徴量と位置とを特
徴ベクトルとして、クラスタリングし、特徴ベクトルの
分布パラメータからなる分布ベクトルの集合を生成する
分布ベクトル生成手段と、 前記画像から、画素を複数取り出して、画素の特徴量と
位置とを特徴ベクトルに用いて、前記分布ベクトルで記
述される画素の特徴ベクトル分布への誤差に相当する距
離に基づいて、画像の相関値を求める相関演算手段を備
え、 動画像の前後するフレームについて前記分布ベクトル生
成手段により、順次、分布ベクトルを生成するととも
に、前記相関演算手段により、相関値を計測することに
より、画像のシーン変化を検出することを特徴とするシ
ーン変化検出装置。
1. A distribution vector generation unit that clusters pixels of an image using a feature amount and a position of the pixel as a feature vector to generate a set of distribution vectors composed of distribution parameters of the feature vector; Correlation calculation for obtaining the correlation value of the image based on the distance corresponding to the error to the feature vector distribution of the pixel described by the distribution vector by using the feature amount and the position of the pixel as the feature vector. Means for sequentially generating distribution vectors by the distribution vector generation means for the preceding and succeeding frames of the moving image, and measuring the correlation value by the correlation calculation means to detect a scene change of the image. Characteristic scene change detection device.
【請求項2】画素の特徴量は色であることを特徴とする
請求項1記載のシーン変化検出装置。
2. The scene change detection device according to claim 1, wherein the characteristic amount of the pixel is a color.
JP5105683A 1993-05-06 1993-05-06 Scene change detector Pending JPH06319108A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5105683A JPH06319108A (en) 1993-05-06 1993-05-06 Scene change detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5105683A JPH06319108A (en) 1993-05-06 1993-05-06 Scene change detector

Publications (1)

Publication Number Publication Date
JPH06319108A true JPH06319108A (en) 1994-11-15

Family

ID=14414218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5105683A Pending JPH06319108A (en) 1993-05-06 1993-05-06 Scene change detector

Country Status (1)

Country Link
JP (1) JPH06319108A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09294277A (en) * 1996-04-26 1997-11-11 Nippon Telegr & Teleph Corp <Ntt> Predictive coded image data management method and device
US5911008A (en) * 1996-04-30 1999-06-08 Nippon Telegraph And Telephone Corporation Scheme for detecting shot boundaries in compressed video data using inter-frame/inter-field prediction coding and intra-frame/intra-field coding
KR20040008067A (en) * 2002-07-15 2004-01-28 삼성전자주식회사 Image enhancing circuit using corelation between frames and method therefor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09294277A (en) * 1996-04-26 1997-11-11 Nippon Telegr & Teleph Corp <Ntt> Predictive coded image data management method and device
US5911008A (en) * 1996-04-30 1999-06-08 Nippon Telegraph And Telephone Corporation Scheme for detecting shot boundaries in compressed video data using inter-frame/inter-field prediction coding and intra-frame/intra-field coding
KR20040008067A (en) * 2002-07-15 2004-01-28 삼성전자주식회사 Image enhancing circuit using corelation between frames and method therefor

Similar Documents

Publication Publication Date Title
US7853086B2 (en) Face detection method, device and program
US7835541B2 (en) Apparatus, method, and medium for detecting face in image using boost algorithm
JP2894113B2 (en) Image clustering device
US8755623B2 (en) Image enhancement method, image enhancement device, object detection method, and object detection device
US8155396B2 (en) Method, apparatus, and program for detecting faces
US7809173B2 (en) Face detection method, apparatus, and program
EP1587032B1 (en) Image processing apparatus and method, recording medium, and program
JP3226020B2 (en) Motion vector detection device
US8605795B2 (en) Video editing methods and systems
US20070165951A1 (en) Face detection method, device and program
JP3149840B2 (en) Apparatus and method for detecting motion vector
US7421149B2 (en) Object detection
EP1542155A1 (en) Object detection
US20070036429A1 (en) Method, apparatus, and program for object detection in digital image
EP1542153A1 (en) Object detection
EP1585337A2 (en) Image processing apparatus and method, recording medium and program
EP0624981B1 (en) Motion vector detecting circuit
EP1542152A1 (en) Object detection
JP3308617B2 (en) Apparatus and method for detecting motion vector
WO2014074959A1 (en) Real-time face detection using pixel pairs
JP4757598B2 (en) Face detection method, apparatus, and program
JP2007102401A (en) Face direction specification method, face discrimination method and device and program
GB2409029A (en) Face detection
JP2001005958A (en) Device and method for reducing noise, and recording medium therefor
JPH06318256A (en) Image retrieving device