JP2839132B2 - Image cut point detection method and apparatus - Google Patents

Image cut point detection method and apparatus

Info

Publication number
JP2839132B2
JP2839132B2 JP31297694A JP31297694A JP2839132B2 JP 2839132 B2 JP2839132 B2 JP 2839132B2 JP 31297694 A JP31297694 A JP 31297694A JP 31297694 A JP31297694 A JP 31297694A JP 2839132 B2 JP2839132 B2 JP 2839132B2
Authority
JP
Japan
Prior art keywords
image
distance
area
frame
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP31297694A
Other languages
Japanese (ja)
Other versions
JPH08214210A (en
Inventor
行信 谷口
佳伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP31297694A priority Critical patent/JP2839132B2/en
Publication of JPH08214210A publication Critical patent/JPH08214210A/en
Application granted granted Critical
Publication of JP2839132B2 publication Critical patent/JP2839132B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は映像カット点検出方法及
び装置に係わり、詳しくは、複数枚の画像データの列か
らそのカット点(シーンが切り替わる点)を検出する方
法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for detecting a video cut point, and more particularly, to a method and apparatus for detecting a cut point (a point at which a scene is switched) from a plurality of image data columns.

【0002】[0002]

【従来の技術】映像中のカメラのオン・オフや映像編集
のつなぎ目(フェード、ワイプ等)によりシーンが切り
替わる点をカット点という。カメラの動き(パン、ズー
ム等)及び画像中の物体の移動はカットとは見なさな
い。この様な映像カット点の検出はシーンチェンジ検出
とも呼ばれ、従来から様々な方法が提案されている。
2. Description of the Related Art A point at which a scene is switched by turning on / off a camera in a video or by a joint (fade, wipe, etc.) in video editing is called a cut point. Camera movement (pan, zoom, etc.) and movement of objects in the image are not considered cuts. Such detection of an image cut point is also called scene change detection, and various methods have been conventionally proposed.

【0003】代表的な方法としては、取り込まれた一連
の画像中の時間的に隣合う2枚の画像It,It-1の各対応
する画素における輝度値の差を計算して、その絶対値の
画面全体に渡る和(フレーム間差分)をD(t) とする
と、D(t) がある与えられた閾値よりも大きいとき、t
をカット点とみなす方法がある(大辻、外村、大庭:
「輝度情報を使った動画像ブラウジング」、電気情報通
信学会技術報告、IE90-103,1991)。なお、この場合、フ
レーム間差分の代わりに、画素変化面積、輝度ヒストグ
ラム差分、ブロック別色相関、χ2 検定量などがD(t)
として使われることもある(大辻、外村:「映像カット
自動検出方式の検討」、テレビジョン学会技術報告、Vo
l.16,No.43,pp.7-12)。この方法は、画像中に物体の激
しい移動やフラッシュ光があってもカットとして誤って
検出してしまう問題がある。
As a typical method, two images I t adjacent temporally in a series of images captured, by calculating the difference in luminance values of each corresponding pixel in I t-1, the Assuming that the sum of the absolute values over the entire screen (inter-frame difference) is D (t), when D (t) is greater than a given threshold, t (t)
Is a cut point (Otsuji, Totomura, Oba:
"Moving image browsing using luminance information", IEICE technical report, IE90-103, 1991). In this case, instead of the inter-frame difference, pixel change area, the luminance histogram difference, block-specific color correlation, and chi 2 test amount D (t)
(Otsuji, Totomura: "Study of Automatic Video Cut Detection Method", Technical Report of the Institute of Television Engineers of Japan, Vo
l.16, No.43, pp.7-12). This method has a problem that even if there is a strong movement of an object or flash light in an image, it is erroneously detected as a cut.

【0004】また、D(t) をそのまま閾値処理するので
はなく、各種時間フィルタをD(t)に対して作用した結
果を閾値処理する方法もある(K.Otsuji snd Y.Tonomur
a:"Projection Detecting Filter for Video Cut Detec
tion"Proc.of ACM Multimedia 93,1993,pp.251-257)。
この方法は、映像の中に激しく動く物体やフラッシュ光
があっても誤検出を生じにくいという特徴を持ってい
る。
There is also a method of performing threshold processing on a result obtained by applying various time filters to D (t) instead of performing threshold processing on D (t) as it is (K. Otsuji snd Y. Tonomur).
a: "Projection Detecting Filter for Video Cut Detec
tion "Proc. of ACM Multimedia 93, 1993, pp. 251-257).
This method is characterized in that erroneous detection is unlikely to occur even if there is a strongly moving object or flash light in the video.

【0005】[0005]

【発明が解決しようとする課題】上記従来技術において
は、以下のような問題点があった。第1の問題点は、時
間的にゆっくりとしたシーンの変化が検出できないこと
である。これは、従来のカット点検出方法ではシーンの
変化の割合を表す量が時間的にとなり合う2フレームだ
けから算出されていて、長時間のシーンの変化がほとん
ど反映されていないからである。
The above prior art has the following problems. The first problem is that temporally slow scene changes cannot be detected. This is because, in the conventional cut point detection method, the amount representing the rate of change of the scene is calculated from only two frames that are temporally coincident, and a long-term change in the scene is hardly reflected.

【0006】ゆっくりとしたシーン変化の代表的なもの
として、映像編集段階で挿入されるフェードイン、フェ
ードアウト、ディゾルブ、ワイプといったエフェクト
(特殊効果)がある。フェードインは映像信号レベルを
徐々に上げて画像を徐々に現す技法であり、フェードア
ウトは映像信号レベルを徐々に下げて画像を徐々に消す
技法である。ディゾルブはシーンAからシーンBに移る
際に、シーンAの映像信号レベルを下げながらシーンB
の映像信号レベルを上げていく技法であり、シーンAか
らシーンBへ互いに融け合うようにしてシーンが転換し
ていく。ワイプはシーンAの画像を一部分からぬぐい去
るように消しながら、シーンBの画像を現していく技術
である。これらのエフェクトではシーンがゆっくり変化
する(例えばシーンが完全に転換するまでに1秒程度の
時間がかかる)ので、従来のように時間的に隣合う2枚
の画像(時間間隔は1/30秒程度)を比較する方法で
はその変化を検出できなかった。なぜなら、ゆっくりと
したシーン変化において時間的に隣合う2枚の画像間に
みられる違いは微小で、それが雑音に起因するものか、
シーン変化に起因するものかを判別することは困難だか
らである。
A typical example of a slow scene change is an effect (special effect) such as a fade-in, fade-out, dissolve, or wipe inserted at a video editing stage. Fade-in is a technique for gradually increasing the video signal level to gradually show an image, and fade-out is a technique for gradually lowering the video signal level and gradually erasing the image. When the dissolve moves from the scene A to the scene B, the scene B is lowered while the video signal level of the scene A is lowered.
Is a technique for increasing the video signal level of a scene, and the scene is changed so that the scene A and the scene B are fused to each other. The wipe is a technique for displaying the image of the scene B while erasing the image of the scene A from part of the image. With these effects, the scene changes slowly (for example, it takes about one second until the scene completely changes), so two images that are temporally adjacent to each other (the time interval is 1/30 second) The degree) could not be detected. This is because the difference between two images that are temporally adjacent to each other in a slow scene change is so small that it is caused by noise.
This is because it is difficult to determine whether the change is caused by a scene change.

【0007】第2の問題点は、映像中にフラッシュ光が
写っていると、それをカットと誤検出してしまうことで
ある。フラッシュがたかれると一瞬、画像の輝度レベル
が上昇するので、フラッシュがたかれると前の画像とフ
ラッシュ光が写っている画像との差分が急増する。従っ
て、輝度差分の急増をカット点とみなすという従来のカ
ット点検出方法では、フラッシュ光をカット点と誤って
しまう。
A second problem is that if a flash light appears in an image, it is erroneously detected as a cut. When the flash is turned on, the brightness level of the image rises for a moment, so that when the flash is turned on, the difference between the previous image and the image in which the flash light appears is sharply increased. Therefore, in the conventional cut point detection method in which a sudden increase in the luminance difference is regarded as a cut point, the flash light is mistaken for the cut point.

【0008】第3の問題点は、テレシネ変換された映像
のカット点が正しく検出できない(取り漏らしが生じや
すい)ことである。テレシネ変換とは、フィルムで撮影
した映像をテレビで放映するときに、フィルムのコマ数
(1秒24コマ)と、テレビ信号のコマ数(1秒30コ
マ)を合わせるための変換である。テレシネ変換にもい
くつかの方式があるが、ある方式では4コマに1コマの
割合でフレームを付加する。このとき挿入されるフレー
ムをその前後の画像のフィールドを合成して作るので、
画像変化が小さくなり、従来のカット点検出法では上述
したディゾルブと同様の理由でカット検出漏れを生じや
すい。
A third problem is that a cut point of a telecine-converted image cannot be correctly detected (it is easy to miss). The telecine conversion is a conversion for matching the number of frames of a film (24 frames per second) with the number of frames of a television signal (30 frames per second) when an image photographed on a film is broadcast on a television. There are several methods for telecine conversion, but in one method, one frame is added to every four frames. Since the frame to be inserted at this time is created by combining the fields of the previous and next images,
The change in the image becomes small, and the conventional cut point detection method is liable to cause cut detection omission for the same reason as the dissolve described above.

【0009】なお、第2と第3の問題点に対しては、時
間フィルタを作用することによって誤検出、検出漏れを
防ぐ方法がある。しかし、この時間フィルタを設計する
際に映像がどの様な種類のものであるかを予め調べてお
く必要があり、リアルタイム処理に向かない、テレシネ
変換された映像にフラッシュ光が写っていたりすると誤
検出を生じる、といった問題点がある。
As for the second and third problems, there is a method of preventing erroneous detection and omission of detection by applying a time filter. However, when designing this time filter, it is necessary to check in advance what kind of image the image is, and it is not suitable for real-time processing, and it is erroneous that flash light appears in the telecine-converted image. There is a problem that detection occurs.

【0010】[0010]

【課題を解決するための手段】本発明の目的は、上記従
来技術の問題点に鑑み、時間的にゆっくりとしたシーン
の変化を検出でき、テレシネ変換された映像、フラッシ
ュ光を含む映像などを統一的にリアルタイムに処理でき
る映像カット点検出方法及び装置を提供することにあ
る。
SUMMARY OF THE INVENTION In view of the above-mentioned problems of the prior art, it is an object of the present invention to detect a scene change which is slow in time and to display a telecine-converted image, an image including flash light, and the like. An object of the present invention is to provide an image cut point detection method and apparatus that can be integrated and processed in real time.

【0011】上記目的を達成するために、この発明の映
像カット点検出方法によれば、入力画像データ列につい
て現時点tとそれよりJフレーム前までの画像It,It-1,
…,I t-J 中の0≦i<j≦Jを満足する全ての組の画像
データIt-i,It-jの間の距離d(t-i,t-j)を計算して距離
テーブルを作成し、上記距離テーブル上の距離d(t-i,t-
j)をもとにフレームjCを間に含むフレーム(t-J) からt
までの一連の画像のシーン変化率C(t-jC)をフレーム(t
-jC)におけるシーン変化率として求め、そのシーン変化
率C(t-jC)をあらかじめ定めた閾値と比較して、フレー
ム(t-jC)がカット点であるか否かを判定する。
In order to achieve the above object, an image of the present invention is provided.
According to the image cut point detection method, the input image data
At the current time t and before the J framet, It-1,
…, I tJAll sets of images satisfying 0 ≦ i <j ≦ J
Data Iti, ItjCalculate the distance d (t-i, t-j) between
Create a table and set the distance d (t-i, t-
j)CFrom (t-J) to t
Scene change rate C (t-jC) To the frame (t
-jC), The scene change rate
Rate C (t-jC) Is compared with a predetermined threshold,
(T-jC) Is determined as a cut point.

【0012】この発明の映像カット点検出装置は、時間
的に連続する少なくともJ+1フレームの画像データを
順次バッファリングするバッファメモリ手段と、上記バ
ッファメモリ手段内の現時点tとそれよりJフレーム前
までの上記画像データIt,It- 1,…,It-J について、0≦
i<j≦Jの範囲の2つの画像It-i,It-jの画像データ
間の距離を計算する画像間距離算出手段と、上記画像間
距離算出手段で計算された画像間距離を格納する距離テ
ーブル手段と、上記距離テーブル手段を参照して、フレ
ーム(t-J) からtまでの画像の変化をフレーム(t-jC)に
おけるシーン変化率として算出するシーン変化率算出手
段と、上記算出されたシーン変化率をあらかじめ定めら
れた閾値と比較して、上記フレーム(t-jC)がカット点で
あるか否か判定する判定手段とを含む。
A video cut point detecting apparatus according to the present invention comprises: a buffer memory means for sequentially buffering at least J + 1 frames of image data which are continuous in time; the image data I t, I t- 1, ... , the I tJ, 0 ≦
image-to-image distance calculating means for calculating the distance between the image data of the two images Iti and Itj in the range of i < j≤J , and a distance table for storing the image-to-image distance calculated by the image-to-image distance calculating means Means, by referring to the distance table means, a scene change rate calculating means for calculating a change in the image from the frame (tJ) to t as a scene change rate in the frame (tj C ); and the calculated scene change rate. Is compared with a predetermined threshold value to determine whether or not the frame (tj C ) is a cut point.

【0013】本発明では、画面変化量として時間的にと
なり合った2枚の画像を比べるだけでなく、時間的に離
れた画像の間の変化量を考慮してシーン変化率C(t-jC)
を算出する。これにより、カット点を安定に検出するこ
とができる。今、画像データ列A,B,*,D,Eのう
ち、画像の*の時刻にシーンが切り替わった状況を仮定
すると、カット前のAとBは互いに類似した画像であ
り、カット以降の*,D,Eもそれぞれ互いに類似した
画像なので、距離d(A,B),d(*,E),d(D,E)は小さいのに
対して、画像*をまたぐ画像間の距離d(A,*),d(A,D),
d(A,E),d(B,*),d(B,D),d(B,E)は大きくなる。この性
質を利用してシーン変化率C(*) を求めれば、カット検
出ができる。
In the present invention, the scene change rate C (tj C ) is taken into consideration not only by comparing two images that are temporally adjacent to each other as a screen change amount, but also by taking into account the change amount between images that are temporally separated.
Is calculated. Thereby, the cut point can be detected stably. Now, assuming that the scene is switched at the time of * in the image among the image data strings A, B, *, D, and E, A and B before the cut are images similar to each other, and * after the cut. , D, and E are also similar to each other, so that the distances d (A, B), d (*, E), and d (D, E) are small, while the distance d ( A, *), d (A, D),
d (A, E), d (B, *), d (B, D), d (B, E) increase. If the scene change rate C (*) is obtained using this property, cut detection can be performed.

【0014】このようにすればフェード、ディゾルブ、
ワイプといった時間的にゆっくりとシーンが変化する場
合も、そのシーン転換を検出可能である。即ち、時間的
にゆっくりとしたシーン変化を含む画像列A,B,*,
D,Eに対して、時間的に離れた2枚の画像の間の画面
変化量d(A,D) ,d(A,E) ,d(B,D) ,d(B,E) が大き
な値を取るので、これを積極的に利用することで、シー
ン転換を検出できる。
In this way, fade, dissolve,
Even when the scene changes slowly over time, such as a wipe, the scene change can be detected. That is, image sequences A, B, *, including scene changes slowly in time.
For D and E, the screen change amounts d (A, D), d (A, E), d (B, D), and d (B, E) between two images separated in time are Since it takes a large value, a scene change can be detected by actively using this.

【0015】また、フラッシュ光が映像中に写っていて
もフラッシュ光を誤ってカットとみなすことがない。フ
ラッシュ光を含んでいる画像データ列をA,B,*,
D,E…とし、画像*がフラッシュ光のために他の画像
A,B,D,Eよりも明るくなっていると仮定すると、
画像Aとが像Bの間の距離d(A,B)は小さいが、画像B,
Dに比べて画像*の輝度レベルが上昇しているため、d
(B,*),d(*,D)は大きな値を持つ。従来の方法のいくつ
かは、d(B,*)がある閾値より大きくなったところをカッ
ト点と判定するので、フラッシュ光をカット点と誤認識
してしまうという不都合があった。d(B,*)が大きくなる
のはカット点でも同様であるが、d(*,D)が大きな値を持
つことがフラッシュ光の特徴的性質であり、この性質を
利用すればカット点とフラッシュ光を区別でき、従って
誤認識を防ぐことができる。
Further, even if the flash light appears in an image, the flash light is not erroneously regarded as a cut. The image data sequence including the flash light is represented by A, B, *,
Assuming that the image * is brighter than the other images A, B, D and E due to the flash light,
The distance d (A, B) between the image A and the image B is small,
Since the brightness level of the image * is higher than that of D, d
(B, *) and d (*, D) have large values. Some conventional methods determine a point where d (B, *) becomes larger than a certain threshold value as a cut point, and thus have a disadvantage that flash light is erroneously recognized as a cut point. The fact that d (B, *) increases at the cut point is the same, but the characteristic property of flash light is that d (*, D) has a large value. The flash light can be distinguished, so that erroneous recognition can be prevented.

【0016】更に、テレシネ変換がかかった映像に対し
ても検出漏れを生じることがなくなる。テレシネ変換が
かかったA,B,*,D,E…のうち、画像A,Bと画
像*,D,Eが別のシーンであると仮定すると、テレシ
ネ変換のために画像*が画像BとDを重ね合わせて合成
した画像である場合があり、この場合にはシーン変化が
あるにも関わらずそれを検出できないことが多かった。
これはとなり合った画像間の距離d(A,B),d(B,*),…,
d(D,E)が、普通のカットのようには急増せず、あらかじ
め定められた閾値を越えないからである。しかし、この
場合にも、画像*をまたぐ2枚の画像の間の距離d(B,D)
が大きくなることに着目すれば時刻*がカット点である
ことが分かる。
Further, no omission of detection occurs even for an image subjected to telecine conversion. Assuming that images A, B and images *, D, E are different scenes among A, B, *, D, E... To which telecine conversion has been applied, image * becomes image B due to telecine conversion. In some cases, the image is a composite image obtained by superimposing D. In this case, it is often impossible to detect a scene change despite the change.
This is the distance between adjacent images d (A, B), d (B, *),…,
This is because d (D, E) does not increase rapidly like a normal cut and does not exceed a predetermined threshold. However, also in this case, the distance d (B, D) between the two images straddling the image *
It can be understood that the time * is the cut point if attention is paid to the fact that becomes larger.

【0017】[0017]

【実施例】以下、本発明の一実施例について図面を用い
て説明する。図1は、本発明の原理的構成を示すブロッ
ク図である。図1において、適当なサンプルレートで図
示してない画像信号源から取り込まれた画像データ列I
0 ,I1 ,…はバッファメモリ11に入力される。ここ
では1画面毎に取り込まれた画像データを1フレームの
画像データと呼ぶことにし、これらの一連のフレームの
画像データに一連のフレーム番号を付けてある。画像の
サンプリングレート、画像フォーマット、画像サイズは
任意でよい。即ち、NTSC標準映像信号を30frame/
sec でサンプリングしてもよいし、それより粗いサンプ
リングレートでサンプリングしたものでもよい。また、
画像データ列は、NTSCのようなアナログ信号でも、
ディジタル信号でもよい。また外部の画像信号源として
は、ハードディスク、CD−ROM等、蓄積装置に保存
されている画像ファイルであってもよい。バッファメモ
リ11は画像データフレーム列I0,I1,…,Itが順次入
力され、常に現時点tと、それからJ時点前まで遡った
J+1個の画像データIt,It-1,…,It-Jを一時バッフ
ァリングしておく。このバッファメモリ11は、例えば
シフトバッファアレイで構成され、入力された画像デー
タをフレーム毎に順次シフトしながらバッファリング
し、古いものから破棄していく。従って、バッファメモ
リ11には、常に所定枚数の画像データが入力順に保持
される。なお、バッファメモリ11は画像データを処理
して2次的に得られるデータを格納するものであっても
よい。例えば、輝度ヒストグラムや色ヒストグラムのデ
ータを格納するものであってもよいし、エッジ情報を格
納するものであってもよい。ここでは、これらも含めて
画像データで総称する。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the basic configuration of the present invention. In FIG. 1, an image data stream I captured from an image signal source (not shown) at an appropriate sample rate is shown.
0, I 1, ... are inputted to the buffer memory 11. Here, the image data captured for each screen is referred to as one frame of image data, and a series of frame numbers are assigned to the image data of the series of frames. The image sampling rate, image format, and image size may be arbitrary. That is, the NTSC standard video signal is transmitted at 30 frames /
Sampling may be performed at sec or sampling at a coarser sampling rate. Also,
The image data sequence is an analog signal such as NTSC,
It may be a digital signal. The external image signal source may be an image file stored in a storage device such as a hard disk or a CD-ROM. Buffer memory 11 the image data frame sequence I 0, I 1, ..., I t are sequentially input, always present time t and, then going back to the front J point J + 1 pieces of image data I t, I t-1, ..., Buffer ItJ temporarily. The buffer memory 11 is configured by, for example, a shift buffer array, buffers input image data while sequentially shifting the image data for each frame, and discards old image data. Therefore, the buffer memory 11 always holds a predetermined number of image data in the order of input. Note that the buffer memory 11 may store data obtained secondarily by processing image data. For example, it may store luminance histogram or color histogram data, or may store edge information. Here, these are collectively referred to as image data.

【0018】画像間距離算出部12は画像データIt
入力される毎に2枚のフレームの画像データIt-iとIt-j
の間の距離、即ち画像間距離d(t-i,t-j)を例えば後述の
ようにi=0かつj=1,2,…,Jについてそれぞれ
計算する。画像間距離とは、いわゆる2枚の画像の間の
“違い”を表す量であり、2枚の画像It-i,It-jが全く
同じであればd(t-i,t-j)=0となり、“違い”が大きけ
れば大きいほど大きな値を取る。画像間距離算出部12
から出力される画像間距離d(t-i,t-j)は距離テーブルメ
モリ部13に格納される。画像間距離算出部12では、
バッファメモリ11に新しいフレームの画像データIt
が格納される毎に、該画像データとバッファメモリ11
内の他のフレームの画像It-1,It-2,…との画像間距離
を算出し、距離テーブルメモリ部13の内容を更新す
る。距離テーブルメモリ部13には時点(フレーム番
号)tにおいて0≦i<j≦Jを満足する全ての組の
i,jについてのd(t-i,t-j)をテーブルとして一時的に
保持する。以降の説明では、距離テーブルメモリ部13
内に作成される距離テーブルも同じ参照番号13で表す
ものとする。図1ではJ=3の場合を示している。新し
いIt がバッファメモリ11に入力される毎に距離算出
部12で計算したi=0,j=1,2,…,Jでの画像間距離d(t,t-
j)を距離テーブル13内の位置(0,j) (テーブルメモリ
部13のアドレスに対応させてある)にそれぞれ書き込
むと共に、距離テーブル13内のそれまでの位置(i,j)
で指定される距離データd(t-i,t-j)を距離テーブル13
内の位置(i+1,j+1) にシフトし、シフト先の位置(i+1,j
+1) が0≦i+1<j+1≦Jの範囲外となるデータは捨て
る。
The image data I ti of two frame image distance calculating unit 12 every time the image data I t is input and I tj
, I.e., the image distance d (ti, tj) is calculated for i = 0 and j = 1, 2,... The inter-image distance is a quantity representing a so-called “difference” between two images. If the two images Iti and Itj are exactly the same, d (ti, tj) = 0, and the “difference” The larger "is, the larger the value. Image distance calculation unit 12
Are stored in the distance table memory unit 13. In the inter-image distance calculation unit 12,
Image data I t of the new frame in the buffer memory 11
Is stored in the buffer memory 11
, And calculates the inter-image distance with the images It 1 , It 2 ,... Of the other frames, and updates the contents of the distance table memory unit 13. The distance table memory unit 13 temporarily stores, as a table, d (ti, tj) for all pairs of i and j satisfying 0 ≦ i <j ≦ J at a time point (frame number) t. In the following description, the distance table memory unit 13
It is assumed that the distance table created in the table is also represented by the same reference numeral 13. FIG. 1 shows a case where J = 3. The new I t was calculated by the distance calculation unit 12 each time it is input to the buffer memory 11 i = 0, j = 1,2 , ..., between images in J distances d (t, t-
j) is written into the position (0, j) in the distance table 13 (corresponding to the address in the table memory unit 13), and the previous position (i, j) in the distance table 13 is written.
The distance data d (ti, tj) specified by
To the position (i + 1, j + 1) within
+1) is discarded if it is out of the range of 0 ≦ i + 1 <j + 1 ≦ J.

【0019】シーン変化率算出部14は、距離テーブル
13を参照しながらシーン変化率C(t-jC)を求める。シ
ーン変化率C(t-jC)はいわゆるカット点の確からしさを
表す量であり、実施例では−1以上1以下の値を取り、
1に近いほどカットである確率が高いように構成され、
判定部15はC(t-jC)がある閾値より大きいとき、その
時刻tがカット点であると判定する。シーン変化率C(t
-jC)を規定する関数は後述するようにカットの種類に応
じて最適な関数を選ぶ。
The scene change rate calculating section 14 calculates a scene change rate C (tj C ) with reference to the distance table 13. The scene change rate C (tj C ) is a quantity representing the certainty of a so-called cut point, and takes a value of −1 or more and 1 or less in the embodiment.
It is configured so that the closer to 1, the higher the probability of a cut,
When C (tj C ) is larger than a certain threshold, the determination unit 15 determines that the time t is a cut point. Scene change rate C (t
function defining the -j C) chooses the optimal function according to the type of cut, as will be described later.

【0020】以下に、画像間距離算出部12、距離テー
ブルメモリ部13、シーン変化率算出部14の動作につ
いて具体例に基づいて説明する。いま、現時点tにバッ
ファメモリ11に得られているフレーム毎の画像データ
列It-7,It-6,…,Itは、図2に示すシーケンスになっ
ているとする。図2において、フレームIt-7,It-6,I
t-5,It-4は全画面が黒である画像(全画素の輝度値が
最小の0)である。It-3,It-2,It-1,Itは全画面が白
(全画素の輝度値が最大のBMAX)である。即ち、画像I
t-3に対応するフレーム番号(時刻に対応)t−3がカ
ット点tCである場合を考える。
The operations of the inter-image distance calculation unit 12, the distance table memory unit 13, and the scene change rate calculation unit 14 will be described below based on specific examples. Now, the image data string I t-7, I t- 6 for each frame is obtained in the buffer memory 11 to the present time t, ..., I t is assumed to become the sequence shown in FIG. In FIG. 2, frames It -7 , It -6 , I
t-5 and It -4 are images in which the entire screen is black (the luminance value of all pixels is the minimum 0). I t-3, I t- 2, I t-1, I t is the entire screen white (B MAX luminance value maximum of all pixels). That is, image I
frame number (corresponding to time) t-3 corresponding to the t-3 is considered to be a cut point t C.

【0021】まず、画像間距離算出部12において計算
する画像距離を規定する関数の例をいくつか以下に挙げ
る。距離関数の第1の実施例は、フレーム間の輝度差分
の絶対値の全ての画素位置(x,y) についての総和 d(t-i,t-j)=Σx,y|Ii(x,y)−Ij(x,y)|/(BMAX×P) (1) を使うものである。ただし、Pは1画面の全画素数を表
し、Ii(x,y)及びIj(x,y)はそれぞれ画像It-i及びIt-j
画素(x,y) における輝度値を表す。また輝度値は輝度に
対応した強度で表され、画像がカラー画像の場合、輝度
値はR,G,B画像信号の各強度で表されるものとす
る。この例ではフレーム間差分の総和を全画素が最大輝
度BMAXの場合の明るさで正規化している。従って距離は
0≦d(t-i,t-j)≦1の範囲である。例えばBMAX=255とす
ると、図2の画像I0 ,I4 間の距離はd(t,t-4)=Σ
x,y|0−BMAX|/(BMAX×P)=1.0と計算される。
First, some examples of functions that define the image distance calculated by the inter-image distance calculation unit 12 will be described below. In the first embodiment of the distance function, the sum d (ti, tj) = Σ x, y | I i (x, y) of all pixel positions (x, y) of the absolute value of the luminance difference between frames −I j (x, y) | / (B MAX × P) (1) is used. Here, P represents the total number of pixels on one screen, and I i (x, y) and I j (x, y) represent the luminance values of the pixels (x, y) of the images Iti and Itj , respectively. The luminance value is represented by an intensity corresponding to the luminance. When the image is a color image, the luminance value is represented by each intensity of the R, G, and B image signals. In this example, the sum of the differences between frames is normalized by the brightness when all pixels have the maximum brightness BMAX . Therefore, the distance is in the range of 0 ≦ d (ti, tj) ≦ 1. For example, if B MAX = 255, the distance between the images I 0 and I 4 in FIG. 2 is d (t, t-4) =-4
x, y | 0− BMAX | / ( BMAX × P) = 1.0 is calculated.

【0022】距離関数の第2の実施例は、2つの画像の
輝度値あるいは色のヒストグラムを比較する方法であ
る。輝度値のヒストグラムとは、1フレームの画像中の
各画素の輝度を予め決めたN個の段階の輝度にクラス分
けした場合に、それぞれの輝度のクラスに属する画素の
数(累積値又は頻度と呼ぶ)で表される。画像It-i及び
It-jの輝度値のヒストグラムをそれぞれHi(n)及びH
j(n),n=1,2,…,Nとすると、距離関数を次式 d(t-i,t-j)=Σ|Hi(n)−Hj(n)| (2) Σはn=1からNまで で表す。ただし、Nはヒストグラムの段階数である。カ
ラーヒストグラムの場合は、R,G,B信号レベルのヒ
ストグラムをそれぞれHR(n),HG(n),HB(n)とする
と、画像間距離は次式で表される。
A second embodiment of the distance function is a method for comparing the luminance values or the color histograms of two images. The luminance value histogram is defined as the number of pixels belonging to each luminance class (accumulated value or frequency, when the luminance of each pixel in an image of one frame is classified into predetermined N levels of luminance. Call). Images Iti and
The histograms of the luminance values of Itj are expressed as H i (n) and H
Assuming that j (n), n = 1, 2,..., N, the distance function is expressed by the following equation: d (ti, tj) = { | H i (n) −H j (n) | Expressed from 1 to N. Here, N is the number of steps in the histogram. For color histogram, R, G, a histogram of the B signal levels respectively H R (n), H G (n), when the H B (n), the inter-image distance is expressed by the following equation.

【0023】 d(t-i,t-j)=Σ{|HRi(n)−HRj(n)|+|HGi(n)−HGj(n)| +|HBi(n)−HBj(n)|} (3) Σはn=1からNまで 距離関数の第3の実現例は、画像It-i,It-jの各画素の
差分のヒストグラムの中心からの偏りを表す統計量をd
(t-i,t-j)とする方法である。まず、2枚の画像It-i,I
t-jの間の差分δ(x,y)=Ii(x,y)−Ij(x,y) を全画素に
渡って求める。ここで、Ii(x,y)及びIj(x,y)はそれぞ
れ画像It-i及びIt-jの画素(x,y) における輝度値を表
す。この差分のヒストグラムの例を図3A,3Bに示
す。図3Aは、画像It-i,It-jが同じシーンに属する、
即ち2枚の画像の間にカット点を含まない場合の典型的
なヒストグラム形状を示したものである。図のように、
映像の中に写っているものが多少動いても大半の画素で
輝度値の変化は小さいから、差分は0付近に集中してい
て、0から離れるほどヒストグラムにおける累積値が小
さくなっている。これに対して、図3Bに、画像It-i
It-jの間にカット点を含む場合のヒストグラム形状の一
例を示す。図のように、図3Aとは違ってヒストグラム
が0付近に急峻な山を持たず、裾野が高く広がった山形
になる。そこで、ヒストグラムの裾野が高いほど、画像
間距離が大となるように距離を表す関数を規定すればよ
い。ヒストグラムの裾野が高いほどd(t-i,t-j)が大きく
なるような統計量の具体例としては、差分δ(x,y) の標
準偏差εを次式のように距離関数として使ってもよい。
D (ti, tj) = Σ {| H Ri (n) −H Rj (n) | + | H Gi (n) −H Gj (n) | + | H Bi (n) −H Bj ( n) | {(3)} is from n = 1 to N. The third example of realizing the distance function is a statistic representing the deviation from the center of the histogram of the difference between the pixels of the images Iti and Itj from d.
(ti, tj). First, two images Iti , I
A difference δ (x, y) = I i (x, y) −I j (x, y) between tj is obtained for all pixels. Here, I i (x, y) and I j (x, y) represent the luminance value at the pixel (x, y) of the images Iti and Itj , respectively. Examples of the histogram of the difference are shown in FIGS. 3A and 3B. FIG. 3A shows that the images Iti , Itj belong to the same scene,
That is, a typical histogram shape in a case where a cut point is not included between two images is shown. As shown
Since the change in the luminance value is small in most of the pixels even if the object in the video slightly moves, the difference is concentrated near 0, and the cumulative value in the histogram decreases as the distance from 0 increases. In contrast, in Figure 3B, an image I ti
An example of a histogram shape when a cut point is included between Itj is shown. As shown in the figure, unlike FIG. 3A, the histogram does not have a steep peak near 0, but has a high-tailed and wide peak. Therefore, a function representing the distance may be defined so that the higher the base of the histogram, the greater the distance between images. As a specific example of a statistic in which d (ti, tj) increases as the tail of the histogram increases, the standard deviation ε of the difference δ (x, y) may be used as a distance function as in the following equation.

【0024】 d(t-i,t-j)=ε={Σx,y[δ(x,y)−δ']21/2 (4) ただし、δ' は全画素についてのδ(x,y) の平均を表
す。また、第4の距離関数として次式 d(t-i,t-j)=CNTPIX{|δ(x,y)|>ε} (5) で表されるように、It-iとIt-jの差分δ(x,y) の絶対値
が標準偏差εを越える画素数をカウントしたものを距離
としてもよい。この距離関数の例では、画像間距離を求
めるべき2つの画像It-iとIt-i間の差分の標準偏差εを
使う場合を説明したが、これらの画像よりmフレーム前
の画像It-i-mとIt-j-m間の差分δ( x,y)の標準偏差εm
を使って上述と同様に次式 d(t-i,t-j)=CNTPIX{|δ(x,y)|>εm } (5′) で表されるように画像It-i-mとIt-j-m間の差分の絶対値
がεm を越える画素数を計数した値を画像間距離として
もよい。mは1以上の予め決めた一定整数であり、m=
0とした場合は式(5)と同じ距離関数を表すことにな
る。
D (ti, tj) = ε = {Σ x, y [δ (x, y) −δ ′] 21/2 (4) where δ ′ is δ (x, y ) Means the average. Further, the following equation d (ti, tj) as a fourth distance function = CNT PIX {| δ (x , y) |> ε} as expressed by (5), I ti and I tj of the difference [delta] ( The number of pixels whose absolute value of (x, y) exceeds the standard deviation ε may be counted as the distance. In the example of this distance function, a case has been described to use the standard deviation of the difference ε between the two images I ti and I ti should seek image distance, prior m frames from these picture I tim and I TJM Standard deviation ε m of the difference δ (x, y) between
Similarly, the difference between the image I tim and the image I tjm as expressed by the following equation d (ti, tj) = CNT PIX {| δ (x, y) |> ε m } (5 ′) the value which the absolute value has counted the number of pixels exceeding the epsilon m of may be the inter-image distance. m is a predetermined constant integer of 1 or more, and m =
When it is set to 0, it represents the same distance function as the equation (5).

【0025】第5の距離関数として、上述のような画像
間差分の標準偏差を使って画像間距離を求める場合、次
のように距離関数を決めてもよい。即ち、距離を求める
べき画像の組It-iとIt-jに対し、それらよりkフレーム
前の画像の組It-i-kとIt-j-k間の輝度差分δ(x,y)の標
準偏差εk をk=1からk=nまでのn組についてそれ
ぞれ求め、それらの標準偏差εk の平均値T=Σkεk/n
を上式(5′)のεmと同様に使って次式 d(t-i,t-j)=CNTPIX{δ(x,y)>T} (6) で表されるように、画像It-iとIt-j間の差分δ(x,y) の
絶対値がTを越える画素数を計数して距離とする。この
方法によれば、撮影時の手ブレやカメラの急な動きに起
因する画像変化をカットして誤検出することを防ぐ効果
がある。
When the inter-image distance is obtained using the above-described standard deviation of the inter-image difference as the fifth distance function, the distance function may be determined as follows. That is, the distance to the set I ti and I tj of the image to be obtained and the standard deviation epsilon k k = 1 of the luminance difference between the set I tik and I tjk thereof than k frames before the image [delta] (x, y) To k = n, and the average value T = T k ε k / n of their standard deviations ε k
The use as with epsilon m of the above equation (5 ') as represented by the following formula d (ti, tj) = CNT PIX {δ (x, y)> T} (6), an image I ti The number of pixels whose absolute value of the difference δ (x, y) between Itj exceeds T is counted and defined as the distance. According to this method, there is an effect that an image change caused by a camera shake or a sudden movement of a camera at the time of shooting is cut to prevent erroneous detection.

【0026】更に第6の距離関数として、画像It-iを図
4に示すように予め決めたサイズのブロックに分割し、
各ブロック毎に画像It-jのどの部分とマッチするか調べ
て、いずれの部分にもマッチしないブロックを計数しそ
の計数値を距離d(t-i,t-j)とする。即ち、画像It-iのあ
るブロックが画像It-j上のどの位置に移動しているかを
検出し、移動検出できなかったブロックの数を計数して
距離とする事を意味している。画像It-i中の各ブロック
(例えばp×q画素)と画像It-j上の任意の領域とのマ
ッチングを規定する関数としては、例えばそのブロック
のp×q画素の輝度値の配列を1つのベクトルとし、画
像It-jの同じサイズの比較すべき領域の輝度値配列をも
う1つのベクトルとし、これら2つのベクトル間の距離
を次式 D=Σp,q{bj(p,q)−bi(p,q)}2 で表し、距離Dが予め決めた閾値Dth以下の場合、その
ブロックと、比較した領域はマッチしたと判定し、Dが
thを越えた場合はマッチしなかったと判定する。画像
It-j上の比較すべき領域はマッチング距離をチェックす
る毎に予め決めた画素数ピッチで順次シフトさせること
を画像It-jの全面に渡って繰り返す。同様に画像It-i
他のブロックについても画像It-j中にマッチする部分が
あるかをそれぞれ判定し、マッチングのとれなかったブ
ロックの数を2つの画像間の距離とする。従って画像間
距離を次式 d(t-i,t-j)=CNTBLK{D>Dth} (7) のように表すことができる。
Further, as a sixth distance function, the image Iti is divided into blocks of a predetermined size as shown in FIG.
Each block is checked for a match with any part of the image Itj, blocks that do not match any part are counted, and the count value is defined as a distance d (ti, tj). That is, a picture I ti blocks which means that the distance by counting the number of blocks to detect whether the moved to any position on the image I tj, could not be moved detected. Any The function defining the matching between the region, for example, one vector the sequence of the luminance values of p × q pixels of the block on the image I tj each block (e.g. p × q pixels) in an image I ti and then, the luminance value sequence of a region to be compared with the same size of the image I tj and another vector, these two distances between vectors equation D = Σ p, q {b j (p, q) -b i (p, q)} 2 , if the distance D is less than or equal to a predetermined threshold D th , it is determined that the block and the compared area match, and if D exceeds D th , no match is made Is determined. image
The region to be compared on Itj is sequentially shifted at a predetermined pixel pitch every time the matching distance is checked, over the entire surface of the image Itj . Similarly for other block of the image I ti whether there is a portion that matches the image I tj be determined respectively, the number of blocks not take the matching with the distance between the two images. Therefore, the distance between images can be expressed as the following equation: d (ti, tj) = CNT BLK {D> D th } (7)

【0027】次に、距離テーブル13について説明す
る。距離テーブル13は上記画像間距離算出部12で求
めた画像間距離d(t-i,t-j)をJ(i=0,…,J-1)×J(j=1,
…,J)の表にしたものであり、この表のサイズはJであ
ると呼ぶ。距離テーブル13は例えば計算機内のメモリ
上に確保された領域に展開され、メモリを有効使用する
ために必要がなくなったデータ領域はその上に新しい距
離データを上書きして使用する。
Next, the distance table 13 will be described. The distance table 13 calculates the inter-image distance d (ti, tj) obtained by the inter-image distance calculation unit 12 as J (i = 0,..., J-1) × J (j = 1,
.., J), and the size of this table is called J. The distance table 13 is developed, for example, in an area secured on a memory in the computer, and a data area that is no longer necessary for effectively using the memory is overwritten with new distance data for use.

【0028】図2に示す画像データ列に対して、0≦i
<j≦7の範囲の整数i,jの全ての組について式(1)
で計算した画像間距離d(t-i,t-j)の値を時刻tで得られ
る表として図5に示す。d(t-i,t-j)は一般に対称性を持
っており、d(t-i,t-j)=d(t-j,t-i)が成り立つので、図
5の距離テーブルのi>jの領域は計算する必要がな
い。更に、後述のように例えば図5の距離テーブルにお
いて、0<j−i≦3を満たすd(t-i,t-j)だけ求めると
いうようにしてもよい。
For the image data sequence shown in FIG.
Expression (1) for all pairs of integers i and j in the range of <j ≦ 7
FIG. 5 shows the value of the distance d (ti, tj) between the images calculated in the above as a table obtained at time t. Since d (ti, tj) generally has symmetry and d (ti, tj) = d (tj, ti) holds, it is not necessary to calculate the area of i> j in the distance table of FIG. Further, as will be described later, for example, in the distance table of FIG. 5, only d (ti, tj) satisfying 0 <ji ≦ 3 may be obtained.

【0029】図6は図5の距離テーブルの特徴を示す図
である。時点、即ちフレーム番号(t-jC)がカット点であ
る場合(図5の例ではにはjC=4)、距離テーブルは、
領域A1における画像間距離の値が領域A2,A3にお
ける画像間距離の値に比べて大きな値を持つという特徴
がある。領域A1はi<jC≦jを満たす領域であり、領
域の左下角における画像間距離はd(t-jC-1,t-jC)に対応
している。領域A2はi<j≦jC-1を満たす領域であ
り、領域A3はjC≦i<jを満たす領域である。
FIG. 6 is a diagram showing characteristics of the distance table of FIG. When the time point, that is, the frame number (tj C ) is the cut point (j C = 4 in the example of FIG. 5), the distance table is
It is characterized in that the value of the distance between images in the area A1 has a larger value than the value of the distance between images in the areas A2 and A3. Region A1 is a region that satisfies i <j C ≦ j, the inter-image distance in the lower left corner of the area corresponds to d (tj C -1, tj C ). Region A2 is a region that satisfies i <j ≦ j C -1, region A3 is a region that satisfies j C ≦ i <j.

【0030】図7は画像データ列の別の例を示したもの
で、フレーム(t-4) に対応する画像It-4にフラッシュ光
が写っている例である。この画像データ列に対する式
(1)による時点tで得られる距離テーブルは図8のよう
になる。図9は、この距離テーブルの特徴を説明する図
で、フラッシュ光がフレーム(t-jF)に写っている場合に
は、領域A1,A2,A3内の画像間距離の値が領域A
4で示すi=jF及びj=jF上の値に比べて小さな値を取
る。図10は画像データ列の更に他の例で、これはテレ
シネ変換処理を受けた画像列中にカットが含まれる例で
ある。図10において、フレーム(t-4) の画像は画像I
t-3とIt-5の重ね合わせにより合成されたものであり、
偶数フィールドが黒、奇数フィールドが白の縞状の画像
になっている。図11は図10の画像データ列に対する
式(1)による時点tでの距離テーブルを示し、図12は
この距離テーブルの特徴を示す図である。画像It-4のよ
うなテレシネボケ画像がフレーム(t-jT)(図10ではjT
=4)にあると、図12に示すように、領域A2,A3
の画像間距離の値が領域A1の値に比べて小さな値を取
り、領域A4で示すi=jT及びj=jT上の画像間距離の
値は領域A2,A3における値と領域A1における値の
中間程度の値を取る。
FIG. 7 shows another example of the image data sequence, in which flash light is shown in the image It -4 corresponding to the frame (t-4). Expression for this image data sequence
The distance table obtained at the time t according to (1) is as shown in FIG. FIG. 9 is a view for explaining the characteristics of this distance table. When the flash light is reflected in the frame (tj F ), the value of the distance between the images in the areas A1, A2, and A3 is changed to the area A.
Compared to values on the i = j F and j = j F indicated by 4 takes a small value. FIG. 10 shows still another example of the image data sequence, in which a cut is included in the image sequence subjected to the telecine conversion processing. In FIG. 10, the image of the frame (t-4) is the image I.
It is synthesized by superimposing t-3 and It -5 ,
The even-numbered fields are black and the odd-numbered fields are white. FIG. 11 shows a distance table at time t according to equation (1) for the image data sequence of FIG. 10, and FIG. 12 is a diagram showing characteristics of this distance table. A telecine blur image such as the image It -4 is a frame (tj T ) (j T in FIG. 10).
= 4), as shown in FIG. 12, the areas A2 and A3
Values of image distance takes a smaller value than the value of the area A1, the value of the inter-image distance on i = j T and j = j T indicated by a region A4 is in the value and the region A1 in the region A2, A3 Take a value in the middle of the values.

【0031】図13はフェードを含む画像データ列の例
である。図13において、画像It-7,It-6が全画面黒の
画像であり、画像It-2,It-1,Itが全画面が白の画像で
あり、そのあいだの画像It-5,It-4,It-3で徐々に画面
が明るくなる。図14は、この画像データ列に対する式
(1)による時点tでの距離テーブルを示し、図15がそ
の特徴を示す図である。時刻tと共に画像にゆっくりと
したシーン変化が起こっていれば、図15に示す領域A
の右上角から遠ざかるほど画像間距離が小さくなる傾向
がある。
FIG. 13 shows an example of an image data string including a fade. 13, the image I t-7, I t- 6 is an image of the entire screen black image I t-2, I t- 1, I t is the entire screen is white image, that during the image The screen gradually becomes brighter at It -5 , It -4 , and It -3 . FIG. 14 shows an equation for this image data sequence.
FIG. 15 shows a distance table at time t according to (1), and FIG. If a slow scene change occurs in the image with time t, the area A shown in FIG.
Tends to decrease as the distance from the upper right corner increases.

【0032】上述の各種距離テーブルにおいて注目すべ
きことは、時点tにおいて得られている距離テーブル中
の各位置(i,j) の画像間距離データd(t-i,t-j)はd(t-1-
i+1,t-1-j+1)と書き換えることができることから明らか
なように、直前の時点(t-1)において作成した距離テー
ブルにおける位置(i-1,j-1) の距離データと同じである
ことである。即ち、時刻tが更新される毎に距離テーブ
ル中の位置(i,j) の画像間距離データd(t-i,t-j)は位置
(i+1,j+1) にシフトすると共に、最新の距離データd(t,
t-1),d(t,t-2),…,d(t,t-J)がテーブルの位置(0,1),(0,
2),…,(0,J) に書き込まれることになる。このデータの
シフトによるシフト先の位置(i+1,j+1)がテーブルの外
に出るデータは捨てられる。従って、各時点tで距離テ
ーブルの作成のために新たに計算する必要がある画像間
距離はd(t,t-1),d(t,t-2),…,d(t,t-J) のみである。 [シーン変化率]次に、シーン変化率算出部14につい
て説明する。シーン変化率C(t-jC)は予め決めた関数に
より、時刻tで得られているJフレーム前までの画像か
ら得た画像間距離テーブルのデータを使って計算する。
時刻tについて計算されたシーン変化率C(t-jC)は現時
点からjCフレーム前の画像がカットであるか否かを判定
する評価量であり、予め決めた閾値Cthと比較してそれ
より大きければカットであると判定する。シーン変化率
算出部14では、カット点、フラッシュ光、テレシネボ
ケ、ゆっくりとしたシーン変化のそれぞれについて距離
テーブル13が上述した特徴を持つことを利用してシー
ン変化率を計算し、判定部15は計算されたシーン変化
率C(t-jC)を閾値Cthと比較してフレーム(t-jC)がカッ
トであるか否かを判定する。シーン変化率算出部14に
おけるシーン変化率を規定する関数の例を示す。jcは0
<jc≦J を満足する予め決めた一定整数である。
It should be noted that the distance data d (ti, tj) at each position (i, j) in the distance table obtained at time t is d (t-1). -
As is clear from the fact that it can be rewritten as (i + 1, t-1-j + 1), the distance data of the position (i-1, j-1) in the distance table created at the last time point (t-1) Is the same as That is, every time the time t is updated, the inter-image distance data d (ti, tj) of the position (i, j) in the distance table is
(i + 1, j + 1) and the latest distance data d (t,
t-1), d (t, t-2), ..., d (t, tJ) are table positions (0,1), (0,
2),…, (0, J). Data in which the shift destination position (i + 1, j + 1) due to this data shift is out of the table is discarded. Therefore, at each time point t, the distance between images that needs to be newly calculated for creating a distance table is d (t, t-1), d (t, t-2),..., D (t, tJ). Only. [Scene Change Rate] Next, the scene change rate calculation unit 14 will be described. The scene change rate C (tj C ) is calculated by a predetermined function using the data of the inter-image distance table obtained from the image up to the J frame before obtained at time t.
The scene change rate C (tj C ) calculated for the time t is an evaluation amount for determining whether or not the image j C frames before the current time is a cut, and is compared with a predetermined threshold value C th to determine If it is larger, it is determined to be a cut. The scene change rate calculation unit 14 calculates the scene change rate using the fact that the distance table 13 has the above-described features for each of the cut point, flash light, telecine bokeh, and slow scene change, and the determination unit 15 calculates scene change rate C (tj C) compared with the threshold C th frame (tj C) determines whether it is cut. 5 shows an example of a function that defines a scene change rate in the scene change rate calculation unit 14. j c is 0
It is a predetermined constant integer satisfying <j c ≦ J.

【0033】図5に示す瞬時カットを含む画像列による
距離テーブル、及び図11に示すカットを含むテレシネ
変換画像列による距離テーブルの例から分かるように、
シーン変化点(カット点)がある場合、テーブルの領域
A1内の画像間距離値は大きく、領域A2,A3内の画
像間距離値は小さい。図14のフェードが画像列中にあ
る場合の距離テーブルにも、その距離テーブルに図6、
13と同様な領域A1,A2,A3を当てはめると同様
な傾向があることが分かる。これに対し、図8に示した
フラッシュを含む画像列による距離テーブルでは領域A
1,A2,A3内の距離値は全てほぼ同じ値となってい
る。そこで、これらの領域A1,A2,A3に着目し、
現時点tでJフレーム前までの画像から図16に示すよ
うなサイズJの距離テーブルを0≦i<j≦Jかつj-i≦
g の範囲で求める。gは0<g≦Jを満足する予め決
めた一定の整数であり、図16はg=jC-1の場合を示し
ている。jCの値は、例えばJ/2 を越える最小の整数とす
る。この距離テーブルにおいてシーン変化率の関数を次
のように規定する。
As can be seen from the example of the distance table based on the image sequence including the instantaneous cuts shown in FIG. 5 and the distance table based on the telecine transformed image sequence including the cuts illustrated in FIG.
When there is a scene change point (cut point), the inter-image distance value in the area A1 of the table is large, and the inter-image distance value in the areas A2 and A3 is small. In the distance table in the case where the fade of FIG. 14 is in the image sequence, FIG.
When the regions A1, A2, and A3 similar to FIG. 13 are applied, the same tendency is found. On the other hand, in the distance table based on the image sequence including the flash shown in FIG.
The distance values in 1, A2 and A3 are all substantially the same. Therefore, focusing on these areas A1, A2, A3,
A distance table of size J as shown in FIG. 16 from the image up to the J-th frame before the current time t is set to 0 ≦ i <j ≦ J and ji ≦
g within the range. g is a predetermined constant integer satisfying 0 <g ≦ J, and FIG. 16 shows a case where g = j C -1. The value of j C is, for example, the smallest integer exceeding J / 2. In this distance table, the function of the scene change rate is defined as follows.

【0034】 C(t-jC)={a(jC)−βMAX[b(jC),b'(jC)]}/S (8) a(jC)=Σi,jd(t-i,t-j) for 0≦i<jC≦j≦J,j-i≦
g b(jC)=Σi,jd(t-i,t-j) for 0≦i<j≦jC-1,j-i≦
g b'(jC)=Σi,jd(t-i,t-j) for jC≦i<j≦J,j-i≦g a(jC) は領域A1内の×印しで示す全ての画像間距離の
和であり、b(jC) は領域A2内の△印で示す全ての画像
間距離の和であり、b'(jC)は領域A3内の△印で示す全
ての画像間距離の和である。MAX[b(jC),b'(jC)]はb
(jC) とb'(jC)のいずれか大きい方の値をとることを表
す。また、Sは領域A1内の距離データ数(×印の数)
を表しており、図16の例ではS=(jC-1)jC/2である。
Jが奇数ならば領域A2内のデータ数と領域A3内のデ
ータ数は等しい。βは領域A1内のデータ数Sと領域A
2またはA3内のデータ数を等価にするための係数であ
る。図16の領域A1,A2,A3の設定によれば、J
が奇数の場合はA1内のデータ数、A2内のデータ数及
びA3内のデータ数は全て等しいのでβ=1である。
C (tj C ) = {a (j C ) −βMAX [b (j C ), b ′ (j C )]} / S (8) a (j C ) = Σ i, j d (ti , tj) for 0 ≦ i <j C ≦ j ≦ J, ji ≦
g b (j C ) = Σ i, j d (ti, tj) for 0 ≦ i <j ≦ j C −1, ji ≦
g b ′ (j C ) = Σ i, j d (ti, tj) for j C ≦ i <j ≦ J, ji ≦ g a (j C ) is the distance between all the images indicated by crosses in the area A1. The sum of the distances, b (j C ) is the sum of all the inter-image distances indicated by △ in the area A2, and b ′ (j C ) is the sum of all the inter-image distances indicated by the △ in the area A3 Is the sum of MAX [b (j C), b '(j C)] is b
This means that the larger value of (j C ) and b '(j C ) is taken. S is the number of distance data in the area A1 (the number of crosses)
In the example of FIG. 16, S = (j C -1) j C / 2.
If J is an odd number, the number of data in the area A2 is equal to the number of data in the area A3. β is the number of data S in the area A1 and the area A
This is a coefficient for equalizing the number of data in 2 or A3. According to the settings of the areas A1, A2, and A3 in FIG.
Is odd, β = 1 because the number of data in A1, the number of data in A2, and the number of data in A3 are all equal.

【0035】g=Jの場合は、距離テーブルの右上角
(0,J) まで含む全領域を使うことになる。その場合、S
=jC(J-jC+1)であり、β=2(J-jC+1)/(jC-1)は約2とな
る。図2、10、13に示す距離テーブルの領域A1内
はほぼ全面に渡って大きな距離値を示すので、g<Jと
なるようにgを選ぶことにより右上角の位置(0,J) を含
むある程度の大きさの隅領域を除いても、領域A1内の
距離値が領域A2,A3内の距離値に比べて大きな値で
ある特徴は保たれている。従って、式(8)によりカット
点を検出することができる。前述のように距離値の分布
は時刻tが更新される毎に右下方向に1段シフトしてい
くので、g<Jの場合、時刻tが更新される毎に距離テ
ーブルを作成するのに必要な新たに計算しなければなら
ない画像間距離はd(t,t-1),d(t,t-2),…,d(t,t-g) のg
個だけであり、カット検出能力を低下させずに演算量を
削減できる。gの値を小さく選べばそれだけ必要な演算
量は低減されるが、gの値が小さすぎるとカット検出の
エラーが増加するので好ましくはjC-1≦g<Jの範囲と
する。
When g = J, the upper right corner of the distance table
The whole area including (0, J) will be used. In that case, S
= J is C (Jj C +1), β = 2 (Jj C +1) / (j C -1) is about 2. Since the area A1 of the distance table shown in FIGS. 2, 10, and 13 shows a large distance value over almost the entire surface, the position (0, J) of the upper right corner is included by selecting g such that g <J. Even if a corner region having a certain size is removed, the feature that the distance value in the region A1 is larger than the distance values in the regions A2 and A3 is maintained. Therefore, the cut point can be detected by Expression (8). As described above, the distribution of the distance value shifts one step toward the lower right every time the time t is updated. Therefore, when g <J, it is necessary to create a distance table every time the time t is updated. The required distance between images that must be newly calculated is g of d (t, t-1), d (t, t-2), ..., d (t, tg)
It is possible to reduce the calculation amount without reducing the cut detection ability. If the value of g is selected to be small, the necessary amount of calculation is reduced accordingly. However, if the value of g is too small, the error of the cut detection increases. Therefore, the range of j C −1 ≦ g <J is preferably set.

【0036】時点tにおいて得られた図16に示す距離
テーブルのデータを式(8)に代入して得られたシーン変
化率C(t-jC)が予め決めた閾値Cthより大であればjC
のフレーム(t-jC)の画像においてシーンの変化(カッ
ト)があったと判定する。例えばJ=5,g=jC=3の
場合の距離テーブル上の領域A1,A2,A3の例を図
17に示す。領域A1のデータ数Sは6であり、領域A
2,A3のデータ数は何れも3であるので、β=2とす
ればよい。C(t-jC),a(jC),b(jC)及びb'(jC)は図17
から理解されるように次式で与えられる。
If the scene change rate C (tj C ) obtained by substituting the data of the distance table shown in FIG. 16 obtained at the time point t into the equation (8) is larger than a predetermined threshold value C th, j It is determined that a scene change (cut) has occurred in the image of the frame (tj C ) before C. For example illustrating an example of a J = 5, g = j area on C = 3 in the distance when the table A1, A2, A3 in FIG. 17. The number S of data in the area A1 is 6,
Since the number of data of both A2 and A3 is 3, β = 2. C (tj C ), a (j C ), b (j C ) and b ′ (j C ) are shown in FIG.
Is given by

【0037】 C(t-jC)={[a(jC)−2MAX[b(jC),b'(jC)]}/6, (9) a(jC)=d(t-2,t-3)+d(t-1,t-3)+d(t,t-3) +d(t-2,t-4)+d(t-1,t-4)+d(t-2,t-5), b(jC)=d(t,t-1)+d(t,t-2)+d(t-1,t-2), b'(jC)=d(t-3,t-4)+d(t-3,t-5)+d(t-4,t-5) ここで、a(jC) は図17に示す領域A1に属するd(t-i,
t-j)の和であり、b(jC)は領域A2に属するd(t-i,t-j)
の和であり、b'(jC)は領域A3に属するd(t-i,t-j)の和
である。従って画像間距離関数として式(1)を使った場
合は、シーン変化率C(t-jC)は常に−1≦C(t-jC)≦1
の範囲の値となる。
C (tj C ) = {[a (j C ) −2MAX [b (j C ), b ′ (j C )]} / 6, (9) a (j C ) = d (t−2) , t-3) + d (t-1, t-3) + d (t, t-3) + d (t-2, t-4) + d (t-1, t-4) + d (t-2, t -5), b (j C) = d (t, t-1) + d (t, t-2) + d (t-1, t-2), b '(j C) = d (t-3, t-4) + d (t-3, t-5) + d (t-4, t-5) where a (j C ) is d (ti,
tj), and b (j C ) is d (ti, tj) belonging to the area A2.
And b ′ (j C ) is the sum of d (ti, tj) belonging to the area A3. Therefore, when equation (1) is used as the distance function between images, the scene change rate C (tj C ) is always −1 ≦ C (tj C ) ≦ 1
Value in the range.

【0038】上述した通り、フレーム(t-jC)がカット点
である場合には、a(jC) がb(jC) 及びb'(jC)の値より大
きくなるので、C(t-jC)は正の値を持つ。別の言い方を
すれば、a(jC) は6つの連続する画像の前3つと後3つ
からそれぞれ1つずつ選択したフレーム間隔が3以内の
2つのフレームの全ての組の画像間距離を加算した量で
あり、時刻(t-jC)で大きくシーンが変わっていれば、a
(jC) は大きな値を持つはずである。b(jC) はフレーム
(t-jC)とそれ以前の合計3つの画像において、全ての組
の2枚の画像間の距離を加算した量であり、フレーム(t
-jC)以前のシーンの動きが小さければ小さいほど小さな
値を取る。b'(jC)はフレーム(t-jC)より後の3つの画像
において、全ての組の2枚の画像間の距離を加算した量
であり、フレーム(t-jC)より後に現れたシーンの動きが
小さければ小さいほど小さい値を取る。
As described above, when the frame (tj C ) is the cut point, a (j C ) becomes larger than the values of b (j C ) and b '(j C ), so that C (tj C ) Has a positive value. Stated another way, a (j C ) is the distance between the images of all sets of two frames with a frame interval of 3 or less, each one selected from three before and three after six consecutive images. If the scene has changed significantly at time (tj C ), a
(j C ) should have a large value. b (j C ) is the frame
(tj C ) and the total of the three images before that are the sums of the distances between the two images in all sets, and are the frames (t
-j C ) The smaller the motion of the previous scene, the smaller the value. In b '(j C) three images after the frame (tj C), an amount obtained by adding the distance between two images of all the sets, the movement of the scene appearing after the frame (tj C) The smaller the value, the smaller the value.

【0039】例えば図17の距離テーブルに基づいて式
(9)に具体的数値を適用するため、図5の距離テーブル
において図17に示す領域パターンマップをその位置
(i,j)=(4,5) が図5のテーブルの位置(i,j)=(6,7) に一
致するように重ねて、対応する領域のデータを使って時
点(t-1) におけるシーン変化率C(t-jC)(ただし図17
におけるjC=3)を次のように計算する。
For example, based on the distance table shown in FIG.
In order to apply specific numerical values to (9), the area pattern map shown in FIG.
(i, j) = (4,5) is superimposed so as to coincide with the position (i, j) = (6,7) in the table shown in FIG. ) At the scene change rate C (tj C ) (however, FIG.
J C = 3) a calculated as follows in.

【0040】a(3)=0+0+0+1+1+1=3, b(3)=0+1+1=2, b'(3)=0+0+0=0, C(t-1-3)=(3-2×2)/6=-1/6=-0.16 次の時点tにおいては、図17の領域パターンマップを
一段左上にシフトする。その結果、図5中の位置(1,2),
(1,3),(1,4) におけるデータ0,0,1が最新の距離デ
ータとして図17中の位置(0,1),(0,2),(0,3) に書き込
まれる。この状態でのシーン変化率は次のように計算さ
れる。
A (3) = 0 + 0 + 0 + 1 + 1 + 1 = 3, b (3) = 0 + 1 + 1 = 2, b '(3) = 0 + 0 + 0 = 0, C (t-1-3) = (3-2 × 2) /6=-1/6=-0.16 At the next time point t, the area pattern map in FIG. 17 is shifted one step to the upper left. As a result, positions (1, 2),
Data 0, 0, 1 in (1, 3), (1, 4) are written as the latest distance data at positions (0, 1), (0, 2), (0, 3) in FIG. The scene change rate in this state is calculated as follows.

【0041】a(3)=1+1+1+1+1+1=6, b(3)=0+0+0=0, b'(3)=0+0+0=0, C(t-3)=(6-2×0)/6=1.0 これら2つの計算例において、時点(t-1) における距離
テーブルから計算したシーン変化率C(t-4)の値は負であ
り、カットは生じていない。これに対し、時点tにおけ
る距離テーブルから計算されたシーン変化率C(t-3)は1
となっており、例えば閾値Cth=1/16と設定しておけ
ば、時点tにおいて3つ前のフレーム(t-3)にカットが
検出されたことを意味する。なお、閾値Cth=1/16は判
定エラーが最も少なくなるように実験により決めた値で
ある。
A (3) = 1 + 1 + 1 + 1 + 1 + 1 = 6, b (3) = 0 + 0 + 0 = 0, b '(3) = 0 + 0 + 0 = 0, C (t−3) = (6−2 × 0) /6=1.0 In these two calculation examples, the value of the scene change rate C (t−4) calculated from the distance table at the time (t−1) is negative. Yes, no cut. On the other hand, the scene change rate C (t−3) calculated from the distance table at time t is 1
For example, if the threshold value C th is set to 1/16, it means that a cut is detected in the frame (t−3) three times before at the time point t. Note that the threshold value C th = 1/16 is a value determined by an experiment so as to minimize the determination error.

【0042】この例で分かるように、カット点のところ
でC(t-jC) は1に近い値を取る。また、例えば手ぶれや
パン(カメラを水平に動かす操作)が映像中に存在して
も、それをカット点であると誤検出してしまうことが少
なくない。なぜなら、手ぶれやパンがある場合にもa
(jC) が大きな値を持つが、同時にb(jC) ,b'(jC)が大
きな値を持つため、式(2)では互いに打ち消し合ってC
(t-jC) が小さくなるからである。
As can be seen from this example, C (tj C ) takes a value close to 1 at the cut point. Further, even if, for example, camera shake or panning (operation for moving the camera horizontally) is present in the video, it is not uncommon for the camera to erroneously detect it as a cut point. Because even if there is shake or bread a
(j C ) has a large value, but at the same time, b (j C ) and b '(j C ) have a large value.
This is because (tj C ) becomes smaller.

【0043】式(9)を図17に適用して実際の一連の入
力画像に付いてカットを検出するには、常に現時点tか
ら5フレーム前までの6つのフレームに付いて図17の
領域A1,A2,A3内の画像間距離d(t-i,t-j)が得ら
れておればよく、しかも時刻tが更新される毎に図17
中の位置(0,1),(0,2),(0,3) の画像間距離のみ新たに計
算し、それまで保持していたデータは全て一段右下にシ
フトするだけでよい。
In order to apply Equation (9) to FIG. 17 to detect a cut in an actual series of input images, the area A1 in FIG. , A2, and A3 as long as the distance d (ti, tj) between the images is obtained, and each time the time t is updated, FIG.
Only the distance between the images at the middle positions (0,1), (0,2), (0,3) is newly calculated, and all the data held so far need only be shifted to the lower right by one step.

【0044】次に、図7に示したフラッシュ光が画像列
入っている場合の図8のデータに対し、図17の領域パ
ターンマップを上述と同様に適用して式(9)によりシー
ン変化率を時点(t-1),t,(t+1) に付いて計算した結果を
示す。 C(t-1-3)=(3-2×2)/6=-1/6=-0.16 C(t-3)=(3-2×2)/6=-1/6=-0.16 C(t+1-3)=(2-2×2)/6=-2/6=-0.3 この計算結果から分かるように、時点(t-1) とtの何れ
の場合も図9に示す領域A4内のi=jF上の3つの
“1”とj=jF上の4つの“1”のうちの3つとが相殺
し合うので、シーン変化率C(t-4),C(t-3)が閾値1/16よ
り小さくなっており、フラッシュ光をカット点として誤
検出する事がない。従来方法では、図8におけるd(t-3,
t-4)が大きな値を取るのでフレーム(t-4) をカット点で
あると誤判定することが多かった。
Next, by applying the area pattern map of FIG. 17 to the data of FIG. 8 in the case where the flash light shown in FIG. Shows the results calculated for the time points (t-1), t, and (t + 1). C (t-1-3) = (3-2 × 2) /6=-1/6=-0.16 C (t-3) = (3-2 × 2) /6=-1/6=-0.16 C (t + 1-3) = (2-2 × 2) /6=−2/6=−0.3 As can be seen from the calculation results, in both cases at the time (t−1) and t, FIG. since bract 3 of the four "1" on the three "1" and j = j F on i = j F in the area A4 indicated cancel, the scene change rate C (t-4), C (t-3) is smaller than the threshold value 1/16, so that the flash light is not erroneously detected as a cut point. In the conventional method, d (t−3,
Since t-4) has a large value, the frame (t-4) is often erroneously determined to be a cut point.

【0045】図10に示したように画像列にテレシネボ
ケ画像が画像列中に入っている場合には、図12に示す
領域A4内の距離値は中間的値であるが、領域A1内の
距離値が大きいのでC(t-jC)は1に近い値を取る。前述
と同様に図11の距離テーブルに対し図17の領域パタ
ーンマップを時点(t-1), t, (t+1) の位置に重ねて式
(9)によりC(t-jC)をそれぞれ算出すると、 C(t-1-3)=(4.5-2×1)/6=5/12=0.4 C(t-3)=(4.5-2×1)/6=5/12=0.4 C(t+1-3)=(2-2×2)/6=-1/3=-0.3 が得られる。C(t-3)>1/16,C(t-4)>16なのでフレーム
(t-3) 及び(t-4) がカット点であると正しく判定され
る。即ち、この例では複数のフレームに渡ってカットが
続いていることを示している。図11のd(t-3,t-4), d
(t-4,t-5)のように画像間距離が小さいと、従来方法で
はフレーム(t-4),(t-5) をカット点として検出できない
場合が多かった。
When the telecine blur image is included in the image sequence as shown in FIG. 10, the distance value in the region A4 shown in FIG. 12 is an intermediate value, but the distance value in the region A1 is intermediate. Since the value is large, C (tj C ) takes a value close to 1. As described above, the area pattern map of FIG. 17 is superimposed on the distance table of FIG.
When C (tj C ) is calculated according to (9), C (t-1-3) = (4.5-2 × 1) /6=5/12=0.4 C (t-3) = (4.5-2 × 1) /6=5/12=0.4 C (t + 1-3) = (2-2 × 2) /6=-1/3=-0.3 Frame because C (t-3)> 1/16 and C (t-4)> 16
It is correctly determined that (t-3) and (t-4) are cut points. That is, this example indicates that the cutting is continued over a plurality of frames. D (t-3, t-4), d in FIG.
When the distance between images is small as in (t-4, t-5), the conventional method often cannot detect frames (t-4) and (t-5) as cut points.

【0046】図13に示したように画像列にフェード等
のゆっくり変化する複数画像を含む場合は、図15に示
す領域Aの右上ほど大きな値をとることから、前述と同
様に図14の距離テーブルに対し図17の領域パターン
マップを時点(t-1), t,(t+1)の位置に重ねて式(9)によ
り計算したC(t-jC)は次のようになる。 C(t-1-3)=(3.5-2×0.8)/6=0.31 C(t-3)=(3.0-2×1.2)/6=0.1 C(t+1-3)=(2.1-2×1.0)/6=0.016 となり、シーンが変化していることを正しく検出でき
る。
As shown in FIG. 13, when the image sequence includes a plurality of slowly changing images such as fades, the value becomes larger toward the upper right of the area A shown in FIG. C (tj C ) calculated by the equation (9) by superimposing the area pattern map of FIG. 17 on the table at the time (t-1), t, (t + 1) is as follows. C (t-1-3) = (3.5-2 × 0.8) /6=0.31 C (t-3) = (3.0-2 × 1.2) /6=0.1 C (t + 1-3) = (2.1- 2 × 1.0) /6=0.016, and it can be correctly detected that the scene has changed.

【0047】なお、シーン変化率算出部14が計算する
シーン変化率C(t-jC)を規定する式としては、 C(t-jC)={a(t)−β[b(t)+b'(t)]}/S, (10) a(jC)=Σi,jd(t-i,t-j) for 0≦i<jC≦j≦J, j-i≦
g b(jC)=Σi,jd(t-i,t-j) for 0≦i<j≦jC-1, j-i≦
g b'(jC)=Σi,jd(t-i,t-j) for jC≦i<j≦J, j-i≦g を使ってもよい。
The equation for defining the scene change rate C (tj C ) calculated by the scene change rate calculation section 14 is as follows: C (tj C ) = {a (t) −β [b (t) + b ′ ( t)]} / S, (10) a (j C ) = Σ i, j d (ti, tj) for 0 ≦ i <j C ≦ j ≦ J, ji ≦
g b (j C ) = Σ i, j d (ti, tj) for 0 ≦ i <j ≦ j C -1, ji ≦
g b ′ (j C ) = Σ i, j d (ti, tj) for j C ≦ i <j ≦ J, ji ≦ g

【0048】図18は、本発明により入力画像列中の映
像カット点をリアルタイムで検出する方法の一実施例の
処理フロー図である。ここで、処理がリアルタイムであ
ることは、映像を標準的な速度で表示、記録、転送しな
がら映像カット点検出処理ができることを意味する。ま
た、画像が1フレーム入力される毎の時刻tと一連の画
像のフレーム番号とは同じものとし、距離テーブル13
は図17に示すのと同じJ=5,g=jC=3とする。
FIG. 18 is a processing flowchart of an embodiment of a method for detecting a video cut point in an input image sequence in real time according to the present invention. Here, real-time processing means that video cut point detection processing can be performed while displaying, recording, and transferring video at a standard speed. The time t every time one image is input and the frame number of a series of images are the same, and the distance table 13
Are J = 5 and g = j C = 3 as shown in FIG.

【0049】ステップS1では、時刻tを0に初期化す
る。即ち、処理開始時刻を0とみなす。ステップS2で
は時刻tにおける画像をバッファメモリ11に読み込む
処理を行う。この処理には、例えば前処理として、映像
信号をA/D変換して処理可能なディジタルデータに変
換する処理も含まれる。ステップS3では、距離テーブ
ル中のデータ領域A1,A2,A3内の各位置(i,j) の
データd(t-i,t-j)を位置(i+1,j+1) にシフトし、画像間
距離算出部12において、j=1,2,3 について例えば式
(1)により画像間距離d(t,t-j)を求め、距離テーブル1
3の位置(0,1),(0,2),(0,3) に格納する。この場合、時
間的に隣り合う画像の間の距離d(t,t-1)だけではなく、
d(t,t-2),d(t,t-3)などの時間的に離れた画像間の距離
を算出して利用する点で従来方法とは異なる。ステップ
S4では、シーン変化率算出部14において、距離テー
ブル13のデータを使って、例えば式(9)によりシーン
変化率C(t-3) を求める。ステップS5では、C(t-3)
が閾値1/16より大か小か比較しC(t-3)>1/16の場合、フ
レーム(t-3) がカット点と判定し(ステップS6)、C
(t-3)≦1/16の場合、フレーム(t-3) はカット点でない
と判定する(ステップS7)。その後、ステップS8で
時刻tを1だけ増し、ステップS2に戻る。
In step S1, time t is initialized to zero. That is, the processing start time is regarded as 0. In step S2, a process of reading the image at time t into the buffer memory 11 is performed. This process includes, for example, a process of converting a video signal into digital data that can be processed by A / D conversion as preprocessing. In step S3, the data d (ti, tj) of each position (i, j) in the data areas A1, A2, A3 in the distance table is shifted to the position (i + 1, j + 1), and the image distance In the calculation unit 12, for j = 1, 2, 3
The distance d (t, tj) between the images is obtained by (1), and the distance table 1
3 are stored at the positions (0,1), (0,2), (0,3). In this case, not only the distance d (t, t-1) between temporally adjacent images,
This method differs from the conventional method in that a distance between images separated in time such as d (t, t-2) and d (t, t-3) is calculated and used. In step S4, the scene change rate calculation unit 14 uses the data in the distance table 13 to calculate the scene change rate C (t-3) using, for example, equation (9). In step S5, C (t-3)
Is larger or smaller than the threshold value 1/16, and if C (t-3)> 1/16, the frame (t-3) is determined to be the cut point (step S6), and C is determined.
If (t−3) ≦ 1/16, it is determined that the frame (t−3) is not a cut point (step S7). Thereafter, the time t is increased by 1 in step S8, and the process returns to step S2.

【0050】なお、上述した式(9)を用いてシーン変化
率C(t-jC)を求める場合には、図18の処理フローから
も分かるように、時刻tの時に初めて時刻(t-jC)のカッ
ト点判定ができるので、時間的にjC画像だけカット点検
出に遅延が生じるが、応用上問題はない。また、実際に
はステップS4のシーン変化率の計算とそれ以降のステ
ップS5〜S7の処理は、図17に示すテーブルの領域
A1,A2,A3がデータで満たされるまで実行せず、
ステップS2,S3,S8を所定回数繰り返してテーブ
ルのこれら領域がデータで満たされてからステップS4
〜S7の処理の実効を可能とする。図17の場合、最初
の画像フレームが入力されてから、更に3×5フレーム
の画像が入力されると距離テーブル13の3つの領域が
距離データで満たされる。普通、映像の開始後、数10
フレームでカットがあることはないので、最初のフレー
ムから数10フレームのあいだカットの検出を行わなく
ても問題はない。
[0050] Note that when using equation (9) described above obtaining the scene changing ratio C (tj C), as can be seen from the processing flow of FIG. 18, the first time at time t of (tj C) since it is cut point determination, but temporally delayed only cut detection j C image occurs, applications there is no problem. In addition, actually, the calculation of the scene change rate in step S4 and the subsequent processes in steps S5 to S7 are not executed until the areas A1, A2, and A3 of the table shown in FIG. 17 are filled with data.
Steps S2, S3 and S8 are repeated a predetermined number of times, and after these areas of the table are filled with data, step S4
To S7 can be performed effectively. In the case of FIG. 17, when an image of 3 × 5 frames is further input after the first image frame is input, three areas of the distance table 13 are filled with the distance data. Normally, after the start of the video, several tens
Since there is no cut in the frame, there is no problem even if the cut is not detected for several tens of frames from the first frame.

【0051】シーン変化率を規定する他の関数の例を次
ぎに説明する。図5、8、11、14などで説明したよ
うに、距離テーブルに示される画像間距離データは画像
列中に存在するシーン変化の種類により特徴的な分布を
示す。そこでそれらの検出したい1つ又は複数の種類の
シーン変化(カット)にそれぞれ代表的な距離データ分
布のテーブルをシーン変化率算出部14にそれぞれ予め
用意しておく。これをテンプレートと呼ぶ。図19A,
19B,19Cはそれぞれ瞬時カット検出用テンプレー
トTCT(i,j)、フェード検出用テンプレートTFD(i,j)及び
フラッシュ検出用テンプレートTFL(i,j)の例であり、い
ずれもサイズはJ=5の場合である。ここで示すシーン
変化率C(t-jC) は1フレームの画像データが入力される
毎に作成したこれらと同じサイズJの図20に示すよう
な距離テーブルとテンプレートとの間の類似度によって
規定する。テンプレートとの類似度は、例えば相互相関
係数R(d,T)によって表す。その場合は、次式で表すこと
ができる。
An example of another function for defining the scene change rate will be described below. As described with reference to FIGS. 5, 8, 11, and 14, the inter-image distance data shown in the distance table has a characteristic distribution depending on the type of scene change existing in the image sequence. Accordingly, a table of distance data distribution representative of one or more types of scene changes (cuts) to be detected is prepared in the scene change rate calculation unit 14 in advance. This is called a template. FIG. 19A,
19B and 19C are examples of an instant cut detection template T CT (i, j), a fade detection template T FD (i, j), and a flash detection template T FL (i, j), respectively. This is the case where J = 5. The scene change rate C (tj C ) shown here is defined by the similarity between the distance table as shown in FIG. 20 and the template of the same size J created each time one frame of image data is input. . The degree of similarity with the template is represented, for example, by a cross-correlation coefficient R (d, T). In that case, it can be expressed by the following equation.

【0052】 C(t-jC)=R(d,T) =Σi,j{d(t-i,t-j)−dAV}{T(i,j)−TAV}/(σdσT)1/2 (11) dAV=1/SΣi,jd(t-i,t-j) : d(t-i,t-j)の平均値 TAV=1/SΣi,jT(i,j) : T(i,j)の平均値 σd=1/SΣi,j{d(t-i,t-j)−dAV2 : d(t-i,t-j)
の分散 σT=1/SΣi,j{T(i,j)−TAV2 : T(i,j)の分散 ただし、i,jは0≦i<j≦Jを満足する全ての組で
あり、Sはその組の数であり、Σi,j はその全ての組に
ついての総和を表す。この場合も、テンプレート及び距
離テーブルの領域をj−i≦g,0<g<Jに制限して
もよい。
C (tj C ) = R (d, T) = Σ i, j {d (ti, tj) −d AV } {T (i, j) −T AV } / (σ d σ T ) 1 / 2 (11) d AV = 1 / SΣ i, j d (ti, tj): Average value of d (ti, tj) T AV = 1 / SΣ i, j T (i, j): T (i, Average value of j) σ d = 1 / SΣ i, j {d (ti, tj) −d AV2 : d (ti, tj)
Σ T = 1 / Sj i, j {T (i, j) −T AV2 : variance of T (i, j) where i, j are all satisfies 0 ≦ i <j ≦ J Is a set, S is the number of the set, and Σ i, j represents the sum of all the sets. Also in this case, the area of the template and the distance table may be limited to ji ≦ g, 0 <g <J.

【0053】シーン変化率算出部14は各入力画像フレ
ーム毎に求めた図20に示す距離テーブルと図19A,
19B,19C等に示すテンプレートの所望の1つ又は
複数との類似度R(d,T) をシーン変化率として式(11)に
よりそれぞれ計算し、その値が予め決めた閾値Rthより
大であれば対応するシーン変化がフレーム(t-jC)にある
と判定する。
The scene change rate calculation unit 14 calculates the distance table shown in FIG. 20 for each input image frame and the distance table shown in FIG.
The similarity R (d, T) with one or more desired templates shown in 19B, 19C, etc. is calculated as a scene change rate by equation (11), and when the value is larger than a predetermined threshold value Rth . If so, it is determined that the corresponding scene change is in the frame (tj C ).

【0054】図21は上述の複数のテンプレートを使っ
てどの様なシーン変化(カット)が入力画像列中のどの
フレームに存在するかを検出する処理フローを示し、基
本的な手順は図18と同様である。ただし、この例では
フラッシュはカットではないが、画像列中の検出対象の
1つとして加えてある。ステップS1で時刻tを0に初
期化し、ステップS2で現時点tの画像データを取り込
む。ステップS3で距離テーブルの全ての位置(i,j) の
距離データd(t-i,t-j)を位置(i+1,j+1) にシフトする。
バッファメモリ11(図1)に保持されているJフレー
ム前までのJ+1枚の画像フレームを使って画像間隔距
離d(t,t-j),j=1,2,…,J を例えば式(1)により計算し、
テーブル中の位置(0,j) にそれぞれ書き込むことにより
現時点tでの距離テーブルを得る。ステップS4で図1
9Aの瞬時カット検出用テンプレートと現時点での距離
テーブルの類似度を式(11)により計算する。ステップS
5で類似度を所定の閾値Rthと比較し、閾値以下であれ
ば瞬時カットはなかったと判定してステップS6に進
み、図19Bのフェード検出用テンプレートと現時点の
距離テーブルの類似度を式(11)により計算する。ステッ
プS7でフェード検出用テンプレートとの類似度を閾値
thと比較し、閾値以下であればフェードはなかったと
判定してステップS8に進み、図19Cのフラッシュ検
出用テンプレートと現時点の距離テーブルの類似度を式
(11)により計算する。ステップS9でフラッシュ検出用
テンプレートとの類似度を閾値Rthと比較し、閾値以下
であればフラッシュはなかったと判定し、ステップS1
0で時刻tを更新してステップS2に戻る。ステップS
5,S7,S9のいずれにおいても類似度が閾値Rth
り大であった場合は、対応するシーン変化がフレーム(t
-jC)にあったと判定し、ステップS10で時刻を更新し
てステップS2に戻る。
FIG. 21 shows a processing flow for detecting what kind of scene change (cut) exists in which frame in the input image sequence using the above-mentioned plural templates. The basic procedure is as shown in FIG. The same is true. However, in this example, the flash is not a cut, but is added as one of the detection targets in the image sequence. In step S1, time t is initialized to 0, and in step S2, image data at the current time t is fetched. In step S3, the distance data d (ti, tj) at all positions (i, j) in the distance table is shifted to the position (i + 1, j + 1).
The image interval distance d (t, tj), j = 1, 2,..., J is calculated using the J + 1 image frames preceding the J frame held in the buffer memory 11 (FIG. Calculated by
The distance table at the present time t is obtained by writing to the position (0, j) in the table. In step S4, FIG.
The similarity between the 9A instantaneous cut detection template and the current distance table is calculated by equation (11). Step S
In step S5, the similarity is compared with a predetermined threshold value Rth. If the similarity is equal to or less than the threshold value, it is determined that there is no instantaneous cut, and the process proceeds to step S6. The similarity between the fade detection template in FIG. Calculate according to 11). In step S7, the degree of similarity with the template for fade detection is compared with the threshold value Rth. If the similarity is equal to or smaller than the threshold value, it is determined that there is no fade, and the process proceeds to step S8. Degree expression
It is calculated by (11). The similarity between the flash detection template at step S9 is compared with a threshold value R th, determines that the flash was not as long below the threshold, step S1
The time t is updated with 0, and the process returns to step S2. Step S
5, S7, if the degree of similarity in any of S9, was greater than the threshold value R th, corresponding scene change frame (t
determines that were in -j C), the flow returns to step S2 to update the time in step S10.

【0055】以上この発明のカット検出方法の原理を具
体例により説明したが、この発明のカット検出方法を実
施するカット検出装置は図1の構成のみでなく、以下に
説明するような構成も可能である。図22はカット検出
装置の他の実施例であり、図1のバッファメモリ11と
対応してJ+1 個のフレームバッファ110 〜11J が設けら
れ、また図1の画像間距離算出部12に対応してJ個の
画像間距離算出部121 〜12J が設けられている。新しい
画像フレームItをバッファに格納する前に、それまでフ
レームバッファ110〜11J-1 に保持されている画像フレ
ームをバッファ111 〜11J にそれぞれ転送し(従ってバ
ッファ11J にそれまで保持されていた画像データは捨て
られる)、新しい画像フレームItがバッファ110 に書き
込まれる。全てのバッファに画像フレームの格納が完了
すると、画像間距離算出部121 〜12J はそれぞれフレー
ムバッファ111 〜11J から読み出された画像フレームI
t-1,It-2,…,It-J が与えられると共に、フレームバッ
ファ110 から現時点tでの最新画像フレームItが共通に
与えられ、それぞれ画像間距離d(t,t-1),d(t,t-2),…,d
(t,t-J) を例えば式(1)を使って計算する。これらの画
像間距離は距離テーブルメモリ部13に与えられ、図2
3に示すJ=5の場合の距離テーブル上の位置(0,1),
(0,2),…,(0,J)に対応するアドレス領域に書き込まれ
る。ただし、その書き込みを行う前に、既にあるテーブ
ル上の位置(i,j) のデータd(t-i,t-j)を図23中に矢印
で示すように位置(i+1,j+1) にシフトする。このシフト
によりテーブルの外に位置することになるデータは捨て
られる。この様にして時点tにおいて得られた距離テー
ブルを使って、シーン変化率算出部14は前述の所望の
シーン変化率計算方法に基づいてシーン変化率C(t-jC)
を計算する。判定部15は与えられたシーン変化率を閾
値と比較し、その比較結果によりシーン変化があったか
否かを判定する。
Although the principle of the cut detection method of the present invention has been described above with reference to a specific example, the cut detection device that implements the cut detection method of the present invention is not limited to the configuration shown in FIG. It is. Figure 22 shows another embodiment of the cut detection apparatus, J + 1 frames buffer 11 0 to 11 J are provided corresponding buffer memory 11 in FIG. 1, also the inter-image distance calculation section 12 of FIG. 1 the J inter-image distance calculation section 12 1 to 12 J are provided corresponding to. The new image frame I t before storing in the buffer, the image frame stored in the frame buffer 11 0 ~11 J-1 transferred respectively to the buffer 11 1 to 11 J (hence far into the buffer 11 J until then image data that has been held is discarded), the new image frame I t is written into the buffer 11 0. When storage of image frames for all buffers is completed, the inter-image distance calculation section 12 1 to 12 J an image frame I read from the frame buffer 11 1 to 11 J, respectively
t-1, I t-2, ..., with I tJ is given, the most recent image frame I t at the current time t from the frame buffer 11 0 is supplied with a common, each inter-image distance d (t, t-1) , d (t, t-2),…, d
(t, tJ) is calculated using, for example, equation (1). These inter-image distances are given to the distance table memory unit 13 and are shown in FIG.
Position (0,1) on the distance table when J = 5 shown in Fig. 3
Write to the address area corresponding to (0,2), ..., (0, J). However, before the writing, the data d (ti, tj) at the position (i, j) on the existing table is shifted to the position (i + 1, j + 1) as shown by the arrow in FIG. I do. Data that will be located outside the table due to this shift is discarded. Using the distance table obtained at the time point t in this way, the scene change rate calculation unit 14 calculates the scene change rate C (tj C ) based on the above-described desired scene change rate calculation method.
Is calculated. The determination unit 15 compares the given scene change rate with a threshold, and determines whether or not there has been a scene change based on the comparison result.

【0056】図22の実施例によればフレームバッファ
と画像間距離算出部を複数設ける必要があるが、画像デ
ータをパイプライン的に高速に処理することが可能であ
る。カット検出装置のもう1つの実施例を図24に示
す。この実施例は図1に示した動作原理的構成をより実
際的に実現するために、コンピュータ構成としたもので
あり、画像列蓄積部11、画像間距離算出部12、距離
テーブルメモリ部13、シーン変化率算出部14等はバ
ス19を介して接続された計算制御部(CPU)20に
よりそれらの動作が制御される。画像データ入力部10
は入力画像データItを計算制御部20の制御のもとに1
フレーム取り込んで画像列蓄積部11に転送する。画像
列蓄積部11は例えばコンピュータの主記憶部であり、
予め割り当てられたJ+1 フレーム分のバッファ領域110
〜11J が設けられており、最も新しいJ+1 フレーム分の
画像を保持している。図22の場合と同様に、現時点t
の新しい画像フレームが入力部10に入力されると、ま
ず画像列蓄積部11の領域110 〜11J-1 (図示せず)内
のデータIt,…,It-J+1をそれぞれ領域111 〜11J に書き
込み、領域110 に入力部10から最新画像データを書き
込む。画像列蓄積部11への書き込みが完了すると、計
算制御部20は蓄積部11から画像フレームItとIt-j
組を読みだして画像間距離算出部12に与えて画像間距
離d(t,t-j)を計算させ、その計算結果を距離テーブルメ
モリ部13のテーブル(図23参照)内の位置(0,j) に
転送することをj=1,2,…,Jについて順次繰り返す。これ
によって距離テーブルメモリ部13の距離テーブルには
J個の新しい距離データが得られる。
According to the embodiment of FIG. 22, it is necessary to provide a plurality of frame buffers and inter-image distance calculation units, but it is possible to process image data at high speed in a pipeline manner. FIG. 24 shows another embodiment of the cut detection device. This embodiment has a computer configuration in order to more practically realize the operation principle configuration shown in FIG. 1. The image sequence storage unit 11, the inter-image distance calculation unit 12, the distance table memory unit 13, The operations of the scene change rate calculator 14 and the like are controlled by a calculation controller (CPU) 20 connected via a bus 19. Image data input unit 10
The original control of the input image data I t the calculation control unit 20 1
The frame is fetched and transferred to the image sequence storage unit 11. The image sequence storage unit 11 is, for example, a main storage unit of a computer,
Buffer area for pre-allocated J + 1 frames 11 0
~ 11 J, and holds the image of the latest J + 1 frame. As in the case of FIG.
When a new image frame is input to the input unit 10, first data I t in the region 11 of the image sequence storage unit 11 0 ~11 J-1 (not shown), ..., I t-J + 1 each writing in the area 11 1 to 11 J, and writes the latest image data from the input unit 10 to the region 11 0. When writing to the image sequence storage unit 11 is completed, the calculation control unit 20 is an image frame from the storage unit 11 I t and between given by reading a set of I tj in the inter-image distance calculation section 12 image distance d (t, tj) and transferring the calculation result to the position (0, j) in the table (see FIG. 23) of the distance table memory unit 13 are sequentially repeated for j = 1, 2,. As a result, J new distance data are obtained in the distance table of the distance table memory unit 13.

【0057】[0057]

【発明の効果】以上説明したように、本発明によれば画
面変化量として時間的にとなり合った2枚の画像を比べ
るだけでなく、時間的に離れた画像の間を変化量を考慮
してシーン変化率を算出することにより、時間的にゆっ
くりと変化するシーン変化を検出でき、テレシネ変換さ
れた映像、フラッシュ光を含む映像などを統一的にリア
ルタイムに処理できる映像カット点検出方法及び装置を
提供できる効果がある。
As described above, according to the present invention, not only two images which are temporally adjacent to each other as a screen change amount are compared, but also a change amount between images which are temporally separated is taken into consideration. Cut point detection method and apparatus that can detect a scene change that changes slowly in time by calculating the scene change rate, and can uniformly process telecine-converted images, images including flash light, etc. in real time There is an effect that can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明のカット検出装置の動作原理的構成を
示すブロック図。
FIG. 1 is a block diagram showing an operation principle configuration of a cut detection device of the present invention.

【図2】カットを含む画像列の例を示す図。FIG. 2 is a diagram showing an example of an image sequence including a cut.

【図3】Aはカットのない場合の2つの画像の差分ヒス
トグラムの例を示す図、Bはカットのある場合の2つの
画像の差分ヒストグラムの例を示す図である。
3A is a diagram illustrating an example of a difference histogram of two images without a cut, and FIG. 3B is a diagram illustrating an example of a difference histogram of two images with a cut.

【図4】2つの画像間のブロックマッチングを説明する
ための図。
FIG. 4 is a diagram for explaining block matching between two images.

【図5】図2の画像列により作成された距離テーブルの
例を示す図。
FIG. 5 is a diagram showing an example of a distance table created from the image sequence shown in FIG. 2;

【図6】図5の距離テーブルの特徴を説明するための
図。
FIG. 6 is a view for explaining features of the distance table of FIG. 5;

【図7】フラッシュ画像を含む画像列を示す図。FIG. 7 is a diagram showing an image sequence including a flash image.

【図8】図7の画像列により作成された距離テーブルの
例を示す図。
FIG. 8 is a diagram showing an example of a distance table created from the image sequence shown in FIG. 7;

【図9】図8の距離テーブルの特徴を説明するための
図。
FIG. 9 is a view for explaining features of the distance table of FIG. 8;

【図10】カットを含むテレシネ変換画像列の例を示す
図。
FIG. 10 is a diagram showing an example of a telecine-converted image sequence including a cut.

【図11】図10の画像列により作成された距離テーブ
ルの例を示す図。
FIG. 11 is a view showing an example of a distance table created from the image sequence shown in FIG. 10;

【図12】図11の距離テーブルの特徴を説明するため
の図。
FIG. 12 is a view for explaining features of the distance table of FIG. 11;

【図13】フェードを含む画像列の例を示す図。FIG. 13 is a diagram showing an example of an image sequence including a fade.

【図14】図13の画像列により作成された距離テーブ
ルの例を示す図。
FIG. 14 is a view showing an example of a distance table created from the image sequence shown in FIG. 13;

【図15】図14の距離テーブルの特徴を説明するため
の図。
FIG. 15 is a view for explaining features of the distance table of FIG. 14;

【図16】距離テーブルからシーン変化率を求める方法
の例を説明するための図。
FIG. 16 is a view for explaining an example of a method for obtaining a scene change rate from a distance table.

【図17】J=5の場合の距離テーブルによりシーン変
化率を求める方法を説明するための図。
FIG. 17 is a view for explaining a method of obtaining a scene change rate using a distance table when J = 5.

【図18】この発明によるカット検出方法の処理手順を
示すフロー図。
FIG. 18 is a flowchart showing a processing procedure of a cut detection method according to the present invention.

【図19】Aは瞬時カット検出用テンプレートを示す
図、Bはフェード検出用テンプレートを示す図、Cはフ
ラッシュ検出用テンプレートを示す図である。
19A is a diagram illustrating an instantaneous cut detection template, FIG. 19B is a diagram illustrating a fade detection template, and FIG. 19C is a diagram illustrating a flash detection template.

【図20】テンプレートと比較する距離テーブルの例を
示す図。
FIG. 20 is a diagram showing an example of a distance table to be compared with a template.

【図21】テンプレートを使って所望のシーン変化を検
出する方法の処理手順を示すフロー図。
FIG. 21 is a flowchart showing a processing procedure of a method for detecting a desired scene change using a template.

【図22】この発明のカット検出装置の他の構成例を示
すブロック図。
FIG. 22 is a block diagram showing another configuration example of the cut detection device of the present invention.

【図23】距離テーブルの作成を説明するための図。FIG. 23 is a view for explaining creation of a distance table.

【図24】この発明のカット検出装置の更に他の構成例
を示すブロック図。
FIG. 24 is a block diagram showing still another configuration example of the cut detection device of the present invention.

フロントページの続き (56)参考文献 1.大辻、外村「映像カット自動検出 方式の検討」テレビジョン学会技術報告 Vo1.16,No.43,pp.7−12 〔1992年7月) 2.K.Otsuji and Y. Tonomura”Projectio n Detecting Filter for Video Cut Det ection”Proc.of ACM Multimedia 93,1993,p p251−257 (1993年) (58)調査した分野(Int.Cl.6,DB名) H04N 5/262 - 5/28Continuation of front page (56) References 1. Otsuji, Tonomura "Study of Automatic Video Cut Detection Method" Technical Report of the Institute of Television Engineers of Japan Vol. 43, pp. 7-12 [July 1992] 2. K. Otsuji and Y. Tonomura "Projection Defect Filter for Video Cut Detection" Proc. of ACM Multimedia 93, 1993, pp. 251-257 (1993) (58) Fields investigated (Int. Cl. 6 , DB name) H04N 5/262-5/28

Claims (22)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 映像データ列から映像カット点を検出す
る映像カット点検出方法において、以下の工程を含む: (a) 順次入力される一連の画像フレームの現時点tのフ
レームからJフレーム前までの一連のJ+1個の画像
It,It-1,…,It-J に対し、フレーム間隔がJ以下の全て
の組の2つの画像It-i、It-j間の距離d(t-i,t-j)を求
め、各位置(i,j) に距離d(t-i,t-j)を有する距離テーブ
ルを作成し、Jは3又はそれより大の一定の整数であ
り、i,jは0≦i<j≦Jを満足する範囲の全ての可
変整数であり、 (b) 上記距離テーブル上の画像間距離に基づいてJフレ
ーム前の画像It-Jから現時点の画像Itまでの画像の変化
を現時刻tよりjCフレーム前におけるシーン変化率C(t
-jC)として計算し、jCは0<jC≦Jを満足する範囲の予
め決めた一定の整数であり、 (c) 上記シーン変化率C(t-jC)を予め決めた閾値と比較
し、その比較結果により現時点からjCフレーム前の画像
がカット点であるか否かを判定する。
1. A video cut point detection method for detecting a video cut point from a video data sequence includes the following steps: (a) a sequence of sequentially input image frames from a current frame t to a frame J before the current frame; A series of J + 1 images
I t, I t-1, ..., with respect to I tJ, calculated frame interval is J or less all the sets of two images I ti, the distance d (ti, tj) between I tj to each position (i, j), create a distance table having a distance d (ti, tj), where J is a constant integer of 3 or greater, and i, j are all values in a range satisfying 0 ≦ i <j ≦ J. is variable integer, (b) a scene change rate of j C frame prior to the distance based on the inter-image distance on the table J-frame preceding image I from tJ current image I t to the current time t changes in image C (t
-j C ), where j C is a predetermined constant integer in a range satisfying 0 <j C ≦ J, and (c) compare the scene change rate C (tj C ) with a predetermined threshold. and, j C-frame preceding image from the current time by the comparison result determines whether the cut point.
【請求項2】 請求項1の方法において、上記工程(a)
は、現時点tからiフレーム前の画像It-iとjフレーム
前の画像It-jの対応する各位置(x,y) における画素の輝
度の差分の絶対値を全画面に渡って加算して得た差分総
和を上記画像間距離d(t-i,t-j)に対応する値として求め
る工程を含む。
2. The method of claim 1 wherein said step (a)
Is obtained by adding across each corresponding position of the image I tj before image I ti and j frames before i frame from the present time t (x, y) the absolute value of the difference of the luminances of pixels in the entire screen A step of obtaining the sum of the differences as a value corresponding to the inter-image distance d (ti, tj).
【請求項3】 請求項1の方法において、上記工程(a)
は、現時点tからiフレーム前の画像It-iとjフレーム
前の画像It-jについて予め決めたクラス数の輝度値ヒス
トグラムを求め、それらのヒストグラムの対応するクラ
スの頻度の差の絶対値を全クラスに渡って加算して得た
差分総和を上記画像間距離d(t-i,t-j)に対応する値とし
て求める工程を含む。
3. The method of claim 1 wherein said step (a)
Obtains a luminance value histogram of the predetermined number of classes for the i-th frame preceding image I ti and j frame preceding image I tj from the present time t, all classes the absolute value of the difference between the frequency of the corresponding class of their histograms And calculating the sum of the differences obtained by adding the values as a value corresponding to the inter-image distance d (ti, tj).
【請求項4】 請求項1の方法において、上記工程(a)
は、現時点tからiフレーム前の画像It-iとjフレーム
前の画像It-jの対応する各位置(x,y) における画素の輝
度の差分を全画面に渡って求め、それら差分の標準偏差
を上記画像間距離d(t-i,t-j)に対応する値として求める
工程を含む。
4. The method of claim 1 wherein said step (a)
Obtains across the corresponding luminance differences of the pixel at each position (x, y) of the i-th frame preceding image I ti and j frame preceding image I tj from the current time t to the full screen, the standard deviation of their differences And a step of obtaining a value corresponding to the inter-image distance d (ti, tj).
【請求項5】 請求項1の方法において、上記工程(a)
は、距離を求めるべき現時点tからiフレーム前の画像
It-iとjフレーム前の画像It-jの対応する各位置(x,y)
における画素の輝度の差分を全画面に渡って求め、それ
ら差分の標準偏差を求め、上記差分が上記標準偏差を越
える画素を全画面に渡って計数し、その計数値を上記画
像間距離d(t-i,t-j)に対応する値として求める工程を含
む。
5. The method of claim 1, wherein said step (a)
Is the image i frames before the current time t for which the distance is to be obtained.
Each corresponding position of the I ti and j frame preceding image I tj (x, y)
Is calculated over the entire screen, the standard deviation of the differences is calculated, pixels whose difference exceeds the standard deviation are counted over the entire screen, and the counted value is calculated as the image distance d ( ti, tj).
【請求項6】 請求項1の方法において、上記工程
(a)は、現時点tからi及びjフレーム前の距離を求
めるべき組の画像It-i とIt-j の対応する各位置
(x,y)における画素の輝度の差分を第1の差分とし
て全画面に渡って求め、上記組の画像からそれぞれmフ
レーム前の画像It-i-m とIt-j-m の対応する各位置
(x,y)における画像の輝度の差分を第2の差分とし
て全画面に渡って求め、上記第2の差分の標準偏差を求
め、上記第1の差分の絶対値が上記標準偏差を越える画
素を全画面に渡って計数し、その計数値を上記画像間距
離d(t-i,t-j) に対応する値として求める工程を含み、
上記mは1以上の予め決めた整数である。
6. The method of claim 1, said step (a), each corresponding position of the set of image I ti and I tj should seek i and j frames previous distance from the present time t (x, y) At the corresponding positions (x, y) of the images I tim and Itjm m frames before, respectively, from the above set of images. The difference is obtained as a second difference over the entire screen, the standard deviation of the second difference is obtained, and the pixels whose absolute value of the first difference exceeds the standard deviation are counted over the entire screen. Calculating a count value as a value corresponding to the inter-image distance d (ti, tj),
The above m is a predetermined integer of 1 or more.
【請求項7】 請求項1の方法において、上記工程
(a)は現時点tからi及びjフレーム前の距離を求め
るべき組の画像It-i とIt-j の対応する各位置(x,
y)における画素の輝度の差分を第1の差分として前画
面に渡って求め、上記組の画像からそれぞれkフレーム
前の画像It-i-k とIt-j-k の対応する各位置(x,
y)における画像の輝度の差分を第2の差分として全画
面に渡って求め、その第2の差分の標準偏差εk を求
め、上記第2差分とその標準偏差を求めることをk=
1,2,…,nのそれぞれの組の画像について繰り返し
それによって得られたn個の標準偏差の平均を平均標準
偏差として求め、上記第1の差分の絶対値が上記平均標
準偏差を越える画素を全画面に渡って計数し、その計数
値を上記画像間距離d(t-i,t-j)に対応する値として求め
る工程を含み、上記nは2以上の予め決めた整数であ
る。
7. The method of claim 1, said step (a) each corresponding position of the set of image I ti and I tj should seek i and j frames previous distance from the present time t (x,
obtains a luminance difference of pixels in y) over a previous screen as a first difference, each corresponding position of the sets from each of the image k frames before the image I tik and I tjk (x,
The difference in luminance of the image in y) is obtained as a second difference over the entire screen, the standard deviation ε k of the second difference is obtained, and the second difference and its standard deviation are obtained by k =
The average of n standard deviations obtained as a result of the repetition for each set of images of 1, 2,..., N is determined as the average standard deviation, and the pixel whose absolute value of the first difference exceeds the average standard deviation is calculated. Is calculated over the entire screen, and the count value is determined as a value corresponding to the inter-image distance d (ti, tj), where n is a predetermined integer of 2 or more.
【請求項8】 請求項1の方法において、上記工程(a)
は、現時点tからiフレーム前の画像It-iを予め決めた
p×q画素のブロックに分割し、各上記ブロックとマッ
チする部分がjフレーム前の画像It-j内にあるか判定す
ることを全ての上記ブロックについて繰り返してマッチ
しないブロックの数を計数し、その計数値を上記画像間
距離d(t-i,t-j)に対応する値として求める工程を含む。
8. The method of claim 1, wherein said step (a)
Is to divide the image Iti i-frames before the current time t into blocks of predetermined p × q pixels, and to determine whether a portion matching each of the above blocks is in the image Itj before the j-th frame. And repeatedly counting the number of unmatched blocks for the above-mentioned block, and obtaining the counted value as a value corresponding to the inter-image distance d (ti, tj).
【請求項9】 請求項1の方法において、上記工程(a)
は、時点t−1での上記テーブル内の位置(i,j) の距離
のデータを位置(i+1,j+1) にシフトし、現時点tで上記
距離としてd(t,t-1),d(t,t-2),…,d(t,t-J) を計算し、
それらの計算値を上記テーブルの位置(0,1),(0,2),…,
(0,J)に書き込むことにより時点tでの上記テーブルを
作成する工程を含む。
9. The method of claim 1 wherein said step (a)
Shifts the data of the distance of the position (i, j) in the table at the time t-1 to the position (i + 1, j + 1), and at the current time t, the distance is d (t, t-1). ), d (t, t-2),…, d (t, tJ)
The calculated values are stored at positions (0,1), (0,2), ...,
Creating the table at time t by writing to (0, J).
【請求項10】 請求項1の方法において、上記工程
(a) における上記画像間距離を求める範囲は更にj-i≦
g を満たす範囲に限定し、gはJより小の予め決めた
一定の正の整数である。
10. The method of claim 1, wherein the steps are
In (a), the range for obtaining the distance between the images is ji ≦
Limited to the range satisfying g, where g is a predetermined constant positive integer smaller than J.
【請求項11】 請求項10の方法において、上記工程
(a) は、時点t−1での上記テーブル内の位置(i,j) の
距離のデータを位置(i+1,j+1) にシフトし、現時点tで
上記距離としてd(t,t-1),d(t,t-2),…,d(t,t-g) を計算
し、それらの計算値を上記テーブルの位置(0,1),(0,2),
…,(0,g)に書き込むことにより時点tでの上記テーブル
を作成する工程を含む。
11. The method of claim 10, wherein said steps are:
(a) shifts the distance data at the position (i, j) in the table at the time t-1 to the position (i + 1, j + 1), and at the current time t, the distance is d (t, j). t-1), d (t, t-2), ..., d (t, tg), and calculate the calculated values at the positions (0,1), (0,2),
, (0, g) to create the table at time t.
【請求項12】 請求項11の方法において、上記工程
(b) は、上記テーブル上にjC≦j≦J,0≦i<jC,j-
i≦g により第1の領域を規定し、その第1領域内の距
離の総和をa(jC)と表し、0≦i<j≦jC-1,j-i≦gによ
り第2の領域を規定し、その第2領域内の距離の総和を
b(jC)と表し、jC≦i<j≦J,j-i≦gにより第3の領域
を規定し、その第3領域内の距離の総和をb'(jC)と表す
と、上記シーン変化率として C(t-jC)={a(jC)−βMAX[b(jC),b'(jC)]}/S を計算する工程を含み、βは上記第1領域と上記第2又
は第3領域のデータ数を等価するための予め決めた係数
であり、Sは上記第1領域内のデータの数を表す。
12. The method of claim 11, wherein the steps
(b) shows that j C ≦ j ≦ J, 0 ≦ i <j C , j−
The first area is defined by i ≦ g, the sum of the distances in the first area is represented by a (j C ), and the second area is defined by 0 ≦ i <j ≦ j C −1 and ji ≦ g. And the sum of the distances in the second area
b (j C ), the third area is defined by j C ≦ i <j ≦ J, ji ≦ g, and the sum of the distances in the third area is expressed as b ′ (j C ). C (tj C) as a scene change rate = {a (j C) -βMAX [b (j C), b '(j C)]} / S comprises the step of calculating, beta is the first region and the This is a predetermined coefficient for equalizing the number of data in the second or third area, and S represents the number of data in the first area.
【請求項13】 請求項11の方法において、上記工程
(b) は、上記テーブル上にjC≦j ≦J,0≦i<jC,j-i≦
gにより第1の領域を規定し、その第1領域内の距離の
総和をa(jC)と表し、0≦i<j≦jC-1,j-i≦gにより第
2の領域を規定し、その第2領域内の距離の総和をb
(jC)と表し、jC≦i<j≦J,j-i≦gにより第3の領域
を規定し、その第3領域内の距離の総和をb'(jC)と表す
と、上記シーン変化率として C(t-jC)={a(jC)−β[b(jC)+b'(jC)]}/S を計算する工程を含み、βは上記第1領域と、上記第2
及び第3領域のデータ数を等価するための予め決めた係
数であり、Sは上記第1領域内のデータの数を表す。
13. The method of claim 11, wherein the steps are
(b) shows that j C ≦ j ≦ J, 0 ≦ i <j C , ji ≦
g defines the first area, the sum of the distances in the first area is represented by a (j C ), and 0 ≦ i <j ≦ j C −1 and ji ≦ g define the second area. , The sum of the distances in the second area is b
(j C ), the third area is defined by j C ≦ i <j ≦ J, ji ≦ g, and the sum of the distances in the third area is expressed as b ′ (j C ). include C (tj C) = {a (j C) -β [b (j C) + b '(j C)]} / S to calculate the process as the rate of change, beta is in the first region, said first 2
And a predetermined coefficient for equalizing the number of data in the third area, and S represents the number of data in the first area.
【請求項14】 請求項9の方法において、上記工程
(b) は、上記距離テーブルと同じサイズで少なくとも1
つの所望の種類の予め決められたカット検出用テンプレ
ートと、時点tで得られた上記距離テーブルとの類似度
を上記シーン変化率として計算する工程を含む。
14. The method of claim 9 wherein said steps are
(b) is the same size as the distance table and at least one
Calculating the similarity between the predetermined desired cut detection template and the distance table obtained at time t as the scene change rate.
【請求項15】 請求項14の方法において、上記類似
度は上記距離テーブルと上記テンプレートとの相互相関
係数である。
15. The method according to claim 14, wherein the similarity is a cross-correlation coefficient between the distance table and the template.
【請求項16】 画像データ列から映像カット点を検出
する映像カット点検出装置において、 時間的に連続する少なくともJ+1フレームの画像デー
タを順次バッファリングするバッファメモリ手段と、 上記バッファメモリ手段内の現時点tからJフレーム前
までの上記画像データIt,It-1,…,It-J について、0
≦i<j≦Jの範囲の2つの画像It-i,It-j の画像データ
間の距離d(t-i,t-j)を計算する画像間距離算出手段と、 上記画像間距離算出手段で計算された画像間距離を格納
する距離テーブル手段と、 上記距離テーブル手段を参照して、フレーム(t-J) から
tまでの画像の変化をフレーム(t-jC)におけるシーン変
化率として算出するシーン変化率算出手段と、jCは0<
jC≦Jを満足する予め決めた一定の整数であり、 上記算出されたシーン変化率をあらかじめ定められた閾
値と比較して、上記フレーム(t-jC)がカット点であるか
否か判定する判定手段とを含む。
16. A video cut point detecting apparatus for detecting a video cut point from an image data sequence, comprising: a buffer memory means for sequentially buffering image data of at least J + 1 frames continuous in time; the image data I t, I t-1 from t before J frame, ..., the I tJ, 0
An image distance calculating means for calculating a distance d (ti, tj) between image data of two images Iti, Itj in a range of ≤ i <j ≤ J; and an image calculated by the image distance calculating means. Distance table means for storing an inter-distance; scene change rate calculating means for calculating a change in an image from frame (tJ) to t as a scene change rate in frame (tj C ) with reference to the distance table means; j C is 0 <
j C ≦ J is a predetermined constant integer, and the calculated scene change rate is compared with a predetermined threshold to determine whether the frame (tj C ) is a cut point. Determination means.
【請求項17】 請求項16の装置において、上記バッ
ファメモリ手段はフレームtから(t-J) 前までの少なく
ともJ+1フレームの画像データIt,It-1,…,It-J をそ
れぞれ1フレームづつ一時的に保持する第1〜第J+1
フレームバッファを含み、上記画像間距離算出手段は上
記第2〜第J+1フレームバッファからそれぞれ画像デ
ータIt-1,…,It-Jが与えられ、上記第1フレームバッフ
ァから画像データItがそれぞれ共通に与えられ、それぞ
れ画像データItと画像データIt -1,…,It-J間の距離d(t,
t-1),…,d(t,t-J)をそれぞれ算出する第1〜第J画像間
距離算出部を含み、上記距離テーブル手段は上記テーブ
ル上の位置(i,j) の距離データを位置(i+1,j+1) にシフ
トすると共に上記画像間距離算出部からの距離データを
それぞれ上記テーブル上の位置(0,1),…,(0,J)に書き込
むことにより上記距離テーブルを作成する手段である。
The apparatus of claim 17 according to claim 16, the image data I t of at least J + 1 frames of said buffer memory means from frame t to (tJ) before, I t-1, ..., each time one frame one by one the I tJ First to J + 1
It includes a frame buffer, the inter-image distance calculating means each image data I t-1 from the second to J + 1 frame buffers, ..., given I tJ, the image data I t from said first frame buffer is common respectively given, each image data I t and the image data I t -1, ..., the distance between I tJ d (t,
t-1),..., d (t, tJ), respectively, and the distance table means stores the distance data of the position (i, j) on the table. (i + 1, j + 1) and writing the distance data from the inter-image distance calculation unit at the positions (0, 1),..., (0, J) on the table, respectively. Is a means for creating
【請求項18】 請求項16の装置において、上記画像
間距離算出手段は更に限定されたj-i≦g を満たす範囲
において上記画像間距離を算出する手段であり、gはJ
より小予め決めた一定の正の整数である。
18. The apparatus according to claim 16, wherein said inter-image distance calculating means is means for calculating said inter-image distance in a range satisfying a further limited ji ≦ g.
It is a smaller predetermined constant positive integer.
【請求項19】 請求項18の装置において、上記距離
テーブル手段は、時点t−1での上記テーブル内の位置
(i,j) の距離データを位置(i+1,j+1) にシフトし、現時
点tで上記画像間距離算出手段により算出した上記画像
間距離d(t,t-1),d(t,t-2),…,d(t,t-g) を上記テーブル
の位置(0,1),(0,2),…,(0,g)に書き込むことにより時点
tでの上記テーブルを作成する手段である。
19. The apparatus according to claim 18, wherein said distance table means comprises a position in said table at time t-1.
The distance data of (i, j) is shifted to the position (i + 1, j + 1), and the image distances d (t, t-1) and d ( By writing (t, t-2), ..., d (t, tg) at the positions (0,1), (0,2), ..., (0, g) of the table, It is a means to create.
【請求項20】 請求項19の装置において、上記シー
ン変化率算出手段は、上記テーブル上にjC≦j ≦J,0≦
i<jC,j-i≦gにより第1の領域を規定し、その第1領
域内の距離の総和をa(jC) と表し、0≦i<j≦jC-1,j-i
≦gにより第2の領域を規定し、その第2領域内の距離
の総和をb(jC)と表し、jC≦i<j≦J,j-i≦gにより第
3の領域を規定し、その第3領域内の距離の総和をb'(j
C)と表すと、上記シーン変化率として C(t-jC)={a(jC)−βMAX[b(jC),b'(jC)]}/S を計算する手段であり、βは上記第1領域と上記第2又
は第3領域のデータ数を等価するための予め決めた係数
であり、Sは上記第1領域内のデータの数を表す。
20. The apparatus according to claim 19, wherein said scene change rate calculating means stores j C ≦ j ≦ J, 0 ≦
The first area is defined by i <j C and ji ≦ g, and the sum of distances in the first area is represented by a (j C ), and 0 ≦ i <j ≦ j C −1, ji
≦ g defines a second area, the sum of the distances in the second area is represented as b (j C ), and j C ≦ i <j ≦ J, ji ≦ g defines a third area, The sum of the distances in the third area is b ′ (j
C ), means for calculating C (tj C ) = {a (j C ) −βMAX [b (j C ), b ′ (j C )]} / S as the scene change rate. Is a predetermined coefficient for making the number of data in the first area equal to the number of data in the second or third area, and S represents the number of data in the first area.
【請求項21】 請求項19の装置において、上記シー
ン変化率算出手段は、上記テーブル上にjC≦j ≦J,0≦
i<jC,j-i≦gにより第1の領域を規定し、その第1領
域内の距離の総和をa(jC) と表し、0≦i<j≦jC-1,j-i
≦gにより第2の領域を規定し、その第2領域内の距離
の総和をb(jC) と表し、jC≦i<j≦J,j-i≦gにより第
3の領域を規定し、その第3領域内の距離の総和をb'(j
C)と表すと、上記シーン変化率として C(t-jC)={a(jC)−β[b(jC)+b'(jC)]}/S を計算する手段であり、βは上記第1領域と、上記第2
及び第3領域のデータ数を等価するための予め決めた係
数であり、Sは上記第1領域内のデータの数を表す。
21. The apparatus according to claim 19, wherein said scene change rate calculating means stores j C ≤j≤J, 0≤
The first area is defined by i <j C and ji ≦ g, and the sum of distances in the first area is represented by a (j C ), and 0 ≦ i <j ≦ j C −1, ji
≦ g defines the second area, the sum of the distances in the second area is represented as b (j C ), and j C ≦ i <j ≦ J, ji ≦ g defines the third area, The sum of the distances in the third area is b ′ (j
C ), means for calculating C (tj C ) = {a (j C ) −β [b (j C ) + b ′ (j C )]} / S as the scene change rate, where β is The first region and the second region
And a predetermined coefficient for equalizing the number of data in the third area, and S represents the number of data in the first area.
【請求項22】 請求項16の装置において、上記シー
ン変化率算出手段は、上記距離テーブルと同じサイズで
少なくとも1つの所望の種類の予め決められたカット検
出用テンプレートとを有し、時点tで得られた上記距離
テーブルとの類似度を上記シーン変化率として計算する
手段である。
22. The apparatus according to claim 16, wherein said scene change rate calculating means has at least one predetermined kind of predetermined cut detection template of the same size as said distance table, and at time t. This is means for calculating the degree of similarity with the obtained distance table as the scene change rate.
JP31297694A 1993-12-17 1994-12-16 Image cut point detection method and apparatus Expired - Lifetime JP2839132B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31297694A JP2839132B2 (en) 1993-12-17 1994-12-16 Image cut point detection method and apparatus

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP31766393 1993-12-17
JP5-317663 1994-11-30
JP29753394 1994-11-30
JP6-297533 1994-11-30
JP31297694A JP2839132B2 (en) 1993-12-17 1994-12-16 Image cut point detection method and apparatus

Publications (2)

Publication Number Publication Date
JPH08214210A JPH08214210A (en) 1996-08-20
JP2839132B2 true JP2839132B2 (en) 1998-12-16

Family

ID=27338152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31297694A Expired - Lifetime JP2839132B2 (en) 1993-12-17 1994-12-16 Image cut point detection method and apparatus

Country Status (1)

Country Link
JP (1) JP2839132B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7038736B2 (en) 2000-09-21 2006-05-02 Canon Kabushiki Kaisha Moving image processing apparatus and method, and computer readable memory
JP2006330795A (en) * 2005-05-23 2006-12-07 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for creating image topic interval information, and recording medium
JP2011066487A (en) * 2009-09-15 2011-03-31 Ricoh Co Ltd Apparatus, method and program for preparing moving picture thumbnail

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5990980A (en) * 1997-12-23 1999-11-23 Sarnoff Corporation Detection of transitions in video sequences
JP3524007B2 (en) * 1998-10-14 2004-04-26 シャープ株式会社 Moving image scene changing unit detecting apparatus and method, medium storing moving image scene changing unit detection control program, and moving image processing apparatus
KR20010087552A (en) * 2000-03-07 2001-09-21 구자홍 Dissolve/fade detection method for mpeg-compressed video using spatio-temporal distribution of the macro blocks
AR052601A1 (en) 2005-03-10 2007-03-21 Qualcomm Inc CLASSIFICATION OF CONTENTS FOR MULTIMEDIA PROCESSING
US8879857B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
US8948260B2 (en) 2005-10-17 2015-02-03 Qualcomm Incorporated Adaptive GOP structure in video streaming
US8654848B2 (en) * 2005-10-17 2014-02-18 Qualcomm Incorporated Method and apparatus for shot detection in video streaming
JP2007221538A (en) * 2006-02-17 2007-08-30 Fujitsu Ltd Device and method for scene change determination data transfer device, and data transfer method
US9131164B2 (en) 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus
WO2007142646A1 (en) * 2006-06-08 2007-12-13 Thomson Licensing Scene change detection for video
CN103780801A (en) * 2012-10-25 2014-05-07 特克特朗尼克公司 Heuristic method for scene cut detection in digital baseband video
CN114527948B (en) * 2020-11-23 2024-03-12 深圳Tcl新技术有限公司 Method and device for calculating clipping region, intelligent device and storage medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
1.大辻、外村「映像カット自動検出方式の検討」テレビジョン学会技術報告Vo1.16,No.43,pp.7−12〔1992年7月)
2.K.Otsuji and Y.Tonomura"Projection Detecting Filter for Video Cut Detection"Proc.of ACM Multimedia 93,1993,pp251−257 (1993年)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7038736B2 (en) 2000-09-21 2006-05-02 Canon Kabushiki Kaisha Moving image processing apparatus and method, and computer readable memory
US7466365B2 (en) 2000-09-21 2008-12-16 Canon Kabushiki Kaisha Moving image processing apparatus and method, and computer readable memory
US8525935B2 (en) 2000-09-21 2013-09-03 Canon Kabushiki Kaisha Moving image processing apparatus and method, and computer readable memory
JP2006330795A (en) * 2005-05-23 2006-12-07 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for creating image topic interval information, and recording medium
JP2011066487A (en) * 2009-09-15 2011-03-31 Ricoh Co Ltd Apparatus, method and program for preparing moving picture thumbnail

Also Published As

Publication number Publication date
JPH08214210A (en) 1996-08-20

Similar Documents

Publication Publication Date Title
EP0659016B1 (en) Method and apparatus for video cut detection
JP2839132B2 (en) Image cut point detection method and apparatus
EP0729117B1 (en) Method and apparatus for detecting a point of change in moving images
US7221776B2 (en) Video stabilizer
EP0649256B1 (en) Motion compensation of a reproduced image signal
US7916177B2 (en) Image-capturing apparatus, image-capturing method and program for detecting and correcting image blur
US7805011B2 (en) Method and apparatus for providing lossless data compression and editing media content
US7181081B2 (en) Image sequence enhancement system and method
US7231100B2 (en) Method of and apparatus for processing zoomed sequential images
US7123769B2 (en) Shot boundary detection
US20110293176A1 (en) Detection apparatus, detection method, and computer program
US20110255844A1 (en) System and method for parsing a video sequence
JP2001527304A (en) Hierarchical summarization and browsing of digital video
Yan et al. Detection and removal of lighting & shaking artifacts in home videos
AU2002305387A1 (en) Image sequence enhancement system and method
GB2358098A (en) Method of segmenting a pixelled image
EP0780776A1 (en) Apparatus for detecting a cut in a video
CN111723713B (en) Video key frame extraction method and system based on optical flow method
US6847408B1 (en) Method and apparatus for reducing noise in an image sequence
JP3194837B2 (en) Representative screen extraction method and apparatus
Fard et al. Improvement of shot detection methods based on dynamic threshold selection
JPH0993530A (en) Video image change point detector and video image change point detecting method
JPH0537853A (en) Cut automatic division method for moving picture
JP3339544B2 (en) Dissolve detection method and device
JPH1023329A (en) Scene change and/or flash detector

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071016

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081016

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091016

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101016

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101016

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111016

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111016

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121016

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121016

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131016

Year of fee payment: 15

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term