JPH08214210A - 映像カット点検出方法及び装置 - Google Patents

映像カット点検出方法及び装置

Info

Publication number
JPH08214210A
JPH08214210A JP31297694A JP31297694A JPH08214210A JP H08214210 A JPH08214210 A JP H08214210A JP 31297694 A JP31297694 A JP 31297694A JP 31297694 A JP31297694 A JP 31297694A JP H08214210 A JPH08214210 A JP H08214210A
Authority
JP
Japan
Prior art keywords
image
distance
inter
data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP31297694A
Other languages
English (en)
Other versions
JP2839132B2 (ja
Inventor
Yukinobu Taniguchi
行信 谷口
Yoshinobu Tonomura
佳伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP31297694A priority Critical patent/JP2839132B2/ja
Publication of JPH08214210A publication Critical patent/JPH08214210A/ja
Application granted granted Critical
Publication of JP2839132B2 publication Critical patent/JP2839132B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 時間的にゆっくりとしたシーンの変化を検出
でき、テレシネ変換された映像、フラッシュ光を含む映
像を統一的に実時間処理可能とする。 【構成】 バッファメモリ11は、フレーム毎の画像デ
ータ列I0 ,I1 ,…を順次シフトしながらバッファリ
ングし、古いものから破棄していく。画像間距離算出部
12はバッファメモリ11の各画像データの間の距離d
(t-i,t-j)を計算し、順次、距離テーブル部13に格納
する。シーン変化率算出部14は、距離テーブル13を
参照しながら時刻tにおけるシーン変化率C(t-jC)を算
出する。判別部15はこのシーン変化率C(t-jC)をあら
かじめ定めた閾値と比較することで、jCフレーム前の画
像がカット点であるか否か判別する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は映像カット点検出方法及
び装置に係わり、詳しくは、複数枚の画像データの列か
らそのカット点(シーンが切り替わる点)を検出する方
法及び装置に関する。
【0002】
【従来の技術】映像中のカメラのオン・オフや映像編集
のつなぎ目(フェード、ワイプ等)によりシーンが切り
替わる点をカット点という。カメラの動き(パン、ズー
ム等)及び画像中の物体の移動はカットとは見なさな
い。この様な映像カット点の検出はシーンチェンジ検出
とも呼ばれ、従来から様々な方法が提案されている。
【0003】代表的な方法としては、取り込まれた一連
の画像中の時間的に隣合う2枚の画像It,It-1の各対応
する画素における輝度値の差を計算して、その絶対値の
画面全体に渡る和(フレーム間差分)をD(t) とする
と、D(t) がある与えられた閾値よりも大きいとき、t
をカット点とみなす方法がある(大辻、外村、大庭:
「輝度情報を使った動画像ブラウジング」、電気情報通
信学会技術報告、IE90-103,1991)。なお、この場合、フ
レーム間差分の代わりに、画素変化面積、輝度ヒストグ
ラム差分、ブロック別色相関、χ2 検定量などがD(t)
として使われることもある(大辻、外村:「映像カット
自動検出方式の検討」、テレビジョン学会技術報告、Vo
l.16,No.43,pp.7-12)。この方法は、画像中に物体の激
しい移動やフラッシュ光があってもカットとして誤って
検出してしまう問題がある。
【0004】また、D(t) をそのまま閾値処理するので
はなく、各種時間フィルタをD(t)に対して作用した結
果を閾値処理する方法もある(K.Otsuji snd Y.Tonomur
a:"Projection Detecting Filter for Video Cut Detec
tion"Proc.of ACM Multimedia 93,1993,pp.251-257)。
この方法は、映像の中に激しく動く物体やフラッシュ光
があっても誤検出を生じにくいという特徴を持ってい
る。
【0005】
【発明が解決しようとする課題】上記従来技術において
は、以下のような問題点があった。第1の問題点は、時
間的にゆっくりとしたシーンの変化が検出できないこと
である。これは、従来のカット点検出方法ではシーンの
変化の割合を表す量が時間的にとなり合う2フレームだ
けから算出されていて、長時間のシーンの変化がほとん
ど反映されていないからである。
【0006】ゆっくりとしたシーン変化の代表的なもの
として、映像編集段階で挿入されるフェードイン、フェ
ードアウト、ディゾルブ、ワイプといったエフェクト
(特殊効果)がある。フェードインは映像信号レベルを
徐々に上げて画像を徐々に現す技法であり、フェードア
ウトは映像信号レベルを徐々に下げて画像を徐々に消す
技法である。ディゾルブはシーンAからシーンBに移る
際に、シーンAの映像信号レベルを下げながらシーンB
の映像信号レベルを上げていく技法であり、シーンAか
らシーンBへ互いに融け合うようにしてシーンが転換し
ていく。ワイプはシーンAの画像を一部分からぬぐい去
るように消しながら、シーンBの画像を現していく技術
である。これらのエフェクトではシーンがゆっくり変化
する(例えばシーンが完全に転換するまでに1秒程度の
時間がかかる)ので、従来のように時間的に隣合う2枚
の画像(時間間隔は1/30秒程度)を比較する方法で
はその変化を検出できなかった。なぜなら、ゆっくりと
したシーン変化において時間的に隣合う2枚の画像間に
みられる違いは微小で、それが雑音に起因するものか、
シーン変化に起因するものかを判別することは困難だか
らである。
【0007】第2の問題点は、映像中にフラッシュ光が
写っていると、それをカットと誤検出してしまうことで
ある。フラッシュがたかれると一瞬、画像の輝度レベル
が上昇するので、フラッシュがたかれると前の画像とフ
ラッシュ光が写っている画像との差分が急増する。従っ
て、輝度差分の急増をカット点とみなすという従来のカ
ット点検出方法では、フラッシュ光をカット点と誤って
しまう。
【0008】第3の問題点は、テレシネ変換された映像
のカット点が正しく検出できない(取り漏らしが生じや
すい)ことである。テレシネ変換とは、フィルムで撮影
した映像をテレビで放映するときに、フィルムのコマ数
(1秒24コマ)と、テレビ信号のコマ数(1秒30コ
マ)を合わせるための変換である。テレシネ変換にもい
くつかの方式があるが、ある方式では4コマに1コマの
割合でフレームを付加する。このとき挿入されるフレー
ムをその前後の画像のフィールドを合成して作るので、
画像変化が小さくなり、従来のカット点検出法では上述
したディゾルブと同様の理由でカット検出漏れを生じや
すい。
【0009】なお、第2と第3の問題点に対しては、時
間フィルタを作用することによって誤検出、検出漏れを
防ぐ方法がある。しかし、この時間フィルタを設計する
際に映像がどの様な種類のものであるかを予め調べてお
く必要があり、リアルタイム処理に向かない、テレシネ
変換された映像にフラッシュ光が写っていたりすると誤
検出を生じる、といった問題点がある。
【0010】
【課題を解決するための手段】本発明の目的は、上記従
来技術の問題点に鑑み、時間的にゆっくりとしたシーン
の変化を検出でき、テレシネ変換された映像、フラッシ
ュ光を含む映像などを統一的にリアルタイムに処理でき
る映像カット点検出方法及び装置を提供することにあ
る。
【0011】上記目的を達成するために、この発明の映
像カット点検出方法によれば、入力画像データ列につい
て現時点tとそれよりJフレーム前までの画像It,It-1,
…,I t-J 中の0≦i<j≦Jを満足する全ての組の画像
データIt-i,It-jの間の距離d(t-i,t-j)を計算して距離
テーブルを作成し、上記距離テーブル上の距離d(t-i,t-
j)をもとにフレームjCを間に含むフレーム(t-J) からt
までの一連の画像のシーン変化率C(t-jC)をフレーム(t
-jC)におけるシーン変化率として求め、そのシーン変化
率C(t-jC)をあらかじめ定めた閾値と比較して、フレー
ム(t-jC)がカット点であるか否かを判定する。
【0012】この発明の映像カット点検出装置は、時間
的に連続する少なくともJ+1フレームの画像データを
順次バッファリングするバッファメモリ手段と、上記バ
ッファメモリ手段内の現時点tとそれよりJフレーム前
までの上記画像データIt,It- 1,…,It-J について、0≦
i<j≦Jの範囲の2つの画像It-i,It-jの画像データ
間の距離を計算する画像間距離算出手段と、上記画像間
距離算出手段で計算された画像間距離を格納する距離テ
ーブル手段と、上記距離テーブル手段を参照して、フレ
ーム(t-J) からtまでの画像の変化をフレーム(t-jC)に
おけるシーン変化率として算出するシーン変化率算出手
段と、上記算出されたシーン変化率をあらかじめ定めら
れた閾値と比較して、上記フレーム(t-jC)がカット点で
あるか否か判定する判定手段とを含む。
【0013】本発明では、画面変化量として時間的にと
なり合った2枚の画像を比べるだけでなく、時間的に離
れた画像の間の変化量を考慮してシーン変化率C(t-jC)
を算出する。これにより、カット点を安定に検出するこ
とができる。今、画像データ列A,B,*,D,Eのう
ち、画像の*の時刻にシーンが切り替わった状況を仮定
すると、カット前のAとBは互いに類似した画像であ
り、カット以降の*,D,Eもそれぞれ互いに類似した
画像なので、距離d(A,B),d(*,E),d(D,E)は小さいのに
対して、画像*をまたぐ画像間の距離d(A,*),d(A,D),
d(A,E),d(B,*),d(B,D),d(B,E)は大きくなる。この性
質を利用してシーン変化率C(*) を求めれば、カット検
出ができる。
【0014】このようにすればフェード、ディゾルブ、
ワイプといった時間的にゆっくりとシーンが変化する場
合も、そのシーン転換を検出可能である。即ち、時間的
にゆっくりとしたシーン変化を含む画像列A,B,*,
D,Eに対して、時間的に離れた2枚の画像の間の画面
変化量d(A,D) ,d(A,E) ,d(B,D) ,d(B,E) が大き
な値を取るので、これを積極的に利用することで、シー
ン転換を検出できる。
【0015】また、フラッシュ光が映像中に写っていて
もフラッシュ光を誤ってカットとみなすことがない。フ
ラッシュ光を含んでいる画像データ列をA,B,*,
D,E…とし、画像*がフラッシュ光のために他の画像
A,B,D,Eよりも明るくなっていると仮定すると、
画像Aとが像Bの間の距離d(A,B)は小さいが、画像B,
Dに比べて画像*の輝度レベルが上昇しているため、d
(B,*),d(*,D)は大きな値を持つ。従来の方法のいくつ
かは、d(B,*)がある閾値より大きくなったところをカッ
ト点と判定するので、フラッシュ光をカット点と誤認識
してしまうという不都合があった。d(B,*)が大きくなる
のはカット点でも同様であるが、d(*,D)が大きな値を持
つことがフラッシュ光の特徴的性質であり、この性質を
利用すればカット点とフラッシュ光を区別でき、従って
誤認識を防ぐことができる。
【0016】更に、テレシネ変換がかかった映像に対し
ても検出漏れを生じることがなくなる。テレシネ変換が
かかったA,B,*,D,E…のうち、画像A,Bと画
像*,D,Eが別のシーンであると仮定すると、テレシ
ネ変換のために画像*が画像BとDを重ね合わせて合成
した画像である場合があり、この場合にはシーン変化が
あるにも関わらずそれを検出できないことが多かった。
これはとなり合った画像間の距離d(A,B),d(B,*),…,
d(D,E)が、普通のカットのようには急増せず、あらかじ
め定められた閾値を越えないからである。しかし、この
場合にも、画像*をまたぐ2枚の画像の間の距離d(B,D)
が大きくなることに着目すれば時刻*がカット点である
ことが分かる。
【0017】
【実施例】以下、本発明の一実施例について図面を用い
て説明する。図1は、本発明の原理的構成を示すブロッ
ク図である。図1において、適当なサンプルレートで図
示してない画像信号源から取り込まれた画像データ列I
0 ,I1 ,…はバッファメモリ11に入力される。ここ
では1画面毎に取り込まれた画像データを1フレームの
画像データと呼ぶことにし、これらの一連のフレームの
画像データに一連のフレーム番号を付けてある。画像の
サンプリングレート、画像フォーマット、画像サイズは
任意でよい。即ち、NTSC標準映像信号を30frame/
sec でサンプリングしてもよいし、それより粗いサンプ
リングレートでサンプリングしたものでもよい。また、
画像データ列は、NTSCのようなアナログ信号でも、
ディジタル信号でもよい。また外部の画像信号源として
は、ハードディスク、CD−ROM等、蓄積装置に保存
されている画像ファイルであってもよい。バッファメモ
リ11は画像データフレーム列I0,I1,…,Itが順次入
力され、常に現時点tと、それからJ時点前まで遡った
J+1個の画像データIt,It-1,…,It-Jを一時バッフ
ァリングしておく。このバッファメモリ11は、例えば
シフトバッファアレイで構成され、入力された画像デー
タをフレーム毎に順次シフトしながらバッファリング
し、古いものから破棄していく。従って、バッファメモ
リ11には、常に所定枚数の画像データが入力順に保持
される。なお、バッファメモリ11は画像データを処理
して2次的に得られるデータを格納するものであっても
よい。例えば、輝度ヒストグラムや色ヒストグラムのデ
ータを格納するものであってもよいし、エッジ情報を格
納するものであってもよい。ここでは、これらも含めて
画像データで総称する。
【0018】画像間距離算出部12は画像データIt
入力される毎に2枚のフレームの画像データIt-iとIt-j
の間の距離、即ち画像間距離d(t-i,t-j)を例えば後述の
ようにi=0かつj=1,2,…,Jについてそれぞれ
計算する。画像間距離とは、いわゆる2枚の画像の間の
“違い”を表す量であり、2枚の画像It-i,It-jが全く
同じであればd(t-i,t-j)=0となり、“違い”が大きけ
れば大きいほど大きな値を取る。画像間距離算出部12
から出力される画像間距離d(t-i,t-j)は距離テーブルメ
モリ部13に格納される。画像間距離算出部12では、
バッファメモリ11に新しいフレームの画像データIt
が格納される毎に、該画像データとバッファメモリ11
内の他のフレームの画像It-1,It-2,…との画像間距離
を算出し、距離テーブルメモリ部13の内容を更新す
る。距離テーブルメモリ部13には時点(フレーム番
号)tにおいて0≦i<j≦Jを満足する全ての組の
i,jについてのd(t-i,t-j)をテーブルとして一時的に
保持する。以降の説明では、距離テーブルメモリ部13
内に作成される距離テーブルも同じ参照番号13で表す
ものとする。図1ではJ=3の場合を示している。新し
いIt がバッファメモリ11に入力される毎に距離算出
部12で計算したi=0,j=1,2,…,Jでの画像間距離d(t,t-
j)を距離テーブル13内の位置(0,j) (テーブルメモリ
部13のアドレスに対応させてある)にそれぞれ書き込
むと共に、距離テーブル13内のそれまでの位置(i,j)
で指定される距離データd(t-i,t-j)を距離テーブル13
内の位置(i+1,j+1) にシフトし、シフト先の位置(i+1,j
+1) が0≦i+1<j+1≦Jの範囲外となるデータは捨て
る。
【0019】シーン変化率算出部14は、距離テーブル
13を参照しながらシーン変化率C(t-jC)を求める。シ
ーン変化率C(t-jC)はいわゆるカット点の確からしさを
表す量であり、実施例では−1以上1以下の値を取り、
1に近いほどカットである確率が高いように構成され、
判定部15はC(t-jC)がある閾値より大きいとき、その
時刻tがカット点であると判定する。シーン変化率C(t
-jC)を規定する関数は後述するようにカットの種類に応
じて最適な関数を選ぶ。
【0020】以下に、画像間距離算出部12、距離テー
ブルメモリ部13、シーン変化率算出部14の動作につ
いて具体例に基づいて説明する。いま、現時点tにバッ
ファメモリ11に得られているフレーム毎の画像データ
列It-7,It-6,…,Itは、図2に示すシーケンスになっ
ているとする。図2において、フレームIt-7,It-6,I
t-5,It-4は全画面が黒である画像(全画素の輝度値が
最小の0)である。It-3,It-2,It-1,Itは全画面が白
(全画素の輝度値が最大のBMAX)である。即ち、画像I
t-3に対応するフレーム番号(時刻に対応)t−3がカ
ット点tCである場合を考える。
【0021】まず、画像間距離算出部12において計算
する画像距離を規定する関数の例をいくつか以下に挙げ
る。距離関数の第1の実施例は、フレーム間の輝度差分
の絶対値の全ての画素位置(x,y) についての総和 d(t-i,t-j)=Σx,y|Ii(x,y)−Ij(x,y)|/(BMAX×P) (1) を使うものである。ただし、Pは1画面の全画素数を表
し、Ii(x,y)及びIj(x,y)はそれぞれ画像It-i及びIt-j
画素(x,y) における輝度値を表す。また輝度値は輝度に
対応した強度で表され、画像がカラー画像の場合、輝度
値はR,G,B画像信号の各強度で表されるものとす
る。この例ではフレーム間差分の総和を全画素が最大輝
度BMAXの場合の明るさで正規化している。従って距離は
0≦d(t-i,t-j)≦1の範囲である。例えばBMAX=255とす
ると、図2の画像I0 ,I4 間の距離はd(t,t-4)=Σ
x,y|0−BMAX|/(BMAX×P)=1.0と計算される。
【0022】距離関数の第2の実施例は、2つの画像の
輝度値あるいは色のヒストグラムを比較する方法であ
る。輝度値のヒストグラムとは、1フレームの画像中の
各画素の輝度を予め決めたN個の段階の輝度にクラス分
けした場合に、それぞれの輝度のクラスに属する画素の
数(累積値又は頻度と呼ぶ)で表される。画像It-i及び
It-jの輝度値のヒストグラムをそれぞれHi(n)及びH
j(n),n=1,2,…,Nとすると、距離関数を次式 d(t-i,t-j)=Σ|Hi(n)−Hj(n)| (2) Σはn=1からNまで で表す。ただし、Nはヒストグラムの段階数である。カ
ラーヒストグラムの場合は、R,G,B信号レベルのヒ
ストグラムをそれぞれHR(n),HG(n),HB(n)とする
と、画像間距離は次式で表される。
【0023】 d(t-i,t-j)=Σ{|HRi(n)−HRj(n)|+|HGi(n)−HGj(n)| +|HBi(n)−HBj(n)|} (3) Σはn=1からNまで 距離関数の第3の実現例は、画像It-i,It-jの各画素の
差分のヒストグラムの中心からの偏りを表す統計量をd
(t-i,t-j)とする方法である。まず、2枚の画像It-i,I
t-jの間の差分δ(x,y)=Ii(x,y)−Ij(x,y) を全画素に
渡って求める。ここで、Ii(x,y)及びIj(x,y)はそれぞ
れ画像It-i及びIt-jの画素(x,y) における輝度値を表
す。この差分のヒストグラムの例を図3A,3Bに示
す。図3Aは、画像It-i,It-jが同じシーンに属する、
即ち2枚の画像の間にカット点を含まない場合の典型的
なヒストグラム形状を示したものである。図のように、
映像の中に写っているものが多少動いても大半の画素で
輝度値の変化は小さいから、差分は0付近に集中してい
て、0から離れるほどヒストグラムにおける累積値が小
さくなっている。これに対して、図3Bに、画像It-i
It-jの間にカット点を含む場合のヒストグラム形状の一
例を示す。図のように、図3Aとは違ってヒストグラム
が0付近に急峻な山を持たず、裾野が高く広がった山形
になる。そこで、ヒストグラムの裾野が高いほど、画像
間距離が大となるように距離を表す関数を規定すればよ
い。ヒストグラムの裾野が高いほどd(t-i,t-j)が大きく
なるような統計量の具体例としては、差分δ(x,y) の標
準偏差εを次式のように距離関数として使ってもよい。
【0024】 d(t-i,t-j)=ε={Σx,y[δ(x,y)−δ']21/2 (4) ただし、δ' は全画素についてのδ(x,y) の平均を表
す。また、第4の距離関数として次式 d(t-i,t-j)=CNTPIX{|δ(x,y)|>ε} (5) で表されるように、It-iとIt-jの差分δ(x,y) の絶対値
が標準偏差εを越える画素数をカウントしたものを距離
としてもよい。この距離関数の例では、画像間距離を求
めるべき2つの画像It-iとIt-i間の差分の標準偏差εを
使う場合を説明したが、これらの画像よりmフレーム前
の画像It-i-mとIt-j-m間の差分δ( x,y)の標準偏差εm
を使って上述と同様に次式 d(t-i,t-j)=CNTPIX{|δ(x,y)|>εm } (5′) で表されるように画像It-i-mとIt-j-m間の差分の絶対値
がεm を越える画素数を計数した値を画像間距離として
もよい。mは1以上の予め決めた一定整数であり、m=
0とした場合は式(5)と同じ距離関数を表すことにな
る。
【0025】第5の距離関数として、上述のような画像
間差分の標準偏差を使って画像間距離を求める場合、次
のように距離関数を決めてもよい。即ち、距離を求める
べき画像の組It-iとIt-jに対し、それらよりkフレーム
前の画像の組It-i-kとIt-j-k間の輝度差分δ(x,y)の標
準偏差εk をk=1からk=nまでのn組についてそれ
ぞれ求め、それらの標準偏差εk の平均値T=Σkεk/n
を上式(5′)のεmと同様に使って次式 d(t-i,t-j)=CNTPIX{δ(x,y)>T} (6) で表されるように、画像It-iとIt-j間の差分δ(x,y) の
絶対値がTを越える画素数を計数して距離とする。この
方法によれば、撮影時の手ブレやカメラの急な動きに起
因する画像変化をカットして誤検出することを防ぐ効果
がある。
【0026】更に第6の距離関数として、画像It-iを図
4に示すように予め決めたサイズのブロックに分割し、
各ブロック毎に画像It-jのどの部分とマッチするか調べ
て、いずれの部分にもマッチしないブロックを計数しそ
の計数値を距離d(t-i,t-j)とする。即ち、画像It-iのあ
るブロックが画像It-j上のどの位置に移動しているかを
検出し、移動検出できなかったブロックの数を計数して
距離とする事を意味している。画像It-i中の各ブロック
(例えばp×q画素)と画像It-j上の任意の領域とのマ
ッチングを規定する関数としては、例えばそのブロック
のp×q画素の輝度値の配列を1つのベクトルとし、画
像It-jの同じサイズの比較すべき領域の輝度値配列をも
う1つのベクトルとし、これら2つのベクトル間の距離
を次式 D=Σp,q{bj(p,q)−bi(p,q)}2 で表し、距離Dが予め決めた閾値Dth以下の場合、その
ブロックと、比較した領域はマッチしたと判定し、Dが
thを越えた場合はマッチしなかったと判定する。画像
It-j上の比較すべき領域はマッチング距離をチェックす
る毎に予め決めた画素数ピッチで順次シフトさせること
を画像It-jの全面に渡って繰り返す。同様に画像It-i
他のブロックについても画像It-j中にマッチする部分が
あるかをそれぞれ判定し、マッチングのとれなかったブ
ロックの数を2つの画像間の距離とする。従って画像間
距離を次式 d(t-i,t-j)=CNTBLK{D>Dth} (7) のように表すことができる。
【0027】次に、距離テーブル13について説明す
る。距離テーブル13は上記画像間距離算出部12で求
めた画像間距離d(t-i,t-j)をJ(i=0,…,J-1)×J(j=1,
…,J)の表にしたものであり、この表のサイズはJであ
ると呼ぶ。距離テーブル13は例えば計算機内のメモリ
上に確保された領域に展開され、メモリを有効使用する
ために必要がなくなったデータ領域はその上に新しい距
離データを上書きして使用する。
【0028】図2に示す画像データ列に対して、0≦i
<j≦7の範囲の整数i,jの全ての組について式(1)
で計算した画像間距離d(t-i,t-j)の値を時刻tで得られ
る表として図5に示す。d(t-i,t-j)は一般に対称性を持
っており、d(t-i,t-j)=d(t-j,t-i)が成り立つので、図
5の距離テーブルのi>jの領域は計算する必要がな
い。更に、後述のように例えば図5の距離テーブルにお
いて、0<j−i≦3を満たすd(t-i,t-j)だけ求めると
いうようにしてもよい。
【0029】図6は図5の距離テーブルの特徴を示す図
である。時点、即ちフレーム番号(t-jC)がカット点であ
る場合(図5の例ではにはjC=4)、距離テーブルは、
領域A1における画像間距離の値が領域A2,A3にお
ける画像間距離の値に比べて大きな値を持つという特徴
がある。領域A1はi<jC≦jを満たす領域であり、領
域の左下角における画像間距離はd(t-jC-1,t-jC)に対応
している。領域A2はi<j≦jC-1を満たす領域であ
り、領域A3はjC≦i<jを満たす領域である。
【0030】図7は画像データ列の別の例を示したもの
で、フレーム(t-4) に対応する画像It-4にフラッシュ光
が写っている例である。この画像データ列に対する式
(1)による時点tで得られる距離テーブルは図8のよう
になる。図9は、この距離テーブルの特徴を説明する図
で、フラッシュ光がフレーム(t-jF)に写っている場合に
は、領域A1,A2,A3内の画像間距離の値が領域A
4で示すi=jF及びj=jF上の値に比べて小さな値を取
る。図10は画像データ列の更に他の例で、これはテレ
シネ変換処理を受けた画像列中にカットが含まれる例で
ある。図10において、フレーム(t-4) の画像は画像I
t-3とIt-5の重ね合わせにより合成されたものであり、
偶数フィールドが黒、奇数フィールドが白の縞状の画像
になっている。図11は図10の画像データ列に対する
式(1)による時点tでの距離テーブルを示し、図12は
この距離テーブルの特徴を示す図である。画像It-4のよ
うなテレシネボケ画像がフレーム(t-jT)(図10ではjT
=4)にあると、図12に示すように、領域A2,A3
の画像間距離の値が領域A1の値に比べて小さな値を取
り、領域A4で示すi=jT及びj=jT上の画像間距離の
値は領域A2,A3における値と領域A1における値の
中間程度の値を取る。
【0031】図13はフェードを含む画像データ列の例
である。図13において、画像It-7,It-6が全画面黒の
画像であり、画像It-2,It-1,Itが全画面が白の画像で
あり、そのあいだの画像It-5,It-4,It-3で徐々に画面
が明るくなる。図14は、この画像データ列に対する式
(1)による時点tでの距離テーブルを示し、図15がそ
の特徴を示す図である。時刻tと共に画像にゆっくりと
したシーン変化が起こっていれば、図15に示す領域A
の右上角から遠ざかるほど画像間距離が小さくなる傾向
がある。
【0032】上述の各種距離テーブルにおいて注目すべ
きことは、時点tにおいて得られている距離テーブル中
の各位置(i,j) の画像間距離データd(t-i,t-j)はd(t-1-
i+1,t-1-j+1)と書き換えることができることから明らか
なように、直前の時点(t-1)において作成した距離テー
ブルにおける位置(i-1,j-1) の距離データと同じである
ことである。即ち、時刻tが更新される毎に距離テーブ
ル中の位置(i,j) の画像間距離データd(t-i,t-j)は位置
(i+1,j+1) にシフトすると共に、最新の距離データd(t,
t-1),d(t,t-2),…,d(t,t-J)がテーブルの位置(0,1),(0,
2),…,(0,J) に書き込まれることになる。このデータの
シフトによるシフト先の位置(i+1,j+1)がテーブルの外
に出るデータは捨てられる。従って、各時点tで距離テ
ーブルの作成のために新たに計算する必要がある画像間
距離はd(t,t-1),d(t,t-2),…,d(t,t-J) のみである。 [シーン変化率]次に、シーン変化率算出部14につい
て説明する。シーン変化率C(t-jC)は予め決めた関数に
より、時刻tで得られているJフレーム前までの画像か
ら得た画像間距離テーブルのデータを使って計算する。
時刻tについて計算されたシーン変化率C(t-jC)は現時
点からjCフレーム前の画像がカットであるか否かを判定
する評価量であり、予め決めた閾値Cthと比較してそれ
より大きければカットであると判定する。シーン変化率
算出部14では、カット点、フラッシュ光、テレシネボ
ケ、ゆっくりとしたシーン変化のそれぞれについて距離
テーブル13が上述した特徴を持つことを利用してシー
ン変化率を計算し、判定部15は計算されたシーン変化
率C(t-jC)を閾値Cthと比較してフレーム(t-jC)がカッ
トであるか否かを判定する。シーン変化率算出部14に
おけるシーン変化率を規定する関数の例を示す。jcは0
<jc≦J を満足する予め決めた一定整数である。
【0033】図5に示す瞬時カットを含む画像列による
距離テーブル、及び図11に示すカットを含むテレシネ
変換画像列による距離テーブルの例から分かるように、
シーン変化点(カット点)がある場合、テーブルの領域
A1内の画像間距離値は大きく、領域A2,A3内の画
像間距離値は小さい。図14のフェードが画像列中にあ
る場合の距離テーブルにも、その距離テーブルに図6、
13と同様な領域A1,A2,A3を当てはめると同様
な傾向があることが分かる。これに対し、図8に示した
フラッシュを含む画像列による距離テーブルでは領域A
1,A2,A3内の距離値は全てほぼ同じ値となってい
る。そこで、これらの領域A1,A2,A3に着目し、
現時点tでJフレーム前までの画像から図16に示すよ
うなサイズJの距離テーブルを0≦i<j≦Jかつj-i≦
g の範囲で求める。gは0<g≦Jを満足する予め決
めた一定の整数であり、図16はg=jC-1の場合を示し
ている。jCの値は、例えばJ/2 を越える最小の整数とす
る。この距離テーブルにおいてシーン変化率の関数を次
のように規定する。
【0034】 C(t-jC)={a(jC)−βMAX[b(jC),b'(jC)]}/S (8) a(jC)=Σi,jd(t-i,t-j) for 0≦i<jC≦j≦J,j-i≦
g b(jC)=Σi,jd(t-i,t-j) for 0≦i<j≦jC-1,j-i≦
g b'(jC)=Σi,jd(t-i,t-j) for jC≦i<j≦J,j-i≦g a(jC) は領域A1内の×印しで示す全ての画像間距離の
和であり、b(jC) は領域A2内の△印で示す全ての画像
間距離の和であり、b'(jC)は領域A3内の△印で示す全
ての画像間距離の和である。MAX[b(jC),b'(jC)]はb
(jC) とb'(jC)のいずれか大きい方の値をとることを表
す。また、Sは領域A1内の距離データ数(×印の数)
を表しており、図16の例ではS=(jC-1)jC/2である。
Jが奇数ならば領域A2内のデータ数と領域A3内のデ
ータ数は等しい。βは領域A1内のデータ数Sと領域A
2またはA3内のデータ数を等価にするための係数であ
る。図16の領域A1,A2,A3の設定によれば、J
が奇数の場合はA1内のデータ数、A2内のデータ数及
びA3内のデータ数は全て等しいのでβ=1である。
【0035】g=Jの場合は、距離テーブルの右上角
(0,J) まで含む全領域を使うことになる。その場合、S
=jC(J-jC+1)であり、β=2(J-jC+1)/(jC-1)は約2とな
る。図2、10、13に示す距離テーブルの領域A1内
はほぼ全面に渡って大きな距離値を示すので、g<Jと
なるようにgを選ぶことにより右上角の位置(0,J) を含
むある程度の大きさの隅領域を除いても、領域A1内の
距離値が領域A2,A3内の距離値に比べて大きな値で
ある特徴は保たれている。従って、式(8)によりカット
点を検出することができる。前述のように距離値の分布
は時刻tが更新される毎に右下方向に1段シフトしてい
くので、g<Jの場合、時刻tが更新される毎に距離テ
ーブルを作成するのに必要な新たに計算しなければなら
ない画像間距離はd(t,t-1),d(t,t-2),…,d(t,t-g) のg
個だけであり、カット検出能力を低下させずに演算量を
削減できる。gの値を小さく選べばそれだけ必要な演算
量は低減されるが、gの値が小さすぎるとカット検出の
エラーが増加するので好ましくはjC-1≦g<Jの範囲と
する。
【0036】時点tにおいて得られた図16に示す距離
テーブルのデータを式(8)に代入して得られたシーン変
化率C(t-jC)が予め決めた閾値Cthより大であればjC
のフレーム(t-jC)の画像においてシーンの変化(カッ
ト)があったと判定する。例えばJ=5,g=jC=3の
場合の距離テーブル上の領域A1,A2,A3の例を図
17に示す。領域A1のデータ数Sは6であり、領域A
2,A3のデータ数は何れも3であるので、β=2とす
ればよい。C(t-jC),a(jC),b(jC)及びb'(jC)は図17
から理解されるように次式で与えられる。
【0037】 C(t-jC)={[a(jC)−2MAX[b(jC),b'(jC)]}/6, (9) a(jC)=d(t-2,t-3)+d(t-1,t-3)+d(t,t-3) +d(t-2,t-4)+d(t-1,t-4)+d(t-2,t-5), b(jC)=d(t,t-1)+d(t,t-2)+d(t-1,t-2), b'(jC)=d(t-3,t-4)+d(t-3,t-5)+d(t-4,t-5) ここで、a(jC) は図17に示す領域A1に属するd(t-i,
t-j)の和であり、b(jC)は領域A2に属するd(t-i,t-j)
の和であり、b'(jC)は領域A3に属するd(t-i,t-j)の和
である。従って画像間距離関数として式(1)を使った場
合は、シーン変化率C(t-jC)は常に−1≦C(t-jC)≦1
の範囲の値となる。
【0038】上述した通り、フレーム(t-jC)がカット点
である場合には、a(jC) がb(jC) 及びb'(jC)の値より大
きくなるので、C(t-jC)は正の値を持つ。別の言い方を
すれば、a(jC) は6つの連続する画像の前3つと後3つ
からそれぞれ1つずつ選択したフレーム間隔が3以内の
2つのフレームの全ての組の画像間距離を加算した量で
あり、時刻(t-jC)で大きくシーンが変わっていれば、a
(jC) は大きな値を持つはずである。b(jC) はフレーム
(t-jC)とそれ以前の合計3つの画像において、全ての組
の2枚の画像間の距離を加算した量であり、フレーム(t
-jC)以前のシーンの動きが小さければ小さいほど小さな
値を取る。b'(jC)はフレーム(t-jC)より後の3つの画像
において、全ての組の2枚の画像間の距離を加算した量
であり、フレーム(t-jC)より後に現れたシーンの動きが
小さければ小さいほど小さい値を取る。
【0039】例えば図17の距離テーブルに基づいて式
(9)に具体的数値を適用するため、図5の距離テーブル
において図17に示す領域パターンマップをその位置
(i,j)=(4,5) が図5のテーブルの位置(i,j)=(6,7) に一
致するように重ねて、対応する領域のデータを使って時
点(t-1) におけるシーン変化率C(t-jC)(ただし図17
におけるjC=3)を次のように計算する。
【0040】a(3)=0+0+0+1+1+1=3, b(3)=0+1+1=2, b'(3)=0+0+0=0, C(t-1-3)=(3-2×2)/6=-1/6=-0.16 次の時点tにおいては、図17の領域パターンマップを
一段左上にシフトする。その結果、図5中の位置(1,2),
(1,3),(1,4) におけるデータ0,0,1が最新の距離デ
ータとして図17中の位置(0,1),(0,2),(0,3) に書き込
まれる。この状態でのシーン変化率は次のように計算さ
れる。
【0041】a(3)=1+1+1+1+1+1=6, b(3)=0+0+0=0, b'(3)=0+0+0=0, C(t-3)=(6-2×0)/6=1.0 これら2つの計算例において、時点(t-1) における距離
テーブルから計算したシーン変化率C(t-4)の値は負であ
り、カットは生じていない。これに対し、時点tにおけ
る距離テーブルから計算されたシーン変化率C(t-3)は1
となっており、例えば閾値Cth=1/16と設定しておけ
ば、時点tにおいて3つ前のフレーム(t-3)にカットが
検出されたことを意味する。なお、閾値Cth=1/16は判
定エラーが最も少なくなるように実験により決めた値で
ある。
【0042】この例で分かるように、カット点のところ
でC(t-jC) は1に近い値を取る。また、例えば手ぶれや
パン(カメラを水平に動かす操作)が映像中に存在して
も、それをカット点であると誤検出してしまうことが少
なくない。なぜなら、手ぶれやパンがある場合にもa
(jC) が大きな値を持つが、同時にb(jC) ,b'(jC)が大
きな値を持つため、式(2)では互いに打ち消し合ってC
(t-jC) が小さくなるからである。
【0043】式(9)を図17に適用して実際の一連の入
力画像に付いてカットを検出するには、常に現時点tか
ら5フレーム前までの6つのフレームに付いて図17の
領域A1,A2,A3内の画像間距離d(t-i,t-j)が得ら
れておればよく、しかも時刻tが更新される毎に図17
中の位置(0,1),(0,2),(0,3) の画像間距離のみ新たに計
算し、それまで保持していたデータは全て一段右下にシ
フトするだけでよい。
【0044】次に、図7に示したフラッシュ光が画像列
入っている場合の図8のデータに対し、図17の領域パ
ターンマップを上述と同様に適用して式(9)によりシー
ン変化率を時点(t-1),t,(t+1) に付いて計算した結果を
示す。 C(t-1-3)=(3-2×2)/6=-1/6=-0.16 C(t-3)=(3-2×2)/6=-1/6=-0.16 C(t+1-3)=(2-2×2)/6=-2/6=-0.3 この計算結果から分かるように、時点(t-1) とtの何れ
の場合も図9に示す領域A4内のi=jF上の3つの
“1”とj=jF上の4つの“1”のうちの3つとが相殺
し合うので、シーン変化率C(t-4),C(t-3)が閾値1/16よ
り小さくなっており、フラッシュ光をカット点として誤
検出する事がない。従来方法では、図8におけるd(t-3,
t-4)が大きな値を取るのでフレーム(t-4) をカット点で
あると誤判定することが多かった。
【0045】図10に示したように画像列にテレシネボ
ケ画像が画像列中に入っている場合には、図12に示す
領域A4内の距離値は中間的値であるが、領域A1内の
距離値が大きいのでC(t-jC)は1に近い値を取る。前述
と同様に図11の距離テーブルに対し図17の領域パタ
ーンマップを時点(t-1), t, (t+1) の位置に重ねて式
(9)によりC(t-jC)をそれぞれ算出すると、 C(t-1-3)=(4.5-2×1)/6=5/12=0.4 C(t-3)=(4.5-2×1)/6=5/12=0.4 C(t+1-3)=(2-2×2)/6=-1/3=-0.3 が得られる。C(t-3)>1/16,C(t-4)>16なのでフレーム
(t-3) 及び(t-4) がカット点であると正しく判定され
る。即ち、この例では複数のフレームに渡ってカットが
続いていることを示している。図11のd(t-3,t-4), d
(t-4,t-5)のように画像間距離が小さいと、従来方法で
はフレーム(t-4),(t-5) をカット点として検出できない
場合が多かった。
【0046】図13に示したように画像列にフェード等
のゆっくり変化する複数画像を含む場合は、図15に示
す領域Aの右上ほど大きな値をとることから、前述と同
様に図14の距離テーブルに対し図17の領域パターン
マップを時点(t-1), t,(t+1)の位置に重ねて式(9)によ
り計算したC(t-jC)は次のようになる。 C(t-1-3)=(3.5-2×0.8)/6=0.31 C(t-3)=(3.0-2×1.2)/6=0.1 C(t+1-3)=(2.1-2×1.0)/6=0.016 となり、シーンが変化していることを正しく検出でき
る。
【0047】なお、シーン変化率算出部14が計算する
シーン変化率C(t-jC)を規定する式としては、 C(t-jC)={a(t)−β[b(t)+b'(t)]}/S, (10) a(jC)=Σi,jd(t-i,t-j) for 0≦i<jC≦j≦J, j-i≦
g b(jC)=Σi,jd(t-i,t-j) for 0≦i<j≦jC-1, j-i≦
g b'(jC)=Σi,jd(t-i,t-j) for jC≦i<j≦J, j-i≦g を使ってもよい。
【0048】図18は、本発明により入力画像列中の映
像カット点をリアルタイムで検出する方法の一実施例の
処理フロー図である。ここで、処理がリアルタイムであ
ることは、映像を標準的な速度で表示、記録、転送しな
がら映像カット点検出処理ができることを意味する。ま
た、画像が1フレーム入力される毎の時刻tと一連の画
像のフレーム番号とは同じものとし、距離テーブル13
は図17に示すのと同じJ=5,g=jC=3とする。
【0049】ステップS1では、時刻tを0に初期化す
る。即ち、処理開始時刻を0とみなす。ステップS2で
は時刻tにおける画像をバッファメモリ11に読み込む
処理を行う。この処理には、例えば前処理として、映像
信号をA/D変換して処理可能なディジタルデータに変
換する処理も含まれる。ステップS3では、距離テーブ
ル中のデータ領域A1,A2,A3内の各位置(i,j) の
データd(t-i,t-j)を位置(i+1,j+1) にシフトし、画像間
距離算出部12において、j=1,2,3 について例えば式
(1)により画像間距離d(t,t-j)を求め、距離テーブル1
3の位置(0,1),(0,2),(0,3) に格納する。この場合、時
間的に隣り合う画像の間の距離d(t,t-1)だけではなく、
d(t,t-2),d(t,t-3)などの時間的に離れた画像間の距離
を算出して利用する点で従来方法とは異なる。ステップ
S4では、シーン変化率算出部14において、距離テー
ブル13のデータを使って、例えば式(9)によりシーン
変化率C(t-3) を求める。ステップS5では、C(t-3)
が閾値1/16より大か小か比較しC(t-3)>1/16の場合、フ
レーム(t-3) がカット点と判定し(ステップS6)、C
(t-3)≦1/16の場合、フレーム(t-3) はカット点でない
と判定する(ステップS7)。その後、ステップS8で
時刻tを1だけ増し、ステップS2に戻る。
【0050】なお、上述した式(9)を用いてシーン変化
率C(t-jC)を求める場合には、図18の処理フローから
も分かるように、時刻tの時に初めて時刻(t-jC)のカッ
ト点判定ができるので、時間的にjC画像だけカット点検
出に遅延が生じるが、応用上問題はない。また、実際に
はステップS4のシーン変化率の計算とそれ以降のステ
ップS5〜S7の処理は、図17に示すテーブルの領域
A1,A2,A3がデータで満たされるまで実行せず、
ステップS2,S3,S8を所定回数繰り返してテーブ
ルのこれら領域がデータで満たされてからステップS4
〜S7の処理の実効を可能とする。図17の場合、最初
の画像フレームが入力されてから、更に3×5フレーム
の画像が入力されると距離テーブル13の3つの領域が
距離データで満たされる。普通、映像の開始後、数10
フレームでカットがあることはないので、最初のフレー
ムから数10フレームのあいだカットの検出を行わなく
ても問題はない。
【0051】シーン変化率を規定する他の関数の例を次
ぎに説明する。図5、8、11、14などで説明したよ
うに、距離テーブルに示される画像間距離データは画像
列中に存在するシーン変化の種類により特徴的な分布を
示す。そこでそれらの検出したい1つ又は複数の種類の
シーン変化(カット)にそれぞれ代表的な距離データ分
布のテーブルをシーン変化率算出部14にそれぞれ予め
用意しておく。これをテンプレートと呼ぶ。図19A,
19B,19Cはそれぞれ瞬時カット検出用テンプレー
トTCT(i,j)、フェード検出用テンプレートTFD(i,j)及び
フラッシュ検出用テンプレートTFL(i,j)の例であり、い
ずれもサイズはJ=5の場合である。ここで示すシーン
変化率C(t-jC) は1フレームの画像データが入力される
毎に作成したこれらと同じサイズJの図20に示すよう
な距離テーブルとテンプレートとの間の類似度によって
規定する。テンプレートとの類似度は、例えば相互相関
係数R(d,T)によって表す。その場合は、次式で表すこと
ができる。
【0052】 C(t-jC)=R(d,T) =Σi,j{d(t-i,t-j)−dAV}{T(i,j)−TAV}/(σdσT)1/2 (11) dAV=1/SΣi,jd(t-i,t-j) : d(t-i,t-j)の平均値 TAV=1/SΣi,jT(i,j) : T(i,j)の平均値 σd=1/SΣi,j{d(t-i,t-j)−dAV2 : d(t-i,t-j)
の分散 σT=1/SΣi,j{T(i,j)−TAV2 : T(i,j)の分散 ただし、i,jは0≦i<j≦Jを満足する全ての組で
あり、Sはその組の数であり、Σi,j はその全ての組に
ついての総和を表す。この場合も、テンプレート及び距
離テーブルの領域をj−i≦g,0<g<Jに制限して
もよい。
【0053】シーン変化率算出部14は各入力画像フレ
ーム毎に求めた図20に示す距離テーブルと図19A,
19B,19C等に示すテンプレートの所望の1つ又は
複数との類似度R(d,T) をシーン変化率として式(11)に
よりそれぞれ計算し、その値が予め決めた閾値Rthより
大であれば対応するシーン変化がフレーム(t-jC)にある
と判定する。
【0054】図21は上述の複数のテンプレートを使っ
てどの様なシーン変化(カット)が入力画像列中のどの
フレームに存在するかを検出する処理フローを示し、基
本的な手順は図18と同様である。ただし、この例では
フラッシュはカットではないが、画像列中の検出対象の
1つとして加えてある。ステップS1で時刻tを0に初
期化し、ステップS2で現時点tの画像データを取り込
む。ステップS3で距離テーブルの全ての位置(i,j) の
距離データd(t-i,t-j)を位置(i+1,j+1) にシフトする。
バッファメモリ11(図1)に保持されているJフレー
ム前までのJ+1枚の画像フレームを使って画像間隔距
離d(t,t-j),j=1,2,…,J を例えば式(1)により計算し、
テーブル中の位置(0,j) にそれぞれ書き込むことにより
現時点tでの距離テーブルを得る。ステップS4で図1
9Aの瞬時カット検出用テンプレートと現時点での距離
テーブルの類似度を式(11)により計算する。ステップS
5で類似度を所定の閾値Rthと比較し、閾値以下であれ
ば瞬時カットはなかったと判定してステップS6に進
み、図19Bのフェード検出用テンプレートと現時点の
距離テーブルの類似度を式(11)により計算する。ステッ
プS7でフェード検出用テンプレートとの類似度を閾値
thと比較し、閾値以下であればフェードはなかったと
判定してステップS8に進み、図19Cのフラッシュ検
出用テンプレートと現時点の距離テーブルの類似度を式
(11)により計算する。ステップS9でフラッシュ検出用
テンプレートとの類似度を閾値Rthと比較し、閾値以下
であればフラッシュはなかったと判定し、ステップS1
0で時刻tを更新してステップS2に戻る。ステップS
5,S7,S9のいずれにおいても類似度が閾値Rth
り大であった場合は、対応するシーン変化がフレーム(t
-jC)にあったと判定し、ステップS10で時刻を更新し
てステップS2に戻る。
【0055】以上この発明のカット検出方法の原理を具
体例により説明したが、この発明のカット検出方法を実
施するカット検出装置は図1の構成のみでなく、以下に
説明するような構成も可能である。図22はカット検出
装置の他の実施例であり、図1のバッファメモリ11と
対応してJ+1 個のフレームバッファ110 〜11J が設けら
れ、また図1の画像間距離算出部12に対応してJ個の
画像間距離算出部121 〜12J が設けられている。新しい
画像フレームItをバッファに格納する前に、それまでフ
レームバッファ110〜11J-1 に保持されている画像フレ
ームをバッファ111 〜11J にそれぞれ転送し(従ってバ
ッファ11J にそれまで保持されていた画像データは捨て
られる)、新しい画像フレームItがバッファ110 に書き
込まれる。全てのバッファに画像フレームの格納が完了
すると、画像間距離算出部121 〜12J はそれぞれフレー
ムバッファ111 〜11J から読み出された画像フレームI
t-1,It-2,…,It-J が与えられると共に、フレームバッ
ファ110 から現時点tでの最新画像フレームItが共通に
与えられ、それぞれ画像間距離d(t,t-1),d(t,t-2),…,d
(t,t-J) を例えば式(1)を使って計算する。これらの画
像間距離は距離テーブルメモリ部13に与えられ、図2
3に示すJ=5の場合の距離テーブル上の位置(0,1),
(0,2),…,(0,J)に対応するアドレス領域に書き込まれ
る。ただし、その書き込みを行う前に、既にあるテーブ
ル上の位置(i,j) のデータd(t-i,t-j)を図23中に矢印
で示すように位置(i+1,j+1) にシフトする。このシフト
によりテーブルの外に位置することになるデータは捨て
られる。この様にして時点tにおいて得られた距離テー
ブルを使って、シーン変化率算出部14は前述の所望の
シーン変化率計算方法に基づいてシーン変化率C(t-jC)
を計算する。判定部15は与えられたシーン変化率を閾
値と比較し、その比較結果によりシーン変化があったか
否かを判定する。
【0056】図22の実施例によればフレームバッファ
と画像間距離算出部を複数設ける必要があるが、画像デ
ータをパイプライン的に高速に処理することが可能であ
る。カット検出装置のもう1つの実施例を図24に示
す。この実施例は図1に示した動作原理的構成をより実
際的に実現するために、コンピュータ構成としたもので
あり、画像列蓄積部11、画像間距離算出部12、距離
テーブルメモリ部13、シーン変化率算出部14等はバ
ス19を介して接続された計算制御部(CPU)20に
よりそれらの動作が制御される。画像データ入力部10
は入力画像データItを計算制御部20の制御のもとに1
フレーム取り込んで画像列蓄積部11に転送する。画像
列蓄積部11は例えばコンピュータの主記憶部であり、
予め割り当てられたJ+1 フレーム分のバッファ領域110
〜11J が設けられており、最も新しいJ+1 フレーム分の
画像を保持している。図22の場合と同様に、現時点t
の新しい画像フレームが入力部10に入力されると、ま
ず画像列蓄積部11の領域110 〜11J-1 (図示せず)内
のデータIt,…,It-J+1をそれぞれ領域111 〜11J に書き
込み、領域110 に入力部10から最新画像データを書き
込む。画像列蓄積部11への書き込みが完了すると、計
算制御部20は蓄積部11から画像フレームItとIt-j
組を読みだして画像間距離算出部12に与えて画像間距
離d(t,t-j)を計算させ、その計算結果を距離テーブルメ
モリ部13のテーブル(図23参照)内の位置(0,j) に
転送することをj=1,2,…,Jについて順次繰り返す。これ
によって距離テーブルメモリ部13の距離テーブルには
J個の新しい距離データが得られる。
【0057】
【発明の効果】以上説明したように、本発明によれば画
面変化量として時間的にとなり合った2枚の画像を比べ
るだけでなく、時間的に離れた画像の間を変化量を考慮
してシーン変化率を算出することにより、時間的にゆっ
くりと変化するシーン変化を検出でき、テレシネ変換さ
れた映像、フラッシュ光を含む映像などを統一的にリア
ルタイムに処理できる映像カット点検出方法及び装置を
提供できる効果がある。
【図面の簡単な説明】
【図1】この発明のカット検出装置の動作原理的構成を
示すブロック図。
【図2】カットを含む画像列の例を示す図。
【図3】Aはカットのない場合の2つの画像の差分ヒス
トグラムの例を示す図、Bはカットのある場合の2つの
画像の差分ヒストグラムの例を示す図である。
【図4】2つの画像間のブロックマッチングを説明する
ための図。
【図5】図2の画像列により作成された距離テーブルの
例を示す図。
【図6】図5の距離テーブルの特徴を説明するための
図。
【図7】フラッシュ画像を含む画像列を示す図。
【図8】図7の画像列により作成された距離テーブルの
例を示す図。
【図9】図8の距離テーブルの特徴を説明するための
図。
【図10】カットを含むテレシネ変換画像列の例を示す
図。
【図11】図10の画像列により作成された距離テーブ
ルの例を示す図。
【図12】図11の距離テーブルの特徴を説明するため
の図。
【図13】フェードを含む画像列の例を示す図。
【図14】図13の画像列により作成された距離テーブ
ルの例を示す図。
【図15】図14の距離テーブルの特徴を説明するため
の図。
【図16】距離テーブルからシーン変化率を求める方法
の例を説明するための図。
【図17】J=5の場合の距離テーブルによりシーン変
化率を求める方法を説明するための図。
【図18】この発明によるカット検出方法の処理手順を
示すフロー図。
【図19】Aは瞬時カット検出用テンプレートを示す
図、Bはフェード検出用テンプレートを示す図、Cはフ
ラッシュ検出用テンプレートを示す図である。
【図20】テンプレートと比較する距離テーブルの例を
示す図。
【図21】テンプレートを使って所望のシーン変化を検
出する方法の処理手順を示すフロー図。
【図22】この発明のカット検出装置の他の構成例を示
すブロック図。
【図23】距離テーブルの作成を説明するための図。
【図24】この発明のカット検出装置の更に他の構成例
を示すブロック図。

Claims (22)

    【特許請求の範囲】
  1. 【請求項1】 映像データ列から映像カット点を検出す
    る映像カット点検出方法において、以下の工程を含む: (a) 順次入力される一連の画像フレームの現時点tのフ
    レームからJフレーム前までの一連のJ+1個の画像
    It,It-1,…,It-J に対し、フレーム間隔がJ以下の全て
    の組の2つの画像It-i、It-j間の距離d(t-i,t-j)を求
    め、各位置(i,j) に距離d(t-i,t-j)を有する距離テーブ
    ルを作成し、Jは3又はそれより大の一定の整数であ
    り、i,jは0≦i<j≦Jを満足する範囲の全ての可
    変整数であり、 (b) 上記距離テーブル上の画像間距離に基づいてJフレ
    ーム前の画像It-Jから現時点の画像Itまでの画像の変化
    を現時刻tよりjCフレーム前におけるシーン変化率C(t
    -jC)として計算し、jCは0<jC≦Jを満足する範囲の予
    め決めた一定の整数であり、 (c) 上記シーン変化率C(t-jC)を予め決めた閾値と比較
    し、その比較結果により現時点からjCフレーム前の画像
    がカット点であるか否かを判定する。
  2. 【請求項2】 請求項1の方法において、上記工程(a)
    は、現時点tからiフレーム前の画像It-iとjフレーム
    前の画像It-jの対応する各位置(x,y) における画素の輝
    度の差分の絶対値を全画面に渡って加算して得た差分総
    和を上記画像間距離d(t-i,t-j)に対応する値として求め
    る工程を含む。
  3. 【請求項3】 請求項1の方法において、上記工程(a)
    は、現時点tからiフレーム前の画像It-iとjフレーム
    前の画像It-jについて予め決めたクラス数の輝度値ヒス
    トグラムを求め、それらのヒストグラムの対応するクラ
    スの頻度の差の絶対値を全クラスに渡って加算して得た
    差分総和を上記画像間距離d(t-i,t-j)に対応する値とし
    て求める工程を含む。
  4. 【請求項4】 請求項1の方法において、上記工程(a)
    は、現時点tからiフレーム前の画像It-iとjフレーム
    前の画像It-jの対応する各位置(x,y) における画素の輝
    度の差分を全画面に渡って求め、それら差分の標準偏差
    を上記画像間距離d(t-i,t-j)に対応する値として求める
    工程を含む。
  5. 【請求項5】 請求項1の方法において、上記工程(a)
    は、距離を求めるべき現時点tからiフレーム前の画像
    It-iとjフレーム前の画像It-jの対応する各位置(x,y)
    における画素の輝度の差分を全画面に渡って求め、それ
    ら差分の標準偏差を求め、上記差分が上記標準偏差を越
    える画素を全画面に渡って計数し、その計数値を上記画
    像間距離d(t-i,t-j)に対応する値として求める工程を含
    む。
  6. 【請求項6】 請求項1の方法において、上記工程
    (a)は、現時点tからi及びjフレーム前の距離を求
    めるべき組の画像It-i とIt-j の対応する各位置
    (x,y)における画素の輝度の差分を第1の差分とし
    て全画面に渡って求め、上記組の画像からそれぞれmフ
    レーム前の画像It-i-m とIt-j-m の対応する各位置
    (x,y)における画像の輝度の差分を第2の差分とし
    て全画面に渡って求め、上記第2の差分の標準偏差を求
    め、上記第1の差分の絶対値が上記標準偏差を越える画
    素を全画面に渡って計数し、その計数値を上記画像間距
    離d(t-i,t-j) に対応する値として求める工程を含み、
    上記mは1以上の予め決めた整数である。
  7. 【請求項7】 請求項1の方法において、上記工程
    (a)は現時点tからi及びjフレーム前の距離を求め
    るべき組の画像It-i とIt-j の対応する各位置(x,
    y)における画素の輝度の差分を第1の差分として前画
    面に渡って求め、上記組の画像からそれぞれkフレーム
    前の画像It-i-k とIt-j-k の対応する各位置(x,
    y)における画像の輝度の差分を第2の差分として全画
    面に渡って求め、その第2の差分の標準偏差εk を求
    め、上記第2差分とその標準偏差を求めることをk=
    1,2,…,nのそれぞれの組の画像について繰り返し
    それによって得られたn個の標準偏差の平均を平均標準
    偏差として求め、上記第1の差分の絶対値が上記平均標
    準偏差を越える画素を全画面に渡って計数し、その計数
    値を上記画像間距離d(t-i,t-j)に対応する値として求め
    る工程を含み、上記nは2以上の予め決めた整数であ
    る。
  8. 【請求項8】 請求項1の方法において、上記工程(a)
    は、現時点tからiフレーム前の画像It-iを予め決めた
    p×q画素のブロックに分割し、各上記ブロックとマッ
    チする部分がjフレーム前の画像It-j内にあるか判定す
    ることを全ての上記ブロックについて繰り返してマッチ
    しないブロックの数を計数し、その計数値を上記画像間
    距離d(t-i,t-j)に対応する値として求める工程を含む。
  9. 【請求項9】 請求項1の方法において、上記工程(a)
    は、時点t−1での上記テーブル内の位置(i,j) の距離
    のデータを位置(i+1,j+1) にシフトし、現時点tで上記
    距離としてd(t,t-1),d(t,t-2),…,d(t,t-J) を計算し、
    それらの計算値を上記テーブルの位置(0,1),(0,2),…,
    (0,J)に書き込むことにより時点tでの上記テーブルを
    作成する工程を含む。
  10. 【請求項10】 請求項1の方法において、上記工程
    (a) における上記画像間距離を求める範囲は更にj-i≦
    g を満たす範囲に限定し、gはJより小の予め決めた
    一定の正の整数である。
  11. 【請求項11】 請求項10の方法において、上記工程
    (a) は、時点t−1での上記テーブル内の位置(i,j) の
    距離のデータを位置(i+1,j+1) にシフトし、現時点tで
    上記距離としてd(t,t-1),d(t,t-2),…,d(t,t-g) を計算
    し、それらの計算値を上記テーブルの位置(0,1),(0,2),
    …,(0,g)に書き込むことにより時点tでの上記テーブル
    を作成する工程を含む。
  12. 【請求項12】 請求項11の方法において、上記工程
    (b) は、上記テーブル上にjC≦j≦J,0≦i<jC,j-
    i≦g により第1の領域を規定し、その第1領域内の距
    離の総和をa(jC)と表し、0≦i<j≦jC-1,j-i≦gによ
    り第2の領域を規定し、その第2領域内の距離の総和を
    b(jC)と表し、jC≦i<j≦J,j-i≦gにより第3の領域
    を規定し、その第3領域内の距離の総和をb'(jC)と表す
    と、上記シーン変化率として C(t-jC)={a(jC)−βMAX[b(jC),b'(jC)]}/S を計算する工程を含み、βは上記第1領域と上記第2又
    は第3領域のデータ数を等価するための予め決めた係数
    であり、Sは上記第1領域内のデータの数を表す。
  13. 【請求項13】 請求項11の方法において、上記工程
    (b) は、上記テーブル上にjC≦j ≦J,0≦i<jC,j-i≦
    gにより第1の領域を規定し、その第1領域内の距離の
    総和をa(jC)と表し、0≦i<j≦jC-1,j-i≦gにより第
    2の領域を規定し、その第2領域内の距離の総和をb
    (jC)と表し、jC≦i<j≦J,j-i≦gにより第3の領域
    を規定し、その第3領域内の距離の総和をb'(jC)と表す
    と、上記シーン変化率として C(t-jC)={a(jC)−β[b(jC)+b'(jC)]}/S を計算する工程を含み、βは上記第1領域と、上記第2
    及び第3領域のデータ数を等価するための予め決めた係
    数であり、Sは上記第1領域内のデータの数を表す。
  14. 【請求項14】 請求項9の方法において、上記工程
    (b) は、上記距離テーブルと同じサイズで少なくとも1
    つの所望の種類の予め決められたカット検出用テンプレ
    ートと、時点tで得られた上記距離テーブルとの類似度
    を上記シーン変化率として計算する工程を含む。
  15. 【請求項15】 請求項14の方法において、上記類似
    度は上記距離テーブルと上記テンプレートとの相互相関
    係数である。
  16. 【請求項16】 画像データ列から映像カット点を検出
    する映像カット点検出装置において、 時間的に連続する少なくともJ+1フレームの画像デー
    タを順次バッファリングするバッファメモリ手段と、 上記バッファメモリ手段内の現時点tからJフレーム前
    までの上記画像データIt,It-1,…,It-J について、0
    ≦i<j≦Jの範囲の2つの画像It-i,It-j の画像データ
    間の距離d(t-i,t-j)を計算する画像間距離算出手段と、 上記画像間距離算出手段で計算された画像間距離を格納
    する距離テーブル手段と、 上記距離テーブル手段を参照して、フレーム(t-J) から
    tまでの画像の変化をフレーム(t-jC)におけるシーン変
    化率として算出するシーン変化率算出手段と、jCは0<
    jC≦Jを満足する予め決めた一定の整数であり、 上記算出されたシーン変化率をあらかじめ定められた閾
    値と比較して、上記フレーム(t-jC)がカット点であるか
    否か判定する判定手段とを含む。
  17. 【請求項17】 請求項16の装置において、上記バッ
    ファメモリ手段はフレームtから(t-J) 前までの少なく
    ともJ+1フレームの画像データIt,It-1,…,It-J をそ
    れぞれ1フレームづつ一時的に保持する第1〜第J+1
    フレームバッファを含み、上記画像間距離算出手段は上
    記第2〜第J+1フレームバッファからそれぞれ画像デ
    ータIt-1,…,It-Jが与えられ、上記第1フレームバッフ
    ァから画像データItがそれぞれ共通に与えられ、それぞ
    れ画像データItと画像データIt -1,…,It-J間の距離d(t,
    t-1),…,d(t,t-J)をそれぞれ算出する第1〜第J画像間
    距離算出部を含み、上記距離テーブル手段は上記テーブ
    ル上の位置(i,j) の距離データを位置(i+1,j+1) にシフ
    トすると共に上記画像間距離算出部からの距離データを
    それぞれ上記テーブル上の位置(0,1),…,(0,J)に書き込
    むことにより上記距離テーブルを作成する手段である。
  18. 【請求項18】 請求項16の装置において、上記画像
    間距離算出手段は更に限定されたj-i≦g を満たす範囲
    において上記画像間距離を算出する手段であり、gはJ
    より小予め決めた一定の正の整数である。
  19. 【請求項19】 請求項18の装置において、上記距離
    テーブル手段は、時点t−1での上記テーブル内の位置
    (i,j) の距離データを位置(i+1,j+1) にシフトし、現時
    点tで上記画像間距離算出手段により算出した上記画像
    間距離d(t,t-1),d(t,t-2),…,d(t,t-g) を上記テーブル
    の位置(0,1),(0,2),…,(0,g)に書き込むことにより時点
    tでの上記テーブルを作成する手段である。
  20. 【請求項20】 請求項19の装置において、上記シー
    ン変化率算出手段は、上記テーブル上にjC≦j ≦J,0≦
    i<jC,j-i≦gにより第1の領域を規定し、その第1領
    域内の距離の総和をa(jC) と表し、0≦i<j≦jC-1,j-i
    ≦gにより第2の領域を規定し、その第2領域内の距離
    の総和をb(jC)と表し、jC≦i<j≦J,j-i≦gにより第
    3の領域を規定し、その第3領域内の距離の総和をb'(j
    C)と表すと、上記シーン変化率として C(t-jC)={a(jC)−βMAX[b(jC),b'(jC)]}/S を計算する手段であり、βは上記第1領域と上記第2又
    は第3領域のデータ数を等価するための予め決めた係数
    であり、Sは上記第1領域内のデータの数を表す。
  21. 【請求項21】 請求項19の装置において、上記シー
    ン変化率算出手段は、上記テーブル上にjC≦j ≦J,0≦
    i<jC,j-i≦gにより第1の領域を規定し、その第1領
    域内の距離の総和をa(jC) と表し、0≦i<j≦jC-1,j-i
    ≦gにより第2の領域を規定し、その第2領域内の距離
    の総和をb(jC) と表し、jC≦i<j≦J,j-i≦gにより第
    3の領域を規定し、その第3領域内の距離の総和をb'(j
    C)と表すと、上記シーン変化率として C(t-jC)={a(jC)−β[b(jC)+b'(jC)]}/S を計算する手段であり、βは上記第1領域と、上記第2
    及び第3領域のデータ数を等価するための予め決めた係
    数であり、Sは上記第1領域内のデータの数を表す。
  22. 【請求項22】 請求項16の装置において、上記シー
    ン変化率算出手段は、上記距離テーブルと同じサイズで
    少なくとも1つの所望の種類の予め決められたカット検
    出用テンプレートとを有し、時点tで得られた上記距離
    テーブルとの類似度を上記シーン変化率として計算する
    手段である。
JP31297694A 1993-12-17 1994-12-16 映像カット点検出方法及び装置 Expired - Lifetime JP2839132B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31297694A JP2839132B2 (ja) 1993-12-17 1994-12-16 映像カット点検出方法及び装置

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP31766393 1993-12-17
JP5-317663 1994-11-30
JP29753394 1994-11-30
JP6-297533 1994-11-30
JP31297694A JP2839132B2 (ja) 1993-12-17 1994-12-16 映像カット点検出方法及び装置

Publications (2)

Publication Number Publication Date
JPH08214210A true JPH08214210A (ja) 1996-08-20
JP2839132B2 JP2839132B2 (ja) 1998-12-16

Family

ID=27338152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31297694A Expired - Lifetime JP2839132B2 (ja) 1993-12-17 1994-12-16 映像カット点検出方法及び装置

Country Status (1)

Country Link
JP (1) JP2839132B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000125250A (ja) * 1998-10-14 2000-04-28 Sharp Corp 動画場面転換部検出装置および方法、動画場面転換部検出制御プログラムを記憶した媒体、ならびに動画処理装置
JP2001285712A (ja) * 2000-03-07 2001-10-12 Lg Electronics Inc Mpeg圧縮ビデオ環境でのディゾルブ/フェード検出方法
JP2001527344A (ja) * 1997-12-23 2001-12-25 サーノフ コーポレイション ビデオーケンスにおける転換の検出
JP2007221538A (ja) * 2006-02-17 2007-08-30 Fujitsu Ltd シーンチェンジ判定装置、データ転送装置、シーンチェンジ判定方法、および、データ転送方法
US7466365B2 (en) 2000-09-21 2008-12-16 Canon Kabushiki Kaisha Moving image processing apparatus and method, and computer readable memory
JP2009512400A (ja) * 2005-10-17 2009-03-19 クゥアルコム・インコーポレイテッド ビデオストリーミングにおけるショット検出のための方法および装置
JP2009540667A (ja) * 2006-06-08 2009-11-19 トムソン ライセンシング シーン変化を検出する方法及び装置
JP2014087070A (ja) * 2012-10-25 2014-05-12 Tektronix Inc ビデオ検出器及びシーン変更検出方法
US8879856B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Content driven transcoder that orchestrates multimedia transcoding using content information
US8948260B2 (en) 2005-10-17 2015-02-03 Qualcomm Incorporated Adaptive GOP structure in video streaming
US9131164B2 (en) 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus
US9197912B2 (en) 2005-03-10 2015-11-24 Qualcomm Incorporated Content classification for multimedia processing
CN114527948A (zh) * 2020-11-23 2022-05-24 深圳Tcl新技术有限公司 剪切区域的计算方法、装置、智能设备及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006330795A (ja) * 2005-05-23 2006-12-07 Nippon Telegr & Teleph Corp <Ntt> 映像トピック区間情報作成装置、映像トピック区間情報作成方法、映像トピック区間情報作成プログラム、及び記録媒体
JP5495101B2 (ja) * 2009-09-15 2014-05-21 株式会社リコー 動画サムネイル作成装置、方法及びプログラム

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001527344A (ja) * 1997-12-23 2001-12-25 サーノフ コーポレイション ビデオーケンスにおける転換の検出
KR100591470B1 (ko) * 1997-12-23 2006-06-20 미디어텍 인크. 비디오 시퀀스의 변환 검출
JP2000125250A (ja) * 1998-10-14 2000-04-28 Sharp Corp 動画場面転換部検出装置および方法、動画場面転換部検出制御プログラムを記憶した媒体、ならびに動画処理装置
JP2001285712A (ja) * 2000-03-07 2001-10-12 Lg Electronics Inc Mpeg圧縮ビデオ環境でのディゾルブ/フェード検出方法
US8525935B2 (en) 2000-09-21 2013-09-03 Canon Kabushiki Kaisha Moving image processing apparatus and method, and computer readable memory
US7466365B2 (en) 2000-09-21 2008-12-16 Canon Kabushiki Kaisha Moving image processing apparatus and method, and computer readable memory
US9197912B2 (en) 2005-03-10 2015-11-24 Qualcomm Incorporated Content classification for multimedia processing
US8879856B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Content driven transcoder that orchestrates multimedia transcoding using content information
US8879857B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
US9071822B2 (en) 2005-09-27 2015-06-30 Qualcomm Incorporated Methods and device for data alignment with time domain boundary
US9088776B2 (en) 2005-09-27 2015-07-21 Qualcomm Incorporated Scalability techniques based on content information
US9113147B2 (en) 2005-09-27 2015-08-18 Qualcomm Incorporated Scalability techniques based on content information
JP2009512400A (ja) * 2005-10-17 2009-03-19 クゥアルコム・インコーポレイテッド ビデオストリーミングにおけるショット検出のための方法および装置
US8948260B2 (en) 2005-10-17 2015-02-03 Qualcomm Incorporated Adaptive GOP structure in video streaming
JP2007221538A (ja) * 2006-02-17 2007-08-30 Fujitsu Ltd シーンチェンジ判定装置、データ転送装置、シーンチェンジ判定方法、および、データ転送方法
US9131164B2 (en) 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus
JP2009540667A (ja) * 2006-06-08 2009-11-19 トムソン ライセンシング シーン変化を検出する方法及び装置
JP2014087070A (ja) * 2012-10-25 2014-05-12 Tektronix Inc ビデオ検出器及びシーン変更検出方法
CN114527948A (zh) * 2020-11-23 2022-05-24 深圳Tcl新技术有限公司 剪切区域的计算方法、装置、智能设备及存储介质
CN114527948B (zh) * 2020-11-23 2024-03-12 深圳Tcl新技术有限公司 剪切区域的计算方法、装置、智能设备及存储介质

Also Published As

Publication number Publication date
JP2839132B2 (ja) 1998-12-16

Similar Documents

Publication Publication Date Title
EP0659016B1 (en) Method and apparatus for video cut detection
US6243419B1 (en) Scheme for detecting captions in coded video data without decoding coded video data
US6819796B2 (en) Method of and apparatus for segmenting a pixellated image
EP0729117B1 (en) Method and apparatus for detecting a point of change in moving images
US7221776B2 (en) Video stabilizer
JPH08214210A (ja) 映像カット点検出方法及び装置
KR100468967B1 (ko) 썸네일 영상 생성장치 및 방법
US7254268B2 (en) Object extraction
US7123769B2 (en) Shot boundary detection
US20110255844A1 (en) System and method for parsing a video sequence
EP0780776A1 (en) Apparatus for detecting a cut in a video
Wang et al. Archive film defect detection and removal: an automatic restoration framework
CN111723713B (zh) 一种基于光流法的视频关键帧提取方法及系统
US6847408B1 (en) Method and apparatus for reducing noise in an image sequence
JPH0723322A (ja) 動画像記録媒体、静止画像抽出装置、動画像記録装置および静止画像自動抽出方法
US8582882B2 (en) Unit for and method of segmentation using average homogeneity
JPH07236153A (ja) 動画像のカット点検出およびカット画面グループ検出装置
JP4758272B2 (ja) 移動物体追跡装置及びプログラム
KR20100118811A (ko) 감시 카메라 시스템의 관리를 위한 장면 전환 검출 방법과 장면 전환 검출 신뢰도 산출 방법 및 소프트웨어
JP3624677B2 (ja) 動画像の特殊効果検出装置及びプログラムを記録した記録媒体
JP3067043B2 (ja) 動画のカット自動分割方法
KR100287559B1 (ko) 동영상내에서의 장면 전환 검출 간격 최적화 방법 및 그 장치
JP2003047004A (ja) 映像特徴検出方法、映像特徴検出装置およびデータ記録媒体
JPH07115584A (ja) 画像揺れ補正装置
JP3194837B2 (ja) 代表画面抽出方法および装置

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071016

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081016

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091016

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101016

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101016

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111016

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111016

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121016

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121016

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131016

Year of fee payment: 15

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term