JPH0965287A - Method and device for detecting characteristic scene for dynamic image - Google Patents

Method and device for detecting characteristic scene for dynamic image

Info

Publication number
JPH0965287A
JPH0965287A JP7210409A JP21040995A JPH0965287A JP H0965287 A JPH0965287 A JP H0965287A JP 7210409 A JP7210409 A JP 7210409A JP 21040995 A JP21040995 A JP 21040995A JP H0965287 A JPH0965287 A JP H0965287A
Authority
JP
Japan
Prior art keywords
moving image
scene
detecting
change
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7210409A
Other languages
Japanese (ja)
Other versions
JP3728775B2 (en
Inventor
Akio Nagasaka
晃朗 長坂
Takafumi Miyatake
孝文 宮武
Takehiro Fujita
武洋 藤田
Katsumi Taniguchi
勝美 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP21040995A priority Critical patent/JP3728775B2/en
Publication of JPH0965287A publication Critical patent/JPH0965287A/en
Application granted granted Critical
Publication of JP3728775B2 publication Critical patent/JP3728775B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain information assisting the user for video image selection by discriminating whether or not a scene is an important scene in a video image, specifying its range simply at a high speed, discriminating and classifying to which field a video image belongs (news, sport relay or the like). SOLUTION: This device is provided with a means entering an object dynamic image to a processer in time series in the unit of frames, a means buffering plural frames entered in the past in the processing unit, and a means discriminating whether or not a feature variable of the buffered frame has a characteristic in which the feature variable approaches that of the newest frame monotonously in the order from the older frames. Furthermore, when it is discriminated true by the discrimination means, a means is provided to extract a video period till a succeeding special video effect is detected or a prescribed after the frame as an important scene. Moreover, in addition to the special video effect, a means detecting a change and a state of various video images (change of cut, display of caption, layout or the like) and a means discriminating kinds of video images based on the appearing order and combination is provided.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は,ビデオや映画等の動画
像を短時間で概要把握を行うための早見する方法及び装
置に係り,特にビデオテープやビデオディスクに格納さ
れた動画像からカット(1台のカメラで撮影された途切
れのない動画像区間)間のデゾルブ(連続するカット
A,Bがあるとき,そのカットの変わり目において,Aが
フェードアウトすると同時にBがフェードインする特殊
映像効果)を検出することによって動画像を代表する場
面を特定する動画像の特徴場面検出方法及び装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for quickly looking at a moving picture such as a video or movie in a short time, and more particularly to cutting from a moving picture stored on a video tape or a video disc. Dissolve (continuous cuts) between (uninterrupted moving image sections taken by one camera)
When there are A and B, a characteristic scene detection method and apparatus for identifying a scene representative of a moving image by detecting a special video effect in which A fades out and B fades in at the transition of the cut) Regarding

【0002】[0002]

【従来の技術】近年,通常のテレビ放送に加えて,衛星
放送やケーブルテレビなどが普及しつつあり,放送の多
チャンネル化が進行している。今後,情報ハイウエイと
称される広帯域の通信基盤が整備されれば,放送の配信
が容易になり,現状よりもさらに多くの放送業者が参入
して,多チャンネル化が加速されると考えられる。こう
した大量に放送される情報の中から,視聴者個人個人に
とって有用な情報と無用な情報とを区別し,選択するこ
とは非常に手間と時間のかかる作業である。そのため,
映像内容を手早く把握するための要約情報(ダイジェス
ト)を効率よく作成する技術の研究が進められている。
ダイジェストを作成するにあたって最も基本的かつ不可
欠な処理は,映像中から重要な場面を選び出すことであ
る。もし,映像中の場面場面の重要度を計算機で自動的
に判定できれば,ダイジェストの作成は非常に簡単にな
る。例えば,特開平4-294694号では,野球中継におい
て,映像中の移動物体の移動結果と,ある特定のイベン
トとの対応(ランナーの本塁位置への移動と,得点があ
ったこととの対応等)に着目して,重要度の高い場面を
選択する方法が示されている。
2. Description of the Related Art In recent years, in addition to ordinary television broadcasting, satellite broadcasting, cable television, etc. are becoming widespread, and the number of broadcasting channels is increasing. In the future, if a broadband communication infrastructure called an information highway is developed, it will be easier to deliver broadcasts, and more broadcasters than the current number will enter, accelerating the increase in the number of channels. It is a very time-consuming and time-consuming task to distinguish and select useful information and unnecessary information for each individual viewer from the information broadcast in such a large amount. for that reason,
Research on technology for efficiently creating summary information (digest) for quickly grasping video contents is under way.
The most basic and indispensable process in creating a digest is to select important scenes from the video. If a computer can automatically determine the importance of a scene in a video, the digest creation becomes very easy. For example, in Japanese Unexamined Patent Publication No. 4-294694, in a baseball relay, the correspondence between the movement result of a moving object in a video and a certain event (movement of a runner to a home position and a score, etc.) ), A method of selecting scenes with high importance is shown.

【0003】[0003]

【発明が解決しようとする課題】しかしながら,移動物
体の動き解析は,現状の画像認識の技術水準では精度や
処理速度が十分でなく,それによって得られた動きパタ
ーンと,特定のイベントとの対応が必ずしも対応すると
は限らないという問題点がある。また,正しくイベント
が検出できた場合でも,その前後のどの範囲までを重要
な場面として切り出せばよいのかを自動判定させること
は極めて困難である。さらに,ダイジェスト自体,映像
全体を視聴するのに比べれば格段に短い時間ながら,や
はり一定の時間をかけて視聴する必要性は残っており,
もっと簡潔に概要把握できるような技術が求められてい
る。
However, in the motion analysis of a moving object, the accuracy and processing speed are not sufficient in the current state of the art of image recognition, and the motion pattern obtained thereby corresponds to a specific event. There is a problem that does not always correspond. Even if an event is correctly detected, it is extremely difficult to automatically determine which range before and after that event should be cut out as an important scene. Furthermore, although the digest itself is much shorter than watching the entire video, there is still a need to watch for a certain amount of time.
There is a need for a technology that enables a more brief overview.

【0004】本発明の目的は,映像中の重要な場面かど
うかの判定とその範囲の特定とを簡便かつ高速に行うた
めの方法を提供することにある。また,映像がどんな分
野(ニュース,スポーツ中継等)に属するかを判定して
分類し,ユーザの映像選択の一助となる情報として提供
することにある。
An object of the present invention is to provide a method for easily and quickly determining whether an important scene in a video and identifying its range. In addition, it is to determine what kind of field (news, sports relay, etc.) the video belongs to and classify it, and provide it as information that helps the user to select the video.

【0005】[0005]

【課題を解決するための手段】放送映像については,多
くの場合,放送局側で重要な場面を強調するような各種
の映像効果が施されている。この性質はスポーツ中継の
場合に特に顕著であり,例えば,得点が入った場合には
リプレイを放映するといった特徴がある。リプレイ映像
は視点の異なるカメラで撮像された映像が使われること
が多く,単純に全く同じ映像かどうかでリプレイ映像か
否かを判定することはできないが,そうしたリプレイ映
像に切り替わるときには,デゾルブやワイプといった特
殊映像効果が用いられ,通常の放送から一時的に外れる
ことを視聴者が明確に分かるような工夫がされている。
さらにまた通常の放送に戻るときにも同様の映像効果が
利用される。したがって,こうした特殊映像効果を検出
することにより,重要な場面を選び出すことが可能にな
る。
[Means for Solving the Problems] In many cases, broadcast video is provided with various video effects that emphasize important scenes on the broadcast station side. This property is particularly noticeable in the case of sports broadcasting, for example, it has the feature of showing a replay when a score is scored. In many cases, replay video images captured by cameras with different viewpoints cannot be used to determine whether they are replay video or not, but when switching to such replay video, dissolve or wipe Such special video effects are used to make it clear to the viewer that a temporary break from normal broadcasting is possible.
Furthermore, similar video effects are used when returning to normal broadcasting. Therefore, it is possible to select important scenes by detecting such special video effects.

【0006】そこで,対象となる動画像をフレーム単位
で時系列に処理装置に入力し,該処理装置では,フレー
ム中の各画素の色もしくは輝度が,連続する複数枚のフ
レーム群にまたがって,該フレーム群の最初のフレーム
の色もしくは輝度の値から,最後のフレームの色もしく
は輝度の値に向けて単調に近づく傾向で推移しているか
どうかを調べ,該条件を満たす画素の数から画面全体と
しての変化を表す評価値を計算し,該評価値が予め定め
た許容範囲外となった時点で,該連続する複数枚のフレ
ームにまたがる区間に,デゾルブ等の特殊映像効果によ
る場面の変わり目があったと判定し,該区間もしくはそ
の近傍を動画像中の特徴的な点であると判定する。
Therefore, the target moving image is input to the processing device in time series in frame units, and in the processing device, the color or brightness of each pixel in the frame is spread over a plurality of continuous frame groups, It is checked whether the color or luminance value of the first frame of the frame group tends to monotonously approach the color or luminance value of the last frame, and the entire screen is determined from the number of pixels satisfying the condition. Is calculated, and when the evaluation value is out of a predetermined allowable range, a scene change due to a special video effect such as dissolve occurs in a section that spans a plurality of consecutive frames. It is determined that there is, and it is determined that the section or its vicinity is a characteristic point in the moving image.

【0007】また,対象となる動画像をフレーム単位で
時系列に処理装置に入力し,または対象となる音声を時
系列に処理装置に入力し,該処理装置では,カット変化
や色調を含む複数の種類の画像特徴量の変化を検出する
手段と,必要に応じて話者変化を含む音声特徴量の変化
を検出する手段を設け,該検出手段により,変化が発生
したこと,もしくは複数の変化が同時または特定の順番
で発生したことからなる特徴量に基づき,番組の種類を
判別する。
Further, a target moving image is input to the processing device in time series on a frame-by-frame basis, or a target sound is input to the processing device in time series, and the processing device outputs a plurality of images including cut changes and color tones. Means for detecting changes in the image feature amount of each type and means for detecting changes in the voice feature amount including a speaker change as necessary, and the detecting unit detects that a change has occurred or a plurality of changes The type of the program is discriminated based on the feature amount, which is generated at the same time or in a specific order.

【0008】[0008]

【作用】放送でリプレイされる場面は,専門家が重要で
あると判定した部分であり,そうしたリプレイ場面を検
出できれば,ダイジェスト作成が極めて容易になる。本
発明によれば,デゾルブを含む特殊映像効果による場面
の変わり目が検出できるため,そうした特殊効果に相前
後して流される重要な場面を精度よく抽出できる。また
同時に,その場面の範囲も得ることができる。
[Operation] The scene to be replayed by broadcasting is the part that the expert has determined to be important, and if such a replay scene can be detected, the digest creation becomes extremely easy. According to the present invention, it is possible to detect a scene change due to a special video effect including a dissolve, and therefore it is possible to accurately extract an important scene that is preceded and followed by such a special effect. At the same time, the range of the scene can be obtained.

【0009】さらに,カット変化や色調を含む複数の種
類の画像特徴量の変化が同時または特定の順番で発生し
たことからなる特徴量に基づき,番組の種類を判別する
手段によって,映像の種類が自動的に判定されるので,
視聴者にとって興味のない種類の映像であれば,ダイジ
ェスト映像を見るまでもなく却下でき,効率的な映像選
択ができる。また,この映像の種類の判定においては,
簡単な画像や音声の変化とその組み合わせから判定を行
うので,処理が高速に行える。
Furthermore, the means for discriminating the type of the program determines the type of the video based on the characteristic amount which is obtained by simultaneously or in a specific order that a plurality of types of changes in the image characteristic amount including cut changes and color tones occur. Because it is automatically determined,
If the type of video is not of interest to the viewer, it can be rejected without watching the digest video, and efficient video selection can be performed. Also, in determining the type of this video,
Since the judgment is made based on a simple change in the image or voice and its combination, the processing can be performed at high speed.

【0010】[0010]

【実施例】以下,本発明の1実施例を詳細に説明する。EXAMPLE An example of the present invention will be described in detail below.

【0011】図1は,本発明を実現するためのシステム
構成の概略ブロック図の一例である。1はCRT等のデ
ィスプレイ装置であり,コンピュータ4の出力画面を表
示する。コンピュータ4に対する命令は,キーボードや
ポインティングデバイス等の入力装置5を使って行うこ
とができる。10の動画像再生装置は,地上波放送や衛
星放送,ケーブルテレビなどの放送番組を受信するため
のチュナー装置,もしくは光ディスクやビデオテープ等
に記録された動画像を再生するための装置である。動画
像再生装置から出力される映像信号は,逐次,3のA/
D変換器によってデジタル画像データに変換され,コン
ピュータに送られる。コンピュータ内部では,デジタル
画像データは,インタフェース8を介してメモリ9に入
り,メモリ9に格納されたプログラムに従って,CPU
7によって処理される。10が扱う動画像の各フレーム
に,動画像の先頭から順に番号(フレーム番号)が割り
付けられている場合には,フレーム番号を制御線2によ
って動画像再生装置に送ることで,当該場面の動画像を
呼び出して再生することができる。また,処理の必要に
応じて,各種情報を6の外部情報記憶装置に蓄積するこ
とができる。メモリ9には,以下に説明する処理によっ
て作成される各種のデータが格納され,必要に応じて参
照される。
FIG. 1 is an example of a schematic block diagram of a system configuration for implementing the present invention. A display device 1 such as a CRT displays an output screen of the computer 4. Instructions to the computer 4 can be performed using the input device 5 such as a keyboard or a pointing device. The moving image reproducing device 10 is a tuner device for receiving broadcast programs such as terrestrial broadcasting, satellite broadcasting, cable television, or a device for reproducing moving images recorded on an optical disk, a video tape or the like. The video signal output from the moving image reproducing apparatus is A / S of 3
It is converted into digital image data by the D converter and sent to the computer. Inside the computer, the digital image data enters the memory 9 through the interface 8 and the CPU stores the program according to the program stored in the memory 9.
Processed by 7. When a number (frame number) is assigned to each frame of the moving image handled by 10 in order from the beginning of the moving image, the frame number is sent to the moving image reproducing apparatus through the control line 2 to generate a moving image of the scene. You can recall the image and play it back. Further, various kinds of information can be stored in the external information storage device 6 as required for processing. The memory 9 stores various data created by the processing described below and is referred to when necessary.

【0012】以下では,重要場面の選別にあたって,特
殊映像効果によるカット変化の一つであるデゾルブを検
出する方法について詳細に説明する。
A method of detecting a dissolve, which is one of cut changes due to a special image effect, in selecting an important scene will be described in detail below.

【0013】図2は,図1で示したシステム上で実行さ
れる,動画像のデゾルブ検出プログラムのフローチャー
トの一例である。プログラムはメモリ9に格納され,C
PU7は,まず最初に初期化処理として,プログラムの
実行に必要な各種の変数を初期値に設定する(20
0)。次に,過去のフレーム画像の各画素の輝度値を収
めるm個の二次元配列B(x, y)の各要素に0を代入する
(202)。フレーム画像のサイズがw×hのとき,x
は0からw-1,yは0からh-1までの値をとる。処理20
4では,動画像再生装置10が出力するフレーム画像の
取り込みを行う(204)。処理206は,評価値が入
る変数evalを0にし,ループカウンタに初期値0を代入
する。そして,以下の208〜228の処理をフレーム
画像中の全画素について行う。
FIG. 2 is an example of a flowchart of a moving image dissolve detection program executed on the system shown in FIG. The program is stored in the memory 9 and C
The PU 7 first sets various variables necessary for executing the program to initial values as initialization processing (20
0). Next, 0 is substituted for each element of the m two-dimensional array B (x, y) that stores the brightness value of each pixel of the past frame image (202). When the frame image size is w × h, x
Is from 0 to w-1 and y is from 0 to h-1. Processing 20
In 4, the frame image output by the moving image reproducing apparatus 10 is captured (204). In the process 206, the variable eval containing the evaluation value is set to 0, and the initial value 0 is assigned to the loop counter. Then, the following processing from 208 to 228 is performed for all pixels in the frame image.

【0014】208から228の処理では,デゾルブに
特有の性質の検出を行っている。ここで,デゾルブは,
図3に示すように,カットの変わり目の前後でBのよう
に,前後のカットのフレーム画像AとCとが混じりあう
区間を持つカット変化である。BにおけるAとCの混合
比率は,デゾルブ開始時のAが100%,Cが0%の状
態から,時間をかけて比率が逆転してゆき,最終的にA
が0%,Cが100%になった時点でデゾルブが完了す
る。濃淡画像の場合,Aの輝度値をBa,Bの輝度値をB
b,Cの輝度値をBc,Cの混合割合をα(0≦α≦1)と
したとき,Bb =Ba × (1 - α) + Bc × αの式で近似
することができる。この式を変形すると,Bb = (Bc -
Ba) × α + Baになり,混合割合αが0から単調に増加
するデゾルブの場合,Bbの値もBaからBcまで単調に増加
もしくは減少する。したがって,過去mフレーム分につ
いて常に画素の輝度値をバッファに蓄えておき,そのm
フレーム長の区間で輝度値が単調に増加もしくは減少し
ているかどうかを調べることでデゾルブの検出を行うこ
とができる。mの値は,8から15程度に設定すると,
実験的に良好な結果が得られる。
In the processing from 208 to 228, the characteristic peculiar to the dissolve is detected. Where dissolve is
As shown in FIG. 3, the cut change has a section in which the frame images A and C of the front and rear cuts are mixed as shown by B before and after the cut change. As for the mixing ratio of A and C in B, the ratio reverses over time from the state of A of 100% and C of 0% at the start of dissolve, and finally A
The dissolution is completed when 0 is 0% and C is 100%. In the case of a grayscale image, the brightness value of A is Ba and the brightness value of B is B
When the brightness values of b and C are Bc, and the mixing ratio of C is α (0 ≦ α ≦ 1), it can be approximated by the formula of Bb = Ba × (1−α) + Bc × α. By transforming this equation, Bb = (Bc-
In the case of a dissolve in which Ba) × α + Ba, and the mixing ratio α increases monotonically from 0, the value of Bb also monotonically increases or decreases from Ba to Bc. Therefore, the brightness value of the pixel is always stored in the buffer for the past m frames, and the m
Dissolve can be detected by checking whether the luminance value is monotonically increasing or decreasing in the frame length section. If the value of m is set from 8 to 15,
Experimentally good results are obtained.

【0015】まず処理208では,過去のフレームの輝
度値を記憶している二次元配列Bのm番目の配列Bmに,
座標(x, y)で表される画素の輝度値を代入する。そし
て,ループカウンタiに1を代入し,変数numに0を代入
する。次に,1番目の配列に記憶された輝度値B1(x, y)
とm番目の配列Bm(x, y)の値を比較し(212),続け
て,i番目の配列に記憶された輝度値Bi(x, y)がその次
の配列Bi+1(x, y)の値よりも大きいかどうかを比較する
(214,216)。B1(x, y)がBm(x, y)より大きいと
きには,Bi(x, y)がBi+1(x, y)より大きい場合にnumの
値を1つ増やす。逆に,B1(x, y)がBm(x, y)より小さい
ときには,Bi(x, y)がBi+1(x, y)より小さい場合にnum
の値を1つ増やす(218)。続く処理220では,Bi
(x, y)にBi+1(x, y)の値を代入することで,m個の配列
Bを順番に1つずつシフトするようにし,常に最新のフ
レームから数えてmフレーム分の輝度値がバッファとし
て格納されているようにする。処理222では,ループ
カウンタiを1つ増やし,iがmより大きくなるまで,処
理212の時点でB1(x, y)がBm(x, y)より大きかったと
きには処理214,そうでないときには処理216に戻
って処理を繰り返す(224)。numが閾値th1よりも大
きいときには(226),座標(x, y)の画素について
は,十分単調に増加もしくは減少しているとしてevalの
値を1つ増やす(228)。自然動画像はノイズ等によ
り不規則な変動があるのが常であり,また,デゾルブの
速度も,人間がデゾルブ操作を行う場合にはムラが生じ
て一定ではなくなるので,単調性の判定に閾値を設ける
ことでマージンを持たせる。上記処理をフレーム画像中
の全画素について行うべく,208に戻って繰り返す
(230〜236)。これによって,デゾルブの特徴を
満たす画素の数がevalに入る。最後に,evalが閾値th2
を超えているかどうかを調べ(238),超えていれば
デゾルブがあるとして,デゾルブ検出処理(240)を
実行する。最後に,処理204に戻り,映像の終わりま
で204からの処理を繰り返す。
First, in step 208, the m-th array Bm of the two-dimensional array B storing the brightness values of past frames
Substitute the luminance value of the pixel represented by the coordinates (x, y). Then, 1 is assigned to the loop counter i and 0 is assigned to the variable num. Next, the brightness value B1 (x, y) stored in the first array
And the values of the m-th array Bm (x, y) are compared (212), and then the brightness value Bi (x, y) stored in the i-th array is transferred to the next array Bi + 1 (x, y). It is compared whether it is larger than the value of y) (214, 216). When B1 (x, y) is larger than Bm (x, y), the value of num is incremented by 1 when Bi (x, y) is larger than Bi + 1 (x, y). Conversely, if B1 (x, y) is smaller than Bm (x, y), then Bi (x, y) is smaller than Bi + 1 (x, y).
The value of is incremented by 1 (218). In the subsequent process 220, Bi
By substituting the value of Bi + 1 (x, y) into (x, y), the m array B is shifted one by one in order, and the brightness for m frames is always counted from the latest frame. Make sure the value is stored as a buffer. In process 222, the loop counter i is incremented by 1, and process 214 is performed when B1 (x, y) is greater than Bm (x, y) at the time of process 212 until i becomes greater than m, and process 216 otherwise. Then, the process is repeated (224). When num is larger than the threshold value th1 (226), the value of eval is incremented by 1 (228), assuming that the pixel at the coordinates (x, y) is monotonically increasing or decreasing. Natural moving images usually have irregular fluctuations due to noise, etc. Also, since the dissolve speed becomes uneven when a human performs a dissolve operation, it is not constant. A margin is provided by providing. In order to perform the above process for all the pixels in the frame image, the process returns to 208 and is repeated (230 to 236). This puts the number of pixels that satisfy the dissolve feature into the eval. Finally, eval is the threshold th2
Is checked (238), and if it is exceeded, it is determined that there is a dissolve, and the dissolve detection processing (240) is executed. Finally, the process returns to the process 204, and the process from 204 is repeated until the end of the video.

【0016】上記の方法では,ズームやパンといったカ
メラの動きがある場合にも,evalが高めに出る。カメラ
が動けば,それに応じて,フレーム画像中の各画素の輝
度も変化し,そうした変化の中には,輝度が単調増加も
しくは単調減少している画素も少なからず存在するから
である。そのため,デゾルブとカメラの動きとの区別が
つきにくいケースもある。そこで,以下では,デゾルブ
がもっと明確にわかるようなデゾルブ検出方法について
説明する。
In the above method, the eval is higher even when there is a camera movement such as zooming or panning. This is because when the camera moves, the brightness of each pixel in the frame image changes accordingly, and in such a change, there are not a few pixels whose brightness monotonously increases or monotonically decreases. Therefore, there are cases where it is difficult to distinguish between dissolve and camera movement. Therefore, the following describes a dissolve detection method that allows the dissolve to be more clearly understood.

【0017】一般に,デゾルブの時間は,1秒(NTSC方
式の映像の場合で30フレーム)以上になるものが多
い。したがって,デゾルブがかかっている区間では,m
=8のときで22フレーム,m=15のときでも15フ
レーム以上の時間,evalの値が高い状態が続く。一方,
カメラの動きの場合は,デゾルブのときほど値は高くな
い上,必ずしも連続して高い状態が続くとは限らない。
したがって,過去nフレーム分についてevalの値の総和
sumをとったとき,デゾルブのときのsumの値とカメラの
動きのときのsumとでは顕著な違いが現れる。図4は,
上記の考え方を加えたデゾルブ検出方法である。
In general, the dissolve time is often one second (30 frames in the case of NTSC video) or more. Therefore, in the section where the dissolve is applied, m
= 8, 22 frames, and when m = 15, the state of high eval continues for 15 frames or more. on the other hand,
In the case of camera movement, the value is not as high as when it is dissolved, and the high state does not always continue.
Therefore, the sum of eval values for the past n frames
When sum is taken, a remarkable difference appears between the value of sum when dissolving and the sum when moving the camera. FIG.
This is a dissolve detection method with the above concept added.

【0018】まず最初に初期化処理として,プログラム
の実行に必要な各種の変数を初期値に設定する(40
0)。次に,過去のフレーム画像の各画素の輝度値を収
めるm個の二次元配列B(x, y)の各要素に0を代入する
とともに,過去nフレーム分のevalの値を記憶するn個
の変数E1〜Enを全て0にする(402)。フレーム画像
のサイズがw×hのとき,xは0からw-1,yは0からh
-1までの値をとる。処理404では,動画像再生装置1
0が出力するフレーム画像の取り込みを行う(40
4)。以下,図2で示した206から236までの処理
を実行してevalを得る(406)。そして,Enにevalの
値を代入する。E1からEnまでの総和をsumに求めるとと
もに,EjにEj+1の値を次々と代入しながらシフトし,常
に最新のeval値がE1〜Enに格納されているようにする
(408〜412)。最後に,sumが閾値th3よりも大き
いかどうかを判定し(414),大きければ,デゾルブ
検出処理240を行い,そうでなければ何もせずに処理
404まで戻って繰り返す。
First, as initialization processing, various variables necessary for executing the program are set to initial values (40
0). Next, 0 is assigned to each element of the m two-dimensional array B (x, y) that stores the luminance value of each pixel of the past frame image, and n values that store eval values for the past n frames are stored. All variables E1 to En of 0 are set to 0 (402). When the frame image size is w × h, x is 0 to w-1 and y is 0 to h
Takes a value up to -1. In process 404, the moving image reproducing apparatus 1
The frame image output by 0 is captured (40
4). Thereafter, the processing from 206 to 236 shown in FIG. 2 is executed to obtain an eval (406). Then, the value of eval is assigned to En. The sum from E1 to En is calculated as sum, and the value of Ej + 1 is successively substituted into Ej so that the latest eval value is always stored in E1 to En (408 to 412). . Finally, it is determined whether sum is larger than the threshold value th3 (414), and if it is larger, the dissolve detection processing 240 is performed. If not, the processing is returned to the processing 404 and repeated without doing anything.

【0019】デゾルブ検出処理240では,デゾルブで
挟まれた場面を重要な場面として選択する。図2および
図4のデゾルブ検出方法を実行すると,図5のような評
価値の時間推移を表すグラフを得ることができる。評価
値は,デゾルブ区間において,一瞬だけ大きな値を示す
のではなく,急速に増加して急速に減少する三角形状の
変化を示す特徴がある。そして,三角形の底辺を成す2
頂点が,デゾルブの開始点と終了点にほぼ対応してい
る。ダイジェストを作成するときには,デゾルブのよう
な特殊映像効果がかかった部分が先頭や末尾に残ってい
ると見苦しいので,デゾルブの終わった点から,次のデ
ゾルブが始まる手前までの区間507を切り出すように
する。そのため,上記のデゾルブ検出方法でデゾルブか
否かの判定に用いる第1の閾値500に加えて,それよ
り低い第2の閾値502を用いる。そして,重要場面の
開始点としてのデゾルブが検出された場合には,評価値
が第1の閾値を超えた点504以降ではじめて第2の閾
値を下回った点506を重要場面の開始点とする。この
とき,余裕をとって開始点を遅らせても構わない。ま
た,重要場面の終了点としてデゾルブが検出された場合
には,評価値が第1の閾値を超えた点510から過去に
遡って見たときに初めて第2の閾値を下回った点508
を重要場面の終了点とする。このとき,開始点と同様
に,余裕をとって終了点を早めの時間にとってもよい。
検出されたデゾルブが重要場面の開始点を示すのか,終
了点を示すのかの判定には,デゾルブ間の時間が利用で
きる。通常の放送が続いてれば,デゾルブはないのでデ
ゾルブ間の時間間隔が長くなり,重要場面ならば,比較
的間隔は短い。こうして得られた重要場面を順番に再生
することで,ダイジェストができる。
In the dissolve detection processing 240, a scene sandwiched between dissolves is selected as an important scene. When the dissolve detection method of FIGS. 2 and 4 is executed, a graph showing the time transition of the evaluation value as shown in FIG. 5 can be obtained. The evaluation value has a characteristic that it does not show a large value for a moment in the dissolve section, but shows a triangular change that increases rapidly and decreases rapidly. And 2 which forms the base of the triangle
The vertices roughly correspond to the starting and ending points of the dissolve. When creating a digest, it is unsightly if the part where a special video effect such as a dissolve is applied remains at the beginning or end, so cut out the section 507 from the point where the dissolve ends to the point before the next dissolve begins. To do. Therefore, in addition to the first threshold value 500 used for determining whether or not a dissolve occurs in the above-described dissolve detection method, a second threshold value 502 lower than that is used. Then, when the dissolve as the starting point of the important scene is detected, the point 506 at which the evaluation value falls below the second threshold for the first time after the point 504 where the evaluation value exceeds the first threshold is set as the starting point of the important scene. . At this time, the start point may be delayed with a margin. When a dissolve is detected as the end point of the important scene, a point 508 at which the evaluation value falls below the second threshold for the first time from the point 510 at which the evaluation value exceeds the first threshold to the past.
Is the end point of the important scene. At this time, like the start point, the end point may be set earlier with a margin.
The time between dissolves can be used to determine whether the detected dissolve indicates the starting point or the ending point of the important scene. If normal broadcasting continues, there is no dissolve, so the time interval between dissolves becomes long, and in important situations, the interval is relatively short. By playing back the important scenes thus obtained in order, a digest can be created.

【0020】上記の実施例においては,輝度の単調な変
化を調べたが,色の同様の変化を利用することもでき
る。色は1次元情報である輝度と異なり,3次元の情報
である。従って,単純に値の増加減少をもとに単調変化
を調べることはできない。ここで,A色からB色への単調
な変化とは,2つの色を3次元の色空間にマッピングし
たとき,A色からの距離を徐々に増しつつ,B色との距離
を徐々に縮める傾向としてとらえることができる。した
がって,図2における過去のフレームの輝度値を記憶す
る二次元配列Bの替わりに,色を記憶する二次元配列
B’を用い,そのB’中の各色がB’1との色差が増加
すると同時にB’mとの色差が減少する形で並んでいる
ことを判定すれば,あとは輝度の場合と同様の手法を用
いることができる。
In the above embodiment, a monotonic change in luminance was investigated, but a similar change in color can be used. Color is three-dimensional information, unlike luminance, which is one-dimensional information. Therefore, it is not possible to simply examine the monotonic change based on the increase or decrease of the value. Here, the monotonic change from color A to color B means that when two colors are mapped in a three-dimensional color space, the distance from color A is gradually increased while the distance from color B is gradually reduced. It can be understood as a tendency. Therefore, instead of the two-dimensional array B that stores the luminance values of the past frames in FIG. 2, a two-dimensional array B ′ that stores colors is used, and if the color difference between each color in B ′ and B′1 increases. At the same time, if it is determined that they are arranged in a form in which the color difference from B'm is reduced, then the same method as in the case of luminance can be used.

【0021】上記のようなデゾルブ等の特殊映像効果を
使ったシーンを重要場面とみなせるのは,現実としてス
ポーツ中継等の一部の番組に限定される。また,スポー
ツ番組中でも合間に挿入されるコマーシャル中には特殊
映像効果が頻繁に登場するため,単純にデゾルブに挟ま
れた区間という条件では過剰に検出しすぎることも多
い。もちろん,多めに検出する分には,元の映像よりも
十分に短い映像になっていれば,実用上問題はない。し
かし,より精度高く重要場面を抽出できれば,概要把握
にかかる時間がさらに節約できる。そこで,ダイジェス
トを作成する対象の映像がどのような種類の映像かを区
別する手段を設け,重要場面の選択に活用する。
The fact that a scene using a special video effect such as dissolve as described above can be regarded as an important scene is actually limited to some programs such as sports broadcasts. In addition, since special video effects frequently appear during commercials inserted between sports programs, it is often over-detected under the condition of a section simply sandwiched between dissolves. Of course, there is no problem in practical use as long as the detected video is a little shorter than the original video. However, if important scenes can be extracted with higher accuracy, the time required to understand the outline can be further saved. Therefore, we will provide a means to distinguish what type of video the digest is for and use it to select important scenes.

【0022】図6と図7は,それぞれニュース番組とス
ポーツ番組において発生するイベントを時間軸に沿って
図示したものである。ここでは,イベントとして,画像
や音声の特徴が大きく変化する点を考える。図中では,
1)構図,2)色調,3)話者,4)字幕,5)デゾル
ブ,6)リプレイ,7)スロー再生,の7項目を例に挙
げた。こうしたイベントの現れ方や組み合わせには番組
の種類によって特徴があり,その特徴をもとに番組の分
類を行うことができる。例えば,ニュース番組において
は,キャスターが全面に登場するカットが時間を空けて
複数回現れるので,同じ構図の画像,より具体的には中
心付近に顔の色である肌色が大きな面積を占めている画
像が複数回現れる特徴がある。また,そのときの話者は
同一人物である場合が多いとか,番組全体として字幕が
頻繁に現れるという特徴もある。一方,スポーツ中継の
場合,固定位置に設置された複数のカメラを切り替えな
がら放送が行われることが多く,同じか極めて類似した
構図の画像が頻繁に現れる。特に野球やサッカーの場合
には,色調は芝生の色である緑がメインとなる。また,
リプレイやスロー再生が頻繁に使われるという特徴があ
る。さらに,CMの場合には,音の途切れが少ない,B
GMが頻繁に使われる,色調が鮮やか,カットが多く,
その時間長も短い,などの特徴がある。このように,映
像中における複数のイベントの組み合わせパターンか
ら,その映像の種類をある程度推測することができる。
そして,ここで挙げたイベントは,画像認識・音声認識
の技術を要する中では比較的簡単に求められ,その信頼
性が高いものばかりである。すなわち,ストーリー等の
映像の意味内容に関する認識は必要としない。
FIGS. 6 and 7 are views showing events occurring in news programs and sports programs along the time axis, respectively. Here, let us consider the fact that the characteristics of images and sounds change greatly as an event. In the figure,
The seven items, 1) composition, 2) color tone, 3) speaker, 4) subtitle, 4) dissolve, 6) replay, and 7) slow playback, are given as examples. The appearance and combination of such events have characteristics depending on the type of program, and the programs can be classified based on the characteristics. For example, in a news program, cuts that appear on the entire surface of the caster appear multiple times at intervals, so an image of the same composition, more specifically, a skin color, which is the color of the face, occupies a large area near the center. There is a feature that the image appears multiple times. In addition, the speakers at that time are often the same person, and subtitles frequently appear in the entire program. On the other hand, in the case of sports broadcasting, broadcasting is often performed by switching between multiple cameras installed at fixed positions, and images with the same or very similar composition frequently appear. Especially in the case of baseball and soccer, the main color tone is green, which is the color of the lawn. Also,
It is characterized by frequent use of replay and slow playback. Furthermore, in the case of CM, there is little break in sound, B
GM is often used, the color tone is vivid, and there are many cuts.
It is characterized by a short time length. In this way, the type of the video can be estimated to some extent from the combination pattern of a plurality of events in the video.
And, the events listed here are relatively easy to obtain and require only high reliability, while the techniques of image recognition and voice recognition are required. That is, it is not necessary to recognize the semantic content of images such as stories.

【0023】図8は,映像の種類を見分けるシステムの
ブロック図の一例である。入力映像は,画像信号と音声
信号のそれぞれについて,画像取り込み部800及び音
声取り込み部802でデジタイズされる。デジタイズさ
れたデータは,イベント検出部804に送られ,804
中の種類別に設けられた専用検出部806〜820によ
って,イベント検出の処理が行われる。検出されたイベ
ントは,イベント別カウンタ部822によって,イベン
トの種類別にカウントされる。また,同時生起カウンタ
部824は,複数のイベントが同時に,もしくは規定の
順番に現れた場合にのみ,そのイベントの組み合わせに
対応するカウンタを1増やす。これらのカウンタで得ら
れた各種イベントの出現頻度分布は,比較部828によ
って,どの種類の番組におけるイベントの出現頻度分布
に近いか比較照合される。
FIG. 8 is an example of a block diagram of a system for discriminating the type of video. The input video is digitized by the image capturing unit 800 and the audio capturing unit 802 for each of the image signal and the audio signal. The digitized data is sent to the event detection unit 804,
Event detection processing is performed by dedicated detection units 806 to 820 provided for each type. The detected event is counted by the event counter unit 822 for each type of event. Further, the co-occurrence counter section 824 increments the counter corresponding to the combination of the events by 1 only when a plurality of events appear at the same time or in a prescribed order. The appearance frequency distribution of various events obtained by these counters is compared and collated by the comparing unit 828 to determine which kind of program the event appearance frequency distribution is close to.

【0024】次に,図8中の各ブロックについて詳細に
説明する。
Next, each block in FIG. 8 will be described in detail.

【0025】イベント検出部804のうち,カット点検
出部806は,カットの変わり目を検出する。その手法
については,例えば,発明者らによる,情報処理学会論
文誌Vol.33, No.4, 「カラービデオ映像における自動索
引付け法と物体探索法」や特開平4−111181号等
で示された方法等が利用できる。イベント別カウンタ部
822では,カット点の数がカウントされる。
The cut point detecting unit 806 of the event detecting unit 804 detects a cut transition. The method is shown in, for example, IPSJ Journal Vol.33, No.4, "Automatic indexing method and object search method in color video image" by the inventors, and JP-A-4-111181. You can use other methods. The event-specific counter unit 822 counts the number of cut points.

【0026】同一構図検出部806は,予め定めた時間
以内の過去に遡って,同じ構図もしくは類似した構図の
絵が現れているかどうかを検出する。これにはテンプレ
ートマッチングに代表される画像比較手法が使える。具
体的には,比較する2枚のフレーム画像の同じ座標位置
にある画素の1つ1つについて,輝度差もしくは色差を
求めて全画面分の総和をとり,これを画像間の相異度と
する。この相異度が定めた閾値より小さければ,同一も
しくは類似性が高いと判定できる。ここで,映像中のフ
レーム画像全てについて,同一構図か否かを検出するの
は処理時間がかかり,また,連続するフレーム画像間で
は画像の類似性が高い動画像の特徴を考慮すると無駄で
もある。そこで,カット点検出に連動させて,カット点
の画像だけを調べる対象とする。イベント別カウンタ部
では,同一構図を持つフレームの数がカウントされる。
The same composition detecting unit 806 detects whether or not a picture of the same composition or a similar composition appears by tracing back to the past within a predetermined time. An image comparison method typified by template matching can be used for this. Specifically, for each pixel at the same coordinate position of the two frame images to be compared, the luminance difference or the color difference is obtained, and the total sum for the entire screen is calculated. To do. If the degree of difference is smaller than a predetermined threshold value, it can be determined that they are the same or have high similarity. Here, it takes a long processing time to detect whether or not all the frame images in the video have the same composition, and it is wasteful to consider the feature of a moving image having a high image similarity between consecutive frame images. . Therefore, only the image of the cut point is to be examined in conjunction with the cut point detection. The event-specific counter section counts the number of frames having the same composition.

【0027】色調検出部810は,予め定めた時間以内
の過去に遡って,同一の色調もしくは類似した色調の絵
が現れているかどうかを検出する。これには,例えば,
フレーム画面全体についての色度数分布が利用できる。
これは構図に無関係な,どの色がどれだけ使われている
かを表した特徴量である。具体的には,比較する2枚の
フレーム画像のそれぞれについて,画像を表現する画素
の色を64色程度に分別し,それら各色がそれぞれフレ
ーム画像中にどれだけ存在するかをカウントする。そし
て,得られた度数分布の各度数の差分の絶対値の総和を
もって色調の相異度とする。この相異度が定めた閾値よ
り小さければ,同一もしくは類似性が高いと判定でき
る。色調に関しても構図と同様の理由で,カット点の画
像についてのみ対象とすると効率がよい。イベント別カ
ウンタ部では,同一色調を持つフレームの数がカウント
される。また,色調検出部は,途中で求めた度数分布を
利用して,どの色が最も多く使われているかを調べるよ
うにしてもよい。具体的には,イベント別カウンタ部中
に,赤・青・緑等の色別にカウンタを用意し,赤系の色
が多ければ赤のカウンタを増やし,緑が多ければ,緑の
カウンタを増やすようにする。
The color tone detecting section 810 detects whether or not a picture of the same color tone or a similar color tone appears by going back to the past within a predetermined time. This includes, for example,
A chromaticity distribution for the entire frame screen is available.
This is a feature quantity that indicates how much each color is used, regardless of composition. Specifically, for each of the two frame images to be compared, the color of the pixel expressing the image is divided into about 64 colors, and the number of each of these colors existing in the frame image is counted. Then, the sum of the absolute values of the differences of the obtained frequency distributions is used as the color difference. If the degree of difference is smaller than a predetermined threshold value, it can be determined that they are the same or have high similarity. Regarding the color tone, it is efficient to target only the image of the cut point for the same reason as the composition. The event-specific counter unit counts the number of frames having the same color tone. Further, the color tone detecting unit may check which color is used most by using the frequency distribution obtained on the way. Specifically, prepare counters for each color such as red, blue, and green in the event-specific counter section, and increase the red counter if there are many red colors, and increase the green counter if there are many green colors. To

【0028】字幕検出部812は,映像中に字幕が現れ
ているかどうかを検出する。その手法については,例え
ば,発明者らによる,特願平5-330507等で示された方法
等が利用できる。イベント別カウンタ部822では,字
幕の出現数がカウントされる。
The caption detection unit 812 detects whether a caption appears in the video. As the method, for example, the method shown in Japanese Patent Application No. 5-330507 by the inventors can be used. In the event counter section 822, the number of appearances of subtitles is counted.

【0029】デゾルブ検出部814は,映像中のデゾル
ブ等の特殊効果を検出する。その手法については,本発
明の前半で説明した通りである。イベント別カウンタ部
822では,デゾルブの出現数がカウントされる。
The dissolve detecting section 814 detects a special effect such as dissolve in an image. The method is as described in the first half of the present invention. The event counter unit 822 counts the number of appearances of dissolves.

【0030】リプレイ検出部816は,予め定めた時間
以内の過去に遡って,全く同一の映像が現れているかど
うかを検出する。これは同一構図検出部808と同様に
テンプレートマッチング等によってフレーム画像の比較
をすることで行える。しかし,比較する動画像間の各フ
レームごとにテンプレートマッチングを行っていたので
は処理時間がかかりすぎるので,各フレームを数文字分
程度のコードに変換し,そのコード列の照合をもって動
画像の照合とする。1枚のフレームに対応するコード単
体では情報量が極めて小さいが,動画像は多くのフレー
ムから構成されるので,1つの動画像が含むコードの数
も多く,動画像中におけるコードの一連のシーケンス
は,一片の動画像を特定するに足る十分な情報量を持
つ。こうした考え方に立脚した動画像の照合方法は,発
明者らによる,特開平7−114567号に示されてい
る。
The replay detection unit 816 detects whether or not the completely same video appears by going back to the past within a predetermined time. This can be performed by comparing frame images by template matching or the like as in the same composition detection unit 808. However, if template matching is performed for each frame between the moving images to be compared, it takes too much processing time, so each frame is converted into a code of several characters and the matching of the code string is used to match the moving images. And The amount of information is extremely small in a code unit corresponding to one frame, but since a moving image is composed of many frames, one moving image also contains a large number of codes and a sequence of codes in the moving image. Has a sufficient amount of information to identify a piece of moving image. A method of collating moving images based on this concept is disclosed in Japanese Patent Laid-Open No. 7-114567 by the inventors.

【0031】スロー再生検出部818は,スロー再生の
映像を検出する。スロー再生は,フレーム画像を標準再
生時よりも長めの間隔(1/2スローで2倍,1/4ス
ローで4倍)で連続表示することで実現されるため,ス
ロー再生の映像の場合,画像取り込み部800でデジタ
イズされる画像は,全く同じ画像が複数枚続くという特
徴がある(1/2スローで2枚,1/4スローで4
枚)。そこで,スロー再生かどうかの判定には,連続す
る2枚のフレームを調べ,そのテンプレートマッチング
によって画像相異度を調べる。そして,一定時間分の相
異度の推移を調べ,相異度が特定の周期で大きい値と小
さい値を繰り返しているようならば,スロー再生である
と判定する。例えば,1/2スローの場合には,2枚ず
つ同じ画像が続くので,相異度は,小さい値と大きい値
を交互に繰り返す。1/4の場合には,小さい値が3回
続いて大きい値が1回というように繰り返す。但し,動
画像の場合,スロー再生でなくても,連続する2枚のフ
レーム画像は類似しているので,相異度の大小の判定は
閾値を低めにして行う必要がある。イベント別カウンタ
部822では,スロー再生の出現数がカウントされる。
The slow playback detecting section 818 detects the slow playback video. Slow playback is realized by continuously displaying frame images at intervals longer than in standard playback (1/2 slow is 2 times, 1/4 slow is 4 times), so in the case of slow playback video, The images digitized by the image capturing unit 800 are characterized in that a plurality of exactly the same images continue (two in 1/2 slow, four in 1/4 slow).
Sheet). Therefore, in order to determine whether or not the slow reproduction is performed, two consecutive frames are examined and the image difference degree is examined by the template matching. Then, the transition of the dissimilarity for a certain period of time is examined, and if the dissimilarity repeats a large value and a small value in a specific cycle, it is determined to be slow reproduction. For example, in the case of 1/2 throw, since the same image continues two by two, the difference degree repeats a small value and a large value alternately. In the case of 1/4, a small value is repeated three times, and a large value is repeated once. However, in the case of a moving image, two consecutive frame images are similar to each other even if the slow reproduction is not performed. Therefore, it is necessary to make the threshold value lower to determine the magnitude of the difference. In the event counter unit 822, the number of appearances of slow reproduction is counted.

【0032】同一話者検出部820では,予め定めた時
間以内の過去に遡って,同一の話者が話したことがあっ
たかどうかを検出する。例えば,音声の自己相関を求
め,最も大きな値をとる周波数が一致しているかどうか
で調べることができる。イベント別カウンタ部822で
は,同一話者の発話数がカウントされる。
The same-speaker detecting section 820 detects whether or not the same speaker has spoken retroactively within a predetermined time. For example, it is possible to find the autocorrelation of the voice and check whether or not the frequencies having the largest values match. The event-specific counter unit 822 counts the number of utterances of the same speaker.

【0033】同時生起カウンタ部824は,上記のイベ
ントのうちの幾つかが同時もしくは特定の順番で現れた
場合にカウントを行う。カウンタは,検出するイベント
の組み合わせの数だけ用意される。例えば,同じ構図の
ときに,同じ話者が話しているケースでは,構図イベン
トと話者イベントの同時発生に対応するカウンタが1増
やされる。同様に,デゾルブがあって,その直後にスロ
ー再生が検出された場合には,デゾルブイベントとスロ
ー再生イベントの連続発生に対応するカウンタが1増え
る。
The co-occurrence counter section 824 counts when some of the above events appear simultaneously or in a specific order. Counters are prepared for each combination of detected events. For example, in the case of the same composition and the same speaker speaking, the counter corresponding to the simultaneous occurrence of the composition event and the speaker event is incremented by one. Similarly, when there is a dissolve and slow reproduction is detected immediately after that, the counter corresponding to the consecutive occurrence of the dissolve event and the slow reproduction event is incremented by one.

【0034】比較部828では,時計826を参照し,
時刻t1からt2までの一定時間における映像中のイベ
ントの出現頻度の傾向が,どのような種類の番組のもの
に近いかを比較する。比較に先立ち,まずニュース番
組,スポーツ番組などそれぞれの種類別に典型的なイベ
ントを調べておき,番組を特徴づける重要なイベントで
あるほど高くなるように値を与えてランク付けを行っ
て,番組ごとにイベント別のランク一覧表を作成する。
比較にあたっては,各イベントの出現頻度値を正規化し
た値に,このランク一覧表で記述された値を掛けて重み
付けを行い,そうして得られた各イベントごとの値の総
和が閾値を超えた場合,そのランク一覧に対応する種類
の番組であると判定する。
The comparison unit 828 refers to the clock 826,
It is compared what kind of program the tendency of the appearance frequency of the event in the video in a certain time from the time t1 to the time t2 is close. Prior to comparison, first check typical events for each type, such as news programs and sports programs, and assign a value so that the more important events characterize the program, the higher the ranking, and the more each event is ranked. Create a rank list for each event.
For comparison, the normalized appearance frequency value of each event is multiplied by the value described in this rank list and weighted, and the sum of the values of each event thus obtained exceeds the threshold value. If so, it is determined that the program is of a type corresponding to the rank list.

【0035】このようにして得られたイベントを,図6
もしくは図7のような,一方を時間軸とする表形式で,
図1のディスプレイ1上に一覧表示することができる。
この一覧表示によって,計算機が自動で判定できなかっ
た場合でも,ユーザはこうした情報を1つの手がかりに
して,他から入手した情報,経験や知識等を合わせて利
用することによって,番組の種類を推測できる可能性が
ある。また,計算機に教えていない種類の番組が新たに
入力された場合,この一覧表示の中から,重要なイベン
ト,もしくはイベントの組み合わせを選んで登録するよ
うにしてもよい。これは,図1で示したマウス等のポイ
ンティングデバイス5を使って,一覧表上の各イベント
の変化点や区間の表示部分をクリックするなどのダイレ
クトかつビジュアルな操作で行うようにすればユーザに
とって非常に便利になる。
The event thus obtained is shown in FIG.
Alternatively, as shown in FIG. 7, in a table format with one side as the time axis,
A list can be displayed on the display 1 of FIG.
Even if the computer cannot automatically judge by this list display, the user can guess the type of program by using such information as one clue and using the information, experience and knowledge obtained from others together. There is a possibility. Further, when a program of a type not taught to the computer is newly input, an important event or a combination of events may be selected and registered from this list display. This can be done by a direct and visual operation such as clicking the change point of each event on the list or the display portion of the section using the pointing device 5 such as the mouse shown in FIG. 1 for the user. It will be very convenient.

【0036】尚、本発明はPC/WSを用いて実現でき
る他、TV、VTRなどの一機能としても適用可能であ
る。
The present invention can be realized not only by using PC / WS but also as one function of TV, VTR and the like.

【0037】[0037]

【発明の効果】本発明によれば,重要な場面とその範囲
を同時に得ることができ,ダイジェスト映像が自動で作
成できる効果がある。一般にリプレイされる場面は重要
な場面であることが多いが、本発明では、デゾルブを含
む特殊映像効果の区間を検出することによって、放送中
のリプレイ場面を精度よく検出できる。
According to the present invention, an important scene and its range can be obtained at the same time, and a digest video can be automatically created. Generally, the replayed scene is often an important scene, but in the present invention, the replayed scene during broadcasting can be accurately detected by detecting the section of the special video effect including the dissolve.

【0038】さらにまた,カット変化や色調を含む複数
の種類の画像特徴量の変化が同時または特定の順番で発
生したことからなる特徴量に基づき,番組の種類を判別
する手段によって,映像の種類が自動的に判定されるの
で,視聴者にとって興味のない種類の映像であれば,ダ
イジェスト映像を見るまでもなく却下でき,効率的な映
像選択ができる効果がある。また,この映像の種類の判
定においては,簡単な画像や音声の変化とその組み合わ
せから判定を行うので,処理が高速に行える。
Furthermore, the means for discriminating the type of the program based on the characteristic amount which is obtained by simultaneously or in a specific order that a plurality of types of changes in the image characteristic amount including the cut change and the color tone occur Since it is automatically determined, if the video is of a type that is not of interest to the viewer, it can be rejected without looking at the digest video, and there is an effect that efficient video selection can be performed. Further, in the determination of the type of the video, the determination can be performed based on the simple change of the image and the sound and the combination thereof, so that the processing can be performed at high speed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例を実現するためのシステムブロ
ック図である。
FIG. 1 is a system block diagram for realizing an embodiment of the present invention.

【図2】デゾルブの検出を行うプログラムのフローチャ
ートである。
FIG. 2 is a flow chart of a program for detecting a dissolve.

【図3】デゾルブの概念を表す図である。FIG. 3 is a diagram showing a concept of dissolve.

【図4】デゾルブの検出を行うもう1つのプログラムの
フローチャートである。
FIG. 4 is a flowchart of another program for detecting a dissolve.

【図5】デゾルブ検出を行うプログラムを実行したとき
の評価値の時間推移を表すグラフである。
FIG. 5 is a graph showing a time transition of an evaluation value when a program for detecting a dissolve is executed.

【図6】ニュース番組の典型的なイベントチャートであ
る。
FIG. 6 is a typical event chart of a news program.

【図7】スポーツ中継の典型的なイベントチャートであ
る。
FIG. 7 is a typical event chart of sports broadcasting.

【図8】映像の分類を行うシステムのブロック図であ
る。
FIG. 8 is a block diagram of a system for classifying images.

【符号の説明】[Explanation of symbols]

1…ディスプレイ,2…制御信号線,3…A/D変換
器,4…コンピュータ,5…入力装置,6…外部情報記
憶装置,7…CPU,8…接続インタフェース,9…メ
モリ,10…動画像再生装置,11…キーボード。
1 ... Display, 2 ... Control signal line, 3 ... A / D converter, 4 ... Computer, 5 ... Input device, 6 ... External information storage device, 7 ... CPU, 8 ... Connection interface, 9 ... Memory, 10 ... Movie Image reproduction device, 11 ... Keyboard.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 谷口 勝美 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所中央研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Katsumi Taniguchi 1-280, Higashi Koigokubo, Kokubunji, Tokyo Metropolitan Research Center, Hitachi Ltd.

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】連続する複数枚の画像よりなる動画像から
デゾルブを含む特殊映像効果の場面の変わり目を検出す
る動画像の特徴場面検出方法において,対象となる動画
像をフレーム単位で時系列に処理装置に入力し,該処理
装置では,フレーム中の各画素の色もしくは輝度が,連
続する複数枚のフレーム群にまたがって,該フレーム群
の最初のフレームの色もしくは輝度の値から,最後のフ
レームの色もしくは輝度の値に向けて単調に近づく傾向
で推移しているかどうかを調べ,該条件を満たす画素の
数から画面全体としての変化を表す評価値を計算し,該
評価値が予め定めた許容範囲外となった時点で,該連続
する複数枚のフレーム群にまたがる区間に,デゾルブを
含む特殊映像効果による場面の変わり目があったと判定
し,該区間もしくはその近傍を動画像中の特徴的な点で
あると判定することを特徴とする動画像の特徴場面検出
方法。
1. A method for detecting a characteristic scene of a moving image, which detects a transition of a scene of a special video effect including a dissolve from a moving image composed of a plurality of continuous images, in which the target moving image is time-series in units of frames. Inputting to the processing device, in the processing device, the color or brightness of each pixel in a frame is spread over a plurality of consecutive frame groups, and from the color or brightness value of the first frame of the frame group to the final value. It is checked whether or not the color or brightness of the frame tends to become monotonous, and the evaluation value representing the change in the entire screen is calculated from the number of pixels satisfying the condition, and the evaluation value is predetermined. When it is outside the permissible range, it is determined that there is a scene change due to a special video effect including dissolve in the section that spans the plurality of consecutive frame groups, and the section is also broken. Wherein the scene detection process of a moving image, characterized by determining the neighborhood as a characteristic feature of the moving image.
【請求項2】請求項1記載の動画像の動画像の特徴場面
検出方法において,単調に近づく傾向かどうかの判定の
手段として,各画素ごとに複数枚のフレーム分の輝度を
格納するバッファを持たせ,該バッファ内において直前
の輝度との差分が正の値を示す輝度の数が該バッファに
格納された輝度の総数のうち多数を占める場合に単調増
加とし,一方,該バッファ内において直前の輝度との差
分が負の値を示す輝度の数が該バッファに格納された輝
度の総数のうち多数を占める場合に単調減少と判定する
ことを特徴とする動画像の特徴場面検出方法。
2. A method for detecting a characteristic scene of a moving image of a moving image according to claim 1, wherein a buffer for storing the brightness of a plurality of frames for each pixel is provided as means for determining whether or not the tendency tends to be monotonous. If the number of luminances in which the difference from the immediately preceding luminance shows a positive value in the buffer occupies the majority of the total number of luminances stored in the buffer, it is monotonically increased. A method for detecting a characteristic scene of a moving image, characterized in that when the number of luminances having a negative difference from the luminance of occupies a majority of the total number of luminances stored in the buffer, it is determined to be monotonically decreasing.
【請求項3】請求項1記載の動画像の動画像の特徴場面
検出方法において,画面全体としての時間推移の傾向を
表す評価値を一定時間分過去まで遡って総和をとり,そ
の総和をもってデゾルブを含む特殊映像効果による場面
の変わり目があったと判定することを特徴とする動画像
の特徴場面検出方法。
3. The method for detecting a characteristic scene of a moving image of a moving image according to claim 1, wherein the evaluation values representing the tendency of the time transition of the entire screen are summed retroactively for a certain period of time, and the sum is dissolved. A method for detecting a characteristic scene in a moving image, which is characterized by determining that there is a scene change due to a special video effect including the.
【請求項4】請求項1記載の動画像の動画像の特徴場面
検出方法において,検出したデゾルブを含む特殊映像効
果による場面の変わり目と後続するデゾルブを含む特殊
映像効果による場面の変わり目に挾まれた区間が一定時
間以内であるとき、該区間を重要な場面として抽出する
ことを特徴とする動画像の特徴場面検出方法。
4. A method for detecting a characteristic scene of a moving picture of a moving picture according to claim 1, wherein a scene change is caused by a special video effect including the detected dissolve and a scene change is caused by a special video effect including a subsequent dissolve. A method for detecting a characteristic scene of a moving image, wherein the section is extracted as an important scene when the section is within a certain time.
【請求項5】請求項4記載の動画像の動画像の特徴場面
検出方法において,該重要な場面の区間は、特殊映像効
果の継続期間中を除いた残りの区間とすることを特徴と
する動画像の特徴場面検出方法。
5. The method for detecting a characteristic scene of a moving picture according to claim 4, wherein the section of the important scene is the remaining section excluding the duration of the special video effect. A method for detecting characteristic scenes in moving images.
【請求項6】連続する複数枚の画像よりなる動画像がど
のような種類の番組であるかを判別する動画像の分類方
法において,対象となる動画像をフレーム単位で時系列
に処理装置に入力し,または対象となる音声を時系列に
処理装置に入力し,該処理装置では,カット変化や色調
を含む複数の種類の画像特徴量の変化を検出する手段
と,必要に応じて話者変化を含む音声特徴量の変化を検
出する手段を設け,該画像特徴量および音声特徴量の変
化検出手段により,変化が発生したこと,もしくは複数
の変化が同時または特定の順番で発生したことからなる
特徴量に基づき,番組の種類を判別することを特徴とす
る動画像の分類方法。
6. A moving image classification method for determining what kind of program a moving image consisting of a plurality of continuous images is, in a processing device, a target moving image is time-sequentially processed in frame units. A unit for inputting or inputting a target voice in a time series to a processing device, the processing device detecting a change in a plurality of types of image feature amounts including a cut change and a color tone, and a speaker if necessary. A means for detecting a change in the voice feature quantity including a change is provided, and the change detection means for the image feature quantity and the voice feature quantity causes a change, or a plurality of changes occur simultaneously or in a specific order. A method for classifying moving images, characterized in that the type of program is discriminated based on the feature amount.
【請求項7】請求項6記載の動画像の分類方法におい
て,検出された複数の種類の画像特徴量もしくは音声特
徴量の変化点ならびにその変化区間を,時間軸を1つの
軸とする表形式で一覧表示することを特徴とする動画像
の分類方法。
7. The moving image classification method according to claim 6, wherein the detected change points of the plurality of types of image feature amounts or audio feature amounts and the change sections thereof are in a table format with the time axis as one axis. A method for classifying moving images, which is characterized by displaying a list in.
【請求項8】連続する複数枚の画像よりなる動画像から
デゾルブを含む特殊映像効果の場面の変わり目を検出す
る動画像の特徴場面検出装置において,対象となる動画
像をフレーム単位で時系列に入力する入力手段と、過去
に入力されたフレームを複数枚バッファリングする手段
と,該バッファリングされたフレームの特徴量が,古い
ものから順番に単調に最も新しいフレームの特徴量に近
づいていく特徴を持つか否かを判定する手段と、該判定
手段によって真と判定された場合には,特殊映像効果が
あったとして,そのフレームから一定時間もしくは次の
特殊映像効果が検出されるまでの映像区間を重要な場面
として抽出する手段を設けたことを特徴とする動画像の
特徴場面検出装置。
8. A characteristic scene detection device for a moving image, which detects a transition of a scene of a special video effect including a dissolve from a moving image composed of a plurality of continuous images, in which the target moving image is time-sequentially frame by frame. Input means for inputting, means for buffering a plurality of frames input in the past, and feature values of the buffered frames that monotonically approach the feature value of the newest frame in order from the oldest one Means for deciding whether or not there is, and if the decision means decides that there is a special video effect, the video from that frame for a certain period of time or until the next special video effect is detected A characteristic scene detection device for a moving image, characterized by comprising means for extracting a section as an important scene.
【請求項9】請求項9記載の動画像の特徴場面検出装置
において、上記特殊映像効果に加えて、カットの変わり
目,字幕の表示,構図を含む映像の変化や状態を検出す
る手段と、それらが現れる順序や組み合わせから映像の
種類を判別する手段とを設けたことを特徴とする動画像
の特徴場面検出装置。
9. A moving image characteristic scene detection apparatus according to claim 9, wherein in addition to the special video effect, a means for detecting a change or state of a video including a cut transition, subtitle display, composition, and the like. A device for detecting a characteristic scene of a moving image, which is provided with a means for discriminating the type of video from the order or combination of the appearance of.
JP21040995A 1995-08-18 1995-08-18 Method and apparatus for detecting feature scene of moving image Expired - Fee Related JP3728775B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21040995A JP3728775B2 (en) 1995-08-18 1995-08-18 Method and apparatus for detecting feature scene of moving image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21040995A JP3728775B2 (en) 1995-08-18 1995-08-18 Method and apparatus for detecting feature scene of moving image

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004199996A Division JP3906854B2 (en) 2004-07-07 2004-07-07 Method and apparatus for detecting feature scene of moving image

Publications (2)

Publication Number Publication Date
JPH0965287A true JPH0965287A (en) 1997-03-07
JP3728775B2 JP3728775B2 (en) 2005-12-21

Family

ID=16588845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21040995A Expired - Fee Related JP3728775B2 (en) 1995-08-18 1995-08-18 Method and apparatus for detecting feature scene of moving image

Country Status (1)

Country Link
JP (1) JP3728775B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0869445A2 (en) * 1997-03-31 1998-10-07 Hitachi, Ltd. Video signal processing system and method using time code
JPH11112870A (en) * 1997-10-07 1999-04-23 Matsushita Electric Ind Co Ltd Animation editing system, animation reproducing system, animation editing reproduction system and medium for recording program of them
JPH11261909A (en) * 1998-03-12 1999-09-24 Toshiba Corp Multimedia data processor, its method and recording medium
JP2001309269A (en) * 2000-04-25 2001-11-02 Fujitsu Ltd Apparatus and method for browsing of digital video image contents
WO2002023891A3 (en) * 2000-09-13 2002-05-30 Koninkl Philips Electronics Nv Method for highlighting important information in a video program using visual cues
JP2003032583A (en) * 2001-03-23 2003-01-31 Lg Electronics Inc Anchor shot detection method for news video browsing system
US6587637B2 (en) 1997-05-16 2003-07-01 Hitachi, Ltd. Image retrieving method and apparatuses therefor
WO2006011447A1 (en) * 2004-07-30 2006-02-02 Matsushita Electric Industrial Co., Ltd. Digest creating method and device
US7013477B2 (en) 2000-05-25 2006-03-14 Fujitsu Limited Broadcast receiver, broadcast control method, and computer readable recording medium
KR100634671B1 (en) * 1999-08-13 2006-10-13 주식회사 케이티 High accurate and real time gradual scene change detector and method
JP2007060392A (en) * 2005-08-25 2007-03-08 Toshiba Corp Image storage device and method
US7280753B2 (en) 2003-09-03 2007-10-09 Canon Kabushiki Kaisha Display apparatus, image processing apparatus, and image processing system
JP2009049511A (en) * 2007-08-14 2009-03-05 Nippon Hoso Kyokai <Nhk> Still image extracting device and still image extracting program
US7751683B1 (en) 2000-11-10 2010-07-06 International Business Machines Corporation Scene change marking for thumbnail extraction
JP2010183383A (en) * 2009-02-06 2010-08-19 Sony Corp Content processing apparatus and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05334374A (en) * 1992-05-28 1993-12-17 Ibm Japan Ltd System for scene information input and method therefor
JPH0746517A (en) * 1993-07-29 1995-02-14 Canon Inc Method and device for searching moving image
JPH07192003A (en) * 1993-12-27 1995-07-28 Hitachi Ltd Device and method for retrieving animation picture

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05334374A (en) * 1992-05-28 1993-12-17 Ibm Japan Ltd System for scene information input and method therefor
JPH0746517A (en) * 1993-07-29 1995-02-14 Canon Inc Method and device for searching moving image
JPH07192003A (en) * 1993-12-27 1995-07-28 Hitachi Ltd Device and method for retrieving animation picture

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0869445A3 (en) * 1997-03-31 2002-11-06 Hitachi, Ltd. Video signal processing system and method using time code
EP0869445A2 (en) * 1997-03-31 1998-10-07 Hitachi, Ltd. Video signal processing system and method using time code
US7181127B2 (en) 1997-05-16 2007-02-20 Hitachi, Ltd. Image retrieving method and apparatuses therefor
US7181126B2 (en) 1997-05-16 2007-02-20 Hiatchi, Ltd. Image retrieving method and apparatuses therefor
US6587637B2 (en) 1997-05-16 2003-07-01 Hitachi, Ltd. Image retrieving method and apparatuses therefor
US7254311B2 (en) 1997-05-16 2007-08-07 Hitachi, Ltd. Image retrieving method and apparatuses therefor
EP1494137A2 (en) * 1997-05-16 2005-01-05 Hitachi, Ltd. Video retrieving system and method
EP1494137A3 (en) * 1997-05-16 2005-06-01 Hitachi, Ltd. Video retrieving system and method
JPH11112870A (en) * 1997-10-07 1999-04-23 Matsushita Electric Ind Co Ltd Animation editing system, animation reproducing system, animation editing reproduction system and medium for recording program of them
JPH11261909A (en) * 1998-03-12 1999-09-24 Toshiba Corp Multimedia data processor, its method and recording medium
KR100634671B1 (en) * 1999-08-13 2006-10-13 주식회사 케이티 High accurate and real time gradual scene change detector and method
JP2001309269A (en) * 2000-04-25 2001-11-02 Fujitsu Ltd Apparatus and method for browsing of digital video image contents
JP4587416B2 (en) * 2000-04-25 2010-11-24 富士通株式会社 Digital video content browsing apparatus and method
US7013477B2 (en) 2000-05-25 2006-03-14 Fujitsu Limited Broadcast receiver, broadcast control method, and computer readable recording medium
WO2002023891A3 (en) * 2000-09-13 2002-05-30 Koninkl Philips Electronics Nv Method for highlighting important information in a video program using visual cues
JP2004509529A (en) * 2000-09-13 2004-03-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ How to use visual cues to highlight important information in video programs
US7751683B1 (en) 2000-11-10 2010-07-06 International Business Machines Corporation Scene change marking for thumbnail extraction
JP2003032583A (en) * 2001-03-23 2003-01-31 Lg Electronics Inc Anchor shot detection method for news video browsing system
US7777780B2 (en) 2003-09-03 2010-08-17 Canon Kabushiki Kaisha Image motion display method and apparatus
US7280753B2 (en) 2003-09-03 2007-10-09 Canon Kabushiki Kaisha Display apparatus, image processing apparatus, and image processing system
US9131122B2 (en) 2003-09-03 2015-09-08 Canon Kabushiki Kaisha Apparatus, method, system, and storage medium causing a display to display a graph indicating a degree of change of part of a captured image
US8654199B2 (en) 2003-09-03 2014-02-18 Canon Kabushiki Kaisha Image motion detection apparatus and method for determining a parameter for detecting a moving object in a moving image and computer readable medium having encoded thereon a program instructing a computer to perform the method
WO2006011447A1 (en) * 2004-07-30 2006-02-02 Matsushita Electric Industrial Co., Ltd. Digest creating method and device
US8544037B2 (en) 2004-07-30 2013-09-24 Panasonic Corporation Digest creating method and device
JP2007060392A (en) * 2005-08-25 2007-03-08 Toshiba Corp Image storage device and method
JP2009049511A (en) * 2007-08-14 2009-03-05 Nippon Hoso Kyokai <Nhk> Still image extracting device and still image extracting program
JP2010183383A (en) * 2009-02-06 2010-08-19 Sony Corp Content processing apparatus and method
US8693847B2 (en) 2009-02-06 2014-04-08 Sony Corporation Contents processing apparatus and method

Also Published As

Publication number Publication date
JP3728775B2 (en) 2005-12-21

Similar Documents

Publication Publication Date Title
JP3250467B2 (en) Video summarization method and video display method
US6157744A (en) Method and apparatus for detecting a point of change in a moving image
US7362949B2 (en) Intelligent video system
US6567550B2 (en) Video retrieval method and apparatus
JP3472659B2 (en) Video supply method and video supply system
US7483624B2 (en) System and method for indexing a video sequence
EP1182584A2 (en) Method and apparatus for video skimming
JP3728775B2 (en) Method and apparatus for detecting feature scene of moving image
US7184593B2 (en) Method and apparatus for detecting local features of video, and recording medium storing the method
JP3534368B2 (en) Moving image processing method and moving image processing apparatus
KR20040077708A (en) A method and apparatus for multimodal story segmentation for linking multimedia content
WO2004014061A2 (en) Automatic soccer video analysis and summarization
JP2007060392A (en) Image storage device and method
KR20030026529A (en) Keyframe Based Video Summary System
EP1482731A2 (en) Broadcast program contents menu creation apparatus and method
US20100259688A1 (en) method of determining a starting point of a semantic unit in an audiovisual signal
WO2010125757A1 (en) Video/audio reproduction device, video/audio recording/ reproduction device, video/audio reproduction method, and video/audio recording/reproduction method
JP3642019B2 (en) AV content automatic summarization system and AV content automatic summarization method
JP3906854B2 (en) Method and apparatus for detecting feature scene of moving image
US20040246259A1 (en) Music program contents menu creation apparatus and method
CN115734007A (en) Video editing method, device, medium and video processing system
US20100079673A1 (en) Video processing apparatus and method thereof
JP4007406B2 (en) Feature scene detection method for moving images
JP3625935B2 (en) Important image extracting apparatus and important image extracting method for moving images
JP3624677B2 (en) Special effect detection device for moving image and recording medium recording program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040511

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040707

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050513

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050926

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091014

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091014

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101014

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111014

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121014

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees