JPH0832924A - Method for extracting key screen and device therefor - Google Patents

Method for extracting key screen and device therefor

Info

Publication number
JPH0832924A
JPH0832924A JP6167262A JP16726294A JPH0832924A JP H0832924 A JPH0832924 A JP H0832924A JP 6167262 A JP6167262 A JP 6167262A JP 16726294 A JP16726294 A JP 16726294A JP H0832924 A JPH0832924 A JP H0832924A
Authority
JP
Japan
Prior art keywords
image data
time
representative screen
reference image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6167262A
Other languages
Japanese (ja)
Other versions
JP3194837B2 (en
Inventor
Yukinobu Taniguchi
行信 谷口
Yoshinobu Tonomura
佳伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP16726294A priority Critical patent/JP3194837B2/en
Publication of JPH0832924A publication Critical patent/JPH0832924A/en
Application granted granted Critical
Publication of JP3194837B2 publication Critical patent/JP3194837B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To reduce misdetection of a key screen and also to reduce the excessive extraction of a key image and the deterioration of picture quality by calculating the distance from a reference image to evaluate the difference of patterns and then detecting the change of scenes. CONSTITUTION:The image data obtained at a time (s) of the time t=0 of an input image data string 10 are stored in a reference image buffer memory 11 as the reference image data. Meanwhile the data strings 10 following the time t=0 are successively stored in a buffer memory 12. Then the distance between the time (s) and a time (t) near the time (s) is calculated by a prescribed means and the change and the stability of a pattern and decided. When it is judged that the pattern changes and is stable, a calculation processing part 13 outputs the frame number information on the image data of the time (t) to a line 14 and also gives this information to the memory 12. Then the part 13 transfers the image data on the corresponding frame number to the memory 11 to update the reference image data to the image data of the time (t) and also to store the updated image data in the memory via a line 15 as a key screen.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は代表画面抽出方法および
装置に係り、詳しくは、複数枚の画像データの列からそ
の内容を代表する少数の代表画面を抽出する方法および
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for extracting a representative screen, and more particularly to a method and apparatus for extracting a small number of representative screens representing the contents of a sequence of a plurality of image data.

【0002】[0002]

【従来の技術】一般に映像データはデータ量が膨大であ
るが、その内容を知るためには映像を時間順に見ていく
しかなかった。映像内容を効率良く表現する代表画面を
映像データの中から抽出しておけば、映像の概略把握に
有用である。理想的にはストーリなどまで考慮して代表
画面を選び出す必要があるが、その作業は現状では人手
でしかできず、作業量が膨大になるため非現実的であ
る。
2. Description of the Related Art Generally, the amount of video data is enormous, but the only way to know the contents is to watch the video in chronological order. Extracting a representative screen that efficiently expresses the video content from the video data is useful for grasping the outline of the video. Ideally, it is necessary to select a representative screen in consideration of the story, but at present, the work can only be done manually, and the amount of work becomes enormous, which is unrealistic.

【0003】以下に、代表画面抽出の自動化に関連する
従来の技術について、その二,三の応用例を挙げながら
説明する。
[0003] A conventional technique related to the automation of representative screen extraction will be described below with reference to a few application examples.

【0004】第一の応用例は、ビデオの一覧表示に関す
るものである。図7に映像一覧表示の模式図を示す。ビ
デオテープの内容を知りたいとき、あるいはビデオテー
プの中で必要な部分を頭出ししたいとき、従来は、ビデ
オデッキの早送り、巻き戻し機能を利用するしかなく、
時間と手間がかかるという問題点があった。ビデオテー
プから代表画面を自動的に抽出して、ディスプレイある
いは紙などの媒体に表示すれば、ビデオ内容の一覧が可
能となり、短時間で映像内容の大雑把な把握が可能とな
る。これに関する従来技術としては、例えば特公平5−
74273号“インデックス画像作成装置”、特開昭6
4−11483号“ビデオプリンタ”、特願平5−19
5644号“ビデオ画像プリント方法および装置”など
がある。このうち、特公平5−74273号のインデッ
クス画像作成装置では、カット点あるいはその直前の画
像データを代表画面として抽出する手法をとっている。
カット点はショット(連続的にカメラで撮影された映像
区間)のつなぎ目であり、それを検出すれば、ショット
ごとに一枚ずつ代表画面を選び出すことができるという
わけである。具体的には、画像間の差分値列を計算し画
像変化の有無を判定している。また、特開昭64−11
3483号のビデオプリンタでは、カット点から一定時
間後の画像を代表画面として抽出し、紙にプリントする
ことを特徴としている。これは、主要な画面がショット
の途中に現れることが多いという経験則に基づいてい
る。さらに、特願平5−195644号のビデオ画像プ
リント方法および装置では、再生ビデオ信号を画像処理
し、特定の条件に合致する画像をビデオ内容の把握に重
要なビデオ内の大きな変化を表わすイベントとして抜き
出している。
The first application example relates to a video list display. FIG. 7 shows a schematic diagram of the video list display. When you want to know the contents of the video tape, or when you want to find the necessary part in the video tape, conventionally, you have to use the fast-forward and rewind functions of the VCR,
There was a problem that it took time and effort. If a representative screen is automatically extracted from a video tape and displayed on a medium such as a display or paper, a list of video contents can be displayed, and a rough understanding of the video contents can be achieved in a short time. As a conventional technique related to this, for example, Japanese Patent Publication No. 5-
No. 74273, "Index image creating device", Japanese Patent Laid-Open No.
No. 4-11483 "Video Printer", Japanese Patent Application No. 5-19
5644 "Video image printing method and apparatus" and the like. Among them, the index image creating apparatus of Japanese Examined Patent Publication No. 5-74273 adopts a method of extracting the cut point or the image data immediately before the cut point as a representative screen.
The cut point is a joint between shots (video sections continuously shot by a camera), and if it is detected, a representative screen can be selected one by one for each shot. Specifically, the difference value sequence between images is calculated to determine the presence or absence of image change. Also, JP-A-64-11
The 3483 video printer is characterized in that an image after a certain time from the cut point is extracted as a representative screen and printed on paper. This is based on the rule of thumb that major screens often appear in the middle of a shot. Further, in the video image printing method and apparatus of Japanese Patent Application No. 5-195644, the reproduced video signal is subjected to image processing, and an image which meets a specific condition is treated as an event indicating a large change in the video which is important for grasping the video content. It's pulled out.

【0005】第二の応用例は、ビデオの早見に関するも
のである。カット点で区別られた一つ一つの映像区間を
少しずつ切り出し、結合することによって早見映像を自
動的に生成できるようになる(大辻、外村“動画像高速
ブランジングの主観評価”、電子情報通信学会春季大
会、SD9−3,1993”)。この方法も、カット点
を検出して、その直後あるいは直前の画像を代表画面と
している。
The second application is related to video viewing. It becomes possible to automatically generate a quick-view video by cutting out each video segment that is distinguished by cut points little by little and combining them (Otsuji, Tonomura “Subjective evaluation of high-speed moving image branding”, electronic information Communication Society Spring Meeting, SD9-3, 1993 "). Also in this method, the cut point is detected and the image immediately after or immediately before is used as the representative screen.

【0006】以下に、映像カット点検出方法の従来技術
について述べる。映像カット点検出の代表的な方法とし
ては、時間的に隣合う二枚の画像(時刻tの画像と時刻
t−1の画像)の対応する画素における輝度値の差を計
算して、その絶対値の和(フレーム間差分)をD(t)
とし、D(t)がある与えられた閾値よりも大きい時、
時刻tをカット点とみなす方法がある(大辻、外村、大
庭、“輝度情報を使った動画像ブラウジング”、電気情
報通信学会技術報告,IE90−103,1991)。
なお、フレーム間差分の代りに、画素変化面積、輝度ヒ
ストグラム差分、ブロック別色相関などが、D(t)と
して使われることもある(大辻、外村:“映像カット自
動検出方式の検討”、テレビジョン学会技術報告、Vo
l.16,No.43,pp.7−12)。また、D
(t)をそのまま閾値処理するのではなく、各種時間フ
ィルタをD(t)に対して作用した結果を閾値処理する
方法もある(K.Otsuji and Y.Tonomura:“Proj
ection Detecting Filter forVideo Cut Detectio
n”,Proc.of ACM Multimedia 93,1993,
pp.251−257)。この方法は、映像の中に激し
く動く物体やフラッシュ光があっても誤検出を生じにく
いという特徴を持っている。
The prior art of the image cut point detection method will be described below. As a typical method of detecting the video cut point, the difference between the luminance values of the corresponding pixels of two temporally adjacent images (the image at time t and the image at time t−1) is calculated, and the absolute value is calculated. The sum of the values (difference between frames) is D (t)
And when D (t) is greater than a given threshold,
There is a method in which the time t is regarded as a cut point (Otsuji, Tonomura, Ohba, “Browsing video using luminance information”, IEICE technical report, IE90-103, 1991).
In addition, instead of the inter-frame difference, a pixel change area, a luminance histogram difference, a block-by-block color correlation, etc. may be used as D (t) (Otsuji, Tonomura: “Consideration of automatic video cut detection method”, Television Society Technical Report, Vo
l. 16, No. 43, pp. 7-12). Also, D
There is also a method in which (t) is not subjected to the threshold processing as it is, but the result obtained by applying various time filters to D (t) is subjected to the threshold processing (K. Otsuji and Y. Tonomura: “Proj.
ection Detecting Filter for Video Cut Detectio
n ”, Proc. of ACM Multimedia 93, 1993,
pp. 251-257). This method has a feature that erroneous detection is unlikely to occur even if there is a moving object or flash light in the image.

【0007】[0007]

【発明が解決しようとする課題】上記従来技術において
は、代表画面をカット点を基準にして選び出すもので、
単にカット点直後あるいはそれから一定時間後の画像を
代表画面とするというものであった。しかし、カット点
直後の画像はカメラ焦点が合っていなかったり、被写体
の動きが激しいためにぶれていたりして、代表画面とし
て画質的に適切でない場合があるという問題点があっ
た。一覧表示の応用では、画質の悪い代表画面は抽出し
ないようにすることが望ましい。
In the above prior art, the representative screen is selected based on the cut points.
The image just after the cut point or after a certain time from that point is used as the representative screen. However, there is a problem in that the image immediately after the cut point may not be in focus on the camera or may be blurred due to strong movement of the subject, and thus may not be appropriate in terms of image quality as a representative screen. In the application of list display, it is desirable not to extract a representative screen with poor image quality.

【0008】また、従来の映像カット検出方法において
は、時間的にゆっくりとしたシーンの変化が検出できな
いという問題点があった。これは、シーンの変化の割合
を表す量が時間的に隣合う2フレームだけから算出され
ていて、長時間のシーンがほとんど反映されていないか
らである。これについて、例えば特願平5−31766
3号“映像カット点検出方法および装置”では、隣合う
画像間に加えて時間的に離れた画像間の複数組の画像デ
ータ間の距離を計算することによって解決している。し
かし、それでもなお、長時間のうちに非常にゆっくりと
変化するシーン変化は検出できないことがあるという問
題点があった。すなわち、人間には完全にシーンが切り
替わったと知覚できるシーン変化でも、それが検出でき
ないことがあったので、そのシーンに対応する代表画面
がもれてしまうという問題点があった。
Further, the conventional image cut detection method has a problem that it is not possible to detect a scene change which is slow in time. This is because the amount indicating the rate of change of the scene is calculated from only two frames that are temporally adjacent to each other, and a long-time scene is hardly reflected. Regarding this, for example, Japanese Patent Application No. 5-31766.
No. 3, "Video Cut Point Detection Method and Apparatus" solves this problem by calculating the distance between a plurality of sets of image data between images that are temporally separated in addition to adjacent images. However, there is still a problem that a scene change that changes very slowly in a long time may not be detected. In other words, even if a scene change that can be perceived by human beings as a complete scene change is not detected, there is a problem in that the representative screen corresponding to that scene is missed.

【0009】また、パニンク(カメラを横にふる操
作)、チルト(縦にふる操作)といったカメラ操作によ
って、絵柄が変わった場合もカメラ操作後の画像を代表
画面として抽出したいことがあるが、従来方法ではそれ
ができなかった。
In addition, even if a pattern is changed by a camera operation such as panning (swinging the camera horizontally) or tilting (swing the camera vertically), it is sometimes desired to extract the image after the camera operation as a representative screen. The method couldn't do it.

【0010】本発明の目的は、第一にフェード、ワイプ
等の編集効果やカメラ操作による時間的によっくりした
シーン変化を検出でき、第二にフラシュ光などの時間的
ノイズを含む映像など、あらゆる映像に適応することが
でき、第三に画質的にも適切な代表画面を抽出できると
ころの代表画面抽出方法および装置を提供することにあ
る。
An object of the present invention is to detect an editing effect such as a fade and a wipe or a scene change caused by a camera operation with time, and secondly an image including temporal noise such as flash light. A third object of the present invention is to provide a representative screen extracting method and apparatus capable of adapting to any video and thirdly extracting a representative screen suitable for image quality.

【0011】[0011]

【問題を解決するための手段】上記目的を達成するため
に、本発明は、ある時刻における画像データを参照用画
像データとして、該参照用画像データと時刻tの画像デ
ータとの間の距離を時刻tを変化させながら順次算出
し、該距離があらかじめ定められた閾値よりも大きいと
いう第一の条件と、時刻tの時間的近傍でシーンが安定
しているという第二の条件とをともに満たす時に、該時
刻tの画像を代表画面として抽出することを特徴とす
る。
In order to achieve the above object, the present invention uses image data at a certain time as reference image data and determines the distance between the reference image data and the image data at time t. Sequential calculation is performed while changing the time t, and both the first condition that the distance is larger than a predetermined threshold value and the second condition that the scene is stable near the time t are both satisfied. At times, the image at the time t is extracted as a representative screen.

【0012】また、本発明は、シーンが安定しているか
否かを判定する際に、あらかじめ求まっている画像デー
タ間の距離の増減を調べることを特徴とする。さらに、
本発明は、第一または第二の条件が満たされない場合
に、画像カット点検出を行い、カットありと判定された
場合に、時刻tの画像データを代表画面として抽出する
ことを特徴とする。
Further, the present invention is characterized in that, when determining whether or not the scene is stable, the increase / decrease of the distance between the image data which is obtained in advance is examined. further,
The present invention is characterized in that image cut point detection is performed when the first or second condition is not satisfied, and image data at time t is extracted as a representative screen when it is determined that there is a cut.

【0013】[0013]

【作用】本発明では、参照用画像データと時刻tの画像
データの間の距離を算出する。この距離は、画像の絵柄
の違いを評価するものである。参照用画像データは固定
しておき、そこからの絵柄の変化を観察していくので、
従来技術では検出できなかった非常にゆっくりとしたシ
ーン変化を検出できるようになり、その結果、代表画面
検出に漏れが少なくなる。それに加えて、シーンが安定
しているか否かを判定する手続きをそなえることによつ
て、フラッシュ光により一時的に絵柄が変化した場合に
代表画面を異って抽出するのを防ぐことができ、また、
カメラ操作によるシーン変化や、ゆっくりとしたシーン
変化が起った場合に、その変化途中で代表画面を過剰に
抽出するのを抑止することができ、さらに被写体の動き
やカメラのぼけなどに起因する画質の悪い代表画面を抽
出しないようにすることができる。
In the present invention, the distance between the reference image data and the image data at time t is calculated. This distance is used to evaluate the difference in the pattern of the image. Since the reference image data is fixed and the change in the pattern from that point is observed,
It becomes possible to detect a very slow scene change that cannot be detected by the conventional technique, and as a result, there is less omission in representative screen detection. In addition to that, by providing a procedure to determine whether the scene is stable, it is possible to prevent the representative screen from being extracted differently when the pattern is temporarily changed by the flash light, Also,
When a scene change due to camera operation or a slow scene change occurs, it is possible to prevent excessive extraction of the representative screen during the change, which is caused by the movement of the subject or the blur of the camera. It is possible not to extract a representative screen with poor image quality.

【0014】また、シーンの安定性を判定する際に、あ
らかじめ求まっている参照用画像データと各時刻の画像
データの間の距離の増減を調べることにより、シーン安
定性を調べるために余計な画処理をする必要がなく、計
算量を削減できる。さらに、カット検出手順と組み合わ
せることによって、絵柄の似通ッたカット点を代表画面
として検出することができ、代表画面の抽出もれを軽減
できる。
In addition, when determining the stability of the scene, it is possible to check the increase or decrease in the distance between the reference image data and the image data at each time, which has been obtained in advance, so that an unnecessary image for checking the scene stability can be obtained. The amount of calculation can be reduced without the need for processing. Further, by combining with the cut detection procedure, it is possible to detect a cut point having a similar pattern as a representative screen, and it is possible to reduce extraction omission of the representative screen.

【0015】[0015]

【実施例】以下、本発明の一実施例について図面を用い
て説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0016】図1は、本発明は代表画面抽出装置の一実
施例の構成を示すブロック図である。図1において、1
0は入力画像データ列であり、画像のサンプリングレー
ト、画像フォーマット、画像サイズは任意でよい。すな
わち、NTSC標準映像信号を30 frames/secでサン
プリングしてもよいし、それよりも粗いサンプリングレ
ートでサンプリングしたものでもよい。この入力画像デ
ータ列10は、NTSCのようなアナログ信号でも、デ
ジタル信号でも、また、ハードディスク、CD−ROM
等、蓄積装置に保存されている画像ファイルであっても
よい。11は参照画像用バッファメモリであり、入力画
像データ列10の内、ある時点の画像データを参照用と
して保存しておくためのメモリである。なお、この参照
画像用バッファメモリ11は、画像に対してある処理を
加えて二次的に得られるデータを格納するものでっても
よい。例えば、一枚の画像に対する輝度ヒストグラムや
色ヒストグラムを格納するものであってもよいし、エッ
ジ情報を格納するものであってもよい。また、それらを
時間的に平均したものであってもよい。さらに、計算処
理部13での処理時間を短縮するために縮小した画像を
格納するものであってもよい。ここでは、これらも含め
て画像データで総称する。12はバッファメモリであ
り、入力画像データ列10について時刻t近傍の画像デ
ータを一時格納するためのものである。このバッファメ
モリ12は、例えば、画像送出元から順次送られてくる
画像データを一時格納しておくフレームバッファであっ
てもよいし、複数格納しておけるようにシフトバッファ
アレィを使って構成してもよい。また、参照画像用バッ
ファメモリ11と同様に、輝度ヒストグラム、色ヒスト
グラムを格納するようにしてもよい。13は計算処理部
であり、参照画像用バッファメモリ11の参照画像デー
タとバッファメモリ12の入力画像データを使って代表
画面抽出処理を行う。この計算処理部13は、RAMや
ROMなどのメモリを内蔵する所謂CPUで構成され
る。14は代表画面フレーム番号情報の出力線、15は
代表画面情報の出力線である。
FIG. 1 is a block diagram showing the configuration of an embodiment of a representative screen extracting device according to the present invention. In FIG. 1, 1
0 is an input image data string, and the image sampling rate, image format, and image size may be arbitrary. That is, the NTSC standard video signal may be sampled at 30 frames / sec or may be sampled at a coarser sampling rate. The input image data string 10 may be an analog signal such as NTSC, a digital signal, a hard disk, a CD-ROM.
Etc., the image file stored in the storage device may be used. A reference image buffer memory 11 is a memory for storing image data at a certain point in the input image data string 10 for reference. The reference image buffer memory 11 may be one that stores data obtained by secondarily applying a certain process to the image. For example, a brightness histogram or a color histogram for one image may be stored, or edge information may be stored. Also, they may be averaged over time. Furthermore, a reduced image may be stored to reduce the processing time in the calculation processing unit 13. Here, these are collectively referred to as image data. Reference numeral 12 is a buffer memory for temporarily storing the image data near the time t in the input image data string 10. The buffer memory 12 may be, for example, a frame buffer for temporarily storing image data sequentially sent from an image transmission source, or configured by using a shift buffer array so that a plurality of image data can be stored. May be. Further, similarly to the reference image buffer memory 11, a luminance histogram and a color histogram may be stored. A calculation processing unit 13 performs a representative screen extraction process using the reference image data of the reference image buffer memory 11 and the input image data of the buffer memory 12. The calculation processing unit 13 is composed of a so-called CPU having a built-in memory such as a RAM or a ROM. Reference numeral 14 is a representative screen frame number information output line, and 15 is a representative screen information output line.

【0017】図2は、本発明代表画面抽出方法の一実施
例の処理フローチャートであり、この処理は図1の計算
処理部13が受け持つ。まず、時刻tを表す変数s,t
を0に初期化する(ステップ201)。この時、参照画
像用バッファメモリ11には、入力画像データ列10内
の、時刻s=0すなわち時刻t=0の画像データが参照
用画像データとして格納される。バッファメモリ12に
は、時刻t=0以降の入力画像データ列10が順次格納
され、常時、時刻t近傍の画像データ列が格納される。
ここで、各画像データにはフレーム番号が付加されてい
るとする。次に、tを1だけ進めて(ステップ20
2)、時刻sの参照用画像データIsと時刻tの画像デ
ータItの間の距離ds(t) を計算する(ステップ20
3)。ここで、距離ds(t)は正の値をとり、二枚のり画
像の絵柄が類似していればいるほど0に近くなり、異な
っていればいるほど大きな値をとる。なお、距離の算出
については後述する。次に、距離ds(t)を閾値Tと比較
する(ステップ204)。ここで、ds(t)<Tの場合、
絵柄の変化が小さいとみなしてステップ202に戻る。
FIG. 2 is a processing flowchart of an embodiment of the representative screen extracting method of the present invention. The calculation processing section 13 of FIG. 1 is responsible for this processing. First, variables s and t representing time t
Is initialized to 0 (step 201). At this time, the image data at time s = 0, that is, at time t = 0 in the input image data string 10 is stored in the reference image buffer memory 11 as reference image data. The buffer memory 12 sequentially stores the input image data sequence 10 after time t = 0, and always stores the image data sequence near time t.
Here, it is assumed that a frame number is added to each image data. Then, t is advanced by 1 (step 20
2) Calculate the distance d s (t) between the reference image data I s at time s and the image data I t at time t (step 20).
3). Here, the distance d s (t) takes a positive value and becomes closer to 0 as the patterns of the two paste images are more similar, and takes a larger value as they are different. The calculation of the distance will be described later. Next, the distance d s (t) is compared with the threshold T (step 204). Here, if d s (t) <T,
The change in the pattern is considered small, and the process returns to step 202.

【0018】ds(t)≧Tの場合、二枚の画像の間で絵柄
が変化したとみなす。この場合、続いてシーンが安定し
ているか否かを判定する手続を呼びだし(ステップ20
5)、安定であるか否かを検査し(ステップ206)、
安定でない場合にはステップ202に戻る。安定と判定
されれば、時刻tの画像を代表画面とし(ステップ20
7)、tをsに代入し(ステップ208)、ステップ2
02に戻る。tをsに代入するということは、参照用画
像データを時刻tの画像データに更新することを意味す
る。なお、シーンが安定しているか否かを判定する手続
きについては後述する。
When d s (t) ≧ T, it is considered that the pattern has changed between the two images. In this case, subsequently, a procedure for determining whether or not the scene is stable is called (step 20).
5) check if it is stable (step 206),
If it is not stable, the process returns to step 202. If it is determined to be stable, the image at time t is set as the representative screen (step 20
7), substituting t for s (step 208), step 2
Return to 02. Substituting t into s means updating the reference image data to the image data at time t. The procedure for determining whether or not the scene is stable will be described later.

【0019】ここで、ステップ207では、具体的に
は、計算処理部13が時刻tの画像データのフレーム番
号情報を線14に送出し、同時に、このフレーム番号情
報を制御線16を通してバッファメモリ12へ与えて、
バッファメモリ12から該当フレーム番号の画像データ
を読み出し、参照画像用バッファメモリ11に転送す
る。これにより、参照画像用バッファメモリ11の参照
用画像データが時刻tの画像データに更新される。ま
た、バッファメモリ12から読み出された時刻tの画像
データは代表画面として線15に送出される。この線1
5の代表画面を、それに線14のフレーム番号を付加し
て、例えばハードディスク等の二次記憶媒体等に格納す
る。なお、計算処理部13は、処理のためにバッファメ
モリ12から取り込んだ画像データのうちから代表画面
として求まった時刻tの画像データを線15に送出する
とともに参照画像用バッファメモリ11に書き込んでも
よい。
Here, in step 207, specifically, the calculation processing section 13 sends the frame number information of the image data at the time t to the line 14, and at the same time, the frame number information is sent to the buffer memory 12 through the control line 16. Give to
The image data of the corresponding frame number is read from the buffer memory 12 and transferred to the reference image buffer memory 11. As a result, the reference image data in the reference image buffer memory 11 is updated to the image data at time t. Further, the image data at time t read from the buffer memory 12 is sent to the line 15 as a representative screen. This line 1
The representative screen of No. 5 is stored in a secondary storage medium such as a hard disk with the frame number of the line 14 added thereto. Note that the calculation processing unit 13 may send the image data at the time t obtained as the representative screen out of the image data fetched from the buffer memory 12 for processing to the line 15 and write it in the reference image buffer memory 11. .

【0020】次に、図3を使って、距離ds(t)の時間的
変化と処理の流れの関係を説明する。まず、時刻sの画
像データを参照用画像データと考える(ステップ20
1)。tを増加させながら(ステップ202)、参照用
画像データと時刻tの画像データの間の距離ds(t)を順
次算出する(ステップ203)。画像データの絵柄は時
間を経るごとに参照用画像データのものとは異なってく
るので、図3に示すように、距離ds(t)は少しずつ増加
する。この距離ds(t2)を閾値Tと比較するが(ステ
ップ204)、時刻t1では、ds(t)<Tなので、絵柄
が十分に変化していないとみなす。時刻t2において、
ビルのシーンから車のシーンに切り替わると、距離d
s(t)が急増し、ds(t2)≧Tを満たすようになる。この
場合、続いてシーンが安定しているか判定する(ステッ
プ205,206)。しかし、時刻t2の近辺ではd
s(t)の増減が大きいので、ステップ206ではシーンが
まだ安定していないと判定し、代表画面を抽出しないま
まステップ202に戻る。時刻t3でds(t)が減少に転
ずるので安定したとみなし、代表画面を抽出する(ステ
ップ207)。そして、この時刻t3の画像データを次
の参照用画像データに設定する。具体的には、s=t3
として(ステップ208)、もとの処理に戻る。
Next, the relationship between the temporal change of the distance d s (t) and the processing flow will be described with reference to FIG. First, consider the image data at time s as reference image data (step 20).
1). While increasing t (step 202), the distance d s (t) between the reference image data and the image data at time t is sequentially calculated (step 203). Since the pattern of the image data is different from that of the reference image data as time passes, the distance d s (t) gradually increases as shown in FIG. This distance d s (t 2 ) is compared with the threshold value T (step 204), but at the time t 1 , d s (t) <T, so it is considered that the pattern has not changed sufficiently. At time t 2 ,
When switching from the building scene to the car scene, the distance d
s (t) rapidly increases, and d s (t 2 ) ≧ T is satisfied. In this case, it is subsequently determined whether the scene is stable (steps 205 and 206). However, in the vicinity of time t 2 , d
Since the increase / decrease in s (t) is large, it is determined in step 206 that the scene is not yet stable, and the flow returns to step 202 without extracting the representative screen. Since d s (t) starts to decrease at time t 3 , it is considered stable, and the representative screen is extracted (step 207). Then, the image data at time t 3 is set as the next reference image data. Specifically, s = t 3
(Step 208), the process returns to the original process.

【0021】図2の処理フローにおいて、ステップ20
5,206のシーンの安定性を検査する手続きを省略
し、単に距離ds(t)>Tのとき代表画面ありとみなす
ことも考えられるが、次のような問題があるため実用的
でない。 (1)ワイプ、フェードといったゆっくりとしたシーン
変化の場合、図4に示すように、シーン変化途中で距離
s(t)が閾値Tを越えることがある。このため、ひと
まとまりのシーン変化の中で代表画面を重複して抽出し
てしまったり、クロスフェード(二つの映像が重なりあ
って一つのシーンから他のシーンへ切り替わる映像編集
効果)の途中の2枚の画像が重なりあった(画質的に好
ましくない)代表画面が抽出されてしまったりする。 (2)フラッシュが焚かれているシーン(このようなシ
ーンはニユース映像で多く見られるものであるが)を撮
映した映像では、フラツシュ光による輝度の突発的上昇
により、図5に示すよう、距離ds(t)が突発的に閾値
Tを越えることがある。このため、フラツシュが焚かれ
るごとに代表画面を繰り返し抽出してしまう。 本発明では、シーンの安定性を検査することによって、
上記(1),(2)の問題を克服している。
In the process flow of FIG. 2, step 20
It is possible to omit the procedure for inspecting the stability of the scenes of 5,206 and simply consider that there is a representative screen when the distance d s (t)> T, but it is not practical because of the following problems. (1) In the case of a slow scene change such as wipe or fade, as shown in FIG. 4, the distance d s (t) may exceed the threshold T during the scene change. For this reason, the representative screens may be duplicated and extracted during a group of scene changes, or 2 in the middle of a crossfade (video editing effect in which two images overlap and switch from one scene to another). A representative screen in which images are overlapped (not preferable in terms of image quality) may be extracted. (2) In a video shot of a scene in which a flash is fired (though such a scene is often seen in news footage), as shown in FIG. 5, due to a sudden increase in brightness due to flash light, The distance d s (t) may suddenly exceed the threshold value T. Therefore, the representative screen is repeatedly extracted each time the flash is fired. In the present invention, by checking the stability of the scene,
It overcomes the problems of (1) and (2) above.

【0022】次に、参照用画像データISと画像データ
tの間の距離ds(t)を算出する手続きの二,三の実現
例を説明する。
Next, a few examples of the procedure for calculating the distance d s (t) between the reference image data I S and the image data I t will be described.

【0023】第一の実現例は、輝度ヒストグラムを用い
るものである。即ち、時刻sの参照画像Isに対する輝
度ヒストグラムをHs(n)、時刻tの画像データItに対
する輝度ヒストグラムをHs(n),n=1,2,…,Nと
し、距離ds(t)を、〔数1〕で計算する。ただし、Nは
ヒストグラムの段階数である。
The first implementation uses a luminance histogram. That is, the luminance histogram for the reference image I s at time s is H s (n), the luminance histogram for the image data I t at time t is H s (n), n = 1, 2, ..., N, and the distance d s is set. Calculate (t) by [Equation 1]. However, N is the number of steps in the histogram.

【0024】[0024]

【数1】 [Equation 1]

【0025】第二の実現例は、色のヒストグラムを用い
るものである。即ち、時刻sの参照画像、時刻tの画像
に対する色ヒストグラムをそれぞれHs′(nr,ng
nb),Ht′(nr,ng,nb),nr,ng,nb,1,2,…,
Nと表すとき、距離ds(t)を〔数2〕で計算する。
The second implementation uses a color histogram. That is, the color histograms for the reference image at time s and the image at time t are H s ′ (n r , n g ,
n b ), H t ′ (n r , n g , n b ), n r , n g , n b , 1, 2, ...
When represented as N, the distance d s (t) is calculated by [Equation 2].

【0026】[0026]

【数2】 [Equation 2]

【0027】以上説明した実現例では、ヒストグラムに
基づいた特徴量から距離ds(t)を算出したが、これに限
られる訳ではない。ブロックで平均した色情報から距離
s(t)を算出してもよい。
In the implementation example described above, the distance d s (t) is calculated from the feature amount based on the histogram, but the present invention is not limited to this. The distance d s (t) may be calculated from the color information averaged by the blocks.

【0028】次に、シーンの安定性を評価する手続きの
二,三の実現例を説明する。
Next, a few examples of the procedure for evaluating the stability of the scene will be described.

【0029】第一の実現例は、フレーム間差分を用いる
ものである。即ち、時刻tの画像データをItとし、座
標(x,y)における輝度値をIt(x,y)と表し、フレー
ム間差分を D(t)=Σx,y|It(x,y)−It-1(x,y)| により計算する。そして、フレーム間差分の系列がある
時間幅Wですべてある閾値θより小さい場合、すなわ
ち、D(t-k)<θ,k=0,1,…,W−1のとき、時
刻tの付近でシーンが安定であると判定する。
The first implementation uses the interframe difference. That is, the image data at time t is I t , the brightness value at coordinates (x, y) is represented by I t (x, y), and the inter-frame difference is D (t) = Σ x, y | I t (x , Y) -It -1 (x, y) | When the sequence of inter-frame differences is less than a certain threshold θ in a certain time width W, that is, when D (tk) <θ, k = 0, 1, ..., W-1, the scene near the time t Is stable.

【0030】第二の実現例は、距離ds(t)をシーンの安
定性の判定にも用いるものである。即ち、距離ds(t)を
観察すると、シーンが不安定な場合には、図4に示すよ
うに、ds(t)が単調に増加したり、図5に示すように、
一時間ピークを示すことがある。そこで、例えば、d
s(t-1)>ds(t)を満たすときシーンが安定であるとみな
すようにしてもよいし、ds(t-1)>ds(t)かつds(t-2)
>ds(t)を満たすときシーンが安定であるとみなしても
よい。
The second implementation also uses the distance d s (t) to determine the stability of the scene. That is, when observing the distance d s (t), when the scene is unstable, d s (t) monotonically increases as shown in FIG. 4, or as shown in FIG.
May show peak for one hour. So, for example, d
The scene may be considered to be stable when s (t-1)> ds (t), or ds (t-1)> ds (t) and ds (t-2).
A scene may be considered stable when> d s (t) is satisfied.

【0031】図6は、本発明代表画面抽出方法の他の一
実施例の処理フローである。図2の方法は、ゆっくりと
したシーン変化を検出できる反面、絵柄の似通ったカッ
ト点を検出できない場合がある。このような場合、図2
の処理フローに映像カット点検出処理を組み合わせて使
うことが有効である。図6において、ステップ601〜
606はそれぞれ図2のステップ201〜206に対応
する。ステップ604でds(t)<Tの場合、あるいは、
ステップ606でシーンの安定が検出されない場合、図
6ではステップ610に処理を移す。ステップ610で
は、カット検出手続きを呼び出し、時刻t近傍の画像に
ついて、カット点があるか否かを検査する(ステップ6
11)。そして、カット点ありと判定されたならば、ス
テップ607に進んで時刻tの画像を代表画面とし、カ
ット点が検出されなければステップ602に戻る。これ
により、絵柄の似通ったカット点ありの場合の代表画面
の抽出もれを軽減できる。なお、カット点検出の手法
は、先に触れた従来方法のいずれによってもよい。
FIG. 6 is a processing flow of another embodiment of the representative screen extracting method of the present invention. The method of FIG. 2 can detect a slow scene change, but may not be able to detect cut points having similar patterns. In such a case,
It is effective to combine the processing flow of 1) with the video cut point detection processing. In FIG. 6, steps 601 to
Reference numeral 606 corresponds to steps 201 to 206 of FIG. 2, respectively. If d s (t) <T in step 604, or
If the stability of the scene is not detected in step 606, the process proceeds to step 610 in FIG. In step 610, the cut detection procedure is called and the image near the time t is inspected for a cut point (step 6).
11). If it is determined that there is a cut point, the flow advances to step 607 to set the image at time t as the representative screen, and if no cut point is detected, the flow returns to step 602. As a result, it is possible to reduce the omission of extraction of the representative screen when there are cut points with similar patterns. The method of detecting the cut point may be any of the conventional methods mentioned above.

【0032】[0032]

【発明の効果】以上説明したように、本発明によれば、
フェード、ワイプ等の編集効果やカメラ操作による時間
的にゆっくりとしたシーン変化を検出でき、フラッシュ
光などの時間的ノイズを含む映像などあらゆる映像に適
応することができ、画質的にも適切な代表画面を抽出で
きる、などの効果がある。
As described above, according to the present invention,
It is possible to detect editing effects such as fades and wipes and scene changes that occur slowly with camera operation, and it can be applied to all images including temporal noise such as flash light. The effect is that the screen can be extracted.

【0033】また、シーンが安定しているか否かを判定
する際に、あらかじめ求まっている画像デーダ間の距離
の増減を調べることにより、シーン安定性を調べるため
に余計な画像処理をする必要がなく、計算量を削減でき
る効果がある。
When determining whether or not the scene is stable, it is necessary to perform extra image processing in order to check the scene stability by checking the increase / decrease of the distance between the image data which is obtained in advance. This has the effect of reducing the amount of calculation.

【0034】さらに、カット点検出処理と組合せ、カッ
トと判定された場合に代表画面を検出することにより、
絵柄の似通ったカット点を見落すことが防止でき、代表
画面の抽出もれを軽減できる効果がある。
Furthermore, in combination with the cut point detection processing, by detecting the representative screen when it is determined that the cut is made,
It is possible to prevent the cut points having similar patterns from being overlooked and reduce the omission of the representative screen.

【0035】本発明は、例えばビデオの一覧表示や早見
などに応用できるが、他にも映像データベースのインタ
フェースに応用可能である。映像データベースに大量の
映像が格納されている場合、映像内容を表すキーワード
を付与しておくのが通例であるが、従来はキーワードだ
けでは欲しい場面を思ったように引き出すことができな
いという問題があった。この場合、キーワード検索で候
補として挙がった映像が本当に自分の欲しいものかどう
かの確認を助けるために、映像インデックスあるいは映
像内容の一覧表示インタフェースが有用である。本発明
を用いれば、このインデックス作成の自動化が可能とな
る。
The present invention can be applied to, for example, a video list display or a quick view, but can also be applied to an image database interface. When a large amount of video is stored in the video database, it is customary to add a keyword that represents the video content, but conventionally there is the problem that the keyword alone cannot be used to derive the desired scene. It was In this case, a video index or video content list display interface is useful in order to confirm whether the videos selected as candidates in the keyword search are really what one wants. By using the present invention, this index creation can be automated.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明代表画面抽出装置の一実施例の構成を示
すブロック図である。
FIG. 1 is a block diagram showing the configuration of an embodiment of a representative screen extraction device of the present invention.

【図2】本発明代表画面抽出方法の一実施例の処理フロ
ー図である。
FIG. 2 is a processing flow chart of an embodiment of a representative screen extracting method of the present invention.

【図3】距離の時間変化と処理の流れの関係を説明する
ための図である。
FIG. 3 is a diagram for explaining a relationship between a time change of a distance and a processing flow.

【図4】ゆっくりとしたシーン変化の場合の距離の時間
的変化を説明するための模式図である。
FIG. 4 is a schematic diagram for explaining a temporal change in distance in the case of a slow scene change.

【図5】フラッシュ光による距離の時間的変化を説明す
るための模式図である。
FIG. 5 is a schematic diagram for explaining a temporal change in distance due to flash light.

【図6】本発明代表画面抽出方法の他の実施例の処理フ
ロー図である。
FIG. 6 is a processing flow chart of another embodiment of the representative screen extracting method of the present invention.

【図7】映像の一覧表示の模式図である。FIG. 7 is a schematic diagram of displaying a list of videos.

【符号の説明】[Explanation of symbols]

10 入力画像データ列 11 参照画像用バッファメモリ 12 バッファメモリ 13 計算処理部 14 代表画面フレーム番号情報 15 代表画面情報 10 input image data string 11 reference image buffer memory 12 buffer memory 13 calculation processing unit 14 representative screen frame number information 15 representative screen information

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 5/937 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical indication H04N 5/937

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 画像データ列から代表画面を抽出する代
表画面抽出方法おいて、 ある時刻における画像データを参照用画像データとし
て、該参照用画像データと時刻tの画像データとの間の
距離を時刻をtを変化させながら順次算出し、 前記距離があらかじめ定められた閾値よりも大きいとい
う第一の条件と、時刻tの時間的近傍でシーンが安定し
ているという第二の条件とをともに満たす時刻tの画像
データを代表画面として抽出することを特徴とする代表
画面抽出方法。
1. A representative screen extracting method for extracting a representative screen from an image data string, wherein image data at a certain time is used as reference image data, and a distance between the reference image data and the image data at time t is calculated. Time is sequentially calculated while changing t, and both the first condition that the distance is larger than a predetermined threshold value and the second condition that the scene is stable near the time t are both. A representative screen extracting method, characterized in that image data at a time t to be satisfied is extracted as a representative screen.
【請求項2】 請求項(1)記載の代表画面抽出方法にお
いて、時刻tの時間的近傍でシーンが安定しているかど
うかの判定は参照用画像データと時刻t近傍の画像デー
タとの間の距離の増減を調べることで行うことを特徴と
する代表画面抽出方法。
2. The representative screen extracting method according to claim 1, wherein whether or not the scene is stable near time t is determined between the reference image data and the image data near time t. A representative screen extraction method characterized by being performed by checking increase and decrease in distance.
【請求項3】 請求項(1)または(2)記載の代表画面抽
出方法において、 第一または第二の条件が満たされない場合に画像カット
点検出を行い、カット点ありと判定された場合に当該時
刻tの画像データを代表画面として抽出することを特徴
とする代表画面抽出方法。
3. The representative screen extraction method according to claim 1, wherein image cut point detection is performed when the first or second condition is not satisfied, and when it is determined that there is a cut point. A representative screen extracting method characterized by extracting the image data at the time t as a representative screen.
【請求項4】 画像データ列から代表画面を抽出する代
表画面抽出装置において、 時刻sにおける画像データを参照用画像データとして格
納する参照画像用バッファメモリと、 時刻tの近傍の画像データを格納するバッファメモリ
と、 該参照画像用バッファメモリと該バッファメモリから画
像データを読みだし、請求項1乃至3記載の代表画面抽
出方法に従って代表画面を抽出し、該抽出された代表画
面を参照画像用バッファメモリに設定する計算処理部
と、 を具備するすることを特徴とする代表画面抽出装置。
4. A representative screen extracting device for extracting a representative screen from an image data string, a reference image buffer memory for storing image data at time s as reference image data, and image data in the vicinity of time t. A buffer memory, the reference image buffer memory, and image data read from the buffer memory, a representative screen is extracted according to the representative screen extraction method according to claim 1, and the extracted representative screen is used as a reference image buffer. A representative screen extraction device, comprising: a calculation processing unit set in a memory;
JP16726294A 1994-07-19 1994-07-19 Representative screen extraction method and apparatus Expired - Fee Related JP3194837B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16726294A JP3194837B2 (en) 1994-07-19 1994-07-19 Representative screen extraction method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16726294A JP3194837B2 (en) 1994-07-19 1994-07-19 Representative screen extraction method and apparatus

Publications (2)

Publication Number Publication Date
JPH0832924A true JPH0832924A (en) 1996-02-02
JP3194837B2 JP3194837B2 (en) 2001-08-06

Family

ID=15846481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16726294A Expired - Fee Related JP3194837B2 (en) 1994-07-19 1994-07-19 Representative screen extraction method and apparatus

Country Status (1)

Country Link
JP (1) JP3194837B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136637A (en) * 1997-10-24 1999-05-21 Matsushita Electric Ind Co Ltd Representative image generating device
JPWO2003088665A1 (en) * 2002-04-12 2005-08-25 三菱電機株式会社 Metadata editing apparatus, metadata reproduction apparatus, metadata distribution apparatus, metadata search apparatus, metadata regeneration condition setting apparatus, and metadata distribution method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136637A (en) * 1997-10-24 1999-05-21 Matsushita Electric Ind Co Ltd Representative image generating device
JPWO2003088665A1 (en) * 2002-04-12 2005-08-25 三菱電機株式会社 Metadata editing apparatus, metadata reproduction apparatus, metadata distribution apparatus, metadata search apparatus, metadata regeneration condition setting apparatus, and metadata distribution method
US7826709B2 (en) 2002-04-12 2010-11-02 Mitsubishi Denki Kabushiki Kaisha Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, metadata delivery method and hint information description method
US8811800B2 (en) 2002-04-12 2014-08-19 Mitsubishi Electric Corporation Metadata editing apparatus, metadata reproduction apparatus, metadata delivery apparatus, metadata search apparatus, metadata re-generation condition setting apparatus, metadata delivery method and hint information description method

Also Published As

Publication number Publication date
JP3194837B2 (en) 2001-08-06

Similar Documents

Publication Publication Date Title
JP3823333B2 (en) Moving image change point detection method, moving image change point detection apparatus, moving image change point detection system
JP4981128B2 (en) Keyframe extraction from video
US5801765A (en) Scene-change detection method that distinguishes between gradual and sudden scene changes
EP0659016B1 (en) Method and apparatus for video cut detection
US7231100B2 (en) Method of and apparatus for processing zoomed sequential images
EP0780776B1 (en) Apparatus for detecting a cut in a video
KR100464075B1 (en) Video highlight generating system based on scene transition
JP3175632B2 (en) Scene change detection method and scene change detection device
US6940910B2 (en) Method of detecting dissolve/fade in MPEG-compressed video environment
JP2839132B2 (en) Image cut point detection method and apparatus
JP4639043B2 (en) Moving picture editing apparatus and moving picture editing method
DE10051637A1 (en) Moving image recording and/or reproduction device, records position of a representative image detected when it gives change of scene between coded movement of image data streams
JP3194837B2 (en) Representative screen extraction method and apparatus
Smeaton et al. An evaluation of alternative techniques for automatic detection of shot boundaries in digital video
EP0780844A2 (en) Cut browsing and editing apparatus
JP3327520B2 (en) Shooting method with NG warning function, shooting apparatus with NG warning function, and recording medium storing shooting program
JP2971724B2 (en) Video cut point detection device
JP3067043B2 (en) Automatic video cutting method
JP3941808B2 (en) Moving image change point detection method and apparatus
JPH07111630A (en) Moving image editing device and cut integrating method
JP3624677B2 (en) Special effect detection device for moving image and recording medium recording program
JP3126961B2 (en) Video cut screen group detection device
JP3926497B2 (en) Index image display device
JP3333956B2 (en) Cut point detection method and device
JP3339544B2 (en) Dissolve detection method and device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees