JP4261603B2 - Moving image cut point detection device - Google Patents
Moving image cut point detection device Download PDFInfo
- Publication number
- JP4261603B2 JP4261603B2 JP2007303159A JP2007303159A JP4261603B2 JP 4261603 B2 JP4261603 B2 JP 4261603B2 JP 2007303159 A JP2007303159 A JP 2007303159A JP 2007303159 A JP2007303159 A JP 2007303159A JP 4261603 B2 JP4261603 B2 JP 4261603B2
- Authority
- JP
- Japan
- Prior art keywords
- scene
- dissolve
- cut
- motion
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
Description
本発明は動画像データのカット点検出方法に関し、特に、動画像検索においてシーンを分類するためのカット点検出を、非常に効率的かつ高い精度で行うことができるカット点検出方法に関する。 The present invention relates to a cut point detection method for moving image data, and more particularly to a cut point detection method that can perform cut point detection for classifying a scene in moving image search with very high efficiency and high accuracy.
動画像のカット点には瞬時カットの他にディゾルブ、フェードイン、フェードアウト、ワイプなどの特殊カットがある。瞬時カットについては、例えば文献1(B.L.Yeo and B.Liu," Rapid scene analysis on compressed video",IEEE Tr.Circuits and Systems for Video Technology, Dec.1995 )では、フレーム間差分値がピーク点を持つところを検出してカット点を判定している。ただし、この場合フラッシュでもピーク点が生じて過剰な検出となるため、瞬時カットとフラッシュを区別する方式が提案されている(第1従来方式)。上記文献では数秒間のフレーム間差分の最大値と平均値からフラッシュ検出を行なっている。 There are special cuts such as dissolve, fade-in, fade-out, and wipe in addition to instantaneous cuts at the cut points of moving images. Regarding instantaneous cut, for example, in Reference 1 (BLYeo and B. Liu, “Rapid scene analysis on compressed video”, IEEE Tr. Circuits and Systems for Video Technology, Dec. 1995), the inter-frame difference value has a peak point. This is detected to determine the cut point. However, in this case, a peak point is generated even in the flash, resulting in excessive detection. Therefore, a method for distinguishing instantaneous cut from flash is proposed (first conventional method). In the above-mentioned document, flash detection is performed from the maximum value and the average value of the inter-frame differences for several seconds.
ディゾルブやフェードなど数フレームから数秒間に渡って徐々にシーンが変化する場合の特殊カットについては、例えば文献2(A.Hampapur, R.Jain and T.Weymouth,"Digital Video Segmentation",Proc. ACM Multimedia 94, pp.357-364, 1994)では、フレーム間輝度差分値がほぼ一定値になる場合にディゾルブと判断している(第2従来方式)。 For special cuts when the scene changes gradually over several seconds from several frames, such as dissolves and fades, refer to Reference 2 (A. Hampapur, R. Jain and T. Weymouth, "Digital Video Segmentation", Proc. ACM In Multimedia 94, pp.357-364, 1994), it is determined to be a dissolve when the inter-frame luminance difference value becomes a substantially constant value (second conventional method).
画面の空間的な位置が徐々に変化するワイプの検出については、例えば上記文献2ではワイプモデルを用い、輝度成分の水平方向に関する偏微分値が一定の場合水平方向のワイプと判定している(第3従来方式)。
前記第1従来方式では、鋭いピーク値をフラッシュ部分において検出することが可能であるが、連続したフラッシュや弱いフラッシュでは検出が困難であるという問題があった。また、前記第2の従来方式では、前記フレーム間輝度差分値の変化は動きの場合との区別が非常に困難であり、また、動きのあるディゾルブでは差分値は一定値をとるとは限らない。さらに、前記第3の従来方式では、カメラや物体の動きに対しても非常に敏感といえる。さらに、さまざまな方向に対応するためには各方向について微分値を求める必要があり、処理が複雑であるという問題があった。 In the first conventional method, it is possible to detect a sharp peak value in a flash portion, but there is a problem that it is difficult to detect with a continuous flash or a weak flash. Further, in the second conventional method, the change in the inter-frame luminance difference value is very difficult to distinguish from the case of motion, and the difference value does not always take a constant value in a dissolve with motion. . Furthermore, it can be said that the third conventional method is very sensitive to the movement of the camera and the object. Furthermore, in order to cope with various directions, it is necessary to obtain a differential value for each direction, and there is a problem that processing is complicated.
本発明の目的は、前記した従来技術の問題点を解決し、従来の手法よりも簡単な方法を用いて、カット点と動きシーンとを区別すると共に、ワイプなどの特殊カット点の検出をすることのできるカット点検出装置を提供することにある。 The object of the present invention is to solve the above-mentioned problems of the prior art, distinguish a cut point from a moving scene and detect a special cut point such as a wipe by using a method simpler than the conventional method. An object of the present invention is to provide a cut point detection device that can perform the above-described process.
前記目的を達成するために、本発明は、動画像データ入力部、動きベクトル算出部、フレーム間差分算出部、瞬時カット点検出部、ディゾルブ検出部および動きシーン判定部を備え、前記瞬時カット点検出部で瞬時カットを検出し、瞬時カットと判定されなかった場合、前記ディゾルブ検出部でディゾルブ候補を検出し、前記動きベクトル算出部およびフレーム間差分算出部は、動画像データに対して動きベクトル情報およびフレーム間差分値を求め、前記動きシーン判定部は、前記ディゾルブ候補の画像に対して、前記動きベクトル情報およびフレーム間差分値を用いてパニングシーンおよび動きシーン検出を行い、前記パニングシーンおよび動きシーンに該当しないと判定された場合にはディゾルブカットと判定し、前記パニングシーンおよび動きシーンに該当すると判定された場合または前記ディゾルブ検出部でディゾルブ候補と判定されなかった場合には、ある区間およびその前後の区間におけるフレーム間差分値を用いてワイプカット検出を行いワイプカットと判定するようにした点に第1の特徴がある。 To achieve the above object, the present invention comprises a moving image data input unit, a motion vector calculation unit, an inter-frame difference calculation unit, an instantaneous cut point detection unit, a dissolve detection unit, and a motion scene determination unit, and the instantaneous cut inspection When an instantaneous cut is detected by the output unit and the instantaneous cut is not determined, a dissolve candidate is detected by the dissolve detection unit, and the motion vector calculation unit and the inter-frame difference calculation unit Obtaining information and inter-frame difference values, the motion scene determination unit performs panning scene and motion scene detection on the dissolve candidate images using the motion vector information and inter-frame difference values, and the panning scene and If it is determined that it does not correspond to a moving scene, it is determined as a dissolve cut, and the panning scene If it is determined that the scene corresponds to a moving scene or if the dissolve detection unit does not determine a candidate for a dissolve, wipe cut detection is performed using a difference value between frames in a certain section and the sections before and after the section. The first feature is in the point of determination .
また、本発明は、前記動きベクトル算出部は、画像フレームのブロックの動きベクトル情報を求め、前記動きシーン判定部は、フレームnで、その動きベクトルの大きさが予め定められた第1のしきい値より大きなブロック数が予め定められた第2のしきい値より大きく、かつフレーム間差分が大きな場合に動きシーンとし、また、前記フレームnで、その動きベクトルの大きさが前記第1のしきい値より大きく、かつ水平または垂直方向の動きベクトルの画面平均が予め定められた第3のしきい値より大きな場合にパニングシーンとし、前記動きシーンおよびパニングシーンをカット点と区別するようにした点に第2の特徴がある。 Further, the present invention, the motion vector calculation unit obtains the motion vector information of the blocks of an image frame, said motion scene determination unit, in the frame n, a first tooth size of the motion vector is predetermined greater than a second threshold value which is determined larger number of blocks than threshold in advance, and a scene motion when the interframe difference is large, and in the frame n, the motion vector magnitude is the first A panning scene is set when the screen average of a horizontal or vertical motion vector is greater than a predetermined third threshold, and the motion scene and the panning scene are distinguished from cut points. There is a second feature in this point.
本発明によれば、動きシーンとカット点とを精度良く判別し、またワイプシーンを高い精度で検出することができるため、従来に比べて非常に高い精度でカット検出が可能となる。このため、動きシーンをカット点と誤検出することを減少できる効果がある。また、これまで検出が困難であったワイプシーンチェンジを検出することが可能になるという効果がある。 According to the present invention, a motion scene and a cut point can be discriminated with high accuracy, and a wipe scene can be detected with high accuracy. Therefore, cut detection can be performed with very high accuracy as compared with the prior art. For this reason, there is an effect that it is possible to reduce erroneous detection of a motion scene as a cut point. In addition, there is an effect that it is possible to detect a wipe scene change that has been difficult to detect.
一例として、MPEG1で圧縮されたTV番組1時間のカット点検出を本発明を用いて行った所、特願平8-252333号で開示された方法を用いた場合の検出率90%に対して、約95%の精度でこれらのシーンチェンジを検出することができた。 As an example, when a cut point detection for one hour of a TV program compressed with MPEG1 is performed using the present invention, the detection rate is 90% when the method disclosed in Japanese Patent Application No. 8-252333 is used. These scene changes could be detected with an accuracy of about 95%.
以下に、図面を参照して、本発明を詳細に説明する。図1に本発明の実施例1に関するフローチャートを示す。まず画像入力10で画像が1フレーム入力され、瞬時カット検出11で瞬時カットが検出される。ここで瞬時カットと判定された画像についてはフラッシュ検出12でフラッシュ画像かどうかを検出する。もしフラッシュ画像でない場合は瞬時カットの登録表示13で該フレーム瞬時カットの登録や表示処理を行い、残りフレームの処理20を行う。瞬時カット検出11で瞬時カットと判定されなかった場合、またはフラッシュ検出12でフラッシュ検出とされた場合には、基本ディゾルブ検出14でディゾルブ画像の検出を行う。
Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 shows a flowchart relating to the first embodiment of the present invention. First, one frame of an image is input by the
ここでもしディゾルブと判定された場合は、パン,モーション(Pan, Motion) 検出15でパニングや動き画像かどうかを判定する。もしこれらに該当しない場合はディゾルブカットの登録表示16で該フレームはディゾルブとしてディゾルブカットの登録や表示処理を行い、残りフレームの処理20を行う。また、 Pan, Motion検出15でパニングや動き画像と判定された場合は、ワイプカット検出18に移行する。
If it is determined to be a dissolve, pan /
基本ディゾルブ検出14で検出されなかったフレームについてはフラット領域ディゾルブ検出17においてフラット領域でのディゾルブかどうかを判定する。もしディゾルブと判定された場合は、ディゾルブカットの登録表示16に移行する。ディゾルブカットと判定されなかった場合はワイプカット検出18に移行する。ワイプカット検出18ではワイプカットかどうかを判定する。もし、ワイプカットと判定された場合はワイプカットの登録表示19にて該フレームをワイプカットと登録したり表示処理を行い、残りフレーム処理20へ移行する。もし、ワイプカットと判定されなかった場合も残りフレーム処理20へ移行する。
For frames that are not detected by the
以下に、MPEGデータからカット点検出を行う処理を、図2を参照して詳細に説明する。図2は一体としてカット検出装置を構成するが、説明を分かりやすくするために、(a) 〜(d) 図に分けて記載されている。 Hereinafter, the process of detecting cut points from MPEG data will be described in detail with reference to FIG. Although FIG. 2 integrally forms the cut detection device, it is divided into FIGS. (A) to (d) for ease of explanation.
同図(a) の符号化データは可変長復号部21に入力され、該可変長復号部21にて各ブロックの量子化された2次元DCT係数が復号され、該2次元DCT係数は平均値成分抽出部22に入力される。該平均値成分抽出部22の平均値成分抽出法としては、例えば氏原、中島らによる“簡易復号処理による圧縮動画像データからのカット点検出”、情報処理学会第51回全国大会、6S-9(1995)や、特願平7-263681号等に開示されている方法等を用いることができる。
The encoded data shown in FIG. 5A is input to the variable
平均値成分抽出部22で得られた平均値成分は瞬時カット点検出部23に入力され、瞬時カットが検出される。瞬時カット点検出法についても上記文献に記載されている方法を用いることができる。
The average value component obtained by the average value
フラッシュでは画面が1フレーム単位で大きく変化するため、シーンチェンジとして誤検出されることも多い。従って、瞬時カット点検出部23で瞬時カットと判定された場合は、同図(b) のフラッシュシーン判定部2iに入力され、フラッシュシーンかどうかを判定する。
In the flash, the screen changes greatly in units of one frame, so it is often erroneously detected as a scene change. Therefore, when the instantaneous cut
フラッシュが発生したフレームにおける輝度や色差分布は前フレームのものとは全く異なるが、シーンチェンジとは異なって、これらの分布はフラッシュシーン後1〜2フレームで元の状態に戻る。フラッシュシーンモデルを図3と図4に示す。図3はシングルフラッシュシーンのモデルを示し、図4は連続フラッシュシーンのモデルを示している。 The luminance and color difference distribution in the frame where the flash occurs is completely different from that in the previous frame, but unlike the scene change, these distributions return to the original state in one to two frames after the flash scene. The flash scene model is shown in FIGS. FIG. 3 shows a single flash scene model, and FIG. 4 shows a continuous flash scene model.
例えば、図3(a) のようにフレームnのみがフラッシュシーンの場合、フレームnとn-1 の相関は低い(図示のL)が,フレームn+1 とフレームn-1 の相関は高い(図示のH)。 For example, when only frame n is a flash scene as shown in FIG. 3 (a), the correlation between frames n and n-1 is low (L in the figure), but the correlation between frames n + 1 and n-1 is high ( H) shown.
そこで、同図(b) の色差ヒストグラム演算部2gにおいて、平均値成分抽出部22から入力された色差信号の平均値成分データより、フレームの色差ヒストグラムを計算し、計算結果を色差相関演算部2hおよび第5のメモリ2jに入力する。色差相関演算部2hでは入力されたフレームn+1 の色差ヒストグラムおよび予め第5のメモリ2jに格納してあったフレームn およびフレームn-1 の色差ヒストグラムより色差ヒストグラム相関ρ(n, n-1)、ρ(n+1, n-1)を求め、フラッシュシーン判定部2iに入力する。
Therefore, in the color difference
なお、色差ヒストグラムおよび色差相関の演算方法としては、たとえば、中島らによる“フレーム間輝度差分と色差相関による圧縮同画像データからのカット検出”、電子情報通信学会秋季大会D-501(1994) 、特願平5-216895号、あるいは特願平6-46561 号に開示されている方法を用いることができる。 In addition, as the calculation method of the color difference histogram and the color difference correlation, for example, “Detection of cut from compressed image data by inter-frame luminance difference and color difference correlation” by Nakajima et al., IEICE Autumn Meeting D-501 (1994), The method disclosed in Japanese Patent Application No. 5-216895 or Japanese Patent Application No. 6-46561 can be used.
図3(a) に示したように、フレームn がフラッシュシーンの場合、フラッシュシーン判定部2iではフレームn とn-1 の相関ρ(n,n−1)は低いが、フレームn+1 とフレームn-1 の相関ρ(n+1,n−1)は高いため、以下に示すような判定式(1) を満足する場合、フレームn をフラッシュシーンと判定することができる。 As shown in FIG. 3A, when the frame n is a flash scene, the flash scene determination unit 2i has a low correlation ρ (n, n-1) between the frames n and n-1, but the frames n + 1 and Since the correlation ρ (n + 1, n−1) of the frame n−1 is high, the frame n can be determined as a flash scene when the following expression (1) is satisfied.
ρ(n,n−1)<Th_fl、ρ(n+1,n−1)>Th_fh…(1) ρ (n, n−1) <Th_fl, ρ (n + 1, n−1)> Th_fh (1)
ここに、Th_fl、Th_fhはそれぞれ、第1、第2の閾値を示し、Th_fl<Th_fhである。該第1、第2の閾値は、それぞれ、カット点と判定できる程度の低い値(例えば、0.7)、非カット点と判定できる程度の高い値(例えば、0.9)である。 Here, Th_fl and Th_fh indicate the first and second threshold values, respectively, and Th_fl <Th_fh. The first and second threshold values are low values (for example, 0.7) that can be determined as cut points and high values (for example, 0.9) that can be determined as non-cut points, respectively.
図3(b) のようにフレームn-1 がフラッシュシーンの場合、フレームn とフレームn-1 の相関は低いが、フレームn とフレームn-2 の相関は高くなる。また、図4のように連続してフラッシュシーンとなる場合も同様に隣接フレームとの相関から判別することが可能である。 As shown in FIG. 3B, when the frame n-1 is a flash scene, the correlation between the frame n and the frame n-1 is low, but the correlation between the frame n and the frame n-2 is high. In addition, when flash scenes are continuously formed as shown in FIG. 4, it is possible to determine from the correlation with adjacent frames in the same manner.
もし、フラッシュシーンと判定された場合は(フラッシュシーン判定部2iの判断がイエス)、カット検出処理を終了して、同図(a) の符号化データ入力に戻り、次のフレームを入力する。また、フラッシュシーンでないと判定された場合には、カット点画像保持部2dでカット点画像を登録、保持し、カット点画像表示部2kでカット点画像の表示を行う。なお、カット点画像の表示については、特願平8-252333号の“動画像の特殊カット点検出装置”に開示されている方法を用いることができる。
If it is determined that the scene is a flash scene (Yes in the flash scene determination unit 2i), the cut detection process is terminated, the process returns to the encoded data input shown in FIG. 5A, and the next frame is input. If it is determined that the scene is not a flash scene, the cut point image is registered and held in the cut point
瞬時カット点検出部23で瞬時カットと判定されなかった画像については、基本ディゾルブ検出部24においてディゾルブ画像の判定を行う。ディゾルブ画像の判定方法については、例えば特願平8-252333号の“動画像の特種カット点検出装置”に開示されている方法を用いることができる。
For an image that has not been determined to be an instantaneous cut by the instantaneous cut
基本ディゾルブ検出部24でディゾルブと判定された場合でも、動きシーンやパニングシーンを過って検出することがある。たとえば特願平8-252333号の“動画像の特殊カット点検出装置”に開示されているアクティビティについては、ディゾルブも動きシーンも類似した変化を示す。ただし、動きシーンでは符号化ブロックはほとんどすべて動き補償ブロックになり、フレーム間差分も大きい。これに対して、ディゾルブでは動き補償ブロック数は少なくまたフレーム間差分も小さい。
Even when the basic dissolve
そこで、基本ディゾルブ検出部24でディゾルブと判定された場合、動きシーン判定部2aで動きシーンかどうかを判定する。動きシーン判定部2aには可変長復号部21から各ブロックの動きベクトルMVが入力され、またフレーム間差分演算部2bからフレーム間差分Dnを計算する。なお、 Dn については特願平5-216895号に開示されている方法や平均値成分抽出部22から得られるフレームnの輝度信号のブロック平均値を第3のメモリ2cに蓄積すると共に、第3のメモリ2jから得られるフレームn-1のブロック平均値を用いて輝度信号のブロック平均値のフレーム間絶対差分の累積和を計算して求めることができる。
Therefore, when the basic dissolve
動きシーン判定部2aではフレーム間差分演算部2bから得られるフレーム間差分Dnと可変長復号部21から得られる動きベクトルMVにより動きシーンの判定を行う。動きシーンやパニングシーンでは多くのブロックが動き補償ブロックとなる。これについては以下のような判定式(2) を用いることができる。
The motion scene determination unit 2 a determines a motion scene based on the interframe difference Dn obtained from the interframe
MVC,PMVC>Th_mvc …(2) MVC, PMVC> Th_mvc (2)
前記Th_mvc はしきい値で、例えば0.45MNを用いることができる。 The Th_mvc is a threshold value, for example, 0.45MN.
ここで、MVCとPMVCはそれぞれ最も新しいフレームの動きベクトル数と2番目に新しいフレームの動きベクトル数である。たとえばMPEGの場合、入力されたフレームに最も近いPピクチャーとその次に近いPピクチャーを用いることが可能である。ただし、動きベクトル数は、動きベクトルの大きさがしきい値Th_mv(例えば、4pel/frame )を越えるベクトル数をカウントする。また、動きシーンでは、大きなフレーム間差分を有する。また、パニングシーンでは、多くのブロックが同一の動きベクトルを有する。したがって、それぞれ以下に示す式(3) (4) を用いて動きシーンやパニングシーンを判別することができる Here, MVC and PMVC are the number of motion vectors of the newest frame and the number of motion vectors of the second newest frame, respectively. For example, in the case of MPEG, it is possible to use the P picture closest to the input frame and the P picture closest to the next. However, the number of motion vectors counts the number of vectors whose motion vector size exceeds a threshold Th_mv (for example, 4 pel / frame). In addition, a motion scene has a large inter-frame difference. In the panning scene, many blocks have the same motion vector. Therefore, moving scenes and panning scenes can be discriminated using equations (3) and (4) below.
Dn,Dn-1 >Th_bm…(3) Dn, Dn-1> Th_bm (3)
Dn >Th_mm,|<mvx>|or|<mvy>|>Th_am…(4) Dn> Th_mm, | <mvx> | or | <mvy> |> Th_am (4)
ここで、Dnはフレームnとフレームn-1 とのフレーム間差分、また、Dn-1はフレームn-1 とフレームn-2 のフレーム間差分U10である。さらにTh_bm 、Th_mm 、Th_am はしきい値であり、例えば、Th_bm =7.5MN、Th_mm =1.5MN、Th_am =5pel/frame を用いることができる。<mvx> 、<mvy> は水平方向の動きベクトルと垂直方向の動きベクトルの画面平均を示す。 Here, Dn is an interframe difference between the frame n and the frame n-1, and Dn-1 is an interframe difference U10 between the frame n-1 and the frame n-2. Further, Th_bm, Th_mm, and Th_am are threshold values, and for example, Th_bm = 7.5MN, Th_mm = 1.5MN, Th_am = 5 pel / frame can be used. <mvx> and <mvy> indicate the screen average of the horizontal motion vector and the vertical motion vector.
したがって、(3) 式と(4) 式のいずれかと(2) 式を満足する場合、動きシーンかパニングシーンと判定することができる。 Therefore, when either (3) or (4) and (2) are satisfied, it can be determined that the scene is a moving scene or a panning scene.
動きシーン判定部2a で動きシーンと判定された場合は、同図(c) のワイプシーン判定部2e でワイプシーンかどうかを判定する。また、動きシーンでないと判定された場合は、ディゾルブシーンと判定することができるため、同図(b) のカット点画像保持部2d へ移行する。
If the motion scene determination unit 2a determines that the scene is a motion scene, the wipe scene determination unit 2e in FIG. If it is determined that the scene is not a moving scene, it can be determined as a dissolve scene, and the process proceeds to the cut-point
基本ディゾルブ検出部24でディゾルブでないと判定された場合は、第1の平坦部用判定部25へ移行する。たとえば特願平8-252333号“動画像の特殊カット点検出装置”に開示されているアクティビティの移動平均差分を用いた場合、該差分値の絶対値がしきい値以上のフレームが存在する場合ディゾルブと判定している。平坦部でディゾルブが発生した場合、アクティビティの変化が非常に小さいため、アクティビティの移動平均差分値の絶対値がしきい値以上にならないこともある。しかしながら、ディゾルブ区間ではしきい値に近い値を保持しながら差分値が変化する。従って、ある区間で差分値がある程度の大きさを保持し、かつその積分値が大きい場合平坦部のディゾルブとすることができる。ディゾルブの場合、特願平8-252333号にもあるように、アクティビティの移動平均差分は負の値を持つ区間の後に正の値を有する区間が現れる。このため、以下のような式(5) 〜(7) を用いてこれらの区間の判定を行うことができる。
When the basic dissolve
式(7) において、dh, dmはそれぞれ正の整数で、ディゾルブ区間の大きさを指定する定数である。Th_sa やTh_ea は判定のためのしきい値であり、例えば、Th_sa =70、Th_ea =1を用いることができる。また、DMV(t)は画面内のアクティビティの移動平均差分で特願平8-252333号で開示された方法を用いることが可能である。具体的には、同図(d) に示されているように、画面内アクティビィティ演算部2l で画面内アクティビィティを演算し、これを移動平均演算部2m に入れて画面内のアクティビティの移動平均差分DMV(t)を求める。なお、前記画面内アクティビィティは、メモリ2n に格納される。
In Equation (7), dh and dm are positive integers, and are constants that specify the size of the dissolve interval. Th_sa and Th_ea are threshold values for determination. For example, Th_sa = 70 and Th_ea = 1 can be used. DMV (t) is a moving average difference of activities in the screen, and the method disclosed in Japanese Patent Application No. 8-252333 can be used. Specifically, as shown in (d) of the figure, the in-screen activity calculation unit 2l calculates the in-screen activity and puts it in the moving
第1の平坦部用判定部25では該差分DMV(t) が(5) 式および(6) 式を満足する場合、平坦部のディゾルブと判定することができる。
When the difference DMV (t) satisfies the expressions (5) and (6), the first flat
第1の平坦部判定部25で平坦部のディゾルブと判定された場合、第2の平坦部判定部27に入力される。一方、ディゾルブと判定されなかった場合は、ゆっくりとしたパニングにおいては画面内のアクティビティの移動平均差分DMV(t) は、平坦部でのディゾルブと類似した変化を持ち、上記判定式でもディゾルブと過って検出される可能性がある。ゆっくりとしたパニングでは、動き量も小さく動き補償予測効率が高く予測誤差は小さくなる。他方、ディゾルブでは2つの画面が合成されているため、動き補償予測効率はあまり高くない。従って、予測誤差量の大小によってディゾルブとパニングの区別が可能である。
When the first flat
可変長復号部21からフレームnのブロック(i, j)における符号化予測誤差のDCT係数のDC成分DCn(i, j) は正規化予測誤差演算部29に入力され、正規化予測誤差NPEn が求められる。正規化予測誤差量NPEn は以下のようにDC成分の画面平均値を元に計算することができる。
The DC component DCn (i, j) of the DCT coefficient of the coding prediction error in the block (i, j) of the frame n from the variable
ここで、MNは画面内の総ブロック数で、kはフレーム間符号化ブロック数を示す。 Here, MN is the total number of blocks in the screen, and k is the number of inter-frame encoded blocks.
正規化予測誤差量NPEn は第2のメモリ28に入力されると共に第2の平坦部用判定部27に入力される。ディゾルブ区間ではNPEn は大きな値を持つため、大きな予測誤差を有するフレーム数をしきい値と比較してディゾルブ区間と判定することができる。従って、以下のような式を用いて判定することが可能である。
The normalized prediction error amount NPEn is input to the
ここで、PEflは予測誤差が大きなフレームがどうかを示すフラグで、フレームl の正規化予測誤差NPEl がしきい値Th_pe(例えば、3MN)より大きな場合PEflは1とする。また、bd_pとdd_pディゾルブ前の区間とディゾルブ中の区間を示す。これにより、(9) 式が満足された場合、平坦部でのディゾルブと判定することができる。もしディゾルブと判定された場合は同図(b) のカット点画像保持部2d に移行し、カット点画像の保持および記録を行う。また、ディゾルブと判定されなかった場合は同図(c) のワイプシーン判定部2e に移行する。
Here, PEfl is a flag indicating whether or not there is a frame having a large prediction error. PEfl is set to 1 when the normalized prediction error NPEl of the frame l is larger than a threshold Th_pe (for example, 3MN). In addition, a section before bd_p and dd_p dissolve and a section during dissolve are shown. As a result, when the expression (9) is satisfied, it can be determined as a dissolve in a flat portion. If it is determined to be a dissolve, the process proceeds to the cut point
ワイプシーンチェンジモデルを図5に示す。同図(a) は現在のショットAの上に新しいショットBが右方向に移動しながら出現する例である。同図(b) は同図(a) の変形例でショットAが水平方向で徐々に縮小する一方、ショットBが拡張しながら出現する例である。同図(c)(d)は同図(b) の変形例であり、垂直方向に拡大や縮小しながらシーンが移行する例である。また、同図(e) はページをめくるようにしてシーンが移行する例で、現在のショットAのページがめくれて、次のショットBが出現する。 The wipe scene change model is shown in FIG. FIG. 4A shows an example in which a new shot B appears on the current shot A while moving in the right direction. FIG. 6B shows an example in which the shot A gradually decreases in the horizontal direction while the shot B appears while expanding in the modified example of FIG. (C) and (d) are modified examples of FIG. (B), in which the scene shifts while being enlarged or reduced in the vertical direction. FIG. 4E shows an example in which the scene shifts by turning the page. The page of the current shot A is turned over, and the next shot B appears.
どのワイプにおいてもシーンが変化する間は2つのショットの位置が変化し、また変化前後はショット内に大きな動きがない限り各ショットは静止し安定している。さらに、ワイプシーンチェンジ中における各ショットのはゆっくりと一定の動きで位置や形が変化する。従って、フレーム間差分はどのワイプシーンチェンジも図6に示すような単純なモデルで代表することができる。図6は、フレーム間差分を用いたワイプモデルを示している。 In any wipe, the position of two shots changes while the scene changes, and before and after the change, each shot is stationary and stable unless there is a large movement in the shot. Furthermore, the position and shape of each shot during the wipe scene change slowly and constantly move. Accordingly, any wipe scene change between frames can be represented by a simple model as shown in FIG. FIG. 6 shows a wipe model using inter-frame differences.
図2(a) のフレーム間差分演算部2b で得られるフレーム間差分Dn は同図(c) の第4のメモリ2f とワイプシーン判定部2e に入力される。ワイプシーン判定部2e ではフレーム間差分をワイプモデルと比較してワイプシーンの判定を行う。ワイプ区間ではフレーム間差分が安定して大きく、また前後の区間ではフレーム間差分は小さいことから、以下のような判定式(11)を用いることが可能である。
The inter-frame difference Dn obtained by the inter-frame
BW>Th_bw, DW>Th_dw, AW>Th_aw …(11)
ここで、BW、DW、AWはそれぞれワイプ前、ワイプ中、ワイプ後と認定されたフレーム数で、Th_bw, Th_dw, Th_aw はしきい値である。該しきい値Th_bw, Th_dw, Th_aw としては、例えばTh_bw =27, Th_dw=24, Th_aw =5を用いることができる。なお、BW、DW、AWは以下の式(12)を用いて求めることが可能である。
BW> Th_bw, DW> Th_dw, AW> Th_aw (11)
Here, BW, DW, and AW are the numbers of frames recognized as before, during, and after wiping, respectively, and Th_bw, Th_dw, and Th_aw are threshold values. As the threshold values Th_bw, Th_dw, Th_aw, for example, Th_bw = 27, Th_dw = 24, Th_aw = 5 can be used. BW, DW, and AW can be obtained using the following equation (12).
DL(k) 、DH(k) はフレームkにおけるフレーム間差分Dk がそれぞれ高いか低いかを示すフラグで以下に示す式(13)を用いて決定することができる。 DL (k) and DH (k) are flags indicating whether the inter-frame difference Dk in frame k is high or low, and can be determined using the following equation (13).
if Dk >Th_wp then DL(k) =0,DH(k) =1,else DL(k) =1,DH(k) =0…(13) if Dk> Th_wp then DL (k) = 0, DH (k) = 1, else DL (k) = 1, DH (k) = 0 (13)
ここに、しきい値Th_wpとして、例えばTh_wp=1.36MNを用いることができる。 Here, for example, Th_wp = 1.36MN can be used as the threshold Th_wp.
ワイプシーン判定部2e でワイプシーンと判定された場合は、ワイプシーンとして図2(b) のカット点画像保持部2d とカット点画像表示部2k でそれぞれカットの保持と表示を行って、次のフレーム入力処理に移行する。また、ワイプと判定されなかった場合は直接次のフレーム入力処理に移行する。
When the wipe scene determination unit 2e determines that a wipe scene is detected, the cut point
前記実施形態は、MPEGで圧縮された場合のカット点検出法について述べたが、本発明はこれに限定されず、圧縮されていない動画像データや他の圧縮方法でも、同様な処理によりカット点の検出を行うことが可能である。 In the above-described embodiment, the cut point detection method when compressed by MPEG has been described. However, the present invention is not limited to this, and cut points can be obtained by the same process even in uncompressed moving image data and other compression methods. Can be detected.
また、本発明は部分的に組み合わせることも可能で、ディゾルブ検出部分のみを用いて他のカット点検出方式と組み合わせたり、ワイプシーン検出のみを瞬時カット検出と組み合わせることも可能である。 In addition, the present invention can be partially combined, and it is also possible to combine with other cut point detection methods using only the dissolve detection part, or to combine only wipe scene detection with instantaneous cut detection.
21…可変長復号部、22…平均値成分検出部、23…瞬時カット点検出部、24…基本ディゾルブ検出部、25…平坦部用判定部1、26、28、2c、2f、2j、2h…第1〜6メモリ、27…平坦部用判定部、2a・・・動きシーン判定部、2d…カット点画像保持部、2e…ワイプシーン判定部、2g…色差ヒストグラム演算部、2h…色差相関演算部、2i…フラッシュシーン判定部、2k…カット点画像表示部、2l…画面内アクティビィティ演算部、2m…移動平均演算部。
DESCRIPTION OF
Claims (3)
前記瞬時カット点検出部で瞬時カットを検出し、瞬時カットと判定されなかった場合、前記ディゾルブ検出部でディゾルブ候補を検出し、
前記動きベクトル算出部およびフレーム間差分算出部は、動画像データに対して動きベクトル情報およびフレーム間差分値を求め、
前記動きシーン判定部は、前記ディゾルブ候補の画像に対して、前記動きベクトル情報およびフレーム間差分値を用いてパニングシーンおよび動きシーン検出を行い、前記パニングシーンおよび動きシーンに該当しないと判定された場合にはディゾルブカットと判定し、前記パニングシーンおよび動きシーンに該当すると判定された場合または前記ディゾルブ検出部でディゾルブ候補と判定されなかった場合には、ある区間およびその前後の区間におけるフレーム間差分値を用いてワイプカット検出を行いワイプカットと判定することを特徴とする動画像のカット点検出装置。 A moving image data input unit, a motion vector calculation unit, an inter-frame difference calculation unit, an instantaneous cut point detection unit, a dissolve detection unit, and a motion scene determination unit,
When the instantaneous cut point detection unit detects an instantaneous cut and is not determined to be an instantaneous cut, the dissolve detection unit detects a dissolve candidate,
The motion vector calculation unit and the inter-frame difference calculation unit obtain motion vector information and inter-frame difference values for moving image data,
The motion scene determination unit performs panning scene and motion scene detection on the dissolve candidate image using the motion vector information and inter-frame difference values, and is determined not to correspond to the panning scene and motion scene. If it is determined as a dissolve cut and it is determined that the scene corresponds to the panning scene and the motion scene, or if it is not determined as a dissolve candidate by the dissolve detection unit, the difference between frames in a certain section and the sections before and after the section. An apparatus for detecting a cut point of a moving image, wherein wipe cut detection is performed using a value to determine wipe cut .
前記動きベクトル算出部は、画像フレームのブロックの動きベクトル情報を求め、
前記動きシーン判定部は、前記ディゾルブ検出部で検出されたディゾルブ候補の画像に対して、フレームnで、その動きベクトルの大きさが予め定められた第1のしきい値より大きなブロック数が予め定められた第2のしきい値より大きく、かつフレーム間差分が大きな場合に動きシーンとし、また、前記フレームnで、その動きベクトルの大きさが前記第1のしきい値より大きく、かつ水平または垂直方向の動きベクトルの画面平均が予め定められた第3のしきい値より大きな場合にパニングシーンとし、前記動きシーンおよびパニングシーンをカット点と区別することを特徴とする動画像のカット点検出装置。 The moving image cut point detection device according to claim 1,
The motion vector calculation unit obtains motion vector information of a block of an image frame,
The motion scene determination unit has a predetermined number of blocks having a motion vector magnitude greater than a predetermined first threshold value in frame n for a dissolve candidate image detected by the dissolve detection unit. A motion scene is set when the difference is larger than a predetermined second threshold value and the inter-frame difference is large, and the magnitude of the motion vector is larger than the first threshold value and horizontal in the frame n. Alternatively, when the screen average of the motion vector in the vertical direction is larger than a predetermined third threshold value, a panning scene is set, and the motion scene and the panning scene are distinguished from cut points, and cut inspection of a moving image is characterized. Out device.
ある区間においてフレーム間差分値が前記第4のしきい値より大きなフレーム数が予め定められた第5のしきい値より大きく、かつ該区間の前後の区間においてフレーム間差分値が少なくとも前記第4のしきい値より小さなフレーム数が予め定められた第6のしきい値より大きい場合にワイプと判定することを特徴とする動画像のカット点検出装置。 In the moving image cut point detection device according to claim 1 or 2 ,
The number of frames having an inter-frame difference value larger than the fourth threshold value in a certain section is greater than a predetermined fifth threshold value, and the inter-frame difference value is at least in the fourth section before and after the section. An apparatus for detecting a cut point of a moving image, wherein a wipe is determined when the number of frames smaller than a predetermined threshold is greater than a predetermined sixth threshold.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007303159A JP4261603B2 (en) | 2007-11-22 | 2007-11-22 | Moving image cut point detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007303159A JP4261603B2 (en) | 2007-11-22 | 2007-11-22 | Moving image cut point detection device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005040878A Division JP4225503B2 (en) | 2005-02-17 | 2005-02-17 | Moving image cut point detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008136208A JP2008136208A (en) | 2008-06-12 |
JP4261603B2 true JP4261603B2 (en) | 2009-04-30 |
Family
ID=39560675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007303159A Expired - Lifetime JP4261603B2 (en) | 2007-11-22 | 2007-11-22 | Moving image cut point detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4261603B2 (en) |
-
2007
- 2007-11-22 JP JP2007303159A patent/JP4261603B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2008136208A (en) | 2008-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6940910B2 (en) | Method of detecting dissolve/fade in MPEG-compressed video environment | |
US6473459B1 (en) | Scene change detector | |
US20100303150A1 (en) | System and method for cartoon compression | |
JP2009521877A (en) | Selecting a key frame from a video frame | |
JPH1075457A (en) | Moving object detector in moving image | |
JP2009147911A (en) | Video data compression preprocessing method, video data compression method employing the same and video data compression system | |
JP4913801B2 (en) | Shielding object image identification apparatus and method | |
US8611423B2 (en) | Determination of optimal frame types in video encoding | |
JP4225503B2 (en) | Moving image cut point detection device | |
US20110051010A1 (en) | Encoding Video Using Scene Change Detection | |
JPH10224741A (en) | Cut point detection method for moving image | |
KR100963701B1 (en) | Video identification device | |
Smeaton et al. | An evaluation of alternative techniques for automatic detection of shot boundaries in digital video | |
KR101667011B1 (en) | Apparatus and Method for detecting scene change of stereo-scopic image | |
JP4261603B2 (en) | Moving image cut point detection device | |
JP2004112678A (en) | Video-searching instrument | |
JP2006518960A (en) | Shot break detection | |
JP4036321B2 (en) | Video search device and search program | |
JPH1023421A (en) | Moving picture processing method | |
JP2003061112A (en) | Camerawork detector and camerawork detection method | |
JPH118854A (en) | Cut point detection method and device therefor | |
JP4662169B2 (en) | Program, detection method, and detection apparatus | |
JP4768649B2 (en) | CAMERA WORK DETECTION METHOD, DEVICE, PROGRAM, AND ITS RECORDING MEDIUM | |
JP3339544B2 (en) | Dissolve detection method and device | |
KR20020040503A (en) | Shot detecting method of video stream |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080827 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081119 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090204 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090205 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120220 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120220 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150220 Year of fee payment: 6 |
|
EXPY | Cancellation because of completion of term |