JP4261603B2 - Moving image cut point detection device - Google Patents

Moving image cut point detection device Download PDF

Info

Publication number
JP4261603B2
JP4261603B2 JP2007303159A JP2007303159A JP4261603B2 JP 4261603 B2 JP4261603 B2 JP 4261603B2 JP 2007303159 A JP2007303159 A JP 2007303159A JP 2007303159 A JP2007303159 A JP 2007303159A JP 4261603 B2 JP4261603 B2 JP 4261603B2
Authority
JP
Japan
Prior art keywords
scene
dissolve
cut
motion
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2007303159A
Other languages
Japanese (ja)
Other versions
JP2008136208A (en
Inventor
康之 中島
清乃 氏原
暁夫 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2007303159A priority Critical patent/JP4261603B2/en
Publication of JP2008136208A publication Critical patent/JP2008136208A/en
Application granted granted Critical
Publication of JP4261603B2 publication Critical patent/JP4261603B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は動画像データのカット点検出方法に関し、特に、動画像検索においてシーンを分類するためのカット点検出を、非常に効率的かつ高い精度で行うことができるカット点検出方法に関する。   The present invention relates to a cut point detection method for moving image data, and more particularly to a cut point detection method that can perform cut point detection for classifying a scene in moving image search with very high efficiency and high accuracy.

動画像のカット点には瞬時カットの他にディゾルブ、フェードイン、フェードアウト、ワイプなどの特殊カットがある。瞬時カットについては、例えば文献1(B.L.Yeo and B.Liu," Rapid scene analysis on compressed video",IEEE Tr.Circuits and Systems for Video Technology, Dec.1995 )では、フレーム間差分値がピーク点を持つところを検出してカット点を判定している。ただし、この場合フラッシュでもピーク点が生じて過剰な検出となるため、瞬時カットとフラッシュを区別する方式が提案されている(第1従来方式)。上記文献では数秒間のフレーム間差分の最大値と平均値からフラッシュ検出を行なっている。   There are special cuts such as dissolve, fade-in, fade-out, and wipe in addition to instantaneous cuts at the cut points of moving images. Regarding instantaneous cut, for example, in Reference 1 (BLYeo and B. Liu, “Rapid scene analysis on compressed video”, IEEE Tr. Circuits and Systems for Video Technology, Dec. 1995), the inter-frame difference value has a peak point. This is detected to determine the cut point. However, in this case, a peak point is generated even in the flash, resulting in excessive detection. Therefore, a method for distinguishing instantaneous cut from flash is proposed (first conventional method). In the above-mentioned document, flash detection is performed from the maximum value and the average value of the inter-frame differences for several seconds.

ディゾルブやフェードなど数フレームから数秒間に渡って徐々にシーンが変化する場合の特殊カットについては、例えば文献2(A.Hampapur, R.Jain and T.Weymouth,"Digital Video Segmentation",Proc. ACM Multimedia 94, pp.357-364, 1994)では、フレーム間輝度差分値がほぼ一定値になる場合にディゾルブと判断している(第2従来方式)。   For special cuts when the scene changes gradually over several seconds from several frames, such as dissolves and fades, refer to Reference 2 (A. Hampapur, R. Jain and T. Weymouth, "Digital Video Segmentation", Proc. ACM In Multimedia 94, pp.357-364, 1994), it is determined to be a dissolve when the inter-frame luminance difference value becomes a substantially constant value (second conventional method).

画面の空間的な位置が徐々に変化するワイプの検出については、例えば上記文献2ではワイプモデルを用い、輝度成分の水平方向に関する偏微分値が一定の場合水平方向のワイプと判定している(第3従来方式)。
B.L.Yeo and B.Liu," Rapid scene analysis on compressed video",IEEE Tr.Circuits and Systems for Video Technology, Dec.1995 A.Hampapur, R.Jain and T.Weymouth,"Digital Video Segmentation",Proc. ACM Multimedia 94, pp.357-364, 1994
Regarding the detection of a wipe in which the spatial position of the screen gradually changes, for example, in the above-mentioned document 2, a wipe model is used, and when the partial differential value of the luminance component in the horizontal direction is constant, it is determined that the wipe is in the horizontal direction ( Third conventional method).
BLYeo and B. Liu, "Rapid scene analysis on compressed video", IEEE Tr. Circuits and Systems for Video Technology, Dec. 1995 A. Hampapur, R. Jain and T. Weymouth, "Digital Video Segmentation", Proc. ACM Multimedia 94, pp.357-364, 1994

前記第1従来方式では、鋭いピーク値をフラッシュ部分において検出することが可能であるが、連続したフラッシュや弱いフラッシュでは検出が困難であるという問題があった。また、前記第2の従来方式では、前記フレーム間輝度差分値の変化は動きの場合との区別が非常に困難であり、また、動きのあるディゾルブでは差分値は一定値をとるとは限らない。さらに、前記第3の従来方式では、カメラや物体の動きに対しても非常に敏感といえる。さらに、さまざまな方向に対応するためには各方向について微分値を求める必要があり、処理が複雑であるという問題があった。   In the first conventional method, it is possible to detect a sharp peak value in a flash portion, but there is a problem that it is difficult to detect with a continuous flash or a weak flash. Further, in the second conventional method, the change in the inter-frame luminance difference value is very difficult to distinguish from the case of motion, and the difference value does not always take a constant value in a dissolve with motion. . Furthermore, it can be said that the third conventional method is very sensitive to the movement of the camera and the object. Furthermore, in order to cope with various directions, it is necessary to obtain a differential value for each direction, and there is a problem that processing is complicated.

本発明の目的は、前記した従来技術の問題点を解決し、従来の手法よりも簡単な方法を用いて、カット点と動きシーンとを区別すると共に、ワイプなどの特殊カット点の検出をすることのできるカット点検出装置を提供することにある。 The object of the present invention is to solve the above-mentioned problems of the prior art, distinguish a cut point from a moving scene and detect a special cut point such as a wipe by using a method simpler than the conventional method. An object of the present invention is to provide a cut point detection device that can perform the above-described process.

前記目的を達成するために、本発明は、動画像データ入力部、動きベクトル算出部、フレーム間差分算出部、瞬時カット点検出部、ディゾルブ検出部および動きシーン判定部を備え、前記瞬時カット点検出部で瞬時カットを検出し、瞬時カットと判定されなかった場合、前記ディゾルブ検出部でディゾルブ候補を検出し、前記動きベクトル算出部およびフレーム間差分算出部は、動画像データに対して動きベクトル情報およびフレーム間差分値を求め、前記動きシーン判定部は、前記ディゾルブ候補の画像に対して、前記動きベクトル情報およびフレーム間差分値を用いてパニングシーンおよび動きシーン検出を行い、前記パニングシーンおよび動きシーンに該当しないと判定された場合にはディゾルブカットと判定し、前記パニングシーンおよび動きシーンに該当すると判定された場合または前記ディゾルブ検出部でディゾルブ候補と判定されなかった場合には、ある区間およびその前後の区間におけるフレーム間差分値を用いてワイプカット検出を行いワイプカットと判定するようにした点に第1の特徴がある。 To achieve the above object, the present invention comprises a moving image data input unit, a motion vector calculation unit, an inter-frame difference calculation unit, an instantaneous cut point detection unit, a dissolve detection unit, and a motion scene determination unit, and the instantaneous cut inspection When an instantaneous cut is detected by the output unit and the instantaneous cut is not determined, a dissolve candidate is detected by the dissolve detection unit, and the motion vector calculation unit and the inter-frame difference calculation unit Obtaining information and inter-frame difference values, the motion scene determination unit performs panning scene and motion scene detection on the dissolve candidate images using the motion vector information and inter-frame difference values, and the panning scene and If it is determined that it does not correspond to a moving scene, it is determined as a dissolve cut, and the panning scene If it is determined that the scene corresponds to a moving scene or if the dissolve detection unit does not determine a candidate for a dissolve, wipe cut detection is performed using a difference value between frames in a certain section and the sections before and after the section. The first feature is in the point of determination .

また、本発明は、前記動きベクトル算出部は、画像フレームのブロックの動きベクトル情報を求め、前記動きシーン判定部は、フレームnで、その動きベクトルの大きさが予め定められた第1のしきい値より大きなブロック数が予め定められた第2のしきい値より大きく、かつフレーム間差分が大きな場合に動きシーンとし、また、前記フレームnで、その動きベクトルの大きさが前記第1のしきい値より大きく、かつ水平または垂直方向の動きベクトルの画面平均が予め定められた第3のしきい値より大きな場合にパニングシーンとし、前記動きシーンおよびパニングシーンをカット点と区別するようにした点に第2の特徴がある。 Further, the present invention, the motion vector calculation unit obtains the motion vector information of the blocks of an image frame, said motion scene determination unit, in the frame n, a first tooth size of the motion vector is predetermined greater than a second threshold value which is determined larger number of blocks than threshold in advance, and a scene motion when the interframe difference is large, and in the frame n, the motion vector magnitude is the first A panning scene is set when the screen average of a horizontal or vertical motion vector is greater than a predetermined third threshold, and the motion scene and the panning scene are distinguished from cut points. There is a second feature in this point.

本発明によれば、動きシーンとカット点とを精度良く判別し、またワイプシーンを高い精度で検出することができるため、従来に比べて非常に高い精度でカット検出が可能となる。このため、動きシーンをカット点と誤検出することを減少できる効果がある。また、これまで検出が困難であったワイプシーンチェンジを検出することが可能になるという効果がある。   According to the present invention, a motion scene and a cut point can be discriminated with high accuracy, and a wipe scene can be detected with high accuracy. Therefore, cut detection can be performed with very high accuracy as compared with the prior art. For this reason, there is an effect that it is possible to reduce erroneous detection of a motion scene as a cut point. In addition, there is an effect that it is possible to detect a wipe scene change that has been difficult to detect.

一例として、MPEG1で圧縮されたTV番組1時間のカット点検出を本発明を用いて行った所、特願平8-252333号で開示された方法を用いた場合の検出率90%に対して、約95%の精度でこれらのシーンチェンジを検出することができた。   As an example, when a cut point detection for one hour of a TV program compressed with MPEG1 is performed using the present invention, the detection rate is 90% when the method disclosed in Japanese Patent Application No. 8-252333 is used. These scene changes could be detected with an accuracy of about 95%.

以下に、図面を参照して、本発明を詳細に説明する。図1に本発明の実施例1に関するフローチャートを示す。まず画像入力10で画像が1フレーム入力され、瞬時カット検出11で瞬時カットが検出される。ここで瞬時カットと判定された画像についてはフラッシュ検出12でフラッシュ画像かどうかを検出する。もしフラッシュ画像でない場合は瞬時カットの登録表示13で該フレーム瞬時カットの登録や表示処理を行い、残りフレームの処理20を行う。瞬時カット検出11で瞬時カットと判定されなかった場合、またはフラッシュ検出12でフラッシュ検出とされた場合には、基本ディゾルブ検出14でディゾルブ画像の検出を行う。   Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 shows a flowchart relating to the first embodiment of the present invention. First, one frame of an image is input by the image input 10, and an instantaneous cut is detected by the instantaneous cut detection 11. Here, the flash detection 12 detects whether or not the image is determined to be an instantaneous cut. If it is not a flash image, the instantaneous cut registration and display processing is performed on the instantaneous cut registration display 13 and the remaining frame processing 20 is performed. When the instantaneous cut is not determined by the instantaneous cut detection 11 or when the flash detection 12 is the flash detection, the basic dissolve detection 14 detects the dissolve image.

ここでもしディゾルブと判定された場合は、パン,モーション(Pan, Motion) 検出15でパニングや動き画像かどうかを判定する。もしこれらに該当しない場合はディゾルブカットの登録表示16で該フレームはディゾルブとしてディゾルブカットの登録や表示処理を行い、残りフレームの処理20を行う。また、 Pan, Motion検出15でパニングや動き画像と判定された場合は、ワイプカット検出18に移行する。   If it is determined to be a dissolve, pan / motion detection 15 determines whether it is panning or a motion image. If not, the dissolve cut registration display 16 performs dissolve cut registration and display processing for the frame as a dissolve, and the remaining frame processing 20 is performed. If the pan / motion detection 15 determines that the image is panning or a motion image, the process proceeds to the wipe cut detection 18.

基本ディゾルブ検出14で検出されなかったフレームについてはフラット領域ディゾルブ検出17においてフラット領域でのディゾルブかどうかを判定する。もしディゾルブと判定された場合は、ディゾルブカットの登録表示16に移行する。ディゾルブカットと判定されなかった場合はワイプカット検出18に移行する。ワイプカット検出18ではワイプカットかどうかを判定する。もし、ワイプカットと判定された場合はワイプカットの登録表示19にて該フレームをワイプカットと登録したり表示処理を行い、残りフレーム処理20へ移行する。もし、ワイプカットと判定されなかった場合も残りフレーム処理20へ移行する。   For frames that are not detected by the basic dissolve detection 14, it is determined in the flat area dissolve detection 17 whether or not they are dissolved in the flat area. If it is determined to be a dissolve, the display shifts to a dissolve cut registration display 16. If it is not determined as a dissolve cut, the process proceeds to wipe cut detection 18. In the wipe cut detection 18, it is determined whether or not it is a wipe cut. If it is determined to be a wipe cut, the frame is registered as a wipe cut or displayed on the wipe cut registration display 19, and the process proceeds to the remaining frame processing 20. If the wipe cut is not determined, the remaining frame processing 20 is performed.

以下に、MPEGデータからカット点検出を行う処理を、図2を参照して詳細に説明する。図2は一体としてカット検出装置を構成するが、説明を分かりやすくするために、(a) 〜(d) 図に分けて記載されている。   Hereinafter, the process of detecting cut points from MPEG data will be described in detail with reference to FIG. Although FIG. 2 integrally forms the cut detection device, it is divided into FIGS. (A) to (d) for ease of explanation.

同図(a) の符号化データは可変長復号部21に入力され、該可変長復号部21にて各ブロックの量子化された2次元DCT係数が復号され、該2次元DCT係数は平均値成分抽出部22に入力される。該平均値成分抽出部22の平均値成分抽出法としては、例えば氏原、中島らによる“簡易復号処理による圧縮動画像データからのカット点検出”、情報処理学会第51回全国大会、6S-9(1995)や、特願平7-263681号等に開示されている方法等を用いることができる。   The encoded data shown in FIG. 5A is input to the variable length decoding unit 21, and the variable length decoding unit 21 decodes the quantized two-dimensional DCT coefficient of each block, and the two-dimensional DCT coefficient is an average value. Input to the component extraction unit 22. As the average value component extraction method of the average value component extraction unit 22, for example, “Detection of cut points from compressed video data by simple decoding process” by Ushihara and Nakajima et al., Information Processing Society of Japan 51st National Convention, 6S-9 (1995), Japanese Patent Application No. 7-263681, and the like can be used.

平均値成分抽出部22で得られた平均値成分は瞬時カット点検出部23に入力され、瞬時カットが検出される。瞬時カット点検出法についても上記文献に記載されている方法を用いることができる。   The average value component obtained by the average value component extraction unit 22 is input to the instantaneous cut point detection unit 23, and an instantaneous cut is detected. The method described in the above document can also be used for the instantaneous cut point detection method.

フラッシュでは画面が1フレーム単位で大きく変化するため、シーンチェンジとして誤検出されることも多い。従って、瞬時カット点検出部23で瞬時カットと判定された場合は、同図(b) のフラッシュシーン判定部2iに入力され、フラッシュシーンかどうかを判定する。   In the flash, the screen changes greatly in units of one frame, so it is often erroneously detected as a scene change. Therefore, when the instantaneous cut point detection unit 23 determines that the cut is an instantaneous cut, it is input to the flash scene determination unit 2i shown in FIG.

フラッシュが発生したフレームにおける輝度や色差分布は前フレームのものとは全く異なるが、シーンチェンジとは異なって、これらの分布はフラッシュシーン後1〜2フレームで元の状態に戻る。フラッシュシーンモデルを図3と図4に示す。図3はシングルフラッシュシーンのモデルを示し、図4は連続フラッシュシーンのモデルを示している。   The luminance and color difference distribution in the frame where the flash occurs is completely different from that in the previous frame, but unlike the scene change, these distributions return to the original state in one to two frames after the flash scene. The flash scene model is shown in FIGS. FIG. 3 shows a single flash scene model, and FIG. 4 shows a continuous flash scene model.

例えば、図3(a) のようにフレームnのみがフラッシュシーンの場合、フレームnとn-1 の相関は低い(図示のL)が,フレームn+1 とフレームn-1 の相関は高い(図示のH)。   For example, when only frame n is a flash scene as shown in FIG. 3 (a), the correlation between frames n and n-1 is low (L in the figure), but the correlation between frames n + 1 and n-1 is high ( H) shown.

そこで、同図(b) の色差ヒストグラム演算部2gにおいて、平均値成分抽出部22から入力された色差信号の平均値成分データより、フレームの色差ヒストグラムを計算し、計算結果を色差相関演算部2hおよび第5のメモリ2jに入力する。色差相関演算部2hでは入力されたフレームn+1 の色差ヒストグラムおよび予め第5のメモリ2jに格納してあったフレームn およびフレームn-1 の色差ヒストグラムより色差ヒストグラム相関ρ(n, n-1)、ρ(n+1, n-1)を求め、フラッシュシーン判定部2iに入力する。   Therefore, in the color difference histogram calculation unit 2g in FIG. 5B, a frame color difference histogram is calculated from the average value component data of the color difference signal input from the average value component extraction unit 22, and the calculation result is used as the color difference correlation calculation unit 2h. And input to the fifth memory 2j. In the color difference correlation calculation unit 2h, the color difference histogram correlation ρ (n, n-1) is calculated from the color difference histogram of the frame n + 1 inputted and the color difference histogram of the frame n and the frame n-1 previously stored in the fifth memory 2j. ), Ρ (n + 1, n−1) are obtained and input to the flash scene determination unit 2i.

なお、色差ヒストグラムおよび色差相関の演算方法としては、たとえば、中島らによる“フレーム間輝度差分と色差相関による圧縮同画像データからのカット検出”、電子情報通信学会秋季大会D-501(1994) 、特願平5-216895号、あるいは特願平6-46561 号に開示されている方法を用いることができる。   In addition, as the calculation method of the color difference histogram and the color difference correlation, for example, “Detection of cut from compressed image data by inter-frame luminance difference and color difference correlation” by Nakajima et al., IEICE Autumn Meeting D-501 (1994), The method disclosed in Japanese Patent Application No. 5-216895 or Japanese Patent Application No. 6-46561 can be used.

図3(a) に示したように、フレームn がフラッシュシーンの場合、フラッシュシーン判定部2iではフレームn とn-1 の相関ρ(n,n−1)は低いが、フレームn+1 とフレームn-1 の相関ρ(n+1,n−1)は高いため、以下に示すような判定式(1) を満足する場合、フレームn をフラッシュシーンと判定することができる。   As shown in FIG. 3A, when the frame n is a flash scene, the flash scene determination unit 2i has a low correlation ρ (n, n-1) between the frames n and n-1, but the frames n + 1 and Since the correlation ρ (n + 1, n−1) of the frame n−1 is high, the frame n can be determined as a flash scene when the following expression (1) is satisfied.

ρ(n,n−1)<Th_fl、ρ(n+1,n−1)>Th_fh…(1)   ρ (n, n−1) <Th_fl, ρ (n + 1, n−1)> Th_fh (1)

ここに、Th_fl、Th_fhはそれぞれ、第1、第2の閾値を示し、Th_fl<Th_fhである。該第1、第2の閾値は、それぞれ、カット点と判定できる程度の低い値(例えば、0.7)、非カット点と判定できる程度の高い値(例えば、0.9)である。   Here, Th_fl and Th_fh indicate the first and second threshold values, respectively, and Th_fl <Th_fh. The first and second threshold values are low values (for example, 0.7) that can be determined as cut points and high values (for example, 0.9) that can be determined as non-cut points, respectively.

図3(b) のようにフレームn-1 がフラッシュシーンの場合、フレームn とフレームn-1 の相関は低いが、フレームn とフレームn-2 の相関は高くなる。また、図4のように連続してフラッシュシーンとなる場合も同様に隣接フレームとの相関から判別することが可能である。   As shown in FIG. 3B, when the frame n-1 is a flash scene, the correlation between the frame n and the frame n-1 is low, but the correlation between the frame n and the frame n-2 is high. In addition, when flash scenes are continuously formed as shown in FIG. 4, it is possible to determine from the correlation with adjacent frames in the same manner.

もし、フラッシュシーンと判定された場合は(フラッシュシーン判定部2iの判断がイエス)、カット検出処理を終了して、同図(a) の符号化データ入力に戻り、次のフレームを入力する。また、フラッシュシーンでないと判定された場合には、カット点画像保持部2dでカット点画像を登録、保持し、カット点画像表示部2kでカット点画像の表示を行う。なお、カット点画像の表示については、特願平8-252333号の“動画像の特殊カット点検出装置”に開示されている方法を用いることができる。   If it is determined that the scene is a flash scene (Yes in the flash scene determination unit 2i), the cut detection process is terminated, the process returns to the encoded data input shown in FIG. 5A, and the next frame is input. If it is determined that the scene is not a flash scene, the cut point image is registered and held in the cut point image holding unit 2d, and the cut point image is displayed in the cut point image display unit 2k. As for the display of the cut point image, the method disclosed in “Special Cut Point Detection Device for Moving Image” of Japanese Patent Application No. 8-252333 can be used.

瞬時カット点検出部23で瞬時カットと判定されなかった画像については、基本ディゾルブ検出部24においてディゾルブ画像の判定を行う。ディゾルブ画像の判定方法については、例えば特願平8-252333号の“動画像の特種カット点検出装置”に開示されている方法を用いることができる。   For an image that has not been determined to be an instantaneous cut by the instantaneous cut point detection unit 23, the basic dissolve detection unit 24 determines a dissolve image. As a method for determining a dissolve image, for example, a method disclosed in “Special image cut point detection device for moving image” of Japanese Patent Application No. 8-252333 can be used.

基本ディゾルブ検出部24でディゾルブと判定された場合でも、動きシーンやパニングシーンを過って検出することがある。たとえば特願平8-252333号の“動画像の特殊カット点検出装置”に開示されているアクティビティについては、ディゾルブも動きシーンも類似した変化を示す。ただし、動きシーンでは符号化ブロックはほとんどすべて動き補償ブロックになり、フレーム間差分も大きい。これに対して、ディゾルブでは動き補償ブロック数は少なくまたフレーム間差分も小さい。   Even when the basic dissolve detection unit 24 determines that a dissolve has occurred, a motion scene or panning scene may be detected in some cases. For example, as for the activity disclosed in Japanese Patent Application No. 8-252333, “Special Cut Point Detection Device for Moving Images”, both dissolve and motion scene show similar changes. However, in the motion scene, almost all the coding blocks are motion compensation blocks, and the interframe difference is also large. On the other hand, in the dissolve, the number of motion compensation blocks is small and the difference between frames is also small.

そこで、基本ディゾルブ検出部24でディゾルブと判定された場合、動きシーン判定部2aで動きシーンかどうかを判定する。動きシーン判定部2aには可変長復号部21から各ブロックの動きベクトルMVが入力され、またフレーム間差分演算部2bからフレーム間差分Dnを計算する。なお、 Dn については特願平5-216895号に開示されている方法や平均値成分抽出部22から得られるフレームnの輝度信号のブロック平均値を第3のメモリ2cに蓄積すると共に、第3のメモリ2jから得られるフレームn-1のブロック平均値を用いて輝度信号のブロック平均値のフレーム間絶対差分の累積和を計算して求めることができる。   Therefore, when the basic dissolve detection unit 24 determines that the motion is a dissolve, the motion scene determination unit 2a determines whether the scene is a motion scene. The motion scene determination unit 2a receives the motion vector MV of each block from the variable length decoding unit 21, and calculates the interframe difference Dn from the interframe difference calculation unit 2b. As for Dn, the block average value of the luminance signal of the frame n obtained from the method disclosed in Japanese Patent Application No. 5-216895 and the average value component extraction unit 22 is stored in the third memory 2c, and the third The cumulative sum of the absolute differences between frames of the block average value of the luminance signal can be calculated using the block average value of the frame n−1 obtained from the memory 2j.

動きシーン判定部2aではフレーム間差分演算部2bから得られるフレーム間差分Dnと可変長復号部21から得られる動きベクトルMVにより動きシーンの判定を行う。動きシーンやパニングシーンでは多くのブロックが動き補償ブロックとなる。これについては以下のような判定式(2) を用いることができる。   The motion scene determination unit 2 a determines a motion scene based on the interframe difference Dn obtained from the interframe difference calculation unit 2 b and the motion vector MV obtained from the variable length decoding unit 21. Many blocks are motion compensation blocks in motion scenes and panning scenes. For this, the following judgment formula (2) can be used.

MVC,PMVC>Th_mvc …(2)   MVC, PMVC> Th_mvc (2)

前記Th_mvc はしきい値で、例えば0.45MNを用いることができる。   The Th_mvc is a threshold value, for example, 0.45MN.

ここで、MVCとPMVCはそれぞれ最も新しいフレームの動きベクトル数と2番目に新しいフレームの動きベクトル数である。たとえばMPEGの場合、入力されたフレームに最も近いPピクチャーとその次に近いPピクチャーを用いることが可能である。ただし、動きベクトル数は、動きベクトルの大きさがしきい値Th_mv(例えば、4pel/frame )を越えるベクトル数をカウントする。また、動きシーンでは、大きなフレーム間差分を有する。また、パニングシーンでは、多くのブロックが同一の動きベクトルを有する。したがって、それぞれ以下に示す式(3) (4) を用いて動きシーンやパニングシーンを判別することができる   Here, MVC and PMVC are the number of motion vectors of the newest frame and the number of motion vectors of the second newest frame, respectively. For example, in the case of MPEG, it is possible to use the P picture closest to the input frame and the P picture closest to the next. However, the number of motion vectors counts the number of vectors whose motion vector size exceeds a threshold Th_mv (for example, 4 pel / frame). In addition, a motion scene has a large inter-frame difference. In the panning scene, many blocks have the same motion vector. Therefore, moving scenes and panning scenes can be discriminated using equations (3) and (4) below.

Dn,Dn-1 >Th_bm…(3)   Dn, Dn-1> Th_bm (3)

Dn >Th_mm,|<mvx>|or|<mvy>|>Th_am…(4)   Dn> Th_mm, | <mvx> | or | <mvy> |> Th_am (4)

ここで、Dnはフレームnとフレームn-1 とのフレーム間差分、また、Dn-1はフレームn-1 とフレームn-2 のフレーム間差分U10である。さらにTh_bm 、Th_mm 、Th_am はしきい値であり、例えば、Th_bm =7.5MN、Th_mm =1.5MN、Th_am =5pel/frame を用いることができる。<mvx> 、<mvy> は水平方向の動きベクトルと垂直方向の動きベクトルの画面平均を示す。   Here, Dn is an interframe difference between the frame n and the frame n-1, and Dn-1 is an interframe difference U10 between the frame n-1 and the frame n-2. Further, Th_bm, Th_mm, and Th_am are threshold values, and for example, Th_bm = 7.5MN, Th_mm = 1.5MN, Th_am = 5 pel / frame can be used. <mvx> and <mvy> indicate the screen average of the horizontal motion vector and the vertical motion vector.

したがって、(3) 式と(4) 式のいずれかと(2) 式を満足する場合、動きシーンかパニングシーンと判定することができる。   Therefore, when either (3) or (4) and (2) are satisfied, it can be determined that the scene is a moving scene or a panning scene.

動きシーン判定部2a で動きシーンと判定された場合は、同図(c) のワイプシーン判定部2e でワイプシーンかどうかを判定する。また、動きシーンでないと判定された場合は、ディゾルブシーンと判定することができるため、同図(b) のカット点画像保持部2d へ移行する。   If the motion scene determination unit 2a determines that the scene is a motion scene, the wipe scene determination unit 2e in FIG. If it is determined that the scene is not a moving scene, it can be determined as a dissolve scene, and the process proceeds to the cut-point image holding unit 2d shown in FIG.

基本ディゾルブ検出部24でディゾルブでないと判定された場合は、第1の平坦部用判定部25へ移行する。たとえば特願平8-252333号“動画像の特殊カット点検出装置”に開示されているアクティビティの移動平均差分を用いた場合、該差分値の絶対値がしきい値以上のフレームが存在する場合ディゾルブと判定している。平坦部でディゾルブが発生した場合、アクティビティの変化が非常に小さいため、アクティビティの移動平均差分値の絶対値がしきい値以上にならないこともある。しかしながら、ディゾルブ区間ではしきい値に近い値を保持しながら差分値が変化する。従って、ある区間で差分値がある程度の大きさを保持し、かつその積分値が大きい場合平坦部のディゾルブとすることができる。ディゾルブの場合、特願平8-252333号にもあるように、アクティビティの移動平均差分は負の値を持つ区間の後に正の値を有する区間が現れる。このため、以下のような式(5) 〜(7) を用いてこれらの区間の判定を行うことができる。   When the basic dissolve detection unit 24 determines that it is not a dissolve, the process proceeds to the first flat portion determination unit 25. For example, when using the moving average difference of activities disclosed in Japanese Patent Application No. 8-252333 "Special image cut detection device for moving images", there is a frame in which the absolute value of the difference value exceeds a threshold value Judge as a dissolve. When a dissolve occurs in a flat part, the change in activity is very small, and the absolute value of the moving average difference value of the activity may not exceed the threshold value. However, in the dissolve section, the difference value changes while maintaining a value close to the threshold value. Accordingly, when the difference value has a certain size in a certain section and the integral value is large, the flat portion can be dissolved. In the case of a dissolve, as described in Japanese Patent Application No. 8-252333, a moving average difference of activities has a section having a positive value after a section having a negative value. Therefore, these sections can be determined using the following equations (5) to (7).

Figure 0004261603
Figure 0004261603

式(7) において、dh, dmはそれぞれ正の整数で、ディゾルブ区間の大きさを指定する定数である。Th_sa やTh_ea は判定のためのしきい値であり、例えば、Th_sa =70、Th_ea =1を用いることができる。また、DMV(t)は画面内のアクティビティの移動平均差分で特願平8-252333号で開示された方法を用いることが可能である。具体的には、同図(d) に示されているように、画面内アクティビィティ演算部2l で画面内アクティビィティを演算し、これを移動平均演算部2m に入れて画面内のアクティビティの移動平均差分DMV(t)を求める。なお、前記画面内アクティビィティは、メモリ2n に格納される。   In Equation (7), dh and dm are positive integers, and are constants that specify the size of the dissolve interval. Th_sa and Th_ea are threshold values for determination. For example, Th_sa = 70 and Th_ea = 1 can be used. DMV (t) is a moving average difference of activities in the screen, and the method disclosed in Japanese Patent Application No. 8-252333 can be used. Specifically, as shown in (d) of the figure, the in-screen activity calculation unit 2l calculates the in-screen activity and puts it in the moving average calculation unit 2m to move the activity in the screen. Find the average difference DMV (t). The in-screen activity is stored in the memory 2n.

第1の平坦部用判定部25では該差分DMV(t) が(5) 式および(6) 式を満足する場合、平坦部のディゾルブと判定することができる。   When the difference DMV (t) satisfies the expressions (5) and (6), the first flat part determining unit 25 can determine that the flat part is dissolved.

第1の平坦部判定部25で平坦部のディゾルブと判定された場合、第2の平坦部判定部27に入力される。一方、ディゾルブと判定されなかった場合は、ゆっくりとしたパニングにおいては画面内のアクティビティの移動平均差分DMV(t) は、平坦部でのディゾルブと類似した変化を持ち、上記判定式でもディゾルブと過って検出される可能性がある。ゆっくりとしたパニングでは、動き量も小さく動き補償予測効率が高く予測誤差は小さくなる。他方、ディゾルブでは2つの画面が合成されているため、動き補償予測効率はあまり高くない。従って、予測誤差量の大小によってディゾルブとパニングの区別が可能である。   When the first flat part determining unit 25 determines that the flat part is dissolved, the first flat part determining unit 25 inputs the result to the second flat part determining unit 27. On the other hand, if it is not determined to be a dissolve, the moving average difference DMV (t) of the activity in the screen during slow panning has a change similar to the dissolve in the flat part. May be detected. In slow panning, the amount of motion is small, the motion compensation prediction efficiency is high, and the prediction error is small. On the other hand, since two screens are synthesized in the dissolve, the motion compensation prediction efficiency is not so high. Therefore, it is possible to distinguish dissolve and panning according to the amount of prediction error.

可変長復号部21からフレームnのブロック(i, j)における符号化予測誤差のDCT係数のDC成分DCn(i, j) は正規化予測誤差演算部29に入力され、正規化予測誤差NPEn が求められる。正規化予測誤差量NPEn は以下のようにDC成分の画面平均値を元に計算することができる。   The DC component DCn (i, j) of the DCT coefficient of the coding prediction error in the block (i, j) of the frame n from the variable length decoding unit 21 is input to the normalized prediction error calculation unit 29, and the normalized prediction error NPEn is Desired. The normalized prediction error amount NPEn can be calculated based on the screen average value of the DC component as follows.

Figure 0004261603
Figure 0004261603

ここで、MNは画面内の総ブロック数で、kはフレーム間符号化ブロック数を示す。   Here, MN is the total number of blocks in the screen, and k is the number of inter-frame encoded blocks.

正規化予測誤差量NPEn は第2のメモリ28に入力されると共に第2の平坦部用判定部27に入力される。ディゾルブ区間ではNPEn は大きな値を持つため、大きな予測誤差を有するフレーム数をしきい値と比較してディゾルブ区間と判定することができる。従って、以下のような式を用いて判定することが可能である。   The normalized prediction error amount NPEn is input to the second memory 28 and also input to the second flat portion determination unit 27. Since NPEn has a large value in the dissolve interval, the number of frames having a large prediction error can be determined as a dissolve interval by comparing with the threshold value. Therefore, it can be determined using the following formula.

Figure 0004261603
Figure 0004261603

ここで、PEflは予測誤差が大きなフレームがどうかを示すフラグで、フレームl の正規化予測誤差NPEl がしきい値Th_pe(例えば、3MN)より大きな場合PEflは1とする。また、bd_pとdd_pディゾルブ前の区間とディゾルブ中の区間を示す。これにより、(9) 式が満足された場合、平坦部でのディゾルブと判定することができる。もしディゾルブと判定された場合は同図(b) のカット点画像保持部2d に移行し、カット点画像の保持および記録を行う。また、ディゾルブと判定されなかった場合は同図(c) のワイプシーン判定部2e に移行する。   Here, PEfl is a flag indicating whether or not there is a frame having a large prediction error. PEfl is set to 1 when the normalized prediction error NPEl of the frame l is larger than a threshold Th_pe (for example, 3MN). In addition, a section before bd_p and dd_p dissolve and a section during dissolve are shown. As a result, when the expression (9) is satisfied, it can be determined as a dissolve in a flat portion. If it is determined to be a dissolve, the process proceeds to the cut point image holding unit 2d shown in FIG. 5B, and the cut point image is held and recorded. If it is not determined to be a dissolve, the process proceeds to the wipe scene determination unit 2e shown in FIG.

ワイプシーンチェンジモデルを図5に示す。同図(a) は現在のショットAの上に新しいショットBが右方向に移動しながら出現する例である。同図(b) は同図(a) の変形例でショットAが水平方向で徐々に縮小する一方、ショットBが拡張しながら出現する例である。同図(c)(d)は同図(b) の変形例であり、垂直方向に拡大や縮小しながらシーンが移行する例である。また、同図(e) はページをめくるようにしてシーンが移行する例で、現在のショットAのページがめくれて、次のショットBが出現する。   The wipe scene change model is shown in FIG. FIG. 4A shows an example in which a new shot B appears on the current shot A while moving in the right direction. FIG. 6B shows an example in which the shot A gradually decreases in the horizontal direction while the shot B appears while expanding in the modified example of FIG. (C) and (d) are modified examples of FIG. (B), in which the scene shifts while being enlarged or reduced in the vertical direction. FIG. 4E shows an example in which the scene shifts by turning the page. The page of the current shot A is turned over, and the next shot B appears.

どのワイプにおいてもシーンが変化する間は2つのショットの位置が変化し、また変化前後はショット内に大きな動きがない限り各ショットは静止し安定している。さらに、ワイプシーンチェンジ中における各ショットのはゆっくりと一定の動きで位置や形が変化する。従って、フレーム間差分はどのワイプシーンチェンジも図6に示すような単純なモデルで代表することができる。図6は、フレーム間差分を用いたワイプモデルを示している。   In any wipe, the position of two shots changes while the scene changes, and before and after the change, each shot is stationary and stable unless there is a large movement in the shot. Furthermore, the position and shape of each shot during the wipe scene change slowly and constantly move. Accordingly, any wipe scene change between frames can be represented by a simple model as shown in FIG. FIG. 6 shows a wipe model using inter-frame differences.

図2(a) のフレーム間差分演算部2b で得られるフレーム間差分Dn は同図(c) の第4のメモリ2f とワイプシーン判定部2e に入力される。ワイプシーン判定部2e ではフレーム間差分をワイプモデルと比較してワイプシーンの判定を行う。ワイプ区間ではフレーム間差分が安定して大きく、また前後の区間ではフレーム間差分は小さいことから、以下のような判定式(11)を用いることが可能である。   The inter-frame difference Dn obtained by the inter-frame difference calculation unit 2b in FIG. 2 (a) is input to the fourth memory 2f and the wipe scene determination unit 2e in FIG. 2 (c). The wipe scene determination unit 2e determines the wipe scene by comparing the inter-frame difference with the wipe model. Since the inter-frame difference is stable and large in the wipe section, and the inter-frame difference is small in the preceding and following sections, the following determination formula (11) can be used.

BW>Th_bw, DW>Th_dw, AW>Th_aw …(11)
ここで、BW、DW、AWはそれぞれワイプ前、ワイプ中、ワイプ後と認定されたフレーム数で、Th_bw, Th_dw, Th_aw はしきい値である。該しきい値Th_bw, Th_dw, Th_aw としては、例えばTh_bw =27, Th_dw=24, Th_aw =5を用いることができる。なお、BW、DW、AWは以下の式(12)を用いて求めることが可能である。
BW> Th_bw, DW> Th_dw, AW> Th_aw (11)
Here, BW, DW, and AW are the numbers of frames recognized as before, during, and after wiping, respectively, and Th_bw, Th_dw, and Th_aw are threshold values. As the threshold values Th_bw, Th_dw, Th_aw, for example, Th_bw = 27, Th_dw = 24, Th_aw = 5 can be used. BW, DW, and AW can be obtained using the following equation (12).

Figure 0004261603
Figure 0004261603

DL(k) 、DH(k) はフレームkにおけるフレーム間差分Dk がそれぞれ高いか低いかを示すフラグで以下に示す式(13)を用いて決定することができる。   DL (k) and DH (k) are flags indicating whether the inter-frame difference Dk in frame k is high or low, and can be determined using the following equation (13).

if Dk >Th_wp then DL(k) =0,DH(k) =1,else DL(k) =1,DH(k) =0…(13)   if Dk> Th_wp then DL (k) = 0, DH (k) = 1, else DL (k) = 1, DH (k) = 0 (13)

ここに、しきい値Th_wpとして、例えばTh_wp=1.36MNを用いることができる。   Here, for example, Th_wp = 1.36MN can be used as the threshold Th_wp.

ワイプシーン判定部2e でワイプシーンと判定された場合は、ワイプシーンとして図2(b) のカット点画像保持部2d とカット点画像表示部2k でそれぞれカットの保持と表示を行って、次のフレーム入力処理に移行する。また、ワイプと判定されなかった場合は直接次のフレーム入力処理に移行する。   When the wipe scene determination unit 2e determines that a wipe scene is detected, the cut point image holding unit 2d and the cut point image display unit 2k in FIG. Move on to frame input processing. If it is not determined to be a wipe, the process directly proceeds to the next frame input process.

前記実施形態は、MPEGで圧縮された場合のカット点検出法について述べたが、本発明はこれに限定されず、圧縮されていない動画像データや他の圧縮方法でも、同様な処理によりカット点の検出を行うことが可能である。   In the above-described embodiment, the cut point detection method when compressed by MPEG has been described. However, the present invention is not limited to this, and cut points can be obtained by the same process even in uncompressed moving image data and other compression methods. Can be detected.

また、本発明は部分的に組み合わせることも可能で、ディゾルブ検出部分のみを用いて他のカット点検出方式と組み合わせたり、ワイプシーン検出のみを瞬時カット検出と組み合わせることも可能である。   In addition, the present invention can be partially combined, and it is also possible to combine with other cut point detection methods using only the dissolve detection part, or to combine only wipe scene detection with instantaneous cut detection.

本発明の動作の概要を示す処理フローチャートである。It is a processing flowchart which shows the outline | summary of operation | movement of this invention. 本発明の一実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of this invention. シングルフラッシュシーンモデルの説明図である。It is explanatory drawing of a single flash scene model. 連続フラッシュシーンモデルの説明図である。It is explanatory drawing of a continuous flash scene model. ワイプモデルの説明図である。It is explanatory drawing of a wipe model. フレーム間差分を用いた場合のワイプモデルの説明図である。It is explanatory drawing of the wipe model at the time of using the difference between frames.

符号の説明Explanation of symbols

21…可変長復号部、22…平均値成分検出部、23…瞬時カット点検出部、24…基本ディゾルブ検出部、25…平坦部用判定部1、26、28、2c、2f、2j、2h…第1〜6メモリ、27…平坦部用判定部、2a・・・動きシーン判定部、2d…カット点画像保持部、2e…ワイプシーン判定部、2g…色差ヒストグラム演算部、2h…色差相関演算部、2i…フラッシュシーン判定部、2k…カット点画像表示部、2l…画面内アクティビィティ演算部、2m…移動平均演算部。   DESCRIPTION OF SYMBOLS 21 ... Variable length decoding part, 22 ... Average value component detection part, 23 ... Instantaneous cut point detection part, 24 ... Basic dissolve detection part, 25 ... Flat part determination part 1,26,28, 2c, 2f, 2j, 2h ... 1st to 6th memory, 27 ... flat part determination unit, 2a ... motion scene determination unit, 2d ... cut point image holding unit, 2e ... wipe scene determination unit, 2g ... color difference histogram calculation unit, 2h ... color difference correlation Arithmetic unit, 2i... Flash scene determining unit, 2k... Cut point image display unit, 2l.

Claims (3)

動画像データ入力部、動きベクトル算出部、フレーム間差分算出部、瞬時カット点検出部、ディゾルブ検出部および動きシーン判定部を備え、
前記瞬時カット点検出部で瞬時カットを検出し、瞬時カットと判定されなかった場合、前記ディゾルブ検出部でディゾルブ候補を検出し、
前記動きベクトル算出部およびフレーム間差分算出部は、動画像データに対して動きベクトル情報およびフレーム間差分値を求め、
前記動きシーン判定部は、前記ディゾルブ候補の画像に対して、前記動きベクトル情報およびフレーム間差分値を用いてパニングシーンおよび動きシーン検出を行い、前記パニングシーンおよび動きシーンに該当しないと判定された場合にはディゾルブカットと判定し、前記パニングシーンおよび動きシーンに該当すると判定された場合または前記ディゾルブ検出部でディゾルブ候補と判定されなかった場合には、ある区間およびその前後の区間におけるフレーム間差分値を用いてワイプカット検出を行いワイプカットと判定することを特徴とする動画像のカット点検出装置。
A moving image data input unit, a motion vector calculation unit, an inter-frame difference calculation unit, an instantaneous cut point detection unit, a dissolve detection unit, and a motion scene determination unit,
When the instantaneous cut point detection unit detects an instantaneous cut and is not determined to be an instantaneous cut, the dissolve detection unit detects a dissolve candidate,
The motion vector calculation unit and the inter-frame difference calculation unit obtain motion vector information and inter-frame difference values for moving image data,
The motion scene determination unit performs panning scene and motion scene detection on the dissolve candidate image using the motion vector information and inter-frame difference values, and is determined not to correspond to the panning scene and motion scene. If it is determined as a dissolve cut and it is determined that the scene corresponds to the panning scene and the motion scene, or if it is not determined as a dissolve candidate by the dissolve detection unit, the difference between frames in a certain section and the sections before and after the section. An apparatus for detecting a cut point of a moving image, wherein wipe cut detection is performed using a value to determine wipe cut .
請求項1に記載の動画像のカット点検出装置において、
前記動きベクトル算出部は、画像フレームのブロックの動きベクトル情報を求め、
前記動きシーン判定部は、前記ディゾルブ検出部で検出されたディゾルブ候補の画像に対して、フレームnで、その動きベクトルの大きさが予め定められた第1のしきい値より大きなブロック数が予め定められた第2のしきい値より大きく、かつフレーム間差分が大きな場合に動きシーンとし、また、前記フレームnで、その動きベクトルの大きさが前記第1のしきい値より大きく、かつ水平または垂直方向の動きベクトルの画面平均が予め定められた第3のしきい値より大きな場合にパニングシーンとし、前記動きシーンおよびパニングシーンをカット点と区別することを特徴とする動画像のカット点検出装置。
The moving image cut point detection device according to claim 1,
The motion vector calculation unit obtains motion vector information of a block of an image frame,
The motion scene determination unit has a predetermined number of blocks having a motion vector magnitude greater than a predetermined first threshold value in frame n for a dissolve candidate image detected by the dissolve detection unit. A motion scene is set when the difference is larger than a predetermined second threshold value and the inter-frame difference is large, and the magnitude of the motion vector is larger than the first threshold value and horizontal in the frame n. Alternatively, when the screen average of the motion vector in the vertical direction is larger than a predetermined third threshold value, a panning scene is set, and the motion scene and the panning scene are distinguished from cut points, and cut inspection of a moving image is characterized. Out device.
請求項1または2に記載の動画像のカット点検出装置において、
ある区間においてフレーム間差分値が前記第4のしきい値より大きなフレーム数が予め定められた第5のしきい値より大きく、かつ該区間の前後の区間においてフレーム間差分値が少なくとも前記第4のしきい値より小さなフレーム数が予め定められた第6のしきい値より大きい場合にワイプと判定することを特徴とする動画像のカット点検出装置。
In the moving image cut point detection device according to claim 1 or 2 ,
The number of frames having an inter-frame difference value larger than the fourth threshold value in a certain section is greater than a predetermined fifth threshold value, and the inter-frame difference value is at least in the fourth section before and after the section. An apparatus for detecting a cut point of a moving image, wherein a wipe is determined when the number of frames smaller than a predetermined threshold is greater than a predetermined sixth threshold.
JP2007303159A 2007-11-22 2007-11-22 Moving image cut point detection device Expired - Lifetime JP4261603B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007303159A JP4261603B2 (en) 2007-11-22 2007-11-22 Moving image cut point detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007303159A JP4261603B2 (en) 2007-11-22 2007-11-22 Moving image cut point detection device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005040878A Division JP4225503B2 (en) 2005-02-17 2005-02-17 Moving image cut point detection device

Publications (2)

Publication Number Publication Date
JP2008136208A JP2008136208A (en) 2008-06-12
JP4261603B2 true JP4261603B2 (en) 2009-04-30

Family

ID=39560675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007303159A Expired - Lifetime JP4261603B2 (en) 2007-11-22 2007-11-22 Moving image cut point detection device

Country Status (1)

Country Link
JP (1) JP4261603B2 (en)

Also Published As

Publication number Publication date
JP2008136208A (en) 2008-06-12

Similar Documents

Publication Publication Date Title
US6940910B2 (en) Method of detecting dissolve/fade in MPEG-compressed video environment
US6473459B1 (en) Scene change detector
US20100303150A1 (en) System and method for cartoon compression
JP2009521877A (en) Selecting a key frame from a video frame
JPH1075457A (en) Moving object detector in moving image
JP2009147911A (en) Video data compression preprocessing method, video data compression method employing the same and video data compression system
JP2006314090A (en) Method for converting and displaying video to be implemented by computer
JP4913801B2 (en) Shielding object image identification apparatus and method
JP2006270301A (en) Scene change detecting apparatus and scene change detection program
US8611423B2 (en) Determination of optimal frame types in video encoding
JP4225503B2 (en) Moving image cut point detection device
US20110051010A1 (en) Encoding Video Using Scene Change Detection
JPH10224741A (en) Cut point detection method for moving image
Smeaton et al. An evaluation of alternative techniques for automatic detection of shot boundaries in digital video
KR100963701B1 (en) Video identification device
JP4261603B2 (en) Moving image cut point detection device
JP2004112678A (en) Video-searching instrument
KR101667011B1 (en) Apparatus and Method for detecting scene change of stereo-scopic image
JP2006518960A (en) Shot break detection
JP4036321B2 (en) Video search device and search program
JPH1023421A (en) Moving picture processing method
JP2003061112A (en) Camerawork detector and camerawork detection method
JPH118854A (en) Cut point detection method and device therefor
JP4924423B2 (en) Device for detecting cut point of moving image based on prediction error of feature amount
JPH10112863A (en) Method and device for extracting motion subject information

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080827

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090204

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150220

Year of fee payment: 6

EXPY Cancellation because of completion of term