JP3377678B2 - Encoded video cut detection method - Google Patents

Encoded video cut detection method

Info

Publication number
JP3377678B2
JP3377678B2 JP13562696A JP13562696A JP3377678B2 JP 3377678 B2 JP3377678 B2 JP 3377678B2 JP 13562696 A JP13562696 A JP 13562696A JP 13562696 A JP13562696 A JP 13562696A JP 3377678 B2 JP3377678 B2 JP 3377678B2
Authority
JP
Japan
Prior art keywords
frame
coded
cut
inter
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP13562696A
Other languages
Japanese (ja)
Other versions
JPH09322119A (en
Inventor
行信 谷口
淳 清水
洋 浜田
康巨 新倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP13562696A priority Critical patent/JP3377678B2/en
Priority to MYPI97001873A priority patent/MY118360A/en
Priority to US08/841,200 priority patent/US5911008A/en
Priority to KR1019970016700A priority patent/KR100274082B1/en
Publication of JPH09322119A publication Critical patent/JPH09322119A/en
Application granted granted Critical
Publication of JP3377678B2 publication Critical patent/JP3377678B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は符号化映像データか
らのカットを検出する方法に関し、符号化映像の再生装
置、編集装置などのユーザインタフェースを構成するた
めに好適なカット検出方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for detecting a cut from coded video data, and more particularly to a cut detection method suitable for constructing a user interface for a coded video playback device, an editing device, or the like. .

【0002】[0002]

【従来の技術】映像から場面の切り替わり(カメラの切
替えや編集のつなぎめ)であるカットを検出する方法が
様々提案されている。カットが検出できると、カットで
区切られるショット(一つの場面)の中から一枚あるい
は複数枚の代表画面を抽出して、一欄表示することによ
って、映像を最初から最後まで時間順に見なくても映像
の概略を理解でき、必要とする場面に素早くアクセスで
きるようなユーザインタフェースを構成できる。
2. Description of the Related Art Various methods have been proposed for detecting a cut, which is a change of a scene from a video (a change of cameras or a connection between edits). When a cut can be detected, one or more representative screens are extracted from the shots (one scene) separated by the cuts and displayed in one column so that the video is not viewed in chronological order from the beginning to the end. Can understand the outline of the video and can configure a user interface that allows quick access to the required scene.

【0003】従来のカット検出方法は、主に、符号化さ
れていない映像データを対象としたもので、隣接するフ
レーム間の相関を計算し、相関が小さいところをカット
とみなすものであった。符号化された映像データに対し
て、同様にしてフレーム間の相関を計算するためには、
時間のかかる復号処理が必要であることが問題であっ
た。
The conventional cut detection method mainly targets unencoded video data, calculates the correlation between adjacent frames, and regards a portion where the correlation is small as a cut. To calculate the correlation between frames in the same manner for encoded video data,
The problem is that a time-consuming decoding process is necessary.

【0004】このような問題点に鑑み、符号化データか
ら直接、復号処理を経ないで、カットを検出する方法が
いくつか提案されている。
In view of these problems, some methods have been proposed for detecting a cut directly from encoded data without going through a decoding process.

【0005】シーンチェンジ検出装置(特開平6−22
304号公報)では、画面間符号化フレームの符号化デ
ータから比較的高速に算出できる特徴量(予測誤差の累
計値、符号化データのデータ量、フレーム内符号化され
た画素数、等)に基づいてカットを検出する方法が開示
されている。
Scene change detection device (Japanese Patent Laid-Open No. 6-22
No. 304), a feature amount (cumulative value of prediction error, data amount of encoded data, number of pixels encoded in a frame, etc.) that can be calculated at relatively high speed from encoded data of an inter-coded frame is disclosed. A method for detecting a cut based on the above is disclosed.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上記符
号化データから比較的高速に算出できる特徴量に基づい
てカットを検出する従来の方法は、(1)画面内符号化
フレーム(画面内の相関を利用して圧縮されたフレー
ム)と画面間符号化フレーム(画面間の相関を利用して
圧縮されたフレーム)が混在しているような映像データ
に対しては正しくカットを検出できないという問題点、
(2)フレーム毎に上記の特徴量を計算するために多く
の計算時間を要するという問題点、を有している。
However, the conventional method for detecting a cut based on the feature amount that can be calculated at a relatively high speed from the above coded data is (1) an intra-coded frame (correlation within the screen is The problem that a cut cannot be correctly detected for video data in which mixed frames (compressed by using) and inter-coded frames (frames compressed by using correlation between screens) are mixed,
(2) There is a problem in that it takes a lot of calculation time to calculate the above feature amount for each frame.

【0007】以下、上記(1)、(2)の問題点につい
て順に説明する。
The problems (1) and (2) will be described below in order.

【0008】まず、問題点(1)について、MPEG符
号化映像を例にとって説明する。MPEGでは、画面内
の相関のみを利用して(対象フレーム以外の情報を利用
しないで)、符号化を行う画面内符号化フレーム(Iピ
クチャ)と、過去の参照フレームと対象フレームの間の
相関を利用して符号化される画面間順方向符号化フレー
ム(Pピクチャ)と、過去と未来の二枚の参照フレーム
と対象フレームの間の相関を利用して符号化される画面
間双方向符号化フレーム(Bピクチャ)、を組み合わせ
て映像を符号化している。例えば、 I,B,B,P,B,B,P,B,B,I,B,… のように、I,P,Bの各ピクチャが交互に現れる。M
PEG規格ではI,P,Bの並び順や間隔はある制約の
もとで自由に設定できる。Pピクチャのみから構成され
る符号化映像データ P1,P2,P3,P4,P5,P6,… を考えたとき、フレームP3の時点でカットがあるとフ
レームP2とフレームP3の間で相関が小さくなるので、
上記公報で示された特徴量(フレーム内符号化された画
素数、符号化データのデータ量など)が増加する。従っ
て、特徴量をしきい値処理するなどしてカットを正しく
検出できる。しかしながら、IピクチャとPピクチャの
組み合わせで圧縮されている映像 I1,P1,P2,P3,P4,P5,I2,… に対しては、P1,P2,P3,P4,P5の時点でカット
があった場合には正しくカットを検出できるが、P5
2の間にカットがあった場合、それを検出できない。
なぜならば、I2はフレーム間の相関を利用して符号化
されていないため、予測誤差の累計値やフレーム内符号
化された画素数などの特徴量は意味を持たないし、符号
化データのデータ量も常にPピクチャのそれに比べて大
きな値をとるため、このような特徴量に基づいてカット
を正しく検出することはできない。
First, the problem (1) will be described by taking MPEG encoded video as an example. In MPEG, the correlation between an intra-screen coded frame (I picture) to be encoded and the past reference frame and the target frame is used by using only the intra-screen correlation (without using information other than the target frame). Inter-picture forward-direction coded frame (P picture) coded by utilizing the above, and inter-screen bidirectional code encoded by utilizing the correlation between the past and future two reference frames and the target frame Video is coded by combining coded frames (B pictures). For example, I, P, B pictures alternately appear, such as I, B, B, P, B, B, P, B, B, I, B, .... M
In the PEG standard, the order of I, P, and B and the spacing can be freely set under certain restrictions. Considering encoded video data P 1 , P 2 , P 3 , P 4 , P 5 , P 6 , ... Consisting of only P pictures, if there is a cut at the time of frame P 3 , the frame P 2 and the frame Since the correlation between P 3 becomes small,
The feature amount (the number of pixels encoded in a frame, the amount of encoded data, etc.) disclosed in the above publication increases. Therefore, the cut can be correctly detected by thresholding the feature amount. However, for images I 1 , P 1 , P 2 , P 3 , P 4 , P 5 , I 2 , ... Compressed by a combination of I and P pictures, P 1 , P 2 , P 3 , P 4 and P 5 , if there is a cut, the cut can be detected correctly, but if there is a cut between P 5 and I 2 , it cannot be detected.
Because I 2 is not coded by utilizing the correlation between frames, the feature value such as the cumulative value of prediction errors and the number of pixels coded in a frame has no meaning, and the data of coded data Since the amount always takes a larger value than that of the P picture, the cut cannot be correctly detected based on such a feature amount.

【0009】次に、問題点(2)について説明する。符
号化データから上記の特徴量(符号化データ量を特徴量
とする場合を除く)を算出するために、すべての画面間
符号化フレームに対して可変長符号方式(高い頻度で出
てくる値に短い符号を割り当てる方式)で圧縮されたデ
ータを展開する必要があるので、多くの計算時間がかか
るということが、(特に、ソフトウェア的に上記方法を
実現する場合に)問題であった。
Next, the problem (2) will be described. In order to calculate the above feature amount (excluding the case where the encoded data amount is the feature amount) from the encoded data, the variable length coding method (value that appears at high frequency) for all inter-coded frames Since it is necessary to expand the data compressed by the method of allocating a short code to (2), it takes a lot of calculation time (especially when the above method is realized by software) is a problem.

【0010】上述したように従来技術には、復号処理や
可変長符号展開処理に時間がかかるという問題点があっ
た。従来技術のうち、符号化データのデータ量を使う方
法は、可変長符号展開処理を要しないので高速である
が、画面内符号化フレームと画面間符号化フレームが混
在した符号化映像に対しては正しくカットを検出できな
いという問題点があった。
As described above, the conventional technique has a problem that it takes a long time for the decoding process and the variable length code expansion process. Among the conventional techniques, the method of using the data amount of encoded data is fast because it does not require variable-length code expansion processing, but for encoded video in which intra-frame encoded frames and inter-frame encoded frames are mixed. Had a problem that it could not detect the cut correctly.

【0011】本発明は、上記問題点を解決するためにな
されたものであり、画面内符号化フレームと画面間符号
化フレームが混在した符号化映像に対しても高速かつ正
確にカットを検出できるカット検出方法を提供すること
を目的とする。
The present invention has been made to solve the above problems, and can detect a cut at high speed and accurately even in a coded video in which intra-frame coded frames and inter-frame coded frames are mixed. It is an object to provide a cut detection method.

【0012】[0012]

【課題を解決するための手段】上記の目的を達成するた
め、本発明は、画面内の相関を利用して符号化された画
面内符号化フレームと画面間の相関を利用して符号化さ
れた画面間符号化フレームを含む符号化映像からカット
を検出する方法であって、画面内符号化フレームの符号
化データから得られる特徴量に基づいてカットの存在す
る可能性のある区間Sを推定する段階と、前記区間Sに
含まれる画面間符号化フレームに対してその符号化デー
タから得られる特徴量に基づいてカットの有無を判定す
る段階と、を有することを特徴とする。
In order to achieve the above object, the present invention is an intra-frame coded frame that is coded using intra-frame correlation and is coded using inter-frame correlation. A method for detecting a cut from a coded video including an inter-screen coded frame, wherein a section S in which the cut may exist is estimated based on a feature amount obtained from the coded data of the intra-coded frame. And a step of determining the presence / absence of a cut in the inter-coded frame included in the section S based on the feature amount obtained from the coded data.

【0013】また、前記カットの有無を判定する段階
は、前記区間Sに含まれる画面間符号化フレームの符号
化データ量を特徴量とし、該画面間符号化フレームの前
後あるいはいずれか一方の画面間符号化フレームの特徴
量と比較することによってカットが存在する可能性のあ
る区間Sに含まれる区間S’を推定する過程と、前記区
間S’に含まれる画面間符号化フレームについて符号化
データから得られる特徴量に基づいてカットの有無を判
定する過程と、を有することを特徴とする。
In the step of determining the presence or absence of the cut, the amount of coded data of the inter-frame coded frame included in the section S is used as a feature amount, and the screen before or after the inter-frame coded frame or either one of the frames is displayed. A process of estimating a section S ′ included in a section S in which a cut may exist by comparing with a feature amount of the inter-coded frame, and coded data for the inter-coded frame included in the section S ′ And a step of determining the presence or absence of a cut based on the feature amount obtained from

【0014】さらに、前記区間S’に含まれる画面間符
号化フレームについて符号化データから得られる特徴量
に基づいてカットの有無を判定する過程において、前記
区間S’に含まれる符号化フレームが画面間符号化フレ
ームと画面内符号化フレームである場合には該符号化フ
レームを復号化して得られる特徴量に基づいてカットの
有無を判定する、ことを特徴とする。
Further, in the process of determining the presence / absence of a cut on the inter-coded frame included in the section S ′ based on the feature amount obtained from the coded data, the coded frame included in the section S ′ is displayed on the screen. In the case of an inter-coded frame and an intra-frame coded frame, the presence or absence of a cut is determined based on a feature amount obtained by decoding the coded frame.

【0015】本発明では、画面内符号化フレームの符号
化データから得られる特徴量に基づいてカットの存在す
る可能性のある区間Sを求め、その区間Sに含まれる画
面間符号化フレームに対してだけ、特徴量を算出するこ
とにより、復号化や可変長符号展開処理に要する時間を
削減する。同時に、画面間符号化フレームから算出され
る特徴量に基づいてカットを検出することにより、画面
内符号化フレームと画面間符号化フレームが混在してい
ても正しくカットを検出できるようにする。
In the present invention, a section S in which a cut may exist is obtained based on the feature amount obtained from the coded data of the intra-frame coded frame, and the inter-frame coded frame included in the section S is calculated. Only by calculating the feature amount, the time required for decoding and variable length code expansion processing is reduced. At the same time, the cut is detected based on the feature amount calculated from the inter-frame coded frame, so that the cut can be correctly detected even when the intra-frame coded frame and the inter-frame coded frame are mixed.

【0016】また、上記において、区間Sに含まれる画
面間符号化フレームを構成する「符号化データ量」を特
徴量としてカットが存在する区間を絞りこみ、この区間
S’に含まれる画面間符号化フレームに対してだけ可変
長符号展開処理を行って画面間符号化フレームの特徴量
に基づいたカットの検出処理を行うことにより、可変長
符号展開処理に伴う計算時間を削減し、より一層カット
検出を高速にする。
Further, in the above description, a section in which a cut exists is narrowed down by using the "coded data amount" constituting the inter-screen encoded frame included in the section S as a feature amount, and the inter-screen code included in the section S'is selected. The variable-length code expansion process is performed only on the encoded frames, and the cut detection process based on the feature amount of the inter-coded frames is performed, thereby reducing the calculation time associated with the variable-length code expansion process and further cutting. Make detection faster.

【0017】さらに、上記において、区間S’に含まれ
る符号化フレームが画面間符号化フレームと画面内符号
化フレームである場合には、これらの符号化フレームに
のみ復号化を行ってカットの検出を行うことで、カット
の検出を高速に行いながら、画面内符号化フレームと画
面間符号化フレームが混在する場合のカット検出をより
一層正確にする。
Further, in the above, when the coded frames included in the section S'are the inter-coded frames and the intra-frame coded frames, only these coded frames are decoded to detect the cut. By performing the cut detection at higher speed, the cut detection can be made more accurate when the intra-frame coded frame and the inter-frame coded frame are mixed.

【0018】[0018]

【発明の実施の形態】以下、本発明の実施形態例を図を
用いて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0019】図1,2,3,4は本発明の一実施形態例
の処理フロー図である。図1に示すメインルーチンから
処理が始まり、必要に応じて図2,3,4に示すサブル
ーチンPORC(b),(c),(d)を呼び出しなが
らカットを検出する。ここでフレーム列の例として、I
ピクチャとPピクチャが次の順序で現れるものを考え
る。
1, 2, 3 and 4 are process flow charts of an embodiment of the present invention. The processing starts from the main routine shown in FIG. 1, and the cut is detected while calling the subroutines PORC (b), (c) and (d) shown in FIGS. Here, as an example of the frame sequence, I
Consider that pictures and P-pictures appear in the following order:

【0020】It-1、Pt1、Pt2、Pt3、…、
t14、It、Pt+11、Pt+12、…、Pt+114
t+1、…(t=0,1,2,…) すなわち、Iピクチャの後に14枚のPピクチャが続く
ピクチャ列である。
I t-1 , P t , 1 , P t , 2 , P t , 3 , ...
P t , 14 , I t , P t + 1 , 1 , P t + 1 , 2 , ..., P t + 1 , 14 ,
I t + 1 , ... (T = 0, 1, 2, ...) That is, it is a picture sequence in which 14 P pictures follow an I picture.

【0021】〈メインルーチン〉図1に示すメインルー
チンについて説明する。
<Main Routine> The main routine shown in FIG. 1 will be described.

【0022】まず、IピクチャItからブロック毎にD
CT係数の直流成分を抽出してit(x,y)とおく
(ステップ100)。ここで、x,yはブロックのフレ
ーム内での空間的な位置を表す変数であり、x=0,
1,…,NX−1;y=0,1,2,…,NY−1(N
X,NYはそれぞれ横方向、縦方向のブロック数を表
す)である。DCT係数の直流成分は、正方形ブロック
内の輝度と色差の平均値、になっている。従って、it
(x,y)は原画像を縮小した画像になっている。
First, for each block from the I picture I t , D
The DC component of the CT coefficient is extracted and set as i t (x, y) (step 100). Here, x and y are variables that represent the spatial position of the block in the frame, and x = 0,
1, ..., NX-1; y = 0, 1, 2, ..., NY-1 (N
X and NY represent the numbers of blocks in the horizontal and vertical directions, respectively. The DC component of the DCT coefficient is the average value of the luminance and color difference within the square block. Therefore, i t
(X, y) is an image obtained by reducing the original image.

【0023】次に、予め算出されている前IピクチャI
t-1の直流成分it-1(x,y)との差分dt(x,y)
=it(x,y)−it-1(x,y)(−255≦d
t(x,y)≦255)を算出し(ステップ101)、
差分の絶対値|dt(x,y)|が閾値T1より大きい画
素数Dt(0≦Dt≦NX・NY)を計数する(ステップ
102)。Dtは二枚のIピクチャの間の絵柄の違いを
評価する量である。つまり、二枚のフレームIt,It-1
の絵柄が大きく違う場合には、Dtが大きな値をとる。
絵柄を評価する目的で、この他の特徴量を用いても構わ
ない。例えば、色ヒストグラム差分やその他の統計量を
用いても構わない。
Next, the previously calculated I picture I
The difference d t (x, y) from the direct - current component it -1 (x, y) of t-1.
= I t (x, y) -i t-1 (x, y) (- 255 ≦ d
t (x, y) ≤ 255) is calculated (step 101),
The number of pixels D t (0 ≦ D t ≦ NX · NY) whose absolute value | d t (x, y) | of the difference is larger than the threshold value T 1 is counted (step 102). D t is an amount for evaluating the difference in pattern between two I pictures. That is, the two frames I t and I t-1
When the pattern is significantly different, D t has a large value.
Other feature amounts may be used for the purpose of evaluating the design. For example, the color histogram difference and other statistics may be used.

【0024】次に、画素数Dtと閾値T2を比較し(ステ
ップ103)、閾値よりも大きい場合にはItとIt-1
間にカットがある可能性が高いと判断し、より詳細に調
べるためにサブルーチンProc(b)を呼び出す(ス
テップ104);そうでない場合には“カットなし”と
判定し、変数tに1を足し(ステップ105)、映像の
最終フレームに達していなければ(ステップ106)、
ステップ100に処理を移す。
Next, the number of pixels D t is compared with the threshold value T 2 (step 103), and when it is larger than the threshold value, it is determined that there is a high possibility that there is a cut between I t and I t-1 . Call the subroutine Proc (b) for more detailed examination (step 104); otherwise, determine "no cut", add 1 to the variable t (step 105), and reach the final frame of the video. If (step 106),
The processing moves to step 100.

【0025】〈サブルーチンProc(b)〉続いて、
図2のフロー図を用いて、サブルーチンProc(b)
の処理について説明する。このサブルーチンではIt-1
とItの間にある14枚のPピクチャの符号化データの
データ量に基づいて、カットの存在する可能性のある区
間をさらに絞り込む。
<Subroutine Proc (b)> Subsequently,
Subroutine Proc (b) using the flowchart of FIG.
The process will be described. In this subroutine, I t-1
Based on the data amount of the coded data of the 14 P-pictures between I and I t , the section in which the cut may exist is further narrowed down.

【0026】まず、ステップ110でi=1,2,…,
14に対してそれぞれPピクチャPtiの符号化データ
のデータ量Liを算出する。便宜的にL0=0とおく。i
=1,2,…,14に対してステップ112〜116の
処理を行うために、i=1に初期化する(ステップ11
1)。
First, in step 110, i = 1, 2, ...,
Respectively calculating a P-picture P t, the data amount L i of i of coded data to 14. For convenience, L 0 = 0 is set. i
In order to perform the processing of steps 112 to 116 for = 1, 2, ..., 14, i = 1 is initialized (step 11
1).

【0027】次に、ステップ112で条件Li−max
(Li-1,Lt+1)>T3が成立するか否かを調べ、条件
が成立する場合にはPtiにカットが存在する可能性が
高いと判断する。なぜなら、Pti-1とPtiの間のカ
ットがあるとその間で絵柄が大きく変化するのでフレー
ム間の相関が小さくなり、フレーム間の相関を用いた方
式では効率的な圧縮ができず、データ量Liがその他の
フレームのそれ(Li-1,Lt+1)と比べて大きくなる傾
向があるからである。ステップ112で上記の条件が成
立する場合には、詳細にカットを検出するためにサブル
ーチンProc(c)を呼び出し(ステップ113)、
その結果Proc(c)が“カットあり”と結果を返し
た場合には処理を終了してメインルーチンに戻り(ステ
ップ114)、そうでなければiに1を足して(ステッ
プ115)、iが14以下であればステップ112に戻
る(ステップ116)。
Next, at step 112, the condition L i -max
It is checked whether (L i−1 , L t + 1 )> T 3 is satisfied, and if the condition is satisfied, it is determined that there is a high possibility that a cut exists in P t , i . Because, if there is a cut between P t , i-1 and P t , i , the pattern changes greatly between them, so the correlation between frames becomes small, and efficient compression is achieved by the method using the correlation between frames. This is because the amount of data L i tends to be larger than that of the other frames (L i−1 , L t + 1 ). If the above condition is satisfied in step 112, the subroutine Proc (c) is called to detect the cut in detail (step 113).
As a result, when Proc (c) returns the result “with cut”, the process is terminated and the process returns to the main routine (step 114). Otherwise, i is incremented by 1 (step 115), and i is If it is 14 or less, the process returns to step 112 (step 116).

【0028】iが15に達した場合には、Pピクチャの
中にカットが検出されなかったことになるが、Pt14
とItの間にカットがある可能性が残されている。それ
を検出するためにサブルーチンProc(d)を呼び出
し(ステップ117)、メインルーチンに戻る。
When i reaches 15, it means that no cut was detected in the P picture, but P t , 14
There is still the possibility that there is a cut between I t and I t . To detect it, the subroutine Proc (d) is called (step 117) and the process returns to the main routine.

【0029】〈サブルーチンProc(c)〉図3のフ
ロー図を用いて、サブルーチンProc(c)の処理に
ついて説明する。このサブルーチンは、カットの存在す
る可能性のある区間からカットを検出するためのもので
ある。
<Subroutine Proc (c)> The processing of the subroutine Proc (c) will be described with reference to the flowchart of FIG. This subroutine is for detecting a cut from a section where a cut may exist.

【0030】まず、現在、着目しているPピクチャ
tiの可変長符号を展開し、マクロブロッックタイプ
と呼ばれる情報を読み出すことによって、画面内符号化
されたブロックをカウントし、Bi(0≦Bi≦NB)
(NBはブロックの数)を求める(ステップ120)。
iが予め定められた閾値T4よりも大きい場合には(ス
テップ121)、“カット有り”と出力し(ステップ1
22)、そうでない場合には“カット無し”と出力する
(ステップ123)。なぜならば、Pti-1とPti
間にカットがあると、フレーム間の相関が小さくなるの
で画面内符号化されたブロック数Biが増える傾向があ
るからである。
First, the variable length code of the P picture P t , i of interest is developed and the information called macroblock type is read out to count the intra-coded blocks, and B i (0 ≦ B i ≦ NB)
(NB is the number of blocks) is calculated (step 120).
When B i is larger than a predetermined threshold value T 4 (step 121), “with cut” is output (step 1).
22), otherwise output "no cut" (step 123). This is because if there is a cut between P t , i−1 and P t , i , the correlation between frames becomes small, and therefore the number of intra-coded blocks B i tends to increase.

【0031】〈サブルーチンProc(d)〉図4のフ
ロー図を用いて、サブルーチンProc(d)の処理に
ついて説明する。このサブルーチンは、Pt14とIt
間にカットがあるか否かを判定するためのものである。
<Subroutine Proc (d)> The processing of the subroutine Proc (d) will be described with reference to the flowchart of FIG. This subroutine is for determining whether or not there is a cut between P t , 14 and I t .

【0032】まず、ItとPt14のフレーム画像を復号
する(ステップ130)。Pt14を復号するために
は、It-1に遡ってPt1、Pt2、Pt3、…、Pt
14の順に復号処理を行う必要があるので計算時間がかか
るが、サブルーチンProc(d)が呼び出される回数
は、Proc(b),Proc(c)に比べて少ないの
で、計算時間の消費割合は大きくない。次に、It
t14の間でフレーム間差分dt(x,y)=i
t(x,y)−it-1(x,y)を計算し(ステップ13
1)、その差分の絶対値|dt(x,y)|がある閾値
5より大きい画素数をカウントし(ステップ13
2)、カウント値Dtと閾値T6を比較し(ステップ13
3)、カウント値が閾値より大きい場合ItとPt14
間にカットがあると判定し(ステップ134)、そうで
なければカット無しと判定し(ステップ135)、サブ
ルーチンを終了する。このサブルーチンの代わりに、メ
インルーチンで求めたDtがある閾値(閾値T2より大き
な値をとる)を越えたとき、ItとPt14の間にカット
があると判定するようにしてもよい。
First, the frame images of I t , P t and 14 are decoded (step 130). In order to decode P t , 14 , d is traced back to It -1 and P t , 1 , P t , 2 , P t , 3 , ..., P t ,
Although it takes calculation time because the decoding process needs to be performed in the order of 14, the number of times the subroutine Proc (d) is called is smaller than that of Proc (b) and Proc (c), so the calculation time consumption rate is large. Absent. Next, I t and P t, 14 frame difference d t (x, y) between = i
Calculate t (x, y) -i t-1 (x, y) (step 13
1) The absolute value of the difference | dt (x, y) | counts the number of pixels larger than a certain threshold T 5 (step 13
2) Compare the count value D t with the threshold value T 6 (step 13
3) If the count value is greater than the threshold value, it is determined that there is a cut between I t and P t , 14 (step 134), otherwise it is determined that there is no cut (step 135), and the subroutine ends. Instead of this subroutine, when exceeds a certain threshold D t determined in the main routine (takes a value greater than the threshold T 2), so as to determine that a cut between I t and P t, 14 Good.

【0033】図5を用いて上記実施形態例で、計算量が
削減される様子を示す。200が元のフレーム列を模式
的に表したもので、黒幅線がIピクチャを白幅線がPピ
クチャを表し、この中でカットが2箇所に存在する場合
を想定する。
FIG. 5 shows how the calculation amount is reduced in the above embodiment. Reference numeral 200 is a schematic representation of the original frame sequence, and it is assumed that the black wide line represents an I picture and the white wide line represents a P picture, in which cuts are present at two positions.

【0034】メインルーチンのステップ103の条件が
成り立つ区間(210,211,212)がカットの存
在する可能性の高い区間Sとして判断される。区間21
0と211にはカットが含まれるが、区間212にはカ
ットが含まれない。213の中で斜線で示した区間は、
メインルーチンでカットが存在しないと判断され、ふる
い落とされた区間である。フレーム列の大部分はこの段
階でふるい落とされ、時間のかかるサブルーチンPro
c(b),(c),(d)の処理を行う必要がなくなる
(カットは平均して数秒から数十秒に一つの割合で現れ
るので、多くの区間はこの段階でふるい落とされる)。
さらに、サブルーチンProc(b)でカットの存在す
る区間を更に絞りこみ、区間S’(220,221,2
22)を得る。サブルーチンProc(b)のステップ
112の条件が成立するフレームが220であり、ステ
ップ116の条件が成立しないフレームが221と22
2である。この段階で区間が更に絞り込まれる。フレー
ム220に対しては、サブルーチンProc(c)が呼
び出され、カットの有無が最終的に判定される。フレー
ム221と222に対しては、サブルーチンProc
(d)が呼び出され、カットの有無が最終的に判定され
る。このように、計算時間のかからない処理(メインル
ーチンとProc(b))によって段階的にカットの存
在する区間を絞り込んだ上で、計算時間はかかるが正確
な処理(Proc(c)とProc(d))を用いて最
終的にカットを判定する。つまり、処理時間を削減する
とともに正確にカットを検出することができる。従来の
方法は全てのフレームに対してProc(c)やPro
c(d)に相当する時間のかかる処理を行っているた
め、処理に時間がかかっていた。
A section (210, 211, 212) in which the condition of step 103 of the main routine is satisfied is determined as a section S having a high possibility that a cut exists. Section 21
Cuts are included in 0 and 211, but no cut is included in the section 212. The shaded section in 213 is
It is the section that was judged to have no cut in the main routine and was eliminated. Most of the sequence of frames is screened out at this stage, a time-consuming subroutine Pro
It is no longer necessary to perform the processes of c (b), (c), and (d) (cuts appear at a rate of one to several tens of seconds on average, so many sections are eliminated at this stage).
Further, the section in which the cut exists is further narrowed down by the subroutine Proc (b), and the section S '(220, 221, 2)
22) is obtained. The frame in which the condition in step 112 of the subroutine Proc (b) is satisfied is 220, and the frames in which the condition in step 116 is not satisfied are 221 and 22.
It is 2. At this stage, the section is further narrowed down. The subroutine Proc (c) is called for the frame 220, and the presence or absence of a cut is finally determined. Subroutine Proc for frames 221 and 222
(D) is called, and the presence or absence of a cut is finally determined. In this way, after the processing in which the calculation time is not required (main routine and Proc (b)) is used to narrow down the section in which the cuts exist in stages, the calculation processing takes time but is accurate (Proc (c) and Proc (d)). )) Is used to finally determine the cut. That is, it is possible to reduce the processing time and accurately detect the cut. The conventional method is Proc (c) or Pro for all frames.
Since time-consuming processing corresponding to c (d) is performed, the processing takes time.

【0035】[0035]

【発明の効果】本発明によれば、画面内符号化フレーム
の符号化データから得られる特徴量に基づいてカットの
存在する可能性のある区間を判断し、その区間に含まれ
る画面間符号化データから特徴量を算出し、カットの有
無を判定する。カットの存在する可能性のある区間を求
め、その区間内の画面間符号化データに対してだけ可変
長符号展開処理等の時間のかかる処理を行うようにした
ので、高速にカットを検出できる効果が得られる。加え
て、画面内符号化フレームから算出される特徴量を用い
たことにより、画面内符号化フレームと画面間符号化フ
レームが混在している場合でも正しくカットを検出でき
る効果が得られる。
According to the present invention, a section in which a cut may exist is determined based on a feature amount obtained from the coded data of an intra-coded frame, and the inter-frame coding included in the section is determined. The feature amount is calculated from the data and the presence or absence of the cut is determined. It is possible to detect the cut at high speed because the section in which the cut may exist is obtained and the time-consuming processing such as the variable length code expansion processing is performed only on the inter-screen coded data in the section. Is obtained. In addition, by using the feature amount calculated from the intra-frame coded frame, it is possible to obtain the effect of correctly detecting the cut even when the intra-frame coded frame and the inter-frame coded frame are mixed.

【0036】また、上記において、画面間符号化フレー
ムの特徴量とし、符号化データのデータ量を用いてさら
にカットの存在する可能性のある区間を絞り込むように
した場合には、特に、可変長符号展開などに伴う処理時
間を大幅に削減でき、より一層高速にカット点を検出で
きる効果が得られる。
In addition, in the above case, when the section in which there is a possibility of further cuts is narrowed down using the data amount of the encoded data as the feature amount of the inter-coded frame, the variable length is particularly long. The processing time associated with code expansion can be greatly reduced, and the cutting point can be detected even faster.

【0037】さらに、上記において、絞り込んだカット
の存在する可能性のある区間が画面間符号化フレームと
画面内符号化フレームを含むとき、これらの符号化フレ
ームにのみ復号化を行ってカット検出を行うようにした
場合には、特に、より一層カット検出が高速にできると
ともに、画面内符号化フレームと画面間符号化フレーム
が混在する場合のカット検出がより一層正確になる効果
が得られる。
Further, in the above description, when the section in which the narrowed cut may exist includes the inter-frame coded frame and the intra-frame coded frame, only those coded frames are decoded to detect the cut. When this is done, in particular, it is possible to further speed up the cut detection, and it is possible to obtain the effect that the cut detection becomes more accurate when the intra-frame coded frame and the inter-frame coded frame are mixed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態例の処理フロー図であっ
て、メインルーチンの処理フロー図である。
FIG. 1 is a process flow diagram of an embodiment of the present invention, which is a process flow diagram of a main routine.

【図2】本発明の一実施形態例の処理フロー図であっ
て、サブルーチンProc(b)の処理フロー図であ
る。
FIG. 2 is a process flow diagram of an embodiment of the present invention, which is a process flow diagram of a subroutine Proc (b).

【図3】本発明の一実施形態例の処理フロー図であっ
て、サブルーチンProc(c)の処理フロー図であ
る。
FIG. 3 is a process flow diagram of an embodiment of the present invention, which is a process flow diagram of a subroutine Proc (c).

【図4】本発明の一実施形態例の処理フロー図であっ
て、サブルーチンProc(d)の処理フロー図であ
る。
FIG. 4 is a process flow diagram of an embodiment of the present invention, which is a process flow diagram of a subroutine Proc (d).

【図5】実施形態例の計算量削減の効果を説明するため
の図である。
FIG. 5 is a diagram for explaining the effect of reducing the calculation amount according to the embodiment.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 新倉 康巨 東京都新宿区西新宿3丁目19番2号 日 本電信電話株式会社内 (56)参考文献 特開 平6−22304(JP,A) 特開 平7−236153(JP,A) 特開 平7−284017(JP,A) 特開 平9−322174(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 5/76 - 5/956 H04N 5/262 - 5/278 H04N 7/24 - 7/68 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yayoi Arakura 3-19-2 Nishishinjuku, Shinjuku-ku, Tokyo Nihon Telegraph and Telephone Corporation (56) Reference JP-A-6-22304 (JP, A) JP-A-7-236153 (JP, A) JP-A-7-284017 (JP, A) JP-A-9-322174 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) H04N 5/76-5/956 H04N 5/262-5/278 H04N 7/24-7/68

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 画面内の相関を利用して符号化された画
面内符号化フレームと画面間の相関を利用して符号化さ
れた画面間符号化フレームを含む符号化映像からカット
を検出する方法であって、 画面内符号化フレームの符号化データから得られる特徴
量に基づいてカットの存在する可能性のある区間Sを推
定する段階と、 前記区間Sに含まれる画面間符号化フレームに対してそ
の符号化データから得られる特徴量に基づいてカットの
有無を判定する段階と、 を有することを特徴とする符号化映像カット検出方法。
1. A cut is detected from a coded video including an intra-frame coded frame coded using intra-frame correlation and an inter-frame coded frame coded using inter-frame correlation. A method of estimating a section S in which a cut may exist based on a feature amount obtained from the coded data of the intra-frame coded frame; and an inter-frame coded frame included in the section S. On the other hand, a coded video cut detection method comprising: a step of determining the presence or absence of a cut based on a feature amount obtained from the encoded data.
【請求項2】 前記カットの有無を判定する段階は、 前記区間Sに含まれる画面間符号化フレームの符号化デ
ータ量を特徴量とし、該画面間符号化フレームの前後あ
るいはいずれか一方の画面間符号化フレームの特徴量と
比較することによってカットが存在する可能性のある区
間Sに含まれる区間S’を推定する過程と、 前記区間S’に含まれる画面間符号化フレームについて
符号化データから得られる特徴量に基づいてカットの有
無を判定する過程と、 を有することを特徴とする請求項1記載の符号化映像カ
ット検出方法。
2. The step of determining the presence or absence of the cut is characterized in that the amount of coded data of the inter-frame coded frame included in the section S is used as a feature amount, and before or after the inter-frame coded frame or one of the frames. A process of estimating a section S ′ included in a section S in which a cut may exist by comparing with a feature amount of the inter-coded frame; and coded data for the inter-coded frame included in the section S ′. The coded video cut detection method according to claim 1, further comprising: a step of determining the presence or absence of a cut based on the feature amount obtained from
【請求項3】 前記区間S’に含まれる画面間符号化フ
レームについて符号化データから得られる特徴量に基づ
いてカットの有無を判定する過程において、 前記区間S’に含まれる符号化フレームが画面間符号化
フレームと画面内符号化フレームである場合には該符号
化フレームを復号化して得られる特徴量に基づいてカッ
トの有無を判定する、 ことを特徴とする請求項2記載の符号化映像カット検出
方法。
3. In the process of determining the presence / absence of a cut on the inter-coded frames included in the section S ′ based on the feature amount obtained from the coded data, the coded frames included in the section S ′ are displayed on the screen. The coded video according to claim 2, wherein in the case of an inter-coded frame and an intra-frame coded frame, the presence / absence of a cut is determined based on a feature amount obtained by decoding the coded frame. Cut detection method.
JP13562696A 1996-04-30 1996-05-30 Encoded video cut detection method Expired - Lifetime JP3377678B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP13562696A JP3377678B2 (en) 1996-05-30 1996-05-30 Encoded video cut detection method
MYPI97001873A MY118360A (en) 1996-04-30 1997-04-29 Scheme for detecting shot boundaries in compressed video data using inter-frame/inter field prediction coding and intra-frame/intra-field coding
US08/841,200 US5911008A (en) 1996-04-30 1997-04-29 Scheme for detecting shot boundaries in compressed video data using inter-frame/inter-field prediction coding and intra-frame/intra-field coding
KR1019970016700A KR100274082B1 (en) 1996-04-30 1997-04-30 Inter frame/field prediction coding and shot boundary of compression video data using intra frame/field coding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13562696A JP3377678B2 (en) 1996-05-30 1996-05-30 Encoded video cut detection method

Publications (2)

Publication Number Publication Date
JPH09322119A JPH09322119A (en) 1997-12-12
JP3377678B2 true JP3377678B2 (en) 2003-02-17

Family

ID=15156210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13562696A Expired - Lifetime JP3377678B2 (en) 1996-04-30 1996-05-30 Encoded video cut detection method

Country Status (1)

Country Link
JP (1) JP3377678B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6032093B2 (en) * 2013-03-26 2016-11-24 富士通株式会社 Moving image data comparison method, moving image data comparison program, moving image data comparison device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3093499B2 (en) * 1992-03-06 2000-10-03 三菱電機株式会社 Scene change detection device
JP2971724B2 (en) * 1994-02-22 1999-11-08 ケイディディ株式会社 Video cut point detection device
JPH07284017A (en) * 1994-04-05 1995-10-27 Matsushita Electric Ind Co Ltd Cut detector
JPH09322174A (en) * 1996-05-30 1997-12-12 Hitachi Ltd Reproducing method for moving image data

Also Published As

Publication number Publication date
JPH09322119A (en) 1997-12-12

Similar Documents

Publication Publication Date Title
JP3738939B2 (en) Moving image cut point detection device
US7362804B2 (en) Graphical symbols for H.264 bitstream syntax elements
JP3363039B2 (en) Apparatus for detecting moving objects in moving images
JP4197958B2 (en) Subtitle detection in video signal
US6351493B1 (en) Coding an intra-frame upon detecting a scene change in a video sequence
US20040170326A1 (en) Image-processing method and image processor
JP2006510072A (en) Method and system for detecting uniform color segments
JP2001313956A (en) Hierarchical mixed type shot conversion detecting method in mpeg compression video environment
US5825429A (en) Apparatus and method for generating interpolated image data
US20030095602A1 (en) Unusual event detection using motion activity descriptors
JPH10257436A (en) Automatic hierarchical structuring method for moving image and browsing method using the same
US20030099290A1 (en) Method and system for detecting intra-coded pictures and for extracting intra DCT precision and macroblock-level coding parameters from uncompressed digital video
JP2971724B2 (en) Video cut point detection device
JP3377678B2 (en) Encoded video cut detection method
US8472529B2 (en) Estimating complexity of video frames for encoding
JPH0759108A (en) Cut pattern detection method for motion picture
JP2869398B2 (en) Cut point detection method and device
JP4350877B2 (en) Compressed video scene change detection device, compressed video scene change detection method, and recording medium recording the program
JP2004201010A (en) Image processing apparatus and method, image processing program and recording medium
JPH09322173A (en) Method and device for extracting time-varying image telop
JP3609236B2 (en) Video telop detection method and apparatus
JP3126961B2 (en) Video cut screen group detection device
JP3339544B2 (en) Dissolve detection method and device
JP3407872B2 (en) Method and apparatus for detecting additional information
JP3799842B2 (en) Static video detection method and apparatus

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071206

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081206

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091206

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101206

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101206

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111206

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111206

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121206

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121206

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131206

Year of fee payment: 11

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term