JP4895315B2 - Moving image cut point detection device - Google Patents

Moving image cut point detection device Download PDF

Info

Publication number
JP4895315B2
JP4895315B2 JP2009106305A JP2009106305A JP4895315B2 JP 4895315 B2 JP4895315 B2 JP 4895315B2 JP 2009106305 A JP2009106305 A JP 2009106305A JP 2009106305 A JP2009106305 A JP 2009106305A JP 4895315 B2 JP4895315 B2 JP 4895315B2
Authority
JP
Japan
Prior art keywords
cut point
moving image
arrangement information
color arrangement
point detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009106305A
Other languages
Japanese (ja)
Other versions
JP2009201132A (en
Inventor
勝 菅野
康之 中島
一則 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2009106305A priority Critical patent/JP4895315B2/en
Publication of JP2009201132A publication Critical patent/JP2009201132A/en
Application granted granted Critical
Publication of JP4895315B2 publication Critical patent/JP4895315B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、動画像のカット点検出装置に関し、特に、動画像におけるカット点を高精度に検出することができる動画像のカット点検出装置に関する。   The present invention relates to a moving image cut point detection device, and more particularly, to a moving image cut point detection device capable of detecting cut points in a moving image with high accuracy.

動画像データからカット点、すなわちショットの境界を検出するカット点検出についてはこれまで多くの技術が開発され、特にMPEGなどの動画像符号化により圧縮された動画像データを対象としたカット点検出技術も多く見られる。ここで、ショットとは、1つのカメラ操作で撮影された一連の画像列を意味する。   Many techniques have been developed for detecting cut points from moving image data, that is, cut point detection. In particular, cut points are detected for moving image data compressed by moving image encoding such as MPEG. There are many techniques. Here, a shot means a series of image sequences taken by one camera operation.

例えば、特許文献1には、映像における時系列のフレーム画像をサンプリングし、各フレーム画像単位でエッジ強度係数を求め、その時間的な変化特性を利用して映像変化点を検出する手法が開示されている。   For example, Patent Document 1 discloses a method of sampling a time-series frame image in a video, obtaining an edge intensity coefficient for each frame image unit, and detecting a video change point using its temporal change characteristics. ing.

特許文献2には、可変長復号と簡易動き補償から得られるDC画像において輝度差分、色差ヒストグラム相関、画面内アクティビティの一次微分係数などを用いて瞬時カット点や特殊カット点を検出する手法が開示されている。   Patent Document 2 discloses a method for detecting an instantaneous cut point or a special cut point in a DC image obtained from variable length decoding and simple motion compensation by using a luminance difference, a color difference histogram correlation, a first-order differential coefficient of in-screen activity, and the like. Has been.

また、特許文献3には、ディゾルブやフェードの候補区間を検出するために、カラーヒストグラムに基づいた色分布の差、マクロブロックの時空間の分布、動きベクトルの時空間上の分布、およびエッジの時空間上の分布と変化特性のいずれかを選択して利用する手法が開示されている。   Further, in Patent Document 3, in order to detect candidate sections for dissolve and fade, a difference in color distribution based on a color histogram, a temporal and spatial distribution of macroblocks, a temporal and spatial distribution of motion vectors, and an edge A method of selecting and using either a temporal and spatial distribution or a change characteristic is disclosed.

特開平7−288840号公報JP-A-7-288840 特開平10−224741号公報Japanese Patent Laid-Open No. 10-224741 特開2001−285712号公報JP 2001-285712 A

これまでMPEGなどの圧縮動画像データを対象とし、動画像データを復号せずに、動きベクトルやマクロブロックタイプなどの圧縮データ領域で得られるパラメータを用いたカット点検出技術が多く開発されているが、それらの技術では、ディゾルブやフェードの区間を示す特殊カット点さらには瞬時カット点を精度よく検出することが困難であるという課題がある。   Up to now, many cut point detection techniques have been developed that use compressed moving image data such as MPEG and use parameters obtained in a compressed data area such as a motion vector and macroblock type without decoding moving image data. However, those techniques have a problem that it is difficult to accurately detect a special cut point indicating a dissolve or fade section, and further an instantaneous cut point.

本発明の目的は、上記課題を解決し、ディゾルブやフェード区間を示す特殊カット点さらには瞬時カット点を精度よく検出することができる動画像のカット点検出装置を提供することにある。   An object of the present invention is to provide a moving image cut point detection apparatus capable of accurately detecting a special cut point indicating a dissolve or fade section and further an instantaneous cut point in order to solve the above-described problems.

上記課題を解決するため、本発明は、動画像データを入力する動画像データ入力手段と、前記動画像データから画面内の色配置情報を抽出する色配置情報抽出手段と、前記色配置情報抽出手段により抽出された色配置情報の変化を一定時間以上観測し、色配置情報の隣接フレームとの差分が凸状に変化する区間をディゾルブやフェード区間とし、該区間を示す特殊カット点を検出する特殊カット点検出手段を備えたことを特徴としている。 In order to solve the above problems, the present invention provides moving image data input means for inputting moving image data, color arrangement information extraction means for extracting color arrangement information in a screen from the moving image data, and the color arrangement information extraction. The change of the color arrangement information extracted by the means is observed for a certain time or more, and the section where the difference from the adjacent frame of the color arrangement information changes in a convex shape is defined as a dissolve or fade section, and a special cut point indicating the section is detected. A special cut point detecting means is provided.

また、本発明は、さらに、瞬時カット点検出手段を備え、前記瞬時カット点検出手段は、隣接フレーム間の色配置情報が所定閾値以上に変化する点をカット点として検出することを特徴としている。   In addition, the present invention further includes an instantaneous cut point detection unit, wherein the instantaneous cut point detection unit detects a point at which color arrangement information between adjacent frames changes to a predetermined threshold or more as a cut point. .

また、本発明は、前記色配置情報が、縮退画像を周波数領域に変換することにより得られる変換係数から構成されることを特徴としている。   In addition, the present invention is characterized in that the color arrangement information is composed of a conversion coefficient obtained by converting a degenerate image into a frequency domain.

また、本発明は、前記周波数領域への変換が、離散コサイン変換であることを特徴としている。   Further, the present invention is characterized in that the conversion to the frequency domain is a discrete cosine transform.

さらに、本発明は、前記動画像データが、圧縮符号化されたデータであり、前記色配置情報抽出手段は、前記動画像データのDC成分のみから色配置情報を抽出することを特徴としている。   Furthermore, the present invention is characterized in that the moving image data is compression-encoded data, and the color arrangement information extracting means extracts color arrangement information from only a DC component of the moving image data.

本発明では色配置情報の変化を一定時間以上観測し、色配置情報の隣接フレームとの差分の変化の性質からディゾルブやフェード区間を示す特殊カット点を検出するので、動画像中におけるディゾルブやフェード区間を示す特殊カット点を精度よく検出することができる。また、瞬時カット点も色配置情報の変化から検出することができる。ここで、色配置情報は、圧縮された動画像データを画素レベルまで復号することなく、動画像データのDC成分から高速に抽出できる。   In the present invention, a change in color arrangement information is observed for a certain time or more, and a special cut point indicating a dissolve or fade section is detected from the nature of the difference between the color arrangement information and an adjacent frame. A special cut point indicating a section can be detected with high accuracy. Also, the instantaneous cut point can be detected from the change in the color arrangement information. Here, the color arrangement information can be extracted from the DC component of the moving image data at high speed without decoding the compressed moving image data to the pixel level.

エッジ特徴を用いたカット点検出処理を示す機能ブロック図である。It is a functional block diagram showing cut point detection processing using an edge feature. 図1の特殊カット点検出処理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the special cut point detection process part of FIG. 本発明におけるカット点検出処理を示す機能ブロック図である。It is a functional block diagram which shows the cut point detection process in this invention. エッジ特徴と色配置情報を併用したカット点検出処理を示す機能ブロック図である。It is a functional block diagram showing cut point detection processing using both edge features and color arrangement information. 図4の特殊カット点検出処理部15の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the special cut point detection process part 15 of FIG. フィールド間瞬時カット点検出処理を示す機能ブロック図である。It is a functional block diagram which shows the instantaneous cut point detection process between fields. 図6でのフィールド間瞬時カット点検出動作の例を示すフローチャートである。7 is a flowchart illustrating an example of an inter-field instantaneous cut point detection operation in FIG. 6. 図6でのフィールド間瞬時カット点検出動作をの他の例を示すフローチャートである。7 is a flowchart showing another example of the inter-field instantaneous cut point detection operation in FIG. 6. フラッシュ区間検出処理を示す機能ブロック図である。It is a functional block diagram which shows a flash area detection process. フラッシュ除去処理部の動作(終了判定)の説明図である。It is explanatory drawing of operation | movement (end determination) of a flash removal process part. フラッシュ除去処理部の動作(継続判定)の説明図である。It is explanatory drawing of operation | movement (continuation determination) of a flash removal process part. 図9での瞬時カット点検出およびフラッシュ区間検出動作を示すフローチャートである。FIG. 10 is a flowchart showing an instantaneous cut point detection and flash section detection operation in FIG. 9. FIG. 図1〜図12を全て組み合わせたカット点検出処理を示す機能ブロック図である。It is a functional block diagram which shows the cut point detection process which combined FIG.

以下、図面を参照して本発明を詳細に説明する。図1は、エッジ特徴を用いたカット点検出処理を示す機能ブロック図である。なお、以下では、MPEGで圧縮された動画像データを前提に説明するが、本発明は、これに限られず、同様な圧縮方式による動画像データに対しても適用できる。   Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing cut point detection processing using edge features. In the following, description will be made on the premise of moving image data compressed by MPEG, but the present invention is not limited to this, and can also be applied to moving image data by a similar compression method.

まず、MPEG動画像データ(以下、単に動画像データと記す。)が動画像データ入力部10に入力される。動画像データ入力部10は、可変長復号部11および簡易動き補償部12を備え、入力された動画像データの可変長復号と簡易動き補償により動画像データのDC成分を出力する。   First, MPEG moving image data (hereinafter simply referred to as moving image data) is input to the moving image data input unit 10. The moving image data input unit 10 includes a variable length decoding unit 11 and a simple motion compensation unit 12, and outputs a DC component of moving image data by variable length decoding and simple motion compensation of the input moving image data.

動画像データのDC成分から構成される画像は、原画像の水平および垂直方向それぞれの1/8に相当し、画素レベルまで復号することなく得ることができる。このDC成分を処理対象とすることにより処理の負担軽減および高速化を図ることができる。なお、動画像データの可変長復号と簡易動き補償については特許文献2や特開平10−79957号に記載されており、ここではその技術を利用できるので説明を省略する。   An image composed of DC components of moving image data corresponds to 1/8 of the original image in the horizontal and vertical directions, and can be obtained without decoding up to the pixel level. By using this DC component as a processing target, the processing load can be reduced and the processing speed can be increased. Note that variable-length decoding of moving image data and simple motion compensation are described in Patent Document 2 and Japanese Patent Application Laid-Open No. 10-79957, and the description thereof is omitted here because the technique can be used.

輝度・色差特徴抽出部13は、動画像データのDC成分を元に、フレーム間の輝度差分D、色差ヒストグラム相関ρ、画面内アクティビティFAとその一次微分係数DA、正規化動き補償予測誤差NPEなどを求める。   The luminance / color difference feature extraction unit 13 based on the DC component of the moving image data, the luminance difference D between frames, the color difference histogram correlation ρ, the in-screen activity FA and its first derivative DA, the normalized motion compensation prediction error NPE, etc. Ask for.

エッジ特徴抽出部14は、動画像データのDC成分から画面内のエッジ特徴を抽出する。瞬時カット点検出処理部15は、瞬時カット点を検出するものである。この瞬時カット点の検出は、輝度・色差特徴抽出部13で抽出された各種情報やエッジ特徴抽出部14で抽出されたエッジ特徴の隣接フレーム間での変化などを元に行うことができる。   The edge feature extraction unit 14 extracts an edge feature in the screen from the DC component of the moving image data. The instantaneous cut point detection processing unit 15 detects an instantaneous cut point. This instantaneous cut point can be detected based on various types of information extracted by the luminance / color difference feature extraction unit 13, changes in edge features extracted by the edge feature extraction unit 14 between adjacent frames, and the like.

特殊カット点検出処理部16は、エッジ特徴抽出部14で抽出されたエッジ特徴の時間的変化を用いてディゾルブやフェードを含む特殊カット点を検出する。ここでの特殊カット点の検出は、ディゾルブやフェード区間においては画面内のエッジ成分が弱くなるという性質を利用している。   The special cut point detection processing unit 16 detects a special cut point including a dissolve and a fade by using the temporal change of the edge feature extracted by the edge feature extraction unit 14. The detection of the special cut point here uses the property that the edge component in the screen becomes weak in the dissolve and fade sections.

エッジ特徴抽出部14で抽出するエッジ特徴としては、画面内に分布するエッジパワーEP、画面内に分布するエッジヒストグラム、入力画面とそれよりも時間的に前に位置する画面のエッジヒストグラム相関εなどがあり、それらのいずれかでよい。   The edge features extracted by the edge feature extraction unit 14 include an edge power EP distributed in the screen, an edge histogram distributed in the screen, an edge histogram correlation ε between the input screen and a screen positioned before it in time, etc. There is one of them.

エッジ特徴としてのエッジヒストグラムは、画面全体に対し任意の数方向のフィルタをかけることにより算出することができる。また、画面を複数の小領域に分割し、各分割領域対し任意の数方向のフィルタをかけることにより各分割領域ごとのエッジヒストグラムを算出することもできる。つまり、エッジヒストグラムを算出する単位領域は、画面全体でも画面全体を任意数で分割した分割領域のいずれでもよい。さらに、分割する小領域の大きさは、任意に設定可能にしてもよく、画面内の位置や特性に応じて動的に変更するようにしてもよい。   An edge histogram as an edge feature can be calculated by applying filters in any number of directions to the entire screen. Further, the edge histogram for each divided region can be calculated by dividing the screen into a plurality of small regions and applying filters in an arbitrary number of directions to each divided region. That is, the unit region for calculating the edge histogram may be the entire screen or a divided region obtained by dividing the entire screen by an arbitrary number. Furthermore, the size of the small area to be divided may be arbitrarily set or may be dynamically changed according to the position and characteristics in the screen.

具体的には、MPEG−7で定義されているエッジヒストグラム記述子などを利用することができ、画面全体を4×4の領域に分割し、各分割領域に対し5方向のフィルタをかけることによりエッジヒストグラムを得ることができる。   Specifically, the edge histogram descriptor defined in MPEG-7 can be used, and the entire screen is divided into 4 × 4 areas, and each divided area is filtered in five directions. An edge histogram can be obtained.

瞬時カット点検出処理部15および特殊カット点検出処理部16からは、瞬時カット点および特殊カット点の情報が時間コードで出力され、キーフレーム生成部17は、該時間コードを元に各ショットからキーフレームを生成する。このキーフレーム生成部17としては、特開2001−258038号公報に記載されている技術を利用できる。キーフレーム表示部18は、キーフレーム生成部17で生成されたキーフレームを表示する。この表示により、ユーザはショット一覧を閲覧することができる。   The instantaneous cut point detection processing unit 15 and the special cut point detection processing unit 16 output information on the instantaneous cut point and the special cut point as a time code, and the key frame generation unit 17 starts from each shot based on the time code. Generate keyframes. As the key frame generation unit 17, a technique described in Japanese Patent Laid-Open No. 2001-258038 can be used. The key frame display unit 18 displays the key frame generated by the key frame generation unit 17. This display allows the user to browse the shot list.

図2は、図1の特殊カット点検出処理部16の動作を示すフローチャートである。同図において、まず、初期化処理によりi=0とし(S21)、フレームn+iの動画像データを入力する(S22)。次に、iを1ずつ順次インクリメント(S25)して連続するフレームを順次入力しつつ、各フレーム入力時において、画面内アクティビティFAの一次微分係数DAがある閾値TH_DA以上であり、一次微分係数DAが時間的に凸型になっており、かつ正規化動き補償予測誤差NPEがある閾値TH_NPE以上であり、エッジパワーEPが凹型であるか否かを判定する(S23)。   FIG. 2 is a flowchart showing the operation of the special cut point detection processing unit 16 of FIG. In the figure, first, i = 0 is set by initialization processing (S21), and moving image data of frame n + i is input (S22). Next, i is sequentially incremented by 1 (S25), and successive frames are sequentially input. At each frame input, the primary differential coefficient DA of the in-screen activity FA is equal to or greater than a threshold TH_DA, and the primary differential coefficient DA. Is convex in time, and the normalized motion compensation prediction error NPE is greater than or equal to a certain threshold TH_NPE, and it is determined whether or not the edge power EP is concave (S23).

S23での判定結果が肯定(Y)の場合は当該フレームn+iをディゾルブ候補とする(S24)。また、S23での判定結果が否定(N)の場合にはiの値がある閾値N_dis1以上か否かを判定する(S26)。S26は、所定フレーム区間以上に渡りS23の条件が満たされた場合に当該区間をディゾルブ区間と判定するために設けたものであり、これにより誤検出を防止できる。   If the determination result in S23 is affirmative (Y), the frame n + i is set as a dissolve candidate (S24). If the determination result in S23 is negative (N), it is determined whether or not the value of i is greater than or equal to a certain threshold N_dis1 (S26). S26 is provided to determine that the section is a dissolve section when the condition of S23 is satisfied over a predetermined frame section, thereby preventing erroneous detection.

iの値がN_dis1未満の場合にはディゾルブと判定することなく処理を終了し、iの値がN_dis1以上の場合にはフレームnからフレームn+i−1までの区間をディゾルブ区間と判定する(S27)。   If the value of i is less than N_dis1, the process is terminated without determining that it is a dissolve. If the value of i is N_dis1 or more, the section from frame n to frame n + i−1 is determined as a dissolve section (S27). .

図3は、本発明におけるカット点検出処理を示す機能ブロック図である。本発明では、色配置情報を用いることによって特殊カット点を検出し、これにより高精度の検出を可能にする。図3おいて、図1と同一または同等部分には同じ符号を付している。   FIG. 3 is a functional block diagram showing cut point detection processing in the present invention. In the present invention, the special cut point is detected by using the color arrangement information, thereby enabling highly accurate detection. In FIG. 3, the same or equivalent parts as in FIG.

まず、図1と同様に、動画像データを動画像データ入力部10に入力し、動画像データのDC成分を出力する。輝度・色差特徴抽出部13は、動画像データのDC成分を元に、フレーム間の輝度差分D、色差ヒストグラム相関ρ、画面内アクティビティFAとその一次微分係数DA、正規化動き補償予測誤差NPEなどを求める。   First, as in FIG. 1, moving image data is input to the moving image data input unit 10 and a DC component of the moving image data is output. The luminance / color difference feature extraction unit 13 based on the DC component of the moving image data, the luminance difference D between frames, the color difference histogram correlation ρ, the in-screen activity FA and its first derivative DA, the normalized motion compensation prediction error NPE, etc. Ask for.

色配置情報抽出部31は、動画像データのDC成分から画面内の色配置情報を抽出する。瞬時カット点検出処理部32は、色配置情報抽出部31で抽出された色配置情報の時間的変化を用いて瞬時カット点を検出する。特殊カット点検出処理部15は、色配置情報抽出部31で抽出された色配置情報の時間的変化を一定時間以上観測することにより特殊カット点を検出する。   The color arrangement information extraction unit 31 extracts color arrangement information in the screen from the DC component of the moving image data. The instantaneous cut point detection processing unit 32 detects an instantaneous cut point using a temporal change in the color arrangement information extracted by the color arrangement information extraction unit 31. The special cut point detection processing unit 15 detects a special cut point by observing a temporal change in the color arrangement information extracted by the color arrangement information extraction unit 31 for a predetermined time or more.

ここでの瞬時カット点の検出は、カット点では隣接フレーム間の色配置情報が大きく変化する性質を利用する。また、特殊カット点の検出は、特殊カット点の場合には色配置情報の隣接フレームとの差分が凸状に変化するという性質を利用する。瞬時カット点検出処理部15および特殊カット点検出処理部16では、輝度・色差特徴抽出部13で抽出された各種情報を併用して瞬時カット点および特殊カット点を検出してもよい。   The detection of the instantaneous cut point here uses the property that the color arrangement information between adjacent frames changes greatly at the cut point. Further, the detection of the special cut point uses the property that the difference between the color arrangement information and the adjacent frame changes to a convex shape in the case of the special cut point. The instantaneous cut point detection processing unit 15 and the special cut point detection processing unit 16 may detect the instantaneous cut point and the special cut point by using various information extracted by the luminance / color difference feature extraction unit 13 together.

色配置情報としては、MPEG−7で定義されているカラーレイアウト記述子などを用いることができる。カラーレイアウト記述子では、原画像を8×8に縮小し、縮小された画像を離散コサイン変換によって周波数領域へ変換し、その変換係数の集合を色配置情報として用いることができる。このように、原画像ではなく、動画像データのDC成分をさらに縮小してカラーレイアウト記述子を抽出することにより、MPEGなどの圧縮動画像データの復号処理を省くことができる。   As the color arrangement information, a color layout descriptor defined in MPEG-7 can be used. In the color layout descriptor, the original image is reduced to 8 × 8, the reduced image is converted into the frequency domain by discrete cosine transformation, and a set of the conversion coefficients can be used as color arrangement information. As described above, by extracting the color layout descriptor by further reducing the DC component of the moving image data instead of the original image, the decoding processing of the compressed moving image data such as MPEG can be omitted.

図4は、エッジ特徴と色配置情報を併用したカット点検出処理を示す機能ブロック図である。そのためにエッジ特徴抽出部14と色配置情報抽出部31の両方を備える。   FIG. 4 is a functional block diagram showing cut point detection processing using both edge features and color arrangement information. For this purpose, both the edge feature extraction unit 14 and the color arrangement information extraction unit 31 are provided.

図5は、図4の特殊カット点検出処理部15の動作を示すフローチャートである。本フローチャートは、図2とはS23に代えてS51を用いている点で異なる。S51では、iを1ずつ順次インクリメント(S25)して連続するフレームを順次入力しつつ、それらのフレームにおいて、エッジパワーEPがある閾値TH_EP以下であり、正規化動き補償誤差NPEまたは色配置情報の直前のフレームとの差分CLがある閾値TH_NPEまたはTH_CL以上であり、画面内アクティビティFAの一次微分係数DAがある閾値TH_DA以下であり、かつエッジヒストグラム相関εがある閾値TH_ε以上であるか否かを判定する。その他は図2と同様であるので説明は省略する。   FIG. 5 is a flowchart showing the operation of the special cut point detection processing unit 15 of FIG. This flowchart differs from FIG. 2 in that S51 is used instead of S23. In S51, i is sequentially incremented by 1 (S25), and successive frames are sequentially input. In these frames, the edge power EP is below a certain threshold TH_EP, and the normalized motion compensation error NPE or color arrangement information Whether or not the difference CL with the immediately preceding frame is greater than or equal to a threshold TH_NPE or TH_CL, the first derivative DA of the intra-screen activity FA is less than or equal to a threshold TH_DA, and whether or not the edge histogram correlation ε is greater than or equal to a threshold TH_ε. judge. Others are the same as in FIG.

次に、フィールド間瞬時カット点検出について説明する。テレビ映像は1/60秒ごとに表示されるフィールド構造を持っているため、これをプログレッシブ構造で符号化した場合には、フィールド間で瞬時カット点が発生する場合がある。MPEG−2などはフィールド構造に対応した符号化アルゴリズムを有するが、MPEG−1などではフレーム構造(プログレッシブ)にしか対応していない。フィールド間瞬時カット点は,通常の瞬時カット点検出手段では検出することができない場合が多いため、これに特化した検出手段が必要となる。第4実施形態は、エッジヒストグラム相関εなどのエッジ特徴を用いてプログレッシブ動画像におけるフィールド間瞬時カット点を検出可能にしたものである。   Next, inter-field instantaneous cut point detection will be described. Since a television image has a field structure that is displayed every 1/60 seconds, if this is encoded with a progressive structure, instantaneous cut points may occur between the fields. MPEG-2 or the like has an encoding algorithm corresponding to the field structure, but MPEG-1 or the like only supports a frame structure (progressive). Inter-field instantaneous cut points cannot be detected by ordinary instantaneous cut point detection means in many cases, so that specialized detection means are required. In the fourth embodiment, an instantaneous cut point between fields in a progressive moving image can be detected using edge features such as an edge histogram correlation ε.

図6は、フィールド間瞬時カット点検出処理を示す機能ブロック図である。ここでは、瞬時カット点検出処理部15で以下の図7または図8に従うようにしてフィールド間瞬時カット点を検出するようにしている。   FIG. 6 is a functional block diagram showing the inter-field instantaneous cut point detection process. Here, the instantaneous cut point detection processing unit 15 detects an inter-field instantaneous cut point in accordance with the following FIG. 7 or FIG.

図7は、図6でのフィールド間瞬時カット点検出動作の例を示すフローチャートである。まず、初期化処理によりi=0とし(S21)、フレームnの動画像データを入力する(S22)。S71では、隣接するフレームにおいて、輝度差分Dがある閾値TH_D2以上であり、かつエッジヒストグラム相関εがある閾値TH_ε以下であるか否かを判定する。   FIG. 7 is a flowchart showing an example of the inter-field instantaneous cut point detection operation in FIG. First, i = 0 is set by the initialization process (S21), and moving image data of frame n is input (S22). In S71, it is determined whether or not the luminance difference D is equal to or greater than a threshold TH_D2 and the edge histogram correlation ε is equal to or less than a threshold TH_ε in adjacent frames.

この判定結果が否定(N)であればそのまま処理を終了し 肯定(Y)であれば、iを1だけインクリメントした後(S72)、i=2であるか否かを判定する(S73)。ここでi=2でなければnを1だけインクリメント(S74)してS22に戻り、i=2であればフレームnにフィールド間瞬時カット点があると判定する(S75)。以上の動作によりS71での条件を満足するフレームが2フレーム連続して出現した場合にフィールド間瞬時カット点が検出される。   If this determination result is negative (N), the process ends as it is. If the determination is affirmative (Y), i is incremented by 1 (S72), and then it is determined whether i = 2 (S73). If i = 2 is not satisfied, n is incremented by 1 (S74), and the process returns to S22. If i = 2, it is determined that there is an inter-field instantaneous cut point in frame n (S75). The inter-field instantaneous cut point is detected when two frames that satisfy the condition in S71 appear in succession by the above operation.

図8は、図6でのフィールド間瞬時カット点検出動作の他の例を示すフローチャートである。まず、3つの連続するフレームn−2、n−1、nの動画像を入力し(S81)、これらのフレームを処理対象とする。次に、S82で、現在注目しているフレームnと時間的に2フレーム前のフレームn−2との間の色差ヒストグラム相関ρがある閾値TH_ρ2以下であり、かつフレームnと直前のフレームn−1との輝度差分Dがある閾値TH_D以上であるか否かを判定する(S82)。この判定結果が肯定(Y)の場合、フレームnにフィールド間瞬時カット点があると判定し(S83)、否定の場合にはそのまま処理を終了する。   FIG. 8 is a flowchart showing another example of the inter-field instantaneous cut point detection operation in FIG. First, moving images of three consecutive frames n-2, n-1, and n are input (S81), and these frames are processed. Next, in S82, the color difference histogram correlation ρ between the currently focused frame n and the frame n-2 two frames before is less than a certain threshold TH_ρ2, and the frame n and the immediately preceding frame n−. It is determined whether or not the luminance difference D from 1 is greater than or equal to a threshold TH_D (S82). If the determination result is affirmative (Y), it is determined that there is an inter-field instantaneous cut point in frame n (S83), and if the determination is negative, the process ends.

次に、フラッシュ区間検出について説明する。フラッシュ区間検出では、連続するフレームの検出された輝度差分D、色差ヒストグラム相関ρ、およびエッジ特徴を利用してフラッシュが発光された複数フレームに渡るフラッシュ区間を検出する。   Next, flash section detection will be described. In the flash section detection, a flash section over a plurality of frames where the flash is emitted is detected using the detected luminance difference D, color difference histogram correlation ρ, and edge feature of successive frames.

動画像データに含まれるフラッシュを検出する手段は特許文献2などに開示されているが、特許文献2では色差ヒストグラム相関のみを用いているため、画像全体が白っぽくなる場合や特に複数フレームに渡って連続して出現するフラッシュの検出が困難である。   Means for detecting a flash included in moving image data is disclosed in Patent Document 2 and the like. However, in Patent Document 2, since only the color difference histogram correlation is used, the entire image becomes whitish or particularly over a plurality of frames. It is difficult to detect flashes that appear continuously.

図9は、フラッシュ区間検出処理を示す機能ブロック図である。ここでは、複数フレームに渡って連続して出現するフラッシュ区間を検出し、該フラッシュ区間を除去するフラッシュ除去処理部91を備え、特殊カット点検出処理部16では該フラッシュ区間が除去されたデータを処理対象として特殊カット点を検出する。   FIG. 9 is a functional block diagram showing flash section detection processing. Here, the flash section that continuously appears over a plurality of frames is detected, and a flash removal processing section 91 that removes the flash section is provided. The special cut point detection processing section 16 stores the data from which the flash section has been removed. A special cut point is detected as a processing target.

図10および図11は、フラッシュ除去処理部91の動作の説明図である。複数フレームに渡るフラッシュ区間は以下のようにして検出される。ここでは、フレームn−1〜n+5が順次入力され、フレームn〜n+4のフレームに渡りフラッシュが発光された場合を想定する。   10 and 11 are explanatory diagrams of the operation of the flash removal processing unit 91. FIG. A flash interval over a plurality of frames is detected as follows. Here, it is assumed that frames n−1 to n + 5 are sequentially input and the flash is emitted over frames n to n + 4.

図10は、複数フレームに渡るフラッシュ区間の終了判定の説明図である。フレームnは、輝度差分Dと色差ヒストグラム相関ρがピークとなることにより瞬時カット点検出処理部15で検出され、フラッシュ区間開始候補となる。フラッシュ除去処理部91は、このフレームnに対して、フレームn+3以降においてフレームn−1との間のエッジヒストグラム相関εおよび色差ヒストグラム相関ρを観測する。   FIG. 10 is an explanatory diagram of determination of the end of the flash section over a plurality of frames. The frame n is detected by the instantaneous cut point detection processing unit 15 when the luminance difference D and the color difference histogram correlation ρ reach a peak, and becomes a flash section start candidate. The flash removal processing unit 91 observes the edge histogram correlation ε and the color difference histogram correlation ρ between the frame n + 3 and the frame n−1 after this frame n.

エッジヒストグラム相関εおよび色差ヒストグラム相関ρは、フレームn+5においてある閾値以上になる。フラッシュ除去処理部91は、フレームn〜n+4までをフラッシュ区間と判定する。一般的には、フレームn+F(F=3,4,5,・・・)においてエッジヒストグラム相関εおよび色差ヒストグラム相関ρがいずれもある閾値以上になる場合、フレームn〜n+F−1までの区間をフラッシュ区間と判定する。   The edge histogram correlation ε and the color difference histogram correlation ρ are equal to or greater than a certain threshold in the frame n + 5. The flash removal processing unit 91 determines that frames n to n + 4 are flash sections. Generally, in the frame n + F (F = 3, 4, 5,...), When both the edge histogram correlation ε and the chrominance histogram correlation ρ are equal to or greater than a certain threshold, the section from the frame n to n + F−1 is determined. Judge as a flash interval.

図11は、複数フレームに渡るフラッシュ区間の継続判定の説明図である。フレームnをフラッシュ区間開始候補とし、フレームn+3以降においてフレームn−1とのエッジヒストグラム相関εと色差ヒストグラム相関ρを計算する。次に、これらの値のいずれかがそれぞれある閾値以下の場合、当該フレームとその前のフレームとの間およびさらに前のフレームとの間での色差ヒストグラム相関ρを計算する。そして、この色差ヒストグラム相関ρの値が共にある閾値以上の場合には継続するフラッシュ区間と見なし、この値のいずれかがある閾値未満になった場合には当該フレームをフラッシュ区間終了直後のフレームとする。   FIG. 11 is an explanatory diagram of determination of continuation of the flash section over a plurality of frames. Using frame n as a flash section start candidate, edge histogram correlation ε and color difference histogram correlation ρ with frame n−1 are calculated after frame n + 3. Next, when any one of these values is equal to or less than a certain threshold value, the color difference histogram correlation ρ between the current frame and the previous frame and the previous frame is calculated. If both of the values of the color difference histogram correlation ρ are equal to or greater than a certain threshold value, the flash section is regarded as a continuous flash section. If any of these values falls below a certain threshold value, the frame is regarded as a frame immediately after the end of the flash section. To do.

一般的には、フレームnをフラッシュ区間開始候補とし、フレームn−1とフレームn+C(C=1,2,3,・・・)においてエッジヒストグラム相関εと色差ヒストグラム相関ρを計算する。これらの値のいずれかがそれぞれある閾値以下の場合は、フレームn+Cとフレームn+C−1との間およびフレームn+Cとn+C−2との間で色差ヒストグラム相関ρを計算する。そして、この色差ヒストグラム相関ρの値が共にある閾値以上の場合は継続するフラッシュ区間と見なし、この値がある閾値未満になった場合にはフラッシュ区間継続終了とする。これを指定されたフレームFmaxの区間で行う。   In general, frame n is set as a flash section start candidate, and edge histogram correlation ε and color difference histogram correlation ρ are calculated in frame n−1 and frame n + C (C = 1, 2, 3,...). If any of these values is below a certain threshold value, the color difference histogram correlation ρ is calculated between frame n + C and frame n + C−1 and between frames n + C and n + C−2. If both the values of the color difference histogram correlation ρ are equal to or greater than a certain threshold value, the flash section is regarded as a continuous flash section. If this value falls below a certain threshold value, the flash section continuation is terminated. This is performed in the specified frame Fmax.

図12図は、図9での瞬時カット点検出およびフラッシュ区間検出動作を示すフローチャートである。まず、n=2、C=3とし(S121)、フレームn−1およびフレームnの動画像データを入力する(S122)。つぎに、フレームnにおいて輝度差分Dと色差ヒストグラム相関ρがピークとなるか否かを判定する(S123)。   FIG. 12 is a flowchart showing the instantaneous cut point detection and flash section detection operations in FIG. First, n = 2 and C = 3 (S121), and moving image data of frame n-1 and frame n is input (S122). Next, it is determined whether or not the luminance difference D and the color difference histogram correlation ρ peak in the frame n (S123).

S123での判定結果が否定(N)であればnを1つずつインクリメント(S124)してS122に戻り、肯定(Y)であればフレームnをフラッシュ区間開始候補とする(S125)。以上は、瞬時カット点検出処理部15での処理である。   If the determination result in S123 is negative (N), n is incremented by 1 (S124) and the process returns to S122. If affirmative (Y), frame n is set as a flash section start candidate (S125). The above is the processing in the instantaneous cut point detection processing unit 15.

次に、フラッシュ区間の継続判定を行う。まず、フレームn+Cを入力する(S126)。次に、S127で、フレームn−1とフレームn+Cにおいてエッジヒストグラム相関εと色差ヒストグラム相関ρを計算し、これらの値が共にある閾値以上TH_ε2、TH_ρ3以上か否かを判定する(S127)。   Next, the continuation determination of the flash section is performed. First, the frame n + C is input (S126). Next, in S127, edge histogram correlation ε and color difference histogram correlation ρ are calculated in frame n-1 and frame n + C, and it is determined whether or not these values are both greater than a certain threshold TH_ε2, TH_ρ3 (S127).

S127での判定結果が否定(N)の場合にはさらに、フレームn+C−1とフレームn+Cとの間およびフレームn+C−2とフレームn+Cとの間で色差ヒストグラム相関ρを計算し、これらの値が共にある閾値以上TH_ρ4以上か否かを判定する(S128)。   If the determination result in S127 is negative (N), the color difference histogram correlation ρ is further calculated between the frame n + C-1 and the frame n + C and between the frame n + C-2 and the frame n + C. It is determined whether or not both are above a certain threshold value and TH_ρ4 or more (S128).

そして、この判定結果が肯定(Y)の場合は継続するフラッシュ区間と見なしてnを1だけインクリメント(S129)してS126に戻る。また、この判定結果が否定(N)の場合、およびS127での判定結果が肯定(Y)の場合には、フレームn〜フレームn+C−1を連続フラッシュ区間と判定する(S130)。   If the determination result is affirmative (Y), it is regarded as a continuous flash period, and n is incremented by 1 (S129), and the process returns to S126. If the determination result is negative (N), and if the determination result in S127 is affirmative (Y), frames n to n + C-1 are determined to be continuous flash sections (S130).

図13は、図1〜図12を全て組み合わせたカット点検出処理を示す機能ブロック図である。各処理部の動作は、上記と同様であるので説明を省略する。このように、図3のカット点検出処理に1つ以上の他のカット点検出処理を適宜組合せてカット点を検出することができる。   FIG. 13 is a functional block diagram illustrating cut point detection processing in which all of FIGS. 1 to 12 are combined. Since the operation of each processing unit is the same as described above, description thereof is omitted. Thus, the cut point can be detected by appropriately combining one or more other cut point detection processes with the cut point detection process of FIG.

本発明によれば、MPEGなどで圧縮された動画像データにおいて、検索や編集を効果的に行うことを可能にするためのカット点検出を精度よく達成できる。例えば、数時間分の米国のニュース映像を対象とした実験において特許文献2で開示されている手段と比較した場合、本発明に係るカット点検出装置を用いることにより平均で10%以上、最大で20%程度までの再現率向上をみた。   According to the present invention, cut point detection for enabling effective search and editing in moving image data compressed by MPEG or the like can be achieved with high accuracy. For example, when compared with the means disclosed in Patent Document 2 in an experiment for several hours of US news video, an average of 10% or more is obtained by using the cut point detection device according to the present invention. The improvement in recall was seen up to about 20%.

10・・・動画像データ入力部、11・・・可変長復号部、12・・・簡易動き補償部、13・・・輝度・色差特徴抽出部、14・・・エッジ特徴抽出部、15・・・瞬時カット点検出処理部、16・・・特殊カット点検出処理部、17・・・キーフレーム生成部、18・・・キーフレーム表示部、31・・・色配置情報抽出部、91・・・フラッシュ除去処理部   DESCRIPTION OF SYMBOLS 10 ... Moving image data input part, 11 ... Variable length decoding part, 12 ... Simple motion compensation part, 13 ... Luminance / color difference feature extraction part, 14 ... Edge feature extraction part, 15 · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ··· ..Flash removal processing section

Claims (5)

動画像データを入力する動画像データ入力手段と、
前記動画像データから画面内の色配置情報を抽出する色配置情報抽出手段と、
前記色配置情報抽出手段により抽出された色配置情報の変化を一定時間以上観測し、色配置情報の隣接フレームとの差分が凸状に変化する区間をディゾルブやフェード区間とし、該区間を示す特殊カット点を検出する特殊カット点検出手段を備えたことを特徴とする動画像のカット点検出装置。
Moving image data input means for inputting moving image data;
Color arrangement information extracting means for extracting color arrangement information in the screen from the moving image data;
A change in the color arrangement information extracted by the color arrangement information extraction means is observed for a certain time or more, and a section where the difference from the adjacent frame of the color arrangement information changes in a convex shape is defined as a dissolve or fade section, and a special section indicating the section A moving image cut point detecting device comprising a special cut point detecting means for detecting a cut point.
さらに、瞬時カット点検出手段を備え、
前記瞬時カット点検出手段は、隣接フレーム間の色配置情報が所定閾値以上に変化する点を瞬時カット点として検出することを特徴とする請求項1に記載の動画像のカット点検出装置。
Furthermore, an instantaneous cut point detection means is provided,
2. The moving image cut point detection apparatus according to claim 1, wherein the instantaneous cut point detection unit detects a point at which color arrangement information between adjacent frames changes to a predetermined threshold value or more as an instantaneous cut point.
前記色配置情報は、縮退画像を周波数領域に変換することにより得られる変換係数から構成されることを特徴とする請求項1または2に記載の動画像のカット点検出装置。   3. The moving image cut point detection device according to claim 1, wherein the color arrangement information includes a conversion coefficient obtained by converting a reduced image into a frequency domain. 4. 前記周波数領域への変換は、離散コサイン変換であることを特徴とする請求項3に記載の動画像のカット点検出装置。   4. The moving image cut point detection apparatus according to claim 3, wherein the transformation into the frequency domain is a discrete cosine transformation. 前記動画像データは、圧縮符号化されたデータであり、前記色配置情報抽出手段は、前記動画像データのDC成分のみから色配置情報を抽出することを特徴とする請求項1ないし4のいずれかに記載の動画像のカット点検出装置。   5. The moving image data according to claim 1, wherein the moving image data is compression-coded data, and the color arrangement information extracting unit extracts color arrangement information from only a DC component of the moving image data. The moving image cut point detection device according to claim 1.
JP2009106305A 2009-04-24 2009-04-24 Moving image cut point detection device Expired - Fee Related JP4895315B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009106305A JP4895315B2 (en) 2009-04-24 2009-04-24 Moving image cut point detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009106305A JP4895315B2 (en) 2009-04-24 2009-04-24 Moving image cut point detection device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004329057A Division JP4450317B2 (en) 2004-11-12 2004-11-12 Moving image cut point detection device

Publications (2)

Publication Number Publication Date
JP2009201132A JP2009201132A (en) 2009-09-03
JP4895315B2 true JP4895315B2 (en) 2012-03-14

Family

ID=41144078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009106305A Expired - Fee Related JP4895315B2 (en) 2009-04-24 2009-04-24 Moving image cut point detection device

Country Status (1)

Country Link
JP (1) JP4895315B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8451384B2 (en) * 2010-07-08 2013-05-28 Spinella Ip Holdings, Inc. System and method for shot change detection in a video sequence
US10897593B2 (en) 2016-08-30 2021-01-19 International Business Machines Corporation Multiple tape video data splitter

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3496559B2 (en) * 1999-01-06 2004-02-16 日本電気株式会社 Image feature generation apparatus and image feature generation method
US7042525B1 (en) * 2000-07-06 2006-05-09 Matsushita Electric Industrial Co., Ltd. Video indexing and image retrieval system
JP2002199333A (en) * 2000-12-27 2002-07-12 Canon Inc Device/system/method for processing picture, and storage medium
JP2002269569A (en) * 2001-03-14 2002-09-20 Ricoh Co Ltd Animation database
JP4396914B2 (en) * 2003-02-27 2010-01-13 株式会社Kddi研究所 Moving image data classification device

Also Published As

Publication number Publication date
JP2009201132A (en) 2009-09-03

Similar Documents

Publication Publication Date Title
JP4666784B2 (en) Video sequence key frame extraction method and video sequence key frame extraction device
KR20090006724A (en) System and method for detecting scrolling text in mixed mode film and video
JP5445467B2 (en) Credit information section detection method, credit information section detection device, and credit information section detection program
Santamaria et al. A comparison of block-matching motion estimation algorithms
KR101149522B1 (en) Apparatus and method for detecting scene change
JP4687834B2 (en) Video descriptor generator
JP4985201B2 (en) Electronic device, motion vector detection method and program
JP2005522109A (en) Method and apparatus for detecting scene changes in video using a histogram of frame differences
JP4197695B2 (en) Video encoding method, apparatus, and program
JP4895315B2 (en) Moving image cut point detection device
JP4450317B2 (en) Moving image cut point detection device
TW201310392A (en) Estimating method of predicted motion vector
JP5071988B2 (en) Moving image cut point detection device
JP2000324499A (en) Picture processor and method for detecting scene change
JP4225503B2 (en) Moving image cut point detection device
JP2004112678A (en) Video-searching instrument
EP1258146A2 (en) Compressed video analysis
JP2009267726A (en) Moving image encoding apparatus, recorder, moving image encoding method, moving image encoding program
JPH10112863A (en) Method and device for extracting motion subject information
JP2006217486A (en) Motion compensation type ip conversion processor and processing method
JP4349542B2 (en) Device for detecting telop area in moving image
KR101787004B1 (en) Apparatus and method for sampled pixel based motion estimation
KR20020040503A (en) Shot detecting method of video stream
JP5397372B2 (en) Telop movement vector calculation method, apparatus and program
KR101798191B1 (en) Apparatus and method for sampled pixel based motion estimation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111216

R150 Certificate of patent or registration of utility model

Ref document number: 4895315

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees