JP2007306450A - Cinema decision method, cinema decision apparatus, and caption detecting method - Google Patents

Cinema decision method, cinema decision apparatus, and caption detecting method Download PDF

Info

Publication number
JP2007306450A
JP2007306450A JP2006134746A JP2006134746A JP2007306450A JP 2007306450 A JP2007306450 A JP 2007306450A JP 2006134746 A JP2006134746 A JP 2006134746A JP 2006134746 A JP2006134746 A JP 2006134746A JP 2007306450 A JP2007306450 A JP 2007306450A
Authority
JP
Japan
Prior art keywords
frame difference
area
character
cinema
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006134746A
Other languages
Japanese (ja)
Inventor
Hirotaka Nakayama
博貴 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006134746A priority Critical patent/JP2007306450A/en
Publication of JP2007306450A publication Critical patent/JP2007306450A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To make a cinema decision with high accuracy even for an input picture containing a picture and a caption. <P>SOLUTION: A frame difference calculator 101 calculates the frame difference value between an input signal in the present filed of an input picture and an input signal previous to the present field every pixel on the screen, an entire frame difference accumulator 102 accumulates their frame difference values, a character detector 103 detects characters to determine a caption region window by a character region detector 104, a character region frame difference accumulator 105 calculates the frame difference values of the input signals for all pixels in the caption region window determined by the detector 104 and accumulates the frame difference values of all the pixels in the window, and a frame difference subtracter 106 subtracts the accumulated frame difference values from the frame difference values accumulated by the accumulator 102 to output the result. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、入力映像がシネマソースかどうかを判定するシネマ判定方法、シネマ判定装置、および入力映像の字幕検出方法に関するものである。   The present invention relates to a cinema determination method for determining whether an input video is a cinema source, a cinema determination device, and a subtitle detection method for an input video.

24フレーム(もしくは25フレーム)のプログレッシブ信号である映画ソースを、プルダウンの規則性にのって静止はめ込み処理を行うことによって、60フィールド(もしくは50フィールド)のインタレース信号に変換し、忠実な映像を再現することをデジタルシネマリアリティという。これを実現するためには、予め入力映像がシネマソースかどうかを判定する必要がある(以下、この判定をシネマ判定と呼ぶ)。   A movie source, which is a progressive signal of 24 frames (or 25 frames), is converted into a 60-field (or 50-field) interlace signal by performing a static inset process according to the regularity of pull-down, and faithful video Reproducing is called digital cinema reality. In order to realize this, it is necessary to determine in advance whether or not the input video is a cinema source (hereinafter, this determination is referred to as cinema determination).

シネマ判定を行なう従来のシネマ判定装置では、入力映像の第1と第2フィールドにおける各画像の相関値を計算して、相関値に基づいて複製フィールドか否かを判定することによって、シネマソースかどうかを判定するものがある(例えば特許文献1を参照)。
特開平8−289199号公報
In a conventional cinema determination apparatus that performs cinema determination, the correlation value of each image in the first and second fields of the input video is calculated, and based on the correlation value, it is determined whether or not it is a duplicate field. There is one that determines whether or not (see, for example, Patent Document 1).
JP-A-8-289199

しかしながら、シネマソースには文字(字幕)が付加される場合があり、付加された文字は、プルダウンの規則性を含んでいないため、映像と字幕をともに含んだ状態でシネマ検出を行うと、シネマソースかどうかの判定を誤ってしまう可能性がある。   However, characters (captions) may be added to the cinema source, and the added characters do not include the pull-down regularity. Therefore, if cinema detection is performed with both video and subtitles included, There is a possibility of misjudging whether it is a source.

本発明は、上記の問題に着目してなされたものであり、入力映像が映像と字幕をともに含んだ状態であっても高精度にシネマ判定を行なえるようにすること目的としている。   The present invention has been made paying attention to the above problem, and an object of the present invention is to enable cinema determination with high accuracy even when an input video includes both video and subtitles.

前記の課題を解決するため、本発明の第1の態様は、
入力映像がシネマソースかどうかを判定するシネマ判定方法であって、
入力映像の現フィールドの入力信号と現フィールドよりも前の入力信号のフレーム差分値を画面上の画素ごとに計算するフレーム差分算出ステップと、
前記フレーム差分算出ステップで計算したフレーム差分値を、画面全体について累積する全画面フレーム差分累積ステップと、
画面上に予め定められた領域である字幕検出領域の内部を走査して、この領域内に表示されている文字を検出する文字検出ステップと、
前記文字検出ステップでの文字検出結果に基づいて、字幕の開始点と終了点を決定して、字幕が表示されている領域である字幕領域窓を決定する文字領域検出ステップと、
入力信号のフレーム差分値を、前記文字領域検出ステップによって決定された字幕領域窓内にある全ての画素に対して計算するとともに、この窓内にある全ての画素についてのフレーム差分値を累積する文字領域フレーム差分累積ステップと、
前記文字領域フレーム差分累積ステップで累積したフレーム差分値を、前記全画面フレーム差分累積ステップで累積したフレーム差分値から減算して出力するフレーム差分減算ステップと、
前記フレーム差分減算ステップの出力を基に、フィールド時間単位で、入力映像のプルダウンの規則性を検出し、検出結果に応じて、入力映像の変換を行なって画面出力を行なうシネマ判定ステップと、
を備えたことを特徴とする。
In order to solve the above problems, the first aspect of the present invention is:
A cinema determination method for determining whether an input video is a cinema source,
A frame difference calculation step for calculating, for each pixel on the screen, a frame difference value between the input signal of the current field of the input video and the input signal before the current field;
A frame difference value calculated in the frame difference calculation step, a full screen frame difference accumulation step for accumulating the entire screen for the entire screen;
A character detection step of scanning the inside of a caption detection area, which is a predetermined area on the screen, and detecting characters displayed in the area;
Based on the character detection result in the character detection step, a character area detection step for determining a caption area window that is an area in which the caption is displayed by determining a start point and an end point of the caption.
A character that calculates the frame difference value of the input signal for all the pixels in the caption area window determined by the character area detection step and accumulates the frame difference values for all the pixels in the window. Region frame difference accumulation step;
A frame difference subtraction step for subtracting and outputting the frame difference value accumulated in the character region frame difference accumulation step from the frame difference value accumulated in the full screen frame difference accumulation step;
Based on the output of the frame difference subtracting step, the regularity of the pull-down of the input video is detected in field time units, and according to the detection result, the input image is converted and screen output is performed by the cinema determination step,
It is provided with.

これにより、字幕が表示されている領域である字幕領域窓が決定され、字幕領域窓を除いた領域を用いてシネマ判定を行なわれる。それゆえ、入力映像が映像と字幕をともに含んだ状態であっても高精度にシネマ判定できる。   Thereby, a caption area window which is an area where captions are displayed is determined, and cinema determination is performed using an area excluding the caption area window. Therefore, even if the input video includes both video and subtitles, the cinema can be determined with high accuracy.

また、本発明の第2の態様は、
画面上で、文字走査を行なう字幕検出領域を決定するステップと、
前記字幕検出領域を走査して文字を検出し、文字検出地点に基づいて字幕領域窓の開始点を決定するステップと、
前記字幕領域窓の開始点から何れの方向に文字が連続性を持つかを検出するステップと、
文字走査を行なって、字幕領域窓の終点を決定するステップと、
を有することを特徴とする。
In addition, the second aspect of the present invention includes
Determining a subtitle detection area for character scanning on the screen;
Scanning the subtitle detection area to detect a character, and determining a start point of the subtitle area window based on the character detection point;
Detecting in which direction the characters have continuity from the start point of the caption area window;
Performing character scanning to determine the end point of the subtitle area window;
It is characterized by having.

これにより、画面上で字幕が表示されている位置が検出される。   Thereby, the position where the subtitle is displayed on the screen is detected.

また、本発明の第3の態様は、
入力映像がシネマソースかどうかを判定するシネマ判定装置であって、
入力映像の現フィールドの入力信号と現フィールドよりも前の入力信号のフレーム差分値を画面上の画素ごとに計算するフレーム差分算出部と、
前記フレーム差分算出部で計算したフレーム差分値を、画面全体について累積する全画面フレーム差分累積部と、
画面上に予め定められた領域である字幕検出領域の内部を走査して、この領域内に表示されている文字を検出する文字検出部と、
前記文字検出部での文字検出結果に基づいて、字幕の開始点と終了点を決定して、字幕が表示されている領域である字幕領域窓を決定する文字領域検出部と、
入力信号のフレーム差分値を、前記文字領域検出部によって決定された字幕領域窓内にある全ての画素に対して計算するとともに、この窓内にある全ての画素についてのフレーム差分値を累積する文字領域フレーム差分累積部と、
前記文字領域フレーム差分累積部で累積したフレーム差分値を、前記全画面フレーム差分累積部で累積したフレーム差分値から減算して出力するフレーム差分減算部と、
前記フレーム差分減算部の出力を基に、フィールド時間単位で、入力映像のプルダウンの規則性を検出し、検出結果に応じて、入力映像の変換を行なって画面出力を行なうシネマ判定部と、
を備えたことを特徴とする。
The third aspect of the present invention is as follows.
A cinema determination device for determining whether an input video is a cinema source,
A frame difference calculation unit that calculates the frame difference value of the input signal of the current field of the input video and the input signal before the current field for each pixel on the screen;
A frame difference value calculated by the frame difference calculation unit, and a full screen frame difference accumulation unit that accumulates the entire screen;
A character detection unit that scans the subtitle detection area, which is a predetermined area on the screen, and detects characters displayed in the area;
Based on the character detection result in the character detection unit, a character area detection unit that determines a subtitle area window that is an area in which the subtitle is displayed by determining a start point and an end point of the subtitle;
A character that calculates the frame difference value of the input signal for all the pixels in the caption area window determined by the character area detection unit and accumulates the frame difference values for all the pixels in the window. An area frame difference accumulation unit;
A frame difference subtraction unit that subtracts and outputs the frame difference value accumulated in the character region frame difference accumulation unit from the frame difference value accumulated in the full-screen frame difference accumulation unit;
Based on the output of the frame difference subtracting unit, the regularity of the pull-down of the input video is detected in field time units, and according to the detection result, the cinema determination unit that converts the input video and outputs the screen,
It is provided with.

これにより、字幕が表示されている領域である字幕領域窓が決定され、字幕領域窓を除いた領域を用いてシネマ判定を行なわれる。それゆえ、入力映像が映像と字幕をともに含んだ状態であっても高精度にシネマ判定できる。   Thereby, a caption area window which is an area where captions are displayed is determined, and cinema determination is performed using an area excluding the caption area window. Therefore, even if the input video includes both video and subtitles, the cinema can be determined with high accuracy.

本発明によれば、字幕が表示されている領域である字幕領域窓を決定し、字幕領域窓を除いた領域を用いてシネマ判定を行なうので、入力映像が映像と字幕をともに含んだ状態であっても高精度にシネマ判定できる。   According to the present invention, the subtitle area window, which is the area where the subtitle is displayed, is determined, and the cinema determination is performed using the area excluding the subtitle area window, so that the input video includes both the video and the subtitle. Even if there is, the cinema can be judged with high accuracy.

以下、本発明の実施形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係るシネマ判定装置100の構成を示すブロック図である。同図に示すようにシネマ判定装置100は、フレーム差分算出部101、全画面フレーム差分累積部102、文字検出部103、文字領域検出部104、文字領域フレーム差分累積部105、フレーム差分減算部106、およびシネマ判定部107を備えている。   FIG. 1 is a block diagram showing a configuration of a cinema determination device 100 according to an embodiment of the present invention. As shown in the figure, the cinema determination apparatus 100 includes a frame difference calculation unit 101, a full screen frame difference accumulation unit 102, a character detection unit 103, a character area detection unit 104, a character area frame difference accumulation unit 105, and a frame difference subtraction unit 106. , And a cinema determination unit 107.

フレーム差分算出部101は、入力映像の現フィールドの入力信号(入力輝度信号)と、2フィールドまたは1フィールド前の入力信号のフレーム差分値を画面上の画素ごとに計算するようになっている。   The frame difference calculation unit 101 calculates a frame difference value between the input signal (input luminance signal) in the current field of the input video and the input signal two fields or one field before for each pixel on the screen.

全画面フレーム差分累積部102は、フレーム差分算出部101が計算したフレーム差分値を、画面全体について累積するようになっている。   The full screen frame difference accumulation unit 102 accumulates the frame difference values calculated by the frame difference calculation unit 101 for the entire screen.

文字検出部103は、画面上に予め定められた字幕検出領域(後述)の内部を走査して、この領域内に表示されている文字を検出するようになっている。具体的には、文字検出部103は、映像の信号レベルが黒レベルのスレッシュレベルより小さくなり、次に白レベルのスレッシュレベルより大きくなり、そして黒レベルのスレッシュレベルより小さくなるパターンを検出した場合に白文字であると認識するようになっている。図2は、字幕が画面下に表示されている場合の信号レベル変化パターンを示す例である。ここで、白および黒の判定にスレッシュ値を設けているのは、黒レベル・白レベルがある程度の連続した幅を持たせて、文字の誤検出防止するためである。本実施形態では、字幕検出領域としては、字幕が出現すると考えられる画面の上下左右の領域(候補領域)を予め設定している(図3を参照)。このように字幕検出領域を設定することで字幕の誤り検出を防ぐことが可能になる。   The character detection unit 103 scans the inside of a predetermined caption detection area (described later) on the screen and detects characters displayed in this area. Specifically, the character detection unit 103 detects a pattern in which the video signal level is lower than the black level threshold level, then higher than the white level threshold level, and lower than the black level threshold level. Are recognized as white characters. FIG. 2 is an example showing a signal level change pattern when subtitles are displayed at the bottom of the screen. Here, the reason why the threshold value is provided for the determination of white and black is to prevent the erroneous detection of characters by giving the black level / white level a certain continuous width. In the present embodiment, as the caption detection area, areas on the top, bottom, left and right (candidate areas) of a screen on which a caption appears are set (see FIG. 3). By setting the caption detection area in this way, it is possible to prevent caption error detection.

文字領域検出部104は、文字検出部103の文字検出結果に基づいて、字幕の開始点と終了点を決定して、字幕が表示されている領域(字幕領域窓)を決定するようになっている。詳しくは、文字領域検出部104は、以下のように字幕領域窓を決定する。   Based on the character detection result of the character detection unit 103, the character region detection unit 104 determines the start point and the end point of the subtitle, and determines the region where the subtitle is displayed (subtitle region window). Yes. Specifically, the character area detection unit 104 determines the caption area window as follows.

まず、文字検出部103によって、予め字幕検出領域に定められた走査開始点から、順次走査を行なって文字を検出する。走査開始点としては、例えば図4に示した例では、画面上部横方向窓生成用、画面右部縦方向窓生成用、画面左部縦方向窓生成用、および画面下部横方向窓生成用の4点が開始点として定められ、各開始点について、開始点ごとに定められた方向(図4の矢印の方向)に向かって、順次走査が行なわれる。図4に示すように、横方向に走査が行なわれて、文字が横に続く横窓が生成される場合と、あるいは下方向に走査が行なわれて、文字が縦に続く縦窓が生成される場合の2通りがある(図5を参照)。   First, the character detection unit 103 detects characters by sequentially scanning from the scanning start point set in advance in the caption detection area. For example, in the example shown in FIG. 4, the scan start point is for generating the upper horizontal window on the screen, generating the vertical window on the right side of the screen, generating the vertical window on the left side of the screen, and generating the horizontal window on the lower part of the screen Four points are determined as start points, and scanning is sequentially performed for each start point in a direction (direction of an arrow in FIG. 4) determined for each start point. As shown in FIG. 4, a horizontal window is generated by scanning in the horizontal direction, or a vertical window in which characters are vertically generated is generated. There are two cases (see FIG. 5).

最初に文字が検出された画素地点(文字検出地点)から左上方部を、字幕領域窓の開始点に決定する。この際、文字検出地点をそのまま字幕領域窓の開始点に決定すると、出現文字の初めが「A」や「C」のときには、字幕領域窓で字幕全体を囲むことができないので、文字検出地点から左方向と上方向にマージンをとって開始点を定め、広めに字幕領域窓を作成する。   The upper left part from the pixel point (character detection point) where the character is first detected is determined as the start point of the caption area window. At this time, if the character detection point is determined as the start point of the caption area window as it is, when the beginning of the appearance character is “A” or “C”, the subtitle area window cannot enclose the entire subtitle. A start point is determined by taking a margin in the left direction and the upward direction, and a caption area window is created wider.

字幕領域窓の開始点が定まると、次に文字がどの方向に連続性を持つかを検出する。これには、字幕領域窓の開始点から縦方向または横方向に向かって、文字検出部103に文字の走査を行なわせる。この際、文字の連続性を見るために、一度文字を検出してから次の文字を検出するまでの間隔を決めるスレッシュ値を設ける。このスレッシュ値は、走査の方向が縦横の何れの方向の場合についても設けておく。   When the start point of the caption area window is determined, it is detected in which direction the character has continuity next. For this purpose, the character detection unit 103 is caused to scan characters in the vertical direction or the horizontal direction from the start point of the caption area window. At this time, in order to see the continuity of the character, a threshold value is provided for determining an interval from the time when one character is detected until the next character is detected. This threshold value is provided in any case where the scanning direction is vertical or horizontal.

文字が連続する方向が定まった後は、字幕の終点を決定するために、引き続き文字の走査を行なう。そして、所定の間隔以上走査しても文字が検出されなかった場合は、その点を字幕検出窓の終点として検出する。字幕検出窓の終点も右方向と下方向の設定値のマージンをとって右下方向に設定する。   After the direction in which the characters continue is determined, the characters are continuously scanned to determine the end point of the caption. If no character is detected even after scanning for a predetermined interval, that point is detected as the end point of the caption detection window. The end point of the caption detection window is also set in the lower right direction with a margin between the setting values in the right direction and the lower direction.

一方、文字領域フレーム差分累積部105は、入力信号のフレーム差分値を、文字領域検出部104によって決定された字幕領域窓内にある全ての画素に対して計算するとともに、この窓内にある全ての画素についてのフレーム差分値を累積するようになっている。   On the other hand, the character area frame difference accumulating unit 105 calculates the frame difference value of the input signal for all the pixels in the subtitle area window determined by the character area detecting unit 104, and all the pixels in the window. The frame difference values for these pixels are accumulated.

フレーム差分減算部106は、文字領域フレーム差分累積部105が累積しているフレーム差分値を、全画面フレーム差分累積部102が累積しているフレーム差分値から減算し、減算結果を後段のシネマ判定部107に送るようになっている。すなわち、フレーム差分減算部106の出力は、字幕を含まない映像部分のみのフレーム差分の累積値である。   The frame difference subtracting unit 106 subtracts the frame difference value accumulated by the character area frame difference accumulating unit 105 from the frame difference value accumulated by the full-screen frame difference accumulating unit 102, and the subtraction result is determined in the subsequent cinema determination. This is sent to the unit 107. That is, the output of the frame difference subtraction unit 106 is a cumulative value of frame differences only for the video portion that does not include subtitles.

シネマ判定部107は、以下のようにして画面出力を行うようになっている。すなわち、シネマ判定部107は、フレーム差分減算部106の出力をもとにフィールド時間単位で、入力映像のプルダウンの規則性を検出し、入力映像がシネマソースと判定された場合には全画面領域から字幕領域を除く全ての画素に対し、入力ソースの静止はめ込み処理を施して画面出力する。また、入力映像がシネマソースと判定されていない時間と、シネマソースを検出するシーケンスに入っている時間と、シネマソースと完全に判定されている時間の字幕領域窓内の画素に関しては、入力映像の動き検出結果の情報に基づいて動画静止混合を行う通常のIP(Interlace−Progressive)変換を行い、画面出力を行う。   The cinema determination unit 107 performs screen output as follows. That is, the cinema determination unit 107 detects the regularity of the pull-down of the input video in field time units based on the output of the frame difference subtraction unit 106, and if the input video is determined to be a cinema source, the full screen area For all the pixels except the subtitle area, the input source is statically fitted and output to the screen. In addition, regarding the pixels in the subtitle area window for the time when the input video is not determined to be a cinema source, the time for entering the cinema source detection sequence, and the time when the input is completely determined as a cinema source, the input video A normal IP (Interlace-Progressive) conversion for performing moving image still mixing based on the information of the motion detection result is performed, and screen output is performed.

上記のシネマ判定装置100では、まず、フレーム差分算出部101が、入力映像の現フィールドの入力信号(入力輝度信号)と、2フィールド(または1フィールド)前の入力信号のフレーム差分値を画面上の画素ごとに計算し、フレーム差分算出部101が計算したフレーム差分値を、全画面フレーム差分累積部102が画面全体について累積する。   In the cinema determination apparatus 100 described above, first, the frame difference calculation unit 101 displays the frame difference value of the input signal (input luminance signal) of the current field of the input video and the input signal two fields (or one field) on the screen. The frame difference value calculated by the frame difference calculation unit 101 is accumulated for the entire screen by the full screen frame difference accumulation unit 102.

一方、文字領域検出部104は、文字検出部103の文字検出結果に基づいて、字幕の開始点と終了点を決定して、字幕が表示されている領域(字幕領域窓)を決定する。そして、文字領域フレーム差分累積部105が、入力信号のフレーム差分値を、文字領域検出部104によって決定された字幕領域窓内にある全ての画素に対して計算し、さらに、この窓内にある全ての画素についてのフレーム差分値を累積する。   On the other hand, the character region detection unit 104 determines the start point and end point of the caption based on the character detection result of the character detection unit 103, and determines the region (caption region window) where the caption is displayed. Then, the character area frame difference accumulating unit 105 calculates the frame difference value of the input signal for all the pixels in the caption area window determined by the character area detecting unit 104, and is further in this window. The frame difference values for all pixels are accumulated.

次に、フレーム差分減算部106が、文字領域フレーム差分累積部105が累積しているフレーム差分値を、全画面フレーム差分累積部102が累積しているフレーム差分値から減算し、減算結果を後段のシネマ判定部107に送る。その後、シネマ判定部107がフレーム差分減算部106の減算結果に基づいて、シネマ判定を行なうとともに、判定結果に応じて、入力映像の変換を行い、画面出力を行う。   Next, the frame difference subtracting unit 106 subtracts the frame difference value accumulated by the character region frame difference accumulating unit 105 from the frame difference value accumulated by the full-screen frame difference accumulating unit 102, and the subtraction result is shown in the subsequent stage. To the cinema determination unit 107. Thereafter, the cinema determination unit 107 performs cinema determination based on the subtraction result of the frame difference subtraction unit 106, converts the input video according to the determination result, and performs screen output.

以上のように、本実施形態は、入力信号レベルと白色および黒色のスレッシュレベルとを比較して文字を検出することによって字幕領域を検出し、字幕領域を除いた領域を用いてシネマ判定を行なうので、入力映像が映像と字幕をともに含んだ状態であっても高精度にシネマ判定できる。   As described above, according to the present embodiment, the subtitle area is detected by comparing the input signal level with the white and black threshold levels to detect characters, and cinema determination is performed using the area excluding the subtitle area. Therefore, even if the input video includes both video and subtitles, the cinema can be determined with high accuracy.

本発明に係るシネマ判定方法、シネマ判定装置、および字幕検出方法は、字幕が表示されている領域である字幕領域窓を決定し、字幕領域窓を除いた領域を用いてシネマ判定を行なうので、入力映像が映像と字幕をともに含んだ状態であっても高精度にシネマ判定できるという効果を有し、入力映像がシネマソースかどうかを判定するシネマ判定方法、シネマ判定装置、および入力映像の字幕検出方法等として有用である。   Since the cinema determination method, the cinema determination device, and the caption detection method according to the present invention determine a caption area window that is an area where captions are displayed, and perform cinema determination using an area excluding the caption area window. Cinema determination method, cinema determination device, and input video subtitle for determining whether input video is a cinema source, having the effect of enabling high-precision cinema determination even when the input video includes both video and subtitles This is useful as a detection method.

本発明の実施形態に係るシネマ判定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the cinema determination apparatus which concerns on embodiment of this invention. 字幕が画面下に表示されている場合の信号レベル変化パターンを示す図である。It is a figure which shows the signal level change pattern in case a subtitle is displayed on the screen lower part. 字幕検出領域の設定例を示す図である。It is a figure which shows the example of a setting of a subtitle detection area. 走査開始点および走査方向の一例を示す図である。It is a figure which shows an example of a scanning start point and a scanning direction. 文字が横に続く横窓が生成された例と、文字が縦に続く縦窓が生成された例を示す図である。It is a figure which shows the example in which the horizontal window in which a character continues horizontally, and the example in which the vertical window in which a character continues vertically are generated.

符号の説明Explanation of symbols

100 シネマ判定装置
101 フレーム差分算出部
102 全画面フレーム差分累積部
103 文字検出部
104 文字領域検出部
105 文字領域フレーム差分累積部
106 フレーム差分減算部
107 シネマ判定部
DESCRIPTION OF SYMBOLS 100 Cinema determination apparatus 101 Frame difference calculation part 102 Full screen frame difference accumulation part 103 Character detection part 104 Character area detection part 105 Character area frame difference accumulation part 106 Frame difference subtraction part 107 Cinema determination part

Claims (3)

入力映像がシネマソースかどうかを判定するシネマ判定方法であって、
入力映像の現フィールドの入力信号と現フィールドよりも前の入力信号のフレーム差分値を画面上の画素ごとに計算するフレーム差分算出ステップと、
前記フレーム差分算出ステップで計算したフレーム差分値を、画面全体について累積する全画面フレーム差分累積ステップと、
画面上に予め定められた領域である字幕検出領域の内部を走査して、この領域内に表示されている文字を検出する文字検出ステップと、
前記文字検出ステップでの文字検出結果に基づいて、字幕の開始点と終了点を決定して、字幕が表示されている領域である字幕領域窓を決定する文字領域検出ステップと、
入力信号のフレーム差分値を、前記文字領域検出ステップによって決定された字幕領域窓内にある全ての画素に対して計算するとともに、この窓内にある全ての画素についてのフレーム差分値を累積する文字領域フレーム差分累積ステップと、
前記文字領域フレーム差分累積ステップで累積したフレーム差分値を、前記全画面フレーム差分累積ステップで累積したフレーム差分値から減算して出力するフレーム差分減算ステップと、
前記フレーム差分減算ステップの出力を基に、フィールド時間単位で、入力映像のプルダウンの規則性を検出し、検出結果に応じて、入力映像の変換を行なって画面出力を行なうシネマ判定ステップと、
を備えたことを特徴とするシネマ判定方法。
A cinema determination method for determining whether an input video is a cinema source,
A frame difference calculation step for calculating, for each pixel on the screen, a frame difference value between the input signal of the current field of the input video and the input signal before the current field;
A frame difference value calculated in the frame difference calculation step, a full screen frame difference accumulation step for accumulating the entire screen for the entire screen;
A character detection step of scanning the inside of a caption detection area, which is a predetermined area on the screen, and detecting characters displayed in the area;
Based on the character detection result in the character detection step, a character area detection step for determining a caption area window that is an area in which the caption is displayed by determining a start point and an end point of the caption.
A character that calculates the frame difference value of the input signal for all the pixels in the caption area window determined by the character area detection step and accumulates the frame difference values for all the pixels in the window. Region frame difference accumulation step;
A frame difference subtraction step for subtracting and outputting the frame difference value accumulated in the character region frame difference accumulation step from the frame difference value accumulated in the full screen frame difference accumulation step;
Based on the output of the frame difference subtracting step, the regularity of the pull-down of the input video is detected in field time units, and according to the detection result, the input image is converted and screen output is performed by the cinema determination step,
A cinema judgment method characterized by comprising:
画面上で、文字走査を行なう字幕検出領域を決定するステップと、
前記字幕検出領域を走査して文字を検出し、文字検出地点に基づいて字幕領域窓の開始点を決定するステップと、
前記字幕領域窓の開始点から何れの方向に文字が連続性を持つかを検出するステップと、
文字走査を行なって、字幕領域窓の終点を決定するステップと、
を有することを特徴とするシネマ字幕検出方法。
Determining a subtitle detection area for character scanning on the screen;
Scanning the subtitle detection area to detect a character, and determining a start point of the subtitle area window based on the character detection point;
Detecting in which direction the characters have continuity from the start point of the caption area window;
Performing character scanning to determine the end point of the subtitle area window;
A cinema subtitle detection method characterized by comprising:
入力映像がシネマソースかどうかを判定するシネマ判定装置であって、
入力映像の現フィールドの入力信号と現フィールドよりも前の入力信号のフレーム差分値を画面上の画素ごとに計算するフレーム差分算出部と、
前記フレーム差分算出部で計算したフレーム差分値を、画面全体について累積する全画面フレーム差分累積部と、
画面上に予め定められた領域である字幕検出領域の内部を走査して、この領域内に表示されている文字を検出する文字検出部と、
前記文字検出部での文字検出結果に基づいて、字幕の開始点と終了点を決定して、字幕が表示されている領域である字幕領域窓を決定する文字領域検出部と、
入力信号のフレーム差分値を、前記文字領域検出部によって決定された字幕領域窓内にある全ての画素に対して計算するとともに、この窓内にある全ての画素についてのフレーム差分値を累積する文字領域フレーム差分累積部と、
前記文字領域フレーム差分累積部で累積したフレーム差分値を、前記全画面フレーム差分累積部で累積したフレーム差分値から減算して出力するフレーム差分減算部と、
前記フレーム差分減算部の出力を基に、フィールド時間単位で、入力映像のプルダウンの規則性を検出し、検出結果に応じて、入力映像の変換を行なって画面出力を行なうシネマ判定部と、
を備えたことを特徴とするシネマ判定装置。
A cinema determination device for determining whether an input video is a cinema source,
A frame difference calculation unit that calculates the frame difference value of the input signal of the current field of the input video and the input signal before the current field for each pixel on the screen;
A frame difference value calculated by the frame difference calculation unit, and a full screen frame difference accumulation unit that accumulates the entire screen;
A character detection unit that scans the inside of a caption detection area, which is a predetermined area on the screen, and detects characters displayed in the area;
Based on the character detection result in the character detection unit, a character area detection unit that determines a subtitle area window that is an area in which the subtitle is displayed by determining a start point and an end point of the subtitle;
A character that calculates the frame difference value of the input signal for all the pixels in the caption area window determined by the character area detection unit and accumulates the frame difference values for all the pixels in the window. An area frame difference accumulation unit;
A frame difference subtraction unit that subtracts and outputs the frame difference value accumulated in the character region frame difference accumulation unit from the frame difference value accumulated in the full-screen frame difference accumulation unit;
Based on the output of the frame difference subtracting unit, the regularity of the pull-down of the input video is detected in field time units, and according to the detection result, the cinema determination unit that converts the input video and outputs the screen,
A cinema determination device characterized by comprising:
JP2006134746A 2006-05-15 2006-05-15 Cinema decision method, cinema decision apparatus, and caption detecting method Pending JP2007306450A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006134746A JP2007306450A (en) 2006-05-15 2006-05-15 Cinema decision method, cinema decision apparatus, and caption detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006134746A JP2007306450A (en) 2006-05-15 2006-05-15 Cinema decision method, cinema decision apparatus, and caption detecting method

Publications (1)

Publication Number Publication Date
JP2007306450A true JP2007306450A (en) 2007-11-22

Family

ID=38839990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006134746A Pending JP2007306450A (en) 2006-05-15 2006-05-15 Cinema decision method, cinema decision apparatus, and caption detecting method

Country Status (1)

Country Link
JP (1) JP2007306450A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9123284B2 (en) 2008-05-23 2015-09-01 Semiconductor Energy Laboratory Co., Ltd. Display device having backlight

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0324574A (en) * 1989-06-21 1991-02-01 Seiko Epson Corp Developing device
JP2004032234A (en) * 2002-06-25 2004-01-29 Matsushita Electric Ind Co Ltd Image display device
JP2004312680A (en) * 2002-11-23 2004-11-04 Samsung Electronics Co Ltd Motion estimation apparatus and method for detecting scrolling text or graphic data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0324574A (en) * 1989-06-21 1991-02-01 Seiko Epson Corp Developing device
JP2004032234A (en) * 2002-06-25 2004-01-29 Matsushita Electric Ind Co Ltd Image display device
JP2004312680A (en) * 2002-11-23 2004-11-04 Samsung Electronics Co Ltd Motion estimation apparatus and method for detecting scrolling text or graphic data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9123284B2 (en) 2008-05-23 2015-09-01 Semiconductor Energy Laboratory Co., Ltd. Display device having backlight

Similar Documents

Publication Publication Date Title
JP4620163B2 (en) Still subtitle detection apparatus, video device for displaying image including still subtitle, and method for processing image including still subtitle
JP2004350281A (en) Deinterlace method and deinterlace apparatus for video signal
JP2008067194A (en) Frame interpolation circuit, frame interpolation method, and display device
JP2006109491A (en) Image processing apparatus utilizing judder map and method thereof
JP2000278649A (en) Device and method for interpolating scanning line
US8363160B2 (en) Caption detection device, caption detection method, and pull-down signal detection apparatus
JP4510874B2 (en) Composite image detector
JP2007306450A (en) Cinema decision method, cinema decision apparatus, and caption detecting method
JP5206313B2 (en) COMBING NOISE DETECTION DEVICE AND COMBING NOISE DETECTION METHOD
KR20060077449A (en) The aspect ratio converter and the method thereof
JP5188272B2 (en) Video processing apparatus and video display apparatus
JP2009177524A (en) Scanning line interpolating device and scanning line interpolating method
JP2002330408A (en) Video signal processing unit
US20130201404A1 (en) Image processing method
JP2902837B2 (en) Image detection circuit
US8165208B2 (en) Method and apparatus for detecting sawtooth and field motion
US10748511B2 (en) Method and system for detecting video scan type
KR101109153B1 (en) Method for deinterlacing using detecting judder and apparatus therefor
TWI403160B (en) Method of detecting a subtitle
JP2008118340A (en) Motion vector detecting device and video signal processor
US20080246874A1 (en) Method for detecting image sequences having linewise repeated data
KR100304653B1 (en) Motion detecting apparatus
KR100630923B1 (en) Image signal converter and method of converting image signal
JPH07298200A (en) Letter box screen detector
JP2010213181A (en) Telecine video signal detector, video processor, method of detecting telecine video signal, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110726