JP2007306450A - Cinema decision method, cinema decision apparatus, and caption detecting method - Google Patents
Cinema decision method, cinema decision apparatus, and caption detecting method Download PDFInfo
- Publication number
- JP2007306450A JP2007306450A JP2006134746A JP2006134746A JP2007306450A JP 2007306450 A JP2007306450 A JP 2007306450A JP 2006134746 A JP2006134746 A JP 2006134746A JP 2006134746 A JP2006134746 A JP 2006134746A JP 2007306450 A JP2007306450 A JP 2007306450A
- Authority
- JP
- Japan
- Prior art keywords
- frame difference
- area
- character
- cinema
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、入力映像がシネマソースかどうかを判定するシネマ判定方法、シネマ判定装置、および入力映像の字幕検出方法に関するものである。 The present invention relates to a cinema determination method for determining whether an input video is a cinema source, a cinema determination device, and a subtitle detection method for an input video.
24フレーム(もしくは25フレーム)のプログレッシブ信号である映画ソースを、プルダウンの規則性にのって静止はめ込み処理を行うことによって、60フィールド(もしくは50フィールド)のインタレース信号に変換し、忠実な映像を再現することをデジタルシネマリアリティという。これを実現するためには、予め入力映像がシネマソースかどうかを判定する必要がある(以下、この判定をシネマ判定と呼ぶ)。 A movie source, which is a progressive signal of 24 frames (or 25 frames), is converted into a 60-field (or 50-field) interlace signal by performing a static inset process according to the regularity of pull-down, and faithful video Reproducing is called digital cinema reality. In order to realize this, it is necessary to determine in advance whether or not the input video is a cinema source (hereinafter, this determination is referred to as cinema determination).
シネマ判定を行なう従来のシネマ判定装置では、入力映像の第1と第2フィールドにおける各画像の相関値を計算して、相関値に基づいて複製フィールドか否かを判定することによって、シネマソースかどうかを判定するものがある(例えば特許文献1を参照)。
しかしながら、シネマソースには文字(字幕)が付加される場合があり、付加された文字は、プルダウンの規則性を含んでいないため、映像と字幕をともに含んだ状態でシネマ検出を行うと、シネマソースかどうかの判定を誤ってしまう可能性がある。 However, characters (captions) may be added to the cinema source, and the added characters do not include the pull-down regularity. Therefore, if cinema detection is performed with both video and subtitles included, There is a possibility of misjudging whether it is a source.
本発明は、上記の問題に着目してなされたものであり、入力映像が映像と字幕をともに含んだ状態であっても高精度にシネマ判定を行なえるようにすること目的としている。 The present invention has been made paying attention to the above problem, and an object of the present invention is to enable cinema determination with high accuracy even when an input video includes both video and subtitles.
前記の課題を解決するため、本発明の第1の態様は、
入力映像がシネマソースかどうかを判定するシネマ判定方法であって、
入力映像の現フィールドの入力信号と現フィールドよりも前の入力信号のフレーム差分値を画面上の画素ごとに計算するフレーム差分算出ステップと、
前記フレーム差分算出ステップで計算したフレーム差分値を、画面全体について累積する全画面フレーム差分累積ステップと、
画面上に予め定められた領域である字幕検出領域の内部を走査して、この領域内に表示されている文字を検出する文字検出ステップと、
前記文字検出ステップでの文字検出結果に基づいて、字幕の開始点と終了点を決定して、字幕が表示されている領域である字幕領域窓を決定する文字領域検出ステップと、
入力信号のフレーム差分値を、前記文字領域検出ステップによって決定された字幕領域窓内にある全ての画素に対して計算するとともに、この窓内にある全ての画素についてのフレーム差分値を累積する文字領域フレーム差分累積ステップと、
前記文字領域フレーム差分累積ステップで累積したフレーム差分値を、前記全画面フレーム差分累積ステップで累積したフレーム差分値から減算して出力するフレーム差分減算ステップと、
前記フレーム差分減算ステップの出力を基に、フィールド時間単位で、入力映像のプルダウンの規則性を検出し、検出結果に応じて、入力映像の変換を行なって画面出力を行なうシネマ判定ステップと、
を備えたことを特徴とする。
In order to solve the above problems, the first aspect of the present invention is:
A cinema determination method for determining whether an input video is a cinema source,
A frame difference calculation step for calculating, for each pixel on the screen, a frame difference value between the input signal of the current field of the input video and the input signal before the current field;
A frame difference value calculated in the frame difference calculation step, a full screen frame difference accumulation step for accumulating the entire screen for the entire screen;
A character detection step of scanning the inside of a caption detection area, which is a predetermined area on the screen, and detecting characters displayed in the area;
Based on the character detection result in the character detection step, a character area detection step for determining a caption area window that is an area in which the caption is displayed by determining a start point and an end point of the caption.
A character that calculates the frame difference value of the input signal for all the pixels in the caption area window determined by the character area detection step and accumulates the frame difference values for all the pixels in the window. Region frame difference accumulation step;
A frame difference subtraction step for subtracting and outputting the frame difference value accumulated in the character region frame difference accumulation step from the frame difference value accumulated in the full screen frame difference accumulation step;
Based on the output of the frame difference subtracting step, the regularity of the pull-down of the input video is detected in field time units, and according to the detection result, the input image is converted and screen output is performed by the cinema determination step,
It is provided with.
これにより、字幕が表示されている領域である字幕領域窓が決定され、字幕領域窓を除いた領域を用いてシネマ判定を行なわれる。それゆえ、入力映像が映像と字幕をともに含んだ状態であっても高精度にシネマ判定できる。 Thereby, a caption area window which is an area where captions are displayed is determined, and cinema determination is performed using an area excluding the caption area window. Therefore, even if the input video includes both video and subtitles, the cinema can be determined with high accuracy.
また、本発明の第2の態様は、
画面上で、文字走査を行なう字幕検出領域を決定するステップと、
前記字幕検出領域を走査して文字を検出し、文字検出地点に基づいて字幕領域窓の開始点を決定するステップと、
前記字幕領域窓の開始点から何れの方向に文字が連続性を持つかを検出するステップと、
文字走査を行なって、字幕領域窓の終点を決定するステップと、
を有することを特徴とする。
In addition, the second aspect of the present invention includes
Determining a subtitle detection area for character scanning on the screen;
Scanning the subtitle detection area to detect a character, and determining a start point of the subtitle area window based on the character detection point;
Detecting in which direction the characters have continuity from the start point of the caption area window;
Performing character scanning to determine the end point of the subtitle area window;
It is characterized by having.
これにより、画面上で字幕が表示されている位置が検出される。 Thereby, the position where the subtitle is displayed on the screen is detected.
また、本発明の第3の態様は、
入力映像がシネマソースかどうかを判定するシネマ判定装置であって、
入力映像の現フィールドの入力信号と現フィールドよりも前の入力信号のフレーム差分値を画面上の画素ごとに計算するフレーム差分算出部と、
前記フレーム差分算出部で計算したフレーム差分値を、画面全体について累積する全画面フレーム差分累積部と、
画面上に予め定められた領域である字幕検出領域の内部を走査して、この領域内に表示されている文字を検出する文字検出部と、
前記文字検出部での文字検出結果に基づいて、字幕の開始点と終了点を決定して、字幕が表示されている領域である字幕領域窓を決定する文字領域検出部と、
入力信号のフレーム差分値を、前記文字領域検出部によって決定された字幕領域窓内にある全ての画素に対して計算するとともに、この窓内にある全ての画素についてのフレーム差分値を累積する文字領域フレーム差分累積部と、
前記文字領域フレーム差分累積部で累積したフレーム差分値を、前記全画面フレーム差分累積部で累積したフレーム差分値から減算して出力するフレーム差分減算部と、
前記フレーム差分減算部の出力を基に、フィールド時間単位で、入力映像のプルダウンの規則性を検出し、検出結果に応じて、入力映像の変換を行なって画面出力を行なうシネマ判定部と、
を備えたことを特徴とする。
The third aspect of the present invention is as follows.
A cinema determination device for determining whether an input video is a cinema source,
A frame difference calculation unit that calculates the frame difference value of the input signal of the current field of the input video and the input signal before the current field for each pixel on the screen;
A frame difference value calculated by the frame difference calculation unit, and a full screen frame difference accumulation unit that accumulates the entire screen;
A character detection unit that scans the subtitle detection area, which is a predetermined area on the screen, and detects characters displayed in the area;
Based on the character detection result in the character detection unit, a character area detection unit that determines a subtitle area window that is an area in which the subtitle is displayed by determining a start point and an end point of the subtitle;
A character that calculates the frame difference value of the input signal for all the pixels in the caption area window determined by the character area detection unit and accumulates the frame difference values for all the pixels in the window. An area frame difference accumulation unit;
A frame difference subtraction unit that subtracts and outputs the frame difference value accumulated in the character region frame difference accumulation unit from the frame difference value accumulated in the full-screen frame difference accumulation unit;
Based on the output of the frame difference subtracting unit, the regularity of the pull-down of the input video is detected in field time units, and according to the detection result, the cinema determination unit that converts the input video and outputs the screen,
It is provided with.
これにより、字幕が表示されている領域である字幕領域窓が決定され、字幕領域窓を除いた領域を用いてシネマ判定を行なわれる。それゆえ、入力映像が映像と字幕をともに含んだ状態であっても高精度にシネマ判定できる。 Thereby, a caption area window which is an area where captions are displayed is determined, and cinema determination is performed using an area excluding the caption area window. Therefore, even if the input video includes both video and subtitles, the cinema can be determined with high accuracy.
本発明によれば、字幕が表示されている領域である字幕領域窓を決定し、字幕領域窓を除いた領域を用いてシネマ判定を行なうので、入力映像が映像と字幕をともに含んだ状態であっても高精度にシネマ判定できる。 According to the present invention, the subtitle area window, which is the area where the subtitle is displayed, is determined, and the cinema determination is performed using the area excluding the subtitle area window, so that the input video includes both the video and the subtitle. Even if there is, the cinema can be judged with high accuracy.
以下、本発明の実施形態について図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の実施形態に係るシネマ判定装置100の構成を示すブロック図である。同図に示すようにシネマ判定装置100は、フレーム差分算出部101、全画面フレーム差分累積部102、文字検出部103、文字領域検出部104、文字領域フレーム差分累積部105、フレーム差分減算部106、およびシネマ判定部107を備えている。
FIG. 1 is a block diagram showing a configuration of a
フレーム差分算出部101は、入力映像の現フィールドの入力信号(入力輝度信号)と、2フィールドまたは1フィールド前の入力信号のフレーム差分値を画面上の画素ごとに計算するようになっている。
The frame
全画面フレーム差分累積部102は、フレーム差分算出部101が計算したフレーム差分値を、画面全体について累積するようになっている。
The full screen frame
文字検出部103は、画面上に予め定められた字幕検出領域(後述)の内部を走査して、この領域内に表示されている文字を検出するようになっている。具体的には、文字検出部103は、映像の信号レベルが黒レベルのスレッシュレベルより小さくなり、次に白レベルのスレッシュレベルより大きくなり、そして黒レベルのスレッシュレベルより小さくなるパターンを検出した場合に白文字であると認識するようになっている。図2は、字幕が画面下に表示されている場合の信号レベル変化パターンを示す例である。ここで、白および黒の判定にスレッシュ値を設けているのは、黒レベル・白レベルがある程度の連続した幅を持たせて、文字の誤検出防止するためである。本実施形態では、字幕検出領域としては、字幕が出現すると考えられる画面の上下左右の領域(候補領域)を予め設定している(図3を参照)。このように字幕検出領域を設定することで字幕の誤り検出を防ぐことが可能になる。
The
文字領域検出部104は、文字検出部103の文字検出結果に基づいて、字幕の開始点と終了点を決定して、字幕が表示されている領域(字幕領域窓)を決定するようになっている。詳しくは、文字領域検出部104は、以下のように字幕領域窓を決定する。
Based on the character detection result of the
まず、文字検出部103によって、予め字幕検出領域に定められた走査開始点から、順次走査を行なって文字を検出する。走査開始点としては、例えば図4に示した例では、画面上部横方向窓生成用、画面右部縦方向窓生成用、画面左部縦方向窓生成用、および画面下部横方向窓生成用の4点が開始点として定められ、各開始点について、開始点ごとに定められた方向(図4の矢印の方向)に向かって、順次走査が行なわれる。図4に示すように、横方向に走査が行なわれて、文字が横に続く横窓が生成される場合と、あるいは下方向に走査が行なわれて、文字が縦に続く縦窓が生成される場合の2通りがある(図5を参照)。
First, the
最初に文字が検出された画素地点(文字検出地点)から左上方部を、字幕領域窓の開始点に決定する。この際、文字検出地点をそのまま字幕領域窓の開始点に決定すると、出現文字の初めが「A」や「C」のときには、字幕領域窓で字幕全体を囲むことができないので、文字検出地点から左方向と上方向にマージンをとって開始点を定め、広めに字幕領域窓を作成する。 The upper left part from the pixel point (character detection point) where the character is first detected is determined as the start point of the caption area window. At this time, if the character detection point is determined as the start point of the caption area window as it is, when the beginning of the appearance character is “A” or “C”, the subtitle area window cannot enclose the entire subtitle. A start point is determined by taking a margin in the left direction and the upward direction, and a caption area window is created wider.
字幕領域窓の開始点が定まると、次に文字がどの方向に連続性を持つかを検出する。これには、字幕領域窓の開始点から縦方向または横方向に向かって、文字検出部103に文字の走査を行なわせる。この際、文字の連続性を見るために、一度文字を検出してから次の文字を検出するまでの間隔を決めるスレッシュ値を設ける。このスレッシュ値は、走査の方向が縦横の何れの方向の場合についても設けておく。
When the start point of the caption area window is determined, it is detected in which direction the character has continuity next. For this purpose, the
文字が連続する方向が定まった後は、字幕の終点を決定するために、引き続き文字の走査を行なう。そして、所定の間隔以上走査しても文字が検出されなかった場合は、その点を字幕検出窓の終点として検出する。字幕検出窓の終点も右方向と下方向の設定値のマージンをとって右下方向に設定する。 After the direction in which the characters continue is determined, the characters are continuously scanned to determine the end point of the caption. If no character is detected even after scanning for a predetermined interval, that point is detected as the end point of the caption detection window. The end point of the caption detection window is also set in the lower right direction with a margin between the setting values in the right direction and the lower direction.
一方、文字領域フレーム差分累積部105は、入力信号のフレーム差分値を、文字領域検出部104によって決定された字幕領域窓内にある全ての画素に対して計算するとともに、この窓内にある全ての画素についてのフレーム差分値を累積するようになっている。
On the other hand, the character area frame
フレーム差分減算部106は、文字領域フレーム差分累積部105が累積しているフレーム差分値を、全画面フレーム差分累積部102が累積しているフレーム差分値から減算し、減算結果を後段のシネマ判定部107に送るようになっている。すなわち、フレーム差分減算部106の出力は、字幕を含まない映像部分のみのフレーム差分の累積値である。
The frame
シネマ判定部107は、以下のようにして画面出力を行うようになっている。すなわち、シネマ判定部107は、フレーム差分減算部106の出力をもとにフィールド時間単位で、入力映像のプルダウンの規則性を検出し、入力映像がシネマソースと判定された場合には全画面領域から字幕領域を除く全ての画素に対し、入力ソースの静止はめ込み処理を施して画面出力する。また、入力映像がシネマソースと判定されていない時間と、シネマソースを検出するシーケンスに入っている時間と、シネマソースと完全に判定されている時間の字幕領域窓内の画素に関しては、入力映像の動き検出結果の情報に基づいて動画静止混合を行う通常のIP(Interlace−Progressive)変換を行い、画面出力を行う。
The
上記のシネマ判定装置100では、まず、フレーム差分算出部101が、入力映像の現フィールドの入力信号(入力輝度信号)と、2フィールド(または1フィールド)前の入力信号のフレーム差分値を画面上の画素ごとに計算し、フレーム差分算出部101が計算したフレーム差分値を、全画面フレーム差分累積部102が画面全体について累積する。
In the
一方、文字領域検出部104は、文字検出部103の文字検出結果に基づいて、字幕の開始点と終了点を決定して、字幕が表示されている領域(字幕領域窓)を決定する。そして、文字領域フレーム差分累積部105が、入力信号のフレーム差分値を、文字領域検出部104によって決定された字幕領域窓内にある全ての画素に対して計算し、さらに、この窓内にある全ての画素についてのフレーム差分値を累積する。
On the other hand, the character
次に、フレーム差分減算部106が、文字領域フレーム差分累積部105が累積しているフレーム差分値を、全画面フレーム差分累積部102が累積しているフレーム差分値から減算し、減算結果を後段のシネマ判定部107に送る。その後、シネマ判定部107がフレーム差分減算部106の減算結果に基づいて、シネマ判定を行なうとともに、判定結果に応じて、入力映像の変換を行い、画面出力を行う。
Next, the frame
以上のように、本実施形態は、入力信号レベルと白色および黒色のスレッシュレベルとを比較して文字を検出することによって字幕領域を検出し、字幕領域を除いた領域を用いてシネマ判定を行なうので、入力映像が映像と字幕をともに含んだ状態であっても高精度にシネマ判定できる。 As described above, according to the present embodiment, the subtitle area is detected by comparing the input signal level with the white and black threshold levels to detect characters, and cinema determination is performed using the area excluding the subtitle area. Therefore, even if the input video includes both video and subtitles, the cinema can be determined with high accuracy.
本発明に係るシネマ判定方法、シネマ判定装置、および字幕検出方法は、字幕が表示されている領域である字幕領域窓を決定し、字幕領域窓を除いた領域を用いてシネマ判定を行なうので、入力映像が映像と字幕をともに含んだ状態であっても高精度にシネマ判定できるという効果を有し、入力映像がシネマソースかどうかを判定するシネマ判定方法、シネマ判定装置、および入力映像の字幕検出方法等として有用である。 Since the cinema determination method, the cinema determination device, and the caption detection method according to the present invention determine a caption area window that is an area where captions are displayed, and perform cinema determination using an area excluding the caption area window. Cinema determination method, cinema determination device, and input video subtitle for determining whether input video is a cinema source, having the effect of enabling high-precision cinema determination even when the input video includes both video and subtitles This is useful as a detection method.
100 シネマ判定装置
101 フレーム差分算出部
102 全画面フレーム差分累積部
103 文字検出部
104 文字領域検出部
105 文字領域フレーム差分累積部
106 フレーム差分減算部
107 シネマ判定部
DESCRIPTION OF
Claims (3)
入力映像の現フィールドの入力信号と現フィールドよりも前の入力信号のフレーム差分値を画面上の画素ごとに計算するフレーム差分算出ステップと、
前記フレーム差分算出ステップで計算したフレーム差分値を、画面全体について累積する全画面フレーム差分累積ステップと、
画面上に予め定められた領域である字幕検出領域の内部を走査して、この領域内に表示されている文字を検出する文字検出ステップと、
前記文字検出ステップでの文字検出結果に基づいて、字幕の開始点と終了点を決定して、字幕が表示されている領域である字幕領域窓を決定する文字領域検出ステップと、
入力信号のフレーム差分値を、前記文字領域検出ステップによって決定された字幕領域窓内にある全ての画素に対して計算するとともに、この窓内にある全ての画素についてのフレーム差分値を累積する文字領域フレーム差分累積ステップと、
前記文字領域フレーム差分累積ステップで累積したフレーム差分値を、前記全画面フレーム差分累積ステップで累積したフレーム差分値から減算して出力するフレーム差分減算ステップと、
前記フレーム差分減算ステップの出力を基に、フィールド時間単位で、入力映像のプルダウンの規則性を検出し、検出結果に応じて、入力映像の変換を行なって画面出力を行なうシネマ判定ステップと、
を備えたことを特徴とするシネマ判定方法。 A cinema determination method for determining whether an input video is a cinema source,
A frame difference calculation step for calculating, for each pixel on the screen, a frame difference value between the input signal of the current field of the input video and the input signal before the current field;
A frame difference value calculated in the frame difference calculation step, a full screen frame difference accumulation step for accumulating the entire screen for the entire screen;
A character detection step of scanning the inside of a caption detection area, which is a predetermined area on the screen, and detecting characters displayed in the area;
Based on the character detection result in the character detection step, a character area detection step for determining a caption area window that is an area in which the caption is displayed by determining a start point and an end point of the caption.
A character that calculates the frame difference value of the input signal for all the pixels in the caption area window determined by the character area detection step and accumulates the frame difference values for all the pixels in the window. Region frame difference accumulation step;
A frame difference subtraction step for subtracting and outputting the frame difference value accumulated in the character region frame difference accumulation step from the frame difference value accumulated in the full screen frame difference accumulation step;
Based on the output of the frame difference subtracting step, the regularity of the pull-down of the input video is detected in field time units, and according to the detection result, the input image is converted and screen output is performed by the cinema determination step,
A cinema judgment method characterized by comprising:
前記字幕検出領域を走査して文字を検出し、文字検出地点に基づいて字幕領域窓の開始点を決定するステップと、
前記字幕領域窓の開始点から何れの方向に文字が連続性を持つかを検出するステップと、
文字走査を行なって、字幕領域窓の終点を決定するステップと、
を有することを特徴とするシネマ字幕検出方法。 Determining a subtitle detection area for character scanning on the screen;
Scanning the subtitle detection area to detect a character, and determining a start point of the subtitle area window based on the character detection point;
Detecting in which direction the characters have continuity from the start point of the caption area window;
Performing character scanning to determine the end point of the subtitle area window;
A cinema subtitle detection method characterized by comprising:
入力映像の現フィールドの入力信号と現フィールドよりも前の入力信号のフレーム差分値を画面上の画素ごとに計算するフレーム差分算出部と、
前記フレーム差分算出部で計算したフレーム差分値を、画面全体について累積する全画面フレーム差分累積部と、
画面上に予め定められた領域である字幕検出領域の内部を走査して、この領域内に表示されている文字を検出する文字検出部と、
前記文字検出部での文字検出結果に基づいて、字幕の開始点と終了点を決定して、字幕が表示されている領域である字幕領域窓を決定する文字領域検出部と、
入力信号のフレーム差分値を、前記文字領域検出部によって決定された字幕領域窓内にある全ての画素に対して計算するとともに、この窓内にある全ての画素についてのフレーム差分値を累積する文字領域フレーム差分累積部と、
前記文字領域フレーム差分累積部で累積したフレーム差分値を、前記全画面フレーム差分累積部で累積したフレーム差分値から減算して出力するフレーム差分減算部と、
前記フレーム差分減算部の出力を基に、フィールド時間単位で、入力映像のプルダウンの規則性を検出し、検出結果に応じて、入力映像の変換を行なって画面出力を行なうシネマ判定部と、
を備えたことを特徴とするシネマ判定装置。
A cinema determination device for determining whether an input video is a cinema source,
A frame difference calculation unit that calculates the frame difference value of the input signal of the current field of the input video and the input signal before the current field for each pixel on the screen;
A frame difference value calculated by the frame difference calculation unit, and a full screen frame difference accumulation unit that accumulates the entire screen;
A character detection unit that scans the inside of a caption detection area, which is a predetermined area on the screen, and detects characters displayed in the area;
Based on the character detection result in the character detection unit, a character area detection unit that determines a subtitle area window that is an area in which the subtitle is displayed by determining a start point and an end point of the subtitle;
A character that calculates the frame difference value of the input signal for all the pixels in the caption area window determined by the character area detection unit and accumulates the frame difference values for all the pixels in the window. An area frame difference accumulation unit;
A frame difference subtraction unit that subtracts and outputs the frame difference value accumulated in the character region frame difference accumulation unit from the frame difference value accumulated in the full-screen frame difference accumulation unit;
Based on the output of the frame difference subtracting unit, the regularity of the pull-down of the input video is detected in field time units, and according to the detection result, the cinema determination unit that converts the input video and outputs the screen,
A cinema determination device characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006134746A JP2007306450A (en) | 2006-05-15 | 2006-05-15 | Cinema decision method, cinema decision apparatus, and caption detecting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006134746A JP2007306450A (en) | 2006-05-15 | 2006-05-15 | Cinema decision method, cinema decision apparatus, and caption detecting method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007306450A true JP2007306450A (en) | 2007-11-22 |
Family
ID=38839990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006134746A Pending JP2007306450A (en) | 2006-05-15 | 2006-05-15 | Cinema decision method, cinema decision apparatus, and caption detecting method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007306450A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9123284B2 (en) | 2008-05-23 | 2015-09-01 | Semiconductor Energy Laboratory Co., Ltd. | Display device having backlight |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0324574A (en) * | 1989-06-21 | 1991-02-01 | Seiko Epson Corp | Developing device |
JP2004032234A (en) * | 2002-06-25 | 2004-01-29 | Matsushita Electric Ind Co Ltd | Image display device |
JP2004312680A (en) * | 2002-11-23 | 2004-11-04 | Samsung Electronics Co Ltd | Motion estimation apparatus and method for detecting scrolling text or graphic data |
-
2006
- 2006-05-15 JP JP2006134746A patent/JP2007306450A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0324574A (en) * | 1989-06-21 | 1991-02-01 | Seiko Epson Corp | Developing device |
JP2004032234A (en) * | 2002-06-25 | 2004-01-29 | Matsushita Electric Ind Co Ltd | Image display device |
JP2004312680A (en) * | 2002-11-23 | 2004-11-04 | Samsung Electronics Co Ltd | Motion estimation apparatus and method for detecting scrolling text or graphic data |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9123284B2 (en) | 2008-05-23 | 2015-09-01 | Semiconductor Energy Laboratory Co., Ltd. | Display device having backlight |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4620163B2 (en) | Still subtitle detection apparatus, video device for displaying image including still subtitle, and method for processing image including still subtitle | |
JP2004350281A (en) | Deinterlace method and deinterlace apparatus for video signal | |
JP2008067194A (en) | Frame interpolation circuit, frame interpolation method, and display device | |
JP2006109491A (en) | Image processing apparatus utilizing judder map and method thereof | |
JP2000278649A (en) | Device and method for interpolating scanning line | |
US8363160B2 (en) | Caption detection device, caption detection method, and pull-down signal detection apparatus | |
JP4510874B2 (en) | Composite image detector | |
JP2007306450A (en) | Cinema decision method, cinema decision apparatus, and caption detecting method | |
JP5206313B2 (en) | COMBING NOISE DETECTION DEVICE AND COMBING NOISE DETECTION METHOD | |
KR20060077449A (en) | The aspect ratio converter and the method thereof | |
JP5188272B2 (en) | Video processing apparatus and video display apparatus | |
JP2009177524A (en) | Scanning line interpolating device and scanning line interpolating method | |
JP2002330408A (en) | Video signal processing unit | |
US20130201404A1 (en) | Image processing method | |
JP2902837B2 (en) | Image detection circuit | |
US8165208B2 (en) | Method and apparatus for detecting sawtooth and field motion | |
US10748511B2 (en) | Method and system for detecting video scan type | |
KR101109153B1 (en) | Method for deinterlacing using detecting judder and apparatus therefor | |
TWI403160B (en) | Method of detecting a subtitle | |
JP2008118340A (en) | Motion vector detecting device and video signal processor | |
US20080246874A1 (en) | Method for detecting image sequences having linewise repeated data | |
KR100304653B1 (en) | Motion detecting apparatus | |
KR100630923B1 (en) | Image signal converter and method of converting image signal | |
JPH07298200A (en) | Letter box screen detector | |
JP2010213181A (en) | Telecine video signal detector, video processor, method of detecting telecine video signal, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110301 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110726 |