JP2011097339A - Video processing apparatus, and controlling method therein - Google Patents

Video processing apparatus, and controlling method therein Download PDF

Info

Publication number
JP2011097339A
JP2011097339A JP2009249049A JP2009249049A JP2011097339A JP 2011097339 A JP2011097339 A JP 2011097339A JP 2009249049 A JP2009249049 A JP 2009249049A JP 2009249049 A JP2009249049 A JP 2009249049A JP 2011097339 A JP2011097339 A JP 2011097339A
Authority
JP
Japan
Prior art keywords
line
interpolation
boundary
area
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009249049A
Other languages
Japanese (ja)
Inventor
Seiji Yamagishi
正治 山岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009249049A priority Critical patent/JP2011097339A/en
Publication of JP2011097339A publication Critical patent/JP2011097339A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology capable of detecting the boundary between a letter box area and a video area with sufficient accuracy, and suppressing generation of line flicker at the boundary in motion adaptive interlace-progressive conversion. <P>SOLUTION: The video processing apparatus has: a unit for generating, for every line of an input video signal, a representative pixel value which is a pixel value representing the line using a plurality of pixels on the line; a unit for detecting the boundary between the letter box area and the video area from the input video signal using the representative pixel value for every line when the input video signal is a video signal which has letter box areas at upper and lower parts of the video area; and a unit for generating an interpolation pixel by the motion adaptive interlace-progressive conversion based on the detected boundary. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、映像処理装置及びその制御方法に関する。   The present invention relates to a video processing apparatus and a control method thereof.

インターレース方式の入力映像信号を補間によりプログレッシブ方式の出力映像信号に変換する方法として、動き適応型IP(インターレース・プログレッシブ)変換と呼ばれる方法がある。動き適応型IP変換は、補間画素の生成位置での映像の動き(動き情報)を検出し、その動き情報に応じて、フィールド内補間により補間画素を生成するか、フィールド間補間により補間画素を生成するかを適応的に切り換える方法である。   As a method for converting an interlace input video signal into a progressive output video signal by interpolation, there is a method called motion adaptive IP (interlace progressive) conversion. The motion adaptive IP conversion detects video motion (motion information) at the interpolation pixel generation position, and generates an interpolation pixel by intra-field interpolation or interpolates the interpolation pixel by inter-field interpolation according to the motion information. This is a method of adaptively switching whether to generate.

また、アスペクト比が16:9の映像を4:3の画面に表示するための方式としてレターボックス方式が知られている。図11Aは、レターボックス方式の映像信号に基づく映像を画面上に表示した場合の例である。図11Aにおいて、斜線で示す領域が、映像が存在しないレターボックス領域(黒帯領域)であり、斜線以外の領域が、映像が存在する映像領域である。黒帯領域は、通常、黒または暗いグレーの単色領域である。   In addition, a letterbox method is known as a method for displaying an image having an aspect ratio of 16: 9 on a 4: 3 screen. FIG. 11A shows an example in which video based on a letterbox video signal is displayed on the screen. In FIG. 11A, the hatched area is a letterbox area (black belt area) where no video exists, and the area other than the diagonal line is a video area where video exists. The black belt region is usually a black or dark gray monochromatic region.

従来は、入力映像信号がレターボックス方式の映像信号であっても、IP変換として動き適応型IP変換が行われていた。具体的には、補間画素の生成位置での映像の動きが“動きあり”の場合には、同一フィールド(処理対象のフィールド)において該生成位置の上下に隣接する位置の画素を用いて補間画素を生成していた。“動きなし”の場合には、処理対象のフィールドの1つ後(又は1つ前)のフィールドにおいて該生成位置に対応する位置の画素を用いて補間画素を生成していた。
そのため、補間画素の生成位置が黒帯領域と映像領域の境界の位置であり、且つ、該生成位置での映像の動きが“動きあり”の場合には、黒帯領域内の画素と映像領域内の画素とを用いて補間画素が生成されることとなる。具体的には、黒帯領域の画素値と映像領域の画素値の間の画素値を有する補間画素が生成されることとなる。その結果、黒帯領域と映像領域の境界においてライン状のフリッカ(ラインフリッカ)が生じ、画質が低下してしまうという問題があった。
Conventionally, even when the input video signal is a letterbox video signal, motion adaptive IP conversion has been performed as IP conversion. Specifically, when the motion of the video at the generation position of the interpolation pixel is “with movement”, the interpolation pixel is used by using pixels at positions adjacent to the generation position in the same field (field to be processed). Was generated. In the case of “no motion”, an interpolation pixel is generated using a pixel at a position corresponding to the generation position in a field immediately after (or immediately before) a field to be processed.
Therefore, when the interpolation pixel generation position is the position of the boundary between the black band area and the video area, and the movement of the video at the generation position is “with motion”, the pixels in the black band area and the video area An interpolated pixel is generated using the inner pixels. Specifically, an interpolation pixel having a pixel value between the pixel value of the black belt region and the pixel value of the video region is generated. As a result, there is a problem that line flicker (line flicker) occurs at the boundary between the black belt area and the video area, and the image quality deteriorates.

そのような問題に鑑みた従来技術は、例えば、特許文献1に開示されている。具体的には、特許文献1に開示の技術では、IP変換を行う際に、補間画素の生成位置が上記境界の位置である場合に、該生成位置の黒帯領域側とは反対側の位置の画素を用いて補間画素を生成することで、ラインフリッカの発生を抑制している。   A conventional technique in view of such a problem is disclosed in Patent Document 1, for example. Specifically, in the technique disclosed in Patent Document 1, when performing the IP conversion, when the generation position of the interpolation pixel is the position of the boundary, the position on the side opposite to the black belt region side of the generation position The generation of the line flicker is suppressed by generating the interpolation pixel using the pixels.

しかしながら、特許文献1に開示の技術では、画素位置毎の動き情報を元に補間画素の生成位置が上記境界の位置か否かを判定している。具体的には、補間画素の生成位置での動き情報及びその上または下に隣接する画素位置の動き情報を元に補間画素の生成位置が上記境界の位置か否かを判定している。そのため、映像の内容(絵柄)や動きの速さなどによっては、黒帯領域と映像領域の境界の位置でないような補間画素の生成位置に対しても、「黒帯領域と映像領域の境界の位置である」と誤判定してしまい、それによって画質の劣化を招く虞がある。   However, in the technique disclosed in Patent Document 1, it is determined whether the generation position of the interpolation pixel is the position of the boundary based on the motion information for each pixel position. Specifically, it is determined whether or not the generation position of the interpolation pixel is the position of the boundary based on the movement information at the generation position of the interpolation pixel and the movement information of the pixel position adjacent above or below it. Therefore, depending on the content of the video (picture) and the speed of movement, the interpolated pixel generation position that is not at the boundary between the black belt region and the video region may be May be erroneously determined to be “position”, thereby degrading image quality.

特開2005−151135号公報JP 2005-151135 A

そこで、本発明は、レターボックス領域と映像領域との境界を精度良く検出することができ、動き適応型インターレース・プログレッシブ変換における該境界でのラインフリッカの発生を抑制することのできる技術を提供することを目的とする。   Therefore, the present invention provides a technique capable of accurately detecting a boundary between a letterbox area and a video area and suppressing the occurrence of line flicker at the boundary in motion adaptive interlace / progressive conversion. For the purpose.

本発明の映像処理装置は、インターレース方式の入力映像信号を補間によりプログレッシブ方式の出力映像信号に変換する映像処理装置であって、入力映像信号のライン毎に、そのライン上の複数の画素を用いて、そのラインを代表する画素値である代表画素値を生成する代表画素値生成手段と、入力映像信号が映像領域の上下にレターボックス領域を有する映像信号である場合に、ライン毎の代表画素値を用いて、該入力映像信号からレターボックス領域と映像領域との境界を検出する境界検出手段と、動き適応型インターレース・プログレッシブ変換により補間画素を生成する補間画素生成手段と、を有し、補間画素生成手段は、境界検出手段で検出された境界を元に、補間画素の生成位置が映像領域内の位置なのかレターボックス領域内の位置なのかを判断し、補間画素の生成位置が映像領域内である場合には、映像領域内の画素のみを用いて補間画素を生成し、補間画素の生成位置がレターボックス領域内である場合には、レターボックス領域内の画素のみを用いて補間画素を生成する。   The video processing apparatus of the present invention is a video processing apparatus that converts an interlaced input video signal into a progressive output video signal by interpolation, and uses a plurality of pixels on each line of the input video signal. Representative pixel value generating means for generating a representative pixel value that is a pixel value representative of the line, and a representative pixel for each line when the input video signal is a video signal having letterbox areas above and below the video area. Boundary detection means for detecting a boundary between the letterbox area and the video area from the input video signal using the value, and interpolation pixel generation means for generating an interpolation pixel by motion adaptive interlace / progressive conversion, The interpolation pixel generation means determines whether the generation position of the interpolation pixel is a position in the video area based on the boundary detected by the boundary detection means. If the interpolation pixel generation position is within the video area, the interpolation pixel is generated using only the pixels within the video area, and the interpolation pixel generation position is within the letterbox area. In this case, an interpolation pixel is generated using only the pixels in the letterbox area.

本発明の映像処理装置の制御方法は、インターレース方式の入力映像信号を補間によりプログレッシブ方式の出力映像信号に変換する映像処理装置の制御方法であって、入力映像信号のライン毎に、そのライン上の複数の画素を用いて、そのラインを代表する画素値である代表画素値を生成する代表画素値生成ステップと、入力映像信号が映像領域の上下にレターボックス領域を有する映像信号である場合に、ライン毎の代表画素値を用いて、該入力映像信号からレターボックス領域と映像領域との境界を検出する境界検出ステップと、動き適応型インターレース・プログレッシブ変換により補間画素を生成する補間画素生成ステップと、を有し、補間画素生成ステップは、境界検出ステップで検出された境界を元に、補間画素の生成位置が映像領域内の位置なのかレターボックス領域内の位置なのかを判断し、補間画素の生成位置が映像領域内である場合には、映像領域内の画素のみを用いて補間画素を生成し、補間画素の生成位置がレターボックス領域内である場合には、レターボックス領域内の画素のみを用いて補間画素を生成するステップである。   A video processing apparatus control method according to the present invention is a video processing apparatus control method for converting an interlaced input video signal into a progressive output video signal by interpolation, and for each line of an input video signal, A representative pixel value generating step for generating a representative pixel value that is a pixel value representative of the line using the plurality of pixels, and when the input video signal is a video signal having letterbox areas above and below the video area. A boundary detection step for detecting a boundary between the letterbox region and the video region from the input video signal using a representative pixel value for each line, and an interpolation pixel generation step for generating an interpolation pixel by motion adaptive interlace / progressive transformation In the interpolation pixel generation step, the interpolation pixel generation position is determined based on the boundary detected in the boundary detection step. Determine whether the position is in the image area or the letterbox area, and if the interpolation pixel generation position is in the video area, the interpolation pixel is generated using only the pixels in the video area, and interpolation is performed. When the pixel generation position is within the letterbox area, the interpolation pixel is generated using only the pixels within the letterbox area.

本発明によれば、レターボックス領域と映像領域との境界を精度良く検出することができ、動き適応型インターレース・プログレッシブ変換における該境界でのラインフリッカの発生を抑制することができる。   According to the present invention, the boundary between the letterbox region and the video region can be detected with high accuracy, and the occurrence of line flicker at the boundary in motion adaptive interlace / progressive conversion can be suppressed.

実施例1に係る映像処理装置の機能構成の一例を示す図。1 is a diagram illustrating an example of a functional configuration of a video processing apparatus according to Embodiment 1. FIG. ラインMAX輝度値の検出結果の一例を示す図。The figure which shows an example of the detection result of a line MAX luminance value. フィールド内補間画素生成部の機能構成の一例を示す図。The figure which shows an example of a function structure of the interpolation pixel production | generation part in a field. 補間画素を生成する処理の流れの一例を示す図。The figure which shows an example of the flow of the process which produces | generates an interpolation pixel. 上側境界補間ライン上の補間画素の生成方法の一例を示す図。The figure which shows an example of the production | generation method of the interpolation pixel on an upper boundary interpolation line. 補間画素を生成する処理の流れの一例を示す図。The figure which shows an example of the flow of the process which produces | generates an interpolation pixel. 下側境界補間ライン上の補間画素の生成方法の一例を示す図。The figure which shows an example of the production | generation method of the interpolation pixel on a lower boundary interpolation line. 実施例2に係る映像処理装置の機能構成の一例を示す図。FIG. 6 is a diagram illustrating an example of a functional configuration of a video processing apparatus according to a second embodiment. 補間画素を生成する処理の流れの一例を示す図。The figure which shows an example of the flow of the process which produces | generates an interpolation pixel. 補間画素を生成する処理の流れの一例を示す図。The figure which shows an example of the flow of the process which produces | generates an interpolation pixel. 入力映像信号の一例を示す図。The figure which shows an example of an input video signal.

<実施例1>
(構成)
以下、本発明の実施例1に係る映像処理装置及びその制御方法について、図面を用いて説明する。本実施例に係る映像処理装置は、インターレース方式の入力映像信号を補間によりプログレッシブ方式の出力映像信号に変換する。
<Example 1>
(Constitution)
Hereinafter, a video processing apparatus and a control method thereof according to Embodiment 1 of the present invention will be described with reference to the drawings. The video processing apparatus according to the present embodiment converts an interlaced input video signal into a progressive output video signal by interpolation.

図1Aは、実施例1に係る映像処置装置の機能構成を示すブロック図である。
図1Aにおいて、フィールドメモリ100,101は、フィールド単位で装置に入力される入力映像信号を蓄積し、該入力映像信号を1フィールド分だけ遅延させて出力する。即ち、映像処理装置にN番目のフィールド(Nフィールド)の画像を表す信号が入力された時に、フィールドメモリ100からは、N−1番目のフィールド(N−1フィールド)の画像を表す信号が出力される。フィールドメモリ101からは、N−2番目のフィールド(N−2フィールド)の画像を表す信号が出力される。本実施例では、フィールドメモリ100から出力された画像(N−1フィールドの画像)に対して補間画素が生成される。
FIG. 1A is a block diagram illustrating a functional configuration of the video treatment apparatus according to the first embodiment.
In FIG. 1A, field memories 100 and 101 accumulate input video signals input to the apparatus in field units, and output the input video signals with a delay of one field. That is, when a signal representing an image in the Nth field (N field) is input to the video processing apparatus, a signal representing an image in the N−1th field (N−1 field) is output from the field memory 100. Is done. From the field memory 101, a signal representing an image of the (N-2) th field (N-2 field) is output. In this embodiment, interpolation pixels are generated for the image (N-1 field image) output from the field memory 100.

境界決定部102は、入力映像信号が映像領域(映像のある領域)の上下にレターボックス領域(映像の無い領域;黒帯領域)を有する映像信号である場合に、黒帯領域と映像領域との境界を決定する。具体的には、境界決定部102は、図1Bに示すように、代表画素値生成部201と境界検出部202を有する。   When the input video signal is a video signal having a letterbox area (an area without video; a black band area) above and below the video area (area with video), the boundary determination unit 102 Determine the boundaries. Specifically, the boundary determination unit 102 includes a representative pixel value generation unit 201 and a boundary detection unit 202 as illustrated in FIG. 1B.

代表画素値生成部201は、入力映像信号のライン毎に、そのライン上の複数の画素を用いて、そのラインを代表する画素値である代表画素値を生成する。本実施例では、ライン上の全ての画素のうち、最も輝度の高い画素値(ラインMAX輝度値)を有する画素を検出し、該画素値を代表画素値として出力する。検出結果(生成結果)の一例を図2に示す。図2は、画像の上側2ライン及び下側2ラインが黒帯領域内のライン、内側16ラインが映像領域内のラインである例を示している。黒帯領域は輝度値の低い(図2の例では0)画素で構成されており、映像領域は、通常、輝度値の高い画素から輝度値の低い画素まで幅広く含んでいる。そのため、黒帯領域内のラインの代表画素値(ラインMAX輝度値)は低い値となり、映像領域内のラインの代表画素値は高い値となる。図2の例では、代表画素値生成部201において、上側のラインから順に、0,0,120,200,140,・・・,145,80,200,0,0という代表画素値が生成され、境界検出部202へ出力される。   For each line of the input video signal, the representative pixel value generation unit 201 uses a plurality of pixels on the line to generate a representative pixel value that is a pixel value representing the line. In this embodiment, a pixel having the highest pixel value (line MAX luminance value) is detected from all the pixels on the line, and the pixel value is output as a representative pixel value. An example of the detection result (generation result) is shown in FIG. FIG. 2 shows an example in which the upper two lines and the lower two lines of the image are lines in the black belt region, and the inner 16 lines are lines in the video region. The black belt region is composed of pixels having a low luminance value (0 in the example of FIG. 2), and the video region usually includes a wide range from pixels having a high luminance value to pixels having a low luminance value. Therefore, the representative pixel value (line MAX luminance value) of the line in the black belt region is a low value, and the representative pixel value of the line in the video region is a high value. In the example of FIG. 2, the representative pixel value generation unit 201 generates representative pixel values of 0, 0, 120, 200, 140,..., 145, 80, 200, 0, 0 in order from the upper line. And output to the boundary detection unit 202.

境界検出部202は、入力映像信号が映像領域の上下に黒帯領域を有する映像信号である場合に、代表画素値生成部201で生成されたライン毎の代表画素値を用いて、該入力映像信号から黒帯領域と映像領域との境界を検出する。
本実施例では、上側のラインから順に、そのラインの代表画素値を用いて、該ラインが黒帯領域内のラインなのか映像領域内のラインなのかを判断することにより、上側の黒帯領域(上側黒帯領域)と映像領域との境界(上側境界)を検出する。具体的には、上側のラインから順に、代表画素値と第1の閾値th1(本実施例では閾値th1=2とする)を比較する。そして、最初に閾値th1を超えたライン、または、該ラインとその1つ上のラインとの間の補間画素が生成されるライン(補間ライン)を映像領域の最も上側のラインであると判断する。即ち、最初に閾値th1を超えたラインとその1つ上のラインとの間に上側境界があると判断する。
また、下側のラインから順に、そのラインの代表画素値を用いて、該ラインが黒帯領域内のラインなのか映像領域内のラインなのかを判断することにより、下側の黒帯領域(下側黒帯領域)と映像領域との境界(下側境界)を検出する。具体的には、下側のラインから順に、代表画素値と第2の閾値th2(本実施例では閾値th2=2とする)を比較す
る。そして、最初に閾値th2を超えたライン、または、該ラインとその下側に隣接する補間ラインを映像領域の最も下側のラインであると判断する。即ち、最初に閾値th2を超えたラインとその1つ下のラインとの間に下側境界があると判断する。
なお、閾値th1,th2の値は2に限らない。各ラインが黒帯領域内のラインなのか否かを判断することができれば、どのような値であってもよい。
The boundary detection unit 202 uses the representative pixel value for each line generated by the representative pixel value generation unit 201 when the input video signal is a video signal having black belt regions above and below the video region. A boundary between the black belt region and the video region is detected from the signal.
In the present embodiment, in order from the upper line, the representative pixel value of the line is used to determine whether the line is a line in the black band area or a line in the video area, so that the upper black band area A boundary (upper boundary) between the (upper black belt region) and the video region is detected. Specifically, the representative pixel value and the first threshold th1 (threshold th1 = 2 in this embodiment) are compared sequentially from the upper line. Then, a line that first exceeds the threshold th1 or a line (interpolation line) in which an interpolation pixel between the line and the line above it is generated is determined to be the uppermost line in the video area. . That is, it is determined that there is an upper boundary between a line that first exceeds the threshold th1 and a line that is one above it.
Further, in order from the lower line, by using the representative pixel value of the line, it is determined whether the line is a line in the black band area or a line in the video area, so that the lower black band area ( A boundary (lower boundary) between the lower black belt area) and the video area is detected. Specifically, the representative pixel value and the second threshold th2 (threshold th2 = 2 in this embodiment) are compared in order from the lower line. Then, the line that first exceeds the threshold th2 or the interpolation line adjacent to the line and the lower side thereof is determined to be the lowermost line in the video area. That is, it is determined that there is a lower boundary between the line that first exceeds the threshold th2 and the line below it.
Note that the values of the thresholds th1 and th2 are not limited to 2. Any value can be used as long as it can be determined whether or not each line is a line in the black belt region.

図2の例では、画像の上側からライン2までは、代表画素値≦閾値th1となるため、上側黒帯領域内のラインと判断される。ライン3以降は、代表画素値>閾値th1となるため、映像領域内のラインと判断される。それにより、ライン2とライン3の間に上側境界があると判断される。また、画像の下側からライン19までは、代表画素値≦閾値th2となるため、下側黒帯領域内のラインと判断される。ライン18以降は、代表画素値>閾値th2となるため、映像領域内のラインと判断される。それにより、ライン18とライン19の間に下側境界があると判断される。   In the example of FIG. 2, since the representative pixel value ≦ threshold th <b> 1 from the upper side of the image to the line 2, it is determined as a line in the upper black belt region. Since line 3 and later, representative pixel value> threshold value th1, it is determined that the line is in the video area. Thereby, it is determined that there is an upper boundary between the line 2 and the line 3. Further, since the representative pixel value ≦ threshold th2 from the lower side of the image to the line 19, it is determined that the line is in the lower black belt region. From line 18 onward, representative pixel value> threshold value th2 is satisfied, so that the line is determined to be in the video area. Thereby, it is determined that there is a lower boundary between the line 18 and the line 19.

境界検出部202からは、上側境界の位置、下側境界の位置、上側黒帯領域の画素値、下側黒帯領域の画素値の情報が出力される。図2の例では、上側境界はライン2とライン3の間に位置するため、上側境界の位置の情報として“2”が出力される。下側境界はライン18とライン19の間に位置するため、下側境界の位置の情報として“19”が出力される。即ち、黒帯領域と映像領域との境界の位置の情報として、該境界を挟む2つの隣接ラインのうち、黒帯領域内のラインを示す値(境界黒帯ライン番号)が出力される。また、上側黒帯領域の画素値の情報、下側黒帯領域の画素値の情報としては、それぞれ“0”(ライン2,19の代表画素値)が出力される。それらの情報は、IP変換部120において補間画素を生成する際に用いられる。
なお、入力映像信号が黒帯領域の存在しない映像の信号である場合のように、黒帯領域と映像領域との境界を検出することができない場合には、境界検出部202は、境界の位置の情報として映像領域外のラインを示す値(例えば、2047)を出力する。
The boundary detection unit 202 outputs information on the position of the upper boundary, the position of the lower boundary, the pixel value of the upper black belt region, and the pixel value of the lower black belt region. In the example of FIG. 2, since the upper boundary is located between the line 2 and the line 3, “2” is output as information on the position of the upper boundary. Since the lower boundary is located between the line 18 and the line 19, “19” is output as information on the position of the lower boundary. That is, as information on the position of the boundary between the black belt region and the video region, a value (boundary black belt line number) indicating a line in the black belt region among two adjacent lines sandwiching the boundary is output. Also, “0” (representative pixel value of lines 2 and 19) is output as the pixel value information of the upper black belt region and the pixel value information of the lower black belt region, respectively. Those pieces of information are used when the interpolation pixel is generated in the IP conversion unit 120.
If the boundary between the black belt region and the video region cannot be detected as in the case where the input video signal is a video signal without a black belt region, the boundary detection unit 202 determines the position of the boundary. As this information, a value (for example, 2047) indicating a line outside the video area is output.

IP変換部120は、動き適応型インターレース・プログレッシブ変換を行う。IP変換部120の構成について、以下詳細に説明する。   The IP conversion unit 120 performs motion adaptive interlace / progressive conversion. The configuration of the IP conversion unit 120 will be described in detail below.

動き検出部103は、補間画素の生成位置での映像の動きを検出し、該動きから動き情報を生成する。本実施例では、動き情報として、映像の動きがあることを表す“1”と、映像の動きがないことを表す“0”の2通りを考える。動きの検出方法は、ブロックマッチングによる方法や、互いに2フィールド離れた2つのフィールド間の画素値の差分に基づいて決定する方法するなど、従来の方法を適用すればよい。   The motion detection unit 103 detects the motion of the video at the interpolation pixel generation position, and generates motion information from the motion. In this embodiment, two types of motion information are considered: “1” indicating that there is a video motion and “0” indicating that there is no video motion. As a motion detection method, a conventional method such as a method based on block matching or a method of determining based on a difference in pixel values between two fields that are two fields apart from each other may be applied.

フィールド内補間画素生成部104は、フィールド内補間による補間画素(フィールド内補間画素)を生成する。フィールド内補間画素は、映像の動きのある位置に生成するのに適した補間画素であり、補間画素の生成の対象となるフィールド(N−1フィールド)の画像内の画素を用いて生成される補間画素である。
フィールド内補間画素生成部104は、例えば、図3に示すような構成を有する。フィールド内補間画素生成部104には、N−1フィールドの信号が入力され、ラインメモリ300に蓄積される。ラインメモリ300では、入力された信号が1H(インターレース方式の映像信号の1水平走査期間)だけ遅延され、出力される。そして、入力されたN−1フィールドの信号と1Hだけ遅延された信号とが加算器301で加算され、乗算器302で1/2倍される。これにより、N−1フィールドの画像において垂直方向に互いに隣接する2画素の画素値の平均値を得ることができる。この平均値が、それらの画素に挟まれる位置のフィールド内補間画素の画素値とされる。
なお、フィールド内補間画素生成部104は、境界決定部102(境界検出部202)から出力された情報を元に、黒帯領域と映像領域の境界に隣接する補間ラインに対しては
、上述の処理と異なる処理を行う。具体的な処理方法については、後述する。
The intra-field interpolation pixel generation unit 104 generates an interpolation pixel (intra-field interpolation pixel) by intra-field interpolation. The intra-field interpolation pixel is an interpolation pixel that is suitable for being generated at a position where there is a motion of the video, and is generated using a pixel in the image of the field (N-1 field) for which the interpolation pixel is generated. Interpolated pixels.
The intra-field interpolation pixel generation unit 104 has a configuration as shown in FIG. 3, for example. An N−1 field signal is input to the intra-field interpolation pixel generation unit 104 and stored in the line memory 300. In the line memory 300, the input signal is delayed by 1H (one horizontal scanning period of an interlace video signal) and output. Then, the input N-1 field signal and the signal delayed by 1H are added by the adder 301 and multiplied by ½ by the multiplier 302. Thereby, the average value of the pixel values of two pixels adjacent to each other in the vertical direction in the N-1 field image can be obtained. This average value is used as the pixel value of the intra-field interpolation pixel at a position sandwiched between these pixels.
The intra-field interpolation pixel generation unit 104 performs the above-described interpolation line adjacent to the boundary between the black belt region and the video region based on the information output from the boundary determination unit 102 (boundary detection unit 202). A process different from the process is performed. A specific processing method will be described later.

補間データ生成部105は、動き適応型インターレース・プログレッシブ変換により補間画素を生成する。具体的には、補間画素の生成位置において映像の動きがない場合(動き情報が“0”である場合)には、該生成位置に対し、フィールドメモリ101から出力される画素値を有する補間画素(フィールド間補間による補間画素;フィールド間補間画素)を生成する。映像の動きがある場合(動き情報が“1”である場合)には、該生成位置に対し、フィールド内補間画素生成部104から出力される画素値を有する補間画素(フィールド内補間画素)を生成する。そして、生成された複数の補間画素からなる補間データを後述する倍速変換部106へ出力する。なお、フィールド間補間画素は、映像の動きの無い位置に生成するのに適した補間画素であって、N−2フィールドの画像内の画素(補間画素の生成位置と同じ位置の画素)と同じ画素値を有する補間画素である。
なお、補間データ生成部105は、境界決定部102から出力された情報を元に、黒帯領域と映像領域の境界に隣接する補間ラインに対しては、上述の処理と異なる処理を行う。具体的な処理方法については、後述する。
The interpolation data generation unit 105 generates an interpolation pixel by motion adaptive interlace / progressive conversion. Specifically, when there is no video motion at the generation position of the interpolation pixel (when the motion information is “0”), the interpolation pixel having the pixel value output from the field memory 101 for the generation position. (Interpolated pixel by inter-field interpolation; inter-field interpolated pixel) is generated. When there is a motion of the video (when the motion information is “1”), an interpolation pixel (intra-field interpolation pixel) having a pixel value output from the intra-field interpolation pixel generation unit 104 is added to the generation position. Generate. Then, the generated interpolation data including a plurality of interpolation pixels is output to the double speed conversion unit 106 described later. The inter-field interpolation pixel is an interpolation pixel suitable for generation at a position where there is no motion of the video, and is the same as a pixel in the N-2 field image (a pixel at the same position as the generation position of the interpolation pixel). An interpolation pixel having a pixel value.
Note that the interpolation data generation unit 105 performs processing different from the above-described processing on the interpolation line adjacent to the boundary between the black belt region and the video region based on the information output from the boundary determination unit 102. A specific processing method will be described later.

倍速変換部106は、補間データ生成部105から出力される補間データと、フィールドメモリ100から出力されるN−1フィールドの信号とを合成してプログレッシブ映像の信号(プログレッシブ映像の1フレームの信号)として出力する。
具体的には、倍速変換部106は、フィールドメモリ100から出力されたフィールド(N−1フィールド)の信号と、補間データ生成部105から出力された補間データとを、インターレース映像の信号が入力される速度の2倍の速度で読み出す。これにより、N−1フィールドの画像を構成する画素と補間画素とが1ラインごとに繰り返されるプログレッシブ映像の信号が出力される。
The double speed conversion unit 106 synthesizes the interpolation data output from the interpolation data generation unit 105 and the N-1 field signal output from the field memory 100 to provide a progressive video signal (a signal of one frame of the progressive video). Output as.
Specifically, the double speed conversion unit 106 receives the interlace video signal from the field (N-1 field) signal output from the field memory 100 and the interpolation data output from the interpolation data generation unit 105. Reads out at twice the speed. As a result, a progressive video signal in which the pixels constituting the N-1 field image and the interpolation pixels are repeated for each line is output.

本実施例では、補間データ生成部105は、境界検出部202で検出された境界を元に、補間画素の生成位置が映像領域内の位置なのかレターボックス領域内の位置なのかを判断する。そして、補間画素の生成位置が映像領域内である場合には、映像領域内の画素のみを用いて補間画素を生成し、補間画素の生成位置がレターボックス領域(黒帯領域)内である場合には、黒帯領域内の画素のみを用いて補間画素を生成する。それにより、動き適応型インターレース・プログレッシブ変換における該境界でのラインフリッカの発生を抑制することができる。以下、詳しく説明する。   In this embodiment, the interpolation data generation unit 105 determines whether the generation position of the interpolation pixel is a position in the video area or a letterbox area based on the boundary detected by the boundary detection unit 202. When the interpolation pixel generation position is within the video area, the interpolation pixel is generated using only the pixels within the video area, and the interpolation pixel generation position is within the letterbox area (black belt area). In this case, an interpolation pixel is generated using only the pixels in the black belt region. Thereby, it is possible to suppress the occurrence of line flicker at the boundary in the motion adaptive interlace / progressive conversion. This will be described in detail below.

(上側境界に隣接する補間ライン上の補間画素の生成方法)
図4を用いて、上側境界に隣接する補間ライン(上側境界補間ライン)上の補間画素の生成方法について説明する。
まず、IP変換部120が、境界決定部102から上側の境界黒帯ライン番号(上側境界黒帯ライン番号)と上側黒帯領域の画素値の情報を取得し(S101)、S102へ進む。具体的には、フィールド内補間画素生成部104が上側境界黒帯ライン番号を取得し、補間データ生成部105が上側境界黒帯ライン番号と上側黒帯領域の画素値の情報を取得する。
(Generation method of interpolation pixels on the interpolation line adjacent to the upper boundary)
A method for generating interpolation pixels on an interpolation line (upper boundary interpolation line) adjacent to the upper boundary will be described with reference to FIG.
First, the IP conversion unit 120 acquires information on the upper boundary black belt line number (upper boundary black belt line number) and the pixel value of the upper black belt region from the boundary determination unit 102 (S101), and proceeds to S102. Specifically, the intra-field interpolation pixel generation unit 104 acquires the upper boundary black belt line number, and the interpolation data generation unit 105 acquires information on the upper boundary black belt line number and the pixel value of the upper black belt region.

上側境界補間ラインの位置は、処理対象のフィールド(N−1フィールド)がoddフィールドであるかevenフィールドであるかによって異なる。上側境界黒帯ライン番号として“2”が取得された場合について、図5A,5Bを用いて詳しく説明する。図5A,5Bは、入力映像信号の一番上のラインから数ライン分の画素を示す図である(入力映像信号の1フィールドあたりのライン総数は20とする)。図5Aに示すように、N−1フィールドがoddフィールドであった場合には、インターレースの状態で上側から2ライン目の補間ラインが上側境界補間ラインとなる。図5Bに示すように、N−1フィールドがevenフィールドであった場合には、インターレースの状態で上側から3ライン目
の補間ラインが上側境界補間ラインとなる。
The position of the upper boundary interpolation line differs depending on whether the field to be processed (N-1 field) is an odd field or an even field. The case where “2” is acquired as the upper boundary black belt line number will be described in detail with reference to FIGS. 5A and 5B. 5A and 5B are diagrams showing pixels for several lines from the top line of the input video signal (the total number of lines per field of the input video signal is 20). As shown in FIG. 5A, when the N-1 field is an odd field, the second interpolation line from the upper side in the interlace state becomes the upper boundary interpolation line. As shown in FIG. 5B, when the N-1 field is an even field, the third interpolation line from the upper side in the interlaced state becomes the upper boundary interpolation line.

そこで、S102では、補間データ生成部105が、N−1フィールドがoddフィールドなのか否かを判定する。そして、N−1フィールドがoddフィールドであった場合には(S102:YES)、上側境界黒帯ライン番号を上側境界補間ライン番号とし(S103)、S105へ進む。N−1フィールドがevenフィールドであった場合には(S102:NO)、上側境界黒帯ライン番号に1を加算したものを上側境界補間ライン番号とし(S104)、S105へ進む。   Therefore, in S102, the interpolation data generation unit 105 determines whether or not the N-1 field is an odd field. If the N-1 field is an odd field (S102: YES), the upper boundary black belt line number is set as the upper boundary interpolation line number (S103), and the process proceeds to S105. If the N-1 field is an even field (S102: NO), the upper boundary black belt line number plus 1 is set as the upper boundary interpolation line number (S104), and the process proceeds to S105.

S105では、補間データ生成部105が、補間画素の生成位置が上側境界補間ライン上の位置か否かを判定する。補間画素の生成位置が上側境界補間ライン上の位置である場合には(S105:YES)、S106へ進む。補間画素の生成位置が上側境界補間ライン上の位置でない場合には(S105:NO)、S110へ進む。S110では、フィールド内補間画素生成部104は、補間画素の生成位置に対し通常の方法(上述した方法)でフィールド内補間画素を生成する。そして、補間データ生成部105が、補間画素の生成位置に対し、通常の方法(上述した方法)でフィールド内補間画素またはフィールド間補間画素を生成する(通常の動き適応処理)。   In S105, the interpolation data generation unit 105 determines whether the generation position of the interpolation pixel is a position on the upper boundary interpolation line. When the interpolation pixel generation position is a position on the upper boundary interpolation line (S105: YES), the process proceeds to S106. When the generation position of the interpolation pixel is not a position on the upper boundary interpolation line (S105: NO), the process proceeds to S110. In S110, the intra-field interpolation pixel generation unit 104 generates an intra-field interpolation pixel by a normal method (the method described above) with respect to the generation position of the interpolation pixel. Then, the interpolation data generation unit 105 generates an intra-field interpolation pixel or an inter-field interpolation pixel by a normal method (the above-described method) with respect to the interpolation pixel generation position (normal motion adaptation processing).

S106では、補間データ生成部105が、図5Aのような画素配列構造なのか図5Bのような画素配列構造なのかを判定する。具体的には、後フィールド(N−2フィールド)の画素値(補間画素の生成位置と同じ位置の画素値)が上側黒帯領域の画素値と等しいか否かを判定する。   In S106, the interpolation data generation unit 105 determines whether the pixel arrangement structure is as shown in FIG. 5A or the pixel arrangement structure as shown in FIG. 5B. Specifically, it is determined whether the pixel value of the subsequent field (N-2 field) (the pixel value at the same position as the interpolation pixel generation position) is equal to the pixel value of the upper black belt region.

N−2フィールドの画素値が上側黒帯領域の画素値と等しい場合には(S106:YES)、補間データ生成部105は、図5Aのような画素配列構造であると判断する。即ち、図5Aの画素A10とその上側に隣接する補間画素との間が境界である(補間画素の生成位置は上側黒帯領域内の位置である)と判断する。そして、補間画素の生成位置に対し、図5Aの画素B10の画素値を有するフィールド間補間画素を生成する(S108;フィールド間補間処理)。なお、画素B10ではなく画素C10の画素値を有するフィールド内補間画素を生成してもよい。
N−2フィールドの画素値が上側黒帯領域の画素値と等しくない場合には(S106:NO)、図5Bのような画素配列構造であると判断する。即ち、図5Bの画素C20とその下側に隣接する補間画素との間が境界である(補間画素の生成位置は映像領域内の位置である)と判断する。そして、S107へ進む。
なお、このような境界の具体的な位置の決定は、境界検出部202が行ってもよい。
When the pixel value of the N-2 field is equal to the pixel value of the upper black belt region (S106: YES), the interpolation data generation unit 105 determines that the pixel arrangement structure is as shown in FIG. 5A. That is, it is determined that the boundary is between the pixel A10 of FIG. 5A and the adjacent interpolation pixel on the upper side (the generation position of the interpolation pixel is the position in the upper black belt region). Then, the inter-field interpolation pixel having the pixel value of the pixel B10 in FIG. 5A is generated for the interpolation pixel generation position (S108; inter-field interpolation processing). Note that an intra-field interpolation pixel having a pixel value of the pixel C10 instead of the pixel B10 may be generated.
If the pixel value of the N-2 field is not equal to the pixel value of the upper black belt region (S106: NO), it is determined that the pixel arrangement structure is as shown in FIG. 5B. That is, it is determined that the boundary is between the pixel C20 in FIG. 5B and the interpolation pixel adjacent thereto below (the generation position of the interpolation pixel is a position in the video area). Then, the process proceeds to S107.
Note that the boundary detection unit 202 may determine the specific position of such a boundary.

S107では、補間画素の生成位置での動き情報が“0”か否かを判定する。動き情報が“0”である場合には(S107:YES)、S108へ進み、動き情報が“1”である場合には(S107:NO)、S109へ進む。このとき、S108では、補間画素の生成位置に対し、図5Bの画素B20の画素値を有するフィールド間補間画素が生成される。S109では、フィールド内補間画素生成部104が、補間画素の生成位置に対し、N−1フィールドにおいて該生成位置の下側に隣接する位置の画素値(図5Bの画素A20の画素値)を有するフィールド内補間画素を生成する。そして、補間データ生成部105が、補間画素の生成位置に対し、該フィールド内補間画素を生成する(映像領域の画素値を用いたフィールド内補間処理)。   In S107, it is determined whether or not the motion information at the interpolation pixel generation position is “0”. When the motion information is “0” (S107: YES), the process proceeds to S108, and when the motion information is “1” (S107: NO), the process proceeds to S109. At this time, in S108, the inter-field interpolation pixel having the pixel value of the pixel B20 in FIG. 5B is generated at the interpolation pixel generation position. In S109, the intra-field interpolation pixel generation unit 104 has the pixel value of the position adjacent to the lower side of the generation position in the N-1 field with respect to the generation position of the interpolation pixel (the pixel value of the pixel A20 in FIG. 5B). Intra-field interpolation pixels are generated. Then, the interpolation data generation unit 105 generates the intra-field interpolation pixel for the interpolation pixel generation position (intra-field interpolation processing using the pixel value of the video area).

(下側境界に隣接する補間ライン上の補間画素の生成方法)
図6を用いて、下側境界に隣接する補間ライン(下側境界補間ライン)上の補間画素の生成方法について説明する。
まず、IP変換部120が、境界決定部102から下側の境界黒帯ライン番号(下側境
界黒帯ライン番号)と下側黒帯領域の画素値の情報を取得し(S201)、S202へ進む。具体的には、フィールド内補間画素生成部104が下側境界黒帯ライン番号を取得し、補間データ生成部105が下側境界黒帯ライン番号と下側黒帯領域の画素値の情報を取得する。
(Generation method of interpolation pixels on the interpolation line adjacent to the lower boundary)
A method of generating interpolation pixels on an interpolation line (lower boundary interpolation line) adjacent to the lower boundary will be described with reference to FIG.
First, the IP conversion unit 120 acquires information on the lower boundary black belt line number (lower boundary black belt line number) and the pixel value of the lower black belt region from the boundary determination unit 102 (S201), and proceeds to S202. move on. Specifically, the intra-field interpolation pixel generation unit 104 acquires the lower boundary black band line number, and the interpolation data generation unit 105 acquires the information of the lower boundary black band line number and the pixel value of the lower black band region. To do.

下側境界補間ラインの位置も、上側境界補間ラインの位置と同様に、N−1フィールドがoddフィールドであるかevenフィールドであるかによって異なる。下側境界黒帯ライン番号として“19”が取得された場合について、図7A,7Bを用いて詳しく説明する。図7A,7Bは、入力映像信号の一番下のラインから数ライン分の画素を示す図である(入力映像信号の1フィールドあたりのライン総数は20とする)。図7Aに示すように、N−1フィールドがoddフィールドであった場合には、インターレースの状態で下側から3ライン目(上側から18ライン目)の補間ラインが下側境界補間ラインとなる。図7Bに示すように、N−1フィールドがevenフィールドであった場合には、インターレースの状態で下側から2ライン目(上側から19ライン目)の補間ラインが下側境界補間ラインとなる。   Similarly to the position of the upper boundary interpolation line, the position of the lower boundary interpolation line also differs depending on whether the N-1 field is an odd field or an even field. The case where “19” is acquired as the lower boundary black belt line number will be described in detail with reference to FIGS. 7A and 7B. 7A and 7B are diagrams showing pixels for several lines from the bottom line of the input video signal (the total number of lines per field of the input video signal is 20). As shown in FIG. 7A, when the N-1 field is an odd field, the third interpolation line from the lower side (the 18th line from the upper side) in the interlaced state becomes the lower boundary interpolation line. As shown in FIG. 7B, when the N-1 field is an even field, the second line from the lower side (the 19th line from the upper side) in the interlaced state becomes the lower boundary interpolation line.

そこで、S202では、補間データ生成部105が、N−1フィールドがoddフィールドなのか否かを判定する。そして、N−1フィールドがoddフィールドであった場合には(S202:YES)、下側境界黒帯ライン番号から1を減算したものを下側境界補間ライン番号とし(S203)、S205へ進む。N−1フィールドがevenフィールドであった場合には(S202:NO)、下側境界黒帯ライン番号を下側境界補間ライン番号とし(S204)、S205へ進む。   Therefore, in S202, the interpolation data generation unit 105 determines whether or not the N-1 field is an odd field. If the N-1 field is an odd field (S202: YES), a value obtained by subtracting 1 from the lower boundary black belt line number is set as the lower boundary interpolation line number (S203), and the process proceeds to S205. If the N-1 field is an even field (S202: NO), the lower boundary black belt line number is set as the lower boundary interpolation line number (S204), and the process proceeds to S205.

S205では、補間データ生成部105が、補間画素の生成位置が下側境界補間ライン上の位置か否かを判定する。補間画素の生成位置が下側境界補間ライン上の位置である場合には(S205:YES)、S206へ進む。補間画素の生成位置が下側境界補間ライン上の位置でない場合には(S205:NO)、S210へ進む。S210の処理は図4のS110の処理と同様のため、説明は省略する。   In S205, the interpolation data generation unit 105 determines whether the generation position of the interpolation pixel is a position on the lower boundary interpolation line. When the generation position of the interpolation pixel is a position on the lower boundary interpolation line (S205: YES), the process proceeds to S206. When the generation position of the interpolation pixel is not a position on the lower boundary interpolation line (S205: NO), the process proceeds to S210. The process of S210 is the same as the process of S110 of FIG.

S206では、補間データ生成部105が、図7Aのような画素配列構造なのか図7Bのような画素配列構造なのかを判定する。具体的には、後フィールド(N−2フィールド)の画素値(補間画素の生成位置と同じ位置の画素値)が下側黒帯領域の画素値と等しいか否かを判定する。   In S206, the interpolation data generation unit 105 determines whether the pixel arrangement structure is as shown in FIG. 7A or the pixel arrangement structure as shown in FIG. 7B. Specifically, it is determined whether the pixel value of the subsequent field (N-2 field) (the pixel value at the same position as the interpolation pixel generation position) is equal to the pixel value of the lower black belt region.

N−2フィールドの画素値が下側黒帯領域の画素値と等しい場合には(S206:YES)、補間データ生成部105は、図7Bのような画素配列構造であると判断する。即ち、図7Bの画素A40とその下側に隣接する補間画素との間が境界である(補間画素の生成位置は下側黒帯領域内の位置である)と判断する。そして、補間画素の生成位置に対し、図7Bの画素B40の画素値を有するフィールド間補間画素を生成する(S208;フィールド間補間処理)。なお、画素B40ではなく画素C40の画素値を有するフィールド内補間画素を生成してもよい。
N−2フィールドの画素値が下側黒帯領域の画素値と等しくない場合には(S206:NO)、図7Aのような画素配列構造であると判断する。即ち、図7Aの画素C30とその上側に隣接する補間画素との間が境界である(補間画素の生成位置は映像領域内の位置である)と判断する。そして、S207へ進む。
When the pixel value of the N-2 field is equal to the pixel value of the lower black belt region (S206: YES), the interpolation data generation unit 105 determines that the pixel arrangement structure is as shown in FIG. 7B. That is, it is determined that the boundary is between the pixel A40 in FIG. 7B and the interpolation pixel adjacent to the lower side (the generation position of the interpolation pixel is a position in the lower black belt region). Then, the inter-field interpolation pixel having the pixel value of the pixel B 40 in FIG. 7B is generated at the interpolation pixel generation position (S208; inter-field interpolation processing). An intra-field interpolation pixel having a pixel value of the pixel C40 instead of the pixel B40 may be generated.
When the pixel value of the N-2 field is not equal to the pixel value of the lower black belt region (S206: NO), it is determined that the pixel arrangement structure is as shown in FIG. 7A. That is, it is determined that the boundary is between the pixel C30 in FIG. 7A and the adjacent interpolation pixel on the upper side (the generation position of the interpolation pixel is a position in the video area). Then, the process proceeds to S207.

S207では、補間画素の生成位置での動き情報が“0”か否かを判定する。動き情報が“0”である場合には(S207:YES)、S208へ進み、動き情報が“1”である場合には(S207:NO)、S209へ進む。このとき、S208では、補間画素の生成位置に対し、図7Aの画素B30の画素値を有するフィールド間補間画素が生成され
る。S209では、フィールド内補間画素生成部104が、補間画素の生成位置に対し、N−1フィールドにおいて該生成位置の上側に隣接する位置の画素値(図7Aの画素A30の画素値)を有するフィールド内補間画素を生成する。そして、補間データ生成部105が、補間画素の生成位置に対し、該フィールド内補間画素を生成する(映像領域の画素値を用いたフィールド内補間処理)。
なお、フィールド内補間画素生成部104は、補間データ生成部105での補間画素の生成が行われる前に、補間画素の生成位置毎のフィールド内補間画素を生成していてもよい。
In S207, it is determined whether or not the motion information at the interpolation pixel generation position is “0”. If the motion information is “0” (S207: YES), the process proceeds to S208, and if the motion information is “1” (S207: NO), the process proceeds to S209. At this time, in S208, the inter-field interpolation pixel having the pixel value of the pixel B30 in FIG. 7A is generated at the interpolation pixel generation position. In S209, the intra-field interpolation pixel generation unit 104 has a pixel value (a pixel value of the pixel A30 in FIG. 7A) at a position adjacent to the generation position of the interpolation pixel in the N-1 field above the generation position. An inner interpolation pixel is generated. Then, the interpolation data generation unit 105 generates the intra-field interpolation pixel for the interpolation pixel generation position (intra-field interpolation processing using the pixel value of the video area).
The intra-field interpolation pixel generation unit 104 may generate an intra-field interpolation pixel for each interpolation pixel generation position before the interpolation data generation unit 105 generates the interpolation pixel.

以上の処理により、補間画素の生成位置が映像領域内である場合には、映像領域内の画素のみを用いて補間画素が生成され、補間画素の生成位置が黒帯領域内である場合には、黒帯領域内の画素のみを用いて補間画素が生成されることとなる。それにより、動き適応型インターレース・プログレッシブ変換における該境界でのラインフリッカの発生を抑制することができる。   With the above processing, when the interpolation pixel generation position is within the video area, the interpolation pixel is generated using only the pixels within the video area, and when the interpolation pixel generation position is within the black belt area. Therefore, an interpolation pixel is generated using only the pixels in the black belt region. Thereby, it is possible to suppress the occurrence of line flicker at the boundary in the motion adaptive interlace / progressive conversion.

また、本実施例の構成によれば、ライン毎の代表画素値を用いて、黒帯領域(レターボックス領域)と映像領域との境界が検出されるため、レターボックス領域と映像領域との境界を精度良く検出することができる。具体的には、画素位置毎に境界の位置か否かを判断する場合に生じる、境界の位置の誤検出(誤判断)を抑制することができる。
また、本実施例では、画像の上側から下側に向かって上側境界を検出し、画像の下側から上側に向かって上側境界を検出することにより、上側境界と下側境界をより精度良く検出することが可能となる。具体的には、映像領域内に暗いラインが存在する場合などに生じ得る境界の誤検出を抑制することができる。
Also, according to the configuration of the present embodiment, the boundary between the black belt region (letter box region) and the video region is detected using the representative pixel value for each line, so the boundary between the letter box region and the video region. Can be detected with high accuracy. Specifically, it is possible to suppress erroneous detection (incorrect determination) of the boundary position that occurs when determining whether or not each pixel position is the boundary position.
In this embodiment, the upper boundary is detected from the upper side to the lower side of the image, and the upper boundary is detected from the lower side to the upper side of the image, thereby detecting the upper boundary and the lower boundary with higher accuracy. It becomes possible to do. Specifically, it is possible to suppress erroneous detection of a boundary that may occur when a dark line exists in the video area.

なお、本実施例では、フィールド間補間画素を生成する際にN−2フィールド内の画素を用いる構成としたが、Nフィールド内の画素、または、Nフィールド内の画素とN−2フィールド内の画素を用いてフィールド間補間画素を生成してもよい。
なお、本実施例では、動き情報を2値(0/1)とした場合について説明したが、動き情報は複数ビットの情報であってもよい。例えば、動き情報が2ビット(0〜3)で表される場合には、動きの大きさが大きいほど大きな値が動き情報として設定されればよい。そして、動き情報が“0”の場合に補間画素としてフィールド間補間画素を生成し、“3”の場合にフィールド内補間画素を生成すればよい。補間画素の生成位置での映像の動きが小さい場合(つまり、動き情報が“1”又は“2”の場合)には、フィールド間補間画素とフィールド内補間画素を重み付け合成して得られた画素を補間画素としてもよい。
なお、本実施例では、代表画素値としてラインMAX輝度値を用いた場合について説明したが、代表画素値はそのラインを代表する画素値であればよい。例えば、複数の画素値の平均値を代表画素値としてもよい。
なお、本実施例では、画像の上側から下側に向かって上側境界を検出し、画像の下側から上側に向かって上側境界を検出する構成としたが、境界の検出方法はこれに限らない。例えば、画像の中央から上下に向かって上側境界や下側境界を検出してもよい。ライン毎の代表画素値を用いて判定すれば、上記作用効果を得ることができる。
In this embodiment, the pixel in the N-2 field is used when generating the inter-field interpolation pixel. However, the pixel in the N field, or the pixel in the N field and the pixel in the N-2 field are used. Inter-field interpolation pixels may be generated using pixels.
In this embodiment, the case where the motion information is binary (0/1) has been described. However, the motion information may be multi-bit information. For example, when the motion information is represented by 2 bits (0 to 3), a larger value may be set as the motion information as the magnitude of the motion is larger. Then, an inter-field interpolation pixel may be generated as an interpolation pixel when the motion information is “0”, and an intra-field interpolation pixel may be generated when the motion information is “3”. When the motion of the video at the interpolation pixel generation position is small (that is, when the motion information is “1” or “2”), the pixel obtained by weighted synthesis of the inter-field interpolation pixel and the intra-field interpolation pixel May be interpolated pixels.
In this embodiment, the case where the line MAX luminance value is used as the representative pixel value has been described. However, the representative pixel value may be a pixel value representing the line. For example, an average value of a plurality of pixel values may be used as the representative pixel value.
In this embodiment, the upper boundary is detected from the upper side to the lower side of the image and the upper boundary is detected from the lower side to the upper side of the image. However, the boundary detection method is not limited to this. . For example, the upper boundary or the lower boundary may be detected from the center of the image upward and downward. If the determination is made using the representative pixel value for each line, the above-described effects can be obtained.

なお、本実施例では、oddフィールドとevenフィールドとで、境界黒帯ライン番号が等しい場合について説明したが、境界黒帯ライン番号はoddフィールドとevenフィールドとで異なっていてもよい。その場合であっても、上述した方法で同様の効果を得ることができる。
なお、本実施例では、代表画素値を決定する際にライン上の全ての画素を用いるものとしたが、ラインを代表する画素値を決定することができる程度の数の画素を用いればよい。例えば、ライン上の全画素数の半分の画素を用いて代表画素値を決定してもよい。
In this embodiment, the description has been given of the case where the odd black line number is the same between the odd field and the even field, but the black boundary line number may be different between the odd field and the even field. Even in that case, the same effect can be obtained by the method described above.
In this embodiment, all the pixels on the line are used when determining the representative pixel value. However, the number of pixels that can determine the pixel value representing the line may be used. For example, the representative pixel value may be determined using half of the total number of pixels on the line.

なお、本実施例では、境界の位置の情報として境界黒帯ライン番号を用いた場合について説明したが、境界の位置の情報はこれに限らない。境界を挟む2つの隣接ラインのうち、映像領域内のラインを示す値を境界の位置の情報としてもよい。図4のS106や図6のS206の後で判断される境界のより具体的な位置を表す情報であってもよい。
なお、本実施例では、境界決定部102から境界の位置の情報と黒帯領域の画素値の情報が出力されるものとしたが、出力される情報はこれらに限らない。補間画素の生成位置が黒帯領域内なのか映像領域内なのかを判断できればどのような情報であってもよい。例えば、図4のS106や図6のS206の後で判断される位置を表す情報のみが出力されてもよい。境界黒帯ライン番号、及び、境界補間ラインに対応するN−2フィールドのラインが黒帯領域内のラインなのか否かを表す情報が出力されてもよい。
In this embodiment, the case where the boundary black belt line number is used as the boundary position information has been described. However, the boundary position information is not limited to this. Of two adjacent lines sandwiching the boundary, a value indicating a line in the video area may be used as boundary position information. Information representing a more specific position of the boundary determined after S106 in FIG. 4 or S206 in FIG. 6 may be used.
In this embodiment, the boundary position information and the pixel value information of the black belt region are output from the boundary determination unit 102, but the output information is not limited to these. Any information may be used as long as it can be determined whether the interpolation pixel generation position is in the black belt region or the video region. For example, only information representing the position determined after S106 in FIG. 4 or S206 in FIG. 6 may be output. Information indicating whether or not the boundary black belt line number and the line of the N-2 field corresponding to the boundary interpolation line is a line in the black belt region may be output.

<実施例2>
実施例1では、代表画素値を決定する際に用いる画素について、そのライン上に位置すること以外に、特に制約を設けていなかった。本実施例では、代表画素値を決定する際に用いる画素を限定する構成について説明する。
<Example 2>
In the first embodiment, the pixel used for determining the representative pixel value is not particularly restricted other than being positioned on the line. In the present embodiment, a configuration for limiting the pixels used when determining the representative pixel value will be described.

具体的には、入力映像信号として、図11Bに示すように、画面の水平方向の一部の範囲において映像領域の上下にレターボックス領域(黒帯領域)を有する映像の信号が入力されることがある。このような入力映像信号は、アスペクト比が16:9の画面に4:3の映像を表示するための信号などである。図11Bの例は、フルハイビジョン画像(1920画素×1080ライン(インターレースでは1920画素×540ライン))において、映像領域と黒帯領域の左右にそれぞれ水平240画素の枠領域が存在する場合の例である。即ち、内側の水平1440画素が映像領域及び(その上下に位置する)黒帯領域となる。枠領域内の画像は、通常、静止している画像(絵柄の付いた画像)である。
このような入力映像信号に対し、実施例1の方法で境界を検出すると、境界の誤検出や、枠領域内の画質の劣化を招く虞がある。本実施例では、それらの問題を解決することのできる構成について説明する。
Specifically, as shown in FIG. 11B, as an input video signal, a video signal having letterbox areas (black band areas) above and below the video area in a partial range in the horizontal direction of the screen is input. There is. Such an input video signal is a signal for displaying a 4: 3 video on a screen having an aspect ratio of 16: 9. The example of FIG. 11B is an example in the case where a frame area of 240 pixels horizontally exists on the left and right of the video area and the black belt area in a full high-definition image (1920 pixels × 1080 lines (1920 pixels × 540 lines in interlace)). is there. That is, the inner horizontal 1440 pixels are the video area and the black belt area (located above and below it). The image in the frame area is usually a still image (image with a pattern).
If the boundary of such an input video signal is detected by the method of the first embodiment, there is a risk of erroneous detection of the boundary and deterioration of image quality in the frame area. In this embodiment, a configuration that can solve these problems will be described.

図8Aは、実施例2に係る映像処理装置の機能構成を示すブロック図である。なお、実施例1(図1A)と同じ機能については同じ符号を付し、その説明は省略する。
本実施例では、境界決定部602、フィールド内補間画素生成部604、及び、補間データ生成部605に境界範囲設定値が入力される。境界範囲設定値は、映像の水平方向のどの範囲に映像領域や黒帯領域が存在するのかを示す値(上記一部の範囲を示す情報)である。映像領域や黒帯領域が存在する範囲(境界範囲)とは、映像の水平方向の範囲から水平方向の枠領域の範囲を除いた範囲である(図11Bの例では、中央の水平1440画素の範囲が境界範囲となる)。具体的には、境界範囲設定値は、映像領域や黒帯領域の水平方向の両端の位置を示す値(x座標;図11Bの例では、240と1679)などである。
本実施例では、枠領域の範囲(図11Bの例では、x座標=0〜239、及び、1680〜1919の範囲)を境界の検出範囲から除外し、それ以外の範囲(図11Bの例では、x座標=240〜1679までの範囲)内の画像から境界の検出を行う。これにより、境界の誤検出を抑制するとともに、枠領域内の画質の劣化を抑制することが可能となる。
FIG. 8A is a block diagram of a functional configuration of the video processing apparatus according to the second embodiment. In addition, the same code | symbol is attached | subjected about the same function as Example 1 (FIG. 1A), and the description is abbreviate | omitted.
In this embodiment, the boundary range setting value is input to the boundary determination unit 602, the intra-field interpolation pixel generation unit 604, and the interpolation data generation unit 605. The boundary range setting value is a value (information indicating the partial range described above) indicating in which range in the horizontal direction of the video the video region or the black belt region exists. The range (boundary range) in which the video area and the black belt area exist is a range obtained by excluding the horizontal frame area from the horizontal range of the video (in the example of FIG. 11B, the center horizontal 1440 pixels). The range becomes the boundary range). Specifically, the boundary range setting value is a value (x coordinate; 240 and 1679 in the example of FIG. 11B) indicating the positions of the video region and the black belt region at both ends in the horizontal direction.
In this embodiment, the range of the frame region (in the example of FIG. 11B, the x coordinate = 0 to 239 and the range of 1680 to 1919) is excluded from the boundary detection range, and the other range (in the example of FIG. 11B, The boundary is detected from the image within the range of x coordinate = 240 to 1679. Accordingly, it is possible to suppress the erroneous detection of the boundary and to suppress the deterioration of the image quality in the frame area.

境界決定部602は、入力映像信号から黒帯領域と映像領域の境界を決定する。境界決定部602は、図8Bに示すように、代表画素値生成部701と境界検出部702を有する。
代表画素値生成部701は、境界範囲設定値を用いて、ライン毎に、上記一部の範囲(境界範囲)内における複数の画素を用いて代表画素値を生成する。本実施例では、境界範囲内の全ての画素のうち、最も輝度の高い画素値を有する画素を検出し、該画素値を代表画素値として境界検出部702へ出力する。
境界検出部702の機能は、図1Bの境界検出部202と同様のため、説明は省略する。
フィールド内補間画素生成部604、補間データ生成部605は、境界決定部602から出力された情報と境界範囲設定値を元に、処理を行う。具体的な処理については以下で詳しく説明する。
The boundary determination unit 602 determines the boundary between the black belt area and the video area from the input video signal. The boundary determination unit 602 includes a representative pixel value generation unit 701 and a boundary detection unit 702 as illustrated in FIG. 8B.
The representative pixel value generation unit 701 generates a representative pixel value using a plurality of pixels within the partial range (boundary range) for each line using the boundary range setting value. In this embodiment, a pixel having the highest luminance pixel value is detected from all the pixels in the boundary range, and the pixel value is output to the boundary detection unit 702 as a representative pixel value.
The function of the boundary detection unit 702 is the same as that of the boundary detection unit 202 in FIG.
The intra-field interpolation pixel generation unit 604 and the interpolation data generation unit 605 perform processing based on the information output from the boundary determination unit 602 and the boundary range setting value. Specific processing will be described in detail below.

(上側境界に隣接する補間ライン上の補間画素の生成方法)
図9を用いて、上側境界に隣接する補間ライン(上側境界補間ライン)上の補間画素の生成方法について説明する。
まず、IP変換部620が、境界決定部602から上側境界黒帯ライン番号と上側黒帯領域の画素値の情報を取得すると共に、境界範囲設定値を取得する(S301)。そして、S302へ進む。具体的には、フィールド内補間画素生成部604が上側境界黒帯ライン番号と境界範囲設定値を取得し、補間データ生成部605が上側境界黒帯ライン番号、上側黒帯領域の画素値の情報、及び、境界範囲設定値を取得する。
(Generation method of interpolation pixels on the interpolation line adjacent to the upper boundary)
A method for generating an interpolation pixel on an interpolation line (upper boundary interpolation line) adjacent to the upper boundary will be described with reference to FIG.
First, the IP conversion unit 620 acquires information on the upper boundary black belt line number and the pixel value of the upper black belt region from the boundary determination unit 602, and also acquires a boundary range setting value (S301). Then, the process proceeds to S302. Specifically, the intra-field interpolation pixel generation unit 604 acquires the upper boundary black belt line number and the boundary range setting value, and the interpolation data generation unit 605 provides information on the upper boundary black belt line number and the pixel value of the upper black belt region. , And the boundary range setting value is acquired.

S302〜S305,S311の処理は、それぞれ、図4のS102〜S105,S110の処理と同様のため、説明は省略する。
S305において、補間画素の生成位置が上側境界補間ライン上の位置であると判定された場合には、補間データ生成部605が、境界範囲設定値を元に、補間画素の生成位置が境界範囲内か否かを判定する(S306)。補間画素の生成位置が境界範囲外である場合には(S306:NO)、S311へ進み、境界範囲内である場合には(S306:YES)、S307へ進む。S307〜S310の処理は、図4のS106〜S109の処理と同様のため、説明は省略する。
The processes in S302 to S305 and S311 are the same as the processes in S102 to S105 and S110 in FIG.
If it is determined in S305 that the interpolation pixel generation position is a position on the upper boundary interpolation line, the interpolation data generation unit 605 determines that the interpolation pixel generation position is within the boundary range based on the boundary range setting value. It is determined whether or not (S306). If the interpolation pixel generation position is outside the boundary range (S306: NO), the process proceeds to S311. If the interpolation pixel generation position is within the boundary range (S306: YES), the process proceeds to S307. The processing of S307 to S310 is the same as the processing of S106 to S109 in FIG.

(下側境界に隣接する補間ライン上の補間画素の生成方法)
図10を用いて、下側境界に隣接する補間ライン(下側境界補間ライン)上の補間画素の生成方法について説明する。
まず、IP変換部620が、境界決定部602から下側境界黒帯ライン番号と下側黒帯領域の画素値の情報を取得すると共に、境界範囲設定値を取得する(S401)。そして、S402へ進む。具体的には、フィールド内補間画素生成部604が下側境界黒帯ライン番号と境界範囲設定値を取得し、補間データ生成部605が下側境界黒帯ライン番号、下側黒帯領域の画素値の情報、及び、境界範囲設定値を取得する。
(Generation method of interpolation pixels on the interpolation line adjacent to the lower boundary)
A method for generating interpolation pixels on an interpolation line (lower boundary interpolation line) adjacent to the lower boundary will be described with reference to FIG.
First, the IP conversion unit 620 acquires information on the lower boundary black belt line number and the pixel value of the lower black belt region from the boundary determination unit 602 and also acquires a boundary range setting value (S401). Then, the process proceeds to S402. Specifically, the intra-field interpolation pixel generation unit 604 acquires the lower boundary black band line number and the boundary range setting value, and the interpolation data generation unit 605 acquires the lower boundary black band line number and the pixels in the lower black band region. Get value information and boundary range settings.

S402〜S405,S411の処理は、それぞれ、図6のS202〜S205,S210の処理と同様のため、説明は省略する。
S405において、補間画素の生成位置が下側境界補間ライン上の位置であると判定された場合には、補間データ生成部605が、境界範囲設定値を元に、補間画素の生成位置が境界範囲内か否かを判定する(S406)。補間画素の生成位置が境界範囲外である場合には(S406:NO)、S411へ進み、境界範囲内である場合には(S406:YES)、S407へ進む。S407〜S410の処理は、図6のS206〜S209の処理と同様のため、説明は省略する。
The processes of S402 to S405 and S411 are the same as the processes of S202 to S205 and S210 of FIG.
If it is determined in S405 that the interpolation pixel generation position is a position on the lower boundary interpolation line, the interpolation data generation unit 605 determines that the interpolation pixel generation position is the boundary range based on the boundary range setting value. It is determined whether it is within (S406). When the interpolation pixel generation position is outside the boundary range (S406: NO), the process proceeds to S411, and when it is within the boundary range (S406: YES), the process proceeds to S407. The processing of S407 to S410 is the same as the processing of S206 to S209 in FIG.

以上の処理により、補間画素の生成位置が映像領域内である場合には、映像領域内の画素のみを用いて補間画素が生成され、補間画素の生成位置が黒帯領域内である場合には、黒帯領域内の画素のみを用いて補間画素が生成されることとなる。それにより、動き適応型インターレース・プログレッシブ変換における該境界でのラインフリッカの発生を抑制することができる。   With the above processing, when the interpolation pixel generation position is within the video area, the interpolation pixel is generated using only the pixels within the video area, and when the interpolation pixel generation position is within the black belt area. Therefore, an interpolation pixel is generated using only the pixels in the black belt region. Thereby, it is possible to suppress the occurrence of line flicker at the boundary in the motion adaptive interlace / progressive conversion.

また、本実施例の構成によれば、境界範囲内の複数の画素を用いて代表画素値が決定されるため、代表画素値として黒帯領域や映像領域を示す値を得ることができる(外枠領域
の画素値による影響の無い代表画素値を得ることができる)。それにより、画面の水平方向の一部の範囲において映像領域の上下に黒帯領域を有する映像に対しても、黒帯領域と映像領域との境界を精度良く検出することが可能となる。
Further, according to the configuration of the present embodiment, the representative pixel value is determined using a plurality of pixels within the boundary range, and thus a value indicating a black belt region or a video region can be obtained as the representative pixel value (outside A representative pixel value that is not affected by the pixel value in the frame area can be obtained). This makes it possible to accurately detect the boundary between the black belt region and the video region even for an image having black belt regions above and below the video region in a partial range in the horizontal direction of the screen.

105,605 補間データ生成部
201,701 代表画素値生成部
202,702 境界検出部
105, 605 Interpolation data generation unit 201, 701 Representative pixel value generation unit 202, 702 Boundary detection unit

Claims (4)

インターレース方式の入力映像信号を補間によりプログレッシブ方式の出力映像信号に変換する映像処理装置であって、
前記入力映像信号のライン毎に、そのライン上の複数の画素を用いて、そのラインを代表する画素値である代表画素値を生成する代表画素値生成手段と、
前記入力映像信号が映像領域の上下にレターボックス領域を有する映像信号である場合に、前記ライン毎の代表画素値を用いて、該入力映像信号からレターボックス領域と映像領域との境界を検出する境界検出手段と、
動き適応型インターレース・プログレッシブ変換により補間画素を生成する補間画素生成手段と、
を有し、
前記補間画素生成手段は、前記境界検出手段で検出された境界を元に、補間画素の生成位置が映像領域内の位置なのかレターボックス領域内の位置なのかを判断し、補間画素の生成位置が前記映像領域内である場合には、映像領域内の画素のみを用いて補間画素を生成し、補間画素の生成位置がレターボックス領域内である場合には、レターボックス領域内の画素のみを用いて補間画素を生成する
ことを特徴とする映像処理装置。
A video processing device for converting an interlaced input video signal into a progressive output video signal by interpolation,
For each line of the input video signal, using a plurality of pixels on the line, representative pixel value generating means for generating a representative pixel value that is a pixel value representing the line;
When the input video signal is a video signal having letterbox areas above and below the video area, a boundary between the letterbox area and the video area is detected from the input video signal using the representative pixel value for each line. Boundary detection means;
Interpolation pixel generating means for generating an interpolation pixel by motion adaptive interlace / progressive conversion;
Have
The interpolation pixel generation means determines whether the interpolation pixel generation position is a position in the video area or a letterbox area based on the boundary detected by the boundary detection means, and generates the interpolation pixel generation position. Is within the video area, an interpolation pixel is generated using only the pixels in the video area. If the generation position of the interpolation pixel is in the letter box area, only the pixels in the letter box area are generated. An image processing apparatus characterized in that an interpolation pixel is generated.
前記入力映像信号は、画面の水平方向の一部の範囲において映像領域の上下にレターボックス領域を有する映像の信号であり、
代表画素値生成手段は、前記一部の範囲を示す情報を取得し、ライン毎に、前記一部の範囲内における複数の画素を用いて代表画素値を生成する
ことを特徴とする請求項1に記載の映像処理装置。
The input video signal is a video signal having letterbox areas above and below the video area in a partial range in the horizontal direction of the screen,
2. The representative pixel value generation unit acquires information indicating the partial range, and generates a representative pixel value by using a plurality of pixels in the partial range for each line. The video processing apparatus described in 1.
前記境界検出手段は、
上側のラインから順に、そのラインの代表画素値を用いて、該ラインがレターボックス領域内のラインなのか映像領域内のラインなのかを判断することにより、上側のレターボックス領域と映像領域との境界を検出し、
下側のラインから順に、そのラインの代表画素値を用いて、該ラインがレターボックス領域内のラインなのか映像領域内のラインなのかを判断することにより、下側のレターボックス領域と映像領域との境界を検出する
ことを特徴とする請求項1または2に記載の映像処理装置。
The boundary detection means includes
In order from the upper line, the representative pixel value of the line is used to determine whether the line is a line in the letterbox area or a line in the video area. Detect boundaries,
In order from the lower line, by using the representative pixel value of the line, it is judged whether the line is a line in the letterbox area or a line in the video area, so that the lower letterbox area and the video area The video processing apparatus according to claim 1, wherein a boundary between the video processing apparatus and the video processing apparatus is detected.
インターレース方式の入力映像信号を補間によりプログレッシブ方式の出力映像信号に変換する映像処理装置の制御方法であって、
前記入力映像信号のライン毎に、そのライン上の複数の画素を用いて、そのラインを代表する画素値である代表画素値を生成する代表画素値生成ステップと、
前記入力映像信号が映像領域の上下にレターボックス領域を有する映像信号である場合に、前記ライン毎の代表画素値を用いて、該入力映像信号からレターボックス領域と映像領域との境界を検出する境界検出ステップと、
動き適応型インターレース・プログレッシブ変換により補間画素を生成する補間画素生成ステップと、
を有し、
前記補間画素生成ステップは、前記境界検出ステップで検出された境界を元に、補間画素の生成位置が映像領域内の位置なのかレターボックス領域内の位置なのかを判断し、補間画素の生成位置が前記映像領域内である場合には、映像領域内の画素のみを用いて補間画素を生成し、補間画素の生成位置がレターボックス領域内である場合には、レターボックス領域内の画素のみを用いて補間画素を生成するステップである
ことを特徴とする映像処理装置の制御方法。
A control method of a video processing apparatus for converting an interlaced input video signal into a progressive output video signal by interpolation,
For each line of the input video signal, using a plurality of pixels on the line, a representative pixel value generating step for generating a representative pixel value that is a pixel value representing the line;
When the input video signal is a video signal having letterbox areas above and below the video area, a boundary between the letterbox area and the video area is detected from the input video signal using the representative pixel value for each line. A boundary detection step;
An interpolation pixel generation step for generating an interpolation pixel by motion adaptive interlace / progressive conversion;
Have
The interpolation pixel generation step determines whether the interpolation pixel generation position is a position in the video area or a letterbox area based on the boundary detected in the boundary detection step, and generates the interpolation pixel generation position. Is within the video area, an interpolation pixel is generated using only the pixels in the video area. If the generation position of the interpolation pixel is in the letter box area, only the pixels in the letter box area are generated. A method for controlling an image processing apparatus, comprising: a step of generating an interpolation pixel using the image processing apparatus.
JP2009249049A 2009-10-29 2009-10-29 Video processing apparatus, and controlling method therein Withdrawn JP2011097339A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009249049A JP2011097339A (en) 2009-10-29 2009-10-29 Video processing apparatus, and controlling method therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009249049A JP2011097339A (en) 2009-10-29 2009-10-29 Video processing apparatus, and controlling method therein

Publications (1)

Publication Number Publication Date
JP2011097339A true JP2011097339A (en) 2011-05-12

Family

ID=44113791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009249049A Withdrawn JP2011097339A (en) 2009-10-29 2009-10-29 Video processing apparatus, and controlling method therein

Country Status (1)

Country Link
JP (1) JP2011097339A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013131814A (en) * 2011-12-20 2013-07-04 Fujitsu Semiconductor Ltd Video detection device, video recording device, video recording and reproducing device, video detection method, video recording method and video recording and reproducing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013131814A (en) * 2011-12-20 2013-07-04 Fujitsu Semiconductor Ltd Video detection device, video recording device, video recording and reproducing device, video detection method, video recording method and video recording and reproducing method

Similar Documents

Publication Publication Date Title
JP5039192B2 (en) Spatio-temporal adaptive video deinterlacing
JP2006324979A (en) Image still area judgment device
JP3893227B2 (en) Scanning line interpolation apparatus and scanning line interpolation method
JPH07288778A (en) Method and device for detecting interpolation line
JP5350501B2 (en) Video processing apparatus and video processing method
KR100422575B1 (en) An Efficient Spatial and Temporal Interpolation system for De-interlacing and its method
US9495728B2 (en) Method for edge detection, method for motion detection, method for pixel interpolation utilizing up-sampling, and apparatuses thereof
US8704945B1 (en) Motion adaptive deinterlacer
JP5241632B2 (en) Image processing circuit and image processing method
JP4746909B2 (en) Auxiliary data processing of video sequences
JP2011097339A (en) Video processing apparatus, and controlling method therein
JP2007067652A (en) Image processing apparatus
JP5300607B2 (en) Video processing apparatus and control method thereof
JP4551343B2 (en) Video processing apparatus and video processing method
JP2009177524A (en) Scanning line interpolating device and scanning line interpolating method
JP2003289511A (en) Image scan converting method and apparatus
JP2009265688A (en) Movement detection device
JP5018198B2 (en) Interpolation signal generation circuit, interpolation signal generation method, program, and video signal processing apparatus
JP4507841B2 (en) Image signal processing apparatus and image signal processing method
KR100252949B1 (en) scan converter
JP5080783B2 (en) Scanning line interpolation apparatus and scanning line interpolation method
JP2007019708A (en) Image processing apparatus
JP2006229615A (en) Interpolated pixel generation circuit
TWI394457B (en) Text protection device and related motion adaptive de-interlacing device
JP4356468B2 (en) Video signal processing device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130108