JP2006060375A - Sequential-scanning converter - Google Patents
Sequential-scanning converter Download PDFInfo
- Publication number
- JP2006060375A JP2006060375A JP2004238292A JP2004238292A JP2006060375A JP 2006060375 A JP2006060375 A JP 2006060375A JP 2004238292 A JP2004238292 A JP 2004238292A JP 2004238292 A JP2004238292 A JP 2004238292A JP 2006060375 A JP2006060375 A JP 2006060375A
- Authority
- JP
- Japan
- Prior art keywords
- interpolation
- pixel
- line
- pixels
- interpolated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Systems (AREA)
Abstract
Description
本発明は、飛越し走査(インターレース走査)の動画像信号等を順次走査(プログレッシブ走査)の動画像信号に変換(IP変換)するときの補間要素の補間のためのプログラム及び装置に関するものである。 The present invention relates to a program and an apparatus for interpolating interpolation elements when converting a moving image signal or the like of interlaced scanning (interlaced scanning) into a moving image signal of progressive scanning (progressive scanning) (IP conversion). .
一般に動画像信号は、飛越し走査と順次走査の2種類の走査構造を持つ。飛越し走査は、走査線数が順次走査の走査線数の半分に間引かれている。 In general, a moving image signal has two types of scanning structures, interlaced scanning and progressive scanning. In interlaced scanning, the number of scanning lines is reduced to half of the number of scanning lines in sequential scanning.
また、テレビ放送では飛越し走査が一般的であるが、デジタル放送では順次走査も使われている。パソコン(PC)用のディスプレイは、細かな文字を表示するため順次走査となっている。 In television broadcasting, interlaced scanning is generally used, but in digital broadcasting, sequential scanning is also used. A display for a personal computer (PC) is sequentially scanned to display fine characters.
一方、プラズマディスプレイや液晶ディスプレイなど、マトリックス型の表示ドライバをもつものでは、飛越し走査表示は困難なので順次走査表示が行われる。 On the other hand, since a display having a matrix type display driver such as a plasma display or a liquid crystal display is difficult to perform interlaced scanning display, sequential scanning display is performed.
また、ブラウン管式テレビ受像機で、HDTV(ハイビジョン)の表示系をもつものは、走査線数の少ない現行放送の画像を表示しようとした場合、飛越し走査のままでは偏向周波数が低くなり過ぎるので、2倍の偏向周波数となる順次走査で表示するものが多い。 Also, CRT television receivers with HDTV (high-definition) display systems, when trying to display current broadcast images with a small number of scanning lines, will cause the deflection frequency to be too low with interlace scanning. In many cases, images are displayed by sequential scanning with a doubled deflection frequency.
従来、IP変換を行うフィールド内での補間手法には、次のようなものがある。 Conventionally, there are the following interpolation methods in the field for IP conversion.
ア) 図16に示すように上下のライン画素の平均値で補間を行う。 A) Interpolation is performed with the average value of the upper and lower line pixels as shown in FIG.
イ) 図17に示すようにフィールド内の斜め方向の相関を利用して補間を行う(特許文献1)
しかしながら、以上のような背景技術には、次のような不都合がある。 However, the background art as described above has the following disadvantages.
(1)前記(ア)の手法
図16に示すように、上下画素平均値による補間のみであるため、垂直周波数が高いような画像部分、つまり、垂直方向に変化の激しい画像部分では正確な補間をおこなうことができず、斜線がギザギザになってしまう。
(1) Method (a) As shown in FIG. 16, since interpolation is based only on the upper and lower pixel average values, accurate interpolation is performed in an image portion where the vertical frequency is high, that is, an image portion where the vertical direction changes rapidly. Can not be performed, the diagonal line becomes jagged.
(2)前記(イ)の手法
図17(a)にDb、Ddで示すように、斜め方向の相関の検出が、水平方向に2画素離れた位置で行われる。この手法によれば、同図(b)に示すような水平2画素以上の幅の斜め線の場合は、同図に矢印で示すように斜め線と同方向の相関が小さくなる。従って、正しい補間が可能となる。
(2) Method (a) As shown by Db and Dd in FIG. 17A, the correlation in the oblique direction is detected at a position two pixels away in the horizontal direction. According to this method, in the case of an oblique line having a width of two or more horizontal pixels as shown in FIG. 5B, the correlation in the same direction as the oblique line is reduced as indicated by an arrow in the figure. Therefore, correct interpolation is possible.
しかし、同図(c)に示すような水平2画素未満の幅の斜め線の場合、同図に矢印で示すように斜め線と逆方向の相関が小さくなってしまう。このため、誤った補間が行われてしまうことになる。 However, in the case of an oblique line having a width of less than two horizontal pixels as shown in FIG. 5C, the correlation between the oblique line and the opposite direction becomes small as indicated by an arrow in the figure. For this reason, erroneous interpolation will be performed.
そこで、本発明は、以上のような点に着目したもので、フィールド内補間において正確な補間を行うことができ、補間後の画像の画質の向上を図ることができる順次走査変換のプログラム及びその装置を提供することを目的とする。 Therefore, the present invention focuses on the above points, and a program for sequential scan conversion capable of performing accurate interpolation in intra-field interpolation and improving the image quality of the image after interpolation, and the program thereof An object is to provide an apparatus.
本発明は、飛び越し走査画像の走査線を補間して順次走査画像に変換する順次走査変換装置において、
前記飛び越し走査画像の補間すべき画素を順次特定し、該特定した補間すべき画素を中心とし、この補間すべき画素に対した所定の画素範囲を順次設定する画素範囲設定手段と、前記画素範囲が設定される毎に、この画素範囲において前記補間すべき画素に対応した補間方向を複数設定する補間方向設定手段と、各前記複数の補間方向に存在する画素同士の差分値を検出し、前記補間すべき画素に対して最も相関する補間方向を検出する補間方向検出手段と、前記補間方向検出手段より検出された補間方向上に位置する前記設定された画素範囲中にある画素の値の平均値を求め、該平均値に前記補間すべき画素の値を置換することで前記順次走査画像に対応した画素を得る置換手段とを備えたことを要旨とする。
The present invention relates to a sequential scanning conversion apparatus that interpolates scanning lines of an interlaced scanning image and converts the scanning line into a sequential scanning image.
A pixel range setting means for sequentially specifying pixels to be interpolated in the interlaced scanning image, and sequentially setting a predetermined pixel range for the pixels to be interpolated around the specified pixel to be interpolated; and the pixel range Is set, a plurality of interpolation direction setting means for setting a plurality of interpolation directions corresponding to the pixel to be interpolated in this pixel range, and a difference value between pixels existing in each of the plurality of interpolation directions is detected, An interpolation direction detecting means for detecting an interpolation direction most correlated with the pixel to be interpolated, and an average of the values of the pixels in the set pixel range located on the interpolation direction detected by the interpolation direction detecting means A gist is provided with a replacement unit that obtains a value and replaces the pixel value to be interpolated with the average value to obtain a pixel corresponding to the sequentially scanned image.
以上のように本発明によれば、補間要素に対して最も影響する方向を求めて、この方向に基づく補間を行うので、フィールド内補間において正確な補間を行うことができるという効果が得られる。 As described above, according to the present invention, since the direction that has the most influence on the interpolation element is obtained and the interpolation based on this direction is performed, the effect that accurate interpolation can be performed in the intra-field interpolation can be obtained.
<実施の形態1>
本実施の形態は、コンピュータ処理によって補間画素を求める処理について説明する。
<
In the present embodiment, processing for obtaining an interpolation pixel by computer processing will be described.
図1は、本実施の形態の順次走査変換装置の概略構成図である。本実施の形態はソフトウエア(プログラム)で実施する構成を説明する。図1に示すように、本実施の形態の走査線補間方法は、インターレス方式の映像信号を補間する。そして、この映像信号を記憶するフレームメモリ1において、補間要素(単に画素ともいう)を基準にした補間要素領域を決定する補間領域設定部3(画素範囲設定手段ともいう)と、補間要素に対してメモリ8に予め設定されている方向(D1、D2、・・・)とメモリ6の係数kiとから補間要素に対してのその方向Diの依存量を求める補間方向依存量算出部4(補間方向設定手段、差分値算出手段を含む)と、補間方向依存量算出部4で求められた依存量(D1、D2、・・・)を纏めて、この結果から最適な補間方向を決定する補間方向決定部5(補間方向検出手段ともいう)と、補間方向決定部5で決定された補間方向に基づく画素と画素の平均をフレームメモリ1の補間要素の値とする補間処理部7(置換手段)とを備えている。このフレームメモリ1の画像データは、表示部2に表示される。
FIG. 1 is a schematic configuration diagram of a progressive scanning conversion apparatus according to the present embodiment. In the present embodiment, a configuration implemented by software (program) will be described. As shown in FIG. 1, the scanning line interpolation method of the present embodiment interpolates an interlaced video signal. In the
メモリ8の補間方向は、図2に示すように、補間要素の画素(IN)に対しての角度(D1、D2、・・・)を保存している。
As the interpolation direction of the
また、メモリ6には、補間要素に対しての周辺要素までの距離と係数とが対応させられて記憶されている。
Further, the
上記のように構成された順次走査変換装置について、以下に説明する。図3は、Eが求める補間要素であるとした場合に、この補間要素Eの周辺要素(垂直方向、斜め方向)を定義するための説明図である。図3は、補間ラインにA、B、C・・・・Iの周辺要素がある場合に、Eを補間要素としている。 The progressive scan conversion apparatus configured as described above will be described below. FIG. 3 is an explanatory diagram for defining peripheral elements (vertical direction and oblique direction) of the interpolation element E when E is an interpolation element to be obtained. 3 uses E as an interpolation element when there are peripheral elements A, B, C... I in the interpolation line.
図4は、補間要素Eに対して方向D1とした場合の、周辺要素に対しての方向の説明図である。 FIG. 4 is an explanatory diagram of directions with respect to peripheral elements when the direction D1 is set with respect to the interpolation element E. FIG.
また、本実施の形態では図5、図6、図7に示すように、画素ライン(補間しないライン)の各画素を定義する。 In the present embodiment, as shown in FIGS. 5, 6, and 7, each pixel of a pixel line (a line that is not interpolated) is defined.
例えば、図5(a)に示すように、補間ラインの画素A、B、C、・・・・Iの左上の画素に、記号aを付加して画素Aa、Ba、・・・Iaとする。 For example, as shown in FIG. 5A, a symbol a is added to the upper left pixels of the pixels A, B, C,... I of the interpolation line to form pixels Aa, Ba,. .
また、図5(b)に示すように、補間ラインの画素A、B、C、・・・・Iの真上の画素に、記号bを付加して画素Ab、Bb、・・・Ibとする。 Further, as shown in FIG. 5 (b), a symbol b is added to the pixels A, B, C,... I immediately above the interpolation line to add pixels Ab, Bb,. To do.
さらに、図6(a)に示すように、補間ラインの画素A、B、C、・・・・Iの右上の画素に、記号cを付加して画素Ac、Bc、・・・Icとする。 Further, as shown in FIG. 6A, a symbol c is added to the pixels on the upper right of the pixels A, B, C,... I of the interpolation line to form pixels Ac, Bc,. .
また、図6(b)に示すように、補間ラインの画素A、B、C、・・・・Iの左下の画素に、記号dを付加して画素Ad、Bd、・・・Idとする。 Further, as shown in FIG. 6B, a symbol d is added to the lower left pixels of the pixels A, B, C,... I of the interpolation line to form pixels Ad, Bd,. .
また、図7(a)に示すように、補間ラインの画素A、B、C、・・・・Iの真下の画素に、記号eを付加して画素Ae、Be、・・・Ieとする。 Further, as shown in FIG. 7A, a symbol e is added to pixels A, B, C,... I immediately below the interpolation line to form pixels Ae, Be,. .
また、図7(b)に示すように、補間ラインの画素A、B、C、・・・・Iの右下の画素に、記号fを付加して画素Af、Bf、・・・Ifとする。 Further, as shown in FIG. 7B, the symbol A is added to the lower right pixel of the pixels A, B, C,... I of the interpolation line, and the pixels Af, Bf,. To do.
図8は、本実施の形態の動作を説明するフローチャートである。図1に示す補間領域設定部3は、補間ラインの補間要素Eをフレームメモリ1に定義する(S1)。本実施の形態では、行jd、列icの領域を補間要素Eとする(図4参照)。 FIG. 8 is a flowchart for explaining the operation of the present embodiment. The interpolation area setting unit 3 shown in FIG. 1 defines the interpolation element E of the interpolation line in the frame memory 1 (S1). In the present embodiment, an area of row jd and column ic is set as an interpolation element E (see FIG. 4).
次に、補間領域設定部3は、補間要素Eを中心にして領域Qi(周辺要素を含む領域)を定義する(S2)。次に、この領域Qi上において補間要素Eを中心とした横3、縦5の画素分の領域Piを定義する(S3)。 Next, the interpolation area setting unit 3 defines an area Qi (area including peripheral elements) centering on the interpolation element E (S2). Next, a region Pi for horizontal and vertical 5 pixels centering on the interpolation element E is defined on the region Qi (S3).
そして、補間方向依存量算出部4は、メモリ8の方向Di(D1、D2、・・・・:第1の補間方向ともいう)を読み込み(S4)、この方向Diに基づく方向D1を領域Qiに定義する(S5)。
Then, the interpolation direction dependence
例えば、方向D1(角度)においては、図4に示すように、周辺要素Aに対してはD1Aの方向を、周辺要素Bに対してはD1Bの方向を、周辺要素Cに対してはD1Cの方向を、・・・・周辺要素Iに対してはD1Iの方向をそれぞれ定義(9つの成分の方向:第2の補間方向ともいう)する。これらの方向の要素は斜め3画素としている。 For example, in the direction D1 (angle), as shown in FIG. 4, the direction of D1A for the peripheral element A, the direction of D1B for the peripheral element B, and the direction of D1C for the peripheral element C For the peripheral element I, the direction of D1I is defined (the direction of nine components: also referred to as the second interpolation direction). The elements in these directions are diagonal three pixels.
つまり、D1Aは、(ja,ia)、(jb,ib)、(jc,ic)、D1Bは、(ja,ib)、(jb,ic)、(jc,id)、・・・・D1Fは、(jc,ic)、(jd,id)、(je,ie)・・・D1Iは、(je,ic)、(jf,id)、(jg,ie)と定義する。 That is, D1A is (ja, ia), (jb, ib), (jc, ic), D1B is (ja, ib), (jb, ic), (jc, id), ... D1F is , (Jc, ic), (jd, id), (je, ie)... D1I is defined as (je, ic), (jf, id), (jg, ie).
そして、補間方向依存量算出部4は、補間要素Eに対してのDi(D1)の依存量を求める(S6)。このD1の依存量の算出については、詳細に後述する。
Then, the interpolation direction dependency
次に、補間方向依存量算出部4は、方向DiがD5かどうかを判定する(S7)。ステップS7において、方向がD5ではないと判定したときは、方向Diを更新して処理をステップS6に戻す(S8)。
Next, the interpolation direction dependency
つまり、D1、D2、D3、D4、D5の順でEに対しての、それぞれの方向の依存量を求めている。 That is, the dependence amount of each direction with respect to E is obtained in the order of D1, D2, D3, D4, and D5.
ステップS7において、方向Diが最後の方向D5と判定したときは、補間方向決定部5がこれらの方向の依存量の内で、相関が最も強い方向の依存量を求める(S9)。 When it is determined in step S7 that the direction Di is the last direction D5, the interpolation direction determination unit 5 obtains a dependency amount in the direction having the strongest correlation among the dependency amounts in these directions (S9).
そして、補間方向決定部5は、相関が最も強い方向の依存量を有する方向を補間方向として決定し、この補間方向の画素値を補間処理部7に渡す(S10)。 Then, the interpolation direction determination unit 5 determines the direction having the dependency amount of the direction with the strongest correlation as the interpolation direction, and passes the pixel value in the interpolation direction to the interpolation processing unit 7 (S10).
補間処理部7は、補間方向決定部5で求められた方向の画素値(輝度)と画素値(輝度)との平均を、補間要素Eの値とする補間処理を行う(S11)。例えば、D1が最小であると判定したとき(D1が最も相関が強い)、補間要素Eは画素Eaと画素Efとの平均となる。 The interpolation processing unit 7 performs an interpolation process using the average of the pixel value (luminance) and the pixel value (luminance) in the direction obtained by the interpolation direction determination unit 5 as the value of the interpolation element E (S11). For example, when it is determined that D1 is the minimum (D1 has the strongest correlation), the interpolation element E is the average of the pixel Ea and the pixel Ef.
次に、補間処理部7は全ての補間ラインの補間要素(画素)に対して補間したかどうかを判定し(S12)、補間していないときは、次の補間要素(画素)に更新して(S13)、ステップS1に処理を戻して上記処理を行わせる。 Next, the interpolation processing unit 7 determines whether or not the interpolation elements (pixels) of all the interpolation lines have been interpolated (S12), and if not interpolated, updates to the next interpolation element (pixel). (S13), the process is returned to step S1, and the above process is performed.
図9は、補間方向Diの依存量を求めるためのフローチャートである。本実施の形態では、補間方向D1を代表にして説明する。補間方向依存量算出部4は、補間要素Eに対しての補間方向D1A{(ja,ia)、(jb,ib)、(jc,ic)}の周辺要素Mi(本実施の形態ではA(jb,ib))を読み込む(S20)。
FIG. 9 is a flowchart for obtaining the dependency amount of the interpolation direction Di. In the present embodiment, the interpolation direction D1 will be described as a representative. The interpolation direction dependency
そして、この周辺要素Miの左上の画素ai(図5のAならばAa、BならばBa、・・・IならばIa)の画素値(輝度又は階調)と右下の画素fi(図7(b)のAならばAf、BならばBf、・・・・IならばIf)の画素値(輝度又は階調)とを読み込む(S21)。次に、周辺要素Miの左上の画素aiと右下の画素fiとの画素値(輝度又は階調)との差(差分値)を求める(S22a)。次に、補間要素からの周辺要素Miとの距離Liを求めて(S22b)、この距離Liに対応する係数kiをメモリ6から選択し(S22c)、この係数kiと画素値差とを関連させてメモリ(図示せず)に記憶する(S23)。ここで、距離Liの求め方について補充する。 Then, the pixel value (luminance or gradation) of the upper left pixel ai (Aa in FIG. 5, Ba for B,... Ia for I) in FIG. 5 and the lower right pixel fi (FIG. 5). 7 (b) reads the pixel value (luminance or gradation) of Af if A, Bf if B,... If if (I) (S21). Next, the difference (difference value) between the pixel values (luminance or gradation) of the upper left pixel ai and the lower right pixel fi of the peripheral element Mi is obtained (S22a). Next, a distance Li from the interpolation element to the peripheral element Mi is obtained (S22b), a coefficient ki corresponding to the distance Li is selected from the memory 6 (S22c), and the coefficient ki is associated with the pixel value difference. And stored in a memory (not shown) (S23). Here, it supplements about the method of calculating | requiring the distance Li.
例えば、補間要素Eから周辺要素(A〜I)までの距離を求め、K0〜K3(係数k0〜k3)を算出する。この算出は、EとAの距離は3画素(もしくは√5)、EとBの距離は2画素、EとCの距離は3画素(もしくは√5)、EとDの距離は1画素、EとEの距離は0画素、・・・というように算出する。 For example, the distance from the interpolation element E to the peripheral elements (A to I) is obtained, and K0 to K3 (coefficients k0 to k3) are calculated. In this calculation, the distance between E and A is 3 pixels (or √5), the distance between E and B is 2 pixels, the distance between E and C is 3 pixels (or √5), the distance between E and D is 1 pixel, The distance between E and E is calculated as 0 pixel.
すなわち、補間方向D1A、D1B、・・・D1Iのそれぞれの差分値と、補間要素に対しての周囲要素Miの係数kiとが求められることになる。 That is, the difference values of the interpolation directions D1A, D1B,... D1I and the coefficient ki of the surrounding element Mi for the interpolation element are obtained.
前述の係数kiは、例えば、最も距離差が小さいときはk0、最も距離差があるときはk3を選択するのが望ましい。 As the coefficient ki, for example, it is desirable to select k0 when the distance difference is the smallest and k3 when the distance difference is the smallest.
次に、最後の方向(D1=D1I)のaiとfiとの差分値及び補間要素に対しての周辺要素までの距離Liの係数kiを求めたかどうかを判断し(S24)、求めていないときはD1iを次ぎの方向に更新する(S25)。例えば、方向D1iをD1B、D1C・・・と更新する。次に、この更新したD1iを設定して処理をステップS21に戻す。 Next, it is determined whether or not the difference value between ai and fi in the last direction (D1 = D1I) and the coefficient ki of the distance Li to the peripheral element with respect to the interpolation element have been obtained (S24). Updates D1i in the next direction (S25). For example, the direction D1i is updated to D1B, D1C,. Next, the updated D1i is set, and the process returns to step S21.
一方、ステップS24において、最後の方向(D1=D1I)のaiとfiとの差分値、係数kiを求めたと判定したときは、この係数と差分値を乗算することによって、前述の依存量を求める演算を行う(S27)。 On the other hand, in step S24, when it is determined that the difference value between the ai and fi in the last direction (D1 = D1I) and the coefficient ki are obtained, the above-described dependency amount is obtained by multiplying the coefficient and the difference value. An operation is performed (S27).
すなわち、下記の式に示すようにしてD1方向のEに対する依存量を求めている。本実施の形態では各方向にかける係数kiは、予め決めている式で示す。 That is, the dependence amount with respect to E in the D1 direction is obtained as shown in the following equation. In the present embodiment, the coefficient ki applied in each direction is represented by a predetermined formula.
[数1]
D1 = K3*D1A + K2*D1B + K3*D1C
+K1*D1D + K0*D1E + K1*D1F
+K3*D1G + K2*D1H + K3*D1I
= K3|Aa-Af|+K2|Ba-Bf|+K3|Ca-Cf|
+K1|Da-Df|+K0|Ea-Ef|+K1|Fa-Ff|
+K3|Ga-Gf|+K2|Ha-Hf|+k3|Ia-If|
として求めている。
[Equation 1]
D1 = K3 * D1A + K2 * D1B + K3 * D1C
+ K1 * D1D + K0 * D1E + K1 * D1F
+ K3 * D1G + K2 * D1H + K3 * D1I
= K3 | Aa-Af | + K2 | Ba-Bf | + K3 | Ca-Cf |
+ K1 | Da-Df | + K0 | Ea-Ef | + K1 | Fa-Ff |
+ K3 | Ga-Gf | + K2 | Ha-Hf | + k3 | Ia-If |
Asking.
また、方向D2は、
[数2]
D2 = K3*D2A + K2*D2B + K3*D2C
+K1*D2D + K0*D2E + K1*D2F
+K3*D2G + K2*D2H + K3*D2I
= K3|(Aa+Ab)/2-(Ae+Af)/2|
+K2|(Ba+Bb)/2-(Be+Bf)/2|+K3|(Ca+Cb)/2-(Ce+Cf)/2|
+K1|(Da+Db)/2-(De+Df)/2|+K0|(Ea+Eb)/2-(Ee+Ef)/2|
+K1|(Fa+Fb)/2-(Fe+Ff)/2|
+K3|(Ga+Gb)/2-(Ge+Gf)/2|+K2|(Ha+Hb)/2-(He+Hf)/2|
+K3|(Ia+Ib)/2-(Ie+If)/2|
方向D3は、
[数3]
D3 = K3*D3A + K2*D3B + K3*D3C
+K1*D3D + K0*D3E + K1*D3F
+K3*D3G + K2*D3H + K3*D3I
= K3|Ab-Ae|+K2|Bb-Be|+K3|Cb-Ce|
+K1|Db-De|+K0|Eb-Ee|+K1|Fb-Fe|
+K3|Gb-Ge|+K2|Hb-He|+k3|Ib-Ie|
方向D4は、
[数4]
D4 = K3*D4A + K2*D4B + K3*D4C
+K1*D4D + K0*D4E + K1*D4F
+K3*D4G + K2*D4H + K3*D4I
= K3|(Ab+Ac)/2-(Ad+Ae)/2|+K2|(Bb+Bc)/2-(Bd+Be)/2|
+K3|(Cb+Cc)/2-(Cd+Ce)/2|
+K3|(Db+Dc)/2-(Dd+De)/2|+K0|(Eb+Ec)/2-(Ed+Ee)/2|
+K1|(Fb+Fc)/2-(Fd+Fe)/2|
+K3|(Gb+Gc)/2-(Gd+Ge)/2|+K2|(Hb+Hc)/2-(Hd+He)/2|
+K3|(Ib+Ic)/2-(Id+Ie)/2|
方向D5は、
[数5]
D5 = K3*D5A + K2*D5B + K3*D5C
+K1*D5D + K0*D5E + K1*D5F
+K3*D5G + K2*D5H + K3*D5I
= K3|Ac-Ad|+K2|Bc-Bd|+K3|Cc-Cd|
+K1|Dc-Dd|+K0|Ec-Ed|+K1|Fc-Fd|
+K3|Gc-Gd|+K2|Hc-Hd|+K3|Ic-Id|
そして、補間方向決定部がD1〜D5のうち最小のものを求め、補間方向を決定する。すなわち、差分値と係数との積が小さい方向が、相関も強い方向となる。例えば、D1が最小であるとき、補間画素Eは画素Eaと画素Efの平均となる。
The direction D2 is
[Equation 2]
D2 = K3 * D2A + K2 * D2B + K3 * D2C
+ K1 * D2D + K0 * D2E + K1 * D2F
+ K3 * D2G + K2 * D2H + K3 * D2I
= K3 | (Aa + Ab) / 2- (Ae + Af) / 2 |
+ K2 | (Ba + Bb) / 2- (Be + Bf) / 2 | + K3 | (Ca + Cb) / 2- (Ce + Cf) / 2 |
+ K1 | (Da + Db) / 2- (De + Df) / 2 | + K0 | (Ea + Eb) / 2- (Ee + Ef) / 2 |
+ K1 | (Fa + Fb) / 2- (Fe + Ff) / 2 |
+ K3 | (Ga + Gb) / 2- (Ge + Gf) / 2 | + K2 | (Ha + Hb) / 2- (He + Hf) / 2 |
+ K3 | (Ia + Ib) / 2- (Ie + If) / 2 |
The direction D3 is
[Equation 3]
D3 = K3 * D3A + K2 * D3B + K3 * D3C
+ K1 * D3D + K0 * D3E + K1 * D3F
+ K3 * D3G + K2 * D3H + K3 * D3I
= K3 | Ab-Ae | + K2 | Bb-Be | + K3 | Cb-Ce |
+ K1 | Db-De | + K0 | Eb-Ee | + K1 | Fb-Fe |
+ K3 | Gb-Ge | + K2 | Hb-He | + k3 | Ib-Ie |
Direction D4 is
[Equation 4]
D4 = K3 * D4A + K2 * D4B + K3 * D4C
+ K1 * D4D + K0 * D4E + K1 * D4F
+ K3 * D4G + K2 * D4H + K3 * D4I
= K3 | (Ab + Ac) / 2- (Ad + Ae) / 2 | + K2 | (Bb + Bc) / 2- (Bd + Be) / 2 |
+ K3 | (Cb + Cc) / 2- (Cd + Ce) / 2 |
+ K3 | (Db + Dc) / 2- (Dd + De) / 2 | + K0 | (Eb + Ec) / 2- (Ed + Ee) / 2 |
+ K1 | (Fb + Fc) / 2- (Fd + Fe) / 2 |
+ K3 | (Gb + Gc) / 2- (Gd + Ge) / 2 | + K2 | (Hb + Hc) / 2- (Hd + He) / 2 |
+ K3 | (Ib + Ic) / 2- (Id + Ie) / 2 |
Direction D5 is
[Equation 5]
D5 = K3 * D5A + K2 * D5B + K3 * D5C
+ K1 * D5D + K0 * D5E + K1 * D5F
+ K3 * D5G + K2 * D5H + K3 * D5I
= K3 | Ac-Ad | + K2 | Bc-Bd | + K3 | Cc-Cd |
+ K1 | Dc-Dd | + K0 | Ec-Ed | + K1 | Fc-Fd |
+ K3 | Gc-Gd | + K2 | Hc-Hd | + K3 | Ic-Id |
Then, the interpolation direction determination unit obtains the minimum one of D1 to D5 and determines the interpolation direction. That is, the direction in which the product of the difference value and the coefficient is small is the direction in which the correlation is strong. For example, when D1 is the minimum, the interpolation pixel E is the average of the pixel Ea and the pixel Ef.
図10は、実施の形態1の各処理部によって、水平1画素の斜め線におけるフィールド内補間処理の具体例を説明する図である。今回、画素の輝度値を元に、補間方向を決定することにする。白丸の画素の輝度100、黒丸の画素の輝度を0とすると、輝度0の画素はBf、Ce、De、Ec、Ed、Fb、Gb、Haとなり、それ以外は輝度100となる(図11を参照)。このときのD1〜D5の値を求める。 FIG. 10 is a diagram for explaining a specific example of the intra-field interpolation processing in the diagonal line of one horizontal pixel by each processing unit of the first embodiment. This time, the interpolation direction is determined based on the luminance value of the pixel. If the luminance of the white circle pixel is 100 and the luminance of the black circle pixel is 0, the pixel of luminance 0 is Bf, Ce, De, Ec, Ed, Fb, Gb, Ha, and the others are luminance 100 (see FIG. 11). reference). The values of D1 to D5 at this time are obtained.
上記の式より、
[数6]
D1 = K3|Aa-Af|+K2|Ba-Bf|+K3|Ca-Cf|
+K1|Da-Df|+K0|Ea-Ef|+K1|Fa-Ff|
+K3|Ga-Gf|+K2|Ha-Hf|+K3|Ia-If|
= K3|100-100|+K2|100-0|+K3|100-100|
+K1|100-100|+K0|100-100|+K1|100-100|
+K3|100-100|+K2|0-100|+K3|100-100|
= 200*K2
同様に
[数7]
D2 = 100*K1 + 100*K2 + 100*K3
D3 = 200*K1 + 200*K3
D4 = 100*K1 + 100*K3
D5 = 0
K0〜K3は、中心画素Eからの距離による重み付け係数kiであり、正の値である。そして、D1〜D5を比較すると、D5が最小となり、補間画素Eは、画素Ecと画素Edの平均となる。すなわち、水平2画素未満の斜め線であっても適切な補間が行われることになる。
From the above formula,
[Equation 6]
D1 = K3 | Aa-Af | + K2 | Ba-Bf | + K3 | Ca-Cf |
+ K1 | Da-Df | + K0 | Ea-Ef | + K1 | Fa-Ff |
+ K3 | Ga-Gf | + K2 | Ha-Hf | + K3 | Ia-If |
= K3 | 100-100 | + K2 | 100-0 | + K3 | 100-100 |
+ K1 | 100-100 | + K0 | 100-100 | + K1 | 100-100 |
+ K3 | 100-100 | + K2 | 0-100 | + K3 | 100-100 |
= 200 * K2
Similarly, [Equation 7]
D2 = 100 * K1 + 100 * K2 + 100 * K3
D3 = 200 * K1 + 200 * K3
D4 = 100 * K1 + 100 * K3
D5 = 0
K0 to K3 are weighting coefficients ki depending on the distance from the center pixel E, and are positive values. When D1 to D5 are compared, D5 is minimized, and the interpolation pixel E is the average of the pixel Ec and the pixel Ed. That is, appropriate interpolation is performed even for diagonal lines of less than two horizontal pixels.
つまり実施の形態1のソフトウエアは、走査画像を第1のメモリに保存し、飛び越し走査における補間ラインの補間要素の画像を画面に表示させる順次走査変換のプログラムにおいて、
コンピュータに、
それぞれ角度が異なる多数の第1の補間方向を第2のメモリに記憶する手段、
前記補間要素に対しての周辺要素までの距離に重み付け係数を対応させて第3のメモリに記憶する手段、
前記第1のメモリに前記走査画像が記憶されたとき、補間ラインにおける前記補間要素を順次、設定する手段、
前記補間要素が設定される毎に、前記第2のメモリの第1の補間方向を順次読み込み、前記補間要素の周辺要素に対して前記読み込んだ第1の補間方向と同方向の第2の補間方向を、前記周辺要素を基準にしてそれぞれ順次、設定する手段、
前記第1の補間方向に基づく第2の補間方向が設定される毎に、該第2の補間方向の前記周辺要素の上下又は左上、右下の画素ラインの画素値を順次抽出する手段、
前記第1の補間方向に基づく前記第2の補間方向の前記画素値が抽出される毎に、この第2の補間方向の両方の画素値の差分値を求めると共に、前記補間要素と前記周辺要素との距離を求め該距離に対応する前記重み付け係数を前記第3のメモリから選択して、この係数と前記第2の補間方向の差分値とを乗算する手段、
前記第1の補間方向に基づく全ての前記第2の補間方向の乗算結果を読み込み、これらを加算し、該加算値を前記補間要素に対しての前記第1の補間方向の依存量として求める手段、
前記多数の第1の補間方向の前記依存量が求められる毎に、これらの第1の補間方向の依存量同士を比較して、値が最も最小の依存量を有する前記第1の補間方向を前記補間要素に対する最適な補間方向とする手段、
前記最適な補間方向の前記上下又は左下、右下の画素値の平均を前記補間要素の補間値とし、該補間値に前記第1のメモリの補間要素を変換する手段
としての機能を実現させるための順次走査変換のプログラムとした技術思想であるともいえる。
That is, the software according to the first embodiment stores the scanned image in the first memory, and in the sequential scanning conversion program for displaying the image of the interpolation element of the interpolation line in the interlaced scanning on the screen,
On the computer,
Means for storing in a second memory a number of first interpolation directions each having a different angle;
Means for storing a weighting coefficient in a third memory in association with a distance from the interpolation element to a peripheral element;
Means for sequentially setting the interpolation elements in an interpolation line when the scanned image is stored in the first memory;
Each time the interpolation element is set, the first interpolation direction of the second memory is sequentially read, and the second interpolation in the same direction as the read first interpolation direction with respect to peripheral elements of the interpolation element Means for sequentially setting directions with reference to the peripheral elements,
Means for sequentially extracting pixel values of upper and lower or upper left and lower right pixel lines of the peripheral elements in the second interpolation direction each time a second interpolation direction based on the first interpolation direction is set;
Each time the pixel value in the second interpolation direction based on the first interpolation direction is extracted, a difference value between both pixel values in the second interpolation direction is obtained, and the interpolation element and the peripheral element are obtained. Means for determining the distance to and selecting the weighting coefficient corresponding to the distance from the third memory, and multiplying the coefficient by the difference value in the second interpolation direction;
Means for reading the multiplication results of all the second interpolation directions based on the first interpolation direction, adding them, and obtaining the added value as a dependency amount of the first interpolation direction with respect to the interpolation element ,
Each time the dependency amounts of the first interpolation directions are obtained, the dependency amounts of the first interpolation directions are compared with each other, and the first interpolation direction having the smallest dependency amount is obtained. Means for optimal interpolation direction for the interpolation element;
In order to realize a function as means for converting the interpolation value of the first memory into the interpolation value by using the average of the pixel values of the upper, lower, lower left and lower right in the optimal interpolation direction as the interpolation value of the interpolation element It can be said that this is a technical idea of a progressive scan conversion program.
<実施の形態2>
本実施の形態は、上記の処理をハードウエアで構成した例について説明する。図12は、本実施の形態の順次走査変換装置の概略構成図である。
<
In the present embodiment, an example in which the above processing is configured by hardware will be described. FIG. 12 is a schematic configuration diagram of the progressive scan conversion apparatus of the present embodiment.
図12に示すように、1フィールドの1ラインの映像信号を入力するための入力端子20と、フィルタ23(画素範囲設定手段、補間方向設定手段)と、方向依存量算出部25(差分値算出手段、補間方向検出手段)と、比較回路26と、セレクタ28とを備えている。比較回路26、セレクタ28は、補間方向検出手段、置換手段に相当する。
As shown in FIG. 12, an
入力端子20には、1ラインデレイするラインメモリ21a、21b、21cを直列接続し、ラインメモリ21cの出力をフィルタ23に接続している。このフィルタ23は、図2に示すD1〜D5の方向に基づく画素を抽出するフィルタを、それぞれの方向毎に備えている(D1用フィルタ23a、D2用フィルタ23b・・・D5用フィルタ23e)。このフィルタ23には、入力端子20に入力するラインの映像データと、ラインメモリ21aによって1ライン遅延された1ライン分の映像データと、ラインメモリ21b後の2ライン遅れの映像データ、ラインメモリ21c後の3ライン遅れの映像データを入力し、図2に示す方向成分に基づく画素を出力する。
D1フィルタ23aは、入力端子20に入力するラインの映像データの画素値(輝度)と、ラインメモリ21aによって1ライン遅延された1ライン分の映像データの画素値(輝度又は階調)と、ラインメモリ21b後の2ライン遅れの映像データの画素値(輝度又は階調)と、ラインメモリ21c後の3ライン遅れの映像データの画素値(輝度)を入力し、補間要素の周辺補間画素(A〜I)についてのD1方向の成分の画素を抽出する。
The
D2フィルタ23bは、入力端子20に入力するラインの映像データの画素値(輝度)と、ラインメモリ21aによって1ライン遅延された1ライン分の映像データの画素値(輝度)と、ラインメモリ21b後の2ライン遅れの映像データの画素値(輝度)と、ラインメモリ21c後の3ライン遅れの映像データの画素値(輝度)を入力し、補間要素の周辺補間画素(A〜I)についてのD2方向の成分の画素を抽出する。
The
D3フィルタ23cは、入力端子20に入力するラインの映像データの画素値(輝度又は階調)と、ラインメモリ21aによって1ライン遅延された1ライン分の映像データの画素値(輝度)と、ラインメモリ21b後の2ライン遅れの映像データの画素値(輝度)と、ラインメモリ21c後の3ライン遅れの映像データの画素値(輝度)を入力し、補間要素の周辺補間画素(A〜I)についてのD3方向の成分の画素を抽出する。
The
D4フィルタ23dは、入力端子20に入力するラインの映像データの画素値(輝度)と、ラインメモリ21aによって1ライン遅延された1ライン分の映像データの画素値(輝度)と、ラインメモリ21b後の2ライン遅れの映像データの画素値(輝度)と、ラインメモリ21c後の3ライン遅れの映像データの画素値(輝度)を入力し、補間要素の周辺補間画素(A〜I)についてのD4方向の成分の画素を抽出する。
The D4 filter 23d is a pixel value (luminance) of video data of a line input to the
D5フィルタ23eは、入力端子20に入力するラインの映像データの画素値(輝度)と、ラインメモリ21aによって1ライン遅延された1ライン分の映像データの画素値(輝度)と、ラインメモリ21b後の2ライン遅れの映像データの画素値(輝度)と、ラインメモリ21c後の3ライン遅れの映像データの画素値(輝度)を入力し、補間要素の周辺補間画素(A〜I)についてのD5方向の成分の画素を抽出する。
The D5 filter 23e is a pixel value (luminance) of video data of a line input to the
例えば、D1用フィルタ23aは、図5(a)に示す周辺補間画素の左上の画素Aa、Ba、・・・Iaと、図7(b)に示す周辺補間画素の右下の画素Af、Bf、Df、Ef、Gf、Hfを抽出する。
For example, the
また、方向依存量算出部25は、D1用依存量算出部25a、・・・D5用依存量算出部25eを有している。
In addition, the direction dependency
それぞれの依存量算出部が、入力端子20に入力するラインの映像データの画素値(輝度)と、ラインメモリ21aによって1ライン遅延された1ライン分の映像データの画素値(輝度)と、ラインメモリ21b後の2ライン遅れの映像データの画素値(輝度)と、ラインメモリ21c後の3ライン遅れの映像データの画素値(輝度)を入力すると共に、対応する方向のフィルタからの抽出された画素値を入力し、それぞれの画素値の差を求めて係数kiを乗算して各方向の依存量を求める。この係数kiは、距離に対応させて保存している。例えば、EとAの距離は3画素(もしくは√5)、EとBの距離は2画素、EとCの距離は3画素(もしくは√5)、EとDの距離は1画素、EとEの距離は0画素、・・・というように算出し、この距離に対応させた係数kiを選択する。
Each dependency amount calculation unit includes a pixel value (luminance) of video data of a line input to the
比較回路26は、方向依存量算出部25から方向D1、D2・・・D5の依存量を比較し、最も依存している方向を決定してセレクタ28に出力する。
The
セレクタ28は、比較回路26から出力された方向の最も影響する画素値と画素値との平均を選択し、この選択した画素値を補間要素の画素値として出力する。この画素値は画面のEの値とされる。
The
図13は、フィルタ23の詳細構成図である。本実施の形態ではD1用フィルタ23aを例にして説明する。
FIG. 13 is a detailed configuration diagram of the
図13に示すように、ラインメモリ21aとラインメモリ21bとの間のラインは、図14に示す画素ラインaであり、ラインメモリ21bとラインメモリ21cとの間のラインは、図14に示す画素ラインbであり、ラインメモリ21cの後は、図14に示す画素ラインcである。
As shown in FIG. 13, the line between the
そして、入力端子20には、ピクセルデレイ30a、30b・・・30dの順で接続され、ピクセルデレイ30aの入力端には、出力端31a(図7(b)のIf用)が接続され、ピクセルデレイ30aとピクセルデレイ30bとの間には、出力端31b(図7(b)のHf用)が接続されている。
The
また、ピクセルデレイ30bとピクセルデレイ30cとの間には、出力端31c(図7(b)のGf用)が接続され、ピクセルデレイ30cとピクセルデレイ30dとの間には、出力端31dが接続されている。さらに、ピクセルデレイ30dには、出力端31e(図6(b)のGd)が接続されている。
Further, an
一方、ラインメモリ21aとラインメモリ21bとの間には、ピクセルデレイ32a、32b・・・32dの順で接続され、ピクセルデレイ32aの入力端には、出力端33a(図7(b)のFf用)が接続され、ピクセルデレイ32aとピクセルデレイ32bとの間には、出力端33b(図7(b)のEf用)が接続されている。
On the other hand, the
また、ピクセルデレイ32bとピクセルデレイ32cとの間には、出力端33c(図7(b)のDf用)と出力端33d(図5(a)のIa用)が接続され、ピクセルデレイ32cとピクセルデレイ32dとの間には、出力端33e(図5(a)のHa用)が接続されている。さらに、ピクセルデレイ32dには、出力端33f(図5(a)のGa用)が接続されている。
An
ラインメモリ21bとラインメモリ21cとの間には、ピクセルデレイ34a、34b・・・34dの順で接続され、ピクセルデレイ34aの入力端には、出力端35a(図7(b)のCf用)が接続され、ピクセルデレイ34aとピクセルデレイ34bとの間には、出力端35b(図7(b)のBf用)が接続されている。
The
また、ピクセルデレイ34bとピクセルデレイ34cとの間には、出力端35c(図7(b)のAf用)と出力端35d(図5(a)のFa用)が接続され、ピクセルデレイ34cとピクセルデレイ34dとの間には、出力端35e(図5(a)のEa用)が接続されている。さらに、ピクセルデレイ34dには、出力端35f(図5(a)のDa用)が接続されている。
An
さらに、ラインメモリ21cにはピクセルデレイ36a、36b・・・36dの順で接続され、ピクセルデレイ36bとピクセルデレイ36cとの間には、出力端37a(図5(b)のCa用)が接続されている。
Further,
また、ピクセルデレイ36cとピクセルデレイ36dとの間には、出力端37b(図5(b)のBa用)が接続され、ピクセルデレイ36dには、出力端37c(図5(a)のAa)が接続されている。すなわち、図4の方向D1(D1A、D1B・・・・D1i)における補間要素に関連する画素が抽出される。
An
図15は、D1用依存量算出部25aの概略構成図である。図15に示すように、差分器40a、40b、・・・・40iと、係数乗算器41a、41b、・・・・41iと、加算器43と、加算器44と、平均化回路45とを備えている。
FIG. 15 is a schematic configuration diagram of the D1
係数乗算器41a(k3用)は、画素値AaとAfとの差を求める差分器(減算器)40aに接続され、出力端が加算器43に接続されている。
The
また、係数乗算器41b(k2用)は、画素値BaとBfとの差を求める差分器(減算器)40bに接続され、出力端が加算器43に接続されている。
The
係数乗算器41c(k3用)は、画素値CaとCfとの差を求める差分器(減算器)40cに接続され、出力端が加算器43に接続されている。
The
係数乗算器41d(k1用)は、画素値DaとDfとの差を求める差分器(減算器)40dに接続され、出力端が加算器43に接続されている。
The
係数乗算器41e(k0用)は、画素値EaとEfとの差を求める差分器(減算器)40eに接続され、出力端が加算器43に接続されている。
The
係数乗算器41f(k1用)は、画素値FaとFfとの差を求める差分器(減算器)40fに接続され、出力端が加算器43に接続されている。
The
係数乗算器41g(k3用)は、画素値GaとGfとの差を求める差分器(減算器)40gに接続され、出力端が加算器43に接続されている。
The
係数乗算器41h(k2用)は、画素値HaとHfとの差を求める差分器(減算器)40hに接続され、出力端が加算器43に接続されている。
The
係数乗算器41i(k3用)は、画素値IaとIfとの差を求める差分器(減算器)40iに接続され、出力端が加算器43に接続されている。
The coefficient multiplier 41i (for k3) is connected to a differentiator (subtracter) 40i for obtaining a difference between the pixel values Ia and If, and an output terminal is connected to the
さらに、差分器40eには画素値Eaと画素値Efとを加算する加算器44が接続され、この加算器44には平均化回路45が接続されている。そして、平均化回路45の出力が、セレクタ28に接続されている。
Further, an
すなわち、上記のように構成された順次走査変換装置は、方向D1においては図14に示す方向の画素値がD1フィルタ23aで抽出されて、D1用依存量算出部25aに出力される。
That is, in the progressive scan conversion device configured as described above, the pixel value in the direction shown in FIG. 14 is extracted by the
すなわち、図3に示す領域の画像データが1ライン毎に入力すると、ラインメモリ21a、21b、21c(3ライン遅延)によって図14に示すCラインの画素データが、ピクセルデレイ36a・・・36d(Cラインと称する)に入力する。そして、Cラインには、ピクセルデレイ36a、36bの2個あるので、図5(a)に示すように、(ja,id)、(ja,ie)は読み込まれないで、ピクセルデレイ36bの出力は(ja,ic)の画素値Caが出力され、ピクセルデレイ36cによって、(ja,ib)の画素値Baが出力され、ピクセルデレイ36dによって(ja,ia)の画素値Aaが出力される。
That is, when the image data of the area shown in FIG. 3 is input for each line, the pixel data of the C line shown in FIG. 14 is converted into the pixel delays 36a... 36d (line delay) by the
また、ラインメモリ21a、21b(2ライン遅れ)によって、図14に示すbラインの画素データがピクセルデレイ34a・・・34d(bラインと称する)に入力する。そして、bラインには、ピクセルデレイ34aの入力端を出力端としているので(jc,ie)の画素値Cfが、出力端35aに出力される。そして、ピクセルデレイ34aによって1ピクセル遅延された(jc,id)の画素値Bfが、出力される。また、ピクセルデレイ34bによって、(jc,ic)の画素値Afが出力されると共に、画素値Faが出力される。そして、ピクセルデレイ34cによって(jc,ib)の画素値Eaが、ピクセルデレイ34dによって(jc,ic)の画素値Daが出力される。
Also, the
一方、ラインメモリ21a(1ライン遅れ)によって、図14に示すaラインの画素データが、ピクセルデレイ32a・・・32d(aラインと称する)に入力する。そして、aラインには、ピクセルデレイ32aの入力端を出力端としているので、(jd,ie)の画素値Ffが出力端33aに出力される。そして、ピクセルデレイ32aによって1ピクセル遅延された(jd,id)の画素値Efが、出力される。また、ピクセルデレイ32bによって、(je,ic)の画素値Dfが出力されると共に、画素値Iaが出力される。そして、ピクセルデレイ32cによって(jd,ib)の画素値Haが、ピクセルデレイ32dによって(je,ia)の画素値Gaが出力される。
On the other hand, the
また、メモリライン介さない箇所からは、画素値If、Hf・・・Gdが出力される。 Also, pixel values If, Hf,... Gd are output from locations not via the memory line.
そして、図15に示すD1用依存量算出部25aに入力して、それぞれの周辺要素(A〜I)の右上と左下の画素値が減算され、予め定められている計数が乗算されて、これが加算器43に入る。
Then, it is input to the D1-dependent
すなわち、実施の形態1と同様に、
[数8]
D1 = K3*D1A + K2*D1B + K3*D1C
+K1*D1D + K0*D1E + K1*D1F
+K3*D1G + K2*D1H + K3*D1I
= K3|Aa-Af|+K2|Ba-Bf|+K3|Ca-Cf|
+K1|Da-Df|+K0|Ea-Ef|+K1|Fa-Ff|
+K3|Ga-Gf|+K2|Ha-Hf|+k3|Ia-If|
として求めていることになる。
That is, as in the first embodiment,
[Equation 8]
D1 = K3 * D1A + K2 * D1B + K3 * D1C
+ K1 * D1D + K0 * D1E + K1 * D1F
+ K3 * D1G + K2 * D1H + K3 * D1I
= K3 | Aa-Af | + K2 | Ba-Bf | + K3 | Ca-Cf |
+ K1 | Da-Df | + K0 | Ea-Ef | + K1 | Fa-Ff |
+ K3 | Ga-Gf | + K2 | Ha-Hf | + k3 | Ia-If |
Will be asking.
また、方向D2は、
[数9]
D2 = K3*D2A + K2*D2B + K3*D2C
+K1*D2D + K0*D2E + K1*D2F
+K3*D2G + K2*D2H + K3*D2I
= K3|(Aa+Ab)/2-(Ae+Af)/2|
+K2|(Ba+Bb)/2-(Be+Bf)/2|+K3|(Ca+Cb)/2-(Ce+Cf)/2|
+K1|(Da+Db)/2-(De+Df)/2|+K0|(Ea+Eb)/2-(Ee+Ef)/2|
+K1|(Fa+Fb)/2-(Fe+Ff)/2|
+K3|(Ga+Gb)/2-(Ge+Gf)/2|+K2|(Ha+Hb)/2-(He+Hf)/2|
+K3|(Ia+Ib)/2-(Ie+If)/2|
方向D3は、
[数10]
D3 = K3*D3A + K2*D3B + K3*D3C
+K1*D3D + K0*D3E + K1*D3F
+K3*D3G + K2*D3H + K3*D3I
= K3|Ab-Ae|+K2|Bb-Be|+K3|Cb-Ce|
+K1|Db-De|+K0|Eb-Ee|+K1|Fb-Fe|
+K3|Gb-Ge|+K2|Hb-He|+k3|Ib-Ie|
方向D4は、
[数11]
D4 = K3*D4A + K2*D4B + K3*D4C
+K1*D4D + K0*D4E + K1*D4F
+K3*D4G + K2*D4H + K3*D4I
= K3|(Ab+Ac)/2-(Ad+Ae)/2|+K2|(Bb+Bc)/2-(Bd+Be)/2|
+K3|(Cb+Cc)/2-(Cd+Ce)/2|
+K3|(Db+Dc)/2-(Dd+De)/2|+K0|(Eb+Ec)/2-(Ed+Ee)/2|
+K1|(Fb+Fc)/2-(Fd+Fe)/2|
+K3|(Gb+Gc)/2-(Gd+Ge)/2|+K2|(Hb+Hc)/2-(Hd+He)/2|
+K3|(Ib+Ic)/2-(Id+Ie)/2|
方向D5は、
[数12]
D5 = K3*D5A + K2*D5B + K3*D5C
+K1*D5D + K0*D5E + K1*D5F
+K3*D5G + K2*D5H + K3*D5I
= K3|Ac-Ad|+K2|Bc-Bd|+K3|Cc-Cd|
+K1|Dc-Dd|+K0|Ec-Ed|+K1|Fc-Fd|
+K3|Gc-Gd|+K2|Hc-Hd|+K3|Ic-Id|
そして、補間方向決定部がD1〜D5のうち最小のものを求め、補間方向を決定する。たとえばD1が最小であるとき、補間画素Eは画素Eaと画素Efの平均となる。 すなわち、実施の形態2は、走査画像を入力して、飛び越し走査における補間ラインの補間要素の画像を画面に表示させる順次走査変換のための装置において、
1水平走査期間を遅延させるラインメモリを前記補間要素の周辺要素ライン分だけ直列接続されたラインメモリ群と、前記補間要素の補間方向毎に設けられ、前記ラインメモリ群からの遅延された複数の画素ラインの各画素値を入力し、この各画素値を前記補間方向に従って順次遅延させることで前記補間要素の周辺要素の前記画素ラインでの上下又は左上、右下の画素値を順次抽出するフィルタ部と、前記補間方向毎に設けられ、それぞれが、前記補間方向が同じ前記フィルタ部から前記周辺要素の画素ラインの前記上下又は前記左上、右下の画素値をそれぞれ読み込み、両方の画素値の差分値を求め、これらの差分値に対して予め決められた重み付け係数をそれぞれ乗算して、それぞれの乗算結果を加算し、これを前記補間要素に対しての前記補間方向の依存量として出力する補間方向依存量算出部と、前記補間方向依存量算出部からの前記多数の補間方向の依存量同士を比較し、最も小さい補間方向を前記補間要素に対する最適な補間方向とする補間方向決定部と、前記最適な補間方向の前記上下又は左下、右下の画素値の平均を前記補間要素の補間値とし、該補間値に前記メモリの補間要素を変換する画素補間部とを備えた順次走査変換のための装置とした技術思想であるともいえる。
The direction D2 is
[Equation 9]
D2 = K3 * D2A + K2 * D2B + K3 * D2C
+ K1 * D2D + K0 * D2E + K1 * D2F
+ K3 * D2G + K2 * D2H + K3 * D2I
= K3 | (Aa + Ab) / 2- (Ae + Af) / 2 |
+ K2 | (Ba + Bb) / 2- (Be + Bf) / 2 | + K3 | (Ca + Cb) / 2- (Ce + Cf) / 2 |
+ K1 | (Da + Db) / 2- (De + Df) / 2 | + K0 | (Ea + Eb) / 2- (Ee + Ef) / 2 |
+ K1 | (Fa + Fb) / 2- (Fe + Ff) / 2 |
+ K3 | (Ga + Gb) / 2- (Ge + Gf) / 2 | + K2 | (Ha + Hb) / 2- (He + Hf) / 2 |
+ K3 | (Ia + Ib) / 2- (Ie + If) / 2 |
The direction D3 is
[Equation 10]
D3 = K3 * D3A + K2 * D3B + K3 * D3C
+ K1 * D3D + K0 * D3E + K1 * D3F
+ K3 * D3G + K2 * D3H + K3 * D3I
= K3 | Ab-Ae | + K2 | Bb-Be | + K3 | Cb-Ce |
+ K1 | Db-De | + K0 | Eb-Ee | + K1 | Fb-Fe |
+ K3 | Gb-Ge | + K2 | Hb-He | + k3 | Ib-Ie |
Direction D4 is
[Equation 11]
D4 = K3 * D4A + K2 * D4B + K3 * D4C
+ K1 * D4D + K0 * D4E + K1 * D4F
+ K3 * D4G + K2 * D4H + K3 * D4I
= K3 | (Ab + Ac) / 2- (Ad + Ae) / 2 | + K2 | (Bb + Bc) / 2- (Bd + Be) / 2 |
+ K3 | (Cb + Cc) / 2- (Cd + Ce) / 2 |
+ K3 | (Db + Dc) / 2- (Dd + De) / 2 | + K0 | (Eb + Ec) / 2- (Ed + Ee) / 2 |
+ K1 | (Fb + Fc) / 2- (Fd + Fe) / 2 |
+ K3 | (Gb + Gc) / 2- (Gd + Ge) / 2 | + K2 | (Hb + Hc) / 2- (Hd + He) / 2 |
+ K3 | (Ib + Ic) / 2- (Id + Ie) / 2 |
Direction D5 is
[Equation 12]
D5 = K3 * D5A + K2 * D5B + K3 * D5C
+ K1 * D5D + K0 * D5E + K1 * D5F
+ K3 * D5G + K2 * D5H + K3 * D5I
= K3 | Ac-Ad | + K2 | Bc-Bd | + K3 | Cc-Cd |
+ K1 | Dc-Dd | + K0 | Ec-Ed | + K1 | Fc-Fd |
+ K3 | Gc-Gd | + K2 | Hc-Hd | + K3 | Ic-Id |
Then, the interpolation direction determination unit obtains the minimum one of D1 to D5 and determines the interpolation direction. For example, when D1 is the minimum, the interpolation pixel E is the average of the pixel Ea and the pixel Ef. That is,
A line memory group in which line memories for delaying one horizontal scanning period are connected in series for the peripheral element lines of the interpolation element, and a plurality of delayed lines from the line memory group are provided for each interpolation direction of the interpolation element. A filter that inputs pixel values of a pixel line and sequentially extracts pixel values of upper, lower, upper left, and lower right in the pixel line of peripheral elements of the interpolation element by sequentially delaying the pixel values in accordance with the interpolation direction. And each of the interpolation directions, each of which reads the upper and lower or upper left and lower right pixel values of the pixel line of the peripheral element from the filter unit having the same interpolation direction, Find the difference values, multiply each of these difference values by a predetermined weighting coefficient, add the respective multiplication results, and add this to the interpolation element The interpolation direction dependency amount calculation unit that outputs the dependency amount of the interpolation direction is compared with the dependency amounts of the multiple interpolation directions from the interpolation direction dependency amount calculation unit, and the smallest interpolation direction is optimized for the interpolation element. Interpolation direction determination unit as an interpolation direction, and an average of the upper, lower, lower left, and lower right pixel values of the optimal interpolation direction as an interpolation value of the interpolation element, and a pixel that converts the interpolation element of the memory into the interpolation value It can be said that the technical idea is an apparatus for progressive scanning conversion including an interpolation unit.
本発明は、インターレス方式のテレビジョン信号において、補間信号を生成する走査線補間装置に適用できる。 The present invention can be applied to a scanning line interpolation device that generates an interpolation signal in an interlaced television signal.
1 フレームメモリ
3 補間領域設定部
4 補間方向依存量算出部
5 補間方向決定部
7 補間処理部
23 フィルタ
25 方向依存量算出部
26 比較回路
28 セレクタ
DESCRIPTION OF
Claims (2)
前記飛び越し走査画像の補間すべき画素を順次特定し、該特定した補間すべき画素を中心とし、この補間すべき画素に対した所定の画素範囲を順次設定する画素範囲設定手段と、
前記画素範囲が設定される毎に、この画素範囲において前記補間すべき画素に対応した補間方向を複数設定する補間方向設定手段と、
各前記複数の補間方向に存在する画素同士の差分値を検出し、前記補間すべき画素に対して最も相関する補間方向を検出する補間方向検出手段と、
前記補間方向検出手段より検出された補間方向上に位置する前記設定された画素範囲中にある画素の値の平均値を求め、該平均値に前記補間すべき画素の値を置換することで前記順次走査画像に対応した画素を得る置換手段と、
を有することを特徴とする順次走査変換装置。 In a sequential scanning conversion device that interpolates the scanning lines of the interlaced scanning image and converts it to a sequential scanning image,
Pixel range setting means for sequentially specifying the pixels to be interpolated in the interlaced scanning image, centering on the specified pixels to be interpolated, and sequentially setting a predetermined pixel range for the pixels to be interpolated;
Interpolation direction setting means for setting a plurality of interpolation directions corresponding to the pixels to be interpolated in the pixel range each time the pixel range is set;
An interpolation direction detecting means for detecting a difference value between pixels existing in each of the plurality of interpolation directions and detecting an interpolation direction most correlated with the pixel to be interpolated;
By obtaining an average value of the values of the pixels in the set pixel range located on the interpolation direction detected by the interpolation direction detection means, and substituting the value of the pixel to be interpolated with the average value Replacement means for obtaining pixels corresponding to the sequentially scanned image;
A sequential scanning conversion device characterized by comprising:
前記差分値が算出される毎に、該差分値に予め決められた重み付け係数を乗算した後加算し、該加算結果同士を比較して前記補間すべき画素に対して最も相関する補間方向を検出することを特徴とする請求項1記載の順次走査変換装置。 The interpolation direction detecting means includes
Each time the difference value is calculated, the difference value is multiplied by a predetermined weighting coefficient and then added, and the addition result is compared with each other to detect the interpolation direction most correlated with the pixel to be interpolated. The progressive scan conversion apparatus according to claim 1, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004238292A JP2006060375A (en) | 2004-08-18 | 2004-08-18 | Sequential-scanning converter |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004238292A JP2006060375A (en) | 2004-08-18 | 2004-08-18 | Sequential-scanning converter |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006060375A true JP2006060375A (en) | 2006-03-02 |
Family
ID=36107514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004238292A Pending JP2006060375A (en) | 2004-08-18 | 2004-08-18 | Sequential-scanning converter |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006060375A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008166872A (en) * | 2006-12-26 | 2008-07-17 | Fujitsu Ltd | Program, apparatus and method for determining interpolation method |
US7711209B2 (en) | 2008-06-25 | 2010-05-04 | Kabushiki Kaisha Toshiba | Image expansion apparatus and image expansion method |
US8175416B2 (en) * | 2007-05-07 | 2012-05-08 | Mstar Semiconductor, Inc. | Pixel interpolation apparatus and method thereof |
-
2004
- 2004-08-18 JP JP2004238292A patent/JP2006060375A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008166872A (en) * | 2006-12-26 | 2008-07-17 | Fujitsu Ltd | Program, apparatus and method for determining interpolation method |
US8175416B2 (en) * | 2007-05-07 | 2012-05-08 | Mstar Semiconductor, Inc. | Pixel interpolation apparatus and method thereof |
US7711209B2 (en) | 2008-06-25 | 2010-05-04 | Kabushiki Kaisha Toshiba | Image expansion apparatus and image expansion method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7586540B2 (en) | Image interpolation device and a frame rate converter and image display apparatus using the same | |
JP3418558B2 (en) | Scanning line conversion device and flicker removal device | |
US20120207218A1 (en) | Motion detection device and method, video signal processing device and method and video display device | |
US7218354B2 (en) | Image processing device and method, video display device, and recorded information reproduction device | |
JPH02289894A (en) | Video signal interpolating device | |
US8274605B2 (en) | System and method for adjacent field comparison in video processing | |
US20060290806A1 (en) | System, method, and apparatus for interlaced to progressive conversion using weighted average of spatial interpolation and weaving | |
EP1821551A2 (en) | Video processing device, video processing method, and video processing program | |
KR100422575B1 (en) | An Efficient Spatial and Temporal Interpolation system for De-interlacing and its method | |
US20060176406A1 (en) | Digital video signal processing apparatus and method for frame-based adaptive temporal and spatial Y/C separation | |
KR100734310B1 (en) | Sync detector of video signal processing apparatus and sync selection apparatus including the sync detector | |
JP2006060375A (en) | Sequential-scanning converter | |
JP3926376B2 (en) | Video signal processing circuit, video signal display device, and video signal recording device | |
KR100540380B1 (en) | Apparatus and method for intra field interpolation of deinterlacer | |
JP5178477B2 (en) | Video signal processing apparatus and method, and video display apparatus | |
WO2010046989A1 (en) | Frame rate converting device, image processing device, display, frame rate converting method, its program, and recording medium where the program is recorded | |
JP4483255B2 (en) | Liquid crystal display | |
JPH06311488A (en) | Scanning line converter | |
JP2003289511A (en) | Image scan converting method and apparatus | |
JP2007074590A (en) | Image processing apparatus and method, program, and recording medium | |
US7495706B2 (en) | Video signal setting device for performing output setting to a display device | |
JP2006332904A (en) | Contour emphasizing circuit | |
JP3567141B2 (en) | Transmitting device and method, receiving device and method, broadcasting system, and program | |
JP3772427B2 (en) | Flicker remover | |
US20090079866A1 (en) | Video Signal Oblique Interpolating Apparatus and Method |