JP2006060375A - Sequential-scanning converter - Google Patents

Sequential-scanning converter Download PDF

Info

Publication number
JP2006060375A
JP2006060375A JP2004238292A JP2004238292A JP2006060375A JP 2006060375 A JP2006060375 A JP 2006060375A JP 2004238292 A JP2004238292 A JP 2004238292A JP 2004238292 A JP2004238292 A JP 2004238292A JP 2006060375 A JP2006060375 A JP 2006060375A
Authority
JP
Japan
Prior art keywords
interpolation
pixel
line
pixels
interpolated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004238292A
Other languages
Japanese (ja)
Inventor
Hiroshi Honma
洋 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2004238292A priority Critical patent/JP2006060375A/en
Publication of JP2006060375A publication Critical patent/JP2006060375A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a program for sequential-scanning conversion capable of conducting an accurate interpolation in the interpolation in a field and capable of improving the picture quality of a picture after the interpolation and a device for the program. <P>SOLUTION: A sequential-scanning converter has an interpolation-region setter 3 determining an interpolation-element region using an interpolation element as a reference in a frame memory 1 storing an interlaced video signal and an interpolation-direction dependency-quantity computer 4 obtaining the quantity of the dependency of the direction Di to the interpolation element from the coefficient ki of the directions (D1, D2,...) preset to a memory 8 to the interpolation element and the memory 6. The sequential-scanning converter further has an interpolation-direction determining section 5 collecting the quantities of the dependency (D1, D2,...) obtained by the interpolation-direction dependency-quantity computer 4 and determining the optimum interpolation direction from the result of the collection, and an interpolation processor 7 using picture elements based on the interpolation direction determined by the interpolation-direction determining section 5 and the average of the picture elements as the values of the interpolation element of the frame memory 1. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、飛越し走査(インターレース走査)の動画像信号等を順次走査(プログレッシブ走査)の動画像信号に変換(IP変換)するときの補間要素の補間のためのプログラム及び装置に関するものである。   The present invention relates to a program and an apparatus for interpolating interpolation elements when converting a moving image signal or the like of interlaced scanning (interlaced scanning) into a moving image signal of progressive scanning (progressive scanning) (IP conversion). .

一般に動画像信号は、飛越し走査と順次走査の2種類の走査構造を持つ。飛越し走査は、走査線数が順次走査の走査線数の半分に間引かれている。   In general, a moving image signal has two types of scanning structures, interlaced scanning and progressive scanning. In interlaced scanning, the number of scanning lines is reduced to half of the number of scanning lines in sequential scanning.

また、テレビ放送では飛越し走査が一般的であるが、デジタル放送では順次走査も使われている。パソコン(PC)用のディスプレイは、細かな文字を表示するため順次走査となっている。   In television broadcasting, interlaced scanning is generally used, but in digital broadcasting, sequential scanning is also used. A display for a personal computer (PC) is sequentially scanned to display fine characters.

一方、プラズマディスプレイや液晶ディスプレイなど、マトリックス型の表示ドライバをもつものでは、飛越し走査表示は困難なので順次走査表示が行われる。   On the other hand, since a display having a matrix type display driver such as a plasma display or a liquid crystal display is difficult to perform interlaced scanning display, sequential scanning display is performed.

また、ブラウン管式テレビ受像機で、HDTV(ハイビジョン)の表示系をもつものは、走査線数の少ない現行放送の画像を表示しようとした場合、飛越し走査のままでは偏向周波数が低くなり過ぎるので、2倍の偏向周波数となる順次走査で表示するものが多い。   Also, CRT television receivers with HDTV (high-definition) display systems, when trying to display current broadcast images with a small number of scanning lines, will cause the deflection frequency to be too low with interlace scanning. In many cases, images are displayed by sequential scanning with a doubled deflection frequency.

従来、IP変換を行うフィールド内での補間手法には、次のようなものがある。   Conventionally, there are the following interpolation methods in the field for IP conversion.

ア) 図16に示すように上下のライン画素の平均値で補間を行う。 A) Interpolation is performed with the average value of the upper and lower line pixels as shown in FIG.

イ) 図17に示すようにフィールド内の斜め方向の相関を利用して補間を行う(特許文献1)
特開平4−355581号公報
B) Interpolation is performed using the correlation in the oblique direction in the field as shown in FIG.
Japanese Patent Laid-Open No. 4-355581

しかしながら、以上のような背景技術には、次のような不都合がある。   However, the background art as described above has the following disadvantages.

(1)前記(ア)の手法
図16に示すように、上下画素平均値による補間のみであるため、垂直周波数が高いような画像部分、つまり、垂直方向に変化の激しい画像部分では正確な補間をおこなうことができず、斜線がギザギザになってしまう。
(1) Method (a) As shown in FIG. 16, since interpolation is based only on the upper and lower pixel average values, accurate interpolation is performed in an image portion where the vertical frequency is high, that is, an image portion where the vertical direction changes rapidly. Can not be performed, the diagonal line becomes jagged.

(2)前記(イ)の手法
図17(a)にDb、Ddで示すように、斜め方向の相関の検出が、水平方向に2画素離れた位置で行われる。この手法によれば、同図(b)に示すような水平2画素以上の幅の斜め線の場合は、同図に矢印で示すように斜め線と同方向の相関が小さくなる。従って、正しい補間が可能となる。
(2) Method (a) As shown by Db and Dd in FIG. 17A, the correlation in the oblique direction is detected at a position two pixels away in the horizontal direction. According to this method, in the case of an oblique line having a width of two or more horizontal pixels as shown in FIG. 5B, the correlation in the same direction as the oblique line is reduced as indicated by an arrow in the figure. Therefore, correct interpolation is possible.

しかし、同図(c)に示すような水平2画素未満の幅の斜め線の場合、同図に矢印で示すように斜め線と逆方向の相関が小さくなってしまう。このため、誤った補間が行われてしまうことになる。   However, in the case of an oblique line having a width of less than two horizontal pixels as shown in FIG. 5C, the correlation between the oblique line and the opposite direction becomes small as indicated by an arrow in the figure. For this reason, erroneous interpolation will be performed.

そこで、本発明は、以上のような点に着目したもので、フィールド内補間において正確な補間を行うことができ、補間後の画像の画質の向上を図ることができる順次走査変換のプログラム及びその装置を提供することを目的とする。   Therefore, the present invention focuses on the above points, and a program for sequential scan conversion capable of performing accurate interpolation in intra-field interpolation and improving the image quality of the image after interpolation, and the program thereof An object is to provide an apparatus.

本発明は、飛び越し走査画像の走査線を補間して順次走査画像に変換する順次走査変換装置において、
前記飛び越し走査画像の補間すべき画素を順次特定し、該特定した補間すべき画素を中心とし、この補間すべき画素に対した所定の画素範囲を順次設定する画素範囲設定手段と、前記画素範囲が設定される毎に、この画素範囲において前記補間すべき画素に対応した補間方向を複数設定する補間方向設定手段と、各前記複数の補間方向に存在する画素同士の差分値を検出し、前記補間すべき画素に対して最も相関する補間方向を検出する補間方向検出手段と、前記補間方向検出手段より検出された補間方向上に位置する前記設定された画素範囲中にある画素の値の平均値を求め、該平均値に前記補間すべき画素の値を置換することで前記順次走査画像に対応した画素を得る置換手段とを備えたことを要旨とする。
The present invention relates to a sequential scanning conversion apparatus that interpolates scanning lines of an interlaced scanning image and converts the scanning line into a sequential scanning image.
A pixel range setting means for sequentially specifying pixels to be interpolated in the interlaced scanning image, and sequentially setting a predetermined pixel range for the pixels to be interpolated around the specified pixel to be interpolated; and the pixel range Is set, a plurality of interpolation direction setting means for setting a plurality of interpolation directions corresponding to the pixel to be interpolated in this pixel range, and a difference value between pixels existing in each of the plurality of interpolation directions is detected, An interpolation direction detecting means for detecting an interpolation direction most correlated with the pixel to be interpolated, and an average of the values of the pixels in the set pixel range located on the interpolation direction detected by the interpolation direction detecting means A gist is provided with a replacement unit that obtains a value and replaces the pixel value to be interpolated with the average value to obtain a pixel corresponding to the sequentially scanned image.

以上のように本発明によれば、補間要素に対して最も影響する方向を求めて、この方向に基づく補間を行うので、フィールド内補間において正確な補間を行うことができるという効果が得られる。   As described above, according to the present invention, since the direction that has the most influence on the interpolation element is obtained and the interpolation based on this direction is performed, the effect that accurate interpolation can be performed in the intra-field interpolation can be obtained.

<実施の形態1>
本実施の形態は、コンピュータ処理によって補間画素を求める処理について説明する。
<Embodiment 1>
In the present embodiment, processing for obtaining an interpolation pixel by computer processing will be described.

図1は、本実施の形態の順次走査変換装置の概略構成図である。本実施の形態はソフトウエア(プログラム)で実施する構成を説明する。図1に示すように、本実施の形態の走査線補間方法は、インターレス方式の映像信号を補間する。そして、この映像信号を記憶するフレームメモリ1において、補間要素(単に画素ともいう)を基準にした補間要素領域を決定する補間領域設定部3(画素範囲設定手段ともいう)と、補間要素に対してメモリ8に予め設定されている方向(D1、D2、・・・)とメモリ6の係数kiとから補間要素に対してのその方向Diの依存量を求める補間方向依存量算出部4(補間方向設定手段、差分値算出手段を含む)と、補間方向依存量算出部4で求められた依存量(D1、D2、・・・)を纏めて、この結果から最適な補間方向を決定する補間方向決定部5(補間方向検出手段ともいう)と、補間方向決定部5で決定された補間方向に基づく画素と画素の平均をフレームメモリ1の補間要素の値とする補間処理部7(置換手段)とを備えている。このフレームメモリ1の画像データは、表示部2に表示される。   FIG. 1 is a schematic configuration diagram of a progressive scanning conversion apparatus according to the present embodiment. In the present embodiment, a configuration implemented by software (program) will be described. As shown in FIG. 1, the scanning line interpolation method of the present embodiment interpolates an interlaced video signal. In the frame memory 1 for storing the video signal, an interpolation area setting unit 3 (also referred to as pixel range setting means) that determines an interpolation element area based on an interpolation element (also simply referred to as a pixel), and an interpolation element Interpolation direction dependency amount calculation unit 4 (interpolation) for determining the dependency amount of the direction Di with respect to the interpolation element from the direction (D1, D2,...) Preset in the memory 8 and the coefficient ki of the memory 6 Interpolation that determines the optimum interpolation direction from the results obtained by collecting the dependency amounts (D1, D2,...) Obtained by the interpolation direction dependency amount calculation unit 4 and the direction setting means and the difference value calculation means. A direction determining unit 5 (also referred to as an interpolation direction detecting unit), and an interpolation processing unit 7 (replacement unit) that uses the pixel based on the interpolation direction determined by the interpolation direction determining unit 5 and the average of the pixels as the value of the interpolation element of the frame memory 1 ) And . The image data in the frame memory 1 is displayed on the display unit 2.

メモリ8の補間方向は、図2に示すように、補間要素の画素(IN)に対しての角度(D1、D2、・・・)を保存している。   As the interpolation direction of the memory 8, as shown in FIG. 2, angles (D1, D2,...) With respect to the pixel (IN) of the interpolation element are stored.

また、メモリ6には、補間要素に対しての周辺要素までの距離と係数とが対応させられて記憶されている。   Further, the memory 6 stores the distance from the interpolation element to the peripheral element and the coefficient in association with each other.

上記のように構成された順次走査変換装置について、以下に説明する。図3は、Eが求める補間要素であるとした場合に、この補間要素Eの周辺要素(垂直方向、斜め方向)を定義するための説明図である。図3は、補間ラインにA、B、C・・・・Iの周辺要素がある場合に、Eを補間要素としている。   The progressive scan conversion apparatus configured as described above will be described below. FIG. 3 is an explanatory diagram for defining peripheral elements (vertical direction and oblique direction) of the interpolation element E when E is an interpolation element to be obtained. 3 uses E as an interpolation element when there are peripheral elements A, B, C... I in the interpolation line.

図4は、補間要素Eに対して方向D1とした場合の、周辺要素に対しての方向の説明図である。   FIG. 4 is an explanatory diagram of directions with respect to peripheral elements when the direction D1 is set with respect to the interpolation element E. FIG.

また、本実施の形態では図5、図6、図7に示すように、画素ライン(補間しないライン)の各画素を定義する。   In the present embodiment, as shown in FIGS. 5, 6, and 7, each pixel of a pixel line (a line that is not interpolated) is defined.

例えば、図5(a)に示すように、補間ラインの画素A、B、C、・・・・Iの左上の画素に、記号aを付加して画素Aa、Ba、・・・Iaとする。   For example, as shown in FIG. 5A, a symbol a is added to the upper left pixels of the pixels A, B, C,... I of the interpolation line to form pixels Aa, Ba,. .

また、図5(b)に示すように、補間ラインの画素A、B、C、・・・・Iの真上の画素に、記号bを付加して画素Ab、Bb、・・・Ibとする。   Further, as shown in FIG. 5 (b), a symbol b is added to the pixels A, B, C,... I immediately above the interpolation line to add pixels Ab, Bb,. To do.

さらに、図6(a)に示すように、補間ラインの画素A、B、C、・・・・Iの右上の画素に、記号cを付加して画素Ac、Bc、・・・Icとする。   Further, as shown in FIG. 6A, a symbol c is added to the pixels on the upper right of the pixels A, B, C,... I of the interpolation line to form pixels Ac, Bc,. .

また、図6(b)に示すように、補間ラインの画素A、B、C、・・・・Iの左下の画素に、記号dを付加して画素Ad、Bd、・・・Idとする。   Further, as shown in FIG. 6B, a symbol d is added to the lower left pixels of the pixels A, B, C,... I of the interpolation line to form pixels Ad, Bd,. .

また、図7(a)に示すように、補間ラインの画素A、B、C、・・・・Iの真下の画素に、記号eを付加して画素Ae、Be、・・・Ieとする。   Further, as shown in FIG. 7A, a symbol e is added to pixels A, B, C,... I immediately below the interpolation line to form pixels Ae, Be,. .

また、図7(b)に示すように、補間ラインの画素A、B、C、・・・・Iの右下の画素に、記号fを付加して画素Af、Bf、・・・Ifとする。   Further, as shown in FIG. 7B, the symbol A is added to the lower right pixel of the pixels A, B, C,... I of the interpolation line, and the pixels Af, Bf,. To do.

図8は、本実施の形態の動作を説明するフローチャートである。図1に示す補間領域設定部3は、補間ラインの補間要素Eをフレームメモリ1に定義する(S1)。本実施の形態では、行jd、列icの領域を補間要素Eとする(図4参照)。   FIG. 8 is a flowchart for explaining the operation of the present embodiment. The interpolation area setting unit 3 shown in FIG. 1 defines the interpolation element E of the interpolation line in the frame memory 1 (S1). In the present embodiment, an area of row jd and column ic is set as an interpolation element E (see FIG. 4).

次に、補間領域設定部3は、補間要素Eを中心にして領域Qi(周辺要素を含む領域)を定義する(S2)。次に、この領域Qi上において補間要素Eを中心とした横3、縦5の画素分の領域Piを定義する(S3)。   Next, the interpolation area setting unit 3 defines an area Qi (area including peripheral elements) centering on the interpolation element E (S2). Next, a region Pi for horizontal and vertical 5 pixels centering on the interpolation element E is defined on the region Qi (S3).

そして、補間方向依存量算出部4は、メモリ8の方向Di(D1、D2、・・・・:第1の補間方向ともいう)を読み込み(S4)、この方向Diに基づく方向D1を領域Qiに定義する(S5)。   Then, the interpolation direction dependence amount calculation unit 4 reads the direction Di (D1, D2,..., Also referred to as the first interpolation direction) in the memory 8 (S4), and the direction D1 based on the direction Di is determined as the region Qi. (S5).

例えば、方向D1(角度)においては、図4に示すように、周辺要素Aに対してはD1Aの方向を、周辺要素Bに対してはD1Bの方向を、周辺要素Cに対してはD1Cの方向を、・・・・周辺要素Iに対してはD1Iの方向をそれぞれ定義(9つの成分の方向:第2の補間方向ともいう)する。これらの方向の要素は斜め3画素としている。   For example, in the direction D1 (angle), as shown in FIG. 4, the direction of D1A for the peripheral element A, the direction of D1B for the peripheral element B, and the direction of D1C for the peripheral element C For the peripheral element I, the direction of D1I is defined (the direction of nine components: also referred to as the second interpolation direction). The elements in these directions are diagonal three pixels.

つまり、D1Aは、(ja,ia)、(jb,ib)、(jc,ic)、D1Bは、(ja,ib)、(jb,ic)、(jc,id)、・・・・D1Fは、(jc,ic)、(jd,id)、(je,ie)・・・D1Iは、(je,ic)、(jf,id)、(jg,ie)と定義する。   That is, D1A is (ja, ia), (jb, ib), (jc, ic), D1B is (ja, ib), (jb, ic), (jc, id), ... D1F is , (Jc, ic), (jd, id), (je, ie)... D1I is defined as (je, ic), (jf, id), (jg, ie).

そして、補間方向依存量算出部4は、補間要素Eに対してのDi(D1)の依存量を求める(S6)。このD1の依存量の算出については、詳細に後述する。   Then, the interpolation direction dependency amount calculation unit 4 calculates a dependency amount of Di (D1) with respect to the interpolation element E (S6). The calculation of the dependency amount of D1 will be described later in detail.

次に、補間方向依存量算出部4は、方向DiがD5かどうかを判定する(S7)。ステップS7において、方向がD5ではないと判定したときは、方向Diを更新して処理をステップS6に戻す(S8)。   Next, the interpolation direction dependency amount calculation unit 4 determines whether or not the direction Di is D5 (S7). If it is determined in step S7 that the direction is not D5, the direction Di is updated and the process returns to step S6 (S8).

つまり、D1、D2、D3、D4、D5の順でEに対しての、それぞれの方向の依存量を求めている。   That is, the dependence amount of each direction with respect to E is obtained in the order of D1, D2, D3, D4, and D5.

ステップS7において、方向Diが最後の方向D5と判定したときは、補間方向決定部5がこれらの方向の依存量の内で、相関が最も強い方向の依存量を求める(S9)。   When it is determined in step S7 that the direction Di is the last direction D5, the interpolation direction determination unit 5 obtains a dependency amount in the direction having the strongest correlation among the dependency amounts in these directions (S9).

そして、補間方向決定部5は、相関が最も強い方向の依存量を有する方向を補間方向として決定し、この補間方向の画素値を補間処理部7に渡す(S10)。   Then, the interpolation direction determination unit 5 determines the direction having the dependency amount of the direction with the strongest correlation as the interpolation direction, and passes the pixel value in the interpolation direction to the interpolation processing unit 7 (S10).

補間処理部7は、補間方向決定部5で求められた方向の画素値(輝度)と画素値(輝度)との平均を、補間要素Eの値とする補間処理を行う(S11)。例えば、D1が最小であると判定したとき(D1が最も相関が強い)、補間要素Eは画素Eaと画素Efとの平均となる。   The interpolation processing unit 7 performs an interpolation process using the average of the pixel value (luminance) and the pixel value (luminance) in the direction obtained by the interpolation direction determination unit 5 as the value of the interpolation element E (S11). For example, when it is determined that D1 is the minimum (D1 has the strongest correlation), the interpolation element E is the average of the pixel Ea and the pixel Ef.

次に、補間処理部7は全ての補間ラインの補間要素(画素)に対して補間したかどうかを判定し(S12)、補間していないときは、次の補間要素(画素)に更新して(S13)、ステップS1に処理を戻して上記処理を行わせる。   Next, the interpolation processing unit 7 determines whether or not the interpolation elements (pixels) of all the interpolation lines have been interpolated (S12), and if not interpolated, updates to the next interpolation element (pixel). (S13), the process is returned to step S1, and the above process is performed.

図9は、補間方向Diの依存量を求めるためのフローチャートである。本実施の形態では、補間方向D1を代表にして説明する。補間方向依存量算出部4は、補間要素Eに対しての補間方向D1A{(ja,ia)、(jb,ib)、(jc,ic)}の周辺要素Mi(本実施の形態ではA(jb,ib))を読み込む(S20)。   FIG. 9 is a flowchart for obtaining the dependency amount of the interpolation direction Di. In the present embodiment, the interpolation direction D1 will be described as a representative. The interpolation direction dependency amount calculation unit 4 has a peripheral element Mi (A (in this embodiment) A () ({ja, ia), (jb, ib), (jc, ic)}) with respect to the interpolation element E. jb, ib)) is read (S20).

そして、この周辺要素Miの左上の画素ai(図5のAならばAa、BならばBa、・・・IならばIa)の画素値(輝度又は階調)と右下の画素fi(図7(b)のAならばAf、BならばBf、・・・・IならばIf)の画素値(輝度又は階調)とを読み込む(S21)。次に、周辺要素Miの左上の画素aiと右下の画素fiとの画素値(輝度又は階調)との差(差分値)を求める(S22a)。次に、補間要素からの周辺要素Miとの距離Liを求めて(S22b)、この距離Liに対応する係数kiをメモリ6から選択し(S22c)、この係数kiと画素値差とを関連させてメモリ(図示せず)に記憶する(S23)。ここで、距離Liの求め方について補充する。   Then, the pixel value (luminance or gradation) of the upper left pixel ai (Aa in FIG. 5, Ba for B,... Ia for I) in FIG. 5 and the lower right pixel fi (FIG. 5). 7 (b) reads the pixel value (luminance or gradation) of Af if A, Bf if B,... If if (I) (S21). Next, the difference (difference value) between the pixel values (luminance or gradation) of the upper left pixel ai and the lower right pixel fi of the peripheral element Mi is obtained (S22a). Next, a distance Li from the interpolation element to the peripheral element Mi is obtained (S22b), a coefficient ki corresponding to the distance Li is selected from the memory 6 (S22c), and the coefficient ki is associated with the pixel value difference. And stored in a memory (not shown) (S23). Here, it supplements about the method of calculating | requiring the distance Li.

例えば、補間要素Eから周辺要素(A〜I)までの距離を求め、K0〜K3(係数k0〜k3)を算出する。この算出は、EとAの距離は3画素(もしくは√5)、EとBの距離は2画素、EとCの距離は3画素(もしくは√5)、EとDの距離は1画素、EとEの距離は0画素、・・・というように算出する。   For example, the distance from the interpolation element E to the peripheral elements (A to I) is obtained, and K0 to K3 (coefficients k0 to k3) are calculated. In this calculation, the distance between E and A is 3 pixels (or √5), the distance between E and B is 2 pixels, the distance between E and C is 3 pixels (or √5), the distance between E and D is 1 pixel, The distance between E and E is calculated as 0 pixel.

すなわち、補間方向D1A、D1B、・・・D1Iのそれぞれの差分値と、補間要素に対しての周囲要素Miの係数kiとが求められることになる。   That is, the difference values of the interpolation directions D1A, D1B,... D1I and the coefficient ki of the surrounding element Mi for the interpolation element are obtained.

前述の係数kiは、例えば、最も距離差が小さいときはk0、最も距離差があるときはk3を選択するのが望ましい。   As the coefficient ki, for example, it is desirable to select k0 when the distance difference is the smallest and k3 when the distance difference is the smallest.

次に、最後の方向(D1=D1I)のaiとfiとの差分値及び補間要素に対しての周辺要素までの距離Liの係数kiを求めたかどうかを判断し(S24)、求めていないときはD1iを次ぎの方向に更新する(S25)。例えば、方向D1iをD1B、D1C・・・と更新する。次に、この更新したD1iを設定して処理をステップS21に戻す。   Next, it is determined whether or not the difference value between ai and fi in the last direction (D1 = D1I) and the coefficient ki of the distance Li to the peripheral element with respect to the interpolation element have been obtained (S24). Updates D1i in the next direction (S25). For example, the direction D1i is updated to D1B, D1C,. Next, the updated D1i is set, and the process returns to step S21.

一方、ステップS24において、最後の方向(D1=D1I)のaiとfiとの差分値、係数kiを求めたと判定したときは、この係数と差分値を乗算することによって、前述の依存量を求める演算を行う(S27)。   On the other hand, in step S24, when it is determined that the difference value between the ai and fi in the last direction (D1 = D1I) and the coefficient ki are obtained, the above-described dependency amount is obtained by multiplying the coefficient and the difference value. An operation is performed (S27).

すなわち、下記の式に示すようにしてD1方向のEに対する依存量を求めている。本実施の形態では各方向にかける係数kiは、予め決めている式で示す。   That is, the dependence amount with respect to E in the D1 direction is obtained as shown in the following equation. In the present embodiment, the coefficient ki applied in each direction is represented by a predetermined formula.

[数1]
D1 = K3*D1A + K2*D1B + K3*D1C
+K1*D1D + K0*D1E + K1*D1F
+K3*D1G + K2*D1H + K3*D1I
= K3|Aa-Af|+K2|Ba-Bf|+K3|Ca-Cf|
+K1|Da-Df|+K0|Ea-Ef|+K1|Fa-Ff|
+K3|Ga-Gf|+K2|Ha-Hf|+k3|Ia-If|
として求めている。
[Equation 1]
D1 = K3 * D1A + K2 * D1B + K3 * D1C
+ K1 * D1D + K0 * D1E + K1 * D1F
+ K3 * D1G + K2 * D1H + K3 * D1I
= K3 | Aa-Af | + K2 | Ba-Bf | + K3 | Ca-Cf |
+ K1 | Da-Df | + K0 | Ea-Ef | + K1 | Fa-Ff |
+ K3 | Ga-Gf | + K2 | Ha-Hf | + k3 | Ia-If |
Asking.

また、方向D2は、
[数2]
D2 = K3*D2A + K2*D2B + K3*D2C
+K1*D2D + K0*D2E + K1*D2F
+K3*D2G + K2*D2H + K3*D2I
= K3|(Aa+Ab)/2-(Ae+Af)/2|
+K2|(Ba+Bb)/2-(Be+Bf)/2|+K3|(Ca+Cb)/2-(Ce+Cf)/2|
+K1|(Da+Db)/2-(De+Df)/2|+K0|(Ea+Eb)/2-(Ee+Ef)/2|
+K1|(Fa+Fb)/2-(Fe+Ff)/2|
+K3|(Ga+Gb)/2-(Ge+Gf)/2|+K2|(Ha+Hb)/2-(He+Hf)/2|
+K3|(Ia+Ib)/2-(Ie+If)/2|
方向D3は、
[数3]
D3 = K3*D3A + K2*D3B + K3*D3C
+K1*D3D + K0*D3E + K1*D3F
+K3*D3G + K2*D3H + K3*D3I
= K3|Ab-Ae|+K2|Bb-Be|+K3|Cb-Ce|
+K1|Db-De|+K0|Eb-Ee|+K1|Fb-Fe|
+K3|Gb-Ge|+K2|Hb-He|+k3|Ib-Ie|
方向D4は、
[数4]
D4 = K3*D4A + K2*D4B + K3*D4C
+K1*D4D + K0*D4E + K1*D4F
+K3*D4G + K2*D4H + K3*D4I
= K3|(Ab+Ac)/2-(Ad+Ae)/2|+K2|(Bb+Bc)/2-(Bd+Be)/2|
+K3|(Cb+Cc)/2-(Cd+Ce)/2|
+K3|(Db+Dc)/2-(Dd+De)/2|+K0|(Eb+Ec)/2-(Ed+Ee)/2|
+K1|(Fb+Fc)/2-(Fd+Fe)/2|
+K3|(Gb+Gc)/2-(Gd+Ge)/2|+K2|(Hb+Hc)/2-(Hd+He)/2|
+K3|(Ib+Ic)/2-(Id+Ie)/2|
方向D5は、
[数5]
D5 = K3*D5A + K2*D5B + K3*D5C
+K1*D5D + K0*D5E + K1*D5F
+K3*D5G + K2*D5H + K3*D5I
= K3|Ac-Ad|+K2|Bc-Bd|+K3|Cc-Cd|
+K1|Dc-Dd|+K0|Ec-Ed|+K1|Fc-Fd|
+K3|Gc-Gd|+K2|Hc-Hd|+K3|Ic-Id|
そして、補間方向決定部がD1〜D5のうち最小のものを求め、補間方向を決定する。すなわち、差分値と係数との積が小さい方向が、相関も強い方向となる。例えば、D1が最小であるとき、補間画素Eは画素Eaと画素Efの平均となる。
The direction D2 is
[Equation 2]
D2 = K3 * D2A + K2 * D2B + K3 * D2C
+ K1 * D2D + K0 * D2E + K1 * D2F
+ K3 * D2G + K2 * D2H + K3 * D2I
= K3 | (Aa + Ab) / 2- (Ae + Af) / 2 |
+ K2 | (Ba + Bb) / 2- (Be + Bf) / 2 | + K3 | (Ca + Cb) / 2- (Ce + Cf) / 2 |
+ K1 | (Da + Db) / 2- (De + Df) / 2 | + K0 | (Ea + Eb) / 2- (Ee + Ef) / 2 |
+ K1 | (Fa + Fb) / 2- (Fe + Ff) / 2 |
+ K3 | (Ga + Gb) / 2- (Ge + Gf) / 2 | + K2 | (Ha + Hb) / 2- (He + Hf) / 2 |
+ K3 | (Ia + Ib) / 2- (Ie + If) / 2 |
The direction D3 is
[Equation 3]
D3 = K3 * D3A + K2 * D3B + K3 * D3C
+ K1 * D3D + K0 * D3E + K1 * D3F
+ K3 * D3G + K2 * D3H + K3 * D3I
= K3 | Ab-Ae | + K2 | Bb-Be | + K3 | Cb-Ce |
+ K1 | Db-De | + K0 | Eb-Ee | + K1 | Fb-Fe |
+ K3 | Gb-Ge | + K2 | Hb-He | + k3 | Ib-Ie |
Direction D4 is
[Equation 4]
D4 = K3 * D4A + K2 * D4B + K3 * D4C
+ K1 * D4D + K0 * D4E + K1 * D4F
+ K3 * D4G + K2 * D4H + K3 * D4I
= K3 | (Ab + Ac) / 2- (Ad + Ae) / 2 | + K2 | (Bb + Bc) / 2- (Bd + Be) / 2 |
+ K3 | (Cb + Cc) / 2- (Cd + Ce) / 2 |
+ K3 | (Db + Dc) / 2- (Dd + De) / 2 | + K0 | (Eb + Ec) / 2- (Ed + Ee) / 2 |
+ K1 | (Fb + Fc) / 2- (Fd + Fe) / 2 |
+ K3 | (Gb + Gc) / 2- (Gd + Ge) / 2 | + K2 | (Hb + Hc) / 2- (Hd + He) / 2 |
+ K3 | (Ib + Ic) / 2- (Id + Ie) / 2 |
Direction D5 is
[Equation 5]
D5 = K3 * D5A + K2 * D5B + K3 * D5C
+ K1 * D5D + K0 * D5E + K1 * D5F
+ K3 * D5G + K2 * D5H + K3 * D5I
= K3 | Ac-Ad | + K2 | Bc-Bd | + K3 | Cc-Cd |
+ K1 | Dc-Dd | + K0 | Ec-Ed | + K1 | Fc-Fd |
+ K3 | Gc-Gd | + K2 | Hc-Hd | + K3 | Ic-Id |
Then, the interpolation direction determination unit obtains the minimum one of D1 to D5 and determines the interpolation direction. That is, the direction in which the product of the difference value and the coefficient is small is the direction in which the correlation is strong. For example, when D1 is the minimum, the interpolation pixel E is the average of the pixel Ea and the pixel Ef.

図10は、実施の形態1の各処理部によって、水平1画素の斜め線におけるフィールド内補間処理の具体例を説明する図である。今回、画素の輝度値を元に、補間方向を決定することにする。白丸の画素の輝度100、黒丸の画素の輝度を0とすると、輝度0の画素はBf、Ce、De、Ec、Ed、Fb、Gb、Haとなり、それ以外は輝度100となる(図11を参照)。このときのD1〜D5の値を求める。   FIG. 10 is a diagram for explaining a specific example of the intra-field interpolation processing in the diagonal line of one horizontal pixel by each processing unit of the first embodiment. This time, the interpolation direction is determined based on the luminance value of the pixel. If the luminance of the white circle pixel is 100 and the luminance of the black circle pixel is 0, the pixel of luminance 0 is Bf, Ce, De, Ec, Ed, Fb, Gb, Ha, and the others are luminance 100 (see FIG. 11). reference). The values of D1 to D5 at this time are obtained.

上記の式より、
[数6]
D1 = K3|Aa-Af|+K2|Ba-Bf|+K3|Ca-Cf|
+K1|Da-Df|+K0|Ea-Ef|+K1|Fa-Ff|
+K3|Ga-Gf|+K2|Ha-Hf|+K3|Ia-If|
= K3|100-100|+K2|100-0|+K3|100-100|
+K1|100-100|+K0|100-100|+K1|100-100|
+K3|100-100|+K2|0-100|+K3|100-100|
= 200*K2
同様に
[数7]
D2 = 100*K1 + 100*K2 + 100*K3
D3 = 200*K1 + 200*K3
D4 = 100*K1 + 100*K3
D5 = 0
K0〜K3は、中心画素Eからの距離による重み付け係数kiであり、正の値である。そして、D1〜D5を比較すると、D5が最小となり、補間画素Eは、画素Ecと画素Edの平均となる。すなわち、水平2画素未満の斜め線であっても適切な補間が行われることになる。
From the above formula,
[Equation 6]
D1 = K3 | Aa-Af | + K2 | Ba-Bf | + K3 | Ca-Cf |
+ K1 | Da-Df | + K0 | Ea-Ef | + K1 | Fa-Ff |
+ K3 | Ga-Gf | + K2 | Ha-Hf | + K3 | Ia-If |
= K3 | 100-100 | + K2 | 100-0 | + K3 | 100-100 |
+ K1 | 100-100 | + K0 | 100-100 | + K1 | 100-100 |
+ K3 | 100-100 | + K2 | 0-100 | + K3 | 100-100 |
= 200 * K2
Similarly, [Equation 7]
D2 = 100 * K1 + 100 * K2 + 100 * K3
D3 = 200 * K1 + 200 * K3
D4 = 100 * K1 + 100 * K3
D5 = 0
K0 to K3 are weighting coefficients ki depending on the distance from the center pixel E, and are positive values. When D1 to D5 are compared, D5 is minimized, and the interpolation pixel E is the average of the pixel Ec and the pixel Ed. That is, appropriate interpolation is performed even for diagonal lines of less than two horizontal pixels.

つまり実施の形態1のソフトウエアは、走査画像を第1のメモリに保存し、飛び越し走査における補間ラインの補間要素の画像を画面に表示させる順次走査変換のプログラムにおいて、
コンピュータに、
それぞれ角度が異なる多数の第1の補間方向を第2のメモリに記憶する手段、
前記補間要素に対しての周辺要素までの距離に重み付け係数を対応させて第3のメモリに記憶する手段、
前記第1のメモリに前記走査画像が記憶されたとき、補間ラインにおける前記補間要素を順次、設定する手段、
前記補間要素が設定される毎に、前記第2のメモリの第1の補間方向を順次読み込み、前記補間要素の周辺要素に対して前記読み込んだ第1の補間方向と同方向の第2の補間方向を、前記周辺要素を基準にしてそれぞれ順次、設定する手段、
前記第1の補間方向に基づく第2の補間方向が設定される毎に、該第2の補間方向の前記周辺要素の上下又は左上、右下の画素ラインの画素値を順次抽出する手段、
前記第1の補間方向に基づく前記第2の補間方向の前記画素値が抽出される毎に、この第2の補間方向の両方の画素値の差分値を求めると共に、前記補間要素と前記周辺要素との距離を求め該距離に対応する前記重み付け係数を前記第3のメモリから選択して、この係数と前記第2の補間方向の差分値とを乗算する手段、
前記第1の補間方向に基づく全ての前記第2の補間方向の乗算結果を読み込み、これらを加算し、該加算値を前記補間要素に対しての前記第1の補間方向の依存量として求める手段、
前記多数の第1の補間方向の前記依存量が求められる毎に、これらの第1の補間方向の依存量同士を比較して、値が最も最小の依存量を有する前記第1の補間方向を前記補間要素に対する最適な補間方向とする手段、
前記最適な補間方向の前記上下又は左下、右下の画素値の平均を前記補間要素の補間値とし、該補間値に前記第1のメモリの補間要素を変換する手段
としての機能を実現させるための順次走査変換のプログラムとした技術思想であるともいえる。
That is, the software according to the first embodiment stores the scanned image in the first memory, and in the sequential scanning conversion program for displaying the image of the interpolation element of the interpolation line in the interlaced scanning on the screen,
On the computer,
Means for storing in a second memory a number of first interpolation directions each having a different angle;
Means for storing a weighting coefficient in a third memory in association with a distance from the interpolation element to a peripheral element;
Means for sequentially setting the interpolation elements in an interpolation line when the scanned image is stored in the first memory;
Each time the interpolation element is set, the first interpolation direction of the second memory is sequentially read, and the second interpolation in the same direction as the read first interpolation direction with respect to peripheral elements of the interpolation element Means for sequentially setting directions with reference to the peripheral elements,
Means for sequentially extracting pixel values of upper and lower or upper left and lower right pixel lines of the peripheral elements in the second interpolation direction each time a second interpolation direction based on the first interpolation direction is set;
Each time the pixel value in the second interpolation direction based on the first interpolation direction is extracted, a difference value between both pixel values in the second interpolation direction is obtained, and the interpolation element and the peripheral element are obtained. Means for determining the distance to and selecting the weighting coefficient corresponding to the distance from the third memory, and multiplying the coefficient by the difference value in the second interpolation direction;
Means for reading the multiplication results of all the second interpolation directions based on the first interpolation direction, adding them, and obtaining the added value as a dependency amount of the first interpolation direction with respect to the interpolation element ,
Each time the dependency amounts of the first interpolation directions are obtained, the dependency amounts of the first interpolation directions are compared with each other, and the first interpolation direction having the smallest dependency amount is obtained. Means for optimal interpolation direction for the interpolation element;
In order to realize a function as means for converting the interpolation value of the first memory into the interpolation value by using the average of the pixel values of the upper, lower, lower left and lower right in the optimal interpolation direction as the interpolation value of the interpolation element It can be said that this is a technical idea of a progressive scan conversion program.

<実施の形態2>
本実施の形態は、上記の処理をハードウエアで構成した例について説明する。図12は、本実施の形態の順次走査変換装置の概略構成図である。
<Embodiment 2>
In the present embodiment, an example in which the above processing is configured by hardware will be described. FIG. 12 is a schematic configuration diagram of the progressive scan conversion apparatus of the present embodiment.

図12に示すように、1フィールドの1ラインの映像信号を入力するための入力端子20と、フィルタ23(画素範囲設定手段、補間方向設定手段)と、方向依存量算出部25(差分値算出手段、補間方向検出手段)と、比較回路26と、セレクタ28とを備えている。比較回路26、セレクタ28は、補間方向検出手段、置換手段に相当する。   As shown in FIG. 12, an input terminal 20 for inputting one line of video signal of one field, a filter 23 (pixel range setting means, interpolation direction setting means), and a direction-dependent amount calculation unit 25 (difference value calculation). Means, an interpolation direction detecting means), a comparison circuit 26, and a selector 28. The comparison circuit 26 and the selector 28 correspond to interpolation direction detection means and replacement means.

入力端子20には、1ラインデレイするラインメモリ21a、21b、21cを直列接続し、ラインメモリ21cの出力をフィルタ23に接続している。このフィルタ23は、図2に示すD1〜D5の方向に基づく画素を抽出するフィルタを、それぞれの方向毎に備えている(D1用フィルタ23a、D2用フィルタ23b・・・D5用フィルタ23e)。このフィルタ23には、入力端子20に入力するラインの映像データと、ラインメモリ21aによって1ライン遅延された1ライン分の映像データと、ラインメモリ21b後の2ライン遅れの映像データ、ラインメモリ21c後の3ライン遅れの映像データを入力し、図2に示す方向成分に基づく画素を出力する。   Line memories 21 a, 21 b, and 21 c that are delayed by one line are connected in series to the input terminal 20, and the output of the line memory 21 c is connected to the filter 23. The filter 23 includes filters for extracting pixels based on directions D1 to D5 shown in FIG. 2 for each direction (D1 filter 23a, D2 filter 23b,... D5 filter 23e). The filter 23 includes video data of a line input to the input terminal 20, video data for one line delayed by one line by the line memory 21a, video data delayed by two lines after the line memory 21b, and line memory 21c. The subsequent video data delayed by three lines is input, and pixels based on the direction component shown in FIG. 2 are output.

D1フィルタ23aは、入力端子20に入力するラインの映像データの画素値(輝度)と、ラインメモリ21aによって1ライン遅延された1ライン分の映像データの画素値(輝度又は階調)と、ラインメモリ21b後の2ライン遅れの映像データの画素値(輝度又は階調)と、ラインメモリ21c後の3ライン遅れの映像データの画素値(輝度)を入力し、補間要素の周辺補間画素(A〜I)についてのD1方向の成分の画素を抽出する。   The D1 filter 23a includes a pixel value (luminance) of video data of a line input to the input terminal 20, a pixel value (luminance or gradation) of video data for one line delayed by one line by the line memory 21a, and a line The pixel value (luminance or gradation) of the video data delayed by 2 lines after the memory 21b and the pixel value (luminance) of video data delayed by 3 lines after the line memory 21c are input, and the peripheral interpolation pixel (A Extract the pixel of the component in the D1 direction for .about.I).

D2フィルタ23bは、入力端子20に入力するラインの映像データの画素値(輝度)と、ラインメモリ21aによって1ライン遅延された1ライン分の映像データの画素値(輝度)と、ラインメモリ21b後の2ライン遅れの映像データの画素値(輝度)と、ラインメモリ21c後の3ライン遅れの映像データの画素値(輝度)を入力し、補間要素の周辺補間画素(A〜I)についてのD2方向の成分の画素を抽出する。   The D2 filter 23b has a pixel value (luminance) of video data of a line input to the input terminal 20, a pixel value (luminance) of video data for one line delayed by one line by the line memory 21a, and the line memory 21b The pixel value (luminance) of the video data delayed by two lines and the pixel value (luminance) of the video data delayed by three lines after the line memory 21c are input, and D2 for the peripheral interpolation pixels (A to I) of the interpolation element Extract the pixel of the direction component.

D3フィルタ23cは、入力端子20に入力するラインの映像データの画素値(輝度又は階調)と、ラインメモリ21aによって1ライン遅延された1ライン分の映像データの画素値(輝度)と、ラインメモリ21b後の2ライン遅れの映像データの画素値(輝度)と、ラインメモリ21c後の3ライン遅れの映像データの画素値(輝度)を入力し、補間要素の周辺補間画素(A〜I)についてのD3方向の成分の画素を抽出する。   The D3 filter 23c includes a pixel value (luminance or gradation) of video data of a line input to the input terminal 20, a pixel value (luminance) of video data for one line delayed by one line by the line memory 21a, and a line The pixel value (luminance) of the video data delayed by two lines after the memory 21b and the pixel value (luminance) of video data delayed by three lines after the line memory 21c are input, and the peripheral interpolation pixels (A to I) of the interpolation element The pixel of the component of D3 direction about is extracted.

D4フィルタ23dは、入力端子20に入力するラインの映像データの画素値(輝度)と、ラインメモリ21aによって1ライン遅延された1ライン分の映像データの画素値(輝度)と、ラインメモリ21b後の2ライン遅れの映像データの画素値(輝度)と、ラインメモリ21c後の3ライン遅れの映像データの画素値(輝度)を入力し、補間要素の周辺補間画素(A〜I)についてのD4方向の成分の画素を抽出する。   The D4 filter 23d is a pixel value (luminance) of video data of a line input to the input terminal 20, a pixel value (luminance) of video data for one line delayed by one line by the line memory 21a, and the line memory 21b The pixel value (luminance) of the video data delayed by 2 lines and the pixel value (luminance) of the video data delayed by 3 lines after the line memory 21c are input, and D4 for the peripheral interpolation pixels (A to I) of the interpolation element is input. Extract the pixel of the direction component.

D5フィルタ23eは、入力端子20に入力するラインの映像データの画素値(輝度)と、ラインメモリ21aによって1ライン遅延された1ライン分の映像データの画素値(輝度)と、ラインメモリ21b後の2ライン遅れの映像データの画素値(輝度)と、ラインメモリ21c後の3ライン遅れの映像データの画素値(輝度)を入力し、補間要素の周辺補間画素(A〜I)についてのD5方向の成分の画素を抽出する。   The D5 filter 23e is a pixel value (luminance) of video data of a line input to the input terminal 20, a pixel value (luminance) of video data for one line delayed by one line by the line memory 21a, and the line memory 21b The pixel value (luminance) of the two-line delayed video data and the pixel value (luminance) of the three-line delayed video data after the line memory 21c are input, and D5 for the peripheral interpolation pixels (A to I) of the interpolation element Extract the pixel of the direction component.

例えば、D1用フィルタ23aは、図5(a)に示す周辺補間画素の左上の画素Aa、Ba、・・・Iaと、図7(b)に示す周辺補間画素の右下の画素Af、Bf、Df、Ef、Gf、Hfを抽出する。   For example, the D1 filter 23a includes pixels Aa, Ba,... Ia at the upper left of the peripheral interpolation pixels shown in FIG. 5A and pixels Af, Bf at the lower right of the peripheral interpolation pixels shown in FIG. , Df, Ef, Gf, and Hf are extracted.

また、方向依存量算出部25は、D1用依存量算出部25a、・・・D5用依存量算出部25eを有している。   In addition, the direction dependency amount calculation unit 25 includes a D1 dependency amount calculation unit 25a,..., A D5 dependency amount calculation unit 25e.

それぞれの依存量算出部が、入力端子20に入力するラインの映像データの画素値(輝度)と、ラインメモリ21aによって1ライン遅延された1ライン分の映像データの画素値(輝度)と、ラインメモリ21b後の2ライン遅れの映像データの画素値(輝度)と、ラインメモリ21c後の3ライン遅れの映像データの画素値(輝度)を入力すると共に、対応する方向のフィルタからの抽出された画素値を入力し、それぞれの画素値の差を求めて係数kiを乗算して各方向の依存量を求める。この係数kiは、距離に対応させて保存している。例えば、EとAの距離は3画素(もしくは√5)、EとBの距離は2画素、EとCの距離は3画素(もしくは√5)、EとDの距離は1画素、EとEの距離は0画素、・・・というように算出し、この距離に対応させた係数kiを選択する。   Each dependency amount calculation unit includes a pixel value (luminance) of video data of a line input to the input terminal 20, a pixel value (luminance) of video data for one line delayed by one line by the line memory 21a, and a line The pixel value (luminance) of the video data delayed by two lines after the memory 21b and the pixel value (luminance) of video data delayed by three lines after the line memory 21c are inputted and extracted from the filter in the corresponding direction. A pixel value is input, a difference between the respective pixel values is obtained, and a coefficient ki is multiplied to obtain a dependency amount in each direction. This coefficient ki is stored in correspondence with the distance. For example, the distance between E and A is 3 pixels (or √5), the distance between E and B is 2 pixels, the distance between E and C is 3 pixels (or √5), the distance between E and D is 1 pixel, The distance of E is calculated as 0 pixel,..., And a coefficient ki corresponding to this distance is selected.

比較回路26は、方向依存量算出部25から方向D1、D2・・・D5の依存量を比較し、最も依存している方向を決定してセレクタ28に出力する。   The comparison circuit 26 compares the dependency amounts in the directions D1, D2,... D5 from the direction dependency amount calculation unit 25, determines the most dependent direction, and outputs the determined direction to the selector 28.

セレクタ28は、比較回路26から出力された方向の最も影響する画素値と画素値との平均を選択し、この選択した画素値を補間要素の画素値として出力する。この画素値は画面のEの値とされる。   The selector 28 selects the average of the pixel value and the pixel value having the most influence in the direction output from the comparison circuit 26, and outputs the selected pixel value as the pixel value of the interpolation element. This pixel value is the E value of the screen.

図13は、フィルタ23の詳細構成図である。本実施の形態ではD1用フィルタ23aを例にして説明する。   FIG. 13 is a detailed configuration diagram of the filter 23. In the present embodiment, the D1 filter 23a will be described as an example.

図13に示すように、ラインメモリ21aとラインメモリ21bとの間のラインは、図14に示す画素ラインaであり、ラインメモリ21bとラインメモリ21cとの間のラインは、図14に示す画素ラインbであり、ラインメモリ21cの後は、図14に示す画素ラインcである。   As shown in FIG. 13, the line between the line memory 21a and the line memory 21b is the pixel line a shown in FIG. 14, and the line between the line memory 21b and the line memory 21c is the pixel shown in FIG. The line b is followed by the pixel line c shown in FIG. 14 after the line memory 21c.

そして、入力端子20には、ピクセルデレイ30a、30b・・・30dの順で接続され、ピクセルデレイ30aの入力端には、出力端31a(図7(b)のIf用)が接続され、ピクセルデレイ30aとピクセルデレイ30bとの間には、出力端31b(図7(b)のHf用)が接続されている。   The input terminal 20 is connected in the order of pixel delays 30a, 30b,... 30d, and the input terminal of the pixel delay 30a is connected to the output terminal 31a (for If in FIG. 7B). An output terminal 31b (for Hf in FIG. 7B) is connected between the delay 30a and the pixel delay 30b.

また、ピクセルデレイ30bとピクセルデレイ30cとの間には、出力端31c(図7(b)のGf用)が接続され、ピクセルデレイ30cとピクセルデレイ30dとの間には、出力端31dが接続されている。さらに、ピクセルデレイ30dには、出力端31e(図6(b)のGd)が接続されている。   Further, an output end 31c (for Gf in FIG. 7B) is connected between the pixel delay 30b and the pixel delay 30c, and an output end 31d is connected between the pixel delay 30c and the pixel delay 30d. Has been. Further, an output terminal 31e (Gd in FIG. 6B) is connected to the pixel delay 30d.

一方、ラインメモリ21aとラインメモリ21bとの間には、ピクセルデレイ32a、32b・・・32dの順で接続され、ピクセルデレイ32aの入力端には、出力端33a(図7(b)のFf用)が接続され、ピクセルデレイ32aとピクセルデレイ32bとの間には、出力端33b(図7(b)のEf用)が接続されている。   On the other hand, the pixel delays 32a, 32b,... 32d are connected in order between the line memory 21a and the line memory 21b, and the output terminal 33a (Ff in FIG. 7B) is connected to the input terminal of the pixel delay 32a. And an output end 33b (for Ef in FIG. 7B) is connected between the pixel delay 32a and the pixel delay 32b.

また、ピクセルデレイ32bとピクセルデレイ32cとの間には、出力端33c(図7(b)のDf用)と出力端33d(図5(a)のIa用)が接続され、ピクセルデレイ32cとピクセルデレイ32dとの間には、出力端33e(図5(a)のHa用)が接続されている。さらに、ピクセルデレイ32dには、出力端33f(図5(a)のGa用)が接続されている。   An output terminal 33c (for Df in FIG. 7B) and an output terminal 33d (for Ia in FIG. 5A) are connected between the pixel delay 32b and the pixel delay 32c. An output terminal 33e (for Ha in FIG. 5A) is connected to the pixel delay 32d. Further, an output end 33f (for Ga in FIG. 5A) is connected to the pixel delay 32d.

ラインメモリ21bとラインメモリ21cとの間には、ピクセルデレイ34a、34b・・・34dの順で接続され、ピクセルデレイ34aの入力端には、出力端35a(図7(b)のCf用)が接続され、ピクセルデレイ34aとピクセルデレイ34bとの間には、出力端35b(図7(b)のBf用)が接続されている。   The line memories 21b and 21c are connected in the order of pixel delays 34a, 34b,... 34d, and the output terminal 35a (for Cf in FIG. 7B) is connected to the input terminal of the pixel delay 34a. Are connected, and an output end 35b (for Bf in FIG. 7B) is connected between the pixel delay 34a and the pixel delay 34b.

また、ピクセルデレイ34bとピクセルデレイ34cとの間には、出力端35c(図7(b)のAf用)と出力端35d(図5(a)のFa用)が接続され、ピクセルデレイ34cとピクセルデレイ34dとの間には、出力端35e(図5(a)のEa用)が接続されている。さらに、ピクセルデレイ34dには、出力端35f(図5(a)のDa用)が接続されている。   An output terminal 35c (for Af in FIG. 7B) and an output terminal 35d (for Fa in FIG. 5A) are connected between the pixel delay 34b and the pixel delay 34c, and the pixel delay 34c An output end 35e (for Ea in FIG. 5A) is connected to the pixel delay 34d. Furthermore, an output end 35f (for Da in FIG. 5A) is connected to the pixel delay 34d.

さらに、ラインメモリ21cにはピクセルデレイ36a、36b・・・36dの順で接続され、ピクセルデレイ36bとピクセルデレイ36cとの間には、出力端37a(図5(b)のCa用)が接続されている。   Further, pixel delays 36a, 36b,... 36d are connected to the line memory 21c in this order, and an output terminal 37a (for Ca in FIG. 5B) is connected between the pixel delay 36b and the pixel delay 36c. Has been.

また、ピクセルデレイ36cとピクセルデレイ36dとの間には、出力端37b(図5(b)のBa用)が接続され、ピクセルデレイ36dには、出力端37c(図5(a)のAa)が接続されている。すなわち、図4の方向D1(D1A、D1B・・・・D1i)における補間要素に関連する画素が抽出される。   An output terminal 37b (for Ba in FIG. 5B) is connected between the pixel delay 36c and the pixel delay 36d, and an output terminal 37c (Aa in FIG. 5A) is connected to the pixel delay 36d. Is connected. That is, pixels related to the interpolation element in the direction D1 (D1A, D1B,... D1i) in FIG. 4 are extracted.

図15は、D1用依存量算出部25aの概略構成図である。図15に示すように、差分器40a、40b、・・・・40iと、係数乗算器41a、41b、・・・・41iと、加算器43と、加算器44と、平均化回路45とを備えている。   FIG. 15 is a schematic configuration diagram of the D1 dependency calculation unit 25a. As shown in FIG. 15, difference units 40a, 40b,... 40i, coefficient multipliers 41a, 41b,... 41i, an adder 43, an adder 44, and an averaging circuit 45 are provided. I have.

係数乗算器41a(k3用)は、画素値AaとAfとの差を求める差分器(減算器)40aに接続され、出力端が加算器43に接続されている。   The coefficient multiplier 41a (for k3) is connected to a differentiator (subtracter) 40a for obtaining a difference between the pixel values Aa and Af, and an output terminal is connected to the adder 43.

また、係数乗算器41b(k2用)は、画素値BaとBfとの差を求める差分器(減算器)40bに接続され、出力端が加算器43に接続されている。   The coefficient multiplier 41b (for k2) is connected to a differentiator (subtractor) 40b for obtaining a difference between the pixel values Ba and Bf, and an output terminal is connected to the adder 43.

係数乗算器41c(k3用)は、画素値CaとCfとの差を求める差分器(減算器)40cに接続され、出力端が加算器43に接続されている。   The coefficient multiplier 41c (for k3) is connected to a differentiator (subtracter) 40c for obtaining a difference between the pixel values Ca and Cf, and an output terminal is connected to the adder 43.

係数乗算器41d(k1用)は、画素値DaとDfとの差を求める差分器(減算器)40dに接続され、出力端が加算器43に接続されている。   The coefficient multiplier 41d (for k1) is connected to a differentiator (subtracter) 40d for obtaining a difference between the pixel values Da and Df, and an output terminal is connected to the adder 43.

係数乗算器41e(k0用)は、画素値EaとEfとの差を求める差分器(減算器)40eに接続され、出力端が加算器43に接続されている。   The coefficient multiplier 41e (for k0) is connected to a differentiator (subtractor) 40e for obtaining a difference between the pixel values Ea and Ef, and an output terminal is connected to the adder 43.

係数乗算器41f(k1用)は、画素値FaとFfとの差を求める差分器(減算器)40fに接続され、出力端が加算器43に接続されている。   The coefficient multiplier 41f (for k1) is connected to a differentiator (subtracter) 40f for obtaining a difference between the pixel values Fa and Ff, and an output terminal is connected to the adder 43.

係数乗算器41g(k3用)は、画素値GaとGfとの差を求める差分器(減算器)40gに接続され、出力端が加算器43に接続されている。   The coefficient multiplier 41g (for k3) is connected to a differentiator (subtracter) 40g for obtaining a difference between the pixel values Ga and Gf, and an output terminal is connected to the adder 43.

係数乗算器41h(k2用)は、画素値HaとHfとの差を求める差分器(減算器)40hに接続され、出力端が加算器43に接続されている。   The coefficient multiplier 41h (for k2) is connected to a differentiator (subtracter) 40h for obtaining a difference between the pixel values Ha and Hf, and an output terminal is connected to the adder 43.

係数乗算器41i(k3用)は、画素値IaとIfとの差を求める差分器(減算器)40iに接続され、出力端が加算器43に接続されている。   The coefficient multiplier 41i (for k3) is connected to a differentiator (subtracter) 40i for obtaining a difference between the pixel values Ia and If, and an output terminal is connected to the adder 43.

さらに、差分器40eには画素値Eaと画素値Efとを加算する加算器44が接続され、この加算器44には平均化回路45が接続されている。そして、平均化回路45の出力が、セレクタ28に接続されている。   Further, an adder 44 for adding the pixel value Ea and the pixel value Ef is connected to the subtractor 40e, and an averaging circuit 45 is connected to the adder 44. The output of the averaging circuit 45 is connected to the selector 28.

すなわち、上記のように構成された順次走査変換装置は、方向D1においては図14に示す方向の画素値がD1フィルタ23aで抽出されて、D1用依存量算出部25aに出力される。   That is, in the progressive scan conversion device configured as described above, the pixel value in the direction shown in FIG. 14 is extracted by the D1 filter 23a in the direction D1, and is output to the D1 dependency calculation unit 25a.

すなわち、図3に示す領域の画像データが1ライン毎に入力すると、ラインメモリ21a、21b、21c(3ライン遅延)によって図14に示すCラインの画素データが、ピクセルデレイ36a・・・36d(Cラインと称する)に入力する。そして、Cラインには、ピクセルデレイ36a、36bの2個あるので、図5(a)に示すように、(ja,id)、(ja,ie)は読み込まれないで、ピクセルデレイ36bの出力は(ja,ic)の画素値Caが出力され、ピクセルデレイ36cによって、(ja,ib)の画素値Baが出力され、ピクセルデレイ36dによって(ja,ia)の画素値Aaが出力される。   That is, when the image data of the area shown in FIG. 3 is input for each line, the pixel data of the C line shown in FIG. 14 is converted into the pixel delays 36a... 36d (line delay) by the line memories 21a, 21b and 21c. C line). Since there are two pixel delays 36a and 36b on the C line, as shown in FIG. 5A, (ja, id) and (ja, ie) are not read, and the output of the pixel delay 36b. The pixel value Ca of (ja, ic) is output, the pixel value Ba of (ja, ib) is output by the pixel delay 36c, and the pixel value Aa of (ja, ia) is output by the pixel delay 36d.

また、ラインメモリ21a、21b(2ライン遅れ)によって、図14に示すbラインの画素データがピクセルデレイ34a・・・34d(bラインと称する)に入力する。そして、bラインには、ピクセルデレイ34aの入力端を出力端としているので(jc,ie)の画素値Cfが、出力端35aに出力される。そして、ピクセルデレイ34aによって1ピクセル遅延された(jc,id)の画素値Bfが、出力される。また、ピクセルデレイ34bによって、(jc,ic)の画素値Afが出力されると共に、画素値Faが出力される。そして、ピクセルデレイ34cによって(jc,ib)の画素値Eaが、ピクセルデレイ34dによって(jc,ic)の画素値Daが出力される。   Also, the line memories 21a and 21b (2 line delay) input the pixel data of the b line shown in FIG. 14 to the pixel delays 34a... 34d (referred to as the b line). Since the input end of the pixel delay 34a is used as the output end for the b line, the pixel value Cf of (jc, ie) is output to the output end 35a. Then, the pixel value Bf of (jc, id) delayed by one pixel by the pixel delay 34a is output. In addition, the pixel value Af of (jc, ic) and the pixel value Fa are output by the pixel delay 34b. Then, the pixel value Ea of (jc, ib) is output by the pixel delay 34c, and the pixel value Da of (jc, ic) is output by the pixel delay 34d.

一方、ラインメモリ21a(1ライン遅れ)によって、図14に示すaラインの画素データが、ピクセルデレイ32a・・・32d(aラインと称する)に入力する。そして、aラインには、ピクセルデレイ32aの入力端を出力端としているので、(jd,ie)の画素値Ffが出力端33aに出力される。そして、ピクセルデレイ32aによって1ピクセル遅延された(jd,id)の画素値Efが、出力される。また、ピクセルデレイ32bによって、(je,ic)の画素値Dfが出力されると共に、画素値Iaが出力される。そして、ピクセルデレイ32cによって(jd,ib)の画素値Haが、ピクセルデレイ32dによって(je,ia)の画素値Gaが出力される。   On the other hand, the line memory 21a (1 line delay) inputs the pixel data of the a line shown in FIG. 14 to the pixel delays 32a to 32d (referred to as a line). In the a line, since the input end of the pixel delay 32a is used as the output end, the pixel value Ff of (jd, ie) is output to the output end 33a. Then, the pixel value Ef of (jd, id) delayed by one pixel by the pixel delay 32a is output. Further, the pixel value Df of (je, ic) and the pixel value Ia are output by the pixel delay 32b. Then, the pixel value Ha of (jd, ib) is output by the pixel delay 32c, and the pixel value Ga of (je, ia) is output by the pixel delay 32d.

また、メモリライン介さない箇所からは、画素値If、Hf・・・Gdが出力される。   Also, pixel values If, Hf,... Gd are output from locations not via the memory line.

そして、図15に示すD1用依存量算出部25aに入力して、それぞれの周辺要素(A〜I)の右上と左下の画素値が減算され、予め定められている計数が乗算されて、これが加算器43に入る。   Then, it is input to the D1-dependent amount calculation unit 25a shown in FIG. 15, and the upper right and lower left pixel values of the respective peripheral elements (A to I) are subtracted and multiplied by a predetermined count. The adder 43 is entered.

すなわち、実施の形態1と同様に、
[数8]
D1 = K3*D1A + K2*D1B + K3*D1C
+K1*D1D + K0*D1E + K1*D1F
+K3*D1G + K2*D1H + K3*D1I
= K3|Aa-Af|+K2|Ba-Bf|+K3|Ca-Cf|
+K1|Da-Df|+K0|Ea-Ef|+K1|Fa-Ff|
+K3|Ga-Gf|+K2|Ha-Hf|+k3|Ia-If|
として求めていることになる。
That is, as in the first embodiment,
[Equation 8]
D1 = K3 * D1A + K2 * D1B + K3 * D1C
+ K1 * D1D + K0 * D1E + K1 * D1F
+ K3 * D1G + K2 * D1H + K3 * D1I
= K3 | Aa-Af | + K2 | Ba-Bf | + K3 | Ca-Cf |
+ K1 | Da-Df | + K0 | Ea-Ef | + K1 | Fa-Ff |
+ K3 | Ga-Gf | + K2 | Ha-Hf | + k3 | Ia-If |
Will be asking.

また、方向D2は、
[数9]
D2 = K3*D2A + K2*D2B + K3*D2C
+K1*D2D + K0*D2E + K1*D2F
+K3*D2G + K2*D2H + K3*D2I
= K3|(Aa+Ab)/2-(Ae+Af)/2|
+K2|(Ba+Bb)/2-(Be+Bf)/2|+K3|(Ca+Cb)/2-(Ce+Cf)/2|
+K1|(Da+Db)/2-(De+Df)/2|+K0|(Ea+Eb)/2-(Ee+Ef)/2|
+K1|(Fa+Fb)/2-(Fe+Ff)/2|
+K3|(Ga+Gb)/2-(Ge+Gf)/2|+K2|(Ha+Hb)/2-(He+Hf)/2|
+K3|(Ia+Ib)/2-(Ie+If)/2|
方向D3は、
[数10]
D3 = K3*D3A + K2*D3B + K3*D3C
+K1*D3D + K0*D3E + K1*D3F
+K3*D3G + K2*D3H + K3*D3I
= K3|Ab-Ae|+K2|Bb-Be|+K3|Cb-Ce|
+K1|Db-De|+K0|Eb-Ee|+K1|Fb-Fe|
+K3|Gb-Ge|+K2|Hb-He|+k3|Ib-Ie|
方向D4は、
[数11]
D4 = K3*D4A + K2*D4B + K3*D4C
+K1*D4D + K0*D4E + K1*D4F
+K3*D4G + K2*D4H + K3*D4I
= K3|(Ab+Ac)/2-(Ad+Ae)/2|+K2|(Bb+Bc)/2-(Bd+Be)/2|
+K3|(Cb+Cc)/2-(Cd+Ce)/2|
+K3|(Db+Dc)/2-(Dd+De)/2|+K0|(Eb+Ec)/2-(Ed+Ee)/2|
+K1|(Fb+Fc)/2-(Fd+Fe)/2|
+K3|(Gb+Gc)/2-(Gd+Ge)/2|+K2|(Hb+Hc)/2-(Hd+He)/2|
+K3|(Ib+Ic)/2-(Id+Ie)/2|
方向D5は、
[数12]
D5 = K3*D5A + K2*D5B + K3*D5C
+K1*D5D + K0*D5E + K1*D5F
+K3*D5G + K2*D5H + K3*D5I
= K3|Ac-Ad|+K2|Bc-Bd|+K3|Cc-Cd|
+K1|Dc-Dd|+K0|Ec-Ed|+K1|Fc-Fd|
+K3|Gc-Gd|+K2|Hc-Hd|+K3|Ic-Id|
そして、補間方向決定部がD1〜D5のうち最小のものを求め、補間方向を決定する。たとえばD1が最小であるとき、補間画素Eは画素Eaと画素Efの平均となる。 すなわち、実施の形態2は、走査画像を入力して、飛び越し走査における補間ラインの補間要素の画像を画面に表示させる順次走査変換のための装置において、
1水平走査期間を遅延させるラインメモリを前記補間要素の周辺要素ライン分だけ直列接続されたラインメモリ群と、前記補間要素の補間方向毎に設けられ、前記ラインメモリ群からの遅延された複数の画素ラインの各画素値を入力し、この各画素値を前記補間方向に従って順次遅延させることで前記補間要素の周辺要素の前記画素ラインでの上下又は左上、右下の画素値を順次抽出するフィルタ部と、前記補間方向毎に設けられ、それぞれが、前記補間方向が同じ前記フィルタ部から前記周辺要素の画素ラインの前記上下又は前記左上、右下の画素値をそれぞれ読み込み、両方の画素値の差分値を求め、これらの差分値に対して予め決められた重み付け係数をそれぞれ乗算して、それぞれの乗算結果を加算し、これを前記補間要素に対しての前記補間方向の依存量として出力する補間方向依存量算出部と、前記補間方向依存量算出部からの前記多数の補間方向の依存量同士を比較し、最も小さい補間方向を前記補間要素に対する最適な補間方向とする補間方向決定部と、前記最適な補間方向の前記上下又は左下、右下の画素値の平均を前記補間要素の補間値とし、該補間値に前記メモリの補間要素を変換する画素補間部とを備えた順次走査変換のための装置とした技術思想であるともいえる。
The direction D2 is
[Equation 9]
D2 = K3 * D2A + K2 * D2B + K3 * D2C
+ K1 * D2D + K0 * D2E + K1 * D2F
+ K3 * D2G + K2 * D2H + K3 * D2I
= K3 | (Aa + Ab) / 2- (Ae + Af) / 2 |
+ K2 | (Ba + Bb) / 2- (Be + Bf) / 2 | + K3 | (Ca + Cb) / 2- (Ce + Cf) / 2 |
+ K1 | (Da + Db) / 2- (De + Df) / 2 | + K0 | (Ea + Eb) / 2- (Ee + Ef) / 2 |
+ K1 | (Fa + Fb) / 2- (Fe + Ff) / 2 |
+ K3 | (Ga + Gb) / 2- (Ge + Gf) / 2 | + K2 | (Ha + Hb) / 2- (He + Hf) / 2 |
+ K3 | (Ia + Ib) / 2- (Ie + If) / 2 |
The direction D3 is
[Equation 10]
D3 = K3 * D3A + K2 * D3B + K3 * D3C
+ K1 * D3D + K0 * D3E + K1 * D3F
+ K3 * D3G + K2 * D3H + K3 * D3I
= K3 | Ab-Ae | + K2 | Bb-Be | + K3 | Cb-Ce |
+ K1 | Db-De | + K0 | Eb-Ee | + K1 | Fb-Fe |
+ K3 | Gb-Ge | + K2 | Hb-He | + k3 | Ib-Ie |
Direction D4 is
[Equation 11]
D4 = K3 * D4A + K2 * D4B + K3 * D4C
+ K1 * D4D + K0 * D4E + K1 * D4F
+ K3 * D4G + K2 * D4H + K3 * D4I
= K3 | (Ab + Ac) / 2- (Ad + Ae) / 2 | + K2 | (Bb + Bc) / 2- (Bd + Be) / 2 |
+ K3 | (Cb + Cc) / 2- (Cd + Ce) / 2 |
+ K3 | (Db + Dc) / 2- (Dd + De) / 2 | + K0 | (Eb + Ec) / 2- (Ed + Ee) / 2 |
+ K1 | (Fb + Fc) / 2- (Fd + Fe) / 2 |
+ K3 | (Gb + Gc) / 2- (Gd + Ge) / 2 | + K2 | (Hb + Hc) / 2- (Hd + He) / 2 |
+ K3 | (Ib + Ic) / 2- (Id + Ie) / 2 |
Direction D5 is
[Equation 12]
D5 = K3 * D5A + K2 * D5B + K3 * D5C
+ K1 * D5D + K0 * D5E + K1 * D5F
+ K3 * D5G + K2 * D5H + K3 * D5I
= K3 | Ac-Ad | + K2 | Bc-Bd | + K3 | Cc-Cd |
+ K1 | Dc-Dd | + K0 | Ec-Ed | + K1 | Fc-Fd |
+ K3 | Gc-Gd | + K2 | Hc-Hd | + K3 | Ic-Id |
Then, the interpolation direction determination unit obtains the minimum one of D1 to D5 and determines the interpolation direction. For example, when D1 is the minimum, the interpolation pixel E is the average of the pixel Ea and the pixel Ef. That is, Embodiment 2 is an apparatus for sequential scan conversion in which a scan image is input and an image of an interpolation element of an interpolation line in interlaced scanning is displayed on a screen.
A line memory group in which line memories for delaying one horizontal scanning period are connected in series for the peripheral element lines of the interpolation element, and a plurality of delayed lines from the line memory group are provided for each interpolation direction of the interpolation element. A filter that inputs pixel values of a pixel line and sequentially extracts pixel values of upper, lower, upper left, and lower right in the pixel line of peripheral elements of the interpolation element by sequentially delaying the pixel values in accordance with the interpolation direction. And each of the interpolation directions, each of which reads the upper and lower or upper left and lower right pixel values of the pixel line of the peripheral element from the filter unit having the same interpolation direction, Find the difference values, multiply each of these difference values by a predetermined weighting coefficient, add the respective multiplication results, and add this to the interpolation element The interpolation direction dependency amount calculation unit that outputs the dependency amount of the interpolation direction is compared with the dependency amounts of the multiple interpolation directions from the interpolation direction dependency amount calculation unit, and the smallest interpolation direction is optimized for the interpolation element. Interpolation direction determination unit as an interpolation direction, and an average of the upper, lower, lower left, and lower right pixel values of the optimal interpolation direction as an interpolation value of the interpolation element, and a pixel that converts the interpolation element of the memory into the interpolation value It can be said that the technical idea is an apparatus for progressive scanning conversion including an interpolation unit.

本発明は、インターレス方式のテレビジョン信号において、補間信号を生成する走査線補間装置に適用できる。   The present invention can be applied to a scanning line interpolation device that generates an interpolation signal in an interlaced television signal.

本発明の実施の形態1の順次走査変換のプログラムの概略構成図である。It is a schematic block diagram of the program of the progressive scanning conversion of Embodiment 1 of this invention. 同実施の形態1の多数の補間方向を説明する説明図である。It is explanatory drawing explaining many interpolation directions of the Embodiment 1. FIG. Eが求める補間要素とした場合に、この補間要素Eの周辺要素(垂直方向、斜め方向)を定義するための説明図である。FIG. 11 is an explanatory diagram for defining peripheral elements (vertical direction and diagonal direction) of the interpolation element E when E is used as an interpolation element. 補間要素Eに対して方向D1とした場合の周辺要素に対しての方向の説明図である。It is explanatory drawing of the direction with respect to a peripheral element at the time of setting it as the direction D1 with respect to the interpolation element E. FIG. 周辺要素に対しての画素ラインにおける各画素の定義を説明する説明図である。It is explanatory drawing explaining the definition of each pixel in the pixel line with respect to a peripheral element. 周辺要素に対しての画素ラインにおける各画素の定義を説明する説明図である。It is explanatory drawing explaining the definition of each pixel in the pixel line with respect to a peripheral element. 周辺要素に対しての画素ラインにおける各画素の定義を説明する説明図である。It is explanatory drawing explaining the definition of each pixel in the pixel line with respect to a peripheral element. 同実施の形態1の動作を説明するフローチャートである。3 is a flowchart for explaining the operation of the first embodiment. Diの方向の依存量算出を説明するフローチャートである。It is a flowchart explaining the dependence amount calculation of the direction of Di. 同実施の形態1の各処理部によって水平1画素の斜め線におけるフィールド内補間の具体例を説明する説明図である。6 is an explanatory diagram for explaining a specific example of intra-field interpolation in a diagonal line of one horizontal pixel by each processing unit of the first embodiment. FIG. 図10の周辺要素に対しての画素ラインにおける各画素の定義を説明する説明図である。It is explanatory drawing explaining the definition of each pixel in the pixel line with respect to the peripheral element of FIG. 本発明の実施の形態2の順次走査変換装置の概略構成図である。It is a schematic block diagram of the progressive scanning conversion apparatus of Embodiment 2 of this invention. 同実施の形態2における、フィルタ23の詳細構成図である。It is a detailed block diagram of the filter 23 in the same Embodiment 2. 同実施の形態2のD1方向に基づく周辺要素に対しての方向を説明する説明図である。It is explanatory drawing explaining the direction with respect to the periphery element based on D1 direction of the same Embodiment 2. FIG. 同実施の形態2における、D1用依存量算出部25aの概略構成図である。It is a schematic block diagram of the dependence amount calculation part 25a for D1 in the same Embodiment 2. FIG. 上下ライン画素の平均値での補間を説明する説明図である。It is explanatory drawing explaining the interpolation by the average value of an up-and-down line pixel. フィールド内の斜め方向の相関を利用しての補間の説明図である。It is explanatory drawing of the interpolation using the correlation of the diagonal direction in a field.

符号の説明Explanation of symbols

1 フレームメモリ
3 補間領域設定部
4 補間方向依存量算出部
5 補間方向決定部
7 補間処理部
23 フィルタ
25 方向依存量算出部
26 比較回路
28 セレクタ
DESCRIPTION OF SYMBOLS 1 Frame memory 3 Interpolation area setting part 4 Interpolation direction dependence amount calculation part 5 Interpolation direction determination part 7 Interpolation processing part 23 Filter 25 Direction dependence quantity calculation part 26 Comparison circuit 28 Selector

Claims (2)

飛び越し走査画像の走査線を補間して順次走査画像に変換する順次走査変換装置において、
前記飛び越し走査画像の補間すべき画素を順次特定し、該特定した補間すべき画素を中心とし、この補間すべき画素に対した所定の画素範囲を順次設定する画素範囲設定手段と、
前記画素範囲が設定される毎に、この画素範囲において前記補間すべき画素に対応した補間方向を複数設定する補間方向設定手段と、
各前記複数の補間方向に存在する画素同士の差分値を検出し、前記補間すべき画素に対して最も相関する補間方向を検出する補間方向検出手段と、
前記補間方向検出手段より検出された補間方向上に位置する前記設定された画素範囲中にある画素の値の平均値を求め、該平均値に前記補間すべき画素の値を置換することで前記順次走査画像に対応した画素を得る置換手段と、
を有することを特徴とする順次走査変換装置。
In a sequential scanning conversion device that interpolates the scanning lines of the interlaced scanning image and converts it to a sequential scanning image,
Pixel range setting means for sequentially specifying the pixels to be interpolated in the interlaced scanning image, centering on the specified pixels to be interpolated, and sequentially setting a predetermined pixel range for the pixels to be interpolated;
Interpolation direction setting means for setting a plurality of interpolation directions corresponding to the pixels to be interpolated in the pixel range each time the pixel range is set;
An interpolation direction detecting means for detecting a difference value between pixels existing in each of the plurality of interpolation directions and detecting an interpolation direction most correlated with the pixel to be interpolated;
By obtaining an average value of the values of the pixels in the set pixel range located on the interpolation direction detected by the interpolation direction detection means, and substituting the value of the pixel to be interpolated with the average value Replacement means for obtaining pixels corresponding to the sequentially scanned image;
A sequential scanning conversion device characterized by comprising:
前記補間方向検出手段は、
前記差分値が算出される毎に、該差分値に予め決められた重み付け係数を乗算した後加算し、該加算結果同士を比較して前記補間すべき画素に対して最も相関する補間方向を検出することを特徴とする請求項1記載の順次走査変換装置。
The interpolation direction detecting means includes
Each time the difference value is calculated, the difference value is multiplied by a predetermined weighting coefficient and then added, and the addition result is compared with each other to detect the interpolation direction most correlated with the pixel to be interpolated. The progressive scan conversion apparatus according to claim 1, wherein:
JP2004238292A 2004-08-18 2004-08-18 Sequential-scanning converter Pending JP2006060375A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004238292A JP2006060375A (en) 2004-08-18 2004-08-18 Sequential-scanning converter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004238292A JP2006060375A (en) 2004-08-18 2004-08-18 Sequential-scanning converter

Publications (1)

Publication Number Publication Date
JP2006060375A true JP2006060375A (en) 2006-03-02

Family

ID=36107514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004238292A Pending JP2006060375A (en) 2004-08-18 2004-08-18 Sequential-scanning converter

Country Status (1)

Country Link
JP (1) JP2006060375A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008166872A (en) * 2006-12-26 2008-07-17 Fujitsu Ltd Program, apparatus and method for determining interpolation method
US7711209B2 (en) 2008-06-25 2010-05-04 Kabushiki Kaisha Toshiba Image expansion apparatus and image expansion method
US8175416B2 (en) * 2007-05-07 2012-05-08 Mstar Semiconductor, Inc. Pixel interpolation apparatus and method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008166872A (en) * 2006-12-26 2008-07-17 Fujitsu Ltd Program, apparatus and method for determining interpolation method
US8175416B2 (en) * 2007-05-07 2012-05-08 Mstar Semiconductor, Inc. Pixel interpolation apparatus and method thereof
US7711209B2 (en) 2008-06-25 2010-05-04 Kabushiki Kaisha Toshiba Image expansion apparatus and image expansion method

Similar Documents

Publication Publication Date Title
US7586540B2 (en) Image interpolation device and a frame rate converter and image display apparatus using the same
JP3418558B2 (en) Scanning line conversion device and flicker removal device
US20120207218A1 (en) Motion detection device and method, video signal processing device and method and video display device
US7218354B2 (en) Image processing device and method, video display device, and recorded information reproduction device
JPH02289894A (en) Video signal interpolating device
US8274605B2 (en) System and method for adjacent field comparison in video processing
US20060290806A1 (en) System, method, and apparatus for interlaced to progressive conversion using weighted average of spatial interpolation and weaving
EP1821551A2 (en) Video processing device, video processing method, and video processing program
KR100422575B1 (en) An Efficient Spatial and Temporal Interpolation system for De-interlacing and its method
US20060176406A1 (en) Digital video signal processing apparatus and method for frame-based adaptive temporal and spatial Y/C separation
KR100734310B1 (en) Sync detector of video signal processing apparatus and sync selection apparatus including the sync detector
JP2006060375A (en) Sequential-scanning converter
JP3926376B2 (en) Video signal processing circuit, video signal display device, and video signal recording device
KR100540380B1 (en) Apparatus and method for intra field interpolation of deinterlacer
JP5178477B2 (en) Video signal processing apparatus and method, and video display apparatus
WO2010046989A1 (en) Frame rate converting device, image processing device, display, frame rate converting method, its program, and recording medium where the program is recorded
JP4483255B2 (en) Liquid crystal display
JPH06311488A (en) Scanning line converter
JP2003289511A (en) Image scan converting method and apparatus
JP2007074590A (en) Image processing apparatus and method, program, and recording medium
US7495706B2 (en) Video signal setting device for performing output setting to a display device
JP2006332904A (en) Contour emphasizing circuit
JP3567141B2 (en) Transmitting device and method, receiving device and method, broadcasting system, and program
JP3772427B2 (en) Flicker remover
US20090079866A1 (en) Video Signal Oblique Interpolating Apparatus and Method