JP3444170B2 - Field image interpolation method and field image interpolation device - Google Patents

Field image interpolation method and field image interpolation device

Info

Publication number
JP3444170B2
JP3444170B2 JP34431697A JP34431697A JP3444170B2 JP 3444170 B2 JP3444170 B2 JP 3444170B2 JP 34431697 A JP34431697 A JP 34431697A JP 34431697 A JP34431697 A JP 34431697A JP 3444170 B2 JP3444170 B2 JP 3444170B2
Authority
JP
Japan
Prior art keywords
pixel
data
interpolation
pixels
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP34431697A
Other languages
Japanese (ja)
Other versions
JPH11164263A (en
Inventor
裕 遠藤
忠雄 新屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP34431697A priority Critical patent/JP3444170B2/en
Publication of JPH11164263A publication Critical patent/JPH11164263A/en
Application granted granted Critical
Publication of JP3444170B2 publication Critical patent/JP3444170B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Television Systems (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、インターレース走
査方式のビデオ信号における1フィールド画像により他
のフィールド画像を補間するフィールド画像補間方法及
びフィールド画像補間装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a field image interpolation method and a field image interpolation device for interpolating another field image by one field image in an interlaced scanning type video signal.

【0002】[0002]

【従来の技術】インターレース走査方式のビデオ信号
は、複数フィールド画像が1フレーム画像を構成するた
め、ビデオ信号からフレーム静止画像を得る場合、隣接
フィールド間の画像の差によって、フレーム静止画像が
ぶれて見える。
2. Description of the Related Art In an interlaced scanning type video signal, a multi-field image constitutes one frame image. Therefore, when a frame still image is obtained from the video signal, the frame still image is blurred due to a difference in image between adjacent fields. appear.

【0003】特に動きの速い画像のビデオ信号ではぶれ
が顕著となり、高画質なフレーム静止画像が得られな
い。そこで、ぶれが顕著な場合は、1フレーム画像を構
成する複数のフィールド画像のうちの1つのフィールド
画像を基に、他のフィールド画像を補間することでぶれ
を防いでいる。
In particular, in a video signal of a fast-moving image, blurring becomes remarkable, and a high-quality frame still image cannot be obtained. Therefore, when the blurring is remarkable, the blurring is prevented by interpolating the other field image based on one field image of the plurality of field images forming one frame image.

【0004】図7は、インターレース走査方式のビデオ
信号に対する従来のフィールド画像補間方法を用いたフ
ィールド画像補間装置を説明する為のブロック図であ
る。ここで、1はインターレース走査方式のビデオ信号
が入力されるビデオ信号入力端子、2はアナログ信号と
して入力された前記ビデオ信号をデジタル映像信号に変
換するA/D変換部、3は前記A/D変換部から出力さ
れるデジタル映像信号の1フレーム分の映像データをユ
ーザの指示に基づき記憶するメモリ部、4は後述する方
法にてぶれのないフレーム静止画像を作り出すフィール
ド補間部である。
FIG. 7 is a block diagram for explaining a field image interpolating apparatus using a conventional field image interpolating method for an interlace scanning type video signal. Here, 1 is a video signal input terminal to which a video signal of an interlaced scanning system is input, 2 is an A / D converter for converting the video signal input as an analog signal into a digital video signal, and 3 is the A / D A memory unit 4 for storing video data for one frame of the digital video signal output from the conversion unit based on a user's instruction is a field interpolating unit for producing a frame still image without blur by a method described later.

【0005】また、5は前記ビデオ入力端子1から入力
されたビデオ信号中の同期信号を基に、前記A/D変換
部2、前記メモリ部3及び前記フィールド補間部4にタ
イミング信号を送るタイミングコントロール部、6はユ
ーザからの指示に基づきフィールド画像を補間する際の
指示信号を前記フィールド補間部4に出力するフィール
ド補間指示部である。
Reference numeral 5 is a timing at which a timing signal is sent to the A / D conversion unit 2, the memory unit 3 and the field interpolation unit 4 based on a synchronization signal in the video signal input from the video input terminal 1. The control unit 6 is a field interpolation instruction unit that outputs an instruction signal for interpolating a field image based on an instruction from the user to the field interpolation unit 4.

【0006】ここで、従来のフィールド画像補間方法に
ついて説明する。図8は、前記メモリ部3に記憶される
画像の様子を示すものである。図8において、例えば偶
数フィールド画像を基に奇数フィールド画像を補間する
場合、補間したい画素[m,n]を、副走査方向の隣接画素
[m,n-1]で置き換えたり、副走査方向の両隣接画素[m,n-
1]及び[m,n+1]の輝度データの平均値から得る方法があ
る。
Here, a conventional field image interpolation method will be described. FIG. 8 shows a state of an image stored in the memory unit 3. In FIG. 8, for example, when the odd field image is interpolated based on the even field image, the pixel [m, n] to be interpolated is set to the adjacent pixel in the sub-scanning direction.
Replace with [m, n-1], or both adjacent pixels in the sub-scanning direction [m, n-
There is a method of obtaining from the average value of the brightness data of [1] and [m, n + 1].

【0007】更に、他の方法としては、図9に示す如く
補間したい画素[m,n]を中心とした副走査方向の隣接3
画素ずつ、即ち[m-1,n-1],[m,n-1],[m+1,n-1],[m-1,n+
1],[m,n+1],[m+1,n+1]の計6画素に注目して補間軸を決
定し、補間データを得る方法がある。
Further, as another method, as shown in FIG. 9, adjacent pixels 3 in the sub-scanning direction centering on the pixel [m, n] to be interpolated are used.
Pixel by pixel, ie [m-1, n-1], [m, n-1], [m + 1, n-1], [m-1, n +
There is a method of obtaining interpolation data by deciding the interpolation axis by paying attention to a total of 6 pixels of 1], [m, n + 1], [m + 1, n + 1].

【0008】この時、各画素の輝度をa,b,c,g,
h,iで表示した場合、L軸、C軸またはR軸のどの軸
方向に補間を行うべきかを決定する為に、それぞれの軸
上に存在する2画素の輝度差、即ち|c−g|、|b−
h|及び|a−i|の値をそれぞれ計算し、これらの値
が最小となる軸を補間軸として決定する。その後、決定
した補間軸上に存在する2画素の平均値、即ち(c+
g)/2又は(b+h)/2、もしくは(a+i)/2
により[m,n]画素の補間データを得る方法がある。
At this time, the brightness of each pixel is set to a, b, c, g,
In the case of displaying with h and i, in order to determine which direction of the L axis, the C axis, or the R axis to perform interpolation, the luminance difference between two pixels existing on each axis, that is, | c−g |, | B-
The values of h | and | a-i | are calculated, and the axis having the minimum value is determined as the interpolation axis. After that, the average value of the two pixels existing on the determined interpolation axis, that is, (c +
g) / 2 or (b + h) / 2, or (a + i) / 2
There is a method of obtaining interpolation data of [m, n] pixels by.

【0009】[0009]

【発明が解決しようとする課題】ところが、図8を用い
て説明した、補間したい画素[m,n]を、副走査方向の隣
接画素[m,n-1]で置き換えたり、副走査方向の両隣接画
素[m,n-1]及び[m,n+1]の輝度データの平均値から得る方
法では、ぶれを防ぐことはできるものの、補間したい画
素上に斜め方向に物体が存在している場合は、物体の輪
郭を形成する斜め線が滑らかな線でなくギザキサな線
(以下、ジャギーと記す)となったり、不鮮明な線とな
り、高品質なフレーム静止画像が得られない。
However, the pixel [m, n] desired to be interpolated, which has been described with reference to FIG. 8, is replaced with the adjacent pixel [m, n-1] in the sub-scanning direction, or in the sub-scanning direction. Although it is possible to prevent blurring by the method of obtaining from the average value of the brightness data of both adjacent pixels [m, n-1] and [m, n + 1], there is an object in the diagonal direction on the pixel to be interpolated. In this case, the diagonal lines forming the contour of the object are not smooth lines but jagged lines (hereinafter referred to as jaggies) or unclear lines, and high-quality frame still images cannot be obtained.

【0010】また、図9を用いて説明した、隣接画素の
輝度差を計算することにより補間軸を決定し、補間軸上
に存在する2画素の平均値により画素[m,n]の補間デー
タを得る方法では、ジャギーの少ない静止画像を得るこ
とは可能であるが、図10に示す如く、例えば背景が一
様な輝度の中に網点で示すような一本の細い斜め線Aが
存在する場合、誤った補間軸を選ぶことがあり、補間エ
ラーが生じて画質劣化につながっていた。
Further, as described with reference to FIG. 9, the interpolation axis is determined by calculating the brightness difference between adjacent pixels, and the interpolation data of the pixel [m, n] is determined by the average value of the two pixels existing on the interpolation axis. Although it is possible to obtain a still image with less jaggies by using the method of obtaining, there is, for example, one thin diagonal line A as shown by a halftone dot in the brightness where the background is uniform, as shown in FIG. In that case, an incorrect interpolation axis may be selected, and an interpolation error occurs, leading to deterioration in image quality.

【0011】即ち、図10において、画素[m+1,n-1]に
おける輝度c及び画素[m-1,n+1]における輝度gが補間
しようとする画素[m,n]の補間すべき輝度データeに近
いことから、輝度cと輝度gとの平均値により輝度デー
タeを得ることが理想的であり、その為に、画素[m+1,n
-1]及び[m-1,n+1]を結ぶ軸、つまりL軸を補間軸とすべ
きところであるが、L軸上の2画素[m+1,n-1]及び[m-1,
n+1]の輝度差よりも、R軸上の2画素[m-1,n-1]及び[m+
1,n+1]の輝度差が小さいことがあり、その場合はR軸が
補間軸として選択されてしまう。
That is, in FIG. 10, the luminance c at the pixel [m + 1, n-1] and the luminance g at the pixel [m-1, n + 1] are interpolated for the pixel [m, n] to be interpolated. Since it is close to the power luminance data e, it is ideal to obtain the luminance data e by the average value of the luminance c and the luminance g. Therefore, the pixel [m + 1, n
-1] and [m-1, n + 1], that is, the L axis should be the interpolation axis, but two pixels on the L axis [m + 1, n-1] and [m-1 ,
2 pixels on the R axis [m-1, n-1] and [m +] rather than the brightness difference of [n + 1]
The brightness difference of [1, n + 1] may be small, in which case the R axis is selected as the interpolation axis.

【0012】図11は、図10に示す画像をR軸を補間
軸として補間したものであり、図10における一本の細
い斜め線Aがところどころ抜けた破線となり、画質劣化
が目立つ例を示している。
FIG. 11 shows an example in which the image shown in FIG. 10 is interpolated using the R axis as an interpolation axis, and one thin diagonal line A in FIG. There is.

【0013】また、この対策として、補間したい画素
[m,n]を中心とした副走査方向の隣接画素を3画素ずつ
参照するのではなく、5画素や7画素等、参照画素を増
やすことにより正確に補間軸を求める方法もあるが、参
照画素を増やすと処理規模が大きくなり、装置コストが
増したり、処理時間が長くなるという欠点がある。
As a countermeasure against this, the pixel to be interpolated
There is also a method of accurately determining the interpolation axis by increasing the number of reference pixels, such as 5 pixels or 7 pixels, instead of referring to every 3 pixels in the sub-scanning direction centered on [m, n]. When the number of pixels is increased, there are disadvantages that the processing scale increases, the device cost increases, and the processing time increases.

【0014】[0014]

【課題を解決するための手段】以上の課題を解決する為
に、本発明に係るフィールド画像補間方法は、第1及び
第2のフィールドにより1フレームの映像信号が形成さ
れるインターレス走査方式のビデオ信号において、前記
第1のフィールドの画像情報信号から前記第2のフィー
ルドの画像情報信号を得るフィールド画像補間方法であ
り、前記第2のフィールド上の画素[m,n]の補間データ
を得る際に、前記第1のフィールド上で、且つ前記第2
のフィールド上の画素[m,n]と垂直方向に隣接する画素
[m,n-1]及び[m,n+1]と、前記画素[m,n-1]と同一フィー
ルド上で、且つ前記画素[m,n-1]と水平方向に隣接する
画素[m-1,n-1]及び[m+1,n-1]と、前記画素[m,n+1]と同
一フィールド上で、且つ前記画素[m,n+1]と水平方向に
隣接する画素[m-1,n+1]及び[m+1,n+1]とを参照画素とし
て摘出するステップと、前記摘出された参照画素のデー
タを基に、前記画素[m+1,n-1]と[m-1,n+1]を結ぶ第1の
方向又は前記画素[m-1,n-1]と[m+1,n+1]を結ぶ第2の
向、もしくは前記画素[m,n-1]と[m,n+1]を結ぶ第3の
向のいずれかに補間軸を決定するステップと、前記決定
された補間軸上に存在する前記参照画素のデータを基に
前記画素[m,n]の補間データを得るステップとを備え、
前記補間軸の決定は、前記画素[m+1,n+1]、[m-1,n+1]、
[m+1,n-1]を結ぶ第1の領域での各参照画素のデータの
差と、前記画素[m-1,n-1]、[m+1,n-1]、[m-1,n+1]を結
第2の領域での各参照画素のデータの差と、前記画素
[m-1,n+1]、[m+1,n+1]、[m-1,n-1]を結ぶ第3の領域で
の各参照画素のデータの差と、前記画素[m+1,n-1]、[m-
1,n-1]、[m+1,n+1]を結ぶ第4の領域での各参照画素の
データの差と、前記画素[m,n-1]、[m,n+1]を結ぶ第5の
領域での各参照画素のデータの差とを比較し、前記第1
又は第2の領域における各参照画素のデータの差が最小
の場合には前記補間軸を前記第1の方向と決定し、前記
第3又は第4の領域における各参照画素のデータの差が
最小の場合には前記補間軸を前記第2の方向と決定し、
前記第5の領域における各参照画素のデータの差が最小
の場合には前記補間軸 を前記第3の方向と決定するよう
にしたことを特徴とし、前記参照画素のデータとは、輝
度データであることを特徴とし、また、前記参照画素の
データとは、色調データであることを特徴とするもので
ある。
In order to solve the above problems, the field image interpolation method according to the present invention is based on the interlace scanning method in which a video signal of one frame is formed by the first and second fields. A field image interpolation method for obtaining an image information signal of the second field from an image information signal of the first field in a video signal, and obtaining interpolation data of a pixel [m, n] on the second field. On the first field, and on the second field
Pixel vertically adjacent to pixel [m, n] on the field
[m, n-1] and [m, n + 1] and a pixel [m, n-1] that is on the same field and is adjacent to the pixel [m, n-1] in the horizontal direction. m-1, n-1] and [m + 1, n-1] on the same field as the pixel [m, n + 1] and horizontally adjacent to the pixel [m, n + 1] Pixels [m-1, n + 1] and [m + 1, n + 1] are extracted as reference pixels, and based on the extracted reference pixel data, the pixels [m + 1, n-1] and [m-1, n + 1] in the first direction or the pixel [m-1, n-1] and [m + 1, n + 1] in the second direction. determining <br/> direction or the pixel [m, n-1] and [m, n + 1] of the third interpolation axis <br/> to any of direction towards connecting towards the Obtaining interpolated data of the pixel [m, n] based on the data of the reference pixel existing on the determined interpolation axis,
The determination of the interpolation axis is performed by the pixels [m + 1, n + 1], [m-1, n + 1],
The difference between the data of each reference pixel in the first region connecting [m + 1, n-1] and the pixels [m-1, n-1], [m + 1, n-1], [m −1, n + 1] and the difference between the data of the reference pixels in the second region, and the pixel
[m-1, n + 1], [m + 1, n + 1], [m-1, n-1] The difference between the data of each reference pixel in the third region connecting the pixel and the pixel [m + 1, n-1], [m-
1, n-1], [m + 1, n + 1], the difference between the data of the reference pixels in the fourth region and the pixels [m, n-1], [m, n + 1] comparing the difference between the data of the reference pixels in the fifth <br/> region connecting said first
Or, the difference in data of each reference pixel in the second area is the smallest
In the case of, the interpolation axis is determined to be the first direction,
The difference in the data of each reference pixel in the third or fourth region is
In the minimum case, the interpolation axis is determined to be the second direction,
The difference in the data of each reference pixel in the fifth region is the smallest
In the case of, the interpolation axis is determined to be the third direction.
It is characterized that, the data of the reference pixel is characterized by a luminance data, and the data of the reference pixel is to shall and characterized in that the color data.

【0015】また、本発明に係るフィールド画像補間装
置は、第1及び第2のフィールドにより1フレームの映
像信号が形成されるインターレス走査方式のビデオ信号
において、前記第1のフィールドの画像情報信号から前
記第2のフィールドの画像情報信号を得るフィールド画
像補間装置であり、前記1フレームの映像信号を記憶す
るメモリ手段と、前記第2のフィールド上の画素[m,n]
の補間データを得る際に、前記第1のフィールド上で、
且つ前記第2のフィールド上の画素[m,n]と垂直方向に
隣接する画素[m,n-1]及び[m,n+1]と、前記画素[m,n-1]
と同一フィールド上で、且つ前記画素[m,n-1]と水平方
向に隣接する画素[m-1,n-1]及び[m+1,n-1]と、前記画素
[m,n+1]と同一フィールド上で、且つ前記画素[m,n+1]と
水平方向に隣接する画素[m-1,n+1]及び[m+1,n+1]とを参
照画素として前記メモリ手段より摘出し、前記摘出され
た参照画素のデータを基に、前記画素[m+1,n-1]と[m-1,
n+1]を結ぶ第1の方向又は前記画素[m-1,n-1]と[m+1,n+
1]を結ぶ第2の方向、もしくは前記画素[m,n-1]と[m,n+
1]を結ぶ第3の方向のいずれかに補間軸を決定する補間
軸決定手段と、前記決定された補間軸上に存在する前記
参照画素のデータを基に前記画素[m,n]の補間データを
得る補間演算手段とを備え、前記補間軸決定手段は、前
記画素[m+1,n+1]、[m-1,n+1]、[m+1,n-1]を結ぶ領域で
の各参照画素のデータの差と、前記画素[m-1,n-1]、[m+
1,n-1]、[m-1,n+1]を結ぶ領域での各参照画素のデータ
の差と、前記画素[m-1,n+1]、[m+1,n+1]、[m-1,n-1]を
結ぶ領域での各参照画素のデータの差と、前記画素[m+
1,n-1]、[m-1,n-1]、[m+1,n+1]を結ぶ領域での各参照画
素のデータの差と、前記画素[m,n-1]、[m,n+1]を結ぶ領
域での各参照画素のデータの差とを比較し、前記第1又
は第2の領域における各参照画素のデータの差が最小の
場合には前記補間軸を前記第1の方向と決定し、前記第
3又は第4の領域における各参照画素のデータの差が最
小の場合には前記補間軸を前記第2の方向と決定し、前
記第5の領域における各参 照画素のデータの差が最小の
場合には前記補間軸を前記第3の方向と決定するように
したことを特徴とし、前記参照画素のデータとは、輝度
データであることを特徴とし、また、前記参照画素のデ
ータとは、色調データであることを特徴とするものであ
る。
Further, the field image interpolating apparatus according to the present invention is an interlace scanning type video signal in which a video signal of one frame is formed by the first and second fields, and the image information signal of the first field. A field image interpolating device for obtaining the image information signal of the second field from the memory means for storing the video signal of the one frame, and a pixel [m, n] on the second field.
When obtaining the interpolation data of, on the first field,
And pixels [m, n-1] and [m, n + 1] vertically adjacent to the pixel [m, n] on the second field, and the pixel [m, n-1]
Pixels [m-1, n-1] and [m + 1, n-1] that are on the same field as and that are adjacent to the pixel [m, n-1] in the horizontal direction,
Pixels [m-1, n + 1] and [m + 1, n + 1] on the same field as [m, n + 1] and horizontally adjacent to the pixel [m, n + 1] As reference pixels from the memory means, and based on the data of the extracted reference pixels, the pixels [m + 1, n-1] and [m-1,
n + 1] in the first direction or the pixels [m-1, n-1] and [m + 1, n +
1] in the second direction, or the pixels [m, n-1] and [m, n +]
1] interpolating axis determining means for determining an interpolation axis in any of the third directions, and interpolation of the pixel [m, n] based on the data of the reference pixel existing on the determined interpolation axis. Interpolation interpolation means for obtaining data, and the interpolation axis determination means connects the pixels [m + 1, n + 1], [m-1, n + 1], [m + 1, n-1] The difference between the data of each reference pixel in the area and the pixels [m-1, n-1], [m +
1, n-1], [m-1, n + 1] in the area connecting the reference pixels and the pixels [m-1, n + 1], [m + 1, n + 1] ], [M-1, n-1], the difference between the data of each reference pixel in the area connecting the pixel [m +
1, n-1], [m-1, n-1], [m + 1, n + 1] data difference of each reference pixel in the region connecting the pixel [m, n-1], The difference between the data of each reference pixel in the area connecting [m, n + 1] is compared , and the first or
Is the minimum difference between the data of the reference pixels in the second area.
In this case, the interpolation axis is determined to be the first direction,
The difference in the data of each reference pixel in the 3rd or 4th area is the largest.
If it is small, the interpolation axis is determined to be the second direction, and
Difference data of each referenced pixel in the serial fifth region is smallest
In this case, the interpolation axis is determined to be the third direction.
The was that characterized by the data of the reference pixels, and characterized in that the luminance data, and the data of the reference pixel is to shall and characterized in that the color data.

【0016】[0016]

【発明の実施の形態】図1は、本発明の実施例に係るフ
ィールド画像補間方法を用いたフィールド画像補間装置
を説明する為のブロック図である。図1において、ビデ
オ信号入力端子1、A/D変換部2、メモリ部3、タイ
ミングコントロール部5及びフィールド補間指示部6に
関しては従来のフィールド画像補間方法を用いたフィー
ルド画像補間装置と同一の構成である為、詳しい説明は
省略する。
1 is a block diagram for explaining a field image interpolation apparatus using a field image interpolation method according to an embodiment of the present invention. In FIG. 1, a video signal input terminal 1, an A / D conversion unit 2, a memory unit 3, a timing control unit 5, and a field interpolation instruction unit 6 have the same configuration as that of a conventional field image interpolation device using a field image interpolation method. Therefore, detailed description is omitted.

【0017】ここで、10はフィールド補間部であり、
補間軸決定部10a及び補間演算部10bからなる。前
記補間軸決定部10aは、前記メモリ部3から入力され
る1フレーム分の映像データに基づき、前記タイミング
コントロール部5からのタイミング信号のタイミングで
補間軸を決定する。
Here, 10 is a field interpolation unit,
The interpolation axis determination unit 10a and the interpolation calculation unit 10b are included. The interpolation axis determination unit 10a determines the interpolation axis at the timing of the timing signal from the timing control unit 5 based on the video data for one frame input from the memory unit 3.

【0018】また、前記補間軸演算部10bは、前記補
間軸決定部10aにて決定された補間軸の情報、前記メ
モリ部3からの1フレーム分の映像データ、前記タイミ
ングコントロール5からのタイミング信号及び前記フィ
ールド補間指示部6からの指示信号が入力され、フレー
ム静止画像を出力する。
Further, the interpolation axis calculation unit 10b has information of the interpolation axis determined by the interpolation axis determination unit 10a, one frame of video data from the memory unit 3, and a timing signal from the timing control 5. Also, an instruction signal from the field interpolation instruction unit 6 is input and a frame still image is output.

【0019】次に本発明の実施例に係るフィールド画像
補間方法を用いたフィールド画像補間装置の動作につい
て説明する。前記ビデオ信号入力端子1にアナログ信号
として入力されたビデオ信号は、前記A/D変換部2に
てデジタル映像信号に変換される。この時ユーザが静止
画像を取り込むモードを選択していない時は、前記変換
されたデジタル映像信号は図示しないD/A変換部にて
アナログ映像信号に戻され、図示しない出力端子より出
力される。
Next, the operation of the field image interpolation apparatus using the field image interpolation method according to the embodiment of the present invention will be described. The video signal input as an analog signal to the video signal input terminal 1 is converted into a digital video signal by the A / D converter 2. At this time, when the user does not select the mode for capturing the still image, the converted digital video signal is converted into an analog video signal by the D / A converter (not shown) and output from the output terminal (not shown).

【0020】一方、ユーザが静止画像を取り込むモード
を選択した時は、前記A/D変換部2から出力されるデ
ジタル映像信号の1フレーム分の映像データが前記メモ
リ部3に取り込まれ、前記取り込まれた1フレーム分の
映像データは、前記フィールド補間部10を介して図示
しない印刷手段及び画像表示手段に出力される。
On the other hand, when the user selects the mode for capturing a still image, the video data for one frame of the digital video signal output from the A / D conversion unit 2 is loaded into the memory unit 3 and the loading is performed. The video data for one frame is output to the printing means and the image display means (not shown) via the field interpolation unit 10.

【0021】この時、ユーザは前記メモリ部3から出力
される1フレーム分の映像データをそのまま出力したフ
レーム静止画像を前記図示しない画像表示手段にて確認
することができ、良好な静止画像が表示されない場合に
は、前記フィールド補間指示部6から指示を行うことに
より、前記フィールド補間部10にて映像信号の補間処
理が行われる。
At this time, the user can confirm the frame still image in which the video data for one frame output from the memory unit 3 is output as it is, by the image display means (not shown), and a good still image is displayed. If not, the field interpolation instructing section 6 gives an instruction to cause the field interpolating section 10 to interpolate the video signal.

【0022】前記補間処理を行う際には、補間に必要な
参照画素が前記メモリ部3から前記補間軸決定部10a
に順次取り込まれて補間軸が決定され、前記補間演算部
10bにて補間データが演算され、出力される。なお、
上記構成における信号の入出力及び補間処理のタイミン
グは、タイミングコントロール部5からのタイミング信
号により制御される。
When performing the interpolation processing, the reference pixels necessary for the interpolation are stored in the memory unit 3 and the interpolation axis determining unit 10a.
Are sequentially taken in to determine the interpolation axis, and the interpolation calculation unit 10b calculates the interpolation data and outputs it. In addition,
Timing of signal input / output and interpolation processing in the above configuration is controlled by a timing signal from the timing control unit 5.

【0023】以上に示す如く、本発明の実施例に係るフ
ィールド画像補間方法を用いたフォールド画像補間装置
では、補間したい画素のデータを得る際の補間軸を補間
軸決定部10aにて決定するが、ここでは、まず補間方
法の概略につき説明する。
As described above, in the fold image interpolating apparatus using the field image interpolating method according to the embodiment of the present invention, the interpolation axis determining unit 10a determines the interpolation axis when the data of the pixel to be interpolated is obtained. Here, first, an outline of the interpolation method will be described.

【0024】先に説明したように、図10は補間したい
画素[m,n]上に一本の細い斜め線が存在する場合を示し
ている。例えば、画素[m-1,n-1],[m,n-1],[m+1,n-1],[m
-1,n+1],[m,n+1],[m+1,n+1]のそれぞれの輝度をa,
b,c,g,h,iとした場合に、補間軸は、画素[m+
1,n-1]及び[m-1,n+1]を結ぶL軸が選ばれ、輝度c及び
gの平均値により補間データを得るべきである。
As described above, FIG. 10 shows the case where one thin diagonal line exists on the pixel [m, n] to be interpolated. For example, pixels [m-1, n-1], [m, n-1], [m + 1, n-1], [m
−1, n + 1], [m, n + 1], [m + 1, n + 1] represents the brightness of a,
In the case of b, c, g, h, i, the interpolation axis is pixel [m +
The L axis connecting 1, n-1] and [m-1, n + 1] is selected, and the interpolation data should be obtained by the average value of the luminances c and g.

【0025】ところが、補間したい画像[m,n]上に一本
の細い斜め線Aが存在する場合、輝度a,b,c,g,
h,iから補間軸をL軸と設定することは非常に困難で
ある。一方、前述の如くR軸を補間軸とした場合は、補
間したい画素[m,n]での輝度eが、輝度a又はiの平均
値となり、細い斜め線Aがところどころ抜けた波線のよ
うになってしまうものの、C軸を補間軸とした場合は、
輝度b及びhの平均値となり、L軸を補間軸として補間
を行った時ほどの正確な補間データは得られないが、あ
る程度良好な静止画像を得ることができる。
However, when there is one thin diagonal line A on the image [m, n] to be interpolated, the luminances a, b, c, g,
It is very difficult to set the interpolation axis as the L axis from h and i. On the other hand, when the R axis is used as the interpolation axis as described above, the brightness e at the pixel [m, n] to be interpolated becomes the average value of the brightness a or i, and the thin diagonal line A appears like a wavy line in some places. However, if the C axis is the interpolation axis,
It is an average value of the brightnesses b and h, and although accurate interpolation data as when interpolation is performed with the L axis as an interpolation axis cannot be obtained, a still image that is good to some extent can be obtained.

【0026】そこで、補間したい画素[m,n]上に存在す
る一本の細い斜め線に対しては、C軸を補間軸とするこ
とである程度良好な補間データを得ると共に、補間した
い画素[m,n]上に斜め方向に物体が存在する場合でも良
好な補間軸を設定できるようにしている。
Therefore, for one thin diagonal line existing on the pixel [m, n] to be interpolated, the C axis is used as the interpolation axis to obtain a certain amount of good interpolated data and the pixel to be interpolated [ A good interpolation axis can be set even when an object exists in the diagonal direction on [m, n].

【0027】具体的な方法としては、図2に示す如く、
補間したい画素[m,n]における補間データeを得るため
に、まず図2(a)乃至(d)に示す三角形の領域及び
図2(e)に示す長方形の領域を考える。
As a concrete method, as shown in FIG.
In order to obtain the interpolation data e in the pixel [m, n] to be interpolated, first consider the triangular area shown in FIGS. 2A to 2D and the rectangular area shown in FIG.

【0028】図2(a)では、三角形の領域に存在する
参照画素[m+1,n-1],[m-1,n+1],[m,n+1]及び[m+1,n+1]の
輝度データc,g,h及びiを比較し、最も大きい輝度
差のデータを算出する。同様に図2(b)乃至(d)に
示す三角形の領域でも各参照画素の輝度データを比較
し、最も大きい輝度差のデータを算出する。最後に図2
(e)に示す長方形の領域に存在する画素[m,n-1]及び
[m,n+1]の輝度データb及びhの輝度差を算出する。
In FIG. 2A, the reference pixels [m + 1, n-1], [m-1, n + 1], [m, n + 1] and [m + 1] existing in the triangular area. , n + 1] luminance data c, g, h and i are compared to calculate the data of the largest luminance difference. Similarly, in the triangular areas shown in FIGS. 2B to 2D, the luminance data of each reference pixel is compared, and the data of the largest luminance difference is calculated. Finally Figure 2
Pixels [m, n-1] existing in the rectangular area shown in (e) and
The brightness difference between the brightness data b and h of [m, n + 1] is calculated.

【0029】そして、上記三角形及び長方形の領域から
算出された各輝度差を比較して、(a)又は(b)に示
す三角形の領域から算出された輝度差データが最小値の
場合はL軸、(c)又は(d)に示す三角形の領域から
算出された輝度差データが最小値の場合はR軸、(e)
に示す長方形の領域から算出された輝度差データが最小
値の場合はC軸を補間軸とするものである。
Then, the brightness differences calculated from the triangular and rectangular areas are compared, and if the brightness difference data calculated from the triangular area shown in (a) or (b) is the minimum value, the L-axis is calculated. , (C) or (d), the R axis when the brightness difference data calculated from the triangular area is the minimum value, (e)
When the brightness difference data calculated from the rectangular area shown in (1) is the minimum value, the C axis is used as the interpolation axis.

【0030】この時、図2(a)における輝度c及びg
は同一の細い斜め線Aに関する輝度データである為、ほ
ぼ同一の値となっているのに対し、輝度iは細い斜め線
Aに関する輝度データでない為、輝度c及びgと比べる
と値が大きく、図2(a)に示す三角形の領域の輝度差
データとしては、ある程度大きな値が得られる。
At this time, the luminances c and g in FIG.
Is the same as the luminance data for the same thin diagonal line A, and therefore has almost the same value, whereas the luminance i is not the luminance data for the thin diagonal line A, and therefore has a larger value than the luminances c and g. As the brightness difference data of the triangular area shown in FIG. 2A, a relatively large value is obtained.

【0031】同様に図2(b)乃至(d)について考え
た場合も、細い斜め線Aの輝度データを示す画素と、細
い斜め線Aの輝度データを示さない画素とが三角形の領
域に少なくとも1つずつは存在する為、それぞれの三角
形の領域の輝度差データとしては、ある程度大きな値が
得られる。
Similarly, when considering FIGS. 2B to 2D, at least a pixel showing the luminance data of the thin diagonal line A and a pixel not showing the luminance data of the thin diagonal line A are at least in the triangular region. Since there is one each, a relatively large value can be obtained as the brightness difference data of each triangular area.

【0032】これに対し、図2(e)における輝度デー
タb及びhは、ほぼ同一の値である為、長方形の領域の
輝度差データの値は小さく、これらの値を比較すると結
果としてC軸が補間軸として選ばれることになる。
On the other hand, since the brightness data b and h in FIG. 2 (e) have almost the same value, the brightness difference data in the rectangular area has a small value, and comparing these values results in the C-axis. Will be chosen as the interpolation axis.

【0033】また、図3に示す如く、L軸を輪郭として
網点で示したように斜め方向に物体が存在している場合
を想定すると、図3(a)における輝度c,g,h及び
iは、同一の物体に関する輝度データである為、ほぼ同
一の値となっており、出力される輝度データの値が小さ
いのに対し、図3(b)乃至(e)に示される領域で
は、前記斜め方向の物体の輝度データを示す画素と、前
記斜め方向の物体の輝度データを示さない画素とが少な
くとも1つずつは存在する為、それぞれの領域から出力
される輝度データの値はある程度大きくなり、結果とし
て、L軸が補間軸として選ばれることになる。
Further, as shown in FIG. 3, assuming that an object exists in an oblique direction as indicated by halftone dots with the L axis as a contour, the luminances c, g, h in FIG. Since i is the brightness data regarding the same object, i has almost the same value, and the value of the brightness data to be output is small, whereas i is in the regions shown in FIGS. 3B to 3E. Since there is at least one pixel indicating the luminance data of the object in the diagonal direction and at least one pixel not indicating the luminance data of the object in the diagonal direction, the value of the luminance data output from each region is large to some extent. As a result, the L axis is selected as the interpolation axis.

【0034】なお、ここでは図示しないが、R軸を輪郭
として斜め方向に物体が存在している場合についても同
様にR軸が補間軸として選ばれることになる。この後、
画素[m,n]の補間データeは、前述したと同様に、決定
された補間軸上の2つの画素データの輝度データの平均
値を求めれば良い。
Although not shown here, the R axis is similarly selected as the interpolation axis when an object exists in an oblique direction with the R axis as the contour. After this,
As for the interpolation data e of the pixel [m, n], the average value of the brightness data of the two pixel data on the determined interpolation axis may be obtained, as described above.

【0035】以下に、本発明の実施例に係るフィールド
画像補間方法のフローについて説明する。図4は本発明
の実施例に係るフィールド画像補間方法を流れ図で示し
たものである。
The flow of the field image interpolation method according to the embodiment of the present invention will be described below. FIG. 4 is a flow chart showing a field image interpolation method according to an embodiment of the present invention.

【0036】まず、補間したい画素[m,n]を中心とした
副走査方向の隣接6画素[m-1,n-1],[m,n-1],[m+1,n-1],
[m-1,n+1],[m,n+1],[m+1,n+1]のそれぞれの輝度a,
b,c,g,h及びiに対し、c及びg、c及びh、c
及びiの輝度差を比較し、最も輝度差の大きいデータを
L1として出力する(ステップ101)。次に、g及び
a、g及びb、g及びcの輝度差を比較し、最も輝度差
の大きいデータをL2として出力する(ステップ10
2)。
First, adjacent 6 pixels [m-1, n-1], [m, n-1], [m + 1, n-1 in the sub-scanning direction centering on the pixel [m, n] to be interpolated. ],
The brightness a of each of [m-1, n + 1], [m, n + 1], and [m + 1, n + 1],
For b, c, g, h and i, c and g, c and h, c
And i are compared in brightness, and the data having the largest brightness difference is output as L1 (step 101). Next, the brightness differences of g and a, g and b, g and c are compared, and the data with the largest brightness difference is output as L2 (step 10).
2).

【0037】そして、L1のデータとL2のデータとを
比較して、小さい方のデータをLとして出力する(ステ
ップ103)。ここで、データLは、L軸を輪郭として
斜め方向に物体が存在しているかどうかの度合いを示し
ている。即ち、同一物体上では輝度差があまりないとい
うことを前提として考えると、L軸を輪郭として斜め方
向に物体が存在するのであれば、Lの値が小さくなるは
ずである。
Then, the data of L1 is compared with the data of L2, and the smaller data is output as L (step 103). Here, the data L indicates the degree of existence of an object in an oblique direction with the L axis as a contour. That is, assuming that there is not much difference in brightness on the same object, the value of L should be small if the object exists in an oblique direction with the L axis as the contour.

【0038】同様に、a及びg、a及びh、a及びiの
輝度差を比較し、最も輝度差の大きいデータをR1とし
て出力すると共に(ステップ104)、i及びa、i及
びb、i及びcの輝度差を比較し、最も輝度差の大きい
データをR2として出力する(ステップ105)。そし
て、R1のデータとR2のデータとを比較して、小さい
方のデータをRとして出力することにより(ステップ1
06)、R軸を輪郭として斜め方向に物体が存在してい
るかどうかの度合いを調べる。
Similarly, the brightness differences of a and g, a and h, a and i are compared, and the data with the largest brightness difference is output as R1 (step 104), and i and a, i and b, i And c are compared, and the data having the largest luminance difference is output as R2 (step 105). Then, the data of R1 and the data of R2 are compared, and the smaller data is output as R (step 1
06), using the R axis as a contour, the degree of presence of an object in an oblique direction is checked.

【0039】そして、L軸を輪郭として斜め方向に物体
が存在しているかどうかの度合いを示すデータLとR軸
を輪郭として斜め方向に物体が存在しているかどうかの
度合いを示すデータRとb及びhの輝度差Cとを比較し
(ステップ108)、最も値の小さいデータにより補間
軸を決定する(ステップ109)。
Then, data L and b indicating the degree of existence of an object in the oblique direction with the L axis as the contour and data R and b indicating the degree of existence of an object in the oblique direction with the R axis as the contour. And the luminance difference C of h (step 108), and the interpolation axis is determined by the data having the smallest value (step 109).

【0040】ここで、L軸又はR軸を輪郭として斜め方
向に物体が存在している場合は、データLの値又はRの
値が最も小さくなる為、補間軸はL軸又はR軸に設定さ
れ、図10に示す如く、補間画素上に一本の細い斜め線
が存在する場合は、b及びhの輝度差が少く、データC
の値が小さくなると共にデータLの値及びRの値が大き
くなる為、補間軸はC軸に設定される。
Here, when an object exists in an oblique direction with the L axis or the R axis as the contour, the value of the data L or the value of R becomes the smallest, so the interpolation axis is set to the L axis or the R axis. As shown in FIG. 10, when there is one thin diagonal line on the interpolated pixel, the brightness difference between b and h is small and the data C
Since the value of becomes smaller and the value of data L and the value of R become larger, the interpolation axis is set to the C axis.

【0041】次に、本発明の実施例に係る他のフィール
ド画像補間方法について説明する。図5は、本発明の実
施例に係る他のフィールド画像補間方法を流れ図で示し
たものである。
Next, another field image interpolation method according to the embodiment of the present invention will be described. FIG. 5 is a flowchart showing another field image interpolation method according to the embodiment of the present invention.

【0042】まず、補間したい画素[m,n]を中心とした
副走査方向の隣接6画素[m-1,n-1],[m,n-1],[m+1,n-1],
[m-1,n+1],[m,n+1],[m+1,n+1]のそれぞれの輝度をa,
b,c,g,h,iとした場合、c及びg、c及びh、
c及びiの輝度差の総和をSL1として出力する(ステ
ップ201)。次に、g及びa、g及びb、g及びcの
輝度差の総和をSL2として出力する(ステップ20
2)。
First, six adjacent pixels [m-1, n-1], [m, n-1], [m + 1, n-1 in the sub-scanning direction centering on the pixel [m, n] to be interpolated. ],
The brightness of each of [m-1, n + 1], [m, n + 1], and [m + 1, n + 1] is a,
If b, c, g, h, i, then c and g, c and h,
The sum of the brightness differences of c and i is output as SL1 (step 201). Next, the sum of the brightness differences of g and a, g and b, g and c is output as SL2 (step 20).
2).

【0043】そして、SL1のデータとSL2のデータ
とを比較して(ステップ203)、SL1のデータが小
さい場合は、c及びg、c及びh、c及びiの輝度差を
比較し、最も輝度差の大きいデータをLとして出力し
(ステップ204)、SL2のデータが小さい場合は、
g及びa、g及びb、g及びcの輝度差を比較し、最も
輝度差の大きいデータをLとして出力する(ステップ2
05)。ここで、データLは、L軸を輪郭として斜め方
向に物体が存在しているかどうかの度合いを示してい
る。
Then, the data of SL1 and the data of SL2 are compared (step 203). If the data of SL1 is small, the brightness differences of c and g, c and h, and c and i are compared to obtain the highest brightness. Data with a large difference is output as L (step 204), and if the data in SL2 is small,
The brightness differences of g and a, g and b, g and c are compared, and the data with the largest brightness difference is output as L (step 2
05). Here, the data L indicates the degree of existence of an object in an oblique direction with the L axis as a contour.

【0044】同様に、a及びg、a及びh、a及びiの
輝度差の総和をSR1として出力すると共に(ステップ
206)、i及びa、i及びb、i及びcの輝度差の総
和をSR2として出力する(ステップ207)。そし
て、SR1のデータとSR2のデータとを比較して(ス
テップ208)、SR1のデータが小さい場合は、a及
びg、a及びh、a及びiの輝度差を比較し、最も輝度
差の大きいデータをRとして出力し(ステップ20
9)、SR2のデータが小さい場合は、i及びa、i及
びb、i及びcの輝度差を比較し、最も輝度差の大きい
データをRとして出力する(ステップ210)。
Similarly, the sum of the brightness differences of a and g, a and h, a and i is output as SR1 (step 206), and the sum of the brightness differences of i and a, i and b, i and c is calculated. It is output as SR2 (step 207). Then, the data of SR1 and the data of SR2 are compared (step 208). If the data of SR1 is small, the brightness differences of a and g, a and h, a and i are compared, and the brightness difference is the largest. Output the data as R (step 20
9) If the SR2 data is small, the brightness differences of i and a, i and b, i and c are compared, and the data with the largest brightness difference is output as R (step 210).

【0045】ここで、データRは、R軸を輪郭として斜
め方向に物体が存在しているかどうかの度合いを示して
いる。そして、L軸を輪郭として斜め方向に物体が存在
しているかどうかの度合いを示すデータLとR軸を輪郭
として斜め方向に物体が存在しているかどうかの度合い
を示すデータRとb及びhの輝度差Cとを比較し(ステ
ップ212)、最も値の小さいデータにより補間軸を決
定する(ステップ213)。
Here, the data R indicates the degree of existence of an object in an oblique direction with the R axis as a contour. Then, data L indicating the degree of existence of an object in the oblique direction with the L axis as the contour and data R indicating the degree of existence of an object in the oblique direction with the R axis as the contour, and b and h. The brightness difference C is compared (step 212), and the interpolation axis is determined by the data having the smallest value (step 213).

【0046】ここで、L軸又はR軸を輪郭として斜め方
向に物体が存在している場合は、データLの値又はRの
値が最も小さくなる為、補間軸はL軸又はR軸に設定さ
れ、図10に示す如く、補間画素に対し一本の細い斜め
線が存在する場合は、b及びhの輝度差が少なく、デー
タCの値が小さくなると共にデータLの値及びRの値が
大きくなる為、補間軸はC軸に設定される。
Here, when an object exists in an oblique direction with the L axis or the R axis as the contour, the value of the data L or the value of R becomes the smallest, so the interpolation axis is set to the L axis or the R axis. As shown in FIG. 10, when one thin diagonal line exists for the interpolated pixel, the brightness difference between b and h is small, the value of the data C is small, and the values of the data L and R are small. Since it becomes larger, the interpolation axis is set to the C axis.

【0047】このようにして補間軸を決定することによ
り、前記補間したい画素[m,n]上に一本の細い斜め線が
存在する場合であっても、前記L軸又はR軸を輪郭とし
て斜め方向に物体が存在する場合であっても、補間エラ
ーが生じて画質劣化が目立つような誤った補間軸を選ぶ
可能性が低くなった。
By determining the interpolation axis in this way, even if there is one thin diagonal line on the pixel [m, n] to be interpolated, the L axis or the R axis is used as the contour. Even if there is an object in an oblique direction, the possibility of selecting an incorrect interpolation axis that causes an interpolation error and is prominent in image quality deterioration is reduced.

【0048】なお、図6に示す如く、メモリ部3に記憶
される映像データが補間処理の為にフィールド補間部1
0に出力され、前記フィールド補間部10で補間処理を
終えた後に前記メモリ部3に映像データが戻されるよう
構成することも可能である。このように構成した場合に
は、補間処理を終えたデータは前記メモリ部3から図示
しない印刷手段又は画像表示手段に出力されることにな
り、前記フィールド補間部10での補間処理速度が遅い
場合であっても、その処理速度に左右されずにデータの
出力を行うことができる。
As shown in FIG. 6, the video data stored in the memory unit 3 is processed by the field interpolation unit 1 for interpolation processing.
It is also possible to configure so that the video data is output to 0 and the video data is returned to the memory unit 3 after the interpolation processing is completed in the field interpolation unit 10. In the case of such a configuration, the data after the interpolation processing is output from the memory unit 3 to the printing unit or the image display unit (not shown), and the interpolation processing speed in the field interpolation unit 10 is slow. Even in this case, the data can be output regardless of the processing speed.

【0049】また、以上の説明では、補間データを得る
際に輝度信号を基に補間データを演算した例を示した
が、色信号又は階調信号を用いても同様であることは言
うまでもない。
Further, in the above description, an example in which the interpolation data is calculated based on the luminance signal when obtaining the interpolation data is shown, but it goes without saying that the same applies when a color signal or a gradation signal is used.

【0050】[0050]

【発明の効果】以上に説明した如く、本発明では補間し
たい画素[m,n]上に一本の細い斜め線が存在する場合で
あっても、前記L軸又はR軸を輪郭として斜め方向に物
体が存在する場合であっても、補間エラーが生じて画質
劣化が目立つような誤った補間軸を選ぶ可能性が低い
為、良好なフレーム静止画像を得ることができる。
As described above, according to the present invention, even when one thin diagonal line exists on the pixel [m, n] to be interpolated, the L axis or the R axis is used as a contour in the diagonal direction. Even if there is an object in the image, it is unlikely to select an incorrect interpolation axis that causes an interpolation error and causes image quality deterioration, so that a good frame still image can be obtained.

【0051】また、少ない参照画素数で補間データを得
ることができる為、処理規模を小さくさせることがで
き、装置コスト、処理時間の面で有利である。
Further, since the interpolation data can be obtained with a small number of reference pixels, the processing scale can be reduced, which is advantageous in terms of apparatus cost and processing time.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例に係るフィールド画像補間方法
を用いたフィールド画像補間装置を説明する為のブロッ
ク図である。
FIG. 1 is a block diagram for explaining a field image interpolation device using a field image interpolation method according to an embodiment of the present invention.

【図2】本発明の実施例に係るフィールド画像補間方法
の概略を説明する為の図である。
FIG. 2 is a diagram for explaining an outline of a field image interpolation method according to an embodiment of the present invention.

【図3】L軸を輪郭として斜め方向に物体が存在してい
る状態を示す図である。
FIG. 3 is a diagram showing a state in which an object exists in an oblique direction with the L axis as a contour.

【図4】本発明の実施例に係るフィールド画像補間方法
を示す流れ図である。
FIG. 4 is a flowchart showing a field image interpolation method according to an embodiment of the present invention.

【図5】本発明の実施例に係る他のフィールド画像補間
方法を示す流れ図である。
FIG. 5 is a flowchart showing another field image interpolation method according to an embodiment of the present invention.

【図6】本発明の実施例に係るフィールド画像補間方法
を用いた他のフィールド画像補間装置を説明する為の図
である。
FIG. 6 is a diagram for explaining another field image interpolation device using the field image interpolation method according to the embodiment of the present invention.

【図7】従来のフィールド画像補間方法を用いたフィー
ルド画像補間装置を説明する為のブロック図である。
FIG. 7 is a block diagram for explaining a field image interpolation apparatus using a conventional field image interpolation method.

【図8】メモリ部に記憶される画像の様子を示す図であ
る。
FIG. 8 is a diagram showing a state of an image stored in a memory unit.

【図9】従来のフィールド画像補間方法を説明するため
の説明図である。
FIG. 9 is an explanatory diagram for explaining a conventional field image interpolation method.

【図10】補間しようとする画素上に、一本の細い斜め
線が存在する状態を示す図である。
FIG. 10 is a diagram showing a state in which one thin diagonal line exists on a pixel to be interpolated.

【図11】補間エラーが生じた状態を示す図である。FIG. 11 is a diagram showing a state in which an interpolation error has occurred.

【符号の説明】[Explanation of symbols]

1…ビデオ信号入力端子 2…A/D変換部 3…メモリ部 4、10…フィールド補間部 5…タイミングコントロール部 6…フィールド補間指示部 10a…補間軸決定部 10b…補間演算部 1 ... Video signal input terminal 2 ... A / D converter 3 ... Memory section 4, 10 ... Field interpolator 5 ... Timing control section 6 ... Field interpolation instruction section 10a ... Interpolation axis determination unit 10b ... Interpolation calculation unit

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】第1及び第2のフィールドにより1フレー
ムの映像信号が形成されるインターレス走査方式のビデ
オ信号において、前記第1のフィールドの画像情報信号
から前記第2のフィールドの画像情報信号を得るフィー
ルド画像補間方法であり、 前記第2のフィールド上の画素[m,n]の補間データを得
る際に、 前記第1のフィールド上で、且つ前記第2のフィールド
上の画素[m,n]と垂直方向に隣接する画素[m,n-1]及び
[m,n+1]と、 前記画素[m,n-1]と同一フィールド上で、且つ前記画素
[m,n-1]と水平方向に隣接する画素[m-1,n-1]及び[m+1,n
-1]と、 前記画素[m,n+1]と同一フィールド上で、且つ前記画素
[m,n+1]と水平方向に隣接する画素[m-1,n+1]及び[m+1,n
+1]とを参照画素として摘出するステップと、 前記摘出された参照画素のデータを基に、前記画素[m+
1,n-1]と[m-1,n+1]を結ぶ第1の方向又は前記画素[m-1,
n-1]と[m+1,n+1]を結ぶ第2の方向、もしくは前記画素
[m,n-1]と[m,n+1]を結ぶ第3の方向のいずれかに補間軸
を決定するステップと、 前記決定された補間軸上に存在する前記参照画素のデー
タを基に前記画素[m,n]の補間データを得るステップと
を備え、 前記補間軸の決定は、前記画素[m+1,n+1]、[m-1,n+1]、
[m+1,n-1]を結ぶ第1の領域での各参照画素のデータの
差と、前記画素[m-1,n-1]、[m+1,n-1]、[m-1,n+1]を結
第2の領域での各参照画素のデータの差と、前記画素
[m-1,n+1]、[m+1,n+1]、[m-1,n-1]を結ぶ第3の領域で
の各参照画素のデータの差と、前記画素[m+1,n-1]、[m-
1,n-1]、[m+1,n+1]を結ぶ第4の領域での各参照画素の
データの差と、前記画素[m,n-1]、[m,n+1]を結ぶ第5の
領域での各参照画素のデータの差とを比較し、前記第1
又は第2の領域における各参照画素のデータの差が最小
の場合には前記補間軸を前記第1の方向と決定し、前記
第3又は第4の領域における各参照画素のデータの差が
最小の場合には前記補間軸を前記第2の方向と決定し、
前記第5の領域における各参照画素のデータの差が最小
の場合には前記補間軸を前記第3の方向と決定するよう
にしたことを特徴とするフィールド画像補間方法。
1. An interlace scanning type video signal in which a video signal of one frame is formed by the first and second fields, and from the image information signal of the first field to the image information signal of the second field. Is a field image interpolation method for obtaining the pixel [m, n] on the second field and the pixel [m, n] on the second field when obtaining the interpolation data of the pixel [m, n] on the second field. [n,] vertically adjacent pixels [m, n-1] and
[m, n + 1] on the same field as the pixel [m, n-1] and the pixel
Pixels [m-1, n-1] and [m + 1, n] that are horizontally adjacent to [m, n-1]
-1] and the pixel [m, n + 1] on the same field and the pixel
Pixels [m-1, n + 1] and [m + 1, n] that are horizontally adjacent to [m, n + 1]
+1] as a reference pixel, and based on the data of the extracted reference pixel, the pixel [m +
1, n-1] and [m-1, n + 1] in the first direction or the pixel [m-1,
the second direction connecting [n-1] and [m + 1, n + 1], or the pixel
determining an interpolation axis in any of the third directions connecting [m, n-1] and [m, n + 1], and based on the data of the reference pixel existing on the determined interpolation axis. To obtain interpolation data of the pixel [m, n], the interpolation axis is determined by the pixel [m + 1, n + 1], [m-1, n + 1],
The difference between the data of each reference pixel in the first region connecting [m + 1, n-1] and the pixels [m-1, n-1], [m + 1, n-1], [m −1, n + 1] and the difference between the data of the reference pixels in the second region, and the pixel
[m-1, n + 1], [m + 1, n + 1], [m-1, n-1] The difference between the data of each reference pixel in the third region connecting the pixel and the pixel [m + 1, n-1], [m-
1, n-1], [m + 1, n + 1], the difference between the data of the reference pixels in the fourth region and the pixels [m, n-1], [m, n + 1] comparing the difference between the data of the reference pixels in the fifth <br/> region connecting said first
Or, the difference in data of each reference pixel in the second area is the smallest
In the case of, the interpolation axis is determined to be the first direction,
The difference in the data of each reference pixel in the third or fourth region is
In the minimum case, the interpolation axis is determined to be the second direction,
The difference in the data of each reference pixel in the fifth region is the smallest
In the case of, the interpolation axis is determined to be the third direction.
Field image interpolation method being characterized in that the.
【請求項2】前記参照画素のデータとは、輝度データで
あることを特徴とする請求項1記載のフィールド画像補
間方法。
2. The field image interpolation method according to claim 1, wherein the reference pixel data is luminance data.
【請求項3】前記参照画素のデータとは、色調データで
あることを特徴とする請求項1記載のフィールド画像補
間方法。
3. The field image interpolation method according to claim 1, wherein the reference pixel data is color tone data.
【請求項4】第1及び第2のフィールドにより1フレー
ムの映像信号が形成されるインターレス走査方式のビデ
オ信号において、前記第1のフィールドの画像情報信号
から前記第2のフィールドの画像情報信号を得るフィー
ルド画像補間装置であり、 前記1フレームの映像信号を記憶するメモリ手段と、 前記第2のフィールド上の画素[m,n]の補間データを得
る際に、 前記第1のフィールド上で、且つ前記第2のフィールド
上の画素[m,n]と垂直方向に隣接する画素[m,n-1]及び
[m,n+1]と、 前記画素[m,n-1]と同一フィールド上で、且つ前記画素
[m,n-1]と水平方向に隣接する画素[m-1,n-1]及び[m+1,n
-1]と、 前記画素[m,n+1]と同一フィールド上で、且つ前記画素
[m,n+1]と水平方向に隣接する画素[m-1,n+1]及び[m+1,n
+1]とを参照画素として前記メモリ手段より摘出し、 前記摘出された参照画素のデータを基に、前記画素[m+
1,n-1]と[m-1,n+1]を結ぶ第1の方向又は前記画素[m-1,
n-1]と[m+1,n+1]を結ぶ第2の方向、もしくは前記画素
[m,n-1]と[m,n+1]を結ぶ第3の方向のいずれかに補間軸
を決定する補間軸決定手段と、 前記決定された補間軸上に存在する前記参照画素のデー
タを基に前記画素[m,n]の補間データを得る補間演算手
段とを備え、 前記補間軸決定手段は、前記画素[m+1,n+1]、[m-1,n+
1]、[m+1,n-1]を結ぶ領域での各参照画素のデータの差
と、前記画素[m-1,n-1]、[m+1,n-1]、[m-1,n+1]を結ぶ
領域での各参照画素のデータの差と、前記画素[m-1,n+
1]、[m+1,n+1]、[m-1,n-1]を結ぶ領域での各参照画素の
データの差と、前記画素[m+1,n-1]、[m-1,n-1]、[m+1,n
+1]を結ぶ領域での各参照画素のデータの差と、前記画
素[m,n-1]、[m,n+1]を結ぶ領域での各参照画素のデータ
の差とを比較し、前記第1又は第2の領域における各参
照画素のデータの差が最小の場合には前記補間軸を前記
第1の方向と決定し、前記第3又は第4の領域における
各参照画素のデータの差が最小の場合には前記補間軸を
前記第2の方向と決定し、前記第5の領域における各参
照画素のデータの差が最小の場合には前記補間軸を前記
第3の方向と決定するようにしたことを特徴とするフィ
ールド画像補間装置。
4. An interlace scanning type video signal in which a video signal of one frame is formed by the first and second fields, and from the image information signal of the first field to the image information signal of the second field. And a memory means for storing the video signal of the one frame, and interpolating data of the pixel [m, n] on the second field, in the first field. And a pixel [m, n-1] vertically adjacent to the pixel [m, n] on the second field and
[m, n + 1] on the same field as the pixel [m, n-1] and the pixel
Pixels [m-1, n-1] and [m + 1, n] that are horizontally adjacent to [m, n-1]
-1] and the pixel [m, n + 1] on the same field and the pixel
Pixels [m-1, n + 1] and [m + 1, n] that are horizontally adjacent to [m, n + 1]
+1] as a reference pixel from the memory means, and based on the data of the extracted reference pixel, the pixel [m +
1, n-1] and [m-1, n + 1] in the first direction or the pixel [m-1,
the second direction connecting [n-1] and [m + 1, n + 1], or the pixel
interpolation axis determining means for determining an interpolation axis in any of the third directions connecting [m, n-1] and [m, n + 1], and the reference pixel existing on the determined interpolation axis. An interpolation calculation unit that obtains interpolation data of the pixel [m, n] based on data, and the interpolation axis determination unit includes the pixels [m + 1, n + 1], [m-1, n +
1] and [m + 1, n-1] in the area connecting the reference pixels and the pixels [m-1, n-1], [m + 1, n-1], [m −1, n + 1] and the difference between the data of each reference pixel in the area connecting
1], [m + 1, n + 1], [m-1, n-1], the difference between the data of the reference pixels in the area connecting the pixels [m + 1, n-1], [m -1, n-1], [m + 1, n
+1] and the difference between the data of the reference pixels in the region connecting the pixel [m, n-1], compares the difference between the data of the reference pixels in the region connecting the [m, n + 1] , Each of the references in the first or second areas
When the difference in the data of the illuminated pixels is the minimum, the interpolation axis is set to
In the first or third direction, in the third or fourth area
If the difference in the data of each reference pixel is the minimum, the interpolation axis is set to
Determined as the second direction, each reference in the fifth area
When the difference in the data of the illuminated pixels is the minimum, the interpolation axis is set to
A field image interpolating device, characterized in that the third direction is determined .
【請求項5】前記参照画素のデータとは、輝度データで
あることを特徴とする請求項記載のフィールド画像補
間装置。
5. The field image interpolating device according to claim 4 , wherein the data of the reference pixel is luminance data.
【請求項6】前記参照画素のデータとは、色調データで
あることを特徴とする請求項記載のフィールド画像補
間装置。
6. The field image interpolating apparatus according to claim 4 , wherein the data of the reference pixel is color tone data.
JP34431697A 1997-11-28 1997-11-28 Field image interpolation method and field image interpolation device Expired - Lifetime JP3444170B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34431697A JP3444170B2 (en) 1997-11-28 1997-11-28 Field image interpolation method and field image interpolation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34431697A JP3444170B2 (en) 1997-11-28 1997-11-28 Field image interpolation method and field image interpolation device

Publications (2)

Publication Number Publication Date
JPH11164263A JPH11164263A (en) 1999-06-18
JP3444170B2 true JP3444170B2 (en) 2003-09-08

Family

ID=18368304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34431697A Expired - Lifetime JP3444170B2 (en) 1997-11-28 1997-11-28 Field image interpolation method and field image interpolation device

Country Status (1)

Country Link
JP (1) JP3444170B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4218640B2 (en) * 2002-08-19 2009-02-04 ソニー株式会社 Image processing apparatus and method, video display apparatus, and recorded information reproducing apparatus

Also Published As

Publication number Publication date
JPH11164263A (en) 1999-06-18

Similar Documents

Publication Publication Date Title
KR100215177B1 (en) Image data interplating apparatus
US8189105B2 (en) Systems and methods of motion and edge adaptive processing including motion compensation features
JP2011041306A (en) De-interlacing of video signal
US6295091B1 (en) Method and apparatus for de-interlacing video fields for superior edge preservation
JP2004516724A (en) Method for improving the accuracy of block-based motion compensation
JP3365333B2 (en) Resolution converter
JP3293561B2 (en) Image display device and image display method
US6961479B1 (en) Image processing device, image processing method, image-processing program recorded medium
JP3444170B2 (en) Field image interpolation method and field image interpolation device
JPH1141565A (en) Image data interpolation device
US6219104B1 (en) Picture processing apparatus and processing method
JPH0224073B2 (en)
JP3154272B2 (en) Image conversion apparatus and method
JP3695291B2 (en) Image processing apparatus, image display apparatus, and image processing method
JP2003289511A (en) Image scan converting method and apparatus
JP3063736B2 (en) Image scanning method conversion apparatus and method
US7567732B2 (en) Image resolution conversion
JP4689243B2 (en) Image processing apparatus, image processing method, and digital camera
JPH04275776A (en) Picture reader
JP4268696B2 (en) Image processing apparatus and processing method
JP3347234B2 (en) Liquid crystal display
JP2000115720A (en) Scanning line interpolation device and scanning line interpolation method
US6556213B1 (en) Image display having function of performing interpolation process by which outline is not blurred even when original image is enlarged
KR19980027495A (en) Display resolution converter
JPH05252486A (en) Scanning converter for video signal

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090627

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090627

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100627

Year of fee payment: 7