JP2003179887A - Digital image signal generating apparatus and method - Google Patents

Digital image signal generating apparatus and method

Info

Publication number
JP2003179887A
JP2003179887A JP2002269784A JP2002269784A JP2003179887A JP 2003179887 A JP2003179887 A JP 2003179887A JP 2002269784 A JP2002269784 A JP 2002269784A JP 2002269784 A JP2002269784 A JP 2002269784A JP 2003179887 A JP2003179887 A JP 2003179887A
Authority
JP
Japan
Prior art keywords
pixel
coefficient
digital image
image signal
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002269784A
Other languages
Japanese (ja)
Other versions
JP3906770B2 (en
Inventor
Kenji Takahashi
健治 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002269784A priority Critical patent/JP3906770B2/en
Publication of JP2003179887A publication Critical patent/JP2003179887A/en
Application granted granted Critical
Publication of JP3906770B2 publication Critical patent/JP3906770B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital image signal generating apparatus that selects a pixel in use depending on a result of still picture discrimination so as to determine a class of a target pixel with high accuracy in the case of generating a pixel value of a digital image signal with higher resolution from a received digital image signal. <P>SOLUTION: The digital image signal generating apparatus performs the same processing as that of an encoder employing the MUSE system and generates in advance a coefficient to accurately interpolate a value of interleaved pixels through learning by using a resulting signal and an original High Vision signal. Least square method arithmetic circuits 65a, 65b determine a coefficient for minimizing the square of an error between an estimate value and a true value by each class and store the results to memories 67a, 67b. The estimated value is generated by linear combination between the coefficient and values of surrounding pixels. The arithmetic circuit 65a determines the coefficient as a plurality of pixels in use when using pixels of the same field and the arithmetic circuit 65b determines the coefficient as a plurality of pixels in use when using pixels of the same frame. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、サブサンプリン
グにより伝送情報量を圧縮するような高解像度ビデオ信
号のデコーダ例えばハイビジョン信号の圧縮方式である
MUSE方式のデコーダに適用されるディジタル画像信
号生成装置および方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital image signal generation apparatus applied to a decoder for a high resolution video signal which compresses the amount of transmission information by sub-sampling, for example, a MUSE decoder which is a compression method for a high definition signal, and Regarding the method.

【0002】[0002]

【従来の技術】ディジタル画像信号を記録したり、伝送
する際の帯域圧縮あるいは情報量削減のための一つの方
法として、画素をサブサンプリングによって間引くこと
によって、伝送データ量を減少させるものがある。その
一例は、MUSE方式における多重サブナイキストサン
プリングエンコーディング方式である。このシステム
は、ハイビジョン信号を8MHz程度の帯域に圧縮する
ことができる。
2. Description of the Related Art As one method for band compression or information amount reduction when recording or transmitting a digital image signal, there is a method of reducing the amount of transmission data by thinning out pixels by subsampling. One example is the multiple sub-Nyquist sampling encoding method in the MUSE method. This system can compress a high-definition signal into a band of about 8 MHz.

【0003】[0003]

【発明が解決しようとする課題】従来のMUSE方式で
は、エンコード時に、1回あるいは2回サブサンプリン
グされたデータをデコードする際に、補間のために2次
元の空間フィルタを用いている。しかしながら、MUS
E方式では、斜め方向の解像度が低いという視覚特性を
利用して伝送情報量を圧縮しているので、エンコード時
に失われた斜め方向の解像度を取り戻すことができない
問題点があった。
In the conventional MUSE method, a two-dimensional spatial filter is used for interpolation when decoding data which has been subsampled once or twice at the time of encoding. However, MUS
In the E method, since the transmission information amount is compressed by utilizing the visual characteristic that the resolution in the diagonal direction is low, there is a problem that the resolution in the diagonal direction lost at the time of encoding cannot be recovered.

【0004】従って、この発明の目的は、MUSE方式
のデコーダに対して適用され、上述の問題点が解決され
たディジタル画像信号生成装置および方法を提供するこ
とにある。
Therefore, an object of the present invention is to provide a digital image signal generating apparatus and method which are applied to a MUSE type decoder and solve the above-mentioned problems.

【0005】[0005]

【課題を解決するための手段】請求項1の発明は、入力
ディジタル画像信号から、ディジタル画像信号より高解
像度のディジタル画像信号の画素値を生成するためのデ
ィジタル画像信号生成装置において、生成対象としての
第1の注目画素の静止判定を行う静止判定手段と、第1
の注目画素のクラスを、第1の注目画素と局所的相関を
有する複数の画素に基づいて決定するためのクラス分類
手段と、画素を生成するために、予め学習により獲得さ
れたクラス毎の係数が格納されたメモリ手段と、メモリ
手段と結合され、複数の画素と係数との演算によって第
1の注目画素の画素値を生成する画素値生成手段とを有
し、クラス分類手段において、第1の注目画素と局所的
相関を有する複数の画素は、静止判定手段における判定
結果に応じて選択されることを特徴とするディジタル画
像信号生成装置である。
According to a first aspect of the present invention, a digital image signal generator for generating a pixel value of a digital image signal having a higher resolution than a digital image signal from an input digital image signal is used as a generation target. Stationary determination means for determining stationary of the first pixel of interest,
Classifying means for determining the class of the pixel of interest on the basis of a plurality of pixels having a local correlation with the first pixel of interest, and a coefficient for each class acquired in advance by learning to generate the pixel. And a pixel value generation unit that is coupled to the memory unit and that generates a pixel value of the first pixel of interest by calculating a plurality of pixels and a coefficient. The plurality of pixels having a local correlation with the pixel of interest are selected in accordance with the determination result by the stillness determination means.

【0006】この発明では、注目画素のクラス分類を行
う場合に、静止判定手段の判定結果に応じて、注目画素
が動き部分と判定されれば、注目画素と時間的および空
間的に近傍例えば同一フィールド内の複数の画素に基づ
いてクラス分類が行われ、注目画素が静止部分と判定さ
れれば、注目画素と空間的に近傍例えば同一フレーム内
の複数の画素に基づいてクラス分類が行われる。このよ
うに静止判定結果に応じてクラス分類に使用する画素を
異ならせるので、注目画素と局所的相関を有する複数の
画素を使用してクラス分類を行うことが可能となり、ク
ラス分類の精度を向上できる。
According to the present invention, when the target pixel is classified into a class, if the target pixel is determined to be a moving portion in accordance with the determination result of the stillness determination means, it is temporally and spatially close to the target pixel, for example, the same. If the classification is performed based on a plurality of pixels in the field and it is determined that the pixel of interest is a still portion, the classification is performed based on a plurality of pixels spatially near the pixel of interest, for example, a plurality of pixels in the same frame. In this way, the pixels used for class classification are made different according to the stillness determination result, so it is possible to perform class classification using a plurality of pixels that have a local correlation with the pixel of interest, improving the accuracy of class classification. it can.

【0007】[0007]

【発明の実施の形態】以下、この発明の一実施形態につ
いて図面を参照して説明する。まず、MUSE方式のエ
ンコーダの主要部を図1を参照して説明する。ハイビジ
ョン信号をA/D変換器によってディジタル信号へ変換
し、マトリクス演算により、Y(輝度)信号、Pr(R
−Y成分)信号、Pb(B−Y成分)信号が形成され、
図1中の1、2、3で示す入力端子にそれぞれ供給され
る。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to the drawings. First, the main part of the MUSE encoder will be described with reference to FIG. A high-definition signal is converted into a digital signal by an A / D converter, and the Y (luminance) signal and Pr (R) are calculated by matrix calculation.
-Y component) signal and Pb (BY component) signal are formed,
It is supplied to the input terminals indicated by 1, 2, and 3 in FIG.

【0008】Y信号がフィールド間前置フィルタ4に供
給される。このフィルタ4に対して、フィールドオフセ
ットサブサンプリング回路5、ローパスフィルタ6およ
びサンプリング周波数変換回路7が接続される。フィー
ルドオフセットサブサンプリング回路5は、フィールド
間でサブサンプリングの位相が1画素ずらされるもの
で、その出力がローパスフィルタ8に供給される。原Y
信号のサンプリング周波数は、48.6MHzで、サブ
サンプリング回路5のサンプリング周波数が24.3M
Hzで、ローパスフィルタ8によって、12.15MH
z以上の周波数成分が除去されるとともに、データが内
挿されてサンプリング周波数が48.6MHzに戻され
る。
The Y signal is supplied to the inter-field prefilter 4. A field offset sub-sampling circuit 5, a low-pass filter 6 and a sampling frequency conversion circuit 7 are connected to the filter 4. The field offset subsampling circuit 5 shifts the subsampling phase by 1 pixel between fields, and the output thereof is supplied to the low-pass filter 8. Hara Y
The sampling frequency of the signal is 48.6 MHz, and the sampling frequency of the sub-sampling circuit 5 is 24.3 M.
12.15 MHz by the low pass filter 8 at
The frequency components above z are removed, and the data is interpolated to restore the sampling frequency to 48.6 MHz.

【0009】ローパスフィルタ8に対して、サンプリン
グ周波数変換回路9が接続され、サンプリング周波数が
サンプリング周波数変換回路9によって、32.4MH
zに変換される。この回路9の出力信号がTCI(Time
Compressed Integration) スイッチ10に供給される。
サブサンプリング回路5から変換回路9までの信号路
は、静止領域の処理のために設けられている。
A sampling frequency conversion circuit 9 is connected to the low-pass filter 8, and the sampling frequency is 32.4 MH by the sampling frequency conversion circuit 9.
converted to z. The output signal of this circuit 9 is TCI (Time
Compressed Integration) The switch 10 is supplied.
The signal path from the sub-sampling circuit 5 to the conversion circuit 9 is provided for processing the static region.

【0010】帯域制限用のローパスフィルタ6に対して
サンプリング周波数変換回路11が接続され、48.6
MHzから32.4MHzへサンプリング周波数が変換
される。この回路11の出力がTCIスイッチ12に供
給される。TCIスイッチ12からの信号が2次元サブ
サンプリングフィルタ16を介して混合回路17に供給
される。ローパスフィルタ6からサブサンプリングフィ
ルタ16に至る信号路が動き領域の処理のために設けら
れている。混合回路17では、フィルタ16の出力信号
とTCIスイッチ10の出力信号とが混合される。
The sampling frequency conversion circuit 11 is connected to the low pass filter 6 for band limitation, and 48.6.
The sampling frequency is converted from MHz to 32.4 MHz. The output of this circuit 11 is supplied to the TCI switch 12. The signal from the TCI switch 12 is supplied to the mixing circuit 17 via the two-dimensional sub-sampling filter 16. A signal path from the low-pass filter 6 to the sub-sampling filter 16 is provided for processing the motion area. In the mixing circuit 17, the output signal of the filter 16 and the output signal of the TCI switch 10 are mixed.

【0011】サンプリング周波数変換回路7に対して
は、動きベクトル検出回路13が接続される。動きベク
トル検出回路13に対して、動きフィルタ14および動
き検出回路15が接続される。動きフィルタ14には、
サンプリング周波数変換回路11の出力信号も供給され
る。動きフィルタ14の出力が動き検出回路15に供給
される。動き検出回路15での検出結果(動き量)に基
づいて混合回路17の混合比を制御する制御信号が生成
される。
A motion vector detection circuit 13 is connected to the sampling frequency conversion circuit 7. A motion filter 14 and a motion detection circuit 15 are connected to the motion vector detection circuit 13. The motion filter 14 includes
The output signal of the sampling frequency conversion circuit 11 is also supplied. The output of the motion filter 14 is supplied to the motion detection circuit 15. A control signal for controlling the mixing ratio of the mixing circuit 17 is generated based on the detection result (motion amount) of the motion detection circuit 15.

【0012】入力端子2、3からの色信号Pr、Pbが
垂直ローパスフィルタ21、22をそれぞれ介して線順
次化回路23に供給される。線順次化回路23からの線
順次色信号がローパスフィルタ24に供給され、7MH
z以上の成分が除去され、そして、フィールドオフセッ
トサブサンプリング回路26に供給される。線順次色信
号が帯域制限用のローパスフィルタ25を介してフィー
ルドオフセットサブサンプリング回路27に供給され
る。サブサンプリング回路27に対して時間圧縮回路2
8が接続される。
The color signals Pr and Pb from the input terminals 2 and 3 are supplied to the line sequential circuit 23 through the vertical low pass filters 21 and 22, respectively. The line-sequential color signal from the line-sequencing circuit 23 is supplied to the low-pass filter 24,
Components of z or more are removed and then supplied to the field offset subsampling circuit 26. The line-sequential color signal is supplied to the field offset sub-sampling circuit 27 via the low-pass filter 25 for band limitation. Time compression circuit 2 for sub-sampling circuit 27
8 are connected.

【0013】ローパスフィルタ24およびサブサンプリ
ング回路26は、静止領域用の処理回路であり、ローパ
スフィルタ25、サブサンプリング回路27および時間
圧縮回路28は、動き領域用の処理回路である。サブサ
ンプリング回路26および時間圧縮回路28の出力信号
がTCIスイッチ10および12へそれぞれ供給され、
上述のように処理された輝度信号成分と時間軸多重化さ
れる。
The low-pass filter 24 and the sub-sampling circuit 26 are processing circuits for the stationary region, and the low-pass filter 25, the sub-sampling circuit 27 and the time compression circuit 28 are processing circuits for the moving region. The output signals of the sub-sampling circuit 26 and the time compression circuit 28 are supplied to the TCI switches 10 and 12, respectively,
It is time-axis multiplexed with the luminance signal component processed as described above.

【0014】混合回路17の出力信号がフレーム,ライ
ンオフセットサブサンプリング回路31に供給される。
ここでのサブサンプリングのパターンは、フレーム間お
よびライン間で反転され、また、サンプリング周波数が
16.2MHzとされる。サブサンプリング回路31の
出力信号が伝送用ガンマ補正回路32を介してMUSE
のフォーマット化回路33に供給される。図では省略さ
れているが、時間軸圧縮されたオーディオ信号、同期信
号、VIT信号等がフォーマット化回路33に加えら
れ、出力端子34に約8MHzのMUSE信号が取り出
される。
The output signal of the mixing circuit 17 is supplied to the frame / line offset sub-sampling circuit 31.
The sub-sampling pattern here is inverted between frames and between lines, and the sampling frequency is set to 16.2 MHz. The output signal of the sub-sampling circuit 31 is transmitted through the transmission gamma correction circuit 32 to the MUSE
Is supplied to the formatting circuit 33. Although not shown in the figure, a time-axis-compressed audio signal, sync signal, VIT signal, etc. are added to the formatting circuit 33, and a MUSE signal of about 8 MHz is taken out from the output terminal 34.

【0015】上述のMUSEエンコーダのサブサンプリ
ングについて、図2を参照して概略的に説明する。静止
領域の処理が上側に示され、動き量子化の処理が下側に
示されている。図1の各点の信号に関して、そのサンプ
リング状態を図2に示す。また、C信号の処理は、Y信
号と同様であるため、その説明を省略する。フィールド
オフセットサブサンプリング回路5の入力(A点)から
ディジタルY信号が供給され、フィールド毎にサンプリ
ング位相が1画素ずれたパターンでサブサンプリングさ
れた出力信号がB点に発生する。
Subsampling of the MUSE encoder described above will be schematically described with reference to FIG. The processing of the static region is shown on the upper side, and the processing of motion quantization is shown on the lower side. FIG. 2 shows the sampling state of the signal at each point in FIG. Further, the processing of the C signal is the same as that of the Y signal, and thus the description thereof will be omitted. A digital Y signal is supplied from the input (point A) of the field offset subsampling circuit 5, and an output signal subsampled in a pattern in which the sampling phase is shifted by one pixel for each field is generated at point B.

【0016】ローパスフィルタ12の出力(C点)に
は、内挿処理された信号(サンプリング周波数が48.
6MHz)が発生する。サンプリング周波数変換回路9の
出力(D点)もサンプリング周波数が32.4MHzに
変換された信号が現れる。
At the output (point C) of the low-pass filter 12, the interpolated signal (sampling frequency is 48.
6 MHz) is generated. At the output (point D) of the sampling frequency conversion circuit 9, a signal whose sampling frequency has been converted to 32.4 MHz appears.

【0017】一方、ローパスフィルタ6の入力(a点)
には、A点と同様のディジタルY信号が供給される。動
き領域では、フィールドオフセットサブサンプリングが
なされず、サンプリング周波数変換回路11の出力(b
点)には、D点と同様のY信号が発生する。
On the other hand, the input of the low-pass filter 6 (point a)
Is supplied with a digital Y signal similar to that at the point A. In the motion area, the field offset sub-sampling is not performed, and the output of the sampling frequency conversion circuit 11 (b
At the point), the Y signal similar to that at the point D is generated.

【0018】静止領域および動き領域のそれぞれの処理
を受けたY信号が混合回路17で混合され、混合回路1
7の出力がフレーム,ラインオフセットサブサンプリン
グ回路31に供給される。この回路31の出力(E点)
では、フレーム間およびライン間で水平方向に1画素の
オフセットを持つようにサンプリングされた出力信号が
発生する。
The Y signals that have been subjected to the respective processing of the static region and the moving region are mixed in the mixing circuit 17, and the mixing circuit 1
The output of 7 is supplied to the frame / line offset sub-sampling circuit 31. Output of this circuit 31 (point E)
In, an output signal sampled so as to have an offset of one pixel in the horizontal direction between frames and between lines is generated.

【0019】図3は、この発明を適用できるMUSEデ
コーダの一部を示す。受信されベースバンド信号に変換
され、ディジタル信号に変換されたMUSE信号がフレ
ーム間内挿回路41、フィールド間内挿回路42および
動き部分検出回路43にそれぞれ供給される。動き部分
検出回路43によって、動き領域を検出し、動き領域と
静止領域との処理がそれぞれなされた信号の混合比が制
御される。
FIG. 3 shows a part of a MUSE decoder to which the present invention can be applied. The MUSE signal received, converted into a baseband signal, and converted into a digital signal is supplied to the interframe interpolation circuit 41, the interfield interpolation circuit 42, and the motion part detection circuit 43, respectively. The moving portion detection circuit 43 detects a moving area and controls the mixing ratio of the signals processed by the moving area and the still area.

【0020】すなわち、静止領域は、フレーム間内挿回
路41により1フレーム前の画像データを使用したフレ
ーム間内挿がなされる。但し、カメラのパニングのよう
に、画像の全体が動く時には、コントロール信号として
伝送される動きベクトルに応じて1フレーム前の画像を
動かして重ね合わせる処理がなされる。フレーム間内挿
回路41の出力信号がローパスフィルタ44、サンプリ
ング周波数変換回路(32.4MHzから48.6MH
zへ)45、フィールドオフセットサブサンプリング回
路46およびフィールド間内挿回路47を介して混合回
路48に供給される。サブサンプリング回路46から
は、24.3MHzのサンプリング周波数の信号が得ら
れる。
That is, the stationary area is interpolated by the interframe interpolation circuit 41 using the image data of the previous frame. However, when the entire image moves, like the panning of the camera, a process of moving and superimposing the image one frame before according to the motion vector transmitted as the control signal is performed. The output signal of the inter-frame interpolation circuit 41 is a low-pass filter 44, a sampling frequency conversion circuit (32.4 MHz to 48.6 MH).
z) 45, a field offset sub-sampling circuit 46, and an inter-field interpolation circuit 47 to a mixing circuit 48. A signal having a sampling frequency of 24.3 MHz is obtained from the sub-sampling circuit 46.

【0021】動き領域は、フィールド内内挿回路42に
よって、空間的内挿がなされる。内挿回路42に対し
て、32.4MHzから48.6MHzへのサンプリン
グ周波数変換回路49が接続され、その出力信号が混合
回路48に供給される。この混合回路48の混合比は、
動き部分検出回路43の出力信号により制御される。混
合回路48の出力信号が図示しないが、TCIデコーダ
に供給され、Y、Pr、Pbの各信号に分離される。さ
らに、D/A変換され、逆マトリクス演算され、ガンマ
補正がされてからR、G、B信号が得られる。
The motion area is spatially interpolated by the field interpolation circuit 42. A sampling frequency conversion circuit 49 from 32.4 MHz to 48.6 MHz is connected to the interpolation circuit 42, and the output signal thereof is supplied to the mixing circuit 48. The mixing ratio of this mixing circuit 48 is
It is controlled by the output signal of the moving part detection circuit 43. Although not shown, the output signal of the mixing circuit 48 is supplied to the TCI decoder and separated into Y, Pr, and Pb signals. Further, R / G / B signals are obtained after D / A conversion, inverse matrix calculation, and gamma correction.

【0022】上述のデコーダの処理を図4のサンプリン
グパターンを参照して概略的に説明する。入力信号(E
点)のサンプリング状態は、上述のエンコーダの出力
(E点)と同一である。静止領域がフレーム間内挿回路
4を介され、その出力(F点)で間引き画素が内挿され
たビデオ信号が生じる。サンプリング周波数変換回路4
5(G点)では、サンプリング周波数が48.6MHz
に変換されたビデオ信号が現れる。
The processing of the above decoder will be schematically described with reference to the sampling pattern of FIG. Input signal (E
The sampling state of (point) is the same as the above-mentioned encoder output (point E). The still area is passed through the inter-frame interpolation circuit 4, and at its output (point F), a video signal in which thinned pixels are interpolated is generated. Sampling frequency conversion circuit 4
At 5 (point G), the sampling frequency is 48.6 MHz
The video signal converted into appears.

【0023】フィールドオフセットサブサンプリング回
路46の出力(H点)では、フィールド毎に1画素ずれ
たオフセットサンプリングがなされた信号が発生する。
次のフィールド間内挿回路47の出力(I点)に画素が
内挿された信号が生じる。これが混合回路48に供給さ
れる。
At the output (point H) of the field offset sub-sampling circuit 46, a signal subjected to offset sampling with a pixel shift for each field is generated.
A signal in which pixels are interpolated is generated at the next output (point I) of the inter-field interpolation circuit 47. This is supplied to the mixing circuit 48.

【0024】動き領域の処理のためのフィールド内内挿
回路42の出力(f点)にフィールド内の画素により内
挿されたビデオ信号が発生する。サンプリング周波数変
換回路49によって、その出力(h点)には、48.6
MHzのサンプリング周波数のビデオ信号が発生する。
これが混合回路48に供給される。
At the output (point f) of the field interpolation circuit 42 for processing the motion area, a video signal interpolated by the pixels in the field is generated. The sampling frequency conversion circuit 49 outputs 48.6 to its output (point h).
A video signal with a sampling frequency of MHz is generated.
This is supplied to the mixing circuit 48.

【0025】さて、上述のMUSE方式では、静止領域
に関して2回のサブサンプリングがなされ、2回の補間
がなされ、また、動き領域に関しては、1回のサブサン
プリングと補間がなされる。これらの補間のために、従
来では、フィルタを使用していたが、その結果、最初に
述べたように、斜め方向の解像度が失われる問題があっ
た。この問題点を解決するのがこの発明であり、従っ
て、この発明は、上述のMUSEデコーダにおけるフレ
ーム間内挿回路41、フィールド内内挿回路42および
フィールド間内挿回路47の何れに対しても適用でき
る。
In the MUSE method described above, sub-sampling is performed twice on the stationary area and interpolation is performed twice, and sub-sampling and interpolation are performed once on the moving area. Conventionally, a filter is used for these interpolations, but as a result, there is a problem that the resolution in the diagonal direction is lost as described above. The present invention solves this problem. Therefore, the present invention can be applied to any of the interframe interpolation circuit 41, the field interpolation circuit 42, and the interfield interpolation circuit 47 in the above MUSE decoder. Applicable.

【0026】一例として、動き領域のためのフィールド
内内挿回路42に対してこの発明を適用した一実施形態
を図5に示す。図5において、51は、オフセットサブ
サンプリングされたディジタル画像信号の入力端子であ
る。52は、入力信号をブロック構造の信号に変換する
ための時系列変換回路である。すなわち、時系列変換回
路52によって、クラス分けと補間演算に必要な複数の
画素が同時化される。
As an example, FIG. 5 shows an embodiment in which the present invention is applied to the field interpolation circuit 42 for the motion area. In FIG. 5, reference numeral 51 is an input terminal for an offset sub-sampled digital image signal. Reference numeral 52 is a time series conversion circuit for converting an input signal into a block structure signal. That is, the time-series conversion circuit 52 synchronizes a plurality of pixels required for classification and interpolation calculation.

【0027】時系列変換回路52の出力信号が補間演算
回路53およびクラス分類回路55に供給される。補間
演算回路53には、後述のように予め学習により獲得さ
れた係数が格納されている係数メモリ54が接続されて
いる。係数メモリ54内には、第1の係数が格納された
テーブル54aと第2の係数が格納されたテーブル54
bとが含まれる。
The output signal of the time series conversion circuit 52 is supplied to the interpolation calculation circuit 53 and the class classification circuit 55. The interpolation calculation circuit 53 is connected to a coefficient memory 54 that stores coefficients acquired by learning in advance as described later. In the coefficient memory 54, a table 54a in which the first coefficient is stored and a table 54 in which the second coefficient is stored.
b and are included.

【0028】クラス分類回路55からクラスコードcが
発生する。補間の対象である、注目画素を含むブロック
のブロックの2次元的(フィールド内またはフレーム
内)レベル分布のパターン、すなわち、クラスが決定さ
れる。クラスコードcがこのクラスを指示し、クラスコ
ードcが係数メモリ54に対してそのアドレスとして供
給される。
A class code c is generated from the class classification circuit 55. The pattern of the two-dimensional (in-field or in-frame) level distribution of the block of the block including the pixel of interest, which is the target of interpolation, that is, the class is determined. The class code c indicates this class, and the class code c is supplied to the coefficient memory 54 as its address.

【0029】図5において、57で示す入力端子から注
目画素の動き量を示す信号が比較回路58に供給され
る。この動き量の信号としては、例えばMUSEデコー
ダ(図3)の動き部分検出回路43の出力信号を利用で
きる。動き量を示す信号は、具体的には、動き量と比例
した例えば0〜16の範囲の値を有している。比較回路
58では、しきい値THと比較され、動き量の信号がし
きい値THより大きいときは、注目画素を動き画素と判
定し、これがしきい値TH以下のときは、注目画素を静
止画素と判定する。THは、適宜設定されるが、一例
は、TH=3である。
In FIG. 5, a signal indicating the amount of movement of the pixel of interest is supplied from the input terminal 57 to the comparison circuit 58. As the motion amount signal, for example, the output signal of the motion part detection circuit 43 of the MUSE decoder (FIG. 3) can be used. Specifically, the signal indicating the amount of movement has a value in the range of, for example, 0 to 16 proportional to the amount of movement. In the comparison circuit 58, the threshold value TH is compared, and when the motion amount signal is larger than the threshold value TH, the pixel of interest is determined to be a moving pixel, and when it is below the threshold value TH, the pixel of interest is stopped. Judge as a pixel. Although TH is set appropriately, TH = 3 is an example.

【0030】比較回路58の出力信号(判定信号)が時
系列変換回路52および係数メモリ54に供給される。
判定信号によって、時系列変換回路52が出力する周辺
画素が切り換えられる。すなわち、注目画素が動き画素
であることを判定信号が指示する時に、時系列変換回路
52がフィールド内の周辺画素を出力し、それが静止画
素であることを判定信号が指示する時に、これがフレー
ム内の周辺画素を出力する。より具体的には、時系列変
換回路52内には、判定信号で制御されるセレクタある
いはアドレス発生回路が設けられている。
The output signal (determination signal) of the comparison circuit 58 is supplied to the time series conversion circuit 52 and the coefficient memory 54.
The peripheral pixels output by the time series conversion circuit 52 are switched according to the determination signal. That is, when the determination signal indicates that the pixel of interest is a moving pixel, the time-series conversion circuit 52 outputs the peripheral pixels in the field, and when the determination signal indicates that it is a still pixel, this is the frame. The peripheral pixels inside are output. More specifically, the time series conversion circuit 52 is provided with a selector or an address generation circuit controlled by a determination signal.

【0031】また、判定信号によって、係数メモリ54
のテーブル54a、54bが選択的に使用される。すな
わち、動き画素のときは、テーブル54aの第1の係数
が補間演算回路53に出力され、静止画素のときは、テ
ーブル54bの第2の係数が補間演算回路53に出力さ
れる。後述する学習時には、テーブル54aの第1の係
数がフィールド内の周辺画素を参照して決定されてお
り、テーブル54bの第2の係数がフレーム内の周辺画
素を参照して決定されている。
Further, according to the determination signal, the coefficient memory 54
Tables 54a and 54b are selectively used. That is, for a moving pixel, the first coefficient of the table 54a is output to the interpolation calculation circuit 53, and for a still pixel, the second coefficient of the table 54b is output to the interpolation calculation circuit 53. At the time of learning which will be described later, the first coefficient of the table 54a is determined by referring to the peripheral pixels in the field, and the second coefficient of the table 54b is determined by referring to the peripheral pixels in the frame.

【0032】クラス分類回路55からのクラスコードc
が係数メモリ54に供給されると、そのクラスと対応す
る係数が係数メモリ54のテーブル54aまたは54b
から読出される。メモリ54からの係数と時系列変換回
路52からの周辺画素の値との線形1次結合によって、
注目画素の補間値が形成される。補間演算回路53から
出力端子56に間引き画素の補間値が出力される。補間
演算回路53では、下式の線形1次結合によって、補間
値y´が生成される。
Class code c from class classification circuit 55
Is supplied to the coefficient memory 54, the coefficient corresponding to the class is stored in the table 54a or 54b of the coefficient memory 54.
Read from. By linear linear combination of the coefficient from the memory 54 and the value of the peripheral pixel from the time series conversion circuit 52,
An interpolated value for the pixel of interest is formed. The interpolation calculation circuit 53 outputs the interpolation value of the thinned pixel to the output terminal 56. In the interpolation calculation circuit 53, the interpolation value y ′ is generated by the linear linear combination of the following equation.

【0033】 y´=w1 x1 +w2 x2 +‥‥+wn xn (1) x1 〜xn は、注目画素の周囲の画素の値であり、w1
〜wn は、クラス毎に予め決定された係数である。
Y ′ = w1 x1 + w2 x2 + ... + wn xn (1) x1 to xn are values of pixels around the pixel of interest, and w1
~ Wn are coefficients determined in advance for each class.

【0034】上述の係数メモリ54には、予め学習によ
り作成された第1および第2の係数が格納されている。
図6は、学習ための構成の一例を示す。61で示す入力
端子から学習用の高解像度ディジタル画像信号が供給さ
れる。この入力信号としては、異なる絵柄の静止画像信
号を使用できる。
The above-mentioned coefficient memory 54 stores the first and second coefficients created in advance by learning.
FIG. 6 shows an example of a configuration for learning. A high resolution digital image signal for learning is supplied from an input terminal 61. As this input signal, still image signals having different patterns can be used.

【0035】入力ディジタル画像信号がMUSEのエン
コーダにおけるのと同様に、2次元サブサンプルフィル
タ62を介してフレーム,ラインオフセットサブサンプ
リング回路63に供給される。この回路63の出力が時
系列変換回路64a、64bに供給され、複数の参照画
素のデータが同時化される。時系列変換回路64a、6
4bの出力信号が最小二乗法の演算回路65a、65b
とクラス分類回路66a、66bにそれぞれ供給され
る。
The input digital image signal is supplied to the frame / line offset sub-sampling circuit 63 through the two-dimensional sub-sample filter 62, as in the MUSE encoder. The output of the circuit 63 is supplied to the time series conversion circuits 64a and 64b, and the data of a plurality of reference pixels are synchronized. Time series conversion circuit 64a, 6
The output signal of 4b is a least squares arithmetic circuit 65a, 65b
And the classification circuits 66a and 66b, respectively.

【0036】時系列変換回路64aは、注目画素と同一
フィールド内の画素であって、注目画素の周辺の複数の
画素を同時化する。他の時系列変換回路64bは、注目
画素と同一フレーム内の画素であって、注目画素の周辺
の複数の画素を同時化する。そして、クラス分類回路6
6aは、図7に示すように、注目画素(補間画素)の周
囲の同一フィールド内の4個の参照画素(そのレベルを
a、b、c、dとする)のレベル分布に基づいて行われ
る。すなわち、クラス分類回路66aは、図8に示すよ
うに、参照画素a〜dの平均値Avを計算し、次に、参
照画素の各値と平均値Avとを比較し、比較結果に応じ
たクラスコードcを発生する。図8の例では、(a<A
v,b≧Av,c<Av,d≧Av)の比較結果に基づ
いて、(0101)のクラスコードcが形成される。
The time series conversion circuit 64a simultaneously synchronizes a plurality of pixels which are pixels in the same field as the pixel of interest and around the pixel of interest. The other time series conversion circuit 64b synchronizes a plurality of pixels in the same frame as the pixel of interest and around the pixel of interest. Then, the class classification circuit 6
As shown in FIG. 7, 6a is performed based on the level distribution of four reference pixels (whose levels are a, b, c, and d) in the same field around the pixel of interest (interpolation pixel). . That is, as shown in FIG. 8, the class classification circuit 66a calculates the average value Av of the reference pixels a to d, then compares each value of the reference pixels with the average value Av, and responds to the comparison result. Generate class code c. In the example of FIG. 8, (a <A
The class code c of (0101) is formed based on the comparison result of v, b ≧ Av, c <Av, d ≧ Av.

【0037】クラス分類回路66bも同様にしてクラス
コードcを発生する。但し、クラス分類回路66bは、
同一フレーム内の3個の参照画素b、d、e(図7)を
使用してクラス分けを行なう。なお、参照画素として、
どのようなものを選ぶかは、任意であって、単なる一例
を述べたにすぎない。クラス分類回路66a、66bが
発生したクラスコードcが最小二乗法の演算回路65a
および65bに供給される。これらの演算回路65aお
よび65bに対しては、時系列変換回路64a、64b
の出力信号と入力端子61からの注目画素の真値とがそ
れぞれ供給される。
The class classification circuit 66b similarly generates a class code c. However, the class classification circuit 66b
Classification is performed using three reference pixels b, d, and e (FIG. 7) in the same frame. As a reference pixel,
The choice of what is optional is merely an example. The class code c generated by the class classification circuits 66a and 66b is the least squares arithmetic circuit 65a.
And 65b. For these arithmetic circuits 65a and 65b, the time series conversion circuits 64a and 64b are provided.
And the true value of the pixel of interest from the input terminal 61 are respectively supplied.

【0038】なお、図5の補間装置のクラス分類回路5
5は、上述のクラス分類回路66a、66bと同様に注
目画素のクラス分けを行なう。図5では、時系列変換回
路52が判定信号によって、フィールド内の複数画素ま
たはフレーム内の複数画素を出力するので、一つのクラ
ス分類回路55がフィールド内の画素を使用したクラス
分けとフレーム内の画素を使用したクラス分けとを選択
的に行なう。若し、必要があれば、クラス分類回路55
に対して判定信号を供給しても良い。
The class classification circuit 5 of the interpolator of FIG.
5 classifies the target pixel into classes, as in the above-described class classification circuits 66a and 66b. In FIG. 5, since the time series conversion circuit 52 outputs a plurality of pixels in the field or a plurality of pixels in the frame according to the determination signal, one class classification circuit 55 classifies using the pixels in the field and Classification using pixels is selectively performed. If necessary, class classification circuit 55
A determination signal may be supplied to

【0039】クラス分類回路55、66a、66bの他
の例は、ADRC(Adaptive DynamicRange Coding)で
ある。ADRCは、画像の局所的な相関を利用してレベ
ル方向の冗長度を適応的に除去するものである。より具
体的には、1ビットADRCを使用できる。すなわち、
上述の参照画素を含むブロックの最大値および最小値が
検出され、最大値および最小値の差であるダイナミック
レンジが検出され、参照画素の値がダイナミックレンジ
で割算され、その商が0.5と比較され、0.5以上の
ものが‘1' 、それより小さいものが‘0' に符号化され
る。
Another example of the class classification circuits 55, 66a, 66b is ADRC (Adaptive Dynamic Range Coding). ADRC is a technique for adaptively removing redundancy in the level direction by utilizing local correlation of images. More specifically, 1-bit ADRC can be used. That is,
The maximum value and the minimum value of the block including the reference pixel described above are detected, the dynamic range that is the difference between the maximum value and the minimum value is detected, the value of the reference pixel is divided by the dynamic range, and the quotient is 0.5. Are compared to 0, and those smaller than 0.5 are encoded as '1', and those smaller than 0.5 are encoded as '0'.

【0040】1ビット以外のビット数の出力を発生する
ADRCを採用しても良い。ADRCに限らず、DPC
M(Differential pulse code modulation)、BTC(Blo
ck Trancation Coding) 等の圧縮符号化のエンコーダを
クラス分類回路55、66a、66bとして使用するこ
とができる。さらに、クラス分けのために、参照画素の
値をそのまま使用することも可能である。また、情報圧
縮のために、VQ(ベクトル量子化)も使用できる。
An ADRC that generates an output of a bit number other than 1 bit may be adopted. Not limited to ADRC, DPC
M (Differential pulse code modulation), BTC (Blo
A compression coding encoder such as ck Trancation Coding) can be used as the class classification circuits 55, 66a, and 66b. Further, it is possible to use the value of the reference pixel as it is for classifying. VQ (Vector Quantization) can also be used for information compression.

【0041】最小二乗法の演算回路65a、65bは、
クラス毎に、周辺の画素の値と係数の線形1次結合で表
された注目画素の推定値y´とその真値yとの誤差の二
乗を最小とするように、係数を確定する。そして、確定
された係数が係数メモリ67のメモリ67a、67bに
それぞれ格納される。このメモリ67aに格納されたも
のが図5の補間装置におけるテーブル54aとして使用
され、メモリ67bに格納されたものがテーブル54b
として使用される。
The least squares arithmetic circuits 65a and 65b are
For each class, the coefficient is determined so that the square of the error between the estimated value y ′ of the pixel of interest represented by a linear linear combination of the value of the peripheral pixel and the coefficient and its true value y is minimized. Then, the determined coefficients are stored in the memories 67a and 67b of the coefficient memory 67, respectively. The one stored in the memory 67a is used as the table 54a in the interpolation device of FIG. 5, and the one stored in the memory 67b is the table 54b.
Used as.

【0042】最小二乗法による係数の決定について、図
9のフローチャートを参照して説明する。ステップ71
から学習処理の制御が開始され、ステップ72の学習デ
ータ形成では、既知の画像に対応した学習データが形成
される。フィールド内(演算回路65aの場合)または
フレーム内(演算回路65bの場合)の周辺画素の値が
学習データとして採用される。注目画素の真値yと周辺
画素の値x1 〜xn とが一組の学習データである。
The determination of the coefficient by the method of least squares will be described with reference to the flowchart of FIG. Step 71
The control of the learning process is started from, and in the learning data formation of step 72, learning data corresponding to a known image is formed. The value of the peripheral pixel in the field (in the case of the arithmetic circuit 65a) or in the frame (in the case of the arithmetic circuit 65b) is adopted as the learning data. The true value y of the pixel of interest and the values x1 to xn of the peripheral pixels are a set of learning data.

【0043】ここで、周辺画素で構成されるブロックの
ダイナミックレンジがしきい値よりも小さいものは、学
習データとして扱わない制御がなされる。ダイナミック
レンジが小さいものは、ノイズの影響を受けやすく、正
確な学習結果が得られないおそれがあるからである。ス
テップ73のデータ終了では、入力された全データ例え
ば1フレームのデータの処理が終了していれば、ステッ
プ76の予測係数決定へ、終了していなければ、ステッ
プ74のクラス決定へ制御が移る。
Here, control is performed so that blocks having a dynamic range smaller than the threshold value are not treated as learning data. This is because those having a small dynamic range are easily affected by noise, and an accurate learning result may not be obtained. At the end of the data in step 73, if the processing of all the input data, for example, one frame of data has been completed, the control proceeds to the prediction coefficient determination in step 76, and if not completed, the control proceeds to the class determination in step 74.

【0044】ステップ74のクラス決定は、上述のよう
に、フィールド内またはフレーム内の所定の画素の値に
基づいたクラス決定がなされる。ステップ75の正規方
程式加算では、後述する式(9)の正規方程式が作成さ
れる。全データの処理が終了後、ステップ73のデータ
終了から制御がステップ76に移る。このステップ76
の予測係数決定では、この正規方程式を行列解法を用い
て解いて、予測係数を決める。ステップ77の予測係数
ストアで、予測係数をメモリにストアし、ステップ78
で学習処理の制御が終了する。
The class determination in step 74 is based on the value of a predetermined pixel in the field or frame, as described above. In the normal equation addition in step 75, the normal equation of Expression (9) described later is created. After the processing of all the data is completed, the control is transferred to the step 76 from the end of the data in step 73. This step 76
In determining the prediction coefficient, the normal coefficient is solved using a matrix solution method to determine the prediction coefficient. The prediction coefficient store in step 77 stores the prediction coefficient in the memory, and step 78
Then, the control of the learning process ends.

【0045】図9中のステップ75(正規方程式生成)
およびステップ76(予測係数決定)の処理をより詳細
に説明する。注目画素の真値をyとし、その推定値をy
´とし、その周囲の画素の値をx1 〜xn としたとき、
クラス毎に係数w1 〜wn によるnタップの線形1次結
合 y´=w1 x1 +w2 x2 +‥‥+wn xn (2) を設定する。学習前はwi が未定係数である。
Step 75 in FIG. 9 (normal equation generation)
The process of step 76 (determination of prediction coefficient) will be described in more detail. Let y be the true value of the pixel of interest and y be its estimated value.
′ And the values of the surrounding pixels are x1 to xn,
An n-tap linear primary combination y '= w1 x1 + w2 x2 + ... + wn xn (2) is set for each class by coefficients w1 to wn. Before learning, wi is an undetermined coefficient.

【0046】上述のように、学習はクラス毎になされ、
データ数がmの場合、式(2)は、式(3)で表され
る。 yj ´=w1 xj1+w2 xj2+‥‥+wn xjn (3) (但し、j=1,2,‥‥m)
As described above, learning is performed for each class,
When the number of data is m, the equation (2) is represented by the equation (3). yj '= w1 xj1 + w2 xj2 + ... + wn xjn (3) (where j = 1, 2, ... m)

【0047】m>nの場合、w1 〜wn は一意には決ま
らないので、誤差ベクトルEの要素をそれぞれの学習デ
ータxj1,xj2,‥‥xjn,yj における予測誤差をe
j として、次の式(4)のごとく定義する。 ej =yj −(w1 xj1+w2 xj2+‥‥+wn xjn) (4) (但し、j=1,2,‥‥m) 次に、次の式(5)を最小にする係数を求め、最小二乗
法における最適な予測係数w1 ,w2 ,‥‥,wn を決
定する。
In the case of m> n, w1 to wn are not uniquely determined, so that the elements of the error vector E are predicted errors in the respective learning data xj1, xj2, ... Xjn, yj.
The j is defined as the following expression (4). ej = yj- (w1xj1 + w2xj2 + ... + wnxjn) (4) (where j = 1, 2, ... m) Next, the coefficient that minimizes the following equation (5) is obtained, and the least squares method is used. The optimum prediction coefficients w1, w2, ..., Wn are determined.

【0048】[0048]

【数1】 [Equation 1]

【0049】すなわち、式(5)のwi による偏微分係
数を求めると、次の式(6)のごとくになる。式(6)
で(i=1,2,・・・,n)である。
That is, when the partial differential coefficient by wi of the equation (5) is obtained, the following equation (6) is obtained. Formula (6)
(I = 1, 2, ..., N).

【0050】[0050]

【数2】 [Equation 2]

【0051】式(6)を0にするように各wi を決めれ
ばよいから、
Since each wi may be determined so that the equation (6) becomes 0,

【0052】[0052]

【数3】 [Equation 3]

【0053】として、行列を用いると、Using a matrix as

【0054】[0054]

【数4】 [Equation 4]

【0055】となる。この方程式は一般に正規方程式と
呼ばれている。正規方程式は、丁度、未知数がn個だけ
ある連立方程式である。これにより最確値たる各未定係
数w1 ,w2 ,‥‥,wn を求めることができる。具体
的には、一般的に式(9)の左辺の行列は、正定値対称
なので、コレスキー法という手法により式(9)の連立
方程式を解くことができ、未定係数wi が求まり、クラ
スコードをアドレスとして、この係数wi をメモリに格
納しておく。
It becomes This equation is generally called a normal equation. A normal equation is a simultaneous equation with exactly n unknowns. As a result, the undetermined coefficients w1, w2, ..., Wn that are the most probable values can be obtained. Specifically, since the matrix on the left side of the equation (9) is generally positive definite symmetric, the simultaneous equations of the equation (9) can be solved by a method called Cholesky method, the undetermined coefficient wi can be obtained, and the class code The address wi is stored in the memory.

【0056】[0056]

【発明の効果】この発明は、注目画素のクラス分類を行
う時に、注目画素が動き部分と判定されるときには、注
目画素と時間的および空間的に近傍の複数の画素を使用
してクラス分類を行い、注目画素が静止部分と判定され
るときには、注目画素と空間的に近傍の複数の画素を使
用してクラス分類を行うので、注目画素と局所的相関が
強い複数の画素を使用してクラス分類を行うことがで
き、クラス分類の精度を向上できる。
According to the present invention, when a pixel of interest is classified, when the pixel of interest is determined to be a moving portion, a plurality of pixels temporally and spatially adjacent to the pixel of interest are used for class classification. If the target pixel is determined to be a still part, the classification is performed using a plurality of pixels spatially close to the target pixel, and thus the class is determined using a plurality of pixels having a strong local correlation with the target pixel. Classification can be performed, and the accuracy of class classification can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】MUSE方式のエンコーダの部分的なブロック
図である。
FIG. 1 is a partial block diagram of a MUSE encoder.

【図2】MUSE方式のエンコーダのサブサンプリング
を説明するための略線図である。
FIG. 2 is a schematic diagram for explaining subsampling of a MUSE encoder.

【図3】この発明を適用できるMUSE方式のデコーダ
の部分的なブロック図である。
FIG. 3 is a partial block diagram of a MUSE decoder to which the present invention can be applied.

【図4】MUSE方式のデコーダの補間処理を説明する
ための略線図である。
FIG. 4 is a schematic diagram for explaining an interpolation process of a MUSE type decoder.

【図5】この発明をサブサンプリング信号の補間装置に
対して適用した一実施形態のブロック図である。
FIG. 5 is a block diagram of an embodiment in which the present invention is applied to an interpolating device for sub-sampling signals.

【図6】この発明における係数を決定するするための学
習時の構成の一例のブロック図である。
FIG. 6 is a block diagram of an example of a configuration at the time of learning for determining a coefficient according to the present invention.

【図7】クラス分類に使用する画素の配列の一例の略線
図である。
FIG. 7 is a schematic diagram of an example of an array of pixels used for class classification.

【図8】クラス分類の一例を示す略線図である。FIG. 8 is a schematic diagram showing an example of class classification.

【図9】係数を求めるための学習を説明するためのフロ
ーチャートである。
FIG. 9 is a flowchart for explaining learning for obtaining a coefficient.

【符号の説明】[Explanation of symbols]

41 フレーム間内挿回路 42 フィールド内内挿回路 47 フィールド間内挿回路 53 補間演算回路 54 係数メモリ 58 静止判定のための比較回路 41 Frame interpolator 42 field interpolation circuit 47 field interpolator 53 Interpolation calculation circuit 54 coefficient memory 58 Comparison Circuit for Stationary Judgment

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力ディジタル画像信号から、上記ディ
ジタル画像信号より高解像度のディジタル画像信号の画
素値を生成するためのディジタル画像信号生成装置にお
いて、 生成対象としての第1の注目画素の静止判定を行う静止
判定手段と、 上記第1の注目画素のクラスを、上記第1の注目画素と
局所的相関を有する複数の画素に基づいて決定するため
のクラス分類手段と、 画素を生成するために、予め学習により獲得された上記
クラス毎の係数が格納されたメモリ手段と、 上記メモリ手段と結合され、複数の画素と上記係数との
演算によって上記第1の注目画素の画素値を生成する画
素値生成手段とを有し、 上記クラス分類手段において、上記第1の注目画素と局
所的相関を有する複数の画素は、上記静止判定手段にお
ける判定結果に応じて選択されることを特徴とするディ
ジタル画像信号生成装置。
1. A digital image signal generation device for generating a pixel value of a digital image signal having a higher resolution than the digital image signal from an input digital image signal, wherein stillness of a first pixel of interest to be generated is determined. Stationary determination means for performing, class classification means for determining the class of the first pixel of interest based on a plurality of pixels having a local correlation with the first pixel of interest, and generating a pixel, Pixel value for generating a pixel value of the first pixel of interest by combining the memory means in which the coefficient for each class acquired by learning in advance is stored and the memory means, and calculating a plurality of pixels and the coefficient A plurality of pixels having a local correlation with the first pixel of interest in the class classification means, Flip with digital image signal generating apparatus characterized by being selected.
【請求項2】 上記クラス分類手段は、上記静止判定手
段によって、上記第1の注目画素が動き部分であると判
定される場合には、上記第1の注目画素と時間的および
空間的に近傍の複数の画素を用いてクラスを決定し、 上記静止判定手段によって、上記第1の注目画素が静止
部分であると判定される場合には、上記第1の注目画素
と空間的に近傍の複数の画素を用いてクラスを決定する
ことを特徴とする請求項1に記載のディジタル画像信号
生成装置。
2. The class classification means, when the stillness determination means determines that the first pixel of interest is a moving part, temporally and spatially close to the first pixel of interest. When a class is determined using a plurality of pixels of the first target pixel and the stillness determining unit determines that the first target pixel is a stationary portion, a plurality of pixels spatially close to the first target pixel are determined. 2. The digital image signal generation device according to claim 1, wherein the pixel is used to determine the class.
【請求項3】 上記メモリ手段には、上記係数として、
予め学習により獲得された第1の係数と第2の係数とが
格納され、上記静止判定手段によって、上記第1の注目
画素が動き部分であると判定される場合には、上記第1
の係数を上記係数として用い、上記第1の注目画素が静
止部分であると判定される場合には、上記第2の係数を
上記係数として用いることを特徴とする請求項1に記載
のディジタル画像信号生成装置。
3. The memory means stores the coefficient as
The first coefficient and the second coefficient acquired by learning in advance are stored, and when the stillness determination means determines that the first pixel of interest is a moving portion, the first coefficient
2. The digital image according to claim 1, wherein when the first pixel of interest is determined to be a still portion, the second coefficient is used as the coefficient when the coefficient of 1 is used as the coefficient. Signal generator.
【請求項4】 上記学習時において、第1のディジタル
画像信号と、上記第1のディジタル画像信号より解像度
の低い第2のディジタル画像信号とに基づいて、上記第
1および第2の係数を生成する際には、 上記第2のディジタル画像信号中の第2の注目画素の真
値と、上記第2の注目画素と時間的および空間的に近傍
の上記第2のディジタル画像信号中の複数の画素に基づ
き、クラス毎に上記第1の係数を生成し、 上記第2の注目画素の真値と、上記第2の注目画素と空
間的に近傍の複数の画素に基づいて、クラス毎に上記第
2の係数を生成することを特徴とする請求項3に記載の
ディジタル画像信号生成装置。
4. The first and second coefficients are generated during the learning based on a first digital image signal and a second digital image signal having a resolution lower than that of the first digital image signal. In doing so, the true value of the second pixel of interest in the second digital image signal and a plurality of pixels in the second digital image signal that are temporally and spatially adjacent to the second pixel of interest. The first coefficient is generated for each class based on pixels, and the first coefficient is generated for each class based on the true value of the second pixel of interest and a plurality of pixels spatially adjacent to the second pixel of interest. The digital image signal generation device according to claim 3, wherein the second coefficient is generated.
【請求項5】 上記第1および第2の係数は、上記第2
の注目画素の真値と演算によって生成された画素値との
誤差の二乗を最小とするように、最小二乗法により決定
された請求項4に記載のディジタル画像信号生成装置。
5. The first and second coefficients are the second coefficient.
5. The digital image signal generating device according to claim 4, wherein the square of the error between the true value of the target pixel and the pixel value generated by the calculation is determined by the least square method.
【請求項6】 入力ディジタル画像信号から、上記ディ
ジタル画像信号より高解像度のディジタル画像信号の画
素値を生成するためのディジタル画像信号生成方法にお
いて、 生成対象としての第1の注目画素の静止判定を行う静止
判定ステップと、 上記第1の注目画素のクラスを、上記第1の注目画素と
局所的相関を有する複数の画素に基づいて決定するため
のクラス分類ステップと、 上記メモリステップと結合され、複数の画素と予め学習
により獲得された上記クラス毎の係数との演算によって
上記第1の注目画素の画素値を生成する画素値生成ステ
ップとを有し、 上記クラス分類ステップにおいて、上記第1の注目画素
と局所的相関を有する複数の画素は、上記静止判定ステ
ップにおける判定結果に応じて選択されることを特徴と
するディジタル画像信号生成方法。
6. A digital image signal generation method for generating a pixel value of a digital image signal having a higher resolution than that of the digital image signal from an input digital image signal, wherein the stillness of a first pixel of interest to be generated is determined. A stillness determination step to perform, a class classification step for determining the class of the first pixel of interest based on a plurality of pixels having a local correlation with the first pixel of interest, and a memory step, A pixel value generation step of generating a pixel value of the first pixel of interest by calculating a plurality of pixels and a coefficient for each class acquired by learning in advance, wherein in the class classification step, the first A plurality of pixels having a local correlation with the pixel of interest are selected according to the determination result in the stillness determination step. Ijitaru image signal generation method.
JP2002269784A 2002-09-17 2002-09-17 Digital image signal processing apparatus and method Expired - Lifetime JP3906770B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002269784A JP3906770B2 (en) 2002-09-17 2002-09-17 Digital image signal processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002269784A JP3906770B2 (en) 2002-09-17 2002-09-17 Digital image signal processing apparatus and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP23712193A Division JP3746305B2 (en) 1993-08-11 1993-08-11 Image signal generating apparatus and method, and digital image signal processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2003179887A true JP2003179887A (en) 2003-06-27
JP3906770B2 JP3906770B2 (en) 2007-04-18

Family

ID=19196900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002269784A Expired - Lifetime JP3906770B2 (en) 2002-09-17 2002-09-17 Digital image signal processing apparatus and method

Country Status (1)

Country Link
JP (1) JP3906770B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007111442A1 (en) * 2006-03-24 2007-10-04 Samsung Electronics Co., Ltd. Method and system of pixel interleaving for improving video signal transmission quality in wireless communication
US8107552B2 (en) 2006-06-28 2012-01-31 Samsung Electronics Co., Ltd. System and method of wireless communication of uncompressed video having a fast fourier transform-based channel interleaver
US8194750B2 (en) 2006-10-16 2012-06-05 Samsung Electronics Co., Ltd. System and method for digital communication having a circulant bit interleaver for equal error protection (EEP) and unequal error protection (UEP)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007111442A1 (en) * 2006-03-24 2007-10-04 Samsung Electronics Co., Ltd. Method and system of pixel interleaving for improving video signal transmission quality in wireless communication
US8107552B2 (en) 2006-06-28 2012-01-31 Samsung Electronics Co., Ltd. System and method of wireless communication of uncompressed video having a fast fourier transform-based channel interleaver
US8194750B2 (en) 2006-10-16 2012-06-05 Samsung Electronics Co., Ltd. System and method for digital communication having a circulant bit interleaver for equal error protection (EEP) and unequal error protection (UEP)

Also Published As

Publication number Publication date
JP3906770B2 (en) 2007-04-18

Similar Documents

Publication Publication Date Title
JP2540809B2 (en) High efficiency encoder
JP3864444B2 (en) Image signal processing apparatus and method
JPH0795591A (en) Digital picture signal processing unit
JPS6348088A (en) Interpolation circuit for digital image signal
NL8902828A (en) MOTION DETECTION SYSTEM FOR A HIGH DEFINITION TELEVISION RECEIVER.
JP3906770B2 (en) Digital image signal processing apparatus and method
JP3867697B2 (en) Image signal generation apparatus and generation method
JP3746305B2 (en) Image signal generating apparatus and method, and digital image signal processing apparatus and method
JP3906832B2 (en) Image signal processing apparatus and processing method
JP3831960B2 (en) Interpolation apparatus and interpolation method for compressed high resolution video signal
JP3271096B2 (en) Digital image signal processing device
JP3480015B2 (en) Apparatus and method for generating image data
JP2814482B2 (en) High efficiency code decoding apparatus and decoding method
JP3918759B2 (en) Image data generation apparatus and generation method
JP3587188B2 (en) Digital image signal processing apparatus and processing method
JP3800638B2 (en) Image information conversion apparatus and method
JP3480461B2 (en) Digital image signal processing apparatus and processing method
JP2798244B2 (en) High-efficiency code decoding device
JP2718034B2 (en) High-efficiency code decoding device
JP2832949B2 (en) High-efficiency code decoding device
JPH0879712A (en) Class sorting adaptive processor
JP2712299B2 (en) High-efficiency code decoding device
JP6099104B2 (en) Color moving image structure conversion method and color moving image structure conversion device
JP3844520B2 (en) Signal processing apparatus and signal processing method
JPH0759060A (en) Interpolation device for compressed high resolution video signal

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060424

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060919

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061115

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20061208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100126

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110126

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110126

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120126

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120126

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130126

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140126

Year of fee payment: 7

EXPY Cancellation because of completion of term