JP2005151603A - Coefficient generation apparatus and method - Google Patents

Coefficient generation apparatus and method Download PDF

Info

Publication number
JP2005151603A
JP2005151603A JP2005017176A JP2005017176A JP2005151603A JP 2005151603 A JP2005151603 A JP 2005151603A JP 2005017176 A JP2005017176 A JP 2005017176A JP 2005017176 A JP2005017176 A JP 2005017176A JP 2005151603 A JP2005151603 A JP 2005151603A
Authority
JP
Japan
Prior art keywords
class
image signal
unit
pixel
class classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005017176A
Other languages
Japanese (ja)
Other versions
JP4016139B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Yasuhiro Fujimori
泰弘 藤森
Hideo Nakaya
秀雄 中屋
Masashi Uchida
真史 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005017176A priority Critical patent/JP4016139B2/en
Publication of JP2005151603A publication Critical patent/JP2005151603A/en
Application granted granted Critical
Publication of JP4016139B2 publication Critical patent/JP4016139B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To calculat a coefficient for each class by performing proper class classification adaptive processing in consideration of various signal characteristics of the input image signal. <P>SOLUTION: A plurality of pixels in a first image signal for learning are selected on the basis of the movement around a target pixel in the first image signal for learning, the class of the target pixel is decided on the basis of the patterns of the plurality of selected pixels, and an operation is performed using the plurality of pixels around the target pixel in the pixel for learning and a pixel which is corresponds to the first image signal for learning and to which a second image signal for learning different from the first image signal for learning. By doing this, since a coefficient calculated for each class can be stored, pixels having the similar features are collected and the coefficient for each class can be calculated highly accurately. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、係数生成装置及び係数生成方法に関し、例えばNTSC等の標準解像度信号(以下、これをSD(Standard Difinition )画像信号と呼ぶ)をハイビジヨン等の高解像度信号(以下、これをHD(High Difinition )画像信号と呼ぶ)に変換する画像信号変換のための係数を生成する場合に適用して好適である。   The present invention relates to a coefficient generation apparatus and a coefficient generation method. For example, a standard resolution signal such as NTSC (hereinafter referred to as an SD (Standard Definition) image signal) is referred to as a high resolution signal such as a high definition (hereinafter referred to as HD (High Definition)). Difinition) (referred to as an image signal) is suitable for application when generating coefficients for image signal conversion.

様々なデイジタル機器が出現する中、信号フオーマツトの異なる機器間の接続においては機器間での信号変換を実現する信号変換装置が必要となる。例えばSD画像データをHDモニタで表示する場合には、SD画像データをHD画像データへフオーマツト変換するアツプコンバータが必要となる。   With the advent of various digital devices, a signal conversion device that realizes signal conversion between devices is required for connection between devices having different signal formats. For example, when SD image data is displayed on an HD monitor, an up-converter that converts the SD image data into HD image data is necessary.

従来、この種のアツプコンバータにおいては、SD画像データに対して補間フイルタによる周波数補間処理を施して画素補間を行うことによりHD画像データを形成している。この補間処理を図38のSD画素とHD画素の空間配置例を参照して説明する。因に、図中実線は第1フイールドを表し、点線は第2フイールドを表わす。図38では説明の簡素化のため、HD画素数をSD画素数に対して水平及び垂直方向に各々2倍としている。図中「◎」のSD画素に注目すると、この近傍に4種類のHD画素 mode1、 mode2、 mode3及び mode4が存在する。従つてアツプコンバータはこの4種類HD画素 mode1、 mode2、 mode3及び mode4を周波数補間処理によつて生成する。   Conventionally, in this type of up-converter, HD image data is formed by subjecting SD image data to frequency interpolation processing using an interpolation filter to perform pixel interpolation. This interpolation processing will be described with reference to a spatial arrangement example of SD pixels and HD pixels in FIG. In the figure, the solid line represents the first field, and the dotted line represents the second field. In FIG. 38, for simplicity of explanation, the number of HD pixels is doubled in the horizontal and vertical directions with respect to the number of SD pixels. If attention is paid to the “◎” SD pixel in the figure, there are four types of HD pixels, mode1, mode2, mode3, and mode4 in the vicinity thereof. Therefore, the up-converter generates these four types of HD pixels mode1, mode2, mode3, and mode4 by frequency interpolation processing.

アツプコンバータの簡易な構成例としては、SD画像データのフイールドデータから上記4種類のHD画素 mode1、 mode2、 mode3及び mode4を生成するものがある。このとき用いる補間フイルタの構成としては、図39に示す空間内2次元ノンセパラブルフイルタ1や、図40に示す水平/垂直セパラブルフイルタ5がある。   As a simple configuration example of the up-converter, there is one that generates the above four types of HD pixels mode1, mode2, mode3, and mode4 from the field data of SD image data. As the configuration of the interpolation filter used at this time, there are the in-space two-dimensional non-separable filter 1 shown in FIG. 39 and the horizontal / vertical separable filter 5 shown in FIG.

2次元ノンセパラブルフイルタ1は、4種類のHD画素 mode1、 mode2、 mode3及び mode1を、それぞれ2次元フイルタ2A〜2Dによつて独立に補間処理を行うことにより生成する。そして、その補間結果を選択部3において直列化することによりHD画像データを生成する。水平/垂直セパラブル補間フイルタ5は垂直補間フイルタ6AによつてHD画素 mode1及び mode3用の処理を行い、垂直補間フイルタ6BによつてHD画素 mode2及び mode4用の処理を行うことにより2本の走査線データを形成する。次に各走査線に対して水平補間フイルタ7A及び7Bを用いて最終的な4種類のHD画素 mode1、 mode2、 mode3及び mode1を生成し、これを選択部8において直列化することによりHD画像データを生成する。   The two-dimensional non-separable filter 1 generates four types of HD pixels mode1, mode2, mode3, and mode1 by independently performing interpolation processing using the two-dimensional filters 2A to 2D, respectively. Then, the interpolation result is serialized in the selection unit 3 to generate HD image data. The horizontal / vertical separable interpolation filter 5 performs processing for the HD pixel mode1 and mode3 by the vertical interpolation filter 6A, and performs processing for the HD pixel mode2 and mode4 by the vertical interpolation filter 6B. Form data. Next, the final four types of HD pixels mode1, mode2, mode3 and mode1 are generated by using the horizontal interpolation filters 7A and 7B for each scanning line, and HD image data is serialized in the selection unit 8 to thereby generate HD image data. Is generated.

ところが、上述したような従来のアツプコンバータでは補間フイルタとして理想フイルタを用いたとしても、画素数はHDフオーマツトに合うように増えるものの空間解像度は入力SD画像と変わらない。また実際には理想フイルタを用いることはできないため、SD画像よりも解像度の低下したHD画像を生成することしかできないという問題があつた。   However, in the conventional up-converter as described above, even if an ideal filter is used as an interpolation filter, the spatial resolution is the same as that of the input SD image although the number of pixels increases to match the HD format. In addition, since an ideal filter cannot actually be used, there is a problem that it is only possible to generate an HD image having a resolution lower than that of an SD image.

このような問題を解決する方法として、入力SD画像データをその信号レベルの分布に応じてクラス分類し、クラス毎に予め学習により獲得された予測係数を用いて予測演算を行うことにより、より真値に近いHD画素を得る、いわゆるクラス分類適応処理を用いた画像信号変換装置及び方法が提案されている。例えば、このような方法は、本出願人による日本出願公開公報、特開平5-328185号(公開日:December 10,1993)の明細書及び図面において提案されている。なお、この日本出願に対応する米国出願は、Serial No. 08/061,730 filed May 17, 1993である。   As a method for solving such a problem, the input SD image data is classified into classes according to the distribution of the signal levels, and a prediction calculation is performed using a prediction coefficient obtained by learning in advance for each class. An image signal conversion apparatus and method using so-called class classification adaptive processing for obtaining an HD pixel close to a value has been proposed. For example, such a method is proposed in the specification and drawings of Japanese Patent Application Publication No. 5-328185 (publication date: December 10,1993) by the present applicant. The US application corresponding to this Japanese application is Serial No. 08 / 061,730 filed May 17, 1993.

このクラス分類適応処理を用いたアツプコンバータは、図41に示すように構成されている。アツプコンバータ10は、入力SD画像データD1をクラス分類部11及び予測演算部12にそれぞれ供給する。クラス分類部11は、入力SD画像データD1(例えば8ビツトPCM(Pulse Code Modulation )データ)に対し、例えば図42(A)に示すように注目画素を中心とした複数の周辺画素をクラス分類用の画素(以下、これをクラス分類用タツプと呼ぶ)として設定し、その波形特性(レベル分布パターン)に基づいてクラスデータD2を生成する。因に、図中実線は第1フイールドを表し、点線は第2フイールドを表わす。   The up-converter using this class classification adaptation process is configured as shown in FIG. The up-converter 10 supplies the input SD image data D1 to the class classification unit 11 and the prediction calculation unit 12, respectively. The class classification unit 11 classifies a plurality of peripheral pixels centered on the target pixel as shown in FIG. 42A for input SD image data D1 (for example, 8-bit PCM (Pulse Code Modulation) data). Pixels (hereinafter referred to as class classification taps), and class data D2 is generated based on the waveform characteristics (level distribution pattern). In the figure, the solid line represents the first field, and the dotted line represents the second field.

このとき、クラス分類部11によるクラスデータD2の形成法としては、PCMデータを直接使用する(すなわちPCMデータをそのままクラスデータD2とする)方法や、ADRC(Adaptive Dynamic Range Coding )、DPCM(Differential Pulse Code Modulation)又はVQ(Vector Quantization )等の圧縮手法を用いてクラス数を削減する方法が考えられている。このうち、PCMデータを直接クラスデータD2とする方法は、例えば図42のように7画素でなるクラス分類用タツプを用いた場合には、8ビツトデータが7画素分存在するため、クラス数が256 という膨大な数字となり実用上問題となる。   At this time, as a method of forming the class data D2 by the class classification unit 11, the PCM data is directly used (that is, the PCM data is directly used as the class data D2), ADRC (Adaptive Dynamic Range Coding), DPCM (Differential Pulse). A method of reducing the number of classes using a compression technique such as Code Modulation) or VQ (Vector Quantization) is considered. Of these methods, the method of directly setting the PCM data as the class data D2 is, for example, when a class classification tap consisting of 7 pixels is used as shown in FIG. It becomes a huge number of 256 and becomes a practical problem.

そこで、実際にはADRC等の圧縮手法を用いてクラス数を削減する。例えばクラス分類用タツプとして設定された7画素に対して、各画素を1ビツトに圧縮する1ビツトADRCを適用した場合を考える。すなわち、1ビツトADRCは、7画素のデータから定義されるダイナミツクレンジに基づき、7画素の最小値を除去したうえで、各タツプの画素値を適応的に1ビツト量子化する。したがつて、クラス数を 128クラスに削減することができる。ADRCは、画像信号の信号圧縮方式として開発されたものであるが、少ないクラス数で入力信号の波形特性を表現するのに適している。   Therefore, the number of classes is actually reduced by using a compression method such as ADRC. For example, consider a case in which 1-bit ADRC for compressing each pixel to 1 bit is applied to 7 pixels set as a class classification tap. That is, the 1-bit ADRC adaptively quantizes each pixel value of each tap after removing the minimum value of 7 pixels based on the dynamic range defined from the data of 7 pixels. Therefore, the number of classes can be reduced to 128 classes. ADRC was developed as a signal compression method for image signals, but is suitable for expressing the waveform characteristics of an input signal with a small number of classes.

予測係数ROM(Read Only Memory)13からは、クラスデータD2を読出しアドレスとして予め学習により獲得された予測係数データD3が出力され、当該予測係数データD3が予測演算部12に供給される。予測演算部12は、例えば図42(B)に示すように、注目画素を中心とした複数の周辺画素を予測演算用の画素(以下、これを予測タツプと呼ぶ)として設定し、当該予測タツプを構成する各画素値と予測係数データD3とを用いて、次式(1)   A prediction coefficient ROM (Read Only Memory) 13 outputs prediction coefficient data D3 obtained by learning in advance using the class data D2 as a read address, and the prediction coefficient data D3 is supplied to the prediction calculation unit 12. For example, as shown in FIG. 42B, the prediction calculation unit 12 sets a plurality of peripheral pixels centered on the target pixel as pixels for prediction calculation (hereinafter, referred to as a prediction tap), and the prediction tap Using the respective pixel values and prediction coefficient data D3 constituting the following equation (1)

Figure 2005151603
Figure 2005151603

ここで、予測係数ROM13に記憶されているクラス毎の予測係数データD3は、予めHD画像データを用いた学習により獲得される。この学習手順を、図43を参照して説明する。ステツプSP1において当該学習処理手順が開始されると、先ずステツプSP2において予測係数を学習するために、既に知られているHD画像を用いて学習データを形成する。   Here, the prediction coefficient data D3 for each class stored in the prediction coefficient ROM 13 is acquired in advance by learning using HD image data. This learning procedure will be described with reference to FIG. When the learning process procedure is started in step SP1, first, learning data is formed using an already known HD image in order to learn a prediction coefficient in step SP2.

ステツプSP3では、予測係数を得るのに必要上十分な学習データが収集されたか否か判定する。そして、更に学習データが必要であると判断した場合にはステツプSP4に進み、十分な学習データが得られたと判断した場合にはステツプSP6に進む。ステツプSP4では、学習データをクラス分類する。このクラス分類は上述したアツプコンバータ10のクラス分類部11(図41)の処理と同様の処理を実行する。このとき、一般に、データ変化のアクテイビテイの小さいものを学習対象から除外することによりノイズの影響を排除する。   In step SP3, it is determined whether sufficient learning data necessary for obtaining the prediction coefficient has been collected. If it is determined that more learning data is necessary, the process proceeds to step SP4. If it is determined that sufficient learning data is obtained, the process proceeds to step SP6. In step SP4, the learning data is classified. This class classification executes the same process as the process of the class classification unit 11 (FIG. 41) of the up-converter 10 described above. At this time, generally, the influence of noise is eliminated by excluding the data change activity having a small activity from the learning target.

次に、ステツプSP5において、クラス分類された学習データに基づき、クラス毎に正規方程式を形成する。ステツプSP6での処理を具体的に説明する。ここでは一般化するために、1つの補間対象画素(HD画素)をn個のSD画素で表わす場合について述べる。先ずSD画像データの各画素レベルx1 、……、xn と注目補間画素の画素レベルyの関係を、クラス毎に予測係数w1 、……、wn によるnタツプの線形一次結合式で表現することにより、次式(2)   Next, in step SP5, a normal equation is formed for each class based on the learning data classified into classes. The processing at step SP6 will be specifically described. Here, for generalization, a case where one interpolation target pixel (HD pixel) is represented by n SD pixels will be described. First, the relationship between each pixel level x1,..., Xn of the SD image data and the pixel level y of the target interpolation pixel is expressed by a linear linear combination expression of n taps using prediction coefficients w1,. The following formula (2)

Figure 2005151603
Figure 2005151603

を形成する。 Form.

この(2)式における予測係数w1 、……、wn を求めればよい。この予測係数w1 、……、wn を求める方法としては最小二乗法による解法が考えられる。この解法では、先ず、XをSD画素データ、Wを予測係数、Yを注目補間画素データとして、次式(3)   What is necessary is just to obtain | require the prediction coefficient w1, ..., wn in this (2) Formula. As a method for obtaining the prediction coefficients w1,. In this solution, first, X is SD pixel data, W is a prediction coefficient, and Y is target interpolation pixel data.

Figure 2005151603
Figure 2005151603

の観測方程式を作るようにデータを収集する。因に(3)式において、mは学習データ数を表し、nは上述した予測演算部12(図41)により設定される予測タツプ数(すなわちn=13)である。 Collect data to create an observation equation. In Equation (3), m represents the number of learning data, and n is the number of prediction taps (ie, n = 13) set by the prediction calculation unit 12 (FIG. 41) described above.

次に(3)式の観測方程式をもとに、次式(4)   Next, based on the observation equation (3), the following equation (4)

Figure 2005151603
Figure 2005151603

の残差方程式を立てる。(4)式から、各wi の最確値は、次式(5) Set up the residual equation of. From equation (4), the most probable value for each wi is the following equation (5):

Figure 2005151603
Figure 2005151603

を最小にする条件が成り立つ場合と考えられる。すなわち次式(6) It is considered that the condition for minimizing is satisfied. That is, the following formula (6)

Figure 2005151603
Figure 2005151603

の条件を考慮すればよい。(6)式のiに基づくn個の条件を考え、これを満たすw1 、……、wn を算出すればよい。そこで、残差方程式(4)式から次式(7) These conditions should be taken into consideration. (6) Consider n conditions based on i in the equation, and calculate w1,..., Wn that satisfy this condition. Therefore, the residual equation (4) to the following equation (7)

Figure 2005151603
Figure 2005151603

を得、さらに(6)式と(7)式から次式(8) Further, from the formulas (6) and (7), the following formula (8) is obtained.

Figure 2005151603
Figure 2005151603

を得る。そして(4)式及び(8)式から、次式(9) Get. From the equations (4) and (8), the following equation (9)

Figure 2005151603
Figure 2005151603

の正規方程式を得ることができる。(8)式の正規方程式は、未知数の数がn個の連立方程式であるから、これにより各wi の最確値を求めることができる。実際には、掃き出し法(Gauss-Jordanの消去法)を用いて連立方程式を解く。 The normal equation can be obtained. Since the normal equation (8) is a simultaneous equation with n unknowns, the most probable value of each wi can be obtained. In practice, the simultaneous equations are solved using the sweep-out method (Gauss-Jordan elimination method).

図43の予測学習処理手順では、クラス毎に未定係数w1 、……、wn を求めるために未知数nと同じ数の正規方程式が形成されるまでステツプSP2−SP3−SP4−SP5−SP2のループを繰り返す。このようにして必要な数の正規方程式が得られると、ステツプSP3において肯定結果が得られ、処理はステツプSP6の予測係数決定に移る。   In the predictive learning processing procedure of FIG. 43, the loop of steps SP2-SP3-SP4-SP5-SP2 is executed until the same number of normal equations as the unknown number n are formed in order to obtain the undetermined coefficients w1,. repeat. When the necessary number of normal equations is obtained in this way, an affirmative result is obtained at step SP3, and the processing shifts to determination of a prediction coefficient at step SP6.

ステツプSP6では、(9)式の正規方程式を解いてクラス毎の予測係数w1
、……、wn を決定する。このようにして得られた予測係数を次のステツプSP7でクラス毎にアドレス分割されたROM等の記憶部(すなわち予測係数ROM13(図41))に登録する。以上の学習によりクラス分類適応処理で使用される予測係数データが生成され、次のステツプSP8で当該予測学習処理手順を終了する。
In step SP6, the normal coefficient of equation (9) is solved to calculate the prediction coefficient w1 for each class.
, ..., determine wn. The prediction coefficient obtained in this way is registered in a storage unit such as a ROM (that is, the prediction coefficient ROM 13 (FIG. 41)) that is address-divided for each class in the next step SP7. Prediction coefficient data used in the class classification adaptation process is generated by the above learning, and the prediction learning process procedure is terminated in the next step SP8.

この予測学習処理を実現するハードウエア構成としては、図44に示すような学習回路20が考えられる。学習回路20は、HD画像データを垂直間引きフイルタ21及び水平間引きフイルタ22を介してSD画像データに変換し、当該SD画像データをクラス分類部23に供給する。ここで、クラス分類部23は、上述したアツプコンバータ10(図41)のクラス分類部11と同様の構成からなり、SD画像データからクラス分類用タツプを設定し、その波形特性に基づいてクラスデータD2′を生成する。このクラス分類部23は、図43のクラス決定処理(ステツプSP4)を実行する部分である。クラス分類部23は生成したクラスデータD2′を係数算出部24に送出する。   As a hardware configuration for realizing this predictive learning process, a learning circuit 20 as shown in FIG. 44 can be considered. The learning circuit 20 converts the HD image data into SD image data via the vertical thinning filter 21 and the horizontal thinning filter 22, and supplies the SD image data to the class classification unit 23. Here, the class classification unit 23 has the same configuration as the class classification unit 11 of the above-described up converter 10 (FIG. 41), sets a class classification tap from SD image data, and class data based on its waveform characteristics. D2 'is generated. The class classification unit 23 is a part that executes the class determination process (step SP4) of FIG. The class classification unit 23 sends the generated class data D2 ′ to the coefficient calculation unit 24.

係数算出部24は、正規方程式を形成し、さらに予測係数を決定する部分である。すなわち係数算出部24は、SD画像データ及びHD画像データを用いて、クラスデータD2′で表わされるクラス毎に(9)式の正規方程式を立て、当該正規方程式からクラス毎の予測係数を求める。そして求めた予測係数を予測係数ROM13の対応するクラスアドレスに記憶させる。   The coefficient calculation unit 24 is a part that forms a normal equation and further determines a prediction coefficient. That is, the coefficient calculation unit 24 uses the SD image data and the HD image data to establish a normal equation of equation (9) for each class represented by the class data D2 ′, and obtains a prediction coefficient for each class from the normal equation. The obtained prediction coefficient is stored in the corresponding class address of the prediction coefficient ROM 13.

ところが、クラス分類適応処理を用いてHD画像データを生成する場合、学習によつて予測係数を生成するときに入力SD画像データの特徴に応じて適切なクラス分類処理が行われないと、アツプコンバータによる予測精度が低下する問題があつた。すなわち、より真値に近いHD画像データを予測するためには、特性の似通つたSD画像データのみを集めて各クラスを生成し、それに対応するHD画像データを教師信号として学習することが重要となる。   However, in the case of generating HD image data using the class classification adaptive process, if an appropriate class classification process is not performed according to the characteristics of the input SD image data when generating a prediction coefficient by learning, an up converter There was a problem that the prediction accuracy due to. That is, in order to predict HD image data closer to the true value, it is important to collect only SD image data with similar characteristics, generate each class, and learn the corresponding HD image data as a teacher signal. It becomes.

しかしながら、クラス分類の能力が不十分であると、本来、別のクラスに別れるべきHD画像データが同じクラスに分類される。このため、このような場合、学習により得られる予測係数は、性質の異なるHD画像データの平均値を予測することになる。その結果この予測係数を用いてHD画像信号を予測するアツプコンバータでは、解像度創造能力が低下する問題があつた。   However, if the class classification capability is insufficient, the HD image data that should originally be classified into another class is classified into the same class. For this reason, in such a case, the prediction coefficient obtained by learning predicts the average value of HD image data having different properties. As a result, the up-converter that predicts an HD image signal using this prediction coefficient has a problem in that the ability to create resolution decreases.

本発明は、以上の点を考慮してなされたもので、入力画像信号の多様な信号特性を考慮した適切なクラス分類適応処理を行うことにより、低解像度の画像信号を一段と高解像度の画像信号に変換するためのクラス毎の係数を高精度に算出し得る係数生成装置及び係数生成方法を提案しようとするものである。   The present invention has been made in consideration of the above points, and by performing appropriate class classification adaptive processing in consideration of various signal characteristics of an input image signal, a low-resolution image signal is further improved. It is an object of the present invention to propose a coefficient generation device and a coefficient generation method capable of calculating with high accuracy the coefficients for each class for conversion into.

かかる課題を解決するため本発明においては、第1の入力画像信号を当該第1の入力画像信号とは異なる第2の画像信号に変換する画像信号変換のための係数を生成する係数生成装置において、第1の学習用画像信号における注目画素周辺の動きを検出する動き検出部と、当該動き検出部で検出される動きに基づいて第1の学習用画像信号における複数の画素を選択するクラス分類画素選択部と、クラス分類画素選択部で選択された複数の画素のパターンに基づいて注目画素のクラスを決定するクラス決定部と、クラス毎に、第1の学習用画像信号における注目画素周辺の複数の画素と、第1の学習用画像信号に対応し第1の学習用画像信号と異なる第2の学習用画像信号の対応する画素とを用いて演算を行い、当該クラス毎に係数を算出する係数算出部と、当該係数算出部で算出された係数をクラス毎に記憶させる係数記憶部とを設けるようにする。   In order to solve such a problem, in the present invention, in a coefficient generation device that generates a coefficient for image signal conversion for converting a first input image signal into a second image signal different from the first input image signal. , A motion detection unit that detects motion around the target pixel in the first learning image signal, and a class classification that selects a plurality of pixels in the first learning image signal based on the motion detected by the motion detection unit A pixel selection unit, a class determination unit that determines a class of the pixel of interest based on a pattern of a plurality of pixels selected by the class classification pixel selection unit, and for each class, a region around the pixel of interest in the first learning image signal Calculation is performed using a plurality of pixels and corresponding pixels of the second learning image signal corresponding to the first learning image signal and different from the first learning image signal, and a coefficient is calculated for each class. You A coefficient calculation unit, to be provided and a coefficient storage unit for storing the coefficients calculated in the coefficient calculating unit for each class.

これにより、第1の学習用画像信号における注目画素周辺の動きに基づいて第1の学習用画像信号における複数の画素を選択し、当該選択した複数の画素のパターンに基づいて注目画素のクラスを決定し、そのクラス毎に、第1の学習用画像信号における注目画素周辺の複数の画素と、第1の学習用画像信号に対応し第1の学習用画像信号と異なる第2の学習用画像信号の対応する画素とを用いて演算を行うことにより当該クラス毎に算出した係数を記憶することができるので、特徴の似通つた画素同士を集めてクラス毎の係数を高精度に算出することができる。   Accordingly, a plurality of pixels in the first learning image signal are selected based on the movement around the target pixel in the first learning image signal, and the class of the target pixel is determined based on the pattern of the selected plurality of pixels. For each class, a plurality of pixels around the target pixel in the first learning image signal and a second learning image corresponding to the first learning image signal and different from the first learning image signal Coefficients calculated for each class can be stored by performing calculations using the corresponding pixels of the signal, so that pixels with similar characteristics are collected together to calculate the coefficients for each class with high accuracy Can do.

本発明によれば、第1の学習用画像信号における注目画素周辺の動きに基づいて第1の学習用画像信号における複数の画素を選択し、当該選択した複数の画素のパターンに基づいて注目画素のクラスを決定し、そのクラス毎に、第1の学習用画像信号における注目画素周辺の複数の画素と、第1の学習用画像信号に対応し第1の学習用画像信号と異なる第2の学習用画像信号の対応する画素とを用いて演算を行うことにより当該クラス毎に算出した係数を記憶することができるので、特徴の似通つた画素同士を集めてクラス毎の係数を高精度に算出し得る係数生成装置を実現することができる。   According to the present invention, a plurality of pixels in the first learning image signal are selected based on the movement around the pixel of interest in the first learning image signal, and the pixel of interest is based on the pattern of the selected plurality of pixels. For each class, a plurality of pixels around the target pixel in the first learning image signal and a second corresponding to the first learning image signal and different from the first learning image signal. Coefficients calculated for each class can be stored by performing calculations using corresponding pixels of the image signal for learning, so that pixels with similar characteristics can be collected and the coefficients for each class can be calculated with high accuracy. A coefficient generation device that can be calculated can be realized.

以下、図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)第1の実施例
(1−1)全体構成
図1は、本発明を適用した第1の実施例のアツプコンバータ30を示す。アツプコンバータ30は、入力SD画像データD1をクラス分類部31及び予測演算部12にそれぞれ供給する。クラス分類部31は、入力SD画像データD1に基づき入力画像の動き量を検出し、当該動き量を考慮してクラス分類処理を行い、そのクラス分類処理に対応するクラスデータを生成する。つまり、クラス分類部31は、入力SD画像信号をその特徴に応じてより的確にクラス分類し得るようになされている。クラス分類部31は、これにより得たクラスデータD32を予測係数ROM32に送出する。
(1) First Embodiment (1-1) Overall Configuration FIG. 1 shows an up-converter 30 according to a first embodiment to which the present invention is applied. The up-converter 30 supplies the input SD image data D1 to the class classification unit 31 and the prediction calculation unit 12, respectively. The class classification unit 31 detects the motion amount of the input image based on the input SD image data D1, performs class classification processing in consideration of the motion amount, and generates class data corresponding to the class classification processing. That is, the class classification unit 31 can classify the input SD image signal more accurately according to the feature. The class classification unit 31 sends the class data D32 obtained thereby to the prediction coefficient ROM 32.

予測係数ROM32には、クラス分類部31でのクラス分類処理と同様に画像の動き量を考慮して分類されたクラス毎に、学習により獲得した予測係数が記憶されている。このクラス毎の予測係数は、図38に示される4種類の生成されるHD画素 mode1、 mode2、 mode3及び mode4のそれぞれに対応して記憶されている。予測係数ROM32は図2に示すような学習回路40によつて作成される。すなわち、図44との対応部分に同一符号を付して示す図2において、学習回路40は、アツプコンバータ30(図1)のクラス分類部31と同様の構成でなるクラス分類部41を有し、当該クラス分類部41によつてSD画像データを動き量を考慮しながらクラス分類する。係数算出部24は、クラス分類部41により分類されたクラス毎に、上述した正規方程式を用いて予測係数を算出する。この際、クラス毎の予測係数は、4種類のHD画素 mode1、 mode2、 mode3及び mode4のそれぞれに対応してそれぞれ算出される。そして、この予測係数が予測係数ROM32に記憶される。   The prediction coefficient ROM 32 stores the prediction coefficient acquired by learning for each class classified in consideration of the amount of motion of the image as in the class classification process in the class classification unit 31. The prediction coefficient for each class is stored corresponding to each of the four types of generated HD pixels mode1, mode2, mode3, and mode4 shown in FIG. The prediction coefficient ROM 32 is created by a learning circuit 40 as shown in FIG. That is, in FIG. 2 in which the same reference numerals are assigned to corresponding parts to FIG. 44, the learning circuit 40 has a class classification unit 41 having the same configuration as the class classification unit 31 of the up converter 30 (FIG. 1). The class classification unit 41 classifies the SD image data in consideration of the amount of motion. The coefficient calculation unit 24 calculates a prediction coefficient for each class classified by the class classification unit 41 using the normal equation described above. At this time, the prediction coefficient for each class is calculated corresponding to each of the four types of HD pixels mode1, mode2, mode3, and mode4. The prediction coefficient is stored in the prediction coefficient ROM 32.

かくして、学習回路40においては、画像の動きを考慮してSD画像をクラス分類し、このクラス毎に予測係数を求めるようにしたことにより、単にSD画像のレベル分布パターン形状に基づいてSD画像をクラス分類した場合と比較して、画像の特徴をより反映したクラス分類処理を行うことができる。この結果、特徴の似通つたもの同志を集めてクラス毎の予測係数を求めることができるため、予測係数の精度を向上し得る。   Thus, the learning circuit 40 classifies the SD image in consideration of the motion of the image, and obtains the prediction coefficient for each class, so that the SD image is simply based on the level distribution pattern shape of the SD image. Compared with the case of class classification, it is possible to perform class classification processing more reflecting the characteristics of the image. As a result, it is possible to obtain the prediction coefficient for each class by gathering together those with similar characteristics, and thus the accuracy of the prediction coefficient can be improved.

また、アツプコンバータ30は、このようにして求めた精度の良い予測係数が、クラス分類部31からのクラスデータD32に対応して読み出される。そして、この読み出された4種類のHD画素 mode1、 mode2、 mode3及び mode4を生成するための予測係数が、予測演算部12に供給される。また、図示しない遅延部を介して供給された入力SD画像データもまた、予測演算部12に供給される。そして、予測演算部12において、そのそれぞれの予測係数と入力SD画像データとを用いて予測演算処理を行い、一段と真値に近い4種類のHD画素 mode1、 mode2、 mode3及び mode4であるHD補間画素データD33をそれぞれ生成する。そして、このHD補間画素データD33が変換部14に供給され、変換部14において、時系列のHD画像データに変換されて画面上で表示される。したがつて、従来の方法と比べて、一段と高解像度のHD画像データD34を得ることができる。なお、予測係数を生成する方法として、学習回路40を用いる方法を説明したが、本発明はこれに限らず、図43のようなフローチャートを用いて、コンピュータ等により予測係数を生成するようにしてもよい。後述する実施例においても、同様に行うことが可能である。   Further, the up-converter 30 reads the accurate prediction coefficient obtained in this way in correspondence with the class data D32 from the class classification unit 31. Then, prediction coefficients for generating the four types of read HD pixels mode1, mode2, mode3, and mode4 are supplied to the prediction calculation unit 12. The input SD image data supplied via a delay unit (not shown) is also supplied to the prediction calculation unit 12. Then, the prediction calculation unit 12 performs prediction calculation processing using the respective prediction coefficients and the input SD image data, and the four types of HD pixels mode1, mode2, mode3, and mode4 that are closer to true values. Data D33 is generated respectively. Then, the HD interpolation pixel data D33 is supplied to the conversion unit 14, and the conversion unit 14 converts it into time-series HD image data and displays it on the screen. Therefore, it is possible to obtain HD image data D34 with a higher resolution than in the conventional method. Although the method using the learning circuit 40 has been described as a method for generating the prediction coefficient, the present invention is not limited to this, and the prediction coefficient is generated by a computer or the like using a flowchart as shown in FIG. Also good. The same applies to the embodiments described later.

(1−2)クラス分類部の構成
クラス分類部31及び41は、図3に示すように構成されている。以下、クラス分類部41は、クラス分類部31と同様の構成なのでクラス分類部31について説明する。クラス分類部31は、入力端子INを介して入力されたSD画像データD1を第1のクラス分類部50を構成するフレームメモリ51及び動きベクトル検出クラス分類部52にそれぞれ供給すると共に、クラス分類画素選択部53の複数のパターン設定部54A〜54Hに供給する。
(1-2) Configuration of Class Classification Unit The class classification units 31 and 41 are configured as shown in FIG. Since the class classification unit 41 has the same configuration as the class classification unit 31, the class classification unit 31 will be described below. The class classification unit 31 supplies the SD image data D1 input via the input terminal IN to the frame memory 51 and the motion vector detection class classification unit 52 included in the first class classification unit 50, and class classification pixels. The data is supplied to a plurality of pattern setting units 54A to 54H of the selection unit 53.

動きベクトル検出クラス分類部52は、フレームメモリ51から与えられる前フレームのSD画像データと現フレームのSD画像データを用いて、SD画像データD1における注目画素周辺の動きベクトルを検出し、当該検出結果に基づく動きクラスコードCLASS0を出力する。動きベクトル検出クラス分類部52は、動きベクトルが、図4に示された領域AR0〜AR6又はAR7のうちどの領域にあつたかに応じて、その動きを8種類に分類することにより、動きベクトルを検出する。そして、その検出した動きベクトルがどの種類に属するかを表わす動きクラスコードCLASS0を形成する。従つて、動きクラスコードCLASS0は、3ビツトのデータで表現される。また、この動きベクトル検出クラス分類部52の実施例は、動きベクトルの検出方法としてブロツクマツチング法を用いる。   The motion vector detection class classification unit 52 detects the motion vector around the pixel of interest in the SD image data D1 using the SD image data of the previous frame and the SD image data of the current frame given from the frame memory 51, and the detection result The motion class code CLASS0 based on is output. The motion vector detection class classifying unit 52 classifies the motion vector into eight types according to which of the regions AR0 to AR6 or AR7 shown in FIG. To detect. Then, a motion class code CLASS0 representing the type to which the detected motion vector belongs is formed. Therefore, the motion class code CLASS0 is expressed by 3-bit data. Further, the embodiment of the motion vector detection class classification unit 52 uses a block matching method as a motion vector detection method.

動きクラスコードCLASS0は、そのまま後段の予測係数ROM32に送出されると共に、クラスタツプ選択部55に送出される。クラスタツプ選択部55は、複数のパターン設定部54A〜54Hから複数種類のクラス分類用タツプを入力し、これら複数種類のクラス分類用タツプのうちから動きクラスコードCLASS0に対応するクラス分類用タツプを選択して、第2のクラス分類部であるADRCクラス分類部56に対して出力する。   The motion class code CLASS0 is sent to the subsequent prediction coefficient ROM 32 as it is, and is also sent to the cluster selection unit 55. The cluster tap selection unit 55 inputs a plurality of types of class classification taps from the plurality of pattern setting units 54A to 54H, and selects a class classification tap corresponding to the motion class code CLASS0 from the plurality of types of class classification taps. Then, the data is output to the ADRC class classification unit 56 which is the second class classification unit.

例えば、動き量がほとんど零に近い入力SD画像に関しては、第2のクラス分類部であるADRCクラス分類部56において、できるかぎり注目画素の時空間近傍の信号変化によりクラス分類を行えるようなクラス分類用タツプを選択する。一方、動き量が大きい入力SD画像に関しては、広い領域での大きな信号変化によりクラス分類を行えるようなクラス分類用タツプを選択する。また、中間的な動き量のSD画像に関しては、動き方向にクラス分類感度を上げたクラス分類が行えるようなクラス分類用タツプを選択する。   For example, with respect to an input SD image in which the amount of motion is almost zero, the ADRC class classification unit 56 as the second class classification unit can perform class classification based on signal changes in the vicinity of the spatio-temporal of the target pixel as much as possible. Select the tap. On the other hand, for an input SD image with a large amount of motion, a class classification tap is selected so that class classification can be performed by a large signal change in a wide area. For an SD image with an intermediate motion amount, a class classification tap is selected so that class classification with increased class classification sensitivity in the direction of motion can be performed.

クラスタツプ選択部55から出力されたクラス分類用タツプデータは、注目画素をその周辺画素のレベル分布パターンに応じてクラス分類するためのADRCクラス分類部56に与えらる。ADRCクラス分類部56は、クラス分類用タツプデータをそのダイナミツクレンジに応じて適応的に再量子化することにより、クラス数の削減されたADRCクラスコードCLASS1を形成する。また、ADRCクラス分類部54は、再量子化の際、動きクラスコードCLASS0に応じて、ダイナミツクレンジ(DR)を定義する際に用いる画素数を切り換えることにより、SD画像の波形変化を一段とADRCクラスコードCLASS1に反映し得るようになされている。   The class classification tap data output from the cluster top selection unit 55 is provided to the ADRC class classification unit 56 for classifying the target pixel according to the level distribution pattern of the surrounding pixels. The ADRC class classification unit 56 adaptively requantizes the class classification tap data in accordance with the dynamic range thereof, thereby forming an ADRC class code CLASS1 with a reduced number of classes. Further, the ADRC class classification unit 54 further changes the waveform of the SD image by ADRC by switching the number of pixels used when defining the dynamic range (DR) according to the motion class code CLASS0 during requantization. It can be reflected in the class code CLASS1.

なお、この第1の実施例のADRCクラス分類部56は、クラスタツプ選択部55から与えられる8画素のクラス分類用タツプデータ(1画素当り8ビツト)に対して1ビツトADRC処理を施すことにより、各画素値を適応的に1ビツトに再量子化する。そして、ADRCクラス分類部56は、256クラス(8ビツト)のADRCクラスコードCLASS1を形成するようになされている。   The ADRC class classification unit 56 according to the first embodiment performs a 1-bit ADRC process on the 8-pixel class classification tap data (8 bits per pixel) given from the cluster-type selection unit 55. The pixel value is adaptively requantized to 1 bit. The ADRC class classification unit 56 forms an ADRC class code CLASS1 of 256 classes (8 bits).

このように、クラス分類部31は、クラス分類すべき注目画素の周辺の複数画素を用いて動きベクトルを検出し、この動きベクトルに基づいて注目画素をクラス分類して、動きクラスコードCLASS0を得る。そして、この動きクラスコードCLASS0と注目画素周辺のレベル分布パターンに基づくクラス分類結果であるADRCクラスコードCLASS1とを合わせたものを、最終的なクラスコードD32として出力する。この第1の実施例の場合には、動きクラスコードCLASS0が3ビツト、ADRCクラスコードCLASS1が8ビツトなので、最終的なクラスコードD32は11ビツト(2048クラス)で表現されることになり、これが予測係数ROM32(図1)のアドレス番号となる。   In this way, the class classification unit 31 detects a motion vector using a plurality of pixels around the target pixel to be classified, classifies the target pixel based on the motion vector, and obtains a motion class code CLASS0. . Then, a combination of the motion class code CLASS0 and the ADRC class code CLASS1, which is a class classification result based on the level distribution pattern around the target pixel, is output as the final class code D32. In the case of this first embodiment, since the motion class code CLASS0 is 3 bits and the ADRC class code CLASS1 is 8 bits, the final class code D32 is expressed by 11 bits (2048 classes). This is the address number of the prediction coefficient ROM 32 (FIG. 1).

次に、クラス分類画素選択部53のパターン設定部54A〜54Hについて説明する。各パターン設定部54A〜54Hは、それぞれ動きベクトルの種類に対応した画素パターンを設定する。この第1の実施例の場合には、8種類の動きに応じた8種類の画素パターンを設定するため、8個のパターン設定部54A〜54Hを設ける。すなわち、各パターン設定部54A〜54Hは、それぞれ、図4に示す8個の領域AR0〜AR7への各動きベクトルに応じた画素パターンを設定する。   Next, the pattern setting units 54A to 54H of the class classification pixel selection unit 53 will be described. Each pattern setting unit 54A to 54H sets a pixel pattern corresponding to the type of motion vector. In the case of the first embodiment, eight pattern setting sections 54A to 54H are provided in order to set eight types of pixel patterns corresponding to the eight types of movement. That is, each of the pattern setting units 54A to 54H sets a pixel pattern corresponding to each motion vector for the eight areas AR0 to AR7 shown in FIG.

パターン設定部54Aは、図4の中心の点線内の領域AR0内、すなわち動きベクトルが完全に零である場合に対応した画素パターンを設定する。このとき、入力信号は、完全静止状態であるため、レベル分布パターンに基づくクラス分類の際に、注目画素近傍の時空間クラス分類用タツプパターンを用いれば、入力信号の特徴を反映したクラス分類が可能となる。このため、パターン設定部54Aは、図5に示すようなクラス分類用クラスタツプパターンを設定する。なお、図5〜図12において小さな丸で示すHD画素は、補間しようとしている注目HD画素を表わす。   The pattern setting unit 54A sets a pixel pattern corresponding to the area AR0 within the dotted line at the center of FIG. 4, that is, when the motion vector is completely zero. At this time, since the input signal is in a completely stationary state, class classification that reflects the characteristics of the input signal is possible by using a tap pattern for spatiotemporal class classification near the target pixel when classifying based on the level distribution pattern It becomes. Therefore, the pattern setting unit 54A sets a class classification cluster top pattern as shown in FIG. 5 to 12, the HD pixel indicated by a small circle represents the target HD pixel to be interpolated.

パターン設定部54Bは、いわゆる準静止である場合に対応した画素パターンを設定する。すなわち、図4の中心の点線と中心から2番目の点線で挟まれた領域AR1内に動きベクトルが存在した場合に対応する画素パターンを設定する。この場合は、画像に僅かな動きが存在する場合であり、静止部と動画部の中間的な画素パターンを設定すれば、入力信号の特徴を反映したクラス分類が可能となる。このため、パターン設定部54Bは、図6に示すようなクラス分類用タツプパターンを設定する。図5の完全静止の場合と比較して、同一フイールド内の画素数を増やすことにより、時空間画素よりも空間内画素を重視している。   The pattern setting unit 54B sets a pixel pattern corresponding to a so-called quasi-still state. That is, the pixel pattern corresponding to the case where a motion vector exists in the area AR1 sandwiched between the center dotted line and the second dotted line from the center in FIG. 4 is set. In this case, there is a slight movement in the image. If an intermediate pixel pattern between the stationary part and the moving picture part is set, class classification reflecting the characteristics of the input signal becomes possible. For this reason, the pattern setting unit 54B sets a class classification tap pattern as shown in FIG. Compared to the completely stationary case of FIG. 5, by increasing the number of pixels in the same field, the spatial pixels are more important than the spatiotemporal pixels.

パターン設定部54Cは、中間の動き量に対応した画素パターンを設定する。すなわち、図4の一番外側の点線内のうち、領域AR0及びAR1並びに特徴的な動きの方向である領域AR4〜AR7を除いた領域AR2内に動きベクトルが存在した場合に対応する画素パターンを設定する。実際上、パターン設定部54Cは、図7に示すように同一フイールド内において、やや広い領域の画素を設定することにより、ある程度広い領域の波形変化をクラスに反映させる。   The pattern setting unit 54C sets a pixel pattern corresponding to an intermediate motion amount. That is, the pixel pattern corresponding to the case where the motion vector exists in the area AR2 excluding the areas AR0 and AR1 and the areas AR4 to AR7 which are characteristic motion directions in the outermost dotted line in FIG. Set. In practice, the pattern setting unit 54C reflects a waveform change in a somewhat wide area in the class by setting pixels in a slightly wide area in the same field as shown in FIG.

パターン設定部54Dは、大きな動き量に対応した画素パターンを設定する。すなわち、図4の一番外側の点線の外の領域AR3に動きベクトルが存在した場合に対応する画素パターンを設定する。このため、パターン設定部54Dは、図8に示すように図7の場合よりも同一フイールド内において、さらに広い領域の画素を設定することにより、パターン設定部54Cよりも広い領域の波形変化をクラスに反映させる。   The pattern setting unit 54D sets a pixel pattern corresponding to a large amount of motion. That is, a pixel pattern corresponding to the case where a motion vector exists in the area AR3 outside the outermost dotted line in FIG. 4 is set. For this reason, the pattern setting unit 54D classifies waveform changes in a wider region than the pattern setting unit 54C by setting pixels in a wider region in the same field than in the case of FIG. 7 as shown in FIG. To reflect.

パターン設定部54Eは、図4の上方向の点線内の領域AR4に動きベクトルが存在した場合、すなわち、上チルトの動きに対応した画素パターンを設定する。このため、パターン設定部54Eは、図9に示すように上方向(すなわち動きの方向)に延びる画素パターンを設定することにより、ADRCクラス分類部56において上側への動きに対応したクラス分類ができるようにする。パターン設定部54Fは、図4の下方向の点線内の領域AR5の方向に動きがあつた場合、すなわち、下チルトの動きに対応した画素パターンを設定する。このため、パターン設定部54Fは、図10のように下方向に延びる画素パターンを設定することにより、ADRCクラス分類部56において下側への動きに対応したクラス分類ができるようにする。   The pattern setting unit 54E sets a pixel pattern corresponding to the upward tilt movement when a motion vector exists in the area AR4 in the upward dotted line in FIG. For this reason, the pattern setting unit 54E can perform class classification corresponding to upward movement in the ADRC class classification unit 56 by setting a pixel pattern extending upward (that is, the direction of movement) as shown in FIG. Like that. The pattern setting unit 54F sets a pixel pattern corresponding to the downward tilt movement when there is a movement in the direction of the area AR5 within the dotted line in the downward direction of FIG. For this reason, the pattern setting unit 54F sets a pixel pattern extending downward as shown in FIG. 10 so that the ADRC class classification unit 56 can perform class classification corresponding to the downward movement.

パターン設定部54Gは、図4の右方向の点線内の領域AR6に動きベクトルが存在した場合、すなわち、右パンニングの動きに対応した画素パターンを設定する。このため、パターン設定部54Gは、図11に示すように右方向に延びる画素パターンを設定することにより、右側に移動していく画像の特性をクラス分類に反映できるようにする。ここでは、垂直方向の動きは少ないと考えられるので、垂直方向の画素数を少なく設定する。パターン設定部54Hは、図4の左方向の点線内の領域AR7の方向に動きがあつた場合、すなわち、左パンニングの動きに対応した画素パターンを設定する。このため、パターン設定部54Hは、図12のように左方向に延びる画素パターンを設定することにより、左側に移動していく画像の特性をクラス分類に反映できるようにする。   The pattern setting unit 54G sets a pixel pattern corresponding to the right panning motion when a motion vector exists in the area AR6 within the dotted line in the right direction in FIG. Therefore, the pattern setting unit 54G sets the pixel pattern extending in the right direction as shown in FIG. 11 so that the characteristics of the image moving to the right side can be reflected in the class classification. Here, since it is considered that there is little movement in the vertical direction, the number of pixels in the vertical direction is set to be small. The pattern setting unit 54H sets a pixel pattern corresponding to the movement of the left panning when there is a movement in the direction of the area AR7 within the dotted line in the left direction of FIG. For this reason, the pattern setting unit 54H sets the pixel pattern extending in the left direction as shown in FIG. 12 so that the characteristics of the image moving to the left can be reflected in the class classification.

さらに、各パターン設定部54A〜54Hにおいては、図5〜図12に示すように、後段のADRCクラス分類部56によるクラス分類を考慮して、局所的なダイナミツクレンジ(DR)を検出するための画素領域を、設定した画素パターンよりも広く取るようになされている。したがつて、クラスタツプ選択部55から供給されるタツプデータは、クラス分類用タツプデータとダイナミツクレンジDRを求めるためのタツプデータとなる。この結果、ADRCクラス分類部56によるクラス分類処理において注目画素周辺の波形変化を一段とクラスに反映させることができる。   Further, in each of the pattern setting units 54A to 54H, as shown in FIGS. 5 to 12, in order to detect a local dynamic range (DR) in consideration of the class classification by the ADRC class classification unit 56 in the subsequent stage. This pixel area is made wider than the set pixel pattern. Therefore, the tap data supplied from the cluster tap selection unit 55 is the tap data for determining the class classification tap data and the dynamic range DR. As a result, the waveform change around the pixel of interest can be further reflected in the class in the class classification process by the ADRC class classification unit 56.

なお、ADRCクラス分類部56は、動きクラスコードCLASS0に応じて、量子化ビツト数を切り換えるようにしてもよい。   The ADRC class classification unit 56 may switch the number of quantization bits according to the motion class code CLASS0.

(1−3)第1の実施例の動作
以上の構成において、クラス分類部31及び41は、注目画素をクラス分類するに当たつて、先ず、第1のクラス分類部50において、入力SD画像データD1の動きベクトルを検出し、当該検出結果に基づいて動きクラスコードCLASS0を形成する。また、クラス分類部31及び41は、クラス分類画素選択部53において、入力SD画像データD1から予め動きクラスのそれぞれに対応したクラス分類用タツプパターンを設定しておく。
(1-3) Operation of First Example In the above configuration, the class classification units 31 and 41 first classify the input SD image in the first class classification unit 50 when classifying the target pixel. A motion vector of the data D1 is detected, and a motion class code CLASS0 is formed based on the detection result. In the class classification units 31 and 41, the class classification pixel selection unit 53 sets a class classification tap pattern corresponding to each motion class in advance from the input SD image data D1.

そして、クラス分類部31及び41は、検出した動きクラスに応じたクラス分類用タツプパターンを選択し、選択したタツプパターンを、少ない情報量でレベル分布パターンを表現するための第2のクラス分類部であるADRCクラス分類部56に送出する。かくして、ADRCクラス分類部56では、SD画像データD1の動きに応じたクラス分類用タツプパターンを用いてSD画像データD1のレベル分布パターンに基づくADRCクラスコードCLASS1が形成されるため、当該ADRCクラスコードCLASS1を画像の特徴を十分に反映したものとすることができる。   The class classification units 31 and 41 are second class classification units for selecting a class classification tap pattern corresponding to the detected motion class and expressing the selected tap pattern with a small amount of information as a level distribution pattern. The data is sent to the ADRC class classification unit 56. Thus, in the ADRC class classification unit 56, since the ADRC class code CLASS1 based on the level distribution pattern of the SD image data D1 is formed using the class classification tap pattern corresponding to the movement of the SD image data D1, the ADRC class code CLASS1 Can sufficiently reflect the characteristics of the image.

クラス分類部31及び41は、このようにして形成した動きクラスコードCLASS0及びADRCクラスコードCLASS1をクラスコードD32として、後段の予測係数ROM32(図1)又は係数算出部24(図2)に送出する。これにより、係数算出部24においては、特徴の似通つたもの同志を集めてクラス毎の予測係数を求めることができるため、予測係数の精度を向上し得る。また、アツプコンバータ30においては、このようにして求めた精度の良い予測係数を用いて予測演算処理を行うことができるため、一段と真値に近いHD補間画素を得ることができる。   The class classification units 31 and 41 send the motion class code CLASS0 and ADRC class code CLASS1 thus formed as the class code D32 to the prediction coefficient ROM 32 (FIG. 1) or the coefficient calculation unit 24 (FIG. 2) at the subsequent stage. . Thereby, in the coefficient calculation part 24, those with similar characteristics can be collected to obtain the prediction coefficient for each class, so that the accuracy of the prediction coefficient can be improved. Further, the up-converter 30 can perform the prediction calculation process using the accurate prediction coefficient obtained in this way, so that an HD interpolation pixel closer to the true value can be obtained.

(1−4)第1実施例の効果
以上の構成によれば、注目画素の周辺画素のレベル分布パターンに基づくクラスに加えて、注目画素の周辺画素における動きに基づく動きクラスを形成し、これらのクラスの組み合わせを最終的なクラス分類結果としたことにより、入力SD画像をより的確にクラス分類し得る。また、動きクラスに応じて、レベル分布パターンに基づくクラス分類を行う際に用いるクラス分類用タツプパターンを適応的に選択するようにしたことにより、レベル分布パターンに基づくクラス分類結果を入力画像の特徴を良く反映したものとすることができる。
(1-4) Effects of First Example According to the above configuration, in addition to the class based on the level distribution pattern of the peripheral pixels of the target pixel, a motion class based on the motion of the peripheral pixels of the target pixel is formed. By using the combination of classes as the final classification result, the input SD image can be classified more accurately. In addition, the class classification tap pattern used when performing class classification based on the level distribution pattern according to the motion class is adaptively selected. It can be well reflected.

この結果、このクラスに応じて予測係数を算出すれば、クラス毎により正確な予測係数を求めることができる。さらに、この予測係数を用いて予測演算を行つて補間画素値を求めるようにすれば、HD補間画素データD33の予測性能を向上し得ることにより、SD画像データD1を一段と高解像度のHD画像データD34に変換し得るアツプコンバータ30を実現し得る。   As a result, if a prediction coefficient is calculated according to this class, a more accurate prediction coefficient can be obtained for each class. Furthermore, if the prediction calculation is performed using this prediction coefficient to obtain the interpolated pixel value, the prediction performance of the HD interpolated pixel data D33 can be improved, so that the SD image data D1 is further improved in HD image data. An up-converter 30 that can convert to D34 can be realized.

(2)第2の実施例
上述した第1の実施例では、入力画像信号から8種類の動きを検出して、動きクラスコードCLASS0を形成すると共に、これら8種類の動きに対応させて予め設定した8種類のクラス分類用タツプパターンから動きクラスコードCLASS0に応じたクラス分類用タツプパターンを選択したが、この第2の実施例では動きの有無のみを検出して、動きクラスコードを形成すると共に、動きの有無に応じてクラス分類用タツプパターンを選択する。実際には、注目画素近傍が動画部であつた場合には、クラス分類用タツプパターンとしてフイールド内画素を選択し、静止部であつた場合にはフレーム内画素を選択する。
(2) Second Embodiment In the first embodiment described above, eight types of motion are detected from the input image signal to form a motion class code CLASS0 and set in advance corresponding to these eight types of motion. The class classification tap pattern corresponding to the motion class code CLASS0 is selected from the eight types of class classification tap patterns. In this second embodiment, only the presence or absence of motion is detected to form a motion class code, A tap pattern for class classification is selected according to the presence or absence of. Actually, when the vicinity of the target pixel is a moving image portion, an in-field pixel is selected as the class classification tap pattern, and when it is a still portion, an intra-frame pixel is selected.

つまり、分類対象の画像に動きがある場合には、フイールド内画素を選択し、純粋に時間特性を排除した空間内の信号変化に応じたクラス分類を行う。一方、分類対象の画像信号に動きが無い場合には、時間方向に広がりをもつた画素を選択し、可能な限り時空間構造において注目画素近傍の信号変化をクラス分類に反映させるようにする。このため、例えば、フレーム内画素、さらには、数フイールドに亘る画素を選択するようにする。   That is, when there is a motion in the image to be classified, a pixel in the field is selected, and class classification is performed in accordance with a signal change in the space in which time characteristics are purely excluded. On the other hand, when there is no movement in the image signal to be classified, a pixel having a spread in the time direction is selected so that the signal change in the vicinity of the target pixel is reflected in the class classification as much as possible in the spatiotemporal structure. For this reason, for example, pixels within the frame, and further, pixels over several fields are selected.

実際上、この第2の実施例のクラス分類部は、図13のように構成されている。すなわち、クラス分類部60は、入力端子INを介して供給されたSD画像データD1を第1のクラス分類部61を構成するフレームメモリ62及び動き検出部63にそれぞれ供給すると共に、クラス分類画素選択部64のフイールド内タツプ選択部65及びフレーム内タツプ選択部66に供給する。   In practice, the class classification unit of the second embodiment is configured as shown in FIG. That is, the class classification unit 60 supplies the SD image data D1 supplied via the input terminal IN to the frame memory 62 and the motion detection unit 63 constituting the first class classification unit 61, respectively, and class selection pixel selection. This is supplied to the in-field tap selection unit 65 and the in-frame tap selection unit 66 of the unit 64.

動き検出部63は、直接、供給された現フレームのSD画像データD1とフレームメモリ62を介して供給された過去フレームのSD画像データD1とに基づいて、動き量の有無を検出する。このとき、動き量検出部63は、注目画素を中心とした各ブロツク毎に現フレームの画像データと過去フレームの画像データとのフレーム間の差分値の絶対値和を算出する。そして、当該差分値の絶対値和が所定の閾値未満の場合には、そのブロツクは動画部であると判定し、所定の閾値以上の場合には、そのブロツクは静止部であると判定する。動き検出部63は、その判定結果を1ビツトの動きクラスコードCLASS2として出力する。   The motion detection unit 63 directly detects the presence or absence of a motion amount based on the supplied current frame SD image data D1 and the past frame SD image data D1 supplied via the frame memory 62. At this time, the motion amount detection unit 63 calculates the absolute value sum of the difference values between the image data of the current frame and the image data of the past frame for each block centered on the target pixel. If the sum of absolute values of the difference values is less than a predetermined threshold, the block is determined to be a moving image portion, and if the sum is greater than the predetermined threshold, the block is determined to be a stationary portion. The motion detector 63 outputs the determination result as a 1-bit motion class code CLASS2.

フイールド内タツプ選択部65は、図14(A)に示すように、注目画素(図の「◎」)を中心としたフイールド内タツプを設定し、当該フイールド内タツプデータを選択部67に送出する。フレーム内タツプ選択部66は、図14(B)に示すように、注目画素を中心としたフレーム内タツプを設定し、当該フレーム内タツプデータを選択部67に送出する。選択部67は、動きクラスコードCLASS2に応じて、入力されたフイールド内タツプデータ又はフレーム内タツプデータを択一的に選択して出力する。すなわち、動きクラスコードCLASS2が、動画部を表わすものであつた場合には、フイールド内タツプデータを出力し、静止部を表わすものであつた場合には、フレーム内タツプデータを出力する。   As shown in FIG. 14A, the in-field tap selection unit 65 sets the in-field tap centered on the target pixel (“◎” in the figure), and sends the in-field tap data to the selection unit 67. As shown in FIG. 14B, the in-frame tap selection unit 66 sets an in-frame tap centered on the pixel of interest, and sends the in-frame tap data to the selection unit 67. The selection unit 67 alternatively selects and outputs the input in-field tap data or in-frame tap data according to the motion class code CLASS2. That is, if the motion class code CLASS2 represents a moving image portion, the in-field tap data is output. If the motion class code CLASS2 represents a still portion, the in-frame tap data is output.

選択部67から出力されたクラス分類用タツプデータは、ADRCクラス分類部68に与えられる。ADRCクラス分類部68は、クラス分類用タツプデータをそのダイナミツクレンジに応じて適応的に再量子化し、クラス数の削減されたADRCクラスコードCLASS3を形成する。なお、この第2の実施例では、クラス分類用タツプデータとして7画素分のデータがADRCクラス分類部68に送出されるため、例えば、クラス分類用タツプデータに対して1ビツトADRC処理を施した場合には、クラス分類用タツプデータは、128種類のクラスに分類される。そして、最終的に、クラス分類部60からは、動きクラスコードCLASS2として1ビツト、ADRCクラスコードCLASS3として7ビツトの合計8ビツト(256種類)のクラス分類結果が出力される。   The class classification tap data output from the selection unit 67 is given to the ADRC class classification unit 68. The ADRC class classification unit 68 adaptively requantizes the class classification tap data in accordance with the dynamic range thereof to form an ADRC class code CLASS3 with a reduced number of classes. In the second embodiment, since data for seven pixels is sent to the ADRC class classification unit 68 as class classification tap data, for example, when 1-bit ADRC processing is performed on the class classification tap data. The class classification tap data is classified into 128 types of classes. Finally, the class classification unit 60 outputs a class classification result of a total of 8 bits (256 types) of 1 bit as the motion class code CLASS2 and 7 bits as the ADRC class code CLASS3.

実際上、クラス分類部60は、第1の実施例において上述したアツプコンバータ30(図1)のクラス分類部31及び学習回路40(図2)のクラス分類部41として用いられ、形成された動きクラスコードCLASS2及びADRCクラスコードCLASS3は、予測係数ROM32や係数算出部24に送出される。   In practice, the class classification unit 60 is used as the class classification unit 31 of the up-converter 30 (FIG. 1) and the class classification unit 41 of the learning circuit 40 (FIG. 2) described above in the first embodiment. The class code CLASS2 and the ADRC class code CLASS3 are sent to the prediction coefficient ROM 32 and the coefficient calculation unit 24.

以上の構成によれば、注目画素の周辺画素のレベル分布パターンに基づくクラスに加えて、注目画素の周辺画素における動きの有無に応じた動きクラスを形成し、これらのクラスの組み合わせを最終的なクラス分類結果としたことにより、入力SD画像をより的確にクラス分類を行うことができる。さらに、動きの有無に応じて、レベル分布パターンに基づくクラス分類を行う際に用いるクラスタツプパターンを適応的に選択するようにしたことにより、レベル分布パターンに基づくクラス分類結果を入力SD画像の特徴を良く反映したものとすることができる。   According to the above configuration, in addition to the class based on the level distribution pattern of the peripheral pixels of the target pixel, a motion class corresponding to the presence or absence of motion in the peripheral pixels of the target pixel is formed, and the combination of these classes is finally determined. By using the class classification result, it is possible to classify the input SD image more accurately. Further, the cluster classification pattern used when performing class classification based on the level distribution pattern is adaptively selected according to the presence or absence of motion, so that the class classification result based on the level distribution pattern can be obtained from the input SD image. The characteristics can be well reflected.

この結果、このクラスに応じて予測係数を算出すれば、クラス毎により正確な予測係数を求めることができる。さらに、この予測係数を用いて予測演算を行つて補間画素値を求めるようにすれば、HD補間画素データの予測性能を向上し得ることにより、SD画像データD1を一段と高解像度のHD画像データに変換し得るアツプコンバータを実現できる。   As a result, if a prediction coefficient is calculated according to this class, a more accurate prediction coefficient can be obtained for each class. Furthermore, if the prediction calculation is performed using this prediction coefficient to obtain the interpolated pixel value, the prediction performance of the HD interpolated pixel data can be improved, so that the SD image data D1 is further converted into HD image data with higher resolution. An up-converter that can be converted can be realized.

また、動きの有無のみに基づいて動きクラスを形成するようにしたことにより、第1の実施例と比較して、第1のクラス分類部61及びクラス分類画素選択部64の構成を簡易化できる。   In addition, since the motion class is formed based only on the presence or absence of motion, the configuration of the first class classification unit 61 and the class classification pixel selection unit 64 can be simplified as compared with the first embodiment. .

なお、第2のクラス分類部であるADRCクラス分類部68において、第1の実施例と同様に、ダイナミツクレンジを検出する画素領域を設定した画素パターンよりも広く取るようにしてもよいし、また、動きクラスコードCLASS2により、ダイナミツクレンジを検出する画素領域を決定してもよい。
さらに、ADRCクラス分類部68は、動きクラスコードCLASS2に応じて、量子化ビツト数を切り換えるようにしてもよい。
In addition, in the ADRC class classifying unit 68 as the second class classifying unit, as in the first embodiment, the pixel area for detecting the dynamic range may be set wider than the pixel pattern, Further, the pixel region for detecting the dynamic range may be determined by the motion class code CLASS2.
Furthermore, the ADRC class classification unit 68 may switch the number of quantization bits according to the motion class code CLASS2.

(3)第3の実施例
この第3の実施例では画像の動きを考慮した、多段のクラス分類処理を行うことにより、クラス分類性能を向上させる。すなわち、入力画像に対して、初段で粗いクラス分類を行つた後、次段では初段の結果に応じたクラス分類用タツプを適応的に選択し、初段とは別の細かいクラス分類を行う。その結果、入力画像の特徴をより的確に表現したクラス分類結果を得ることができる。
(3) Third Embodiment In the third embodiment, class classification performance is improved by performing multi-stage class classification processing in consideration of image motion. That is, after coarse class classification is performed on the input image at the first stage, a class classification tap corresponding to the result at the first stage is adaptively selected at the next stage, and fine class classification different from the first stage is performed. As a result, it is possible to obtain a classification result that more accurately represents the characteristics of the input image.

なお、上述した第1及び第2の実施例についても、第1のクラス分類部50及び61を初段のクラス分類処理と考え、そのクラス分類結果に応じて適応的に選択されたクラス分類用タツプをADRC処理することを次段のクラス分類処理と考えれば、同様に多段のクラス分類処理をしていると言うことができる。但し、第3の実施例では、動きクラスの形成の方法及びクラス分類用タツプの設定の方法が第1及び第2の実施例とは異なる。   In the first and second embodiments described above, the first class classification units 50 and 61 are considered as the first class classification process, and the class classification taps adaptively selected according to the class classification result are used. If the ADRC processing is considered as the next class classification process, it can be said that the multi-class classification process is performed similarly. However, in the third embodiment, the method of forming the motion class and the method of setting the class classification tap are different from those in the first and second embodiments.

すなわち、この第3の実施例では、第1のクラス分類部が、複数種類の画像の動きを考慮して予め選定された複数の係数を有し、この予測係数と注目画素周辺の画素データとを用いて、注目画素に対する複数の予測値を算出する予測値算出部と、予測値算出部により算出された複数の予測値と注目画素の画素値との差分値を算出する差分値算出部と、差分値の最小値を検出することにより、注目画素周辺の動きを判定して、動きを表わす第1のクラスコードを出力する第1のクラスコード発生部とからなる。   That is, in the third embodiment, the first class classification unit has a plurality of coefficients selected in advance in consideration of movements of a plurality of types of images, and the prediction coefficient and the pixel data around the pixel of interest A prediction value calculation unit that calculates a plurality of prediction values for the target pixel, a difference value calculation unit that calculates a difference value between the plurality of prediction values calculated by the prediction value calculation unit and the pixel value of the target pixel, And a first class code generation unit that determines a motion around the target pixel by detecting a minimum value of the difference value and outputs a first class code representing the motion.

図15に、第3の実施例のクラス分類部の具体的構成を示す。図15は、クラス分類を2段で行うようにした例である。クラス分類部70は、図1のクラス分類部31に対応し、第1のクラス分類部としての初段クラス分類部71において画像の動きに基づく粗いクラス分類を行い、次段クラス分類部72において、その初段クラス分類部の分類結果に応じたクラス分類用タツプを選択して、細かいクラス分類処理を行うようになされている。ここで、次段クラス分類部72は、第1の実施例のクラス分類画素選択部53の機能と第2のクラス分類部(すなわちADRCクラス分類部)56の機能とを兼ねたものである。   FIG. 15 shows a specific configuration of the class classification unit of the third embodiment. FIG. 15 shows an example in which class classification is performed in two stages. The class classification unit 70 corresponds to the class classification unit 31 of FIG. 1, performs a rough class classification based on image movement in the first-stage class classification unit 71 as the first class classification unit, and in the next-stage class classification unit 72, A class classification tap corresponding to the classification result of the first class classification unit is selected to perform fine class classification processing. Here, the next-stage class classification unit 72 has both the function of the class classification pixel selection unit 53 of the first embodiment and the function of the second class classification unit (that is, the ADRC class classification unit) 56.

初段クラス分類部71は、例えば、入力画像に動きがあつた場合、注目画素がどの方向から動いてきたものかを判断し、その判断結果に応じて入力画像を大きく分類する。そのため、初段クラス分類部71は、注目画素の画素値と当該注目画素周辺の複数画素を用いて、注目画素に対する線形予測値との差分を算出(実施例の場合、9個の差分値を算出)する。そして、その差分結果を総合的に比較判断することにより、まず複数個の粗いクラス分類を行う。   For example, when there is a motion in the input image, the first-stage class classification unit 71 determines from which direction the pixel of interest has moved, and classifies the input image according to the determination result. Therefore, the first class classification unit 71 calculates the difference between the pixel value of the target pixel and the linear prediction value for the target pixel using a plurality of pixels around the target pixel (in the case of the example, calculates nine difference values). ) Then, a plurality of coarse classifications are first performed by comprehensively comparing and determining the difference results.

ここで、線形予測の際に用いる係数は、入力画像をある方向に任意の大きさで人為的に動かした画像を用いて学習することで作成される。その係数の学習方法は、予測係数ROMの予測係数の学習の方法と同様であるので、ここでは、説明を省略する。例えば、図17に示すような、9種類の方向を粗分類の指標として学習し、9種類の係数組を求めておく。この係数組が、9種類の線形予測の係数として使用される。因に、図17において、例えば、中央の領域「0」は動きがほとんどない静止または準静止領域を示し、例えば、上側の領域「1」は上方向に動きがある場合を示す。   Here, the coefficient used in the linear prediction is created by learning an input image using an image that is artificially moved in a certain direction with an arbitrary size. The method for learning the coefficient is the same as the method for learning the prediction coefficient in the prediction coefficient ROM, and the description thereof is omitted here. For example, nine types of directions as shown in FIG. 17 are learned as rough classification indices, and nine types of coefficient groups are obtained. This coefficient set is used as coefficients for nine types of linear prediction. In FIG. 17, for example, the central area “0” indicates a stationary or quasi-static area where there is little movement, and for example, the upper area “1” indicates a case where there is movement in the upward direction.

実際上、初段クラス分類部71は、入力端子INを介して供給された入力SD画像データD1を、初段での粗いクラス分類のためのクラス分類用タツプを設定するクラスタツプ設定部73に供給する。クラスタツプ設定部73は、図16に示すように、注目画素が存在するフレーム内、その1フレーム分過去のフレーム内及びその2フレーム分過去のフレーム内から注目画素の時空間における近傍画素をクラス分類用タツプとして設定(この実施例の場合、注目画素を含む16画素を設定)し、このうち、注目画素を除く時空間近傍画素データを各予測部75A〜75Iに送出する。   Actually, the first-stage class classification unit 71 supplies the input SD image data D1 supplied via the input terminal IN to the cluster-type setting unit 73 that sets a class classification tap for coarse class classification in the first stage. As shown in FIG. 16, the cluster setting setting unit 73 classifies the neighboring pixels in the time space of the pixel of interest from the frame in which the pixel of interest exists, the frame in the past by one frame, and the frame in the past by two frames. (In this example, 16 pixels including the target pixel are set), and among these, the spatiotemporal neighboring pixel data excluding the target pixel is sent to each of the prediction units 75A to 75I.

予測部75A〜75Iは、それぞれ上述したように各々の動きの方向に適した予測係数組を有し、当該予測係数組とクラスタツプとの線形予測により注目画素値を予測する。差分部76A〜76Iは、遅延部74を介して入力された注目画素の画素値と各予測部75A〜75Iで得られた予測値との差分を演算し、各差分値が最小値判定部77に供給される。   As described above, each of the prediction units 75A to 75I has a prediction coefficient group suitable for each direction of motion, and predicts a target pixel value by linear prediction of the prediction coefficient group and a cluster group. The difference units 76A to 76I calculate the difference between the pixel value of the target pixel input via the delay unit 74 and the predicted value obtained by each of the prediction units 75A to 75I, and each difference value is the minimum value determination unit 77. To be supplied.

ここで、例えば、入力画像が右から左に動いているような場合は、そのような動きを想定した学習により得られた予測係数を用いて算出された予測結果が他の場合に比べて最も注目画素と近い値をとるはずである。このため、最小値判定部77は、9種類の差分結果のうちその絶対値が最小となるものを検出して、動きの方向を分類する。このようにして、初段の粗いクラス分類を実行することができる。かくして、初段クラス分類部71は、9種類(4ビツト)の動きクラスコードCLASS4を出力する。   Here, for example, when the input image is moving from right to left, the prediction result calculated using the prediction coefficient obtained by learning assuming such movement is the most compared to other cases. The value should be close to the target pixel. For this reason, the minimum value determining unit 77 classifies the direction of motion by detecting the nine types of difference results having the smallest absolute value. In this way, the rough classification of the first stage can be executed. Thus, the first class classification unit 71 outputs nine types (four bits) of motion class codes CLASS4.

さて、初段クラス分類部71によつて動きの方向を検出すると、次に、次段クラス分類部72によつて、さらにそのような画像の中で特徴を抽出し、細かいクラス分類を行う。ここで、次段クラス分類部72は、画一的なクラスタツプ構造を用いてクラス分類を行うのではなく、初段クラス分類部71によつて分類した動きクラスに基づき、動きの方向に特化したクラス分類用タツプパターンを選択して、クラス分類を行う。これにより、次段クラス分類部72は、より入力画像の特徴に適合したクラス分類を行うことができる。   When the direction of movement is detected by the first-stage class classification unit 71, the next-stage class classification unit 72 further extracts features from such an image and performs fine class classification. Here, the next class classification unit 72 does not perform class classification using a uniform cluster structure, but specializes in the direction of motion based on the motion class classified by the first class classification unit 71. A classification pattern is selected and a classification pattern is selected. As a result, the next-stage class classification unit 72 can perform class classification more suitable for the characteristics of the input image.

このため、次段クラス分類部72は、初段のクラス分類結果に応じてクラス分類用タツプパターンを可変にできるような回路構成である。次段クラス分類部72は、クラスタツプ設定部73の出力をレジスタアレイ78を介して複数のセレクタ79A〜79Iに供給する。各セレクタ79A〜79Iは、図18〜図20に示すように、動きクラスコードCLASS4に応じた9種類のクラス分類用タツプを設定する。そして、初段クラス分類部71の最小値判定部77から出力される動きクラスコードCLASS4に応じて何れか一つのセレクタ79A〜79H又は79Iが択一的に選択され、選択されたセレクタ79A〜79H又は79Iのクラスタツプが第2のクラス分類部であるADRCクラス分類部80に送出される。この結果、ADRCクラス分類部80には、初段のクラス分類結果に応じた最適なクラス分類用タツプが供給される。   For this reason, the next-stage class classification unit 72 has a circuit configuration in which the class classification tap pattern can be made variable according to the first-class classification result. The next class classification unit 72 supplies the output of the cluster group setting unit 73 to the plurality of selectors 79A to 79I via the register array 78. Each of the selectors 79A to 79I sets nine types of class classification taps corresponding to the motion class code CLASS4 as shown in FIGS. Then, any one of the selectors 79A to 79H or 79I is alternatively selected according to the motion class code CLASS4 output from the minimum value determination unit 77 of the first stage class classification unit 71, and the selected selectors 79A to 79H or The 79I cluster group is sent to the ADRC class classification unit 80 which is the second class classification unit. As a result, the ADRC class classification unit 80 is supplied with the optimum class classification tap corresponding to the first class classification result.

例えば、初段クラス分類部71によつて注目画素近傍が左から右に動いたと判断された場合(すなわち図17における領域「4」の方向に動きがあつた場合)、クラス分類用タツプは、時空間でみて時間水平方向に延びている方が有利であり、そのような12画素が選択されるように、セレクタ79A〜79Iが制御される(図19のクラス4)。その他の方向においても同様にして、動きクラスコードCLASS4に応じたクラス分類用タツプが選択される。   For example, when the first class classification unit 71 determines that the vicinity of the pixel of interest has moved from left to right (that is, when there is movement in the direction of the region “4” in FIG. 17), the class classification tap is It is advantageous to extend in the horizontal direction in terms of space, and the selectors 79A to 79I are controlled so that such 12 pixels are selected (class 4 in FIG. 19). In the same way in the other directions, a classification tap corresponding to the movement class code CLASS4 is selected.

ADRCクラス分類部80は、上述した第1及び第2実施例と同様に選択されたクラス分類用タツプのレベル方向のビツト数を適応的なダイナミツクレンジを用いて圧縮することにより、ADRCクラスコードCLASS5を形成する。この実施例の場合、図18〜図20に示すように、12画素のクラス分類用タツプを用いているため、各画素をADRCクラス分類部80によつて適応的に1ビツトに再量子化すると、分類後のADRCクラスは、4096通りとなる。   The ADRC class classification unit 80 compresses the number of bits in the level direction of the selected class classification tap in the same manner as in the first and second embodiments described above by using an adaptive dynamic range, thereby providing an ADRC class code. Form CLASS5. In this embodiment, as shown in FIGS. 18 to 20, since a 12-pixel class classification tap is used, each pixel is adaptively re-quantized to 1 bit by the ADRC class classification unit 80. The ADRC class after classification is 4096.

このようにして、初段クラス分類部71のクラス分類結果に応じて、次段クラス分類部72のクラス分類用タツプが選択され、選択されたクラス分類用タツプを用いて1ビツトADRCによる4096クラスのパターン分類が実現される。その結果として、初段からのクラスコードCLASS4と合わせて、注目画素に対して 36864クラスの分類を行うことができる。   In this way, the class classification tap of the next class classification unit 72 is selected according to the class classification result of the first class classification unit 71, and the 4096 class of 1-bit ADRC is selected using the selected class classification tap. Pattern classification is realized. As a result, together with the class code CLASS4 from the first stage, 36864 classes can be classified for the pixel of interest.

このようにして得られた動きクラスコードCLASS4及びADRCクラスコードCLASS5は、予測係数ROM82の読出しアドレスとして出力される。因に、遅延部81は、動きクラスコードCLASS4を次段クラス分類部72の処理時間分だけ遅延させるものである。ここで予測係数ROM82の中の予測係数は、図2の学習回路のクラス分類部41に代えて、この第3の実施例のクラス分類部70を用いることにより作成でき、また、図43のフローチャートに第3の実施例のクラス分類部70のアルゴリズムを適用することにより、作成できる。すなわち、動きクラスコードCLASS4及びADRCクラスコードCLASS5を組み合わせてなる各クラス毎に、mode1 、mode2 、mode3 及びmode4 に対応する正規方程式を用いて、学習により、mode1 、mode2 、mode3 及びmode4 に対応する予測係数を求め、当該予測係数をそのクラスのアドレスに記憶させるようにすれば良い。   The motion class code CLASS4 and ADRC class code CLASS5 obtained in this way are output as read addresses of the prediction coefficient ROM 82. Incidentally, the delay unit 81 delays the motion class code CLASS4 by the processing time of the next class classification unit 72. Here, the prediction coefficient in the prediction coefficient ROM 82 can be created by using the class classification unit 70 of the third embodiment instead of the class classification unit 41 of the learning circuit of FIG. 2, and the flowchart of FIG. It can be created by applying the algorithm of the class classification unit 70 of the third embodiment. That is, for each class formed by combining the motion class code CLASS4 and ADRC class code CLASS5, the prediction corresponding to mode1, mode2, mode3, and mode4 is performed by learning using the normal equations corresponding to mode1, mode2, mode3, and mode4. A coefficient is obtained, and the prediction coefficient may be stored at the address of the class.

動きクラスコードCLASS4及びADRCクラスコードCLASS5に応じて、予測係数ROM82から読み出されたmode1 、mode2 、mode3 及びmode4 のための予測係数は、予測タツプ設定部83によつて設定された予測タツプと共に予測演算部84に与えられる。予測演算部84は、上述した予測演算部12(図1)と同様に、予測タツプとそれぞれの予測係数とを線形一次結合することにより、mode1 、mode2 、mode3 及びmode4 に対応するHD補間画素データを求める。そして、そのHD補間画素データを時系列のデータに変換して出力する。なお、図21は、予測タツプ設定部83によつて設定される予測タツプの例を示している。   According to the motion class code CLASS4 and ADRC class code CLASS5, the prediction coefficients for mode1, mode2, mode3, and mode4 read from the prediction coefficient ROM 82 are predicted together with the prediction type set by the prediction type setting unit 83. This is given to the calculation unit 84. Similar to the above-described prediction calculation unit 12 (FIG. 1), the prediction calculation unit 84 linearly combines the prediction taps and the respective prediction coefficients to obtain HD interpolation pixel data corresponding to mode1, mode2, mode3, and mode4. Ask for. Then, the HD interpolation pixel data is converted into time-series data and output. FIG. 21 shows an example of the prediction tap set by the prediction tap setting unit 83.

以上の構成によれば、初段クラス分類部71によつて画像の動きに基づく粗いクラス分類を行つた後、次段クラス分類部72によつて細かいクラス分類を行うようにしたことにより、有効にクラス分類精度を向上させることができる。   According to the above configuration, the first class classification unit 71 performs the coarse class classification based on the motion of the image, and then the second class classification unit 72 performs the fine class classification. The classification accuracy can be improved.

また、初段において入力画像の動きによるクラス分類をする際に、各動きの方向ごとに予め学習により求められた複数の予測係数を用いて注目画素に対する複数の線形予測を行い、このうち最も真値に近い予測値が得られた方向を動き方向として動きクラスコードCLASS4を求めたことにより、容易に動きコードCLASS4を形成することができる。   In addition, when classifying the input image in the first stage, a plurality of linear predictions are performed on the pixel of interest using a plurality of prediction coefficients obtained by learning in advance for each direction of movement, and the most true value among them is performed. The movement code CLASS4 can be easily formed by obtaining the movement class code CLASS4 using the direction in which the predicted value close to is obtained as the movement direction.

なお、次段クラス分類部であるADRCクラス分類部80において、上述した実施例と同様に、ダイナミツクレンジを検出する画素領域を設定した画素パターンよりも広く取るようにしてもよいし、また、動きクラスコードCLASS4により、ダイナミツクレンジを検出する画素領域を決定してもよい。
さらに、ADRCクラス分類部80は、動きクラスコードCLASS2に応じて、量子化ビツト数を切り換えるようにしてもよい。
In the ADRC class classifying unit 80, which is the next class classifying unit, the pixel area for detecting the dynamic range may be set wider than the pixel pattern in the same manner as in the above-described embodiment. The pixel area for detecting the dynamic range may be determined by the motion class code CLASS4.
Further, the ADRC class classification unit 80 may switch the number of quantization bits according to the motion class code CLASS2.

(4)第4の実施例
この第4の実施例では、第1のクラス分類部は、入力画像データの現フレーム又はフイールドにおいて注目画素を中心とした所定の大きさのブロツクを形成する第1のブロツク化部と、入力画像データの過去フレーム又はフイールドにおいて、現フレーム又はフイールドで形成されたブロツクの位置を中心として複数の方向に配置された複数のブロツクを形成する第2のブロツク化部と、第1のブロツク化部により形成されたブロツクと第2のブロツク化手段により形成された複数のブロツクとの間でそれぞれブロツク内画素同志の差分値を算出する差分値算出部と、複数のブロツクそれぞれについて、差分値の絶対値の和を算出する絶対値和算出部と、絶対値和の最小値を検出することにより、注目画素周辺の動きを判定して動きを表わす第1のクラスコードを出力する第1のクラスコード生成部とからなる。
(4) Fourth Example In the fourth example, the first class classification unit is a first class forming a block having a predetermined size centered on the target pixel in the current frame or field of the input image data. And a second blocking unit for forming a plurality of blocks arranged in a plurality of directions around the position of the block formed in the current frame or field in the past frame or field of the input image data. A difference value calculating unit for calculating a difference value between pixels in the block between the block formed by the first blocking unit and the plurality of blocks formed by the second blocking unit; and a plurality of blocks For each, the absolute value sum calculation unit that calculates the sum of the absolute values of the difference values and the minimum value of the absolute value sum are detected to determine the movement around the target pixel. And a first class code generation unit that outputs a first class code that represents motion.

図22に、この第4の実施例のクラス分類部の具体的構成を示す。図15との対応部分に同一符号を付して示す図22において、この第4の実施例のクラス分類部90は、初段クラス分類部91において、現フレーム又はフイールドにおける注目画素データを中心とするブロツクと、過去のフレーム又はフイールドにおいて複数の異なる位置で切り出された複数のブロツクとの差分を計算し、その差分の絶対値の和を比較することにより、粗いクラス分類を行うようになされている。   FIG. 22 shows a specific configuration of the class classification unit of the fourth embodiment. In FIG. 22, in which parts corresponding to those in FIG. 15 are assigned the same reference numerals, the class classification unit 90 of the fourth embodiment is centered on pixel-of-interest data in the current frame or field in the first-stage class classification unit 91. A rough classification is performed by calculating a difference between a block and a plurality of blocks cut out at a plurality of different positions in the past frame or field and comparing the sum of absolute values of the differences. .

初段クラス分類部91は、第3の実施例の初段クラス分類部71と同様に、例えば、入力画像に動きがあつた場合、注目画素がどの方向から動いてきたものかを判断し、その判断結果に応じて注目画素を大きく分類するためのものである。これを精度良く行うためには、動き検出を行う必要がある。ところが、この動き検出を、例えばブロツクマツチング法により行うと演算量が多くなるために、初段での粗いクラス分類を行うには余りにもハードウエア量が重くなつてしまう。   Similar to the first class classification unit 71 of the third embodiment, the first class classification unit 91 determines, for example, from which direction the pixel of interest has moved when there is a motion in the input image, and the determination This is for classifying the target pixel into large groups according to the result. In order to perform this with high accuracy, it is necessary to perform motion detection. However, if this motion detection is performed by, for example, the blotching method, the amount of calculation increases, so that the amount of hardware becomes too heavy for rough classification in the first stage.

そこで、この第4の実施例においては、過去の参照するブロツクを、例えば、図23に示すように大きく9種類の領域に分割する。そして、それぞれの領域と現フレーム又はフイールドのブロツクとの画素単位の差分の絶対値和を計算し、その最小値を検出するという、簡易的なブロツクマツチングを行うことでハードウエアの削減を図る。例えば、画像が右から左に動いているような場合は、過去の領域「3」との差分の絶対値和が最も小さくなる傾向にある。かくして、初段の粗いクラス分類を少ない演算量で行うことができるようになり、この結果、初段クラス分類部91の構成を簡易化できる。   Therefore, in the fourth embodiment, a block to be referred to in the past is divided into nine types of areas as shown in FIG. The hardware is reduced by performing simple block scrambling, which calculates the sum of absolute values of pixel unit differences between each area and the current frame or field block, and detects the minimum value. . For example, when the image moves from right to left, the absolute value sum of the difference from the past region “3” tends to be the smallest. Thus, the first-stage coarse class classification can be performed with a small amount of calculation, and as a result, the configuration of the first-stage class classification unit 91 can be simplified.

実際上、この実施例の初段クラス分類部91においては、入力SD画像をフレーム遅延部93を介して各領域分割部95A〜95Iに送出する。そして、当該領域分割部95A〜95Iにおいて、図23に示すように、それぞれ位置の異なる過去ブロツクを設定する。これら複数の過去ブロツクデータと、ブロツク化部94を介して得られる注目画素を中心とした現ブロツクデータとが、各差分部96A〜96Iに送出される。各差分部96A〜96Iにより得られた対応する画素毎の差分値が各絶対値和部97A〜97Iに送出される。そして、その結果得られる各差分絶対値和が最小値判定部98に送出される。最小値判定部98は、差分絶対値和が最小のものを動きの方向を表わす動きクラスコードCLASS6として出力する。   Actually, in the first class classification unit 91 of this embodiment, the input SD image is sent to each of the region division units 95A to 95I via the frame delay unit 93. Then, in the area dividing units 95A to 95I, past blocks having different positions are set as shown in FIG. The plurality of past block data and the current block data centered on the pixel of interest obtained through the blocking unit 94 are sent to the difference units 96A to 96I. The difference values for the corresponding pixels obtained by the difference units 96A to 96I are sent to the absolute value sum units 97A to 97I. Then, the sum of absolute differences obtained as a result is sent to the minimum value determination unit 98. The minimum value determination unit 98 outputs the one having the smallest difference absolute value sum as the motion class code CLASS6 representing the direction of motion.

次段クラス分類部92は、第3の実施例において上述した次段動きクラス分類部72と同様の構成でなり、図18〜図20のような次段でのクラス分類用タツプを設定する複数のセレクタ79A〜79Iを有する。そして、これらセレクタ79A〜79Iのうち初段クラス分類部91によつて求められた動きクラスコードCLASS6に応じた79A〜79H又は79Iを択一的に選択することにより、次段のクラス分類用タツプを選択する。   The next-stage class classification unit 92 has the same configuration as the next-stage motion class classification unit 72 described above in the third embodiment, and a plurality of classes for setting the class classification taps in the next stage as shown in FIGS. Selectors 79A to 79I. Then, among the selectors 79A to 79I, 79A to 79H or 79I corresponding to the motion class code CLASS6 obtained by the first stage class classification unit 91 is alternatively selected, so that the next class classification tap is selected. select.

以上の構成によれば、初段の動きクラスを求める際に、予め異なる位置の複数の参照ブロツクを設定した簡易的なブロツクマツチングを行うようにしたことにより、容易に動きクラスを求めることができ、初段クラス分類部91(第1のクラス分類手段)の構成を簡易化できる。   According to the above configuration, when the motion class of the first stage is obtained, the motion class can be easily obtained by performing simple block matching in which a plurality of reference blocks at different positions are set in advance. The configuration of the first class classification unit 91 (first class classification means) can be simplified.

(5)第5の実施例
この第5の実施例は、基本的には上述の第1〜第4実施例と同様に、先ず入力SD画像の動きに基づいて動きクラスを形成し、次に、この動きクラスに応じて次段のクラス分類用タツプを切り換えることにより、精度の良いクラス分類を実現する。但し、この実施例では、動きクラスを形成する方法が第1〜第4の実施例と異なる。
(5) Fifth Embodiment In the fifth embodiment, basically, as in the first to fourth embodiments described above, a motion class is first formed based on the motion of the input SD image, and then The class classification with high accuracy is realized by switching the class classification tap in the next stage according to the motion class. However, in this embodiment, the method of forming the motion class is different from the first to fourth embodiments.

この第5の実施例では、第1のクラス分類部において、注目画素が存在するフレームから切り出した所定の大きさのブロツクと、当該フレームに隣接するフレームから切り出した上記ブロツクと空間的に同じ位置にあるブロツクとの間でフレーム間差分値を算出する。そして、当該フレーム間差分値の絶対値の平均値を予め設定した所定の閾値と比較し、当該比較結果に基づいて注目画素周辺の動きを判定して、動きクラスを表わすクラスコードを形成する。   In the fifth embodiment, in the first class classification unit, a block having a predetermined size cut out from a frame in which the pixel of interest exists and a position spatially the same as the block cut out from a frame adjacent to the frame. The inter-frame difference value is calculated with the block located at. Then, the average value of the absolute values of the inter-frame difference values is compared with a predetermined threshold value, and the movement around the target pixel is determined based on the comparison result, thereby forming a class code representing the movement class.

図24に、この第5の実施例によるアツプコンバータの具体的構成を示す。アツプコンバータ100は、大きく分けて入力SD画像データD1の各注目画素をクラス分類するクラス分類部101、その分類結果に応じた予測係数を出力する予測係数ROM103、出力された予測係数と入力SD画像データD1とを用いて予測演算を施すことにより、垂直方向におけるHD補間画素データを生成する予測演算部102とにより構成されている。   FIG. 24 shows a specific configuration of the up-converter according to the fifth embodiment. The up-converter 100 is roughly divided into a class classification unit 101 that classifies each target pixel of the input SD image data D1, a prediction coefficient ROM 103 that outputs a prediction coefficient according to the classification result, and the output prediction coefficient and the input SD image. The prediction calculation unit 102 generates HD interpolation pixel data in the vertical direction by performing prediction calculation using the data D1.

ここで、この第5の実施例における、SD画素と補間すべきHD画素の位置関係は、図25に示す通りとする。すなわち、補間すべきHD画素には、同一フイールド内でみたとき、SD画素から近い位置に存在するHD画素y1 とSD画素から遠い位置に存在するy2 の2種類がある。以降、SD画素から近い位置に存在するHD画素を推定するモードをモード1、SD画素から遠い位置に存在するHD画素を推定するモードをモード2と呼ぶ。   Here, the positional relationship between the SD pixel and the HD pixel to be interpolated in the fifth embodiment is as shown in FIG. That is, there are two types of HD pixels to be interpolated: an HD pixel y1 that exists near the SD pixel and a y2 that exists far from the SD pixel when viewed in the same field. Hereinafter, a mode for estimating an HD pixel existing at a position close to the SD pixel is referred to as mode 1, and a mode for estimating an HD pixel existing at a position far from the SD pixel is referred to as mode 2.

アツプコンバータ100は、入力端子から供給されたSD画像データD1を領域切り出し部104に入力する。領域切り出し部104は、動きの程度を表わすためのクラス分類(動きクラス)の為に必要な画素を切り出す。この実施例では、供給されたSD画像から補間すべきHD画素y1 、y2 に対して、図26に示す位置に存在する10個のSD画素m1 〜m5 及びn1 〜n5 を切り出す。   The up-converter 100 inputs the SD image data D1 supplied from the input terminal to the area cutout unit 104. The area cutout unit 104 cuts out pixels necessary for class classification (motion class) for representing the degree of movement. In this embodiment, ten SD pixels m1 to m5 and n1 to n5 existing at positions shown in FIG. 26 are cut out from the supplied SD image with respect to HD pixels y1 and y2 to be interpolated.

領域切り出し部104により切り出されたデータは、動きクラス決定部105に供給される。動きクラス決定部105は、供給されたSD画素データのフレーム間差分を算出し、その絶対値の平均値を閾値判定することにより、動きのパラメータを算出する。具体的には、動きクラス決定部105は、次式(10)   The data cut out by the area cutout unit 104 is supplied to the motion class determination unit 105. The motion class determination unit 105 calculates a motion parameter by calculating a difference between frames of the supplied SD pixel data and determining an average of the absolute values as a threshold. Specifically, the motion class determination unit 105 calculates the following equation (10)

Figure 2005151603
Figure 2005151603

により、供給されるSD画素データから差分の絶対値の平均値 paramを算出する。但し、実施例の場合、n=5である。 The average value param of the absolute value of the difference is calculated from the supplied SD pixel data. However, in the example, n = 5.

動きクラス決定部105は、このように算出した平均値 paramを、予め設定した閾値と比較することにより、動きクラスコードCLASS8を求める。ここで、例えば、平均値 paramが「2」以下の場合をクラス「0」とし、平均値 paramが「2」より大きくかつ「4」以下の場合をクラス「1」とし、平均値 paramが「4」より大きくかつ「8」以下の場合をクラス「2」とし、平均値 paramが「8」より大きい場合をクラス「3」とし paramが「2」以下の場合をクラス「3」とすれば、4つのクラスでなる動きクラスコードCLASS8を形成することができる。ここで、この閾値は、例えばSD画素データの差分の絶対値のヒストグラムをn等分することにより設定すれば良い。   The motion class determination unit 105 obtains the motion class code CLASS8 by comparing the average value param calculated in this way with a preset threshold value. Here, for example, the case where the average value param is “2” or less is class “0”, the case where the average value param is greater than “2” and “4” or less is class “1”, and the average value param is “ If it is greater than 4 ”and less than or equal to“ 8 ”, the class is“ 2 ”. If the average param is greater than“ 8 ”, the class is“ 3 ”. If param is less than“ 2 ”, the class is“ 3 ”. A motion class code CLASS8 consisting of four classes can be formed. Here, this threshold value may be set by, for example, dividing the histogram of the absolute value of the difference of the SD pixel data into n equal parts.

このように形成された動きクラスコードCLASS8は、領域切り出し部107及びクラスコード発生部109に送出される。領域切り出し部107には、領域切り出し部104及び動きクラス決定部105の処理時間だけ入力SD画像データD1を遅延させる遅延部(DL)106を介して、入力SD画像データD1が供給されている。領域切り出し部107により切り出されたSD画素データは、ADRC部108に供給され、ADRC部108によつてSD画素データの空間内波形が少ないビツト数にパターン化(空間内クラス分類)される。例えば、1画素当り8ビツトのSD画素データが1画素当り2ビツトのSD画素データに圧縮される。   The motion class code CLASS8 formed in this way is sent to the area cutout unit 107 and the class code generation unit 109. The region cutout unit 107 is supplied with the input SD image data D1 through a delay unit (DL) 106 that delays the input SD image data D1 by the processing time of the region cutout unit 104 and the motion class determination unit 105. The SD pixel data cut out by the region cutout unit 107 is supplied to the ADRC unit 108, and the ADRC unit 108 patterns the SD pixel data into a small number of bits (in-space class classification). For example, SD pixel data of 8 bits per pixel is compressed into SD pixel data of 2 bits per pixel.

ここで、空間内クラス分類においては、動きが小さい画像の場合には、2フイールド分あるいはそれ以上のフイールド数の画素を用いた方式が効果的かつ効率的である。一方、動きが大きい画像の場合には1フイールド内の画素を用いた方式が効果的かつ効率的である。そのため、領域切り出し部107は、動きクラスコードCLASS8がクラス「0」又はクラス「1」であつた場合は、例えば、図27に示すような位置にある5つのSD画素k1 〜k5 を空間内クラス分類に使用する画素(すなわちクラス分類用タツプ)として切り出す。これに対して、領域切り出し部107は、動きクラスコードCLASS8がクラス「2」又はクラス「3」であつた場合は、図28に示すような位置にある5つのSD画素k1 〜k5 を空間内クラス分類に使用する画素として切り出す。   Here, in the class classification in space, in the case of an image with small motion, a method using pixels with the number of fields corresponding to two fields or more is effective and efficient. On the other hand, in the case of an image with large motion, a method using pixels within one field is effective and efficient. Therefore, when the motion class code CLASS8 is the class “0” or the class “1”, the region cutout unit 107, for example, converts the five SD pixels k1 to k5 located at positions as shown in FIG. Cut out as pixels to be used for classification (that is, taps for class classification). On the other hand, when the motion class code CLASS8 is class “2” or class “3”, the region cutout unit 107 moves the five SD pixels k1 to k5 located at positions as shown in FIG. Cut out as a pixel used for classification.

ADRC部108により圧縮された画素データは、ADRCクラスコードCLASS9としてクラスコード発生部109に供給される。クラスコード発生部109は、ADRCクラスコードCLASS9及び動きクラスコードCLASS8に基づいて、次式(11)   The pixel data compressed by the ADRC unit 108 is supplied to the class code generation unit 109 as an ADRC class code CLASS9. Based on the ADRC class code CLASS9 and the motion class code CLASS8, the class code generation unit 109 calculates the following formula (11)

Figure 2005151603
Figure 2005151603

の演算を行うことにより、そのブロツクが属する最終的なクラスを検出する。そして、その検出されたクラスを示すクラスコードCLASS10 を予測係数ROM103の読出しアドレスとして出力する。但し、(11)式におけるqi は、ADRCにより再量子化された各画素データを表し、pは、ADRCの際のビツト割当てを表わし、nは5、pは2である。因に、この第5の実施例の予測係数ROM103には、HD画素y1 に対応するモード1の予測係数とHD画素y2 に対応するモード2の予測係数がそれぞれ独立に用意されている。 By performing the above operation, the final class to which the block belongs is detected. Then, the class code CLASS10 indicating the detected class is output as a read address of the prediction coefficient ROM 103. However, qi in the equation (11) represents each pixel data requantized by ADRC, p represents bit allocation at the time of ADRC, n is 5, and p is 2. Incidentally, in the prediction coefficient ROM 103 of the fifth embodiment, a prediction coefficient for mode 1 corresponding to the HD pixel y1 and a prediction coefficient for mode 2 corresponding to the HD pixel y2 are prepared independently.

一方、入力端子から供給された入力SD画像データD1は、領域切り出し部110にも与えられる。領域切り出し部110は、予測演算に使用するSD画素データ(すなわち予測タツプ)を入力データから切り出す。この第5の実施例の場合には、図29に示すような位置にある17個の画素x1 〜x17を予測タツプとして切り出す。領域切り出し部110の出力は、タイミング合せをする目的で用意された遅延部111を介して予測演算部112に供給される。予測演算部112は、供給されたHD画素y1 に対応するモード1の予測係数とHD画素y2 に対応するモード2の予測係数と予測タツプとを用いて、それぞれ線形一次演算を行うことにより、注目SD画素データに対応するHD補間画素データy1 及びy2を算出する。   On the other hand, the input SD image data D1 supplied from the input terminal is also given to the area cutout unit 110. The region cutout unit 110 cuts out SD pixel data (that is, a prediction tap) used for prediction calculation from input data. In the case of the fifth embodiment, 17 pixels x1 to x17 located at positions as shown in FIG. 29 are cut out as prediction taps. The output of the region cutout unit 110 is supplied to the prediction calculation unit 112 via the delay unit 111 prepared for the purpose of timing adjustment. The prediction calculation unit 112 performs a linear primary calculation using the prediction coefficient of mode 1 corresponding to the supplied HD pixel y1, the prediction coefficient of mode 2 corresponding to the HD pixel y2, and the prediction tap, respectively. HD interpolation pixel data y1 and y2 corresponding to the SD pixel data are calculated.

予測演算部112から出力されたHD補間画素データは、水平補間フイルタ113に供給される。水平補間フイルタ113は、補間処理によつて水平方向の画素数を2倍にするものであり、この水平補間処理により最終的に図1のmode1 、mode2 、mode3 及びmode4 のようなHD補間画素データが生成されて、変換部115に供給される。変換部115では、供給されたHD補間画素データを時系列のデータの変換し、その出力がHDテレビジヨン受像機やHDビデオテープレコーダ等に供給される。   The HD interpolation pixel data output from the prediction calculation unit 112 is supplied to the horizontal interpolation filter 113. The horizontal interpolation filter 113 doubles the number of pixels in the horizontal direction by interpolation processing. Finally, HD interpolation pixel data such as mode1, mode2, mode3 and mode4 in FIG. 1 is obtained by this horizontal interpolation processing. Is generated and supplied to the conversion unit 115. In the conversion unit 115, the supplied HD interpolation pixel data is converted into time-series data, and the output is supplied to an HD television receiver, an HD video tape recorder, or the like.

なお、ADRC部108において、上述した実施例と同様に、ダイナミツクレンジを検出する画素領域を設定した画素パターンよりも広く取るようにしてもよいし、また、動きクラスコードCLASS8により、ダイナミツクレンジを検出する画素領域を決定してもよい。   In the ADRC unit 108, as in the above-described embodiment, the pixel range for detecting the dynamic range may be set wider than the set pixel pattern, and the dynamic range is determined by the motion class code CLASS8. A pixel region for detecting the image may be determined.

さらに、ADRC部108は、動きクラスコードCLASS8に応じて、量子化ビツト数を切り換えるようにしてもよい。   Further, the ADRC unit 108 may switch the number of quantization bits in accordance with the motion class code CLASS8.

次に、この実施例の予測係数ROM103に記憶されている予測係数を作成するための学習回路の構成について説明する。図24との対応部分に同一符号を付して示す図30に示すように、学習回路120は、まず既に知られているHD画像に対応した、当該HD画像の 1/4の画素数のSD画像を形成する。具体的には、入力端子を介して供給されるHD画像データの垂直方向の画素を垂直間引きフイルタ121によつて垂直方向の周波数が 1/2になるように間引き処理し、さらに、水平間引きフイルタ122によりHD画像データの水平方向の画素を間引くことにより、SD画像データを得る。   Next, the configuration of a learning circuit for creating a prediction coefficient stored in the prediction coefficient ROM 103 of this embodiment will be described. As shown in FIG. 30, in which parts corresponding to those in FIG. 24 are denoted by the same reference numerals, the learning circuit 120 first corresponds to an already known HD image and has an SD of 1/4 pixel number of the HD image. Form an image. Specifically, the vertical pixel of the HD image data supplied via the input terminal is thinned by the vertical thinning filter 121 so that the vertical frequency becomes 1/2, and further, the horizontal thinning filter is used. SD image data is obtained by thinning out horizontal pixels of the HD image data in 122.

SD画像データは、クラス分類部101に供給されると共に、図2の係数算出部24に対応する係数算出部123に供給される。そして、クラス分類部101で形成されたクラスコードCLASS10 が係数算出部123の正規方程式形成部124に供給される。正規方程式形成部124は、クラスコードCLASS10 で表わされるクラス毎に上述した(2)式〜(9)式に基づいて正規方程式データを形成する。この際に、正規方程式データは、モ−ド1及びモード2に対してそれぞれ生成される。   The SD image data is supplied to the class classification unit 101 and also to the coefficient calculation unit 123 corresponding to the coefficient calculation unit 24 of FIG. Then, the class code CLASS10 formed by the class classification unit 101 is supplied to the normal equation forming unit 124 of the coefficient calculation unit 123. The normal equation forming unit 124 forms normal equation data based on the above-described equations (2) to (9) for each class represented by the class code CLASS10. At this time, normal equation data is generated for mode 1 and mode 2, respectively.

全ての学習データの入力が終了した後、正規方程式形成部124は予測係数決定部125にモード1及びモード2の正規方程式データをそれぞれ出力する。予測係数決定部125は、正規方程式を掃き出し法などの一般的な行列解法を用いてモード1及びモード2の予測係数についてそれぞれ解き、当該モード1及びモード2の予測係数をメモリ126に出力する。この結果、メモリ126には、クラス毎に注目HD補間画素データy1 及びy2 を推定する際、統計的に最も真値に近い推定ができるようなモード1及びモード2の予測係数が格納される。そして、このメモリ126に格納されたテーブルを、アツプコンバータ100の予測係数ROM103とすれば良い。   After the input of all the learning data is completed, the normal equation forming unit 124 outputs the mode 1 and mode 2 normal equation data to the prediction coefficient determining unit 125, respectively. The prediction coefficient determination unit 125 solves the prediction coefficients of mode 1 and mode 2 by using a general matrix solving method such as a sweeping method, and outputs the prediction coefficients of mode 1 and mode 2 to the memory 126. As a result, the memory 126 stores mode 1 and mode 2 prediction coefficients that can be estimated statistically closest to the true value when the target HD interpolation pixel data y1 and y2 are estimated for each class. The table stored in the memory 126 may be used as the prediction coefficient ROM 103 of the up converter 100.

以上の構成によれば、動きクラスに応じて、レベル分布パターンに基づくクラス分類を行う際に用いるクラス分類用タツプパターンを適応的に選択するようにしたことにより、レベル分布パターンに基づくクラス分類結果を入力画像の特徴を良く反映したものとすることができる。また、SD画像のフレーム間差分を算出し、その絶対値の平均値を閾値判定することで動きクラスを求めるようにしたことにより、容易に動きクラスを求めることができ、クラス分類部101の構成を簡易化し得る。   According to the above configuration, the class classification result based on the level distribution pattern can be obtained by adaptively selecting the class classification tap pattern used when performing class classification based on the level distribution pattern according to the motion class. The feature of the input image can be well reflected. In addition, since the motion class is obtained by calculating the inter-frame difference of the SD image and determining the average value of the absolute value as a threshold, the motion class can be easily obtained. Can be simplified.

(6)第6の実施例
上述した第1〜第5の実施例では、動きクラスを形成し当該動きクラスに応じてレベル分布パターンに基づくクラス分類に用いるクラス分類用タツプを適応的に選択する場合について述べたが、この第6の実施例では、動きクラスに応じて予測演算に用いる予測タツプを適応的に選択するようにする。
(6) Sixth Embodiment In the first to fifth embodiments described above, a motion class is formed and a class classification tap used for class classification based on the level distribution pattern is adaptively selected according to the motion class. As described above, in the sixth embodiment, the prediction tap used for the prediction calculation is adaptively selected according to the motion class.

実際上、この第6の実施例のアツプコンバータは、図31に示すように構成されている。図24との対応部分に同一符号を付して示す図31において、アツプコンバータ140のクラス分類部141に設けられた動きクラス決定部144は、第5の実施例と同様の方法で求めた動きクラスコードCLASS8をクラスコード発生部109に送出すると共に、予測演算部142の領域切り出し部147に送出する。   In practice, the up-converter of the sixth embodiment is configured as shown in FIG. In FIG. 31, in which parts corresponding to those in FIG. 24 are denoted by the same reference numerals, the motion class determination unit 144 provided in the class classification unit 141 of the up converter 140 performs the motion obtained by the same method as in the fifth embodiment. The class code CLASS8 is sent to the class code generation unit 109 and also sent to the area cutout unit 147 of the prediction calculation unit 142.

領域切り出し部147は、タイミング合せのための遅延部146を介して与えられたSD画像データから動きクラスコードCLASS8に応じた予測タツプを切り出す。すなわち、動きクラスコードCLASS8が、クラス「0」又はクラス「1」のように動きが小さいことを表わすものであつた場合には、例えば、図33に示すような位置にある9つのSD画素x1 〜x9 を予測タツプとして切り出す。これに対して、動きクラスCLASS8がクラス「2」のように動きが大きいことを表わすものであつた場合には、例えば、図34に示すような位置にある9つのSD画素x1 〜x9 を予測タツプとして切り出す。また、動きクラスCLASS8がクラス「3」のように動きが非常に大きいことを表わすものであつた場合には、図35に示すような位置にある9つのSD画素x1 〜x9 を予測タツプとして切り出す。この結果予測演算部112には、クラス分類の対象となる入力SD画像の動きに基づく最適な予測タツプが供給されるようになる。   The region cutout unit 147 cuts out a prediction tap corresponding to the motion class code CLASS8 from the SD image data given through the delay unit 146 for timing adjustment. That is, when the motion class code CLASS8 indicates that the motion is small, such as class “0” or class “1”, for example, nine SD pixels x1 at positions as shown in FIG. Cut out ~ x9 as a prediction tap. On the other hand, when the motion class CLASS8 indicates that the motion is large as in the class “2”, for example, nine SD pixels x1 to x9 at positions as shown in FIG. 34 are predicted. Cut out as a tap. When the motion class CLASS8 indicates that the motion is very large as in the class “3”, nine SD pixels x1 to x9 located at positions as shown in FIG. 35 are cut out as prediction taps. . As a result, the prediction calculation unit 112 is supplied with an optimal prediction tap based on the motion of the input SD image to be classified.

ここで、従来の予測演算においては、クラス分類されたクラスのいかんに拘わらず、常に同じ画素を予測タツプとして用いていた。このため、予測性能を重視した場合は予測タツプを構成する画素数が多くなりハードウエア規模の増加を招き、一方、ハードウエア規模を削減した場合には予測性能の低下を招く欠点があつた。   Here, in the conventional prediction calculation, the same pixel is always used as a prediction tap regardless of the class classified. For this reason, when the prediction performance is emphasized, the number of pixels constituting the prediction tap is increased, resulting in an increase in hardware scale. On the other hand, when the hardware scale is reduced, there is a drawback in that the prediction performance is lowered.

これに対して、この第6の実施例のアツプコンバータ140においては、動きクラスコードCLASS8に応じて予測タツプを適応的に選択するようにしているので簡易な構成で予測性能を向上させることができる。すなわち、上述したように、動きが小さい場合には、補間するHD画素に空間的に近いSD画素を予測タツプとして選定する。また、動きが大きい場合には、補間するHD画素に時間的に近いSD画素を選定する。よつて、予測タツプ数をむやみに増加させることなく、予測演算に適した予測タツプのみを設定するようになされている。   On the other hand, in the up converter 140 of the sixth embodiment, since the prediction tap is adaptively selected according to the motion class code CLASS8, the prediction performance can be improved with a simple configuration. . That is, as described above, when the motion is small, an SD pixel spatially close to the HD pixel to be interpolated is selected as the prediction tap. When the motion is large, an SD pixel that is temporally close to the HD pixel to be interpolated is selected. Therefore, only the prediction tap suitable for the prediction calculation is set without increasing the number of prediction taps unnecessarily.

なお、この第6の実施例における、クラス分類用タツプを切り出すための領域切り出し部145は、例えば、図27に示すように補間すべきHD画素y1 、y2 の近傍に位置する5つのSD画素k1 〜k5 を切り出す。すなわち、領域切り出し部145は、動きにかかわらず固定のクラス分類用タツプを切り出す点で第5の実施例と異なる。   In the sixth embodiment, the area cutout unit 145 for cutting out the class classification tap is, for example, five SD pixels k1 located in the vicinity of the HD pixels y1 and y2 to be interpolated as shown in FIG. Cut out ~ k5. That is, the area cutout unit 145 is different from the fifth embodiment in that a fixed class classification tap is cut out regardless of movement.

次に、この第6の実施例の予測係数ROM143(図31)を作成するための学習回路について説明する。図31との対応部分に同一符号を付して示す図32に示すように、学習回路150の予測係数算出部151は、動きクラス決定部105によつて決定した動きクラスコードCLASS8に応じたSD画素を領域切り出し部147によつて切り出して正規方程式形成部133に送出する。また、正規方程式形成部133は、動きクラスCLASS8と、固定されたクラス分類用タツプから得られたADRCクラスコードCLASS11 とに基づきクラスコード発生部109によつて求められたクラスコードCLASS12 を受ける。   Next, a learning circuit for creating the prediction coefficient ROM 143 (FIG. 31) of the sixth embodiment will be described. As shown in FIG. 32 in which parts corresponding to those in FIG. 31 are denoted by the same reference numerals, the prediction coefficient calculation unit 151 of the learning circuit 150 performs SD according to the motion class code CLASS8 determined by the motion class determination unit 105. Pixels are cut out by the area cutout unit 147 and sent to the normal equation forming unit 133. Also, the normal equation forming unit 133 receives the class code CLASS12 obtained by the class code generating unit 109 based on the motion class CLASS8 and the ADRC class code CLASS11 obtained from the fixed class classification tap.

正規方程式形成部133は、上述したように各クラスコードCLASS12 毎にモ−ド1及びモード2に対しての正規方程式をそれぞれ立て、これを予測係数決定部134に送出する。予測係数決定部134により求められたモ−ド1及びモード2のためのそれぞれ予測係数は、メモリ135に格納される。かくして、学習回路150によれば、動きクラスに応じて、学習に用いる予測タツプを適応的に選択するようにしたことにより、精度の良い予測係数を生成することができる。   As described above, the normal equation forming unit 133 establishes normal equations for the mode 1 and the mode 2 for each class code CLASS12 and sends the normal equations to the prediction coefficient determination unit 134. The prediction coefficients for mode 1 and mode 2 obtained by the prediction coefficient determination unit 134 are stored in the memory 135. Thus, according to the learning circuit 150, it is possible to generate an accurate prediction coefficient by adaptively selecting a prediction tap used for learning according to a motion class.

以上の構成によれば、動きクラスに応じて、予測演算において重要となる画素のみで予測タツプを形成するようにことにより、ハードウエア規模を小くし、かつ予測性能の良いアツプコンバータを実現することができる。
なお、ADRC部108において、上述した実施例と同様に、ダイナミツクレンジを検出する画素領域を設定した画素パターンよりも広く取るようにしてもよいし、また、動きクラスコードCLASS8により、ダイナミツクレンジを検出する画素領域を決定してもよい。
According to the above configuration, an up-converter with a reduced hardware scale and good prediction performance can be realized by forming a prediction tap with only pixels that are important in prediction calculation according to the motion class. Can do.
In the ADRC unit 108, as in the above-described embodiment, the pixel range for detecting the dynamic range may be set wider than the set pixel pattern, and the dynamic range is determined by the motion class code CLASS8. A pixel region for detecting the image may be determined.

さらに、ADRC部108は、動きクラスコードCLASS8に応じて、量子化ビツト数を切り換えるようにしてもよい。   Further, the ADRC unit 108 may switch the number of quantization bits in accordance with the motion class code CLASS8.

(7)第7の実施例
上述した第1〜第5の実施例では、動きクラスに応じてクラス分類用タツプを適応的に選択し、第6の実施例では、動きクラスに応じて予測タツプを適応的に選択する場合について述べたが、この第7の実施例では、動きクラスに応じてクラス分類用タツプ及び予測タツプの両方を適応的に選択する。
(7) Seventh Embodiment In the first to fifth embodiments described above, a class classification tap is adaptively selected according to the motion class, and in the sixth embodiment, a prediction tap is selected according to the motion class. In the seventh embodiment, both the class classification tap and the prediction tap are adaptively selected according to the motion class.

この第7の実施例のアツプコンバータ及び学習回路の構成を、図36及び図37に示す。図24及び図31との対応部分に同一符号を付して示す図36において、アツプコンバータ105のクラス決定部164は、決定した動きクラスコードCLASS8をクラス分類用タツプを切り出すための領域切り出し部107に送出すると共に、予測タツプを切り出すための領域切り出し部147に送出する。領域切り出し部107は、第5の実施例で上述したように動きクラスコードCLASS8に応じたクラス分類用タツプを切り出す。また、領域切り出し部147は、第6の実施例で上述したように動きクラスコードCLASS8に応じた予測タツプを切り出す。   The configurations of the up-converter and the learning circuit of the seventh embodiment are shown in FIGS. In FIG. 36, in which parts corresponding to those in FIG. 24 and FIG. 31 are assigned the same reference numerals, the class determining unit 164 of the upconverter 105 extracts a region classifying unit 107 for extracting the determined motion class code CLASS8 from the class classification tap. To the region cutout unit 147 for cutting out the predicted tap. The area cutout unit 107 cuts out a class classification tap corresponding to the movement class code CLASS8 as described in the fifth embodiment. Further, the area cutout unit 147 cuts out a prediction tap corresponding to the motion class code CLASS8 as described above in the sixth embodiment.

かくして、この第7の実施例の学習回路においては一段と精度の良い予測係数を得ることができると共に、アツプコンバータにおいては一段と真値に近いHD補間画素を得ることができる。   Thus, the learning circuit of the seventh embodiment can obtain a prediction coefficient with higher accuracy, and the up-converter can obtain an HD interpolation pixel closer to the true value.

(8)他の実施例
なお、上述の実施例においては、本発明を、SD画像データをHD画像データに変換するアツプコンバータに適用した場合について述べたが、本発明はこれに限らず、低解像度の画像データを高解像度の画像データに変換する場合に広く適用し得る。すなわち、上述の実施例では、SD画像に含まれない画素を創造する場合に本発明を適用しているが、例えば、8ビツトで表現された各画素をより解像度の高い10ビツトで表現しようとする場合にも適用し得る。この場合には、予め10ビツトの画素を用いた学習によりクラス毎の予測係数データを求め、8ビツトの画素を用いてクラス分類した結果に応じた予測係数データを使用して予測演算処理を行うようにすれば良い。
(8) Other Embodiments In the above-described embodiments, the case where the present invention is applied to an up-converter that converts SD image data into HD image data has been described. The present invention can be widely applied when converting high resolution image data to high resolution image data. That is, in the above-described embodiment, the present invention is applied when creating a pixel that is not included in the SD image. For example, each pixel expressed by 8 bits is expressed by 10 bits having a higher resolution. It can also be applied to. In this case, prediction coefficient data for each class is obtained in advance by learning using 10-bit pixels, and prediction calculation processing is performed using the prediction coefficient data corresponding to the result of class classification using 8-bit pixels. You can do that.

また、本発明は、サブサンプルされた画像信号の補間方法に対しても適用することができ、さらに、電子ズーム等の拡大の際の補間方法に対しても適用することができる。   The present invention can also be applied to an interpolation method for subsampled image signals, and can also be applied to an interpolation method for enlargement such as electronic zoom.

また、上述の実施例においては、第1及び第2のクラスコードを組合わせたクラスコード毎に予測係数データが記憶された予測係数記憶部を設けると共に、予測係数記憶部から出力される予測係数データと入力画像データとを用いて予測演算を行う予測演算部を設けることにより、クラス分類結果に応じて解像度の高い画像データを生成する場合について述べたが、本発明はこれに限らず、予測係数記憶部及び予測演算部に代えて、第1及び第2のクラスコードを組合わせたクラスコード毎に予測値が記憶された予測値記憶部を設けるようにした場合にも適用し得る。ここで、予測値記憶部に記憶される予測値は予測演算部から出力される推定補間画素値に対応するものである。このような方法は、例えば、上述した本出願人による日本出願公開公報、特開平5-328185号の明細書及び図面において提案されている。なお、この日本出願に対応する米国出願は、Serial No. 08/1,730 filed May 17, 1993である。   In the above-described embodiment, a prediction coefficient storage unit in which prediction coefficient data is stored for each class code obtained by combining the first and second class codes is provided, and a prediction coefficient output from the prediction coefficient storage unit Although a case has been described in which image data with high resolution is generated according to a classification result by providing a prediction calculation unit that performs prediction calculation using data and input image data, the present invention is not limited to this, and prediction is performed. Instead of the coefficient storage unit and the prediction calculation unit, the present invention can also be applied to a case where a prediction value storage unit in which a prediction value is stored for each class code obtained by combining the first and second class codes is provided. Here, the predicted value stored in the predicted value storage unit corresponds to the estimated interpolation pixel value output from the prediction calculation unit. Such a method is proposed, for example, in the above-mentioned Japanese Patent Application Publication No. 5-328185 specification and drawings by the present applicant. The US application corresponding to this Japanese application is Serial No. 08 / 1,730 filed May 17, 1993.

つまり、図1にアツプコンバータにおいて、クラス分類部の構成は同じであるが、予測係数ROM32の代わりに、予測値が記憶された予測ROMが構成される。そして、クラスコードによつて読み出された予測値が推定補間画素値として直接、変換部に供給される構成となる。   That is, in the up-converter shown in FIG. 1, the configuration of the class classification unit is the same, but instead of the prediction coefficient ROM 32, a prediction ROM in which a prediction value is stored is configured. The prediction value read by the class code is directly supplied to the conversion unit as the estimated interpolation pixel value.

このような予測値を求める第1の方法としては加重平均を用いた学習方法がある。詳述すれば、補間対象画素の周辺のSD画素を用いて上述したクラス分類を行い、クラス毎に積算した補間対象画素の画素値(HD画素値を用いる)を補間対象画素の個数によつてインクリメントされた度数によつて割るといつた処理を様々な画像に対して行うことにより各クラスに対応した予測値を求める方法である。また、予測値を求める第2の方法としては正規化による学習方法がある。詳述すれば、補間対象画素を含む複数の画素からなるブロツクを形成し、当該ブロツク内のダイナミツクレンジによつて、補間対象画素の画素値からそのブロツクの基準値を減算した値を正規化し、この正規化された値の累積値を累積度数で除した値を予測値とする処理を様々な画像に対して行うことより各クラスに対応した予測値を求める方法である。   As a first method for obtaining such a predicted value, there is a learning method using a weighted average. More specifically, the above-described class classification is performed using the SD pixels around the interpolation target pixel, and the pixel values (using HD pixel values) of the interpolation target pixels integrated for each class are determined according to the number of interpolation target pixels. This is a method for obtaining a predicted value corresponding to each class by performing processing on various images when divided by the incremented frequency. As a second method for obtaining a predicted value, there is a learning method by normalization. More specifically, a block composed of a plurality of pixels including the interpolation target pixel is formed, and the value obtained by subtracting the reference value of the block from the pixel value of the interpolation target pixel is normalized by the dynamic range in the block. This is a method for obtaining a predicted value corresponding to each class by performing processing for various images on a value obtained by dividing the accumulated value of the normalized values by the accumulated frequency.

また、上述の第1〜第4の実施例においては、第1のクラス分類部によつて入力画像データにおける注目画素周辺の動きに応じて形成した第1のクラスコード(動きクラスコード)に応じて、第2のクラス分類部がクラス分類の際に用いる画素を適応的に選択する場合について述べたが、第1〜第4の実施例においても、第6の実施例において上述したように、第1のクラスコードに応じて予測演算部が予測演算の際に用いる画素を適応的に選択するようにしても良い。また、第7の実施例において上述したように、第1のクラスコードに応じて、第2のクラス分類部がクラス分類に用いる画素と予測演算部が予測演算に用いる画素の両方を適応的に選択するようにしても良い。このようにすれば、一段と高解像度の画像データを生成することができる。   In the first to fourth embodiments described above, the first class classification unit responds to the first class code (motion class code) formed according to the motion around the target pixel in the input image data. As described above, the second class classification unit adaptively selects the pixels used for class classification. In the first to fourth examples, as described above in the sixth example, The pixel used in the prediction calculation by the prediction calculation unit may be adaptively selected according to the first class code. Further, as described above in the seventh embodiment, both the pixel used for the class classification by the second class classification unit and the pixel used for the prediction calculation by the prediction calculation unit are adaptively set according to the first class code. You may make it select. In this way, image data with higher resolution can be generated.

また、上述の実施例においては、注目画素に対して空間的及び又は時間的に周辺に存在する複数画素のレベル分布パターンに基づいて第2のクラスコードを出力する第2のクラス分類部としてADRC回路を用いた場合について述べたが、本発明の第2のクラス分類手段はこれに限らず、例えばDCT(Discrete Cosine Transform )符号化、DPCM(差分符号化)、ベクトル量子化、サブバンド符号化やウエーブレツト変換等の圧縮手法を用いるようにしても良い。   Further, in the above-described embodiment, ADRC is used as the second class classification unit that outputs the second class code based on the level distribution pattern of a plurality of pixels existing spatially and / or temporally around the target pixel. Although the case where a circuit is used has been described, the second class classification means of the present invention is not limited to this. For example, DCT (Discrete Cosine Transform) coding, DPCM (differential coding), vector quantization, subband coding Or a compression method such as wavelet conversion may be used.

また、上述の実施例においては、入力画像データにおける注目画素周辺の動きに応じて注目画素をクラス分類する第1のクラス分類部のクラス分類手法として、ブロツクマツチング法や、フレーム間差分値を所定の閾値と比較する方法や、複数の動きに対応して求めた予測値のうちの予測誤差の最小値を検出することにより動きの方向を求める方法や、簡易的なブロツクマツチング法などを用いた場合について述べたが、本発明はこれに限らず、これ以外にも例えば勾配法や位相相関法を用いて動きクラスを求めるようにしても良く、要は注目画素周辺の動きを、その動きの方向や大きさに基づいて所定数のクラスのうちの何れかに分類できるものであれば良い。   Further, in the above-described embodiment, as a class classification method of the first class classification unit that classifies the target pixel according to the movement around the target pixel in the input image data, a blotting method or an inter-frame difference value is used. A method of comparing with a predetermined threshold, a method of obtaining the direction of motion by detecting the minimum value of prediction errors among prediction values obtained corresponding to a plurality of motions, a simple blotting method, etc. Although the present invention is not limited to this, the present invention is not limited to this. For example, the motion class may be obtained by using a gradient method or a phase correlation method. Any type that can be classified into any of a predetermined number of classes based on the direction and magnitude of the movement is acceptable.

また、上述の実施例においては、予測係数記憶部としてROM(読出し専用メモリ)を用いた場合について述べたが、本発明はこれに限らず、これに代えてRAM(書込み読出しメモリ)やSRAM等を用いるようにしても良い。   In the above-described embodiments, the case where a ROM (read-only memory) is used as the prediction coefficient storage unit has been described. However, the present invention is not limited to this, and instead of this, a RAM (write-read memory), an SRAM, or the like May be used.

なお、本発明の主旨を逸脱しない範囲において、様々な変形や応用例が考え得る。従つて、本発明の要旨は、実施例に限定されるものではない。   Various modifications and application examples can be considered without departing from the gist of the present invention. Therefore, the gist of the present invention is not limited to the examples.

本発明の係数生成装置及び係数生成方法は、例えば低解像度の入力画像信号を高解像度の画像信号に変換する画像信号変換のための係数を生成する用途に適用することができる。   The coefficient generation apparatus and the coefficient generation method of the present invention can be applied to an application for generating a coefficient for image signal conversion for converting, for example, a low resolution input image signal into a high resolution image signal.

本発明の実施例によるアツプコンバータの構成を示すブロツク図である。It is a block diagram which shows the structure of the up converter by the Example of this invention. 実施例による学習回路の構成を示すブロツク図である。It is a block diagram which shows the structure of the learning circuit by an Example. 第1実施例によるクラス分類部の構成を示すブロツク図である。It is a block diagram which shows the structure of the class classification | category part by 1st Example. 第1実施例における動きクラスを形成する際のパターン分類例を示す略線図である。It is a basic diagram which shows the example of a pattern classification | category at the time of forming the motion class in 1st Example. 第1実施例のクラス分類画素選択部によつて選択されるクラス分類用タツプパターンを示す略線図である。It is a basic diagram which shows the tap pattern for class classification selected by the class classification pixel selection part of 1st Example. 第1実施例のクラス分類画素選択部によつて選択されるクラス分類用タツプパターンを示す略線図である。It is a basic diagram which shows the tap pattern for class classification selected by the class classification pixel selection part of 1st Example. 第1実施例のクラス分類画素選択部によつて選択されるクラス分類用タツプパターンを示す略線図である。It is a basic diagram which shows the tap pattern for class classification selected by the class classification pixel selection part of 1st Example. 第1実施例のクラス分類画素選択部によつて選択されるクラス分類用タツプパターンを示す略線図である。It is a basic diagram which shows the tap pattern for class classification selected by the class classification pixel selection part of 1st Example. 第1実施例のクラス分類画素選択部によつて選択されるクラス分類用タツプパターンを示す略線図である。It is a basic diagram which shows the tap pattern for class classification selected by the class classification pixel selection part of 1st Example. 第1実施例のクラス分類画素選択部によつて選択されるクラス分類用タツプパターンを示す略線図である。It is a basic diagram which shows the tap pattern for class classification selected by the class classification pixel selection part of 1st Example. 第1実施例のクラス分類画素選択部によつて選択されるクラス分類用タツプパターンを示す略線図である。It is a basic diagram which shows the tap pattern for class classification selected by the class classification pixel selection part of 1st Example. 第1実施例のクラス分類画素選択部によつて選択されるクラス分類用タツプパターンを示す略線図である。It is a basic diagram which shows the tap pattern for class classification selected by the class classification pixel selection part of 1st Example. 第2実施例によるクラス分類部の構成を示すブロツク図である。It is a block diagram which shows the structure of the class classification | category part by 2nd Example. 第2実施例のクラス分類選択部によつて選択されるクラス分類用タツプパターンを示す略線図である。It is a basic diagram which shows the tap pattern for class classification selected by the class classification selection part of 2nd Example. 第3実施例によるクラス分類部の構成を示すブロツク図である。It is a block diagram which shows the structure of the class classification | category part by 3rd Example. 第3実施例において動きクラスを形成する際に用いられるクラス分類用タツプ例を示す略線図である。It is a basic diagram which shows the example of a tap for class classification used when forming a motion class in 3rd Example. 第3実施例における動きクラスを形成する際のパターン分類例を示す略線図である。It is a basic diagram which shows the example of a pattern classification | category at the time of forming the motion class in 3rd Example. 第3実施例のクラス分類画素選択部によつて選択されるクラス分類用タツプパターンを示す略線図である。It is a basic diagram which shows the tap pattern for class classification selected by the class classification pixel selection part of 3rd Example. 第3実施例のクラス分類画素選択部によつて選択されるクラス分類用タツプパターンを示す略線図である。It is a basic diagram which shows the tap pattern for class classification selected by the class classification pixel selection part of 3rd Example. 第3実施例のクラス分類画素選択部によつて選択されるクラス分類用タツプパターンを示す略線図である。It is a basic diagram which shows the tap pattern for class classification selected by the class classification pixel selection part of 3rd Example. 第3実施例における予測タツプ例を示す略線図である。It is a basic diagram which shows the example of a prediction tap in 3rd Example. 第4実施例によるクラス分類部の構成を示すブロツク図である。It is a block diagram which shows the structure of the class classification | category part by 4th Example. 第4実施例における動きクラス形成動作の説明に供する略線図である。It is a basic diagram with which it uses for description of the movement class formation operation | movement in 4th Example. 第5実施例によるアツプコンバータの構成を示すブロツク図である。It is a block diagram which shows the structure of the up converter by 5th Example. SD画素とHD画素との位置関係を示す略線図である。It is a basic diagram which shows the positional relationship of SD pixel and HD pixel. 第5実施例において動きクラス分類に用いられるSD画素を示す略線図である。It is a basic diagram which shows SD pixel used for a motion class classification | category in 5th Example. 第5実施例のクラス分類画素選択部によつて選択されるクラス分類用タツプパターンを示す略線図である。It is a basic diagram which shows the tap pattern for class classification selected by the class classification pixel selection part of 5th Example. 第5実施例のクラス分類画素選択部によつて選択されるクラス分類用タツプパターンを示す略線図である。It is a basic diagram which shows the tap pattern for class classification selected by the class classification pixel selection part of 5th Example. 第5実施例における予測タツプパターンを示す略線図である。It is a basic diagram which shows the prediction tap pattern in 5th Example. 第5実施例による学習回路の構成を示すブロツク図である。It is a block diagram which shows the structure of the learning circuit by 5th Example. 第6実施例によるアツプコンバータの構成を示すブロツク図である。It is a block diagram which shows the structure of the up converter by 6th Example. 第6実施例による学習回路の構成を示すブロツク図である。It is a block diagram which shows the structure of the learning circuit by 6th Example. 第6実施例の予測演算画素選択部によつて選択される予測タツプパターンを示す略線図である。It is a basic diagram which shows the prediction tap pattern selected by the prediction calculation pixel selection part of 6th Example. 第6実施例の予測演算画素選択部によつて選択される予測タツプパターンを示す略線図である。It is a basic diagram which shows the prediction tap pattern selected by the prediction calculation pixel selection part of 6th Example. 第6実施例の予測演算画素選択部によつて選択される予測タツプパターンを示す略線図である。It is a basic diagram which shows the prediction tap pattern selected by the prediction calculation pixel selection part of 6th Example. 第7実施例によるアツプコンバータの構成を示すブロツク図である。It is a block diagram which shows the structure of the up converter by 7th Example. 第7実施例による学習回路の構成を示すブロツク図である。It is a block diagram which shows the structure of the learning circuit by 7th Example. 従来の説明に供するSD画素とHD画素の空間配置例を示す略線図である。It is a basic diagram which shows the example of spatial arrangement | positioning of SD pixel and HD pixel with which it uses for the conventional description. 従来の2次元ノンセパラブル補間フイルタの構成を示すブロツク図である。It is a block diagram which shows the structure of the conventional two-dimensional non-separable interpolation filter. 従来の水平/垂直セパラブル補間フイルタの構成を示すブロツク図である。It is a block diagram which shows the structure of the conventional horizontal / vertical separable interpolation filter. クラス分類適応処理を用いたアツプコンバータの構成を示すブロツク図である。It is a block diagram which shows the structure of the up converter using a class classification adaptive process. クラス分類用タツプ及び予測タツプの配置例を示す略線図である。It is a basic diagram which shows the example of arrangement | positioning of the tap for classification, and a prediction tap. 予測係数学習処理手順を示すフローチヤートである。It is a flow chart showing a prediction coefficient learning processing procedure. 予測係数を求める学習回路の構成を示すブロツク図である。It is a block diagram which shows the structure of the learning circuit which calculates | requires a prediction coefficient.

符号の説明Explanation of symbols

1、5、10、30、100、140、160……アツプコンバータ、11、23、31、41、60、70、90、101、141、161……クラス分類部、12、84、102、142、162……予測演算部、13、32、82、99、103、143、163……予測係数ROM、20、40、120、150、170……学習回路、24、124、151、171……係数算出回路、50、61、71、91……第1のクラス分類手段、52……動きベクトルクラス検出部、53、64、107……クラス分類画素選択手段、54A〜54H……パターン設定部、55……クラスタツプ選択部、56、68、80、108……ADRCクラス分類部(第2のクラス分類手段)、63……動き検出部、72、92……次段クラス分類部、110……予測演算画素選択手段、D1……入力SD画像データ、D2、D32、CLASS10 、CLASS12 、……クラスコード、D3……予測係数データ、D4、D33……HD補間画素データ、D5、D34……HD画像データ、CLASS0、CLASS2、CLASS4、CLASS6、CLASS8′……動きクラスコード、CLASS1、CLASS3、CLASS5、CLASS7、CLASS9、CLASS11 ′……ADRCクラスコード。
1, 5, 10, 30, 100, 140, 160... Upconverter, 11, 23, 31, 41, 60, 70, 90, 101, 141, 161... Class classification unit, 12, 84, 102, 142 , 162... Prediction calculation unit, 13, 32, 82, 99, 103, 143, 163... Prediction coefficient ROM, 20, 40, 120, 150, 170... Learning circuit, 24, 124, 151, 171. Coefficient calculation circuit, 50, 61, 71, 91... First class classification means, 52... Motion vector class detection section, 53, 64, 107... Class classification pixel selection means, 54A to 54H. , 55... Cluster top selection unit, 56, 68, 80, 108... ADRC class classification unit (second class classification means) 63... Motion detection unit, 72, 92. 110, prediction calculation pixel selection means, D1, input SD image data, D2, D32, CLASS10, CLASS12, class code, D3, prediction coefficient data, D4, D33, HD interpolation pixel data, D5 , D34 ... HD image data, CLASS0, CLASS2, CLASS4, CLASS6, CLASS8 '... Movement class code, CLASS1, CLASS3, CLASS5, CLASS7, CLASS9, CLASS11' ... ADRC class code.

Claims (5)

第1の入力画像信号を当該第1の入力画像信号とは異なる第2の画像信号に変換する画像信号変換のための係数を生成する係数生成装置において、
第1の学習用画像信号における注目画素周辺の動きを検出する動き検出部と、
上記動き検出部で検出される動きに基づいて上記第1の学習用画像信号における複数の画素を選択するクラス分類画素選択部と、
上記クラス分類画素選択部で選択された複数の画素のパターンに基づいて上記注目画素のクラスを決定するクラス決定部と、
上記クラス毎に、上記第1の学習用画像信号における上記注目画素周辺の複数の画素と、上記第1の学習用画像信号に対応し上記第1の学習用画像信号と異なる第2の学習用画像信号の対応する画素とを用いて演算を行い、当該クラス毎に係数を算出する係数算出部と、
上記係数算出部で算出された上記係数を上記クラス毎に記憶させる係数記憶部と
を具えることを特徴とする係数生成装置。
In a coefficient generation device that generates a coefficient for image signal conversion for converting a first input image signal into a second image signal different from the first input image signal,
A motion detector for detecting motion around the pixel of interest in the first learning image signal;
A classification pixel selection unit that selects a plurality of pixels in the first learning image signal based on the motion detected by the motion detection unit;
A class determination unit that determines a class of the pixel of interest based on a pattern of a plurality of pixels selected by the class classification pixel selection unit;
For each class, a plurality of pixels around the target pixel in the first learning image signal, and a second learning image corresponding to the first learning image signal and different from the first learning image signal A coefficient calculation unit that performs calculation using corresponding pixels of the image signal and calculates a coefficient for each class;
A coefficient generation apparatus comprising: a coefficient storage unit that stores the coefficient calculated by the coefficient calculation unit for each class.
上記クラス決定部は、
更に、上記動き検出部からの動きにも基づいて上記クラスを決定するようになされている
ことを特徴とする請求項1に記載の係数生成装置。
The class decision part
The coefficient generation apparatus according to claim 1, wherein the class is determined based on a motion from the motion detection unit.
上記第1の学習用画像信号は、上記第2の画像信号に基づいて生成され、
上記第1の学習用画像信号は、上記第2の画像信号よりも低い解像度の画像信号である
ことを特徴とする請求項1に記載の係数生成装置。
The first learning image signal is generated based on the second image signal,
The coefficient generation apparatus according to claim 1, wherein the first learning image signal is an image signal having a resolution lower than that of the second image signal.
上記第1の学習用画像信号は、上記第2の画像信号に基づいて生成され、
上記第1の学習用画像信号は、上記第2の画像信号より画素数の少ない画像信号である
ことを特徴とする請求項1に記載の係数生成装置。
The first learning image signal is generated based on the second image signal,
The coefficient generation apparatus according to claim 1, wherein the first learning image signal is an image signal having a smaller number of pixels than the second image signal.
第1の入力画像信号を当該第1の入力画像信号とは異なる第2の画像信号に変換する画像信号変換のための係数を生成する係数生成方法において、
第1の学習用画像信号における注目位置周辺の動きを検出する動き検出工程と、
上記動き検出工程で検出される動きに基づいて上記第1の学習用画像信号における複数の画素を選択するクラス分類画素選択工程と、
上記クラス分類画素選択部で選択された複数の画素のパターンに基づいて上記注目位置のクラスを決定するクラス決定工程と、
上記クラス毎に、上記第1の学習用画像信号における上記注目位置周辺の複数の画素と、上記第1の学習用画像信号に対応し上記第1の学習用画像信号と異なる第2の学習用画像信号の対応する画素とを用いて演算を行い、当該クラス毎に係数を算出する係数算出工程と、
上記係数算出工程で算出された上記係数を上記クラス毎に記憶させる係数記憶工程と
を具えることを特徴とする係数生成方法。
In a coefficient generation method for generating a coefficient for image signal conversion for converting a first input image signal into a second image signal different from the first input image signal,
A motion detection step of detecting a motion around the target position in the first learning image signal;
A class classification pixel selection step of selecting a plurality of pixels in the first learning image signal based on the motion detected in the motion detection step;
A class determining step for determining a class of the target position based on a pattern of a plurality of pixels selected by the class-categorized pixel selection unit;
For each class, a plurality of pixels around the target position in the first learning image signal, and a second learning image corresponding to the first learning image signal and different from the first learning image signal A coefficient calculation step of performing calculation using corresponding pixels of the image signal and calculating a coefficient for each class;
And a coefficient storage step of storing the coefficient calculated in the coefficient calculation step for each class.
JP2005017176A 1995-06-30 2005-01-25 Coefficient generation apparatus and coefficient generation method Expired - Fee Related JP4016139B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005017176A JP4016139B2 (en) 1995-06-30 2005-01-25 Coefficient generation apparatus and coefficient generation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP18847295 1995-06-30
JP2005017176A JP4016139B2 (en) 1995-06-30 2005-01-25 Coefficient generation apparatus and coefficient generation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP14095696A Division JP3669530B2 (en) 1995-06-30 1996-05-10 Image signal conversion apparatus and image signal conversion method

Publications (2)

Publication Number Publication Date
JP2005151603A true JP2005151603A (en) 2005-06-09
JP4016139B2 JP4016139B2 (en) 2007-12-05

Family

ID=34702598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005017176A Expired - Fee Related JP4016139B2 (en) 1995-06-30 2005-01-25 Coefficient generation apparatus and coefficient generation method

Country Status (1)

Country Link
JP (1) JP4016139B2 (en)

Also Published As

Publication number Publication date
JP4016139B2 (en) 2007-12-05

Similar Documents

Publication Publication Date Title
US5946044A (en) Image signal converting method and image signal converting apparatus
JP3669530B2 (en) Image signal conversion apparatus and image signal conversion method
KR100465559B1 (en) Signal conversion apparatus and signal conversion method
JP3590996B2 (en) Hierarchical encoding and decoding apparatus for digital image signal
JP3781203B2 (en) Image signal interpolation apparatus and image signal interpolation method
KR20010013198A (en) Method and apparatus for performing hierarchical motion estimation using nonlinear pyramid
US5966183A (en) Signal converter and signal conversion method
US5940539A (en) Motion vector detecting apparatus and method
US7679678B2 (en) Data processing device and method, and recording medium and program
JP3859089B2 (en) Signal conversion apparatus and signal conversion method
JP3946781B2 (en) Image information conversion apparatus and method
JP4016138B2 (en) Image signal conversion apparatus and image signal conversion method
JP3743077B2 (en) Image signal conversion apparatus and method
JP4016140B2 (en) Coefficient generation apparatus and coefficient generation method
JP4016139B2 (en) Coefficient generation apparatus and coefficient generation method
JP3703034B2 (en) Image signal processing method and image signal transmission apparatus
JP3671469B2 (en) Prediction coefficient learning method and signal conversion apparatus and method
JP3747970B2 (en) Image encoding device, image encoding method, image decoding device, and image decoding method
JP3759538B2 (en) Image signal processing method and image signal transmission apparatus
JP4085396B2 (en) Learning apparatus and learning method
JP3693187B2 (en) Signal conversion apparatus and signal conversion method
JP4337186B2 (en) Image information conversion apparatus, image information conversion method, learning apparatus, and learning method
JPH08322041A (en) Block distortion eliminator
US8228995B2 (en) Image processing apparatus, image processing method, and program
JPH0851598A (en) Image information converter

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100928

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110928

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110928

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120928

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130928

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees