JP2000244879A - Image information conversion device and method - Google Patents
Image information conversion device and methodInfo
- Publication number
- JP2000244879A JP2000244879A JP4325699A JP4325699A JP2000244879A JP 2000244879 A JP2000244879 A JP 2000244879A JP 4325699 A JP4325699 A JP 4325699A JP 4325699 A JP4325699 A JP 4325699A JP 2000244879 A JP2000244879 A JP 2000244879A
- Authority
- JP
- Japan
- Prior art keywords
- class
- conversion
- data
- converted
- conversion rule
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Television Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、例えば、テレビ
ジョン受像機に用いて好適な画像情報変換装置および方
法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image information conversion apparatus and method suitable for use in, for example, a television receiver.
【0002】[0002]
【従来の技術】入力画像信号を線形補間処理して、垂直
方向の画素数(ライン数)を2倍とする画像処理装置が
知られている。このような画像処理装置は、例えばイン
ターレス方式をプログレッシブ方式に変換するのに適用
できる。この変換は、インターレス方式であることに起
因するラインフリッカを軽減するためになされる。例え
ばグラフィックスの画像では、ラインフリッカが目立つ
問題があり、グラフィックス画像を表示する時には、イ
ンターレス方式よりもプログレッシブ方式の方が高画質
とできる。2. Description of the Related Art There has been known an image processing apparatus which linearly interpolates an input image signal to double the number of pixels (the number of lines) in a vertical direction. Such an image processing apparatus can be applied to, for example, converting an interlace system to a progressive system. This conversion is performed to reduce line flicker caused by the interlace system. For example, in a graphics image, there is a problem that line flicker is conspicuous. When displaying a graphics image, the progressive system can achieve higher image quality than the interlace system.
【0003】従来のこの種の画像情報変換装置は、入力
される例えば525i信号(走査線525本のインター
レス方式の信号)を動き判定処理し、動きがない場合に
は、フレーム間補間を行い、動きがある場合には、フィ
ールド内補間を行うようにしている。フィールド間補間
は、前フィールドのラインの信号を使用して新たなライ
ンの信号を形成し、フィールド内補間は、同一フィール
ドの上下のラインの信号の平均値により新たなラインの
信号を形成する。A conventional image information conversion apparatus of this type performs a motion determination process on an input 525i signal (interlaced signal of 525 scanning lines), and performs inter-frame interpolation when there is no motion. If there is motion, intra-field interpolation is performed. The inter-field interpolation forms a signal of a new line using the signal of the line of the previous field, and the intra-field interpolation forms a signal of the new line by averaging the signals of the upper and lower lines of the same field.
【0004】従来の画像情報変換装置は、入力画像信号
を基にして、単に垂直方向の補間を行っているに過ぎな
いため、解像度は基となるSD信号より高くならない。
また、平均値で作成されたラインは、現存ラインと比較
して垂直解像度が劣化しているために、現存ラインと補
間ラインとの間で、解像度の差が目立つ問題がある。さ
らに、画像信号にノイズがある場合、上下ラインの平均
値を用いた場合には、ランダムノイズを足し合わせるこ
とになり、作成ラインでノイズが減少することになる。
この結果、ノイズが減少した作成ラインと、そうでない
現存ラインとが交互に現れることになり、画質劣化が生
じる。さらに、動き検出の結果に基づいて補間方法(静
止画処理と動画処理)を切り替える時に、動き検出を誤
った時に、画質の劣化が大きい問題があった。The conventional image information conversion device merely performs vertical interpolation on the basis of an input image signal, so that the resolution does not become higher than that of the base SD signal.
Also, the line created with the average value has a problem that the difference in resolution between the existing line and the interpolation line is noticeable because the vertical resolution is deteriorated as compared with the existing line. Furthermore, when there is noise in the image signal, and when the average value of the upper and lower lines is used, random noise is added, and noise is reduced in the created line.
As a result, the created line in which the noise has been reduced and the existing line in which the noise has been reduced appear alternately, and the image quality deteriorates. Further, there is a problem that when the interpolation method (still image processing and moving image processing) is switched based on the result of the motion detection, the image quality is greatly deteriorated when the motion detection is erroneous.
【0005】また、空間解像度を高くするのに限らず、
時間方向の解像度を高くすることもある。例えばフィー
ルド周波数を元の画像信号の2倍とするフィールド倍速
化の処理がフィールドフリッカを減少させるために行わ
れることがある。従来のフィールド倍速化の処理は、フ
ィールドメモリを使用して、同一のフィールドを2回読
出すものであった。従って、フリッカを低減できるとし
ても、時間方向の解像度を高くすることができない。[0005] In addition to increasing the spatial resolution,
The resolution in the time direction may be increased. For example, a field doubling process of setting the field frequency to twice the original image signal may be performed to reduce field flicker. In the conventional field doubling process, the same field is read twice using a field memory. Therefore, even if flicker can be reduced, the resolution in the time direction cannot be increased.
【0006】このような従来の画像情報変換装置の問題
点を解決するために、本願出願人は、既にクラス分類適
応処理に基づく画像情報変換装置を提案している。以
下、先に提案されている画像情報変換装置について説明
する。In order to solve such a problem of the conventional image information conversion apparatus, the present applicant has already proposed an image information conversion apparatus based on a classification adaptive processing. Hereinafter, the previously proposed image information conversion device will be described.
【0007】クラス分類適応処理は、従来の補間処理に
よって高解像度信号を形成するものと異なる。すなわ
ち、クラス分類適応処理は、入力信号である映像信号レ
ベルの3次元(時空間)分布に応じてクラス分割を行
い、クラス毎に予め学習により獲得された予測係数値を
格納した記憶手段を持ち、予測式に基づいた演算により
最適な推定値を出力する方式であり、クラス分類適応処
理によって、解像度を入力映像信号のもの以上に高める
ことが可能である。[0007] The class adaptation process is different from the process of forming a high resolution signal by the conventional interpolation process. That is, the class classification adaptive processing has storage means for performing class division according to a three-dimensional (spatio-temporal) distribution of a video signal level as an input signal and storing a prediction coefficient value obtained by learning in advance for each class. This is a method of outputting an optimum estimated value by an operation based on a prediction formula, and the resolution can be increased to be higher than that of the input video signal by the class classification adaptive processing.
【0008】図16は、従来の画像情報変換装置の全体
の構成を概略的に示す。図16において、100は、学
習部であり、200がデータ変換部である。学習部10
0は、生徒データと教師データとを受け取り、データ変
換ルールとしての予測係数を算出する。この予測係数と
入力データとがデータ変換部200に入力され、データ
変換部200から変換後の出力データが得られる。例え
ば垂直方向のライン数を2倍とする画像情報変換を行う
時には、教師データが2倍のライン数の画像データであ
り、生徒データが教師データと同一画像であって、1倍
のライン数の画像データである。FIG. 16 schematically shows the entire configuration of a conventional image information conversion apparatus. In FIG. 16, 100 is a learning unit, and 200 is a data conversion unit. Learning unit 10
0 receives the student data and the teacher data, and calculates a prediction coefficient as a data conversion rule. The prediction coefficient and the input data are input to the data conversion unit 200, and output data after conversion is obtained from the data conversion unit 200. For example, when performing image information conversion in which the number of lines in the vertical direction is doubled, the teacher data is image data having twice the number of lines, the student data is the same image as the teacher data, and the number of lines is one. Image data.
【0009】図17は、処理の全体的流れを示す。ま
ず、クラス分類の結果別に学習を行い、データ変換ルー
ルを作成する(ステップS100)。これは、学習部1
00によりなされる処理である。次に、クラス分類の結
果に対応するデータ変換ルールを用いてデータ変換を行
う(ステップS200)。これは、データ変換部200
によりなされる処理である。FIG. 17 shows an overall flow of the processing. First, learning is performed for each result of the class classification, and a data conversion rule is created (step S100). This is learning unit 1
This is a process performed by 00. Next, data conversion is performed using a data conversion rule corresponding to the result of the classification (step S200). This is because the data conversion unit 200
This is the process performed by
【0010】図18は、学習部100の構成を示す。生
徒データがクラス分類回路101に供給され、生徒デー
タの複数の画素値(クラスタップ)のレベル分布に対応
してクラスが決定される。クラスが学習回路102に供
給される。学習回路102には、生徒データおよび教師
データが供給され、予測係数算出回路103によって、
予測係数が決定される。学習回路102および予測係数
算出回路103は、最小自乗法によって予測係数を求め
る。この場合、クラス毎に予測係数が算出される。FIG. 18 shows the configuration of the learning section 100. The student data is supplied to the class classification circuit 101, and a class is determined according to the level distribution of a plurality of pixel values (class taps) of the student data. The class is supplied to the learning circuit 102. Student data and teacher data are supplied to the learning circuit 102, and the prediction coefficient calculation circuit 103
A prediction coefficient is determined. The learning circuit 102 and the prediction coefficient calculation circuit 103 obtain prediction coefficients by the least square method. In this case, a prediction coefficient is calculated for each class.
【0011】図19は、学習部100の処理の流れを示
す。まず、生徒データと教師データとが入力される(ス
テップS101)。生徒データをクラス分類する(ステ
ップS102)。クラス分類の結果別に学習を行う(ス
テップS103)。最小自乗法を使用するので、正規化
マトリクスに予測タップの画素値と真値とを足し込む。
学習が一般性を持つために、充分な量のデータが使用さ
れる。生徒データと教師データが終了したかどうかがス
テップS104で決定され、終了した場合には、ステッ
プS105において、学習結果(正規化マトリクスのデ
ータ)からマトリクス解法を用いてクラス分類の結果別
に予測係数を算出する。FIG. 19 shows the flow of processing of the learning section 100. First, student data and teacher data are input (step S101). The student data is classified into classes (step S102). Learning is performed for each result of the class classification (step S103). Since the least squares method is used, the pixel value of the prediction tap and the true value are added to the normalization matrix.
A sufficient amount of data is used so that the learning is general. It is determined in step S104 whether or not the student data and the teacher data have been completed. If the data has been completed, in step S105, a prediction coefficient is calculated for each class classification result from the learning result (normalized matrix data) using a matrix solution. calculate.
【0012】図20は、データ変換部200の構成を示
す。入力データがクラス分類回路201およびデータ変
換回路202に供給される。クラス分類回路201は、
入力データのクラスタップのレベル分布に基づいてクラ
ス分類を行う。クラス分類の結果がデータ変換回路20
2に供給される。データ変換回路202は、クラスに対
応する予測係数と入力データの複数の画素値(予測タッ
プ)を使用して、出力データの画素値を作成する。すな
わち、予測係数と予測タップの線形1次結合によって、
出力画素値を作成する。予測係数は、学習により求めた
ものであり、実際には、メモリに格納される。FIG. 20 shows the configuration of the data converter 200. The input data is supplied to a class classification circuit 201 and a data conversion circuit 202. The classification circuit 201
Classification is performed based on the level distribution of the class taps of the input data. The result of the class classification is the data conversion circuit 20
2 is supplied. The data conversion circuit 202 creates a pixel value of the output data using the prediction coefficient corresponding to the class and a plurality of pixel values (prediction taps) of the input data. That is, by a linear linear combination of the prediction coefficient and the prediction tap,
Create output pixel values. The prediction coefficient is obtained by learning, and is actually stored in a memory.
【0013】図21は、データ変換部200の処理の流
れを示す。まず、入力データを入力する(ステップS2
01)。次に、入力データをクラス分類する(ステップ
S202)。そして、予め学習によって求めている、ク
ラス分類の結果に対応する予測係数と、予測タップの線
形1次結合によってデータを作成する(ステップS20
3)。作成したデータを出力する(ステップS20
4)。FIG. 21 shows a flow of processing of the data conversion section 200. First, input data is input (step S2).
01). Next, the input data is classified into classes (step S202). Then, data is created by a linear combination of a prediction coefficient corresponding to the result of the class classification and a prediction tap, which are obtained in advance by learning (step S20).
3). Output the created data (Step S20)
4).
【0014】[0014]
【発明が解決しようとする課題】上述したクラス分類適
応処理を使用する画像情報変換装置および方法は、変換
精度を向上させるためには、クラス数を増加させること
が効果的である。しかしながら、クラス数を増やすと、
予測係数の個数が増加する。このことは、データ変換処
理時間の増大、予測係数を格納するメモリの容量の増大
を招く問題がある。In the image information conversion apparatus and method using the above-described classification adaptive processing, it is effective to increase the number of classes in order to improve the conversion accuracy. However, if you increase the number of classes,
The number of prediction coefficients increases. This causes a problem that the data conversion processing time increases and the capacity of the memory for storing the prediction coefficients increases.
【0015】従って、この発明の目的は、クラス数を増
加させずに、精度の高い変換を行うことが可能な画像情
報変換装置および方法を提供することにある。Accordingly, an object of the present invention is to provide an image information conversion apparatus and method capable of performing high-accuracy conversion without increasing the number of classes.
【0016】[0016]
【課題を解決するための手段】上述した課題を達成する
ために、請求項1の発明は、教師データと、教師データ
と同一の画像で且つ教師データより画素数の少ない生徒
データとの間のデータ変換ルールを学習する画像情報変
換ルール学習装置において、教師データの所定の画素位
置の周辺に位置する生徒データの複数の第1の画素に基
づいて、クラス情報を形成し、予め取得されているクラ
ス変換ルールに従って、クラス情報を変換することによ
って、変換後クラスを出力するクラス変換部と、変換後
クラス毎に、教師データの所定の画素位置の周辺に位置
する生徒データの複数の第2の画素と複数の予測係数と
の線形1次結合によって、教師データの所定の画素位置
の真値を予測した時に、誤差を最小とする予測係数を学
習するための学習部とからなり、クラス変換ルールは、
N個のクラス情報をM個の変換後クラスに変換するテー
ブルであり、予め取得されていることを特徴とする画像
情報変換ルール学習装置である。In order to achieve the above-mentioned object, the invention according to claim 1 provides a method for connecting teacher data to student data having the same image as the teacher data and having a smaller number of pixels than the teacher data. In an image information conversion rule learning device that learns a data conversion rule, class information is formed based on a plurality of first pixels of student data located around a predetermined pixel position of teacher data, and is acquired in advance. A class conversion unit that outputs the converted class by converting the class information according to the class conversion rule, and a plurality of second data of the student data located around a predetermined pixel position of the teacher data for each converted class. Learning for learning a prediction coefficient that minimizes an error when a true value at a predetermined pixel position of teacher data is predicted by linear linear combination of a pixel and a plurality of prediction coefficients. It consists of a, class conversion rules,
This is a table for converting N class information into M converted classes, and is an image information conversion rule learning device that is acquired in advance.
【0017】請求項2の発明は、入力画像信号中に存在
しない画素を生成するようにした画像情報変換装置にお
いて、生成しようとする画素位置の周辺に位置する入力
画像信号の複数の第1の画素に基づいて、クラス情報を
形成し、予め取得されているクラス変換ルールに従っ
て、クラス情報を変換することによって、変換後クラス
を出力するクラス変換部と、変換後クラスと、画素位置
の周辺に位置する入力画像信号の複数の第2の画素と、
変換クラス毎に予め取得されている予測係数とが入力さ
れ、第2の画素と予測係数との線形推定式によって、画
素を生成するデータ変換部とからなり、クラス変換ルー
ルは、N個のクラス情報をM個の変換後クラスに変換す
るテーブルであり、予め取得されていることを特徴とす
る画像情報変換装置である。According to a second aspect of the present invention, there is provided an image information converting apparatus for generating a pixel which does not exist in an input image signal, wherein a plurality of first image signals of the input image signal located around a pixel position to be generated are provided. Based on the pixels, the class information is formed, and the class information is converted according to a class conversion rule acquired in advance, thereby outputting a converted class. A plurality of second pixels of the input image signal located;
A prediction coefficient obtained in advance for each conversion class is input, and a data conversion unit that generates a pixel by a linear estimation expression of the second pixel and the prediction coefficient is included. It is a table for converting information into M converted classes, and is an image information conversion device that is acquired in advance.
【0018】請求項4の発明は、教師データと、教師デ
ータと同一の画像で且つ教師データより画素数の少ない
生徒データとの間のデータ変換ルールを学習する画像情
報変換ルール学習方法において、教師データの所定の画
素位置の周辺に位置する生徒データの複数の第1の画素
に基づいて、クラス情報を形成し、予め取得されている
クラス変換ルールに従って、クラス情報を変換すること
によって、変換後クラスを出力するクラス変換のステッ
プと、変換後クラス毎に、教師データの所定の画素位置
の周辺に位置する生徒データの複数の第2の画素と複数
の予測係数との線形1次結合によって、教師データの所
定の画素位置の真値を予測した時に、誤差を最小とする
予測係数を学習するための学習のステップとからなり、
クラス変換ルールは、N個のクラス情報をM個の変換後
クラスに変換するテーブルであり、予め取得されている
ことを特徴とする画像情報変換ルール学習方法である。According to a fourth aspect of the present invention, there is provided an image information conversion rule learning method for learning a data conversion rule between teacher data and student data having the same image as the teacher data and having a smaller number of pixels than the teacher data. The class information is formed based on a plurality of first pixels of the student data located around a predetermined pixel position of the data, and the class information is converted according to a previously obtained class conversion rule. By performing a class conversion step of outputting a class and, for each converted class, a linear linear combination of a plurality of second pixels of the student data located around a predetermined pixel position of the teacher data and a plurality of prediction coefficients, A learning step for learning a prediction coefficient that minimizes an error when predicting a true value of a predetermined pixel position of the teacher data;
The class conversion rule is a table for converting N class information into M converted classes, and is an image information conversion rule learning method characterized by being acquired in advance.
【0019】請求項5の発明は、入力画像信号中に存在
しない画素を生成するようにした画像情報変換方法にお
いて、生成しようとする画素位置の周辺に位置する入力
画像信号の複数の第1の画素に基づいて、クラス情報を
形成し、予め取得されているクラス変換ルールに従っ
て、クラス情報を変換することによって、変換後クラス
を出力するクラス変換のステップと、変換後クラスと、
画素位置の周辺に位置する入力画像信号の複数の第2の
画素と、変換クラス毎に予め取得されている予測係数と
が入力され、第2の画素と予測係数との線形推定式によ
って、画素を生成するデータ変換のステップとからな
り、クラス変換ルールは、N個のクラス情報をM個の変
換後クラスに変換するテーブルであり、予め取得されて
いることを特徴とする画像情報変換方法である。According to a fifth aspect of the present invention, in the image information conversion method for generating a pixel not existing in the input image signal, a plurality of first image signals of the input image signal located around the pixel position to be generated are provided. Based on the pixels, form the class information, according to a class conversion rule acquired in advance, by converting the class information, the step of class conversion to output a converted class, after the conversion class,
A plurality of second pixels of the input image signal located around the pixel position and a prediction coefficient obtained in advance for each conversion class are input, and a pixel is estimated by a linear estimation expression of the second pixel and the prediction coefficient. The class conversion rule is a table for converting the N class information into the M converted classes, and is obtained in advance by the image information conversion method. is there.
【0020】この発明では、クラス情報を予め作成され
たクラス変換ルールに従ってより少ないクラスに変換
し、変換後クラスを使用して、学習およびデータ変換の
処理を行う。従って、クラス数を少なくしても、クラス
分類の精度を向上することができる。According to the present invention, the class information is converted into a smaller number of classes in accordance with a class conversion rule created in advance, and learning and data conversion are performed using the converted class. Therefore, even if the number of classes is reduced, the accuracy of class classification can be improved.
【0021】[0021]
【発明の実施の形態】以下、この発明の一実施形態につ
いて説明する。図1は、この発明による画像情報変換装
置の全体の構成を概略的に示す。図1において、10が
クラス変換ルール作成部であり、20が学習部であり、
30がデータ変換部である。図2は、一実施形態の処理
の全体的流れを示す。まず、いくつかの入力データから
クラス変換ルールを作成する(ステップS10)。これ
は、クラス変換ルール作成部10によりなされる処理で
ある。次に、クラス分類を行い、クラス分類の結果をク
ラス変換ルールに従って変換した結果別に学習を行い、
予測係数を算出する(ステップS20)。これは、学習
部20によりなされる処理である。次に、クラス分類の
結果をクラス変換ルールに従って変換した結果に対応す
る予測係数を用いてデータ変換を行う(ステップS3
0)。これは、データ変換部30によりなされる処理で
ある。なお、ブロック図で表される構成と、フローチャ
ートで表される処理との両方について説明するのは、ハ
ードウエアおよびソフトウェアの何れによっても実現で
きることを意味する。以下の説明においても同様であ
る。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below. FIG. 1 schematically shows the entire configuration of an image information conversion device according to the present invention. In FIG. 1, 10 is a class conversion rule creation unit, 20 is a learning unit,
30 is a data conversion unit. FIG. 2 shows the overall flow of the processing of one embodiment. First, a class conversion rule is created from some input data (step S10). This is a process performed by the class conversion rule creating unit 10. Next, class classification is performed, and learning is performed for each result obtained by converting the result of the class classification according to the class conversion rule.
A prediction coefficient is calculated (Step S20). This is a process performed by the learning unit 20. Next, data conversion is performed using a prediction coefficient corresponding to a result obtained by converting the result of the class classification according to the class conversion rule (step S3).
0). This is a process performed by the data conversion unit 30. Note that the description of both the configuration shown in the block diagram and the processing shown in the flowchart means that it can be realized by either hardware or software. The same applies to the following description.
【0022】図3は、クラス変換ルール作成部10の構
成を示す。生徒データがクラス分類回路11に供給さ
れ、生徒データの複数の画素値(クラスタップ)のレベ
ル分布に対応してクラスが決定される。クラスがクラス
変換ルール作成回路12に供給され、クラス変換ルール
が作成される。FIG. 3 shows the configuration of the class conversion rule creating unit 10. The student data is supplied to the class classification circuit 11, and the class is determined according to the level distribution of a plurality of pixel values (class taps) of the student data. The class is supplied to the class conversion rule creation circuit 12, and a class conversion rule is created.
【0023】図4は、クラス変換ルール作成部10の処
理の流れを示す。最初に入力データを入力する(ステッ
プS11)。次に、この入力データをクラス分類する
(ステップS12)。クラス分類の結果を記憶する(ス
テップS13)。入力データが終了したかどうかがステ
ップS14で調べられる。入力データが終了していない
ならば、ステップS11に戻り、ステップS12、S1
3、S14によってクラス分類処理がなされる。入力デ
ータが終了した場合には、クラス分類の結果からクラス
変換ルールが作成される(ステップS15)。クラス変
換ルールは、入力データのクラス分類の結果を別のクラ
スへ変換するルールである。クラス変換を行うことによ
って、精度を低下させることなく、クラス数を減少させ
ることができる。FIG. 4 shows the flow of the process of the class conversion rule creating section 10. First, input data is input (step S11). Next, the input data is classified into classes (step S12). The result of the class classification is stored (step S13). It is checked in step S14 whether the input data has been completed. If the input data has not been completed, the process returns to step S11 and returns to steps S12 and S1.
3. Classification processing is performed in S14. When the input data is completed, a class conversion rule is created from the result of the class classification (step S15). The class conversion rule is a rule for converting the result of the classification of the input data into another class. By performing the class conversion, the number of classes can be reduced without lowering the accuracy.
【0024】図5は、学習部20の構成を示す。生徒デ
ータがクラス分類回路21に供給され、生徒データの複
数の画素値(クラスタップ)のレベル分布に対応してク
ラスが決定される。クラス分類結果がクラス変換回路2
2に供給される。クラス変換回路22において、クラス
変換ルールに従ってクラス分類結果がより少ない数のク
ラス分類結果へ変換される。変換後のクラス分類結果を
変換後クラスと称する。クラス変換回路22によって、
例えばクラス分類回路21の結果が17ビットであった
のが、クラス変換回路22によって11ビットへ変換さ
れる。FIG. 5 shows the configuration of the learning section 20. The student data is supplied to the class classification circuit 21, and the class is determined according to the level distribution of a plurality of pixel values (class taps) of the student data. Class classification result is class conversion circuit 2
2 is supplied. In the class conversion circuit 22, the classification result is converted into a smaller number of classification results according to the class conversion rule. The converted class classification result is called a converted class. By the class conversion circuit 22,
For example, the result of the class classification circuit 21 having 17 bits is converted into 11 bits by the class conversion circuit 22.
【0025】生徒データ、教師データおよび変換後クラ
スが学習回路23に供給される。学習回路23と予測係
数算出回路24によって、予測係数が算出される。学習
回路23および予測係数算出回路24は、最小自乗法に
よって予測係数を求める。この場合、変換後のクラス毎
に予測係数が決定される。The student data, the teacher data and the converted class are supplied to the learning circuit 23. The prediction coefficient is calculated by the learning circuit 23 and the prediction coefficient calculation circuit 24. The learning circuit 23 and the prediction coefficient calculation circuit 24 obtain prediction coefficients by the least square method. In this case, a prediction coefficient is determined for each class after conversion.
【0026】図6は、学習部20の処理の流れを示す。
まず、生徒データと教師データとが入力される(ステッ
プS21)。生徒データをクラス分類する(ステップS
22)。クラス変換ルールを使用してクラスを変換する
(ステップS23)。変換後クラス別に学習を行う(ス
テップS24)。最小自乗法を使用するので、正規化マ
トリクスに予測タップの画素値と真値とを足し込む。一
般性を持つ予測係数を得るために、充分な量のデータが
使用されて学習がなされる。生徒データと教師データが
終了したかどうかがステップS25で決定される。終了
していない場合には、ステップS21に戻り、ステップ
S22〜S25の処理が繰り返される。ステップS25
において、生徒データと教師データとが終了した場合に
は、ステップS26において、学習結果(正規化マトリ
クスのデータ)からマトリクス解法を用いて変換後クラ
ス別に予測係数を算出する。FIG. 6 shows a flow of processing of the learning section 20.
First, student data and teacher data are input (step S21). Classify student data (step S
22). The class is converted using the class conversion rule (step S23). Learning is performed for each class after conversion (step S24). Since the least squares method is used, the pixel value of the prediction tap and the true value are added to the normalization matrix. A sufficient amount of data is used and learned to obtain a predictive coefficient with generality. Whether or not the student data and the teacher data have been completed is determined in step S25. If not, the process returns to step S21, and the processes of steps S22 to S25 are repeated. Step S25
In step S26, when the student data and the teacher data are completed, in step S26, a prediction coefficient is calculated for each class after conversion by using a matrix solution from the learning result (normalized matrix data).
【0027】図7は、データ変換部30の構成を示す。
入力データがクラス分類回路31およびデータ変換回路
33に供給される。クラス分類回路31は、入力データ
のクラスタップのレベル分布に基づいてクラス分類を行
う。クラス分類の結果がクラス変換回路32に供給され
る。クラス変換回路32は、学習で得られたクラス変換
ルールに従ってクラスを変換する。クラス分類回路31
およびクラス変換回路32は、学習部20におけるクラ
ス分類回路21およびクラス変換回路22と同一のもの
である。すなわち、クラス分類結果がクラス変換ルール
(クラス変換テーブル)に従ってクラス分類結果がより
少ない数のクラス分類結果へ変換される。FIG. 7 shows the configuration of the data conversion unit 30.
The input data is supplied to the class classification circuit 31 and the data conversion circuit 33. The class classification circuit 31 performs class classification based on the level distribution of the class taps of the input data. The result of the class classification is supplied to the class conversion circuit 32. The class conversion circuit 32 converts a class according to a class conversion rule obtained by learning. Classification circuit 31
The class conversion circuit 32 is the same as the class classification circuit 21 and the class conversion circuit 22 in the learning unit 20. That is, the classification result is converted into a smaller number of classification results according to the class conversion rule (class conversion table).
【0028】クラス変換回路32からの変換後クラスが
データ変換回路33に供給される。データ変換回路33
は、変換後クラスに対応する予測係数と入力データの複
数の画素値(予測タップ)の線形1次結合によって、出
力画素値を作成する。予測係数は、学習により求めたも
のであり、実際には、メモリに格納される。The converted class from the class conversion circuit 32 is supplied to the data conversion circuit 33. Data conversion circuit 33
Creates an output pixel value by a linear linear combination of a prediction coefficient corresponding to the converted class and a plurality of pixel values (prediction taps) of input data. The prediction coefficient is obtained by learning, and is actually stored in a memory.
【0029】図8は、データ変換部30の処理の流れを
示す。まず、入力データを入力する(ステップS3
1)。次に、入力データをクラス分類する(ステップS
32)。得られたクラス分類結果をクラス変換ルールを
使用して変換する(ステップS33)。変換後クラスと
それぞれ対応する予測係数(データ変換ルール)が予め
学習によって求められている。この予測係数と、予測タ
ップの線形1次結合によってデータを作成する(ステッ
プS34)。作成したデータを出力する(ステップS3
5)。FIG. 8 shows the flow of processing of the data conversion unit 30. First, input data is input (step S3).
1). Next, the input data is classified into classes (step S
32). The obtained class classification result is converted using the class conversion rule (step S33). Predicted coefficients (data conversion rules) corresponding to the converted classes are obtained in advance by learning. Data is created by a linear combination of the prediction coefficients and the prediction taps (step S34). Output the created data (step S3
5).
【0030】上述したこの発明の一実施形態についてよ
り詳細に説明する。図9は、クラス変換ルール作成部1
0のより詳細な構成を示す。入力データがクラスタップ
選択回路11aに供給される。入力データとしては、学
習に使用する生徒データが使用される。但し、この生徒
データ以外にクラス変換ルールを作成するためのデータ
を使用しても良い。さらに、入力データとして、異なる
種類の画像を使用し、異なる画像の種類毎に変化ルール
を作成しても良い。その場合には、複数のクラス変換テ
ーブルが作成されるので、テーブルを画像の種類によっ
て切り替える切り替え信号がクラス変換回路22に対し
て供給される。画像の種類は、アニメーション、自然
画、コンピュータグラフィックス、静止画等である。The above-described embodiment of the present invention will be described in more detail. FIG. 9 shows the class conversion rule creation unit 1.
0 shows a more detailed configuration. The input data is supplied to the class tap selection circuit 11a. As input data, student data used for learning is used. However, other than the student data, data for creating a class conversion rule may be used. Further, different types of images may be used as input data, and a change rule may be created for each type of different images. In this case, since a plurality of class conversion tables are created, a switching signal for switching the table according to the type of image is supplied to the class conversion circuit 22. The types of images are animation, natural images, computer graphics, still images, and the like.
【0031】クラスタップ選択回路11aは、例えば図
10において×で示す位置の画素値を作成する時に、そ
の周辺の黒丸で示す入力データの12個の画素を選択す
る。図10には、現フレームとその前後のフレームにそ
れぞれ含まれ、空間的に同一位置の部分的画像が示され
ている。各フレームは、偶数フィールドと奇数フィール
ドとからなる。フィールド周波数が60Hz、フレーム周
波数が30Hzである。図10では、ライン位置に対応す
る線と、クラスタップ(黒丸の画素)と、予測タップ
(黒丸の画素および白丸の画素)のみが示されており、
タップとして使用されない画素の図示が省略されてい
る。The class tap selection circuit 11a selects, for example, 12 pixels of the input data indicated by black circles when creating a pixel value at a position indicated by X in FIG. FIG. 10 shows partial images included in the current frame and the frames before and after the current frame and at the same spatial position. Each frame is composed of an even field and an odd field. The field frequency is 60 Hz and the frame frequency is 30 Hz. FIG. 10 shows only the line corresponding to the line position, the class tap (black circle pixel), and the prediction tap (black circle pixel and white circle pixel).
Illustration of pixels not used as taps is omitted.
【0032】クラスタップおよび予測タップを複数フィ
ールドにまたがって設定することによって、空間的レベ
ル分布に加えて、時間方向の画像変化(すなわち、動
き)の成分をこれらのタップからの画素データが持つこ
とになる。従って、作成される画素の値が動きを反映し
たものとなる。なお、レベル分布のパターンに対応する
空間的クラスを検出する空間クラス検出回路と、動きの
量に対応する動きクラスを検出する動きクラス検出回路
を分離して設け、空間クラスと動きクラスとを合わせた
クラスを形成するしても良い。By setting the class taps and the prediction taps over a plurality of fields, in addition to the spatial level distribution, the pixel data from these taps has a component of a temporal image change (ie, motion). become. Therefore, the value of the created pixel reflects the motion. A space class detection circuit that detects a spatial class corresponding to the level distribution pattern and a motion class detection circuit that detects a motion class corresponding to the amount of motion are provided separately, and the space class and the motion class are combined. Class may be formed.
【0033】クラスタップ選択回路11aにより選択さ
れたクラスタップの画素値が1ビットADRC(Adapti
ve Dynamic Range Coding )回路11bに供給され、例
えば8ビットの各画素値がそれぞれ1ビットへ変換され
る。この処理は、クラス数が膨大となることを防ぐため
になされる。なお、情報圧縮手段としては、ADRC以
外にDPCM(予測符号化)、VQ(ベクトル量子化)
等の圧縮手段を用いても良い。The pixel value of the class tap selected by the class tap selection circuit 11a is 1 bit ADRC (Adapti).
ve Dynamic Range Coding) circuit 11b to convert each pixel value of, for example, 8 bits into 1 bit. This process is performed to prevent the number of classes from becoming enormous. As information compression means, other than ADRC, DPCM (prediction coding), VQ (vector quantization)
Or other compression means.
【0034】本来、ADRCは、VTR(Video Tape R
ecoder)向け高能率符号化用に開発された適応的再量子
化法であるが、信号レベルの局所的なパターンを短い語
長で効率的に表現できるので、この一例では、ADRC
を空間クラス分類のコード発生に使用している。1ビッ
トADRCは、クラスタップのダイナミックレンジをD
R、クラスタップの画素のデータレベルをL、再量子化
コードをQ(0または1)として、以下の式(1)
(2)により、最大値MAXと最小値MINとの間を2
分割して再量子化を行う。Originally, the ADRC is a VTR (Video Tape R)
ecoder) is an adaptive requantization method developed for high-efficiency coding. However, since a local pattern of a signal level can be efficiently represented by a short word length, in this example, ADRC is used.
Is used to generate codes for spatial class classification. The 1-bit ADRC defines the dynamic range of the class tap as D
R, the data level of the pixel of the class tap is L, and the requantization code is Q (0 or 1).
According to (2), the distance between the maximum value MAX and the minimum value MIN is 2
Divide and requantize.
【0035】 DR=MAX−MIN+1 (1) Q={(L−MIN+0.5)×2/DR} (2) ただし、{ }は切り捨て処理を意味する。DR = MAX−MIN + 1 (1) Q = {(L−MIN + 0.5) × 2 / DR} (2) where {} means truncation processing.
【0036】1ビットADRC回路11bからは、クラ
スタップ数に等しいビット数の出力(これをADRCク
ラスと称する)が発生する。ADRCクラスがクラス頻
度データ作成回路12aに供給される。クラス頻度デー
タ作成回路12aは、ADRCクラス番号毎に、出現し
た頻度を集計する。クラス頻度データ作成回路12aの
出力が変換テーブル作成回路12bに供給される。変換
テーブル作成回路12bは、頻度の多い順にADRCク
ラスを並び換え、並び換えられたADRCクラスに対し
て改めてクラス番号(これを頻度クラスと称する)を付
与する。頻度クラスは、変換後クラスに相当する。変換
テーブル作成回路12bによって、ADRCクラスと頻
度クラスとの対応関係を示す変換テーブル(変換ルー
ル)が作成される。The 1-bit ADRC circuit 11b generates an output having a bit number equal to the number of class taps (this is called an ADRC class). The ADRC class is supplied to the class frequency data creation circuit 12a. The class frequency data creation circuit 12a counts the frequency of occurrence for each ADRC class number. The output of the class frequency data creation circuit 12a is supplied to the conversion table creation circuit 12b. The conversion table creation circuit 12b rearranges the ADRC classes in descending order of frequency, and newly assigns a class number (hereinafter referred to as a frequency class) to the rearranged ADRC classes. The frequency class corresponds to the converted class. The conversion table creating circuit 12b creates a conversion table (conversion rule) indicating the correspondence between the ADRC class and the frequency class.
【0037】図11Aは、ADRCクラスの出現頻度の
一例である。一例として、50フレームの画像が入力デ
ータとして使用される。入力データとしては、なるべく
多くの種類の画像が含まれるのが好ましい。各フレーム
の画像に対して、クラスタップが設定される。図10で
は、12画素のクラスタップが設定される例であるが、
図11Aは、17画素のクラスタップの例である。すな
わち、ADRCクラスとしては、217(=131,07
2)通り存在する。図11Aは、横軸がADRCクラス
を表し、縦軸が頻度を正規化した値(%)を表す。正規
化は、入力データの(全フレーム数×画素数(1フレー
ム当たり))でもって、各ADRCクラスの出現頻度を
割ることでなされる。FIG. 11A is an example of the appearance frequency of the ADRC class. As an example, an image of 50 frames is used as input data. It is preferable that the input data include as many types of images as possible. A class tap is set for the image of each frame. FIG. 10 shows an example in which a class tap of 12 pixels is set.
FIG. 11A is an example of a class tap of 17 pixels. That is, as the ADRC class, 2 17 (= 131,07)
There are 2) ways. In FIG. 11A, the horizontal axis represents the ADRC class, and the vertical axis represents the frequency normalized value (%). The normalization is performed by dividing the appearance frequency of each ADRC class by (the total number of frames × the number of pixels (per frame)) of the input data.
【0038】ADRCクラスの出現頻度を高い順に並び
換えることによって、図11Bに示す頻度クラスが得ら
れる。図11Bの横軸は、頻度クラスである。頻度クラ
スは、例えば11ビットであって、2048個のクラス
を表現できる。頻度の高い順に並べられたADRCクラ
スの中で、最も頻度が高いものから2047個のADR
Cクラスに対して順番に0から2046の頻度クラスが
割り当てられる。2048番目以降のADRCクラスに
対しては、一括して2047の頻度クラスが割り当てら
れる。このようにして、131,072個のADRCク
ラスが2048個の頻度クラスへ変換される。頻度を参
照して、クラス数を減少させているので、少ないクラス
数でも精度の低下を防止することができる。By rearranging the appearance frequencies of the ADRC classes in descending order, the frequency classes shown in FIG. 11B are obtained. The horizontal axis in FIG. 11B is a frequency class. The frequency class is, for example, 11 bits and can represent 2048 classes. 2047 ADRs from the most frequent ADRC class in the most frequent order
Frequency classes 0 to 2046 are sequentially assigned to the C class. For the 2048th and subsequent ADRC classes, 2047 frequency classes are collectively assigned. In this way, 131,072 ADRC classes are converted into 2048 frequency classes. Since the number of classes is reduced with reference to the frequency, it is possible to prevent a decrease in accuracy even with a small number of classes.
【0039】図12は、変換テーブルを示すもので、A
DRCクラスのNクラスが頻度クラスのM(<N)クラ
スへ変換される様子を表している。クラス変換テーブル
作成用のデータが入力された後で、頻度の高いM−1個
のADRCクラスが頻度クラスに1対1で対応付けら
れ、残りの(N−(M−1))個のADRCクラスがま
とめて1個の頻度クラスに割り当てられる。このように
して、NからMへのクラス変換テーブルが作成される。FIG. 12 shows a conversion table.
This shows how the N class of the DRC class is converted to the M (<N) class of the frequency class. After the data for creating the class conversion table is input, the M−1 frequently used ADRC classes are associated with the frequency classes on a one-to-one basis, and the remaining (N− (M−1)) ADRC classes are used. The classes are collectively assigned to one frequency class. In this way, a class conversion table from N to M is created.
【0040】図13は、クラス変換テーブルの具体例を
部分的に示す。17ビットで表現されるADRCクラス
番号が11ビットで表現される頻度クラスへ変換され
る。図13では、頻度クラス番号=2047がその他の
ADRCクラスを一括して割り当てられるものとされて
いる。このようなクラス変換テーブルは、学習部および
データ変換部において共通して使用される。FIG. 13 shows a specific example of the class conversion table. The ADRC class number represented by 17 bits is converted into a frequency class represented by 11 bits. In FIG. 13, it is assumed that the frequency class number = 2047 is collectively assigned to other ADRC classes. Such a class conversion table is commonly used in the learning unit and the data conversion unit.
【0041】図14は、学習部20のより詳細な構成を
示す。生徒データがクラスタップ選択回路21aに供給
される。クラスタップ選択回路21aは、前出の図10
において×で示す位置の画素値を作成する時に、その周
辺の黒丸で示す生徒データの12個の画素を選択する。
クラスタップ選択回路21aにより選択されたクラスタ
ップの画素値が1ビットADRC回路21bに供給さ
れ、8ビットの各画素値がそれぞれ1ビットへ変換され
る。FIG. 14 shows a more detailed configuration of the learning section 20. The student data is supplied to the class tap selection circuit 21a. The class tap selection circuit 21a is the same as that shown in FIG.
When creating a pixel value at a position indicated by x in the above, 12 pixels of student data indicated by black circles around the pixel value are selected.
The pixel value of the class tap selected by the class tap selection circuit 21a is supplied to the 1-bit ADRC circuit 21b, and each 8-bit pixel value is converted to 1 bit.
【0042】1ビットADRC回路21bからは、クラ
スタップ数に等しいビット数のADRCクラスが発生す
る。ADRCクラスがクラス変換を行うクラス変換回路
22に供給される。クラス変換回路22は、予め上述し
たように作成された変換テーブル(クラス変換ルール)
に従ってクラスを変換するものであり、その出力には、
変換後クラス(頻度クラス)が発生する。The 1-bit ADRC circuit 21b generates an ADRC class having the number of bits equal to the number of class taps. The ADRC class is supplied to a class conversion circuit 22 that performs class conversion. The class conversion circuit 22 converts the conversion table (class conversion rule) created in advance as described above.
And convert the class according to
A converted class (frequency class) is generated.
【0043】頻度クラスが正規化マトリクス選択回路2
3aに供給される。正規化マトリクス選択回路23aか
らの正規化マトリクスが正規化マトリクス足し込み回路
23bに供給される。正規化マトリクス足し込み回路2
3bには、予測タップ選択回路23cからの予測タップ
(生徒データ)と真値選択回路23dからの真値(教師
データ)とが供給される。予測タップは、前出の図10
に示すように、時間的に連続する3フィールドにわたっ
て設定された20画素である。正規化マトリクス足し込
み回路23bの出力が予測係数算出回路24に供給され
る。予測係数算出回路24は、正規化マトリクスを解く
ことによって、予測係数を算出する回路である。Frequency class is normalized matrix selection circuit 2
3a. The normalization matrix from the normalization matrix selection circuit 23a is supplied to the normalization matrix addition circuit 23b. Normalization matrix addition circuit 2
The prediction tap (student data) from the prediction tap selection circuit 23c and the true value (teacher data) from the true value selection circuit 23d are supplied to 3b. The prediction tap is shown in FIG.
As shown in FIG. 7, there are 20 pixels set over three temporally continuous fields. The output of the normalization matrix addition circuit 23b is supplied to the prediction coefficient calculation circuit 24. The prediction coefficient calculation circuit 24 is a circuit that calculates a prediction coefficient by solving a normalization matrix.
【0044】学習部20でなされる学習は、変換後クラ
スである頻度クラス毎に、予測タップと予測係数との線
形1次結合で得られる予測値と、真値との誤差の自乗和
が最小となる予測係数を求める処理である。n画素によ
る予測を行う場合について、学習処理を以下に説明す
る。The learning performed by the learning unit 20 is such that, for each frequency class, which is a converted class, the sum of squares of the error between the predicted value obtained by the linear linear combination of the prediction tap and the prediction coefficient and the true value is minimized. This is a process for obtaining a prediction coefficient that becomes The learning process in the case of performing prediction using n pixels will be described below.
【0045】予測タップとして選択される入力画素のレ
ベルをそれぞれx1 、‥‥、xn とし、出力画素レベル
をyとしたとき、頻度クラス毎に予測係数w1 、‥‥、
wnによるnタップの線形推定式を設定する。これを下
記の式(3)に示す。学習前は、wi が未定係数であ
る。When the levels of the input pixels selected as the prediction taps are x 1 , ‥‥, and x n , and the output pixel level is y, the prediction coefficients w 1 , ‥‥,
Set an n-tap linear estimation equation with w n . This is shown in the following equation (3). Learning ago, w i is undetermined coefficients.
【0046】 y=w1 x1 +w2 x2 +‥‥+wn xn (3) 学習は、頻度クラス毎に複数の信号データに対して行
う。データ数がmの場合、式(3)にしたがって、以下
に示す式(4)が設定される。Y = w 1 x 1 + w 2 x 2 + ‥‥ + w n x n (3) Learning is performed on a plurality of signal data for each frequency class. When the number of data is m, the following equation (4) is set according to the equation (3).
【0047】 yk =w1 xk1+w2 xk2+‥‥+wn xkn (4) (k=1,2,‥‥m) m>nの場合、予測係数wi 、‥‥wn は、一意に決ま
らないので、誤差ベクトルeの要素を以下の式(5)で
定義して、式(6)を最小にする予測係数を求める。い
わゆる、最小自乗法による解法である。Y k = w 1 × k 1 + w 2 × k 2 + ‥‥ + w n × kn (4) (k = 1,2, ‥‥ m) When m> n, the prediction coefficients w i and ‥‥ w n Is not uniquely determined, the element of the error vector e is defined by the following equation (5), and a prediction coefficient that minimizes the equation (6) is obtained. This is a so-called least squares solution.
【0048】 ek =yk −{w1 xk1+w2 xk2+‥‥+wn xkn} (5) (k=1,2,‥‥m)E k = y k- {w 1 x k1 + w 2 x k2 + ‥‥ + w n xkn } (5) (k = 1, 2, ‥‥ m)
【0049】[0049]
【数1】 (Equation 1)
【0050】ここで、式(6)のwi による偏微分係数
を求める。それは以下の式(7)を`0' にするよう
に、各係数wi を求めればよい。Here, the partial differential coefficient based on w i in equation (6) is obtained. What is necessary is just to find each coefficient w i so that the following equation (7) is set to `0`.
【0051】[0051]
【数2】 (Equation 2)
【0052】以下、式(8)、(9)のようにXij、Y
i を定義すると、式(7)は、行列を用いて式(10)
へ書き換えられる。Hereinafter, X ij , Y as shown in equations (8) and (9)
When i is defined, equation (7) is obtained by using equation (10) using a matrix.
Is rewritten to
【0053】[0053]
【数3】 (Equation 3)
【0054】[0054]
【数4】 (Equation 4)
【0055】[0055]
【数5】 (Equation 5)
【0056】このマトリクスはが正規化マトリクスと呼
ばれている。図14中の正規化マトリクス足し込み回路
23bは、頻度クラス毎に、正規化マトリクスの加算を
行う。This matrix is called a normalization matrix. The normalization matrix adding circuit 23b in FIG. 14 adds a normalization matrix for each frequency class.
【0057】学習に充分なフレーム数のデータの入力が
終了した後、正規化マトリクス足し込み回路23bは、
予測係数算出部24に正規化マトリクスデータを出力す
る。予測係数算出部24は、正規化マトリクスを掃き出
し法等の一般的な行列解法を用いて、wi について解
き、予測係数を算出する。予測係数算出部24は、算出
された予測係数を図示しないが、予測係数メモリに書込
む。After the input of data of a sufficient number of frames for learning is completed, the normalization matrix adding circuit 23b
The normalized matrix data is output to the prediction coefficient calculation unit 24. The prediction coefficient calculation unit 24 solves w i using a general matrix solution such as a sweeping-out method of the normalization matrix, and calculates a prediction coefficient. The prediction coefficient calculation unit 24 writes the calculated prediction coefficient into a prediction coefficient memory, not shown.
【0058】以上のように学習を行った結果、予測係数
メモリには、頻度クラス毎に、注目画素yを推定するた
めの、統計的にもっとも真値に近い推定ができる予測係
数が格納される。予測係数メモリに格納された予測係数
がデータ変換部30において使用される。As a result of learning as described above, the prediction coefficient memory for estimating the target pixel y for each frequency class, which can be statistically estimated to be closest to the true value, is stored in the prediction coefficient memory. . The prediction coefficients stored in the prediction coefficient memory are used in the data conversion unit 30.
【0059】図15は、データ変換部30のより詳細な
構成を示す。入力データがクラスタップ選択回路31a
に供給される。クラスタップ選択回路31aは、前出の
図10において×で示す位置の画素値を作成する時に、
その周辺の黒丸で示す生徒データの12個の画素を選択
する。クラスタップ選択回路31aにより選択されたク
ラスタップの画素値が1ビットADRC回路31bに供
給され、8ビットの各画素値がそれぞれ1ビットへ変換
される。FIG. 15 shows a more detailed configuration of the data conversion unit 30. Input data is a class tap selection circuit 31a
Supplied to The class tap selection circuit 31a generates a pixel value at a position indicated by x in FIG.
Twelve pixels of student data indicated by black circles around the pixel are selected. The pixel value of the class tap selected by the class tap selection circuit 31a is supplied to the 1-bit ADRC circuit 31b, and each 8-bit pixel value is converted to 1 bit.
【0060】1ビットADRC回路31bからは、クラ
スタップ数に等しいビット数のADRCクラスが発生す
る。ADRCクラスがクラス変換回路32に供給され
る。クラス変換回路32は、予め上述したように作成さ
れた変換テーブルに従ってADRCクラスを頻度クラス
へ変換するものであり、その出力には、変換後クラス
(頻度クラス)が発生する。The 1-bit ADRC circuit 31b generates an ADRC class having the number of bits equal to the number of class taps. The ADRC class is supplied to the class conversion circuit 32. The class conversion circuit 32 converts the ADRC class into the frequency class according to the conversion table created in advance as described above, and a converted class (frequency class) is generated at the output.
【0061】クラス変換回路32からの頻度クラスが予
測係数選択回路33aに供給される。予測係数選択回路
33aには、学習で得られた予測係数が頻度クラス毎に
格納された予測係数メモリが備えられている。予測係数
選択回路33aで選択された予測係数が積和演算回路3
3bに供給される。積和演算回路33bには、予測タッ
プ選択回路33cで選択された予測タップが供給され、
予測係数と予測タップの線形1次結合によって、出力画
素値を作成する。The frequency class from the class conversion circuit 32 is supplied to the prediction coefficient selection circuit 33a. The prediction coefficient selection circuit 33a includes a prediction coefficient memory in which prediction coefficients obtained by learning are stored for each frequency class. The prediction coefficient selected by the prediction coefficient selection circuit 33a is the product-sum operation circuit 3
3b. The prediction tap selected by the prediction tap selection circuit 33c is supplied to the product-sum operation circuit 33b.
An output pixel value is created by a linear linear combination of a prediction coefficient and a prediction tap.
【0062】なお、図示しないが、ライン数を入力デー
タの2倍とするような画像変換を行う場合には、出力デ
ータがラインメモリによってライン倍速の処理、すなわ
ち、ライン周波数を2倍とするライン倍速の処理を受け
る。この場合に、水平方向に関しても画素数を2倍とす
る変換処理を同時に行うようにしても良い。さらに、ラ
イン倍速処理がされた出力映像信号がCRTディスプレ
イに供給される。CRTディスプレイは、出力映像信号
を表示することが可能なように、その同期系が構成され
ている。入力映像信号としては、放送信号、またはVT
R等の再生装置の再生信号が供給される。すなわち、こ
の一例をテレビジョン受像機に内蔵することができる。Although not shown, when performing image conversion such that the number of lines is twice as large as the input data, the output data is processed at a line double speed by a line memory, that is, a line whose line frequency is doubled. Receive double-speed processing. In this case, conversion processing for doubling the number of pixels in the horizontal direction may be performed simultaneously. Further, the output video signal subjected to the line double speed processing is supplied to a CRT display. The synchronization system of the CRT display is configured so that an output video signal can be displayed. The input video signal is a broadcast signal or VT
A playback signal of a playback device such as R is supplied. That is, this example can be incorporated in a television receiver.
【0063】また、この発明は、ライン数および/また
は水平画素数を2倍とする画像情報の変換以外に、フィ
ールド周波数を2倍とするフィールド倍速化された出力
画像を得る場合に対しても適用できる。その場合には、
積和演算回路33bに対してフィールドメモリが接続さ
れ、フィールド周波数が2倍とされる。よりさらに、こ
の発明は、垂直画素数が2倍でフィールド周波数が2倍
の出力画像信号を形成する場合に対しても適用できる。The present invention is applicable not only to the conversion of image information for doubling the number of lines and / or the number of horizontal pixels but also to the case of obtaining a field doubled output image for doubling the field frequency. Applicable. In that case,
A field memory is connected to the product-sum operation circuit 33b, and the field frequency is doubled. Furthermore, the present invention can be applied to a case where an output image signal having twice the number of vertical pixels and twice the field frequency is formed.
【0064】[0064]
【発明の効果】この発明は、空間内および/または時間
方向の画素数を増加させる処理をクラス分類適応処理で
行う時に、予めクラス変換ルールを作成し、クラス変換
ルールに従ってクラス情報をより少ない数のクラスへ変
換している。従って、データ変換ルール(予測係数)の
個数を減らすことができ、学習およびデータ変換の処理
時間を短縮することができ、データ変換ルールを記憶す
るためのメモリの容量を少なくできる。さらに、入力デ
ータの傾向に合ったクラス変換ルールを作成するので、
クラス数を少なくしても、精度の劣化を防止することが
できる。According to the present invention, when the process of increasing the number of pixels in space and / or in the time direction is performed by the class classification adaptive process, a class conversion rule is created in advance, and the class information is reduced according to the class conversion rule. Has been converted to the class. Therefore, the number of data conversion rules (prediction coefficients) can be reduced, the processing time for learning and data conversion can be reduced, and the capacity of the memory for storing the data conversion rules can be reduced. In addition, since class conversion rules are created that match the input data trends,
Even if the number of classes is reduced, deterioration of accuracy can be prevented.
【図1】この発明の一実施形態の全体的な構成を示すブ
ロック図である。FIG. 1 is a block diagram showing an overall configuration of an embodiment of the present invention.
【図2】この発明の一実施形態の全体的な処理を示すフ
ローチャートである。FIG. 2 is a flowchart showing an overall process according to an embodiment of the present invention.
【図3】この発明の一実施形態におけるクラス変換ルー
ル作成部の一例のブロック図である。FIG. 3 is a block diagram illustrating an example of a class conversion rule creating unit according to the embodiment of the present invention;
【図4】この発明の一実施形態におけるクラス変換ルー
ル作成処理の一例のフローチャートである。FIG. 4 is a flowchart of an example of a class conversion rule creation process according to an embodiment of the present invention.
【図5】この発明の一実施形態における学習部の一例の
ブロック図である。FIG. 5 is a block diagram illustrating an example of a learning unit according to the embodiment of the present invention;
【図6】この発明の一実施形態における学習処理の一例
のフローチャートである。FIG. 6 is a flowchart illustrating an example of a learning process according to an embodiment of the present invention.
【図7】この発明の一実施形態におけるデータ変換部の
一例のブロック図である。FIG. 7 is a block diagram illustrating an example of a data conversion unit according to an embodiment of the present invention.
【図8】この発明の一実施形態におけるデータ変換処理
の一例のフローチャートである。FIG. 8 is a flowchart illustrating an example of a data conversion process according to an embodiment of the present invention.
【図9】この発明の一実施形態におけるクラス変換ルー
ル作成部のより詳細な構成を示すブロック図である。FIG. 9 is a block diagram illustrating a more detailed configuration of a class conversion rule creation unit according to the embodiment of the present invention.
【図10】この発明の一実施形態におけるクラスタップ
および予測タップの一例を説明するための略線図であ
る。FIG. 10 is a schematic diagram illustrating an example of a class tap and a prediction tap according to the embodiment of the present invention.
【図11】この発明の一実施形態におけるクラス変換ル
ール作成処理の説明に使用するADRCクラスの頻度分
布を示す略線図である。FIG. 11 is a schematic diagram illustrating a frequency distribution of ADRC classes used for describing a class conversion rule creation process according to an embodiment of the present invention.
【図12】この発明の一実施形態におけるクラス変換処
理の説明に使用する略線図である。FIG. 12 is a schematic diagram used for describing a class conversion process according to an embodiment of the present invention.
【図13】この発明の一実施形態におけるクラス変換テ
ーブルの一例を示す略線図である。FIG. 13 is a schematic diagram illustrating an example of a class conversion table according to an embodiment of the present invention.
【図14】この発明の一実施形態における学習部のより
詳細な構成を示すブロック図である。FIG. 14 is a block diagram illustrating a more detailed configuration of a learning unit according to the embodiment of the present invention.
【図15】この発明の一実施形態におけるデータ変換部
のより詳細な構成を示すブロック図である。FIG. 15 is a block diagram illustrating a more detailed configuration of a data conversion unit according to an embodiment of the present invention.
【図16】従来の画像情報変換装置の全体的な構成を示
すブロック図である。FIG. 16 is a block diagram showing an overall configuration of a conventional image information conversion device.
【図17】従来の画像情報変換装置の全体的な処理を示
すフローチャートである。FIG. 17 is a flowchart showing the overall processing of a conventional image information conversion device.
【図18】従来の画像情報変換装置における学習部の一
例のブロック図である。FIG. 18 is a block diagram illustrating an example of a learning unit in a conventional image information conversion device.
【図19】従来の画像情報変換装置における学習処理の
一例のフローチャートである。FIG. 19 is a flowchart of an example of a learning process in a conventional image information conversion device.
【図20】従来の画像情報変換装置におけるデータ変換
部の一例のブロック図である。FIG. 20 is a block diagram illustrating an example of a data conversion unit in a conventional image information conversion device.
【図21】従来の画像情報変換装置におけるデータ変換
処理の一例のフローチャートである。FIG. 21 is a flowchart of an example of a data conversion process in a conventional image information conversion device.
10・・・クラス変換ルール作成部、20・・・学習
部、30・・・データ変換部、11・・・クラス分類
部、11a・・・クラスタップ選択回路、11b・・・
1ビットADRC回路、12・・・クラス変換ルール作
成部、12a・・・クラス頻度データ作成回路、12b
・・・変換テーブル作成回路10: Class conversion rule creation unit, 20: Learning unit, 30: Data conversion unit, 11: Class classification unit, 11a: Class tap selection circuit, 11b ...
1-bit ADRC circuit, 12: Class conversion rule creation unit, 12a: Class frequency data creation circuit, 12b
... Conversion table creation circuit
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C059 KK00 LA00 LB15 LB16 PP01 PP04 PP12 SS21 TA08 TB04 TB05 TC00 TD10 5C063 BA03 CA05 CA16 CA40 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C059 KK00 LA00 LB15 LB16 PP01 PP04 PP12 SS21 TA08 TB04 TB05 TC00 TD10 5C063 BA03 CA05 CA16 CA40
Claims (6)
で且つ教師データより画素数の少ない生徒データとの間
のデータ変換ルールを学習する画像情報変換ルール学習
装置において、 教師データの所定の画素位置の周辺に位置する生徒デー
タの複数の第1の画素に基づいて、クラス情報を形成
し、予め取得されているクラス変換ルールに従って、上
記クラス情報を変換することによって、変換後クラスを
出力するクラス変換部と、 上記変換後クラス毎に、上記教師データの所定の画素位
置の周辺に位置する上記生徒データの複数の第2の画素
と複数の予測係数との線形1次結合によって、教師デー
タの所定の画素位置の真値を予測した時に、誤差を最小
とする予測係数を学習するための学習部とからなり、 クラス変換ルールは、N個のクラス情報をM個の変換後
クラスに変換するテーブルであり、予め取得されている
ことを特徴とする画像情報変換ルール学習装置。An image information conversion rule learning apparatus for learning a data conversion rule between teacher data and student data having the same image as the teacher data and having a smaller number of pixels than the teacher data. Class information is formed based on a plurality of first pixels of the student data located around the position, and the class information is converted according to a class conversion rule acquired in advance, thereby outputting a converted class. A class conversion unit, and for each of the converted classes, a linear primary combination of a plurality of second pixels of the student data and a plurality of prediction coefficients located around a predetermined pixel position of the teacher data to generate teacher data. And a learning unit for learning a prediction coefficient for minimizing an error when a true value of a predetermined pixel position is predicted. The class conversion rule includes N classes. An image information conversion rule learning device, which is a table for converting information into M converted classes, which is obtained in advance.
するようにした画像情報変換装置において、 生成しようとする画素位置の周辺に位置する入力画像信
号の複数の第1の画素に基づいて、クラス情報を形成
し、予め取得されているクラス変換ルールに従って、上
記クラス情報を変換することによって、変換後クラスを
出力するクラス変換部と、 上記変換後クラスと、上記画素位置の周辺に位置する入
力画像信号の複数の第2の画素と、上記変換クラス毎に
予め取得されている予測係数とが入力され、上記第2の
画素と上記予測係数との線形推定式によって、画素を生
成するデータ変換部とからなり、 上記クラス変換ルールは、N個のクラス情報をM個の変
換後クラスに変換するテーブルであり、予め取得されて
いることを特徴とする画像情報変換装置。2. An image information conversion apparatus which generates a pixel which does not exist in an input image signal, based on a plurality of first pixels of the input image signal located around a pixel position to be generated. A class conversion unit that forms class information and converts the class information according to a class conversion rule acquired in advance, thereby outputting a converted class. The class conversion unit is located around the pixel position. A plurality of second pixels of the input image signal and a prediction coefficient obtained in advance for each of the conversion classes are input, and data for generating a pixel by a linear estimation formula of the second pixel and the prediction coefficient The class conversion rule is a table that converts N class information into M converted classes, and is obtained in advance. Information conversion device.
成されたクラス情報のそれぞれの出現頻度を求め、上記
出現頻度の多い方から順番に選択されたM−1個の上記
クラス情報に対して上記変換後クラスを割り当て、残り
のN−(M−1)個の上記クラス情報に対して一つの上
記変換後クラスを割り当てることで作成されたものであ
ることを特徴とする装置。3. The class conversion rule according to claim 1, wherein the class conversion rule determines an appearance frequency of each of the class information formed based on the first pixel, and selects the class information in order from the one having the highest appearance frequency. Created by allocating the converted class to the M-1 pieces of the class information and allocating one converted class to the remaining N- (M-1) pieces of the class information. An apparatus characterized in that:
で且つ教師データより画素数の少ない生徒データとの間
のデータ変換ルールを学習する画像情報変換ルール学習
方法において、 教師データの所定の画素位置の周辺に位置する生徒デー
タの複数の第1の画素に基づいて、クラス情報を形成
し、予め取得されているクラス変換ルールに従って、上
記クラス情報を変換することによって、変換後クラスを
出力するクラス変換のステップと、 上記変換後クラス毎に、上記教師データの所定の画素位
置の周辺に位置する生徒データの複数の第2の画素と複
数の予測係数との線形1次結合によって、上記教師デー
タの所定の画素位置の真値を予測した時に、誤差を最小
とする予測係数を学習するための学習のステップとから
なり、 上記クラス変換ルールは、N個のクラス情報をM個の変
換後クラスに変換するテーブルであり、予め取得されて
いることを特徴とする画像情報変換ルール学習方法。4. An image information conversion rule learning method for learning a data conversion rule between teacher data and student data having the same image as the teacher data and having a smaller number of pixels than the teacher data, comprising the steps of: Class information is formed based on a plurality of first pixels of the student data located around the position, and the class information is converted according to a class conversion rule acquired in advance, thereby outputting a converted class. A class conversion step, and, for each of the converted classes, a linear primary combination of a plurality of second pixels of the student data and a plurality of prediction coefficients located around a predetermined pixel position of the teacher data, whereby the teacher And a learning step for learning a prediction coefficient for minimizing an error when a true value of a predetermined pixel position of the data is predicted. Is a table for converting N class information into M converted classes, and is a method for learning an image information conversion rule, which is acquired in advance.
するようにした画像情報変換方法において、 生成しようとする画素位置の周辺に位置する入力画像信
号の複数の第1の画素に基づいて、クラス情報を形成
し、予め取得されているクラス変換ルールに従って、上
記クラス情報を変換することによって、変換後クラスを
出力するクラス変換のステップと、 上記変換後クラスと、上記画素位置の周辺に位置する入
力画像信号の複数の第2の画素と、上記変換クラス毎に
予め取得されている予測係数とが入力され、上記第2の
画素と上記予測係数との線形推定式によって、画素を生
成するデータ変換のステップとからなり、 上記クラス変換ルールは、N個のクラス情報をM個の変
換後クラスに変換するテーブルであり、予め取得されて
いることを特徴とする画像情報変換方法。5. An image information conversion method for generating a pixel that does not exist in an input image signal, the method comprising: generating a pixel that does not exist in an input image signal based on a plurality of first pixels of the input image signal located around a pixel position to be generated. A class conversion step of forming class information and converting the class information according to a class conversion rule obtained in advance, thereby outputting a converted class; and A plurality of second pixels of the input image signal to be input and prediction coefficients obtained in advance for each of the conversion classes are input, and pixels are generated by a linear estimation expression of the second pixels and the prediction coefficients. And a data conversion step. The class conversion rule is a table for converting N class information into M converted classes, and is obtained in advance. An image information conversion method characterized by the following.
成されたクラス情報のそれぞれの出現頻度を求め、上記
出現頻度の多い方から順番に選択されたM−1個の上記
クラス情報に対して上記変換後クラスを割り当て、残り
のN−(M−1)個の上記クラス情報に対して一つの上
記変換後クラスを割り当てることで作成されたものであ
ることを特徴とする方法。6. The class conversion rule according to claim 4, wherein the class conversion rule obtains an appearance frequency of each of the class information formed based on the first pixel, and selects the class information in order from the one having the highest appearance frequency. Created by allocating the converted class to the M-1 pieces of the class information, and allocating one converted class to the remaining N- (M-1) pieces of the class information. A method characterized in that:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP04325699A JP4174891B2 (en) | 1999-02-22 | 1999-02-22 | Image information conversion apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP04325699A JP4174891B2 (en) | 1999-02-22 | 1999-02-22 | Image information conversion apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000244879A true JP2000244879A (en) | 2000-09-08 |
JP4174891B2 JP4174891B2 (en) | 2008-11-05 |
Family
ID=12658790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP04325699A Expired - Fee Related JP4174891B2 (en) | 1999-02-22 | 1999-02-22 | Image information conversion apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4174891B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017029758A1 (en) * | 2015-08-20 | 2017-02-23 | 三菱電機株式会社 | Learning device and learning identification system |
JP2021010109A (en) * | 2019-07-01 | 2021-01-28 | 日本放送協会 | Frame rate conversion model learning device, frame rate conversion device, and programs thereof |
-
1999
- 1999-02-22 JP JP04325699A patent/JP4174891B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017029758A1 (en) * | 2015-08-20 | 2017-02-23 | 三菱電機株式会社 | Learning device and learning identification system |
JPWO2017029758A1 (en) * | 2015-08-20 | 2017-11-09 | 三菱電機株式会社 | Learning device and learning identification system |
JP2021010109A (en) * | 2019-07-01 | 2021-01-28 | 日本放送協会 | Frame rate conversion model learning device, frame rate conversion device, and programs thereof |
JP7274367B2 (en) | 2019-07-01 | 2023-05-16 | 日本放送協会 | Frame rate conversion model learning device and frame rate conversion device, and their programs |
Also Published As
Publication number | Publication date |
---|---|
JP4174891B2 (en) | 2008-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4514081B2 (en) | Motion vector extrapolation for transcoding a video sequence | |
KR100638500B1 (en) | Information signal processing apparatus, picture information converting apparatus, and picture displaying apparatus | |
JP4147632B2 (en) | Image information conversion apparatus, image information conversion method, and television receiver | |
JP4131048B2 (en) | Image information conversion apparatus, conversion method, and image display apparatus | |
JP4193233B2 (en) | Motion determination device, method and image information conversion device | |
US6597737B1 (en) | Motion determining apparatus, method thereof, and picture information converting apparatus | |
JP4470323B2 (en) | Image conversion apparatus and method | |
US6433828B1 (en) | Picture conversion using field-by-field vertical inversion dependent upon the type of picture signal to be outputted | |
JP2000244879A (en) | Image information conversion device and method | |
JP4470324B2 (en) | Image signal conversion apparatus and method | |
JP4078719B2 (en) | Image information conversion apparatus, conversion method, and image display apparatus | |
JP4099555B2 (en) | Image information converter | |
JPH0851598A (en) | Image information converter | |
JP3800638B2 (en) | Image information conversion apparatus and method | |
JP4310847B2 (en) | Image information conversion apparatus and conversion method | |
JP3653287B2 (en) | Image information conversion apparatus and image information conversion method | |
JP4123587B2 (en) | Image information processing apparatus and method | |
JP3480011B2 (en) | Image information conversion device | |
JP4154768B2 (en) | Image information conversion device and image display device | |
JP2000244876A (en) | Processor and method for image processing and providing medium | |
JP4193236B2 (en) | Image information conversion apparatus, image information conversion method, and television receiver | |
JP4042121B2 (en) | Image information processing apparatus and image information processing method | |
JPH07193791A (en) | Picture information converter | |
JP2000083223A (en) | Image information converter and image information converting method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080508 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080729 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080811 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110829 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110829 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120829 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120829 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130829 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |