JP4001143B2 - Coefficient generation apparatus and method - Google Patents

Coefficient generation apparatus and method Download PDF

Info

Publication number
JP4001143B2
JP4001143B2 JP2004342734A JP2004342734A JP4001143B2 JP 4001143 B2 JP4001143 B2 JP 4001143B2 JP 2004342734 A JP2004342734 A JP 2004342734A JP 2004342734 A JP2004342734 A JP 2004342734A JP 4001143 B2 JP4001143 B2 JP 4001143B2
Authority
JP
Japan
Prior art keywords
image information
class
coefficient
data
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004342734A
Other languages
Japanese (ja)
Other versions
JP2005117682A (en
Inventor
真史 内田
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004342734A priority Critical patent/JP4001143B2/en
Publication of JP2005117682A publication Critical patent/JP2005117682A/en
Application granted granted Critical
Publication of JP4001143B2 publication Critical patent/JP4001143B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)

Description

この発明は、例えば、テレビジョン受像器やビデオテープレコーダ装置等に用いて好適な画像情報変換装置に関し、特に、外部から供給される通常の画質(解像度)の画像情報を高画質(高解像度)の画像情報へ変換するときに用いられる係数を生成する係数生成装置および方法に関する。   The present invention relates to an image information conversion apparatus suitable for use in, for example, a television receiver, a video tape recorder apparatus, and the like. The present invention relates to a coefficient generation apparatus and method for generating coefficients used when converting into image information.

今日において、オーディオ・ビジュアル指向の高まりから、より高解像度の画像を得ることが出来るようなテレビジョン受像器の開発が望まれ、この要望に応えて、いわゆるハイビジョン方式が開発された。このハイビジョン方式は、いわゆるNTSC方式に規定される走査線数が525本なのに対して、2倍以上の1125本となっているうえ、表示画面の縦横比もNTSC方式が3:4に対して、ハイビジョン方式は9:16と広角画面になっている。このため、高解像度で臨場感のある画面を得ることができるようになっている。   Nowadays, development of a television receiver capable of obtaining a higher resolution image is desired due to an increase in audio / visual orientation, and in response to this demand, a so-called high vision system has been developed. In this high-definition system, the number of scanning lines stipulated in the so-called NTSC system is 525, whereas it is 1125 more than twice, and the aspect ratio of the display screen is also NTSC system 3: 4, The high-definition system has a wide-angle screen of 9:16. For this reason, a high-resolution and realistic screen can be obtained.

ここで、このような優れた特性を有するハイビジョン方式ではあるが、NTSC方式の映像信号をそのまま供給しても画像表示を行うことはできない。これは、上述のようなNTSC方式とハイビジョン方式とでは規格が異なるためである。このため、NTSC方式の映像信号に応じた画像をハイビジョン方式で表示しようとする場合、従来は、例えば図9に示すような画像情報変換装置を用いて映像信号のレート変換を行っていた。   Here, although it is a high vision system having such excellent characteristics, even if an NTSC system video signal is supplied as it is, an image cannot be displayed. This is because the standards differ between the NTSC system and the high vision system as described above. For this reason, when an image corresponding to an NTSC video signal is to be displayed by the high vision system, conventionally, for example, an image information conversion apparatus as shown in FIG. 9 is used to perform video signal rate conversion.

図9において、従来の画像情報変換装置は、入力端子41を介して供給されるNTSC方式の映像信号に対して、水平方向の補間処理を行う水平補間フィルタ42と、水平方向の補間処理の行われた映像信号に対して、垂直方向の補間処理を行う垂直補間フィルタ43とから構成され、出力端子44からハイビジョン方式の映像信号を得ることができる。   In FIG. 9, the conventional image information conversion apparatus includes a horizontal interpolation filter 42 that performs horizontal interpolation processing on an NTSC video signal supplied via an input terminal 41, and a horizontal interpolation process. The video signal is composed of a vertical interpolation filter 43 that performs vertical interpolation processing on the video signal, and a high-definition video signal can be obtained from the output terminal 44.

具体的には、水平補間フィルタ42は、図10に示すような構成を有しており、入力端子41を介して供給される映像方式の映像信号は、入力端子51を介して第1〜第mの乗算器52〜52m にそれぞれ供給される。各乗算器52は、映像信号に係数データを乗算して出力する。係数データの乗算された映像信号は、それぞれ第1〜第mの加算器53〜53m-1 へ供給される。各加算器53〜53m-1 の間には、それぞれ時間Tの遅延レジスタ54〜54m が設けられる。そして、第mの乗算器52m から出力された映像信号は、第mの遅延レジスタ54m により時間Tの遅延が施され、第m−1の加算器53m-1 へ供給される。   Specifically, the horizontal interpolation filter 42 has a configuration as shown in FIG. 10, and the video signal of the video system supplied via the input terminal 41 receives the first to first signals via the input terminal 51. m multipliers 52 to 52m are respectively supplied. Each multiplier 52 multiplies the video signal by coefficient data and outputs the result. The video signals multiplied by the coefficient data are supplied to first to mth adders 53 to 53m−1, respectively. Between the adders 53 to 53m-1, delay registers 54 to 54m of time T are provided, respectively. The video signal output from the mth multiplier 52m is delayed by time T by the mth delay register 54m and supplied to the m-1th adder 53m-1.

第m−1の加算器53m-1 は、第mの遅延レジスタ54m からの時間Tの遅延時間の施された映像信号と、第m−1の乗算器52m-1 からの映像信号とを加算処理して出力する。この加算処理の施された映像信号は、第m−1の遅延レジスタ54m-1 により再度、時間Tの遅延が施され、図示しない第m−2の加算器53m-2 において、同じく図示しない第m−2の乗算器53m-2 からの映像信号と加算処理される。水平補間フィルタ42は、このようにしてNTSC方式の映像信号が出力端子55を介して垂直補間フィルタ43へ供給する。   The m-1th adder 53m-1 adds the video signal subjected to the delay time T from the mth delay register 54m and the video signal from the m-1th multiplier 52m-1. Process and output. The video signal subjected to the addition processing is again delayed by the time T by the m-1th delay register 54m-1, and the m-2th adder 53m-2 (not shown) also performs The video signal from the m-2 multiplier 53m-2 is added. In this way, the horizontal interpolation filter 42 supplies the NTSC video signal to the vertical interpolation filter 43 via the output terminal 55.

垂直補間フィルタ43は、上述した水平補間フィルタ42と同様の構成を有しており、水平補間処理の行われた映像信号に対して、垂直方向の画素の補間を行う。これにより、NTSC方式の映像信号に対して、垂直方向の画素の補間が行われる。このような変換のなされたハイビジョン方式の映像信号は、ハイビジョン受像器へ供給される。これにより、NTSC方式の映像信号に応じた画像をハイビジョン受像器で表示することができる。   The vertical interpolation filter 43 has the same configuration as the horizontal interpolation filter 42 described above, and performs pixel interpolation in the vertical direction on the video signal on which the horizontal interpolation processing has been performed. Accordingly, vertical pixel interpolation is performed on the NTSC video signal. The high-definition video signal thus converted is supplied to a high-definition receiver. As a result, an image corresponding to the NTSC video signal can be displayed on the high-vision receiver.

しかしながら、上述の従来の画像情報変換装置は、NTSC方式の映像信号を基にして、単に水平方向、および垂直方向の補間を行っているに過ぎないため、解像度は基となるNTSC方式の映像信号と何ら変わらなかった。特に、通常の動画を変換対象とした場合、垂直方向の補間は、フィールド内処理で行うのが一般的であるが、図9に示す画像変換の場合、画像のフィールド間相関を有していないため、画像静止部においては、変換ロスのためNTSC方式の映像信号よりむしろ解像度が劣化する欠点があった。   However, since the above-described conventional image information conversion apparatus simply performs horizontal and vertical interpolation based on the NTSC video signal, the resolution is the base NTSC video signal. And nothing changed. In particular, when normal moving images are to be converted, vertical interpolation is generally performed by in-field processing, but in the case of image conversion shown in FIG. 9, there is no correlation between image fields. For this reason, the still image portion has a drawback that the resolution is deteriorated rather than the NTSC video signal due to conversion loss.

これに対し、入力信号である画像信号レベルの3次元(時空間)分布に応じてクラス分割を行い、クラス毎に予め学習により獲得された予測係数値を格納した記憶手段を持ち、予測式に基づいた演算により最適な推定値を出力する、というものがある。   On the other hand, the class division is performed according to the three-dimensional (spatio-temporal) distribution of the image signal level as the input signal, and the storage unit stores the prediction coefficient value acquired by learning in advance for each class, There is one that outputs an optimum estimated value by a calculation based on the calculation.

この手法は、HD(High Definition )画素を創造する場合、創造するHD画素の近傍にある、垂直方向に連続する同一フレーム内のSD(Standerd Definition )画素をクラス分割し、それぞれのクラス毎に予測係数値を学習により獲得することで、画像静止部においてはフレーム内相関、また動き部においてはフィールド内相関を利用して、より真値に近いHD画素を得る、というような巧妙なものである。   In this method, when creating HD (High Definition) pixels, SD (Standered Definition) pixels in the same frame that are adjacent to the HD pixel to be created in the same vertical direction are divided into classes, and prediction is performed for each class. By acquiring coefficient values by learning, it is possible to obtain HD pixels closer to the true value by using intra-frame correlation in the still image portion and intra-field correlation in the motion portion. .

例えば、図11において、SD画素x1 〜x6 をクラス分類に用いた場合、SD画素x1 〜x6 に対して、2ビットADRCを行った結果の量子化データがそれぞれ順に3、0、3、0、3、0であった場合、その部分は動き画像である可能性が極めて高い。すなわち、創造するべきHD画素y周辺の画像は動いている可能性が高い。そこで、画像信号変換装置では、時間的に等しいデータの中で空間位置の近いSD画素x2 とSD画素x4 に重きをおいて、HD画素yを創造する。 For example, in FIG. 11, when SD pixels x 1 to x 6 are used for class classification, the quantized data resulting from performing 2-bit ADRC on the SD pixels x 1 to x 6 is 3, 0, If it is 3, 0, 3, 0, it is very likely that the part is a motion image. That is, there is a high possibility that the image around the HD pixel y to be created is moving. Therefore, in the image signal conversion apparatus, the HD pixel y is created by placing importance on the SD pixel x 2 and the SD pixel x 4 that are close to each other in the spatially equivalent data.

一方、SD画素x1 〜x6 に対して、2ビットADRCを行った結果の量子化データがそれぞれ順に、3、3、2、2、1、0であった場合、その部分は静止画像である可能性が高い。そこで、画像信号変換装置では、時間的位相にかかわらず、空間位置の近いSD画素x2 とSD画素x4 に重きをおいて、HD画素yを創造する。この際、クラス分類は、動きのある/なし、のみならず、創造するHD画素近傍の信号波形をも表現し、それぞれの波形において、最適となるような予測係数値を出力することも大きな特長である。 On the other hand, when the quantized data obtained by performing the 2-bit ADRC on the SD pixels x 1 to x 6 is 3, 3, 2, 2, 1, 0, respectively, the portion is a still image. There is a high possibility. Therefore, in the image signal conversion device, regardless of the temporal phase, the HD pixel y is created with emphasis on the SD pixel x 2 and the SD pixel x 4 that are close to each other in spatial position. At this time, the classification is not only with / without movement, but also expresses the signal waveform in the vicinity of the HD pixel to be created, and outputs a prediction coefficient value that is optimal for each waveform. It is.

この手法によれば、静止/動き、の切り換わりも実際の画像を用いて学習することにより滑らかに表現できるので、従来の動き適応方式のように静止/動きの切り換わりによる不自然さの発生を大幅に減少させることができる。   According to this method, the switching between still / motion can be expressed smoothly by learning using an actual image. Therefore, the occurrence of unnaturalness due to switching between still / motion as in the conventional motion adaptation method. Can be greatly reduced.

しかしながら、上述の手法は、有限個のクラス分割により、動き情報と空間内の波形の二つを表現する必要があり、クラスによっては、本来なら分離するべきパターンが一つのクラス内に混在してしまう場合があった。   However, the above method needs to express motion information and a waveform in space by dividing a finite number of classes. Depending on the class, patterns that should be separated are mixed in one class. There was a case.

例えば、上述のSD画素x1 〜x6 に対して、2ビットADRCを行った結果の量子化コードがそれぞれ順に3、0、3、0、3、0であった場合、上述のように、このパターンの場合その部分が動き画像である確率が極めて高いのであるが、稀に空間的な周波数が高い場合、動きがなくてもこのようなパターンが出現することがある。この場合は、細かい横縞パターンがそれにあたる。このような場合、静止している細かい横縞パターンに対しても動画向けの処理、すなわち時間的に等しい位相の中で、空間的に近いデータを用いて変換を行う、しかしながら、これにより解像度が劣化することがあった。 For example, when the quantization codes obtained as a result of performing 2-bit ADRC on the above-described SD pixels x 1 to x 6 are 3, 0, 3, 0, 3, 0, respectively, as described above, In the case of this pattern, the probability that the part is a motion image is extremely high. However, when the spatial frequency is rarely high, such a pattern may appear even if there is no motion. In this case, a fine horizontal stripe pattern corresponds to it. In such a case, processing for moving images is performed even for a fine horizontal stripe pattern that is stationary, that is, conversion is performed using spatially close data in a temporally equal phase, however, resolution deteriorates due to this. There was something to do.

これに対し、特願平5−172617号に記載された画像信号変換装置では、3フィールド分のデータを用いて、空間的に同一の位置にあるデータの値を利用して、クラス分類を行う、というものがある。これは、例えば図12に示すように、SD画素x1 〜x6 に加え、SD画素x3 と空間的に同一位置にあるSD画素x7 をも加えてクラス分類する、というものである。 On the other hand, the image signal conversion apparatus described in Japanese Patent Application No. 5-172617 uses three fields of data and classifies data using the values of data at the same spatial position. There is something like that. For example, as shown in FIG. 12, in addition to SD pixels x 1 ~x 6, to classification by adding even a SD pixels x 7 in SD pixel x 3 spatially same position, is that.

この手法によれば、SD画素x1 〜x6 を量子化したデータのパターンによる動き表現に加えSD画素x1 とSD画素x7 を量子化したデータによる動き表現を利用することが出来る。すなわち、図12において、SD画素x1 とSD画素x7 の差分値が小さい場合は、創造するべきHD画素y周辺の画像は静止している可能性が高い。そこで、上述の画像信号変換装置では、空間位置の近いSD画素x1 とSD画素x2 に重きをおいて、HD画素yを創造する。一方、SD画素x1 とSD画素x7 の差分値が大きい場合は、創造するべきHD画素y周辺の画像は動いている可能性が高い。そこで、上述の画像信号変換装置では、時間的に近いSD画素x3 とSD画素x4 に重きをおいて、HD画素yを創造する。 According to this approach, it is possible to use the motion representation by data obtained by quantizing the SD pixels x 1 and SD pixels x 7 plus SD pixels x 1 ~x 6 in motion rendition by the pattern of the data obtained by quantizing. That is, in FIG. 12, when the difference value of the SD pixel x 1 and SD pixels x 7 is small, HD pixels y periphery of the image to create is likely to be stationary. Therefore, in the above-described image signal conversion device, the HD pixel y is created by placing emphasis on the SD pixel x 1 and the SD pixel x 2 that are close in spatial position. On the other hand, when the difference value between the SD pixel x 1 and the SD pixel x 7 is large, there is a high possibility that the image around the HD pixel y to be created is moving. Therefore, in the above-described image signal conversion apparatus, the HD pixel y is created by placing emphasis on the SD pixel x 3 and the SD pixel x 4 that are close in time.

しかしながら、空間的に同一位相にあるSD画素データが一組だけでは、動きの種類、あるいはノイズ等の影響により、誤動作が発生しやすいため、より性能の向上を求める為には、2組以上の空間的に同一位相にあるSD画素データを使うことが望ましい。   However, if there is only one set of SD pixel data in the same spatial phase, malfunctions are likely to occur due to the type of motion or the influence of noise, etc. It is desirable to use SD pixel data that is spatially in the same phase.

また、すばやい動きが画像中にある場合、例えば画像中の1フィールドにのみ動きが介入した場合、上述の手法では、検出が原理的に困難な場合がある。すなわち、図12中の#(k+1)フィールドのみ動き物体が通過した場合、SD画素x1 とSD画素x7 の差分値が小さいため、そのパターンに対しては、静止寄りの処理がなされることになる。したがって、この意味からは、空間的に同一位相にあるSD画素データの組が時間的に異なった組合せで存在することが望ましい。 In addition, when there is a quick movement in the image, for example, when the movement intervenes only in one field in the image, the detection may be difficult in principle with the above-described method. That is, when the moving object passes only in the # (k + 1) field in FIG. 12, the difference value between the SD pixel x 1 and the SD pixel x 7 is small, and therefore, the pattern is processed closer to the stationary state. become. Therefore, in this sense, it is desirable that the sets of SD pixel data that are spatially in the same phase exist in different combinations in time.

この対策としてクラス分割に用いる画素数を増やして、クラス数を増加させることにより、復元画像の品質劣化を低減する、という手法も考えられる。例えば、SD画素x3 と空間的に同一位置にあるSD画素x7 、のみならず、図13に示すように、SD画素x2 と空間的に同一位置にあるSD画素x8 、SD画素x4 と空間的に同一位置にあるSD画素x9 を加えるなどという手法が考えられる。この手法によれば、空間的に同一位相にあるSD画素データの組が増加するため、パターンによる動き判定の性能は向上する。 As a countermeasure, a method of increasing the number of pixels used for class division and increasing the number of classes to reduce the quality degradation of the restored image may be considered. For example, SD pixels x 3 spatially SD pixels x 7 in the same position, not only, as shown in FIG. 13, SD pixels x 8 in SD pixels x 2 and the same spatial position, SD pixels x A method of adding an SD pixel x 9 that is spatially the same position as 4 can be considered. According to this method, the number of sets of SD pixel data that are spatially in the same phase increases, so that the performance of motion determination using patterns is improved.

しかしながら、追加した3画素の量子化を例えば、他の画素と同様に2ビットADRCを行ったとすると、図11に示すオリジナルの方式に比べ、クラス数は64倍となり、結果的にクラス数が非常に大きなものになってしまい、その結果ハードウェア規模の増加を招き、現実性に乏しい。   However, if the added 3 pixels are quantized, for example, if 2-bit ADRC is performed in the same manner as other pixels, the number of classes is 64 times that of the original method shown in FIG. As a result, the hardware scale increases and the reality is poor.

したがって、この発明の目的は、上述の問題点を鑑みてなされたものであり、画質(解像度)を向上させてNTSC方式の映像信号をハイビジョン方式の映像信号へ変換するときに用いられる係数を生成する係数生成装置および方法を提供することにある。   Accordingly, an object of the present invention is made in view of the above-described problems, and generates coefficients used when converting an NTSC video signal to a high-definition video signal by improving image quality (resolution). An object of the present invention is to provide an apparatus and method for generating a coefficient.

請求項1に記載の発明は、第1の解像度のディジタル画像信号を、より高解像度な第2の解像度のディジタル画像信号への変換に用いられる係数データを生成する係数生成装置において、第2の解像度の画像情報に含まれる生成対象である注目画素の周辺における第1の解像度の画像情報の同一フレーム内の画素情報のデータを、ブロックに分割する第1の画像情報分割手段と、第1の画像情報分割手段により分割されたブロック毎にレベル分布のパターンが検出され、検出されたパターンに基づいて、ブロック毎に属するクラスを決定することにより、クラス検出情報を出力するクラス検出手段と、第1の解像度の画像情報の空間的に同位置の複数のフレームのデータのうち、注目画素の周辺におけるデータをブロックに分割する第2の画像情報分割手段と、第2の画像情報分割手段により分割されたブロック毎にフレームの差分データに対して絶対値処理に基づき、動きを表すクラスを決定することにより、動きクラス検出情報を出力する動きクラス検出手段と、クラス検出手段と動きクラス検出手段の情報を統合して最終的なクラスを決定するクラスコード発生手段と、第1の解像度の画像情報に含まれる注目画素の周辺の参照画素と予測係数との線形結合により形成された注目画素の予測値と注目画素の真値との誤差を最小とするように、最終的なクラス毎に係数を最小二乗法により決定する係数演算手段とを有することを特徴とする係数生成装置である。 According to a first aspect of the present invention, there is provided a coefficient generator for generating coefficient data used for converting a digital image signal having a first resolution into a digital image signal having a higher resolution and a second resolution . the data of the pixel information in the same frame of the first resolution image information in the vicinity of the pixel of interest is a product target included in resolution image information, the first image information dividing means for dividing into blocks, the first A level detection pattern is detected for each block divided by the image information dividing means, and a class detection means for outputting class detection information by determining a class belonging to each block based on the detected pattern; among the data of a plurality of frames of spatially same position of the image information of one resolution, the second image dividing the data in the vicinity of the target pixel in the block Motion that outputs motion class detection information by determining a class representing motion based on absolute value processing for difference data of a frame for each block divided by the information dividing means and the second image information dividing means Class detection means, class code generation means for determining the final class by integrating information of the class detection means and motion class detection means, reference pixels around the target pixel included in the image information of the first resolution , Coefficient calculation means for determining a coefficient for each final class by a least square method so as to minimize an error between a predicted value of the target pixel formed by linear combination with the prediction coefficient and a true value of the target pixel; It is a coefficient generator characterized by having.

請求項に記載の発明は、第1の解像度のディジタル画像信号を、より高解像度な第2の解像度のディジタル画像信号への変換に用いられる係数データを生成する係数生成方法において、第2の解像度の画像情報に含まれる生成対象である注目画素の周辺における第1の解像度の画像情報の同一フレーム内の画素情報のデータを、ブロックに分割する第1の画像情報分割ステップと、第1の画像情報分割ステップにより分割されたブロック毎にレベル分布のパターンが検出され、検出されたパターンに基づいて、ブロック毎に属するクラスを決定することにより、クラス検出情報を出力するクラス検出ステップと、第1の解像度の画像情報の空間的に同位置の複数のフレームのデータのうち、注目画素の周辺におけるデータをブロックに分割する第2の画像情報分割ステップと、第2の画像情報分割ステップにより分割されたブロック毎にフレームの差分データに対して絶対値処理に基づき、動きを表すクラスを決定することにより、動きクラス検出情報を出力する動きクラス検出ステップと、クラス検出ステップと動きクラス検出ステップの情報を統合して最終的なクラスを決定するクラスコード発生ステップと、第1の解像度の画像情報に含まれる注目画素の周辺の参照画素と予測係数との線形結合により形成された注目画素の予測値と注目画素の真値との誤差を最小とするように、最終的なクラス毎に係数を最小二乗法により決定する係数演算ステップとを有することを特徴とする係数生成方法である。 According to a seventh aspect of the present invention, there is provided a coefficient generation method for generating coefficient data used for converting a digital image signal having a first resolution into a digital image signal having a higher resolution and a second resolution . A first image information dividing step for dividing the pixel information data in the same frame of the first resolution image information in the periphery of the target pixel to be generated included in the resolution image information; A level detection pattern is detected for each block divided by the image information division step, and a class detection step for outputting class detection information by determining a class belonging to each block based on the detected pattern; among the data of a plurality of frames of spatially same position of the image information of one resolution, divide the data in the vicinity of the target pixel in the block The second image information division step and the motion class detection by determining the class representing the motion based on the absolute value processing for the difference data of the frame for each block divided by the second image information division step. A motion class detection step for outputting information, a class code generation step for determining a final class by integrating information of the class detection step and the motion class detection step, and a target pixel included in the image information of the first resolution The coefficient is determined for each final class by the least square method so as to minimize the error between the predicted value of the target pixel formed by linear combination of the surrounding reference pixels and the prediction coefficient and the true value of the target pixel. And a coefficient calculation step.

この発明に係る画像情報変換装置は、入力SD信号を画像情報分割手段により、垂直方向に連続する同一フレーム内の複数の画素からなる複数の領域に分割され、それぞれの領域毎に画像情報のレベル分布のパターンが検出され、この検出されたパターンに基づいて、その領域の画像情報が属するクラスを決定してクラス検出情報を出力する。さらに、異なる種類の画像情報分割手段により、複数のフレーム間データの組合せに分割され、それぞれの領域毎に空間的に同一位置にあるフレーム間差分の絶対値が算出され、予め設定したしきい値により動きの程度を示すクラスが決定され、クラス検出情報が出力される。上述の2つのクラスをクラスコード発生手段により統合し、最終的なクラスとして出力する。係数データ記憶手段には、外部から供給された画像情報を、この画像情報よりも高い解像度の画像情報へ変換するための情報である線形推定式の係数データがクラス毎に記憶されており、この係数データがクラス検出情報に応じて出力される。そして、画像情報変換手段では、係数データ記憶手段から供給された係数データに応じて、外部から供給された画像情報を、外部から供給された画像情報よりも高い解像度の画像情報へ変換される。   In the image information conversion apparatus according to the present invention, the input SD signal is divided by the image information dividing means into a plurality of areas composed of a plurality of pixels in the same frame continuous in the vertical direction, and the level of the image information for each area. A distribution pattern is detected, and based on the detected pattern, a class to which image information of the region belongs is determined and class detection information is output. Further, the image data is divided into a plurality of combinations of inter-frame data by different types of image information dividing means, the absolute value of the inter-frame difference at the same spatial position is calculated for each area, and a preset threshold value is calculated. The class indicating the degree of movement is determined by, and class detection information is output. The above two classes are integrated by the class code generation means and output as a final class. In the coefficient data storage means, coefficient data of a linear estimation formula, which is information for converting image information supplied from the outside into image information having a higher resolution than the image information, is stored for each class. Coefficient data is output according to the class detection information. Then, the image information conversion means converts the image information supplied from the outside into image information having a higher resolution than the image information supplied from the outside in accordance with the coefficient data supplied from the coefficient data storage means.

従来提案されている方式の時空間構造のクラス分類を行うことによる推定方式は、動きのミスマッチにより推定画像において、破綻が発生することがあった。この手法においては、その問題点を軽減するためには大幅にクラスが増加するという欠点があったが、この発明の手法によれば、クラス数の増加を押さえつつ、その劣化を大幅に低減することが出来る。   In the estimation method by classifying the spatio-temporal structure of the method proposed in the past, a failure may occur in the estimated image due to a motion mismatch. In this method, there was a drawback that the number of classes increased significantly in order to alleviate the problem, but according to the method of the present invention, the deterioration was greatly reduced while suppressing the increase in the number of classes. I can do it.

以下、この発明に係る画像信号変換装置の一実施例について図面を参照しながら詳細に説明する。図1は、この一実施例、すなわち画像信号変換装置の信号処理の概略的構成を示す。1で示す入力端子は、外部から供給される画像情報として、例えばいわゆるNTSC方式の映像信号がディジタル化されたSD画素として供給される。   Hereinafter, an embodiment of an image signal converter according to the present invention will be described in detail with reference to the drawings. FIG. 1 shows a schematic configuration of signal processing of this embodiment, that is, an image signal conversion apparatus. 1 is supplied as image information supplied from the outside, for example, as an SD pixel obtained by digitizing a so-called NTSC video signal.

この実施例における、SD画素と創造するべきHD画素の位置関係は、図2に示す。すなわち、創造するべきHD画素には、同一フィールド内で見たとき、SD画素から近い位置に存在するHD画素y1 とSD画素から遠い位置に存在するHD画素y2 の2種類がある。以降、SD画素から近い位置に存在するHD画素y1 を推定するモードをモード1と称し、SD画素から遠い位置に存在するHD画素y2 を推定するモードをモード2と称する。 The positional relationship between the SD pixel and the HD pixel to be created in this embodiment is shown in FIG. In other words, there are two types of HD pixels to be created: an HD pixel y 1 that exists near the SD pixel and an HD pixel y 2 that exists far from the SD pixel when viewed in the same field. Hereinafter, the mode for estimating the HD pixel y 1 existing at a position close to the SD pixel is referred to as mode 1, and the mode for estimating the HD pixel y 2 existing at a position far from the SD pixel is referred to as mode 2.

領域分割化回路2では、入力端子1より供給されたSD画像信号を複数の領域に分割する。この実施例では、創造するべきHD画素の同一フレーム内の例えば上下各3画素ずつのSD画素を1画素×6ラインの計6画素からなる領域に分割する。   The area dividing circuit 2 divides the SD image signal supplied from the input terminal 1 into a plurality of areas. In this embodiment, for example, three upper and lower SD pixels in the same frame of HD pixels to be created are divided into a total of 6 pixels of 1 pixel × 6 lines.

モード1に関しては、図3におけるHD画素y1 に対する、SD画素x1 、x2 、x3 、x4 、x5 、x6 がその領域にあたる。この領域をブロック1と呼ぶことにする。モード2に関しては、図4におけるHD画素y2 に対する、SD画素x1 、x2 、x3 、x4 、x5 、x6 がその領域にあたる。この領域をブロック2と呼ぶことにする。 For mode 1, the SD pixels x 1 , x 2 , x 3 , x 4 , x 5 , x 6 corresponding to the HD pixel y 1 in FIG. This area will be called block 1. With respect to mode 2, SD pixels x 1 , x 2 , x 3 , x 4 , x 5 , x 6 correspond to the HD pixel y 2 in FIG. This area will be referred to as block 2.

領域分割化回路2によりブロック化されたデータが、ADRC回路3、および遅延回路8へ供給される。遅延回路8は、ADRC回路3、クラスコード発生回路6、ROMテーブル7の処理に必要な時間だけデータを遅延させて、推定演算回路9に出力する。   The data blocked by the area dividing circuit 2 is supplied to the ADRC circuit 3 and the delay circuit 8. The delay circuit 8 delays the data by a time required for processing of the ADRC circuit 3, the class code generation circuit 6, and the ROM table 7 and outputs the data to the estimation calculation circuit 9.

ADRC回路3は、領域毎に供給されるSDデータの1次元的、あるいは2次元的なレベル分布のパターンを検出すると共に、上述のように各領域のデータを、例えば8ビットのSDデータから2ビットのSDデータへ圧縮するような演算を行うことによりパターン圧縮データを形成し、このパターン圧縮データをクラスコード発生回路6へ供給する。   The ADRC circuit 3 detects a one-dimensional or two-dimensional level distribution pattern of the SD data supplied for each region, and converts the data of each region into 2 bits from, for example, 8-bit SD data as described above. Pattern compression data is formed by performing operations such as compression into bit SD data, and this pattern compression data is supplied to the class code generation circuit 6.

本来、ADRC(Adaptive Dynamic Range Coding )は、VTR(Video Tape Recoder)向け高能率符号化用に開発された適応的再量子化法であるが、信号レベルの局所的なパターンを短い語長で効率的に表現できるので、この発明の実施例では、信号パターンのクラス分類のコード発生に使用している。ADRC回路は、領域内のダイナミックレンジをDR、ビット割当をn、領域内画素のデータレベルをL、再量子化コードをQ、として以下の式(1)により、領域内の最大値MAXと最小値MINとの間を指定されたビット長で均等に分割して再量子化を行う。   ADRC (Adaptive Dynamic Range Coding) is an adaptive requantization method developed for high-efficiency coding for VTR (Video Tape Recoder). In the embodiment of the present invention, it is used to generate a code for classifying a signal pattern. The ADRC circuit uses the following formula (1) as the maximum value MAX and the minimum value in the region, where DR is the dynamic range in the region, n is the bit allocation, L is the data level of the pixel in the region, and Q is the requantization code. Requantization is performed by equally dividing the value MIN with the designated bit length.

DR=MAX−MIN+1
Q={(L−MIN+0.5)×2n/DR} (1)
ただし、{ }は切り捨て処理を意味する。
DR = MAX-MIN + 1
Q = {(L−MIN + 0.5) × 2 n / DR} (1)
However, {} means a truncation process.

この実施例では、領域分割化回路2により分割されたそれぞれ6画素のSDデータを各2ビットに圧縮するものとする。圧縮されたSDデータをそれぞれq1 〜q6 とする。 In this embodiment, it is assumed that each 6-pixel SD data divided by the area dividing circuit 2 is compressed to 2 bits. Let the compressed SD data be q 1 to q 6 , respectively.

一方、入力端子1から供給されたSD画像信号は、領域分割化回路4にも供給される。領域分割化回路4においても、供給されたSD画像信号を複数の領域に分割する。この実施例では、供給されたSD画像信号から、創造するべきHD画素の前フレーム内の例えば上下3画素ずつのSD画素を1画素×6ラインの計6画素からなる領域に分割し、創造するべきHD画素と同一フレーム内の例えば上下3画素ずつのSD画素を1画素×6ラインの計6画素からなる領域に分割する。   On the other hand, the SD image signal supplied from the input terminal 1 is also supplied to the area dividing circuit 4. The area dividing circuit 4 also divides the supplied SD image signal into a plurality of areas. In this embodiment, from the supplied SD image signal, for example, the upper and lower three SD pixels in the previous frame of the HD pixel to be created are divided into a total of 6 pixels of 1 pixel × 6 lines and created. For example, the upper and lower three SD pixels in the same frame as the power HD pixel are divided into a total of 6 pixels of 1 pixel × 6 lines.

すなわち、モード1に関しては、図5におけるHD画素y1 に対する前フレームのSD画素m1 〜m6 、および同一フレームのSD画素n1 〜n6 がその領域にあたる。モード2に関しては、図6におけるHD画素y1 に対する前フレームのSD画素m1 〜m6 、および同一フレームのSD画素n1 〜n6 がその領域にあたる。 That is, with respect to mode 1, the SD pixels m 1 to m 6 of the previous frame and the SD pixels n 1 to n 6 of the same frame corresponding to the HD pixel y 1 in FIG. Regarding mode 2, the SD pixels m 1 to m 6 of the previous frame and the SD pixels n 1 to n 6 of the same frame corresponding to the HD pixel y 1 in FIG.

領域分割回路4により切り出されたデータが、動きクラス決定回路5へ供給される。動きクラス決定回路5では、領域毎に供給されるSDデータの差分が算出され、算出された差分に対して絶対値処理が行われる。絶対値処理が行われたSDデータの平均値param を算出し、その平均値param に対してしきい値処理がなされることにより、動きの指標である動きパラメータが算出され、算出された動きパラメータから動きクラスmv-classが決定される。決定された動きクラスmv-classは、クラスコード発生回路6へ供給される。具体的には、動きクラス決定回路5は以下の式(2)により、供給されるSDデータの差分の絶対値の平均値param を算出する。   The data cut out by the area dividing circuit 4 is supplied to the motion class determining circuit 5. In the motion class determination circuit 5, the difference of the SD data supplied for each area is calculated, and the absolute value processing is performed on the calculated difference. An average value param of the SD data subjected to the absolute value processing is calculated, and a threshold value process is performed on the average value param, whereby a motion parameter that is a motion index is calculated, and the calculated motion parameter The motion class mv-class is determined from the above. The determined motion class mv-class is supplied to the class code generation circuit 6. Specifically, the motion class determination circuit 5 calculates the average value param of the absolute value of the difference of the supplied SD data by the following equation (2).

Figure 0004001143
ただし、この実施例では、n=6である。
Figure 0004001143
However, in this embodiment, n = 6.

上述の手法で算出したSDデータの差分の絶対値の平均値param が予め設定されたしきい値により、このSDデータの差分の絶対値の平均値param を用いて動きクラスmv-classが決定される。例えば、この実施例では、動きクラスmv-classを4つ設けるとし、平均値param と動きクラスmv-classを図7に示すように設定する。   The motion class mv-class is determined using the average value param of the absolute value of the difference of SD data by the threshold value in which the average value param of the absolute value of the difference of the SD data calculated by the above method is set in advance. The For example, in this embodiment, four motion classes mv-class are provided, and the average value param and the motion class mv-class are set as shown in FIG.

クラスコード発生回路6では、ADRC回路3から供給されるパラメータ圧縮データ、および動きクラス決定回路5から供給される動きクラスmv-classに基づいて以下の式(3)の演算が行われることにより、そのブロックが属するクラスが検出され、そのクラスを示すクラスコードclass がROMテーブル7へ供給される。このクラスコードclass は、ROMテーブル7からの読み出しアドレスを示す。   In the class code generation circuit 6, the following equation (3) is calculated based on the parameter compressed data supplied from the ADRC circuit 3 and the motion class mv-class supplied from the motion class determination circuit 5. The class to which the block belongs is detected, and a class code class indicating the class is supplied to the ROM table 7. This class code class indicates an address read from the ROM table 7.

Figure 0004001143
この実施例では、nは6、Pは2である。
Figure 0004001143
In this embodiment, n is 6 and P is 2.

ROMテーブル7には、SDデータのパターンとHDデータの関係を学習することにより、線形推定式を用いて、SDデータに対応するHDデータを算出するための係数データが各クラス毎に記憶されている。これは、線形推定式によりSDデータをこの画像情報よりも高い解像度の画像情報である、いわゆるハイビジョン方式の規格に合致したHDデータへ変換するための情報である。この実施例においては、係数データは、モード1とモード2で独立に用意される。なお、ROMテーブル7に記憶されている係数データの作成方法については後述する。ROMテーブル7からは、クラスコードclass で示されるアドレスから、そのクラスの係数データであるwi (class )が読み出される。この係数データは、推定演算回路9へ供給される。 In the ROM table 7, coefficient data for calculating HD data corresponding to SD data is stored for each class using a linear estimation equation by learning the relationship between the SD data pattern and HD data. Yes. This is information for converting SD data into HD data conforming to a so-called high-definition standard, which is image information having a resolution higher than that of the image information, using a linear estimation formula. In this embodiment, the coefficient data is prepared independently for mode 1 and mode 2. A method for creating coefficient data stored in the ROM table 7 will be described later. From the ROM table 7, w i (class) that is coefficient data of the class is read from the address indicated by the class code class. The coefficient data is supplied to the estimation calculation circuit 9.

推定演算回路9では、遅延回路8を介して、領域分割化回路2から供給されるSDデータ、およびROMテーブル7から供給される係数データであるwi (class )に基づいて、入力されたSDデータに対応するHDデータが算出される。 In the estimation arithmetic circuit 9, the SD data inputted from the area dividing circuit 2 and the coefficient data supplied from the ROM table 7 wi (class) via the delay circuit 8 are inputted. HD data corresponding to the data is calculated.

より具体的には、推定演算回路9は、遅延回路8より供給されたSDデータとROMテーブル7から供給された係数データにより、モード1に関してはブロック1用の係数データを用いて、モード2に関してはブロック2の係数データを用いて、係数データであるwi (class )に基づいて、それぞれ以下の式(4)に示す演算を行うことにより、入力されたSDデータに対応するHDデータを算出する。作成されたHDデータは水平補間フィルタ10へ供給される。 More specifically, the estimation arithmetic circuit 9 uses the coefficient data for the block 1 for the mode 1 and the coefficient data for the block 1 for the mode 1 based on the SD data supplied from the delay circuit 8 and the coefficient data supplied from the ROM table 7. Calculates the HD data corresponding to the input SD data by using the coefficient data of block 2 and performing the calculation shown in the following equation (4) based on the coefficient data w i (class). To do. The created HD data is supplied to the horizontal interpolation filter 10.

hd´=w11 +w22 +w33 +w44 +w55 +w66 (4) hd ′ = w 1 x 1 + w 2 x 2 + w 3 x 3 + w 4 x 4 + w 5 x 5 + w 6 x 6 (4)

水平補間フィルタ10は、図9の水平補間フィルタ42と同一なもので、補間処理により水平方向の画素数を2倍にするのもである。水平補間フィルタ10の出力は、出力端子11を介して出力される。この出力端子11を介して出力されるHDデータは、例えばHD用のテレビジョン受像器やHD用のビデオテープレコーダ装置等に供給される。   The horizontal interpolation filter 10 is the same as the horizontal interpolation filter 42 in FIG. 9, and doubles the number of pixels in the horizontal direction by interpolation processing. The output of the horizontal interpolation filter 10 is output via the output terminal 11. The HD data output via the output terminal 11 is supplied to, for example, an HD television receiver, an HD video tape recorder, or the like.

このように、SDデータに対応するHDデータを推定するための係数データが各クラス毎に予め学習により求められた上で、ROMテーブル7に記憶しておき、入力されるSDデータ、およびROMテーブル7から読み出された係数データに基づいて演算が行われ、入力されたSDデータに対応するHDデータを形成して出力することにより、入力されるSDデータを単に補間処理したのとは異なり、実際のHDデータにより近いデータを出力することが出来る。   As described above, coefficient data for estimating HD data corresponding to SD data is obtained by learning for each class in advance, and is stored in the ROM table 7 and input SD data and ROM table. The calculation is performed based on the coefficient data read out from No. 7, and HD data corresponding to the input SD data is formed and output, so that the input SD data is simply interpolated, Data closer to actual HD data can be output.

続いて、ROMテーブル7に格納される係数データの作成方法(学習)について図8を用いて説明する。係数データを学習によって得るためには、まず、既に知られているHD画像に対応した、HD画像の1/4の画素数のSD画像を形成する。具体的には、図8に示す理想フィルタ回路により、入力端子21を介して供給されるHDデータの垂直方向の画素が垂直間引きフィルタ22によりフィールド内の垂直方向の周波数が1/2になるように間引き処理され、さらに水平間引きフィルタ23により、HDデータの水平方向の画素が間引き処理されることにより、SDデータを得る。垂直間引きフィルタ23により得られたSDデータは、領域分割化回路24へ供給される。   Next, a method of creating (learning) coefficient data stored in the ROM table 7 will be described with reference to FIG. In order to obtain coefficient data by learning, first, an SD image corresponding to an already known HD image and having a ¼ pixel number of the HD image is formed. Specifically, with the ideal filter circuit shown in FIG. 8, the vertical pixel in the vertical direction of the HD data supplied via the input terminal 21 is halved by the vertical thinning filter 22. Then, the horizontal thinning filter 23 thins out pixels in the horizontal direction of the HD data to obtain SD data. The SD data obtained by the vertical thinning filter 23 is supplied to the area dividing circuit 24.

領域分割化回路24では、水平間引きフィルタ23より供給されたSD画像信号を複数の領域に分割する。具体的には、領域分割化回路24は、先に説明した領域分割化回路2と同一の働きをするものである。この実施例では、領域分割化回路2と同じく、各6画素からなる領域に分割する。すなわち、モード1に対してはブロック1の領域の領域分割を行い、モード2に関しては、ブロック2の領域分割を行う。この領域毎のSDデータがADRC回路25、および正規方程式加算回路29へ供給される。   The area dividing circuit 24 divides the SD image signal supplied from the horizontal thinning filter 23 into a plurality of areas. Specifically, the area dividing circuit 24 has the same function as the area dividing circuit 2 described above. In this embodiment, similarly to the area dividing circuit 2, the area is divided into 6 pixels. That is, the area division of the block 1 is performed for the mode 1, and the area division of the block 2 is performed for the mode 2. The SD data for each region is supplied to the ADRC circuit 25 and the normal equation adding circuit 29.

ADRC回路25では、領域毎に供給されるSDデータの1次元的、あるいは2次元的なレベル分布のパターンが検出されると共に、上述のように各領域の全てのデータ、あるいは一部のデータを、例えば8ビットのSDデータから2ビットのSDデータに圧縮するような演算が行われることによりパターン圧縮データを形成し、このパターン圧縮データがクラスコード発生回路28へ供給される。ADRC回路25は、先に説明したADRC回路3と同一のものである。この実施例では、領域分割化回路24により分割された6画素からなる各領域のSDデータ(図3、図4におけるSD画素x1 〜x6 )をADRCを行い各2ビットへ圧縮するものとする。 The ADRC circuit 25 detects a one-dimensional or two-dimensional level distribution pattern of the SD data supplied for each area, and converts all or a part of the data in each area as described above. For example, an operation for compressing from 8-bit SD data to 2-bit SD data is performed to form pattern compressed data, and this pattern compressed data is supplied to the class code generation circuit 28. The ADRC circuit 25 is the same as the ADRC circuit 3 described above. In this embodiment, SD data (SD pixels x 1 to x 6 in FIG. 3 and FIG. 4) of each area composed of 6 pixels divided by the area dividing circuit 24 is compressed to 2 bits by ADRC. To do.

一方、水平間引きフィルタ23より供給されたSD画素信号は、領域分割化回路26にも供給される。具体的には、領域分割化回路26は、先に説明した領域分割化回路4と同一の働きをするものである。領域分割化回路26により切り出されたSDデータは、動きクラス決定回路27へ供給される。動きクラス決定回路27は、具体的には、先に説明した動きクラス決定回路5と同一の動きをするものである。動きクラス決定回路27で決定された動きクラスmv-classは、クラスコード発生回路28へ供給される。   On the other hand, the SD pixel signal supplied from the horizontal thinning filter 23 is also supplied to the area dividing circuit 26. Specifically, the area dividing circuit 26 has the same function as the area dividing circuit 4 described above. The SD data cut out by the area dividing circuit 26 is supplied to the motion class determining circuit 27. Specifically, the motion class determination circuit 27 performs the same movement as the motion class determination circuit 5 described above. The motion class mv-class determined by the motion class determination circuit 27 is supplied to the class code generation circuit 28.

クラスコード発生回路28は、先に説明したクラスコード発生回路6と同一のものであり、ADRC回路25から供給されるパターン圧縮データ、および動きクラス決定回路27から供給された動きクラスmv-classに基づいて、式(2)の演算が行われることにより、そのブロックの属するクラスが検出され、そのクラスを示すクラスコードを出力するものである。クラスコード発生回路28は、クラスコードを正規方程式加算回路29へ出力する。   The class code generation circuit 28 is the same as the class code generation circuit 6 described above. The pattern code data supplied from the ADRC circuit 25 and the motion class mv-class supplied from the motion class determination circuit 27 are used. Based on the calculation of the expression (2), the class to which the block belongs is detected, and the class code indicating the class is output. The class code generation circuit 28 outputs the class code to the normal equation addition circuit 29.

ここで、正規方程式加算回路29の説明のために、複数個のSD画素からHD画素への変換式の学習とその予測式を用いた信号変換について述べる。以下に、説明のために学習をより一般化してn画素による予測を行う場合について説明する。SD画素レベルをそれぞれx1 、‥‥、xn として、それぞれにpビットADRCを行った結果の再量子化データをq1 、‥‥、qn とする。 Here, in order to explain the normal equation adding circuit 29, learning of a conversion formula from a plurality of SD pixels to HD pixels and signal conversion using the prediction formula will be described. Hereinafter, for the sake of explanation, a case in which learning is more generalized and prediction using n pixels is performed will be described. X 1 The SD pixel level, respectively, ‥‥, as x n, q 1 requantization data results of p-bit ADRC, each, ‥‥, and q n.

このとき、この領域のクラスコードclass を式(2)で定義する。上述のようにSD画素レベルをそれぞれ、x1 、‥‥、xn とし、HD画素レベルをyとしたとき、クラス毎に係数データw1 、‥‥、wn によるnタップの線形推定式を設定する。これを式(5)に示す。学習前は、wi が未定係数である。 At this time, the class code class of this area is defined by equation (2). Each SD pixel levels as described above, x 1, ‥‥, and x n, when the HD pixel level was y, the coefficient data w 1 for each class, ‥‥, the linear estimation equation of n tap according to w n Set. This is shown in equation (5). Before learning, w i is an undetermined coefficient.

y=w11 +w22 +‥‥+wn n (5) y = w 1 x 1 + w 2 x 2 +... + w n x n (5)

学習は、クラス毎に複数の信号データに対して行う。データ数がmの場合、式(5)にしたがって、以下に示す式(6)が設定される。   Learning is performed on a plurality of signal data for each class. When the number of data is m, the following equation (6) is set according to equation (5).

k =w1k1+w2k2+‥‥+wn kn (6)
(k=1,2,‥‥m)
y k = w 1 x k 1 + w 2 x k 2 +... + w n x kn (6)
(K = 1, 2, ... m)

m>nの場合、係数データwi 、‥‥wn は、一意に決まらないので、誤差ベクトルeの要素を以下の式(7)で定義して、式(8)を最小にする係数データを求める。いわゆる、最小自乗法による解法である。 When m> n, the coefficient data w i ,..., w n are not uniquely determined. Therefore, the coefficient data that minimizes the expression (8) by defining the element of the error vector e by the following expression (7) Ask for. This is a so-called least square method.

k =yk −{w1k1+w2k2+‥‥+wn kn} (7)
(k=1,2,‥‥m)
e k = y k − {w 1 x k1 + w 2 x k2 +... + w n x kn } (7)
(K = 1, 2, ... m)

Figure 0004001143
Figure 0004001143

ここで、式(8)のwi による偏微分係数を求める。それは以下の式(9)を `0' にするように、各wi を求めればよい。 Here, the partial differential coefficient according to w i in equation (8) is obtained. It is only necessary to find each w i so that the following equation (9) becomes “0”.

Figure 0004001143
Figure 0004001143

以下、式(10)、(11)のようにXij、Yi を定義すると、式(9)は、行列を用いて式(12)へ書き換えられる。 Hereinafter, when X ij and Y i are defined as in equations (10) and (11), equation (9) is rewritten into equation (12) using a matrix.

Figure 0004001143
Figure 0004001143

Figure 0004001143
Figure 0004001143

Figure 0004001143
Figure 0004001143

この方程式は、一般に正規方程式と呼ばれている。正規方程式加算回路29は、クラスコード発生回路28から供給されたクラスコードclass 、領域分割化回路24より供給されたSD画素x1 、‥‥、xn 、入力端子21より供給された、SDデータに対応するHD画素yを用いて、この正規方程式の加算を行う。 This equation is generally called a normal equation. The normal equation adding circuit 29 includes a class code class supplied from the class code generating circuit 28, SD pixels x 1 ,..., X n supplied from the area dividing circuit 24, and SD data supplied from the input terminal 21. This normal equation is added using the HD pixel y corresponding to.

全ての学習用のデータの入力が終了した後、正規方程式加算回路29は、予測係数決定回路30に正規方程式データを出力する。予測係数決定回路30は、正規方程式を掃き出し法等の一般的な行列解法を用いて、wi について解き、予測係数を算出する。予測係数決定回路30は、算出された予測係数をメモリ31に書き込む。 After the input of all learning data is completed, the normal equation adding circuit 29 outputs normal equation data to the prediction coefficient determining circuit 30. The prediction coefficient determination circuit 30 solves w i using a general matrix solving method such as a sweeping-out method, and calculates a prediction coefficient. The prediction coefficient determination circuit 30 writes the calculated prediction coefficient in the memory 31.

以上のように学習を行った結果、メモリ31には、量子化データq1 、‥‥、q6 で規定されるパターン毎に、注目HD画素yを推定するための、統計的にもっとも真値に近い推定が出来る予測係数が格納される。このメモリ31に格納されたテーブルが、上述のように、この発明の画像信号変換装置において、使用されるROMテーブル7である。以上の処理により、線形推定式により、SDデータからHDデータを作成するための係数データの学習が終了する。 As a result of learning as described above, the memory 31 stores the statistically most true value for estimating the target HD pixel y for each pattern defined by the quantized data q 1 ,..., Q 6. A prediction coefficient that can be estimated close to is stored. As described above, the table stored in the memory 31 is the ROM table 7 used in the image signal conversion apparatus of the present invention. With the above processing, learning of coefficient data for creating HD data from SD data is completed by a linear estimation equation.

なお、この実施例の説明では、情報圧縮手段として、ADRCを設けることにしたが、これはほんの一例であり、信号波形のパターンを少ないクラスで表現できるような情報圧縮手段であれば何を設けるかは自由であり、例えば、DPCM(予測符号化)、VQ(ベクトル量子化)等の圧縮手段を用いても良い。   In the description of this embodiment, the ADRC is provided as the information compression means. However, this is only an example, and any information compression means capable of expressing the signal waveform pattern in a small class is provided. For example, compression means such as DPCM (predictive coding) and VQ (vector quantization) may be used.

さらに、この実施例の説明では、簡単のため、水平方向のアップコンバージョンに水平補間フィルタ10を用いたが、この代わりに、水平方向アップコンバージョン用のROMを用意し、水平方向のアップコンバージョンにおいても推定式を用いたこの発明を採ることも勿論可能である。   Furthermore, in the description of this embodiment, for the sake of simplicity, the horizontal interpolation filter 10 is used for horizontal up-conversion. Instead, a horizontal up-conversion ROM is prepared, and horizontal up-conversion is also performed. It is of course possible to adopt the present invention using an estimation formula.

さらに、この実施例の説明では、領域分割化回路4により、信号波形のパターンを1次元的に分割して表現したが、2次元的な分割にしても良い。   Furthermore, in the description of this embodiment, the signal waveform pattern is expressed by one-dimensional division by the region dividing circuit 4, but it may be divided into two-dimensional divisions.

さらに、この実施例の説明では、領域分割化回路5、および動きクラス決定回路6により、1次元的に分割したSD画像データを用いて、動きクラスmv-classの決定を行っていたが、領域分割を2次元的な分割にしても良い。むしろ、2次元的なものにするほうが望ましい。また、今回は簡単のため、領域分割化回路4による領域分割と領域分割化回路5による領域分割は、類似の領域分割を行ったが本来これらは全く別個のものであり、類似の領域分割を行う必要は全くない。   Further, in the description of this embodiment, the motion class mv-class is determined using the SD image data that is one-dimensionally divided by the region dividing circuit 5 and the motion class determining circuit 6. The division may be a two-dimensional division. Rather, it is desirable to make it two-dimensional. In addition, for the sake of simplicity this time, the area division by the area division circuit 4 and the area division by the area division circuit 5 are similar area divisions. There is no need to do anything.

さらに、この実施例の説明では、クラス分類に使用するSD画素と、線形推定式で用いるSD画素を同一のものとしたが、これらは必ずしも同一なものである必要はない。異なる画素を使用する場合、クラス分類に使用するSD画素を線形推定式で用いるSD画素が包含するような形にするのが望ましく、また追加して使用する、線形推定式で用いるSD画素は、推定するHD画素と同一フィールドに属するもののみとすることが望ましい。
Furthermore, in the description of this embodiment, the SD pixels used for classification and the SD pixels used in the linear estimation formula are the same, but they are not necessarily the same. When different pixels are used, it is desirable that the SD pixels used in the classification are included in the SD pixels used in the linear estimation formula. In addition, the SD pixels used in the linear estimation formula used additionally are: It is desirable that only those belonging to the same field as the estimated HD pixel.

この発明は、上述したこの発明の一実施形態等に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   The present invention is not limited to the above-described embodiment of the present invention, and various modifications and applications are possible without departing from the spirit of the present invention.

この発明に係る画像情報変換装置の一実施例のブロック図である。1 is a block diagram of an embodiment of an image information conversion apparatus according to the present invention. SDデータとHDデータの位置関係を説明するための略線図である。It is a basic diagram for demonstrating the positional relationship of SD data and HD data. クラス分割に使用するデータを説明するための略線図である。It is a basic diagram for demonstrating the data used for a class division. クラス分割に使用するデータを説明するための略線図である。It is a basic diagram for demonstrating the data used for a class division. 動きクラス決定に使用するデータを説明するための略線図である。It is a basic diagram for demonstrating the data used for a motion class determination. 動きクラス決定に使用するデータを説明するための略線図である。It is a basic diagram for demonstrating the data used for a motion class determination. 平均値param と動きクラスとの一例の関係を示す略線図である。It is a basic diagram which shows the example of the relationship between average value param and a motion class. 補正データテーブルを作成する時の説明のための略線図である。It is an approximate line figure for explanation when creating a correction data table. 従来の画像情報変換装置のブロック図である。It is a block diagram of the conventional image information converter. 従来の画像情報変換装置の要部の回路図である。It is a circuit diagram of the principal part of the conventional image information converter. 従来の時空間クラス分割方式の問題点を説明するための略線図である。It is a basic diagram for demonstrating the problem of the conventional space-time class division system. 従来の時空間クラス分割方式の問題点を説明するための略線図である。It is a basic diagram for demonstrating the problem of the conventional space-time class division system. 従来の時空間クラス分割方式の問題点を説明するための略線図である。It is a basic diagram for demonstrating the problem of the conventional space-time class division system.

符号の説明Explanation of symbols

2、4 領域分割化回路
3 ADRC回路
5 動きクラス決定回路
6 クラスコード発生回路
7 ROMテーブル
8 遅延回路
9 推定演算回路
10 水平補間フィルタ
2, 4 Area division circuit 3 ADRC circuit 5 Motion class determination circuit 6 Class code generation circuit 7 ROM table 8 Delay circuit 9 Estimation operation circuit 10 Horizontal interpolation filter

Claims (12)

第1の解像度のディジタル画像信号を、より高解像度な第2の解像度のディジタル画像信号への変換に用いられる係数データを生成する係数生成装置において、
第2の解像度の画像情報に含まれる生成対象である注目画素の周辺における第1の解像度の画像情報の同一フレーム内の画素情報のデータを、ブロックに分割する第1の画像情報分割手段と、
上記第1の画像情報分割手段により分割されたブロック毎にレベル分布のパターンが検出され、検出された上記パターンに基づいて、上記ブロック毎に属するクラスを決定することにより、クラス検出情報を出力するクラス検出手段と、
上記第1の解像度の画像情報の空間的に同位置の複数のフレームのデータのうち、上記注目画素の周辺におけるデータをブロックに分割する第2の画像情報分割手段と、
上記第2の画像情報分割手段により分割されたブロック毎にフレームの差分データに対して絶対値処理に基づき、動きを表すクラスを決定することにより、動きクラス検出情報を出力する動きクラス検出手段と、
上記クラス検出手段と上記動きクラス検出手段の情報を統合して最終的なクラスを決定するクラスコード発生手段と、
上記第1の解像度の画像情報に含まれる上記注目画素の周辺の参照画素と予測係数との線形結合により形成された上記注目画素の予測値と上記注目画素の真値との誤差を最小とするように、上記最終的なクラス毎に上記係数を最小二乗法により決定する係数演算手段と
を有することを特徴とする係数生成装置。
In a coefficient generation device that generates coefficient data used for converting a digital image signal having a first resolution into a digital image signal having a higher resolution and a second resolution ,
First image information dividing means for dividing pixel information data in the same frame of the image information of the first resolution around the target pixel to be generated included in the image information of the second resolution into blocks;
A level distribution pattern is detected for each block divided by the first image information dividing means, and class detection information is output by determining a class belonging to each block based on the detected pattern. Class detection means;
Second image information dividing means for dividing data around the pixel of interest out of a plurality of frames of spatially the same position in the image information of the first resolution , into blocks;
A motion class detection means for outputting motion class detection information by determining a class representing motion based on absolute value processing for difference data of a frame for each block divided by the second image information dividing means; ,
Class code generating means for determining the final class by integrating information of the class detecting means and the motion class detecting means;
The error between the predicted value of the target pixel and the true value of the target pixel formed by linear combination of the reference pixels around the target pixel included in the first resolution image information and the prediction coefficient is minimized. As described above, the coefficient generating apparatus includes coefficient calculating means for determining the coefficient by the least square method for each final class.
上記動きクラス検出手段において、上記動きクラス検出情報は、上記フレームの差分データの絶対値の平均値に基づき得られることを特徴とする請求項1に記載の係数生成装置。   2. The coefficient generation apparatus according to claim 1, wherein in the motion class detection means, the motion class detection information is obtained based on an average value of absolute values of difference data of the frame. 上記第1の画像情報分割手段は、上記第1の解像度の画像情報を供給された画像情報と生成対象の画像情報とが近い位置に存在する場合は第1のモード、遠い位置に存在する場合は第2のモードと決定し、生成対象の画像情報の位置に応じて決定される上記第1のモードまたは上記第2のモードのブロックへ分割し、
上記クラス検出手段は、上記第1の画像情報分割手段からの上記第1および第2のモードの各ブロックのクラス検出情報を出力し、
上記第2の画像情報分割手段は、上記第1の解像度の画像情報を、上記第1の画像情報分割手段より大きい範囲から生成対象の画像情報位置に応じて決定される上記第1のモードまたは上記第2のモードのブロックへ分割し、
上記動きクラス検出手段は、上記第2の画像情報分割手段からの上記第1および第2のモードの各ブロックの動きクラス検出情報を出力し、
上記クラスコード発生手段は、上記第1および第2のモードの各モードにおける上記クラス検出手段と上記動きクラス検出手段の情報を統合して最終的なクラスを決定し、
上記係数演算手段は、上記第1および第2のモードの各モードの上記最終的なクラス毎に上記係数を決定する
ことを特徴とする請求項1に記載の係数生成装置。
The first image information dividing means has the first resolution image information in the first mode when the supplied image information and the generation target image information are close to each other. In this case, the mode is determined as the second mode , and is divided into blocks of the first mode or the second mode determined according to the position of the image information to be generated .
The class detection means outputs class detection information of each block in the first and second modes from the first image information dividing means,
The second image information dividing unit determines the image information of the first resolution from a range larger than the first image information dividing unit according to the position of the image information to be generated. Split into modes or blocks of the second mode,
The motion class detection means outputs the motion class detection information of each block in the first and second modes from the second image information dividing means,
The class code generating means determines the final class by integrating the information of the class detecting means and the motion class detecting means in each of the first and second modes ,
2. The coefficient generation apparatus according to claim 1, wherein the coefficient calculation means determines the coefficient for each final class in each of the first and second modes .
上記大きい範囲は、供給された上記画像情報の時空間方向に大きい範囲であることを特徴とする請求項に記載の係数生成装置。 The coefficient generation apparatus according to claim 3 , wherein the large range is a large range in a space-time direction of the supplied image information. 更に係数データ記憶手段を有し、上記生成された係数をモード毎に格納することを特徴とする請求項1に記載の係数生成装置。   2. The coefficient generation apparatus according to claim 1, further comprising coefficient data storage means for storing the generated coefficient for each mode. 上記係数データは、モード毎に生成されることを特徴とする請求項1に記載の係数生成装置。   The coefficient generation apparatus according to claim 1, wherein the coefficient data is generated for each mode. 第1の解像度のディジタル画像信号を、より高解像度な第2の解像度のディジタル画像信号への変換に用いられる係数データを生成する係数生成方法において、
第2の解像度の画像情報に含まれる生成対象である注目画素の周辺における第1の解像度の画像情報の同一フレーム内の画素情報のデータを、ブロックに分割する第1の画像情報分割ステップと、
上記第1の画像情報分割ステップにより分割されたブロック毎にレベル分布のパターンが検出され、検出された上記パターンに基づいて、上記ブロック毎に属するクラスを決定することにより、クラス検出情報を出力するクラス検出ステップと、
上記第1の解像度の画像情報の空間的に同位置の複数のフレームのデータのうち、上記注目画素の周辺におけるデータをブロックに分割する第2の画像情報分割ステップと、
上記第2の画像情報分割ステップにより分割されたブロック毎にフレームの差分データに対して絶対値処理に基づき、動きを表すクラスを決定することにより、動きクラス検出情報を出力する動きクラス検出ステップと、
上記クラス検出ステップと上記動きクラス検出ステップの情報を統合して最終的なクラスを決定するクラスコード発生ステップと、
上記第1の解像度の画像情報に含まれる上記注目画素の周辺の参照画素と予測係数との線形結合により形成された上記注目画素の予測値と上記注目画素の真値との誤差を最小とするように、上記最終的なクラス毎に上記係数を最小二乗法により決定する係数演算ステップと
を有することを特徴とする係数生成方法。
In a coefficient generation method for generating coefficient data used for converting a digital image signal having a first resolution into a digital image signal having a higher resolution and a second resolution ,
A first image information dividing step of dividing pixel information data in the same frame of the image information of the first resolution around the target pixel to be generated included in the image information of the second resolution into blocks;
A level distribution pattern is detected for each block divided by the first image information dividing step, and class detection information is output by determining a class belonging to each block based on the detected pattern. A class detection step;
A second image information dividing step of dividing the data around the pixel of interest out of a plurality of frames of spatially the same position of the image information of the first resolution into blocks;
A motion class detection step for outputting motion class detection information by determining a class representing motion based on absolute value processing for difference data of a frame for each block divided by the second image information division step; ,
A class code generation step for determining a final class by integrating information of the class detection step and the motion class detection step;
The error between the predicted value of the target pixel and the true value of the target pixel formed by linear combination of the reference pixels around the target pixel included in the first resolution image information and the prediction coefficient is minimized. As described above, the coefficient generation method includes a coefficient calculation step for determining the coefficient by the least square method for each final class.
上記動きクラス検出ステップにおいて、上記動きクラス検出情報は、上記フレームの差分データの絶対値の平均値に基づき得られることを特徴とする請求項に記載の係数生成方法。 8. The coefficient generation method according to claim 7 , wherein, in the motion class detection step, the motion class detection information is obtained based on an average value of absolute values of difference data of the frame. 上記第1の画像情報分割ステップは、上記第1の解像度の画像情報を供給された画像情報と生成対象の画像情報とが近い位置に存在する場合は第1のモード、遠い位置に存在する場合は第2のモードと決定し、生成対象の画像情報の位置に応じて決定される上記第1のモードまたは上記第2のモードのブロックへ分割し、
上記クラス検出ステップは、上記第1の画像情報分割ステップからの上記第1および第2のモードの各ブロックのクラス検出情報を出力し、
上記第2の画像情報分割ステップは、上記第1の解像度の画像情報を、上記第1の画像情報分割ステップより大きい範囲から生成対象の画像情報位置に応じて決定される上記第1のモードまたは上記第2のモードのブロックへ分割し、
上記動きクラス検出ステップは、上記第2の画像情報分割ステップからの上記第1および第2のモードの各ブロックの動きクラス検出情報を出力し、
上記クラスコード発生ステップは、上記第1および第2のモードの各モードにおける上記クラス検出ステップと上記動きクラス検出ステップの情報を統合して最終的なクラスを決定し、
上記係数演算ステップは、上記第1および第2のモードの各モードの上記最終的なクラス毎に上記係数を決定する
ことを特徴とする請求項に記載の係数生成方法。
In the first image information dividing step, the image information of the first resolution exists in a first mode when the supplied image information and the image information to be generated are close to each other, and in a distant position. In this case, the mode is determined as the second mode , and is divided into blocks of the first mode or the second mode determined according to the position of the image information to be generated .
The class detection step outputs class detection information of each block in the first and second modes from the first image information division step.
In the second image information dividing step, the first resolution image information is determined in accordance with the position of the image information to be generated from a range larger than the first image information dividing step. Split into modes or blocks of the second mode,
The motion class detection step outputs the motion class detection information of each block in the first and second modes from the second image information division step,
The class code generation step determines the final class by integrating the information of the class detection step and the motion class detection step in each of the first and second modes .
8. The coefficient generation method according to claim 7 , wherein in the coefficient calculation step, the coefficient is determined for each final class in each of the first and second modes .
上記大きい範囲は、供給された上記画像情報の時空間方向に大きい範囲であることを特徴とする請求項に記載の係数生成方法。 The coefficient generation method according to claim 9 , wherein the large range is a large range in a space-time direction of the supplied image information. 更に係数データ記憶ステップを有し、上記生成された係数をモード毎に格納することを特徴とする請求項に記載の係数生成方法。 8. The coefficient generation method according to claim 7 , further comprising a coefficient data storage step, wherein the generated coefficient is stored for each mode. 上記係数データは、モード毎に生成されることを特徴とする請求項に記載の係数生成方法。 The coefficient generation method according to claim 7 , wherein the coefficient data is generated for each mode.
JP2004342734A 2004-11-26 2004-11-26 Coefficient generation apparatus and method Expired - Lifetime JP4001143B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004342734A JP4001143B2 (en) 2004-11-26 2004-11-26 Coefficient generation apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004342734A JP4001143B2 (en) 2004-11-26 2004-11-26 Coefficient generation apparatus and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP20593494A Division JP3946781B2 (en) 1994-08-08 1994-08-08 Image information conversion apparatus and method

Publications (2)

Publication Number Publication Date
JP2005117682A JP2005117682A (en) 2005-04-28
JP4001143B2 true JP4001143B2 (en) 2007-10-31

Family

ID=34545301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004342734A Expired - Lifetime JP4001143B2 (en) 2004-11-26 2004-11-26 Coefficient generation apparatus and method

Country Status (1)

Country Link
JP (1) JP4001143B2 (en)

Also Published As

Publication number Publication date
JP2005117682A (en) 2005-04-28

Similar Documents

Publication Publication Date Title
JP3946781B2 (en) Image information conversion apparatus and method
JP3674186B2 (en) Image information conversion apparatus and method
JP4552261B2 (en) Digital information conversion apparatus and method, and image information conversion apparatus and method
JP4470280B2 (en) Image signal processing apparatus and image signal processing method
JP3723995B2 (en) Image information conversion apparatus and method
JP3400055B2 (en) Image information conversion device, image information conversion method, image processing device, and image processing method
JP4140091B2 (en) Image information conversion apparatus and image information conversion method
JP3724008B2 (en) Image information conversion device and coefficient data creation device
JP3362463B2 (en) Frame interpolation device
JP4001143B2 (en) Coefficient generation apparatus and method
JP4062326B2 (en) Coefficient generation apparatus and method
JP4552262B2 (en) Noise reduction apparatus and method
JP3653287B2 (en) Image information conversion apparatus and image information conversion method
JP3800638B2 (en) Image information conversion apparatus and method
JP4042121B2 (en) Image information processing apparatus and image information processing method
JP3480015B2 (en) Apparatus and method for generating image data
JP4552263B2 (en) Digital signal processing apparatus and method, and digital image signal processing apparatus and method
JP3480011B2 (en) Image information conversion device
JP3826434B2 (en) Signal conversion apparatus and method
JP3922286B2 (en) Coefficient learning apparatus and method
JP4241720B2 (en) Multiply and accumulate circuit
JP4310847B2 (en) Image information conversion apparatus and conversion method
JP3767019B2 (en) Product-sum operation circuit and method
JP3831955B2 (en) Class classification adaptive processing apparatus and method
JP4552264B2 (en) Error correction apparatus and method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070501

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070806

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100824

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100824

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110824

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120824

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130824

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term