JP2008124955A - Image processor and image processing method, learning device and learning method, and program - Google Patents

Image processor and image processing method, learning device and learning method, and program Download PDF

Info

Publication number
JP2008124955A
JP2008124955A JP2006308681A JP2006308681A JP2008124955A JP 2008124955 A JP2008124955 A JP 2008124955A JP 2006308681 A JP2006308681 A JP 2006308681A JP 2006308681 A JP2006308681 A JP 2006308681A JP 2008124955 A JP2008124955 A JP 2008124955A
Authority
JP
Japan
Prior art keywords
image data
pixel
pixels
block
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006308681A
Other languages
Japanese (ja)
Other versions
JP2008124955A5 (en
JP4770711B2 (en
Inventor
Tomonori Kawase
朋範 河瀬
Hideki Otsuka
秀樹 大塚
Yuta Nagaki
悠太 長木
Keiji Hotta
恵司 堀田
Masayasu Suzuki
正康 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006308681A priority Critical patent/JP4770711B2/en
Publication of JP2008124955A publication Critical patent/JP2008124955A/en
Publication of JP2008124955A5 publication Critical patent/JP2008124955A5/ja
Application granted granted Critical
Publication of JP4770711B2 publication Critical patent/JP4770711B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To obtain image data of high quality by effectively removing noise. <P>SOLUTION: A prediction tap extracting unit 123 extracts a pixel for predicting the high quality image data from output image data as a prediction tap, and a class tap extracting unit 124 extracts a pixel for classifying a target pixel into classes as a class tap. A class classifying unit 125 classifies the target pixel into classes on the basis of the class tap, and a coefficient storage unit 126 outputs a coefficient corresponding to the class of the target pixel. A predictive operation unit 127 finds the high quality image data by using the coefficient from the coefficient storage unit 126 and the prediction tap from the prediction tap extracting unit 123. A control unit 128 controls processing blocks of the output image data so that image conversion processing for finding the high quality image data is applied to each processing blocks. The present invention is applicable to, for example, a television receiver. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像処理装置および画像処理方法、学習装置および学習方法、並びにプログラムに関し、特に、例えば、ユーザが、高画質の画像データを享受することができるようにした画像処理装置および画像処理方法、学習装置および学習方法、並びにプログラムに関する。   The present invention relates to an image processing device, an image processing method, a learning device, a learning method, and a program, and more particularly, for example, an image processing device and an image processing method that allow a user to enjoy high-quality image data. The present invention relates to a learning apparatus, a learning method, and a program.

例えば、MPEG-2(Moving Picture Experts Group phase 2)などの符号化および復号方式により、所定の画像を、所定のブロックごとに符号化し、復号することで得られる復号画像は、ブロック歪やモスキートノイズなどのノイズを含むノイズ画像となる。かかるノイズ画像から、ノイズを除去するノイズ除去方法として、符号化および復号の処理単位である8×8画素(横×縦)のブロックをノイズ除去の処理単位として、ノイズ除去処理を行う技術が、特許文献1や2に開示されている。
特開2003−324738号公報 特開2004−7607号公報
For example, a decoded image obtained by encoding and decoding a predetermined image for each predetermined block by an encoding and decoding method such as MPEG-2 (Moving Picture Experts Group phase 2) is block distortion or mosquito noise. It becomes a noise image including noise such as. As a noise removal method for removing noise from such a noise image, a technique for performing noise removal processing using an 8 × 8 pixel (horizontal × vertical) block, which is a processing unit for encoding and decoding, as a processing unit for noise removal, It is disclosed in Patent Documents 1 and 2.
JP 2003-324738 A JP 2004-7607 A

ところで、地上デジタル放送においては、図1に示されるように、放送局31側で、放送すべき1920×1080画素(横×縦)の原画像が横方向に3/4倍されることで縮小され、その結果得られる1440×1080画素の縮小画像が、8×8画素のブロックごとに、MPEG-2などの符号化方式により符号化されて、MPEG符号化画像として各家庭などに送信される。   By the way, in terrestrial digital broadcasting, as shown in FIG. 1, on the broadcast station 31 side, the original image of 1920 × 1080 pixels (horizontal × vertical) to be broadcast is reduced by 3/4 times in the horizontal direction. Then, the reduced image of 1440 × 1080 pixels obtained as a result is encoded by an encoding method such as MPEG-2 for each 8 × 8 pixel block, and transmitted to each home as an MPEG encoded image. .

一方、各家庭側では、放送局31から送信されてくるMPEG符号化画像を受信し、各家庭に設置されたデコーダ32により、例えば、8×8画素のブロックごとに、MPEG-2などの符号化方式に対応した復号を行うことで、MPEG符号化画像が1440×1080画素のMPEG復号画像に復号される。   On the other hand, each home side receives the MPEG encoded image transmitted from the broadcasting station 31, and the decoder 32 installed in each home uses a code such as MPEG-2 for each 8 × 8 pixel block. By performing decoding corresponding to the encoding method, the MPEG encoded image is decoded into an MPEG decoded image of 1440 × 1080 pixels.

また、デコーダ32は、1440×1080画素のMPEG復号画像を、横方向に4/3倍することで、画素数が原画像と同一の、1920×1080画素の拡大MPEG復号画像に拡大し、その拡大MPEG復号画像を図示せぬテレビジョン受像機などに表示させる。   In addition, the decoder 32 enlarges the 1440 × 1080 pixel MPEG decoded image by 4/3 times in the horizontal direction to expand the 1920 × 1080 pixel enlarged MPEG decoded image having the same number of pixels as the original image, The enlarged MPEG decoded image is displayed on a television receiver (not shown).

拡大MPEG復号画像では、MPEG-2などによる符号化および復号の処理単位である、横×縦が8×8画素のブロックは横方向に4/3倍されて、10.666(正確には、10.666・・・)×8画素(横×縦)のブロックとなっている。   In the enlarged MPEG decoded image, a block of 8 × 8 pixels in horizontal × vertical which is a processing unit of encoding and decoding by MPEG-2 or the like is multiplied by 4/3 in the horizontal direction to be 10.666 (to be exact, 10.666 ...) × 8 pixels (horizontal × vertical).

従って、拡大MPEG復号画像には、10.666×8画素のブロックの境界(付近)に、モスキートノイズやブロック歪が生じているが、拡大MPEG復号画像に生じているノイズを除去するノイズ除去方法として、例えば、上述の、特許文献1や2に開示された技術を用いたノイズ除去処理を採用した場合には、ノイズを効果的に除去することができないことがある。   Therefore, the expanded MPEG decoded image has mosquito noise and block distortion at the boundary (near the block) of 10.666 × 8 pixels, but the noise removal method for removing the noise generated in the expanded MPEG decoded image For example, when noise removal processing using the techniques disclosed in Patent Documents 1 and 2 described above is employed, noise may not be effectively removed.

即ち、特許文献1や2に開示された技術は、例えば、MPEG-2の符号化および復号の処理単位と一致する8×8画素のブロックごとに、ノイズ除去処理が行われるようになっており、10.666×8画素のブロックごとに、ノイズ除去処理を行うようになっていない。   That is, in the techniques disclosed in Patent Documents 1 and 2, for example, noise removal processing is performed for each 8 × 8 pixel block that matches the MPEG-2 encoding and decoding processing units. Noise removal processing is not performed for each block of 10.666 × 8 pixels.

そして、特許文献1や2に開示された技術を用いたノイズ除去処理の処理単位としての8×8画素のブロックと、拡大MPEG復号画像上にノイズが生じる単位としての10.666×8画素のブロックとが一致していない、いわば位相ずれが生じている場合には、ノイズ除去処理の処理単位とノイズが生じる単位とが一致している、いわば位相ずれのない場合と比較して、効果的にノイズを除去することができないことがある。   Then, an 8 × 8 pixel block as a processing unit of noise removal processing using the techniques disclosed in Patent Documents 1 and 2 and 10.666 × 8 pixel as a unit in which noise is generated on an enlarged MPEG decoded image If the block does not match, or if there is a phase shift, it is more effective than the case where the noise removal processing unit and the unit that generates noise match, that is, if there is no phase shift. In some cases, noise cannot be removed.

本発明は、このような状況に鑑みてなされたものであり、効果的にノイズを除去して、高画質の画像データを得ることができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to effectively remove noise and obtain high-quality image data.

本発明の第1の側面の画像処理装置は、原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、前記符号化データを復号することによって得られる画像データを、その画素数を前記所定数の逆数倍にすることにより、前記原画像データの画素数と同一の画素数の出力画像データに変換するデコーダが出力する前記出力画像データを処理する画像処理装置において、前記出力画像データの注目している画素である注目画素に対応する、前記出力画像データよりも高画質の高画質画像データの画素を予測するために用いる複数の画素を、前記出力画像データから予測タップとして抽出する予測タップ抽出手段と、前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記出力画像データからクラスタップとして抽出するクラスタップ抽出手段と、前記クラスタップ抽出手段により抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段と、前記出力画像データに相当する生徒画像データと所定の係数とを用いた予測演算により求められる、前記高画質画像データに相当する教師画像データを予測した予測値と、前記教師画像データとの誤差を最小にする学習により求められた、前記複数のクラスそれぞれに対応する前記係数の中から、前記注目画素のクラスに対応する係数を出力する係数出力手段と、前記係数出力手段により出力された前記係数と、前記予測タップ抽出手段により抽出された前記予測タップとを用いた前記予測演算により、前記注目画素に対応する、前記高画質画像データの画素を求める予測演算手段とを有し、前記出力画像データを前記高画質画像データに変換する画像変換処理を行う画像変換手段と、前記所定数倍に基づいて決定されるブロックサイズの、前記出力画像データの処理ブロックごとに、前記画像変換処理が行われるように、前記画像変換手段を制御する制御手段とを備える。   An image processing apparatus according to a first aspect of the present invention provides encoded data obtained by encoding converted image data obtained by converting the number of pixels of original image data by a predetermined number of times for each predetermined block. Image data obtained by decoding the encoded data, and outputting the number of pixels equal to the number of pixels of the original image data by multiplying the number of pixels by a reciprocal of the predetermined number. In the image processing apparatus that processes the output image data output by the decoder that converts to image data, the image quality that is higher than the output image data corresponding to the target pixel that is the target pixel of the output image data A prediction tap extracting means for extracting a plurality of pixels used for predicting a pixel of image data as a prediction tap from the output image data; Based on the class tap extracting means for extracting a plurality of pixels used for class classification as a class tap from the output image data, and the class tap extracted by the class tap extracting means. Predicting teacher image data corresponding to the high-quality image data obtained by a prediction operation using class classification means for classifying the pixel of interest and student image data corresponding to the output image data and a predetermined coefficient A coefficient output for outputting a coefficient corresponding to the class of the target pixel from the coefficients corresponding to each of the plurality of classes, which is obtained by learning that minimizes an error between the predicted value and the teacher image data Means, the coefficient output by the coefficient output means, and the prediction tap extraction means An image for converting the output image data into the high-quality image data, the prediction calculation means for obtaining a pixel of the high-quality image data corresponding to the target pixel by the prediction calculation using the prediction tap; The image conversion means for performing conversion processing and the image conversion means are controlled so that the image conversion processing is performed for each processing block of the output image data having a block size determined based on the predetermined number of times. Control means.

第1の側面の画像処理装置には、前記所定のブロックのブロックサイズを、前記所定数の逆数倍にした逆数倍ブロックの境界上の画素である境界上画素が、前記出力画像データに含まれるか否かを判定する画素判定手段をさらに設けることができ、前記画像変換手段には、前記画素判定手段により、前記出力画像データに、前記境界上画素が含まれると判定された場合、前記出力画像データを前記高画質画像データに変換させることができる。   In the image processing apparatus according to the first aspect, a pixel on the boundary, which is a pixel on the boundary of an inverse block obtained by multiplying the block size of the predetermined block by an inverse multiple of the predetermined number, is included in the output image data. Pixel determining means for determining whether or not it is included can be further provided. In the image converting means, when it is determined by the pixel determining means that the output image data includes the pixel on the boundary, The output image data can be converted into the high-quality image data.

前記予測タップ抽出手段には、前記予測タップを、前記注目画素を含む前記処理ブロックから抽出させることができる。   The prediction tap extraction unit can extract the prediction tap from the processing block including the target pixel.

前記クラスタップ抽出手段には、前記クラスタップを、前記注目画素を含む前記処理ブロックから抽出させることができる。   The class tap extraction unit can extract the class tap from the processing block including the target pixel.

第1の側面の画像処理装置には、前記注目画素の前記クラス分類に用いる閾値を、前記出力画像データの画素を用いて算出する閾値算出手段をさらに設けることができ、前記クラス分類手段には、前記クラスタップ抽出手段により抽出された前記クラスタップと、前記閾値算出手段により算出された前記閾値とに基づいて、前記注目画素をクラス分類させることができる。   The image processing apparatus according to the first aspect may further include threshold value calculation means for calculating a threshold value used for the class classification of the target pixel using a pixel of the output image data, and the class classification means includes Based on the class tap extracted by the class tap extraction unit and the threshold value calculated by the threshold value calculation unit, the pixel of interest can be classified.

前記閾値算出手段には、前記閾値を、前記注目画素を含む前記処理ブロックの画素を用いて算出させることができる。   The threshold value calculation means can calculate the threshold value using a pixel of the processing block including the target pixel.

第1の側面の画像処理装置には、前記所定のブロックのブロックサイズを、前記所定数の逆数倍にした逆数倍ブロックの境界上の、前記出力画像データの画素である境界上画素が、前記処理ブロックに含まれるか否かを判定する境界上画素判定手段をさらに設けることができ、前記閾値算出手段には、前記境界上画素判定手段により、前記処理ブロックに、前記境界上画素が含まれると判定された場合、前記閾値を、前記処理ブロックの画素から前記境界上画素を除外した画素を用いて算出させることができる。   In the image processing apparatus according to the first aspect, a pixel on the boundary, which is a pixel of the output image data, is located on a boundary of a reciprocal multiple block in which the block size of the predetermined block is a reciprocal multiple of the predetermined number. , A boundary pixel determination unit that determines whether or not the pixel is included in the processing block may be further provided. The threshold calculation unit includes the boundary pixel determination unit that includes the boundary pixel determination unit. When it is determined that the threshold value is included, the threshold value can be calculated using a pixel obtained by excluding the pixel on the boundary from the pixel of the processing block.

第1の側面の画像処理装置には、前記処理ブロックにおける各画素の位置を表す情報を画素位置モードとして、前記注目画素の画素位置モードを判定する画素位置モード判定手段をさらに設けることができ、前記係数出力手段には、前記注目画素のクラスと画素位置モードに対応する係数を出力させることができる。   The image processing apparatus according to the first aspect may further include pixel position mode determination means for determining the pixel position mode of the pixel of interest using information representing the position of each pixel in the processing block as a pixel position mode. The coefficient output means can output a coefficient corresponding to the class of pixel of interest and the pixel position mode.

前記処理ブロックの画素において、線対称または点対称の位置関係にある画素に、画素位置モードとして同一の値を割り当てることができる。   In the pixels of the processing block, the same value can be assigned as the pixel position mode to pixels that are in a line-symmetrical or point-symmetrical positional relationship.

第1の側面の画像処理装置には、前記注目画素が、前記処理ブロックを複数の領域に区分したときに、前記複数の領域のうちの、いずれかの領域に位置するかを判定する領域判定手段をさらに設けることができ、前記予測演算手段には、前記注目画素が位置する領域に対応した前記予測演算により、前記注目画素に対応する、前記高画質画像データの画素を求めさせることができる。   In the image processing device of the first aspect, an area determination that determines whether the target pixel is located in any of the plurality of areas when the processing block is divided into the plurality of areas. Means can be further provided, and the prediction calculation means can obtain the pixel of the high-quality image data corresponding to the target pixel by the prediction calculation corresponding to the region where the target pixel is located. .

前記所定のブロックのブロックサイズを、前記所定数の逆数倍にした逆数倍ブロックの境界上の、前記出力画像データの画素である境界上画素が、前記処理ブロックに含まれる場合、前記処理ブロックから、前記境界上画素を除外した画素において、線対称または点対称の位置関係にある画素に、画素位置モードとして同一の値を割り当てることができる。   If the processing block includes pixels on the boundary, which are pixels of the output image data, on the boundary of the inverse block obtained by making the block size of the predetermined block an inverse multiple of the predetermined number, the processing block In the pixels excluding the pixels on the boundary from the block, the same value as the pixel position mode can be assigned to the pixels having a line-symmetrical or point-symmetrical positional relationship.

前記境界上画素には、画素位置モードとして、前記境界上画素以外の画素と異なる値を割り当てることができる。   A value different from pixels other than the pixel on the boundary can be assigned to the pixel on the boundary as a pixel position mode.

本発明の第1の側面の画像処理方法、またはプログラムは、原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、前記符号化データを復号することによって得られる画像データを、その画素数を前記所定数の逆数倍にすることにより、前記原画像データの画素数と同一の画素数の出力画像データに変換するデコーダが出力する前記出力画像データを処理する画像処理方法、または原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、前記符号化データを復号することによって得られる画像データを、その画素数を前記所定数の逆数倍にすることにより、前記原画像データの画素数と同一の画素数の出力画像データに変換するデコーダが出力する前記出力画像データを処理する画像処理をコンピュータに実行させるプログラムにおいて、前記出力画像データの注目している画素である注目画素に対応する、前記出力画像データよりも高画質の高画質画像データの画素を予測するために用いる複数の画素を、前記出力画像データから予測タップとして抽出する予測タップ抽出ステップと、前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記出力画像データからクラスタップとして抽出するクラスタップ抽出ステップと、前記クラスタップ抽出ステップにより抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類ステップと、前記出力画像データに相当する生徒画像データと所定の係数とを用いた予測演算により求められる、前記高画質画像データに相当する教師画像データを予測した予測値と、前記教師画像データとの誤差を最小にする学習により求められた、前記複数のクラスそれぞれに対応する前記係数の中から、前記注目画素のクラスに対応する係数を出力する係数出力ステップと、前記係数出力ステップにより出力された前記係数と、前記予測タップ抽出ステップにより抽出された前記予測タップとを用いた前記予測演算により、前記注目画素に対応する、前記高画質画像データの画素を求める予測演算ステップとを有し、前記出力画像データを前記高画質画像データに変換する画像変換処理を行う画像変換ステップと、前記所定数倍に基づいて決定されるブロックサイズの、前記出力画像データの処理ブロックごとに、前記画像変換処理が行われるように、前記画像変換ステップを制御する制御ステップとを含む。   The image processing method or program according to the first aspect of the present invention provides encoded data obtained by encoding converted image data obtained by converting the number of pixels of original image data by a predetermined number of times for each predetermined block, The image data obtained by decoding every predetermined block and decoding the encoded data is obtained by multiplying the number of pixels by a reciprocal of the predetermined number to obtain the same number of pixels as the original image data. An image processing method for processing the output image data output by the decoder for converting the output image data into a number of output image data, or encoding the converted image data obtained by converting the number of pixels of the original image data by a predetermined number of times for each predetermined block The encoded data obtained is decoded for each of the predetermined blocks, and the image data obtained by decoding the encoded data is converted to the inverse of the predetermined number of pixels. In the program for causing the computer to execute image processing for processing the output image data output by the decoder that converts the output image data to the same number of pixels as the number of pixels of the original image data by doubling the output image data, A plurality of pixels used for predicting pixels of high-quality image data having higher image quality than the output image data corresponding to the target pixel that is a pixel of interest are extracted as prediction taps from the output image data A prediction tap extraction step, a class tap extraction step of extracting a plurality of pixels used for class classification that classifies the pixel of interest into any one of a plurality of classes as a class tap from the output image data, and Based on the class tap extracted by the class tap extraction step, the attention image is displayed. A class classification step for classifying the image data, a predicted value obtained by predicting the teacher image data corresponding to the high-quality image data, which is obtained by a prediction calculation using student image data corresponding to the output image data and a predetermined coefficient; A coefficient output step of outputting a coefficient corresponding to the class of the target pixel from the coefficients corresponding to each of the plurality of classes, obtained by learning that minimizes an error from the teacher image data; Prediction calculation for obtaining a pixel of the high-quality image data corresponding to the target pixel by the prediction calculation using the coefficient output by the coefficient output step and the prediction tap extracted by the prediction tap extraction step An image conversion step for performing image conversion processing for converting the output image data into the high-quality image data. And a control step for controlling the image conversion step so that the image conversion processing is performed for each processing block of the output image data having a block size determined based on the predetermined number of times. .

本発明の第1の側面によれば、原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、前記符号化データを復号することによって得られる画像データを、その画素数を前記所定数の逆数倍にすることにより、前記原画像データの画素数と同一の画素数の出力画像データに変換するデコーダが出力する前記出力画像データの注目している画素である注目画素に対応する、前記出力画像データよりも高画質の高画質画像データの画素を予測するために用いる複数の画素が、前記出力画像データから予測タップとして抽出される。また、前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素が、前記出力画像データからクラスタップとして抽出されるとともに、抽出された前記クラスタップに基づいて、前記注目画素がクラス分類され、前記出力画像データに相当する生徒画像データと所定の係数とを用いた予測演算により求められる、前記高画質画像データに相当する教師画像データを予測した予測値と、前記教師画像データとの誤差を最小にする学習により求められた、前記複数のクラスそれぞれに対応する前記係数の中から、前記注目画素のクラスに対応する係数が出力される。さらに、出力された前記係数と、抽出された前記予測タップとを用いた前記予測演算により、前記注目画素に対応する、前記高画質画像データの画素が求められる。また、前記所定数倍に基づいて決定されるブロックサイズの、前記出力画像データの処理ブロックごとに、前記出力画像データを前記高画質画像データに変換する画像変換処理が行われるように、各種、制御される。   According to the first aspect of the present invention, the encoded data obtained by encoding the converted image data obtained by converting the number of pixels of the original image data by a predetermined number of times for each predetermined block is obtained for each predetermined block. The image data obtained by decoding and decoding the encoded data is output image data having the same number of pixels as the number of pixels of the original image data by multiplying the number of pixels by a reciprocal of the predetermined number. A plurality of pixels used for predicting pixels of high-quality image data with higher image quality than the output image data, corresponding to the target pixel that is a target pixel of the output image data output by the decoder that converts to , And extracted as a prediction tap from the output image data. Further, a plurality of pixels used for class classification for classifying the target pixel into any one of a plurality of classes are extracted as class taps from the output image data, and based on the extracted class taps The predicted value obtained by predicting the teacher image data corresponding to the high-quality image data obtained by the prediction calculation using the student image data corresponding to the output image data and a predetermined coefficient, wherein the target pixel is classified Then, a coefficient corresponding to the class of the target pixel is output from the coefficients corresponding to each of the plurality of classes obtained by learning that minimizes an error from the teacher image data. Furthermore, a pixel of the high-quality image data corresponding to the target pixel is obtained by the prediction calculation using the output coefficient and the extracted prediction tap. In addition, for each processing block of the output image data having a block size determined based on the predetermined number of times, various types of image conversion processing are performed to convert the output image data into the high-quality image data. Be controlled.

本発明の第2の側面の学習装置は、原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、前記符号化データを復号することによって得られる画像データの画素数を前記所定数の逆数倍にすることにより得られた、前記原画像データの画素数と同一の画素数の出力画像データを、その出力画像データよりも高画質の高画質画像データに変換する予測演算に用いられる係数を、前記出力画像データに相当する画像である生徒画像データを用いた前記予測演算の結果と、前記高画質画像データに相当する画像である教師画像データとの誤差を最小にする学習により求める学習装置において、前記生徒画像データの注目している画素である注目画素を、その注目画素に対応する、前記教師画像データの画素に変換する前記予測演算に用いる複数の画素を、前記生徒画像データから予測タップとして抽出する予測タップ抽出手段と、前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記生徒画像データからクラスタップとして抽出するクラスタップ抽出手段と、前記クラスタップ抽出手段により抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段と、前記クラス分類手段によりクラス分けされた前記注目画素のクラスごとに、前記予測タップを用いた前記予測演算の結果と、前記注目画素に対応する、前記教師画像データの画素との誤差を最小にする前記係数を演算する係数演算手段とを有し、前記クラスごとの前記係数を求める学習処理を行う学習手段と、前記所定数倍に基づいて決定されるブロックサイズの、前記生徒画像データの処理ブロックごとに、前記学習処理が行われるように、前記学習手段を制御する制御手段とを備える。   The learning device according to the second aspect of the present invention provides encoded data obtained by encoding the converted image data obtained by converting the number of pixels of the original image data by a predetermined number of times for each predetermined block. And outputting the number of pixels equal to the number of pixels of the original image data obtained by multiplying the number of pixels of the image data obtained by decoding the encoded data by a reciprocal multiple of the predetermined number The coefficient used for the prediction calculation for converting the image data into the high-quality image data having higher image quality than the output image data is the result of the prediction calculation using the student image data which is an image corresponding to the output image data. In the learning device that is obtained by learning that minimizes an error from the teacher image data that is an image corresponding to the high-quality image data, the attention is a pixel of interest of the student image data A prediction tap extracting means for extracting, as prediction taps, from the student image data, a plurality of pixels used in the prediction calculation for converting a prime into a pixel of the teacher image data corresponding to the pixel of interest; and a plurality of the pixels of interest Class tap extracting means for extracting a plurality of pixels used for class classification as class taps from the student image data, and the class tap extracted by the class tap extracting means. Classifying means for classifying the pixel of interest on the basis of, a result of the prediction calculation using the prediction tap for each class of the pixel of interest classified by the class classification unit, and the pixel of interest Corresponding coefficient calculation means for calculating the coefficient that minimizes an error from the pixel of the teacher image data. The learning process is performed for each processing block of the student image data having a block size determined based on the learning unit for performing the learning process for obtaining the coefficient for each class and the predetermined multiple. And control means for controlling the learning means.

前記予測タップ抽出手段には、前記予測タップを、前記注目画素を含む前記処理ブロックから抽出させることができる。   The prediction tap extraction unit can extract the prediction tap from the processing block including the target pixel.

前記クラスタップ抽出手段には、前記クラスタップを、前記注目画素を含む前記処理ブロックから抽出させることができる。   The class tap extraction unit can extract the class tap from the processing block including the target pixel.

第2の側面の学習装置には、前記注目画素の前記クラス分類に用いる閾値を、前記生徒画像データの画素を用いて算出する閾値算出手段をさらに設けることができ、前記クラス分類手段には、前記クラスタップ抽出手段により抽出された前記クラスタップと、前記閾値算出手段により算出された前記閾値とに基づいて、前記注目画素をクラス分類させることができる。   The learning device according to the second aspect may further include a threshold value calculation unit that calculates a threshold value used for the class classification of the pixel of interest using a pixel of the student image data, and the class classification unit includes: Based on the class tap extracted by the class tap extraction unit and the threshold value calculated by the threshold value calculation unit, the target pixel can be classified.

前記閾値算出手段には、前記閾値を、前記注目画素を含む前記処理ブロックの画素を用いて算出させることができる。   The threshold value calculation means can calculate the threshold value using a pixel of the processing block including the target pixel.

第2の側面の学習装置は、前記所定のブロックのブロックサイズを、前記所定数の逆数倍にした逆数倍ブロックの境界上の、前記生徒画像データの画素である境界上画素が、前記処理ブロックに含まれるか否かを判定する境界上画素判定手段をさらに設けることができ、前記閾値算出手段には、前記境界上画素判定手段により、前記処理ブロックに、前記画素上画素が含まれると判定された場合、前記閾値を、前記処理ブロックの画素から前記境界上画素を除外した画素を用いて算出させることができる。   In the learning device according to the second aspect, pixels on the boundary, which are pixels of the student image data, on the boundary of the reciprocal multiple block in which the block size of the predetermined block is the reciprocal multiple of the predetermined number, A boundary pixel determination unit that determines whether or not the image is included in the processing block may be further provided, and the threshold calculation unit includes the pixel on the pixel in the processing block by the pixel determination unit on the boundary. If it is determined that, the threshold value can be calculated using a pixel obtained by excluding the pixel on the boundary from the pixel of the processing block.

第2の側面の学習装置には、前記処理ブロックにおける各画素の位置を表す情報を画素位置モードとして、前記注目画素の画素位置モードを判定する画素位置モード判定手段をさらに設けることができ、前記係数演算手段には、前記注目画素のクラスと画素位置モードごとに、前記予測タップを用いた前記予測演算の結果と、前記教師画像データの画素との誤差を最小にする前記係数を演算させることができる。   The learning device according to the second aspect may further include pixel position mode determination means for determining the pixel position mode of the pixel of interest using information indicating the position of each pixel in the processing block as a pixel position mode, The coefficient calculation means calculates the coefficient that minimizes an error between the prediction calculation result using the prediction tap and the pixel of the teacher image data for each class of pixel of interest and pixel position mode. Can do.

第2の側面の学習装置には、前記処理ブロックの画素において、線対称または点対称の位置関係にある画素に、画素位置モードとして同一の値を割り当てることができる。   In the learning device of the second aspect, the same value as the pixel position mode can be assigned to the pixels of the processing block that are in a line symmetric or point symmetric positional relationship.

前記所定のブロックのブロックサイズを、前記所定数の逆数倍にした逆数倍ブロックの境界上の、前記生徒画像データの画素である境界上画素が、前記処理ブロックに含まれる場合、前記処理ブロックから、前記境界上画素を除外した画素において、線対称または点対称の位置関係にある画素に、画素位置モードとして同一の値を割り当てることができる。   When the processing block includes pixels on the boundary, which are pixels of the student image data, on the boundary of the reciprocal multiple block obtained by making the block size of the predetermined block the reciprocal multiple of the predetermined number, the processing In the pixels excluding the pixels on the boundary from the block, the same value as the pixel position mode can be assigned to the pixels having a line-symmetrical or point-symmetrical positional relationship.

前記境界上画素には、画素位置モードとして、前記境界上画素以外の画素と異なる値を割り当てることができる。   A value different from pixels other than the pixel on the boundary can be assigned to the pixel on the boundary as a pixel position mode.

本発明の第2の側面の学習方法、またはプログラムは、原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、前記符号化データを復号することによって得られる画像データの画素数を前記所定数の逆数倍にすることにより得られた、前記原画像データの画素数と同一の画素数の出力画像データを、その出力画像データよりも高画質の高画質画像データに変換する予測演算に用いられる係数を、前記出力画像データに相当する画像である生徒画像データを用いた前記予測演算の結果と、前記高画質画像データに相当する画像である教師画像データとの誤差を最小にする学習により求める学習方法、または原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、前記符号化データを復号することによって得られる画像データの画素数を前記所定数の逆数倍にすることにより得られた、前記原画像データの画素数と同一の画素数の出力画像データを、その出力画像データよりも高画質の高画質画像データに変換する予測演算に用いられる係数を、前記出力画像データに相当する画像である生徒画像データを用いた前記予測演算の結果と、前記高画質画像データに相当する画像である教師画像データとの誤差を最小にする学習により求める処理をコンピュータに実行させるプログラムにおいて、前記生徒画像データの注目している画素である注目画素を、その注目画素に対応する、前記教師画像データの画素に変換する前記予測演算に用いる複数の画素を、前記生徒画像データから予測タップとして抽出する予測タップ抽出ステップと、前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記生徒画像データからクラスタップとして抽出するクラスタップ抽出ステップと、前記クラスタップ抽出ステップにより抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類ステップと、前記クラス分類ステップによりクラス分けされた前記注目画素のクラスごとに、前記予測タップを用いた前記予測演算の結果と、前記注目画素に対応する、前記教師画像データの画素との誤差を最小にする前記係数を演算する係数演算ステップとを有し、前記クラスごとの前記係数を求める学習処理を行う学習ステップと、前記所定数倍に基づいて決定されるブロックサイズの、前記生徒画像データの処理ブロックごとに、前記学習処理が行われるように、前記学習ステップを制御する制御ステップとを含む。   The learning method or program according to the second aspect of the present invention provides encoded data obtained by encoding converted image data obtained by converting the number of pixels of original image data by a predetermined number of times for each predetermined block. The same number of pixels as the number of pixels of the original image data obtained by decoding each block of the image data and by multiplying the number of pixels of the image data obtained by decoding the encoded data by a reciprocal multiple of the predetermined number The prediction calculation using the student image data, which is an image corresponding to the output image data, with a coefficient used for the prediction calculation for converting the number of output image data into high-quality image data with higher image quality than the output image data And a learning method that is obtained by learning that minimizes an error between the result and the teacher image data that is an image corresponding to the high-quality image data, or the number of pixels of the original image data is multiplied by a predetermined number The encoded data obtained by encoding the converted image data after conversion for each predetermined block is decoded for each predetermined block, and the number of pixels of the image data obtained by decoding the encoded data is set to the predetermined data. For predictive computation that converts output image data having the same number of pixels as the original image data obtained by multiplying the reciprocal of the number into high-quality image data with higher image quality than the output image data. Learning that minimizes an error between the prediction coefficient using the student image data that is an image corresponding to the output image data and the teacher image data that is an image corresponding to the high-quality image data. In the program for causing the computer to execute the processing obtained by the above, a target pixel that is a target pixel of the student image data corresponds to the target pixel. A prediction tap extracting step of extracting a plurality of pixels used for the prediction calculation to be converted into pixels of the teacher image data as prediction taps from the student image data; and the target pixel is set to any one of a plurality of classes. A class tap extracting step of extracting a plurality of pixels used for class classification as class taps from the student image data, and classifying the pixel of interest based on the class tap extracted by the class tap extracting step A class classification step, a prediction result using the prediction tap for each class of the target pixel classified by the class classification step, a pixel of the teacher image data corresponding to the target pixel, and A coefficient calculation step for calculating the coefficient that minimizes the error of A learning step for performing a learning process for obtaining the coefficient for each class, and the learning process is performed for each processing block of the student image data having a block size determined based on the predetermined number of times. And a control step for controlling the learning step.

本発明の第2の側面によれば、原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、前記符号化データを復号することによって得られる画像データの画素数を前記所定数の逆数倍にすることにより得られた、前記原画像データの画素数と同一の画素数の出力画像データを、その出力画像データよりも高画質の高画質画像データに変換する予測演算に用いられる係数が、前記出力画像データに相当する画像である生徒画像データを用いた前記予測演算の結果と、前記高画質画像データに相当する画像である教師画像データとの誤差を最小にする学習により求められる。また、前記生徒画像データの注目している画素である注目画素を、その注目画素に対応する、前記教師画像データの画素に変換する前記予測演算に用いる複数の画素が、前記生徒画像データから予測タップとして抽出され、前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素が、前記生徒画像データからクラスタップとして抽出される。さらに、抽出された前記クラスタップに基づいて、前記注目画素がクラス分類されるとともに、クラス分けされた前記注目画素のクラスごとに、前記予測タップを用いた前記予測演算の結果と、前記注目画素に対応する、前記教師画像データの画素との誤差を最小にする前記係数が演算される。また、前記所定数倍に基づいて決定されるブロックサイズの、前記生徒画像データの処理ブロックごとに、前記クラスごとの前記係数を求める学習処理が行われるように、各種、制御される。   According to the second aspect of the present invention, the encoded data obtained by encoding the converted image data obtained by converting the number of pixels of the original image data by a predetermined number of times for each predetermined block is obtained for each predetermined block. An output image having the same number of pixels as the number of pixels of the original image data obtained by decoding and multiplying the number of pixels of the image data obtained by decoding the encoded data by a reciprocal of the predetermined number The coefficient used for the prediction calculation for converting the data into the high-quality image data having higher image quality than the output image data is the result of the prediction calculation using the student image data that is an image corresponding to the output image data; It is obtained by learning that minimizes an error from teacher image data that is an image corresponding to the high-quality image data. In addition, a plurality of pixels used for the prediction calculation for converting a target pixel that is a target pixel of the student image data into a pixel of the teacher image data corresponding to the target pixel is predicted from the student image data. A plurality of pixels that are extracted as taps and used for class classification that classifies the pixel of interest into any one of a plurality of classes are extracted as class taps from the student image data. Further, the pixel of interest is classified based on the extracted class tap, and the result of the prediction calculation using the prediction tap for each class of the pixel of interest classified, and the pixel of interest The coefficient that minimizes the error with the pixel of the teacher image data corresponding to is calculated. Further, various control is performed so that the learning process for obtaining the coefficient for each class is performed for each processing block of the student image data having a block size determined based on the predetermined number of times.

以上のように、本発明の第1の側面によれば、例えば、効果的にノイズを除去して、高画質の画像データを得ることができる。   As described above, according to the first aspect of the present invention, for example, noise can be effectively removed and high-quality image data can be obtained.

また、本発明の第2の側面によれば、例えば、高画質の画像データを生成するための係数を求めることができる。   Further, according to the second aspect of the present invention, for example, a coefficient for generating high-quality image data can be obtained.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の第1の側面の画像処理装置は、
原画像データ(例えば、図1の原画像)の画素数を所定数倍に変換した変換後画像データ(例えば、図1の縮小画像)を所定のブロックごとに符号化して得られる符号化データ(例えば、図1のMPEG符号化画像)を、前記所定のブロックごとに復号し、
前記符号化データを復号することによって得られる画像データ(例えば、図1のMPEG復号画像)を、その画素数を前記所定数の逆数倍にすることにより、前記原画像データの画素数と同一の画素数の出力画像データ(例えば、図1の拡大MPEG復号画像)に変換する
デコーダ(例えば、図1のデコーダ32)が出力する前記出力画像データを処理する画像処理装置(例えば、図2の画像変換部61)において、
前記出力画像データの注目している画素である注目画素に対応する、前記出力画像データよりも高画質の高画質画像データの画素を予測するために用いる複数の画素を、前記出力画像データから予測タップとして抽出する予測タップ抽出手段(例えば、図2の予測タップ抽出部123)と、
前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記出力画像データからクラスタップとして抽出するクラスタップ抽出手段(例えば、図2のクラスタップ抽出部124)と、
前記クラスタップ抽出手段により抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段(例えば、図2のクラス分類部125)と、
前記出力画像データに相当する生徒画像データと所定の係数とを用いた予測演算により求められる、前記高画質画像データに相当する教師画像データを予測した予測値と、前記教師画像データとの誤差を最小にする学習により求められた、前記複数のクラスそれぞれに対応する前記係数の中から、前記注目画素のクラスに対応する係数を出力する係数出力手段(例えば、図2の係数記憶部126)と、
前記係数出力手段により出力された前記係数と、前記予測タップ抽出手段により抽出された前記予測タップとを用いた前記予測演算により、前記注目画素に対応する、前記高画質画像データの画素を求める予測演算手段(例えば、図2の予測演算部127)と
を有し、前記出力画像データを前記高画質画像データに変換する画像変換処理を行う画像変換手段(例えば、図2の画像変換部61)と、
前記所定数倍に基づいて決定されるブロックサイズの、前記出力画像データの処理ブロックごとに、前記画像変換処理が行われるように、前記画像変換手段を制御する制御手段(例えば、図2の制御部128)と
を備える。
The image processing apparatus according to the first aspect of the present invention provides:
Encoded data (for example, encoded image data (for example, the reduced image in FIG. 1) obtained by encoding the converted image data (for example, the reduced image in FIG. 1) obtained by converting the number of pixels of the original image data (for example, the original image in FIG. 1) by a predetermined number times. For example, the MPEG encoded image of FIG. 1) is decoded for each of the predetermined blocks,
The image data obtained by decoding the encoded data (for example, the MPEG decoded image in FIG. 1) is the same as the number of pixels of the original image data by making the number of pixels the inverse of the predetermined number. The image processing apparatus (for example, FIG. 2) that processes the output image data output by the decoder (for example, the decoder 32 of FIG. 1) that converts the output image data to the number of pixels of the output image data (for example, the enlarged MPEG decoded image of FIG. 1). In the image conversion unit 61),
A plurality of pixels used for predicting pixels of high-quality image data with higher image quality than the output image data corresponding to the target pixel that is a pixel of interest of the output image data are predicted from the output image data Prediction tap extraction means (for example, prediction tap extraction unit 123 in FIG. 2) that extracts as taps;
Class tap extraction means (for example, class tap extraction in FIG. 2) that extracts a plurality of pixels used for class classification that classifies the target pixel into one of a plurality of classes from the output image data. Part 124),
Class classification means (for example, the class classification unit 125 in FIG. 2) for classifying the pixel of interest based on the class tap extracted by the class tap extraction means;
An error between the predicted value obtained by predicting the teacher image data corresponding to the high-quality image data and the teacher image data obtained by a prediction calculation using the student image data corresponding to the output image data and a predetermined coefficient. Coefficient output means (for example, coefficient storage unit 126 in FIG. 2) for outputting a coefficient corresponding to the class of the target pixel from the coefficients corresponding to each of the plurality of classes obtained by learning to be minimized; ,
Prediction for obtaining a pixel of the high-quality image data corresponding to the pixel of interest by the prediction calculation using the coefficient output by the coefficient output unit and the prediction tap extracted by the prediction tap extraction unit And an image conversion means (for example, the image conversion unit 61 in FIG. 2) that performs an image conversion process for converting the output image data into the high-quality image data. When,
Control means (for example, the control shown in FIG. 2) that controls the image conversion means so that the image conversion processing is performed for each processing block of the output image data having a block size determined based on the predetermined multiple. 128).

前記所定のブロックのブロックサイズを、前記所定数の逆数倍にした逆数倍ブロックの境界上の画素である境界上画素が、前記出力画像データに含まれるか否かを判定する画素判定手段(例えば、図17のブロックサイズ判定部402)をさらに備え、
前記画像変換手段は、前記画素判定手段により、前記出力画像データに、前記境界上画素が含まれると判定された場合、前記出力画像データを前記高画質画像データに変換する。
Pixel determination means for determining whether or not a pixel on the boundary, which is a pixel on the boundary of the reciprocal block obtained by reversing the block size of the predetermined block, is included in the output image data (For example, a block size determination unit 402 in FIG. 17),
The image conversion unit converts the output image data into the high-quality image data when the pixel determination unit determines that the output image data includes the pixel on the boundary.

前記注目画素の前記クラス分類に用いる閾値を、前記出力画像データの画素を用いて算出する閾値算出手段(例えば、図2の閾値算出部122)をさらに備え、
前記クラス分類手段は、前記クラスタップ抽出手段により抽出された前記クラスタップと、前記閾値算出手段により算出された前記閾値とに基づいて、前記注目画素をクラス分類する。
A threshold value calculation means (for example, a threshold value calculation unit 122 in FIG. 2) that calculates a threshold value used for the class classification of the target pixel by using a pixel of the output image data;
The class classification unit classifies the pixel of interest based on the class tap extracted by the class tap extraction unit and the threshold value calculated by the threshold value calculation unit.

前記所定のブロックのブロックサイズを、前記所定数の逆数倍にした逆数倍ブロックの境界上の、前記出力画像データの画素である境界上画素が、前記処理ブロックに含まれるか否かを判定する境界上画素判定手段(例えば、図7のステップS33の処理を実行する図2の閾値算出部122)をさらに備え、
前記閾値算出手段は、前記境界上画素判定手段により、前記処理ブロックに、前記境界上画素が含まれると判定された場合、前記閾値を、前記処理ブロックの画素から前記境界上画素を除外した画素を用いて算出する。
It is determined whether or not a pixel on the boundary, which is a pixel of the output image data, on the boundary of the reciprocal multiple block obtained by making the block size of the predetermined block the reciprocal multiple of the predetermined number is included in the processing block. It further comprises a boundary pixel determination means for determining (for example, the threshold value calculation unit 122 in FIG. 2 that executes the process of step S33 in FIG. 7),
The threshold calculation means, when the boundary pixel determination means determines that the boundary pixel is included in the processing block, the threshold value is a pixel obtained by excluding the boundary pixel from the pixel of the processing block. Calculate using.

前記処理ブロックにおける各画素の位置を表す情報を画素位置モードとして、前記注目画素の画素位置モードを判定する画素位置モード判定手段(例えば、図10の画素位置モード判定部275)をさらに備え、
前記係数出力手段は、前記注目画素のクラスと画素位置モードに対応する係数を出力する。
It further includes pixel position mode determination means (for example, a pixel position mode determination unit 275 in FIG. 10) that determines the pixel position mode of the pixel of interest using information representing the position of each pixel in the processing block as a pixel position mode.
The coefficient output means outputs a coefficient corresponding to the class of pixel of interest and the pixel position mode.

前記注目画素が、前記処理ブロックを複数の領域に区分したときに、前記複数の領域のうちの、いずれかの領域に位置するかを判定する領域判定手段(例えば、図10の領域判定部277)をさらに備え、
前記予測演算手段は、前記注目画素が位置する領域に対応した前記予測演算により、前記注目画素に対応する、前記高画質画像データの画素を求める。
Region determination means for determining whether the target pixel is located in any of the plurality of regions when the processing block is divided into a plurality of regions (for example, the region determination unit 277 in FIG. 10). )
The prediction calculation means obtains a pixel of the high-quality image data corresponding to the target pixel by the prediction calculation corresponding to a region where the target pixel is located.

本発明の第1の側面の画像処理方法、またはプログラムは、
原画像データ(例えば、図1の原画像)の画素数を所定数倍に変換した変換後画像データ(例えば、図1の縮小画像)を所定のブロックごとに符号化して得られる符号化データ(例えば、図1のMPEG符号化画像)を、前記所定のブロックごとに復号し、
前記符号化データを復号することによって得られる画像データ(例えば、図1のMPEG復号画像)を、その画素数を前記所定数の逆数倍にすることにより、前記原画像データの画素数と同一の画素数の出力画像データ(例えば、図1の拡大MPEG復号画像)に変換する
デコーダ(例えば、図2のデコーダ32)が出力する前記出力画像データを処理する画像処理方法、または
原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、
前記符号化データを復号することによって得られる画像データを、その画素数を前記所定数の逆数倍にすることにより、前記原画像データの画素数と同一の画素数の出力画像データに変換する
デコーダが出力する前記出力画像データを処理する画像処理をコンピュータに実行させるプログラムにおいて、
前記出力画像データの注目している画素である注目画素に対応する、前記出力画像データよりも高画質の高画質画像データの画素を予測するために用いる複数の画素を、前記出力画像データから予測タップとして抽出する予測タップ抽出ステップ(例えば、図7のステップS37)と、
前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記出力画像データからクラスタップとして抽出するクラスタップ抽出ステップ(例えば、図7のステップS38)と、
前記クラスタップ抽出ステップにより抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類ステップ(例えば、図7のステップS39)と、
前記出力画像データに相当する生徒画像データと所定の係数とを用いた予測演算により求められる、前記高画質画像データに相当する教師画像データを予測した予測値と、前記教師画像データとの誤差を最小にする学習により求められた、前記複数のクラスそれぞれに対応する前記係数の中から、前記注目画素のクラスに対応する係数を出力する係数出力ステップ(例えば、図7のステップS40)と、
前記係数出力ステップにより出力された前記係数と、前記予測タップ抽出ステップにより抽出された前記予測タップとを用いた前記予測演算により、前記注目画素に対応する、前記高画質画像データの画素を求める予測演算ステップ(例えば、図7のステップS41)と
を有し、前記出力画像データを前記高画質画像データに変換する画像変換処理を行う画像変換ステップ(例えば、図7のステップS31乃至ステップS43)と、
前記所定数倍に基づいて決定されるブロックサイズの、前記出力画像データの処理ブロックごとに、前記画像変換処理が行われるように、前記画像変換ステップを制御する制御ステップ(例えば、図7のステップS31)と
を含む。
An image processing method or program according to the first aspect of the present invention includes:
Encoded data (for example, encoded image data (for example, the reduced image in FIG. 1) obtained by encoding the converted image data (for example, the reduced image in FIG. 1) obtained by converting the number of pixels of the original image data (for example, the original image in FIG. 1) by a predetermined number times. For example, the MPEG encoded image of FIG. 1) is decoded for each of the predetermined blocks,
The image data obtained by decoding the encoded data (for example, the MPEG decoded image in FIG. 1) is the same as the number of pixels of the original image data by making the number of pixels the inverse of the predetermined number. An image processing method for processing the output image data output by a decoder (for example, the decoder 32 of FIG. 2), or an original image data The encoded data obtained by encoding the converted image data obtained by converting the number of pixels by a predetermined number of times for each predetermined block is decoded for each predetermined block,
Image data obtained by decoding the encoded data is converted to output image data having the same number of pixels as the number of pixels of the original image data by multiplying the number of pixels by a reciprocal of the predetermined number. In a program for causing a computer to execute image processing for processing the output image data output by a decoder,
A plurality of pixels used for predicting pixels of high-quality image data with higher image quality than the output image data corresponding to the target pixel that is a pixel of interest of the output image data are predicted from the output image data A prediction tap extraction step (for example, step S37 in FIG. 7) for extracting as a tap;
A class tap extraction step (eg, step S38 in FIG. 7) that extracts a plurality of pixels used for class classification that classifies the target pixel into any one of a plurality of classes from the output image data. When,
A class classification step (for example, step S39 in FIG. 7) for classifying the pixel of interest based on the class tap extracted in the class tap extraction step;
An error between the predicted value obtained by predicting the teacher image data corresponding to the high-quality image data and the teacher image data obtained by a prediction calculation using the student image data corresponding to the output image data and a predetermined coefficient. A coefficient output step (for example, step S40 in FIG. 7) for outputting a coefficient corresponding to the class of the target pixel from the coefficients corresponding to each of the plurality of classes obtained by learning to minimize;
Prediction for obtaining a pixel of the high-quality image data corresponding to the target pixel by the prediction calculation using the coefficient output by the coefficient output step and the prediction tap extracted by the prediction tap extraction step And an image conversion step (for example, step S31 to step S43 in FIG. 7) for performing an image conversion process for converting the output image data into the high-quality image data. ,
A control step for controlling the image conversion step so that the image conversion process is performed for each processing block of the output image data having a block size determined based on the predetermined number of times (for example, the step of FIG. 7) And S31).

本発明の第2の側面の学習装置は、
原画像データ(例えば、図1の原画像)の画素数を所定数倍に変換した変換後画像データ(例えば、図1の縮小画像)を所定のブロックごとに符号化して得られる符号化データ(例えば、図1のMPEG符号化画像)を、前記所定のブロックごとに復号し、
前記符号化データを復号することによって得られる画像データ(例えば、図1のMPEG復号画像)の画素数を前記所定数の逆数倍にすることにより得られた、前記原画像データの画素数と同一の画素数の出力画像データ(例えば、図1の拡大MPEG復号画像)を、その出力画像データよりも高画質の高画質画像データに変換する予測演算に用いられる係数を、前記出力画像データに相当する画像である生徒画像データを用いた前記予測演算の結果と、前記高画質画像データに相当する画像である教師画像データとの誤差を最小にする学習により求める学習装置(例えば、図8の学習装置201)において、
前記生徒画像データの注目している画素である注目画素を、その注目画素に対応する、前記教師画像データの画素に変換する前記予測演算に用いる複数の画素を、前記生徒画像データから予測タップとして抽出する予測タップ抽出手段(例えば、図8の予測タップ抽出部235)と、
前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記生徒画像データからクラスタップとして抽出するクラスタップ抽出手段(例えば、図8のクラスタップ抽出部236)と、
前記クラスタップ抽出手段により抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段(例えば、図8のクラス分類部237)と、
前記クラス分類手段によりクラス分けされた前記注目画素のクラスごとに、前記予測タップを用いた前記予測演算の結果と、前記注目画素に対応する、前記教師画像データの画素との誤差を最小にする前記係数を演算する係数演算手段(例えば、図8の係数算出部239)と
を有し、前記クラスごとの前記係数を求める学習処理を行う学習手段(例えば、図8の学習装置201)と、
前記所定数倍に基づいて決定されるブロックサイズの、前記生徒画像データの処理ブロックごとに、前記学習処理が行われるように、前記学習手段を制御する制御手段(例えば、図8の制御部240)と
を備える。
The learning device according to the second aspect of the present invention provides:
Encoded data (for example, encoded image data (for example, the reduced image in FIG. 1) obtained by encoding the converted image data (for example, the reduced image in FIG. 1) obtained by converting the number of pixels of the original image data (for example, the original image in FIG. 1) by a predetermined number times. For example, the MPEG encoded image of FIG. 1) is decoded for each of the predetermined blocks,
The number of pixels of the original image data obtained by multiplying the number of pixels of image data (for example, MPEG decoded image of FIG. 1) obtained by decoding the encoded data by a reciprocal multiple of the predetermined number; A coefficient used for a prediction calculation for converting output image data having the same number of pixels (for example, the enlarged MPEG decoded image in FIG. 1) into high-quality image data having higher image quality than the output image data is used as the output image data. A learning device (for example, FIG. 8) that obtains by learning that minimizes an error between the result of the prediction calculation using student image data that is a corresponding image and teacher image data that is an image corresponding to the high-quality image data. In the learning device 201)
A plurality of pixels used in the prediction calculation for converting a target pixel that is a target pixel of the student image data into a pixel of the teacher image data corresponding to the target pixel is used as a prediction tap from the student image data. A prediction tap extraction means (for example, a prediction tap extraction unit 235 in FIG. 8) to extract;
Class tap extraction means for extracting, as class taps, a plurality of pixels used for class classification that classifies the pixel of interest into one of a plurality of classes (for example, class tap extraction in FIG. 8). Part 236),
A class classification unit (for example, a class classification unit 237 in FIG. 8) that classifies the target pixel based on the class tap extracted by the class tap extraction unit;
For each class of the target pixel classified by the class classification unit, an error between the prediction calculation result using the prediction tap and the pixel of the teacher image data corresponding to the target pixel is minimized. A learning unit (for example, the learning apparatus 201 in FIG. 8) that performs a learning process for obtaining the coefficient for each class, and a coefficient calculation unit (for example, the coefficient calculation unit 239 in FIG. 8) that calculates the coefficient.
Control means (for example, the control unit 240 in FIG. 8) that controls the learning means so that the learning process is performed for each processing block of the student image data having a block size determined based on the predetermined multiple. ) And.

前記注目画素の前記クラス分類に用いる閾値を、前記生徒画像データの画素を用いて算出する閾値算出手段(例えば、図8の閾値算出部234)をさらに備え、
前記クラス分類手段は、前記クラスタップ抽出手段により抽出された前記クラスタップと、前記閾値算出手段により算出された前記閾値とに基づいて、前記注目画素をクラス分類する。
A threshold value calculation means (for example, a threshold value calculation unit 234 in FIG. 8) for calculating a threshold value used for the class classification of the target pixel by using a pixel of the student image data;
The class classification unit classifies the pixel of interest based on the class tap extracted by the class tap extraction unit and the threshold value calculated by the threshold value calculation unit.

前記所定のブロックのブロックサイズを、前記所定数の逆数倍にした逆数倍ブロックの境界上の、前記生徒画像データの画素である境界上画素が、前記処理ブロックに含まれるか否かを判定する境界上画素判定手段(例えば、図9のステップS73の処理を実行する図8の閾値算出部234)をさらに備え、
前記閾値算出手段は、前記境界上画素判定手段により、前記処理ブロックに、前記画素上画素が含まれると判定された場合、前記閾値を、前記処理ブロックの画素から前記境界上画素を除外した画素を用いて算出する。
It is determined whether or not a pixel on the boundary, which is a pixel of the student image data, is included in the processing block on a boundary of an inverse multiple block obtained by making the block size of the predetermined block an inverse multiple of the predetermined number. It further includes a pixel determination unit for determination (for example, the threshold value calculation unit 234 in FIG. 8 that executes the process of step S73 in FIG. 9),
The threshold calculation means, when the boundary pixel determination means determines that the pixel on the pixel is included in the processing block, the pixel obtained by excluding the pixel on the boundary from the pixel of the processing block Calculate using.

前記処理ブロックにおける各画素の位置を表す情報を画素位置モードとして、前記注目画素の画素位置モードを判定する画素位置モード判定手段(例えば、図15の画素位置モード判定部339)をさらに備え、
前記係数演算手段は、前記注目画素のクラスと画素位置モードごとに、前記予測タップを用いた前記予測演算の結果と、前記教師画像データの画素との誤差を最小にする前記係数を演算する。
It further comprises pixel position mode determination means (for example, a pixel position mode determination unit 339 in FIG. 15) that determines information indicating the position of each pixel in the processing block as a pixel position mode and determines the pixel position mode of the target pixel.
The coefficient calculation means calculates the coefficient that minimizes an error between the prediction calculation result using the prediction tap and the pixel of the teacher image data for each class of pixel of interest and pixel position mode.

本発明の第2の側面の学習方法、またはプログラムは、
原画像データ(例えば、図1の原画像)の画素数を所定数倍に変換した変換後画像データ(例えば、図1の縮小画像)を所定のブロックごとに符号化して得られる符号化データ(例えば、図1のMPEG符号化画像)を、前記所定のブロックごとに復号し、
前記符号化データを復号することによって得られる画像データ(例えば、図1のMPEG復号画像)の画素数を前記所定数の逆数倍にすることにより得られた、前記原画像データの画素数と同一の画素数の出力画像データ(例えば、図1の拡大MPEG復号画像)を、その出力画像データよりも高画質の高画質画像データに変換する予測演算に用いられる係数を、前記出力画像データに相当する画像である生徒画像データを用いた前記予測演算の結果と、前記高画質画像データに相当する画像である教師画像データとの誤差を最小にする学習により求める学習方法、または
原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、
前記符号化データを復号することによって得られる画像データの画素数を前記所定数の逆数倍にすることにより得られた、前記原画像データの画素数と同一の画素数の出力画像データを、その出力画像データよりも高画質の高画質画像データに変換する予測演算に用いられる係数を、前記出力画像データに相当する画像である生徒画像データを用いた前記予測演算の結果と、前記高画質画像データに相当する画像である教師画像データとの誤差を最小にする学習により求める処理をコンピュータに実行させるプログラムにおいて、
前記生徒画像データの注目している画素である注目画素を、その注目画素に対応する、前記教師画像データの画素に変換する前記予測演算に用いる複数の画素を、前記生徒画像データから予測タップとして抽出する予測タップ抽出ステップ(例えば、図9のステップS77)と、
前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記生徒画像データからクラスタップとして抽出するクラスタップ抽出ステップ(例えば、図9のステップS78)と、
前記クラスタップ抽出ステップにより抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類ステップ(例えば、図9のステップS79)と、
前記クラス分類ステップによりクラス分けされた前記注目画素のクラスごとに、前記予測タップを用いた前記予測演算の結果と、前記注目画素に対応する、前記教師画像データの画素との誤差を最小にする前記係数を演算する係数演算ステップ(例えば、図9のステップS83)と
を有し、前記クラスごとの前記係数を求める学習処理を行う学習ステップ(例えば、図9のステップS71乃至ステップS83)と、
前記所定数倍に基づいて決定されるブロックサイズの、前記生徒画像データの処理ブロックごとに、前記学習処理が行われるように、前記学習ステップを制御する制御ステップ(例えば、図9のステップS71)と
を含む。
The learning method or program according to the second aspect of the present invention includes:
Encoded data (for example, encoded image data (for example, the reduced image in FIG. 1) obtained by encoding the converted image data (for example, the reduced image in FIG. 1) obtained by converting the number of pixels of the original image data (for example, the original image in FIG. 1) by a predetermined number times. For example, the MPEG encoded image of FIG. 1) is decoded for each of the predetermined blocks,
The number of pixels of the original image data obtained by multiplying the number of pixels of image data (for example, MPEG decoded image of FIG. 1) obtained by decoding the encoded data by a reciprocal multiple of the predetermined number; A coefficient used for a prediction calculation for converting output image data having the same number of pixels (for example, the enlarged MPEG decoded image in FIG. 1) into high-quality image data having higher image quality than the output image data is used as the output image data. A learning method obtained by learning that minimizes an error between the result of the prediction calculation using student image data that is an image corresponding to the teacher image data that is an image corresponding to the high-quality image data, or the original image data The encoded data obtained by encoding the converted image data obtained by converting the number of pixels by a predetermined number of times for each predetermined block is decoded for each predetermined block,
Output image data having the same number of pixels as the number of pixels of the original image data, obtained by multiplying the number of pixels of the image data obtained by decoding the encoded data by a reciprocal of the predetermined number, The coefficient used for the prediction calculation for converting the high-quality image data with higher image quality than the output image data, the result of the prediction calculation using the student image data that is the image corresponding to the output image data, and the image quality In a program that causes a computer to execute processing to be obtained by learning that minimizes an error from teacher image data that is an image corresponding to image data,
A plurality of pixels used in the prediction calculation for converting a target pixel that is a target pixel of the student image data into a pixel of the teacher image data corresponding to the target pixel is used as a prediction tap from the student image data. A prediction tap extraction step (for example, step S77 in FIG. 9) to be extracted;
A class tap extraction step (eg, step S78 in FIG. 9) that extracts a plurality of pixels used for class classification that classifies the target pixel into any one of a plurality of classes as class taps from the student image data. When,
A class classification step (for example, step S79 in FIG. 9) for classifying the pixel of interest based on the class tap extracted by the class tap extraction step;
For each class of the target pixel classified by the class classification step, an error between the prediction calculation result using the prediction tap and the pixel of the teacher image data corresponding to the target pixel is minimized. A coefficient calculating step (for example, step S83 in FIG. 9) for calculating the coefficient, and a learning step (for example, step S71 to step S83 in FIG. 9) for performing a learning process for obtaining the coefficient for each class;
A control step (for example, step S71 in FIG. 9) for controlling the learning step so that the learning process is performed for each processing block of the student image data having a block size determined based on the predetermined number of times. Includes and.

以下、図面を参照して、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図2は、本発明を適用した画像変換部の一実施の形態の構成例を示すブロック図である。   FIG. 2 is a block diagram showing a configuration example of an embodiment of an image conversion unit to which the present invention is applied.

図2の画像変換部61は、例えば、図1のデコーダ32が出力する出力画像データを、その出力画像データよりも高画質の高画質画像データに変換する画像変換処理を行う。即ち、画像変換部61は、例えば、図1のデコーダ32が出力する出力画像データとしての、例えば、図1で説明したような拡大MPEG復号画像などから、MPEG-2による8×8画素のブロック単位での符号化および復号に起因して生じたブロック歪やモスキートノイズを除去するノイズ除去処理を行う。   The image conversion unit 61 in FIG. 2 performs, for example, an image conversion process for converting the output image data output from the decoder 32 in FIG. 1 into high-quality image data with higher image quality than the output image data. That is, the image conversion unit 61 uses, for example, an 8 × 8 pixel block by MPEG-2 from the expanded MPEG decoded image as described in FIG. 1 as the output image data output from the decoder 32 of FIG. A noise removal process is performed to remove block distortion and mosquito noise caused by encoding and decoding in units.

なお、出力画像データは、ここでは、MPEG-2の復号によって直接得られる1440×1080画素のMPEG復号画像を横方向に4/3倍した1920×1080画素の拡大MPEG復号画像であるため、出力画像データにおいて、MPEG復号画像の16×16画素(横×縦)のマクロブロックは、そのマクロブロックを横方向に4/3倍にした21.333(正確には、21.333・・・)×16画素(横×縦)の拡大マクロブロックになる。また、出力画像データにおいて、MPEG復号画像のマクロブロックを構成する8×8画素のブロックは、そのブロックを横方向に4/3倍にした10.666×8画素(横×縦)の拡大ブロックとなる。   Note that the output image data here is an expanded MPEG decoded image of 1920 × 1080 pixels obtained by multiplying the MPEG decoded image of 1440 × 1080 pixels directly obtained by MPEG-2 decoding by 4/3 in the horizontal direction. In the image data, a 16 × 16 pixel (horizontal × vertical) macroblock of the MPEG decoded image is 21.333 (more precisely, 21.333...) Obtained by multiplying the macroblock by 4/3 in the horizontal direction. It becomes an enlarged macroblock of × 16 pixels (horizontal × vertical). In the output image data, an 8 × 8 pixel block constituting a macroblock of the MPEG decoded image is an enlarged block of 10.666 × 8 pixels (horizontal × vertical) obtained by multiplying the block by 4/3 in the horizontal direction. It becomes.

ここで、以下では、説明を簡単にするために、輝度信号のみを考える。従って、MPEG復号画像のマクロブロックは、2×2個(横×縦)の輝度信号のブロックで構成され、拡大MPEG復号画像の拡大マクロブロックは、2×2個(横×縦)の輝度信号の拡大ブロックで構成されることとする。   Here, in order to simplify the description, only the luminance signal is considered below. Accordingly, the macroblock of the MPEG decoded image is composed of 2 × 2 (horizontal × vertical) luminance signal blocks, and the enlarged macroblock of the enlarged MPEG decoded image is 2 × 2 (horizontal × vertical) luminance signal. It is assumed that it is composed of an enlarged block.

画像変換部61は、ブロック抽出部121、閾値算出部122、予測タップ抽出部123、クラスタップ抽出部124、クラス分類部125、係数記憶部126、予測演算部127、および制御部128により構成される。   The image conversion unit 61 includes a block extraction unit 121, a threshold calculation unit 122, a prediction tap extraction unit 123, a class tap extraction unit 124, a class classification unit 125, a coefficient storage unit 126, a prediction calculation unit 127, and a control unit 128. The

ブロック抽出部121は、図1のデコーダ32から供給されてくる出力画像データから、後述する64×16画素の抽出対象ブロックを、例えば、いわゆるラスタスキャン順に、順次抽出する。また、ブロック抽出部121は、抽出対象ブロックを、後述する複数の処理対象ブロックに区分し、閾値算出部122に、順次供給する。   The block extraction unit 121 sequentially extracts, from the output image data supplied from the decoder 32 of FIG. 1, 64 × 16 pixel extraction target blocks to be described later, for example, in a so-called raster scan order. Further, the block extraction unit 121 divides the extraction target block into a plurality of processing target blocks to be described later, and sequentially supplies them to the threshold value calculation unit 122.

閾値算出部122は、ブロック抽出部121から供給された処理対象ブロックを、後述する複数の処理ブロックに区分し、その処理ブロックを、例えば、ラスタスキャン順に、順次注目ブロックとする。   The threshold value calculation unit 122 divides the processing target block supplied from the block extraction unit 121 into a plurality of processing blocks described later, and sequentially sets the processing blocks as the target block in the raster scan order, for example.

閾値算出部122は、後述する予測タップ抽出部123が注目する画素である注目画素を、複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる閾値を、注目ブロックから算出し、クラス分類部125に供給する。   The threshold calculation unit 122 calculates, from the target block, a threshold used for class classification that classifies a target pixel, which is a target pixel of the prediction tap extraction unit 123 described later, into one of a plurality of classes. The data is supplied to the class classification unit 125.

予測タップ抽出部123は、注目ブロックに含まれる画素を、例えば、ラスタスキャン順に、順次、注目画素として選択し、さらに、注目画素に対応する、出力画像データを変換して得ようとする高画質画像データの画素の画素値を予測するために用いる複数の画素を、予測タップとして、出力画像データから抽出する。   The prediction tap extraction unit 123 selects pixels included in the target block sequentially as the target pixel, for example, in the raster scan order, and further converts the output image data corresponding to the target pixel to obtain high image quality. A plurality of pixels used for predicting the pixel values of the pixels of the image data are extracted from the output image data as prediction taps.

即ち、予測タップ抽出部123は、例えば、注目画素を中心として水平方向に並ぶ複数の画素である水平方向のタップ71を、予測タップとして、出力画像データから抽出する。ここで、図2では、図2右上に白丸で示す注目画素の右に隣接する、黒丸で示す4個の画素、注目画素の左に隣接する、黒丸で示す4個の画素、および注目画素の、水平方向に並ぶ9個の画素が、水平方向のタップ71として示されている。   That is, for example, the prediction tap extraction unit 123 extracts, from the output image data, the horizontal tap 71 that is a plurality of pixels arranged in the horizontal direction around the target pixel as a prediction tap. Here, in FIG. 2, four pixels indicated by black circles adjacent to the right of the pixel of interest indicated by white circles in the upper right of FIG. 2, four pixels indicated by black circles adjacent to the left of the pixel of interest, and pixels of interest Nine pixels arranged in the horizontal direction are shown as horizontal taps 71.

予測タップ抽出部123は、出力画像データから抽出した予測タップを、予測演算部127に供給する。   The prediction tap extraction unit 123 supplies the prediction tap extracted from the output image data to the prediction calculation unit 127.

クラスタップ抽出部124は、注目画素を、クラス分類するのに用いる複数の画素を、クラスタップとして、出力画像データから抽出する。   The class tap extraction unit 124 extracts a plurality of pixels used for classifying the target pixel as class taps from the output image data.

即ち、クラスタップ抽出部124は、例えば、注目画素を中心として水平方向に並ぶ複数の画素である水平方向のタップ71を、クラスタップとして、出力画像データから抽出する。   That is, for example, the class tap extraction unit 124 extracts, from the output image data, horizontal taps 71 that are a plurality of pixels arranged in the horizontal direction around the target pixel as class taps.

なお、ここでは、説明を簡単にするために、予測タップとクラスタップとは、同一のタップ構造(注目画素に対する位置関係)を有する複数の画素とする。但し、予測タップとクラスタップとは、異なるタップ構造を有する複数の画素とすることができる。   Here, in order to simplify the description, the prediction tap and the class tap are a plurality of pixels having the same tap structure (positional relationship with respect to the target pixel). However, the prediction tap and the class tap can be a plurality of pixels having different tap structures.

クラスタップ抽出部124は、出力画像データから抽出したクラスタップを、クラス分類部125に供給する。   The class tap extraction unit 124 supplies the class tap extracted from the output image data to the class classification unit 125.

クラス分類部125は、閾値算出部122から供給された閾値と、クラタップ抽出部124から供給されたクラスタップとに基づき、注目画素をクラス分類し、その結果得られるクラスに対応するクラスコードを係数記憶部126に供給する。   The class classification unit 125 classifies the pixel of interest based on the threshold value supplied from the threshold value calculation unit 122 and the class tap supplied from the clap tap extraction unit 124, and calculates a class code corresponding to the resulting class as a coefficient. The data is supplied to the storage unit 126.

係数記憶部126は、後述する学習処理が行われることにより得られるタップ係数が登録された係数テーブルを記憶しており、クラス分類部125から供給されたクラスコードに対応付けられたタップ係数(注目画素のクラスのタップ係数)を予測演算部127に供給する。   The coefficient storage unit 126 stores a coefficient table in which tap coefficients obtained by performing a learning process to be described later are registered, and tap coefficients associated with the class codes supplied from the class classification unit 125 (attention) The pixel class tap coefficient) is supplied to the prediction calculation unit 127.

予測演算部127は、予測タップ抽出部123から供給された予測タップと、係数記憶部126から供給されたタップ係数とを用いて、注目画素に対応する、高画質画像データの画素の画素値(予測値)を求める所定の予測演算を行う。これにより、予測演算部127は、注目画素に対応する、高画質画像データの画素の画素値を求めて出力する。   The prediction calculation unit 127 uses the prediction tap supplied from the prediction tap extraction unit 123 and the tap coefficient supplied from the coefficient storage unit 126, and the pixel value of the pixel of the high-quality image data corresponding to the target pixel ( Predetermined calculation for obtaining (predicted value) is performed. Thereby, the prediction calculation unit 127 calculates and outputs the pixel value of the pixel of the high-quality image data corresponding to the target pixel.

制御部128は、ブロック抽出部121、閾値算出部122、予測タップ抽出部123、クラスタップ抽出部124、クラス分類部125、係数記憶部126、および予測演算部127を制御する。   The control unit 128 controls the block extraction unit 121, the threshold calculation unit 122, the prediction tap extraction unit 123, the class tap extraction unit 124, the class classification unit 125, the coefficient storage unit 126, and the prediction calculation unit 127.

即ち、制御部128は、画像変換部61における画像変換処理が、処理ブロックごとに行われるように、各ブロックを制御する。   That is, the control unit 128 controls each block so that the image conversion process in the image conversion unit 61 is performed for each processing block.

次に、図3および図4を参照して、図2のブロック抽出部121における処理を説明する。   Next, with reference to FIGS. 3 and 4, processing in the block extraction unit 121 in FIG. 2 will be described.

図3は、ブロック抽出部121が、抽出対象ブロックを抽出する順番を示す図である。   FIG. 3 is a diagram illustrating the order in which the block extraction unit 121 extracts extraction target blocks.

ブロック抽出部121は、出力画像データから、複数の拡大マクロブロックにより構成されるN×M画素(横×縦)(N,Mは自然数)の抽出対象ブロックを、例えば、ラスタスキャン順に順次抽出し、複数の処理対象ブロックに区分する。   The block extraction unit 121 sequentially extracts N × M pixel (horizontal × vertical) (N and M are natural numbers) extraction target blocks composed of a plurality of enlarged macroblocks from the output image data, for example, in raster scan order. Divide into a plurality of processing target blocks.

即ち、ブロック抽出部121は、1920×1080画素(横×縦)の出力画像データから、64×16画素(横×縦)の抽出対象ブロックを、例えば、ラスタスキャン順に、順次抽出し、処理対象ブロックに区分する。   In other words, the block extraction unit 121 sequentially extracts 64 × 16 pixel (horizontal × vertical) extraction target blocks from the 1920 × 1080 pixel (horizontal × vertical) output image data, for example, in raster scan order, and performs processing. Divide into blocks.

次に、図4は、ブロック抽出部121が、抽出対象ブロックを、複数の処理対象ブロックに区分する方法を示す図である。   Next, FIG. 4 is a diagram illustrating a method in which the block extraction unit 121 divides the extraction target block into a plurality of processing target blocks.

図4上側には、ブロック抽出部121が抽出する64×16画素の抽出対象ブロックが示されており、抽出対象ブロックは、水平方向に並ぶ3個の、21.333×16画素の拡大マクロブロックにより構成される。   The upper side of FIG. 4 shows an extraction target block of 64 × 16 pixels extracted by the block extraction unit 121, and the extraction target blocks are three enlarged macroblocks of 21.333 × 16 pixels arranged in the horizontal direction. Consists of.

また、拡大マクロブロックは、2×2個の、10.666×8画素の拡大ブロックにより構成される。   The enlarged macroblock is composed of 2 × 2 enlarged blocks of 10.666 × 8 pixels.

図4下側には、抽出対象ブロックを区分することで得られる3個の処理対象ブロック131乃至133が示されている。   In the lower part of FIG. 4, three processing target blocks 131 to 133 obtained by dividing the extraction target block are shown.

64×16画素の抽出対象ブロックは、垂直方向に区切られることによって、左から順に、水平方向に並ぶ、21×16画素の処理対象ブロック131、22×16画素の処理対象ブロック132、および21×16画素の処理対象ブロック133に区分される。   The extraction target blocks of 64 × 16 pixels are partitioned in the vertical direction, so that the processing target block 131 of 21 × 16 pixels, the processing target block 132 of 22 × 16 pixels, and the 21 × are arranged in the horizontal direction sequentially from the left. The block is divided into 16-pixel processing target blocks 133.

そして、21×16画素の処理対象ブロック131は、11×8画素(横×縦)の左上および左下の処理ブロックと、10×8画素(横×縦)の右上および右下の処理ブロックとの合計4個の処理ブロックにより区分される。   The 21 × 16 pixel processing target block 131 includes an 11 × 8 pixel (horizontal × vertical) upper left and lower left processing block and a 10 × 8 pixel (horizontal × vertical) upper right and lower right processing block. It is divided by a total of 4 processing blocks.

また、22×16画素の処理対象ブロック132は、11×8画素の左上、左下、右上および右下の処理ブロックにより区分される。   The 22 × 16 pixel processing target block 132 is divided into 11 × 8 pixel upper left, lower left, upper right, and lower right processing blocks.

さらに、21×16画素の処理対象ブロック133は、10×8画素の左上および左下の処理ブロックと、11×8画素の右上および右下の処理ブロックとの合計4個の処理ブロックにより区分される。   Further, the 21 × 16 pixel processing target block 133 is divided into a total of four processing blocks, that is, 10 × 8 pixel upper left and lower left processing blocks and 11 × 8 pixel upper right and lower right processing blocks. .

ここで、図4下側の11×8画素の処理ブロックにおいて、斜線が付された部分は、図4上側の白色の矩形で示される拡大ブロックの境界を含む境界上画素を示している。なお、境界上画素は、11×8画素の処理ブロックにのみ含まれ、10×8画素の処理ブロックには含まれない。   Here, in the 11 × 8 pixel processing block on the lower side of FIG. 4, the hatched portion indicates pixels on the boundary including the boundary of the enlarged block indicated by the white rectangle on the upper side of FIG. 4. The pixel on the boundary is included only in the processing block of 11 × 8 pixels and is not included in the processing block of 10 × 8 pixels.

なお、処理ブロックのブロックサイズは、図1において、放送局31側で行われる、原画像を縮小画像に変換するときの倍率(3/4倍)に基づいて決定される。   Note that the block size of the processing block is determined based on the magnification (3/4 times) when the original image is converted into the reduced image, which is performed on the broadcasting station 31 side in FIG.

即ち、処理ブロックのブロックサイズは、MPEG復号画像の8×8画素のブロックを、横方向に、原画像を縮小画像に変換するときの倍率(3/4倍)の逆数倍である4/3倍し、その結果得られた10.666×8画素のブロックの横方向の画素の個数を、切捨てまたは切り上げをすることで得られたブロックサイズである。つまり、10.666×8画素のブロックの横方向の画素の個数の小数点第1位以下の部分を切り捨てることにより、処理ブロックのブロックサイズが、10×8画素のサイズに決定し、さらに、10.666×8画素のブロックの横方向の画素の個数の小数点第1位以下の部分を切り上げることにより、処理ブロックのブロックサイズが、11×8画素のサイズに決定する。   In other words, the block size of the processing block is a reciprocal multiple of the magnification (3/4 times) when converting the 8 × 8 pixel block of the MPEG decoded image in the horizontal direction into the reduced image. This is a block size obtained by multiplying by 3 and rounding or rounding up the number of pixels in the horizontal direction of the 10.666 × 8 pixel block obtained as a result. That is, the block size of the processing block is determined to be 10 × 8 pixels by truncating the portion below the first decimal point of the number of pixels in the horizontal direction of the 10.666 × 8 pixel block. By rounding up the portion of the number of pixels in the horizontal direction of the block of 666 × 8 pixels below the first decimal place, the block size of the processing block is determined to be 11 × 8 pixels.

また、図4下側の処理対象ブロック131、処理対象ブロック132、処理対象ブロック133は、それぞれ、図4上側の左から1番目、2番目、3番目の拡大マクロブロックに対応する。   Also, the processing target block 131, processing target block 132, and processing target block 133 on the lower side of FIG. 4 correspond to the first, second, and third enlarged macroblocks from the left on the upper side of FIG.

ブロック抽出部121は、図4上側に示された抽出対象ブロックを、図4下側に示された処理対象ブロック131乃至133に区分し、まず、処理対象ブロック131を、閾値算出部122に供給する。   The block extraction unit 121 classifies the extraction target block shown on the upper side of FIG. 4 into the processing target blocks 131 to 133 shown on the lower side of FIG. 4, and first supplies the processing target block 131 to the threshold value calculation unit 122. To do.

そして、処理対象ブロック131のすべての画素が注目画素とされると、ブロック抽出部121は、処理対象ブロック132を、閾値算出部122に供給する。   Then, when all the pixels of the processing target block 131 are the target pixel, the block extraction unit 121 supplies the processing target block 132 to the threshold value calculation unit 122.

さらに、処理対象ブロック132のすべての画素が注目画素とされると、ブロック抽出部121は、処理対象ブロック133を、閾値算出部122に供給する。   Further, when all the pixels of the processing target block 132 are set as the target pixel, the block extraction unit 121 supplies the processing target block 133 to the threshold calculation unit 122.

閾値算出部122は、ブロック抽出部121から、処理対象ブロックが供給されると、その処理対象ブロックを、図4下側に示した、10×8画素の処理ブロックや11×8画素の処理ブロックに区分し、例えば、ラスタスキャン順に、順次、注目ブロックとして、閾値を算出する。   When the processing target block is supplied from the block extraction unit 121, the threshold calculation unit 122 displays the processing target block as a 10 × 8 pixel processing block or an 11 × 8 pixel processing block shown on the lower side of FIG. For example, the threshold value is calculated as the target block sequentially in the raster scan order.

次に、図5は、閾値算出部122が、ブロック抽出部121から供給される処理ブロックから閾値を算出する処理を説明する図である。   Next, FIG. 5 is a diagram illustrating processing in which the threshold value calculation unit 122 calculates a threshold value from the processing blocks supplied from the block extraction unit 121.

図5上側には、閾値算出部121に供給された処理対象ブロック131(図4)が示されており、図5中央右側には、処理対象ブロック131に対応する拡大マクロブロック(の拡大前のマクロブロック)のブロック構造がフレーム構造である場合、つまりDCTタイプがフレームDCTである場合の処理対象ブロック131が示されている。また、図5中央左側には、処理対象ブロック131に対応する拡大マクロブロック(の拡大前のマクロブロック)のブロック構造がフィールド構造である場合、つまりDCTタイプがフィールドDCTである場合の処理対象ブロック131が示されている。   The processing target block 131 (FIG. 4) supplied to the threshold value calculation unit 121 is shown on the upper side of FIG. 5, and the enlarged macroblock corresponding to the processing target block 131 (before expansion) is shown on the right side of FIG. The block to be processed 131 is shown when the block structure of (macroblock) is a frame structure, that is, when the DCT type is a frame DCT. Further, on the left side of FIG. 5, when the block structure of the expanded macroblock (the macroblock before expansion) corresponding to the processing target block 131 is a field structure, that is, the processing target block when the DCT type is the field DCT. 131 is shown.

なお、図5中央右側のブロック、および図5中央左側のブロックに示される斜線部分は、処理対象ブロック131における偶数ライン(ボトムフィールド)を表しており、白色の部分は、処理対象ブロック131における奇数ライン(トップフィールド)を表している。   The hatched portion shown in the block on the right side of FIG. 5 and the block on the left side of FIG. 5 represents an even line (bottom field) in the processing target block 131, and the white portion represents an odd number in the processing target block 131. Represents a line (top field).

さらに、図5下側には、処理対象ブロック131の左上または左下の11×8画素の処理ブロックが示されている。なお、図5下側に示される11×8画素の処理ブロックのうちの斜線部分は、境界上画素を示している。   Further, on the lower side of FIG. 5, a processing block of 11 × 8 pixels at the upper left or lower left of the processing target block 131 is shown. In addition, the shaded portion in the processing block of 11 × 8 pixels shown on the lower side of FIG. 5 indicates the pixel on the boundary.

閾値算出部122は、例えば、ブロック抽出部121から供給された処理対象ブロック131に対応する拡大マクロブロックのブロック構造が、フレーム構造であるかフィールド構造であるかを判定する。なお、例えば、閾値算出部122は、処理対象ブロック131に対応する拡大マクロブロックのフィールド内自己相関とフィールド間相関とを比較することで、処理対象ブロック131に対応する拡大マクロブロックのブロック構造を判定することができる。   For example, the threshold value calculation unit 122 determines whether the block structure of the enlarged macroblock corresponding to the processing target block 131 supplied from the block extraction unit 121 is a frame structure or a field structure. For example, the threshold value calculation unit 122 compares the intra-field autocorrelation and the inter-field correlation of the expanded macroblock corresponding to the processing target block 131, thereby obtaining the block structure of the expanded macroblock corresponding to the processing target block 131. Can be determined.

処理対象ブロック131に対応する拡大マクロブロックのブロック構造がフレーム構造であると判定された場合、閾値算出部122は、図5中央右側に示された処理対象ブロック131のうちの、左上の11×8画素の処理ブロックを注目ブロックとして、閾値を算出する。   When it is determined that the block structure of the enlarged macroblock corresponding to the processing target block 131 is a frame structure, the threshold value calculation unit 122 determines that the upper left 11 × of the processing target blocks 131 illustrated on the right side of FIG. A threshold value is calculated using a processing block of 8 pixels as a target block.

閾値算出部121は、注目ブロックとしている左上の処理ブロックの画素のすべてが注目画素とされた後は、処理対象ブロック131の右上の10×8画素の処理ブロック、左下の11×8画素の処理ブロック、右下の10×8画素の処理ブロックの順番で、順次、注目ブロックとして、閾値を算出する。   After all the pixels of the upper left processing block as the target block have been set as the target pixels, the threshold calculation unit 121 performs processing of the upper right 10 × 8 pixel processing block and lower left 11 × 8 pixel processing. The threshold value is calculated as the target block sequentially in the order of the block and the processing block of 10 × 8 pixels at the lower right.

一方、処理対象ブロック131に対応する拡大マクロブロックのブロック構造がフィールド構造であると判定された場合、閾値算出部122は、図5中央右側に示された処理対象ブロック131のうちの、左上の、左上の11×8画素の処理ブロックを注目ブロックとして、閾値を算出する。   On the other hand, when it is determined that the block structure of the enlarged macroblock corresponding to the processing target block 131 is a field structure, the threshold value calculation unit 122 determines that the upper left of the processing target blocks 131 shown on the right side of the center of FIG. The threshold value is calculated using the processing block of 11 × 8 pixels in the upper left as the target block.

閾値算出部121は、いま、注目ブロックとしている左上の処理ブロックの画素のすべてが注目画素とされた後は、処理対象ブロック131の右上の10×8画素の処理ブロック、左下の11×8画素の処理ブロック、右下の10×8画素の処理ブロックの順番で、順次、注目ブロックとして、閾値を算出する。   After all of the pixels of the upper left processing block that is the target block are set as the target pixels, the threshold value calculation unit 121 now processes the upper right 10 × 8 pixel processing block and the lower left 11 × 8 pixel. Threshold values are sequentially calculated as the target block in the order of the processing block and the lower right 10 × 8 pixel processing block.

閾値算出部121は、例えば、次のようにして、注目ブロックから、閾値を算出する。   The threshold calculation unit 121 calculates the threshold from the block of interest as follows, for example.

即ち、閾値算出部121は、図5下側に示されるように、注目ブロックの、横方向(水平方向)に並ぶ画素のうちの、隣接する画素同士の画素値の差分絶対値である画素間差分を求める。   That is, as shown in the lower side of FIG. 5, the threshold value calculation unit 121 is a pixel-to-pixel difference absolute value of adjacent pixel values among pixels arranged in the horizontal direction (horizontal direction) of the target block. Find the difference.

但し、画素間差分は、境界上画素を除外した画素のみを対象として求められる。   However, the inter-pixel difference is obtained only for pixels excluding the pixels on the boundary.

従って、注目ブロックが、境界上画素が含まれない10×8画素の処理ブロックである場合には、その処理ブロックを構成する画素すべてを対象として、9×8=72個の画素間差分が求められる。   Accordingly, when the target block is a 10 × 8 pixel processing block that does not include the pixels on the boundary, 9 × 8 = 72 inter-pixel differences are obtained for all the pixels constituting the processing block. It is done.

閾値算出部121は、注目ブロックについて72個の画素間差分を求めると、その72個の画素間差分のうちの、最大値MAXと最小値MINとを求め、DR=MAX-MINを、画素間差分のダイナミックレンジDRとして求める。さらに、閾値算出部121は、そのダイナミックレンジDRを4で除算した値に最小値MINを加算した値を、閾値Th=(DR/4)+MINとして算出する。   When calculating the 72 inter-pixel differences for the block of interest, the threshold calculation unit 121 calculates the maximum value MAX and the minimum value MIN among the 72 inter-pixel differences, and sets DR = MAX−MIN between the pixels. Calculated as the dynamic range DR of the difference. Further, the threshold value calculation unit 121 calculates a value obtained by adding the minimum value MIN to a value obtained by dividing the dynamic range DR by 4 as a threshold value Th = (DR / 4) + MIN.

一方、注目ブロックが、図5下側に示される、境界上画素を含む11×8画素の処理ブロックである場合には、その処理ブロックを構成する11×8画素のうちの、図5下側に示される斜線部分が示す1×8画素の境界上画素を除外した画素を対象として、やはり、72個の画素間差分が求められる。   On the other hand, when the block of interest is an 11 × 8 pixel processing block including pixels on the boundary shown on the lower side of FIG. 5, the lower side of FIG. 5 among the 11 × 8 pixels constituting the processing block Again, 72 inter-pixel differences are obtained for pixels excluding the 1 × 8 pixels on the boundary indicated by the shaded area shown in FIG.

閾値算出部122は、注目ブロックから閾値を算出すると、その閾値をクラス分類部125に供給する。クラス分類部125は、クラスタップ抽出部124から供給されたクラスタップと、閾値算出部122から供給された閾値とに基づき、注目画素をクラス分類する。   When the threshold calculation unit 122 calculates the threshold from the block of interest, the threshold calculation unit 122 supplies the threshold to the class classification unit 125. The class classification unit 125 classifies the target pixel based on the class tap supplied from the class tap extraction unit 124 and the threshold supplied from the threshold calculation unit 122.

図6は、図2のクラス分類部125により行われるクラス分類を説明する図である。   FIG. 6 is a diagram for explaining class classification performed by the class classification unit 125 of FIG.

図6上側の横方向に並んだ9個の白丸は、クラスタップ抽出部124から供給されたクラスタップとしての水平方向のタップ71を示しており、横方向に並んだ9個の白丸の下側に示される数値は、白丸で表される、クラスタップを構成する画素それぞれの画素値を示している。   Nine white circles arranged in the horizontal direction on the upper side of FIG. 6 indicate horizontal taps 71 as class taps supplied from the class tap extraction unit 124, and below the nine white circles arranged in the horizontal direction. The numerical value shown in each indicates the pixel value of each pixel constituting the class tap represented by a white circle.

また、図6中央の数値は、水平方向に並ぶ9画素である水平方向のタップ71のうちの、図中、横方向(水平方向)に隣接する画素同士の差分の絶対値である画素間差分を示している。さらに、図6下側の数値は、クラス分類部125が出力するクラスコードを示している。   Also, the numerical value in the center of FIG. 6 is an inter-pixel difference that is an absolute value of a difference between adjacent pixels in the horizontal direction (horizontal direction) in the drawing among the horizontal taps 71 that are nine pixels arranged in the horizontal direction. Is shown. Further, the numerical values on the lower side of FIG. 6 indicate class codes output by the class classification unit 125.

クラス分類部125は、図6上側に示される水平方向に並ぶ9画素である水平方向のタップ71のうちの、隣接する画素同士の8個の画素間差分を求める。   The class classification unit 125 obtains eight inter-pixel differences between adjacent pixels among the horizontal taps 71 that are nine pixels arranged in the horizontal direction shown in the upper side of FIG.

次に、クラス分類部125は、図6中央に示される8個の画素間差分が、閾値算出部122から供給された閾値Th以上であるか否かを判定する。   Next, the class classification unit 125 determines whether or not the eight inter-pixel differences shown in the center of FIG. 6 are equal to or greater than the threshold value Th supplied from the threshold value calculation unit 122.

画素間差分が、閾値Th以上である場合、クラス分類部125は、画素間差分に対して、Th以上であることを表す1をセットした1ビットの大小フラグを割り当てる。また、画素間差分が、閾値Th以上でない場合、クラス分類部125は、画素間差分に対して、Th以上でないことを表す0をセットした大小フラグを割り当てる。そして、クラス分類部125は、図6下側に示される、1または0がセットされた8個の大小フラグの並びを、クラスコードとして、係数記憶部126に出力する。   When the inter-pixel difference is equal to or greater than the threshold value Th, the class classification unit 125 assigns a 1-bit size flag in which 1 representing 1 or more is set to the inter-pixel difference. If the inter-pixel difference is not greater than or equal to the threshold Th, the class classification unit 125 assigns a magnitude flag set to 0 indicating that the inter-pixel difference is not greater than Th. Then, the class classification unit 125 outputs, to the coefficient storage unit 126, a sequence of eight large and small flags set to 1 or 0 shown in the lower part of FIG. 6 as class codes.

次に、図7のフローチャートを参照して、図2の画像変換部61における画像変換処理を説明する。   Next, image conversion processing in the image conversion unit 61 in FIG. 2 will be described with reference to the flowchart in FIG.

この画像変換処理は、例えば、図1のデコーダ32により、出力画像データが、画像変換部61に供給されたときに開始される。このとき、ブロック抽出部121、予測タップ抽出部123、およびクラスタップ抽出部124それぞれに、出力画像データが供給される。   This image conversion process is started, for example, when output image data is supplied to the image conversion unit 61 by the decoder 32 of FIG. At this time, output image data is supplied to each of the block extraction unit 121, the prediction tap extraction unit 123, and the class tap extraction unit 124.

ステップS31において、制御部128は、画像変換部61における画像変換処理が、処理ブロックごとに行われるように、各ブロックの制御を開始する。   In step S31, the control unit 128 starts control of each block so that the image conversion processing in the image conversion unit 61 is performed for each processing block.

具体的には、制御部128は、ブロック抽出部121を制御し、図1のデコーダ32から出力される出力画像データから、64×16画素の抽出対象ブロック(図4)を、図3に示されるように、例えば、ラスタスキャン順に、順次抽出させ、抽出した抽出対象ブロックを、図4に示されるように、処理対象ブロック131、132、または133に区分させる。   Specifically, the control unit 128 controls the block extraction unit 121, and the extraction target block (FIG. 4) of 64 × 16 pixels is shown in FIG. 3 from the output image data output from the decoder 32 of FIG. As illustrated in FIG. 4, for example, the extraction target blocks are sequentially extracted in the raster scan order, and the extracted extraction target blocks are divided into processing target blocks 131, 132, or 133 as illustrated in FIG. 4.

また、制御部128は、ブロック抽出部121を制御し、区分された処理対象ブロックを、適宜、閾値算出部122に供給させる。さらに、制御部128は、閾値算出部122を制御し、処理対象ブロックを、11×8画素、または10×8画素の処理ブロックに区分させる。そして、制御部128は、閾値算出部122、予測タップ抽出部123、クラスタップ抽出部124、クラス分類部125、係数記憶部126、または予測演算部127を制御することで、処理ブロックごとに画像変換処理を行わせる。   In addition, the control unit 128 controls the block extraction unit 121 and causes the threshold calculation unit 122 to supply the divided processing target blocks as appropriate. Further, the control unit 128 controls the threshold value calculation unit 122 to divide the processing target block into processing blocks of 11 × 8 pixels or 10 × 8 pixels. Then, the control unit 128 controls the threshold calculation unit 122, the prediction tap extraction unit 123, the class tap extraction unit 124, the class classification unit 125, the coefficient storage unit 126, or the prediction calculation unit 127, so that an image is processed for each processing block. Let the conversion process.

閾値算出部122、予測タップ抽出部123、クラスタップ抽出部124、クラス分類部125、係数記憶部126、または予測演算部127は、制御部128の制御に従い、処理ブロックごとに画像変換処理を行う。   The threshold calculation unit 122, the prediction tap extraction unit 123, the class tap extraction unit 124, the class classification unit 125, the coefficient storage unit 126, or the prediction calculation unit 127 performs image conversion processing for each processing block in accordance with the control of the control unit 128. .

即ち、ステップS31の処理後、処理はステップS32に進み、閾値算出部122は、ブロック抽出部121から供給された処理対象ブロックに含まれる2×2個の処理ブロックを、例えば、ラスタスキャン順に、順次注目ブロックとし、処理は、ステップS33に進む。   That is, after the process of step S31, the process proceeds to step S32, and the threshold value calculation unit 122 converts 2 × 2 processing blocks included in the processing target block supplied from the block extraction unit 121, for example, in raster scan order. The target block is sequentially selected, and the process proceeds to step S33.

ステップS33において、閾値算出部122は、注目ブロックが、境界上画素を含むかを判定する。   In step S33, the threshold value calculation unit 122 determines whether the block of interest includes a pixel on the boundary.

ステップS33において、注目ブロックに、境界上画素が含まれると判定された場合、処理は、ステップS34に進み、閾値算出部122は、図5下側に示されるように、注目ブロックの画素から境界上画素を除外した画素を用いて閾値を算出し、クラス分類部125に供給して、処理は、ステップS36に進む。   If it is determined in step S33 that the block of interest includes a pixel on the boundary, the process proceeds to step S34, and the threshold calculation unit 122 starts from the pixel of the block of interest to the boundary as illustrated in the lower side of FIG. The threshold value is calculated using the pixels excluding the upper pixel, supplied to the class classification unit 125, and the process proceeds to step S36.

一方、ステップS33において、注目ブロックに、境界上画素が含まれないと判定された場合、処理は、ステップS35に進み、閾値算出部122は、注目ブロックn画素のすべてから閾値を算出し、クラス分類部125に供給して、処理は、ステップS36に進む。   On the other hand, when it is determined in step S33 that the pixel of interest does not include the pixel on the boundary, the process proceeds to step S35, and the threshold value calculation unit 122 calculates the threshold value from all the n pixels of the target block, and class The data is supplied to the classification unit 125, and the process proceeds to step S36.

ステップS36において、予測タップ抽出部123は、注目ブロックに含まれる画素を、ラスタスキャン順に、順次、図1のデコーダ32から供給されてくる出力画像データから抽出し、注目画素として選択して、処理は、ステップS37に進む。   In step S36, the prediction tap extraction unit 123 extracts pixels included in the target block sequentially from the output image data supplied from the decoder 32 in FIG. 1 in the raster scan order, selects the target pixel, and performs processing. Advances to step S37.

ステップS37において、予測タップ抽出部123は、注目画素に対応する、出力画像データを変換して得ようとする高画質画像データの画素の画素値を予測するために用いる複数の画素を、予測タップとして、出力画像データから抽出して、予測演算部127に供給する。   In step S <b> 37, the prediction tap extraction unit 123 predicts a plurality of pixels used for predicting the pixel value of the high-quality image data to be obtained by converting the output image data corresponding to the target pixel. Are extracted from the output image data and supplied to the prediction calculation unit 127.

その後、ステップS37からステップS38に進み、クラスタップ抽出部124は、注目画素をクラス分類するのに用いる複数の画素を、クラスタップとして、図1のデコーダ32から供給されてくる出力画像データから抽出し、クラス分類部125に供給して、処理は、ステップS39に進む。   Thereafter, the process proceeds from step S37 to step S38, and the class tap extraction unit 124 extracts a plurality of pixels used for classifying the target pixel as class taps from the output image data supplied from the decoder 32 of FIG. Then, the data is supplied to the class classification unit 125, and the process proceeds to step S39.

ステップS39において、クラス分類部125は、閾値算出部122から供給された閾値と、クラタップ抽出部124から供給されたクラスタップに基づき、図6を参照して説明した処理を行うことで、注目画素をクラス分類し、その結果得られるクラスに対応するクラスコードを係数記憶部126に供給して、処理は、ステップS40に進む。   In step S39, the class classification unit 125 performs the processing described with reference to FIG. 6 on the basis of the threshold supplied from the threshold calculation unit 122 and the class tap supplied from the clap extraction unit 124. And class code corresponding to the resulting class is supplied to the coefficient storage unit 126, and the process proceeds to step S40.

係数記憶部126は、後述する学習処理が行われることにより得られるタップ係数が登録された係数テーブルを記憶しており、ステップS40において、クラス分類部125から供給されたクラスコードに対応付けられたタップ係数を予測演算部127に供給して、処理は、ステップS41に進む。   The coefficient storage unit 126 stores a coefficient table in which tap coefficients obtained by performing a learning process to be described later are registered. In step S40, the coefficient storage unit 126 is associated with the class code supplied from the class classification unit 125. The tap coefficient is supplied to the prediction calculation unit 127, and the process proceeds to step S41.

ステップS41において、予測演算部127は、予測タップ抽出部123から供給された予測タップと、係数記憶部126から供給されたタップ係数を用いて、注目画素に対応する、高画質画像データの画素の画素値(予測値)を求める所定の予測演算を行い、処理は、ステップS42に進む。   In step S41, the prediction calculation unit 127 uses the prediction tap supplied from the prediction tap extraction unit 123 and the tap coefficient supplied from the coefficient storage unit 126 to calculate the pixel of the high-quality image data corresponding to the target pixel. A predetermined prediction calculation for obtaining a pixel value (predicted value) is performed, and the process proceeds to step S42.

ステップS42において、予測タップ抽出部123は、注目ブロックのすべての画素を、注目画素としたかを判定する。   In step S <b> 42, the prediction tap extraction unit 123 determines whether all the pixels of the target block are the target pixels.

ステップS42において、注目ブロックのすべての画素を、まだ注目画素としていないと判定された場合、処理は、ステップS36に戻り、予測タップ抽出部123は、注目ブロックのうちの、まだ注目画素としていない画素を注目画素として、処理は、ステップS37に進み、以下、同様の処理を繰り返す。   If it is determined in step S42 that all the pixels of the block of interest are not yet the pixel of interest, the process returns to step S36, and the prediction tap extraction unit 123 selects pixels of the block of interest that are not yet the pixel of interest. The process proceeds to step S37, and the same process is repeated thereafter.

一方、ステップS42において、注目ブロックのすべての画素を、注目画素としたと判定された場合、処理は、ステップS43に進み、制御部128は、出力画像データすべての処理ブロックを、注目ブロックとしたか否かを判定する。   On the other hand, when it is determined in step S42 that all the pixels of the target block are the target pixels, the process proceeds to step S43, and the control unit 128 sets all the processing blocks of the output image data as the target block. It is determined whether or not.

ステップS43において、出力画像データすべての処理ブロックを、注目ブロックとしていないと判定された場合、処理は、ステップS32に戻り、以下、同様の処理を繰り返す。   If it is determined in step S43 that all the processing blocks of the output image data are not the target block, the processing returns to step S32, and thereafter the same processing is repeated.

一方、ステップS43において、出力画像データすべての処理ブロックを、注目ブロックとしたと判定された場合、図7の画像変換処理は終了される。   On the other hand, when it is determined in step S43 that all the processing blocks of the output image data are the target blocks, the image conversion processing in FIG. 7 is ended.

以上のような図7の画像変換処理では、処理ブロックに境界上画素が含まれるときには、処理ブロックの画素から境界上画素を除外した画素を用いて閾値を算出し、処理ブロックに境界上画素が含まれないときには、処理ブロックのすべての画素から閾値を算出することとしたので、処理ブロックに境界上画素が含まれるときと含まれないときとのいずれにも、処理ブロックの画素から閾値を算出する同一の処理を行う場合と比較して、より適切な閾値を算出することができる。   In the image conversion processing of FIG. 7 as described above, when a pixel on the boundary is included in the processing block, a threshold is calculated using a pixel obtained by excluding the pixel on the boundary from the pixel in the processing block, and the pixel on the boundary is included in the processing block. When it is not included, the threshold value is calculated from all pixels of the processing block. Therefore, the threshold value is calculated from the pixel of the processing block both when the pixel on the boundary is included and when it is not included in the processing block. Compared with the case where the same process is performed, a more appropriate threshold value can be calculated.

したがって、図7の画像変換処理では、注目画素を適切なクラスにクラス分類することができ、ひいては、誤差の少ない(高画質の)高画質画像データの画素値を求めることができる。即ち、出力画像データの10.666×8画素の拡大ブロックの境界(付近)に生じているモスキートノイズやブロック歪を、効果的に除去することができる。   Therefore, in the image conversion process of FIG. 7, the pixel of interest can be classified into an appropriate class, and as a result, pixel values of high-quality image data with little error (high image quality) can be obtained. That is, it is possible to effectively remove mosquito noise and block distortion generated at the boundary (near the enlarged block) of 10.666 × 8 pixels of the output image data.

次に、図2の予測演算部127における予測演算と、係数記憶部126に記憶されたタップ係数の学習について説明する。   Next, prediction calculation in the prediction calculation unit 127 in FIG. 2 and learning of tap coefficients stored in the coefficient storage unit 126 will be described.

いま、画像変換処理として、出力画像データから予測タップを抽出し、その予測タップとタップ係数を用いて、モスキートノイズやブロック歪のない高画質画像データの画素(以下、適宜、高画質画素という)の画素値を、所定の予測演算によって求める(予測する)ことを考える。   Now, as image conversion processing, a prediction tap is extracted from output image data, and pixels of high-quality image data free of mosquito noise and block distortion (hereinafter, referred to as high-quality pixels as appropriate) using the prediction tap and tap coefficients. It is assumed that the pixel value is determined (predicted) by a predetermined prediction calculation.

所定の予測演算として、例えば、線形1次予測演算を採用することとすると、高画質画素の画素値yは、次の線形1次式によって求められることになる。   For example, when a linear primary prediction calculation is adopted as the predetermined prediction calculation, the pixel value y of the high-quality pixel is obtained by the following linear linear expression.

Figure 2008124955
・・・(1)
Figure 2008124955
... (1)

但し、式(1)において、xnは、高画質画素yについての予測タップを構成する、n番目の出力画像データの画素(以下、適宜、出力画素という)の画素値を表す。ここで、例えば、予測タップとして、図2右上側に示される水平方向に並ぶ9画素である水平方向のタップ71を例にとれば、n番目の出力画素の画素値とは、水平方向のタップ71に付された番号nに対応する出力画素の画素値である。 In Equation (1), x n represents a pixel value of an n-th pixel of output image data (hereinafter, appropriately referred to as an output pixel) constituting a prediction tap for the high-quality pixel y. Here, for example, if the horizontal tap 71 that is 9 pixels arranged in the horizontal direction shown in the upper right side of FIG. 2 is taken as an example of the prediction tap, the pixel value of the nth output pixel is the horizontal tap. This is the pixel value of the output pixel corresponding to the number n assigned to 71.

また、wnは、n番目の出力画素(の画素値)と乗算されるn番目のタップ係数を表す。なお、式(1)では、予測タップが、N個の出力画素x1,x2,・・・,xNで構成されるものとしてある。 Also, w n denotes the n-th tap coefficient multiplied with the n-th output pixel (pixel value of). In equation (1), the prediction tap is assumed to be composed of N output pixels x 1 , x 2 ,..., X N.

ここで、高画質画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。   Here, the pixel value y of the high-quality pixel can be obtained not by the linear primary expression shown in Expression (1) but by a higher-order expression of the second or higher order.

いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk'と表すと、その予測誤差ekは、次式で表される。 Now, when the true value of the pixel value of the high-quality pixel of the k-th sample is expressed as y k and the predicted value of the true value y k obtained by the equation (1) is expressed as y k ′, the prediction error e k Is expressed by the following equation.

Figure 2008124955
・・・(2)
Figure 2008124955
... (2)

いま、式(2)の予測値yk'は、式(1)にしたがって求められるため、式(2)のyk'を、式(1)にしたがって置き換えると、次式が得られる。 Now, since the predicted value y k ′ of Equation (2) is obtained according to Equation (1), the following equation is obtained by replacing y k ′ of Equation (2) according to Equation (1).

Figure 2008124955
・・・(3)
Figure 2008124955
... (3)

但し、式(3)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の出力画素を表す。 In Equation (3), x n, k represents the n-th output pixel constituting the prediction tap for the high-quality pixel of the k-th sample.

式(3)(または式(2))の予測誤差ekを0とするタップ係数wnが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのようなタップ係数wnを求めることは、一般には困難である。 Tap coefficient w n for the prediction error e k 0 of the formula (3) (or Equation (2)) is, is the optimal for predicting the high-quality pixel, for all the high-quality pixel, such In general, it is difficult to obtain a large tap coefficient w n .

そこで、タップ係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適なタップ係数wnは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as the standard for indicating that the tap coefficient w n is optimal, for example, when adopting the method of least squares, optimal tap coefficient w n, the sum E of square errors expressed by the following formula It can be obtained by minimizing.

Figure 2008124955
・・・(4)
Figure 2008124955
... (4)

但し、式(4)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する出力画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。 However, in Equation (4), K is the high-quality pixel y k and the output pixels x 1, k , x 2, k ,..., X N, constituting the prediction tap for the high-quality pixel y k . This represents the number of samples in the set with k (the number of samples for learning).

式(4)の自乗誤差の総和Eの最小値(極小値)は、式(5)に示すように、総和Eをタップ係数wnで偏微分したものを0とするwnによって与えられる。 The minimum value of the sum E of square errors of Equation (4) (minimum value), as shown in Equation (5), given that by partially differentiating the sum E with the tap coefficient w n by w n to 0.

Figure 2008124955
・・・(5)
Figure 2008124955
... (5)

一方、上述の式(3)をタップ係数wnで偏微分すると、次式が得られる。 On the other hand, when the partial differentiation of the above equation (3) with the tap coefficient w n, the following equation is obtained.

Figure 2008124955
・・・(6)
Figure 2008124955
... (6)

式(5)と式(6)から、次式が得られる。   From the equations (5) and (6), the following equation is obtained.

Figure 2008124955

・・・(7)
Figure 2008124955

... (7)

式(7)のekに、式(3)を代入することにより、式(7)は、式(8)に示す正規方程式で表すことができる。 By substituting equation (3) into e k in equation (7), equation (7) can be expressed by the normal equation shown in equation (8).

Figure 2008124955
・・・(8)
Figure 2008124955
... (8)

式(8)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、タップ係数wnについて解くことができる。 Normal equation of Equation (8), for example, by using a like sweeping-out method (Gauss-Jordan elimination method) can be solved for the tap coefficient w n.

式(8)の正規方程式を、クラスごとにたてて解くことにより、最適なタップ係数(ここでは、自乗誤差の総和Eを最小にするタップ係数)wnを、クラスごとに求めることができる。 The normal equation of Equation (8), by solving for each class, the optimal tap coefficient (here, the tap coefficient that minimizes the sum E of square errors) to w n, can be found for each class .

図2の画像変換部61では、以上のようなクラスごとのタップ係数を用いて、式(1)の演算を行うことにより、出力画像データが、高画質画像データに変換される。   In the image conversion unit 61 of FIG. 2, the output image data is converted into high-quality image data by performing the calculation of Expression (1) using the tap coefficient for each class as described above.

次に、図8は、式(8)の正規方程式をクラスごとにたてて解くことによりタップ係数wnを求める学習処理を行う学習装置201の構成例を示している。 Next, FIG. 8 shows an example of the configuration of a learning device 201 that performs a learning process for determining the tap coefficient w n by solving the normal equations in equation (8) for each class.

図8の学習装置201は、学習用画像記憶部231、ノイズ付加部232、ブロック抽出部233、閾値算出部234、予測タップ抽出部235、クラスタップ抽出部236、クラス分類部237、足し込み部238、係数算出部239、および制御部240により構成される。   8 includes a learning image storage unit 231, a noise addition unit 232, a block extraction unit 233, a threshold calculation unit 234, a prediction tap extraction unit 235, a class tap extraction unit 236, a class classification unit 237, and an addition unit. 238, a coefficient calculation unit 239, and a control unit 240.

また、学習装置201には、放送局31で得られる原画像(図1)に相当する多数の1920×1080画素の画像データが、タップ係数wnの学習に用いられる学習用画像データとして入力されるようになっている。 In addition, a large number of 1920 × 1080 pixel image data corresponding to the original image (FIG. 1) obtained at the broadcast station 31 is input to the learning device 201 as learning image data used for learning the tap coefficient w n. It has become so.

学習装置201において、学習用画像データは、学習用画像記憶部231に供給され、記憶される。   In the learning device 201, the learning image data is supplied to and stored in the learning image storage unit 231.

ノイズ付加部232は、学習用画像記憶部231から、学習用画像データを読み出し、学習用画像データに、図1で行われる処理と同様の処理を行うことで、出力画像データに相当する画像である生徒画像データを生成する。   The noise adding unit 232 reads out the learning image data from the learning image storage unit 231, and performs the same processing as the processing performed in FIG. 1 on the learning image data, thereby obtaining an image corresponding to the output image data. A certain student image data is generated.

即ち、ノイズ付加部232は、学習用画像記憶部231に記憶された1920×1080画素の学習用画像データを、横方向に3/4倍して、1440×1080画素の画像データを得て、MPEG符号化する。さらに、ノイズ付加部232は、MPEG符号化によって得られた符号化データを、1440×1080画素の画像データに復号し、その画像データを、横方向に4/3倍して、出力画像データに相当する画像である生徒画像データを生成する。   That is, the noise adding unit 232 obtains image data of 1440 × 1080 pixels by multiplying the learning image data of 1920 × 1080 pixels stored in the learning image storage unit 231 by 3/4 in the horizontal direction, MPEG encoding. Further, the noise adding unit 232 decodes the encoded data obtained by the MPEG encoding into image data of 1440 × 1080 pixels, and the image data is multiplied by 4/3 in the horizontal direction to be output image data. Student image data, which is a corresponding image, is generated.

ノイズ付加部232は、生成した生徒画像データを、ブロック抽出部233、予測タップ抽出部235、およびクラスタップ抽出部236に供給する。   The noise adding unit 232 supplies the generated student image data to the block extracting unit 233, the prediction tap extracting unit 235, and the class tap extracting unit 236.

ブロック抽出部233は、図2のブロック抽出部121と同様にして、ノイズ付加部232から供給されてくる生徒画像データから、抽出対象ブロックを、例えば、ラスタスキャン順に、順次抽出する。   The block extraction unit 233 sequentially extracts the extraction target blocks from the student image data supplied from the noise addition unit 232, for example, in the raster scan order, in the same manner as the block extraction unit 121 in FIG.

さらに、ブロック抽出部233は、図2のブロック抽出部121と同様にして、抽出対象ブロックを、複数の処理対象ブロック131乃至133に区分し、例えば、ラスタスキャン順に、順次、閾値算出部234に供給する。   Further, the block extraction unit 233 divides the extraction target block into a plurality of processing target blocks 131 to 133 in the same manner as the block extraction unit 121 of FIG. Supply.

閾値算出部234は、図2の閾値算出部122と同様にして、ブロック抽出部233から供給された処理対象ブロックを、2×2個の処理ブロックに区分し、例えば、ラスタスキャン順に、順次注目ブロックとする。   The threshold calculation unit 234 divides the processing target block supplied from the block extraction unit 233 into 2 × 2 processing blocks in the same manner as the threshold calculation unit 122 in FIG. Let it be a block.

さらに、閾値算出部234は、図2の閾値算出部122と同一の処理を行うことで、クラス分類に用いる閾値を、注目ブロックから算出し、クラス分類部237に供給する。   Furthermore, the threshold calculation unit 234 performs the same processing as the threshold calculation unit 122 in FIG. 2, thereby calculating a threshold used for class classification from the target block and supplies the threshold to the class classification unit 237.

予測タップ抽出部235は、注目ブロックに含まれる画素を例えば、ラスタスキャン順に、順次、ノイズ付加部232から供給されてくる生徒画像データから抽出し、注目画素とする。さらに、予測タップ抽出部235は、ノイズ付加部232から供給された生徒画像データを構成する画素のうちの所定のものを抽出することにより、図2の予測タップ抽出部123が注目画素について得る予測タップと同一のタップ構造の予測タップ(図2の予測タップ抽出部123が注目画素について得る予測タップを構成する画素と同一の位置関係にある生徒画像データの画素からなる予測タップ)を得て、足し込み部238に供給する。   The prediction tap extraction unit 235 extracts the pixels included in the block of interest, for example, from the student image data supplied from the noise addition unit 232 sequentially in the raster scan order, and sets it as the pixel of interest. Further, the prediction tap extraction unit 235 extracts a predetermined one of the pixels constituting the student image data supplied from the noise addition unit 232, so that the prediction tap extraction unit 123 of FIG. Obtaining a prediction tap having the same tap structure as the tap (a prediction tap made up of pixels of student image data having the same positional relationship as the pixels constituting the prediction tap obtained by the prediction tap extraction unit 123 of FIG. 2 for the target pixel), It supplies to the addition part 238.

クラスタップ抽出部236は、ノイズ付加部232から供給された生徒画像データを構成する画素のうちの所定のものを抽出することにより、図2のクラスタップ抽出部124が注目画素について得るクラスタップと同一のタップ構造のクラスタップ(図2のクラスタップ抽出部124が注目画素について得るクラスタップを構成する画素と同一の位置関係にある生徒画像データの画素からなるクラスタップ)を得て、クラス分類部237に供給する。   The class tap extraction unit 236 extracts a predetermined one of the pixels constituting the student image data supplied from the noise addition unit 232, so that the class tap extraction unit 124 of FIG. Class taps having the same tap structure (class taps composed of pixels of student image data having the same positional relationship as the pixels constituting the class tap obtained by the class tap extraction unit 124 of FIG. To the unit 237.

クラス分類部237は、閾値算出部234から供給された閾値と、クラスタップ抽出部236から供給されたクラスタップとに基づき、図2のクラス分類部125と同一のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部238に供給する。   The class classification unit 237 performs the same class classification as the class classification unit 125 of FIG. 2 based on the threshold value supplied from the threshold value calculation unit 234 and the class tap supplied from the class tap extraction unit 236, and obtains the result. The class code corresponding to the class to be added is supplied to the adding unit 238.

足し込み部238は、学習用画像記憶部231から、注目画素に対応する、教師画像データ(学習用画像データ)の画素(の画素値)を読み出し、その画素と、予測タップ抽出部235から供給された注目画素についての予測タップを構成する生徒画像データの画素とを対象とした足し込みを、クラス分類部237から供給されたクラスコードごとに行う。   The adding unit 238 reads out the pixel (its pixel value) of the teacher image data (learning image data) corresponding to the target pixel from the learning image storage unit 231, and supplies the pixel and the prediction tap extraction unit 235. For each class code supplied from the class classification unit 237, addition is performed on the pixel of the student image data constituting the prediction tap for the target pixel.

即ち、足し込み部238には、学習用画像記憶部231に記憶された教師画像データ(の画素のうちの、注目画素に対応する画素の画素値)yk、予測タップ抽出部235が出力する予測タップ(を構成する生徒画像データの画素の画素値)xn,k、クラス分類部237が出力する、注目画素のクラスを表すクラスコードが供給される。 That is, the adder 238, (among the pixel, the pixel values of pixels corresponding to the pixel of interest) teacher image data stored in the learning image storage unit 231 y k, the prediction tap extracting unit 235 outputs The prediction tap (the pixel value of the pixel of the student image data constituting the xn, k ) and the class code representing the class of the pixel of interest output from the class classification unit 237 are supplied.

そして、足し込み部238は、クラス分類部237から供給されたクラスコードに対応するクラスごとに、予測タップ(生徒画像データ)xn,kを用い、式(8)の左辺の行列における生徒画像データどうしの乗算(xn,kn',k)と、サメーション(Σ)に相当する演算を行う。 Then, the adding unit 238 uses the prediction tap (student image data) x n, k for each class corresponding to the class code supplied from the class classifying unit 237 , and uses the student image in the matrix on the left side of Expression (8). An operation corresponding to multiplication (x n, k x n ′, k ) between data and summation (Σ) is performed.

さらに、足し込み部238は、やはり、クラス分類部237から供給されたクラスコードに対応するクラスごとに、予測タップ(生徒画像データ)xn,kと教師画像データykを用い、式(8)の右辺のベクトルにおける生徒画像データxn,kおよび教師画像データykの乗算(xn,kk)と、サメーション(Σ)に相当する演算を行う。 Furthermore, the adding unit 238 also uses the prediction tap (student image data) x n, k and the teacher image data y k for each class corresponding to the class code supplied from the class classification unit 237, and uses the equation (8 ) Is multiplied by the student image data x n, k and the teacher image data y k (x n, k y k ) in the vector on the right side of), and an operation corresponding to summation (Σ) is performed.

即ち、足し込み部238は、前回、注目画素とされた生徒画像データについて求められた式(8)における左辺の行列のコンポーネント(Σxn,kn',k)と、右辺のベクトルのコンポーネント(Σxn,kk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kn',k)またはベクトルのコンポーネント(Σxn,kk)に対して、新たに注目画素とされた生徒画像データについて、その生徒画像データxn,k+1および教師画像データyk+1を用いて計算される、対応するコンポーネントxn,k+1n',k+1またはxn,k+1k+1を足し込む(式(8)のサメーションで表される加算を行う)。 In other words, the adding unit 238 performs the left-side matrix component (Σx n, k x n ′, k ) and the right-side vector component in Equation (8) previously obtained for the student image data set as the target pixel. (Σx n, k y k ) is stored in its built-in memory (not shown), and the matrix component (Σx n, k x n ′, k ) or vector component (Σx n, k y) k ), the corresponding component x n, k calculated using the student image data x n, k + 1 and the teacher image data y k + 1 for the student image data newly set as the pixel of interest Add +1 x n ′, k + 1 or x n, k + 1 y k + 1 (addition represented by the summation of equation (8) is performed).

そして、足し込み部238は、ノイズ付加部232により生成される生徒画像データすべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、式(8)に示した正規方程式をたてると、その正規方程式を、係数算出部239に供給する。   Then, the adding unit 238 performs the above-described addition using all the student image data generated by the noise adding unit 232 as the target pixel, thereby forming the normal equation shown in Expression (8) for each class. Then, the normal equation is supplied to the coefficient calculation unit 239.

係数算出部239は、足し込み部238から供給された各クラスについての正規方程式を解くことにより、各クラスについて、最適なタップ係数wnを求めて出力する。 The coefficient calculation unit 239 obtains and outputs an optimum tap coefficient w n for each class by solving the normal equation for each class supplied from the addition unit 238.

制御部240は、学習用画像記憶部231、ノイズ付加部232、ブロック抽出部233、閾値算出部234、予測タップ抽出部235、クラスタップ抽出部236、クラス分類部237、足し込み部238、または係数算出部239を制御する。   The control unit 240 is a learning image storage unit 231, a noise addition unit 232, a block extraction unit 233, a threshold calculation unit 234, a prediction tap extraction unit 235, a class tap extraction unit 236, a class classification unit 237, an addition unit 238, or The coefficient calculation unit 239 is controlled.

即ち、制御部240は、学習装置201における学習処理が、ノイズ付加部232が生成する生徒画像データの処理ブロックごとに行われるように、各ブロックを制御する。   That is, the control unit 240 controls each block so that the learning process in the learning device 201 is performed for each processing block of the student image data generated by the noise adding unit 232.

次に、図9のフローチャートを参照して、図8の学習装置201における学習処理を説明する。   Next, the learning process in the learning apparatus 201 in FIG. 8 will be described with reference to the flowchart in FIG. 9.

なお、学習用画像記憶部231には、多数の1920×1080画素の学習用画像データが、すでに記憶されていることとする。   Note that a large number of 1920 × 1080 pixel learning image data is already stored in the learning image storage unit 231.

ステップS71において、制御部240は、学習装置201における学習処理が、生徒画像データの処理ブロックごとに行われるように、各ブロックの制御を開始する。   In step S71, the control unit 240 starts control of each block so that the learning process in the learning device 201 is performed for each processing block of the student image data.

具体的には、制御部240は、ノイズ付加部232を制御し、学習用画像記憶部231から、学習用画像データを読み出させ、学習用画像データに、図1で行われる処理と同様の処理を行わせることで、出力画像データに相当する画像である生徒画像データを生成させ、ブロック抽出部233に供給させる。   Specifically, the control unit 240 controls the noise adding unit 232 to read out the learning image data from the learning image storage unit 231 and causes the learning image data to be the same as the processing performed in FIG. By performing the process, student image data, which is an image corresponding to the output image data, is generated and supplied to the block extraction unit 233.

また、制御部240は、ブロック抽出部233を制御し、処理対象ブロックを、例えば、ラスタスキャン順に、順次、閾値算出部234に供給させる。具体的には、ブロック抽出部233は、制御部240の制御に従い、図2のブロック抽出部121と同様にして、ノイズ付加部232から供給されてくる生徒画像データから、抽出対象ブロックを、例えば、ラスタスキャン順に、順次抽出する。さらに、ブロック抽出部233は、制御部240の制御に従い、図2のブロック抽出部121と同様にして、抽出対象ブロックを、処理対象ブロック131乃至133に区分し、例えば、ラスタスキャン順に、順次、閾値算出部234に供給する。   The control unit 240 also controls the block extraction unit 233 to supply the processing target blocks to the threshold value calculation unit 234 sequentially, for example, in raster scan order. Specifically, the block extraction unit 233 controls the extraction target block from the student image data supplied from the noise addition unit 232, for example, in the same manner as the block extraction unit 121 of FIG. The data are sequentially extracted in the raster scan order. Further, under the control of the control unit 240, the block extraction unit 233 divides the extraction target blocks into processing target blocks 131 to 133 in the same manner as the block extraction unit 121 of FIG. This is supplied to the threshold value calculation unit 234.

さらに、制御部240は、閾値算出部234を制御し、図2の閾値算出部122と同様にして、処理対象ブロックを、11×8画素、または10×8画素の処理ブロックに区分させる。そして、制御部240は、閾値算出部234、予測タップ抽出部235、クラスタップ抽出部236、クラス分類部237、足し込み部238、または係数算出部239を制御することで、ノイズ付加部232により生成される生徒画像データの処理ブロックごとに学習処理を行わせる。   Further, the control unit 240 controls the threshold value calculation unit 234 to divide the processing target block into processing blocks of 11 × 8 pixels or 10 × 8 pixels, similarly to the threshold value calculation unit 122 of FIG. Then, the control unit 240 controls the threshold calculation unit 234, the prediction tap extraction unit 235, the class tap extraction unit 236, the class classification unit 237, the addition unit 238, or the coefficient calculation unit 239, so that the noise addition unit 232 A learning process is performed for each processing block of generated student image data.

閾値算出部234、予測タップ抽出部235、クラスタップ抽出部236、クラス分類部237、足し込み部238、または係数算出部239は、制御部240の制御に従い、処理ブロックごとに学習処理を行う。   The threshold calculation unit 234, the prediction tap extraction unit 235, the class tap extraction unit 236, the class classification unit 237, the addition unit 238, or the coefficient calculation unit 239 performs learning processing for each processing block according to the control of the control unit 240.

即ち、ステップS71の処理後、処理はステップS72に進み、閾値算出部234は、図2の閾値算出部122と同様にして、ブロック抽出部233から供給された処理対象ブロックを、2×2個の処理ブロックに区分し、例えば、ラスタスキャン順に、順次注目ブロックとし、処理は、ステップS72に進む。   That is, after the process of step S71, the process proceeds to step S72, and the threshold value calculation unit 234 receives 2 × 2 processing target blocks supplied from the block extraction unit 233 in the same manner as the threshold value calculation unit 122 of FIG. For example, the target block is sequentially set in the raster scan order, and the process proceeds to step S72.

ステップS73において、閾値算出部234は、図2の閾値算出部122と同様にして、注目ブロックが、境界上画素を含むかを判定する。   In step S <b> 73, the threshold calculation unit 234 determines whether the block of interest includes a pixel on the boundary in the same manner as the threshold calculation unit 122 in FIG. 2.

ステップS73において、注目ブロックに、境界上画素が含まれると判定された場合、処理は、ステップS74に進み、閾値算出部234は、図2の閾値算出部122と同一の処理を行うことで、注目ブロックの画素から境界上画素を除外した画素を用いて閾値を算出し、クラス分類部237に供給して、処理は、ステップS76に進む。   If it is determined in step S73 that the target block includes a pixel on the boundary, the process proceeds to step S74, and the threshold value calculation unit 234 performs the same process as the threshold value calculation unit 122 in FIG. The threshold value is calculated using a pixel obtained by excluding the pixel on the boundary from the pixel of the target block, and is supplied to the class classification unit 237, and the process proceeds to step S76.

一方、ステップS73において、注目ブロックに、境界上画素が含まれないと判定された場合、処理は、ステップS75に進み、閾値算出部234は、図2の閾値算出部122と同一の処理を行うことで、注目ブロックの画素すべてから閾値を算出し、クラス分類部237に供給して、処理は、ステップS76に進む。   On the other hand, if it is determined in step S73 that the pixel of interest does not include the pixel on the boundary, the process proceeds to step S75, and the threshold value calculation unit 234 performs the same process as the threshold value calculation unit 122 in FIG. Thus, the threshold value is calculated from all the pixels of the block of interest, supplied to the class classification unit 237, and the process proceeds to step S76.

ステップS76において、予測タップ抽出部235は、注目ブロックに含まれる画素を、ラスタスキャン順に、順次、ノイズ付加部232から供給されてくる生徒画像データから抽出し、注目画素として、選択して、処理は、ステップS76に進む。   In step S76, the prediction tap extraction unit 235 sequentially extracts pixels included in the target block from the student image data supplied from the noise adding unit 232 in the raster scan order, selects the target pixel, and performs processing. Advances to step S76.

ステップS77において、予測タップ抽出部235は、ノイズ付加部232から供給された生徒画像データを構成する画素のうちの所定のものを抽出することにより、注目画素について、図2の予測タップ抽出部123が注目画素について得る予測タップと同一のタップ構造の予測タップを得て、足し込み部238に供給する。   In step S77, the prediction tap extraction unit 235 extracts a predetermined one of the pixels constituting the student image data supplied from the noise addition unit 232, so that the prediction tap extraction unit 123 of FIG. Obtains a prediction tap having the same tap structure as the prediction tap obtained for the target pixel, and supplies the prediction tap to the adding unit 238.

その後、処理は、ステップS77からステップS78に進み、クラスタップ抽出部236は、ノイズ付加部232から供給された生徒画像データを構成する画素のうちの所定のものを抽出することにより、注目画素について、図2のクラスタップ抽出部124が注目画素について得るクラスタップと同一のタップ構造のクラスタップを得て、クラス分類部237に供給する。   Thereafter, the process proceeds from step S77 to step S78, and the class tap extraction unit 236 extracts a predetermined one of the pixels constituting the student image data supplied from the noise addition unit 232, so that the pixel of interest is extracted. The class tap extraction unit 124 in FIG. 2 obtains a class tap having the same tap structure as the class tap obtained for the target pixel, and supplies it to the class classification unit 237.

さらに、処理は、ステップS78からステップS79に進み、クラス分類部237は、閾値算出部234から供給された閾値と、クラスタップ抽出部236から供給されたクラスタップに基づき、図2のクラス分類部125と同一のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部238に供給して、処理は、ステップS80に進む。   Further, the process proceeds from step S78 to step S79, where the class classification unit 237 is based on the threshold supplied from the threshold calculation unit 234 and the class tap supplied from the class tap extraction unit 236. The same class classification as 125 is performed, and the class code corresponding to the resulting class is supplied to the adding unit 238, and the process proceeds to step S80.

ステップS80において、足し込み部238は、学習用画像記憶部231から、注目画素に対応する、教師画像データの画素(の画素値)を読み出し、その画素と、予測タップ抽出部235から供給された注目画素についての予測タップを構成する生徒画像データの画素とを対象とした足し込みを、クラス分類部237から供給されたクラスコードごとに行い、処理は、ステップS81に進む。   In step S80, the adding unit 238 reads the pixel (the pixel value) of the teacher image data corresponding to the target pixel from the learning image storage unit 231 and is supplied from the pixel and the prediction tap extraction unit 235. Addition is performed for each class code supplied from the class classification unit 237, and the process proceeds to step S81.

ステップS81において、予測タップ抽出部235は、注目ブロックのすべての画素を、注目画素としたか否かを判定する。   In step S <b> 81, the prediction tap extraction unit 235 determines whether or not all the pixels of the target block are the target pixels.

ステップS81において、注目ブロックのすべての画素を、まだ注目画素としていないと判定された場合、処理は、ステップS76に戻り、予測タップ抽出部235は、注目ブロックのうちの、まだ注目画素としていない画素を注目画素として、処理は、ステップS77に進み、以下、同様の処理を繰り返す。   If it is determined in step S81 that all the pixels of the target block have not been set as the target pixel, the process returns to step S76, and the prediction tap extraction unit 235 selects pixels in the target block that have not been set as the target pixel yet. The process proceeds to step S77, and thereafter the same process is repeated.

一方、ステップS81において、注目ブロックのすべての画素を、注目画素としたと判定された場合、ステップS82に進み、制御部240は、ノイズ付加部232から供給された生徒画像データすべての処理ブロックを、注目ブロックとしたか否かを判定する。 On the other hand, if it is determined in step S81 that all the pixels of the target block are the target pixels, the control unit 240 proceeds to step S82, and the control unit 240 processes all the processing blocks of the student image data supplied from the noise adding unit 232. Then, it is determined whether or not the block is the target block.

ステップS82において、ノイズ付加部232から供給された生徒画像データすべての処理ブロックを、注目ブロックとしていないと判定された場合、処理は、ステップS72に戻り、以下、同様の処理を繰り返す。   In step S82, when it is determined that all the processing blocks of the student image data supplied from the noise adding unit 232 are not the target block, the processing returns to step S72, and thereafter the same processing is repeated.

一方、ステップS82において、ノイズ付加部232から供給された生徒画像データすべての処理ブロックを、注目ブロックとしたと判定された場合、即ち、足し込み部238において、ノイズ付加部232により生成される生徒画像データすべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、式(8)に示した正規方程式が得られた場合、足し込み部238は、その正規方程式を係数算出部239に供給し、処理は、ステップS83に進む。係数算出部239は、足し込み部238から供給された各クラスについての正規方程式を解くことにより、各クラスについて、最適なタップ係数wnを求めて出力する。 On the other hand, when it is determined in step S82 that all the processing blocks of the student image data supplied from the noise adding unit 232 are the target blocks, that is, the student generated by the noise adding unit 232 in the adding unit 238. When the above-described addition is performed using all image data as the target pixel to obtain the normal equation shown in Expression (8) for each class, the addition unit 238 adds the normal equation to the coefficient calculation unit 239. The process proceeds to step S83. The coefficient calculation unit 239 obtains and outputs an optimum tap coefficient w n for each class by solving the normal equation for each class supplied from the addition unit 238.

その後、図9の学習処理は終了される。   Thereafter, the learning process of FIG. 9 is terminated.

次に、図10は、本発明を適用した画像変換部の他の一実施の形態の構成例を示すブロック図である。   Next, FIG. 10 is a block diagram showing a configuration example of another embodiment of an image conversion unit to which the present invention is applied.

なお、図中、図2の場合に対応する部分については同一の符号を付してあり、以下、その説明は、適宜省略する。   In the figure, portions corresponding to those in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

即ち、図10の画像変換部61は、図2の、係数記憶部126、予測演算部127、または制御部128に代えて、それぞれ、係数記憶部276、予測演算部278、または制御部279が設けられており、さらに、画素位置モード判定部275および領域判定部277が新たに設けられているほかは、図2の場合と同様に構成されている。   That is, the image conversion unit 61 of FIG. 10 includes a coefficient storage unit 276, a prediction calculation unit 278, or a control unit 279, respectively, instead of the coefficient storage unit 126, the prediction calculation unit 127, or the control unit 128 of FIG. 2 except that a pixel position mode determination unit 275 and a region determination unit 277 are newly provided.

なお、図10では、予測タップ抽出部123は、予測タップを予測演算部278に供給する他、いま注目画素となっている画素の位置情報(例えば、注目ブロックにおける注目画素の座標など)を、画素位置モード判定部275と、領域判定部277に供給するようになっている。   In addition, in FIG. 10, the prediction tap extraction unit 123 supplies the prediction tap to the prediction calculation unit 278 and, in addition, the position information of the pixel that is the current pixel of interest (for example, the coordinates of the target pixel in the target block), The pixel position mode determination unit 275 and the region determination unit 277 are supplied.

画素位置モード判定部275は、予測タップ抽出部123から供給された注目画素の位置情報に基づいて、注目画素の画素位置モードを判定し、係数記憶部276に供給する。   The pixel position mode determination unit 275 determines the pixel position mode of the target pixel based on the position information of the target pixel supplied from the prediction tap extraction unit 123 and supplies the determined pixel position mode to the coefficient storage unit 276.

ここで、画素位置モードとは、処理ブロックにおける各画素の位置を表す情報であり、クラス分類部125からのクラスコードと同様、係数記憶部276が出力するタップ係数を決定するのに用いられる値である。なお、画素位置モードの詳細については、後述する。   Here, the pixel position mode is information representing the position of each pixel in the processing block, and is a value used to determine the tap coefficient output from the coefficient storage unit 276, as with the class code from the class classification unit 125. It is. Details of the pixel position mode will be described later.

係数記憶部276は、後述するような学習処理が行われることにより得られるタップ係数が登録された係数テーブルを記憶しており、クラス分類部125から供給されたクラスコードと、画素位置モード判定部275から供給された画素位置モードとに対応付けられたタップ係数を予測演算部278に供給する。   The coefficient storage unit 276 stores a coefficient table in which tap coefficients obtained by performing learning processing as described below are registered, and the class code supplied from the class classification unit 125 and the pixel position mode determination unit The tap coefficient associated with the pixel position mode supplied from 275 is supplied to the prediction calculation unit 278.

領域判定部277は、予測タップ抽出部123から供給された位置情報に基づいて、注目画素の領域情報を判定し、予測演算部278に供給する。   The region determination unit 277 determines region information of the target pixel based on the position information supplied from the prediction tap extraction unit 123 and supplies the region information to the prediction calculation unit 278.

ここで、領域情報とは、処理ブロックを複数の領域に区分したときに、注目画素が、その複数の領域のうちの、いずれかの領域に位置するかを示す情報である。   Here, the area information is information indicating whether the target pixel is located in any of the plurality of areas when the processing block is divided into a plurality of areas.

予測演算部278は、予測タップ抽出部123から供給された予測タップと、係数記憶部276から供給されたタップ係数とを用いて、領域判定部277から供給された領域情報に対応した所定の予測演算を行うことにより、注目画素に対応する、高画質画像データの画素の画素値(予測値)を求めて出力する。即ち、予測演算部278は、注目画素に対応する、高画質画像データの画素の画素値を求めて出力する。なお、領域情報に対応した所定の予測演算については、後述する。   The prediction calculation unit 278 uses the prediction tap supplied from the prediction tap extraction unit 123 and the tap coefficient supplied from the coefficient storage unit 276 to perform a predetermined prediction corresponding to the region information supplied from the region determination unit 277. By performing the calculation, the pixel value (predicted value) of the pixel of the high-quality image data corresponding to the target pixel is obtained and output. That is, the prediction calculation unit 278 obtains and outputs the pixel value of the pixel of the high-quality image data corresponding to the target pixel. The predetermined prediction calculation corresponding to the area information will be described later.

制御部279は、ブロック抽出部121、閾値算出部122、予測タップ抽出部123、クラスタップ抽出部124、クラス分類部125、画素位置モード判定部275、係数記憶部276、領域判定部277、または予測演算部278を制御する。   The control unit 279 includes a block extraction unit 121, a threshold calculation unit 122, a prediction tap extraction unit 123, a class tap extraction unit 124, a class classification unit 125, a pixel position mode determination unit 275, a coefficient storage unit 276, a region determination unit 277, or The prediction calculation unit 278 is controlled.

即ち、制御部279は、画像変換部61における画像変換処理が、出力画像データの処理ブロックごとに行われるように、各ブロックを制御する。   That is, the control unit 279 controls each block so that the image conversion processing in the image conversion unit 61 is performed for each processing block of output image data.

次に、図11は、8×8画素のブロックを処理ブロックとして、画素位置モード、および領域情報に対応した所定の予測演算を説明する図である。   Next, FIG. 11 is a diagram for explaining a predetermined prediction calculation corresponding to the pixel position mode and the region information using an 8 × 8 pixel block as a processing block.

図11上側には、MPEG-2による符号化および復号で用いられる処理単位である8×8画素のブロックが、処理ブロックとして示されている。また、図11上側には、処理単位である8×8画素のブロックの中心を通る形で、左右方向(水平方向)に伸びた太線で表される水平線と、上下方向(垂直方向)に伸びた太線で表される垂直線とが示されている。   On the upper side of FIG. 11, an 8 × 8 pixel block, which is a processing unit used in encoding and decoding by MPEG-2, is shown as a processing block. In addition, on the upper side of FIG. 11, a horizontal line represented by a thick line extending in the left-right direction (horizontal direction) and a vertical direction (vertical direction) extending through the center of an 8 × 8 pixel block which is a processing unit. A vertical line represented by a thick line is shown.

なお、図11上側に示された8×8画素のブロックは、MPEG-2による符号化および復号の過程で、DCT変換/逆DCT変換の対象となるブロックである。   Note that the 8 × 8 pixel block shown on the upper side of FIG. 11 is a block subjected to DCT conversion / inverse DCT conversion in the process of encoding and decoding by MPEG-2.

図11中央上側には、白丸で示す注目画素を中心として水平方向に並ぶ9画素であるタップ311が示されている。さらに、図11中央下側には、タップ311の注目画素を起点(中心)として、左右反転したタップ312が示されている。   In the upper center of FIG. 11, taps 311 that are nine pixels arranged in the horizontal direction around the target pixel indicated by a white circle are shown. Further, on the lower side of the center of FIG. 11, a tap 312 that is reversed left and right with the target pixel of the tap 311 as the starting point (center) is shown.

図11左下側には、白丸で示す注目画素を中心として垂直方向に並ぶ9画素であるタップ313が示されている。さらに、図11右下側には、タップ313の注目画素を起点(中心)として、上下反転したタップ314が示されている。   On the lower left side of FIG. 11, a tap 313 that is nine pixels arranged in the vertical direction around the target pixel indicated by a white circle is shown. Furthermore, on the lower right side of FIG. 11, a tap 314 that is inverted up and down with the target pixel of the tap 313 as the starting point (center) is shown.

例えば、8×8画素のブロックを、垂直線と水平線とにより、4×4画素の左上のブロックである左上領域、4×4画素の右上のブロックである右上領域、4×4画素の左下のブロックである左下領域、および4×4画素の右下のブロックである右下領域に区分し、左上領域の各画素に、例えば、ラスタスキャン順に、画素位置モード0乃至15を割り当てる。   For example, an 8 × 8 pixel block is divided into an upper left area, which is an upper left block of 4 × 4 pixels, an upper right area, which is an upper right block of 4 × 4 pixels, and a lower left area of 4 × 4 pixels. The pixel position modes 0 to 15 are assigned to each pixel in the upper left area, for example, in the raster scan order, and is divided into a lower left area that is a block and a lower right area that is a lower right block of 4 × 4 pixels.

そして、左上領域の各画素において、垂直線または水平線を基準として、線対称の位置関係にある画素、および8×8画素のブロックの中心を基準として、点対称の位置関係にある画素に、画素位置モードとして同一の値が割り当てられる。   Then, in each pixel in the upper left area, a pixel having a line-symmetric positional relationship with respect to a vertical line or a horizontal line and a pixel having a point-symmetrical positional relationship with respect to the center of an 8 × 8 pixel block are The same value is assigned as the position mode.

画素位置モード判定部275は、予測タップ抽出部123から供給された注目画素の位置情報に基づいて、注目画素の画素位置モードを判定し、係数記憶部276に供給する。   The pixel position mode determination unit 275 determines the pixel position mode of the target pixel based on the position information of the target pixel supplied from the prediction tap extraction unit 123 and supplies the determined pixel position mode to the coefficient storage unit 276.

係数記憶部276は、画素位置モード判定部275から供給された画素位置モード、およびクラス分類部125から供給されたクラスコードに対応したタップ係数を、予測演算部278に出力する。   The coefficient storage unit 276 outputs the tap coefficient corresponding to the pixel position mode supplied from the pixel position mode determination unit 275 and the class code supplied from the class classification unit 125 to the prediction calculation unit 278.

領域判定部277は、予測タップ抽出部123から供給された注目画素の位置情報に基づいて、注目画素が、左上領域、右上領域、左下領域、および右下領域のうちの、いずれかの領域に位置するか示す領域情報を判定し、予測演算部278に供給する。   Based on the position information of the target pixel supplied from the prediction tap extraction unit 123, the region determination unit 277 sets the target pixel in any one of the upper left region, the upper right region, the lower left region, and the lower right region. The area information indicating whether the position is present is determined and supplied to the prediction calculation unit 278.

予測演算部278は、領域判定部277からの領域情報に対応した所定の予測演算を行う。   The prediction calculation unit 278 performs a predetermined prediction calculation corresponding to the region information from the region determination unit 277.

即ち、領域判定部277からの領域情報が、注目画素が左上領域に位置することを表す情報である場合、予測演算部278は、予測タップ抽出部123から供給された予測タップx1,x2,・・・,x9と、係数記憶部276から供給されたタップ係数w1,w2・・・,w9とを、順番に乗算することで、注目画素に対応する、高画質画像データの画素の画素値(予測値)w11+w22+・・・+w99を得て出力する。 That is, when the region information from the region determination unit 277 is information indicating that the target pixel is located in the upper left region, the prediction calculation unit 278 supplies the prediction taps x 1 and x 2 supplied from the prediction tap extraction unit 123. ,..., X 9 and tap coefficients w 1 , w 2, ..., W 9 supplied from the coefficient storage unit 276 are multiplied in order, whereby high-quality image data corresponding to the target pixel is obtained. The pixel value (predicted value) of w 1 x 1 + w 2 x 2 +... + W 9 x 9 is obtained and output.

領域判定部277からの領域情報が、注目画素が右上領域または右下領域に位置することを表す情報である場合、予測演算部278は、予測タップ抽出部123から供給された予測タップを、図11中央に示されるように、注目画素を起点として左右反転する。そして、予測演算部278は、注目画素を起点として左右反転させた予測タップと、係数記憶部276から供給されたタップ係数とを、順番に乗算することで、注目画素に対応する、高画質画像データの画素の画素値を求めて出力する。   When the region information from the region determination unit 277 is information indicating that the target pixel is located in the upper right region or the lower right region, the prediction calculation unit 278 displays the prediction tap supplied from the prediction tap extraction unit 123. 11 As shown in the center, the left and right are reversed from the target pixel as a starting point. Then, the prediction calculation unit 278 sequentially multiplies the prediction tap that is reversed left and right with the pixel of interest as the starting point and the tap coefficient supplied from the coefficient storage unit 276, thereby corresponding to the pixel of interest. The pixel value of the data pixel is obtained and output.

具体的には、予測タップ抽出部123から供給された予測タップが、タップ311であり、タップ311に付された番号に対応する画素の画素値がx1,x2,・・・,x9である場合、予測演算部278は、タップ311を、注目画素を起点として左右反転することでタップ312とし、タップ312に付された番号に対応する画素の画素値x9,x8,・・・,x1と、係数記憶部276から供給されたタップ係数w1,w2・・・,w9とを、順番に乗算することで、注目画素に対応する、高画質画像データの画素の画素値(予測値)w19+w28+・・・+w91を得て出力する。 Specifically, the prediction tap supplied from the prediction tap extracting unit 123, a tap 311, x 1 is the pixel value of the pixel corresponding to the number assigned to the tap 311, x 2, ···, x 9 In this case, the prediction calculation unit 278 sets the tap 311 to the tap 312 by reversing the left and right from the target pixel, and the pixel values x 9 , x 8 ,... Of the pixels corresponding to the numbers assigned to the tap 312. .., X 1 and tap coefficients w 1 , w 2, ..., W 9 supplied from the coefficient storage unit 276 are sequentially multiplied to obtain the pixel of the high-quality image data corresponding to the target pixel. Pixel value (predicted value) w 1 x 9 + w 2 x 8 +... + W 9 x 1 is obtained and output.

また、領域判定部277からの領域情報が、注目画素が左下領域または右下領域に位置することを表す情報である場合、予測演算部278は、予測タップ抽出部123から供給された予測タップを、図11下側に示されるように、注目画素を起点として上下反転する。そして、予測演算部278は、注目画素を起点として上下反転させた予測タップと、係数記憶部276から供給されたタップ係数とを、順番に乗算することで、注目画素に対応する、高画質画像データの画素の画素値を求めて出力する。   When the region information from the region determination unit 277 is information indicating that the target pixel is located in the lower left region or the lower right region, the prediction calculation unit 278 selects the prediction tap supplied from the prediction tap extraction unit 123. As shown in the lower side of FIG. 11, the image is inverted up and down starting from the target pixel. Then, the prediction calculation unit 278 sequentially multiplies the prediction tap that is turned upside down with the pixel of interest as the starting point and the tap coefficient supplied from the coefficient storage unit 276, thereby corresponding to the pixel of interest. The pixel value of the data pixel is obtained and output.

具体的には、予測タップ抽出部123から供給された予測タップが、図11左下側のタップ313であり、タップ313に付された番号に対応する画素の画素値がx1,x2,・・・,x9である場合、予測演算部278は、タップ313を、注目画素を起点として上下反転することでタップ314とし、タップ314に付された番号に対応する画素の画素値x9,x8,・・・,x1と、係数記憶部276から供給されたタップ係数w1,w2・・・,w9とを、順番に乗算することで、注目画素に対応する、高画質画像データの画素の画素値(予測値)w19+w28+・・・+w91を得て出力する。 Specifically, the prediction tap supplied from the prediction tap extraction unit 123 is the lower left tap 313 in FIG. 11, and the pixel values of the pixels corresponding to the numbers assigned to the tap 313 are x 1 , x 2 ,. .., X 9 , the prediction calculation unit 278 sets the tap 313 as a tap 314 by vertically inverting the pixel of interest as a starting point, and the pixel value x 9 of the pixel corresponding to the number assigned to the tap 314. x 8, · · ·, and x 1, the tap coefficients supplied from the coefficient storage unit 276 w 1, w 2 ···, and w 9, by multiplying in turn, corresponds to the pixel of interest, high-quality The pixel value (predicted value) w 1 x 9 + w 2 x 8 +... + W 9 x 1 of the pixel of the image data is obtained and output.

次に、図12は、10×8画素の処理ブロックの画素に、画素位置モードを割り当てた一例を示す図である。   Next, FIG. 12 is a diagram illustrating an example in which a pixel position mode is assigned to pixels of a processing block of 10 × 8 pixels.

図12には、10×8画素(横×縦)の処理ブロックが示されている。   FIG. 12 shows a processing block of 10 × 8 pixels (horizontal × vertical).

また、図12には、10×8画素の処理ブロックの中心を通る形で、左右方向(水平方向)に伸びた太線で表される水平線と、上下方向(垂直方向)に伸びた太線で表される垂直線とが示されている。   FIG. 12 shows a horizontal line represented by a thick line extending in the left-right direction (horizontal direction) and a thick line extending in the vertical direction (vertical direction) passing through the center of the processing block of 10 × 8 pixels. Vertical lines are shown.

画素位置モードにおいては、10×8画素のブロックを、垂直線と水平線とにより、5×4画素の左上のブロックである左上領域、5×4画素の右上のブロックである右上領域、5×4画素の左下のブロックである左下領域、および5×4画素の右下のブロックである右下領域に区分し、左上領域の各画素に、例えば、ラスタスキャン順に、画素位置モード0乃至19を割り当てる。   In the pixel position mode, a block of 10 × 8 pixels is divided into an upper left region which is an upper left block of 5 × 4 pixels and an upper right region which is an upper right block of 5 × 4 pixels by a vertical line and a horizontal line. A pixel is divided into a lower left area which is a lower left block of pixels and a lower right area which is a lower right block of 5 × 4 pixels, and pixel position modes 0 to 19 are assigned to each pixel in the upper left area, for example, in raster scan order. .

そして、左上領域の各画素において、垂直線または水平線を基準として、線対称の位置関係にある画素、および10×8画素のブロックの中心を基準として、点対称の位置関係にある画素に、画素位置モードとして同一の値が割り当てられる。   Then, in each pixel in the upper left area, a pixel having a line-symmetric positional relationship with respect to a vertical line or a horizontal line, and a pixel having a point-symmetrical positional relationship with respect to the center of a 10 × 8 pixel block are The same value is assigned as the position mode.

即ち、領域判定部277からの領域情報が、注目画素が左上領域に位置することを表す情報である場合、予測演算部278は、図11の場合と同様に、予測タップ抽出部123から供給された予測タップx1,x2,・・・,x9と、係数記憶部276から供給されたタップ係数w1,w2・・・,w9とを、順番に乗算することで、注目画素に対応する、高画質画像データの画素の画素値(予測値)w11+w22+・・・+w99を得て出力する。 That is, when the region information from the region determination unit 277 is information indicating that the target pixel is located in the upper left region, the prediction calculation unit 278 is supplied from the prediction tap extraction unit 123 as in the case of FIG. prediction tap x 1, x 2 and, ..., and x 9, the tap coefficients supplied from the coefficient storage unit 276 w 1, w 2, ..., and w 9, is multiplied in order, the pixel of interest The pixel values (predicted values) w 1 x 1 + w 2 x 2 +... + W 9 x 9 of the pixels of the high-quality image data corresponding to are obtained and output.

領域判定部277からの領域情報が、注目画素が右上領域または右下領域に位置することを表す情報である場合、予測演算部278は、図11の場合と同様に、予測タップ抽出部123から供給された予測タップを、注目画素を起点として左右反転する。そして、予測演算部278は、注目画素を起点として左右反転させた予測タップと、係数記憶部276から供給されたタップ係数とを、順番に乗算することで、注目画素に対応する、高画質画像データの画素の画素値を求めて出力する。   When the region information from the region determination unit 277 is information indicating that the pixel of interest is located in the upper right region or the lower right region, the prediction calculation unit 278 performs the same operation as in the case of FIG. The supplied prediction tap is reversed left and right starting from the target pixel. Then, the prediction calculation unit 278 sequentially multiplies the prediction tap that is reversed left and right with the pixel of interest as the starting point and the tap coefficient supplied from the coefficient storage unit 276, thereby corresponding to the pixel of interest. The pixel value of the data pixel is obtained and output.

また、領域判定部277からの領域情報が、注目画素が左下領域または右下領域に位置することを表す情報である場合、予測演算部278は、図11の場合と同様に、予測タップ抽出部123から供給された予測タップを、注目画素を起点として上下反転する。そして、予測演算部278は、注目画素を起点として上下反転させた予測タップと、係数記憶部276から供給されたタップ係数とを、順番に乗算することで、注目画素に対応する、高画質画像データの画素の画素値を求めて出力する。   When the region information from the region determination unit 277 is information indicating that the target pixel is located in the lower left region or the lower right region, the prediction calculation unit 278, like the case of FIG. The prediction tap supplied from 123 is flipped up and down starting from the target pixel. Then, the prediction calculation unit 278 sequentially multiplies the prediction tap that is turned upside down with the pixel of interest as the starting point and the tap coefficient supplied from the coefficient storage unit 276, thereby corresponding to the pixel of interest. The pixel value of the data pixel is obtained and output.

図13は、11×8画素(横×縦)の処理ブロックの画素に、画素位置モードを割り当てた一例を示す図である。   FIG. 13 is a diagram illustrating an example in which a pixel position mode is assigned to pixels of a processing block of 11 × 8 pixels (horizontal × vertical).

図13には、11×8画素の処理ブロックが示されており、図13右側の太線の矩形で囲まれた部分は、境界上画素を示している。   FIG. 13 shows a processing block of 11 × 8 pixels, and a portion surrounded by a bold rectangle on the right side of FIG. 13 indicates a pixel on the boundary.

また、図13には、11×8画素の処理ブロックのうちの、境界上画素を除外した10×8画素のブロックの中心を通る形で、左右方向(水平方向)に伸びた太線で表される水平線と、上下方向(垂直方向)に伸びた太線で表される垂直線とが示されている。   Further, in FIG. 13, the processing block of 11 × 8 pixels is represented by a thick line extending in the horizontal direction (horizontal direction) passing through the center of the 10 × 8 pixel block excluding the pixels on the boundary. And a vertical line represented by a thick line extending in the vertical direction (vertical direction).

例えば、11×8画素の処理ブロックのうちの、境界上画素を除外した10×8画素のブロックを、垂直線と水平線とにより、5×4画素の左上のブロックである左上領域、5×4画素の右上のブロックである右上領域、5×4画素の左下のブロックである左下領域、および5×4画素の右下のブロックである右下領域に区分し、左上領域の各画素に、例えば、ラスタスキャン順に、画素位置モード0乃至19を割り当てる。   For example, among the processing blocks of 11 × 8 pixels, a block of 10 × 8 pixels excluding the pixels on the boundary is an upper left region that is a 5 × 4 pixel upper left region by a vertical line and a horizontal line, and 5 × 4 The pixel is divided into an upper right area, which is an upper right block of pixels, a lower left area, which is a lower left block of 5 × 4 pixels, and a lower right area, which is a lower right block of 5 × 4 pixels. Pixel position modes 0 to 19 are assigned in the raster scan order.

そして、左上領域の各画素において、垂直線または水平線を基準として、線対称の位置関係にある画素、および10×8画素のブロックの中心を基準として、点対称の位置関係にある画素に、画素位置モードとして同一の値が割り当てられる。   Then, in each pixel in the upper left area, a pixel having a line-symmetric positional relationship with respect to a vertical line or a horizontal line, and a pixel having a point-symmetrical positional relationship with respect to the center of a 10 × 8 pixel block are The same value is assigned as the position mode.

なお、11×8画素の処理ブロックのうちの、境界上画素である1×8画素のブロックには、11×8画素の処理ブロックのうちの、境界上画素を除外した10×8画素のブロックの各画素に割り当てた画素位置モードがとる値と異なる画素位置モードの値を割り当てる。   Among the 11 × 8 pixel processing blocks, the 1 × 8 pixel block that is the upper boundary pixel is a 10 × 8 pixel block that excludes the upper boundary pixel from the 11 × 8 pixel processing block. A pixel position mode value different from the value taken by the pixel position mode assigned to each pixel is assigned.

ここで、領域判定部277からの領域情報が、注目画素が左上領域に位置することを表す情報である場合、予測演算部278は、図11の場合と同様に、予測タップ抽出部123から供給された予測タップx1,x2,・・・,x9と、係数記憶部276から供給されたタップ係数w1,w2・・・,w9とを、順番に乗算することで、注目画素に対応する、高画質画像データの画素の画素値(予測値)w11+w22+・・・+w99を得て出力する。を求めて出力する。 Here, when the region information from the region determination unit 277 is information indicating that the target pixel is located in the upper left region, the prediction calculation unit 278 supplies the prediction tap extraction unit 123 as in the case of FIG. By multiplying the predicted taps x 1 , x 2 ,..., X 9 and the tap coefficients w 1 , w 2 ..., W 9 supplied from the coefficient storage unit 276 in order. The pixel value (predicted value) w 1 x 1 + w 2 x 2 +... + W 9 x 9 of the pixel of the high-quality image data corresponding to the pixel is obtained and output. Is output.

領域判定部277からの領域情報が、注目画素が右上領域または右下領域に位置することを表す情報である場合、予測演算部278は、図11の場合と同様に、予測タップ抽出部123から供給された予測タップを、注目画素を起点として左右反転する。そして、予測演算部278は、注目画素を起点として左右反転させた予測タップと、係数記憶部276から供給されたタップ係数とを、順番に乗算することで、注目画素に対応する、高画質画像データの画素の画素値を求めて出力する。   When the region information from the region determination unit 277 is information indicating that the pixel of interest is located in the upper right region or the lower right region, the prediction calculation unit 278 performs the same operation as in the case of FIG. The supplied prediction tap is reversed left and right starting from the target pixel. Then, the prediction calculation unit 278 sequentially multiplies the prediction tap that is reversed left and right with the pixel of interest as the starting point and the tap coefficient supplied from the coefficient storage unit 276, thereby corresponding to the pixel of interest. The pixel value of the data pixel is obtained and output.

また、領域判定部277からの領域情報が、注目画素が左下領域または右下領域に位置することを表す情報である場合、予測演算部278は、図11の場合と同様に、予測タップ抽出部123から供給された予測タップを、注目画素を起点として上下反転する。そして、予測演算部278は、注目画素を起点として上下反転させた予測タップと、係数記憶部276から供給されたタップ係数とを、順番に乗算することで、注目画素に対応する、高画質画像データの画素の画素値を求めて出力する。   When the region information from the region determination unit 277 is information indicating that the target pixel is located in the lower left region or the lower right region, the prediction calculation unit 278, like the case of FIG. The prediction tap supplied from 123 is flipped up and down starting from the target pixel. Then, the prediction calculation unit 278 sequentially multiplies the prediction tap that is turned upside down with the pixel of interest as the starting point and the tap coefficient supplied from the coefficient storage unit 276, thereby corresponding to the pixel of interest. The pixel value of the data pixel is obtained and output.

なお、11×8画素の処理ブロックとしては、図13に示される、境界上画素が右側に存在する処理ブロックのほかに、境界上画素が左側に存在する処理ブロックもあるが、この場合も同様に、画素位置モードを割り当てることができる。   In addition to the 11 × 8 pixel processing block shown in FIG. 13 where the upper boundary pixel exists on the right side, there is a processing block where the upper boundary pixel exists on the left side. Can be assigned a pixel position mode.

また、図12および図13においては、垂直線に隣接する画素の画素位置モードの値を4としているが、例えば、いま、画素位置モードが4の画素の画素位置モードを、画素位置モードが4の画素に隣接する画素の画素位置モードと同一の3にするようにしてもよい。この場合、画素位置モードのモード数を1個節約することができるため、係数記憶部276に記憶させるタップ係数を、値4が割り当てられた画素位置モードに対応するタップ係数分減らすことができ、係数記憶部276のメモリ容量を節約することができる。   In FIGS. 12 and 13, the value of the pixel position mode of the pixel adjacent to the vertical line is set to 4. For example, the pixel position mode of the pixel having the pixel position mode of 4 is set to 4 and the pixel position mode of 4 is set. It may be set to 3 which is the same as the pixel position mode of the pixel adjacent to this pixel. In this case, since the number of pixel position mode modes can be saved, the tap coefficient stored in the coefficient storage unit 276 can be reduced by the tap coefficient corresponding to the pixel position mode to which the value 4 is assigned, The memory capacity of the coefficient storage unit 276 can be saved.

次に、図14のフローチャートを参照して、図10の画像変換部61における画像変換処理を説明する。   Next, image conversion processing in the image conversion unit 61 in FIG. 10 will be described with reference to the flowchart in FIG.

この画像変換処理は、例えば、図1のデコーダ32により、1920×1080画素の出力画像データが、画像変換部61に供給されたときに開始される。このとき、ブロック抽出部121、予測タップ抽出部123、およびクラスタップ抽出部124それぞれに、出力画像データが供給される。   This image conversion processing is started when, for example, output image data of 1920 × 1080 pixels is supplied to the image conversion unit 61 by the decoder 32 of FIG. At this time, output image data is supplied to each of the block extraction unit 121, the prediction tap extraction unit 123, and the class tap extraction unit 124.

ステップS131において、制御部279は、画像変換部61における画像変換処理が、出力画像データの処理ブロックごとに行われるように、各ブロックの制御を開始する。   In step S131, the control unit 279 starts control of each block so that the image conversion processing in the image conversion unit 61 is performed for each processing block of output image data.

具体的には、制御部279は、ブロック抽出部121を制御し、図1のデコーダ32から出力される出力画像データから、64×16画素の抽出対象ブロック(図4)を、図3に示されるように順次抽出させ、抽出した抽出対象ブロックを、図4に示されるように、処理対象ブロック131、132、または133に区分させる。   Specifically, the control unit 279 controls the block extraction unit 121, and an extraction target block (FIG. 4) of 64 × 16 pixels is shown in FIG. 3 from the output image data output from the decoder 32 of FIG. As shown in FIG. 4, the extracted extraction target blocks are divided into processing target blocks 131, 132, or 133 as shown in FIG.

また、制御部279は、ブロック抽出部121を制御し、区分された処理対象ブロックを、適宜、閾値算出部122に供給させる。さらに、制御部279は、閾値算出部122を制御し、処理対象ブロックを、11×8画素または10×8画素の処理ブロックに区分させる。制御部279は、閾値算出部122、予測タップ抽出部123、クラスタップ抽出部124、クラス分類部125、画素位置モード判定部275、係数記憶部276、領域判定部277、または予測演算部278を制御することで、出力画像データの処理ブロックごとに画像変換処理を行わせる。   In addition, the control unit 279 controls the block extraction unit 121 and causes the threshold calculation unit 122 to supply the divided processing target blocks as appropriate. Further, the control unit 279 controls the threshold value calculation unit 122 to divide the processing target block into processing blocks of 11 × 8 pixels or 10 × 8 pixels. The control unit 279 includes a threshold value calculation unit 122, a prediction tap extraction unit 123, a class tap extraction unit 124, a class classification unit 125, a pixel position mode determination unit 275, a coefficient storage unit 276, a region determination unit 277, or a prediction calculation unit 278. By controlling, image conversion processing is performed for each processing block of output image data.

閾値算出部122、予測タップ抽出部123、クラスタップ抽出部124、クラス分類部125、画素位置モード判定部275、係数記憶部276、領域判定部277または予測演算部278は、制御部279の制御に従い、出力画像データの処理ブロックごとに画像変換処理を行う。   The threshold calculation unit 122, the prediction tap extraction unit 123, the class tap extraction unit 124, the class classification unit 125, the pixel position mode determination unit 275, the coefficient storage unit 276, the region determination unit 277, or the prediction calculation unit 278 is controlled by the control unit 279. The image conversion process is performed for each processing block of the output image data.

即ち、ステップS131の処理後、処理は、ステップS132に進み、ステップS132乃至ステップS139それぞれにおいて、図7のステップS32乃至ステップS39それぞれと同様の処理を行い、処理は、ステップS140に進む。   That is, after the process of step S131, the process proceeds to step S132. In steps S132 to S139, the same processes as in steps S32 to S39 of FIG. 7 are performed, and the process proceeds to step S140.

ステップS140において、画素位置モード判定部275は、予測タップ抽出部123から供給された位置情報に基づいて、注目画素の画素位置モードを判定し、係数記憶部276に供給して、ステップS141に進む。なお、ステップS137において、予測タップ抽出部123は、予測タップを抽出するとともに、いま注目画素となっている画素の位置情報(例えば、注目ブロックにおける注目画素の座標など)を、画素位置モード判定部275に供給するようになっている。   In step S140, the pixel position mode determination unit 275 determines the pixel position mode of the target pixel based on the position information supplied from the prediction tap extraction unit 123, supplies the pixel position mode to the coefficient storage unit 276, and proceeds to step S141. . Note that in step S137, the prediction tap extraction unit 123 extracts the prediction tap and uses the position information of the pixel that is currently the target pixel (for example, the coordinates of the target pixel in the target block) as the pixel position mode determination unit. H.275 is supplied.

ステップS141において、係数記憶部276は、後述するような学習処理が行われることにより得られるタップ係数が登録された係数テーブルを記憶しており、クラス分類部125から供給されたクラスコードと、画素位置モード判定部275から供給された画素位置モードとに対応付けられたタップ係数を予測演算部278に供給する。なお、ステップS139において、クラス分類部125は、クラス分類により得られるクラスに対応するクラスコードを係数記憶部276に、供給するようになっている。   In step S141, the coefficient storage unit 276 stores a coefficient table in which tap coefficients obtained by performing learning processing as described below are registered, and the class code supplied from the class classification unit 125 and the pixel The tap coefficient associated with the pixel position mode supplied from the position mode determination unit 275 is supplied to the prediction calculation unit 278. In step S139, the class classification unit 125 supplies a class code corresponding to the class obtained by the class classification to the coefficient storage unit 276.

ステップS141の処理後、処理は、ステップS142に進み、領域判定部277は、予測タップ抽出部123から供給された位置情報に基づいて、注目画素の領域情報を判定し、予測演算部278に供給して、処理は、ステップS143に進む。なお、ステップS137において、予測タップ抽出部123は、予測タップを抽出するとともに、いま注目画素となっている画素の位置情報を、領域判定部277に供給するようになっている。   After the process of step S141, the process proceeds to step S142, and the region determination unit 277 determines the region information of the target pixel based on the position information supplied from the prediction tap extraction unit 123 and supplies the region information to the prediction calculation unit 278. Then, the process proceeds to step S143. In step S137, the prediction tap extraction unit 123 extracts the prediction tap and supplies the position determination unit 277 with the position information of the pixel that is the current pixel of interest.

ステップS143において、予測演算部278は、予測タップ抽出部123から供給された予測タップと、係数記憶部276から供給されたタップ係数とを用いて、領域判定部277から供給された領域情報に対応した所定の予測演算を行うことにより、注目画素に対応する、高画質画像データの画素の画素値(予測値)を求めて出力し、処理は、ステップS144に進み、図7のステップS42と同様の処理を行う。   In step S143, the prediction calculation unit 278 uses the prediction tap supplied from the prediction tap extraction unit 123 and the tap coefficient supplied from the coefficient storage unit 276 to correspond to the region information supplied from the region determination unit 277. By performing the predetermined prediction calculation, the pixel value (predicted value) of the pixel of the high-quality image data corresponding to the target pixel is obtained and output, and the process proceeds to step S144 and is the same as step S42 of FIG. Perform the process.

その後、処理は、ステップS145に進み、制御部279は、出力画像データすべての処理ブロックを、注目ブロックとしたか否かを判定する。   Thereafter, the process proceeds to step S145, and the control unit 279 determines whether or not all the processing blocks of the output image data are the target block.

ステップS144において、出力画像データすべての処理ブロックを、注目ブロックとしていないと判定された場合、処理は、ステップS132に戻り、以下、同様の処理を繰り返す。   If it is determined in step S144 that all the processing blocks of the output image data are not the target block, the processing returns to step S132, and the same processing is repeated thereafter.

一方、ステップS145において、出力画像データすべての処理ブロックを、注目ブロックとしたと判定された場合、図14の画像変換処理は終了される。   On the other hand, if it is determined in step S145 that all the processing blocks of the output image data are the blocks of interest, the image conversion process in FIG. 14 is terminated.

以上のような図14の画像変換処理では、注目画素がクラス分類され、さらに、注目画素の画素位置モードが判定されることにより、注目画素のクラスと画素位置モードとに基づいて、タップ係数が選択されるため、注目画素のクラスに基づいてタップ係数が選択される場合と比較して、より適切なタップ係数が選択され、そのため、誤差の少ない高画質画像データの画素値を求めることができる。即ち、出力画像データに付加されたモスキートノイズやブロック歪を、より効果的に除去することができる。   In the image conversion process of FIG. 14 as described above, the target pixel is classified, and the pixel position mode of the target pixel is determined, so that the tap coefficient is determined based on the class of the target pixel and the pixel position mode. Therefore, a more appropriate tap coefficient is selected as compared with the case where the tap coefficient is selected based on the class of the pixel of interest, so that a pixel value of high-quality image data with less error can be obtained. . That is, mosquito noise and block distortion added to the output image data can be more effectively removed.

図15は、式(8)の正規方程式をクラスと画素位置モード(とのセット)ごとにたてて解くことによりタップ係数wnを求める学習処理を行う学習装置201の構成例を示している。 FIG. 15 shows a configuration example of a learning device 201 that performs a learning process for obtaining the tap coefficient w n by solving the normal equation of the equation (8) for each class and pixel position mode (set). .

なお、図中、図8の場合に対応する部分については同一の符号を付してあり、以下、その説明は、適宜省略する。   In the figure, portions corresponding to those in FIG. 8 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

即ち、図15の学習装置201は、図8の、足し込み部238、係数算出部239、または制御部240に代えて、足し込み部340、係数算出部341、または制御部342がそれぞれ設けられており、さらに画素位置モード判定部339が新たに設けられているほかは、図8の場合と同様に構成される。   That is, the learning apparatus 201 in FIG. 15 is provided with an addition unit 340, a coefficient calculation unit 341, or a control unit 342 in place of the addition unit 238, the coefficient calculation unit 239, or the control unit 240 in FIG. Furthermore, the configuration is the same as in the case of FIG. 8 except that a pixel position mode determination unit 339 is newly provided.

なお、予測タップ抽出部235は、いま注目画素となっている画素の位置情報(例えば、注目ブロックにおける注目画素の座標など)を、画素位置モード判定部339に供給するようになっている。   Note that the prediction tap extraction unit 235 supplies pixel position information (for example, the coordinates of the pixel of interest in the block of interest) of the pixel currently being the pixel of interest to the pixel position mode determination unit 339.

画素位置モード判定部339は、予測タップ抽出部235から供給された位置情報に基づいて、図10の画素位置モード判定部275と同一の判定を行うことで、注目画素の画素位置モードを判定し、足し込み部340に供給する。   The pixel position mode determination unit 339 determines the pixel position mode of the target pixel by performing the same determination as the pixel position mode determination unit 275 of FIG. 10 based on the position information supplied from the prediction tap extraction unit 235. , And supplied to the adding portion 340.

足し込み部340は、学習用画像記憶部231から、注目画素に対応する、教師画像データ(学習用画像データ)の画素(の画素値)を読み出し、その画素と、予測タップ抽出部235から供給された注目画素についての予測タップを構成する生徒画像データの画素とを対象とした足し込みを、クラス分類部237から供給されたクラスコードと、画素位置モード判定部339から供給された画素位置モードごとに行う。   The adding unit 340 reads out the pixel (its pixel value) of the teacher image data (learning image data) corresponding to the target pixel from the learning image storage unit 231, and supplies the pixel and the prediction tap extraction unit 235. The class code supplied from the class classification unit 237 and the pixel position mode supplied from the pixel position mode determination unit 339 are added to the pixel of the student image data that forms the prediction tap for the target pixel that has been processed. Do it every time.

即ち、足し込み部340には、学習用画像記憶部231に記憶された教師画像データ(の画素のうちの、注目画素に対応する画素の画素値)yk、予測タップ抽出部235が出力する予測タップ(を構成する生徒画像データの画素の画素値)xn,k、クラス分類部237が出力する、注目画素のクラスを表すクラスコード、および画素位置モード判定部339が出力する、注目画素の画素位置モードが供給される。 That is, the adder 340, (among the pixel, the pixel values of pixels corresponding to the pixel of interest) teacher image data stored in the learning image storage unit 231 y k, the prediction tap extracting unit 235 outputs Predictive tap (pixel value of pixel of student image data) x n, k , class code indicating class of target pixel output by class classification unit 237, and target pixel output by pixel position mode determination unit 339 Pixel position modes are provided.

そして、足し込み部340は、クラス分類部237から供給されたクラスコードに対応するクラスと、画素位置モード判定部339から供給された画素位置モードごとに、予測タップ(生徒画像データ)xn,kを用い、式(8)の左辺の行列における生徒画像データどうしの乗算(xn,kn',k)と、サメーション(Σ)に相当する演算を行う。 Then, the adding unit 340 generates a prediction tap (student image data) x n, for each class corresponding to the class code supplied from the class classification unit 237 and each pixel position mode supplied from the pixel position mode determination unit 339 . Using k , an operation corresponding to multiplication (x n, k x n ′, k ) between student image data in the matrix on the left side of equation (8) and summation (Σ) is performed.

さらに、足し込み部340は、やはり、クラス分類部237から供給されたクラスコードに対応するクラスと、画素位置モード判定部339から供給された画素位置モードごとに、予測タップ(生徒画像データ)xn,kと教師画像データykを用い、式(8)の右辺のベクトルにおける生徒画像データxn,kおよび教師画像データykの乗算(xn,kk)と、サメーション(Σ)に相当する演算を行う。 Furthermore, the adding unit 340 also performs a prediction tap (student image data) x for each class corresponding to the class code supplied from the class classification unit 237 and each pixel position mode supplied from the pixel position mode determination unit 339. n, using k and the teacher image data y k, student image data x n, multiplication of k and the teacher image data y k (x n, k y k) in the vector of the right side of equation (8) and, summation (sigma ) Is performed.

即ち、足し込み部340は、前回、注目画素とされた生徒画像データについて求められた式(8)における左辺の行列のコンポーネント(Σxn,kn',k)と、右辺のベクトルのコンポーネント(Σxn,kk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kn',k)またはベクトルのコンポーネント(Σxn,kk)に対して、新たに注目画素とされた生徒画像データについて、その生徒画像データxn,k+1および教師画像データyk+1を用いて計算される、対応するコンポーネントxn,k+1n',k+1またはxn,k+1k+1を足し込む(式(8)のサメーションで表される加算を行う)。 In other words, the adding unit 340 includes the left-side matrix component (Σx n, k x n ′, k ) and the right-side vector component in Equation (8) previously obtained for the student image data set as the target pixel. (Σx n, k y k ) is stored in its built-in memory (not shown), and the matrix component (Σx n, k x n ′, k ) or vector component (Σx n, k y) k ), the corresponding component x n, k calculated using the student image data x n, k + 1 and the teacher image data y k + 1 for the student image data newly set as the pixel of interest Add +1 x n ′, k + 1 or x n, k + 1 y k + 1 (addition represented by the summation of equation (8) is performed).

そして、足し込み部340は、ノイズ付加部232により生成される生徒画像データすべてを注目画素として、上述の足し込みを行うことにより、それぞれの、クラスと画素位置モードについて、式(8)に示した正規方程式をたてると、その正規方程式を、係数算出部341に供給する。   Then, the adding unit 340 performs the above-described addition using all the student image data generated by the noise adding unit 232 as the target pixel, so that each class and pixel position mode is expressed by Expression (8). When the normal equation is established, the normal equation is supplied to the coefficient calculation unit 341.

係数算出部341は、足し込み部340から供給されたそれぞれの、クラスと画素位置モードについての正規方程式を解くことにより、それぞれの、クラスと画素位置モードについて、最適なタップ係数wnを求めて出力する。 The coefficient calculation unit 341 obtains the optimum tap coefficient w n for each class and pixel position mode by solving the normal equation for each class and pixel position mode supplied from the addition unit 340. Output.

制御部342は、学習用画像記憶部231、ノイズ付加部232、ブロック抽出部233、閾値算出部234、予測タップ抽出部235、クラスタップ抽出部236、クラス分類部237、画素位置モード判定部339、足し込み部340、または係数算出部341を制御する。   The control unit 342 includes a learning image storage unit 231, a noise addition unit 232, a block extraction unit 233, a threshold calculation unit 234, a prediction tap extraction unit 235, a class tap extraction unit 236, a class classification unit 237, and a pixel position mode determination unit 339. The addition unit 340 or the coefficient calculation unit 341 is controlled.

即ち、制御部342は、学習装置201における学習処理が、生徒画像データの処理ブロックごとに行われるように、各ブロックを制御する。   That is, the control unit 342 controls each block so that the learning process in the learning device 201 is performed for each processing block of the student image data.

次に、図16のフローチャートを参照して、図15の学習装置201における学習処理を説明する。   Next, the learning process in the learning apparatus 201 in FIG. 15 will be described with reference to the flowchart in FIG.

この学習処理は、例えば、ユーザにより、放送局31で得られる原画像(図1)に相当する画像データが、タップ係数wnの学習に用いられる学習用画像データとして、学習装置201に供給されたときに開始される。このとき、学習装置201において、学習用画像データは、学習用画像記憶部231に供給され、記憶される。 The learning process is, for example, by the user, the image data corresponding to the original image obtained by the broadcast station 31 (FIG. 1), as the learning image data used for learning of the tap coefficient w n, is supplied to the learning apparatus 201 Will start when. At this time, in the learning apparatus 201, the learning image data is supplied to and stored in the learning image storage unit 231.

ステップS171において、制御部342は、学習装置201における学習処理が、生徒画像データの処理ブロックごとに行われるように、各ブロックを制御する。   In step S171, the control unit 342 controls each block so that the learning process in the learning device 201 is performed for each processing block of the student image data.

具体的には、制御部342は、ノイズ付加部232を制御し、学習用画像記憶部231から、学習用画像データを読み出させ、学習用画像データに、図1で行われる処理と同様の処理を行わせることで、出力画像データに相当する画像である生徒画像データを生成させる。   Specifically, the control unit 342 controls the noise adding unit 232 to read the learning image data from the learning image storage unit 231 and causes the learning image data to be the same as the process performed in FIG. By performing the processing, student image data that is an image corresponding to the output image data is generated.

即ち、ノイズ付加部232は、図1で示される放送局31で得られる原画像に相当する画像データである学習用画像データを、図1における原画像を、拡大MPEG復号画像に変換する処理と同様の処理を行うことで、出力画像データに相当する画像である生徒画像データを生成する。   That is, the noise adding unit 232 converts the learning image data, which is image data corresponding to the original image obtained at the broadcasting station 31 shown in FIG. 1, into the enlarged MPEG decoded image from the original image in FIG. By performing the same processing, student image data that is an image corresponding to the output image data is generated.

また、制御部342は、ブロック抽出部233を制御し、処理対象ブロックを、例えば、ラスタスキャン順に、順次、閾値算出部234に供給させる。即ち、ブロック抽出部233は、制御部342の制御に従い、ノイズ付加部232から供給されてくる生徒画像データから、所定のブロックを、例えば、ラスタスキャン順に、順次抽出することにより、図10のブロック抽出部121が抽出する抽出対象ブロックと同一の抽出対象ブロックを得る。また、ブロック抽出部233は、制御部342の制御に従い、抽出した抽出対象ブロックを複数のブロックに区分することにより、図10のブロック抽出部121により区分される複数の処理対象ブロックと同一の複数の処理対象ブロックを得て、例えば、ラスタスキャン順に、順次、閾値算出部234に供給する。   Further, the control unit 342 controls the block extraction unit 233 to supply the processing target blocks to the threshold value calculation unit 234 sequentially in the raster scan order, for example. In other words, the block extraction unit 233 sequentially extracts predetermined blocks from the student image data supplied from the noise addition unit 232, for example, in the raster scan order, under the control of the control unit 342, so that the blocks shown in FIG. The same extraction target block as the extraction target block extracted by the extraction unit 121 is obtained. In addition, the block extraction unit 233 divides the extracted extraction target block into a plurality of blocks according to the control of the control unit 342, so that the same plurality of processing target blocks divided by the block extraction unit 121 of FIG. For example, are sequentially supplied to the threshold value calculation unit 234 in the raster scan order.

その後、制御部342は、閾値算出部234、予測タップ抽出部235、クラスタップ抽出部236、クラス分類部237、画素位置モード判定部339、足し込み部340、または係数算出部341を制御することで、ノイズ付加部232により生成される生徒画像データの処理ブロックごとに学習処理を行わせる。   Thereafter, the control unit 342 controls the threshold calculation unit 234, the prediction tap extraction unit 235, the class tap extraction unit 236, the class classification unit 237, the pixel position mode determination unit 339, the addition unit 340, or the coefficient calculation unit 341. Thus, the learning process is performed for each processing block of the student image data generated by the noise adding unit 232.

このとき、閾値算出部234、予測タップ抽出部235、クラスタップ抽出部236、クラス分類部237、画素位置モード判定部339、足し込み部340、または係数算出部341は、制御部342の制御に従い、ノイズ付加部232により生成される生徒画像データの処理ブロックごとに学習処理を行う。   At this time, the threshold calculation unit 234, the prediction tap extraction unit 235, the class tap extraction unit 236, the class classification unit 237, the pixel position mode determination unit 339, the addition unit 340, or the coefficient calculation unit 341 follows the control of the control unit 342. The learning process is performed for each processing block of the student image data generated by the noise adding unit 232.

即ち、処理は、ステップS171からステップS172に進み、ステップS172乃至ステップS179それぞれにおいて、図9のステップS72乃至ステップS79と同様の処理を行い、ステップS180に進み、画素位置モード判定部339は、予測タップ抽出部235から供給された位置情報に基づいて、図10の画素位置モード判定部275と同一の判定を行うことで、注目画素の画素位置モードを判定し、足し込み部340に供給する。なお、ステップS177において、予測タップ抽出部235は、予測タップを抽出するとともに、いま注目画素となっている画素の位置情報を、画素位置モード判定部339に供給するようになっている。   That is, the process proceeds from step S171 to step S172. In steps S172 to S179, the same processes as in steps S72 to S79 in FIG. 9 are performed, and the process proceeds to step S180. The pixel position mode determination unit 339 performs the prediction. Based on the position information supplied from the tap extraction unit 235, the pixel position mode of the target pixel is determined by performing the same determination as that of the pixel position mode determination unit 275 in FIG. 10 and supplied to the adding unit 340. In step S177, the prediction tap extraction unit 235 extracts the prediction tap and supplies the pixel position mode determination unit 339 with the position information of the pixel that is the current pixel of interest.

処理は、ステップS180からステップS181に進み、足し込み部340は、学習用画像記憶部231から、注目画素に対応する、学習用画像である教師画像データの画素(の画素値)を読み出し、その画素と、予測タップ抽出部235から供給された注目画素についての予測タップを構成する生徒画像データの画素とを対象とした足し込みを、クラス分類部237から供給されたクラスコードと、画素位置モード判定部339から供給された画素位置モードごとに行い、処理は、ステップS182に進む。   The process proceeds from step S180 to step S181, and the adding unit 340 reads out the pixel (its pixel value) of the teacher image data, which is the learning image, corresponding to the target pixel from the learning image storage unit 231. The class code supplied from the class classifying unit 237, the pixel position mode, and the pixel and the pixel of the student image data constituting the prediction tap for the target pixel supplied from the prediction tap extracting unit 235 The process is performed for each pixel position mode supplied from the determination unit 339, and the process proceeds to step S182.

ステップS182において、予測タップ抽出部235は、注目ブロックのすべての画素を、注目画素としたかを判定する。   In step S <b> 182, the prediction tap extraction unit 235 determines whether all the pixels of the target block are the target pixels.

ステップS182において、注目ブロックのすべての画素を、まだ注目画素としていないと判定された場合、処理は、ステップS176に戻り、予測タップ抽出部235は、注目ブロックのうちの、まだ注目画素としていない画素を注目画素として、処理は、ステップS177に進み、以下、同様の処理を繰り返す。   If it is determined in step S182 that all the pixels of the block of interest are not yet the pixels of interest, the process returns to step S176, and the prediction tap extraction unit 235 selects pixels of the block of interest that are not yet the pixels of interest. The process proceeds to step S177, and the same process is repeated thereafter.

一方、ステップS182において、注目ブロックのすべての画素を、注目画素としたと判定された場合、処理は、ステップS183に進み、制御部342は、ノイズ付加部232により生成される生徒画像データすべての処理ブロックを、注目ブロックとしたか否かを判定する。 On the other hand, if it is determined in step S182 that all the pixels of the target block are the target pixels, the process proceeds to step S183, and the control unit 342 controls all of the student image data generated by the noise adding unit 232. It is determined whether or not the processing block is the target block.

ステップS183において、ノイズ付加部232により生成される生徒画像データすべての処理ブロックを、注目ブロックとしていないと判定された場合、処理は、ステップS172に戻り、以下、同様の処理を繰り返す。   If it is determined in step S183 that all the processing blocks of the student image data generated by the noise adding unit 232 are not the target block, the processing returns to step S172, and the same processing is repeated thereafter.

一方、ステップS183において、ノイズ付加部232により生成される生徒画像データすべての処理ブロックを、注目ブロックとしたと判定された場合、即ち、足し込み部340においては、ノイズ付加部232により生成される生徒画像データすべてを注目画素として、上述の足し込みを行うことにより、それぞれの、クラスと画素位置モードについて、式(8)に示した正規方程式をたてて、その正規方程式を、係数算出部341に供給する場合、処理は、ステップS184に進み、係数算出部341は、足し込み部340から供給された、それぞれの、クラスと画素位置モードについての正規方程式を解くことにより、それぞれの、クラスと画素位置モードについて、最適なタップ係数wnを求めて出力する。 On the other hand, when it is determined in step S183 that all the processing blocks of the student image data generated by the noise adding unit 232 are the target block, that is, in the adding unit 340, the noise adding unit 232 generates the processing block. By performing the above-described addition using all student image data as the target pixel, the normal equation shown in Expression (8) is established for each class and pixel position mode, and the normal equation is converted into a coefficient calculation unit. In the case of supplying to 341, the process proceeds to step S 184, and the coefficient calculation unit 341 solves each class and pixel position mode by supplying a normal equation for each class and pixel position mode. and the pixel position mode, determines and outputs the optimum tap coefficients w n.

その後、図16の学習処理は終了される。   Thereafter, the learning process of FIG. 16 is terminated.

以上のような図16の学習処理では、生徒画像データの注目画素がクラス分類され、生徒画像データの注目画素の画素位置モードが判定されるとともに、注目画素のクラスと画素位置モードと(のセット)に対応付けられたタップ係数が学習されるため、注目画素の画素位置モードが判定されずにタップ係数が学習される場合と比較して、より多くのバリエーションのタップ係数を学習することができる。   In the learning process of FIG. 16 as described above, the target pixel of the student image data is classified, the pixel position mode of the target pixel of the student image data is determined, and the class of the target pixel and the pixel position mode are set ) Is learned, so that more variation tap coefficients can be learned as compared to the case where the tap coefficient is learned without determining the pixel position mode of the target pixel. .

図17は、図2の画像変換部61における画像変換処理と、上述した特許文献1や2などにおける画像変換処理とを選択的に用いることができる画像処理装置371を示すブロック図である。   FIG. 17 is a block diagram showing an image processing device 371 that can selectively use the image conversion processing in the image conversion unit 61 of FIG. 2 and the image conversion processing in Patent Documents 1 and 2 described above.

画像処理装置371は、ブロックサイズ検出部401、ブロックサイズ判定部402、図2の画像変換部61、および画像変換部403により構成される。   The image processing device 371 includes a block size detection unit 401, a block size determination unit 402, an image conversion unit 61 in FIG. 2, and an image conversion unit 403.

なお、画像処理装置371には、例えば、図1のデコーダ32から出力される拡大MPEG復号画像などの出力画像データや、他のデコーダなどから出力される、例えば、8×8画素のブロックごとにMPEG-2などで符号化され、復号されることで得られた画像データが、入力画像データとして供給されるようになっている。このとき、画像処理装置371のブロックサイズ検出部401には、入力画像データが供給される。   In addition, the image processing device 371 outputs, for example, output image data such as an enlarged MPEG decoded image output from the decoder 32 of FIG. 1 or each block of 8 × 8 pixels output from another decoder, for example. Image data obtained by encoding and decoding with MPEG-2 or the like is supplied as input image data. At this time, input image data is supplied to the block size detection unit 401 of the image processing device 371.

ブロックサイズ検出部401は、そこに供給された入力画像データのブロックサイズを検出し、入力画像データとともに、ブロックサイズ判定部402に供給する。   The block size detection unit 401 detects the block size of the input image data supplied thereto, and supplies the block size determination unit 402 together with the input image data.

ここで、入力画像データのブロックサイズとは、例えば、入力画像データが出力画像データである場合、10.666×8画素のブロックのサイズをいい、入力画像データが画像データである場合、8×8画素のブロックのサイズをいう。   Here, the block size of the input image data means, for example, a block size of 10.666 × 8 pixels when the input image data is output image data, and 8 × when the input image data is image data. The size of a block of 8 pixels.

ブロックサイズ判定部402は、ブロックサイズ検出部401から供給されたブロックサイズが、例えば、8×8画素などの所定のブロックサイズであるか否かを判定する。即ち、ブロックサイズ判定部402は、ブロックサイズ検出部401から供給された入力画像データが境界上画素を含む画像であるか否かを判定する。   The block size determination unit 402 determines whether or not the block size supplied from the block size detection unit 401 is a predetermined block size such as 8 × 8 pixels, for example. That is, the block size determination unit 402 determines whether the input image data supplied from the block size detection unit 401 is an image including pixels on the boundary.

ブロックサイズ検出部401から供給されたブロックサイズが、8×8画素などの所定のブロックサイズであると判定された場合、即ち、ブロックサイズ検出部401から供給された入力画像データが境界上画素を含む画像ではないと判定された場合、ブロックサイズ判定部402は、ブロックサイズ検出部401からの入力画像データを、画像変換部403に供給する。   When it is determined that the block size supplied from the block size detection unit 401 is a predetermined block size such as 8 × 8 pixels, that is, the input image data supplied from the block size detection unit 401 determines pixels on the boundary. When it is determined that the image is not included, the block size determination unit 402 supplies the input image data from the block size detection unit 401 to the image conversion unit 403.

一方、ブロックサイズ検出部401から供給されたブロックサイズが、8×8画素などの所定のブロックサイズでない(10.666×8画素などのブロックサイズである)と判定された場合、即ち、ブロックサイズ検出部401から供給された入力画像データが境界上画素を含む画像であると判定された場合、ブロックサイズ判定部402は、ブロックサイズ検出部401からの入力画像データを、画像変換部61に供給する。   On the other hand, when it is determined that the block size supplied from the block size detection unit 401 is not a predetermined block size such as 8 × 8 pixels (a block size such as 10.666 × 8 pixels), that is, the block size When it is determined that the input image data supplied from the detection unit 401 is an image including pixels on the boundary, the block size determination unit 402 supplies the input image data from the block size detection unit 401 to the image conversion unit 61. To do.

画像変換部403は、ブロックサイズ判定部402からの入力画像データに対して、特許文献1や2に開示された技術を用いた画像変換処理を行う。   The image conversion unit 403 performs image conversion processing on the input image data from the block size determination unit 402 using the techniques disclosed in Patent Documents 1 and 2.

画像変換部61は、ブロックサイズ判定部402からの入力画像データに対して、図2で説明した画像変換処理を行う。   The image conversion unit 61 performs the image conversion process described with reference to FIG. 2 on the input image data from the block size determination unit 402.

次に、図18のフローチャートを参照して、図18の画像処理装置371における画像変換処理を説明する。   Next, image conversion processing in the image processing apparatus 371 in FIG. 18 will be described with reference to the flowchart in FIG.

この画像変換処理は、例えば、図1のデコーダ32から出力される拡大MPEG復号画像などの出力画像データや、他のデコーダなどから出力される、例えば、8×8画素のブロックごとにMPEG-2などで符号化され、復号されることで得られた画像データが、入力画像データとして、画像処理装置371に供給されたときに、開始される。このとき、画像処理装置371のブロックサイズ検出部401には、入力画像データが供給される。   This image conversion processing is performed, for example, on output image data such as an enlarged MPEG decoded image output from the decoder 32 of FIG. 1, or on an MPEG-2 basis for each block of 8 × 8 pixels output from another decoder, for example. This is started when image data obtained by encoding and decoding is supplied to the image processing device 371 as input image data. At this time, input image data is supplied to the block size detection unit 401 of the image processing device 371.

ステップS191において、ブロックサイズ検出部401は、そこに供給された入力画像データのブロックサイズを検出し、入力画像データとともに、ブロックサイズ判定部402に供給して、ステップS192に進み、ブロックサイズ判定部402は、ブロックサイズ検出部401から供給されたブロックサイズが、例えば、8×8画素などの所定のブロックサイズであるか否かを判定する。即ち、ステップS192において、ブロックサイズ判定部402は、ブロックサイズ検出部401から供給された入力画像データが境界上画素を含む画像であるか否かを判定する。   In step S191, the block size detection unit 401 detects the block size of the input image data supplied thereto, supplies the input image data together with the input image data to the block size determination unit 402, proceeds to step S192, and proceeds to step S192. 402 determines whether the block size supplied from the block size detection unit 401 is a predetermined block size such as 8 × 8 pixels, for example. That is, in step S192, the block size determination unit 402 determines whether or not the input image data supplied from the block size detection unit 401 is an image including pixels on the boundary.

ステップS192において、ブロックサイズ検出部401から供給されたブロックサイズが、8×8画素などの所定のブロックサイズであると判定された場合、即ち、ブロックサイズ検出部401から供給された入力画像データが境界上画素を含む画像ではないと判定された場合、ブロックサイズ判定部402は、ブロックサイズ検出部401からの入力画像データを、画像変換部403に供給して、ステップS193に進み、画像変換部403は、ブロックサイズ判定部402からの入力画像データに対して、特許文献1や2に開示された技術を用いた画像変換処理を行い、画像処理装置371における画像変換処理は終了される。   When it is determined in step S192 that the block size supplied from the block size detection unit 401 is a predetermined block size such as 8 × 8 pixels, that is, the input image data supplied from the block size detection unit 401 is When it is determined that the image does not include the pixel on the boundary, the block size determination unit 402 supplies the input image data from the block size detection unit 401 to the image conversion unit 403, and proceeds to step S193, where the image conversion unit Step 403 performs image conversion processing using the techniques disclosed in Patent Documents 1 and 2 on the input image data from the block size determination unit 402, and the image conversion processing in the image processing device 371 ends.

一方、ブロックサイズ検出部401から供給されたブロックサイズが、8×8画素などの所定のブロックサイズでない(10.666×8画素などのブロックサイズである)と判定された場合、即ち、ブロックサイズ検出部401から供給された入力画像データが境界上画素を含む画像であると判定された場合、ブロックサイズ判定部402は、ブロックサイズ検出部401からの入力画像データを、画像変換部61に供給して、ステップS194に進み、画像変換部61は、ブロックサイズ判定部402からの入力画像データに対して、図2で説明した画像変換処理を行い、図18の画像変換処理は終了される。   On the other hand, when it is determined that the block size supplied from the block size detection unit 401 is not a predetermined block size such as 8 × 8 pixels (a block size such as 10.666 × 8 pixels), that is, the block size When it is determined that the input image data supplied from the detection unit 401 is an image including pixels on the boundary, the block size determination unit 402 supplies the input image data from the block size detection unit 401 to the image conversion unit 61. In step S194, the image conversion unit 61 performs the image conversion process described with reference to FIG. 2 on the input image data from the block size determination unit 402, and the image conversion process in FIG.

以上のような図18の画像変換処理では、入力画像データのブロックサイズが判定され、そのブロックサイズに応じて最適な画像変換処理が行われるため、異なるブロックサイズの入力画像データに対して、同一の画像変換処理が行われる場合と比較して、例えば、入力画像データに付加されたモスキートノイズやブロック歪などが効果的に除去される。   In the image conversion process of FIG. 18 as described above, the block size of the input image data is determined, and an optimal image conversion process is performed according to the block size. Therefore, the input image data having different block sizes is the same. For example, mosquito noise and block distortion added to the input image data are effectively removed as compared with the case where the image conversion process is performed.

次に、図19乃至図25を参照して、ブロックサイズが10.666×8画素の出力画像データに対して、特許文献1のノイズ除去処理を行った場合の処理結果と、本発明を適用した特許文献1のノイズ除去処理を行った場合の処理結果とを示すことにより、本発明によるノイズ除去効果を説明する。   Next, referring to FIG. 19 to FIG. 25, the processing result when the noise removal processing of Patent Document 1 is performed on the output image data having a block size of 10.666 × 8 pixels, and the present invention is applied. The noise removal effect by this invention is demonstrated by showing the process result at the time of performing the noise removal process of patent document 1 which performed.

図19は、ブロックサイズが10.666×8画素の出力画像データに対して、特許文献1のノイズ除去処理を行った場合に得られた画像を示す図である。   FIG. 19 is a diagram illustrating an image obtained when the noise removal process of Patent Document 1 is performed on output image data having a block size of 10.666 × 8 pixels.

図20は、特許文献1のノイズ除去処理を行った場合に得られた画像の所定の位置における画素の画素値の波形を示す図である。   FIG. 20 is a diagram illustrating a waveform of a pixel value of a pixel at a predetermined position of an image obtained when the noise removal process of Patent Document 1 is performed.

即ち、図20上側には、特許文献1のノイズ除去処理を行った場合に得られた画像が示されており、その画像には、10.666×8画素のブロックの境界と直交する左右方向に伸びた矢印が示されている。   That is, the upper side of FIG. 20 shows an image obtained when the noise removal processing of Patent Document 1 is performed, and the image has a horizontal direction orthogonal to the boundary of the 10.666 × 8 pixel block. An extended arrow is shown.

また、図20下側には、図20上側に示された矢印の位置を示す横軸と、その矢印の位置に対応する画素の画素値を示す縦軸とで表されたグラフが示されている。
さらに、図20下側に示されたグラフに示される記号Yの近傍は、10.666×8画素のブロックの境界の近傍を示している。
Further, on the lower side of FIG. 20, a graph represented by a horizontal axis indicating the position of the arrow shown on the upper side of FIG. 20 and a vertical axis indicating the pixel value of the pixel corresponding to the position of the arrow is shown. Yes.
Furthermore, the vicinity of the symbol Y shown in the lower graph of FIG. 20 indicates the vicinity of the boundary of the block of 10.666 × 8 pixels.

図21は、ブロックサイズが10.666×8画素の出力画像データに対して、本発明を適用した特許文献1のノイズ除去処理を行った場合に得られた画像を示す図である。   FIG. 21 is a diagram illustrating an image obtained when the noise removal processing of Patent Document 1 to which the present invention is applied is performed on output image data having a block size of 10.666 × 8 pixels.

図22は、本発明を適用した特許文献1のノイズ除去処理を行った場合に得られた画像の所定の位置における画素の画素値の波形を示す図である。   FIG. 22 is a diagram illustrating a waveform of a pixel value of a pixel at a predetermined position of an image obtained when the noise removal process of Patent Document 1 to which the present invention is applied is performed.

即ち、図22上側には、本発明を適用した特許文献1のノイズ除去処理を行った場合に得られた画像が示されており、その画像には、10.666×8画素のブロックの境界と直交する左右方向に伸びた矢印が示されている。   That is, on the upper side of FIG. 22, an image obtained when the noise removal processing of Patent Document 1 to which the present invention is applied is shown. The image includes a 10.666 × 8 pixel block boundary. An arrow extending in the left-right direction perpendicular to the arrow is shown.

また、図22下側には、図22上側に示された矢印の位置を示す横軸と、その矢印の位置に対応する画素の画素値を示す縦軸とで表されたグラフが示されている。
さらに、図22下側に示されたグラフに示される記号Yの近傍は、10.666×8画素のブロックの境界の近傍を示している。
Further, on the lower side of FIG. 22, a graph represented by a horizontal axis indicating the position of the arrow shown on the upper side of FIG. 22 and a vertical axis indicating the pixel value of the pixel corresponding to the position of the arrow is shown. Yes.
Further, the vicinity of the symbol Y shown in the graph shown in the lower part of FIG. 22 indicates the vicinity of the boundary of the block of 10.666 × 8 pixels.

図23は、図20下側に示されたグラフと、図22下側に示されたグラフとを重ね合わせた図である。   FIG. 23 is a diagram in which the graph shown on the lower side of FIG. 20 and the graph shown on the lower side of FIG. 22 are superimposed.

図23には、グラフoldとして、図20下側に示されたグラフ(特許文献1のノイズ除去処理を行った場合に得られる画像から得られたグラフ)が、グラフnewとして、図22下側に示されたグラフ(本発明を適用した特許文献1のノイズ除去処理を行った場合に得られる画像から得られたグラフ)が示されている。   In FIG. 23, the graph shown in the lower part of FIG. 20 as the graph old (the graph obtained from the image obtained when the noise removal processing of Patent Document 1 is performed) is shown in the lower part of FIG. (A graph obtained from an image obtained when the noise removal processing of Patent Document 1 to which the present invention is applied) is performed.

図23に示される記号Yの近傍では、グラフoldが上下に振れた曲線を描いているのに対して、グラフnewは滑らかな曲線を描いている。このことから、本発明を適用した特許文献1のノイズ除去を行った場合のほうが、10.666×8画素のブロックによるブロック歪を低減することができることがわかる。   In the vicinity of the symbol Y shown in FIG. 23, the graph “old” draws a vertically curved curve, whereas the graph “new” draws a smooth curve. From this, it can be seen that the block distortion due to the block of 10.666 × 8 pixels can be reduced when the noise removal of Patent Document 1 to which the present invention is applied is performed.

図24は、出力画像データに対して、特許文献1のノイズ除去処理を行った場合のSNR(signal to noise ratio)と、本発明を適用した特許文献1のノイズ除去処理をおこなった場合のSNRとを比較した図である。   FIG. 24 shows the SNR (signal to noise ratio) when the noise removal process of Patent Document 1 is performed on the output image data, and the SNR when the noise removal process of Patent Document 1 to which the present invention is applied. FIG.

図24に示される表の左側から1番目の欄(列)は、ノイズ除去処理の対象である、ビットレートが12Mbps(megabit per second)の出力画像データが示された欄である。   The first column (column) from the left side of the table shown in FIG. 24 is a column in which output image data having a bit rate of 12 Mbps (megabit per second), which is a target of noise removal processing, is shown.

また、図24に示される表の左側から2番目の欄は、1番目の欄に示された出力画像データに対して、特許文献1のノイズ除去処理を行った場合のSNRが示された欄である。さらに、図24に示される表の左側から3番目の欄は、1番目の欄に示された出力画像データに対して、本発明を適用した特許文献1のノイズ除去処理を行った場合のSNRが示された欄である。   Also, the second column from the left side of the table shown in FIG. 24 is a column that shows the SNR when the noise removal processing of Patent Document 1 is performed on the output image data shown in the first column. It is. Further, the third column from the left side of the table shown in FIG. 24 shows the SNR when the noise removal processing of Patent Document 1 to which the present invention is applied is performed on the output image data shown in the first column. Is a column in which is shown.

図24に示される表を参照すると、いずれの場合も、本発明を適用した特許文献1のノイズ除去処理のSNRが良いことがわかる。   Referring to the table shown in FIG. 24, it can be seen that in any case, the SNR of the noise removal process of Patent Document 1 to which the present invention is applied is good.

図25は、出力画像データに対して、特許文献1のノイズ除去処理を行った場合のSNRと、本発明を適用した特許文献1のノイズ除去処理をおこなった場合のSNRとを比較した他の図である。   FIG. 25 shows another example in which the SNR when the noise removal process of Patent Document 1 is performed on the output image data and the SNR when the noise removal process of Patent Document 1 to which the present invention is applied are compared. FIG.

図25に示される表の左側から1番目の欄(列)は、ノイズ除去処理の対象である、ビットレートが15Mbpsの出力画像データが示された欄である。   The first column (column) from the left side of the table shown in FIG. 25 is a column in which output image data with a bit rate of 15 Mbps, which is a target of noise removal processing, is shown.

また、図25に示される表の左側から2番目の欄は、1番目の欄に示された出力画像データに対して、特許文献1のノイズ除去処理を行った場合のSNRが示された欄である。さらに、図25に示される表の左側から3番目の欄は、1番目の欄に示された出力画像データに対して、本発明を適用した特許文献1のノイズ除去処理を行った場合のSNRが示された欄である。   Also, the second column from the left side of the table shown in FIG. 25 is a column that shows the SNR when the noise removal processing of Patent Document 1 is performed on the output image data shown in the first column. It is. Further, the third column from the left side of the table shown in FIG. 25 shows the SNR when the noise removal processing of Patent Document 1 to which the present invention is applied is performed on the output image data shown in the first column. Is a column in which is shown.

図25に示される表を参照すると、図24の場合と同様に、いずれの場合も、本発明を適用した特許文献1のノイズ除去処理のSNRが良いことがわかる。   Referring to the table shown in FIG. 25, it can be seen that the SNR of the noise removal process of Patent Document 1 to which the present invention is applied is good in any case as in the case of FIG.

次に、上述した図2および図10の画像変換部61、図8および図15の学習装置201、および図17の画像処理装置371が行う一連の処理は、専用のハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、いわゆる組み込み型のコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、プログラム格納媒体からインストールされる。   Next, the series of processing performed by the image conversion unit 61 in FIGS. 2 and 10 described above, the learning device 201 in FIGS. 8 and 15, and the image processing device 371 in FIG. 17 may be executed by dedicated hardware. It can be executed by software. When a series of processing is executed by software, a program constituting the software can execute various functions by installing a so-called embedded computer or various programs. For example, it is installed from a program storage medium in a general-purpose computer or the like.

図26は、上述した一連の処理をプログラムにより実行するコンピュータの構成例を示すブロック図である。   FIG. 26 is a block diagram illustrating a configuration example of a computer that executes the above-described series of processing by a program.

CPU(Central Processing Unit)701は、ROM(Read Only Memory)702、または記憶部708に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)703には、CPU701が実行するプログラムやデータなどが適宜記憶される。これらのCPU701、ROM702、およびRAM703は、バス704により相互に接続されている。   A CPU (Central Processing Unit) 701 executes various processes according to a program stored in a ROM (Read Only Memory) 702 or a storage unit 708. A RAM (Random Access Memory) 703 appropriately stores programs executed by the CPU 701, data, and the like. These CPU 701, ROM 702, and RAM 703 are connected to each other by a bus 704.

CPU701にはまた、バス704を介して入出力インタフェース705が接続されている。入出力インタフェース705には、キーボード、マウス、マイクロホンなどよりなる入力部706、ディスプレイ、スピーカなどよりなる出力部707が接続されている。CPU701は、入力部706から入力される指令に対応して各種の処理を実行する。そして、CPU701は、処理の結果を出力部707に出力する。   An input / output interface 705 is also connected to the CPU 701 via a bus 704. Connected to the input / output interface 705 are an input unit 706 composed of a keyboard, mouse, microphone, and the like, and an output unit 707 composed of a display, a speaker, and the like. The CPU 701 executes various processes in response to commands input from the input unit 706. Then, the CPU 701 outputs the processing result to the output unit 707.

入出力インタフェース705に接続されている記憶部708は、例えばハードディスクからなり、CPU701が実行するプログラムや各種のデータを記憶する。通信部709は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   A storage unit 708 connected to the input / output interface 705 includes, for example, a hard disk, and stores programs executed by the CPU 701 and various data. A communication unit 709 communicates with an external device via a network such as the Internet or a local area network.

また、通信部709を介してプログラムを取得し、記憶部708に記憶してもよい。   A program may be acquired via the communication unit 709 and stored in the storage unit 708.

入出力インタフェース705に接続されているドライブ710は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア711が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部708に転送され、記憶される。   A drive 710 connected to the input / output interface 705 drives a removable medium 711 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the program or data recorded therein. Get etc. The acquired program and data are transferred to and stored in the storage unit 708 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム格納媒体は、図26に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア711、または、プログラムが一時的もしくは永続的に格納されるROM702や、記憶部708を構成するハードディスクなどにより構成される。プログラム格納媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部709を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 26, a program storage medium that stores a program that is installed in a computer and can be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (Digital Versatile Disc, etc.), magneto-optical disc (including MD (Mini-Disc)), or removable media 711, which is a package media composed of semiconductor memory, or the program is temporarily or permanently It is configured by a ROM 702 to be stored, a hard disk constituting the storage unit 708, or the like. The program is stored in the program storage medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 709 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム格納媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program storage medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series. Or the process performed separately is also included.

また、本実施の形態において、画像変換処理を行うものとして、図2の画像変換部61や、図10の画像変換部61、図17の画像処理装置371を説明したが、かかる画像変換処理を行う装置の具体例として、例えば、テレビジョン受像機や、ハードディスクレコーダ、DVDレコーダなどを採用することができる。   In the present embodiment, the image conversion unit 61 in FIG. 2, the image conversion unit 61 in FIG. 10, and the image processing apparatus 371 in FIG. 17 have been described as performing the image conversion process. As a specific example of the apparatus to be performed, for example, a television receiver, a hard disk recorder, a DVD recorder, or the like can be employed.

なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The present embodiment is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

地上デジタル放送において行われる処理を説明するブロック図である。It is a block diagram explaining the process performed in terrestrial digital broadcasting. 本発明を適用した画像変換部の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the image conversion part to which this invention is applied. 図2のブロック抽出部121が、抽出対象ブロックを抽出する順番を示す図である。It is a figure which shows the order which the block extraction part 121 of FIG. 2 extracts an extraction object block. 図2のブロック抽出部121が、図3に示される抽出対象ブロックを、処理対象ブロックに区分する方法を示す図である。FIG. 4 is a diagram illustrating a method in which the block extraction unit 121 in FIG. 2 divides the extraction target block shown in FIG. 3 into processing target blocks. 図2の閾値算出部122が、処理ブロックから閾値を算出する処理を説明する図であるIt is a figure explaining the process which the threshold value calculation part 122 of FIG. 2 calculates a threshold value from a process block. 図2のクラス分類部125により行われるクラス分類を説明する図である。It is a figure explaining the class classification performed by the class classification part 125 of FIG. 図2の画像変換部61における画像変換処理を説明するフローチャートである。It is a flowchart explaining the image conversion process in the image conversion part 61 of FIG. 図2の画像変換部61で用いられるタップ係数を求める学習処理を行う学習装置201の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning apparatus 201 which performs the learning process which calculates | requires the tap coefficient used by the image conversion part 61 of FIG. 図8の学習装置201における学習処理を説明するフローチャートである。It is a flowchart explaining the learning process in the learning apparatus 201 of FIG. 本発明を適用した画像変換部の一実施の形態の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of one Embodiment of the image conversion part to which this invention is applied. 8×8画素のブロックを処理ブロックとして、画素位置モード、および領域情報に対応した所定の予測演算を説明する図であるIt is a figure explaining predetermined prediction calculation corresponding to pixel position mode and area information, using an 8 × 8 pixel block as a processing block. 10×8画素の処理ブロックの画素に、画素位置モードを割り当てた一例を示す図である。It is a figure which shows an example which allocated pixel position mode to the pixel of the processing block of 10x8 pixel. 11×8画素の処理ブロックの画素に、画素位置モードを割り当てた一例を示す図である。It is a figure which shows an example which allocated pixel position mode to the pixel of the processing block of 11x8 pixel. 図10の画像変換部61における画像変換処理を説明するフローチャートである。It is a flowchart explaining the image conversion process in the image conversion part 61 of FIG. 図10の画像変換部61で用いられるタップ係数を求める学習処理を行う学習装置201の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning apparatus 201 which performs the learning process which calculates | requires the tap coefficient used in the image conversion part 61 of FIG. 図15の学習装置201における学習処理を説明するフローチャートである。It is a flowchart explaining the learning process in the learning apparatus 201 of FIG. 図2の画像変換部61における画像変換処理と、上述した特許文献1や2などにおける画像変換処理とを選択的に用いることができる画像処理装置371を示すブロック図である。FIG. 3 is a block diagram showing an image processing device 371 that can selectively use the image conversion processing in the image conversion unit 61 of FIG. 2 and the image conversion processing in Patent Documents 1 and 2 described above. 図18の画像処理装置371における画像変換処理を説明するフローチャートである。19 is a flowchart for describing image conversion processing in the image processing apparatus 371 in FIG. 18. ブロックサイズが10.666×8画素の出力画像データに対して、特許文献1のノイズ除去処理を行った場合に得られた画像を示す図である。It is a figure which shows the image obtained when the noise removal process of patent document 1 is performed with respect to the output image data whose block size is 10.666x8 pixel. 特許文献1のノイズ除去処理を行った場合に得られた画像の所定の位置における画素の画素値の波形を示す図である。It is a figure which shows the waveform of the pixel value of the pixel in the predetermined position of the image obtained when the noise removal process of patent document 1 was performed. ブロックサイズが10.666×8画素の出力画像データに対して、本発明を適用した特許文献1のノイズ除去処理を行った場合に得られた画像を示す図である。It is a figure which shows the image obtained when the noise removal process of patent document 1 to which this invention is applied with respect to output image data whose block size is 10.666x8 pixel. 本発明を適用した特許文献1のノイズ除去処理を行った場合に得られた画像の所定の位置における画素の画素値の波形を示す図である。It is a figure which shows the waveform of the pixel value of the pixel in the predetermined position of the image obtained when performing the noise removal process of patent document 1 to which this invention is applied. 図23は、図20下側に示されたグラフと、図22下側に示されたグラフとを重ね合わせた図である。FIG. 23 is a diagram in which the graph shown on the lower side of FIG. 20 and the graph shown on the lower side of FIG. 22 are superimposed. 出力画像データに対して、特許文献1のノイズ除去処理を行った場合のSNRと、本発明を適用した特許文献1のノイズ除去処理をおこなった場合のSNRとを比較した図である。It is the figure which compared SNR at the time of performing the noise removal process of patent document 1 with respect to output image data, and SNR at the time of performing the noise removal process of patent document 1 to which this invention is applied. 図25は、出力画像データに対して、特許文献1のノイズ除去処理を行った場合のSNRと、本発明を適用した特許文献1のノイズ除去処理をおこなった場合のSNRとを比較した他の図である。FIG. 25 shows another example in which the SNR when the noise removal process of Patent Document 1 is performed on the output image data and the SNR when the noise removal process of Patent Document 1 to which the present invention is applied are compared. FIG. コンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of a computer.

符号の説明Explanation of symbols

61 画像変換部, 121 ブロック抽出部, 122 閾値算出部, 123 予測タップ抽出部, 124 クラスタップ抽出部, 125 クラス分類部, 126 係数記憶部, 127 予測演算部, 201 学習装置, 231 学習用画像記憶部, 232 ノイズ付加部, 233 ブロック抽出部, 234 閾値算出部, 235 予測タップ抽出部, 236 クラスタップ抽出部, 237 クラス分類部, 238 足し込み部, 239 係数算出部, 240 制御部, 275 画素位置モード判定部, 276 係数記憶部, 277 領域判定部, 278 予測演算部, 279 制御部, 339 画素位置モード判定部, 340 足し込み部, 341 係数算出部, 342 制御部, 371 画像処理装置, 401 ブロックサイズ検出部, 402 ブロックサイズ判定部, 403 画像変換部   61 image conversion unit, 121 block extraction unit, 122 threshold calculation unit, 123 prediction tap extraction unit, 124 class tap extraction unit, 125 class classification unit, 126 coefficient storage unit, 127 prediction calculation unit, 201 learning device, 231 learning image Storage unit, 232 noise addition unit, 233 block extraction unit, 234 threshold calculation unit, 235 prediction tap extraction unit, 236 class tap extraction unit, 237 class classification unit, 238 addition unit, 239 coefficient calculation unit, 240 control unit, 275 Pixel position mode determination unit, 276 coefficient storage unit, 277 region determination unit, 278 prediction calculation unit, 279 control unit, 339 pixel position mode determination unit, 340 addition unit, 341 coefficient calculation unit, 342 control unit, 371 image processing apparatus 401 block Size detection unit, 402 block size determination unit, 403 image conversion unit

Claims (26)

原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、
前記符号化データを復号することによって得られる画像データを、その画素数を前記所定数の逆数倍にすることにより、前記原画像データの画素数と同一の画素数の出力画像データに変換する
デコーダが出力する前記出力画像データを処理する画像処理装置において、
前記出力画像データの注目している画素である注目画素に対応する、前記出力画像データよりも高画質の高画質画像データの画素を予測するために用いる複数の画素を、前記出力画像データから予測タップとして抽出する予測タップ抽出手段と、
前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記出力画像データからクラスタップとして抽出するクラスタップ抽出手段と、
前記クラスタップ抽出手段により抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段と、
前記出力画像データに相当する生徒画像データと所定の係数とを用いた予測演算により求められる、前記高画質画像データに相当する教師画像データを予測した予測値と、前記教師画像データとの誤差を最小にする学習により求められた、前記複数のクラスそれぞれに対応する前記係数の中から、前記注目画素のクラスに対応する係数を出力する係数出力手段と、
前記係数出力手段により出力された前記係数と、前記予測タップ抽出手段により抽出された前記予測タップとを用いた前記予測演算により、前記注目画素に対応する、前記高画質画像データの画素を求める予測演算手段と
を有し、前記出力画像データを前記高画質画像データに変換する画像変換処理を行う画像変換手段と、
前記所定数倍に基づいて決定されるブロックサイズの、前記出力画像データの処理ブロックごとに、前記画像変換処理が行われるように、前記画像変換手段を制御する制御手段と
を備える画像処理装置。
The encoded data obtained by encoding the converted image data obtained by converting the number of pixels of the original image data by a predetermined number of times for each predetermined block is decoded for each predetermined block,
Image data obtained by decoding the encoded data is converted to output image data having the same number of pixels as the number of pixels of the original image data by multiplying the number of pixels by a reciprocal of the predetermined number. In an image processing apparatus that processes the output image data output by a decoder,
A plurality of pixels used for predicting pixels of high-quality image data with higher image quality than the output image data corresponding to the target pixel that is a pixel of interest of the output image data are predicted from the output image data A predictive tap extracting means for extracting as a tap;
Class tap extracting means for extracting, as class taps, a plurality of pixels used for class classification that classifies the target pixel into any one of a plurality of classes;
Class classification means for classifying the pixel of interest based on the class tap extracted by the class tap extraction means;
An error between the predicted value obtained by predicting the teacher image data corresponding to the high-quality image data and the teacher image data obtained by a prediction calculation using the student image data corresponding to the output image data and a predetermined coefficient. Coefficient output means for outputting a coefficient corresponding to the class of the target pixel from among the coefficients corresponding to each of the plurality of classes obtained by learning to minimize,
Prediction for obtaining a pixel of the high-quality image data corresponding to the pixel of interest by the prediction calculation using the coefficient output by the coefficient output unit and the prediction tap extracted by the prediction tap extraction unit Image conversion means for performing image conversion processing for converting the output image data into the high-quality image data;
An image processing apparatus comprising: a control unit that controls the image conversion unit so that the image conversion process is performed for each processing block of the output image data having a block size determined based on the predetermined multiple.
前記所定のブロックのブロックサイズを、前記所定数の逆数倍にした逆数倍ブロックの境界上の画素である境界上画素が、前記出力画像データに含まれるか否かを判定する画素判定手段をさらに備え、
前記画像変換手段は、前記画素判定手段により、前記出力画像データに、前記境界上画素が含まれると判定された場合、前記出力画像データを前記高画質画像データに変換する
請求項1に記載の画像処理装置。
Pixel determination means for determining whether or not a pixel on the boundary, which is a pixel on the boundary of the reciprocal block obtained by reversing the block size of the predetermined block, is included in the output image data Further comprising
The said image conversion means converts the said output image data into the said high quality image data, when it determines with the said pixel on a boundary being contained in the said output image data by the said pixel determination means. Image processing device.
前記予測タップ抽出手段は、前記予測タップを、前記注目画素を含む前記処理ブロックから抽出する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the prediction tap extraction unit extracts the prediction tap from the processing block including the target pixel.
前記クラスタップ抽出手段は、前記クラスタップを、前記注目画素を含む前記処理ブロックから抽出する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the class tap extraction unit extracts the class tap from the processing block including the target pixel.
前記注目画素の前記クラス分類に用いる閾値を、前記出力画像データの画素を用いて算出する閾値算出手段をさらに備え、
前記クラス分類手段は、前記クラスタップ抽出手段により抽出された前記クラスタップと、前記閾値算出手段により算出された前記閾値とに基づいて、前記注目画素をクラス分類する
請求項1に記載の画像処理装置。
A threshold value calculating means for calculating a threshold value used for the class classification of the target pixel by using a pixel of the output image data;
The image processing according to claim 1, wherein the class classification unit classifies the target pixel based on the class tap extracted by the class tap extraction unit and the threshold calculated by the threshold calculation unit. apparatus.
前記閾値算出手段は、前記閾値を、前記注目画素を含む前記処理ブロックの画素を用いて算出する
請求項5に記載の画像処理装置。
The image processing apparatus according to claim 5, wherein the threshold calculation unit calculates the threshold using a pixel of the processing block including the target pixel.
前記所定のブロックのブロックサイズを、前記所定数の逆数倍にした逆数倍ブロックの境界上の、前記出力画像データの画素である境界上画素が、前記処理ブロックに含まれるか否かを判定する境界上画素判定手段をさらに備え、
前記閾値算出手段は、前記境界上画素判定手段により、前記処理ブロックに、前記境界上画素が含まれると判定された場合、前記閾値を、前記処理ブロックの画素から前記境界上画素を除外した画素を用いて算出する
請求項6に記載の画像処理装置。
It is determined whether or not a pixel on the boundary, which is a pixel of the output image data, on the boundary of the reciprocal multiple block obtained by making the block size of the predetermined block the reciprocal multiple of the predetermined number is included in the processing block. It further comprises a pixel determination unit on the boundary for determining,
The threshold calculation means, when the boundary pixel determination means determines that the boundary pixel is included in the processing block, the threshold value is a pixel obtained by excluding the boundary pixel from the pixel of the processing block. The image processing apparatus according to claim 6, wherein calculation is performed using
前記処理ブロックにおける各画素の位置を表す情報を画素位置モードとして、前記注目画素の画素位置モードを判定する画素位置モード判定手段をさらに備え、
前記係数出力手段は、前記注目画素のクラスと画素位置モードに対応する係数を出力する
請求項1に記載の画像処理装置。
Pixel position mode determination means for determining the pixel position mode of the pixel of interest as information indicating the position of each pixel in the processing block as a pixel position mode;
The image processing apparatus according to claim 1, wherein the coefficient output unit outputs a coefficient corresponding to a class of the target pixel and a pixel position mode.
前記処理ブロックの画素において、線対称または点対称の位置関係にある画素に、画素位置モードとして同一の値が割り当てられる
請求項8に記載の画像処理装置。
The image processing apparatus according to claim 8, wherein, in the pixels of the processing block, the same value is assigned as a pixel position mode to pixels that are in a line-symmetrical or point-symmetrical positional relationship.
前記注目画素が、前記処理ブロックを複数の領域に区分したときに、前記複数の領域のうちの、いずれかの領域に位置するかを判定する領域判定手段をさらに備え、
前記予測演算手段は、前記注目画素が位置する領域に対応した前記予測演算により、前記注目画素に対応する、前記高画質画像データの画素を求める
請求項9に記載の画像処理装置。
A region determination unit that determines whether the target pixel is located in any of the plurality of regions when the processing block is divided into a plurality of regions;
The image processing apparatus according to claim 9, wherein the prediction calculation unit obtains a pixel of the high-quality image data corresponding to the target pixel by the prediction calculation corresponding to a region where the target pixel is located.
前記所定のブロックのブロックサイズを、前記所定数の逆数倍にした逆数倍ブロックの境界上の、前記出力画像データの画素である境界上画素が、前記処理ブロックに含まれる場合、前記処理ブロックから、前記境界上画素を除外した画素において、線対称または点対称の位置関係にある画素に、画素位置モードとして同一の値が割り当てられる
請求項9に記載の画像処理装置。
If the processing block includes pixels on the boundary, which are pixels of the output image data, on the boundary of the inverse block obtained by making the block size of the predetermined block an inverse multiple of the predetermined number, the processing block The image processing apparatus according to claim 9, wherein the same value as the pixel position mode is assigned to pixels that are in a line-symmetrical or point-symmetrical positional relationship in the pixels excluding the pixels on the boundary from the block.
前記境界上画素には、画素位置モードとして、前記境界上画素以外の画素と異なる値が割り当てられる
請求項11に記載の画像処理装置。
The image processing device according to claim 11, wherein a value different from pixels other than the pixels on the boundary is assigned to the pixels on the boundary as a pixel position mode.
原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、
前記符号化データを復号することによって得られる画像データを、その画素数を前記所定数の逆数倍にすることにより、前記原画像データの画素数と同一の画素数の出力画像データに変換する
デコーダが出力する前記出力画像データを処理する画像処理方法において、
前記出力画像データの注目している画素である注目画素に対応する、前記出力画像データよりも高画質の高画質画像データの画素を予測するために用いる複数の画素を、前記出力画像データから予測タップとして抽出する予測タップ抽出ステップと、
前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記出力画像データからクラスタップとして抽出するクラスタップ抽出ステップと、
前記クラスタップ抽出ステップにより抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類ステップと、
前記出力画像データに相当する生徒画像データと所定の係数とを用いた予測演算により求められる、前記高画質画像データに相当する教師画像データを予測した予測値と、前記教師画像データとの誤差を最小にする学習により求められた、前記複数のクラスそれぞれに対応する前記係数の中から、前記注目画素のクラスに対応する係数を出力する係数出力ステップと、
前記係数出力ステップにより出力された前記係数と、前記予測タップ抽出ステップにより抽出された前記予測タップとを用いた前記予測演算により、前記注目画素に対応する、前記高画質画像データの画素を求める予測演算ステップと
を有し、前記出力画像データを前記高画質画像データに変換する画像変換処理を行う画像変換ステップと、
前記所定数倍に基づいて決定されるブロックサイズの、前記出力画像データの処理ブロックごとに、前記画像変換処理が行われるように、前記画像変換ステップを制御する制御ステップと
を含む画像処理方法。
The encoded data obtained by encoding the converted image data obtained by converting the number of pixels of the original image data by a predetermined number of times for each predetermined block is decoded for each predetermined block,
Image data obtained by decoding the encoded data is converted to output image data having the same number of pixels as the number of pixels of the original image data by multiplying the number of pixels by a reciprocal of the predetermined number. In an image processing method for processing the output image data output by a decoder,
A plurality of pixels used for predicting pixels of high-quality image data with higher image quality than the output image data corresponding to the target pixel that is a pixel of interest of the output image data are predicted from the output image data A predictive tap extraction step for extracting as taps;
A class tap extracting step of extracting a plurality of pixels used for class classification that classifies the target pixel into any one of a plurality of classes as a class tap from the output image data;
A class classification step for classifying the pixel of interest based on the class tap extracted by the class tap extraction step;
An error between the predicted value obtained by predicting the teacher image data corresponding to the high-quality image data and the teacher image data obtained by a prediction calculation using the student image data corresponding to the output image data and a predetermined coefficient. A coefficient output step of outputting a coefficient corresponding to the class of the target pixel from the coefficients corresponding to each of the plurality of classes obtained by learning to minimize;
Prediction for obtaining a pixel of the high-quality image data corresponding to the target pixel by the prediction calculation using the coefficient output by the coefficient output step and the prediction tap extracted by the prediction tap extraction step An image conversion step for performing an image conversion process for converting the output image data into the high-quality image data,
And a control step of controlling the image conversion step so that the image conversion processing is performed for each processing block of the output image data having a block size determined based on the predetermined number of times.
原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、
前記符号化データを復号することによって得られる画像データを、その画素数を前記所定数の逆数倍にすることにより、前記原画像データの画素数と同一の画素数の出力画像データに変換する
デコーダが出力する前記出力画像データを処理する画像処理をコンピュータに実行させるプログラムにおいて、
前記出力画像データの注目している画素である注目画素に対応する、前記出力画像データよりも高画質の高画質画像データの画素を予測するために用いる複数の画素を、前記出力画像データから予測タップとして抽出する予測タップ抽出ステップと、
前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記出力画像データからクラスタップとして抽出するクラスタップ抽出ステップと、
前記クラスタップ抽出ステップにより抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類ステップと、
前記出力画像データに相当する生徒画像データと所定の係数とを用いた予測演算により求められる、前記高画質画像データに相当する教師画像データを予測した予測値と、前記教師画像データとの誤差を最小にする学習により求められた、前記複数のクラスそれぞれに対応する前記係数の中から、前記注目画素のクラスに対応する係数を出力する係数出力ステップと、
前記係数出力ステップにより出力された前記係数と、前記予測タップ抽出ステップにより抽出された前記予測タップとを用いた前記予測演算により、前記注目画素に対応する、前記高画質画像データの画素を求める予測演算ステップと
を有し、前記出力画像データを前記高画質画像データに変換する画像変換処理を行う画像変換ステップと、
前記所定数倍に基づいて決定されるブロックサイズの、前記出力画像データの処理ブロックごとに、前記画像変換処理が行われるように、前記画像変換ステップを制御する制御ステップと
を含む画像処理をコンピュータに実行させるプログラム。
The encoded data obtained by encoding the converted image data obtained by converting the number of pixels of the original image data by a predetermined number of times for each predetermined block is decoded for each predetermined block,
Image data obtained by decoding the encoded data is converted to output image data having the same number of pixels as the number of pixels of the original image data by multiplying the number of pixels by a reciprocal of the predetermined number. In a program for causing a computer to execute image processing for processing the output image data output by a decoder,
A plurality of pixels used for predicting pixels of high-quality image data with higher image quality than the output image data corresponding to the target pixel that is a pixel of interest of the output image data are predicted from the output image data A predictive tap extraction step for extracting as taps;
A class tap extracting step of extracting a plurality of pixels used for class classification that classifies the target pixel into any one of a plurality of classes as a class tap from the output image data;
A class classification step for classifying the pixel of interest based on the class tap extracted by the class tap extraction step;
An error between the predicted value obtained by predicting the teacher image data corresponding to the high-quality image data and the teacher image data obtained by a prediction calculation using the student image data corresponding to the output image data and a predetermined coefficient. A coefficient output step of outputting a coefficient corresponding to the class of the target pixel from the coefficients corresponding to each of the plurality of classes obtained by learning to minimize;
Prediction for obtaining a pixel of the high-quality image data corresponding to the target pixel by the prediction calculation using the coefficient output by the coefficient output step and the prediction tap extracted by the prediction tap extraction step An image conversion step for performing an image conversion process for converting the output image data into the high-quality image data,
Control processing for controlling the image conversion step so that the image conversion processing is performed for each processing block of the output image data having a block size determined based on the predetermined number of times. A program to be executed.
原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、
前記符号化データを復号することによって得られる画像データの画素数を前記所定数の逆数倍にすることにより得られた、前記原画像データの画素数と同一の画素数の出力画像データを、その出力画像データよりも高画質の高画質画像データに変換する予測演算に用いられる係数を、前記出力画像データに相当する画像である生徒画像データを用いた前記予測演算の結果と、前記高画質画像データに相当する画像である教師画像データとの誤差を最小にする学習により求める学習装置において、
前記生徒画像データの注目している画素である注目画素を、その注目画素に対応する、前記教師画像データの画素に変換する前記予測演算に用いる複数の画素を、前記生徒画像データから予測タップとして抽出する予測タップ抽出手段と、
前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記生徒画像データからクラスタップとして抽出するクラスタップ抽出手段と、
前記クラスタップ抽出手段により抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段と、
前記クラス分類手段によりクラス分けされた前記注目画素のクラスごとに、前記予測タップを用いた前記予測演算の結果と、前記注目画素に対応する、前記教師画像データの画素との誤差を最小にする前記係数を演算する係数演算手段と
を有し、前記クラスごとの前記係数を求める学習処理を行う学習手段と、
前記所定数倍に基づいて決定されるブロックサイズの、前記生徒画像データの処理ブロックごとに、前記学習処理が行われるように、前記学習手段を制御する制御手段と
を備える学習装置。
The encoded data obtained by encoding the converted image data obtained by converting the number of pixels of the original image data by a predetermined number of times for each predetermined block is decoded for each predetermined block,
Output image data having the same number of pixels as the number of pixels of the original image data, obtained by multiplying the number of pixels of the image data obtained by decoding the encoded data by a reciprocal of the predetermined number, The coefficient used for the prediction calculation for converting the high-quality image data with higher image quality than the output image data, the result of the prediction calculation using the student image data that is the image corresponding to the output image data, and the image quality In a learning device that is obtained by learning that minimizes an error from teacher image data, which is an image corresponding to image data,
A plurality of pixels used in the prediction calculation for converting a target pixel that is a target pixel of the student image data into a pixel of the teacher image data corresponding to the target pixel is used as a prediction tap from the student image data. A prediction tap extracting means for extracting;
Class tap extracting means for extracting, as class taps, a plurality of pixels used in class classification for classifying the target pixel into any one of a plurality of classes;
Class classification means for classifying the pixel of interest based on the class tap extracted by the class tap extraction means;
For each class of the target pixel classified by the class classification unit, an error between the prediction calculation result using the prediction tap and the pixel of the teacher image data corresponding to the target pixel is minimized. A learning means for performing a learning process for obtaining the coefficient for each class;
A learning apparatus comprising: a control unit that controls the learning unit such that the learning process is performed for each processing block of the student image data having a block size determined based on the predetermined number of times.
前記予測タップ抽出手段は、前記予測タップを、前記注目画素を含む前記処理ブロックから抽出する
請求項15に記載の学習装置。
The learning device according to claim 15, wherein the prediction tap extraction unit extracts the prediction tap from the processing block including the target pixel.
前記クラスタップ抽出手段は、前記クラスタップを、前記注目画素を含む前記処理ブロックから抽出する
請求項15に記載の学習装置。
The learning device according to claim 15, wherein the class tap extraction unit extracts the class tap from the processing block including the target pixel.
前記注目画素の前記クラス分類に用いる閾値を、前記生徒画像データの画素を用いて算出する閾値算出手段をさらに備え、
前記クラス分類手段は、前記クラスタップ抽出手段により抽出された前記クラスタップと、前記閾値算出手段により算出された前記閾値とに基づいて、前記注目画素をクラス分類する
請求項15に記載の学習装置。
A threshold value calculation means for calculating a threshold value used for the class classification of the target pixel by using a pixel of the student image data;
The learning device according to claim 15, wherein the class classification unit classifies the pixel of interest based on the class tap extracted by the class tap extraction unit and the threshold calculated by the threshold calculation unit. .
前記閾値算出手段は、前記閾値を、前記注目画素を含む前記処理ブロックの画素を用いて算出する
請求項18に記載の学習装置。
The learning device according to claim 18, wherein the threshold value calculation unit calculates the threshold value using a pixel of the processing block including the target pixel.
前記所定のブロックのブロックサイズを、前記所定数の逆数倍にした逆数倍ブロックの境界上の、前記生徒画像データの画素である境界上画素が、前記処理ブロックに含まれるか否かを判定する境界上画素判定手段をさらに備え、
前記閾値算出手段は、前記境界上画素判定手段により、前記処理ブロックに、前記画素上画素が含まれると判定された場合、前記閾値を、前記処理ブロックの画素から前記境界上画素を除外した画素を用いて算出する
請求項19に記載の学習装置。
It is determined whether or not a pixel on the boundary, which is a pixel of the student image data, is included in the processing block on a boundary of an inverse multiple block obtained by making the block size of the predetermined block an inverse multiple of the predetermined number. It further comprises a pixel determination unit on the boundary for determining,
The threshold calculation means, when the boundary pixel determination means determines that the pixel on the pixel is included in the processing block, the pixel obtained by excluding the pixel on the boundary from the pixel of the processing block The learning device according to claim 19, wherein the learning device is calculated using
前記処理ブロックにおける各画素の位置を表す情報を画素位置モードとして、前記注目画素の画素位置モードを判定する画素位置モード判定手段をさらに備え、
前記係数演算手段は、前記注目画素のクラスと画素位置モードごとに、前記予測タップを用いた前記予測演算の結果と、前記教師画像データの画素との誤差を最小にする前記係数を演算する
請求項15に記載の学習装置。
Pixel position mode determination means for determining the pixel position mode of the pixel of interest as information indicating the position of each pixel in the processing block as a pixel position mode;
The coefficient calculation means calculates the coefficient that minimizes an error between a result of the prediction calculation using the prediction tap and a pixel of the teacher image data for each class of pixel of interest and pixel position mode. Item 16. The learning device according to Item 15.
前記処理ブロックの画素において、線対称または点対称の位置関係にある画素に、画素位置モードとして同一の値が割り当てられる
請求項21に記載の学習装置。
The learning device according to claim 21, wherein, in the pixels of the processing block, the same value is assigned as the pixel position mode to pixels that are in a line symmetric or point symmetric positional relationship.
前記所定のブロックのブロックサイズを、前記所定数の逆数倍にした逆数倍ブロックの境界上の、前記生徒画像データの画素である境界上画素が、前記処理ブロックに含まれる場合、前記処理ブロックから、前記境界上画素を除外した画素において、線対称または点対称の位置関係にある画素に、画素位置モードとして同一の値が割り当てられる
請求項22に記載の学習装置。
When the processing block includes pixels on the boundary, which are pixels of the student image data, on the boundary of the reciprocal multiple block obtained by making the block size of the predetermined block the reciprocal multiple of the predetermined number, the processing The learning device according to claim 22, wherein in the pixel excluding the pixel on the boundary from the block, the same value as the pixel position mode is assigned to a pixel having a line-symmetrical or point-symmetrical positional relationship.
前記境界上画素には、画素位置モードとして、前記境界上画素以外の画素と異なる値が割り当てられる
請求項23に記載の学習装置。
The learning device according to claim 23, wherein a value different from pixels other than the pixel on the boundary is assigned to the pixel on the boundary as a pixel position mode.
原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、
前記符号化データを復号することによって得られる画像データの画素数を前記所定数の逆数倍にすることにより得られた、前記原画像データの画素数と同一の画素数の出力画像データを、その出力画像データよりも高画質の高画質画像データに変換する予測演算に用いられる係数を、前記出力画像データに相当する画像である生徒画像データを用いた前記予測演算の結果と、前記高画質画像データに相当する画像である教師画像データとの誤差を最小にする学習により求める学習方法において、
前記生徒画像データの注目している画素である注目画素を、その注目画素に対応する、前記教師画像データの画素に変換する前記予測演算に用いる複数の画素を、前記生徒画像データから予測タップとして抽出する予測タップ抽出ステップと、
前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記生徒画像データからクラスタップとして抽出するクラスタップ抽出ステップと、
前記クラスタップ抽出ステップにより抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類ステップと、
前記クラス分類ステップによりクラス分けされた前記注目画素のクラスごとに、前記予測タップを用いた前記予測演算の結果と、前記注目画素に対応する、前記教師画像データの画素との誤差を最小にする前記係数を演算する係数演算ステップと
を有し、前記クラスごとの前記係数を求める学習処理を行う学習ステップと、
前記所定数倍に基づいて決定されるブロックサイズの、前記生徒画像データの処理ブロックごとに、前記学習処理が行われるように、前記学習ステップを制御する制御ステップと
を含む学習方法。
The encoded data obtained by encoding the converted image data obtained by converting the number of pixels of the original image data by a predetermined number of times for each predetermined block is decoded for each predetermined block,
Output image data having the same number of pixels as the number of pixels of the original image data, obtained by multiplying the number of pixels of the image data obtained by decoding the encoded data by a reciprocal of the predetermined number, The coefficient used for the prediction calculation for converting the high-quality image data with higher image quality than the output image data, the result of the prediction calculation using the student image data that is the image corresponding to the output image data, and the image quality In a learning method for obtaining by learning to minimize an error with teacher image data that is an image corresponding to image data,
A plurality of pixels used in the prediction calculation for converting a target pixel that is a target pixel of the student image data into a pixel of the teacher image data corresponding to the target pixel is used as a prediction tap from the student image data. A prediction tap extraction step to extract;
A class tap extracting step of extracting a plurality of pixels used for class classification to classify the pixel of interest into any one of a plurality of classes as a class tap from the student image data;
A class classification step for classifying the pixel of interest based on the class tap extracted by the class tap extraction step;
For each class of the target pixel classified by the class classification step, an error between the prediction calculation result using the prediction tap and the pixel of the teacher image data corresponding to the target pixel is minimized. A coefficient calculating step for calculating the coefficient, and a learning step for performing a learning process for obtaining the coefficient for each class;
And a control step of controlling the learning step so that the learning process is performed for each processing block of the student image data having a block size determined based on the predetermined number of times.
原画像データの画素数を所定数倍に変換した変換後画像データを所定のブロックごとに符号化して得られる符号化データを、前記所定のブロックごとに復号し、
前記符号化データを復号することによって得られる画像データの画素数を前記所定数の逆数倍にすることにより得られた、前記原画像データの画素数と同一の画素数の出力画像データを、その出力画像データよりも高画質の高画質画像データに変換する予測演算に用いられる係数を、前記出力画像データに相当する画像である生徒画像データを用いた前記予測演算の結果と、前記高画質画像データに相当する画像である教師画像データとの誤差を最小にする学習により求める処理をコンピュータに実行させるプログラムにおいて、
前記生徒画像データの注目している画素である注目画素を、その注目画素に対応する、前記教師画像データの画素に変換する前記予測演算に用いる複数の画素を、前記生徒画像データから予測タップとして抽出する予測タップ抽出ステップと、
前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記生徒画像データからクラスタップとして抽出するクラスタップ抽出ステップと、
前記クラスタップ抽出ステップにより抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類ステップと、
前記クラス分類ステップによりクラス分けされた前記注目画素のクラスごとに、前記予測タップを用いた前記予測演算の結果と、前記注目画素に対応する、前記教師画像データの画素との誤差を最小にする前記係数を演算する係数演算ステップと
を有し、前記クラスごとの前記係数を求める学習処理を行う学習ステップと、
前記所定数倍に基づいて決定されるブロックサイズの、前記生徒画像データの処理ブロックごとに、前記学習処理が行われるように、前記学習ステップを制御する制御ステップと
を含む処理をコンピュータに実行させるプログラム。
The encoded data obtained by encoding the converted image data obtained by converting the number of pixels of the original image data by a predetermined number of times for each predetermined block is decoded for each predetermined block,
Output image data having the same number of pixels as the number of pixels of the original image data, obtained by multiplying the number of pixels of the image data obtained by decoding the encoded data by a reciprocal of the predetermined number, The coefficient used for the prediction calculation for converting the high-quality image data with higher image quality than the output image data, the result of the prediction calculation using the student image data that is the image corresponding to the output image data, and the image quality In a program that causes a computer to execute processing to be obtained by learning that minimizes an error from teacher image data that is an image corresponding to image data,
A plurality of pixels used in the prediction calculation for converting a target pixel that is a target pixel of the student image data into a pixel of the teacher image data corresponding to the target pixel is used as a prediction tap from the student image data. A prediction tap extraction step to extract;
A class tap extracting step of extracting a plurality of pixels used for class classification to classify the pixel of interest into any one of a plurality of classes as a class tap from the student image data;
A class classification step for classifying the pixel of interest based on the class tap extracted by the class tap extraction step;
For each class of the target pixel classified by the class classification step, an error between the prediction calculation result using the prediction tap and the pixel of the teacher image data corresponding to the target pixel is minimized. A coefficient calculating step for calculating the coefficient, and a learning step for performing a learning process for obtaining the coefficient for each class;
Causing a computer to execute a process including a control step of controlling the learning step so that the learning process is performed for each processing block of the student image data having a block size determined based on the predetermined number of times program.
JP2006308681A 2006-11-15 2006-11-15 Image processing apparatus, image processing method, and program Expired - Fee Related JP4770711B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006308681A JP4770711B2 (en) 2006-11-15 2006-11-15 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006308681A JP4770711B2 (en) 2006-11-15 2006-11-15 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2008124955A true JP2008124955A (en) 2008-05-29
JP2008124955A5 JP2008124955A5 (en) 2009-12-17
JP4770711B2 JP4770711B2 (en) 2011-09-14

Family

ID=39509227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006308681A Expired - Fee Related JP4770711B2 (en) 2006-11-15 2006-11-15 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4770711B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017191749A1 (en) 2016-05-02 2017-11-09 ソニー株式会社 Image processing device, and image processing method
WO2017191750A1 (en) 2016-05-02 2017-11-09 ソニー株式会社 Encoding device and encoding method, and decoding device and decoding method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285876A (en) * 2000-03-30 2001-10-12 Sony Corp Image encoding device, its method, video camera, image recording device and image transmitting device
JP2001346201A (en) * 2000-03-27 2001-12-14 Sony Corp Image coder and its method, image decoder and its method, image recorder, image transmitter
JP2003078876A (en) * 2001-08-31 2003-03-14 Sony Corp Method and apparatus for recording video signal
JP2003224847A (en) * 2002-01-29 2003-08-08 Sony Corp Image encoder and method thereof, and image decoder and method thereof
JP2003324738A (en) * 2002-04-30 2003-11-14 Sony Corp Image processing apparatus and method, and program and recording medium
JP2004056461A (en) * 2002-07-19 2004-02-19 Sony Corp Apparatus and method of processing image signal, image processo, and apparatus and method of generating coefficient data used therefor, program executing each method, and computer readable medium recording program
WO2005099276A2 (en) * 2004-04-02 2005-10-20 Thomson Licensing Complexity scalable video encoding
JP2007312370A (en) * 2006-04-18 2007-11-29 Pioneer Electronic Corp Block noise removal device
JP2007312369A (en) * 2006-04-18 2007-11-29 Pioneer Electronic Corp Block noise removal device
JP2008118519A (en) * 2006-11-07 2008-05-22 Sony Corp Image conversion apparatus and method, learning apparatus and method, and program
JP2008124641A (en) * 2006-11-09 2008-05-29 Sony Corp Image processor, image processing method, and program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346201A (en) * 2000-03-27 2001-12-14 Sony Corp Image coder and its method, image decoder and its method, image recorder, image transmitter
JP2001285876A (en) * 2000-03-30 2001-10-12 Sony Corp Image encoding device, its method, video camera, image recording device and image transmitting device
JP2003078876A (en) * 2001-08-31 2003-03-14 Sony Corp Method and apparatus for recording video signal
JP2003224847A (en) * 2002-01-29 2003-08-08 Sony Corp Image encoder and method thereof, and image decoder and method thereof
JP2003324738A (en) * 2002-04-30 2003-11-14 Sony Corp Image processing apparatus and method, and program and recording medium
JP2004056461A (en) * 2002-07-19 2004-02-19 Sony Corp Apparatus and method of processing image signal, image processo, and apparatus and method of generating coefficient data used therefor, program executing each method, and computer readable medium recording program
WO2005099276A2 (en) * 2004-04-02 2005-10-20 Thomson Licensing Complexity scalable video encoding
JP2007312370A (en) * 2006-04-18 2007-11-29 Pioneer Electronic Corp Block noise removal device
JP2007312369A (en) * 2006-04-18 2007-11-29 Pioneer Electronic Corp Block noise removal device
JP2008118519A (en) * 2006-11-07 2008-05-22 Sony Corp Image conversion apparatus and method, learning apparatus and method, and program
JP2008124641A (en) * 2006-11-09 2008-05-29 Sony Corp Image processor, image processing method, and program

Also Published As

Publication number Publication date
JP4770711B2 (en) 2011-09-14

Similar Documents

Publication Publication Date Title
JP4224748B2 (en) Image encoding apparatus, image encoding method, image decoding apparatus, image decoding method, recording medium, and image processing apparatus
JP4114885B2 (en) Image encoding apparatus, method, and program
US9124289B2 (en) Predicted pixel value generation procedure automatic producing method, image encoding method, image decoding method, apparatus therefor, programs therefor, and storage media which store the programs
US9503728B2 (en) Image processing device, decoding method, intra-frame decoder, method of decoding intra-frame and intra-frame encoder
US20100202711A1 (en) Image processing apparatus, image processing method, and program
KR20050084442A (en) Segment-based motion estimation
JP3284932B2 (en) Image processing device
US20220078453A1 (en) Encoding method and device thereof, and decoding method and device thereof
JP4193871B2 (en) Image processing apparatus, image processing method, and program
JP2004173011A (en) Apparatus and method for processing image signal, apparatus and method for generating coefficient data used therefor, and program for implementing each method
JP4770711B2 (en) Image processing apparatus, image processing method, and program
JP2007006304A (en) Image processing apparatus, image processing method, and program
US20070092005A1 (en) Method and apparatus for encoding, method and apparatus for decoding, program, and storage medium
JP2009003598A (en) Image generation device and method, learning device and method, and program
US6975770B2 (en) Image compression and decompression with predictor selection based on embedding data
JP4770704B2 (en) Image processing apparatus, image processing method, and program
JP2008172392A (en) Display controller and display control method
JP2011217010A (en) Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium
JP2007067552A (en) Method, apparatus and program for inter-layer prediction processing and recording medium thereof
JP4240674B2 (en) Motion detection device, motion detection method, and recording medium
JP2007251690A (en) Image processing apparatus and method therefor, learning apparatus and method therefor, and program
JP2008301270A (en) Moving image encoding device and moving image encoding method
JPH08298599A (en) Image encoding method and device therefor
JP4552262B2 (en) Noise reduction apparatus and method
US7424057B2 (en) Data format transcoding apparatus and associated method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091029

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110606

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees