JP4770704B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP4770704B2
JP4770704B2 JP2006304200A JP2006304200A JP4770704B2 JP 4770704 B2 JP4770704 B2 JP 4770704B2 JP 2006304200 A JP2006304200 A JP 2006304200A JP 2006304200 A JP2006304200 A JP 2006304200A JP 4770704 B2 JP4770704 B2 JP 4770704B2
Authority
JP
Japan
Prior art keywords
image data
image
block
output
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006304200A
Other languages
Japanese (ja)
Other versions
JP2008124641A (en
Inventor
朋範 河瀬
秀樹 大塚
悠太 長木
恵司 堀田
正康 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006304200A priority Critical patent/JP4770704B2/en
Publication of JP2008124641A publication Critical patent/JP2008124641A/en
Application granted granted Critical
Publication of JP4770704B2 publication Critical patent/JP4770704B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、画像処理方法、およびプログラムに関し、特に、例えば、効果的にノイズを除去して、高画質の画像データを得ることができるようにした画像処理装置、画像処理方法、およびプログラムに関する。   The present invention relates to an image processing device, an image processing method, and a program, and in particular, for example, an image processing device, an image processing method, and an image processing method capable of effectively removing noise and obtaining high-quality image data. And program.

例えば、MPEG-2(Moving Picture Experts Group phase 2)などの符号化および復号方式により、画像を、所定のブロックごとに符号化し、復号することで得られる復号画像は、ブロック歪やモスキートノイズなどのノイズを含むノイズ画像となる。かかるノイズ画像から、ノイズを除去するノイズ除去方法として、符号化および復号の処理単位である8×8画素(横×縦)のブロックをノイズ除去の処理単位として、ノイズ除去処理を行う技術が、特許文献1や2に開示されている。
特開2003−324738号公報 特開2004−7607号公報
For example, a decoded image obtained by encoding and decoding an image for each predetermined block by an encoding and decoding method such as MPEG-2 (Moving Picture Experts Group phase 2), such as block distortion and mosquito noise It becomes a noise image including noise. As a noise removal method for removing noise from such a noise image, a technique for performing noise removal processing using an 8 × 8 pixel (horizontal × vertical) block, which is a processing unit for encoding and decoding, as a processing unit for noise removal, It is disclosed in Patent Documents 1 and 2.
JP 2003-324738 A JP 2004-7607 A

ところで、地上デジタル放送においては、図1に示されるように、放送局31側で、放送すべき1920×1080画素(横×縦)の原画像が横方向に3/4倍されることで縮小され、その結果得られる縮小画像が、8×8画素のブロック単位で、MPEG-2などの符号化方式により符号化されて、MPEG符号化画像として各家庭などに送信される。   By the way, in terrestrial digital broadcasting, as shown in FIG. 1, on the broadcast station 31 side, the original image of 1920 × 1080 pixels (horizontal × vertical) to be broadcast is reduced by 3/4 times in the horizontal direction. The reduced image obtained as a result is encoded by an encoding method such as MPEG-2 in units of 8 × 8 pixel blocks, and transmitted to each home as an MPEG encoded image.

一方、各家庭側では、放送局31から送信されてくるMPEG符号化画像を受信し、各家庭に設置されたデコーダ32により、符号化時と同一の8×8画素のブロック単位で、MPEG-2などの符号化方式に対応した復号を行うことで、MPEG符号化画像が復号されたMPEG復号画像を得る。   On the other hand, each home side receives the MPEG encoded image transmitted from the broadcasting station 31, and the decoder 32 installed in each home uses the same 8 × 8 pixel block unit as MPEG- By performing decoding corresponding to an encoding method such as 2, an MPEG decoded image obtained by decoding an MPEG encoded image is obtained.

また、デコーダ32は、MPEG復号画像を、横方向に4/3倍することで、画素数が原画像と同一の、1920×1080画素の拡大MPEG復号画像に拡大し、その拡大MPEG復号画像を図示せぬテレビジョン受像機などに表示させる。   In addition, the decoder 32 enlarges the MPEG decoded image to a 1920 × 1080 pixel enlarged MPEG decoded image having the same number of pixels as the original image by multiplying the MPEG decoded image by 4/3 in the horizontal direction. It is displayed on a television receiver (not shown).

拡大MPEG復号画像では、MPEG-2などによる符号化および復号の処理単位である、8×8画素のブロックは横方向に4/3倍されて、10.666(正確には、10.666・・・)×8画素(横×縦)のブロックとなっている。   In an enlarged MPEG decoded image, an 8 × 8 pixel block, which is an encoding and decoding processing unit based on MPEG-2 or the like, is multiplied by 4/3 in the horizontal direction to be 10.666. ..) It is a block of 8 pixels (horizontal x vertical).

従って、拡大MPEG復号画像には、10.666×8画素のブロックの境界(付近)に、モスキートノイズやブロック歪が生じているが、拡大MPEG復号画像に生じているノイズを除去するノイズ除去方法として、例えば、上述の、特許文献1や2に開示された技術を用いたノイズ除去処理を採用した場合には、ノイズを効果的に除去することができないことがある。   Therefore, the expanded MPEG decoded image has mosquito noise and block distortion at the boundary (near the block) of 10.666 × 8 pixels, but the noise removal method for removing the noise generated in the expanded MPEG decoded image For example, when noise removal processing using the techniques disclosed in Patent Documents 1 and 2 described above is employed, noise may not be effectively removed.

即ち、特許文献1や2に開示された技術は、例えば、MPEG-2の符号化および復号の処理単位と一致する8×8画素のブロックの境界に生じるノイズを対象に、ノイズ除去処理が行われるようになっており、10.666×8画素のブロック単位で、ノイズ除去処理を行うようになっていない。   That is, the techniques disclosed in Patent Documents 1 and 2 perform noise removal processing for noise generated at the boundary of an 8 × 8 pixel block that matches the processing unit of MPEG-2 encoding and decoding, for example. The noise removal process is not performed in units of 10.666 × 8 pixel blocks.

そして、特許文献1や2に開示された技術を用いたノイズ除去処理の対象の8×8画素のブロックと、拡大MPEG復号画像上にノイズが生じる単位としての10.666×8画素のブロックとが一致していない、いわば位相ずれが生じている場合には、ノイズ除去処理の対象のブロックとノイズが生じるブロックとが一致している位相ずれのない場合と比較して、効果的にノイズを除去することができないことがある。   Then, an 8 × 8 pixel block to be subjected to noise removal processing using the techniques disclosed in Patent Documents 1 and 2, and a 10.666 × 8 pixel block as a unit in which noise is generated on the enlarged MPEG decoded image, If there is a phase shift that does not match, in other words, there is a phase shift, compared to a case where there is no phase shift where the block subject to noise removal matches the block where the noise is generated, the noise is effectively reduced. Sometimes it cannot be removed.

本発明は、このような状況に鑑みてなされたものであり、効果的にノイズを除去して、高画質の画像データを得ることができるようにするものである。   The present invention has been made in view of such a situation, and is capable of effectively removing noise and obtaining high-quality image data.

本発明の一側面の画像処理装置は、所定のブロック単位で符号化された画像データを、前記所定のブロック単位で復号するデコーダが出力する出力画像データを処理する画像処理装置において、前記出力画像データにおける前記所定のブロックのブロックサイズを判定する判定手段と、前記出力画像データを、画素数が所定の画素数の第1の縮小拡大画像データに、縮小または拡大する第1の縮小拡大手段と、前記出力画像データにおける前記所定のブロックのブロックサイズと、前記デコーダが復号を行うことによって得られる復号画像データにおける前記所定のブロックのブロックサイズとが異なる場合に、前記号画像データと所定の係数とを用いた予測演算により求められる、前記復号画像データよりも高画質の高画質画像データを予測した予測値と、前記高画質画像データとの誤差を最小にする学習により求められた前記所定の係数と前記第1の縮小拡大画像データとを用いて、前記第1の縮小拡大画像データを、前記第1の縮小拡大画像データよりも高画質の第2の縮小拡大画像データに変換し、前記出力画像データにおける前記復号画像データにおける前記所定のブロックのブロックサイズとが一致する場合に、前記所定の係数と前記出力画像データとを用いて、前記出力画像データを、前記出力画像データよりも高画質の画像データに変換する画像変換手段と、前記第2の縮小拡大画像データを、前記出力画像データと同一の画素数の画像データに、縮小または拡大する第2の縮小拡大手段とを備える。 According to an embodiment of the present invention is an image processing apparatus for processing the output image data an image data encoded by a predetermined block unit, a decoder for decoding at the predetermined block unit is output, the output image Determining means for determining a block size of the predetermined block in the data; and first reduction / enlargement means for reducing or enlarging the output image data to first reduced / enlarged image data having a predetermined number of pixels. , the block size of the predetermined block in the output image data, the decoder in the case where the block size of the predetermined block in the decoded image data obtained by performing the decoding are different, the decrypt image data with a predetermined High-quality image data higher than the decoded image data, which is obtained by a prediction calculation using a coefficient. A predicted value measured was the use a high-quality image data and the predetermined coefficients obtained by learning to minimize an error between said first scaled image data, the first scaling the image data The second reduced / enlarged image data with higher image quality than the first reduced / enlarged image data, and when the block size of the predetermined block in the decoded image data in the output image data matches, Image conversion means for converting the output image data into image data having higher image quality than the output image data using a predetermined coefficient and the output image data; and the second reduced / enlarged image data as the output Second reduction / enlargement means for reducing or enlarging image data having the same number of pixels as the image data is provided.

前記画像変換手段は、第1の画像データを、前記第1の画像データよりも高画質の第2の画像データに変換するものであり、前記出力画像データにおける前記所定のブロックのブロックサイズと、前記復号画像データにおける前記所定のブロックのブロックサイズとが異なる場合に、前記第1の縮小拡大画像データを第1の画像データとし、前記第2の縮小拡大画像データを第2の画像データとし、前記出力画像データにおける前記所定のブロックのブロックサイズと、前記復号画像データにおける前記所定のブロックのブロックサイズとが一致する場合に、前記出力画像データを前記第1の画像データとし、前記出力画像データよりも高画質の画像データを前記第2の画像データとし、前記第1の像データの注目している画素である注目画素に対応する、前記第2の像データの画素を予測する前記予測演算に用いる複数の画素を、前記第1の像データから予測タップとして抽出する予測タップ抽出手段と、前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記第1の像データからクラスタップとして抽出するクラスタップ抽出手段と、前記クラスタップ抽出手段により抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段と、前記学習によりあらかじめ求められた、前記複数のクラスそれぞれに対応する前記係数の中から、前記注目画素のクラスに対応する係数を出力する係数出力手段と、前記係数出力手段により出力された係数と、前記予測タップ抽出手段により抽出された前記予測タップとを用いた前記予測演算により、前記注目画素に対応する、前記第2の像データの画素を求める予測演算手段とを有することができる。 The image converting means converts the first image data into second image data having a higher image quality than the first image data, and the block size of the predetermined block in the output image data; When the block size of the predetermined block in the decoded image data is different, the first reduced / enlarged image data is first image data, the second reduced / enlarged image data is second image data, When the block size of the predetermined block in the output image data matches the block size of the predetermined block in the decoded image data, the output image data is the first image data, and the output image data and high-quality image data and the second image data than the a designated pixel of the first image picture data of interest Corresponding to element, a plurality of pixels used for the prediction computation for predicting the pixel of the second image picture data, the prediction tap extraction means for extracting as a prediction tap from the first image picture data, the pixel of interest a plurality of pixels used for classification to classify into any class of a plurality of classes, and class tap extracting means for extracting as a class tap from the first images data, extracted by the class tap extracting means And classifying means for classifying the pixel of interest based on the class tap, and corresponding to the class of the pixel of interest from the coefficients corresponding to each of the plurality of classes obtained in advance by the learning. A coefficient output means for outputting a coefficient; a coefficient output by the coefficient output means; and a coefficient extracted by the prediction tap extraction means. By the prediction operation using said predictive tap, corresponding to the pixel of interest may have a predictive calculation means for calculating a pixel of the second images data.

前記デコーダでは、原画像を前記所定の画素数に縮小または拡大して得られる画像データを、前記所定のブロック単位で符号化した符号化結果を対象に、前記所定のブロック単位で復号を行い、その復号によって得られる前記復号画像データを、前記原画像と同一の画素数の画像データに縮小または拡大した画像データを、前記出力画像データとして出力させることができる。 In the decoder, the image data obtained by reducing or enlarging the original image to the predetermined number of pixels is decoded in the predetermined block unit for the encoding result obtained by encoding the predetermined block unit, the decoded image data obtained by the decoding, the image data obtained by reducing or enlarging the image data of the original image and the same number of pixels can be output as the output image data.

本発明の一側面の画像処理方法、またはプログラムは、所定のブロック単位で符号化された画像データを、前記所定のブロック単位で復号するデコーダが出力する出力画像データを処理する画像処理装置の画像処理方法、または所定のブロック単位で符号化された画像データを、前記所定のブロック単位で復号するデコーダが出力する出力画像データを処理する画像処理装置の画像処理をコンピュータに実行させるプログラムにおいて、前記出力画像データにおける前記所定のブロックのブロックサイズを判定し、前記出力画像データを、画素数が所定の画素数の第1の縮小拡大画像データに、縮小または拡大し、前記出力画像データにおける前記所定のブロックのブロックサイズと、前記デコーダが復号を行うことによって得られる復号画像データにおける前記所定のブロックのブロックサイズとが異なる場合に、前記号画像データと所定の係数とを用いた予測演算により求められる、前記復号画像データよりも高画質の高画質画像データを予測した予測値と、前記高画質画像データとの誤差を最小にする学習により求められた前記所定の係数と前記第1の縮小拡大画像データとを用いて、前記第1の縮小拡大画像データを、前記第1の縮小拡大画像データよりも高画質の第2の縮小拡大画像データに変換し、前記出力画像データにおける前記所定のブロックのブロックサイズと、前記復号画像データにおける前記所定のブロックのブロックサイズとが一致する場合に、前記所定の係数と前記出力画像データとを用いて、前記出力画像データを、前記出力画像データよりも高画質の画像データに変換し、前記第2の縮小拡大画像データを、前記出力画像データと同一の画素数の画像データに、縮小または拡大するステップを含む。 An image processing method or program according to an aspect of the present invention is an image processing apparatus that processes output image data output from a decoder that decodes image data encoded in predetermined block units. processing method or a predetermined image data encoded in units of blocks, the program for executing the image processing of the image processing apparatus to a computer of a decoder for decoding at the predetermined block unit processes the output image data to be output, the A block size of the predetermined block in the output image data is determined, the output image data is reduced or enlarged to first reduced / enlarged image data having a predetermined number of pixels, and the predetermined image data in the output image data is reduced. The block size of the block and the decoded image obtained by decoding by the decoder When the block size of the predetermined block in the data are different, determined by the prediction calculation using said decrypt the image data and a predetermined coefficient was predicted high-quality high-quality image data than the decoded image data Using the predetermined coefficient obtained by learning that minimizes an error between the predicted value and the high-quality image data and the first reduced / enlarged image data , the first reduced / enlarged image data is Converting the second reduced / enlarged image data having higher image quality than the first reduced / enlarged image data, the block size of the predetermined block in the output image data, and the block size of the predetermined block in the decoded image data; When the output image data is higher than the output image data using the predetermined coefficient and the output image data. Of converting the image data, the second scaling image data, the image data of the output image data and the same number of pixels, comprising the steps of reduced or enlarged.

本発明の一側面においては、前記出力画像データにおける前記所定のブロックのブロックサイズが判定され、前記出力画像データが、画素数が所定の画素数の第1の縮小拡大画像データに、縮小または拡大され、前記出力画像データにおける前記所定のブロックのブロックサイズと、前記デコーダが復号を行うことによって得られる復号画像データにおける前記所定のブロックのブロックサイズとが異なる場合に、前記号画像データと所定の係数とを用いた予測演算により求められる、前記復号画像データよりも高画質の高画質画像データを予測した予測値と、前記高画質画像データとの誤差を最小にする学習により求められた前記所定の係数と前記第1の縮小拡大画像データとを用いて、前記第1の縮小拡大画像データが、前記第1の縮小拡大画像データよりも高画質の第2の縮小拡大画像データに変換され、前記出力画像データにおける前記所定のブロックのブロックサイズと、前記復号画像データにおける前記所定のブロックのブロックサイズとが一致する場合に、前記所定の係数と前記出力画像データとを用いて、前記出力画像データが、前記出力画像データよりも高画質の画像データに変換される。さらに、前記第2の縮小拡大画像データが、前記出力画像データと同一の画素数の画像データに、縮小または拡大される。 In one aspect of the present invention, a block size of the predetermined block in the output image data is determined, and the output image data is reduced or enlarged to first reduced / enlarged image data having a predetermined number of pixels. is the block size of the predetermined block in the output image data, wherein when the decoder and the block size of the predetermined block in the decoded image data obtained by performing the decoding are different, the decrypt image data with a predetermined Obtained by a prediction calculation using the coefficient of the image, the prediction value obtained by predicting high-quality image data with higher image quality than the decoded image data, and the learning obtained by learning that minimizes an error between the high-quality image data by using the predetermined coefficient and the first scaled image data, the first scaling the image data, the first condensation Than the enlarged image data is converted into the second scaling image data of high image quality, when the block size of the predetermined block in the output image data, and the block size of the predetermined block in the decoded image data match In addition, the output image data is converted into image data with higher image quality than the output image data using the predetermined coefficient and the output image data . Further, the second reduced / enlarged image data is reduced or enlarged to image data having the same number of pixels as the output image data.

本発明の一側面によれば、効果的にノイズを除去して、高画質の画像データを得ることができる。   According to one aspect of the present invention, it is possible to effectively remove noise and obtain high-quality image data.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. Not something to do.

本発明の一側面の画像処理装置は、
所定のブロックごとに符号化された画像データ(例えば、図1のMPEG符号化画像)を、前記所定のブロック単位で復号するデコーダ(例えば、図1のデコーダ32)が出力する出力画像データ(例えば、図1の拡大MPEG復号画像)を処理する画像処理装置(例えば、図の画像処理装置221)において、
前記出力画像データにおける前記所定のブロックのブロックサイズを判定する判定手段(例えば、図9のブロックサイズ判定部252)と、
前記出力画像データを、画素数が所定の画素数の第1の縮小拡大画像データに、縮小または拡大する第1の縮小拡大手段(例えば、図9の画像縮小フィルタ101)と、
前記出力画像データにおける前記所定のブロックのブロックサイズと、前記デコーダが復号を行うことによって得られる復号画像データにおける前記所定のブロックのブロックサイズとが異なる場合に、前記号画像データと所定の係数とを用いた予測演算により求められる、前記復号画像データよりも高画質の高画質画像データを予測した予測値と、前記高画質画像データとの誤差を最小にする学習により求められた前記所定の係数と前記第1の縮小拡大画像データとを用いて、前記第1の縮小拡大画像データを、前記第1の縮小拡大画像データよりも高画質の第2の縮小拡大画像データに変換し、
前記出力画像データにおける前記所定のブロックのブロックサイズと、前記復号画像データにおける前記所定のブロックのブロックサイズとが一致する場合に、前記所定の係数と前記出力画像データとを用いて、前記出力画像データを、前記出力画像データよりも高画質の画像データに変換する画像変換手段(例えば、図9の画像変換部102および画像変換部253)と、
前記第2の縮小拡大画像データを、前記出力画像データと同一の画素数の画像データに、縮小または拡大する第2の縮小拡大手段(例えば、図の画像拡大フィルタ103)と
を備える。
An image processing apparatus according to one aspect of the present invention includes:
Output image data (for example, the decoder 32 of FIG. 1) output by the decoder (for example, the decoder 32 of FIG. 1) that decodes image data (for example, the MPEG encoded image of FIG. 1) encoded for each predetermined block in units of the predetermined blocks. In the image processing apparatus (for example, the image processing apparatus 221 in FIG. 9 ) for processing the enlarged MPEG decoded image in FIG.
Determination means for determining the block size of the predetermined block in the output image data (for example, the block size determination unit 252 in FIG. 9);
First reduction / enlargement means (for example, the image reduction filter 101 in FIG. 9) for reducing or enlarging the output image data to first reduced / enlarged image data having a predetermined number of pixels;
And the block size of the predetermined block in the output image data, if the block size is different from the predetermined block in the decoded image data obtained by the decoder performs decoding, the decrypt image data and a predetermined coefficient And the predetermined value obtained by learning that minimizes an error between the predicted value obtained by predicting high-quality image data having a higher image quality than the decoded image data and the high-quality image data. Using the coefficient and the first reduced / enlarged image data , the first reduced / enlarged image data is converted into second reduced / enlarged image data with higher image quality than the first reduced / enlarged image data ,
When the block size of the predetermined block in the output image data matches the block size of the predetermined block in the decoded image data, the output image is used by using the predetermined coefficient and the output image data. Image conversion means (for example, the image conversion unit 102 and the image conversion unit 253 in FIG. 9) for converting the data into image data having higher image quality than the output image data ;
Second reduction / enlargement means (for example, the image enlargement filter 103 in FIG. 9 ) for reducing or enlarging the second reduced / enlarged image data to image data having the same number of pixels as the output image data.

前記画像変換手段(例えば、図4の画像変換部102)は、第1の画像データを、前記第1の画像データよりも高画質の第2の画像データに変換するものであり、
前記出力画像データにおける前記所定のブロックのブロックサイズと、前記復号画像データにおける前記所定のブロックのブロックサイズとが異なる場合に、前記第1の縮小拡大画像データを第1の画像データとし、前記第2の縮小拡大画像データを第2の画像データとし、
前記出力画像データにおける前記所定のブロックのブロックサイズと、前記復号画像データにおける前記所定のブロックのブロックサイズとが一致する場合に、前記出力画像データを前記第1の画像データとし、前記出力画像データよりも高画質の画像データを前記第2の画像データとし、
前記第1の像データの注目している画素である注目画素に対応する、前記第2の像データの画素を予測する前記予測演算に用いる複数の画素を、前記第1の像データから予測タップとして抽出する予測タップ抽出手段(例えば、図4の予測タップ抽出部131)と、
前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記第1の像データからクラスタップとして抽出するクラスタップ抽出手段(例えば、図4のクラスタップ抽出部132)と、
前記クラスタップ抽出手段により抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段(例えば、図4のクラス分類部133)と、
前記学習によりあらかじめ求められた、前記複数のクラスそれぞれに対応する前記係数の中から、前記注目画素のクラスに対応する係数を出力する係数出力手段(例えば、図4の係数記憶部134)と、
前記係数出力手段により出力された係数と、前記予測タップ抽出手段により抽出された前記予測タップとを用いた前記予測演算により、前記注目画素に対応する、前記第2の像データの画素を求める予測演算手段(例えば、図4の予測演算部135)と
を有する。
The image conversion means (for example, the image conversion unit 102 in FIG. 4) converts the first image data into second image data having a higher image quality than the first image data.
When the block size of the predetermined block in the output image data is different from the block size of the predetermined block in the decoded image data, the first reduced / enlarged image data is set as first image data, and the first 2 reduced and enlarged image data as second image data,
When the block size of the predetermined block in the output image data matches the block size of the predetermined block in the decoded image data, the output image data is the first image data, and the output image data Higher image quality image data as the second image data,
Corresponding to the pixel of interest is a designated pixel of said first image picture data, a plurality of pixels used for the prediction computation for predicting the pixel of the second image picture data, the first images data Prediction tap extraction means (for example, the prediction tap extraction unit 131 in FIG. 4) that extracts as a prediction tap from
A plurality of pixels used for classification to classify into any of the classes of the target pixel a plurality of classes, the class tap extracting means for extracting as a class tap from the first image picture data (e.g., in FIG. 4 A class tap extraction unit 132);
Class classification means (for example, the class classification unit 133 in FIG. 4) for classifying the pixel of interest based on the class tap extracted by the class tap extraction means;
Coefficient output means (for example, coefficient storage unit 134 in FIG. 4) for outputting a coefficient corresponding to the class of the target pixel from among the coefficients corresponding to each of the plurality of classes obtained in advance by the learning;
By the prediction computation using the coefficients output by the coefficient output unit, and the prediction tap extracted by the prediction tap extraction means, corresponding to the pixel of interest, determine the pixels of the second images data And a prediction calculation means (for example, the prediction calculation unit 135 in FIG. 4).

前記デコーダ(例えば、図1のデコーダ32)は、原画像(例えば、図1の原画像)を前記所定の画素数に縮小または拡大して得られる画像データ(例えば、図1の縮小画像)を、前記所定のブロックごとに符号化した符号化結果(例えば、図1のMPEG符号化画像)を対象に、前記所定のブロック単位で復号を行い、その復号によって得られる復号画像データ(例えば、図1のMPEG復号画像)を、前記原画像と同一の画素数の画像データに縮小または拡大した画像データ(例えば、図1の拡大MPEG復号画像)を、前記出力画像データとして出力する。   The decoder (for example, the decoder 32 in FIG. 1) obtains image data (for example, the reduced image in FIG. 1) obtained by reducing or enlarging the original image (for example, the original image in FIG. 1) to the predetermined number of pixels. , Decoding is performed in units of the predetermined block for the encoding result (for example, the MPEG encoded image of FIG. 1) encoded for each predetermined block, and decoded image data (for example, FIG. Image data obtained by reducing or enlarging one MPEG decoded image) to image data having the same number of pixels as the original image (for example, the enlarged MPEG decoded image in FIG. 1) is output as the output image data.

本発明の一側面の画像処理方法、またはプログラムは、
所定のブロックごとに符号化された画像データ(例えば、図1のMPEG符号化画像)を、前記所定のブロック単位で復号するデコーダ(例えば、図1のデコーダ32)が出力する出力画像データ(例えば、図1の拡大MPEG復号画像)を処理する画像処理装置の画像処理方法、または所定のブロックごとに符号化された画像データを、前記所定のブロック単位で復号するデコーダが出力する出力画像データを処理する画像処理装置の画像処理をコンピュータに実行させるプログラムにおいて、
前記出力画像データにおける前記所定のブロックのブロックサイズを判定し(例えば、図10のステップS132)、
前記出力画像データを、画素数が所定の画素数の第1の縮小拡大画像データに、縮小または拡大し(例えば、図10のステップS133)、
前記出力画像データにおける前記所定のブロックのブロックサイズと、前記デコーダが復号を行うことによって得られる復号画像データにおける前記所定のブロックのブロックサイズとが異なる場合に、前記号画像データと所定の係数とを用いた予測演算により求められる、前記復号画像データよりも高画質の高画質画像データを予測した予測値と、前記高画質画像データとの誤差を最小にする学習により求められた前記所定の係数と前記第1の縮小拡大画像データとを用いて、前記第1の縮小拡大画像データを、前記第1の縮小拡大画像データよりも高画質の第2の縮小拡大画像データに変換し(例えば、図10のステップS134)、
前記出力画像データにおける前記所定のブロックのブロックサイズと、前記復号画像データにおける前記所定のブロックのブロックサイズとが一致する場合に、前記所定の係数と前記出力画像データとを用いて、前記出力画像データを、前記出力画像データよりも高画質の画像データに変換し(例えば、図10のステップS136)、
前記第2の縮小拡大画像データを、前記出力画像データと同一の画素数の画像データに、縮小または拡大する(例えば、図10のステップS135
ステップを含む。
An image processing method or program according to one aspect of the present invention includes:
Output image data (for example, the decoder 32 of FIG. 1) output by the decoder (for example, the decoder 32 of FIG. 1) that decodes image data (for example, the MPEG encoded image of FIG. 1) encoded for each predetermined block in units of the predetermined blocks. Image processing method of an image processing apparatus for processing (enlarged MPEG decoded image in FIG. 1), or output image data output by a decoder that decodes image data encoded for each predetermined block in units of the predetermined block In a program for causing a computer to execute image processing of an image processing apparatus to process,
A block size of the predetermined block in the output image data is determined (for example, step S132 in FIG. 10),
The output image data is reduced or enlarged to first reduced / enlarged image data having a predetermined number of pixels (for example, step S 133 in FIG. 10 ),
And the block size of the predetermined block in the output image data, if the block size is different from the predetermined block in the decoded image data obtained by the decoder performs decoding, the decrypt image data and a predetermined coefficient And the predetermined value obtained by learning that minimizes an error between the predicted value obtained by predicting high-quality image data having a higher image quality than the decoded image data and the high-quality image data. Using the coefficient and the first reduced / enlarged image data , the first reduced / enlarged image data is converted into second reduced / enlarged image data having a higher image quality than the first reduced / enlarged image data (for example, , Step S134 in FIG.
When the block size of the predetermined block in the output image data matches the block size of the predetermined block in the decoded image data, the output image is used by using the predetermined coefficient and the output image data. The data is converted into image data with higher image quality than the output image data (for example, step S136 in FIG. 10),
The second reduced / enlarged image data is reduced or enlarged to image data having the same number of pixels as the output image data (for example, step S 135 in FIG. 10 ).
Includes steps.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図2は、本発明を適用した画像処理装置の一実施の形態を示すブロック図である。   FIG. 2 is a block diagram showing an embodiment of an image processing apparatus to which the present invention is applied.

図2の画像処理装置61は、画像縮小フィルタ101、画像変換部102、および画像拡大フィルタ103により構成される。   The image processing device 61 in FIG. 2 includes an image reduction filter 101, an image conversion unit 102, and an image enlargement filter 103.

図2の画像処理装置61は、例えば、図1のデコーダ32が出力する拡大MPEG復号画像などである出力画像データを、その出力画像データよりも高画質の画像データに変換する画像変換処理を行う。   The image processing device 61 in FIG. 2 performs image conversion processing for converting output image data such as an enlarged MPEG decoded image output from the decoder 32 in FIG. 1 into image data with higher image quality than the output image data. .

即ち、図2の画像処理装置61は、例えば、図1のデコーダ32が出力する出力画像データに生じたブロック歪やモスキートノイズを除去するノイズ除去処理を行う。   That is, the image processing device 61 in FIG. 2 performs a noise removal process for removing block distortion and mosquito noise generated in the output image data output from the decoder 32 in FIG.

ここで、図1のデコーダ32が出力する出力画像データは、MPEG-2の復号によって直接得られる1440×1080画素のMPEG復号画像(図1)の横方向を4/3倍に拡大した1920×1080画素の拡大MPEG復号画像(図1)である。   Here, the output image data output by the decoder 32 of FIG. 1 is 1920 × 4 × 4 × 1 × 4 × 1 × 4, which is obtained directly by MPEG-2 decoding. It is a 1080-pixel enlarged MPEG decoded image (FIG. 1).

従って、出力画像データにおいては、MPEG-2による符号化および復号の処理単位(以下、MPEG処理単位という)である8×8画素のブロックも横方向に4/3倍されて、10.666×8画素のブロックとなっている。   Accordingly, in the output image data, an 8 × 8 pixel block, which is an MPEG-2 encoding and decoding processing unit (hereinafter referred to as an MPEG processing unit), is also multiplied by 4/3 in the horizontal direction to be 10.666 × It is a block of 8 pixels.

図2の画像処理装置61には、図1のデコーダ32から、MPEG処理単位の8×8画素のブロックが10.666×8画素のブロックに拡大されている1920×1080画素の出力画像データが供給され、この出力画像データは、画像縮小フィルタ101に供給される。   The image processing apparatus 61 in FIG. 2 receives 1920 × 1080 pixel output image data from the decoder 32 in FIG. 1 in which an 8 × 8 pixel block in the MPEG processing unit is expanded to a 10.666 × 8 pixel block. The output image data is supplied to the image reduction filter 101.

画像縮小フィルタ101は、そこに供給された1920×1080画素の出力画像データを、横方向に3/4倍することで、1440×1080画素の縮小画像データに縮小する。   The image reduction filter 101 reduces the 1920 × 1080 pixel output image data supplied thereto to 1440 × 1080 pixel reduced image data by multiplying the output image data by 3/4 in the horizontal direction.

画像縮小フィルタ101において、1920×1080画素の出力画像データが横方向に3/4倍されることで得られた1440×1080画素の縮小画像データにおいては、出力画像データの10.666×8画素のブロックも横方向に3/4倍されて、MPEG処理単位の8×8画素のブロックとなる。   In the reduced image data of 1440 × 1080 pixels obtained by the output image data of 1920 × 1080 pixels being multiplied by 3/4 in the horizontal direction in the image reduction filter 101, 10.666 × 8 pixels of the output image data This block is also multiplied by 3/4 in the horizontal direction to form an 8 × 8 pixel block in units of MPEG processing.

画像縮小フィルタ101は、1920×1080画素の出力画像データを縮小することで得られた1440×1080画素の縮小画像データを、画像変換部102に供給する。   The image reduction filter 101 supplies reduced image data of 1440 × 1080 pixels obtained by reducing the output image data of 1920 × 1080 pixels to the image conversion unit 102.

画像変換部102は、MPEG-2による復号によって直接得られるMPEG復号画像を、そのMPEG復号画像におけるMPEG処理単位の8×8画素のブロックの境界に生じているブロック歪などのノイズを除去したノイズ除去画像に変換する画像変換処理を行う。   The image conversion unit 102 removes noise such as block distortion generated at the boundary of an 8 × 8 pixel block of the MPEG processing unit from the MPEG decoded image directly obtained by decoding by MPEG-2. An image conversion process for converting to a removed image is performed.

即ち、画像変換部102は、画像縮小フィルタ101から供給された1440×1080画素の縮小画像データを対象として画像変換処理を行い、画像縮小フィルタ101からの1440×1080画素の縮小画像データを、その縮小画像データよりも高画質の1440×1080画素の高画質縮小画像データに変換し、画像拡大フィルタ103に供給する。   That is, the image conversion unit 102 performs image conversion processing on the reduced image data of 1440 × 1080 pixels supplied from the image reduction filter 101, and the reduced image data of 1440 × 1080 pixels from the image reduction filter 101 The image data is converted into high-quality reduced image data of 1440 × 1080 pixels that has higher image quality than the reduced image data, and is supplied to the image enlargement filter 103.

画像拡大フィルタ103は、画像変換部102から供給された1440×1080画素の高画質縮小画像データを、横方向に4/3倍することで、出力画像データと同一の画素数である、1920×1080画素の画像データに拡大して出力する。   The image enlargement filter 103 multiplies the 1440 × 1080 pixel high-quality reduced image data supplied from the image conversion unit 102 by a factor of 4/3 in the horizontal direction, thereby having the same number of pixels as the output image data, 1920 × The image data is enlarged and output to 1080 pixel image data.

なお、画像を縮小する画像縮小フィルタ101や、画像を拡大する画像拡大フィルタ103としては、例えば、Lanczosフィルタを採用することができる。   For example, a Lanczos filter can be employed as the image reduction filter 101 that reduces an image and the image enlargement filter 103 that enlarges an image.

Lanczosフィルタのフィルタ係数Lanczos(x)は、フィルタリングの対象の画素を基準とする画素の水平方向の位置をxとして、以下の式(1)により示される。   The filter coefficient Lanczos (x) of the Lanczos filter is expressed by the following equation (1), where x is the horizontal position of the pixel relative to the pixel to be filtered.

Figure 0004770704

・・・(1)
Figure 0004770704

... (1)

ここで、図3に、式(1)で表されるLanczosフィルタのフィルタ係数Lanczos(x)を示す。   Here, FIG. 3 shows the filter coefficient Lanczos (x) of the Lanczos filter expressed by the equation (1).

次に、図4は、図2の画像変換部102の詳細な構成例を示すブロック図である。   Next, FIG. 4 is a block diagram illustrating a detailed configuration example of the image conversion unit 102 of FIG.

画像変換部102は、予測タップ抽出部131、クラスタップ抽出部132、クラス分類部133、係数記憶部134、および予測演算部135により構成され、例えば、特開2003−324738号公報に記載されている方法により、MPEG復号画像をノイズ除去画像に変換する画像変換処理を行う。   The image conversion unit 102 includes a prediction tap extraction unit 131, a class tap extraction unit 132, a class classification unit 133, a coefficient storage unit 134, and a prediction calculation unit 135, and is described in, for example, Japanese Patent Application Laid-Open No. 2003-324738. Thus, an image conversion process for converting the MPEG decoded image into a noise-removed image is performed.

予測タップ抽出部131およびクラスタップ抽出部132には、図2の画像縮小フィルタ101から、MPEG処理単位のブロックがMPEG復号画像と同一の8×8画素のブロックとなっている1440×1080画素の縮小画像データが供給される。   The prediction tap extraction unit 131 and the class tap extraction unit 132 receive 1440 × 1080 pixel blocks from the image reduction filter 101 in FIG. 2 in which the block of the MPEG processing unit is the same 8 × 8 pixel block as the MPEG decoded image. Reduced image data is supplied.

予測タップ抽出部131は、画像縮小フィルタ101から供給される縮小画像データの8×8画素のブロックを、順次、注目ブロックとし、その注目ブロックの各画素を、例えば、いわゆるラスタスキャン順に、順次、注目画素とする。   The prediction tap extraction unit 131 sequentially sets the 8 × 8 pixel block of the reduced image data supplied from the image reduction filter 101 as a target block, and sequentially sets each pixel of the target block in, for example, a so-called raster scan order. The pixel of interest.

また、予測タップ抽出部131は、注目画素に対応する、縮小画像データからノイズを除去したノイズ除去画像に相当する高画質縮小画像データの画素のうちの、注目画素に対応する画素(の画素値)を予測する予測演算に用いる複数の画素を、縮小画像データから予測タップとして抽出する。   In addition, the prediction tap extraction unit 131 selects a pixel corresponding to the target pixel from among pixels of high-quality reduced image data corresponding to the noise-removed image obtained by removing noise from the reduced image data corresponding to the target pixel. ) Are extracted as prediction taps from the reduced image data.

即ち、予測タップ抽出部131は、例えば、注目ブロックの画素のうちの、注目画素、注目画素の上、下、左、右、左上、左下、右上、右下に隣接する画素、さらには、注目ブロックの上に隣接するブロックの、注目ブロックの境界に隣接する画素のうちの、注目画素と同一の列にある画素、注目ブロックの下に隣接するブロックの、注目ブロックの境界に隣接する画素のうちの、注目画素と同一の列にある画素、注目ブロックの左に隣接するブロックの、注目ブロックの境界に隣接する画素のうちの、注目画素と同一の行にある画素、注目ブロックの右に隣接するブロックの、注目ブロックの境界に隣接する画素のうちの、注目画素と同一の行にある画素、注目画素と同一の位置にある、注目画素のフレームの前後のフレームの画素などを、予測タップとして抽出する。   That is, the prediction tap extraction unit 131, for example, out of the pixel of the target block, the pixel adjacent to the target pixel, the upper, lower, left, right, upper left, lower left, upper right, and lower right pixels of the target pixel, Of the pixels adjacent to the boundary of the target block in the block adjacent above the block, the pixels in the same column as the target pixel, the pixel adjacent to the boundary of the target block in the block adjacent below the target block Of the pixels in the same column as the target pixel, the pixels adjacent to the boundary of the target block in the block adjacent to the left of the target block, the pixel in the same row as the target pixel, and to the right of the target block Among the pixels adjacent to the boundary of the target block in the adjacent block, the pixels in the same row as the target pixel, the pixels in the frame before and after the target pixel frame, etc., in the same position as the target pixel As prediction taps.

予測タップ抽出部131は、注目画素についての予測タップを、予測演算部135に供給する。   The prediction tap extraction unit 131 supplies the prediction tap for the target pixel to the prediction calculation unit 135.

クラスタップ抽出部132は、注目画素を、複数のクラスのうちのいずれかのクラスにクラス分けするためのクラス分類に用いる複数の画素を、画像縮小フィルタ101から供給される縮小画像データからクラスタップとして抽出する。   The class tap extraction unit 132 classifies a plurality of pixels used for class classification for classifying the target pixel into one of a plurality of classes from the reduced image data supplied from the image reduction filter 101. Extract as

即ち、クラスタップ抽出部132は、例えば、注目ブロックの画素のうちの、注目画素、注目画素と同一の列にある、注目画素以外の7画素、注目画素と同一の行にある、注目画素以外の7画素、さらには、注目ブロックの上に隣接するブロックの、注目ブロックの境界に隣接する画素のうちの、注目画素と同一の列にある画素、注目ブロックの下に隣接するブロックの、注目ブロックの境界に隣接する画素のうちの、注目画素と同一の列にある画素、注目ブロックの左に隣接するブロックの、注目ブロックの境界に隣接する画素のうちの、注目画素と同一の行にある画素、注目ブロックの右に隣接するブロックの、注目ブロックの境界に隣接する画素のうちの、注目画素と同一の行にある画素を、クラスタップとして抽出する。   That is, the class tap extraction unit 132, for example, among the pixels of the target block, the target pixel, seven pixels other than the target pixel in the same column as the target pixel, and other than the target pixel in the same row as the target pixel In addition, among the pixels adjacent to the boundary of the target block of the block adjacent above the target block, the pixel in the same column as the target pixel, the target of the block adjacent below the target block Of the pixels adjacent to the block boundary, the pixel in the same column as the target pixel, and the pixel adjacent to the target block boundary of the block adjacent to the left of the target block are in the same row as the target pixel. Among the pixels adjacent to the boundary of the target block of the pixel adjacent to the right of the target block, the pixels in the same row as the target pixel are extracted as class taps.

なお、予測タップとクラスタップとは、同一のタップ構造(注目画素に対する位置関係)の複数の画素であってもよいし、異なるタップ構造の複数の画素であってもよい。   Note that the prediction tap and the class tap may be a plurality of pixels having the same tap structure (positional relationship with respect to the target pixel), or may be a plurality of pixels having different tap structures.

クラスタップ抽出部132は、注目画素のクラスタップを、クラス分類部133に供給する。   The class tap extraction unit 132 supplies the class tap of the target pixel to the class classification unit 133.

クラス分類部133は、クラスタップ抽出部132からのクラスタップに基づき、注目画素をクラス分類し、その結果得られるクラスに対応するクラスコードを出力する。 The class classification unit 133 classifies the target pixel based on the class tap from the class tap extraction unit 132, and outputs a class code corresponding to the class obtained as a result.

ここで、クラス分類を行う方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を採用することができる。   Here, as a method of classifying, for example, ADRC (Adaptive Dynamic Range Coding) or the like can be employed.

ADRCを用いる方法では、クラスタップを構成する画素の画素値が、ADRC処理され、その結果得られるADRCコードにしたがって、注目画素のクラスが決定される。   In the method using ADRC, the pixel values of the pixels constituting the class tap are subjected to ADRC processing, and the class of the target pixel is determined according to the ADRC code obtained as a result.

なお、KビットADRCにおいては、例えば、クラスタップを構成する画素の画素値の最大値MAXと最小値MINが検出され、DR=MAX-MINを、クラスタップを構成する画素の集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する画素(の画素値)がKビットに再量子化される。即ち、クラスタップを構成する各画素の画素値から、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。そして、以上のようにして得られる、クラスタップを構成するKビットの各画素の画素値を、所定の順番で並べたビット列が、ADRCコードとして出力される。従って、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最小値MINが減算された後に、最大値MAXと最小値MINとの差の1/2で除算され(小数点以下切り捨て)、これにより、各画素の画素値が1ビットとされる(2値化される)。そして、その1ビットの画素値を所定の順番で並べたビット列が、ADRCコードとして出力される。 Note that, in the K-bit ADRC, for example, the maximum value MAX and the minimum value MIN of the pixels constituting the class tap are detected, and DR = MAX−MIN is set as a local value of the set of pixels constituting the class tap. Based on this dynamic range DR, the pixels (the pixel values) constituting the class tap are requantized to K bits. That is, the pixel value of each pixel forming the class taps, the minimum value MIN is subtracted, and the subtracted value is divided (quantized) by DR / 2 K. A bit string obtained by arranging the pixel values of the K-bit pixels constituting the class tap in a predetermined order is output as an ADRC code. Therefore, for example, when the class tap is subjected to 1-bit ADRC processing, the pixel value of each pixel constituting the class tap is the difference between the maximum value MAX and the minimum value MIN after the minimum value MIN is subtracted. The pixel value of each pixel is set to 1 bit (binarized). Then, a bit string in which the 1-bit pixel values are arranged in a predetermined order is output as an ADRC code.

その他、クラス分類部133では、例えば、クラスタップを構成する画素のうちの、隣接する画素同士の画素値の差分の絶対値(以下、適宜、画素間差分という)を求め、各画素間差分の大小を表す1ビットのフラグを、画素間差分の数だけ並べたビット列を、クラスコードとして出力するクラス分類を行うことなどが可能である。   In addition, in the class classification unit 133, for example, an absolute value of a difference between pixel values of adjacent pixels among the pixels constituting the class tap (hereinafter, referred to as an inter-pixel difference) is obtained, and the difference between each pixel is determined. It is possible to classify a bit string in which 1-bit flags representing magnitudes are arranged as many as the number of pixel differences as a class code.

係数記憶部134は、後述する学習によってあらかじめ求められたクラスごとのタップ係数のセットを記憶し、さらに、その記憶しているタップ係数のセットのうちの、クラス分類部133から供給されるクラスコードに対応するアドレスに記憶されているタップ係数(クラス分類部133から供給されるクラスコードが表す、注目画素のクラスに対応するタップ係数)を出力する。   The coefficient storage unit 134 stores a set of tap coefficients for each class obtained in advance by learning described later, and further, a class code supplied from the class classification unit 133 in the stored set of tap coefficients. The tap coefficient stored in the address corresponding to (the tap coefficient corresponding to the class of the pixel of interest represented by the class code supplied from the class classification unit 133) is output.

予測演算部135は、予測タップ抽出部131が出力する予測タップと、係数記憶部134が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、注目画素に対応する、高画質縮小画像データの画素の画素値(予測値)を求める所定の予測演算を行う。   The prediction calculation unit 135 acquires the prediction tap output from the prediction tap extraction unit 131 and the tap coefficient output from the coefficient storage unit 134, and uses the prediction tap and the tap coefficient to correspond to the target pixel. A predetermined prediction calculation is performed to obtain the pixel value (predicted value) of the pixel of the image quality reduced image data.

そして、予測演算部135は、所定の予測演算を行うことで得られる高画質縮小画像データの画素の画素値を出力する。   And the prediction calculation part 135 outputs the pixel value of the pixel of the high quality reduced image data obtained by performing a predetermined prediction calculation.

次に、図5のフローチャートを参照して、図2の画像処理装置61における画像処理を説明する。   Next, image processing in the image processing apparatus 61 in FIG. 2 will be described with reference to the flowchart in FIG.

図2の画像処理装置61の画像縮小フィルタ101には、図1のデコーダ32が出力する出力画像データが供給される。このとき、画像縮小フィルタ101には、図1のデコーダ32から、MPEG処理単位の8×8画素のブロックが、10.666×8画素のブロックに拡大されている1920×1080画素の出力画像データが供給される。   Output image data output from the decoder 32 of FIG. 1 is supplied to the image reduction filter 101 of the image processing device 61 of FIG. At this time, the image reduction filter 101 outputs 1920 × 1080 pixel output image data in which the MPEG processing unit 8 × 8 pixel block is enlarged to 10.666 × 8 pixel block from the decoder 32 of FIG. Is supplied.

ステップS31において、画像縮小フィルタ101は、図1のデコーダ31からの1920×1080画素の出力画像データを、横方向に3/4倍することで、1440×1080画素の縮小画像データに縮小する。この1440×1080画素の縮小画像データでは、MPEG処理単位の10.666×8画素のブロックが、8×8画素のブロックとなる。   In step S31, the image reduction filter 101 reduces the output image data of 1920 × 1080 pixels from the decoder 31 of FIG. 1 by 3/4 in the horizontal direction to reduce it to reduced image data of 1440 × 1080 pixels. In the reduced image data of 1440 × 1080 pixels, the 10.666 × 8 pixel block of the MPEG processing unit becomes an 8 × 8 pixel block.

画像縮小フィルタ101は、1920×1080画素の出力画像データを縮小することで得られた1440×1080画素の縮小画像データを、画像変換部102に供給して、処理は、ステップS31からステップS32に進む。   The image reduction filter 101 supplies the reduced image data of 1440 × 1080 pixels obtained by reducing the output image data of 1920 × 1080 pixels to the image conversion unit 102, and the processing proceeds from step S31 to step S32. move on.

ステップS32において、画像変換部102は、画像縮小フィルタ101から供給された1440×1080画素の縮小画像データに画像変換処理を施すことで、その1440×1080画素の縮小画像データを、ブロック歪などのノイズが除去された1440×1080画素の高画質縮小画像データに変換し、画像拡大フィルタ103に供給する。   In step S32, the image conversion unit 102 performs image conversion processing on the reduced image data of 1440 × 1080 pixels supplied from the image reduction filter 101, thereby converting the reduced image data of 1440 × 1080 pixels into block distortion or the like. It is converted into high-quality reduced image data of 1440 × 1080 pixels from which noise has been removed, and is supplied to the image enlargement filter 103.

ステップS32の処理の終了後、処理は、ステップS33に進み、画像拡大フィルタ103は、画像変換部102から供給された1440×1080画素の高画質縮小画像データを、横方向に4/3倍することで、出力画像データと同一の画素数である、1920×1080画素の画像データに拡大し、その画像データを出力して、処理は、終了する。   After the process of step S32 is completed, the process proceeds to step S33, and the image enlargement filter 103 multiplies the 1440 × 1080 pixel high-quality reduced image data supplied from the image conversion unit 102 by 4/3 in the horizontal direction. Thus, the image data is enlarged to 1920 × 1080 pixel image data having the same number of pixels as the output image data, the image data is output, and the process ends.

次に、図6のフローチャートを参照して、図2の画像変換部102が行う、図5のステップS32の画像変換処理を説明する。   Next, the image conversion process in step S32 in FIG. 5 performed by the image conversion unit 102 in FIG. 2 will be described with reference to the flowchart in FIG.

ステップS61において、予測タップ抽出部131は、画像縮小フィルタ101から供給された縮小画像データから、その縮小画像データにおけるブロック、即ち、縮小画像データにおけるMPEG処理単位の8×8画素のブロックを、順次、注目ブロックとし、その注目ブロックの各画素を、ラスタスキャン順に、順次、注目画素とする。   In step S61, the prediction tap extraction unit 131 sequentially selects, from the reduced image data supplied from the image reduction filter 101, blocks in the reduced image data, that is, blocks of 8 × 8 pixels in the MPEG processing unit in the reduced image data. , A target block, and each pixel of the target block is sequentially set as a target pixel in the raster scan order.

ステップS61の処理の終了後、処理は、ステップS62に進み、予測タップ抽出部131は、画像縮小フィルタ101からの縮小画像データから、注目画素の予測タップとする複数の画素を抽出し、予測演算部135に供給して、処理は、ステップS63に進む。   After the process of step S61 ends, the process proceeds to step S62, and the prediction tap extraction unit 131 extracts a plurality of pixels that are prediction taps of the target pixel from the reduced image data from the image reduction filter 101, and performs a prediction calculation. The process proceeds to step S63.

ステップS63において、クラスタップ抽出部132は、画像縮小フィルタ101から供給される縮小画像データから、注目画素のクラスタップとする複数の画素を抽出し、クラス分類部133に供給して、処理は、ステップS64に進む。   In step S63, the class tap extraction unit 132 extracts a plurality of pixels as the class tap of the target pixel from the reduced image data supplied from the image reduction filter 101, and supplies the extracted pixels to the class classification unit 133. Proceed to step S64.

ステップS64において、クラス分類部133は、クラスタップ抽出部132からのクラスタップに基づき、注目画素をクラス分類し、その結果得られるクラスに対応するクラスコードを、係数記憶部134に出力して、処理は、ステップS65に進む。   In step S64, the class classification unit 133 classifies the pixel of interest based on the class tap from the class tap extraction unit 132, and outputs a class code corresponding to the resulting class to the coefficient storage unit 134. The process proceeds to step S65.

ステップS65において、係数記憶部134は、後述する学習によってあらかじめ求められたクラスごとのタップ係数のうちの、クラス分類部133から供給されるクラスコードに対応するアドレスに記憶されているタップ係数(注目画素のクラスに対応するタップ係数)を、予測演算部135に出力する。   In step S65, the coefficient storage unit 134 stores the tap coefficient (attention) stored in the address corresponding to the class code supplied from the class classification unit 133 among the tap coefficients for each class obtained in advance by learning described later. The tap coefficient corresponding to the pixel class) is output to the prediction calculation unit 135.

その後、ステップS65の処理の終了後、処理は、ステップS66に進み、予測演算部135は、予測タップ抽出部131が出力する予測タップと、係数記憶部134が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、注目画素に対応する、高画質縮小画像データの画素の画素値を求める所定の予測演算を行う。さらに、ステップS66において、予測演算部135は、所定の予測演算を行うことで得られる高画質縮小画像データの画素の画素値を出力して、処理は、ステップS67に進む。   Thereafter, after the process of step S65 ends, the process proceeds to step S66, and the prediction calculation unit 135 acquires the prediction tap output by the prediction tap extraction unit 131 and the tap coefficient output by the coefficient storage unit 134, Using the prediction tap and the tap coefficient, a predetermined prediction calculation for obtaining the pixel value of the pixel of the high-quality reduced image data corresponding to the target pixel is performed. Further, in step S66, the prediction calculation unit 135 outputs the pixel value of the pixel of the high-quality reduced image data obtained by performing the predetermined prediction calculation, and the process proceeds to step S67.

ステップS67において、予測タップ抽出部131は、注目ブロックすべての画素を、注目画素としたか否かを判定する。   In step S <b> 67, the prediction tap extraction unit 131 determines whether or not all the pixels of the target block are the target pixels.

ステップS67において、注目ブロックすべての画素を、注目画素としていないと判定された場合、処理は、ステップS61に戻り、予測タップ抽出部131は、注目ブロックの各画素のうちの、まだ注目画素とされていない画素を、注目画素として、処理は、ステップS62に進み、以下、同様の処理を繰り返す。   If it is determined in step S67 that all the pixels of the target block are not the target pixel, the process returns to step S61, and the prediction tap extraction unit 131 sets the target pixel among the pixels of the target block. The process proceeds to step S62 with a pixel that has not been processed as a target pixel, and the same process is repeated thereafter.

一方、ステップS67において、注目ブロックすべての画素を、注目画素としたと判定された場合、処理は、ステップS68に進む。   On the other hand, if it is determined in step S67 that all the pixels of the target block are the target pixels, the process proceeds to step S68.

ステップS68において、予測タップ抽出部131は、画像縮小フィルタ101から供給される縮小画像データの8×8画素のブロックすべてを、注目ブロックとしたか否かを判定する。   In step S <b> 68, the prediction tap extraction unit 131 determines whether all the 8 × 8 pixel blocks of the reduced image data supplied from the image reduction filter 101 have been used as the target block.

ステップS68において、画像縮小フィルタ101から供給される縮小画像データの8×8画素のブロックすべてを、注目ブロックとしていないと判定された場合、処理は、ステップS61に戻り、予測タップ抽出部131は、画像縮小フィルタ101から供給される縮小画像データから、まだ注目ブロックとして選択されていないブロックを、注目ブロックとして新たに選択し、さらに、注目ブロックの画素から、注目画素を選択して、処理は、ステップS62に進み、以下、同様の処理を繰り返す。   If it is determined in step S68 that all the 8 × 8 pixel blocks of the reduced image data supplied from the image reduction filter 101 are not the target block, the process returns to step S61, and the prediction tap extraction unit 131 From the reduced image data supplied from the image reduction filter 101, a block that has not yet been selected as a target block is newly selected as a target block, and a target pixel is selected from the pixels of the target block. In step S62, the same processing is repeated thereafter.

一方、ステップS68において、画像縮小フィルタ101から供給される縮小画像データの8×8画素のブロックすべてを、注目ブロックとしたと判定された場合、処理は、図5のステップS32にリターンする。   On the other hand, if it is determined in step S68 that all the 8 × 8 pixel blocks of the reduced image data supplied from the image reduction filter 101 are the target blocks, the process returns to step S32 in FIG.

図2の画像処理装置61では、以上のように、MPEG処理単位の8×8画素のブロックが10.666×8画素のブロックになっている1920×1080画素の出力画像データを、横方向に3/4倍することで、MPEG処理単位の10.666×8画素のブロックが8×8画素のブロックとなる1440×1080画素の縮小画像データに縮小し、その縮小画像データを対象として、MPEG復号画像を、ブロック歪などのノイズを除去したノイズ除去画像に変換する画像変換処理を行って、1440×1080画素の高画質縮小画像データを得るので、MPEG処理単位の8×8画素のブロックが10.666×8画素のブロックになっている出力画像データの、その10.666×8画素のブロックの境界に生じているブロック歪などのノイズを、効果的に除去することができる。   In the image processing apparatus 61 of FIG. 2, as described above, output image data of 1920 × 1080 pixels in which an 8 × 8 pixel block of the MPEG processing unit is a block of 10.666 × 8 pixels is horizontally displayed. By multiplying by 3/4, the 10.666 × 8 pixel block of the MPEG processing unit is reduced to reduced image data of 1440 × 1080 pixels, which becomes an 8 × 8 pixel block, and the reduced image data is processed as MPEG. Image conversion processing for converting the decoded image into a noise-removed image from which noise such as block distortion has been removed is performed to obtain high-quality reduced image data of 1440 × 1080 pixels. Therefore, an 8 × 8 pixel block in the MPEG processing unit is obtained. Effectively removes noise such as block distortion that occurs at the boundary of the 10.666 × 8 pixel block from the output image data that is a 10.666 × 8 pixel block Can.

次に、図4の予測演算部135における予測演算と、係数記憶部134に記憶されたタップ係数の学習について説明する。   Next, prediction calculation in the prediction calculation unit 135 in FIG. 4 and learning of tap coefficients stored in the coefficient storage unit 134 will be described.

いま、8×8画素のブロック単位で復号されたMPEG復号画像から予測タップを抽出し、その予測タップとタップ係数とを用いて、MPEG復号画像からブロック歪などのノイズを除去した高画質のノイズ除去画像の画素の画素値を、所定の予測演算によって求める(予測する)ことを考える。   Now, a prediction tap is extracted from an MPEG decoded image decoded in block units of 8 × 8 pixels, and noise such as block distortion is removed from the MPEG decoded image using the prediction tap and tap coefficient. Consider obtaining (predicting) a pixel value of a pixel of a removed image by a predetermined prediction calculation.

所定の予測演算として、例えば、線形1次予測演算を採用することとすると、高画質のノイズ除去画像の画素(以下、適宜、高画質画素という)の画素値yは、次の線形1次式によって求められることになる。   As the predetermined prediction calculation, for example, when linear primary prediction calculation is adopted, a pixel value y of a pixel of a high-quality noise-removed image (hereinafter, appropriately referred to as a high-quality pixel) is expressed by the following linear linear expression Will be required.

Figure 0004770704
・・・(2)
Figure 0004770704
... (2)

但し、式(2)において、xnは、高画質画素yについての予測タップを構成するn番目のMPEG復号画像の画素(以下、適宜、復号画素という)の画素値を表し、wnは、n番目の復号画素(の画素値)と乗算されるn番目のタップ係数を表す。なお、式(2)では、予測タップが、N個の復号画素x1,x2,・・・,xNで構成されるものとしている。 However, in Expression (2), x n represents the pixel value of the pixel of the n-th MPEG decoded image (hereinafter referred to as a decoded pixel as appropriate) that constitutes the prediction tap for the high-quality pixel y, and w n is It represents the nth tap coefficient multiplied by the nth decoded pixel (the pixel value thereof). In equation (2), the prediction tap is assumed to be composed of N decoded pixels x 1 , x 2 ,..., X N.

ここで、高画質画素の画素値yは、式(2)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。   Here, the pixel value y of the high-quality pixel can be obtained not by the linear primary expression shown in Expression (2) but by a higher-order expression of the second or higher order.

いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(2)によって得られるその真値ykの予測値をyk'と表すと、その予測誤差ekは、次式で表される。 Now, when the true value of the pixel value of the high-quality pixel of the k-th sample is expressed as y k and the predicted value of the true value y k obtained by Expression (2) is expressed as y k ′, the prediction error e k Is expressed by the following equation.

Figure 0004770704
・・・(3)
Figure 0004770704
... (3)

いま、式(3)の予測値yk'は、式(2)にしたがって求められるため、式(3)のyk'を、式(2)にしたがって置き換えると、次式が得られる。 Now, since the predicted value y k ′ of equation (3) is obtained according to equation (2), the following equation is obtained by replacing y k ′ of equation (3) according to equation (2).

Figure 0004770704
・・・(4)
Figure 0004770704
... (4)

但し、式(4)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の復号画素を表す。 In Equation (4), x n, k represents the nth decoded pixel that constitutes the prediction tap for the high quality pixel of the kth sample.

式(4)(または式(3))の予測誤差ekを0とするタップ係数wnが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのようなタップ係数wnを求めることは、一般には困難である。 Tap coefficient w n for the prediction error e k 0 of the formula (4) (or formula (3)) is, is the optimal for predicting the high-quality pixel, for all the high-quality pixel, such In general, it is difficult to obtain a large tap coefficient w n .

そこで、タップ係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適なタップ係数wnは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as the standard for indicating that the tap coefficient w n is optimal, for example, when adopting the method of least squares, optimal tap coefficient w n, the sum E of square errors expressed by the following formula It can be obtained by minimizing.

Figure 0004770704
・・・(5)
Figure 0004770704
... (5)

但し、式(5)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する復号画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。 However, in Equation (5), K is a decoded pixel x 1, k , x 2, k ,..., X N, which constitutes a prediction tap for the high quality pixel y k and the high quality pixel y k . This represents the number of samples in the set with k (the number of samples for learning).

式(5)の自乗誤差の総和Eの最小値(極小値)は、式(6)に示すように、総和Eをタップ係数wnで偏微分したものを0とするwnによって与えられる。 The minimum value of the sum E of square errors of Equation (5) (minimum value), as shown in equation (6) is given a material obtained by partially differentiating the sum E with the tap coefficient w n by w n to 0.

Figure 0004770704
・・・(6)
Figure 0004770704
... (6)

一方、上述の式(4)をタップ係数wnで偏微分すると、次式が得られる。 On the other hand, when the partial differentiation of the above formula (4) with the tap coefficient w n, the following equation is obtained.

Figure 0004770704
・・・(7)
Figure 0004770704
... (7)

式(6)と式(7)から、次式が得られる。   From the equations (6) and (7), the following equation is obtained.

Figure 0004770704

・・・(8)
Figure 0004770704

... (8)

式(8)のekに、式(4)を代入することにより、式(8)は、式(9)に示す正規方程式で表すことができる。 By substituting equation (4) into e k in equation (8), equation (8) can be expressed by the normal equation shown in equation (9).

Figure 0004770704
・・・(9)
Figure 0004770704
... (9)

式(9)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、タップ係数wnについて解くことができる。 Normal equation of Equation (9), for example, by using a like sweeping-out method (Gauss-Jordan elimination method) can be solved for the tap coefficient w n.

式(9)の正規方程式を、クラスごとにたてて解くことにより、最適なタップ係数(ここでは、自乗誤差の総和Eを最小にするタップ係数)wnを、クラスごとに求めることができる。 The normal equation of Equation (9), by solving for each class, the optimal tap coefficient (here, the tap coefficient that minimizes the sum E of square errors) to w n, can be found for each class .

図4の画像変換部102では、以上のようなクラスごとのタップ係数を用いて、式(2)の演算を行うことにより、1440×1080画素の縮小画像データが、1440×1080画素の高画質縮小画像データに変換される。   In the image conversion unit 102 in FIG. 4, the reduced image data of 1440 × 1080 pixels is converted into high image quality of 1440 × 1080 pixels by performing the calculation of Expression (2) using the tap coefficients for each class as described above. Converted to reduced image data.

次に、図7は、式(9)の正規方程式をクラスごとにたてて解くことによりタップ係数wnを求める学習を行う学習装置の構成例を示すブロック図である。 Next, FIG. 7 is a block diagram showing a configuration example of a learning apparatus that performs learning for determining the tap coefficient w n by solving the normal equations in equation (9) for each class.

学習装置161は、学習用画像記憶部191、ノイズ付加部192、予測タップ抽出部193、クラスタップ抽出部194、クラス分類部195、足し込み部196、およびタップ係数算出部197により構成される。   The learning device 161 includes a learning image storage unit 191, a noise addition unit 192, a prediction tap extraction unit 193, a class tap extraction unit 194, a class classification unit 195, an addition unit 196, and a tap coefficient calculation unit 197.

学習用画像記憶部191には、タップ係数wnの学習に用いられる画像である学習用画像が記憶されている。 The learning image storage unit 191, the learning image is stored as an image used for learning of the tap coefficient w n.

ここで、学習用画像は、上述のノイズ除去画像に相当する画像である教師画像である。   Here, the learning image is a teacher image that is an image corresponding to the above-described noise-removed image.

ノイズ付加部192は、学習用画像記憶部191から教師画像を読み出し、その教師画像をMPEG符号化し、さらに、MPEG復号することで、画像変換部102が画像変換処理の対象とする、MPEG処理単位のブロックが8×8画素のブロックとなっているMPEG復号画像に相当する画像である生徒画像を生成する。   The noise adding unit 192 reads out the teacher image from the learning image storage unit 191, MPEG-encodes the teacher image, and further performs MPEG decoding so that the image conversion unit 102 is an object of the image conversion process. A student image which is an image corresponding to an MPEG decoded image in which the block is an 8 × 8 pixel block is generated.

また、ノイズ付加部192は、生徒画像を、予測タップ抽出部193およびクラスタップ抽出部194に供給する。   In addition, the noise adding unit 192 supplies the student image to the prediction tap extracting unit 193 and the class tap extracting unit 194.

予測タップ抽出部193は、ノイズ付加部192から供給される生徒画像の8×8画素のブロックを、順次、注目ブロックとして選択し、さらに、その注目ブロックの各画素を、例えば、ラスタスキャン順に、順次、注目画素として選択する。   The prediction tap extraction unit 193 sequentially selects the 8 × 8 pixel block of the student image supplied from the noise addition unit 192 as a target block, and further selects each pixel of the target block in the raster scan order, for example. Sequentially, the pixel of interest is selected.

さらに、予測タップ抽出部193は、注目画素について、ノイズ付加部192から供給される生徒画像を構成する画素のうちの所定のものを抽出することにより、図4の予測タップ抽出部131が注目画素について得る予測タップと同一のタップ構造の予測タップ(図4の予測タップ抽出部131が注目画素について得る予測タップを構成する画素と同一の位置関係にある生徒画像の画素からなる予測タップ)を得て、足し込み部196に供給する。   Furthermore, the prediction tap extraction unit 193 extracts a predetermined one of the pixels constituting the student image supplied from the noise addition unit 192 for the target pixel, so that the prediction tap extraction unit 131 in FIG. A prediction tap having the same tap structure as the prediction tap obtained for the prediction tap (prediction tap composed of pixels of the student image having the same positional relationship as the pixels constituting the prediction tap obtained by the prediction tap extraction unit 131 in FIG. 4 for the target pixel) is obtained. Then, it is supplied to the adding portion 196.

クラスタップ抽出部194は、注目画素について、ノイズ付加部192から供給される生徒画像を構成する画素のうちの所定のものを抽出することにより、図4のクラスタップ抽出部132が注目画素について得るクラスタップと同一のタップ構造のクラスタップ(図4のクラスタップ抽出部132が注目画素について得るクラスタップを構成する画素と同一の位置関係にある生徒画像の画素からなるクラスタップ)を得て、クラス分類部195に供給する。   The class tap extraction unit 194 extracts a predetermined pixel among the pixels constituting the student image supplied from the noise addition unit 192 for the target pixel, so that the class tap extraction unit 132 in FIG. 4 obtains the target pixel. Obtaining a class tap having the same tap structure as the class tap (a class tap made up of student image pixels having the same positional relationship as the pixels constituting the class tap obtained by the class tap extraction unit 132 of FIG. 4 for the target pixel), The data is supplied to the class classification unit 195.

クラス分類部195は、クラスタップ抽出部194が出力するクラスタップに基づき、図4のクラス分類部133と同一のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部196に出力する。   The class classification unit 195 performs the same class classification as the class classification unit 133 in FIG. 4 based on the class tap output from the class tap extraction unit 194, and adds the class code corresponding to the resulting class to the addition unit 196. Output to.

足し込み部196は、学習用画像記憶部191から教師画像を読み出し、注目画素に対応する、教師画像の画素(以下、適宜、教師画素という)と、予測タップ抽出部193から供給される注目画素についての予測タップを構成する生徒画像の画素(以下、適宜、生徒画素という)とを対象とした足し込みを、クラス分類部195から供給されるクラスコードごとに行う。   The adding unit 196 reads out the teacher image from the learning image storage unit 191, the pixel of the teacher image corresponding to the pixel of interest (hereinafter referred to as “teacher pixel” as appropriate), and the pixel of interest supplied from the prediction tap extraction unit 193. For each class code supplied from the class classification unit 195, addition is performed on the pixel of the student image (hereinafter referred to as “student pixel” as appropriate) constituting the prediction tap.

即ち、足し込み部196には、学習用画像記憶部191に記憶された教師画像の画素のうちの、注目画素に対応する教師画素(の画素値)yk、予測タップ抽出部193が出力する予測タップを構成する生徒画素(の画素値)xn,k、クラス分類部195が出力する、注目画素のクラスを表すクラスコードが供給される。 That is, of the teacher image pixels stored in the learning image storage unit 191, the teacher pixel (its pixel value) y k corresponding to the target pixel and the prediction tap extraction unit 193 output to the adding unit 196. The student pixel (pixel value) x n, k constituting the prediction tap and the class code representing the class of the pixel of interest output from the class classification unit 195 are supplied.

そして、足し込み部196は、クラス分類部195から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒画素)xn,kを用い、式(9)の左辺の行列における生徒画素どうしの乗算(xn,kn',k)と、サメーション(Σ)に相当する演算を行う。 Then, the adding unit 196 uses the prediction tap (student pixel) x n, k for each class corresponding to the class code supplied from the class classification unit 195 , and uses the student pixels in the matrix on the left side of Equation (9). (X n, k x n ′, k ) and computation corresponding to summation (Σ).

さらに、足し込み部196は、やはり、クラス分類部195から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒画素)xn,kと教師画素ykを用い、式(9)の右辺のベクトルにおける生徒画素xn,kおよび教師画素ykの乗算(xn,kk)と、サメーション(Σ)に相当する演算を行う。 Furthermore, the adding unit 196 also uses the prediction tap (student pixel) x n, k and the teacher pixel y k for each class corresponding to the class code supplied from the class classification unit 195, and the equation (9). Multiplication (x n, k y k ) of the student pixel x n, k and teacher pixel y k in the right-hand vector and an operation corresponding to summation (Σ) are performed.

即ち、足し込み部196は、前回の、注目画素について求められた式(9)における左辺の行列のコンポーネント(Σxn,kn',k)と、右辺のベクトルのコンポーネント(Σxn,kk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kn',k)またはベクトルのコンポーネント(Σxn,kk)に対して、新たな注目画素について、教師画素yk+1および生徒画素xn,k+1を用いて計算される、対応するコンポーネントxn,k+1n',k+1またはxn,k+1k+1を、それぞれ足し込む(式(9)のサメーションで表される加算を行う)。 That is, the adding unit 196 performs the left-side matrix component (Σx n, k x n ′, k ) and the right-side vector component (Σx n, k ) in Equation (9) previously obtained for the target pixel. y k ) is stored in its built-in memory (not shown), and the matrix component (Σx n, k x n ′, k ) or vector component (Σx n, k y k ) The corresponding component x n, k + 1 x n ′, k + 1 or x n, k calculated for the new pixel of interest using the teacher pixel y k + 1 and the student pixel x n, k + 1 +1 y k + 1 is added respectively (addition represented by the summation of Expression (9) is performed).

そして、足し込み部196は、学習用画像記憶部191に記憶された教師画像から生成された生徒画像すべての生徒画素を注目画素として、上述の足し込みを行うことにより、各クラスについて、式(9)に示した正規方程式をたてると、その正規方程式を、タップ係数算出部197に供給する。   Then, the addition unit 196 performs the above-described addition using all the student pixels of the student images generated from the teacher images stored in the learning image storage unit 191 as the target pixel, thereby obtaining an expression ( When the normal equation shown in 9) is established, the normal equation is supplied to the tap coefficient calculation unit 197.

タップ係数算出部197は、足し込み部196から供給される各クラスについての正規方程式を解くことにより、各クラスについて、最適なタップ係数wnを求めて出力する。 Tap coefficient calculation unit 197 solves the normal equations for each class supplied from the adder 196, for each class, and outputs the determined optimal tap coefficient w n.

次に、図8のフローチャートを参照して、図7の学習装置161における学習処理を説明する。   Next, the learning process in the learning device 161 in FIG. 7 will be described with reference to the flowchart in FIG.

ステップS101において、ノイズ付加部192は、学習用画像記憶部191から教師画像を読み出し、その教師画像をMPEG符号化し、さらに、MPEG復号することで、画像変換部102が画像変換処理の対象とする、MPEG処理単位のブロックが8×8画素のブロックとなっているMPEG復号画像に相当する画像である生徒画像を生成する。   In step S <b> 101, the noise adding unit 192 reads out the teacher image from the learning image storage unit 191, MPEG-encodes the teacher image, and further performs MPEG decoding so that the image conversion unit 102 can perform image conversion processing. Then, a student image that is an image corresponding to an MPEG decoded image in which the block of the MPEG processing unit is an 8 × 8 pixel block is generated.

ノイズ付加部192は、生徒画像を、予測タップ抽出部193およびクラスタップ抽出部194に供給して、処理は、ステップS101からステップS102に進む。   The noise adding unit 192 supplies the student image to the prediction tap extracting unit 193 and the class tap extracting unit 194, and the process proceeds from step S101 to step S102.

ステップS102において、予測タップ抽出部193は、ノイズ付加部192から供給される生徒画像の8×8画素のブロックを、順次、注目ブロックとして選択し、さらに、その注目ブロックの各画素を、例えば、ラスタスキャン順に、順次、注目画素として選択し、処理は、ステップS103に進む。   In step S102, the prediction tap extraction unit 193 sequentially selects the 8 × 8 pixel block of the student image supplied from the noise addition unit 192 as a target block, and further selects each pixel of the target block as, for example, The pixels are selected as the target pixel sequentially in the raster scan order, and the process proceeds to step S103.

ステップS103において、予測タップ抽出部193は、注目画素について、ノイズ付加部192から供給される生徒画像を構成する画素のうちの所定のものを抽出することにより、図4の予測タップ抽出部131が注目画素について得る予測タップと同一のタップ構造の予測タップを得て、足し込み部196に供給する。   In step S <b> 103, the prediction tap extraction unit 193 extracts a predetermined one of the pixels constituting the student image supplied from the noise addition unit 192 for the target pixel, so that the prediction tap extraction unit 131 of FIG. A prediction tap having the same tap structure as the prediction tap obtained for the target pixel is obtained and supplied to the adding unit 196.

ステップS103の処理の終了後、処理は、ステップS104に進み、クラスタップ抽出部194は、注目画素について、ノイズ付加部192から供給される生徒画像を構成する画素のうちの所定のものを抽出することにより、図4のクラスタップ抽出部132が注目画素について得るクラスタップと同一のタップ構造のクラスタップを得て、クラス分類部195に供給する。   After the process of step S103 ends, the process proceeds to step S104, and the class tap extraction unit 194 extracts a predetermined one of the pixels constituting the student image supplied from the noise addition unit 192 for the target pixel. As a result, the class tap having the same tap structure as the class tap obtained by the class tap extraction unit 132 in FIG. 4 for the target pixel is obtained and supplied to the class classification unit 195.

その後、処理は、ステップS104からステップS105に進み、クラス分類部195は、クラスタップ抽出部194が出力するクラスタップに基づき、図4のクラス分類部133と同一のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部196に出力して、処理は、ステップS106に進む。   Thereafter, the process proceeds from step S104 to step S105, and the class classification unit 195 performs the same class classification as the class classification unit 133 in FIG. 4 based on the class tap output by the class tap extraction unit 194, and obtains the result. The class code corresponding to the class to be output is output to the adding unit 196, and the process proceeds to step S106.

ステップS106において、足し込み部196は、学習用画像記憶部191から教師画像を読み出し、注目画素に対応する教師画素と、予測タップ抽出部193から供給される注目画素についての予測タップを構成する生徒画素とを対象とした足し込みを、クラス分類部195から供給されるクラスコードごとに行い、処理は、ステップS107に進む。   In step S <b> 106, the adding unit 196 reads the teacher image from the learning image storage unit 191, and configures the teacher pixel corresponding to the target pixel and the prediction tap for the target pixel supplied from the prediction tap extraction unit 193. The addition for pixels is performed for each class code supplied from the class classification unit 195, and the process proceeds to step S107.

ステップS107において、予測タップ抽出部193は、注目ブロックすべての画素を、注目画素としたか否かを判定する。   In step S107, the prediction tap extraction unit 193 determines whether or not all the pixels of the target block are the target pixels.

ステップS107において、注目ブロックすべての画素を、注目画素としていないと判定された場合、処理は、ステップS102に戻り、予測タップ抽出部193は、注目ブロックの各画素のうちの、まだ注目画素とされていない画素を、注目画素として、処理は、ステップS103に進み、以下、同様の処理を繰り返す。   If it is determined in step S107 that all the pixels of the target block are not the target pixels, the process returns to step S102, and the prediction tap extraction unit 193 determines that the target pixel is still the target pixel among the pixels of the target block. The process proceeds to step S103 with the pixel that has not been processed as the target pixel, and the same process is repeated thereafter.

一方、ステップS107において、注目ブロックすべての画素を、注目画素としたと判定された場合、処理は、ステップS108に進む。   On the other hand, when it is determined in step S107 that all pixels of the target block are the target pixels, the process proceeds to step S108.

ステップS108において、予測タップ抽出部193は、ノイズ付加部192から供給される生徒画像の8×8画素のブロックすべてを、注目ブロックとしたか否かを判定する。   In step S <b> 108, the prediction tap extraction unit 193 determines whether all the 8 × 8 pixel blocks of the student image supplied from the noise addition unit 192 have been set as the target block.

ステップS108において、ノイズ付加部192から供給される生徒画像の8×8画素のブロックすべてを、注目ブロックとしていないと判定された場合、処理は、ステップS102に戻り、予測タップ抽出部193は、ノイズ付加部192から供給される生徒画像から、まだ注目ブロックとして選択されていないブロックを、注目ブロックとして新たに選択し、さらに、注目ブロックの画素から、注目画素を選択して、処理は、ステップS103に進み、以下、同様の処理を繰り返す。   If it is determined in step S108 that all the 8 × 8 pixel blocks of the student image supplied from the noise adding unit 192 are not the target block, the process returns to step S102, and the prediction tap extracting unit 193 From the student image supplied from the adding unit 192, a block not yet selected as a target block is newly selected as a target block, and a target pixel is selected from the pixels of the target block. The same processing is repeated thereafter.

一方、ステップS108において、ノイズ付加部192から供給される生徒画像の8×8画素のブロックすべてを、注目ブロックとしたと判定された場合、即ち、足し込み部196においては、学習用画像記憶部191に記憶された教師画像から生成された生徒画像すべての生徒画素を注目画素として、上述の足し込みを行うことにより、各クラスについて、式(9)に示した正規方程式がたてられた場合、足し込み部196は、その正規方程式を、タップ係数算出部197に供給して、処理は、ステップS109に進む。   On the other hand, in step S108, when it is determined that all the 8 × 8 pixel blocks of the student image supplied from the noise adding unit 192 are the target blocks, that is, in the adding unit 196, the learning image storage unit When the normal equation shown in Expression (9) is established for each class by performing the above addition using all the student pixels of the student image generated from the teacher image stored in 191 as the target pixel. The adding unit 196 supplies the normal equation to the tap coefficient calculating unit 197, and the process proceeds to step S109.

ステップS109において、タップ係数算出部197は、足し込み部196から供給される各クラスについての正規方程式を解くことにより、各クラスについて、最適なタップ係数wnを求めて出力し、処理は、終了する。 In step S109, the tap coefficient calculation unit 197 obtains and outputs the optimum tap coefficient w n for each class by solving the normal equation for each class supplied from the addition unit 196, and the process ends. To do.

図9は、本発明を適用した画像処理装置の他の一実施の形態を示すブロック図である。   FIG. 9 is a block diagram showing another embodiment of an image processing apparatus to which the present invention is applied.

なお、図中、図2の場合に対応する部分については同一の符号を付してあり、以下、その説明は、適宜省略する。   In the figure, portions corresponding to those in FIG. 2 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

即ち、図9の画像処理装置221は、ブロックサイズ検出部251、ブロックサイズ判定部252、および図2の画像変換部102と同一の処理を行う画像変換部253が新たに設けられているほかは、図2の画像処理装置61と同様に構成されている。   That is, the image processing apparatus 221 in FIG. 9 is provided with a block size detection unit 251, a block size determination unit 252, and an image conversion unit 253 that performs the same processing as the image conversion unit 102 in FIG. The configuration is the same as that of the image processing apparatus 61 of FIG.

図9の画像処理装置221には、8×8画素のブロック単位でMPEG復号を行うデコーダが出力する出力画像データが供給される。   The image processing apparatus 221 in FIG. 9 is supplied with output image data output from a decoder that performs MPEG decoding in units of 8 × 8 pixel blocks.

ここで、MPEG復号を行うデコーダには、MPEG復号によって直接得られるMPEG復号画像を、出力画像データとして出力するデコーダと、図1のデコーダ32のように、MPEG復号によって直接得られるMPEG復号画像を拡大して、MPEG処理単位の8×8画素のブロックが、10.666×8画素のブロックとなっている拡大MPEG復号画像を、出力画像データとして出力するデコーダがある。   Here, a decoder that performs MPEG decoding includes a decoder that outputs an MPEG decoded image directly obtained by MPEG decoding as output image data, and an MPEG decoded image that is directly obtained by MPEG decoding as in the decoder 32 of FIG. There is a decoder that outputs, as output image data, an enlarged MPEG decoded image in which an 8 × 8 pixel block in an MPEG processing unit is a 10.666 × 8 pixel block.

デコーダから画像処理装置221に供給される出力画像データは、ブロックサイズ検出部251に供給される。   Output image data supplied from the decoder to the image processing device 221 is supplied to the block size detection unit 251.

ブロックサイズ検出部251は、そこに供給された出力画像データにおけるブロックのブロックサイズを検出し、出力画像データとともに、ブロックサイズ判定部252に供給する。   The block size detection unit 251 detects the block size of the block in the output image data supplied thereto, and supplies the block size determination unit 252 together with the output image data.

ブロックサイズ判定部252は、ブロックサイズ検出部251から供給された出力画像データと、その出力画像データにおけるブロックのブロックサイズを取得する。   The block size determination unit 252 acquires the output image data supplied from the block size detection unit 251 and the block size of the block in the output image data.

また、ブロックサイズ判定部252は、ブロックサイズ検出部251から取得した出力画像データにおけるブロックのブロックサイズが、MPEG復号画像における8×8画素のブロックのブロックサイズと一致するか、または、拡大MPEG復号画像における10.666×8画素のブロックのブロックサイズと一致するかを判定する。   Further, the block size determination unit 252 matches the block size of the block in the output image data acquired from the block size detection unit 251 with the block size of the 8 × 8 pixel block in the MPEG decoded image, or the expanded MPEG decoding. It is determined whether or not it matches the block size of a 10.666 × 8 pixel block in the image.

出力画像データにおけるブロックのブロックサイズが、MPEG復号画像における8×8画素のブロックのブロックサイズと一致する場合、ブロックサイズ判定部252は、ブロックサイズ検出部251から取得した出力画像データを、画像変換部253に供給する。   When the block size of the block in the output image data matches the block size of the 8 × 8 pixel block in the MPEG decoded image, the block size determination unit 252 performs image conversion on the output image data acquired from the block size detection unit 251. Supplied to the unit 253.

一方、出力画像データにおけるブロックのブロックサイズが、拡大MPEG復号画像における10.666×8画素のブロックのブロックサイズと一致する場合、ブロックサイズ判定部252は、ブロックサイズ検出部251から取得した出力画像データを、画像縮小フィルタ101に供給する。   On the other hand, when the block size of the block in the output image data matches the block size of the block of 10.666 × 8 pixels in the enlarged MPEG decoded image, the block size determination unit 252 outputs the output image acquired from the block size detection unit 251. Data is supplied to the image reduction filter 101.

画像変換部253は、図2の画像変換部102と同様に、ブロックサイズ判定部252からの出力画像データ、即ち、MPEG復号画像を対象として、画像変換処理を行うことで、ブロックサイズ判定部252から供給された出力画像データを、その出力画像データからブロック歪などのノイズを除去した高画質の画像データに変換して出力する。   Similar to the image conversion unit 102 in FIG. 2, the image conversion unit 253 performs an image conversion process on the output image data from the block size determination unit 252, that is, the MPEG decoded image, so that the block size determination unit 252. Is converted into high-quality image data from which noise such as block distortion has been removed from the output image data.

次に、図10のフローチャートを参照して、図9の画像処理装置221が行う画像処理を説明する。   Next, image processing performed by the image processing apparatus 221 in FIG. 9 will be described with reference to the flowchart in FIG.

ステップS131において、ブロックサイズ検出部251は、そこに供給された出力画像データにおけるブロックのブロックサイズを検出し、出力画像データとともに、ブロックサイズ判定部252に供給する。   In step S131, the block size detection unit 251 detects the block size of the block in the output image data supplied thereto, and supplies the block size determination unit 252 together with the output image data.

ブロックサイズ判定部252は、ブロックサイズ検出部251から供給された出力画像データと、その出力画像データにおけるブロックのブロックサイズを取得して、処理は、ステップS131からステップS132に進む。   The block size determination unit 252 acquires the output image data supplied from the block size detection unit 251 and the block size of the block in the output image data, and the process proceeds from step S131 to step S132.

ステップS132において、ブロックサイズ判定部252は、ブロックサイズ検出部251から取得した出力画像データにおけるブロックのブロックサイズが、MPEG復号画像における8×8画素のブロックのブロックサイズ、または、拡大MPEG復号画像における10.666×8画素のブロックのブロックサイズと一致するかを判定する。   In step S132, the block size determination unit 252 determines that the block size of the block in the output image data acquired from the block size detection unit 251 is the block size of an 8 × 8 pixel block in the MPEG decoded image or the expanded MPEG decoded image. It is determined whether or not it matches the block size of the 10.666 × 8 pixel block.

ステップS132において、出力画像データにおけるブロックのブロックサイズが、拡大MPEG復号画像における10.666×8画素のブロックのブロックサイズと一致する場合、ブロックサイズ判定部252は、ブロックサイズ検出部251から取得した出力画像データを、画像縮小フィルタ101に供給して、処理は、ステップS133に進み、ステップS133乃至ステップS135において、図5のステップS31乃至ステップS33と同様の処理が行われ、処理は、終了する。   In step S132, when the block size of the block in the output image data matches the block size of the block of 10.666 × 8 pixels in the enlarged MPEG decoded image, the block size determination unit 252 acquires from the block size detection unit 251. The output image data is supplied to the image reduction filter 101, and the process proceeds to step S133. In steps S133 to S135, the same processes as in steps S31 to S33 in FIG. 5 are performed, and the process ends. .

一方、ステップS132において、出力画像データにおけるブロックのブロックサイズが、MPEG復号画像における8×8画素のブロックのブロックサイズと一致する場合、ブロックサイズ判定部252は、ブロックサイズ検出部251から取得した出力画像データを、画像変換部253に供給して、処理は、ステップS136に進む。   On the other hand, in step S132, when the block size of the block in the output image data matches the block size of the 8 × 8 pixel block in the MPEG decoded image, the block size determination unit 252 outputs the output acquired from the block size detection unit 251. The image data is supplied to the image conversion unit 253, and the process proceeds to step S136.

ステップS136において、画像変換部253は、図2の画像変換部102と同様に、ブロックサイズ判定部252からの出力画像データ、即ち、MPEG復号画像を対象として、画像変換処理を行うことで、ブロックサイズ判定部252から供給された出力画像データを、その出力画像データからブロック歪などのノイズを除去した高画質の画像データに変換して出力し、処理は、終了する。   In step S136, the image conversion unit 253 performs image conversion processing on the output image data from the block size determination unit 252, that is, the MPEG decoded image, in the same manner as the image conversion unit 102 in FIG. The output image data supplied from the size determination unit 252 is converted into high-quality image data from which noise such as block distortion has been removed from the output image data, and the processing ends.

以上のように図9の画像処理装置221では、出力画像データにおけるブロックのブロックサイズを判定し、出力画像データにおけるブロックのブロックサイズがMPEG復号画像におけるブロックのブロックサイズと一致する場合には、その出力画像データをそのまま画像変換処理の対象とし、異なる場合、即ち、拡大MPEG復号画像におけるブロックのブロックサイズと一致する場合には、出力画像データを縮小し、その縮小後の画像を画像変換処理の対象とするようにしたので、出力画像データが、MPEG復号画像、または、拡大MPEG復号画像のうちのいずれであっても、効果的にブロック歪やモスキートノイズなどのノイズを除去することができる。   As described above, the image processing apparatus 221 in FIG. 9 determines the block size of the block in the output image data, and if the block size of the block in the output image data matches the block size of the block in the MPEG decoded image, If the output image data is subjected to image conversion processing as it is and is different, that is, if it matches the block size of the block in the enlarged MPEG decoded image, the output image data is reduced, and the reduced image is subjected to image conversion processing. Since the output image data is either an MPEG decoded image or an enlarged MPEG decoded image, noise such as block distortion and mosquito noise can be effectively removed.

なお、図9では、画像変換部102のほかに、画像変換部102と同一の画像変換処理を行う画像変換部253を設けるようにしたが、出力画像データにおけるブロックのブロックサイズが、拡大MPEG復号画像における10.666×8画素のブロックのブロックサイズと一致する場合には、出力画像データをブロックサイズ判定部252から画像縮小フィルタ101に供給し、出力画像データにおけるブロックのブロックサイズが、MPEG復号画像における8×8画素のブロックのブロックサイズと一致する場合には、出力画像データを、ブロックサイズ判定部252から、画像縮小フィルタ101をバイパスして、画像変換部102に供給するとともに、画像変換部102の画像変換処理の結果得られる画像データを、画像拡大フィルタ103をバイパスして出力するようにすることにより、画像変換部253を設けずに、画像処理装置221を構成することができる。   In FIG. 9, in addition to the image conversion unit 102, an image conversion unit 253 that performs the same image conversion processing as the image conversion unit 102 is provided. However, the block size of the block in the output image data is expanded MPEG decoding. When the block size of the block of 10.666 × 8 pixels in the image matches, the output image data is supplied from the block size determination unit 252 to the image reduction filter 101, and the block size of the block in the output image data is MPEG decoded. When the block size of the block of 8 × 8 pixels in the image matches, the output image data is supplied from the block size determination unit 252 to the image conversion unit 102, bypassing the image reduction filter 101, and image conversion is performed. The image data obtained as a result of the image conversion processing of the unit 102 is converted into an image enlargement filter 103. By bypassing to so as to output, without providing the image converting unit 253, it is possible to configure the image processing apparatus 221.

図11および図12は、ブロックサイズが10.666×8の出力画像データ、つまり、拡大MPEG復号画像を対象として、画像変換部102による画像変換処理を行った場合と、画像処理装置61による画像処理を行った場合とのシミュレーションの結果を示す図である。   11 and 12 show a case where image conversion processing by the image conversion unit 102 is performed on output image data having a block size of 10.666 × 8, that is, an enlarged MPEG decoded image, and an image by the image processing device 61. It is a figure which shows the result of the simulation with the case where a process is performed.

なお、シミュレーションでは、7本のコンテンツの原画像pic1乃至pic7を用意し、その原画像pic1乃至pic7を、図1で説明したように処理することにより、出力画像データとしての拡大MPEG復号画像を得て、画像変換部102による画像変換処理と、画像処理装置61による画像処理の対象とした。   In the simulation, original images pic1 to pic7 of seven contents are prepared, and the original images pic1 to pic7 are processed as described with reference to FIG. 1 to obtain an enlarged MPEG decoded image as output image data. Thus, the image conversion processing by the image conversion unit 102 and the image processing by the image processing apparatus 61 are set as targets.

また、シミュレーションは、ビットレートが12Mbps(mega bits per second)と15Mbpsとの2種類の拡大MPEG復号画像を対象として行った。   The simulation was performed on two types of enlarged MPEG decoded images with a bit rate of 12 Mbps (mega bits per second) and 15 Mbps.

図11は、ビットレートが12Mbpsの拡大MPEG復号画像を対象として、画像変換部102による画像変換処理と、画像処理装置61による画像処理とを行った結果得られる画像それぞれの(原画像と比較した)SNR(signal to noise Ratio)を示している。   FIG. 11 illustrates an image obtained by performing image conversion processing by the image conversion unit 102 and image processing by the image processing device 61 (compared with an original image) for an enlarged MPEG decoded image having a bit rate of 12 Mbps. ) Indicates SNR (signal to noise ratio).

図12は、ビットレートが15Mbpsの拡大MPEG復号画像を対象として、画像変換部102による画像変換処理と、画像処理装置61による画像処理とを行った結果得られる画像それぞれの(原画像と比較した)SNRを示している。   FIG. 12 illustrates an image obtained by performing image conversion processing by the image conversion unit 102 and image processing by the image processing device 61 for an enlarged MPEG decoded image having a bit rate of 15 Mbps (compared with the original image). ) Indicates SNR.

図11および図12から、画像変換部102による画像変換処理よりも、画像処理装置61による画像処理の方が、SNRが高い(高画質の)画像を得ることができ、従って、ブロック歪やモスキートノイズなどのノイズが効果的に除去されていることがわかる。   From FIG. 11 and FIG. 12, the image processing by the image processing device 61 can obtain an image with a higher SNR (higher image quality) than the image conversion processing by the image conversion unit 102. Therefore, block distortion and mosquito It can be seen that noise such as noise is effectively removed.

次に、上述した図2の画像処理装置61および図9の画像処理装置221、図7の学習装置161が行う一連の処理は、専用のハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、いわゆる組み込み型のコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、プログラム格納媒体からインストールされる。   Next, the series of processing performed by the image processing device 61 in FIG. 2, the image processing device 221 in FIG. 9, and the learning device 161 in FIG. 7 can be executed by dedicated hardware or executed by software. It can also be made. When a series of processing is executed by software, a program constituting the software can execute various functions by installing a so-called embedded computer or various programs. For example, it is installed from a program storage medium in a general-purpose computer or the like.

図13は、上述した一連の処理をプログラムにより実行するコンピュータの構成例を示すブロック図である。   FIG. 13 is a block diagram illustrating a configuration example of a computer that executes the above-described series of processing by a program.

CPU(Central Processing Unit)701は、ROM(Read Only Memory)702、または記憶部708に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)703には、CPU701が実行するプログラムやデータなどが適宜記憶される。これらのCPU701、ROM702、およびRAM703は、バス704により相互に接続されている。   A CPU (Central Processing Unit) 701 executes various processes according to a program stored in a ROM (Read Only Memory) 702 or a storage unit 708. A RAM (Random Access Memory) 703 appropriately stores programs executed by the CPU 701, data, and the like. These CPU 701, ROM 702, and RAM 703 are connected to each other by a bus 704.

CPU701にはまた、バス704を介して入出力インタフェース705が接続されている。入出力インタフェース705には、キーボード、マウス、マイクロホンなどよりなる入力部706、ディスプレイ、スピーカなどよりなる出力部707が接続されている。CPU701は、入力部706から入力される指令に対応して各種の処理を実行する。そして、CPU701は、処理の結果を出力部707に出力する。   An input / output interface 705 is also connected to the CPU 701 via a bus 704. Connected to the input / output interface 705 are an input unit 706 composed of a keyboard, mouse, microphone, and the like, and an output unit 707 composed of a display, a speaker, and the like. The CPU 701 executes various processes in response to commands input from the input unit 706. Then, the CPU 701 outputs the processing result to the output unit 707.

入出力インタフェース705に接続されている記憶部708は、例えばハードディスクからなり、CPU701が実行するプログラムや各種のデータを記憶する。通信部709は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   A storage unit 708 connected to the input / output interface 705 includes, for example, a hard disk, and stores programs executed by the CPU 701 and various data. A communication unit 709 communicates with an external device via a network such as the Internet or a local area network.

また、通信部709を介してプログラムを取得し、記憶部708に記憶してもよい。   A program may be acquired via the communication unit 709 and stored in the storage unit 708.

入出力インタフェース705に接続されているドライブ710は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア711が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部708に転送され、記憶される。   A drive 710 connected to the input / output interface 705 drives a removable medium 711 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the program or data recorded therein. Get etc. The acquired program and data are transferred to and stored in the storage unit 708 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム格納媒体は、図13に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア711、または、プログラムが一時的もしくは永続的に格納されるROM702や、記憶部708を構成するハードディスクなどにより構成される。プログラム格納媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部709を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 13, a program storage medium that stores a program that is installed in a computer and can be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (including Digital Versatile Disc)), magneto-optical disc (including MD (Mini-Disc)), or removable media 711 which is a package medium made of semiconductor memory or the like, or the program is temporary or permanent ROM 702 stored in the hard disk, a hard disk constituting the storage unit 708, and the like. The program is stored in the program storage medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 709 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム格納媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program storage medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series. Or the process performed separately is also included.

ここで、図2の画像処理装置61および図9の画像処理装置221は、例えば、MPEG復号などの所定のブロック単位で復号を行うデコーダが出力する出力画像データを扱う装置、即ち、例えば、テレビジョン受像機や、ハードディスクレコーダ、DVDレコーダなどに適用することができる。   Here, the image processing device 61 in FIG. 2 and the image processing device 221 in FIG. 9 are devices that handle output image data output by a decoder that performs decoding in predetermined block units such as MPEG decoding, for example, a television, for example. The present invention can be applied to John receivers, hard disk recorders, DVD recorders, and the like.

なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The present embodiment is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

地上デジタル放送において行われる処理を説明する図である。It is a figure explaining the process performed in terrestrial digital broadcasting. 本発明を適用した画像処理装置61を示すブロック図である。It is a block diagram which shows the image processing apparatus 61 to which this invention is applied. 画像を拡大または縮小する場合に用いられるLanczosフィルタを示す図である。It is a figure which shows the Lanczos filter used when enlarging or reducing an image. 図2の画像変換部102の詳細な構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a detailed configuration example of an image conversion unit 102 in FIG. 2. 図2の画像処理装置61における画像処理を説明するフローチャートである。6 is a flowchart for explaining image processing in the image processing apparatus 61 in FIG. 2. 図2の画像変換部102が行う画像変換処理を説明するフローチャートである。3 is a flowchart for describing image conversion processing performed by an image conversion unit 102 in FIG. 2. タップ係数wnを求める学習を行う学習装置161を示すブロック図である。It is a block diagram showing a learning device 161 that performs learning for determining a tap coefficient w n. 図7の学習装置161における学習処理を説明するフローチャートである。It is a flowchart explaining the learning process in the learning apparatus 161 of FIG. 本発明を適用した画像処理装置221を示すブロック図である。It is a block diagram which shows the image processing apparatus 221 to which this invention is applied. 図9の画像処理装置221が行う画像処理を説明するフローチャートである。10 is a flowchart illustrating image processing performed by the image processing apparatus 221 in FIG. 9. シミュレーションの結果を示す図である。It is a figure which shows the result of simulation. シミュレーションの結果を示す他の図である。It is another figure which shows the result of simulation. コンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of a computer.

符号の説明Explanation of symbols

61 画像処理装置, 101 画像縮小フィルタ, 102 画像変換部, 103 画像拡大フィルタ, 131 予測タップ抽出部, 132 クラスタップ抽出部, 133 クラス分類部, 134 係数記憶部, 135 予測演算部, 161 学習装置, 191 学習用画像記憶部, 192 ノイズ付加部, 193 予測タップ抽出部, 194 クラスタップ抽出部, 195 クラス分類部, 196 足し込み部, 197 タップ係数算出部, 221 画像処理装置, 251 ブロックサイズ検出部, 252 ブロックサイズ判定部, 253 画像変換部   61 image processing device, 101 image reduction filter, 102 image conversion unit, 103 image enlargement filter, 131 prediction tap extraction unit, 132 class tap extraction unit, 133 class classification unit, 134 coefficient storage unit, 135 prediction calculation unit, 161 learning device , 191 Learning image storage unit, 192 Noise addition unit, 193 Prediction tap extraction unit, 194 Class tap extraction unit, 195 Class classification unit, 196 Addition unit, 197 Tap coefficient calculation unit, 221 Image processing device, 251 Block size detection Section, 252 block size determination section, 253 image conversion section

Claims (5)

所定のブロック単位で符号化された画像データを、前記所定のブロック単位で復号するデコーダが出力する出力画像データを処理する画像処理装置において、
前記出力画像データにおける前記所定のブロックのブロックサイズを判定する判定手段と、
前記出力画像データを、画素数が所定の画素数の第1の縮小拡大画像データに、縮小または拡大する第1の縮小拡大手段と、
前記出力画像データにおける前記所定のブロックのブロックサイズと、前記デコーダが復号を行うことによって得られる復号画像データにおける前記所定のブロックのブロックサイズとが異なる場合に、前記号画像データと所定の係数とを用いた予測演算により求められる、前記復号画像データよりも高画質の高画質画像データを予測した予測値と、前記高画質画像データとの誤差を最小にする学習により求められた前記所定の係数と前記第1の縮小拡大画像データとを用いて、前記第1の縮小拡大画像データを、前記第1の縮小拡大画像データよりも高画質の第2の縮小拡大画像データに変換し、
前記出力画像データにおける前記所定のブロックのブロックサイズと、前記復号画像データにおける前記所定のブロックのブロックサイズとが一致する場合に、前記所定の係数と前記出力画像データとを用いて、前記出力画像データを、前記出力画像データよりも高画質の画像データに変換する画像変換手段と、
前記第2の縮小拡大画像データを、前記出力画像データと同一の画素数の画像データに、縮小または拡大する第2の縮小拡大手段と
を備える画像処理装置。
In an image processing apparatus that processes output image data output from a decoder that decodes image data encoded in predetermined block units in predetermined block units,
Determination means for determining a block size of the predetermined block in the output image data;
First reduction / enlargement means for reducing or enlarging the output image data to first reduced / enlarged image data having a predetermined number of pixels;
And the block size of the predetermined block in the output image data, if the block size is different from the predetermined block in the decoded image data obtained by the decoder performs decoding, the decrypt image data and a predetermined coefficient And the predetermined value obtained by learning that minimizes an error between the predicted value obtained by predicting high-quality image data having a higher image quality than the decoded image data and the high-quality image data. Using the coefficient and the first reduced / enlarged image data , the first reduced / enlarged image data is converted into second reduced / enlarged image data with higher image quality than the first reduced / enlarged image data ,
When the block size of the predetermined block in the output image data matches the block size of the predetermined block in the decoded image data, the output image is used by using the predetermined coefficient and the output image data. Image conversion means for converting data into image data with higher image quality than the output image data ;
An image processing apparatus comprising: a second reduction / enlargement unit that reduces or enlarges the second reduced / enlarged image data to image data having the same number of pixels as the output image data.
前記画像変換手段は、第1の画像データを、前記第1の画像データよりも高画質の第2の画像データに変換するものであり、
前記出力画像データにおける前記所定のブロックのブロックサイズと、前記復号画像データにおける前記所定のブロックのブロックサイズとが異なる場合に、前記第1の縮小拡大画像データを第1の画像データとし、前記第2の縮小拡大画像データを第2の画像データとし、
前記出力画像データにおける前記所定のブロックのブロックサイズと、前記復号画像データにおける前記所定のブロックのブロックサイズとが一致する場合に、前記出力画像データを前記第1の画像データとし、前記出力画像データよりも高画質の画像データを前記第2の画像データとし、
前記第1の像データの注目している画素である注目画素に対応する、前記第2の像データの画素を予測する前記予測演算に用いる複数の画素を、前記第1の像データから予測タップとして抽出する予測タップ抽出手段と、
前記注目画素を複数のクラスのうちのいずれかのクラスにクラス分けするクラス分類に用いる複数の画素を、前記第1の像データからクラスタップとして抽出するクラスタップ抽出手段と、
前記クラスタップ抽出手段により抽出された前記クラスタップに基づいて、前記注目画素をクラス分類するクラス分類手段と、
前記学習によりあらかじめ求められた、前記複数のクラスそれぞれに対応する前記係数の中から、前記注目画素のクラスに対応する係数を出力する係数出力手段と、
前記係数出力手段により出力された係数と、前記予測タップ抽出手段により抽出された前記予測タップとを用いた前記予測演算により、前記注目画素に対応する、前記第2の像データの画素を求める予測演算手段と
を有する
請求項1に記載の画像処理装置。
The image conversion means converts the first image data into second image data having a higher image quality than the first image data,
When the block size of the predetermined block in the output image data is different from the block size of the predetermined block in the decoded image data, the first reduced / enlarged image data is set as first image data, and the first 2 reduced and enlarged image data as second image data,
When the block size of the predetermined block in the output image data matches the block size of the predetermined block in the decoded image data, the output image data is the first image data, and the output image data Higher image quality image data as the second image data,
Corresponding to the pixel of interest is a designated pixel of said first image picture data, a plurality of pixels used for the prediction computation for predicting the pixel of the second image picture data, the first images data A prediction tap extracting means for extracting as a prediction tap from:
A plurality of pixels used for classification to classify into any of the classes of the target pixel a plurality of classes, and class tap extracting means for extracting as a class tap from the first images data,
Class classification means for classifying the pixel of interest based on the class tap extracted by the class tap extraction means;
Coefficient output means for outputting a coefficient corresponding to the class of the target pixel from the coefficients corresponding to each of the plurality of classes obtained in advance by the learning;
By the prediction computation using the coefficients output by the coefficient output unit, and the prediction tap extracted by the prediction tap extraction means, corresponding to the pixel of interest, determine the pixels of the second images data The image processing apparatus according to claim 1, further comprising: a prediction calculation unit.
前記デコーダは、原画像を前記所定の画素数に縮小または拡大して得られる画像データを、前記所定のブロック単位で符号化した符号化結果を対象に、前記所定のブロック単位で復号を行い、その復号によって得られる前記復号画像データを、前記原画像と同一の画素数の画像データに縮小または拡大した画像データを、前記出力画像データとして出力する
請求項1に記載の画像処理装置。
The decoder performs decoding in units of the predetermined blocks with respect to an encoding result obtained by encoding image data obtained by reducing or expanding the original image to the predetermined number of pixels in units of the predetermined blocks, the decoded image data obtained by the decoding, the image processing apparatus according the image data obtained by reducing or enlarging the original image the same number of pixels and the image data, to claim 1 for outputting as the output image data.
所定のブロック単位で符号化された画像データを、前記所定のブロック単位で復号するデコーダが出力する出力画像データを処理する画像処理装置の画像処理方法において、
前記出力画像データにおける前記所定のブロックのブロックサイズを判定し、
前記出力画像データを、画素数が所定の画素数の第1の縮小拡大画像データに、縮小または拡大し、
前記出力画像データにおける前記所定のブロックのブロックサイズと、前記デコーダが復号を行うことによって得られる復号画像データにおける前記所定のブロックのブロックサイズとが異なる場合に、前記号画像データと所定の係数とを用いた予測演算により求められる、前記復号画像データよりも高画質の高画質画像データを予測した予測値と、前記高画質画像データとの誤差を最小にする学習により求められた前記所定の係数と前記第1の縮小拡大画像データとを用いて、前記第1の縮小拡大画像データを、前記第1の縮小拡大画像データよりも高画質の第2の縮小拡大画像データに変換し、
前記出力画像データにおける前記所定のブロックのブロックサイズと、前記復号画像データにおける前記所定のブロックのブロックサイズとが一致する場合に、前記所定の係数と前記出力画像データとを用いて、前記出力画像データを、前記出力画像データよりも高画質の画像データに変換し、
前記第2の縮小拡大画像データを、前記出力画像データと同一の画素数の画像データに、縮小または拡大する
ステップを含む画像処理方法。
In an image processing method of an image processing apparatus for processing output image data output by a decoder that decodes image data encoded in predetermined block units in predetermined block units,
Determining a block size of the predetermined block in the output image data;
Reducing or enlarging the output image data into first reduced / enlarged image data having a predetermined number of pixels;
And the block size of the predetermined block in the output image data, if the block size is different from the predetermined block in the decoded image data obtained by the decoder performs decoding, the decrypt image data and a predetermined coefficient And the predetermined value obtained by learning that minimizes an error between the predicted value obtained by predicting high-quality image data having a higher image quality than the decoded image data and the high-quality image data. Using the coefficient and the first reduced / enlarged image data , the first reduced / enlarged image data is converted into second reduced / enlarged image data with higher image quality than the first reduced / enlarged image data ,
When the block size of the predetermined block in the output image data matches the block size of the predetermined block in the decoded image data, the output image is used by using the predetermined coefficient and the output image data. The data is converted into image data with higher image quality than the output image data,
An image processing method including a step of reducing or enlarging the second reduced / enlarged image data to image data having the same number of pixels as the output image data.
所定のブロック単位で符号化された画像データを、前記所定のブロック単位で復号するデコーダが出力する出力画像データを処理する画像処理装置の画像処理をコンピュータに実行させるプログラムにおいて、
前記出力画像データにおける前記所定のブロックのブロックサイズを判定し、
前記出力画像データを、画素数が所定の画素数の第1の縮小拡大画像データに、縮小または拡大し、
前記出力画像データにおける前記所定のブロックのブロックサイズと、前記デコーダが復号を行うことによって得られる復号画像データにおける前記所定のブロックのブロックサイズとが異なる場合に、前記号画像データと所定の係数とを用いた予測演算により求められる、前記復号画像データよりも高画質の高画質画像データを予測した予測値と、前記高画質画像データとの誤差を最小にする学習により求められた前記所定の係数と前記第1の縮小拡大画像データとを用いて、前記第1の縮小拡大画像データを、前記第1の縮小拡大画像データよりも高画質の第2の縮小拡大画像データに変換し、
前記出力画像データにおける前記所定のブロックのブロックサイズと、前記復号画像データにおける前記所定のブロックのブロックサイズとが一致する場合に、前記所定の係数と前記出力画像データとを用いて、前記出力画像データを、前記出力画像データよりも高画質の画像データに変換し、
前記第2の縮小拡大画像データを、前記出力画像データと同一の画素数の画像データに、縮小または拡大する
ステップを含む画像処理をコンピュータに実行させるプログラム。
In a program for causing a computer to execute image processing of an image processing apparatus that processes output image data output by a decoder that decodes image data encoded in predetermined block units.
Determining a block size of the predetermined block in the output image data;
Reducing or enlarging the output image data into first reduced / enlarged image data having a predetermined number of pixels;
And the block size of the predetermined block in the output image data, if the block size is different from the predetermined block in the decoded image data obtained by the decoder performs decoding, the decrypt image data and a predetermined coefficient And the predetermined value obtained by learning that minimizes an error between the predicted value obtained by predicting high-quality image data having a higher image quality than the decoded image data and the high-quality image data. Using the coefficient and the first reduced / enlarged image data , the first reduced / enlarged image data is converted into second reduced / enlarged image data with higher image quality than the first reduced / enlarged image data ,
When the block size of the predetermined block in the output image data matches the block size of the predetermined block in the decoded image data, the output image is used by using the predetermined coefficient and the output image data. The data is converted into image data with higher image quality than the output image data,
A program that causes a computer to execute image processing including a step of reducing or enlarging the second reduced / enlarged image data to image data having the same number of pixels as the output image data.
JP2006304200A 2006-11-09 2006-11-09 Image processing apparatus, image processing method, and program Expired - Fee Related JP4770704B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006304200A JP4770704B2 (en) 2006-11-09 2006-11-09 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006304200A JP4770704B2 (en) 2006-11-09 2006-11-09 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2008124641A JP2008124641A (en) 2008-05-29
JP4770704B2 true JP4770704B2 (en) 2011-09-14

Family

ID=39508967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006304200A Expired - Fee Related JP4770704B2 (en) 2006-11-09 2006-11-09 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4770704B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4770711B2 (en) * 2006-11-15 2011-09-14 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5625342B2 (en) * 2009-12-10 2014-11-19 ソニー株式会社 Image processing method, image processing apparatus, and program

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346201A (en) * 2000-03-27 2001-12-14 Sony Corp Image coder and its method, image decoder and its method, image recorder, image transmitter
JP2001285876A (en) * 2000-03-30 2001-10-12 Sony Corp Image encoding device, its method, video camera, image recording device and image transmitting device
JP2003078876A (en) * 2001-08-31 2003-03-14 Sony Corp Method and apparatus for recording video signal
JP2003224847A (en) * 2002-01-29 2003-08-08 Sony Corp Image encoder and method thereof, and image decoder and method thereof
JP4078906B2 (en) * 2002-07-19 2008-04-23 ソニー株式会社 Image signal processing apparatus and processing method, image display apparatus, coefficient data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program
JP2004102904A (en) * 2002-09-12 2004-04-02 Pentax Corp Filtering device and filtering method
KR101149255B1 (en) * 2004-04-02 2012-05-25 톰슨 라이센싱 Method and apparatus for complexity scalable video encoder
JP4749377B2 (en) * 2006-04-18 2011-08-17 パイオニア株式会社 Block noise removal device
JP4781306B2 (en) * 2006-04-18 2011-09-28 パイオニア株式会社 Block noise removal device
JP2008118519A (en) * 2006-11-07 2008-05-22 Sony Corp Image conversion apparatus and method, learning apparatus and method, and program

Also Published As

Publication number Publication date
JP2008124641A (en) 2008-05-29

Similar Documents

Publication Publication Date Title
US20070036450A1 (en) Data processing apparatus and method and recording medium
JP4882999B2 (en) Image processing apparatus, image processing method, program, and learning apparatus
US20100202711A1 (en) Image processing apparatus, image processing method, and program
US7876323B2 (en) Display apparatus and display method, learning apparatus and learning method, and programs therefor
JP4193871B2 (en) Image processing apparatus, image processing method, and program
JP4650123B2 (en) Image processing apparatus, image processing method, and program
JP6065613B2 (en) Video encoding device
JP4742614B2 (en) Data conversion apparatus and method, data reverse conversion apparatus and method, information processing system, recording medium, and program
JP4770704B2 (en) Image processing apparatus, image processing method, and program
US20050111749A1 (en) Data converting apparatus, data converting method, learning apparatus, leaning method, program, and recording medium
JP2011211437A (en) Image processing apparatus, method, and program
JP4770711B2 (en) Image processing apparatus, image processing method, and program
US20110243462A1 (en) Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium
JP2007251690A (en) Image processing apparatus and method therefor, learning apparatus and method therefor, and program
JP4505729B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP4154902B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP4154647B2 (en) Data processing apparatus, data processing method, program, and recording medium
JP2008118519A (en) Image conversion apparatus and method, learning apparatus and method, and program
KR20120052361A (en) Method of filtering a signal and of obtaining filter coefficients
JP4385969B2 (en) Data conversion apparatus and method, data reverse conversion apparatus and method, information processing system, recording medium, and program
JP4154903B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2009060481A (en) Image processing device and method, learning device and method, and program
JP2009224848A (en) Image processing apparatus, image processing method, learning device, learning method and program
JP2009284207A (en) Image processing apparatus and method, program, and learning apparatus and method
JP2011217140A (en) Coefficient learning device and method, image processing device and method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110606

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees