JP2011217011A - Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium - Google Patents

Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium Download PDF

Info

Publication number
JP2011217011A
JP2011217011A JP2010081326A JP2010081326A JP2011217011A JP 2011217011 A JP2011217011 A JP 2011217011A JP 2010081326 A JP2010081326 A JP 2010081326A JP 2010081326 A JP2010081326 A JP 2010081326A JP 2011217011 A JP2011217011 A JP 2011217011A
Authority
JP
Japan
Prior art keywords
pixel
discrimination
image
value
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010081326A
Other languages
Japanese (ja)
Inventor
Takahiro Nagano
隆浩 永野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010081326A priority Critical patent/JP2011217011A/en
Publication of JP2011217011A publication Critical patent/JP2011217011A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve image quality, and to perform image quality conversion processing capable of coping with various conversion patterns by a simple constitution.SOLUTION: In a regression prediction operation and a discrimination prediction operation, a plurality of pixel values corresponding to the attention pixel of an input image or feature amounts obtained from the values are given as parameters. Four extraction values which are the plurality of pixel values corresponding to the attention pixel of the input image and the three feature amounts obtained from the values are used. The four extraction values are the pixel value extracted according to a moving direction, the maximum value and minimum value of the extracted pixel value, the absolute value of a differential feature amount according to the moving direction of the extracted pixel value, and the maximum value of the absolute value of the differential feature amount according to the moving direction of the extracted pixel value.

Description

本発明は、係数学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体に関し、特に、多様な動きぼけの除去を効率的、かつ低コストで実現できるようにする係数学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体に関する。   The present invention relates to a coefficient learning apparatus and method, an image processing apparatus and method, a program, and a recording medium, and more particularly, a coefficient learning apparatus and method that enables various motion blur removal to be realized efficiently and at low cost. The present invention relates to an image processing apparatus and method, a program, and a recording medium.

ノイズなど劣化を含んだ入力画像からノイズのない画像を予測したり、SD信号を高解像度のHD信号に変換するために、クラス分類適応処理を用いる手法が提案されている。   In order to predict an image without noise from an input image including degradation such as noise, or to convert an SD signal into a high-resolution HD signal, a method using class classification adaptive processing has been proposed.

クラス分類適応処理により、SD信号をHD信号に変換する場合、まず、入力SD信号からなるクラスタップの特徴を、ADRC(適応的ダイナミックレンジ符号化)等を用いて求め、得られたクラスタップの特徴に基づいてクラス分類を行う。そして、そのクラス毎に用意された予測係数と、入力SD信号からなる予測タップとの演算を行うことによって、HD信号を得る。   When an SD signal is converted into an HD signal by class classification adaptive processing, first, the characteristics of the class tap composed of the input SD signal are obtained using ADRC (adaptive dynamic range coding) or the like, and the class tap obtained is converted. Classify based on features. Then, an HD signal is obtained by calculating a prediction coefficient prepared for each class and a prediction tap composed of an input SD signal.

また、クラス分類適応処理を応用することで、画像に含まれる動きぼけを取り除いて元の画像を復元することも可能となる。あるいはまた、撮像後の物体がどれだけ移動しているのかという情報を用いてボケ量を類推し、そのボケ量に基づいて周波数特性を算出し、算出した周波数特性の逆特性のフィルタをかけることにより補正を行う技術も提案されている(例えば、特許文献1参照)。しかし、画像に含まれる動きぼけを取り除いて元の画像を復元する場合、一般的にノイズが増幅されたり、リンギングが発生するといった悪影響が生じる。   In addition, by applying the classification adaptation process, it is possible to remove the motion blur included in the image and restore the original image. Alternatively, the amount of blur is estimated using information on how much the imaged object is moving, the frequency characteristic is calculated based on the amount of blur, and the inverse filter of the calculated frequency characteristic is filtered. There has also been proposed a technique for performing correction according to (see, for example, Patent Document 1). However, when the original image is restored by removing the motion blur included in the image, in general, there is an adverse effect that noise is amplified or ringing occurs.

そのような悪影響をなくすために、例えば、予め多くの動きぼけ除去処理のバリエーションを用意して、入力画像に対して各種の動きぼけ除去処理を施した上で、劣化の出ていないものを選択する方式がある。   In order to eliminate such adverse effects, for example, many variations of motion blur removal processing are prepared in advance, various motion blur removal processing is performed on the input image, and those that have not deteriorated are selected. There is a method to do.

また、リンギングがでないような最適化規範を用いて、反復演算の中でそれを解いていくような方式もある。   In addition, there is a method in which an optimization criterion that does not cause ringing is used to solve it in an iterative operation.

特開2006−081150号公報Japanese Patent Laid-Open No. 2006-081150

しかしながら、予め各種の動きぼけ除去処理を施しておく場合には、動きの方向や大きさに応じて多数のバリエーションを用意する必要がある。また、反復演算を行う場合も何度も処理を繰り返すために、結果として回路規模の増大や処理時間の増大につながる傾向がある。   However, when various types of motion blur removal processing are performed in advance, it is necessary to prepare many variations according to the direction and size of the motion. Also, when performing iterative calculations, the processing is repeated many times, and as a result, the circuit scale tends to increase and the processing time increases.

また、動きぼけ除去処理のバリエーションの中から1つを選択する際の基準や、反復演算を止める際の基準も一律に決めることは難しく、劣化が残ることや画像のディテール感を損なう場合が多い。   In addition, it is difficult to uniformly determine the standard for selecting one of the variations in motion blur removal processing and the standard for stopping the iterative calculation, often resulting in deterioration and loss of image detail. .

本発明はこのような状況に鑑みてなされたものであり、多様な動きぼけの除去を効率的、かつ低コストで実現できるようにするものである。   The present invention has been made in view of such a situation, and enables various motion blurs to be removed efficiently and at low cost.

本発明の第1の側面は、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと回帰係数との積和演算により第2の信号の画像における前記注目画素に対応する画素の値を求める回帰予測演算の前記回帰係数を算出する回帰係数算出手段と、前記算出された前記回帰係数と、前記第1の信号の画像から得られた前記タップに基づいて前記回帰予測演算を行って回帰予測値を算出する回帰予測値算出手段と、前記算出された前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値との比較結果に基づいて、前記注目画素に第1の判別クラスに属する画素であるかまたは第2の判別クラスに属する画素であるかを判別するための判別情報を付与する判別情報付与手段と、前記付与された判別情報に基づいて、第1の信号の画像から前記タップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属する判別クラスを特定するための判別予測値を求める判別予測演算の前記判別係数を算出する判別係数算出手段と、前記算出された前記判別係数と、前記第1の信号の画像から得られた前記タップに基づいて前記判別予測演算を行って判別予測値を算出する判別予測値算出手段と、前記算出された前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段とを備え、前記回帰係数算出手段は、前記第1の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出し、前記第2の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出する係数学習装置である。   The first aspect of the present invention is a feature amount specified based on a motion vector from an image of the first signal, and is configured as a plurality of feature amounts obtained from pixel values of a target pixel and surrounding pixels. Regression that obtains a tap and calculates the regression coefficient of the regression prediction calculation that calculates the value of the pixel corresponding to the target pixel in the image of the second signal by the product-sum operation of each of the elements of the tap and the regression coefficient A coefficient calculation means, a regression prediction value calculation means for calculating a regression prediction value by performing the regression prediction calculation based on the calculated regression coefficient and the tap obtained from the image of the first signal; Based on a comparison result between the calculated regression prediction value and a pixel value corresponding to the target pixel in the image of the second signal, the target pixel is a pixel belonging to a first discrimination class, or A discriminating information providing means for providing discriminating information for discriminating whether the pixel belongs to two discriminating classes, and acquiring the tap from the image of the first signal based on the given discriminating information; A discriminant coefficient calculating means for calculating the discriminant coefficient of the discriminant prediction calculation for obtaining a discriminant prediction value for specifying the discriminant class to which the pixel of interest belongs by multiplying and summing each of the elements of the tap and the discriminant coefficient; A discriminant prediction value calculating means for calculating a discriminant prediction value by performing the discriminant prediction calculation based on the discriminant coefficient and the tap obtained from the image of the first signal; and the calculated discriminant prediction Classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on a value, and the regression coefficient calculating unit Further calculates the regression coefficient using only the pixels classified into the first discrimination class, and further calculates the regression coefficient using only the pixels classified into the second discrimination class It is.

前記回帰係数算出手段が前記判別クラス毎に算出した前記回帰係数により前記回帰予測値算出手段が前記判別クラス毎に算出した前記回帰予測値に基づいて、前記判別情報付与手段が判別情報を付与する処理、前記判別係数算出手段が前記判別係数を算出する処理、および前記判別予測値算出手段が前記判別予測値を算出する処理を繰り返し実行するようにすることができる。   Based on the regression prediction value calculated by the regression prediction value calculation unit for each of the discrimination classes by the regression coefficient calculated by the regression coefficient calculation unit for each of the discrimination classes, the discrimination information providing unit provides discrimination information. The process, the process in which the discrimination coefficient calculating unit calculates the discrimination coefficient, and the process in which the discrimination prediction value calculation unit calculates the discrimination prediction value can be repeatedly executed.

前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値と差分が0以上である場合、前記注目画素は、第1の判別クラスに属する画素であると判別され、前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値と差分が0未満である場合、前記注目画素は、第1の判別クラスに属する画素であると判別されるようにすることができる。   If the difference between the regression prediction value and the value of the pixel corresponding to the target pixel in the image of the second signal is 0 or more, the target pixel is determined to be a pixel belonging to the first determination class; When the difference between the regression prediction value and the value of the pixel corresponding to the target pixel in the image of the second signal is less than 0, the target pixel is determined to be a pixel belonging to the first determination class. Can be.

前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値と差分絶対値が予め設定された閾値以上である場合、前記注目画素は、第1の判別クラスに属する画素であると判別され、前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値と差分絶対値が前記閾値未満である場合、前記注目画素は、第2の判別クラスに属する画素であると判別されるようにすることができる。   When the regression prediction value, the value of the pixel corresponding to the target pixel in the image of the second signal, and the absolute difference value are greater than or equal to a preset threshold value, the target pixel is a pixel belonging to the first discrimination class If the regression prediction value, the value of the pixel corresponding to the pixel of interest in the image of the second signal, and the absolute difference value are less than the threshold, the pixel of interest is a second discrimination class. It can be determined that the pixel belongs to the pixel.

前記第1の信号の画像は、前記第2の信号の画像に対して動きぼけが付加された画像であるようにすることができる。   The image of the first signal may be an image obtained by adding motion blur to the image of the second signal.

前記タップは、前記動きベクトルによって特定された動き方向および動き量に基づいて、前記注目画素を中心として動き方向に従って抽出した画素値、抽出した画素値の最大値および最小値、抽出した画素値の動き方向に従った微分特徴量の絶対値、並びに抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値のそれぞれを要素として構成されるようにすることができる。   The tap is based on the motion direction and the amount of motion specified by the motion vector, the pixel value extracted according to the motion direction centered on the pixel of interest, the maximum and minimum values of the extracted pixel value, and the extracted pixel value Each of the absolute value of the differential feature quantity according to the movement direction and the maximum value of the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value can be configured as an element.

本発明の第1の側面は、回帰係数算出手段が、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと回帰係数との積和演算により第2の信号の画像における前記注目画素に対応する画素の値を求める回帰予測演算の前記回帰係数を算出し、回帰予測値算出手段が、前記算出された前記回帰係数と、前記第1の信号の画像から得られた前記タップに基づいて前記回帰予測演算を行って回帰予測値を算出し、判別情報付与手段が、前記算出された前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値との比較結果に基づいて、前記注目画素に第1の判別クラスに属する画素であるかまたは第2の判別クラスに属する画素であるかを判別するための判別情報を付与し、判別係数算出手段が、前記付与された判別情報に基づいて、第1の信号の画像から前記タップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属する判別クラスを特定するための判別予測値を求める判別予測演算の前記判別係数を算出し、判別予測値算出手段が、前記算出された前記判別係数と、前記第1の信号の画像から得られた前記タップに基づいて前記判別予測演算を行って判別予測値を算出し、分類手段が、前記算出された前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類し、前記第1の判別クラスに分類された画素のみを用いて前記回帰係数がさらに算出され、前記第2の判別クラスに分類された画素のみを用いて前記回帰係数がさらに算出されるステップを含む係数学習方法である。   According to a first aspect of the present invention, the regression coefficient calculation means is a feature amount specified based on a motion vector from an image of the first signal, and includes a plurality of pixel values obtained from pixel values of a target pixel and peripheral pixels. The regression prediction calculation that obtains a tap configured as a feature quantity and obtains a value of a pixel corresponding to the target pixel in the image of the second signal by a product-sum operation of each of the elements of the tap and a regression coefficient Regression coefficient is calculated, and the regression prediction value calculation means calculates the regression prediction value by performing the regression prediction calculation based on the calculated regression coefficient and the tap obtained from the image of the first signal. Then, the determination information providing unit performs first determination on the target pixel based on a comparison result between the calculated regression prediction value and a pixel value corresponding to the target pixel in the image of the second signal. Belongs to class Discrimination information for discriminating whether the pixel is a pixel or a pixel belonging to the second discrimination class is provided, and the discrimination coefficient calculation unit is configured to calculate from the image of the first signal based on the provided discrimination information. Obtaining the tap, calculating the discrimination coefficient of the discrimination prediction calculation for obtaining a discrimination prediction value for specifying the discrimination class to which the pixel of interest belongs by multiplying and calculating each of the elements of the tap and the discrimination coefficient; A discriminant prediction value calculating unit calculates the discriminant prediction value by performing the discriminant prediction calculation based on the calculated discriminant coefficient and the tap obtained from the image of the first signal. Based on the calculated discrimination prediction value, each pixel of the image of the first signal is classified into one of the first discrimination class and the second discrimination class, and the first discrimination is performed. Minutes to class By which only said regression coefficient is further calculated by using pixels, which is the second coefficient learning method comprising the regression coefficients using only the classified pixels to determine class is further calculated.

本発明の第1の側面は、コンピュータを、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと回帰係数との積和演算により第2の信号の画像における前記注目画素に対応する画素の値を求める回帰予測演算の前記回帰係数を算出する回帰係数算出手段と、前記算出された前記回帰係数と、前記第1の信号の画像から得られた前記タップに基づいて前記回帰予測演算を行って回帰予測値を算出する回帰予測値算出手段と、前記算出された前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値との比較結果に基づいて、前記注目画素に第1の判別クラスに属する画素であるかまたは第2の判別クラスに属する画素であるかを判別するための判別情報を付与する判別情報付与手段と、前記付与された判別情報に基づいて、第1の信号の画像から前記タップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属する判別クラスを特定するための判別予測値を求める判別予測演算の前記判別係数を算出する判別係数算出手段と、前記算出された前記判別係数と、前記第1の信号の画像から得られた前記タップに基づいて前記判別予測演算を行って判別予測値を算出する判別予測値算出手段と、前記算出された前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段とを備え、前記回帰係数算出手段は、前記第1の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出し、前記第2の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出する係数学習装置として機能させるプログラムである。   According to a first aspect of the present invention, a computer is a feature amount specified based on a motion vector from an image of a first signal, and is a plurality of feature amounts obtained from pixel values of a target pixel and peripheral pixels. Obtaining the configured tap, and calculating the regression coefficient of the regression prediction calculation for obtaining the value of the pixel corresponding to the pixel of interest in the image of the second signal by multiply-and-accumulate each of the elements of the tap and the regression coefficient. Regression prediction value calculation means for calculating a regression prediction value by performing the regression prediction calculation based on the calculated regression coefficient calculation means, the calculated regression coefficient, and the tap obtained from the image of the first signal And an image belonging to the first discrimination class for the target pixel based on a comparison result between the calculated regression prediction value and the value of the pixel corresponding to the target pixel in the second signal image. Discriminating information adding means for adding discriminating information for discriminating whether the pixel is a pixel belonging to the second discriminating class or the tap from the image of the first signal based on the given discriminating information And calculating the discriminant coefficient of the discriminant prediction calculation for obtaining the discriminant prediction value for specifying the discriminant class to which the pixel of interest belongs by multiplying and summing each of the elements of the tap and the discriminant coefficient Means, a discrimination prediction value calculation means for calculating a discrimination prediction value by performing the discrimination prediction calculation based on the calculated discrimination coefficient and the tap obtained from the image of the first signal, and the calculation Classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the determined discrimination prediction value, The regression coefficient calculation means further calculates the regression coefficient using only the pixels classified into the first discrimination class, and further calculates the regression coefficient using only the pixels classified into the second discrimination class This is a program that functions as a coefficient learning device.

本発明の第1の側面においては、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと回帰係数との積和演算により第2の信号の画像における前記注目画素に対応する画素の値を求める回帰予測演算の前記回帰係数が算出され、前記算出された前記回帰係数と、前記第1の信号の画像から得られた前記タップに基づいて前記回帰予測演算を行って回帰予測値が算出され、前記算出された前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値との比較結果に基づいて、前記注目画素に第1の判別クラスに属する画素であるかまたは第2の判別クラスに属する画素であるかを判別するための判別情報が付与され、前記付与された判別情報に基づいて、第1の信号の画像から前記タップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属する判別クラスを特定するための判別予測値を求める判別予測演算の前記判別係数が算出され、前記算出された前記判別係数と、前記第1の信号の画像から得られた前記タップに基づいて前記判別予測演算を行って判別予測値が算出され、前記算出された前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれが、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類され、前記第1の判別クラスに分類された画素のみを用いて前記回帰係数がさらに算出され、前記第2の判別クラスに分類された画素のみを用いて前記回帰係数がさらに算出される。   In the first aspect of the present invention, the feature amount is specified based on the motion vector from the first signal image, and is configured as a plurality of feature amounts obtained from the pixel values of the target pixel and the surrounding pixels. The regression coefficient of the regression prediction calculation for calculating the pixel value corresponding to the target pixel in the image of the second signal is calculated by multiplying and summing each of the elements of the tap and the regression coefficient. , The regression prediction value is calculated by performing the regression prediction calculation based on the calculated regression coefficient and the tap obtained from the image of the first signal, and the calculated regression prediction value, Based on the comparison result with the value of the pixel corresponding to the target pixel in the image of the second signal, the target pixel is a pixel belonging to the first determination class or a pixel belonging to the second determination class. Discriminating information for discriminating whether or not the tap is obtained from the image of the first signal based on the given discriminating information, and the product sum of each of the elements of the tap and the discriminant coefficient The discriminant coefficient of the discriminant prediction calculation for obtaining the discriminant prediction value for specifying the discriminant class to which the pixel of interest belongs is calculated, and is obtained from the calculated discriminant coefficient and the image of the first signal. A discrimination prediction value is calculated by performing the discrimination prediction calculation based on the tap, and each pixel of the image of the first signal is converted into the first discrimination class based on the calculated discrimination prediction value. And the regression coefficient is further calculated using only the pixels classified into the first discrimination class, and only the pixels classified into the second discrimination class. The regression coefficient is further calculated are.

本発明の第2の側面は、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属するクラスを特定するための判別予測値を求める判別予測演算を行う判別予測手段と、前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段と、前記第1の信号の画像から、前記タップを取得して、前記タップと回帰係数との積和演算により回帰予測値を演算することで、第2の信号の画像における前記注目画素に対応する画素の画素値を予測する回帰予測手段とを備える画像処理装置である。   The second aspect of the present invention is a feature quantity specified from the first signal image based on the motion vector, and is configured as a plurality of feature quantities obtained from the pixel values of the target pixel and the surrounding pixels. A discriminant prediction means for obtaining a tap and performing a discriminant prediction operation for obtaining a discriminant prediction value for specifying a class to which the pixel of interest belongs by performing a product-sum operation of each of the elements of the tap and a discriminant coefficient; Based on the value, the classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class, and from the image of the first signal, Regression prediction means that obtains the tap and predicts the pixel value of the pixel corresponding to the pixel of interest in the image of the second signal by calculating the regression prediction value by the product-sum operation of the tap and the regression coefficient. And An image processing apparatus to obtain.

前記判別予測手段が前記判別予測演算を行う処理、および前記分類手段が前記第1の信号の画像の画素のそれぞれを、分類する処理を繰り返し実行するようにすることができる。   It is possible to repeatedly execute a process in which the discrimination prediction unit performs the discrimination prediction calculation and a classification unit in which the classification unit classifies each pixel of the image of the first signal.

前記第1の信号の画像は、前記第2の信号の画像に対して動きぼけが付加された画像であるようにすることができる。   The image of the first signal may be an image obtained by adding motion blur to the image of the second signal.

前記タップは、前記動きベクトルによって特定された動き方向および動き量に基づいて、前記注目画素を中心として動き方向に従って抽出した画素値、抽出した画素値の最大値および最小値、抽出した画素値の動き方向に従った微分特徴量の絶対値、並びに抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値のそれぞれを要素として構成されるようにすることができる。   The tap is based on the motion direction and the amount of motion specified by the motion vector, the pixel value extracted according to the motion direction centered on the pixel of interest, the maximum and minimum values of the extracted pixel value, and the extracted pixel value Each of the absolute value of the differential feature quantity according to the movement direction and the maximum value of the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value can be configured as an element.

本発明の第2の側面は、判別予測手段が、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属するクラスを特定するための判別予測値を求める判別予測演算を行い、分類手段が、前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類し、回帰予測手段が、前記第1の信号の画像から、前記タップを取得して、前記タップと回帰係数との積和演算により回帰予測値を演算することで、第2の信号の画像における前記注目画素に対応する画素の画素値を予測するステップを含む画像処理方法である。   According to a second aspect of the present invention, the discriminating / predicting means is a feature amount specified based on a motion vector from the first signal image, and a plurality of features obtained from pixel values of the target pixel and the surrounding pixels. Classifying means that obtains a tap configured as a quantity and performs a discrimination prediction calculation to obtain a discrimination prediction value for specifying a class to which the pixel of interest belongs by performing a product-sum operation of each of the elements of the tap and a discrimination coefficient; Classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the discrimination prediction value; The pixel of the pixel corresponding to the pixel of interest in the second signal image is obtained by obtaining the tap from the image of the first signal and calculating the regression prediction value by the product-sum operation of the tap and the regression coefficient. Predict value Step is an image processing method comprising.

本発明の第2の側面は、コンピュータを、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属するクラスを特定するための判別予測値を求める判別予測演算を行う判別予測手段と、前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段と、前記第1の信号の画像から、前記タップを取得して、前記タップと回帰係数との積和演算により回帰予測値を演算することで、第2の信号の画像における前記注目画素に対応する画素の画素値を予測する回帰予測手段とを備える画像処理装置として機能させるプログラムである。   According to a second aspect of the present invention, the computer is a feature amount specified based on a motion vector from an image of the first signal, and is a plurality of feature amounts obtained from pixel values of a target pixel and peripheral pixels. A discrimination prediction means for obtaining a configured tap and performing a discrimination prediction calculation for obtaining a discrimination prediction value for specifying a class to which the pixel of interest belongs by a product-sum operation of each of the elements of the tap and a discrimination coefficient; Classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the discrimination prediction value; and The pixel value of the pixel corresponding to the pixel of interest in the image of the second signal is predicted by acquiring the tap from the image and calculating the regression prediction value by the product-sum operation of the tap and the regression coefficient. A program to function as an image processing apparatus and a return prediction means.

本発明の第2の側面においては、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属するクラスを特定するための判別予測値を求める判別予測演算が行われ、前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれが、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類され、前記第1の信号の画像から、前記タップを取得して、前記タップと回帰係数との積和演算により回帰予測値を演算することで、第2の信号の画像における前記注目画素に対応する画素の画素値が予測される。   In the second aspect of the present invention, the feature amount is specified based on the motion vector from the first signal image, and is configured as a plurality of feature amounts obtained from the pixel values of the target pixel and the surrounding pixels. A discriminant prediction calculation for obtaining a discriminant prediction value for specifying a class to which the pixel of interest belongs is performed by a product-sum operation of each of the elements of the tap and the discriminant coefficient. Each of the pixels of the image of the first signal is classified into one of the first discrimination class and the second discrimination class, and the tap is acquired from the image of the first signal. Thus, by calculating the regression prediction value by the product-sum operation of the tap and the regression coefficient, the pixel value of the pixel corresponding to the target pixel in the image of the second signal is predicted.

本発明によれば、多様な動きぼけの除去を効率的、かつ低コストで実現できる。   According to the present invention, various motion blurs can be removed efficiently and at low cost.

本発明の一実施の形態に係る学習装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning apparatus which concerns on one embodiment of this invention. 学習対生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a learning pair production | generation apparatus. 動き方向に従って抽出した画素値を説明する図である。It is a figure explaining the pixel value extracted according to a motion direction. 画素の値の補完を説明する図である。It is a figure explaining the complementation of the value of a pixel. 抽出した画素値の動き方向に従った微分特徴量の絶対値を求める方式の例を説明する図である。It is a figure explaining the example of the system which calculates | requires the absolute value of the differential feature-value according to the motion direction of the extracted pixel value. 抽出した画素値の動き方向に従った微分特徴量の絶対値を求める方式の別の例を説明する図である。It is a figure explaining another example of the system which calculates | requires the absolute value of the differential feature-value according to the motion direction of the extracted pixel value. 抽出した画素値の動き方向に従った微分特徴量の絶対値を求める方式のさらに別の例を説明する図である。It is a figure explaining another example of the system which calculates | requires the absolute value of the differential feature-value according to the motion direction of the extracted pixel value. 抽出した画素値の動き方向に従った微分特徴量の絶対値を求める方式のさらに別の例を説明する図である。It is a figure explaining another example of the system which calculates | requires the absolute value of the differential feature-value according to the motion direction of the extracted pixel value. 図1のラベリング部の処理を説明するヒストグラムである。It is a histogram explaining the process of the labeling part of FIG. 反復して行われる判別係数の学習を説明する図である。It is a figure explaining learning of the discriminant coefficient performed repeatedly. 反復して行われる判別係数の学習を説明する図である。It is a figure explaining learning of the discriminant coefficient performed repeatedly. 入力画像をクラス分類する場合の例を、2分木構造を用いて説明する図である。It is a figure explaining the example in the case of classifying an input image using a binary tree structure. 図1の学習装置に対応する画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus corresponding to the learning apparatus of FIG. 図1の学習装置による判別係数回帰係数学習処理の例を説明するフローチャートである。It is a flowchart explaining the example of the discrimination coefficient regression coefficient learning process by the learning apparatus of FIG. ラベリング処理の例を説明するフローチャートである。It is a flowchart explaining the example of a labeling process. 回帰係数演算処理の例を説明するフローチャートである。It is a flowchart explaining the example of a regression coefficient calculation process. 判別係数演算処理の例を説明するフローチャートである。It is a flowchart explaining the example of a discrimination coefficient calculation process. 図13の画像処理装置による判別回帰予測処理の例を説明するフローチャートである。It is a flowchart explaining the example of the discrimination regression prediction process by the image processing apparatus of FIG. 判別処理の例を説明するフローチャートである。It is a flowchart explaining the example of a discrimination | determination process. 本発明の学習装置と画像処理装置を用いた高画質化処理の効果を説明する図である。It is a figure explaining the effect of the image quality improvement process using the learning apparatus and image processing apparatus of this invention. 本発明の学習装置と画像処理装置を用いた高画質化処理の効果を説明する図である。It is a figure explaining the effect of the image quality improvement process using the learning apparatus and image processing apparatus of this invention. 本発明の学習装置と画像処理装置を用いた高画質化処理の効果を説明する図である。It is a figure explaining the effect of the image quality improvement process using the learning apparatus and image processing apparatus of this invention. 本発明の画像処理装置を搭載したテレビジョン受像機の構成例を示すブロック図である。It is a block diagram which shows the structural example of the television receiver which mounts the image processing apparatus of this invention. パーソナルコンピュータの構成例を示すブロック図である。And FIG. 16 is a block diagram illustrating a configuration example of a personal computer.

以下、図面を参照して、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の一実施の形態に係る学習装置の構成例を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration example of a learning device according to an embodiment of the present invention.

この学習装置10は、画像の高画質化処理に用いられる学習装置とされ、入力された生徒画像および教師画像(または教師信号)のデータに基づいて、高画質化処理において用いられる係数を生成するようになされている。   The learning device 10 is a learning device used for image quality enhancement processing, and generates coefficients used in the image quality enhancement processing based on input student image and teacher image (or teacher signal) data. It is made like that.

ここで、高画質化処理は、例えば、画像に含まれる動きぼけを取り除いて元の画像を復元したり、画像に含まれるノイズを除去したりする処理とされる。   Here, the high image quality processing is, for example, processing that removes motion blur included in an image and restores the original image, or removes noise included in the image.

学習装置10は、生徒画像を入力画像として、教師画像に近い高画質の画像を出力画像として生成するための係数である回帰係数を学習するようになされている。詳細は後述するが、回帰係数は、入力画像の注目画素に対応する複数の画素の値から得られる特徴量をパラメータとし、高画質化された画像において注目画素に対応する画素の値を演算する線形一次式に用いられる係数とされる。なお、回帰係数は、後述するクラス番号毎に学習される。   The learning device 10 learns a regression coefficient that is a coefficient for generating a student image as an input image and a high-quality image close to a teacher image as an output image. Although the details will be described later, the regression coefficient calculates the value of the pixel corresponding to the target pixel in the high-quality image using the characteristic amount obtained from the value of the plurality of pixels corresponding to the target pixel of the input image as a parameter. The coefficients are used for the linear linear expression. The regression coefficient is learned for each class number described later.

また、学習装置10は、入力画像の注目画素に対応する複数の画素の値、またはそれらの値から得られる特徴量に基づいて、注目画素を、複数のクラスのうちのいずれかにクラス分けする。すなわち、学習装置10は、入力画像の注目画素のそれぞれが、高画質化処理のためのどのクラスに属する画素であるかを特定するための判別係数を学習するようになされている。詳細は後述するが、判別係数は、入力画像の注目画素に対応する複数の画素の値、またはそれらの値から得られる特徴量をパラメータとする線形一次式に用いられる係数とされる。   In addition, the learning device 10 classifies the target pixel into one of a plurality of classes based on the values of a plurality of pixels corresponding to the target pixel of the input image or the feature amount obtained from those values. . That is, the learning device 10 is configured to learn a discrimination coefficient for specifying which class of each pixel of interest in the input image belongs to which class for high image quality processing. Although details will be described later, the discrimination coefficient is a coefficient used in a linear linear expression using a value of a plurality of pixels corresponding to the target pixel of the input image or a feature amount obtained from these values as a parameter.

すなわち、学習装置10により学習された判別係数を用いて、入力画像の注目画素に対応する複数の画素の値またはそれらの値から得られる特徴量をパラメータとした線形一次式の演算を繰り返し実行することにより、高画質化処理のためのクラスが特定されるようになされている。そして、特定されたクラスに対応する回帰係数を用いて、入力画像の注目画素に対応する複数の画素の値またはそれらの値から得られる特徴量をパラメータとした線形一次式の演算を実行することにより、高画質化された画像の画素値が演算されるようになされている。   That is, using the discriminant coefficient learned by the learning device 10, a linear linear expression is repeatedly executed using the values of a plurality of pixels corresponding to the target pixel of the input image or the feature amount obtained from these values as parameters. Thus, a class for high image quality processing is specified. Then, using a regression coefficient corresponding to the identified class, a linear linear calculation is performed using the values of a plurality of pixels corresponding to the target pixel of the input image or a feature amount obtained from these values as parameters. Thus, the pixel value of the image with high image quality is calculated.

学習装置10においては、例えば、教師画像として動きぼけのない画像を入力され、生徒画像として教師画像に対して動きぼけをした画像が入力される。教師画像と生徒画像は、1対(学習対と称することにする)ずつ入力されて学習装置10により学習が行われる。   In the learning device 10, for example, an image without motion blur is input as a teacher image, and an image with motion blur is input as a student image. A teacher image and a student image are input one by one (referred to as a learning pair), and learning is performed by the learning device 10.

図2は学習対生成装置30の構成例を示すブロック図である。同図に示されるように、学習対生成装置30は、動きぼけ付加部31を有する構成とされている。   FIG. 2 is a block diagram illustrating a configuration example of the learning pair generation device 30. As shown in the figure, the learning pair generation device 30 is configured to include a motion blur adding unit 31.

この例では、動きぼけのない静止画像が学習対生成装置30に入力され、入力画像がそのまま教師画像として出力されるようになされている。一方、入力画像(静止画像)に対して、動きぼけ付加部31の処理が施された画像が生徒画像として出力されるようになされている。   In this example, a still image without motion blur is input to the learning pair generation device 30, and the input image is directly output as a teacher image. On the other hand, an image obtained by performing the process of the motion blur adding unit 31 on the input image (still image) is output as a student image.

動きぼけ付加部31は、主に入力画像に動きぼけを付加する機能ブロックとされる。例えば、動きぼけ付加部31の処理により、入力画像に所定の方向・大きさの動きぼけが生じた画像が生成される。   The motion blur adding unit 31 is a functional block that mainly adds motion blur to an input image. For example, the process of the motion blur adding unit 31 generates an image in which motion blur of a predetermined direction and size has occurred in the input image.

なお、学習対生成装置30により、例えば、入力画像に動きぼけとともに、ノイズが付加されて生徒画像が生成されるようにしてもよい。   Note that the learning pair generation device 30 may generate a student image by adding noise to the input image along with motion blur, for example.

学習対生成装置30には、例えば、静止画像が複数供給され、上述したように学習対が生成されていく。そして、生成された学習対が、図1の学習装置10に、生徒画像と教師画像として供給されることになる。   For example, a plurality of still images are supplied to the learning pair generation device 30, and learning pairs are generated as described above. Then, the generated learning pair is supplied as a student image and a teacher image to the learning apparatus 10 in FIG.

図1に戻って、生徒画像のデータは、回帰係数学習部21、回帰予測部23、判別係数学習部25、判別予測部27、および動きベクトル検出部29に供給される。   Returning to FIG. 1, the student image data is supplied to the regression coefficient learning unit 21, the regression prediction unit 23, the discrimination coefficient learning unit 25, the discrimination prediction unit 27, and the motion vector detection unit 29.

動きベクトル検出部は、例えば、ブロックマッチング法、勾配法などを用いて生徒画像の動きベクトルを検出する。動きベクトル検出部により検出された動きベクトルは、生徒画像の動きぼけの動きの方向と大きさを表すものであり、回帰係数学習部21、回帰予測部23、判別係数学習部25、および判別予測部27に供給される。   The motion vector detection unit detects a motion vector of the student image using, for example, a block matching method, a gradient method, or the like. The motion vector detected by the motion vector detection unit represents the direction and magnitude of motion blur of the student image. The regression coefficient learning unit 21, the regression prediction unit 23, the discrimination coefficient learning unit 25, and the discrimination prediction. Supplied to the unit 27.

回帰係数学習部21は、生徒画像を構成する画素の中から所定の画素を注目画素として設定する。そして、回帰係数学習部21は、生徒画像の注目画素とその周辺の画素値から、注目画素に対応する教師画像画素値を予測するための回帰予測演算式の係数を、例えば、最小二乗法を用いて学習する。   The regression coefficient learning unit 21 sets a predetermined pixel as a pixel of interest from among pixels constituting the student image. Then, the regression coefficient learning unit 21 calculates the coefficient of the regression prediction calculation formula for predicting the teacher image pixel value corresponding to the target pixel from the target pixel of the student image and the surrounding pixel values, for example, the least square method. Use to learn.

詳細は後述するが、本発明では、上述の回帰予測演算において、予測値は、学習装置10によって学習した回帰係数を用いた線形モデルであると仮定する。この際、回帰予測演算において、入力画像の注目画素に対応する複数の画素の値またはそれらの値から得られる特徴量をパラメータとして与えることになる。本発明では、入力画像の注目画素に対応する複数の画素の値と、それらの値から得られる3つの特徴量をこのパラメータとして用いる。入力画像(生徒画像)から抽出した入力画像の注目画素に対応する複数の画素の値と、それらの値から得られる3つの特徴量を4つの抽出値と称することにする。   Although details will be described later, in the present invention, in the above-described regression prediction calculation, it is assumed that the predicted value is a linear model using a regression coefficient learned by the learning device 10. At this time, in the regression prediction calculation, a value of a plurality of pixels corresponding to the target pixel of the input image or a feature amount obtained from these values is given as a parameter. In the present invention, values of a plurality of pixels corresponding to the target pixel of the input image and three feature amounts obtained from these values are used as this parameter. The values of a plurality of pixels corresponding to the target pixel of the input image extracted from the input image (student image) and the three feature amounts obtained from these values will be referred to as four extracted values.

上述の4つの抽出値はそれぞれ、動き方向に従って抽出した画素値、抽出した画素値の最大値および最小値、抽出した画素値の動き方向に従った微分特徴量の絶対値、並びに抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値とされる。   The above four extracted values are the pixel value extracted according to the movement direction, the maximum and minimum values of the extracted pixel value, the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value, and the extracted pixel value, respectively. The absolute value of the differential feature quantity according to the movement direction of

図3は、上述の4つの抽出値のうちの第1番目の抽出値である動き方向に従って抽出した画素値を説明する図である。図3の例では、xy平面上に並べられた円によって、生徒画像の画素が示されている。いま、画素値を予測すべき教師画像の画素の位相(座標)に対応する注目画素は、図中中央の黒い(ハッチングされた)円で示された画素であるものとする。   FIG. 3 is a diagram for explaining pixel values extracted according to the motion direction, which is the first extracted value of the four extracted values described above. In the example of FIG. 3, the pixels of the student image are indicated by circles arranged on the xy plane. Now, it is assumed that the target pixel corresponding to the phase (coordinates) of the pixel of the teacher image whose pixel value is to be predicted is a pixel indicated by a black (hatched) circle in the center of the drawing.

動き方向は、動きベクトル検出部29により検出された動きベクトルに基づいて特定される。図3においては、動き方向の例として、「垂直動き」、「水平動き」、および「斜め動き」が示されている。   The motion direction is specified based on the motion vector detected by the motion vector detection unit 29. In FIG. 3, “vertical movement”, “horizontal movement”, and “oblique movement” are shown as examples of movement directions.

第1番目の抽出値である動き方向に従って抽出した画素値は、動きベクトルに基づいて特定された動き方向に従って、動きベクトルに基づいて特定された動き量に対応する数の画素の値を抽出することにより得られる。動き量は動きベクトルの大きさとされ、例えば、動きベクトルの大きさをmvで表わすと、注目画素から3mvから4mvの距離の範囲内に存在する画素の値が抽出される。   The pixel value extracted according to the motion direction that is the first extracted value extracts the value of the number of pixels corresponding to the motion amount specified based on the motion vector according to the motion direction specified based on the motion vector. Can be obtained. The amount of motion is the magnitude of the motion vector. For example, when the magnitude of the motion vector is represented by mv, the value of a pixel existing within a distance of 3 mv to 4 mv from the target pixel is extracted.

なお、動きベクトルは、例えば、(mx,my)の2次元ベクトルで与えられるものとして、動きベクトルの大きさmvは、動きベクトルのx成分とy成分の自乗和の平方根として求められる。   Note that the motion vector is given by, for example, a two-dimensional vector (mx, my), and the magnitude mv of the motion vector is obtained as the square root of the sum of squares of the x and y components of the motion vector.

例えば、動きベクトルに基づいて特定された動き方向が「垂直動き」であった場合、図3の注目画素を中心として垂直上下方向の直線上3mvから4mvの距離の範囲内に存在する画素の値が抽出される。動きベクトルに基づいて特定された動き方向が「水平動き」であった場合、図3の注目画素を中心として水平左右方向の直線上3mvから4mvの距離の範囲内に存在する画素の値が抽出される。   For example, when the motion direction specified based on the motion vector is “vertical motion”, the value of a pixel that exists within a distance of 3 mv to 4 mv on the straight line in the vertical vertical direction centering on the target pixel in FIG. Is extracted. When the motion direction specified based on the motion vector is “horizontal motion”, the values of pixels existing within a distance of 3 mv to 4 mv on the straight line in the horizontal horizontal direction with respect to the target pixel in FIG. 3 are extracted. Is done.

例えば、動きベクトルに基づいて特定された動き方向が「斜め動き」であった場合、図3の注目画素を中心として対称となる斜め方向の直線上3mvから4mvの距離の範囲内に存在する画素の値が抽出される。なお、図3の例では、右斜め45°の方向が「斜め動き」の例とされているが、実際にはもっと多様な「斜め動き」が存在する。   For example, when the motion direction specified based on the motion vector is “oblique motion”, pixels existing within a distance of 3 mv to 4 mv on a straight line in the oblique direction that is symmetric about the target pixel in FIG. The value of is extracted. In the example of FIG. 3, the direction of 45 ° to the right is an example of “oblique movement”, but actually there are more various “oblique movements”.

また、動きベクトルに基づいて特定された動き方向が「斜め動き」であった場合、注目画素を中心として対称となる斜め方向の直線上に画素が存在しないときがある。その場合、実在しない画素の値を実在する画素の値に基づいて補完することにより、動き方向に従って抽出した画素値を得るようになされている。   In addition, when the motion direction specified based on the motion vector is “oblique motion”, there is a case where the pixel does not exist on an oblique straight line that is symmetric with respect to the target pixel. In that case, the pixel value extracted according to the movement direction is obtained by complementing the value of the nonexistent pixel based on the value of the existing pixel.

図4は、画素の値の補完を説明する図である。同図は、xy平面上において、実在する画素を図中「×」で示し、実在しない画素を図中円で示している。例えば、図4に示されるように、注目画素を中心として対称となる斜め方向の直線51が得られた場合、図中に円で示される位置の実在しない画素の値を抽出する必要がある。   FIG. 4 is a diagram for explaining pixel value complementation. In the figure, on the xy plane, pixels that exist are indicated by “x” in the figure, and pixels that do not exist are indicated by circles in the figure. For example, as shown in FIG. 4, when an oblique straight line 51 that is symmetric about the target pixel is obtained, it is necessary to extract the value of a pixel that does not exist at the position indicated by a circle in the drawing.

例えば、図中下から2番目の位置の円で示される画素(実在しない画素)の値xijは、実在する画素の値x0乃至x3を用いて式(1)により演算される。 For example, the value x ij of a pixel (non-existing pixel) indicated by a circle at the second position from the bottom in the figure is calculated by the equation (1) using the actual pixel values x 0 to x 3 .

Figure 2011217011
Figure 2011217011

これにより、実在しない画素の値が実在する画素の値に基づいて補完されたことになる。なお、式(1)では、バイリニア法により補完する例について示したが、他の方式で補完されるようにしても構わない。   As a result, the value of the nonexistent pixel is complemented based on the value of the existing pixel. In addition, in Formula (1), although the example complemented by the bilinear method was shown, you may make it complement by another system.

上述した4つの抽出値のうちの第2番目の抽出値である、抽出した画素値の最大値および最小値は、式(2)と式(3)により求められる。なお、式(2)と式(3)においてxijが動き方向に従って抽出した画素値のそれぞれを表しており、例えば、i番目の注目画素に対応してj個の画素値がそれぞれ抽出されたものとする。 The maximum value and the minimum value of the extracted pixel values, which are the second extraction values among the four extraction values described above, are obtained by Expressions (2) and (3). In Expressions (2) and (3), x ij represents each of the pixel values extracted according to the movement direction. For example, j pixel values corresponding to the i-th target pixel are extracted. Shall.

Figure 2011217011
Figure 2011217011
Figure 2011217011
Figure 2011217011

式(2)により求められるxi (max)が抽出した画素値の最大値とされ、式(3)により求められるxi (min)が抽出した画素値の最小値とされる。 X i (max) obtained by Expression (2) is the maximum value of the extracted pixel values, and x i (min) obtained by Expression (3 ) is the minimum value of the extracted pixel values.

上述した4つの抽出値のうちの第3番目の抽出値である、抽出した画素値の動き方向に従った微分特徴量の絶対値は、例えば、動き方向に従って抽出した画素値のうちの2つの画素値の差分、周辺画素値のダイナミックレンジなどによって求められる。   The absolute value of the differential feature amount according to the movement direction of the extracted pixel value, which is the third extraction value of the four extraction values described above, is, for example, two of the pixel values extracted according to the movement direction. It is obtained by a difference in pixel values, a dynamic range of surrounding pixel values, and the like.

図5乃至図7は、抽出した画素値の動き方向に従った微分特徴量の絶対値を求める方式の例を説明する図である。   5 to 7 are diagrams illustrating an example of a method for obtaining the absolute value of the differential feature amount according to the movement direction of the extracted pixel value.

図5と図6は、動き方向に従って抽出した画素値のうちの2つの画素値の差分によって抽出した画素値の動き方向に従った微分特徴量の絶対値を求める方式の例を示している。なお、図5と図6において、動きベクトルに基づいて特定された動き方向は、「水平動き」であったものとする。   5 and 6 show an example of a method for obtaining the absolute value of the differential feature quantity according to the movement direction of the pixel value extracted by the difference between two pixel values extracted from the pixel values according to the movement direction. 5 and 6, it is assumed that the motion direction specified based on the motion vector is “horizontal motion”.

図5は隣接する画素の値の差分絶対値(|xij+1−xij|)により画素値の動き方向に従った微分特徴量の絶対値(|xij (mv)|)が求められる場合の例を示している。このように、動き方向に従って抽出した画素値のそれぞれについて微分特徴量の絶対値が求められていく。なお、図5の場合、正確には、図中「×」で示される座標における微分特徴量の絶対値を意味することになるが、例えば、図中「×」の左側に示される円に対応する画素の値の微分特徴量の絶対値として擬制される。 In FIG. 5, the absolute value (| x ij (mv) |) of the differential feature quantity according to the movement direction of the pixel value is obtained from the difference absolute value (| x ij + 1 −x ij |) of the adjacent pixel values. An example of the case is shown. In this way, the absolute value of the differential feature value is obtained for each pixel value extracted according to the movement direction. In the case of FIG. 5, to be precise, it means the absolute value of the differential feature quantity at the coordinates indicated by “x” in the figure, but corresponds to, for example, the circle shown on the left side of “x” in the figure. This is assumed as the absolute value of the differential feature value of the pixel value.

図6は、隣接しない画素の値の差分絶対値(|xij+1−xij-1|)により画素値の動き方向に従った微分特徴量の絶対値(|xij (mv)|)が求められる場合の例を示している。このように、動き方向に従って抽出した画素値のそれぞれについて微分特徴量の絶対値が求められていく。なお、図6の場合、図中「×」が付された円に対応する画素の値の微分特徴量の絶対値を意味することになる。 FIG. 6 shows the absolute value (| x ij (mv) |) of the differential feature quantity according to the movement direction of the pixel value by the difference absolute value (| x ij + 1 −x ij−1 |) of the values of pixels not adjacent to each other. This shows an example in which is required. In this way, the absolute value of the differential feature value is obtained for each pixel value extracted according to the movement direction. In the case of FIG. 6, this means the absolute value of the differential feature value of the pixel value corresponding to the circle marked with “x” in the figure.

図7は、周辺画素値のダイナミックレンジ(DR)によって、抽出した画素値の動き方向に従った微分特徴量の絶対値を求める方式の例を示している。なお、図7の場合、図中「×」で示される座標に、動き方向に従って抽出した画素が存在するものとする。そして、動きベクトルに基づいて特定された動き方向に係らず、図中「×」で示される座標から所定の範囲内の画素(実在しない画素も含む)の値の最大値(p(max))と最小値(p(min))との差分(DR)が抽出した画素値の動き方向に従った微分特徴量の絶対値とされる。 FIG. 7 shows an example of a method for obtaining the absolute value of the differential feature amount according to the movement direction of the extracted pixel value by the dynamic range (DR) of the peripheral pixel value. In the case of FIG. 7, it is assumed that pixels extracted according to the movement direction exist at the coordinates indicated by “x” in the drawing. The maximum value (p (max) ) of the values of pixels (including non-existing pixels) within a predetermined range from the coordinates indicated by “x” in the figure regardless of the motion direction specified based on the motion vector. And the minimum value (p (min) ) is the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value.

この他、例えば、ソーベル演算子を用いて抽出した画素値の動き方向に従った微分特徴量の絶対値が求められるようにしてもよい。   In addition, for example, the absolute value of the differential feature amount according to the movement direction of the pixel value extracted using the Sobel operator may be obtained.

なお、図5乃至図7は、抽出した全画素値のそれぞれについて動き方向に従った微分特徴量の絶対値を求める方式の例を説明したが、例えば、演算規模をより少ないものとするために、主要項についてのみ動き方向に従った微分特徴量の絶対値を求めるようにしてもよい。ここで、主要項は、抽出した全画素値に対応するそれぞれの画素のうち、ぼけ除去に対して特に有効とされる部分を意味する。   FIGS. 5 to 7 illustrate examples of methods for obtaining the absolute value of the differential feature amount according to the movement direction for each of all extracted pixel values. For example, in order to reduce the calculation scale, for example. The absolute value of the differential feature amount according to the movement direction may be obtained only for the main term. Here, the main term means a portion that is particularly effective for blur removal among the respective pixels corresponding to all the extracted pixel values.

図8は、主要項についてのみ動き方向に従った微分特徴量の絶対値を求める方式の例を示す図である。なお、図8において、動きベクトルに基づいて特定された動き方向は、「水平動き」であったものとする。また、図8の例の場合、図5と同様に、隣接する画素の値の差分絶対値により画素値の動き方向に従った微分特徴量の絶対値が求められるものとする。   FIG. 8 is a diagram illustrating an example of a method for obtaining the absolute value of the differential feature amount according to the movement direction only for the main term. In FIG. 8, it is assumed that the motion direction specified based on the motion vector is “horizontal motion”. In the case of the example of FIG. 8, as in FIG. 5, the absolute value of the differential feature amount according to the movement direction of the pixel value is obtained from the absolute difference value of the adjacent pixel values.

図8の例では、図中中央に黒い円で示された注目画素を中心として、左右にそれぞれ1/2mvだけ離れた位置、およびそれらの位置からそれぞれさらに1mvだけ離れた位置が主要項とされている。すなわち、図8の例では、図中最も左の円で示される画素(0番目の画素と称する)と、5番目の画素と、10番目の画素と、15番目の画素とが主要項とされている。   In the example of FIG. 8, the main term is a position that is separated by ½ mV on the left and right, respectively, and a position that is further separated by 1 mV from each position, with the pixel of interest indicated by a black circle at the center in the figure as the center. ing. That is, in the example of FIG. 8, the pixel indicated by the leftmost circle (referred to as the 0th pixel), the 5th pixel, the 10th pixel, and the 15th pixel are the main terms. ing.

図8のように微分特徴量の絶対値を求めることで、例えば、第1の抽出値として17個の画素値が抽出された場合であっても、第3の抽出として得られる、抽出した画素値の動き方向に従った微分特徴量の絶対値は4個とすることができる。このようにすることで、例えば、演算規模を小さくすることができ、コスト削減などにつながる。   By obtaining the absolute value of the differential feature amount as shown in FIG. 8, for example, even if 17 pixel values are extracted as the first extraction value, the extracted pixel obtained as the third extraction is obtained. The absolute value of the differential feature amount according to the movement direction of the value can be four. By doing so, for example, the operation scale can be reduced, leading to cost reduction.

上述した4つの抽出値のうちの第4番目の抽出値である、抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値は、式(4)により求められる。なお、式(4)においてx(mv) ijが抽出した画素値の動き方向に従った微分特徴量の絶対値のそれぞれを表している。すなわち、例えば、i番目の注目画素に対応してj+1個の画素値がそれぞれ抽出され、それらの画素値のそれぞれについてj個の動き方向に従った微分特徴量の絶対値が求められたものとする。 The maximum value of the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value, which is the fourth extracted value of the four extracted values described above, is obtained by Expression (4). In Expression (4), x (mv) ij represents each absolute value of the differential feature amount according to the moving direction of the extracted pixel value. That is, for example, j + 1 pixel values corresponding to the i-th target pixel are extracted, and the absolute value of the differential feature amount according to the j motion directions is obtained for each of the pixel values. To do.

Figure 2011217011
Figure 2011217011

式(4)により求められる|xi (mv)(max)が、抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値とされる。 | X i (mv) | (max) obtained by Expression (4) is the maximum value of the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value.

このようにして4つの抽出値が得られる。   In this way, four extracted values are obtained.

次に、上述した回帰係数の学習について説明する。上述した教師画像画素値を予測するための回帰予測演算式において、例えば、教師画像の画素値ti(i=1,2,..N)とし、予測値yi(i=1,2,..N)とおくと、式(5)が成立する。ここでNは、生徒画像の画素と教師画像の画素との全サンプル数を表すものとする。 Next, learning of the above-described regression coefficient will be described. In the regression prediction calculation formula for predicting the teacher image pixel value described above, for example, the pixel value t i (i = 1, 2,... N) of the teacher image is used, and the predicted value y i (i = 1, 2, (N), equation (5) is established. Here, N represents the total number of samples of the pixel of the student image and the pixel of the teacher image.

Figure 2011217011
Figure 2011217011

ここで、εi(i=1,2,..N)は、誤差項である。 Here, ε i (i = 1, 2,... N) is an error term.

予測値yiは、回帰係数wを用いた線形モデルを仮定すると、生徒画像から抽出した上述の4つの抽出値をパラメータ(タップとも称する)として用いて、式(6)のように表現できる。 Assuming a linear model using the regression coefficient w, the predicted value y i can be expressed as Equation (6) using the four extracted values extracted from the student image as parameters (also referred to as taps).

Figure 2011217011
Figure 2011217011

なお、wTは、行列式として表されるwの転置行列を表している。woは、バイアスパラメータであり、定数項であり、式(6)において、バイアスパラメータwoは含まれないようにすることも可能である。なお、Mの値は、後述するタップの要素数に対応する。 Note that w T represents a transposed matrix of w expressed as a determinant. w o is a bias parameter and is a constant term, and it is possible that the bias parameter w o is not included in equation (6). Note that the value of M corresponds to the number of tap elements described later.

式(6)において、パラメータ(タップ)として用いられるxijは、生徒画像の注目画素に対応して得られた動き方向に従って抽出した画素値、抽出した画素値の最大値および最小値、抽出した画素値の動き方向に従った微分特徴量の絶対値、並びに抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値とされる。すなわち、タップxijは、上述した4つ抽出値をそれぞれ要素とするベクトルとなる。 In Expression (6), x ij used as a parameter (tap) is a pixel value extracted according to the movement direction obtained corresponding to the target pixel of the student image, and a maximum value and a minimum value of the extracted pixel value. The absolute value of the differential feature quantity according to the movement direction of the pixel value and the maximum value of the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value. That is, the tap x ij is a vector having the above-described four extracted values as elements.

回帰予測演算式の係数を、最小二乗法を用いて学習する場合、上述したように求められた予測値を式(5)に代入し、式(5)の誤差項の全サンプル分の自乗和を式(7)により演算する。   When learning the coefficient of the regression prediction formula using the least square method, the predicted value obtained as described above is substituted into formula (5), and the sum of squares for all samples of the error term in formula (5). Is calculated by Equation (7).

Figure 2011217011
Figure 2011217011

そして、式(7)の誤差項の全サンプル分の自乗和Eが最小となるような、回帰係数w(必要に応じてバイアスパラメータwoを含む)を導出する。 Then, a regression coefficient w (including a bias parameter w o as necessary) is derived so that the sum of squares E of all the samples of the error term in Expression (7) is minimized.

図1に戻って、回帰係数学習部21は、このようにして回帰係数を求める。回帰係数学習部21により得られた回帰係数は、回帰予測によって、高画質化された画像の画素値を予測するための演算に用いられる係数とされる。   Returning to FIG. 1, the regression coefficient learning unit 21 obtains the regression coefficient in this way. The regression coefficient obtained by the regression coefficient learning unit 21 is a coefficient used for calculation for predicting a pixel value of an image whose image quality is improved by regression prediction.

回帰係数学習部21により得られた回帰係数は、回帰係数記憶部22に記憶される。   The regression coefficient obtained by the regression coefficient learning unit 21 is stored in the regression coefficient storage unit 22.

回帰予測部23は、生徒画像を構成する画素の中から所定の画素を注目画素として設定する。そして、回帰予測部23は、上述したタップ(4つの抽出値)を算出する。   The regression prediction unit 23 sets a predetermined pixel as a target pixel from among the pixels constituting the student image. Then, the regression prediction unit 23 calculates the tap (four extracted values) described above.

回帰予測部23は、式(6)にタップと回帰係数wを代入して予測値yiを演算する。 The regression prediction unit 23 calculates the predicted value y i by substituting the tap and the regression coefficient w into Equation (6).

ラベリング部24は、回帰予測部23により演算された予測値yiを、教師画像の画素値である真値tiと比較する。ラベリング部24は、例えば、予測値yiが真値ti以上となった注目画素を判別クラスAとしてラベリングし、予測値yiが真値ti未満となった注目画素を判別クラスBとしてラベリングする。すなわち、ラベリング部24は、回帰予測部23の演算結果に基づいて、生徒画像の各画素を判別クラスAと判別クラスBに分類するのである。 The labeling unit 24 compares the predicted value y i calculated by the regression prediction unit 23 with a true value t i that is a pixel value of the teacher image. For example, the labeling unit 24 labels the target pixel whose predicted value y i is equal to or greater than the true value t i as the discrimination class A, and sets the target pixel whose predicted value y i is less than the true value t i as the discrimination class B. Label it. That is, the labeling unit 24 classifies each pixel of the student image into a discrimination class A and a discrimination class B based on the calculation result of the regression prediction unit 23.

図9は、ラベリング部24の処理を説明するヒストグラムである。同図の横軸は、予測値yiから真値tiを引いた差分値を表し、縦軸は、その差分値が得られたサンプル(教師画像の画素と生徒画像の画素との組み合わせ)の相対頻度を表している。 FIG. 9 is a histogram for explaining the processing of the labeling unit 24. In the figure, the horizontal axis, (the combination of the pixel of the teacher image pixel and the learner image) from the predicted value y i represents a difference value obtained by subtracting the true value t i, the vertical axis, the sample difference value is obtained Represents the relative frequency.

同図に示されるように、回帰予測部23の演算により、予測値yiから真値tiを引いた差分値が0となったサンプルの頻度が最も高くなっている。差分値が0である場合、回帰予測部23により正確な予測値(=真値)が演算されたことになり、適切に高画質化の処理がなされたことになる。すなわち、回帰係数学習部21により回帰係数が学習されたので、式(6)により正確な予測値が演算される可能性は高いといえる。 As shown in the figure, the frequency of the sample in which the difference value obtained by subtracting the true value t i from the predicted value y i is 0 by calculation of the regression prediction unit 23 is the highest. When the difference value is 0, an accurate predicted value (= true value) is calculated by the regression predicting unit 23, and an image quality improvement process is appropriately performed. That is, since the regression coefficient is learned by the regression coefficient learning unit 21, it can be said that there is a high possibility that an accurate predicted value is calculated according to the equation (6).

しかし、差分値が0以外のものについては、正確な回帰予測がなされたとはいえない。そうであれば、より適切な回帰係数を学習する余地があると考えられる。   However, it cannot be said that an accurate regression prediction was made for a difference value other than zero. If so, there is room to learn more appropriate regression coefficients.

本発明では、例えば、予測値yiが真値ti以上となった注目画素のみを対象として回帰係数を学習すれば、それらの注目画素に対してより適切な回帰係数を学習することができ、予測値yiが真値ti未満となった注目画素のみを対象として回帰係数を学習すれば、それらの注目画素に対してより適切な回帰係数を学習することができると仮定する。このため、ラベリング部24は、回帰予測部23の演算結果に基づいて、生徒画像の各画素を判別クラスAと判別クラスBに分類する。 In the present invention, for example, if a regression coefficient is learned only for a target pixel whose predicted value y i is equal to or greater than the true value t i , a more appropriate regression coefficient can be learned for those target pixels. It is assumed that if a regression coefficient is learned only for a target pixel whose predicted value y i is less than the true value t i , a more appropriate regression coefficient can be learned for those target pixels. For this reason, the labeling unit 24 classifies each pixel of the student image into a discrimination class A and a discrimination class B based on the calculation result of the regression prediction unit 23.

そして、この後、判別係数学習部25の処理によって、生徒画像の画素値に基づいて、各画素を判別クラスAと判別クラスBに分類するための予測演算に用いられる係数が学習されるのである。すなわち、本発明においては、真値が不明であっても、入力画像の画素値に基づいて各画素を判別クラスAと判別クラスBに分類できるようにするのである。   Thereafter, the coefficient used for the prediction calculation for classifying each pixel into the discrimination class A and the discrimination class B is learned based on the pixel value of the student image by the process of the discrimination coefficient learning unit 25. . That is, in the present invention, even if the true value is unknown, each pixel can be classified into the discrimination class A and the discrimination class B based on the pixel value of the input image.

ここでは、ラベリング部24が生徒画像の各画素をラベリングすると説明したが、ラベリングの単位は、正確には教師画像の画素値である真値tiに対応する生徒画像から得られたタップ毎に1個ずつラベリングされることになる。 Here, it has been described that the labeling unit 24 labels each pixel of the student image. However, the unit of labeling is precisely for each tap obtained from the student image corresponding to the true value t i which is the pixel value of the teacher image. It will be labeled one by one.

また、ここでは、予測値yiが真値ti以上となった注目画素と、予測値yiが真値ti未満となった注目画素とを判別してラベリングする例について説明したが、他の方式でラベリングするようにしてもよい。例えば、予測値yiと真値tiの差分絶対値が予め設定された閾値未満の値となった注目画素を判別クラスAとしてラベリングし、予測値yiと真値tiの差分絶対値が予め設定された閾値以上の値となった注目画素を判別クラスBとしてラベリングするようにしてもよい。さらに、それ以外の方式で注目画素を判別クラスAと判別クラスBにラベリングしてもよい。以下では、予測値yiが真値ti以上となった注目画素と、予測値yiが真値ti未満となった注目画素とを判別してラベリングする場合の例について説明する。 Further, here, the pixel of interest predicted value y i is equal to or greater than the true value t i, but prediction value y i has been described an example of labeling to determine the pixel of interest is less than the true value t i, You may make it label by another system. For example, the pixel of interest whose absolute difference between the predicted value y i and the true value t i is less than a preset threshold is labeled as a discrimination class A, and the absolute difference between the predicted value y i and the true value t i A pixel of interest having a value equal to or greater than a preset threshold value may be labeled as a discrimination class B. Furthermore, the pixel of interest may be labeled into discrimination class A and discrimination class B by other methods. In the following, an example will be described in which a target pixel whose predicted value y i is equal to or greater than the true value t i and a target pixel whose predicted value y i is less than the true value t i are discriminated and labeled.

図1に戻って、判別係数学習部25は、生徒画像を構成する画素の中から所定の画素を注目画素として設定する。そして、判別係数学習部25は、生徒画像の注目画素とその周辺の画素値から、判別クラスAと判別クラスBを判定するための予測値の演算に用いられる係数を学習する。   Returning to FIG. 1, the discrimination coefficient learning unit 25 sets a predetermined pixel as a target pixel from among pixels constituting the student image. And the discrimination coefficient learning part 25 learns the coefficient used for the calculation of the predicted value for judging discrimination class A and discrimination class B from the attention pixel of a student image, and the surrounding pixel value.

判別係数の学習においては、生徒画像の注目画素とその周辺の画素値から得られる特徴量に基づいて、判別クラスAと判別クラスBを判定するための予測値yiが式(8)により求められるものとする。 In learning of the discriminant coefficient, a predicted value y i for determining the discriminant class A and discriminant class B is obtained by equation (8) based on the feature amount obtained from the target pixel of the student image and the surrounding pixel values. Shall be.

Figure 2011217011
Figure 2011217011

なお、zTは、行列式として表されるzの転置行列を表している。zoは、バイアスパラメータであり、定数項である。なお、式(8)において定数項であるバイアスパラメータzoは含まれないようにすることも可能である。 Z T represents a transposed matrix of z expressed as a determinant. z o is a bias parameter and is a constant term. It should be noted that the bias parameter z o which is a constant term in the equation (8) can be excluded.

式(8)において、パラメータとして用いられるxiは、上述した4つの抽出値からなるタップである。 In equation (8), x i used as a parameter is a tap composed of the four extracted values described above.

判別係数学習部25は、式(8)の係数zおよびバイアスパラメータzoを学習して、判別係数記憶部26に記憶するようになされている。 The discrimination coefficient learning unit 25 learns the coefficient z and the bias parameter z o of the equation (8) and stores them in the discrimination coefficient storage unit 26.

判別予測式の係数は、例えば、判別分析によって導出される。または、最小二乗法を用いて学習するようにしてもよい。   The coefficient of the discriminant prediction formula is derived by, for example, discriminant analysis. Or you may make it learn using a least squares method.

このようにして得られる判別予測式の係数zは、上述したタップの要素数と同じ要素数のベクトルとなる。判別係数学習部25により得られた係数zは、所定の注目画素が判別クラスAまたは判別クラスBのいずれに属するかを予測するための演算に用いられる係数であり、判別係数zと称することにする。なお、バイアスパラメータzoも広義の判別係数であるものとし、必要に応じて判別係数zに対応付けられて記憶されるものとする。 The coefficient z of the discriminant prediction formula thus obtained is a vector having the same number of elements as the number of tap elements described above. The coefficient z obtained by the discrimination coefficient learning unit 25 is a coefficient used for calculation for predicting whether a predetermined target pixel belongs to the discrimination class A or the discrimination class B, and is referred to as a discrimination coefficient z. To do. The bias parameter z o is also a discrimination coefficient in a broad sense, and is stored in association with the discrimination coefficient z as necessary.

このようにして学習された係数zを用いて判別予測部27により予測値が演算されて生徒画像の注目画素が判別クラスAに属するものであるか判別クラスBに属するものであるかを判定することができる。判別予測部27は、式(8)にタップと判別係数z(必要に応じてバイアスパラメータzoも含む)を代入して予測値yiを演算する。 The prediction value is calculated by the discrimination prediction unit 27 using the coefficient z learned in this way, and it is determined whether the target pixel of the student image belongs to the discrimination class A or the discrimination class B. be able to. The discrimination prediction unit 27 calculates the predicted value y i by substituting the tap and the discrimination coefficient z (including the bias parameter z o as necessary) into the equation (8).

そして、判別予測部27による演算の結果、予測値yiが0以上となったタップの注目画素は、判別クラスAに属する画素であり、予測値yiが0未満となったタップの注目画素は、判別クラスBに属する画素であるものと推定できる。 Then, the pixel of interest of the tap whose predicted value y i is 0 or more as a result of the calculation by the discrimination prediction unit 27 is a pixel belonging to the discrimination class A, and the pixel of interest of the tap whose predicted value y i is less than 0. Can be estimated to be pixels belonging to the discrimination class B.

しかしながら、判別予測部27による演算の結果に基づく推定が必ずしも真実であるとは限らない。すなわち、式(8)にタップと判別係数zを代入して演算された予測値yiは、教師画像の画素値(真値)に係らず、生徒画像の画素値から予測した結果であるから、実際には判別クラスAに属する画素が判別クラスBに属する画素として推定されてしまったり、実際には判別クラスBに属する画素が判別クラスAに属する画素として推定されてしまうことがある。 However, the estimation based on the calculation result by the discrimination prediction unit 27 is not necessarily true. That is, the predicted value y i calculated by substituting the tap and the discrimination coefficient z into the equation (8) is a result of prediction from the pixel value of the student image regardless of the pixel value (true value) of the teacher image. Actually, a pixel belonging to the discrimination class A may be estimated as a pixel belonging to the discrimination class B, or a pixel belonging to the discrimination class B may actually be estimated as a pixel belonging to the discrimination class A.

そこで、本発明においては、反復して判別係数を学習させることにより、より精度の高い予測を可能とする。   Therefore, in the present invention, it is possible to perform prediction with higher accuracy by repeatedly learning the discrimination coefficient.

すなわち、クラス分割部28が、判別予測部27の予測結果に基づいて、生徒画像を構成する各画素を、判別クラスAに属する画素と判別クラスBに属する画素とに分割する。   That is, the class dividing unit 28 divides each pixel constituting the student image into a pixel belonging to the discrimination class A and a pixel belonging to the discrimination class B based on the prediction result of the discrimination prediction unit 27.

そして、回帰係数学習部21が、クラス分割部28により判別クラスAに属する画素のみを対象として、上述した場合と同様に回帰係数を学習して回帰係数記憶部22に記憶する。回帰予測部23は、クラス分割部28により判別クラスAに属するとされた画素のみを対象として、上述した場合と同様に回帰予測による予測値を演算する。   Then, the regression coefficient learning unit 21 learns the regression coefficient for only the pixels belonging to the discrimination class A by the class dividing unit 28 and stores it in the regression coefficient storage unit 22 as described above. The regression prediction unit 23 calculates the prediction value based on the regression prediction as described above for only the pixels determined to belong to the discrimination class A by the class division unit 28.

このようにして、得られた予測値と真値とを比較して、ラベリング部24がクラス分割部28により判別クラスAに属するとされた画素を、さらに判別クラスAと判別クラスBにラベリングする。   In this way, the obtained predicted value is compared with the true value, and the labeling unit 24 labels the pixels determined to belong to the discrimination class A by the class division unit 28 to the discrimination class A and the discrimination class B. .

また、回帰係数学習部21が、クラス分割部28により判別クラスBに属するとされた画素のみを対象として、上述した場合と同様に回帰係数を学習する。回帰予測部23は、クラス分割部28により判別クラスBに属するとされた画素のみを対象として、上述した場合と同様に回帰予測による予測値を演算する。   Further, the regression coefficient learning unit 21 learns the regression coefficient in the same manner as described above for only the pixels determined to belong to the discrimination class B by the class dividing unit 28. The regression prediction unit 23 calculates a prediction value based on the regression prediction in the same manner as described above for only the pixels that are determined to belong to the discrimination class B by the class division unit 28.

このようにして、得られた予測値と真値とを比較して、ラベリング部24がクラス分割部28により判別クラスBに属するとされた画素を、さらに判別クラスAと判別クラスBにラベリングする。   In this way, the obtained predicted value is compared with the true value, and the labeling unit 24 labels the pixels determined to belong to the discrimination class B by the class dividing unit 28 to the discrimination class A and the discrimination class B. .

つまり、生徒画像の画素が、4つの集合に分割されることになる。第1の集合は、クラス分割部28により判別クラスAに属するとされた画素であって、ラベリング部24により判別クラスAにラベリングされた画素の集合とされる。第2の集合は、クラス分割部28により判別クラスAに属するとされた画素であって、ラベリング部24により判別クラスBにラベリングされた画素の集合とされる。第3の集合は、クラス分割部28により判別クラスBに属するとされた画素であって、ラベリング部24により判別クラスAにラベリングされた画素の集合とされる。第4の集合は、クラス分割部28により判別クラスBに属するとされた画素であって、ラベリング部24により判別クラスBにラベリングされた画素の集合とされる。   That is, the pixel of the student image is divided into four sets. The first set is a set of pixels that are determined to belong to the discrimination class A by the class division unit 28 and are labeled to the discrimination class A by the labeling unit 24. The second set is a set of pixels that are determined to belong to the discrimination class A by the class division unit 28 and are labeled to the discrimination class B by the labeling unit 24. The third set is a set of pixels that are determined to belong to the discrimination class B by the class dividing unit 28 and are labeled to the discrimination class A by the labeling unit 24. The fourth set is a set of pixels that are determined to belong to the discrimination class B by the class dividing unit 28 and are labeled to the discrimination class B by the labeling unit 24.

この後、判別係数学習部25は、上述した4つの集合のうち、第1の集合と第2の集合に基づいて、あらためて判別係数を、上述した場合と同様にして学習する。また、判別係数学習部25は、上述した4つの集合のうち、第3の集合と第4の集合に基づいて、あらためて判別係数を、上述した場合と同様にして学習する。   Thereafter, the discrimination coefficient learning unit 25 learns the discrimination coefficient again in the same manner as described above based on the first set and the second set among the four sets described above. Also, the discrimination coefficient learning unit 25 learns the discrimination coefficient again in the same manner as described above, based on the third set and the fourth set among the above-described four sets.

図10と図11は、反復して行われる判別係数の学習を説明する図である。   FIG. 10 and FIG. 11 are diagrams for explaining learning of the discrimination coefficient that is performed iteratively.

図10は、生徒画像から得られたタップ値であって、タップ値1を横軸とし、タップ値2を縦軸として生徒画像のタップのそれぞれを表す空間を示した図である。すなわち、同図においては、説明を簡単にするために、仮想的にタップの要素数を2個として生徒画像において存在し得る全てのタップを2次元空間上に表している。従って、同図においては、タップが2個の要素からなるベクトルであるものと仮定する。   FIG. 10 is a diagram showing the tap values obtained from the student images and showing the spaces representing the taps of the student images with the tap value 1 as the horizontal axis and the tap value 2 as the vertical axis. That is, in order to simplify the description, all taps that can exist in the student image are virtually represented in the two-dimensional space with the number of tap elements being two. Therefore, in the figure, it is assumed that the tap is a vector composed of two elements.

同図に示される円71は、ラベリング部24が最初に判別クラスAとラベリングした画素に対応するタップの集合を表しており、円72は、ラベリング部24が最初に判別クラスBとラベリングした画素に対応するタップの集合を表している。円71に示される記号73は、円71に含まれるタップの要素の値の平均値の位置を表しており、円71に示される記号74は、円72に含まれるタップの要素の値の平均値の位置を表している。   A circle 71 shown in the figure represents a set of taps corresponding to the pixels that the labeling unit 24 first labeled with the discrimination class A, and a circle 72 represents a pixel that the labeling unit 24 first labeled with the discrimination class B. Represents a set of taps corresponding to. The symbol 73 shown in the circle 71 represents the position of the average value of the tap elements included in the circle 71, and the symbol 74 shown in the circle 71 represents the average of the values of the tap elements included in the circle 72. It represents the position of the value.

同図に示されるように、円71と円72は、互いに重なり合っているので、生徒画像から得られたタップの要素の値のみに基づいて、正確に判別クラスAとラベリングした画素に対応するタップと判別クラスBとラベリングした画素に対応するタップとを判別することはできなかったことになる。   As shown in the figure, since the circle 71 and the circle 72 overlap each other, the tap corresponding to the pixel that is correctly labeled with the discrimination class A based only on the value of the tap element obtained from the student image. It is impossible to discriminate between the discrimination class B and the tap corresponding to the labeled pixel.

しかしながら、記号73と記号74とに基づいて、おおよそ2つのクラスを判別するための境界線75を特定することは可能である。ここで、境界線75を特定する処理が、判別係数学習部25により行われる第1回目の学習により得られた判別係数を用いた判別予測部27の判別予測の処理に対応することになる。なお、境界線75上に位置するタップが、式(8)により演算された予測値yiが0となったタップである。 However, it is possible to specify the boundary line 75 for discriminating roughly two classes based on the symbols 73 and 74. Here, the process of specifying the boundary line 75 corresponds to the process of the discrimination prediction of the discrimination prediction unit 27 using the discrimination coefficient obtained by the first learning performed by the discrimination coefficient learning unit 25. In addition, the tap located on the boundary line 75 is a tap in which the predicted value y i calculated by Expression (8) is zero.

境界線75の図中右側に位置するタップの集合を識別するために、クラス分割部28がそれらのタップに対応する画素にクラスコードビット1を付与する。また、境界線75の図中左側に位置するタップの集合を識別するために、図1のクラス分割部28がそれらのタップに対応する画素にクラスコードビット0を付与する。   In order to identify a set of taps located on the right side of the boundary line 75 in the figure, the class dividing unit 28 assigns class code bits 1 to the pixels corresponding to those taps. In addition, in order to identify a set of taps located on the left side of the boundary line 75 in the figure, the class dividing unit 28 in FIG. 1 gives class code bits 0 to the pixels corresponding to those taps.

なお、第1回目の学習により得られた判別係数は、第1回目の判別予測に用いられる判別係数であることを表すコードなどに対応付けられて、図1の判別係数記憶部26に記憶される。また、第1回目の判別予測の結果に基づいて、クラスコードビット1が付与された画素のみに基づいて、あらためて回帰係数が学習されて回帰予測が行われる。同様に、第1回目の判別予測の結果に基づいて、クラスコードビット0が付与された画素のみに基づいて、あらためて回帰係数が学習されて回帰予測が行われる。   The discriminant coefficient obtained by the first learning is stored in the discriminant coefficient storage unit 26 in FIG. 1 in association with a code representing the discriminant coefficient used for the first discriminant prediction. The Further, based on the result of the first discrimination prediction, the regression coefficient is learned again based on only the pixel to which the class code bit 1 is assigned, and the regression prediction is performed. Similarly, based on the result of the first discrimination prediction, the regression coefficient is learned again based on only the pixel to which the class code bit 0 is assigned, and the regression prediction is performed.

そして、クラスコードビット1が付与された画素群と、クラスコードビット0が付与された画素群のそれぞれに基づいて判別係数の学習が繰り返される。その結果、クラスコードビット1が付与された画素群がさらに2つに分割され、クラスコードビット2が付与された画素群もさらに2つに分割されることになる。このときの分割は、判別係数学習部25により行われる第2回目の学習により得られた判別係数を用いた判別予測部27の判別予測によりなされることになる。   Then, learning of the discrimination coefficient is repeated based on each of the pixel group to which the class code bit 1 is assigned and the pixel group to which the class code bit 0 is assigned. As a result, the pixel group to which the class code bit 1 is assigned is further divided into two, and the pixel group to which the class code bit 2 is assigned is further divided into two. The division at this time is performed by the discrimination prediction of the discrimination prediction unit 27 using the discrimination coefficient obtained by the second learning performed by the discrimination coefficient learning unit 25.

なお、第2回目の学習により得られた判別係数は、第2回目の判別予測に用いられる判別係数であることを表すコードなどに対応付けられて、図1の判別係数記憶部26に記憶される。第2回目の学習により得られる判別係数は、第1回目の判別予測によりクラスコードビット1が付与された画素群と、第1回目の判別予測によりクラスコードビット0が付与された画素群のそれぞれを対象として行われる判別予測に用いられるので、いずれの画素群を対象とする判別予測に用いられるものであるのかを表すコードなどに対応付けられて、図1の判別係数記憶部26に記憶される。すなわち、第2回目の判別予測に用いられる判別係数は、2種類記憶されることになる。   The discriminant coefficient obtained by the second learning is stored in the discriminant coefficient storage unit 26 in FIG. 1 in association with a code representing the discriminant coefficient used for the second discriminant prediction. The The discriminant coefficients obtained by the second learning are the pixel group to which the class code bit 1 is given by the first discriminant prediction and the pixel group to which the class code bit 0 is given by the first discriminant prediction, respectively. 1 is stored in the discrimination coefficient storage unit 26 of FIG. 1 in association with a code indicating which pixel group is used for discrimination prediction. The That is, two types of discrimination coefficients used for the second discrimination prediction are stored.

また、第1回目と第2回目の判別予測の結果に基づいて、クラスコードビット11が付与された画素のみに基づいて、あらためて回帰係数が学習されて回帰予測が行われることになる。同様に、第1回目と第2回目の判別予測の結果に基づいて、クラスコードビット10が付与された画素のみに基づいて、あらためて回帰係数が学習されて回帰予測が行われることになる。さらに、第1回目と第2回目の判別予測の結果に基づいて、クラスコードビット01が付与された画素のみに基づいて、あらためて回帰係数が学習されて回帰予測が行われ、クラスコードビット00が付与された画素のみに基づいて、あらためて回帰係数が学習されて回帰予測が行われることになる。   In addition, based on the results of the first and second discrimination predictions, the regression coefficient is learned again based on only the pixels to which the class code bits 11 are assigned, and regression prediction is performed. Similarly, based on the results of the first and second discrimination predictions, the regression coefficient is learned anew and regression prediction is performed based only on the pixels to which the class code bit 10 is assigned. Further, based on the results of the first and second discrimination predictions, the regression coefficient is learned again based on only the pixels to which the class code bit 01 is assigned, and the regression prediction is performed. Based on only the assigned pixels, the regression coefficient is learned again and regression prediction is performed.

このような処理を繰り返すことにより、図10に示される空間が図11に示されるように分割される。   By repeating such processing, the space shown in FIG. 10 is divided as shown in FIG.

図11は、図10と同様に、タップ値1を横軸とし、タップ値2を縦軸として生徒画像のタップのそれぞれを表す空間を示した図である。同図では、判別係数学習部25により3回反復して判別係数の学習が行われた場合の例が示されている。すなわち、第1回目の学習により得られた判別係数を用いた判別予測により境界線75が特定され、第2回目の学習により得られた判別係数を用いた判別予測により境界線76−1と境界線76−2が特定される。第3回目の学習により得られた判別係数を用いた判別予測により境界線77−1乃至境界線77−4が特定される。   FIG. 11 is a diagram showing a space representing each tap of a student image with the tap value 1 as the horizontal axis and the tap value 2 as the vertical axis, as in FIG. 10. In the figure, an example is shown in which the discrimination coefficient learning unit 25 repeats learning of the discrimination coefficient three times. That is, the boundary line 75 is specified by the discrimination prediction using the discrimination coefficient obtained by the first learning, and the boundary line 76-1 and the boundary are determined by the discrimination prediction using the discrimination coefficient obtained by the second learning. Line 76-2 is identified. The boundary lines 77-1 to 77-4 are specified by the discrimination prediction using the discrimination coefficient obtained by the third learning.

図1のクラス分割部28は、境界線75により分割されたタップの集合を識別するために、第1ビット目のクラスコードビットを付与し、境界線76−1と境界線76−2により分割されたタップの集合を識別するために、第2ビット目のクラスコードビットを付与し、境界線77−1乃至境界線77−4により分割されたタップの集合を識別するために、第3ビット目のクラスコードビットを付与する。   The class dividing unit 28 in FIG. 1 assigns a first class code bit to identify a set of taps divided by the boundary line 75, and divides it by the boundary line 76-1 and the boundary line 76-2. In order to identify the set of generated taps, a second class code bit is provided, and the third bit is used to identify the set of taps divided by the boundary lines 77-1 to 77-4. Gives the eye class code bit.

従って、図11に示されるように、生徒画像から得られたタップのそれぞれは、3ビットのクラスコードに基づいて特定されるクラス番号C0乃至C7の8つのクラスに分割(分類)されることになる。   Accordingly, as shown in FIG. 11, each tap obtained from the student image is divided (classified) into eight classes of class numbers C0 to C7 specified based on the 3-bit class code. Become.

図11に示されるようにクラス分類された場合、図1の判別係数記憶部26に、第1回目の判別予測に用いられる判別係数が1種類記憶され、第2回目の判別予測に用いられる判別係数が2種類記憶され、第3回目の判別予測に用いられる判別係数が4種類記憶されていることになる。   When classification is performed as shown in FIG. 11, one type of discriminant coefficient used for the first discriminant prediction is stored in the discriminant coefficient storage unit 26 of FIG. 1, and the discriminant used for the second discriminant prediction is stored. Two types of coefficients are stored, and four types of discrimination coefficients used for the third discrimination prediction are stored.

また、図11に示されるようにクラス分類された場合、図1の回帰係数記憶部22に、クラス番号C0乃至C7のそれぞれに対応する8種類の回帰係数が記憶されていることになる。ここで、クラス番号C0乃至C7のそれぞれに対応する8種類の回帰係数は、第3回目の判別予測の結果、クラス番号C0乃至C7のそれぞれに分類された生徒画像の注目画素のタップと、注目画素に対応する教師画像の画素値とをサンプルとし、それぞれのクラス番号毎にあらためて回帰係数の学習が行われて記憶される。   Further, when classification is performed as shown in FIG. 11, the regression coefficient storage unit 22 of FIG. 1 stores eight types of regression coefficients corresponding to the class numbers C0 to C7. Here, the eight types of regression coefficients corresponding to the class numbers C0 to C7 are the taps of the target pixels of the student images classified into the class numbers C0 to C7 as a result of the third discrimination prediction, and the attention Using the pixel value of the teacher image corresponding to the pixel as a sample, the regression coefficient is learned again for each class number and stored.

このように、生徒画像と教師画像を用いて予め判別係数を学習しておき、入力された画像について反復して判別予測を繰り返せば、入力画像の画素をクラス番号C0乃至C7の8つのクラスに分類することが可能となる。そして、8つのクラスに分類された画素に対応するタップと、それぞれのクラスに対応する回帰係数を用いて回帰予測を行えば、適切な高画質化処理を行うことが可能となる。   As described above, if the discrimination coefficient is learned in advance using the student image and the teacher image and the discrimination prediction is repeated for the input image, the pixels of the input image are classified into eight classes having class numbers C0 to C7. It becomes possible to classify. If the regression prediction is performed using the taps corresponding to the pixels classified into the eight classes and the regression coefficients corresponding to the respective classes, it is possible to perform appropriate image quality improvement processing.

図12は、入力画像を図11のようにクラス分類する場合の例を、2分木構造を用いて説明する図である。入力画像の各画素が、第1回目の判別予測によって、第1ビットのクラスコードビット1または0が付与された画素に分類される。このとき、判別予測に用いられる判別係数は、反復コード1に対応する判別係数として図1の判別係数記憶部26に記憶されているものとする。   FIG. 12 is a diagram illustrating an example of classifying an input image as shown in FIG. 11 using a binary tree structure. Each pixel of the input image is classified into a pixel to which the class code bit 1 or 0 of the first bit is given by the first discrimination prediction. At this time, it is assumed that the discrimination coefficient used for discrimination prediction is stored in the discrimination coefficient storage unit 26 of FIG. 1 as the discrimination coefficient corresponding to the iteration code 1.

第1ビットのクラスコードビット1が付与された画素は、第2ビットのクラスコードビット1または0が付与された画素にさらに分類される。このとき、判別予測に用いられる判別係数は、反復コード21に対応する判別係数として図1の判別係数記憶部26に記憶されているものとする。同様に、第1ビットのクラスコードビット0が付与された画素は、第2ビットのクラスコードビット1または0が付与された画素にさらに分類される。このとき、判別予測に用いられる判別係数は、反復コード22に対応する判別係数として図1の判別係数記憶部26に記憶されているものとする。   The pixels to which the first bit class code bit 1 is assigned are further classified into the pixels to which the second bit class code bit 1 or 0 is assigned. At this time, it is assumed that the discrimination coefficient used for discrimination prediction is stored in the discrimination coefficient storage unit 26 of FIG. 1 as the discrimination coefficient corresponding to the repetition code 21. Similarly, the pixels to which the class code bit 0 of the first bit is assigned are further classified into the pixels to which the class code bit 1 or 0 of the second bit is assigned. At this time, it is assumed that the discrimination coefficient used for discrimination prediction is stored in the discrimination coefficient storage unit 26 of FIG. 1 as the discrimination coefficient corresponding to the repetition code 22.

第1ビットおよび第2ビットのクラスコードビット11が付与された画素は、第3ビットのクラスコードビット1または0が付与された画素にさらに分類される。このとき、判別予測に用いられる判別係数は、反復コード31に対応する判別係数として図1の判別係数記憶部26に記憶されているものとする。第1ビットおよび第2ビットのクラスコードビット10が付与された画素は、第3ビットのクラスコードビット1または0が付与された画素にさらに分類される。このとき、判別予測に用いられる判別係数は、反復コード32に対応する判別係数として図1の判別係数記憶部26に記憶されているものとする。   Pixels to which the class code bit 11 of the first bit and the second bit is assigned are further classified into pixels to which the class code bit 1 or 0 of the third bit is assigned. At this time, it is assumed that the discrimination coefficient used for discrimination prediction is stored in the discrimination coefficient storage unit 26 of FIG. 1 as a discrimination coefficient corresponding to the repetitive code 31. The pixels to which the class code bit 10 of the first bit and the second bit is assigned are further classified into pixels to which the class code bit 1 or 0 of the third bit is assigned. At this time, it is assumed that the discrimination coefficient used for discrimination prediction is stored in the discrimination coefficient storage unit 26 of FIG. 1 as the discrimination coefficient corresponding to the repetition code 32.

同様に、第1ビットおよび第2ビットのクラスコードビット01または00が付与された画素も、第3ビットのクラスコードビット1または0が付与された画素にさらに分類される。そして、反復コード33または反復コード34に対応する判別係数が図1の判別係数記憶部26に記憶されているものとする。   Similarly, pixels to which the first and second bit class code bits 01 or 00 are assigned are further classified into pixels to which the third bit class code bit 1 or 0 is assigned. Then, it is assumed that the discrimination coefficient corresponding to the repetition code 33 or the repetition code 34 is stored in the discrimination coefficient storage unit 26 of FIG.

このように、3回反復して判別を行うことにより、入力画像の画素のそれぞれに3ビットからなるクラスコードが設定され、クラス番号が特定される。そして特定されたクラス番号に対応する回帰係数も特定される。   In this way, by repeating the determination three times, a class code consisting of 3 bits is set for each pixel of the input image, and the class number is specified. A regression coefficient corresponding to the specified class number is also specified.

この例では、クラスコードビットを反復回数順に、上位から下位ビットに繋げた値がクラス番号に対応している。従って、最終的なクラスコードに対応するクラス番号Ckは、例えば、式(9)のようにして特定される。   In this example, a value obtained by connecting the class code bits from the upper bit to the lower bit in order of the number of repetitions corresponds to the class number. Therefore, the class number Ck corresponding to the final class code is specified as shown in Equation (9), for example.

Figure 2011217011
Figure 2011217011

また、図12に示されるように,反復回数pと最終的なクラス数Ncとの関係は、式(10)により表される。   Also, as shown in FIG. 12, the relationship between the number of iterations p and the final class number Nc is expressed by equation (10).

Figure 2011217011
Figure 2011217011

なお、最終的なクラス数Ncは、最終的に使用する回帰係数の総数Nmと等しくなる。   Note that the final class number Nc is equal to the total number Nm of regression coefficients to be finally used.

判別係数の総数Ndは、式(11)により表される。   The total number Nd of discrimination coefficients is expressed by equation (11).

Figure 2011217011
Figure 2011217011

なお、後述する画像処理装置を用いた高画質化処理における判別予測において、適応的に反復回数を減らすことで、処理のロバスト化や高速化を図ることも可能である。そのようにする場合には図12の各分岐において用いられた回帰係数も必要になるので、回帰係数の総数Nmは式(12)により表されるものとなる。   Note that, in the discrimination prediction in the image quality improvement processing using the image processing apparatus to be described later, it is possible to increase the number of iterations adaptively, thereby increasing the processing speed and speed. In such a case, since the regression coefficients used in the respective branches in FIG. 12 are also required, the total number Nm of the regression coefficients is expressed by Expression (12).

Figure 2011217011
Figure 2011217011

ここでは、主として、判別係数の学習が3回反復して行われる例について説明したが、反復回数は、1回であってもよい。すなわち、第1回目の判別係数の学習が終了した後、判別係数学習部25による判別係数の演算、判別予測部27による判別予測が繰り返し実行されないようにしてもよい。   Although an example in which learning of the discrimination coefficient is performed three times repeatedly has been mainly described here, the number of repetitions may be one. That is, after the first discrimination coefficient learning is completed, the discrimination coefficient calculation by the discrimination coefficient learning unit 25 and the discrimination prediction by the discrimination prediction unit 27 may not be repeatedly executed.

図13は、本発明の一実施の形態に係る画像処理装置の構成例を示すブロック図である。
同図の画像処理装置100は、図1の学習装置10に対応する画像処理装置とされる。すなわち、画像処理装置100は、学習装置10により学習された判別係数を用いて入力画像の各画素のそれぞれのクラスを判別する。そして、画像処理装置100は、判別されたクラスに対応する回帰係数であって、学習装置10により学習された回帰係数を用いて入力画像から得られるタップの回帰予測演算を行い、入力画像を高画質化する画像処理を行うようになされている。
FIG. 13 is a block diagram illustrating a configuration example of an image processing apparatus according to an embodiment of the present invention.
The image processing apparatus 100 in FIG. 1 is an image processing apparatus corresponding to the learning apparatus 10 in FIG. That is, the image processing apparatus 100 determines the class of each pixel of the input image using the determination coefficient learned by the learning apparatus 10. Then, the image processing apparatus 100 performs a regression prediction calculation of taps obtained from the input image using the regression coefficients corresponding to the determined class and learned by the learning apparatus 10, and increases the input image. Image processing for improving image quality is performed.

すなわち、画像処理装置100の判別係数記憶部122には、学習装置10の判別係数記憶部26に記憶されていた判別係数が予め記憶される。画像処理装置100の回帰係数記憶部124には、学習装置10の回帰係数記憶部22に記憶されていた回帰係数が予め記憶される。   That is, the discrimination coefficient stored in the discrimination coefficient storage unit 26 of the learning device 10 is stored in advance in the discrimination coefficient storage unit 122 of the image processing apparatus 100. The regression coefficient storage unit 124 of the image processing apparatus 100 stores in advance the regression coefficient stored in the regression coefficient storage unit 22 of the learning apparatus 10.

また、画像処理装置100には、動きベクトル検出部126が設けられており、動きベクトル検出部126は、例えば、ブロックマッチング法、勾配法などを用いて生徒画像の動きベクトルを検出する。動きベクトル検出部により検出された動きベクトルは、生徒画像の動きぼけの動きの方向と大きさを表すものであり、判別予測部121および回帰予測部125に供給される。そして、動きベクトルは、上述したように、タップを取得する際に用いられることになる。   In addition, the image processing apparatus 100 is provided with a motion vector detection unit 126. The motion vector detection unit 126 detects a motion vector of a student image using, for example, a block matching method, a gradient method, or the like. The motion vector detected by the motion vector detection unit represents the direction and magnitude of motion blur of the student image, and is supplied to the discrimination prediction unit 121 and the regression prediction unit 125. The motion vector is used when acquiring a tap as described above.

同図の判別予測部121は、入力画像において注目画素を設定し、注目画素に対応するタップを取得して式(8)を参照して予測した演算を行う。ここでのタップは、やはり上述の4つの抽出値とされる。すなわち、動き方向に従って抽出した画素値、抽出した画素値の最大値および最小値、抽出した画素値の動き方向に従った微分特徴量の絶対値、並びに抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値とされる。   The discrimination prediction unit 121 in the figure sets a target pixel in the input image, obtains a tap corresponding to the target pixel, and performs a calculation predicted with reference to Expression (8). The taps here are also the above four extracted values. That is, the pixel value extracted according to the movement direction, the maximum and minimum values of the extracted pixel value, the absolute value of the differential feature amount according to the movement direction of the extracted pixel value, and the differentiation according to the movement direction of the extracted pixel value The absolute value of the feature value is the maximum value.

このとき、判別予測部121は、反復回数と判別予測の対象とする画素群に基づいて反復コードを特定し、判別係数記憶部122から反復コードに対応する判別係数を読み出すようになされている。   At this time, the discrimination prediction unit 121 identifies the iteration code based on the number of iterations and the pixel group that is the subject of discrimination prediction, and reads the discrimination coefficient corresponding to the iteration code from the discrimination coefficient storage unit 122.

クラス分割部123は、判別予測部121の予測結果に基づいて、注目画素にクラスコードビットを付与していくことで、入力画像の画素を2つの集合に分割する。このとき、上述したように、例えば、式(8)により演算された予測値yiと0との大小比較を行って、注目画素にクラスコードビットが付与される。 The class division unit 123 divides the pixels of the input image into two sets by adding class code bits to the target pixel based on the prediction result of the discrimination prediction unit 121. At this time, as described above, for example, the predicted value y i calculated by Expression (8) is compared with 0, and the class code bit is given to the target pixel.

クラス分割部123の処理を経て、判別予測部121は、反復して判別予測を行い、クラス分割部123によってさらなる分割がなされる。判別予測は、予め設定された回数だけ反復して行われる。例えば、判別予測が3回反復して行われる場合、例えば、図11または図12を参照して上述したように、入力画像が3ビットのクラスコードのクラス番号に対応する画素群に分類されることになる。   Through the processing of the class division unit 123, the discrimination prediction unit 121 repeatedly performs discrimination prediction, and further division is performed by the class division unit 123. The discrimination prediction is repeated by a preset number of times. For example, when the discrimination prediction is performed three times, the input image is classified into a pixel group corresponding to the class number of the 3-bit class code as described above with reference to FIG. 11 or FIG. It will be.

なお、画像処理装置100における判別予測の反復回数は、学習装置10による判別係数の学習の反復回数と同じとなるように設定される。   Note that the number of iterations of discrimination prediction in the image processing apparatus 100 is set to be the same as the number of iterations of learning of the discrimination coefficient by the learning device 10.

クラス分割部123は、入力画像の各画素を特定する情報とその画素のクラス番号とを対応付けて回帰係数記憶部124に供給するようになされている。   The class division unit 123 associates information for specifying each pixel of the input image with the class number of the pixel and supplies the information to the regression coefficient storage unit 124.

回帰予測部125は、入力画像において注目画素を設定し、注目画素に対応するタップを取得して式(6)を参照して予測した演算を行う。このとき、回帰予測部125は、注目画素を特定する情報を回帰係数記憶部124に供給して、その注目画素のクラス番号に対応する回帰係数を、回帰係数記憶部124から読み出すようになされている。   The regression prediction unit 125 sets a target pixel in the input image, acquires a tap corresponding to the target pixel, and performs a calculation predicted with reference to Expression (6). At this time, the regression prediction unit 125 supplies information specifying the target pixel to the regression coefficient storage unit 124, and reads the regression coefficient corresponding to the class number of the target pixel from the regression coefficient storage unit 124. Yes.

そして、回帰予測部125の演算により得られた予測値を、注目画素に対応する画素の値とする出力画像が生成される。これにより、入力画像が高画質化された出力画像が得られることになる。   Then, an output image is generated in which the predicted value obtained by the calculation of the regression prediction unit 125 is the value of the pixel corresponding to the target pixel. As a result, an output image in which the input image is improved in image quality is obtained.

このように、本発明によれば、入力画像に対して判別予測を行うことにより、入力画像を構成する各画素(実際には、注目画素に対応するタップ)を、高画質化処理に適したクラスに分類することができる。   Thus, according to the present invention, by performing discrimination prediction on the input image, each pixel constituting the input image (actually, a tap corresponding to the target pixel) is suitable for the high image quality processing. Can be classified into classes.

例えば、従来の技術のように、予め各種の動きぼけ除去処理を施しておく場合には、動きの方向や大きさに応じて多数のバリエーションを用意する必要がある。また、反復演算を行う場合も何度も処理を繰り返すために、結果として回路規模の増大や処理時間の増大につながる傾向がある。   For example, when various types of motion blur removal processing are performed in advance as in the conventional technology, it is necessary to prepare a large number of variations according to the direction and size of the motion. Also, when performing iterative calculations, the processing is repeated many times, and as a result, the circuit scale tends to increase and the processing time increases.

また、動きぼけ除去処理のバリエーションの中から1つを選択する際の基準や、反復演算を止める際の基準も一律に決めることは難しく、劣化が残ることや画像のディテール感を損なう場合が多い。   In addition, it is difficult to uniformly determine the standard for selecting one of the variations in motion blur removal processing and the standard for stopping the iterative calculation, often resulting in deterioration and loss of image detail. .

これに対して、本発明では、動きの方向や大きさに応じて処理を変える必要がなく、回路規模を適性なものとすることができる。また、処理を選択する際の基準や、反復演算を止める際の基準なども必要なく、画像に劣化が残ったり、画像のディテール感を損なわれることもない。   On the other hand, in the present invention, it is not necessary to change the processing according to the direction and size of the movement, and the circuit scale can be made appropriate. In addition, there is no need for a criterion for selecting a process or a criterion for stopping an iterative calculation, so that the image does not remain deteriorated or the details of the image are not impaired.

さらに、本発明では、反復して判別予測を行うことにより、より適切にクラス分類することが可能となる。また、反復して行われる判別予測の処理の途中において、入力画像の画素値などに処理を施した中間データなどを生成する必要がないので、処理を高速化することが可能である。すなわち、出力画像を予測する際に,どの画素に対しても高々(p+1)回の予測式の演算で、クラス分類と回帰予測を行うことができるので高速な処理が可能である。また、クラス分類と回帰予測を行う際に、タップの演算の中間データなどを用いることなく、常に入力に対する演算のみで完結しているために、実装においてパイプライン構造を利用することが可能となる。   Furthermore, in the present invention, it is possible to classify more appropriately by repeatedly performing discrimination prediction. In addition, it is not necessary to generate intermediate data or the like obtained by performing processing on the pixel values of the input image in the middle of the repetitive discrimination prediction processing, so that the processing speed can be increased. That is, when predicting an output image, class classification and regression prediction can be performed by calculating the prediction formula at most (p + 1) times for any pixel, so that high-speed processing is possible. In addition, when class classification and regression prediction are performed, it is possible to use the pipeline structure in the implementation because it is always completed only by the operation for the input without using the intermediate data of the tap operation. .

次に、図14のフローチャートを参照して、判別係数回帰係数学習処理の詳細について説明する。この処理は、図1の学習装置10により実行される。   Next, details of the discrimination coefficient regression coefficient learning process will be described with reference to the flowchart of FIG. This process is executed by the learning device 10 of FIG.

ステップS101において、判別係数学習部25は、反復コードを特定する。いまの場合、第1回目の学習の処理であるから反復コードは1と特定される。   In step S101, the discrimination coefficient learning unit 25 identifies a repetitive code. In this case, since the first learning process, the repetitive code is specified as 1.

ステップS102において、回帰係数学習部21乃至ラベリング部24は、図15を参照して後述するラベリング処理を実行する。ここで、図15のフローチャートを参照して図14のステップS102のラベリング処理の詳細な例について説明する。   In step S102, the regression coefficient learning unit 21 to the labeling unit 24 execute a labeling process to be described later with reference to FIG. Here, a detailed example of the labeling process in step S102 in FIG. 14 will be described with reference to the flowchart in FIG.

ステップS131において、回帰係数学習部21は、図16を参照して後述する回帰係数演算処理を実行する。これにより、生徒画像の画素値に基づいて教師画像の画素値を予測するための演算に用いられる回帰係数が求められる。   In step S131, the regression coefficient learning unit 21 executes a regression coefficient calculation process which will be described later with reference to FIG. Thereby, the regression coefficient used for the calculation for predicting the pixel value of the teacher image based on the pixel value of the student image is obtained.

ステップS132において、回帰予測部23は、ステップS131の処理により求められた回帰係数を用いて回帰予測値を演算する。このとき、例えば、式(6)の演算が行われ、予測値yiが求められる。 In step S132, the regression prediction unit 23 calculates a regression prediction value using the regression coefficient obtained by the process of step S131. At this time, for example, the calculation of Expression (6) is performed to obtain the predicted value y i .

ステップS133において、ラベリング部24は、ステップS132の処理により得られた予測値yiを、教師画像の画素値である真値tiと比較する。 In step S133, the labeling unit 24 compares the predicted value y i obtained by the process of step S132 with the true value t i that is the pixel value of the teacher image.

ステップS134において、ラベリング部24は、ステップS133の比較結果に基づいて、注目画素(実際には、注目画素に対応するタップ)を判別クラスAまたは判別クラスBにラベリングする。これにより、例えば、図9を参照して上述したように、判別クラスAまたは判別クラスBのラベリングがなされる。   In step S134, the labeling unit 24 labels the target pixel (actually, a tap corresponding to the target pixel) into the discrimination class A or the discrimination class B based on the comparison result in step S133. Thereby, for example, as described above with reference to FIG. 9, the discrimination class A or the discrimination class B is labeled.

なお、ステップS132乃至ステップS134の処理は、反復コードに対応して定まる処理対象の画素のそれぞれを対象として行われる。   Note that the processing in steps S132 to S134 is performed for each pixel to be processed that is determined in accordance with the repetition code.

このようにしてラベリング処理が実行される。   In this way, the labeling process is executed.

次に、図16のフローチャートを参照して、図15のステップS131の回帰係数演算処理の詳細な例について説明する。   Next, a detailed example of the regression coefficient calculation process in step S131 in FIG. 15 will be described with reference to the flowchart in FIG.

ステップS151において、回帰係数学習部21は、ステップS101の処理で特定された反復コードに対応するサンプルを特定する。ここでの、サンプルは、生徒画像の注目画素に対応するタップと、その注目画素に対応する教師画像の画素との組み合わせを意味する。なお、タップは、動きベクトル検出部29により検出された動きベクトルに基づいて取得される。   In step S151, the regression coefficient learning unit 21 specifies a sample corresponding to the repetitive code specified in the process of step S101. Here, the sample means a combination of a tap corresponding to the target pixel of the student image and a pixel of the teacher image corresponding to the target pixel. The tap is acquired based on the motion vector detected by the motion vector detection unit 29.

例えば、反復コードが1であれば、第1回目の学習の処理なので、生徒画像の全画素のそれぞれを注目画素としてサンプルが特定される。例えば、反復コードが21であれば、第2回目の学習の処理の一部なので、生徒画像の画素のうち、1回目の学習の処理でクラスコードビット1が付与された画素のそれぞれを注目画素としてサンプルが特定される。例えば、反復コードが34であれば、第3回目の学習の処理の一部なので、生徒画像の画素のうち、1回目の学習の処理でクラスコードビット0が付与され、2回目の学習の処理でクラスコードビット0が付与された画素のそれぞれを注目画素としてサンプルが特定される。   For example, if the repetitive code is 1, it is the first learning process, and therefore, the sample is specified with each of the pixels of the student image as the target pixel. For example, if the repetitive code is 21, it is a part of the second learning process, so that each pixel of the student image to which the class code bit 1 is assigned in the first learning process is selected as the target pixel. As the sample is identified. For example, if the repetitive code is 34, it is a part of the third learning process, so that the class code bit 0 is given in the first learning process among the pixels of the student image, and the second learning process. Thus, a sample is specified using each pixel to which the class code bit 0 is assigned as a target pixel.

ステップS152において、回帰係数学習部21は、ステップS151の処理で特定されたサンプルの足しこみを行う。このとき、例えば、式(5)にサンプルのタップと教師画像の画素値が足しこまれていく。   In step S152, the regression coefficient learning unit 21 adds the samples specified in the process of step S151. At this time, for example, the sample tap and the pixel value of the teacher image are added to Expression (5).

ステップS153において、回帰係数学習部21は、全サンプルを足しこんだか否かを判定し、全サンプルを足しこんだと判定されるまで、ステップS152の処理が繰り返し実行される。   In step S153, the regression coefficient learning unit 21 determines whether all samples have been added, and the process of step S152 is repeatedly executed until it is determined that all samples have been added.

ステップS154において、回帰係数学習部21は、例えば、式(7)の演算を行い、最小二乗法を用いて、回帰係数を導出する。   In step S154, the regression coefficient learning unit 21 performs, for example, the calculation of Expression (7), and derives the regression coefficient using the least square method.

このようにして、回帰係数演算処理が実行される。   In this way, the regression coefficient calculation process is executed.

以上により図14のステップS102のラベリング処理が終了し、処理は、図14のステップS103の判別係数演算処理に進む。   Thus, the labeling process in step S102 in FIG. 14 is completed, and the process proceeds to the discrimination coefficient calculation process in step S103 in FIG.

ステップS103において、判別係数学習部25は、図17を参照して後述する判別係数演算処理を実行する。ここで、図17のフローチャートを参照して、図14のステップS103の判別係数演算処理の詳細な例について説明する。   In step S103, the discrimination coefficient learning unit 25 executes a discrimination coefficient calculation process described later with reference to FIG. Here, a detailed example of the discrimination coefficient calculation process in step S103 in FIG. 14 will be described with reference to the flowchart in FIG.

ステップS171において、判別係数学習部25は、ステップS101の処理で特定された反復コードに対応するサンプルを特定する。ここでの、サンプルは、生徒画像の注目画素に対応するタップと、注目画素についての判別クラスAまたは判別クラスBのラベリングの結果との組み合わせを意味する。   In step S171, the discrimination coefficient learning unit 25 specifies a sample corresponding to the repetitive code specified in the process of step S101. Here, the sample means a combination of the tap corresponding to the target pixel of the student image and the result of labeling of the discrimination class A or the discrimination class B for the target pixel.

例えば、反復コードが1であれば、第1回目の学習の処理なので、生徒画像の全画素のそれぞれを注目画素としてサンプルが特定される。例えば、反復コードが21であれば、第2回目の学習の処理の一部なので、生徒画像の画素のうち、1回目の学習の処理でクラスコードビット1が付与された画素のそれぞれを注目画素としてサンプルが特定される。例えば、反復コードが34であれば、第3回目の学習の処理の一部なので、生徒画像の画素のうち、1回目の学習の処理でクラスコードビット0が付与され、2回目の学習の処理でクラスコードビット0が付与された画素のそれぞれを注目画素としてサンプルが特定される。   For example, if the repetitive code is 1, it is the first learning process, and therefore, the sample is specified with each of the pixels of the student image as the target pixel. For example, if the repetitive code is 21, it is a part of the second learning process, so that each pixel of the student image to which the class code bit 1 is assigned in the first learning process is selected as the target pixel. As the sample is identified. For example, if the repetitive code is 34, it is a part of the third learning process, so that the class code bit 0 is given in the first learning process among the pixels of the student image, and the second learning process. Thus, a sample is specified using each pixel to which the class code bit 0 is assigned as a target pixel.

ステップS172において、判別係数学習部25は、ステップS171の処理で特定されたサンプルの足しこみを行う。   In step S172, the discrimination coefficient learning unit 25 adds the samples specified in the process of step S171.

ステップS173において、判別係数学習部25は、全サンプルを足しこんだか否かを判定し、全サンプルを足しこんだと判定されるまで、ステップS172の処理が繰り返し実行される。   In step S173, the discrimination coefficient learning unit 25 determines whether or not all samples have been added, and the process of step S172 is repeatedly executed until it is determined that all samples have been added.

ステップS174において、判別係数学習部25は、例えば、判別分析により(最小二乗法を用いてもよい)、判別係数を導出する。   In step S174, the discrimination coefficient learning unit 25 derives a discrimination coefficient by, for example, discriminant analysis (the least square method may be used).

このようにして、判別係数演算処理が実行される。   In this way, the discrimination coefficient calculation process is executed.

図14に戻って、ステップS104において、判別予測部27は、ステップS103の処理により求められた係数と、生徒画像から得られるタップを用いて、判別予測値を演算する。このとき、例えば、式(8)の演算が行われ、予測値yi(判別予測値)が求められる。 Returning to FIG. 14, in step S <b> 104, the discrimination prediction unit 27 calculates a discrimination prediction value by using the coefficient obtained by the processing in step S <b> 103 and the tap obtained from the student image. At this time, for example, the calculation of Expression (8) is performed, and the predicted value y i (discriminated predicted value) is obtained.

ステップS105において、クラス分割部28は、ステップS104の処理により求められた判別予測値が0以上であるか否かを判定する。   In step S105, the class dividing unit 28 determines whether or not the discrimination prediction value obtained by the process of step S104 is 0 or more.

ステップS105において、判別予測値が0以上であると判定された場合、処理は、ステップS106に進み、当該注目画素(実際にはタップ)にクラスコードビット1が設定される。一方、ステップS105において、判別予測値が0未満であると判定された場合、処理は、ステップS107に進み、当該注目画素(実際にはタップ)にクラスコードビット0が設定される。   If it is determined in step S105 that the discrimination prediction value is 0 or more, the process proceeds to step S106, and the class code bit 1 is set to the target pixel (actually a tap). On the other hand, when it is determined in step S105 that the discrimination prediction value is less than 0, the process proceeds to step S107, and the class code bit 0 is set to the target pixel (actually a tap).

なお、ステップS104乃至ステップS107の処理は、反復コードに対応して定まる処理対象の画素のそれぞれを対象として行われる。   Note that the processing from step S104 to step S107 is performed for each pixel to be processed that is determined corresponding to the repetition code.

ステップS106、またはステップS107の処理の後、処理は、ステップS108に進み、判別係数記憶部26は、ステップS103の処理で求められた判別係数を、ステップS101で特定された反復コードに対応付けて記憶する。   After the process of step S106 or step S107, the process proceeds to step S108, and the discrimination coefficient storage unit 26 associates the discrimination coefficient obtained in the process of step S103 with the repetition code specified in step S101. Remember.

ステップS109において、学習装置10は、反復が終了したか否かを判定する。例えば、3回反復して学習することが予め設定されている場合、まだ、反復が終了していないと判定され、処理は、ステップS101に戻る。   In step S109, the learning device 10 determines whether or not the iteration has ended. For example, when learning by repeating three times is set in advance, it is determined that the iteration has not been completed yet, and the process returns to step S101.

そして、ステップS101において、あらためて反復コードが特定される。いまの場合、第2回目の学習の最初の処理であるから、反復コードは21と特定される。   In step S101, a repetitive code is specified again. In this case, since it is the first process of the second learning, the repetitive code is identified as 21.

そして、同様に、ステップS102乃至S108の処理が実行される。このとき、上述したように、ステップS102の処理と、ステップS103の処理では、生徒画像の画素のうち、1回目の学習の処理でクラスコードビット1が付与された画素のそれぞれを注目画素としてサンプルが特定されることになる。   Similarly, the processes of steps S102 to S108 are executed. At this time, as described above, in the processing of step S102 and the processing of step S103, each of the pixels of the student image to which the class code bit 1 is assigned in the first learning processing is sampled as a target pixel. Will be specified.

そして、ステップS109で反復が終了したか否かが判定される。   Then, in step S109, it is determined whether or not the iteration has been completed.

このように、ステップS109において反復が終了したと判定されるまで、ステップS101乃至S108の処理が繰り返し実行される。3回反復して学習することが予め設定されている場合、ステップS101で反復コードは34であると特定された後、ステップS102乃至S108の処理が実行され、ステップS109において、反復は終了したと判定されることになる。   As described above, the processes in steps S101 to S108 are repeatedly executed until it is determined in step S109 that the repetition has been completed. If it is preset that learning is repeated three times, it is determined in step S101 that the iteration code is 34, and then the processing of steps S102 to S108 is executed. In step S109, the iteration is completed. Will be judged.

このように、ステップS101乃至S109の処理が繰り返し実行されたことにより、図9を参照して上述したように、7種類の判別係数が、それぞれ反復コードに対応付けられて判別係数記憶部26に記憶されたことになる。   As described above with reference to FIG. 9, the seven types of discrimination coefficients are associated with the iteration codes in the discrimination coefficient storage unit 26 as a result of the processes of steps S101 to S109 being repeatedly executed as described above. It will be remembered.

ステップS109において、反復は終了したと判定された場合、処理は、ステップS110に進む。   If it is determined in step S109 that the iteration has been completed, the process proceeds to step S110.

ステップS110において、回帰係数学習部21は、回帰係数演算処理を実行する。この処理は、図16のフローチャートを参照して上述した場合と同様なので、詳細な説明は省略するが、いまの場合、ステップS151では、反復コードに対応するサンプルが特定されるのではなく、各クラス番号に対応するサンプルがそれぞれ特定される。   In step S110, the regression coefficient learning unit 21 executes a regression coefficient calculation process. Since this process is the same as that described above with reference to the flowchart of FIG. 16, a detailed description thereof is omitted. In this case, in step S151, a sample corresponding to the repetitive code is not specified. Each sample corresponding to the class number is identified.

すなわち、ステップS101乃至S109の処理が繰り返し実行されたことにより、図9を参照して上述したように、生徒画像の各画素は、クラス番号C0乃至C7のいずれかのクラスに分類されたことになる。従って、生徒画像のクラス番号C0の画素を、注目画素としてサンプルが特定されて、第1の回帰係数が導出される。また、生徒画像のクラス番号C1の画素を、注目画素としてサンプルが特定されて、第2の回帰係数が導出され、生徒画像のクラス番号C2の画素を、注目画素としてサンプルが特定されて、第3の回帰係数が導出され、・・・生徒画像のクラス番号C7の画素を、注目画素としてサンプルが特定されて、第8の回帰係数が導出される。   That is, as the processing of steps S101 to S109 is repeatedly executed, each pixel of the student image is classified into one of the class numbers C0 to C7 as described above with reference to FIG. Become. Therefore, a sample is identified using the pixel of class number C0 of the student image as the pixel of interest, and the first regression coefficient is derived. Also, a sample is identified with the pixel of class number C1 of the student image as the pixel of interest, a second regression coefficient is derived, a sample is identified with the pixel of class number C2 of the student image as the pixel of interest, and the first A regression coefficient of 3 is derived, a sample is specified with a pixel of class number C7 of the student image as a target pixel, and an eighth regression coefficient is derived.

つまり、ステップS110の回帰係数演算処理においては、クラス番号C0乃至C7のそれぞれに対応する8種類の回帰係数が求められることになる。   That is, in the regression coefficient calculation process in step S110, eight types of regression coefficients corresponding to the class numbers C0 to C7 are obtained.

ステップS111において、回帰係数記憶部22は、ステップS110の処理により求められた8種類の回帰係数のそれぞれを、クラス番号に対応付けて記憶する。   In step S111, the regression coefficient storage unit 22 stores each of the eight types of regression coefficients obtained by the process of step S110 in association with the class number.

このようにして、判別回帰係数学習処理が実行される。   In this way, the discriminant regression coefficient learning process is executed.

なお、ここでは、主として、判別係数の学習が3回反復して行われる例について説明したが、反復回数は、1回であってもよい。すなわち、第1回目の判別係数の学習が終了した後、判別係数学習部25による判別係数の演算、判別予測部27による判別予測が繰り返し実行されないようにしてもよい。   Although an example has been described here in which learning of the discrimination coefficient is repeatedly performed three times, the number of repetitions may be one. That is, after the first discrimination coefficient learning is completed, the discrimination coefficient calculation by the discrimination coefficient learning unit 25 and the discrimination prediction by the discrimination prediction unit 27 may not be repeatedly executed.

次に、図18のフローチャートを参照して、判別回帰予測処理の例について説明する。この処理は、図13の画像処理装置100により実行される。また、処理の実行に先立って、画像処理装置100の判別係数記憶部122と回帰係数記憶部124には、それぞれ、図14の判別回帰係数学習処理によって、判別係数記憶部26に記憶された7種類の判別係数と、回帰係数記憶部22に記憶された8種類の回帰係数とが記憶されているものとする。   Next, an example of the discriminant regression prediction process will be described with reference to the flowchart of FIG. This process is executed by the image processing apparatus 100 of FIG. Prior to the execution of the processing, each of the discrimination coefficient storage unit 122 and the regression coefficient storage unit 124 of the image processing apparatus 100 is stored in the discrimination coefficient storage unit 26 by the discrimination regression coefficient learning process of FIG. It is assumed that the types of discrimination coefficients and the 8 types of regression coefficients stored in the regression coefficient storage unit 22 are stored.

ステップS191において、判別予測部121は、反復コードを特定する。いまの場合、第1回目の判別の処理であるから反復コードは1と特定される。   In step S191, the discrimination prediction unit 121 identifies a repetitive code. In this case, since it is the first determination process, the repetitive code is specified as 1.

ステップS192において、判別予測部121は、図19を参照して後述する判別処理を実行する。ここで、図19のフローチャートを参照して、図18のステップS192の判別処理の詳細な例について説明する。   In step S192, the discrimination prediction unit 121 executes discrimination processing described later with reference to FIG. Here, a detailed example of the determination processing in step S192 in FIG. 18 will be described with reference to the flowchart in FIG.

ステップS211において、判別予測部121は、反復コードに対応する注目画素を設定する。例えば、反復コードが1であれば、第1回目の判別の処理なので、入力画像の全画素のそれぞれが注目画素として設定される。例えば、反復コードが21であれば、第2回目の判別の処理の一部なので、入力画像の画素のうち、1回目の判別の処理でクラスコードビット1が付与された画素のそれぞれが注目画素として設定される。例えば、反復コードが34であれば、第3回目の判別の処理の一部なので、入力画像の画素のうち、1回目の判別の処理でクラスコードビット0が付与され、2回目の判別の処理でクラスコードビット0が付与された画素のそれぞれが注目画素として設定される。   In step S211, the discrimination prediction unit 121 sets a pixel of interest corresponding to the repetition code. For example, if the repetitive code is 1, since this is the first determination process, all the pixels of the input image are set as the target pixel. For example, if the repetitive code is 21, it is a part of the second determination process, and therefore each pixel to which the class code bit 1 is assigned in the first determination process is the pixel of interest among the pixels of the input image. Set as For example, if the repetitive code is 34, it is a part of the third discrimination process, and therefore, the class code bit 0 is given in the first discrimination process among the pixels of the input image, and the second discrimination process. Thus, each pixel to which the class code bit 0 is assigned is set as a target pixel.

ステップS212において、判別予測部121は、ステップS211で設定された注目画素に対応するタップを取得する。このとき、動きベクトル検出部126により検出された動きベクトルに基づいてタップが取得される。   In step S212, the discrimination prediction unit 121 acquires a tap corresponding to the target pixel set in step S211. At this time, a tap is acquired based on the motion vector detected by the motion vector detection unit 126.

ステップS213において、判別予測部121は、ステップS211の処理で特定された反復コードに対応する判別係数を特定し、判別係数記憶部122から読み出す。   In step S213, the discrimination prediction unit 121 specifies a discrimination coefficient corresponding to the repetition code specified in the process of step S211 and reads it from the discrimination coefficient storage unit 122.

ステップS214において、判別予測部121は、判別予測値を演算する。このとき、例えば、上述した式(8)の演算が行われることになる。   In step S214, the discrimination prediction unit 121 calculates a discrimination prediction value. At this time, for example, the above-described calculation of Expression (8) is performed.

ステップS215において、クラス分割部123は、ステップS214の処理で演算された判別予測値に基づいて、注目画素にクラスコードビットを設定(付与)する。このとき、上述したように、例えば、式(8)により演算された予測値yiと0との大小比較を行って、注目画素にクラスコードビットが付与される。 In step S215, the class dividing unit 123 sets (applies) a class code bit to the pixel of interest based on the determined prediction value calculated in the process of step S214. At this time, as described above, for example, the predicted value y i calculated by Expression (8) is compared with 0, and the class code bit is given to the target pixel.

なお、ステップS211乃至ステップS215の処理は、反復コードに対応して定まる処理対象の画素のそれぞれを対象として行われる。   Note that the processing in steps S211 to S215 is performed for each pixel to be processed that is determined corresponding to the repetition code.

このようにして、判別処理が実行される。   In this way, the determination process is executed.

図18に戻って、ステップS192の処理の後、ステップS193において、判別予測部121は、反復が終了したか否かを判定する。例えば、3回反復して学習することが予め設定されている場合、まだ、反復が終了していないと判定され、処理は、ステップS191に戻る。   Returning to FIG. 18, after the process of step S <b> 192, in step S <b> 193, the discrimination prediction unit 121 determines whether or not the iteration has ended. For example, when it is preset that learning is repeated three times, it is determined that the iteration has not been completed yet, and the process returns to step S191.

この後、ステップS191では反復コードが21と特定され、同様に、ステップS192の処理が実行される。このとき、上述したように、ステップS192の処理では、入力画像の画素のうち、1回目の判別の処理でクラスコードビット1が付与された画素のそれぞれが注目画素として設定されることになる。   Thereafter, in step S191, the repetitive code is specified as 21, and similarly, the process of step S192 is executed. At this time, as described above, in the process of step S192, each of the pixels of the input image to which the class code bit 1 is assigned in the first determination process is set as the target pixel.

そして、ステップS193で反復が終了したか否かが判定される。   Then, in step S193, it is determined whether or not the iteration has been completed.

このように、ステップS193において反復が終了したと判定されるまで、ステップS191乃至S193の処理が繰り返し実行される。3回反復して学習することが予め設定されている場合、ステップS191で反復コードは34であると特定された後、ステップS192の処理が実行され、ステップS193において、反復は終了したと判定されることになる。   As described above, the processes in steps S191 to S193 are repeatedly executed until it is determined in step S193 that the iteration has been completed. If it is preset that learning is repeated three times, it is determined in step S191 that the repetitive code is 34, and then the process of step S192 is executed. In step S193, it is determined that the iteration has ended. Will be.

ステップS193においては、反復が終了したと判定された場合、処理は、ステップS194に進む。なお、ここまでの処理により、図11または図12を参照して上述したように、入力画像が3ビットのクラスコードのクラス番号に対応する画素群に分類されていることになる。また、上述したように、クラス分割部123は、入力画像の各画素を特定する情報とその画素のクラス番号とを対応付けて回帰係数記憶部124に供給するようになされている。   If it is determined in step S193 that the iteration has been completed, the process proceeds to step S194. By the processing so far, the input image is classified into the pixel group corresponding to the class number of the 3-bit class code as described above with reference to FIG. 11 or FIG. Further, as described above, the class dividing unit 123 associates the information specifying each pixel of the input image with the class number of the pixel and supplies the information to the regression coefficient storage unit 124.

ステップS194において、回帰予測部125は、入力画像において注目画素を設定する。   In step S194, the regression prediction unit 125 sets a target pixel in the input image.

ステップS195において、回帰予測部125は、ステップS194で設定された注目画素に対応するタップを取得する。このとき、動きベクトル検出部126により検出された動きベクトルに基づいてタップが取得される。   In step S195, the regression prediction unit 125 acquires a tap corresponding to the target pixel set in step S194. At this time, a tap is acquired based on the motion vector detected by the motion vector detection unit 126.

ステップS196において、回帰予測部125は、ステップS194で設定された注目画素を特定する情報を回帰係数記憶部124に供給して、その注目画素のクラス番号に対応する回帰係数を特定し、回帰係数記憶部124から読み出す。   In step S196, the regression prediction unit 125 supplies information specifying the target pixel set in step S194 to the regression coefficient storage unit 124, specifies the regression coefficient corresponding to the class number of the target pixel, and sets the regression coefficient. Read from the storage unit 124.

ステップS197において、回帰予測部125は、ステップS195で取得したタップと、ステップS196で特定して読み出した回帰係数を用いて式(6)の演算を行い、回帰予測値を演算する。   In step S197, the regression prediction unit 125 calculates the regression prediction value by calculating Equation (6) using the tap acquired in step S195 and the regression coefficient specified and read in step S196.

なお、ステップS191乃至ステップS197の処理は、入力画像の各画素のそれぞれを対象として行われる。   Note that the processing from step S191 to step S197 is performed for each pixel of the input image.

そして、回帰予測部125の演算により得られた予測値を、注目画素に対応する画素の値とする出力画像が生成される。これにより、入力画像が高画質化された出力画像が得られることになる。   Then, an output image is generated in which the predicted value obtained by the calculation of the regression prediction unit 125 is the value of the pixel corresponding to the target pixel. As a result, an output image in which the input image is improved in image quality is obtained.

このようにして判別予測処理が実行される。このようにすることで、画像の高画質化処理を、より効率的で高速に行うことができる。   In this way, the discrimination prediction process is executed. In this way, the image quality enhancement process can be performed more efficiently and at high speed.

次に、図20乃至図22を参照して、本発明の学習装置10と画像処理装置100を用いた高画質化処理の効果を説明する。   Next, with reference to FIG. 20 to FIG. 22, the effect of the high image quality processing using the learning device 10 and the image processing device 100 of the present invention will be described.

図20は、動きぼけのある画像の例を示している。同図の例では、建物(塔)の画像に動きぼけが生じている。   FIG. 20 shows an example of an image with motion blur. In the example in the figure, motion blur occurs in the image of the building (tower).

図21は、図20に示される画像に対して、一般的な逆フィルタ方式によって動きぼけを除去する処理を施した結果得られた画像を示している。同図に示される画像は、図20の画像と比較して、ある程度ぼけが除去されているものの、リンギングによる画像の劣化が生じている。   FIG. 21 shows an image obtained as a result of performing a process of removing motion blur by a general inverse filter method on the image shown in FIG. In the image shown in FIG. 20, although the blur is removed to some extent as compared with the image of FIG. 20, the image is deteriorated due to ringing.

図22は、図20に示される画像を入力画像とし、図13に示される画像処理装置100を用いて判別回帰予測処理を施して、動きぼけを除去した画像を示している。同図に示される画像では、図20の画像と比較してぼけが除去されており、かつ、図21に示される画像のようにリンギングによる画像の劣化が生じていない。   FIG. 22 shows an image from which motion blur has been removed by performing the discrimination regression prediction process using the image shown in FIG. 20 as an input image and using the image processing apparatus 100 shown in FIG. In the image shown in the figure, the blur is removed as compared with the image of FIG. 20, and the image is not deteriorated due to ringing unlike the image shown in FIG.

このように、本発明による高画質化処理を施すことにより、動きぼけを効果的に除去することができる。   Thus, motion blur can be effectively removed by performing the image quality enhancement processing according to the present invention.

図13を参照して上述した画像処理装置は、例えば、高画質化回路としてテレビジョン受像機に搭載することも可能である。図23は、図13を参照して上述した画像処理装置を搭載したテレビジョン受像機511の構成例を示すブロック図である。   The image processing apparatus described above with reference to FIG. 13 can be mounted on a television receiver as an image quality improving circuit, for example. FIG. 23 is a block diagram showing a configuration example of a television receiver 511 equipped with the image processing apparatus described above with reference to FIG.

同図のテレビジョン受像機511は、被制御部531および制御部532から構成される。被制御部531は、制御部532の制御の下、テレビジョン受像機511の種々の機能を実現する。   The television receiver 511 in the figure includes a controlled unit 531 and a control unit 532. The controlled unit 531 implements various functions of the television receiver 511 under the control of the control unit 532.

被制御部531は、デジタルチューナ553、デマルチプレクサ(Demux)554、MPEG(Moving Picture Expert Group)デコーダ555、映像・グラフィック処理回路556、パネル駆動回路557、表示パネル558、音声処理回路559、音声増幅回路560、スピーカ561、および受信部562を備えている。また、制御部532は、CPU(Central Processing Unit)563、フラッシュROM564、DRAM(Dynamic Random Access Memory)565、および内部バス566を備えている。   The controlled unit 531 includes a digital tuner 553, a demultiplexer (Demux) 554, an MPEG (Moving Picture Expert Group) decoder 555, a video / graphic processing circuit 556, a panel driving circuit 557, a display panel 558, an audio processing circuit 559, and an audio amplification. A circuit 560, a speaker 561, and a receiving unit 562 are provided. The control unit 532 includes a CPU (Central Processing Unit) 563, a flash ROM 564, a DRAM (Dynamic Random Access Memory) 565, and an internal bus 566.

デジタルチューナ553は、図示せぬアンテナ端子から入力されたテレビジョン放送信号を処理して、ユーザの選択したチャンネルに対応した所定のTS(Transport Stream)を、デマルチプレクサ554に供給する。   The digital tuner 553 processes a television broadcast signal input from an antenna terminal (not shown) and supplies a predetermined TS (Transport Stream) corresponding to the channel selected by the user to the demultiplexer 554.

デマルチプレクサ554は、デジタルチューナ553から供給されたTSから、ユーザの選択したチャンネルに対応した、パーシャルTS(映像信号のTSパケット、音声信号のTSパケット)を抽出し、MPEGデコーダ555に供給する。   The demultiplexer 554 extracts the partial TS (the TS packet of the video signal and the TS packet of the audio signal) corresponding to the channel selected by the user from the TS supplied from the digital tuner 553, and supplies it to the MPEG decoder 555.

また、デマルチプレクサ554は、デジタルチューナ553から供給されたTSから、PSI/SI(Program Specific Information/Service Information)を取り出し、CPU563に供給する。デジタルチューナ553から供給されたTSには、複数のチャンネルが多重化されている。デマルチプレクサ554がTSから任意のチャンネルのパーシャルTSを抽出する処理は、PSI/SI(PAT/PMT)から任意のチャンネルのパケットID(PID)の情報を得ることで可能となる。   The demultiplexer 554 extracts PSI / SI (Program Specific Information / Service Information) from the TS supplied from the digital tuner 553 and supplies the PSI / SI to the CPU 563. A plurality of channels are multiplexed in the TS supplied from the digital tuner 553. The process in which the demultiplexer 554 extracts a partial TS of an arbitrary channel from the TS can be performed by obtaining packet ID (PID) information of an arbitrary channel from PSI / SI (PAT / PMT).

MPEGデコーダ555は、デマルチプレクサ554から供給される映像信号のTSパケットにより構成される映像PES(Packetized Elementary Stream)パケットに対してデコード処理を行い、その結果得られる映像信号を、映像・グラフィック処理回路556に供給する。また、MPEGデコーダ555は、デマルチプレクサ554から供給される音声信号のTSパケットにより構成される音声PESパケットに対してデコード処理を行い、その結果得られる音声信号を、音声処理回路559に供給する。   The MPEG decoder 555 decodes a video PES (Packetized Elementary Stream) packet composed of TS packets of the video signal supplied from the demultiplexer 554 and converts the resulting video signal into a video / graphic processing circuit. 556. Also, the MPEG decoder 555 performs a decoding process on the audio PES packet configured by the TS packet of the audio signal supplied from the demultiplexer 554, and supplies the audio signal obtained as a result to the audio processing circuit 559.

映像・グラフィック処理回路556は、MPEGデコーダ555から供給された映像信号に対して、必要に応じて、スケーリング処理、グラフィックスデータの重畳処理等を行い、パネル駆動回路557に供給する。   The video / graphic processing circuit 556 performs scaling processing, graphics data superimposition processing, and the like on the video signal supplied from the MPEG decoder 555 as necessary, and supplies the result to the panel drive circuit 557.

映像・グラフィック処理回路556には、高画質化回路570が接続されており、パネル駆動回路557に映像信号を供給するのに先立って、高画質化処理が実行される。   An image quality improving circuit 570 is connected to the video / graphic processing circuit 556, and an image quality improving process is executed prior to supplying a video signal to the panel driving circuit 557.

高画質化回路570は、図13を参照して上述した画像処理装置と同様の構成とされ、MPEGデコーダ555から供給された映像信号から得られた画像データに対して、図18を参照して上述した判別回帰予測処理を高画質化処理として実行するようになされている。   The image quality improving circuit 570 has the same configuration as that of the image processing apparatus described above with reference to FIG. 13, and with respect to image data obtained from the video signal supplied from the MPEG decoder 555, with reference to FIG. The discriminant regression prediction process described above is executed as an image quality enhancement process.

パネル駆動回路557は、映像・グラフィック処理回路556から供給された映像信号に基づいて、表示パネル558を駆動し、映像を表示させる。表示パネル558は、例えば、LCD(Liquid Crystal Display)またはPDP(Plasma Display Panel)等で構成されている。   The panel drive circuit 557 drives the display panel 558 based on the video signal supplied from the video / graphic processing circuit 556 to display the video. The display panel 558 is configured by, for example, an LCD (Liquid Crystal Display) or a PDP (Plasma Display Panel).

音声処理回路559は、MPEGデコーダ555から供給された音声信号に対してD/A(Digital to Analog)変換等の必要な処理を行い、音声増幅回路560に供給する。   The audio processing circuit 559 performs necessary processing such as D / A (Digital to Analog) conversion on the audio signal supplied from the MPEG decoder 555 and supplies the audio signal to the audio amplification circuit 560.

音声増幅回路560は、音声処理回路559から供給されるアナログ音声信号を増幅し、スピーカ561に供給する。スピーカ561は、音声増幅回路560からのアナログ音声信号に応じた音声を出力する。   The audio amplifier circuit 560 amplifies the analog audio signal supplied from the audio processing circuit 559 and supplies the amplified analog audio signal to the speaker 561. The speaker 561 outputs sound corresponding to the analog sound signal from the sound amplifier circuit 560.

受信部562は、リモートコントローラ567から送信された、例えば赤外線のリモートコントロール信号を受信し、CPU563に供給する。ユーザは、リモートコントローラ567を操作することで、テレビジョン受像機511の操作を行うことができる。   The receiving unit 562 receives, for example, an infrared remote control signal transmitted from the remote controller 567 and supplies it to the CPU 563. The user can operate the television receiver 511 by operating the remote controller 567.

CPU563、フラッシュROM564、およびDRAM565は、内部バス566を介して接続されている。CPU563は、テレビジョン受像機11の各部の動作を制御する。フラッシュROM564は、制御ソフトウェアの格納およびデータの保管を行う。DRAM565は、CPU563のワークエリア等を構成する。すなわち、CPU563は、フラッシュROM564から読み出したソフトウェアやデータをDRAM565上に展開してソフトウェアを起動し、テレビジョン受像機511の各部を制御する。   The CPU 563, the flash ROM 564, and the DRAM 565 are connected via an internal bus 566. The CPU 563 controls the operation of each unit of the television receiver 11. The flash ROM 564 stores control software and data. The DRAM 565 constitutes a work area of the CPU 563 and the like. That is, the CPU 563 develops software and data read from the flash ROM 564 on the DRAM 565, starts up the software, and controls each unit of the television receiver 511.

このように本発明をテレビジョン受像機に適用することができる。   As described above, the present invention can be applied to a television receiver.

なお、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータにネットワークや記録媒体からインストールされる。また、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図24に示されるような汎用のパーソナルコンピュータ700などに、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware, or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium into a computer incorporated in dedicated hardware. In addition, by installing various programs, it is installed from a network or a recording medium in a general-purpose personal computer 700 as shown in FIG. 24 that can execute various functions.

図24において、CPU(Central Processing Unit)701は、ROM(Read Only Memory)702に記憶されているプログラム、または記憶部708からRAM(Random Access Memory)703にロードされたプログラムに従って各種の処理を実行する。RAM703にはまた、CPU701が各種の処理を実行する上において必要なデータなども適宜記憶される。   In FIG. 24, a CPU (Central Processing Unit) 701 executes various processes according to a program stored in a ROM (Read Only Memory) 702 or a program loaded from a storage unit 708 to a RAM (Random Access Memory) 703. To do. The RAM 703 also appropriately stores data necessary for the CPU 701 to execute various processes.

CPU701、ROM702、およびRAM703は、バス704を介して相互に接続されている。このバス704にはまた、入出力インタフェース705も接続されている。   The CPU 701, ROM 702, and RAM 703 are connected to each other via a bus 704. An input / output interface 705 is also connected to the bus 704.

入出力インタフェース705には、キーボード、マウスなどよりなる入力部706、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部707が接続されている。また、入出力インタフェース705には、ハードディスクなどより構成される記憶部708、モデム、LANカードなどのネットワークインタフェースカードなどより構成される通信部709が接続されている。通信部709は、インターネットを含むネットワークを介しての通信処理を行う。   The input / output interface 705 is connected to an input unit 706 composed of a keyboard, a mouse, etc., a display composed of an LCD (Liquid Crystal display), etc., and an output unit 707 composed of a speaker. The input / output interface 705 is connected to a storage unit 708 composed of a hard disk and a communication unit 709 composed of a network interface card such as a modem and a LAN card. The communication unit 709 performs communication processing via a network including the Internet.

入出力インタフェース705にはまた、必要に応じてドライブ710が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア711が適宜装着されている。そして、それらのリムーバブルメディアから読み出されたコンピュータプログラムが、必要に応じて記憶部708にインストールされる。   A drive 710 is also connected to the input / output interface 705 as necessary, and a removable medium 711 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted. Then, the computer program read from these removable media is installed in the storage unit 708 as necessary.

上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、インターネットなどのネットワークや、リムーバブルメディア711などからなる記録媒体からインストールされる。   When the above-described series of processing is executed by software, a program constituting the software is installed from a network such as the Internet or a recording medium such as a removable medium 711.

なお、この記録媒体は、図24に示される、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フロッピディスク(登録商標)を含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア711により構成されるものだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM702や、記憶部708に含まれるハードディスクなどで構成されるものも含む。   Note that this recording medium is a magnetic disk (including a floppy disk (registered trademark)) on which a program is recorded, which is distributed to distribute the program to the user separately from the apparatus main body shown in FIG. Removable media consisting of optical disks (including CD-ROM (compact disk-read only memory), DVD (digital versatile disk)), magneto-optical disks (including MD (mini-disk) (registered trademark)), or semiconductor memory It includes not only those configured by 711 but also those configured by a ROM 702 in which a program is recorded, a hard disk included in the storage unit 708, and the like distributed to the user in a state of being incorporated in the apparatus main body in advance.

なお、本明細書において上述した一連の処理は、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   Note that the series of processes described above in this specification includes processes that are performed in parallel or individually even if they are not necessarily processed in time series, as well as processes that are performed in time series in the order described. Is also included.

また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

10 学習装置, 21 回帰係数学習部, 22 回帰係数記憶部, 23 回帰予測部, 24 ラベリング部, 25 判別係数学習部, 26 判別係数記憶部, 27 判別予測部, 28 クラス分割部, 29 動きベクトル検出部, 100 画像処理装置, 121 判別予測部, 122 判別係数記憶部, 123 クラス分割部, 124 回帰係数記憶部, 125 回帰予測部, 126 動きベクトル検出部, 511 テレビジョン受像機, 570 高画質化回路, 701 CPU, 702 ROM, 711 リムーバブルメディア   DESCRIPTION OF SYMBOLS 10 Learning apparatus, 21 Regression coefficient learning part, 22 Regression coefficient memory | storage part, 23 Regression prediction part, 24 Labeling part, 25 Discriminant coefficient learning part, 26 Discriminant coefficient memory | storage part, 27 Discriminant prediction part, 28 Class division part, 29 Motion vector Detection unit, 100 image processing device, 121 discrimination prediction unit, 122 discrimination coefficient storage unit, 123 class division unit, 124 regression coefficient storage unit, 125 regression prediction unit, 126 motion vector detection unit, 511 television receiver, 570 high image quality Circuit, 701 CPU, 702 ROM, 711 removable media

Claims (15)

第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと回帰係数との積和演算により第2の信号の画像における前記注目画素に対応する画素の値を求める回帰予測演算の前記回帰係数を算出する回帰係数算出手段と、
前記算出された前記回帰係数と、前記第1の信号の画像から得られた前記タップに基づいて前記回帰予測演算を行って回帰予測値を算出する回帰予測値算出手段と、
前記算出された前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値との比較結果に基づいて、前記注目画素に第1の判別クラスに属する画素であるかまたは第2の判別クラスに属する画素であるかを判別するための判別情報を付与する判別情報付与手段と、
前記付与された判別情報に基づいて、第1の信号の画像から前記タップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属する判別クラスを特定するための判別予測値を求める判別予測演算の前記判別係数を算出する判別係数算出手段と、
前記算出された前記判別係数と、前記第1の信号の画像から得られた前記タップに基づいて前記判別予測演算を行って判別予測値を算出する判別予測値算出手段と、
前記算出された前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段とを備え、
前記回帰係数算出手段は、前記第1の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出し、前記第2の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出する
係数学習装置。
From the image of the first signal, a feature amount specified based on a motion vector, which is a tap configured as a plurality of feature amounts obtained from pixel values of a target pixel and surrounding pixels, is acquired, and the tap Regression coefficient calculating means for calculating the regression coefficient of the regression prediction calculation for obtaining the value of the pixel corresponding to the pixel of interest in the image of the second signal by the product-sum operation of each of the elements and the regression coefficient;
A regression prediction value calculating means for calculating a regression prediction value by performing the regression prediction calculation based on the calculated regression coefficient and the tap obtained from the image of the first signal;
Based on a comparison result between the calculated regression prediction value and a pixel value corresponding to the target pixel in the image of the second signal, the target pixel is a pixel belonging to a first discrimination class, or Discrimination information giving means for giving discrimination information for discriminating whether the pixel belongs to the second discrimination class;
Based on the given discrimination information, to acquire the tap from the first signal image, and to identify the discrimination class to which the pixel of interest belongs by multiply-accumulate each of the elements of the tap and the discrimination coefficient Discriminant coefficient calculating means for calculating the discriminant coefficient of the discriminant prediction calculation for obtaining the discriminant predicted value of
A discrimination prediction value calculation means for calculating a discrimination prediction value by performing the discrimination prediction calculation based on the calculated discrimination coefficient and the tap obtained from the image of the first signal;
Classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the calculated discrimination prediction value;
The regression coefficient calculating means further calculates the regression coefficient using only the pixels classified into the first discrimination class, and further calculates the regression coefficient using only the pixels classified into the second discrimination class. Coefficient learning device to calculate.
前記回帰係数算出手段が前記判別クラス毎に算出した前記回帰係数により前記回帰予測値算出手段が前記判別クラス毎に算出した前記回帰予測値に基づいて、前記判別情報付与手段が判別情報を付与する処理、前記判別係数算出手段が前記判別係数を算出する処理、および前記判別予測値算出手段が前記判別予測値を算出する処理を繰り返し実行する
請求項1に記載の係数学習装置。
Based on the regression prediction value calculated by the regression prediction value calculation unit for each of the discrimination classes by the regression coefficient calculated by the regression coefficient calculation unit for each of the discrimination classes, the discrimination information providing unit provides discrimination information. The coefficient learning apparatus according to claim 1, wherein the processing, the determination coefficient calculation unit repeatedly calculates the determination coefficient, and the determination prediction value calculation unit repeatedly calculates the determination prediction value.
前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値と差分が0以上である場合、前記注目画素は、第1の判別クラスに属する画素であると判別され、
前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値と差分が0未満である場合、前記注目画素は、第1の判別クラスに属する画素であると判別される
請求項1に記載の係数学習装置。
If the difference between the regression prediction value and the value of the pixel corresponding to the target pixel in the image of the second signal is 0 or more, the target pixel is determined to be a pixel belonging to the first determination class;
When the difference between the regression prediction value and the value of the pixel corresponding to the target pixel in the image of the second signal is less than 0, the target pixel is determined to be a pixel belonging to the first determination class. The coefficient learning apparatus according to claim 1.
前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値と差分絶対値が予め設定された閾値以上である場合、前記注目画素は、第1の判別クラスに属する画素であると判別され、
前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値と差分絶対値が前記閾値未満である場合、前記注目画素は、第2の判別クラスに属する画素であると判別される
請求項1に記載の係数学習装置。
When the regression prediction value, the value of the pixel corresponding to the target pixel in the image of the second signal, and the absolute difference value are greater than or equal to a preset threshold value, the target pixel is a pixel belonging to the first discrimination class Is determined to be
When the regression prediction value, the value of the pixel corresponding to the target pixel in the image of the second signal, and the absolute difference value are less than the threshold value, the target pixel is a pixel belonging to the second discrimination class. The coefficient learning device according to claim 1, wherein the coefficient learning device is discriminated.
前記第1の信号の画像は、前記第2の信号の画像に対して動きぼけが付加された画像である
請求項1に記載の係数学習装置。
The coefficient learning apparatus according to claim 1, wherein the image of the first signal is an image obtained by adding motion blur to the image of the second signal.
前記タップは、前記動きベクトルによって特定された動き方向および動き量に基づいて、前記注目画素を中心として動き方向に従って抽出した画素値、抽出した画素値の最大値および最小値、抽出した画素値の動き方向に従った微分特徴量の絶対値、並びに抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値のそれぞれを要素として構成される
請求項1に記載の係数学習装置。
The tap is based on the motion direction and the amount of motion specified by the motion vector, the pixel value extracted according to the motion direction centered on the pixel of interest, the maximum and minimum values of the extracted pixel value, and the extracted pixel value The coefficient learning device according to claim 1, wherein each of the absolute values of the differential feature amounts according to the movement direction and the maximum absolute value of the differential feature amounts according to the movement direction of the extracted pixel value are configured as elements.
回帰係数算出手段が、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと回帰係数との積和演算により第2の信号の画像における前記注目画素に対応する画素の値を求める回帰予測演算の前記回帰係数を算出し、
回帰予測値算出手段が、前記算出された前記回帰係数と、前記第1の信号の画像から得られた前記タップに基づいて前記回帰予測演算を行って回帰予測値を算出し、
判別情報付与手段が、前記算出された前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値との比較結果に基づいて、前記注目画素に第1の判別クラスに属する画素であるかまたは第2の判別クラスに属する画素であるかを判別するための判別情報を付与し、
判別係数算出手段が、前記付与された判別情報に基づいて、第1の信号の画像から前記タップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属する判別クラスを特定するための判別予測値を求める判別予測演算の前記判別係数を算出し、
判別予測値算出手段が、前記算出された前記判別係数と、前記第1の信号の画像から得られた前記タップに基づいて前記判別予測演算を行って判別予測値を算出し、
分類手段が、前記算出された前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類し、
前記第1の判別クラスに分類された画素のみを用いて前記回帰係数がさらに算出され、前記第2の判別クラスに分類された画素のみを用いて前記回帰係数がさらに算出されるステップ
を含む係数学習方法。
The regression coefficient calculation means obtains taps configured as a plurality of feature amounts obtained from the pixel values of the target pixel and the surrounding pixels, which are feature amounts specified based on the motion vector, from the first signal image. Then, the regression coefficient of the regression prediction calculation for obtaining the value of the pixel corresponding to the target pixel in the image of the second signal by the product-sum operation of each of the elements of the tap and the regression coefficient,
A regression prediction value calculation means calculates the regression prediction value by performing the regression prediction calculation based on the calculated regression coefficient and the tap obtained from the image of the first signal,
The discriminating information providing means assigns the target pixel to the first discriminating class based on a comparison result between the calculated regression prediction value and the value of the pixel corresponding to the target pixel in the second signal image. Providing discrimination information for discriminating whether the pixel belongs to or belongs to the second discrimination class;
Discrimination coefficient calculation means acquires the tap from the image of the first signal based on the given discrimination information, and the pixel of interest belongs by a product-sum operation of each element of the tap and the discrimination coefficient Calculating the discriminant coefficient of the discriminant prediction calculation for obtaining a discriminant prediction value for specifying the discriminant class;
A discriminant prediction value calculating unit calculates the discriminant prediction value by performing the discriminant prediction calculation based on the calculated discriminant coefficient and the tap obtained from the image of the first signal,
Classification means classifies each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the calculated discrimination prediction value,
A coefficient that further includes calculating the regression coefficient using only the pixels classified into the first discrimination class, and further calculating the regression coefficient using only the pixels classified into the second discrimination class. Learning method.
コンピュータを、
第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと回帰係数との積和演算により第2の信号の画像における前記注目画素に対応する画素の値を求める回帰予測演算の前記回帰係数を算出する回帰係数算出手段と、
前記算出された前記回帰係数と、前記第1の信号の画像から得られた前記タップに基づいて前記回帰予測演算を行って回帰予測値を算出する回帰予測値算出手段と、
前記算出された前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値との比較結果に基づいて、前記注目画素に第1の判別クラスに属する画素であるかまたは第2の判別クラスに属する画素であるかを判別するための判別情報を付与する判別情報付与手段と、
前記付与された判別情報に基づいて、第1の信号の画像から前記タップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属する判別クラスを特定するための判別予測値を求める判別予測演算の前記判別係数を算出する判別係数算出手段と、
前記算出された前記判別係数と、前記第1の信号の画像から得られた前記タップに基づいて前記判別予測演算を行って判別予測値を算出する判別予測値算出手段と、
前記算出された前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段とを備え、
前記回帰係数算出手段は、前記第1の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出し、前記第2の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出する係数学習装置として機能させる
プログラム。
Computer
From the image of the first signal, a feature amount specified based on a motion vector, which is a tap configured as a plurality of feature amounts obtained from pixel values of a target pixel and surrounding pixels, is acquired, and the tap Regression coefficient calculating means for calculating the regression coefficient of the regression prediction calculation for obtaining the value of the pixel corresponding to the pixel of interest in the image of the second signal by the product-sum operation of each of the elements and the regression coefficient;
A regression prediction value calculating means for calculating a regression prediction value by performing the regression prediction calculation based on the calculated regression coefficient and the tap obtained from the image of the first signal;
Based on a comparison result between the calculated regression prediction value and a pixel value corresponding to the target pixel in the image of the second signal, the target pixel is a pixel belonging to a first discrimination class, or Discrimination information giving means for giving discrimination information for discriminating whether the pixel belongs to the second discrimination class;
Based on the given discrimination information, to acquire the tap from the first signal image, and to identify the discrimination class to which the pixel of interest belongs by multiply-accumulate each of the elements of the tap and the discrimination coefficient Discriminant coefficient calculating means for calculating the discriminant coefficient of the discriminant prediction calculation for obtaining the discriminant predicted value of
A discrimination prediction value calculation means for calculating a discrimination prediction value by performing the discrimination prediction calculation based on the calculated discrimination coefficient and the tap obtained from the image of the first signal;
Classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the calculated discrimination prediction value;
The regression coefficient calculating means further calculates the regression coefficient using only the pixels classified into the first discrimination class, and further calculates the regression coefficient using only the pixels classified into the second discrimination class. A program that functions as a coefficient learning device to calculate.
第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属するクラスを特定するための判別予測値を求める判別予測演算を行う判別予測手段と、
前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段と、
前記第1の信号の画像から、前記タップを取得して、前記タップと回帰係数との積和演算により回帰予測値を演算することで、第2の信号の画像における前記注目画素に対応する画素の画素値を予測する回帰予測手段とを備える
画像処理装置。
From the image of the first signal, a feature amount specified based on a motion vector, which is a tap configured as a plurality of feature amounts obtained from pixel values of a target pixel and surrounding pixels, is acquired, and the tap Discriminant prediction means for performing a discriminant prediction operation for obtaining a discriminant prediction value for specifying a class to which the pixel of interest belongs by multiply-accumulate each element and a discrimination coefficient
Classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the discrimination prediction value;
A pixel corresponding to the target pixel in the second signal image by acquiring the tap from the first signal image and calculating a regression prediction value by a product-sum operation of the tap and the regression coefficient. An image processing apparatus comprising regression prediction means for predicting the pixel value of the image.
前記判別予測手段が前記判別予測演算を行う処理、および前記分類手段が前記第1の信号の画像の画素のそれぞれを、分類する処理を繰り返し実行する
請求項9に記載の画像処理装置。
The image processing apparatus according to claim 9, wherein the discrimination prediction unit repeatedly executes a process of performing the discrimination prediction calculation, and the classification unit repeatedly performs a process of classifying each pixel of the image of the first signal.
前記第1の信号の画像は、前記第2の信号の画像に対して動きぼけが付加された画像である
請求項9に記載の画像処理装置。
The image processing apparatus according to claim 9, wherein the image of the first signal is an image obtained by adding motion blur to the image of the second signal.
前記タップは、前記動きベクトルによって特定された動き方向および動き量に基づいて、前記注目画素を中心として動き方向に従って抽出した画素値、抽出した画素値の最大値および最小値、抽出した画素値の動き方向に従った微分特徴量の絶対値、並びに抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値のそれぞれを要素として構成される
請求項9に記載の画像処理装置。
The tap is based on the motion direction and the amount of motion specified by the motion vector, the pixel value extracted according to the motion direction centered on the pixel of interest, the maximum and minimum values of the extracted pixel value, and the extracted pixel value The image processing apparatus according to claim 9, wherein each of the absolute value of the differential feature quantity according to the movement direction and the maximum value of the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value are configured as elements.
判別予測手段が、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属するクラスを特定するための判別予測値を求める判別予測演算を行い、
分類手段が、前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類し、
回帰予測手段が、前記第1の信号の画像から、前記タップを取得して、前記タップと回帰係数との積和演算により回帰予測値を演算することで、第2の信号の画像における前記注目画素に対応する画素の画素値を予測するステップ
を含む画像処理方法。
The discriminating / predicting means acquires, from the first signal image, taps configured as a plurality of feature amounts that are specified based on the motion vector and obtained from the pixel values of the target pixel and the surrounding pixels. Performing a discrimination prediction calculation to obtain a discrimination prediction value for identifying the class to which the pixel of interest belongs by multiply-accumulate each of the elements of the tap and the discrimination coefficient,
Classification means classifies each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the discrimination prediction value,
The regression prediction means acquires the tap from the image of the first signal, and calculates a regression prediction value by a product-sum operation of the tap and the regression coefficient, whereby the attention in the image of the second signal is obtained. An image processing method comprising: predicting a pixel value of a pixel corresponding to a pixel.
コンピュータを、
第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属するクラスを特定するための判別予測値を求める判別予測演算を行う判別予測手段と、
前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段と、
前記第1の信号の画像から、前記タップを取得して、前記タップと回帰係数との積和演算により回帰予測値を演算することで、第2の信号の画像における前記注目画素に対応する画素の画素値を予測する回帰予測手段とを備える画像処理装置として機能させる
プログラム。
Computer
From the image of the first signal, a feature amount specified based on a motion vector, which is a tap configured as a plurality of feature amounts obtained from pixel values of a target pixel and surrounding pixels, is acquired, and the tap Discriminant prediction means for performing a discriminant prediction operation for obtaining a discriminant prediction value for specifying a class to which the pixel of interest belongs by multiply-accumulate each element and a discrimination coefficient
Classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the discrimination prediction value;
A pixel corresponding to the target pixel in the second signal image by acquiring the tap from the first signal image and calculating a regression prediction value by a product-sum operation of the tap and the regression coefficient. A program that functions as an image processing apparatus that includes regression prediction means for predicting the pixel value of an image.
請求項8または請求項14に記載のプログラムが記録されている記録媒体。   A recording medium on which the program according to claim 8 or 14 is recorded.
JP2010081326A 2010-03-31 2010-03-31 Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium Withdrawn JP2011217011A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010081326A JP2011217011A (en) 2010-03-31 2010-03-31 Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010081326A JP2011217011A (en) 2010-03-31 2010-03-31 Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2011217011A true JP2011217011A (en) 2011-10-27

Family

ID=44946334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010081326A Withdrawn JP2011217011A (en) 2010-03-31 2010-03-31 Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2011217011A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015201819A (en) * 2014-04-10 2015-11-12 株式会社東芝 Image quality improvement system, image quality improvement method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015201819A (en) * 2014-04-10 2015-11-12 株式会社東芝 Image quality improvement system, image quality improvement method, and program

Similar Documents

Publication Publication Date Title
JP5476879B2 (en) Image processing apparatus and coefficient learning apparatus.
JP5061883B2 (en) Image processing apparatus, image processing method, program, and learning apparatus
JP4882999B2 (en) Image processing apparatus, image processing method, program, and learning apparatus
JP5347862B2 (en) Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium
EP2535863A1 (en) Image processing apparatus and method, program, and recording medium
US8300937B2 (en) Image segmentation method and system based on region features of pixels
WO2002013512A1 (en) Image processing device and method, and recorded medium
JP2009152820A (en) Learning apparatus and method, image processing apparatus and method, and program
CN114419323A (en) Cross-modal learning and domain self-adaptive RGBD image semantic segmentation method
JP4662171B2 (en) Encoding apparatus and method, decoding apparatus and method, program, and recording medium
Athar et al. Degraded reference image quality assessment
JP2011217010A (en) Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium
JP2001084368A (en) Data processor, data processing method and medium
JP2011217011A (en) Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium
JP2011211437A (en) Image processing apparatus, method, and program
JP2009153003A (en) Apparatus and method for image processing, program for use therein, and learning apparatus
JP4770704B2 (en) Image processing apparatus, image processing method, and program
JP2007251690A (en) Image processing apparatus and method therefor, learning apparatus and method therefor, and program
Le et al. Locality and relative distance-aware non-local networks for hand-raising detection in classroom video
JP2000348019A (en) Data processor, data processing method and medium
JP2008124639A (en) Image processing apparatus, image processing method, learning apparatus, learning method, and program
JP2023103740A (en) Information processing program, information processing method, and information processing apparatus
JP2004171366A (en) Device and method for processing data, recording medium, and program
JP2009060481A (en) Image processing device and method, learning device and method, and program
JP4311038B2 (en) Learning apparatus and method, image processing apparatus and method, recording medium, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604