JP2011217011A - Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium - Google Patents
Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium Download PDFInfo
- Publication number
- JP2011217011A JP2011217011A JP2010081326A JP2010081326A JP2011217011A JP 2011217011 A JP2011217011 A JP 2011217011A JP 2010081326 A JP2010081326 A JP 2010081326A JP 2010081326 A JP2010081326 A JP 2010081326A JP 2011217011 A JP2011217011 A JP 2011217011A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- discrimination
- image
- value
- coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、係数学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体に関し、特に、多様な動きぼけの除去を効率的、かつ低コストで実現できるようにする係数学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体に関する。 The present invention relates to a coefficient learning apparatus and method, an image processing apparatus and method, a program, and a recording medium, and more particularly, a coefficient learning apparatus and method that enables various motion blur removal to be realized efficiently and at low cost. The present invention relates to an image processing apparatus and method, a program, and a recording medium.
ノイズなど劣化を含んだ入力画像からノイズのない画像を予測したり、SD信号を高解像度のHD信号に変換するために、クラス分類適応処理を用いる手法が提案されている。 In order to predict an image without noise from an input image including degradation such as noise, or to convert an SD signal into a high-resolution HD signal, a method using class classification adaptive processing has been proposed.
クラス分類適応処理により、SD信号をHD信号に変換する場合、まず、入力SD信号からなるクラスタップの特徴を、ADRC(適応的ダイナミックレンジ符号化)等を用いて求め、得られたクラスタップの特徴に基づいてクラス分類を行う。そして、そのクラス毎に用意された予測係数と、入力SD信号からなる予測タップとの演算を行うことによって、HD信号を得る。 When an SD signal is converted into an HD signal by class classification adaptive processing, first, the characteristics of the class tap composed of the input SD signal are obtained using ADRC (adaptive dynamic range coding) or the like, and the class tap obtained is converted. Classify based on features. Then, an HD signal is obtained by calculating a prediction coefficient prepared for each class and a prediction tap composed of an input SD signal.
また、クラス分類適応処理を応用することで、画像に含まれる動きぼけを取り除いて元の画像を復元することも可能となる。あるいはまた、撮像後の物体がどれだけ移動しているのかという情報を用いてボケ量を類推し、そのボケ量に基づいて周波数特性を算出し、算出した周波数特性の逆特性のフィルタをかけることにより補正を行う技術も提案されている(例えば、特許文献1参照)。しかし、画像に含まれる動きぼけを取り除いて元の画像を復元する場合、一般的にノイズが増幅されたり、リンギングが発生するといった悪影響が生じる。 In addition, by applying the classification adaptation process, it is possible to remove the motion blur included in the image and restore the original image. Alternatively, the amount of blur is estimated using information on how much the imaged object is moving, the frequency characteristic is calculated based on the amount of blur, and the inverse filter of the calculated frequency characteristic is filtered. There has also been proposed a technique for performing correction according to (see, for example, Patent Document 1). However, when the original image is restored by removing the motion blur included in the image, in general, there is an adverse effect that noise is amplified or ringing occurs.
そのような悪影響をなくすために、例えば、予め多くの動きぼけ除去処理のバリエーションを用意して、入力画像に対して各種の動きぼけ除去処理を施した上で、劣化の出ていないものを選択する方式がある。 In order to eliminate such adverse effects, for example, many variations of motion blur removal processing are prepared in advance, various motion blur removal processing is performed on the input image, and those that have not deteriorated are selected. There is a method to do.
また、リンギングがでないような最適化規範を用いて、反復演算の中でそれを解いていくような方式もある。 In addition, there is a method in which an optimization criterion that does not cause ringing is used to solve it in an iterative operation.
しかしながら、予め各種の動きぼけ除去処理を施しておく場合には、動きの方向や大きさに応じて多数のバリエーションを用意する必要がある。また、反復演算を行う場合も何度も処理を繰り返すために、結果として回路規模の増大や処理時間の増大につながる傾向がある。 However, when various types of motion blur removal processing are performed in advance, it is necessary to prepare many variations according to the direction and size of the motion. Also, when performing iterative calculations, the processing is repeated many times, and as a result, the circuit scale tends to increase and the processing time increases.
また、動きぼけ除去処理のバリエーションの中から1つを選択する際の基準や、反復演算を止める際の基準も一律に決めることは難しく、劣化が残ることや画像のディテール感を損なう場合が多い。 In addition, it is difficult to uniformly determine the standard for selecting one of the variations in motion blur removal processing and the standard for stopping the iterative calculation, often resulting in deterioration and loss of image detail. .
本発明はこのような状況に鑑みてなされたものであり、多様な動きぼけの除去を効率的、かつ低コストで実現できるようにするものである。 The present invention has been made in view of such a situation, and enables various motion blurs to be removed efficiently and at low cost.
本発明の第1の側面は、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと回帰係数との積和演算により第2の信号の画像における前記注目画素に対応する画素の値を求める回帰予測演算の前記回帰係数を算出する回帰係数算出手段と、前記算出された前記回帰係数と、前記第1の信号の画像から得られた前記タップに基づいて前記回帰予測演算を行って回帰予測値を算出する回帰予測値算出手段と、前記算出された前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値との比較結果に基づいて、前記注目画素に第1の判別クラスに属する画素であるかまたは第2の判別クラスに属する画素であるかを判別するための判別情報を付与する判別情報付与手段と、前記付与された判別情報に基づいて、第1の信号の画像から前記タップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属する判別クラスを特定するための判別予測値を求める判別予測演算の前記判別係数を算出する判別係数算出手段と、前記算出された前記判別係数と、前記第1の信号の画像から得られた前記タップに基づいて前記判別予測演算を行って判別予測値を算出する判別予測値算出手段と、前記算出された前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段とを備え、前記回帰係数算出手段は、前記第1の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出し、前記第2の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出する係数学習装置である。 The first aspect of the present invention is a feature amount specified based on a motion vector from an image of the first signal, and is configured as a plurality of feature amounts obtained from pixel values of a target pixel and surrounding pixels. Regression that obtains a tap and calculates the regression coefficient of the regression prediction calculation that calculates the value of the pixel corresponding to the target pixel in the image of the second signal by the product-sum operation of each of the elements of the tap and the regression coefficient A coefficient calculation means, a regression prediction value calculation means for calculating a regression prediction value by performing the regression prediction calculation based on the calculated regression coefficient and the tap obtained from the image of the first signal; Based on a comparison result between the calculated regression prediction value and a pixel value corresponding to the target pixel in the image of the second signal, the target pixel is a pixel belonging to a first discrimination class, or A discriminating information providing means for providing discriminating information for discriminating whether the pixel belongs to two discriminating classes, and acquiring the tap from the image of the first signal based on the given discriminating information; A discriminant coefficient calculating means for calculating the discriminant coefficient of the discriminant prediction calculation for obtaining a discriminant prediction value for specifying the discriminant class to which the pixel of interest belongs by multiplying and summing each of the elements of the tap and the discriminant coefficient; A discriminant prediction value calculating means for calculating a discriminant prediction value by performing the discriminant prediction calculation based on the discriminant coefficient and the tap obtained from the image of the first signal; and the calculated discriminant prediction Classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on a value, and the regression coefficient calculating unit Further calculates the regression coefficient using only the pixels classified into the first discrimination class, and further calculates the regression coefficient using only the pixels classified into the second discrimination class It is.
前記回帰係数算出手段が前記判別クラス毎に算出した前記回帰係数により前記回帰予測値算出手段が前記判別クラス毎に算出した前記回帰予測値に基づいて、前記判別情報付与手段が判別情報を付与する処理、前記判別係数算出手段が前記判別係数を算出する処理、および前記判別予測値算出手段が前記判別予測値を算出する処理を繰り返し実行するようにすることができる。 Based on the regression prediction value calculated by the regression prediction value calculation unit for each of the discrimination classes by the regression coefficient calculated by the regression coefficient calculation unit for each of the discrimination classes, the discrimination information providing unit provides discrimination information. The process, the process in which the discrimination coefficient calculating unit calculates the discrimination coefficient, and the process in which the discrimination prediction value calculation unit calculates the discrimination prediction value can be repeatedly executed.
前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値と差分が0以上である場合、前記注目画素は、第1の判別クラスに属する画素であると判別され、前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値と差分が0未満である場合、前記注目画素は、第1の判別クラスに属する画素であると判別されるようにすることができる。 If the difference between the regression prediction value and the value of the pixel corresponding to the target pixel in the image of the second signal is 0 or more, the target pixel is determined to be a pixel belonging to the first determination class; When the difference between the regression prediction value and the value of the pixel corresponding to the target pixel in the image of the second signal is less than 0, the target pixel is determined to be a pixel belonging to the first determination class. Can be.
前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値と差分絶対値が予め設定された閾値以上である場合、前記注目画素は、第1の判別クラスに属する画素であると判別され、前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値と差分絶対値が前記閾値未満である場合、前記注目画素は、第2の判別クラスに属する画素であると判別されるようにすることができる。 When the regression prediction value, the value of the pixel corresponding to the target pixel in the image of the second signal, and the absolute difference value are greater than or equal to a preset threshold value, the target pixel is a pixel belonging to the first discrimination class If the regression prediction value, the value of the pixel corresponding to the pixel of interest in the image of the second signal, and the absolute difference value are less than the threshold, the pixel of interest is a second discrimination class. It can be determined that the pixel belongs to the pixel.
前記第1の信号の画像は、前記第2の信号の画像に対して動きぼけが付加された画像であるようにすることができる。 The image of the first signal may be an image obtained by adding motion blur to the image of the second signal.
前記タップは、前記動きベクトルによって特定された動き方向および動き量に基づいて、前記注目画素を中心として動き方向に従って抽出した画素値、抽出した画素値の最大値および最小値、抽出した画素値の動き方向に従った微分特徴量の絶対値、並びに抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値のそれぞれを要素として構成されるようにすることができる。 The tap is based on the motion direction and the amount of motion specified by the motion vector, the pixel value extracted according to the motion direction centered on the pixel of interest, the maximum and minimum values of the extracted pixel value, and the extracted pixel value Each of the absolute value of the differential feature quantity according to the movement direction and the maximum value of the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value can be configured as an element.
本発明の第1の側面は、回帰係数算出手段が、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと回帰係数との積和演算により第2の信号の画像における前記注目画素に対応する画素の値を求める回帰予測演算の前記回帰係数を算出し、回帰予測値算出手段が、前記算出された前記回帰係数と、前記第1の信号の画像から得られた前記タップに基づいて前記回帰予測演算を行って回帰予測値を算出し、判別情報付与手段が、前記算出された前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値との比較結果に基づいて、前記注目画素に第1の判別クラスに属する画素であるかまたは第2の判別クラスに属する画素であるかを判別するための判別情報を付与し、判別係数算出手段が、前記付与された判別情報に基づいて、第1の信号の画像から前記タップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属する判別クラスを特定するための判別予測値を求める判別予測演算の前記判別係数を算出し、判別予測値算出手段が、前記算出された前記判別係数と、前記第1の信号の画像から得られた前記タップに基づいて前記判別予測演算を行って判別予測値を算出し、分類手段が、前記算出された前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類し、前記第1の判別クラスに分類された画素のみを用いて前記回帰係数がさらに算出され、前記第2の判別クラスに分類された画素のみを用いて前記回帰係数がさらに算出されるステップを含む係数学習方法である。 According to a first aspect of the present invention, the regression coefficient calculation means is a feature amount specified based on a motion vector from an image of the first signal, and includes a plurality of pixel values obtained from pixel values of a target pixel and peripheral pixels. The regression prediction calculation that obtains a tap configured as a feature quantity and obtains a value of a pixel corresponding to the target pixel in the image of the second signal by a product-sum operation of each of the elements of the tap and a regression coefficient Regression coefficient is calculated, and the regression prediction value calculation means calculates the regression prediction value by performing the regression prediction calculation based on the calculated regression coefficient and the tap obtained from the image of the first signal. Then, the determination information providing unit performs first determination on the target pixel based on a comparison result between the calculated regression prediction value and a pixel value corresponding to the target pixel in the image of the second signal. Belongs to class Discrimination information for discriminating whether the pixel is a pixel or a pixel belonging to the second discrimination class is provided, and the discrimination coefficient calculation unit is configured to calculate from the image of the first signal based on the provided discrimination information. Obtaining the tap, calculating the discrimination coefficient of the discrimination prediction calculation for obtaining a discrimination prediction value for specifying the discrimination class to which the pixel of interest belongs by multiplying and calculating each of the elements of the tap and the discrimination coefficient; A discriminant prediction value calculating unit calculates the discriminant prediction value by performing the discriminant prediction calculation based on the calculated discriminant coefficient and the tap obtained from the image of the first signal. Based on the calculated discrimination prediction value, each pixel of the image of the first signal is classified into one of the first discrimination class and the second discrimination class, and the first discrimination is performed. Minutes to class By which only said regression coefficient is further calculated by using pixels, which is the second coefficient learning method comprising the regression coefficients using only the classified pixels to determine class is further calculated.
本発明の第1の側面は、コンピュータを、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと回帰係数との積和演算により第2の信号の画像における前記注目画素に対応する画素の値を求める回帰予測演算の前記回帰係数を算出する回帰係数算出手段と、前記算出された前記回帰係数と、前記第1の信号の画像から得られた前記タップに基づいて前記回帰予測演算を行って回帰予測値を算出する回帰予測値算出手段と、前記算出された前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値との比較結果に基づいて、前記注目画素に第1の判別クラスに属する画素であるかまたは第2の判別クラスに属する画素であるかを判別するための判別情報を付与する判別情報付与手段と、前記付与された判別情報に基づいて、第1の信号の画像から前記タップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属する判別クラスを特定するための判別予測値を求める判別予測演算の前記判別係数を算出する判別係数算出手段と、前記算出された前記判別係数と、前記第1の信号の画像から得られた前記タップに基づいて前記判別予測演算を行って判別予測値を算出する判別予測値算出手段と、前記算出された前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段とを備え、前記回帰係数算出手段は、前記第1の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出し、前記第2の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出する係数学習装置として機能させるプログラムである。 According to a first aspect of the present invention, a computer is a feature amount specified based on a motion vector from an image of a first signal, and is a plurality of feature amounts obtained from pixel values of a target pixel and peripheral pixels. Obtaining the configured tap, and calculating the regression coefficient of the regression prediction calculation for obtaining the value of the pixel corresponding to the pixel of interest in the image of the second signal by multiply-and-accumulate each of the elements of the tap and the regression coefficient. Regression prediction value calculation means for calculating a regression prediction value by performing the regression prediction calculation based on the calculated regression coefficient calculation means, the calculated regression coefficient, and the tap obtained from the image of the first signal And an image belonging to the first discrimination class for the target pixel based on a comparison result between the calculated regression prediction value and the value of the pixel corresponding to the target pixel in the second signal image. Discriminating information adding means for adding discriminating information for discriminating whether the pixel is a pixel belonging to the second discriminating class or the tap from the image of the first signal based on the given discriminating information And calculating the discriminant coefficient of the discriminant prediction calculation for obtaining the discriminant prediction value for specifying the discriminant class to which the pixel of interest belongs by multiplying and summing each of the elements of the tap and the discriminant coefficient Means, a discrimination prediction value calculation means for calculating a discrimination prediction value by performing the discrimination prediction calculation based on the calculated discrimination coefficient and the tap obtained from the image of the first signal, and the calculation Classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the determined discrimination prediction value, The regression coefficient calculation means further calculates the regression coefficient using only the pixels classified into the first discrimination class, and further calculates the regression coefficient using only the pixels classified into the second discrimination class This is a program that functions as a coefficient learning device.
本発明の第1の側面においては、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと回帰係数との積和演算により第2の信号の画像における前記注目画素に対応する画素の値を求める回帰予測演算の前記回帰係数が算出され、前記算出された前記回帰係数と、前記第1の信号の画像から得られた前記タップに基づいて前記回帰予測演算を行って回帰予測値が算出され、前記算出された前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値との比較結果に基づいて、前記注目画素に第1の判別クラスに属する画素であるかまたは第2の判別クラスに属する画素であるかを判別するための判別情報が付与され、前記付与された判別情報に基づいて、第1の信号の画像から前記タップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属する判別クラスを特定するための判別予測値を求める判別予測演算の前記判別係数が算出され、前記算出された前記判別係数と、前記第1の信号の画像から得られた前記タップに基づいて前記判別予測演算を行って判別予測値が算出され、前記算出された前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれが、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類され、前記第1の判別クラスに分類された画素のみを用いて前記回帰係数がさらに算出され、前記第2の判別クラスに分類された画素のみを用いて前記回帰係数がさらに算出される。 In the first aspect of the present invention, the feature amount is specified based on the motion vector from the first signal image, and is configured as a plurality of feature amounts obtained from the pixel values of the target pixel and the surrounding pixels. The regression coefficient of the regression prediction calculation for calculating the pixel value corresponding to the target pixel in the image of the second signal is calculated by multiplying and summing each of the elements of the tap and the regression coefficient. , The regression prediction value is calculated by performing the regression prediction calculation based on the calculated regression coefficient and the tap obtained from the image of the first signal, and the calculated regression prediction value, Based on the comparison result with the value of the pixel corresponding to the target pixel in the image of the second signal, the target pixel is a pixel belonging to the first determination class or a pixel belonging to the second determination class. Discriminating information for discriminating whether or not the tap is obtained from the image of the first signal based on the given discriminating information, and the product sum of each of the elements of the tap and the discriminant coefficient The discriminant coefficient of the discriminant prediction calculation for obtaining the discriminant prediction value for specifying the discriminant class to which the pixel of interest belongs is calculated, and is obtained from the calculated discriminant coefficient and the image of the first signal. A discrimination prediction value is calculated by performing the discrimination prediction calculation based on the tap, and each pixel of the image of the first signal is converted into the first discrimination class based on the calculated discrimination prediction value. And the regression coefficient is further calculated using only the pixels classified into the first discrimination class, and only the pixels classified into the second discrimination class. The regression coefficient is further calculated are.
本発明の第2の側面は、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属するクラスを特定するための判別予測値を求める判別予測演算を行う判別予測手段と、前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段と、前記第1の信号の画像から、前記タップを取得して、前記タップと回帰係数との積和演算により回帰予測値を演算することで、第2の信号の画像における前記注目画素に対応する画素の画素値を予測する回帰予測手段とを備える画像処理装置である。 The second aspect of the present invention is a feature quantity specified from the first signal image based on the motion vector, and is configured as a plurality of feature quantities obtained from the pixel values of the target pixel and the surrounding pixels. A discriminant prediction means for obtaining a tap and performing a discriminant prediction operation for obtaining a discriminant prediction value for specifying a class to which the pixel of interest belongs by performing a product-sum operation of each of the elements of the tap and a discriminant coefficient; Based on the value, the classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class, and from the image of the first signal, Regression prediction means that obtains the tap and predicts the pixel value of the pixel corresponding to the pixel of interest in the image of the second signal by calculating the regression prediction value by the product-sum operation of the tap and the regression coefficient. And An image processing apparatus to obtain.
前記判別予測手段が前記判別予測演算を行う処理、および前記分類手段が前記第1の信号の画像の画素のそれぞれを、分類する処理を繰り返し実行するようにすることができる。 It is possible to repeatedly execute a process in which the discrimination prediction unit performs the discrimination prediction calculation and a classification unit in which the classification unit classifies each pixel of the image of the first signal.
前記第1の信号の画像は、前記第2の信号の画像に対して動きぼけが付加された画像であるようにすることができる。 The image of the first signal may be an image obtained by adding motion blur to the image of the second signal.
前記タップは、前記動きベクトルによって特定された動き方向および動き量に基づいて、前記注目画素を中心として動き方向に従って抽出した画素値、抽出した画素値の最大値および最小値、抽出した画素値の動き方向に従った微分特徴量の絶対値、並びに抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値のそれぞれを要素として構成されるようにすることができる。 The tap is based on the motion direction and the amount of motion specified by the motion vector, the pixel value extracted according to the motion direction centered on the pixel of interest, the maximum and minimum values of the extracted pixel value, and the extracted pixel value Each of the absolute value of the differential feature quantity according to the movement direction and the maximum value of the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value can be configured as an element.
本発明の第2の側面は、判別予測手段が、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属するクラスを特定するための判別予測値を求める判別予測演算を行い、分類手段が、前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類し、回帰予測手段が、前記第1の信号の画像から、前記タップを取得して、前記タップと回帰係数との積和演算により回帰予測値を演算することで、第2の信号の画像における前記注目画素に対応する画素の画素値を予測するステップを含む画像処理方法である。 According to a second aspect of the present invention, the discriminating / predicting means is a feature amount specified based on a motion vector from the first signal image, and a plurality of features obtained from pixel values of the target pixel and the surrounding pixels. Classifying means that obtains a tap configured as a quantity and performs a discrimination prediction calculation to obtain a discrimination prediction value for specifying a class to which the pixel of interest belongs by performing a product-sum operation of each of the elements of the tap and a discrimination coefficient; Classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the discrimination prediction value; The pixel of the pixel corresponding to the pixel of interest in the second signal image is obtained by obtaining the tap from the image of the first signal and calculating the regression prediction value by the product-sum operation of the tap and the regression coefficient. Predict value Step is an image processing method comprising.
本発明の第2の側面は、コンピュータを、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属するクラスを特定するための判別予測値を求める判別予測演算を行う判別予測手段と、前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段と、前記第1の信号の画像から、前記タップを取得して、前記タップと回帰係数との積和演算により回帰予測値を演算することで、第2の信号の画像における前記注目画素に対応する画素の画素値を予測する回帰予測手段とを備える画像処理装置として機能させるプログラムである。 According to a second aspect of the present invention, the computer is a feature amount specified based on a motion vector from an image of the first signal, and is a plurality of feature amounts obtained from pixel values of a target pixel and peripheral pixels. A discrimination prediction means for obtaining a configured tap and performing a discrimination prediction calculation for obtaining a discrimination prediction value for specifying a class to which the pixel of interest belongs by a product-sum operation of each of the elements of the tap and a discrimination coefficient; Classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the discrimination prediction value; and The pixel value of the pixel corresponding to the pixel of interest in the image of the second signal is predicted by acquiring the tap from the image and calculating the regression prediction value by the product-sum operation of the tap and the regression coefficient. A program to function as an image processing apparatus and a return prediction means.
本発明の第2の側面においては、第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属するクラスを特定するための判別予測値を求める判別予測演算が行われ、前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれが、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類され、前記第1の信号の画像から、前記タップを取得して、前記タップと回帰係数との積和演算により回帰予測値を演算することで、第2の信号の画像における前記注目画素に対応する画素の画素値が予測される。 In the second aspect of the present invention, the feature amount is specified based on the motion vector from the first signal image, and is configured as a plurality of feature amounts obtained from the pixel values of the target pixel and the surrounding pixels. A discriminant prediction calculation for obtaining a discriminant prediction value for specifying a class to which the pixel of interest belongs is performed by a product-sum operation of each of the elements of the tap and the discriminant coefficient. Each of the pixels of the image of the first signal is classified into one of the first discrimination class and the second discrimination class, and the tap is acquired from the image of the first signal. Thus, by calculating the regression prediction value by the product-sum operation of the tap and the regression coefficient, the pixel value of the pixel corresponding to the target pixel in the image of the second signal is predicted.
本発明によれば、多様な動きぼけの除去を効率的、かつ低コストで実現できる。 According to the present invention, various motion blurs can be removed efficiently and at low cost.
以下、図面を参照して、本発明の実施の形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の一実施の形態に係る学習装置の構成例を示すブロック図である。 FIG. 1 is a block diagram illustrating a configuration example of a learning device according to an embodiment of the present invention.
この学習装置10は、画像の高画質化処理に用いられる学習装置とされ、入力された生徒画像および教師画像(または教師信号)のデータに基づいて、高画質化処理において用いられる係数を生成するようになされている。
The
ここで、高画質化処理は、例えば、画像に含まれる動きぼけを取り除いて元の画像を復元したり、画像に含まれるノイズを除去したりする処理とされる。 Here, the high image quality processing is, for example, processing that removes motion blur included in an image and restores the original image, or removes noise included in the image.
学習装置10は、生徒画像を入力画像として、教師画像に近い高画質の画像を出力画像として生成するための係数である回帰係数を学習するようになされている。詳細は後述するが、回帰係数は、入力画像の注目画素に対応する複数の画素の値から得られる特徴量をパラメータとし、高画質化された画像において注目画素に対応する画素の値を演算する線形一次式に用いられる係数とされる。なお、回帰係数は、後述するクラス番号毎に学習される。
The
また、学習装置10は、入力画像の注目画素に対応する複数の画素の値、またはそれらの値から得られる特徴量に基づいて、注目画素を、複数のクラスのうちのいずれかにクラス分けする。すなわち、学習装置10は、入力画像の注目画素のそれぞれが、高画質化処理のためのどのクラスに属する画素であるかを特定するための判別係数を学習するようになされている。詳細は後述するが、判別係数は、入力画像の注目画素に対応する複数の画素の値、またはそれらの値から得られる特徴量をパラメータとする線形一次式に用いられる係数とされる。
In addition, the
すなわち、学習装置10により学習された判別係数を用いて、入力画像の注目画素に対応する複数の画素の値またはそれらの値から得られる特徴量をパラメータとした線形一次式の演算を繰り返し実行することにより、高画質化処理のためのクラスが特定されるようになされている。そして、特定されたクラスに対応する回帰係数を用いて、入力画像の注目画素に対応する複数の画素の値またはそれらの値から得られる特徴量をパラメータとした線形一次式の演算を実行することにより、高画質化された画像の画素値が演算されるようになされている。
That is, using the discriminant coefficient learned by the
学習装置10においては、例えば、教師画像として動きぼけのない画像を入力され、生徒画像として教師画像に対して動きぼけをした画像が入力される。教師画像と生徒画像は、1対(学習対と称することにする)ずつ入力されて学習装置10により学習が行われる。
In the
図2は学習対生成装置30の構成例を示すブロック図である。同図に示されるように、学習対生成装置30は、動きぼけ付加部31を有する構成とされている。
FIG. 2 is a block diagram illustrating a configuration example of the learning
この例では、動きぼけのない静止画像が学習対生成装置30に入力され、入力画像がそのまま教師画像として出力されるようになされている。一方、入力画像(静止画像)に対して、動きぼけ付加部31の処理が施された画像が生徒画像として出力されるようになされている。
In this example, a still image without motion blur is input to the learning
動きぼけ付加部31は、主に入力画像に動きぼけを付加する機能ブロックとされる。例えば、動きぼけ付加部31の処理により、入力画像に所定の方向・大きさの動きぼけが生じた画像が生成される。
The motion
なお、学習対生成装置30により、例えば、入力画像に動きぼけとともに、ノイズが付加されて生徒画像が生成されるようにしてもよい。
Note that the learning
学習対生成装置30には、例えば、静止画像が複数供給され、上述したように学習対が生成されていく。そして、生成された学習対が、図1の学習装置10に、生徒画像と教師画像として供給されることになる。
For example, a plurality of still images are supplied to the learning
図1に戻って、生徒画像のデータは、回帰係数学習部21、回帰予測部23、判別係数学習部25、判別予測部27、および動きベクトル検出部29に供給される。
Returning to FIG. 1, the student image data is supplied to the regression
動きベクトル検出部は、例えば、ブロックマッチング法、勾配法などを用いて生徒画像の動きベクトルを検出する。動きベクトル検出部により検出された動きベクトルは、生徒画像の動きぼけの動きの方向と大きさを表すものであり、回帰係数学習部21、回帰予測部23、判別係数学習部25、および判別予測部27に供給される。
The motion vector detection unit detects a motion vector of the student image using, for example, a block matching method, a gradient method, or the like. The motion vector detected by the motion vector detection unit represents the direction and magnitude of motion blur of the student image. The regression
回帰係数学習部21は、生徒画像を構成する画素の中から所定の画素を注目画素として設定する。そして、回帰係数学習部21は、生徒画像の注目画素とその周辺の画素値から、注目画素に対応する教師画像画素値を予測するための回帰予測演算式の係数を、例えば、最小二乗法を用いて学習する。
The regression
詳細は後述するが、本発明では、上述の回帰予測演算において、予測値は、学習装置10によって学習した回帰係数を用いた線形モデルであると仮定する。この際、回帰予測演算において、入力画像の注目画素に対応する複数の画素の値またはそれらの値から得られる特徴量をパラメータとして与えることになる。本発明では、入力画像の注目画素に対応する複数の画素の値と、それらの値から得られる3つの特徴量をこのパラメータとして用いる。入力画像(生徒画像)から抽出した入力画像の注目画素に対応する複数の画素の値と、それらの値から得られる3つの特徴量を4つの抽出値と称することにする。
Although details will be described later, in the present invention, in the above-described regression prediction calculation, it is assumed that the predicted value is a linear model using a regression coefficient learned by the
上述の4つの抽出値はそれぞれ、動き方向に従って抽出した画素値、抽出した画素値の最大値および最小値、抽出した画素値の動き方向に従った微分特徴量の絶対値、並びに抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値とされる。 The above four extracted values are the pixel value extracted according to the movement direction, the maximum and minimum values of the extracted pixel value, the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value, and the extracted pixel value, respectively. The absolute value of the differential feature quantity according to the movement direction of
図3は、上述の4つの抽出値のうちの第1番目の抽出値である動き方向に従って抽出した画素値を説明する図である。図3の例では、xy平面上に並べられた円によって、生徒画像の画素が示されている。いま、画素値を予測すべき教師画像の画素の位相(座標)に対応する注目画素は、図中中央の黒い(ハッチングされた)円で示された画素であるものとする。 FIG. 3 is a diagram for explaining pixel values extracted according to the motion direction, which is the first extracted value of the four extracted values described above. In the example of FIG. 3, the pixels of the student image are indicated by circles arranged on the xy plane. Now, it is assumed that the target pixel corresponding to the phase (coordinates) of the pixel of the teacher image whose pixel value is to be predicted is a pixel indicated by a black (hatched) circle in the center of the drawing.
動き方向は、動きベクトル検出部29により検出された動きベクトルに基づいて特定される。図3においては、動き方向の例として、「垂直動き」、「水平動き」、および「斜め動き」が示されている。
The motion direction is specified based on the motion vector detected by the motion
第1番目の抽出値である動き方向に従って抽出した画素値は、動きベクトルに基づいて特定された動き方向に従って、動きベクトルに基づいて特定された動き量に対応する数の画素の値を抽出することにより得られる。動き量は動きベクトルの大きさとされ、例えば、動きベクトルの大きさをmvで表わすと、注目画素から3mvから4mvの距離の範囲内に存在する画素の値が抽出される。 The pixel value extracted according to the motion direction that is the first extracted value extracts the value of the number of pixels corresponding to the motion amount specified based on the motion vector according to the motion direction specified based on the motion vector. Can be obtained. The amount of motion is the magnitude of the motion vector. For example, when the magnitude of the motion vector is represented by mv, the value of a pixel existing within a distance of 3 mv to 4 mv from the target pixel is extracted.
なお、動きベクトルは、例えば、(mx,my)の2次元ベクトルで与えられるものとして、動きベクトルの大きさmvは、動きベクトルのx成分とy成分の自乗和の平方根として求められる。 Note that the motion vector is given by, for example, a two-dimensional vector (mx, my), and the magnitude mv of the motion vector is obtained as the square root of the sum of squares of the x and y components of the motion vector.
例えば、動きベクトルに基づいて特定された動き方向が「垂直動き」であった場合、図3の注目画素を中心として垂直上下方向の直線上3mvから4mvの距離の範囲内に存在する画素の値が抽出される。動きベクトルに基づいて特定された動き方向が「水平動き」であった場合、図3の注目画素を中心として水平左右方向の直線上3mvから4mvの距離の範囲内に存在する画素の値が抽出される。 For example, when the motion direction specified based on the motion vector is “vertical motion”, the value of a pixel that exists within a distance of 3 mv to 4 mv on the straight line in the vertical vertical direction centering on the target pixel in FIG. Is extracted. When the motion direction specified based on the motion vector is “horizontal motion”, the values of pixels existing within a distance of 3 mv to 4 mv on the straight line in the horizontal horizontal direction with respect to the target pixel in FIG. 3 are extracted. Is done.
例えば、動きベクトルに基づいて特定された動き方向が「斜め動き」であった場合、図3の注目画素を中心として対称となる斜め方向の直線上3mvから4mvの距離の範囲内に存在する画素の値が抽出される。なお、図3の例では、右斜め45°の方向が「斜め動き」の例とされているが、実際にはもっと多様な「斜め動き」が存在する。 For example, when the motion direction specified based on the motion vector is “oblique motion”, pixels existing within a distance of 3 mv to 4 mv on a straight line in the oblique direction that is symmetric about the target pixel in FIG. The value of is extracted. In the example of FIG. 3, the direction of 45 ° to the right is an example of “oblique movement”, but actually there are more various “oblique movements”.
また、動きベクトルに基づいて特定された動き方向が「斜め動き」であった場合、注目画素を中心として対称となる斜め方向の直線上に画素が存在しないときがある。その場合、実在しない画素の値を実在する画素の値に基づいて補完することにより、動き方向に従って抽出した画素値を得るようになされている。 In addition, when the motion direction specified based on the motion vector is “oblique motion”, there is a case where the pixel does not exist on an oblique straight line that is symmetric with respect to the target pixel. In that case, the pixel value extracted according to the movement direction is obtained by complementing the value of the nonexistent pixel based on the value of the existing pixel.
図4は、画素の値の補完を説明する図である。同図は、xy平面上において、実在する画素を図中「×」で示し、実在しない画素を図中円で示している。例えば、図4に示されるように、注目画素を中心として対称となる斜め方向の直線51が得られた場合、図中に円で示される位置の実在しない画素の値を抽出する必要がある。
FIG. 4 is a diagram for explaining pixel value complementation. In the figure, on the xy plane, pixels that exist are indicated by “x” in the figure, and pixels that do not exist are indicated by circles in the figure. For example, as shown in FIG. 4, when an oblique
例えば、図中下から2番目の位置の円で示される画素(実在しない画素)の値xijは、実在する画素の値x0乃至x3を用いて式(1)により演算される。 For example, the value x ij of a pixel (non-existing pixel) indicated by a circle at the second position from the bottom in the figure is calculated by the equation (1) using the actual pixel values x 0 to x 3 .
これにより、実在しない画素の値が実在する画素の値に基づいて補完されたことになる。なお、式(1)では、バイリニア法により補完する例について示したが、他の方式で補完されるようにしても構わない。 As a result, the value of the nonexistent pixel is complemented based on the value of the existing pixel. In addition, in Formula (1), although the example complemented by the bilinear method was shown, you may make it complement by another system.
上述した4つの抽出値のうちの第2番目の抽出値である、抽出した画素値の最大値および最小値は、式(2)と式(3)により求められる。なお、式(2)と式(3)においてxijが動き方向に従って抽出した画素値のそれぞれを表しており、例えば、i番目の注目画素に対応してj個の画素値がそれぞれ抽出されたものとする。 The maximum value and the minimum value of the extracted pixel values, which are the second extraction values among the four extraction values described above, are obtained by Expressions (2) and (3). In Expressions (2) and (3), x ij represents each of the pixel values extracted according to the movement direction. For example, j pixel values corresponding to the i-th target pixel are extracted. Shall.
式(2)により求められるxi (max)が抽出した画素値の最大値とされ、式(3)により求められるxi (min)が抽出した画素値の最小値とされる。 X i (max) obtained by Expression (2) is the maximum value of the extracted pixel values, and x i (min) obtained by Expression (3 ) is the minimum value of the extracted pixel values.
上述した4つの抽出値のうちの第3番目の抽出値である、抽出した画素値の動き方向に従った微分特徴量の絶対値は、例えば、動き方向に従って抽出した画素値のうちの2つの画素値の差分、周辺画素値のダイナミックレンジなどによって求められる。 The absolute value of the differential feature amount according to the movement direction of the extracted pixel value, which is the third extraction value of the four extraction values described above, is, for example, two of the pixel values extracted according to the movement direction. It is obtained by a difference in pixel values, a dynamic range of surrounding pixel values, and the like.
図5乃至図7は、抽出した画素値の動き方向に従った微分特徴量の絶対値を求める方式の例を説明する図である。 5 to 7 are diagrams illustrating an example of a method for obtaining the absolute value of the differential feature amount according to the movement direction of the extracted pixel value.
図5と図6は、動き方向に従って抽出した画素値のうちの2つの画素値の差分によって抽出した画素値の動き方向に従った微分特徴量の絶対値を求める方式の例を示している。なお、図5と図6において、動きベクトルに基づいて特定された動き方向は、「水平動き」であったものとする。 5 and 6 show an example of a method for obtaining the absolute value of the differential feature quantity according to the movement direction of the pixel value extracted by the difference between two pixel values extracted from the pixel values according to the movement direction. 5 and 6, it is assumed that the motion direction specified based on the motion vector is “horizontal motion”.
図5は隣接する画素の値の差分絶対値(|xij+1−xij|)により画素値の動き方向に従った微分特徴量の絶対値(|xij (mv)|)が求められる場合の例を示している。このように、動き方向に従って抽出した画素値のそれぞれについて微分特徴量の絶対値が求められていく。なお、図5の場合、正確には、図中「×」で示される座標における微分特徴量の絶対値を意味することになるが、例えば、図中「×」の左側に示される円に対応する画素の値の微分特徴量の絶対値として擬制される。 In FIG. 5, the absolute value (| x ij (mv) |) of the differential feature quantity according to the movement direction of the pixel value is obtained from the difference absolute value (| x ij + 1 −x ij |) of the adjacent pixel values. An example of the case is shown. In this way, the absolute value of the differential feature value is obtained for each pixel value extracted according to the movement direction. In the case of FIG. 5, to be precise, it means the absolute value of the differential feature quantity at the coordinates indicated by “x” in the figure, but corresponds to, for example, the circle shown on the left side of “x” in the figure. This is assumed as the absolute value of the differential feature value of the pixel value.
図6は、隣接しない画素の値の差分絶対値(|xij+1−xij-1|)により画素値の動き方向に従った微分特徴量の絶対値(|xij (mv)|)が求められる場合の例を示している。このように、動き方向に従って抽出した画素値のそれぞれについて微分特徴量の絶対値が求められていく。なお、図6の場合、図中「×」が付された円に対応する画素の値の微分特徴量の絶対値を意味することになる。 FIG. 6 shows the absolute value (| x ij (mv) |) of the differential feature quantity according to the movement direction of the pixel value by the difference absolute value (| x ij + 1 −x ij−1 |) of the values of pixels not adjacent to each other. This shows an example in which is required. In this way, the absolute value of the differential feature value is obtained for each pixel value extracted according to the movement direction. In the case of FIG. 6, this means the absolute value of the differential feature value of the pixel value corresponding to the circle marked with “x” in the figure.
図7は、周辺画素値のダイナミックレンジ(DR)によって、抽出した画素値の動き方向に従った微分特徴量の絶対値を求める方式の例を示している。なお、図7の場合、図中「×」で示される座標に、動き方向に従って抽出した画素が存在するものとする。そして、動きベクトルに基づいて特定された動き方向に係らず、図中「×」で示される座標から所定の範囲内の画素(実在しない画素も含む)の値の最大値(p(max))と最小値(p(min))との差分(DR)が抽出した画素値の動き方向に従った微分特徴量の絶対値とされる。 FIG. 7 shows an example of a method for obtaining the absolute value of the differential feature amount according to the movement direction of the extracted pixel value by the dynamic range (DR) of the peripheral pixel value. In the case of FIG. 7, it is assumed that pixels extracted according to the movement direction exist at the coordinates indicated by “x” in the drawing. The maximum value (p (max) ) of the values of pixels (including non-existing pixels) within a predetermined range from the coordinates indicated by “x” in the figure regardless of the motion direction specified based on the motion vector. And the minimum value (p (min) ) is the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value.
この他、例えば、ソーベル演算子を用いて抽出した画素値の動き方向に従った微分特徴量の絶対値が求められるようにしてもよい。 In addition, for example, the absolute value of the differential feature amount according to the movement direction of the pixel value extracted using the Sobel operator may be obtained.
なお、図5乃至図7は、抽出した全画素値のそれぞれについて動き方向に従った微分特徴量の絶対値を求める方式の例を説明したが、例えば、演算規模をより少ないものとするために、主要項についてのみ動き方向に従った微分特徴量の絶対値を求めるようにしてもよい。ここで、主要項は、抽出した全画素値に対応するそれぞれの画素のうち、ぼけ除去に対して特に有効とされる部分を意味する。 FIGS. 5 to 7 illustrate examples of methods for obtaining the absolute value of the differential feature amount according to the movement direction for each of all extracted pixel values. For example, in order to reduce the calculation scale, for example. The absolute value of the differential feature amount according to the movement direction may be obtained only for the main term. Here, the main term means a portion that is particularly effective for blur removal among the respective pixels corresponding to all the extracted pixel values.
図8は、主要項についてのみ動き方向に従った微分特徴量の絶対値を求める方式の例を示す図である。なお、図8において、動きベクトルに基づいて特定された動き方向は、「水平動き」であったものとする。また、図8の例の場合、図5と同様に、隣接する画素の値の差分絶対値により画素値の動き方向に従った微分特徴量の絶対値が求められるものとする。 FIG. 8 is a diagram illustrating an example of a method for obtaining the absolute value of the differential feature amount according to the movement direction only for the main term. In FIG. 8, it is assumed that the motion direction specified based on the motion vector is “horizontal motion”. In the case of the example of FIG. 8, as in FIG. 5, the absolute value of the differential feature amount according to the movement direction of the pixel value is obtained from the absolute difference value of the adjacent pixel values.
図8の例では、図中中央に黒い円で示された注目画素を中心として、左右にそれぞれ1/2mvだけ離れた位置、およびそれらの位置からそれぞれさらに1mvだけ離れた位置が主要項とされている。すなわち、図8の例では、図中最も左の円で示される画素(0番目の画素と称する)と、5番目の画素と、10番目の画素と、15番目の画素とが主要項とされている。 In the example of FIG. 8, the main term is a position that is separated by ½ mV on the left and right, respectively, and a position that is further separated by 1 mV from each position, with the pixel of interest indicated by a black circle at the center in the figure as the center. ing. That is, in the example of FIG. 8, the pixel indicated by the leftmost circle (referred to as the 0th pixel), the 5th pixel, the 10th pixel, and the 15th pixel are the main terms. ing.
図8のように微分特徴量の絶対値を求めることで、例えば、第1の抽出値として17個の画素値が抽出された場合であっても、第3の抽出として得られる、抽出した画素値の動き方向に従った微分特徴量の絶対値は4個とすることができる。このようにすることで、例えば、演算規模を小さくすることができ、コスト削減などにつながる。 By obtaining the absolute value of the differential feature amount as shown in FIG. 8, for example, even if 17 pixel values are extracted as the first extraction value, the extracted pixel obtained as the third extraction is obtained. The absolute value of the differential feature amount according to the movement direction of the value can be four. By doing so, for example, the operation scale can be reduced, leading to cost reduction.
上述した4つの抽出値のうちの第4番目の抽出値である、抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値は、式(4)により求められる。なお、式(4)においてx(mv) ijが抽出した画素値の動き方向に従った微分特徴量の絶対値のそれぞれを表している。すなわち、例えば、i番目の注目画素に対応してj+1個の画素値がそれぞれ抽出され、それらの画素値のそれぞれについてj個の動き方向に従った微分特徴量の絶対値が求められたものとする。 The maximum value of the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value, which is the fourth extracted value of the four extracted values described above, is obtained by Expression (4). In Expression (4), x (mv) ij represents each absolute value of the differential feature amount according to the moving direction of the extracted pixel value. That is, for example, j + 1 pixel values corresponding to the i-th target pixel are extracted, and the absolute value of the differential feature amount according to the j motion directions is obtained for each of the pixel values. To do.
式(4)により求められる|xi (mv)|(max)が、抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値とされる。 | X i (mv) | (max) obtained by Expression (4) is the maximum value of the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value.
このようにして4つの抽出値が得られる。 In this way, four extracted values are obtained.
次に、上述した回帰係数の学習について説明する。上述した教師画像画素値を予測するための回帰予測演算式において、例えば、教師画像の画素値ti(i=1,2,..N)とし、予測値yi(i=1,2,..N)とおくと、式(5)が成立する。ここでNは、生徒画像の画素と教師画像の画素との全サンプル数を表すものとする。 Next, learning of the above-described regression coefficient will be described. In the regression prediction calculation formula for predicting the teacher image pixel value described above, for example, the pixel value t i (i = 1, 2,... N) of the teacher image is used, and the predicted value y i (i = 1, 2, (N), equation (5) is established. Here, N represents the total number of samples of the pixel of the student image and the pixel of the teacher image.
ここで、εi(i=1,2,..N)は、誤差項である。 Here, ε i (i = 1, 2,... N) is an error term.
予測値yiは、回帰係数wを用いた線形モデルを仮定すると、生徒画像から抽出した上述の4つの抽出値をパラメータ(タップとも称する)として用いて、式(6)のように表現できる。 Assuming a linear model using the regression coefficient w, the predicted value y i can be expressed as Equation (6) using the four extracted values extracted from the student image as parameters (also referred to as taps).
なお、wTは、行列式として表されるwの転置行列を表している。woは、バイアスパラメータであり、定数項であり、式(6)において、バイアスパラメータwoは含まれないようにすることも可能である。なお、Mの値は、後述するタップの要素数に対応する。 Note that w T represents a transposed matrix of w expressed as a determinant. w o is a bias parameter and is a constant term, and it is possible that the bias parameter w o is not included in equation (6). Note that the value of M corresponds to the number of tap elements described later.
式(6)において、パラメータ(タップ)として用いられるxijは、生徒画像の注目画素に対応して得られた動き方向に従って抽出した画素値、抽出した画素値の最大値および最小値、抽出した画素値の動き方向に従った微分特徴量の絶対値、並びに抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値とされる。すなわち、タップxijは、上述した4つ抽出値をそれぞれ要素とするベクトルとなる。 In Expression (6), x ij used as a parameter (tap) is a pixel value extracted according to the movement direction obtained corresponding to the target pixel of the student image, and a maximum value and a minimum value of the extracted pixel value. The absolute value of the differential feature quantity according to the movement direction of the pixel value and the maximum value of the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value. That is, the tap x ij is a vector having the above-described four extracted values as elements.
回帰予測演算式の係数を、最小二乗法を用いて学習する場合、上述したように求められた予測値を式(5)に代入し、式(5)の誤差項の全サンプル分の自乗和を式(7)により演算する。 When learning the coefficient of the regression prediction formula using the least square method, the predicted value obtained as described above is substituted into formula (5), and the sum of squares for all samples of the error term in formula (5). Is calculated by Equation (7).
そして、式(7)の誤差項の全サンプル分の自乗和Eが最小となるような、回帰係数w(必要に応じてバイアスパラメータwoを含む)を導出する。 Then, a regression coefficient w (including a bias parameter w o as necessary) is derived so that the sum of squares E of all the samples of the error term in Expression (7) is minimized.
図1に戻って、回帰係数学習部21は、このようにして回帰係数を求める。回帰係数学習部21により得られた回帰係数は、回帰予測によって、高画質化された画像の画素値を予測するための演算に用いられる係数とされる。
Returning to FIG. 1, the regression
回帰係数学習部21により得られた回帰係数は、回帰係数記憶部22に記憶される。
The regression coefficient obtained by the regression
回帰予測部23は、生徒画像を構成する画素の中から所定の画素を注目画素として設定する。そして、回帰予測部23は、上述したタップ(4つの抽出値)を算出する。
The
回帰予測部23は、式(6)にタップと回帰係数wを代入して予測値yiを演算する。
The
ラベリング部24は、回帰予測部23により演算された予測値yiを、教師画像の画素値である真値tiと比較する。ラベリング部24は、例えば、予測値yiが真値ti以上となった注目画素を判別クラスAとしてラベリングし、予測値yiが真値ti未満となった注目画素を判別クラスBとしてラベリングする。すなわち、ラベリング部24は、回帰予測部23の演算結果に基づいて、生徒画像の各画素を判別クラスAと判別クラスBに分類するのである。
The
図9は、ラベリング部24の処理を説明するヒストグラムである。同図の横軸は、予測値yiから真値tiを引いた差分値を表し、縦軸は、その差分値が得られたサンプル(教師画像の画素と生徒画像の画素との組み合わせ)の相対頻度を表している。
FIG. 9 is a histogram for explaining the processing of the
同図に示されるように、回帰予測部23の演算により、予測値yiから真値tiを引いた差分値が0となったサンプルの頻度が最も高くなっている。差分値が0である場合、回帰予測部23により正確な予測値(=真値)が演算されたことになり、適切に高画質化の処理がなされたことになる。すなわち、回帰係数学習部21により回帰係数が学習されたので、式(6)により正確な予測値が演算される可能性は高いといえる。
As shown in the figure, the frequency of the sample in which the difference value obtained by subtracting the true value t i from the predicted value y i is 0 by calculation of the
しかし、差分値が0以外のものについては、正確な回帰予測がなされたとはいえない。そうであれば、より適切な回帰係数を学習する余地があると考えられる。 However, it cannot be said that an accurate regression prediction was made for a difference value other than zero. If so, there is room to learn more appropriate regression coefficients.
本発明では、例えば、予測値yiが真値ti以上となった注目画素のみを対象として回帰係数を学習すれば、それらの注目画素に対してより適切な回帰係数を学習することができ、予測値yiが真値ti未満となった注目画素のみを対象として回帰係数を学習すれば、それらの注目画素に対してより適切な回帰係数を学習することができると仮定する。このため、ラベリング部24は、回帰予測部23の演算結果に基づいて、生徒画像の各画素を判別クラスAと判別クラスBに分類する。
In the present invention, for example, if a regression coefficient is learned only for a target pixel whose predicted value y i is equal to or greater than the true value t i , a more appropriate regression coefficient can be learned for those target pixels. It is assumed that if a regression coefficient is learned only for a target pixel whose predicted value y i is less than the true value t i , a more appropriate regression coefficient can be learned for those target pixels. For this reason, the
そして、この後、判別係数学習部25の処理によって、生徒画像の画素値に基づいて、各画素を判別クラスAと判別クラスBに分類するための予測演算に用いられる係数が学習されるのである。すなわち、本発明においては、真値が不明であっても、入力画像の画素値に基づいて各画素を判別クラスAと判別クラスBに分類できるようにするのである。
Thereafter, the coefficient used for the prediction calculation for classifying each pixel into the discrimination class A and the discrimination class B is learned based on the pixel value of the student image by the process of the discrimination
ここでは、ラベリング部24が生徒画像の各画素をラベリングすると説明したが、ラベリングの単位は、正確には教師画像の画素値である真値tiに対応する生徒画像から得られたタップ毎に1個ずつラベリングされることになる。
Here, it has been described that the
また、ここでは、予測値yiが真値ti以上となった注目画素と、予測値yiが真値ti未満となった注目画素とを判別してラベリングする例について説明したが、他の方式でラベリングするようにしてもよい。例えば、予測値yiと真値tiの差分絶対値が予め設定された閾値未満の値となった注目画素を判別クラスAとしてラベリングし、予測値yiと真値tiの差分絶対値が予め設定された閾値以上の値となった注目画素を判別クラスBとしてラベリングするようにしてもよい。さらに、それ以外の方式で注目画素を判別クラスAと判別クラスBにラベリングしてもよい。以下では、予測値yiが真値ti以上となった注目画素と、予測値yiが真値ti未満となった注目画素とを判別してラベリングする場合の例について説明する。 Further, here, the pixel of interest predicted value y i is equal to or greater than the true value t i, but prediction value y i has been described an example of labeling to determine the pixel of interest is less than the true value t i, You may make it label by another system. For example, the pixel of interest whose absolute difference between the predicted value y i and the true value t i is less than a preset threshold is labeled as a discrimination class A, and the absolute difference between the predicted value y i and the true value t i A pixel of interest having a value equal to or greater than a preset threshold value may be labeled as a discrimination class B. Furthermore, the pixel of interest may be labeled into discrimination class A and discrimination class B by other methods. In the following, an example will be described in which a target pixel whose predicted value y i is equal to or greater than the true value t i and a target pixel whose predicted value y i is less than the true value t i are discriminated and labeled.
図1に戻って、判別係数学習部25は、生徒画像を構成する画素の中から所定の画素を注目画素として設定する。そして、判別係数学習部25は、生徒画像の注目画素とその周辺の画素値から、判別クラスAと判別クラスBを判定するための予測値の演算に用いられる係数を学習する。
Returning to FIG. 1, the discrimination
判別係数の学習においては、生徒画像の注目画素とその周辺の画素値から得られる特徴量に基づいて、判別クラスAと判別クラスBを判定するための予測値yiが式(8)により求められるものとする。 In learning of the discriminant coefficient, a predicted value y i for determining the discriminant class A and discriminant class B is obtained by equation (8) based on the feature amount obtained from the target pixel of the student image and the surrounding pixel values. Shall be.
なお、zTは、行列式として表されるzの転置行列を表している。zoは、バイアスパラメータであり、定数項である。なお、式(8)において定数項であるバイアスパラメータzoは含まれないようにすることも可能である。 Z T represents a transposed matrix of z expressed as a determinant. z o is a bias parameter and is a constant term. It should be noted that the bias parameter z o which is a constant term in the equation (8) can be excluded.
式(8)において、パラメータとして用いられるxiは、上述した4つの抽出値からなるタップである。 In equation (8), x i used as a parameter is a tap composed of the four extracted values described above.
判別係数学習部25は、式(8)の係数zおよびバイアスパラメータzoを学習して、判別係数記憶部26に記憶するようになされている。
The discrimination
判別予測式の係数は、例えば、判別分析によって導出される。または、最小二乗法を用いて学習するようにしてもよい。 The coefficient of the discriminant prediction formula is derived by, for example, discriminant analysis. Or you may make it learn using a least squares method.
このようにして得られる判別予測式の係数zは、上述したタップの要素数と同じ要素数のベクトルとなる。判別係数学習部25により得られた係数zは、所定の注目画素が判別クラスAまたは判別クラスBのいずれに属するかを予測するための演算に用いられる係数であり、判別係数zと称することにする。なお、バイアスパラメータzoも広義の判別係数であるものとし、必要に応じて判別係数zに対応付けられて記憶されるものとする。
The coefficient z of the discriminant prediction formula thus obtained is a vector having the same number of elements as the number of tap elements described above. The coefficient z obtained by the discrimination
このようにして学習された係数zを用いて判別予測部27により予測値が演算されて生徒画像の注目画素が判別クラスAに属するものであるか判別クラスBに属するものであるかを判定することができる。判別予測部27は、式(8)にタップと判別係数z(必要に応じてバイアスパラメータzoも含む)を代入して予測値yiを演算する。
The prediction value is calculated by the
そして、判別予測部27による演算の結果、予測値yiが0以上となったタップの注目画素は、判別クラスAに属する画素であり、予測値yiが0未満となったタップの注目画素は、判別クラスBに属する画素であるものと推定できる。
Then, the pixel of interest of the tap whose predicted value y i is 0 or more as a result of the calculation by the
しかしながら、判別予測部27による演算の結果に基づく推定が必ずしも真実であるとは限らない。すなわち、式(8)にタップと判別係数zを代入して演算された予測値yiは、教師画像の画素値(真値)に係らず、生徒画像の画素値から予測した結果であるから、実際には判別クラスAに属する画素が判別クラスBに属する画素として推定されてしまったり、実際には判別クラスBに属する画素が判別クラスAに属する画素として推定されてしまうことがある。
However, the estimation based on the calculation result by the
そこで、本発明においては、反復して判別係数を学習させることにより、より精度の高い予測を可能とする。 Therefore, in the present invention, it is possible to perform prediction with higher accuracy by repeatedly learning the discrimination coefficient.
すなわち、クラス分割部28が、判別予測部27の予測結果に基づいて、生徒画像を構成する各画素を、判別クラスAに属する画素と判別クラスBに属する画素とに分割する。
That is, the
そして、回帰係数学習部21が、クラス分割部28により判別クラスAに属する画素のみを対象として、上述した場合と同様に回帰係数を学習して回帰係数記憶部22に記憶する。回帰予測部23は、クラス分割部28により判別クラスAに属するとされた画素のみを対象として、上述した場合と同様に回帰予測による予測値を演算する。
Then, the regression
このようにして、得られた予測値と真値とを比較して、ラベリング部24がクラス分割部28により判別クラスAに属するとされた画素を、さらに判別クラスAと判別クラスBにラベリングする。
In this way, the obtained predicted value is compared with the true value, and the
また、回帰係数学習部21が、クラス分割部28により判別クラスBに属するとされた画素のみを対象として、上述した場合と同様に回帰係数を学習する。回帰予測部23は、クラス分割部28により判別クラスBに属するとされた画素のみを対象として、上述した場合と同様に回帰予測による予測値を演算する。
Further, the regression
このようにして、得られた予測値と真値とを比較して、ラベリング部24がクラス分割部28により判別クラスBに属するとされた画素を、さらに判別クラスAと判別クラスBにラベリングする。
In this way, the obtained predicted value is compared with the true value, and the
つまり、生徒画像の画素が、4つの集合に分割されることになる。第1の集合は、クラス分割部28により判別クラスAに属するとされた画素であって、ラベリング部24により判別クラスAにラベリングされた画素の集合とされる。第2の集合は、クラス分割部28により判別クラスAに属するとされた画素であって、ラベリング部24により判別クラスBにラベリングされた画素の集合とされる。第3の集合は、クラス分割部28により判別クラスBに属するとされた画素であって、ラベリング部24により判別クラスAにラベリングされた画素の集合とされる。第4の集合は、クラス分割部28により判別クラスBに属するとされた画素であって、ラベリング部24により判別クラスBにラベリングされた画素の集合とされる。
That is, the pixel of the student image is divided into four sets. The first set is a set of pixels that are determined to belong to the discrimination class A by the
この後、判別係数学習部25は、上述した4つの集合のうち、第1の集合と第2の集合に基づいて、あらためて判別係数を、上述した場合と同様にして学習する。また、判別係数学習部25は、上述した4つの集合のうち、第3の集合と第4の集合に基づいて、あらためて判別係数を、上述した場合と同様にして学習する。
Thereafter, the discrimination
図10と図11は、反復して行われる判別係数の学習を説明する図である。 FIG. 10 and FIG. 11 are diagrams for explaining learning of the discrimination coefficient that is performed iteratively.
図10は、生徒画像から得られたタップ値であって、タップ値1を横軸とし、タップ値2を縦軸として生徒画像のタップのそれぞれを表す空間を示した図である。すなわち、同図においては、説明を簡単にするために、仮想的にタップの要素数を2個として生徒画像において存在し得る全てのタップを2次元空間上に表している。従って、同図においては、タップが2個の要素からなるベクトルであるものと仮定する。
FIG. 10 is a diagram showing the tap values obtained from the student images and showing the spaces representing the taps of the student images with the
同図に示される円71は、ラベリング部24が最初に判別クラスAとラベリングした画素に対応するタップの集合を表しており、円72は、ラベリング部24が最初に判別クラスBとラベリングした画素に対応するタップの集合を表している。円71に示される記号73は、円71に含まれるタップの要素の値の平均値の位置を表しており、円71に示される記号74は、円72に含まれるタップの要素の値の平均値の位置を表している。
A
同図に示されるように、円71と円72は、互いに重なり合っているので、生徒画像から得られたタップの要素の値のみに基づいて、正確に判別クラスAとラベリングした画素に対応するタップと判別クラスBとラベリングした画素に対応するタップとを判別することはできなかったことになる。
As shown in the figure, since the
しかしながら、記号73と記号74とに基づいて、おおよそ2つのクラスを判別するための境界線75を特定することは可能である。ここで、境界線75を特定する処理が、判別係数学習部25により行われる第1回目の学習により得られた判別係数を用いた判別予測部27の判別予測の処理に対応することになる。なお、境界線75上に位置するタップが、式(8)により演算された予測値yiが0となったタップである。
However, it is possible to specify the
境界線75の図中右側に位置するタップの集合を識別するために、クラス分割部28がそれらのタップに対応する画素にクラスコードビット1を付与する。また、境界線75の図中左側に位置するタップの集合を識別するために、図1のクラス分割部28がそれらのタップに対応する画素にクラスコードビット0を付与する。
In order to identify a set of taps located on the right side of the
なお、第1回目の学習により得られた判別係数は、第1回目の判別予測に用いられる判別係数であることを表すコードなどに対応付けられて、図1の判別係数記憶部26に記憶される。また、第1回目の判別予測の結果に基づいて、クラスコードビット1が付与された画素のみに基づいて、あらためて回帰係数が学習されて回帰予測が行われる。同様に、第1回目の判別予測の結果に基づいて、クラスコードビット0が付与された画素のみに基づいて、あらためて回帰係数が学習されて回帰予測が行われる。
The discriminant coefficient obtained by the first learning is stored in the discriminant
そして、クラスコードビット1が付与された画素群と、クラスコードビット0が付与された画素群のそれぞれに基づいて判別係数の学習が繰り返される。その結果、クラスコードビット1が付与された画素群がさらに2つに分割され、クラスコードビット2が付与された画素群もさらに2つに分割されることになる。このときの分割は、判別係数学習部25により行われる第2回目の学習により得られた判別係数を用いた判別予測部27の判別予測によりなされることになる。
Then, learning of the discrimination coefficient is repeated based on each of the pixel group to which the
なお、第2回目の学習により得られた判別係数は、第2回目の判別予測に用いられる判別係数であることを表すコードなどに対応付けられて、図1の判別係数記憶部26に記憶される。第2回目の学習により得られる判別係数は、第1回目の判別予測によりクラスコードビット1が付与された画素群と、第1回目の判別予測によりクラスコードビット0が付与された画素群のそれぞれを対象として行われる判別予測に用いられるので、いずれの画素群を対象とする判別予測に用いられるものであるのかを表すコードなどに対応付けられて、図1の判別係数記憶部26に記憶される。すなわち、第2回目の判別予測に用いられる判別係数は、2種類記憶されることになる。
The discriminant coefficient obtained by the second learning is stored in the discriminant
また、第1回目と第2回目の判別予測の結果に基づいて、クラスコードビット11が付与された画素のみに基づいて、あらためて回帰係数が学習されて回帰予測が行われることになる。同様に、第1回目と第2回目の判別予測の結果に基づいて、クラスコードビット10が付与された画素のみに基づいて、あらためて回帰係数が学習されて回帰予測が行われることになる。さらに、第1回目と第2回目の判別予測の結果に基づいて、クラスコードビット01が付与された画素のみに基づいて、あらためて回帰係数が学習されて回帰予測が行われ、クラスコードビット00が付与された画素のみに基づいて、あらためて回帰係数が学習されて回帰予測が行われることになる。
In addition, based on the results of the first and second discrimination predictions, the regression coefficient is learned again based on only the pixels to which the class code bits 11 are assigned, and regression prediction is performed. Similarly, based on the results of the first and second discrimination predictions, the regression coefficient is learned anew and regression prediction is performed based only on the pixels to which the
このような処理を繰り返すことにより、図10に示される空間が図11に示されるように分割される。 By repeating such processing, the space shown in FIG. 10 is divided as shown in FIG.
図11は、図10と同様に、タップ値1を横軸とし、タップ値2を縦軸として生徒画像のタップのそれぞれを表す空間を示した図である。同図では、判別係数学習部25により3回反復して判別係数の学習が行われた場合の例が示されている。すなわち、第1回目の学習により得られた判別係数を用いた判別予測により境界線75が特定され、第2回目の学習により得られた判別係数を用いた判別予測により境界線76−1と境界線76−2が特定される。第3回目の学習により得られた判別係数を用いた判別予測により境界線77−1乃至境界線77−4が特定される。
FIG. 11 is a diagram showing a space representing each tap of a student image with the
図1のクラス分割部28は、境界線75により分割されたタップの集合を識別するために、第1ビット目のクラスコードビットを付与し、境界線76−1と境界線76−2により分割されたタップの集合を識別するために、第2ビット目のクラスコードビットを付与し、境界線77−1乃至境界線77−4により分割されたタップの集合を識別するために、第3ビット目のクラスコードビットを付与する。
The
従って、図11に示されるように、生徒画像から得られたタップのそれぞれは、3ビットのクラスコードに基づいて特定されるクラス番号C0乃至C7の8つのクラスに分割(分類)されることになる。 Accordingly, as shown in FIG. 11, each tap obtained from the student image is divided (classified) into eight classes of class numbers C0 to C7 specified based on the 3-bit class code. Become.
図11に示されるようにクラス分類された場合、図1の判別係数記憶部26に、第1回目の判別予測に用いられる判別係数が1種類記憶され、第2回目の判別予測に用いられる判別係数が2種類記憶され、第3回目の判別予測に用いられる判別係数が4種類記憶されていることになる。
When classification is performed as shown in FIG. 11, one type of discriminant coefficient used for the first discriminant prediction is stored in the discriminant
また、図11に示されるようにクラス分類された場合、図1の回帰係数記憶部22に、クラス番号C0乃至C7のそれぞれに対応する8種類の回帰係数が記憶されていることになる。ここで、クラス番号C0乃至C7のそれぞれに対応する8種類の回帰係数は、第3回目の判別予測の結果、クラス番号C0乃至C7のそれぞれに分類された生徒画像の注目画素のタップと、注目画素に対応する教師画像の画素値とをサンプルとし、それぞれのクラス番号毎にあらためて回帰係数の学習が行われて記憶される。
Further, when classification is performed as shown in FIG. 11, the regression
このように、生徒画像と教師画像を用いて予め判別係数を学習しておき、入力された画像について反復して判別予測を繰り返せば、入力画像の画素をクラス番号C0乃至C7の8つのクラスに分類することが可能となる。そして、8つのクラスに分類された画素に対応するタップと、それぞれのクラスに対応する回帰係数を用いて回帰予測を行えば、適切な高画質化処理を行うことが可能となる。 As described above, if the discrimination coefficient is learned in advance using the student image and the teacher image and the discrimination prediction is repeated for the input image, the pixels of the input image are classified into eight classes having class numbers C0 to C7. It becomes possible to classify. If the regression prediction is performed using the taps corresponding to the pixels classified into the eight classes and the regression coefficients corresponding to the respective classes, it is possible to perform appropriate image quality improvement processing.
図12は、入力画像を図11のようにクラス分類する場合の例を、2分木構造を用いて説明する図である。入力画像の各画素が、第1回目の判別予測によって、第1ビットのクラスコードビット1または0が付与された画素に分類される。このとき、判別予測に用いられる判別係数は、反復コード1に対応する判別係数として図1の判別係数記憶部26に記憶されているものとする。
FIG. 12 is a diagram illustrating an example of classifying an input image as shown in FIG. 11 using a binary tree structure. Each pixel of the input image is classified into a pixel to which the
第1ビットのクラスコードビット1が付与された画素は、第2ビットのクラスコードビット1または0が付与された画素にさらに分類される。このとき、判別予測に用いられる判別係数は、反復コード21に対応する判別係数として図1の判別係数記憶部26に記憶されているものとする。同様に、第1ビットのクラスコードビット0が付与された画素は、第2ビットのクラスコードビット1または0が付与された画素にさらに分類される。このとき、判別予測に用いられる判別係数は、反復コード22に対応する判別係数として図1の判別係数記憶部26に記憶されているものとする。
The pixels to which the first bit
第1ビットおよび第2ビットのクラスコードビット11が付与された画素は、第3ビットのクラスコードビット1または0が付与された画素にさらに分類される。このとき、判別予測に用いられる判別係数は、反復コード31に対応する判別係数として図1の判別係数記憶部26に記憶されているものとする。第1ビットおよび第2ビットのクラスコードビット10が付与された画素は、第3ビットのクラスコードビット1または0が付与された画素にさらに分類される。このとき、判別予測に用いられる判別係数は、反復コード32に対応する判別係数として図1の判別係数記憶部26に記憶されているものとする。
Pixels to which the class code bit 11 of the first bit and the second bit is assigned are further classified into pixels to which the
同様に、第1ビットおよび第2ビットのクラスコードビット01または00が付与された画素も、第3ビットのクラスコードビット1または0が付与された画素にさらに分類される。そして、反復コード33または反復コード34に対応する判別係数が図1の判別係数記憶部26に記憶されているものとする。
Similarly, pixels to which the first and second bit
このように、3回反復して判別を行うことにより、入力画像の画素のそれぞれに3ビットからなるクラスコードが設定され、クラス番号が特定される。そして特定されたクラス番号に対応する回帰係数も特定される。 In this way, by repeating the determination three times, a class code consisting of 3 bits is set for each pixel of the input image, and the class number is specified. A regression coefficient corresponding to the specified class number is also specified.
この例では、クラスコードビットを反復回数順に、上位から下位ビットに繋げた値がクラス番号に対応している。従って、最終的なクラスコードに対応するクラス番号Ckは、例えば、式(9)のようにして特定される。 In this example, a value obtained by connecting the class code bits from the upper bit to the lower bit in order of the number of repetitions corresponds to the class number. Therefore, the class number Ck corresponding to the final class code is specified as shown in Equation (9), for example.
また、図12に示されるように,反復回数pと最終的なクラス数Ncとの関係は、式(10)により表される。 Also, as shown in FIG. 12, the relationship between the number of iterations p and the final class number Nc is expressed by equation (10).
なお、最終的なクラス数Ncは、最終的に使用する回帰係数の総数Nmと等しくなる。 Note that the final class number Nc is equal to the total number Nm of regression coefficients to be finally used.
判別係数の総数Ndは、式(11)により表される。 The total number Nd of discrimination coefficients is expressed by equation (11).
なお、後述する画像処理装置を用いた高画質化処理における判別予測において、適応的に反復回数を減らすことで、処理のロバスト化や高速化を図ることも可能である。そのようにする場合には図12の各分岐において用いられた回帰係数も必要になるので、回帰係数の総数Nmは式(12)により表されるものとなる。 Note that, in the discrimination prediction in the image quality improvement processing using the image processing apparatus to be described later, it is possible to increase the number of iterations adaptively, thereby increasing the processing speed and speed. In such a case, since the regression coefficients used in the respective branches in FIG. 12 are also required, the total number Nm of the regression coefficients is expressed by Expression (12).
ここでは、主として、判別係数の学習が3回反復して行われる例について説明したが、反復回数は、1回であってもよい。すなわち、第1回目の判別係数の学習が終了した後、判別係数学習部25による判別係数の演算、判別予測部27による判別予測が繰り返し実行されないようにしてもよい。
Although an example in which learning of the discrimination coefficient is performed three times repeatedly has been mainly described here, the number of repetitions may be one. That is, after the first discrimination coefficient learning is completed, the discrimination coefficient calculation by the discrimination
図13は、本発明の一実施の形態に係る画像処理装置の構成例を示すブロック図である。
同図の画像処理装置100は、図1の学習装置10に対応する画像処理装置とされる。すなわち、画像処理装置100は、学習装置10により学習された判別係数を用いて入力画像の各画素のそれぞれのクラスを判別する。そして、画像処理装置100は、判別されたクラスに対応する回帰係数であって、学習装置10により学習された回帰係数を用いて入力画像から得られるタップの回帰予測演算を行い、入力画像を高画質化する画像処理を行うようになされている。
FIG. 13 is a block diagram illustrating a configuration example of an image processing apparatus according to an embodiment of the present invention.
The
すなわち、画像処理装置100の判別係数記憶部122には、学習装置10の判別係数記憶部26に記憶されていた判別係数が予め記憶される。画像処理装置100の回帰係数記憶部124には、学習装置10の回帰係数記憶部22に記憶されていた回帰係数が予め記憶される。
That is, the discrimination coefficient stored in the discrimination
また、画像処理装置100には、動きベクトル検出部126が設けられており、動きベクトル検出部126は、例えば、ブロックマッチング法、勾配法などを用いて生徒画像の動きベクトルを検出する。動きベクトル検出部により検出された動きベクトルは、生徒画像の動きぼけの動きの方向と大きさを表すものであり、判別予測部121および回帰予測部125に供給される。そして、動きベクトルは、上述したように、タップを取得する際に用いられることになる。
In addition, the
同図の判別予測部121は、入力画像において注目画素を設定し、注目画素に対応するタップを取得して式(8)を参照して予測した演算を行う。ここでのタップは、やはり上述の4つの抽出値とされる。すなわち、動き方向に従って抽出した画素値、抽出した画素値の最大値および最小値、抽出した画素値の動き方向に従った微分特徴量の絶対値、並びに抽出した画素値の動き方向に従った微分特徴量の絶対値の最大値とされる。
The
このとき、判別予測部121は、反復回数と判別予測の対象とする画素群に基づいて反復コードを特定し、判別係数記憶部122から反復コードに対応する判別係数を読み出すようになされている。
At this time, the
クラス分割部123は、判別予測部121の予測結果に基づいて、注目画素にクラスコードビットを付与していくことで、入力画像の画素を2つの集合に分割する。このとき、上述したように、例えば、式(8)により演算された予測値yiと0との大小比較を行って、注目画素にクラスコードビットが付与される。
The
クラス分割部123の処理を経て、判別予測部121は、反復して判別予測を行い、クラス分割部123によってさらなる分割がなされる。判別予測は、予め設定された回数だけ反復して行われる。例えば、判別予測が3回反復して行われる場合、例えば、図11または図12を参照して上述したように、入力画像が3ビットのクラスコードのクラス番号に対応する画素群に分類されることになる。
Through the processing of the
なお、画像処理装置100における判別予測の反復回数は、学習装置10による判別係数の学習の反復回数と同じとなるように設定される。
Note that the number of iterations of discrimination prediction in the
クラス分割部123は、入力画像の各画素を特定する情報とその画素のクラス番号とを対応付けて回帰係数記憶部124に供給するようになされている。
The
回帰予測部125は、入力画像において注目画素を設定し、注目画素に対応するタップを取得して式(6)を参照して予測した演算を行う。このとき、回帰予測部125は、注目画素を特定する情報を回帰係数記憶部124に供給して、その注目画素のクラス番号に対応する回帰係数を、回帰係数記憶部124から読み出すようになされている。
The
そして、回帰予測部125の演算により得られた予測値を、注目画素に対応する画素の値とする出力画像が生成される。これにより、入力画像が高画質化された出力画像が得られることになる。
Then, an output image is generated in which the predicted value obtained by the calculation of the
このように、本発明によれば、入力画像に対して判別予測を行うことにより、入力画像を構成する各画素(実際には、注目画素に対応するタップ)を、高画質化処理に適したクラスに分類することができる。 Thus, according to the present invention, by performing discrimination prediction on the input image, each pixel constituting the input image (actually, a tap corresponding to the target pixel) is suitable for the high image quality processing. Can be classified into classes.
例えば、従来の技術のように、予め各種の動きぼけ除去処理を施しておく場合には、動きの方向や大きさに応じて多数のバリエーションを用意する必要がある。また、反復演算を行う場合も何度も処理を繰り返すために、結果として回路規模の増大や処理時間の増大につながる傾向がある。 For example, when various types of motion blur removal processing are performed in advance as in the conventional technology, it is necessary to prepare a large number of variations according to the direction and size of the motion. Also, when performing iterative calculations, the processing is repeated many times, and as a result, the circuit scale tends to increase and the processing time increases.
また、動きぼけ除去処理のバリエーションの中から1つを選択する際の基準や、反復演算を止める際の基準も一律に決めることは難しく、劣化が残ることや画像のディテール感を損なう場合が多い。 In addition, it is difficult to uniformly determine the standard for selecting one of the variations in motion blur removal processing and the standard for stopping the iterative calculation, often resulting in deterioration and loss of image detail. .
これに対して、本発明では、動きの方向や大きさに応じて処理を変える必要がなく、回路規模を適性なものとすることができる。また、処理を選択する際の基準や、反復演算を止める際の基準なども必要なく、画像に劣化が残ったり、画像のディテール感を損なわれることもない。 On the other hand, in the present invention, it is not necessary to change the processing according to the direction and size of the movement, and the circuit scale can be made appropriate. In addition, there is no need for a criterion for selecting a process or a criterion for stopping an iterative calculation, so that the image does not remain deteriorated or the details of the image are not impaired.
さらに、本発明では、反復して判別予測を行うことにより、より適切にクラス分類することが可能となる。また、反復して行われる判別予測の処理の途中において、入力画像の画素値などに処理を施した中間データなどを生成する必要がないので、処理を高速化することが可能である。すなわち、出力画像を予測する際に,どの画素に対しても高々(p+1)回の予測式の演算で、クラス分類と回帰予測を行うことができるので高速な処理が可能である。また、クラス分類と回帰予測を行う際に、タップの演算の中間データなどを用いることなく、常に入力に対する演算のみで完結しているために、実装においてパイプライン構造を利用することが可能となる。 Furthermore, in the present invention, it is possible to classify more appropriately by repeatedly performing discrimination prediction. In addition, it is not necessary to generate intermediate data or the like obtained by performing processing on the pixel values of the input image in the middle of the repetitive discrimination prediction processing, so that the processing speed can be increased. That is, when predicting an output image, class classification and regression prediction can be performed by calculating the prediction formula at most (p + 1) times for any pixel, so that high-speed processing is possible. In addition, when class classification and regression prediction are performed, it is possible to use the pipeline structure in the implementation because it is always completed only by the operation for the input without using the intermediate data of the tap operation. .
次に、図14のフローチャートを参照して、判別係数回帰係数学習処理の詳細について説明する。この処理は、図1の学習装置10により実行される。
Next, details of the discrimination coefficient regression coefficient learning process will be described with reference to the flowchart of FIG. This process is executed by the
ステップS101において、判別係数学習部25は、反復コードを特定する。いまの場合、第1回目の学習の処理であるから反復コードは1と特定される。
In step S101, the discrimination
ステップS102において、回帰係数学習部21乃至ラベリング部24は、図15を参照して後述するラベリング処理を実行する。ここで、図15のフローチャートを参照して図14のステップS102のラベリング処理の詳細な例について説明する。
In step S102, the regression
ステップS131において、回帰係数学習部21は、図16を参照して後述する回帰係数演算処理を実行する。これにより、生徒画像の画素値に基づいて教師画像の画素値を予測するための演算に用いられる回帰係数が求められる。
In step S131, the regression
ステップS132において、回帰予測部23は、ステップS131の処理により求められた回帰係数を用いて回帰予測値を演算する。このとき、例えば、式(6)の演算が行われ、予測値yiが求められる。
In step S132, the
ステップS133において、ラベリング部24は、ステップS132の処理により得られた予測値yiを、教師画像の画素値である真値tiと比較する。
In step S133, the
ステップS134において、ラベリング部24は、ステップS133の比較結果に基づいて、注目画素(実際には、注目画素に対応するタップ)を判別クラスAまたは判別クラスBにラベリングする。これにより、例えば、図9を参照して上述したように、判別クラスAまたは判別クラスBのラベリングがなされる。
In step S134, the
なお、ステップS132乃至ステップS134の処理は、反復コードに対応して定まる処理対象の画素のそれぞれを対象として行われる。 Note that the processing in steps S132 to S134 is performed for each pixel to be processed that is determined in accordance with the repetition code.
このようにしてラベリング処理が実行される。 In this way, the labeling process is executed.
次に、図16のフローチャートを参照して、図15のステップS131の回帰係数演算処理の詳細な例について説明する。 Next, a detailed example of the regression coefficient calculation process in step S131 in FIG. 15 will be described with reference to the flowchart in FIG.
ステップS151において、回帰係数学習部21は、ステップS101の処理で特定された反復コードに対応するサンプルを特定する。ここでの、サンプルは、生徒画像の注目画素に対応するタップと、その注目画素に対応する教師画像の画素との組み合わせを意味する。なお、タップは、動きベクトル検出部29により検出された動きベクトルに基づいて取得される。
In step S151, the regression
例えば、反復コードが1であれば、第1回目の学習の処理なので、生徒画像の全画素のそれぞれを注目画素としてサンプルが特定される。例えば、反復コードが21であれば、第2回目の学習の処理の一部なので、生徒画像の画素のうち、1回目の学習の処理でクラスコードビット1が付与された画素のそれぞれを注目画素としてサンプルが特定される。例えば、反復コードが34であれば、第3回目の学習の処理の一部なので、生徒画像の画素のうち、1回目の学習の処理でクラスコードビット0が付与され、2回目の学習の処理でクラスコードビット0が付与された画素のそれぞれを注目画素としてサンプルが特定される。
For example, if the repetitive code is 1, it is the first learning process, and therefore, the sample is specified with each of the pixels of the student image as the target pixel. For example, if the repetitive code is 21, it is a part of the second learning process, so that each pixel of the student image to which the
ステップS152において、回帰係数学習部21は、ステップS151の処理で特定されたサンプルの足しこみを行う。このとき、例えば、式(5)にサンプルのタップと教師画像の画素値が足しこまれていく。
In step S152, the regression
ステップS153において、回帰係数学習部21は、全サンプルを足しこんだか否かを判定し、全サンプルを足しこんだと判定されるまで、ステップS152の処理が繰り返し実行される。
In step S153, the regression
ステップS154において、回帰係数学習部21は、例えば、式(7)の演算を行い、最小二乗法を用いて、回帰係数を導出する。
In step S154, the regression
このようにして、回帰係数演算処理が実行される。 In this way, the regression coefficient calculation process is executed.
以上により図14のステップS102のラベリング処理が終了し、処理は、図14のステップS103の判別係数演算処理に進む。 Thus, the labeling process in step S102 in FIG. 14 is completed, and the process proceeds to the discrimination coefficient calculation process in step S103 in FIG.
ステップS103において、判別係数学習部25は、図17を参照して後述する判別係数演算処理を実行する。ここで、図17のフローチャートを参照して、図14のステップS103の判別係数演算処理の詳細な例について説明する。
In step S103, the discrimination
ステップS171において、判別係数学習部25は、ステップS101の処理で特定された反復コードに対応するサンプルを特定する。ここでの、サンプルは、生徒画像の注目画素に対応するタップと、注目画素についての判別クラスAまたは判別クラスBのラベリングの結果との組み合わせを意味する。
In step S171, the discrimination
例えば、反復コードが1であれば、第1回目の学習の処理なので、生徒画像の全画素のそれぞれを注目画素としてサンプルが特定される。例えば、反復コードが21であれば、第2回目の学習の処理の一部なので、生徒画像の画素のうち、1回目の学習の処理でクラスコードビット1が付与された画素のそれぞれを注目画素としてサンプルが特定される。例えば、反復コードが34であれば、第3回目の学習の処理の一部なので、生徒画像の画素のうち、1回目の学習の処理でクラスコードビット0が付与され、2回目の学習の処理でクラスコードビット0が付与された画素のそれぞれを注目画素としてサンプルが特定される。
For example, if the repetitive code is 1, it is the first learning process, and therefore, the sample is specified with each of the pixels of the student image as the target pixel. For example, if the repetitive code is 21, it is a part of the second learning process, so that each pixel of the student image to which the
ステップS172において、判別係数学習部25は、ステップS171の処理で特定されたサンプルの足しこみを行う。
In step S172, the discrimination
ステップS173において、判別係数学習部25は、全サンプルを足しこんだか否かを判定し、全サンプルを足しこんだと判定されるまで、ステップS172の処理が繰り返し実行される。
In step S173, the discrimination
ステップS174において、判別係数学習部25は、例えば、判別分析により(最小二乗法を用いてもよい)、判別係数を導出する。
In step S174, the discrimination
このようにして、判別係数演算処理が実行される。 In this way, the discrimination coefficient calculation process is executed.
図14に戻って、ステップS104において、判別予測部27は、ステップS103の処理により求められた係数と、生徒画像から得られるタップを用いて、判別予測値を演算する。このとき、例えば、式(8)の演算が行われ、予測値yi(判別予測値)が求められる。
Returning to FIG. 14, in step S <b> 104, the
ステップS105において、クラス分割部28は、ステップS104の処理により求められた判別予測値が0以上であるか否かを判定する。
In step S105, the
ステップS105において、判別予測値が0以上であると判定された場合、処理は、ステップS106に進み、当該注目画素(実際にはタップ)にクラスコードビット1が設定される。一方、ステップS105において、判別予測値が0未満であると判定された場合、処理は、ステップS107に進み、当該注目画素(実際にはタップ)にクラスコードビット0が設定される。
If it is determined in step S105 that the discrimination prediction value is 0 or more, the process proceeds to step S106, and the
なお、ステップS104乃至ステップS107の処理は、反復コードに対応して定まる処理対象の画素のそれぞれを対象として行われる。 Note that the processing from step S104 to step S107 is performed for each pixel to be processed that is determined corresponding to the repetition code.
ステップS106、またはステップS107の処理の後、処理は、ステップS108に進み、判別係数記憶部26は、ステップS103の処理で求められた判別係数を、ステップS101で特定された反復コードに対応付けて記憶する。
After the process of step S106 or step S107, the process proceeds to step S108, and the discrimination
ステップS109において、学習装置10は、反復が終了したか否かを判定する。例えば、3回反復して学習することが予め設定されている場合、まだ、反復が終了していないと判定され、処理は、ステップS101に戻る。
In step S109, the
そして、ステップS101において、あらためて反復コードが特定される。いまの場合、第2回目の学習の最初の処理であるから、反復コードは21と特定される。 In step S101, a repetitive code is specified again. In this case, since it is the first process of the second learning, the repetitive code is identified as 21.
そして、同様に、ステップS102乃至S108の処理が実行される。このとき、上述したように、ステップS102の処理と、ステップS103の処理では、生徒画像の画素のうち、1回目の学習の処理でクラスコードビット1が付与された画素のそれぞれを注目画素としてサンプルが特定されることになる。
Similarly, the processes of steps S102 to S108 are executed. At this time, as described above, in the processing of step S102 and the processing of step S103, each of the pixels of the student image to which the
そして、ステップS109で反復が終了したか否かが判定される。 Then, in step S109, it is determined whether or not the iteration has been completed.
このように、ステップS109において反復が終了したと判定されるまで、ステップS101乃至S108の処理が繰り返し実行される。3回反復して学習することが予め設定されている場合、ステップS101で反復コードは34であると特定された後、ステップS102乃至S108の処理が実行され、ステップS109において、反復は終了したと判定されることになる。 As described above, the processes in steps S101 to S108 are repeatedly executed until it is determined in step S109 that the repetition has been completed. If it is preset that learning is repeated three times, it is determined in step S101 that the iteration code is 34, and then the processing of steps S102 to S108 is executed. In step S109, the iteration is completed. Will be judged.
このように、ステップS101乃至S109の処理が繰り返し実行されたことにより、図9を参照して上述したように、7種類の判別係数が、それぞれ反復コードに対応付けられて判別係数記憶部26に記憶されたことになる。
As described above with reference to FIG. 9, the seven types of discrimination coefficients are associated with the iteration codes in the discrimination
ステップS109において、反復は終了したと判定された場合、処理は、ステップS110に進む。 If it is determined in step S109 that the iteration has been completed, the process proceeds to step S110.
ステップS110において、回帰係数学習部21は、回帰係数演算処理を実行する。この処理は、図16のフローチャートを参照して上述した場合と同様なので、詳細な説明は省略するが、いまの場合、ステップS151では、反復コードに対応するサンプルが特定されるのではなく、各クラス番号に対応するサンプルがそれぞれ特定される。
In step S110, the regression
すなわち、ステップS101乃至S109の処理が繰り返し実行されたことにより、図9を参照して上述したように、生徒画像の各画素は、クラス番号C0乃至C7のいずれかのクラスに分類されたことになる。従って、生徒画像のクラス番号C0の画素を、注目画素としてサンプルが特定されて、第1の回帰係数が導出される。また、生徒画像のクラス番号C1の画素を、注目画素としてサンプルが特定されて、第2の回帰係数が導出され、生徒画像のクラス番号C2の画素を、注目画素としてサンプルが特定されて、第3の回帰係数が導出され、・・・生徒画像のクラス番号C7の画素を、注目画素としてサンプルが特定されて、第8の回帰係数が導出される。 That is, as the processing of steps S101 to S109 is repeatedly executed, each pixel of the student image is classified into one of the class numbers C0 to C7 as described above with reference to FIG. Become. Therefore, a sample is identified using the pixel of class number C0 of the student image as the pixel of interest, and the first regression coefficient is derived. Also, a sample is identified with the pixel of class number C1 of the student image as the pixel of interest, a second regression coefficient is derived, a sample is identified with the pixel of class number C2 of the student image as the pixel of interest, and the first A regression coefficient of 3 is derived, a sample is specified with a pixel of class number C7 of the student image as a target pixel, and an eighth regression coefficient is derived.
つまり、ステップS110の回帰係数演算処理においては、クラス番号C0乃至C7のそれぞれに対応する8種類の回帰係数が求められることになる。 That is, in the regression coefficient calculation process in step S110, eight types of regression coefficients corresponding to the class numbers C0 to C7 are obtained.
ステップS111において、回帰係数記憶部22は、ステップS110の処理により求められた8種類の回帰係数のそれぞれを、クラス番号に対応付けて記憶する。
In step S111, the regression
このようにして、判別回帰係数学習処理が実行される。 In this way, the discriminant regression coefficient learning process is executed.
なお、ここでは、主として、判別係数の学習が3回反復して行われる例について説明したが、反復回数は、1回であってもよい。すなわち、第1回目の判別係数の学習が終了した後、判別係数学習部25による判別係数の演算、判別予測部27による判別予測が繰り返し実行されないようにしてもよい。
Although an example has been described here in which learning of the discrimination coefficient is repeatedly performed three times, the number of repetitions may be one. That is, after the first discrimination coefficient learning is completed, the discrimination coefficient calculation by the discrimination
次に、図18のフローチャートを参照して、判別回帰予測処理の例について説明する。この処理は、図13の画像処理装置100により実行される。また、処理の実行に先立って、画像処理装置100の判別係数記憶部122と回帰係数記憶部124には、それぞれ、図14の判別回帰係数学習処理によって、判別係数記憶部26に記憶された7種類の判別係数と、回帰係数記憶部22に記憶された8種類の回帰係数とが記憶されているものとする。
Next, an example of the discriminant regression prediction process will be described with reference to the flowchart of FIG. This process is executed by the
ステップS191において、判別予測部121は、反復コードを特定する。いまの場合、第1回目の判別の処理であるから反復コードは1と特定される。
In step S191, the
ステップS192において、判別予測部121は、図19を参照して後述する判別処理を実行する。ここで、図19のフローチャートを参照して、図18のステップS192の判別処理の詳細な例について説明する。
In step S192, the
ステップS211において、判別予測部121は、反復コードに対応する注目画素を設定する。例えば、反復コードが1であれば、第1回目の判別の処理なので、入力画像の全画素のそれぞれが注目画素として設定される。例えば、反復コードが21であれば、第2回目の判別の処理の一部なので、入力画像の画素のうち、1回目の判別の処理でクラスコードビット1が付与された画素のそれぞれが注目画素として設定される。例えば、反復コードが34であれば、第3回目の判別の処理の一部なので、入力画像の画素のうち、1回目の判別の処理でクラスコードビット0が付与され、2回目の判別の処理でクラスコードビット0が付与された画素のそれぞれが注目画素として設定される。
In step S211, the
ステップS212において、判別予測部121は、ステップS211で設定された注目画素に対応するタップを取得する。このとき、動きベクトル検出部126により検出された動きベクトルに基づいてタップが取得される。
In step S212, the
ステップS213において、判別予測部121は、ステップS211の処理で特定された反復コードに対応する判別係数を特定し、判別係数記憶部122から読み出す。
In step S213, the
ステップS214において、判別予測部121は、判別予測値を演算する。このとき、例えば、上述した式(8)の演算が行われることになる。
In step S214, the
ステップS215において、クラス分割部123は、ステップS214の処理で演算された判別予測値に基づいて、注目画素にクラスコードビットを設定(付与)する。このとき、上述したように、例えば、式(8)により演算された予測値yiと0との大小比較を行って、注目画素にクラスコードビットが付与される。
In step S215, the
なお、ステップS211乃至ステップS215の処理は、反復コードに対応して定まる処理対象の画素のそれぞれを対象として行われる。 Note that the processing in steps S211 to S215 is performed for each pixel to be processed that is determined corresponding to the repetition code.
このようにして、判別処理が実行される。 In this way, the determination process is executed.
図18に戻って、ステップS192の処理の後、ステップS193において、判別予測部121は、反復が終了したか否かを判定する。例えば、3回反復して学習することが予め設定されている場合、まだ、反復が終了していないと判定され、処理は、ステップS191に戻る。
Returning to FIG. 18, after the process of step S <b> 192, in step S <b> 193, the
この後、ステップS191では反復コードが21と特定され、同様に、ステップS192の処理が実行される。このとき、上述したように、ステップS192の処理では、入力画像の画素のうち、1回目の判別の処理でクラスコードビット1が付与された画素のそれぞれが注目画素として設定されることになる。
Thereafter, in step S191, the repetitive code is specified as 21, and similarly, the process of step S192 is executed. At this time, as described above, in the process of step S192, each of the pixels of the input image to which the
そして、ステップS193で反復が終了したか否かが判定される。 Then, in step S193, it is determined whether or not the iteration has been completed.
このように、ステップS193において反復が終了したと判定されるまで、ステップS191乃至S193の処理が繰り返し実行される。3回反復して学習することが予め設定されている場合、ステップS191で反復コードは34であると特定された後、ステップS192の処理が実行され、ステップS193において、反復は終了したと判定されることになる。 As described above, the processes in steps S191 to S193 are repeatedly executed until it is determined in step S193 that the iteration has been completed. If it is preset that learning is repeated three times, it is determined in step S191 that the repetitive code is 34, and then the process of step S192 is executed. In step S193, it is determined that the iteration has ended. Will be.
ステップS193においては、反復が終了したと判定された場合、処理は、ステップS194に進む。なお、ここまでの処理により、図11または図12を参照して上述したように、入力画像が3ビットのクラスコードのクラス番号に対応する画素群に分類されていることになる。また、上述したように、クラス分割部123は、入力画像の各画素を特定する情報とその画素のクラス番号とを対応付けて回帰係数記憶部124に供給するようになされている。
If it is determined in step S193 that the iteration has been completed, the process proceeds to step S194. By the processing so far, the input image is classified into the pixel group corresponding to the class number of the 3-bit class code as described above with reference to FIG. 11 or FIG. Further, as described above, the
ステップS194において、回帰予測部125は、入力画像において注目画素を設定する。
In step S194, the
ステップS195において、回帰予測部125は、ステップS194で設定された注目画素に対応するタップを取得する。このとき、動きベクトル検出部126により検出された動きベクトルに基づいてタップが取得される。
In step S195, the
ステップS196において、回帰予測部125は、ステップS194で設定された注目画素を特定する情報を回帰係数記憶部124に供給して、その注目画素のクラス番号に対応する回帰係数を特定し、回帰係数記憶部124から読み出す。
In step S196, the
ステップS197において、回帰予測部125は、ステップS195で取得したタップと、ステップS196で特定して読み出した回帰係数を用いて式(6)の演算を行い、回帰予測値を演算する。
In step S197, the
なお、ステップS191乃至ステップS197の処理は、入力画像の各画素のそれぞれを対象として行われる。 Note that the processing from step S191 to step S197 is performed for each pixel of the input image.
そして、回帰予測部125の演算により得られた予測値を、注目画素に対応する画素の値とする出力画像が生成される。これにより、入力画像が高画質化された出力画像が得られることになる。
Then, an output image is generated in which the predicted value obtained by the calculation of the
このようにして判別予測処理が実行される。このようにすることで、画像の高画質化処理を、より効率的で高速に行うことができる。 In this way, the discrimination prediction process is executed. In this way, the image quality enhancement process can be performed more efficiently and at high speed.
次に、図20乃至図22を参照して、本発明の学習装置10と画像処理装置100を用いた高画質化処理の効果を説明する。
Next, with reference to FIG. 20 to FIG. 22, the effect of the high image quality processing using the
図20は、動きぼけのある画像の例を示している。同図の例では、建物(塔)の画像に動きぼけが生じている。 FIG. 20 shows an example of an image with motion blur. In the example in the figure, motion blur occurs in the image of the building (tower).
図21は、図20に示される画像に対して、一般的な逆フィルタ方式によって動きぼけを除去する処理を施した結果得られた画像を示している。同図に示される画像は、図20の画像と比較して、ある程度ぼけが除去されているものの、リンギングによる画像の劣化が生じている。 FIG. 21 shows an image obtained as a result of performing a process of removing motion blur by a general inverse filter method on the image shown in FIG. In the image shown in FIG. 20, although the blur is removed to some extent as compared with the image of FIG. 20, the image is deteriorated due to ringing.
図22は、図20に示される画像を入力画像とし、図13に示される画像処理装置100を用いて判別回帰予測処理を施して、動きぼけを除去した画像を示している。同図に示される画像では、図20の画像と比較してぼけが除去されており、かつ、図21に示される画像のようにリンギングによる画像の劣化が生じていない。
FIG. 22 shows an image from which motion blur has been removed by performing the discrimination regression prediction process using the image shown in FIG. 20 as an input image and using the
このように、本発明による高画質化処理を施すことにより、動きぼけを効果的に除去することができる。 Thus, motion blur can be effectively removed by performing the image quality enhancement processing according to the present invention.
図13を参照して上述した画像処理装置は、例えば、高画質化回路としてテレビジョン受像機に搭載することも可能である。図23は、図13を参照して上述した画像処理装置を搭載したテレビジョン受像機511の構成例を示すブロック図である。
The image processing apparatus described above with reference to FIG. 13 can be mounted on a television receiver as an image quality improving circuit, for example. FIG. 23 is a block diagram showing a configuration example of a
同図のテレビジョン受像機511は、被制御部531および制御部532から構成される。被制御部531は、制御部532の制御の下、テレビジョン受像機511の種々の機能を実現する。
The
被制御部531は、デジタルチューナ553、デマルチプレクサ(Demux)554、MPEG(Moving Picture Expert Group)デコーダ555、映像・グラフィック処理回路556、パネル駆動回路557、表示パネル558、音声処理回路559、音声増幅回路560、スピーカ561、および受信部562を備えている。また、制御部532は、CPU(Central Processing Unit)563、フラッシュROM564、DRAM(Dynamic Random Access Memory)565、および内部バス566を備えている。
The controlled
デジタルチューナ553は、図示せぬアンテナ端子から入力されたテレビジョン放送信号を処理して、ユーザの選択したチャンネルに対応した所定のTS(Transport Stream)を、デマルチプレクサ554に供給する。
The
デマルチプレクサ554は、デジタルチューナ553から供給されたTSから、ユーザの選択したチャンネルに対応した、パーシャルTS(映像信号のTSパケット、音声信号のTSパケット)を抽出し、MPEGデコーダ555に供給する。
The
また、デマルチプレクサ554は、デジタルチューナ553から供給されたTSから、PSI/SI(Program Specific Information/Service Information)を取り出し、CPU563に供給する。デジタルチューナ553から供給されたTSには、複数のチャンネルが多重化されている。デマルチプレクサ554がTSから任意のチャンネルのパーシャルTSを抽出する処理は、PSI/SI(PAT/PMT)から任意のチャンネルのパケットID(PID)の情報を得ることで可能となる。
The
MPEGデコーダ555は、デマルチプレクサ554から供給される映像信号のTSパケットにより構成される映像PES(Packetized Elementary Stream)パケットに対してデコード処理を行い、その結果得られる映像信号を、映像・グラフィック処理回路556に供給する。また、MPEGデコーダ555は、デマルチプレクサ554から供給される音声信号のTSパケットにより構成される音声PESパケットに対してデコード処理を行い、その結果得られる音声信号を、音声処理回路559に供給する。
The
映像・グラフィック処理回路556は、MPEGデコーダ555から供給された映像信号に対して、必要に応じて、スケーリング処理、グラフィックスデータの重畳処理等を行い、パネル駆動回路557に供給する。
The video /
映像・グラフィック処理回路556には、高画質化回路570が接続されており、パネル駆動回路557に映像信号を供給するのに先立って、高画質化処理が実行される。
An image
高画質化回路570は、図13を参照して上述した画像処理装置と同様の構成とされ、MPEGデコーダ555から供給された映像信号から得られた画像データに対して、図18を参照して上述した判別回帰予測処理を高画質化処理として実行するようになされている。
The image
パネル駆動回路557は、映像・グラフィック処理回路556から供給された映像信号に基づいて、表示パネル558を駆動し、映像を表示させる。表示パネル558は、例えば、LCD(Liquid Crystal Display)またはPDP(Plasma Display Panel)等で構成されている。
The
音声処理回路559は、MPEGデコーダ555から供給された音声信号に対してD/A(Digital to Analog)変換等の必要な処理を行い、音声増幅回路560に供給する。
The
音声増幅回路560は、音声処理回路559から供給されるアナログ音声信号を増幅し、スピーカ561に供給する。スピーカ561は、音声増幅回路560からのアナログ音声信号に応じた音声を出力する。
The
受信部562は、リモートコントローラ567から送信された、例えば赤外線のリモートコントロール信号を受信し、CPU563に供給する。ユーザは、リモートコントローラ567を操作することで、テレビジョン受像機511の操作を行うことができる。
The receiving
CPU563、フラッシュROM564、およびDRAM565は、内部バス566を介して接続されている。CPU563は、テレビジョン受像機11の各部の動作を制御する。フラッシュROM564は、制御ソフトウェアの格納およびデータの保管を行う。DRAM565は、CPU563のワークエリア等を構成する。すなわち、CPU563は、フラッシュROM564から読み出したソフトウェアやデータをDRAM565上に展開してソフトウェアを起動し、テレビジョン受像機511の各部を制御する。
The
このように本発明をテレビジョン受像機に適用することができる。 As described above, the present invention can be applied to a television receiver.
なお、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータにネットワークや記録媒体からインストールされる。また、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図24に示されるような汎用のパーソナルコンピュータ700などに、ネットワークや記録媒体からインストールされる。
The series of processes described above can be executed by hardware, or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium into a computer incorporated in dedicated hardware. In addition, by installing various programs, it is installed from a network or a recording medium in a general-purpose
図24において、CPU(Central Processing Unit)701は、ROM(Read Only Memory)702に記憶されているプログラム、または記憶部708からRAM(Random Access Memory)703にロードされたプログラムに従って各種の処理を実行する。RAM703にはまた、CPU701が各種の処理を実行する上において必要なデータなども適宜記憶される。
In FIG. 24, a CPU (Central Processing Unit) 701 executes various processes according to a program stored in a ROM (Read Only Memory) 702 or a program loaded from a
CPU701、ROM702、およびRAM703は、バス704を介して相互に接続されている。このバス704にはまた、入出力インタフェース705も接続されている。
The
入出力インタフェース705には、キーボード、マウスなどよりなる入力部706、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部707が接続されている。また、入出力インタフェース705には、ハードディスクなどより構成される記憶部708、モデム、LANカードなどのネットワークインタフェースカードなどより構成される通信部709が接続されている。通信部709は、インターネットを含むネットワークを介しての通信処理を行う。
The input /
入出力インタフェース705にはまた、必要に応じてドライブ710が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア711が適宜装着されている。そして、それらのリムーバブルメディアから読み出されたコンピュータプログラムが、必要に応じて記憶部708にインストールされる。
A
上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、インターネットなどのネットワークや、リムーバブルメディア711などからなる記録媒体からインストールされる。
When the above-described series of processing is executed by software, a program constituting the software is installed from a network such as the Internet or a recording medium such as a
なお、この記録媒体は、図24に示される、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フロッピディスク(登録商標)を含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア711により構成されるものだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM702や、記憶部708に含まれるハードディスクなどで構成されるものも含む。
Note that this recording medium is a magnetic disk (including a floppy disk (registered trademark)) on which a program is recorded, which is distributed to distribute the program to the user separately from the apparatus main body shown in FIG. Removable media consisting of optical disks (including CD-ROM (compact disk-read only memory), DVD (digital versatile disk)), magneto-optical disks (including MD (mini-disk) (registered trademark)), or semiconductor memory It includes not only those configured by 711 but also those configured by a
なお、本明細書において上述した一連の処理は、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 Note that the series of processes described above in this specification includes processes that are performed in parallel or individually even if they are not necessarily processed in time series, as well as processes that are performed in time series in the order described. Is also included.
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
10 学習装置, 21 回帰係数学習部, 22 回帰係数記憶部, 23 回帰予測部, 24 ラベリング部, 25 判別係数学習部, 26 判別係数記憶部, 27 判別予測部, 28 クラス分割部, 29 動きベクトル検出部, 100 画像処理装置, 121 判別予測部, 122 判別係数記憶部, 123 クラス分割部, 124 回帰係数記憶部, 125 回帰予測部, 126 動きベクトル検出部, 511 テレビジョン受像機, 570 高画質化回路, 701 CPU, 702 ROM, 711 リムーバブルメディア
DESCRIPTION OF
Claims (15)
前記算出された前記回帰係数と、前記第1の信号の画像から得られた前記タップに基づいて前記回帰予測演算を行って回帰予測値を算出する回帰予測値算出手段と、
前記算出された前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値との比較結果に基づいて、前記注目画素に第1の判別クラスに属する画素であるかまたは第2の判別クラスに属する画素であるかを判別するための判別情報を付与する判別情報付与手段と、
前記付与された判別情報に基づいて、第1の信号の画像から前記タップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属する判別クラスを特定するための判別予測値を求める判別予測演算の前記判別係数を算出する判別係数算出手段と、
前記算出された前記判別係数と、前記第1の信号の画像から得られた前記タップに基づいて前記判別予測演算を行って判別予測値を算出する判別予測値算出手段と、
前記算出された前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段とを備え、
前記回帰係数算出手段は、前記第1の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出し、前記第2の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出する
係数学習装置。 From the image of the first signal, a feature amount specified based on a motion vector, which is a tap configured as a plurality of feature amounts obtained from pixel values of a target pixel and surrounding pixels, is acquired, and the tap Regression coefficient calculating means for calculating the regression coefficient of the regression prediction calculation for obtaining the value of the pixel corresponding to the pixel of interest in the image of the second signal by the product-sum operation of each of the elements and the regression coefficient;
A regression prediction value calculating means for calculating a regression prediction value by performing the regression prediction calculation based on the calculated regression coefficient and the tap obtained from the image of the first signal;
Based on a comparison result between the calculated regression prediction value and a pixel value corresponding to the target pixel in the image of the second signal, the target pixel is a pixel belonging to a first discrimination class, or Discrimination information giving means for giving discrimination information for discriminating whether the pixel belongs to the second discrimination class;
Based on the given discrimination information, to acquire the tap from the first signal image, and to identify the discrimination class to which the pixel of interest belongs by multiply-accumulate each of the elements of the tap and the discrimination coefficient Discriminant coefficient calculating means for calculating the discriminant coefficient of the discriminant prediction calculation for obtaining the discriminant predicted value of
A discrimination prediction value calculation means for calculating a discrimination prediction value by performing the discrimination prediction calculation based on the calculated discrimination coefficient and the tap obtained from the image of the first signal;
Classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the calculated discrimination prediction value;
The regression coefficient calculating means further calculates the regression coefficient using only the pixels classified into the first discrimination class, and further calculates the regression coefficient using only the pixels classified into the second discrimination class. Coefficient learning device to calculate.
請求項1に記載の係数学習装置。 Based on the regression prediction value calculated by the regression prediction value calculation unit for each of the discrimination classes by the regression coefficient calculated by the regression coefficient calculation unit for each of the discrimination classes, the discrimination information providing unit provides discrimination information. The coefficient learning apparatus according to claim 1, wherein the processing, the determination coefficient calculation unit repeatedly calculates the determination coefficient, and the determination prediction value calculation unit repeatedly calculates the determination prediction value.
前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値と差分が0未満である場合、前記注目画素は、第1の判別クラスに属する画素であると判別される
請求項1に記載の係数学習装置。 If the difference between the regression prediction value and the value of the pixel corresponding to the target pixel in the image of the second signal is 0 or more, the target pixel is determined to be a pixel belonging to the first determination class;
When the difference between the regression prediction value and the value of the pixel corresponding to the target pixel in the image of the second signal is less than 0, the target pixel is determined to be a pixel belonging to the first determination class. The coefficient learning apparatus according to claim 1.
前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値と差分絶対値が前記閾値未満である場合、前記注目画素は、第2の判別クラスに属する画素であると判別される
請求項1に記載の係数学習装置。 When the regression prediction value, the value of the pixel corresponding to the target pixel in the image of the second signal, and the absolute difference value are greater than or equal to a preset threshold value, the target pixel is a pixel belonging to the first discrimination class Is determined to be
When the regression prediction value, the value of the pixel corresponding to the target pixel in the image of the second signal, and the absolute difference value are less than the threshold value, the target pixel is a pixel belonging to the second discrimination class. The coefficient learning device according to claim 1, wherein the coefficient learning device is discriminated.
請求項1に記載の係数学習装置。 The coefficient learning apparatus according to claim 1, wherein the image of the first signal is an image obtained by adding motion blur to the image of the second signal.
請求項1に記載の係数学習装置。 The tap is based on the motion direction and the amount of motion specified by the motion vector, the pixel value extracted according to the motion direction centered on the pixel of interest, the maximum and minimum values of the extracted pixel value, and the extracted pixel value The coefficient learning device according to claim 1, wherein each of the absolute values of the differential feature amounts according to the movement direction and the maximum absolute value of the differential feature amounts according to the movement direction of the extracted pixel value are configured as elements.
回帰予測値算出手段が、前記算出された前記回帰係数と、前記第1の信号の画像から得られた前記タップに基づいて前記回帰予測演算を行って回帰予測値を算出し、
判別情報付与手段が、前記算出された前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値との比較結果に基づいて、前記注目画素に第1の判別クラスに属する画素であるかまたは第2の判別クラスに属する画素であるかを判別するための判別情報を付与し、
判別係数算出手段が、前記付与された判別情報に基づいて、第1の信号の画像から前記タップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属する判別クラスを特定するための判別予測値を求める判別予測演算の前記判別係数を算出し、
判別予測値算出手段が、前記算出された前記判別係数と、前記第1の信号の画像から得られた前記タップに基づいて前記判別予測演算を行って判別予測値を算出し、
分類手段が、前記算出された前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類し、
前記第1の判別クラスに分類された画素のみを用いて前記回帰係数がさらに算出され、前記第2の判別クラスに分類された画素のみを用いて前記回帰係数がさらに算出されるステップ
を含む係数学習方法。 The regression coefficient calculation means obtains taps configured as a plurality of feature amounts obtained from the pixel values of the target pixel and the surrounding pixels, which are feature amounts specified based on the motion vector, from the first signal image. Then, the regression coefficient of the regression prediction calculation for obtaining the value of the pixel corresponding to the target pixel in the image of the second signal by the product-sum operation of each of the elements of the tap and the regression coefficient,
A regression prediction value calculation means calculates the regression prediction value by performing the regression prediction calculation based on the calculated regression coefficient and the tap obtained from the image of the first signal,
The discriminating information providing means assigns the target pixel to the first discriminating class based on a comparison result between the calculated regression prediction value and the value of the pixel corresponding to the target pixel in the second signal image. Providing discrimination information for discriminating whether the pixel belongs to or belongs to the second discrimination class;
Discrimination coefficient calculation means acquires the tap from the image of the first signal based on the given discrimination information, and the pixel of interest belongs by a product-sum operation of each element of the tap and the discrimination coefficient Calculating the discriminant coefficient of the discriminant prediction calculation for obtaining a discriminant prediction value for specifying the discriminant class;
A discriminant prediction value calculating unit calculates the discriminant prediction value by performing the discriminant prediction calculation based on the calculated discriminant coefficient and the tap obtained from the image of the first signal,
Classification means classifies each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the calculated discrimination prediction value,
A coefficient that further includes calculating the regression coefficient using only the pixels classified into the first discrimination class, and further calculating the regression coefficient using only the pixels classified into the second discrimination class. Learning method.
第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと回帰係数との積和演算により第2の信号の画像における前記注目画素に対応する画素の値を求める回帰予測演算の前記回帰係数を算出する回帰係数算出手段と、
前記算出された前記回帰係数と、前記第1の信号の画像から得られた前記タップに基づいて前記回帰予測演算を行って回帰予測値を算出する回帰予測値算出手段と、
前記算出された前記回帰予測値と、第2の信号の画像における前記注目画素に対応する画素の値との比較結果に基づいて、前記注目画素に第1の判別クラスに属する画素であるかまたは第2の判別クラスに属する画素であるかを判別するための判別情報を付与する判別情報付与手段と、
前記付与された判別情報に基づいて、第1の信号の画像から前記タップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属する判別クラスを特定するための判別予測値を求める判別予測演算の前記判別係数を算出する判別係数算出手段と、
前記算出された前記判別係数と、前記第1の信号の画像から得られた前記タップに基づいて前記判別予測演算を行って判別予測値を算出する判別予測値算出手段と、
前記算出された前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段とを備え、
前記回帰係数算出手段は、前記第1の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出し、前記第2の判別クラスに分類された画素のみを用いて前記回帰係数をさらに算出する係数学習装置として機能させる
プログラム。 Computer
From the image of the first signal, a feature amount specified based on a motion vector, which is a tap configured as a plurality of feature amounts obtained from pixel values of a target pixel and surrounding pixels, is acquired, and the tap Regression coefficient calculating means for calculating the regression coefficient of the regression prediction calculation for obtaining the value of the pixel corresponding to the pixel of interest in the image of the second signal by the product-sum operation of each of the elements and the regression coefficient;
A regression prediction value calculating means for calculating a regression prediction value by performing the regression prediction calculation based on the calculated regression coefficient and the tap obtained from the image of the first signal;
Based on a comparison result between the calculated regression prediction value and a pixel value corresponding to the target pixel in the image of the second signal, the target pixel is a pixel belonging to a first discrimination class, or Discrimination information giving means for giving discrimination information for discriminating whether the pixel belongs to the second discrimination class;
Based on the given discrimination information, to acquire the tap from the first signal image, and to identify the discrimination class to which the pixel of interest belongs by multiply-accumulate each of the elements of the tap and the discrimination coefficient Discriminant coefficient calculating means for calculating the discriminant coefficient of the discriminant prediction calculation for obtaining the discriminant predicted value of
A discrimination prediction value calculation means for calculating a discrimination prediction value by performing the discrimination prediction calculation based on the calculated discrimination coefficient and the tap obtained from the image of the first signal;
Classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the calculated discrimination prediction value;
The regression coefficient calculating means further calculates the regression coefficient using only the pixels classified into the first discrimination class, and further calculates the regression coefficient using only the pixels classified into the second discrimination class. A program that functions as a coefficient learning device to calculate.
前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段と、
前記第1の信号の画像から、前記タップを取得して、前記タップと回帰係数との積和演算により回帰予測値を演算することで、第2の信号の画像における前記注目画素に対応する画素の画素値を予測する回帰予測手段とを備える
画像処理装置。 From the image of the first signal, a feature amount specified based on a motion vector, which is a tap configured as a plurality of feature amounts obtained from pixel values of a target pixel and surrounding pixels, is acquired, and the tap Discriminant prediction means for performing a discriminant prediction operation for obtaining a discriminant prediction value for specifying a class to which the pixel of interest belongs by multiply-accumulate each element and a discrimination coefficient
Classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the discrimination prediction value;
A pixel corresponding to the target pixel in the second signal image by acquiring the tap from the first signal image and calculating a regression prediction value by a product-sum operation of the tap and the regression coefficient. An image processing apparatus comprising regression prediction means for predicting the pixel value of the image.
請求項9に記載の画像処理装置。 The image processing apparatus according to claim 9, wherein the discrimination prediction unit repeatedly executes a process of performing the discrimination prediction calculation, and the classification unit repeatedly performs a process of classifying each pixel of the image of the first signal.
請求項9に記載の画像処理装置。 The image processing apparatus according to claim 9, wherein the image of the first signal is an image obtained by adding motion blur to the image of the second signal.
請求項9に記載の画像処理装置。 The tap is based on the motion direction and the amount of motion specified by the motion vector, the pixel value extracted according to the motion direction centered on the pixel of interest, the maximum and minimum values of the extracted pixel value, and the extracted pixel value The image processing apparatus according to claim 9, wherein each of the absolute value of the differential feature quantity according to the movement direction and the maximum value of the absolute value of the differential feature quantity according to the movement direction of the extracted pixel value are configured as elements.
分類手段が、前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類し、
回帰予測手段が、前記第1の信号の画像から、前記タップを取得して、前記タップと回帰係数との積和演算により回帰予測値を演算することで、第2の信号の画像における前記注目画素に対応する画素の画素値を予測するステップ
を含む画像処理方法。 The discriminating / predicting means acquires, from the first signal image, taps configured as a plurality of feature amounts that are specified based on the motion vector and obtained from the pixel values of the target pixel and the surrounding pixels. Performing a discrimination prediction calculation to obtain a discrimination prediction value for identifying the class to which the pixel of interest belongs by multiply-accumulate each of the elements of the tap and the discrimination coefficient,
Classification means classifies each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the discrimination prediction value,
The regression prediction means acquires the tap from the image of the first signal, and calculates a regression prediction value by a product-sum operation of the tap and the regression coefficient, whereby the attention in the image of the second signal is obtained. An image processing method comprising: predicting a pixel value of a pixel corresponding to a pixel.
第1の信号の画像から、動きベクトルに基づいて特定される特徴量であって、注目画素および周辺画素の画素値から得られる複数の特徴量として構成されるタップを取得して、前記タップの要素のそれぞれと判別係数との積和演算により前記注目画素が属するクラスを特定するための判別予測値を求める判別予測演算を行う判別予測手段と、
前記判別予測値に基づいて、前記第1の信号の画像の画素のそれぞれを、前記第1の判別クラスと前記第2の判別クラスのいずれかに分類する分類手段と、
前記第1の信号の画像から、前記タップを取得して、前記タップと回帰係数との積和演算により回帰予測値を演算することで、第2の信号の画像における前記注目画素に対応する画素の画素値を予測する回帰予測手段とを備える画像処理装置として機能させる
プログラム。 Computer
From the image of the first signal, a feature amount specified based on a motion vector, which is a tap configured as a plurality of feature amounts obtained from pixel values of a target pixel and surrounding pixels, is acquired, and the tap Discriminant prediction means for performing a discriminant prediction operation for obtaining a discriminant prediction value for specifying a class to which the pixel of interest belongs by multiply-accumulate each element and a discrimination coefficient
Classification means for classifying each pixel of the image of the first signal into either the first discrimination class or the second discrimination class based on the discrimination prediction value;
A pixel corresponding to the target pixel in the second signal image by acquiring the tap from the first signal image and calculating a regression prediction value by a product-sum operation of the tap and the regression coefficient. A program that functions as an image processing apparatus that includes regression prediction means for predicting the pixel value of an image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010081326A JP2011217011A (en) | 2010-03-31 | 2010-03-31 | Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010081326A JP2011217011A (en) | 2010-03-31 | 2010-03-31 | Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011217011A true JP2011217011A (en) | 2011-10-27 |
Family
ID=44946334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010081326A Withdrawn JP2011217011A (en) | 2010-03-31 | 2010-03-31 | Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011217011A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015201819A (en) * | 2014-04-10 | 2015-11-12 | 株式会社東芝 | Image quality improvement system, image quality improvement method, and program |
-
2010
- 2010-03-31 JP JP2010081326A patent/JP2011217011A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015201819A (en) * | 2014-04-10 | 2015-11-12 | 株式会社東芝 | Image quality improvement system, image quality improvement method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5476879B2 (en) | Image processing apparatus and coefficient learning apparatus. | |
JP5061883B2 (en) | Image processing apparatus, image processing method, program, and learning apparatus | |
JP4882999B2 (en) | Image processing apparatus, image processing method, program, and learning apparatus | |
JP5347862B2 (en) | Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium | |
EP2535863A1 (en) | Image processing apparatus and method, program, and recording medium | |
US8300937B2 (en) | Image segmentation method and system based on region features of pixels | |
WO2002013512A1 (en) | Image processing device and method, and recorded medium | |
JP2009152820A (en) | Learning apparatus and method, image processing apparatus and method, and program | |
CN114419323A (en) | Cross-modal learning and domain self-adaptive RGBD image semantic segmentation method | |
JP4662171B2 (en) | Encoding apparatus and method, decoding apparatus and method, program, and recording medium | |
Athar et al. | Degraded reference image quality assessment | |
JP2011217010A (en) | Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium | |
JP2001084368A (en) | Data processor, data processing method and medium | |
JP2011217011A (en) | Coefficient learning apparatus and method, image processing apparatus and method, program, and recording medium | |
JP2011211437A (en) | Image processing apparatus, method, and program | |
JP2009153003A (en) | Apparatus and method for image processing, program for use therein, and learning apparatus | |
JP4770704B2 (en) | Image processing apparatus, image processing method, and program | |
JP2007251690A (en) | Image processing apparatus and method therefor, learning apparatus and method therefor, and program | |
Le et al. | Locality and relative distance-aware non-local networks for hand-raising detection in classroom video | |
JP2000348019A (en) | Data processor, data processing method and medium | |
JP2008124639A (en) | Image processing apparatus, image processing method, learning apparatus, learning method, and program | |
JP2023103740A (en) | Information processing program, information processing method, and information processing apparatus | |
JP2004171366A (en) | Device and method for processing data, recording medium, and program | |
JP2009060481A (en) | Image processing device and method, learning device and method, and program | |
JP4311038B2 (en) | Learning apparatus and method, image processing apparatus and method, recording medium, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130604 |