JP2012248994A - Image information conversion apparatus, discrimination coefficient learning device, prediction coefficient learning device, processing method in them and program for allowing computer to perform processing method - Google Patents

Image information conversion apparatus, discrimination coefficient learning device, prediction coefficient learning device, processing method in them and program for allowing computer to perform processing method Download PDF

Info

Publication number
JP2012248994A
JP2012248994A JP2011117871A JP2011117871A JP2012248994A JP 2012248994 A JP2012248994 A JP 2012248994A JP 2011117871 A JP2011117871 A JP 2011117871A JP 2011117871 A JP2011117871 A JP 2011117871A JP 2012248994 A JP2012248994 A JP 2012248994A
Authority
JP
Japan
Prior art keywords
pixel
image
prediction
tap
discrimination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011117871A
Other languages
Japanese (ja)
Inventor
Takuo Morimura
卓夫 守村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011117871A priority Critical patent/JP2012248994A/en
Publication of JP2012248994A publication Critical patent/JP2012248994A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve conversion accuracy of an image while an increase of a prediction coefficient is suppressed in an image information conversion apparatus for mutually converting images different in resolution.SOLUTION: A tap extraction section extracts a class tap and a prediction tap from a first image. A class classification section classifies the class tap into one of a plurality of classes. A discrimination coefficient selecting section selects a discrimination coefficient group corresponding to the classified class. A discrimination operation section discriminates a prediction tap type to which the prediction tap belongs on the basis of the selected discrimination coefficient group and pixel values of respective pixels in the prediction tap. A prediction coefficient selecting section selects a prediction coefficient group corresponding to combination of the classified class and the discriminated prediction tap type from the plurality of prediction coefficient groups. A prediction operation section performs a prediction operation in response to the selected prediction coefficient group and the pixel values of the respective pixels in the prediction tap.

Description

本技術は、画像情報変換装置、判別係数学習装置、予測係数学習装置、および、これらにおける制御方法ならびに当該方法をコンピュータに実行させるプログラムに関する。詳しくは、画像の解像度を変更する画像情報変換装置、および、その制御方法ならびに当該方法をコンピュータに実行させるプログラムに関する。また、解像度の変更において使用すべき判別係数および予測係数を学習する判別係数学習装置および予測係数学習装置、ならびに、これらにおける制御方法ならびに当該方法をコンピュータに実行させるプログラムに関する。   The present technology relates to an image information conversion device, a discrimination coefficient learning device, a prediction coefficient learning device, a control method therefor, and a program that causes a computer to execute the method. Specifically, the present invention relates to an image information conversion apparatus that changes the resolution of an image, a control method thereof, and a program that causes a computer to execute the method. The present invention also relates to a discrimination coefficient learning device and a prediction coefficient learning device that learn a discrimination coefficient and a prediction coefficient to be used in resolution change, a control method in these, and a program that causes a computer to execute the method.

従来、画像情報変換装置は、変換対象の画像内の画素群を複数のクラスに分類して、クラスごとに異なる演算により変換対象の画素値を求めるクラス分類適応処理を実行することにより、解像度の異なる画像を相互に変換していた(例えば、特許文献1参照。)。ここで、クラスとは、変換対象の画像内において注目した注目画素を含む画素群における各画素値の3次元分布の形状パターンに基づいて、その画素群が分類される各グループである。ここで、3次元分布の形状パターンに関して、1フレームを構成する2つのフィールドのそれぞれ属する時刻を時間軸とし、それぞれのフィールドにおける画素群内の各画素の位置を横軸とし、画素値の大きさを縦軸とした3次元の座標系を想定する。この座標系に各画素をプロットした3次元の分布図において、各プロットのなす形状が各画素値の3次元分布の形状パターンとされる。   Conventionally, an image information conversion apparatus classifies pixel groups in an image to be converted into a plurality of classes, and executes a class classification adaptive process for obtaining a pixel value to be converted by a different calculation for each class. Different images were converted to each other (for example, see Patent Document 1). Here, the class is each group into which the pixel group is classified based on the shape pattern of the three-dimensional distribution of each pixel value in the pixel group including the target pixel of interest in the conversion target image. Here, with respect to the shape pattern of the three-dimensional distribution, the time to which each of the two fields constituting one frame belongs is a time axis, the position of each pixel in the pixel group in each field is the horizontal axis, and the size of the pixel value Is assumed to be a three-dimensional coordinate system. In the three-dimensional distribution diagram in which each pixel is plotted in this coordinate system, the shape formed by each plot is the shape pattern of the three-dimensional distribution of each pixel value.

このクラス分類適応処理においては、変換対象の画像において注目画素を含む所定個(例えば、13個)の画素群内の各画素値を使用して所定の演算を行うことにより、変換後の画像の画素値が算出(予測)される。以下、この演算を予測演算と称し、この画素群を「予測タップ」と称する。注目画素を含む領域の3次元分布の形状パターンが、クラス分類の対象となる。注目画素を含む領域の形状パターンが、いずれのクラスに属するかを決定するために、注目画素を含む所定の画素群がクラスタップとして抽出される。ここで、例えば、各画素値を8ビットで量子化した場合、クラスタップの形状パターンは(2813パターンとなり、膨大な数となる。そこで、一般に、この膨大なグループ数の削減としてこれらの形状パターンに対してグループ化が行われる。3次元分布の形状パターンのグループ化は、各画素値の階調数に割り当てられた量子化ビット数をADRC等の圧縮手法で削減することにより行われることが多い。 In this class classification adaptive processing, a predetermined calculation is performed using each pixel value in a predetermined number (for example, 13) of pixel groups including the target pixel in the image to be converted, so that the converted image Pixel values are calculated (predicted). Hereinafter, this calculation is referred to as a prediction calculation, and this pixel group is referred to as a “prediction tap”. The shape pattern of the three-dimensional distribution of the region including the target pixel is the target of class classification. In order to determine which class the shape pattern of the region including the target pixel belongs to, a predetermined pixel group including the target pixel is extracted as a class tap. Here, for example, when each pixel value is quantized with 8 bits, the shape pattern of the class tap is (2 8 ) 13 patterns, which is a huge number. Therefore, in general, grouping is performed on these shape patterns as a reduction of the enormous number of groups. Grouping of three-dimensional distribution shape patterns is often performed by reducing the number of quantization bits assigned to the number of gradations of each pixel value by a compression method such as ADRC.

クラスタップがクラスに分類されると、画像情報変換装置は、クラスごとに異なる予測係数群を使用して変換対象の画像における画素値を予測演算する。具体的には、画像情報変換装置は、クラスに対応する予測係数群と予測タップ内の各画素値との積和を、予測した画素値として出力する。これにより、変換対象の画像が、その画像とは解像度の異なる画像に変換される。これらの予測係数群は、画像変換前にクラスごとに予め設定しておく。   When the class tap is classified into a class, the image information conversion apparatus predicts a pixel value in the image to be converted using a different prediction coefficient group for each class. Specifically, the image information conversion apparatus outputs a product sum of a prediction coefficient group corresponding to a class and each pixel value in the prediction tap as a predicted pixel value. As a result, the image to be converted is converted into an image having a resolution different from that of the image. These prediction coefficient groups are set in advance for each class before image conversion.

ここで、画像の変換前にクラスごとの予測係数を画像情報変換装置に設定しておくために、予め学習装置によって予測係数を学習して求めておく必要がある。具体的には、学習装置は、ある解像度の画像を教師画像として、その教師画像の解像度を変更した画像である生徒画像を生成する。学習装置は、その生徒画像の画素値から予測した予測値と、教師画像の画素値との誤差が最小になるように予測係数をクラスごとに算出しておく。   Here, in order to set the prediction coefficient for each class in the image information conversion apparatus before image conversion, it is necessary to learn and obtain the prediction coefficient by a learning apparatus in advance. Specifically, the learning apparatus uses a certain resolution image as a teacher image, and generates a student image that is an image obtained by changing the resolution of the teacher image. The learning device calculates a prediction coefficient for each class so that an error between the predicted value predicted from the pixel value of the student image and the pixel value of the teacher image is minimized.

特開平7−79418号公報JP-A-7-79418

しかしながら、上述の従来技術では、入力された画像を、画像情報変換装置が予測係数を使用して変換する場合に画像が劣化することがあった。具体的には、変換した画像において、破綻が発生したり、高解像度感が不足したりすることがあった。これは、入力画像の特性の多様化が進み、入力された画像とあらかじめ作成する係数を作成した環境で使用した画像と特性的に差があるために、画像の変換精度が低下したためである。入力画像の多様化が進んだ背景としては、編集技術の進展やフォーマットの多様化、またデジタル放送やブルーレイディスク(Blu-ray Disc(登録商標))の普及といったことが考えられる。予測係数の数を削減せずに、多様な入力画像の特性すべてに考慮した形状パターンごとの予測係数を設定しておけば、変換精度は向上する。ところが、その構成では、形状パターンの数が膨大であるために多数の予測係数が必要となってしまう。このため、画像の変換精度の向上が困難であるという問題があった。   However, in the above-described conventional technology, when an image information conversion apparatus converts an input image using a prediction coefficient, the image may be deteriorated. Specifically, the converted image may fail or may lack a high resolution feeling. This is because the characteristics of the input image have been diversified and the conversion accuracy of the image has been lowered because there is a characteristic difference between the input image and the image used in the environment in which the coefficient to be created in advance is created. Possible reasons for the diversification of input images include the development of editing technology and the diversification of formats, and the spread of digital broadcasting and Blu-ray Disc (Blu-ray Disc (registered trademark)). If the prediction coefficient for each shape pattern considering all the characteristics of various input images is set without reducing the number of prediction coefficients, the conversion accuracy is improved. However, in this configuration, since the number of shape patterns is enormous, a large number of prediction coefficients are required. For this reason, there is a problem that it is difficult to improve the conversion accuracy of the image.

本技術はこのような状況に鑑みて生み出されたものであり、解像度の異なる画像を相互に変換する画像情報変換装置において、予測係数の増大を抑制しつつ、画像の変換精度を向上させることを目的とする。   The present technology has been devised in view of such a situation, and in an image information conversion apparatus that mutually converts images having different resolutions, it is possible to improve the conversion accuracy of an image while suppressing an increase in a prediction coefficient. Objective.

本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、第1の画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと上記注目画素を含む第2の画素群である予測タップとを上記第1の画像から抽出するタップ抽出部と、上記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類部と、複数の予測タップ種別のうちのいずれに上記予測タップが属するかを判別する判別演算において使用すべき係数群として上記予測タップ種別ごとに上記複数のクラスに対応付けて設定された複数の判別係数群の中から上記複数の予測タップ種別のそれぞれにおいて上記分類されたクラスに対応する上記判別係数群を選択する判別係数選択部と、上記選択された判別係数群と上記予測タップ内の各画素の画素値とに基づいて上記判別演算を実行した結果から上記予測タップが属する上記予測タップ種別を判別する判別演算部と、上記第1の画像の解像度を変更した画像である第2の画像内の画素の画素値を予測する予測演算において使用すべき係数群として上記複数のクラスと上記複数の予測タップ種別との各組合せに対応付けて設定された複数の予測係数群の中から上記分類されたクラスと上記判別された予測タップ種別との組合せに対応する上記予測係数群を選択する予測係数選択部と、上記選択された予測係数群と上記予測タップ内の各画素の画素値とに基づいて上記予測演算を実行する予測演算部とを具備する画像情報変換装置、および、その制御方法、ならびに当該方法をコンピュータに実行させるためのプログラムである。これにより、分類されたクラスおよび判別された予測タップ種別の組合せに対応する予測係数群と予測タップ内の各画素値とに基づいて予測演算が実行されるという作用をもたらす。   The present technology has been made to solve the above-described problems, and a first aspect of the present technology is a first pixel group including any pixel of interest in the first image as a pixel of interest. A tap extraction unit that extracts a class tap and a prediction tap that is a second pixel group including the pixel of interest from the first image, and a shape of a three-dimensional distribution of pixel values of each pixel in the class tap A class classification unit for classifying a pattern into one of a plurality of classes, and the prediction tap type as a coefficient group to be used in a discrimination calculation to determine which of the plurality of prediction tap types the prediction tap belongs to For each of the plurality of prediction tap types, the discrimination coefficient group corresponding to the classified class is selected from a plurality of discrimination coefficient groups set in association with the plurality of classes for each A discriminant calculation for discriminating the prediction tap type to which the prediction tap belongs from the result of executing the discrimination calculation based on the discrimination coefficient selection unit, the selected discrimination coefficient group, and the pixel value of each pixel in the prediction tap And a plurality of classes and a plurality of prediction tap types as coefficient groups to be used in a prediction calculation for predicting a pixel value of a pixel in a second image that is an image obtained by changing the resolution of the first image A prediction coefficient selection unit that selects the prediction coefficient group corresponding to the combination of the classified class and the determined prediction tap type from among a plurality of prediction coefficient groups set in association with each combination of An image information conversion apparatus including a prediction calculation unit that performs the prediction calculation based on the selected prediction coefficient group and a pixel value of each pixel in the prediction tap, and a control method thereof, Is a program for causing a computer to execute the method in rabbi. This brings about the effect that the prediction calculation is executed based on the prediction coefficient group corresponding to the combination of the classified class and the determined prediction tap type and each pixel value in the prediction tap.

また、この第1の側面において、前記クラス分類部は、前記クラスタップ内の各画素の画素値の階調数を減じて当該階調数を減じた前記画素値に基づいて前記形状パターンを前記複数のクラスのうちのいずれかに分類してもよい。これにより、階調数を減じた画素値に基づいて形状パターンが複数のクラスのうちのいずれかに分類されるという作用をもたらす。   Also, in this first aspect, the class classification unit reduces the number of gradations of the pixel value of each pixel in the class tap and reduces the number of gradations to the shape pattern based on the pixel value. You may classify | categorize into either of several classes. Accordingly, there is an effect that the shape pattern is classified into one of a plurality of classes based on the pixel value obtained by reducing the number of gradations.

また、この第1の側面において、上記判別演算部は、上記選択された上記判別係数群内の各判別係数と上記予測タップ内の各画素の画素値との積和演算を上記判別演算として実行する判別演算実行部と、上記複数の予測タップ種別のそれぞれにおける上記積和演算の結果と所定の閾値とを比較して比較した結果の各々を比較結果として出力する比較部と、上記比較結果に基づいて上記予測タップが属する上記予測タップ種別を判別する予測タップ種別判別部とを備えてもよい。これにより、各判別係数と予測タップ内の各画素値との積和演算を閾値と比較した結果に基づいて予測タップ種別が判別されるという作用をもたらす。   In the first aspect, the discrimination calculation unit performs a product-sum operation on each discrimination coefficient in the selected discrimination coefficient group and a pixel value of each pixel in the prediction tap as the discrimination calculation. A discrimination calculation execution unit, a comparison unit that compares and compares the result of the product-sum calculation in each of the plurality of prediction tap types with a predetermined threshold, and outputs a comparison result. And a prediction tap type determination unit that determines the prediction tap type to which the prediction tap belongs. This brings about the effect that the prediction tap type is determined based on the result of comparing the product-sum operation of each determination coefficient and each pixel value in the prediction tap with the threshold value.

また、この第1の側面において、上記第2の画像の画質を調整する操作信号を記録する記録部をさらに具備し、上記予測タップ種別判別部は、上記記録された操作信号により行われる上記画質の調整に適した上記予測係数群が属する上記予測タップ種別を優先して上記複数の予測タップのうちのいずれかを選択してもよい。これにより、補正される第2の画像に適した予測係数群が属する予測タップ種別が優先して選択されるという作用をもたらす。   The first aspect further includes a recording unit that records an operation signal for adjusting the image quality of the second image, and the prediction tap type determination unit is configured to perform the image quality performed by the recorded operation signal. One of the plurality of prediction taps may be selected with priority given to the prediction tap type to which the prediction coefficient group suitable for the adjustment belongs. This brings about the effect that the prediction tap type to which the prediction coefficient group suitable for the second image to be corrected belongs is selected with priority.

また、この第1の側面において、上記第2の画像の視聴環境を示す視聴環境パラメータを検出する視聴環境検出部をさらに具備し、上記予測タップ種別判別部は、上記視聴環境パラメータの示す上記視聴環境に適した上記予測係数群が属する上記予測タップ種別を優先して上記複数の予測タップ種別のうちのいずれかを選択してもよい。これにより、視聴環境に適した予測係数群が属する予測タップ種別が優先して選択されるという作用をもたらす。   In the first aspect, the image processing apparatus further includes a viewing environment detection unit that detects a viewing environment parameter indicating the viewing environment of the second image, and the prediction tap type determination unit includes the viewing environment parameter indicated by the viewing environment parameter. One of the plurality of prediction tap types may be selected with priority given to the prediction tap type to which the prediction coefficient group suitable for the environment belongs. This brings about the effect that the prediction tap type to which the prediction coefficient group suitable for the viewing environment belongs is preferentially selected.

また、この第1の側面において、上記視聴環境パラメータは、上記第2の画像を表示する表示装置が設置された室内の照明の照度を含むこととしてもよい。これにより、室内の照度に適した予測タップ種別を優先して予測タップ種別が判別されるという作用をもたらす。   In the first aspect, the viewing environment parameter may include illuminance of illumination in a room in which the display device that displays the second image is installed. This brings about the effect that the predicted tap type is discriminated in preference to the predicted tap type suitable for the illuminance in the room.

また、この第1の側面において、上記視聴環境パラメータは、上記第2の画像を表示する表示装置の種別を含むこととしてもよい。これにより、表示装置の種別に適した予測タップ種別を優先して予測タップ種別が判別されるという作用をもたらす。   In the first aspect, the viewing environment parameter may include a type of a display device that displays the second image. This brings about the effect that the predicted tap type is discriminated in preference to the predicted tap type suitable for the type of the display device.

また、この第1の側面において、上記予測タップ内の各画素の画素値の平均値を演算する平均値演算部をさらに具備し、上記予測タップ種別判別部は、上記平均値が所定の範囲外である場合に前記上記平均値に適した上記予測係数群が属する上記予測タップ種別を優先して上記複数の予測タップ種別のうちのいずれかを選択してもよい。これにより、平均値に適した予測係数群が属する予測タップ種別が優先して選択されるという作用をもたらす。   The first aspect may further include an average value calculation unit that calculates an average value of pixel values of each pixel in the prediction tap, and the prediction tap type determination unit includes the average value outside a predetermined range. In this case, the prediction tap type to which the prediction coefficient group suitable for the average value belongs may be preferentially selected and any one of the plurality of prediction tap types may be selected. This brings about the effect that the prediction tap type to which the prediction coefficient group suitable for the average value belongs is preferentially selected.

また、本技術の第2の側面は、複数の異なる画像のそれぞれを生徒画像として複数の上記生徒画像からなる生徒画像群を複数回入力する生徒画像入力部と、上記入力された生徒画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと上記注目画素を含む第2の画素群である予測タップとを上記画像から抽出するタップ抽出部と、上記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類部と、上記生徒画像群内のいずれかの上記生徒画像を判別画像として上記判別画像が入力された場合に第1の目標値を生成し、上記判別画像以外の上記生徒画像が入力された場合に第2の目標値を生成する目標値生成部と、画像の解像度を変更する場合において変更対象の上記画像が上記学習画像に類似するか否かを判別する判別演算において使用すべき判別係数群を上記第1および第2の目標値と上記予測タップ内の各画素の画素値とに基づいて上記クラスごとに演算する判別係数演算部とを具備する判別係数学習装置、および、その制御方法ならびに当該方法をコンピュータに実行させるためのプログラムである。これにより、複数の生徒画像においてクラスごとに判別係数が演算されるという作用をもたらす。   In addition, a second aspect of the present technology provides a student image input unit that inputs a plurality of student images including a plurality of student images, each of a plurality of different images as student images, A tap extracting unit that extracts a class tap that is a first pixel group including the target pixel and a prediction tap that is a second pixel group including the target pixel from any of the images, with any pixel as the target pixel; A class classification unit that classifies a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into one of a plurality of classes, and the student image in the student image group as a discrimination image A target value generation unit that generates a first target value when a discrimination image is input and generates a second target value when the student image other than the discrimination image is input, and changes the resolution of the image Place to do The discriminant coefficient group to be used in the discriminant calculation for discriminating whether or not the image to be changed is similar to the learning image in FIG. 6 is the first and second target values and the pixel value of each pixel in the prediction tap. A discrimination coefficient learning device including a discrimination coefficient calculation unit that calculates for each class based on the above, a control method thereof, and a program for causing a computer to execute the method. As a result, the discriminant coefficient is calculated for each class in a plurality of student images.

また、この第2の側面において、上記生徒画像入力部は、上記生徒画像の解像度を変更した画像である教師画像を複数のフィルタに通過させることにより上記生徒画像群を生成するフィルタ部と、上記生成された複数の生徒画像群を複数回入力する生徒画像供給部とを備えてもよい。これにより、複数のフィルタにより生徒画像群が生成されるという作用をもたらす。   In the second aspect, the student image input unit includes a filter unit that generates the student image group by passing a teacher image, which is an image in which the resolution of the student image is changed, through a plurality of filters; A student image supply unit that inputs a plurality of generated student image groups a plurality of times may be provided. This brings about the effect that a student image group is generated by a plurality of filters.

また、この第2の側面において、上記判別演算は、上記判別係数群内の各判別係数と上記変更対象の画像内の上記予測タップ内の各画素値との積和演算であり、上記判別係数演算部は、上記学習画像における上記判別演算の結果と上記第1の目標値との間の差分の二乗和に上記学習画像以外の上記生徒画像における上記判別演算の結果と上記第2の目標値との間の差分の二乗和を加算した値を最小にする上記判別係数群を上記複数のクラスの各々について演算することもできる。これにより、判別演算の結果と第1の目標値との差分の二乗和に、判別演算の結果と第2の目標値との差分の二乗和を加算した値が最小になる判別係数群が演算されるという作用をもたらす。   In the second aspect, the discrimination calculation is a product-sum calculation of each discrimination coefficient in the discrimination coefficient group and each pixel value in the prediction tap in the change target image, and the discrimination coefficient The calculation unit adds the result of the discrimination calculation in the student image other than the learning image and the second target value to the square sum of the difference between the result of the discrimination calculation in the learning image and the first target value. The discriminant coefficient group that minimizes the value obtained by adding the sum of squares of the difference between the two can be calculated for each of the plurality of classes. As a result, a group of discriminant coefficients that minimizes a value obtained by adding the square sum of the difference between the result of the discrimination calculation and the second target value to the sum of squares of the difference between the result of the discrimination calculation and the first target value is calculated. It brings about the effect of being.

また、本技術の第3の側面は、複数の異なる画像のそれぞれを生徒画像として入力する生徒画像入力部と、上記入力された生徒画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと上記注目画素を含む第2の画素群である予測タップとを上記第1の画像から抽出するタップ抽出部と、上記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類部と、上記入力された生徒画像の解像度を変更した画像である教師画像内の1つ以上の画素を教師画素として抽出する教師画素抽出部と、上記教師画素の画素値を予測する予測演算において使用すべき予測係数群を上記予測タップ内の各画素の画素値と上記教師画素の画素値とに基づいて上記クラスごとに演算する予測係数演算部とを具備する予測係数学習装置、および、その制御方法ならびに当該方法をコンピュータに実行させるためのプログラムである。これにより、複数の生徒画像においてクラスごとに予測係数が演算されるという作用をもたらす。   Further, the third aspect of the present technology includes a student image input unit that inputs each of a plurality of different images as a student image, and includes the pixel of interest with any pixel in the input student image as a pixel of interest. A tap extraction unit that extracts from the first image a class tap that is a first pixel group and a prediction tap that is a second pixel group including the pixel of interest; and a pixel value of each pixel in the class tap A class classification unit that classifies the shape pattern of the three-dimensional distribution into one of a plurality of classes, and one or more pixels in the teacher image that is an image in which the resolution of the input student image is changed is used as a teacher pixel A teacher pixel extraction unit to extract, and a prediction coefficient group to be used in a prediction calculation for predicting a pixel value of the teacher pixel based on the pixel value of each pixel in the prediction tap and the pixel value of the teacher pixel Prediction coefficient and a prediction coefficient calculator for calculating for each class learning apparatus, and a program for executing the control method and the method in a computer. This brings about the effect that the prediction coefficient is calculated for each class in a plurality of student images.

また、この第3の側面において、上記生徒画像入力部は、上記教師画像を複数のフィルタに通過させることにより上記複数の生徒画像を生成して入力してもよい。これにより、複数のフィルタにより生徒画像群が生成されるという作用をもたらす。   In the third aspect, the student image input unit may generate and input the plurality of student images by passing the teacher image through a plurality of filters. This brings about the effect that a student image group is generated by a plurality of filters.

本技術によれば、解像度の異なる画像を相互に変換する画像情報変換装置において、予測係数の増大が抑制され、画像の変換精度が向上するという優れた効果を奏し得る。   According to the present technology, in an image information conversion apparatus that mutually converts images having different resolutions, an increase in prediction coefficient is suppressed, and an excellent effect of improving image conversion accuracy can be achieved.

第1の実施の形態における画像情報変換システムの一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the image information conversion system in 1st Embodiment. 第1の実施の形態における画像情報変換装置の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the image information conversion apparatus in 1st Embodiment. 第1の実施の形態におけるHD(High Definition)信号の画素とSD(Standard Definition)信号の画素との間の位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship between the pixel of HD (High Definition) signal and the pixel of SD (Standard Definition) signal in 1st Embodiment. 第1の実施の形態における予測タップおよびクラスタップを構成する画素群の一例を示す図である。It is a figure which shows an example of the pixel group which comprises the prediction tap and class tap in 1st Embodiment. 第1の実施の形態における判別係数選択部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the discrimination coefficient selection part in 1st Embodiment. 第1の実施の形態において判別係数記憶部に記憶される判別係数の一例を示す図である。It is a figure which shows an example of the discrimination coefficient memorize | stored in the discrimination coefficient memory | storage part in 1st Embodiment. 第1の実施の形態における判別演算部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the discrimination | determination calculating part in 1st Embodiment. 第1の実施の形態における予測係数選択部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the prediction coefficient selection part in 1st Embodiment. 第1の実施の形態において予測係数記憶部に記憶される予測係数の一例を示す図である。It is a figure which shows an example of the prediction coefficient memorize | stored in the prediction coefficient memory | storage part in 1st Embodiment. 第1の実施の形態における判別係数学習装置の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the discrimination coefficient learning apparatus in 1st Embodiment. 第1の実施の形態における判別係数学習装置のフィルタ部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the filter part of the discrimination coefficient learning apparatus in 1st Embodiment. 第1の実施の形態における判別係数の学習方法の一例を示す図である。It is a figure which shows an example of the learning method of the discrimination coefficient in 1st Embodiment. 第1の実施の形態における目標値の設定例を示す図である。It is a figure which shows the example of a setting of the target value in 1st Embodiment. 第1の実施の形態における判別係数演算部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the discrimination coefficient calculating part in 1st Embodiment. 第1の実施の形態における正規方程式生成部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the normal equation production | generation part in 1st Embodiment. 第1の実施の形態における行列成分の統計量の一例を示す図である。It is a figure which shows an example of the statistics of the matrix component in 1st Embodiment. 第1の実施の形態における予測係数学習装置の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the prediction coefficient learning apparatus in 1st Embodiment. 第1の実施の形態における予測係数学習装置のフィルタ部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the filter part of the prediction coefficient learning apparatus in 1st Embodiment. 第1の実施の形態における予測係数の学習方法の一例を示す図である。It is a figure which shows an example of the learning method of the prediction coefficient in 1st Embodiment. 第1の実施の形態における画像情報変換装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the image information converter in 1st Embodiment. 第1の実施の形態におけるクラス分類処理の一例を示すフローチャートである。It is a flowchart which shows an example of the class classification | category process in 1st Embodiment. 第1の実施の形態における予測タップ種別判別処理の一例を示すフローチャートである。It is a flowchart which shows an example of the prediction tap classification discrimination | determination process in 1st Embodiment. 第1の実施の形態における判別係数学習装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the discrimination coefficient learning apparatus in 1st Embodiment. 第1の実施の形態における予測係数学習装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the prediction coefficient learning apparatus in 1st Embodiment. 変形例における判別係数の学習方法の一例を示す図である。It is a figure which shows an example of the learning method of the discrimination coefficient in a modification. 第2の実施の形態における画像情報変換装置の一構成例を示すブロック図である。It is a block diagram which shows one structural example of the image information conversion apparatus in 2nd Embodiment. 第2の実施の形態における候補判定結果列の一例を示す図である。It is a figure which shows an example of the candidate determination result row | line in 2nd Embodiment. 第2の実施の形態におけるシフト量の設定例を示す図である。It is a figure which shows the example of a setting of the shift amount in 2nd Embodiment. 第2の実施の形態における操作信号履歴情報記録部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the operation signal log | history information recording part in 2nd Embodiment. 第2の実施の形態における視聴環境検出部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the viewing-and-listening environment detection part in 2nd Embodiment. 第2の実施の形態における判別演算部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the discrimination | determination calculating part in 2nd Embodiment. 第2の実施の形態における予測タップ種別判別処理の一例を示すフローチャートである。It is a flowchart which shows an example of the prediction tap classification discrimination | determination process in 2nd Embodiment. 第3の実施の形態における画像情報変換装置の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the image information converter in 3rd Embodiment. 第3の実施の形態における平均波形演算部の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the average waveform calculating part in 3rd Embodiment.

以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(画像情報変換処理:クラスおよび予測タップ種別の組合せに対応付けられた予測係数群を使用する例)
2.第2の実施の形態(画像情報変換処理:候補判定結果列をシフトする例)
3.第3の実施の形態(画像情報変換処理:平均波形を算出する例)
Hereinafter, modes for carrying out the present technology (hereinafter referred to as embodiments) will be described. The description will be made in the following order.
1. First embodiment (image information conversion process: an example in which a prediction coefficient group associated with a combination of a class and a prediction tap type is used)
2. Second Embodiment (Image Information Conversion Process: Example of Shifting Candidate Determination Result Sequence)
3. Third embodiment (image information conversion process: example of calculating an average waveform)

<1.第1の実施の形態>
[画像情報変換システムの構成例]
図1は、第1の実施の形態における画像情報変換システムの一構成例を示すブロック図である。この画像情報変換システムは、画像情報変換装置100、判別係数学習装置200、および、予測係数学習装置300を備える。
<1. First Embodiment>
[Configuration example of image information conversion system]
FIG. 1 is a block diagram illustrating a configuration example of an image information conversion system according to the first embodiment. This image information conversion system includes an image information conversion device 100, a discrimination coefficient learning device 200, and a prediction coefficient learning device 300.

画像情報変換装置100は、画像信号が入力されるたびに、その画像信号を、その画像信号の示す画像とは解像度の異なる画像の画像信号に変換して出力するものである。画像情報変換装置100は、例えば、画像をより解像度の高い画像にアップコンバートする。また、画像情報変換装置100は、画像信号の変換において、後述する判別係数および予測係数を使用する。画像情報変換装置100には、動画を構成する各画像を示す画像信号が入力される。画像信号は、画像内の各画素の画素値および座標を特定するためのデータを有する信号である。以下、低解像度の画像を示す画像信号を低解像度画像信号と称し、高解像度の画像を示す画像信号を高解像度画像信号と称する。低解像度画像信号は、例えば、SD(Standard Definition)信号であり、高解像度画像信号は、例えば、HD(High Definition)信号である。   Each time an image signal is input, the image information conversion apparatus 100 converts the image signal into an image signal of an image having a resolution different from that of the image indicated by the image signal, and outputs the image signal. For example, the image information conversion apparatus 100 up-converts an image into a higher resolution image. Further, the image information conversion apparatus 100 uses a discrimination coefficient and a prediction coefficient, which will be described later, in the conversion of the image signal. The image information conversion apparatus 100 receives an image signal indicating each image constituting the moving image. The image signal is a signal having data for specifying the pixel value and coordinates of each pixel in the image. Hereinafter, an image signal indicating a low resolution image is referred to as a low resolution image signal, and an image signal indicating a high resolution image is referred to as a high resolution image signal. The low resolution image signal is, for example, an SD (Standard Definition) signal, and the high resolution image signal is, for example, an HD (High Definition) signal.

判別係数学習装置200は、高解像度画像信号および判別画像指定信号に基づいて判別係数を学習するものである。判別画像指定信号については後述する。判別係数学習装置200は、学習した判別係数を画像情報変換装置100に信号線209を介して出力する。   The discrimination coefficient learning device 200 learns the discrimination coefficient based on the high resolution image signal and the discrimination image designation signal. The discrimination image designation signal will be described later. The discrimination coefficient learning device 200 outputs the learned discrimination coefficient to the image information conversion device 100 via the signal line 209.

予測係数学習装置300は、高解像度画像信号と学習画像指定信号に基づいて予測係数を学習するものである。学習画像指定信号については後述する。予測係数学習装置300は、学習した予測係数を画像情報変換装置100に信号線309を介して出力する。   The prediction coefficient learning device 300 learns a prediction coefficient based on a high resolution image signal and a learning image designation signal. The learning image designation signal will be described later. The prediction coefficient learning apparatus 300 outputs the learned prediction coefficient to the image information conversion apparatus 100 via the signal line 309.

[画像情報変換装置の構成例]
図2は、画像情報変換装置100の一構成例を示すブロック図である。画像情報変換装置100は、タップ抽出部110、クラス分類部120、判別係数選択部130、判別演算部140、予測係数選択部150、および、予測演算部160を備える。
[Configuration example of image information conversion apparatus]
FIG. 2 is a block diagram illustrating a configuration example of the image information conversion apparatus 100. The image information conversion apparatus 100 includes a tap extraction unit 110, a class classification unit 120, a discrimination coefficient selection unit 130, a discrimination calculation unit 140, a prediction coefficient selection unit 150, and a prediction calculation unit 160.

タップ抽出部110は、低解像度画像信号からクラスタップおよび予測タップを抽出するものである。タップ抽出部110は、予測タップ抽出部111およびクラスタップ抽出部112を備える。予測タップ抽出部111およびクラスタップ抽出部112には、低解像度画像信号が入力される。   The tap extraction unit 110 extracts a class tap and a prediction tap from the low resolution image signal. The tap extraction unit 110 includes a prediction tap extraction unit 111 and a class tap extraction unit 112. A low resolution image signal is input to the prediction tap extraction unit 111 and the class tap extraction unit 112.

予測タップ抽出部111は、入力された画像信号から予測タップを抽出するものである。予測タップは、高解像度画像の画素値を予測するために、低解像度画像から抽出される所定個(例えば、13個)の画素群である。予測タップは、低解像度画像における各画素を注目画素として注目画素ごとに抽出される。注目画素は、予測タップにおいて基準となる画素(例えば、中心の画素)である。低解像度画像の解像度が720×480画素である場合、各画素を注目画素とする720×480個の予測タップが抽出される。予測タップ抽出部111は、予測タップを抽出するたびに、抽出した予測タップ内の各画素の画素値を判別演算部140および予測演算部160に信号線118を介して出力する。   The prediction tap extraction unit 111 extracts a prediction tap from the input image signal. The prediction tap is a predetermined number (for example, 13) of pixel groups extracted from the low resolution image in order to predict the pixel value of the high resolution image. The prediction tap is extracted for each target pixel with each pixel in the low resolution image as the target pixel. The pixel of interest is a pixel that serves as a reference in the prediction tap (for example, the center pixel). When the resolution of the low-resolution image is 720 × 480 pixels, 720 × 480 prediction taps with each pixel as the target pixel are extracted. Each time the prediction tap extraction unit 111 extracts a prediction tap, the prediction tap extraction unit 111 outputs the pixel value of each pixel in the extracted prediction tap to the discrimination calculation unit 140 and the prediction calculation unit 160 via the signal line 118.

クラスタップ抽出部112は、低解像度画像信号からクラスタップを抽出するものである。クラスタップとは、クラス分類のために、低解像度画像において注目画素を含む所定個(例えば、9個)の画素群である。クラスタップも、予測タップと同様に、画像内の画素ごとに抽出される。クラスタップ抽出部112は、クラスタップを抽出するたびに、抽出したクラスタップ内の各画素の画素値をクラス分類部120に信号線119を介して出力する。   The class tap extraction unit 112 extracts a class tap from the low resolution image signal. The class tap is a predetermined number (for example, 9) of pixel groups including the target pixel in the low resolution image for class classification. The class tap is also extracted for each pixel in the image, like the prediction tap. Each time the class tap extraction unit 112 extracts a class tap, the class tap extraction unit 112 outputs the pixel value of each pixel in the extracted class tap to the class classification unit 120 via the signal line 119.

クラス分類部120は、クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するものである。このクラス分類部120は、再量子化部121およびクラスコード決定部122を備える。   The class classification unit 120 classifies the shape pattern of the three-dimensional distribution of pixel values of each pixel in the class tap into one of a plurality of classes. The class classification unit 120 includes a requantization unit 121 and a class code determination unit 122.

再量子化部121は、クラスタップ内の各画素の画素値の階調数が減少するように各画素の再量子化を行うものである。具体的には、クラスタップ内の各画素の画素値を、ADRC(Adaptive Dynamic Range Coding)を使用して再量子化する。ADRCにおいては、再量子化部121は、クラスタップ内の各画素の画素値のうちの最大値MAXと最小値MINとの間の差分を、ダイナミックレンジDRとして算出する。再量子化部121は、クラスタップ内の各画素の画素値から最小値MINを減算した値を、DR/2(mは、1以上の整数)で除算する。再量子化部121は、各画素についての除算の結果を画素の位置に基づいて所定の順番で並べたデータを、ADRCコードとしてクラスコード決定部122に出力する。例えば、画素のx、y座標の合計値が小さい順に、それぞれの画素についての除算の結果が並べられる。変換前の画素値を表わすビット数と異なるビット数をmに設定して上述のADRCを実行することにより、画素値の階調数が変更される。このように、所定の階調数により画素値が表わされている(量子化されている)画素に対して、その階調数を変更する処理は、再量子化と呼ばれる。変換前の画素値を表わすビット数(例えば、8)より小さなビット数(例えば、1)をmに設定して再量子化を行うことにより、クラスタップ内の各画素値の階調数が削減される。階調数の削減により同一のADRCコードが生成されるクラスタップ同士を同じクラスに分類すると、クラスタップは、各ADRCコードの示す複数のクラスに分類される。例えば、クラスタップ内の9個の各画素の画素値の階調数を減じて2階調にした場合、クラスタップは、2=512クラスに分類される。 The requantization unit 121 requantizes each pixel so that the number of gradations of the pixel value of each pixel in the class tap decreases. Specifically, the pixel value of each pixel in the class tap is requantized using ADRC (Adaptive Dynamic Range Coding). In ADRC, the requantization unit 121 calculates the difference between the maximum value MAX and the minimum value MIN among the pixel values of each pixel in the class tap as the dynamic range DR. The requantization unit 121 divides a value obtained by subtracting the minimum value MIN from the pixel value of each pixel in the class tap by DR / 2 m (m is an integer of 1 or more). The requantization unit 121 outputs data obtained by arranging the division results for each pixel in a predetermined order based on the pixel position to the class code determination unit 122 as an ADRC code. For example, the division results for each pixel are arranged in ascending order of the total value of the x and y coordinates of the pixel. By setting the number of bits different from the number of bits representing the pixel value before conversion to m and executing the above-described ADRC, the number of gradations of the pixel value is changed. In this way, the process of changing the number of gradations for a pixel whose pixel value is represented (quantized) by a predetermined number of gradations is called requantization. The number of gradations of each pixel value in the class tap is reduced by performing re-quantization by setting m to a bit number (for example, 1) smaller than the number of bits (for example, 8) representing the pixel value before conversion. Is done. When class taps in which the same ADRC code is generated by reducing the number of gradations are classified into the same class, the class tap is classified into a plurality of classes indicated by each ADRC code. For example, when the number of gradations of each of the nine pixels in the class tap is reduced to 2 gradations, the class tap is classified into 2 9 = 512 classes.

クラスコード決定部122は、ADRCコードに基づいてクラスコードを決定するものである。クラスコードは、クラスタップが分類されたクラスを識別する情報である。ADRCコードとクラスコードとは、1対1に対応付けられる。例えば、クラスコード決定部122は、ADRCコードごとにクラスコードを記憶しておき、入力されたADRCコードに対応するクラスコードを読み出して、クラスタップのクラスコードとして決定する。クラスコード決定部122は、決定したクラスコードを判別係数選択部130および予測係数選択部150に信号線129を介して出力する。   The class code determination unit 122 determines a class code based on the ADRC code. The class code is information for identifying a class into which class taps are classified. The ADRC code and the class code are associated one to one. For example, the class code determination unit 122 stores a class code for each ADRC code, reads a class code corresponding to the input ADRC code, and determines the class code as a class tap class code. The class code determination unit 122 outputs the determined class code to the discrimination coefficient selection unit 130 and the prediction coefficient selection unit 150 via the signal line 129.

判別係数選択部130は、複数の判別係数群の中から、クラスコードに基づいて判別係数群を選択するものである。1つの判別係数群は、予測タップ内の画素数(例えば、13個)と同数の判別係数を含む。これらの判別係数は、抽出された予測タップが属すべき予測タップ種別を判別する判別演算において使用される係数である。予測タップ種別は2つ以上、定義されており、各予測タップは、これらの予測タップ種別のうちのいずれかに属する。   The discrimination coefficient selection unit 130 selects a discrimination coefficient group from a plurality of discrimination coefficient groups based on the class code. One discrimination coefficient group includes the same number of discrimination coefficients as the number of pixels in the prediction tap (for example, 13). These discrimination coefficients are coefficients used in the discrimination calculation for discriminating the prediction tap type to which the extracted prediction tap should belong. Two or more prediction tap types are defined, and each prediction tap belongs to one of these prediction tap types.

ここで、予測タップ種別は、抽出された複数の予測タップを、クラス分類とは別の基準で分類したグループである。詳細には、予測タップは、予測係数の学習時に、その予測タップが抽出された画像の画像種別に基づいて、複数の予測タップ種別に分類される。例えば、各予測タップは、学習時における予測タップの抽出元の画像の圧縮率に応じて複数の予測タップ種別に分類される。   Here, the prediction tap type is a group in which a plurality of extracted prediction taps are classified according to a standard different from the class classification. Specifically, the prediction tap is classified into a plurality of prediction tap types based on the image type of the image from which the prediction tap is extracted when learning the prediction coefficient. For example, each prediction tap is classified into a plurality of prediction tap types according to the compression rate of the image from which the prediction tap is extracted at the time of learning.

判別係数選択部130においては、複数のクラスとN(Nは、2以上の整数)個の予測タップ種別との各組合せに対応付けて複数の判別係数群が予め設定される。例えば、クラス数が512クラスの場合、512×N個の判別係数群が設定される。判別係数選択部130は、512×N個の判別係数群の中から、クラスコードの示すクラスに対応する判別係数群をN個選択する。判別係数選択部130は、選択した各判別係数群を判別演算部140に信号線139を介して出力する。   In the discrimination coefficient selection unit 130, a plurality of discrimination coefficient groups are set in advance in association with combinations of a plurality of classes and N (N is an integer of 2 or more) prediction tap types. For example, when the number of classes is 512, 512 × N discrimination coefficient groups are set. The discrimination coefficient selection unit 130 selects N discrimination coefficient groups corresponding to the class indicated by the class code from the 512 × N discrimination coefficient groups. The discrimination coefficient selection unit 130 outputs each selected discrimination coefficient group to the discrimination calculation unit 140 via the signal line 139.

判別演算部140は、予測タップと判別係数群とに基づいて判別演算を実行することによりN個の予測タップ種別のうちのいずれに予測タップが属するかを判別するものである。判別演算の詳細については後述する。判別演算部140は、判別した予測タップ種別を示す種別コードを生成して予測係数選択部150に信号線149を介して出力する。   The discrimination computation unit 140 discriminates which of the N prediction tap types belongs to the prediction tap by executing a discrimination computation based on the prediction tap and the discrimination coefficient group. Details of the discrimination calculation will be described later. The discrimination calculation unit 140 generates a type code indicating the determined prediction tap type and outputs the type code to the prediction coefficient selection unit 150 via the signal line 149.

予測係数選択部150は、クラスコードおよび種別コードに基づいて複数の予測係数群の中から、いずれかを選択するものである。予測係数選択部150においては、複数のクラスおよびN個の予測タップ種別の各組合せに対応付けて複数の予測係数群が予め設定される。例えば、クラスが512個の場合、512×N個の予測係数群が設定される。低解像度画像信号を高解像度画像信号に変換する場合、1つの低解像度画像信号から複数(例えば、4つ)の高解像度画像信号を生成する必要がある。このため、それぞれの予測係数群は、複数の予測係数からなるセットを、生成すべき高解像画像信号の数だけ含む。それぞれのセットは、予測タップ内の画素数(例えば、13個)と同数の予測係数を含む。例えば、予測タップ内の画素数が13個で、1つの低解像度信号から4つの高解像度画像信号を生成する場合、各予測係数群は、13個の予測係数からなるセットを4つ含む。これらの予測係数は、高解像度画像における画素の画素値を予測する予測演算において使用すべき係数である。予測係数選択部150は、種別コードの示す予測タップ種別とクラスコードの示すクラスとの組合せに対応する予測係数群を予測演算部160に信号線159を介して出力する。   The prediction coefficient selection unit 150 selects one of a plurality of prediction coefficient groups based on the class code and the type code. In the prediction coefficient selection unit 150, a plurality of prediction coefficient groups are set in advance in association with combinations of a plurality of classes and N prediction tap types. For example, when there are 512 classes, 512 × N prediction coefficient groups are set. When converting a low-resolution image signal into a high-resolution image signal, it is necessary to generate a plurality of (for example, four) high-resolution image signals from one low-resolution image signal. Therefore, each prediction coefficient group includes a set of a plurality of prediction coefficients as many as the number of high resolution image signals to be generated. Each set includes the same number of prediction coefficients as the number of pixels in the prediction tap (for example, 13). For example, when the number of pixels in the prediction tap is 13 and four high-resolution image signals are generated from one low-resolution signal, each prediction coefficient group includes four sets of 13 prediction coefficients. These prediction coefficients are coefficients to be used in the prediction calculation for predicting the pixel value of the pixel in the high resolution image. The prediction coefficient selection unit 150 outputs a prediction coefficient group corresponding to the combination of the prediction tap type indicated by the type code and the class indicated by the class code to the prediction calculation unit 160 via the signal line 159.

予測演算部160は、予測タップと予測係数群に基づいて、高解像度画像の画素値を予測する予測演算を実行するものである。この予測演算は、例えば、線形一次結合式である下記の式1により実行される。

Figure 2012248994
式1においてw(nは1乃至13の整数)は、予測係数群内の1つの高解像度画像信号に対応するセットにおける各予測係数である。xは、予測タップ内の各画素の画素値である。予測演算部160は、予測演算の結果であるyを、高解像度画像信号の画素値として出力する。1つの低解像度信号から4つの高解像度画像信号を生成する場合、予測演算部160は、13個の予測係数からなるセットを4つ使用して4つの画素値を求める。 The prediction calculation unit 160 executes prediction calculation for predicting the pixel value of the high-resolution image based on the prediction tap and the prediction coefficient group. This prediction calculation is executed by, for example, the following formula 1 which is a linear linear combination formula.
Figure 2012248994
In Equation 1, w n (n is an integer of 1 to 13) is each prediction coefficient in the set corresponding to one high-resolution image signal in the prediction coefficient group. xn is a pixel value of each pixel in the prediction tap. The prediction calculation unit 160 outputs y that is a result of the prediction calculation as a pixel value of the high-resolution image signal. When generating four high resolution image signals from one low resolution signal, the prediction calculation unit 160 obtains four pixel values using four sets of 13 prediction coefficients.

ここで、画像情報変換装置100による変換対象となるSD信号と、変換後のHD信号との関係について説明する。図3は、第1の実施の形態におけるHD信号の画素とSD信号の画素との間の位置関係の一例を示す図である。図3において、円形のマークはSD信号における画素であり、菱形のマークは、HD信号における画素である。また、網掛けのマークは、第1フィールドにおける画素であり、白抜きのマークは、第2フィールドにおける画素である。ここで、第1フィールドおよび第2フィールドは、時間軸において隣り合うフィールドであり、これらのフィールドにより1フレームの画像が構成される。   Here, the relationship between the SD signal to be converted by the image information conversion apparatus 100 and the HD signal after conversion will be described. FIG. 3 is a diagram illustrating an example of a positional relationship between a pixel of the HD signal and a pixel of the SD signal according to the first embodiment. In FIG. 3, a circular mark is a pixel in the SD signal, and a diamond mark is a pixel in the HD signal. A shaded mark is a pixel in the first field, and a white mark is a pixel in the second field. Here, the first field and the second field are adjacent fields on the time axis, and an image of one frame is configured by these fields.

図3(a)は、画像の垂直方向における各画素の位置関係の一例を示す図である。図3(a)の横軸は時間軸であり、縦軸は、画面の垂直方向の座標である。図3(a)に例示したように、各フィールドの垂直方向において隣り合うHD信号の画素間に、SD信号の画素が位置する。より詳細には、垂直方向に隣り合うHD信号の画素間の距離をdとした場合、例えば、上方のHD信号の画素とSD信号との間の距離が1/4×dになる位置に、そのSD信号の画素が位置する。   FIG. 3A is a diagram illustrating an example of the positional relationship of each pixel in the vertical direction of the image. The horizontal axis of Fig.3 (a) is a time axis, and a vertical axis | shaft is a coordinate of the vertical direction of a screen. As illustrated in FIG. 3A, SD signal pixels are located between HD signal pixels adjacent in the vertical direction of each field. More specifically, when the distance between the pixels of the HD signal adjacent in the vertical direction is d, for example, at a position where the distance between the upper HD signal pixel and the SD signal is 1/4 × d. The pixel of the SD signal is located.

図3(b)は、画像の水平方向における各画素の位置関係の一例を示す図である。図3(b)の画像は、第1フィールドおよび第2フィールドにより構成される1つのフレームである。図3(b)において縦軸は、画像の垂直方向の座標であり、横軸は、画像の水平方向の座標である。図3(b)に例示するように、フレームの水平方向において、隣り合うHD信号の画素間の中間にSD信号の画素が配置される。   FIG. 3B is a diagram illustrating an example of the positional relationship of each pixel in the horizontal direction of the image. The image in FIG. 3B is one frame configured by the first field and the second field. In FIG. 3B, the vertical axis is the vertical coordinate of the image, and the horizontal axis is the horizontal coordinate of the image. As illustrated in FIG. 3B, in the horizontal direction of the frame, an SD signal pixel is arranged in the middle between adjacent HD signal pixels.

図4は、第1の実施の形態における予測タップおよびクラスタップの一例である。図4において、円形のマークはSD信号における画素であり、菱形のマークは、HD信号における画素である。また、網掛けのマークは、第1フィールドにおける画素であり、白抜きのマークは、第2フィールドにおける画素である。第1フィールドおよび第2フィールドは、時間軸において隣り合うフィールドであり、これらのフィールドにより1フレームの画像が構成される。   FIG. 4 is an example of a prediction tap and a class tap in the first embodiment. In FIG. 4, a circular mark is a pixel in the SD signal, and a diamond mark is a pixel in the HD signal. A shaded mark is a pixel in the first field, and a white mark is a pixel in the second field. The first field and the second field are adjacent fields on the time axis, and an image of one frame is constituted by these fields.

さらに図4において左側の第1フィールドにおける×印は、注目画素の位置を示す。注目画素は、クラスタップおよび予測タップにおいて基準となる画素である。例えば、クラスタップおよび予測タップの中心にする画素が注目画素とされる。右側の第2フィールドにおける×印は、注目画素に対応する位置、すなわち、注目画像の座標と同じ座標を示す。ここで、前述したように第1フィールドおよび第2フィールドは1つのフレームを構成するフィールドであるため、画素が配置されるラインが各フィールドで異なる。例えば、第1フィールドにおいて奇数ラインに画素が配置される場合、第2フィールドにおいて偶数ラインに画素が配置される。このため、第2フィールドにおける×印を含むラインは、画素が配置されるラインではなく、実際には、第2フィールドの×印の位置に画素が配置されない。   Further, in FIG. 4, the crosses in the left first field indicate the position of the target pixel. The target pixel is a pixel serving as a reference in the class tap and the prediction tap. For example, the pixel at the center of the class tap and the prediction tap is set as the target pixel. The crosses in the second field on the right side indicate positions corresponding to the target pixel, that is, the same coordinates as the coordinates of the target image. Here, as described above, since the first field and the second field are fields constituting one frame, lines on which pixels are arranged are different in each field. For example, when pixels are arranged on odd lines in the first field, pixels are arranged on even lines in the second field. For this reason, the line including the x mark in the second field is not a line where the pixel is arranged, and actually, no pixel is arranged at the position of the x mark in the second field.

図4(a)は、抽出される予測タップの一例を示す図である。例えば、13個の画素p1乃至p13が、予測タップとして抽出される。画素p4は、注目画素である。画素p1およびp7は、画素p4の上下に位置する画素である。画素p3は、画素p4の左隣に位置する画素であり、画素p5は、画素p4の右隣に位置する画素である。画素p2は、画素p3の左隣に位置する画素であり、画素p6は、画素p5の右隣に位置する画素である。画素p8およびp9は、右側の第2フィールドにおける注目画素に対応する位置の上下に位置する画素である。画素p10およびp11は、画素p8の左右に位置する画素であり、画素p12およびp13は、画素p9の左右に位置する画素である。   FIG. 4A is a diagram illustrating an example of the extracted prediction tap. For example, 13 pixels p1 to p13 are extracted as prediction taps. The pixel p4 is a target pixel. Pixels p1 and p7 are pixels located above and below the pixel p4. The pixel p3 is a pixel located on the left side of the pixel p4, and the pixel p5 is a pixel located on the right side of the pixel p4. The pixel p2 is a pixel located on the left side of the pixel p3, and the pixel p6 is a pixel located on the right side of the pixel p5. Pixels p8 and p9 are pixels located above and below the position corresponding to the target pixel in the second field on the right side. The pixels p10 and p11 are pixels located on the left and right of the pixel p8, and the pixels p12 and p13 are pixels located on the left and right of the pixel p9.

図4(b)は、抽出されるクラスタップの一例を示す図である。例えば、9個の画素p1乃至p9が、予測タップとして抽出される。クラスタップにおける画素p1乃至p9は、予測タップにおける画素p1乃至p9と同一座標の画素である。   FIG. 4B is a diagram illustrating an example of extracted class taps. For example, nine pixels p1 to p9 are extracted as prediction taps. The pixels p1 to p9 in the class tap are pixels having the same coordinates as the pixels p1 to p9 in the prediction tap.

図5は、第1の実施の形態における判別係数選択部130の一構成例を示すブロック図である。判別係数選択部130は、判別係数記憶部131と、N個の予測タップ種別に対応づけられたN個の判別係数読出部133とを備える。   FIG. 5 is a block diagram illustrating a configuration example of the discrimination coefficient selection unit 130 according to the first embodiment. The discrimination coefficient selection unit 130 includes a discrimination coefficient storage unit 131 and N discrimination coefficient reading units 133 that are associated with N prediction tap types.

判別係数記憶部131は、複数のクラスとN個の予測タップ種別との各組合せに対応付けて複数の判別係数群を記憶するものである。判別係数記憶部131は、N個の判別係数読出部133に対応するN個の判別係数メモリ132を備える。N個の判別係数メモリ132は、クラスごとに判別係数群を記憶するものである。   The discrimination coefficient storage unit 131 stores a plurality of discrimination coefficient groups in association with combinations of a plurality of classes and N prediction tap types. The discrimination coefficient storage unit 131 includes N discrimination coefficient memories 132 corresponding to the N discrimination coefficient reading units 133. The N discrimination coefficient memories 132 store discrimination coefficient groups for each class.

判別係数読出部133は、クラスコードに対応する判別係数群を読み出すものである。N個の判別係数読出部133は、それぞれクラス分類部120からクラスコードを受け取る。そして、N個の判別係数読出部133のそれぞれは、対応する判別係数メモリ132から、クラスコードの示すクラスに対応する判別係数群を読み出す。この結果、N個の判別係数群が読み出される。N個の判別係数読出部133のそれぞれは、これらの判別係数群を判別演算部140へ信号線139を介して出力する。   The discrimination coefficient reading unit 133 reads a discrimination coefficient group corresponding to the class code. Each of the N discrimination coefficient reading units 133 receives the class code from the class classification unit 120. Each of the N discrimination coefficient reading units 133 reads out a discrimination coefficient group corresponding to the class indicated by the class code from the corresponding discrimination coefficient memory 132. As a result, N discrimination coefficient groups are read out. Each of the N discrimination coefficient reading units 133 outputs these discrimination coefficient groups to the discrimination calculation unit 140 via the signal line 139.

図6は、判別係数記憶部131に記憶される判別係数群の一例を示す図である。N個の判別係数メモリ132は、N個の予測タップ種別に、それぞれ1対1に対応付けられる。予測タップ種別は、予測係数の学習時に、予測タップが抽出された画像の圧縮率で分類されたものとする。例えば、判別係数メモリ#1は、圧縮率が最も高い画像から抽出された各予測タップが属する予測タップ種別に対応付けられ、以下、圧縮率の高い順に、判別係数メモリ#2乃至#Nに各予測タップ種別が対応付けられる。各判別係数メモリにおいて、クラスコード「000000000」乃至「111111111」の512個の各クラスに対応付けて判別係数v乃至v13からなる判別係数群が保存される。 FIG. 6 is a diagram illustrating an example of a discrimination coefficient group stored in the discrimination coefficient storage unit 131. The N discriminant coefficient memories 132 are associated with the N prediction tap types on a one-to-one basis. The prediction tap type is classified according to the compression rate of the image from which the prediction tap is extracted when learning the prediction coefficient. For example, the discrimination coefficient memory # 1 is associated with the prediction tap type to which each prediction tap extracted from the image with the highest compression rate belongs, and each of the discrimination coefficient memories # 2 to #N is assigned in descending order of the compression rate. The prediction tap type is associated. In each discrimination coefficient memory, a discrimination coefficient group including discrimination coefficients v 1 to v 13 is stored in association with 512 classes of class codes “000000000000” to “111111111”.

図7は、第1の実施の形態における判別演算部140の一構成例を示すブロック図である。判別係数演算部は、N個の判別演算器142、N個の閾値処理部143、候補判定結果列生成部144、および、予測タップ種別決定部146を備える。N個の判別演算器142は、N個の判別係数読出部133に1対1に対応付けられ、N個の判別演算器142は、N個の閾値処理部143に1対1に対応付けられている。   FIG. 7 is a block diagram illustrating a configuration example of the discrimination calculation unit 140 according to the first embodiment. The discrimination coefficient calculation unit includes N discrimination calculators 142, N threshold processing units 143, candidate determination result string generation units 144, and prediction tap type determination units 146. The N discriminant calculators 142 are associated with the N discriminant coefficient reading units 133 on a one-to-one basis, and the N discriminant calculators 142 are associated with the N threshold processing units 143 on a one-to-one basis. ing.

N個の判別演算器142のそれぞれは、対応付けられた予測タップ種別に予測タップが属するか否かを判別するための判別演算を実行するものである。N個の判別演算器142のそれぞれには、タップ抽出部110により抽出された予測タップ内の各画素の画素値と、対応する判別係数読出部133からの判別係数群とが入力される。N個の判別演算器142のそれぞれは、これらの値を使用して判別演算を実行する。この判別演算は、例えば、線形一次結合式である次式により実行される。

Figure 2012248994
Each of the N discrimination calculators 142 executes a discrimination calculation for determining whether or not a prediction tap belongs to the associated prediction tap type. Each of the N discrimination calculators 142 receives the pixel value of each pixel in the prediction tap extracted by the tap extraction unit 110 and the discrimination coefficient group from the corresponding discrimination coefficient reading unit 133. Each of the N discriminating calculators 142 uses these values to execute a discriminant calculation. This discrimination operation is executed by the following equation which is a linear linear combination equation, for example.
Figure 2012248994

上式においてv(nは1乃至13の整数)は、判別係数群内の各判別係数である。xは、予測タップ内の各画素の画素値である。判別演算器142は、判別演算の結果であるYを、対応する閾値処理部143へ出力する。 In the above equation, v n (n is an integer of 1 to 13) is each discrimination coefficient in the discrimination coefficient group. xn is a pixel value of each pixel in the prediction tap. The discrimination calculator 142 outputs Y, which is the result of the discrimination calculation, to the corresponding threshold value processing unit 143.

N個の閾値処理部143のそれぞれは、判別演算の結果を閾値と比較するものである。N個の閾値処理部143のそれぞれは、所定の同一の閾値を、対応する判別演算器142からの演算結果と比較する。閾値の設定例については、後述する。比較した結果は、閾値処理部143に対応する予測タップ種別に予測タップが属しうるか否かを示す。属しうる場合は、その予測タップ種別は、最終的に1つに決定すべき予測タップ種別の候補とされる。この比較結果を、以下、候補判定結果と称する。例えば、演算結果が閾値以上である場合は、対応する予測タップ種別に予測タップが属する可能性が高いため、その予測タップ種別は候補に該当する。これに対して、演算結果が閾値未満である場合は、対応する予測タップ種別に予測タップが属する可能性は低いため、その予測タップ種別は候補に該当しない。N個の閾値処理部143のそれぞれは、対応する予測タップ種別についての候補判定結果を示すビットを生成する。例えば、N個の閾値処理部143のそれぞれは、演算結果が閾値以上である(すなわち、候補に該当する)場合には「1」を示すビットを生成し、演算結果が閾値未満である(すなわち、候補に該当しない)場合には「0」を示すビットを生成する。N個の閾値処理部143のそれぞれは、生成した1ビットを候補判定結果列生成部144へ出力する。   Each of the N threshold value processing units 143 compares the result of the discrimination operation with a threshold value. Each of the N threshold value processing units 143 compares a predetermined same threshold value with the calculation result from the corresponding discrimination calculator 142. An example of setting the threshold will be described later. The comparison result indicates whether or not the prediction tap can belong to the prediction tap type corresponding to the threshold processing unit 143. If it can belong, the prediction tap type is a candidate for the prediction tap type to be finally determined as one. This comparison result is hereinafter referred to as a candidate determination result. For example, when the calculation result is equal to or greater than the threshold value, there is a high possibility that the prediction tap belongs to the corresponding prediction tap type, and the prediction tap type corresponds to a candidate. On the other hand, when the calculation result is less than the threshold value, it is unlikely that the prediction tap belongs to the corresponding prediction tap type, so the prediction tap type does not correspond to a candidate. Each of the N threshold processing units 143 generates a bit indicating a candidate determination result for the corresponding prediction tap type. For example, each of the N threshold processing units 143 generates a bit indicating “1” when the calculation result is equal to or greater than the threshold (that is, corresponds to a candidate), and the calculation result is less than the threshold (that is, , A bit indicating “0” is generated. Each of the N threshold processing units 143 outputs the generated 1 bit to the candidate determination result sequence generation unit 144.

候補判定結果列生成部144は、閾値処理部143からのN個の候補判定結果から候補判定結果列を生成するものである。候補判定結果列は、N個の候補判定結果を示すNビットを所定の順番で並べたビット列である。候補判定結果列生成部144は、予測係数群の抽出元の画像の画像種別に基づいて各候補判定結果を並べる。例えば、各画像の圧縮率に応じて各予測タップが複数の予測タップ種別に分類されている場合、候補判定結果列生成部144は、圧縮率の高い順に、各候補判定結果を並べる。候補判定結果列生成部144は、生成した候補判定結果列を予測タップ種別決定部146に出力する。   The candidate determination result sequence generation unit 144 generates a candidate determination result sequence from the N candidate determination results from the threshold processing unit 143. The candidate determination result sequence is a bit sequence in which N bits indicating N candidate determination results are arranged in a predetermined order. The candidate determination result sequence generation unit 144 arranges the candidate determination results based on the image type of the image from which the prediction coefficient group is extracted. For example, when each prediction tap is classified into a plurality of prediction tap types according to the compression rate of each image, the candidate determination result sequence generation unit 144 arranges the candidate determination results in descending order of the compression rate. The candidate determination result sequence generation unit 144 outputs the generated candidate determination result sequence to the prediction tap type determination unit 146.

予測タップ種別決定部146は、候補判定結果列に基づいて予測タップ種別が属する予測タップ種別を決定するものである。詳細には、予測タップ種別決定部146は、候補判定結果列の示す、予測タップ種別の候補の中から、1つの予測タップ種別を選択する。N個の予測タップ種別には、予め優先度が設定される。複数の予測タップ種別が候補となった場合、予測タップ種別決定部146は、優先度の最も高い予測タップ種別を選択する。例えば、予測タップの抽出元の画像の圧縮率が高いほど、その画像に係る予測タップ種別の優先度が高く設定される。圧縮率の高い順に候補判定結果が並べられた場合は、先頭から順に高い優先度が設定される。予測タップ種別決定部146は、選択した予測タップ種別を示す種別コードを予測係数選択部150に信号線149を介して出力する。   The prediction tap type determination unit 146 determines the prediction tap type to which the prediction tap type belongs based on the candidate determination result sequence. Specifically, the prediction tap type determination unit 146 selects one prediction tap type from the prediction tap type candidates indicated by the candidate determination result sequence. Priorities are set in advance for the N prediction tap types. When a plurality of prediction tap types become candidates, the prediction tap type determination unit 146 selects the prediction tap type with the highest priority. For example, the higher the compression rate of the image from which the prediction tap is extracted, the higher the priority of the prediction tap type related to that image. When candidate determination results are arranged in descending order of compression rate, higher priority is set in order from the top. The prediction tap type determination unit 146 outputs a type code indicating the selected prediction tap type to the prediction coefficient selection unit 150 via the signal line 149.

図8は、第1の実施の形態における予測係数選択部150の一構成例を示すブロック図である。予測係数選択部150は、予測係数記憶部151と、N個の予測係数読出部153と、セレクタ154とを備える。   FIG. 8 is a block diagram illustrating a configuration example of the prediction coefficient selection unit 150 according to the first embodiment. The prediction coefficient selection unit 150 includes a prediction coefficient storage unit 151, N prediction coefficient reading units 153, and a selector 154.

予測係数記憶部151は、複数のクラスおよびN個の予測タップ種別の各組合せに対応付けて複数の予測係数群を記憶するものである。予測係数記憶部151は、N個の予測係数メモリ152を備える。N個の予測係数メモリ152には、N個の予測タップ種別が割り当てられる。N個の予測係数メモリ152のそれぞれは、割り当てられた予測タップ種別に対応する予測係数群をクラスごとに記憶するものである。   The prediction coefficient storage unit 151 stores a plurality of prediction coefficient groups in association with combinations of a plurality of classes and N prediction tap types. The prediction coefficient storage unit 151 includes N prediction coefficient memories 152. N prediction tap types are assigned to the N prediction coefficient memories 152. Each of the N prediction coefficient memories 152 stores a prediction coefficient group corresponding to the assigned prediction tap type for each class.

予測係数読出部153は、クラスコードの示すクラスに対応する予測係数群を読み出すものである。N個の予測係数読出部153は、N個の予測係数メモリ152に対応付けられる。N個の予測係数読出部153のそれぞれは、クラス分類部120からクラスコードを受け取る。N個の予測係数読出部153のそれぞれは、対応する予測係数メモリ152から、クラスコードの示すクラスに対応する予測係数群を読み出す。N個の予測係数読出部153のそれぞれは、読み出した予測係数群をセレクタ154へ出力する。   The prediction coefficient reading unit 153 reads a prediction coefficient group corresponding to the class indicated by the class code. The N prediction coefficient reading units 153 are associated with the N prediction coefficient memories 152. Each of the N prediction coefficient reading units 153 receives a class code from the class classification unit 120. Each of the N prediction coefficient reading units 153 reads a prediction coefficient group corresponding to the class indicated by the class code from the corresponding prediction coefficient memory 152. Each of the N prediction coefficient reading units 153 outputs the read prediction coefficient group to the selector 154.

セレクタ154は、N個の予測係数群の中から、種別コードの示す予測タップ種別に対応する予測係数群を選択するものである。詳細には、セレクタ154は、N個の予測係数読出部153からN個の予測係数群を受け取り、判別演算部140から種別コードを受け取る。セレクタ154は、N個の予測係数群の中から、種別コードの示す予測タップ種別に対応する予測係数群を選択する。セレクタ154は、選択した予測係数群を予測演算部160に信号線159を介して出力する。   The selector 154 selects a prediction coefficient group corresponding to the prediction tap type indicated by the type code from the N prediction coefficient groups. Specifically, the selector 154 receives N prediction coefficient groups from the N prediction coefficient reading units 153 and receives a type code from the discrimination calculation unit 140. The selector 154 selects a prediction coefficient group corresponding to the prediction tap type indicated by the type code from the N prediction coefficient groups. The selector 154 outputs the selected prediction coefficient group to the prediction calculation unit 160 via the signal line 159.

図9は、予測係数記憶部151に記憶される予測係数群の一例を示す図である。N個の予測係数メモリ152には、それぞれ、N個の予測タップ種別に対応する予測係数群がクラス数の分、記憶される。例えば、予測係数メモリ#1には、最も高圧縮の画像における各予測タップが属する予測タップ種別に対応する予測係数群が記憶され、画像の圧縮率の高い順に、予測係数メモリ#2乃至#Nに、N個の予測タップ種別のそれぞれに対応する予測係数群が記憶される。N個の予測係数メモリのそれぞれにおいて、クラスコード「000000000」乃至「111111111」の512個の各クラスに対応付けて予測係数群が保存される。それぞれの予測係数群は、予測タップ内の画素数と同数の予測係数からなるセットを予測すべき画素値の数だけ含む。例えば、予測タップ内の画素数が13個で、左上、左下、右上、および、右下の位置の4つの画素の各画素値を予測する場合、それぞれの予測係数群は、13個の予測係数からなるセットを4つ含む。   FIG. 9 is a diagram illustrating an example of a prediction coefficient group stored in the prediction coefficient storage unit 151. Each of the N prediction coefficient memories 152 stores prediction coefficient groups corresponding to N prediction tap types for the number of classes. For example, the prediction coefficient memory # 1 stores a prediction coefficient group corresponding to the prediction tap type to which each prediction tap in the highest compression image belongs, and the prediction coefficient memories # 2 to #N are arranged in descending order of the image compression rate. In addition, a prediction coefficient group corresponding to each of the N prediction tap types is stored. In each of the N prediction coefficient memories, a prediction coefficient group is stored in association with each of 512 classes of class codes “000000000000” to “111111111”. Each prediction coefficient group includes a set of prediction coefficients of the same number as the number of pixels in the prediction tap, as many as the number of pixel values to be predicted. For example, when the number of pixels in the prediction tap is 13, and each pixel value of four pixels at the upper left, lower left, upper right, and lower right positions is predicted, each prediction coefficient group includes 13 prediction coefficients. Contains four sets of

[判別係数学習装置の構成例]
図10は、第1の実施の形態における判別係数学習装置200の一構成例を示すブロック図である。判別係数学習装置200は、フィルタ部210、目標値供給部220、タップ抽出部230、クラス分類部240、および、判別係数演算部250を備える。
[Configuration example of discrimination coefficient learning device]
FIG. 10 is a block diagram illustrating a configuration example of the discrimination coefficient learning device 200 according to the first embodiment. The discrimination coefficient learning device 200 includes a filter unit 210, a target value supply unit 220, a tap extraction unit 230, a class classification unit 240, and a discrimination coefficient calculation unit 250.

フィルタ部210は、教師画像として入力された高解像度画像信号から、N個の異なる生徒画像を生成するものである。教師画像は、生徒画像を生成するために使用される画像である。生徒画像は、判別係数や予測係数を学習するために使用される画像である。フィルタ部210には、教師画像として入力された高解像度画像信号が入力される。フィルタ部210は、この教師画像を、解像度を変更するN個のフィルタに通過させることにより、N枚の異なる生徒画像を生成する。これらの生徒画像は、例えば、解像度が同一で圧縮率が互いに異なる画像である。フィルタ部210は、N枚の生徒画像からなる生徒画像群として低解像度画像信号をタップ抽出部230に信号線219を介してN回、出力する。   The filter unit 210 generates N different student images from a high-resolution image signal input as a teacher image. The teacher image is an image used for generating a student image. The student image is an image used for learning a discrimination coefficient and a prediction coefficient. A high resolution image signal input as a teacher image is input to the filter unit 210. The filter unit 210 generates N different student images by passing the teacher image through N filters that change the resolution. These student images are, for example, images having the same resolution and different compression rates. The filter unit 210 outputs a low-resolution image signal as a student image group including N student images to the tap extraction unit 230 N times via the signal line 219.

目標値供給部220は、判別画像指定信号に従って、目標値Yを供給するものである。判別画像指定信号は、N枚の生徒画像のうちのいずれかを判別対象の生徒画像として指定するための信号である。判別対象の生徒画像とは、画像の変換において、入力された画像に類似する画像であると判別されるべき画像である。目標値Yは、上記式2の判別演算の結果の目標値として設定される値である。目標値供給部220には、判別画像指定信号がN回入力され、それぞれの判別画像指定信号において異なる生徒画像が判別対象として指定される。N枚の生徒画像において判別対象の指定の順番は任意であり、ユーザなどにより設定される。判別画像指定信号が入力されると、目標値供給部220は、各生徒画像に与える目標値Yを生成する。判別対象の生徒画像と、それ以外の生徒画像とに対しては、異なる目標値Yが生成される。目標値Yのうち、判別対象の生徒画像に対する目標値をY1とし、それ以外の目標値をY2とする。例えば、目標値供給部220は、判別対象の生徒画像に対してY1として「1」を生成し、それ以外の生徒画像に対してY2として「0」を生成する。目標値供給部220は、生成した目標値Yを判別係数演算部250に信号線221を介して出力する。   The target value supply unit 220 supplies the target value Y according to the discrimination image designation signal. The discrimination image designation signal is a signal for designating one of N student images as a discrimination target student image. A student image to be determined is an image that should be determined to be an image similar to an input image in image conversion. The target value Y is a value that is set as a target value as a result of the discrimination calculation of Equation 2 above. A discrimination image designation signal is input N times to the target value supply unit 220, and a different student image is designated as a discrimination target in each discrimination image designation signal. The order of specifying the discrimination target in the N student images is arbitrary and is set by the user or the like. When the discrimination image designation signal is input, the target value supply unit 220 generates a target value Y to be given to each student image. Different target values Y are generated for the determination target student image and the other student images. Of the target values Y, the target value for the student image to be determined is Y1, and the other target values are Y2. For example, the target value supply unit 220 generates “1” as Y1 for the student image to be discriminated, and generates “0” as Y2 for the other student images. The target value supply unit 220 outputs the generated target value Y to the discrimination coefficient calculation unit 250 via the signal line 221.

タップ抽出部230の構成は、画像情報変換装置100におけるタップ抽出部110と同様の構成である。タップ抽出部230は、低解像度画像信号からクラスタップおよび予測タップを抽出する。タップ抽出部230は、抽出したクラスタップ内の各画素値をクラス分類部240に信号線238を介して出力し、抽出した予測タップ内の各画素値を判別係数演算部250に信号線239を介して出力する。   The configuration of the tap extraction unit 230 is the same as that of the tap extraction unit 110 in the image information conversion apparatus 100. The tap extraction unit 230 extracts a class tap and a prediction tap from the low resolution image signal. The tap extraction unit 230 outputs each pixel value in the extracted class tap to the class classification unit 240 via the signal line 238, and outputs each pixel value in the extracted prediction tap to the discrimination coefficient calculation unit 250 using the signal line 239. Output via.

クラス分類部240の構成は、画像情報変換装置100におけるクラス分類部120と同様の構成である。クラス分類部240は、抽出されたクラスタップを分類したクラスを示すクラスコードを判別係数演算部250に信号線249を介して出力する。   The configuration of the class classification unit 240 is the same as that of the class classification unit 120 in the image information conversion apparatus 100. The class classification unit 240 outputs a class code indicating the class into which the extracted class taps are classified to the discrimination coefficient calculation unit 250 via the signal line 249.

判別係数演算部250は、判別係数を演算するものである。判別係数演算部250には、目標値供給部220からの目標値Yと、タップ抽出部230からの予測タップ内の各画素値と、クラス分類部240からのクラスコードとが入力される。判別係数演算部250は、目標値Yと予測タップ内の各画素値とから、クラスコードの示すクラスごとに判別係数群を演算する。判別係数演算部250は、演算した判別係数群を、判別対象の生徒画像に対応する判別係数群として出力する。   The discrimination coefficient calculation unit 250 calculates a discrimination coefficient. The discrimination coefficient calculation unit 250 receives the target value Y from the target value supply unit 220, each pixel value in the prediction tap from the tap extraction unit 230, and the class code from the class classification unit 240. The discrimination coefficient calculation unit 250 calculates a discrimination coefficient group for each class indicated by the class code from the target value Y and each pixel value in the prediction tap. The discrimination coefficient calculation unit 250 outputs the calculated discrimination coefficient group as a discrimination coefficient group corresponding to the student image to be discriminated.

ここで、タップ抽出部230は、正御画像群内のN枚の生徒画像のそれぞれにおいて、生徒画像内の画素数と同数の予測タップを抽出している。例えば、生徒画像の解像度が720×480画素である場合、N枚の生徒画像から720×480×N個の予測タップが抽出される。一方、クラス分類部240は、これらの予測タップの抽出と同期して、予測タップと注目画素が同一のクラスタップが属するクラスを示すクラスコードを求める。判別係数演算部250は、タップ抽出部230およびクラス分類部240から、予測タップ内の各画素値と、その予測タップが属するクラスとを受け取る。クラスコードが同一の各予測タップを以下、そのクラスの「サンプル」と称する。例えば、720×480×N個の予測タップのうち、クラスコード「000000000」に対応する予測タップが100個抽出された場合、それら100個の予測タップは、そのクラスコードの示すクラスのサンプルとされる。判別係数演算部250は、それぞれのサンプル内の画素値について、上記式2の判別演算を行った各演算結果Y'と、目標値Y(Y1またはY2)との差分の二乗和が最小になる判別係数群をクラスごとに演算する。kは、1以上の整数であり、各サンプルに割り当てられる番号である。例えば、判別係数演算部250は、後述する正規方程式を生成して、その正規方程式を解くことにより判別係数群を求める。 Here, the tap extraction unit 230 extracts the same number of prediction taps as the number of pixels in the student image in each of the N student images in the correct image group. For example, when the resolution of a student image is 720 × 480 pixels, 720 × 480 × N prediction taps are extracted from N student images. On the other hand, the class classification unit 240 obtains a class code indicating a class to which a class tap having the same pixel of interest as the prediction tap belongs in synchronization with the extraction of the prediction tap. The discrimination coefficient calculation unit 250 receives each pixel value in the prediction tap and the class to which the prediction tap belongs from the tap extraction unit 230 and the class classification unit 240. Each prediction tap having the same class code is hereinafter referred to as a “sample” of the class. For example, when 100 prediction taps corresponding to the class code “000000000000” are extracted from 720 × 480 × N prediction taps, the 100 prediction taps are samples of the class indicated by the class code. The The discrimination coefficient calculation unit 250 minimizes the sum of squares of the difference between each calculation result Y k ′ obtained by performing the discrimination calculation of the above equation 2 and the target value Y (Y1 or Y2) for each pixel value in each sample. Are calculated for each class. k is an integer of 1 or more, and is a number assigned to each sample. For example, the discrimination coefficient calculation unit 250 generates a normal equation, which will be described later, and obtains a discrimination coefficient group by solving the normal equation.

正規方程式の導出方法について説明する。第k個目のサンプルにおける差分eは、次式により求められる。

Figure 2012248994
A method for deriving a normal equation will be described. The difference ek in the kth sample is obtained by the following equation.
Figure 2012248994

上式の演算結果Y'は、上記式2により求められる。xを第kサンプル内の各画素値をxn_kで置き換えた上記式2を上記式3に代入すると、次式が得られる。

Figure 2012248994
The calculation result Y k ′ of the above equation is obtained by the above equation 2. When the equation 2 a x n pixel values in the k-th sample is replaced by x n_k be substituted into the above equation 3, the following equation is obtained.
Figure 2012248994

最小二乗法において、最適な判別係数群は、次式で表わされる二乗和Eを最小にすることで求められる。

Figure 2012248994
In the least square method, an optimum discrimination coefficient group is obtained by minimizing the sum of squares E expressed by the following equation.
Figure 2012248994

上式において、Kは、統計対象のクラスに属するサンプルの総数である。二乗和Eを最小にする判別係数の値は、その判別係数による二乗和Eの偏微分が0になるときの値である。下記式6は、二乗和Eを判別係数v乃至v13のそれぞれで偏微分したものである。

Figure 2012248994
In the above equation, K is the total number of samples belonging to the class to be statistics. The value of the discrimination coefficient that minimizes the square sum E is a value when the partial differentiation of the square sum E by the discrimination coefficient becomes zero. Expression 6 below is obtained by partial differentiation of the sum of squares E with each of the discrimination coefficients v 1 to v 13 .
Figure 2012248994

上式を満たす判別係数群が最適な判別係数群である。上式から次式が得られる。

Figure 2012248994
A discrimination coefficient group satisfying the above equation is an optimum discrimination coefficient group. From the above equation, the following equation is obtained.
Figure 2012248994

ここで、上記式4を判別係数v乃至v13のそれぞれで偏微分すると、次式が得られる。

Figure 2012248994
Here, when the above equation 4 is partially differentiated by the discrimination coefficients v 1 to v 13 , the following equation is obtained.
Figure 2012248994

上記式7に上記式8を代入することにより、次式が得られる。

Figure 2012248994
By substituting the above equation 8 into the above equation 7, the following equation is obtained.
Figure 2012248994

そして、上記式9のeに上記式4を代入することにより、次式が得られる。

Figure 2012248994
Then, by substituting the above equation 4 to e k of the above equation 9, the following equation is obtained.
Figure 2012248994

上式を変形することにより、次式が得られる。

Figure 2012248994
By transforming the above equation, the following equation is obtained.
Figure 2012248994

上式は、行列を用いて、正規方程式である次式で表される。

Figure 2012248994
The above equation is expressed by the following equation, which is a normal equation, using a matrix.
Figure 2012248994

上式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、それぞれの判別係数について解くことができる。これにより、判別演算の結果と目標値との間の差分が最小となる判別係数が求められる。   The above equation can be solved for each discrimination coefficient by using, for example, a sweep-out method (Gauss-Jordan elimination method). As a result, a discrimination coefficient that minimizes the difference between the result of the discrimination calculation and the target value is obtained.

前述したように、判別対象の生徒画像に目標値Y1が与えられ、それ以外の生徒画像には、目標値Y2が与えられる。このため、画像情報変換装置100が、入力された画像に対して判別係数群を使用して判別演算を行うと、判別演算の結果は、その画像が判別対象の生徒画像と類似する場合にY1に近い値となり、判別対象の生徒画像と類似しない場合にY2に近い値となる。したがって、閾値をこれらの目標値Y1およびY2の間の値とし、この閾値と判別結果とを比較することにより、画像情報変換装置100は、入力された画像が、判別対象の生徒画像と類似するか否かを判別することができる。判別対象の生徒画像に目標値「1」が与えられ、それ以外の生徒画像に目標値「0」が与えられた場合において、閾値は、それらの間の値の「0.5」などに設定される。画像情報変換装置100は、判別結果が閾値以上であるか否かにより、入力された画像が判別対象の生徒画像と類似の画像であるか否かを判別することができる。   As described above, the target value Y1 is given to the student image to be discriminated, and the target value Y2 is given to the other student images. For this reason, when the image information conversion apparatus 100 performs the discrimination calculation on the input image using the discrimination coefficient group, the result of the discrimination calculation is Y1 when the image is similar to the student image to be discriminated. The value is close to Y2 and is close to Y2 when it is not similar to the student image to be determined. Therefore, by setting the threshold value to a value between these target values Y1 and Y2, and comparing this threshold value with the discrimination result, the image information conversion apparatus 100 allows the input image to be similar to the student image to be discriminated. It can be determined whether or not. When the target value “1” is given to the student image to be discriminated and the target value “0” is given to the other student images, the threshold is set to a value “0.5” between them. Is done. The image information conversion apparatus 100 can determine whether the input image is similar to the student image to be determined based on whether the determination result is equal to or greater than a threshold value.

なお、フィルタ部210は、特許請求の範囲に記載の生徒画像入力部の一例である。目標値供給部220は、特許請求の範囲に記載の目標値生成部の一例である。   The filter unit 210 is an example of a student image input unit described in the claims. The target value supply unit 220 is an example of a target value generation unit described in the claims.

図11は、第1の実施の形態における判別係数学習装置のフィルタ部210の一構成例を示すブロック図である。フィルタ部210は、N枚の2次元フィルタ211と、生徒画像記憶部212と、生徒画像供給部213とを備える。   FIG. 11 is a block diagram illustrating a configuration example of the filter unit 210 of the discrimination coefficient learning device according to the first embodiment. The filter unit 210 includes N two-dimensional filters 211, a student image storage unit 212, and a student image supply unit 213.

2次元フィルタ211は、教師画像の解像度を変更して生徒画像を生成するものである。N枚の2次元フィルタ211には、同一の教師画像が入力される。N枚の2次元フィルタ211は、教師画像の解像度を変更するとともに、それぞれ異なる画像処理を行って、異なるN枚の生徒画像を生成する。例えば、N枚の2次元フィルタ211は、圧縮率の異なるN枚の生徒画像を生成する。N枚の生徒画像は、生徒画像記憶部212に保存される。   The two-dimensional filter 211 generates a student image by changing the resolution of the teacher image. The same two teacher images are input to the N two-dimensional filters 211. The N two-dimensional filters 211 change the resolution of the teacher image and perform different image processing to generate different N student images. For example, the N two-dimensional filters 211 generate N student images with different compression rates. N student images are stored in the student image storage unit 212.

生徒画像記憶部212は、N枚の生徒画像からなる生徒画像群を記憶するものである。生徒画像供給部213は、生徒画像記憶部212から生徒画像群を読み出してタップ抽出部230に供給するものである。生徒画像供給部213は、生徒画像群の供給をN回実行する。   The student image storage unit 212 stores a student image group including N student images. The student image supply unit 213 reads a student image group from the student image storage unit 212 and supplies it to the tap extraction unit 230. The student image supply unit 213 executes the supply of the student image group N times.

なお、2次元フィルタ211は、特許請求の範囲に記載のフィルタの一例である。   The two-dimensional filter 211 is an example of a filter described in the claims.

図12は、第1の実施の形態における判別係数の学習方法の一例を示す図である。図12に例示するように全学習においてN行N列の生徒画像が生成される。各行の生徒画像は、N回の学習のそれぞれにおいて生成される生徒画像群内の生徒画像である。各行において、生徒画像は圧縮率の順に配列されている。各列の生徒画像は、N回の学習のそれぞれにおいて、同じ2次元フィルタから生成された生徒画像である。網掛けの生徒画像は、判別対象の生徒画像である。例えば、1回目の学習においては、2次元フィルタ#1から生成された生徒画像#1−1が判別対象として指定される。この場合、1回目に生成された生徒画像#1−1乃至#N−1のうち、生徒画像#1−1に目標値Y1が設定され、生徒画像#1−2乃至1−Nに目標値Y2が設定される。2回目の学習においては、生徒画像#2−2が判別対象として指定される。この場合、2回目に生成された生徒画像#2−1乃至#N−2のうち、生徒画像#2−2に目標値Y1が設定され、生徒画像2−1と生徒画像#2−3乃至2−Nに目標値Y2が設定される。このようにして、N回学習が行われ、N枚の生徒画像のそれぞれについて判別係数が学習される。   FIG. 12 is a diagram illustrating an example of a discrimination coefficient learning method according to the first embodiment. As illustrated in FIG. 12, a student image of N rows and N columns is generated in all learning. The student image in each row is a student image in a student image group generated in each of N times of learning. In each row, the student images are arranged in order of compression rate. The student images in each column are student images generated from the same two-dimensional filter in each of N times of learning. The shaded student image is a student image to be determined. For example, in the first learning, the student image # 1-1 generated from the two-dimensional filter # 1 is designated as a discrimination target. In this case, among the student images # 1-1 to # N-1 generated for the first time, the target value Y1 is set to the student image # 1-1, and the target value is set to the student images # 1-2 to 1-N. Y2 is set. In the second learning, student image # 2-2 is designated as a discrimination target. In this case, among the student images # 2-1 to # N-2 generated for the second time, the target value Y1 is set to the student image # 2-2, and the student image 2-1 and the student images # 2-3 to The target value Y2 is set to 2-N. In this way, learning is performed N times, and the discrimination coefficient is learned for each of the N student images.

図13は、第1の実施の形態における目標値の設定例を示す図である。生徒画像#1が判別対象に指定された場合、生徒画像#1に対して「1」の目標値Y1が設定され、それ以外の生徒画像に対して「0」の目標値Y2が設定される。生徒画像#2が判別対象に指定された場合、生徒画像#2に対して「1」の目標値Y1が設定され、それ以外の生徒画像に対して「0」の目標値Y2が設定される。このようにして、判別対象の生徒画像と、それ以外の生徒画像とには、異なる目標値が与えられる。   FIG. 13 is a diagram illustrating a setting example of the target value in the first embodiment. When the student image # 1 is designated as the discrimination target, the target value Y1 of “1” is set for the student image # 1, and the target value Y2 of “0” is set for the other student images. . When the student image # 2 is designated as the discrimination target, the target value Y1 of “1” is set for the student image # 2, and the target value Y2 of “0” is set for the other student images. . In this way, different target values are given to the student image to be determined and the other student images.

図14は、判別係数演算部250の一構成例を示すブロック図である。判別係数演算部250は、正規方程式生成部260、判別係数決定部270、および、判別係数記憶部280を備える。判別係数決定部270は、統計処理部271、行列成分合計値記憶部272、および、判別係数演算器273を備える。   FIG. 14 is a block diagram illustrating a configuration example of the discrimination coefficient calculation unit 250. The discrimination coefficient calculation unit 250 includes a normal equation generation unit 260, a discrimination coefficient determination unit 270, and a discrimination coefficient storage unit 280. The discrimination coefficient determination unit 270 includes a statistical processing unit 271, a matrix component total value storage unit 272, and a discrimination coefficient calculator 273.

正規方程式生成部260は、予測タップ内の各画素値と目標値とに基づいて、1つのサンプルにおける正規方程式の行列成分を生成するものである。正規方程式生成部260は、生成した各行列成分を統計処理部271に出力する。   The normal equation generation unit 260 generates a matrix component of the normal equation in one sample based on each pixel value in the prediction tap and the target value. The normal equation generation unit 260 outputs the generated matrix components to the statistical processing unit 271.

統計処理部271は、クラスごとに、そのクラスに属する各サンプルの行列成分に対して統計処理を実行するものである。統計処理部271は、正規方程式生成部260からの行列成分と、クラス分類部240からのクラスコードとを受け取る。統計処理部271は、クラスコードが同一の各行列成分を全て加算する。以下、加算後の行列成分を行列成分合計値と称する。例えば、統計処理部271は、クラスコードおよび行列成分を受け取ると、そのクラスコードに対応する行列成分合計値を、行列成分合計値記憶部から読み出し、受け取った行列成分を読み出した値に加算する。統計処理部271は、加算した値を、そのクラスコードにおける新たな行列成分合計値として、行列成分合計値記憶部272に格納する。N枚の生徒画像について統計処理が終了したとき、統計処理部271は、統計の終了を通知する統計終了通知を発行して判別係数演算器273に出力する。   The statistical processing unit 271 performs statistical processing on the matrix components of each sample belonging to the class for each class. The statistical processing unit 271 receives the matrix component from the normal equation generation unit 260 and the class code from the class classification unit 240. The statistical processing unit 271 adds all matrix components having the same class code. Hereinafter, the added matrix component is referred to as a matrix component total value. For example, when receiving the class code and the matrix component, the statistical processing unit 271 reads the matrix component total value corresponding to the class code from the matrix component total value storage unit, and adds the received matrix component to the read value. The statistical processing unit 271 stores the added value in the matrix component total value storage unit 272 as a new matrix component total value in the class code. When the statistical processing is completed for N student images, the statistical processing unit 271 issues a statistical end notification for notifying the end of the statistics and outputs the statistical end notification to the discrimination coefficient calculator 273.

判別係数演算器273は、判別係数群をクラスごとに演算するものである。判別係数演算器273は、目標値Yおよび統計終了通知を受け取ると、クラスごとの行列成分合計値を行列成分合計値記憶部272から読み出す。判別係数演算器273は、クラスごとに、上記式12に例示した正規方程式を解くことにより、判別係数群を演算する。判別係数演算器273は、演算した各判別係数群を、目標値Yの示す判別対象の生徒画像に対応する判別係数群として判別係数記憶部280に格納する。   The discrimination coefficient calculator 273 calculates a discrimination coefficient group for each class. When receiving the target value Y and the statistics end notification, the discrimination coefficient calculator 273 reads the matrix component total value for each class from the matrix component total value storage unit 272. The discriminant coefficient calculator 273 calculates a discriminant coefficient group for each class by solving the normal equation exemplified in Equation 12 above. The discrimination coefficient calculator 273 stores each calculated discrimination coefficient group in the discrimination coefficient storage unit 280 as a discrimination coefficient group corresponding to the student image to be discriminated indicated by the target value Y.

判別係数記憶部280は、複数のクラスとN個の生徒画像との各組合せに対応付けて複数の判別係数群を記憶するものである。N個の生徒画像は、それぞれ、N個の予測タップ種別に1対1に対応付けられる。判別係数記憶部280に記憶された判別係数群は、画像情報変換装置100に信号線209を介して出力される。   The discrimination coefficient storage unit 280 stores a plurality of discrimination coefficient groups in association with combinations of a plurality of classes and N student images. Each of the N student images is associated with the N prediction tap types on a one-to-one basis. The discrimination coefficient group stored in the discrimination coefficient storage unit 280 is output to the image information conversion apparatus 100 via the signal line 209.

図15は、正規方程式生成部260の一構成例を示すブロック図である。正規方程式生成部260は、乗算器群261乃至273と、乗算器群274とを備える。それぞれの乗算器群は、13個の乗算器を備える。乗算器群261内の乗算器261−1乃至261−13は、それぞれ、画素値xと、x乃至x13とを乗算した結果であるx乃至x13を、正規方程式の左辺第1行ベクトルの行列成分として出力する。同様に、乗算器群262乃至273により、左辺第2行ベクトルから左辺第13行ベクトルまでの各行列成分が出力される。乗算器群274内の乗算器274−1乃至271−13は、それぞれ、目標値Yと、x乃至x13とを乗算した結果であるxY乃至x13Yを、正規方程式の右辺第1列ベクトルの行列成分として出力する。 FIG. 15 is a block diagram illustrating a configuration example of the normal equation generation unit 260. The normal equation generation unit 260 includes multiplier groups 261 to 273 and a multiplier group 274. Each multiplier group includes 13 multipliers. Multipliers 261-1 through 261-13 in the multiplier group 261, respectively, and the pixel values x 1, the x 1 x 1 to x 1 x 13 is the result of multiplying the x 1 to x 13, the normal equation Is output as a matrix component of the first row vector on the left side of. Similarly, the multiplier groups 262 to 273 output matrix components from the second row vector on the left side to the 13th row vector on the left side. The multipliers 274-1 to 271-13 in the multiplier group 274 respectively convert x 1 Y to x 13 Y, which are the results of multiplying the target value Y and x 1 to x 13 by the right side of the normal equation. Output as a matrix component of a single column vector.

図16は、第1の実施の形態の行列成分合計値記憶部272における行列成分の統計量の一例を示す図である。図16に示すように、クラスコードごとに、各サンプルの行列成分が足しこまれて、行政成分の合計値が求められる。詳細には、上記式12の左辺第1行ベクトルから左辺第13行ベクトルまでと、右辺第1列ベクトルとについて行列成分の合計値が求められる。   FIG. 16 is a diagram illustrating an example of matrix component statistics in the matrix component total value storage unit 272 according to the first embodiment. As shown in FIG. 16, for each class code, the matrix components of each sample are added to obtain the total value of the administrative components. Specifically, the total value of the matrix components for the left side first row vector to the left side 13th row vector and the right side first column vector of Equation 12 is obtained.

[予測係数学習装置の構成例]
図17は、第1の実施の形態における予測係数学習装置300の一構成例を示すブロック図である。予測係数学習装置300は、フィルタ部310、教師画素抽出部320、タップ抽出部330、および、クラス分類部340を備える。
[Configuration example of prediction coefficient learning device]
FIG. 17 is a block diagram illustrating a configuration example of the prediction coefficient learning apparatus 300 according to the first embodiment. The prediction coefficient learning device 300 includes a filter unit 310, a teacher pixel extraction unit 320, a tap extraction unit 330, and a class classification unit 340.

フィルタ部310は、教師画像として入力された高解像度画像信号から、N個の異なる生徒画像を生成するものである。フィルタ部310には、教師画像として高解像度画像信号が入力される。フィルタ部310は、この教師画像を、N個のフィルタに通過させることにより、N枚の異なる生徒画像を生成する。これらの生徒画像は、例えば、圧縮率が互いに異なる画像である。フィルタ部310は、N枚の生徒画像のうち、学習画像指定信号の指定する生徒画像を選択して、タップ抽出部330に信号線319を介して出力する。   The filter unit 310 generates N different student images from the high-resolution image signal input as the teacher image. A high resolution image signal is input to the filter unit 310 as a teacher image. The filter unit 310 generates N different student images by passing the teacher image through N filters. These student images are images having different compression rates, for example. The filter unit 310 selects a student image designated by the learning image designation signal from the N student images, and outputs the selected student image to the tap extraction unit 330 via the signal line 319.

教師画素抽出部320は、教師画像として入力される高解像度画像信号から、学習対象の画素を教師画素として抽出するものである。1つの低解像度画像信号から画像情報変換装置100が生成すべき、複数の高解像度画像信号に対応する各画素が抽出される。例えば、生徒画像内の各画素に対して、4つの教師画素が教師画像から抽出される。教師画素抽出部320は、抽出した各教師画素の画素値を予測演算における目標値として予測係数演算部350に信号線321を介して出力する。   The teacher pixel extraction unit 320 extracts a learning target pixel as a teacher pixel from a high-resolution image signal input as a teacher image. Each pixel corresponding to a plurality of high resolution image signals to be generated by the image information conversion apparatus 100 is extracted from one low resolution image signal. For example, for each pixel in the student image, four teacher pixels are extracted from the teacher image. The teacher pixel extraction unit 320 outputs the extracted pixel value of each teacher pixel as a target value in the prediction calculation to the prediction coefficient calculation unit 350 via the signal line 321.

タップ抽出部330の構成は、画像情報変換装置100におけるタップ抽出部110と同様の構成である。タップ抽出部330は、低解像度画像信号からクラスタップおよび予測タップを抽出する。タップ抽出部330は、抽出したクラスタップ内の各画素値をクラス分類部340に信号線338を介して出力し、抽出した予測タップ内の各画素値を予測係数演算部350に信号線339を介して出力する。   The configuration of the tap extraction unit 330 is the same as that of the tap extraction unit 110 in the image information conversion apparatus 100. The tap extraction unit 330 extracts class taps and prediction taps from the low resolution image signal. The tap extraction unit 330 outputs each pixel value in the extracted class tap to the class classification unit 340 via the signal line 338, and outputs each pixel value in the extracted prediction tap to the prediction coefficient calculation unit 350 with the signal line 339. Output via.

クラス分類部340の構成は、画像情報変換装置100におけるクラス分類部120と同様の構成である。クラス分類部340は、抽出されたクラスタップを分類したクラスを示すクラスコードを予測係数演算部350に信号線349を介して出力する。   The configuration of the class classification unit 340 is the same as that of the class classification unit 120 in the image information conversion apparatus 100. The class classification unit 340 outputs a class code indicating the class into which the extracted class taps are classified to the prediction coefficient calculation unit 350 via the signal line 349.

予測係数演算部350は、予測係数を演算するものである。予測係数演算部350には、教師画素抽出部320からの各教師画素の画素値と、タップ抽出部330からの予測タップ内の各画素値と、クラス分類部340からのクラスコードと、学習画像指定信号とが入力される。予測係数演算部350は、目標値である教師画素の画素値と予測タップ内の各画素値とから、クラスコードの示すクラスごとに予測係数群を演算する。予測係数群内の各予測係数は、例えば、次式を使用して算出される。

Figure 2012248994
The prediction coefficient calculation unit 350 calculates a prediction coefficient. The prediction coefficient calculation unit 350 includes a pixel value of each teacher pixel from the teacher pixel extraction unit 320, each pixel value in the prediction tap from the tap extraction unit 330, a class code from the class classification unit 340, and a learning image. The specified signal is input. The prediction coefficient calculation unit 350 calculates a prediction coefficient group for each class indicated by the class code from the pixel value of the teacher pixel that is the target value and each pixel value in the prediction tap. Each prediction coefficient in the prediction coefficient group is calculated using, for example, the following equation.
Figure 2012248994

上式において、kは、各サンプルに割り当てられた番号である。xn_kは、第kサンプル内の各画素値である。yは、第kサンプルに対応する教師画素のうちのいずれかの画素値である。Kは、1つのクラスに属するサンプルの総数である。予測係数w乃至w13は、予測係数群内の1つのセットにおける各予測係数である。上記式13は、上記式12と同様の方法により導出されたものである。判別係数演算部350は、演算した各予測係数群を、学習画像指定信号の指定する生徒画像に対応する予測係数群として出力する。 In the above equation, k is a number assigned to each sample. xn_k is each pixel value in the kth sample. y k is a pixel value of any of the teacher pixels corresponding to the k-th sample. K is the total number of samples belonging to one class. The prediction coefficients w 1 to w 13 are each prediction coefficient in one set in the prediction coefficient group. Equation 13 is derived by the same method as Equation 12. The discrimination coefficient calculation unit 350 outputs each calculated prediction coefficient group as a prediction coefficient group corresponding to a student image designated by the learning image designation signal.

なお、フィルタ部310は、特許請求の範囲に記載の生徒画像入力部の一例である。   The filter unit 310 is an example of a student image input unit described in the claims.

図18は、第1の実施の形態における予測係数学習装置のフィルタ部310の一構成例を示すブロック図である。フィルタ部310は、N枚の2次元フィルタ311およびセレクタ312を備える。   FIG. 18 is a block diagram illustrating a configuration example of the filter unit 310 of the prediction coefficient learning device according to the first embodiment. The filter unit 310 includes N two-dimensional filters 311 and a selector 312.

2次元フィルタ311は、判別係数学習装置200における2次元フィルタ211と同様のフィルタである。セレクタ312は、N枚の2次元フィルタ311により生成されたN枚の生徒画像の中から、学習画像指定信号の指定する生徒画像を選択するものである。セレクタ312は、選択した生徒画像として低解像度画像信号をタップ抽出部330に信号線319を介して出力する。   The two-dimensional filter 311 is a filter similar to the two-dimensional filter 211 in the discrimination coefficient learning device 200. The selector 312 selects a student image designated by the learning image designation signal from N student images generated by the N two-dimensional filters 311. The selector 312 outputs a low resolution image signal as the selected student image to the tap extraction unit 330 via the signal line 319.

なお、2次元フィルタ311は、特許請求の範囲に記載のフィルタの一例である。   The two-dimensional filter 311 is an example of a filter described in the claims.

図19は、第1の実施の形態における予測係数の学習方法の一例を示す図である。N回の学習のそれぞれにおいて、N枚の2次元フィルタのうちのいずれかにより、学習対象として指定された生徒画像が生成される。例えば、1回目の学習においては、生徒画像#1が学習対象として指定される。2回目の学習においては、生徒画像#2が指定される。このようにして、N回学習が行われ、N枚の生徒画像のそれぞれについて予測係数が学習される。   FIG. 19 is a diagram illustrating an example of a prediction coefficient learning method according to the first embodiment. In each of the N learnings, a student image designated as a learning target is generated by any one of the N two-dimensional filters. For example, in the first learning, student image # 1 is designated as a learning target. In the second learning, student image # 2 is designated. In this way, learning is performed N times, and the prediction coefficient is learned for each of the N student images.

[画像情報変換装置の動作例]
図20は、第1の実施の形態における画像情報変換装置100の動作の一例を示すフローチャートである。画像情報変換装置100は、低解像度画像信号が入力されたときに、画像の解像度を変換するための画像情報変換処理を開始する。
[Operation example of image information converter]
FIG. 20 is a flowchart illustrating an example of the operation of the image information conversion apparatus 100 according to the first embodiment. The image information conversion apparatus 100 starts an image information conversion process for converting the resolution of an image when a low-resolution image signal is input.

画像情報変換装置100は、低解像度画像のいずれかの画素を注目画素として、その注目画素を中心とするクラスタップおよび予測タップを抽出する(ステップS905)。   The image information conversion apparatus 100 uses any pixel of the low-resolution image as a target pixel, and extracts a class tap and a prediction tap centered on the target pixel (step S905).

画像情報変換装置100は、クラスタップを複数のクラスのうちのいずれかに分類するためのクラス分類処理を実行する(ステップS910)。画像情報変換装置100は、予測タップが属する予測タップ種別を判別するための予測タップ種別判別処理を実行する(ステップS920)。   The image information conversion apparatus 100 executes a class classification process for classifying the class tap into any of a plurality of classes (step S910). The image information conversion apparatus 100 executes a prediction tap type determination process for determining the prediction tap type to which the prediction tap belongs (step S920).

そして、画像情報変換装置100は、分類されたクラスと判別された予測タップ種別との組合せに対応する予測係数群を選択する(ステップS930)。画像情報変換装置100は、選択した予測係数群を使用した予測演算の結果を高解像度画像の画素値として出力する(ステップS935)。   Then, the image information conversion apparatus 100 selects a prediction coefficient group corresponding to the combination of the classified class and the determined prediction tap type (step S930). The image information conversion apparatus 100 outputs the result of the prediction calculation using the selected prediction coefficient group as the pixel value of the high resolution image (step S935).

画像情報変換装置100は、高解像度画像の全画素の演算が終了したか否かを判断する(ステップS940)。全画素の演算が終了していなければ(ステップS940:No)、画像情報変換装置100は、ステップS905に戻る。全画素の演算が終了したのであれば(ステップS940:Yes)、画像情報変換装置100は、画像情報変換処理を終了する。   The image information conversion apparatus 100 determines whether or not the calculation of all the pixels of the high resolution image has been completed (step S940). If the calculation for all the pixels has not been completed (step S940: No), the image information conversion apparatus 100 returns to step S905. If the calculation for all the pixels has been completed (step S940: Yes), the image information conversion apparatus 100 ends the image information conversion process.

図21は、第1の実施の形態におけるクラス分類処理の一例を示すフローチャートである。クラス分類部120は、クラスタップ内の各画素を再量子化してADRCコードを生成する(ステップS911)。クラス分類部120は、ADRCコードに基づいてクラスコードを決定する(ステップS912)。ステップS912の後、クラス分類部120は、クラス分類処理を終了する。   FIG. 21 is a flowchart illustrating an example of class classification processing according to the first embodiment. The class classification unit 120 re-quantizes each pixel in the class tap to generate an ADRC code (step S911). The class classification unit 120 determines a class code based on the ADRC code (step S912). After step S912, the class classification unit 120 ends the class classification process.

図22は、第1の実施の形態における予測タップ種別判別処理の一例を示すフローチャートである。判別係数選択部130は、クラスコードに対応するN個の判別係数群をN個の判別係数メモリ132から読み出す(ステップS921)。判別演算部140は、判別係数群を使用して、N個の判別演算を実行して候補判定結果列を生成する(ステップS922)。判別演算部140は、候補判定結果列から予測タップが属する予測タップ種別を判別する(ステップS924)。ステップS924の後、判別演算部140は、予測タップ種別判別処理を終了する。   FIG. 22 is a flowchart illustrating an example of the prediction tap type determination process according to the first embodiment. The discrimination coefficient selection unit 130 reads N discrimination coefficient groups corresponding to the class code from the N discrimination coefficient memories 132 (step S921). The discrimination calculation unit 140 performs N discrimination calculations using the discrimination coefficient group to generate a candidate determination result sequence (step S922). The discrimination calculation unit 140 discriminates the prediction tap type to which the prediction tap belongs from the candidate determination result sequence (step S924). After step S924, the discrimination calculation unit 140 ends the prediction tap type discrimination process.

[判別係数学習装置の動作例]
図23は、第1の実施の形態における判別係数学習装置200の動作の一例を示すフローチャートである。判別係数学習装置200は、高解像度画像信号および判別画像指定信号が入力されたときに、判別係数を学習するための判別係数学習処理を開始する。
[Operation example of discrimination coefficient learning device]
FIG. 23 is a flowchart illustrating an example of the operation of the discrimination coefficient learning device 200 according to the first embodiment. The discrimination coefficient learning device 200 starts a discrimination coefficient learning process for learning a discrimination coefficient when a high-resolution image signal and a discrimination image designation signal are input.

判別係数学習装置200は、N個の2次元フィルタから生成したN枚の生徒画像をタップ抽出部230に供給する(ステップS950)。判別係数学習装置200は、判別対象の生徒画像の目標値を1、それ以外の目標値を0として、N枚の生徒画像に目標値を与える(ステップS955)。   The discrimination coefficient learning device 200 supplies N student images generated from the N two-dimensional filters to the tap extraction unit 230 (step S950). The discrimination coefficient learning device 200 sets the target value of the student image to be discriminated as 1 and the other target value as 0, and gives the target value to N student images (step S955).

判別係数学習装置200は、いずれかの画素を注目画素としてクラスタップおよび予測タップを抽出する(ステップS960)。判別係数学習装置200は、クラス分類処理を実行する(ステップS965)。判別係数学習装置200は、クラスごとに、正規方程式の各行列成分を生成して、その統計処理を実行する(ステップS970)。判別係数学習装置200は、N枚の生徒画像の全画素において正規方程式の行列成分の統計が終了したか否かを判断する(ステップS975)。統計が終了していなければ(ステップS975:No)、判別係数学習装置200は、ステップS960に戻る。   The discrimination coefficient learning device 200 extracts a class tap and a prediction tap using any pixel as a target pixel (step S960). The discrimination coefficient learning device 200 executes a class classification process (step S965). The discriminant coefficient learning apparatus 200 generates each matrix component of the normal equation for each class, and executes the statistical process (step S970). The discrimination coefficient learning device 200 determines whether or not the statistics of the matrix components of the normal equation have been completed for all the pixels of the N student images (step S975). If the statistics are not completed (step S975: No), the discrimination coefficient learning device 200 returns to step S960.

統計が終了したのであれば(ステップS975:Yes)、判別係数学習装置200は、クラスごとに正規方程式から判別係数群を演算する(ステップS980)。判別係数学習装置200は、演算した判別係数群を、指定の生徒画像に係る予測タップ種別に対応付ける(ステップS985)。   If the statistics are completed (step S975: Yes), the discrimination coefficient learning device 200 calculates a discrimination coefficient group from the normal equation for each class (step S980). The discrimination coefficient learning device 200 associates the calculated discrimination coefficient group with the prediction tap type related to the designated student image (step S985).

判別係数学習装置200は、全2次元フィルタの学習が終了したか否かを判断する(ステップS990)。いずれかの2次元フィルタの学習が終了していなければ(ステップS990:No)、判別係数学習装置200は、ステップS950に戻る。学習が終了したのであれば(ステップS990:Yes)、判別係数学習装置200は、判別係数学習処理を終了する。   The discrimination coefficient learning device 200 determines whether learning of all the two-dimensional filters has been completed (step S990). If learning of any two-dimensional filter has not ended (step S990: No), the discrimination coefficient learning device 200 returns to step S950. If learning has ended (step S990: Yes), the discrimination coefficient learning device 200 ends the discrimination coefficient learning process.

[予測係数学習装置の動作例]
図24は、第1の実施の形態における予測係数学習装置300の動作の一例を示すフローチャートである。予測係数学習装置300は、高解像度画像信号および学習画像指定信号が入力されたときに、予測係数を学習するための予測係数学習処理を開始する。予測係数学習処理は、ステップS950、S955、および、S975の代わりにステップS951、S956、および、S976を実行する点以外は、図23に例示した判別係数学習処理と同様である。
[Operation example of prediction coefficient learning device]
FIG. 24 is a flowchart illustrating an example of the operation of the prediction coefficient learning device 300 according to the first embodiment. The prediction coefficient learning device 300 starts a prediction coefficient learning process for learning a prediction coefficient when a high-resolution image signal and a learning image designation signal are input. The prediction coefficient learning process is the same as the discrimination coefficient learning process illustrated in FIG. 23 except that steps S951, S956, and S976 are executed instead of steps S950, S955, and S975.

予測係数学習装置300は、指定された生徒画像を生成する(ステップS951)。予測係数学習装置300は、教師画像から教師画素を抽出する(ステップS956)。クラスごとに正規方程式を生成した後(ステップS970)、統計が終了していなければ(ステップS976:No)、判別係数学習装置200は、ステップS956に戻る。統計が終了したのであれば(ステップS976:Yes)、判別係数学習装置200は、クラスごとに正規方程式から判別係数群を演算する(ステップS980)。   The prediction coefficient learning device 300 generates a designated student image (step S951). The prediction coefficient learning device 300 extracts teacher pixels from the teacher image (step S956). After generating a normal equation for each class (step S970), if the statistics are not completed (step S976: No), the discrimination coefficient learning device 200 returns to step S956. If the statistics are finished (step S976: Yes), the discrimination coefficient learning device 200 calculates a discrimination coefficient group from the normal equation for each class (step S980).

このように第1の実施の形態によれば、画像情報変換装置100は、クラスタップを画素値の削減によりクラスに分類するとともに、判別演算により予測タップが属する予測タップ種別を判別する。そして、画像情報変換装置100は、複数の予測係数群の中から分類されたクラスと判別された予測タップ種別との組合せに対応する予測係数群を選択して予測演算を実行する。クラス分類のみを行う場合よりも多い予測係数群を使用して画像が変換されるため、画像の変換精度が向上する。また、クラスおよび予測タップ種別の組合せの数だけ、予測係数群を設定しておくため、予測係数群の増大が抑制される。   As described above, according to the first embodiment, the image information conversion apparatus 100 classifies the class taps into classes by reducing pixel values, and determines the prediction tap type to which the prediction tap belongs by a determination operation. Then, the image information conversion apparatus 100 selects a prediction coefficient group corresponding to the combination of the class classified from the plurality of prediction coefficient groups and the determined prediction tap type, and executes the prediction calculation. Since the image is converted using more prediction coefficient groups than when only class classification is performed, the conversion accuracy of the image is improved. Moreover, since the prediction coefficient group is set as many as the number of combinations of classes and prediction tap types, an increase in the prediction coefficient group is suppressed.

また、画像情報変換装置100は、複数の判別係数と予測タップ内の各画素の画素値との積和演算を行い、その演算結果と所定の閾値との比較結果に基づいて予測タップが属する予測タップ種別を判別する。演算が簡易であるため、予測タップ種別を判別する処理が高速となる。   In addition, the image information conversion apparatus 100 performs a product-sum operation on a plurality of discrimination coefficients and the pixel value of each pixel in the prediction tap, and the prediction to which the prediction tap belongs based on a comparison result between the calculation result and a predetermined threshold value. Determine the tap type. Since the calculation is simple, the process for determining the prediction tap type is fast.

また、判別係数学習装置200は、生徒画像群を生成して、そのうちの判別対象の生徒画像に第1の目標値Y1を与え、それ以外の生徒画像に第2の目標値Y2を与え、これらの目標値と予測タップ内の各画素の画素値とに基づいてクラスごとに判別係数群を演算する。これにより、判別対象の生徒画像と類似の画像であるか否かを判別するための判別係数群が、N枚の生徒画像についてクラスごとに学習される。   Further, the discrimination coefficient learning device 200 generates a student image group, gives a first target value Y1 to a student image to be discriminated, and gives a second target value Y2 to other student images. On the basis of the target value and the pixel value of each pixel in the prediction tap, a discrimination coefficient group is calculated for each class. Thereby, a discrimination coefficient group for discriminating whether or not the image is similar to the student image to be discriminated is learned for each N class of student images.

また、判別係数学習装置200は、教師画像を複数のフィルタに通過させることにより生徒画像群を生成する。このため、特性の異なる複数のフィルタの使用により、特徴の異なる複数の生徒画像が容易に生成される。   The discrimination coefficient learning device 200 generates a student image group by passing the teacher image through a plurality of filters. For this reason, a plurality of student images having different characteristics can be easily generated by using a plurality of filters having different characteristics.

また、判別係数学習装置200は、最小二乗法を使用した判別係数の演算において、判別対象の生徒画像に目標値Y1を与え、それ以外の生徒画像に目標値Y2を与える。このため、画像情報変換装置100は、判別演算の結果がY1およびT2のいずれに近いかを判断することにより、入力された画像が判別対象の生徒画像と類似するか否かを判別することができる。   Further, the discrimination coefficient learning device 200 gives the target value Y1 to the student image to be discriminated and the target value Y2 to the other student images in the calculation of the discrimination coefficient using the least square method. Therefore, the image information conversion apparatus 100 can determine whether the input image is similar to the student image to be determined by determining which of Y1 and T2 is the result of the determination operation. it can.

また、予測係数学習装置300は、複数の生徒画像のそれぞれにおいて、その生徒画像内の予測タップ内の予測タップ内の各画素の画素値と教師画素の画素値とに基づいてクラスごとに予測係数群を演算する。これにより、予測係数群が、N枚の生徒画像についてクラスごとに学習される。   Further, the prediction coefficient learning device 300, for each of a plurality of student images, predicts the prediction coefficient for each class based on the pixel value of each pixel in the prediction tap in the prediction tap in the student image and the pixel value of the teacher pixel. Compute a group. Thereby, a prediction coefficient group is learned for each class for N student images.

また、予測係数学習装置300は、教師画像を複数のフィルタに通過させることにより複数の生徒画像を生成する。このため、特性の異なる複数のフィルタの使用により、特徴の異なる複数の生徒画像が容易に生成される。   The prediction coefficient learning apparatus 300 generates a plurality of student images by passing the teacher image through a plurality of filters. For this reason, a plurality of student images having different characteristics can be easily generated by using a plurality of filters having different characteristics.

なお、画像情報変換装置100は、低解像度画像信号を高解像度画像信号にアップコンバートしているが、高解像度画像信号を低解像度画像信号にダウンコンバートすることもできる。ダウンコンバートの場合、1つの予測タップ係数群は、予測タップ内の画素数と同数の予測係数からなるセットを1組のみ含む。   Note that the image information conversion apparatus 100 upconverts the low resolution image signal to the high resolution image signal, but can also downconvert the high resolution image signal to the low resolution image signal. In the case of down-conversion, one prediction tap coefficient group includes only one set composed of the same number of prediction coefficients as the number of pixels in the prediction tap.

また、クラスタップ内の画素数を予測タップ内の画素数と異なる値としているが、クラスタップ内の画素数を予測タップ内の画素数と同数としてもよい。   Further, although the number of pixels in the class tap is different from the number of pixels in the prediction tap, the number of pixels in the class tap may be the same as the number of pixels in the prediction tap.

また、クラスタップおよび予測タップの画素群は、図4に例示した画素群に限定されない。例えば、注目画素を中心とする3×3画素からなる正方形の画素群をクラスタップまたは予測タップとしてもよい。   Further, the pixel group of the class tap and the prediction tap is not limited to the pixel group illustrated in FIG. For example, a square pixel group composed of 3 × 3 pixels centered on the target pixel may be used as a class tap or a prediction tap.

また、図4に例示したように低解像度画像をインターレス方式の動画における画像としているが、ノンインターレス方式の動画における画像としてもよい。   Further, as illustrated in FIG. 4, the low-resolution image is an image in an interlaced moving image, but may be an image in a non-interlaced moving image.

また、クラス分類部120は、階調数を減じることによりクラス分類を行っているが、階調数の削減以外の手法を使用してクラス分類を行うこともできる。例えば、クラス分類部120は、クラスごとに予め定義しておいた3次元分布の形状パターンと、クラスタップの形状パターンとのマッチングをとった結果に基づいてクラスを分類することもできる。また、クラス分類部120は、ADRCにより階調数を減じているが、ADRC以外の処理により階調数を減じてもよい。例えば、クラス分類部120は、ダイナミックレンジを算出せず、クラスタップ内の各画素値を所定値(例えば、128)と比較することにより階調数を減じてもよい。   The class classification unit 120 performs class classification by reducing the number of gradations. However, the class classification can be performed using a method other than the reduction of the number of gradations. For example, the class classification unit 120 can also classify a class based on a result obtained by matching a shape pattern of a three-dimensional distribution defined in advance for each class with a shape pattern of a class tap. Further, the class classification unit 120 reduces the number of gradations by ADRC, but the number of gradations may be reduced by a process other than ADRC. For example, the class classification unit 120 may reduce the number of gradations by comparing each pixel value in the class tap with a predetermined value (for example, 128) without calculating the dynamic range.

また、予測タップ種別の分類において、学習時における予測タップの抽出元の画像の圧縮率に応じて各予測タップを複数の予測タップ種別に分類しているが、圧縮率以外の種類に基づいて、予測タップを分類してもよい。例えば、ぼかしや輪郭強調などの効果の異なる複数の2次元フィルタにより生成された生徒画像で学習することにより、画像に施されたぼかしや、輪郭強調の程度に基づいて予測タップを分類してもよい。   In addition, in the classification of the prediction tap type, each prediction tap is classified into a plurality of prediction tap types according to the compression rate of the image from which the prediction tap is extracted at the time of learning. The prediction tap may be classified. For example, by learning from student images generated by a plurality of two-dimensional filters having different effects such as blurring and contour enhancement, the prediction taps may be classified based on the degree of blurring and contour enhancement applied to the image. Good.

また、画像情報変換装置100の判別演算部140は、上記式1に例示した線形一次結合式により、判別演算を行っているが、判別演算は上記式1に限定されない。例えば、判別係数と画素値の二乗との積を含む2次式による演算であってもよい。この場合、上記12式の正規方程式も変更される。   Further, the discrimination calculation unit 140 of the image information conversion apparatus 100 performs the discrimination calculation by the linear linear combination formula exemplified in the above formula 1, but the discrimination calculation is not limited to the above formula 1. For example, the calculation may be a quadratic expression including the product of the discrimination coefficient and the square of the pixel value. In this case, the above-mentioned 12 normal equations are also changed.

また、画像情報変換装置100の予測演算部160は、上記式2に例示した線形一次結合式により、予測演算を行っているが、予測演算は、上記式2に限定されない。例えば、予測係数と画素値の二乗との積を含む2次式による演算であってもよい。この場合、上記13式の正規方程式も変更される。   Moreover, although the prediction calculation part 160 of the image information conversion apparatus 100 is performing the prediction calculation by the linear linear combination formula illustrated in the said Formula 2, the prediction calculation is not limited to the said Formula 2. For example, the calculation may be performed by a quadratic expression including the product of the prediction coefficient and the square of the pixel value. In this case, the normal equation (13) is also changed.

また、判別係数記憶部131は、N個の判別係数メモリ132を備えているが、判別係数記憶部131の構成は、この構成に限定されない。例えば、判別係数記憶部131は、N個の領域を有する1つのメモリを備える構成とすることもできる。   The discrimination coefficient storage unit 131 includes N discrimination coefficient memories 132, but the configuration of the discrimination coefficient storage unit 131 is not limited to this configuration. For example, the discrimination coefficient storage unit 131 may include a single memory having N areas.

予測係数記憶部151は、N個の予測係数メモリ152を備えているが、予測係数記憶部151の構成は、この構成に限定されない。例えば、予測係数記憶部151は、N個の領域を有する1つのメモリを備える構成とすることもできる。   The prediction coefficient storage unit 151 includes N prediction coefficient memories 152, but the configuration of the prediction coefficient storage unit 151 is not limited to this configuration. For example, the prediction coefficient storage unit 151 may include a single memory having N areas.

また、判別係数学習装置200は、N枚のフィルタを使用してN枚の生徒画像を生成しているが、N枚の生徒画像を供給できるのであれば、N枚のフィルタを備える構成に限定されない。例えば、判別係数学習装置200は、N枚のフィルタを備えず、予め生成されたN枚の生徒画像を外部から受け取る構成としてもよい。   The discrimination coefficient learning device 200 generates N student images using N filters. However, if N student images can be supplied, the discrimination coefficient learning apparatus 200 is limited to a configuration including N filters. Not. For example, the discrimination coefficient learning device 200 may be configured to receive N student images generated in advance without including N filters.

また、判別係数学習装置200は、1枚の教師画像を用いて判別係数を学習しているが、2以上の教師画像を使用することもできる。この場合、複数の教師画像から生成した生徒画像群をN回供給して判別係数を学習してもよいし、1枚の教師画像から生成した生徒画像群をN回供給する学習を複数回行ってもよい。予測係数学習装置300も、同様に2枚以上の教師画像を使用してもよい。   Further, the discrimination coefficient learning apparatus 200 learns the discrimination coefficient using one teacher image, but two or more teacher images can also be used. In this case, the student image group generated from a plurality of teacher images may be supplied N times to learn the discrimination coefficient, or learning that supplies the student image group generated from one teacher image N times is performed a plurality of times. May be. Similarly, the prediction coefficient learning apparatus 300 may use two or more teacher images.

<変形例>
[判別係数学習装置の動作例]
図25は、変形例における判別係数の学習方法の一例を示す図である。変形例の判別係数学習装置200は、2次元フィルタ211を1枚のみ備える点において、第1の実施の形態の判別係数学習装置200と異なる。判別係数学習装置200には、図25に示すように、N個の教師画像#1乃至#Nが供給される。教師画像#1は自然画であり、教師画像#NはCG(Computer Graphics)画像である。教師画像#2乃至N−1は、自然画に近い順に配列された画像である。教師画像#1乃至#Nを2次元フィルタ211に通過させて解像度を変更することにより、生徒画像#1乃至#Nが生成される。生徒画像供給部213は、生徒画像#1乃至Nの生徒画像群を複数回、タップ抽出部230に供給する。各学習において、N個の生徒画像のうちのいずれかが判別対象の生徒画像として指定される。予測係数の学習においても、同様の学習方法が用いられる。
<Modification>
[Operation example of discrimination coefficient learning device]
FIG. 25 is a diagram illustrating an example of a discrimination coefficient learning method according to the modification. The discrimination coefficient learning apparatus 200 according to the modification is different from the discrimination coefficient learning apparatus 200 according to the first embodiment in that only one two-dimensional filter 211 is provided. As shown in FIG. 25, N teacher images # 1 to #N are supplied to the discrimination coefficient learning device 200. The teacher image # 1 is a natural image, and the teacher image #N is a CG (Computer Graphics) image. Teacher images # 2 to N-1 are images arranged in the order close to natural images. The student images # 1 to #N are generated by passing the teacher images # 1 to #N through the two-dimensional filter 211 and changing the resolution. The student image supply unit 213 supplies the student image groups of student images # 1 to N to the tap extraction unit 230 a plurality of times. In each learning, one of the N student images is designated as a determination target student image. A similar learning method is used in learning of the prediction coefficient.

このように、変形例によれば、判別係数学習装置200は、自然画またはCG画像に近い各生徒画像において、判別係数を学習する。このため、画像情報変換装置100は、その判別係数を使用して入力された画像が、自然画またはCG画像のいずれに近い画像であるかを判別できる。   Thus, according to the modification, the discrimination coefficient learning device 200 learns the discrimination coefficient in each student image close to a natural image or a CG image. For this reason, the image information conversion apparatus 100 can determine whether the image input using the determination coefficient is close to a natural image or a CG image.

<2.第2の実施の形態>
[画像情報変換装置の構成例]
図26は、第2の実施の形態における画像情報変換装置100の一構成例を示すブロック図である。第2の実施の形態の画像情報変換装置100は、判別演算部140の代わりに判別演算部141を備える点において第1の実施の形態の画像情報変換装置100と異なる。また、操作信号履歴情報記録部170、視聴環境検出部180、および、画質調整部190をさらに備える点において第1の実施の形態の画像情報変換装置100と異なる。
<2. Second Embodiment>
[Configuration example of image information conversion apparatus]
FIG. 26 is a block diagram illustrating a configuration example of the image information conversion apparatus 100 according to the second embodiment. The image information conversion apparatus 100 according to the second embodiment differs from the image information conversion apparatus 100 according to the first embodiment in that a determination calculation unit 141 is provided instead of the determination calculation unit 140. Further, the present embodiment is different from the image information conversion apparatus 100 of the first embodiment in that it further includes an operation signal history information recording unit 170, a viewing environment detection unit 180, and an image quality adjustment unit 190.

画質調整部190は、予測演算部160により生成された高画質画像の画質を、操作信号に従って調整するものである。操作信号は、高解像度画像の画質に影響を与える画質パラメータの値の変更を指示する信号である。画質パラメータは、例えば、ブライトネス(すなわち、輝度)、ガンマ、コントラストなどである。画質調整部190は、調整後の高画質画像を示す高画質画像信号を、表示装置などに出力する。   The image quality adjustment unit 190 adjusts the image quality of the high-quality image generated by the prediction calculation unit 160 according to the operation signal. The operation signal is a signal instructing to change the value of the image quality parameter that affects the image quality of the high resolution image. The image quality parameter is, for example, brightness (that is, luminance), gamma, contrast, and the like. The image quality adjustment unit 190 outputs a high-quality image signal indicating the adjusted high-quality image to a display device or the like.

操作信号履歴情報記録部170は、画質調整部190に出力された操作信号により調整された画質パラメータの値を記録するものである。操作信号履歴情報記録部170は、調整後の画質パラメータの値の履歴を記録して、その履歴から、高解像度画像に行われる調整の内容を推定する。操作信号履歴情報記録部170は、推定した画質調整に基づいて候補判定結果列をシフトするシフト量Aを判別演算部141に信号線179を介して出力する。   The operation signal history information recording unit 170 records the value of the image quality parameter adjusted by the operation signal output to the image quality adjustment unit 190. The operation signal history information recording unit 170 records the adjusted image quality parameter value history, and estimates the content of adjustment performed on the high-resolution image from the history. The operation signal history information recording unit 170 outputs the shift amount A by which the candidate determination result sequence is shifted based on the estimated image quality adjustment to the discrimination calculation unit 141 via the signal line 179.

ここで、シフト量Aは、推定した調整に適した予測係数群が属する予測タップ種別を、適さない予測係数群が属する予測タップ種別よりも優先する方向に候補判定結果列をビットシフトする量である。各予測係数群が推定した画質調整に適するか否かは、その予測係数群を選択した場合に、調整後において適切な高解像度画像となるか否かにより判断される。例えば、輝度を高くする調整が推定される場合、入力された低解像度画像の実際の圧縮率よりも低い圧縮率の画像で学習した予測係数群を使用した方がよい。実際の圧縮率より低い圧縮率で学習した予測係数群を使用した予測演算により、より高画質の高解像度画像が生成される。このように高解像度感が強調された画像の方が、高輝度下において見易く、画質もよく見える。この傾向に基づいて、高輝度に調整される場合は、低圧縮の生徒画像で学習した予測係数群が属する予測タップ種別を優先する方向に候補判定結果列がシフトされる。逆に低輝度に調整される場合は、高圧縮の生徒画像に対応する予測タップ種別を優先する方向に候補判定結果列がシフトされる。   Here, the shift amount A is an amount by which the candidate determination result sequence is bit-shifted in a direction in which the prediction tap type to which the prediction coefficient group suitable for the estimated adjustment belongs has priority over the prediction tap type to which the inappropriate prediction coefficient group belongs. is there. Whether or not each prediction coefficient group is suitable for the estimated image quality adjustment is determined based on whether or not an appropriate high-resolution image is obtained after the adjustment when the prediction coefficient group is selected. For example, when an adjustment to increase the brightness is estimated, it is better to use a prediction coefficient group learned from an image having a compression rate lower than the actual compression rate of the input low-resolution image. A high-resolution image with higher image quality is generated by a prediction calculation using a prediction coefficient group learned at a compression rate lower than the actual compression rate. In this way, an image in which a high resolution feeling is emphasized is easier to see under high luminance and the image quality looks better. If the brightness is adjusted based on this tendency, the candidate determination result sequence is shifted in a direction in which the prediction tap type to which the prediction coefficient group learned from the low-compressed student image belongs is prioritized. Conversely, when the brightness is adjusted to low luminance, the candidate determination result sequence is shifted in a direction in which the prediction tap type corresponding to the highly compressed student image is prioritized.

視聴環境検出部180は、高解像度画像を視聴する視聴環境を示す視聴環境パラメータを検出するものである。視聴環境パラメータは、例えば、高解像度画像を表示する表示装置が設置された室内の照度や、その表示装置の種別である。表示装置の種別は、具体的には、表示装置の物理的な画面サイズや、液晶かプラズマディスプレイかなどの表示方式に基づいて分類される種類である。室内の照度は、光センサからのセンサ信号などにより取得される。視聴環境検出部は、視聴環境パラメータに基づいて候補判定結果列をシフトするシフト量Bを判別演算部141に信号線189を介して出力する。   The viewing environment detection unit 180 detects a viewing environment parameter indicating a viewing environment for viewing a high-resolution image. The viewing environment parameter is, for example, the illuminance in the room where the display device that displays the high-resolution image is installed, or the type of the display device. Specifically, the type of the display device is a type classified based on a physical screen size of the display device or a display method such as liquid crystal or plasma display. The illuminance in the room is acquired by a sensor signal from an optical sensor. The viewing environment detection unit outputs a shift amount B by which the candidate determination result sequence is shifted based on the viewing environment parameter to the determination calculation unit 141 via the signal line 189.

ここで、シフト量Bは、視聴環境パラメータの示す視聴環境に適した予測係数群が属する予測タップ種別を優先する方向に候補判定結果列をビットシフトする量である。各予測係数群が、ある視聴環境に適するか否かは、その予測係数群を選択した場合に、その視聴環境における視聴に適した高解像度画像が生成されるか否かによって判断される。例えば、明るい室内では、入力された低解像度画像の実際の圧縮率よりも低い圧縮率の画像で学習した予測係数群を使用した方が、見易い高解像度画像が得られる。この傾向に基づいて、照度が高い場合は、低圧縮の生徒画像で学習した予測係数群が属する予測タップ種別を優先する方向に候補判定結果列がシフトされる。逆に照度が低い場合は、高圧縮の生徒画像に対応する予測タップ種別を優先する方向に候補判定結果列がシフトされる。   Here, the shift amount B is an amount by which the candidate determination result sequence is bit-shifted in a direction in which the prediction tap type to which the prediction coefficient group suitable for the viewing environment indicated by the viewing environment parameter belongs is prioritized. Whether or not each prediction coefficient group is suitable for a certain viewing environment is determined depending on whether or not a high-resolution image suitable for viewing in the viewing environment is generated when that prediction coefficient group is selected. For example, in a bright room, a high-resolution image that is easier to see can be obtained by using a prediction coefficient group that has been learned with an image having a compression rate lower than the actual compression rate of the input low-resolution image. Based on this tendency, when the illuminance is high, the candidate determination result sequence is shifted in a direction in which the prediction tap type to which the prediction coefficient group learned from the low-compressed student image belongs is prioritized. Conversely, when the illuminance is low, the candidate determination result sequence is shifted in a direction in which the predicted tap type corresponding to the highly compressed student image is prioritized.

判別演算部141は、生成した候補判定結果列をシフト量AおよびBの分だけビットシフトする。シフト演算は、例えば、空いたビットに0を挿入する論理シフトにより実行される。そして、判別演算部141は、シフトした候補判定結果列に基づいて予測タップ種別を判別して、種別コードを出力する。   The discrimination calculation unit 141 bit-shifts the generated candidate determination result sequence by the shift amounts A and B. The shift operation is executed by, for example, a logical shift in which 0 is inserted into an empty bit. And the discrimination | determination calculating part 141 discriminate | determines a prediction tap classification based on the shifted candidate determination result sequence | sequence, and outputs a classification code.

なお、操作信号履歴情報記録部170は、特許請求の範囲に記載の記録部の一例である。   The operation signal history information recording unit 170 is an example of a recording unit described in the claims.

図27は、候補判定結果列の構成例を示す図である。候補判定結果列において、圧縮率の高い順に、各候補判定結果が並べられる。より具体的には、先頭に圧縮率の最も高い画像に係る予測タップ種別についての候補判定結果bが配置され、以降は、圧縮率の高い順に候補判定結果b乃至bが並べられる。この候補判定結果列をシフトする方向は、シフト量の符号により設定される。例えば、圧縮率の高い方向へシフトさせる場合、シフト量の符号に−が設定され、圧縮率の低い方向へシフトさせる場合、シフト量の符号に+が設定される。シフトによって空いたビットには、0が挿入される。 FIG. 27 is a diagram illustrating a configuration example of a candidate determination result sequence. In the candidate determination result sequence, the candidate determination results are arranged in descending order of compression rate. More specifically, the candidate determination result b 1 of the prediction taps type according to the highest image compression ratio at the top is arranged, thereafter, the candidate determination result highly compressed sequence b 2 to b N are arranged. The direction in which this candidate determination result sequence is shifted is set by the sign of the shift amount. For example, when shifting in a direction with a high compression rate,-is set for the sign of the shift amount, and when shifting in a direction with a low compression rate, + is set for the sign of the shift amount. Zeros are inserted in bits vacated by the shift.

図28は、シフト量Aの設定例を示す図である。シフト量Aは、画質調整に適した予測係数群が使用されるように設定される。例えば、画質パラメータとしてコントラストの値が1乃至100の100段階で調整され、値が大きいほどコントラストが強くなる場合を考える。コントラストの強い画質調整が行われる場合、低圧縮の生徒画像で学習した予測係数群を使用した方が、調整後の画像の画質がよく見える。逆にコントラストが弱いと、高圧縮の生徒画像で学習した予測係数群を使用した方が、画質がよく見える。この傾向に基づいて、コントラストの統計量(例えば、平均値)が1乃至30の場合、高圧縮の画像に係る予測タップ種別の方へ1ビットシフトさせるシフト量−1が設定される。コントラストの平均値が31乃至70の場合、候補判定結果列をビットシフトさせる必要がなく、シフト量0が設定される。コントラストの平均値が71乃至100の場合、低圧縮の画像に係る予測タップ種別の方へ1ビットシフトさせるシフト量+1が設定される。シフト量Bについても、シフト量Aと同様に、視聴環境パラメータの統計量ごとに、予めシフト量が設定される。   FIG. 28 is a diagram illustrating a setting example of the shift amount A. The shift amount A is set so that a prediction coefficient group suitable for image quality adjustment is used. For example, let us consider a case where the contrast value is adjusted in 100 steps from 1 to 100 as the image quality parameter, and the contrast increases as the value increases. When image quality adjustment with high contrast is performed, the image quality of the image after adjustment looks better when the prediction coefficient group learned from the low-compression student image is used. On the other hand, when the contrast is weak, the image quality looks better when the prediction coefficient group learned from the highly compressed student image is used. Based on this tendency, when the contrast statistic (for example, the average value) is 1 to 30, a shift amount −1 for shifting 1 bit toward the prediction tap type related to the highly compressed image is set. When the average contrast value is 31 to 70, it is not necessary to bit-shift the candidate determination result sequence, and a shift amount of 0 is set. When the average contrast value is 71 to 100, a shift amount +1 for shifting by 1 bit toward the prediction tap type related to the low-compression image is set. Similarly to the shift amount A, the shift amount B is set in advance for each viewing environment parameter statistic.

図29は、第2の実施の形態における操作信号履歴情報記録部170の一構成例を示すブロック図である。操作信号履歴情報記録部170は、操作信号解析部171、統計処理部172、および、シフト量出力部173を備える。   FIG. 29 is a block diagram illustrating a configuration example of the operation signal history information recording unit 170 according to the second embodiment. The operation signal history information recording unit 170 includes an operation signal analysis unit 171, a statistical processing unit 172, and a shift amount output unit 173.

操作信号解析部171は、検出された操作信号を解析するものである。操作信号の解析においては、調整された画質パラメータの値などが解析される。操作信号解析部171は、解析した結果を統計処理部172に出力する。   The operation signal analyzer 171 analyzes the detected operation signal. In the analysis of the operation signal, the adjusted image quality parameter value and the like are analyzed. The operation signal analysis unit 171 outputs the analysis result to the statistical processing unit 172.

統計処理部172は、操作信号の解析結果に対して統計処理を行うものである。統計処理部172は、例えば、所定期間内における画質パラメータの値の平均値や中央値などの統計量を演算する。統計処理部172は、統計処理の結果をシフト量出力部173に出力する。   The statistical processing unit 172 performs statistical processing on the analysis result of the operation signal. The statistical processing unit 172 calculates a statistic such as an average value or a median value of image quality parameter values within a predetermined period, for example. The statistical processing unit 172 outputs the result of the statistical processing to the shift amount output unit 173.

シフト量出力部173は、統計結果に基づいてシフト量Aを決定するものである。シフト量Aは、統計量ごとに予め設定されている。シフト量出力部173は、決定したシフト量を判別演算部141に信号線179を介して出力する。   The shift amount output unit 173 determines the shift amount A based on the statistical result. The shift amount A is preset for each statistic. The shift amount output unit 173 outputs the determined shift amount to the discrimination calculation unit 141 via the signal line 179.

図30は、第2の実施の形態における視聴環境検出部180の一構成例を示すブロック図である。視聴環境検出部180は、センサ信号解析部181、統計処理部182、および、シフト量出力部183を備える。   FIG. 30 is a block diagram illustrating a configuration example of the viewing environment detection unit 180 according to the second embodiment. The viewing environment detection unit 180 includes a sensor signal analysis unit 181, a statistical processing unit 182, and a shift amount output unit 183.

センサ信号解析部181は、センサ信号を解析するものである。センサ信号は、例えば、高解像度画像を視聴する表示装置が設置された室内において光センサが検出した、室内の照度を示す信号である。センサ信号解析部181は、解析結果を統計処理部182に出力する。   The sensor signal analysis unit 181 analyzes the sensor signal. The sensor signal is, for example, a signal indicating the illuminance in the room detected by the optical sensor in the room where the display device for viewing a high-resolution image is installed. The sensor signal analysis unit 181 outputs the analysis result to the statistical processing unit 182.

統計処理部182は、センサ信号の解析結果に対して統計処理を行うものである。統計処理部182は、例えば、所定期間内における照度の平均値や中央値などの統計量を演算する。統計処理部182は、統計処理の結果をシフト量出力部183に出力する。   The statistical processing unit 182 performs statistical processing on the analysis result of the sensor signal. For example, the statistical processing unit 182 calculates a statistic such as an average value or median value of illuminance within a predetermined period. The statistical processing unit 182 outputs the result of the statistical processing to the shift amount output unit 183.

シフト量出力部183は、統計結果に基づいてシフト量Bを決定するものである。シフト量Bは、統計量ごとに予め設定されている。シフト量出力部183は、決定したシフト量を判別演算部141に信号線189を介して出力する。   The shift amount output unit 183 determines the shift amount B based on the statistical result. The shift amount B is preset for each statistic. The shift amount output unit 183 outputs the determined shift amount to the discrimination calculation unit 141 via the signal line 189.

図31は、第2の実施の形態における判別演算部141の一構成例を示すブロック図である。判別演算部141の構成は、シフト部145をさらに備える点において第1の実施の形態の判別演算部140と異なる。判別演算部141において候補判定結果列生成部144は、候補判定結果列をシフト部145に出力する。   FIG. 31 is a block diagram illustrating a configuration example of the discrimination calculation unit 141 according to the second embodiment. The configuration of the discrimination calculation unit 141 is different from the discrimination calculation unit 140 of the first embodiment in that it further includes a shift unit 145. In the discrimination calculation unit 141, the candidate determination result sequence generation unit 144 outputs the candidate determination result sequence to the shift unit 145.

シフト部145は、候補判定結果列に対してシフト演算を行うものである。シフト部145は、候補判定結果列生成部144から候補判定結果列を受け取り、操作信号履歴情報記録部170および視聴環境検出部180からシフト量AおよびBを受け取る。シフト部145は、シフト量AおよびBに基づいて候補判定結果列に対するシフト演算を行う。シフト部145は、シフト演算後の候補判定結果列を予測タップ種別決定部146に出力する。   The shift unit 145 performs a shift operation on the candidate determination result sequence. The shift unit 145 receives the candidate determination result sequence from the candidate determination result sequence generation unit 144 and receives the shift amounts A and B from the operation signal history information recording unit 170 and the viewing environment detection unit 180. The shift unit 145 performs a shift operation on the candidate determination result sequence based on the shift amounts A and B. The shift unit 145 outputs the candidate determination result sequence after the shift calculation to the prediction tap type determination unit 146.

[画像情報変換装置の動作例]
図32は、第2の実施の形態における予測タップ種別判別処理の一例を示すフローチャートである。第2の実施形態における予測タップ種別判別処理は、ステップS923をさらに実行する点において第1の実施の形態と異なる。
[Operation example of image information converter]
FIG. 32 is a flowchart illustrating an example of a prediction tap type determination process according to the second embodiment. The prediction tap type discrimination process in the second embodiment is different from the first embodiment in that step S923 is further executed.

判別演算部141は、候補判定結果列を生成した後(ステップS922)、候補判定結果列をシフト量に基づいてシフトする(ステップS923)。判別演算部141は、シフトした候補判定結果列から予測タップ種別を決定する(ステップS924)。   After generating the candidate determination result sequence (step S922), the discrimination calculation unit 141 shifts the candidate determination result sequence based on the shift amount (step S923). The discrimination calculation unit 141 determines the prediction tap type from the shifted candidate determination result sequence (step S924).

このように第2の実施の形態によれば、判別演算部141は、画質調整に適した予測係数群が属する予測タップ種別を優先する方向に候補判定結果列をビットシフトする。このため、操作信号により画調整が行われる場合であっても、高い変換精度を維持できる。   As described above, according to the second embodiment, the discrimination calculation unit 141 bit-shifts the candidate determination result sequence in a direction in which the prediction tap type to which the prediction coefficient group suitable for image quality adjustment belongs is prioritized. For this reason, high conversion accuracy can be maintained even when image adjustment is performed by an operation signal.

また、判別演算部141は、視聴環境に適した予測係数群が属する予測タップ種別を優先する方向に候補判定結果列をビットシフトする。このため、視聴環境に関りなく、高い変換精度を維持できる。   Further, the discrimination calculation unit 141 bit-shifts the candidate determination result sequence in a direction in which the prediction tap type to which the prediction coefficient group suitable for the viewing environment belongs is prioritized. For this reason, high conversion accuracy can be maintained regardless of the viewing environment.

なお、操作信号履歴情報記録部170は、操作信号から、操作したユーザを特定する情報をさらに取得することもできる。例えば、操作信号を発信するリモートコントロール装置において、操作時にユーザを特定するコードを入力することでユーザ認証を行う構成とし、操作信号から、操作信号履歴情報記録部170は、そのコードを取得してユーザを特定する。この場合、ユーザごとに統計処理が行われる。   The operation signal history information recording unit 170 can further acquire information for specifying the operated user from the operation signal. For example, in a remote control device that transmits an operation signal, user authentication is performed by inputting a code that identifies the user during operation, and the operation signal history information recording unit 170 acquires the code from the operation signal. Identify users. In this case, statistical processing is performed for each user.

また、操作信号を発信できるリモートコントロール装置が複数ある場合、操作信号履歴情報記録部170は、いずれの装置からの操作信号であるかを解析してもよい。この場合、装置ごとに統計処理が行われる。   When there are a plurality of remote control devices that can transmit an operation signal, the operation signal history information recording unit 170 may analyze which device the operation signal is from. In this case, statistical processing is performed for each device.

また、視聴環境検出部180は、視聴環境を示すパラメータであれば、照度以外のパラメータを検出することもできる。例えば、視聴環境検出部180は、高解像度画像を表示する表示装置の物理的な画面サイズを検出してもよい。画面サイズが大きい表示装置での視聴に適した高解像度画像を予測する予測演算においては、低圧縮の生徒画像で学習した予測係数群が適している。この傾向に基づいてシフト量が決定される。   The viewing environment detection unit 180 can also detect a parameter other than illuminance as long as the parameter indicates the viewing environment. For example, the viewing environment detection unit 180 may detect the physical screen size of a display device that displays a high-resolution image. In a prediction calculation for predicting a high-resolution image suitable for viewing on a display device having a large screen size, a prediction coefficient group learned from a low-compression student image is suitable. The shift amount is determined based on this tendency.

また、予測タップ種別の分類において、学習時における予測タップの抽出元の画像の圧縮率で、各予測タップを複数の予測タップ種別に分類しているが、圧縮率以外の種類に基づいて、予測タップを分類してもよい。例えば、学習時の抽出元の画像が自然画またはCG画像のいずれに近いかにより予測タップ種別に分類してもよい。自然画またはCG画像のいずれに近いかにより予測タップ種別を分類した場合、コントラストが強いほど、CG画像に近い画像で学習した予測係数群が適している。この傾向に基づいてシフト量が決定される。   In addition, in the classification of the prediction tap type, each prediction tap is classified into a plurality of prediction tap types based on the compression rate of the image from which the prediction tap is extracted at the time of learning. Taps may be classified. For example, the prediction tap type may be classified according to whether the source image at the time of learning is closer to a natural image or a CG image. When the prediction tap type is classified based on whether it is close to a natural image or a CG image, the stronger the contrast, the more suitable the prediction coefficient group learned from an image close to the CG image. The shift amount is determined based on this tendency.

<第3の実施の形態>
[画像情報変換装置の構成例]
図33は、第3の実施の形態における画像情報変換装置100の一構成例を示すブロック図である。第3の実施の形態の画像情報変換装置100は、平均波形演算部185をさらに備える点において第1の実施の形態の画像情報変換装置100と異なる。第2の変形例における予測タップ抽出部111は、予測タップ内の各画素値を平均波形演算部185にさらに出力する。
<Third Embodiment>
[Configuration example of image information conversion apparatus]
FIG. 33 is a block diagram illustrating a configuration example of the image information conversion apparatus 100 according to the third embodiment. The image information conversion apparatus 100 according to the third embodiment is different from the image information conversion apparatus 100 according to the first embodiment in that an average waveform calculation unit 185 is further provided. The prediction tap extraction unit 111 in the second modification further outputs each pixel value in the prediction tap to the average waveform calculation unit 185.

平均波形演算部185は、予測タップ内の各画素の画素値の平均値を平均波形として演算するものである。平均波形演算部185は、演算した平均波形が学習時における平均波形の範囲外であった場合に、候補判定結果列をシフトするシフト量Cを判別演算部141に信号線189を介して出力する。   The average waveform calculation unit 185 calculates an average value of pixel values of each pixel in the prediction tap as an average waveform. The average waveform calculation unit 185 outputs the shift amount C for shifting the candidate determination result sequence to the determination calculation unit 141 via the signal line 189 when the calculated average waveform is outside the range of the average waveform at the time of learning. .

シフト量Cは、その平均波形に適した予測係数群が属する予測タップ種別を優先する方向に候補判定結果列をビットシフトする量である。各予測係数群が、平均波形に適するか否かは、その予測係数群を選択した場合に、それ以外の予測係数群を選択する場合よりも、その低解像度画像から変換した高画質画像の画質がよく見えるか否かにより判断される。例えば、画素値を輝度値として、学習時の生徒画像よりも明るい低解像度画像が入力された場合、入力された低解像度画像の実際の圧縮率よりも低い圧縮率の画像で学習した予測係数群を使用した方が、比較的適切な高解像度画像が生成される。   The shift amount C is an amount by which the candidate determination result sequence is bit-shifted in a direction in which the prediction tap type to which the prediction coefficient group suitable for the average waveform belongs is prioritized. Whether each prediction coefficient group is suitable for the average waveform depends on the image quality of the high-quality image converted from the low-resolution image when selecting that prediction coefficient group than when selecting the other prediction coefficient group. Judgment is based on whether or not the image is visible. For example, when a low-resolution image that is brighter than the student image at the time of learning is input using the pixel value as a luminance value, a prediction coefficient group that is learned with an image having a compression rate lower than the actual compression rate of the input low-resolution image A relatively appropriate high-resolution image is generated by using.

図34は、第3の実施の形態における平均波形演算部185の一構成例を示すブロック図である。平均波形演算部185は、平均波形演算器186およびシフト量出力部187を備える。   FIG. 34 is a block diagram illustrating a configuration example of the average waveform calculator 185 according to the third embodiment. The average waveform calculator 185 includes an average waveform calculator 186 and a shift amount output unit 187.

平均波形演算器186は、予測タップ内の各画素値から平均波形を演算するものである。平均波形演算器186は、演算した平均波形をシフト量出力部187に出力する。   The average waveform calculator 186 calculates an average waveform from each pixel value in the prediction tap. The average waveform calculator 186 outputs the calculated average waveform to the shift amount output unit 187.

シフト量出力部187は、平均波形に基づいてシフト量Cを決定するものである。シフト量出力部187は、決定したシフト量Cを判別演算部141に出力する。シフト量Cは、平均波形の値ごとに予め設定される。判別演算部141は、そのシフト量Cに基づいて候補判定結果列をシフトする。   The shift amount output unit 187 determines the shift amount C based on the average waveform. The shift amount output unit 187 outputs the determined shift amount C to the discrimination calculation unit 141. The shift amount C is preset for each value of the average waveform. The discrimination calculation unit 141 shifts the candidate determination result sequence based on the shift amount C.

このように、第3の実施の形態によれば、画像情報変換装置100は、平均波形に適した予測係数群が属する予測タップ種別を優先する方向に候補判定結果列をシフトする。このため、学習時の平均波形の範囲外の低解像度画像が入力された場合であっても、適切な予測タップ係数群が選択され、画質が低下しにくい。   As described above, according to the third embodiment, the image information conversion apparatus 100 shifts the candidate determination result sequence in a direction in which the prediction tap type to which the prediction coefficient group suitable for the average waveform belongs is prioritized. For this reason, even when a low-resolution image outside the range of the average waveform at the time of learning is input, an appropriate prediction tap coefficient group is selected and the image quality is unlikely to deteriorate.

なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。   The above-described embodiment shows an example for embodying the present technology, and the matters in the embodiment and the invention-specific matters in the claims have a corresponding relationship. Similarly, the invention specific matter in the claims and the matter in the embodiment of the present technology having the same name as this have a corresponding relationship. However, the present technology is not limited to the embodiment, and can be embodied by making various modifications to the embodiment without departing from the gist thereof.

また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disk)、メモリカード、ブルーレイディスク(Blu-ray Disc(登録商標))等を用いることができる。   Further, the processing procedure described in the above embodiment may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program. You may catch it. As this recording medium, for example, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disk), a memory card, a Blu-ray Disc (registered trademark), or the like can be used.

なお、本技術は以下のような構成もとることができる。
(1)第1の画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記第1の画像から抽出するタップ抽出部と、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類部と、
複数の予測タップ種別のうちのいずれに前記予測タップが属するかを判別する判別演算において使用すべき係数群として前記予測タップ種別ごとに前記複数のクラスに対応付けて設定された複数の判別係数群の中から前記複数の予測タップ種別のそれぞれにおいて前記分類されたクラスに対応する前記判別係数群を選択する判別係数選択部と、
前記選択された判別係数群と前記予測タップ内の各画素の画素値とに基づいて前記判別演算を実行した結果から前記予測タップが属する前記予測タップ種別を判別する判別演算部と、
前記第1の画像の解像度を変更した画像である第2の画像内の画素の画素値を予測する予測演算において使用すべき係数群として前記複数のクラスと前記複数の予測タップ種別との各組合せに対応付けて設定された複数の予測係数群の中から前記分類されたクラスと前記判別された予測タップ種別との組合せに対応する前記予測係数群を選択する予測係数選択部と、
前記選択された予測係数群と前記予測タップ内の各画素の画素値とに基づいて前記予測演算を実行する予測演算部と
を具備する画像情報変換装置。
(2)前記クラス分類部は、前記クラスタップ内の各画素の画素値の階調数を減じて当該階調数を減じた前記画素値に基づいて前記形状パターンを前記複数のクラスのうちのいずれかに分類する前記(1)の画像情報変換装置。
(3)前記判別演算部は、
前記選択された前記判別係数群内の各判別係数と前記予測タップ内の各画素の画素値との積和演算を前記判別演算として実行する判別演算実行部と、
前記複数の予測タップ種別のそれぞれにおける前記積和演算の結果と所定の閾値とを比較して比較した結果の各々を比較結果として出力する比較部と、
前記比較結果に基づいて前記予測タップが属する前記予測タップ種別を判別する予測タップ種別判別部と
を備える前記(1)または(2)記載の画像情報変換装置。
(4)前記第2の画像の画質を調整する操作信号を記録する記録部をさらに具備し、
前記予測タップ種別判別部は、前記記録された操作信号により行われる前記画質の調整に適した前記予測係数群が属する前記予測タップ種別を優先して前記複数の予測タップのうちのいずれかを選択する
前記(3)記載の画像情報変換装置。
(5)前記第2の画像の視聴環境を示す視聴環境パラメータを検出する視聴環境検出部をさらに具備し、
前記予測タップ種別判別部は、前記視聴環境パラメータの示す前記視聴環境に適した前記予測係数群が属する前記予測タップ種別を優先して前記複数の予測タップ種別のうちのいずれかを選択する
前記(3)記載の画像情報変換装置。
(6)前記視聴環境パラメータは、前記第2の画像を表示する表示装置が設置された室内の照明の照度を含む
前記(5)記載の画像情報変換装置。
(7)前記視聴環境パラメータは、前記第2の画像を表示する表示装置の種別を含む
前記(5)または(6)記載の画像情報変換装置。
(8)前記予測タップ内の各画素の画素値の平均値を演算する平均値演算部をさらに具備し、
前記予測タップ種別判別部は、
前記平均値が所定の範囲外である場合に前記平均値に適した前記予測係数群が属する前記予測タップ種別を優先して前記複数の予測タップ種別のうちのいずれかを選択する
前記(3)記載の画像情報変換装置。
(9)第1の画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記第1の画像から抽出するタップ抽出ステップと、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類ステップと、
複数の予測タップ種別のうちのいずれに前記予測タップが属するかを判別する判別演算において使用すべき係数群として前記予測タップ種別ごとに前記複数のクラスに対応付けて設定された複数の判別係数群の中から前記複数の予測タップ種別のそれぞれにおいて前記分類されたクラスに対応する前記判別係数群を選択する判別係数選択ステップと、
前記選択された判別係数群と前記予測タップ内の各画素の画素値とに基づいて前記判別演算を実行した結果から前記予測タップが属する前記予測タップ種別を判別する判別演算ステップと、
前記第1の画像の解像度を変更した画像である第2の画像内の画素の画素値を予測する予測演算において使用すべき係数群として前記複数のクラスと前記複数の予測タップ種別との各組合せに対応付けて設定された複数の予測係数群の中から前記分類されたクラスと前記判別された予測タップ種別との組合せに対応する前記予測係数群を選択する予測係数選択ステップと、
前記選択された予測係数群と前記予測タップ内の各画素の画素値とに基づいて前記予測演算を実行する予測演算ステップと
を具備する画像情報変換装置の制御方法。
(10)第1の画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記第1の画像から抽出するタップ抽出ステップと、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類ステップと、
複数の予測タップ種別のうちのいずれに前記予測タップが属するかを判別する判別演算において使用すべき係数群として前記予測タップ種別ごとに前記複数のクラスに対応付けて設定された複数の判別係数群の中から前記複数の予測タップ種別のそれぞれにおいて前記分類されたクラスに対応する前記判別係数群を選択する判別係数選択ステップと、
前記選択された判別係数群と前記予測タップ内の各画素の画素値とに基づいて前記判別演算を実行した結果から前記予測タップが属する前記予測タップ種別を判別する判別演算ステップと、
前記第1の画像の解像度を変更した画像である第2の画像内の画素の画素値を予測する予測演算において使用すべき係数群として前記複数のクラスと前記複数の予測タップ種別との各組合せに対応付けて設定された複数の予測係数群の中から前記分類されたクラスと前記判別された予測タップ種別との組合せに対応する前記予測係数群を選択する予測係数選択ステップと、
前記選択された予測係数群と前記予測タップ内の各画素の画素値とに基づいて前記予測演算を実行する予測演算ステップと
をコンピュータに実行させるためのプログラム。
(11)複数の異なる画像のそれぞれを生徒画像として複数の前記生徒画像からなる生徒画像群を複数回入力する生徒画像入力部と、
前記入力された生徒画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記画像から抽出するタップ抽出部と、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類部と、
前記生徒画像群内のいずれかの前記生徒画像を判別画像として前記判別画像が入力された場合に第1の目標値を生成し、前記判別画像以外の前記生徒画像が入力された場合に第2の目標値を生成する目標値生成部と、
画像の解像度を変更する場合において変更対象の前記画像が前記学習画像に類似するか否かを判別する判別演算において使用すべき判別係数群を前記第1および第2の目標値と前記予測タップ内の各画素の画素値とに基づいて前記クラスごとに演算する判別係数演算部と
を具備する判別係数学習装置。
(12)前記生徒画像入力部は、前記生徒画像の解像度を変更した画像である教師画像を複数のフィルタに通過させることにより前記生徒画像群を生成するフィルタ部と、
前記生成された複数の生徒画像群を複数回入力する生徒画像供給部とを備える前記(11)記載の判別係数学習装置。
(13)前記判別演算は、前記判別係数群内の各判別係数と前記変更対象の画像内の前記予測タップ内の各画素値との積和演算であり、
前記判別係数演算部は、前記学習画像における前記判別演算の結果と前記第1の目標値との間の差分の二乗和に前記学習画像以外の前記生徒画像における前記判別演算の結果と前記第2の目標値との間の差分の二乗和を加算した値を最小にする前記判別係数群を前記複数のクラスの各々について演算する
前記(11)または(12)記載の判別係数学習装置。
(14)複数の異なる画像のそれぞれを生徒画像として複数の前記生徒画像からなる生徒画像群を複数回入力する生徒画像入力ステップと、
前記入力された生徒画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記画像から抽出するタップ抽出ステップと、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類ステップと、
前記生徒画像群内のいずれかの前記生徒画像を判別画像として前記判別画像が入力された場合に第1の目標値を生成し、前記判別画像以外の前記生徒画像が入力された場合に第2の目標値を生成する目標値生成ステップと、
画像の解像度を変更する場合において変更対象の前記画像が前記学習画像に類似するか否かを判別する判別演算において使用すべき判別係数群を前記第1および第2の目標値と前記予測タップ内の各画素の画素値とに基づいて前記クラスごとに演算する判別係数演算ステップと
を具備する判別係数学習装置の制御方法。
(15)複数の異なる画像のそれぞれを生徒画像として複数の前記生徒画像からなる生徒画像群を複数回入力する生徒画像入力ステップと、
前記入力された生徒画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記画像から抽出するタップ抽出ステップと、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類ステップと、
前記生徒画像群内のいずれかの前記生徒画像を判別画像として前記判別画像が入力された場合に第1の目標値を生成し、前記判別画像以外の前記生徒画像が入力された場合に第2の目標値を生成する目標値生成ステップと、
画像の解像度を変更する場合において変更対象の前記画像が前記学習画像に類似するか否かを判別する判別演算において使用すべき判別係数群を前記第1および第2の目標値と前記予測タップ内の各画素の画素値とに基づいて前記クラスごとに演算する判別係数演算ステップと
を実行させるためのプログラム。
(16)複数の異なる画像のそれぞれを生徒画像として入力する生徒画像入力部と、
前記入力された生徒画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記第1の画像から抽出するタップ抽出部と、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類部と、
前記入力された生徒画像の解像度を変更した画像である教師画像内の1つ以上の画素を教師画素として抽出する教師画素抽出部と、
前記教師画素の画素値を予測する予測演算において使用すべき予測係数群を前記予測タップ内の各画素の画素値と前記教師画素の画素値とに基づいて前記クラスごとに演算する予測係数演算部と
を具備する予測係数学習装置。
(17)前記生徒画像入力部は、前記教師画像を複数のフィルタに通過させることにより前記複数の生徒画像を生成して入力する
前記(16)記載の予測係数学習装置。
(18)複数の異なる画像のそれぞれを生徒画像として入力する生徒画像入力ステップと、
前記入力された生徒画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記第1の画像から抽出するタップ抽出ステップと、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類ステップと、
前記入力された生徒画像の解像度を変更した画像である教師画像内の1つ以上の画素を教師画素として抽出する教師画素抽出ステップと、
前記教師画素の画素値を予測する予測演算において使用すべき予測係数群を前記予測タップ内の各画素の画素値と前記教師画素の画素値とに基づいて前記クラスごとに演算する予測係数演算ステップと
を具備する予測係数学習装置の制御方法。
(19)複数の異なる画像のそれぞれを生徒画像として入力する生徒画像入力ステップと、
前記入力された生徒画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記第1の画像から抽出するタップ抽出ステップと、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類ステップと、
前記入力された生徒画像の解像度を変更した画像である教師画像内の1つ以上の画素を教師画素として抽出する教師画素抽出ステップと、
前記教師画素の画素値を予測する予測演算において使用すべき予測係数群を前記予測タップ内の各画素の画素値と前記教師画素の画素値とに基づいて前記クラスごとに演算する予測係数演算ステップと
をコンピュータに実行させるためのプログラム。
In addition, this technique can also take the following structures.
(1) Using any pixel in the first image as a target pixel, a class tap that is a first pixel group including the target pixel and a prediction tap that is a second pixel group including the target pixel are A tap extraction unit for extracting from one image;
A class classification unit for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into one of a plurality of classes;
A plurality of discriminant coefficient groups set in association with the plurality of classes for each prediction tap type as a coefficient group to be used in a discriminant calculation for discriminating to which of the plurality of predictive tap types the predictive tap belongs A discrimination coefficient selection unit that selects the discrimination coefficient group corresponding to the classified class in each of the plurality of prediction tap types from
A discriminating operation unit that discriminates the prediction tap type to which the prediction tap belongs from a result of executing the discriminant operation based on the selected discrimination coefficient group and a pixel value of each pixel in the prediction tap;
Each combination of the plurality of classes and the plurality of prediction tap types as a coefficient group to be used in a prediction calculation for predicting a pixel value of a pixel in the second image which is an image in which the resolution of the first image is changed A prediction coefficient selection unit that selects the prediction coefficient group corresponding to a combination of the classified class and the determined prediction tap type from among a plurality of prediction coefficient groups set in association with
An image information conversion apparatus comprising: a prediction calculation unit that executes the prediction calculation based on the selected prediction coefficient group and a pixel value of each pixel in the prediction tap.
(2) The class classification unit subtracts the number of gradations of the pixel value of each pixel in the class tap and converts the shape pattern of the plurality of classes based on the pixel value obtained by reducing the number of gradations. The image information conversion apparatus according to (1), wherein the image information conversion apparatus is classified into one of the above.
(3) The discrimination calculation unit
A discrimination calculation execution unit that executes a product-sum calculation of each discrimination coefficient in the selected discrimination coefficient group and a pixel value of each pixel in the prediction tap as the discrimination calculation;
A comparison unit that outputs, as a comparison result, each of the results of comparing and comparing the result of the product-sum operation in each of the plurality of prediction tap types with a predetermined threshold;
The image information conversion device according to (1) or (2), further including: a prediction tap type determination unit that determines the prediction tap type to which the prediction tap belongs based on the comparison result.
(4) a recording unit that records an operation signal for adjusting the image quality of the second image;
The prediction tap type determination unit selects one of the plurality of prediction taps in preference to the prediction tap type to which the prediction coefficient group suitable for the image quality adjustment performed by the recorded operation signal belongs. The image information conversion apparatus according to (3).
(5) a viewing environment detection unit that detects a viewing environment parameter indicating the viewing environment of the second image;
The prediction tap type determination unit selects one of the plurality of prediction tap types in preference to the prediction tap type to which the prediction coefficient group suitable for the viewing environment indicated by the viewing environment parameter belongs ( 3) The image information conversion apparatus described.
(6) The image information conversion device according to (5), wherein the viewing environment parameter includes illuminance of illumination in a room in which the display device that displays the second image is installed.
(7) The image information conversion device according to (5) or (6), wherein the viewing environment parameter includes a type of a display device that displays the second image.
(8) further comprising an average value calculation unit for calculating an average value of pixel values of each pixel in the prediction tap;
The predicted tap type determination unit
When the average value is outside a predetermined range, the prediction tap type to which the prediction coefficient group suitable for the average value belongs is prioritized and any one of the plurality of prediction tap types is selected (3) The image information conversion apparatus described.
(9) Using any pixel in the first image as a target pixel, a class tap that is a first pixel group including the target pixel and a prediction tap that is a second pixel group including the target pixel are A tap extraction step for extracting from one image;
A class classification step for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into any of a plurality of classes;
A plurality of discriminant coefficient groups set in association with the plurality of classes for each prediction tap type as a coefficient group to be used in a discriminant calculation for discriminating to which of the plurality of predictive tap types the predictive tap belongs A discrimination coefficient selection step of selecting the discrimination coefficient group corresponding to the classified class in each of the plurality of prediction tap types from
A discriminant calculation step of discriminating the prediction tap type to which the prediction tap belongs from a result of executing the discrimination calculation based on the selected discrimination coefficient group and a pixel value of each pixel in the prediction tap;
Each combination of the plurality of classes and the plurality of prediction tap types as a coefficient group to be used in a prediction calculation for predicting a pixel value of a pixel in the second image which is an image in which the resolution of the first image is changed A prediction coefficient selection step of selecting the prediction coefficient group corresponding to the combination of the classified class and the determined prediction tap type from among a plurality of prediction coefficient groups set in association with
A control method for an image information conversion apparatus, comprising: a prediction calculation step that executes the prediction calculation based on the selected prediction coefficient group and a pixel value of each pixel in the prediction tap.
(10) Using any pixel in the first image as a target pixel, a class tap that is a first pixel group including the target pixel and a prediction tap that is a second pixel group including the target pixel are A tap extraction step for extracting from one image;
A class classification step for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into any of a plurality of classes;
A plurality of discriminant coefficient groups set in association with the plurality of classes for each prediction tap type as a coefficient group to be used in a discriminant calculation for discriminating to which of the plurality of predictive tap types the predictive tap belongs A discrimination coefficient selection step of selecting the discrimination coefficient group corresponding to the classified class in each of the plurality of prediction tap types from
A discriminant calculation step of discriminating the prediction tap type to which the prediction tap belongs from a result of executing the discrimination calculation based on the selected discrimination coefficient group and a pixel value of each pixel in the prediction tap;
Each combination of the plurality of classes and the plurality of prediction tap types as a coefficient group to be used in a prediction calculation for predicting a pixel value of a pixel in the second image which is an image in which the resolution of the first image is changed A prediction coefficient selection step of selecting the prediction coefficient group corresponding to the combination of the classified class and the determined prediction tap type from among a plurality of prediction coefficient groups set in association with
A program for causing a computer to execute a prediction calculation step of executing the prediction calculation based on the selected prediction coefficient group and a pixel value of each pixel in the prediction tap.
(11) A student image input unit that inputs a plurality of student image groups including a plurality of student images, each of a plurality of different images as student images,
A class tap which is a first pixel group including the target pixel and a prediction tap which is a second pixel group including the target pixel are selected from the image, using any pixel in the input student image as the target pixel. A tap extraction unit to extract;
A class classification unit for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into one of a plurality of classes;
A first target value is generated when the discrimination image is input using any one of the student images in the student image group as a discrimination image, and the second target value is input when the student image other than the discrimination image is input. A target value generation unit for generating a target value of
When the resolution of an image is changed, a discrimination coefficient group to be used in a discrimination calculation for discriminating whether or not the image to be changed is similar to the learning image is set in the first and second target values and the prediction tap. A discrimination coefficient learning device comprising: a discrimination coefficient calculation unit that calculates each class based on a pixel value of each pixel.
(12) The student image input unit includes a filter unit that generates the student image group by passing a teacher image, which is an image in which the resolution of the student image is changed, through a plurality of filters;
The discrimination coefficient learning device according to (11), further comprising a student image supply unit that inputs the generated plurality of student image groups a plurality of times.
(13) The discrimination operation is a product-sum operation of each discrimination coefficient in the discrimination coefficient group and each pixel value in the prediction tap in the change target image,
The discriminant coefficient calculating unit adds the result of the discriminant calculation in the student image other than the learning image and the second sum of squares of the difference between the result of the discriminant calculation in the learning image and the first target value. The discriminant coefficient learning device according to (11) or (12), wherein the discriminant coefficient group that minimizes a value obtained by adding a sum of squares of differences from the target value is calculated for each of the plurality of classes.
(14) A student image input step of inputting a plurality of student image groups each including a plurality of student images, each of a plurality of different images as a student image,
A class tap which is a first pixel group including the target pixel and a prediction tap which is a second pixel group including the target pixel are selected from the image, using any pixel in the input student image as the target pixel. Tap extraction step to extract;
A class classification step for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into any of a plurality of classes;
A first target value is generated when the discrimination image is input using any one of the student images in the student image group as a discrimination image, and the second target value is input when the student image other than the discrimination image is input. A target value generation step for generating a target value of
When the resolution of an image is changed, a discrimination coefficient group to be used in a discrimination calculation for discriminating whether or not the image to be changed is similar to the learning image is set in the first and second target values and the prediction tap. A discriminant coefficient learning device control method comprising: a discriminant coefficient calculation step for calculating each class based on a pixel value of each pixel.
(15) A student image input step for inputting a plurality of student image groups each including a plurality of student images, each of a plurality of different images as student images,
A class tap which is a first pixel group including the target pixel and a prediction tap which is a second pixel group including the target pixel are selected from the image, using any pixel in the input student image as the target pixel. Tap extraction step to extract;
A class classification step for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into any of a plurality of classes;
A first target value is generated when the discrimination image is input using any one of the student images in the student image group as a discrimination image, and the second target value is input when the student image other than the discrimination image is input. A target value generation step for generating a target value of
When the resolution of an image is changed, a discrimination coefficient group to be used in a discrimination calculation for discriminating whether or not the image to be changed is similar to the learning image is set in the first and second target values and the prediction tap. And a discrimination coefficient calculation step for calculating each class based on the pixel value of each pixel.
(16) a student image input unit that inputs each of a plurality of different images as a student image;
A class tap which is a first pixel group including the target pixel and a prediction tap which is a second pixel group including the target pixel are selected from any pixel in the input student image as the target pixel. A tap extraction unit that extracts from the image of
A class classification unit for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into one of a plurality of classes;
A teacher pixel extraction unit that extracts one or more pixels in the teacher image, which is an image obtained by changing the resolution of the input student image, as a teacher pixel;
A prediction coefficient calculation unit that calculates a prediction coefficient group to be used in a prediction calculation for predicting the pixel value of the teacher pixel for each class based on the pixel value of each pixel in the prediction tap and the pixel value of the teacher pixel. A prediction coefficient learning apparatus comprising:
(17) The prediction coefficient learning device according to (16), wherein the student image input unit generates and inputs the plurality of student images by passing the teacher image through a plurality of filters.
(18) a student image input step of inputting each of a plurality of different images as a student image;
A class tap which is a first pixel group including the target pixel and a prediction tap which is a second pixel group including the target pixel are selected from any pixel in the input student image as the target pixel. Tap extraction step to extract from the image of
A class classification step for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into any of a plurality of classes;
A teacher pixel extraction step of extracting one or more pixels in the teacher image, which is an image obtained by changing the resolution of the input student image, as a teacher pixel;
A prediction coefficient calculation step of calculating a prediction coefficient group to be used in a prediction calculation for predicting the pixel value of the teacher pixel for each class based on the pixel value of each pixel in the prediction tap and the pixel value of the teacher pixel. A control method for a prediction coefficient learning apparatus comprising:
(19) A student image input step of inputting each of a plurality of different images as a student image;
A class tap which is a first pixel group including the target pixel and a prediction tap which is a second pixel group including the target pixel are selected from any pixel in the input student image as the target pixel. Tap extraction step to extract from the image of
A class classification step for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into any of a plurality of classes;
A teacher pixel extraction step of extracting one or more pixels in the teacher image, which is an image obtained by changing the resolution of the input student image, as a teacher pixel;
A prediction coefficient calculation step of calculating a prediction coefficient group to be used in a prediction calculation for predicting the pixel value of the teacher pixel for each class based on the pixel value of each pixel in the prediction tap and the pixel value of the teacher pixel. A program that causes a computer to execute.

100 画像情報変換装置
110、230、330 タップ抽出部
111 予測タップ抽出部
112 クラスタップ抽出部
120、240、340 クラス分類部
121 再量子化部
122 クラスコード決定部
130 判別係数選択部
131、280 判別係数記憶部
132 判別係数メモリ
133 判別係数読出部
140、141 判別演算部
142 判別演算器
143 閾値処理部
144 候補判定結果列生成部
145 シフト部
146 予測タップ種別決定部
150 予測係数選択部
151 予測係数記憶部
152 予測係数メモリ
153 予測係数読出部
154、312 セレクタ
160 予測演算部
170 操作信号履歴情報記録部
171 操作信号解析部
172、182、271 統計処理部
173、183、187 シフト量出力部
180 視聴環境検出部
181 センサ信号解析部
185 平均波形演算部
186 平均波形演算器
190 画質調整部
200 判別係数学習装置
210、310 フィルタ部
211、311 2次元フィルタ
212 生徒画像記憶部
213 生徒画像供給部
220 目標値供給部
250 判別係数演算部
260 正規方程式生成部
270 判別係数決定部
272 行列成分合計値記憶部
273 判別係数演算器
300 予測係数学習装置
320 教師画素抽出部
350 予測係数演算部
DESCRIPTION OF SYMBOLS 100 Image information converter 110,230,330 Tap extraction part 111 Prediction tap extraction part 112 Class tap extraction part 120,240,340 Class classification part 121 Requantization part 122 Class code determination part 130 Discrimination coefficient selection part 131,280 Discrimination Coefficient storage unit 132 Discrimination coefficient memory 133 Discrimination coefficient reading unit 140, 141 Discrimination calculation unit 142 Discrimination calculator 143 Threshold processing unit 144 Candidate determination result sequence generation unit 145 Shift unit 146 Prediction tap type determination unit 150 Prediction coefficient selection unit 151 Prediction coefficient Storage unit 152 Prediction coefficient memory 153 Prediction coefficient reading unit 154, 312 Selector 160 Prediction calculation unit 170 Operation signal history information recording unit 171 Operation signal analysis unit 172, 182, 271 Statistical processing unit 173, 183, 187 Shift amount output unit 180 Viewing Environment detection unit 181 Sensor signal analysis unit 185 Average waveform calculation unit 186 Average waveform calculation unit 190 Image quality adjustment unit 200 Discriminant coefficient learning device 210, 310 Filter unit 211, 311 Two-dimensional filter 212 Student image storage unit 213 Student image supply unit 220 Target Value supply unit 250 Discrimination coefficient calculation unit 260 Normal equation generation unit 270 Discrimination coefficient determination unit 272 Matrix component total value storage unit 273 Discrimination coefficient calculator 300 Prediction coefficient learning device 320 Teacher pixel extraction unit 350 Prediction coefficient calculation unit

Claims (19)

第1の画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記第1の画像から抽出するタップ抽出部と、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類部と、
複数の予測タップ種別のうちのいずれに前記予測タップが属するかを判別する判別演算において使用すべき係数群として前記予測タップ種別ごとに前記複数のクラスに対応付けて設定された複数の判別係数群の中から前記複数の予測タップ種別のそれぞれにおいて前記分類されたクラスに対応する前記判別係数群を選択する判別係数選択部と、
前記選択された判別係数群と前記予測タップ内の各画素の画素値とに基づいて前記判別演算を実行した結果から前記予測タップが属する前記予測タップ種別を判別する判別演算部と、
前記第1の画像の解像度を変更した画像である第2の画像内の画素の画素値を予測する予測演算において使用すべき係数群として前記複数のクラスと前記複数の予測タップ種別との各組合せに対応付けて設定された複数の予測係数群の中から前記分類されたクラスと前記判別された予測タップ種別との組合せに対応する前記予測係数群を選択する予測係数選択部と、
前記選択された予測係数群と前記予測タップ内の各画素の画素値とに基づいて前記予測演算を実行する予測演算部と
を具備する画像情報変換装置。
Using any pixel in the first image as a target pixel, the first image includes a class tap that is a first pixel group including the target pixel and a prediction tap that is a second pixel group including the target pixel. A tap extractor for extracting from
A class classification unit for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into one of a plurality of classes;
A plurality of discriminant coefficient groups set in association with the plurality of classes for each prediction tap type as a coefficient group to be used in a discriminant calculation for discriminating to which of the plurality of predictive tap types the predictive tap belongs A discrimination coefficient selection unit that selects the discrimination coefficient group corresponding to the classified class in each of the plurality of prediction tap types from
A discriminating operation unit that discriminates the prediction tap type to which the prediction tap belongs from a result of executing the discriminant operation based on the selected discrimination coefficient group and a pixel value of each pixel in the prediction tap;
Each combination of the plurality of classes and the plurality of prediction tap types as a coefficient group to be used in a prediction calculation for predicting a pixel value of a pixel in the second image which is an image in which the resolution of the first image is changed A prediction coefficient selection unit that selects the prediction coefficient group corresponding to a combination of the classified class and the determined prediction tap type from among a plurality of prediction coefficient groups set in association with
An image information conversion apparatus comprising: a prediction calculation unit that executes the prediction calculation based on the selected prediction coefficient group and a pixel value of each pixel in the prediction tap.
前記クラス分類部は、前記クラスタップ内の各画素の画素値の階調数を減じて当該階調数を減じた前記画素値に基づいて前記形状パターンを前記複数のクラスのうちのいずれかに分類する請求項1記載の画像情報変換装置。   The class classification unit subtracts the number of gradations of the pixel value of each pixel in the class tap and assigns the shape pattern to one of the plurality of classes based on the pixel value obtained by reducing the number of gradations. The image information conversion apparatus according to claim 1, wherein classification is performed. 前記判別演算部は、
前記選択された前記判別係数群内の各判別係数と前記予測タップ内の各画素の画素値との積和演算を前記判別演算として実行する判別演算実行部と、
前記複数の予測タップ種別のそれぞれにおける前記積和演算の結果と所定の閾値とを比較して比較した結果の各々を比較結果として出力する比較部と、
前記比較結果に基づいて前記予測タップが属する前記予測タップ種別を判別する予測タップ種別判別部と
を備える請求項1記載の画像情報変換装置。
The discrimination calculation unit
A discrimination calculation execution unit that executes a product-sum calculation of each discrimination coefficient in the selected discrimination coefficient group and a pixel value of each pixel in the prediction tap as the discrimination calculation;
A comparison unit that outputs, as a comparison result, each of the results of comparing and comparing the result of the product-sum operation in each of the plurality of prediction tap types with a predetermined threshold;
The image information conversion apparatus according to claim 1, further comprising: a prediction tap type determination unit that determines the prediction tap type to which the prediction tap belongs based on the comparison result.
前記第2の画像の画質を調整する操作信号を記録する記録部をさらに具備し、
前記予測タップ種別判別部は、前記記録された操作信号により行われる前記画質の調整に適した前記予測係数群が属する前記予測タップ種別を優先して前記複数の予測タップのうちのいずれかを選択する
請求項3記載の画像情報変換装置。
A recording unit that records an operation signal for adjusting an image quality of the second image;
The prediction tap type determination unit selects one of the plurality of prediction taps in preference to the prediction tap type to which the prediction coefficient group suitable for the image quality adjustment performed by the recorded operation signal belongs. The image information conversion apparatus according to claim 3.
前記第2の画像の視聴環境を示す視聴環境パラメータを検出する視聴環境検出部をさらに具備し、
前記予測タップ種別判別部は、前記視聴環境パラメータの示す前記視聴環境に適した前記予測係数群が属する前記予測タップ種別を優先して前記複数の予測タップ種別のうちのいずれかを選択する
請求項3記載の画像情報変換装置。
A viewing environment detection unit for detecting a viewing environment parameter indicating a viewing environment of the second image;
The prediction tap type determination unit selects one of the plurality of prediction tap types by giving priority to the prediction tap type to which the prediction coefficient group suitable for the viewing environment indicated by the viewing environment parameter belongs. 3. The image information conversion apparatus according to 3.
前記視聴環境パラメータは、前記第2の画像を表示する表示装置が設置された室内の照明の照度を含む
請求項5記載の画像情報変換装置。
The image information conversion apparatus according to claim 5, wherein the viewing environment parameter includes illuminance of illumination in a room in which a display device that displays the second image is installed.
前記視聴環境パラメータは、前記第2の画像を表示する表示装置の種別を含む
請求項5記載の画像情報変換装置。
The image information conversion device according to claim 5, wherein the viewing environment parameter includes a type of a display device that displays the second image.
前記予測タップ内の各画素の画素値の平均値を演算する平均値演算部をさらに具備し、
前記予測タップ種別判別部は、
前記平均値が所定の範囲外である場合に前記平均値に適した前記予測係数群が属する前記予測タップ種別を優先して前記複数の予測タップ種別のうちのいずれかを選択する
請求項3記載の画像情報変換装置。
Further comprising an average value calculation unit for calculating an average value of pixel values of each pixel in the prediction tap;
The predicted tap type determination unit
4. When the average value is outside a predetermined range, the prediction tap type to which the prediction coefficient group suitable for the average value belongs is preferentially selected and one of the plurality of prediction tap types is selected. Image information conversion device.
第1の画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記第1の画像から抽出するタップ抽出ステップと、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類ステップと、
複数の予測タップ種別のうちのいずれに前記予測タップが属するかを判別する判別演算において使用すべき係数群として前記予測タップ種別ごとに前記複数のクラスに対応付けて設定された複数の判別係数群の中から前記複数の予測タップ種別のそれぞれにおいて前記分類されたクラスに対応する前記判別係数群を選択する判別係数選択ステップと、
前記選択された判別係数群と前記予測タップ内の各画素の画素値とに基づいて前記判別演算を実行した結果から前記予測タップが属する前記予測タップ種別を判別する判別演算ステップと、
前記第1の画像の解像度を変更した画像である第2の画像内の画素の画素値を予測する予測演算において使用すべき係数群として前記複数のクラスと前記複数の予測タップ種別との各組合せに対応付けて設定された複数の予測係数群の中から前記分類されたクラスと前記判別された予測タップ種別との組合せに対応する前記予測係数群を選択する予測係数選択ステップと、
前記選択された予測係数群と前記予測タップ内の各画素の画素値とに基づいて前記予測演算を実行する予測演算ステップと
を具備する画像情報変換装置の制御方法。
Using any pixel in the first image as a target pixel, the first image includes a class tap that is a first pixel group including the target pixel and a prediction tap that is a second pixel group including the target pixel. Tap extraction step to extract from,
A class classification step for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into any of a plurality of classes;
A plurality of discriminant coefficient groups set in association with the plurality of classes for each prediction tap type as a coefficient group to be used in a discriminant calculation for discriminating to which of the plurality of predictive tap types the predictive tap belongs A discrimination coefficient selection step of selecting the discrimination coefficient group corresponding to the classified class in each of the plurality of prediction tap types from
A discriminant calculation step of discriminating the prediction tap type to which the prediction tap belongs from a result of executing the discrimination calculation based on the selected discrimination coefficient group and a pixel value of each pixel in the prediction tap;
Each combination of the plurality of classes and the plurality of prediction tap types as a coefficient group to be used in a prediction calculation for predicting a pixel value of a pixel in the second image which is an image in which the resolution of the first image is changed A prediction coefficient selection step of selecting the prediction coefficient group corresponding to the combination of the classified class and the determined prediction tap type from among a plurality of prediction coefficient groups set in association with
A control method for an image information conversion apparatus, comprising: a prediction calculation step that executes the prediction calculation based on the selected prediction coefficient group and a pixel value of each pixel in the prediction tap.
第1の画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記第1の画像から抽出するタップ抽出ステップと、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類ステップと、
複数の予測タップ種別のうちのいずれに前記予測タップが属するかを判別する判別演算において使用すべき係数群として前記予測タップ種別ごとに前記複数のクラスに対応付けて設定された複数の判別係数群の中から前記複数の予測タップ種別のそれぞれにおいて前記分類されたクラスに対応する前記判別係数群を選択する判別係数選択ステップと、
前記選択された判別係数群と前記予測タップ内の各画素の画素値とに基づいて前記判別演算を実行した結果から前記予測タップが属する前記予測タップ種別を判別する判別演算ステップと、
前記第1の画像の解像度を変更した画像である第2の画像内の画素の画素値を予測する予測演算において使用すべき係数群として前記複数のクラスと前記複数の予測タップ種別との各組合せに対応付けて設定された複数の予測係数群の中から前記分類されたクラスと前記判別された予測タップ種別との組合せに対応する前記予測係数群を選択する予測係数選択ステップと、
前記選択された予測係数群と前記予測タップ内の各画素の画素値とに基づいて前記予測演算を実行する予測演算ステップと
をコンピュータに実行させるためのプログラム。
Using any pixel in the first image as a target pixel, the first image includes a class tap that is a first pixel group including the target pixel and a prediction tap that is a second pixel group including the target pixel. Tap extraction step to extract from,
A class classification step for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into any of a plurality of classes;
A plurality of discriminant coefficient groups set in association with the plurality of classes for each prediction tap type as a coefficient group to be used in a discriminant calculation for discriminating to which of the plurality of predictive tap types the predictive tap belongs A discrimination coefficient selection step of selecting the discrimination coefficient group corresponding to the classified class in each of the plurality of prediction tap types from
A discriminant calculation step of discriminating the prediction tap type to which the prediction tap belongs from a result of executing the discrimination calculation based on the selected discrimination coefficient group and a pixel value of each pixel in the prediction tap;
Each combination of the plurality of classes and the plurality of prediction tap types as a coefficient group to be used in a prediction calculation for predicting a pixel value of a pixel in the second image which is an image in which the resolution of the first image is changed A prediction coefficient selection step of selecting the prediction coefficient group corresponding to the combination of the classified class and the determined prediction tap type from among a plurality of prediction coefficient groups set in association with
A program for causing a computer to execute a prediction calculation step of executing the prediction calculation based on the selected prediction coefficient group and a pixel value of each pixel in the prediction tap.
複数の異なる画像のそれぞれを生徒画像として複数の前記生徒画像からなる生徒画像群を複数回入力する生徒画像入力部と、
前記入力された生徒画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記画像から抽出するタップ抽出部と、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類部と、
前記生徒画像群内のいずれかの前記生徒画像を判別画像として前記判別画像が入力された場合に第1の目標値を生成し、前記判別画像以外の前記生徒画像が入力された場合に第2の目標値を生成する目標値生成部と、
画像の解像度を変更する場合において変更対象の前記画像が前記学習画像に類似するか否かを判別する判別演算において使用すべき判別係数群を前記第1および第2の目標値と前記予測タップ内の各画素の画素値とに基づいて前記クラスごとに演算する判別係数演算部と
を具備する判別係数学習装置。
A student image input unit for inputting a plurality of student image groups including a plurality of student images, each of a plurality of different images as a student image;
A class tap which is a first pixel group including the target pixel and a prediction tap which is a second pixel group including the target pixel are selected from the image, using any pixel in the input student image as the target pixel. A tap extraction unit to extract;
A class classification unit for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into one of a plurality of classes;
A first target value is generated when the discrimination image is input using any one of the student images in the student image group as a discrimination image, and the second target value is input when the student image other than the discrimination image is input. A target value generation unit for generating a target value of
When the resolution of an image is changed, a discrimination coefficient group to be used in a discrimination calculation for discriminating whether or not the image to be changed is similar to the learning image is set in the first and second target values and the prediction tap. A discrimination coefficient learning device comprising: a discrimination coefficient calculation unit that calculates each class based on a pixel value of each pixel.
前記生徒画像入力部は、前記生徒画像の解像度を変更した画像である教師画像を複数のフィルタに通過させることにより前記生徒画像群を生成するフィルタ部と、
前記生成された複数の生徒画像群を複数回入力する生徒画像供給部とを備える請求項11記載の判別係数学習装置。
The student image input unit includes a filter unit that generates the student image group by passing a teacher image, which is an image in which the resolution of the student image is changed, through a plurality of filters;
The discrimination coefficient learning device according to claim 11, further comprising a student image supply unit that inputs the generated plurality of student image groups a plurality of times.
前記判別演算は、前記判別係数群内の各判別係数と前記変更対象の画像内の前記予測タップ内の各画素値との積和演算であり、
前記判別係数演算部は、前記学習画像における前記判別演算の結果と前記第1の目標値との間の差分の二乗和に前記学習画像以外の前記生徒画像における前記判別演算の結果と前記第2の目標値との間の差分の二乗和を加算した値を最小にする前記判別係数群を前記複数のクラスの各々について演算する
請求項11記載の判別係数学習装置。
The discrimination operation is a product-sum operation of each discrimination coefficient in the discrimination coefficient group and each pixel value in the prediction tap in the change target image,
The discriminant coefficient calculating unit adds the result of the discriminant calculation in the student image other than the learning image to the square sum of the difference between the result of the discriminant calculation in the learning image and the first target value. The discriminant coefficient learning device according to claim 11, wherein the discriminant coefficient group that minimizes a value obtained by adding a sum of squares of differences from the target value is calculated for each of the plurality of classes.
複数の異なる画像のそれぞれを生徒画像として複数の前記生徒画像からなる生徒画像群を複数回入力する生徒画像入力ステップと、
前記入力された生徒画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記画像から抽出するタップ抽出ステップと、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類ステップと、
前記生徒画像群内のいずれかの前記生徒画像を判別画像として前記判別画像が入力された場合に第1の目標値を生成し、前記判別画像以外の前記生徒画像が入力された場合に第2の目標値を生成する目標値生成ステップと、
画像の解像度を変更する場合において変更対象の前記画像が前記学習画像に類似するか否かを判別する判別演算において使用すべき判別係数群を前記第1および第2の目標値と前記予測タップ内の各画素の画素値とに基づいて前記クラスごとに演算する判別係数演算ステップと
を具備する判別係数学習装置の制御方法。
A student image input step of inputting a plurality of student image groups including a plurality of student images, each of a plurality of different images as a student image;
A class tap which is a first pixel group including the target pixel and a prediction tap which is a second pixel group including the target pixel are selected from the image, using any pixel in the input student image as the target pixel. Tap extraction step to extract;
A class classification step for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into any of a plurality of classes;
A first target value is generated when the discrimination image is input using any one of the student images in the student image group as a discrimination image, and the second target value is input when the student image other than the discrimination image is input. A target value generation step for generating a target value of
When the resolution of an image is changed, a discrimination coefficient group to be used in a discrimination calculation for discriminating whether or not the image to be changed is similar to the learning image is set in the first and second target values and the prediction tap. A discriminant coefficient learning device control method comprising: a discriminant coefficient calculation step for calculating each class based on a pixel value of each pixel.
複数の異なる画像のそれぞれを生徒画像として複数の前記生徒画像からなる生徒画像群を複数回入力する生徒画像入力ステップと、
前記入力された生徒画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記画像から抽出するタップ抽出ステップと、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類ステップと、
前記生徒画像群内のいずれかの前記生徒画像を判別画像として前記判別画像が入力された場合に第1の目標値を生成し、前記判別画像以外の前記生徒画像が入力された場合に第2の目標値を生成する目標値生成ステップと、
画像の解像度を変更する場合において変更対象の前記画像が前記学習画像に類似するか否かを判別する判別演算において使用すべき判別係数群を前記第1および第2の目標値と前記予測タップ内の各画素の画素値とに基づいて前記クラスごとに演算する判別係数演算ステップと
を実行させるためのプログラム。
A student image input step of inputting a plurality of student image groups including a plurality of student images, each of a plurality of different images as a student image;
A class tap which is a first pixel group including the target pixel and a prediction tap which is a second pixel group including the target pixel are selected from the image, using any pixel in the input student image as the target pixel. Tap extraction step to extract;
A class classification step for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into any of a plurality of classes;
A first target value is generated when the discrimination image is input using any one of the student images in the student image group as a discrimination image, and the second target value is input when the student image other than the discrimination image is input. A target value generation step for generating a target value of
When the resolution of an image is changed, a discrimination coefficient group to be used in a discrimination calculation for discriminating whether or not the image to be changed is similar to the learning image is set in the first and second target values and the prediction tap. And a discrimination coefficient calculation step for calculating each class based on the pixel value of each pixel.
複数の異なる画像のそれぞれを生徒画像として入力する生徒画像入力部と、
前記入力された生徒画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記第1の画像から抽出するタップ抽出部と、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類部と、
前記入力された生徒画像の解像度を変更した画像である教師画像内の1つ以上の画素を教師画素として抽出する教師画素抽出部と、
前記教師画素の画素値を予測する予測演算において使用すべき予測係数群を前記予測タップ内の各画素の画素値と前記教師画素の画素値とに基づいて前記クラスごとに演算する予測係数演算部と
を具備する予測係数学習装置。
A student image input unit for inputting each of a plurality of different images as a student image;
A class tap which is a first pixel group including the target pixel and a prediction tap which is a second pixel group including the target pixel are selected from any pixel in the input student image as the target pixel. A tap extraction unit that extracts from the image of
A class classification unit for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into one of a plurality of classes;
A teacher pixel extraction unit that extracts one or more pixels in the teacher image, which is an image obtained by changing the resolution of the input student image, as a teacher pixel;
A prediction coefficient calculation unit that calculates a prediction coefficient group to be used in a prediction calculation for predicting the pixel value of the teacher pixel for each class based on the pixel value of each pixel in the prediction tap and the pixel value of the teacher pixel. A prediction coefficient learning apparatus comprising:
前記生徒画像入力部は、前記教師画像を複数のフィルタに通過させることにより前記複数の生徒画像を生成して入力する
請求項16記載の予測係数学習装置。
The prediction coefficient learning device according to claim 16, wherein the student image input unit generates and inputs the plurality of student images by passing the teacher image through a plurality of filters.
複数の異なる画像のそれぞれを生徒画像として入力する生徒画像入力ステップと、
前記入力された生徒画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記第1の画像から抽出するタップ抽出ステップと、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類ステップと、
前記入力された生徒画像の解像度を変更した画像である教師画像内の1つ以上の画素を教師画素として抽出する教師画素抽出ステップと、
前記教師画素の画素値を予測する予測演算において使用すべき予測係数群を前記予測タップ内の各画素の画素値と前記教師画素の画素値とに基づいて前記クラスごとに演算する予測係数演算ステップと
を具備する予測係数学習装置の制御方法。
A student image input step for inputting each of a plurality of different images as a student image;
A class tap which is a first pixel group including the target pixel and a prediction tap which is a second pixel group including the target pixel are selected from any pixel in the input student image as the target pixel. Tap extraction step to extract from the image of
A class classification step for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into any of a plurality of classes;
A teacher pixel extraction step of extracting one or more pixels in the teacher image, which is an image obtained by changing the resolution of the input student image, as a teacher pixel;
A prediction coefficient calculation step of calculating a prediction coefficient group to be used in a prediction calculation for predicting the pixel value of the teacher pixel for each class based on the pixel value of each pixel in the prediction tap and the pixel value of the teacher pixel. A control method for a prediction coefficient learning apparatus comprising:
複数の異なる画像のそれぞれを生徒画像として入力する生徒画像入力ステップと、
前記入力された生徒画像内のいずれかの画素を注目画素として当該注目画素を含む第1の画素群であるクラスタップと前記注目画素を含む第2の画素群である予測タップとを前記第1の画像から抽出するタップ抽出ステップと、
前記クラスタップ内の各画素の画素値の3次元分布の形状パターンを複数のクラスのうちのいずれかに分類するクラス分類ステップと、
前記入力された生徒画像の解像度を変更した画像である教師画像内の1つ以上の画素を教師画素として抽出する教師画素抽出ステップと、
前記教師画素の画素値を予測する予測演算において使用すべき予測係数群を前記予測タップ内の各画素の画素値と前記教師画素の画素値とに基づいて前記クラスごとに演算する予測係数演算ステップと
をコンピュータに実行させるためのプログラム。
A student image input step for inputting each of a plurality of different images as a student image;
A class tap which is a first pixel group including the target pixel and a prediction tap which is a second pixel group including the target pixel are selected from any pixel in the input student image as the target pixel. Tap extraction step to extract from the image of
A class classification step for classifying a shape pattern of a three-dimensional distribution of pixel values of each pixel in the class tap into any of a plurality of classes;
A teacher pixel extraction step of extracting one or more pixels in the teacher image, which is an image obtained by changing the resolution of the input student image, as a teacher pixel;
A prediction coefficient calculation step of calculating a prediction coefficient group to be used in a prediction calculation for predicting the pixel value of the teacher pixel for each class based on the pixel value of each pixel in the prediction tap and the pixel value of the teacher pixel. A program that causes a computer to execute.
JP2011117871A 2011-05-26 2011-05-26 Image information conversion apparatus, discrimination coefficient learning device, prediction coefficient learning device, processing method in them and program for allowing computer to perform processing method Withdrawn JP2012248994A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011117871A JP2012248994A (en) 2011-05-26 2011-05-26 Image information conversion apparatus, discrimination coefficient learning device, prediction coefficient learning device, processing method in them and program for allowing computer to perform processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011117871A JP2012248994A (en) 2011-05-26 2011-05-26 Image information conversion apparatus, discrimination coefficient learning device, prediction coefficient learning device, processing method in them and program for allowing computer to perform processing method

Publications (1)

Publication Number Publication Date
JP2012248994A true JP2012248994A (en) 2012-12-13

Family

ID=47469052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011117871A Withdrawn JP2012248994A (en) 2011-05-26 2011-05-26 Image information conversion apparatus, discrimination coefficient learning device, prediction coefficient learning device, processing method in them and program for allowing computer to perform processing method

Country Status (1)

Country Link
JP (1) JP2012248994A (en)

Similar Documents

Publication Publication Date Title
EP1686801B1 (en) Image processing device and method and recording medium
US8331710B2 (en) Image processing apparatus and method, learning apparatus and method, and program
JP4993093B2 (en) Image processing apparatus and image processing program
CN104079801A (en) Image processing apparatus, image processing method, and program
US7876323B2 (en) Display apparatus and display method, learning apparatus and learning method, and programs therefor
US20120321214A1 (en) Image processing apparatus and method, program, and recording medium
CN107409191A (en) Signal processing apparatus, recording/reproducing, signal processing method and program
CN104243992B (en) Image processing apparatus and image processing method
KR101957944B1 (en) Method and apparatus for generating metadata including frequency characteristic information of an image
KR101089853B1 (en) Apparatus and method for generating coefficient data, apparatus and method for generating coefficient-seed data, information-signal processing apparatus, program, and medium having recorded the program thereon
JP2012248994A (en) Image information conversion apparatus, discrimination coefficient learning device, prediction coefficient learning device, processing method in them and program for allowing computer to perform processing method
US7627198B2 (en) Information signal processing device and processing method, codebook generating device and generating method, and program for executing the methods
US9076228B2 (en) Image processing device, image processing method, and image processing system
JP2010118940A (en) Image processing apparatus, image processing method, and program
KR101544171B1 (en) Apparatus and Method for Super Resolution using Hybrid Feature
US6993077B2 (en) Experimental design for motion estimation
JP5050944B2 (en) Image processing apparatus, image processing method, learning apparatus, learning method, and program
JPH1127564A (en) Image converter, method therefor and presentation medium
KR101751270B1 (en) Appratus and method for generating video peculiarity and system thereof
KR101930389B1 (en) Video File Compression Method, Device and Computer Program Thereof
US20110194607A1 (en) Information Processing Device, Information Processing Method, and Program
US20230209066A1 (en) Screen content encoding mode evaluation optimizations
JP2009253873A (en) Device and method for processing image, and program
US8311963B2 (en) Signal processing apparatus, signal processing method, signal processing program and learning apparatus
JP2009284207A (en) Image processing apparatus and method, program, and learning apparatus and method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805