JP2007243632A - Signal processing apparatus and method, recording medium, and program - Google Patents
Signal processing apparatus and method, recording medium, and program Download PDFInfo
- Publication number
- JP2007243632A JP2007243632A JP2006063630A JP2006063630A JP2007243632A JP 2007243632 A JP2007243632 A JP 2007243632A JP 2006063630 A JP2006063630 A JP 2006063630A JP 2006063630 A JP2006063630 A JP 2006063630A JP 2007243632 A JP2007243632 A JP 2007243632A
- Authority
- JP
- Japan
- Prior art keywords
- image
- signal
- feature amount
- class
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 title claims abstract description 171
- 238000000034 method Methods 0.000 title claims description 79
- 238000009826 distribution Methods 0.000 claims description 278
- 238000004364 calculation method Methods 0.000 claims description 69
- 238000003860 storage Methods 0.000 claims description 61
- 230000008569 process Effects 0.000 claims description 51
- 239000000758 substrate Substances 0.000 claims description 16
- 238000003672 processing method Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000001514 detection method Methods 0.000 description 59
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 29
- 230000015572 biosynthetic process Effects 0.000 description 27
- 238000010606 normalization Methods 0.000 description 27
- 238000003786 synthesis reaction Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 15
- 238000004519 manufacturing process Methods 0.000 description 10
- 238000012935 Averaging Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 230000010363 phase shift Effects 0.000 description 5
- 238000013139 quantization Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 238000013144 data compression Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、信号処理装置および方法、記録媒体、並びにプログラムに関し、特に、ユーザがよく視聴する画像に応じた予測係数を生成することで、ユーザがよく視聴する画像に対しての予測精度を向上させることができるようにした信号処理装置および方法、記録媒体、並びにプログラムに関する。 The present invention relates to a signal processing apparatus and method, a recording medium, and a program, and in particular, by generating a prediction coefficient corresponding to an image often viewed by the user, the prediction accuracy for the image often viewed by the user is improved. The present invention relates to a signal processing apparatus and method, a recording medium, and a program that can be made to operate.
従来、低解像度の画像データに対して補間フィルタによる周波数補間処理を施して画素補間を行う等して、低解像度の画像データを高解像度の画像データに変換する画像データ変換装置(アップコンバータ)として、低解像度の画像データをその各画素の信号レベル分布に応じたクラスに分類した後、予測係数と呼ばれるデータが予め格納されているメモリからそのクラスに対応する予測係数を読み出し、予測係数と低解像度の画像データとから、高解像度の画像データを予測演算する、いわゆる、クラス分類適応処理を採用した画像データ変換装置が存在する。 Conventionally, as an image data converter (upconverter) that converts low-resolution image data into high-resolution image data by subjecting low-resolution image data to pixel interpolation by performing frequency interpolation processing using an interpolation filter. After classifying the low-resolution image data into classes according to the signal level distribution of each pixel, the prediction coefficient corresponding to the class is read from a memory in which data called a prediction coefficient is stored in advance. There is an image data conversion apparatus that employs so-called class classification adaptive processing for predicting and calculating high resolution image data from resolution image data.
この画像データ変換装置のメモリに格納されている予測係数は、学習と呼ばれるデータ処理によって予め生成されている。この予測係数を生成する学習回路は、通過帯域の異なる複数のデジタルフィルタより選択された、教師画像としての高解像度の画像データに最適なデジタルフィルタを用いて、教師画像としての高解像度の画像データをダウンコンバートすることにより、生徒画像としての低解像度の画像データを生成し、高解像度の画像データと低解像度の画像データとの間で学習を行って予測係数を生成するようになされている(特許文献1参照)。 Prediction coefficients stored in the memory of the image data converter are generated in advance by data processing called learning. The learning circuit that generates the prediction coefficient uses high-resolution image data as a teacher image using a digital filter that is selected from a plurality of digital filters having different passbands and that is optimal for the high-resolution image data as a teacher image. Is converted into low-resolution image data as a student image, and learning is performed between the high-resolution image data and the low-resolution image data to generate a prediction coefficient ( Patent Document 1).
例えば、近年、オーディオ・ビジュアル指向の高まりから、より高解像度の画像を得ることができるようなテレビジョン受信装置の開発が望まれ、この要望に応えて、いわゆるハイビジョン(HDTV:High Definition TeleVision)が開発された。ハイビジョンの走査線は、NTSC(National Television Standards Committee)方式の走査線数が525本であるのに対して、2倍以上の1125本である。また、ハイビジョンの縦横比は、NTSC方式の縦横比が3:4であるのに対して、9:16となっている。このため、ハイビジョンでは、NTSC方式に比べて、高解像度で臨場感のある画像を表示することができる。 For example, in recent years, the development of television receivers that can obtain higher-resolution images has been desired due to the increase in audio / visual orientation. It has been developed. The number of high-definition scan lines is 1125, which is more than twice that of 525 scan lines in the NTSC (National Television Standards Committee) system. Also, the aspect ratio of the high vision is 9:16, whereas the aspect ratio of the NTSC system is 3: 4. For this reason, high-definition images can be displayed with higher resolution and presence than in the NTSC system.
上述した画像データ変換装置を内蔵するテレビジョン受信装置は、このNTSC方式のビデオ信号から、ハイビジョンのビデオ信号の注目位置の画素データに対応するブロック(領域)の画素データを抽出し、このブロックの画素データのレベル分布パターンに基づいて、上述の注目位置の画素データの属するクラスを決定し、このクラスに対応して、予測係数を読み出し、予測係数を用いて、注目位置の画素データを生成する。 The television receiver incorporating the above-described image data converter extracts pixel data of a block (area) corresponding to pixel data at a target position of a high-definition video signal from the NTSC video signal, and Based on the level distribution pattern of the pixel data, the class to which the pixel data at the above-mentioned target position belongs is determined, the prediction coefficient is read out corresponding to this class, and the pixel data at the target position is generated using the prediction coefficient. .
ここで、特許文献1の画像データ変換装置の予測係数は、数十種類にも及ぶ教師画像の画像セットを用いた最小二乗法による学習により求められている。この時、通常の開発時においては、あらゆる入力信号に対して破綻がないようにするため、予め様々な特徴を持った画像セットを用意しておき、それらを混ぜ合わせたものを学習セットに用いている。
Here, the prediction coefficient of the image data conversion apparatus of
すなわち、統計的にロバストな性能を発揮するのが、従来の予測係数の特徴であった。 That is, it is a feature of the conventional prediction coefficient that exhibits statistically robust performance.
しかしながら、実際にユーザが家庭で視聴するテレビジョン信号の特徴は、予測係数の学習時に用いられている画像セットの特徴と一致するとは限らなかった。 However, the characteristics of the television signal that the user actually watches at home do not always match the characteristics of the image set used when learning the prediction coefficient.
例えば、視聴コンテンツが極端に偏っていたり、受信状態がひどく一般的でない場合など、統計的にロバストな予測係数では、画像データ変換装置が本来の性能を発揮できない恐れがあった。 For example, when the viewing content is extremely biased or the reception state is extremely uncommon, the image data conversion apparatus may not be able to exhibit its original performance with a statistically robust prediction coefficient.
本発明は、このような状況に鑑みてなされたものであり、ユーザがよく視聴する画像に対しての予測誤差を少なくし、予測精度を向上させることができるようにするものである。 The present invention has been made in view of such circumstances, and is intended to reduce prediction errors for images often viewed by a user and improve prediction accuracy.
本発明の第1の側面の信号処理装置は、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する信号処理装置において、前記第1の画像信号を、前記第2の画像信号に変換する他の信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報を取得する取得手段と、前記取得手段により取得された前記画像の特徴量情報を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成する係数生成手段とを備える。 The signal processing device according to the first aspect of the present invention is a signal processing device that generates a coefficient used for an operation for converting a first image signal into a second image signal having a resolution higher than that of the first image signal. The feature amount storage means for storing the feature amount information of the image corresponding to the first image signal generated by another signal processing device that converts the first image signal into the second image signal From the acquisition unit for acquiring the feature amount information of the image, and the calculation for converting into the second image signal by the other signal processing device using the feature amount information of the image acquired by the acquisition unit. Coefficient generating means for generating coefficients to be used.
前記特徴量記憶手段は、前記他の信号処理装置に着脱可能な基板に設けられることができる。 The feature amount storage means may be provided on a substrate that can be attached to and detached from the other signal processing device.
前記画像の特徴量情報は、前記画像の特徴量頻度分布とされることができる。 The feature amount information of the image may be a feature amount frequency distribution of the image.
学習画像の特徴量情報を生成する特徴量生成手段と、前記特徴量生成手段により生成された前記学習画像の特徴量情報と、前記取得手段により取得された前記画像の特徴量情報を用いて、前記学習画像から前記画像と似ているものを選択する画像選択手段とをさらに備え、前記係数生成手段は、前記画像選択手段により選択された前記学習画像を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成することができる。 Using feature amount generation means for generating feature amount information of a learning image, feature amount information of the learning image generated by the feature amount generation means, and feature amount information of the image acquired by the acquisition means, Image selection means for selecting an image similar to the image from the learning image, and the coefficient generation means uses the learning image selected by the image selection means, by the other signal processing device. It is possible to generate a coefficient used for the calculation for converting to the second image signal.
本発明の第1の側面の信号処理方法は、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する信号処理装置の信号処理方法において、前記第1の画像信号を、前記第2の画像信号に変換する他の信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報を取得し、取得された前記画像の特徴量情報を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成するステップを含む。 A signal processing method according to a first aspect of the present invention is a signal processing device that generates a coefficient used for an operation for converting a first image signal into a second image signal having a higher resolution than the first image signal. In the signal processing method, image feature amount information corresponding to the first image signal generated by another signal processing device that converts the first image signal into the second image signal is stored. Coefficients used for the calculation of acquiring the feature amount information of the image from the feature amount storage means and using the acquired feature amount information of the image to convert to the second image signal by the other signal processing device The step of generating is included.
本発明の第1の側面のプログラムは、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する処理をコンピュータに行わせるプログラムであって、前記第1の画像信号を、前記第2の画像信号に変換する信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報を取得し、取得された前記画像の特徴量情報を用いて、前記信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成するステップを含む。 The program according to the first aspect of the present invention performs a process of generating a coefficient used for an operation for converting a first image signal into a second image signal having a higher resolution than the first image signal. A feature amount for storing feature amount information of an image corresponding to the first image signal generated by a signal processing device that converts the first image signal into the second image signal Step of acquiring feature amount information of the image from a storage unit, and using the acquired feature amount information of the image, generating a coefficient used for an operation of converting to the second image signal by the signal processing device including.
本発明の第1の側面の記録媒体に記録されているプログラムは、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する処理をコンピュータに行わせるプログラムであって、前記第1の画像信号を、前記第2の画像信号に変換する信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報を取得し、取得された前記画像の特徴量情報を用いて、前記信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成するステップを含む。 The program recorded on the recording medium according to the first aspect of the present invention includes a coefficient used for an operation for converting the first image signal into a second image signal having a higher resolution than the first image signal. A program that causes a computer to perform processing to be generated, the image feature amount corresponding to the first image signal generated by a signal processing device that converts the first image signal into the second image signal The feature amount information of the image is acquired from the feature amount storage means in which the information is stored, and the signal processing device converts the acquired feature amount information of the image into the second image signal using the acquired feature amount information of the image. Generating a coefficient to be used.
本発明の第2の側面の信号処理装置は、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する信号処理装置において、前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成する特徴量情報生成手段と、前記特徴量情報生成手段により生成された前記画像の特徴量情報を記憶する特徴量記憶手段と、前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて他の信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換する画像信号変換手段とを備える。 The signal processing device according to the second aspect of the present invention is a signal processing device that converts a first image signal into a second image signal having a resolution higher than that of the first image signal. Feature quantity information generating means for generating feature quantity information of an image corresponding to the first image signal to be converted into a feature quantity storage for storing the feature quantity information of the image generated by the feature quantity information generating means And calculating the first image signal by using the coefficient generated by the other signal processing apparatus using the feature amount information of the image stored in the feature amount storage unit. Image signal converting means for converting to a second image signal.
前記特徴量記憶手段は、着脱可能な基板に設けられることができる。 The feature amount storage means may be provided on a detachable substrate.
前記画像の特徴量情報は、前記画像の特徴量頻度分布とされることができる。 The feature amount information of the image may be a feature amount frequency distribution of the image.
本発明の第2の側面の信号処理方法は、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する信号処理装置の信号処理方法において、前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成し、生成された前記画像の特徴量情報を特徴量記憶手段に記憶し、前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて他の信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換するステップを含む。 The signal processing method according to the second aspect of the present invention is the signal processing method of the signal processing device for converting the first image signal into the second image signal having a higher resolution than the first image signal. Image feature amount information corresponding to the first image signal to be converted into the second image signal is generated, the generated feature amount information of the image is stored in a feature amount storage unit, and the feature amount storage unit A step of converting the first image signal into the second image signal by performing an operation using a coefficient generated by another signal processing apparatus using the stored feature amount information of the image. including.
本発明の第2の側面のプログラムは、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する処理をコンピュータに行わせるプログラムであって、前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成し、生成された前記画像の特徴量情報を特徴量記憶手段に記憶させ、前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換するステップを含む。 A program according to a second aspect of the present invention is a program for causing a computer to perform a process of converting a first image signal into a second image signal having a higher resolution than the first image signal. Image feature amount information corresponding to the first image signal to be converted into the second image signal is generated, the generated feature amount information of the image is stored in a feature amount storage unit, and the feature amount storage unit Including a step of converting the first image signal into the second image signal by performing an operation using a coefficient generated by the signal processing device using the stored feature amount information of the image. .
本発明の第2の側面の記録媒体に記録されているプログラムは、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する処理をコンピュータに行わせるプログラムであって、前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成し、生成された前記画像の特徴量情報を特徴量記憶手段に記憶させ、前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換するステップを含む。 The program recorded on the recording medium according to the second aspect of the present invention causes the computer to perform a process of converting the first image signal into a second image signal having a higher resolution than the first image signal. A program that generates feature amount information of an image corresponding to the first image signal to be converted into the second image signal, and stores the generated feature amount information of the image in a feature amount storage unit The first image signal is converted into the second image by performing calculation using the coefficient generated by the signal processing device using the feature amount information of the image stored in the feature amount storage means. Converting to a signal.
本発明の第1の側面においては、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報が取得される。そして、取得された前記画像の特徴量情報を用いて、前記信号処理装置により前記第2の画像信号に変換する演算に用いられる係数が生成される。 In the first aspect of the present invention, the first image signal generated by the signal processing device that converts the first image signal into a second image signal having a higher resolution than the first image signal is included in the first image signal. The feature amount information of the image is acquired from the feature amount storage means in which the feature amount information of the corresponding image is stored. And the coefficient used for the calculation converted into a said 2nd image signal by the said signal processing apparatus is produced | generated using the acquired feature-value information of the said image.
本発明の第2の側面においては、第2の画像信号に変換される第1の画像信号に対応する画像の特徴量情報が生成され、生成された前記画像の特徴量情報が特徴量記憶手段に記憶される。そして、前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号が、前記第2の画像信号に変換される。 In the second aspect of the present invention, image feature amount information corresponding to the first image signal converted into the second image signal is generated, and the generated feature amount information is the feature amount storage means. Is remembered. Then, the first image signal is obtained by performing the calculation using the coefficient generated by the signal processing device using the feature amount information of the image stored in the feature amount storage means. Converted to image signal.
本発明によれば、ユーザがよく視聴する画像に対しての予測精度を向上させることができる。これにより、ユーザは画質のよい画像を見ることができる。 ADVANTAGE OF THE INVENTION According to this invention, the prediction precision with respect to the image which a user often views can be improved. As a result, the user can view an image with good image quality.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。したがって、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment that is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.
本発明の第1の側面の信号処理装置は、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する信号処理装置(例えば、図4の予測係数生成装置20)において、前記第1の画像信号を、前記第2の画像信号に変換する他の信号処理装置(例えば、図4のテレビジョン受信装置10)により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段(例えば、図4の履歴情報メモリ13)から、前記画像の特徴量情報を取得する取得手段(例えば、図17の頻度分布比較部221)と、前記取得手段により取得された前記画像の特徴量情報を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成する係数生成手段(例えば、図17の係数種データ生成部206)とを備える。
The signal processing device according to the first aspect of the present invention is a signal processing device that generates a coefficient used for an operation for converting a first image signal into a second image signal having a resolution higher than that of the first image signal. (For example, in the prediction
前記特徴量記憶手段は、前記他の信号処理装置に着脱可能な基板(例えば、図4の基板12)に設けられることができる。
The feature amount storage means may be provided on a substrate (for example, the
学習画像の特徴量情報を生成する特徴量生成手段(例えば、図17の学習画像頻度分布生成部204)と、前記特徴量生成手段により生成された前記学習画像の特徴量情報と、前記取得手段により取得された前記画像の特徴量情報を用いて、前記学習画像から前記画像と似ているものを選択する画像選択手段(例えば、図17の学習画像選択部222)とをさらに備え、前記係数生成手段は、前記画像選択手段により選択された前記学習画像を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成することができる。
Feature amount generation means (for example, a learning image frequency
本発明の第1の側面の信号処理方法またはプログラムは、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する信号処理装置(例えば、図4の予測係数生成装置20)の信号処理方法またはプログラムにおいて、前記第1の画像信号を、前記第2の画像信号に変換する他の信号処理装置(例えば、図4のテレビジョン受信装置10)により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段(例えば、図4の履歴情報メモリ13)から、前記画像の特徴量情報を取得し(例えば、図28のステップS101)、取得された前記画像の特徴量情報を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成する(例えば、図26のステップS67)ステップを含む。
A signal processing method or program according to the first aspect of the present invention is a signal for generating a coefficient used for an operation for converting a first image signal into a second image signal having a higher resolution than the first image signal. In a signal processing method or program of a processing device (for example, the prediction
本発明の第2の側面の信号処理装置は、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する信号処理装置(例えば、図4のテレビジョン受信装置10)において、前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成する特徴量情報生成手段(例えば、図7の特徴量頻度分布生成部66)と、前記特徴量情報生成手段により生成された前記画像の特徴量情報を記憶する特徴量記憶手段(例えば、図4の履歴情報メモリ13)と、前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて他の信号処理装置(例えば、図4の予測係数生成装置20)により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換する画像信号変換手段(例えば、図7の推定予測演算部58)とを備える。
The signal processing device according to the second aspect of the present invention is a signal processing device that converts a first image signal into a second image signal having a resolution higher than that of the first image signal (for example, the television shown in FIG. 4). In the receiving device 10), feature amount information generating means (for example, a feature amount frequency distribution generating unit in FIG. 7) that generates feature amount information of an image corresponding to the first image signal converted into the second image signal. 66), feature amount storage means (for example,
前記特徴量記憶手段は、着脱可能な基板(例えば、図4の基板12)に設けられることができる。
The feature amount storage means may be provided on a detachable substrate (for example, the
本発明の第2の側面の信号処理方法またはプログラムは、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する信号処理装置(例えば、図4のテレビジョン受信装置10)の信号処理方法またはプログラムにおいて、前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成し(例えば、図25のステップS44)、生成された前記画像の特徴量情報を特徴量記憶手段(例えば、図4の履歴情報メモリ13)に記憶し(例えば、図25のステップS45)、前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて他の信号処理装置(例えば、図4の予測係数生成装置20)により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換する(例えば、図24のステップS20)ステップを含む。
The signal processing method or program according to the second aspect of the present invention is a signal processing device (for example, as shown in FIG. 4) that converts a first image signal into a second image signal having a higher resolution than the first image signal. In the signal processing method or program of the television receiver 10), image feature amount information corresponding to the first image signal to be converted into the second image signal is generated (for example, step S44 in FIG. 25). The feature amount information of the generated image is stored in the feature amount storage means (for example, the
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
まず、図1乃至図3を参照して、本発明の概要を説明する。図1は、従来の予測係数の学習の概念を示している。 First, the outline of the present invention will be described with reference to FIGS. FIG. 1 shows the concept of learning a conventional prediction coefficient.
低解像度の画像データから、高解像度の画像データを予測演算する際に用いられる予測係数の従来の学習方法としては、図1に示されるように、1シーンだけからなるHD(High Definition)信号の画像(以下、HD画像とも称する)と、そのHD画像から生成されたSD(Standard Definition)信号の画像(以下、SD画像とも称する)の組み合わせのサンプルを、1乃至nまでの数十種類用意しておき、それらすべてを足しこんだものを最小二乗法により予測係数を求めていた。 As a conventional learning method of a prediction coefficient used when predicting and calculating high resolution image data from low resolution image data, as shown in FIG. 1, an HD (High Definition) signal consisting of only one scene is used. Dozens of samples from 1 to n are prepared for combinations of images (hereinafter also referred to as HD images) and SD (Standard Definition) signal images (hereinafter also referred to as SD images) generated from the HD images. Prediction coefficients were obtained by the least square method with all of them added.
すなわち、従来の学習方法で求められる予測係数は、HD画像を教師データYとし、SD画像を生徒データXとすると、すべてのサンプルに対して、Y=aX+bの回帰直線で表すことができる。このため、各SD画像と予測係数Y=aX+bを用いて求められる予測値Y'と予測係数との予測誤差は、サンプルによっては、グラフ上の点で示されるように、大きくなってしまう場合があった。 That is, the prediction coefficient obtained by the conventional learning method can be expressed by a regression line of Y = aX + b for all samples, where the HD image is the teacher data Y and the SD image is the student data X. . For this reason, the prediction error between the prediction value Y ′ obtained using each SD image and the prediction coefficient Y = aX + b and the prediction coefficient may be large depending on the sample, as indicated by a point on the graph. There was a case.
図2は、予測係数の個別学習の概念を示している。図2の例においては、図1の例に対して、画像毎に個別に学習して予測係数が求められている。 FIG. 2 shows the concept of individual learning of prediction coefficients. In the example of FIG. 2, the prediction coefficient is obtained by learning individually for each image as compared to the example of FIG.
例えば、HD画像1と、HD画像1から生成されたSD画像1の組み合わせで学習されて求められた予測係数は、Y=a1X+b1の回帰直線で表すことができる。そして、SD画像1とこの予測係数Y=a1X+b1を用いて求められる予測値Y'と予測係数との予測誤差は、図1の例の場合よりも小さくなる。
For example, a prediction coefficient obtained by learning with a combination of the
同様に、HD画像2と、HD画像2から生成されたSD画像2の組み合わせで学習されて求められた予測係数は、Y=a2X+b2の回帰直線で表すことができ、SD画像2と予測係数Y=a2X+b2を用いて求められる予測値Y'と予測係数との予測誤差も図1の例の場合よりも小さくなる。
Similarly, the prediction coefficient obtained by learning from the combination of the
また、HD画像nと、HD画像nから生成されたSD画像nの組み合わせで学習されて求められた予測係数は、Y=anX+bnの回帰直線で表すことができ、SD画像nと予測係数Y=anX+bnを用いて求められる予測値Y'と予測係数との予測誤差も、図1の例の場合よりも小さくなる。 The prediction coefficient obtained by learning from the combination of the HD image n and the SD image n generated from the HD image n can be represented by a regression line of Y = anX + bn. The prediction error between the prediction value Y ′ obtained using Y = anX + bn and the prediction coefficient is also smaller than in the example of FIG.
すなわち、図2の例のように、各画像が個別に有する特徴に応じて予測係数を求めることで予測誤差を小さくし、予測精度を向上させることができる。したがって、もし、ユーザが自宅で視聴する画像(以下、ユーザ視聴画像とも称する)に応じて予測係数を学習、生成することができれば、この予測係数を用いて高解像度のデータを生成する装置は、最高の性能を発揮することができる。 That is, as in the example of FIG. 2, the prediction error can be reduced and the prediction accuracy can be improved by obtaining the prediction coefficient according to the characteristics of each image individually. Therefore, if a prediction coefficient can be learned and generated according to an image that the user views at home (hereinafter also referred to as a user viewing image), an apparatus that generates high-resolution data using the prediction coefficient The best performance can be demonstrated.
ただし、現実には、ユーザが視聴するSD信号に対応するHD信号を全て入手することは困難である。そこで、図3に示すように、ユーザ視聴画像と、予測係数学習時のSD画像のそれぞれの特徴量情報を用いる。 However, in reality, it is difficult to obtain all HD signals corresponding to the SD signal viewed by the user. Therefore, as shown in FIG. 3, the feature amount information of the user viewing image and the SD image at the time of prediction coefficient learning is used.
図3は、図2の方法を発展させた本発明の予測係数の概念を示している。 FIG. 3 shows the concept of the prediction coefficient of the present invention, which is an extension of the method of FIG.
まず、予測係数を学習する前に、HD画像1より生成されたSD画像1からSD画像1の特徴量情報として、特徴量頻度分布1が求められ、HD画像2より生成されたSD画像2からSD画像2の特徴量情報として、特徴量頻度分布2が求められ、HD画像nより生成されたSD画像nからSD画像nの特徴量情報として、特徴量頻度分布nが求められる。
First, before learning the prediction coefficient, the feature
そして、矢印A1に示されるように、これらの特徴量頻度分布1乃至nと、ユーザ視聴画像から求められる特徴量頻度分布とが比較され、ユーザ視聴画像の特徴量頻度分布と似た特徴を有する特徴量頻度分布のSD画像のみが選択されて、矢印A2−1乃至矢印A2−3に示されるように、選択されたSD画像とHD画像の組み合わせだけで、それぞれの予測係数が学習されて求められる。
Then, as indicated by the arrow A1, the feature
例えば、SD画像1の特徴量頻度分布1が、ユーザ視聴画像の特徴量頻度分布と似た特徴を有する場合、SD画像1が選択されて、矢印A2−1に示されるように、選択されたSD画像1とHD画像1の組み合わせのみで、Y=a1X+b1の回帰直線で表される予測係数が学習されて求められる。SD画像2の特徴量頻度分布2が、ユーザ視聴画像の特徴量頻度分布と似ている特徴を有する場合、SD画像2が選択されて、矢印A2−2に示されるように、選択されたSD画像2とHD画像2の組み合わせのみで、Y=a2X+b2の回帰直線で表される予測係数が学習されて求められる。
For example, when the feature
同様に、SD画像nの特徴量頻度分布nが、ユーザ視聴画像の特徴量頻度分布と似た特徴を有する場合、SD画像nが選択されて、矢印A2−3に示されるように、選択されたSD画像nとHD画像nの組み合わせのみで、Y=anX+bnの回帰直線で表される予測係数が学習されて求められる。 Similarly, when the feature amount frequency distribution n of the SD image n has a feature similar to the feature amount frequency distribution of the user viewing image, the SD image n is selected and selected as indicated by an arrow A2-3. The prediction coefficient represented by the regression line of Y = anX + bn is learned and obtained only by the combination of the SD image n and the HD image n.
以上のように、ユーザ視聴画像そのものを用いた予測係数学習は困難であっても、ユーザ視聴画像と似た特徴を有する画像のみを学習に用いることによって、そのユーザ視聴画像に特化した予測係数を生成することができる。 As described above, even when prediction coefficient learning using the user viewing image itself is difficult, by using only an image having characteristics similar to the user viewing image for learning, a prediction coefficient specialized for the user viewing image is used. Can be generated.
したがって、以下に説明する、SD画像からHD画像を生成するテレビジョン受信装置10において、ユーザが視聴する画像は、その画像に特化されて生成された予測係数が用いられて変換される。これにより、HD画像の生成時における予測誤差は小さくなり、予測精度が向上される。その結果、ユーザが視聴する画像を最適な画質で表示することができる。
Therefore, in the
図4は、本発明を適用した画像信号処理システムの一実施の形態の構成を示している。 FIG. 4 shows a configuration of an embodiment of an image signal processing system to which the present invention is applied.
図4に示される画像信号処理システムは、ユーザ宅に設置され、外部の放送局より供給される画像信号を受信し、内蔵するディスプレイに表示するテレビジョン受信装置10と、製品のメンテナンスなどを行うメーカ側などに設置され、テレビジョン受信装置10用の予測係数を生成する予測係数生成装置20により構成される。
The image signal processing system shown in FIG. 4 is installed in a user's house, receives an image signal supplied from an external broadcasting station, displays it on a built-in display, and performs product maintenance and the like. It is installed on the manufacturer side or the like, and is configured by a prediction
テレビジョン受信装置10は、アンテナ11を有しており、外部より供給される、例えばNTSC信号等の、SD(Standard Definition)信号である画像信号を、アンテナ11を介して受信する。テレビジョン受信装置10は、受信した画像信号に対してクラス分類適応処理を用いた画像信号処理を行い、HD(High Definition)信号の画像信号に変換する等の処理を行う。そして、テレビジョン受信装置10は、変換した画像信号に対応する画像を、表示部38(図5)に表示する。画像信号処理に関する詳細な説明は後述する。
The
また、テレビジョン受信装置10は、ユーザが視聴を所望して、アンテナ11で受信した画像信号に対応する画像、すなわち、ユーザが視聴する画像の特徴量情報を求め、履歴情報メモリ13に記憶している。この履歴情報メモリ13は、テレビジョン受信装置10の筐体に着脱可能に装着される基板12に構成されている。基板12は、テレビジョン受信装置10用の予測係数を生成するとき、テレビジョン受信装置10から取り外され、予測係数生成装置20に接続される。
In addition, the
予測係数生成装置20は、テレビジョン受信装置10から取り外された基板12の履歴情報メモリ13から、ユーザが視聴する画像であるユーザ視聴画像の特徴量情報を取得し、ユーザ視聴画像の特徴量情報を用いて、テレビジョン受信装置10が用いる係数種データを生成する。生成された係数種データは、基板12、他の基板、あるいは、図示せぬネットワークを介して、テレビジョン受信装置10に提供される。
The prediction
すなわち、テレビジョン受信装置10のHD信号への変換においては、自己において求められたユーザ視聴画像の特徴量情報が用いられて予測係数生成装置20により生成された係数種データが用いられる。係数種データについての説明は後述する。
That is, in the conversion to the HD signal of the
図5は、図4のテレビジョン受信装置10の詳細な構成例を示すブロック図である。
FIG. 5 is a block diagram illustrating a detailed configuration example of the
このテレビジョン受信装置10は、放送信号より525i信号というSD信号を得て、この525i信号を1050i信号というHD信号に変換し、そのHD信号による画像を表示するものである。
The
図6は、525i信号および1050i信号のあるフレーム(F)の画素位置関係を示すものであり、奇数(o)フィールドの画素位置を実線で示し、偶数(e)フィールドの画素位置を破線で示している。大きなドットが525i信号の画素であり、小さいドットが1050i信号の画素である。図6から分かるように、1050i信号の画素データとしては、525i信号のラインに近い位置のラインデータL1,L1′と、525i信号のラインから遠い位置のラインデータL2,L2′とが存在する。ここで、L1,L2は奇数フィールドのラインデータ、L1′,L2′は偶数フィールドのラインデータである。また、1050i信号の各ラインの画素数は、525i信号の各ラインの画素数の2倍である。 FIG. 6 shows the pixel position relationship of a frame (F) with a 525i signal and a 1050i signal. The pixel position of the odd (o) field is indicated by a solid line, and the pixel position of the even (e) field is indicated by a broken line. ing. Large dots are pixels of 525i signal, and small dots are pixels of 1050i signal. As can be seen from FIG. 6, the pixel data of the 1050i signal includes line data L1, L1 ′ at positions close to the line of the 525i signal and line data L2, L2 ′ at positions far from the line of the 525i signal. Here, L1 and L2 are line data of odd fields, and L1 'and L2' are line data of even fields. The number of pixels in each line of the 1050i signal is twice the number of pixels in each line of the 525i signal.
図5に戻り、テレビジョン受信装置10の構成について説明する。ユーザは、リモートコントローラ41を用いて、テレビジョン受信装置10を操作する。テレビジョン受信装置10は、CPU(Central processing Unit)、RAM(Random Access Memory)、およびROM(Read Only memory)を含むマイクロコントローラを備え、システム全体の動作を制御するためのシステムコントローラ32と、リモートコントローラ41と通信を行う通信部31とを有している。通信部31は、システムコントローラ32に接続され、リモートコントローラ41よりユーザの操作に応じて出力されるリモートコントロール信号を受信し、その信号に対応する操作信号を、システムコントローラ32に供給するように構成されている。
Returning to FIG. 5, the configuration of the
アンテナ11は、放送信号(RF(Radio Frequency)変調信号)を受信する。チューナ33は、アンテナ11を介して受信した放送信号の供給を受け、システムコントローラ32から入力される制御信号に従って、ユーザがリモートコントローラ41を用いる等して選局したチャンネルを選局する選局処理を行い、更に、中間周波増幅処理、検波処理等などを行って、上述したSD信号(525i信号)を得る。バッファメモリ34は、チューナ33より出力されるSD信号を一時的に保存する。
The
画像信号処理部35は、バッファメモリ34に一時的に保存されるSD信号(525i信号)を、HD信号(1050i信号)に変換する画像信号処理を行う。なお、上述した履歴情報メモリ13は、画像信号処理部35内に構成される。
The image
図7は、画像信号処理部35の更に詳細な構成を示すブロック図である。
FIG. 7 is a block diagram showing a more detailed configuration of the image
画像信号処理部35の第1のタップ選択部51、第2のタップ選択部52、および、第3のタップ選択部53は、バッファメモリ34に記憶されているSD信号(525i信号)より、HD信号(1050i信号)における注目位置の周辺に位置する複数のSD画素のデータを選択的に取り出して出力する。
The first
第1のタップ選択部51は、予測に使用するSD画素(以下、「予測タップ」とも称する)のデータを選択的に取り出すものである。第2のタップ選択部52は、SD画素データのレベル分布パターンに対応するクラス分類に使用するSD画素(以下、「空間クラスタップ」とも称する)のデータを選択的に取り出すものである。第3のタップ選択部53は、動きに対応するクラス分類に使用するSD画素(以下、「動きクラスタップ」とも称する)のデータを選択的に取り出するものである。なお、空間クラスを複数フィールドに属するSD画素データを使用して決定する場合には、この空間クラスにも動き情報が含まれることになる。
The first
空間クラス検出部54は、第2のタップ選択部52で選択的に取り出された空間クラスタップのデータ(SD画素データ)のレベル分布パターンを検出し、このレベル分布パターンに基づいて空間クラスを検出し、その空間クラスのクラス情報を出力する。
The space
空間クラス検出部54においては、例えば、各SD画素データを、8ビットデータから2ビットデータに圧縮するような演算が行われる。そして、空間クラス検出部54からは、各SD画素データに対応した圧縮データが、空間クラスのクラス情報として出力される。本実施の形態においては、ADRC(Adaptive Dynamic Range Coding)によって、データ圧縮が行われる。なお、情報圧縮手段としては、ADRC以外にDPCM(予測符号化)、VQ(ベクトル量子化)等を用いてもよい。
In the space
本来、ADRCは、VTR(Video Tape Recorder)向け高性能符号化用に開発された適応再量子化法であるが、信号レベルの局所的なパターンを短い語長で効率的に表現できるので、上述したデータ圧縮に使用して好適なものである。ADRCを使用する場合、空間クラスタップのデータ(SD画素データ)の最大値をMAX、その最小値をMIN、空間クラスタップのデータのダイナミックレンジをDR(=MAX−MIN+1)、再量子化ビット数をPとすると、空間クラスタップのデータとしての各SD画素データkiに対して、式(1)の演算により、圧縮データとしての再量子化コードqiが得られる。ただし、式(1)において、[ ]は切捨て処理を意味している。空間クラスタップのデータとして、Na個のSD画素データがあるとき、i=1乃至Naである。 Originally, ADRC is an adaptive requantization method developed for high-performance coding for VTR (Video Tape Recorder), but it can express local patterns of signal level efficiently with a short word length. It is suitable for use in data compression. When using ADRC, the maximum value of space class tap data (SD pixel data) is MAX, the minimum value is MIN, the dynamic range of space class tap data is DR (= MAX-MIN + 1), and the number of requantization bits If P is P, the requantized code qi as compressed data is obtained by the calculation of Expression (1) for each SD pixel data ki as the space class tap data. However, in the formula (1), [] means a truncation process. When there are Na SD pixel data as the space class tap data, i = 1 to Na.
動きクラス検出部55は、第3のタップ選択部53で選択的に取り出された動きクラスタップのデータ(SD画素データ)より、主に、動きの程度を表すための動きクラスを検出し、その動きクラスのクラス情報を出力する。
The motion
この動きクラス検出部55では、第3のタップ選択部53で選択的に取り出された動きクラスタップのデータ(SD画素データ)miおよびniからフレーム間差分が算出され、更に、その差分の絶対値の平均値に対してしきい値処理が行われて、動きの指標である動きクラスが検出される。すなわち、動きクラス検出部55は、式(2)によって、差分の絶対値の平均値AVを算出する。第3のタップ選択部53で、例えば、上述したように、12個のSD画素データm1乃至m6およびn1乃至n6が取り出されるとき、式(2)におけるNbは6である。
In the motion
そして、動きクラス検出部55では、上述したように算出された平均値AVが、1個または複数個のしきい値と比較されて、動きクラスのクラス情報MVが得られる。例えば、3個のしきい値th1,th2,およびth3(th1<th2<th3)が用意され、4つの動きクラスが検出される場合、AV≦th1のときはMV=0、th1<AV≦th2のときはMV=1、th2<AV≦th3のときはMV=2、th3<AVのときはMV=3とされる。
Then, in the motion
クラス合成部56は、空間クラス検出部54より出力される空間クラスのクラス情報としての再量子化コードqiと、動きクラス検出部55より出力される動きクラスのクラス情報MVに基づき、作成すべきHD信号(1050i信号)の画素データ(注目位置の画素データ)が属するクラスを示すクラスコードCLを得る。
The
このクラス合成部56では、以下の式(3)によって、クラスコードCLの演算が行われる。なお、式(3)において、Naは空間クラスタップのデータ(SD画素データ)の個数、PはADRCにおける再量子化ビット数を示している。
In the
係数メモリ57は、後述する推定予測演算部58で使用される推定式で用いられる複数の係数データWiを、クラス毎に格納するものである。この係数データWiは、SD信号(525i信号)を、HD信号(1050i信号)に変換するための情報である。係数メモリ57には、クラス合成部56より出力されるクラスコードCLが、読み出しアドレス情報として供給され、係数メモリ57からは、クラスコードCLに対応した推定式の係数データWi(i=1乃至n)が読み出され、推定予測演算部58に供給される。
The coefficient memory 57 stores, for each class, a plurality of coefficient data Wi used in the estimation formula used in the estimated
また、画像信号処理部35は、情報メモリバンク61を有している。後述する推定予測演算部58では、予測タップのデータ(SD画素データ)xiと、係数メモリ57より読み出される係数データWiとから、以下の式(4)の推定式によって、作成すべきHD画素データyが演算される。式(4)のnは、第1のタップ選択部51で選択される予測タップの数を表している。
Further, the image
ここで、第1のタップ選択部51で選択的に取り出された予測タップのn個の画素データの位置は、HD信号における注目位置に対して、空間方向(水平、垂直の方向)および時間方向に亘っている。
Here, the positions of the n pixel data of the prediction tap selectively extracted by the first
そして、推定式の係数データWi(i=1乃至n)は、以下の式(5)に示すように、パラメータr、およびzを含む生成式によって生成される。情報メモリバンク61は、この生成式における係数データである係数種データw10乃至wn9を、クラス毎に格納する。この係数種データの生成方法については後述する。 Then, the coefficient data Wi (i = 1 to n) of the estimation formula is generated by a generation formula including parameters r and z as shown in the following formula (5). The information memory bank 61 stores coefficient seed data w10 to wn9, which are coefficient data in this generation formula, for each class. A method for generating the coefficient seed data will be described later.
上述したように、525i信号を1050i信号に変換する場合、奇数、および偶数のそれぞれのフィールドにおいて、525i信号の1画素に対応して1050i信号の4画素を得る必要がある。この場合、奇数、偶数のそれぞれのフィールドにおける1050i信号を構成する2×2の単位画素ブロック内の4画素は、それぞれ中心予測タップに対して異なる位相ずれを持っている。 As described above, when the 525i signal is converted into the 1050i signal, it is necessary to obtain four pixels of the 1050i signal corresponding to one pixel of the 525i signal in each of the odd and even fields. In this case, the four pixels in the 2 × 2 unit pixel block constituting the 1050i signal in each of the odd and even fields have different phase shifts with respect to the central prediction tap.
図8は、奇数フィールドにおける1050i信号を構成する2×2の単位画素ブロック内の4画素HD1乃至HD4における中心予測タップSD0からの位相ずれを示している。ここで、HD1乃至HD4の位置は、それぞれ、SD0の位置から水平方向にk1乃至k4、垂直方向にm1乃至m4だけずれている。 FIG. 8 shows a phase shift from the center prediction tap SD0 in the four pixels HD1 to HD4 in the 2 × 2 unit pixel block constituting the 1050i signal in the odd field. Here, the positions of HD1 to HD4 are shifted from the position of SD0 by k1 to k4 in the horizontal direction and m1 to m4 in the vertical direction, respectively.
図9は、偶数フィールドにおける1050i信号を構成する2×2の単位画素ブロック内の4画素HD1′乃至HD4′における中心予測タップSD0′からの位相ずれを示している。ここで、HD1′乃至HD4′の位置は、それぞれ、SD0′の位置から水平方向にk1′乃至k4′、垂直方向にm1′乃至m4′だけずれている。 FIG. 9 shows a phase shift from the center prediction tap SD0 ′ in the four pixels HD1 ′ to HD4 ′ in the 2 × 2 unit pixel block constituting the 1050i signal in the even field. Here, the positions of HD1 'to HD4' are shifted from the position of SD0 'by k1' to k4 'in the horizontal direction and m1' to m4 'in the vertical direction, respectively.
したがって、情報メモリバンク61には、クラスおよび出力画素(HD1乃至HD4,HD1′乃至HD4′)の組み合わせ毎に、係数種データw10乃至wn9が格納されている。 Accordingly, the information memory bank 61 stores coefficient seed data w10 to wn9 for each combination of class and output pixels (HD1 to HD4, HD1 'to HD4').
係数生成部62は、各クラスの係数種データ、並びに、パラメータr、およびzの値を用い、上述した式(5)によって、クラス毎に、パラメータr、およびzの値に対応した推定式の係数データWi(i=1乃至n)を生成する。係数生成部62には、情報メモリバンク61より、上述した各クラスの係数種データがロードされる。また、係数生成部62には、システムコントローラ32より、パラメータr、およびzの値が供給される。
The coefficient generation unit 62 uses the coefficient seed data of each class and the values of the parameters r and z, and calculates the estimation expression corresponding to the values of the parameters r and z for each class according to the above-described equation (5). Coefficient data Wi (i = 1 to n) is generated. The coefficient generation unit 62 is loaded with the above-described coefficient seed data of each class from the information memory bank 61. Further, the values of parameters r and z are supplied from the
係数生成部62で生成される各クラスの係数データWi(i=1乃至n)は、上述した係数メモリ57に格納される。この係数生成部62における各クラスの係数データWiの生成は、例えば、各垂直ブランキング期間で行われる。これにより、ユーザのリモートコントローラ41の操作によってパラメータr、およびzの値が変更されても、係数メモリ57に格納される各クラスの係数データWiを、そのパラメータr、およびzの値に対応したものに即座に変更することができ、ユーザによるノイズや解像度の調整がスムーズに行われる。
The coefficient data Wi (i = 1 to n) of each class generated by the coefficient generation unit 62 is stored in the coefficient memory 57 described above. The generation of coefficient data Wi of each class in the coefficient generation unit 62 is performed, for example, in each vertical blanking period. Thereby, even if the values of the parameters r and z are changed by the user's operation of the
正規化係数演算部63は、係数生成部62で求められた係数データWi(i=1乃至n)に対応した正規化係数Sを、以下の式(6)によって演算する。正規化係数メモリ64は、この正規化係数Sを格納する。正規化係数メモリ64には、上述したクラス合成部56より出力されるクラスコードCLが、読み出しアドレス情報として供給され、正規化係数メモリ64からは、クラスコードCLに対応した正規化係数Sが読み出され、後述する正規化演算部59に供給される。
The normalization
推定予測演算部58は、第1のタップ選択部51で選択的に取り出された予測タップのデータ(SD画素データ)xiと、係数メモリ57より読み出される係数データWiとから、式(4)の推定式によって、作成すべきHD信号の画素データ(注目位置の画素データ)を演算する。
The estimated
上述したように、SD信号(525i信号)をHD信号(1050i信号)に変換する際には、SD信号の1画素に対してHD信号の4画素(図8のHD1乃至HD4、図9のHD1′乃至HD4′参照)を得る必要があることから、この推定予測演算部58では、HD信号を構成する2×2の単位画素ブロック毎に、画素データが生成される。すなわち、この推定予測演算部58には、第1のタップ選択部51より単位画素ブロック内の4画素(注目画素)に対応した予測タップのデータxiと、係数メモリ57よりその単位画素ブロックを構成する4画素に対応した係数データWiとが供給され、単位画素ブロックを構成する4画素のデータy1乃至y4は、それぞれ個別に、上述した式(4)の推定式で演算される。
As described above, when an SD signal (525i signal) is converted to an HD signal (1050i signal), four pixels of the HD signal (HD1 to HD4 in FIG. 8, HD1 in FIG. 9) are converted to one pixel of the SD signal. Therefore, the estimated
正規化演算部59は、推定予測演算部58より順次出力される4画素のデータy1乃至y4を、正規化係数メモリ64より読み出される、それぞれの演算に使用された係数データWi(i=1乃至n)に対応した正規化係数Sで除算して正規化する。上述したように、係数生成部62は、推定式の係数データWiを求めるものであるが、求められる係数データは丸め誤差を含み、係数データWi(i=1乃至n)の総和が1.0になることは保証されない。そのため、推定予測演算部58で演算される各画素のデータy1乃至y4は、丸め誤差によってレベル変動したものとなる。したがって、正規化演算部59で正規化することで、そのレベル変動を除去することができる。
The
後処理部60は、正規化演算部59で正規化されて順次供給される単位画素ブロック内の4画素のデータy1′乃至y4′を線順次化して、1050i信号のフォーマットで出力する。
The
システムコントローラ32は、通信部31からのユーザの操作信号が入力されると、その通知を情報生成制御部65に供給する。
When a user operation signal is input from the
情報生成制御部65は、システムコントローラ32からユーザの操作信号の入力が通知されたタイミングで、特徴量頻度分布生成部66の処理を制御する。すなわち、情報生成制御部65は、特徴量頻度分布生成部66を制御し、ユーザが、例えば、選局、音量調整、解像度調整、または入力切替など、リモートコントローラ41を操作する度に、その時、バッファメモリ34に一時的に保存されるSD信号の画像の特徴量情報を求めさせる。
The information
特徴量頻度分布生成部66は、バッファメモリ34に記憶されているSD信号(525i信号)を入力し、入力したSD信号の画像の特徴量情報を、動きクラスおよび空間クラスの組み合わせ毎に生成し、生成した動きクラスおよび空間クラスの組み合わせ毎の画像の特徴量情報を、履歴情報メモリ13に記録する。例えば、画像の特徴量情報として、画像の特徴量頻度分布が求められる。
The feature amount frequency
履歴情報メモリ13には、ユーザの操作信号が入力される毎、すなわち、ユーザがリモートコントローラ41を操作する毎に生成される、複数の画像の特徴量頻度分布のデータが、動きクラスおよび空間クラス毎に記憶される。また、図7の例においては、その図示は省略されているが、テレビジョン受信装置10において、履歴情報メモリ13は着脱可能な基板12上に構成されている。
In the
なお、履歴情報メモリ13のみに限らず、情報生成制御部65および特徴量頻度分布生成部66を加えて、基板12上に構成されることもできる。また、履歴情報メモリ13のみに限らず、情報メモリバンク61も加えて、基板12上に構成してもよいし、機能のバージョンアップなどを可能にするため、画像信号処理部35全体が着脱可能な基板12上に構成されることもできる。
Not only the
図10は、特徴量頻度分布生成部66の詳細な構成例を示すブロック図である。
FIG. 10 is a block diagram illustrating a detailed configuration example of the feature amount frequency
特徴量頻度分布生成部66の動きクラスタップ選択部71、空間クラスタップ選択部72、および、特徴量生成タップ選択部73は、情報生成制御部65の制御のもと、バッファメモリ34に記憶されているSD信号より、HD信号(1050i信号)における注目位置の周辺に位置する複数のSD画素のデータを選択的に取り出して出力する。
The motion class
動きクラスタップ選択部71は、図7の第3のタップ選択部53と基本的に同様に構成され、動きに対応するクラス分類に使用するSD画素、すなわち、動きクラスタップのデータを選択的に取り出するものである。空間クラスタップ選択部72は、図7の第2のタップ選択部52と基本的に同様に構成され、SD画素データのレベル分布パターンに対応するクラス分類に使用するSD画素、すなわち、空間クラスタップのデータを選択的に取り出すものである。なお、空間クラスを複数フィールドに属するSD画素データを使用して決定する場合には、この空間クラスにも動き情報が含まれることになる。
The motion class
特徴量生成タップ選択部73は、特徴量の生成に使用するSD画素(以下、「特徴量生成タップ」とも称する)のデータを選択的に取り出すものである。特徴量生成タップは、空間タップと同じタップ構造であってもよいし、異なるタップ構造でもよい。
The feature amount generation
動きクラス検出部74は、図7の動きクラス検出部55と同様に構成され、動きクラスタップ選択部71で選択的に取り出された動きクラスタップのデータ(SD画素データ)より、主に、動きの程度を表すための動きクラスを検出し、その動きクラスのクラス情報(MV)を出力する。
The motion
空間クラス検出部75は、図7の空間クラス検出部54と同様に構成され、空間クラスタップ選択部72で選択的に取り出された空間クラスタップのデータ(SD画素データ)のレベル分布パターンを検出し、このレベル分布パターンに基づいて、空間クラスを検出し、その空間クラスのクラス情報(再量子化コードqi)を出力する。
The space
特徴量生成部76は、特徴量生成タップ選択部73で選択的に取り出された特徴量生成タップのデータ(SD画素データ)より、SD画素の特徴量を生成し、その特徴量の値(データ)を出力する。なお、動きクラス検出部74で検出される動きクラスも、空間クラス検出部75で検出される空間クラスも入力されるSD信号に対して画素毎に検出されるが、特徴量生成部76においても、それらと同じ画素毎に特徴量が生成される。
The feature
図11は、水平方向の画素xo乃至x6の各画素値と、これらの画素値から生成される特徴量の例を示している。図11の例における画素xo乃至x6の画素値における最大値は、Maxであり、最小値は、Minである。 FIG. 11 shows an example of the pixel values of the pixels xo to x6 in the horizontal direction and feature amounts generated from these pixel values. The maximum value of the pixel values of the pixels xo to x6 in the example of FIG. 11 is Max, and the minimum value is Min.
例えば、画素xo乃至x6の7画素が特徴量生成タップとして選択され、画素x3の特徴量が求められるとする。このとき、これらの画素xo乃至x6の7画素の画素値を用いて生成することができる値が、画素x3の特徴量となる。 For example, it is assumed that seven pixels of pixels xo to x6 are selected as feature amount generation taps and the feature amount of the pixel x3 is obtained. At this time, a value that can be generated using the pixel values of the seven pixels xo to x6 is the feature amount of the pixel x3.
すなわち、図11に示されるように、これらの画素xo乃至x6の7画素の画素値を用いて生成される、画素xo乃至x6の画素値のタップ内最大値Max、画素xo乃至x6の画素値のタップ内最小値Min、画素xo乃至x6の画素値のダイナミックレンジDR、画素xo乃至x6の画素値の中間値Mean、または画素xo乃至x6の画素値の平均値Aveなどの値が、画素x3の特徴量として用いられる。 That is, as shown in FIG. 11, the in-tap maximum value Max of the pixel values of the pixels xo to x6 and the pixel value of the pixels xo to x6 generated using the pixel values of the seven pixels xo to x6. The minimum value Min within the tap, the dynamic range DR of the pixel values of the pixels xo to x6, the intermediate value Mean of the pixel values of the pixels xo to x6, or the average value Ave of the pixel values of the pixels xo to x6 is a pixel x3. It is used as a feature amount.
なお、これらのタップ内最大値Max、タップ内最小値Min、ダイナミックレンジDR、中間値Mean、および平均値Aveのうちの複数の種類を生成して、画素の特徴量として用いることもできるし、1種類のみを生成して、画素の特徴量として用いることもできる。 In addition, it is possible to generate a plurality of types of the maximum value Max within the tap, the minimum value Min within the tap, the dynamic range DR, the intermediate value Mean, and the average value Ave, and use them as the feature amount of the pixel. Only one type can be generated and used as a feature amount of a pixel.
特徴量頻度分布演算部77は、同じ画素に対応する、動きクラス検出部74より検出された動きクラス、空間クラス検出部75より検出された空間クラス、および特徴量生成部76より生成された特徴量に基づき、特徴量情報、すなわち、特徴量頻度分布(ヒストグラム)を生成していく。このとき、特徴量頻度分布は、同時に入力される動きクラスと空間クラスの組み合わせ毎に生成され、そのデータは、動きクラスと空間クラスの組み合わせ毎に履歴情報メモリ13に記憶される。
The feature amount frequency
図12は、画素の特徴量値と特徴量頻度分布の例を示している。図12の例においては、画像を構成する複数の画素のうち、画素a1乃至画素a12の特徴量値と、これらの特徴量値から生成される特徴量頻度分布が示されている。この特徴量頻度分布は、横軸を特徴量値とし、縦軸を頻度として構成されている。 FIG. 12 shows an example of pixel feature value and feature frequency distribution. In the example of FIG. 12, the feature amount values of the pixels a1 to a12 among the plurality of pixels constituting the image and the feature amount frequency distribution generated from these feature amount values are shown. The feature amount frequency distribution is configured with the horizontal axis as the feature amount value and the vertical axis as the frequency.
例えば、画素a1と画素a12の特徴量値は50であるので、特徴量頻度分布演算部77は、特徴量頻度分布における特徴量値50の頻度を2カウントする。画素a2乃至画素a4、および画素a7の特徴量値は100であるので、特徴量頻度分布演算部77は、特徴量頻度分布における特徴量値100の頻度を4カウントする。画素a5の特徴量値は240であるので、特徴量頻度分布演算部77は、特徴量頻度分布における特徴量値240の頻度を1カウントする。
For example, since the feature amount value of the pixel a1 and the pixel a12 is 50, the feature amount frequency
画素a6と画素a11の特徴量値は80であるので、特徴量頻度分布演算部77は、特徴量頻度分布における特徴量値80の頻度を2カウントする。画素a8の特徴量値は20であるので、特徴量頻度分布演算部77は、特徴量頻度分布における特徴量値20の頻度を1カウントする。画素a9の特徴量値は200であるので、特徴量頻度分布演算部77は、特徴量頻度分布における特徴量値200の頻度を1カウントする。画素a10の特徴量値は10であるので、特徴量頻度分布演算部77は、特徴量頻度分布における特徴量値10の頻度を1カウントする。
Since the feature amount value of the pixel a6 and the pixel a11 is 80, the feature amount frequency
なお、この特徴量頻度分布は、同時に入力される動きクラスと空間クラスの組み合わせ毎に生成され、そのデータは、動きクラスと空間クラスの組み合わせ毎に履歴情報メモリ13に記録されていく。
This feature amount frequency distribution is generated for each combination of motion class and space class input simultaneously, and the data is recorded in the
図13は、履歴情報メモリ13に記憶されている各ユーザ視聴画像の特徴量頻度分布の例を示している。
FIG. 13 shows an example of the feature amount frequency distribution of each user viewing image stored in the
履歴情報メモリ13には、図13に示されるように、リモートコントローラ41からのユーザの操作信号が入力される毎にSD信号から生成される、ユーザが視聴する画像(すなわち、ユーザ視聴画像)の特徴量頻度分布のデータが、動きクラスおよび空間クラスの組み合わせ毎に記憶されている。
In the
例えば、リモートコントローラ41から、ユーザの選局に対応する操作信号、ユーザの入力切替に対応する操作信号、または、ユーザの解像度調整に対応する操作信号などのユーザの操作信号が入力されたとき毎に生成されたユーザ視聴画像1乃至nの特徴量頻度分布のデータが、それぞれ、動きクラス0乃至Pおよび空間クラス0乃至Nの組み合わせ毎に記憶されている。
For example, every time a user operation signal such as an operation signal corresponding to the user's channel selection, an operation signal corresponding to the user's input switching, or an operation signal corresponding to the user's resolution adjustment is input from the
すなわち、各ユーザ視聴画像1乃至nに対して、動きクラス0および空間クラス0の特徴量頻度分布のデータ、動きクラス0および空間クラス1の特徴量頻度分布のデータ、動きクラス0および空間クラス2の特徴量頻度分布のデータ、…、動きクラス0および空間クラスPの特徴量頻度分布のデータ、動きクラス1および空間クラス0の特徴量頻度分布のデータ、動きクラス2および空間クラス0の特徴量頻度分布のデータ、動きクラスNおよび空間クラス0の特徴量頻度分布のデータ、………、動きクラスPおよび空間クラスNの特徴量頻度分布のデータというように、(P+1)×(N+1)ずつの特徴量頻度分布のデータが記憶されている。
That is, for each of the
なお、上記説明においては、リモートコントローラ41からの操作信号が入力される度に特徴量情報が生成される場合を説明したが、一定時間おきに生成することもできるし、特定の操作信号が入力された場合のみ生成することもできる。
In the above description, the case where the feature amount information is generated every time the operation signal from the
また、図7の特徴量頻度分布生成部66においては、図10の例に構成される動きクラスタップ選択部71と動きクラス検出部74、および空間クラスタップ選択部72と空間クラス検出部75を別途設けることなく、図7の画像信号処理部35内の第3のタップ選択部53と動きクラス検出部55、および第2のタップ選択部52と空間クラス検出部54を併用するように構成することもできる。
Further, in the feature quantity frequency
図5に戻り、再び、テレビジョン受信装置10の構成について説明する。
Returning to FIG. 5, the configuration of the
OSD(On Screen Display)処理部36は、表示部38の画面上に文字図形などの表示を行うための表示信号SCHを発生する。合成部37は、OSD処理部36から出力される表示信号SCHを、画像信号処理部35から出力されるHD信号に合成して、表示部38に供給する。表示部38は、例えば、CRT(cathode-ray tube)ディスプレイ、あるいはLCD(liquid crystal display)等のフラットパネルディスプレイで構成され、画像信号処理部35より出力されるHD信号による画像と、必要に応じて合成部37により合成された表示信号SCHとを表示する。
An OSD (On Screen Display) processing unit 36 generates a display signal SCH for displaying a character graphic on the screen of the
また、システムコントローラ32には、必要に応じてドライブ39が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは、半導体メモリなどのリムーバブルメディア40が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じてシステムコントローラ32にインストールされる。
In addition, a drive 39 is connected to the
図5のテレビジョン受信装置10の動作について説明する。
The operation of the
システムコントローラ32は、リモートコントローラ41を用いて入力されるユーザの操作に基づいて、チューナ33を制御する。チューナ33は、システムコントローラ32の制御に従って、アンテナ11で受信された放送信号に対して、選局処理、中間周波増幅処理、および検波処理などを行い、バッファメモリ34に出力する。
The
チューナ33より出力されるSD信号(525i信号)は、バッファメモリ34に供給されて、一時的に保存される。そして、バッファメモリ34に一時的に記憶されたSD信号は、画像信号処理部35に供給され、システムコントローラ32から供給される制御信号を基に、HD信号(1050i信号)に変換される。
The SD signal (525i signal) output from the tuner 33 is supplied to the
すなわち、画像信号処理部35では、SD信号を構成する画素データ(以下、「SD画素データ」と称する)から、HD信号を構成する画素データ(以下、「HD画素データ」と称する)を得ることができる。画像信号処理部35より出力されるHD信号は、必要に応じて、合成部37において、OSD処理部36から出力される表示信号SCHによる文字図形などと合成されて、表示部38に供給され、表示部38の画面上に、画像が表示される。
That is, the image
また、ユーザは、リモートコントローラ41の操作によって、表示部38の画面上に表示される画像の水平および垂直の解像度と、ノイズ除去度(ノイズ低減度)を調整することができる。画像信号処理部35では、推定式によって、HD画素データが算出されるが、この推定式の係数データとして、ユーザのリモートコントローラ41の操作によって調整された、水平および垂直の解像度を定めるパラメータrおよびノイズ除去度を定めるパラメータzに対応したものが、これらパラメータr、およびzを含む生成式によって生成されて使用される。これにより、画像信号処理部35から出力されるHD信号による画像の水平および垂直の解像度およびノイズ除去度は、調整されたパラメータr、およびzに対応したものとなる。
Further, the user can adjust the horizontal and vertical resolutions of the image displayed on the screen of the
図14は、パラメータr、およびzを調整するためのユーザインタフェースの一例を示している。調整時には、表示部38に、パラメータr、およびzの調整位置を、図中星印のアイコン82で示した調整画面81が、OSD表示される。また、リモートコントローラ41は、ユーザ操作手段としてのジョイスティック91を備えている。
FIG. 14 shows an example of a user interface for adjusting the parameters r and z. At the time of adjustment, an
ユーザは、ジョイスティック91を操作することで、調整画面81上でアイコン82の位置を動かすことができ、水平および垂直の解像度を決定するパラメータr、およびノイズ除去度を決定するパラメータzの値を調整することができる。
The user can move the position of the
図15に、図14の調整画面81の部分を拡大して示す。アイコン82が左右に動かされることでノイズ除去度を決定するパラメータzの値が調整され、一方アイコン82が上下に動かされることで水平および垂直の解像度を決定するパラメータrの値が調整される。ユーザは、表示部38に表示される調整画面81を参照して、パラメータr、およびzの値の調整を容易に行うことができる。
FIG. 15 shows an enlarged view of the
なお、リモートコントローラ41は、ジョイスティック91の代わりに、マウスやトラックボール等のその他のポインティングデバイスを備えるようにしてもよい。更に、ユーザによって調整されたパラメータr、およびzの値が、調整画面81上に数値表示されるようにしてもよい。
Note that the
次に、図7を参照して上述した画像信号処理部35の動作を説明する。
Next, the operation of the image
第2のタップ選択部52は、バッファメモリ34に記憶されているSD信号(525i信号)の供給を受け、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する空間クラスタップのデータ(SD画素データ)を、選択的に取り出す。第2のタップ選択部52で選択的に取り出された空間クラスタップのデータ(SD画素データ)は、空間クラス検出部54に供給される。空間クラス検出部54は、空間クラスタップのデータとしての各SD画素データに対して、ADRC処理を施して、空間クラス(主に空間内の波形表現のためのクラス分類)のクラス情報としての再量子化コードqiを得る(式(1)参照)。
The second
また、第3のタップ選択部53は、バッファメモリ34に記憶されているSD信号(525i信号)の供給を受け、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する動きクラスタップのデータ(SD画素データ)を選択的に取り出す。第3のタップ選択部53で選択的に取り出された動きクラスタップのデータ(SD画素データ)は、動きクラス検出部55に供給される。動きクラス検出部55は、動きクラスタップのデータとしての各SD画素データより、動きクラス(主に動きの程度を表すためのクラス分類)のクラス情報MVを得る。
The third tap selection unit 53 is supplied with the SD signal (525i signal) stored in the
この動き情報MVと、再量子化コードqiとは、クラス合成部56に供給される。クラス合成部56は、供給された動き情報MVと再量子化コードqiとから、作成すべきHD信号(1050i信号)を構成する単位画素ブロック毎に、その単位画素ブロック内の4画素(注目画素)が属するクラスを示すクラスコードCLを得る(式(3)参照)。そして、このクラスコードCLは、係数メモリ57および正規化係数メモリ64に、読み出しアドレス情報として供給される。
The motion information MV and the requantization code qi are supplied to the
例えば、各垂直ブランキング期間に、係数生成部62で、ユーザによって調整されたパラメータr、およびzの値に対応して、クラスおよび出力画素(HD1乃至HD4,HD1′乃至HD4′)の組み合わせ毎に、係数種データw10乃至wn9を用いて、推定式の係数データWi(i=1乃至n)が求められて、係数メモリ57に格納される(式(5)参照)。また、係数生成部62で求められた推定式の係数データWi(i=1乃至n)に対応した正規化係数Sが、正規化係数演算部63で生成されて、正規化係数メモリ64に格納される(式(6)参照)。
For example, in each vertical blanking period, for each combination of class and output pixels (HD1 to HD4, HD1 ′ to HD4 ′) corresponding to the values of parameters r and z adjusted by the user in the coefficient generation unit 62. The coefficient data Wi (i = 1 to n) of the estimation formula is obtained using the coefficient seed data w10 to wn9 and stored in the coefficient memory 57 (see formula (5)). Also, the normalization coefficient S corresponding to the coefficient data Wi (i = 1 to n) of the estimation formula obtained by the coefficient generation unit 62 is generated by the normalization
クラスコードCLが、係数メモリ57に読み出しアドレス情報として供給されることで、この係数メモリ57からクラスコードCLに対応した4出力画素(奇数フィールドではHD1乃至HD4、偶数フィールドではHD1′乃至HD4′)分の推定式の係数データWiが読み出されて、推定予測演算部58に供給される。また、第1のタップ選択部51は、バッファメモリ34に記憶されているSD信号(525i信号)の供給を受け、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する予測タップのデータ(SD画素データ)を選択的に取り出す。
By supplying the class code CL to the coefficient memory 57 as read address information, four output pixels corresponding to the class code CL from the coefficient memory 57 (HD1 to HD4 in the odd field, HD1 ′ to HD4 ′ in the even field). The coefficient data Wi of the estimation equation for the minute is read and supplied to the estimated
推定予測演算部58は、予測タップのデータ(SD画素データ)xiと、係数メモリ57より読み出される4出力画素分の係数データWiとから、作成すべきHD信号を構成する単位画素ブロック内の4画素(注目位置の画素)のデータy1乃至y4を演算する(式(4)参照)。そして、この推定予測演算部58より順次出力されるHD信号を構成する単位画素ブロック内の4画素のデータy1乃至y4は、正規化演算部59に供給される。
The estimated
正規化係数メモリ64には、上述したように、クラスコードCLが読み出しアドレス情報として供給され、正規化係数メモリ64からはクラスコードCLに対応した正規化係数S、つまり、推定予測演算部58より出力されるHD画素データy1乃至y4の演算に使用された係数データWiに対応した正規化係数Sが読み出されて、正規化演算部59に供給される。正規化演算部59は、推定予測演算部58より出力されるHD画素データy1乃至y4を、それぞれ対応する正規化係数Sで除算して正規化する。これにより、係数生成部62で係数データWiを求める際の丸め誤差によるデータy1乃至y4のレベル変動が除去される。
As described above, the class code CL is supplied to the
このように、正規化演算部59で正規化されて順次出力される単位画素ブロック内の4画素のデータy1′乃至y4′は、後処理部50に供給される。後処理部50は、正規化演算部59より順次供給される単位画素ブロック内の4画素のデータy1′乃至y4′を線順次化し、1050i信号のフォーマットで出力する。つまり、後処理部50からは、HD信号としての1050i信号が出力される。
As described above, the data y1 ′ to y4 ′ of the four pixels in the unit pixel block which are normalized by the
以上のように、画像信号処理部35は、調整されたパラメータr、およびzの値に対応した推定式の係数データWi(i=1乃至n)を用いて、HD画素データyを演算するものである。したがって、ユーザは、パラメータr、およびzの値を調整することで、HD信号による画像の水平および垂直の解像度とノイズ除去度を自由に調整することができる。また、調整されたパラメータr、およびzの値に対応した各クラスの係数データは、その都度、係数生成部62で生成されて使用されるものであるので、大量の係数データを格納しておくメモリは必要なくなり、メモリの節約を図ることができる。
As described above, the image
次に、図10の特徴量頻度分布生成部66の動作を説明する。
Next, the operation of the feature amount frequency
例えば、リモートコントローラ41から、ユーザの選局に対応する操作信号、ユーザの入力切替に対応する操作信号、またはユーザの解像度調整に対応する操作信号などが入力されると、システムコントローラ32からは、各操作信号が入力された通知が情報生成制御部65に供給される。
For example, when an operation signal corresponding to user tuning, an operation signal corresponding to user input switching, or an operation signal corresponding to user resolution adjustment is input from the
システムコントローラ32から操作信号の入力の通知が供給されると、情報生成制御部65は、動きクラスタップ選択部71、空間クラスタップ選択部72、および、特徴量生成タップ選択部73に処理を開始させる。
When an operation signal input notification is supplied from the
動きクラスタップ選択部71は、バッファメモリ34に記憶されているSD信号の供給を受け、SD信号(525i信号)より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する動きクラスタップ(複数のSD画素)のデータを選択的に取り出す。動きクラスタップ選択部71で選択的に取り出された動きクラスタップのデータは、動きクラス検出部74に供給される。
The motion class
動きクラス検出部74は、動きクラスタップのデータとしての各SD画素データより、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素に囲まれるSD画素の動きクラス(主に動きの程度を表すためのクラス分類)を検出し、検出したSD画素の動きクラスのクラス情報(MV)を、特徴量頻度分布演算部77に出力する。
The motion
また、空間クラスタップ選択部72は、バッファメモリ34に記憶されているSD信号(525i信号)の供給を受け、SD信号より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する空間クラスタップ(複数のSD画素)のデータを選択的に取り出す。空間クラスタップ選択部72で選択的に取り出された空間クラスタップのデータは、空間クラス検出部75に供給される。
Also, the space class
空間クラス検出部75は、空間クラスタップのデータとしての各SD画素データに対して、ADRC処理を施して、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素に囲まれるSD画素の空間クラス(主に空間内の波形表現のためのクラス分類)のクラス情報としての再量子化コード(qi)を得て、特徴量頻度分布演算部77に出力する。
The space
さらに、特徴量生成タップ選択部73は、バッファメモリ34に記憶されているSD信号(525i信号)の供給を受け、SD信号より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する特徴量生成タップ(複数のSD画素)のデータを選択的に取り出す。特徴量生成タップ選択部73で選択的に取り出された特徴量生成タップのデータは、特徴量生成部76に供給される。
Further, the feature quantity generation
特徴量生成部76は、特徴量生成タップ選択部73で選択的に取り出された特徴量生成タップのデータとしてのSD画素データより、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素に囲まれるSD画素の特徴量である、例えば、最大値および最小値などを生成し、生成したSD画素の特徴量の値を特徴量頻度分布演算部77に出力する。
The feature
同じSD画素について求められた動きクラス、空間クラス、および特徴量の各情報は、特徴量頻度分布演算部77に供給される。特徴量頻度分布演算部77は、動きクラスおよび空間クラスの組み合わせ毎に、特徴量の頻度をカウントし、特徴量頻度分布(ヒストグラム)を生成し、生成した特徴量頻度分布のデータを、動きクラスおよび空間クラスの組み合わせ毎に履歴情報メモリ13に記録する。
Information about the motion class, the space class, and the feature amount obtained for the same SD pixel is supplied to the feature amount frequency
このようにして、操作信号が入力される度に履歴情報メモリ13に記録される、ユーザ視聴画像の特徴量頻度分布のデータは、例えば、テレビジョン受信装置10のバージョンアップ等の場合において、その情報メモリバンク61に格納される係数種データw10乃至wn9を生成する際などに利用される。
In this way, the feature frequency distribution data of the user viewing image that is recorded in the
すなわち、情報メモリバンク61に格納される係数種データw10乃至wn9は、予測係数生成装置20において、履歴情報メモリ13に記録されるユーザ視聴画像の特徴量頻度分布のデータを用いて生成されるものである。
That is, the coefficient seed data w10 to wn9 stored in the information memory bank 61 is generated by the prediction
次に、係数種データw10乃至wn9の生成方法の一例について説明する。この例においては、上述した式(5)の生成式における係数データである係数種データw10乃至wn9を求める例を示すものとする。 Next, an example of a method for generating the coefficient seed data w10 to wn9 will be described. In this example, an example is shown in which coefficient seed data w10 to wn9, which are coefficient data in the generation formula of the above-described formula (5), are obtained.
ここで、以下の説明のため、式(7)のように、ti(i=0乃至9)を定義する。 Here, for the following description, ti (i = 0 to 9) is defined as in Expression (7).
この式(7)を用いると、式(5)は、以下の式(8)のように書き換えられる。 When this equation (7) is used, equation (5) can be rewritten as the following equation (8).
最終的に、学習によって未定係数wijが求められる。すなわち、クラスおよび出力画素の組み合わせ毎に、複数のSD画素データとHD画素データを用いて、二乗誤差を最小にする係数値が決定される。これは、いわゆる、最小二乗法による解法である。学習数をm、k(1≦k≦m)番目の学習データにおける残差をek、二乗誤差の総和をEとすると、式(4)および式(5)を用いて、Eは式(9)で表される。ここで、xikはSD画像のi番目の予測タップ位置におけるk番目の画素データ、ykはそれに対応するk番目のHD画像の画素データを表している。 Finally, the undetermined coefficient wij is obtained by learning. That is, for each combination of class and output pixel, a coefficient value that minimizes the square error is determined using a plurality of SD pixel data and HD pixel data. This is a so-called least square method. Assuming that the learning number is m, the residual in the k-th (1 ≦ k ≦ m) learning data is ek, and the sum of squared errors is E, using Eq. (4) and Eq. ). Here, xik represents the kth pixel data at the i-th predicted tap position of the SD image, and yk represents the corresponding pixel data of the kth HD image.
最小二乗法による解法では、式(9)のwijによる偏微分が0になるようなwijを求める。これは、以下の式(10)で示される。 In the solution by the least square method, wij is obtained such that the partial differentiation by wij in equation (9) becomes zero. This is shown by the following formula (10).
以下、式(11)、式(12)のように、Xipjq、Yipを定義すると、式(10)は、式(13)のように行列を用いて書き換えられる。 Hereinafter, when Xipjq and Yip are defined as in Expression (11) and Expression (12), Expression (10) can be rewritten using a matrix as in Expression (13).
この方程式は、一般に、正規方程式と称されている。正規方程式は、掃き出し法(Gauss-Jordanの消去法)等を用いて、wijについて解かれ、係数種データが算出される。 This equation is generally referred to as a normal equation. The normal equation is solved for wij by using a sweeping method (Gauss-Jordan elimination method) or the like, and coefficient seed data is calculated.
図16は、上述した係数種データの生成方法の一例の概念を示す図である。 FIG. 16 is a diagram illustrating a concept of an example of the above-described coefficient seed data generation method.
HD信号から、複数のSD信号が生成される。例えば、HD信号からSD信号を生成する際に使用されるフィルタの垂直方向および水平方向の帯域を可変するパラメータr、およびノイズ量を可変するパラメータzをそれぞれ9段階に可変することによって、合計81種類のSD信号が生成される。このようにして生成された複数のSD信号とHD信号との間で、学習が行われて、係数種データが生成される。 A plurality of SD signals are generated from the HD signal. For example, by varying the parameter r for varying the vertical and horizontal bands of the filter used when generating the SD signal from the HD signal and the parameter z for varying the noise amount in 9 stages, a total of 81 Types of SD signals are generated. Learning is performed between the plurality of SD signals and HD signals generated in this way, and coefficient seed data is generated.
図17は、図4の予測係数生成装置20の構成を示すブロック図である。
FIG. 17 is a block diagram showing a configuration of the prediction
予測係数生成装置20は、図示せぬデータサーバなどから、数十種類の学習画像としてのHD信号と、その画像番号を入力し、テレビジョン受信装置10から取り外された基板12の履歴情報メモリ13に記憶されているユーザ視聴画像の特徴量情報である特徴量頻度分布のデータを用いて、テレビジョン受信装置10の情報メモリバンク61に格納される係数種データw10乃至wn9を生成する。
The prediction
予測係数生成装置20は、入力端子201乃至203、複数の学習画像の特徴量頻度分布を生成し、記録する学習画像頻度分布生成部204、履歴情報メモリ13に記憶されているユーザ視聴画像の特徴量頻度分布と、学習画像頻度分布生成部204により記録された学習画像の特徴量頻度分布とを比較し、学習画像の中から、ユーザ視聴画像に似ているものを選択する学習画像選択部205、学習画像選択部205により選択された学習画像を用いて予測係数を学習する係数種データ生成部206、並びにCPU、RAM、およびROMを含むマイクロコントローラを備え、システム全体の動作を制御するためのシステムコントローラ207により構成される。
The prediction
入力端子201には、入力端子202から入力される学習画像の画像番号が入力される。入力端子202には、数十種類の学習画像の、教師信号としてのHD信号(1050i信号)が順に入力される。入力端子203には、パラメータr、およびzの値が入力される。なお、学習画像、画像番号、並びに、パラメーラr、およびzなどは、例えば、システムコントローラ207の制御のもと、外部の図示せぬデータサーバなどから入力される。
The image number of the learning image input from the
学習画像頻度分布生成部204は、SD信号生成部211、特徴量頻度分布生成部212、および学習画像頻度分布メモリ213により構成され、入力端子201および202からそれぞれ入力されるHD信号とその画像番号を受け、動きクラス、空間クラス毎に学習画像の特徴量情報である、特徴量頻度分布を生成して記憶し、学習画像選択部205より要求された画像番号、動きクラス、および空間クラスに応じて、記憶している特徴量頻度分布のデータを出力する処理を行う。
The learning image frequency
SD信号生成部211は、入力端子202からのHD信号(1050i信号)に対して、入力端子203から入力されるパラメータr、およびzの値を用いて、水平および垂直の間引き処理を行って、生徒信号としてのSD信号(525i信号)を得る。
The SD
このとき、SD信号生成部211は、入力端子203から入力されるパラメータrに基づいて、HD信号からSD信号を生成する際に用いられる帯域制限フィルタの、空間方向(水平および垂直)の帯域を変更し、パラメータzに基づいて、SD信号に対するノイズ付加状態を段階的に変更する。
At this time, the SD
したがって、SD信号生成部211においては、入力されたパラメータrの値そのものに応じて、空間方向の帯域が可変され、入力されたパラメータrの値そのものに応じて、ノイズ付加状態が段階的に可変される。
Therefore, in the SD
特徴量頻度分布生成部212は、図7の特徴量頻度分布生成部66と基本的に同様に構成され、SD信号生成部211からのSD信号の画像の特徴量情報としての特徴量頻度分布を、動きクラスおよび空間クラス毎に生成し、生成した動きクラスおよび空間クラス毎の画像の特徴量頻度分布のデータを、学習画像頻度分布メモリ213に記録する。
The feature amount frequency
学習画像頻度分布メモリ213には、入力端子201からの画像番号と、特徴量頻度分布生成部212により生成される、画像番号に対応する数十種類の学習画像の特徴量頻度分布のデータが、動きクラスおよび空間クラス毎に記憶されている。
In the learning image
図18は、特徴量頻度分布生成部212の詳細な構成例を示すブロック図である。
FIG. 18 is a block diagram illustrating a detailed configuration example of the feature amount frequency
特徴量頻度分布生成部212の動きクラスタップ選択部251、空間クラスタップ選択部252、および特徴量生成タップ選択部253は、SD信号生成部211からのSD信号より、特徴量を生成する対象画素の周辺に位置する複数のSD画素のデータを選択的に取り出して出力する。これらの動きクラスタップ選択部251、空間クラスタップ選択部252、および特徴量生成タップ選択部253は、図10の動きクラスタップ選択部71、空間クラスタップ選択部72、および特徴量生成タップ選択部73と基本的に同様に構成される。
The motion class
動きクラス検出部254は、図10の動きクラス検出部74と基本的に同様に構成され、動きクラスタップ選択部251で選択的に取り出された動きクラスタップのデータ(SD画素データ)より、主に、動きの程度を表すための動きクラスを検出し、その動きクラスのクラス情報(MV)を出力する。
The motion
空間クラス検出部255は、図10の空間クラス検出部75と基本的に同様に構成され、空間クラスタップ選択部252で選択的に取り出された空間クラスタップのデータ(SD画素データ)のレベル分布パターンを検出し、このレベル分布パターンに基づいて、空間クラスを検出し、その空間クラスのクラス情報(再量子化コードqi)を出力する。
The space
特徴量生成部256は、図10の特徴量生成部76と基本的に同様に構成され、特徴量生成タップ選択部253で選択的に取り出された特徴量生成タップのデータ(SD画素データ)より、図10の特徴量生成部76が生成する特徴量と対応するSD画素の特徴量を生成し、その特徴量の値を出力する。すなわち、図11を参照して上述したように、特徴量生成タップの画素値が用いられて、タップ内最大値Max、タップ内最小値Min、ダイナミックレンジDR、中間値、および平均値Aveのうちの少なくとも1つが、求める画素の特徴量として生成される。
The feature
特徴量頻度分布演算部257は、図10の特徴量頻度分布演算部77と基本的に同様に構成され、同じ画素に対応する、動きクラス検出部74より検出された動きクラス、空間クラス検出部75より検出された空間クラス、および特徴量生成部76より生成された特徴量に基づき、特徴量情報である、図12を参照して上述した特徴量頻度分布(ヒストグラム)を生成していく。このとき、特徴量頻度分布は、同時に入力される動きクラスと空間クラスの組み合わせ毎に生成され、そのデータは、動きクラスと空間クラスの組み合わせ毎に学習画像頻度分布メモリ213に記憶される。
The feature amount frequency
図19は、学習画像頻度分布メモリ213に記憶されている特徴量頻度分布の例を示している。
FIG. 19 shows an example of the feature amount frequency distribution stored in the learning image
学習画像頻度分布メモリ213には、数十種類の学習画像の特徴量頻度分布のデータが、動きクラスおよび空間クラスの組み合わせ毎に記憶されている。
The learning image
例えば、学習画像1乃至mの特徴量頻度分布のデータが、それぞれ、動きクラス0乃至Pおよび空間クラス0乃至Nの組み合わせ毎に記憶されている。
For example, feature amount frequency distribution data of learning
すなわち、各学習画像1乃至mに対して、動きクラス0および空間クラス0の特徴量頻度分布のデータ、動きクラス0および空間クラス1の特徴量頻度分布のデータ、動きクラス0および空間クラス2の特徴量頻度分布のデータ、…、動きクラス0および空間クラスPの特徴量頻度分布のデータ、動きクラス1および空間クラス0の特徴量頻度分布のデータ、動きクラス2および空間クラス0の特徴量頻度分布のデータ、動きクラスNおよび空間クラス0の特徴量頻度分布のデータ、………、動きクラスPおよび空間クラスNの特徴量頻度分布のデータというように、(P+1)×(N+1)ずつの特徴量頻度分布のデータが記憶されている。
That is, for each learning
図17に戻り、学習画像選択部205は、頻度分布比較部221、学習画像選択部222、および学習画像テーブル223により構成され、履歴情報メモリ13のユーザ視聴画像の特徴量頻度分布と、学習画像頻度分布メモリ213の全ての学習画像の特徴量頻度分布とを比較し、動きクラスおよび空間クラスの組み合わせ毎に、似た特徴を有する学習画像を選択し、その画像番号を記録し、係数データ生成時に、記録した画像番号を提供する処理を行う。
Returning to FIG. 17, the learning
頻度分布比較部221は、同じ動きクラスおよび空間クラスの組み合わせについて、基板12の履歴情報メモリ13に記憶されているユーザ視聴画像の特徴量頻度分布と、学習画像頻度分布メモリ213にある全ての学習画像の特徴量頻度分布とを比較していく。
The frequency
図20は、頻度分布比較部221による特徴量頻度分布の比較対象を説明する図である。
FIG. 20 is a diagram for explaining a comparison target of the feature amount frequency distribution by the frequency
履歴情報メモリ13には、テレビジョン受信装置10で生成されたユーザ視聴画像の特徴量頻度分布のデータが記憶されている。図20の例の場合、ユーザ視聴画像1の動きクラスPおよび空間クラスMの特徴量頻度分布のデータ、…、ユーザ視聴画像1の動きクラスQおよび空間クラスNの特徴量頻度分布のデータ、…、ユーザ視聴画像2の動きクラスPおよび空間クラスMの特徴量頻度分布のデータ、…、ユーザ視聴画像2の動きクラスQおよび空間クラスNの特徴量頻度分布のデータ、…、というように、ユーザ視聴画像の特徴量頻度分布のデータが動きクラスおよび空間クラスの組み合わせ毎に記憶されている。
The
また、学習画像特徴量頻度分布メモリ213には、学習画像頻度分布生成部204により生成された数十種類の学習画像の頻度分布のデータが記憶されている。図20の例の場合、学習画像1の動きクラスPおよび空間クラスMの特徴量頻度分布のデータ、…、学習画像1の動きクラスQおよび空間クラスNの特徴量頻度分布のデータ、…、学習画像2の動きクラスPおよび空間クラスMの特徴量頻度分布のデータ、…、学習画像2の動きクラスQおよび空間クラスNの特徴量頻度分布のデータ、…、というように、学習画像の特徴量頻度分布のデータが動きクラスおよび空間クラスの組み合わせ毎に記憶されている。
In addition, the learning image feature amount
頻度分布比較部221は、履歴情報メモリ13に記憶されているすべてのユーザ視聴画像の特徴量頻度分布のデータを、動きクラスおよび空間クラスの組み合わせ毎に平均化し、動きクラスおよび空間クラスの組み合わせ毎の1つの特徴量頻度分布とした上で、学習画像特徴量頻度分布メモリ213に記憶されているすべての学習画像の特徴量頻度分布に対して、動きクラスおよび空間クラスの組み合わせ毎に比較を行っていく。
The frequency
ここで、頻度分布比較部221は、図21に示されるように、2つの特徴量頻度分布から求まる値を用いて相関係数を求めることで、2つの特徴量頻度分布を比較する。
Here, as shown in FIG. 21, the frequency
図21は、頻度分布比較部221による特徴量頻度分布の比較方法の具体例を示している。図21の例においては、左から順に、学習画像の特徴量頻度分布と、ユーザ視聴画像の特徴量頻度分布のグラフが示されている。各グラフにおいて、縦軸が学習画像の頻度fsty(x)およびユーザ視聴画像の頻度fusr(x)をそれぞれ表しており、横軸が特徴量値(x)を表している。
FIG. 21 shows a specific example of the comparison method of the feature amount frequency distribution by the frequency
頻度分布比較部221は、学習画像の頻度fsty(x)から、頻度平均Mfstyと頻度標準偏差SDfstyを求め、ユーザ視聴画像の頻度fusr (x)から、頻度平均Mfusrと頻度標準偏差SDfusrを求め、次の式(14)で求まる相関係数値C(−1≦C≦1)を求めることで、2つの特徴量頻度分布の比較を行う。
The frequency
なお、Nは、サンプル数(特徴量頻度分布をカウントする画素数)を表す。また、相関係数値Cは、−1乃至1の値をとり、値が大きいほど、特徴量頻度分布の形状が似ているとされる。 Note that N represents the number of samples (number of pixels for counting the feature frequency distribution). Further, the correlation coefficient value C takes a value of −1 to 1, and the larger the value, the more similar the shape of the feature amount frequency distribution.
したがって、頻度分布比較部221においては、図20に示される、平均化後の動きクラスPおよび空間クラスMのユーザ視聴画像の特徴量頻度分布と、学習画像1の動きクラスPおよび空間クラスMの特徴量頻度分布が比較され、その比較値である相関係数値Cと学習画像1の画像番号、動きクラスP、および空間クラスMが、学習画像選択部222に出力される。また、平均化後の動きクラスPおよび空間クラスMのユーザ視聴画像の特徴量頻度分布と、学習画像2の動きクラスPおよび空間クラスMの特徴量頻度分布が比較され、その比較値である相関係数値Cと学習画像2の画像番号、動きクラスP、および空間クラスMが、学習画像選択部222に出力される。
Therefore, in the frequency
なお、図示しないが、学習画像3以降についても、平均化後の動きクラスPおよび空間クラスMのユーザ視聴画像の特徴量頻度分布との比較が行われ、その比較値である相関係数値Cと学習画像3以降の画像番号、動きクラスP、および空間クラスMが、学習画像選択部222に出力される。
Although not shown, the learning image 3 and the subsequent images are also compared with the feature amount frequency distribution of the user viewed images of the motion class P and the space class M after averaging, and the correlation coefficient value C, which is the comparison value, is compared. The image numbers after the learning image 3, the motion class P, and the space class M are output to the learning
同様に、頻度分布比較部221においては、図20に示される、平均化後の動きクラスQおよび空間クラスNのユーザ視聴画像の特徴量頻度分布と、学習画像1の動きクラスQおよび空間クラスNの特徴量頻度分布が比較され、その比較値である相関係数値Cと学習画像1の画像番号、動きクラスQ、および空間クラスNが、学習画像選択部222に出力される。また、平均化後の動きクラスQおよび空間クラスNのユーザ視聴画像の特徴量頻度分布と、学習画像2の動きクラスQおよび空間クラスNの特徴量頻度分布が比較され、その比較値である相関係数値Cと学習画像2の画像番号、動きクラスQ、および空間クラスNが、学習画像選択部222に出力される。
Similarly, in the frequency
なお、図示しないが、学習画像3以降についても、平均化後の動きクラスQおよび空間クラスNのユーザ視聴画像の特徴量頻度分布との比較が行われ、その比較値である相関係数値Cと学習画像3以降の画像番号、動きクラスQ、および空間クラスNが、学習画像選択部222に出力される。
Although not shown, the learning image 3 and the subsequent images are also compared with the feature amount frequency distribution of the user viewed images of the motion class Q and the space class N after averaging, and the correlation coefficient value C, which is the comparison value, is compared. The image numbers after the learning image 3, the motion class Q, and the space class N are output to the learning
学習画像選択部222は、動きクラスおよび空間クラスの組み合わせ毎に、すべての学習画像の比較値である相関係数値Cに基づいて1つの学習画像を選択し、動きクラスおよび空間クラスの組み合わせ毎に、選択した学習画像の画像番号(以下、選択画像番号とも称する)を学習画像テーブル223に記録していく。
The learning
学習画像テーブル223には、すべての動きクラスおよび空間クラスの組み合わせ毎の選択画像番号が記憶される。 The learning image table 223 stores selected image numbers for each combination of all motion classes and space classes.
図22は、学習画像選択部222の学習画像選択および学習画像テーブルの構成の例を示す図である。
FIG. 22 is a diagram illustrating an example of the learning image selection of the learning
学習画像選択部222には、頻度分布比較部221より、すべての学習画像番号1乃至L、すべての動きクラス1乃至M、すべての空間クラス1乃至N、それらの組み合わせにおける特徴量頻度分布のユーザ視聴画像との比較結果の比較値が入力されている。
The learning
例えば、図22の学習画像選択部222には、上から順に、学習画像番号「1」については、学習画像番号「1」、動きクラス「1」、空間クラス「1」、比較値「C_1_1_1」が入力され、学習画像番号「1」、動きクラス「1」、空間クラス「2」、比較値「C_1_1_2」が入力され、…、学習画像番号「1」、動きクラス「1」、空間クラス「N」、比較値「C_1_1_N」が入力されている。また、学習画像番号「1」、動きクラス「2」、空間クラス「1」、比較値「C_1_2_1」が入力され、学習画像番号「1」、動きクラス「2」、空間クラス「2」、比較値「C_1_2_2」が入力され、…、学習画像番号「1」、動きクラス「2」、空間クラス「N」、比較値「C_1_2_N」が入力されている。
For example, in the learning
なお、図示はされないが、以下、動きクラス「3」乃至「M−1」以降についても同様に入力されており、さらに、学習画像番号「1」、動きクラス「M」、空間クラス「1」、比較値「C_1_M_1」が入力され、学習画像番号「1」、動きクラス「M」、空間クラス「2」、比較値「C_1_M_2」が入力され、…、学習画像番号「1」、動きクラス「M」、空間クラス「N」、比較値「C_1_M_N」が入力され、学習画像番号「1」、動きクラス「M」、空間クラス「1」、比較値「C_1_M_1」が入力され、学習画像番号「1」、動きクラス「M」、空間クラス「2」、比較値「C_1_M_2」が入力され、…、学習画像番号「1」、動きクラス「M」、空間クラス「N」、比較値「C_1_M_N」が入力されている。 Although not shown in the figure, the motion classes “3” to “M−1” and thereafter are input in the same manner, and the learning image number “1”, the motion class “M”, and the space class “1”. The comparison value “C_1_M_1” is input, the learning image number “1”, the motion class “M”, the space class “2”, the comparison value “C_1_M_2” is input,..., The learning image number “1”, the motion class “ M, space class “N”, and comparison value “C_1_M_N” are input, learning image number “1”, motion class “M”, space class “1”, and comparison value “C_1_M_1” are input, and learning image number “ 1 ”, motion class“ M ”, space class“ 2 ”, and comparison value“ C_1_M_2 ”are input,..., Learning image number“ 1 ”, motion class“ M ”, space class“ N ”, and comparison value“ C_1_M_N ” Is entered.
以降、その図示は殆ど省略されるが、学習画像番号「2」乃至「L」についても、学習画像番号「2」乃至「L」、動きクラス「1」乃至「M」、空間クラス「1」乃至「N」、比較値「C_2_1_1」乃至「C_L_M_N」がそれぞれ入力されている。 Thereafter, although illustration thereof is omitted, the learning image numbers “2” to “L”, the learning image numbers “2” to “L”, the motion classes “1” to “M”, and the space class “1” are also omitted. Through “N” and comparison values “C_2_1_1” through “C_L_M_N” are input.
まず、学習画像選択部222は、それらを、動きクラスおよび空間クラスの組み合わせ毎に並び替え、動きクラスおよび空間クラスの組み合わせ毎の比較値を評価し、最も相似している比較値の学習画像番号を選択し、その動きクラスおよび空間クラスの組み合わせにおける選択画像番号として、学習画像テーブル223に記録させる。
First, the learning
なお、ユーザ視聴画像の特徴量頻度分布と最も形状が似ている特徴量頻度分布を有する学習画像を選択することが必要であり、いまの場合、比較値として、図21を参照して上述した相関関係値Cが用いられているので、最も大きい比較値を有する学習画像が最も類似しているとして選択される。 Note that it is necessary to select a learning image having a feature amount frequency distribution that is most similar to the feature amount frequency distribution of the user viewing image. In this case, the comparison value is described above with reference to FIG. Since the correlation value C is used, the learning image having the largest comparison value is selected as being most similar.
すなわち、動きクラス「1」および空間クラス「1」の組み合わせにおける各画像番号「1」乃至「L」の比較値「C_1_1_1」乃至「C_L_1_1」が順に並べられ、比較値「C_1_1_1」乃至「C_L_1_1」の中で最大の比較値を有する学習画像の画像番号が選択され、動きクラス「1」および空間クラス「1」の選択画像番号「X_1_1」として学習画像テーブル223に記録される。 That is, the comparison values “C_1_1_1” to “C_L_1_1” of the image numbers “1” to “L” in the combination of the motion class “1” and the space class “1” are sequentially arranged, and the comparison values “C_1_1_1” to “C_L_1_1” are arranged. Among them, the image number of the learning image having the largest comparison value is selected and recorded in the learning image table 223 as the selected image number “X_1_1” of the motion class “1” and the space class “1”.
動きクラス「1」および空間クラス「2」の組み合わせにおける各画像番号「1」乃至「L」の比較値「C_1_1_2」乃至「C_L_1_2」が順に並べられ、比較値「C_1_1_2」乃至「C_L_1_2」の中で最大の比較値を有する学習画像の画像番号が選択され、動きクラス「1」および空間クラス「2」の選択画像番号「X_1_2」として学習画像テーブル223に記録される。 The comparison values “C_1_1_2” to “C_L_1_2” of the image numbers “1” to “L” in the combination of the motion class “1” and the space class “2” are sequentially arranged, and the comparison values “C_1_1_2” to “C_L_1_2” The image number of the learning image having the maximum comparison value is selected and is recorded in the learning image table 223 as the selected image number “X_1_2” of the motion class “1” and the space class “2”.
なお、図示はされないが、以下、空間クラス「3」乃至「N−1」以降についても同様に、動きクラス「1」および各空間クラス「3」乃至「N−1」の比較値が順に並べられ、それらの比較値の中で最大の比較値を有する学習画像の画像番号が選択され、動きクラス「1」および空間クラス「3」乃至「N−1」の選択画像番号として、それぞれ、学習画像テーブル223に記録される。 Although not shown, the comparison values of the motion class “1” and the spatial classes “3” to “N−1” are arranged in order in the same manner for the space classes “3” to “N−1” and thereafter. The image number of the learning image having the largest comparison value among the comparison values is selected, and learning is selected as the selection image number of the motion class “1” and the space classes “3” to “N−1”, respectively. It is recorded in the image table 223.
同様に、動きクラス「1」および空間クラス「N」の組み合わせにおける各画像番号「1」乃至「L」の比較値「C_1_1_N」乃至「C_L_1_N」が順に並べられ、比較値「C_1_1_N」乃至「C_L_1_N」の中で最大の比較値を有する学習画像の画像番号が選択され、動きクラス「1」および空間クラス「N」の選択画像番号「X_1_N」として学習画像テーブル223に記録される。 Similarly, the comparison values “C_1_1_N” to “C_L_1_N” of the image numbers “1” to “L” in the combination of the motion class “1” and the space class “N” are sequentially arranged, and the comparison values “C_1_1_N” to “C_L_1_N” are sequentially arranged. The learning image having the largest comparison value is selected and recorded in the learning image table 223 as the selected image number “X_1_N” of the motion class “1” and the space class “N”.
以降、その図示は殆ど省略されるが、動きクラス「2」乃至「M」についても、空間クラス「1」乃至「N」との組み合わせにおける各画像番号「1」乃至「L」の比較値「C_1_2_1」乃至「C_L_M_N」が順に並べられ、それらの比較値の中で最大の比較値を有する学習画像の画像番号が選択され、動きクラス「2」乃至「M」および空間クラス「3」乃至「N−1」の選択画像番号「X_2_1」乃至「X_M_N」として、それぞれ、学習画像テーブル223に記録される。 Thereafter, although illustration thereof is almost omitted, for the motion classes “2” to “M”, the comparison values “1” to “L” in the combinations with the space classes “1” to “N” “ C_1_2_1 ”to“ C_L_M_N ”are arranged in order, and the image number of the learning image having the largest comparison value among these comparison values is selected, and the motion classes“ 2 ”to“ M ”and the space classes“ 3 ”to“ 3 ”are selected. The selected image numbers “X_2_1” to “X_M_N” of “N−1” are recorded in the learning image table 223, respectively.
図17に戻り、係数種データ生成部206は、画像セット記憶部231、SD信号生成部232、予測係数学習部233、および係数種メモリ234により構成され、学習画像テーブル223からの動きクラスおよび空間クラス毎の選択画像番号に基づく学習画像のHD信号を用いて、予測係数としての係数種データを生成し、係数種メモリ234に記録する処理を行う。
Returning to FIG. 17, the coefficient seed
画像セット記憶部231には、入力端子202から、数十種類の学習画像のHD信号が入力され、記憶されている。画像セット記憶部231は、学習画像テーブル223から選択画像番号を受け、選択画像番号に対応する学習画像のHD信号を選択し、出力する。
The image set
SD信号生成部232は、画像セット記憶部231により選択された学習画像(以下、選択学習画像とも称する)のHD信号(1050i信号)に対して、入力端子203から入力されるパラメータr、およびzの値を用いて、水平および垂直の間引き処理を行って、生徒信号としてのSD信号(525i信号)を得る。なお、SD信号生成部232の構成は、上述したSD信号生成部211の構成と基本的に同様である。
The SD
予測係数学習部233には、画像セット記憶部231に入力された選択画像番号に対応する、学習画像テーブル223からの動きクラスおよび空間クラスの情報、画像セット記憶部231からの選択学習画像のHD信号と、SD信号生成部232からの選択学習画像のSD信号などが入力される。
The prediction
予測係数学習部233は、学習画像テーブル223からの動きクラスおよび空間クラスの組み合わせ毎に、その組み合わせが対応する選択学習画像のHD信号とSD信号を用いて予測係数を学習し、学習により得られた係数種データを、動きクラスおよび空間クラスの組み合わせ毎に係数種メモリ234に記録する。
For each combination of motion class and space class from the learning image table 223, the prediction
図23は、予測係数学習部233の詳細な構成例を示している。
FIG. 23 shows a detailed configuration example of the prediction
予測係数学習部233の第1のタップ選択部271、第2のタップ選択部272、および第3のタップ選択部273は、SD信号生成部232より出力されるSD信号(525i信号)より、HD信号(1050i信号)における注目位置の周辺に位置する複数のSD画素のデータを選択的に取り出して出力する。これら第1のタップ選択部271乃至第3のタップ選択部273は、図7を参照して説明した画像信号処理部35の第1のタップ選択部51乃至第3のタップ選択部53と基本的に同様に構成される。
The first
空間クラス検出部274は、第2のタップ選択部272で選択的に取り出された空間クラスタップのデータ(SD画素データ)のレベル分布パターンを検出し、このレベル分布パターンに基づいて空間クラスを検出し、そのクラス情報を出力する。この空間クラス検出部273は、図7を用いて説明した画像信号処理部35の空間クラス検出部54と基本的に同様に構成される。この空間クラス検出部274からは、空間クラスタップのデータとしての各SD画素データの再量子化コードqiが、空間クラスを示すクラス情報として出力される。
The space
動きクラス検出部275は、第3のタップ選択部273で選択的に取り出された動きクラスタップのデータ(SD画素データ)より、主に動きの程度を表すための動きクラスを検出し、そのクラス情報MVを出力する。この動きクラス検出部275は、図7を用いて説明した画像信号処理部35の動きクラス検出部55と基本的に同様に構成される。この動きクラス検出部275では、第3のタップ選択部273で選択的に取り出された動きクラスタップのデータ(SD画素データ)からフレーム間差分が算出され、更に、その差分の絶対値の平均値に対して閾値処理が行われて、動きの指標である動きクラスが検出される。
The motion
第1のクラス合成部276は、空間クラス検出部274より出力される空間クラスのクラス情報としての再量子化コードqiと、動きクラス検出部275より出力される動きクラスのクラス情報MVとに基づき、HD信号(1050i信号)に係る注目画素が属するクラスを示す第1のクラスコードCL1を得る。この第1のクラス合成部276も、図7を用いて説明した画像信号処理部35のクラス合成部56と基本的に同様に構成される。
The first
第2のクラス合成部277は、学習画像テーブル223から入力される動きクラスの情報MVおよび空間クラスの情報qiから第2のクラスコードCL2を得る。
The second
正規方程式生成部278は、第1のクラス合成部276より出力される第1のクラスコードCL1および第2のクラス合成部277より出力される第2のクラスコードCL2に応じて、画像セット記憶部231からのHD信号から得られる注目位置の画素データとしての各HD画素データy、この各HD画素データyにそれぞれ対応して第1のタップ選択部271で選択的に取り出された予測タップのデータ(SD画素データ)xi、並びに、パラメータrおよびzの値から、クラス毎に、係数種データw10乃至wn9を得るための正規方程式(式(13)参照)を生成する。
The normal
なお、正規方程式生成部278においては、クラス毎に1つの学習画像を選択して予測係数を生成するために、SD信号のクラス検出結果である第1のクラス合成部276の出力と、学習画像テーブル223における選択結果である第2のクラス合成部277の出力の2つ、すなわち、第1のクラスコードCL1と、第2のクラスコードCL2が一致する場合のみ、正規方程式が生成される。
Note that in the normal
この場合、1個のHD画素データyと、それに対応するn個の予測タップのデータ(SD画素データ)xiとの組み合わせで、学習データが生成されるが、調整後のパラメータr、およびzの値の変化に対応して、SD信号生成部232における空間方向の帯域とノイズ量が可変され、複数のSD信号が順次生成されて、HD信号と各SD信号との間でそれぞれ学習データの生成が行われる。これにより、正規方程式生成部278では、パラメータr、およびzの値が異なる多くの学習データが登録された正規方程式が生成され、係数種データw10乃至wn9を求めることが可能となる。
In this case, learning data is generated by a combination of one HD pixel data y and n prediction tap data (SD pixel data) xi corresponding thereto, but the adjusted parameters r and z are adjusted. Corresponding to the change in the value, the spatial band and noise amount in the SD
また、この場合、1個のHD画素データyとそれに対応するn個の予測タップのデータ(SD画素データ)xiとの組み合わせで学習データが生成されるが、正規方程式生成部278では、出力画素(図8のHD1乃至HD4、図9のHD1′乃至HD4′参照)毎に、正規方程式が生成される。例えば、HD1に対応した正規方程式は、中心予測タップに対するずれ値がHD1と同じ関係にあるHD画素データyから構成される学習データから生成される。
Further, in this case, learning data is generated by a combination of one HD pixel data y and n prediction tap data (SD pixel data) xi corresponding thereto, but the normal
係数種データ決定部279は、正規方程式生成部278で、クラスおよび出力画素の組み合わせ毎に生成された正規方程式のデータの供給を受け、正規方程式を解いて、クラスおよび出力画素の組み合わせ毎に、係数種データw10乃至wn9を求める。係数種データ決定部279は、正規方程式を、例えば、掃き出し法などによって解くことにより、係数種データを求める。
The coefficient seed
係数種メモリ234は、係数種データ決定部279で求められた係数種データを格納する。なお、この係数種データは、基板12、他の基板、あるいは、図示せぬネットワークを介して、テレビジョン受信装置10に提供される。
The
次に、図17の予測係数生成装置20の、図18に示される学習画像頻度分布生成部204の動作について説明する。
Next, the operation of the learning image frequency
入力端子101には、数十種類の学習画像の、教師信号としてのHD信号(1050i信号)が順に供給され、そしてこのHD信号に対して、SD信号生成部211で、水平および垂直の間引き処理が行われて、数十種類の学習画像の、生徒信号としてのSD信号(525i信号)が生成される。
The input terminal 101 is sequentially supplied with HD signals (1050i signals) as teaching signals of several tens of types of learning images, and the SD
この場合、SD信号生成部211には、HD信号からSD信号を生成する際に用いられる帯域制限フィルタの空間方向帯域を定めるパラメータrおよびノイズ付加状態を定めるパラメータz、換言すれば、生成されるSD信号の空間方向の解像度を定めるパラメータrおよびノイズ量を定めるパラメータzの値が入力される。
In this case, the
そして、SD信号生成部211では、パラメータrの値に応じて、HD信号からSD信号を生成する際に用いられる帯域制限フィルタの空間方向が可変され、入力されたパラメータrの値そのものに応じて、ノイズ付加状態が段階的に可変される。
Then, in the SD
SD信号生成部211に入力されるパラメータr、およびzの値が順次変更されることで、HD信号からSD信号を生成する際に用いられる帯域制限フィルタの空間方向の帯域およびノイズ付加状態が変更されることから、空間方向の帯域およびノイズ付加状態が段階的に変化した複数のSD信号が生成される。
The parameters r and z input to the
特徴量頻度分布生成部212の動きクラスタップ選択部251は、SD信号生成部211からSD信号の供給を受け、SD信号(525i信号)より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する動きクラスタップ(複数のSD画素)のデータを選択的に取り出す。動きクラスタップ選択部251で選択的に取り出された動きクラスタップのデータは、動きクラス検出部254に供給される。
The motion class
動きクラス検出部254は、動きクラスタップのデータとしての各SD画素データより、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素に囲まれるSD画素の動きクラス(主に動きの程度を表すためのクラス分類)を検出し、検出したSD画素の動きクラスのクラス情報(MV)を、特徴量頻度分布演算部257に出力する。
The motion
また、空間クラスタップ選択部252は、SD信号生成部211からSD信号(525i信号)の供給を受け、SD信号より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する空間クラスタップ(複数のSD画素)のデータを選択的に取り出す。空間クラスタップ選択部252で選択的に取り出された空間クラスタップのデータは、空間クラス検出部255に供給される。
The space class
空間クラス検出部255は、空間クラスタップのデータとしての各SD画素データに対して、ADRC処理を施して、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素に囲まれるSD画素の空間クラス(主に空間内の波形表現のためのクラス分類)のクラス情報としての再量子化コード(qi)を得て、特徴量頻度分布演算部257に出力する。
The space
さらに、特徴量生成タップ選択部253は、SD信号生成部211からSD信号(525i信号)の供給を受け、SD信号より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する特徴量生成タップ(複数のSD画素)のデータを選択的に取り出す。特徴量生成タップ選択部253で選択的に取り出された特徴量生成タップのデータは、特徴量生成部256に供給される。
Further, the feature quantity generation
特徴量生成部256は、特徴量生成タップ選択部253で選択的に取り出された特徴量生成タップのデータとしてのSD画素データより、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素に囲まれるSD画素の特徴量である、例えば、最大値および最小値などを生成し、生成したSD画素の特徴量の値を特徴量頻度分布演算部257に出力する。
The feature
同じSD画素について求められた動きクラス、空間クラス、および特徴量の各情報は、特徴量頻度分布演算部257に供給される。特徴量頻度分布演算部257は、特徴量頻度分布演算部257からの動きクラスおよび空間クラスの組み合わせ毎に、特徴量の頻度をカウントし、特徴量頻度分布(ヒストグラム)を生成する。そして、特徴量頻度分布演算部257は、生成した特徴量頻度分布のデータを、入力端子201からの画像番号に対応付けて、動きクラスおよび空間クラスの組み合わせ毎に学習画像頻度分布メモリ213に記録する。
Each information of the motion class, the space class, and the feature amount obtained for the same SD pixel is supplied to the feature amount frequency
このようにして、数十種類の学習画像の特徴量頻度分布のデータが予め学習画像頻度分布メモリ213に記録される。
In this way, the data of the feature amount frequency distribution of several tens of types of learning images is recorded in the learning image
次に、図17の予測係数生成装置20の学習画像選択部205の動作について説明する。
Next, the operation of the learning
例えば、テレビジョン受信装置10から取り外された基板12が予測係数生成装置20に接続されると、学習画像選択部205の頻度分布比較部221は、基板12の履歴情報メモリ13に記憶されているユーザ視聴画像の特徴量頻度分布のデータを、動きクラスおよび空間クラスの組み合わせ毎に読み出して、平均化し、動きクラスおよび空間クラスの組み合わせ毎の1つの特徴量頻度分布とした上で、学習画像特徴量頻度分布メモリ213に記憶されているすべての学習画像の特徴量頻度分布に対して、動きクラスおよび空間クラスの組み合わせ毎に比較を行っていく。
For example, when the
すなわち、頻度分布比較部221は、履歴情報メモリ13から、動きクラスおよび空間クラスの組み合わせ毎に、ユーザ視聴画像の特徴量頻度分布のデータを読み出し、動きクラスおよび空間クラスの組み合わせ毎に平均化する。
That is, the frequency
そして、頻度分布比較部221は、動きクラスおよび空間クラスの組み合わせ毎に、すべての学習画像の特徴量頻度分布のデータとその画像番号を順に読み出し、読み出した学習画像の特徴量頻度分布と平均化したユーザ視聴画像の特徴量頻度分布との相関係数値Cを求めることで比較する(式(14)参照)。
Then, the frequency
求められた比較値としての相関係数値Cは、対応する動きクラスおよび空間クラスの情報と画像番号とともに、学習画像選択部222に出力される。
The obtained correlation coefficient value C as a comparison value is output to the learning
学習画像選択部222は、動きクラスおよび空間クラスの組み合わせ毎に、すべての学習画像の比較値である相関係数値Cを評価し、最大の相関係数値Cを有する学習画像の特徴量頻度分布が、ユーザ視聴画像の特徴量頻度分布と最も似ているとして、その学習画像を選択し、動きクラスおよび空間クラスの組み合わせ毎に、選択した選択画像番号を学習画像テーブル223に記録していく。
The learning
このようにして、学習画像テーブル223には、すべての動きクラスおよび空間クラスの組み合わせ毎の、ユーザ視聴画像に特徴量頻度分布が最も似ているとされた学習画像の画像番号が、選択画像番号として記憶される。 In this way, in the learning image table 223, the image number of the learning image for which the feature amount frequency distribution is most similar to the user viewing image for each combination of the motion class and the space class is selected image number. Is remembered as
この選択画像番号は、係数種データ生成部206がテレビジョン受信装置10の係数種データを生成する際に、画像セット記憶部231に入力される。このとき、この選択画像番号に対応する動きクラスの情報および空間クラスの情報も予測係数学習部233に入力される。
The selected image number is input to the image set
次に、図17の予測係数生成装置20の、図23に示される係数種データ生成部206の動作について説明する。
Next, the operation of the coefficient seed
画像セット記憶部231には、入力端子202から、学習画像頻度分布生成部204に入力されたものと同じ、数十種類の学習画像のHD信号が入力され、記憶されている。学習画像テーブル223から、係数種データを生成する動きクラスの情報および空間クラスの情報が、第2のクラス合成部277に順に出力される。このとき、同時に、第2のクラス合成部277に出力される動きクラスおよび空間クラスの選択画像番号が、画像セット記憶部231に出力される。
The image set
画像セット記憶部231は、学習画像テーブル223から選択画像番号を受け、選択画像番号に対応する学習画像のHD信号を選択する。画像セット記憶部231により選択された学習画像のHD信号は、SD信号生成部232および正規方程式生成部278に入力される。
The image set
このHD信号に対して、SD信号生成部232で、水平および垂直の間引き処理が行われて、選択画像番号に対応する学習画像の生徒信号としてのSD信号(525i信号)が生成される。
The HD signal is subjected to horizontal and vertical thinning processing by the SD
この場合、SD信号生成部232には、HD信号からSD信号を生成する際に用いられる帯域制限フィルタの空間方向帯域を定めるパラメータrおよびノイズ付加状態を定めるパラメータz、換言すれば、生成されるSD信号の空間方向の解像度を定めるパラメータrおよびノイズ量を定めるパラメータzの値が入力される。
In this case, the SD
そして、SD信号生成部232では、パラメータrの値に応じて、HD信号からSD信号を生成する際に用いられる帯域制限フィルタの空間方向が可変され、入力されたパラメータrの値そのものに応じて、ノイズ付加状態が段階的に可変される。
Then, in the SD
SD信号生成部232に入力されるパラメータr、およびzの値が順次変更されることで、HD信号からSD信号を生成する際に用いられる帯域制限フィルタの空間方向の帯域およびノイズ付加状態が変更されることから、空間方向の帯域およびノイズ付加状態が段階的に変化した複数のSD信号が生成される。
The parameters r and z that are input to the
また、SD信号生成部232で生成されたSD信号(525i信号)より、第2のタップ選択部272で、HD信号(1050i信号)における注目位置の周辺に位置する空間クラスタップのデータ(SD画素データ)が選択的に取り出される。この第2のタップ選択部272で選択的に取り出された空間クラスタップのデータ(SD画素データ)は、空間クラス検出部274に供給される。空間クラス検出部274では、空間クラスタップのデータとしての各SD画素データに対してADRC処理が施されて、空間クラス(主に空間内の波形表現のためのクラス分類)のクラス情報としての再量子化コードqiが得られる(式(1)参照)。
Further, from the SD signal (525i signal) generated by the SD
また、SD信号生成部232で生成されたSD信号より、第3のタップ選択部273で、HD信号に係る注目画素の周辺に位置する動きクラスタップのデータ(SD画素データ)が選択的に取り出される。この第3のタップ選択部273で選択的に取り出された動きクラスタップのデータ(SD画素データ)は、動きクラス検出部275に供給される。この動きクラス検出部275では、動きクラスタップのデータとしての各SD画素データより動きクラス(主に動きの程度を表すためのクラス分類)のクラス情報MVが得られる。
Further, from the SD signal generated by the SD
クラス情報MVと再量子化コードqiとは、第1のクラス合成部276に供給される。第1のクラス合成部276は、供給されたクラス情報MVと再量子化コードqiとから、HD信号(1050i信号)における注目位置の画素データが属するクラスを示す第1のクラスコードCL1を得る(式(3)参照)。
The class information MV and the requantization code qi are supplied to the first
また、第2のクラス合成部277は、画像セット記憶部231に入力された選択画像番号に対応して、学習画像テーブル223から入力される動きクラスの情報MVおよび空間クラスの情報qiから第2のクラスコードCL2を得る。
In addition, the second
一方、SD信号生成部232で生成されるSD信号より、第1のタップ選択部271で、HD信号における注目位置の周辺に位置する予測タップのデータ(SD画素データ)が選択的に取り出される。
On the other hand, from the SD signal generated by the SD
そして、正規方程式生成部278では、SD信号のクラス検出結果であり、第1のクラス合成部276の出力である第1のクラスコードCL1と、学習画像テーブル223における選択結果であり、第2のクラス合成部277の出力である第2のクラスコードCL2が一致した場合のみ、正規方程式が生成される。
Then, in the normal
すなわち、正規方程式生成部278においては、画像セット記憶部231からのHD信号より得られる注目位置の画素データとしての各HD画素データyと、この各HD画素データyにそれぞれ対応して第1のタップ選択部271で選択的に取り出された予測タップのデータ(SD画素データ)xiと、パラメータr、およびzの値と、各HD画素データyにそれぞれ対応して第1のクラス合成部276(第2のクラス合成部277)より出力されるクラスコードとから、クラスおよび出力画素の組み合わせ毎に、係数種データw10乃至wn9を得るための正規方程式(式(13)参照)が個別に生成される。
That is, in the normal
そして、係数種データ決定部279で各正規方程式が解かれ、クラスおよび出力画素の組み合わせ毎の係数種データw10乃至wn9が求められ、それらの係数種データw10乃至wn9は、係数種メモリ234に格納される。なお、この係数種データは、基板12、他の基板、あるいは、図示せぬネットワークを介して、テレビジョン受信装置10に提供される。
The coefficient seed
以上のように、図23に示される係数種データ生成部206においては、図7の画像信号処理部35の情報メモリバンク61に格納される、クラスおよび出力画素(HD1乃至HD4,HD1′乃至HD4′)の組み合わせ毎の、推定式で用いられる係数データWiを求めるための生成式(式(5)参照)における係数データである係数種データw10乃至wn9を生成することができる。
As described above, in the coefficient seed
また、この係数種データ生成部206において、例えば、テレビジョン受信装置10をバージョンアップする場合であって、その情報メモリバンク61に格納される係数種データw10乃至wn9を生成する際には、テレビジョン受信装置10から取り外された基板12の履歴情報メモリ13に記憶されている、テレビジョン受信装置10においてユーザにより過去に視聴されたユーザ視聴画像の特徴量頻度分布と似ている特徴量頻度分布を有する学習画像が選択され、選択された学習画像のみが用いられる。
Further, in the coefficient seed
したがって、従来のように複数種類の学習画像から係数種データを求める場合よりも、選択された学習画像のみを用いて係数種データを求めることができるので、係数種データを効率的に生成することができる。 Therefore, since the coefficient seed data can be obtained using only the selected learning image, compared to the case where the coefficient seed data is obtained from a plurality of kinds of learning images as in the prior art, the coefficient seed data can be generated efficiently. Can do.
また、係数種データは、選択された学習画像のみから求められたものであるので、この係数種データw10乃至wn9を、テレビジョン受信装置10に供給し、情報メモリバンク61に格納して使用することで、テレビジョン受信装置10において、ユーザがよく視聴する画像については、変換した場合の予測誤差が小さくすることができ、テレビジョン受信装置10は、設置されているユーザ宅における最高の性能を発揮することができるようになる。これにより、ユーザは、自分がよく視聴する画像を、最適な品質で視聴することが可能になる。
Further, since the coefficient seed data is obtained only from the selected learning image, the coefficient seed data w10 to wn9 are supplied to the
次に、図24のフローチャートを参照して、画像信号処理部35による、SD信号よりHD信号を得るための画像信号処理について説明する。
Next, image signal processing for obtaining an HD signal from an SD signal by the image
ステップS11において、画像信号処理部35は、SD画素データをフレーム単位またはフィールド単位で取得する。
In step S11, the image
ステップS12において、画像信号処理部35は、入力SD画素データの全フレームまたは全フィールドの処理が終わっているか否かを判定する。ステップS12において、処理が終わっていないと判定された場合、ステップS13において、画像信号処理部35は、リモートコントローラ41からのユーザの操作信号がシステムコントローラ32に入力されたか否かを判定する。
In step S12, the image
リモートコントローラ41からのユーザの操作信号がシステムコントローラ32に入力されると、システムコントローラ32は、その通知を画像信号処理部35の情報生成制御部65に供給してくるので、ステップS13において、システムコントローラ32にユーザの操作信号が入力されたと判定され、ステップS14において、画像信号処理部35の特徴量頻度分布生成部66は、履歴情報の更新処理を実行する。この履歴情報の更新処理の詳細な説明は、図25を参照して後述する。
When a user operation signal from the
ステップS14の履歴情報の更新処理により、ステップS11において取得されたSD画素データより、画像の特徴量情報である特徴量頻度分布が、動きクラスおよび空間クラスの組み合わせ毎に求められ、そのデータが履歴情報メモリ13に記録される。ステップS13において、システムコントローラ32にユーザの操作信号が入力されていないと判定された場合、ステップS14はスキップされ、処理は、ステップS15に進む。
As a result of the history information update process in step S14, a feature amount frequency distribution, which is image feature amount information, is obtained for each combination of motion class and space class from the SD pixel data acquired in step S11. It is recorded in the
ステップS15において、画像信号処理部35は、例えば、ユーザのリモートコントローラ41の操作によって入力された画質指定値(例えばパラメータr、およびz)を取得する。
In step S <b> 15, the image
ステップS16において、画像信号処理部35の係数生成部62は、読み込んだ画質指定値、クラスおよび出力画素(図8のHD1乃至HD4、図9のHD1′乃至HD4′参照)の各組み合わせの係数種データを使用して、例えば式(5)の生成式によって、各組み合わせの推定式(式(4)参照)の係数データWiを生成する。
In step S16, the coefficient generation unit 62 of the image
なお、この係数種データは、ステップS14において、ステップS11において取得されたSD画素データより、動きクラスおよび空間クラスの組み合わせ毎に求められ、履歴情報メモリ13に記録された画像の特徴量頻度分布のデータが用いられて、予測係数生成装置20において生成されたものである。
The coefficient seed data is obtained for each combination of motion class and space class from the SD pixel data acquired in step S11 in step S14, and the feature amount frequency distribution of the image recorded in the
画像信号処理部35は、ステップS17において、ステップS11において取得されたSD画素データより、生成すべき各HD画素データに対応して、クラスタップおよび予測タップの画素データを取得する。
In step S17, the image
ステップS18において、画像信号処理部35は、取得されたSD画素データの全領域において、HD画素データを得る処理が終了したか否かを判定する。ステップS18において、取得されたSD画素データの全領域において処理は終了していると判定された場合、処理は、ステップS11に戻り、同様の処理が繰り返されることにより、次のフレームまたはフィールドのSD画素データに対する処理が実行される。
In step S <b> 18, the image
ステップS18において、取得されたSD画素データの全領域において処理は終了していないと判定された場合、ステップS19において、画像信号処理部35のクラス合成部56は、ステップS17において取得されたクラスタップのSD画素データから、クラスコードCLを生成する。
If it is determined in step S18 that the processing has not been completed in the entire area of the acquired SD pixel data, in step S19, the
ステップS20において、画像信号処理部35は、クラスコードCLに対応した係数データWiと予測タップのSD画素データとを使用して、推定式により、HD画素データを生成する。ステップS20の処理の終了後、処理は、ステップS17に戻り、上述した処理と同様の処理が繰り返される。
In step S20, the image
ステップS12において、全フレーム、または全フィールドの処理が終了したと判定された場合、処理が終了される。 If it is determined in step S12 that the processing for all frames or all fields has been completed, the processing ends.
以上のようにして、画像信号処理部35において、ユーザ視聴画像の特徴量頻度分布を予め記憶しておき、その画像の特徴量頻度分布のデータが用いられて生成された係数種データを用いて画像処理を行うことにより、テレビジョン受信装置10は、ユーザがよく視聴するコンテンツ(画像)について、HD画像データを、予測精度を向上させて生成することができる。
As described above, the image
したがって、テレビジョン受信装置10は、設置されているユーザ宅における最高の性能を発揮することができるようになる。
Therefore, the
次に、図25のフローチャートを参照して、特徴量頻度分布生成部66による図24のステップS14の履歴情報の更新処理を詳しく説明する。
Next, the history information update processing in step S14 in FIG. 24 by the feature amount frequency
ステップS41において、特徴量頻度分布生成部66の動きクラス検出部74は、図24のステップS11において取得され、動きクラスタップ選択部71により選択的に取り出された動きクラスタップのデータとしての各SD画素データより、作成すべきHD信号を構成する単位画素ブロック内の4画素に囲まれるSD画素の動きクラスを検出し、検出したSD画素の動きクラスのクラス情報(MV)を、特徴量頻度分布演算部77に出力する。
In step S41, the motion
ステップS42において、空間クラス検出部75は、図24のステップS11において取得され、空間クラスタップ選択部72により選択的に取り出された空間クラスタップのデータとしての各SD画素データより、作成すべきHD信号を構成する単位画素ブロック内の4画素に囲まれるSD画素の空間クラスのクラス情報としての再量子化コード(qi)を得て、特徴量頻度分布演算部77に出力する。
In step S42, the space
ステップS43において、特徴量生成タップ選択部73は、図24のステップS11において取得され、特徴量生成タップ選択部73により選択的に取り出された特徴量生成タップのデータとしてのSD画素データより、作成すべきHD信号を構成する単位画素ブロック内の4画素に囲まれるSD画素の特徴量を生成し、生成したSD画素の特徴量の値を特徴量頻度分布演算部77に出力する。
In step S43, the feature quantity generation
ステップS44において、特徴量頻度分布演算部77は、供給された動きクラスおよび空間クラスの組み合わせ毎に、特徴量の頻度をカウントし、特徴量頻度分布(ヒストグラム)を生成する。
In step S44, the feature quantity frequency
ステップS45において、特徴量頻度分布演算部77は、ステップS44において生成された特徴量頻度分布のデータを、履歴情報メモリ13に記憶されている操作信号の操作履歴情報に対応付けて、動きクラスおよび空間クラスの組み合わせ毎に記録する。
In step S45, the feature quantity frequency
以上のようにして履歴情報メモリ13に記録された動きクラスおよび空間クラスの組み合わせ毎のユーザ視聴画像の特徴量頻度分布のデータは、予測係数生成装置20において、テレビジョン受信装置10の係数種データを更新する際に用いられる。
The feature amount frequency distribution data of the user viewing image for each combination of the motion class and the space class recorded in the
次に、図26のフローチャートを参照して、予測係数生成装置20の予測係数生成処理を説明する。
Next, the prediction coefficient generation processing of the prediction
テレビジョン受信装置10の係数種データを更新するため、履歴情報メモリ13が構成されている基板12が、テレビジョン受信装置10から取り外されて、予測係数生成装置20に接続される。
In order to update the coefficient seed data of the
予測係数生成装置20は、ステップS61において、入力端子202を介して、数十種類の学習画像の、教師信号としてのHD信号(1050i信号)を入力し、入力端子201を介して、入力端子202から入力される教師信号が対応する学習画像の画像番号を入力する。なお、このとき、入力端子203からは、パラメータr、およびzの値が入力される。
In step S <b> 61, the prediction
ステップS62において、予測係数生成装置20は、係数種データ生成部206の画像セット記憶部231に、入力端子202からの数十種類の学習画像の、教師信号としてのHD信号を受け、記憶させる。
In step S <b> 62, the prediction
ステップS63において、予測係数生成装置20の学習画像頻度分布生成部204は、入力端子201および202からそれぞれ入力されるHD信号とその画像番号を受け、学習画像の特徴量頻度分布生成処理を実行する。この学習画像の特徴量頻度分布生成処理は、図27を参照して詳しく後述する。
In step S <b> 63, the learning image frequency
ステップS63の学習画像の特徴量頻度分布生成処理により、動きクラスおよび空間クラスの組み合わせ毎に学習画像の特徴量頻度分布が生成され、そのデータが、学習画像の画像番号に対応付けて、学習画像頻度分布メモリ213に記録される。
In the learning image feature amount frequency distribution generation processing in step S63, a feature amount frequency distribution of the learning image is generated for each combination of the motion class and the space class, and the data is associated with the image number of the learning image, and the learning image It is recorded in the
ステップS64において、予測係数生成装置20は、すべての学習画像が入力されたか否かを判定し、すべての学習画像が入力されていないと判定した場合、処理は、ステップS61に戻り、それ以降の処理が繰り返される。
In step S64, the prediction
ステップS64において、すべての学習画像が入力されたと判定された場合、ステップS65において、予測係数生成装置20は、1つの動きクラスおよび空間クラスの組み合わせを選択する。
If it is determined in step S64 that all learning images have been input, in step S65, the prediction
ステップS66において、予測係数生成装置20の学習画像選択部205は、ステップS65において選択された動きクラスおよび空間クラスの組み合わせについて、学習画像の選択処理を実行する。この学習画像の選択処理は、図28を参照して詳しく後述する。
In step S66, the learning
ステップS66の学習画像の選択処理により、1つの動きクラスおよび空間クラスの組み合わせについて、基板12の履歴情報メモリ13に記憶されているユーザ視聴画像の特徴量頻度分布と、学習画像頻度分布メモリ213に記録されているすべての学習画像の特徴量頻度分布が比較され、学習画像の中から、ユーザ視聴画像に似ているものが選択される。そして、選択された学習画像の画像番号が、選択画像番号として、動きクラスおよび空間クラスの組み合わせとともに学習画像テーブル223に記録される。
With the learning image selection processing in step S66, the feature amount frequency distribution of the user viewing image stored in the
ステップS67において、係数種データ生成部206は、ステップS66において学習画像テーブル223に記録された選択画像番号の学習画像を用いて、対応する動きクラスおよび空間クラスの組み合わせの係数種データ生成処理を実行する。この係数種データ生成処理は、図29を参照して詳しく後述する。
In step S67, the coefficient seed
ステップS67の係数種データ生成処理により、1つの動きクラスおよび空間クラスの組み合わせの係数種データが、ステップS66においてユーザ視聴画像と似ているとされた学習画像のみを用いて生成され、生成された係数種データが記録される。 By the coefficient seed data generation processing in step S67, coefficient seed data of a combination of one motion class and a space class is generated and generated using only the learning image that is similar to the user viewing image in step S66. Coefficient seed data is recorded.
ステップS68において、予測係数生成装置20は、すべての動きクラスおよび空間クラスの組み合わせの係数種データを求めたか否かを判定し、すべての動きクラスおよび空間クラスの組み合わせの係数種データをまだ求めていないと判定した場合、処理は、ステップS65に戻り、それ以降の処理が繰り返される。
In step S68, the prediction
ステップS68において、すべての動きクラスおよび空間クラスの組み合わせの係数種データを求めたと判定された場合、処理は終了される。 If it is determined in step S68 that coefficient seed data for all combinations of motion classes and space classes has been obtained, the process ends.
次に、図27のフローチャートを参照して、図26のステップS63の学習画像の特徴量頻度分布生成処理について詳しく説明する。なお、図27のステップS82乃至S85の処理は、図25のステップS41乃至S44の処理と基本的に同様の処理を行う。 Next, the learning image feature amount frequency distribution generation processing in step S63 in FIG. 26 will be described in detail with reference to the flowchart in FIG. Note that the processing in steps S82 to S85 in FIG. 27 is basically the same as the processing in steps S41 to S44 in FIG.
ステップS81において、SD信号生成部211は、入力端子202からの学習画像のHD信号に対して、入力端子203から入力されるパラメータr、およびzの値を用いて、水平および垂直の間引き処理を行って、学習画像の生徒信号としてのSD信号を得る。
In step S <b> 81, the SD
ステップS82において、特徴量頻度分布生成部212の動きクラス検出部254は、ステップS81において得られ、動きクラスタップ選択部251により選択的に取り出された動きクラスタップのデータとしての各SD画素データより、作成すべきHD信号を構成する単位画素ブロック内の4画素に囲まれるSD画素の動きクラスを検出し、検出したSD画素の動きクラスのクラス情報(MV)を、特徴量頻度分布演算部257に出力する。
In step S82, the motion
ステップS83において、空間クラス検出部255は、ステップS81において取得され、空間クラスタップ選択部252により選択的に取り出された空間クラスタップのデータとしての各SD画素データより、作成すべきHD信号を構成する単位画素ブロック内の4画素に囲まれるSD画素の空間クラスのクラス情報としての再量子化コード(qi)を得て、特徴量頻度分布演算部257に出力する。
In step S83, the space
ステップS84において、特徴量生成タップ選択部253は、ステップS81において取得され、特徴量生成タップ選択部253により選択的に取り出された特徴量生成タップのデータとしてのSD画素データより、作成すべきHD信号を構成する単位画素ブロック内の4画素に囲まれるSD画素の特徴量を生成し、生成したSD画素の特徴量の値を特徴量頻度分布演算部257に出力する。
In step S84, the feature amount generation
ステップS85において、特徴量頻度分布演算部257は、供給された動きクラスおよび空間クラスの組み合わせ毎に、特徴量の頻度をカウントし、特徴量頻度分布(ヒストグラム)を生成する。
In step S85, the feature amount frequency
ステップS86において、特徴量頻度分布演算部257は、ステップS85において生成された特徴量頻度分布のデータを、図26のステップS61で入力端子201より受けた画像番号に対応付けて、動きクラスおよび空間クラスの組み合わせ毎に学習画像頻度分布メモリ213に記録する。これにより、特徴量頻度分布生成処理は終了され、処理は、図26のステップS63に戻る。
In step S86, the feature quantity frequency
次に、図28のフローチャートを参照して、図26のステップS66の学習画像選択処理について説明する。 Next, the learning image selection processing in step S66 in FIG. 26 will be described with reference to the flowchart in FIG.
ステップS101において、頻度分布比較部221は、図26のステップS65で選択された動きクラスおよび空間クラスの組み合わせについて、すべての画像の特徴量頻度分布のデータを、履歴情報メモリ12および学習画像頻度分布メモリ213から読み出す。
In step S101, the frequency
なお、このとき、頻度分布比較部221は、履歴情報メモリ12からのユーザ視聴画像の特徴量頻度分布を平均化して1つにまとめる。平均化することなく、1画像ずつ比較することも可能であるが、平均化しての処理の方が、演算の負荷が少なく、効率的である。
At this time, the frequency
ステップS102において、頻度分布比較部221は、ユーザ視聴画像の特徴量頻度分布と、学習画像頻度分布メモリ213のすべての学習画像の特徴量頻度分布を比較する。
In step S <b> 102, the frequency
ステップS103において、学習画像選択部222は、ステップS102における比較結果に基づいて、ユーザ視聴画像の特徴量頻度分布に最も似ている学習画像を選択し、動きクラスおよび空間クラスの組み合わせに対応付けて、その選択画像番号を、学習テーブル223に記録する。これにより、画像選択処理は終了され、処理は、処理は、図26のステップS66に戻る。
In step S103, the learning
次に、図29のフローチャートを参照して、図26のステップS67の係数種データ生成処理を詳しく説明する。 Next, the coefficient seed data generation process in step S67 of FIG. 26 will be described in detail with reference to the flowchart of FIG.
図28のステップS103で学習テーブル223に記録された動きクラスおよび空間クラスの情報は、第2のクラス合成部277に入力され、その動きクラスおよび空間クラスに対応する選択画像番号は、学習セット記憶部231に入力される。
The information on the motion class and the space class recorded in the learning table 223 in step S103 of FIG. 28 is input to the second
また、学習セット記憶部231には、図26のステップS62において数十種類の学習画像のHD信号が記憶されている。
In addition, the learning set
ステップS121において、係数種データ生成部206は、学習セット記憶部231において、学習画像テーブル223からの選択画像番号を受け、対応する学習画像のHD信号を選択する。
In step S121, the coefficient seed
ステップS122において、係数種データ生成部206は、学習セット記憶部231からのHD画像データを取得する。
In step S122, the coefficient seed
ステップS123において、係数種データ生成部206は、すべてのHD画素データについて処理は終了したか否かを判定する。ステップS123において、すべてのHD画素データについて処理を終了していないと判定された場合、処理は、ステップS124に進む。
In step S123, the coefficient seed
ステップS124において、係数種データ生成部206のSD信号生成部232は、ステップS122で取得されたHD画素データに、水平および垂直の間引き処理を行い、SD画素データを生成する。
In step S124, the SD
ステップS125において、係数種データ生成部206は、第1のタップ選択部271、第2のタップ選択部272、および第3のタップ選択部273において、ステップS124で生成されたSD画素データより、ステップS122で取得された各HD画素データに対応して、クラスタップおよび予測タップの画素データを取得する。
In step S125, the coefficient seed
ステップS126において、係数種データ生成部206は、生成されたSD画素データの全領域において学習処理は終了したか否かを判定する。ステップS126において、学習処理は終了したと判定された場合、処理は、ステップS122に戻り、次のHD画素データが取得され、同様の処理が繰り返される。
In step S126, the coefficient seed
ステップS126において、学習処理は終了していないと判定された場合、係数種データ生成部206の第1のクラス合成部276は、ステップS127において、ステップS125で取得されたクラスタップのSD画素データから第1のクラスコードを生成する。
If it is determined in step S126 that the learning process has not ended, the first
ステップS128において、係数種データ生成部206の第2のクラス合成部277は、学習テーブル223からの動きクラスおよび空間クラスの情報を用いて、第2のクラスコードを生成する。
In step S128, the second
ステップS129において、係数種データ生成部206の正規方程式生成部278は、第1のクラスコードと第2のクラスコードが一致していた場合、正規方程式(式(13)参照)を生成する。ステップS129の処理を終了すると、係数種データ生成部278は、ステップS125に処理を戻し、それ以降の処理を繰り返す。
In step S129, the normal
ステップS123において、全ての画質パターンに対して学習が終了したと判定された場合、係数種データ生成部206の係数種データ決定部279は、ステップS130において、正規方程式を掃き出し法等で解くことによって、クラスおよび出力画素(図8のHD1乃至HD4、図9のHD1′乃至HD4′参照)の各組み合わせの係数種データを算出する。
If it is determined in step S123 that learning has been completed for all image quality patterns, the coefficient seed
そして、ステップS131において、係数種データ生成部206の係数種データ決定部279は、係数種メモリ234に、その係数種データを記録する。ステップS131の処理が終了すると、係数種データ生成処理は終了され、処理は、図26のステップS67に戻る。
In
以上のようにして、予測係数生成装置20においては、テレビジョン受信装置10から取り出された基板12の履歴情報メモリ13に記憶されているユーザ視聴画像の特徴量頻度分布と、形状が最も似ている特徴量頻度分布を有する学習画像のみが用いられて、テレビジョン受信装置10で用いられる係数種データが生成される。
As described above, the prediction
これにより、ユーザ宅に設置されるテレビジョン受信装置10においては、ユーザがよく視聴するコンテンツの画像については、その変換の予測誤差が減少され、予測精度が向上されるので、ユーザは、最適な画質に変換された画像を見ることができる。すなわち、テレビジョン受信装置10は、ユーザ宅において最高の性能を発揮することができる。
Thereby, in the
以上のように、図4に示される画像信号処理システムにおいて、テレビジョン受信装置10が、ユーザがよく視聴するコンテンツの画像である、ユーザの視聴画像の特徴量頻度分布のデータを、着脱可能な基板12に備えられる履歴情報メモリ13に記録しておき、テレビジョン受信装置10で用いる係数種データを更新する際に、予測係数生成装置20が、テレビジョン受信装置10から取り外された基板12の履歴情報メモリ13に記録されているユーザの視聴画像と、特徴量頻度分布が最もよく似ている学習画像を用いて、係数種データを生成するようにした。
As described above, in the image signal processing system shown in FIG. 4, the
これにより、予測係数生成装置20においては、テレビジョン受信装置10に最高の性能を発揮させるための係数種データを効率的に生成することができる。さらに、その係数種データを用いることにより、テレビジョン受信装置10においては、ユーザにより視聴されるコンテンツの画像を、予測誤差の少ない、最適な品質となるように変換させ、表示させることができる。
Thereby, in the prediction coefficient production |
なお、図4の画像信号処理部35では、係数データWi(i=1乃至n)を生成するために式(5)の生成式を使用したが、次数の異なった多項式や、他の関数で表現される式でも、係数データWiの生成は実現可能である。
In the image
また、画像信号処理部35では、空間方向(垂直方向および水平方向)の解像度を定めるパラメータrとノイズ除去度を定めるパラメータzとを設定し、これらパラメータr、およびzの値を調整することで画像の空間方向の解像度と、ノイズ除去度を調整し得るものとして説明したが、その他の画像の質を定めるパラメータを設けるものも、同様にして構成することができる。例えば、パラメータとしては、垂直方向の解像度を定めるパラメータ、水平方向の解像度を定めるパラメータ、時間方向(フレーム方向)の解像度を定めるパラメータ、変換後の画素の位相の変化度(垂直方向および水平方向)を定めるパラメータ、画面の明るさやコントラストを定めるパラメータ、または、再生速度を定めるパラメータなどの種々のパラメータが考えられる。
The image
これらのパラメータの値は、ユーザによる操作入力によって、直接指定されるようにしてもよいし、ユーザが編集操作した内容に基づいて、編集操作内容に関連するパラメータの値が自動的に設定されるようにしてもよい。 The values of these parameters may be directly specified by an operation input by the user, or parameter values related to the editing operation content are automatically set based on the content edited by the user. You may do it.
例えば、ユーザが、リモートコントローラ41を操作する等して、ズーム画像を表示するように指示した場合、そのときユーザが指定したズーム画像の拡大率、変化速度、またはズーム画像の中心の元画像における位置等の情報に基づいて、ズーム画像を作成する際に必要な、画素の垂直方向および水平方向の位相変化情報、ズーム画像の解像度、または、ズーム画像のノイズ除去度等のパラメータが生成されるようにしてもよい。
For example, when the user instructs to display a zoom image by operating the
また、ユーザが、リモートコントローラ41を操作する等して、スローモーション再生を行うように指示した場合、そのときユーザが指定した再生速度等の情報に基づいて、画像の再生速度だけでなく、画像の解像度やノイズ除去度等のパラメータが生成されるようにしてもよい。
Further, when the user instructs to perform slow motion playback by operating the
さらに、テレビジョン受信装置10に照度計等を設置してテレビジョン受信装置10の周囲の明るさを測定し、その測定結果に基づいて、画像の輝度等のパラメータが生成されるようにしてもよいし、例えば、画像を表示するテレビジョン受信装置10のディスプレイ等の種類(CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、またはPDP(Plasma Display Panel)等)や、画面サイズ等の情報に基づいて、画像の解像度、ノイズ除去度、明るさまたはコントラスト等のパラメータが生成されるようにしてもよい。
Further, an illuminance meter or the like is installed in the
また、画像信号処理部35では、パラメータr、およびzの2つのパラメータを調整し得るものとして説明したが、1個または3個以上のパラメータを取り扱うものも同様に構成することができる。
Further, although the image
さらに、予測係数生成装置20においては、図16の生成方法を用いて係数種データを生成するものとして説明したが、係数種データの生成方法は、その他の方法を用いることもできる。図16の生成方法においては、パラメータを可変することによって生成された複数のSD信号と、HD信号との間で、学習が行われて、係数種データが生成されるが、その生成方法とは異なり、例えば、パラメータを可変することによって生成された複数のSD信号毎にHD信号との間で学習を行って、式(4)の推定式の係数データWiを生成し、各SD信号に対応して生成された係数データWiを使用して、係数種データを生成する方法を用いることもできる。なお、係数種データではなく、係数データを求めることもできる。
Furthermore, although the prediction
また、上記説明においては、ユーザ視聴画像の特徴量頻度分布と学習画像の特徴量頻度分布を比較する際に、相関係数Cを比較値として用いて比較する場合を説明したが、比較値は、相関係数Cに限らず、両方の特徴量情報が似ているか相違しているかを評価できる値であれば、他の値を用いることもできる。この場合、比較値が大きい場合が必ずしも似ていると評価されるわけではなく、比較値の種類に応じて評価される。 Further, in the above description, when comparing the feature amount frequency distribution of the user viewing image and the feature amount frequency distribution of the learning image, the case where the correlation coefficient C is used as a comparison value has been described. Other values can be used as long as the values are not limited to the correlation coefficient C and can be used to evaluate whether both pieces of feature amount information are similar or different. In this case, the case where the comparison value is large is not necessarily evaluated as being similar, but is evaluated according to the type of the comparison value.
なお、上記説明においては、SD信号をHD信号に変換する、チューナおよびモニタを備えたテレビジョン受信装置を用いて説明したが、本発明は、テレビジョン受信装置に限定されず、SD信号をHD信号に変換する装置であれば、例えば、画像処理装置などにも適用される。 In the above description, the description has been given using the television receiver having the tuner and the monitor that converts the SD signal into the HD signal. However, the present invention is not limited to the television receiver, and the SD signal is converted into the HD signal. Any device that converts a signal can be applied to an image processing device, for example.
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。 The series of processes described above can be executed by hardware or can be executed by software.
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図30は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータ401の構成の例を示すブロック図である。CPU(Central Processing Unit)411は、ROM(Read Only Memory)412、または記憶部418に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)413には、CPU411が実行するプログラムやデータなどが適宜記憶される。これらのCPU411、ROM412、およびRAM413は、バス414により相互に接続されている。
FIG. 30 is a block diagram illustrating an example of a configuration of a
CPU411にはまた、バス414を介して入出力インタフェース415が接続されている。入出力インタフェース415には、キーボード、マウス、マイクロホンなどよりなる入力部416、ディスプレイ、スピーカなどよりなる出力部417が接続されている。CPU411は、入力部416から入力される指令に対応して各種の処理を実行する。そして、CPU411は、処理の結果を出力部417に出力する。
An input /
入出力インタフェース415に接続されている記憶部418は、例えばハードディスクからなり、CPU411が実行するプログラムや各種のデータを記憶する。通信部419は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
The
また、通信部419を介してプログラムを取得し、記憶部418に記憶してもよい。
A program may be acquired via the
入出力インタフェース415に接続されているドライブ420は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア421が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部418に転送され、記憶される。
The
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図30に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア421、または、プログラムが一時的もしくは永続的に格納されるROM412や、記憶部418を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部419を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
As shown in FIG. 30, a program recording medium for storing a program that is installed in a computer and is ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory, DVD (Digital Versatile Disc), a magneto-optical disk, a removable medium 421 that is a package medium composed of a semiconductor memory, a
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the order described, but is not necessarily performed in time series. Or the process performed separately is also included.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
10 テレビジョン受信装置, 12 基板, 13, 履歴情報メモリ, 20 予測係数生成装置, 21 係数種データ生成部, 32 システムコントローラ, 35 画像信号処理部, 65 情報生成制御部, 66 特徴量頻度分布生成部, 73 特徴量生成タップ選択部, 76 特徴量生成部, 77 特徴量頻度分布演算部, 204 学習画像頻度分布生成部, 205 学習画像選択部, 206 係数種データ生成部, 207 システムコントローラ, 211 SD信号生成部, 212 特徴量頻度分布生成部, 213 学習画像頻度分布メモリ, 221 頻度分布比較部, 222 学習画像選択部, 223 学習画像テーブル, 231 画像セット記憶部, 232SD信号生成部, 233 予測係数学習部, 234 係数種メモリ, 253 特徴量生成タップ選択部, 256 特徴量生成部, 257 特徴量頻度分布演算部, 276 第1のクラス合成部, 277 第2のクラス合成部
DESCRIPTION OF
Claims (13)
前記第1の画像信号を、前記第2の画像信号に変換する他の信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報を取得する取得手段と、
前記取得手段により取得された前記画像の特徴量情報を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成する係数生成手段と
を備える信号処理装置。 In a signal processing device that generates a coefficient used for an operation for converting a first image signal into a second image signal having a higher resolution than the first image signal,
From feature amount storage means for storing feature amount information of an image corresponding to the first image signal generated by another signal processing device that converts the first image signal into the second image signal, Obtaining means for obtaining feature amount information of the image;
A signal processing apparatus comprising: coefficient generation means for generating a coefficient used for an operation for conversion to the second image signal by the other signal processing apparatus using the feature amount information of the image acquired by the acquisition means. .
請求項1に記載の信号処理装置。 The signal processing apparatus according to claim 1, wherein the feature amount storage unit is provided on a substrate that can be attached to and detached from the other signal processing apparatus.
請求項1に記載の信号処理装置。 The signal processing device according to claim 1, wherein the feature amount information of the image is a feature amount frequency distribution of the image.
前記特徴量生成手段により生成された前記学習画像の特徴量情報と、前記取得手段により取得された前記画像の特徴量情報を用いて、前記学習画像から前記画像と似ているものを選択する画像選択手段とをさらに備え、
前記係数生成手段は、前記画像選択手段により選択された前記学習画像を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成する
請求項1に記載の信号処理装置。 Feature quantity generation means for generating feature quantity information of the learning image;
An image for selecting an image similar to the image from the learning image using the feature amount information of the learning image generated by the feature amount generation unit and the feature amount information of the image acquired by the acquisition unit And a selection means,
The coefficient generation unit generates a coefficient used for an operation of converting the learning image selected by the image selection unit into the second image signal by the other signal processing device. Signal processing equipment.
前記第1の画像信号を、前記第2の画像信号に変換する他の信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報を取得し、
取得された前記画像の特徴量情報を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成する
ステップを含む信号処理方法。 In a signal processing method of a signal processing device that generates a coefficient used for an operation for converting a first image signal into a second image signal having a higher resolution than the first image signal,
From feature amount storage means for storing feature amount information of an image corresponding to the first image signal generated by another signal processing device that converts the first image signal into the second image signal, Obtaining feature amount information of the image;
A signal processing method including a step of generating a coefficient used for an operation of converting the acquired image feature quantity information into the second image signal by the other signal processing device.
前記第1の画像信号を、前記第2の画像信号に変換する信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報を取得し、
取得された前記画像の特徴量情報を用いて、前記信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成する
ステップを含むプログラム。 A program for causing a computer to perform a process of generating a coefficient used for an operation for converting a first image signal into a second image signal having a higher resolution than the first image signal,
From the feature amount storage means for storing feature amount information of an image corresponding to the first image signal generated by a signal processing device that converts the first image signal into the second image signal, the image Feature amount information,
A program including a step of generating a coefficient used for an operation of converting the acquired image feature quantity information into the second image signal by the signal processing device.
前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成する特徴量情報生成手段と、
前記特徴量情報生成手段により生成された前記画像の特徴量情報を記憶する特徴量記憶手段と、
前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて他の信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換する画像信号変換手段と
を備える信号処理装置。 In the signal processing device that converts the first image signal into a second image signal having a higher resolution than the first image signal,
Feature amount information generating means for generating feature amount information of an image corresponding to the first image signal to be converted into the second image signal;
Feature quantity storage means for storing feature quantity information of the image generated by the feature quantity information generation means;
The first image signal is converted into the second image signal by performing calculation using a coefficient generated by another signal processing device using the image feature value information stored in the feature value storage means. A signal processing device comprising: an image signal converting means for converting to an image signal.
請求項8に記載の信号処理装置。 The signal processing apparatus according to claim 8, wherein the feature amount storage unit is provided on a detachable substrate.
請求項8に記載の信号処理装置。 The signal processing apparatus according to claim 8, wherein the image feature amount information is a feature amount frequency distribution of the image.
前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成し、
生成された前記画像の特徴量情報を特徴量記憶手段に記憶し、
前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて他の信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換する
ステップを含む信号処理方法。 In the signal processing method of the signal processing device for converting the first image signal into the second image signal having a higher resolution than the first image signal,
Generating feature amount information of an image corresponding to the first image signal to be converted into the second image signal;
Storing the generated feature amount information of the image in the feature amount storage means;
The first image signal is converted into the second image signal by performing calculation using a coefficient generated by another signal processing device using the image feature value information stored in the feature value storage means. A signal processing method including a step of converting into an image signal.
前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成し、
生成された前記画像の特徴量情報を特徴量記憶手段に記憶させ、
前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換する
ステップを含むプログラム。 A program for causing a computer to perform a process of converting a first image signal into a second image signal having a higher resolution than the first image signal,
Generating feature amount information of an image corresponding to the first image signal to be converted into the second image signal;
The feature amount information of the generated image is stored in the feature amount storage means,
The first image signal is converted into the second image signal by performing calculation using the coefficient generated by the signal processing device using the feature amount information of the image stored in the feature amount storage unit. A program that includes steps to convert to.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006063630A JP2007243632A (en) | 2006-03-09 | 2006-03-09 | Signal processing apparatus and method, recording medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006063630A JP2007243632A (en) | 2006-03-09 | 2006-03-09 | Signal processing apparatus and method, recording medium, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007243632A true JP2007243632A (en) | 2007-09-20 |
Family
ID=38588710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006063630A Withdrawn JP2007243632A (en) | 2006-03-09 | 2006-03-09 | Signal processing apparatus and method, recording medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007243632A (en) |
-
2006
- 2006-03-09 JP JP2006063630A patent/JP2007243632A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7911533B2 (en) | Method and apparatus for processing information, storage medium, and program | |
US7852404B2 (en) | Information signal processor, method for processing information signal, image signal processor and image display apparatus using the same, coefficient seed data production device used in the same, method for producing coefficient seed data set and information-providing medium | |
CN101631211B (en) | Remote controller, image signal processing apparatus, and image signal processing method | |
US7286184B2 (en) | Information signal processing device, information signal processing method, image signal processing device and image display device using it, coefficient type data creating device used therein and creating method, coefficient data creating device and creating method, and information providing medium | |
JP3885786B2 (en) | Information signal processing apparatus and processing method, and program for executing the processing method | |
US7616263B2 (en) | Information-processing apparatus and removable substrate used therein | |
JP2002196737A (en) | Information signal processor, information signal processing method, image signal processor and image display device using the same as well as coefficient species data former used for the same and forming method as well as information provision medium and television receiver | |
US6985186B2 (en) | Coefficient data generating apparatus and method, information processing apparatus and method using the same, coefficient-generating-data generating device and method therefor, and information providing medium used therewith | |
US7233364B2 (en) | Apparatus and method for generating coefficient data, apparatus and method for processing information signal using the same, apparatus and method for obtaining coefficient data used therefor, and information providing medium | |
JP2007243633A (en) | Signal processing apparatus and method, recording medium, and program | |
JP4803279B2 (en) | Image signal processing apparatus and method, recording medium, and program | |
JP2007243632A (en) | Signal processing apparatus and method, recording medium, and program | |
JP4048835B2 (en) | Information processing apparatus, information processing method, recording medium, and program | |
KR101102014B1 (en) | Apparatus and method for processing informational signal, apparatus and method for generating coefficient seed data, and computer readable medium recording a program for executing each of the methods | |
JP4349086B2 (en) | Information signal processing apparatus and processing method, program for executing the processing method, and medium storing the program | |
JP4419045B2 (en) | Information processing system, information processing apparatus and method, recording medium, and program | |
JP4092921B2 (en) | Information signal processing apparatus, information signal processing method and image display apparatus, coefficient seed data generating apparatus and generating method used therefor, coefficient data generating apparatus and generating method, program for executing each method, and program thereof Recorded computer-readable medium | |
JP4649786B2 (en) | Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and coefficient seed data generating apparatus and generating method used therefor | |
JP4691814B2 (en) | Information signal processing apparatus, information signal processing method, and recording medium | |
JP4329453B2 (en) | Image signal processing apparatus and method, recording medium, and program | |
JP4692800B2 (en) | Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, coefficient seed data generating apparatus and generating method used therefor, and recording medium | |
JP4649812B2 (en) | Image signal processing apparatus, image signal processing method and image display apparatus using the same, program for executing each image signal processing method, and computer-readable medium storing the program | |
JP4691849B2 (en) | Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and information acquiring apparatus and acquiring method used therefor | |
JP4692801B2 (en) | Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and coefficient information generating apparatus and generating method used therefor | |
JP2007058232A (en) | Information signal processing apparatus and processing method, and program for executing processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090512 |