JP2007243632A - Signal processing apparatus and method, recording medium, and program - Google Patents

Signal processing apparatus and method, recording medium, and program Download PDF

Info

Publication number
JP2007243632A
JP2007243632A JP2006063630A JP2006063630A JP2007243632A JP 2007243632 A JP2007243632 A JP 2007243632A JP 2006063630 A JP2006063630 A JP 2006063630A JP 2006063630 A JP2006063630 A JP 2006063630A JP 2007243632 A JP2007243632 A JP 2007243632A
Authority
JP
Japan
Prior art keywords
image
signal
feature amount
class
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006063630A
Other languages
Japanese (ja)
Inventor
Michimasa Obana
通雅 尾花
Tetsujiro Kondo
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006063630A priority Critical patent/JP2007243632A/en
Publication of JP2007243632A publication Critical patent/JP2007243632A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve a prediction accuracy with respect to an image frequently viewed by a user. <P>SOLUTION: A television receiver 10 obtains feature quantity information of an image corresponding to a received image signal and stores the information to a history information memory 13. A prediction coefficient generating apparatus 20 acquires feature quantity information of an image viewed by the user from the history information memory 13 of a board 12 removed from the television receiver 10 and uses the feature quantity information of the image viewed by the user to produce coefficient seed data used by the television receiver 10. This invention can be applied to image signal processing systems each comprising a television receiver for using a prediction coefficient to convert an SD signal into an HD signal and a prediction coefficient generating apparatus for generating the prediction coefficient. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、信号処理装置および方法、記録媒体、並びにプログラムに関し、特に、ユーザがよく視聴する画像に応じた予測係数を生成することで、ユーザがよく視聴する画像に対しての予測精度を向上させることができるようにした信号処理装置および方法、記録媒体、並びにプログラムに関する。   The present invention relates to a signal processing apparatus and method, a recording medium, and a program, and in particular, by generating a prediction coefficient corresponding to an image often viewed by the user, the prediction accuracy for the image often viewed by the user is improved. The present invention relates to a signal processing apparatus and method, a recording medium, and a program that can be made to operate.

従来、低解像度の画像データに対して補間フィルタによる周波数補間処理を施して画素補間を行う等して、低解像度の画像データを高解像度の画像データに変換する画像データ変換装置(アップコンバータ)として、低解像度の画像データをその各画素の信号レベル分布に応じたクラスに分類した後、予測係数と呼ばれるデータが予め格納されているメモリからそのクラスに対応する予測係数を読み出し、予測係数と低解像度の画像データとから、高解像度の画像データを予測演算する、いわゆる、クラス分類適応処理を採用した画像データ変換装置が存在する。   Conventionally, as an image data converter (upconverter) that converts low-resolution image data into high-resolution image data by subjecting low-resolution image data to pixel interpolation by performing frequency interpolation processing using an interpolation filter. After classifying the low-resolution image data into classes according to the signal level distribution of each pixel, the prediction coefficient corresponding to the class is read from a memory in which data called a prediction coefficient is stored in advance. There is an image data conversion apparatus that employs so-called class classification adaptive processing for predicting and calculating high resolution image data from resolution image data.

この画像データ変換装置のメモリに格納されている予測係数は、学習と呼ばれるデータ処理によって予め生成されている。この予測係数を生成する学習回路は、通過帯域の異なる複数のデジタルフィルタより選択された、教師画像としての高解像度の画像データに最適なデジタルフィルタを用いて、教師画像としての高解像度の画像データをダウンコンバートすることにより、生徒画像としての低解像度の画像データを生成し、高解像度の画像データと低解像度の画像データとの間で学習を行って予測係数を生成するようになされている(特許文献1参照)。   Prediction coefficients stored in the memory of the image data converter are generated in advance by data processing called learning. The learning circuit that generates the prediction coefficient uses high-resolution image data as a teacher image using a digital filter that is selected from a plurality of digital filters having different passbands and that is optimal for the high-resolution image data as a teacher image. Is converted into low-resolution image data as a student image, and learning is performed between the high-resolution image data and the low-resolution image data to generate a prediction coefficient ( Patent Document 1).

例えば、近年、オーディオ・ビジュアル指向の高まりから、より高解像度の画像を得ることができるようなテレビジョン受信装置の開発が望まれ、この要望に応えて、いわゆるハイビジョン(HDTV:High Definition TeleVision)が開発された。ハイビジョンの走査線は、NTSC(National Television Standards Committee)方式の走査線数が525本であるのに対して、2倍以上の1125本である。また、ハイビジョンの縦横比は、NTSC方式の縦横比が3:4であるのに対して、9:16となっている。このため、ハイビジョンでは、NTSC方式に比べて、高解像度で臨場感のある画像を表示することができる。   For example, in recent years, the development of television receivers that can obtain higher-resolution images has been desired due to the increase in audio / visual orientation. It has been developed. The number of high-definition scan lines is 1125, which is more than twice that of 525 scan lines in the NTSC (National Television Standards Committee) system. Also, the aspect ratio of the high vision is 9:16, whereas the aspect ratio of the NTSC system is 3: 4. For this reason, high-definition images can be displayed with higher resolution and presence than in the NTSC system.

上述した画像データ変換装置を内蔵するテレビジョン受信装置は、このNTSC方式のビデオ信号から、ハイビジョンのビデオ信号の注目位置の画素データに対応するブロック(領域)の画素データを抽出し、このブロックの画素データのレベル分布パターンに基づいて、上述の注目位置の画素データの属するクラスを決定し、このクラスに対応して、予測係数を読み出し、予測係数を用いて、注目位置の画素データを生成する。   The television receiver incorporating the above-described image data converter extracts pixel data of a block (area) corresponding to pixel data at a target position of a high-definition video signal from the NTSC video signal, and Based on the level distribution pattern of the pixel data, the class to which the pixel data at the above-mentioned target position belongs is determined, the prediction coefficient is read out corresponding to this class, and the pixel data at the target position is generated using the prediction coefficient. .

ここで、特許文献1の画像データ変換装置の予測係数は、数十種類にも及ぶ教師画像の画像セットを用いた最小二乗法による学習により求められている。この時、通常の開発時においては、あらゆる入力信号に対して破綻がないようにするため、予め様々な特徴を持った画像セットを用意しておき、それらを混ぜ合わせたものを学習セットに用いている。   Here, the prediction coefficient of the image data conversion apparatus of Patent Document 1 is obtained by learning by the least square method using an image set of dozens of types of teacher images. At this time, during normal development, an image set with various characteristics is prepared in advance and used as a learning set in order to prevent any input signal from failing. ing.

すなわち、統計的にロバストな性能を発揮するのが、従来の予測係数の特徴であった。   That is, it is a feature of the conventional prediction coefficient that exhibits statistically robust performance.

特開2002−218414号公報JP 2002-218414 A

しかしながら、実際にユーザが家庭で視聴するテレビジョン信号の特徴は、予測係数の学習時に用いられている画像セットの特徴と一致するとは限らなかった。   However, the characteristics of the television signal that the user actually watches at home do not always match the characteristics of the image set used when learning the prediction coefficient.

例えば、視聴コンテンツが極端に偏っていたり、受信状態がひどく一般的でない場合など、統計的にロバストな予測係数では、画像データ変換装置が本来の性能を発揮できない恐れがあった。   For example, when the viewing content is extremely biased or the reception state is extremely uncommon, the image data conversion apparatus may not be able to exhibit its original performance with a statistically robust prediction coefficient.

本発明は、このような状況に鑑みてなされたものであり、ユーザがよく視聴する画像に対しての予測誤差を少なくし、予測精度を向上させることができるようにするものである。   The present invention has been made in view of such circumstances, and is intended to reduce prediction errors for images often viewed by a user and improve prediction accuracy.

本発明の第1の側面の信号処理装置は、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する信号処理装置において、前記第1の画像信号を、前記第2の画像信号に変換する他の信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報を取得する取得手段と、前記取得手段により取得された前記画像の特徴量情報を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成する係数生成手段とを備える。   The signal processing device according to the first aspect of the present invention is a signal processing device that generates a coefficient used for an operation for converting a first image signal into a second image signal having a resolution higher than that of the first image signal. The feature amount storage means for storing the feature amount information of the image corresponding to the first image signal generated by another signal processing device that converts the first image signal into the second image signal From the acquisition unit for acquiring the feature amount information of the image, and the calculation for converting into the second image signal by the other signal processing device using the feature amount information of the image acquired by the acquisition unit. Coefficient generating means for generating coefficients to be used.

前記特徴量記憶手段は、前記他の信号処理装置に着脱可能な基板に設けられることができる。   The feature amount storage means may be provided on a substrate that can be attached to and detached from the other signal processing device.

前記画像の特徴量情報は、前記画像の特徴量頻度分布とされることができる。   The feature amount information of the image may be a feature amount frequency distribution of the image.

学習画像の特徴量情報を生成する特徴量生成手段と、前記特徴量生成手段により生成された前記学習画像の特徴量情報と、前記取得手段により取得された前記画像の特徴量情報を用いて、前記学習画像から前記画像と似ているものを選択する画像選択手段とをさらに備え、前記係数生成手段は、前記画像選択手段により選択された前記学習画像を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成することができる。   Using feature amount generation means for generating feature amount information of a learning image, feature amount information of the learning image generated by the feature amount generation means, and feature amount information of the image acquired by the acquisition means, Image selection means for selecting an image similar to the image from the learning image, and the coefficient generation means uses the learning image selected by the image selection means, by the other signal processing device. It is possible to generate a coefficient used for the calculation for converting to the second image signal.

本発明の第1の側面の信号処理方法は、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する信号処理装置の信号処理方法において、前記第1の画像信号を、前記第2の画像信号に変換する他の信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報を取得し、取得された前記画像の特徴量情報を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成するステップを含む。   A signal processing method according to a first aspect of the present invention is a signal processing device that generates a coefficient used for an operation for converting a first image signal into a second image signal having a higher resolution than the first image signal. In the signal processing method, image feature amount information corresponding to the first image signal generated by another signal processing device that converts the first image signal into the second image signal is stored. Coefficients used for the calculation of acquiring the feature amount information of the image from the feature amount storage means and using the acquired feature amount information of the image to convert to the second image signal by the other signal processing device The step of generating is included.

本発明の第1の側面のプログラムは、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する処理をコンピュータに行わせるプログラムであって、前記第1の画像信号を、前記第2の画像信号に変換する信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報を取得し、取得された前記画像の特徴量情報を用いて、前記信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成するステップを含む。   The program according to the first aspect of the present invention performs a process of generating a coefficient used for an operation for converting a first image signal into a second image signal having a higher resolution than the first image signal. A feature amount for storing feature amount information of an image corresponding to the first image signal generated by a signal processing device that converts the first image signal into the second image signal Step of acquiring feature amount information of the image from a storage unit, and using the acquired feature amount information of the image, generating a coefficient used for an operation of converting to the second image signal by the signal processing device including.

本発明の第1の側面の記録媒体に記録されているプログラムは、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する処理をコンピュータに行わせるプログラムであって、前記第1の画像信号を、前記第2の画像信号に変換する信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報を取得し、取得された前記画像の特徴量情報を用いて、前記信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成するステップを含む。   The program recorded on the recording medium according to the first aspect of the present invention includes a coefficient used for an operation for converting the first image signal into a second image signal having a higher resolution than the first image signal. A program that causes a computer to perform processing to be generated, the image feature amount corresponding to the first image signal generated by a signal processing device that converts the first image signal into the second image signal The feature amount information of the image is acquired from the feature amount storage means in which the information is stored, and the signal processing device converts the acquired feature amount information of the image into the second image signal using the acquired feature amount information of the image. Generating a coefficient to be used.

本発明の第2の側面の信号処理装置は、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する信号処理装置において、前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成する特徴量情報生成手段と、前記特徴量情報生成手段により生成された前記画像の特徴量情報を記憶する特徴量記憶手段と、前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて他の信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換する画像信号変換手段とを備える。   The signal processing device according to the second aspect of the present invention is a signal processing device that converts a first image signal into a second image signal having a resolution higher than that of the first image signal. Feature quantity information generating means for generating feature quantity information of an image corresponding to the first image signal to be converted into a feature quantity storage for storing the feature quantity information of the image generated by the feature quantity information generating means And calculating the first image signal by using the coefficient generated by the other signal processing apparatus using the feature amount information of the image stored in the feature amount storage unit. Image signal converting means for converting to a second image signal.

前記特徴量記憶手段は、着脱可能な基板に設けられることができる。   The feature amount storage means may be provided on a detachable substrate.

前記画像の特徴量情報は、前記画像の特徴量頻度分布とされることができる。   The feature amount information of the image may be a feature amount frequency distribution of the image.

本発明の第2の側面の信号処理方法は、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する信号処理装置の信号処理方法において、前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成し、生成された前記画像の特徴量情報を特徴量記憶手段に記憶し、前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて他の信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換するステップを含む。   The signal processing method according to the second aspect of the present invention is the signal processing method of the signal processing device for converting the first image signal into the second image signal having a higher resolution than the first image signal. Image feature amount information corresponding to the first image signal to be converted into the second image signal is generated, the generated feature amount information of the image is stored in a feature amount storage unit, and the feature amount storage unit A step of converting the first image signal into the second image signal by performing an operation using a coefficient generated by another signal processing apparatus using the stored feature amount information of the image. including.

本発明の第2の側面のプログラムは、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する処理をコンピュータに行わせるプログラムであって、前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成し、生成された前記画像の特徴量情報を特徴量記憶手段に記憶させ、前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換するステップを含む。   A program according to a second aspect of the present invention is a program for causing a computer to perform a process of converting a first image signal into a second image signal having a higher resolution than the first image signal. Image feature amount information corresponding to the first image signal to be converted into the second image signal is generated, the generated feature amount information of the image is stored in a feature amount storage unit, and the feature amount storage unit Including a step of converting the first image signal into the second image signal by performing an operation using a coefficient generated by the signal processing device using the stored feature amount information of the image. .

本発明の第2の側面の記録媒体に記録されているプログラムは、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する処理をコンピュータに行わせるプログラムであって、前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成し、生成された前記画像の特徴量情報を特徴量記憶手段に記憶させ、前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換するステップを含む。   The program recorded on the recording medium according to the second aspect of the present invention causes the computer to perform a process of converting the first image signal into a second image signal having a higher resolution than the first image signal. A program that generates feature amount information of an image corresponding to the first image signal to be converted into the second image signal, and stores the generated feature amount information of the image in a feature amount storage unit The first image signal is converted into the second image by performing calculation using the coefficient generated by the signal processing device using the feature amount information of the image stored in the feature amount storage means. Converting to a signal.

本発明の第1の側面においては、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報が取得される。そして、取得された前記画像の特徴量情報を用いて、前記信号処理装置により前記第2の画像信号に変換する演算に用いられる係数が生成される。   In the first aspect of the present invention, the first image signal generated by the signal processing device that converts the first image signal into a second image signal having a higher resolution than the first image signal is included in the first image signal. The feature amount information of the image is acquired from the feature amount storage means in which the feature amount information of the corresponding image is stored. And the coefficient used for the calculation converted into a said 2nd image signal by the said signal processing apparatus is produced | generated using the acquired feature-value information of the said image.

本発明の第2の側面においては、第2の画像信号に変換される第1の画像信号に対応する画像の特徴量情報が生成され、生成された前記画像の特徴量情報が特徴量記憶手段に記憶される。そして、前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号が、前記第2の画像信号に変換される。   In the second aspect of the present invention, image feature amount information corresponding to the first image signal converted into the second image signal is generated, and the generated feature amount information is the feature amount storage means. Is remembered. Then, the first image signal is obtained by performing the calculation using the coefficient generated by the signal processing device using the feature amount information of the image stored in the feature amount storage means. Converted to image signal.

本発明によれば、ユーザがよく視聴する画像に対しての予測精度を向上させることができる。これにより、ユーザは画質のよい画像を見ることができる。   ADVANTAGE OF THE INVENTION According to this invention, the prediction precision with respect to the image which a user often views can be improved. As a result, the user can view an image with good image quality.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。したがって、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment that is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の第1の側面の信号処理装置は、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する信号処理装置(例えば、図4の予測係数生成装置20)において、前記第1の画像信号を、前記第2の画像信号に変換する他の信号処理装置(例えば、図4のテレビジョン受信装置10)により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段(例えば、図4の履歴情報メモリ13)から、前記画像の特徴量情報を取得する取得手段(例えば、図17の頻度分布比較部221)と、前記取得手段により取得された前記画像の特徴量情報を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成する係数生成手段(例えば、図17の係数種データ生成部206)とを備える。   The signal processing device according to the first aspect of the present invention is a signal processing device that generates a coefficient used for an operation for converting a first image signal into a second image signal having a resolution higher than that of the first image signal. (For example, in the prediction coefficient generation device 20 in FIG. 4) the first image signal is generated by another signal processing device (for example, the television reception device 10 in FIG. 4) that converts the first image signal into the second image signal. Acquisition means (for example, the feature amount information of the image) from the feature amount storage means (for example, the history information memory 13 of FIG. 4) in which the feature amount information of the image corresponding to the first image signal is stored. The frequency distribution comparison unit 221 in FIG. 17 and the coefficient used for the calculation to convert the second image signal by the other signal processing apparatus using the feature amount information of the image acquired by the acquisition unit. Coefficient to generate Comprising forming means (e.g., the coefficient seed data production unit 206 of FIG. 17) and.

前記特徴量記憶手段は、前記他の信号処理装置に着脱可能な基板(例えば、図4の基板12)に設けられることができる。   The feature amount storage means may be provided on a substrate (for example, the substrate 12 in FIG. 4) that can be attached to and detached from the other signal processing device.

学習画像の特徴量情報を生成する特徴量生成手段(例えば、図17の学習画像頻度分布生成部204)と、前記特徴量生成手段により生成された前記学習画像の特徴量情報と、前記取得手段により取得された前記画像の特徴量情報を用いて、前記学習画像から前記画像と似ているものを選択する画像選択手段(例えば、図17の学習画像選択部222)とをさらに備え、前記係数生成手段は、前記画像選択手段により選択された前記学習画像を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成することができる。   Feature amount generation means (for example, a learning image frequency distribution generation unit 204 in FIG. 17) that generates feature amount information of a learning image, feature amount information of the learning image generated by the feature amount generation means, and the acquisition means Image selection means (for example, the learning image selection unit 222 in FIG. 17) that selects the learning image similar to the image using the feature amount information of the image acquired by The generation unit can generate a coefficient used for an operation of converting the learning image selected by the image selection unit into the second image signal by the other signal processing device.

本発明の第1の側面の信号処理方法またはプログラムは、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する信号処理装置(例えば、図4の予測係数生成装置20)の信号処理方法またはプログラムにおいて、前記第1の画像信号を、前記第2の画像信号に変換する他の信号処理装置(例えば、図4のテレビジョン受信装置10)により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段(例えば、図4の履歴情報メモリ13)から、前記画像の特徴量情報を取得し(例えば、図28のステップS101)、取得された前記画像の特徴量情報を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成する(例えば、図26のステップS67)ステップを含む。   A signal processing method or program according to the first aspect of the present invention is a signal for generating a coefficient used for an operation for converting a first image signal into a second image signal having a higher resolution than the first image signal. In a signal processing method or program of a processing device (for example, the prediction coefficient generation device 20 in FIG. 4), another signal processing device (for example, in FIG. 4) that converts the first image signal into the second image signal. The feature amount of the image is stored in the feature amount storage means (for example, the history information memory 13 in FIG. 4) in which the feature amount information of the image corresponding to the first image signal generated by the television receiver 10) is stored. Information is acquired (for example, step S101 in FIG. 28), and the coefficient used for the calculation for converting to the second image signal by the other signal processing device using the acquired feature amount information of the image. To formed (e.g., step S67 of FIG. 26) includes the step.

本発明の第2の側面の信号処理装置は、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する信号処理装置(例えば、図4のテレビジョン受信装置10)において、前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成する特徴量情報生成手段(例えば、図7の特徴量頻度分布生成部66)と、前記特徴量情報生成手段により生成された前記画像の特徴量情報を記憶する特徴量記憶手段(例えば、図4の履歴情報メモリ13)と、前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて他の信号処理装置(例えば、図4の予測係数生成装置20)により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換する画像信号変換手段(例えば、図7の推定予測演算部58)とを備える。   The signal processing device according to the second aspect of the present invention is a signal processing device that converts a first image signal into a second image signal having a resolution higher than that of the first image signal (for example, the television shown in FIG. 4). In the receiving device 10), feature amount information generating means (for example, a feature amount frequency distribution generating unit in FIG. 7) that generates feature amount information of an image corresponding to the first image signal converted into the second image signal. 66), feature amount storage means (for example, history information memory 13 in FIG. 4) for storing the feature amount information of the image generated by the feature amount information generation means, and the feature amount storage means. The first image signal is converted into the first image signal by performing calculation using a coefficient generated by another signal processing apparatus (for example, the prediction coefficient generation apparatus 20 in FIG. 4) using the image feature amount information. Image signal converted to 2 image signal Switching means (for example, estimating the prediction computation unit 58 in FIG. 7) and a.

前記特徴量記憶手段は、着脱可能な基板(例えば、図4の基板12)に設けられることができる。   The feature amount storage means may be provided on a detachable substrate (for example, the substrate 12 in FIG. 4).

本発明の第2の側面の信号処理方法またはプログラムは、第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する信号処理装置(例えば、図4のテレビジョン受信装置10)の信号処理方法またはプログラムにおいて、前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成し(例えば、図25のステップS44)、生成された前記画像の特徴量情報を特徴量記憶手段(例えば、図4の履歴情報メモリ13)に記憶し(例えば、図25のステップS45)、前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて他の信号処理装置(例えば、図4の予測係数生成装置20)により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換する(例えば、図24のステップS20)ステップを含む。   The signal processing method or program according to the second aspect of the present invention is a signal processing device (for example, as shown in FIG. 4) that converts a first image signal into a second image signal having a higher resolution than the first image signal. In the signal processing method or program of the television receiver 10), image feature amount information corresponding to the first image signal to be converted into the second image signal is generated (for example, step S44 in FIG. 25). The feature amount information of the generated image is stored in the feature amount storage means (for example, the history information memory 13 in FIG. 4) (for example, step S45 in FIG. 25), and the image stored in the feature amount storage means is stored. The feature value information of the first image signal is calculated using the coefficient generated by another signal processing device (for example, the prediction coefficient generation device 20 in FIG. 4), so that the first image signal is converted into the second image signal. Image To convert (e.g., step S20 in FIG. 24) includes the step.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、図1乃至図3を参照して、本発明の概要を説明する。図1は、従来の予測係数の学習の概念を示している。   First, the outline of the present invention will be described with reference to FIGS. FIG. 1 shows the concept of learning a conventional prediction coefficient.

低解像度の画像データから、高解像度の画像データを予測演算する際に用いられる予測係数の従来の学習方法としては、図1に示されるように、1シーンだけからなるHD(High Definition)信号の画像(以下、HD画像とも称する)と、そのHD画像から生成されたSD(Standard Definition)信号の画像(以下、SD画像とも称する)の組み合わせのサンプルを、1乃至nまでの数十種類用意しておき、それらすべてを足しこんだものを最小二乗法により予測係数を求めていた。   As a conventional learning method of a prediction coefficient used when predicting and calculating high resolution image data from low resolution image data, as shown in FIG. 1, an HD (High Definition) signal consisting of only one scene is used. Dozens of samples from 1 to n are prepared for combinations of images (hereinafter also referred to as HD images) and SD (Standard Definition) signal images (hereinafter also referred to as SD images) generated from the HD images. Prediction coefficients were obtained by the least square method with all of them added.

すなわち、従来の学習方法で求められる予測係数は、HD画像を教師データYとし、SD画像を生徒データXとすると、すべてのサンプルに対して、Y=aX+bの回帰直線で表すことができる。このため、各SD画像と予測係数Y=aX+bを用いて求められる予測値Y'と予測係数との予測誤差は、サンプルによっては、グラフ上の点で示されるように、大きくなってしまう場合があった。   That is, the prediction coefficient obtained by the conventional learning method can be expressed by a regression line of Y = aX + b for all samples, where the HD image is the teacher data Y and the SD image is the student data X. . For this reason, the prediction error between the prediction value Y ′ obtained using each SD image and the prediction coefficient Y = aX + b and the prediction coefficient may be large depending on the sample, as indicated by a point on the graph. There was a case.

図2は、予測係数の個別学習の概念を示している。図2の例においては、図1の例に対して、画像毎に個別に学習して予測係数が求められている。   FIG. 2 shows the concept of individual learning of prediction coefficients. In the example of FIG. 2, the prediction coefficient is obtained by learning individually for each image as compared to the example of FIG.

例えば、HD画像1と、HD画像1から生成されたSD画像1の組み合わせで学習されて求められた予測係数は、Y=a1X+b1の回帰直線で表すことができる。そして、SD画像1とこの予測係数Y=a1X+b1を用いて求められる予測値Y'と予測係数との予測誤差は、図1の例の場合よりも小さくなる。   For example, a prediction coefficient obtained by learning with a combination of the HD image 1 and the SD image 1 generated from the HD image 1 can be represented by a regression line of Y = a1X + b1. The prediction error between the prediction value Y ′ obtained using the SD image 1 and the prediction coefficient Y = a1X + b1 and the prediction coefficient is smaller than in the example of FIG.

同様に、HD画像2と、HD画像2から生成されたSD画像2の組み合わせで学習されて求められた予測係数は、Y=a2X+b2の回帰直線で表すことができ、SD画像2と予測係数Y=a2X+b2を用いて求められる予測値Y'と予測係数との予測誤差も図1の例の場合よりも小さくなる。   Similarly, the prediction coefficient obtained by learning from the combination of the HD image 2 and the SD image 2 generated from the HD image 2 can be represented by a regression line of Y = a2X + b2, and is predicted with the SD image 2 The prediction error between the prediction value Y ′ obtained using the coefficient Y = a2X + b2 and the prediction coefficient is also smaller than in the example of FIG.

また、HD画像nと、HD画像nから生成されたSD画像nの組み合わせで学習されて求められた予測係数は、Y=anX+bnの回帰直線で表すことができ、SD画像nと予測係数Y=anX+bnを用いて求められる予測値Y'と予測係数との予測誤差も、図1の例の場合よりも小さくなる。   The prediction coefficient obtained by learning from the combination of the HD image n and the SD image n generated from the HD image n can be represented by a regression line of Y = anX + bn. The prediction error between the prediction value Y ′ obtained using Y = anX + bn and the prediction coefficient is also smaller than in the example of FIG.

すなわち、図2の例のように、各画像が個別に有する特徴に応じて予測係数を求めることで予測誤差を小さくし、予測精度を向上させることができる。したがって、もし、ユーザが自宅で視聴する画像(以下、ユーザ視聴画像とも称する)に応じて予測係数を学習、生成することができれば、この予測係数を用いて高解像度のデータを生成する装置は、最高の性能を発揮することができる。   That is, as in the example of FIG. 2, the prediction error can be reduced and the prediction accuracy can be improved by obtaining the prediction coefficient according to the characteristics of each image individually. Therefore, if a prediction coefficient can be learned and generated according to an image that the user views at home (hereinafter also referred to as a user viewing image), an apparatus that generates high-resolution data using the prediction coefficient The best performance can be demonstrated.

ただし、現実には、ユーザが視聴するSD信号に対応するHD信号を全て入手することは困難である。そこで、図3に示すように、ユーザ視聴画像と、予測係数学習時のSD画像のそれぞれの特徴量情報を用いる。   However, in reality, it is difficult to obtain all HD signals corresponding to the SD signal viewed by the user. Therefore, as shown in FIG. 3, the feature amount information of the user viewing image and the SD image at the time of prediction coefficient learning is used.

図3は、図2の方法を発展させた本発明の予測係数の概念を示している。   FIG. 3 shows the concept of the prediction coefficient of the present invention, which is an extension of the method of FIG.

まず、予測係数を学習する前に、HD画像1より生成されたSD画像1からSD画像1の特徴量情報として、特徴量頻度分布1が求められ、HD画像2より生成されたSD画像2からSD画像2の特徴量情報として、特徴量頻度分布2が求められ、HD画像nより生成されたSD画像nからSD画像nの特徴量情報として、特徴量頻度分布nが求められる。   First, before learning the prediction coefficient, the feature amount frequency distribution 1 is obtained as the feature amount information of the SD image 1 from the SD image 1 generated from the HD image 1, and from the SD image 2 generated from the HD image 2. The feature amount frequency distribution 2 is obtained as the feature amount information of the SD image 2, and the feature amount frequency distribution n is obtained as the feature amount information of the SD image n from the SD image n generated from the HD image n.

そして、矢印A1に示されるように、これらの特徴量頻度分布1乃至nと、ユーザ視聴画像から求められる特徴量頻度分布とが比較され、ユーザ視聴画像の特徴量頻度分布と似た特徴を有する特徴量頻度分布のSD画像のみが選択されて、矢印A2−1乃至矢印A2−3に示されるように、選択されたSD画像とHD画像の組み合わせだけで、それぞれの予測係数が学習されて求められる。   Then, as indicated by the arrow A1, the feature amount frequency distributions 1 to n are compared with the feature amount frequency distribution obtained from the user viewing image, and have features similar to the feature amount frequency distribution of the user viewing image. Only the SD image of the feature amount frequency distribution is selected, and the prediction coefficients are learned and obtained only by the combination of the selected SD image and HD image, as indicated by arrows A2-1 to A2-3. It is done.

例えば、SD画像1の特徴量頻度分布1が、ユーザ視聴画像の特徴量頻度分布と似た特徴を有する場合、SD画像1が選択されて、矢印A2−1に示されるように、選択されたSD画像1とHD画像1の組み合わせのみで、Y=a1X+b1の回帰直線で表される予測係数が学習されて求められる。SD画像2の特徴量頻度分布2が、ユーザ視聴画像の特徴量頻度分布と似ている特徴を有する場合、SD画像2が選択されて、矢印A2−2に示されるように、選択されたSD画像2とHD画像2の組み合わせのみで、Y=a2X+b2の回帰直線で表される予測係数が学習されて求められる。   For example, when the feature amount frequency distribution 1 of the SD image 1 has a feature similar to the feature amount frequency distribution of the user viewing image, the SD image 1 is selected and selected as indicated by an arrow A2-1. The prediction coefficient represented by the regression line of Y = a1X + b1 is learned and obtained only by the combination of the SD image 1 and the HD image 1. When the feature amount frequency distribution 2 of the SD image 2 has a feature similar to the feature amount frequency distribution of the user viewing image, the SD image 2 is selected and the selected SD as shown by the arrow A2-2. The prediction coefficient represented by the regression line of Y = a2X + b2 is learned and obtained only by the combination of the image 2 and the HD image 2.

同様に、SD画像nの特徴量頻度分布nが、ユーザ視聴画像の特徴量頻度分布と似た特徴を有する場合、SD画像nが選択されて、矢印A2−3に示されるように、選択されたSD画像nとHD画像nの組み合わせのみで、Y=anX+bnの回帰直線で表される予測係数が学習されて求められる。   Similarly, when the feature amount frequency distribution n of the SD image n has a feature similar to the feature amount frequency distribution of the user viewing image, the SD image n is selected and selected as indicated by an arrow A2-3. The prediction coefficient represented by the regression line of Y = anX + bn is learned and obtained only by the combination of the SD image n and the HD image n.

以上のように、ユーザ視聴画像そのものを用いた予測係数学習は困難であっても、ユーザ視聴画像と似た特徴を有する画像のみを学習に用いることによって、そのユーザ視聴画像に特化した予測係数を生成することができる。   As described above, even when prediction coefficient learning using the user viewing image itself is difficult, by using only an image having characteristics similar to the user viewing image for learning, a prediction coefficient specialized for the user viewing image is used. Can be generated.

したがって、以下に説明する、SD画像からHD画像を生成するテレビジョン受信装置10において、ユーザが視聴する画像は、その画像に特化されて生成された予測係数が用いられて変換される。これにより、HD画像の生成時における予測誤差は小さくなり、予測精度が向上される。その結果、ユーザが視聴する画像を最適な画質で表示することができる。   Therefore, in the television receiver 10 that generates an HD image from an SD image, which will be described below, an image viewed by the user is converted using a prediction coefficient generated specifically for the image. Thereby, the prediction error at the time of generating the HD image is reduced, and the prediction accuracy is improved. As a result, an image viewed by the user can be displayed with an optimum image quality.

図4は、本発明を適用した画像信号処理システムの一実施の形態の構成を示している。   FIG. 4 shows a configuration of an embodiment of an image signal processing system to which the present invention is applied.

図4に示される画像信号処理システムは、ユーザ宅に設置され、外部の放送局より供給される画像信号を受信し、内蔵するディスプレイに表示するテレビジョン受信装置10と、製品のメンテナンスなどを行うメーカ側などに設置され、テレビジョン受信装置10用の予測係数を生成する予測係数生成装置20により構成される。   The image signal processing system shown in FIG. 4 is installed in a user's house, receives an image signal supplied from an external broadcasting station, displays it on a built-in display, and performs product maintenance and the like. It is installed on the manufacturer side or the like, and is configured by a prediction coefficient generation device 20 that generates a prediction coefficient for the television receiver 10.

テレビジョン受信装置10は、アンテナ11を有しており、外部より供給される、例えばNTSC信号等の、SD(Standard Definition)信号である画像信号を、アンテナ11を介して受信する。テレビジョン受信装置10は、受信した画像信号に対してクラス分類適応処理を用いた画像信号処理を行い、HD(High Definition)信号の画像信号に変換する等の処理を行う。そして、テレビジョン受信装置10は、変換した画像信号に対応する画像を、表示部38(図5)に表示する。画像信号処理に関する詳細な説明は後述する。   The television receiver 10 includes an antenna 11 and receives an image signal, which is an SD (Standard Definition) signal such as an NTSC signal, supplied from the outside, via the antenna 11. The television receiver 10 performs image signal processing using class classification adaptive processing on the received image signal, and converts the image signal into an HD (High Definition) signal. Then, the television receiver 10 displays an image corresponding to the converted image signal on the display unit 38 (FIG. 5). Detailed description regarding the image signal processing will be described later.

また、テレビジョン受信装置10は、ユーザが視聴を所望して、アンテナ11で受信した画像信号に対応する画像、すなわち、ユーザが視聴する画像の特徴量情報を求め、履歴情報メモリ13に記憶している。この履歴情報メモリ13は、テレビジョン受信装置10の筐体に着脱可能に装着される基板12に構成されている。基板12は、テレビジョン受信装置10用の予測係数を生成するとき、テレビジョン受信装置10から取り外され、予測係数生成装置20に接続される。   In addition, the television receiver 10 obtains the feature amount information of the image corresponding to the image signal received by the antenna 11 that the user desires to view, that is, the image viewed by the user, and stores it in the history information memory 13. ing. The history information memory 13 is configured on a substrate 12 that is detachably attached to the housing of the television receiver 10. The board 12 is removed from the television receiver 10 and connected to the prediction coefficient generator 20 when generating a prediction coefficient for the television receiver 10.

予測係数生成装置20は、テレビジョン受信装置10から取り外された基板12の履歴情報メモリ13から、ユーザが視聴する画像であるユーザ視聴画像の特徴量情報を取得し、ユーザ視聴画像の特徴量情報を用いて、テレビジョン受信装置10が用いる係数種データを生成する。生成された係数種データは、基板12、他の基板、あるいは、図示せぬネットワークを介して、テレビジョン受信装置10に提供される。   The prediction coefficient generation device 20 acquires feature amount information of the user viewing image that is an image viewed by the user from the history information memory 13 of the board 12 removed from the television receiving device 10, and the feature amount information of the user viewing image Is used to generate coefficient seed data used by the television receiver 10. The generated coefficient seed data is provided to the television receiver 10 via the board 12, another board, or a network (not shown).

すなわち、テレビジョン受信装置10のHD信号への変換においては、自己において求められたユーザ視聴画像の特徴量情報が用いられて予測係数生成装置20により生成された係数種データが用いられる。係数種データについての説明は後述する。   That is, in the conversion to the HD signal of the television receiver 10, the coefficient seed data generated by the prediction coefficient generator 20 using the feature amount information of the user viewing image obtained by itself is used. The description of the coefficient seed data will be described later.

図5は、図4のテレビジョン受信装置10の詳細な構成例を示すブロック図である。   FIG. 5 is a block diagram illustrating a detailed configuration example of the television receiver 10 of FIG.

このテレビジョン受信装置10は、放送信号より525i信号というSD信号を得て、この525i信号を1050i信号というHD信号に変換し、そのHD信号による画像を表示するものである。   The television receiver 10 obtains an SD signal called a 525i signal from a broadcast signal, converts the 525i signal into an HD signal called a 1050i signal, and displays an image based on the HD signal.

図6は、525i信号および1050i信号のあるフレーム(F)の画素位置関係を示すものであり、奇数(o)フィールドの画素位置を実線で示し、偶数(e)フィールドの画素位置を破線で示している。大きなドットが525i信号の画素であり、小さいドットが1050i信号の画素である。図6から分かるように、1050i信号の画素データとしては、525i信号のラインに近い位置のラインデータL1,L1′と、525i信号のラインから遠い位置のラインデータL2,L2′とが存在する。ここで、L1,L2は奇数フィールドのラインデータ、L1′,L2′は偶数フィールドのラインデータである。また、1050i信号の各ラインの画素数は、525i信号の各ラインの画素数の2倍である。   FIG. 6 shows the pixel position relationship of a frame (F) with a 525i signal and a 1050i signal. The pixel position of the odd (o) field is indicated by a solid line, and the pixel position of the even (e) field is indicated by a broken line. ing. Large dots are pixels of 525i signal, and small dots are pixels of 1050i signal. As can be seen from FIG. 6, the pixel data of the 1050i signal includes line data L1, L1 ′ at positions close to the line of the 525i signal and line data L2, L2 ′ at positions far from the line of the 525i signal. Here, L1 and L2 are line data of odd fields, and L1 'and L2' are line data of even fields. The number of pixels in each line of the 1050i signal is twice the number of pixels in each line of the 525i signal.

図5に戻り、テレビジョン受信装置10の構成について説明する。ユーザは、リモートコントローラ41を用いて、テレビジョン受信装置10を操作する。テレビジョン受信装置10は、CPU(Central processing Unit)、RAM(Random Access Memory)、およびROM(Read Only memory)を含むマイクロコントローラを備え、システム全体の動作を制御するためのシステムコントローラ32と、リモートコントローラ41と通信を行う通信部31とを有している。通信部31は、システムコントローラ32に接続され、リモートコントローラ41よりユーザの操作に応じて出力されるリモートコントロール信号を受信し、その信号に対応する操作信号を、システムコントローラ32に供給するように構成されている。   Returning to FIG. 5, the configuration of the television receiver 10 will be described. The user operates the television receiver 10 using the remote controller 41. The television receiver 10 includes a microcontroller including a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), a system controller 32 for controlling the operation of the entire system, and a remote The communication unit 31 communicates with the controller 41. The communication unit 31 is connected to the system controller 32, receives a remote control signal output from the remote controller 41 according to a user operation, and supplies an operation signal corresponding to the signal to the system controller 32. Has been.

アンテナ11は、放送信号(RF(Radio Frequency)変調信号)を受信する。チューナ33は、アンテナ11を介して受信した放送信号の供給を受け、システムコントローラ32から入力される制御信号に従って、ユーザがリモートコントローラ41を用いる等して選局したチャンネルを選局する選局処理を行い、更に、中間周波増幅処理、検波処理等などを行って、上述したSD信号(525i信号)を得る。バッファメモリ34は、チューナ33より出力されるSD信号を一時的に保存する。   The antenna 11 receives a broadcast signal (RF (Radio Frequency) modulation signal). The tuner 33 receives a broadcast signal received via the antenna 11 and selects a channel selected by the user using the remote controller 41 in accordance with a control signal input from the system controller 32. In addition, the above-described SD signal (525i signal) is obtained by performing intermediate frequency amplification processing, detection processing, and the like. The buffer memory 34 temporarily stores the SD signal output from the tuner 33.

画像信号処理部35は、バッファメモリ34に一時的に保存されるSD信号(525i信号)を、HD信号(1050i信号)に変換する画像信号処理を行う。なお、上述した履歴情報メモリ13は、画像信号処理部35内に構成される。   The image signal processing unit 35 performs image signal processing for converting an SD signal (525i signal) temporarily stored in the buffer memory 34 into an HD signal (1050i signal). The history information memory 13 described above is configured in the image signal processing unit 35.

図7は、画像信号処理部35の更に詳細な構成を示すブロック図である。   FIG. 7 is a block diagram showing a more detailed configuration of the image signal processing unit 35.

画像信号処理部35の第1のタップ選択部51、第2のタップ選択部52、および、第3のタップ選択部53は、バッファメモリ34に記憶されているSD信号(525i信号)より、HD信号(1050i信号)における注目位置の周辺に位置する複数のSD画素のデータを選択的に取り出して出力する。   The first tap selection unit 51, the second tap selection unit 52, and the third tap selection unit 53 of the image signal processing unit 35 use the HD signal from the SD signal (525i signal) stored in the buffer memory 34. Data of a plurality of SD pixels located around the target position in the signal (1050i signal) is selectively extracted and output.

第1のタップ選択部51は、予測に使用するSD画素(以下、「予測タップ」とも称する)のデータを選択的に取り出すものである。第2のタップ選択部52は、SD画素データのレベル分布パターンに対応するクラス分類に使用するSD画素(以下、「空間クラスタップ」とも称する)のデータを選択的に取り出すものである。第3のタップ選択部53は、動きに対応するクラス分類に使用するSD画素(以下、「動きクラスタップ」とも称する)のデータを選択的に取り出するものである。なお、空間クラスを複数フィールドに属するSD画素データを使用して決定する場合には、この空間クラスにも動き情報が含まれることになる。   The first tap selection unit 51 selectively extracts data of SD pixels used for prediction (hereinafter also referred to as “prediction tap”). The second tap selection unit 52 selectively extracts data of SD pixels (hereinafter also referred to as “space class taps”) used for class classification corresponding to the level distribution pattern of the SD pixel data. The third tap selection unit 53 selectively extracts data of SD pixels (hereinafter also referred to as “motion class taps”) used for class classification corresponding to motion. When the space class is determined using SD pixel data belonging to a plurality of fields, motion information is also included in this space class.

空間クラス検出部54は、第2のタップ選択部52で選択的に取り出された空間クラスタップのデータ(SD画素データ)のレベル分布パターンを検出し、このレベル分布パターンに基づいて空間クラスを検出し、その空間クラスのクラス情報を出力する。   The space class detection unit 54 detects the level distribution pattern of the space class tap data (SD pixel data) selectively extracted by the second tap selection unit 52, and detects the space class based on the level distribution pattern. The class information of the space class is output.

空間クラス検出部54においては、例えば、各SD画素データを、8ビットデータから2ビットデータに圧縮するような演算が行われる。そして、空間クラス検出部54からは、各SD画素データに対応した圧縮データが、空間クラスのクラス情報として出力される。本実施の形態においては、ADRC(Adaptive Dynamic Range Coding)によって、データ圧縮が行われる。なお、情報圧縮手段としては、ADRC以外にDPCM(予測符号化)、VQ(ベクトル量子化)等を用いてもよい。   In the space class detection unit 54, for example, an operation is performed to compress each SD pixel data from 8-bit data to 2-bit data. The space class detection unit 54 outputs compressed data corresponding to each SD pixel data as class information of the space class. In the present embodiment, data compression is performed by ADRC (Adaptive Dynamic Range Coding). In addition to ADRC, DPCM (predictive coding), VQ (vector quantization), or the like may be used as the information compression means.

本来、ADRCは、VTR(Video Tape Recorder)向け高性能符号化用に開発された適応再量子化法であるが、信号レベルの局所的なパターンを短い語長で効率的に表現できるので、上述したデータ圧縮に使用して好適なものである。ADRCを使用する場合、空間クラスタップのデータ(SD画素データ)の最大値をMAX、その最小値をMIN、空間クラスタップのデータのダイナミックレンジをDR(=MAX−MIN+1)、再量子化ビット数をPとすると、空間クラスタップのデータとしての各SD画素データkiに対して、式(1)の演算により、圧縮データとしての再量子化コードqiが得られる。ただし、式(1)において、[ ]は切捨て処理を意味している。空間クラスタップのデータとして、Na個のSD画素データがあるとき、i=1乃至Naである。   Originally, ADRC is an adaptive requantization method developed for high-performance coding for VTR (Video Tape Recorder), but it can express local patterns of signal level efficiently with a short word length. It is suitable for use in data compression. When using ADRC, the maximum value of space class tap data (SD pixel data) is MAX, the minimum value is MIN, the dynamic range of space class tap data is DR (= MAX-MIN + 1), and the number of requantization bits If P is P, the requantized code qi as compressed data is obtained by the calculation of Expression (1) for each SD pixel data ki as the space class tap data. However, in the formula (1), [] means a truncation process. When there are Na SD pixel data as the space class tap data, i = 1 to Na.

Figure 2007243632
Figure 2007243632

動きクラス検出部55は、第3のタップ選択部53で選択的に取り出された動きクラスタップのデータ(SD画素データ)より、主に、動きの程度を表すための動きクラスを検出し、その動きクラスのクラス情報を出力する。   The motion class detection unit 55 mainly detects a motion class for representing the degree of motion from the motion class tap data (SD pixel data) selectively extracted by the third tap selection unit 53. Output class information of motion class.

この動きクラス検出部55では、第3のタップ選択部53で選択的に取り出された動きクラスタップのデータ(SD画素データ)miおよびniからフレーム間差分が算出され、更に、その差分の絶対値の平均値に対してしきい値処理が行われて、動きの指標である動きクラスが検出される。すなわち、動きクラス検出部55は、式(2)によって、差分の絶対値の平均値AVを算出する。第3のタップ選択部53で、例えば、上述したように、12個のSD画素データm1乃至m6およびn1乃至n6が取り出されるとき、式(2)におけるNbは6である。   In the motion class detection unit 55, the inter-frame difference is calculated from the motion class tap data (SD pixel data) mi and ni selectively extracted by the third tap selection unit 53, and the absolute value of the difference is further calculated. A threshold value process is performed on the average value of the motion vectors, and a motion class that is an index of motion is detected. In other words, the motion class detection unit 55 calculates the average value AV of the absolute value of the difference using the equation (2). In the third tap selection unit 53, for example, as described above, when 12 pieces of SD pixel data m1 to m6 and n1 to n6 are extracted, Nb in Expression (2) is 6.

Figure 2007243632
Figure 2007243632

そして、動きクラス検出部55では、上述したように算出された平均値AVが、1個または複数個のしきい値と比較されて、動きクラスのクラス情報MVが得られる。例えば、3個のしきい値th1,th2,およびth3(th1<th2<th3)が用意され、4つの動きクラスが検出される場合、AV≦th1のときはMV=0、th1<AV≦th2のときはMV=1、th2<AV≦th3のときはMV=2、th3<AVのときはMV=3とされる。   Then, in the motion class detection unit 55, the average value AV calculated as described above is compared with one or a plurality of threshold values to obtain class information MV of the motion class. For example, when three threshold values th1, th2, and th3 (th1 <th2 <th3) are prepared and four motion classes are detected, MV = 0 and th1 <AV ≦ th2 when AV ≦ th1. , MV = 1, th2 <AV ≦ th3, MV = 2, and th3 <AV, MV = 3.

クラス合成部56は、空間クラス検出部54より出力される空間クラスのクラス情報としての再量子化コードqiと、動きクラス検出部55より出力される動きクラスのクラス情報MVに基づき、作成すべきHD信号(1050i信号)の画素データ(注目位置の画素データ)が属するクラスを示すクラスコードCLを得る。   The class synthesis unit 56 should be created based on the re-quantization code qi as the class information of the space class output from the space class detection unit 54 and the class information MV of the motion class output from the motion class detection unit 55. A class code CL indicating the class to which the pixel data (pixel data of the target position) of the HD signal (1050i signal) belongs is obtained.

このクラス合成部56では、以下の式(3)によって、クラスコードCLの演算が行われる。なお、式(3)において、Naは空間クラスタップのデータ(SD画素データ)の個数、PはADRCにおける再量子化ビット数を示している。   In the class synthesis unit 56, the class code CL is calculated by the following equation (3). In Equation (3), Na represents the number of space class tap data (SD pixel data), and P represents the number of requantization bits in ADRC.

Figure 2007243632
Figure 2007243632

係数メモリ57は、後述する推定予測演算部58で使用される推定式で用いられる複数の係数データWiを、クラス毎に格納するものである。この係数データWiは、SD信号(525i信号)を、HD信号(1050i信号)に変換するための情報である。係数メモリ57には、クラス合成部56より出力されるクラスコードCLが、読み出しアドレス情報として供給され、係数メモリ57からは、クラスコードCLに対応した推定式の係数データWi(i=1乃至n)が読み出され、推定予測演算部58に供給される。   The coefficient memory 57 stores, for each class, a plurality of coefficient data Wi used in the estimation formula used in the estimated prediction calculation unit 58 described later. The coefficient data Wi is information for converting an SD signal (525i signal) into an HD signal (1050i signal). The class code CL output from the class synthesis unit 56 is supplied to the coefficient memory 57 as read address information. The coefficient memory 57 receives coefficient data Wi (i = 1 to n) of the estimation formula corresponding to the class code CL. ) Is read out and supplied to the estimated prediction calculation unit 58.

また、画像信号処理部35は、情報メモリバンク61を有している。後述する推定予測演算部58では、予測タップのデータ(SD画素データ)xiと、係数メモリ57より読み出される係数データWiとから、以下の式(4)の推定式によって、作成すべきHD画素データyが演算される。式(4)のnは、第1のタップ選択部51で選択される予測タップの数を表している。   Further, the image signal processing unit 35 has an information memory bank 61. In the estimated prediction calculation unit 58 to be described later, the HD pixel data to be created from the prediction tap data (SD pixel data) xi and the coefficient data Wi read from the coefficient memory 57 by the estimation expression of the following expression (4). y is calculated. In Expression (4), n represents the number of prediction taps selected by the first tap selection unit 51.

ここで、第1のタップ選択部51で選択的に取り出された予測タップのn個の画素データの位置は、HD信号における注目位置に対して、空間方向(水平、垂直の方向)および時間方向に亘っている。   Here, the positions of the n pixel data of the prediction tap selectively extracted by the first tap selection unit 51 are in the spatial direction (horizontal and vertical directions) and the temporal direction with respect to the target position in the HD signal. It is over.

Figure 2007243632
Figure 2007243632

そして、推定式の係数データWi(i=1乃至n)は、以下の式(5)に示すように、パラメータr、およびzを含む生成式によって生成される。情報メモリバンク61は、この生成式における係数データである係数種データw10乃至wn9を、クラス毎に格納する。この係数種データの生成方法については後述する。   Then, the coefficient data Wi (i = 1 to n) of the estimation formula is generated by a generation formula including parameters r and z as shown in the following formula (5). The information memory bank 61 stores coefficient seed data w10 to wn9, which are coefficient data in this generation formula, for each class. A method for generating the coefficient seed data will be described later.

Figure 2007243632
Figure 2007243632

上述したように、525i信号を1050i信号に変換する場合、奇数、および偶数のそれぞれのフィールドにおいて、525i信号の1画素に対応して1050i信号の4画素を得る必要がある。この場合、奇数、偶数のそれぞれのフィールドにおける1050i信号を構成する2&times;2の単位画素ブロック内の4画素は、それぞれ中心予測タップに対して異なる位相ずれを持っている。   As described above, when the 525i signal is converted into the 1050i signal, it is necessary to obtain four pixels of the 1050i signal corresponding to one pixel of the 525i signal in each of the odd and even fields. In this case, the four pixels in the 2 &times; 2 unit pixel block constituting the 1050i signal in each of the odd and even fields have different phase shifts with respect to the central prediction tap.

図8は、奇数フィールドにおける1050i信号を構成する2&times;2の単位画素ブロック内の4画素HD1乃至HD4における中心予測タップSD0からの位相ずれを示している。ここで、HD1乃至HD4の位置は、それぞれ、SD0の位置から水平方向にk1乃至k4、垂直方向にm1乃至m4だけずれている。   FIG. 8 shows a phase shift from the center prediction tap SD0 in the four pixels HD1 to HD4 in the 2 &times; 2 unit pixel block constituting the 1050i signal in the odd field. Here, the positions of HD1 to HD4 are shifted from the position of SD0 by k1 to k4 in the horizontal direction and m1 to m4 in the vertical direction, respectively.

図9は、偶数フィールドにおける1050i信号を構成する2&times;2の単位画素ブロック内の4画素HD1′乃至HD4′における中心予測タップSD0′からの位相ずれを示している。ここで、HD1′乃至HD4′の位置は、それぞれ、SD0′の位置から水平方向にk1′乃至k4′、垂直方向にm1′乃至m4′だけずれている。   FIG. 9 shows a phase shift from the center prediction tap SD0 ′ in the four pixels HD1 ′ to HD4 ′ in the 2 &times; 2 unit pixel block constituting the 1050i signal in the even field. Here, the positions of HD1 'to HD4' are shifted from the position of SD0 'by k1' to k4 'in the horizontal direction and m1' to m4 'in the vertical direction, respectively.

したがって、情報メモリバンク61には、クラスおよび出力画素(HD1乃至HD4,HD1′乃至HD4′)の組み合わせ毎に、係数種データw10乃至wn9が格納されている。   Accordingly, the information memory bank 61 stores coefficient seed data w10 to wn9 for each combination of class and output pixels (HD1 to HD4, HD1 'to HD4').

係数生成部62は、各クラスの係数種データ、並びに、パラメータr、およびzの値を用い、上述した式(5)によって、クラス毎に、パラメータr、およびzの値に対応した推定式の係数データWi(i=1乃至n)を生成する。係数生成部62には、情報メモリバンク61より、上述した各クラスの係数種データがロードされる。また、係数生成部62には、システムコントローラ32より、パラメータr、およびzの値が供給される。   The coefficient generation unit 62 uses the coefficient seed data of each class and the values of the parameters r and z, and calculates the estimation expression corresponding to the values of the parameters r and z for each class according to the above-described equation (5). Coefficient data Wi (i = 1 to n) is generated. The coefficient generation unit 62 is loaded with the above-described coefficient seed data of each class from the information memory bank 61. Further, the values of parameters r and z are supplied from the system controller 32 to the coefficient generator 62.

係数生成部62で生成される各クラスの係数データWi(i=1乃至n)は、上述した係数メモリ57に格納される。この係数生成部62における各クラスの係数データWiの生成は、例えば、各垂直ブランキング期間で行われる。これにより、ユーザのリモートコントローラ41の操作によってパラメータr、およびzの値が変更されても、係数メモリ57に格納される各クラスの係数データWiを、そのパラメータr、およびzの値に対応したものに即座に変更することができ、ユーザによるノイズや解像度の調整がスムーズに行われる。   The coefficient data Wi (i = 1 to n) of each class generated by the coefficient generation unit 62 is stored in the coefficient memory 57 described above. The generation of coefficient data Wi of each class in the coefficient generation unit 62 is performed, for example, in each vertical blanking period. Thereby, even if the values of the parameters r and z are changed by the user's operation of the remote controller 41, the coefficient data Wi of each class stored in the coefficient memory 57 corresponds to the values of the parameters r and z. It can be changed immediately, and noise and resolution can be adjusted smoothly by the user.

正規化係数演算部63は、係数生成部62で求められた係数データWi(i=1乃至n)に対応した正規化係数Sを、以下の式(6)によって演算する。正規化係数メモリ64は、この正規化係数Sを格納する。正規化係数メモリ64には、上述したクラス合成部56より出力されるクラスコードCLが、読み出しアドレス情報として供給され、正規化係数メモリ64からは、クラスコードCLに対応した正規化係数Sが読み出され、後述する正規化演算部59に供給される。   The normalization coefficient calculation unit 63 calculates the normalization coefficient S corresponding to the coefficient data Wi (i = 1 to n) obtained by the coefficient generation unit 62 using the following equation (6). The normalization coefficient memory 64 stores this normalization coefficient S. The normalization coefficient memory 64 is supplied with the class code CL output from the class synthesis unit 56 described above as read address information, and the normalization coefficient S corresponding to the class code CL is read from the normalization coefficient memory 64. And supplied to a normalization calculation unit 59 described later.

Figure 2007243632
Figure 2007243632

推定予測演算部58は、第1のタップ選択部51で選択的に取り出された予測タップのデータ(SD画素データ)xiと、係数メモリ57より読み出される係数データWiとから、式(4)の推定式によって、作成すべきHD信号の画素データ(注目位置の画素データ)を演算する。   The estimated prediction calculation unit 58 uses the prediction tap data (SD pixel data) xi selectively extracted by the first tap selection unit 51 and the coefficient data Wi read out from the coefficient memory 57 to obtain the equation (4). The pixel data of the HD signal to be created (pixel data at the target position) is calculated using the estimation formula.

上述したように、SD信号(525i信号)をHD信号(1050i信号)に変換する際には、SD信号の1画素に対してHD信号の4画素(図8のHD1乃至HD4、図9のHD1′乃至HD4′参照)を得る必要があることから、この推定予測演算部58では、HD信号を構成する2&times;2の単位画素ブロック毎に、画素データが生成される。すなわち、この推定予測演算部58には、第1のタップ選択部51より単位画素ブロック内の4画素(注目画素)に対応した予測タップのデータxiと、係数メモリ57よりその単位画素ブロックを構成する4画素に対応した係数データWiとが供給され、単位画素ブロックを構成する4画素のデータy1乃至y4は、それぞれ個別に、上述した式(4)の推定式で演算される。   As described above, when an SD signal (525i signal) is converted to an HD signal (1050i signal), four pixels of the HD signal (HD1 to HD4 in FIG. 8, HD1 in FIG. 9) are converted to one pixel of the SD signal. Therefore, the estimated prediction calculation unit 58 generates pixel data for each 2 &2; unit pixel block constituting the HD signal. That is, in the estimated prediction calculation unit 58, the first tap selection unit 51 configures prediction tap data xi corresponding to four pixels (target pixel) in the unit pixel block, and the coefficient memory 57 forms the unit pixel block. The coefficient data Wi corresponding to the four pixels to be supplied is supplied, and the data y1 to y4 of the four pixels constituting the unit pixel block are individually calculated by the estimation formula of the above-described formula (4).

正規化演算部59は、推定予測演算部58より順次出力される4画素のデータy1乃至y4を、正規化係数メモリ64より読み出される、それぞれの演算に使用された係数データWi(i=1乃至n)に対応した正規化係数Sで除算して正規化する。上述したように、係数生成部62は、推定式の係数データWiを求めるものであるが、求められる係数データは丸め誤差を含み、係数データWi(i=1乃至n)の総和が1.0になることは保証されない。そのため、推定予測演算部58で演算される各画素のデータy1乃至y4は、丸め誤差によってレベル変動したものとなる。したがって、正規化演算部59で正規化することで、そのレベル変動を除去することができる。   The normalization calculation unit 59 reads out the four-pixel data y1 to y4 sequentially output from the estimated prediction calculation unit 58 from the normalization coefficient memory 64, and uses coefficient data Wi (i = 1 to Normalize by dividing by the normalization coefficient S corresponding to n). As described above, the coefficient generation unit 62 obtains the coefficient data Wi of the estimation formula, but the obtained coefficient data includes a rounding error, and the sum of the coefficient data Wi (i = 1 to n) becomes 1.0. It is not guaranteed to be. For this reason, the data y1 to y4 of each pixel calculated by the estimated prediction calculation unit 58 has a level fluctuated due to a rounding error. Therefore, normalization by the normalization calculation unit 59 can remove the level fluctuation.

後処理部60は、正規化演算部59で正規化されて順次供給される単位画素ブロック内の4画素のデータy1′乃至y4′を線順次化して、1050i信号のフォーマットで出力する。   The post-processing unit 60 line-sequentially converts the four-pixel data y1 'to y4' in the unit pixel block, which are normalized and sequentially supplied by the normalization calculation unit 59, and outputs them in the format of 1050i signal.

システムコントローラ32は、通信部31からのユーザの操作信号が入力されると、その通知を情報生成制御部65に供給する。   When a user operation signal is input from the communication unit 31, the system controller 32 supplies the notification to the information generation control unit 65.

情報生成制御部65は、システムコントローラ32からユーザの操作信号の入力が通知されたタイミングで、特徴量頻度分布生成部66の処理を制御する。すなわち、情報生成制御部65は、特徴量頻度分布生成部66を制御し、ユーザが、例えば、選局、音量調整、解像度調整、または入力切替など、リモートコントローラ41を操作する度に、その時、バッファメモリ34に一時的に保存されるSD信号の画像の特徴量情報を求めさせる。   The information generation control unit 65 controls the processing of the feature amount frequency distribution generation unit 66 at the timing when the input of the user operation signal is notified from the system controller 32. That is, the information generation control unit 65 controls the feature amount frequency distribution generation unit 66, and whenever the user operates the remote controller 41 such as channel selection, volume adjustment, resolution adjustment, or input switching, for example, The feature amount information of the image of the SD signal temporarily stored in the buffer memory 34 is obtained.

特徴量頻度分布生成部66は、バッファメモリ34に記憶されているSD信号(525i信号)を入力し、入力したSD信号の画像の特徴量情報を、動きクラスおよび空間クラスの組み合わせ毎に生成し、生成した動きクラスおよび空間クラスの組み合わせ毎の画像の特徴量情報を、履歴情報メモリ13に記録する。例えば、画像の特徴量情報として、画像の特徴量頻度分布が求められる。   The feature amount frequency distribution generation unit 66 receives the SD signal (525i signal) stored in the buffer memory 34, and generates the feature amount information of the image of the input SD signal for each combination of the motion class and the space class. The feature amount information of the image for each combination of the generated motion class and space class is recorded in the history information memory 13. For example, an image feature amount frequency distribution is obtained as image feature amount information.

履歴情報メモリ13には、ユーザの操作信号が入力される毎、すなわち、ユーザがリモートコントローラ41を操作する毎に生成される、複数の画像の特徴量頻度分布のデータが、動きクラスおよび空間クラス毎に記憶される。また、図7の例においては、その図示は省略されているが、テレビジョン受信装置10において、履歴情報メモリ13は着脱可能な基板12上に構成されている。   In the history information memory 13, feature frequency distribution data of a plurality of images generated each time a user operation signal is input, that is, every time the user operates the remote controller 41, includes a motion class and a space class. It is memorized every time. In the example of FIG. 7, the illustration is omitted, but in the television receiver 10, the history information memory 13 is configured on a removable substrate 12.

なお、履歴情報メモリ13のみに限らず、情報生成制御部65および特徴量頻度分布生成部66を加えて、基板12上に構成されることもできる。また、履歴情報メモリ13のみに限らず、情報メモリバンク61も加えて、基板12上に構成してもよいし、機能のバージョンアップなどを可能にするため、画像信号処理部35全体が着脱可能な基板12上に構成されることもできる。   Not only the history information memory 13 but also the information generation control unit 65 and the feature amount frequency distribution generation unit 66 may be added to be configured on the substrate 12. Further, not only the history information memory 13 but also the information memory bank 61 may be added to be configured on the substrate 12, and the entire image signal processing unit 35 is detachable in order to make it possible to upgrade the function. It can also be constructed on a flexible substrate 12.

図10は、特徴量頻度分布生成部66の詳細な構成例を示すブロック図である。   FIG. 10 is a block diagram illustrating a detailed configuration example of the feature amount frequency distribution generation unit 66.

特徴量頻度分布生成部66の動きクラスタップ選択部71、空間クラスタップ選択部72、および、特徴量生成タップ選択部73は、情報生成制御部65の制御のもと、バッファメモリ34に記憶されているSD信号より、HD信号(1050i信号)における注目位置の周辺に位置する複数のSD画素のデータを選択的に取り出して出力する。   The motion class tap selection unit 71, the space class tap selection unit 72, and the feature amount generation tap selection unit 73 of the feature amount frequency distribution generation unit 66 are stored in the buffer memory 34 under the control of the information generation control unit 65. From the SD signal, data of a plurality of SD pixels located around the target position in the HD signal (1050i signal) is selectively extracted and output.

動きクラスタップ選択部71は、図7の第3のタップ選択部53と基本的に同様に構成され、動きに対応するクラス分類に使用するSD画素、すなわち、動きクラスタップのデータを選択的に取り出するものである。空間クラスタップ選択部72は、図7の第2のタップ選択部52と基本的に同様に構成され、SD画素データのレベル分布パターンに対応するクラス分類に使用するSD画素、すなわち、空間クラスタップのデータを選択的に取り出すものである。なお、空間クラスを複数フィールドに属するSD画素データを使用して決定する場合には、この空間クラスにも動き情報が含まれることになる。   The motion class tap selection unit 71 is configured basically in the same manner as the third tap selection unit 53 of FIG. 7, and selectively selects SD pixels used for class classification corresponding to motion, that is, motion class tap data. To take out. The space class tap selection unit 72 is basically configured in the same manner as the second tap selection unit 52 of FIG. 7, and is used for class classification corresponding to a level distribution pattern of SD pixel data, that is, a space class tap. The data is selectively extracted. When the space class is determined using SD pixel data belonging to a plurality of fields, motion information is also included in this space class.

特徴量生成タップ選択部73は、特徴量の生成に使用するSD画素(以下、「特徴量生成タップ」とも称する)のデータを選択的に取り出すものである。特徴量生成タップは、空間タップと同じタップ構造であってもよいし、異なるタップ構造でもよい。   The feature amount generation tap selection unit 73 selectively extracts data of SD pixels (hereinafter also referred to as “feature amount generation taps”) used for generation of feature amounts. The feature value generation tap may have the same tap structure as the space tap or a different tap structure.

動きクラス検出部74は、図7の動きクラス検出部55と同様に構成され、動きクラスタップ選択部71で選択的に取り出された動きクラスタップのデータ(SD画素データ)より、主に、動きの程度を表すための動きクラスを検出し、その動きクラスのクラス情報(MV)を出力する。   The motion class detection unit 74 is configured in the same manner as the motion class detection unit 55 of FIG. 7, and is mainly based on motion class tap data (SD pixel data) selectively extracted by the motion class tap selection unit 71. A motion class for representing the degree of the motion class is detected, and class information (MV) of the motion class is output.

空間クラス検出部75は、図7の空間クラス検出部54と同様に構成され、空間クラスタップ選択部72で選択的に取り出された空間クラスタップのデータ(SD画素データ)のレベル分布パターンを検出し、このレベル分布パターンに基づいて、空間クラスを検出し、その空間クラスのクラス情報(再量子化コードqi)を出力する。   The space class detection unit 75 is configured in the same manner as the space class detection unit 54 of FIG. 7, and detects the level distribution pattern of the space class tap data (SD pixel data) selectively extracted by the space class tap selection unit 72. Then, based on the level distribution pattern, a space class is detected, and class information (requantized code qi) of the space class is output.

特徴量生成部76は、特徴量生成タップ選択部73で選択的に取り出された特徴量生成タップのデータ(SD画素データ)より、SD画素の特徴量を生成し、その特徴量の値(データ)を出力する。なお、動きクラス検出部74で検出される動きクラスも、空間クラス検出部75で検出される空間クラスも入力されるSD信号に対して画素毎に検出されるが、特徴量生成部76においても、それらと同じ画素毎に特徴量が生成される。   The feature amount generation unit 76 generates a feature amount of the SD pixel from the feature amount generation tap data (SD pixel data) selectively extracted by the feature amount generation tap selection unit 73, and the feature amount value (data ) Is output. Note that the motion class detected by the motion class detector 74 is also detected for each pixel with respect to the SD signal to which the spatial class detected by the space class detector 75 is input. A feature amount is generated for each of the same pixels.

図11は、水平方向の画素xo乃至x6の各画素値と、これらの画素値から生成される特徴量の例を示している。図11の例における画素xo乃至x6の画素値における最大値は、Maxであり、最小値は、Minである。   FIG. 11 shows an example of the pixel values of the pixels xo to x6 in the horizontal direction and feature amounts generated from these pixel values. The maximum value of the pixel values of the pixels xo to x6 in the example of FIG. 11 is Max, and the minimum value is Min.

例えば、画素xo乃至x6の7画素が特徴量生成タップとして選択され、画素x3の特徴量が求められるとする。このとき、これらの画素xo乃至x6の7画素の画素値を用いて生成することができる値が、画素x3の特徴量となる。   For example, it is assumed that seven pixels of pixels xo to x6 are selected as feature amount generation taps and the feature amount of the pixel x3 is obtained. At this time, a value that can be generated using the pixel values of the seven pixels xo to x6 is the feature amount of the pixel x3.

すなわち、図11に示されるように、これらの画素xo乃至x6の7画素の画素値を用いて生成される、画素xo乃至x6の画素値のタップ内最大値Max、画素xo乃至x6の画素値のタップ内最小値Min、画素xo乃至x6の画素値のダイナミックレンジDR、画素xo乃至x6の画素値の中間値Mean、または画素xo乃至x6の画素値の平均値Aveなどの値が、画素x3の特徴量として用いられる。   That is, as shown in FIG. 11, the in-tap maximum value Max of the pixel values of the pixels xo to x6 and the pixel value of the pixels xo to x6 generated using the pixel values of the seven pixels xo to x6. The minimum value Min within the tap, the dynamic range DR of the pixel values of the pixels xo to x6, the intermediate value Mean of the pixel values of the pixels xo to x6, or the average value Ave of the pixel values of the pixels xo to x6 is a pixel x3. It is used as a feature amount.

なお、これらのタップ内最大値Max、タップ内最小値Min、ダイナミックレンジDR、中間値Mean、および平均値Aveのうちの複数の種類を生成して、画素の特徴量として用いることもできるし、1種類のみを生成して、画素の特徴量として用いることもできる。   In addition, it is possible to generate a plurality of types of the maximum value Max within the tap, the minimum value Min within the tap, the dynamic range DR, the intermediate value Mean, and the average value Ave, and use them as the feature amount of the pixel. Only one type can be generated and used as a feature amount of a pixel.

特徴量頻度分布演算部77は、同じ画素に対応する、動きクラス検出部74より検出された動きクラス、空間クラス検出部75より検出された空間クラス、および特徴量生成部76より生成された特徴量に基づき、特徴量情報、すなわち、特徴量頻度分布(ヒストグラム)を生成していく。このとき、特徴量頻度分布は、同時に入力される動きクラスと空間クラスの組み合わせ毎に生成され、そのデータは、動きクラスと空間クラスの組み合わせ毎に履歴情報メモリ13に記憶される。   The feature amount frequency distribution calculation unit 77 corresponds to the same pixel, the motion class detected by the motion class detection unit 74, the space class detected by the space class detection unit 75, and the feature generated by the feature amount generation unit 76. Based on the quantity, feature quantity information, that is, feature quantity frequency distribution (histogram) is generated. At this time, the feature amount frequency distribution is generated for each combination of the motion class and the space class input simultaneously, and the data is stored in the history information memory 13 for each combination of the motion class and the space class.

図12は、画素の特徴量値と特徴量頻度分布の例を示している。図12の例においては、画像を構成する複数の画素のうち、画素a1乃至画素a12の特徴量値と、これらの特徴量値から生成される特徴量頻度分布が示されている。この特徴量頻度分布は、横軸を特徴量値とし、縦軸を頻度として構成されている。   FIG. 12 shows an example of pixel feature value and feature frequency distribution. In the example of FIG. 12, the feature amount values of the pixels a1 to a12 among the plurality of pixels constituting the image and the feature amount frequency distribution generated from these feature amount values are shown. The feature amount frequency distribution is configured with the horizontal axis as the feature amount value and the vertical axis as the frequency.

例えば、画素a1と画素a12の特徴量値は50であるので、特徴量頻度分布演算部77は、特徴量頻度分布における特徴量値50の頻度を2カウントする。画素a2乃至画素a4、および画素a7の特徴量値は100であるので、特徴量頻度分布演算部77は、特徴量頻度分布における特徴量値100の頻度を4カウントする。画素a5の特徴量値は240であるので、特徴量頻度分布演算部77は、特徴量頻度分布における特徴量値240の頻度を1カウントする。   For example, since the feature amount value of the pixel a1 and the pixel a12 is 50, the feature amount frequency distribution calculation unit 77 counts the frequency of the feature amount value 50 in the feature amount frequency distribution by two. Since the feature amount values of the pixels a2 to a4 and the pixel a7 are 100, the feature amount frequency distribution calculation unit 77 counts the frequency of the feature amount value 100 in the feature amount frequency distribution by four. Since the feature amount value of the pixel a5 is 240, the feature amount frequency distribution calculating unit 77 counts the frequency of the feature amount value 240 in the feature amount frequency distribution by one.

画素a6と画素a11の特徴量値は80であるので、特徴量頻度分布演算部77は、特徴量頻度分布における特徴量値80の頻度を2カウントする。画素a8の特徴量値は20であるので、特徴量頻度分布演算部77は、特徴量頻度分布における特徴量値20の頻度を1カウントする。画素a9の特徴量値は200であるので、特徴量頻度分布演算部77は、特徴量頻度分布における特徴量値200の頻度を1カウントする。画素a10の特徴量値は10であるので、特徴量頻度分布演算部77は、特徴量頻度分布における特徴量値10の頻度を1カウントする。   Since the feature amount value of the pixel a6 and the pixel a11 is 80, the feature amount frequency distribution calculating unit 77 counts the frequency of the feature amount value 80 in the feature amount frequency distribution by two. Since the feature amount value of the pixel a8 is 20, the feature amount frequency distribution calculating unit 77 counts the frequency of the feature amount value 20 in the feature amount frequency distribution by one. Since the feature amount value of the pixel a9 is 200, the feature amount frequency distribution calculation unit 77 counts the frequency of the feature amount value 200 in the feature amount frequency distribution by one. Since the feature amount value of the pixel a10 is 10, the feature amount frequency distribution calculation unit 77 counts the frequency of the feature amount value 10 in the feature amount frequency distribution by one.

なお、この特徴量頻度分布は、同時に入力される動きクラスと空間クラスの組み合わせ毎に生成され、そのデータは、動きクラスと空間クラスの組み合わせ毎に履歴情報メモリ13に記録されていく。   This feature amount frequency distribution is generated for each combination of motion class and space class input simultaneously, and the data is recorded in the history information memory 13 for each combination of motion class and space class.

図13は、履歴情報メモリ13に記憶されている各ユーザ視聴画像の特徴量頻度分布の例を示している。   FIG. 13 shows an example of the feature amount frequency distribution of each user viewing image stored in the history information memory 13.

履歴情報メモリ13には、図13に示されるように、リモートコントローラ41からのユーザの操作信号が入力される毎にSD信号から生成される、ユーザが視聴する画像(すなわち、ユーザ視聴画像)の特徴量頻度分布のデータが、動きクラスおよび空間クラスの組み合わせ毎に記憶されている。   In the history information memory 13, as shown in FIG. 13, every time a user operation signal from the remote controller 41 is input, an image viewed by the user (that is, a user viewing image) generated from the SD signal is input. Feature amount frequency distribution data is stored for each combination of motion class and space class.

例えば、リモートコントローラ41から、ユーザの選局に対応する操作信号、ユーザの入力切替に対応する操作信号、または、ユーザの解像度調整に対応する操作信号などのユーザの操作信号が入力されたとき毎に生成されたユーザ視聴画像1乃至nの特徴量頻度分布のデータが、それぞれ、動きクラス0乃至Pおよび空間クラス0乃至Nの組み合わせ毎に記憶されている。   For example, every time a user operation signal such as an operation signal corresponding to the user's channel selection, an operation signal corresponding to the user's input switching, or an operation signal corresponding to the user's resolution adjustment is input from the remote controller 41. The feature frequency distribution data of the user viewing images 1 to n generated in the above are stored for each combination of motion classes 0 to P and space classes 0 to N, respectively.

すなわち、各ユーザ視聴画像1乃至nに対して、動きクラス0および空間クラス0の特徴量頻度分布のデータ、動きクラス0および空間クラス1の特徴量頻度分布のデータ、動きクラス0および空間クラス2の特徴量頻度分布のデータ、…、動きクラス0および空間クラスPの特徴量頻度分布のデータ、動きクラス1および空間クラス0の特徴量頻度分布のデータ、動きクラス2および空間クラス0の特徴量頻度分布のデータ、動きクラスNおよび空間クラス0の特徴量頻度分布のデータ、………、動きクラスPおよび空間クラスNの特徴量頻度分布のデータというように、(P+1)×(N+1)ずつの特徴量頻度分布のデータが記憶されている。   That is, for each of the user viewing images 1 to n, motion class 0 and space class 0 feature quantity frequency distribution data, motion class 0 and space class 1 feature quantity frequency distribution data, motion class 0 and space class 2 Feature quantity frequency distribution data,..., Motion class 0 and space class P feature quantity frequency distribution data, motion class 1 and space class 0 feature quantity frequency distribution data, motion class 2 and space class 0 feature quantities (P + 1) × (N + 1) each, such as frequency distribution data, motion class N and space class 0 feature amount frequency distribution data,..., Motion class P and space class N feature amount frequency distribution data Is stored.

なお、上記説明においては、リモートコントローラ41からの操作信号が入力される度に特徴量情報が生成される場合を説明したが、一定時間おきに生成することもできるし、特定の操作信号が入力された場合のみ生成することもできる。   In the above description, the case where the feature amount information is generated every time the operation signal from the remote controller 41 is input has been described. However, the feature amount information can be generated every predetermined time, or a specific operation signal is input. It can also be generated only when

また、図7の特徴量頻度分布生成部66においては、図10の例に構成される動きクラスタップ選択部71と動きクラス検出部74、および空間クラスタップ選択部72と空間クラス検出部75を別途設けることなく、図7の画像信号処理部35内の第3のタップ選択部53と動きクラス検出部55、および第2のタップ選択部52と空間クラス検出部54を併用するように構成することもできる。   Further, in the feature quantity frequency distribution generation unit 66 of FIG. 7, the motion class tap selection unit 71 and the motion class detection unit 74, and the space class tap selection unit 72 and the space class detection unit 75 configured in the example of FIG. The third tap selection unit 53 and the motion class detection unit 55, and the second tap selection unit 52 and the space class detection unit 54 in the image signal processing unit 35 of FIG. You can also.

図5に戻り、再び、テレビジョン受信装置10の構成について説明する。   Returning to FIG. 5, the configuration of the television receiver 10 will be described again.

OSD(On Screen Display)処理部36は、表示部38の画面上に文字図形などの表示を行うための表示信号SCHを発生する。合成部37は、OSD処理部36から出力される表示信号SCHを、画像信号処理部35から出力されるHD信号に合成して、表示部38に供給する。表示部38は、例えば、CRT(cathode-ray tube)ディスプレイ、あるいはLCD(liquid crystal display)等のフラットパネルディスプレイで構成され、画像信号処理部35より出力されるHD信号による画像と、必要に応じて合成部37により合成された表示信号SCHとを表示する。   An OSD (On Screen Display) processing unit 36 generates a display signal SCH for displaying a character graphic on the screen of the display unit 38. The combining unit 37 combines the display signal SCH output from the OSD processing unit 36 with the HD signal output from the image signal processing unit 35 and supplies the combined signal to the display unit 38. The display unit 38 is configured by a flat panel display such as a CRT (cathode-ray tube) display or LCD (liquid crystal display), for example, and an image based on the HD signal output from the image signal processing unit 35 and, if necessary. The display signal SCH combined by the combining unit 37 is displayed.

また、システムコントローラ32には、必要に応じてドライブ39が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは、半導体メモリなどのリムーバブルメディア40が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じてシステムコントローラ32にインストールされる。   In addition, a drive 39 is connected to the system controller 32 as necessary, and a removable medium 40 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from them is loaded. Installed in the system controller 32 as necessary.

図5のテレビジョン受信装置10の動作について説明する。   The operation of the television receiver 10 in FIG. 5 will be described.

システムコントローラ32は、リモートコントローラ41を用いて入力されるユーザの操作に基づいて、チューナ33を制御する。チューナ33は、システムコントローラ32の制御に従って、アンテナ11で受信された放送信号に対して、選局処理、中間周波増幅処理、および検波処理などを行い、バッファメモリ34に出力する。   The system controller 32 controls the tuner 33 based on a user operation input using the remote controller 41. The tuner 33 performs channel selection processing, intermediate frequency amplification processing, detection processing, and the like on the broadcast signal received by the antenna 11 under the control of the system controller 32, and outputs the result to the buffer memory 34.

チューナ33より出力されるSD信号(525i信号)は、バッファメモリ34に供給されて、一時的に保存される。そして、バッファメモリ34に一時的に記憶されたSD信号は、画像信号処理部35に供給され、システムコントローラ32から供給される制御信号を基に、HD信号(1050i信号)に変換される。   The SD signal (525i signal) output from the tuner 33 is supplied to the buffer memory 34 and temporarily stored. The SD signal temporarily stored in the buffer memory 34 is supplied to the image signal processing unit 35 and converted into an HD signal (1050i signal) based on a control signal supplied from the system controller 32.

すなわち、画像信号処理部35では、SD信号を構成する画素データ(以下、「SD画素データ」と称する)から、HD信号を構成する画素データ(以下、「HD画素データ」と称する)を得ることができる。画像信号処理部35より出力されるHD信号は、必要に応じて、合成部37において、OSD処理部36から出力される表示信号SCHによる文字図形などと合成されて、表示部38に供給され、表示部38の画面上に、画像が表示される。   That is, the image signal processing unit 35 obtains pixel data constituting the HD signal (hereinafter referred to as “HD pixel data”) from pixel data constituting the SD signal (hereinafter referred to as “SD pixel data”). Can do. The HD signal output from the image signal processing unit 35 is combined with a character graphic or the like by the display signal SCH output from the OSD processing unit 36 in the combining unit 37 as necessary, and is supplied to the display unit 38. An image is displayed on the screen of the display unit 38.

また、ユーザは、リモートコントローラ41の操作によって、表示部38の画面上に表示される画像の水平および垂直の解像度と、ノイズ除去度(ノイズ低減度)を調整することができる。画像信号処理部35では、推定式によって、HD画素データが算出されるが、この推定式の係数データとして、ユーザのリモートコントローラ41の操作によって調整された、水平および垂直の解像度を定めるパラメータrおよびノイズ除去度を定めるパラメータzに対応したものが、これらパラメータr、およびzを含む生成式によって生成されて使用される。これにより、画像信号処理部35から出力されるHD信号による画像の水平および垂直の解像度およびノイズ除去度は、調整されたパラメータr、およびzに対応したものとなる。   Further, the user can adjust the horizontal and vertical resolutions of the image displayed on the screen of the display unit 38 and the noise removal degree (noise reduction degree) by operating the remote controller 41. In the image signal processing unit 35, HD pixel data is calculated by the estimation formula. As coefficient data of the estimation formula, parameters r and horizontal resolution that are adjusted by the user's operation of the remote controller 41 and r are determined. The one corresponding to the parameter z that determines the degree of noise removal is generated and used by a generation formula including these parameters r and z. As a result, the horizontal and vertical resolution and noise removal degree of the image by the HD signal output from the image signal processing unit 35 correspond to the adjusted parameters r and z.

図14は、パラメータr、およびzを調整するためのユーザインタフェースの一例を示している。調整時には、表示部38に、パラメータr、およびzの調整位置を、図中星印のアイコン82で示した調整画面81が、OSD表示される。また、リモートコントローラ41は、ユーザ操作手段としてのジョイスティック91を備えている。   FIG. 14 shows an example of a user interface for adjusting the parameters r and z. At the time of adjustment, an adjustment screen 81 in which the adjustment positions of the parameters r and z are indicated by an asterisk icon 82 in the drawing is displayed on the display unit 38 as an OSD. The remote controller 41 includes a joystick 91 as user operation means.

ユーザは、ジョイスティック91を操作することで、調整画面81上でアイコン82の位置を動かすことができ、水平および垂直の解像度を決定するパラメータr、およびノイズ除去度を決定するパラメータzの値を調整することができる。   The user can move the position of the icon 82 on the adjustment screen 81 by operating the joystick 91, and adjust the values of the parameter r that determines the horizontal and vertical resolutions and the parameter z that determines the degree of noise removal. can do.

図15に、図14の調整画面81の部分を拡大して示す。アイコン82が左右に動かされることでノイズ除去度を決定するパラメータzの値が調整され、一方アイコン82が上下に動かされることで水平および垂直の解像度を決定するパラメータrの値が調整される。ユーザは、表示部38に表示される調整画面81を参照して、パラメータr、およびzの値の調整を容易に行うことができる。   FIG. 15 shows an enlarged view of the adjustment screen 81 shown in FIG. The value of parameter z that determines the degree of noise removal is adjusted by moving icon 82 left and right, while the value of parameter r that determines the horizontal and vertical resolution is adjusted by moving icon 82 up and down. The user can easily adjust the values of the parameters r and z with reference to the adjustment screen 81 displayed on the display unit 38.

なお、リモートコントローラ41は、ジョイスティック91の代わりに、マウスやトラックボール等のその他のポインティングデバイスを備えるようにしてもよい。更に、ユーザによって調整されたパラメータr、およびzの値が、調整画面81上に数値表示されるようにしてもよい。   Note that the remote controller 41 may include other pointing devices such as a mouse and a trackball instead of the joystick 91. Further, the values of the parameters r and z adjusted by the user may be displayed numerically on the adjustment screen 81.

次に、図7を参照して上述した画像信号処理部35の動作を説明する。   Next, the operation of the image signal processing unit 35 described above will be described with reference to FIG.

第2のタップ選択部52は、バッファメモリ34に記憶されているSD信号(525i信号)の供給を受け、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する空間クラスタップのデータ(SD画素データ)を、選択的に取り出す。第2のタップ選択部52で選択的に取り出された空間クラスタップのデータ(SD画素データ)は、空間クラス検出部54に供給される。空間クラス検出部54は、空間クラスタップのデータとしての各SD画素データに対して、ADRC処理を施して、空間クラス(主に空間内の波形表現のためのクラス分類)のクラス情報としての再量子化コードqiを得る(式(1)参照)。   The second tap selection unit 52 is supplied with the SD signal (525i signal) stored in the buffer memory 34 and receives four pixels (attention position) in the unit pixel block constituting the HD signal (1050i signal) to be created. The space class tap data (SD pixel data) located around the (pixel) is selectively extracted. The space class tap data (SD pixel data) selectively extracted by the second tap selection unit 52 is supplied to the space class detection unit 54. The space class detection unit 54 performs ADRC processing on each SD pixel data as space class tap data, and re-creates the space class (mainly class classification for waveform representation in space) as class information. A quantization code qi is obtained (see equation (1)).

また、第3のタップ選択部53は、バッファメモリ34に記憶されているSD信号(525i信号)の供給を受け、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する動きクラスタップのデータ(SD画素データ)を選択的に取り出す。第3のタップ選択部53で選択的に取り出された動きクラスタップのデータ(SD画素データ)は、動きクラス検出部55に供給される。動きクラス検出部55は、動きクラスタップのデータとしての各SD画素データより、動きクラス(主に動きの程度を表すためのクラス分類)のクラス情報MVを得る。   The third tap selection unit 53 is supplied with the SD signal (525i signal) stored in the buffer memory 34 and receives four pixels (unit pixels) constituting the HD signal (1050i signal) to be created. Data of motion class taps (SD pixel data) located around the pixel at the target position) is selectively extracted. The motion class tap data (SD pixel data) selectively extracted by the third tap selection unit 53 is supplied to the motion class detection unit 55. The motion class detection unit 55 obtains class information MV of a motion class (mainly class classification for representing the degree of motion) from each SD pixel data as motion class tap data.

この動き情報MVと、再量子化コードqiとは、クラス合成部56に供給される。クラス合成部56は、供給された動き情報MVと再量子化コードqiとから、作成すべきHD信号(1050i信号)を構成する単位画素ブロック毎に、その単位画素ブロック内の4画素(注目画素)が属するクラスを示すクラスコードCLを得る(式(3)参照)。そして、このクラスコードCLは、係数メモリ57および正規化係数メモリ64に、読み出しアドレス情報として供給される。   The motion information MV and the requantization code qi are supplied to the class synthesis unit 56. For each unit pixel block constituting the HD signal (1050i signal) to be created from the supplied motion information MV and the requantization code qi, the class synthesis unit 56 includes four pixels (target pixel) in the unit pixel block. ) To obtain the class code CL indicating the class to which it belongs (see equation (3)). The class code CL is supplied to the coefficient memory 57 and the normalized coefficient memory 64 as read address information.

例えば、各垂直ブランキング期間に、係数生成部62で、ユーザによって調整されたパラメータr、およびzの値に対応して、クラスおよび出力画素(HD1乃至HD4,HD1′乃至HD4′)の組み合わせ毎に、係数種データw10乃至wn9を用いて、推定式の係数データWi(i=1乃至n)が求められて、係数メモリ57に格納される(式(5)参照)。また、係数生成部62で求められた推定式の係数データWi(i=1乃至n)に対応した正規化係数Sが、正規化係数演算部63で生成されて、正規化係数メモリ64に格納される(式(6)参照)。   For example, in each vertical blanking period, for each combination of class and output pixels (HD1 to HD4, HD1 ′ to HD4 ′) corresponding to the values of parameters r and z adjusted by the user in the coefficient generation unit 62. The coefficient data Wi (i = 1 to n) of the estimation formula is obtained using the coefficient seed data w10 to wn9 and stored in the coefficient memory 57 (see formula (5)). Also, the normalization coefficient S corresponding to the coefficient data Wi (i = 1 to n) of the estimation formula obtained by the coefficient generation unit 62 is generated by the normalization coefficient calculation unit 63 and stored in the normalization coefficient memory 64. (See equation (6)).

クラスコードCLが、係数メモリ57に読み出しアドレス情報として供給されることで、この係数メモリ57からクラスコードCLに対応した4出力画素(奇数フィールドではHD1乃至HD4、偶数フィールドではHD1′乃至HD4′)分の推定式の係数データWiが読み出されて、推定予測演算部58に供給される。また、第1のタップ選択部51は、バッファメモリ34に記憶されているSD信号(525i信号)の供給を受け、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する予測タップのデータ(SD画素データ)を選択的に取り出す。   By supplying the class code CL to the coefficient memory 57 as read address information, four output pixels corresponding to the class code CL from the coefficient memory 57 (HD1 to HD4 in the odd field, HD1 ′ to HD4 ′ in the even field). The coefficient data Wi of the estimation equation for the minute is read and supplied to the estimated prediction calculation unit 58. Further, the first tap selection unit 51 receives the SD signal (525i signal) stored in the buffer memory 34, and receives four pixels (unit pixels) constituting the HD signal (1050i signal) to be generated ( Predictive tap data (SD pixel data) located around the pixel of interest position) is selectively extracted.

推定予測演算部58は、予測タップのデータ(SD画素データ)xiと、係数メモリ57より読み出される4出力画素分の係数データWiとから、作成すべきHD信号を構成する単位画素ブロック内の4画素(注目位置の画素)のデータy1乃至y4を演算する(式(4)参照)。そして、この推定予測演算部58より順次出力されるHD信号を構成する単位画素ブロック内の4画素のデータy1乃至y4は、正規化演算部59に供給される。   The estimated prediction calculation unit 58 uses the prediction tap data (SD pixel data) xi and the coefficient data Wi for four output pixels read from the coefficient memory 57, and the 4 in the unit pixel block constituting the HD signal to be created. Data y1 to y4 of the pixels (pixels at the target position) are calculated (see Expression (4)). The four-pixel data y1 to y4 in the unit pixel block constituting the HD signal sequentially output from the estimated prediction calculation unit 58 is supplied to the normalization calculation unit 59.

正規化係数メモリ64には、上述したように、クラスコードCLが読み出しアドレス情報として供給され、正規化係数メモリ64からはクラスコードCLに対応した正規化係数S、つまり、推定予測演算部58より出力されるHD画素データy1乃至y4の演算に使用された係数データWiに対応した正規化係数Sが読み出されて、正規化演算部59に供給される。正規化演算部59は、推定予測演算部58より出力されるHD画素データy1乃至y4を、それぞれ対応する正規化係数Sで除算して正規化する。これにより、係数生成部62で係数データWiを求める際の丸め誤差によるデータy1乃至y4のレベル変動が除去される。   As described above, the class code CL is supplied to the normalization coefficient memory 64 as read address information. From the normalization coefficient memory 64, the normalization coefficient S corresponding to the class code CL, that is, from the estimated prediction calculation unit 58, is supplied. The normalization coefficient S corresponding to the coefficient data Wi used for the calculation of the output HD pixel data y1 to y4 is read and supplied to the normalization calculation unit 59. The normalization calculation unit 59 normalizes the HD pixel data y1 to y4 output from the estimated prediction calculation unit 58 by dividing by the corresponding normalization coefficient S. Thereby, the level fluctuation of the data y1 to y4 due to the rounding error when the coefficient generation unit 62 obtains the coefficient data Wi is removed.

このように、正規化演算部59で正規化されて順次出力される単位画素ブロック内の4画素のデータy1′乃至y4′は、後処理部50に供給される。後処理部50は、正規化演算部59より順次供給される単位画素ブロック内の4画素のデータy1′乃至y4′を線順次化し、1050i信号のフォーマットで出力する。つまり、後処理部50からは、HD信号としての1050i信号が出力される。   As described above, the data y1 ′ to y4 ′ of the four pixels in the unit pixel block which are normalized by the normalization calculation unit 59 and sequentially output are supplied to the post-processing unit 50. The post-processing unit 50 line-sequentially converts the four-pixel data y1 'to y4' in the unit pixel block sequentially supplied from the normalization calculation unit 59 and outputs the data in the format of 1050i signal. That is, the post-processing unit 50 outputs a 1050i signal as an HD signal.

以上のように、画像信号処理部35は、調整されたパラメータr、およびzの値に対応した推定式の係数データWi(i=1乃至n)を用いて、HD画素データyを演算するものである。したがって、ユーザは、パラメータr、およびzの値を調整することで、HD信号による画像の水平および垂直の解像度とノイズ除去度を自由に調整することができる。また、調整されたパラメータr、およびzの値に対応した各クラスの係数データは、その都度、係数生成部62で生成されて使用されるものであるので、大量の係数データを格納しておくメモリは必要なくなり、メモリの節約を図ることができる。   As described above, the image signal processing unit 35 calculates the HD pixel data y using the coefficient data Wi (i = 1 to n) of the estimation formula corresponding to the adjusted parameters r and z. It is. Therefore, the user can freely adjust the horizontal and vertical resolutions of the image by the HD signal and the noise removal degree by adjusting the values of the parameters r and z. In addition, since the coefficient data of each class corresponding to the adjusted values of the parameters r and z is generated and used by the coefficient generation unit 62 each time, a large amount of coefficient data is stored. Memory is not necessary, and memory saving can be achieved.

次に、図10の特徴量頻度分布生成部66の動作を説明する。   Next, the operation of the feature amount frequency distribution generation unit 66 in FIG. 10 will be described.

例えば、リモートコントローラ41から、ユーザの選局に対応する操作信号、ユーザの入力切替に対応する操作信号、またはユーザの解像度調整に対応する操作信号などが入力されると、システムコントローラ32からは、各操作信号が入力された通知が情報生成制御部65に供給される。   For example, when an operation signal corresponding to user tuning, an operation signal corresponding to user input switching, or an operation signal corresponding to user resolution adjustment is input from the remote controller 41, the system controller 32 A notification that each operation signal is input is supplied to the information generation control unit 65.

システムコントローラ32から操作信号の入力の通知が供給されると、情報生成制御部65は、動きクラスタップ選択部71、空間クラスタップ選択部72、および、特徴量生成タップ選択部73に処理を開始させる。   When an operation signal input notification is supplied from the system controller 32, the information generation control unit 65 starts processing to the motion class tap selection unit 71, the space class tap selection unit 72, and the feature quantity generation tap selection unit 73. Let

動きクラスタップ選択部71は、バッファメモリ34に記憶されているSD信号の供給を受け、SD信号(525i信号)より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する動きクラスタップ(複数のSD画素)のデータを選択的に取り出す。動きクラスタップ選択部71で選択的に取り出された動きクラスタップのデータは、動きクラス検出部74に供給される。   The motion class tap selection unit 71 is supplied with the SD signal stored in the buffer memory 34, and the four pixels in the unit pixel block constituting the HD signal (1050i signal) to be generated from the SD signal (525i signal). Data of motion class taps (a plurality of SD pixels) located around (a pixel at the target position) is selectively extracted. The motion class tap data selectively extracted by the motion class tap selection unit 71 is supplied to the motion class detection unit 74.

動きクラス検出部74は、動きクラスタップのデータとしての各SD画素データより、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素に囲まれるSD画素の動きクラス(主に動きの程度を表すためのクラス分類)を検出し、検出したSD画素の動きクラスのクラス情報(MV)を、特徴量頻度分布演算部77に出力する。   The motion class detection unit 74 uses the SD pixel data as the motion class tap data to move the SD pixel motion class (mainly, four pixels in the unit pixel block constituting the HD signal (1050i signal) to be created. Class classification for representing the degree of motion) is detected, and class information (MV) of the detected motion class of the SD pixel is output to the feature amount frequency distribution calculation unit 77.

また、空間クラスタップ選択部72は、バッファメモリ34に記憶されているSD信号(525i信号)の供給を受け、SD信号より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する空間クラスタップ(複数のSD画素)のデータを選択的に取り出す。空間クラスタップ選択部72で選択的に取り出された空間クラスタップのデータは、空間クラス検出部75に供給される。   Also, the space class tap selection unit 72 receives the SD signal (525i signal) stored in the buffer memory 34, and in the unit pixel block constituting the HD signal (1050i signal) to be created from the SD signal. Data of space class taps (a plurality of SD pixels) located around four pixels (the pixel at the target position) is selectively extracted. The space class tap data selectively extracted by the space class tap selection unit 72 is supplied to the space class detection unit 75.

空間クラス検出部75は、空間クラスタップのデータとしての各SD画素データに対して、ADRC処理を施して、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素に囲まれるSD画素の空間クラス(主に空間内の波形表現のためのクラス分類)のクラス情報としての再量子化コード(qi)を得て、特徴量頻度分布演算部77に出力する。   The space class detection unit 75 performs ADRC processing on each SD pixel data as space class tap data, and is surrounded by four pixels in a unit pixel block constituting an HD signal (1050i signal) to be created. A requantization code (qi) as class information of the SD pixel spatial class (mainly class classification for waveform expression in the space) is obtained and output to the feature quantity frequency distribution calculation unit 77.

さらに、特徴量生成タップ選択部73は、バッファメモリ34に記憶されているSD信号(525i信号)の供給を受け、SD信号より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する特徴量生成タップ(複数のSD画素)のデータを選択的に取り出す。特徴量生成タップ選択部73で選択的に取り出された特徴量生成タップのデータは、特徴量生成部76に供給される。   Further, the feature quantity generation tap selection unit 73 is supplied with the SD signal (525i signal) stored in the buffer memory 34, and in the unit pixel block constituting the HD signal (1050i signal) to be created from the SD signal. The data of the feature value generation taps (a plurality of SD pixels) located around the four pixels (the pixel at the target position) are selectively extracted. The feature value generation tap data selectively extracted by the feature value generation tap selection unit 73 is supplied to the feature value generation unit 76.

特徴量生成部76は、特徴量生成タップ選択部73で選択的に取り出された特徴量生成タップのデータとしてのSD画素データより、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素に囲まれるSD画素の特徴量である、例えば、最大値および最小値などを生成し、生成したSD画素の特徴量の値を特徴量頻度分布演算部77に出力する。   The feature quantity generation unit 76 uses the SD pixel data as the feature quantity generation tap data selectively extracted by the feature quantity generation tap selection unit 73 in the unit pixel block constituting the HD signal (1050i signal) to be created. For example, a maximum value and a minimum value, which are feature amounts of the SD pixels surrounded by the four pixels, are generated, and the generated feature value values of the SD pixels are output to the feature amount frequency distribution calculation unit 77.

同じSD画素について求められた動きクラス、空間クラス、および特徴量の各情報は、特徴量頻度分布演算部77に供給される。特徴量頻度分布演算部77は、動きクラスおよび空間クラスの組み合わせ毎に、特徴量の頻度をカウントし、特徴量頻度分布(ヒストグラム)を生成し、生成した特徴量頻度分布のデータを、動きクラスおよび空間クラスの組み合わせ毎に履歴情報メモリ13に記録する。   Information about the motion class, the space class, and the feature amount obtained for the same SD pixel is supplied to the feature amount frequency distribution calculation unit 77. The feature quantity frequency distribution calculation unit 77 counts the feature quantity frequency for each combination of the motion class and the space class, generates a feature quantity frequency distribution (histogram), and uses the generated feature quantity frequency distribution data as the motion class. And it records in the history information memory 13 for each combination of space classes.

このようにして、操作信号が入力される度に履歴情報メモリ13に記録される、ユーザ視聴画像の特徴量頻度分布のデータは、例えば、テレビジョン受信装置10のバージョンアップ等の場合において、その情報メモリバンク61に格納される係数種データw10乃至wn9を生成する際などに利用される。   In this way, the feature frequency distribution data of the user viewing image that is recorded in the history information memory 13 every time an operation signal is input is, for example, in the case of version upgrade of the television receiver 10 or the like. This is used when generating the coefficient seed data w10 to wn9 stored in the information memory bank 61.

すなわち、情報メモリバンク61に格納される係数種データw10乃至wn9は、予測係数生成装置20において、履歴情報メモリ13に記録されるユーザ視聴画像の特徴量頻度分布のデータを用いて生成されるものである。   That is, the coefficient seed data w10 to wn9 stored in the information memory bank 61 is generated by the prediction coefficient generation apparatus 20 using the feature amount frequency distribution data of the user viewing image recorded in the history information memory 13. It is.

次に、係数種データw10乃至wn9の生成方法の一例について説明する。この例においては、上述した式(5)の生成式における係数データである係数種データw10乃至wn9を求める例を示すものとする。   Next, an example of a method for generating the coefficient seed data w10 to wn9 will be described. In this example, an example is shown in which coefficient seed data w10 to wn9, which are coefficient data in the generation formula of the above-described formula (5), are obtained.

ここで、以下の説明のため、式(7)のように、ti(i=0乃至9)を定義する。   Here, for the following description, ti (i = 0 to 9) is defined as in Expression (7).

Figure 2007243632
Figure 2007243632

この式(7)を用いると、式(5)は、以下の式(8)のように書き換えられる。   When this equation (7) is used, equation (5) can be rewritten as the following equation (8).

Figure 2007243632
Figure 2007243632

最終的に、学習によって未定係数wijが求められる。すなわち、クラスおよび出力画素の組み合わせ毎に、複数のSD画素データとHD画素データを用いて、二乗誤差を最小にする係数値が決定される。これは、いわゆる、最小二乗法による解法である。学習数をm、k(1≦k≦m)番目の学習データにおける残差をek、二乗誤差の総和をEとすると、式(4)および式(5)を用いて、Eは式(9)で表される。ここで、xikはSD画像のi番目の予測タップ位置におけるk番目の画素データ、ykはそれに対応するk番目のHD画像の画素データを表している。   Finally, the undetermined coefficient wij is obtained by learning. That is, for each combination of class and output pixel, a coefficient value that minimizes the square error is determined using a plurality of SD pixel data and HD pixel data. This is a so-called least square method. Assuming that the learning number is m, the residual in the k-th (1 ≦ k ≦ m) learning data is ek, and the sum of squared errors is E, using Eq. (4) and Eq. ). Here, xik represents the kth pixel data at the i-th predicted tap position of the SD image, and yk represents the corresponding pixel data of the kth HD image.

Figure 2007243632
Figure 2007243632

最小二乗法による解法では、式(9)のwijによる偏微分が0になるようなwijを求める。これは、以下の式(10)で示される。   In the solution by the least square method, wij is obtained such that the partial differentiation by wij in equation (9) becomes zero. This is shown by the following formula (10).

Figure 2007243632
Figure 2007243632

以下、式(11)、式(12)のように、Xipjq、Yipを定義すると、式(10)は、式(13)のように行列を用いて書き換えられる。   Hereinafter, when Xipjq and Yip are defined as in Expression (11) and Expression (12), Expression (10) can be rewritten using a matrix as in Expression (13).

Figure 2007243632
Figure 2007243632

Figure 2007243632
Figure 2007243632

Figure 2007243632
Figure 2007243632

この方程式は、一般に、正規方程式と称されている。正規方程式は、掃き出し法(Gauss-Jordanの消去法)等を用いて、wijについて解かれ、係数種データが算出される。   This equation is generally referred to as a normal equation. The normal equation is solved for wij by using a sweeping method (Gauss-Jordan elimination method) or the like, and coefficient seed data is calculated.

図16は、上述した係数種データの生成方法の一例の概念を示す図である。   FIG. 16 is a diagram illustrating a concept of an example of the above-described coefficient seed data generation method.

HD信号から、複数のSD信号が生成される。例えば、HD信号からSD信号を生成する際に使用されるフィルタの垂直方向および水平方向の帯域を可変するパラメータr、およびノイズ量を可変するパラメータzをそれぞれ9段階に可変することによって、合計81種類のSD信号が生成される。このようにして生成された複数のSD信号とHD信号との間で、学習が行われて、係数種データが生成される。   A plurality of SD signals are generated from the HD signal. For example, by varying the parameter r for varying the vertical and horizontal bands of the filter used when generating the SD signal from the HD signal and the parameter z for varying the noise amount in 9 stages, a total of 81 Types of SD signals are generated. Learning is performed between the plurality of SD signals and HD signals generated in this way, and coefficient seed data is generated.

図17は、図4の予測係数生成装置20の構成を示すブロック図である。   FIG. 17 is a block diagram showing a configuration of the prediction coefficient generation device 20 of FIG.

予測係数生成装置20は、図示せぬデータサーバなどから、数十種類の学習画像としてのHD信号と、その画像番号を入力し、テレビジョン受信装置10から取り外された基板12の履歴情報メモリ13に記憶されているユーザ視聴画像の特徴量情報である特徴量頻度分布のデータを用いて、テレビジョン受信装置10の情報メモリバンク61に格納される係数種データw10乃至wn9を生成する。   The prediction coefficient generation device 20 inputs dozens of kinds of HD signals as learning images and image numbers from a data server (not shown) and the like, and the history information memory 13 of the board 12 removed from the television receiver 10. The coefficient seed data w10 to wn9 stored in the information memory bank 61 of the television receiver 10 is generated using the data of the feature amount frequency distribution which is the feature amount information of the user viewing image stored in.

予測係数生成装置20は、入力端子201乃至203、複数の学習画像の特徴量頻度分布を生成し、記録する学習画像頻度分布生成部204、履歴情報メモリ13に記憶されているユーザ視聴画像の特徴量頻度分布と、学習画像頻度分布生成部204により記録された学習画像の特徴量頻度分布とを比較し、学習画像の中から、ユーザ視聴画像に似ているものを選択する学習画像選択部205、学習画像選択部205により選択された学習画像を用いて予測係数を学習する係数種データ生成部206、並びにCPU、RAM、およびROMを含むマイクロコントローラを備え、システム全体の動作を制御するためのシステムコントローラ207により構成される。   The prediction coefficient generation device 20 generates the feature amount frequency distribution of a plurality of learning images, and records the learning image frequency distribution generation unit 204 that records the feature amount frequency distribution of the plurality of learning images, and the feature of the user viewing image stored in the history information memory 13. A learning image selection unit 205 that compares the amount frequency distribution with the feature amount frequency distribution of the learning image recorded by the learning image frequency distribution generation unit 204 and selects a learning image that is similar to the user viewing image. A coefficient seed data generation unit 206 that learns a prediction coefficient using a learning image selected by the learning image selection unit 205, and a microcontroller including a CPU, a RAM, and a ROM, for controlling the operation of the entire system The system controller 207 is used.

入力端子201には、入力端子202から入力される学習画像の画像番号が入力される。入力端子202には、数十種類の学習画像の、教師信号としてのHD信号(1050i信号)が順に入力される。入力端子203には、パラメータr、およびzの値が入力される。なお、学習画像、画像番号、並びに、パラメーラr、およびzなどは、例えば、システムコントローラ207の制御のもと、外部の図示せぬデータサーバなどから入力される。   The image number of the learning image input from the input terminal 202 is input to the input terminal 201. The input terminal 202 is inputted with HD signals (1050i signals) of several tens of kinds of learning images as teacher signals in order. The values of the parameters r and z are input to the input terminal 203. Note that the learning image, the image number, and the parameters r, z, and the like are input from an external data server (not shown), for example, under the control of the system controller 207.

学習画像頻度分布生成部204は、SD信号生成部211、特徴量頻度分布生成部212、および学習画像頻度分布メモリ213により構成され、入力端子201および202からそれぞれ入力されるHD信号とその画像番号を受け、動きクラス、空間クラス毎に学習画像の特徴量情報である、特徴量頻度分布を生成して記憶し、学習画像選択部205より要求された画像番号、動きクラス、および空間クラスに応じて、記憶している特徴量頻度分布のデータを出力する処理を行う。   The learning image frequency distribution generation unit 204 includes an SD signal generation unit 211, a feature amount frequency distribution generation unit 212, and a learning image frequency distribution memory 213. The HD signal and its image number input from the input terminals 201 and 202, respectively. In response to the image number, motion class, and space class requested by the learning image selection unit 205, the feature amount frequency distribution, which is the feature amount information of the learning image, is generated and stored for each motion class and space class. Then, the process of outputting the stored feature value frequency distribution data is performed.

SD信号生成部211は、入力端子202からのHD信号(1050i信号)に対して、入力端子203から入力されるパラメータr、およびzの値を用いて、水平および垂直の間引き処理を行って、生徒信号としてのSD信号(525i信号)を得る。   The SD signal generation unit 211 performs horizontal and vertical thinning processing on the HD signal (1050i signal) from the input terminal 202 using the values of the parameters r and z input from the input terminal 203, An SD signal (525i signal) is obtained as a student signal.

このとき、SD信号生成部211は、入力端子203から入力されるパラメータrに基づいて、HD信号からSD信号を生成する際に用いられる帯域制限フィルタの、空間方向(水平および垂直)の帯域を変更し、パラメータzに基づいて、SD信号に対するノイズ付加状態を段階的に変更する。   At this time, the SD signal generation unit 211 sets the band in the spatial direction (horizontal and vertical) of the band limiting filter used when generating the SD signal from the HD signal based on the parameter r input from the input terminal 203. The noise addition state for the SD signal is changed stepwise based on the parameter z.

したがって、SD信号生成部211においては、入力されたパラメータrの値そのものに応じて、空間方向の帯域が可変され、入力されたパラメータrの値そのものに応じて、ノイズ付加状態が段階的に可変される。   Therefore, in the SD signal generation unit 211, the bandwidth in the spatial direction is varied according to the input parameter r value itself, and the noise addition state is varied stepwise according to the input parameter r value itself. Is done.

特徴量頻度分布生成部212は、図7の特徴量頻度分布生成部66と基本的に同様に構成され、SD信号生成部211からのSD信号の画像の特徴量情報としての特徴量頻度分布を、動きクラスおよび空間クラス毎に生成し、生成した動きクラスおよび空間クラス毎の画像の特徴量頻度分布のデータを、学習画像頻度分布メモリ213に記録する。   The feature amount frequency distribution generation unit 212 is basically configured in the same manner as the feature amount frequency distribution generation unit 66 of FIG. 7, and calculates the feature amount frequency distribution as the feature amount information of the image of the SD signal from the SD signal generation unit 211. The image is generated for each motion class and space class, and the image feature frequency distribution data for each generated motion class and space class is recorded in the learning image frequency distribution memory 213.

学習画像頻度分布メモリ213には、入力端子201からの画像番号と、特徴量頻度分布生成部212により生成される、画像番号に対応する数十種類の学習画像の特徴量頻度分布のデータが、動きクラスおよび空間クラス毎に記憶されている。   In the learning image frequency distribution memory 213, the image number from the input terminal 201 and the feature amount frequency distribution data of dozens of types of learning images corresponding to the image number generated by the feature amount frequency distribution generation unit 212 are stored. Stored for each motion class and space class.

図18は、特徴量頻度分布生成部212の詳細な構成例を示すブロック図である。   FIG. 18 is a block diagram illustrating a detailed configuration example of the feature amount frequency distribution generation unit 212.

特徴量頻度分布生成部212の動きクラスタップ選択部251、空間クラスタップ選択部252、および特徴量生成タップ選択部253は、SD信号生成部211からのSD信号より、特徴量を生成する対象画素の周辺に位置する複数のSD画素のデータを選択的に取り出して出力する。これらの動きクラスタップ選択部251、空間クラスタップ選択部252、および特徴量生成タップ選択部253は、図10の動きクラスタップ選択部71、空間クラスタップ選択部72、および特徴量生成タップ選択部73と基本的に同様に構成される。   The motion class tap selection unit 251, the space class tap selection unit 252, and the feature amount generation tap selection unit 253 of the feature amount frequency distribution generation unit 212 are target pixels that generate feature amounts from the SD signal from the SD signal generation unit 211. The data of a plurality of SD pixels located in the periphery of the image are selectively extracted and output. The motion class tap selection unit 251, the space class tap selection unit 252, and the feature amount generation tap selection unit 253 are the motion class tap selection unit 71, the space class tap selection unit 72, and the feature amount generation tap selection unit of FIG. This is basically the same as 73.

動きクラス検出部254は、図10の動きクラス検出部74と基本的に同様に構成され、動きクラスタップ選択部251で選択的に取り出された動きクラスタップのデータ(SD画素データ)より、主に、動きの程度を表すための動きクラスを検出し、その動きクラスのクラス情報(MV)を出力する。   The motion class detection unit 254 is basically configured in the same manner as the motion class detection unit 74 in FIG. 10, and is based on the motion class tap data (SD pixel data) selectively extracted by the motion class tap selection unit 251. Then, a motion class for representing the degree of motion is detected, and class information (MV) of the motion class is output.

空間クラス検出部255は、図10の空間クラス検出部75と基本的に同様に構成され、空間クラスタップ選択部252で選択的に取り出された空間クラスタップのデータ(SD画素データ)のレベル分布パターンを検出し、このレベル分布パターンに基づいて、空間クラスを検出し、その空間クラスのクラス情報(再量子化コードqi)を出力する。   The space class detection unit 255 is configured basically in the same manner as the space class detection unit 75 of FIG. 10, and the level distribution of the space class tap data (SD pixel data) selectively extracted by the space class tap selection unit 252. A pattern is detected, a space class is detected based on the level distribution pattern, and class information (requantized code qi) of the space class is output.

特徴量生成部256は、図10の特徴量生成部76と基本的に同様に構成され、特徴量生成タップ選択部253で選択的に取り出された特徴量生成タップのデータ(SD画素データ)より、図10の特徴量生成部76が生成する特徴量と対応するSD画素の特徴量を生成し、その特徴量の値を出力する。すなわち、図11を参照して上述したように、特徴量生成タップの画素値が用いられて、タップ内最大値Max、タップ内最小値Min、ダイナミックレンジDR、中間値、および平均値Aveのうちの少なくとも1つが、求める画素の特徴量として生成される。   The feature quantity generation unit 256 is basically configured in the same manner as the feature quantity generation unit 76 of FIG. 10, and is based on the feature quantity generation tap data (SD pixel data) selectively extracted by the feature quantity generation tap selection unit 253. , The feature amount of the SD pixel corresponding to the feature amount generated by the feature amount generation unit 76 of FIG. That is, as described above with reference to FIG. 11, the pixel value of the feature value generation tap is used, and among the maximum value Max within the tap, the minimum value Min within the tap, the dynamic range DR, the intermediate value, and the average value Ave. Is generated as a feature value of the pixel to be obtained.

特徴量頻度分布演算部257は、図10の特徴量頻度分布演算部77と基本的に同様に構成され、同じ画素に対応する、動きクラス検出部74より検出された動きクラス、空間クラス検出部75より検出された空間クラス、および特徴量生成部76より生成された特徴量に基づき、特徴量情報である、図12を参照して上述した特徴量頻度分布(ヒストグラム)を生成していく。このとき、特徴量頻度分布は、同時に入力される動きクラスと空間クラスの組み合わせ毎に生成され、そのデータは、動きクラスと空間クラスの組み合わせ毎に学習画像頻度分布メモリ213に記憶される。   The feature amount frequency distribution calculation unit 257 is basically configured in the same manner as the feature amount frequency distribution calculation unit 77 of FIG. 10, and corresponds to the same pixel, and is detected by the motion class detection unit 74 and the space class detection unit. Based on the space class detected from 75 and the feature quantity generated by the feature quantity generator 76, the feature quantity frequency distribution (histogram) described above with reference to FIG. At this time, the feature amount frequency distribution is generated for each combination of the motion class and the space class input at the same time, and the data is stored in the learning image frequency distribution memory 213 for each combination of the motion class and the space class.

図19は、学習画像頻度分布メモリ213に記憶されている特徴量頻度分布の例を示している。   FIG. 19 shows an example of the feature amount frequency distribution stored in the learning image frequency distribution memory 213.

学習画像頻度分布メモリ213には、数十種類の学習画像の特徴量頻度分布のデータが、動きクラスおよび空間クラスの組み合わせ毎に記憶されている。   The learning image frequency distribution memory 213 stores data of feature quantity frequency distributions of several tens of types of learning images for each combination of motion class and space class.

例えば、学習画像1乃至mの特徴量頻度分布のデータが、それぞれ、動きクラス0乃至Pおよび空間クラス0乃至Nの組み合わせ毎に記憶されている。   For example, feature amount frequency distribution data of learning images 1 to m is stored for each combination of motion classes 0 to P and space classes 0 to N, respectively.

すなわち、各学習画像1乃至mに対して、動きクラス0および空間クラス0の特徴量頻度分布のデータ、動きクラス0および空間クラス1の特徴量頻度分布のデータ、動きクラス0および空間クラス2の特徴量頻度分布のデータ、…、動きクラス0および空間クラスPの特徴量頻度分布のデータ、動きクラス1および空間クラス0の特徴量頻度分布のデータ、動きクラス2および空間クラス0の特徴量頻度分布のデータ、動きクラスNおよび空間クラス0の特徴量頻度分布のデータ、………、動きクラスPおよび空間クラスNの特徴量頻度分布のデータというように、(P+1)×(N+1)ずつの特徴量頻度分布のデータが記憶されている。   That is, for each learning image 1 to m, feature class frequency distribution data of motion class 0 and space class 0, feature class frequency distribution data of motion class 0 and space class 1, motion class 0 and space class 2 Feature quantity frequency distribution data,..., Motion class 0 and space class P feature quantity frequency distribution data, motion class 1 and space class 0 feature quantity frequency distribution data, motion class 2 and space class 0 feature quantity frequencies Distribution data, motion class N and space class 0 feature quantity frequency distribution data,..., Motion class P and space class N feature quantity frequency distribution data, and so on (P + 1) × (N + 1) Data of feature amount frequency distribution is stored.

図17に戻り、学習画像選択部205は、頻度分布比較部221、学習画像選択部222、および学習画像テーブル223により構成され、履歴情報メモリ13のユーザ視聴画像の特徴量頻度分布と、学習画像頻度分布メモリ213の全ての学習画像の特徴量頻度分布とを比較し、動きクラスおよび空間クラスの組み合わせ毎に、似た特徴を有する学習画像を選択し、その画像番号を記録し、係数データ生成時に、記録した画像番号を提供する処理を行う。   Returning to FIG. 17, the learning image selection unit 205 includes a frequency distribution comparison unit 221, a learning image selection unit 222, and a learning image table 223, and the feature amount frequency distribution of the user viewing image in the history information memory 13 and the learning image. Compare the feature quantity frequency distribution of all learning images in the frequency distribution memory 213, select learning images having similar features for each combination of motion class and space class, record the image number, and generate coefficient data Sometimes, a process of providing the recorded image number is performed.

頻度分布比較部221は、同じ動きクラスおよび空間クラスの組み合わせについて、基板12の履歴情報メモリ13に記憶されているユーザ視聴画像の特徴量頻度分布と、学習画像頻度分布メモリ213にある全ての学習画像の特徴量頻度分布とを比較していく。   The frequency distribution comparison unit 221 uses the feature amount frequency distribution of the user viewing image stored in the history information memory 13 of the board 12 and all the learning in the learning image frequency distribution memory 213 for the same combination of motion class and space class. The image feature amount frequency distribution is compared.

図20は、頻度分布比較部221による特徴量頻度分布の比較対象を説明する図である。   FIG. 20 is a diagram for explaining a comparison target of the feature amount frequency distribution by the frequency distribution comparison unit 221.

履歴情報メモリ13には、テレビジョン受信装置10で生成されたユーザ視聴画像の特徴量頻度分布のデータが記憶されている。図20の例の場合、ユーザ視聴画像1の動きクラスPおよび空間クラスMの特徴量頻度分布のデータ、…、ユーザ視聴画像1の動きクラスQおよび空間クラスNの特徴量頻度分布のデータ、…、ユーザ視聴画像2の動きクラスPおよび空間クラスMの特徴量頻度分布のデータ、…、ユーザ視聴画像2の動きクラスQおよび空間クラスNの特徴量頻度分布のデータ、…、というように、ユーザ視聴画像の特徴量頻度分布のデータが動きクラスおよび空間クラスの組み合わせ毎に記憶されている。   The history information memory 13 stores feature frequency distribution data of user-viewed images generated by the television receiver 10. In the case of the example of FIG. 20, the data of the feature class frequency distribution of the motion class P and the space class M of the user viewing image 1,..., The data of the feature class frequency distribution of the motion class Q and the space class N of the user viewing image 1. , Data of the feature class frequency distribution of the motion class P and the space class M of the user viewing image 2,..., Data of the feature class frequency distribution of the motion class Q and the space class N of the user viewing image 2,. Data on the feature amount frequency distribution of the viewing image is stored for each combination of the motion class and the space class.

また、学習画像特徴量頻度分布メモリ213には、学習画像頻度分布生成部204により生成された数十種類の学習画像の頻度分布のデータが記憶されている。図20の例の場合、学習画像1の動きクラスPおよび空間クラスMの特徴量頻度分布のデータ、…、学習画像1の動きクラスQおよび空間クラスNの特徴量頻度分布のデータ、…、学習画像2の動きクラスPおよび空間クラスMの特徴量頻度分布のデータ、…、学習画像2の動きクラスQおよび空間クラスNの特徴量頻度分布のデータ、…、というように、学習画像の特徴量頻度分布のデータが動きクラスおよび空間クラスの組み合わせ毎に記憶されている。   In addition, the learning image feature amount frequency distribution memory 213 stores data of frequency distributions of dozens of types of learning images generated by the learning image frequency distribution generation unit 204. In the case of the example in FIG. 20, the feature frequency distribution data of the motion class P and the space class M of the learning image 1,..., The feature amount frequency distribution data of the motion class Q and the space class N of the learning image 1,. Feature amount frequency distribution data of motion class P and space class M of image 2,..., Feature amount frequency distribution data of motion class Q and space class N of learning image 2,. Frequency distribution data is stored for each combination of motion class and space class.

頻度分布比較部221は、履歴情報メモリ13に記憶されているすべてのユーザ視聴画像の特徴量頻度分布のデータを、動きクラスおよび空間クラスの組み合わせ毎に平均化し、動きクラスおよび空間クラスの組み合わせ毎の1つの特徴量頻度分布とした上で、学習画像特徴量頻度分布メモリ213に記憶されているすべての学習画像の特徴量頻度分布に対して、動きクラスおよび空間クラスの組み合わせ毎に比較を行っていく。   The frequency distribution comparison unit 221 averages the feature amount frequency distribution data of all user viewing images stored in the history information memory 13 for each combination of motion class and space class, and for each combination of motion class and space class. The feature amount frequency distribution of all learning images stored in the learning image feature amount frequency distribution memory 213 is compared for each combination of motion class and space class. To go.

ここで、頻度分布比較部221は、図21に示されるように、2つの特徴量頻度分布から求まる値を用いて相関係数を求めることで、2つの特徴量頻度分布を比較する。   Here, as shown in FIG. 21, the frequency distribution comparison unit 221 compares the two feature quantity frequency distributions by obtaining a correlation coefficient using values obtained from the two feature quantity frequency distributions.

図21は、頻度分布比較部221による特徴量頻度分布の比較方法の具体例を示している。図21の例においては、左から順に、学習画像の特徴量頻度分布と、ユーザ視聴画像の特徴量頻度分布のグラフが示されている。各グラフにおいて、縦軸が学習画像の頻度fsty(x)およびユーザ視聴画像の頻度fusr(x)をそれぞれ表しており、横軸が特徴量値(x)を表している。   FIG. 21 shows a specific example of the comparison method of the feature amount frequency distribution by the frequency distribution comparison unit 221. In the example of FIG. 21, a graph of the feature amount frequency distribution of the learning image and the feature amount frequency distribution of the user viewing image is shown in order from the left. In each graph, the vertical axis represents the learning image frequency fsty (x) and the user viewing image frequency fusr (x), and the horizontal axis represents the feature value (x).

頻度分布比較部221は、学習画像の頻度fsty(x)から、頻度平均Mfstyと頻度標準偏差SDfstyを求め、ユーザ視聴画像の頻度fusr (x)から、頻度平均Mfusrと頻度標準偏差SDfusrを求め、次の式(14)で求まる相関係数値C(−1≦C≦1)を求めることで、2つの特徴量頻度分布の比較を行う。   The frequency distribution comparison unit 221 calculates the frequency average Mfsty and the frequency standard deviation SDfsty from the frequency fsty (x) of the learning image, calculates the frequency average Mfusr and the frequency standard deviation SDfusr from the frequency fusr (x) of the user viewing image, By comparing the correlation coefficient value C (−1 ≦ C ≦ 1) obtained by the following equation (14), the two feature quantity frequency distributions are compared.

Figure 2007243632
Figure 2007243632

なお、Nは、サンプル数(特徴量頻度分布をカウントする画素数)を表す。また、相関係数値Cは、−1乃至1の値をとり、値が大きいほど、特徴量頻度分布の形状が似ているとされる。   Note that N represents the number of samples (number of pixels for counting the feature frequency distribution). Further, the correlation coefficient value C takes a value of −1 to 1, and the larger the value, the more similar the shape of the feature amount frequency distribution.

したがって、頻度分布比較部221においては、図20に示される、平均化後の動きクラスPおよび空間クラスMのユーザ視聴画像の特徴量頻度分布と、学習画像1の動きクラスPおよび空間クラスMの特徴量頻度分布が比較され、その比較値である相関係数値Cと学習画像1の画像番号、動きクラスP、および空間クラスMが、学習画像選択部222に出力される。また、平均化後の動きクラスPおよび空間クラスMのユーザ視聴画像の特徴量頻度分布と、学習画像2の動きクラスPおよび空間クラスMの特徴量頻度分布が比較され、その比較値である相関係数値Cと学習画像2の画像番号、動きクラスP、および空間クラスMが、学習画像選択部222に出力される。   Therefore, in the frequency distribution comparison unit 221, the feature amount frequency distribution of the user viewed images of the motion class P and the space class M after the averaging and the motion class P and the space class M of the learning image 1 shown in FIG. The feature amount frequency distributions are compared, and the comparison coefficient value C, the image number of the learning image 1, the motion class P, and the space class M are output to the learning image selection unit 222. Further, the feature amount frequency distributions of the user viewing images of the motion class P and the space class M after the averaging are compared with the feature amount frequency distributions of the motion class P and the space class M of the learning image 2, and the comparison value is a phase value. The relational numerical value C, the image number of the learning image 2, the motion class P, and the space class M are output to the learning image selection unit 222.

なお、図示しないが、学習画像3以降についても、平均化後の動きクラスPおよび空間クラスMのユーザ視聴画像の特徴量頻度分布との比較が行われ、その比較値である相関係数値Cと学習画像3以降の画像番号、動きクラスP、および空間クラスMが、学習画像選択部222に出力される。   Although not shown, the learning image 3 and the subsequent images are also compared with the feature amount frequency distribution of the user viewed images of the motion class P and the space class M after averaging, and the correlation coefficient value C, which is the comparison value, is compared. The image numbers after the learning image 3, the motion class P, and the space class M are output to the learning image selection unit 222.

同様に、頻度分布比較部221においては、図20に示される、平均化後の動きクラスQおよび空間クラスNのユーザ視聴画像の特徴量頻度分布と、学習画像1の動きクラスQおよび空間クラスNの特徴量頻度分布が比較され、その比較値である相関係数値Cと学習画像1の画像番号、動きクラスQ、および空間クラスNが、学習画像選択部222に出力される。また、平均化後の動きクラスQおよび空間クラスNのユーザ視聴画像の特徴量頻度分布と、学習画像2の動きクラスQおよび空間クラスNの特徴量頻度分布が比較され、その比較値である相関係数値Cと学習画像2の画像番号、動きクラスQ、および空間クラスNが、学習画像選択部222に出力される。   Similarly, in the frequency distribution comparison unit 221, the feature amount frequency distribution of the user viewed images of the motion class Q and the space class N after the averaging, and the motion class Q and the space class N of the learning image 1 shown in FIG. And the correlation coefficient value C, which is the comparison value, the image number of the learning image 1, the motion class Q, and the space class N are output to the learning image selection unit 222. Further, the feature amount frequency distributions of the user viewed images of the motion class Q and the space class N after the averaging are compared with the feature amount frequency distributions of the motion class Q and the space class N of the learning image 2, and the comparison value is a phase value. The relational numerical value C, the image number of the learning image 2, the motion class Q, and the space class N are output to the learning image selection unit 222.

なお、図示しないが、学習画像3以降についても、平均化後の動きクラスQおよび空間クラスNのユーザ視聴画像の特徴量頻度分布との比較が行われ、その比較値である相関係数値Cと学習画像3以降の画像番号、動きクラスQ、および空間クラスNが、学習画像選択部222に出力される。   Although not shown, the learning image 3 and the subsequent images are also compared with the feature amount frequency distribution of the user viewed images of the motion class Q and the space class N after averaging, and the correlation coefficient value C, which is the comparison value, is compared. The image numbers after the learning image 3, the motion class Q, and the space class N are output to the learning image selection unit 222.

学習画像選択部222は、動きクラスおよび空間クラスの組み合わせ毎に、すべての学習画像の比較値である相関係数値Cに基づいて1つの学習画像を選択し、動きクラスおよび空間クラスの組み合わせ毎に、選択した学習画像の画像番号(以下、選択画像番号とも称する)を学習画像テーブル223に記録していく。   The learning image selection unit 222 selects one learning image based on the correlation coefficient value C, which is a comparison value of all learning images, for each combination of motion class and space class, and for each combination of motion class and space class. The image number of the selected learning image (hereinafter also referred to as the selected image number) is recorded in the learning image table 223.

学習画像テーブル223には、すべての動きクラスおよび空間クラスの組み合わせ毎の選択画像番号が記憶される。   The learning image table 223 stores selected image numbers for each combination of all motion classes and space classes.

図22は、学習画像選択部222の学習画像選択および学習画像テーブルの構成の例を示す図である。   FIG. 22 is a diagram illustrating an example of the learning image selection of the learning image selection unit 222 and the configuration of the learning image table.

学習画像選択部222には、頻度分布比較部221より、すべての学習画像番号1乃至L、すべての動きクラス1乃至M、すべての空間クラス1乃至N、それらの組み合わせにおける特徴量頻度分布のユーザ視聴画像との比較結果の比較値が入力されている。   The learning image selection unit 222 receives, from the frequency distribution comparison unit 221, a user of feature frequency distributions for all learning image numbers 1 to L, all motion classes 1 to M, all space classes 1 to N, and combinations thereof. The comparison value of the comparison result with the viewing image is input.

例えば、図22の学習画像選択部222には、上から順に、学習画像番号「1」については、学習画像番号「1」、動きクラス「1」、空間クラス「1」、比較値「C_1_1_1」が入力され、学習画像番号「1」、動きクラス「1」、空間クラス「2」、比較値「C_1_1_2」が入力され、…、学習画像番号「1」、動きクラス「1」、空間クラス「N」、比較値「C_1_1_N」が入力されている。また、学習画像番号「1」、動きクラス「2」、空間クラス「1」、比較値「C_1_2_1」が入力され、学習画像番号「1」、動きクラス「2」、空間クラス「2」、比較値「C_1_2_2」が入力され、…、学習画像番号「1」、動きクラス「2」、空間クラス「N」、比較値「C_1_2_N」が入力されている。   For example, in the learning image selection unit 222 in FIG. 22, the learning image number “1”, the learning class number “1”, the motion class “1”, the space class “1”, and the comparison value “C_1_1_1” Is input, learning image number “1”, motion class “1”, space class “2”, comparison value “C_1_1_2”,..., Learning image number “1”, motion class “1”, space class “ N ”and the comparison value“ C_1_1_N ”are input. The learning image number “1”, the motion class “2”, the space class “1”, and the comparison value “C_1_2_1” are input, and the learning image number “1”, the motion class “2”, the space class “2”, and the comparison A value “C_1_2_2” is input, and a learning image number “1”, a motion class “2”, a space class “N”, and a comparison value “C_1_2_N” are input.

なお、図示はされないが、以下、動きクラス「3」乃至「M−1」以降についても同様に入力されており、さらに、学習画像番号「1」、動きクラス「M」、空間クラス「1」、比較値「C_1_M_1」が入力され、学習画像番号「1」、動きクラス「M」、空間クラス「2」、比較値「C_1_M_2」が入力され、…、学習画像番号「1」、動きクラス「M」、空間クラス「N」、比較値「C_1_M_N」が入力され、学習画像番号「1」、動きクラス「M」、空間クラス「1」、比較値「C_1_M_1」が入力され、学習画像番号「1」、動きクラス「M」、空間クラス「2」、比較値「C_1_M_2」が入力され、…、学習画像番号「1」、動きクラス「M」、空間クラス「N」、比較値「C_1_M_N」が入力されている。   Although not shown in the figure, the motion classes “3” to “M−1” and thereafter are input in the same manner, and the learning image number “1”, the motion class “M”, and the space class “1”. The comparison value “C_1_M_1” is input, the learning image number “1”, the motion class “M”, the space class “2”, the comparison value “C_1_M_2” is input,..., The learning image number “1”, the motion class “ M, space class “N”, and comparison value “C_1_M_N” are input, learning image number “1”, motion class “M”, space class “1”, and comparison value “C_1_M_1” are input, and learning image number “ 1 ”, motion class“ M ”, space class“ 2 ”, and comparison value“ C_1_M_2 ”are input,..., Learning image number“ 1 ”, motion class“ M ”, space class“ N ”, and comparison value“ C_1_M_N ” Is entered.

以降、その図示は殆ど省略されるが、学習画像番号「2」乃至「L」についても、学習画像番号「2」乃至「L」、動きクラス「1」乃至「M」、空間クラス「1」乃至「N」、比較値「C_2_1_1」乃至「C_L_M_N」がそれぞれ入力されている。   Thereafter, although illustration thereof is omitted, the learning image numbers “2” to “L”, the learning image numbers “2” to “L”, the motion classes “1” to “M”, and the space class “1” are also omitted. Through “N” and comparison values “C_2_1_1” through “C_L_M_N” are input.

まず、学習画像選択部222は、それらを、動きクラスおよび空間クラスの組み合わせ毎に並び替え、動きクラスおよび空間クラスの組み合わせ毎の比較値を評価し、最も相似している比較値の学習画像番号を選択し、その動きクラスおよび空間クラスの組み合わせにおける選択画像番号として、学習画像テーブル223に記録させる。   First, the learning image selection unit 222 rearranges them for each combination of the motion class and the space class, evaluates the comparison value for each combination of the motion class and the space class, and learns the learning image number of the comparison value that is most similar. Is recorded in the learning image table 223 as a selected image number in the combination of the motion class and the space class.

なお、ユーザ視聴画像の特徴量頻度分布と最も形状が似ている特徴量頻度分布を有する学習画像を選択することが必要であり、いまの場合、比較値として、図21を参照して上述した相関関係値Cが用いられているので、最も大きい比較値を有する学習画像が最も類似しているとして選択される。   Note that it is necessary to select a learning image having a feature amount frequency distribution that is most similar to the feature amount frequency distribution of the user viewing image. In this case, the comparison value is described above with reference to FIG. Since the correlation value C is used, the learning image having the largest comparison value is selected as being most similar.

すなわち、動きクラス「1」および空間クラス「1」の組み合わせにおける各画像番号「1」乃至「L」の比較値「C_1_1_1」乃至「C_L_1_1」が順に並べられ、比較値「C_1_1_1」乃至「C_L_1_1」の中で最大の比較値を有する学習画像の画像番号が選択され、動きクラス「1」および空間クラス「1」の選択画像番号「X_1_1」として学習画像テーブル223に記録される。   That is, the comparison values “C_1_1_1” to “C_L_1_1” of the image numbers “1” to “L” in the combination of the motion class “1” and the space class “1” are sequentially arranged, and the comparison values “C_1_1_1” to “C_L_1_1” are arranged. Among them, the image number of the learning image having the largest comparison value is selected and recorded in the learning image table 223 as the selected image number “X_1_1” of the motion class “1” and the space class “1”.

動きクラス「1」および空間クラス「2」の組み合わせにおける各画像番号「1」乃至「L」の比較値「C_1_1_2」乃至「C_L_1_2」が順に並べられ、比較値「C_1_1_2」乃至「C_L_1_2」の中で最大の比較値を有する学習画像の画像番号が選択され、動きクラス「1」および空間クラス「2」の選択画像番号「X_1_2」として学習画像テーブル223に記録される。   The comparison values “C_1_1_2” to “C_L_1_2” of the image numbers “1” to “L” in the combination of the motion class “1” and the space class “2” are sequentially arranged, and the comparison values “C_1_1_2” to “C_L_1_2” The image number of the learning image having the maximum comparison value is selected and is recorded in the learning image table 223 as the selected image number “X_1_2” of the motion class “1” and the space class “2”.

なお、図示はされないが、以下、空間クラス「3」乃至「N−1」以降についても同様に、動きクラス「1」および各空間クラス「3」乃至「N−1」の比較値が順に並べられ、それらの比較値の中で最大の比較値を有する学習画像の画像番号が選択され、動きクラス「1」および空間クラス「3」乃至「N−1」の選択画像番号として、それぞれ、学習画像テーブル223に記録される。   Although not shown, the comparison values of the motion class “1” and the spatial classes “3” to “N−1” are arranged in order in the same manner for the space classes “3” to “N−1” and thereafter. The image number of the learning image having the largest comparison value among the comparison values is selected, and learning is selected as the selection image number of the motion class “1” and the space classes “3” to “N−1”, respectively. It is recorded in the image table 223.

同様に、動きクラス「1」および空間クラス「N」の組み合わせにおける各画像番号「1」乃至「L」の比較値「C_1_1_N」乃至「C_L_1_N」が順に並べられ、比較値「C_1_1_N」乃至「C_L_1_N」の中で最大の比較値を有する学習画像の画像番号が選択され、動きクラス「1」および空間クラス「N」の選択画像番号「X_1_N」として学習画像テーブル223に記録される。   Similarly, the comparison values “C_1_1_N” to “C_L_1_N” of the image numbers “1” to “L” in the combination of the motion class “1” and the space class “N” are sequentially arranged, and the comparison values “C_1_1_N” to “C_L_1_N” are sequentially arranged. The learning image having the largest comparison value is selected and recorded in the learning image table 223 as the selected image number “X_1_N” of the motion class “1” and the space class “N”.

以降、その図示は殆ど省略されるが、動きクラス「2」乃至「M」についても、空間クラス「1」乃至「N」との組み合わせにおける各画像番号「1」乃至「L」の比較値「C_1_2_1」乃至「C_L_M_N」が順に並べられ、それらの比較値の中で最大の比較値を有する学習画像の画像番号が選択され、動きクラス「2」乃至「M」および空間クラス「3」乃至「N−1」の選択画像番号「X_2_1」乃至「X_M_N」として、それぞれ、学習画像テーブル223に記録される。   Thereafter, although illustration thereof is almost omitted, for the motion classes “2” to “M”, the comparison values “1” to “L” in the combinations with the space classes “1” to “N” “ C_1_2_1 ”to“ C_L_M_N ”are arranged in order, and the image number of the learning image having the largest comparison value among these comparison values is selected, and the motion classes“ 2 ”to“ M ”and the space classes“ 3 ”to“ 3 ”are selected. The selected image numbers “X_2_1” to “X_M_N” of “N−1” are recorded in the learning image table 223, respectively.

図17に戻り、係数種データ生成部206は、画像セット記憶部231、SD信号生成部232、予測係数学習部233、および係数種メモリ234により構成され、学習画像テーブル223からの動きクラスおよび空間クラス毎の選択画像番号に基づく学習画像のHD信号を用いて、予測係数としての係数種データを生成し、係数種メモリ234に記録する処理を行う。   Returning to FIG. 17, the coefficient seed data generation unit 206 includes an image set storage unit 231, an SD signal generation unit 232, a prediction coefficient learning unit 233, and a coefficient seed memory 234, and the motion class and space from the learning image table 223. Using the HD signal of the learning image based on the selected image number for each class, coefficient seed data as a prediction coefficient is generated and recorded in the coefficient seed memory 234.

画像セット記憶部231には、入力端子202から、数十種類の学習画像のHD信号が入力され、記憶されている。画像セット記憶部231は、学習画像テーブル223から選択画像番号を受け、選択画像番号に対応する学習画像のHD信号を選択し、出力する。   The image set storage unit 231 receives and stores several tens of types of learning image HD signals from the input terminal 202. The image set storage unit 231 receives the selected image number from the learning image table 223, selects and outputs the HD signal of the learning image corresponding to the selected image number.

SD信号生成部232は、画像セット記憶部231により選択された学習画像(以下、選択学習画像とも称する)のHD信号(1050i信号)に対して、入力端子203から入力されるパラメータr、およびzの値を用いて、水平および垂直の間引き処理を行って、生徒信号としてのSD信号(525i信号)を得る。なお、SD信号生成部232の構成は、上述したSD信号生成部211の構成と基本的に同様である。   The SD signal generation unit 232 receives the parameters r and z input from the input terminal 203 for the HD signal (1050i signal) of the learning image selected by the image set storage unit 231 (hereinafter also referred to as a selection learning image). Is used to obtain a SD signal (525i signal) as a student signal by performing horizontal and vertical thinning processing. The configuration of the SD signal generation unit 232 is basically the same as the configuration of the SD signal generation unit 211 described above.

予測係数学習部233には、画像セット記憶部231に入力された選択画像番号に対応する、学習画像テーブル223からの動きクラスおよび空間クラスの情報、画像セット記憶部231からの選択学習画像のHD信号と、SD信号生成部232からの選択学習画像のSD信号などが入力される。   The prediction coefficient learning unit 233 includes the motion class and space class information from the learning image table 223 corresponding to the selected image number input to the image set storage unit 231, and the HD of the selected learning image from the image set storage unit 231. The signal and the SD signal of the selected learning image from the SD signal generation unit 232 are input.

予測係数学習部233は、学習画像テーブル223からの動きクラスおよび空間クラスの組み合わせ毎に、その組み合わせが対応する選択学習画像のHD信号とSD信号を用いて予測係数を学習し、学習により得られた係数種データを、動きクラスおよび空間クラスの組み合わせ毎に係数種メモリ234に記録する。   For each combination of motion class and space class from the learning image table 223, the prediction coefficient learning unit 233 learns a prediction coefficient using the HD signal and SD signal of the selected learning image corresponding to the combination, and is obtained by learning. The coefficient seed data is recorded in the coefficient seed memory 234 for each combination of motion class and space class.

図23は、予測係数学習部233の詳細な構成例を示している。   FIG. 23 shows a detailed configuration example of the prediction coefficient learning unit 233.

予測係数学習部233の第1のタップ選択部271、第2のタップ選択部272、および第3のタップ選択部273は、SD信号生成部232より出力されるSD信号(525i信号)より、HD信号(1050i信号)における注目位置の周辺に位置する複数のSD画素のデータを選択的に取り出して出力する。これら第1のタップ選択部271乃至第3のタップ選択部273は、図7を参照して説明した画像信号処理部35の第1のタップ選択部51乃至第3のタップ選択部53と基本的に同様に構成される。   The first tap selection unit 271, the second tap selection unit 272, and the third tap selection unit 273 of the prediction coefficient learning unit 233 are configured using the SD signal (525i signal) output from the SD signal generation unit 232 as an HD. Data of a plurality of SD pixels located around the target position in the signal (1050i signal) is selectively extracted and output. The first tap selection unit 271 to the third tap selection unit 273 are basically the same as the first tap selection unit 51 to the third tap selection unit 53 of the image signal processing unit 35 described with reference to FIG. It is configured in the same way.

空間クラス検出部274は、第2のタップ選択部272で選択的に取り出された空間クラスタップのデータ(SD画素データ)のレベル分布パターンを検出し、このレベル分布パターンに基づいて空間クラスを検出し、そのクラス情報を出力する。この空間クラス検出部273は、図7を用いて説明した画像信号処理部35の空間クラス検出部54と基本的に同様に構成される。この空間クラス検出部274からは、空間クラスタップのデータとしての各SD画素データの再量子化コードqiが、空間クラスを示すクラス情報として出力される。   The space class detection unit 274 detects the level distribution pattern of the space class tap data (SD pixel data) selectively extracted by the second tap selection unit 272, and detects the space class based on the level distribution pattern. And output the class information. The space class detection unit 273 is basically configured in the same manner as the space class detection unit 54 of the image signal processing unit 35 described with reference to FIG. From this space class detection unit 274, a requantization code qi of each SD pixel data as space class tap data is output as class information indicating the space class.

動きクラス検出部275は、第3のタップ選択部273で選択的に取り出された動きクラスタップのデータ(SD画素データ)より、主に動きの程度を表すための動きクラスを検出し、そのクラス情報MVを出力する。この動きクラス検出部275は、図7を用いて説明した画像信号処理部35の動きクラス検出部55と基本的に同様に構成される。この動きクラス検出部275では、第3のタップ選択部273で選択的に取り出された動きクラスタップのデータ(SD画素データ)からフレーム間差分が算出され、更に、その差分の絶対値の平均値に対して閾値処理が行われて、動きの指標である動きクラスが検出される。   The motion class detection unit 275 detects a motion class mainly representing the degree of motion from the motion class tap data (SD pixel data) selectively extracted by the third tap selection unit 273, and the class Output information MV. The motion class detection unit 275 is basically configured in the same manner as the motion class detection unit 55 of the image signal processing unit 35 described with reference to FIG. In this motion class detection unit 275, the inter-frame difference is calculated from the motion class tap data (SD pixel data) selectively extracted by the third tap selection unit 273, and the average absolute value of the difference is further calculated. Is subjected to threshold processing, and a motion class as a motion index is detected.

第1のクラス合成部276は、空間クラス検出部274より出力される空間クラスのクラス情報としての再量子化コードqiと、動きクラス検出部275より出力される動きクラスのクラス情報MVとに基づき、HD信号(1050i信号)に係る注目画素が属するクラスを示す第1のクラスコードCL1を得る。この第1のクラス合成部276も、図7を用いて説明した画像信号処理部35のクラス合成部56と基本的に同様に構成される。   The first class synthesis unit 276 is based on the re-quantization code qi as the class information of the space class output from the space class detection unit 274 and the class information MV of the motion class output from the motion class detection unit 275. The first class code CL1 indicating the class to which the pixel of interest related to the HD signal (1050i signal) belongs is obtained. The first class synthesis unit 276 is also configured basically in the same manner as the class synthesis unit 56 of the image signal processing unit 35 described with reference to FIG.

第2のクラス合成部277は、学習画像テーブル223から入力される動きクラスの情報MVおよび空間クラスの情報qiから第2のクラスコードCL2を得る。   The second class synthesis unit 277 obtains the second class code CL2 from the motion class information MV and the space class information qi input from the learning image table 223.

正規方程式生成部278は、第1のクラス合成部276より出力される第1のクラスコードCL1および第2のクラス合成部277より出力される第2のクラスコードCL2に応じて、画像セット記憶部231からのHD信号から得られる注目位置の画素データとしての各HD画素データy、この各HD画素データyにそれぞれ対応して第1のタップ選択部271で選択的に取り出された予測タップのデータ(SD画素データ)xi、並びに、パラメータrおよびzの値から、クラス毎に、係数種データw10乃至wn9を得るための正規方程式(式(13)参照)を生成する。   The normal equation generation unit 278 includes an image set storage unit according to the first class code CL1 output from the first class synthesis unit 276 and the second class code CL2 output from the second class synthesis unit 277. Each HD pixel data y as pixel data of the target position obtained from the HD signal from 231, and prediction tap data selectively extracted by the first tap selection unit 271 corresponding to each HD pixel data y (SD pixel data) From the values of xi and the parameters r and z, a normal equation (see equation (13)) for obtaining coefficient seed data w10 to wn9 is generated for each class.

なお、正規方程式生成部278においては、クラス毎に1つの学習画像を選択して予測係数を生成するために、SD信号のクラス検出結果である第1のクラス合成部276の出力と、学習画像テーブル223における選択結果である第2のクラス合成部277の出力の2つ、すなわち、第1のクラスコードCL1と、第2のクラスコードCL2が一致する場合のみ、正規方程式が生成される。   Note that in the normal equation generation unit 278, in order to select one learning image for each class and generate a prediction coefficient, the output of the first class synthesis unit 276, which is the SD signal class detection result, and the learning image A normal equation is generated only when two of the outputs of the second class synthesis unit 277, which are selection results in the table 223, that is, the first class code CL1 and the second class code CL2 match.

この場合、1個のHD画素データyと、それに対応するn個の予測タップのデータ(SD画素データ)xiとの組み合わせで、学習データが生成されるが、調整後のパラメータr、およびzの値の変化に対応して、SD信号生成部232における空間方向の帯域とノイズ量が可変され、複数のSD信号が順次生成されて、HD信号と各SD信号との間でそれぞれ学習データの生成が行われる。これにより、正規方程式生成部278では、パラメータr、およびzの値が異なる多くの学習データが登録された正規方程式が生成され、係数種データw10乃至wn9を求めることが可能となる。   In this case, learning data is generated by a combination of one HD pixel data y and n prediction tap data (SD pixel data) xi corresponding thereto, but the adjusted parameters r and z are adjusted. Corresponding to the change in the value, the spatial band and noise amount in the SD signal generation unit 232 are varied, and a plurality of SD signals are sequentially generated to generate learning data between the HD signal and each SD signal. Is done. As a result, the normal equation generation unit 278 generates a normal equation in which many learning data having different values of the parameters r and z are registered, and the coefficient seed data w10 to wn9 can be obtained.

また、この場合、1個のHD画素データyとそれに対応するn個の予測タップのデータ(SD画素データ)xiとの組み合わせで学習データが生成されるが、正規方程式生成部278では、出力画素(図8のHD1乃至HD4、図9のHD1′乃至HD4′参照)毎に、正規方程式が生成される。例えば、HD1に対応した正規方程式は、中心予測タップに対するずれ値がHD1と同じ関係にあるHD画素データyから構成される学習データから生成される。   Further, in this case, learning data is generated by a combination of one HD pixel data y and n prediction tap data (SD pixel data) xi corresponding thereto, but the normal equation generation unit 278 outputs pixel data. For each (see HD1 to HD4 in FIG. 8, HD1 ′ to HD4 ′ in FIG. 9), a normal equation is generated. For example, a normal equation corresponding to HD1 is generated from learning data composed of HD pixel data y in which the deviation value with respect to the center prediction tap has the same relationship as HD1.

係数種データ決定部279は、正規方程式生成部278で、クラスおよび出力画素の組み合わせ毎に生成された正規方程式のデータの供給を受け、正規方程式を解いて、クラスおよび出力画素の組み合わせ毎に、係数種データw10乃至wn9を求める。係数種データ決定部279は、正規方程式を、例えば、掃き出し法などによって解くことにより、係数種データを求める。   The coefficient seed data determination unit 279 is supplied with data of normal equations generated for each combination of class and output pixel by the normal equation generation unit 278, solves the normal equation, and for each combination of class and output pixel, The coefficient seed data w10 to wn9 are obtained. The coefficient seed data determination unit 279 obtains coefficient seed data by solving a normal equation by, for example, a sweeping method.

係数種メモリ234は、係数種データ決定部279で求められた係数種データを格納する。なお、この係数種データは、基板12、他の基板、あるいは、図示せぬネットワークを介して、テレビジョン受信装置10に提供される。   The coefficient seed memory 234 stores the coefficient seed data obtained by the coefficient seed data determination unit 279. The coefficient seed data is provided to the television receiver 10 via the board 12, another board, or a network (not shown).

次に、図17の予測係数生成装置20の、図18に示される学習画像頻度分布生成部204の動作について説明する。   Next, the operation of the learning image frequency distribution generation unit 204 shown in FIG. 18 of the prediction coefficient generation device 20 in FIG. 17 will be described.

入力端子101には、数十種類の学習画像の、教師信号としてのHD信号(1050i信号)が順に供給され、そしてこのHD信号に対して、SD信号生成部211で、水平および垂直の間引き処理が行われて、数十種類の学習画像の、生徒信号としてのSD信号(525i信号)が生成される。   The input terminal 101 is sequentially supplied with HD signals (1050i signals) as teaching signals of several tens of types of learning images, and the SD signal generation unit 211 performs horizontal and vertical thinning processing on the HD signals. Is performed, and SD signals (525i signals) as student signals of tens of kinds of learning images are generated.

この場合、SD信号生成部211には、HD信号からSD信号を生成する際に用いられる帯域制限フィルタの空間方向帯域を定めるパラメータrおよびノイズ付加状態を定めるパラメータz、換言すれば、生成されるSD信号の空間方向の解像度を定めるパラメータrおよびノイズ量を定めるパラメータzの値が入力される。   In this case, the SD signal generator 211 generates a parameter r that determines the spatial direction band of the band limiting filter used when generating the SD signal from the HD signal, and a parameter z that determines the noise addition state, in other words, is generated. A parameter r for determining the spatial resolution of the SD signal and a parameter z for determining the amount of noise are input.

そして、SD信号生成部211では、パラメータrの値に応じて、HD信号からSD信号を生成する際に用いられる帯域制限フィルタの空間方向が可変され、入力されたパラメータrの値そのものに応じて、ノイズ付加状態が段階的に可変される。   Then, in the SD signal generation unit 211, the spatial direction of the band limiting filter used when generating the SD signal from the HD signal is changed according to the value of the parameter r, and according to the input value of the parameter r itself. The noise addition state is varied step by step.

SD信号生成部211に入力されるパラメータr、およびzの値が順次変更されることで、HD信号からSD信号を生成する際に用いられる帯域制限フィルタの空間方向の帯域およびノイズ付加状態が変更されることから、空間方向の帯域およびノイズ付加状態が段階的に変化した複数のSD信号が生成される。   The parameters r and z input to the SD signal generator 211 are sequentially changed to change the spatial band and noise addition state of the band limiting filter used when generating the SD signal from the HD signal. As a result, a plurality of SD signals in which the spatial band and the noise addition state change stepwise are generated.

特徴量頻度分布生成部212の動きクラスタップ選択部251は、SD信号生成部211からSD信号の供給を受け、SD信号(525i信号)より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する動きクラスタップ(複数のSD画素)のデータを選択的に取り出す。動きクラスタップ選択部251で選択的に取り出された動きクラスタップのデータは、動きクラス検出部254に供給される。   The motion class tap selection unit 251 of the feature amount frequency distribution generation unit 212 is supplied with the SD signal from the SD signal generation unit 211, and constitutes an HD signal (1050i signal) to be created from the SD signal (525i signal). Data of motion class taps (a plurality of SD pixels) located around the four pixels (pixel at the target position) in the pixel block are selectively extracted. The motion class tap data selectively extracted by the motion class tap selection unit 251 is supplied to the motion class detection unit 254.

動きクラス検出部254は、動きクラスタップのデータとしての各SD画素データより、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素に囲まれるSD画素の動きクラス(主に動きの程度を表すためのクラス分類)を検出し、検出したSD画素の動きクラスのクラス情報(MV)を、特徴量頻度分布演算部257に出力する。   The motion class detection unit 254 uses the SD pixel data as the motion class tap data to move the SD pixel motion class (mainly, four pixels in the unit pixel block constituting the HD signal (1050i signal) to be created. Class classification for expressing the degree of motion) is detected, and class information (MV) of the detected motion class of the SD pixel is output to the feature amount frequency distribution calculation unit 257.

また、空間クラスタップ選択部252は、SD信号生成部211からSD信号(525i信号)の供給を受け、SD信号より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する空間クラスタップ(複数のSD画素)のデータを選択的に取り出す。空間クラスタップ選択部252で選択的に取り出された空間クラスタップのデータは、空間クラス検出部255に供給される。   The space class tap selection unit 252 receives the SD signal (525i signal) from the SD signal generation unit 211, and the four pixels in the unit pixel block constituting the HD signal (1050i signal) to be generated from the SD signal. Data of space class taps (a plurality of SD pixels) located around (a pixel at the target position) is selectively extracted. The space class tap data selectively extracted by the space class tap selection unit 252 is supplied to the space class detection unit 255.

空間クラス検出部255は、空間クラスタップのデータとしての各SD画素データに対して、ADRC処理を施して、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素に囲まれるSD画素の空間クラス(主に空間内の波形表現のためのクラス分類)のクラス情報としての再量子化コード(qi)を得て、特徴量頻度分布演算部257に出力する。   The space class detection unit 255 performs ADRC processing on each SD pixel data as space class tap data, and is surrounded by four pixels in a unit pixel block constituting an HD signal (1050i signal) to be created. A requantization code (qi) as class information of the SD pixel spatial class (mainly class classification for waveform expression in the space) is obtained and output to the feature quantity frequency distribution calculation unit 257.

さらに、特徴量生成タップ選択部253は、SD信号生成部211からSD信号(525i信号)の供給を受け、SD信号より、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素(注目位置の画素)の周辺に位置する特徴量生成タップ(複数のSD画素)のデータを選択的に取り出す。特徴量生成タップ選択部253で選択的に取り出された特徴量生成タップのデータは、特徴量生成部256に供給される。   Further, the feature quantity generation tap selection unit 253 receives the SD signal (525i signal) from the SD signal generation unit 211, and the 4 in the unit pixel block constituting the HD signal (1050i signal) to be created from the SD signal. Data of feature quantity generation taps (a plurality of SD pixels) located around the pixel (the pixel at the target position) is selectively extracted. The feature value generation tap data selectively extracted by the feature value generation tap selection unit 253 is supplied to the feature value generation unit 256.

特徴量生成部256は、特徴量生成タップ選択部253で選択的に取り出された特徴量生成タップのデータとしてのSD画素データより、作成すべきHD信号(1050i信号)を構成する単位画素ブロック内の4画素に囲まれるSD画素の特徴量である、例えば、最大値および最小値などを生成し、生成したSD画素の特徴量の値を特徴量頻度分布演算部257に出力する。   The feature quantity generation unit 256 uses the SD pixel data as the feature quantity generation tap data selectively extracted by the feature quantity generation tap selection unit 253, in the unit pixel block constituting the HD signal (1050i signal) to be created. For example, a maximum value and a minimum value, which are feature amounts of the SD pixel surrounded by the four pixels, are generated, and the generated feature value of the SD pixel is output to the feature amount frequency distribution calculation unit 257.

同じSD画素について求められた動きクラス、空間クラス、および特徴量の各情報は、特徴量頻度分布演算部257に供給される。特徴量頻度分布演算部257は、特徴量頻度分布演算部257からの動きクラスおよび空間クラスの組み合わせ毎に、特徴量の頻度をカウントし、特徴量頻度分布(ヒストグラム)を生成する。そして、特徴量頻度分布演算部257は、生成した特徴量頻度分布のデータを、入力端子201からの画像番号に対応付けて、動きクラスおよび空間クラスの組み合わせ毎に学習画像頻度分布メモリ213に記録する。   Each information of the motion class, the space class, and the feature amount obtained for the same SD pixel is supplied to the feature amount frequency distribution calculation unit 257. The feature amount frequency distribution calculation unit 257 counts the frequency of feature amounts for each combination of the motion class and the space class from the feature amount frequency distribution calculation unit 257, and generates a feature amount frequency distribution (histogram). Then, the feature amount frequency distribution calculation unit 257 records the generated feature amount frequency distribution data in the learning image frequency distribution memory 213 for each combination of the motion class and the space class in association with the image number from the input terminal 201. To do.

このようにして、数十種類の学習画像の特徴量頻度分布のデータが予め学習画像頻度分布メモリ213に記録される。   In this way, the data of the feature amount frequency distribution of several tens of types of learning images is recorded in the learning image frequency distribution memory 213 in advance.

次に、図17の予測係数生成装置20の学習画像選択部205の動作について説明する。   Next, the operation of the learning image selection unit 205 of the prediction coefficient generation device 20 in FIG. 17 will be described.

例えば、テレビジョン受信装置10から取り外された基板12が予測係数生成装置20に接続されると、学習画像選択部205の頻度分布比較部221は、基板12の履歴情報メモリ13に記憶されているユーザ視聴画像の特徴量頻度分布のデータを、動きクラスおよび空間クラスの組み合わせ毎に読み出して、平均化し、動きクラスおよび空間クラスの組み合わせ毎の1つの特徴量頻度分布とした上で、学習画像特徴量頻度分布メモリ213に記憶されているすべての学習画像の特徴量頻度分布に対して、動きクラスおよび空間クラスの組み合わせ毎に比較を行っていく。   For example, when the board 12 removed from the television receiver 10 is connected to the prediction coefficient generation apparatus 20, the frequency distribution comparison unit 221 of the learning image selection unit 205 is stored in the history information memory 13 of the board 12. The feature frequency distribution data of the user viewing image is read out for each combination of the motion class and the space class, averaged to obtain one feature frequency distribution for each combination of the motion class and the space class, and then the learning image feature The feature frequency distributions of all learning images stored in the quantity frequency distribution memory 213 are compared for each combination of motion class and space class.

すなわち、頻度分布比較部221は、履歴情報メモリ13から、動きクラスおよび空間クラスの組み合わせ毎に、ユーザ視聴画像の特徴量頻度分布のデータを読み出し、動きクラスおよび空間クラスの組み合わせ毎に平均化する。   That is, the frequency distribution comparison unit 221 reads the feature amount frequency distribution data of the user viewing image for each combination of the motion class and the space class from the history information memory 13, and averages it for each combination of the motion class and the space class. .

そして、頻度分布比較部221は、動きクラスおよび空間クラスの組み合わせ毎に、すべての学習画像の特徴量頻度分布のデータとその画像番号を順に読み出し、読み出した学習画像の特徴量頻度分布と平均化したユーザ視聴画像の特徴量頻度分布との相関係数値Cを求めることで比較する(式(14)参照)。   Then, the frequency distribution comparison unit 221 sequentially reads the feature amount frequency distribution data of all the learning images and the image numbers for each combination of the motion class and the space class, and averages the feature amount frequency distribution of the read learning image. The correlation coefficient value C with the feature amount frequency distribution of the user viewing image thus obtained is compared (see formula (14)).

求められた比較値としての相関係数値Cは、対応する動きクラスおよび空間クラスの情報と画像番号とともに、学習画像選択部222に出力される。   The obtained correlation coefficient value C as a comparison value is output to the learning image selection unit 222 together with the corresponding motion class and space class information and the image number.

学習画像選択部222は、動きクラスおよび空間クラスの組み合わせ毎に、すべての学習画像の比較値である相関係数値Cを評価し、最大の相関係数値Cを有する学習画像の特徴量頻度分布が、ユーザ視聴画像の特徴量頻度分布と最も似ているとして、その学習画像を選択し、動きクラスおよび空間クラスの組み合わせ毎に、選択した選択画像番号を学習画像テーブル223に記録していく。   The learning image selection unit 222 evaluates the correlation coefficient value C, which is a comparison value of all learning images, for each combination of the motion class and the space class, and the feature amount frequency distribution of the learning image having the maximum correlation coefficient value C is obtained. The learning image is selected as being most similar to the feature amount frequency distribution of the user viewing image, and the selected selected image number is recorded in the learning image table 223 for each combination of the motion class and the space class.

このようにして、学習画像テーブル223には、すべての動きクラスおよび空間クラスの組み合わせ毎の、ユーザ視聴画像に特徴量頻度分布が最も似ているとされた学習画像の画像番号が、選択画像番号として記憶される。   In this way, in the learning image table 223, the image number of the learning image for which the feature amount frequency distribution is most similar to the user viewing image for each combination of the motion class and the space class is selected image number. Is remembered as

この選択画像番号は、係数種データ生成部206がテレビジョン受信装置10の係数種データを生成する際に、画像セット記憶部231に入力される。このとき、この選択画像番号に対応する動きクラスの情報および空間クラスの情報も予測係数学習部233に入力される。   The selected image number is input to the image set storage unit 231 when the coefficient seed data generation unit 206 generates coefficient seed data of the television receiver 10. At this time, the motion class information and the space class information corresponding to the selected image number are also input to the prediction coefficient learning unit 233.

次に、図17の予測係数生成装置20の、図23に示される係数種データ生成部206の動作について説明する。   Next, the operation of the coefficient seed data generation unit 206 shown in FIG. 23 of the prediction coefficient generation apparatus 20 in FIG. 17 will be described.

画像セット記憶部231には、入力端子202から、学習画像頻度分布生成部204に入力されたものと同じ、数十種類の学習画像のHD信号が入力され、記憶されている。学習画像テーブル223から、係数種データを生成する動きクラスの情報および空間クラスの情報が、第2のクラス合成部277に順に出力される。このとき、同時に、第2のクラス合成部277に出力される動きクラスおよび空間クラスの選択画像番号が、画像セット記憶部231に出力される。   The image set storage unit 231 receives and stores dozens of types of HD signals of learning images that are the same as those input to the learning image frequency distribution generation unit 204 from the input terminal 202. From the learning image table 223, information on the motion class for generating coefficient seed data and information on the space class are sequentially output to the second class synthesis unit 277. At the same time, the selected image number of the motion class and the space class output to the second class synthesis unit 277 is output to the image set storage unit 231.

画像セット記憶部231は、学習画像テーブル223から選択画像番号を受け、選択画像番号に対応する学習画像のHD信号を選択する。画像セット記憶部231により選択された学習画像のHD信号は、SD信号生成部232および正規方程式生成部278に入力される。   The image set storage unit 231 receives the selected image number from the learning image table 223 and selects the HD signal of the learning image corresponding to the selected image number. The HD signal of the learning image selected by the image set storage unit 231 is input to the SD signal generation unit 232 and the normal equation generation unit 278.

このHD信号に対して、SD信号生成部232で、水平および垂直の間引き処理が行われて、選択画像番号に対応する学習画像の生徒信号としてのSD信号(525i信号)が生成される。   The HD signal is subjected to horizontal and vertical thinning processing by the SD signal generation unit 232 to generate an SD signal (525i signal) as a student signal of the learning image corresponding to the selected image number.

この場合、SD信号生成部232には、HD信号からSD信号を生成する際に用いられる帯域制限フィルタの空間方向帯域を定めるパラメータrおよびノイズ付加状態を定めるパラメータz、換言すれば、生成されるSD信号の空間方向の解像度を定めるパラメータrおよびノイズ量を定めるパラメータzの値が入力される。   In this case, the SD signal generation unit 232 generates a parameter r for determining the spatial band of the band limiting filter used when generating the SD signal from the HD signal and a parameter z for determining the noise addition state, in other words, generated. A parameter r for determining the spatial resolution of the SD signal and a parameter z for determining the amount of noise are input.

そして、SD信号生成部232では、パラメータrの値に応じて、HD信号からSD信号を生成する際に用いられる帯域制限フィルタの空間方向が可変され、入力されたパラメータrの値そのものに応じて、ノイズ付加状態が段階的に可変される。   Then, in the SD signal generation unit 232, the spatial direction of the band limiting filter used when generating the SD signal from the HD signal is changed according to the value of the parameter r, and according to the value of the input parameter r itself. The noise addition state is varied step by step.

SD信号生成部232に入力されるパラメータr、およびzの値が順次変更されることで、HD信号からSD信号を生成する際に用いられる帯域制限フィルタの空間方向の帯域およびノイズ付加状態が変更されることから、空間方向の帯域およびノイズ付加状態が段階的に変化した複数のSD信号が生成される。   The parameters r and z that are input to the SD signal generator 232 are sequentially changed to change the spatial band and noise addition state of the band limiting filter used when generating the SD signal from the HD signal. As a result, a plurality of SD signals in which the spatial band and the noise addition state change stepwise are generated.

また、SD信号生成部232で生成されたSD信号(525i信号)より、第2のタップ選択部272で、HD信号(1050i信号)における注目位置の周辺に位置する空間クラスタップのデータ(SD画素データ)が選択的に取り出される。この第2のタップ選択部272で選択的に取り出された空間クラスタップのデータ(SD画素データ)は、空間クラス検出部274に供給される。空間クラス検出部274では、空間クラスタップのデータとしての各SD画素データに対してADRC処理が施されて、空間クラス(主に空間内の波形表現のためのクラス分類)のクラス情報としての再量子化コードqiが得られる(式(1)参照)。   Further, from the SD signal (525i signal) generated by the SD signal generation unit 232, the second tap selection unit 272 uses the spatial class tap data (SD pixel) located around the target position in the HD signal (1050i signal). Data) is selectively retrieved. The space class tap data (SD pixel data) selectively extracted by the second tap selection unit 272 is supplied to the space class detection unit 274. In the space class detection unit 274, ADRC processing is performed on each SD pixel data as space class tap data, and reclassification as class information of the space class (mainly class classification for waveform representation in space) is performed. A quantization code qi is obtained (see equation (1)).

また、SD信号生成部232で生成されたSD信号より、第3のタップ選択部273で、HD信号に係る注目画素の周辺に位置する動きクラスタップのデータ(SD画素データ)が選択的に取り出される。この第3のタップ選択部273で選択的に取り出された動きクラスタップのデータ(SD画素データ)は、動きクラス検出部275に供給される。この動きクラス検出部275では、動きクラスタップのデータとしての各SD画素データより動きクラス(主に動きの程度を表すためのクラス分類)のクラス情報MVが得られる。   Further, from the SD signal generated by the SD signal generation unit 232, the third tap selection unit 273 selectively extracts data of the motion class tap (SD pixel data) located around the target pixel related to the HD signal. It is. The motion class tap data (SD pixel data) selectively extracted by the third tap selection unit 273 is supplied to the motion class detection unit 275. In this motion class detection unit 275, class information MV of a motion class (mainly class classification for representing the degree of motion) is obtained from each SD pixel data as motion class tap data.

クラス情報MVと再量子化コードqiとは、第1のクラス合成部276に供給される。第1のクラス合成部276は、供給されたクラス情報MVと再量子化コードqiとから、HD信号(1050i信号)における注目位置の画素データが属するクラスを示す第1のクラスコードCL1を得る(式(3)参照)。   The class information MV and the requantization code qi are supplied to the first class synthesis unit 276. The first class synthesis unit 276 obtains the first class code CL1 indicating the class to which the pixel data at the target position in the HD signal (1050i signal) belongs from the supplied class information MV and the requantization code qi ( (Refer Formula (3)).

また、第2のクラス合成部277は、画像セット記憶部231に入力された選択画像番号に対応して、学習画像テーブル223から入力される動きクラスの情報MVおよび空間クラスの情報qiから第2のクラスコードCL2を得る。   In addition, the second class synthesis unit 277 corresponds to the selected image number input to the image set storage unit 231 and outputs the second from the motion class information MV and the space class information qi input from the learning image table 223. Get the class code CL2.

一方、SD信号生成部232で生成されるSD信号より、第1のタップ選択部271で、HD信号における注目位置の周辺に位置する予測タップのデータ(SD画素データ)が選択的に取り出される。   On the other hand, from the SD signal generated by the SD signal generation unit 232, the first tap selection unit 271 selectively extracts data of predicted taps (SD pixel data) located around the target position in the HD signal.

そして、正規方程式生成部278では、SD信号のクラス検出結果であり、第1のクラス合成部276の出力である第1のクラスコードCL1と、学習画像テーブル223における選択結果であり、第2のクラス合成部277の出力である第2のクラスコードCL2が一致した場合のみ、正規方程式が生成される。   Then, in the normal equation generation unit 278, the class detection result of the SD signal, the first class code CL1 output from the first class synthesis unit 276, and the selection result in the learning image table 223, the second A normal equation is generated only when the second class code CL2 output from the class synthesis unit 277 matches.

すなわち、正規方程式生成部278においては、画像セット記憶部231からのHD信号より得られる注目位置の画素データとしての各HD画素データyと、この各HD画素データyにそれぞれ対応して第1のタップ選択部271で選択的に取り出された予測タップのデータ(SD画素データ)xiと、パラメータr、およびzの値と、各HD画素データyにそれぞれ対応して第1のクラス合成部276(第2のクラス合成部277)より出力されるクラスコードとから、クラスおよび出力画素の組み合わせ毎に、係数種データw10乃至wn9を得るための正規方程式(式(13)参照)が個別に生成される。   That is, in the normal equation generation unit 278, each HD pixel data y as pixel data of the target position obtained from the HD signal from the image set storage unit 231 and the first HD pixel data y corresponding to each of the HD pixel data y, respectively. Predictive tap data (SD pixel data) xi selectively extracted by the tap selection unit 271, the values of parameters r and z, and the first class composition unit 276 ( From the class code output from the second class synthesis unit 277), a normal equation (see equation (13)) for obtaining coefficient seed data w10 to wn9 is generated for each combination of class and output pixel. The

そして、係数種データ決定部279で各正規方程式が解かれ、クラスおよび出力画素の組み合わせ毎の係数種データw10乃至wn9が求められ、それらの係数種データw10乃至wn9は、係数種メモリ234に格納される。なお、この係数種データは、基板12、他の基板、あるいは、図示せぬネットワークを介して、テレビジョン受信装置10に提供される。   The coefficient seed data determination unit 279 solves each normal equation to obtain coefficient seed data w10 to wn9 for each combination of class and output pixel, and these coefficient seed data w10 to wn9 are stored in the coefficient seed memory 234. Is done. The coefficient seed data is provided to the television receiver 10 via the board 12, another board, or a network (not shown).

以上のように、図23に示される係数種データ生成部206においては、図7の画像信号処理部35の情報メモリバンク61に格納される、クラスおよび出力画素(HD1乃至HD4,HD1′乃至HD4′)の組み合わせ毎の、推定式で用いられる係数データWiを求めるための生成式(式(5)参照)における係数データである係数種データw10乃至wn9を生成することができる。   As described above, in the coefficient seed data generation unit 206 shown in FIG. 23, classes and output pixels (HD1 to HD4, HD1 ′ to HD4) stored in the information memory bank 61 of the image signal processing unit 35 of FIG. It is possible to generate coefficient seed data w10 to wn9 which are coefficient data in a generation expression (see Expression (5)) for obtaining coefficient data Wi used in the estimation expression for each combination of ′).

また、この係数種データ生成部206において、例えば、テレビジョン受信装置10をバージョンアップする場合であって、その情報メモリバンク61に格納される係数種データw10乃至wn9を生成する際には、テレビジョン受信装置10から取り外された基板12の履歴情報メモリ13に記憶されている、テレビジョン受信装置10においてユーザにより過去に視聴されたユーザ視聴画像の特徴量頻度分布と似ている特徴量頻度分布を有する学習画像が選択され、選択された学習画像のみが用いられる。   Further, in the coefficient seed data generation unit 206, for example, when the television receiver 10 is upgraded, when generating the coefficient seed data w10 to wn9 stored in the information memory bank 61, the TV Feature amount frequency distribution similar to the feature amount frequency distribution of the user viewing image previously viewed by the user in the television receiver 10, which is stored in the history information memory 13 of the board 12 removed from the John receiver 10. Is selected, and only the selected learning image is used.

したがって、従来のように複数種類の学習画像から係数種データを求める場合よりも、選択された学習画像のみを用いて係数種データを求めることができるので、係数種データを効率的に生成することができる。   Therefore, since the coefficient seed data can be obtained using only the selected learning image, compared to the case where the coefficient seed data is obtained from a plurality of kinds of learning images as in the prior art, the coefficient seed data can be generated efficiently. Can do.

また、係数種データは、選択された学習画像のみから求められたものであるので、この係数種データw10乃至wn9を、テレビジョン受信装置10に供給し、情報メモリバンク61に格納して使用することで、テレビジョン受信装置10において、ユーザがよく視聴する画像については、変換した場合の予測誤差が小さくすることができ、テレビジョン受信装置10は、設置されているユーザ宅における最高の性能を発揮することができるようになる。これにより、ユーザは、自分がよく視聴する画像を、最適な品質で視聴することが可能になる。   Further, since the coefficient seed data is obtained only from the selected learning image, the coefficient seed data w10 to wn9 are supplied to the television receiver 10 and stored in the information memory bank 61 for use. Thus, in the television receiver 10, the prediction error when the image is often converted by the user can be reduced, and the television receiver 10 has the highest performance in the installed user's house. It will be possible to demonstrate. As a result, the user can view images that he / she often views with optimum quality.

次に、図24のフローチャートを参照して、画像信号処理部35による、SD信号よりHD信号を得るための画像信号処理について説明する。   Next, image signal processing for obtaining an HD signal from an SD signal by the image signal processing unit 35 will be described with reference to the flowchart of FIG.

ステップS11において、画像信号処理部35は、SD画素データをフレーム単位またはフィールド単位で取得する。   In step S11, the image signal processing unit 35 acquires SD pixel data in units of frames or fields.

ステップS12において、画像信号処理部35は、入力SD画素データの全フレームまたは全フィールドの処理が終わっているか否かを判定する。ステップS12において、処理が終わっていないと判定された場合、ステップS13において、画像信号処理部35は、リモートコントローラ41からのユーザの操作信号がシステムコントローラ32に入力されたか否かを判定する。   In step S12, the image signal processing unit 35 determines whether or not processing of all frames or all fields of the input SD pixel data has been completed. If it is determined in step S12 that the processing has not been completed, the image signal processing unit 35 determines whether or not a user operation signal from the remote controller 41 is input to the system controller 32 in step S13.

リモートコントローラ41からのユーザの操作信号がシステムコントローラ32に入力されると、システムコントローラ32は、その通知を画像信号処理部35の情報生成制御部65に供給してくるので、ステップS13において、システムコントローラ32にユーザの操作信号が入力されたと判定され、ステップS14において、画像信号処理部35の特徴量頻度分布生成部66は、履歴情報の更新処理を実行する。この履歴情報の更新処理の詳細な説明は、図25を参照して後述する。   When a user operation signal from the remote controller 41 is input to the system controller 32, the system controller 32 supplies the notification to the information generation control unit 65 of the image signal processing unit 35. In step S13, the system It is determined that a user operation signal has been input to the controller 32, and in step S14, the feature amount frequency distribution generation unit 66 of the image signal processing unit 35 executes history information update processing. A detailed description of this history information update processing will be described later with reference to FIG.

ステップS14の履歴情報の更新処理により、ステップS11において取得されたSD画素データより、画像の特徴量情報である特徴量頻度分布が、動きクラスおよび空間クラスの組み合わせ毎に求められ、そのデータが履歴情報メモリ13に記録される。ステップS13において、システムコントローラ32にユーザの操作信号が入力されていないと判定された場合、ステップS14はスキップされ、処理は、ステップS15に進む。   As a result of the history information update process in step S14, a feature amount frequency distribution, which is image feature amount information, is obtained for each combination of motion class and space class from the SD pixel data acquired in step S11. It is recorded in the information memory 13. If it is determined in step S13 that no user operation signal is input to the system controller 32, step S14 is skipped, and the process proceeds to step S15.

ステップS15において、画像信号処理部35は、例えば、ユーザのリモートコントローラ41の操作によって入力された画質指定値(例えばパラメータr、およびz)を取得する。   In step S <b> 15, the image signal processing unit 35 acquires image quality designation values (for example, parameters r and z) input by the user's operation of the remote controller 41, for example.

ステップS16において、画像信号処理部35の係数生成部62は、読み込んだ画質指定値、クラスおよび出力画素(図8のHD1乃至HD4、図9のHD1′乃至HD4′参照)の各組み合わせの係数種データを使用して、例えば式(5)の生成式によって、各組み合わせの推定式(式(4)参照)の係数データWiを生成する。   In step S16, the coefficient generation unit 62 of the image signal processing unit 35 selects the coefficient type of each combination of the read image quality designation value, class, and output pixel (see HD1 to HD4 in FIG. 8, HD1 ′ to HD4 ′ in FIG. 9). Using the data, for example, coefficient data Wi of the estimation formula (see formula (4)) of each combination is generated by the generation formula of formula (5).

なお、この係数種データは、ステップS14において、ステップS11において取得されたSD画素データより、動きクラスおよび空間クラスの組み合わせ毎に求められ、履歴情報メモリ13に記録された画像の特徴量頻度分布のデータが用いられて、予測係数生成装置20において生成されたものである。   The coefficient seed data is obtained for each combination of motion class and space class from the SD pixel data acquired in step S11 in step S14, and the feature amount frequency distribution of the image recorded in the history information memory 13 is obtained. The data is used and is generated by the prediction coefficient generation device 20.

画像信号処理部35は、ステップS17において、ステップS11において取得されたSD画素データより、生成すべき各HD画素データに対応して、クラスタップおよび予測タップの画素データを取得する。   In step S17, the image signal processing unit 35 acquires pixel data of class taps and prediction taps corresponding to each HD pixel data to be generated from the SD pixel data acquired in step S11.

ステップS18において、画像信号処理部35は、取得されたSD画素データの全領域において、HD画素データを得る処理が終了したか否かを判定する。ステップS18において、取得されたSD画素データの全領域において処理は終了していると判定された場合、処理は、ステップS11に戻り、同様の処理が繰り返されることにより、次のフレームまたはフィールドのSD画素データに対する処理が実行される。   In step S <b> 18, the image signal processing unit 35 determines whether or not the processing for obtaining HD pixel data has been completed in the entire area of the acquired SD pixel data. If it is determined in step S18 that the processing has been completed in the entire area of the acquired SD pixel data, the processing returns to step S11, and the same processing is repeated, so that the SD of the next frame or field is repeated. Processing on the pixel data is executed.

ステップS18において、取得されたSD画素データの全領域において処理は終了していないと判定された場合、ステップS19において、画像信号処理部35のクラス合成部56は、ステップS17において取得されたクラスタップのSD画素データから、クラスコードCLを生成する。   If it is determined in step S18 that the processing has not been completed in the entire area of the acquired SD pixel data, in step S19, the class combining unit 56 of the image signal processing unit 35 acquires the class tap acquired in step S17. Class code CL is generated from the SD pixel data.

ステップS20において、画像信号処理部35は、クラスコードCLに対応した係数データWiと予測タップのSD画素データとを使用して、推定式により、HD画素データを生成する。ステップS20の処理の終了後、処理は、ステップS17に戻り、上述した処理と同様の処理が繰り返される。   In step S20, the image signal processing unit 35 uses the coefficient data Wi corresponding to the class code CL and the SD pixel data of the prediction tap to generate HD pixel data using an estimation formula. After the process of step S20 is complete | finished, a process returns to step S17 and the process similar to the process mentioned above is repeated.

ステップS12において、全フレーム、または全フィールドの処理が終了したと判定された場合、処理が終了される。   If it is determined in step S12 that the processing for all frames or all fields has been completed, the processing ends.

以上のようにして、画像信号処理部35において、ユーザ視聴画像の特徴量頻度分布を予め記憶しておき、その画像の特徴量頻度分布のデータが用いられて生成された係数種データを用いて画像処理を行うことにより、テレビジョン受信装置10は、ユーザがよく視聴するコンテンツ(画像)について、HD画像データを、予測精度を向上させて生成することができる。   As described above, the image signal processing unit 35 stores the feature amount frequency distribution of the user viewing image in advance, and uses the coefficient seed data generated by using the feature amount frequency distribution data of the image. By performing image processing, the television receiver 10 can generate HD image data with improved prediction accuracy for content (images) often viewed by the user.

したがって、テレビジョン受信装置10は、設置されているユーザ宅における最高の性能を発揮することができるようになる。   Therefore, the television receiver 10 can exhibit the highest performance in the installed user's house.

次に、図25のフローチャートを参照して、特徴量頻度分布生成部66による図24のステップS14の履歴情報の更新処理を詳しく説明する。   Next, the history information update processing in step S14 in FIG. 24 by the feature amount frequency distribution generation unit 66 will be described in detail with reference to the flowchart in FIG.

ステップS41において、特徴量頻度分布生成部66の動きクラス検出部74は、図24のステップS11において取得され、動きクラスタップ選択部71により選択的に取り出された動きクラスタップのデータとしての各SD画素データより、作成すべきHD信号を構成する単位画素ブロック内の4画素に囲まれるSD画素の動きクラスを検出し、検出したSD画素の動きクラスのクラス情報(MV)を、特徴量頻度分布演算部77に出力する。   In step S41, the motion class detection unit 74 of the feature quantity frequency distribution generation unit 66 acquires each SD as data of the motion class tap acquired in step S11 of FIG. 24 and selectively extracted by the motion class tap selection unit 71. From the pixel data, the motion class of the SD pixel surrounded by the 4 pixels in the unit pixel block constituting the HD signal to be created is detected, and the class information (MV) of the detected motion class of the SD pixel is detected as the feature frequency distribution. The result is output to the calculation unit 77.

ステップS42において、空間クラス検出部75は、図24のステップS11において取得され、空間クラスタップ選択部72により選択的に取り出された空間クラスタップのデータとしての各SD画素データより、作成すべきHD信号を構成する単位画素ブロック内の4画素に囲まれるSD画素の空間クラスのクラス情報としての再量子化コード(qi)を得て、特徴量頻度分布演算部77に出力する。   In step S42, the space class detection unit 75 obtains the HD to be created from each SD pixel data as the space class tap data acquired in step S11 of FIG. 24 and selectively extracted by the space class tap selection unit 72. A requantization code (qi) is obtained as class information of the spatial class of the SD pixel surrounded by four pixels in the unit pixel block constituting the signal, and is output to the feature amount frequency distribution calculation unit 77.

ステップS43において、特徴量生成タップ選択部73は、図24のステップS11において取得され、特徴量生成タップ選択部73により選択的に取り出された特徴量生成タップのデータとしてのSD画素データより、作成すべきHD信号を構成する単位画素ブロック内の4画素に囲まれるSD画素の特徴量を生成し、生成したSD画素の特徴量の値を特徴量頻度分布演算部77に出力する。   In step S43, the feature quantity generation tap selection unit 73 is created from the SD pixel data as the feature quantity generation tap data acquired in step S11 of FIG. 24 and selectively extracted by the feature quantity generation tap selection unit 73. The feature amount of the SD pixel surrounded by the four pixels in the unit pixel block constituting the HD signal to be generated is generated, and the generated feature value of the SD pixel is output to the feature amount frequency distribution calculation unit 77.

ステップS44において、特徴量頻度分布演算部77は、供給された動きクラスおよび空間クラスの組み合わせ毎に、特徴量の頻度をカウントし、特徴量頻度分布(ヒストグラム)を生成する。   In step S44, the feature quantity frequency distribution calculation unit 77 counts the feature quantity frequency for each combination of the supplied motion class and space class, and generates a feature quantity frequency distribution (histogram).

ステップS45において、特徴量頻度分布演算部77は、ステップS44において生成された特徴量頻度分布のデータを、履歴情報メモリ13に記憶されている操作信号の操作履歴情報に対応付けて、動きクラスおよび空間クラスの組み合わせ毎に記録する。   In step S45, the feature quantity frequency distribution calculating unit 77 associates the feature quantity frequency distribution data generated in step S44 with the operation history information of the operation signal stored in the history information memory 13, and the motion class and Record each space class combination.

以上のようにして履歴情報メモリ13に記録された動きクラスおよび空間クラスの組み合わせ毎のユーザ視聴画像の特徴量頻度分布のデータは、予測係数生成装置20において、テレビジョン受信装置10の係数種データを更新する際に用いられる。   The feature amount frequency distribution data of the user viewing image for each combination of the motion class and the space class recorded in the history information memory 13 as described above is the coefficient seed data of the television receiver 10 in the prediction coefficient generator 20. Used when updating.

次に、図26のフローチャートを参照して、予測係数生成装置20の予測係数生成処理を説明する。   Next, the prediction coefficient generation processing of the prediction coefficient generation device 20 will be described with reference to the flowchart of FIG.

テレビジョン受信装置10の係数種データを更新するため、履歴情報メモリ13が構成されている基板12が、テレビジョン受信装置10から取り外されて、予測係数生成装置20に接続される。   In order to update the coefficient seed data of the television receiver 10, the board 12 on which the history information memory 13 is configured is removed from the television receiver 10 and connected to the prediction coefficient generator 20.

予測係数生成装置20は、ステップS61において、入力端子202を介して、数十種類の学習画像の、教師信号としてのHD信号(1050i信号)を入力し、入力端子201を介して、入力端子202から入力される教師信号が対応する学習画像の画像番号を入力する。なお、このとき、入力端子203からは、パラメータr、およびzの値が入力される。   In step S <b> 61, the prediction coefficient generation apparatus 20 inputs an HD signal (1050i signal) as a teaching signal of several tens of kinds of learning images via the input terminal 202, and inputs the input terminal 202 via the input terminal 201. The image number of the learning image corresponding to the teacher signal input from is input. At this time, parameters r and z are input from the input terminal 203.

ステップS62において、予測係数生成装置20は、係数種データ生成部206の画像セット記憶部231に、入力端子202からの数十種類の学習画像の、教師信号としてのHD信号を受け、記憶させる。   In step S <b> 62, the prediction coefficient generation device 20 receives and stores HD signals as teaching signals of dozens of types of learning images from the input terminal 202 in the image set storage unit 231 of the coefficient seed data generation unit 206.

ステップS63において、予測係数生成装置20の学習画像頻度分布生成部204は、入力端子201および202からそれぞれ入力されるHD信号とその画像番号を受け、学習画像の特徴量頻度分布生成処理を実行する。この学習画像の特徴量頻度分布生成処理は、図27を参照して詳しく後述する。   In step S <b> 63, the learning image frequency distribution generation unit 204 of the prediction coefficient generation device 20 receives the HD signal and the image number input from the input terminals 201 and 202, and executes a learning image feature frequency distribution generation process. . The learning image feature amount frequency distribution generation processing will be described later in detail with reference to FIG.

ステップS63の学習画像の特徴量頻度分布生成処理により、動きクラスおよび空間クラスの組み合わせ毎に学習画像の特徴量頻度分布が生成され、そのデータが、学習画像の画像番号に対応付けて、学習画像頻度分布メモリ213に記録される。   In the learning image feature amount frequency distribution generation processing in step S63, a feature amount frequency distribution of the learning image is generated for each combination of the motion class and the space class, and the data is associated with the image number of the learning image, and the learning image It is recorded in the frequency distribution memory 213.

ステップS64において、予測係数生成装置20は、すべての学習画像が入力されたか否かを判定し、すべての学習画像が入力されていないと判定した場合、処理は、ステップS61に戻り、それ以降の処理が繰り返される。   In step S64, the prediction coefficient generation device 20 determines whether or not all learning images have been input. If it is determined that all learning images have not been input, the process returns to step S61, and thereafter The process is repeated.

ステップS64において、すべての学習画像が入力されたと判定された場合、ステップS65において、予測係数生成装置20は、1つの動きクラスおよび空間クラスの組み合わせを選択する。   If it is determined in step S64 that all learning images have been input, in step S65, the prediction coefficient generation device 20 selects one combination of motion class and space class.

ステップS66において、予測係数生成装置20の学習画像選択部205は、ステップS65において選択された動きクラスおよび空間クラスの組み合わせについて、学習画像の選択処理を実行する。この学習画像の選択処理は、図28を参照して詳しく後述する。   In step S66, the learning image selection unit 205 of the prediction coefficient generation device 20 performs learning image selection processing for the combination of the motion class and the space class selected in step S65. This learning image selection processing will be described later in detail with reference to FIG.

ステップS66の学習画像の選択処理により、1つの動きクラスおよび空間クラスの組み合わせについて、基板12の履歴情報メモリ13に記憶されているユーザ視聴画像の特徴量頻度分布と、学習画像頻度分布メモリ213に記録されているすべての学習画像の特徴量頻度分布が比較され、学習画像の中から、ユーザ視聴画像に似ているものが選択される。そして、選択された学習画像の画像番号が、選択画像番号として、動きクラスおよび空間クラスの組み合わせとともに学習画像テーブル223に記録される。   With the learning image selection processing in step S66, the feature amount frequency distribution of the user viewing image stored in the history information memory 13 of the board 12 and the learning image frequency distribution memory 213 for one combination of motion class and space class are stored. The feature amount frequency distributions of all recorded learning images are compared, and a learning image similar to the user viewing image is selected. Then, the image number of the selected learning image is recorded in the learning image table 223 together with the combination of the motion class and the space class as the selected image number.

ステップS67において、係数種データ生成部206は、ステップS66において学習画像テーブル223に記録された選択画像番号の学習画像を用いて、対応する動きクラスおよび空間クラスの組み合わせの係数種データ生成処理を実行する。この係数種データ生成処理は、図29を参照して詳しく後述する。   In step S67, the coefficient seed data generation unit 206 executes coefficient seed data generation processing of the combination of the corresponding motion class and space class using the learning image of the selected image number recorded in the learning image table 223 in step S66. To do. The coefficient seed data generation process will be described later in detail with reference to FIG.

ステップS67の係数種データ生成処理により、1つの動きクラスおよび空間クラスの組み合わせの係数種データが、ステップS66においてユーザ視聴画像と似ているとされた学習画像のみを用いて生成され、生成された係数種データが記録される。   By the coefficient seed data generation processing in step S67, coefficient seed data of a combination of one motion class and a space class is generated and generated using only the learning image that is similar to the user viewing image in step S66. Coefficient seed data is recorded.

ステップS68において、予測係数生成装置20は、すべての動きクラスおよび空間クラスの組み合わせの係数種データを求めたか否かを判定し、すべての動きクラスおよび空間クラスの組み合わせの係数種データをまだ求めていないと判定した場合、処理は、ステップS65に戻り、それ以降の処理が繰り返される。   In step S68, the prediction coefficient generation device 20 determines whether coefficient seed data for all the motion class and space class combinations has been obtained, and has yet to obtain coefficient seed data for all the motion class and space class combinations. If it is determined that there is no such process, the process returns to step S65, and the subsequent processes are repeated.

ステップS68において、すべての動きクラスおよび空間クラスの組み合わせの係数種データを求めたと判定された場合、処理は終了される。   If it is determined in step S68 that coefficient seed data for all combinations of motion classes and space classes has been obtained, the process ends.

次に、図27のフローチャートを参照して、図26のステップS63の学習画像の特徴量頻度分布生成処理について詳しく説明する。なお、図27のステップS82乃至S85の処理は、図25のステップS41乃至S44の処理と基本的に同様の処理を行う。   Next, the learning image feature amount frequency distribution generation processing in step S63 in FIG. 26 will be described in detail with reference to the flowchart in FIG. Note that the processing in steps S82 to S85 in FIG. 27 is basically the same as the processing in steps S41 to S44 in FIG.

ステップS81において、SD信号生成部211は、入力端子202からの学習画像のHD信号に対して、入力端子203から入力されるパラメータr、およびzの値を用いて、水平および垂直の間引き処理を行って、学習画像の生徒信号としてのSD信号を得る。   In step S <b> 81, the SD signal generation unit 211 performs horizontal and vertical thinning processing on the learning image HD signal from the input terminal 202 using the values of the parameters r and z input from the input terminal 203. To obtain an SD signal as a student signal of the learning image.

ステップS82において、特徴量頻度分布生成部212の動きクラス検出部254は、ステップS81において得られ、動きクラスタップ選択部251により選択的に取り出された動きクラスタップのデータとしての各SD画素データより、作成すべきHD信号を構成する単位画素ブロック内の4画素に囲まれるSD画素の動きクラスを検出し、検出したSD画素の動きクラスのクラス情報(MV)を、特徴量頻度分布演算部257に出力する。   In step S82, the motion class detection unit 254 of the feature amount frequency distribution generation unit 212 is obtained from each SD pixel data as the motion class tap data obtained in step S81 and selectively extracted by the motion class tap selection unit 251. The motion class of the SD pixel surrounded by the four pixels in the unit pixel block constituting the HD signal to be created is detected, and the class information (MV) of the detected motion class of the SD pixel is detected as the feature amount frequency distribution calculation unit 257. Output to.

ステップS83において、空間クラス検出部255は、ステップS81において取得され、空間クラスタップ選択部252により選択的に取り出された空間クラスタップのデータとしての各SD画素データより、作成すべきHD信号を構成する単位画素ブロック内の4画素に囲まれるSD画素の空間クラスのクラス情報としての再量子化コード(qi)を得て、特徴量頻度分布演算部257に出力する。   In step S83, the space class detection unit 255 configures an HD signal to be generated from each SD pixel data as the space class tap data acquired in step S81 and selectively extracted by the space class tap selection unit 252. The requantization code (qi) as class information of the spatial class of the SD pixel surrounded by the four pixels in the unit pixel block to be obtained is obtained and output to the feature amount frequency distribution calculation unit 257.

ステップS84において、特徴量生成タップ選択部253は、ステップS81において取得され、特徴量生成タップ選択部253により選択的に取り出された特徴量生成タップのデータとしてのSD画素データより、作成すべきHD信号を構成する単位画素ブロック内の4画素に囲まれるSD画素の特徴量を生成し、生成したSD画素の特徴量の値を特徴量頻度分布演算部257に出力する。   In step S84, the feature amount generation tap selection unit 253 obtains the HD to be created from the SD pixel data as the feature amount generation tap data acquired in step S81 and selectively extracted by the feature amount generation tap selection unit 253. The feature amount of the SD pixel surrounded by the four pixels in the unit pixel block constituting the signal is generated, and the generated feature value of the SD pixel is output to the feature amount frequency distribution calculation unit 257.

ステップS85において、特徴量頻度分布演算部257は、供給された動きクラスおよび空間クラスの組み合わせ毎に、特徴量の頻度をカウントし、特徴量頻度分布(ヒストグラム)を生成する。   In step S85, the feature amount frequency distribution calculation unit 257 counts the feature amount frequency for each combination of the supplied motion class and space class, and generates a feature amount frequency distribution (histogram).

ステップS86において、特徴量頻度分布演算部257は、ステップS85において生成された特徴量頻度分布のデータを、図26のステップS61で入力端子201より受けた画像番号に対応付けて、動きクラスおよび空間クラスの組み合わせ毎に学習画像頻度分布メモリ213に記録する。これにより、特徴量頻度分布生成処理は終了され、処理は、図26のステップS63に戻る。   In step S86, the feature quantity frequency distribution calculation unit 257 associates the data of the feature quantity frequency distribution generated in step S85 with the image number received from the input terminal 201 in step S61 in FIG. Each class combination is recorded in the learning image frequency distribution memory 213. Thereby, the feature amount frequency distribution generation process is terminated, and the process returns to step S63 in FIG.

次に、図28のフローチャートを参照して、図26のステップS66の学習画像選択処理について説明する。   Next, the learning image selection processing in step S66 in FIG. 26 will be described with reference to the flowchart in FIG.

ステップS101において、頻度分布比較部221は、図26のステップS65で選択された動きクラスおよび空間クラスの組み合わせについて、すべての画像の特徴量頻度分布のデータを、履歴情報メモリ12および学習画像頻度分布メモリ213から読み出す。   In step S101, the frequency distribution comparison unit 221 uses the history information memory 12 and the learning image frequency distribution for the feature amount frequency distribution data of all the images for the combination of the motion class and the space class selected in step S65 of FIG. Read from the memory 213.

なお、このとき、頻度分布比較部221は、履歴情報メモリ12からのユーザ視聴画像の特徴量頻度分布を平均化して1つにまとめる。平均化することなく、1画像ずつ比較することも可能であるが、平均化しての処理の方が、演算の負荷が少なく、効率的である。   At this time, the frequency distribution comparison unit 221 averages and collects the feature amount frequency distributions of the user viewing images from the history information memory 12 into one. Although it is possible to compare one image at a time without averaging, the process of averaging is more efficient with less calculation load.

ステップS102において、頻度分布比較部221は、ユーザ視聴画像の特徴量頻度分布と、学習画像頻度分布メモリ213のすべての学習画像の特徴量頻度分布を比較する。   In step S <b> 102, the frequency distribution comparison unit 221 compares the feature amount frequency distribution of the user viewing image with the feature amount frequency distribution of all the learning images in the learning image frequency distribution memory 213.

ステップS103において、学習画像選択部222は、ステップS102における比較結果に基づいて、ユーザ視聴画像の特徴量頻度分布に最も似ている学習画像を選択し、動きクラスおよび空間クラスの組み合わせに対応付けて、その選択画像番号を、学習テーブル223に記録する。これにより、画像選択処理は終了され、処理は、処理は、図26のステップS66に戻る。   In step S103, the learning image selection unit 222 selects a learning image that most closely resembles the feature amount frequency distribution of the user viewing image based on the comparison result in step S102, and associates it with the combination of the motion class and the space class. The selected image number is recorded in the learning table 223. Thereby, the image selection process is ended, and the process returns to step S66 in FIG.

次に、図29のフローチャートを参照して、図26のステップS67の係数種データ生成処理を詳しく説明する。   Next, the coefficient seed data generation process in step S67 of FIG. 26 will be described in detail with reference to the flowchart of FIG.

図28のステップS103で学習テーブル223に記録された動きクラスおよび空間クラスの情報は、第2のクラス合成部277に入力され、その動きクラスおよび空間クラスに対応する選択画像番号は、学習セット記憶部231に入力される。   The information on the motion class and the space class recorded in the learning table 223 in step S103 of FIG. 28 is input to the second class synthesis unit 277, and the selected image number corresponding to the motion class and the space class is stored in the learning set storage. Is input to the unit 231.

また、学習セット記憶部231には、図26のステップS62において数十種類の学習画像のHD信号が記憶されている。   In addition, the learning set storage unit 231 stores HD signals of several tens of types of learning images in step S62 in FIG.

ステップS121において、係数種データ生成部206は、学習セット記憶部231において、学習画像テーブル223からの選択画像番号を受け、対応する学習画像のHD信号を選択する。   In step S121, the coefficient seed data generation unit 206 receives the selection image number from the learning image table 223 in the learning set storage unit 231, and selects the HD signal of the corresponding learning image.

ステップS122において、係数種データ生成部206は、学習セット記憶部231からのHD画像データを取得する。   In step S122, the coefficient seed data generation unit 206 acquires HD image data from the learning set storage unit 231.

ステップS123において、係数種データ生成部206は、すべてのHD画素データについて処理は終了したか否かを判定する。ステップS123において、すべてのHD画素データについて処理を終了していないと判定された場合、処理は、ステップS124に進む。   In step S123, the coefficient seed data generation unit 206 determines whether or not processing has been completed for all HD pixel data. If it is determined in step S123 that the process has not been completed for all HD pixel data, the process proceeds to step S124.

ステップS124において、係数種データ生成部206のSD信号生成部232は、ステップS122で取得されたHD画素データに、水平および垂直の間引き処理を行い、SD画素データを生成する。   In step S124, the SD signal generation unit 232 of the coefficient seed data generation unit 206 performs horizontal and vertical thinning processing on the HD pixel data acquired in step S122 to generate SD pixel data.

ステップS125において、係数種データ生成部206は、第1のタップ選択部271、第2のタップ選択部272、および第3のタップ選択部273において、ステップS124で生成されたSD画素データより、ステップS122で取得された各HD画素データに対応して、クラスタップおよび予測タップの画素データを取得する。   In step S125, the coefficient seed data generation unit 206 performs steps from the SD pixel data generated in step S124 in the first tap selection unit 271, the second tap selection unit 272, and the third tap selection unit 273. Corresponding to each HD pixel data acquired in S122, pixel data of class tap and prediction tap is acquired.

ステップS126において、係数種データ生成部206は、生成されたSD画素データの全領域において学習処理は終了したか否かを判定する。ステップS126において、学習処理は終了したと判定された場合、処理は、ステップS122に戻り、次のHD画素データが取得され、同様の処理が繰り返される。   In step S126, the coefficient seed data generation unit 206 determines whether or not the learning process has been completed in the entire region of the generated SD pixel data. If it is determined in step S126 that the learning process has been completed, the process returns to step S122, the next HD pixel data is acquired, and the same process is repeated.

ステップS126において、学習処理は終了していないと判定された場合、係数種データ生成部206の第1のクラス合成部276は、ステップS127において、ステップS125で取得されたクラスタップのSD画素データから第1のクラスコードを生成する。   If it is determined in step S126 that the learning process has not ended, the first class synthesis unit 276 of the coefficient seed data generation unit 206 determines from the SD pixel data of the class tap acquired in step S125 in step S127. A first class code is generated.

ステップS128において、係数種データ生成部206の第2のクラス合成部277は、学習テーブル223からの動きクラスおよび空間クラスの情報を用いて、第2のクラスコードを生成する。   In step S128, the second class synthesis unit 277 of the coefficient seed data generation unit 206 generates a second class code using the motion class and space class information from the learning table 223.

ステップS129において、係数種データ生成部206の正規方程式生成部278は、第1のクラスコードと第2のクラスコードが一致していた場合、正規方程式(式(13)参照)を生成する。ステップS129の処理を終了すると、係数種データ生成部278は、ステップS125に処理を戻し、それ以降の処理を繰り返す。   In step S129, the normal equation generation unit 278 of the coefficient seed data generation unit 206 generates a normal equation (see equation (13)) when the first class code and the second class code match. When the process of step S129 ends, the coefficient seed data generation unit 278 returns the process to step S125 and repeats the subsequent processes.

ステップS123において、全ての画質パターンに対して学習が終了したと判定された場合、係数種データ生成部206の係数種データ決定部279は、ステップS130において、正規方程式を掃き出し法等で解くことによって、クラスおよび出力画素(図8のHD1乃至HD4、図9のHD1′乃至HD4′参照)の各組み合わせの係数種データを算出する。   If it is determined in step S123 that learning has been completed for all image quality patterns, the coefficient seed data determination unit 279 of the coefficient seed data generation unit 206 solves the normal equation by a sweep-out method or the like in step S130. The coefficient seed data of each combination of class and output pixel (see HD1 to HD4 in FIG. 8, HD1 ′ to HD4 ′ in FIG. 9) is calculated.

そして、ステップS131において、係数種データ生成部206の係数種データ決定部279は、係数種メモリ234に、その係数種データを記録する。ステップS131の処理が終了すると、係数種データ生成処理は終了され、処理は、図26のステップS67に戻る。   In step S 131, the coefficient seed data determination unit 279 of the coefficient seed data generation unit 206 records the coefficient seed data in the coefficient seed memory 234. When the process of step S131 ends, the coefficient seed data generation process ends, and the process returns to step S67 of FIG.

以上のようにして、予測係数生成装置20においては、テレビジョン受信装置10から取り出された基板12の履歴情報メモリ13に記憶されているユーザ視聴画像の特徴量頻度分布と、形状が最も似ている特徴量頻度分布を有する学習画像のみが用いられて、テレビジョン受信装置10で用いられる係数種データが生成される。   As described above, the prediction coefficient generation device 20 has the most similar shape to the feature amount frequency distribution of the user viewing image stored in the history information memory 13 of the board 12 taken out from the television receiving device 10. Coefficient seed data used in the television receiver 10 is generated using only the learning image having the feature quantity frequency distribution.

これにより、ユーザ宅に設置されるテレビジョン受信装置10においては、ユーザがよく視聴するコンテンツの画像については、その変換の予測誤差が減少され、予測精度が向上されるので、ユーザは、最適な画質に変換された画像を見ることができる。すなわち、テレビジョン受信装置10は、ユーザ宅において最高の性能を発揮することができる。   Thereby, in the television receiver 10 installed in the user's home, the prediction error of the conversion is reduced and the prediction accuracy is improved for the content image that the user often views. You can see the image converted to image quality. That is, the television receiver 10 can exhibit the best performance at the user's home.

以上のように、図4に示される画像信号処理システムにおいて、テレビジョン受信装置10が、ユーザがよく視聴するコンテンツの画像である、ユーザの視聴画像の特徴量頻度分布のデータを、着脱可能な基板12に備えられる履歴情報メモリ13に記録しておき、テレビジョン受信装置10で用いる係数種データを更新する際に、予測係数生成装置20が、テレビジョン受信装置10から取り外された基板12の履歴情報メモリ13に記録されているユーザの視聴画像と、特徴量頻度分布が最もよく似ている学習画像を用いて、係数種データを生成するようにした。   As described above, in the image signal processing system shown in FIG. 4, the television receiver 10 can attach / detach the feature frequency distribution data of the viewing image of the user, which is an image of content often viewed by the user. When the coefficient seed data recorded in the history information memory 13 provided in the substrate 12 and used in the television receiver 10 is updated, the prediction coefficient generation device 20 of the substrate 12 removed from the television receiver 10 is used. The coefficient seed data is generated using a learning image having the most similar feature frequency distribution to the user viewing image recorded in the history information memory 13.

これにより、予測係数生成装置20においては、テレビジョン受信装置10に最高の性能を発揮させるための係数種データを効率的に生成することができる。さらに、その係数種データを用いることにより、テレビジョン受信装置10においては、ユーザにより視聴されるコンテンツの画像を、予測誤差の少ない、最適な品質となるように変換させ、表示させることができる。   Thereby, in the prediction coefficient production | generation apparatus 20, the coefficient seed data for making the television receiver 10 exhibit the highest performance can be produced | generated efficiently. Furthermore, by using the coefficient seed data, the television receiver 10 can convert and display an image of content viewed by the user so as to obtain an optimum quality with little prediction error.

なお、図4の画像信号処理部35では、係数データWi(i=1乃至n)を生成するために式(5)の生成式を使用したが、次数の異なった多項式や、他の関数で表現される式でも、係数データWiの生成は実現可能である。   In the image signal processing unit 35 in FIG. 4, the generation formula of the formula (5) is used to generate the coefficient data Wi (i = 1 to n), but a polynomial having a different order or another function is used. The generation of the coefficient data Wi can be realized even by the expressed expression.

また、画像信号処理部35では、空間方向(垂直方向および水平方向)の解像度を定めるパラメータrとノイズ除去度を定めるパラメータzとを設定し、これらパラメータr、およびzの値を調整することで画像の空間方向の解像度と、ノイズ除去度を調整し得るものとして説明したが、その他の画像の質を定めるパラメータを設けるものも、同様にして構成することができる。例えば、パラメータとしては、垂直方向の解像度を定めるパラメータ、水平方向の解像度を定めるパラメータ、時間方向(フレーム方向)の解像度を定めるパラメータ、変換後の画素の位相の変化度(垂直方向および水平方向)を定めるパラメータ、画面の明るさやコントラストを定めるパラメータ、または、再生速度を定めるパラメータなどの種々のパラメータが考えられる。   The image signal processing unit 35 sets a parameter r that determines the resolution in the spatial direction (vertical direction and horizontal direction) and a parameter z that determines the degree of noise removal, and adjusts the values of these parameters r and z. Although it has been described that the resolution in the spatial direction of an image and the degree of noise removal can be adjusted, other devices that provide parameters for determining the quality of an image can be similarly configured. For example, the parameters include a parameter that determines the resolution in the vertical direction, a parameter that determines the resolution in the horizontal direction, a parameter that determines the resolution in the time direction (frame direction), and the degree of change in the phase of the pixel after conversion (vertical direction and horizontal direction) Various parameters such as a parameter for determining the brightness of the screen, a parameter for determining the contrast of the screen, and a parameter for determining the playback speed are conceivable.

これらのパラメータの値は、ユーザによる操作入力によって、直接指定されるようにしてもよいし、ユーザが編集操作した内容に基づいて、編集操作内容に関連するパラメータの値が自動的に設定されるようにしてもよい。   The values of these parameters may be directly specified by an operation input by the user, or parameter values related to the editing operation content are automatically set based on the content edited by the user. You may do it.

例えば、ユーザが、リモートコントローラ41を操作する等して、ズーム画像を表示するように指示した場合、そのときユーザが指定したズーム画像の拡大率、変化速度、またはズーム画像の中心の元画像における位置等の情報に基づいて、ズーム画像を作成する際に必要な、画素の垂直方向および水平方向の位相変化情報、ズーム画像の解像度、または、ズーム画像のノイズ除去度等のパラメータが生成されるようにしてもよい。   For example, when the user instructs to display a zoom image by operating the remote controller 41 or the like, in the zoom image enlargement ratio, change speed, or original image at the center of the zoom image specified by the user at that time Based on the information such as the position, parameters such as vertical and horizontal phase change information of the pixel, the resolution of the zoom image, or the noise removal degree of the zoom image, which are necessary when creating the zoom image, are generated. You may do it.

また、ユーザが、リモートコントローラ41を操作する等して、スローモーション再生を行うように指示した場合、そのときユーザが指定した再生速度等の情報に基づいて、画像の再生速度だけでなく、画像の解像度やノイズ除去度等のパラメータが生成されるようにしてもよい。   Further, when the user instructs to perform slow motion playback by operating the remote controller 41 or the like, not only the playback speed of the image but also the image playback speed is specified based on information such as the playback speed specified by the user at that time. Parameters such as resolution and noise removal degree may be generated.

さらに、テレビジョン受信装置10に照度計等を設置してテレビジョン受信装置10の周囲の明るさを測定し、その測定結果に基づいて、画像の輝度等のパラメータが生成されるようにしてもよいし、例えば、画像を表示するテレビジョン受信装置10のディスプレイ等の種類(CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、またはPDP(Plasma Display Panel)等)や、画面サイズ等の情報に基づいて、画像の解像度、ノイズ除去度、明るさまたはコントラスト等のパラメータが生成されるようにしてもよい。   Further, an illuminance meter or the like is installed in the television receiver 10 to measure the brightness around the television receiver 10 and parameters such as the brightness of the image are generated based on the measurement result. For example, the type of display of the television receiver 10 that displays an image (CRT (Cathode Ray Tube), LCD (Liquid Crystal Display), or PDP (Plasma Display Panel)), information such as the screen size Based on the above, parameters such as image resolution, noise removal, brightness, or contrast may be generated.

また、画像信号処理部35では、パラメータr、およびzの2つのパラメータを調整し得るものとして説明したが、1個または3個以上のパラメータを取り扱うものも同様に構成することができる。   Further, although the image signal processing unit 35 has been described as being capable of adjusting two parameters r and z, one that handles one or three or more parameters can be similarly configured.

さらに、予測係数生成装置20においては、図16の生成方法を用いて係数種データを生成するものとして説明したが、係数種データの生成方法は、その他の方法を用いることもできる。図16の生成方法においては、パラメータを可変することによって生成された複数のSD信号と、HD信号との間で、学習が行われて、係数種データが生成されるが、その生成方法とは異なり、例えば、パラメータを可変することによって生成された複数のSD信号毎にHD信号との間で学習を行って、式(4)の推定式の係数データWiを生成し、各SD信号に対応して生成された係数データWiを使用して、係数種データを生成する方法を用いることもできる。なお、係数種データではなく、係数データを求めることもできる。   Furthermore, although the prediction coefficient generation device 20 has been described as generating coefficient seed data using the generation method of FIG. 16, other methods can be used as the coefficient seed data generation method. In the generation method of FIG. 16, learning is performed between a plurality of SD signals generated by varying the parameters and the HD signal to generate coefficient seed data. What is the generation method? Differently, for example, learning is performed for each of a plurality of SD signals generated by changing parameters with an HD signal, and coefficient data Wi of the estimation formula of Formula (4) is generated to correspond to each SD signal. A method of generating coefficient seed data using the coefficient data Wi generated as described above can also be used. Note that coefficient data can be obtained instead of coefficient seed data.

また、上記説明においては、ユーザ視聴画像の特徴量頻度分布と学習画像の特徴量頻度分布を比較する際に、相関係数Cを比較値として用いて比較する場合を説明したが、比較値は、相関係数Cに限らず、両方の特徴量情報が似ているか相違しているかを評価できる値であれば、他の値を用いることもできる。この場合、比較値が大きい場合が必ずしも似ていると評価されるわけではなく、比較値の種類に応じて評価される。   Further, in the above description, when comparing the feature amount frequency distribution of the user viewing image and the feature amount frequency distribution of the learning image, the case where the correlation coefficient C is used as a comparison value has been described. Other values can be used as long as the values are not limited to the correlation coefficient C and can be used to evaluate whether both pieces of feature amount information are similar or different. In this case, the case where the comparison value is large is not necessarily evaluated as being similar, but is evaluated according to the type of the comparison value.

なお、上記説明においては、SD信号をHD信号に変換する、チューナおよびモニタを備えたテレビジョン受信装置を用いて説明したが、本発明は、テレビジョン受信装置に限定されず、SD信号をHD信号に変換する装置であれば、例えば、画像処理装置などにも適用される。   In the above description, the description has been given using the television receiver having the tuner and the monitor that converts the SD signal into the HD signal. However, the present invention is not limited to the television receiver, and the SD signal is converted into the HD signal. Any device that converts a signal can be applied to an image processing device, for example.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。   The series of processes described above can be executed by hardware or can be executed by software.

一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図30は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータ401の構成の例を示すブロック図である。CPU(Central Processing Unit)411は、ROM(Read Only Memory)412、または記憶部418に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)413には、CPU411が実行するプログラムやデータなどが適宜記憶される。これらのCPU411、ROM412、およびRAM413は、バス414により相互に接続されている。   FIG. 30 is a block diagram illustrating an example of a configuration of a personal computer 401 that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 411 executes various processes according to a program stored in a ROM (Read Only Memory) 412 or a storage unit 418. A RAM (Random Access Memory) 413 appropriately stores programs executed by the CPU 411 and data. The CPU 411, the ROM 412, and the RAM 413 are connected to each other by a bus 414.

CPU411にはまた、バス414を介して入出力インタフェース415が接続されている。入出力インタフェース415には、キーボード、マウス、マイクロホンなどよりなる入力部416、ディスプレイ、スピーカなどよりなる出力部417が接続されている。CPU411は、入力部416から入力される指令に対応して各種の処理を実行する。そして、CPU411は、処理の結果を出力部417に出力する。   An input / output interface 415 is also connected to the CPU 411 via the bus 414. The input / output interface 415 is connected to an input unit 416 including a keyboard, a mouse, and a microphone, and an output unit 417 including a display and a speaker. The CPU 411 executes various processes in response to commands input from the input unit 416. Then, the CPU 411 outputs the processing result to the output unit 417.

入出力インタフェース415に接続されている記憶部418は、例えばハードディスクからなり、CPU411が実行するプログラムや各種のデータを記憶する。通信部419は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   The storage unit 418 connected to the input / output interface 415 includes, for example, a hard disk, and stores programs executed by the CPU 411 and various data. The communication unit 419 communicates with an external device via a network such as the Internet or a local area network.

また、通信部419を介してプログラムを取得し、記憶部418に記憶してもよい。   A program may be acquired via the communication unit 419 and stored in the storage unit 418.

入出力インタフェース415に接続されているドライブ420は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア421が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部418に転送され、記憶される。   The drive 420 connected to the input / output interface 415 drives a removable medium 421 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the programs and data recorded therein. Get etc. The acquired program and data are transferred to and stored in the storage unit 418 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図30に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア421、または、プログラムが一時的もしくは永続的に格納されるROM412や、記憶部418を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部419を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 30, a program recording medium for storing a program that is installed in a computer and is ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory, DVD (Digital Versatile Disc), a magneto-optical disk, a removable medium 421 that is a package medium composed of a semiconductor memory, a ROM 412 in which a program is temporarily or permanently stored, and a storage unit 418 It is comprised by the hard disk etc. which comprise. The program is stored in the program recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 419 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the order described, but is not necessarily performed in time series. Or the process performed separately is also included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

本発明の概要を説明する図である。It is a figure explaining the outline | summary of this invention. 本発明の概要を説明する図である。It is a figure explaining the outline | summary of this invention. 本発明の概要を説明する図である。It is a figure explaining the outline | summary of this invention. 本発明を適用した画像信号処理システムの一実施の形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of the image signal processing system to which this invention is applied. 図4のテレビジョン受信装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the television receiver of FIG. 525i信号と1050i信号の画素位置関係を示す図である。It is a figure which shows the pixel positional relationship of a 525i signal and a 1050i signal. 図5の画像信号処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image signal processing part of FIG. HD信号(1050i信号)の単位画素ブロック内の4画素の中心予測タップからの位相ずれ(奇数フィールド)を示す図である。It is a figure which shows the phase shift (odd field) from the center prediction tap of 4 pixels in the unit pixel block of HD signal (1050i signal). HD信号(1050i信号)の単位画素ブロック内の4画素の中心予測タップからの位相ずれ(偶数フィールド)を示す図である。It is a figure which shows the phase shift (even field) from the center prediction tap of 4 pixels in the unit pixel block of HD signal (1050i signal). 図7の特徴量頻度分布生成部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the feature-value frequency distribution generation part of FIG. 特徴量の例を説明する図であるIt is a figure explaining the example of a feature-value 画素の特徴量値と特徴量頻度分布の例を示す図である。It is a figure which shows the example of the feature-value value of a pixel, and feature-value frequency distribution. 図7の履歴情報メモリに記憶されている特徴量頻度分布の例を示す図である。It is a figure which shows the example of the feature-value frequency distribution memorize | stored in the log | history information memory of FIG. 画質を調整するためのユーザインタフェース例を示す図である。It is a figure which shows the example of a user interface for adjusting an image quality. 図14の調整画面を拡大して示した図である。It is the figure which expanded and showed the adjustment screen of FIG. 係数種データの生成方法の一例を示す図である。It is a figure which shows an example of the production | generation method of coefficient seed data. 図4の予測係数生成装置の構成例を示すブロック図であるIt is a block diagram which shows the structural example of the prediction coefficient production | generation apparatus of FIG. 図17の特徴量頻度分布生成部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the feature-value frequency distribution generation part of FIG. 図18の学習画像頻度分布メモリに記憶されている特徴量頻度分布の例を示す図である。It is a figure which shows the example of the feature-value frequency distribution memorize | stored in the learning image frequency distribution memory of FIG. 図17の頻度分布比較部による特徴量頻度分布の比較対象を説明する図である。It is a figure explaining the comparison object of the feature-value frequency distribution by the frequency distribution comparison part of FIG. 図17の頻度分布比較部による特徴量頻度分布の比較方法の例を示す図である。It is a figure which shows the example of the comparison method of the feature-value frequency distribution by the frequency distribution comparison part of FIG. 図17の学習画像選択部の学習画像選択および学習画像テーブルの構成例を示す図である。It is a figure which shows the structural example of the learning image selection of the learning image selection part of FIG. 17, and a learning image table. 図17の予測係数学習部の詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the prediction coefficient learning part of FIG. 図4のテレビジョン受信装置による画像信号処理を説明するフローチャートである。5 is a flowchart for explaining image signal processing by the television receiver of FIG. 4. 図24のステップS14の履歴情報の更新処理を説明するフローチャートである。It is a flowchart explaining the update process of the historical information of step S14 of FIG. 図4の予測係数生成装置による予測係数生成処理について説明するフローチャートである。It is a flowchart explaining the prediction coefficient production | generation process by the prediction coefficient production | generation apparatus of FIG. 図26のステップS63の学習画像の特徴量頻度度分布生成処理を説明するフローチャートである。It is a flowchart explaining the feature-value frequency distribution generation process of the learning image of step S63 of FIG. 図26のステップS66の学習画像選択処理を説明するフローチャートである。It is a flowchart explaining the learning image selection process of step S66 of FIG. 図26のステップS67の係数種データ生成処理を説明するフローチャートである。It is a flowchart explaining the coefficient seed data generation process of step S67 of FIG. 本発明を適用したパーソナルコンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of the personal computer to which this invention is applied.

符号の説明Explanation of symbols

10 テレビジョン受信装置, 12 基板, 13, 履歴情報メモリ, 20 予測係数生成装置, 21 係数種データ生成部, 32 システムコントローラ, 35 画像信号処理部, 65 情報生成制御部, 66 特徴量頻度分布生成部, 73 特徴量生成タップ選択部, 76 特徴量生成部, 77 特徴量頻度分布演算部, 204 学習画像頻度分布生成部, 205 学習画像選択部, 206 係数種データ生成部, 207 システムコントローラ, 211 SD信号生成部, 212 特徴量頻度分布生成部, 213 学習画像頻度分布メモリ, 221 頻度分布比較部, 222 学習画像選択部, 223 学習画像テーブル, 231 画像セット記憶部, 232SD信号生成部, 233 予測係数学習部, 234 係数種メモリ, 253 特徴量生成タップ選択部, 256 特徴量生成部, 257 特徴量頻度分布演算部, 276 第1のクラス合成部, 277 第2のクラス合成部   DESCRIPTION OF SYMBOLS 10 Television receiver, 12 Board | substrate, 13, History information memory, 20 Prediction coefficient production | generation apparatus, 21 Coefficient seed | species data production | generation part, 32 System controller, 35 Image signal processing part, 65 Information production | generation control part, 66 Feature-value frequency distribution production | generation , 73 feature quantity generation tap selection section, 76 feature quantity generation section, 77 feature quantity frequency distribution calculation section, 204 learning image frequency distribution generation section, 205 learning image selection section, 206 coefficient seed data generation section, 207 system controller, 211 SD signal generation unit, 212 feature frequency distribution generation unit, 213 learning image frequency distribution memory, 221 frequency distribution comparison unit, 222 learning image selection unit, 223 learning image table, 231 image set storage unit, 232 SD signal generation unit, 233 prediction Coefficient learning unit, 234 Coefficient seed method Li, 253 feature quantity generating tap selector, 256 feature quantity generation unit, 257 feature quantity the frequency distribution calculation section, 276 first class synthesis unit, 277 second class synthesis unit

Claims (13)

第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する信号処理装置において、
前記第1の画像信号を、前記第2の画像信号に変換する他の信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報を取得する取得手段と、
前記取得手段により取得された前記画像の特徴量情報を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成する係数生成手段と
を備える信号処理装置。
In a signal processing device that generates a coefficient used for an operation for converting a first image signal into a second image signal having a higher resolution than the first image signal,
From feature amount storage means for storing feature amount information of an image corresponding to the first image signal generated by another signal processing device that converts the first image signal into the second image signal, Obtaining means for obtaining feature amount information of the image;
A signal processing apparatus comprising: coefficient generation means for generating a coefficient used for an operation for conversion to the second image signal by the other signal processing apparatus using the feature amount information of the image acquired by the acquisition means. .
前記特徴量記憶手段は、前記他の信号処理装置に着脱可能な基板に設けられる
請求項1に記載の信号処理装置。
The signal processing apparatus according to claim 1, wherein the feature amount storage unit is provided on a substrate that can be attached to and detached from the other signal processing apparatus.
前記画像の特徴量情報は、前記画像の特徴量頻度分布とされる
請求項1に記載の信号処理装置。
The signal processing device according to claim 1, wherein the feature amount information of the image is a feature amount frequency distribution of the image.
学習画像の特徴量情報を生成する特徴量生成手段と、
前記特徴量生成手段により生成された前記学習画像の特徴量情報と、前記取得手段により取得された前記画像の特徴量情報を用いて、前記学習画像から前記画像と似ているものを選択する画像選択手段とをさらに備え、
前記係数生成手段は、前記画像選択手段により選択された前記学習画像を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成する
請求項1に記載の信号処理装置。
Feature quantity generation means for generating feature quantity information of the learning image;
An image for selecting an image similar to the image from the learning image using the feature amount information of the learning image generated by the feature amount generation unit and the feature amount information of the image acquired by the acquisition unit And a selection means,
The coefficient generation unit generates a coefficient used for an operation of converting the learning image selected by the image selection unit into the second image signal by the other signal processing device. Signal processing equipment.
第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する信号処理装置の信号処理方法において、
前記第1の画像信号を、前記第2の画像信号に変換する他の信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報を取得し、
取得された前記画像の特徴量情報を用いて、前記他の信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成する
ステップを含む信号処理方法。
In a signal processing method of a signal processing device that generates a coefficient used for an operation for converting a first image signal into a second image signal having a higher resolution than the first image signal,
From feature amount storage means for storing feature amount information of an image corresponding to the first image signal generated by another signal processing device that converts the first image signal into the second image signal, Obtaining feature amount information of the image;
A signal processing method including a step of generating a coefficient used for an operation of converting the acquired image feature quantity information into the second image signal by the other signal processing device.
第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する演算に用いられる係数を生成する処理をコンピュータに行わせるプログラムであって、
前記第1の画像信号を、前記第2の画像信号に変換する信号処理装置により生成された前記第1の画像信号に対応する画像の特徴量情報が記憶される特徴量記憶手段から、前記画像の特徴量情報を取得し、
取得された前記画像の特徴量情報を用いて、前記信号処理装置により前記第2の画像信号に変換する演算に用いられる係数を生成する
ステップを含むプログラム。
A program for causing a computer to perform a process of generating a coefficient used for an operation for converting a first image signal into a second image signal having a higher resolution than the first image signal,
From the feature amount storage means for storing feature amount information of an image corresponding to the first image signal generated by a signal processing device that converts the first image signal into the second image signal, the image Feature amount information,
A program including a step of generating a coefficient used for an operation of converting the acquired image feature quantity information into the second image signal by the signal processing device.
請求項6に記載のプログラムが記録されている記録媒体。   A recording medium on which the program according to claim 6 is recorded. 第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する信号処理装置において、
前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成する特徴量情報生成手段と、
前記特徴量情報生成手段により生成された前記画像の特徴量情報を記憶する特徴量記憶手段と、
前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて他の信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換する画像信号変換手段と
を備える信号処理装置。
In the signal processing device that converts the first image signal into a second image signal having a higher resolution than the first image signal,
Feature amount information generating means for generating feature amount information of an image corresponding to the first image signal to be converted into the second image signal;
Feature quantity storage means for storing feature quantity information of the image generated by the feature quantity information generation means;
The first image signal is converted into the second image signal by performing calculation using a coefficient generated by another signal processing device using the image feature value information stored in the feature value storage means. A signal processing device comprising: an image signal converting means for converting to an image signal.
前記特徴量記憶手段は、着脱可能な基板に設けられる
請求項8に記載の信号処理装置。
The signal processing apparatus according to claim 8, wherein the feature amount storage unit is provided on a detachable substrate.
前記画像の特徴量情報は、前記画像の特徴量頻度分布とされる
請求項8に記載の信号処理装置。
The signal processing apparatus according to claim 8, wherein the image feature amount information is a feature amount frequency distribution of the image.
第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する信号処理装置の信号処理方法において、
前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成し、
生成された前記画像の特徴量情報を特徴量記憶手段に記憶し、
前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて他の信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換する
ステップを含む信号処理方法。
In the signal processing method of the signal processing device for converting the first image signal into the second image signal having a higher resolution than the first image signal,
Generating feature amount information of an image corresponding to the first image signal to be converted into the second image signal;
Storing the generated feature amount information of the image in the feature amount storage means;
The first image signal is converted into the second image signal by performing calculation using a coefficient generated by another signal processing device using the image feature value information stored in the feature value storage means. A signal processing method including a step of converting into an image signal.
第1の画像信号を、前記第1の画像信号よりも高解像度の第2の画像信号に変換する処理をコンピュータに行わせるプログラムであって、
前記第2の画像信号に変換される前記第1の画像信号に対応する画像の特徴量情報を生成し、
生成された前記画像の特徴量情報を特徴量記憶手段に記憶させ、
前記特徴量記憶手段に記憶された前記画像の特徴量情報が用いられて信号処理装置により生成された係数を用いて演算を行うことで、前記第1の画像信号を、前記第2の画像信号に変換する
ステップを含むプログラム。
A program for causing a computer to perform a process of converting a first image signal into a second image signal having a higher resolution than the first image signal,
Generating feature amount information of an image corresponding to the first image signal to be converted into the second image signal;
The feature amount information of the generated image is stored in the feature amount storage means,
The first image signal is converted into the second image signal by performing calculation using the coefficient generated by the signal processing device using the feature amount information of the image stored in the feature amount storage unit. A program that includes steps to convert to.
請求項12に記載のプログラムが記録されている記録媒体。   A recording medium on which the program according to claim 12 is recorded.
JP2006063630A 2006-03-09 2006-03-09 Signal processing apparatus and method, recording medium, and program Withdrawn JP2007243632A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006063630A JP2007243632A (en) 2006-03-09 2006-03-09 Signal processing apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006063630A JP2007243632A (en) 2006-03-09 2006-03-09 Signal processing apparatus and method, recording medium, and program

Publications (1)

Publication Number Publication Date
JP2007243632A true JP2007243632A (en) 2007-09-20

Family

ID=38588710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006063630A Withdrawn JP2007243632A (en) 2006-03-09 2006-03-09 Signal processing apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP2007243632A (en)

Similar Documents

Publication Publication Date Title
US7911533B2 (en) Method and apparatus for processing information, storage medium, and program
US7852404B2 (en) Information signal processor, method for processing information signal, image signal processor and image display apparatus using the same, coefficient seed data production device used in the same, method for producing coefficient seed data set and information-providing medium
CN101631211B (en) Remote controller, image signal processing apparatus, and image signal processing method
US7286184B2 (en) Information signal processing device, information signal processing method, image signal processing device and image display device using it, coefficient type data creating device used therein and creating method, coefficient data creating device and creating method, and information providing medium
JP3885786B2 (en) Information signal processing apparatus and processing method, and program for executing the processing method
US7616263B2 (en) Information-processing apparatus and removable substrate used therein
JP2002196737A (en) Information signal processor, information signal processing method, image signal processor and image display device using the same as well as coefficient species data former used for the same and forming method as well as information provision medium and television receiver
US6985186B2 (en) Coefficient data generating apparatus and method, information processing apparatus and method using the same, coefficient-generating-data generating device and method therefor, and information providing medium used therewith
US7233364B2 (en) Apparatus and method for generating coefficient data, apparatus and method for processing information signal using the same, apparatus and method for obtaining coefficient data used therefor, and information providing medium
JP2007243633A (en) Signal processing apparatus and method, recording medium, and program
JP4803279B2 (en) Image signal processing apparatus and method, recording medium, and program
JP2007243632A (en) Signal processing apparatus and method, recording medium, and program
JP4048835B2 (en) Information processing apparatus, information processing method, recording medium, and program
KR101102014B1 (en) Apparatus and method for processing informational signal, apparatus and method for generating coefficient seed data, and computer readable medium recording a program for executing each of the methods
JP4349086B2 (en) Information signal processing apparatus and processing method, program for executing the processing method, and medium storing the program
JP4419045B2 (en) Information processing system, information processing apparatus and method, recording medium, and program
JP4092921B2 (en) Information signal processing apparatus, information signal processing method and image display apparatus, coefficient seed data generating apparatus and generating method used therefor, coefficient data generating apparatus and generating method, program for executing each method, and program thereof Recorded computer-readable medium
JP4649786B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and coefficient seed data generating apparatus and generating method used therefor
JP4691814B2 (en) Information signal processing apparatus, information signal processing method, and recording medium
JP4329453B2 (en) Image signal processing apparatus and method, recording medium, and program
JP4692800B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, coefficient seed data generating apparatus and generating method used therefor, and recording medium
JP4649812B2 (en) Image signal processing apparatus, image signal processing method and image display apparatus using the same, program for executing each image signal processing method, and computer-readable medium storing the program
JP4691849B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and information acquiring apparatus and acquiring method used therefor
JP4692801B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and coefficient information generating apparatus and generating method used therefor
JP2007058232A (en) Information signal processing apparatus and processing method, and program for executing processing method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090512