JP2000032402A - Image converter and its method, and distributing medium thereof - Google Patents

Image converter and its method, and distributing medium thereof

Info

Publication number
JP2000032402A
JP2000032402A JP10195277A JP19527798A JP2000032402A JP 2000032402 A JP2000032402 A JP 2000032402A JP 10195277 A JP10195277 A JP 10195277A JP 19527798 A JP19527798 A JP 19527798A JP 2000032402 A JP2000032402 A JP 2000032402A
Authority
JP
Japan
Prior art keywords
class
image signal
code
image
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10195277A
Other languages
Japanese (ja)
Other versions
JP2000032402A5 (en
JP4035895B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Masaaki Hattori
正明 服部
Yasushi Tatsuhira
靖 立平
Takanari Hoshino
隆也 星野
Hideo Nakaya
秀雄 中屋
Toshihiko Hamamatsu
俊彦 浜松
Juichi Shiraki
寿一 白木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP19527798A priority Critical patent/JP4035895B2/en
Publication of JP2000032402A publication Critical patent/JP2000032402A/en
Publication of JP2000032402A5 publication Critical patent/JP2000032402A5/ja
Application granted granted Critical
Publication of JP4035895B2 publication Critical patent/JP4035895B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To surely correct an image, even when the image is deteriorated. SOLUTION: The autocorrelation coefficient of each part in a frame is calculated in a step S1. The autocorrelation coefficient calculated in the step S1 is normalized in a step S2, to which code the normalized autocorrelation coefficient corresponds is discriminated in a step S3.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像変換装置およ
び方法、並びに提供媒体に関し、特に、入力された画像
信号を同一フォーマットもしくは異なるフォーマットの
画像信号に変換する際に、入力された画像データの画質
が悪くとも、確実に画質が補正されたもしくは画質が改
善された画像信号を提供できるようにした画像変換装置
および方法、並びに提供媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image conversion apparatus and method, and a providing medium, and more particularly, to converting an input image signal into an image signal of the same format or a different format when converting the input image signal into an image signal of a different format. The present invention relates to an image conversion apparatus and method capable of surely providing an image signal whose image quality is corrected or whose image quality is improved even if the image quality is poor, and a providing medium.

【0002】[0002]

【従来の技術】本出願人は、例えば、特開平8−515
99号として、より高解像度の画素データを得ることが
できるようにする技術を提案している。この提案におい
ては、例えばSD(Standard Definition)画素データから
なる画像データからHD(High Definition)画素データか
らなる画像データを創造する場合、創造するHD画素デー
タの近傍に位置するSD画素データを用いてクラス分類を
行い(クラスを決定し)、それぞれのクラス毎に、予測
係数値を学習させておき、画像静止部においては、画面
内(空間的)相関を利用し、動き部においては、フィー
ルド内相関を利用して、より真値に近いHD画素データを
得るようにしている。
2. Description of the Related Art The present applicant has disclosed, for example, Japanese Patent Laid-Open No. 8-515.
No. 99 proposes a technique for obtaining higher resolution pixel data. In this proposal, for example, when image data composed of HD (High Definition) pixel data is created from image data composed of SD (Standard Definition) pixel data, SD pixel data located near the HD pixel data to be created is used. Classification is performed (classes are determined), and prediction coefficient values are learned for each class. In an image stationary part, an intra-screen (spatial) correlation is used. Utilizing the correlation, HD pixel data closer to the true value is obtained.

【0003】[0003]

【発明が解決しようとする課題】ところで、この技術を
用いて、例えば、非常に画質の悪い(画像のぼけた)画
像を良好な画質の画像に補正することができる。しかし
ながら、非常に画質が悪い(高周波成分が失われてい
る)画像データの場合、この非常に画質が悪い画像デー
タを用いてクラス分類を行うと、適切なクラス分類を行
うことができず、適切なクラスを決定することができな
い。適切なクラスを求めることができないと、適切な予
測係数値のセットを得ることができず、結局、充分な画
質の補正を行うことができない課題があった。
By the way, by using this technique, for example, an image having very poor image quality (blurred image) can be corrected to an image having good image quality. However, in the case of image data with very poor image quality (loss of high-frequency components), if class classification is performed using the image data with very poor image quality, appropriate class classification cannot be performed. Class cannot be determined. If an appropriate class cannot be obtained, an appropriate set of prediction coefficient values cannot be obtained, and as a result, there has been a problem that a sufficient image quality cannot be corrected.

【0004】本発明はこのような状況に鑑みてなされた
ものであり、入力された画像データの画質が悪くとも、
確実に画質を補正することを可能にするものである。
[0004] The present invention has been made in view of such circumstances, and even if the image quality of input image data is poor,
This makes it possible to reliably correct the image quality.

【0005】[0005]

【課題を解決するための手段】請求項1に記載の画像変
換装置は、第1の画像信号の中からクラスコードを生成
するための複数の画像データをクラスタップとして抽出
する第1の抽出手段と、クラスタップをクラス分類する
ことによりそのクラスを表すクラスコードを発生するク
ラス分類手段と、クラスコードに対応する予測係数を発
生する予測係数発生手段と、第1の画像信号の中から予
測タップを抽出する第2の抽出手段と、予測係数および
予測タップを用いて第2の画像信号を生成する生成手段
と、第1の画像信号の局所的な自己相関係数を演算する
演算手段と、演算手段が演算した自己相関係数を正規化
する正規化手段と、正規化手段で正規化された自己相関
係数に対応して第1の画像信号の特徴量を表すコードを
発生するコード発生手段と、コード発生手段が発生した
コードに対応して第1の抽出手段が抽出するクラスタッ
プまたは第2の抽出手段が抽出する予測タップを制御す
る制御手段とを備えることを特徴とする。
According to a first aspect of the present invention, there is provided an image conversion apparatus for extracting a plurality of image data for generating a class code from a first image signal as class taps. Classifying means for generating a class code representing the class by classifying the class taps, predictive coefficient generating means for generating a predictive coefficient corresponding to the class code, and predictive taps from the first image signal Second extracting means for extracting a first image signal, generating means for generating a second image signal using a prediction coefficient and a prediction tap, and calculating means for calculating a local autocorrelation coefficient of the first image signal; A normalizing means for normalizing the autocorrelation coefficient calculated by the calculating means, and a code generator for generating a code representing a feature amount of the first image signal corresponding to the autocorrelation coefficient normalized by the normalizing means. Means, and a controlling means for controlling the prediction taps class tap or a second extraction means for the first extraction means in correspondence with the code code generating means has occurred is extracted is extracted.

【0006】請求項4に記載の画像変換方法は、第1の
画像信号の中からクラスコードを生成するための複数の
画像データをクラスタップとして抽出する第1の抽出ス
テップと、クラスタップをクラス分類することによりそ
のクラスを表すクラスコードを発生するクラス分類ステ
ップと、クラスコードに対応する予測係数を発生する予
測係数発生ステップと、第1の画像信号の中から予測タ
ップを抽出する第2の抽出ステップと、予測係数および
予測タップを用いて第2の画像信号を生成する生成ステ
ップと、第1の画像信号の局所的な自己相関係数を演算
する演算ステップと、演算ステップで演算した自己相関
係数を正規化する正規化ステップと、正規化ステップで
正規化された自己相関係数に対応して第1の画像信号の
特徴量を表すコードを発生するコード発生ステップと、
コード発生ステップで発生したコードに対応して第1の
抽出ステップで抽出するクラスタップまたは第2の抽出
ステップで抽出する予測タップを制御する制御ステップ
とを含むことを特徴とする。
According to a fourth aspect of the present invention, there is provided an image conversion method comprising: a first extracting step of extracting a plurality of image data for generating a class code from a first image signal as class taps; A class classification step of generating a class code representing the class by the classification, a prediction coefficient generation step of generating a prediction coefficient corresponding to the class code, and a second step of extracting a prediction tap from the first image signal An extraction step, a generation step of generating a second image signal using the prediction coefficient and the prediction tap, an operation step of calculating a local autocorrelation coefficient of the first image signal, A normalization step for normalizing the correlation coefficient, and a code representing a feature amount of the first image signal corresponding to the autocorrelation coefficient normalized in the normalization step. And code generating step of generating a,
A control step of controlling a class tap extracted in the first extraction step or a prediction tap extracted in the second extraction step in accordance with the code generated in the code generation step.

【0007】請求項5に記載の提供媒体は、第1の画像
信号の中からクラスコードを生成するための複数の画像
データをクラスタップとして抽出する第1の抽出ステッ
プと、クラスタップをクラス分類することによりそのク
ラスを表すクラスコードを発生するクラス分類ステップ
と、クラスコードに対応する予測係数を発生する予測係
数発生ステップと、第1の画像信号の中から予測タップ
を抽出する第2の抽出ステップと、予測係数および予測
タップを用いて第2の画像信号を生成する生成ステップ
と、第1の画像信号の局所的な自己相関係数を演算する
演算ステップと、演算ステップで演算した自己相関係数
を正規化する正規化ステップと、正規化ステップで正規
化された自己相関係数に対応して第1の画像信号の特徴
量を表すコードを発生するコード発生ステップと、コー
ド発生ステップで発生したコードに対応して第1の抽出
ステップで抽出するクラスタップまたは第2の抽出ステ
ップで抽出する予測タップを制御する制御ステップとを
含む処理を画像変換装置に実行させるコンピュータが読
み取り可能なプログラムを提供することを特徴とする。
According to a fifth aspect of the present invention, in the providing medium, a first extracting step of extracting a plurality of image data for generating a class code from the first image signal as class taps, and classifying the class taps into classes Performing a class classification step of generating a class code representing the class, a prediction coefficient generation step of generating a prediction coefficient corresponding to the class code, and a second extraction of extracting a prediction tap from the first image signal A step of generating a second image signal using the prediction coefficient and the prediction tap; a calculation step of calculating a local autocorrelation coefficient of the first image signal; A normalization step for normalizing the number of relations, and a code representing a feature amount of the first image signal corresponding to the autocorrelation coefficient normalized in the normalization step. Image processing that includes a code generation step to be generated and a control step to control a class tap extracted in the first extraction step or a prediction tap extracted in the second extraction step in accordance with the code generated in the code generation step A computer-readable program to be executed by the conversion device is provided.

【0008】請求項1に記載の画像変換装置において
は、第1の抽出手段が、第1の画像信号の中からクラス
コードを生成するための複数の画像データをクラスタッ
プとして抽出し、クラス分類手段が、クラスタップをク
ラス分類することによりそのクラスを表すクラスコード
を発生し、予測係数発生手段が、クラスコードに対応す
る予測係数を発生し、第2の抽出手段が、第1の画像信
号の中から予測タップを抽出し、生成手段が、予測係数
および予測タップを用いて第2の画像信号を生成し、演
算手段が、第1の画像信号の局所的な自己相関係数を演
算し、正規化手段が、演算手段が演算した自己相関係数
を正規化し、コード発生手段が、正規化手段で正規化さ
れた自己相関係数に対応して第1の画像信号の特徴量を
表すコードを発生し、制御手段が、コード発生手段が発
生したコードに対応して第1の抽出手段が抽出するクラ
スタップまたは第2の抽出手段が抽出する予測タップを
制御する。
In the image conversion apparatus according to the first aspect, the first extracting means extracts a plurality of image data for generating a class code from the first image signal as class taps, and performs class classification. Means for classifying the class taps to generate a class code representing the class, a prediction coefficient generation means for generating a prediction coefficient corresponding to the class code, and a second extraction means for generating the first image signal. , A generating tap generates a second image signal using the prediction coefficient and the prediction tap, and a calculating means calculates a local autocorrelation coefficient of the first image signal. , The normalizing means normalizes the autocorrelation coefficient calculated by the calculating means, and the code generating means represents the feature amount of the first image signal corresponding to the autocorrelation coefficient normalized by the normalizing means. Generate code Control means controls the prediction tap class tap or a second extraction means for the first extraction means in correspondence with the code code generating means has occurred is extracted is extracted.

【0009】請求項4に記載の画像変換方法、および請
求項5に記載の提供媒体においては、第1の抽出ステッ
プで、第1の画像信号の中からクラスコードを生成する
ための複数の画像データをクラスタップとして抽出し、
クラス分類ステップで、クラスタップをクラス分類する
ことによりそのクラスを表すクラスコードを発生し、予
測係数発生ステップで、クラスコードに対応する予測係
数を発生し、第2の抽出ステップで、第1の画像信号の
中から予測タップを抽出し、生成ステップで、予測係数
および予測タップを用いて第2の画像信号を生成し、演
算ステップで、第1の画像信号の局所的な自己相関係数
を演算し、正規化ステップで、演算ステップで演算した
自己相関係数を正規化し、コード発生ステップで、正規
化ステップで正規化された自己相関係数に対応して第1
の画像信号の特徴量を表すコードを発生し、制御ステッ
プで、コード発生ステップで発生したコードに対応して
第1の抽出ステップで抽出するクラスタップまたは第2
の抽出ステップで抽出する予測タップを制御する。
In the image conversion method according to the fourth aspect and the providing medium according to the fifth aspect, in the first extraction step, a plurality of images for generating a class code from the first image signal are provided. Extract data as class taps,
In a class classification step, a class code representing the class is generated by classifying the class taps, a prediction coefficient generation step generates a prediction coefficient corresponding to the class code, and a second extraction step generates a prediction coefficient corresponding to the class code. A prediction tap is extracted from the image signal, a generation step generates a second image signal using the prediction coefficient and the prediction tap, and a calculation step calculates a local autocorrelation coefficient of the first image signal. In the normalization step, the autocorrelation coefficient calculated in the calculation step is normalized, and in the code generation step, a first value corresponding to the autocorrelation coefficient normalized in the normalization step is obtained.
Generating a code representing the characteristic amount of the image signal of the class tap or the class tap or the second tap extracted in the first extraction step corresponding to the code generated in the code generation step in the control step
Control the prediction taps to be extracted in the extraction step.

【0010】[0010]

【発明の実施の形態】以下に本発明の実施の形態を説明
するが、特許請求の範囲に記載の発明の各手段と以下の
実施の形態との対応関係を明らかにするために、各手段
の後の括弧内に、対応する実施の形態(但し一例)を付
加して本発明の特徴を記述すると、次のようになる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below. In order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, each means is described. When the features of the present invention are described by adding the corresponding embodiment (however, an example) in parentheses after the parentheses, the result is as follows.

【0011】すなわち、請求項1に記載の画像変換装置
は、第1の画像信号の中からクラスコードを生成するた
めの複数の画像データをクラスタップとして抽出する第
1の抽出手段(例えば、図1の領域切り出し部1)と、
クラスタップをクラス分類することによりそのクラスを
表すクラスコードを発生するクラス分類手段(例えば、
図1のADRCパターン抽出部4)と、クラスコードに対応
する予測係数を発生する予測係数発生手段(例えば、図
1のROMテーブル6)と、第1の画像信号の中から予測
タップを抽出する第2の抽出手段(例えば、図1の領域
切り出し部2)と、予測係数および予測タップを用いて
第2の画像信号を生成する生成手段(例えば、図1の予
測演算部7)と、第1の画像信号の局所的な自己相関係
数を演算する演算手段(例えば、図4のステップS1)
と、演算手段が演算した自己相関係数を正規化する正規
化手段(例えば、図4のステップS2)と、正規化手段
で正規化された自己相関係数に対応して第1の画像信号
の特徴量を表すコードを発生するコード発生手段(例え
ば、図4のステップS3)と、コード発生手段が発生し
たコードに対応して第1の抽出手段が抽出するクラスタ
ップまたは第2の抽出手段が抽出する予測タップを制御
する制御手段(例えば、図1の特徴量抽出部3)とを備
えることを特徴とする。
That is, the image conversion apparatus according to the first aspect of the present invention provides a first extraction means (for example, FIG. 1) for extracting a plurality of image data for generating a class code from a first image signal as class taps. 1) an area cutout unit 1);
Classifying means for classifying the class taps to generate a class code representing the class (for example,
An ADRC pattern extraction unit 4 in FIG. 1, a prediction coefficient generation unit (for example, the ROM table 6 in FIG. 1) for generating a prediction coefficient corresponding to a class code, and a prediction tap extracted from the first image signal. A second extraction unit (for example, the region cutout unit 2 in FIG. 1), a generation unit for generating a second image signal using the prediction coefficient and the prediction tap (for example, the prediction calculation unit 7 in FIG. 1), Calculation means for calculating a local autocorrelation coefficient of one image signal (for example, step S1 in FIG. 4)
A normalization means (for example, step S2 in FIG. 4) for normalizing the autocorrelation coefficient calculated by the calculation means, and a first image signal corresponding to the autocorrelation coefficient normalized by the normalization means. Code generating means (for example, step S3 in FIG. 4) for generating a code representing the feature amount of the class tap or the second extracting means extracted by the first extracting means corresponding to the code generated by the code generating means And a control unit (for example, the feature amount extraction unit 3 in FIG. 1) for controlling the prediction tap extracted by the control unit.

【0012】但し勿論この記載は、各手段を記載したも
のに限定することを意味するものではない。
However, of course, this description does not mean that the means are limited to those described.

【0013】以下に、本発明の実施の形態について説明
する。図1は、本発明を適用した、画像変換装置の構成
例を示すブロック図である。同図には、例えば画質の悪
い(高周波成分が少なくてぼけた画像の)SD画像データ
(または、HD画像データ)を、画質改善されたSD画像デ
ータ(または、HD画像データ)に変換する構成例が示さ
れている。以下においては、入力画像データがSD画像デ
ータである場合について説明する。
An embodiment of the present invention will be described below. FIG. 1 is a block diagram illustrating a configuration example of an image conversion apparatus to which the present invention has been applied. The figure shows a configuration in which, for example, SD image data (or HD image data) of poor image quality (of a blurred image with few high frequency components) is converted to SD image data (or HD image data) with improved image quality. An example is shown. Hereinafter, a case where the input image data is SD image data will be described.

【0014】例えば、画質の悪い(高周波成分が少なく
てぼけた画像の)SD画像データが、入力端子を介して画
像変換装置に入力される。入力された画像データは、領
域切り出し部1、領域切り出し部2、および特徴量抽出
部3に供給される。特徴量抽出部3は、入力されたSD画
像データのぼけ量を表す特徴量を検出し、その検出した
特徴量を領域切り出し部1、領域切り出し部2、および
クラスコード発生部5に出力する。領域切り出し部1
は、入力された画像データから所定の範囲の画素データ
をクラスタップのセットとして切り出し、これをADRC(A
daptive DynamicRange Coding)パターン抽出部4に出力
する。領域切り出し部1において切り出されるクラスタ
ップは、特徴量抽出部3の出力する特徴量に対応して制
御される。ADRCパターン抽出部4は、空間内の波形表現
を目的としたクラス分類を行うようになされている。
For example, SD image data of poor image quality (a blurred image with a small amount of high frequency components) is input to an image conversion device via an input terminal. The input image data is supplied to the region cutout unit 1, the region cutout unit 2, and the feature amount extraction unit 3. The feature amount extraction unit 3 detects a feature amount representing a blur amount of the input SD image data, and outputs the detected feature amount to the region cutout unit 1, the region cutout unit 2, and the class code generation unit 5. Area cutout unit 1
Cuts out a predetermined range of pixel data from the input image data as a set of class taps,
daptive Dynamic Range Coding) is output to the pattern extraction unit 4. The class tap cut out by the region cutout unit 1 is controlled in accordance with the feature amount output from the feature amount extraction unit 3. The ADRC pattern extraction unit 4 performs class classification for the purpose of expressing a waveform in space.

【0015】クラスコード発生部5は、ADRCパターン抽
出部4より出力されたクラスおよび特徴量抽出部3から
出力された特徴量に対応するクラスコードを発生し、RO
Mテーブル6に出力する。ROMテーブル6には、各クラス
(クラスコード)に対応して予め所定の予測係数のセッ
トが記憶されており、クラスコードに対応する予測係数
のセットが予測演算部7に出力される。
A class code generator 5 generates a class code corresponding to the class output from the ADRC pattern extractor 4 and the feature output from the feature extractor 3, and outputs a RO code.
Output to M table 6. A predetermined set of prediction coefficients is stored in the ROM table 6 in advance corresponding to each class (class code), and the set of prediction coefficients corresponding to the class code is output to the prediction calculation unit 7.

【0016】領域切り出し部2は、入力された画像デー
タから所定範囲の画素データを予測タップのセットとし
て切り出し、その予測タップを構成する画素データを予
測演算部7に出力する。この領域切り出し部2により切
り出される予測タップのセットは、特徴量抽出部3の出
力するぼけ量を表す特徴量に対応して制御される。予測
演算部7は、領域切り出し部2より入力された予測タッ
プのセットと、ROMテーブル6より入力された予測係数
のセットとから予測演算を行い、その演算結果を、画質
を補正した画像データとして出力する。この出力された
画像データが、例えば図示しない表示デバイスで表示さ
れたり、記録デバイスに記録されたり、伝送デバイスで
伝送される。
The region cutout unit 2 cuts out a predetermined range of pixel data from the input image data as a set of prediction taps, and outputs pixel data constituting the prediction taps to the prediction calculation unit 7. The set of prediction taps cut out by the region cutout unit 2 is controlled in accordance with a feature amount representing a blur amount output from the feature amount extraction unit 3. The prediction calculation unit 7 performs a prediction calculation from the set of prediction taps input from the region cutout unit 2 and the set of prediction coefficients input from the ROM table 6, and converts the calculation result as image data with image quality corrected. Output. The output image data is displayed on, for example, a display device (not shown), recorded on a recording device, or transmitted by a transmission device.

【0017】次に、その動作について説明する。領域切
り出し部1は、画像データが入力されると、入力された
画像データの中から、所定の画素データをクラスタップ
として切り出す処理を実行する。例えば、図2に示すよ
うに、所定の注目画素データを中心として、その注目画
素データに対応する位置のデータ画素と、上下左右に隣
接する画素データの合計5個の画素データをクラスタッ
プとして切り出す。あるいは、図3に示すように、注目
画素データに対応する画素データと、上下左右方向に3
画素分離れた位置に隣接する画素データをクラスタップ
として抽出する。どのような画素データがクラスタップ
として切り出されるかは、特徴量抽出部3の出力するぼ
け量を表す特徴量に対応して決定される。
Next, the operation will be described. When image data is input, the area cutout unit 1 executes a process of cutting out predetermined pixel data from the input image data as a class tap. For example, as shown in FIG. 2, a total of five pixel data including a predetermined target pixel data as a center and pixel data at a position corresponding to the target pixel data and pixel data adjacent vertically and horizontally are cut out as class taps. . Alternatively, as shown in FIG. 3, pixel data corresponding to the pixel data of interest is
Pixel data adjacent to the pixel-separated position is extracted as a class tap. What kind of pixel data is cut out as a class tap is determined in accordance with the feature amount representing the blur amount output from the feature amount extraction unit 3.

【0018】ここで、図4のフローチャートを参照し
て、特徴量抽出部3の特徴量抽出処理について説明す
る。最初にステップS1において、特徴量抽出部3は、
入力された各画素データに対する自己相関係数をフレー
ム内の所定の領域(局所)毎に、算出する。そして、こ
の自己相関係数を画素データのぼけ量を表す特徴量の尺
度に利用する。
Here, the feature amount extraction processing of the feature amount extraction unit 3 will be described with reference to the flowchart of FIG. First, in step S1, the feature amount extraction unit 3
An autocorrelation coefficient for each input pixel data is calculated for each predetermined region (local) in the frame. Then, the autocorrelation coefficient is used as a measure of a feature amount representing a blur amount of the pixel data.

【0019】すなわち、例えば図5に示すように、水平
方向に連続する3個のタップTAP[0]乃至TAP[2]を自己相
関係数算出用のタップとした場合、自己相関係数cc[n]
(いまの場合、nは3以下の数)は、図6に示すよう
に、タップTAP[0]乃至TAP[2]の画素値と、それをnタッ
プだけシフトした画素値とが、それぞれ積算され、それ
らが加算されて求められる。すなわち、自己相関係数cc
[0]は710(=15×15+14×14+17×1
7)であり、自己相関係数cc[1]は448(=15×0
+14×15+17×14)であり、自己相関係数cc
[2]は255(=15×0+14×0+17×15)で
ある。
That is, as shown in FIG. 5, for example, when three taps TAP [0] to TAP [2] continuous in the horizontal direction are used as taps for calculating an autocorrelation coefficient, the autocorrelation coefficient cc [ n]
(In this case, n is a number of 3 or less), as shown in FIG. 6, the pixel values of taps TAP [0] to TAP [2] and the pixel values obtained by shifting them by n taps are respectively integrated. And they are added and found. That is, the autocorrelation coefficient cc
[0] is 710 (= 15 × 15 + 14 × 14 + 17 × 1)
7), and the autocorrelation coefficient cc [1] is 448 (= 15 × 0).
+ 14 × 15 + 17 × 14), and the autocorrelation coefficient cc
[2] is 255 (= 15 × 0 + 14 × 0 + 17 × 15).

【0020】自己相関係数cc[n]の最大値は、図7(A)に
示すように、常に自己相関係数cc[0]であり、自己相関
係数cc[n]の値はnが増加するとともに減少する。図7
は、水平方向に連続する7個のタップTAP[0]乃至TAP[7]
を自己相関係数算出用のタップとした場合における自己
相関係数cc[n]とnの関係を示しているものであるが、図
5および図6に示した例(3個のタップTAP[0]乃至TAP
[2]を自己相関係数算出用のタップとした場合)におい
ても、自己相関係数cc[0]が最大値となる。
As shown in FIG. 7A, the maximum value of the autocorrelation coefficient cc [n] is always the autocorrelation coefficient cc [0], and the value of the autocorrelation coefficient cc [n] is n. Decrease with increasing. FIG.
Are seven taps TAP [0] to TAP [7] that are continuous in the horizontal direction
5 shows the relationship between the autocorrelation coefficient cc [n] and n in the case where is a tap for calculating the autocorrelation coefficient. In the example shown in FIG. 5 and FIG. 0] through TAP
Also when [2] is a tap for calculating the autocorrelation coefficient), the autocorrelation coefficient cc [0] has the maximum value.

【0021】なお、実際には、n個全ての自己相関係数c
c[0]乃至cc[n]が算出されるわけではなく、最大値であ
る自己相関係数cc[0]と所定の自己相関係数cc[k](kはn
以下の任意の値)との2個の自己相関係数が算出され
る。
In practice, all n autocorrelation coefficients c
c [0] to cc [n] are not calculated, and the maximum autocorrelation coefficient cc [0] and a predetermined autocorrelation coefficient cc [k] (k is n
(The following arbitrary values) are calculated.

【0022】ステップS2において、特徴量抽出部3
は、図7(A)に示すように、ステップS1で算出した自
己相関係数cc[k](図7(A)の例の場合、K=3)を、最大
値である自己相関係数cc[0]で割って(正規化して)、
正規化された自己相関係数ncc[k](傾斜量)を算出す
る。
In step S2, the feature amount extraction unit 3
As shown in FIG. 7A, the autocorrelation coefficient cc [k] (K = 3 in the example of FIG. 7A) calculated in step S1 is changed to the maximum autocorrelation coefficient cc [k]. Dividing by cc [0] (normalized)
The normalized autocorrelation coefficient ncc [k] (inclination amount) is calculated.

【0023】ステップS3において、特徴量抽出部3
は、ステップS2で算出された正規化された自己相関係
数(傾斜量)ncc[k]が、傾斜量の最大値NCQ_MAX(<1.0)
乃至最小値NCQ_MIN(>0.0)の間に予め設定されている複
数のコード(図7(B)に示す例の場合、0乃至7)のう
ちのいずれのコードに対応するかを判定し、判定結果に
対応するコードを出力する。なお、傾斜量の最大値NCQ_
MAXおよび最小値NCQ_MINは、画像データから統計的に設
定される。
In step S3, the feature amount extraction unit 3
Is that the normalized autocorrelation coefficient (inclination amount) ncc [k] calculated in step S2 is the maximum value NCQ_MAX (<1.0) of the inclination amount.
To the minimum value NCQ_MIN (> 0.0), which one of a plurality of codes (0 to 7 in the case of the example shown in FIG. 7B) preset in advance is determined. Output the code corresponding to the result. Note that the maximum value of the amount of tilt NCQ_
MAX and the minimum value NCQ_MIN are statistically set from image data.

【0024】このように、特徴量はコードとして求めら
れ、領域切り出し部1、領域切り出し部2、およびクラ
スコード発生部5に出力される。
As described above, the feature amount is obtained as a code, and is output to the region cutout unit 1, the region cutout unit 2, and the class code generation unit 5.

【0025】領域切り出し部1は、特徴量抽出部3から
特徴量として、例えば、コード0が入力された場合、図
8に示すように、注目画素に連続して配置されている画
素データ(図2に対応する)をクラスタップとして切り
出す(抽出する)。また、コード2が入力された場合、
領域切り出し部1は、コード0の場合より広い間隔で配
置されている画素データ(図8の例では注目画素から2
画素離れている画素データ、図3に相当する)をクラス
タップとして切り出す(抽出する)。すなわち、特徴量
を示すコードが大きくなる(高周波成分が少なく)につ
れて、注目画素から離れた画素がクラスタップとされ
る。
When, for example, a code 0 is input as a feature value from the feature value extraction unit 3, the region cutout unit 1, as shown in FIG. 2) is extracted (extracted) as a class tap. If code 2 is entered,
The area cutout unit 1 stores the pixel data arranged at a wider interval than the code 0 (in the example of FIG.
Pixel data that is separated by pixels (corresponding to FIG. 3) is cut out (extracted) as a class tap. That is, as the code indicating the feature amount increases (the number of high-frequency components decreases), pixels farther from the target pixel are set as class taps.

【0026】このように、ぼけ量を表す特徴量(コー
ド)に応じて、クラスタップとして切り出す画素データ
を局所領域でダイナミックに変化させるようにすること
で、より適切なクラスタップを切り出すことが可能とな
る。
As described above, by appropriately changing the pixel data to be cut out as a class tap in a local region according to the feature amount (code) representing the blur amount, a more appropriate class tap can be cut out. Becomes

【0027】図示は省略するが、領域切り出し部2にお
ける予測タップも、領域切り出し部1におけるクラスタ
ップの切り出しと同様に、特徴量抽出部3の出力する特
徴量に対応して、予測タップとして切り出す画素データ
をダイナミックに変化させる。なお、この領域切り出し
部2において切り出される予測タップ(画素データ)
は、領域切り出し部1において切り出されるクラスタッ
プ(画素データ)と同一にしてもよいし、異なるものと
してもよい。
Although not shown, the prediction taps in the region cutout unit 2 are also cut out as prediction taps corresponding to the feature amounts output from the feature amount extraction unit 3 in the same manner as the cutout of the class taps in the region cutout unit 1. Pixel data is dynamically changed. The prediction tap (pixel data) cut out by the area cutout unit 2
May be the same as or different from the class tap (pixel data) cut out by the region cutout unit 1.

【0028】ADRCパターン抽出部4は、領域切り出し部
1で切り出されたクラスタップに対してADRC処理を実行
してクラス分類を行う(クラスを決定する)。すなわ
ち、クラスタップとして抽出された5つの画素データの
うちのダイナミックレンジをDR、ビット割当をn、クラ
スタップとしての各画素データのレベルをL、再量子化
コードをQとするとき、次式を演算する。 Q={(L−MIN+0.5)×2n/DR} DR=MAX−MIN+1
The ADRC pattern extraction unit 4 performs ADRC processing on the class taps cut out by the area cutout unit 1 to perform class classification (determines the class). That is, when the dynamic range of the five pixel data extracted as class taps is DR, the bit allocation is n, the level of each pixel data as a class tap is L, and the requantization code is Q, the following equation is obtained. Calculate. Q = {(L-MIN + 0.5) × 2n / DR} DR = MAX-MIN + 1

【0029】なお、ここで{ }は切り捨て処理を意味
する。また、MAXとMINは、クラスタップを構成する5つ
の画素データ内の最大値と最小値をそれぞれ表してい
る。これにより、例えば領域切り出し部1で切り出され
たクラスタップを構成する5個の画素データが、それぞ
れ例えば8ビット(n=8)で構成されているとする
と、これらがそれぞれ2ビットに圧縮される。従って、
合計10(=2×5)ビットで表される空間クラスを表
すデータが、クラスコード発生部5に供給される。
Here, {} means truncation processing. MAX and MIN represent the maximum value and the minimum value of the five pixel data constituting the class tap, respectively. Thus, for example, assuming that each of the five pieces of pixel data forming the class tap cut out by the area cutout unit 1 is made up of, for example, 8 bits (n = 8), these are each compressed to 2 bits. . Therefore,
Data representing a space class represented by a total of 10 (= 2 × 5) bits is supplied to the class code generator 5.

【0030】クラスコード発生部5は、ADRCパターン抽
出部4より入力された空間クラスを表すデータに、特徴
量抽出部3より供給されるぼけ量を表す特徴量を表すビ
ットを付加してクラスコードを発生する。例えば、ぼけ
量を表す特徴量が2ビットで表されるとすると、12ビ
ットのクラスコードが発生され、ROMテーブル6に供給
される。このクラスコードは、ROMテーブル6のアドレ
スに対応している。
The class code generation unit 5 adds a bit representing the feature amount representing the blur amount supplied from the feature value extraction unit 3 to the data representing the space class input from the ADRC pattern extraction unit 4 to generate a class code. Occurs. For example, assuming that the feature amount representing the blur amount is represented by 2 bits, a 12-bit class code is generated and supplied to the ROM table 6. This class code corresponds to the address of the ROM table 6.

【0031】ROMテーブル6には、各クラス(クラスコ
ード)に対応する予測係数のセットがクラスコードに対
応するアドレスにそれぞれ記憶されており、クラスコー
ド発生部5より供給されたクラスコードに基づいて、そ
のクラスコードに対応するアドレスに記憶されている予
測係数のセットω1乃至ωnが読み出され、予測演算部7
に供給される。
In the ROM table 6, a set of prediction coefficients corresponding to each class (class code) is stored at an address corresponding to the class code, based on the class code supplied from the class code generator 5. , The set of prediction coefficients ω 1 to ω n stored at the address corresponding to the class code are read out, and the prediction calculation unit 7
Supplied to

【0032】予測演算部7は、領域切り出し部2より供
給された予測タップを構成する画素データx1乃至x
nと、予測係数ω1乃至ωnに対して、次式に示すよう
に、積和演算を行うことで、予測結果yを演算する。 y=ω11+ω22+・・・+ωnn
The prediction calculation unit 7 is configured to calculate the pixel data x 1 to x x constituting the prediction tap supplied from the region cutout unit 2.
The prediction result y is calculated by performing a product-sum operation on n and the prediction coefficients ω 1 to ω n as shown in the following equation. y = ω 1 x 1 + ω 2 x 2 + ... + ω n x n

【0033】この予測値yが、画質(ぼけ)が補正され
た画素データとなる。
The predicted value y becomes pixel data whose image quality (blur) has been corrected.

【0034】図9は、ROMテーブル6に記憶するクラス
毎(クラスコード毎)の予測係数のセットを学習によっ
て得るための構成例を表している。この構成例において
は、例えば、画質の良好な教師信号(学習信号)として
のSD画像データ(または、HD画像データ)を用いてクラ
ス毎(クラスコード毎)の予測係数のセットを生成する
構成が示されている。なお、以下に説明する構成例は、
本実施の形態の図1の画像変換装置に対応するクラス毎
の予測係数のセットを生成するための例である。
FIG. 9 shows an example of a configuration for obtaining a set of prediction coefficients for each class (each class code) stored in the ROM table 6 by learning. In this configuration example, for example, a configuration is used in which a set of prediction coefficients for each class (each class code) is generated using SD image data (or HD image data) as a teacher signal (learning signal) having good image quality. It is shown. The configuration example described below is
4 is an example for generating a set of prediction coefficients for each class corresponding to the image conversion apparatus in FIG. 1 according to the present embodiment.

【0035】例えば、画質の良好な教師信号(学習信
号)としての画像データが、正規方程式演算部27に入
力されるとともに、ローパスフィルタ(LPF)21に入力
される。ローパスフィルタ21は、入力された教師信号
(学習信号)としての画像データの低域成分を除去する
ことで、画質の劣化した生徒信号(学習信号)を生成す
る。ローパスフィルタ21から出力された、画質の劣化
した生徒信号(学習信号)は、クラスタップとして所定
の範囲の画素データを切り出す(抽出する)領域切り出
し部22、予測タップとして所定の範囲の画素データを
切り出す(抽出する)領域切り出し部23、および、ぼ
け量を表す特徴量を抽出する特徴量抽出部24に入力さ
れる。特徴量抽出部24は、入力された画質の劣化した
生徒信号(学習信号)の画素データのぼけ量を表す特徴
量を抽出し、抽出したその特徴量を、領域切り出し部2
2、領域切り出し部23、およびクラスコード発生部2
6に供給する。領域切り出し部22と、領域切り出し部
23は、入力されたぼけ量を表す特徴量に対応して、ク
ラスタップ、または予測タップとして切り出す画素デー
タをダイナミックに変化させる。
For example, image data as a teacher signal (learning signal) with good image quality is input to the normal equation calculation unit 27 and also to the low-pass filter (LPF) 21. The low-pass filter 21 generates a student signal (learning signal) having deteriorated image quality by removing a low-frequency component of image data as an input teacher signal (learning signal). A student signal (learning signal) having deteriorated image quality output from the low-pass filter 21 is used as an area cutout unit 22 that cuts out (extracts) a predetermined range of pixel data as a class tap, and outputs a predetermined range of pixel data as a prediction tap. The image data is input to an area extracting unit 23 for extracting (extracting) and a characteristic amount extracting unit 24 for extracting a characteristic amount representing a blur amount. The feature amount extraction unit 24 extracts a feature amount representing a blur amount of the pixel data of the input student signal (learning signal) having deteriorated image quality, and extracts the extracted feature amount into the region cutout unit 2.
2. Area cutout unit 23 and class code generation unit 2
6 The region cutout unit 22 and the region cutout unit 23 dynamically change pixel data to be cut out as a class tap or a prediction tap in accordance with the input feature amount representing the blur amount.

【0036】ADRCパターン抽出部25は、領域切り出し
部22より入力されたクラスタップとしての画素データ
のクラス分類を行い(クラスを決定し)、その分類結果
をクラスコード発生部26に出力する。クラスコード発
生部26は、分類されたクラスとぼけ量を表す特徴量と
からクラスコードを発生し、正規方程式演算部27に出
力する。なお、上述した領域切り出し部22、領域切り
出し部23、特徴量抽出部24、ADRCパターン抽出部2
5およびクラスコード発生部26のそれぞれの構成およ
び動作は、図1に示された領域切り出し部1、領域切り
出し部2、特徴量抽出部3、ADRCパターン抽出部4およ
びクラスコード発生部6と同一であるため、ここでは説
明を省略する。
The ADRC pattern extraction unit 25 classifies the pixel data as the class tap input from the region cutout unit 22 (determines the class), and outputs the classification result to the class code generation unit 26. The class code generation unit 26 generates a class code from the classified classes and the feature amount representing the blur amount, and outputs the generated class code to the normal equation calculation unit 27. Note that the above-described region cutout unit 22, region cutout unit 23, feature amount extraction unit 24, ADRC pattern extraction unit 2
The configuration and operation of each of the area extraction unit 1, the area extraction unit 2, the feature amount extraction unit 3, the ADRC pattern extraction unit 4, and the class code generation unit 6 shown in FIG. Therefore, the description is omitted here.

【0037】正規方程式演算部27は、入力される教師
信号(学習信号)と領域切り出し部23から供給される
予測タップとしての画素データとから、クラス毎(クラ
スコード毎)に正規方程式を生成し、その正規方程式を
予測係数決定部28に供給する。そして、クラス毎に必
要な数の正規方程式が求められたとき、正規方程式演算
部27は、例えば、クラス毎に最小自乗法を用いて正規
方程式を解き、クラス毎の予測係数のセットを演算す
る。求められたクラス毎の予測係数のセットは、予測係
数決定部28からメモリ29に供給され、記憶される。
このメモリ29に記憶されたクラス毎の予測係数のセッ
トが、図1のROMテーブル6に書き込まれることにな
る。
The normal equation calculation section 27 generates a normal equation for each class (for each class code) from the input teacher signal (learning signal) and the pixel data as the prediction tap supplied from the area cutout section 23. Is supplied to the prediction coefficient determination unit 28. Then, when the required number of normal equations is obtained for each class, the normal equation calculation unit 27 solves the normal equation using the least square method for each class, and calculates a set of prediction coefficients for each class. . The calculated set of prediction coefficients for each class is supplied from the prediction coefficient determination unit 28 to the memory 29 and stored.
The set of prediction coefficients for each class stored in the memory 29 is written to the ROM table 6 in FIG.

【0038】上述した例では、クラス毎の予測係数のセ
ットを、図9に示される構成によって演算して求めるよ
うにしたが、コンピュータを用いてシミュレーションで
演算して求めるようにしてもよい。
In the above-described example, the set of prediction coefficients for each class is calculated and obtained by the configuration shown in FIG. 9. However, the set may be calculated by simulation using a computer.

【0039】また、本実施の形態においては、図1に示
されるROMテーブル6に記憶された、図9に示される方
法で演算されたクラス毎の予測係数のセットと、予測タ
ップとして切り出された画素データとから画質改善(ぼ
け改善)された画素データを生成するようになされてい
るが、本発明はこれに限らず、ROMテーブル6に学習に
よって演算されたクラス毎(クラスコード毎)の画素デ
ータの予測値そのものを記憶しておき、クラスコードに
よってその予測値を読み出すようにしてもよい。
In the present embodiment, a set of prediction coefficients for each class calculated by the method shown in FIG. 9 and stored in the ROM table 6 shown in FIG. Although pixel data with improved image quality (improved blur) is generated from the pixel data, the present invention is not limited to this. Pixel data for each class (for each class code) calculated by learning is stored in the ROM table 6. The predicted value itself of the data may be stored, and the predicted value may be read by a class code.

【0040】この場合、図1に示される領域切り出し部
2および図9に示される領域切り出し部23は省略で
き、図1に示される予測演算部7は、ROMテーブル6か
ら出力された画素データを出力デバイスに対応したフォ
ーマットに変換して出力するようになされる。さらに、
この場合は、図9に示される正規方程式演算部27およ
び予測係数決定部28のかわりに、重心法を用いてクラ
ス毎の予測値が生成され、このクラス毎の予測値がメモ
リ29に記憶される。
In this case, the region cutout unit 2 shown in FIG. 1 and the region cutout unit 23 shown in FIG. 9 can be omitted, and the prediction calculation unit 7 shown in FIG. The data is converted into a format corresponding to the output device and output. further,
In this case, instead of the normal equation calculation unit 27 and the prediction coefficient determination unit 28 shown in FIG. 9, a prediction value for each class is generated using the centroid method, and the prediction value for each class is stored in the memory 29. You.

【0041】さらに、クラス毎の予測値そのもののかわ
りに、クラス毎の予測値のそれぞれを基準値で正規化
し、クラス毎の正規化された予測値をROMテーブル6に
記憶しておいてもよい。この場合、図1に示される予測
演算部7では、基準値に基づいて正規化された予測値か
ら予測値を演算することになる。
Furthermore, instead of the predicted value itself for each class, each predicted value for each class may be normalized with a reference value, and the normalized predicted value for each class may be stored in the ROM table 6. . In this case, the prediction calculation unit 7 shown in FIG. 1 calculates a prediction value from a prediction value normalized based on a reference value.

【0042】さらに、本実施の形態において、クラスタ
ップまたは予測タップとして切り出される画素データの
数は、5個であったが、これに限らず、クラスタップま
たは予測タップとして切り出される画素データの数はい
くつであってもよい。ただし、クラスタップまたは予測
タップとして切り出す数を多くすればするほど画質改善
の精度は高くなるが、演算量が多くなり、メモリが大き
くなり、演算量、ハード面での負荷が大きくなるため、
最適な数を設定する必要がある。
Further, in the present embodiment, the number of pixel data cut out as a class tap or a prediction tap is five, but is not limited thereto, and the number of pixel data cut out as a class tap or a prediction tap is not limited to five. Any number is acceptable. However, as the number of cuts as class taps or prediction taps increases, the accuracy of image quality improvement increases, but the amount of calculation increases, the memory increases, the amount of calculation, and the load on hardware increases.
You need to set the optimal number.

【0043】また、本実施の形態においては、SD画像信
号からSD画像信号への変換(SD−SD変換)、HD画像信号
からHD画像信号への変換(HD−HD変換)について説明さ
れているが、本発明はこれに限らず、他のフォーマット
(インターレース信号、ノンインターレース信号など)
の変換にももちろん適用可能である。さらに、SD画像信
号からHD画像信号への変換(SD−HD変換)やインターレ
ース信号からノンインターレース信号への変換(インタ
ー−ノンインター変換)など、異なるフォーマット間の
変換にも本発明は適用が可能である。ただし、この場合
には、クラスタップまたは予測タップとして画像データ
を切り出す際には、注目画素データとなる画素は実際に
は存在しないため、切り出しの対象画素データとはなら
ない。
In the present embodiment, conversion from an SD image signal to an SD image signal (SD-SD conversion) and conversion from an HD image signal to an HD image signal (HD-HD conversion) are described. However, the present invention is not limited to this, and other formats (interlace signal, non-interlace signal, etc.)
Of course, it can be applied to the conversion. Furthermore, the present invention can be applied to conversion between different formats, such as conversion from an SD image signal to an HD image signal (SD-HD conversion) and conversion from an interlace signal to a non-interlace signal (inter-non-inter conversion). It is. However, in this case, when the image data is cut out as the class tap or the prediction tap, since the pixel serving as the target pixel data does not actually exist, it does not become the target pixel data of the cutout.

【0044】なお、本発明の主旨を逸脱しない範囲にお
いて、さまざまな変形や応用例が考えられる。従って、
本発明の要旨は本実施の形態に限定されるものではな
い。
Various modifications and application examples are conceivable without departing from the gist of the present invention. Therefore,
The gist of the present invention is not limited to the present embodiment.

【0045】また、上記したような処理を行うコンピュ
ータプログラムをユーザに提供する提供媒体としては、
磁気ディスク、CD-ROM、固体メモリなどの記録媒体の
他、ネットワーク、衛星などの通信媒体を利用すること
ができる。
Further, as a providing medium for providing a user with a computer program for performing the above-described processing,
In addition to recording media such as magnetic disks, CD-ROMs, and solid-state memories, communication media such as networks and satellites can be used.

【0046】[0046]

【発明の効果】以上のように、請求項1に記載の画像変
換装置、請求項4に記載の画像変換方法、および請求項
5に記載の提供媒体によれば、画像の局所的に自己相関
係数を演算して正規化し、正規化された自己相関係数に
対応したコードに対応してクラスタップを抽出するよう
にしたので、入力される画像データの画質が悪くても、
クラスタップまたは予測タップとして最適な画素データ
を抽出することができ、適切な予測処理を行うことが可
能となる。
As described above, according to the image conversion apparatus according to the first aspect, the image conversion method according to the fourth aspect, and the providing medium according to the fifth aspect, the image is locally self-phased. The relationship number is calculated and normalized, and the class tap is extracted according to the code corresponding to the normalized auto-correlation coefficient, so even if the image quality of the input image data is poor,
Optimal pixel data can be extracted as a class tap or prediction tap, and appropriate prediction processing can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した画像変換装置の構成を示すブ
ロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image conversion apparatus to which the present invention has been applied.

【図2】図1の領域切り出し部1における切り出し処理
を説明する図である。
FIG. 2 is a diagram illustrating a cutout process in an area cutout unit 1 of FIG. 1;

【図3】図1の領域切り出し部1における切り出し処理
を説明する図である。
FIG. 3 is a diagram illustrating a cutout process in an area cutout unit 1 of FIG. 1;

【図4】図1の特徴量抽出部3における特徴量抽出処理
を説明するフローチャートである。
FIG. 4 is a flowchart illustrating a feature amount extraction process in a feature amount extraction unit 3 of FIG. 1;

【図5】図4のステップS1における自己相関係数の演
算を説明する図である。
FIG. 5 is a diagram illustrating the calculation of an autocorrelation coefficient in step S1 of FIG.

【図6】図4のステップS1における自己相関係数の演
算を説明する図である。
FIG. 6 is a diagram for explaining calculation of an autocorrelation coefficient in step S1 of FIG. 4;

【図7】図4のステップS2の正規化処理を説明する図
である。
FIG. 7 is a diagram illustrating a normalization process in step S2 of FIG. 4;

【図8】コードの対応するクラスタップの例を示す図で
ある。
FIG. 8 is a diagram showing an example of a corresponding class tap of a code.

【図9】図1のROMテーブル6の予測係数の学習処理を
行うための構成を示すブロック図である。
9 is a block diagram showing a configuration for performing a learning process of a prediction coefficient of the ROM table 6 of FIG. 1;

【符号の説明】[Explanation of symbols]

1,2 領域切り出し部, 3 特徴量抽出部, 4
ADRCパターン抽出部,5 クラスコード発生部, 6
ROMテーブル, 7 予測演算部
1, 2 area extraction unit, 3 feature amount extraction unit, 4
ADRC pattern extractor, 5 Class code generator, 6
ROM table, 7 prediction operation unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 立平 靖 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 星野 隆也 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 中屋 秀雄 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 浜松 俊彦 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 白木 寿一 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Yasushi Tatehira 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Takaya Hoshino 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo No. Sony Corporation (72) Inventor Hideo Nakaya 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Toshihiko Hamamatsu 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Juichi Shiraki Inside Sony Corporation 6-7-35 Kita Shinagawa, Shinagawa-ku, Tokyo

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 複数の画素データからなる第1の画像信
号を複数の画素データからなる第2の画像信号に変換す
る画像変換装置において、 前記第1の画像信号の中からクラスコードを生成するた
めの複数の画像データをクラスタップとして抽出する第
1の抽出手段と、 前記クラスタップをクラス分類することによりそのクラ
スを表すクラスコードを発生するクラス分類手段と、 前記クラスコードに対応する予測係数を発生する予測係
数発生手段と、 前記第1の画像信号の中から予測タップを抽出する第2
の抽出手段と、 前記予測係数および前記予測タップを用いて前記第2の
画像信号を生成する生成手段と、 前記第1の画像信号の局所的な自己相関係数を演算する
演算手段と、 前記演算手段が演算した前記自己相関係数を正規化する
正規化手段と、 前記正規化手段で正規化された前記自己相関係数に対応
して前記第1の画像信号の特徴量を表すコードを発生す
るコード発生手段と、 前記コード発生手段が発生した前記コードに対応して前
記第1の抽出手段が抽出する前記クラスタップまたは前
記第2の抽出手段が抽出する前記予測タップを制御する
制御手段とを備えることを特徴とする画像変換装置。
1. An image conversion device for converting a first image signal composed of a plurality of pixel data into a second image signal composed of a plurality of pixel data, wherein a class code is generated from the first image signal. Extracting means for extracting a plurality of image data as class taps, class classifying means for classifying the class tap to generate a class code representing the class, and a prediction coefficient corresponding to the class code Prediction coefficient generating means for generating a prediction tap; and a second extracting a prediction tap from the first image signal.
Extracting means; generating means for generating the second image signal using the prediction coefficient and the prediction tap; calculating means for calculating a local autocorrelation coefficient of the first image signal; Normalizing means for normalizing the auto-correlation coefficient calculated by the calculating means; and a code representing a feature amount of the first image signal corresponding to the auto-correlation coefficient normalized by the normalizing means. Code generating means to be generated; and control means for controlling the class tap extracted by the first extracting means or the prediction tap extracted by the second extracting means corresponding to the code generated by the code generating means. An image conversion device comprising:
【請求項2】 前記第2の画像信号は前記第1の画像信
号より画質改善された信号であることを特徴とする請求
項1に記載の画像変換装置。
2. The image conversion apparatus according to claim 1, wherein the second image signal is a signal whose image quality has been improved from the first image signal.
【請求項3】 前記第1の画像信号と前記第2の画像信
号は同じフォーマットの画像信号であることを特徴とす
る請求項1に記載の画像変換装置。
3. The image conversion device according to claim 1, wherein the first image signal and the second image signal are image signals of the same format.
【請求項4】 複数の画素データからなる第1の画像信
号を複数の画素データからなる第2の画像信号に変換す
る画像変換方法において、 前記第1の画像信号の中からクラスコードを生成するた
めの複数の画像データをクラスタップとして抽出する第
1の抽出ステップと、 前記クラスタップをクラス分類することによりそのクラ
スを表すクラスコードを発生するクラス分類ステップ
と、 前記クラスコードに対応する予測係数を発生する予測係
数発生ステップと、 前記第1の画像信号の中から予測タップを抽出する第2
の抽出ステップと、 前記予測係数および前記予測タップを用いて前記第2の
画像信号を生成する生成ステップと、 前記第1の画像信号の局所的な自己相関係数を演算する
演算ステップと、 前記演算ステップで演算した前記自己相関係数を正規化
する正規化ステップと、 前記正規化ステップで正規化された前記自己相関係数に
対応して前記第1の画像信号の特徴量を表すコードを発
生するコード発生ステップと、 前記コード発生ステップで発生した前記コードに対応し
て前記第1の抽出ステップで抽出する前記クラスタップ
または前記第2の抽出ステップで抽出する前記予測タッ
プを制御する制御ステップとを含むことを特徴とする画
像変換方法。
4. An image conversion method for converting a first image signal composed of a plurality of pixel data into a second image signal composed of a plurality of pixel data, wherein a class code is generated from the first image signal. Extracting a plurality of image data as class taps, classifying the class taps to generate a class code representing the class, and predicting coefficients corresponding to the class codes. And a second step of extracting a prediction tap from the first image signal
An extracting step of: generating the second image signal using the prediction coefficient and the prediction tap; an operation step of calculating a local autocorrelation coefficient of the first image signal; A normalization step of normalizing the autocorrelation coefficient calculated in the calculation step; and a code representing a feature amount of the first image signal corresponding to the autocorrelation coefficient normalized in the normalization step. A code generating step to be generated; and a control step of controlling the class tap extracted in the first extracting step or the prediction tap extracted in the second extracting step in accordance with the code generated in the code generating step. And an image conversion method.
【請求項5】 複数の画素データからなる第1の画像信
号を複数の画素データからなる第2の画像信号に変換す
る画像変換装置に、 前記第1の画像信号の中からクラスコードを生成するた
めの複数の画像データをクラスタップとして抽出する第
1の抽出ステップと、 前記クラスタップをクラス分類することによりそのクラ
スを表すクラスコードを発生するクラス分類ステップ
と、 前記クラスコードに対応する予測係数を発生する予測係
数発生ステップと、 前記第1の画像信号の中から予測タップを抽出する第2
の抽出ステップと、 前記予測係数および前記予測タップを用いて前記第2の
画像信号を生成する生成ステップと、 前記第1の画像信号の局所的な自己相関係数を演算する
演算ステップと、 前記演算ステップで演算した前記自己相関係数を正規化
する正規化ステップと、 前記正規化ステップで正規化された前記自己相関係数に
対応して前記第1の画像信号の特徴量を表すコードを発
生するコード発生ステップと、 前記コード発生ステップで発生した前記コードに対応し
て前記第1の抽出ステップで抽出する前記クラスタップ
または前記第2の抽出ステップで抽出する前記予測タッ
プを制御する制御ステップとを含む処理を実行させるコ
ンピュータが読み取り可能なプログラムを提供すること
を特徴とする提供媒体。
5. An image conversion apparatus for converting a first image signal composed of a plurality of pixel data into a second image signal composed of a plurality of pixel data, wherein a class code is generated from the first image signal. A first extraction step of extracting a plurality of image data as class taps, a class classification step of classifying the class tap to generate a class code representing the class, and a prediction coefficient corresponding to the class code And a second step of extracting a prediction tap from the first image signal
An extracting step, a generating step of generating the second image signal using the prediction coefficient and the prediction tap, and an arithmetic step of calculating a local autocorrelation coefficient of the first image signal; A normalization step of normalizing the autocorrelation coefficient calculated in the calculation step; and a code representing a feature amount of the first image signal corresponding to the autocorrelation coefficient normalized in the normalization step. A generated code generating step; and a control step of controlling the class tap extracted in the first extracting step or the predicted tap extracted in the second extracting step in accordance with the code generated in the code generating step. And a computer-readable program for executing a process including:
JP19527798A 1998-07-10 1998-07-10 Image conversion apparatus and method, and recording medium Expired - Fee Related JP4035895B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19527798A JP4035895B2 (en) 1998-07-10 1998-07-10 Image conversion apparatus and method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19527798A JP4035895B2 (en) 1998-07-10 1998-07-10 Image conversion apparatus and method, and recording medium

Publications (3)

Publication Number Publication Date
JP2000032402A true JP2000032402A (en) 2000-01-28
JP2000032402A5 JP2000032402A5 (en) 2005-09-02
JP4035895B2 JP4035895B2 (en) 2008-01-23

Family

ID=16338493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19527798A Expired - Fee Related JP4035895B2 (en) 1998-07-10 1998-07-10 Image conversion apparatus and method, and recording medium

Country Status (1)

Country Link
JP (1) JP4035895B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341705A (en) * 1999-03-25 2000-12-08 Sony Corp Picture signal processor, its processing method, leaerning device and method, and recording medium
JP2000341706A (en) * 1999-03-25 2000-12-08 Sony Corp Picture signal processor, its processing method, learning device and method, and recording medium
JP2001222702A (en) * 2000-02-07 2001-08-17 Sony Corp Device and method for image processing and recording medium
WO2002013180A1 (en) * 2000-08-02 2002-02-14 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
WO2002013181A1 (en) * 2000-08-02 2002-02-14 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
WO2002013182A1 (en) * 2000-08-02 2002-02-14 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
JP2010044576A (en) * 2008-08-12 2010-02-25 Nec Engineering Ltd Image generation method, image generation device, and image generation program
US8106957B2 (en) 1999-02-19 2012-01-31 Sony Corporation Image signal processing apparatus, and image signal processing method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8106957B2 (en) 1999-02-19 2012-01-31 Sony Corporation Image signal processing apparatus, and image signal processing method
JP2000341705A (en) * 1999-03-25 2000-12-08 Sony Corp Picture signal processor, its processing method, leaerning device and method, and recording medium
JP2000341706A (en) * 1999-03-25 2000-12-08 Sony Corp Picture signal processor, its processing method, learning device and method, and recording medium
JP2001222702A (en) * 2000-02-07 2001-08-17 Sony Corp Device and method for image processing and recording medium
WO2002013180A1 (en) * 2000-08-02 2002-02-14 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
WO2002013181A1 (en) * 2000-08-02 2002-02-14 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
WO2002013182A1 (en) * 2000-08-02 2002-02-14 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
US6907413B2 (en) 2000-08-02 2005-06-14 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
US6990475B2 (en) 2000-08-02 2006-01-24 Sony Corporation Digital signal processing method, learning method, apparatus thereof and program storage medium
US7412384B2 (en) 2000-08-02 2008-08-12 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
US7584008B2 (en) 2000-08-02 2009-09-01 Sony Corporation Digital signal processing method, learning method, apparatuses for them, and program storage medium
JP2010044576A (en) * 2008-08-12 2010-02-25 Nec Engineering Ltd Image generation method, image generation device, and image generation program

Also Published As

Publication number Publication date
JP4035895B2 (en) 2008-01-23

Similar Documents

Publication Publication Date Title
US5754709A (en) Method and apparatus for gradation correction and image edge extraction
US20100202711A1 (en) Image processing apparatus, image processing method, and program
US6233019B1 (en) Image converter and image converting method for improving image quality
CN104079801A (en) Image processing apparatus, image processing method, and program
KR20010007300A (en) Data processing apparatus, data processing method, learning apparatus, learning method, and medium
JP2001218210A (en) Noise detection method, noise detector, image data processing unit, and recording medium
JP4362895B2 (en) Data processing apparatus, data processing method, and recording medium
JP2000032402A (en) Image converter and its method, and distributing medium thereof
US5949916A (en) Modified automatic regressive filter and filtering method therefor
JP2000148724A (en) Processor and method for data processing
JP4062771B2 (en) Image conversion apparatus and method, and recording medium
US7061539B2 (en) Information signal processing device, information signal processing method, image signal processing device, image display comprising the same, and information providing medium
JP2002112038A (en) Apparatus and method for reproducing image and computer-readable storage medium
KR20060045430A (en) Apparatus and method for generating coefficient data, apparatus and method for generating coefficient-seed data, information-siganl processing apparatus, program, and medium having recorded the program thereon
JPH10155139A (en) Image processor and image processing method
JP2000059652A (en) Device and method for removing noise
JP4139979B2 (en) Image conversion apparatus and method, and recording medium
JP2000092456A (en) Device and method for image conversion, device and method for learning, image conversion system, and providing medium
KR100982766B1 (en) Data processing apparatus and associated method, a computer readable medium
JP4337186B2 (en) Image information conversion apparatus, image information conversion method, learning apparatus, and learning method
US8228995B2 (en) Image processing apparatus, image processing method, and program
JPH0851598A (en) Image information converter
JP2000348019A (en) Data processor, data processing method and medium
JP4225039B2 (en) Data processing apparatus and method, recording medium, and program
EP1033886A1 (en) Arithmetic device, converter, and their methods

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050303

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071022

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101109

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111109

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111109

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121109

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121109

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131109

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees