JP2000115803A - Image signal processing unit and its method, learning device and its method, and distributing medium - Google Patents

Image signal processing unit and its method, learning device and its method, and distributing medium

Info

Publication number
JP2000115803A
JP2000115803A JP28400298A JP28400298A JP2000115803A JP 2000115803 A JP2000115803 A JP 2000115803A JP 28400298 A JP28400298 A JP 28400298A JP 28400298 A JP28400298 A JP 28400298A JP 2000115803 A JP2000115803 A JP 2000115803A
Authority
JP
Japan
Prior art keywords
signal
pixel
learning
interest
composite signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP28400298A
Other languages
Japanese (ja)
Other versions
JP4061632B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Hideo Nakaya
秀雄 中屋
Takanari Hoshino
隆也 星野
Takeharu Nishikata
丈晴 西片
Masaru Inoue
賢 井上
Naoki Kobayashi
小林  直樹
Tetsushi Kokubo
哲志 小久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP28400298A priority Critical patent/JP4061632B2/en
Publication of JP2000115803A publication Critical patent/JP2000115803A/en
Application granted granted Critical
Publication of JP4061632B2 publication Critical patent/JP4061632B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Of Color Television Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce the scale of a processing unit. SOLUTION: A control circuit 14 supplies a CS signal to select a Y±I memory 13A, when an NTSC signal of a notice pixel is a Y-I signal and a Y+I signal and to select a Y±Q memory 13B when the NTSC signal of the noted pixel is a Y-Q signal and a Y+Q signal to a prediction coefficient memory section 13. A code inversion circuit 17 inverts the code of each of U, V signals inputted from an arithmetic circuit 16 (executes code inversion processing), when the notice pixel is the Y-I signal or the Y-Q signal, based on the CS signal inputted from the control circuit 14 and does not apply the code sign inversion processing to the U, V signals, when the notice pixel is the Y+I signal or the Y+Q signal and output them.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像信号処理装置
および方法、学習装置および方法、並びに提供媒体に関
し、特に、例えば、NTSC(National Television System
Committee)方式のテレビジョン信号などのコンポジット
信号を、YUV信号などのコンポーネント信号に変換する
画像信号処理装置および方法、学習装置および方法、並
びに提供媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image signal processing apparatus and method, a learning apparatus and method, and a providing medium, and more particularly to, for example, NTSC (National Television System).
The present invention relates to an image signal processing apparatus and method for converting a composite signal such as a television signal of a Committee) system into a component signal such as a YUV signal, a learning apparatus and method, and a providing medium.

【0002】[0002]

【従来の技術】例えば、NTSC方式のテレビジョン信号
は、輝度信号(Y)に、色信号(C)(I成分およびQ成分)
を直交変調して多重化したもの、すなわち、Y−I信
号、Y−Q信号、Y+I信号、およびY+Q信号の4種
類の位相を持った信号となっており、したがって、テレ
ビジョン信号を受信して画像を表示する場合には、テレ
ビジョン信号から輝度信号と色信号とを分離し(Y/C分
離し)、さらに、マトリクス変換して、YUV信号などの
コンポーネント信号にする必要がある。
2. Description of the Related Art For example, an NTSC television signal includes a luminance signal (Y) and a chrominance signal (C) (I component and Q component).
Are multiplexed by quadrature modulation, that is, a signal having four kinds of phases of a YI signal, a YQ signal, a Y + I signal, and a Y + Q signal. When an image is displayed, it is necessary to separate a luminance signal and a chrominance signal from the television signal (Y / C separation), and further perform matrix conversion to a component signal such as a YUV signal.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
Y/C分離では、例えば、注目画素の輝度信号や色信号
を、その注目画素の近傍に位置する画素(注目画素も含
む)のコンポジット信号と、固定のフィルタ係数とを用
いた演算を行うことにより求めていた。このため、注目
画素にとって、係数が適切でない場合には、ドット妨害
やクロスカラーなどが生じ、画質が劣化する課題があっ
た。
SUMMARY OF THE INVENTION However, the conventional
In the Y / C separation, for example, a luminance signal or a color signal of a target pixel is calculated using a composite signal of a pixel (including the target pixel) located in the vicinity of the target pixel and a fixed filter coefficient. Was asked by. For this reason, if the coefficient is not appropriate for the pixel of interest, dot interference, cross color, and the like occur, and there is a problem that image quality is degraded.

【0004】また、従来のY/C分離では、上述した4種
類の位相、それぞれに対応したフィルタ係数等を設定す
る必要があり、フィルタ係数を用いた演算を行う回路の
規模が大きくなる課題があった。
Further, in the conventional Y / C separation, it is necessary to set the above-described four types of phases, filter coefficients corresponding to each of the four types, and the scale of a circuit for performing an operation using the filter coefficients becomes large. there were.

【0005】本発明は、このような状況に鑑みてなされ
たものであり、異なる位相において、同じフィルタ係数
を用いることにより、装置の規模を小さくすることがで
きるようにするものである。
The present invention has been made in view of such circumstances, and it is an object of the present invention to reduce the scale of a device by using the same filter coefficient in different phases.

【0006】[0006]

【課題を解決するための手段】請求項1に記載の画像信
号処理装置は、注目画素のコンポジット信号の4種類の
位相を検出する検出手段と、コンポジット信号の2種類
の位相に対応する予測係数を記憶する記憶手段と、記憶
手段が記憶する予測係数のうちの検出手段が検出した注
目画素のコンポジット信号の位相に対応するものを用い
て注目画素のコンポーネント信号を演算する演算手段
と、検出手段が検出した注目画素のコンポジット信号の
位相に対応して、演算手段で演算された注目画素のコン
ポーネント信号を補正する補正手段とを備えることを特
徴とする。
According to a first aspect of the present invention, there is provided an image signal processing apparatus, comprising: detecting means for detecting four types of phases of a composite signal of a target pixel; and a prediction coefficient corresponding to two types of phases of the composite signal. Means for calculating a component signal of the pixel of interest using a prediction coefficient stored in the storage means corresponding to the phase of the composite signal of the pixel of interest detected by the detection means; And correcting means for correcting the component signal of the pixel of interest calculated by the calculating means in accordance with the phase of the composite signal of the pixel of interest detected by the control means.

【0007】請求項6に記載の画像信号処理方法は、注
目画素のコンポジット信号の4種類の位相を検出する検
出ステップと、コンポジット信号の2種類の位相に対応
する予測係数を記憶する記憶ステップと、記憶ステップ
で記憶する予測係数のうちの検出ステップで検出した注
目画素のコンポジット信号の位相に対応するものを用い
て注目画素のコンポーネント信号を演算する演算ステッ
プと、検出ステップで検出した注目画素のコンポジット
信号の位相に対応して、演算ステップで演算された注目
画素のコンポーネント信号を補正する補正ステップとを
含むことを特徴とする。
According to a sixth aspect of the present invention, there is provided an image signal processing method comprising: a detecting step of detecting four types of phases of a composite signal of a target pixel; and a storing step of storing prediction coefficients corresponding to two types of phases of a composite signal. Calculating the component signal of the pixel of interest using the one corresponding to the phase of the composite signal of the pixel of interest detected in the detection step among the prediction coefficients stored in the storage step; A correction step of correcting the component signal of the pixel of interest calculated in the calculation step in accordance with the phase of the composite signal.

【0008】請求項7に記載の提供媒体は、注目画素の
コンポジット信号の4種類の位相を検出する検出ステッ
プと、コンポジット信号の2種類の位相に対応する予測
係数を記憶する記憶ステップと、記憶ステップで記憶す
る予測係数のうちの検出ステップで検出した注目画素の
コンポジット信号の位相に対応するものを用いて注目画
素のコンポーネント信号を演算する演算ステップと、検
出ステップで検出した注目画素のコンポジット信号の位
相に対応して、演算ステップで演算された注目画素のコ
ンポーネント信号を補正する補正ステップとを含む処理
を画像信号処理装置に実行させるコンピュータが読み取
り可能なプログラムを提供することを特徴とする。
According to a seventh aspect of the present invention, in the providing medium, a detecting step of detecting four types of phases of the composite signal of the pixel of interest, a storing step of storing prediction coefficients corresponding to two types of phases of the composite signal, and a storing step A calculating step of calculating a component signal of the pixel of interest using a phase coefficient of the composite signal of the pixel of interest detected in the detection step among the prediction coefficients stored in the step; and a composite signal of the pixel of interest detected in the detection step A computer-readable program that causes the image signal processing device to execute a process including a correction step of correcting the component signal of the pixel of interest calculated in the calculation step in accordance with the phase of

【0009】請求項8に記載の学習装置は、学習用のコ
ンポーネント信号を、学習用のコンポジット信号に変換
する変換手段と、変換手段で変換された注目画素の学習
用のコンポジット信号の4種類の位相を検出する検出手
段と、検出手段が検出した注目画素の学習用のコンポジ
ット信号の位相に対応して、学習用のコンポーネント信
号を補正する補正手段と、学習用のコンポジット信号と
予測係数とを用いて演算されたコンポーネント信号と、
補正手段が補正した学習用のコンポーネント信号との誤
差を小さくする予測係数を求めるための演算を行う演算
手段とを備えることを特徴とする。
The learning device according to the present invention has four types of conversion means for converting a learning component signal into a learning composite signal, and a learning composite signal for a pixel of interest converted by the conversion means. Detecting means for detecting the phase; correcting means for correcting the component signal for learning corresponding to the phase of the composite signal for learning of the pixel of interest detected by the detecting means; and a composite signal for learning and a prediction coefficient. A component signal calculated using
A calculating means for performing a calculation for obtaining a prediction coefficient for reducing an error with a learning component signal corrected by the correcting means.

【0010】請求項12に記載の学習方法は、学習用の
コンポーネント信号を、学習用のコンポジット信号に変
換する変換ステップと、変換ステップで変換された注目
画素の学習用のコンポジット信号の4種類の位相を検出
する検出ステップと、検出ステップで検出した注目画素
の学習用のコンポジット信号の位相に対応して、学習用
のコンポーネント信号を補正する補正ステップと、学習
用のコンポジット信号と予測係数とを用いて演算された
コンポーネント信号と、補正ステップで補正した学習用
のコンポーネント信号との誤差を小さくする予測係数を
求めるための演算を行う演算ステップとを含むことを特
徴とする。
According to a twelfth aspect of the present invention, there are provided a learning method, comprising: a conversion step of converting a learning component signal into a learning composite signal; and a learning composite signal of the pixel of interest converted in the conversion step. A detection step of detecting a phase, a correction step of correcting a learning component signal corresponding to the phase of the learning composite signal of the pixel of interest detected in the detection step, and a learning composite signal and a prediction coefficient. The method is characterized by including an operation step of performing an operation for obtaining a prediction coefficient for reducing an error between the component signal calculated using the above and the learning component signal corrected in the correction step.

【0011】請求項13に記載の提供媒体は、学習用の
コンポーネント信号を、学習用のコンポジット信号に変
換する変換ステップと、変換ステップで変換された注目
画素の学習用のコンポジット信号の4種類の位相を検出
する検出ステップと、検出ステップで検出した注目画素
の学習用のコンポジット信号の位相に対応して、学習用
のコンポーネント信号を補正する補正ステップと、学習
用のコンポジット信号と予測係数とを用いて演算された
コンポーネント信号と、補正ステップで補正した学習用
のコンポーネント信号との誤差を小さくする予測係数を
求めるための演算を行う演算ステップとを含む処理を学
習装置に実行させるコンピュータが読み取り可能なプロ
グラムを提供することを特徴とする。
According to a thirteenth aspect of the present invention, there are provided four types of media: a conversion step of converting a component signal for learning into a composite signal for learning, and a composite signal for learning of a pixel of interest converted in the conversion step. A detection step of detecting a phase, a correction step of correcting a learning component signal corresponding to the phase of the learning composite signal of the pixel of interest detected in the detection step, and a learning composite signal and a prediction coefficient. A computer-readable program that causes a learning device to execute a process including an operation step of performing an operation for obtaining a prediction coefficient that reduces an error between a component signal calculated using the above and a learning component signal corrected in the correction step. A unique program is provided.

【0012】請求項1に記載の画像信号処理装置、請求
項6に記載の画像信号処理方法、および請求項7に記載
の提供媒体においては、注目画素のコンポジット信号の
4種類の位相が検出され、コンポジット信号の2種類の
位相に対応する予測係数が記憶されて、記憶された予測
係数のうちの検出された注目画素のコンポジット信号の
位相に対応するものを用いて注目画素のコンポーネント
信号が演算される。さらに、検出された注目画素のコン
ポジット信号の位相に対応して、演算された注目画素の
コンポーネント信号が補正される。
In the image signal processing apparatus according to the first aspect, the image signal processing method according to the sixth aspect, and the providing medium according to the seventh aspect, four phases of the composite signal of the target pixel are detected. The prediction coefficients corresponding to the two types of phases of the composite signal are stored, and the component signal of the pixel of interest is calculated using one of the stored prediction coefficients corresponding to the phase of the composite signal of the detected pixel of interest. Is done. Further, the calculated component signal of the target pixel is corrected in accordance with the detected phase of the composite signal of the target pixel.

【0013】請求項8に記載の学習装置、請求項12に
記載の学習方法、および請求項13に記載の提供媒体に
おいては、学習用のコンポーネント信号が学習用のコン
ポジット信号に変換され、変換された注目画素の学習用
のコンポジット信号の4種類の位相が検出され、検出さ
れた注目画素の学習用のコンポジット信号の位相に対応
して、学習用のコンポーネント信号が補正されて、学習
用のコンポジット信号と予測係数とを用いて演算された
コンポーネント信号と、補正された学習用のコンポーネ
ント信号との誤差を小さくする予測係数を求めるための
演算が行われる。
[0013] In the learning apparatus according to the eighth aspect, the learning method according to the twelfth aspect, and the providing medium according to the thirteenth aspect, the component signal for learning is converted into a composite signal for learning, and is converted. The four types of phases of the composite signal for learning of the pixel of interest are detected, and the component signal for learning is corrected in accordance with the detected phase of the composite signal for learning of the pixel of interest, and the composite composite for learning is obtained. An operation is performed to obtain a prediction coefficient that reduces an error between the component signal calculated using the signal and the prediction coefficient and the corrected learning component signal.

【0014】[0014]

【発明の実施の形態】以下に、本発明の実施の形態を説
明するが、その前に、特許請求の範囲に記載の発明の各
手段と以下の実施の形態との対応関係を明らかにするた
めに、各手段の後の括弧内に、対応する実施の形態(但
し、一例)を付加して、本発明の特徴を記述すると、次
のようになる。但し、勿論この記載は、各手段を上記し
たものに限定することを意味するものではない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below, but before that, the correspondence between each means of the invention described in the claims and the following embodiments will be clarified. For this reason, the features of the present invention are described as follows by adding the corresponding embodiment (however, an example) in parentheses after each means. However, of course, this description does not mean that each means is limited to those described above.

【0015】請求項1に記載の画像信号処理装置は、注
目画素のコンポジット信号の4種類の位相を検出する検
出手段(例えば、図2の制御回路14)と、コンポジッ
ト信号の2種類の位相に対応する予測係数を記憶する記
憶手段(例えば、図2の予測係数メモリ部13)と、記
憶手段が記憶する予測係数のうちの検出手段が検出した
注目画素のコンポジット信号の位相に対応するものを用
いて注目画素のコンポーネント信号を演算する演算手段
(例えば、図2の演算回路16)と、検出手段が検出し
た注目画素のコンポジット信号の位相に対応して、演算
手段で演算された注目画素のコンポーネント信号を補正
する補正手段(例えば、図2の符号反転回路17)とを
備えることを特徴とする。
The image signal processing apparatus according to the first aspect of the present invention includes a detecting means (for example, the control circuit 14 in FIG. 2) for detecting four types of phases of the composite signal of the target pixel, and two types of phases of the composite signal. A storage unit for storing the corresponding prediction coefficient (for example, the prediction coefficient memory unit 13 in FIG. 2), and a prediction coefficient stored in the storage unit corresponding to the phase of the composite signal of the pixel of interest detected by the detection unit. A calculating means (for example, the calculating circuit 16 in FIG. 2) for calculating the component signal of the target pixel by using the target pixel calculated by the calculating means in accordance with the phase of the composite signal of the target pixel detected by the detecting means. A correction means (for example, the sign inversion circuit 17 in FIG. 2) for correcting the component signal is provided.

【0016】請求項5に記載の画像信号処理装置は、注
目画素の空間的および時間的な特徴に基づいて、注目画
素をクラス分類するクラス分類手段(例えば、図2のク
ラス分類回路12)をさらに備え、記憶手段は、コンポ
ジット信号の2種類の位相に対応する予測係数をクラス
毎に記憶することを特徴とする。
According to a fifth aspect of the present invention, there is provided an image signal processing apparatus comprising a class classification means (for example, the class classification circuit in FIG. 2) for classifying a target pixel based on the spatial and temporal characteristics of the target pixel. Further, the storage means stores the prediction coefficients corresponding to the two types of phases of the composite signal for each class.

【0017】請求項8に記載の学習装置は、学習用のコ
ンポーネント信号を、学習用のコンポジット信号に変換
する変換手段(例えば、図6のNTSCエンコーダ22)
と、変換手段で変換された注目画素の学習用のコンポジ
ット信号の4種類の位相を検出する検出手段(例えば、
図6の制御手段24)と、検出手段が検出した注目画素
の学習用のコンポジット信号の位相に対応して、学習用
のコンポーネント信号を補正する補正手段(例えば、図
6の符号反転回路25)と、学習用のコンポジット信号
と予測係数とを用いて演算されたコンポーネント信号
と、補正手段が補正した学習用のコンポーネント信号と
の誤差を小さくする予測係数を求めるための演算を行う
演算手段(例えば、図6の演算回路27A)とを備える
ことを特徴とする。
In the learning device according to the present invention, a conversion means for converting a learning component signal into a learning composite signal (for example, the NTSC encoder 22 in FIG. 6).
Detecting means for detecting four types of phases of the composite signal for learning of the pixel of interest converted by the converting means (for example,
Control means 24 in FIG. 6) and correcting means for correcting the learning component signal corresponding to the phase of the learning composite signal of the pixel of interest detected by the detecting means (for example, sign inverting circuit 25 in FIG. 6). Calculating means for calculating a prediction coefficient for reducing an error between the component signal calculated using the composite signal for learning and the prediction coefficient and the component signal for learning corrected by the correction means (for example, , An arithmetic circuit 27A) of FIG.

【0018】請求項11に記載の学習装置は、注目画素
の空間的および時間的な特徴に基づいて、注目画素をク
ラス分類するクラス分類手段(例えば、図6のクラス分
類回路23)をさらに備え、演算手段は、コンポジット
信号の2種類の位相に対応する予測係数をクラス毎に演
算することを特徴とする。
The learning apparatus according to the eleventh aspect further includes class classification means (for example, the class classification circuit 23 in FIG. 6) for classifying the pixel of interest based on the spatial and temporal characteristics of the pixel of interest. , The calculation means calculates prediction coefficients corresponding to two types of phases of the composite signal for each class.

【0019】図1は、本発明を適用したテレビジョン受
像機の構成例を示している。チューナ1は、図示せぬア
ンテナで受信されたNTSC方式のテレビジョン信号を、検
波、復調し、コンポジット信号としての画像信号(以
下、適宜、NTSC信号という)を、A/D変換器2に供給す
るとともに、音声信号を、増幅器5に供給するようにな
されている。A/D変換器2は、チューナ1から入力され
たNTSC信号を、所定のタイミングでサンプリングし、こ
れにより、いわゆるY−I信号、Y−Q信号、Y+I信
号、およびY+Q信号を、順次出力するようになされて
いる。A/D変換器2が出力するディジタルのNTSC信号
(Y−I信号、Y−Q信号、Y+I信号、およびY+Q
信号)は、コンポーネント信号変換回路3に供給される
ようになされている。ここで、例えば、Y−I信号の位
相を0度とすると、Y−Q信号、Y+I信号、Y+Q信
号は、位相が、それぞれ90度、180度、270度の
信号となる。
FIG. 1 shows an example of the configuration of a television receiver to which the present invention is applied. The tuner 1 detects and demodulates an NTSC television signal received by an antenna (not shown), and supplies an A / D converter 2 with an image signal (hereinafter, appropriately referred to as an NTSC signal) as a composite signal. At the same time, an audio signal is supplied to the amplifier 5. The A / D converter 2 samples the NTSC signal input from the tuner 1 at a predetermined timing, thereby sequentially outputting a so-called YI signal, YQ signal, Y + I signal, and Y + Q signal. It has been made like that. Digital NTSC signals output from the A / D converter 2 (YI signal, YQ signal, Y + I signal, and Y + Q
Signal) is supplied to the component signal conversion circuit 3. Here, for example, assuming that the phase of the YI signal is 0 degree, the YQ signal, the Y + I signal, and the Y + Q signal are signals having phases of 90 degrees, 180 degrees, and 270 degrees, respectively.

【0020】コンポーネント信号変換回路3は、そこに
入力されるNTSC信号のうち、注目画素のNTSC信号と、そ
の注目画素と空間的または時間的に近接する画素のNTSC
信号とに基づいて、注目画素を所定のクラスに分類する
クラス分類を行い、その注目画素のクラスに対応する予
測係数(後述)を用いて演算を行うことにより、注目画
素のコンポーネント信号としての、例えば、YUV信号を
求めるようになされている。コンポーネント信号変換回
路3で求められたY,U,Vの各信号は、CRT(Cathode
Ray Tube)4に供給されるようになされている。CRT4
は、コンポーネント信号変換回路3から入力されたYUV
信号に対応した画像を表示するようになされている。
The component signal conversion circuit 3 outputs the NTSC signal of the pixel of interest and the NTSC signal of the pixel spatially or temporally adjacent to the pixel of interest among the NTSC signals input thereto.
Based on the signal, the target pixel is classified into a predetermined class, and a calculation is performed using a prediction coefficient (described later) corresponding to the class of the target pixel. For example, a YUV signal is obtained. The Y, U, and V signals obtained by the component signal conversion circuit 3 are CRT (Cathode
Ray Tube) 4. CRT4
Is the YUV input from the component signal conversion circuit 3.
An image corresponding to the signal is displayed.

【0021】増幅器5は、チューナ1から入力された音
声信号を増幅し、スピーカ6に供給するようになされて
いる。スピーカ6は、増幅器5から入力された音声信号
を再生するようになされている。
The amplifier 5 amplifies the audio signal input from the tuner 1 and supplies it to the speaker 6. The speaker 6 reproduces an audio signal input from the amplifier 5.

【0022】以上のように構成されるテレビジョン受像
機では、ユーザが図示せぬリモートコマンダを操作し
て、所定のチャンネルを選択すると、チューナ1におい
て、そのチャンネルに対応するテレビジョン信号が、検
波、復調され、そのうちの画像信号であるNTSC信号がA/
D変換器2に、音声信号が増幅器5に、それぞれ供給さ
れる。A/D変換器2では、チューナ1から入力されたNTS
C信号がA/D変換され、コンポーネント信号変換回路3に
供給される。コンポーネント信号変換回路3では、A/D
変換器2から入力されたNTSC信号が、上述したようにYU
V信号に変換され、CRT4に供給されて表示される。一
方、増幅器5では、チューナ1から入力された音声信号
が増幅され、スピーカ6に供給されて出力される。
In the television receiver configured as described above, when a user operates a remote commander (not shown) to select a predetermined channel, the tuner 1 detects a television signal corresponding to the channel and detects the television signal. , Demodulated, and the NTSC signal which is the image signal is A /
The audio signal is supplied to the D converter 2 and the amplifier 5. In the A / D converter 2, the NTS input from the tuner 1
The C signal is A / D converted and supplied to the component signal conversion circuit 3. In component signal conversion circuit 3, A / D
As described above, the NTSC signal input from the converter 2
It is converted into a V signal, supplied to the CRT 4 and displayed. On the other hand, in the amplifier 5, the audio signal input from the tuner 1 is amplified, supplied to the speaker 6, and output.

【0023】図2は、図1のコンポーネント信号変換回
路3の詳細な構成例を示している。A/D変換器2から入
力されたNTSC信号は、フィールドメモリ11に供給され
るようになされている。フィールドメモリ11は、制御
回路14の制御に従い、供給されたNTSC信号を記憶し、
また、記憶したNTSC信号を所定のフィールド枚数分だけ
読み出し、クラス分類回路12および予測タップ形成回
路15に供給するようになされている。
FIG. 2 shows a detailed configuration example of the component signal conversion circuit 3 of FIG. The NTSC signal input from the A / D converter 2 is supplied to the field memory 11. The field memory 11 stores the supplied NTSC signal under the control of the control circuit 14,
Further, the stored NTSC signals are read out by a predetermined number of fields and supplied to the classifying circuit 12 and the prediction tap forming circuit 15.

【0024】クラス分類回路12は、フィールドメモリ
11から供給された時間的に前後する所定の枚数のNTSC
信号を用いて、注目画素の空間的または時間的な特徴を
検出して、その特徴に基づいて注目画素のクラス分類を
行い、その注目画素のクラスを、予測係数メモリ部13
に供給するようになされている。
The class classification circuit 12 is provided with a predetermined number of NTSCs which are supplied from the field memory 11 and which are temporally different from each other.
The spatial or temporal characteristics of the pixel of interest are detected using the signal, the class of the pixel of interest is classified based on the characteristic, and the class of the pixel of interest is stored in the prediction coefficient memory unit 13.
To be supplied.

【0025】予測係数メモリ部13は、Y±Iメモリ1
3A、およびY±Qメモリ13Bから構成されており、
それぞれには、クラス分類回路12が出力する注目画素
のクラスが、アドレスとして供給されるとともに、制御
回路14が出力するCS(ChipSelect)信号が供給されるよ
うになされている。Y±Iメモリ13A、およびY±Q
メモリ13Bは、注目画素のNTSC信号をYUV信号に変換
する演算に用いるクラス毎の予測係数を記憶している。
The prediction coefficient memory unit 13 stores the Y ± I memory 1
3A and a Y ± Q memory 13B,
Each is supplied with the class of the pixel of interest output from the class classification circuit 12 as an address, and supplied with a CS (ChipSelect) signal output from the control circuit 14. Y ± I memory 13A and Y ± Q
The memory 13B stores a prediction coefficient for each class used for an operation of converting the NTSC signal of the target pixel into a YUV signal.

【0026】図3は、NTSC信号の所定のフィールドを構
成する画素を示している。図3において、○印は位相が
0度の信号であるY−I信号を、□印は位相が90度の
信号であるY−Q信号を、●印は位相が180度の信号
であるY+I信号を、■印は位相が270度の信号であ
るY+Q信号を、それぞれ示している。図3では、水平
方向には、Y−I信号、Y−Q信号、Y+I信号、Y+
Q信号が繰り返し配置され、垂直方向には、Y−I信号
とY+I信号とが交互に配置された列と、Y−Q信号と
Y+Q信号とが交互に配置された列が、交互に配置され
ている。
FIG. 3 shows pixels constituting a predetermined field of the NTSC signal. In FIG. 3, a mark O represents a Y-I signal having a phase of 0 degree, a mark represents a YQ signal having a phase of 90 degrees, and a mark represents Y + I signal having a phase of 180 degrees. ■ indicates a Y + Q signal whose phase is 270 degrees. In FIG. 3, in the horizontal direction, the YI signal, YQ signal, Y + I signal, Y +
In the vertical direction, a column in which Y-I signals and Y + I signals are alternately arranged and a column in which Y-Q signals and Y + Q signals are alternately arranged are alternately arranged. ing.

【0027】図2に戻る。Y±Iメモリ13A、および
Y±Qメモリ13B(以下、適宜、メモリ13A,13
Bとも記述する)は、Y+I信号、またはY+Q信号を
YUV信号に変換するために用いるクラス毎の予測係数
を、それぞれ記憶している。そして、メモリ13A,1
3Bのうちの制御回路17から入力されたCS信号によっ
て選択されるものが記憶しているクラス毎の予測係数の
中の、クラス分類回路12から入力された注目画素のク
ラスに対応するものが、そこから読み出され、演算回路
16に供給されるようになされている。
Returning to FIG. Y ± I memory 13A and Y ± Q memory 13B (hereinafter, memories 13A, 13
B) is to convert the Y + I signal or the Y + Q signal
The prediction coefficients for each class used for converting into YUV signals are stored. Then, the memory 13A, 1
Of the prediction coefficients for each class stored in the 3B, which are selected by the CS signal input from the control circuit 17, those corresponding to the class of the target pixel input from the class classification circuit 12 are as follows: The data is read out from this and supplied to the arithmetic circuit 16.

【0028】なお、メモリ13A,13Bそれぞれにお
いては、クラス毎の予測係数として、NTSC信号をY,
U,Vの各信号に変換するために用いる、Y,U,Vそ
れぞれ用の予測係数のセットが記憶されている。
In each of the memories 13A and 13B, an NTSC signal is used as a prediction coefficient for each class.
A set of prediction coefficients for each of Y, U, and V, which are used to convert the signals into U and V signals, are stored.

【0029】制御回路14は、フィールドメモリ11に
対する読み書きを制御するようになされている。すなわ
ち、制御回路14は、フィールドメモリ11に既に記憶
されているフィールドを注目フィールドとして各種の制
御を行い、その注目フィールドに対する処理が終了する
と、その次のフィールドを、新たに注目フィールドとす
る。さらに、いままで注目フィールドとされていたフィ
ールドに替えて、フィールドメモリ11に新たに供給さ
れるフィールドを記憶させる。さらに、制御回路14
は、注目フィールドを構成する画素を、例えば、ライン
スキャン順に、順次、注目画素とし、その注目画素の処
理に必要な画素を、フィールドメモリ11から読み出さ
せ、クラス分類回路12、および予測タップ形成回路1
5に供給する。
The control circuit 14 controls reading and writing from and to the field memory 11. That is, the control circuit 14 performs various controls using the field already stored in the field memory 11 as a field of interest, and when the processing on the field of interest is completed, sets the next field as a new field of interest. Further, a field newly supplied is stored in the field memory 11 in place of the field which has been set as the field of interest up to now. Further, the control circuit 14
The pixels constituting the field of interest are sequentially set as the pixels of interest, for example, in line scan order, and the pixels necessary for processing the pixel of interest are read out from the field memory 11, the classification circuit 12 and the prediction tap formation. Circuit 1
5

【0030】また、制御回路14は、注目画素のNTSC信
号の位相に基づくCS信号を、予測係数メモリ部13およ
び符号反転回路17に出力して、予測係数メモリ部13
にはメモリ13A,13Bのうちの注目画素の位相に対
応するものを選択させ、符号反転回路17には注目画素
の位相に対応して符号反転処理(後述)を実行させる。
The control circuit 14 outputs a CS signal based on the phase of the NTSC signal of the pixel of interest to the prediction coefficient memory unit 13 and the sign inversion circuit 17, and outputs the CS signal to the prediction coefficient memory unit 13.
Causes the memory 13A, 13B to select the one corresponding to the phase of the pixel of interest, and causes the sign inversion circuit 17 to execute a sign inversion process (described later) corresponding to the phase of the pixel of interest.

【0031】すなわち、制御回路14は、注目画素のNT
SC信号が、Y−I信号、およびY+I信号のとき、Y±
Iメモリ13Aを選択させ、Y−Q信号、およびY+Q
信号のとき、Y±Qメモリ13Bを選択させるCS信号
を、予測係数メモリ部13に供給するようになされてい
る。
That is, the control circuit 14 determines the NT of the target pixel.
When the SC signal is a Y-I signal and a Y + I signal, Y ±
The I-memory 13A is selected, and the Y-Q signal and Y + Q
In the case of a signal, a CS signal for selecting the Y ± Q memory 13B is supplied to the prediction coefficient memory unit 13.

【0032】予測タップ形成回路15には、フィールド
メモリ11から読み出された画素が供給されるようにな
されており、予測タップ形成回路15は、その画素か
ら、注目画素のNTSC信号を、YUV信号に変換するために
用いる予測タップを形成し、演算回路16に供給するよ
うになされている。
A pixel read from the field memory 11 is supplied to the prediction tap forming circuit 15. The prediction tap forming circuit 15 outputs the NTSC signal of the pixel of interest from the pixel to the YUV signal. A prediction tap used to convert the data into a data is formed and supplied to the arithmetic circuit 16.

【0033】すなわち、例えば、予測タップ形成回路1
5は、図4(A)に示す注目フィールドの画素aが注目画
素のとき、注目フィールドの注目画素aの上下左右にそ
れぞれ隣接する画素b乃至e、注目画素の左上、右上、
左下、右下にそれぞれ隣接する画素f乃至i、注目画素
の左隣の画素dの左隣の画素j、および注目画素の右隣
の画素eの右隣の画素k、並びに図4(B)に示す注目フ
ィールドの2フィールド前のフィールドにおいて、画素
a乃至kと対応する位置にある画素a’乃至k’を予測
タップとし、演算回路16に供給するようになされてい
る。
That is, for example, the prediction tap forming circuit 1
5 are pixels b to e adjacent to the pixel a of the target field shown in FIG.
Pixels f to i adjacent to the lower left and lower right, a pixel j on the left of the pixel d on the left of the target pixel, a pixel k on the right of the pixel e on the right of the target pixel, and FIG. 4B In the field two fields before the field of interest shown in (1), pixels a ′ to k ′ at positions corresponding to pixels a to k are used as prediction taps and supplied to the arithmetic circuit 16.

【0034】演算回路16は、予測係数メモリ部13か
ら供給される予測係数と、予測タップ形成回路15から
供給される予測タップとを用いて演算を行うことによ
り、注目画素のYUV信号を算出するようになされてい
る。すなわち、上述したように、演算回路16に対して
は、予測係数メモリ部13から、注目画素のNTSC信号
を、Y,U,Vの各信号に変換するために用いる、Y,
U,Vそれぞれ用の予測係数のセットが供給されるとと
もに、予測タップ形成回路15から、注目画素について
形成された予測タップ(図4)が供給されるようになさ
れている。そして、予測タップを構成する画素を、図4
で説明したように、画素a乃至kおよび画素a’乃至
k’とするとともに、Y信号用の予測係数を、wYa乃至
YkおよびwYA乃至wYKとし、U信号用の予測係数を、
Ua乃至wUkおよびwUA乃至wUKとし、V信号用の予測
係数を、wVa乃至wVkおよびwVA乃至wVKとして、演算
回路16は、次のような線形一次式にしたがって、注目
画素のY,U,Vの各信号を算出する。
The operation circuit 16 calculates the YUV signal of the pixel of interest by performing an operation using the prediction coefficient supplied from the prediction coefficient memory unit 13 and the prediction tap supplied from the prediction tap forming circuit 15. It has been made like that. That is, as described above, the arithmetic circuit 16 uses the Y, U, and V signals from the prediction coefficient memory unit 13 to convert the NTSC signal of the target pixel into Y, U, and V signals.
A set of prediction coefficients for U and V is supplied, and a prediction tap (FIG. 4) formed for the pixel of interest is supplied from the prediction tap forming circuit 15. Then, the pixels constituting the prediction tap are shown in FIG.
As described in the above, with the pixels a to k and the pixels a 'to k', the prediction coefficients for the Y signal are w Ya to w Yk and w YA to w YK, and the prediction coefficients for the U signal are
Assuming that w Ua to w Uk and w UA to w UK, and the prediction coefficients for the V signal are w Va to w Vk and w VA to w VK , the arithmetic circuit 16 performs the following attention in accordance with the following linear linear expression. The Y, U, and V signals of the pixel are calculated.

【0035】 Y=wYaa+wYbb+wYcc+wYdd+wYee+wYff+wYgg +wYhh+wYii+wYjj+wYkk +wYAa’+wYBb’+wYCc’+wYDd’+wYEe’+wYFf’ +wYGg’+wYHh’+wYIi’+wYJj’+wYKk’ +wYoffset U=wUaa+wUbb+wUcc+wUdd+wUee+wUff+wUgg +wUhh+wUii+wUjj+wUkk +wUAa’+wUBb’+wUCc’+wUDd’+wUEe’+wUFf’ +wUGg’+wUHh’+wUIi’+wUJj’+wUKk’ +wUoffset V=wVaa+wVbb+wVcc+wVdd+wVee+wVff+wVgg +wVhh+wVii+wVjj+wVkk +wVAa’+wVBb’+wVCc’+wVDd’+wVEe’+wVFf’ +wVGg’+wVHh’+wVIi’+wVJj’+wVKk’ +wVoffset ・・・(1)Y = w Ya a + w Yb b + w Yc c + w Yd d + w Ye e + w Yf f + w Yg g + w Yh h + w Yi i + w Yj j + w Yk k + w YA a '+ w YB b' + w YC c '+ w YE c' + w YD YF f '+ w YG g' + w YH h '+ w YI i' + w YJ j '+ w YK k' + w Yoffset U = w Ua a + w Ub b + w Uc c + w Ud d + w Ue e + w Uf f + w Ug g + w Uh h + w Ui i + w Uj j + w Uk k + w UA a '+ w UB b' + w UC c '+ w UD d' + w UE e '+ w UF f' + w UG g '+ w UH h' + w UI i '+ w UJ j' + w UK k '+ w Uoffset V = w Va a + w Vb b + w Vc c + w Vd d + w Ve e + w Vf f + w Vg g + w Vh h + w Vi i + w Vj j + w Vk k + w VA a '+ w VB b' + w VC c '+ w VD d' + w VE e '+ w VF f' + w VG g '+ W VH h' + w VI i '+ w VJ j' + w VK k '+ w Voffset (1)

【0036】なお、wYoffset、wUoffset、およびw
Voffsetは、NTSC信号とYUV信号との間のバイアスの違い
を補正するためのオフセット値(定数項)であり、この
定数項wYoffset、wUoffset、およびwVoffsetも、
Y,U,Vそれぞれ用の予測係数のセットに含まれる。
Note that w Yoffset , w Uoffset , and w
Voffset is the offset value for correcting the difference in bias between the NTSC signal and the YUV signals (constant term), the constant term w Yoffset, w Uoffset, and w Voffset also
It is included in a set of prediction coefficients for each of Y, U, and V.

【0037】ここで、上述のように、演算回路16にお
いて、注目画素のクラスに対応した係数(予測係数)を
用いて行う処理、すなわち、注目画素の性質(特性)に
応じた予測係数を適応的に用いて行う処理は、適応処理
と呼ばれる。以下、この適応処理について、簡単に説明
する。
Here, as described above, the processing performed by the arithmetic circuit 16 using the coefficient (prediction coefficient) corresponding to the class of the pixel of interest, that is, the prediction coefficient corresponding to the property (characteristic) of the pixel of interest is applied. The processing performed by using this method is called adaptive processing. Hereinafter, this adaptive processing will be briefly described.

【0038】例えば、いま、注目画素のコンポーネント
信号yの予測値E[y]を、その注目画素と空間的また
は時間的に近接する位置にある画素(注目画素も含む)
のコンポジット信号(以下、適宜、学習データという)
1,x2,・・・と、所定の予測係数w1,w2,・・・
の線形結合により規定される線形1次結合モデルにより
求めることを考える。この場合、予測値E[y]は、次
式で表すことができる。
For example, the predicted value E [y] of the component signal y of the pixel of interest is now converted to a pixel (including the pixel of interest) at a position spatially or temporally close to the pixel of interest.
Composite signal (hereinafter referred to as learning data as appropriate)
x 1 , x 2 ,... and predetermined prediction coefficients w 1 , w 2 ,.
Is determined by a linear first-order combination model defined by a linear combination of In this case, the predicted value E [y] can be expressed by the following equation.

【0039】 E[y]=w11+w22+・・・ ・・・(2)E [y] = w 1 x 1 + w 2 x 2 +... (2)

【0040】そこで、一般化するために、予測係数wの
集合でなる行列W、学習データの集合でなる行列X、お
よび予測値E[y]の集合でなる行列Y’を、
Therefore, for generalization, a matrix W composed of a set of prediction coefficients w, a matrix X composed of a set of learning data, and a matrix Y ′ composed of a set of predicted values E [y] are

【数1】 で定義すると、次のような観測方程式が成立する。(Equation 1) Defines the following observation equation.

【0041】 XW=Y’ ・・・(3)XW = Y ′ (3)

【0042】そして、この観測方程式に最小自乗法を適
用して、注目画素のコンポーネント信号yに近い予測値
E[y]を求めることを考える。この場合、教師データ
となる注目画素の真のコンポーネント信号yの集合でな
る行列Y(上述した輝度信号Yとは異なる)、およびコ
ンポーネント信号yに対する予測値E[y]の残差eの
集合でなる行列Eを、
Then, it is considered that a least square method is applied to this observation equation to obtain a predicted value E [y] close to the component signal y of the target pixel. In this case, a matrix Y (different from the above-described luminance signal Y), which is a set of true component signals y of the target pixel serving as teacher data, and a set of residuals e of predicted values E [y] for the component signals y. Matrix E

【数2】 で定義すると、式(3)から、次のような残差方程式が
成立する。
(Equation 2) From equation (3), the following residual equation holds.

【0043】 XW=Y+E ・・・(4)XW = Y + E (4)

【0044】この場合、コンポーネント信号yに近い予
測値E[y]を求めるための予測係数wiは、自乗誤差
In this case, the prediction coefficient w i for obtaining the predicted value E [y] close to the component signal y is a square error

【数3】 を最小にすることで求めることができる。(Equation 3) Can be obtained by minimizing.

【0045】したがって、上述の自乗誤差を予測係数w
iで微分したものが0になる場合、すなわち、次式を満
たす予測係数wiが、コンポーネント信号yに近い予測
値E[y]を求めるため最適値ということになる。
Therefore, the above square error is calculated by the prediction coefficient w
When the value obtained by differentiating with i becomes 0, that is, the prediction coefficient w i that satisfies the following equation is an optimum value for obtaining a predicted value E [y] close to the component signal y.

【0046】[0046]

【数4】 ・・・(5)(Equation 4) ... (5)

【0047】そこで、まず、式(4)を、予測係数wi
で微分することにより、次式が成立する。
Therefore, first, equation (4) is used to calculate the prediction coefficient w i
By differentiating with, the following equation is established.

【0048】[0048]

【数5】 ・・・(6)(Equation 5) ... (6)

【0049】式(5)および式(6)より、式(7)が
得られる。
From equations (5) and (6), equation (7) is obtained.

【0050】[0050]

【数6】 ・・・(7)(Equation 6) ... (7)

【0051】さらに、式(4)の残差方程式における学
習データx、予測係数w、教師データy、および残差e
の関係を考慮すると、式(7)から、次のような正規方
程式を得ることができる。
Further, the learning data x, the prediction coefficient w, the teacher data y, and the residual e in the residual equation of the equation (4) are obtained.
In consideration of the relationship, the following normal equation can be obtained from Expression (7).

【0052】[0052]

【数7】 ・・・(8)(Equation 7) ... (8)

【0053】式(8)の正規方程式は、求めるべき予測
係数wの数と同じ数だけたてることができる。したがっ
て、式(8)を解くことにより(但し、式(8)を解く
には、式(8)において、予測係数wにかかる係数で構
成される行列が正則である必要がある)、最適な予測係
数wを求めることができる。なお、式(8)を解くにあ
たっては、例えば、掃き出し法(Gauss-Jordanの消去法)
などを適用することが可能である。
The normal equation of the equation (8) can be set by the same number as the number of prediction coefficients w to be obtained. Therefore, by solving the equation (8) (however, in order to solve the equation (8), it is necessary that the matrix formed by the coefficients related to the prediction coefficient w in the equation (8) is regular). The prediction coefficient w can be obtained. In solving equation (8), for example, a sweeping method (Gauss-Jordan elimination method)
Etc. can be applied.

【0054】以上のようにして、最適な予測係数wを求
め、さらに、その予測係数wを用い、式(2)により、
コンポーネント信号yに近い予測値E[y]を求める処
理が適応処理である(但し、あらかじめ予測係数wを求
めておき、その予測係数wから、予測値を求める処理
も、適応処理に含まれる)。
As described above, the optimum prediction coefficient w is obtained, and using the prediction coefficient w, the following equation (2) is used.
The process of obtaining the predicted value E [y] close to the component signal y is the adaptive process (however, the process of obtaining the predicted coefficient w in advance and obtaining the predicted value from the predicted coefficient w is also included in the adaptive process). .

【0055】なお、本実施の形態においては、上述した
ように、予測係数の中に、定数項wYoffset
Uoffset、およびwVoffsetが含まれるが、この定数項
は、上述の手法を拡張し、式(8)に対応する正規方程
式を解くことで求めることができる。
In the present embodiment, as described above, the constants w Yoffset ,
including but w Uoffset, and w Voffset, the constant term is to extend the above method, it can be obtained by solving the normal equation corresponding to the equation (8).

【0056】図2の予測係数メモリ部13のY±Iメモ
リ13AおよびY±Qメモリ13Bには、後述するよう
な学習によって、式(8)の正規方程式をたてて解くこ
とにより求められるクラス毎の予測係数であって、NTSC
信号のY+I信号、およびY+Q信号に対応するY,
U,Vそれぞれ用のものが記憶されている。
The Y ± I memory 13A and the Y ± Q memory 13B of the prediction coefficient memory unit 13 shown in FIG. 2 have a class obtained by solving the normal equation of Expression (8) by learning as will be described later. For each prediction coefficient, NTSC
Y, corresponding to the Y + I signal and the Y + Q signal,
U and V are stored.

【0057】演算回路16で演算された、注目画素の
Y,U,Vの各信号のうちのU,Vの各信号は符号反転
回路17に出力されるようになされている。
The U and V signals of the Y, U and V signals of the target pixel calculated by the calculation circuit 16 are output to the sign inversion circuit 17.

【0058】ところで、上述したように、Y±Iメモリ
13AおよびY±Qメモリ13Bに記憶されている予測
係数は、NTSC信号のY+I信号、およびY+Q信号に対
応するものであるので、注目画素のNTSC信号がY−I信
号、またはY−Q信号である場合、NTSC信号のY+I信
号、またはY+Q信号に対応した予測係数を用いて演算
回路16で演算されたU,Vの各信号の値は、真の値に
対して符号が反転したものとなっている。そこで、符号
反転回路17においては、制御回路14から入力された
CS信号に基づいて、注目画素がY−I信号、またはY−
Q信号である場合、演算回路16から入力されたU,V
の各信号の符号を反転し(符号反転処理を実行し)、注
目画素がY+I信号、またはY+Q信号である場合、符
号反転処理を施さずに出力するようになされている。
As described above, the prediction coefficients stored in the Y ± I memory 13A and the Y ± Q memory 13B correspond to the Y + I signal and the Y + Q signal of the NTSC signal. When the NTSC signal is the YI signal or the YQ signal, the values of the U and V signals calculated by the arithmetic circuit 16 using the prediction coefficients corresponding to the Y + I signal or the Y + Q signal of the NTSC signal are: , The sign is inverted with respect to the true value. Therefore, in the sign inversion circuit 17, the input from the control circuit 14 is performed.
Based on the CS signal, the pixel of interest is a Y-I signal or a Y-
If the signal is a Q signal, the U, V
Are inverted (the sign inversion processing is executed), and when the target pixel is the Y + I signal or the Y + Q signal, the signal is output without performing the sign inversion processing.

【0059】次に、図2に示したコンポーネント信号変
換回路3の処理について、図5のフローチャートを参照
して説明する。フィールドメモリ11に、NTSC信号が記
憶され、制御回路14において、所定のフィールドが注
目フィールドとして選択されると、ステップS1におい
て、制御回路14は、注目フィールドの所定の画素を注
目画素として選択する。ステップS2において、制御回
路14は、注目画素をクラス分類するために必要な画素
を、フィールドメモリ11から読み出させ、クラス分類
回路12に供給させる。
Next, the processing of the component signal conversion circuit 3 shown in FIG. 2 will be described with reference to the flowchart of FIG. When the NTSC signal is stored in the field memory 11 and the control circuit 14 selects a predetermined field as the field of interest, in step S1, the control circuit 14 selects a predetermined pixel of the field of interest as the pixel of interest. In step S <b> 2, the control circuit 14 reads out the pixels required for classifying the target pixel from the field memory 11 and supplies the pixels to the classifying circuit 12.

【0060】クラス分類回路12は、フィールドメモリ
11から入力された画素を用いて、注目画素の空間的、
および時間的な特徴を検出し、その特徴に基づいてクラ
ス分類を行い、得られた注目画素のクラスを、アドレス
として、予測係数メモリ部13に出力する。
The class classification circuit 12 uses the pixels input from the field memory 11 to determine the spatial and
Then, a temporal characteristic is detected, the class is classified based on the characteristic, and the obtained class of the target pixel is output to the prediction coefficient memory unit 13 as an address.

【0061】ステップS3において、制御回路14は、
注目画素のNTSC信号の位相を示すCS信号を予測係数メモ
リ部13、および符号反転回路17に供給する。予測係
数メモリ部13は、CS信号に基づいて、注目画素のNTSC
信号が、Y−I信号、またはY+I信号であるか否かを
判定する。注目画素のNTSC信号が、Y−I信号、または
Y+I信号であると判定された場合、ステップS4に進
む。
In step S3, the control circuit 14
The CS signal indicating the phase of the NTSC signal of the target pixel is supplied to the prediction coefficient memory unit 13 and the sign inversion circuit 17. The prediction coefficient memory unit 13 stores the NTSC of the pixel of interest based on the CS signal.
It is determined whether the signal is a Y-I signal or a Y + I signal. If it is determined that the NTSC signal of the target pixel is the Y-I signal or the Y + I signal, the process proceeds to step S4.

【0062】ステップS4において、予測係数メモリ部
13は、Y±Iメモリ13Aのアドレス(クラス分類回
路12から入力された注目画素のクラスに対応するアド
レス)から、Y,U,Vそれぞれ用の予測係数のセット
を読み出して、演算回路16に供給する。
In step S4, the prediction coefficient memory unit 13 uses the addresses of the Y ± I memory 13A (addresses corresponding to the class of the pixel of interest inputted from the class classification circuit 12) to calculate the prediction for each of Y, U, and V. The set of coefficients is read and supplied to the arithmetic circuit 16.

【0063】ステップS5において、予測タップ形成回
路15は、フィールドメモリ11から画素を読み出し、
いま注目画素とされている画素について、図4で説明し
た予測タップを形成する。この予測タップは、演算回路
16に供給される。
In step S5, the prediction tap forming circuit 15 reads out a pixel from the field memory 11 and
The prediction tap described with reference to FIG. 4 is formed for the pixel currently set as the target pixel. The prediction tap is supplied to the arithmetic circuit 16.

【0064】なお、ステップS5の処理は、ステップS
2乃至S4の処理と並列に行うようにすることも可能で
ある。
The processing in step S5 is performed in step S5.
It is also possible to perform in parallel with the processing of 2 to S4.

【0065】演算回路16は、予測係数メモリ部13か
ら予測係数を受信するとともに、予測タップ形成回路1
5から予測タップを受信すると、ステップS6におい
て、その予測係数および予測タップを用いた適応処理を
行う。すなわち、具体的には、式(1)に示した線形一
次式を演算し、これにより、注目画素のY,U,Vの各
信号を求めて後段に出力する。
The operation circuit 16 receives the prediction coefficients from the prediction coefficient memory section 13 and also executes the prediction tap forming circuit 1
When receiving the prediction tap from No. 5, in step S6, an adaptive process using the prediction coefficient and the prediction tap is performed. That is, specifically, the linear primary equation shown in the equation (1) is calculated, whereby the Y, U, and V signals of the target pixel are obtained and output to the subsequent stage.

【0066】ステップS7において、符号反転回路17
は、制御回路14から供給されているCS信号に基づい
て、注目画素のNTSC信号が、Y−I信号、またはY−Q
信号であるか否かを判定する。注目画素のNTSC信号が、
Y−I信号、またはY−Q信号であると判定された場
合、ステップS8に進む。
In step S7, the sign inversion circuit 17
Is based on the CS signal supplied from the control circuit 14, the NTSC signal of the target pixel is changed to the YI signal or the YQ signal.
It is determined whether the signal is a signal. The NTSC signal of the pixel of interest is
If it is determined that the signal is the YI signal or the YQ signal, the process proceeds to step S8.

【0067】ステップS8において、符号反転回路17
は、ステップS6で演算回路16から入力された、注目
画素のU,Vの各信号の符号を反転して出力する。
In step S8, the sign inversion circuit 17
Inverts the sign of each of the U and V signals of the pixel of interest input from the arithmetic circuit 16 in step S6 and outputs the inverted signal.

【0068】ステップS9において、制御回路14は、
フィールドメモリ11に記憶された注目フィールドを構
成する全ての画素を、注目画素として処理したか否かを
判定する。まだ、注目フィールドを構成する全ての画素
を、注目画素として処理していないと判定された場合、
ステップS1に戻り、注目フィールドを構成する画素の
うち、まだ注目画素とされていない画素が、新たに注目
画素とされ、ステップS2以降の処理が繰り返される。
また、ステップS9において、注目フィールドを構成す
る全ての画素を、注目画素として処理したと判定された
場合、処理を終了する。
In step S9, the control circuit 14
It is determined whether or not all the pixels constituting the field of interest stored in the field memory 11 have been processed as the pixel of interest. If it is determined that all the pixels constituting the field of interest have not yet been processed as the pixel of interest,
Returning to step S1, among the pixels constituting the field of interest, a pixel that has not yet been set as the pixel of interest is newly set as the pixel of interest, and the processing from step S2 is repeated.
If it is determined in step S9 that all the pixels forming the field of interest have been processed as the pixel of interest, the process ends.

【0069】なお、ステップS3において、注目画素の
NTSC信号が、Y−I信号、またはY+I信号ではない
(Y−Q信号、またはY+Q信号である)と判定された
場合、ステップS10に進む。
In step S3, the target pixel
When it is determined that the NTSC signal is not the YI signal or the Y + I signal (the YQ signal or the Y + Q signal), the process proceeds to step S10.

【0070】ステップS10において、予測係数メモリ
部13は、Y±Qメモリ13Bのアドレス(クラス分類
回路12から入力された注目画素のクラスに対応するア
ドレス)から、Y,U,Vそれぞれ用の予測係数のセッ
トを読み出して、演算回路16に供給する。
In step S10, the prediction coefficient memory unit 13 calculates the prediction for each of Y, U, and V from the address of the Y ± Q memory 13B (the address corresponding to the class of the pixel of interest input from the class classification circuit 12). The set of coefficients is read and supplied to the arithmetic circuit 16.

【0071】また、ステップS7において、注目画素の
NTSC信号が、Y−I信号、またはY−Q信号ではない
(Y+I信号、またはY+Q信号である)と判定された
場合、符号反転処理を実行する必要がないので、ステッ
プS8をスキップする。
In step S7, the target pixel
If it is determined that the NTSC signal is not the YI signal or the YQ signal (the signal is the Y + I signal or the Y + Q signal), the step S8 is skipped because the sign inversion processing does not need to be performed.

【0072】なお、図5のフローチャートに示すステッ
プS1乃至S9の処理は、新たなフィールドが、注目フ
ィールドとされる毎に繰り返し行われる。
The processes of steps S1 to S9 shown in the flowchart of FIG. 5 are repeatedly performed each time a new field is set as a field of interest.

【0073】このように、本実施の形態によれば、注目
画素がY−I信号である場合、および注目画素がY+I
信号である場合において、同じ予測係数を用いて処理す
ることができ、注目画素がY−Q信号である場合、およ
び注目画素がY+Q信号である場合において、同じ予測
係数を用いて処理することができる。但し、注目画素が
Y−I信号、またはY−Q信号である場合、上述した符
号反転処理のような補正処理が必要である。
As described above, according to the present embodiment, when the target pixel is the Y-I signal and when the target pixel is Y + I
In the case of a signal, processing can be performed using the same prediction coefficient. When the pixel of interest is a YQ signal and when the pixel of interest is a Y + Q signal, processing can be performed using the same prediction coefficient. it can. However, when the target pixel is a YI signal or a YQ signal, a correction process such as the above-described sign inversion process is required.

【0074】図6は、図2の予測係数メモリ部13に記
憶させる予測係数を求める学習を行う学習装置の構成例
を示している。
FIG. 6 shows an example of the configuration of a learning device that performs learning for obtaining a prediction coefficient to be stored in the prediction coefficient memory unit 13 in FIG.

【0075】この学習装置のフィールドメモリ21に
は、学習用のYUV信号(学習用のコンポーネント信号)
の画像が、所定数のフィールドだけ供給されて記憶され
るようになされている。また、フィールドメモリ21に
記憶された学習用の画像を構成する画素のYUV信号は、
制御回路24の制御に従って読み出され、NTSCエンコー
ダ22、および制御回路24に供給されるようになされ
ている。
The field memory 21 of the learning device stores a learning YUV signal (learning component signal).
Are supplied and stored for a predetermined number of fields. Further, the YUV signals of the pixels constituting the learning image stored in the field memory 21 are:
The data is read out under the control of the control circuit 24 and supplied to the NTSC encoder 22 and the control circuit 24.

【0076】NTSCエンコーダ22は、フィールドメモリ
21から入力された各画素のYUV信号を、NTSC信号にエ
ンコード(変換)し、クラス分類回路23、または制御
回路24に供給するようになされている。
The NTSC encoder 22 encodes (converts) the YUV signal of each pixel input from the field memory 21 into an NTSC signal and supplies the NTSC signal to the class classification circuit 23 or the control circuit 24.

【0077】クラス分類回路23は、図2のクラス分類
回路12と同様に構成されており、注目画素をクラス分
類して、そのクラスを、アドレスとして、学習用データ
メモリ部26に供給するようになされている。
The class classification circuit 23 is configured in the same manner as the class classification circuit 12 of FIG. 2. The class classification circuit 23 classifies the pixel of interest and supplies the class to the learning data memory unit 26 as an address. It has been done.

【0078】制御回路24は、フィールドメモリ21に
入力され、既に記憶されているフィールドを、順次、注
目フィールドとし、さらに、注目フィールドを構成する
画素を、例えば、ラインスキャン順に、順次、注目画素
として、その注目画素の処理に必要な画素のYUV信号
を、フィールドメモリ21から読み出させ、NTSCエンコ
ーダ22、および制御回路24自身に供給させるように
なされている。
The control circuit 24 sequentially sets the fields already input and stored in the field memory 21 as a field of interest, and further sets the pixels constituting the field of interest as, for example, pixels of interest in the order of line scan. The YUV signal of the pixel required for processing the target pixel is read from the field memory 21 and supplied to the NTSC encoder 22 and the control circuit 24 itself.

【0079】また、制御回路24は、注目画素のYUV信
号と、その注目画素に対応する予測タップを構成する画
素のYUV信号とを、フィールドメモリ21から読み出さ
せ、予測タップを構成する画素のYUV信号をNTSCエンコ
ーダ22に供給させる。これにより、予測タップを構成
する画素のYUV信号は、NTSCエンコーダ22において、N
TSC信号(学習用のコンポジット信号)に変換され、制
御回路24に供給される。
Further, the control circuit 24 causes the YUV signal of the pixel of interest and the YUV signal of the pixel forming the prediction tap corresponding to the pixel of interest to be read from the field memory 21, and the control circuit 24 reads the YUV signal of the pixel forming the prediction tap. The YUV signal is supplied to the NTSC encoder 22. As a result, the YUV signal of the pixel constituting the prediction tap is transmitted to the NTSC encoder 22 by N
The signal is converted into a TSC signal (composite signal for learning) and supplied to the control circuit 24.

【0080】さらに、制御回路24は、上述したよう
に、NTSCエンコーダ22から予測タップを構成する画素
のNTSC信号を受信すると、それを学習データとし、フィ
ールドメモリ21から読み出させた注目画素のYUV信号
を教師データとして、その学習データと教師データとを
組み合わせて、符号反転回路25を介して、学習用デー
タメモリ部26に供給するようになされている。すなわ
ち、注目画素のYUV信号と、その注目画素に対して、図4
で説明したような位置関係にある予測タップを構成する
画素のNTSC信号とが組み合わされて、符号反転回路25
を介して学習用データメモリ部26に供給されるように
なされている。
Further, when the control circuit 24 receives the NTSC signal of the pixel constituting the prediction tap from the NTSC encoder 22 as described above, the control circuit 24 sets it as learning data, and reads the YUV of the pixel of interest read from the field memory 21. Using the signal as teacher data, the learning data and the teacher data are combined and supplied to the learning data memory unit 26 via the sign inversion circuit 25. That is, with respect to the YUV signal of the pixel of interest and the pixel of interest, FIG.
Is combined with the NTSC signal of the pixel forming the prediction tap having the positional relationship as described in
Is supplied to the learning data memory unit 26 via the.

【0081】さらに、制御回路24は、注目画素のNTSC
信号が、Y−I信号、Y−Q信号、Y+I信号、または
Y+Q信号のいずれであるかを示すCS信号を、学習用デ
ータメモリ部26、および符号反転回路25に供給する
ようになされている。
Further, the control circuit 24 controls the NTSC of the pixel of interest.
A CS signal indicating whether the signal is a YI signal, a YQ signal, a Y + I signal, or a Y + Q signal is supplied to the learning data memory unit 26 and the sign inversion circuit 25. .

【0082】符号反転回路25は、制御回路24から入
力されたCS信号に基づいて、注目画素の位相に対応し
て、制御回路24から入力されたU,Vの各信号の符号
を反転し、その他の信号(Y信号、および予測タップを
構成する画素のNTSC信号)はそのまま処理を施さずに、
学習用データメモリ部26に供給するようになされてい
る。すなわち、符号反転回路25は、制御回路24から
入力されたCS信号を参照して、注目画素のNTCS信号が、
Y−I信号、またはY−Q信号である場合、制御回路2
4から入力されたU,Vの各信号の符号を反転して(符
号反転処理を実行し)、注目画素のNTCS信号が、Y+I
信号、またはY+Q信号である場合、符号反転処理を実
行せずに、その他の信号(Y信号、および予測タップを
構成する画素のNTSC信号)とともに学習用データメモリ
部26に供給する。
The sign inverting circuit 25 inverts the sign of each of the U and V signals input from the control circuit 24 in accordance with the phase of the pixel of interest based on the CS signal input from the control circuit 24. The other signals (Y signal and NTSC signal of the pixel constituting the prediction tap) are not processed as they are,
The data is supplied to the learning data memory unit 26. That is, the sign inversion circuit 25 refers to the CS signal input from the control circuit 24, and sets the NTCS signal of the target pixel to
If the signal is a YI signal or a YQ signal, the control circuit 2
Invert the sign of each of the U and V signals input from No. 4 (perform sign inversion processing) so that the NTCS signal of the target pixel is Y + I
In the case of a signal or a Y + Q signal, the signal is supplied to the learning data memory unit 26 together with other signals (the Y signal and the NTSC signal of the pixel forming the prediction tap) without performing the sign inversion processing.

【0083】学習用データメモリ部26は、Y±Iメモ
リ26A、およびY±Qメモリ26Bから構成されてお
り、それぞれには、クラス分類回路23が出力する注目
画素のクラスが、アドレスとして供給されるとともに、
制御回路24が出力するCS信号が供給されるようになさ
れている。さらに、学習用データメモリ部26には、制
御回路24が出力する、上述の教師データと学習データ
との組合せが、符号反転回路25を介して供給されるよ
うになされている。そして、制御回路24から入力され
たCS信号が参照されて、注目画素のNTSC信号がY−I信
号、またはY+I信号である場合、Y±Iメモリ26A
が選択され、注目画素のNTSC信号がY−Q信号、または
Y+Q信号である場合、Y±Qメモリ26Bが選択され
る。選択されたY±Iメモリ26A、またはY±Qメモ
リ26Bのアドレス(クラス分類回路23が出力する注
目画素のクラスに対応するアドレス)には、符号反転回
路25から入力された教師データと学習データとの組合
せが記憶されるようになされている。
The learning data memory section 26 is composed of a Y ± I memory 26A and a Y ± Q memory 26B, and the class of the pixel of interest output from the class classification circuit 23 is supplied to each of them as an address. Along with
The CS signal output from the control circuit 24 is supplied. Further, the combination of the above-described teacher data and learning data output from the control circuit 24 is supplied to the learning data memory unit 26 via the sign inversion circuit 25. Then, referring to the CS signal input from the control circuit 24, if the NTSC signal of the target pixel is the YI signal or the Y + I signal, the Y ± I memory 26A
Is selected, and when the NTSC signal of the target pixel is the YQ signal or the Y + Q signal, the Y ± Q memory 26B is selected. The addresses of the selected Y ± I memory 26A or Y ± Q memory 26B (addresses corresponding to the class of the pixel of interest output from the classifying circuit 23) include the teacher data and the learning data input from the sign inverting circuit 25. Is stored.

【0084】したがって、Y±Iメモリ26Aには、注
目画素のNTSC信号が、Y−I信号、またはY+I信号で
ある場合における、その注目画素のYUV信号(教師デー
タ)と、その注目画素について形成される予測タップを
構成する画素のNTSC信号との組合せが記憶され、Y±Q
メモリ26Bには、注目画素のNTSC信号が、Y−Q信
号、またはY+Q信号である場合における、その注目画
素のYUV信号(教師データ)と、その注目画素について
形成される予測タップを構成する画素のNTSC信号との組
合せが記憶される。
Therefore, in the Y ± I memory 26A, when the NTSC signal of the target pixel is the Y-I signal or the Y + I signal, the YUV signal (teacher data) of the target pixel and the target pixel are formed. The combination with the NTSC signal of the pixel constituting the prediction tap is stored, and Y ± Q
When the NTSC signal of the pixel of interest is a YQ signal or a Y + Q signal, the memory 26B stores the YUV signal (teacher data) of the pixel of interest and the pixels forming the prediction tap formed for the pixel of interest. Is stored.

【0085】なお、メモリ26A,26Bそれぞれにお
いては、同一アドレスに複数の情報を記憶することがで
きるようになされており、これにより、同一アドレスに
は、同一のクラスに分類される画素の学習データと教師
データとの組合せを複数記憶することができるようにな
されている。
In each of the memories 26A and 26B, a plurality of pieces of information can be stored at the same address, whereby the same address stores the learning data of the pixels classified into the same class. And a plurality of combinations of data and teacher data.

【0086】演算回路27A,27Bは、メモリ26
A,26Bの各アドレスに記憶されている学習データと
しての予測タップを構成する画素のNTSC信号と、教師デ
ータとしてのYUV信号との組合せを読み出し、それらを
用いて、最小自乗法により、YUV信号の予測値と教師デ
ータとの間の誤差を最小にする予測係数をそれぞれ算出
するようになされている。すなわち、演算回路27A,
27Bでは、クラス毎に、且つ、Y,U,Vの各信号に
ついて、式(8)に対応する正規方程式がたてられ、こ
れを解くことにより、クラス毎の、Y,U,V用の予測
係数(Y用の予測係数wYa乃至wYk、予測係数wYA乃至
YK、およびwYoffset,U用の予測係数wU a乃至
Uk、予測係数wUA乃至wUK、およびwUoffset、並び
にV用の予測係数wVa乃至wVk、予測係数wVA乃至
VK、およびwVoffset)が、それぞれ求められる。
The operation circuits 27A and 27B are provided in the memory 26
A combination of the NTSC signal of the pixel forming the prediction tap as the learning data stored in each address of A and 26B and the YUV signal as the teacher data is read out, and the YUV signal is calculated by using the least square method. And a prediction coefficient for minimizing an error between the predicted value of the target data and the teacher data. That is, the operation circuit 27A,
In 27B, a normal equation corresponding to Expression (8) is established for each class and for each signal of Y, U, and V, and by solving this, Y, U, and V for each class are obtained. Prediction coefficients (prediction coefficients w Ya to w Yk , prediction coefficients w YA to w YK , and w Yoffset for Y , prediction coefficients w U a to w Uk for U , prediction coefficients w UA to w UK , and w Uoffset , And prediction coefficients w Va to w Vk , prediction coefficients w VA to w VK , and w Voffset for V are obtained, respectively.

【0087】ここで、演算回路27A,27Bでは、メ
モリ26A,26Bに記憶されたデータを用いてそれぞ
れ処理が行われるため、演算回路27A,27Bそれぞ
れにおいて得られる予測係数は、NTSC信号の位相に対応
したもの、すなわち、Y+I信号、またはY+Q信号
を、それぞれ、YUV信号に変換するためのものになる。
Here, in the arithmetic circuits 27A and 27B, the processing is performed using the data stored in the memories 26A and 26B, respectively. Therefore, the prediction coefficients obtained in the arithmetic circuits 27A and 27B respectively correspond to the phase of the NTSC signal. The corresponding signal, that is, the signal for converting the Y + I signal or the Y + Q signal into the YUV signal, respectively.

【0088】演算回路27A,27Bにおいて得られた
予測係数は、対応する、コンポーネント信号変換回路3
の予測係数メモリ部13のY±Iメモリ13A、または
Y±Qメモリ13Bに供給され、各クラスに対応したア
ドレスに記憶されるようになされている。
The prediction coefficients obtained by the arithmetic circuits 27A and 27B are
Is supplied to the Y ± I memory 13A or the Y ± Q memory 13B of the prediction coefficient memory unit 13 and is stored at an address corresponding to each class.

【0089】次に、この学習装置において行われる学習
処理について、図7のフローチャートを参照して説明す
る。フィールドメモリ21に、学習用の画像のYUV信号
が記憶されると、ステップS21において、制御回路2
4は、学習用の画像を構成する所定の画素を注目画素と
して選択し、その注目画素について、クラス分類を行う
ために必要な画素を、フィールドメモリ21から読み出
させ、NTSCエンコーダ22に供給させる。NTSCエンコー
ダ22では、フィールドメモリ21から入力された画素
のYUV信号がNTSC信号に変換され、クラス分類回路23
に供給される。
Next, a learning process performed by the learning device will be described with reference to a flowchart of FIG. When the YUV signal of the learning image is stored in the field memory 21, in step S21, the control circuit 2
4 selects a predetermined pixel constituting the image for learning as a pixel of interest, causes the pixel necessary for performing the class classification to be read from the field memory 21 for the pixel of interest, and supplies the pixel to the NTSC encoder 22. . In the NTSC encoder 22, the YUV signal of the pixel input from the field memory 21 is converted into an NTSC signal.
Supplied to

【0090】ステップS22において、クラス分類回路
23は、NTSCエンコーダ22から入力された画素を用い
て、図2のクラス分類回路12と同様にクラス分類を行
ない、注目画素のクラスを、アドレスとして、学習用デ
ータメモリ部26に供給する。
In step S22, the class classification circuit 23 classifies the pixels using the pixels input from the NTSC encoder 22 in the same manner as the class classification circuit 12 in FIG. To the data memory unit 26 for use.

【0091】ステップS23において、制御回路24
は、注目画素のNTSC信号の位相(Y−I信号、Y−Q信
号、Y+I信号、またはY+Q信号)を示すCS信号を、
符号反転回路25、および学習用データメモリ部26に
供給する。
In step S23, the control circuit 24
Is a CS signal indicating the phase (Y-I signal, Y-Q signal, Y + I signal, or Y + Q signal) of the NTSC signal of the pixel of interest.
It is supplied to the sign inversion circuit 25 and the learning data memory unit 26.

【0092】さらに、制御回路24は、注目画素のYUV
信号と、その注目画素に対応する予測タップを構成する
画素のYUV信号とを、フィールドメモリ21から読み出
させ、注目画素のYUV信号は制御回路24自身に供給さ
せ、予測タップを構成する画素のYUV信号はNTSCエンコ
ーダ22に供給させる。この場合、NTSCエンコーダ22
は、フィールドメモリ21から入力された予測タップを
構成する画素のYUV信号をNTSC信号に変換して、制御回
路27に供給する。
Further, the control circuit 24 controls the YUV
A signal and a YUV signal of a pixel forming a prediction tap corresponding to the pixel of interest are read from the field memory 21, and the YUV signal of the pixel of interest is supplied to the control circuit 24 itself, and a signal of the pixel forming the prediction tap is generated. The YUV signal is supplied to the NTSC encoder 22. In this case, the NTSC encoder 22
Converts the YUV signal of the pixel constituting the prediction tap input from the field memory 21 into an NTSC signal and supplies the signal to the control circuit 27.

【0093】そして、制御回路24は、NTSCエンコーダ
22から入力された予測タップを構成する画素のNTSC信
号を学習データとするとともに、フィールドメモリ21
から入力された注目画素のYUV信号を教師データとし、
その学習データと教師データとの組み合わせを、符号反
転回路25に出力する。
The control circuit 24 uses the NTSC signal of the pixel constituting the prediction tap input from the NTSC encoder 22 as learning data,
The YUV signal of the pixel of interest input from
The combination of the learning data and the teacher data is output to the sign inversion circuit 25.

【0094】なお、ステップS23の処理は、ステップ
S22の処理と並列に行うことが可能である。
Note that the processing in step S23 can be performed in parallel with the processing in step S22.

【0095】ステップS24において、符号反転回路2
5は、制御回路24から入力されたCS信号を参照して、
注目画素のNTSC信号が、Y−I信号、またはY−Q信号
であるか否かを判定する。注目画素のNTSC信号が、Y−
I信号、またはY−Q信号であると判定された場合、ス
テップS25に進む。
In step S24, the sign inversion circuit 2
5 refers to the CS signal input from the control circuit 24,
It is determined whether the NTSC signal of the target pixel is a YI signal or a YQ signal. The NTSC signal of the target pixel is Y-
If it is determined that the signal is an I signal or a YQ signal, the process proceeds to step S25.

【0096】ステップS25において、符号反転回路2
5は、制御回路24から入力されたU,Vの各信号の符
号を反転して(符号反転処理を実行し)、その他の信号
(Y信号、および予測タップを構成する画素のNTSC信
号)とともに学習用データメモリ部26に供給する。
In step S25, the sign inversion circuit 2
5 inverts the sign of each of the U and V signals input from the control circuit 24 (performs sign inversion processing), and together with other signals (Y signal and NTSC signal of a pixel constituting a prediction tap). The data is supplied to the learning data memory unit 26.

【0097】ステップS26において、学習用データメ
モリ部26は、制御回路24から入力されたCS信号を参
照して、注目画素のNTSC信号が、Y−I信号、またはY
+I信号であるか否かを判定する。注目画素のNTSC信号
が、Y−I信号、またはY+I信号であると判定された
場合、ステップS27に進む。
In step S26, the learning data memory unit 26 refers to the CS signal input from the control circuit 24 and determines whether the NTSC signal of the target pixel is a YI signal or a YI signal.
It is determined whether the signal is a + I signal. When it is determined that the NTSC signal of the target pixel is the Y-I signal or the Y + I signal, the process proceeds to step S27.

【0098】ステップS27において、学習用データメ
モリ部26は、Y±Iメモリ26Aの、クラス分類回路
23から供給された注目画素のクラスに対応するアドレ
スに、符号反転回路25から入力された教師データと学
習データとの組合せを記憶させる。
In step S27, the learning data memory unit 26 stores the teacher data input from the sign inversion circuit 25 at the address of the Y ± I memory 26A corresponding to the class of the pixel of interest supplied from the class classification circuit 23. And the combination of the learning data.

【0099】ステップS28において、制御回路24
は、フィールドメモリ21に記憶された学習用の画像を
構成する全ての画素を注目画素として処理したか否かを
判定する。まだ、学習用の画像を構成する全ての画素を
注目画素として処理していないと判定された場合、ステ
ップS21に戻り、まだ注目画素とされていない画素
を、新たに注目画素として、ステップS22以下の処理
が繰り返される。
At the step S28, the control circuit 24
Determines whether all pixels constituting the learning image stored in the field memory 21 have been processed as the pixel of interest. If it is determined that all the pixels forming the learning image have not been processed as the target pixel, the process returns to step S21, and a pixel that has not been set as the target pixel is newly set as the target pixel. Is repeated.

【0100】その後、ステップS28において、学習用
の画像を構成する全ての画素を注目画素として処理した
と判定された場合、ステップS29に進む。
Thereafter, if it is determined in step S28 that all the pixels constituting the learning image have been processed as the pixel of interest, the process proceeds to step S29.

【0101】ステップS29において、演算回路27
A,27Bは、それぞれ、メモリ26A,26Bに記憶
された学習データと教師データとの組合せを、各アドレ
ス毎に読み出し、Y,U,Vの各信号別に、式(8)に
対応する正規方程式を生成し、生成した正規方程式を解
くことにより、Y+I信号、またはY+Q信号それぞれ
をYUV信号に変換する演算に用いるY,U,V用のクラ
ス毎の予測係数のセットを得る。そして、Y+I信号、
またはY+Q信号に対応するクラス毎の予測係数のセッ
トは、予測係数メモリ部13のY±Iメモリ13A、ま
たはY±Qメモリ13Bにそれぞれ供給されて記憶さ
れ、処理を終了する。
In step S29, the arithmetic circuit 27
A and 27B respectively read the combination of the learning data and the teacher data stored in the memories 26A and 26B for each address, and for each signal of Y, U and V, a normal equation corresponding to the equation (8). Is generated, and the generated normal equation is solved to obtain a set of prediction coefficients for each class for Y, U, and V used for the operation of converting the Y + I signal or the Y + Q signal into the YUV signal. And the Y + I signal,
Alternatively, the set of prediction coefficients for each class corresponding to the Y + Q signal is supplied to and stored in the Y ± I memory 13A or the Y ± Q memory 13B of the prediction coefficient memory unit 13, and the processing is terminated.

【0102】以上のように、注目画素を、その注目画素
の空間的、および時間的な特徴に基づいてクラス分類
し、それにより得られるクラスに対応した予測係数、す
なわち、注目画素に適した予測係数を用いて、注目画素
のNTSC信号を、YUV信号に変換するようにしたので、特
に、輝度によるエッジに起因するドット妨害や、輝度に
伴って色が変化しているクロスカラーなどを軽減するこ
とが可能となる。
As described above, the target pixel is classified into classes based on the spatial and temporal characteristics of the target pixel, and the prediction coefficient corresponding to the class obtained thereby, that is, the prediction coefficient suitable for the target pixel. The coefficient is used to convert the NTSC signal of the pixel of interest into a YUV signal, thus reducing dot interference caused by edges due to luminance, and cross color in which the color is changing with luminance. It becomes possible.

【0103】なお、本実施の形態においては、予測係数
との線形一次式を計算することにより、NTSC信号をYUV
信号に変換するようにしたが、その他、例えば、非線形
な演算式などを計算することにより、NTSC信号をYUV信
号に変換するようにすることも可能である。
In this embodiment, the NTSC signal is converted to a YUV signal by calculating a linear equation with the prediction coefficient.
Although the signal is converted into a signal, it is also possible to convert the NTSC signal into a YUV signal by calculating, for example, a nonlinear arithmetic expression.

【0104】また、本実施の形態では、図4で説明した
画素から、予測タップを構成するようにしたが、予測タ
ップは、その他の画素から構成することも可能である。
Further, in the present embodiment, the prediction tap is formed from the pixels described with reference to FIG. 4, but the prediction tap may be formed from other pixels.

【0105】さらに、本実施の形態では、NTSC信号の位
相に対応して、適応処理および学習処理を行うようにし
たが、適応処理および学習処理は、NTSC信号の位相に関
係なく行うことも可能である。ただし、NTSC信号の位相
別に、適応処理および学習処理を行う方が、精度の高い
YUV信号および予測係数を得ることができる。
Further, in the present embodiment, the adaptive processing and the learning processing are performed in accordance with the phase of the NTSC signal. However, the adaptive processing and the learning processing can be performed regardless of the phase of the NTSC signal. It is. However, it is more accurate to perform adaptive processing and learning processing for each NTSC signal phase.
YUV signals and prediction coefficients can be obtained.

【0106】また、本実施の形態においては、NTSC信号
をYUV信号に変換するようにしたが、その他、例えば、P
AL方式などの信号をYUV信号に変換したり、また、NTSC
信号を、RGB信号やYIQ信号に変換することなども可能で
ある。すなわち、変換前のコンポジット信号および変換
後のコンポーネント信号は、特に限定されるものではな
い。
In the present embodiment, the NTSC signal is converted to a YUV signal.
Converts signals such as AL signals to YUV signals, NTSC
It is also possible to convert the signal into an RGB signal or a YIQ signal. That is, the composite signal before conversion and the component signal after conversion are not particularly limited.

【0107】また、本実施の形態では、フィールド単位
で処理を行うようにしたが、その他、例えば、フレーム
単位で処理を行うことも可能である。
In the present embodiment, the processing is performed in units of fields. However, it is also possible to perform processing in units of frames, for example.

【0108】さらに、本発明は、テレビジョン受像機以
外の、例えば、VTR(Video Tape Recorder)その他の画像
を扱う機器に適用可能である。また、本発明は、動画お
よび静止画のいずれにも適用可能である。
Further, the present invention is applicable to, for example, a VTR (Video Tape Recorder) and other devices that handle images other than the television receiver. Further, the present invention is applicable to both moving images and still images.

【0109】さらに、本実施の形態では、NTSC信号をサ
ンプリングすることにより、Y−I信号、Y−Q信号、
Y+I信号、およびY+Q信号とするようにしたが、NT
SC信号のサンプリングは、4サンプリング毎に、同位相
の信号が得られれば、どのようなタイミングで行っても
よい。ただし、この場合、学習においても、同一位相の
信号を用いる必要がある。
Further, in this embodiment, by sampling the NTSC signal, the YI signal, the YQ signal,
Y + I signal and Y + Q signal, but NT
The sampling of the SC signal may be performed at any timing as long as an in-phase signal is obtained every four samplings. However, in this case, it is necessary to use signals of the same phase also in learning.

【0110】なお、上記各処理を行うコンピュータプロ
グラムは、磁気ディスク、CD-ROM等の情報記録媒体より
なる提供媒体のほか、インターネット、デジタル衛星な
どのネットワーク提供媒体を介してユーザに提供するこ
とができる。
Note that the computer program for performing each of the above processes can be provided to the user via a network medium such as the Internet or a digital satellite in addition to a medium such as a magnetic disk or a CD-ROM. it can.

【0111】[0111]

【発明の効果】以上のように、請求項1に記載の画像信
号処理装置、請求項6に記載の画像信号処理方法、およ
び請求項7に記載の提供媒体によれば、注目画素のコン
ポジット信号の4種類の位相を検出し、検出した注目画
素のコンポジット信号の位相に対応して、演算した注目
画素のコンポーネント信号を補正するようにしたので、
装置の規模を小さくすることが可能となる。
As described above, according to the image signal processing apparatus according to the first aspect, the image signal processing method according to the sixth aspect, and the providing medium according to the seventh aspect, the composite signal of the target pixel is provided. Since the four types of phases are detected, and the calculated component signal of the target pixel is corrected in accordance with the detected phase of the composite signal of the target pixel,
The scale of the device can be reduced.

【0112】また、請求項8に記載の学習装置、請求項
12に記載の学習装置、および請求項13に記載の提供
媒体によれば、変換した注目画素の学習用のコンポジッ
ト信号の4種類の位相を検出し、検出した注目画素の学
習用のコンポジット信号の位相に対応して、学習用のコ
ンポーネント信号を補正し、学習用のコンポジット信号
と予測係数とを用いて演算されたコンポーネント信号
と、補正した学習用のコンポーネント信号との誤差を小
さくする予測係数を求めるための演算を行うようにした
ので、装置の規模を小さくする予測係数を得ることが可
能となる。
According to the learning device of the eighth aspect, the learning device of the twelfth aspect, and the providing medium of the thirteenth aspect, four types of the composite signal for learning the converted target pixel are provided. Detecting the phase, correcting the component signal for learning corresponding to the phase of the composite signal for learning of the detected pixel of interest, a component signal calculated using the composite signal for learning and the prediction coefficient, Since the calculation for obtaining the prediction coefficient for reducing the error from the corrected component signal for learning is performed, it is possible to obtain the prediction coefficient for reducing the scale of the apparatus.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用したテレビジョン受像機の構成例
を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration example of a television receiver to which the present invention has been applied.

【図2】図1のコンポーネント信号変換回路3の構成例
を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration example of a component signal conversion circuit 3 of FIG. 1;

【図3】NTSC信号のフィールドの構成例を示す図であ
る。
FIG. 3 is a diagram illustrating a configuration example of a field of an NTSC signal.

【図4】図2の予測タップ形成回路15の処理を説明す
る図である。
FIG. 4 is a diagram for explaining processing of a prediction tap forming circuit 15 of FIG. 2;

【図5】図2のコンポーネント信号変換回路3の動作を
説明するフローチャートである。
FIG. 5 is a flowchart illustrating an operation of the component signal conversion circuit 3 of FIG. 2;

【図6】本発明を適用した学習装置の構成例を示すブロ
ック図である。
FIG. 6 is a block diagram illustrating a configuration example of a learning device to which the present invention has been applied.

【図7】図6の学習装置の動作を説明するフローチャー
トである。
FIG. 7 is a flowchart illustrating an operation of the learning device in FIG. 6;

【符号の説明】[Explanation of symbols]

1 チューナ, 2 A/D変換器, 3 コンポーネン
ト信号変換回路, 4CRT, 5 増幅器, 6 スピ
ーカ, 11 フィールドメモリ, 12クラス分類回
路, 13 予測係数メモリ部, 13A Y±Iメモ
リ, 13B Y±Qメモリ, 14 制御回路, 1
5 予測タップ形成回路, 16演算回路, 17 符
号反転回路, 21 フィールドメモリ, 22 NTSC
エンコーダ, 23 クラス分類回路, 24 制御回
路, 25 符号反転回路, 26 学習用データメモ
リ部, 26A Y±Iメモリ, 26B Y±Qメモ
リ, 27A,27B 演算回路
1 tuner, 2 A / D converter, 3 component signal conversion circuit, 4 CRT, 5 amplifier, 6 speaker, 11 field memory, 12 class classification circuit, 13 prediction coefficient memory section, 13A Y ± I memory, 13B Y ± Q memory , 14 control circuit, 1
5 prediction tap formation circuit, 16 operation circuit, 17 sign inversion circuit, 21 field memory, 22 NTSC
Encoder, 23 class classification circuit, 24 control circuit, 25 sign inversion circuit, 26 learning data memory section, 26A Y ± I memory, 26B Y ± Q memory, 27A, 27B arithmetic circuit

フロントページの続き (72)発明者 星野 隆也 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 西片 丈晴 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 井上 賢 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 小林 直樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 小久保 哲志 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C066 AA03 BA02 CA01 CA07 DC01 DD07 EE01 GA02 GA04 GA05 HA02 KD07 KE03 KE04 KE09 KE17 KE19 KF01 Continued on the front page (72) Inventor Takaya Hoshino 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Takeharu Nishikata 6-35-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation Inside the company (72) Inventor Ken Ken Inoue 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Naoki Kobayashi 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sonny Corporation (72) Inventor Tetsushi Kokubo 6-35 Kita Shinagawa, Shinagawa-ku, Tokyo F-term in Sony Corporation (reference) 5C066 AA03 BA02 CA01 CA07 DC01 DD07 EE01 GA02 GA04 GA05 HA02 KD07 KE03 KE04 KE09 KE17 KE19 KF01

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 コンポジット信号をコンポーネント信号
に変換する画像信号処理装置において、 注目画素のコンポジット信号の4種類の位相を検出する
検出手段と、 前記コンポジット信号の2種類の位相に対応する予測係
数を記憶する記憶手段と、 前記記憶手段が記憶する予測係数のうちの前記検出手段
が検出した注目画素のコンポジット信号の位相に対応す
るものを用いて前記注目画素のコンポーネント信号を演
算する演算手段と、 前記検出手段が検出した注目画素のコンポジット信号の
位相に対応して、前記演算手段で演算された前記注目画
素のコンポーネント信号を補正する補正手段とを備える
ことを特徴とする画像信号処理装置。
1. An image signal processing apparatus for converting a composite signal into a component signal, comprising: detecting means for detecting four types of phases of a composite signal of a target pixel; and predicting coefficients corresponding to two types of phases of the composite signal. Storage means for storing, and calculating means for calculating the component signal of the pixel of interest using the one corresponding to the phase of the composite signal of the pixel of interest detected by the detection means among the prediction coefficients stored by the storage means, An image signal processing apparatus comprising: a correction unit that corrects a component signal of the pixel of interest calculated by the calculation unit in accordance with a phase of a composite signal of the pixel of interest detected by the detection unit.
【請求項2】 前記記憶手段は、前記コンポジット信号
のY+I信号、またはY+Q信号に対応する予測係数を
記憶し、 前記補正手段は、前記コンポジット信号がY−I信号、
またはY−Q信号である場合、前記演算手段で演算され
た前記注目画素のコンポーネント信号を補正することを
特徴とする請求項1に記載の画像信号処理装置。
2. The storage unit stores a prediction coefficient corresponding to a Y + I signal or a Y + Q signal of the composite signal, and the correction unit determines that the composite signal is a YI signal;
2. The image signal processing apparatus according to claim 1, wherein when the signal is a YQ signal, the component signal of the target pixel calculated by the calculation unit is corrected.
【請求項3】 前記コンポーネント信号はYUV信号、ま
たはRGB信号であることを特徴とする請求項1に記載の
画像信号処理装置。
3. The image signal processing device according to claim 1, wherein the component signal is a YUV signal or an RGB signal.
【請求項4】 前記演算手段は、前記予測係数と、前記
注目画素と空間的または時間的に近接する画素との線形
一次結合により、前記注目画素のコンポーネント信号を
演算することを特徴とする請求項1に記載の画像信号処
理装置。
4. The method according to claim 1, wherein the calculating means calculates a component signal of the pixel of interest by a linear linear combination of the prediction coefficient and a pixel spatially or temporally adjacent to the pixel of interest. Item 2. The image signal processing device according to item 1.
【請求項5】 前記注目画素の空間的および時間的な特
徴に基づいて、前記注目画素をクラス分類するクラス分
類手段をさらに備え、 前記記憶手段は、前記コンポジット信号の2種類の位相
に対応する予測係数を前記クラス毎に記憶することを特
徴とする請求項1に記載の画像信号処理装置。
5. The method according to claim 1, further comprising: classifying means for classifying the pixel of interest based on spatial and temporal characteristics of the pixel of interest, wherein the storage means corresponds to two types of phases of the composite signal. 2. The image signal processing apparatus according to claim 1, wherein a prediction coefficient is stored for each class.
【請求項6】 コンポジット信号をコンポーネント信号
に変換する画像信号処理方法において、 注目画素のコンポジット信号の4種類の位相を検出する
検出ステップと、 前記コンポジット信号の2種類の位相に対応する予測係
数を記憶する記憶ステップと、 前記記憶ステップで記憶する予測係数のうちの前記検出
ステップで検出した注目画素のコンポジット信号の位相
に対応するものを用いて前記注目画素のコンポーネント
信号を演算する演算ステップと、 前記検出ステップで検出した注目画素のコンポジット信
号の位相に対応して、前記演算ステップで演算された前
記注目画素のコンポーネント信号を補正する補正ステッ
プとを含むことを特徴とする画像信号処理方法。
6. An image signal processing method for converting a composite signal into a component signal, comprising: a detecting step of detecting four types of phases of a composite signal of a pixel of interest; and a prediction coefficient corresponding to two types of phases of the composite signal. A storage step of storing, a calculation step of calculating the component signal of the pixel of interest using a phase coefficient of the composite signal of the pixel of interest detected in the detection step of the prediction coefficients stored in the storage step, A correcting step of correcting the component signal of the pixel of interest calculated in the calculating step in accordance with the phase of the composite signal of the pixel of interest detected in the detecting step.
【請求項7】 コンポジット信号をコンポーネント信号
に変換する画像信号処理装置に、 注目画素のコンポジット信号の4種類の位相を検出する
検出ステップと、 前記コンポジット信号の2種類の位相に対応する予測係
数を記憶する記憶ステップと、 前記記憶ステップで記憶する予測係数のうちの前記検出
ステップで検出した注目画素のコンポジット信号の位相
に対応するものを用いて前記注目画素のコンポーネント
信号を演算する演算ステップと、 前記検出ステップで検出した注目画素のコンポジット信
号の位相に対応して、前記演算ステップで演算された前
記注目画素のコンポーネント信号を補正する補正ステッ
プとを含む処理を実行させるコンピュータが読み取り可
能なプログラムを提供することを特徴とする提供媒体。
7. An image signal processing apparatus for converting a composite signal into a component signal, a detecting step of detecting four types of phases of the composite signal of the target pixel, and a prediction coefficient corresponding to the two types of phases of the composite signal. A storage step of storing, a calculation step of calculating the component signal of the pixel of interest using a phase coefficient of the composite signal of the pixel of interest detected in the detection step of the prediction coefficients stored in the storage step, A computer-readable program for executing a process including a correction step of correcting the component signal of the pixel of interest calculated in the calculation step in accordance with the phase of the composite signal of the pixel of interest detected in the detection step. A providing medium characterized by being provided.
【請求項8】 コンポジット信号をコンポーネント信号
に変換するための演算に用いる予測係数を求める学習装
置において、 学習用のコンポーネント信号を、学習用のコンポジット
信号に変換する変換手段と、 前記変換手段で変換された注目画素の前記学習用のコン
ポジット信号の4種類の位相を検出する検出手段と、 前記検出手段が検出した前記注目画素の学習用のコンポ
ジット信号の位相に対応して、前記学習用のコンポーネ
ント信号を補正する補正手段と、 学習用のコンポジット信号と前記予測係数とを用いて演
算されたコンポーネント信号と、前記補正手段が補正し
た前記学習用のコンポーネント信号との誤差を小さくす
る前記予測係数を求めるための演算を行う演算手段とを
備えることを特徴とする学習装置。
8. A learning device for calculating a prediction coefficient used for an operation for converting a composite signal into a component signal, comprising: conversion means for converting a learning component signal into a learning composite signal; Detecting means for detecting four types of phases of the learning composite signal of the detected pixel of interest, and the learning component corresponding to the phase of the learning composite signal of the pixel of interest detected by the detecting means. Correction means for correcting a signal; a component signal calculated using the composite signal for learning and the prediction coefficient; and the prediction coefficient for reducing an error between the component signal for learning corrected by the correction means. A learning device comprising: a calculation unit for performing a calculation for obtaining the learning value.
【請求項9】 前記コンポーネント信号はYUV信号、ま
たはRGB信号であることを特徴とする請求項8に記載の
学習装置。
9. The learning device according to claim 8, wherein the component signal is a YUV signal or an RGB signal.
【請求項10】 前記演算手段は、前記予測係数と、注
目画素と空間的または時間的に近接する画素との線形一
次結合により、前記注目画素のコンポーネント信号を演
算することを特徴とする請求項8に記載の学習装置。
10. The method according to claim 1, wherein the calculating means calculates a component signal of the pixel of interest by a linear linear combination of the prediction coefficient and a pixel spatially or temporally adjacent to the pixel of interest. 9. The learning device according to 8.
【請求項11】 前記注目画素の空間的および時間的な
特徴に基づいて、前記注目画素をクラス分類するクラス
分類手段をさらに備え、 前記演算手段は、前記コンポジット信号の2種類の位相
に対応する予測係数を前記クラス毎に演算することを特
徴とする請求項8に記載の学習装置。
11. The image processing apparatus further comprises a classifying unit that classifies the pixel of interest based on spatial and temporal characteristics of the pixel of interest, wherein the arithmetic unit corresponds to two types of phases of the composite signal. The learning device according to claim 8, wherein a prediction coefficient is calculated for each of the classes.
【請求項12】 コンポジット信号をコンポーネント信
号に変換するための演算に用いる予測係数を求める学習
方法において、 学習用のコンポーネント信号を、学習用のコンポジット
信号に変換する変換ステップと、 前記変換ステップで変換された注目画素の前記学習用の
コンポジット信号の4種類の位相を検出する検出ステッ
プと、 前記検出ステップで検出した前記注目画素の学習用のコ
ンポジット信号の位相に対応して、前記学習用のコンポ
ーネント信号を補正する補正ステップと、 学習用のコンポジット信号と前記予測係数とを用いて演
算されたコンポーネント信号と、前記補正ステップで補
正した前記学習用のコンポーネント信号との誤差を小さ
くする前記予測係数を求めるための演算を行う演算ステ
ップとを含むことを特徴とする学習方法。
12. A learning method for obtaining a prediction coefficient used in an operation for converting a composite signal into a component signal, comprising: a conversion step of converting a learning component signal into a learning composite signal; A detecting step of detecting four types of phases of the learning composite signal of the target pixel, and a learning component corresponding to the phase of the learning composite signal of the target pixel detected in the detecting step. A correction step of correcting a signal; a component signal calculated using the composite signal for learning and the prediction coefficient; and the prediction coefficient for reducing an error between the component signal for learning corrected in the correction step. And an operation step of performing an operation for obtaining Learning method.
【請求項13】 コンポジット信号をコンポーネント信
号に変換するための演算に用いる予測係数を求める学習
装置に、 学習用のコンポーネント信号を、学習用のコンポジット
信号に変換する変換ステップと、 前記変換ステップで変換された注目画素の前記学習用の
コンポジット信号の4種類の位相を検出する検出ステッ
プと、 前記検出ステップで検出した前記注目画素の学習用のコ
ンポジット信号の位相に対応して、前記学習用のコンポ
ーネント信号を補正する補正ステップと、 学習用のコンポジット信号と前記予測係数とを用いて演
算されたコンポーネント信号と、前記補正ステップで補
正した前記学習用のコンポーネント信号との誤差を小さ
くする前記予測係数を求めるための演算を行う演算ステ
ップとを含む処理を実行させるコンピュータが読み取り
可能なプログラムを提供することを特徴とする提供媒
体。
13. A learning device for calculating a prediction coefficient used for an operation for converting a composite signal into a component signal, a conversion step of converting a learning component signal into a learning composite signal, and a conversion step in the conversion step. A detecting step of detecting four types of phases of the learning composite signal of the target pixel, and a learning component corresponding to the phase of the learning composite signal of the target pixel detected in the detecting step. A correction step of correcting the signal; a component signal calculated using the composite signal for learning and the prediction coefficient; and the prediction coefficient for reducing an error between the component signal for learning corrected in the correction step. And a calculation step for performing a calculation for obtaining Providing medium characterized by Yuta to provide readable program.
JP28400298A 1998-10-06 1998-10-06 Image signal processing apparatus and method, learning apparatus and method, and recording medium Expired - Fee Related JP4061632B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28400298A JP4061632B2 (en) 1998-10-06 1998-10-06 Image signal processing apparatus and method, learning apparatus and method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28400298A JP4061632B2 (en) 1998-10-06 1998-10-06 Image signal processing apparatus and method, learning apparatus and method, and recording medium

Publications (2)

Publication Number Publication Date
JP2000115803A true JP2000115803A (en) 2000-04-21
JP4061632B2 JP4061632B2 (en) 2008-03-19

Family

ID=17673030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28400298A Expired - Fee Related JP4061632B2 (en) 1998-10-06 1998-10-06 Image signal processing apparatus and method, learning apparatus and method, and recording medium

Country Status (1)

Country Link
JP (1) JP4061632B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335541A (en) * 2001-05-10 2002-11-22 Sony Corp Equipment and method of processing image, recording medium, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335541A (en) * 2001-05-10 2002-11-22 Sony Corp Equipment and method of processing image, recording medium, and program

Also Published As

Publication number Publication date
JP4061632B2 (en) 2008-03-19

Similar Documents

Publication Publication Date Title
US20080181312A1 (en) Television receiver apparatus and a frame-rate converting method for the same
JP4534723B2 (en) Image display device, image processing device, and image processing method
US20080240617A1 (en) Interpolation frame generating apparatus, interpolation frame generating method, and broadcast receiving apparatus
US7961961B2 (en) Image processing apparatus and image processing program using motion information
EP0926902B1 (en) Signal conversion apparatus and method
JP3864444B2 (en) Image signal processing apparatus and method
JP3304427B2 (en) Color image color shift correction device
JP2000115803A (en) Image signal processing unit and its method, learning device and its method, and distributing medium
JP5114274B2 (en) Television receiver and frame rate conversion method thereof
JP3962938B2 (en) Signal conversion apparatus and method, and learning apparatus and method
US6516088B1 (en) Image information converting apparatus
JP3777831B2 (en) Image information conversion apparatus and conversion method
JP4597282B2 (en) Image information conversion apparatus, conversion method, and display apparatus
JP2581312B2 (en) Motion adaptive interpolation circuit
JP2000152273A (en) Image information converter and converting method
JP2580554B2 (en) Motion adaptive interpolation circuit
JP4752130B2 (en) Image processing apparatus and method, recording medium, and program
JP3831960B2 (en) Interpolation apparatus and interpolation method for compressed high resolution video signal
JP4055478B2 (en) Information signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program
JP4045539B2 (en) Image processing apparatus, image processing method, coefficient calculation apparatus, coefficient calculation method, recording medium, and program
JPH07114360A (en) Method for processing display video and device therefor
JPH03162194A (en) Chrominance signal interpolation circuit for pal color television signal
JPH1127696A (en) Image processing method, system and computer-readable recording medium
JPS6239990A (en) Moving part detecting circuit
JPH01195790A (en) Television receiver

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071030

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071216

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120111

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130111

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees