JP2000152273A - Image information converter and converting method - Google Patents

Image information converter and converting method

Info

Publication number
JP2000152273A
JP2000152273A JP32357798A JP32357798A JP2000152273A JP 2000152273 A JP2000152273 A JP 2000152273A JP 32357798 A JP32357798 A JP 32357798A JP 32357798 A JP32357798 A JP 32357798A JP 2000152273 A JP2000152273 A JP 2000152273A
Authority
JP
Japan
Prior art keywords
signal
pixel
prediction
image
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32357798A
Other languages
Japanese (ja)
Inventor
Tetsujiro Kondo
哲二郎 近藤
Shizuo Chikaoka
志津男 近岡
Hideo Nakaya
秀雄 中屋
Takanari Hoshino
隆也 星野
Masaru Inoue
賢 井上
Takeharu Nishikata
丈晴 西片
Naoki Kobayashi
小林  直樹
Tetsushi Kokubo
哲志 小久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP32357798A priority Critical patent/JP2000152273A/en
Publication of JP2000152273A publication Critical patent/JP2000152273A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Of Color Television Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance the image quality in the case of converting a composite signal into a component signal through the use of classification adaptation processing. SOLUTION: An NTSC signal being a composite signal is fed to area extract circuits 51, 55, which extract a class tap and a prediction tap respectively. A pattern detection circuit detection circuit 52 conducts an arithmetic in response to a phase of pixels such as obtaining a mean value of pixel values of pixels with inverted phases to each other based on an output of the area extract circuit 51 and detects a pattern of the NTSC signal based on the arithmetic result. A class code decision circuit 53 generates a class code based on the detection result. A coefficient memory 54 outputs that corresponding to the class code among prediction coefficients for each class stored in advance. A prediction arithmetic section 56 uses the prediction tap extracted by the area extract circuit 55 and the output of the coefficient memory 54 to conduct prediction arithmetic operation and generates, e.g. a luminance signal Y as a component signal.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、コンポジット信
号からコンポーネント信号を生成するための変換等に使
用することが可能な画像情報変換装置および変換方法に
関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image information conversion apparatus and a conversion method which can be used for conversion for generating a component signal from a composite signal.

【0002】[0002]

【従来の技術】例えばNTSC方式のテレビジョン信号
は、輝度信号Yに、クロマ信号Cが平衡変調されて多重
化されている。このため、従来のテレビジョン受像機に
おいては、テレビジョン信号を受信してCRT(Cathod
Ray Tube)等の表示部にカラー画像を表示する場合は、
テレビジョン信号から輝度信号Yとクロマ信号Cとを分
離するY/C分離を行い、さらにクロマ信号Cを復調す
る処理を行うことにより、輝度信号Y,および色差信号
R−Y,B−Yからなるコンポーネント信号を得て、コ
ンポーネント信号をマトリクス変換することによってR
GB信号を生成する必要がある。そのため、処理回路の
規模が大きくなるという問題があった。
2. Description of the Related Art For example, a television signal of the NTSC system is obtained by multiplexing a luminance signal Y and a chroma signal C with balanced modulation. For this reason, a conventional television receiver receives a television signal and receives a CRT (Cathod).
When displaying a color image on a display unit such as (Ray Tube),
By performing Y / C separation for separating the luminance signal Y and the chroma signal C from the television signal and further performing a process of demodulating the chroma signal C, the luminance signal Y and the color difference signals RY and BY are obtained. By obtaining the component signal of
It is necessary to generate a GB signal. Therefore, there is a problem that the scale of the processing circuit becomes large.

【0003】また、従来のY/C分離手法である、2次
元Y/C分離回路や、3次元Y/C分離回路等を用いた
フィルタ処理においては、特に画像のエッジ部分や動画
部分において、ドット妨害、クロスカラー等のY/C分
離エラーに起因する画質劣化が発生しやすいという問題
があった。
In a conventional Y / C separation method, a filtering process using a two-dimensional Y / C separation circuit, a three-dimensional Y / C separation circuit, or the like, particularly in an edge portion of an image or a moving image portion, There is a problem that image quality is likely to deteriorate due to Y / C separation errors such as dot disturbance and cross color.

【0004】上述したような問題点を改善するために、
NTSC信号等のコンポジット信号をクラス分類適応処
理を用いて輝度信号Y,色差信号R−Y,B−Y等に変
換することが考えられる。この場合には、まず、コンポ
ジット信号中の注目画素と所定の位置関係にある画素か
ら得られる特徴を用いてクラス分類を行う。そして、分
類されるクラス毎に予め用意された係数と、注目画素と
所定の位置関係にある画素とに基づく演算によってコン
ポジット信号からコンポーネント信号を直接求める。
In order to improve the above problems,
It is conceivable to convert a composite signal such as an NTSC signal into a luminance signal Y, color difference signals RY, BY, and the like by using a classification adaptive process. In this case, first, class classification is performed using features obtained from pixels having a predetermined positional relationship with the target pixel in the composite signal. Then, a component signal is directly obtained from the composite signal by an operation based on a coefficient prepared in advance for each class to be classified and a pixel having a predetermined positional relationship with the pixel of interest.

【0005】[0005]

【発明が解決しようとする課題】このような処理におい
ては、コンポジット信号の性質等に起因して、注目画素
に対して適切な係数が得られない場合に、ドット妨害、
クロスカラー等の画質劣化を充分に改善できないという
問題があった。
In such processing, when an appropriate coefficient cannot be obtained for the pixel of interest due to the nature of the composite signal, dot interference,
There is a problem that image quality deterioration such as cross color cannot be sufficiently improved.

【0006】従って、この発明の目的は、クラス分類適
応処理を用いてコンポジット信号をコンポーネント信号
に変換するに際し、画質劣化をより軽減することが可能
な画像情報変換装置および変換方法を提供することにあ
る。
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an image information conversion apparatus and a conversion method capable of further reducing image quality deterioration when converting a composite signal into a component signal using the class classification adaptive processing. is there.

【0007】[0007]

【課題を解決するための手段】請求項1の発明は、入力
画像信号に画像情報変換を施す画像情報変換装置におい
て、入力画像信号から、注目画素と注目画素に対して所
定の位置関係にある画素を選択する第1の画像データ選
択手段と、第1の画像データ選択手段の出力に基づき、
所定の画素の位相に関連する所定の演算処理を行い、演
算処理の結果に基づいて注目画素の近傍のパターンを検
出するパターン検出手段と、パターン検出手段の出力に
基づいて、注目画素の近傍におけるクラスを示すクラス
コードを生成するクラスコード生成手段と、入力画像信
号から、注目画素に対して所定の位置関係にある画素を
選択する第2の画像データ選択手段と、クラス毎に予め
決定された予測係数を記憶し、クラスコード生成手段の
出力に対応する予測係数を出力する係数記憶手段と、係
数記憶手段の出力と、第2の画像データ選択手段の出力
とに基づいて、所定の演算処理を行う予測演算処理手段
とを有することを特徴とする画像情報変換装置である。
According to a first aspect of the present invention, there is provided an image information conversion apparatus for performing image information conversion on an input image signal, wherein a target pixel and a target pixel have a predetermined positional relationship from the input image signal. A first image data selecting means for selecting a pixel, and an output from the first image data selecting means,
A pattern detection unit that performs a predetermined calculation process related to the phase of the predetermined pixel and detects a pattern in the vicinity of the pixel of interest based on a result of the calculation process; Class code generating means for generating a class code indicating a class; second image data selecting means for selecting a pixel having a predetermined positional relationship with respect to a pixel of interest from an input image signal; A coefficient storage means for storing a prediction coefficient and outputting a prediction coefficient corresponding to an output of the class code generation means; a predetermined arithmetic processing based on an output of the coefficient storage means and an output of the second image data selection means And a prediction calculation processing means for performing the following.

【0008】請求項10の発明は、入力画像信号に画像
情報変換を施す画像情報変換方法において、入力画像信
号から、注目画素と注目画素に対して所定の位置関係に
ある画素を選択する第1の画像データ選択ステップと、
第1の画像データ選択ステップの結果に基づき、所定の
画素の位相に関連する所定の演算処理を行い、演算処理
の結果に基づいて注目画素の近傍のパターンを検出する
パターン検出ステップと、パターン検出ステップの結果
に基づいて、注目画素の近傍におけるクラスを示すクラ
スコードを生成するクラスコード生成ステップと、入力
画像信号から、注目画素に対して所定の位置関係にある
画素を選択する第2の画像データ選択ステップと、クラ
ス毎に予め決定された予測係数を記憶し、クラスコード
生成ステップの結果に対応する予測係数を出力する係数
記憶ステップと、係数記憶ステップの結果と、第2の画
像データ選択ステップの結果とに基づいて、所定の演算
処理を行う予測演算処理ステップとを有することを特徴
とする画像情報変換方法である。
According to a tenth aspect of the present invention, in the image information conversion method for performing image information conversion on an input image signal, a first pixel and a pixel having a predetermined positional relationship with respect to the target pixel are selected from the input image signal. Image data selecting step of
A pattern detection step of performing a predetermined calculation process relating to a phase of a predetermined pixel based on a result of the first image data selection step, and detecting a pattern near a pixel of interest based on a result of the calculation process; A class code generating step of generating a class code indicating a class in the vicinity of the pixel of interest based on a result of the step; and a second image for selecting a pixel having a predetermined positional relationship with respect to the pixel of interest from the input image signal A data selection step, a coefficient storage step of storing a prediction coefficient predetermined for each class, and outputting a prediction coefficient corresponding to a result of the class code generation step, a result of the coefficient storage step, and a second image data selection step. A prediction operation processing step of performing a predetermined operation processing based on the result of the step. It is a method.

【0009】以上のような発明によれば、NTSC信号
等、各画素が位置によって異なる位相を有するコンポジ
ット画像信号が入力画像信号とされる場合にも、注目画
素の近傍の画素に基づく演算の結果を使用して、適切な
クラス分類を行うことができる。
According to the invention described above, even when a composite image signal in which each pixel has a different phase depending on a position, such as an NTSC signal, is used as an input image signal, the result of an operation based on pixels near the pixel of interest is obtained. Can be used to make the appropriate classification.

【0010】[0010]

【発明の実施の形態】この発明の一実施形態についての
説明に先立って、理解を容易とするために、NTSC方
式の一般的なテレビジョン受像機の全体的な構成につい
て図1を参照して説明する。受信アンテナ11が電波を
捉え、捉えた電波に基づく信号をチューナ12に供給す
る。チューナ12は、供給される信号から所望のチャン
ネルを選択して増幅し、中間周波信号を生成する。中間
周波信号は、中間周波信号処理回路13に供給される。
中間周波信号処理回路13は、供給される信号を復調・
検波して、ゲインが適切に調整されたコンポジット信号
を生成し、このコンポジット信号をY/C分離回路14
に供給する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Prior to the description of an embodiment of the present invention, in order to facilitate understanding, the general configuration of a general NTSC television receiver will be described with reference to FIG. explain. The receiving antenna 11 captures the radio wave and supplies a signal based on the captured radio wave to the tuner 12. The tuner 12 selects and amplifies a desired channel from the supplied signals, and generates an intermediate frequency signal. The intermediate frequency signal is supplied to the intermediate frequency signal processing circuit 13.
The intermediate frequency signal processing circuit 13 demodulates and supplies the supplied signal.
The composite signal is detected to generate a composite signal whose gain is appropriately adjusted.
To supply.

【0011】Y/C分離回路14は、供給されるコンポ
ジット信号を輝度信号Yと色信号Cとに分離し、色信号
Cをクロマ復調回路15に供給し、輝度信号Yをマトリ
クス回路16に供給する。クロマ復調回路15は、色信
号Cを色復調してベースバンドのR−Y信号,B−Y信
号を生成し、生成したR−Y信号,B−Y信号をマトリ
クス回路16に供給する。マトリクス回路16は、供給
される信号にマトリクス処理を施し、原色R,G,B信
号を生成する。そして、生成したR,G,B信号をCR
T17に供給する。
The Y / C separation circuit 14 separates the supplied composite signal into a luminance signal Y and a chrominance signal C, supplies the chrominance signal C to a chroma demodulation circuit 15, and supplies the luminance signal Y to a matrix circuit 16. I do. The chroma demodulation circuit 15 performs color demodulation of the color signal C to generate baseband RY and BY signals, and supplies the generated RY and BY signals to the matrix circuit 16. The matrix circuit 16 performs matrix processing on the supplied signals to generate primary color R, G, and B signals. Then, the generated R, G, B signals are converted to CR signals.
Supply to T17.

【0012】図1に示した構成は、コンポジット信号と
してのNTSC信号をY/C分離回路14、クロマ復調
回路15およびマトリクス回路16によって処理するこ
とによって原色RGB信号を得るものなので、処理を行
う構成の回路規模が大きくなるという問題があった。ま
た、画像のエッジ、動画部分等に、ドット妨害やクロス
カラー等のY/C分離回路14の動作エラーに起因する
画質劣化が発生しやすいという問題があった。
The configuration shown in FIG. 1 is such that the NTSC signal as a composite signal is processed by the Y / C separation circuit 14, the chroma demodulation circuit 15 and the matrix circuit 16 to obtain the primary color RGB signals. However, there is a problem that the circuit scale becomes large. In addition, there is a problem that image quality is likely to be deteriorated due to an operation error of the Y / C separation circuit 14 such as dot disturbance or cross color at an edge of an image or a moving image portion.

【0013】この発明は、クラス分類適応処理を用い
て、図1中のY/C分離回路14およびクロマ復調回路
15を含む処理系18、またはY/C分離回路14、ク
ロマ復調回路15およびマトリクス回路16を含む処理
系19が行う処理を一括して行うようにしたものであ
る。
According to the present invention, a processing system 18 including a Y / C separation circuit 14 and a chroma demodulation circuit 15 in FIG. 1 or a Y / C separation circuit 14, a chroma demodulation circuit 15, The processing performed by the processing system 19 including the circuit 16 is collectively performed.

【0014】この発明の一実施形態における全体的な構
成の一例を図2に示す。受信アンテナ11、チューナー
12および中間周波増幅回路13によって順次なされる
処理によって生成されるコンポジット信号がA/D変換
器21に供給され、例えば色副搬送波周波数fSCの4倍
のサンプリング周波数(4fSC)の下でA/D変換され
てクラス分類適応処理部22に供給される。クラス分類
適応処理部22は、ベースバンドのY,R−Y,B−Y
コンポーネント信号を生成し、生成したY,R−Y,B
−Yコンポーネント信号をマトリクス回路23に供給す
る。マトリクス回路23は、供給される信号に基づいて
原色色信号R,G,Bを生成し、生成した原色色信号
R,G,BをCRT17に供給する。
FIG. 2 shows an example of the overall configuration according to an embodiment of the present invention. Receiving antenna 11, a tuner 12 and intermediate frequency composite signal generated by the processing sequence is performed by the amplifier circuit 13 is supplied to the A / D converter 21, for example, the color subcarrier frequency f 4 times the sampling frequency of the SC (4f SC ), And is supplied to the classification adaptive processing unit 22. The classification adaptive processing unit 22 includes baseband Y, RY, BY
A component signal is generated, and the generated Y, RY, B
-Supply the Y component signal to the matrix circuit 23; The matrix circuit 23 generates primary color signals R, G, and B based on the supplied signals, and supplies the generated primary color signals R, G, and B to the CRT 17.

【0015】また、この発明の一実施形態における全体
的な構成の他の例を図3に示す。受信アンテナ11、チ
ューナー12および中間周波増幅回路13によって順次
なされる処理によって生成される信号がA/D変換器3
1に供給され、A/D変換されてクラス分類適応処理部
32に供給される。クラス分類適応処理部32は、供給
される信号に基づいて原色色信号R,G,Bを生成し、
生成した原色色信号R,G,BをCRT17に供給す
る。
FIG. 3 shows another example of the overall configuration according to the embodiment of the present invention. A signal generated by processing sequentially performed by the receiving antenna 11, the tuner 12, and the intermediate frequency amplification circuit 13 is converted into an A / D converter 3.
1, A / D converted, and supplied to the classification adaptive processing unit 32. The classification adaptive processing unit 32 generates primary color signals R, G, and B based on the supplied signals,
The generated primary color signals R, G, B are supplied to the CRT 17.

【0016】クラス分類適応処理部22またはクラス分
類適応処理部32の構成について、図4を参照して説明
する。コンポジット信号としてのNTSC信号が領域抽
出回路51、55に供給される。領域抽出回路51は、
供給されるNTSC信号からクラスタップ、すなわちク
ラス分類を行うために必要な画素を抽出し、クラスタッ
プをパターン検出回路52に供給する。パターン検出回
路52は、クラスタップとして供給される各画素の位相
に関連して、後述するような演算処理を行い、演算処理
の結果に基づいてNTSC信号のパターンを検出し、検
出結果をクラスコード決定回路53に供給する。
The configuration of the classification adaptive processing unit 22 or the classification adaptive processing unit 32 will be described with reference to FIG. The NTSC signal as a composite signal is supplied to the area extraction circuits 51 and 55. The region extraction circuit 51
A class tap, that is, a pixel necessary for performing class classification is extracted from the supplied NTSC signal, and the class tap is supplied to the pattern detection circuit 52. The pattern detection circuit 52 performs an arithmetic process as described below with respect to the phase of each pixel supplied as a class tap, detects a pattern of an NTSC signal based on the result of the arithmetic process, and classifies the detection result with a class code. It is supplied to the decision circuit 53.

【0017】クラスコード決定回路53は、パターン検
出回路52から供給される検出結果に基づいてクラスを
決定し、決定したクラスに対応するクラスコードを発生
する。発生したクラスコードは、係数メモリ54に供給
される。係数メモリ54は、後述する学習によって求め
られたクラス毎の予測係数を予め記憶しており、記憶内
容の内から、供給されるクラスコードに対応する予測係
数を出力する。係数メモリ54の出力は予測演算回路5
6に供給される。
The class code determination circuit 53 determines a class based on the detection result supplied from the pattern detection circuit 52, and generates a class code corresponding to the determined class. The generated class code is supplied to the coefficient memory 54. The coefficient memory 54 stores in advance prediction coefficients for each class obtained by learning described later, and outputs a prediction coefficient corresponding to the supplied class code from the stored contents. The output of the coefficient memory 54 is the prediction operation circuit 5
6.

【0018】一方、領域抽出回路55は、供給されるN
TSC信号から、注目画素と所定の位置関係にある画素
を抽出し、抽出した画素に係る画素データを予測演算回
路56に供給する。予測演算回路56は、供給される画
素データと、係数メモリ54の出力とを用いて以下の式
(1)に従う予測演算を行うことによって例えば輝度信
号Yを生成する。なお、予測演算に使用される画素(領
域抽出回路55が抽出する画素)は、予測タップと称さ
れる。
On the other hand, the area extraction circuit 55
A pixel having a predetermined positional relationship with the target pixel is extracted from the TSC signal, and pixel data relating to the extracted pixel is supplied to the prediction calculation circuit 56. The prediction calculation circuit 56 generates a luminance signal Y by performing a prediction calculation according to the following equation (1) using the supplied pixel data and the output of the coefficient memory 54. The pixels used for the prediction calculation (pixels extracted by the region extraction circuit 55) are called prediction taps.

【0019】 y=w1 ×x1 +w2 ×x2 +‥‥+wn ×xn (1) ここで、yは、予測推定される注目画素である。また、
1 ,‥‥,xn が各予測タップであり、w1 ,‥‥,
n が各予測係数である。
Y = w 1 × x 1 + w 2 × x 2 + ‥‥ + w n × x n (1) Here, y is a target pixel to be predicted and estimated. Also,
x 1 , ‥‥, x n are each prediction tap, w 1 , ‥‥,
w n is each prediction coefficient.

【0020】次に、学習すなわち、クラス毎の予測係数
を得るための構成の一例を図5に示す。一般に、学習を
行うためには、クラス分類適応処理によって生成される
べき信号と同一の信号形式の信号(以下、教師信号と称
する)が入力され,教師信号と、教師信号に基づいて生
成される、クラス分類適応処理において入力されるべき
信号と同一の信号形式の信号(以下、生徒信号と称す
る)とに基づく演算によって予測係数が決定される。
Next, FIG. 5 shows an example of a configuration for learning, that is, obtaining a prediction coefficient for each class. Generally, in order to perform learning, a signal having the same signal format as a signal to be generated by the classification adaptive processing (hereinafter, referred to as a teacher signal) is input, and generated based on the teacher signal and the teacher signal. The prediction coefficient is determined by an operation based on a signal to be input in the classification adaptive processing and a signal having the same signal format (hereinafter, referred to as a student signal).

【0021】ここでは、教師信号として輝度信号Yが入
力される。輝度信号Yは、NTSCエンコーダ61と正
規方程式生成回路66とに供給される。また、色差信号
R−Y,B−YがNTSCエンコーダ61に供給され
る。NTSCエンコーダ61は、供給されるY,R−
Y,B−Yを生徒信号としてのNTSC信号に変換し、
このNTSC信号を領域抽出回路62、65に供給す
る。領域抽出回路62は、供給されるNTSC信号から
クラスタップを抽出し、抽出したクラスタップをパター
ン検出回路63に供給する。パターン検出回路63は、
供給されるクラスタップに基づいて、NTSC信号のパ
ターンを検出し、検出結果をクラスコード決定回路64
に供給する。
Here, a luminance signal Y is input as a teacher signal. The luminance signal Y is supplied to the NTSC encoder 61 and the normal equation generation circuit 66. Further, the color difference signals RY and BY are supplied to the NTSC encoder 61. The NTSC encoder 61 receives the supplied Y, R-
Y, BY are converted into NTSC signals as student signals,
This NTSC signal is supplied to region extraction circuits 62 and 65. The area extraction circuit 62 extracts a class tap from the supplied NTSC signal, and supplies the extracted class tap to the pattern detection circuit 63. The pattern detection circuit 63
A pattern of the NTSC signal is detected based on the supplied class tap, and the detection result is used as a class code determination circuit 64.
To supply.

【0022】クラスコード決定回路64は、パターン検
出回路63から供給される検出結果に基づいてクラスを
決定し、決定したクラスに対応するクラスコードを発生
する。発生したクラスコードは、正規方程式生成部66
に供給される。一方、領域抽出回路65は、供給される
NTSC信号から予測タップを抽出し、抽出した予測タ
ップを正規方程式生成部66に供給する。正規方程式生
成部66は、輝度信号Yと、領域抽出回路65から供給
される予測タップとに基づいて正規方程式を解くために
必要なデータを生成する。正規方程式は、後述するよう
に、クラス毎の予測係数を解とする方程式である。
The class code determination circuit 64 determines a class based on the detection result supplied from the pattern detection circuit 63, and generates a class code corresponding to the determined class. The generated class code is transmitted to the normal equation generation unit 66.
Supplied to On the other hand, the region extraction circuit 65 extracts prediction taps from the supplied NTSC signal, and supplies the extracted prediction taps to the normal equation generation unit 66. The normal equation generation unit 66 generates data necessary for solving the normal equation based on the luminance signal Y and the prediction tap supplied from the area extraction circuit 65. The normal equation is an equation using a prediction coefficient for each class as a solution, as described later.

【0023】正規方程式生成部66の出力が係数決定回
路67に供給される。係数決定回路67は、充分なデー
タが供給された場合に、例えば最小自乗法を用いて正規
方程式を解くことによって、予測係数w1 ,‥‥,wn
を算出する。算出された予測係数がメモリ68に供給さ
れ、記憶される。メモリ68に記憶された予測係数が図
4中の係数メモリ54にロードされる。なお、上述の説
明は輝度信号Yを予測するための予測係数を生成する場
合についてのものであるが、R−Y,B−Y,R,G,
B等を予測するための予測係数を生成するためには、予
測すべき信号をYの代わりに教師信号として入力させれ
ば良い。
The output of the normal equation generator 66 is supplied to a coefficient determining circuit 67. When sufficient data is supplied, the coefficient determination circuit 67 solves the normal equation using, for example, the least squares method, thereby obtaining the prediction coefficients w 1 , ‥‥, w n
Is calculated. The calculated prediction coefficients are supplied to the memory 68 and stored. The prediction coefficients stored in the memory 68 are loaded into the coefficient memory 54 in FIG. Note that the above description is for the case of generating a prediction coefficient for predicting the luminance signal Y, but RY, BY, R, G,
In order to generate a prediction coefficient for predicting B or the like, a signal to be predicted may be input as a teacher signal instead of Y.

【0024】正規方程式について説明する。上述の式
(1)において、学習前は予測係数w1 ,‥‥,wn
未定係数である。学習は、クラス毎に複数の教師信号を
入力することによって行う。教師信号としてm種類を入
力する場合、式(1)から、以下の式(2)が設定され
る。
The normal equation will be described. In the above equation (1), before learning, the prediction coefficients w 1 , ‥‥, and w n are undetermined coefficients. Learning is performed by inputting a plurality of teacher signals for each class. When m types are input as the teacher signal, the following equation (2) is set from the equation (1).

【0025】 yk =w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn (2) (k=1,2,‥‥,m) m>nの場合、予測係数w1 ,‥‥,wn は一意に決ま
らないので、誤差ベクトルeの要素ek を以下の式
(3)で定義して、式(4)によって定義される誤差ベ
クトルeを最小とするように予測係数を定めるようにす
る。すなわち、いわゆる最小自乗法によって予測係数を
一意に定める。
Y k = w 1 × x k1 + w 2 × x k2 + ‥‥ + w n × x kn (2) (k = 1,2, ‥‥, m) When m> n, the prediction coefficients w 1 , Since ‥‥ and w n are not uniquely determined, the element e k of the error vector e is defined by the following equation (3), and the prediction coefficient is set so as to minimize the error vector e defined by the equation (4). To be determined. That is, the prediction coefficient is uniquely determined by the so-called least square method.

【0026】 ek =yk −{w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn} (3) (k=1,2,‥‥m)E k = y k − {w 1 × x k1 + w 2 × x k2 + Δ + w n × x kn } (3) (k = 1, 2, Δm)

【0027】[0027]

【数1】 (Equation 1)

【0028】式(4)のe2 を最小とする予測係数を求
めるための実際的な計算方法としては、e2 を予測係数
i (i=1,2‥‥)で偏微分し(式(5))、iの各値に
ついて偏微分値が0となるように各予測係数wi を定め
れば良い。
As a practical calculation method for obtaining the prediction coefficient minimizing e 2 in Equation (4), partial differentiation of e 2 with the prediction coefficient w i (i = 1, 2 ‥‥) is performed (Equation 4). (5)) Each prediction coefficient w i may be determined so that the partial differential value becomes 0 for each value of i .

【0029】[0029]

【数2】 (Equation 2)

【0030】式(5)から各予測係数wi を定める具体
的な手順について説明する。式(6)、(7)のように
ji,Yi を定義すると、式(5)は、式(8)の行列
式の形に書くことができる。
A specific procedure for determining each prediction coefficient w i from equation (5) will be described. If X ji and Y i are defined as in equations (6) and (7), equation (5) can be written in the form of a determinant of equation (8).

【0031】[0031]

【数3】 (Equation 3)

【0032】[0032]

【数4】 (Equation 4)

【0033】[0033]

【数5】 (Equation 5)

【0034】式(8)が一般に正規方程式と呼ばれるも
のである。ここで、Xji(j,i=1,2‥‥n),お
よびYi (i=1,2‥‥n)は、教師信号および生徒
信号に基づいて計算される。すなわち、正規方程式生成
回路66は、XjiおよびYiの値を算出して正規方程式
(8)を決定し、係数決定回路67は、正規方程式
(8)を解いて各予測係数wi を定める処理を行う。な
お、予測係数は、コンポジット信号としてNTSC信号
中の各画素におけるクロマの位相(サンプリング周波数
4fSCの下では、4種類のサンプリング位相)を考慮し
て、クロマの位相毎に生成される。
Equation (8) is generally called a normal equation. Here, X ji (j, i = 1, 2 ‥‥ n) and Y i (i = 1, 2 ‥‥ n) are calculated based on the teacher signal and the student signal. That is, the normal equation generation circuit 66 calculates the values of X ji and Y i to determine the normal equation (8), and the coefficient determination circuit 67 solves the normal equation (8) to determine each prediction coefficient w i . Perform processing. Note that the prediction coefficient is generated for each chroma phase in consideration of the chroma phase (four types of sampling phases under a sampling frequency of 4f SC ) in each pixel in the NTSC signal as a composite signal.

【0035】以上のようなクラス分類適応処理におい
て、クラス分類を行うために入力画像信号の波形の特徴
を求める方法としては、パターン検出回路52におい
て、例えばADRC(Adaptive Dynamic Range Coding
)処理を行うことにより、クラスタップとして抽出さ
れる画素の画像データを再量子化する方法等が使用され
る。特に、NTSC信号等のコンポジット信号からコン
ポーネント信号を生成するためにクラス分類適応処理を
用いる場合には、ドット妨害、クロスカラー等のY/C
分離エラーに起因する画質劣化は画像のエッジ部分(変
化点)で発生することに留意して、当該変化点を捉える
ようなクラス分類を行うことが有効であると考えられ
る。
In the above-described class classification adaptive processing, as a method of obtaining the characteristics of the waveform of an input image signal in order to perform class classification, the pattern detection circuit 52 uses, for example, an ADRC (Adaptive Dynamic Range Coding).
A) A method of requantizing the image data of the pixel extracted as a class tap by performing the processing is used. In particular, when class classification adaptive processing is used to generate a component signal from a composite signal such as an NTSC signal, Y / C signals such as dot disturbance, cross color, etc.
Keeping in mind that the image quality degradation due to the separation error occurs at the edge portion (change point) of the image, it is considered effective to perform class classification that captures the change point.

【0036】但し、NTSC信号は、輝度信号Yの上に
クロマ信号Cが平衡変調されて多重化されているので、
NTSC信号に対して単純にADRC処理を行っても、
カラーサブキャリア信号の影響によって画素間の色の位
相が異なるため、的確な波形分類を行うことはできな
い。かかる問題を考慮して有効なクラス分類を行うため
に、色の位相が同位相となる画素のみを用いて、ADR
C処理等によってクラス分類を行う方法が提案されてい
る。しかし、このような方法では、注目画素の近傍のパ
ターンを見ることは困難である。
However, in the NTSC signal, since the chroma signal C is balanced-modulated and multiplexed on the luminance signal Y,
Even if ADRC processing is simply performed on the NTSC signal,
Since the color phase between pixels differs due to the influence of the color subcarrier signal, accurate waveform classification cannot be performed. In order to perform effective classification in consideration of such a problem, ADR is performed using only pixels having the same color phase.
There has been proposed a method of performing class classification by C processing or the like. However, with such a method, it is difficult to see a pattern near the pixel of interest.

【0037】この点について図6を参照して説明する。
図6はNTSC信号を色副搬送波周波数fSCの4倍のサ
ンプリング周波数(4fSC)でサンプリングした場合の
クロマ信号Cの位相を示す略線図である。図6Aは現在
より2時点前のフィールドについて図示したものであ
り、図6Bは現在のフィールドについて図示したもので
ある。ここで、縦方向、横方向がそれぞれ、画像中の垂
直、水平に対応しており、また、黒丸、黒四角、白丸、
白四角がそれぞれ、注目画素のクロマ位相に対して0
度、+90度、+180度、+270度の位相を示す。
図6Aと図6Bとにおいて、対応する位置の画素間で位
相が180度ずれている。図6Bからわかるように、注
目画素に対して同一位相となる画素は、注目画素に隣接
する8個の画素中には含まれず、最も近接する画素でも
注目画素から垂直方向に数えて2番目のものである。
This will be described with reference to FIG.
FIG. 6 is a schematic diagram showing the phase of the chroma signal C when the NTSC signal is sampled at a sampling frequency (4f SC ) four times the color subcarrier frequency f SC . FIG. 6A illustrates the field two times before the present, and FIG. 6B illustrates the current field. Here, the vertical direction and the horizontal direction correspond to the vertical and horizontal directions in the image, respectively, and a black circle, a black square, a white circle,
Each white square is 0 with respect to the chroma phase of the pixel of interest.
Degrees, +90 degrees, +180 degrees, and +270 degrees.
In FIGS. 6A and 6B, the phase is shifted by 180 degrees between the pixels at the corresponding positions. As can be seen from FIG. 6B, the pixel having the same phase as the target pixel is not included in the eight pixels adjacent to the target pixel, and the nearest pixel is the second pixel counted from the target pixel in the vertical direction. Things.

【0038】そこで、この発明では、パターン検出回路
52において、注目画素と時間的または空間的に近接す
る画素を用いて簡易Y/C分離を行い、簡易Y/C分離
の結果に基づいてADRC処理等を行ってクラス分類を
行うようにしている。簡易Y/C分離は、以下のような
演算処理である。まず、色に関して互いに逆位相の画素
同士についての画素値の平均値を輝度信号とみなし、Y
とする。また、注目画素と色に関して同位相の画素の画
素値から逆位相の画素の画素値を引いて2で割ったもの
を色差信号とみなし、Cとする。ここで、色差信号は、
輝度信号とは異なり、色に関して互いに逆位相の画素同
士についての画素値の平均をとった場合には色のサブキ
ャリアの影響が除去できないので、上述したようにして
Cを演算する。
Therefore, according to the present invention, the pattern detection circuit 52 performs simple Y / C separation using pixels that are temporally or spatially close to the target pixel, and performs ADRC processing based on the result of the simple Y / C separation. And so on to perform class classification. The simple Y / C separation is an operation process as described below. First, an average value of pixel values of pixels having mutually opposite phases with respect to color is regarded as a luminance signal, and Y
And Further, a value obtained by subtracting the pixel value of the pixel of the opposite phase from the pixel value of the pixel of the same phase with respect to the color of the target pixel and dividing by 2 is regarded as a color difference signal, and is represented by C. Here, the color difference signal is
Unlike the luminance signal, when the average of the pixel values of the pixels having the opposite phases with respect to the color is taken, the influence of the subcarrier of the color cannot be removed. Therefore, C is calculated as described above.

【0039】例えば、図7に示すように、互いに交差す
る2本の斜線を付して示す注目画素をa5 と、a5 と同
じライン上にあるa4 ,a6 に対して2フィールド前の
同一位置の画素(すなわちa11,a10,a12)を用いて
簡易Y/C分離を行った結果をY1 ,Y2 ,Y3 および
1 ,C2 ,C3 とする。ここで、Yi およびCi (i
=1,2,3)は、次の式で求められる。
For example, as shown in FIG. 7, a pixel of interest indicated by two oblique lines crossing each other is a 5 and two fields before a 4 and a 6 on the same line as a 5. the results of the simplified Y / C separation and Y 1, Y 2, Y 3 and C 1, C 2, C 3 with the pixels at the same position (i.e. a 11, a 10, a 12 ). Where Y i and C i (i
= 1, 2, 3) is obtained by the following equation.

【0040】 Y 1 =(a4 + a 10)/2,Y 2 =(a5 + a 11)/2,Y 3 =(a6 + a 12)/2 (9) C 1 =(a4 - a 10)/2,C 2 =(a5 - a 11)/2,C 3 =(a6 - a 12)/2 (10) また、同様な方法でa5 およびa5 と同じライン上にあ
るa4 ,a6 に対して1ライン前の同一位置の画素(a
2 ,a1 ,a3 )を用いて簡易Y/C分離を行った結果
をY4 ,Y5 ,Y6 およびC4 ,C5 ,C6 とする。こ
こで、Yi およびCi (i=4,5,6)は、次の式で
求められる。
Y 1 = (a 4 + a 10 ) / 2, Y 2 = (a 5 + a 11 ) / 2, Y 3 = (a 6 + a 12 ) / 2 (9) C 1 = (a 4 - a 10) / 2, C 2 = (a 5 - a 11) / 2, C 3 = (a 6 - a 12) / 2 (10) Moreover, the same line on the a 5 and a 5 in a similar manner a 4, 1 line before the pixels at the same position relative to a 6 in (a
2 , a 1 , a 3 ), the results of simple Y / C separation are defined as Y 4 , Y 5 , Y 6 and C 4 , C 5 , C 6 . Here, Y i and C i (i = 4, 5, 6) are obtained by the following equations.

【0041】 Y 4 =(a4 + a 1 )/2,Y 2 =(a5 + a 2 )/2,Y 3 =(a6 + a 3 )/2 (11) C 4 =(a1 - a 4 )/2,C 2 =(a5 - a 2 )/2,C 3 =(a3 - a 6 )/2 (12) また、同様な方法でa5 およびa5 と同じライン上にあ
るa4 ,a6 に対して1ライン後の同一位置の画素(a
8 ,a7 ,a9 )を用いて簡易Y/C分離を行った結果
をY7 ,Y8 ,Y9 およびC7 ,C8 ,C9 とする。こ
こで、Yi およびCi (i=7,8,9)は、次の式で
求められる。
Y 4 = (a 4 + a 1 ) / 2, Y 2 = (a 5 + a 2 ) / 2, Y 3 = (a 6 + a 3 ) / 2 (11) C 4 = (a 1 -a 4 ) / 2, C 2 = (a 5 -a 2 ) / 2, C 3 = (a 3 -a 6 ) / 2 (12) In the same way, on the same line as a 5 and a 5 At the same position after one line with respect to a 4 and a 6 (a
8, a 7, a 9) The results of the simplified Y / C separation and Y 7, Y 8, Y 9 and C 7, C 8, C 9 with. Here, Y i and C i (i = 7, 8, 9) are obtained by the following equations.

【0042】 Y 7 =(a4 + a 7 )/2,Y 8 =(a5 + a 8 )/2,Y 9 =(a6 + a 9 )/2 (13) C 7 =(a7 - a 4 )/2,C 2 =(a5 - a 8 )/2,C 3 =(a9 - a 6 )/2 (14) このようにして得られた、簡易Y/C分離出力のY
i (i=1,2,‥‥,9)およびCi (i=1,2,
‥‥,9)は、図7中で点線で囲んで示す領域におけ
る、注目画素近傍の波形の特徴を含むものである。これ
らYi またはCi から、ADRCを用いて波形に特徴を
求め、クラス分類を行う。
Y 7 = (a 4 + a 7 ) / 2, Y 8 = (a 5 + a 8 ) / 2, Y 9 = (a 6 + a 9 ) / 2 (13) C 7 = (a 7 - a 4) / 2, C 2 = (a 5 - a 8) / 2, C 3 = (a 9 - a 6) / 2 (14) thus obtained, the simplified Y / C separation output Y
i (i = 1, 2, ‥‥, 9) and C i (i = 1, 2, 2)
{, 9) include the characteristic of the waveform in the vicinity of the pixel of interest in the area surrounded by the dotted line in FIG. These Y i or C i, obtains the features in the waveform using the ADRC, performing classification.

【0043】実際のクラス分類の一例について以下に説
明する。図7中で点線で囲んで示す領域内の画像が一様
である場合には、簡易Y/C分離出力であるYi も一様
である。逆に、図7中で点線で囲んで示す領域内の画像
に変化がある場合には、Yiが変化を反映した値とな
る。そこで、以下に示すようなADRC処理を用いてY
i の特徴に沿ったクラス分類を行うことで、注目画素近
傍の波形の特徴をクラス分類結果に反映させることがで
きる。
An example of the actual class classification will be described below. When the image in the area surrounded by the dotted line in FIG. 7 is uniform, the simplified Y / C separation output Y i is also uniform. Conversely, when there is a change in the image in the area surrounded by the dotted line in FIG. 7, Y i is a value reflecting the change. Therefore, YRC is performed by using an ADRC process as shown below.
By performing the class classification according to the characteristic of i, the characteristic of the waveform near the target pixel can be reflected in the classification result.

【0044】 codei =(Yi −MIN)×2n /DR DR=MAX−MIN+1 ここで、codei はADRCコード、MINはYi
最小値、MAXはYiの最大値、DRはYi のダイナミ
ックレンジ、nは再量子化ビット数を、それぞれ表して
いる。
The code i = (Y i -MIN) × 2 n / DR DR = MAX-MIN + 1 where, code i is ADRC code, MIN is the minimum value of Y i, MAX is the maximum value of Y i, DR is Y i represents the dynamic range, and n represents the number of requantization bits.

【0045】例えば、図7に示したような、i=1,2
‥‥,9の場合には、n=1である場合(すなわち、1
ビットADRCの場合)、Yi の値に基づいて29 のパ
ターンの何れかにクラス分類される。また、Ci につい
ても、Yi の場合と同様に、ADRC処理を用いてCi
の特徴に沿ったクラス分類を行うことにより、注目画素
近傍の波形の特徴をクラス分類結果に反映させることが
できる。
For example, as shown in FIG.
‥‥, 9, when n = 1 (ie, 1
For bit ADRC), it is classification into one of 2 9 patterns based on the value of Y i. As for the C i, as in the case of Y i, C i using ADRC processing
By performing the class classification in accordance with the characteristics described above, the characteristics of the waveform in the vicinity of the target pixel can be reflected in the classification result.

【0046】上述したような簡易Y/C分離出力に基づ
いてクラス分類適応処理を行うことにより、コンポジッ
ト信号としてのNTSC信号からコンポーネント信号を
生成する方法の一例を、図8のフローチャートを参照し
て説明する。ステップS1としてNTSC信号内に注目
画素を選択する。ステップS2として、注目画素および
その近傍の画素を抽出する。ステップS3として、ステ
ップS2によって抽出された画素のデータに基づく上述
の式(9)〜式(14)等に従う演算により、簡易Y/
C分離を行う。そして、ステップS4として、簡易Y/
C分離出力に対してADRC処理を行ってADRCコー
ドを生成し、さらに、ステップS5として、ADRCコ
ードに基づいてクラス分類を行う。
An example of a method of generating a component signal from an NTSC signal as a composite signal by performing the class classification adaptive processing based on the simplified Y / C separation output as described above will be described with reference to the flowchart of FIG. explain. At step S1, a target pixel is selected in the NTSC signal. In step S2, the pixel of interest and its neighboring pixels are extracted. In step S3, the simplified Y / Y is calculated by the calculation based on the above-described equations (9) to (14) based on the pixel data extracted in step S2.
C separation is performed. Then, as step S4, simple Y /
An ADRC process is performed on the C separation output to generate an ADRC code, and further, as step S5, class classification is performed based on the ADRC code.

【0047】次に、ステップS6として、ステップS5
によるクラス分類の結果に対応する予測係数を読み出
す。ここで、読み出されるべき予測係数は、図4中の係
数メモリ54等の所定の記憶回路に予め記憶されてい
る。一方、ステップS7として、NTSC信号中の、注
目画素およびその近傍の画素の内から予測タップを抽出
する。ステップS8として、ステップS6によって読み
出された予測係数とステップS7によって抽出された予
測タップとを使用して、上述の式(1)等に従う予測演
算を行う。
Next, as step S6, step S5
The prediction coefficient corresponding to the result of the class classification by is read out. Here, the prediction coefficient to be read is stored in a predetermined storage circuit such as the coefficient memory 54 in FIG. 4 in advance. On the other hand, as step S7, a prediction tap is extracted from the pixel of interest and its neighboring pixels in the NTSC signal. In step S8, a prediction operation according to the above-described equation (1) or the like is performed using the prediction coefficient read in step S6 and the prediction tap extracted in step S7.

【0048】さらに、ステップS9として、ステップS
8によって予測生成された輝度信号Y等のコンポーネン
ト信号を出力する。そして、ステップS10として、全
ての画素についてステップS1〜ステップS9までの処
理が終了したか否かを判定する。全ての画素について処
理が終了したと判定される場合には処理を終了し、それ
以外の場合にはステップS1に移行して、未処理の画素
についての処理を行う。
Further, as step S9, step S
8 to output a component signal such as a luminance signal Y predicted and generated. Then, as step S10, it is determined whether or not the processing of steps S1 to S9 has been completed for all the pixels. If it is determined that the processing has been completed for all the pixels, the processing is ended. Otherwise, the process proceeds to step S1, and the processing is performed for the unprocessed pixels.

【0049】また、この発明の一実施形態における予測
タップのタップ構造の一例を図9に示す。ここで、注目
画素には互いに交差する2本の斜線を付して示す。ここ
では、注目画素を含む現フィールド内の15個の画素
と、2フィールド前のフィールド内の5個の画素との計
20個のタップ(点線で囲んで示した)と、オフセット
成分に対して割り当てられる1個のタップの計21個の
画素が予測タップとして使用される。ここで、オフセッ
ト成分は、コンポジット信号からコンポーネント信号を
生成する処理において、コンポジット信号とコンポーネ
ント信号との間に生じるDC的なずれである。
FIG. 9 shows an example of a tap structure of a prediction tap according to an embodiment of the present invention. Here, the target pixel is shown with two oblique lines crossing each other. Here, a total of 20 taps (shown by a dotted line) of 15 pixels in the current field including the pixel of interest and 5 pixels in the field two fields before, and an offset component A total of 21 pixels of one assigned tap are used as prediction taps. Here, the offset component is a DC-like shift generated between the composite signal and the component signal in the process of generating the component signal from the composite signal.

【0050】オフセット成分に対して割り当てられる予
測タップは、他の予測タップと同様に扱うことができ
る。また、かかるオフセット成分は理論的な計算によっ
て求めることもできるので、オフセット成分に対して割
り当てられる予測タップのデータとして、理論値を固定
的に用いるようにしても良い。一般的には、予測タップ
について上述した2個の扱いの何れを用いても、実際上
は同様の動作精度が得られる。
The prediction tap assigned to the offset component can be handled in the same manner as other prediction taps. Further, since such an offset component can be obtained by theoretical calculation, a theoretical value may be fixedly used as data of a prediction tap assigned to the offset component. Generally, the same operation accuracy can be obtained in practice by using any of the two treatments described above for the prediction tap.

【0051】上述の説明は、コンポジット信号としての
NTSC信号からコンポーネント信号としての輝度信号
Yを予測する場合についてのものであるが、NTSC信
号以外の信号をコンポジット信号として用いる場合に
も、この発明を適用することは可能である。また、コン
ポーネント信号としてR−Y,B−Y,R,G,B等を
予測する場合にも、この発明を適用することができる。
但し、この場合には、予測すべきコンポーネント信号に
対応する予測係数を生成するための学習を行う必要があ
る。また、予測した輝度信号Yを原コンポジット信号か
ら差し引くことによって色信号Cを得るようにしても良
いし、逆に、クラス分類適応処理によって色信号Cを予
測し、予測した色信号Cを原コンポジット信号から差し
引くことによって色信号Cを得るようにしても良い。
The above description is for the case where the luminance signal Y as a component signal is predicted from the NTSC signal as a composite signal. However, the present invention is also applicable to a case where a signal other than the NTSC signal is used as a composite signal. It is possible to apply. The present invention can also be applied to the case where RY, BY, R, G, B, etc. are predicted as component signals.
However, in this case, it is necessary to perform learning for generating a prediction coefficient corresponding to the component signal to be predicted. Further, the color signal C may be obtained by subtracting the predicted luminance signal Y from the original composite signal, or conversely, the color signal C is predicted by the class classification adaptive processing, and the predicted color signal C is converted to the original composite signal. The color signal C may be obtained by subtracting from the signal.

【0052】また、上述したこの発明の一実施形態は、
テレビジョン受像機においてコンポジット信号からコン
ポーネント信号を生成するための画像情報変換を行う場
合においてこの発明を適用したものであるが、この発明
の適用対象はこれに限定されるものではない。例えば、
テレビジョン受像機用のチューナやアダプタ、VTR等
のビデオレコーダ、および放送業務用の設備において画
像情報変換を行う場合に、この発明を適用することがで
きる。
The above-described embodiment of the present invention
Although the present invention is applied to a case where image information conversion for generating a component signal from a composite signal is performed in a television receiver, the application of the present invention is not limited to this. For example,
The present invention can be applied to a case where image information conversion is performed in a tuner or adapter for a television receiver, a video recorder such as a VTR, and equipment for broadcasting.

【0053】[0053]

【発明の効果】上述したように、この発明は、クラス分
類適応処理を用いてNTSC信号等のコンポジット信号
からコンポーネント信号を生成する等の画像情報変換を
行うに際し、クラスタップとして抽出される画素データ
に、各画素の位相に関連する所定の演算処理を行い、演
算処理の結果に基づいて1ビットADRC処理等を行う
ことによってクラス分類を行うようにしたものである。
As described above, according to the present invention, when performing image information conversion such as generation of a component signal from a composite signal such as an NTSC signal using the classification adaptive processing, pixel data extracted as a class tap is obtained. In addition, a predetermined arithmetic process related to the phase of each pixel is performed, and a 1-bit ADRC process or the like is performed based on the result of the arithmetic process to perform class classification.

【0054】このため、NTSC信号等、各画素が位置
によって異なる位相を有する画像信号が入力画像信号と
される場合にも、注目画素の近傍の画素に基づく演算の
結果を使用して、適切なクラス分類を行うことができ
る。
Therefore, even when an image signal in which each pixel has a different phase depending on a position, such as an NTSC signal, is used as an input image signal, an appropriate result can be obtained by using a calculation result based on a pixel near the target pixel. Classification can be performed.

【0055】このため、コンポジット信号にY/C分離
を施し、その後のマトリクス処理等によってコンポーネ
ント信号を得るような処理に係る構成に比較して、回路
規模を削減することができると共に、Y/C分離エラー
に起因するドット妨害、クロスカラー等の様々な劣化を
軽減することができる。
For this reason, the circuit scale can be reduced and the Y / C ratio can be reduced as compared with a configuration in which Y / C separation is performed on the composite signal and a component signal is obtained by matrix processing or the like thereafter. Various deteriorations such as dot disturbance and cross color caused by the separation error can be reduced.

【0056】特に、注目画素と同一位相の画素をクラス
タップとする場合等に比較して、注目画素に対してより
近い位置の画素データをクラスタップとして抽出できる
ので、注目画素近傍のクラス分類をより正確に行うこと
ができる。このため、画質劣化をより適切に軽減するこ
とが可能となる。
In particular, pixel data at a position closer to the target pixel can be extracted as a class tap as compared with a case where a pixel having the same phase as the target pixel is used as a class tap. It can be done more accurately. For this reason, it is possible to more appropriately reduce the image quality deterioration.

【図面の簡単な説明】[Brief description of the drawings]

【図1】NTSC方式の一般的なテレビジョン受像機の
全体的な構成の一例を示すブロック図である。
FIG. 1 is a block diagram illustrating an example of the overall configuration of a general NTSC television receiver.

【図2】この発明の一実施形態における全体的な構成の
一例を示すブロック図である。
FIG. 2 is a block diagram illustrating an example of an overall configuration according to an embodiment of the present invention.

【図3】この発明の一実施形態における全体的な構成の
他の例を示すブロック図である。
FIG. 3 is a block diagram showing another example of the overall configuration according to the embodiment of the present invention.

【図4】この発明の一実施形態における予測推定に係る
構成の一例を示すブロック図である。
FIG. 4 is a block diagram illustrating an example of a configuration related to prediction estimation according to an embodiment of the present invention.

【図5】この発明の一実施形態における学習に係る構成
の一例を示すブロック図である。
FIG. 5 is a block diagram illustrating an example of a configuration related to learning according to an embodiment of the present invention.

【図6】NTSC信号中の画素の位相について説明する
ための略線図である。
FIG. 6 is a schematic diagram for explaining a phase of a pixel in an NTSC signal.

【図7】この発明の一実施形態においてクラス分類を行
うために抽出される画素位置の一例を示す略線図であ
る。
FIG. 7 is a schematic diagram illustrating an example of pixel positions extracted for performing class classification in one embodiment of the present invention.

【図8】この発明の一実施形態における処理について説
明するためのフローチャートである。
FIG. 8 is a flowchart illustrating a process according to an embodiment of the present invention.

【図9】この発明の一実施形態における予測タップのタ
ップ構造の一例を示す略線図である。
FIG. 9 is a schematic diagram illustrating an example of a tap structure of a prediction tap according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

22、32・・・クラス分類適応処理部、52・・・パ
ターン検出回路
22, 32 ... classification adaptive processing unit, 52 ... pattern detection circuit

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成11年1月29日(1999.1.2
9)
[Submission date] January 29, 1999 (1999.1.2
9)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0026[Correction target item name] 0026

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0026】 ek =yk −{w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn} (3) (k=1,2,‥‥m)E k = y k − {w 1 × x k1 + w 2 × x k2 + ‥‥ + w n × x kn } (3) (k = 1, 2, ‥‥ , m)

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0031[Correction target item name] 0031

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0031】[0031]

【数3】 (Equation 3)

【手続補正3】[Procedure amendment 3]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0032[Correction target item name] 0032

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0032】[0032]

【数4】 (Equation 4)

【手続補正4】[Procedure amendment 4]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0034[Correction target item name] 0034

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0034】式(8)が一般に正規方程式と呼ばれるも
のである。ここで、Xji(j,i=1,2‥‥n),
およびYi (i=1,2‥‥n)は、教師信号および
生徒信号に基づいて計算される。すなわち、正規方程式
生成回路66は、XjiおよびYi の値を算出して正規方
程式(8)を決定し、係数決定回路67は、正規方程式
(8)を解いて各予測係数wi を定める処理を行う。な
お、予測係数は、コンポジット信号としてNTSC信号
中の各画素におけるクロマの位相(サンプリング周波数
4fSCの下では、4種類のサンプリング位相)を考慮し
て、クロマの位相毎に生成される。
Equation (8) is generally called a normal equation. Here, X ji (j, i = 1 , 2 ‥‥ , n),
And Y i (i = 1,2 , n) are calculated based on the teacher signal and the student signal. That is, the normal equation generation circuit 66 calculates the values of X ji and Y i to determine the normal equation (8), and the coefficient determination circuit 67 solves the normal equation (8) to determine each prediction coefficient w i . Perform processing. Note that the prediction coefficient is generated for each chroma phase in consideration of the chroma phase (four types of sampling phases under a sampling frequency of 4f SC ) in each pixel in the NTSC signal as a composite signal.

【手続補正5】[Procedure amendment 5]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0038[Correction target item name] 0038

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0038】そこで、この発明では、パターン検出回路
52において、注目画素と時間的または空間的に近接す
る画素を用いて簡易Y/C分離を行い、簡易Y/C分離
の結果に基づいてADRC処理等を行ってクラス分類を
行うようにしている。簡易Y/C分離は、以下のような
演算処理である。まず、色に関して互いに逆位相の画素
同士についての画素値の平均値を輝度信号とみなし、Y
とする。また、注目画素と色に関して同位相の画素の画
素値から逆位相の画素の画素値を引いて2で割ったもの
を色差信号とみなし、Cとする。このよう にCを演算す
ることによって、色のサブキャリアの影響を落として色
差信号相当を得ることができる。
Therefore, according to the present invention, the pattern detection circuit 52 performs simple Y / C separation using pixels that are temporally or spatially close to the target pixel, and performs ADRC processing based on the result of the simple Y / C separation. And so on to perform class classification. The simple Y / C separation is an operation process as described below. First, the average value of pixel values of pixels having mutually opposite phases with respect to color is regarded as a luminance signal, and Y
And Further, a value obtained by subtracting the pixel value of the pixel of the opposite phase from the pixel value of the pixel of the same phase with respect to the color of the target pixel and dividing by 2 is regarded as a color difference signal, and is represented by C. Calculate C in this way
Reduces the effects of color subcarriers
A difference signal equivalent can be obtained.

【手続補正6】[Procedure amendment 6]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0039[Correction target item name] 0039

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0039】例えば、図7に示すように、互いに交差す
る2本の斜線を付して示す注目画素a5 と、a5 と同じ
ライン上にあるa4 ,a6 に対して2フィールド前の同
一位置の画素(すなわちa11,a10,a12)を用いて簡
易Y/C分離を行った結果をY1 ,Y2 ,Y3 およびC
1 ,C2 ,C3 とする。ここで、Yi およびCi (i=
1,2,3)は、次の式で求められる。
For example, as shown in FIG. 7, a target pixel a 5 indicated by two oblique lines intersecting each other, and a 4 and a 6 on the same line as a 5 two fields before. The result of performing simple Y / C separation using pixels at the same position (ie, a 11 , a 10 , a 12 ) is represented by Y 1 , Y 2 , Y 3 and C
1 , C 2 and C 3 . Here, Y i and C i (i =
1, 2, 3) is obtained by the following equation.

【手続補正7】[Procedure amendment 7]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0040[Correction target item name] 0040

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0040】 Y 1 =(a4 + a 10)/2,Y 2 =(a5 + a 11)/2,Y 3 =(a6 + a 12)/2 (9) C 1 =(a 10 -a 4 )/2,C 2 =(a 5 - a 11)/2,C 3 =(a 12 - a 6 )/2 (10) また、同様な方法でa5 およびa5 と同じライン上にあ
るa4 ,a6 に対して1ライン前の同一位置の画素(a
2 ,a1 ,a3 )を用いて簡易Y/C分離を行った結果
をY4 ,Y5 ,Y6 およびC4 ,C5 ,C6 とする。こ
こで、Yi およびCi (i=4,5,6)は、次の式で
求められる。
Y 1 = (a 4 + a 10 ) / 2, Y 2 = (a 5 + a 11 ) / 2, Y 3 = (a 6 + a 12 ) / 2 (9) C 1 = ( a 10 -a 4 ) / 2, C 2 = (a 5 -a 11 ) / 2, C 3 = ( a 12 -a 6 ) / 2 (10) In the same manner, on the same line as a 5 and a 5 a 4, 1 line before the pixels at the same position relative to a 6 in (a
2 , a 1 , a 3 ), the results of simple Y / C separation are defined as Y 4 , Y 5 , Y 6 and C 4 , C 5 , C 6 . Here, Y i and C i (i = 4, 5, 6) are obtained by the following equations.

【手続補正8】[Procedure amendment 8]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0041[Correction target item name] 0041

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0041】 Y 4 =(a4 + a 1 )/2,Y 5 =(a5 + a 2 )/2,Y 6 =(a6 + a 3 )/2 (11) C 4 =(a1 - a 4 )/2,C 5 =(a5 - a 2 )/2,C 6 =(a3 - a 6 )/2 (12) また、同様な方法でa5 およびa5 と同じライン上にあ
るa4 ,a6 に対して1ライン後の同一位置の画素(a
8 ,a7 ,a9 )を用いて簡易Y/C分離を行った結果
をY7 ,Y8 ,Y9 およびC7 ,C8 ,C9 とする。こ
こで、Yi およびCi (i=7,8,9)は、次の式で
求められる。
Y 4 = (a 4 + a 1 ) / 2, Y 5 = (a 5 + a 2 ) / 2, Y 6 = (a 6 + a 3 ) / 2 (11) C 4 = (a 1 - a 4) / 2, C 5 = (a 5 - a 2) / 2, C 6 = (A 3 -a 6 ) / 2 (12) Further, in the same manner, pixels (a) at the same position after one line with respect to a 4 and a 6 on the same line as a 5 and a 5.
8, a 7, a 9) The results of the simplified Y / C separation and Y 7, Y 8, Y 9 and C 7, C 8, C 9 with. Here, Y i and C i (i = 7, 8, 9) are obtained by the following equations.

【手続補正9】[Procedure amendment 9]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0042[Correction target item name] 0042

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0042】 Y 7 =(a4 + a 7 )/2,Y 8 =(a5 + a 8 )/2,Y 9 =(a6 + a 9 )/2 (13) C 7 =(a7 - a 4 )/2,C 8 =(a5 - a 8 )/2,C 9 =(a9 - a 6 )/2 (14) このようにして得られた、簡易Y/C分離出力のY
i (i=1,2,‥‥,9)およびCi (i=1,2,
‥‥,9)は、図7中で点線で囲んで示す領域におけ
る、注目画素近傍の波形の特徴を含むものである。これ
らYi またはCi から、ADRCを用いて波形特徴を
求め、クラス分類を行う。
Y 7 = (a 4 + a 7 ) / 2, Y 8 = (a 5 + a 8 ) / 2, Y 9 = (a 6 + a 9 ) / 2 (13) C 7 = (a 7 - a 4) / 2, C 8 = (a 5 - a 8) / 2, C 9 = (A 9 -a 6 ) / 2 (14) Y of the simplified Y / C separation output obtained in this way
i (i = 1, 2, ‥‥, 9) and C i (i = 1, 2, 2)
{, 9) include the characteristic of the waveform in the vicinity of the pixel of interest in the area surrounded by the dotted line in FIG. These Y i or C i, obtains the characteristics of the waveform using the ADRC, performing classification.

【手続補正10】[Procedure amendment 10]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0051[Correction target item name] 0051

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0051】上述の説明は、コンポジット信号としての
NTSC信号からコンポーネント信号としての輝度信号
Yを予測する場合についてのものであるが、NTSC信
号以外の信号をコンポジット信号として用いる場合に
も、この発明を適用することは可能である。また、コン
ポーネント信号としてR−Y,B−Y,R,G,B等を
予測する場合にも、この発明を適用することができる。
但し、この場合には、予測すべきコンポーネント信号に
対応する予測係数を生成するための学習を行う必要があ
る。また、予測した輝度信号Yを原コンポジット信号か
ら差し引くことによって色信号Cを得るようにしても良
いし、逆に、クラス分類適応処理によって色信号Cを予
測し、予測した色信号Cを原コンポジット信号から差し
引くことによって輝度信号Yを得るようにしても良い。
The above description is for the case where the luminance signal Y as a component signal is predicted from the NTSC signal as a composite signal. However, the present invention is also applicable to a case where a signal other than the NTSC signal is used as a composite signal. It is possible to apply. The present invention can also be applied to the case where RY, BY, R, G, B, etc. are predicted as component signals.
However, in this case, it is necessary to perform learning for generating a prediction coefficient corresponding to the component signal to be predicted. Further, the color signal C may be obtained by subtracting the predicted luminance signal Y from the original composite signal, or conversely, the color signal C is predicted by the class classification adaptive processing, and the predicted color signal C is converted to the original composite signal. The luminance signal Y may be obtained by subtracting from the signal.

【手続補正11】[Procedure amendment 11]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図2[Correction target item name] Figure 2

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図2】 FIG. 2

【手続補正12】[Procedure amendment 12]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図3[Correction target item name] Figure 3

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図3】 FIG. 3

【手続補正13】[Procedure amendment 13]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図7[Correction target item name] Fig. 7

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図7】 FIG. 7

フロントページの続き (72)発明者 中屋 秀雄 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 星野 隆也 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 井上 賢 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 西片 丈晴 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 小林 直樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 小久保 哲志 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C066 AA03 BA02 CA05 DC01 DC06 GA02 GA05 HA02 KE01 KE07 KE19 Continuation of the front page (72) Inventor Hideo Nakaya 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Takaya Hoshino 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony (72) Inventor Ken Sou Inoue 6-7-35 Kita Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Takeharu Nishikata 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Naoki Kobayashi 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Tetsushi Kokubo 6-35-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F Term (reference) 5C066 AA03 BA02 CA05 DC01 DC06 GA02 GA05 HA02 KE01 KE07 KE19

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 入力画像信号に画像情報変換を施す画像
情報変換装置において、 入力画像信号から、注目画素と上記注目画素に対して所
定の位置関係にある画素を選択する第1の画像データ選
択手段と、 上記第1の画像データ選択手段の出力に基づき、上記所
定の画素の位相に関連する所定の演算処理を行い、上記
演算処理の結果に基づいて上記注目画素の近傍のパター
ンを検出するパターン検出手段と、 上記パターン検出手段の出力に基づいて、上記注目画素
の近傍におけるクラスを示すクラスコードを生成するク
ラスコード生成手段と、 上記入力画像信号から、上記注目画素に対して所定の位
置関係にある画素を選択する第2の画像データ選択手段
と、 上記クラス毎に予め決定された予測係数を記憶し、上記
クラスコード生成手段の出力に対応する予測係数を出力
する係数記憶手段と、 上記係数記憶手段の出力と、上記第2の画像データ選択
手段の出力とに基づいて、所定の演算処理を行う予測演
算処理手段とを有することを特徴とする画像情報変換装
置。
1. An image information conversion apparatus for performing image information conversion on an input image signal, comprising: a first image data selection unit for selecting a target pixel and a pixel having a predetermined positional relationship with respect to the target pixel from the input image signal; Means for performing a predetermined arithmetic processing relating to the phase of the predetermined pixel based on an output of the first image data selecting means, and detecting a pattern near the pixel of interest based on a result of the arithmetic processing Pattern detection means; class code generation means for generating a class code indicating a class near the pixel of interest based on the output of the pattern detection means; and a predetermined position with respect to the pixel of interest from the input image signal. A second image data selecting means for selecting a pixel having a relationship, and a prediction coefficient predetermined for each of the classes are stored. A coefficient storage unit for outputting a prediction coefficient corresponding to the following, and a prediction calculation processing unit for performing a predetermined calculation process based on an output of the coefficient storage unit and an output of the second image data selection unit. An image information conversion device characterized by the above-mentioned.
【請求項2】 請求項1において、 上記予測係数は、 上記入力画像信号と同一の信号形式を有する画像信号
と、上記予測画像信号と同一の信号形式を有する画像信
号とに基づく所定の処理によって算出されることを特徴
とする画像情報変換装置。
2. The method according to claim 1, wherein the prediction coefficient is determined by a predetermined process based on an image signal having the same signal format as the input image signal and an image signal having the same signal format as the prediction image signal. An image information conversion device characterized by being calculated.
【請求項3】 請求項1において、 上記パターン検出手段による上記演算処理は、 上記第1の画像データ選択手段によって選択される画像
データの内で、互いに逆位相となる2個の画素の和の1
/2の値を算出することを特徴とする画像情報変換装
置。
3. The image processing device according to claim 1, wherein the arithmetic processing by the pattern detecting means is performed by calculating a sum of two pixels having phases opposite to each other in the image data selected by the first image data selecting means. 1
An image information conversion apparatus for calculating a value of / 2.
【請求項4】 請求項1において、 上記パターン検出手段による上記演算処理は、 上記第1の画像データ選択手段によって選択される画像
データの内で、上記注目画素と同一位相の画素と、上記
注目画素と逆位相の画素との差の1/2の値を算出する
ことを特徴とする画像情報変換装置。
4. The image processing apparatus according to claim 1, wherein the arithmetic processing by the pattern detecting means includes: selecting a pixel having the same phase as the target pixel from among the image data selected by the first image data selecting means; An image information conversion apparatus, which calculates a half value of a difference between a pixel and a pixel having an opposite phase.
【請求項5】 請求項1において、 上記パターン検出手段は、 上記演算処理の結果に対して、局所的なダイナミックレ
ンジに適応した符号化処理を行うことを特徴とする画像
情報変換装置。
5. The image information conversion device according to claim 1, wherein the pattern detection means performs an encoding process adapted to a local dynamic range on a result of the arithmetic process.
【請求項6】 請求項1において、 上記第2の画像データ選択手段は、 上記注目画素と、上記注目画素を含むフィールド内で上
記注目画素の周囲に位置する所定個数の画素と、上記注
目画素を含むフィールド以外のフィールド内で、上記注
目画素に対応する位置の画素を含む所定個数の画素とを
抽出することを特徴とする画像情報変換装置。
6. The image processing apparatus according to claim 1, wherein the second image data selection unit includes: the target pixel; a predetermined number of pixels located around the target pixel in a field including the target pixel; And extracting a predetermined number of pixels including a pixel at a position corresponding to the target pixel in a field other than the field including.
【請求項7】 請求項1において、 予測演算処理手段は、 上記第2の画像データ選択手段の出力に加えて、画像情
報変換に際して上記入力画像信号と上記予測画像信号と
の間に生じるオフセット成分をさらに使用して、上記所
定の演算処理を行うことを特徴とする画像情報変換装
置。
7. The image processing apparatus according to claim 1, wherein the prediction operation processing means includes an offset component generated between the input image signal and the prediction image signal during image information conversion, in addition to an output of the second image data selection means. The image information conversion apparatus according to claim 1, further comprising:
【請求項8】 請求項1において、 上記入力画像信号がコンポジット信号であり、 上記予測画像信号がコンポーネント信号であることを特
徴とする画像情報変換装置。
8. The image information conversion device according to claim 1, wherein the input image signal is a composite signal, and the predicted image signal is a component signal.
【請求項9】 請求項8において、 上記コンポジット信号は、 NTSC信号であることを特徴とする画像情報変換装
置。
9. The image information conversion device according to claim 8, wherein the composite signal is an NTSC signal.
【請求項10】 入力画像信号に画像情報変換を施す画
像情報変換方法において、 入力画像信号から、注目画素と上記注目画素に対して所
定の位置関係にある画素を選択する第1の画像データ選
択ステップと、 上記第1の画像データ選択ステップの結果に基づき、上
記所定の画素の位相に関連する所定の演算処理を行い、
上記演算処理の結果に基づいて上記注目画素の近傍のパ
ターンを検出するパターン検出ステップと、 上記パターン検出ステップの結果に基づいて、上記注目
画素の近傍におけるクラスを示すクラスコードを生成す
るクラスコード生成ステップと、 上記入力画像信号から、上記注目画素に対して所定の位
置関係にある画素を選択する第2の画像データ選択ステ
ップと、 上記クラス毎に予め決定された予測係数を記憶し、上記
クラスコード生成ステップの結果に対応する予測係数を
出力する係数記憶ステップと、 上記係数記憶ステップの結果と、上記第2の画像データ
選択ステップの結果とに基づいて、所定の演算処理を行
う予測演算処理ステップとを有することを特徴とする画
像情報変換方法。
10. An image information conversion method for performing image information conversion on an input image signal, comprising: selecting a target pixel and a pixel having a predetermined positional relationship with respect to the target pixel from the input image signal. Performing a predetermined operation related to the phase of the predetermined pixel based on a result of the first image data selection step;
A pattern detection step of detecting a pattern in the vicinity of the pixel of interest based on the result of the arithmetic processing; and a class code generation of generating a class code indicating a class in the vicinity of the pixel of interest based on the result of the pattern detection step A second image data selecting step of selecting a pixel having a predetermined positional relationship with respect to the pixel of interest from the input image signal; and storing a prediction coefficient predetermined for each class, A coefficient storage step of outputting a prediction coefficient corresponding to a result of the code generation step; a prediction calculation processing for performing a predetermined calculation processing based on a result of the coefficient storage step and a result of the second image data selection step And an image information converting method.
JP32357798A 1998-11-13 1998-11-13 Image information converter and converting method Pending JP2000152273A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32357798A JP2000152273A (en) 1998-11-13 1998-11-13 Image information converter and converting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32357798A JP2000152273A (en) 1998-11-13 1998-11-13 Image information converter and converting method

Publications (1)

Publication Number Publication Date
JP2000152273A true JP2000152273A (en) 2000-05-30

Family

ID=18156270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32357798A Pending JP2000152273A (en) 1998-11-13 1998-11-13 Image information converter and converting method

Country Status (1)

Country Link
JP (1) JP2000152273A (en)

Similar Documents

Publication Publication Date Title
US5602654A (en) Contour-sensitive, single-field deinterlacing method
US5526053A (en) Motion compensated video signal processing
JPH0355078B2 (en)
JPH1155695A (en) Method and device for measuring registration error and color aberration
JPH07170420A (en) Color image processing system
EP0926902B1 (en) Signal conversion apparatus and method
JP3304427B2 (en) Color image color shift correction device
US6160917A (en) Method of calculating motion vectors
KR100971823B1 (en) Signal processing device and method, and recording medium
KR100668242B1 (en) Image information converting apparatus
JP3777831B2 (en) Image information conversion apparatus and conversion method
JP2000152273A (en) Image information converter and converting method
JP2004072528A (en) Method and program for interpolation processing, recording medium with the same recorded thereon, image processor and image forming device provided with the same
JP4597282B2 (en) Image information conversion apparatus, conversion method, and display apparatus
US5959683A (en) System to remove artifacts in a digital image derived from a television signal
JP4752130B2 (en) Image processing apparatus and method, recording medium, and program
JPH08317347A (en) Image information converting device
JPH07212794A (en) Signal separator
JP2000209606A (en) Image information converter, conversion method and display device
JP4062714B2 (en) Video signal conversion apparatus and method
WO2000064189A9 (en) Safe color limiting of a color on a digital nonlinear editing system
JP4045539B2 (en) Image processing apparatus, image processing method, coefficient calculation apparatus, coefficient calculation method, recording medium, and program
JP2000115803A (en) Image signal processing unit and its method, learning device and its method, and distributing medium
JPS61274493A (en) Digital decoder
JPH01183981A (en) System for compressing image signal band

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080520

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080925