JP3567479B2 - Adaptive filter device and adaptive filter processing method - Google Patents

Adaptive filter device and adaptive filter processing method Download PDF

Info

Publication number
JP3567479B2
JP3567479B2 JP05714094A JP5714094A JP3567479B2 JP 3567479 B2 JP3567479 B2 JP 3567479B2 JP 05714094 A JP05714094 A JP 05714094A JP 5714094 A JP5714094 A JP 5714094A JP 3567479 B2 JP3567479 B2 JP 3567479B2
Authority
JP
Japan
Prior art keywords
filter
signal
mixing
output
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP05714094A
Other languages
Japanese (ja)
Other versions
JPH07274202A (en
Inventor
哲二郎 近藤
丈晴 西片
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP05714094A priority Critical patent/JP3567479B2/en
Publication of JPH07274202A publication Critical patent/JPH07274202A/en
Application granted granted Critical
Publication of JP3567479B2 publication Critical patent/JP3567479B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は、輝度信号と色信号とを含む映像信号をクラス分けしてこのクラス分けに応じた適応フィルタ処理を行う適応フィルタ装置及びその適応フィルタ処理方法に関する。
【0002】
【従来の技術】
一般のカラーテレビジョン等に用いられているカラーテレビジョン信号には、NTSC方式やPAL方式等が採用されている。
【0003】
このNTSC方式及びPAL方式によるカラーテレビジョン信号は、いずれも輝度信号(Y信号)と色差信号であるI(広帯域)信号、Q(狭帯域)信号(PAL方式では、R−Y信号、B−Y信号)からなる色信号(C信号)とが周波数インターリーブによって多重された復号カラーテレビジョン信号である。この復号カラーテレビジョン信号はコンポジット信号と呼ばれている。
【0004】
これに対して、NTSC方式における輝度信号Y、色差信号I、Q信号(PAL方式における輝度信号Y、色差信号R−Y、B−Y信号)の3つの信号に分離されたカラーテレビジョン信号はコンポーネント信号と呼ばれる。上記コンポジット信号からコンポーネント信号を生成するには、帯域通過型フィルタを用いて、コンポジット信号を輝度信号(Y信号)と色信号(C信号)とに分離(Y/C分離)し、さらに色信号CをI信号とQ信号とに変換することにより得ることができる。
【0005】
また、コンポジット信号をY/C分離する方法としては、上記帯域通過型フィルタの代わりに、いくつかの帯域制限フィルタを用いて、これらの帯域制限フィルタからの出力を適応的に選択したり、これらの出力を混合したりする方法も提案されている。また、これらコンポジット信号の輝度信号の帯域と色信号の帯域とは位置及び時間に関して定常的に多重されていないことが知られている。
【0006】
【発明が解決しようとする課題】
ところで、従来の適応フィルタ処理によるディジタル信号データに対するY/C分離処理では、適応フィルタの処理数、混合係数の数が数種類と少数の種類に限定されていた。このような種類の限定は、たとえ学習処理によって求めたタップのフィルタ係数を用いるようにしてもY/C分離処理の精度を高めることができない。
【0007】
そこで、本発明は、上述したような実情に鑑みてなされたものであり、入力信号に対して適応したフィルタ特性が得られるようにフィルタ性能を向上させることのできる適応フィルタ装置及び適応フィルタ処理方法の提供を目的とする。
【0008】
【課題を解決するための手段】
本発明に係る適応フィルタ装置は、上述した課題を解決するために、入力信号に応じてフィルタ特性を変化させる適応フィルタ装置において、入力信号に対して複数のクラスの内のいずれかに分類するクラス分類手段と、上記クラス分類手段により分類されたクラスに応じて予め学習されたフィルタ混合係数を出力するフィルタ混合係数出力手段と、複数のフィルタから成り、入力信号に対して該複数のフィルタによりそれぞれ互いに異なるフィルタ処理を行った複数の出力信号を出力するフィルタ処理手段と、上記フィルタ処理手段からの各出力信号を上記フィルタ混合係数出力手段からのフィルタ混合係数に応じて混合する混合手段とを有し、上記フィルタ処理手段は、輝度信号Yと色信号Cとが多重化された映像信号をフィルタ処理して輝度信号Yと色信号Cとに分離するY/C分離フィルタであって、上記フィルタ混合係数は、上記映像信号と、多重化される前の輝度信号Yと色信号Cとから上記クラス毎に予め学習されたものであることを特徴とする。
【0009】
ここで、クラス分類部は、入力信号に対して2次元のデータにブロック化しているので、フィルタ処理部のフィルタ処理は、このブロック化したデータに対して行われている。
【0010】
また、重み係数ROMが出力する複数のフィルタ混合係数とフィルタ処理部からの出力信号とをそれぞれ一対一に対応させてブロック化されたデータをそれぞれ輝度信号Y用のフィルタ混合部と色信号C用のフィルタ混合部で混合させている。
【0011】
さらに、フィルタ混合部は、フィルタ処理部からの各出力信号に重み係数ROMからのフィルタ混合係数を乗算するフィルタ混合係数乗算部と、フィルタ混合係数乗算部からの出力信号の総和をとる加算器とで構成される。
【0012】
また、本発明に係る適応フィルタ処理方法は、上述した課題を解決するために、入力信号に応じてフィルタ特性を変化させる適応フィルタ処理方法において、入力信号に対して複数のクラスの内のいずれかに分類するクラス分類工程と、上記クラス分類工程により分類されたクラスに応じて予め学習された複数のフィルタ混合係数を出力するフィルタ混合係数出力工程と、入力信号に対して複数のフィルタにより、それぞれ互いに異なるフィルタ処理を行った複数の出力信号を出力するフィルタ処理工程と、上記フィルタ処理工程からの各出力信号を上記フィルタ混合係数出力工程からのフィルタ混合係数に応じて混合する混合工程とを有し、上記フィルタ処理工程では、輝度信号Yと色信号Cとが多重化された映像信号をフィルタ処理して輝度信号Yと色信号Cとに分離され、上記フィルタ混合係数は、上記映像信号と、多重化される前の輝度信号Yと色信号Cとから上記クラス毎に予め学習されたものであることを特徴としている。ここで、クラス分類工程では、入力信号に対して2次元のデータにブロック化しているので、フィルタ処理工程は、このブロック化したデータに対して行われている。また、フィルタ混合係数出力工程で出力する複数のフィルタ混合係数とフィルタ処理工程で出力する出力信号とをそれぞれ一対一に対応させてブロック化されたデータをそれぞれ輝度信号Y用のフィルタ混合部と色信号C用のフィルタ混合部で混合工程にて混合させている。さらに、混合工程では、フィルタ処理工程で出力する各出力信号にフィルタ混合係数出力工程で出力する複数のフィルタ混合係数を乗算するフィルタ混合係数乗算工程と、フィルタ混合係数乗算工程で出力する出力信号の総和をとる加算工程とを有する。
【0013】
【作用】
本発明に係る適応フィルタ装置では、クラス分類部で対応するクラスに分類して供給されるクラスコードをアドレスとして再量子化処理部からフィルタ混合部に供給する。フィルタ混合部は、再量子化処理部からの出力に応じて重み係数ROMから供給されるフィルタ混合係数をフィルタ混合部のフィルタ混合処理部に供給し、フィルタ混合部のフィルタ処理部からの各出力信号をフィルタ混合処理部に供給し、このフィルタ混合処理部でフィルタ混合係数とフィルタ処理部からの各出力信号とをそれぞれ掛けた結果を混合することにより、従来のフィルタ処理の数や混合係数を増やしている。
【0014】
フィルタ処理部をY/C分離フィルタとすることにより、映像信号における輝度信号Yと色信号Cとの分離することができる。
【0015】
また、重み係数ROMが出力する複数のフィルタ混合係数とフィルタ処理部からの出力信号とをそれぞれ一対一に対応させてブロック化されたデータをそれぞれ輝度信号Y用のフィルタ混合部と色信号C用のフィルタ混合部で混合させることにより、輝度信号Yと色信号Cに対するフィルタ特性を向上させている。
【0016】
フィルタ混合部は、重み係数ROMからの複数のフィルタ混合係数とフィルタ処理部からの出力信号とをフィルタ混合乗算部で乗算し混合部で総和をとることによっても、十分適切な輝度信号Yと色信号Cとの分離を行う。
【0017】
また、本発明に係る適応フィルタ処理方法では、クラス分類工程で入力信号に対して複数のクラスの内のいずれかに分類し、フィルタ混合係数出力工程で分類されたクラスに応じた複数のフィルタ混合係数を出力させ、フィルタ処理工程で入力信号に対してそれぞれ異なるフィルタ処理を行い、このフィルタ出力信号とフィルタ混合係数との乗算出力を混合工程で混合することにより、所望のフィルタ特性が得られるようになる。
フィルタ処理工程では、映像信号における輝度信号Yと色信号Cとに分離することができる。
また、フィルタ混合係数出力工程で出力する複数のフィルタ混合係数とフィルタ処理工程で出力する出力信号とをそれぞれ一対一に対応させてブロック化されたデータをそれぞれ輝度信号Y用のフィルタ混合部と色信号C用のフィルタ混合部で混合工程にて混合させることにより、輝度信号Yと色信号Cに対するフィルタ特性を向上させている。
フィルタ混合工程では、フィルタ混合係数出力工程で出力する複数のフィルタ混合係数とフィルタ処理工程で出力する出力信号とをフィルタ混合乗算工程で乗算し混合工程で総和をとることによっても、十分適切な輝度信号Yと色信号Cとの分離を行う。
【0018】
【実施例】
以下、本発明に係る適応フィルタ装置及び適応フィルタ処理方法の一実施例について、図面を参照しながら説明する。
ここで、本発明の適応フィルタ装置を適用した適応Y/C分離装置の好ましい一例を挙げて入力信号として輝度信号Yと色信号Cを含む周波数多重されたディジタルコンポジット信号データ(以下、信号データという)の適応Y/C分離について例えば図1乃至図3に示すブロック図を参照しながら説明する。
【0019】
適応Y/C分離装置は、全体的な構成として例えば図1に示すように、ディジタルコンポジット信号データを複数のクラスの内のいずれかに分類するクラス分類部1と、クラス分類部1からのブロック化された信号データBとクラス分類のクラスコードPを入力し信号データBにフィルタ混合処理を施して輝度信号Yと色信号Cを出力するフィルタ混合部2と、この色信号CをI信号、Q信号に分離するI,Q信号分離処理部3とで構成される。
【0020】
このクラス分類部1は、入力端子4を介して供給される信号データを、例えば図2に示すように、ブロック化処理部1a、相関処理部1b、再量子化処理部1cとで構成される。
【0021】
ブロック化処理部1aは、入力端子4を介して供給された周波数多重され、走査変換されたNTSC方式の1次元の信号データをブロック化した2次元の信号データにし、さらに、このブロック化した2次元の信号データを時間近傍データになるように変換する。ブロック化した2次元の信号データBは、後段の相関処理部1bとフィルタ混合部2における処理内容に応じて決められている。このようにブロック化処理部1aは、相関処理部1bとフィルタ混合部2とにそれぞれ信号データBを供給する。
【0022】
相関処理部1bは、ブロック化された信号データBを画像相関の強弱を表す相関データにする。画像相関の強弱を表すデータは、例えば分離タップにおけるデータの差分の絶対値に基づく相関判定法で得られる。相関処理部1bは、相関データを再量子化処理部1cに供給する。
【0023】
再量子化処理部1cは、供給される相関データのビット数をさらに少ないビット数で表すためビット削減処理を行う。このビット削減された相関値は、そのままクラス分類によるクラスコードPに対応している。再量子化処理部1cは、クラスコードPをフィルタ混合部2に出力する。
【0024】
次に、図1に示したフィルタ混合部2は、例えば輝度信号Yと色信号Cをそれぞれ出力させるために輝度信号Y用フィルタ混合部2aと色信号C用フィルタ混合部2bとで構成されている。ここで、輝度信号Y用フィルタ混合部2aと色信号C用フィルタ混合部2bは、共に基本的な構成として例えば図3に示すように、重み係数ROM21と、フィルタ処理部22と、フィルタ混合処理部23とで構成される。
【0025】
重み係数ROM21は、再量子化処理部1cが出力するクラスコードPをアドレスデータとして供給され、この対応アドレスに格納されている重み係数をフィルタ混合係数としてフィルタ混合処理部23に出力する。
【0026】
また、フィルタ処理部22は、複数のフィルタ処理回路22a〜22nで構成されている。各フィルタ回路22a〜22nには、それぞれ信号データBが入力されている。フィルタ回路22a〜22nでは、それぞれ予め用意された種々の分離用のフィルタ係数と供給される信号データBとの積和演算の結果をフィルタ混合処理部23に供給する。
【0027】
フィルタ混合処理部23は、各フィルタ回路22a〜22nからの出力信号と重み係数ROM21からのフィルタ混合係数を乗算するフィルタ混合係数乗算部23a〜23nと、フィルタ混合係数乗算部23a〜23nの各出力信号を混合する混合部23Mとで構成される。
【0028】
フィルタ混合処理部23は、フィルタ混合係数乗算部23a〜23nでフィルタ回路22a〜22nからの各出力信号にフィルタ混合係数をかけて加算器から成る混合部23Mで混合することにより、積和演算を行って分離出力を生成する。フィルタ混合部2の輝度信号Y用フィルタ混合部2aと色信号C用フィルタ混合部2bがそれぞれこのように構成されることにより、ディジタルコンポジット信号データから輝度信号Yと色信号Cとが分離される。
【0029】
フィルタ混合部2の色信号C用フィルタ混合部2bは、分離した色信号CをI,Q信号分離処理部3に出力する。このI,Q信号分離処理部3では、I信号とQ信号とに分離される。I,Q信号分離処理部3は、分離した色信号Cに基づくI,Q信号を出力端子5、6から出力する。また、フィルタ混合部2の輝度信号Y用フィルタ混合部2aは、分離した輝度信号Yを出力端子7から出力する。
【0030】
このように構成することによって、多数の分離タップの混合が可能になり、より一層の輝度信号Yと色信号Cの分離を向上させて、画質をよくすることができる。
【0031】
次に、適応Y/C分離装置の動作について図4のフローチャートと図5の相関判定とクラス生成のタップ及び図6のフィルタ処理における分離タップ関係の模式図を参照しながら説明する。
適応Y/C分離を開始する。ステップS10では、1次元の信号データを2次元の信号データにブロック化する。この信号データのブロックは、例えば図5に示すようにフィールド0(#0)において垂直方向に5ライン((V−2)〜(V+2))、水平方向に9画素((H−4)〜(H+4))の領域を1ブロックとしてみなす。
【0032】
さらに、適応Y/C分離処理を正しく行うために、注目画素(H0,Y0)のタップでの分離値Y0と色信号が水平方向に同位相のタップ(H−4,V0)、(H+4,V0)、垂直方向に同位相のタップ(H0,Vー2)、(H0,V+2)の分離値を Y1〜Y4とする。この注目画素(H0,Y0)のタップでの分離値Y0と色信号の位相が180゜反転したタップは(H−2,V0)、(H+2,VO)で分離値Y5、Y6である。また、タップは、注目画素(H0,Y0) に隣接したラインの(H−2,V−1)、(H+2,V+1)、(Hー2,V+1)、(H+2,V−1)でそれぞれ分離値Y7〜Y10を設定する。ここで、破線の丸印及び正方形は上述したタップとの関係を示すために表示させたタップ位置を示している。
【0033】
ステップS11では、上述した分離値Y0〜Y10を用いて相関処理を行う。相関処理は、例えば、|Y0−Y1|、|Y0−Y2|、|Y0−Y3|、|Y0−Y4|、|Y5−Y6|、|Y7−Y8|及び|Y9−Y10|が示すように差分の絶対値をとっている。
【0034】
ステップS12では、再量子化処理を行う。この再量子化処理は、相関の強さを示す各差分の絶対値に対してビット削減を行うため、設定された閾値THと差分の絶対値との比較を行う。|Y0−Y1|が閾値THより小さいときビット0は、レベル“1”とし、これ以外のとき、ビット0はレベル“0”にする。|Y0−Y2|、|Y0−Y3|、|Y0−Y4|、|Y5−Y6|、|Y7−Y8|及び|Y9−Y10|も閾値THより小さいとき、それぞれビット1〜ビット6は、レベル“1”とし、これ以外のとき、ビット1〜ビット6はレベル“0”にする。この比較によって、各差分の絶対値は、2値化が行われ、1ビットで表されることになる。この2値化された7種類の1ビット相関量はクラスコードを表している。従って、クラスコードPは、
(ビット6,ビット5,ビット4,ビット3,ビット2,ビット1,ビット0)となる。なお、レベル“1”は、相関があることを示し、レベル“0”は無相関を示す。
【0035】
ステップS13では、輝度信号Yに対するフィルタ混合処理を行う。
次に、ステップS14では、色信号Cに対するフィルタ混合処理を行う。
ステップS13やステップS14で行われるフィルタ混合処理は、例えば図6に示すように、フィルタ混合処理で使用するタップを注目画素(H0,V0)のデータX0と同位相を記号(○)で示すタップ(H−2,V0)、(H+2,V0)、(H0,V−1)、(H0,V+1) にデータX1〜X4を対応させ、それ以外の記号(□)で示すタップ(H−1,V0)、(H+1,V0)、(H−1,V−1)、(H+1,V+1)、(H−1,V+1)、(H+1,V−1)にそれぞれデータX5〜X10 を対応させる。
【0036】
ステップS13の輝度信号のフィルタ混合処理の場合、フィルタ処理部の係数に例えば0.5を設定しておく。ここで、分離の種類a0y〜a6yは、前述した相関判定の場合と同じ7種類:
a0y=0.5*X0+0.5*X1
a1y=0.5*X0+0.5*X2
a2y=0.5*X0+0.5*X3
a3y=0.5*X0+0.5*X4
a4y=0.5*X5+0.5*X6
a5y=0.5*X7+0.5*X8
a6y=0.5*X9+0.5*X10
が2タップから得られる。これら7種類のフィルタ処理出力に対して重み係数ROMが出力するk0y〜k6yをそれぞれかけて加算する積和演算を行うことによって信号データから輝度信号Yが分離される。上記積和演算は、
Y=k0y*a0y+k1y*a1y+k2y*a2y+k3y*a3y+k4y*a4y+k5y*a5y+k6y*a6y
である。
【0037】
ステップS14の色信号のフィルタ混合処理の場合、フィルタ処理部の係数に例えば0.5と0.25を設定しておく。ここで、分離の種類a0c〜a6cは前述した相関判定の場合と同じ7種類:
a0c=0.5*X0−0.5*X1
a1c=0.5*X0−0.5*X2
a2c=0.5*X0−0.5*X3
a3c=0.5*X0−0.5*X4
a4c=0.5*X0−0.25*X5−0.25*X6
a5c=0.5*X0−0.25*X7−0.25*X8
a6c=0.5*X0−0.25*X9−0.25*X10
が2タップあるいは3タップから得られる。これら7種類のフィルタ処理出力に対して重み係数ROMが出力するk0c〜k6cをそれぞれかけて加算する積和演算を行って信号データから色信号Cが分離される。上記積和演算は、
C=k0c*a0c+k1c*a1c+k2c*a2c+k3c*a3c+k4c*a4c+k5c*a5c+k6c*a6c
である。
【0038】
次に、ステップS15では、ステップS14で求めた色信号をさらにI信号とQ信号に分離処理している。この一連の処理を行って適応Y/C分離を終了する。
【0039】
さらに、フィルタ混合係数の学習方法について図7を参照しながら簡単に説明する。
この学習過程の開始と共に、ステップS20で信号データを入力する。
ステップS21では、ステップS20で供給された信号データを前述した適応Y/C分離装置で行ったステップS10からステップS12までの各工程と同じように全く同じクラス分類を行う。
【0040】
ステップS22では、入力した信号データに対して種々のY/C分離フィルタの出力を算出する。このステップS22においても前述したステップS13、ステップS14でのフィルタ処理と同じ処理を行わせる。
【0041】
この後、ステップS23では、正規方程式の生成を行う。この正規方程式は、フィルタ混合係数を未知とし、信号データに使用する例えば周波数多重する直前の輝度信号Yあるいは色信号Cと多重後のNTSC方式によるコンポジット信号、種々のY/C分離フィルタの出力信号を用いて、逐次的に計算される。
【0042】
ステップS24では、例えば1画面分の信号データの入力が終了したか否かを調べている。まだ信号データの入力が終了していなければ、ステップS20に移行して上述した各ステップを繰り返す。また、信号データの入力が終了しているとき、ステップS25に進む。
【0043】
ステップS25では、ステップS24で生成した正規方程式を連立1次方程式の解法に従って解いてフィルタの混合係数を決定する。
【0044】
ステップS26では、ステップS25で求めたフィルタ混合係数を重み係数ROMに記憶させる。
【0045】
このような手順に応じてフィルタ混合係数を学習させることにより、最適なフィルタ混合係数を用いることができる。
【0046】
以上のような構成を用いて従来のフィルタ処理の数や混合係数を増やすことにより、フィルタ処理の精度を上げて画質を向上させることができる。
【0047】
フィルタ処理部にY/C分離フィルタを用いて、映像信号における輝度信号Yと色信号Cとの分離することにより、画質を向上させることができる。
【0048】
また、重み係数ROMが出力する複数のフィルタ混合係数とフィルタ処理部からの出力信号とをそれぞれ一対一に対応させてブロック化されたデータをそれぞれ輝度信号Y用のフィルタ混合部と色信号C用のフィルタ混合部で混合させても十分に適切な輝度信号Yと色信号Cとに分離させてフィルタ処理の精度を上げて画質を向上させることができる。
【0049】
フィルタ混合部は、重み係数ROMからの複数のフィルタ混合係数とフィルタ処理部からの出力信号とをフィルタ混合乗算部で乗算し混合部で総和をとって十分適切な輝度信号Yと色信号Cとの分離を行い、画質を向上させることができる。
【0050】
また、適応フィルタ処理方法を用いてクラス分類工程で入力信号に対して複数のクラスの内のいずれかに分類し、フィルタ混合係数出力工程で分類されたクラスに応じた複数のフィルタ混合係数を出力させ、フィルタ処理工程で入力信号に対してそれぞれ互いに異なるフィルタ処理を行い、混合工程でフィルタ処理された各出力信号とフィルタ混合係数の乗算結果の総和をとる混合を行わせても、所望のフィルタ特性の信号を出力させることができ、画質を向上させることができる。
【0051】
【発明の効果】
本発明に係る適応フィルタ装置では、クラス分類部で対応するクラスに分類して供給されるクラスコードをアドレスとして再量子化処理部からフィルタ混合部の重み係数ROMに供給し、重み係数ROMは、クラスコードに応じた、映像信号と、多重化される前の輝度信号Yと色信号Cとからクラス毎に予め学習されたフィルタ混合係数をフィルタ混合部のフィルタ混合処理部に供給する。また、複数のフィルタからなるフィルタ混合部のフィルタ処理部により、1つの入力信号に対して、複数のフィルタ処理を施した各出力信号をフィルタ混合処理部に供給する。フィルタ混合処理部では、フィルタ混合係数とフィルタ処理部からの各出力信号とをそれぞれ掛けた結果を混合させ、従来のフィルタ処理の数や混合係数を増やすことにより、フィルタ処理の精度を上げて画質を向上させることができる。
【0052】
また、重み係数ROMが出力する複数のフィルタ混合係数とフィルタ処理部からの出力信号とをそれぞれ一対一に対応させてブロック化されたデータをそれぞれ輝度信号Y用のフィルタ混合部と色信号C用のフィルタ混合部で混合させても十分に適切な輝度信号Yと色信号Cとに分離させてフィルタ処理の精度を上げて画質を向上させることができる。
【0053】
フィルタ混合部は、重み係数ROMからの複数のフィルタ混合係数とフィルタ処理部からの出力信号とをフィルタ混合乗算部で乗算し混合部で総和をとって十分適切な輝度信号Yと色信号Cとの分離を行い、画質を向上させることができる。
【0054】
また、適応フィルタ処理方法を用いてクラス分類工程で入力信号に対して複数のクラスの内のいずれかに分類し、フィルタ混合係数出力工程で分類されたクラスに応じた複数のフィルタ混合係数を出力させ、フィルタ処理工程で入力信号に対してそれぞれ互いに異なるフィルタ処理を行い、混合工程でフィルタ処理された各出力信号とフィルタ混合係数の乗算結果の総和をとる混合を行わせても、所望のフィルタ特性の信号を出力させることができ、画質を向上させることができる。
また、フィルタ混合係数出力工程で出力する複数のフィルタ混合係数とフィルタ処理工程で出力する出力信号とをそれぞれ一対一に対応させてブロック化されたデータをそれぞれ輝度信号Y用のフィルタ混合部と色信号C用のフィルタ混合部で混合工程にて混合させても十分に適切な輝度信号Yと色信号Cとに分離させてフィルタ処理の精度を上げて画質を向上させることができる。
フィルタ混合工程では、フィルタ混合係数出力工程で出力する複数のフィルタ混合係数とフィルタ処理工程で出力する出力信号とをフィルタ混合乗算工程で乗算し混合工程で総和をとって十分適切な輝度信号Yと色信号Cとの分離を行い、画質を向上させることができる。
【図面の簡単な説明】
【図1】本発明に係る適応フィルタ装置を適用した適応Y/C分離装置の概略的なブロック図である。
【図2】上記適応Y/C分離装置のクラス分類部の構成を示すブロック図である。
【図3】上記適応Y/C分離装置のフィルタ混合部の構成を示すブロック回路図である。
【図4】上記適応Y/C分離装置における動作を説明するフローチャートである。
【図5】上記適応Y/C分離装置における相関判定とクラス生成のタップに関係する各画素の配置を説明する模式図である。
【図6】上記適応Y/C分離装置においてフィルタ処理で使用する分離タップに関係する各画素の配置を説明する模式図である。
【図7】本発明に係る適応フィルタ処理方法におけるフィルタ係数の学習過程を説明するフローチャートである。
【符号の説明】
1 クラス分類部
2 フィルタ混合部
3 I,Q信号分離処理部
4 入力端子
5、6、7 出力端子
1a ブロック化処理部
1b 相関処理部
1c 再量子化処理部
2a 輝度信号Y用フィルタ混合部
2b 色信号C用フィルタ混合部
21 重み係数ROM
22 フィルタ処理部
22a〜22n フィルタ回路
23 フィルタ混合処理部
23a〜23n フィルタ混合係数乗算部
23M 混合部(加算器)
[0001]
[Industrial applications]
The present invention relates to an adaptive filter device that classifies video signals including a luminance signal and a chrominance signal and performs adaptive filter processing according to the classification, and an adaptive filter processing method thereof.
[0002]
[Prior art]
For a color television signal used in a general color television or the like, an NTSC system, a PAL system, or the like is adopted.
[0003]
The color television signals of the NTSC system and the PAL system are an I (wide band) signal and a Q (narrow band) signal, which are a luminance signal (Y signal) and a chrominance signal, respectively. A color signal (C signal) consisting of a Y signal) is a decoded color television signal multiplexed by frequency interleaving. This decoded color television signal is called a composite signal.
[0004]
On the other hand, a color television signal separated into three signals of a luminance signal Y, a color difference signal I, and a Q signal (a luminance signal Y, a color difference signal RY, and a BY signal in the PAL system) in the NTSC system is Called component signal. To generate a component signal from the composite signal, the composite signal is separated into a luminance signal (Y signal) and a chrominance signal (C signal) (Y / C separation) using a band-pass filter, and further, a chrominance signal is generated. It can be obtained by converting C into an I signal and a Q signal.
[0005]
As a method of Y / C-separating the composite signal, instead of the band-pass filter, several band-limiting filters are used to adaptively select outputs from these band-limiting filters, There is also proposed a method of mixing the outputs. It is also known that the luminance signal band and the chrominance signal band of these composite signals are not constantly multiplexed with respect to position and time.
[0006]
[Problems to be solved by the invention]
By the way, in the conventional Y / C separation process for digital signal data by the adaptive filter process, the number of processes of the adaptive filter and the number of the mixing coefficients are limited to a few types and a few types. This kind of limitation cannot improve the accuracy of the Y / C separation processing even if the filter coefficients of the taps obtained by the learning processing are used.
[0007]
Therefore, the present invention has been made in view of the above situation, and has an adaptive filter device and an adaptive filter processing method capable of improving filter performance so as to obtain a filter characteristic adapted to an input signal. The purpose is to provide.
[0008]
[Means for Solving the Problems]
In order to solve the above-described problem, an adaptive filter device according to the present invention is a adaptive filter device that changes a filter characteristic according to an input signal, wherein the input signal is classified into one of a plurality of classes. Classifying means, filter mixing coefficient output means for outputting a filter mixing coefficient learned in advance according to the class classified by the class classification means, and a plurality of filters; A filter processing unit that outputs a plurality of output signals that have been subjected to different filtering processes; and a mixing unit that mixes each output signal from the filter processing unit in accordance with the filter mixing coefficient from the filter mixing coefficient output unit. The filtering means filters the video signal in which the luminance signal Y and the chrominance signal C are multiplexed. A Y / C separation filter for separating a luminance signal Y and a chrominance signal C, wherein the filter mixing coefficient is determined for each of the classes from the video signal, the luminance signal Y and the chrominance signal C before being multiplexed. It is characterized by being learned in advance.
[0009]
Here, since the classification unit blocks the input signal into two-dimensional data, the filter processing of the filter processing unit is performed on the blocked data.
[0010]
Also, a plurality of filter mixing coefficients output from the weighting coefficient ROM and output signals from the filter processing units are respectively associated one-to-one with each other, and block-divided data are respectively output to the filter mixing unit for the luminance signal Y and the color signal C. Are mixed in the filter mixing section.
[0011]
Further, the filter mixing section includes a filter mixing coefficient multiplication section that multiplies each output signal from the filter processing section by a filter mixing coefficient from the weight coefficient ROM, and an adder that sums the output signals from the filter mixing coefficient multiplication section. It consists of.
[0012]
Further, in order to solve the above-described problem, the adaptive filter processing method according to the present invention, in the adaptive filter processing method for changing a filter characteristic in accordance with an input signal, includes any one of a plurality of classes for an input signal. Classifying step, a filter mixing coefficient output step of outputting a plurality of filter mixing coefficients previously learned according to the class classified by the class classification step, and a plurality of filters for the input signal, A filtering step of outputting a plurality of output signals that have been subjected to different filtering processes; and a mixing step of mixing each output signal from the filtering step according to the filter mixing coefficient from the filtering mixing coefficient output step. In the filtering process, the video signal in which the luminance signal Y and the chrominance signal C are multiplexed is filtered. The filter mixing coefficient is separated into a degree signal Y and a chrominance signal C, and the filter mixing coefficient is learned in advance for each class from the video signal and the luminance signal Y and the chrominance signal C before being multiplexed. It is characterized by. Here, in the class classification step, since the input signal is divided into two-dimensional data blocks, the filtering processing step is performed on the blocked data. In addition, the plurality of filter mixing coefficients output in the filter mixing coefficient output step and the output signal output in the filter processing step correspond to each other in a one-to-one correspondence. The signal C is mixed in the mixing step in the filter mixing section. Further, in the mixing step, a filter mixing coefficient multiplication step of multiplying each output signal output in the filtering processing step by a plurality of filter mixing coefficients output in the filter mixing coefficient output step, and an output signal output in the filter mixing coefficient multiplication step And a summation step for obtaining a sum.
[0013]
[Action]
In the adaptive filter device according to the present invention, the class code that is classified into the corresponding class by the class classification unit and supplied is supplied as an address from the requantization processing unit to the filter mixing unit. The filter mixing section supplies the filter mixing coefficient supplied from the weight coefficient ROM to the filter mixing processing section of the filter mixing section in accordance with the output from the requantization processing section, and outputs each output from the filter processing section of the filter mixing section. The signal is supplied to a filter mixing processing unit, and the result obtained by multiplying the filter mixing coefficient by each output signal from the filter processing unit is mixed by the filter mixing processing unit. We are increasing.
[0014]
By using a Y / C separation filter for the filter processing unit, the luminance signal Y and the chrominance signal C in the video signal can be separated.
[0015]
Also, a plurality of filter mixing coefficients output from the weighting coefficient ROM and output signals from the filter processing units are respectively associated one-to-one with each other, and block-divided data are respectively output to the filter mixing unit for the luminance signal Y and the color signal C. , The filter characteristics for the luminance signal Y and the chrominance signal C are improved.
[0016]
The filter mixing unit also multiplies a plurality of filter mixing coefficients from the weight coefficient ROM by an output signal from the filter processing unit in a filter mixing and multiplying unit, and sums them in the mixing unit. The separation from the signal C is performed.
[0017]
Further, in the adaptive filter processing method according to the present invention, the input signal is classified into any of a plurality of classes in a class classification step, and a plurality of filter mixing according to the class classified in the filter mixing coefficient output step is performed. By outputting the coefficients, performing different filtering processes on the input signal in the filtering process, and mixing the multiplied output of the filter output signal and the filter mixing coefficient in the mixing process, a desired filter characteristic can be obtained. become.
In the filtering process, the video signal can be separated into a luminance signal Y and a chrominance signal C.
In addition, the plurality of filter mixing coefficients output in the filter mixing coefficient output step and the output signal output in the filter processing step correspond to each other in a one-to-one correspondence. By mixing in the mixing step in the filter mixing section for the signal C, the filter characteristics for the luminance signal Y and the chrominance signal C are improved.
In the filter mixing step, a plurality of filter mixing coefficients output in the filter mixing coefficient output step and the output signal output in the filter processing step are multiplied in the filter mixing multiplication step, and the sum is obtained in the mixing step. The signal Y and the color signal C are separated.
[0018]
【Example】
Hereinafter, an embodiment of an adaptive filter device and an adaptive filter processing method according to the present invention will be described with reference to the drawings.
Here, as a preferred example of an adaptive Y / C separation device to which the adaptive filter device of the present invention is applied, a frequency-multiplexed digital composite signal data including a luminance signal Y and a chrominance signal C as input signals (hereinafter referred to as signal data). ) Will be described with reference to, for example, block diagrams shown in FIGS. 1 to 3.
[0019]
As shown in FIG. 1, for example, the adaptive Y / C separating apparatus has a class classifying unit 1 for classifying digital composite signal data into one of a plurality of classes, and a block from the class classifying unit 1. A filter mixing unit 2 which receives the converted signal data B and the class code P of the class classification, performs a filter mixing process on the signal data B and outputs a luminance signal Y and a color signal C, and converts the color signal C into an I signal, It comprises an I / Q signal separation processing unit 3 for separating into Q signals.
[0020]
This class classification unit 1 is configured by a signal processing unit 1a, a correlation processing unit 1b, and a requantization processing unit 1c, for example, as shown in FIG. .
[0021]
The block processing section 1a converts the frequency-multiplexed, scan-converted, one-dimensional signal data of the NTSC system supplied via the input terminal 4 into two-dimensional signal data obtained by blocking, and further forms the two-dimensional signal data. The dimensional signal data is converted to be near-time data. Blocked two-dimensional signal data B is determined according to the processing contents of the subsequent correlation processing section 1b and filter mixing section 2. As described above, the blocking processing unit 1a supplies the signal data B to the correlation processing unit 1b and the filter mixing unit 2, respectively.
[0022]
The correlation processing unit 1b converts the block signal data B into correlation data indicating the strength of image correlation. The data representing the strength of the image correlation is obtained, for example, by a correlation determination method based on the absolute value of the data difference at the separation tap. The correlation processing unit 1b supplies the correlation data to the requantization processing unit 1c.
[0023]
The requantization processing unit 1c performs a bit reduction process to represent the number of bits of the supplied correlation data with a smaller number of bits. The bit-reduced correlation value directly corresponds to the class code P by the class classification. The requantization processing unit 1c outputs the class code P to the filter mixing unit 2.
[0024]
Next, the filter mixing section 2 shown in FIG. 1 is composed of a luminance signal Y filter mixing section 2a and a chrominance signal C filter mixing section 2b for outputting, for example, a luminance signal Y and a color signal C, respectively. I have. Here, the luminance signal Y filter mixing section 2a and the chrominance signal C filter mixing section 2b both have a basic configuration, for example, as shown in FIG. And a unit 23.
[0025]
The weight coefficient ROM 21 is supplied with the class code P output from the requantization processing unit 1c as address data, and outputs the weight coefficient stored at the corresponding address to the filter mixing processing unit 23 as a filter mixing coefficient.
[0026]
In addition, the filter processing unit 22 includes a plurality of filter processing circuits 22a to 22n. Signal data B is input to each of the filter circuits 22a to 22n. Each of the filter circuits 22a to 22n supplies the result of the product-sum operation of various prepared filter coefficients for separation and the supplied signal data B to the filter mixing processing unit 23.
[0027]
The filter mixing processing unit 23 includes filter mixing coefficient multiplying units 23a to 23n that multiply output signals from the filter circuits 22a to 22n by filter mixing coefficients from the weight coefficient ROM 21, and output signals from the filter mixing coefficient multiplying units 23a to 23n. And a mixing unit 23M for mixing signals.
[0028]
The filter mixing processing unit 23 multiplies each output signal from the filter circuits 22a to 22n by the filter mixing coefficient multiplying units 23a to 23n, applies the filter mixing coefficient to the output signals, and mixes the output signals by a mixing unit 23M including an adder. To produce a separate output. The luminance signal Y and the chrominance signal C are separated from the digital composite signal data by configuring the luminance signal Y filter mixing unit 2a and the chrominance signal C filter mixing unit 2b of the filter mixing unit 2 in this manner. .
[0029]
The color signal C filter mixing section 2b of the filter mixing section 2 outputs the separated color signal C to the I / Q signal separation processing section 3. In the I / Q signal separation processing unit 3, the signal is separated into an I signal and a Q signal. The I / Q signal separation processing unit 3 outputs I and Q signals based on the separated color signal C from output terminals 5 and 6. The luminance signal Y filter mixer 2 a of the filter mixer 2 outputs the separated luminance signal Y from the output terminal 7.
[0030]
With this configuration, it is possible to mix a large number of separation taps, further improve the separation of the luminance signal Y and the chrominance signal C, and improve the image quality.
[0031]
Next, the operation of the adaptive Y / C separation device will be described with reference to the flowchart of FIG. 4, the taps of correlation determination and class generation in FIG. 5, and the schematic diagram of the separation tap relationship in the filter processing of FIG.
Start adaptive Y / C separation. In step S10, one-dimensional signal data is divided into two-dimensional signal data. For example, as shown in FIG. 5, the signal data block includes five lines ((V−2) to (V + 2)) in the vertical direction in field 0 (# 0) and nine pixels ((H−4) to (H−4)) in the horizontal direction. The area of (H + 4)) is regarded as one block.
[0032]
Further, in order to correctly perform the adaptive Y / C separation processing, the separation value Y0 at the tap of the target pixel (H0, Y0) and the taps (H-4, V0), (H + 4, V0), separated values of taps (H0, V-2) and (H0, V + 2) having the same phase in the vertical direction are Y1 to Y4. The separation value Y0 at the tap of the target pixel (H0, Y0) and the tap whose color signal phase is inverted by 180 ° are (H−2, V0), (H + 2, VO), and the separation values Y5, Y6. The taps are (H−2, V−1), (H + 2, V + 1), (H−2, V + 1), (H + 2, V−1) on the lines adjacent to the target pixel (H0, Y0), respectively. Separation values Y7 to Y10 are set. Here, the dashed circles and squares indicate the tap positions displayed to indicate the relationship with the taps described above.
[0033]
In step S11, a correlation process is performed using the above-described separation values Y0 to Y10. In the correlation processing, for example, | Y0-Y1 |, | Y0-Y2 |, | Y0-Y3 |, | Y0-Y4 |, | Y5-Y6 |, | Y7-Y8 |, and | Y9-Y10 | Is the absolute value of the difference.
[0034]
In step S12, a requantization process is performed. In this requantization process, in order to perform bit reduction on the absolute value of each difference indicating the strength of the correlation, the set threshold value TH is compared with the absolute value of the difference. When | Y0−Y1 | is smaller than the threshold value TH, bit 0 is set to level “1”; otherwise, bit 0 is set to level “0”. When | Y0-Y2 |, | Y0-Y3 |, | Y0-Y4 |, | Y5-Y6 |, | Y7-Y8 | and | Y9-Y10 | are also smaller than the threshold value TH, bits 1 to 6 are respectively The level is set to "1", and in other cases, the bits 1 to 6 are set to the level "0". By this comparison, the absolute value of each difference is binarized and represented by one bit. The seven types of one-bit correlation amounts binarized represent a class code. Therefore, the class code P is
(Bit 6, bit 5, bit 4, bit 3, bit 2, bit 1, bit 0). Note that a level “1” indicates that there is a correlation, and a level “0” indicates no correlation.
[0035]
In step S13, a filter mixing process is performed on the luminance signal Y.
Next, in step S14, a filter mixing process for the color signal C is performed.
In the filter mixing process performed in step S13 or step S14, for example, as shown in FIG. 6, the tap used in the filter mixing process is a tap indicated by a symbol (○) having the same phase as the data X0 of the target pixel (H0, V0). (H-2, V0), (H + 2, V0), (H0, V-1), (H0, V + 1) correspond to data X1 to X4, and tap (H-1) indicated by other symbols (□). , V0), (H + 1, V0), (H-1, V-1), (H + 1, V + 1), (H-1, V + 1), and (H + 1, V-1) respectively correspond to data X5 to X10. .
[0036]
In the case of the filter mixing process of the luminance signal in step S13, for example, 0.5 is set to the coefficient of the filter processing unit. Here, the separation types a0y to a6y are the same seven types as in the case of the correlation determination described above:
a0y = 0.5 * X0 + 0.5 * X1
a1y = 0.5 * X0 + 0.5 * X2
a2y = 0.5 * X0 + 0.5 * X3
a3y = 0.5 * X0 + 0.5 * X4
a4y = 0.5 * X5 + 0.5 * X6
a5y = 0.5 * X7 + 0.5 * X8
a6y = 0.5 * X9 + 0.5 * X10
Is obtained from two taps. The luminance signal Y is separated from the signal data by performing a product-sum operation in which these seven types of filter processing outputs are multiplied by k0y to k6y output from the weighting coefficient ROM and added. The product-sum operation is
Y = k0y * a0y + k1y * a1y + k2y * a2y + k3y * a3y + k4y * a4y + k5y * a5y + k6y * a6y
It is.
[0037]
In the case of the color signal filter mixing processing in step S14, for example, 0.5 and 0.25 are set as the coefficients of the filter processing unit. Here, the types of separation a0c to a6c are the same seven types as in the case of the correlation determination described above:
a0c = 0.5 * X0-0.5 * X1
a1c = 0.5 * X0−0.5 * X2
a2c = 0.5 * X0−0.5 * X3
a3c = 0.5 * X0−0.5 * X4
a4c = 0.5 * X0-0.25 * X5-0.25 * X6
a5c = 0.5 * X0-0.25 * X7-0.25 * X8
a6c = 0.5 * X0-0.25 * X9-0.25 * X10
Is obtained from two taps or three taps. The color signal C is separated from the signal data by performing a product-sum operation in which these seven types of filter processing outputs are multiplied by k0c to k6c output from the weighting coefficient ROM and added. The product-sum operation is
C = k0c * a0c + k1c * a1c + k2c * a2c + k3c * a3c + k4c * a4c + k5c * a5c + k6c * a6c
It is.
[0038]
Next, in step S15, the color signal obtained in step S14 is further separated into an I signal and a Q signal. This series of processing is performed, and the adaptive Y / C separation ends.
[0039]
Further, a method of learning the filter mixing coefficient will be briefly described with reference to FIG.
At the start of the learning process, signal data is input in step S20.
In step S21, the signal data supplied in step S20 is subjected to exactly the same class classification as in the respective steps from step S10 to step S12 performed by the above-described adaptive Y / C separation device.
[0040]
In step S22, outputs of various Y / C separation filters are calculated for the input signal data. Also in this step S22, the same processing as the filtering processing in steps S13 and S14 described above is performed.
[0041]
Thereafter, in step S23, a normal equation is generated. This normal equation makes the filter mixing coefficient unknown and uses, for example, a luminance signal Y or color signal C immediately before frequency multiplexing and a composite signal according to the NTSC system after multiplexing used for signal data, and output signals of various Y / C separation filters. Is calculated sequentially using
[0042]
In step S24, for example, it is checked whether the input of the signal data for one screen has been completed. If the input of the signal data has not been completed yet, the process shifts to step S20 to repeat the above steps. When the input of the signal data has been completed, the process proceeds to step S25.
[0043]
In step S25, the mixing equation of the filter is determined by solving the normal equation generated in step S24 according to the solution of the system of linear equations.
[0044]
In step S26, the filter mixing coefficient obtained in step S25 is stored in the weight coefficient ROM.
[0045]
By learning the filter mixing coefficient in accordance with such a procedure, the optimum filter mixing coefficient can be used.
[0046]
By increasing the number of filter processes and the mixing coefficients in the related art using the above configuration, it is possible to improve the accuracy of the filter processes and improve the image quality.
[0047]
The image quality can be improved by separating the luminance signal Y and the color signal C in the video signal by using a Y / C separation filter in the filter processing unit.
[0048]
Also, a plurality of filter mixing coefficients output from the weighting coefficient ROM and output signals from the filter processing units are respectively associated one-to-one with each other, and block-divided data are respectively output to the filter mixing unit for the luminance signal Y and the color signal C. Even if they are mixed by the filter mixing section, the luminance signal Y and the chrominance signal C can be sufficiently separated to improve the accuracy of the filter processing and improve the image quality.
[0049]
The filter mixing unit multiplies a plurality of filter mixing coefficients from the weight coefficient ROM by an output signal from the filter processing unit by a filter mixing and multiplying unit, and sums them by the mixing unit to obtain a sufficiently appropriate luminance signal Y and color signal C. And the image quality can be improved.
[0050]
Also, the input signal is classified into any of a plurality of classes in a class classification process using an adaptive filter processing method, and a plurality of filter mixing coefficients corresponding to the class classified in the filter mixing coefficient output process are output. Even if the input signal is subjected to different filtering processes in the filtering process and the sum of the multiplication results of the output signals filtered and the filter mixing coefficients is obtained in the mixing process, the desired filter is obtained. A signal having characteristics can be output, and image quality can be improved.
[0051]
【The invention's effect】
In the adaptive filter device according to the present invention, the class code that is classified and supplied to the corresponding class by the class classification unit is supplied as an address from the requantization processing unit to the weight coefficient ROM of the filter mixing unit. The filter mixing coefficient learned in advance for each class from the video signal, the luminance signal Y and the color signal C before being multiplexed according to the class code is supplied to the filter mixing processing unit of the filter mixing unit. The filter processing unit of the filter mixing unit including a plurality of filters supplies each output signal obtained by performing a plurality of filtering processes on one input signal to the filter mixing processing unit. In the filter mixing processing unit, the result of multiplying the filter mixing coefficient by each output signal from the filter processing unit is mixed, and the number of the conventional filtering processing and the mixing coefficient are increased, thereby improving the accuracy of the filtering processing and improving the image quality. Can be improved.
[0052]
Also, a plurality of filter mixing coefficients output from the weighting coefficient ROM and output signals from the filter processing units are respectively associated one-to-one with each other, and block-divided data are respectively output to the filter mixing unit for the luminance signal Y and the color signal C. Even if they are mixed by the filter mixing section, the luminance signal Y and the chrominance signal C can be sufficiently separated to improve the accuracy of the filter processing and improve the image quality.
[0053]
The filter mixing unit multiplies a plurality of filter mixing coefficients from the weight coefficient ROM by an output signal from the filter processing unit by a filter mixing and multiplying unit, and sums them by the mixing unit to obtain a sufficiently appropriate luminance signal Y and color signal C. And the image quality can be improved.
[0054]
Also, the input signal is classified into any of a plurality of classes in a class classification process using an adaptive filter processing method, and a plurality of filter mixing coefficients corresponding to the class classified in the filter mixing coefficient output process are output. Even if the input signal is subjected to different filtering processes in the filtering process and the sum of the multiplication results of the output signals filtered and the filter mixing coefficients is obtained in the mixing process, the desired filter is obtained. A signal having characteristics can be output, and image quality can be improved.
In addition, the plurality of filter mixing coefficients output in the filter mixing coefficient output step and the output signal output in the filter processing step correspond to each other in a one-to-one correspondence. Even if the signals are mixed in the mixing step in the filter mixing unit for the signal C, the luminance signal Y and the chrominance signal C can be sufficiently separated to improve the accuracy of the filtering process and improve the image quality.
In the filter mixing step, a plurality of filter mixing coefficients output in the filter mixing coefficient output step and the output signal output in the filter processing step are multiplied in the filter mixing multiplication step, and the sum is calculated in the mixing step to obtain a sufficiently appropriate luminance signal Y. Separation from the color signal C can be performed to improve image quality.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram of an adaptive Y / C separation device to which an adaptive filter device according to the present invention is applied.
FIG. 2 is a block diagram showing a configuration of a class classification unit of the adaptive Y / C separation device.
FIG. 3 is a block circuit diagram showing a configuration of a filter mixing unit of the adaptive Y / C separation device.
FIG. 4 is a flowchart illustrating an operation in the adaptive Y / C separation device.
FIG. 5 is a schematic diagram illustrating an arrangement of pixels related to a tap for correlation determination and class generation in the adaptive Y / C separation device.
FIG. 6 is a schematic diagram illustrating an arrangement of pixels related to a separation tap used in a filter process in the adaptive Y / C separation device.
FIG. 7 is a flowchart illustrating a learning process of a filter coefficient in the adaptive filter processing method according to the present invention.
[Explanation of symbols]
1 Classification section
2 Filter mixing section
3 I, Q signal separation processing unit
4 Input terminal
5, 6, 7 output terminals
1a Blocking processing unit
1b Correlation processing unit
1c Requantization processing unit
2a Filter Mixer for Luminance Signal Y
2b Color signal C filter mixing unit
21 Weight coefficient ROM
22 Filter processing section
22a to 22n filter circuits
23 Filter mixing section
23a to 23n filter mixing coefficient multiplier
23M mixing unit (adder)

Claims (6)

入力信号に応じてフィルタ特性を変化させる適応フィルタ装置において、
入力信号に対して複数のクラスの内のいずれかに分類するクラス分類手段と、
上記クラス分類手段により分類されたクラスに応じて予め学習されたフィルタ混合係数を出力するフィルタ混合係数出力手段と、
複数のフィルタから成り、入力信号に対して該複数のフィルタによりそれぞれ互いに異なるフィルタ処理を行った複数の出力信号を出力するフィルタ処理手段と、
上記フィルタ処理手段からの各出力信号を上記フィルタ混合係数出力手段からのフィルタ混合係数に応じて混合する混合手段とを有し、
上記フィルタ処理手段は、輝度信号Yと色信号Cとが多重化された映像信号をフィルタ処理して輝度信号Yと色信号Cとに分離するY/C分離フィルタであって、
上記フィルタ混合係数は、上記映像信号と、多重化される前の輝度信号Yと色信号Cとから上記クラス毎に予め学習されたものである
ことを特徴とする適応フィルタ装置。
In an adaptive filter device that changes a filter characteristic according to an input signal,
Class classification means for classifying the input signal into any of a plurality of classes;
A filter combining coefficient output means for outputting previously learned filter combining coefficient according to the classified class by the class classification means,
Filter processing means comprising a plurality of filters, and outputting a plurality of output signals obtained by performing different filter processing on the input signal by the plurality of filters,
The output signals from the filtering means and a mixing means for mixing according to the filter combining coefficients from the filter combining coefficient output means,
The filter processing means is a Y / C separation filter for filtering a video signal in which a luminance signal Y and a chrominance signal C are multiplexed to separate the video signal into a luminance signal Y and a chrominance signal C,
The adaptive filter device, wherein the filter mixing coefficient is learned in advance for each class from the video signal, a luminance signal Y and a chrominance signal C before being multiplexed.
上記フィルタ混合係数出力手段が出力する複数のフィルタ混合係数とフィルタ処理手段からの出力信号とをそれぞれ一対一に対応させてブロック化されたデータをそれぞれ輝度信号Y用のフィルタ混合手段と色信号C用のフィルタ混合手段で混合することを特徴とする請求項1記載の適応フィルタ装置。The plurality of filter mixing coefficients output by the filter mixing coefficient output means and the output signals from the filter processing means correspond to each other on a one-to-one basis. 2. The adaptive filter device according to claim 1, wherein the filter is mixed by a filter mixing means for the filter. 上記混合手段は、上記フィルタ処理手段からの各出力信号に上記フィルタ混合係数出力手段からのフィルタ混合係数を乗算するフィルタ混合係数乗算手段と、
該フィルタ混合係数乗算手段からの出力信号の総和をとる加算手段とを有する請求項1記載の適応フィルタ装置。
The mixing means is a filter mixing coefficient multiplying means for multiplying each output signal from the filter processing means by a filter mixing coefficient from the filter mixing coefficient output means,
2. An adaptive filter device according to claim 1, further comprising an adding means for calculating a sum of output signals from said filter mixing coefficient multiplying means.
入力信号に応じてフィルタ特性を変化させる適応フィルタ処理方法において、
入力信号に対して複数のクラスの内のいずれかに分類するクラス分類工程と、
上記クラス分類工程により分類されたクラスに応じて予め学習された複数のフィルタ混合係数を出力するフィルタ混合係数出力工程と、
入力信号に対して複数のフィルタにより、それぞれ互いに異なるフィルタ処理を行った複数の出力信号を出力するフィルタ処理工程と、
上記フィルタ処理工程からの各出力信号を上記フィルタ混合係数出力工程からのフィルタ混合係数に応じて混合する混合工程とを有し、
上記フィルタ処理工程では、輝度信号Yと色信号Cとが多重化された映像信号をフィルタ処理して輝度信号Yと色信号Cとに分離され、
上記フィルタ混合係数は、上記映像信号と、多重化される前の輝度信号Yと色信号Cとから上記クラス毎に予め学習されたものである
ことを特徴とする適応フィルタ処理方法。
In an adaptive filter processing method for changing a filter characteristic according to an input signal,
A classifying step of classifying the input signal into one of a plurality of classes;
A filter combining coefficient output step of outputting a plurality of filter mixing coefficients previously learned in accordance with the classes classified by the classification step,
A filtering process of outputting a plurality of output signals obtained by performing different filtering processes on the input signal by a plurality of filters,
A mixing step of mixing each output signal from the filtering step according to the filter mixing coefficient from the filter mixing coefficient output step,
In the filtering process, the video signal in which the luminance signal Y and the color signal C are multiplexed is filtered to be separated into the luminance signal Y and the color signal C,
The adaptive filter processing method, wherein the filter mixing coefficient is learned in advance for each class from the video signal, a luminance signal Y and a chrominance signal C before being multiplexed.
上記フィルタ混合係数出力工程で出力する複数のフィルタ混合係数とフィルタ処理工程で出力する出力信号とをそれぞれ一対一に対応させてブロック化されたデータをそれぞれ輝度信号Y用のフィルタ混合手段と色信号C用のフィルタ混合手段で混合工程にて混合することを特徴とする請求項4記載の適応フィルタ処理方法。The plurality of filter mixing coefficients output in the filter mixing coefficient output step and the output signal output in the filter processing step correspond to each other in a one-to-one correspondence. 5. The adaptive filter processing method according to claim 4, wherein mixing is performed in a mixing step by a C filter mixing unit. 上記混合工程では、上記フィルタ処理工程で出力する各出力信号に上記フィルタ混合係数出力工程で出力する複数のフィルタ混合係数を乗算するフィルタ混合係数乗算工程と、
該フィルタ混合係数乗算工程で出力する出力信号の総和をとる加算工程とを有する請求項4記載の適応フィルタ処理方法。
In the mixing step, a filter mixing coefficient multiplying step of multiplying each output signal output in the filter processing step by a plurality of filter mixing coefficients output in the filter mixing coefficient output step,
5. The adaptive filter processing method according to claim 4, further comprising an addition step of calculating a sum of output signals output in the filter mixing coefficient multiplication step.
JP05714094A 1994-03-28 1994-03-28 Adaptive filter device and adaptive filter processing method Expired - Lifetime JP3567479B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05714094A JP3567479B2 (en) 1994-03-28 1994-03-28 Adaptive filter device and adaptive filter processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05714094A JP3567479B2 (en) 1994-03-28 1994-03-28 Adaptive filter device and adaptive filter processing method

Publications (2)

Publication Number Publication Date
JPH07274202A JPH07274202A (en) 1995-10-20
JP3567479B2 true JP3567479B2 (en) 2004-09-22

Family

ID=13047274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05714094A Expired - Lifetime JP3567479B2 (en) 1994-03-28 1994-03-28 Adaptive filter device and adaptive filter processing method

Country Status (1)

Country Link
JP (1) JP3567479B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0896481B1 (en) * 1997-08-05 2006-08-23 Micronas Semiconductor Holding AG Adaptive filter

Also Published As

Publication number Publication date
JPH07274202A (en) 1995-10-20

Similar Documents

Publication Publication Date Title
US6456329B1 (en) De-interlacing of video signals
US5323232A (en) Filter device for decimation and interpolation of chrominance components of a video signal
EP0909516A1 (en) Method and apparatus for decoding spatiochromatically multiplexed color images using predetermined coefficients
US5268771A (en) Image restoration processing system and method
KR100499434B1 (en) Image converter and image conversion method
JPWO2006043414A1 (en) Image processing method and image processing apparatus
KR970004198B1 (en) Television signal processing system
CN101443810A (en) Up-scaling
US20030007100A1 (en) Electronic circuit and method for enhancing an image
JP2007096431A (en) Digital video format down-conversion apparatus and method with optional conversion ratio
JPH0646817B2 (en) Video signal processor
US6934411B2 (en) Method and apparatus for RGB color conversion that can be used in conjunction with lossless and lossy image compression
JP3567479B2 (en) Adaptive filter device and adaptive filter processing method
JPH10262266A (en) Signal processing unit, method for signal processing and signal processing system
JP4175124B2 (en) Image signal processing device
US5534919A (en) Image pickup apparatus for estimating a complementary color value of a target pixel
CA2179882C (en) Multimode interpolation filter as for a tv receiver
JP3632987B2 (en) Processing apparatus and method
JPH0265372A (en) Encoding system for picture
JP2001086528A (en) Signal processing method and signal processor
JP4139979B2 (en) Image conversion apparatus and method, and recording medium
EP1503600B1 (en) Image signal processing for suppressing artefacts in a luminance signal from an image sensor having a pixel array and an overlaid colour filter pattern
JPH1042311A (en) Image signal processor
JP2006048721A (en) Integrated circuit for processing digital signal
US20040264809A1 (en) Image processing apparatus, image processing method and image processing system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040607

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080625

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080625

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090625

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090625

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100625

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100625

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110625

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120625

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130625

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term