JP4045539B2 - Image processing apparatus, image processing method, coefficient calculation apparatus, coefficient calculation method, recording medium, and program - Google Patents

Image processing apparatus, image processing method, coefficient calculation apparatus, coefficient calculation method, recording medium, and program Download PDF

Info

Publication number
JP4045539B2
JP4045539B2 JP2002199403A JP2002199403A JP4045539B2 JP 4045539 B2 JP4045539 B2 JP 4045539B2 JP 2002199403 A JP2002199403 A JP 2002199403A JP 2002199403 A JP2002199403 A JP 2002199403A JP 4045539 B2 JP4045539 B2 JP 4045539B2
Authority
JP
Japan
Prior art keywords
pixel
image signal
signal
coefficient
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002199403A
Other languages
Japanese (ja)
Other versions
JP2004048128A (en
Inventor
哲二郎 近藤
靖 立平
健治 高橋
丈晴 西片
左近 山元
志津男 近岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002199403A priority Critical patent/JP4045539B2/en
Publication of JP2004048128A publication Critical patent/JP2004048128A/en
Application granted granted Critical
Publication of JP4045539B2 publication Critical patent/JP4045539B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Of Color Television Signals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置および画像処理方法、係数算出装置および係数算出方法、記録媒体、並びにプログラムに関し、特に、コンポジット信号からコンポーネント信号に変換する際に生じる画質の劣化を抑制することができるようにした画像処理装置および画像処理方法、係数算出装置および係数算出方法、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】
一般に、テレビジョン受像機は、映像信号のコンポジット信号をコンポーネント信号に変換して、映像として表示している。映像信号としては、NTSC(National Television Standards Committee)方式のコンポジット映像信号が広く使用されている。
【0003】
図1は、従来のテレビジョン受像機1の構成を示すブロック図である。
【0004】
アンテナ11は、放送信号を受信する。チューナ12は、アンテナ11で受信した信号を検波、復調し、映像中間周波信号を生成する。映像中間周波信号処理部(VIF(Video Intermediate Frequency)処理部)13は、入力された映像中間周波信号を復調し、コンポジット映像信号を生成する。Y/C(Y:輝度信号、C:クロマ信号)分離部14は、入力されたコンポジット映像信号から、輝度信号Yとクロマ信号Cを分離する。クロマ復調部15は、クロマ信号Cの入力を受けて復調し、色差信号R−Yと色差信号B−Yを生成する。マトリクス処理部16は、輝度信号Y、並びに、色差信号R−Y、および、色差信号B−Yの入力を受けて、原色RGB信号を生成する。表示部17は、例えば、CRT(Cathode Ray Tube)やLCD(liquid crystal display:液晶ディスプレイ)で構成され、供給されたRGB信号を表示する。
【0005】
次に、テレビジョン受像機1の動作について説明する。チューナ12は、図示しない操作部を用いてユーザが指定したチャンネルの放送局の電波を、アンテナ11を介して受信し、受信した電波を検波、復調して、映像中間周波信号を生成し、VIF処理部13に出力する。VIF処理部13は、チューナ12より出力された映像中間周波信号を復調し、NTSC方式のコンポジット映像信号を生成して、Y/C分離部14に出力する。Y/C分離部14は、入力されたコンポジット映像信号から、輝度信号Yとクロマ信号Cを分離して、輝度信号Yをマトリクス処理部16に、クロマ信号Cをクロマ復調部15に、それぞれ出力する。
【0006】
クロマ復調部15は、Y/C分離部14より入力されたクロマ信号Cを復調し、色差信号R−Yと色差信号B−Yを生成し、マトリクス処理部16に出力する。マトリクス処理部16は、Y/C分離部14より供給された輝度信号Yと、クロマ復調部15より入力された色差信号R−Y、および、色差信号B−Yを合成し、原色RGB信号を生成して、表示部17に出力して表示させる。
【0007】
図2は、図1を用いて説明したテレビジョン受像機1と異なる構成を有する、従来のテレビジョン受像機21の構成を示すブロック図である。
【0008】
基本的な構成は、図1のテレビジョン受像機1と同様であるが、図2のテレビジョン受像機21においては、新たに、画素数変換部31が設けられている。画素数変換部31は、Y/C分離部14より供給された輝度信号Yと、クロマ復調部15より入力された色差信号R−Y、および、色差信号B−Yに基づいて、画素密度の変更や、IP変換(Interlace/Progressive変換)等を実行し、マトリクス処理部16に出力する。
【0009】
なお、図2のテレビジョン受像機21の動作は、画素数変換部31によって、Y/C分離部14より供給された輝度信号Y、クロマ復調部15より入力された色差信号R−Y、および、色差信号B−Yに対して、画素密度の変換処理や、IP変換の処理が実行され、マトリクス変換部16に供給されること以外は、図1のテレビジョン受像機1の動作と基本的に同様である。
【0010】
【発明が解決しようとする課題】
このように、従来のテレビジョン受像機1、もしくはテレビジョン受像機21においては、コンポジット映像信号を、まず、Y/C分離部14で輝度信号Yとクロマ信号Cとに分離し、その後、クロマ信号Cを復調して、ベースバンドの輝度信号Y、色差信号R−Y、および、色差信号B−Yよりなるコンポーネント信号に変換し、マトリクス処理部16が、このコンポーネント信号から、原色RGB信号を生成するようになされていた。このため、回路構成が複雑になるばかりでなく、その規模も大きくなり、コスト高となる課題があった。
【0011】
また、従来のY/C分離法として、2次元Y/C分離回路や3次元Y/C分離回路などからなるフィルタが提案されているが、その処理の過程において、ドット妨害やクロスカラーなどのY/C分離のエラーに起因する画質劣化が発生し易いという課題があった。
【0012】
これらの課題を解決すべく、クラス分類適応処理を用いた方法が提案されている。このクラス分類適応処理を用いた方法においては、着目画素における輝度信号Y、色差信号R−Y、および、色差信号B−Yのコンポーネント信号を得るために、まず、着目画素を含めた、その付近に配置される画素(この画素は、クラスタップと称される)の特徴量をコンポジット信号から求めて、その特徴量毎に予め分類されたクラスを特定する。そして、着目画素を含めた、その付近の画素のコンポジット信号からなる画素(この画素は、予測タップと称され、クラスタップと同じこともある)に、クラス毎に予め設定された係数を用いて演算処理が施されて、着目画素のコンポーネント信号が求められる。
【0013】
しかしながら、クラスタップおよび予測タップの選択方法により、同じコンポジット信号が入力されても、変換後のコンポーネント信号は異なるものとなる。このため、クラスタップと予測タップの選択方法が適正でない場合、Y/C分離のエラーの発生時と同様にして、ドット妨害やクロスカラーなどといった画質劣化が生じてしまうという課題があった。
【0014】
本発明はこのような状況に鑑みてなされたものであり、回路構成を簡単、かつ、小さい規模のものとし、更に、コンポジット信号からコンポーネント信号への変換の際に生じる画質の劣化、特に、水平方向に急峻な輝度変化がある箇所を検出することにより、クロスカラーの発生を抑制することができるようにするものである。
【0015】
【課題を解決するための手段】
本発明の画像処理装置は、第1の画像信号から、着目画素に対応した複数の第1の画素信号を抽出する第1の抽出手段と、第1の抽出手段により抽出された、複数の第1の画素信号を基に、着目画素近傍の画素の輝度の変化に関する情報を検出する検出手段と、検出手段により検出された着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、着目画素の周辺で水平方向に輝度が弧状に変化しているか否かを検出し、着目画素が属するクラスを示すクラス情報を生成する生成手段と、クラス毎に予め定められた係数を記憶し、生成手段により生成されたクラス情報に対応した係数を出力する係数記憶手段と、第1の画像信号から、複数の第2の画素信号を抽出する第2の抽出手段と、第2の抽出手段により抽出された第2の画素信号と、係数記憶手段により出力された係数との演算により、第1の画像信号である着目画素を、第2の画像信号に変換する第1の信号変換手段とを備えることを特徴とする。
【0016】
検出手段には、着目画素近傍の複数の画素の画素値と、所定の複数の基本波形との相関を求めることにより、着目画素近傍の画素の輝度の変化に関する情報を検出させるようにすることができる。
【0017】
第1の画像信号は、コンポジット信号であり、第2の画像信号は、コンポーネント信号であるものとすることができる。
【0018】
第1の信号変換手段により変換された第2の画像信号を表示する表示手段を更に備えさせるようにすることができる。
【0019】
画像信号を含むデータを取得する取得手段と、取得手段により取得されたデータのうちの少なくとも一部を、第1の抽出手段が処理可能な第1の画像信号に変換する第2の信号変換手段とを更に備えさせるようにすることができる。
【0020】
本発明の画像処理方法は、第1の画像信号から、着目画素に対応した複数の第1の画素信号を抽出する第1の抽出ステップと、第1の抽出ステップの処理により抽出された、複数の第1の画素信号を基に、着目画素近傍の画素の輝度の変化に関する情報を検出する検出ステップと、検出ステップの処理により検出された着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、着目画素周辺で水平方向に輝度が弧状に変化しているか否かを検出し、着目画素が属するクラスを示すクラス情報を生成する生成ステップと、クラス毎に予め定められて記憶されている係数のうち、生成ステップの処理により生成されたクラス情報に対応した係数の出力を制御する係数出力制御ステップと、第1の画像信号から、複数の第2の画素信号を抽出する第2の抽出ステップと、第2の抽出ステップの処理により抽出された第2の画素信号と、係数出力制御ステップの処理により出力が制御された係数との演算により、第1の画像信号である着目画素を、第2の画像信号に変換する信号変換ステップとを含むことを特徴とする。
【0021】
本発明の第1の記録媒体に記録されているプログラムは、第1の画像信号から、着目画素に対応した複数の第1の画素信号を抽出する第1の抽出ステップと、第1の抽出ステップの処理により抽出された、複数の第1の画素信号を基に、着目画素近傍の画素の輝度の変化に関する情報を検出する検出ステップと、検出ステップの処理により検出された着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、着目画素周辺で水平方向に輝度が弧状に変化しているか否かを検出し、着目画素が属するクラスを示すクラス情報を生成する生成ステップと、クラス毎に予め定められて記憶されている係数のうち、生成ステップの処理により生成されたクラス情報に対応した係数の出力を制御する係数出力制御ステップと、第1の画像信号から、複数の第2の画素信号を抽出する第2の抽出ステップと、第2の抽出ステップの処理により抽出された第2の画素信号と、係数出力制御ステップの処理により出力が制御された係数との演算により、第1の画像信号である着目画素を、第2の画像信号に変換する信号変換ステップとを含むことを特徴とする。
【0022】
本発明の第1のプログラムは、第1の画像信号から、着目画素に対応した複数の第1の画素信号を抽出する第1の抽出ステップと、第1の抽出ステップの処理により抽出された、複数の第1の画素信号を基に、着目画素近傍の画素の輝度の変化に関する情報を検出する検出ステップと、検出ステップの処理により検出された着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、着目画素周辺で水平方向に輝度が弧状に変化しているか否かを検出し、着目画素が属するクラスを示すクラス情報を生成する生成ステップと、クラス毎に予め定められて記憶されている係数のうち、生成ステップの処理により生成されたクラス情報に対応した係数の出力を制御する係数出力制御ステップと、第1の画像信号から、複数の第2の画素信号を抽出する第2の抽出ステップと、第2の抽出ステップの処理により抽出された第2の画素信号と、係数出力制御ステップの処理により出力が制御された係数との演算により、第1の画像信号である着目画素を、第2の画像信号に変換する信号変換ステップとを含むことを特徴とする。
【0023】
本発明の係数算出装置は、入力された第1の画像信号から第2の画像信号を生成する画像信号生成手段と、第2の画像信号から着目画素に対応した複数の画素位置の複数の第1の画素信号を抽出する第1の抽出手段と、第1の抽出手段により抽出された、複数の第1の画素信号を基に、着目画素近傍の画素の輝度の変化に関する情報を検出する検出手段と、検出手段により検出された着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、着目画素周辺で水平方向に輝度が弧状に変化しているか否かを検出し、着目画素が属するクラスを示すクラス情報を生成する生成手段と、第2の画像信号から、複数の第2の画素信号を抽出する第2の抽出手段と、第2の抽出手段により抽出された第2の画素信号、および、入力された第1の画像信号に基づいて、クラスに対応した係数を算出する算出手段とを備えることを特徴とする。
【0024】
検出手段には、着目画素近傍の複数の画素の画素値と、所定の複数の基本波形との相関を求めることにより、着目画素近傍の画素の輝度の変化に関する情報を検出させるようにすることができる。
【0025】
第1の画像信号はコンポーネント信号であり、第2の画像信号は、コンポジット信号であるものとすることができる。
【0026】
算出手段により算出された係数を記憶する記憶手段を更に備えさせるようにすることができる。
【0027】
本発明の係数算出方法は、入力された第1の画像信号から第2の画像信号を生成する画像信号生成ステップと、第2の画像信号から、着目画素に対応した複数の第1の画素信号を抽出する第1の抽出ステップと、第1の抽出ステップの処理により抽出された、複数の第1の画素信号を基に、着目画素近傍の画素の輝度の変化に関する情報を検出する検出ステップと、検出ステップの処理により検出された着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、着目画素周辺で水平方向に輝度が弧状に変化しているか否かを検出し、着目画素が属するクラスを示すクラス情報を生成する生成ステップと、第2の画像信号から、複数の第2の画素信号を抽出する第2の抽出ステップと、第2の抽出ステップの処理により抽出された第2の画素信号、および、入力された第1の画像信号に基づいて、クラスに対応した係数を算出する算出ステップとを含むことを特徴とする。
【0028】
本発明の第2の記録媒体に記録されているプログラムは、入力された第1の画像信号から第2の画像信号を生成する画像信号生成ステップと、第2の画像信号から、着目画素に対応した複数の第1の画素信号を抽出する第1の抽出ステップと、第1の抽出ステップの処理により抽出された、複数の第1の画素信号を基に、着目画素近傍の画素の輝度の変化に関する情報を検出する検出ステップと、検出ステップの処理により検出された着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、着目画素周辺で水平方向に輝度が弧状に変化しているか否かを検出し、着目画素が属するクラスを示すクラス情報を生成する生成ステップと、第2の画像信号から、複数の第2の画素信号を抽出する第2の抽出ステップと、第2の抽出ステップの処理により抽出された第2の画素信号、および、入力された第1の画像信号に基づいて、クラスに対応した係数を算出する算出ステップとを含むことを特徴とする。
【0029】
本発明の第2のプログラムは、入力された第1の画像信号から第2の画像信号を生成する画像信号生成ステップと、第2の画像信号から、着目画素に対応した複数の第1の画素信号を抽出する第1の抽出ステップと、第1の抽出ステップの処理により抽出された、複数の第1の画素信号を基に、着目画素近傍の画素の輝度の変化に関する情報を検出する検出ステップと、検出ステップの処理により検出された着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、着目画素周辺で水平方向に輝度が弧状に変化しているか否かを検出し、着目画素が属するクラスを示すクラス情報を生成する生成ステップと、第2の画像信号から、複数の第2の画素信号を抽出する第2の抽出ステップと、第2の抽出ステップの処理により抽出された第2の画素信号、および、入力された第1の画像信号に基づいて、クラスに対応した係数を算出する算出ステップとを含むことを特徴とする。
【0030】
本発明の画像処理装置および画像処理方法、並びに、第1のプログラムにおいては、第1の画像信号から、着目画素に対応した複数の第1の画素信号が抽出され、複数の第1の画素信号を基に、着目画素近傍の画素の輝度の変化に関する情報が検出され、着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、着目画素周辺で水平方向に輝度が弧状に変化しているか否かが検出されて、着目画素が属するクラスを示すクラス情報が生成され、クラス毎に予め定められて記憶されている係数のうち、クラス情報に対応した係数が出力され、第1の画像信号から、複数の第2の画素信号が抽出され、第2の画素信号と係数との演算により、第1の画像信号である着目画素が、第2の画像信号に変換される。
【0031】
本発明の係数算出装置および係数算出方法、並びに第2のプログラムにおいては、入力された第1の画像信号から第2の画像信号が生成され、第2の画像信号から、着目画素に対応した複数の第1の画素信号が抽出され、複数の第1の画素信号を基に、着目画素近傍の画素の輝度の変化に関する情報が検出され、着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、着目画素周辺で水平方向に輝度が弧状に変化しているか否かが検出されて、着目画素が属するクラスを示すクラス情報が生成され、第2の画像信号から、複数の第2の画素信号が抽出され、第2の画素信号、および、第1の画像信号に基づいて、クラスに対応した係数が算出される。
【0032】
【発明の実施の形態】
以下、図を参照して、本発明の実施の形態について説明する。
【0033】
図3は、本発明を適用したテレビジョン受像機41の構成を示すブロック図である。図3においては、図1、および、図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
【0034】
すなわち、図3の構成においては、図1のY/C分離部14、およびクロマ復調部15に代わって、VIF処理部13とマトリクス処理部16の間に、A/D(Analog/Digital)変換部51、および、クラス分類適応処理部52が備えられている。
【0035】
A/D変換部51は、VIF処理部13より入力されるアナログ信号からなるNTSC方式のコンポジット映像信号を、デジタル信号に変換して、クラス分類適応処理部52に出力する。クラス分類適応処理部52は、A/D変換部51より入力された、デジタル信号に変換されているNTSC方式のコンポジット映像信号から、輝度信号Y、並びに、色差信号R−Y、および、色差信号B−Y信号からなるコンポーネント信号を、クラス分類適応処理により生成する。コンポジット映像信号からコンポーネント信号を予測生成するための予測係数は、図13を用いて後述する係数算出装置81によって、コンポーネント信号を教師画像とし、そのコンポーネント信号をNTSC変調して作成したNTSCコンポジット映像信号を生徒画像とした学習により生成される。そして、クラス分類適応処理部52において、その予測係数が用いられて、マッピング(予測演算処理)されることによりコンポーネント信号が生成される。
【0036】
図4は、クラス分類適応処理部52の更に詳細な構成を示すブロック図である。A/D変換部51より入力されたNTSC方式のコンポジット映像信号は、領域抽出部61、および領域抽出部65に供給される。領域抽出部61は、入力されたデジタル信号に変換されているコンポジット映像信号から、クラス分類を行うために必要な着目画素に対応した画素位置の画素(クラスタップ)を抽出し、パターン検出部62に出力する。
【0037】
パターン検出部62は、入力されたクラスタップに基づいて、コンポジット映像信号のパターンを検出する。具体的には、パターン検出部62は、着目画素が水平方向に急峻な輝度変化を有するか否かを検出するために必要な、コンポジット映像信号の輝度の変化を示す複数の演算値のパターンを決定し、クラスコード決定部63に出力する。
【0038】
クラスコード決定部63は、パターン検出部62で検出されたパターン(複数の演算値)に基づいて、着目画素近辺において、水平方向に急峻な輝度変化が生じているか否かを示すクラスコードを決定し、係数メモリ64、および、領域抽出部65に出力する。係数メモリ64は、予め学習により求められたクラス毎の予測係数を記憶しており、クラスコード決定部63より入力されたクラスコードに対応する予測係数を読み出し、予測演算部66に出力する。なお、係数メモリ64に記憶されている予測係数を求めるための学習処理については、図13、および図14を参照して後述する。
【0039】
領域抽出部65は、クラスコード決定部63より入力されたクラスコードに基づいて、A/D変換部51より入力されたコンポジット映像信号から、コンポーネント信号を予測生成するのに必要な着目画素に対応した画素位置の画素(予測タップ)を抽出し、予測演算部66に出力する。予測演算部66は、領域抽出部65より入力された予測タップに対して、係数メモリ64より入力された予測係数を乗算し、コンポーネント信号の1つである輝度信号Yを生成する。
【0040】
より詳細には、係数メモリ64は、クラスコード決定部63より供給されるクラスコードに対応する予測係数を、予測演算部66に出力する。予測演算部66は、領域抽出部65より供給されるNTSC方式のコンポジット映像信号から抽出された予測タップと、係数メモリ64より供給された予測係数とを用いて、以下の式(1)に示す積和演算を実行することにより、コンポーネント信号を求める(予測推定する)。
【0041】
y=w1×x1+w2×x2+・・・・+wn×xn・・・(1)
【0042】
ここで、yは、着目画素である。また、x1,・・・・,xnが、各予測タップであり、w1,・・・・,wnが、各予測係数である。
【0043】
なお、図示は省略するが、コンポーネント信号のうち、色差信号R−Y、および、色差信号B−Yを生成するための回路も、それぞれ同様に構成されている。色差信号R−Y、または、色差信号B−Yを生成するための回路の構成は、図4に示した場合と同様であり、図4に示した場合においては、輝度信号Yを生成するための予測係数が、係数メモリ64に記憶されているのに対して、色差信号R−Yまたは色差信号B−Yを生成する場合、色差信号R−Yまたは色差信号B−Yを生成するための予測係数が、係数メモリ64に記憶され、それぞれのクラスコードの決定に用いられる。
【0044】
次に、図5のフローチャートを参照して、図3で示したテレビジョン受像機41がコンポジット映像信号をコンポーネント信号に変換し、表示部17に表示させる表示処理について説明する。
【0045】
ステップS1において、チューナ12は、アンテナ11を介して所定の周波数の信号を受信し、復調して、映像中間周波信号を生成し、VIF処理部13に出力する。
【0046】
ステップS2において、VIF処理部13は、入力された映像中間周波信号を復調し、NTSC方式のコンポジット信号を生成して、A/D変換部51に出力する。
【0047】
ステップS3において、A/D変換部51は、入力されたコンポジット信号を、アナログ信号からデジタル信号に変換して、クラス分類適応処理部52に出力する。
【0048】
ステップS4において、クラス分類適応処理部52の領域抽出部61は、クラスタップを抽出する。
【0049】
クラスタップ抽出について、より詳細に説明する。図6は、NTSC信号を色副搬送波周波数fscの4倍のサンプリング周波数(4fsc)でサンプリングした場合のクロマ信号の位相を示す図である。NTSC方式のテレビジョン信号は、輝度信号Yにクロマ信号Cが平衡変調されて多重化されているため、コンポジット信号のサンプリング点によって、そのクロマ信号の位相が異なる。
【0050】
NTSC方式のコンポジット信号は、輝度信号YにI信号、またはQ信号が加算、もしくは、減算された信号で構成されており、これらによりY+I、Y+Q、Y−I、および、Y−Qの4位相の信号が形成され、これらの信号の位相角は、それぞれ90度ずつ異なる。着目画素が、輝度信号Yに対して、I信号が加算された信号(Y+I)である場合、Y+I、Y+Q、Y−I、および、Y−Qの4位相の信号は、着目画素に対して、それぞれ、位相角0度、90度、180度、および、270度の関係を有する。
【0051】
図6において、図中、各フィールドのバツ印(フィールドの中央に位置する画素)は、着目画素の位置を示している。また、図中、白丸を基準として、位相角が0度の信号であるとした場合、黒四角は、対応する位置の画素が、基準となる白丸の画素に対して位相角が90度の信号であることを、黒丸は、対応する位置の画素が、基準となる白丸の画素に対して位相角が180度の信号であることを、そして、白四角は、対応する位置の画素が、基準となる白丸の画素に対して位相角が270度の信号であることを、それぞれ示している。領域抽出部61には、図6に示されるようなコンポジット映像信号が入力される。
【0052】
なお、各画素の位相角の表示方法は、以下においても同様とする。
【0053】
図7を用いて、クラスタップとして抽出される画素について説明する。図7においては、図中、水平方向のラインを水平走査方向としており、図中最上段に、着目画素より2ライン前(上)のラインであるラインa(−2_Line)が示され、以下、着目画素より1ライン前(上)のラインであるラインb(−1_Line)、着目画素を含むラインであるラインc(0_Line)、着目画素より1ライン後(下)のラインであるラインd(+1_Line)、および、着目画素より2ライン後(下)のラインであるラインe(+2_Line)が、それぞれ示されている。以下、それぞれの画素を、ラインとライン上の位置を示す数字などによって、aX,bX,cX,dX、または、eX(X=0,1,・・・,9,A)と示すものとする。
【0054】
領域抽出部61は、図7に示されるように、クラスタップとして、着目画素c5(図中、c(0_line)の水平ライン中の左から5番目に位置する、バツ印により示される画素)の周辺の画素を抽出する。領域抽出部61は、図中、範囲E−1に示される、画素a2乃至a7、図中、範囲E−2に示される、画素c1乃至c9、および、図中、範囲E−3で示される画素e2乃至e7を、クラスタップとして抽出し、パターン検出部62に出力する。
【0055】
ステップS5において、パターン検出部62およびクラスコード決定部63は、図11を用いて後述するクラスコード決定処理を実行して、クラスコードを決定する。これらの処理において、着目画素付近に、水平方向に急峻な輝度の変化があると判定された場合、クラスコード決定部63からクラスコード0が出力され、水平方向に急峻な輝度の変化がないと判定された場合、クラスコード決定部63からクラスコード1が出力される。
【0056】
ステップS6において、係数メモリ64は、ステップS5において実行されたクラスコード決定処理によって決定されたクラスコードの値に基づいて、予測係数(図13を用いて後述する係数算出装置81において、図14を用いて後述する処理により予め決定される)のうち、供給されたクラスコードに対応する予測係数を読み出し、予測演算部66に出力する。
【0057】
ステップS7において、領域抽出部65は、入力されたコンポジット信号より予測タップを抽出し、予測演算部66に出力する。
【0058】
すなわち、領域抽出部65は、図8に示されるように、図中、範囲Aで示される、着目画素を中央とする同一ラインの7タップと、その前後1ラインのそれぞれ7タップからなる、合計21タップと、必要に応じて、オフセットタップとを、予測タップとして抽出する。オフセットタップは、予め定められた定数(例えば、−78)であり、コンポジット信号からコンポーネント信号に変換する場合に、両信号間に生じるDC的なずれを修正するために用いられるものである。
【0059】
ステップS8において、予測演算部66は、ステップS6において、係数メモリ64から出力された予測係数と、ステップS7において、領域抽出部65より入力された予測タップとを用いて、例えば、上述した式(1)の演算によりコンポーネント信号を生成して、マトリクス処理部16に出力する。
【0060】
ステップS9において、マトリクス処理部16は、入力されたコンポーネント信号をRGB信号に変換して、表示部17に出力する。
【0061】
ステップS10において、全ての画素について処理が施されたか否かが判定される。ステップS10において、全ての画素について処理が施されていないと判定された場合、処理は、ステップS4に戻り、それ以降の処理が繰り返される。すなわち、全ての画素の信号に処理が施されるまで、ステップS4乃至S10の処理が繰り返される。ステップS10において、全ての画素について処理が施されたと判定された場合、処理は終了される。
【0062】
図5を用いて説明した処理により、水平方向の急峻な輝度の変化に対応して予測タップを抽出し、予測演算を行うことができるので、クロスカラーの発生を抑制することができる。
【0063】
なお、クラスタップ、および、予測タップの選択は、図7、および図8で示した例に限るものではなく、水平方向の急峻な輝度の変化が検出できるクラスタップと、そのクラスタップから生成されるクラスコードにより示される輝度の変化に対応した予測タップであれば、その他のものであっても良い。
【0064】
図5のステップS5において実行されるクラスコード決定処理においては、水平方向に急峻な輝度の変化がある箇所を検出し、その検出結果をクラスに反映させるための処理が実行される。具体的には、着目画素近傍の所定の位置の画素(以下、仮着目画素と称する)を含む、水平に並んだ所定の数の画素と、図9A乃至図9Dに示される4つの基本波形との相関に基づいて、水平方向に急峻な輝度の変化がある箇所が検出される。
【0065】
図9Aに示されるように、仮着目画素より水平方向に2つ左の画素および1つ左の画素が、仮着目画素および仮着目画素より水平方向に1つ右の画素よりその輝度値が低い場合、後述する処理により、この仮着目画素とその近傍の画素は基本波形Aと相関があることを示す値0が得られるものとする。また、図9Bに示されるように、仮着目画素より水平方向に2つ左の画素および1つ左の画素が、仮着目画素および仮着目画素より水平方向に1つ右の画素よりその輝度値が高い場合、後述する処理により、この仮着目画素とその近傍の画素は基本波形Bと相関があることを示す値1が得られるものとする。
【0066】
そして、図9Cに示されるように、仮着目画素より水平方向に2つ左の画素および水平方向に1つ右の画素が、仮着目画素より1つ左の画素および仮着目画素よりも、その輝度値が高い場合、後述する処理により、この仮着目画素とその近傍の画素は基本波形Cと相関があることを示す値2が得られるものとする。また、図9Dに示されるように、仮着目画素より水平方向に2つ左の画素および水平方向に1つ右の画素が、仮着目画素より1つ左の画素および仮着目画素よりも、その輝度値が低い場合、後述する処理により、この仮着目画素とその近傍の画素は基本波形Dと相関があることを示す値3が得られるものとする。
【0067】
クロマ信号は、色副搬送波周波数fscで変調されているため、色を有して輝度の変化が少ない箇所において、基本波形A乃至Dとの相関によって決定される値0乃至3のパターンは、図10Aに示されるように、周期的に繰り返されるパターンとなる。
【0068】
一方、水平方向に急峻な輝度変化がある箇所において、基本波形A乃至Dとの相関によって決定される値0乃至3のパターンは、図10Bに示されるように、少なくとも1つの値0、1つの値3、そして、少なくとも1つの値1が連続するパターン(すなわち、上弦の弧を描く波形)が、垂直方向に同位置で連続しているか、あるいは、図示はしていないが、少なくとも1つの値1、1つの値2、そして、少なくとも1つの値0が連続するパターン(すなわち、下弦の弧を描く波形)が、垂直方向に同位置で連続しているような、特徴的なパターンとなる。
【0069】
従って、着目画素近傍の仮着目画素において、図9を用いて説明した基本波形A乃至Dとの相関を求め、図10Bに示したような、水平方向に急峻な輝度変化がある場合に特徴的に発生するパターンを検出し、その検出結果をクラスに反映させることで、水平方向に急峻な輝度変化がある場合でも、信号変換によってクロスカラーを発生しないようにすることができる。
【0070】
図11のフローチャートを参照して、上述した図10Bに示されるパターンを検出することにより、水平方向の急峻な輝度変化を検出する、図5のステップS5において実行されるクラスコード決定処理について説明する。
【0071】
ステップS31において、パターン検出部62は、クラスタップから仮着目画素およびその周辺の画素を抽出する。
【0072】
仮着目画素は、図12に示される、範囲E−1に含まれる、画素a4,a5,a6からなる範囲F−1と、範囲E−2に含まれる、画素c2,c3,・・・,c7,c8からなる範囲F−2と、範囲E−3に含まれる、画素e4,e5,e6からなる範囲F−3の画素である。パターン検出部62は、仮着目画素1つに対して、仮着目画素以外に、仮着目画素の2つ左の画素、1つ左の画素、および1つ右の画素の、合計4つを抽出し、この4つの画素を基に以下の演算を行う。
【0073】
ステップS32において、パターン検出部62は、仮着目画素において基本波形との相関を求めるための演算値を算出する。
【0074】
例えば、仮着目画素a4において、次の式(2)および式(3)により、基本波形との相関を求めるための演算値Ga40および演算値Ga41が算出される。
【0075】
Ga40=a4+a5−a2−a3・・・(2)
Ga41=a2+a5−a3−a4・・・(3)
【0076】
同様にして、他の仮着目画素においても、式(4)乃至式(27)により、基本波形との相関を求めるための演算値が求められる。
【0077】
Ga50=a5+a6−a3−a4・・・(4)
Ga51=a3+a6−a4−a5・・・(5)
Ga60=a6+a7−a4−a5・・・(6)
Ga61=a4+a7−a5−a6・・・(7)
Ge40=e4+e5−e2−e3・・・(8)
Ge41=e2+e5−e3−e4・・・(9)
Ge50=e5+e6−e3−e4・・・(10)
Ge51=e3+e6−e4−e5・・・(11)
Ge60=e6+e7−e4−e5・・・(12)
Ge61=e4+e7−e5−e6・・・(13)
Gc20=c2+c3−c0−c1・・・(14)
Gc21=c0+c3−c1−c2・・・(15)
Gc30=c3+c4−c1−c2・・・(16)
Gc31=c1+c4−c2−c3・・・(17)
Gc40=c4+c5−c2−c3・・・(18)
Gc41=c2+c5−c3−c4・・・(19)
Gc50=c5+c6−c3−c4・・・(20)
Gc51=c3+c6−c4−c5・・・(21)
Gc60=c6+c7−c4−c5・・・(22)
Gc61=c4+c7−c5−c6・・・(23)
Gc70=c7+c8−c5−c6・・・(24)
Gc71=c5+c8−c6−c7・・・(25)
Gc80=c8+c9−c6−c7・・・(26)
Gc81=c6+c9−c7−c8・・・(27)
【0078】
ステップS33において、パターン検出部62は、仮着目画素ごとに算出された2つの演算値と、それらに(−1)を乗じた値のうち、最も大きい値を求める。
【0079】
例えば、仮着目画素a4において、式(2)および式(3)により算出された、基本波形との相関を求めるための演算値Ga40および演算値Ga41において、(Ga40,−Ga40,Ga41,−Ga41)の4つの値のうち、最も大きな値が求められる。そして、他の仮着目画素についても、同様の演算が行われる。
【0080】
ステップS34において、パターン検出部62は、ステップS33において求められた、4つの演算値のうちの最も大きな値を基に、仮着目画素付近の画素において対応する基本波形(いずれの基本波形と相関があるかを示す値)を検出する。
【0081】
例えば、仮着目画素a4において、(Ga40,−Ga40,Ga41,−Ga41)の4つの値のうち、最も大きな値がGa40である場合、仮着目画素より水平方向に2つ左の画素および1つ左の画素が、仮着目画素および仮着目画素より水平方向に1つ右の画素よりその輝度値が低いことがわかるので、仮着目画素a4において、最も相関がある基本波形は、図9Aを用いて説明した基本波形Aとなる。従って、仮着目画素a4が、いずれの基本波形と相関があるかを示す値Ga4は、Ga4=0とされる。
【0082】
また、仮着目画素a4において、(Ga40,−Ga40,Ga41,−Ga41)の4つの値のうち、最も大きな値が−Ga40である場合、仮着目画素より水平方向に2つ左の画素および1つ左の画素が、仮着目画素および仮着目画素より水平方向に1つ右の画素よりその輝度値が高いことがわかるので、仮着目画素a4において、最も相関がある基本波形は、図9Bを用いて説明した基本波形Bとなる。従って、仮着目画素a4が、いずれの基本波形と相関があるかを示す値Ga4は、Ga4=1とされる。
【0083】
そして、仮着目画素a4において、(Ga40,−Ga40,Ga41,−Ga41)の4つの値のうち、最も大きな値がGa41である場合、仮着目画素より水平方向に2つ左の画素および仮着目画素より水平方向に1つ右の画素が、仮着目画素より1つ左の画素および仮着目画素よりその輝度値が高いことがわかるので、この仮着目画素の近傍は、図9Cを用いて説明した基本波形Cと相関があるとして、Ga4=2が得られる。
【0084】
また、仮着目画素a4において、(Ga40,−Ga40,Ga41,−Ga41)の4つの値のうち、最も大きな値が−Ga41である場合、仮着目画素より水平方向に2つ左の画素および仮着目画素より水平方向に1つ右の画素が、仮着目画素より1つ左の画素および仮着目画素よりその輝度値が低いことがわかるので、この仮着目画素の近傍は、図9Dを用いて説明した基本波形Dと相関があるとして、Ga4=3が得られる。
【0085】
そして、他の仮着目画素についても同様にして、基本波形との相関を求めるための演算値と、それぞれの演算値に(−1)を乗じた値のうち、最も大きい値を求めることにより、その仮着目画素が、いずれの基本波形と相関があるかを示す値Ga5,Ga6,・・・,Ge5,Ge6が、値0、値1、値2、または値3のうちのいずれとなるかが検出される。
【0086】
ステップS35において、パターン検出部62は、全ての仮着目画素について処理が終了されたか否かを判断する。ステップS35において、全ての仮着目画素についての処理が終了されていないと判断された場合、処理は、ステップS31に戻り、それ以降の処理が繰り返される。
【0087】
ステップS35において、全ての仮着目画素についての処理が終了されたと判断された場合、ステップS36において、パターン検出部62は、着目画素に対応する周辺画素と基本波形との相関を示すパターン(値0,1,2,3)を、クラスコード決定部63に出力する。
【0088】
すなわち、パターン検出部62は、ステップS34において得られた、それぞれの仮着目画素がいずれの基本波形と相関があるかを示す値を、クラスコード決定部63に出力する。
【0089】
ステップS37において、クラスコード決定部63は、ステップS36において入力された基本波形との相関を示すパターンから、クラスコードを算出し、処理は、図5のステップS6に戻る。
【0090】
すなわち、次に示す式(28)および式(29)がそれぞれ満たされ、かつ、式(30−1)乃至式(30−16)のいずれかが満たされている場合、着目画素は、水平方向に輝度が急峻に変化している箇所であるので、クラスコードは、クラスコード0とされる。一方、式(28)または式(29)が満たされていないか、もしくは、式(30−1)乃至式(30−16)の全てが満たされていない場合、着目画素は、水平方向に輝度が急峻に変化している箇所ではないので、クラスコードは、クラスコード1とされる。得られたクラスコードの値は、係数メモリ64および領域抽出部65に出力され、処理は、図5のステップS6に戻る。
【0091】
Ga4≠Gc4もしくはGa5≠Gc5もしくはGa6≠Gc6・・・(28)
Ge4≠Gc4もしくはGe5≠Gc5もしくはGe6≠Gc6・・・(29)
【0092】
Gc2=0かつGc3=0かつGc4=3かつGc5=1・・・(30−1)
Gc3=0かつGc4=0かつGc5=3かつGc6=1・・・(30−2)
Gc4=0かつGc5=0かつGc6=3かつGc7=1・・・(30−3)
Gc5=0かつGc6=0かつGc7=3かつGc8=1・・・(30−4)
Gc2=0かつGc3=3かつGc4=1かつGc5=1・・・(30−5)
Gc3=0かつGc4=3かつGc5=1かつGc6=1・・・(30−6)
Gc4=0かつGc5=3かつGc6=1かつGc7=1・・・(30−7)
Gc5=0かつGc6=3かつGc7=1かつGc8=1・・・(30−8)
Gc2=1かつGc3=1かつGc4=2かつGc5=0・・・(30−9)
Gc3=1かつGc4=1かつGc5=2かつGc6=0・・・(30−10)
Gc4=1かつGc5=1かつGc6=2かつGc7=0・・・(30−11)
Gc5=1かつGc6=1かつGc7=2かつGc8=0・・・(30−12)
Gc2=1かつGc3=2かつGc4=0かつGc5=0・・・(30−13)
Gc3=1かつGc4=2かつGc5=0かつGc6=0・・・(30−14)
Gc4=1かつGc5=2かつGc6=0かつGc7=0・・・(30−15)
Gc5=1かつGc6=2かつGc7=0かつGc8=0・・・(30−16)
【0093】
なお、上述した式(30−1)乃至式(30−4)のうちのいずれかが満たされているとき、着目画素付近で得られる基本波形のうちのいずれの波形と相関があるかを示す値のパターンは、(0031)(上弦の弧を描くパターン)であり、式(30−5)乃至式(30−8)のうちのいずれかが満たされているとき、着目画素付近で得られる基本波形のうちのいずれの波形と相関があるかを示す値のパターンは、(0311)(上弦の弧を描くパターン)であり、式(30−9)乃至式(30−12)のうちのいずれかが満たされているとき、着目画素付近で得られる基本波形のうちのいずれの波形と相関があるかを示す値のパターンは、(1120)(下弦の弧を描くパターン)であり、式(30−13)乃至式(30−16)のうちのいずれかが満たされているとき、着目画素付近で得られる基本波形のうちのいずれの波形と相関があるかを示す値のパターンは、(1200)(下弦の弧を描くパターン)である。
【0094】
図11を用いて説明した処理により、パターン検出部62において、着目画素近傍の仮着目画素において、図9を用いて説明した基本波形A乃至Dとの相関が求められ、図10Bに示したような、水平方向に急峻な輝度変化がある場合に特徴的に発生するパターンが検出され、クラスコード決定部63において、その検出結果を基に、水平方向に急峻な輝度変化があるか否かを示すクラスコードが決定される。
【0095】
また、ここでは、図12を用いて説明した仮着目画素13点における基本波形との相関により、水平方向の急峻な輝度の変化を検出するものとして説明したが、仮着目画素の選択は、この限りではなく、より多くの画素を仮着目画素としても、また、より広い範囲において仮着目画素を選択するようにしても良い。
【0096】
更に、以上説明した処理によって検出されたクラス分類結果を、既存のクラス分類方法によるクラス分類結果とともに複合的に用いて、クラス分類を行うようにしてもよい。これにより、更に画質劣化のない画像の変換を行うことができる。
【0097】
次に、図13を参照して、係数メモリ64に記憶されている予測係数を決定するための係数算出装置81について説明する。
【0098】
NTSCエンコーダ91は、教師画像としての輝度信号Y、色差信号R−Y、および、色差信号B−Yからなるコンポーネント信号の入力を受け、入力されたコンポーネント信号から生徒画像としてのNTSC方式のコンポジット映像信号を生成し、領域抽出部92、および、領域抽出部95に出力する。
【0099】
領域抽出部92は、入力されたコンポジット映像信号から、クラス分類を行うために必要な画素(クラスタップ)を抽出し、パターン検出部93に出力する。パターン検出部93は、入力されたクラスタップのパターンを検出し、検出結果をクラスコード決定部94に出力する。クラスコード決定部94は、入力されたパターンに対応するクラスコードを決定し、そのクラスコードを領域抽出部95、および、正規方程式生成部96に出力する。
【0100】
領域抽出部95は、クラスコード決定部94より入力されたクラスコードに基づいて、NTSCエンコーダ91より入力されたコンポジット映像信号から予測タップを抽出し、正規方程式生成部96に出力する。
【0101】
以上説明した領域抽出部92、パターン検出部93、クラスコード決定部94、および領域抽出部95は、図4のクラス分類適応処理部52の領域抽出部61、パターン検出部62、クラスコード決定部63、および、領域抽出部65と、基本的に同様の構成と機能を有するものである。
【0102】
正規方程式生成部96は、クラスコード決定部94より入力された全てのクラスに対して、クラス毎に、領域抽出部95より入力される生徒画像の予測タップと、教師画像としてのコンポーネント信号の輝度信号Yとから正規方程式を生成し、係数決定部97に出力する。係数決定部97は、必要な数の正規方程式が正規方程式生成部96より供給されてきたとき、例えば最小自乗法を用いて正規方程式を解き、上述した予測係数(w1,・・・・,wn)を演算すると共に、演算により求めた予測係数をメモリ98に供給し、記憶させる。
【0103】
ここで、正規方程式について説明する。上述した式(1)において、学習前は予測係数w1,・・・・,wnが未定係数である。学習は、クラス毎に複数の教師画像を入力することによって行う。教師画像の種類数をmと表記する場合、式(1)から、以下の式(31)が設定される。
【0104】
yk=w1×xk1+w2×xk2+・・・・+wn×xkn・・・(31)
【0105】
ここで、kは、k=1,2,・・・・,mである。m>nの場合、予測係数w1,・・・・,wnは一意に決まらない。そこで、誤差ベクトルeの要素ekを以下の式(32)で定義して、式(33)によって定義される誤差ベクトルeが最小となるように予測係数が定められるようにする。すなわち、いわゆる最小自乗法によって予測係数が一意に決定される。
【0106】
ek=yk−{w1×xk1+w2×xk2+・・・・+wn×xkn}・・・(32)
【0107】
【数1】

Figure 0004045539
【0108】
式(33)のe^2(eの2乗)を最小とする各予測係数wiは、式(33)のe^2を予測係数wi(i=1,2・・・・)で偏微分して式(34)に変形し、iの各値について偏微分値が0となるものとして計算される。
【0109】
【数2】
Figure 0004045539
【0110】
式(34)から各予測係数wiを定める具体的な手順について説明する。式(35)、および、式(36)のように、Xji、および、Yiを定義するとき、式(34)は、式(37)の行列式の形に変形される。
【0111】
【数3】
Figure 0004045539
【0112】
【数4】
Figure 0004045539
【0113】
【数5】
Figure 0004045539
【0114】
この式(37)が、一般に正規方程式と呼ばれるものである。ここで、Xji(j,i=1,2・・・・n),およびYi (i=1,2・・・・n)は、教師画像、および、生徒画像に基づいて計算される。すなわち、正規方程式生成部96は、XjiおよびYiの値を算出して正規方程式である式(37)を決定する。更に、係数決定部97は、式(37)を解いて、各予測係数wiを決定する。
【0115】
次に、図14のフローチャートを参照して、図13の係数算出装置81が実行する係数算出処理について説明する。
【0116】
ステップS111において、教師画像としてのコンポーネント信号がNTSCエンコーダ91、および、正規方程式生成部96に入力される。
【0117】
ステップS112において、NTSCエンコーダ91は、入力されたコンポーネント信号よりNTSC方式のコンポジット信号からなる生徒画像を生成して、領域抽出部92、および、領域抽出部95に出力する。
【0118】
ステップS113において、領域抽出部92は、図5のフローチャートのステップS4の処理と同様にして、クラスタップを抽出して、パターン検出部93に出力する。
【0119】
ステップS114において、パターン検出部93、および、クラスコード決定部94において、図11を用いて説明したクラスコード決定処理と同様の処理が実行され、決定されたクラスコードが、領域抽出部95、および、正規方程式生成部96に出力される。
【0120】
ステップS115において、領域抽出部95は、クラスコード決定部94より入力されたクラスコードに基づいて、生徒画像の予測タップ(図8)を抽出して正規方程式生成部96に出力する。
【0121】
ステップS116において、正規方程式生成部96は、クラスコード決定部94より入力されたクラスコード、領域抽出部95より入力された予測タップ、および、教師画像として入力されたコンポーネント信号から、上述した式(37)の正規方程式を生成し、クラスコード決定部94より入力されたクラスコードとともに係数決定部97に出力する。
【0122】
ステップS117において、全ての画素について処理が施されたか否かが判定される。ステップS117において、全ての画素について処理が施されていないと判定された場合、処理は、ステップS113に戻り、それ以降の処理が繰り返される。すなわち、全ての画素の処理が終了されるまで、ステップS113乃至S117の処理が繰り返される。
【0123】
ステップS117において、全ての画素について処理が施されたと判定された場合、ステップS118において、係数決定部97は、上述の式(37)の正規方程式を解いて、予測係数を決定し、クラスコードに対応付けて、メモリ98に記憶させ、処理は、終了される。
【0124】
以上の処理により、着目画素周辺において、水平方向に急峻な輝度の変化があるか否かの検出より適正な予測係数が演算されるので、コンポジット信号からコンポーネント信号への変換処理により生じるクロスカラーの発生を抑制することができる予測係数を求めることができる。また、図13および図14においては、輝度信号Yを求める予測係数を設定する例について説明したが、色差信号R−Y、および、色差信号B−Yについての予測係数についても、同様にして求めることができる。
【0125】
以上の例においては、コンポジット映像信号から輝度信号Y、色差信号R−Y、および、色差信号B−Yといったコンポーネント映像信号を生成するようにしたが、例えば、図15に示されるテレビジョン受像機101のように、図3のクラス分類適応処理部52とマトリクス処理部16に代わって、クラス分類適応処理部111を備えるようにしても良い。クラス分類適応処理部111は、図3のクラス分類適応処理部52とマトリクス処理部16が実行する処理を実行可能なように構成され、VIF処理部13が出力するコンポジット映像信号から、原色RGB信号を生成する。
【0126】
クラス分類適応処理部111の構成は、図4を用いて説明したクラス分類適応処理部52と基本的に同様である。しかしながら、係数メモリ64に記憶される予測係数は、原色RGB信号に対応したものとなる。すなわち、予測係数を決定するために係数算出装置81で実行される学習処理における生徒画像は、図4のクラス分類適応処理部52の係数メモリ64に記憶される予測係数を生成する場合と同様にコンポジット信号であるが、それに対して、教師画像は、図4のクラス分類適応処理部52の係数メモリ64に記憶される予測係数を生成する場合と異なり、原色RGB信号となるので、決定される予測係数も、原色RGB信号に対応したものとなる。
【0127】
以上説明した処理において、クラス分類、および予測係数の算出は、いずれも、4つのクロマ信号の位相ごとに行われる。
【0128】
以上説明した処理においては、NTSC方式のコンポジット信号をコンポーネント信号に変換する場合について説明したが、本発明は、例えば、PAL方式など、NTSC方式以外のコンポジット信号に対しても同様に適用することが可能である。
【0129】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行させることが可能な、例えば汎用のパーソナルコンピュータなどに記録媒体からインストールされる。
【0130】
図16は、テレビジョン受像機41、テレビジョン受像機101、または、係数算出装置81が実行する処理を、それぞれソフトウェアにより実現することができるパーソナルコンピュータ191の構成を示すブロック図である。
【0131】
パーソナルコンピュータのCPU201は、パーソナルコンピュータの動作の全体を制御する。CPU201は、バス204および入出力インタフェース205を介して、キーボードやマウスなどからなる入力部206から、ユーザの操作により指令が入力されると、それに対応して、ROM(Read Only Memory)202に格納されているプログラムを、RAM(Random Access Memory)203にロードして実行する。あるいはまた、CPU201は、ドライブ210に接続された磁気ディスク211、光ディスク212、光磁気ディスク213、または半導体メモリ214から読み出され、記憶部208にインストールされたプログラムを、RAM203にロードして実行する。更に、CPU201は、通信部209を制御して、外部と通信し、データの授受を実行する。
【0132】
プログラムが記録されている記録媒体は、図16に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク211(フレキシブルディスクを含む)、光ディスク212(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク213(MD(Mini-Disc)(商標)を含む)、もしくは半導体メモリ214などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM202や、記憶部208に含まれるハードディスクなどで構成される。
【0133】
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0134】
【発明の効果】
このように、本発明によれば、コンポジット映像信号を、コンポーネント信号に変換することができる。特に、水平方向の輝度の弧状の変化を検出して、クラス分類を行うことにより、クロスカラーを抑制することができる。
【0135】
また、他の本発明によれば、コンポジット映像信号を、コンポーネント信号に変換する場合に用いられる予測係数を算出することができる。特に、水平方向の輝度の弧状の変化を検出して、クラス分類を行うことにより、クロスカラーを抑制することができる予測係数を算出することができる。
【図面の簡単な説明】
【図1】従来のテレビジョン受像機の構成を示すブロック図である。
【図2】従来のテレビジョン受像機の構成を示すブロック図である。
【図3】本発明を適用したテレビジョン受像機の構成を示すブロック図である。
【図4】図3のクラス分類適応処理部の更に詳細な構成を示すブロック図である。
【図5】図3のテレビジョン受像機の表示処理を説明するフローチャートである。
【図6】 NTSC信号の位相を説明する図である。
【図7】クラスタップについて説明する図である。
【図8】予測タップについて説明する図である。
【図9】基本波形について説明する図である。
【図10】水平方向に輝度が急峻に変化している場合のパターンを説明する図である。
【図11】クラスコード決定処理について説明するフローチャートである。
【図12】仮着目画素について説明する図である。
【図13】係数算出装置の構成を示すブロック図である。
【図14】係数算出処理について説明するためのフローチャートである。
【図15】本発明を適応したテレビジョン受像機の他の構成例を示すブロック図である。
【図16】パーソナルコンピュータの構成について説明する図である。
【符号の説明】
41 テレビジョン受像機, 52 クラス分類適応処理部, 61 領域抽出部, 62 パターン検出部, 63 クラスコード決定部, 64 係数メモリ, 65 領域抽出部, 66 予測演算部, 81 係数算出装置, 91 NTSCエンコーダ, 92 領域抽出部, 93 パターン検出部, 94 クラスコード決定部, 95 領域抽出部, 96 正規方程式生成部, 97係数決定部, 98 メモリ, 101 テレビジョン受像機, 111 クラス分類適応処理部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing device and an image processing method, a coefficient calculation device and a coefficient calculation method, a recording medium, and a program, and in particular, can suppress deterioration in image quality that occurs when converting a composite signal to a component signal. The present invention relates to an image processing apparatus, an image processing method, a coefficient calculation apparatus, a coefficient calculation method, a recording medium, and a program.
[0002]
[Prior art]
In general, a television receiver converts a composite signal of a video signal into a component signal and displays it as a video. As video signals, NTSC (National Television Standards Committee) type composite video signals are widely used.
[0003]
FIG. 1 is a block diagram showing a configuration of a conventional television receiver 1.
[0004]
The antenna 11 receives a broadcast signal. The tuner 12 detects and demodulates the signal received by the antenna 11 and generates a video intermediate frequency signal. A video intermediate frequency signal processing unit (VIF (Video Intermediate Frequency) processing unit) 13 demodulates the input video intermediate frequency signal to generate a composite video signal. A Y / C (Y: luminance signal, C: chroma signal) separation unit 14 separates the luminance signal Y and the chroma signal C from the input composite video signal. The chroma demodulator 15 receives and demodulates the chroma signal C and generates a color difference signal RY and a color difference signal BY. The matrix processing unit 16 receives the luminance signal Y, the color difference signal RY, and the color difference signal BY, and generates a primary color RGB signal. The display unit 17 is composed of, for example, a CRT (Cathode Ray Tube) or an LCD (liquid crystal display) and displays the supplied RGB signals.
[0005]
Next, the operation of the television receiver 1 will be described. The tuner 12 receives the radio wave of the broadcasting station of the channel designated by the user using an operation unit (not shown) via the antenna 11, detects and demodulates the received radio wave, generates a video intermediate frequency signal, and VIF Output to the processing unit 13. The VIF processing unit 13 demodulates the video intermediate frequency signal output from the tuner 12, generates an NTSC composite video signal, and outputs it to the Y / C separation unit 14. The Y / C separation unit 14 separates the luminance signal Y and the chroma signal C from the input composite video signal, and outputs the luminance signal Y to the matrix processing unit 16 and the chroma signal C to the chroma demodulation unit 15. To do.
[0006]
The chroma demodulation unit 15 demodulates the chroma signal C input from the Y / C separation unit 14, generates a color difference signal RY and a color difference signal BY, and outputs them to the matrix processing unit 16. The matrix processing unit 16 combines the luminance signal Y supplied from the Y / C separation unit 14 with the color difference signal RY and the color difference signal BY input from the chroma demodulation unit 15 to generate a primary color RGB signal. Generated and output and displayed on the display unit 17.
[0007]
FIG. 2 is a block diagram showing a configuration of a conventional television receiver 21 having a configuration different from that of the television receiver 1 described with reference to FIG.
[0008]
The basic configuration is the same as that of the television receiver 1 of FIG. 1, but the television receiver 21 of FIG. 2 is newly provided with a pixel number conversion unit 31. The pixel number conversion unit 31 determines the pixel density based on the luminance signal Y supplied from the Y / C separation unit 14, the color difference signal RY input from the chroma demodulation unit 15, and the color difference signal BY. Change, IP conversion (Interlace / Progressive conversion), etc. are executed and output to the matrix processing unit 16.
[0009]
The operation of the television receiver 21 in FIG. 2 is performed by the pixel number conversion unit 31 by the luminance signal Y supplied from the Y / C separation unit 14, the color difference signal RY input from the chroma demodulation unit 15, and The operations and basic operations of the television receiver 1 of FIG. 1 are the same except that a pixel density conversion process and an IP conversion process are performed on the color difference signal BY and supplied to the matrix conversion unit 16. The same as above.
[0010]
[Problems to be solved by the invention]
As described above, in the conventional television receiver 1 or the television receiver 21, the composite video signal is first separated into the luminance signal Y and the chroma signal C by the Y / C separation unit 14, and then the chroma signal is obtained. The signal C is demodulated and converted into a component signal composed of a baseband luminance signal Y, a color difference signal RY, and a color difference signal BY, and the matrix processing unit 16 converts the primary color RGB signal from the component signal. Was supposed to generate. For this reason, there is a problem that not only the circuit configuration becomes complicated, but also the scale becomes large and the cost increases.
[0011]
Further, as a conventional Y / C separation method, a filter composed of a two-dimensional Y / C separation circuit, a three-dimensional Y / C separation circuit, etc. has been proposed. There has been a problem that image quality deterioration is likely to occur due to an Y / C separation error.
[0012]
In order to solve these problems, a method using a classification adaptation process has been proposed. In the method using the class classification adaptive processing, in order to obtain the component signal of the luminance signal Y, the color difference signal RY, and the color difference signal BY in the target pixel, first, the vicinity including the target pixel is included. A feature amount of a pixel (this pixel is called a class tap) is obtained from the composite signal, and a class classified in advance for each feature amount is specified. Then, using a coefficient set in advance for each class in a pixel composed of a composite signal of the neighboring pixels including the target pixel (this pixel is called a prediction tap and may be the same as a class tap). An arithmetic process is performed to obtain a component signal of the pixel of interest.
[0013]
However, depending on the selection method of the class tap and the prediction tap, even if the same composite signal is input, the component signals after conversion are different. For this reason, when the selection method of the class tap and the prediction tap is not appropriate, there is a problem in that image quality deterioration such as dot interference and cross color occurs as in the case of the occurrence of the Y / C separation error.
[0014]
The present invention has been made in view of such a situation. The circuit configuration is simple and has a small scale. Further, the image quality deteriorates when the composite signal is converted into the component signal. By detecting a portion having a sharp luminance change in the direction, the occurrence of cross color can be suppressed.
[0015]
[Means for Solving the Problems]
The image processing apparatus according to the present invention includes a first extraction unit that extracts a plurality of first pixel signals corresponding to a pixel of interest from a first image signal, and a plurality of second pixels extracted by the first extraction unit. Detecting means for detecting information on a change in luminance of a pixel in the vicinity of the target pixel based on one pixel signal, and information on a change in luminance of a pixel in the vicinity of the target pixel detected by the detecting means By detecting whether the pattern is a predetermined pattern , The brightness in the horizontal direction around the pixel of interest Arc And generating means for generating class information indicating the class to which the pixel of interest belongs, and a coefficient predetermined for each class are stored, corresponding to the class information generated by the generating means Coefficient storage means for outputting coefficients, second extraction means for extracting a plurality of second pixel signals from the first image signal, second pixel signals extracted by the second extraction means, and coefficients And a first signal conversion unit that converts the pixel of interest, which is the first image signal, into a second image signal by calculation with the coefficient output from the storage unit.
[0016]
The detecting means may detect information relating to a change in luminance of the pixels in the vicinity of the target pixel by obtaining correlations between pixel values of the plurality of pixels in the vicinity of the target pixel and a plurality of predetermined basic waveforms. it can.
[0017]
The first image signal may be a composite signal, and the second image signal may be a component signal.
[0018]
Display means for displaying the second image signal converted by the first signal conversion means can be further provided.
[0019]
Acquisition means for acquiring data including an image signal, and second signal conversion means for converting at least a part of the data acquired by the acquisition means into a first image signal that can be processed by the first extraction means. Can be further provided.
[0020]
The image processing method of the present invention includes a first extraction step for extracting a plurality of first pixel signals corresponding to a pixel of interest from a first image signal, and a plurality of extractions performed by the processing of the first extraction step. A detection step for detecting information on a change in luminance of a pixel in the vicinity of the target pixel based on the first pixel signal, and information on a change in luminance of a pixel in the vicinity of the target pixel detected by the processing of the detection step By detecting whether the pattern is a predetermined pattern , In the horizontal direction around the pixel of interest Arc Generated from the generation step of generating the class information indicating the class to which the pixel of interest belongs and the coefficient stored in advance for each class. Extracted by the coefficient output control step for controlling the output of the coefficient corresponding to the class information, the second extraction step for extracting a plurality of second pixel signals from the first image signal, and the processing of the second extraction step A signal conversion step of converting the pixel of interest, which is the first image signal, into a second image signal by calculating the second pixel signal thus generated and the coefficient whose output is controlled by the processing of the coefficient output control step; It is characterized by including.
[0021]
The program recorded on the first recording medium of the present invention includes a first extraction step for extracting a plurality of first pixel signals corresponding to the target pixel from the first image signal, and a first extraction step. Based on the plurality of first pixel signals extracted by the above process, a detection step for detecting information on changes in luminance of pixels in the vicinity of the target pixel, and a pixel in the vicinity of the target pixel detected by the processing in the detection step Information about changes in brightness By detecting whether the pattern is a predetermined pattern , In the horizontal direction around the pixel of interest Arc Generated from the generation step of generating the class information indicating the class to which the pixel of interest belongs and the coefficient stored in advance for each class. Extracted by the coefficient output control step for controlling the output of the coefficient corresponding to the class information, the second extraction step for extracting a plurality of second pixel signals from the first image signal, and the processing of the second extraction step A signal conversion step of converting the pixel of interest, which is the first image signal, into a second image signal by calculating the second pixel signal thus generated and the coefficient whose output is controlled by the processing of the coefficient output control step; It is characterized by including.
[0022]
The first program of the present invention is extracted from the first image signal by the first extraction step of extracting a plurality of first pixel signals corresponding to the target pixel and the processing of the first extraction step. Based on a plurality of first pixel signals, a detection step for detecting information on changes in luminance of pixels near the pixel of interest, and information on changes in luminance of pixels near the pixel of interest detected by the processing of the detection step By detecting whether the pattern is a predetermined pattern , In the horizontal direction around the pixel of interest Arc Generated from the generation step of generating the class information indicating the class to which the pixel of interest belongs and the coefficient stored in advance for each class. Extracted by the coefficient output control step for controlling the output of the coefficient corresponding to the class information, the second extraction step for extracting a plurality of second pixel signals from the first image signal, and the processing of the second extraction step A signal conversion step of converting the pixel of interest, which is the first image signal, into a second image signal by calculating the second pixel signal thus generated and the coefficient whose output is controlled by the processing of the coefficient output control step; It is characterized by including.
[0023]
The coefficient calculation apparatus according to the present invention includes an image signal generation unit configured to generate a second image signal from the input first image signal, and a plurality of first positions at a plurality of pixel positions corresponding to the target pixel from the second image signal. 1st extraction means for extracting one pixel signal, and detection for detecting information on a change in luminance of a pixel in the vicinity of the pixel of interest based on a plurality of first pixel signals extracted by the first extraction means And information on changes in luminance of pixels in the vicinity of the target pixel detected by the detecting means By detecting whether the pattern is a predetermined pattern , In the horizontal direction around the pixel of interest Arc And generating means for generating class information indicating a class to which the pixel of interest belongs, and second extracting means for extracting a plurality of second pixel signals from the second image signal; And calculating means for calculating a coefficient corresponding to the class based on the second pixel signal extracted by the second extracting means and the input first image signal.
[0024]
The detecting means may detect information relating to a change in luminance of the pixels in the vicinity of the target pixel by obtaining correlations between pixel values of the plurality of pixels in the vicinity of the target pixel and a plurality of predetermined basic waveforms. it can.
[0025]
The first image signal may be a component signal, and the second image signal may be a composite signal.
[0026]
A storage means for storing the coefficient calculated by the calculation means can be further provided.
[0027]
The coefficient calculation method of the present invention includes an image signal generation step for generating a second image signal from the input first image signal, and a plurality of first pixel signals corresponding to the pixel of interest from the second image signal. A first extraction step for extracting the information, and a detection step for detecting information on a change in luminance of a pixel in the vicinity of the pixel of interest based on the plurality of first pixel signals extracted by the processing of the first extraction step; , Information on changes in luminance of pixels in the vicinity of the target pixel detected by the detection step process By detecting whether the pattern is a predetermined pattern , In the horizontal direction around the pixel of interest Arc A generation step for detecting whether or not the target pixel belongs to, and a second extraction step for extracting a plurality of second pixel signals from the second image signal; A calculation step of calculating a coefficient corresponding to the class based on the second pixel signal extracted by the processing of the second extraction step and the input first image signal. .
[0028]
The program recorded on the second recording medium of the present invention corresponds to the target pixel from the image signal generation step for generating the second image signal from the input first image signal and the second image signal. A first extraction step for extracting the plurality of first pixel signals, and a change in luminance of pixels in the vicinity of the pixel of interest based on the plurality of first pixel signals extracted by the processing of the first extraction step. A detection step for detecting information related to information and information relating to changes in luminance of pixels in the vicinity of the target pixel detected by the processing of the detection step By detecting whether the pattern is a predetermined pattern , In the horizontal direction around the pixel of interest Arc A generation step for detecting whether or not the target pixel belongs to, and a second extraction step for extracting a plurality of second pixel signals from the second image signal; A calculation step of calculating a coefficient corresponding to the class based on the second pixel signal extracted by the processing of the second extraction step and the input first image signal. .
[0029]
The second program of the present invention includes an image signal generation step for generating a second image signal from the input first image signal, and a plurality of first pixels corresponding to the pixel of interest from the second image signal. A first extraction step for extracting a signal, and a detection step for detecting information on a change in luminance of a pixel in the vicinity of the pixel of interest based on the plurality of first pixel signals extracted by the processing of the first extraction step. And information on changes in luminance of pixels in the vicinity of the target pixel detected by the processing of the detection step By detecting whether the pattern is a predetermined pattern , In the horizontal direction around the pixel of interest Arc A generation step for detecting whether or not the target pixel belongs to, and a second extraction step for extracting a plurality of second pixel signals from the second image signal; A calculation step of calculating a coefficient corresponding to the class based on the second pixel signal extracted by the processing of the second extraction step and the input first image signal. .
[0030]
In the image processing apparatus, the image processing method, and the first program of the present invention, a plurality of first pixel signals corresponding to the pixel of interest are extracted from the first image signal, and a plurality of first pixel signals are extracted. Based on the above, information on the luminance change of the pixels near the target pixel is detected, and information on the luminance change of the pixels near the target pixel is detected. By detecting whether the pattern is a predetermined pattern , In the horizontal direction around the pixel of interest Arc Is detected, class information indicating the class to which the pixel of interest belongs is generated, and among coefficients stored in advance for each class, a coefficient corresponding to the class information is output, A plurality of second pixel signals are extracted from the first image signal, and the pixel of interest, which is the first image signal, is converted into the second image signal by calculating the second pixel signal and the coefficient. .
[0031]
In the coefficient calculation apparatus, the coefficient calculation method, and the second program of the present invention, a second image signal is generated from the input first image signal, and a plurality of pixels corresponding to the pixel of interest are generated from the second image signal. The first pixel signal is extracted, information on the luminance change of the pixel in the vicinity of the target pixel is detected based on the plurality of first pixel signals, and the information on the luminance change of the pixel in the vicinity of the target pixel is detected. By detecting whether the pattern is a predetermined pattern , In the horizontal direction around the pixel of interest Arc Is detected, class information indicating a class to which the target pixel belongs is generated, a plurality of second pixel signals are extracted from the second image signal, the second pixel signal, and Based on the first image signal, a coefficient corresponding to the class is calculated.
[0032]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0033]
FIG. 3 is a block diagram showing a configuration of a television receiver 41 to which the present invention is applied. 3, parts corresponding to those in FIGS. 1 and 2 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
[0034]
That is, in the configuration of FIG. 3, A / D (Analog / Digital) conversion is performed between the VIF processing unit 13 and the matrix processing unit 16 instead of the Y / C separation unit 14 and the chroma demodulation unit 15 of FIG. A unit 51 and a class classification adaptive processing unit 52 are provided.
[0035]
The A / D conversion unit 51 converts the NTSC composite video signal composed of the analog signal input from the VIF processing unit 13 into a digital signal and outputs the digital signal to the class classification adaptation processing unit 52. The class classification adaptive processing unit 52 receives the luminance signal Y, the color difference signal RY, and the color difference signal from the NTSC composite video signal input from the A / D conversion unit 51 and converted into a digital signal. A component signal composed of a BY signal is generated by class classification adaptive processing. A prediction coefficient for predicting and generating a component signal from a composite video signal is an NTSC composite video signal created by using a component signal as a teacher image and NTSC modulation of the component signal by a coefficient calculation device 81 described later with reference to FIG. Is generated by learning with the student image. Then, the class classification adaptation processing unit 52 uses the prediction coefficient and performs mapping (prediction calculation processing) to generate a component signal.
[0036]
FIG. 4 is a block diagram showing a more detailed configuration of the class classification adaptation processing unit 52. The NTSC composite video signal input from the A / D conversion unit 51 is supplied to the region extraction unit 61 and the region extraction unit 65. The area extraction unit 61 extracts a pixel (class tap) at a pixel position corresponding to a pixel of interest necessary for class classification from the composite video signal converted into the input digital signal, and the pattern detection unit 62 Output to.
[0037]
The pattern detection unit 62 detects the composite video signal pattern based on the input class tap. Specifically, the pattern detection unit 62 displays a plurality of calculation value patterns indicating the change in the luminance of the composite video signal necessary for detecting whether or not the target pixel has a sharp luminance change in the horizontal direction. It is determined and output to the class code determination unit 63.
[0038]
The class code determination unit 63 determines a class code indicating whether or not there is a sharp luminance change in the horizontal direction in the vicinity of the target pixel, based on the pattern (a plurality of calculation values) detected by the pattern detection unit 62. And output to the coefficient memory 64 and the region extraction unit 65. The coefficient memory 64 stores the prediction coefficient for each class obtained by learning in advance, reads the prediction coefficient corresponding to the class code input from the class code determination unit 63, and outputs the prediction coefficient to the prediction calculation unit 66. Note that the learning process for obtaining the prediction coefficient stored in the coefficient memory 64 will be described later with reference to FIGS. 13 and 14.
[0039]
The region extraction unit 65 corresponds to the target pixel necessary for predictively generating a component signal from the composite video signal input from the A / D conversion unit 51 based on the class code input from the class code determination unit 63. The pixel (prediction tap) at the selected pixel position is extracted and output to the prediction calculation unit 66. The prediction calculation unit 66 multiplies the prediction tap input from the region extraction unit 65 by the prediction coefficient input from the coefficient memory 64 to generate a luminance signal Y that is one of the component signals.
[0040]
More specifically, the coefficient memory 64 outputs a prediction coefficient corresponding to the class code supplied from the class code determination unit 63 to the prediction calculation unit 66. The prediction calculation unit 66 uses the prediction tap extracted from the NTSC composite video signal supplied from the region extraction unit 65 and the prediction coefficient supplied from the coefficient memory 64 as shown in the following equation (1). A component signal is obtained (predicted and estimated) by executing a product-sum operation.
[0041]
y = w1 * x1 + w2 * x2 ++ ... + wn * xn (1)
[0042]
Here, y is a pixel of interest. In addition, x1,..., Xn are each prediction tap, and w1,.
[0043]
In addition, although illustration is abbreviate | omitted, the circuit for producing | generating the color difference signal RY and the color difference signal BY among component signals is each comprised similarly. The configuration of the circuit for generating the color difference signal RY or the color difference signal BY is the same as that shown in FIG. 4, and in the case shown in FIG. 4, the luminance signal Y is generated. When the color difference signal RY or the color difference signal BY is generated while the prediction coefficient is stored in the coefficient memory 64, the color difference signal RY or the color difference signal BY is generated. The prediction coefficient is stored in the coefficient memory 64 and is used for determining each class code.
[0044]
Next, a display process in which the television receiver 41 shown in FIG. 3 converts the composite video signal into a component signal and displays it on the display unit 17 will be described with reference to the flowchart of FIG.
[0045]
In step S <b> 1, the tuner 12 receives a signal of a predetermined frequency via the antenna 11, demodulates it, generates a video intermediate frequency signal, and outputs it to the VIF processing unit 13.
[0046]
In step S <b> 2, the VIF processing unit 13 demodulates the input video intermediate frequency signal, generates an NTSC composite signal, and outputs the composite signal to the A / D conversion unit 51.
[0047]
In step S <b> 3, the A / D conversion unit 51 converts the input composite signal from an analog signal to a digital signal, and outputs the converted signal to the class classification adaptation processing unit 52.
[0048]
In step S4, the region extraction unit 61 of the class classification adaptation processing unit 52 extracts class taps.
[0049]
The class tap extraction will be described in more detail. FIG. 6 is a diagram showing the phase of the chroma signal when the NTSC signal is sampled at a sampling frequency (4 fsc) that is four times the color subcarrier frequency fsc. Since the NTSC television signal is multiplexed by balanced modulation of the chroma signal C and the luminance signal Y, the phase of the chroma signal differs depending on the sampling point of the composite signal.
[0050]
An NTSC composite signal is composed of a signal obtained by adding or subtracting an I signal or a Q signal to a luminance signal Y, and thereby four phases of Y + I, Y + Q, Y-I, and Y-Q. The phase angles of these signals differ by 90 degrees. When the pixel of interest is a signal (Y + I) obtained by adding the I signal to the luminance signal Y, four-phase signals of Y + I, Y + Q, Y-I, and Y-Q are transmitted to the pixel of interest. , Respectively, have a phase angle of 0 degree, 90 degrees, 180 degrees, and 270 degrees.
[0051]
In FIG. 6, the cross mark (pixel located in the center of the field) of each field indicates the position of the pixel of interest. Further, in the figure, when a signal with a phase angle of 0 degree is used with reference to a white circle, a black square is a signal with a pixel at a corresponding position having a phase angle of 90 degrees with respect to a reference white circle pixel. The black circle indicates that the pixel at the corresponding position is a signal having a phase angle of 180 degrees with respect to the reference white circle pixel, and the white square indicates that the pixel at the corresponding position is the reference This indicates that the signal has a phase angle of 270 degrees with respect to the white circle pixels. A composite video signal as shown in FIG. 6 is input to the region extraction unit 61.
[0052]
The display method of the phase angle of each pixel is the same in the following.
[0053]
A pixel extracted as a class tap will be described with reference to FIG. In FIG. 7, the horizontal line in the figure is the horizontal scanning direction, and a line a (−2_Line) that is a line two lines before (above) the pixel of interest is shown at the top in the figure. Line b (−1_Line) that is one line before (above) the target pixel, line c (0_Line) that includes the target pixel, and line d (+ 1_Line) that is one line after the target pixel (lower) ) And a line e (+ 2_Line) that is two lines after (below) the pixel of interest. Hereinafter, each pixel is indicated as aX, bX, cX, dX, or eX (X = 0, 1,..., 9, A) by a line and a number indicating a position on the line. .
[0054]
As illustrated in FIG. 7, the region extraction unit 61 uses the class tap as a class tap of the target pixel c5 (the pixel indicated by the cross mark, which is located fifth from the left in the horizontal line of c (0_line) in the drawing). Extract surrounding pixels. The region extraction unit 61 is represented by pixels a2 to a7 shown in a range E-1 in the drawing, pixels c1 to c9 shown in a range E-2 in the drawing, and a range E-3 in the drawing. The pixels e2 to e7 are extracted as class taps and output to the pattern detection unit 62.
[0055]
In step S5, the pattern detection unit 62 and the class code determination unit 63 execute a class code determination process, which will be described later with reference to FIG. 11, to determine a class code. In these processes, when it is determined that there is a steep luminance change in the horizontal direction near the pixel of interest, the class code 0 is output from the class code determination unit 63, and there is no steep luminance change in the horizontal direction. If determined, class code 1 is output from the class code determination unit 63.
[0056]
In step S6, the coefficient memory 64 generates a prediction coefficient (in the coefficient calculation device 81 described later with reference to FIG. 13 in FIG. 14) based on the class code value determined by the class code determination process executed in step S5. The prediction coefficient corresponding to the supplied class code is read out and output to the prediction calculation unit 66.
[0057]
In step S <b> 7, the region extraction unit 65 extracts a prediction tap from the input composite signal and outputs the prediction tap to the prediction calculation unit 66.
[0058]
That is, as shown in FIG. 8, the region extraction unit 65 includes a total of 7 taps of the same line centered on the pixel of interest, indicated by a range A in the drawing, and 7 taps of each of the preceding and succeeding lines. 21 taps and, if necessary, offset taps are extracted as prediction taps. The offset tap is a predetermined constant (for example, −78), and is used to correct a DC shift occurring between both signals when converting from a composite signal to a component signal.
[0059]
In step S8, the prediction calculation unit 66 uses the prediction coefficient output from the coefficient memory 64 in step S6 and the prediction tap input from the region extraction unit 65 in step S7. A component signal is generated by the calculation of 1) and output to the matrix processing unit 16.
[0060]
In step S <b> 9, the matrix processing unit 16 converts the input component signal into an RGB signal and outputs the RGB signal to the display unit 17.
[0061]
In step S10, it is determined whether or not all pixels have been processed. If it is determined in step S10 that all the pixels have not been processed, the process returns to step S4, and the subsequent processing is repeated. In other words, the processes in steps S4 to S10 are repeated until the signals of all the pixels are processed. If it is determined in step S10 that the process has been performed for all pixels, the process ends.
[0062]
With the process described with reference to FIG. 5, prediction taps can be extracted and prediction calculations can be performed in response to steep changes in luminance in the horizontal direction, so that occurrence of cross colors can be suppressed.
[0063]
The selection of the class tap and the prediction tap is not limited to the examples shown in FIGS. 7 and 8, and is generated from the class tap that can detect a sharp change in luminance in the horizontal direction and the class tap. Other prediction taps may be used as long as they are prediction taps corresponding to the change in luminance indicated by the class code.
[0064]
In the class code determination process executed in step S5 in FIG. 5, a part having a sharp luminance change in the horizontal direction is detected, and a process for reflecting the detection result in the class is executed. Specifically, a predetermined number of pixels arranged horizontally including a pixel at a predetermined position in the vicinity of the target pixel (hereinafter referred to as a temporary target pixel), and the four basic waveforms shown in FIGS. 9A to 9D Based on the correlation, a portion having a sharp luminance change in the horizontal direction is detected.
[0065]
As shown in FIG. 9A, the two left pixels and one left pixel in the horizontal direction of the temporary target pixel have lower luminance values than the temporary right pixel and the right pixel in the horizontal direction of the temporary target pixel. In this case, it is assumed that a value 0 indicating that the temporary target pixel and the neighboring pixels have a correlation with the basic waveform A is obtained by the processing described later. In addition, as shown in FIG. 9B, the pixel two pixels left and one pixel left in the horizontal direction from the temporary target pixel has a luminance value higher than the pixel right one pixel in the horizontal direction from the temporary target pixel and the temporary target pixel. When the value is high, it is assumed that a value 1 indicating that the temporary target pixel and its neighboring pixels have a correlation with the basic waveform B is obtained by the processing described later.
[0066]
Then, as shown in FIG. 9C, the pixel two pixels left in the horizontal direction and the pixel one pixel right in the horizontal direction from the tentative pixel of interest are When the luminance value is high, it is assumed that a value 2 indicating that the temporary target pixel and its neighboring pixels have a correlation with the basic waveform C is obtained by the processing described later. Further, as shown in FIG. 9D, the pixel two pixels left in the horizontal direction and the pixel one pixel right in the horizontal direction from the tentative pixel of interest are When the luminance value is low, it is assumed that a value 3 indicating that the temporary target pixel and its neighboring pixels have a correlation with the basic waveform D is obtained by processing described later.
[0067]
Since the chroma signal is modulated at the color subcarrier frequency fsc, the pattern of the values 0 to 3 determined by the correlation with the basic waveforms A to D is shown in FIG. As shown in 10A, the pattern repeats periodically.
[0068]
On the other hand, in a place where there is a steep luminance change in the horizontal direction, the pattern of values 0 to 3 determined by the correlation with the basic waveforms A to D has at least one value 0, A pattern with a value 3 and at least one value 1 continuous (ie, a waveform that draws an arc of the upper chord) is continuous in the same position in the vertical direction, or at least one value not shown A pattern in which one, one value 2, and at least one value 0 are continuous (that is, a waveform that draws the arc of the lower chord) is a characteristic pattern that is continuous at the same position in the vertical direction.
[0069]
Therefore, in the temporary target pixel near the target pixel, the correlation with the basic waveforms A to D described with reference to FIG. 9 is obtained, and this is characteristic when there is a steep luminance change in the horizontal direction as shown in FIG. 10B. By detecting the pattern that occurs in the image and reflecting the detection result in the class, it is possible to prevent the occurrence of cross color by signal conversion even when there is a steep luminance change in the horizontal direction.
[0070]
With reference to the flowchart of FIG. 11, the class code determination process executed in step S5 of FIG. 5 for detecting a steep luminance change in the horizontal direction by detecting the pattern shown in FIG. 10B described above will be described. .
[0071]
In step S31, the pattern detection unit 62 extracts the temporary target pixel and its surrounding pixels from the class tap.
[0072]
The tentative pixel of interest includes a range F-1 including pixels a4, a5, and a6 included in a range E-1 and pixels c2, c3,... Included in a range E-2 shown in FIG. The pixels in the range F-3 including the pixels e4, e5, and e6 included in the range F-2 including the c7 and c8 and the range E-3. The pattern detection unit 62 extracts a total of four pixels, one pixel on the left, one pixel on the left, and one pixel on the right, in addition to the temporary target pixel, for each temporary target pixel. Then, the following calculation is performed based on these four pixels.
[0073]
In step S <b> 32, the pattern detection unit 62 calculates a calculation value for obtaining a correlation with the basic waveform in the temporary target pixel.
[0074]
For example, in the temporary target pixel a4, the calculation value Ga40 and the calculation value Ga41 for obtaining the correlation with the basic waveform are calculated by the following formulas (2) and (3).
[0075]
Ga40 = a4 + a5-a2-a3 (2)
Ga41 = a2 + a5-a3-a4 (3)
[0076]
Similarly, in other provisional pixels of interest, an arithmetic value for obtaining a correlation with the basic waveform is obtained by Expressions (4) to (27).
[0077]
Ga50 = a5 + a6-a3-a4 (4)
Ga51 = a3 + a6-a4-a5 (5)
Ga60 = a6 + a7-a4-a5 (6)
Ga61 = a4 + a7-a5-a6 (7)
Ge40 = e4 + e5-e2-e3 (8)
Ge41 = e2 + e5-e3-e4 (9)
Ge50 = e5 + e6-e3-e4 (10)
Ge51 = e3 + e6-e4-e5 (11)
Ge60 = e6 + e7-e4-e5 (12)
Ge61 = e4 + e7-e5-e6 (13)
Gc20 = c2 + c3-c0-c1 (14)
Gc21 = c0 + c3-c1-c2 (15)
Gc30 = c3 + c4-c1-c2 (16)
Gc31 = c1 + c4-c2-c3 (17)
Gc40 = c4 + c5-c2-c3 (18)
Gc41 = c2 + c5-c3-c4 (19)
Gc50 = c5 + c6-c3-c4 (20)
Gc51 = c3 + c6-c4-c5 (21)
Gc60 = c6 + c7-c4-c5 (22)
Gc61 = c4 + c7-c5-c6 (23)
Gc70 = c7 + c8-c5-c6 (24)
Gc71 = c5 + c8-c6-c7 (25)
Gc80 = c8 + c9-c6-c7 (26)
Gc81 = c6 + c9-c7-c8 (27)
[0078]
In step S <b> 33, the pattern detection unit 62 obtains the largest value among the two calculated values calculated for each temporary target pixel and the value obtained by multiplying them by (−1).
[0079]
For example, in the calculated value Ga40 and the calculated value Ga41 for obtaining the correlation with the basic waveform calculated by the equations (2) and (3) in the temporary target pixel a4, (Ga40, -Ga40, Ga41, -Ga41) ) Among the four values is determined. The same calculation is performed for the other temporary target pixels.
[0080]
In step S34, the pattern detection unit 62, based on the largest value among the four calculated values obtained in step S33, corresponds to the basic waveform corresponding to the pixel near the tentative target pixel (which has any correlation with any basic waveform). A value indicating whether or not there is).
[0081]
For example, in the temporary target pixel a4, when the largest value among the four values of (Ga40, -Ga40, Ga41, -Ga41) is Ga40, two pixels leftward and one in the horizontal direction from the temporary target pixel Since it can be seen that the luminance value of the left pixel is lower than that of the temporary target pixel and the pixel right by one in the horizontal direction from the temporary target pixel, the basic waveform most correlated in the temporary target pixel a4 is shown in FIG. 9A. Basic waveform A described above. Therefore, a value Ga4 indicating which basic waveform the tentative pixel of interest a4 is correlated with is Ga4 = 0.
[0082]
Further, in the temporary target pixel a4, when the largest value among the four values (Ga40, -Ga40, Ga41, -Ga41) is -Ga40, two pixels leftward in the horizontal direction from the temporary target pixel and 1 Since the left pixel has a higher luminance value than the temporary pixel of interest and the pixel right by one in the horizontal direction from the temporary pixel of interest, the basic waveform most correlated in the temporary pixel of interest a4 is shown in FIG. 9B. The basic waveform B described with reference to FIG. Accordingly, a value Ga4 indicating which basic waveform the provisional pixel of interest a4 is correlated with is Ga4 = 1.
[0083]
In the temporary target pixel a4, when the largest value among the four values (Ga40, -Ga40, Ga41, -Ga41) is Ga41, the pixel two pixels left in the horizontal direction from the temporary target pixel and the temporary target pixel Since it can be seen that the pixel one pixel to the right of the pixel in the horizontal direction has a higher luminance value than the pixel one pixel to the left of the temporary target pixel and the temporary target pixel, the vicinity of the temporary target pixel will be described with reference to FIG. 9C. Assuming that there is a correlation with the basic waveform C, Ga4 = 2 is obtained.
[0084]
Further, in the temporary target pixel a4, when the largest value among the four values (Ga40, -Ga40, Ga41, -Ga41) is -Ga41, the pixel left two pixels in the horizontal direction from the temporary target pixel and the temporary target pixel a4. Since it can be seen that the pixel right one in the horizontal direction from the pixel of interest has a lower luminance value than the pixel one pixel to the left of the temporary pixel of interest and the temporary pixel of interest, the neighborhood of this temporary pixel of interest is shown in FIG. 9D. Assuming that there is a correlation with the basic waveform D described, Ga4 = 3 is obtained.
[0085]
Similarly, by calculating the largest value among the calculated values for obtaining the correlation with the basic waveform and the value obtained by multiplying each calculated value by (−1) for the other tentative pixels of interest, Which of the values Ga5, Ga6,..., Ge5, Ge6 indicating which basic waveform the tentative pixel of interest is correlated with is a value 0, a value 1, a value 2, or a value 3. Is detected.
[0086]
In step S <b> 35, the pattern detection unit 62 determines whether or not the processing has been completed for all temporary target pixels. If it is determined in step S35 that the processing has not been completed for all temporary target pixels, the processing returns to step S31, and the subsequent processing is repeated.
[0087]
If it is determined in step S35 that the processing for all the temporary target pixels has been completed, in step S36, the pattern detection unit 62 displays a pattern (value 0) indicating the correlation between the peripheral pixels corresponding to the target pixel and the basic waveform. , 1, 2, 3) are output to the class code determination unit 63.
[0088]
That is, the pattern detection unit 62 outputs to the class code determination unit 63 the value obtained in step S34 and indicating which basic waveform each tentative pixel of interest has a correlation with.
[0089]
In step S37, the class code determination unit 63 calculates a class code from the pattern indicating the correlation with the basic waveform input in step S36, and the process returns to step S6 in FIG.
[0090]
That is, when the following Expression (28) and Expression (29) are satisfied and any one of Expression (30-1) to Expression (30-16) is satisfied, the target pixel is in the horizontal direction. In this case, the class code is set to class code 0. On the other hand, when Expression (28) or Expression (29) is not satisfied, or when all of Expressions (30-1) to (30-16) are not satisfied, the target pixel has a luminance in the horizontal direction. The class code is class code 1 because is not a location where the value of A is sharply changed. The obtained class code value is output to the coefficient memory 64 and the region extraction unit 65, and the process returns to step S6 in FIG.
[0091]
Ga4 ≠ Gc4 or Ga5 ≠ Gc5 or Ga6 ≠ Gc6 (28)
Ge4 ≠ Gc4 or Ge5 ≠ Gc5 or Ge6 ≠ Gc6 (29)
[0092]
Gc2 = 0 and Gc3 = 0 and Gc4 = 3 and Gc5 = 1 (30-1)
Gc3 = 0 and Gc4 = 0 and Gc5 = 3 and Gc6 = 1 (30-2)
Gc4 = 0 and Gc5 = 0 and Gc6 = 3 and Gc7 = 1 (30-3)
Gc5 = 0 and Gc6 = 0 and Gc7 = 3 and Gc8 = 1 (30-4)
Gc2 = 0, Gc3 = 3, Gc4 = 1 and Gc5 = 1 (30-5)
Gc3 = 0, Gc4 = 3, Gc5 = 1 and Gc6 = 1 (30-6)
Gc4 = 0, Gc5 = 3, Gc6 = 1 and Gc7 = 1 (30-7)
Gc5 = 0, Gc6 = 3, Gc7 = 1 and Gc8 = 1 (30-8)
Gc2 = 1 and Gc3 = 1 and Gc4 = 2 and Gc5 = 0 (30-9)
Gc3 = 1 and Gc4 = 1 and Gc5 = 2 and Gc6 = 0 (30-10)
Gc4 = 1 and Gc5 = 1 and Gc6 = 2 and Gc7 = 0 (30-11)
Gc5 = 1 and Gc6 = 1 and Gc7 = 2 and Gc8 = 0 (30-12)
Gc2 = 1 and Gc3 = 2 and Gc4 = 0 and Gc5 = 0 (30-13)
Gc3 = 1 and Gc4 = 2 and Gc5 = 0 and Gc6 = 0 (30-14)
Gc4 = 1 and Gc5 = 2 and Gc6 = 0 and Gc7 = 0 (30-15)
Gc5 = 1 and Gc6 = 2 and Gc7 = 0 and Gc8 = 0 (30-16)
[0093]
In addition, when any of the above-described formulas (30-1) to (30-4) is satisfied, it indicates which of the basic waveforms obtained near the pixel of interest is correlated. The value pattern is (0031) (pattern that draws the arc of the upper chord), and is obtained in the vicinity of the pixel of interest when any one of the expressions (30-5) to (30-8) is satisfied. A pattern of values indicating which one of the basic waveforms is correlated is (0311) (pattern for drawing an arc of the upper chord), and one of the expressions (30-9) to (30-12) When any one of them is satisfied, a pattern of a value indicating which one of the basic waveforms obtained in the vicinity of the pixel of interest has a correlation is (1120) (pattern that draws the arc of the lower chord), and the expression (30-13) to (30-16) When the deviation or is satisfied, the pattern value indicates whether there is a correlation with any of the waveform of the basic waveform obtained in the vicinity of the target pixel is a (1200) (pattern draw lower chord of the arc).
[0094]
Through the processing described with reference to FIG. 11, the pattern detection unit 62 obtains the correlation with the basic waveforms A to D described with reference to FIG. 9 at the temporary target pixel near the target pixel, as shown in FIG. 10B. A pattern that occurs characteristically when there is a steep luminance change in the horizontal direction is detected, and the class code determination unit 63 determines whether or not there is a steep luminance change in the horizontal direction based on the detection result. The class code to be shown is determined.
[0095]
In addition, here, it has been described that a steep change in luminance in the horizontal direction is detected based on the correlation with the basic waveform at the 13 points of temporary target pixels described with reference to FIG. 12. The present invention is not limited to this, and more pixels may be selected as the temporary target pixels, or the temporary target pixels may be selected in a wider range.
[0096]
Further, the class classification may be performed by using the class classification result detected by the above-described processing in combination with the class classification result by the existing class classification method. As a result, it is possible to convert an image without further deterioration in image quality.
[0097]
Next, the coefficient calculation device 81 for determining the prediction coefficient stored in the coefficient memory 64 will be described with reference to FIG.
[0098]
The NTSC encoder 91 receives input of component signals including a luminance signal Y, a color difference signal RY, and a color difference signal BY as a teacher image, and an NTSC composite video as a student image from the input component signal. A signal is generated and output to the region extraction unit 92 and the region extraction unit 95.
[0099]
The area extraction unit 92 extracts pixels (class taps) necessary for class classification from the input composite video signal, and outputs them to the pattern detection unit 93. The pattern detection unit 93 detects the input class tap pattern and outputs the detection result to the class code determination unit 94. The class code determination unit 94 determines a class code corresponding to the input pattern, and outputs the class code to the region extraction unit 95 and the normal equation generation unit 96.
[0100]
The area extraction unit 95 extracts a prediction tap from the composite video signal input from the NTSC encoder 91 based on the class code input from the class code determination unit 94, and outputs the prediction tap to the normal equation generation unit 96.
[0101]
The region extraction unit 92, the pattern detection unit 93, the class code determination unit 94, and the region extraction unit 95 described above are the region extraction unit 61, the pattern detection unit 62, and the class code determination unit of the class classification adaptive processing unit 52 of FIG. 63 and the area extraction unit 65 have basically the same configuration and function.
[0102]
The normal equation generation unit 96, for all classes input from the class code determination unit 94, for each class, the prediction tap of the student image input from the region extraction unit 95 and the luminance of the component signal as the teacher image A normal equation is generated from the signal Y and output to the coefficient determination unit 97. When the necessary number of normal equations are supplied from the normal equation generation unit 96, the coefficient determination unit 97 solves the normal equations using, for example, the least square method, and the prediction coefficients (w1,..., Wn) described above. ) And the prediction coefficient obtained by the calculation is supplied to the memory 98 and stored therein.
[0103]
Here, the normal equation will be described. In the above equation (1), the prediction coefficients w1,..., Wn are undetermined coefficients before learning. Learning is performed by inputting a plurality of teacher images for each class. When the number of types of teacher images is expressed as m, the following equation (31) is set from equation (1).
[0104]
yk = w1 * xk1 + w2 * xk2 ++ ... + wn * xkn (31)
[0105]
Here, k is k = 1, 2,..., M. When m> n, the prediction coefficients w1,..., wn are not uniquely determined. Therefore, the element ek of the error vector e is defined by the following equation (32), and the prediction coefficient is determined so that the error vector e defined by the equation (33) is minimized. That is, the prediction coefficient is uniquely determined by a so-called least square method.
[0106]
ek = yk− {w1 × xk1 + w2 × xk2 ++... + wn × xkn} (32)
[0107]
[Expression 1]
Figure 0004045539
[0108]
Each prediction coefficient wi that minimizes e ^ 2 (the square of e) in equation (33) is a partial differential of e ^ 2 in equation (33) with the prediction coefficient w i (i = 1, 2,...). Then, it is transformed into the equation (34), and the partial differential value is calculated to be 0 for each value of i.
[0109]
[Expression 2]
Figure 0004045539
[0110]
A specific procedure for determining each prediction coefficient wi from Expression (34) will be described. When defining Xji and Yi as in Expression (35) and Expression (36), Expression (34) is transformed into the determinant of Expression (37).
[0111]
[Equation 3]
Figure 0004045539
[0112]
[Expression 4]
Figure 0004045539
[0113]
[Equation 5]
Figure 0004045539
[0114]
This equation (37) is generally called a normal equation. Here, Xji (j, i = 1, 2,... N) and Yi (i = 1, 2,... N) are calculated based on the teacher image and the student image. That is, the normal equation generation unit 96 calculates the values of Xji and Yi and determines the equation (37) that is a normal equation. Further, the coefficient determining unit 97 determines each prediction coefficient wi by solving the equation (37).
[0115]
Next, the coefficient calculation process executed by the coefficient calculation device 81 in FIG. 13 will be described with reference to the flowchart in FIG.
[0116]
In step S <b> 111, a component signal as a teacher image is input to the NTSC encoder 91 and the normal equation generation unit 96.
[0117]
In step S112, the NTSC encoder 91 generates a student image composed of an NTSC composite signal from the input component signal and outputs the student image to the region extraction unit 92 and the region extraction unit 95.
[0118]
In step S <b> 113, the region extraction unit 92 extracts class taps and outputs them to the pattern detection unit 93 in the same manner as in step S <b> 4 in the flowchart of FIG. 5.
[0119]
In step S114, the pattern detection unit 93 and the class code determination unit 94 execute the same process as the class code determination process described with reference to FIG. And output to the normal equation generation unit 96.
[0120]
In step S <b> 115, the region extracting unit 95 extracts the prediction tap (FIG. 8) of the student image based on the class code input from the class code determining unit 94 and outputs the extracted tap to the normal equation generating unit 96.
[0121]
In step S116, the normal equation generator 96 uses the class code input from the class code determiner 94, the prediction tap input from the region extractor 95, and the component signal input as the teacher image from the above equation ( 37) is generated and output to the coefficient determination unit 97 together with the class code input from the class code determination unit 94.
[0122]
In step S117, it is determined whether or not all pixels have been processed. If it is determined in step S117 that processing has not been performed for all pixels, the processing returns to step S113, and the subsequent processing is repeated. That is, the processes in steps S113 to S117 are repeated until the processing of all pixels is completed.
[0123]
When it is determined in step S117 that all pixels have been processed, in step S118, the coefficient determination unit 97 solves the normal equation of the above equation (37), determines the prediction coefficient, and sets the class code. The data are stored in the memory 98 in association with each other, and the process is terminated.
[0124]
With the above processing, an appropriate prediction coefficient is calculated by detecting whether or not there is a steep luminance change in the horizontal direction around the pixel of interest, so the cross color generated by the conversion processing from the composite signal to the component signal is calculated. A prediction coefficient capable of suppressing the occurrence can be obtained. 13 and 14, the example of setting the prediction coefficient for obtaining the luminance signal Y has been described. However, the prediction coefficients for the color difference signal RY and the color difference signal BY are also obtained in the same manner. be able to.
[0125]
In the above example, component video signals such as the luminance signal Y, the color difference signal RY, and the color difference signal BY are generated from the composite video signal. For example, the television receiver shown in FIG. As shown in FIG. 101, a class classification adaptation processing unit 111 may be provided instead of the class classification adaptation processing unit 52 and the matrix processing unit 16 in FIG. The class classification adaptive processing unit 111 is configured to be able to execute the processing performed by the class classification adaptive processing unit 52 and the matrix processing unit 16 of FIG. 3, and from the composite video signal output from the VIF processing unit 13, the primary color RGB signal Is generated.
[0126]
The configuration of the class classification adaptation processing unit 111 is basically the same as that of the class classification adaptation processing unit 52 described with reference to FIG. However, the prediction coefficient stored in the coefficient memory 64 corresponds to the primary color RGB signal. That is, the student image in the learning process executed by the coefficient calculation device 81 in order to determine the prediction coefficient is the same as in the case of generating the prediction coefficient stored in the coefficient memory 64 of the class classification adaptive processing unit 52 in FIG. Unlike the case of generating a prediction coefficient stored in the coefficient memory 64 of the class classification adaptive processing unit 52 in FIG. 4, the teacher image is determined to be a primary color RGB signal. The prediction coefficient also corresponds to the primary color RGB signal.
[0127]
In the processing described above, the class classification and the calculation of the prediction coefficient are both performed for each phase of the four chroma signals.
[0128]
In the processing described above, the case where the NTSC composite signal is converted into the component signal has been described. However, the present invention can be similarly applied to composite signals other than the NTSC system, such as the PAL system. Is possible.
[0129]
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processes is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.
[0130]
FIG. 16 is a block diagram illustrating a configuration of a personal computer 191 that can implement the processing executed by the television receiver 41, the television receiver 101, or the coefficient calculation device 81 by software.
[0131]
The CPU 201 of the personal computer controls the entire operation of the personal computer. When a command is input by a user operation from an input unit 206 such as a keyboard or a mouse via the bus 204 and the input / output interface 205, the CPU 201 stores it in a ROM (Read Only Memory) 202 correspondingly. The loaded program is loaded into a RAM (Random Access Memory) 203 and executed. Alternatively, the CPU 201 loads a program read from the magnetic disk 211, the optical disk 212, the magneto-optical disk 213, or the semiconductor memory 214 connected to the drive 210 and installed in the storage unit 208 to the RAM 203 and executes it. . Further, the CPU 201 controls the communication unit 209 to communicate with the outside and exchange data.
[0132]
As shown in FIG. 16, the recording medium on which the program is recorded is distributed to provide the program to the user separately from the computer, and a magnetic disk 211 (including a flexible disk) on which the program is recorded, An optical disk 212 (including compact disc-read only memory (CD-ROM), DVD (digital versatile disc)), a magneto-optical disk 213 (including MD (mini-disc) (trademark)), or a semiconductor memory 214 In addition to the package medium, it is configured by a ROM 202 in which a program is recorded and a hard disk included in the storage unit 208 provided to the user in a state of being pre-installed in a computer.
[0133]
Further, in the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.
[0134]
【The invention's effect】
Thus, according to the present invention, a composite video signal can be converted into a component signal. In particular, the horizontal brightness Arcuate By detecting the change and performing classification, cross color can be suppressed.
[0135]
Further, according to another aspect of the present invention, it is possible to calculate a prediction coefficient used when a composite video signal is converted into a component signal. In particular, the horizontal brightness Arcuate By detecting a change and performing classification, a prediction coefficient capable of suppressing cross color can be calculated.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a conventional television receiver.
FIG. 2 is a block diagram showing a configuration of a conventional television receiver.
FIG. 3 is a block diagram illustrating a configuration of a television receiver to which the present invention is applied.
4 is a block diagram showing a more detailed configuration of a class classification adaptation processing unit in FIG. 3; FIG.
FIG. 5 is a flowchart illustrating display processing of the television receiver in FIG. 3;
FIG. 6 is a diagram illustrating the phase of an NTSC signal.
FIG. 7 is a diagram illustrating class taps.
FIG. 8 is a diagram illustrating a prediction tap.
FIG. 9 is a diagram illustrating a basic waveform.
FIG. 10 is a diagram for explaining a pattern in a case where the luminance changes steeply in the horizontal direction.
FIG. 11 is a flowchart for describing class code determination processing;
FIG. 12 is a diagram illustrating a tentative pixel of interest.
FIG. 13 is a block diagram illustrating a configuration of a coefficient calculation device.
FIG. 14 is a flowchart for explaining coefficient calculation processing;
FIG. 15 is a block diagram illustrating another configuration example of a television receiver to which the present invention has been applied.
FIG. 16 is a diagram illustrating a configuration of a personal computer.
[Explanation of symbols]
41 television receiver, 52 class classification adaptive processing unit, 61 region extraction unit, 62 pattern detection unit, 63 class code determination unit, 64 coefficient memory, 65 region extraction unit, 66 prediction calculation unit, 81 coefficient calculation device, 91 NTSC Encoder, 92 region extraction unit, 93 pattern detection unit, 94 class code determination unit, 95 region extraction unit, 96 normal equation generation unit, 97 coefficient determination unit, 98 memory, 101 television receiver, 111 class classification adaptive processing unit

Claims (15)

入力された第1の画像信号を第2の画像信号に変換する画像処理装置において、
前記第1の画像信号から、着目画素に対応した複数の第1の画素信号を抽出する第1の抽出手段と、
前記第1の抽出手段により抽出された、複数の前記第1の画素信号を基に、前記着目画素近傍の画素の輝度の変化に関する情報を検出する検出手段と、
前記検出手段により検出された前記着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、前記着目画素の周辺で水平方向に輝度が弧状に変化しているか否かを検出し、前記着目画素が属するクラスを示すクラス情報を生成する生成手段と、
前記クラス毎に予め定められた係数を記憶し、前記生成手段により生成された前記クラス情報に対応した前記係数を出力する係数記憶手段と、
前記第1の画像信号から、複数の第2の画素信号を抽出する第2の抽出手段と、
前記第2の抽出手段により抽出された前記第2の画素信号と、前記係数記憶手段により出力された前記係数との演算により、前記第1の画像信号である前記着目画素を、前記第2の画像信号に変換する第1の信号変換手段と
を備えることを特徴とする画像信号処理装置。
In an image processing apparatus for converting an input first image signal into a second image signal,
First extraction means for extracting a plurality of first pixel signals corresponding to the pixel of interest from the first image signal;
Detecting means for detecting information on a change in luminance of a pixel in the vicinity of the target pixel based on the plurality of first pixel signals extracted by the first extracting means;
By detecting whether or not the pattern of information relating to the luminance change of the pixels in the vicinity of the target pixel detected by the detection means is a predetermined pattern, the luminance is arcuate in the horizontal direction around the target pixel. Generating means for detecting whether it has changed and generating class information indicating a class to which the pixel of interest belongs;
Coefficient storage means for storing a coefficient predetermined for each class and outputting the coefficient corresponding to the class information generated by the generation means;
Second extraction means for extracting a plurality of second pixel signals from the first image signal;
By calculating the second pixel signal extracted by the second extraction unit and the coefficient output by the coefficient storage unit, the pixel of interest that is the first image signal is converted into the second pixel signal. An image signal processing apparatus comprising: first signal conversion means for converting to an image signal.
前記検出手段は、前記着目画素近傍の複数の画素の画素値と、所定の複数の基本波形との相関を求めることにより、前記着目画素近傍の画素の輝度の変化に関する情報を検出する
ことを特徴とする請求項1に記載の画像信号処理装置。
The detection means detects information related to a change in luminance of pixels in the vicinity of the target pixel by obtaining correlations between pixel values of the plurality of pixels in the vicinity of the target pixel and a plurality of predetermined basic waveforms. The image signal processing apparatus according to claim 1.
前記第1の画像信号は、コンポジット信号であり、第2の画像信号は、コンポーネント信号である
ことを特徴とする請求項1に記載の画像信号処理装置。
The image signal processing apparatus according to claim 1, wherein the first image signal is a composite signal, and the second image signal is a component signal.
前記第1の信号変換手段により変換された前記第2の画像信号を表示する表示手段
を更に備えることを特徴とする請求項1に記載の画像信号処理装置。
The image signal processing apparatus according to claim 1, further comprising display means for displaying the second image signal converted by the first signal conversion means.
画像信号を含むデータを取得する取得手段と、
前記取得手段により取得された前記データのうちの少なくとも一部を、前記第1の抽出手段が処理可能な前記第1の画像信号に変換する第2の信号変換手段と
を更に備えることを特徴とする請求項1に記載の画像信号処理装置。
An acquisition means for acquiring data including an image signal;
A second signal converting unit that converts at least a part of the data acquired by the acquiring unit into the first image signal that can be processed by the first extracting unit; The image signal processing apparatus according to claim 1.
入力された第1の画像信号を第2の画像信号に変換する画像処理装置の画像処理方法において、
前記第1の画像信号から、着目画素に対応した複数の第1の画素信号を抽出する第1の抽出ステップと、
前記第1の抽出ステップの処理により抽出された、複数の前記第1の画素信号を基に、前記着目画素近傍の画素の輝度の変化に関する情報を検出する検出ステップと、
前記検出ステップの処理により検出された前記着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、前記着目画素周辺で水平方向に輝度が弧状に変化しているか否かを検出し、前記着目画素が属するクラスを示すクラス情報を生成する生成ステップと、
前記クラス毎に予め定められて記憶されている係数のうち、前記生成ステップの処理により生成された前記クラス情報に対応した前記係数の出力を制御する係数出力制御ステップと、
前記第1の画像信号から、複数の第2の画素信号を抽出する第2の抽出ステップと、
前記第2の抽出ステップの処理により抽出された前記第2の画素信号と、前記係数出力制御ステップの処理により出力が制御された前記係数との演算により、前記第1の画像信号である前記着目画素を、前記第2の画像信号に変換する信号変換ステップと
を含むことを特徴とする画像処理方法。
In an image processing method of an image processing apparatus for converting an input first image signal into a second image signal,
A first extraction step of extracting a plurality of first pixel signals corresponding to the pixel of interest from the first image signal;
A detection step of detecting information related to a change in luminance of a pixel in the vicinity of the pixel of interest based on the plurality of first pixel signals extracted by the processing of the first extraction step;
By detecting whether or not the pattern of information relating to the luminance change of the pixels in the vicinity of the target pixel detected by the detection step processing is a predetermined pattern, the luminance in the horizontal direction around the target pixel is an arc shape. A generation step for detecting whether or not the target pixel belongs to, and generating class information indicating a class to which the target pixel belongs;
A coefficient output control step for controlling the output of the coefficient corresponding to the class information generated by the processing of the generation step among the coefficients determined and stored in advance for each class;
A second extraction step of extracting a plurality of second pixel signals from the first image signal;
The target image that is the first image signal is obtained by calculating the second pixel signal extracted by the processing of the second extraction step and the coefficient whose output is controlled by the processing of the coefficient output control step. And a signal conversion step of converting a pixel into the second image signal.
入力された第1の画像信号を第2の画像信号に変換する画像処理装置用のプログラムであって、
前記第1の画像信号から、着目画素に対応した複数の第1の画素信号を抽出する第1の抽出ステップと、
前記第1の抽出ステップの処理により抽出された、複数の前記第1の画素信号を基に、前記着目画素近傍の画素の輝度の変化に関する情報を検出する検出ステップと、
前記検出ステップの処理により検出された前記着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、前記着目画素周辺で水平方向に輝度が弧状に変化しているか否かを検出し、前記着目画素が属するクラスを示すクラス情報を生成する生成ステップと、
前記クラス毎に予め定められて記憶されている係数のうち、前記生成ステップの処理により生成された前記クラス情報に対応した前記係数の出力を制御する係数出力制御ステップと、
前記第1の画像信号から、複数の第2の画素信号を抽出する第2の抽出ステップと、
前記第2の抽出ステップの処理により抽出された前記第2の画素信号と、前記係数出力制御ステップの処理により出力が制御された前記係数との演算により、前記第1の画像信号である前記着目画素を、前記第2の画像信号に変換する信号変換ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A program for an image processing apparatus that converts an input first image signal into a second image signal,
A first extraction step of extracting a plurality of first pixel signals corresponding to the pixel of interest from the first image signal;
A detection step of detecting information related to a change in luminance of a pixel in the vicinity of the pixel of interest based on the plurality of first pixel signals extracted by the processing of the first extraction step;
By detecting whether or not the pattern of information relating to the luminance change of the pixels in the vicinity of the target pixel detected by the detection step processing is a predetermined pattern, the luminance in the horizontal direction around the target pixel is an arc shape. A generation step for detecting whether or not the target pixel belongs to, and generating class information indicating a class to which the target pixel belongs;
A coefficient output control step for controlling the output of the coefficient corresponding to the class information generated by the processing of the generation step among the coefficients determined and stored in advance for each class;
A second extraction step of extracting a plurality of second pixel signals from the first image signal;
The target image that is the first image signal is obtained by calculating the second pixel signal extracted by the processing of the second extraction step and the coefficient whose output is controlled by the processing of the coefficient output control step. And a signal conversion step of converting pixels into the second image signal. A recording medium on which a computer-readable program is recorded.
入力された第1の画像信号を第2の画像信号に変換する画像処理装置を制御するコンピュータが実行可能なプログラムであって、
前記第1の画像信号から、着目画素に対応した複数の第1の画素信号を抽出する第1の抽出ステップと、
前記第1の抽出ステップの処理により抽出された、複数の前記第1の画素信号を基に、前記着目画素近傍の画素の輝度の変化に関する情報を検出する検出ステップと、
前記検出ステップの処理により検出された前記着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、前記着目画素周辺で水平方向に輝度が弧状に変化しているか否かを検出し、前記着目画素が属するクラスを示すクラス情報を生成する生成ステップと、
前記クラス毎に予め定められて記憶されている係数のうち、前記生成ステップの処理により生成された前記クラス情報に対応した前記係数の出力を制御する係数出力制御ステップと、
前記第1の画像信号から、複数の第2の画素信号を抽出する第2の抽出ステップと、
前記第2の抽出ステップの処理により抽出された前記第2の画素信号と、前記係数出力制御ステップの処理により出力が制御された前記係数との演算により、前記第1の画像信号である前記着目画素を、前記第2の画像信号に変換する信号変換ステップと
を含むことを特徴とするプログラム。
A computer-executable program for controlling an image processing apparatus that converts an input first image signal into a second image signal,
A first extraction step of extracting a plurality of first pixel signals corresponding to the pixel of interest from the first image signal;
A detection step of detecting information related to a change in luminance of a pixel in the vicinity of the pixel of interest based on the plurality of first pixel signals extracted by the processing of the first extraction step;
By detecting whether or not the pattern of information relating to the luminance change of the pixels in the vicinity of the target pixel detected by the detection step processing is a predetermined pattern, the luminance in the horizontal direction around the target pixel is an arc shape. A generation step for detecting whether or not the target pixel belongs to, and generating class information indicating a class to which the target pixel belongs;
A coefficient output control step for controlling the output of the coefficient corresponding to the class information generated by the processing of the generation step among the coefficients determined and stored in advance for each class;
A second extraction step of extracting a plurality of second pixel signals from the first image signal;
The target image that is the first image signal is obtained by calculating the second pixel signal extracted by the processing of the second extraction step and the coefficient whose output is controlled by the processing of the coefficient output control step. And a signal conversion step of converting a pixel into the second image signal.
画像信号の変換に用いる係数を生成する係数算出装置において、
入力された第1の画像信号から第2の画像信号を生成する画像信号生成手段と、
前記第2の画像信号から着目画素に対応した複数の画素位置の複数の第1の画素信号を抽出する第1の抽出手段と、
前記第1の抽出手段により抽出された、複数の前記第1の画素信号を基に、前記着目画素近傍の画素の輝度の変化に関する情報を検出する検出手段と、
前記検出手段により検出された前記着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、前記着目画素周辺で水平方向に輝度が弧状に変化しているか否かを検出し、前記着目画素が属するクラスを示すクラス情報を生成する生成手段と、
前記第2の画像信号から、複数の第2の画素信号を抽出する第2の抽出手段と、
前記第2の抽出手段により抽出された前記第2の画素信号、および、入力された前記第1の画像信号に基づいて、前記クラスに対応した前記係数を算出する算出手段と
を備えることを特徴とする係数算出装置。
In a coefficient calculation device that generates a coefficient used for conversion of an image signal,
Image signal generating means for generating a second image signal from the input first image signal;
First extraction means for extracting a plurality of first pixel signals at a plurality of pixel positions corresponding to the target pixel from the second image signal;
Detecting means for detecting information on a change in luminance of a pixel in the vicinity of the target pixel based on the plurality of first pixel signals extracted by the first extracting means;
By detecting whether or not the information pattern related to the change in luminance of the pixels in the vicinity of the target pixel detected by the detection means is a predetermined pattern, the luminance changes in an arc shape in the horizontal direction around the target pixel. Generating means for detecting whether or not and generating class information indicating a class to which the target pixel belongs;
Second extraction means for extracting a plurality of second pixel signals from the second image signal;
Calculation means for calculating the coefficient corresponding to the class based on the second pixel signal extracted by the second extraction means and the input first image signal. A coefficient calculation device.
前記検出手段は、前記着目画素近傍の複数の画素の画素値と、所定の複数の基本波形との相関を求めることにより、前記着目画素近傍の画素の輝度の変化に関する情報を検出する
ことを特徴とする請求項9に記載の係数算出装置。
The detection means detects information related to a change in luminance of pixels in the vicinity of the target pixel by obtaining correlations between pixel values of the plurality of pixels in the vicinity of the target pixel and a plurality of predetermined basic waveforms. The coefficient calculation apparatus according to claim 9.
前記第1の画像信号はコンポーネント信号であり、前記第2の画像信号は、コンポジット信号である
ことを特徴とする請求項9に記載の係数算出装置。
The coefficient calculation apparatus according to claim 9, wherein the first image signal is a component signal, and the second image signal is a composite signal.
前記算出手段により算出された前記係数を記憶する記憶手段
を更に備えることを特徴とする請求項9に記載の係数算出装置。
The coefficient calculation apparatus according to claim 9, further comprising a storage unit that stores the coefficient calculated by the calculation unit.
画像信号の変換に用いる係数を生成する係数算出装置の係数算出方法において、
入力された第1の画像信号から第2の画像信号を生成する画像信号生成ステップと、
前記第2の画像信号から、着目画素に対応した複数の第1の画素信号を抽出する第1の抽出ステップと、
前記第1の抽出ステップの処理により抽出された、複数の前記第1の画素信号を基に、前記着目画素近傍の画素の輝度の変化に関する情報を検出する検出ステップと、
前記検出ステップの処理により検出された前記着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、前記着目画素周辺で水平方向に輝度が弧状に変化しているか否かを検出し、前記着目画素が属するクラスを示すクラス情報を生成する生成ステップと、
前記第2の画像信号から、複数の第2の画素信号を抽出する第2の抽出ステップと、
前記第2の抽出ステップの処理により抽出された前記第2の画素信号、および、入力された前記第1の画像信号に基づいて、前記クラスに対応した前記係数を算出する算出ステップと
を含むことを特徴とする係数算出方法。
In the coefficient calculation method of the coefficient calculation device that generates the coefficient used for conversion of the image signal,
An image signal generation step of generating a second image signal from the input first image signal;
A first extraction step of extracting a plurality of first pixel signals corresponding to the pixel of interest from the second image signal;
A detection step of detecting information related to a change in luminance of a pixel in the vicinity of the pixel of interest based on the plurality of first pixel signals extracted by the processing of the first extraction step;
By detecting whether or not the pattern of information relating to the luminance change of the pixels in the vicinity of the target pixel detected by the detection step processing is a predetermined pattern, the luminance in the horizontal direction around the target pixel is an arc shape. A generation step for detecting whether or not the target pixel belongs to, and generating class information indicating a class to which the target pixel belongs;
A second extraction step of extracting a plurality of second pixel signals from the second image signal;
And calculating a coefficient corresponding to the class based on the second pixel signal extracted by the processing of the second extraction step and the input first image signal. The coefficient calculation method characterized by this.
画像信号の変換に用いる係数を生成する係数算出装置用のプログラムであって、
入力された第1の画像信号から第2の画像信号を生成する画像信号生成ステップと、
前記第2の画像信号から、着目画素に対応した複数の第1の画素信号を抽出する第1の抽出ステップと、
前記第1の抽出ステップの処理により抽出された、複数の前記第1の画素信号を基に、前記着目画素近傍の画素の輝度の変化に関する情報を検出する検出ステップと、
前記検出ステップの処理により検出された前記着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、前記着目画素周辺で水平方向に輝度が弧状に変化しているか否かを検出し、前記着目画素が属するクラスを示すクラス情報を生成する生成ステップと、
前記第2の画像信号から、複数の第2の画素信号を抽出する第2の抽出ステップと、
前記第2の抽出ステップの処理により抽出された前記第2の画素信号、および、入力された前記第1の画像信号に基づいて、前記クラスに対応した前記係数を算出する算出ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A program for a coefficient calculation device that generates a coefficient used for conversion of an image signal,
An image signal generation step of generating a second image signal from the input first image signal;
A first extraction step of extracting a plurality of first pixel signals corresponding to the pixel of interest from the second image signal;
A detection step of detecting information related to a change in luminance of a pixel in the vicinity of the pixel of interest based on the plurality of first pixel signals extracted by the processing of the first extraction step;
By detecting whether or not the pattern of information relating to the luminance change of the pixels in the vicinity of the target pixel detected by the detection step processing is a predetermined pattern, the luminance in the horizontal direction around the target pixel is an arc shape. A generation step for detecting whether or not the target pixel belongs to, and generating class information indicating a class to which the target pixel belongs;
A second extraction step of extracting a plurality of second pixel signals from the second image signal;
And calculating a coefficient corresponding to the class based on the second pixel signal extracted by the processing of the second extraction step and the input first image signal. A recording medium on which a computer-readable program is recorded.
画像信号の変換に用いる係数を生成する係数算出装置を制御するコンピュータが実行可能なプログラムであって、
入力された第1の画像信号から第2の画像信号を生成する画像信号生成ステップと、
前記第2の画像信号から、着目画素に対応した複数の第1の画素信号を抽出する第1の抽出ステップと、
前記第1の抽出ステップの処理により抽出された、複数の前記第1の画素信号を基に、前記着目画素近傍の画素の輝度の変化に関する情報を検出する検出ステップと、
前記検出ステップの処理により検出された前記着目画素近傍の画素の輝度の変化に関する情報のパターンが、所定のパターンであるか否かを検出することにより、前記着目画素周辺で水平方向に輝度が弧状に変化しているか否かを検出し、前記着目画素が属するクラスを示すクラス情報を生成する生成ステップと、
前記第2の画像信号から、複数の第2の画素信号を抽出する第2の抽出ステップと、
前記第2の抽出ステップの処理により抽出された前記第2の画素信号、および、入力された前記第1の画像信号に基づいて、前記クラスに対応した前記係数を算出する算出ステップと
を含むことを特徴とするプログラム。
A computer-executable program for controlling a coefficient calculation device that generates a coefficient used for conversion of an image signal,
An image signal generation step of generating a second image signal from the input first image signal;
A first extraction step of extracting a plurality of first pixel signals corresponding to the pixel of interest from the second image signal;
A detection step of detecting information related to a change in luminance of a pixel in the vicinity of the pixel of interest based on the plurality of first pixel signals extracted by the processing of the first extraction step;
By detecting whether or not the pattern of information relating to the luminance change of the pixels in the vicinity of the target pixel detected by the detection step processing is a predetermined pattern, the luminance in the horizontal direction around the target pixel is an arc shape. A generation step for detecting whether or not the target pixel belongs to, and generating class information indicating a class to which the target pixel belongs;
A second extraction step of extracting a plurality of second pixel signals from the second image signal;
And calculating a coefficient corresponding to the class based on the second pixel signal extracted by the processing of the second extraction step and the input first image signal. A program characterized by
JP2002199403A 2002-07-09 2002-07-09 Image processing apparatus, image processing method, coefficient calculation apparatus, coefficient calculation method, recording medium, and program Expired - Fee Related JP4045539B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002199403A JP4045539B2 (en) 2002-07-09 2002-07-09 Image processing apparatus, image processing method, coefficient calculation apparatus, coefficient calculation method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002199403A JP4045539B2 (en) 2002-07-09 2002-07-09 Image processing apparatus, image processing method, coefficient calculation apparatus, coefficient calculation method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2004048128A JP2004048128A (en) 2004-02-12
JP4045539B2 true JP4045539B2 (en) 2008-02-13

Family

ID=31706547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002199403A Expired - Fee Related JP4045539B2 (en) 2002-07-09 2002-07-09 Image processing apparatus, image processing method, coefficient calculation apparatus, coefficient calculation method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4045539B2 (en)

Also Published As

Publication number Publication date
JP2004048128A (en) 2004-02-12

Similar Documents

Publication Publication Date Title
US6239842B1 (en) Method of de-interlacing video signals using a mixed mode spatial and temporal approximation technique
JP4743912B2 (en) Image display system, image display apparatus, and control method for image display apparatus
KR20000023569A (en) Image converter and image conversion method
JP3852561B2 (en) Image display device and image display method
AU746276B2 (en) Signal conversion apparatus and method
JP4045539B2 (en) Image processing apparatus, image processing method, coefficient calculation apparatus, coefficient calculation method, recording medium, and program
JP2004072528A (en) Method and program for interpolation processing, recording medium with the same recorded thereon, image processor and image forming device provided with the same
JP4009904B2 (en) Image processing apparatus, image processing method, coefficient calculation apparatus, coefficient calculation method, recording medium, and program
US20040017509A1 (en) Image-information converting apparatus and method, image displaying apparatus and method, coefficient calculating apparatus and method, coefficient-data storing apparatus, apparatus and method for detecting part where picture quality is degraded, recording medium, and program
KR20050009268A (en) Signal processing device and method, recording medium, and program
JP4371907B2 (en) Pixel feature determination device, pixel interpolation device, and video signal processing device
JP4752130B2 (en) Image processing apparatus and method, recording medium, and program
JP3777831B2 (en) Image information conversion apparatus and conversion method
JPH08130744A (en) Television receiver
KR20000035112A (en) Image information converting apparatus
JP4597282B2 (en) Image information conversion apparatus, conversion method, and display apparatus
JP4062714B2 (en) Video signal conversion apparatus and method
JP3777596B2 (en) Image information conversion device and method, coefficient calculation device and method, storage device, recording medium, and program
JPH07212794A (en) Signal separator
JP2000152273A (en) Image information converter and converting method
US6414721B1 (en) Video signal digital processing device, information storage medium for video signal digital processing, and video signal digital processing method
JP4595162B2 (en) Image signal processing apparatus and image signal processing method
JP3777600B2 (en) Image information conversion device, coefficient calculation device, representative pixel signal setting device and method, storage device, recording medium, and program
JP3567141B2 (en) Transmitting device and method, receiving device and method, broadcasting system, and program
US20060232703A1 (en) Picture display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070809

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101130

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111130

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121130

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131130

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees