JP3777600B2 - Image information conversion device, coefficient calculation device, representative pixel signal setting device and method, storage device, recording medium, and program - Google Patents

Image information conversion device, coefficient calculation device, representative pixel signal setting device and method, storage device, recording medium, and program Download PDF

Info

Publication number
JP3777600B2
JP3777600B2 JP2002161369A JP2002161369A JP3777600B2 JP 3777600 B2 JP3777600 B2 JP 3777600B2 JP 2002161369 A JP2002161369 A JP 2002161369A JP 2002161369 A JP2002161369 A JP 2002161369A JP 3777600 B2 JP3777600 B2 JP 3777600B2
Authority
JP
Japan
Prior art keywords
pixel
class
representative
vector
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002161369A
Other languages
Japanese (ja)
Other versions
JP2004015083A (en
Inventor
哲二郎 近藤
小林  直樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002161369A priority Critical patent/JP3777600B2/en
Publication of JP2004015083A publication Critical patent/JP2004015083A/en
Application granted granted Critical
Publication of JP3777600B2 publication Critical patent/JP3777600B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像情報変換装置、係数算出装置、代表画素信号設定装置および方法、記憶装置、記録媒体、並びにプログラムに関し、特に、コンポジット信号からコンポーネント信号に変換する際に生じる画質の劣化を抑制することができるようにした画像情報変換装置、係数算出装置、代表画素信号設定装置および方法、記憶装置、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】
一般にテレビジョン受像機では、映像信号のコンポジット信号をコンポーネント信号に変換させて映像として表示している。映像信号としては、NTSC(National Television Standards Committee)方式のコンポジット映像信号が広く使用されている。
【0003】
従来、コンポジット映像信号は、輝度信号Yとクロマ信号Cとに分離され、その後、クロマ信号Cが復調されて、ベースバンドの輝度信号Y、色差信号R−Y,B−Yよりなるコンポーネント信号に変換されていた。しかしながら、これらの処理に必要とされる回路は、その構成が複雑になるばかりでなく、その規模も大きくなり、コスト高となるため、最近、クラス分類適応処理を用いた方法が提案されている。
【0004】
このクラス分類適応処理を用いた方法とは、着目画素における輝度信号Y,色差信号R−Y,B−Yといったコンポーネント信号を求めるために、まず、着目画素を含めた、その付近に配置される画素(この画素は、クラスタップと称される)の特徴量をコンポジット信号から求めて、その特徴量毎に予め分類されたクラスを特定する。そして、着目画素を含めた、その付近の画素のコンポジット信号からなる画素(この画素は、予測タップと称され、クラスタップと同じこともある)に、クラス毎に予め設定された係数による演算処理を施すことにより、着目画素のコンポーネント信号を求めるというものである。
【0005】
図1は、クラス分類適応処理を利用したときの画像変換装置の構成を示している。クラス分類部11は、入力されたコンポジット信号より着目画素に対応したクラスタップを抽出し、そのクラスタップとなる画素の画素値を所定の演算により処理した値を所定の閾値と比較し、その大小により1または0を設定して、クラスタップ数から2値化情報を生成する。さらに、クラス分類部11は、この2値化情報のパターンを着目画素の特徴量として求め、特徴量に応じて着目画素のクラスを決定し、決定したクラスデータを予測部12に出力する。予測部12は、対応する予測タップを抽出し、クラス分類部11より入力されたクラスデータに基づいて、予め入力され内蔵するメモリに記憶されている予測係数を用いて処理し、コンポーネント信号を生成して出力する。
【0006】
次に、画像変換装置の動作について説明する。クラス分類部11は、コンポジット信号よりクラスタップを抽出する。例えば、コンポジット信号からなる各画素は、図2で示すように輝度信号Y、I信号、および、Q信号との組み合わせから4位相の信号となっている。すなわち、各フィールド上の各画素は、図2Aで示すように、図中白丸で示す(Y+I)、白四角で示す(Y+Q)、黒丸で示す(Y−I)、および、黒四角で示す(Y−Q)の4位相として、水平方向に順次配置され、さらに、上下方向には1段ずつ180位相が反転して配置されている。ここで、図2Aでは、#0乃至#3は、フィールドの番号を示しており、時系列的に配置されている。また、図中のバツ印は、着目画素位置を示している。
【0007】
各フィールド上の画素は、時間の経過と共に位相が変化しており、例えば、着目画素位置を含む列L0乃至L3の各画素は、図2Bで示すように、周期的に変化している。すなわち、各画素は、時間が進むにつれて、上下方向に2フィールド毎に各画素は、180度ずつ位相が反転している。
【0008】
クラス分類部11は、図2で示したようなコンポジット信号のうち、着目画素がフィールド#0上に存在する場合、例えば、図3で示すように、フィールド#0上の着目画素を中心として、元も近い位置に存在する同位相の4画素から構成された5画素(着目画素を含む)をクラスタップとして抽出する。
【0009】
さらに、クラス分類部11は、このクラスタップの各画素の画素値を所定の演算により処理した値を所定の閾値との大小関係から2値化情報のパターン(この例では、クラスタップ毎の5ビットのパターン)を生成して、そのパターン毎に予め設定されたクラスを決定し、クラスデータとして予測部12に出力する。
【0010】
予測部12は、例えば、図4で示すような予測タップを抽出して、この予測タップの各画素値を読出し、内蔵するメモリに予め記憶されている予測係数を用いて演算処理し、コンポーネント信号を生成し、出力する。図4では、予測タップは、フィールド#0上の着目画素を中心とした水平方向の5画素、着目画素の上下の画素とその左右の画素の11画素に、変換によるDC(Direct Current)成分のずれを補正するオフセットタップ(offset)の合計12タップである。予測部12は、これらの12画素からなる予測タップの各画素値にクラスデータに対応した予測係数による演算処理を施し、コンポーネント信号を生成する。
【0011】
予測係数は、図5で示すような学習装置による学習処理により生成される。この学習処理は、教師画像と称されるコンポーネント信号と生徒画像と称されるコンポジット信号の関係を利用して予測係数を求めるものである。すなわち、出力結果の目標値となる教師画像と、入力される画像信号である生徒画像の相互の関係から予測係数を演算により求める処理である。
【0012】
学習装置のクラス分類部21は、図1で示した画像変換装置のクラス分類部11と同様のものであり、入力された生徒信号としてのコンポジット信号より、着目画素のクラスを決定するためのクラスタップを抽出し、各画素の画素値に所定の演算により処理した値を所定の閾値と比較し、その大小関係から上述のクラス分類部11と同様に2値化情報のパターンを生成して、そのパターンから着目画素のクラスを決定し、クラスデータを予測係数計算部22に出力する。予測係数計算部22は、コンポジット信号より予測タップを抽出し、教師画像であるコンポーネント信号との関係から予測係数を演算し、クラスデータと共に出力する。
【0013】
次に、学習装置の学習処理について説明する。
【0014】
クラス分類部21は、入力された生徒画像としてのコンポジット信号よりクラスタップを抽出し、クラスタップの各画素値を所定の閾値と比較し、その大小関係から2値化情報を生成する。その後、クラス分類部21は、そのパターンから着目画素のクラスを決定し、予測係数計算部22に出力する。
【0015】
すなわち、例えば、図2のフィールド#0上に着目画素が存在する場合、クラス分類部21は、クラス分類部11と同様に、例えば、図3で示した着目画素と、最も近い着目画素と同位相の4画素の合計5画素をクラスタップとして抽出する。さらに、クラス分類部21は、抽出したクラスタップの各画素値を所定の演算により処理した値を所定の閾値と比較し、その大小関係から2値化情報のパターンを生成する。クラス分類部21は、そのパターンに基づいて、着目画素のクラスを決定して予測係数計算部22に出力する。
【0016】
予測係数計算部22は、生徒画像であるコンポジット信号より着目画素に対応した予測タップを抽出して、教師画像としてのコンポーネント信号との関係から予測係数を演算し出力する。予測タップは、例えば、図4で示すように、フィールド#0上の着目画素を中心とした水平方向の5画素と、着目画素の上下の画素と、さらにそれぞれの左右の画素の合計11画素に加えて、オフセットタップの12タップである。
【0017】
このように、予め学習装置の学習処理により演算された予測係数を、画像変換装置の予測部11に記憶させる。その後、画像変換装置は、入力されたその予測係数を利用して、コンポジット信号をコンポーネント信号に変換させている。
【0018】
【発明が解決しようとする課題】
しかしながら、上述のようなクラスタップの選択方法では、同位相間の画素値でしか着目画素の特徴量を求めることができず、周辺の異なる位相の画素を含めた特徴量を求めて、対応するクラス設定することができない。すなわち、図2で示したように、各画素は、時間に応じて、また、水平垂直方向の位置に応じて位相が異なるため、異なる位相間の画素値の比較をすることができず、異なる位相を持つ画素間の関係を考慮した、着目画素のクラス決定処理を行うことができない。このため、着目画素のクラスが適正に決定できないことがあり、結果として、適正なクラス分類処理による画像変換処理が行えず、変換後の画質に劣化が生じてしまうことがあるという課題があった。
【0019】
本発明はこのような状況に鑑みてなされたものであり、回路構成を簡単、かつ、小さい規模のものとし、さらに、着目画素とその周辺の画素との関係を適正に反映させたクラス分類を行うことにより、コンポジット信号からコンポーネント信号への変換の際に生じる画質の劣化、特に、クラス分類が適正でない場合に生じる画質劣化を抑制することができるようにするものである。
【0020】
【課題を解決するための手段】
本発明の画像情報変換装置は、着目画素をクラスに分類するための複数の第1の画素信号を入力コンポジット信号から抽出する第1の抽出手段と、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予めクラス毎に定められた代表パターンを記憶する代表パターン記憶手段と、第1の抽出手段により抽出された複数の第1の画素信号のパターンに、最も近い代表パターンを検索する代表パターン検索手段と、代表パターン検索手段により検索された代表パターンが定められているクラスを着目画素のクラスに分類するクラス分類手段と、入力コンポジット信号から着目画素を変換するための複数の第2の画素信号を抽出する第2の抽出手段と、第2の画素信号と、クラス分類手段により分類されたクラス毎に設定されている係数との積和演算により、着目画素の画素信号を変換する着目画素信号変換手段とを備えることを特徴とする。
【0021】
前記複数の第1の画素信号をベクトル量子化するベクトル量子化手段をさらに設けるようにさせることができ、代表パターン記憶手段には、コンポジット信号の着目画素をクラスに分類する複数の第1の画素信号のうちの、代表的な複数の第1の画素信号からなる代表パターンに対応する代表ベクトルとして記憶させるようにすることができる。
【0022】
前記代表パターン検索手段には、第1の抽出手段により抽出された複数の第1の画素信号がベクトル量子化されたものと、ベクトル空間内で最も近い代表ベクトルとしての代表パターンを、第1の抽出手段により抽出された複数の第1の画素信号のパターンに、最も近い代表パターンとして検索させるようにすることができる。
【0023】
前記着目画素信号変換手段には、第2の画素信号と、クラス分類手段により分類されたクラスに設定されている係数との積和演算により、着目画素の画素信号をコンポーネント信号に変換させるようにすることができる。
【0024】
前記着目画素信号変換手段には、第2の画素信号と、クラス分類手段により分類されたクラスに設定されている係数との積和演算により、着目画素の画素信号を輝度信号、または、クロマ信号に変換させるようにすることができる。
前記コンポーネント信号に変換された前記着目画素の画素信号を表示する表示手段さらに設けるようにさせることができる。
【0025】
本発明の画像情報変換方法は、着目画素をクラスに分類するための複数の第1の画素信号を入力コンポジット信号から抽出する第1の抽出ステップと、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予めクラス毎に定められた代表パターンを記憶する代表パターン記憶ステップと、第1の抽出ステップの処理で抽出された複数の第1の画素信号のパターンに、最も近い代表パターンを検索する代表パターン検索ステップと、代表パターン検索ステップの処理で検索された代表パターンが定められている前記クラスを着目画素のクラスに分類するクラス分類ステップと、コンポジット信号から着目画素を変換するための複数の第2の画素信号を抽出する第2の抽出ステップと、第2の画素信号と、クラス分類ステップの処理で分類されたクラスに対応した係数との演算により、着目画素の画素信号を変換する着目画素信号変換ステップとを含むことを特徴とする。
【0026】
本発明の第1の記録媒体のプログラムは、着目画素をクラスに分類するための複数の第1の画素信号の入力コンポジット信号からの抽出を制御する第1の抽出制御ステップと、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予めクラス毎に定められた代表パターンの記憶を制御する代表パターン記憶制御ステップと、第1の抽出制御ステップの処理で抽出が制御された複数の第1の画素信号のパターンに、最も近い代表パターンの検索を制御する代表パターン検索制御ステップと、代表パターン検索制御ステップの処理で検索された代表パターンが定められている前記クラスを着目画素のクラスとする分類を制御するクラス分類制御ステップと、入力コンポジット信号から着目画素を変換するための複数の第2の画素信号の抽出を制御する第2の抽出制御ステップと、第2の画素信号と、クラス分類制御ステップの処理で分類が制御されたクラス毎に設定されている係数との積和演算により、着目画素の画素信号の変換を制御する着目画素信号変換制御ステップとを含むことを特徴とする。
【0027】
本発明の第1のプログラムは、着目画素をクラスに分類するための複数の第1の画素信号の入力コンポジット信号からの抽出を制御する第1の抽出制御ステップと、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予めクラス毎に定められた代表パターンの記憶を制御する代表パターン記憶制御ステップと、第1の抽出制御ステップの処理で抽出が制御された複数の第1の画素信号のパターンに、最も近い代表パターンの検索を制御する代表パターン検索制御ステップと、代表パターン検索制御ステップの処理で検索された代表パターンが定められている前記クラスを着目画素のクラスとする分類を制御するクラス分類制御ステップと、入力コンポジット信号から着目画素を変換するための複数の第2の画素信号の抽出を制御する第2の抽出制御ステップと、第2の画素信号と、クラス分類制御ステップの処理で分類が制御されたクラス毎に設定されている係数との積和演算により、着目画素の画素信号の変換を制御する着目画素信号変換制御ステップとをコンピュータに実行させることを特徴とする。
【0032】
本発明の係数算出装置は、入力された画像信号から入力コンポジット信号を生成するコンポジット信号生成手段と、着目画素をクラスに分類するための複数の第1の画素の画素信号を入力コンポジット信号から抽出する第1の抽出手段と、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予めクラス毎に定められた代表パターンを記憶する代表パターン記憶手段と、第1の抽出手段により抽出された複数の第1の画素信号のパターンに、最も近い代表パターンを検索する代表パターン検索手段と、代表パターン検索手段により検索された代表パターンが定められている前記クラスを着目画素のクラスに分類するクラス分類手段と、入力コンポジット信号から着目画素を変換するための複数の第2の画素信号を抽出する第2の抽出手段と、第2の画素信号と入力された画像信号とを用いた正規方程式より、クラス分類手段により分類されたクラス毎に係数を算出する算出手段とを備えることを特徴とする。
【0033】
本発明の記憶装置は、請求項13に記載の係数算出装置により算出された係数を記憶することを特徴とする。
【0034】
本発明の係数算出方法は、入力された画像信号から入力コンポジット信号を生成するコンポジット信号生成ステップと、着目画素をクラスに分類するための複数の第1の画素の画素信号を入力コンポジット信号から抽出する第1の抽出ステップと、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予め定められた代表パターンを記憶する代表パターン記憶ステップと、第1の抽出ステップの処理で抽出された複数の第1の画素信号のパターンに、最も近い代表パターンを検索する代表パターン検索ステップと、代表パターン検索ステップの処理で検索された代表画素信号が定められているクラスを着目画素のクラスに分類するクラス分類ステップと、入力コンポジット信号から着目画素を変換するための複数の第2の画素信号を抽出する第2の抽出ステップと、第2の画素信号と入力された画像信号とを用いた正規方程式より、クラス分類ステップの処理で分類されたクラス毎に係数を算出する算出ステップとを含むことを特徴とする。
【0035】
本発明の第の記録媒体のプログラムは、入力された画像信号から入力コンポジット信号の生成を制御するコンポジット信号生成制御ステップと、着目画素をクラスに分類するための複数の第1の画素の入力コンポジット信号からの画素信号の抽出を制御する第1の抽出制御ステップと、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予めクラス毎に定められた代表パターンの記憶を制御する代表パターン記憶制御ステップと、第1の抽出制御ステップの処理で抽出が制御された複数の第1の画素信号のパターンに、最も近い代表パターンの検索を制御する代表パターン検索制御ステップと、代表パターン検索制御ステップの処理で検索された代表パターンが定められているクラスを着目画素のクラスとする分類を制御するクラス分類制御ステップと、入力コンポジット信号から着目画素を変換するための複数の第2の画素信号の抽出を制御する第2の抽出制御ステップと、第2の画素信号と入力された画像信号とを用いた正規方程式より、クラス分類制御ステップの処理で分類が制御されたクラス毎の係数の算出を制御する算出制御ステップとを含むことを特徴とする。
【0036】
本発明の第のプログラムは、入力された画像信号から入力コンポジット信号の生成を制御するコンポジット信号生成制御ステップと、着目画素をクラスに分類するための複数の第1の画素の画素信号の入力コンポジット信号からの抽出を制御する第1の抽出制御ステップと、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予めクラス毎に定められた代表パターンの記憶を制御する代表パターン記憶制御ステップと、第1の抽出制御ステップの処理で抽出が制御された複数の第1の画素信号のパターンに、最も近い代表パターンの検索を制御する代表パターン検索制御ステップと、代表パターン検索制御ステップの処理で検索された代表パターンが定められている前記クラスを着目画素のクラスとする分類を制御するクラス分類制御ステップと、入力コンポジット信号から複数の第2の画素信号の抽出を制御する第2の抽出制御ステップと、第2の画素信号と入力された画像信号とを用いた正規方程式より、クラス分類制御ステップの処理で分類が制御されたクラス毎に所定の係数の算出を制御する算出制御ステップとをコンピュータに実行させることを特徴とする。
【0037】
本発明の代表パターン設定装置は、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号を抽出する抽出手段と、複数の画素信号をベクトル量子化するベクトル量子化手段と、ベクトル量子化手段によりベクトル量子化された複数の画素信号から、ベクトル空間上での代表ベクトルをクラス数に応じて計算する計算手段と、計算手段で計算された代表ベクトルを代表パターンとしてクラスに対応付けて設定する設定手段とを備えることを特徴とする。
【0038】
前記計算手段には、LBGアルゴリズムでベクトル量子化手段によりベクトル量子化された複数の画素信号から、ベクトル空間上での代表ベクトルをクラス数に応じて計算させるようにすることができる。
【0039】
本発明の代表パターン設定方法は、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号を抽出する抽出ステップと、複数の画素信号をベクトル量子化するベクトル量子化ステップと、ベクトル量子化ステップの処理でベクトル量子化された複数の画素信号から、ベクトル空間上での代表ベクトルをクラス数に応じて計算する計算ステップと、計算ステップの処理で計算された代表ベクトルを代表パターンとしてクラスに対応付けて設定する設定ステップとを含むことを特徴とする。
【0040】
本発明の第の記録媒体のプログラムは、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号の抽出を制御する抽出制御ステップと、複数の画素信号のベクトル量子化を制御するベクトル量子化制御ステップと、ベクトル量子化制御ステップの処理でベクトル量子化が制御された複数の画素信号から、ベクトル空間上での代表ベクトルのクラス数に応じた計算を制御する計算制御ステップと、計算制御ステップの処理で計算された代表ベクトルの代表パターンとしてのクラスに対応付けた設定を制御する設定制御ステップとを含むことを特徴とする。
【0041】
本発明の第のプログラムは、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号の抽出を制御する抽出制御ステップと、複数の画素信号のベクトル量子化を制御するベクトル量子化制御ステップと、ベクトル量子化制御ステップの処理でベクトル量子化が制御された複数の画素信号から、ベクトル空間上での代表ベクトルのクラス数に応じた計算を制御する計算制御ステップと、計算制御ステップの処理で計算された代表ベクトルの代表パターンとしてのクラスに対応付けた設定を制御する設定制御ステップとをコンピュータに実行させることを特徴とする。
【0042】
本発明の画像情報変換装置および方法、並びに第1のプログラムにおいては、着目画素をクラスに分類するための複数の第1の画素信号が入力コンポジット信号から抽出され、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予めクラス毎に定められた代表パターンが記憶され、抽出された複数の第1の画素信号のパターンに、最も近い代表パターンが検索され、検索された代表パターンが定められているクラスが着目画素のクラスに分類され、入力コンポジット信号から着目画素を変換するための複数の第2の画素信号が抽出され、第2の画素信号と、分類されたクラス毎に設定されている係数との積和演算により、着目画素の画素信号が変換される。
【0044】
本発明の係数算出装置および方法、並びに第のプログラムにおいては、入力された画像信号から入力コンポジット信号が生成され、着目画素をクラスに分類するための複数の第1の画素の画素信号が入力コンポジット信号から抽出され、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予めクラス毎に定められた代表パターンが記憶され、抽出された複数の第1の画素信号のパターンに、最も近い代表パターンが検索され、検索された代表パターンが定められている前記クラスが着目画素のクラスに分類され、入力コンポジット信号から複数の第2の画素信号が抽出され、第2の画素信号と入力された画像信号とを用いた正規方程式より、分類されたクラス毎に係数が算出される。
【0045】
本発明の代表パターン設定装置および方法、並びに第のプログラムにおいては、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号が抽出され、複数の画素信号がベクトル量子化され、ベクトル量子化された複数の画素信号から、ベクトル空間上での代表ベクトルがクラス数に応じて計算され、計算された代表ベクトルが代表パターンとしてクラスに対応付けて設定される。
【0046】
【発明の実施の形態】
図6は、本発明を適用したテレビジョン受像機の一実施の形態の構成を示すブロック図である。
【0047】
チューナ32は、アンテナ31で受信した信号を復調し、映像中間周波信号処理回路(VIF回路)33に出力する。VIF回路33は、入力された信号を映像中間周波信号処理し、A/D(Analog/Digital)変換部34に出力する。A/D変換器34は、VIF回路33より入力されるアナログ信号からなるNTSC方式のコンポジット映像信号をデジタル信号に変換してクラス分類適応処理回路35に出力する。クラス分類適応処理回路35は、A/D変換器34より入力されたデジタル信号に変換されているNTSC方式のコンポジット映像信号から、輝度信号Yと色差信号R−Y,B−Y信号からなるコンポーネント信号を、予測係数を用いて、クラス分類適応処理により直接生成する。
【0048】
コンポジット映像信号からコンポーネント信号を予測生成するための予測係数は、コンポーネント信号を教師画像とし、そのコンポーネント信号をNTSC変調して作成したNTSCコンポジット映像信号を生徒画像とした学習により、生成される。そして、その予測係数が用いられて、マッピング(予測演算処理)されることによりコンポーネント信号が生成される。マトリクス回路36は、入力された輝度信号Y、並びに色差信号R−Y,B−Yから、原色RGB信号を生成し、表示デバイス37に出力する。
【0049】
より詳細には、クラス分類適応処理回路35は、図7で示すように、入力されたNTSCコンポジット信号から着目画素周辺のクラスタップの画素値をベクトル量子化し、予め生成された代表ベクトル群のいずれに近いベクトルであるのかを求め、予め入力されている代表ベクトル群から選び出し、対応付けて予め設定された着目画素のクラスに対応する予測係数を、予め記憶された予測係数群より選び出し、その予測係数を用いてコンポジット信号の予測タップに予測係数を乗じることにより、コンポーネント信号に変換する。尚、図7において、点線の矢印は予め入力されるデータを示し、実線の矢印が実時間で処理されるデータを示している。また、代表ベクトル群、および、予測係数群を生成する処理については後述する。
【0050】
図8は、クラス分類適応処理回路35の構成例を表している。VIF回路33より入力されたNTSC方式のコンポジット映像信号は、クラスタップ抽出部51および予測タップ抽出部55に供給される。クラスタップ抽出部51は、入力されたデジタル信号に変換されているコンポジット映像信号から、クラス分類を行うために必要な画素(クラスタップ)を抽出し、ベクトル生成部52に出力する。ベクトル生成部52は、入力されたクラスタップの各値からベクトルを生成する。より詳細には、ベクトル生成部52は、クラスタップとして入力されてくる各画素の画素値が、例えば、(X100,X101…X200)であったとする場合、これらの値をベクトルの要素としたベクトルを生成してクラスコード決定部53に出力する。
【0051】
クラスコード決定部53は、代表ベクトルメモリ54に記録された代表ベクトルのうち、ベクトル生成部52より入力されたベクトルに最も近い代表ベクトルを検索し、検索された代表ベクトルに対応するクラスコードを決定して、予測演算部56に出力する。代表ベクトルメモリ54は、入力されるベクトルに対応する次数の代表ベクトルがクラスに対応する数だけ記憶されている。例えば、クラスタップが2画素であり、かつ、クラスが11個である場合、図9で示すように、11個の、2次元の代表ベクトルが記憶される。図9においては、代表ベクトルとして、クラスを識別するインデックスが左の列に示され、右側にインデックスに対応する代表ベクトルが示されている。X1乃至X11、および、Y1乃至Y11は、各ベクトルの要素、すなわち、各々ベクトル空間上の座標位置を示している。
【0052】
尚、代表ベクトルは、代表ベクトル設定部61(図13)により予め設定されるが、その処理については後述する。
【0053】
予測タップ抽出部55は、VIF回路33より入力されたコンポジット映像信号から、コンポーネント信号を予測生成するのに必要な予測タップを抽出し、予測演算部56に出力する。ここで予測タップとは、処理しようとする着目画素に対して所定の位置関係に存在する画素である。
【0054】
予測演算部56は、クラスコード決定部53より入力されたクラスコードに基づいて、係数メモリ57に予め記憶された予測係数を読出し、予測タップ抽出部55にて抽出された予測タップ(の各画素の画素値)に予測係数による演算処理を施し、コンポーネント信号を生成して出力する。
【0055】
より詳細には、予測演算部56は、予測タップ抽出部55より供給されるNTSC方式のコンポジット映像信号の所定の画素位置の画素値から抽出された予測タップと、係数メモリ57より読み出したクラスコードに対応した予測係数とを用いて、以下の式(1)に示す積和演算を実行することにより、コンポーネント信号を求める(予測推定する)。
【0056】
y=w1×x1+w2×x2+・・・・+wn×xn・・・(1)
ここで、yは、着目画素である。また、x1,・・・・,xnが各予測タップであり、w1,・・・・,wn が各予測係数である。
【0057】
なお、図示は省略するが、コンポーネント信号のうち、他の色差信号R−Yと色差信号B−Yを生成するための回路も同様に構成されている。その構成は、図8に示した場合と同様であり、係数メモリ57に記憶されている係数が、図8に示した場合においては、輝度信号Yを生成するための予測係数であるが、色差信号R−YまたはB−Yを生成する場合、色差信号R−YまたはB−Yを生成するための予測係数が記憶されることになる。
【0058】
また、係数メモリ57の予測係数の学習処理については、図19を参照して後述する。
【0059】
次に、図10のフローチャートを参照して、図6で示したテレビジョン受像機がコンポジット映像信号をコンポーネント信号に変換し、表示デバイス37に表示させる処理について説明する。
【0060】
ステップS1において、チューナ32は、アンテナ31を介して所定の周波数の信号を受信し、復調してVIF回路33に出力する。ステップS2において、VIF回路33は、入力された信号によりNTSC方式のコンポジット信号を生成して、A/D変換器34に出力する。ステップS3において、A/D変換器34は、入力されたコンポジット信号をアナログ信号からデジタル信号に変換して、クラス分類適応処理回路35に出力する。
【0061】
ステップS4において、クラスタップ抽出部51は、クラスタップを抽出し、ベクトル生成部52に出力する。
【0062】
ステップS5において、ベクトル生成部52は、クラスタップ抽出部51により抽出されたクラスタップの画素値を読出し、これらの値を要素とするベクトルを生成して(ベクトル量子化して)、クラスコード決定部53に出力する。
【0063】
ステップS6において、クラスコード決定部53は、入力されたベクトルと、予め代表ベクトルメモリ54に記憶された代表ベクトル群とを比較し、最も近い代表ベクトルを決定し、対応するクラス(インデックス)コードを予測演算部56に出力する。すなわち、例えば、図9で示したように、クラスタップが2画素で、かつ、代表ベクトルが11個設定されていた場合、クラスタップに対応するベクトルが入力されると、入力されたベクトルに最も近い代表ベクトルが選択される。すなわち、図11で示すように、図9の2次元の代表ベクトルがベクトル空間上のrv1乃至rv11(ベクトルの番号は、インデックスの番号に対応するものとする)で示されるとき、着目画素に対応したベクトルがv1で示されると、ベクトルv1に最も近い代表ベクトルrv11が選択される。より具体的には、クラスコード決定部53が、各代表ベクトルと入力されたベクトルとの距離を求めて、最小値となる代表ベクトルを選択する。
【0064】
今の場合、クラスコード決定部53は、図11で示す代表ベクトルrv11のクラスコード、すなわち、図9で示すようにインデックス11に対応する11をクラスコードとして予測演算部56に出力する。
【0065】
ステップS7において、予測演算部56は、クラスコード決定部53より入力されたクラスコードに基づいて、予め学習処理により決定された予測係数を係数メモリ57より読み出す。この予測係数は、クラスコードに対応付けてメモリ57に格納される。ステップS8において、予測タップ抽出部55は、コンポジット信号より予測タップを抽出し、予測演算部56に出力する。
【0066】
ステップS9において、予測演算部56は、予測タップ抽出部55より入力された予測タップを、係数メモリ57より読み出した予測係数を用いて演算し、コンポーネント信号を生成する。
【0067】
ステップS10において、全ての画素について信号が変換されたか否かが判定され、全ての画素について信号が変換されていないと判定された場合、その処理は、ステップS4に戻る。すなわち、全ての画素の信号が変換されるまで、ステップS4乃至S10の処理が繰り返される。
【0068】
ステップS10において、全ての画素について信号が処理された(変換された)と判定された場合、ステップS11において、予測演算部56は、生成したコンポーネント信号をマトリクス回路36に出力する。ステップS12において、マトリクス回路36は、コンポーネント信号をRGB信号に変換して、表示デバイス37に出力する。
【0069】
以上においては、クラスタップが2画素である場合、すなわち、クラスタップがベクトル量子化されるとき、2次元のベクトルに変換される例について説明してきたが、それ以上の数のクラスタップを設定するときには、量子化されるベクトルの次元がクラスタップ数に比例した数に設定されるのみであり、それ以外の点については、上述と同様の処理でコンポジット信号をコンポーネント信号に変換させることができる。
【0070】
また、着目画素の特徴量を決定付けるクラスタップの設定は、これまで、着目画素の位相に対応させたものとする必要があったが、ベクトル量子化することにより、異なる位相の画素間の演算をする必要がないので、4位相を全て考慮したクラスタップを設定することができ、より着目画素に最適なクラスタップの設定が可能となる。
【0071】
さらに、従来のクラスタップの設定方法では、クラスタップ数に着目画素のクラス数が依存してしまうため、例えば、クラスタップが増えることにより、クラス数も増加してしまう。このようにクラス数が増大した場合、従来の方法では、変換時に生じる画質劣化は低下するものの、不要に精度が向上されてしまい、処理量が膨大なものとなり、結果的にハードウェアの負担を増大させてしまうといったことも考慮する必要があった。一方、上述のように代表ベクトルを用いる場合、予め設定する代表ベクトル数は、クラス数そのものであるため、予めクラス数が決まっていても、クラス数に応じた適当な代表ベクトルを入力される画像に対応させて設定するだけでよく、少ないクラス数でも画質劣化を効果的に抑制させることが可能となり、さらに、不要にクラス数を増大させることがないため、その処理量を不要に増大させず、ハードウェアの負担を軽減させることもでき、その処理速度を向上させることも可能となる。
【0072】
次に、図12を参照して、代表ベクトルメモリ54に予め記憶される代表ベクトルを設定する代表ベクトル設定装置61と、係数メモリ57に予め記憶される予測係数を学習により生成する学習装置62について説明する。
【0073】
代表ベクトル設定装置61は、コンポジット信号の設定タップを抽出し、その画素値から代表ベクトル群を生成し、学習装置62およびクラス分類適応処理回路35の代表ベクトルメモリ54に出力し記憶させる。学習装置62は、生徒画像としてのコンポジット信号、教師画像としてのコンポーネント信号、および、代表ベクトル設定装置61より入力される代表ベクトル群に基づいて、予測係数群を生成し、クラス分類適応処理回路35の係数メモリ57に出力し、記憶させる。尚、図中点線の矢印により示される処理は、先に実行される処理であり、実線の矢印により示される処理は、その後の処理を示している。従って、代表ベクトル設定処理が行われた後、予測係数の演算処理が実行される。
【0074】
次に、図13を参照して、代表ベクトル設定装置61の構成について説明する。代表ベクトル設定装置61の設定タップ抽出部81は、図8のクラスタップ抽出部51と同様に、入力されたコンポジット信号より設定タップ(実質的には、クラスタップと同じもの)を抽出してベクトル生成部82に出力する。ベクトル生成部82は、図8のベクトル生成部52と同様に、設定タップ抽出部81より入力された、設定タップとして抽出された各画素の画素値を要素とするベクトルを生成してベクトル空間データ保持部83に出力する。ベクトル空間データ保持部83は、入力されたコンポジット信号の全ての着目画素に対応するベクトルを記憶する。代表ベクトル計算部84は、ベクトル空間データ保持部83に記憶されたベクトルの分布から、設定された数の代表ベクトルを演算により(例えば、LGBアルゴリズムにより)求め、代表ベクトルメモリ54(図8)に出力し、記憶させる。
【0075】
次に、図14のフローチャートを参照して、代表ベクトル設定装置61が代表ベクトルを設定するときの代表ベクトル設定処理について説明する。
【0076】
ステップS21において、設定タップ抽出部81は、入力されたコンポジット信号から設定タップを抽出し、ベクトル生成部82に出力する。ステップS22において、ベクトル生成部82は、設定タップ抽出部81より入力された設定タップからベクトルを生成してベクトル空間データ保持部83に出力する。より詳細には、ベクトル生成部82は、設定タップの各画素の画素値を要素とするベクトルを生成して(ベクトル量子化して)、ベクトル空間データ保持部83に出力する。
【0077】
ステップS23において、入力されたコンポジット信号の全ての画素についてベクトルが生成されたか否かが判定され、全ての画素について、ベクトルが生成されていないと判定された場合、その処理は、ステップS21に戻る。すなわち、全ての画素について、ベクトルが生成されるまでステップS21乃至S23の処理が繰り返される。
【0078】
ステップS23において、全ての画素についてベクトルが生成されたと判定された場合、その処理は、ステップS24に進む。
【0079】
ステップS24において、代表ベクトル計算部84は、代表ベクトル決定処理を実行する。ステップS25において、代表ベクトル演算部84は、計算により求めた代表ベクトルを、代表ベクトルメモリ54に記憶させる。
【0080】
ここで、図15のフローチャートを参照して、代表ベクトル決定処理について説明する。尚、以下においては、代表ベクトルを2個設定する場合について説明するが、それ以上の場合も同様である。
【0081】
ステップS41において、代表ベクトル計算部84は、内蔵するベクトル空間データ保持部83に記憶されたベクトルをカウントする内蔵されたカウンタnを0に初期化する。尚、以下の説明においては、ベクトル空間データ保持部83に記憶されたベクトル数をN個とする。
【0082】
ステップS42において、代表ベクトル計算部84は、仮の代表ベクトルrv21,22をベクトル空間上に設定する。尚、ステップS42において、設定される仮の代表ベクトルrv21,22は、初期値に設定される。
【0083】
ステップS43において、代表ベクトル計算部84は、図16で示すように、ベクトル空間データ保持部83に記憶されているベクトルvn(ベクトル空間データ保持部83に記憶されているベクトルv0乃至vN)と、仮の代表ベクトルrv21,22とのそれぞれの距離d1,d2を求める。
【0084】
ステップS44において、代表ベクトル計算部84は、距離d1が距離d2よりも小さいか否かを判定し、例えば、距離d1が距離d2よりも小さいと判定した場合、すなわち、ベクトルvnが、仮の代表ベクトルrv21に近いものと判定した場合、その処理は、ステップS45に進む。ステップS45において、代表ベクトル判定部84は、図17で示すように、ベクトルvnを代表ベクトルrv21の集合S1に属するベクトルとしてカウントする。
【0085】
また、ステップS44において、距離d1が距離d2よりも小さくない、すなわち、距離d1が距離d2以上であった場合(ベクトルvnが、仮の代表ベクトルrv22に近いものと判定された場合)、ステップS46において、代表ベクトル計算部84は、図17で示すように、ベクトルvnを代表ベクトルrv22の集合S2に属するベクトルとしてカウントする。
【0086】
ステップS47において、代表ベクトル計算部84は、カウンタnを1だけインクリメントする。ステップS48において、カウンタnがN+1以上であるか否か、すなわち、ベクトル空間データ保持部83に記憶された全てのベクトルが集合S1,S2のいずれかに設定されたか否かが判定される。
【0087】
例えば、ステップS48において、カウンタnがN+1以上ではないと判定された場合、集合S1,S2の何れかに設定されていないベクトルvnが存在することになるので、その処理は、ステップS43に戻る。すなわち、全てのベクトルが集合S1,S2のいずれかに設定されるまで、ステップS43乃至S48の処理が繰り返される。
【0088】
ステップS48において、カウンタnがN+1以上であると判定された場合、ステップS49において、代表ベクトル計算部84は、図17で示すように、集合S1,S2のそれぞれの分布の重心位置であるベクトルrv21',22'を求める。
【0089】
ステップS50において、代表ベクトル計算部84は、集合S1,S2の重心位置であるベクトルrv21',22'と、それぞれの仮の代表ベクトルrv21,22との距離を求め、所定の値以下であるか否かを判定し、所定値以下ではないと判定された場合、その処理は、ステップS51に進む。ステップS51において、代表ベクトル決定部84は、重心位置rv21',22'を仮の代表ベクトルrv21,22に置き換え、さらに、ベクトル空間データ保持部83を初期化して(記憶されたベクトルの情報を消去して)、その処理は、ステップS43に戻る。
【0090】
ステップS50において、集合S1,S2の重心位置であるベクトルrv21',22'と、それぞれの仮の代表ベクトルrv21,22との距離が、所定の値以下であると判定された場合、ステップS52において、集合S1,S2の重心位置であるベクトルrv21',22'が、代表ベクトルとして設定され、その処理は、終了する。
【0091】
すなわち、仮の代表ベクトルと、求められたベクトルの集合のそれぞれの重心位置との差が所定値以下に収束するまで、仮の代表ベクトルと各ベクトルとの距離を求めて、それぞれの所属集合を設定する処理を繰り返す。この処理により、代表ベクトルと、各画素のベクトルの距離の分散が最も小さい状態の代表ベクトルが設定される。
【0092】
尚、以上の処理においては、クラスタップが2個であり、かつ、代表ベクトルの個数が2個である場合について説明してきたが、クラスタップはm(m>2)個であってもよく、この場合、m次元のベクトルが設定されることになる。また、代表ベクトルの個数は、クラス数であるので、適当なクラス数を設定し、対応する数の代表ベクトルを設定するようにしても良い。
【0093】
以上の処理により、図18で示すように、入力されたコンポジット信号の分布に対応した代表ベクトルが設定されることになる。尚、図18の例においては、代表ベクトルは11個である。クラス分類適応処理回路35におけるクラスコードの決定処理は、着目画素毎のクラスタップから形成されるベクトルを形成し、最も近い代表ベクトルの画素に置き換えて行う処理となるが、各代表ベクトルは、全画素のベクトルからの距離の分散が最も小さい位置に設定されることになるので、各画素を代表ベクトルに置き換えても、ベクトル空間上で差分は最小となるので、効率の良いクラスコードの決定を行うことができる。また、着目画素の位相とは無関係に4位相全ての画素を考慮したクラスタップにより決定される代表ベクトルを用いて、クラスコードを決定することにより、コンポジット信号からコンポーネント信号への変換時に生じる画質劣化を抑制することが可能となる。
【0094】
次に、図19を参照して、係数メモリ57に記憶されている予測係数を決定するための学習装置(予測係数演算装置)について説明する。
【0095】
NTSCエンコーダ101には、教師画像としての輝度信号Y、色差信号R−Y,B−Yからなるコンポーネント信号が入力される。NTSCエンコーダ101は、入力されたコンポーネント信号から生徒画像としてのNTSC方式のコンポジット映像信号を生成し、クラスタップ抽出部102、および、予測タップ抽出部107に出力する。
【0096】
クラスタップ抽出部102は、入力されたデジタル信号に変換されているコンポジット映像信号から、クラス分類を行うために必要な画素(クラスタップ)を抽出し、ベクトル生成部103に出力する。ベクトル生成部103は、入力されたクラスタップからベクトルを生成する。より詳細には、ベクトル生成部103は、クラスタップとして入力されてくる各画素の画素値をベクトルの要素としてベクトルを生成しクラスコード決定部104に出力する。
【0097】
クラスコード決定部104は、代表ベクトルメモリ105に記録された代表ベクトルのうち、ベクトル生成部103より入力されたベクトルに最も近い代表ベクトルを検索し、検索された代表ベクトルに対応するクラスコードを決定して、正規方程式生成部106に出力する。代表ベクトルメモリ105は、入力されるベクトルに対応する次数の代表ベクトルが、上述の処理によりクラスに対応する数だけ記憶されている。
【0098】
予測タップ抽出部107は、NTSCエンコーダ101より入力されたコンポジット映像信号から予測タップを抽出し、正規方程式生成部106に出力する。以上のクラスタップ抽出部102、ベクトル生成部103、クラスコード決定部104、代表ベクトルメモリ105、および、予測タップ抽出部107は、図8のクラス分類適応処理回路35のクラスタップ抽出部51、ベクトル生成部52、クラスコード決定部53、代表ベクトルメモリ54、および、予測タップ抽出部55と、基本的に同様の構成と機能を有するものである。
【0099】
正規方程式生成部106は、クラスコード決定部104より入力された全てのクラスに対して、クラス毎に、予測タップ抽出部107より入力される生徒画像の予測タップと、教師画像としてのコンポーネント信号の輝度信号Yとから正規方程式を生成し、係数決定部108に出力する。係数決定部108は、必要な数の正規方程式が正規方程式生成部106より供給されてきたとき、例えば最小自乗法を用いて正規方程式を解き、上述の予測係数w1,・・・・,wnを演算し、決定する。
【0100】
ここで、正規方程式について説明する。上述の式(1)において、学習前は予測係数w1,・・・・,wnが未定係数である。学習は、クラス毎に複数の教師画像を入力することによって行う。教師画像の種類数をmと表記する場合、式(1)から、以下の式(2)が設定される。
【0101】
yk=w1×xk1+w2×xk2+・・・・+wn×xkn・・・(2)
【0102】
ここで、kは、k=1,2,・・・・,mである。m>nの場合、予測係数w1,・・・・,wnは一意に決まらない。そこで、誤差ベクトルeの要素ekを以下の式(3)で定義して、式(4)によって定義される誤差ベクトルeが最小となるように予測係数が定められるようにする。すなわち、例えば、いわゆる最小自乗法によって予測係数が一意に決定される。
【0103】
ek=yk−{w1×xk1+w2×xk2+・・・・+wn×xkn}・・・(3)
【0104】
【数1】

Figure 0003777600
【0105】
式(4)のe^2(eの2乗)を最小とする各予測係数wiは、e^2を予測係数wi(i=1,2・・・・)で偏微分した式(5)に変形し、iの各値について偏微分値が0となるものとして計算される。
【0106】
【数2】
Figure 0003777600
【0107】
式(5)から各予測係数wiを定める具体的な手順について説明する。式(6),式(7)のようにXji,Yiを定義するとき、式(5)は、式(8)の行列式の形に変形される。
【0108】
【数3】
Figure 0003777600
【0109】
【数4】
Figure 0003777600
【0110】
【数5】
Figure 0003777600
【0111】
この式(8)が、一般に正規方程式と呼ばれるものである。ここで、Xji(j,i=1,2・・・・n),およびYi (i=1,2・・・・n)は、教師画像、および、生徒画像に基づいて計算される。すなわち、正規方程式生成部106は、XjiおよびYiの値を算出して正規方程式からなる式(8)を決定する。さらに、係数決定部108は、式(8)を解いて各予測係数wiを決定する。
【0112】
次に、図20のフローチャートを参照して、図19の学習装置が予測係数を学習する処理について説明する。
【0113】
ステップS71において、教師画像としてのコンポーネント信号がNTSCエンコーダ101、および、正規方程式生成部106に入力される。ステップS72において、NTSCエンコーダ101は、入力されたコンポーネント信号よりNTSC方式のコンポジット信号からなる生徒画像を生成してクラスタップ抽出部102、および、予測タップ抽出部107に出力する。
【0114】
ステップS73において、クラスタップ抽出部102は、クラスタップを抽出してベクトル生成部103に出力する。尚、この処理は、図10のフローチャートのステップS4の処理と同じものである。
【0115】
ステップS74において、ベクトル生成部52は、クラスタップ抽出部102により抽出されたクラスタップの画素値を読出し、これらの値からなるベクトルを生成して(ベクトル量子化して)、クラスコード決定部104に出力する。尚、この処理は、図10のフローチャートのステップS5の処理と同じものである。
【0116】
ステップS75において、クラスコード決定部104は、入力されたベクトルと、予め代表ベクトルメモリ105に記憶された代表ベクトル群と比較し、最も近い代表ベクトルを決定し、対応するクラス(インデックス)コードを予測演算部106に出力する。
【0117】
ステップS76において、予測タップ抽出部55は、生徒画像の予測タップを抽出して正規方程式生成部106に出力する。
【0118】
ステップS77において、正規方程式生成部106は、クラスコード決定部104より入力されたクラスコード、予測タップ抽出部107より入力された予測タップ、および、教師画像として入力されたコンポーネント信号から上述の式(8)で示した正規方程式を生成し、クラスコード決定部104より入力されたクラスコードと共に係数決定部108に出力する。
【0119】
ステップS78において、係数決定部108は、上述の式(8)からなる正規方程式を解いて、予測係数を決定し、クラスコードに対応付けて出力し、係数メモリ57に記憶させる。
【0120】
ステップS79において、全ての画素について処理が施されたか否かが判定され、全ての画素について処理が施されていないと判定された場合、その処理は、ステップS73に戻る。すなわち、全ての画素の処理が終了されるまで、ステップS73乃至S79の処理が繰り返される。ステップS79において、全ての画素について処理が施されたと判定された場合、その処理は、終了する。
【0121】
以上の処理により、着目画素とその周辺の位相に制限されないクラスタップがベクトル量子化されたベクトルを使用して、クラスを決定することにより適正なクラス分類がなされ、予測係数が演算されるので、コンポジット信号からコンポーネント信号の変換処理により生じる画質劣化を抑制できる予測係数を求めることが可能となる。また、上述においては、輝度信号Yを求める予測係数を設定する例について説明してきたが、色差信号R−Y,B−Yについても同様にして求めることができる。
【0122】
次に、図21乃至図28を参照して、従来の画像変換装置と本発明を適用したテレビジョン受像機とのコンポジット信号からコンポーネント信号への変換時のSNR(Signal to Noise:入力されたコンポジット信号に対応する真のコンポーネント信号と、変換されたコンポーネント信号との比率)の比較結果について説明する。
【0123】
図21,図22においては、図中、横方向はフレーム数を示し、縦方向はSNR(dB)であり、本発明を適応したテレビジョン受像機のSNRが実線で、従来の画像変換装置のSNRが点線でそれぞれ示されている。また、本発明を適応したテレビジョン受像機においては、図23で示すように、着目画素がフィールド#0上に存在し、クラスタップが着目画素を中心とした水平方向の5画素、着目画素の上下の画素を中心とした水平方向の5画素からなる計15タップ(クラス数=32)で、かつ、予測タップは図4で示した12タップを使用した場合であり、また、従来の画像変換装置においては、着目画素がフィールド#0上に存在するとき、クラスタップは、着目画素が、図3で示した5画素(クラス数=31)で、かつ、予測タップが図4で示した12タップの場合を示している。
【0124】
さらに、図21では、静止画像領域を多く含む画像(704画素×484画素,60フレーム,Y+Q)の、図22においては、動画像領域を多く含む画像(704画素×484画素,60フレーム,Y+Q)の、それぞれの輝度信号Yについての結果である。
【0125】
図21において、従来の画像変換装置の場合、SNRは37.5dB付近であるのに対して、本発明を適用したテレビジョン受像機の場合、SNRは38dB付近であり、本発明を適用することにより、約0.5dB程のSNRが改善されていることが示されている。
【0126】
また、図22については、従来の画像変換装置の場合と本発明を適用したテレビジョン受像機の場合とでは、全体として1乃至3dB程度本発明を適用した場合の方が、従来の場合のSNRより改善されていることが示されている。
【0127】
また、図24,図25においても、図21,図22同様に、図中、横方向はフレーム数を示し、縦方向はSNRであり、本発明を適応したテレビジョン受像機のSNRが実線で、また、従来の画像変換装置のSNRが点線で示されている。このとき、従来の画像変換装置において、クラスタップは、図26で示されているように、図3で示したクラスタップに、2フィールド前のフィールド#−2上の着目画素と同位相の4画素を加えた合計9タップ(クラス数=511)を使用し、予測タップは、図27で示すように、図4で示した12タップに、その直前のフィールド#−1上の着目画素位置の上下に存在する画素を中心とした左右の画素からなる6画素と、さらに、その前のフィールド#−2上の着目画素位置の画素とその左右の画素、並びに、着目画素の上下の位置に存在する画素と、その左右の画素からなる9画素を加えた合計27タップ(オフセットタップを含む)を使用している。
【0128】
さらに、本発明を適応したテレビジョン受像機においては、クラスタップは、図28で示すように、図23で示したクラスタップに、直前のフィールド#−1上の着目画素位置の上下の画素とその左右の画素からなる6画素と、さらに、その前のフィールド#−2の着目画素とその左右の画素、並びに、着目画素の上下の画素と、それぞれの左右の画素の9画素を加えた合計30タップ(クラス数=512)とし、予測タップは、従来の画像変換装置と同様のものを使用した(図27)。
【0129】
また、図24は、静止画像領域を多く含む画像(704画素×484画素,60フレーム,Y+Q)の、図25は、動画像領域を多く含む画像(704画素×484画素,60フレーム,Y+Q)の、それぞれの輝度信号Yについての結果である。
【0130】
図24においては、従来の画像変換装置のSNRについては、43dB付近であるのに対して、本発明を適用したテレビジョン受像機のSNRは43.5dB付近であり、従来の画像変換装置に比べて、約0.5dB程度のSNRが向上されている。また、図25においては、全体として0.5dB程度のSNRの向上が見られる。
【0131】
尚、図示しないが、色差信号、および、その他位相の信号についても図21,図22,図24,図25と同様の改善がなされることが確認されている。
【0132】
図21乃至図28を参照して説明したように、クラスタップ数や、静止画像領域の多い画像であるか、または、動画像領域の多い画像であるかに関わらず、代表ベクトルを用いたクラス分類適応処理は、コンポジット信号からコンポーネント信号への変換時のSNRを効果的に改善されており、結果として、画質劣化が抑制されていることが示されている。
【0133】
また、上述のベクトルは、各要素を正規化したものであってもよい。すなわち、例えば、(X100,X101,X102・・・X200)といったようなベクトルが存在する場合、これらの各要素の最大値Max(X100,X101,X102・・・X200)を求めて、各要素を除することにより、(X100/Max(X100,X101,X102・・・X200),X101/Max(X100,X101,X102・・・X200),X102/Max(X100,X101,X102・・・X200),・・・X200/Max(X100,X101,X102・・・X200))といったように正規化して表現するようにしても良い。
【0134】
このように正規化したベクトルを使用した場合、図9で示したインデックスは、図29で示すように表現されることになる。
【0135】
尚、以上の例においては、コンポジット映像信号からコンポーネント映像信号(Y,Cr,Cb)を生成するようにしたが、例えば、図30で示すように、クラス分類適応処理回路121により、VIF回路33の出力するコンポジット映像信号から、原色RGB信号を直接生成するようにすることもできる。この場合においても、クラス分類適応処理回路121の構成は、クラス分類適応処理回路35と同様であるが、係数メモリ57に記憶される予測係数を決定する学習処理における生徒画像は、コンポジット信号であるが、教師画像は、原色RGB信号となり、決定される予測係数も原色RGB信号に対応したものとなる。ただし、代表ベクトルメモリ54に記憶された代表ベクトルはそのままでよい。
【0136】
さらに、以上においては、NTSC方式のコンポジット信号を用いた例について説明してきたが、例えば、PAL(Phase Alternating Line)方式のコンポジット信号からコンポーネント信号や原色RGB信号に変換する場合においても、同様の構成で実現させることができる。
【0137】
以上によれば、代表ベクトルによりクラスコードを決定するようにしたので、コンポジット信号の全ての位相についての相対的な関係を考慮した適正な着目画素のクラス分類を行うことができ、コンポジット信号からコンポーネント信号への変換時に生じる画質劣化を抑制させることが可能となる。
【0138】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行させることが可能な、例えば汎用のパーソナルコンピュータなどに記録媒体からインストールされる。
【0139】
図31は、テレビジョン受像機、代表ベクトル設定装置、または、学習装置をそれぞれソフトウェアにより実現する場合のパーソナルコンピュータの一実施の形態の構成を示している。パーソナルコンピュータのCPU201は、パーソナルコンピュータの動作の全体を制御する。また、CPU201は、バス204および入出力インタフェース205を介してユーザからキーボードやマウスなどからなる入力部206から指令が入力されると、それに対応してROM(Read Only Memory)202に格納されているプログラムを実行する。あるいはまた、CPU201は、ドライブ210に接続された磁気ディスク211、光ディスク212、光磁気ディスク213、または半導体メモリ214から読み出され、記憶部208にインストールされたプログラムを、RAM(Random Access Memory)203にロードして実行する。これにより、上述した画像処理装置の機能が、ソフトウェアにより実現されている。さらに、CPU201は、通信部209を制御して、外部と通信し、データの授受を実行する。
【0140】
プログラムが記録されている記録媒体は、図31に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク211(フレキシブルディスクを含む)、光ディスク212(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク213(MD(Mini-Disc)を含む)、もしくは半導体メモリ214などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM202や、記憶部208に含まれるハードディスクなどで構成される。
【0141】
尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。
【0142】
【発明の効果】
本発明の画像情報変換装置および方法、並びに第1のプログラムによれば、着目画素をクラスに分類するための複数の第1の画素信号を入力コンポジット信号から抽出し、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予めクラス毎に定められた代表パターンを記憶し、抽出した複数の第1の画素信号のパターンに、最も近い代表パターンを検索し、検索した代表パターンが定められているクラスを着目画素のクラスに分類し、入力コンポジット信号から着目画素を変換するための複数の第2の画素信号を抽出し、第2の画素信号と、分類したクラス毎に設定されている係数との積和演算により、着目画素の画素信号を変換するようにした。
【0144】
本発明の係数算出装置および方法、並びに第のプログラムによれば、入力された画像信号から入力コンポジット信号を生成し、着目画素をクラスに分類するための複数の第1の画素の画素信号を入力コンポジット信号から抽出し、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予めクラス毎に定められた代表パターンを記憶し、抽出した複数の第1の画素信号のパターンに、最も近い代表パターンを検索し、検索した代表パターンが定められている前記クラスを着目画素のクラスに分類し、入力コンポジット信号から複数の第2の画素信号を抽出し、第2の画素信号と入力された画像信号とを用いた正規方程式より、分類したクラス毎に係数を算出するようにした。
【0145】
本発明の代表パターン設定装置および方法、並びに第のプログラムによれば、入力コンポジット信号の各画素をクラスに分類するための複数の画素信号を抽出し、複数の画素信号をベクトル量子化し、ベクトル量子化した複数の画素信号から、ベクトル空間上での代表ベクトルをクラス数に応じて計算し、計算した代表ベクトルを代表パターンとしてクラスに対応付けて設定するようにした。
【0146】
結果として、いずれにおいても、コンポジット信号の全ての位相についての相対的な関係を考慮した適正な着目画素のクラス分類を行うことができ、コンポジット信号からコンポーネント信号への変換時に生じる画質劣化を抑制させることが可能となる。
【図面の簡単な説明】
【図1】従来の画像変換装置の構成例を示すブロック図である。
【図2】 NTSCコンポジット信号を説明する図である。
【図3】クラスタップを説明する図である。
【図4】予測タップを説明する図である。
【図5】従来の学習装置の構成例を示すブロック図である。
【図6】本発明を適用したテレビジョン受像機の一実施の形態の構成を示すブロック図である。
【図7】図6のクラス分類適応処理回路を説明する図である。
【図8】図6のクラス分類適応処理回路の構成を説明するブロック図である。
【図9】図8の代表ベクトルメモリに記憶される代表ベクトルを説明する図である。
【図10】図6のテレビジョン受像機の表示処理を説明するフローチャートである。
【図11】代表ベクトルを選択する処理を説明する図である。
【図12】代表ベクトル設定装置と学習装置を説明する図である。
【図13】代表ベクトル設定装置の構成を説明するブロック図である。
【図14】図13の代表ベクトル設定装置の代表ベクトル設定処理を説明するフローチャートである。
【図15】図13の代表ベクトル計算部による代表ベクトル決定処理を説明するフローチャートである。
【図16】代表ベクトルの計算方法を説明する図である。
【図17】代表ベクトルの計算方法を説明する図である。
【図18】代表ベクトルの計算方法を説明する図である。
【図19】学習装置を説明するブロック図である。
【図20】学習装置の学習処理を説明するフローチャートである。
【図21】従来の画像変換装置と本発明を適用したテレビジョン受像機のSNRの比較結果を示す図である。
【図22】従来の画像変換装置と本発明を適用したテレビジョン受像機のSNRの比較結果を示す図である。
【図23】図21,図22のときの本発明を適用したテレビジョン受像機のクラスタップを示す図である。
【図24】従来の画像変換装置と本発明を適用したテレビジョン受像機のSNRの比較結果を示す図である。
【図25】従来の画像変換装置と本発明を適用したテレビジョン受像機のSNRの比較結果を示す図である。
【図26】図24,図25のときの従来の画像変換装置のクラスタップを示す図である。
【図27】図24,図25のときの予測タップを示す図である。
【図28】図24,図25のときの本発明を適用したテレビジョン受像機のクラスタップを示す図である。
【図29】図9の代表ベクトルを正規化した場合の例を説明する図である。
【図30】本発明を適用したテレビジョン受像機の他の構成を示すブロック図である。
【図31】媒体を説明する図である。
【符号の説明】
35 クラス分類適応処理回路, 51 クラスタップ抽出部, 52 ベクトル生成部, 53 クラスコード決定部, 54 代表ベクトルメモリ, 55 予測タップ抽出部, 56 予測演算部, 57 係数メモリ, 61 代表ベクトル設定装置, 62 学習装置, 81 設定タップ抽出部, 82 ベクトル生成部, 83 ベクトル空間データ保持部, 84 代表ベクトル計算部, 101 NTSCエンコーダ, 102 クラスタップ抽出部, 103 ベクトル生成部, 104 クラスコード決定部, 105 代表ベクトルメモリ, 106 正規方程式生成部, 107 予測タップ抽出部, 108 係数決定部, 121 クラス分類適応処理回路[0001]
BACKGROUND OF THE INVENTION
  The present inventionImage information conversion device, coefficient calculation device,Regarding representative pixel signal setting device and method, storage device, recording medium, and program, in particular, it is possible to suppress deterioration in image quality that occurs when converting a composite signal to a component signal.Image information conversion device, coefficient calculation device,The present invention relates to a representative pixel signal setting device and method, a storage device, a recording medium, and a program.
[0002]
[Prior art]
Generally, in a television receiver, a composite signal of a video signal is converted into a component signal and displayed as a video. As video signals, NTSC (National Television Standards Committee) type composite video signals are widely used.
[0003]
Conventionally, a composite video signal is separated into a luminance signal Y and a chroma signal C, and then the chroma signal C is demodulated into a component signal composed of a baseband luminance signal Y and color difference signals RY and BY. It was converted. However, the circuit required for these processes not only has a complicated structure, but also has a large scale and a high cost. Therefore, a method using a class classification adaptive process has recently been proposed. .
[0004]
In this method using the class classification adaptive processing, in order to obtain component signals such as the luminance signal Y and the color difference signals RY and BY at the target pixel, first, they are arranged in the vicinity including the target pixel. A feature quantity of a pixel (this pixel is called a class tap) is obtained from the composite signal, and a class classified in advance for each feature quantity is specified. Then, a calculation process using a coefficient set in advance for each class in a pixel including a target pixel and a pixel composed of a composite signal in the vicinity thereof (this pixel is called a prediction tap and may be the same as a class tap). To obtain the component signal of the pixel of interest.
[0005]
FIG. 1 shows the configuration of an image conversion apparatus when the class classification adaptation process is used. The class classification unit 11 extracts a class tap corresponding to the target pixel from the input composite signal, compares the pixel value of the pixel serving as the class tap with a predetermined calculation, and compares the value with a predetermined threshold value. 1 or 0 is set by, and binarized information is generated from the number of class taps. Further, the class classification unit 11 obtains the pattern of the binarized information as the feature amount of the target pixel, determines the class of the target pixel according to the feature amount, and outputs the determined class data to the prediction unit 12. The prediction unit 12 extracts a corresponding prediction tap, and based on the class data input from the class classification unit 11, performs processing using a prediction coefficient input in advance and stored in a built-in memory to generate a component signal And output.
[0006]
Next, the operation of the image conversion apparatus will be described. The class classification unit 11 extracts class taps from the composite signal. For example, each pixel composed of a composite signal is a four-phase signal based on a combination of a luminance signal Y, an I signal, and a Q signal as shown in FIG. That is, as shown in FIG. 2A, each pixel on each field is indicated by a white circle (Y + I), a white square (Y + Q), a black circle (Y-I), and a black square ( The four phases of YQ) are sequentially arranged in the horizontal direction, and 180 phases are inverted one by one in the vertical direction. Here, in FIG. 2A, # 0 to # 3 indicate field numbers, which are arranged in time series. Also, the crosses in the figure indicate the target pixel position.
[0007]
The phase of the pixels on each field changes with time. For example, the pixels in the columns L0 to L3 including the target pixel position change periodically as shown in FIG. 2B. In other words, the phase of each pixel is inverted by 180 degrees every two fields in the vertical direction as time advances.
[0008]
When the target pixel is present on the field # 0 in the composite signal as illustrated in FIG. 2, for example, as illustrated in FIG. 3, the class classification unit 11 centered on the target pixel on the field # 0. Five pixels (including the pixel of interest) composed of four pixels having the same phase and existing at close positions are extracted as class taps.
[0009]
Further, the class classification unit 11 converts a value obtained by processing the pixel value of each pixel of this class tap by a predetermined calculation from a binarization information pattern (in this example, 5 for each class tap from the magnitude relationship with a predetermined threshold). Bit pattern) is generated, a class set in advance for each pattern is determined, and is output to the prediction unit 12 as class data.
[0010]
For example, the prediction unit 12 extracts a prediction tap as illustrated in FIG. 4, reads each pixel value of the prediction tap, performs arithmetic processing using a prediction coefficient stored in advance in a built-in memory, and performs component processing. Is generated and output. In FIG. 4, the prediction tap includes five pixels in the horizontal direction centered on the pixel of interest on field # 0, 11 pixels above and below the pixel of interest, and 11 pixels on the left and right thereof. A total of 12 taps of offset taps (offset) for correcting the deviation. The prediction unit 12 performs a calculation process using a prediction coefficient corresponding to the class data on each pixel value of the prediction tap including the 12 pixels to generate a component signal.
[0011]
A prediction coefficient is produced | generated by the learning process by a learning apparatus as shown in FIG. In this learning process, a prediction coefficient is obtained using a relationship between a component signal called a teacher image and a composite signal called a student image. In other words, this is a process of calculating a prediction coefficient by calculation from the mutual relationship between a teacher image as a target value of an output result and a student image that is an input image signal.
[0012]
The class classification unit 21 of the learning device is the same as the class classification unit 11 of the image conversion apparatus shown in FIG. 1, and a class for determining the class of the pixel of interest from the composite signal as the input student signal. A tap is extracted, and the pixel value of each pixel is compared with a value processed by a predetermined calculation with a predetermined threshold, and a pattern of binarized information is generated from the magnitude relationship in the same manner as the class classification unit 11 described above. The class of the target pixel is determined from the pattern, and class data is output to the prediction coefficient calculation unit 22. The prediction coefficient calculation unit 22 extracts a prediction tap from the composite signal, calculates a prediction coefficient from the relationship with the component signal that is a teacher image, and outputs it together with the class data.
[0013]
Next, the learning process of the learning device will be described.
[0014]
The class classification unit 21 extracts a class tap from the input composite signal as a student image, compares each pixel value of the class tap with a predetermined threshold value, and generates binarized information from the magnitude relationship. Thereafter, the class classification unit 21 determines the class of the pixel of interest from the pattern and outputs it to the prediction coefficient calculation unit 22.
[0015]
That is, for example, when the target pixel exists on the field # 0 in FIG. 2, the class classification unit 21 is the same as the target pixel shown in FIG. A total of 5 pixels of 4 pixels in phase are extracted as class taps. Further, the class classification unit 21 compares a value obtained by processing each pixel value of the extracted class tap by a predetermined calculation with a predetermined threshold value, and generates a pattern of binarized information from the magnitude relationship. The class classification unit 21 determines the class of the pixel of interest based on the pattern and outputs it to the prediction coefficient calculation unit 22.
[0016]
The prediction coefficient calculation unit 22 extracts a prediction tap corresponding to the target pixel from the composite signal that is a student image, and calculates and outputs a prediction coefficient from the relationship with the component signal as the teacher image. For example, as shown in FIG. 4, the prediction tap is composed of 5 pixels in the horizontal direction centering on the pixel of interest on the field # 0, pixels above and below the pixel of interest, and a total of 11 pixels on each of the left and right pixels. In addition, there are 12 offset taps.
[0017]
In this manner, the prediction coefficient calculated in advance by the learning process of the learning device is stored in the prediction unit 11 of the image conversion device. Thereafter, the image conversion apparatus converts the composite signal into a component signal using the input prediction coefficient.
[0018]
[Problems to be solved by the invention]
However, in the class tap selection method as described above, the feature amount of the pixel of interest can be obtained only with pixel values in the same phase, and the feature amount including pixels in different surrounding phases is obtained and the corresponding class is obtained. Cannot be set. That is, as shown in FIG. 2, each pixel has a different phase according to time and according to a position in the horizontal and vertical directions, so that pixel values between different phases cannot be compared and are different. The class determination process for the pixel of interest cannot be performed in consideration of the relationship between pixels having a phase. For this reason, the class of the pixel of interest may not be properly determined. As a result, image conversion processing by proper class classification processing cannot be performed, and there is a problem that image quality after conversion may be deteriorated. .
[0019]
The present invention has been made in view of such a situation, and has a simple and small circuit configuration, and further, class classification that appropriately reflects the relationship between the pixel of interest and its surrounding pixels. By doing so, it is possible to suppress deterioration in image quality that occurs during conversion from a composite signal to a component signal, particularly image quality deterioration that occurs when the class classification is not appropriate.
[0020]
[Means for Solving the Problems]
  The image information conversion apparatus according to the present invention includes a pixel of interest.To classifyFirst extraction means for extracting a plurality of first pixel signals from the input composite signal;Vector quantization of the pattern of multiple pixel signals for classifying each pixel of the input composite signal into a class, and using that in the vector spacePre-statistical learningPer classRepresentative pattern storage means for storing a predetermined representative pattern, representative pattern search means for searching for a representative pattern closest to the plurality of first pixel signal patterns extracted by the first extraction means, and representative pattern search Representative pattern retrieved by meansThe class where,Classify into the pixel class of interestFrom class classification means and input composite signalFor converting the pixel of interestA second extraction means for extracting a plurality of second pixel signals, a second pixel signal, and a class classified by the class classification means;Set for eachWith coefficientSum of productsAnd pixel-of-interest signal conversion means for converting a pixel signal of the pixel of interest by calculation.
[0021]
  Vector quantization means for vector quantization of the plurality of first pixel signals may be further provided, and the representative pattern storage means may include a composite signal.Classify the pixel of interest into a classOf the plurality of first pixel signals, a representative vector corresponding to a representative pattern composed of a plurality of representative first pixel signals can be stored.
[0022]
  The representative pattern search means includes a vector representative of the closest representative vector in the vector space and a vector quantized version of the plurality of first pixel signals extracted by the first extraction means.AsThe representative pattern can be searched as the closest representative pattern to the patterns of the plurality of first pixel signals extracted by the first extracting means.
[0023]
  The pixel-of-interest signal conversion means includes a second pixel signal and a class classified by the class classification means.Is setWith coefficientSum of productsBy calculation, the pixel signal of the pixel of interest can be converted into a component signal.
[0024]
  The pixel-of-interest signal conversion means includes a second pixel signal and a class classified by the class classification means.Is setWith coefficientSum of productsBy calculation, the pixel signal of the pixel of interest can be converted into a luminance signal or a chroma signal.
Display means for displaying the pixel signal of the pixel of interest converted into the component signal can be further provided.
[0025]
  The image information conversion method of the present invention includes a pixel of interestTo classifyA first extraction step of extracting a plurality of first pixel signals from the input composite signal;Vector quantization of the pattern of multiple pixel signals for classifying each pixel of the input composite signal into a class, and using that in the vector spacePre-statistical learningPer classA representative pattern storing step for storing a predetermined representative pattern, a representative pattern searching step for searching for a representative pattern closest to the plurality of first pixel signal patterns extracted in the processing of the first extracting step, and a representative Representative pattern searched by pattern search step processingSaid class is defined,Classify into the pixel class of interestFrom classification step and composite signalFor converting the pixel of interestThe pixel signal of the pixel of interest is converted by calculating a second extraction step for extracting a plurality of second pixel signals, the second pixel signal, and a coefficient corresponding to the class classified in the class classification step processing. And a target pixel signal conversion step.
[0026]
  The program of the first recording medium of the present invention is a pixel of interest.To classifyA first extraction control step for controlling extraction of a plurality of first pixel signals from an input composite signal;Vector quantization of the pattern of multiple pixel signals for classifying each pixel of the input composite signal into a class, and using that in the vector spacePre-statistical learningPer classControls the search of the representative pattern closest to the pattern of the plurality of first pixel signals whose extraction is controlled by the processing of the representative pattern storage control step for controlling the storage of the defined representative pattern and the first extraction control step. Representative pattern search control step to be performed and the representative pattern searched by the processing of the representative pattern search control stepSaid class is defined,Classification as pixel class of interestFrom the classification control step to control the input composite signalFor converting the pixel of interestA second extraction control step for controlling extraction of a plurality of second pixel signals, a second pixel signal, and a class whose classification is controlled by the processing of the class classification control stepSet for eachWith coefficientSum of productsAnd a pixel-of-interest signal conversion control step for controlling the conversion of the pixel signal of the pixel of interest by calculation.
[0027]
  The first program of the present invention is the pixel of interestTo classifyA first extraction control step for controlling extraction of a plurality of first pixel signals from an input composite signal;Vector quantization of the pattern of multiple pixel signals for classifying each pixel of the input composite signal into a class, and using that in the vector spaceThrough statistical learningFor each class in advanceControls the search of the representative pattern closest to the pattern of the plurality of first pixel signals whose extraction is controlled by the processing of the representative pattern storage control step for controlling the storage of the defined representative pattern and the first extraction control step. Representative pattern search control step to be performed and the representative pattern searched by the processing of the representative pattern search control stepSaid class is defined,Classification as pixel class of interestFrom the classification control step to control the input composite signalFor converting the pixel of interestA second extraction control step for controlling the extraction of a plurality of second pixel signals, a second pixel signal, and a class whose classification is controlled by the processing of the class classification control stepSet for eachWith coefficientSum of productsIt is characterized by causing a computer to execute a target pixel signal conversion control step for controlling conversion of a pixel signal of a target pixel by calculation.
[0032]
  A coefficient calculation apparatus according to the present invention includes a composite signal generation unit that generates an input composite signal from an input image signal,To classifyFirst extraction means for extracting pixel signals of a plurality of first pixels from an input composite signal;Vector quantization of the pattern of multiple pixel signals for classifying each pixel of the input composite signal into a class, and using that in the vector spacePre-statistical learningPer classRepresentative pattern storage means for storing a predetermined representative pattern, representative pattern search means for searching for a representative pattern closest to the plurality of first pixel signal patterns extracted by the first extraction means, and representative pattern search Representative pattern retrieved by meansSaid class is defined,Classify into the pixel class of interestFrom class classification means and input composite signalFor converting the pixel of interestA second extraction means for extracting a plurality of second pixel signals; and a second pixel signal and an input image signalFrom the normal equation using and, Classes classified by class classification meansEveryAnd a calculating means for calculating a coefficient.
[0033]
The storage device of the present invention stores the coefficient calculated by the coefficient calculation device according to claim 13.
[0034]
  The coefficient calculation method of the present invention includes a composite signal generation step of generating an input composite signal from an input image signal, and a pixel of interestTo classifyA first extraction step of extracting pixel signals of a plurality of first pixels from an input composite signal;Vector quantization of the pattern of multiple pixel signals for classifying each pixel of the input composite signal into a class, and using that in the vector spaceA representative pattern storage step for storing a representative pattern predetermined by statistical learning, and a representative pattern for searching for a representative pattern closest to the patterns of the plurality of first pixel signals extracted in the processing of the first extraction step Representative pixel signal searched by processing of search step and representative pattern search stepThe class where,Classify into the pixel class of interestFrom the classification step and the input composite signalFor converting the pixel of interestA second extraction step for extracting a plurality of second pixel signals; and a second pixel signal and an input image signalFrom the normal equation using andCategorized in the classification step processEveryAnd a calculating step for calculating a coefficient.
[0035]
  First of the present invention2The recording medium program includes a composite signal generation control step for controlling generation of an input composite signal from an input image signal, and a target pixel.To classifyA first extraction control step for controlling extraction of a pixel signal from an input composite signal of a plurality of first pixels;Vector quantization of the pattern of multiple pixel signals for classifying each pixel of the input composite signal into a class, and using that in the vector spacePre-statistical learningPer classControls the search of the representative pattern closest to the pattern of the plurality of first pixel signals whose extraction is controlled by the processing of the representative pattern storage control step for controlling the storage of the defined representative pattern and the first extraction control step. Representative pattern search control step to be performed and the representative pattern searched by the processing of the representative pattern search control stepThe class where,Classification as pixel class of interestFrom the classification control step to control the input composite signalFor converting the pixel of interestA second extraction control step for controlling the extraction of the plurality of second pixel signals; and the second pixel signal and the input image signalFrom the normal equation using andThe class whose classification is controlled by the processing of the class classification control stepEveryAnd a calculation control step for controlling calculation of the coefficient.
[0036]
  First of the present invention2The program includes a composite signal generation control step for controlling generation of an input composite signal from an input image signal, and a target pixel.To classifyA first extraction control step for controlling extraction of pixel signals of a plurality of first pixels from an input composite signal;Vector quantization of the pattern of multiple pixel signals for classifying each pixel of the input composite signal into a class, and using that in the vector spacePre-statistical learningPer classControls the search of the representative pattern closest to the pattern of the plurality of first pixel signals whose extraction is controlled by the processing of the representative pattern storage control step for controlling the storage of the defined representative pattern and the first extraction control step. Representative pattern search control step to be performed and the representative pattern searched by the processing of the representative pattern search control stepSaid class is defined,Classification as pixel class of interestClassification control step for controlling the second, second extraction control step for controlling the extraction of a plurality of second pixel signals from the input composite signal, and the image signal inputted with the second pixel signalFrom the normal equation using andThe class whose classification is controlled by the processing of the class classification control stepEveryA calculation control step for controlling calculation of a predetermined coefficient is caused to be executed by a computer.
[0037]
  The representative pattern setting device of the present invention provides each pixel of the input composite signal.To classifyExtraction means for extracting a plurality of pixel signals, vector quantization means for vector quantization of the plurality of pixel signals, and representative vectors in the vector space from the plurality of pixel signals vector quantized by the vector quantization means It is characterized by comprising calculation means for calculating according to the number of classes, and setting means for setting the representative vector calculated by the calculation means in association with the class as a representative pattern.
[0038]
The calculation means can be made to calculate a representative vector in the vector space according to the number of classes from a plurality of pixel signals vector quantized by the vector quantization means by the LBG algorithm.
[0039]
  The representative pattern setting method of the present invention provides each pixel of the input composite signal.To classifyA representative in vector space from an extraction step for extracting a plurality of pixel signals, a vector quantization step for vector quantization of the plurality of pixel signals, and a plurality of pixel signals vector quantized by the processing of the vector quantization step. It includes a calculation step for calculating a vector according to the number of classes, and a setting step for setting the representative vector calculated in the processing of the calculation step in association with a class as a representative pattern.
[0040]
  First of the present invention3The recording medium program for each pixel of the input composite signalTo classifyAn extraction control step for controlling extraction of a plurality of pixel signals, a vector quantization control step for controlling vector quantization of the plurality of pixel signals, and a plurality of pixels in which vector quantization is controlled by processing of the vector quantization control step From the signal, a calculation control step for controlling calculation according to the number of classes of the representative vector in the vector space, and a setting associated with the class as the representative pattern of the representative vector calculated in the processing of the calculation control step are controlled. And a setting control step.
[0041]
  First of the present invention3The program of each pixel of the input composite signalTo classifyAn extraction control step for controlling extraction of a plurality of pixel signals, a vector quantization control step for controlling vector quantization of the plurality of pixel signals, and a plurality of pixels in which vector quantization is controlled by processing of the vector quantization control step From the signal, a calculation control step for controlling calculation according to the number of classes of the representative vector in the vector space, and a setting associated with the class as the representative pattern of the representative vector calculated in the processing of the calculation control step are controlled. The setting control step is executed by a computer.
[0042]
  In the image information conversion apparatus and method and the first program of the present invention, the pixel of interestTo classifyA plurality of first pixel signals are extracted from the input composite signal;Vector quantization of the pattern of multiple pixel signals for classifying each pixel of the input composite signal into a class, and using that in the vector spacePre-statistical learningPer classA predetermined representative pattern is stored, and the closest representative pattern to the extracted plurality of first pixel signal patterns is searched, and the searched representative patternThe class for which,Classified into the pixel class of interestFrom the input composite signalFor converting the pixel of interestA plurality of second pixel signals are extracted, the second pixel signals, and the classified classesSet for eachWith coefficientSum of productsThe pixel signal of the pixel of interest is converted by the calculation.
[0044]
  Coefficient calculation apparatus and method of the present invention, and2In this program, the input composite signal is generated from the input image signal, and the pixel of interestTo classifyPixel signals of a plurality of first pixels are extracted from the input composite signal;Vector quantization of the pattern of multiple pixel signals for classifying each pixel of the input composite signal into a class, and using that in the vector spacePre-statistical learningPer classA predetermined representative pattern is stored, and the closest representative pattern to the extracted plurality of first pixel signal patterns is searched, and the searched representative patternThe class for which,Classify into pixel class of interestA plurality of second pixel signals are extracted from the input composite signal, and the second pixel signal and the input image signalFrom the normal equation using and, Classified classesEveryA coefficient is calculated.
[0045]
  Representative pattern setting apparatus and method of the present invention, and3In this program, each pixel of the input composite signalTo classifyA plurality of pixel signals are extracted, the plurality of pixel signals are vector-quantized, a representative vector in the vector space is calculated according to the number of classes from the plurality of vector-quantized pixel signals, and the calculated representative vector Are set in association with the class as a representative pattern.
[0046]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 6 is a block diagram showing a configuration of an embodiment of a television receiver to which the present invention is applied.
[0047]
The tuner 32 demodulates the signal received by the antenna 31 and outputs it to the video intermediate frequency signal processing circuit (VIF circuit) 33. The VIF circuit 33 performs video intermediate frequency signal processing on the input signal and outputs the processed signal to an A / D (Analog / Digital) converter 34. The A / D converter 34 converts the NTSC composite video signal composed of the analog signal input from the VIF circuit 33 into a digital signal and outputs the digital signal to the class classification adaptive processing circuit 35. The class classification adaptive processing circuit 35 is a component composed of a luminance signal Y and color difference signals RY and BY signals from an NTSC composite video signal converted into a digital signal input from the A / D converter 34. The signal is directly generated by the classification adaptation process using the prediction coefficient.
[0048]
A prediction coefficient for predicting and generating a component signal from a composite video signal is generated by learning using a component signal as a teacher image and an NTSC composite video signal generated by NTSC modulation of the component signal as a student image. Then, a component signal is generated by performing mapping (prediction calculation processing) using the prediction coefficient. The matrix circuit 36 generates primary color RGB signals from the input luminance signal Y and the color difference signals RY and BY, and outputs the primary color RGB signals to the display device 37.
[0049]
More specifically, as shown in FIG. 7, the class classification adaptive processing circuit 35 vector-quantizes the pixel value of the class tap around the pixel of interest from the input NTSC composite signal, and any one of the representative vector groups generated in advance. Is selected from a representative vector group input in advance, and a prediction coefficient corresponding to a class of the pixel of interest set in advance is selected from the prediction coefficient group stored in advance and the prediction is performed. The composite signal is converted into a component signal by multiplying the prediction tap of the composite signal by the prediction coefficient using the coefficient. In FIG. 7, dotted arrows indicate data input in advance, and solid arrows indicate data processed in real time. Further, processing for generating the representative vector group and the prediction coefficient group will be described later.
[0050]
FIG. 8 shows a configuration example of the class classification adaptive processing circuit 35. The NTSC composite video signal input from the VIF circuit 33 is supplied to the class tap extraction unit 51 and the prediction tap extraction unit 55. The class tap extraction unit 51 extracts pixels (class taps) necessary for class classification from the composite video signal converted into the input digital signal, and outputs the extracted pixel (class tap) to the vector generation unit 52. The vector generation unit 52 generates a vector from each value of the input class tap. More specifically, when the pixel value of each pixel input as a class tap is, for example, (X100, X101... X200), the vector generation unit 52 uses these values as vector elements. Is generated and output to the class code determination unit 53.
[0051]
The class code determination unit 53 searches the representative vectors recorded in the representative vector memory 54 for the representative vector closest to the vector input from the vector generation unit 52, and determines the class code corresponding to the searched representative vector. And output to the prediction calculation unit 56. The representative vector memory 54 stores the number of representative vectors of the degree corresponding to the input vector corresponding to the class. For example, when the class tap is 2 pixels and the class is 11, 11 two-dimensional representative vectors are stored as shown in FIG. In FIG. 9, as a representative vector, an index for identifying a class is shown in the left column, and a representative vector corresponding to the index is shown on the right side. X1 to X11 and Y1 to Y11 indicate elements of each vector, that is, coordinate positions in the vector space.
[0052]
The representative vector is preset by the representative vector setting unit 61 (FIG. 13), and the processing will be described later.
[0053]
The prediction tap extraction unit 55 extracts a prediction tap necessary for predicting and generating a component signal from the composite video signal input from the VIF circuit 33 and outputs the prediction tap to the prediction calculation unit 56. Here, the prediction tap is a pixel that exists in a predetermined positional relationship with the target pixel to be processed.
[0054]
The prediction calculation unit 56 reads the prediction coefficient stored in advance in the coefficient memory 57 based on the class code input from the class code determination unit 53, and the prediction tap (each pixel extracted by the prediction tap extraction unit 55). Pixel value) is subjected to arithmetic processing using a prediction coefficient, and a component signal is generated and output.
[0055]
More specifically, the prediction calculation unit 56 extracts the prediction tap extracted from the pixel value at a predetermined pixel position of the NTSC composite video signal supplied from the prediction tap extraction unit 55, and the class code read from the coefficient memory 57. The component signal is obtained (predicted and estimated) by executing the product-sum operation shown in the following equation (1) using the prediction coefficient corresponding to.
[0056]
y = w1 * x1 + w2 * x2 ++ ... + wn * xn (1)
Here, y is a pixel of interest. In addition, x1,..., Xn are prediction taps, and w1,.
[0057]
In addition, although illustration is abbreviate | omitted, the circuit for producing | generating other color difference signal RY and color difference signal BY among component signals is also comprised similarly. The configuration is the same as that shown in FIG. 8, and the coefficient stored in the coefficient memory 57 is a prediction coefficient for generating the luminance signal Y in the case shown in FIG. When the signal RY or BY is generated, a prediction coefficient for generating the color difference signal RY or BY is stored.
[0058]
Further, the prediction coefficient learning process of the coefficient memory 57 will be described later with reference to FIG.
[0059]
Next, a process in which the television receiver shown in FIG. 6 converts a composite video signal into a component signal and displays it on the display device 37 will be described with reference to a flowchart of FIG.
[0060]
In step S <b> 1, the tuner 32 receives a signal of a predetermined frequency via the antenna 31, demodulates it, and outputs it to the VIF circuit 33. In step S <b> 2, the VIF circuit 33 generates an NTSC composite signal from the input signal and outputs the composite signal to the A / D converter 34. In step S <b> 3, the A / D converter 34 converts the input composite signal from an analog signal to a digital signal and outputs it to the class classification adaptive processing circuit 35.
[0061]
In step S <b> 4, the class tap extraction unit 51 extracts class taps and outputs them to the vector generation unit 52.
[0062]
In step S5, the vector generation unit 52 reads out the pixel values of the class tap extracted by the class tap extraction unit 51, generates a vector having these values as elements (vector quantization), and class code determination unit To 53.
[0063]
In step S6, the class code determination unit 53 compares the input vector with a representative vector group stored in advance in the representative vector memory 54, determines the closest representative vector, and selects the corresponding class (index) code. It outputs to the prediction calculation part 56. That is, for example, as shown in FIG. 9, when the class tap has two pixels and 11 representative vectors are set, when a vector corresponding to the class tap is input, the input vector is the most. The closest representative vector is selected. That is, as shown in FIG. 11, when the two-dimensional representative vector of FIG. 9 is indicated by rv1 to rv11 in the vector space (the vector number corresponds to the index number), it corresponds to the target pixel. When the obtained vector is indicated by v1, the representative vector rv11 closest to the vector v1 is selected. More specifically, the class code determination unit 53 obtains the distance between each representative vector and the input vector, and selects the representative vector that is the minimum value.
[0064]
In this case, the class code determination unit 53 outputs the class code of the representative vector rv11 shown in FIG. 11, that is, 11 corresponding to the index 11 as shown in FIG. 9, to the prediction calculation unit 56 as a class code.
[0065]
In step S <b> 7, the prediction calculation unit 56 reads out, from the coefficient memory 57, the prediction coefficient determined in advance by the learning process based on the class code input from the class code determination unit 53. This prediction coefficient is stored in the memory 57 in association with the class code. In step S <b> 8, the prediction tap extraction unit 55 extracts a prediction tap from the composite signal and outputs the prediction tap to the prediction calculation unit 56.
[0066]
In step S9, the prediction calculation unit 56 calculates the prediction tap input from the prediction tap extraction unit 55 using the prediction coefficient read from the coefficient memory 57, and generates a component signal.
[0067]
In step S10, it is determined whether or not signals have been converted for all pixels. If it is determined that signals have not been converted for all pixels, the process returns to step S4. That is, the processes in steps S4 to S10 are repeated until the signals of all the pixels are converted.
[0068]
If it is determined in step S10 that the signals have been processed (converted) for all pixels, the prediction calculation unit 56 outputs the generated component signal to the matrix circuit 36 in step S11. In step S <b> 12, the matrix circuit 36 converts the component signal into an RGB signal and outputs it to the display device 37.
[0069]
In the above, an example in which the class tap is two pixels, that is, when the class tap is vector quantized has been described as being converted into a two-dimensional vector, but a larger number of class taps is set. In some cases, the dimension of the vector to be quantized is only set to a number proportional to the number of class taps. For other points, the composite signal can be converted into a component signal by the same processing as described above.
[0070]
In addition, the class tap setting that determines the feature amount of the pixel of interest has been required to correspond to the phase of the pixel of interest, but it is possible to calculate between pixels of different phases by vector quantization. Therefore, it is possible to set class taps considering all four phases, and it is possible to set a class tap optimal for the pixel of interest.
[0071]
Furthermore, in the conventional class tap setting method, the number of classes of the pixel of interest depends on the number of class taps. For example, when the number of class taps increases, the number of classes also increases. When the number of classes increases in this way, the conventional method reduces the image quality degradation that occurs during conversion, but unnecessarily improves the accuracy and increases the amount of processing, resulting in a burden on the hardware. It was necessary to consider that it would increase. On the other hand, when using representative vectors as described above, the number of representative vectors set in advance is the number of classes itself, so even if the number of classes is determined in advance, an image in which an appropriate representative vector according to the number of classes is input The image quality degradation can be effectively suppressed even with a small number of classes, and the number of classes is not increased unnecessarily, so the processing amount is not increased unnecessarily. The burden on hardware can be reduced, and the processing speed can be improved.
[0072]
Next, referring to FIG. 12, a representative vector setting device 61 that sets a representative vector stored in advance in the representative vector memory 54 and a learning device 62 that generates a prediction coefficient stored in advance in the coefficient memory 57 by learning. explain.
[0073]
The representative vector setting device 61 extracts the setting tap of the composite signal, generates a representative vector group from the pixel values, and outputs and stores the representative vector group in the representative vector memory 54 of the learning device 62 and the class classification adaptive processing circuit 35. The learning device 62 generates a prediction coefficient group based on the composite signal as the student image, the component signal as the teacher image, and the representative vector group input from the representative vector setting device 61, and the class classification adaptive processing circuit 35. Are output to the coefficient memory 57 and stored. Note that the process indicated by the dotted arrow in the figure is the process executed first, and the process indicated by the solid arrow indicates the subsequent process. Therefore, after the representative vector setting process is performed, the prediction coefficient calculation process is performed.
[0074]
Next, the configuration of the representative vector setting device 61 will be described with reference to FIG. The setting tap extraction unit 81 of the representative vector setting device 61 extracts a setting tap (substantially the same as the class tap) from the input composite signal, similarly to the class tap extraction unit 51 of FIG. The data is output to the generation unit 82. Similar to the vector generation unit 52 in FIG. 8, the vector generation unit 82 generates a vector having the pixel value of each pixel extracted as the setting tap, which is input from the setting tap extraction unit 81, as an element, and vector space data Output to the holding unit 83. The vector space data holding unit 83 stores vectors corresponding to all the target pixels of the input composite signal. The representative vector calculation unit 84 obtains a set number of representative vectors from the distribution of vectors stored in the vector space data holding unit 83 (for example, by the LGB algorithm), and stores it in the representative vector memory 54 (FIG. 8). Output and memorize.
[0075]
Next, a representative vector setting process when the representative vector setting device 61 sets a representative vector will be described with reference to the flowchart of FIG.
[0076]
In step S <b> 21, the setting tap extraction unit 81 extracts setting taps from the input composite signal and outputs them to the vector generation unit 82. In step S <b> 22, the vector generation unit 82 generates a vector from the setting tap input from the setting tap extraction unit 81 and outputs the vector to the vector space data holding unit 83. More specifically, the vector generation unit 82 generates a vector having the pixel value of each pixel of the setting tap as an element (vector quantization) and outputs the vector to the vector space data holding unit 83.
[0077]
In step S23, it is determined whether or not a vector has been generated for all the pixels of the input composite signal. If it is determined that no vector has been generated for all the pixels, the process returns to step S21. . That is, the processes in steps S21 to S23 are repeated until a vector is generated for all pixels.
[0078]
If it is determined in step S23 that vectors have been generated for all pixels, the process proceeds to step S24.
[0079]
In step S24, the representative vector calculation unit 84 executes a representative vector determination process. In step S <b> 25, the representative vector calculation unit 84 stores the representative vector obtained by calculation in the representative vector memory 54.
[0080]
Here, the representative vector determination process will be described with reference to the flowchart of FIG. In the following, a case where two representative vectors are set will be described, but the same applies to cases where more than one representative vector is set.
[0081]
In step S41, the representative vector calculation unit 84 initializes a built-in counter n that counts vectors stored in the built-in vector space data holding unit 83 to zero. In the following description, the number of vectors stored in the vector space data holding unit 83 is N.
[0082]
In step S42, the representative vector calculation unit 84 sets the temporary representative vectors rv21 and 22 on the vector space. In step S42, the set temporary representative vectors rv21 and 22 are set to initial values.
[0083]
In step S43, the representative vector calculation unit 84, as shown in FIG. 16, the vector vn (vectors v0 to vN stored in the vector space data holding unit 83) stored in the vector space data holding unit 83, The distances d1 and d2 with the temporary representative vectors rv21 and 22 are obtained.
[0084]
In step S44, the representative vector calculation unit 84 determines whether or not the distance d1 is smaller than the distance d2, for example, when it is determined that the distance d1 is smaller than the distance d2, that is, the vector vn is a temporary representative. If it is determined that the vector is close to the vector rv21, the process proceeds to step S45. In step S45, the representative vector determination unit 84 counts the vector vn as a vector belonging to the set S1 of the representative vectors rv21 as shown in FIG.
[0085]
If the distance d1 is not smaller than the distance d2 in step S44, that is, if the distance d1 is not less than the distance d2 (when it is determined that the vector vn is close to the temporary representative vector rv22), step S46 is performed. In FIG. 17, the representative vector calculation unit 84 counts the vector vn as a vector belonging to the set S2 of the representative vector rv22, as shown in FIG.
[0086]
In step S47, the representative vector calculation unit 84 increments the counter n by 1. In step S48, it is determined whether or not the counter n is equal to or greater than N + 1, that is, whether or not all the vectors stored in the vector space data holding unit 83 are set in any of the sets S1 and S2.
[0087]
For example, if it is determined in step S48 that the counter n is not equal to or greater than N + 1, there will be a vector vn that is not set in any of the sets S1 and S2, and therefore the process returns to step S43. That is, the processes in steps S43 to S48 are repeated until all the vectors are set to one of the sets S1 and S2.
[0088]
If it is determined in step S48 that the counter n is equal to or greater than N + 1, in step S49, the representative vector calculation unit 84, as shown in FIG. 17, the vector rv21 that is the center of gravity position of each distribution of the sets S1 and S2. Find ', 22'.
[0089]
In step S50, the representative vector calculation unit 84 obtains the distance between the vectors rv21 ′ and 22 ′, which are the centroid positions of the sets S1 and S2, and the temporary representative vectors rv21 and 22 and is less than a predetermined value. If it is determined that it is not less than the predetermined value, the process proceeds to step S51. In step S51, the representative vector determining unit 84 replaces the barycentric positions rv21 ′ and 22 ′ with the temporary representative vectors rv21 and 22 and further initializes the vector space data holding unit 83 (deletes stored vector information). The process returns to step S43.
[0090]
If it is determined in step S50 that the distance between the vectors rv21 ′ and 22 ′, which are the gravity center positions of the sets S1 and S2, and the temporary representative vectors rv21 and 22 are equal to or less than a predetermined value, in step S52 The vectors rv21 ′ and 22 ′, which are the centroid positions of the sets S1 and S2, are set as representative vectors, and the processing ends.
[0091]
That is, the distance between the temporary representative vector and each vector is obtained until the difference between the temporary representative vector and the center of gravity of each of the obtained vector set converges to a predetermined value or less. Repeat the setting process. By this process, the representative vector and the representative vector in the state where the variance of the vector distance of each pixel is the smallest are set.
[0092]
In the above processing, the case where there are two class taps and the number of representative vectors is two, but the number of class taps may be m (m> 2). In this case, an m-dimensional vector is set. Further, since the number of representative vectors is the number of classes, an appropriate number of classes may be set and a corresponding number of representative vectors may be set.
[0093]
With the above processing, as shown in FIG. 18, a representative vector corresponding to the distribution of the input composite signal is set. In the example of FIG. 18, there are 11 representative vectors. The class code determination process in the class classification adaptive processing circuit 35 is a process performed by forming a vector formed from the class tap for each pixel of interest and replacing it with the pixel of the nearest representative vector. Since the variance of the distance from the pixel vector is set to the smallest position, even if each pixel is replaced with a representative vector, the difference in the vector space is minimized. It can be carried out. In addition, image quality degradation that occurs when converting a composite signal to a component signal by determining a class code using a representative vector determined by a class tap that considers all four phases of pixels regardless of the phase of the pixel of interest Can be suppressed.
[0094]
Next, a learning device (prediction coefficient computing device) for determining the prediction coefficient stored in the coefficient memory 57 will be described with reference to FIG.
[0095]
The NTSC encoder 101 receives a component signal including a luminance signal Y and color difference signals RY and BY as a teacher image. The NTSC encoder 101 generates an NTSC composite video signal as a student image from the input component signal, and outputs it to the class tap extraction unit 102 and the prediction tap extraction unit 107.
[0096]
The class tap extraction unit 102 extracts pixels (class taps) necessary for class classification from the composite video signal converted into the input digital signal, and outputs the extracted pixels to the vector generation unit 103. The vector generation unit 103 generates a vector from the input class tap. More specifically, the vector generation unit 103 generates a vector using the pixel value of each pixel input as a class tap as a vector element, and outputs the vector to the class code determination unit 104.
[0097]
The class code determination unit 104 searches the representative vector recorded in the representative vector memory 105 for the representative vector closest to the vector input from the vector generation unit 103, and determines the class code corresponding to the searched representative vector. And output to the normal equation generation unit 106. The representative vector memory 105 stores the number of representative vectors of the order corresponding to the input vector by the number corresponding to the class by the above-described processing.
[0098]
The prediction tap extraction unit 107 extracts a prediction tap from the composite video signal input from the NTSC encoder 101 and outputs the prediction tap to the normal equation generation unit 106. The above class tap extraction unit 102, vector generation unit 103, class code determination unit 104, representative vector memory 105, and prediction tap extraction unit 107 are the same as the class tap extraction unit 51 of the class classification adaptive processing circuit 35 in FIG. The generation unit 52, the class code determination unit 53, the representative vector memory 54, and the prediction tap extraction unit 55 have basically the same configuration and function.
[0099]
The normal equation generation unit 106, for all classes input from the class code determination unit 104, for each class, the prediction tap of the student image input from the prediction tap extraction unit 107 and the component signal as the teacher image. A normal equation is generated from the luminance signal Y and output to the coefficient determination unit 108. When the necessary number of normal equations are supplied from the normal equation generation unit 106, the coefficient determination unit 108 solves the normal equations using, for example, the least square method, and calculates the prediction coefficients w1,. Calculate and determine.
[0100]
Here, the normal equation will be described. In the above equation (1), the prediction coefficients w1,..., Wn are undetermined coefficients before learning. Learning is performed by inputting a plurality of teacher images for each class. When the number of types of teacher images is expressed as m, the following equation (2) is set from equation (1).
[0101]
yk = w1 * xk1 + w2 * xk2 ++ ... + wn * xkn (2)
[0102]
Here, k is k = 1, 2,..., M. When m> n, the prediction coefficients w1,..., wn are not uniquely determined. Therefore, the element ek of the error vector e is defined by the following equation (3), and the prediction coefficient is determined so that the error vector e defined by the equation (4) is minimized. That is, for example, the prediction coefficient is uniquely determined by a so-called least square method.
[0103]
ek = yk- {w1 * xk1 + w2 * xk2 ++ ... + wn * xkn} (3)
[0104]
[Expression 1]
Figure 0003777600
[0105]
Each prediction coefficient wi that minimizes e ^ 2 (e squared) in Expression (4) is obtained by partial differentiation of e ^ 2 with the prediction coefficient w i (i = 1, 2,...) (5) The partial differential value is calculated to be 0 for each value of i.
[0106]
[Expression 2]
Figure 0003777600
[0107]
A specific procedure for determining each prediction coefficient w i from equation (5) will be described. When Xji and Yi are defined as in Expression (6) and Expression (7), Expression (5) is transformed into the form of the determinant of Expression (8).
[0108]
[Equation 3]
Figure 0003777600
[0109]
[Expression 4]
Figure 0003777600
[0110]
[Equation 5]
Figure 0003777600
[0111]
This equation (8) is generally called a normal equation. Here, Xji (j, i = 1, 2,... N) and Yi (i = 1, 2,... N) are calculated based on the teacher image and the student image. That is, the normal equation generation unit 106 calculates the values of Xji and Yi and determines the equation (8) consisting of the normal equation. Further, the coefficient determination unit 108 determines each prediction coefficient w i by solving the equation (8).
[0112]
Next, a process in which the learning device in FIG. 19 learns a prediction coefficient will be described with reference to the flowchart in FIG.
[0113]
In step S <b> 71, a component signal as a teacher image is input to the NTSC encoder 101 and the normal equation generation unit 106. In step S <b> 72, the NTSC encoder 101 generates a student image including an NTSC composite signal from the input component signal, and outputs the student image to the class tap extraction unit 102 and the prediction tap extraction unit 107.
[0114]
In step S <b> 73, the class tap extraction unit 102 extracts class taps and outputs them to the vector generation unit 103. This process is the same as the process in step S4 in the flowchart of FIG.
[0115]
In step S74, the vector generation unit 52 reads the pixel values of the class tap extracted by the class tap extraction unit 102, generates a vector composed of these values (vector quantization), and sends the vector to the class code determination unit 104. Output. This process is the same as the process in step S5 in the flowchart of FIG.
[0116]
In step S75, the class code determination unit 104 compares the input vector with a representative vector group stored in advance in the representative vector memory 105, determines the closest representative vector, and predicts the corresponding class (index) code. The result is output to the calculation unit 106.
[0117]
In step S <b> 76, the prediction tap extraction unit 55 extracts the prediction tap of the student image and outputs it to the normal equation generation unit 106.
[0118]
In step S77, the normal equation generation unit 106 uses the above-described equation (5) based on the class code input from the class code determination unit 104, the prediction tap input from the prediction tap extraction unit 107, and the component signal input as a teacher image. The normal equation shown in 8) is generated and output to the coefficient determination unit 108 together with the class code input from the class code determination unit 104.
[0119]
In step S <b> 78, the coefficient determining unit 108 solves the normal equation composed of the above-described equation (8), determines the prediction coefficient, outputs it in association with the class code, and stores it in the coefficient memory 57.
[0120]
In step S79, it is determined whether or not processing has been performed for all pixels. If it is determined that processing has not been performed for all pixels, the processing returns to step S73. That is, the processes in steps S73 to S79 are repeated until the processes for all the pixels are completed. If it is determined in step S79 that all pixels have been processed, the process ends.
[0121]
By the above processing, the class is determined by using a vector obtained by vector quantization of a class tap that is not limited to the target pixel and the surrounding phase, and the class is determined, and the prediction coefficient is calculated. It is possible to obtain a prediction coefficient that can suppress image quality deterioration caused by the conversion process from the composite signal to the component signal. In the above description, the example of setting the prediction coefficient for obtaining the luminance signal Y has been described. However, the color difference signals RY and BY can be obtained in the same manner.
[0122]
Next, referring to FIG. 21 to FIG. 28, SNR (Signal to Noise) at the time of conversion from a composite signal to a component signal by a conventional image conversion apparatus and a television receiver to which the present invention is applied. A comparison result of the ratio between the true component signal corresponding to the signal and the converted component signal will be described.
[0123]
21 and 22, the horizontal direction indicates the number of frames, the vertical direction is SNR (dB), the SNR of the television receiver to which the present invention is applied is a solid line, and the conventional image conversion apparatus The SNR is shown as a dotted line. In the television receiver to which the present invention is applied, as shown in FIG. 23, the target pixel exists on the field # 0, and the class tap has five horizontal pixels centered on the target pixel. A total of 15 taps (number of classes = 32) consisting of 5 pixels in the horizontal direction with the upper and lower pixels as the center, and the prediction tap is the case where the 12 taps shown in FIG. 4 are used, and the conventional image conversion In the apparatus, when the pixel of interest exists on the field # 0, the class tap has the pixel of interest of 5 pixels (number of classes = 31) shown in FIG. 3 and the prediction tap of 12 shown in FIG. The case of tapping is shown.
[0124]
Furthermore, in FIG. 21, an image including many still image areas (704 pixels × 484 pixels, 60 frames, Y + Q), and in FIG. 22, an image including many moving image areas (704 pixels × 484 pixels, 60 frames, Y + Q). ) For each luminance signal Y.
[0125]
In FIG. 21, in the case of a conventional image conversion apparatus, the SNR is around 37.5 dB, whereas in the case of a television receiver to which the present invention is applied, the SNR is around 38 dB. It is shown that the SNR of about 0.5 dB is improved.
[0126]
As for FIG. 22, in the case of the conventional image conversion apparatus and the case of the television receiver to which the present invention is applied, the SNR of the conventional case is more when the present invention is applied to about 1 to 3 dB as a whole. It has been shown to be improved.
[0127]
24 and 25, as in FIGS. 21 and 22, the horizontal direction indicates the number of frames, the vertical direction is SNR, and the SNR of the television receiver to which the present invention is applied is a solid line. In addition, the SNR of the conventional image conversion apparatus is indicated by a dotted line. At this time, in the conventional image conversion apparatus, as shown in FIG. 26, the class tap is 4 in phase with the target pixel on the field # -2 two fields before the class tap shown in FIG. A total of 9 taps (number of classes = 511) including pixels are used, and as shown in FIG. 27, the prediction tap is the 12 taps shown in FIG. 6 pixels consisting of left and right pixels centered on the upper and lower pixels, and the pixel at the target pixel position on the previous field # -2, its left and right pixels, and the upper and lower positions of the target pixel A total of 27 taps (including offset taps), which is a sum of 9 pixels consisting of the pixels to be processed and the left and right pixels, are used.
[0128]
Further, in the television receiver to which the present invention is applied, as shown in FIG. 28, the class tap includes pixels above and below the target pixel position on the field # -1 immediately before the class tap shown in FIG. A total of 6 pixels consisting of the left and right pixels, plus the pixel of interest in the previous field # -2, its left and right pixels, and pixels above and below the pixel of interest, and 9 pixels of the respective left and right pixels 30 taps (number of classes = 512) were used, and the prediction taps used were the same as those in the conventional image conversion apparatus (FIG. 27).
[0129]
24 shows an image (704 pixels × 484 pixels, 60 frames, Y + Q) including many still image regions, and FIG. 25 shows an image including many moving image regions (704 pixels × 484 pixels, 60 frames, Y + Q). These are the results for each luminance signal Y.
[0130]
In FIG. 24, the SNR of the conventional image conversion apparatus is around 43 dB, whereas the SNR of the television receiver to which the present invention is applied is around 43.5 dB, which is higher than that of the conventional image conversion apparatus. The SNR of about 0.5dB has been improved. In addition, in FIG. 25, an improvement in SNR of about 0.5 dB is observed as a whole.
[0131]
Although not shown, it has been confirmed that the color difference signal and other phase signals can be improved in the same manner as in FIG. 21, FIG. 22, FIG. 24, and FIG.
[0132]
As described with reference to FIGS. 21 to 28, a class using a representative vector is used regardless of the number of class taps, an image with many still image regions, or an image with many moving image regions. It is shown that the classification adaptation process effectively improves the SNR at the time of conversion from the composite signal to the component signal, and as a result, the image quality deterioration is suppressed.
[0133]
Further, the above-described vector may be one obtained by normalizing each element. That is, for example, when a vector such as (X100, X101, X102... X200) exists, the maximum value Max (X100, X101, X102... X200) of each of these elements is obtained, and each element is determined. (X100 / Max (X100, X101, X102... X200), X101 / Max (X100, X101, X102... X200), X102 / Max (X100, X101, X102... X200)) ,... X200 / Max (X100, X101, X102... X200)) may be normalized and expressed.
[0134]
When such a normalized vector is used, the index shown in FIG. 9 is expressed as shown in FIG.
[0135]
In the above example, the component video signal (Y, Cr, Cb) is generated from the composite video signal. For example, as shown in FIG. It is also possible to directly generate the primary color RGB signal from the composite video signal output from the above. Also in this case, the configuration of the class classification adaptive processing circuit 121 is the same as that of the class classification adaptive processing circuit 35, but the student image in the learning process for determining the prediction coefficient stored in the coefficient memory 57 is a composite signal. However, the teacher image becomes the primary color RGB signal, and the determined prediction coefficient also corresponds to the primary color RGB signal. However, the representative vector stored in the representative vector memory 54 may be left as it is.
[0136]
Further, the example using the NTSC composite signal has been described above. However, for example, the same configuration can be used when converting a PAL (Phase Alternating Line) composite signal into a component signal or a primary color RGB signal. Can be realized.
[0137]
According to the above, since the class code is determined based on the representative vector, it is possible to classify the pixel of interest appropriately, taking into account the relative relations for all phases of the composite signal. It is possible to suppress image quality degradation that occurs during conversion to a signal.
[0138]
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processes is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.
[0139]
FIG. 31 shows a configuration of an embodiment of a personal computer when the television receiver, the representative vector setting device, or the learning device is realized by software. The CPU 201 of the personal computer controls the entire operation of the personal computer. Further, when a command is input from the input unit 206 such as a keyboard or a mouse from the user via the bus 204 and the input / output interface 205, the CPU 201 is stored in a ROM (Read Only Memory) 202 correspondingly. Run the program. Alternatively, the CPU 201 reads a program read from the magnetic disk 211, the optical disk 212, the magneto-optical disk 213, or the semiconductor memory 214 connected to the drive 210 and installed in the storage unit 208 into a RAM (Random Access Memory) 203. To load and execute. Thereby, the functions of the above-described image processing apparatus are realized by software. Further, the CPU 201 controls the communication unit 209 to communicate with the outside and exchange data.
[0140]
As shown in FIG. 31, the recording medium on which the program is recorded is distributed to provide the program to the user separately from the computer, and the magnetic disk 211 (including the flexible disk) on which the program is recorded, By a package medium comprising an optical disk 212 (including compact disc-read only memory (CD-ROM), DVD (digital versatile disc)), a magneto-optical disk 213 (including MD (mini-disc)), or a semiconductor memory 214 In addition to being configured, it is configured by a ROM 202 on which a program is recorded, a hard disk included in the storage unit 208, and the like provided to the user in a state of being incorporated in a computer in advance.
[0141]
In this specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series in the order described, but of course, it is not necessarily performed in time series. Or the process performed separately is included.
[0142]
【The invention's effect】
  According to the image information conversion apparatus and method and the first program of the present invention, the pixel of interestTo classifyExtracting a plurality of first pixel signals from the input composite signal;Vector quantization of the pattern of multiple pixel signals for classifying each pixel of the input composite signal into a class, and using that in the vector spacePre-statistical learningPer classStores the specified representative pattern, searches for the closest representative pattern to the extracted first pixel signal patterns, and searches for the representative patternThe class where,Classify into pixel class of interestFrom the input composite signalFor converting the pixel of interestA plurality of second pixel signals are extracted, and the second pixel signals and classified classesSet for eachWith coefficientSum of productsThe pixel signal of the pixel of interest is converted by calculation.
[0144]
  Coefficient calculation apparatus and method of the present invention, and2According to the program, the input composite signal is generated from the input image signal, and the target pixelTo classifyExtracting pixel signals of a plurality of first pixels from an input composite signal;Vector quantization of the pattern of multiple pixel signals for classifying each pixel of the input composite signal into a class, and using that in the vector spacePre-statistical learningPer classStores the specified representative pattern, searches for the closest representative pattern to the extracted first pixel signal patterns, and searches for the representative patternSaid class is defined,Classify into pixel class of interestAnd extracting a plurality of second pixel signals from the input composite signal and inputting the second pixel signals and the image signalFrom the normal equation using andCategorized classEveryThe coefficient was calculated.
[0145]
  Representative pattern setting apparatus and method of the present invention, and3According to the program, each pixel of the input composite signalTo classifyExtract multiple pixel signals, vector quantize multiple pixel signals, calculate representative vector in vector space according to the number of classes from multiple vector quantized pixel signals, and calculate representative vector as representative pattern Was set in association with the class.
[0146]
As a result, in both cases, it is possible to classify the pixel of interest appropriately, taking into account the relative relationships of all phases of the composite signal, and to suppress image quality degradation that occurs during conversion from the composite signal to the component signal. It becomes possible.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a conventional image conversion apparatus.
FIG. 2 is a diagram for explaining an NTSC composite signal.
FIG. 3 is a diagram illustrating class taps.
FIG. 4 is a diagram for explaining a prediction tap.
FIG. 5 is a block diagram illustrating a configuration example of a conventional learning device.
FIG. 6 is a block diagram illustrating a configuration of an embodiment of a television receiver to which the present invention has been applied.
7 is a diagram for explaining a class classification adaptive processing circuit in FIG. 6; FIG.
8 is a block diagram illustrating a configuration of a class classification adaptive processing circuit in FIG. 6. FIG.
FIG. 9 is a diagram for explaining representative vectors stored in the representative vector memory of FIG. 8;
10 is a flowchart illustrating display processing of the television receiver in FIG. 6. FIG.
FIG. 11 is a diagram illustrating processing for selecting a representative vector.
FIG. 12 is a diagram illustrating a representative vector setting device and a learning device.
FIG. 13 is a block diagram illustrating a configuration of a representative vector setting device.
14 is a flowchart for explaining representative vector setting processing of the representative vector setting device of FIG. 13;
15 is a flowchart for explaining representative vector determination processing by the representative vector calculation unit in FIG. 13;
FIG. 16 is a diagram illustrating a method for calculating a representative vector.
FIG. 17 is a diagram illustrating a method for calculating a representative vector.
FIG. 18 is a diagram illustrating a method for calculating a representative vector.
FIG. 19 is a block diagram illustrating a learning device.
FIG. 20 is a flowchart illustrating a learning process of the learning device.
FIG. 21 is a diagram showing a comparison result of SNR between a conventional image conversion apparatus and a television receiver to which the present invention is applied.
FIG. 22 is a diagram showing a comparison result of SNR between a conventional image conversion apparatus and a television receiver to which the present invention is applied.
FIG. 23 is a diagram illustrating a class tap of a television receiver to which the present invention is applied as in FIGS. 21 and 22.
FIG. 24 is a diagram showing a comparison result of SNR between a conventional image conversion apparatus and a television receiver to which the present invention is applied.
FIG. 25 is a diagram showing a comparison result of SNR between a conventional image conversion apparatus and a television receiver to which the present invention is applied.
FIG. 26 is a diagram showing a class tap of the conventional image conversion apparatus in FIGS. 24 and 25.
FIG. 27 is a diagram illustrating prediction taps in FIGS. 24 and 25;
FIG. 28 is a diagram showing a class tap of a television receiver to which the present invention is applied as in FIGS. 24 and 25.
FIG. 29 is a diagram for explaining an example when the representative vector in FIG. 9 is normalized;
FIG. 30 is a block diagram illustrating another configuration of a television receiver to which the present invention has been applied.
FIG. 31 is a diagram illustrating a medium.
[Explanation of symbols]
35 class classification adaptive processing circuit, 51 class tap extraction unit, 52 vector generation unit, 53 class code determination unit, 54 representative vector memory, 55 prediction tap extraction unit, 56 prediction calculation unit, 57 coefficient memory, 61 representative vector setting device, 62 learning device, 81 setting tap extracting unit, 82 vector generating unit, 83 vector space data holding unit, 84 representative vector calculating unit, 101 NTSC encoder, 102 class tap extracting unit, 103 vector generating unit, 104 class code determining unit, 105 Representative vector memory, 106 normal equation generation unit, 107 prediction tap extraction unit, 108 coefficient determination unit, 121 class classification adaptive processing circuit

Claims (19)

着目画素をクラスに分類するための複数の第1の画素信号を入力コンポジット信号から抽出する第1の抽出手段と、
前記入力コンポジット信号の各画素を前記クラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予め前記クラス毎に定められた代表パターンを記憶する代表パターン記憶手段と、
前記第1の抽出手段により抽出された前記複数の第1の画素信号のパターンに、最も近い前記代表パターンを検索する代表パターン検索手段と、
前記代表パターン検索手段により検索された前記代表パターンが定められている前記クラスを、前記着目画素のクラスに分類するクラス分類手段と、
前記入力コンポジット信号から前記着目画素を変換するための複数の第2の画素信号を抽出する第2の抽出手段と、
前記第2の画素信号と、前記クラス分類手段により分類された前記クラス毎に設定されている係数との積和演算により、前記着目画素の画素信号を変換する着目画素信号変換手段と
を備えることを特徴とする画像情報変換装置。
First extraction means for extracting a plurality of first pixel signals for classifying the pixel of interest into a class from an input composite signal;
A vector pattern of a plurality of pixel signals for classifying each pixel of the input composite signal into the class is vector-quantized, and a representative pattern previously determined for each class is obtained by statistical learning on a vector space using the pattern. Representative pattern storage means for storing;
Representative pattern search means for searching for the representative pattern closest to the pattern of the plurality of first pixel signals extracted by the first extraction means;
Class classification means for classifying the class in which the representative pattern searched by the representative pattern search means is defined into a class of the pixel of interest ;
Second extraction means for extracting a plurality of second pixel signals for converting the pixel of interest from the input composite signal;
Pixel-of- interest signal conversion means for converting the pixel signal of the pixel of interest by performing a product-sum operation on the second pixel signal and the coefficient set for each class classified by the class classification means. An image information conversion device characterized by the above.
前記複数の第1の画素信号をベクトル量子化するベクトル量子化手段をさらに備え、
前記代表パターン記憶手段は、前記コンポジット信号の前記着目画素をクラスに分類する前記複数の第1の画素信号のうちの、代表的な前記複数の第1の画素信号からなる代表パターン代表ベクトルとして記憶する
ことを特徴とする請求項1に記載の画像情報変換装置。
Vector quantization means for vector-quantizing the plurality of first pixel signals;
The representative pattern storage means, among the plurality of first pixel signal for classifying the pixel of interest of the composite signal to a class, a representative pattern consisting of a representative of the plurality of first pixel signals as a representative vector The image information conversion device according to claim 1, wherein the image information conversion device is stored.
前記代表パターン検索手段は、前記第1の抽出手段により抽出された前記複数の第1の画素信号がベクトル量子化されたものと、ベクトル空間内で最も近い前記代表ベクトルとしての前記代表パターンを、前記第1の抽出手段により抽出された前記複数の第1の画素信号のパターンに、最も近い前記代表パターンとして検索する
ことを特徴とする請求項2に記載の画像情報変換装置。
The representative pattern search means includes a vector quantization of the plurality of first pixel signals extracted by the first extraction means, and the representative pattern as the representative vector closest to the vector space, The image information conversion apparatus according to claim 2, wherein a search is performed as the representative pattern closest to the pattern of the plurality of first pixel signals extracted by the first extraction unit.
着目画素信号変換手段は、前記第2の画素信号と、前記クラス分類手段により分類された前記クラスに設定されている係数との積和演算により、前記着目画素の画素信号をコンポーネント信号に変換する
ことを特徴とする請求項1に記載の画像情報変換装置。
The pixel-of- interest signal conversion unit converts the pixel signal of the pixel of interest into a component signal by performing a product-sum operation on the second pixel signal and the coefficient set in the class classified by the class classification unit. The image information conversion apparatus according to claim 1, wherein:
着目画素信号変換手段は、前記第2の画素信号と、前記クラス分類手段により分類された前記クラスに設定されている係数との積和演算により、前記着目画素の画素信号を輝度信号、または、クロマ信号に変換する
ことを特徴とする請求項1に記載の画像情報変換装置。
The pixel-of- interest signal converter converts the pixel signal of the pixel of interest into a luminance signal, or a product-sum operation of the second pixel signal and the coefficient set in the class classified by the class classification unit, or The image information conversion apparatus according to claim 1, wherein the image information conversion apparatus converts to a chroma signal.
前記コンポーネント信号に変換された前記着目画素の画素信号を表示する表示手段をさらに備える  Display means for displaying the pixel signal of the pixel of interest converted into the component signal is further provided.
ことを特徴とする請求項1に記載の画像情報変換装置。  The image information conversion apparatus according to claim 1.
着目画素をクラスに分類するための複数の第1の画素信号を入力コンポジット信号から抽出する第1の抽出ステップと、
前記入力コンポジット信号の各画素を前記クラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予め前記クラス毎に定められた代表パターンを記憶する代表パターン記憶ステップと、
前記第1の抽出ステップの処理で抽出された前記複数の第1の画素信号のターンに、最も近い前記代表パターンを検索する代表パターン検索ステップと、
前記代表パターン検索ステップの処理で検索された前記代表パターンが定められている前記クラスを、前記着目画素のクラスに分類するクラス分類ステップと、
前記コンポジット信号から前記着目画素を変換するための複数の第2の画素信号を抽出する第2の抽出ステップと、
前記第2の画素信号と、前記クラス分類ステップの処理で分類された前記クラスに毎に設定されている係数との積和演算により、前記着目画素の画素信号を変換する着目画素信号変換ステップと
を含むことを特徴とする画像情報変換方法。
A first extraction step of extracting a plurality of first pixel signals for classifying the pixel of interest into a class from an input composite signal;
A vector pattern of a plurality of pixel signal patterns for classifying each pixel of the input composite signal into the class is vector-quantized, and a representative pattern predetermined for each class is obtained by statistical learning on a vector space using the pattern. A representative pattern storing step for storing;
A representative pattern search step of searching for the representative pattern closest to the turn of the plurality of first pixel signals extracted in the processing of the first extraction step;
A class classification step for classifying the class in which the representative pattern searched in the processing of the representative pattern search step is defined into a class of the target pixel ;
A second extraction step of extracting a plurality of second pixel signals for converting the target pixel from the composite signal;
A pixel-of- interest signal conversion step of converting a pixel signal of the pixel of interest by a product-sum operation of the second pixel signal and a coefficient set for each of the classes classified in the processing of the class classification step; An image information conversion method comprising:
着目画素をクラスに分類するための複数の第1の画素信号の入力コンポジット信号からの抽出を制御する第1の抽出制御ステップと、
前記入力コンポジット信号の各画素を前記クラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予め前記クラス毎に定められた代表パターンの記憶を制御する代表パターン記憶制御ステップと、
前記第1の抽出制御ステップの処理で抽出が制御された前記複数の第1の画素信号のパターンに、最も近い前記代表パターンの検索を制御する代表パターン検索制御ステップと、
前記代表パターン検索制御ステップの処理で検索された前記代表パターンが定められている前記クラスを、前記着目画素のクラスとする分類を制御するクラス分類制御ステップと、
前記入力コンポジット信号から前記着目画素を変換するための複数の第2の画素信号の抽出を制御する第2の抽出制御ステップと、
前記第2の画素信号と、前記クラス分類制御ステップの処理で分類が制御された前記クラス毎に設定されている係数との積和演算により、前記着目画素の画素信号の変換を制御する着目画素信号変換制御ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A first extraction control step for controlling extraction of a plurality of first pixel signals for classifying the pixel of interest into a class from an input composite signal;
A vector pattern of a plurality of pixel signals for classifying each pixel of the input composite signal into the class is vector-quantized, and a representative pattern predetermined for each class is obtained by statistical learning on a vector space using the pattern. Representative pattern memory control step for controlling memory;
A representative pattern search control step for controlling the search of the representative pattern closest to the pattern of the plurality of first pixel signals whose extraction is controlled in the processing of the first extraction control step;
A class classification control step for controlling classification in which the class in which the representative pattern searched in the processing of the representative pattern search control step is defined is the class of the pixel of interest ;
A second extraction control step for controlling extraction of a plurality of second pixel signals for converting the target pixel from the input composite signal;
The pixel of interest that controls the conversion of the pixel signal of the pixel of interest by the product-sum operation of the second pixel signal and the coefficient set for each class whose classification is controlled in the processing of the class classification control step A recording medium on which a computer-readable program is recorded, comprising: a signal conversion control step.
着目画素をクラスに分類するための複数の第1の画素信号の入力コンポジット信号からの抽出を制御する第1の抽出制御ステップと、
前記入力コンポジット信号の各画素を前記クラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により前記クラス毎に定められた代表パターンの記憶を制御する代表パターン記憶制御ステップと、
前記第1の抽出制御ステップの処理で抽出が制御された前記複数の第1の画素信号のパターンに、最も近い前記代表パターンの検索を制御する代表パターン検索制御ステップと、
前記代表パターン検索制御ステップの処理で検索された前記代表パターンが定められている前記クラスを、前記着目画素のクラスとする分類を制御するクラス分類制御ステップと、
前記入力コンポジット信号から前記着目画素を変換するための複数の第2の画素信号の抽出を制御する第2の抽出制御ステップと、
前記第2の画素信号と、前記クラス分類制御ステップの処理で分類が制御された前記クラス毎に設定されている係数との積和演算により、前記着目画素の画素信号の変換を制御する着目画素信号変換制御ステップと
をコンピュータに実行させるプログラム。
A first extraction control step for controlling extraction of a plurality of first pixel signals for classifying the pixel of interest into a class from an input composite signal;
A representative pattern determined for each class is obtained by vector quantization of a plurality of pixel signal patterns for classifying each pixel of the input composite signal into the class, and statistical learning on a vector space using the pattern. Representative pattern storage control step for controlling
A representative pattern search control step for controlling the search of the representative pattern closest to the pattern of the plurality of first pixel signals whose extraction is controlled in the processing of the first extraction control step;
A class classification control step for controlling classification in which the class in which the representative pattern searched in the processing of the representative pattern search control step is defined is the class of the pixel of interest ;
A second extraction control step for controlling extraction of a plurality of second pixel signals for converting the target pixel from the input composite signal;
The pixel of interest for controlling the conversion of the pixel signal of the pixel of interest by the product-sum operation of the second pixel signal and the coefficient set for each class whose classification is controlled in the processing of the class classification control step A program that causes a computer to execute a signal conversion control step.
入力された画像信号から入力コンポジット信号を生成するコンポジット信号生成手段と、
着目画素をクラスに分類するための複数の第1の画素の画素信号を前記入力コンポジット信号から抽出する第1の抽出手段と、
前記入力コンポジット信号の各画素を前記クラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予め前記クラス毎に定められた代表パターンを記憶する代表パターン記憶手段と、
前記第1の抽出手段により抽出された前記複数の第1の画素信号のパターンに、最も近い前記代表パターンを検索する代表パターン検索手段と、
前記代表パターン検索手段により検索された前記代表パターンが定められている前記クラスを、前記着目画素のクラスに分類するクラス分類手段と、
前記入力コンポジット信号から前記着目画素を変換するための複数の第2の画素信号を抽出する第2の抽出手段と、
前記第2の画素信号と前記入力された画像信号とを用いた正規方程式より、前記クラス分類手段により分類された前記クラス毎に係数を算出する算出手段と
を備えることを特徴とする係数算出装置。
Composite signal generating means for generating an input composite signal from the input image signal;
First extraction means for extracting pixel signals of a plurality of first pixels for classifying the pixel of interest into a class from the input composite signal;
A vector pattern of a plurality of pixel signals for classifying each pixel of the input composite signal into the class is vector-quantized, and a representative pattern previously determined for each class is obtained by statistical learning on a vector space using the pattern. Representative pattern storage means for storing;
Representative pattern search means for searching for the representative pattern closest to the pattern of the plurality of first pixel signals extracted by the first extraction means;
Class classification means for classifying the class in which the representative pattern searched by the representative pattern search means is defined into a class of the pixel of interest ;
Second extraction means for extracting a plurality of second pixel signals for converting the pixel of interest from the input composite signal;
A coefficient calculation unit comprising: a calculation unit configured to calculate a coefficient for each of the classes classified by the class classification unit based on a normal equation using the second pixel signal and the input image signal. .
請求項10に記載の係数算出装置により算出された係数を記憶することを特徴とする記憶装置。A storage device that stores the coefficient calculated by the coefficient calculation device according to claim 10 . 入力された画像信号から入力コンポジット信号を生成するコンポジット信号生成ステップと、
着目画素をクラスに分類するための複数の第1の画素の画素信号を前記入力コンポジット信号から抽出する第1の抽出ステップと、
前記入力コンポジット信号の各画素を前記クラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予め前記クラス毎に定められた代表パターンを記憶する代表パターン記憶ステップと、
前記第1の抽出ステップの処理で抽出された前記複数の第1の画素信号のパターンに、最も近い前記代表パターンを検索する代表パターン検索ステップと、
前記代表パターン検索ステップの処理で検索された前記代表画素信号が定められている前記クラスを、前記着目画素のクラスに分類するクラス分類ステップと、
前記入力コンポジット信号から前記着目画素を変換するための複数の第2の画素信号を抽出する第2の抽出ステップと、
前記第2の画素信号と前記入力された画像信号とを用いた正規方程式より、前記クラス分類ステップの処理で分類された前記クラス毎に係数を算出する算出ステップと
を含むことを特徴とする係数算出方法。
A composite signal generation step for generating an input composite signal from the input image signal;
A first extraction step of extracting pixel signals of a plurality of first pixels for classifying the pixel of interest into a class from the input composite signal;
A vector pattern of a plurality of pixel signal patterns for classifying each pixel of the input composite signal into the class is vector-quantized, and a representative pattern predetermined for each class is obtained by statistical learning on a vector space using the pattern. A representative pattern storing step for storing;
A representative pattern search step of searching for the representative pattern closest to the pattern of the plurality of first pixel signals extracted in the processing of the first extraction step;
A class classification step of classifying the class in which the representative pixel signal searched in the processing of the representative pattern search step is defined into a class of the pixel of interest ;
A second extraction step of extracting a plurality of second pixel signals for converting the pixel of interest from the input composite signal;
A coefficient step of calculating a coefficient for each of the classes classified in the class classification step from a normal equation using the second pixel signal and the input image signal. Calculation method.
入力された画像信号から入力コンポジット信号の生成を制御するコンポジット信号生成制御ステップと、
着目画素をクラスに分類するための複数の第1の画素の前記入力コンポジット信号からの画素信号の抽出を制御する第1の抽出制御ステップと、
前記入力コンポジット信号の各画素を前記クラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予め前記クラス毎に定められた代表パターンの記憶を制御する代表パターン記憶制御ステップと、
前記第1の抽出制御ステップの処理で抽出が制御された前記複数の第1の画素信号のパターンに、最も近い前記代表パターンの検索を制御する代表パターン検索制御ステップと、
前記代表パターン検索制御ステップの処理で検索された前記代表パターンが定められている前記クラスを、前記着目画素のクラスとする分類を制御するクラス分類制御ステップと、
前記入力コンポジット信号から前記着目画素を変換するための複数の第2の画素信号の抽出を制御する第2の抽出制御ステップと、
前記第2の画素信号と前記入力された画像信号とを用いた正規方程式より、前記クラス分類制御ステップの処理で分類が制御された前記クラス毎の係数の算出を制御する算出制御ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A composite signal generation control step for controlling generation of an input composite signal from an input image signal;
A first extraction control step for controlling extraction of a pixel signal from the input composite signal of a plurality of first pixels for classifying the pixel of interest into a class ;
A vector pattern of a plurality of pixel signals for classifying each pixel of the input composite signal into the class is vector-quantized, and a representative pattern predetermined for each class is obtained by statistical learning on a vector space using the pattern. Representative pattern memory control step for controlling memory;
A representative pattern search control step for controlling the search of the representative pattern closest to the pattern of the plurality of first pixel signals whose extraction is controlled in the processing of the first extraction control step;
A class classification control step for controlling classification in which the class in which the representative pattern searched in the processing of the representative pattern search control step is defined is the class of the pixel of interest ;
A second extraction control step for controlling extraction of a plurality of second pixel signals for converting the target pixel from the input composite signal;
A calculation control step for controlling the calculation of the coefficient for each class whose classification is controlled by the processing of the class classification control step based on a normal equation using the second pixel signal and the input image signal. A recording medium on which a computer-readable program is recorded.
入力された画像信号から入力コンポジット信号の生成を制御するコンポジット信号生成制御ステップと、
着目画素をクラスに分類するための複数の第1の画素の画素信号の前記入力コンポジット信号からの抽出を制御する第1の抽出制御ステップと、
前記入力コンポジット信号の各画素を前記クラスに分類するための複数の画素信号のパターンをベクトル量子化し、それを用いたベクトル空間上での統計的学習により予め前記クラス毎に定められた代表パターンの記憶を制御する代表パターン記憶制御ステップと、
前記第1の抽出制御ステップの処理で抽出が制御された前記複数の第1の画素信号のパターンに、最も近い前記代表パターンの検索を制御する代表パターン検索制御ステップと、
前記代表パターン検索制御ステップの処理で検索された前記代表パターンが定められている前記クラスを、前記着目画素のクラスとする分類を制御するクラス分類制御ステップと、
前記入力コンポジット信号から複数の第2の画素信号の抽出を制御する第2の抽出制御ステップと、
前記第2の画素信号と前記入力された画像信号とを用いた正規方程式より、前記クラス分類制御ステップの処理で分類が制御された前記クラス毎に所定の係数の算出を制御する算出制御ステップと
をコンピュータに実行させるプログラム。
A composite signal generation control step for controlling the generation of an input composite signal from the input image signal;
A first extraction control step for controlling extraction of pixel signals of a plurality of first pixels for classifying a pixel of interest into a class from the input composite signal;
A vector pattern of a plurality of pixel signals for classifying each pixel of the input composite signal into the class is vector-quantized, and a representative pattern predetermined for each class is obtained by statistical learning on a vector space using the pattern. Representative pattern memory control step for controlling memory;
A representative pattern search control step for controlling the search of the representative pattern closest to the pattern of the plurality of first pixel signals whose extraction is controlled in the processing of the first extraction control step;
A class classification control step for controlling classification in which the class in which the representative pattern searched in the processing of the representative pattern search control step is defined is the class of the pixel of interest ;
A second extraction control step for controlling extraction of a plurality of second pixel signals from the input composite signal;
A calculation control step for controlling calculation of a predetermined coefficient for each of the classes whose classification is controlled by the processing of the class classification control step based on a normal equation using the second pixel signal and the input image signal; A program that causes a computer to execute.
入力コンポジット信号をクラス分類適応処理により変換する際に使用される、前記入力コンポジット信号より抽出される複数の画素の画素信号のうちの、代表的な複数の画素信号からなる代表パターンを設定する代表パターン設定装置において、
前記入力コンポジット信号の各画素を前記クラスに分類するための複数の画素信号を抽出する抽出手段と、
前記複数の画素信号をベクトル量子化するベクトル量子化手段と、
前記ベクトル量子化手段によりベクトル量子化された前記複数の画素信号から、ベクトル空間上での代表ベクトルを前記クラス数に応じて計算する計算手段と、
前記計算手段で計算された前記代表ベクトルを前記代表パターンとして前記クラスに対応付けて設定する設定手段と
を備えることを特徴とする代表パターン設定装置。
A representative for setting a representative pattern composed of a plurality of representative pixel signals out of the plurality of pixel signals extracted from the input composite signal, which is used when the input composite signal is converted by the class classification adaptive processing. In the pattern setting device,
Extracting means for extracting a plurality of pixel signals for classifying each pixel of the input composite signal into the class ;
Vector quantization means for vector-quantizing the plurality of pixel signals;
Calculation means for calculating a representative vector in a vector space according to the number of classes from the plurality of pixel signals vector quantized by the vector quantization means;
A representative pattern setting device comprising: a setting unit configured to set the representative vector calculated by the calculation unit in association with the class as the representative pattern.
前記計算手段は、LBGアルゴリズムで前記ベクトル量子化手段によりベクトル量子化された前記複数の画素信号から、ベクトル空間上での代表ベクトルを前記クラス数に応じて計算する
ことを特徴とする請求項15に記載の代表パターン設定装置。
Said computing means according to claim 15, wherein the plurality of pixel signals vector quantization by the vector quantization means LBG algorithm, and calculating in accordance with the representative vectors in a vector space with the number of the class The representative pattern setting device described in 1.
入力コンポジット信号をクラス分類適応処理により変換する際に使用される、前記入力コンポジット信号より抽出される複数の画素の画素信号のうちの、代表的な複数の画素の画素信号からなる代表パターンを設定する代表パターン設定装置の代表パターン設定方法において、
前記入力コンポジット信号の各画素を前記クラスに分類するための複数の画素信号を抽出する抽出ステップと、
前記複数の画素信号をベクトル量子化するベクトル量子化ステップと、
前記ベクトル量子化ステップの処理でベクトル量子化された前記複数の画素信号から、ベクトル空間上での代表ベクトルを前記クラス数に応じて計算する計算ステップと、
前記計算ステップの処理で計算された前記代表ベクトルを前記代表パターンとして前記クラスに対応付けて設定する設定ステップと
を含むことを特徴とする代表パターン設定方法。
A representative pattern consisting of pixel signals of a plurality of representative pixels among the pixel signals of a plurality of pixels extracted from the input composite signal, used when converting the input composite signal by class classification adaptive processing, is set. In the representative pattern setting method of the representative pattern setting device,
An extraction step of extracting a plurality of pixel signals for classifying each pixel of the input composite signal into the class ;
A vector quantization step for vector quantization of the plurality of pixel signals;
A calculation step of calculating a representative vector on a vector space according to the number of classes from the plurality of pixel signals vector-quantized by the processing of the vector quantization step;
A representative pattern setting method comprising: a setting step of setting the representative vector calculated in the calculation step in association with the class as the representative pattern.
入力コンポジット信号をクラス分類適応処理により変換する際に使用される、前記入力コンポジット信号より抽出される複数の画素の画素信号のうちの、代表的な複数の画素信号からなる代表パターンを設定する代表パターン設定装置を制御するプログラムであって、
前記入力コンポジット信号の各画素を前記クラスに分類するための複数の画素信号の抽出を制御する抽出制御ステップと、
前記複数の画素信号のベクトル量子化を制御するベクトル量子化制御ステップと、
前記ベクトル量子化制御ステップの処理でベクトル量子化が制御された前記複数の画素信号から、ベクトル空間上での代表ベクトルの前記クラス数に応じた計算を制御する計算制御ステップと、
前記計算制御ステップの処理で計算された前記代表ベクトルの前記代表パターンとしての前記クラスに対応付けた設定を制御する設定制御ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
A representative for setting a representative pattern composed of a plurality of representative pixel signals among pixel signals of a plurality of pixels extracted from the input composite signal, which is used when the input composite signal is converted by class classification adaptive processing. A program for controlling a pattern setting device,
An extraction control step for controlling extraction of a plurality of pixel signals for classifying each pixel of the input composite signal into the class ;
A vector quantization control step for controlling vector quantization of the plurality of pixel signals;
A calculation control step for controlling calculation in accordance with the number of classes of representative vectors in a vector space from the plurality of pixel signals whose vector quantization is controlled by the processing of the vector quantization control step;
A setting control step for controlling a setting of the representative vector calculated in the processing of the calculation control step in association with the class as the representative pattern. Recording medium.
入力コンポジット信号をクラス分類適応処理により変換する際に使用される、前記入力コンポジット信号より抽出される複数の画素の画素信号のうちの、代表的な複数の画素信号からなる代表パターンを設定する代表パターン設定装置を制御するコンピュータに
前記入力コンポジット信号の各画素を前記クラスに分類するための複数の画素信号の抽出を制御する抽出制御ステップと、
前記複数の画素信号のベクトル量子化を制御するベクトル量子化制御ステップと、
前記ベクトル量子化制御ステップの処理でベクトル量子化が制御された前記複数の画素信号から、ベクトル空間上での代表ベクトルの前記クラス数に応じた計算を制御する計算制御ステップと、
前記計算制御ステップの処理で計算された前記代表ベクトルの前記代表パターンとしての前記クラスに対応付けた設定を制御する設定制御ステップと
を実行させるプログラム。
A representative for setting a representative pattern composed of a plurality of representative pixel signals among pixel signals of a plurality of pixels extracted from the input composite signal, which is used when the input composite signal is converted by class classification adaptive processing. An extraction control step of controlling extraction of a plurality of pixel signals for classifying each pixel of the input composite signal into the class to a computer that controls a pattern setting device;
A vector quantization control step for controlling vector quantization of the plurality of pixel signals;
A calculation control step for controlling calculation in accordance with the number of classes of representative vectors in a vector space from the plurality of pixel signals whose vector quantization is controlled by the processing of the vector quantization control step;
A setting control step for executing a setting control step for controlling a setting of the representative vector calculated in the calculation control step associated with the class as the representative pattern.
JP2002161369A 2002-06-03 2002-06-03 Image information conversion device, coefficient calculation device, representative pixel signal setting device and method, storage device, recording medium, and program Expired - Fee Related JP3777600B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002161369A JP3777600B2 (en) 2002-06-03 2002-06-03 Image information conversion device, coefficient calculation device, representative pixel signal setting device and method, storage device, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002161369A JP3777600B2 (en) 2002-06-03 2002-06-03 Image information conversion device, coefficient calculation device, representative pixel signal setting device and method, storage device, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2004015083A JP2004015083A (en) 2004-01-15
JP3777600B2 true JP3777600B2 (en) 2006-05-24

Family

ID=30430462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002161369A Expired - Fee Related JP3777600B2 (en) 2002-06-03 2002-06-03 Image information conversion device, coefficient calculation device, representative pixel signal setting device and method, storage device, recording medium, and program

Country Status (1)

Country Link
JP (1) JP3777600B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7738739B2 (en) * 2006-01-26 2010-06-15 Vestel Elektronik Sanayi Ve Ticaret A.S. Method and apparatus for adjusting the resolution of a digital image

Also Published As

Publication number Publication date
JP2004015083A (en) 2004-01-15

Similar Documents

Publication Publication Date Title
US6912014B2 (en) Image processing device and method, and recording medium
US7362379B2 (en) Image processing apparatus and method, recording medium, and program
CN100356794C (en) Method and apparatus for generating motion vector in lamina motion evaluation
KR100973429B1 (en) Background motion vector detection
EP1796044B1 (en) Image processing apparatus and method, recording medium, and program
JPH07154784A (en) Channel error correction method for video signal by quantization of classified vector
US9875523B2 (en) Image processing apparatus and image processing method
JPH05153563A (en) Method and device for correlation detection interpolation
JP3864400B2 (en) Image processing apparatus and image processing method
US7522748B2 (en) Method and apparatus for processing image data and semiconductor storage device
JP3777600B2 (en) Image information conversion device, coefficient calculation device, representative pixel signal setting device and method, storage device, recording medium, and program
US7627198B2 (en) Information signal processing device and processing method, codebook generating device and generating method, and program for executing the methods
JP3671469B2 (en) Prediction coefficient learning method and signal conversion apparatus and method
JP3777599B2 (en) Image information conversion apparatus and method, coefficient calculation apparatus and method, coefficient data and coefficient data storage apparatus, image quality degradation point detection apparatus and method, recording medium, and program
JP4734239B2 (en) Spatial signal conversion
JP2005250561A (en) Motion vector detecting device, motion vector detecting method and computer program
JP2007251690A (en) Image processing apparatus and method therefor, learning apparatus and method therefor, and program
JP4143880B2 (en) Image encoding apparatus and method, image decoding apparatus and method, and recording medium
JP3777592B2 (en) Image processing apparatus and method, recording medium, and program
JP3777598B2 (en) Information conversion device and method, coefficient calculation device and method, storage device, recording medium, and program
JP2000512827A (en) Inter-image motion evaluation method
JP2000324495A (en) Device and method for converting field frequency
JP3777596B2 (en) Image information conversion device and method, coefficient calculation device and method, storage device, recording medium, and program
JP4595162B2 (en) Image signal processing apparatus and image signal processing method
JP3777593B2 (en) Image processing apparatus and method, recording medium, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090310

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100310

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100310

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110310

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110310

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120310

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130310

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130310

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140310

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees