JP4055487B2 - Image signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, coefficient data generating apparatus and generating method, program for executing each method, and computer-readable recording of the program Medium - Google Patents

Image signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, coefficient data generating apparatus and generating method, program for executing each method, and computer-readable recording of the program Medium Download PDF

Info

Publication number
JP4055487B2
JP4055487B2 JP2002180301A JP2002180301A JP4055487B2 JP 4055487 B2 JP4055487 B2 JP 4055487B2 JP 2002180301 A JP2002180301 A JP 2002180301A JP 2002180301 A JP2002180301 A JP 2002180301A JP 4055487 B2 JP4055487 B2 JP 4055487B2
Authority
JP
Japan
Prior art keywords
data
pixel data
signal
coefficient
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002180301A
Other languages
Japanese (ja)
Other versions
JP2004023760A (en
Inventor
哲二郎 近藤
勉 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002180301A priority Critical patent/JP4055487B2/en
Publication of JP2004023760A publication Critical patent/JP2004023760A/en
Application granted granted Critical
Publication of JP4055487B2 publication Critical patent/JP4055487B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Of Color Television Signals (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、コンポジット信号をコンポーネント信号に変換する際に適用して好適な画像信号の処理装置および処理方法、それに使用される係数種データの生成装置および生成方法、係数データの生成装置および生成方法、並びに各方法を実行するためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な媒体に関する。
【0002】
詳しくは、この発明は、コンポジット信号を直接コンポーネント信号に変換する際に、コンポーネント信号によって得られる画像の色調を定めるパラメータの値に対応して、当該コンポーネント信号における注目位置の画素データを生成する構成とすることによって、コンポーネント信号によって得られる画像の色調を良好に調整できるようにした画像信号処理装置等に係るものである。
【0003】
【従来の技術】
従来のコンポジット−コンポーネント変換は、コンポジット信号である例えばNTSC(National Television System Committee)信号を、まずY/C分離回路にてY信号(輝度信号)とC信号(色信号)とに分離し、その後、C信号を色復調してベースバンドのY,R−Y,B−Yコンポーネント信号に変換するものであった。
【0004】
そのため、処理を行う構成の回路規模が大きくなるという問題があった。また、Y/C分離のエラーに起因して、画像のエッジ部分、動画部分等に、ドット妨害やクロスカラー等の画質劣化が発生しやすいという問題があった。
【0005】
そこで、本出願人は、例えばNTSC信号から、Y,R−Y,B−Yコンポーネント信号における注目位置の周辺に位置する複数の画素データを抽出し、この複数の画素データのレベル分布パターンに基づいて、Y,R−Y,B−Yコンポーネント信号の注目位置の画素データのクラスを決定し、このクラスに対応して当該Y,R−Y,B−Yコンポーネント信号における注目位置の画素データを生成する画像情報変換装置を提案した(特開2000−138949号公報参照)。
【0006】
【発明が解決しようとする課題】
この画像情報変換装置は、例えばNTSC信号を直接Y,R−Y,B−Yコンポーネント信号に変換するものであり、Y/C分離回路や色復調回路を使用するものでなく回路規模を低減でき、またY/C分離のエラーに起因するドット妨害やクロスカラー等の画質劣化を低減できる。
【0007】
しかし、この画像情報変換装置においては、Y,R−Y,B−Yコンポーネント信号による画像の色調の調整については何等考えられていなかった。
【0008】
この発明の目的は、コンポジット信号を直接コンポーネント信号に変換するものにあって、コンポーネント信号によって得られる画像の色調を良好に調整し得る画像信号処理装置等を提供することにある。
【0009】
【課題を解決するための手段】
この発明に係る画像信号処理装置は、複数の画素データからなるコンポジット信号を、複数の画素データからなるコンポーネント信号に変換する画像信号処理装置であって、上記コンポジット信号に基づいて、上記コンポーネント信号における注目位置の周辺に位置する複数の第1の画素データを選択する第1のデータ選択手段と、上記第1のデータ選択手段で選択された複数の第1の画素データに基づいて、上記コンポーネント信号における注目位置の画素データが属するクラスを検出するクラス検出手段と、上記コンポーネント信号によって得られる画像の色調を定めるパラメータの値が入力されるパラメータ入力手段と、上記注目位置の画素データを演算するための推定式で用いられる係数データを生成する上記パラメータを含む生成式における係数データである係数種データを格納する第1の記憶手段と、上記第1の記憶手段に格納されている係数種データと上記パラメータ入力手段により入力されたパラメータの値とを用いて、上記生成式に基づいて、該パラメータの値に対応した各クラスの係数データを生成する係数データ生成手段と、上記係数データ生成手段で生成された上記各クラスの係数データを格納する第2の記憶手段と、上記第2の記憶手段より上記クラス検出手段で検出されたクラスに対応した上記推定式の係数データを読み出して出力する係数データ読み出し手段と、上記コンポジット信号に基づいて、上記コンポーネント信号における注目位置の周辺に位置する複数の第2の画素データを選択する第2のデータ選択手段と、上記係数データ読み出し手段により出力された係数データと上記第2のデータ選択手段で選択された複数の第2の画素データとを用いて、上記推定式に基づいて上記コンポーネント信号における注目位置の画素データを算出して得る演算手段とを備えるものである。
【0011】
またこの発明に係る画像信号処理方法は、複数の画素データからなるコンポジット信号を、複数の画素データからなるコンポーネント信号に変換する画像信号処理方法であって、上記コンポジット信号に基づいて、上記コンポーネント信号における注目位置の周辺に位置する複数の第1の画素データを選択する第1のステップと、上記第1のステップで選択された複数の第1の画素データに基づいて、上記コンポーネント信号における注目位置の画素データが属するクラスを検出する第2のステップと、上記コンポーネント信号によって得られる画像の色調を定めるパラメータの値を取得する第3のステップと、上記注目位置の画素データを演算するための推定式で用いられる係数データを生成する上記パラメータを含む生成式における係数データである係数種データを上記クラス毎に格納する第4のステップと、上記クラス毎に格納された上記係数種データと上記第3のステップで取得したパラメータの値とを用いて、上記生成式に基づいて、該パラメータの値に対応した各クラスの係数データを生成して格納する第5のステップと、上記第5のステップで格納された各クラスの係数データであって、上記第2のステップで検出されたクラスに対応した係数データを読み出して出力する第6のステップと、上記コンポジット信号に基づいて、上記コンポーネント信号における注目位置の周辺に位置する複数の第2の画素データを選択する第7のステップと、上記第6のステップで出力された係数データと上記第7のステップで選択された複数の第2の画素データとを用いて、上記推定式に基づいて上記コンポーネント信号における注目位置の画素データを算出する第8のステップとを備えるものである。
【0012】
またこの発明に係るプログラムは、上述の画像信号処理方法をコンピュータに実行させるためのものである。また、この発明に係るコンピュータ読み取り可能な媒体は、上述のプログラムを記録したものである。
【0013】
この発明においては、コンポジット信号からコンポーネント信号における注目位置の周辺に位置する複数の第1の画素データが選択され、その複数の第1の画素データに基づいて、コンポーネント信号における注目位置の画素データが属するクラスが検出される。例えば、複数の第1の画素データのレベル分布パターンが検出され、このレベル分布パターンに基づいて上記注目位置の画素データが属するクラスが検出される。
【0014】
また、パラメータ入力手段には、コンポーネント信号によって得られる画像の色調を定めるパラメータの値が入力される。上述したように検出されたクラスおよび入力されたパラメータの値に対応して、注目位置の画素データが生成される。
【0015】
例えば、クラス毎に予め求められた推定式で用いられる係数データを生成するための生成式における係数データである係数種データが記憶手段に記憶されており、この係数種データと入力されたパラメータの値とを用いて、検出されたクラスおよび入力されたパラメータの値に対応した推定式の係数データが発生される。また、コンポジット信号からコンポーネント信号における注目位置の周辺に位置する複数の第2の画素データが選択される。これら係数データと複数の第2の画素データとを用いて、推定式に基づいて注目位置の画素データが生成される。
【0016】
また例えば、クラスおよびパラメータの値の組み合わせ毎に予め生成された推定式の係数データが記憶手段に記憶されている。この記憶手段より検出されたクラスおよび入力されたパラメータの値に対応した推定式の係数データが読み出されると共に、コンポジット信号からコンポーネント信号における注目位置の周辺に位置する複数の第2の画素データが選択される。これら係数データと複数の第2の画素データとを用いて、推定式に基づいて注目位置の画素データが生成される。
【0017】
このように、コンポジット信号を直接コンポーネント信号に変換する際に、コンポーネント信号によって得られる画像の色調を定めるパラメータの値に対応して、当該コンポーネント信号における注目位置の画素データを生成する構成とするものであり、コンポーネント信号によって得られる画像の色調を良好に調整できる。
【0018】
また、この発明に係る係数種データ生成装置は、複数の画素データからなるコンポジット信号を複数の画素データからなるコンポーネント信号に変換する際に使用される推定式で用いられる係数データを生成するための生成式における係数データである係数種データを生成する装置であって、上記生成式におけるパラメータに対応し、上記コンポジット信号に対応する生徒信号または上記コンポーネント信号に対応する教師信号によって得られる画像の色調を定めるパラメータの値が入力されるパラメータ入力手段と、上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択する第1のデータ選択手段と、上記第1のデータ選択手段で選択された複数の第1の画素データに基づいて、上記教師信号における注目位置の画素データが属するクラスを検出するクラス検出手段と、上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の画素データを選択する第2のデータ選択手段と、上記クラス検出手段で検出されたクラス、上記第2のデータ選択手段で選択された複数の第2の画素データ上記教師信号における注目位置の画素データ及び上記パラメータ入力手段で入力されたパラメータの値を用いて、クラス毎に、上記係数種データを求める演算手段とを備えるものである。
【0019】
また、この発明に係る係数種データ生成方法は、複数の画素データからなるコンポジット信号を複数の画素データからなるコンポーネント信号に変換する際に使用される推定式で用いられる係数データを生成するための生成式における係数データである係数種データを生成する方法であって、上記生成式におけるパラメータに対応し、上記コンポジット信号に対応する生徒信号または上記コンポーネント信号に対応する教師信号によって得られる画像の色調を定めるパラメータの値を取得する第1のステップと、上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択する第2のステップと、上記第2のステップで選択された複数の第1の画素データに基づいて、上記教師信号における注目位置の画素データが属するクラスを検出する第3のステップと、上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の画素データを選択する第4のステップと、上記第3のステップで検出されたクラス、上記第4のステップで選択された複数の第2の画素データ上記教師信号における注目位置の画素データ及び上記第1のステップで取得したパラメータの値を用いて、クラス毎に、上記係数種データを求める第5のステップとを備えるものである。
【0020】
また、この発明に係るプログラムは、上述の係数種データ生成方法をコンピュータに実行させるためのものである。また、この発明に係るコンピュータ読み取り可能な媒体は、上述のプログラムを記録したものである。
【0021】
この発明においては、コンポジット信号に対応する生徒信号またはコンポーネント信号に対応する教師信号によって得られる画像の色調を定めるパラメータの値が入力される。
【0022】
生徒信号から、教師信号における注目位置の周辺に位置する複数の第1の画素データが選択され、その複数の第1の画素データに基づいて、教師信号における注目位置の画素データが属するクラスが検出される。また、この生徒信号から、教師信号における注目位置の周辺に位置する複数の第2の画素データが選択される。
【0023】
そして、入力されるパラメータの値が段階的に変更されていき、教師信号に係る注目位置の画素データが属するクラス、選択された複数の第2の画素データ教師信号における注目位置の画素データ及び入力されたパラメータの値を用いて、クラス毎に、係数種データが求められる。
【0024】
ここで、係数種データは、コンポジット信号からコンポーネント信号に変換する際に使用される推定式で用いられる係数データを生成する、上記パラメータを含む生成式における係数データである。この係数種データを使用することで、生成式によって、任意に調整されたパラメータの値に対応した係数データを得ることが可能となる。これにより、ユーザは、推定式を使用してコンポジット信号から直接コンポーネント信号に変換する場合に、パラメータの値を調整することで、コンポーネント信号によって得られる画像の色調を良好に調整できる。
【0025】
また、この発明に係る係数データ生成装置は、複数の画素データからなるコンポジット信号を複数の画素データからなるコンポーネント信号に変換する際に使用される推定式の係数データを生成する装置であって、上記推定式で用いられる係数データを生成するための生成式に含まれるパラメータに対応し、上記コンポジット信号に対応する生徒信号または上記コンポーネント信号に対応する教師信号によって得られる画像の色調を定めるパラメータの値が入力されるパラメータ入力手段と、上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択する第1のデータ選択手段と、上記第1のデータ選択手段で選択された複数の第1の画素データに基づいて、上記教師信号における注目位置の画素データが属するクラスを検出するクラス検出手段と、上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の画素データを選択する第2のデータ選択手段と、上記クラス検出手段で検出されたクラス、上記第2のデータ選択手段で選択された複数の第2の画素データ上記教師信号における注目位置の画素データ及び上記パラメータ入力手段で入力されたパラメータの値を用いて、上記クラス毎に、上記生成式における係数データである係数種データを求め、当該係数種データと上記パラメータの値とを含む上記生成式によって、上記推定式で用いられる係数データを求める演算手段とを備えるものである。
【0026】
また、この発明に係る係数データ生成方法は、複数の画素データからなるコンポジット信号を複数の画素データからなるコンポーネント信号に変換する際に使用される推定式の係数データを生成する方法であって、上記推定式で用いられる係数データを生成するための生成式に含まれるパラメータに対応し、上記コンポジット信号に対応する生徒信号または上記コンポーネント信号に対応する教師信号によって得られる画像の色調を定めるパラメータの値を取得する第1のステップと、上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択する第2のステップと、上記第2のステップで選択された複数の第1の画素データに基づいて、上記教師信号における注目位置の画素データが属するクラスを検出する第3のステップと、上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の画素データを選択する第4のステップと、上記第3のステップで検出されたクラス、上記第4のステップで選択された複数の第2の画素データ上記教師信号における注目位置の画素データ及び上記パラメータ入力手段で入力されたパラメータの値を用いて、上記クラス毎に、上記生成式における係数データである係数種データを求め、当該係数種データと上記パラメータの値とを含む上記生成式によって、上記推定式で用いられる係数データを求める第5のステップとを備えるものである。
【0027】
また、この発明に係るプログラムは、上述の係数データ生成方法をコンピュータに実行させるためのものである。また、この発明に係るコンピュータ読み取り可能な媒体は、上述のプログラムを記録したものである。
【0028】
この発明においては、コンポジット信号に対応する生徒信号またはコンポーネント信号に対応する教師信号によって得られる画像の色調を定めるパラメータの値が入力される。
【0029】
生徒信号から、教師信号における注目位置の周辺に位置する複数の第1の画素データが選択され、その複数の第1の画素データに基づいて、教師信号における注目位置の画素データが属するクラスが検出される。また、この生徒信号から、教師信号における注目位置の周辺に位置する複数の第2の画素データが選択される。
【0030】
そして、入力されるパラメータの値が段階的に変更されていき、教師信号における注目位置の画素データが属するクラス、選択された複数の第2の画素データおよび教師信号における注目位置の画素データを用いて、クラスおよびパラメータの値の組み合わせ毎に、係数データが求められる。
【0031】
上述したようにしてコンポジット信号をコンポーネント信号に変換する際に使用される推定式の係数データが生成される。コンポジット信号からコンポーネント信号に変換する際には、コンポーネント信号における注目位置の画素データが属するクラスおよび調整されたパラメータの値に対応した係数データが選択的に使用され、推定式により、注目位置の画素データが算出される。これにより、推定式を使用してコンポジット信号から直接コンポーネント信号に変換する場合に、パラメータの値を調整することで、コンポーネント信号によって得られる画像の色調を良好に調整できる。
【0032】
【発明の実施の形態】
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としてのテレビ受信機100の構成を示している。
テレビ受信機100は、マイクロコンピュータを備え、システム全体の動作を制御するためのシステムコントローラ101と、リモートコントロール信号を受信するリモコン信号受信回路102とを有している。リモコン信号受信回路102は、システムコントローラ101に接続され、リモコン送信機200よりユーザの操作に応じて出力されるリモートコントロール信号RMを受信し、その信号RMに対応する操作信号をシステムコントローラ101に供給するように構成されている。
【0033】
また、テレビ受信機100は、受信アンテナ105と、この受信アンテナ105で捕らえられた放送信号(RF変調信号)が供給され、選局処理、中間周波増幅処理、検波処理等を行って、コンポジット信号としてのNTSC信号を得るチューナ106と、このチューナ106より出力されるNTSC信号を一時的に格納するバッファメモリ108とを有している。
【0034】
また、テレビ受信機100は、NTSC信号を輝度信号Y、色差信号R−Y,B−Yからなるコンポーネント信号(Y,R−Y,B−Yコンポーネント信号)に変換する画像信号処理部110と、この画像信号処理部110より出力されるY,R−Y,B−Yコンポーネント信号による画像を表示するディスプレイ部111と、このディスプレイ部111の画面上に文字図形等の表示を行うための表示信号SCHを発生させるためのOSD(On Screen Display)回路112と、その表示信号SCHを、上述した画像信号処理部110より出力されるY,R−Y,B−Yコンポーネント信号に合成してディスプレイ部111に供給するための合成器113とを有している。
【0035】
ディスプレイ部111は、例えばCRT(cathode-ray tube)ディスプレイ、あるいはLCD(liquid crystal display)等のフラットパネルディスプレイで構成されている。また、OSD回路112における表示信号SCHの発生動作は、システムコントローラ101によって制御される。
【0036】
図1に示すテレビ受信機100の動作を説明する。
チューナ106より出力されるNTSC信号は、バッファメモリ108に供給されて一時的に格納される。そして、このバッファメモリ108に一時的に格納されたNTSC信号は画像信号処理部110に供給され、Y,R−Y,B−Yコンポーネント信号に変換される。
【0037】
すなわち、画像信号処理部110では、NTSC信号を構成する画素データから、輝度信号Y、色差信号R−Y,B−Yのそれぞれを構成する画素データが得られる。この画像信号処理部110より出力されるY,R−Y,B−Yコンポーネント信号はディスプレイ部111に供給され、このディスプレイ部111の画面上にはそのY,R−Y,B−Yコンポーネント信号による画像が表示される。
【0038】
ユーザは、リモコン送信機200の操作によって、上述したようにディスプレイ部111の画面上に表示される画像の色調を調整できる。画像信号処理部110では、後述するように、輝度信号Y、色差信号R−Y,B−Yの画素データが推定式によって算出される。この推定式の係数データとして、ユーザのリモコン送信機200の操作によって調整された、Y,R−Y,B−Yコンポーネント信号による画像の色調を定めるパラメータpに対応したものが、このパラメータpを含む生成式によって生成されて使用される。これにより、画像信号処理部110より出力されるY,R−Y,B−Yコンポーネント信号による画像の色調は、調整されたパラメータpに対応したものとなる。
【0039】
次に、画像信号処理部110の詳細を説明する。この画像信号処理部110は、バッファメモリ108に格納されているNTSC信号より、Y,R−Y,B−Yコンポーネント信号における注目位置の周辺に位置する複数の画素データを選択的に取り出して出力する第1、第2のタップ選択回路121,122を有している。
【0040】
第1のタップ選択回路121は、予測に使用する予測タップの複数の画素データを選択的に取り出すものである。第2のタップ選択回路122は、クラス分類に使用するクラスタップの複数の画素データを選択的に取り出すものである。予測タップおよびクラスタップの画素データは、それぞれY,R−Y,B−Yコンポーネント信号における注目位置の周辺に位置する画素データである。
【0041】
ここで、注目位置の周辺とは、注目位置に対して空間的(水平方向、垂直方向)および時間的(フレーム方向)に近い位置であることを意味している。
【0042】
図2Aは予測タップの配置の一例を示し、図2Bはクラスタップの配置の一例を示している。これらの図2A,Bにおいて、「○」はタップの位置を示し、「×」は注目位置を示している。この例では、現フィールド(実線図示)と前フィールド(破線図示)における7個の画素データが、予測タップの画素データとして取り出され、また現フィールド(実線図示)と前フィールド(破線図示)における13個の画素データが、クラスタップの画素データとして取り出される。
【0043】
図1に戻って、また、画像信号処理部110は、第2のタップ選択回路122で選択的に取り出されるクラスタップの画素データから特徴量を抽出する特徴量抽出部123を有している。特徴量抽出部123では、クラスタップの画素データに1ビットのADRC(Adaptive Dynamic Range Coding)等の処理を施すことによって、ADRCコード等のクラス情報を生成する。
【0044】
ADRCは、クラスタップの複数の画素データの最大値および最小値を求め、最大値と最小値の差であるダイナミックレンジを求め、ダイナミックレンジに適応して各画素値を再量子化するものである。1ビットのADRCの場合、クラスタップの複数の画素値の平均値より大きいか、小さいかでその画素値が1ビットに変換される。ADRC処理は、画素値のレベル分布を表すクラスの数を比較的小さなものにするための処理である。したがって、ADRCに限らず、VQ(ベクトル量子化)等の画素値のビット数を圧縮する符号化を使用するようにしてもよい。
【0045】
また、画像信号処理部110は、特徴量抽出部123で生成されるクラス情報(ADRCコード等)に基づいて、クラス分類の結果を示すクラスコードCLを生成するクラスコード生成部125を有している。
【0046】
また、画像信号処理部110は、係数メモリ126を有している。この係数メモリ126は、後述する推定予測演算回路127で使用される推定式で用いられる係数データWi(i=1〜n)を、クラス毎に、格納するものである。この係数データWiは、NTSC信号をY,R−Y,B−Yコンポーネント信号に変換するための情報である。係数メモリ126には、輝度信号Y、色差信号R−Y,B−Yのそれぞれを得るための係数データWiが存在する。
【0047】
係数メモリ126には上述したクラスコード生成部125より出力されるクラスコードCLが読み出しアドレス情報として供給される。この係数メモリ126からはクラスコードCLに対応した推定式の係数データWi(輝度信号Y、色差信号R−Y,B−Yの各信号分)が読み出されて、推定予測演算回路127に供給される。
【0048】
また、画像信号処理部110は、情報メモリバンク128を有している。推定予測演算回路127では、予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとから、(1)式の推定式によって、輝度信号Y、色差信号R−Y,B−Yのそれぞれにおける注目位置の画素データyが演算される。(1)式のnは、第1のタップ選択回路121で選択される予測タップの数を表している。
【0049】
【数1】

Figure 0004055487
【0050】
この推定式の係数データWiは、(2)式に示すように、パラメータpを含む生成式によって生成される。情報メモリバンク128には、この生成式における係数データである係数種データwi0〜wi3が、クラス毎に、格納されている。
Wi=wi0+wi1p+wi22+wi33 ・・・(2)
【0051】
また、画像信号処理部110は、各クラスの係数種データwi0〜wi3(輝度信号Y、色差信号R−Y,B−Yの各信号分)およびパラメータpの値とを用い、(2)式によって、クラス毎に、パラメータpの値に対応した推定式の係数データWi(輝度信号Y、色差信号R−Y,B−Yの各信号分)を生成する係数生成回路129を有している。この係数生成回路129には、情報メモリバンク128より、上述した各クラスの係数種データwi0〜wi3がロードされる。また、この係数生成回路129には、システムコントローラ101より、パラメータpの値が供給される。
【0052】
この係数生成回路129で生成される各クラスの係数データWi(i=1〜n)は、上述した係数メモリ126に格納される。この係数生成回路129における各クラスの係数データWiの生成は、例えば各垂直ブランキング期間で行われる。これにより、ユーザのリモコン送信機200の操作によってパラメータpの値が変更されても、係数メモリ126に格納される各クラスの係数データWiを、そのパラメータpの値に対応したものに即座に変更でき、ユーザによる色調の調整がスムーズに行われる。
【0053】
また、画像信号処理部110は、第1のタップ選択回路121で選択的に取り出される予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとから、輝度信号Y、色差信号R−Y,B−Yのそれぞれにおける注目位置の画素データyを演算する推定予測演算回路127を有している。
【0054】
次に、画像信号処理部110の動作を説明する。
バッファメモリ108に格納されているNTSC信号より、第2のタップ選択回路122で、Y,R−Y,B−Yコンポーネント信号における注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部123に供給される。この特徴量抽出部123では、クラスタップの画素データに1ビットのADRC等の処理が施されて、ADRC等のクラス情報が生成される。
【0055】
そして、特徴量抽出部123で生成されるクラス情報(ADRCコード等)はクラスコード生成部125に供給される。このクラスコード生成部125では、このクラス情報に基づいて、クラス分類の結果を示すクラスコードCLが生成される。
【0056】
このクラスコードCLは、Y,R−Y,B−Yコンポーネント信号における注目位置の画素データが属するクラスの検出結果を表している。このクラスコードCLは、係数メモリ126に読み出しアドレス情報として供給される。係数メモリ126には、例えば各垂直ブランキング期間に、係数生成回路129で、ユーザによって調整されたパラメータpの値に対応して、クラス毎に、係数種データwi0〜wi3(輝度信号Y、色差信号R−Y,B−Yの各信号分)を用いて推定式の係数データWi(i=1〜n)が(2)色差信号の生成式に基づいて求められて格納される。
【0057】
係数メモリ126に上述したようにクラスコードCLが読み出しアドレス情報として供給されることで、この係数メモリ126からクラスコードCLに対応した係数データWi(輝度信号Y、色差信号R−Y,B−Yの各信号分)が読み出されて、推定予測演算回路127に供給される。また、バッファメモリ108に格納されているNTSC信号より、第1のタップ選択回路121で、Y,R−Y,B−Yコンポーネント信号における注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0058】
推定予測演算回路127では、予測タップの画素データxiと、係数メモリ126より読み出される係数データWiとを用いて、(1)式の推定式に基づいて、輝度信号Y、色差信号R−Y,B−Yのそれぞれにおける注目位置の画素データyが演算される。したがって、ユーザは、パラメータpの値を調整することで、Y,R−Y,B−Yコンポーネント信号による画像の色調を良好に調整できる。
【0059】
次に、係数種データの生成方法の一例について説明する。この例においては、上述した(2)式の生成式における係数データである係数種データwi0〜wi3を求める例を示すものとする。
【0060】
ここで、以下の説明のため、(3)式のように、tj(j=0〜3)を定義する。
0=1,t1=p,t2=p2,t3=p3 ・・・(3)
この(3)式を用いると、(2)式は、(4)式のように書き換えられる。
【0061】
【数2】
Figure 0004055487
【0062】
最終的に、学習によって未定係数wijを求める。すなわち、クラス毎に、NTSC信号に対応する生徒信号の画素データと、Y,R−Y,B−Yコンポーネント信号に対応する教師信号の画素データとを用いて、二乗誤差を最小にする係数値を決定する。いわゆる最小二乗法による解法である。学習数をm、k(1≦k≦m)番目の学習データにおける残差をek、二乗誤差の総和をEとすると、(1)式および(2)式を用いて、Eは(5)式で表される。ここで、xikは生徒信号のi番目の予測タップ位置におけるk番目の画素データ、ykはそれに対応するk番目の教師信号の画素データを表している。
【0063】
【数3】
Figure 0004055487
【0064】
最小二乗法による解法では、(5)式のwijによる偏微分が0になるようなwijを求める。これは、(6)式で示される。
【0065】
【数4】
Figure 0004055487
【0066】
以下、(7)式、(8)式のように、Xipjq、Yipを定義すると、(6)式は、(9)式のように行列を用いて書き換えられる。
【0067】
【数5】
Figure 0004055487
【0068】
【数6】
Figure 0004055487
【0069】
この方程式は一般に正規方程式と呼ばれている。この正規方程式は、掃き出し法(Gauss-Jordanの消去法)等を用いて、wijについて解かれ、係数種データが算出される。
【0070】
図3は、上述した係数種データの生成方法の一例の概念を示している。Y,R−Y,B−Yコンポーネント信号から、NTSC信号に対応した複数の生徒信号を生成する。例えば、パラメータpを9段階に可変して、9種類の生徒信号を生成する。このようにして生成された複数の生徒信号と教師信号との間で学習を行って係数種データを生成する。
【0071】
図4は、上述したデジタル放送受信機100の情報メモリバンク128に格納される係数種データwi0〜wi3を生成するための係数種データ生成装置150の構成を示している。
【0072】
この係数種データ生成装置150は、Y,R−Y,B−Yコンポーネント信号に対応した教師信号STが入力される入力端子151と、この教師信号STに対して色調変換処理を施す色調変換回路152とを有している。この色調変換回路152には、パラメータpの値が入力される。
【0073】
この色調変換回路152では、パラメータpの値に対応して、色調(色相、彩度等)が変化するように、Y,R−Y,B−Yコンポーネント信号に処理が施される。例えば、R−Y軸、B−Y軸の角度を変えて色差信号R−Y,B−Yの値を変化させることで、青みがかったものから赤みがかったものといった色相の変化を実現できる。
【0074】
また、係数種データ生成装置150は、色調変換回路152で処理された後のY,R−Y,B−Yコンポーネント信号に対してエンコード処理を施して、生徒信号SSとしてのNTSC信号を得るNTSCエンコーダ153を有している。
【0075】
また、係数種データ生成装置150は、NTSCエンコーダ153より出力される生徒信号SSより、教師信号STにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力する第1のタップ選択回路154および第2のタップ選択回路155を有している。これら第1、第2のタップ選択回路154,155は、それぞれ上述した画像信号処理部110の第1,第2のタップ選択回路121,122と同様に構成される。
【0076】
また、係数種データ生成装置150は、第2のタップ選択回路155で選択的に取り出されるクラスタップの画素データから特徴量を抽出する特徴量抽出部156を有している。この特徴量抽出部156は、上述した画像信号処理部110の特徴量抽出部123と同様に構成され、ADRCコード等のクラス情報を生成する。
【0077】
また、係数種データ生成装置150は、特徴量抽出部156で生成されるクラス情報(ADRCコード等)に基づいて、クラス分類の結果を示すクラスコードCLを生成するクラスコード生成部158を有している。このクラスコード生成部158は、上述した画像信号処理部110のクラスコード生成部125と同様に構成される。このクラスコードCLは、教師信号STにおける注目位置の画素データyの属するクラスを示すものである。
【0078】
また、係数種データ生成装置150は、入力端子151に供給される教師信号STの時間調整を行うための遅延回路159と、この遅延回路159で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路154で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとから、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((9)式参照)を生成する正規方程式生成部160を有している。
【0079】
この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成されるが、パラメータpの値に応じてNTSCエンコーダ153で複数の生徒信号SSが順次生成されていき、教師信号と各生徒信号との間でそれぞれ学習データの生成が行われる。これにより、正規方程式生成部160では、パラメータpの複数の値に係る多くの学習データが登録された正規方程式が生成され、係数種データwi0〜wi3を求めることが可能となる。
【0080】
なお、係数種データwi0〜wi3として、教師信号STを構成する輝度信号Y、色差信号R−Y,B−Yのそれぞれに対応したものを得る必要がある。したがって、正規方程式生成部160では、クラス毎に、輝度信号Y、色差信号R−Y,B−Yのそれぞれに対応して正規方程式が生成される。この場合、輝度信号Yに対応した正規方程式は、注目位置の画素データyとして輝度信号Yの画素データを用いることで生成される。同様に、色差信号R−Y,B−Yのそれぞれに対応した正規方程式は、注目位置の画素データyとして色差信号R−Y,B−Yの画素データを用いることで生成される。
【0081】
また、係数種データ生成装置150は、正規方程式生成部160で、クラス毎に生成された正規方程式のデータが供給され、当該正規方程式を解いて、クラス毎に、係数種データwi0〜wi3を求める係数種データ決定部161と、この求められた係数種データを格納する係数種メモリ162とを有している。係数種データ決定部161では、正規方程式が例えば掃き出し法などによって解かれて、係数種データが求められる。
【0082】
図4に示す係数種データ生成装置150の動作を説明する。
入力端子151には、教師信号STとしてのY,R−Y,B−Yコンポーネント信号が供給される。このY,R−Y,B−Yコンポーネント信号は色調変換回路152に供給される。この色調変換回路152には、パラメータpの値が入力される。色調変換回路152は、パラメータpの値に対応して、色調(色相、彩度等)が変化するように、Y,R−Y,B−Yコンポーネント信号に処理を施す。
【0083】
このように色調変換回路152で処理されたY,R−Y,B−Yコンポーネント信号はNTSCエンコーダ153に供給される。NTSCエンコーダ153は、Y,R−Y,B−Yコンポーネント信号にエンコード処理を施して生徒信号SSとしてのNTSC信号を生成する。
【0084】
また、NTSCエンコーダ153より出力される生徒信号SSより、第2のタップ選択回路155で、教師信号STにおける注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部156に供給される。この特徴量抽出部156は、クラスタップの画素データに基づいて、ADRCコード等のクラス情報を生成する。
【0085】
そして、特徴量抽出部156で生成されるクラス情報(ADRCコード等)はクラスコード生成部158に供給される。このクラスコード生成部158では、クラス情報に基づいて、教師信号STにおける注目位置の画素データyが属するクラス(クラス分類の結果)を示すクラスコードCLが生成される。
【0086】
また、NTSCエンコーダ153より出力される生徒信号SSより、第1のタップ選択回路154で、教師信号STにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0087】
そして、遅延回路159で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路154で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとを用いて、正規方程式生成部160では、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((9)式参照)が生成される。
【0088】
そして、係数種データ決定部161で各正規方程式が解かれ、各クラスの係数種データwi0〜wi3(輝度信号Y、色差信号R−Y,B−Yの各信号分)が求められ、それらの係数種データwi0〜wi3は係数種メモリ162に格納される。
【0089】
このように、図4に示す係数種データ生成装置150においては、図1の画像信号処理部110の情報メモリバンク128に格納される、クラス毎の、推定式((1)式参照)で用いられる係数データWiを求めるための生成式((2)式参照)における係数データである係数種データwi0〜wi3を生成することができる。
【0090】
次に、係数種データの生成方法の他の例について説明する。この例においても、上述した(2)式の生成式における係数データである係数種データwi0〜wi3を求める例を示すものとする。
【0091】
図5は、この例の概念を示している。教師信号から複数の生徒信号を生成する。例えば、パラメータpの値を9段階に可変して、9種類の生徒信号を生成する。このようにして生成された各生徒信号と教師信号との間で学習を行って、パラメータpの各値毎に、(1)式の推定式の係数データWiを生成する。そして、パラメータpの各値に対応して生成された係数データWiを使用して、(2)式の生成式における係数データである係数種データwi0〜wi3を生成する。
【0092】
まず、推定式の係数データの求め方を説明する。ここでは、(1)式の推定式の係数データWi(i=1〜n)を最小二乗法により求める例を示すものとする。
【0093】
上述の、(1)式において、学習前は係数データW1 ,W2,‥‥,Wn は未定係数である。学習は、クラス毎に、複数の信号データに対して行う。学習データ数がmの場合、(1)式に従って、以下に示す(12)式が設定される。nは予測タップの数を示している。
【0094】
k =W1 ×xk1+W2 ×xk2+‥‥+Wn ×xkn ・・・(10)
(k=1,2,‥‥,m)
m>nの場合、係数データW1 ,W2,‥‥,Wnは、一意に決まらないので、誤差ベクトルeの要素ekを、以下の式(11)で定義して、(12)式のe2を最小にする係数データを求める。いわゆる最小2乗法によって係数データを一意に定める。
k=yk−{w1×xk1+w2×xk2+‥‥+wn×xkn} ・・・(11)
(k=1,2,‥‥m)
【0095】
【数7】
Figure 0004055487
【0096】
(12)式のe2を最小とする係数データを求めるための実際的な計算方法としては、まず、(13)式に示すように、e2を係数データWi(i=1,2,・・・,n)で偏微分し、iの各値について偏微分値が0となるように係数データWiを求めればよい。
【0097】
【数8】
Figure 0004055487
【0098】
(13)式から係数データWiを求める具体的な手順について説明する。(14)式、(15)式のようにXji,Yi を定義すると、(13)式は、(16)式の行列式の形に書くことができる。
【0099】
【数9】
Figure 0004055487
【0100】
【数10】
Figure 0004055487
【0101】
(16)式は、一般に正規方程式と呼ばれるものである。この正規方程式を掃き出し法(Gauss-Jordanの消去法)等の一般解法で解くことにより、係数データWi(i=1,2,・・・,n)を求めることができる。
【0102】
次に、各生徒信号に対応して生成された係数データWiを使用した、係数種データの求め方を説明する。
パラメータpの値に対応した生徒信号を用いた学習による、あるクラスの係数データが、kpiになったとする。ここで、iは予測タップの番号である。このkpiから、このクラスの係数種データを求める。
【0103】
係数データWi(i=1〜n)は、係数種データwi0〜wi3を使って、上述した(2)式で表現される。ここで、係数データWiに対して最小二乗法を使用することを考えると、残差は、(17)式で表される。
【0104】
【数11】
Figure 0004055487
【0105】
ここで、tjは、上述の(3)式に示されている。(17)式に最小二乗法を作用させると、(18)式が得られる。
【0106】
【数12】
Figure 0004055487
【0107】
ここで、Xjk,Yjをそれぞれ(19)式、(20)式のように定義すると、(18)式は(21)式のように書き換えられる。この(21)式も正規方程式であり、この式を掃き出し法等の一般解法で解くことにより、係数種データwi0〜wi3を算出することができる。
【0108】
【数13】
Figure 0004055487
【0109】
図6は、図5に示す概念に基づいて係数種データを生成する係数種データ生成装置150Aの構成を示している。この図6において、図4と対応する部分には同一符号を付し、その詳細説明は省略する。
【0110】
係数種データ生成装置150Aは、遅延回路159で時間調整された教師信号STより得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路154で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとから、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式((16)式参照)を生成する正規方程式生成部163を有している。
【0111】
この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成されるが、パラメータpの値に応じてNTSCエンコーダ153で複数の生徒信号SSが順次生成されていき、教師信号と各生徒信号との間でそれぞれ学習データの生成が行われる。これにより、正規方程式生成部163では、パラメータpの各値にそれぞれに対応して、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式が生成される。
【0112】
なお、係数データWiとして、教師信号STを構成する輝度信号Y、色差信号R−Y,B−Yのそれぞれに対応したものを得る必要がある。したがって、正規方程式生成部163では、クラス毎に、輝度信号Y、色差信号R−Y,B−Yのそれぞれに対応して正規方程式が生成される。この場合、輝度信号Yに対応した正規方程式は、注目位置の画素データyとして輝度信号Yの画素データを用いることで生成される。同様に、色差信号R−Y,B−Yのそれぞれに対応した正規方程式は、注目位置の画素データyとして色差信号R−Y,B−Yの画素データを用いることで生成される。
【0113】
また、係数種データ生成装置150Aは、正規方程式生成部163で生成された正規方程式のデータが供給され、その正規方程式を解いて、パラメータpの各値にそれぞれ対応した、各クラスの係数データWiを求める係数データ決定部164と、パラメータpの値および各生徒信号にそれぞれ対応した係数データWiとを使用して、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((21)式参照)を生成する正規方程式生成部165とを有している。この場合も、輝度信号Y、色差信号R−Y,B−Yのそれぞれに対応して正規方程式が生成される。
【0114】
また、係数種データ生成装置150Aは、正規方程式生成部165でクラス毎に生成された正規方程式のデータが供給され、クラス毎に正規方程式を解いて、各クラスの係数種データwi0〜wi3を求める係数種データ決定部166と、この求められた係数種データwi0〜wi3を格納する係数種メモリ162とを有している。
【0115】
図6に示す係数種データ生成装置150Aのその他は、図4に示す係数種データ生成装置150と同様に構成される。
【0116】
次に、図6に示す係数種データ生成装置150Aの動作を説明する。
入力端子151には、教師信号STとしてのY,R−Y,B−Yコンポーネント信号が供給される。このY,R−Y,B−Yコンポーネント信号は色調変換回路152に供給される。この色調変換回路152には、パラメータpの値が入力される。色調変換回路152は、パラメータpの値に対応して、色調(色相、彩度等)が変化するように、Y,R−Y,B−Yコンポーネント信号に処理を施す。
【0117】
このように色調変換回路152で処理されたY,R−Y,B−Yコンポーネント信号はNTSCエンコーダ153に供給される。NTSCエンコーダ153は、Y,R−Y,B−Yコンポーネント信号にエンコード処理を施して生徒信号SSとしてのNTSC信号を生成する。
【0118】
また、NTSCエンコーダ153より出力される生徒信号SSより、第2のタップ選択回路155で、教師信号STにおける注目位置の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データは特徴量抽出部156に供給される。この特徴量抽出部156は、クラスタップの画素データに基づいて、ADRCコード等のクラス情報を生成する。
【0119】
そして、特徴量抽出部156で生成されるクラス情報(ADRCコード等)はクラスコード生成部158に供給される。このクラスコード生成部158では、クラス情報に基づいて、教師信号STにおける注目位置の画素データyが属するクラス(クラス分類の結果)を示すクラスコードCLが生成される。
【0120】
また、NTSCエンコーダ153より出力される生徒信号SSより、第1のタップ選択回路154で、教師信号STにおける注目位置の周辺に位置する予測タップの画素データが選択的に取り出される。
【0121】
そして、遅延回路159で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路154で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとを用いて、正規方程式生成部163では、パラメータpの各値にそれぞれ対応した各生徒信号SSについて、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式((16)式参照)が生成される。
【0122】
そして、係数データ決定部164でその正規方程式が解かれ、パラメータpの各値にそれぞれ対応した、各クラスの係数データWiが求められる。正規方程式生成部165では、このパラメータpの各値にそれぞれ対応した各クラスの係数データWiを用いて、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((21)式参照)が生成される。
【0123】
そして、係数種データ決定部166でその正規方程式が解かれ、各クラスの係数種データwi0〜wi3(輝度信号Y、色差信号R−Y,B−Yの各信号分)が求められ、その係数種データwi0〜wi3は係数種メモリ162に格納される。
【0124】
このように、図6に示す係数種データ生成装置150Aにおいても、図1の画像信号処理部110の情報メモリバンク128に格納される、各クラスの係数種データwi0〜wi3を生成することができる。
【0125】
なお、図4、図6に示す係数種データ生成装置150,150Aにおいては、入力端子151に供給される教師信号STとしてのY,R−Y,B−Yコンポーネント信号に対して色調変換回路152で、パラメータpの値に対応して、色調が変化するように処理を施し、NTSCエンコーダ153からパラメータpの複数の値にそれぞれ対応した複数の生徒信号SSとしてのNTSC信号を得、1つの教師信号STと複数の生徒信号SSとの間での学習によって係数種データwi0〜wi3を得るものを示した。
【0126】
しかし、これとは逆に複数の教師信号STと1つの生徒信号SSとの間での学習によっても、同様に係数種データwi0〜wi3を求めることができる。図7は、その場合における、係数種データ生成装置150Bの構成を示している。この図7において、図4と対応する部分には同一符号を付し、その詳細説明は省略する。
【0127】
この係数種データ生成装置150Bでは、入力端子151に供給されるY,R−Y,B−Yコンポーネント信号は直接NTSCエンコーダ153に供給される。そして、NTSCエンコーダ153で、Y,R−Y,B−Yコンポーネント信号にエンコード処理が施されて生徒信号SSとしてのNTSC信号が生成される。
【0128】
また、係数種データ生成装置150Bでは、入力端子151に供給されるY,R−Y,B−Yコンポーネント信号は色調変換回路157に供給される。この色調変換回路157には、パラメータpの値も供給される。この色調変換回路157では、パラメータpの値に対応して、色調(色相、彩度等)が変化するように、Y,R−Y,B−Yコンポーネント信号に処理が施される。色調変換回路157から、パラメータpの複数の値にそれぞれ対応した複数の教師信号STとしてのY,R−Y,B−Yコンポーネント信号が得られる。
【0129】
そして、正規方程式生成部160では、色調変換回路157より出力される教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して第1のタップ選択回路154で選択的に取り出される予測タップの画素データxiと、パラメータpの値と、各注目位置の画素データyにそれぞれ対応してクラスコード生成部158で生成されるクラスコードCLとが用いられて、クラス毎に、係数種データwi0〜wi3を得るための正規方程式((9)式参照)が生成される。
【0130】
その他の構成は図4に示す係数種データ生成装置150と同様である。なお、生徒信号SSと教師信号STとの間の時間調整は、例えば色調変換回路157内に設けられる遅延回路(図示せず)により行われる。
【0131】
このように、図7に示す係数種データ生成装置150Bの正規方程式生成部160では、複数の教師信号STと1つの生徒信号SSとの間での学習によって正規方程式が生成され、図4の係数種データ生成装置150と同様に、係数種データwi0〜wi3を生成することができる。
【0132】
また、図4、図6、図7に示す係数種データ生成装置150,150A,150Bは、色調変換回路152あるいは色調変換回路157を備えており、これにより複数の生徒信号SSまたは複数の教師信号STを生成するものであった。しかし、パラメータpの値に対応した複数の生徒信号SSまたは複数の教師信号STを外部から入力するようにしてもよい。図8は、その場合における、係数種データ生成装置150Cの構成を示している。この図7において、図4と対応する部分には同一符号を付し、その詳細説明は省略する。
【0133】
この係数種データ生成装置150Cでは、入力端子151Tおよび入力端子151SにY,R−Y,B−Yコンポーネント信号が入力される。これら入力端子151Tまたは入力端子151Sに入力されるY,R−Y,B−Yコンポーネント信号は、パラメータpの値に対応して色調が変化したものとされる。これら入力端子151T,151Sの一方に入力されるY,R−Y,B−Yコンポーネント信号は、例えば同一のビデオカメラで撮像されて得られたものである。パラメータpの値に対応して色調が変化したものを得るために、例えばビデオカメラに内蔵する色調変換回路で色調変換処理を行い、あるいは撮像環境を変化させて撮像を行う。
【0134】
入力端子151Tに入力されるY,R−Y,B−Yコンポーネント信号は教師信号STとなる。また、入力端子151Sに入力されるY,R−Y,B−Yコンポーネント信号はNTSCエンコーダ153に供給される。そして、このNTSCエンコーダ153で、Y,R−Y,B−Yコンポーネント信号にエンコード処理が施されて生徒信号SSとしてのNTSC信号が生成される。
その他の構成は図4に示す係数種データ生成装置150と同様である。
【0135】
図8に示す係数種データ生成装置150Cの正規方程式生成部160では、1つの教師信号STと複数の生徒信号SSとの間での学習によって、あるいは複数の教師信号STと1つの生徒信号SSとの間での学習によって、正規方程式が生成され、図4の係数種データ生成装置150あるいは図7の係数種データ生成装置150Bと同様に、係数種データwi0〜wi3を生成することができる。
【0136】
なお、図7の係数種データ生成装置150Bおよび図8の係数種データ生成装置150Cはそれぞれ図4に示す係数種データ生成装置150をベースとしたものであったが、図6に示す係数種データ生成装置150Aをベースとしたものも同様に構成することができる。
【0137】
なお、図1に示すテレビ受信機100の画像信号処理部110においては、情報メモリバンク128に各クラスの係数種データwi0〜wi3を格納しておき、係数生成回路129でこの各クラスの係数種データwi0〜wi3を用いてパラメータpの値に応じた各クラスの係数データWiを生成し、これを係数メモリ126に格納するものである。
【0138】
しかし、情報メモリバンク128にクラスおよびパラメータpの値の各組み合わせに対応した係数データWiを格納しておき、この情報メモリバンク128からパラメータpの値に応じた各クラスの係数データWiを読み出し、これを係数メモリ126に格納するようにしてもよい。この場合、情報メモリバンク128に格納されるクラスおよびパラメータpの値の各組み合わせに対応した係数データWiは、上述の図6に示す係数種データ生成装置150Aにおける係数データ決定部164より得ることができる。
【0139】
なお、図1の画像信号処理部110における処理を、例えば図9に示すような画像信号処理装置300によって、ソフトウェアで実現することも可能である。まず、図9に示す画像信号処理装置300について説明する。この画像信号処理装置300は、装置全体の動作を制御するCPU301と、このCPU301の動作プログラムや係数種データ等が格納されたROM(read only memory)302と、CPU301の作業領域を構成するRAM(random access memory)303とを有している。これらCPU301、ROM302およびRAM303は、それぞれバス304に接続されている。
【0140】
また、画像信号処理装置300は、外部記憶装置としてのハードディスクドライブ(HDD)305と、フロッピー(登録商標)ディスク306をドライブするドライブ(FDD)307とを有している。これらドライブ305,307は、それぞれバス304に接続されている。
【0141】
また、画像信号処理装置300は、インターネット等の通信網400に有線または無線で接続する通信部308を有している。この通信部308は、インタフェース309を介してバス304に接続されている。
【0142】
また、画像信号処理装置300は、ユーザインタフェース部を備えている。このユーザインタフェース部は、リモコン送信機200からのリモコン信号RMを受信するリモコン信号受信回路310と、LCD(liquid crystal display)等からなるディスプレイ311とを有している。受信回路310はインタフェース312を介してバス304に接続され、同様にディスプレイ311はインタフェース313を介してバス304に接続されている。
【0143】
また、画像信号処理装置300は、NTSC信号を入力するための入力端子314と、Y,R−Y,B−Yコンポーネント信号を出力するための出力端子315とを有している。入力端子314はインタフェース316を介してバス304に接続され、同様に出力端子315はインタフェース317を介してバス304に接続される。
【0144】
ここで、上述したようにROM302に処理プログラムや係数種データ等を予め格納しておく代わりに、例えばインターネットなどの通信網400より通信部308を介してダウンロードし、ハードディスクやRAM303に蓄積して使用することもできる。また、これら処理プログラムや係数種データ等をフロッピー(登録商標)ディスク306で提供するようにしてもよい。
【0145】
また、処理すべきNTSC信号を入力端子314より入力する代わりに、予めハードディスクドライブ307に記録しておき、あるいはインターネットなどの通信網400より通信部308を介してダウンロードしてもよい。また、処理後のY,R−Y,B−Yコンポーネント信号を出力端子315に出力する代わり、あるいはそれと並行してディスプレイ311に供給して画像表示をしたり、さらにはハードディスクに格納したり、通信部308を介してインターネットなどの通信網400に送出するようにしてもよい。
【0146】
図10のフローチャートを参照して、図9に示す画像信号処理装置300における、NTSC信号よりY,R−Y,B−Yコンポーネント信号を得るため処理手順を説明する。
【0147】
まず、ステップST1で、処理を開始し、ステップST2で、例えば入力端子314より装置内に1フレーム分または1フィールド分のNTSC信号を入力する。このように入力端子314より入力されるNTSC信号を構成する画素データはRAM303に一時的に格納される。なお、このNTSC信号が装置内のハードディスクドライブ307に予め記録されている場合には、このドライブ307からこのNTSC信号を読み出し、このNTSC信号を構成する画素データをRAM303に一時的に格納する。
【0148】
そして、ステップST3で、NTSC信号の全フレームまたは全フィールドの処理が終わっているか否かを判定する。処理が終わっているときは、ステップST4で、処理を終了する。一方、処理が終わっていないときは、ステップST5に進む。
【0149】
このステップST5では、ユーザのリモコン送信機200の操作によって入力された色調指定値であるパラメータpの値を、例えばRAM303より取得する。そして、ステップST6で、パラメータpの値、各クラスの係数種データを用いて、生成式(例えば(2)式)によって、各クラスの推定式((1)式参照)の係数データWiを生成する。
【0150】
次に、ステップST7で、ステップST2で入力されたNTSC信号より、Y,R−Y,B−Yコンポーネント信号における注目位置に対応して、クラスタップおよび予測タップの画素データを取得する。そして、ステップST8で、ステップST2で入力された1フレーム分または1フィールド分のNTSC信号の画素データの全領域においてY,R−Y,B−Yコンポーネント信号(輝度信号Y、色差信号R−Y,B−Y)の画素データを得る処理が終了したか否かを判定する。終了しているときは、ステップST2に戻り、次の1フレーム分または1フィールド分のNTSC信号の入力処理に移る。一方、処理が終了していないときは、ステップST9に進む。
【0151】
このステップST9では、ステップST7で取得されたクラスタップの画素データからクラスコードCLを生成する。そして、ステップST10で、そのクラスコードCLに対応した係数データWiと予測タップの画素データを使用して、推定式により、Y,R−Y,B−Yコンポーネント信号における注目位置の画素データを生成し、その後にステップST7に戻って、上述したと同様の処理を繰り返す。
【0152】
このように、図10に示すフローチャートに沿って処理をすることで、入力されたNTSC信号の画素データを処理して、Y,R−Y,B−Yコンポーネント信号の画素データを得ることができる。上述したように、このように処理して得られたY,R−Y,B−Yコンポーネント信号は出力端子315に出力されたり、ディスプレイ311に供給されてそれによる画像が表示されたり、さらにはハードディスクドライブ305に供給されてハードディスクに記録されたりする。
【0153】
なお、ROM302に、各クラスの係数種データではなく、クラスおよびパラメータpの値の各組み合わせの係数データが格納されている場合には、ステップST6で、ROM302からパラメータpの値に対応した各クラスの推定式((1)式参照)の係数データWiを読み出すことになる。
また、処理装置の図示は省略するが、図4の係数種データ生成装置150における処理を、ソフトウェアで実現することも可能である。
【0154】
図11のフローチャートを参照して、係数種データを生成するための処理手順を説明する。
まず、ステップST21で、処理を開始し、ステップST22で、学習に使われる、色調パターン(パラメータpの値で特定される)を選択する。そして、ステップST23で、全ての色調パターンに対して学習が終わったか否かを判定する。全ての色調パターンに対して学習が終わっていないときは、ステップST24に進む。
【0155】
このステップST24では、教師信号(Y,R−Y,B−Yコンポーネント信号)を1フレーム分または1フィールド分だけ入力する。そして、ステップST25で、教師信号の全フレームまたは全フィールドの処理が終了したか否かを判定する。終了したときは、ステップST22に戻って、次の色調パターンの選択を行って、上述したと同様の処理を繰り返す。一方、終了していないときは、ステップST26に進む。
【0156】
このステップST26では、ステップST24で入力された教師信号より、ステップST22で選択された色調パターンに対応した生徒信号(NTSC信号)を生成する。そして、ステップST27で、ステップST26で生成された生徒信号より、ステップST24で入力された教師信号における注目位置に対応して、クラスタップおよび予測タップの画素データを取得する。そして、ステップST28で、ステップST24で入力された教師信号の全領域において学習処理を終了しているか否かを判定する。学習処理を終了しているときは、ステップST24に戻って、次の1フレーム分または1フィールド分の教師信号の入力を行って、上述したと同様の処理を繰り返す。一方、処理が終了していないときは、ステップST29に進む。
【0157】
このステップST29では、ステップST27で取得されたクラスタップの画素データからクラスコードCLを生成する。そして、ステップST30で、正規方程式((9)式参照)を生成する。その後に、ステップST27に戻る。
【0158】
また、ステップST23で、全ての色調パターンに対して学習が終わったときは、ステップST31に進む。このステップST31では、正規方程式を掃き出し法等で解くことによって、各クラスの係数種データを算出し、ステップST32で、その係数種データをメモリに保存し、その後にステップST33で、処理を終了する。
【0159】
このように、図11に示すフローチャートに沿って処理をすることで、図4に示す係数種データ生成装置150と同様の手法によって、係数種データを得ることができる。
【0160】
また、処理装置の図示は省略するが、図6の係数種データ生成装置150Aにおける処理も、ソフトウェアで実現可能である。
【0161】
図12のフローチャートを参照して、係数種データを生成するための処理手順を説明する。
まず、ステップST41で、処理を開始し、ステップST42で、学習に使われる、色調パターン(パラメータpの値で特定される)を選択する。そして、ステップST43で、全ての色調パターンに対して学習が終わったか否かを判定する。全ての色調パターンに対して学習が終わっていないときは、ステップST44に進む。
【0162】
このステップST44では、教師信号(Y,R−Y,B−Yコンポーネント信号)を1フレーム分または1フィールド分だけ入力する。そして、ステップST45で、教師信号の全フレームまたは全フィールドの処理が終了したか否かを判定する。終了していないときは、ステップST46で、ステップST44で入力された教師信号より、ステップST42で選択された色調パターンに対応した生徒信号(NTSC信号)を生成する。
【0163】
そして、ステップST47で、ステップST46で生成された生徒信号より、ステップST44で入力された教師信号における注目位置に対応して、クラスタップおよび予測タップの画素データを取得する。そして、ステップST48で、ステップST44で入力された教師信号の全領域において学習処理を終了しているか否かを判定する。学習処理を終了しているときは、ステップST44に戻って、次の1フレーム分または1フィールド分の教師信号の入力を行って、上述したと同様の処理を繰り返す。一方、学習処理を終了していないときは、ステップST49に進む。
【0164】
このステップST49では、ステップST47で取得されたクラスタップの画素データからクラスコードCLを生成する。そして、ステップST50で、係数データを得るための正規方程式((16)式参照)を生成する。その後に、ステップST47に戻る。
【0165】
上述したステップST45で、処理が終了したときは、ステップST51で、ステップST50で生成された正規方程式を掃き出し法などで解いて、各クラスの係数データを算出する。その後に、ステップST42に戻って、次の色調パターンの選択を行って、上述したと同様の処理を繰り返し、次の色調パターンに対応した、各クラスの係数データを求める。
【0166】
また、上述のステップST43で、全ての色調パターンに対する係数データの算出処理が終了したときは、ステップST52に進む。この時点では、クラスおよびパラメータpの値の各組み合わせの係数データが生成された状態にある。ステップST52では、全ての色調パターンに対する係数データから、係数種データを求めるための正規方程式((21)式参照)を生成する。
【0167】
そして、ステップST53で、ステップST52で生成された正規方程式を掃き出し法等で解くことによって、各クラスの係数種データを算出し、ステップST54で、その係数種データをメモリに保存し、その後にステップST55で、処理を終了する。
【0168】
このように、図12に示すフローチャートに沿って処理をすることで、図6に示す係数種データ生成装置150Aと同様の手法によって、係数種データを得ることができる。
【0169】
なお、図1の画像信号処理部110では、係数データWi(i=1〜n)を生成するために(2)式の生成式を使用したが、次数の異なった多項式や、他の関数で表現される式でも実現可能である。
【0170】
また、図1の画像信号処理部110ではコンポジット信号であるNTSC信号をコンポーネント信号である輝度信号Y、色差信号R−Y,B−Yに変換するものを示した。しかし、コンポジット信号とコンポーネント信号の組み合わせはこれに限定されるものではない。例えば、他のコンポジット信号としては、PAL(phase alternating by line)信号等がある。また、他のコンポーネント信号としては赤、緑、青の3原色信号等がある。
【0171】
【発明の効果】
この発明によれば、コンポジット信号を直接コンポーネント信号に変換する際に、コンポーネント信号によって得られる画像の色調を定めるパラメータの値に対応して、当該コンポーネント信号における注目位置の画素データを生成する構成とするものであり、コンポーネント信号によって得られる画像の色調を良好に調整できる。
【0172】
また、この発明によれば、コンポジット信号を直接コンポーネント信号に変換する際に、パラメータの値に応じてコンポーネント信号によって得られる画像の色調を調整するために使用される係数種データまたは係数データを良好に得ることができる。
【図面の簡単な説明】
【図1】実施の形態としてのテレビ受信機の構成を示すブロック図である。
【図2】予測タップ、クラスタップの一例を示す図である。
【図3】係数種データの生成方法の一例を説明するための図である。
【図4】係数種データ生成装置の構成例を示すブロック図である。
【図5】係数種データ生成方法の他の例を説明するための図である。
【図6】係数種データ生成装置の構成例を示すブロック図である。
【図7】係数種データ生成装置の構成例を示すブロック図である。
【図8】係数種データ生成装置の構成例を示すブロック図である。
【図9】ソフトウェアで実現するための画像信号処理装置の構成例を示すブロック図である。
【図10】画像信号処理を示すフローチャートである。
【図11】係数種データ生成処理(その1)を示すフローチャートである。
【図12】係数種データ生成処理(その2)を示すフローチャートである。
【符号の説明】
100・・・テレビ受信機、101・・・システムコントローラ、102・・・リモコン信号受信回路、105・・・受信アンテナ、106・・・チューナ、108・・・バッファメモリ、110・・・画像信号処理部、111・・・ディスプレイ部、112・・・OSD回路、113・・・合成器、121・・・第1のタップ選択回路、122・・・第2のタップ選択回路、123・・・特徴量抽出部、125・・・クラスコード生成部、126・・・係数メモリ、127・・・推定予測演算回路、128・・・情報メモリバンク、129・・・係数生成回路、150,150A,150B,150C・・・係数種データ生成装置、151,151T,151S・・・入力端子、152,157・・・色調変換回路、153・・・NTSCエンコーダ、154・・・第1のタップ選択回路、155・・・第2のタップ選択回路、156・・・特徴量抽出部、158・・・クラスコード生成部、159・・・遅延回路、160,163,165・・・正規方程式生成部、161,166・・・係数種データ決定部、162・・・係数種メモリ、164・・・係数データ決定部[0001]
BACKGROUND OF THE INVENTION
The present invention is an image signal processing apparatus and processing method suitable for application when converting a composite signal into a component signal, coefficient seed data generating apparatus and generating method used therefor, coefficient data generating apparatus and generating method Further, the present invention relates to a program for executing each method and a computer-readable medium on which the program is recorded.
[0002]
More specifically, the present invention generates pixel data of a target position in a component signal corresponding to the value of a parameter that determines the color tone of an image obtained by the component signal when the composite signal is directly converted into the component signal. Thus, the present invention relates to an image signal processing apparatus or the like that can satisfactorily adjust the color tone of an image obtained by a component signal.
[0003]
[Prior art]
In conventional composite-component conversion, for example, a NTSC (National Television System Committee) signal, which is a composite signal, is first separated into a Y signal (luminance signal) and a C signal (color signal) by a Y / C separation circuit. The C signal is color-demodulated and converted into baseband Y, RY, and BY component signals.
[0004]
For this reason, there has been a problem that the circuit scale of the configuration for processing increases. In addition, due to Y / C separation errors, there has been a problem that image quality deterioration such as dot interference and cross color tends to occur in the edge portion and moving image portion of the image.
[0005]
Accordingly, the present applicant extracts, for example, a plurality of pixel data located around the target position in the Y, RY, BY component signal from the NTSC signal, and based on the level distribution pattern of the plurality of pixel data. Thus, the class of the pixel data of the target position of the Y, RY, BY component signal is determined, and the pixel data of the target position in the Y, RY, BY component signal corresponding to this class is determined. An image information conversion device to be generated has been proposed (see Japanese Patent Application Laid-Open No. 2000-138949).
[0006]
[Problems to be solved by the invention]
This image information conversion device converts, for example, an NTSC signal directly into Y, RY, BY component signals, and does not use a Y / C separation circuit or a color demodulation circuit, and can reduce the circuit scale. In addition, it is possible to reduce image quality degradation such as dot interference and cross color due to Y / C separation errors.
[0007]
However, in this image information conversion apparatus, no consideration has been given to the adjustment of the color tone of the image by the Y, RY, and BY component signals.
[0008]
An object of the present invention is to provide an image signal processing apparatus and the like that can convert a composite signal directly into a component signal and can satisfactorily adjust the color tone of an image obtained by the component signal.
[0009]
[Means for Solving the Problems]
An image signal processing device according to the present invention is an image signal processing device that converts a composite signal made up of a plurality of pixel data into a component signal made up of a plurality of pixel data, and based on the composite signal, Based on the first data selection means for selecting a plurality of first pixel data located around the position of interest and the plurality of first pixel data selected by the first data selection means, the component signal Class detection means for detecting a class to which the pixel data of the target position belongs, parameter input means for inputting a parameter value for determining the color tone of the image obtained by the component signal, First storage means for storing coefficient seed data, which is coefficient data in a generation formula including the parameters, for generating coefficient data used in an estimation formula for calculating pixel data of the target position, and the first storage Coefficient data for generating coefficient data of each class corresponding to the parameter value based on the generation formula using the coefficient seed data stored in the means and the parameter value input by the parameter input means Generating means, second storage means for storing the coefficient data of each class generated by the coefficient data generating means, and the estimation corresponding to the class detected by the class detecting means from the second storage means Coefficient data reading means for reading and outputting the coefficient data of the equation, and the note in the component signal based on the composite signal. Second data selection means for selecting a plurality of second pixel data located around the position; coefficient data output by the coefficient data reading means; and a plurality of second data selection means selected by the second data selection means. Computing means obtained by calculating pixel data of a target position in the component signal based on the estimation formula using the pixel data of 2; Is provided.
[0011]
The image signal processing method according to the present invention is an image signal processing method for converting a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data, wherein the component signal is based on the composite signal. A first step of selecting a plurality of first pixel data located in the vicinity of the target position in, and a target position in the component signal based on the plurality of first pixel data selected in the first step A second step of detecting a class to which the pixel data belongs, a third step of acquiring a value of a parameter that determines a color tone of an image obtained by the component signal, A fourth step of storing, for each class, coefficient seed data, which is coefficient data in a generation formula including the parameters, for generating coefficient data used in an estimation formula for calculating pixel data of the target position; Using the coefficient type data stored every time and the parameter value obtained in the third step, the coefficient data of each class corresponding to the parameter value is generated and stored based on the generation formula. And a sixth step of reading out and outputting the coefficient data of each class stored in the fifth step and corresponding to the class detected in the second step, And a seventh step of selecting a plurality of second pixel data located around the target position in the component signal based on the composite signal. And the coefficient data output in the sixth step and the plurality of second pixel data selected in the seventh step, and the pixel data of the target position in the component signal based on the estimation formula The eighth step of calculating Is provided.
[0012]
A program according to the present invention is for causing a computer to execute the above-described image signal processing method. A computer-readable medium according to the present invention records the above-described program.
[0013]
In the present invention, a plurality of first pixel data located around the target position in the component signal is selected from the composite signal, and the pixel data of the target position in the component signal is selected based on the plurality of first pixel data. The class to which it belongs is detected. For example, a level distribution pattern of a plurality of first pixel data is detected, and a class to which the pixel data of the target position belongs is detected based on the level distribution pattern.
[0014]
The parameter input means receives a parameter value that determines the color tone of the image obtained from the component signal. The pixel data of the target position is generated corresponding to the detected class and the input parameter value as described above.
[0015]
For example, coefficient seed data that is coefficient data in a generation formula for generating coefficient data used in an estimation formula obtained in advance for each class is stored in the storage unit, and the coefficient seed data and the input parameter Using the values, coefficient data of an estimation formula corresponding to the detected class and the input parameter value is generated. In addition, a plurality of second pixel data located around the target position in the component signal is selected from the composite signal. Using these coefficient data and the plurality of second pixel data, pixel data of the target position is generated based on the estimation formula.
[0016]
Further, for example, coefficient data of an estimation formula generated in advance for each combination of class and parameter values is stored in the storage unit. The coefficient data of the estimation formula corresponding to the detected class and the input parameter value is read from the storage means, and a plurality of second pixel data located around the target position in the component signal are selected from the composite signal Is done. Using these coefficient data and the plurality of second pixel data, pixel data of the target position is generated based on the estimation formula.
[0017]
As described above, when the composite signal is directly converted into the component signal, the pixel data of the target position in the component signal is generated corresponding to the value of the parameter that determines the color tone of the image obtained by the component signal. The color tone of the image obtained by the component signal can be adjusted well.
[0018]
The coefficient seed data generating device according to the present invention is for generating coefficient data used in an estimation formula used when converting a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data. An apparatus for generating coefficient seed data, which is coefficient data in a generation formula, corresponding to a parameter in the generation formula, and a color tone of an image obtained by a student signal corresponding to the composite signal or a teacher signal corresponding to the component signal Parameter input means for inputting a value of a parameter for determining, a first data selection means for selecting a plurality of first pixel data located around the position of interest in the teacher signal based on the student signal; Based on the plurality of first pixel data selected by the first data selection means, Class detection means for detecting a class to which pixel data of the target position in the signal belongs, and second data for selecting a plurality of second pixel data located around the target position in the teacher signal based on the student signal A selection unit, a class detected by the class detection unit, and a plurality of second pixel data selected by the second data selection unit , Pixel data of the target position in the teacher signal And the value of the parameter input by the parameter input means And calculating means for obtaining the coefficient seed data for each class.
[0019]
The coefficient seed data generation method according to the present invention is for generating coefficient data used in an estimation formula used when converting a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data. A method of generating coefficient seed data, which is coefficient data in a generation formula, corresponding to the parameters in the generation formula, and the color tone of an image obtained by a student signal corresponding to the composite signal or a teacher signal corresponding to the component signal A second step of selecting a plurality of first pixel data located around a target position in the teacher signal based on the student signal; and The attention in the teacher signal based on the plurality of first pixel data selected in step 2 A third step of detecting a class to which the pixel data of the position belongs, and a fourth step of selecting a plurality of second pixel data located around the target position in the teacher signal based on the student signal; The class detected in the third step, and a plurality of second pixel data selected in the fourth step , Pixel data of the target position in the teacher signal And the value of the parameter obtained in the first step And a fifth step for obtaining the coefficient seed data for each class.
[0020]
A program according to the present invention is for causing a computer to execute the coefficient seed data generation method described above. A computer-readable medium according to the present invention records the above-described program.
[0021]
In the present invention, parameter values that determine the color tone of an image obtained by a student signal corresponding to a composite signal or a teacher signal corresponding to a component signal are input.
[0022]
A plurality of first pixel data located around the target position in the teacher signal is selected from the student signal, and a class to which the pixel data at the target position in the teacher signal belongs is detected based on the plurality of first pixel data. Is done. In addition, a plurality of second pixel data located around the attention position in the teacher signal is selected from the student signal.
[0023]
Then, the value of the input parameter is changed step by step, the class to which the pixel data at the target position related to the teacher signal belongs, and a plurality of selected second pixel data , Pixel data of the target position in the teacher signal And the value of the entered parameter Is used to obtain coefficient seed data for each class.
[0024]
Here, the coefficient seed data is coefficient data in a generation expression including the above parameters, which generates coefficient data used in an estimation expression used when converting from a composite signal to a component signal. By using this coefficient seed data, it is possible to obtain coefficient data corresponding to the value of the parameter arbitrarily adjusted by the generation formula. Thereby, when converting directly from a composite signal to a component signal using an estimation formula, the user can satisfactorily adjust the color tone of an image obtained by the component signal by adjusting the parameter value.
[0025]
The coefficient data generation device according to the present invention is a device that generates coefficient data of an estimation formula used when converting a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data, the above For generating coefficient data used in the estimation formula Parameter input means for inputting a parameter value for determining a color tone of an image obtained by a student signal corresponding to the composite signal or a teacher signal corresponding to the component signal corresponding to a parameter included in the generation formula; and the student signal And a plurality of first pixels selected by the first data selection means based on the first data selection means for selecting a plurality of first pixel data located around the target position in the teacher signal. Class detection means for detecting a class to which the pixel data at the target position in the teacher signal belongs based on the data, and a plurality of second pixel data located around the target position in the teacher signal based on the student signal The second data selecting means for selecting the class, the class detected by the class detecting means, and the second data selecting means -Option plurality of second pixel data , Pixel data of the target position in the teacher signal And the value of the parameter input by the parameter input means Use the above Every In addition, Coefficient seed data that is coefficient data in the generation formula is obtained and used in the estimation formula by the generation formula including the coefficient seed data and the parameter value. Arithmetic means for obtaining coefficient data.
[0026]
The coefficient data generation method according to the present invention is a method for generating coefficient data of an estimation formula used when converting a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data, the above For generating coefficient data used in the estimation formula A first step of obtaining a value of a parameter for determining a color tone of an image obtained by a student signal corresponding to the composite signal or a teacher signal corresponding to the component signal corresponding to a parameter included in the generation formula; and the student signal Based on the second step of selecting a plurality of first pixel data located around the target position in the teacher signal, and on the basis of the plurality of first pixel data selected in the second step A third step of detecting a class to which the pixel data of the target position in the teacher signal belongs, and selecting a plurality of second pixel data located around the target position in the teacher signal based on the student signal. A fourth step, a class detected in the third step, and a plurality of second pixel data selected in the fourth step. , Pixel data of the target position in the teacher signal And the value of the parameter input by the parameter input means Use the above Every In addition, Coefficient seed data that is coefficient data in the generation formula is obtained and used in the estimation formula by the generation formula including the coefficient seed data and the parameter value. And a fifth step for obtaining coefficient data.
[0027]
A program according to the present invention is for causing a computer to execute the coefficient data generation method described above. A computer-readable medium according to the present invention records the above-described program.
[0028]
In the present invention, parameter values that determine the color tone of an image obtained by a student signal corresponding to a composite signal or a teacher signal corresponding to a component signal are input.
[0029]
A plurality of first pixel data located around the target position in the teacher signal is selected from the student signal, and a class to which the pixel data at the target position in the teacher signal belongs is detected based on the plurality of first pixel data. Is done. In addition, a plurality of second pixel data located around the attention position in the teacher signal is selected from the student signal.
[0030]
Then, the value of the input parameter is changed stepwise, and the class to which the pixel data of the target position in the teacher signal belongs, the selected second pixel data, and the pixel data of the target position in the teacher signal are used. Thus, coefficient data is obtained for each combination of class and parameter values.
[0031]
As described above, coefficient data of an estimation formula used when converting a composite signal into a component signal is generated. When the composite signal is converted into the component signal, the coefficient data corresponding to the class to which the pixel data at the target position in the component signal belongs and the value of the adjusted parameter is selectively used. Data is calculated. As a result, when the composite signal is directly converted from the composite signal using the estimation formula, the color tone of the image obtained by the component signal can be favorably adjusted by adjusting the parameter value.
[0032]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of a television receiver 100 as an embodiment.
The television receiver 100 includes a microcomputer, and includes a system controller 101 for controlling the operation of the entire system, and a remote control signal receiving circuit 102 that receives a remote control signal. The remote control signal receiving circuit 102 is connected to the system controller 101, receives a remote control signal RM output from the remote control transmitter 200 according to a user operation, and supplies an operation signal corresponding to the signal RM to the system controller 101. Is configured to do.
[0033]
Further, the television receiver 100 is supplied with a receiving antenna 105 and a broadcast signal (RF modulated signal) captured by the receiving antenna 105, and performs a channel selection process, an intermediate frequency amplification process, a detection process, and the like to obtain a composite signal. And a buffer memory 108 for temporarily storing the NTSC signal output from the tuner 106.
[0034]
In addition, the television receiver 100 includes an image signal processing unit 110 that converts an NTSC signal into a component signal (Y, RY, BY component signal) including a luminance signal Y and color difference signals RY, BY. The display unit 111 for displaying an image based on the Y, RY, and BY component signals output from the image signal processing unit 110, and a display for displaying a character figure on the screen of the display unit 111 An OSD (On Screen Display) circuit 112 for generating the signal SCH and the display signal SCH are combined with the Y, RY, BY component signals output from the image signal processing unit 110 and displayed. And a synthesizer 113 for supplying to the unit 111.
[0035]
The display unit 111 is configured by a flat panel display such as a CRT (cathode-ray tube) display or an LCD (liquid crystal display). Further, the generation operation of the display signal SCH in the OSD circuit 112 is controlled by the system controller 101.
[0036]
The operation of the television receiver 100 shown in FIG. 1 will be described.
The NTSC signal output from the tuner 106 is supplied to the buffer memory 108 and temporarily stored. The NTSC signal temporarily stored in the buffer memory 108 is supplied to the image signal processing unit 110 and converted into Y, RY, and BY component signals.
[0037]
In other words, the image signal processing unit 110 obtains pixel data constituting each of the luminance signal Y and the color difference signals RY and BY from the pixel data constituting the NTSC signal. The Y, RY, BY component signals output from the image signal processing unit 110 are supplied to the display unit 111, and the Y, RY, BY component signals are displayed on the screen of the display unit 111. The image by is displayed.
[0038]
The user can adjust the color tone of the image displayed on the screen of the display unit 111 as described above by operating the remote control transmitter 200. In the image signal processing unit 110, as will be described later, pixel data of the luminance signal Y and the color difference signals RY and BY are calculated by an estimation formula. The coefficient data of this estimation formula corresponds to the parameter p that determines the color tone of the image based on the Y, RY, and BY component signals adjusted by the user's operation of the remote control transmitter 200. It is generated and used by a generation expression that contains Thereby, the color tone of the image by the Y, RY, BY component signal output from the image signal processing unit 110 corresponds to the adjusted parameter p.
[0039]
Next, details of the image signal processing unit 110 will be described. The image signal processing unit 110 selectively extracts and outputs a plurality of pixel data located around the target position in the Y, RY, and BY component signals from the NTSC signal stored in the buffer memory 108. First and second tap selection circuits 121 and 122 are provided.
[0040]
The first tap selection circuit 121 selectively extracts a plurality of pixel data of prediction taps used for prediction. The second tap selection circuit 122 selectively extracts a plurality of pixel data of class taps used for class classification. The pixel data of the prediction tap and the class tap are pixel data located around the position of interest in the Y, RY, and BY component signals, respectively.
[0041]
Here, the periphery of the target position means a position that is spatially (horizontal and vertical) and temporal (frame direction) close to the target position.
[0042]
FIG. 2A shows an example of the arrangement of prediction taps, and FIG. 2B shows an example of the arrangement of class taps. 2A and 2B, “◯” indicates the position of the tap, and “X” indicates the position of interest. In this example, seven pixel data in the current field (shown with a solid line) and the previous field (shown with a broken line) are extracted as pixel data of a prediction tap, and 13 in the current field (shown with a solid line) and the previous field (shown with a broken line) Pieces of pixel data are taken out as class tap pixel data.
[0043]
Returning to FIG. 1, the image signal processing unit 110 also includes a feature amount extraction unit 123 that extracts a feature amount from the pixel data of the class tap selectively extracted by the second tap selection circuit 122. The feature amount extraction unit 123 generates class information such as an ADRC code by performing processing such as 1-bit ADRC (Adaptive Dynamic Range Coding) on the pixel data of the class tap.
[0044]
ADRC calculates the maximum value and minimum value of a plurality of pixel data of a class tap, calculates a dynamic range that is the difference between the maximum value and the minimum value, and requantizes each pixel value in accordance with the dynamic range. . In the case of 1-bit ADRC, the pixel value is converted to 1 bit depending on whether it is larger or smaller than the average value of the plurality of pixel values of the class tap. The ADRC process is a process for making the number of classes representing the level distribution of pixel values relatively small. Therefore, not limited to ADRC, encoding that compresses the number of bits of a pixel value such as VQ (vector quantization) may be used.
[0045]
Further, the image signal processing unit 110 includes a class code generation unit 125 that generates a class code CL indicating the result of class classification based on the class information (such as ADRC code) generated by the feature amount extraction unit 123. Yes.
[0046]
The image signal processing unit 110 has a coefficient memory 126. The coefficient memory 126 stores, for each class, coefficient data Wi (i = 1 to n) used in an estimation formula used in an estimated prediction calculation circuit 127 described later. The coefficient data Wi is information for converting the NTSC signal into Y, RY, and BY component signals. The coefficient memory 126 includes coefficient data Wi for obtaining each of the luminance signal Y and the color difference signals RY and BY.
[0047]
The class code CL output from the class code generation unit 125 described above is supplied to the coefficient memory 126 as read address information. Coefficient data Wi (the luminance signal Y and the color difference signals RY and BY) corresponding to the class code CL is read from the coefficient memory 126 and supplied to the estimated prediction calculation circuit 127. Is done.
[0048]
The image signal processing unit 110 has an information memory bank 128. In the estimated prediction calculation circuit 127, the luminance signal Y and the color difference signals RY and BY are calculated from the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126 according to the estimation formula (1). Pixel data y at the target position in each is calculated. In the equation (1), n represents the number of prediction taps selected by the first tap selection circuit 121.
[0049]
[Expression 1]
Figure 0004055487
[0050]
The coefficient data Wi of this estimation formula is generated by a generation formula including the parameter p as shown in the formula (2). In the information memory bank 128, coefficient seed data w which is coefficient data in this generation formula is stored. i0 ~ W i3 Is stored for each class.
Wi = w i0 + W i1 p + w i2 p 2 + W i3 p Three ... (2)
[0051]
In addition, the image signal processing unit 110 performs coefficient seed data w for each class. i0 ~ W i3 (Each signal of luminance signal Y, color difference signals RY, BY) and the value of parameter p, and the coefficient data of the estimation formula corresponding to the value of parameter p for each class according to equation (2) A coefficient generation circuit 129 that generates Wi (the luminance signal Y and the color difference signals RY and BY) is included. The coefficient generation circuit 129 receives from the information memory bank 128 the coefficient seed data w of each class described above. i0 ~ W i3 Is loaded. The coefficient generation circuit 129 is supplied with the value of the parameter p from the system controller 101.
[0052]
The coefficient data Wi (i = 1 to n) of each class generated by the coefficient generation circuit 129 is stored in the coefficient memory 126 described above. The generation of coefficient data Wi for each class in the coefficient generation circuit 129 is performed, for example, in each vertical blanking period. Thereby, even if the value of the parameter p is changed by the user's operation of the remote control transmitter 200, the coefficient data Wi of each class stored in the coefficient memory 126 is immediately changed to the one corresponding to the value of the parameter p. The user can adjust the color tone smoothly.
[0053]
In addition, the image signal processing unit 110 generates a luminance signal Y and a color difference signal R− from the prediction tap pixel data xi selectively extracted by the first tap selection circuit 121 and the coefficient data Wi read from the coefficient memory 126. An estimated prediction calculation circuit 127 that calculates pixel data y at the target position in each of Y and BY is provided.
[0054]
Next, the operation of the image signal processing unit 110 will be described.
From the NTSC signal stored in the buffer memory 108, the second tap selection circuit 122 selectively extracts pixel data of class taps located around the target position in the Y, RY, BY component signals. It is. The pixel data of this class tap is supplied to the feature amount extraction unit 123. In the feature amount extraction unit 123, class tap pixel data is subjected to processing such as 1-bit ADRC, and class information such as ADRC is generated.
[0055]
Then, the class information (such as ADRC code) generated by the feature amount extraction unit 123 is supplied to the class code generation unit 125. The class code generation unit 125 generates a class code CL indicating the result of class classification based on the class information.
[0056]
This class code CL represents the detection result of the class to which the pixel data of the target position in the Y, RY, BY component signal belongs. The class code CL is supplied to the coefficient memory 126 as read address information. The coefficient memory 126 stores, for each class, coefficient seed data w for each class corresponding to the value of the parameter p adjusted by the user by the coefficient generation circuit 129 in each vertical blanking period. i0 ~ W i3 Coefficient data Wi (i = 1 to n) of the estimation formula is obtained based on (2) the color difference signal generation formula using (the luminance signal Y and the color difference signals RY and BY). Stored.
[0057]
As described above, the class code CL is supplied to the coefficient memory 126 as read address information, so that the coefficient data Wi (luminance signal Y, color difference signals RY, BY) corresponding to the class code CL is output from the coefficient memory 126. For each signal) is read and supplied to the estimated prediction calculation circuit 127. Also, the pixel data of the prediction tap located around the target position in the Y, RY, BY component signal is selectively selected by the first tap selection circuit 121 from the NTSC signal stored in the buffer memory 108. To be taken out.
[0058]
The estimated prediction calculation circuit 127 uses the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 126, and based on the estimation formula (1), the luminance signal Y, the color difference signal RY, Pixel data y at the target position in each of BY is calculated. Therefore, the user can satisfactorily adjust the color tone of the image based on the Y, RY, and BY component signals by adjusting the value of the parameter p.
[0059]
Next, an example of a method for generating coefficient seed data will be described. In this example, coefficient seed data w which is coefficient data in the generation formula of the above-described formula (2). i0 ~ W i3 The example which calculates | requires is shown.
[0060]
Here, for the following explanation, as shown in equation (3), t j (J = 0 to 3) is defined.
t 0 = 1, t 1 = P, t 2 = P 2 , T Three = P Three ... (3)
Using this equation (3), equation (2) can be rewritten as equation (4).
[0061]
[Expression 2]
Figure 0004055487
[0062]
Finally, the undetermined coefficient w ij Ask for. That is, for each class, the coefficient value that minimizes the square error using the pixel data of the student signal corresponding to the NTSC signal and the pixel data of the teacher signal corresponding to the Y, RY, and BY component signals. To decide. This is a so-called least square method. The learning number is m, and the residual in the kth learning data (1 ≦ k ≦ m) is e. k If the sum of squared errors is E, E is expressed by equation (5) using equations (1) and (2). Where x ik Is the k-th pixel data at the i-th predicted tap position of the student signal, y k Represents pixel data of the k-th teacher signal corresponding thereto.
[0063]
[Equation 3]
Figure 0004055487
[0064]
In the least square method, w in equation (5) ij W such that the partial differential due to becomes zero ij Ask for. This is shown by equation (6).
[0065]
[Expression 4]
Figure 0004055487
[0066]
Hereinafter, as shown in the equations (7) and (8), X ipjq , Y ip Is defined, equation (6) can be rewritten using a matrix like equation (9).
[0067]
[Equation 5]
Figure 0004055487
[0068]
[Formula 6]
Figure 0004055487
[0069]
This equation is generally called a normal equation. This normal equation can be calculated using the sweep-out method (Gauss-Jordan elimination method), etc. ij The coefficient seed data is calculated.
[0070]
FIG. 3 shows an example of the concept of the above-described coefficient seed data generation method. A plurality of student signals corresponding to the NTSC signal are generated from the Y, RY, and BY component signals. For example, the parameter p is varied in nine steps to generate nine types of student signals. The coefficient seed data is generated by performing learning between the plurality of student signals and the teacher signal generated as described above.
[0071]
FIG. 4 shows coefficient seed data w stored in the information memory bank 128 of the digital broadcast receiver 100 described above. i0 ~ W i3 2 shows a configuration of a coefficient seed data generation device 150 for generating.
[0072]
The coefficient seed data generation device 150 includes an input terminal 151 to which a teacher signal ST corresponding to Y, RY, and BY component signals is input, and a color tone conversion circuit that performs a color tone conversion process on the teacher signal ST. 152. A value of the parameter p is input to the color tone conversion circuit 152.
[0073]
The tone conversion circuit 152 performs processing on the Y, RY, and BY component signals so that the tone (hue, saturation, etc.) changes in accordance with the value of the parameter p. For example, by changing the values of the color difference signals RY and BY by changing the angles of the RY axis and the BY axis, it is possible to realize a change in hue such as bluish to reddish.
[0074]
The coefficient seed data generation device 150 performs an encoding process on the Y, RY, and BY component signals processed by the color tone conversion circuit 152 to obtain an NTSC signal as the student signal SS. An encoder 153 is included.
[0075]
Further, the coefficient seed data generation device 150 selectively extracts and outputs a plurality of pixel data located around the target position in the teacher signal ST from the student signal SS output from the NTSC encoder 153. A circuit 154 and a second tap selection circuit 155 are included. The first and second tap selection circuits 154 and 155 are configured similarly to the first and second tap selection circuits 121 and 122 of the image signal processing unit 110 described above, respectively.
[0076]
In addition, the coefficient seed data generation device 150 includes a feature amount extraction unit 156 that extracts a feature amount from pixel data of class taps that are selectively extracted by the second tap selection circuit 155. The feature amount extraction unit 156 is configured in the same manner as the feature amount extraction unit 123 of the image signal processing unit 110 described above, and generates class information such as an ADRC code.
[0077]
In addition, the coefficient seed data generation device 150 includes a class code generation unit 158 that generates a class code CL indicating the result of class classification based on the class information (such as ADRC code) generated by the feature amount extraction unit 156. ing. The class code generation unit 158 is configured in the same manner as the class code generation unit 125 of the image signal processing unit 110 described above. The class code CL indicates a class to which the pixel data y at the target position in the teacher signal ST belongs.
[0078]
The coefficient seed data generation device 150 also includes a delay circuit 159 for adjusting the time of the teacher signal ST supplied to the input terminal 151, and each attention position obtained from the teacher signal ST adjusted in time by the delay circuit 159. Pixel data y, prediction tap pixel data xi selectively extracted by the first tap selection circuit 154 in correspondence with the pixel data y of each target position, the value of the parameter p, and each target position Coefficient seed data w for each class from the class code CL generated by the class code generating unit 158 corresponding to each pixel data y. i0 ~ W i3 A normal equation generating unit 160 for generating a normal equation (see equation (9)) for obtaining
[0079]
In this case, one piece of learning data is generated by a combination of one piece of pixel data y and pixel data xi of n prediction taps corresponding to the piece of pixel data y. The student signal SS is sequentially generated, and learning data is generated between the teacher signal and each student signal. Accordingly, the normal equation generation unit 160 generates a normal equation in which a lot of learning data relating to a plurality of values of the parameter p is registered, and the coefficient seed data w i0 ~ W i3 Can be obtained.
[0080]
Coefficient seed data w i0 ~ W i3 As described above, it is necessary to obtain signals corresponding to the luminance signal Y and the color difference signals RY and BY constituting the teacher signal ST. Therefore, the normal equation generation unit 160 generates a normal equation corresponding to each of the luminance signal Y and the color difference signals RY and BY for each class. In this case, the normal equation corresponding to the luminance signal Y is generated by using the pixel data of the luminance signal Y as the pixel data y of the target position. Similarly, the normal equations corresponding to the color difference signals RY and BY are generated by using the pixel data of the color difference signals RY and BY as the pixel data y of the target position.
[0081]
Further, the coefficient seed data generation device 150 is supplied with data of normal equations generated for each class by the normal equation generation unit 160, solves the normal equations, and generates coefficient seed data w for each class. i0 ~ W i3 Is provided with a coefficient seed data determining unit 161 and a coefficient seed memory 162 for storing the obtained coefficient seed data. In the coefficient seed data determination unit 161, the normal equation is solved, for example, by a sweeping method, and coefficient coefficient data is obtained.
[0082]
The operation of the coefficient seed data generation device 150 shown in FIG. 4 will be described.
The input terminal 151 is supplied with Y, RY, BY component signals as teacher signals ST. The Y, RY, BY component signals are supplied to the color tone conversion circuit 152. A value of the parameter p is input to the color tone conversion circuit 152. The tone conversion circuit 152 performs processing on the Y, RY, and BY component signals so that the tone (hue, saturation, etc.) changes in accordance with the value of the parameter p.
[0083]
The Y, RY, BY component signals processed by the color tone conversion circuit 152 in this way are supplied to the NTSC encoder 153. The NTSC encoder 153 encodes the Y, RY, and BY component signals to generate an NTSC signal as the student signal SS.
[0084]
Also, from the student signal SS output from the NTSC encoder 153, the second tap selection circuit 155 selectively extracts pixel data of class taps located around the target position in the teacher signal ST. The pixel data of this class tap is supplied to the feature amount extraction unit 156. The feature amount extraction unit 156 generates class information such as an ADRC code based on the pixel data of the class tap.
[0085]
Then, the class information (such as ADRC code) generated by the feature amount extraction unit 156 is supplied to the class code generation unit 158. In this class code generation unit 158, based on the class information, a class code CL indicating the class (class classification result) to which the pixel data y at the target position in the teacher signal ST belongs is generated.
[0086]
Further, from the student signal SS output from the NTSC encoder 153, the first tap selection circuit 154 selectively extracts pixel data of prediction taps located around the target position in the teacher signal ST.
[0087]
Then, the pixel data y of each target position obtained from the teacher signal ST time-adjusted by the delay circuit 159 and the first tap selection circuit 154 selectively corresponding to the pixel data y of each target position. The normal equation generation unit 160 uses the predicted tap pixel data xi, the value of the parameter p, and the class code CL generated by the class code generation unit 158 corresponding to the pixel data y of each target position. Coefficient seed data w for each class i0 ~ W i3 A normal equation (see equation (9)) is obtained.
[0088]
Then, the coefficient seed data determination unit 161 solves each normal equation, and the coefficient seed data w of each class. i0 ~ W i3 (The luminance signal Y and the color difference signals RY and BY) are obtained and their coefficient seed data w i0 ~ W i3 Is stored in the coefficient seed memory 162.
[0089]
As described above, the coefficient seed data generation device 150 shown in FIG. 4 uses the estimation formula (see formula (1)) for each class stored in the information memory bank 128 of the image signal processing unit 110 in FIG. Coefficient data w which is coefficient data in a generation formula (see formula (2)) for obtaining the coefficient data Wi i0 ~ W i3 Can be generated.
[0090]
Next, another example of the coefficient seed data generation method will be described. Also in this example, coefficient seed data w which is coefficient data in the generation formula of the above-described formula (2) i0 ~ W i3 The example which calculates | requires is shown.
[0091]
FIG. 5 shows the concept of this example. A plurality of student signals are generated from the teacher signal. For example, the value of the parameter p is varied in 9 steps to generate 9 types of student signals. Learning is performed between each student signal and teacher signal generated in this way, and coefficient data Wi of the estimation formula of Formula (1) is generated for each value of the parameter p. Then, using the coefficient data Wi generated corresponding to each value of the parameter p, coefficient seed data w which is coefficient data in the generation expression of the expression (2) i0 ~ W i3 Is generated.
[0092]
First, how to obtain coefficient data of the estimation formula will be described. Here, an example is shown in which the coefficient data Wi (i = 1 to n) of the estimation formula (1) is obtained by the least square method.
[0093]
In the above equation (1), before learning, coefficient data W 1 , W 2 , ..., W n Is an undetermined coefficient. Learning is performed on a plurality of signal data for each class. When the number of learning data is m, the following equation (12) is set according to equation (1). n indicates the number of prediction taps.
[0094]
y k = W 1 X k1 + W 2 X k2 + ... + W n X kn (10)
(K = 1, 2,..., M)
If m> n, coefficient data W 1 , W 2 , ..., W n Is not uniquely determined, so the element e of the error vector e k Is defined by the following equation (11), and e in equation (12) 2 Find coefficient data that minimizes. Coefficient data is uniquely determined by a so-called least square method.
e k = Y k -{W 1 X k1 + W 2 X k2 + ... + w n X kn } (11)
(K = 1, 2, ... m)
[0095]
[Expression 7]
Figure 0004055487
[0096]
E in equation (12) 2 As a practical calculation method for obtaining coefficient data that minimizes the value, first, as shown in the equation (13), e 2 Is partially differentiated with the coefficient data Wi (i = 1, 2,..., N), and the coefficient data Wi may be obtained so that the partial differential value becomes 0 for each value of i.
[0097]
[Equation 8]
Figure 0004055487
[0098]
A specific procedure for obtaining the coefficient data Wi from the equation (13) will be described. If Xji and Yi are defined as in equations (14) and (15), equation (13) can be written in the form of a determinant of equation (16).
[0099]
[Equation 9]
Figure 0004055487
[0100]
[Expression 10]
Figure 0004055487
[0101]
Equation (16) is generally called a normal equation. Coefficient data Wi (i = 1, 2,..., N) can be obtained by solving this normal equation by a general solution method such as a sweep-out method (Gauss-Jordan elimination method).
[0102]
Next, how to obtain coefficient seed data using coefficient data Wi generated corresponding to each student signal will be described.
The coefficient data of a certain class obtained by learning using the student signal corresponding to the value of the parameter p is k pi Suppose that Here, i is the number of the prediction tap. This k pi From this, coefficient class data of this class is obtained.
[0103]
The coefficient data Wi (i = 1 to n) is the coefficient seed data w i0 ~ W i3 Is expressed by the above-described equation (2). Here, considering that the least square method is used for the coefficient data Wi, the residual is expressed by Equation (17).
[0104]
[Expression 11]
Figure 0004055487
[0105]
Where t j Is shown in the above equation (3). When the least square method is applied to equation (17), equation (18) is obtained.
[0106]
[Expression 12]
Figure 0004055487
[0107]
Where X jk , Y j Are defined as equations (19) and (20), respectively, equation (18) can be rewritten as equation (21). This equation (21) is also a normal equation, and by solving this equation with a general solution such as a sweep-out method, coefficient seed data w i0 ~ W i3 Can be calculated.
[0108]
[Formula 13]
Figure 0004055487
[0109]
FIG. 6 shows a configuration of a coefficient seed data generation device 150A that generates coefficient seed data based on the concept shown in FIG. In FIG. 6, parts corresponding to those in FIG. 4 are denoted by the same reference numerals, and detailed description thereof is omitted.
[0110]
The coefficient seed data generation device 150A includes pixel data y at each position of interest obtained from the teacher signal ST time-adjusted by the delay circuit 159, and a first tap selection circuit corresponding to the pixel data y at each position of interest. From the pixel data xi of the prediction tap selectively extracted in 154 and the class code CL generated by the class code generation unit 158 corresponding to the pixel data y of each target position, coefficient data Wi ( A normal equation generating unit 163 that generates a normal equation (see equation (16)) for obtaining i = 1 to n) is provided.
[0111]
In this case, one piece of learning data is generated by a combination of one piece of pixel data y and pixel data xi of n prediction taps corresponding to the piece of pixel data y. The student signal SS is sequentially generated, and learning data is generated between the teacher signal and each student signal. Thus, the normal equation generation unit 163 generates a normal equation for obtaining coefficient data Wi (i = 1 to n) for each class corresponding to each value of the parameter p.
[0112]
Note that it is necessary to obtain the coefficient data Wi corresponding to each of the luminance signal Y and the color difference signals RY and BY constituting the teacher signal ST. Accordingly, the normal equation generation unit 163 generates a normal equation corresponding to each of the luminance signal Y and the color difference signals RY and BY for each class. In this case, the normal equation corresponding to the luminance signal Y is generated by using the pixel data of the luminance signal Y as the pixel data y of the target position. Similarly, the normal equations corresponding to the color difference signals RY and BY are generated by using the pixel data of the color difference signals RY and BY as the pixel data y of the target position.
[0113]
Further, the coefficient seed data generation device 150A is supplied with the data of the normal equation generated by the normal equation generation unit 163, solves the normal equation, and corresponds to each value of the parameter p, and the coefficient data Wi of each class. For each class using the coefficient data determination unit 164 for determining the coefficient p and the coefficient data Wi corresponding to each of the student signals. i0 ~ W i3 A normal equation generation unit 165 that generates a normal equation (see equation (21)) for obtaining Also in this case, a normal equation is generated corresponding to each of the luminance signal Y and the color difference signals RY and BY.
[0114]
Further, the coefficient seed data generation device 150A is supplied with the data of the normal equation generated for each class by the normal equation generation unit 165, solves the normal equation for each class, and generates coefficient seed data w for each class. i0 ~ W i3 The coefficient seed data determination unit 166 for determining the coefficient seed data w i0 ~ W i3 And a coefficient seed memory 162 for storing.
[0115]
The rest of the coefficient seed data generation device 150A shown in FIG. 6 is configured in the same manner as the coefficient seed data generation device 150 shown in FIG.
[0116]
Next, the operation of the coefficient seed data generation device 150A shown in FIG. 6 will be described.
The input terminal 151 is supplied with Y, RY, BY component signals as teacher signals ST. The Y, RY, BY component signals are supplied to the color tone conversion circuit 152. A value of the parameter p is input to the color tone conversion circuit 152. The tone conversion circuit 152 performs processing on the Y, RY, and BY component signals so that the tone (hue, saturation, etc.) changes in accordance with the value of the parameter p.
[0117]
The Y, RY, BY component signals processed by the color tone conversion circuit 152 in this way are supplied to the NTSC encoder 153. The NTSC encoder 153 encodes the Y, RY, and BY component signals to generate an NTSC signal as the student signal SS.
[0118]
Also, from the student signal SS output from the NTSC encoder 153, the second tap selection circuit 155 selectively extracts pixel data of class taps located around the target position in the teacher signal ST. The pixel data of this class tap is supplied to the feature amount extraction unit 156. The feature amount extraction unit 156 generates class information such as an ADRC code based on the pixel data of the class tap.
[0119]
Then, the class information (such as ADRC code) generated by the feature amount extraction unit 156 is supplied to the class code generation unit 158. In this class code generation unit 158, based on the class information, a class code CL indicating the class (class classification result) to which the pixel data y at the target position in the teacher signal ST belongs is generated.
[0120]
Further, from the student signal SS output from the NTSC encoder 153, the first tap selection circuit 154 selectively extracts pixel data of prediction taps located around the target position in the teacher signal ST.
[0121]
Then, the pixel data y of each target position obtained from the teacher signal ST time-adjusted by the delay circuit 159 and the first tap selection circuit 154 selectively corresponding to the pixel data y of each target position. The normal equation generation unit 163 uses the predicted tap pixel data xi, the value of the parameter p, and the class code CL generated by the class code generation unit 158 corresponding to the pixel data y of each target position. For each student signal SS corresponding to each value of the parameter p, a normal equation (see equation (16)) for generating coefficient data Wi (i = 1 to n) is generated for each class.
[0122]
Then, the coefficient data determination unit 164 solves the normal equation, and the coefficient data Wi of each class corresponding to each value of the parameter p is obtained. The normal equation generation unit 165 uses the coefficient data Wi of each class corresponding to each value of the parameter p, and uses the coefficient seed data w for each class. i0 ~ W i3 A normal equation (see equation (21)) is obtained.
[0123]
Then, the coefficient seed data determining unit 166 solves the normal equation, and the coefficient seed data w of each class. i0 ~ W i3 (The luminance signal Y and the color difference signals RY and BY) are obtained and the coefficient seed data w i0 ~ W i3 Is stored in the coefficient seed memory 162.
[0124]
As described above, also in the coefficient seed data generation device 150A shown in FIG. 6, the coefficient seed data w of each class stored in the information memory bank 128 of the image signal processing unit 110 in FIG. i0 ~ W i3 Can be generated.
[0125]
In the coefficient seed data generation devices 150 and 150A shown in FIGS. 4 and 6, the color tone conversion circuit 152 is applied to the Y, RY, and BY component signals as the teacher signal ST supplied to the input terminal 151. Then, processing is performed so that the color tone changes in accordance with the value of the parameter p, and NTSC signals as a plurality of student signals SS respectively corresponding to the plurality of values of the parameter p are obtained from the NTSC encoder 153. The coefficient seed data w is obtained by learning between the signal ST and the plurality of student signals SS. i0 ~ W i3 Showed what you get.
[0126]
However, conversely, the coefficient seed data w is similarly obtained by learning between a plurality of teacher signals ST and one student signal SS. i0 ~ W i3 Can be requested. FIG. 7 shows the configuration of the coefficient seed data generation device 150B in that case. 7, parts corresponding to those in FIG. 4 are denoted by the same reference numerals, and detailed description thereof is omitted.
[0127]
In this coefficient seed data generation device 150B, the Y, RY, BY component signals supplied to the input terminal 151 are directly supplied to the NTSC encoder 153. The NTSC encoder 153 encodes the Y, RY, and BY component signals to generate an NTSC signal as the student signal SS.
[0128]
In the coefficient seed data generation device 150B, the Y, RY, and BY component signals supplied to the input terminal 151 are supplied to the color tone conversion circuit 157. The tone conversion circuit 157 is also supplied with the value of the parameter p. The tone conversion circuit 157 performs processing on the Y, RY, and BY component signals so that the tone (hue, saturation, etc.) changes in accordance with the value of the parameter p. From the color tone conversion circuit 157, Y, RY, and BY component signals are obtained as a plurality of teacher signals ST respectively corresponding to a plurality of values of the parameter p.
[0129]
Then, in the normal equation generation unit 160, the pixel data y of each target position obtained from the teacher signal ST output from the tone conversion circuit 157, and the first tap selection corresponding to the pixel data y of each target position, respectively. The pixel data xi of the prediction tap selectively extracted by the circuit 154, the value of the parameter p, and the class code CL generated by the class code generation unit 158 corresponding to the pixel data y of each target position are used. Coefficient seed data w for each class i0 ~ W i3 A normal equation (see equation (9)) is obtained.
[0130]
Other configurations are the same as those of the coefficient seed data generating apparatus 150 shown in FIG. The time adjustment between the student signal SS and the teacher signal ST is performed by, for example, a delay circuit (not shown) provided in the color tone conversion circuit 157.
[0131]
As described above, the normal equation generation unit 160 of the coefficient seed data generation device 150B shown in FIG. 7 generates a normal equation by learning between a plurality of teacher signals ST and one student signal SS, and the coefficients shown in FIG. Similar to the seed data generation device 150, the coefficient seed data w i0 ~ W i3 Can be generated.
[0132]
Further, the coefficient seed data generation devices 150, 150A, and 150B shown in FIGS. 4, 6, and 7 include a color tone conversion circuit 152 or a color tone conversion circuit 157, whereby a plurality of student signals SS or a plurality of teacher signals are provided. ST was generated. However, a plurality of student signals SS or a plurality of teacher signals ST corresponding to the value of the parameter p may be input from the outside. FIG. 8 shows the configuration of the coefficient seed data generation device 150C in that case. 7, parts corresponding to those in FIG. 4 are denoted by the same reference numerals, and detailed description thereof is omitted.
[0133]
In the coefficient seed data generation device 150C, Y, RY, BY component signals are input to the input terminal 151T and the input terminal 151S. The Y, RY, and BY component signals input to the input terminal 151T or the input terminal 151S are assumed to change in color tone according to the value of the parameter p. The Y, RY, and BY component signals input to one of the input terminals 151T and 151S are obtained, for example, by being imaged by the same video camera. In order to obtain a color tone corresponding to the value of the parameter p, for example, color tone conversion processing is performed by a color tone conversion circuit built in the video camera, or imaging is performed by changing the imaging environment.
[0134]
The Y, RY, and BY component signals input to the input terminal 151T become the teacher signal ST. The Y, RY, BY component signals input to the input terminal 151S are supplied to the NTSC encoder 153. The NTSC encoder 153 encodes the Y, RY, and BY component signals to generate an NTSC signal as the student signal SS.
Other configurations are the same as those of the coefficient seed data generating apparatus 150 shown in FIG.
[0135]
In the normal equation generation unit 160 of the coefficient seed data generation apparatus 150C shown in FIG. 8, learning between one teacher signal ST and a plurality of student signals SS, or a plurality of teacher signals ST and one student signal SS, A normal equation is generated by learning between the coefficient seed data w and the coefficient seed data w as in the coefficient seed data generation device 150 in FIG. 4 or the coefficient seed data generation device 150B in FIG. i0 ~ W i3 Can be generated.
[0136]
The coefficient seed data generation device 150B in FIG. 7 and the coefficient seed data generation device 150C in FIG. 8 are each based on the coefficient seed data generation device 150 shown in FIG. 4, but the coefficient seed data shown in FIG. An apparatus based on the generation device 150A can be configured in the same manner.
[0137]
In the image signal processing unit 110 of the television receiver 100 shown in FIG. 1, the coefficient seed data w of each class is stored in the information memory bank 128. i0 ~ W i3 And the coefficient generation circuit 129 stores the coefficient seed data w for each class. i0 ~ W i3 Is used to generate coefficient data Wi of each class corresponding to the value of the parameter p and store it in the coefficient memory 126.
[0138]
However, the coefficient data Wi corresponding to each combination of the class and the parameter p is stored in the information memory bank 128, and the coefficient data Wi of each class corresponding to the value of the parameter p is read from the information memory bank 128, This may be stored in the coefficient memory 126. In this case, the coefficient data Wi corresponding to each combination of the class and the value of the parameter p stored in the information memory bank 128 can be obtained from the coefficient data determination unit 164 in the coefficient seed data generation device 150A shown in FIG. it can.
[0139]
Note that the processing in the image signal processing unit 110 in FIG. 1 can be realized by software, for example, by an image signal processing apparatus 300 as shown in FIG. First, the image signal processing apparatus 300 shown in FIG. 9 will be described. The image signal processing apparatus 300 includes a CPU 301 that controls the operation of the entire apparatus, a ROM (read only memory) 302 that stores an operation program of the CPU 301, coefficient seed data, and the like, and a RAM ( random access memory) 303. These CPU 301, ROM 302, and RAM 303 are each connected to a bus 304.
[0140]
The image signal processing apparatus 300 also includes a hard disk drive (HDD) 305 as an external storage device and a drive (FDD) 307 that drives a floppy (registered trademark) disk 306. These drives 305 and 307 are each connected to a bus 304.
[0141]
In addition, the image signal processing apparatus 300 includes a communication unit 308 that is connected to a communication network 400 such as the Internet by wire or wirelessly. The communication unit 308 is connected to the bus 304 via the interface 309.
[0142]
In addition, the image signal processing device 300 includes a user interface unit. The user interface unit includes a remote control signal receiving circuit 310 that receives a remote control signal RM from the remote control transmitter 200, and a display 311 that includes an LCD (liquid crystal display) or the like. The receiving circuit 310 is connected to the bus 304 via the interface 312, and similarly the display 311 is connected to the bus 304 via the interface 313.
[0143]
The image signal processing apparatus 300 has an input terminal 314 for inputting an NTSC signal and an output terminal 315 for outputting a Y, RY, BY component signal. The input terminal 314 is connected to the bus 304 via the interface 316, and similarly, the output terminal 315 is connected to the bus 304 via the interface 317.
[0144]
Here, instead of storing the processing program, coefficient seed data, and the like in the ROM 302 in advance as described above, for example, they are downloaded from the communication network 400 such as the Internet via the communication unit 308 and stored in the hard disk or RAM 303 for use. You can also Further, these processing programs, coefficient seed data, and the like may be provided on a floppy (registered trademark) disk 306.
[0145]
Further, instead of inputting the NTSC signal to be processed from the input terminal 314, it may be recorded in the hard disk drive 307 in advance or downloaded from the communication network 400 such as the Internet via the communication unit 308. Further, instead of outputting the processed Y, RY, and BY component signals to the output terminal 315 or in parallel therewith, they are supplied to the display 311 to display an image, and further stored in a hard disk. You may make it send out to the communication networks 400, such as the internet, via the communication part 308. FIG.
[0146]
A processing procedure for obtaining Y, RY, BY component signals from NTSC signals in the image signal processing apparatus 300 shown in FIG. 9 will be described with reference to the flowchart of FIG.
[0147]
First, in step ST1, processing is started. In step ST2, for example, an NTSC signal for one frame or one field is input into the apparatus from the input terminal 314. Thus, the pixel data constituting the NTSC signal input from the input terminal 314 is temporarily stored in the RAM 303. If the NTSC signal is recorded in advance in the hard disk drive 307 in the apparatus, the NTSC signal is read from the drive 307 and the pixel data constituting the NTSC signal is temporarily stored in the RAM 303.
[0148]
In step ST3, it is determined whether or not processing of all frames or fields of the NTSC signal has been completed. When the process is finished, the process ends in step ST4. On the other hand, when the process is not finished, the process proceeds to step ST5.
[0149]
In this step ST5, the value of the parameter p, which is a color tone designation value input by the user's operation of the remote control transmitter 200, is obtained from the RAM 303, for example. In step ST6, using the value of the parameter p and the coefficient seed data of each class, the coefficient data Wi of the estimation formula (see formula (1)) of each class is generated by a generation formula (for example, formula (2)). To do.
[0150]
Next, in step ST7, the pixel data of the class tap and the prediction tap are acquired from the NTSC signal input in step ST2 corresponding to the target position in the Y, RY, BY component signal. In step ST8, Y, RY, BY component signals (luminance signal Y, chrominance signal RY) are obtained in all regions of the NTSC signal pixel data for one frame or one field input in step ST2. , BY) is determined whether or not the processing for obtaining the pixel data is completed. If completed, the process returns to step ST2, and the process proceeds to the next one frame or one field worth of NTSC signal input processing. On the other hand, when the process has not ended, the process proceeds to step ST9.
[0151]
In step ST9, a class code CL is generated from the pixel data of the class tap acquired in step ST7. In step ST10, using the coefficient data Wi corresponding to the class code CL and the pixel data of the prediction tap, the pixel data of the target position in the Y, RY, BY component signal is generated by the estimation formula. Then, the process returns to step ST7, and the same processing as described above is repeated.
[0152]
In this way, by performing processing according to the flowchart shown in FIG. 10, it is possible to process pixel data of the input NTSC signal and obtain pixel data of Y, RY, BY component signals. . As described above, the Y, RY, BY component signals obtained by such processing are output to the output terminal 315, supplied to the display 311 to display an image, and further. It is supplied to the hard disk drive 305 and recorded on the hard disk.
[0153]
If the ROM 302 stores coefficient data of each combination of class and parameter p values instead of the coefficient seed data of each class, each class corresponding to the value of the parameter p from the ROM 302 is stored in step ST6. The coefficient data Wi of the estimation formula (see formula (1)) is read out.
Further, although illustration of the processing device is omitted, the processing in the coefficient seed data generation device 150 in FIG. 4 can also be realized by software.
[0154]
A processing procedure for generating coefficient seed data will be described with reference to the flowchart of FIG.
First, in step ST21, processing is started, and in step ST22, a color tone pattern (specified by the value of parameter p) used for learning is selected. In step ST23, it is determined whether or not learning has been completed for all tone patterns. If learning has not been completed for all tone patterns, the process proceeds to step ST24.
[0155]
In step ST24, teacher signals (Y, RY, BY component signals) are input for one frame or one field. In step ST25, it is determined whether or not the processing of all the frames or fields of the teacher signal has been completed. When the process is completed, the process returns to step ST22, the next color tone pattern is selected, and the same process as described above is repeated. On the other hand, when not completed, the process proceeds to step ST26.
[0156]
In step ST26, a student signal (NTSC signal) corresponding to the tone pattern selected in step ST22 is generated from the teacher signal input in step ST24. In step ST27, the pixel data of the class tap and the prediction tap are acquired from the student signal generated in step ST26 corresponding to the attention position in the teacher signal input in step ST24. In step ST28, it is determined whether or not the learning process has been completed in all regions of the teacher signal input in step ST24. When the learning process is completed, the process returns to step ST24, the teacher signal for the next one frame or one field is input, and the same process as described above is repeated. On the other hand, when the process has not ended, the process proceeds to step ST29.
[0157]
In step ST29, the class code CL is generated from the pixel data of the class tap acquired in step ST27. In step ST30, a normal equation (see equation (9)) is generated. Thereafter, the process returns to step ST27.
[0158]
In step ST23, when learning is completed for all the color patterns, the process proceeds to step ST31. In this step ST31, the coefficient seed data of each class is calculated by solving the normal equation by a sweeping method or the like. In step ST32, the coefficient seed data is stored in the memory, and then the process is terminated in step ST33. .
[0159]
In this way, by performing the processing according to the flowchart shown in FIG. 11, coefficient seed data can be obtained by the same method as the coefficient seed data generating apparatus 150 shown in FIG.
[0160]
Although illustration of the processing device is omitted, the processing in the coefficient seed data generation device 150A in FIG. 6 can also be realized by software.
[0161]
A processing procedure for generating coefficient seed data will be described with reference to the flowchart of FIG.
First, in step ST41, processing is started, and in step ST42, a color tone pattern (specified by the value of parameter p) used for learning is selected. In step ST43, it is determined whether or not learning has been completed for all tone patterns. If learning has not been completed for all the tone patterns, the process proceeds to step ST44.
[0162]
In this step ST44, a teacher signal (Y, RY, BY component signal) is input for one frame or one field. In step ST45, it is determined whether or not the processing of all the frames or fields of the teacher signal has been completed. If not finished, in step ST46, a student signal (NTSC signal) corresponding to the tone pattern selected in step ST42 is generated from the teacher signal input in step ST44.
[0163]
In step ST47, the pixel data of the class tap and the prediction tap are acquired from the student signal generated in step ST46 corresponding to the attention position in the teacher signal input in step ST44. In step ST48, it is determined whether or not the learning process has been completed in all regions of the teacher signal input in step ST44. When the learning process is finished, the process returns to step ST44, the teacher signal for the next one frame or one field is input, and the same process as described above is repeated. On the other hand, when the learning process is not ended, the process proceeds to step ST49.
[0164]
In step ST49, a class code CL is generated from the pixel data of the class tap acquired in step ST47. In step ST50, a normal equation for obtaining coefficient data (see equation (16)) is generated. Thereafter, the process returns to step ST47.
[0165]
When the processing is completed in step ST45 described above, in step ST51, the normal equation generated in step ST50 is solved by a sweeping method or the like to calculate coefficient data for each class. Thereafter, the process returns to step ST42, the next tone pattern is selected, the same processing as described above is repeated, and the coefficient data of each class corresponding to the next tone pattern is obtained.
[0166]
Further, when the coefficient data calculation processing for all the color patterns is completed in step ST43 described above, the process proceeds to step ST52. At this point, coefficient data for each combination of class and parameter p values has been generated. In step ST52, a normal equation (see equation (21)) for obtaining coefficient seed data is generated from coefficient data for all tone patterns.
[0167]
Then, in step ST53, the coefficient equation data of each class is calculated by solving the normal equation generated in step ST52 by a sweeping method or the like, and in step ST54, the coefficient species data is stored in the memory, and then the step In ST55, the process ends.
[0168]
In this way, by performing processing according to the flowchart shown in FIG. 12, coefficient seed data can be obtained by the same method as the coefficient seed data generating apparatus 150A shown in FIG.
[0169]
In the image signal processing unit 110 in FIG. 1, the generation formula (2) is used to generate the coefficient data Wi (i = 1 to n), but a polynomial having a different order or another function is used. It can also be realized with an expression.
[0170]
In addition, the image signal processing unit 110 in FIG. 1 shows the one that converts the NTSC signal that is a composite signal into the luminance signal Y and the color difference signals RY and BY that are component signals. However, the combination of the composite signal and the component signal is not limited to this. For example, another composite signal includes a PAL (phase alternating by line) signal. As other component signals, there are three primary color signals of red, green and blue.
[0171]
【The invention's effect】
According to the present invention, when the composite signal is directly converted into the component signal, the pixel data of the target position in the component signal is generated corresponding to the value of the parameter that determines the color tone of the image obtained from the component signal. Therefore, it is possible to satisfactorily adjust the color tone of the image obtained by the component signal.
[0172]
Further, according to the present invention, when the composite signal is directly converted into the component signal, the coefficient seed data or the coefficient data used for adjusting the color tone of the image obtained by the component signal according to the parameter value is excellent. Can get to.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a television receiver as an embodiment.
FIG. 2 is a diagram illustrating an example of a prediction tap and a class tap.
FIG. 3 is a diagram for explaining an example of a generation method of coefficient seed data.
FIG. 4 is a block diagram illustrating a configuration example of a coefficient seed data generation apparatus.
FIG. 5 is a diagram for explaining another example of the coefficient seed data generation method.
FIG. 6 is a block diagram illustrating a configuration example of a coefficient seed data generation apparatus.
FIG. 7 is a block diagram illustrating a configuration example of a coefficient seed data generation apparatus.
FIG. 8 is a block diagram illustrating a configuration example of a coefficient seed data generation apparatus.
FIG. 9 is a block diagram illustrating a configuration example of an image signal processing device to be realized by software.
FIG. 10 is a flowchart showing image signal processing.
FIG. 11 is a flowchart illustrating a coefficient seed data generation process (part 1).
FIG. 12 is a flowchart showing a coefficient seed data generation process (No. 2).
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 100 ... Television receiver, 101 ... System controller, 102 ... Remote control signal receiving circuit, 105 ... Receiving antenna, 106 ... Tuner, 108 ... Buffer memory, 110 ... Image signal Processing unit 111 ... Display unit 112 ... OSD circuit 113 ... Synthesizer 121 ... First tap selection circuit 122 ... Second tap selection circuit 123 ... Feature amount extraction unit, 125 ... class code generation unit, 126 ... coefficient memory, 127 ... estimated prediction calculation circuit, 128 ... information memory bank, 129 ... coefficient generation circuit, 150, 150A, 150B, 150C ... Coefficient seed data generator, 151, 151T, 151S ... Input terminal, 152, 157 ... Color tone conversion circuit, 153 ... NTSC 155... First tap selection circuit, 155... Second tap selection circuit, 156... Feature amount extraction unit, 158... Class code generation unit, 159. , 163, 165 ... normal equation generation unit, 161, 166 ... coefficient seed data determination unit, 162 ... coefficient seed memory, 164 ... coefficient data determination unit

Claims (12)

複数の画素データからなるコンポジット信号を、複数の画素データからなるコンポーネント信号に変換する画像信号処理装置であって、
上記コンポジット信号に基づいて、上記コンポーネント信号における注目位置の周辺に位置する複数の第1の画素データを選択する第1のデータ選択手段と、
上記第1のデータ選択手段で選択された複数の第1の画素データに基づいて、上記コンポーネント信号における注目位置の画素データが属するクラスを検出するクラス検出手段と、
上記コンポーネント信号によって得られる画像の色調を定めるパラメータの値が入力されるパラメータ入力手段と、
上記注目位置の画素データを演算するための推定式で用いられる係数データを生成する上記パラメータを含む生成式における係数データである係数種データを格納する第1の記憶手段と、
上記第1の記憶手段に格納されている係数種データと上記パラメータ入力手段により入力されたパラメータの値とを用いて、上記生成式に基づいて、該パラメータの値に対応した各クラスの係数データを生成する係数データ生成手段と、
上記係数データ生成手段で生成された上記各クラスの係数データを格納する第2の記憶手段と、
上記第2の記憶手段より上記クラス検出手段で検出されたクラスに対応した上記推定式の係数データを読み出して出力する係数データ読み出し手段と、
上記コンポジット信号に基づいて、上記コンポーネント信号における注目位置の周辺に位置する複数の第2の画素データを選択する第2のデータ選択手段と、
上記係数データ読み出し手段により出力された係数データと上記第2のデータ選択手段で選択された複数の第2の画素データとを用いて、上記推定式に基づいて上記コンポーネント信号における注目位置の画素データを算出して得る演算手段とを備えることを特徴とする画像信号処理装置。
An image signal processing device that converts a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data,
First data selection means for selecting a plurality of first pixel data located around a target position in the component signal based on the composite signal;
Class detection means for detecting a class to which pixel data of a target position in the component signal belongs based on a plurality of first pixel data selected by the first data selection means;
Parameter input means for inputting a parameter value for determining the color tone of the image obtained by the component signal;
First storage means for storing coefficient seed data, which is coefficient data in a generation formula including the parameter, for generating coefficient data used in an estimation formula for calculating pixel data of the target position;
Using the coefficient seed data stored in the first storage means and the parameter value input by the parameter input means, the coefficient data of each class corresponding to the parameter value based on the generation formula Coefficient data generating means for generating
Second storage means for storing the coefficient data of each class generated by the coefficient data generation means;
Coefficient data reading means for reading out and outputting coefficient data of the estimation formula corresponding to the class detected by the class detecting means from the second storage means;
Second data selection means for selecting a plurality of second pixel data located around the target position in the component signal based on the composite signal;
Using the coefficient data output by the coefficient data reading means and the plurality of second pixel data selected by the second data selection means, the pixel data of the target position in the component signal based on the estimation formula An image signal processing apparatus comprising: an arithmetic means obtained by calculating
複数の画素データからなるコンポジット信号を、複数の画素データからなるコンポーネント信号に変換する画像信号処理方法であって、
上記コンポジット信号に基づいて、上記コンポーネント信号における注目位置の周辺に位置する複数の第1の画素データを選択する第1のステップと、
上記第1のステップで選択された複数の第1の画素データに基づいて、上記コンポーネント信号における注目位置の画素データが属するクラスを検出する第2のステップと、
上記コンポーネント信号によって得られる画像の色調を定めるパラメータの値を取得する第3のステップと、
上記注目位置の画素データを演算するための推定式で用いられる係数データを生成する上記パラメータを含む生成式における係数データである係数種データを上記クラス毎に格納する第4のステップと、
上記クラス毎に格納された上記係数種データと上記第3のステップで取得したパラメータの値とを用いて、上記生成式に基づいて、該パラメータの値に対応した各クラスの係数データを生成して格納する第5のステップと、
上記第5のステップで格納された各クラスの係数データであって、上記第2のステップで検出されたクラスに対応した係数データを読み出して出力する第6のステップと、
上記コンポジット信号に基づいて、上記コンポーネント信号における注目位置の周辺に位置する複数の第2の画素データを選択する第7のステップと、
上記第6のステップで出力された係数データと上記第7のステップで選択された複数の第2の画素データとを用いて、上記推定式に基づいて上記コンポーネント信号における注目位置の画素データを算出する第8のステップとを備えることを特徴とする画像信号処理方法。
An image signal processing method for converting a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data,
A first step of selecting a plurality of first pixel data located around a target position in the component signal based on the composite signal;
A second step of detecting a class to which the pixel data of the target position in the component signal belongs based on the plurality of first pixel data selected in the first step;
A third step of obtaining a value of a parameter for determining a color tone of an image obtained by the component signal;
A fourth step of storing, for each class, coefficient seed data, which is coefficient data in a generation formula including the parameter, for generating coefficient data used in an estimation formula for calculating pixel data of the target position;
Using the coefficient seed data stored for each class and the parameter value acquired in the third step, the coefficient data of each class corresponding to the parameter value is generated based on the generation formula. And storing a fifth step;
A sixth step of reading out and outputting coefficient data of each class stored in the fifth step, corresponding to the class detected in the second step;
A seventh step of selecting a plurality of second pixel data located around a target position in the component signal based on the composite signal;
Using the coefficient data output in the sixth step and the plurality of second pixel data selected in the seventh step, pixel data of the target position in the component signal is calculated based on the estimation formula An image signal processing method comprising: an eighth step .
複数の画素データからなるコンポジット信号を、複数の画素データからなるコンポーネント信号に変換するために、
上記コンポジット信号に基づいて、上記コンポーネント信号における注目位置の周辺に位置する複数の第1の画素データを選択する第1のステップと、
上記第1のステップで選択された複数の第1の画素データに基づいて、上記コンポーネント信号における注目位置の画素データが属するクラスを検出する第2のステップと、
上記コンポーネント信号によって得られる画像の色調を定めるパラメータの値を取得する第3のステップと、
上記注目位置の画素データを演算するための推定式で用いられる係数データを生成する上記パラメータを含む生成式における係数データである係数種データを上記クラス毎に格納する第4のステップと、
上記クラス毎に格納された上記係数種データと上記第3のステップで取得したパラメータの値とを用いて、上記生成式に基づいて、該パラメータの値に対応した各クラスの係数データを生成して格納する第5のステップと、
上記第5のステップで格納された各クラスの係数データであって、上記第2のステップで検出されたクラスに対応した係数データを読み出して出力する第6のステップと、
上記コンポジット信号に基づいて、上記コンポーネント信号における注目位置の周辺に位置する複数の第2の画素データを選択する第7のステップと、
上記第6のステップで出力された係数データと上記第7のステップで選択された複数の第2の画素データとを用いて、上記推定式に基づいて上記コンポーネント信号における注目位置の画素データを算出する第8のステップと
を有する画像信号処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な媒体。
In order to convert a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data,
A first step of selecting a plurality of first pixel data located around a target position in the component signal based on the composite signal;
A second step of detecting a class to which the pixel data of the target position in the component signal belongs based on the plurality of first pixel data selected in the first step;
A third step of obtaining a value of a parameter for determining a color tone of an image obtained by the component signal;
A fourth step of storing, for each class, coefficient seed data, which is coefficient data in a generation formula including the parameter, for generating coefficient data used in an estimation formula for calculating pixel data of the target position;
Using the coefficient seed data stored for each class and the parameter value acquired in the third step, the coefficient data of each class corresponding to the parameter value is generated based on the generation formula. And storing a fifth step;
A sixth step of reading out and outputting coefficient data of each class stored in the fifth step, corresponding to the class detected in the second step;
A seventh step of selecting a plurality of second pixel data located around a target position in the component signal based on the composite signal;
Using the coefficient data output in the sixth step and the plurality of second pixel data selected in the seventh step, pixel data of the target position in the component signal is calculated based on the estimation formula A computer-readable medium having recorded thereon a program for causing a computer to execute the image signal processing method.
複数の画素データからなるコンポジット信号を、複数の画素データからなるコンポーネント信号に変換するために、
上記コンポジット信号に基づいて、上記コンポーネント信号における注目位置の周辺に位置する複数の第1の画素データを選択する第1のステップと、
上記第1のステップで選択された複数の第1の画素データに基づいて、上記コンポーネント信号における注目位置の画素データが属するクラスを検出する第2のステップと、
上記コンポーネント信号によって得られる画像の色調を定めるパラメータの値を取得する第3のステップと、
上記注目位置の画素データを演算するための推定式で用いられる係数データを生成する上記パラメータを含む生成式における係数データである係数種データを上記クラス毎に格納する第4のステップと、
上記クラス毎に格納された上記係数種データと上記第3のステップで取得したパラメータの値とを用いて、上記生成式に基づいて、該パラメータの値に対応した各クラスの係数データを生成して格納する第5のステップと、
上記第5のステップで格納された各クラスの係数データであって、上記第2のステップで検出されたクラスに対応した係数データを読み出して出力する第6のステップと、
上記コンポジット信号に基づいて、上記コンポーネント信号における注目位置の周辺に位置する複数の第2の画素データを選択する第7のステップと、
上記第6のステップで出力された係数データと上記第7のステップで選択された複数の第2の画素データとを用いて、上記推定式に基づいて上記コンポーネント信号における注目位置の画素データを算出する第8のステップと
を有する画像信号処理方法をコンピュータに実行させるためのプログラム。
In order to convert a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data,
A first step of selecting a plurality of first pixel data located around a target position in the component signal based on the composite signal;
A second step of detecting a class to which the pixel data of the target position in the component signal belongs based on the plurality of first pixel data selected in the first step;
A third step of obtaining a value of a parameter for determining a color tone of an image obtained by the component signal;
A fourth step of storing, for each class, coefficient seed data, which is coefficient data in a generation formula including the parameter, for generating coefficient data used in an estimation formula for calculating pixel data of the target position;
Using the coefficient seed data stored for each class and the parameter value acquired in the third step, the coefficient data of each class corresponding to the parameter value is generated based on the generation formula. And storing a fifth step;
A sixth step of reading out and outputting coefficient data of each class stored in the fifth step, corresponding to the class detected in the second step;
A seventh step of selecting a plurality of second pixel data located around a target position in the component signal based on the composite signal;
Using the coefficient data output in the sixth step and the plurality of second pixel data selected in the seventh step, pixel data of the target position in the component signal is calculated based on the estimation formula And a program for causing a computer to execute an image signal processing method.
複数の画素データからなるコンポジット信号を複数の画素データからなるコンポーネント信号に変換する際に使用される推定式で用いられる係数データを生成するための生成式における係数データである係数種データを生成する装置であって、
上記生成式におけるパラメータに対応し、上記コンポジット信号に対応する生徒信号または上記コンポーネント信号に対応する教師信号によって得られる画像の色調を定めるパラメータの値が入力されるパラメータ入力手段と、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択する第1のデータ選択手段と、
上記第1のデータ選択手段で選択された複数の第1の画素データに基づいて、上記教師信号における注目位置の画素データが属するクラスを検出するクラス検出手段と、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の画素データを選択する第2のデータ選択手段と、
上記クラス検出手段で検出されたクラス、上記第2のデータ選択手段で選択された複数の第2の画素データ上記教師信号における注目位置の画素データ及び上記パラメータ入力手段で入力されたパラメータの値を用いて、クラス毎に、上記係数種データを求める演算手段と
を備えることを特徴とする係数種データ生成装置。
Generating coefficient seed data that is coefficient data in a generation formula for generating coefficient data used in an estimation formula used when converting a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data A device,
Parameter input means for inputting a value of a parameter for determining a color tone of an image obtained by a student signal corresponding to the composite signal or a teacher signal corresponding to the component signal corresponding to the parameter in the generation formula;
First data selection means for selecting a plurality of first pixel data located around a target position in the teacher signal based on the student signal;
Class detection means for detecting a class to which the pixel data of the target position in the teacher signal belongs based on a plurality of first pixel data selected by the first data selection means;
Second data selection means for selecting a plurality of second pixel data located around the target position in the teacher signal based on the student signal;
The detected class by the class detection means, said second plurality of second pixel data selected by the data selection means, the value of parameter inputted by the pixel data and the parameter input means of the target position in the teacher signal A coefficient seed data generating device, comprising: an arithmetic means for obtaining the coefficient seed data for each class using
複数の画素データからなるコンポジット信号を複数の画素データからなるコンポーネント信号に変換する際に使用される推定式で用いられる係数データを生成するための生成式における係数データである係数種データを生成する方法であって、
上記生成式におけるパラメータに対応し、上記コンポジット信号に対応する生徒信号または上記コンポーネント信号に対応する教師信号によって得られる画像の色調を定めるパラメータの値を取得する第1のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択する第2のステップと、
上記第2のステップで選択された複数の第1の画素データに基づいて、上記教師信号における注目位置の画素データが属するクラスを検出する第3のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の画素データを選択する第4のステップと、
上記第3のステップで検出されたクラス、上記第4のステップで選択された複数の第2の画素データ上記教師信号における注目位置の画素データ及び上記第1のステップで取得したパラメータの値を用いて、クラス毎に、上記係数種データを求める第5のステップと
を備えることを特徴とする係数種データ生成方法。
Generating coefficient seed data which is coefficient data in a generation formula for generating coefficient data used in an estimation formula used when converting a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data A method,
A first step of obtaining a value of a parameter that determines a color tone of an image obtained by a student signal corresponding to the composite signal or a teacher signal corresponding to the component signal corresponding to the parameter in the generation formula;
A second step of selecting a plurality of first pixel data located around a target position in the teacher signal based on the student signal;
A third step of detecting a class to which the pixel data of the target position in the teacher signal belongs based on the plurality of first pixel data selected in the second step;
A fourth step of selecting a plurality of second pixel data located around a target position in the teacher signal based on the student signal;
The third detection class in step a, said fourth plurality of second pixel data selected in step, the value of the parameter obtained in the pixel data and the first step of the target position in the teacher signal And a fifth step of obtaining the coefficient seed data for each class.
複数の画素データからなるコンポジット信号を複数の画素データからなるコンポーネント信号に変換する際に使用される推定式で用いられる係数データを生成するための生成式における係数データである係数種データを生成するために、
上記生成式におけるパラメータに対応し、上記コンポジット信号に対応する生徒信号または上記コンポーネント信号に対応する教師信号によって得られる画像の色調を定めるパラメータの値を取得する第1のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択する第2のステップと、
上記第2のステップで選択された複数の第1の画素データに基づいて、上記教師信号における注目位置の画素データが属するクラスを検出する第3のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の画素データを選択する第4のステップと、
上記第3のステップで検出されたクラス、上記第4のステップで選択された複数の第2の画素データ上記教師信号における注目位置の画素データ及び上記第1のステップで取得したパラメータの値を用いて、クラス毎に、上記係数種データを求める第5のステップと
を有する係数種データ生成方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な媒体。
Generating coefficient seed data which is coefficient data in a generation formula for generating coefficient data used in an estimation formula used when converting a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data for,
A first step of obtaining a value of a parameter that determines a color tone of an image obtained by a student signal corresponding to the composite signal or a teacher signal corresponding to the component signal corresponding to the parameter in the generation formula;
A second step of selecting a plurality of first pixel data located around a target position in the teacher signal based on the student signal;
A third step of detecting a class to which the pixel data of the target position in the teacher signal belongs based on the plurality of first pixel data selected in the second step;
A fourth step of selecting a plurality of second pixel data located around a target position in the teacher signal based on the student signal;
The third detection class in step a, said fourth plurality of second pixel data selected in step, the value of the parameter obtained in the pixel data and the first step of the target position in the teacher signal A computer-readable medium having recorded thereon a program for causing a computer to execute a coefficient seed data generation method including the fifth step of obtaining the coefficient seed data for each class.
複数の画素データからなるコンポジット信号を複数の画素データからなるコンポーネント信号に変換する際に使用される推定式で用いられる係数データを生成するための生成式における係数データである係数種データを生成するために、
上記生成式におけるパラメータに対応し、上記コンポジット信号に対応する生徒信号または上記コンポーネント信号に対応する教師信号によって得られる画像の色調を定めるパラメータの値を取得する第1のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択する第2のステップと、
上記第2のステップで選択された複数の第1の画素データに基づいて、上記教師信号における注目位置の画素データが属するクラスを検出する第3のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の画素データを選択する第4のステップと、
上記第3のステップで検出されたクラス、上記第4のステップで選択された複数の第2の画素データ上記教師信号における注目位置の画素データ及び上記第1のステップで取得したパラメータの値を用いて、クラス毎に、上記係数種データを求める第5のステップと
を有する係数種データ生成方法をコンピュータに実行させるためのプログラム。
Generating coefficient seed data which is coefficient data in a generation formula for generating coefficient data used in an estimation formula used when converting a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data for,
A first step of obtaining a value of a parameter that determines a color tone of an image obtained by a student signal corresponding to the composite signal or a teacher signal corresponding to the component signal corresponding to the parameter in the generation formula;
A second step of selecting a plurality of first pixel data located around a target position in the teacher signal based on the student signal;
A third step of detecting a class to which the pixel data of the target position in the teacher signal belongs based on the plurality of first pixel data selected in the second step;
A fourth step of selecting a plurality of second pixel data located around a target position in the teacher signal based on the student signal;
The third detection class in step a, said fourth plurality of second pixel data selected in step, the value of the parameter obtained in the pixel data and the first step of the target position in the teacher signal A program for causing a computer to execute a coefficient seed data generation method including: a fifth step of obtaining the coefficient seed data for each class.
複数の画素データからなるコンポジット信号を複数の画素データからなるコンポーネント信号に変換する際に使用される推定式の係数データを生成する装置であって、
上記推定式で用いられる係数データを生成するための生成式に含まれるパラメータに対応し、上記コンポジット信号に対応する生徒信号または上記コンポーネント信号に対応する教師信号によって得られる画像の色調を定めるパラメータの値が入力されるパラメータ入力手段と、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択する第1のデータ選択手段と、
上記第1のデータ選択手段で選択された複数の第1の画素データに基づいて、上記教師信号における注目位置の画素データが属するクラスを検出するクラス検出手段と、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の画素データを選択する第2のデータ選択手段と、
上記クラス検出手段で検出されたクラス、上記第2のデータ選択手段で選択された複数の第2の画素データ上記教師信号における注目位置の画素データ及び上記パラメータ入力手段で入力されたパラメータの値を用いて、上記クラス毎に、上記生成式における係数データである係数種データを求め、当該係数種データと上記パラメータの値とを含む上記生成式によって、上記推定式で用いられる係数データを求める演算手段と
を備えることを特徴とする係数データ生成装置。
An apparatus for generating coefficient data of an estimation formula used when converting a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data,
A parameter for determining the color tone of an image obtained by a student signal corresponding to the composite signal or a teacher signal corresponding to the component signal, corresponding to a parameter included in the generation expression for generating coefficient data used in the estimation expression A parameter input means for inputting a value;
First data selection means for selecting a plurality of first pixel data located around a target position in the teacher signal based on the student signal;
Class detection means for detecting a class to which the pixel data of the target position in the teacher signal belongs based on a plurality of first pixel data selected by the first data selection means;
Second data selection means for selecting a plurality of second pixel data located around the target position in the teacher signal based on the student signal;
The detected class by the class detection means, said second plurality of second pixel data selected by the data selection means, the value of parameter inputted by the pixel data and the parameter input means of the target position in the teacher signal using, for each of the classes, determine the coefficient seed data is coefficient data in the production equation, by the generation equation including the value of the coefficient seed data and the parameter, the coefficient data used in the estimation equation A coefficient data generating device comprising: a calculating means for obtaining.
複数の画素データからなるコンポジット信号を複数の画素データからなるコンポーネント信号に変換する際に使用される推定式の係数データを生成する方法であって、
上記推定式で用いられる係数データを生成するための生成式に含まれるパラメータに対応し、上記コンポジット信号に対応する生徒信号または上記コンポーネント信号に対応する教師信号によって得られる画像の色調を定めるパラメータの値を取得する第1のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択する第2のステップと、
上記第2のステップで選択された複数の第1の画素データに基づいて、上記教師信号における注目位置の画素データが属するクラスを検出する第3のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の画素データを選択する第4のステップと、
上記第3のステップで検出されたクラス、上記第4のステップで選択された複数の第2の画素データ上記教師信号における注目位置の画素データ及び上記パラメータ入力手段で入力されたパラメータの値を用いて、上記クラス毎に、上記生成式における係数データである係数種データを求め、当該係数種データと上記パラメータの値とを含む上記生成式によって、上記推定式で用いられる係数データを求める第5のステップと
を備えることを特徴とする係数データ生成方法。
A method of generating coefficient data of an estimation formula used when converting a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data,
A parameter for determining the color tone of an image obtained by a student signal corresponding to the composite signal or a teacher signal corresponding to the component signal, corresponding to a parameter included in the generation expression for generating coefficient data used in the estimation expression A first step of obtaining a value;
A second step of selecting a plurality of first pixel data located around a target position in the teacher signal based on the student signal;
A third step of detecting a class to which the pixel data of the target position in the teacher signal belongs based on the plurality of first pixel data selected in the second step;
A fourth step of selecting a plurality of second pixel data located around a target position in the teacher signal based on the student signal;
The third detection class in step a, said fourth plurality is selected in Step second pixel data, the value of parameter inputted by the pixel data and the parameter input means of the target position in the teacher signal using, for each of the classes, determine the coefficient seed data is coefficient data in the production equation, by the generation equation including the value of the coefficient seed data and the parameter, determine the coefficient data to be used in the estimated equation A coefficient data generation method comprising: a fifth step.
複数の画素データからなるコンポジット信号を複数の画素データからなるコンポーネント信号に変換する際に使用される推定式の係数データを生成するために、
上記推定式で用いられる係数データを生成するための生成式に含まれるパラメータに対応し、上記コンポジット信号に対応する生徒信号または上記コンポーネント信号に対応する教師信号によって得られる画像の色調を定めるパラメータの値を取得する第1のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択する第2のステップと、
上記第2のステップで選択された複数の第1の画素データに基づいて、上記教師信号における注目位置の画素データが属するクラスを検出する第3のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の画素データを選択する第4のステップと、
上記第3のステップで検出されたクラス、上記第4のステップで選択された複数の第2の画素データ上記教師信号における注目位置の画素データ及び上記パラメータ入力手段で入力されたパラメータの値を用いて、上記クラス毎に、上記生成式における係数データである係数種データを求め、当該係数種データと上記パラメータの値とを含む上記生成式によって、上記推定式で用いられる係数データを求める第5のステップと
を有する係数データ生成方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な媒体。
In order to generate coefficient data of an estimation formula used when converting a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data,
A parameter for determining the color tone of an image obtained by a student signal corresponding to the composite signal or a teacher signal corresponding to the component signal, corresponding to a parameter included in the generation expression for generating coefficient data used in the estimation expression A first step of obtaining a value;
A second step of selecting a plurality of first pixel data located around a target position in the teacher signal based on the student signal;
A third step of detecting a class to which the pixel data of the target position in the teacher signal belongs based on the plurality of first pixel data selected in the second step;
A fourth step of selecting a plurality of second pixel data located around a target position in the teacher signal based on the student signal;
The third detection class in step a, said fourth plurality is selected in Step second pixel data, the value of parameter inputted by the pixel data and the parameter input means of the target position in the teacher signal using, for each of the classes, determine the coefficient seed data is coefficient data in the production equation, by the generation equation including the value of the coefficient seed data and the parameter, determine the coefficient data to be used in the estimated equation A computer-readable medium recording a program for causing a computer to execute a coefficient data generation method having the fifth step.
複数の画素データからなるコンポジット信号を複数の画素データからなるコンポーネント信号に変換する際に使用される推定式の係数データを生成するために、
上記推定式で用いられる係数データを生成するための生成式に含まれるパラメータに対応し、上記コンポジット信号に対応する生徒信号または上記コンポーネント信号に対応する教師信号によって得られる画像の色調を定めるパラメータの値を取得する第1のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第1の画素データを選択する第2のステップと、
上記第2のステップで選択された複数の第1の画素データに基づいて、上記教師信号における注目位置の画素データが属するクラスを検出する第3のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の画素データを選択する第4のステップと、
上記第3のステップで検出されたクラス、上記第4のステップで選択された複数の第2の画素データ上記教師信号における注目位置の画素データ及び上記パラメータ入力手段で入力されたパラメータの値を用いて、上記クラス毎に、上記生成式における係数データである係数種データを求め、当該係数種データと上記パラメータの値とを含む上記生成式によって、上記推定式で用いられる係数データを求める第5のステップと
を有する係数データ生成方法をコンピュータに実行させるためのプログラム。
In order to generate coefficient data of an estimation formula used when converting a composite signal composed of a plurality of pixel data into a component signal composed of a plurality of pixel data,
A parameter for determining the color tone of an image obtained by a student signal corresponding to the composite signal or a teacher signal corresponding to the component signal, corresponding to a parameter included in the generation expression for generating coefficient data used in the estimation expression A first step of obtaining a value;
A second step of selecting a plurality of first pixel data located around a target position in the teacher signal based on the student signal;
A third step of detecting a class to which the pixel data of the target position in the teacher signal belongs based on the plurality of first pixel data selected in the second step;
A fourth step of selecting a plurality of second pixel data located around a target position in the teacher signal based on the student signal;
The third detection class in step a, said fourth plurality is selected in Step second pixel data, the value of parameter inputted by the pixel data and the parameter input means of the target position in the teacher signal using, for each of the classes, determine the coefficient seed data is coefficient data in the production equation, by the generation equation including the value of the coefficient seed data and the parameter, determine the coefficient data to be used in the estimated equation A program for causing a computer to execute a coefficient data generation method having the fifth step.
JP2002180301A 2002-06-20 2002-06-20 Image signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, coefficient data generating apparatus and generating method, program for executing each method, and computer-readable recording of the program Medium Expired - Fee Related JP4055487B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002180301A JP4055487B2 (en) 2002-06-20 2002-06-20 Image signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, coefficient data generating apparatus and generating method, program for executing each method, and computer-readable recording of the program Medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002180301A JP4055487B2 (en) 2002-06-20 2002-06-20 Image signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, coefficient data generating apparatus and generating method, program for executing each method, and computer-readable recording of the program Medium

Publications (2)

Publication Number Publication Date
JP2004023760A JP2004023760A (en) 2004-01-22
JP4055487B2 true JP4055487B2 (en) 2008-03-05

Family

ID=31177473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002180301A Expired - Fee Related JP4055487B2 (en) 2002-06-20 2002-06-20 Image signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, coefficient data generating apparatus and generating method, program for executing each method, and computer-readable recording of the program Medium

Country Status (1)

Country Link
JP (1) JP4055487B2 (en)

Also Published As

Publication number Publication date
JP2004023760A (en) 2004-01-22

Similar Documents

Publication Publication Date Title
KR101241252B1 (en) Information-processing apparatus and removable substrate used therein
JPH1032837A (en) Image processing device and method and image encoding device and method
JP4670169B2 (en) Information signal processing device, information signal processing method, image signal processing device and image display device using the same, coefficient seed data generation device used therefor, and information recording medium
JP2004191856A (en) Device and method for image signal processing, and program for implementing the method
JP2002218413A (en) Device and method for processing information signal, image signal processor, image display device using the same, device and method for generating coefficient species data used by the same, device and method for generating coefficient data and information providing medium
JP4277446B2 (en) INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE SIGNAL PROCESSING DEVICE AND IMAGE DISPLAY DEVICE USING THE SAME
JP3885786B2 (en) Information signal processing apparatus and processing method, and program for executing the processing method
JP4691835B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, coefficient data acquiring apparatus and acquiring method used therefor, and information recording medium
JP4055487B2 (en) Image signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, coefficient data generating apparatus and generating method, program for executing each method, and computer-readable recording of the program Medium
JP4470280B2 (en) Image signal processing apparatus and image signal processing method
JP4140259B2 (en) Information signal processing apparatus, information signal processing method, program, and computer-readable medium
JP3844030B2 (en) Image signal encoding apparatus, image signal encoding method, image signal decoding apparatus, and image signal decoding method
KR20040103428A (en) Coefficient generating apparatus and its method, class generating apparatus and its method, information signal processing apparatus, and program for executing the methods
JP4311258B2 (en) Coefficient data generating apparatus and generating method, coefficient seed data generating apparatus and generating method, information signal processing apparatus, program, and recording medium recording the same
JP4349086B2 (en) Information signal processing apparatus and processing method, program for executing the processing method, and medium storing the program
JP3844031B2 (en) Image coding apparatus and image coding method, and image decoding apparatus and image decoding method
JP4055478B2 (en) Information signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program
JP4140662B2 (en) Coefficient seed data generation apparatus and coefficient data generation apparatus
JP4662099B2 (en) Information signal processing apparatus and adjustment parameter setting method therefor
JP4311166B2 (en) Information signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, program for executing each method, and medium recording the program
JP4552262B2 (en) Noise reduction apparatus and method
JP4649786B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and coefficient seed data generating apparatus and generating method used therefor
JP4441860B2 (en) Information signal processing apparatus and processing method, program, and medium recording the same
JP4692800B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, coefficient seed data generating apparatus and generating method used therefor, and recording medium
JP4692801B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and coefficient information generating apparatus and generating method used therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050601

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070828

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071203

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131221

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees