JP2004007227A - Processor and processing method of information signal, device and method of creating coefficient class data used therefor, program for implementing each method, and computer-readable medium recording the program - Google Patents

Processor and processing method of information signal, device and method of creating coefficient class data used therefor, program for implementing each method, and computer-readable medium recording the program Download PDF

Info

Publication number
JP2004007227A
JP2004007227A JP2002159974A JP2002159974A JP2004007227A JP 2004007227 A JP2004007227 A JP 2004007227A JP 2002159974 A JP2002159974 A JP 2002159974A JP 2002159974 A JP2002159974 A JP 2002159974A JP 2004007227 A JP2004007227 A JP 2004007227A
Authority
JP
Japan
Prior art keywords
data
signal
information
information signal
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002159974A
Other languages
Japanese (ja)
Other versions
JP4055478B2 (en
Inventor
Tetsujiro Kondo
近藤 哲二郎
Yasushi Tatsuhira
立平 靖
Shizuo Chikaoka
近岡 志津男
Masaru Inoue
井上 賢
Kotaro Nemoto
根本 光太郎
Toru Miyake
三宅 徹
Shinsuke Shintani
新谷 眞介
Sakon Yamamoto
山元 左近
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002159974A priority Critical patent/JP4055478B2/en
Publication of JP2004007227A publication Critical patent/JP2004007227A/en
Application granted granted Critical
Publication of JP4055478B2 publication Critical patent/JP4055478B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Of Color Television Signals (AREA)
  • Color Television Systems (AREA)
  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a circuit scale by saving a memory capacity and to improve the quality of an output by an information signal after processing. <P>SOLUTION: An image signal processing unit 104 converts an NTSC (National Television System Committee) signal into Y, R-Y and B-Y component signals. A feature amount v concerning target pixels from a plurality of pixel data corresponding to target pixels of the component signals which are selectively drawn out of the NTSC signal. Coefficient class data w<SB>io</SB>-w<SB>i3</SB>are stored in a coefficient class memory 115. In a coefficient generating unit 114, coefficient data Wi corresponding to the feature amount v are created by a preparation formula containing the feature amount as a parameter, on the basis of the feature amount v and the data w<SB>io</SB>-w<SB>i3</SB>. In an operation unit 116, pixel data are determined from the data xi of a prediction tap corresponding to the target pixels of the component signal and the coefficient data Wi corresponding to the feature amount v, by using an estimating formula. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、例えばコンポジット信号をコンポーネント信号に変換する際に適用して好適な情報信号の処理装置および処理方法、それに使用される係数種データの生成装置および生成方法、並びに各方法を実行するためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な媒体に関する。
【0002】
詳しくは、この発明は、第1の情報信号を第2の情報信号に変換する際に、第2の情報信号における注目位置の画素データを推定式に基づいて生成するものであって、第2の情報信号における注目位置の情報データに関連した特徴量を抽出し、この特徴量に対応した推定式の係数データを係数種データを用いて生成することによって、メモリ容量を節約して回路規模を低減すると共に、第2の情報信号による出力の質の向上を図るようにした情報信号処理装置等に係るものである。
【0003】
【従来の技術】
従来のコンポジット−コンポーネント変換は、コンポジット信号である例えばNTSC(National Television System Committee)信号を、まずY/C分離回路にてY信号(輝度信号)とC信号(色信号)とに分離し、その後、C信号を色復調してベースバンドのY,R−Y,B−Yコンポーネント信号に変換するものであった。
【0004】
そのため、処理を行う構成の回路規模が大きくなるという問題があった。また、Y/C分離のエラーに起因して、画像のエッジ部分、動画部分等に、ドット妨害やクロスカラー等の画質劣化が発生しやすいという問題があった。
【0005】
そこで、本出願人は、例えばNTSC信号から、Y,R−Y,B−Yコンポーネント信号の注目位置の周辺に位置する複数の画素データを抽出し、この複数の画素データのレベル分布パターンに基づいて、Y,R−Y,B−Yコンポーネント信号における注目位置の画素データのクラスを決定し、このクラスに対応して当該Y,R−Y,B−Yコンポーネント信号における注目位置の画素データを生成する画像情報変換装置を提案した(特開2000−138949号公報参照)。
【0006】
【発明が解決しようとする課題】
この画像情報変換装置は、例えばNTSC信号を直接Y,R−Y,B−Yコンポーネント信号に変換するものであり、Y/C分離回路や色復調回路を使用するものでなく回路規模を低減でき、またY/C分離のエラーに起因するドット妨害やクロスカラー等の画質劣化を低減できる。
【0007】
しかし、この画像情報変換装置においては、Y,R−Y,B−Yコンポーネント信号における注目位置の画素データを推定式に基づいて生成するものであり、各クラスの推定式の係数データを予め係数メモリに格納しておくものであった。Y,R−Y,B−Yコンポーネント信号による画像の画質を向上させるためにはクラス数を多くする必要がある。しかし、クラス数を多くした場合、係数メモリに格納すべき推定式の係数データが多くなり、係数メモリのメモリ容量を大きくする必要があり、回路規模が増大する。
【0008】
この発明の目的は、メモリ容量を節約して回路規模を低減し得ると共に、出力情報信号による出力の質を向上できる情報信号処理装置等を提供することにある。また、この発明の目的は、特徴量に対応した推定式の係数データを生成するための生成式における係数データである係数種データを良好に得ることができる係数種データ生成装置等を提供することにある。
【0009】
【課題を解決するための手段】
この発明に係る情報信号処理装置は、複数の情報データからなる第1の情報信号を複数の情報データからなる第2の情報信号に変換する情報信号処理装置であって、第1の情報信号に基づいて、第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のデータ選択手段と、この第1のデータ選択手段で選択された複数の第1の情報データを用いて、第2の情報信号における注目位置の情報データに関連した特徴量を抽出する特徴量抽出手段と、特徴量をパラメータとして含む、推定式で用いられる係数データを生成するための生成式の係数データである係数種データを記憶する記憶手段と、この記憶手段に記憶されている係数種データと特徴量抽出手段で抽出された特徴量とを用いて、生成式に基づいて推定式で用いられる係数データを生成する係数データ生成手段と、第1の情報信号に基づいて、第2の情報信号における注目位置の周辺に位置する複数の第2の情報データを選択する第2のデータ選択手段と、係数データ生成手段で生成された係数データと第2のデータ選択手段で選択された複数の第2の情報データとを用いて、推定式に基づいて第2の情報信号における注目位置の画素データを算出して得る演算手段とを備えるものである。
【0010】
また、この発明に係る情報信号処理方法は、複数の情報データからなる第1の情報信号を複数の情報データからなる第2の情報信号に変換する情報信号処理方法であって、第1の情報信号に基づいて、第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、この第1のステップで選択された複数の第1の情報データを用いて、第2の情報信号における注目位置の情報データに関連した特徴量を抽出する第2のステップと、特徴量をパラメータとして含む、推定式で用いられる係数データを生成するための生成式の係数データである係数種データと第2のステップで抽出された特徴量とを用いて、生成式に基づいて推定式で用いられる係数データを生成する第3のステップと、第1の情報信号に基づいて、第2の情報信号における注目位置の周辺に位置する複数の第2の情報データを選択する第4のステップと、第3のステップで生成された係数データと第4のステップで選択された複数の第2の情報データとを用いて、推定式に基づいて第2の情報信号における注目位置の画素データを算出して得る第5のステップとを備えるものである。
【0011】
またこの発明に係るプログラムは、上述の情報信号処理方法をコンピュータに実行させるためのものである。また、この発明に係るコンピュータ読み取り可能な媒体は、上述のプログラムを記録したものである。
【0012】
この発明においては、第1の情報信号から第2の情報信号における注目位置の周辺に位置する複数の第1の情報データが選択され、その複数の第1の情報データに基づいて、第2の情報信号における注目位置の情報データに関連した特徴量が抽出される。この抽出された特徴量に対応して、第2の情報信号における注目位置の情報データが生成される。
【0013】
すなわち、特徴量をパラメータとして含む、推定式で用いられる係数データを生成するための生成式の係数データである係数種データが記憶手段に記憶されている。この係数種データと抽出された特徴量とを用いて、抽出された特徴量に対応した推定式の係数データが生成される。
【0014】
また、第1の情報信号から第2の情報信号における注目位置の周辺に位置する複数の第2の情報データが選択される。そして、推定式の係数データと複数の第2の情報データとを用いて、推定式に基づいて第2の情報信号における注目位置の画素データが求められる。
【0015】
このように、第2の情報信号における注目位置の情報データに関連した特徴量に対応した推定式の係数データを係数種データを用いて生成して用いるものである。したがって、予め係数メモリに複数の係数データを格納しておくものでなく、メモリ容量を節約でき、回路規模を低減できる。また、特徴量そのものに対応した係数データを生成して用いるものであり、特徴量をクラス分けしてクラス別に係数データを生成して用いるものではなく、第2の情報信号による出力の質を向上できる。
【0016】
なお、情報信号がコンポジットカラー映像信号である場合、特徴量抽出手段において、第2の情報信号における注目位置が存在するラインに対するその上ラインおよび下ラインの色信号の変化量の比を特徴量として抽出することで、主に垂直方向に色の変化が見られるパターンについて、ドット妨害の軽減を図ることができる。
【0017】
また、情報信号がコンポジット信号としてのNTSC信号を色搬送波周波数の4倍の周波数によりI軸、Q軸の位相でサンプリングして得られた複数の画素データからなる場合、特徴量抽出手段において、第2の情報信号における注目位置の近傍のI信号成分およびQ信号成分のそれぞれの垂直方向における変化量の比を特徴量として抽出することで、主に垂直方向にI信号成分かQ信号成分の片方だけが大きく変化しているパターンについて、ドット妨害の軽減を図ることができる。
【0018】
また、この発明に係る係数種データ生成装置は、複数の情報データからなる第1の情報信号を複数の情報データからなる第2の情報信号に変換する際に使用される推定式で用いられる係数データを生成するための、特徴量をパラメータとして含む生成式における係数データである係数種データを生成する装置であって、第1の情報信号に対応した生徒信号に基づいて、第2の情報信号に対応した教師信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のデータ選択手段と、この第1のデータ選択手段で選択された複数の第1の情報データを用いて、第2の情報信号における注目位置の情報データに関連した特徴量を抽出する特徴量抽出手段と、この特徴量抽出手段で抽出された特徴量をこの特徴量を含む所定範囲の代表値に置き換え、この代表値をクラスコードとして決定するクラスコード決定手段と、生徒信号に基づいて、教師信号における注目位置の周辺に位置する複数の第2の情報データを選択する第2のデータ選択手段と、クラスコード決定手段で決定されたクラスコード、第2のデータ選択手段で選択された複数の第2の情報データおよび教師信号における注目位置の情報データを用いて、係数種データを求める演算手段とを備えるものである。
【0019】
また、この発明に係る係数種データ生成方法は、複数の情報データからなる第1の情報信号を複数の情報データからなる第2の情報信号に変換する際に使用される推定式で用いられる係数データを生成するための、特徴量をパラメータとして含む生成式における係数データである係数種データを生成する方法であって、第1の情報信号に対応した生徒信号に基づいて、第2の情報信号に対応した教師信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、この第1のステップで選択された複数の第1の情報データを用いて、第2の情報信号における注目位置の情報データに関連した特徴量を抽出する第2のステップと、この第2のステップで抽出された特徴量をこの特徴量を含む所定範囲の代表値に置き換え、この代表値をクラスコードとして決定する第3のステップと、生徒信号に基づいて、教師信号における注目位置の周辺に位置する複数の第2の情報データを選択する第4のステップと、第3のステップで決定されたクラスコード、第4のステップで選択された複数の第2の情報データおよび教師信号における注目位置の情報データを用いて、係数種データを求める第5のステップとを備えるものである。
【0020】
また、この発明に係るプログラムは、上述の係数種データ生成方法をコンピュータに実行させるためのものである。また、この発明に係るコンピュータ読み取り可能な媒体は、上述のプログラムを記録したものである。
【0021】
この発明においては、第1の情報信号に対応した生徒信号から、第2の情報信号に対応した教師信号における注目位置の周辺に位置する複数の第1の情報データが選択され、その複数の第1の情報データに基づいて、教師信号における注目位置の情報データに関連した特徴量が抽出される。そして、この抽出された特徴量は、この特徴量を含む所定範囲の代表値に置き換えられ、この代表値がクラスコードとして決定される。
【0022】
また、生徒信号から、教師信号における注目位置の周辺に位置する複数の第2の情報データが選択される。そして、決定されたクラスコード、選択された複数の第2の情報データおよび教師信号における注目位置の情報データを用いて、係数種データが求められる。ここで、係数種データは、第1の情報信号から第2の情報信号に変換する際に使用される推定式で用いられる係数データを生成するための生成式における係数データである。この係数種データを使用することで、生成式によって、任意の特徴量に対応した係数データを得ることができる。
【0023】
【発明の実施の形態】
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としてのテレビ受信機100の構成を示している。
このテレビ受信機100は、受信アンテナ101と、この受信アンテナ101で捕らえられた放送信号(RF変調信号)が供給され、選局処理、中間周波増幅処理、検波処理等を行って、コンポジットカラー映像信号としてのNTSC信号を得るチューナ102と、このチューナ102より出力されるNTSC信号をアナログ信号からデジタル信号に変換すA/D(analog−to−digital)変換器103とを有している。
【0024】
A/D変換器103では、NTSC信号が、4fsc(fscは色幅搬送波周波数)の4倍の周波数により、I軸、Q軸でサンプリングされて、アナログ信号からデジタル信号に変換される。図2は、その場合における各フィールドの画素データの構成を示している。
【0025】
図2において、○印は位相が0度の信号であるY−I信号を、□印は位相が90度の信号であるY−Q信号を、●印は位相が180度の信号であるY+I信号を、■印は位相が270度の信号であるY+Q信号を、それぞれ示している。このように、水平方向には、Y−I信号、Y−Q信号、Y+I信号、Y+Q信号が繰り返し配置され、垂直方向には、ある列では、Y−I信号、Y+I信号が交互に配置され、それに隣接する列では、Y−Q信号、Y+Q信号が交互に配置されている。
【0026】
図1に戻って、また、テレビ受信機100は、A/D変換器103でデジタル信号に変換されたNTSC信号を、ベースバンドの輝度信号Y、色差信号R−Y,B−Yからなるコンポーネント信号(Y,R−Y,B−Yコンポーネント信号)に変換する画像信号処理部104と、この画像信号処理部104より出力されるY,R−Y,B−Yコンポーネント信号を赤、緑、青の3原色信号R,G,Bに変換するマトリックス回路105と、このマトリックス回路105より出力される3原色信号R,G,Bによる画像を表示する表示デバイス106とを有している。表示デバイス106は、例えばCRT(cathode−ray tube)ディスプレイ、LCD(liquid crystal display)、PDP(plasma display panel)等で構成されている。
【0027】
図1に示すテレビ受信機100の動作を説明する。
チューナ102より出力されるNTSC信号は、A/D変換器103でアナログ信号からデジタル信号に変換され、その後に画像信号処理部104に供給される。画像信号処理部104は、NTSC信号を構成する画素データから、輝度信号Y、色差信号R−Y,B−Yのそれぞれを構成する画素データを生成する。
【0028】
画像信号処理部104より出力されるY,R−Y,B−Yコンポーネント信号は、マトリックス回路105に供給されて、赤、緑、青の3原色信号R,G,Bに変換される。そして、マトリックス回路105より出力される3原色信号R,G,Bは表示デバイス106に供給される。これにより、表示デバイス106には、その3原色信号R,G,Bにより、チューナ102で選局されたチャネルに係る画像が表示される。
【0029】
次に、図3を参照して、画像信号処理部104の詳細を説明する。
画像信号処理部104は、A/D変換器103(図1参照)でデジタル信号に変換されたNTSC信号が入力される入力端子111と、この入力端子111に入力されたNTSC信号より、Y,R−Y,B−Yコンポーネント信号における注目位置の周辺に位置する複数の画素データを選択的に取り出して出力するタップ選択部112とを有している。
【0030】
タップ選択部112は、NTSC信号から予測に使用する予測タップの複数の画素データを取り出すものである。図4は、予測タップの構造の一例を示すものである。この場合、予測タップはx〜x16の16個から構成されるが、x〜x15の15個のみがNTSC信号から取り出される。x16は定数であって、コンポジット−コンポーネント信号変換に際して、両信号間に生じるDC(Direct Current)的なずれ(offset)を合わせるために用いられる。
【0031】
また、画像信号処理部104は、入力端子111に入力されたNTSC信号より、Y,R−Y,B−Yコンポーネント信号における注目位置の画素データに関連した特徴量を抽出する特徴量抽出部113を有している。
【0032】
図5は、特徴量抽出部113の一例を示している。この図5に示す特徴量抽出部113は、Y,R−Y,B−Yコンポーネント信号における注目位置が存在するラインに対するその上ラインおよび下ラインの色信号の変化量の比を特徴量vとして抽出するものである。
【0033】
図5において、NTSC信号はfsc(fscは色幅搬送波周波数)を中心周波数とするバンドパスフィルタ(BPF)121に供給され、このバンドパスフィルタ121でNTSC信号から色信号Cが取り出される。バンドパスフィルタ121で取り出される色信号Cは、1水平期間の遅延量を有する遅延回路122,123の直列回路に供給される。
【0034】
また、遅延回路122の出力信号および遅延回路123の出力信号は加算回路124で加算され、その加算値は絶対値化回路125に供給されてその絶対値Lが得られる。同様に、バンドパスフィルタ121の出力信号および遅延回路122の出力信号は加算回路126で加算され、その加算値は絶対値化回路127に供給されてその絶対値Lが得られる。
【0035】
この場合、遅延回路122から出力される画素データがY,R−Y,B−Yコンポーネント信号における注目位置と垂直方向および水平方向に同一位置にある画素データa0であるとすると、図6に示すように、遅延回路123から出力される画素データは画素データa0に対して垂直方向に1ライン上で水平方向に同一位置にある画素データauとなり、バンドパスフィルタ121から出力される画素データは画素データa0に対して垂直方向に1ライン下で水平方向に同一位置にある画素データadとなる。そして、加算回路124では画素データa0,auが加算され、加算回路126では画素データa0,adが加算される。
【0036】
NTSC信号は1ライン毎に色幅搬送波の位相が反転している。そのため、絶対値化回路125から得られる絶対値Lは、Y,R−Y,B−Yコンポーネント信号における注目位置が存在するラインに対するその上ラインの色信号Cの変化量を示すものとなる。この場合、注目位置が存在するラインの色信号Cとその上ラインの色信号Cとの相関が高いと、絶対値Lは小さくなる。
【0037】
同様に、絶対値化回路127から得られる絶対値Lは、Y,R−Y,B−Yコンポーネント信号における注目位置が存在するラインに対するその下ラインの色信号Cの変化量を示すものとなる。この場合、注目位置が存在するラインの色信号Cとその下ラインの色信号Cとの相関が高いと、絶対値Lは小さくなる。
【0038】
絶対値化回路125,127で得られる絶対値L,Lは除算回路128に供給され、この除算回路128から特徴量v=L/Lが得られる。この特徴量vは、Y,R−Y,B−Yコンポーネント信号における注目位置が存在するラインに対するその上ラインおよび下ラインの色信号の変化量の比を示している。
【0039】
このように、図5に示す特徴量抽出部113では、図6に示すように、画素データa0,au,adを用いて、Y,R−Y,B−Yコンポーネント信号における注目位置の画素データに関連した特徴量vを得るものである。したがって、この図5に示す特徴量抽出部113における処理は、NTSC信号に基づいてY,R−Y,B−Yコンポーネント信号における注目位置の周辺に位置する画素データa0,au,adを選択し、この選択された画素データa0,au,adを用いて特徴量vを抽出することと等価である。
【0040】
図7は、特徴量抽出部113の他の例を示している。この図7に示す特徴量抽出部113は、Y,R−Y,B−Yコンポーネント信号における注目位置の近傍のI信号成分およびQ信号成分のそれぞれの垂直方向における変化量の比を特徴量vとして抽出するものである。この図7において、図5と対応する部分には、同一符号を付し、その詳細説明は省略する。
【0041】
図7において、絶対値化回路125,127で得られる絶対値L,Lは加算回路131に供給されて加算される。そして、この加算回路131より出力される加算値Tは、1画素期間の遅延時間を有する遅延回路132に供給される。
【0042】
ここで、遅延回路122から出力される画素データがY,R−Y,B−Yコンポーネント信号における注目位置と垂直方向および水平方向に同一位置にある画素データa0であるとすると、図8に示すように、遅延回路123から出力される画素データは画素データa0に対して垂直方向に1ライン上で水平方向に同一位置にある画素データauとなり、バンドパスフィルタ121から出力される画素データは画素データa0に対して垂直方向に1ライン下で水平方向に同一位置にある画素データadとなる。そして、加算回路124では画素データa0,auが加算され、加算回路126では画素データa0,adが加算される。
【0043】
NTSC信号は1ライン毎に色幅搬送波の位相が反転している。そのため、絶対値化回路125から得られる絶対値Lは、Y,R−Y,B−Yコンポーネント信号における注目位置が存在するラインに対するその上ラインの色信号Cの変化量を示すものとなる。この場合、注目位置が存在するラインの色信号Cとその上ラインの色信号Cとの相関が高いと、絶対値Lは小さくなる。
【0044】
同様に、絶対値化回路127から得られる絶対値Lは、Y,R−Y,B−Yコンポーネント信号における注目位置が存在するラインに対するその下ラインの色信号Cの変化量を示すものとなる。この場合、注目位置が存在するラインの色信号Cとその下ラインの色信号Cとの相関が高いと、絶対値Lは小さくなる。
【0045】
したがって、加算回路131から得られる加算値Tは、Y,R−Y,B−Yコンポーネント信号における注目位置を含む垂直方向におけるI信号成分またはQ信号成分の変化量を示すものとなる。またこのとき、遅延回路132より出力される加算値Tは、1画素期間前に加算器131から得られた加算値Tである。つまり、この加算値Tは、図8に示すように、画素データa0,au,adに対して水平方向に隣接する画素データa0′,au′,ad′に基づいて得られたものである。したがって、遅延回路132から得られる加算値Tは、Y,R−Y,B−Yコンポーネント信号における注目位置に対して1画素前の位置を含む垂直方向におけるQ信号成分またはI信号成分の変化量を示すものとなる。
【0046】
なお、図8に示す画素データ例では、注目位置がI信号成分の存在位置に対応しているので、加算値Tは垂直方向におけるI信号成分の変化量を示し、一方加算値Tは垂直方向におけるQ信号成分の変化量を示すこととなる。
【0047】
加算回路131より出力される加算値Tおよび遅延回路132より出力される加算値Tは除算回路133に供給され、この除算回路133から特徴量v=T/Tが得られる。この特徴量vは、Y,R−Y,B−Yコンポーネント信号における注目位置の近傍のI信号成分およびQ信号成分のそれぞれの垂直方向における変化量の比を示している。
【0048】
このように、図7に示す特徴量抽出部113では、図8に示すように、画素データa0,au,ad,a0′,au′,ad′を用いて、Y,R−Y,B−Yコンポーネント信号における注目位置の画素データに関連した特徴量vを得るものである。したがって、この図7に示す特徴量抽出部113における処理は、NTSC信号に基づいてY,R−Y,B−Yコンポーネント信号における注目位置の周辺に位置する画素データa0,au,ad,a0′,au′,ad′を選択し、この選択された画素データa0,au,ad,a0′,au′,ad′を用いて特徴量vを抽出することと等価である。
【0049】
なお、図8に示す画素データ例では、画素データa0,au,adと、その1画素前の画素データa0′,au′,ad′を用いるものであるが、画素データa0′,au′,ad′として画素データa0,au,adの1画素後の画素データを用いてもよい。その場合には、加算値Tは画素データa0,au,adを用いて得られたものとなり、加算値Tは画素データa0′,au′,ad′を用いて得られたものとなる。
【0050】
図3に戻って、また、画像信号処理部104は、特徴量抽出部113で抽出される特徴量vに対応した係数データWi(i=1〜n)を生成する係数生成部114を有している。ここで、nは、タップ選択部112で選択される予測タップの数を表している。係数データWiは、後述する推定予測演算部116で使用される推定式で用いられるものであり、NTSC信号をY,R−Y,B−Yコンポーネント信号に変換するための情報である。
【0051】
係数生成部114では、Y,R−Y,B−Yコンポーネント信号を構成する輝度信号Y、色差信号R−Y,B−Yのそれぞれを得るための係数データWiが生成される。係数生成部114で生成された係数データWi(輝度信号Y、色差信号R−Y,B−Yの各信号分)は推定予測演算部116に供給される。
【0052】
また、画像信号処理部104は、係数種メモリ115を有している。推定予測演算部116では、予測タップの画素データxiと、係数生成部114で生成される係数データWiとから、(1)式の推定式によって、輝度信号Y、色差信号R−Y,B−Yのそれぞれにおける注目位置の画素データyが演算される。
【0053】
【数1】

Figure 2004007227
【0054】
この推定式の係数データWiは、(2)式に示すように、特徴量vをパラメータとして含む生成式によって生成される。係数種メモリ115には、この生成式における係数データである係数種データwi0〜wi3(輝度信号Y、色差信号R−Y,B−Yの各信号分)が格納されている。上述した係数生成部114では、この係数種データwi0〜wi3を用いて、(2)式の生成式に基づいて、係数データWiが生成される。
Wi=wi0+wi1v+wi2+wi3・・・(2)
【0055】
また、画像信号処理部104は、タップ選択部112で選択的に取り出される予測タップの画素データxiと、係数生成部114で生成される係数データWi(輝度信号Y、色差信号R−Y,B−Yの各信号分)とから、Y,R−Y,B−Yコンポーネント信号を構成する輝度信号Y、色差信号R−Y,B−Yのそれぞれにおける注目位置の画素データyを演算する推定予測演算部116と、この推定予測演算部116で演算される画素データyからなるY,R−Y,B−Yコンポーネント信号を出力する出力端子117とを有している。
【0056】
次に、図3に示す画像信号処理部104の動作を説明する。
入力端子111に入力されるNTSC信号は特徴量抽出部113に供給される。この特徴量抽出部113は、NTSC信号より、Y,R−Y,B−Yコンポーネント信号における注目位置の画素データに関連した特徴量vを抽出する。この特徴量抽出部113で抽出される特徴量vは係数生成部114に供給される。
【0057】
係数生成部114は、係数種メモリ115に記憶されている係数種データwi0 wi3(輝度信号Y、色差信号R−Y,B−Yの各信号分)を用いて、(2)式の生成式に基づいて、Y,R−Y,B−Yコンポーネント信号を構成する輝度信号Y、色差信号R−Y,B−Yのそれぞれを得るための、特徴量vに対応した係数データWiを生成する。
【0058】
係数生成部114で生成された係数データWiは(輝度信号Y、色差信号R−Y,B−Yの各信号分)は推定予測演算部116に供給される。また、入力端子111に入力されるNTSC信号はタップ選択部112に供給される。タップ選択部112は、NTSC信号より、Y,R−Y,B−Yコンポーネント信号における注目位置の周辺に位置する予測タップの画素データxiを選択的に取り出す。このタップ選択部112で取り出された予測タップの画素データxiは推定予測演算部116に供給される。
【0059】
推定予測演算部116は、予測タップの画素データxiと、係数データWi(輝度信号Y、色差信号R−Y,B−Yの各信号分)とを用いて、(1)式の推定式に基づいて、Y,R−Y,B−Yコンポーネント信号を構成する輝度信号Y、色差信号R−Y,B−Yのそれぞれにおける注目位置の画素データyを演算して求める。そして、出力端子117には、推定予測演算部116で演算された画素データyからなるY,R−Y,B−Yコンポーネント信号が出力される。
【0060】
このように、図3に示す画像信号処理部104により、NTSC信号をY,R−Y,B−Yコンポーネント信号に変換することができる。
この画像信号処理部104においては、特徴量抽出部113で抽出されたY,R−Y,B−Yコンポーネント信号における注目位置の画素データに関連した特徴量vに対応した係数データWiを、係数生成部114で生成して用いるものである。したがって、予め係数メモリに複数の係数データを格納しておくものでなく、メモリ容量を節約でき、回路規模を低減できる。
【0061】
また、画像信号処理部104においては、特徴量抽出部113で抽出されたY,R−Y,B−Yコンポーネント信号における注目位置の画素データに関連した特徴量vそのものに対応した係数データWiを係数生成部114で生成して用いるものである。したがって、特徴量vをクラス分けしてクラス別に係数データWiを生成して用いるものではなく、変換して得られるY,R−Y,B−Yコンポーネント信号による画像の画質の向上を図ることができる。
【0062】
また、画像信号処理部104において、特徴量抽出部113を図5に示すように構成し、Y,R−Y,B−Yコンポーネント信号における注目位置が存在するラインに対するその上ラインおよび下ラインの色信号の変化量の比を特徴量vとして抽出することで、主に垂直方向に色の変化が見られるパターンについて、ドット妨害の軽減を図ることができる。
【0063】
図9は、図10に示すような予測タップ構造において、図5に示す特徴量抽出部113で抽出された特徴量vと、これを用いて生成される各タップの係数データWiとの関係の一例を示している。図9の横軸は特徴量vの対数値である。またこの図9では、注目位置に対応するタップxの係数データが1となるように正規化している。
【0064】
この図から明らかなように、上ラインに対応するタップx,x,xの係数の絶対値は、特徴量v(=L/L)が大きくなっていくにつれて、つまり注目位置が存在するラインに対して上ラインが下ラインより色の相関が高くなっていくにつれて大きくなっていく。一方、下ラインに対応するタップx,x,xの係数の絶対値は、特徴量vが小さくなっていくにつれて、つまり注目位置が存在するラインに対して下ラインが上ラインより色の相関が高くなっていくにつれて大きくなっていく。
【0065】
また、画像信号処理部104において、特徴量抽出部113を図7に示すように構成し、Y,R−Y,B−Yコンポーネント信号における注目位置の近傍のI信号成分およびQ信号成分のそれぞれの垂直方向における変化量の比を特徴量vとして抽出することで、主に垂直方向にI信号成分かQ信号成分の片方だけが大きく変化しているパターンについて、ドット妨害の軽減を図ることができる。
【0066】
図11は、図4に示すような予測タップ構造において、図7に示す特徴量抽出部113で抽出された特徴量vと、これを用いて生成される各タップの係数データWiとの関係の一例を示している。図11の横軸は特徴量vの対数値である。またこの図11は、注目位置がY+I信号に対応している場合の例である。
【0067】
この図から明らかなように、例えばY+I信号に対応しているタップxの係数は、特徴量v(=T/T)が小さくなっていくにつれて、つまりI信号成分の垂直方向における変化量がQ信号成分の垂直方向の変化量より小さくなっていくにつれて大きくなっていく。一方、例えばY+Q信号、Y−Q信号に対応しているタップx,xの係数の絶対値は、特徴量v(=T/T)が大きくなっていくにつれて、つまりQ信号成分の垂直方向における変化量がI信号成分の垂直方向の変化量より小さくなっていくにつれて大きくなっていく。
【0068】
次に、係数種データの生成方法の一例について説明する。この例においては、上述した(2)式の生成式における係数データである係数種データwi0〜wi3を求める例を示すものとする。
ここで、以下の説明のため、(3)式のように、t(j=0〜3)を定義する。
=1,t=v,t=v,t=v・・・(3)
この(3)式を用いると、(2)式は、(4)式のように書き換えられる。
【0069】
【数2】
Figure 2004007227
【0070】
最終的に、学習によって未定係数wijを求める。すなわち、NTSC信号に対応する生徒信号の画素データと、Y,R−Y,B−Yコンポーネント信号に対応する教師信号の画素データとを用いて、二乗誤差を最小にする係数値を決定する。いわゆる最小二乗法による解法である。学習数をm、k(1≦k≦m)番目の学習データにおける残差をe、二乗誤差の総和をEとすると、(1)式および(2)式を用いて、Eは(5)式で表される。ここで、xikは生徒信号のi番目の予測タップ位置におけるk番目の画素データ、yはそれに対応するk番目の教師信号の画素データを表している。
【0071】
【数3】
Figure 2004007227
【0072】
最小二乗法による解法では、(5)式のwijによる偏微分が0になるようなwijを求める。これは、(6)式で示される。
【0073】
【数4】
Figure 2004007227
【0074】
以下、(7)式、(8)式のように、Xipjq、Yipを定義すると、(6)式は、(9)式のように行列を用いて書き換えられる。
【0075】
【数5】
Figure 2004007227
【0076】
【数6】
Figure 2004007227
【0077】
この方程式は一般に正規方程式と呼ばれている。この正規方程式は、掃き出し法(Gauss−Jordanの消去法)等を用いて、wijについて解かれ、係数種データwi0〜wi3が算出される。
【0078】
図12は、上述した係数種データの生成方法の一例に基づいて、係数種データwi0〜wi3を生成するための係数種データ生成装置150の構成を示している。
【0079】
この係数種データ生成装置150は、Y,R−Y,B−Yコンポーネント信号に対応した教師信号STが入力される入力端子151と、この教師信号STに対してエンコード処理を施して生徒信号SSとしてのNTSC信号を得るNTSCエンコーダ152とを有している。
【0080】
また、係数種データ生成装置150は、NTSCエンコーダ152で得られたNTSC信号より、教師信号STにおける注目位置の画素データに関連した特徴量vを抽出する特徴量抽出部153を有している。この特徴量抽出部153は、上述した画像信号処理部104の特徴量抽出部113と同様に構成される。
【0081】
また、係数種データ生成装置150は、特徴量抽出部153で抽出された特徴量vをこの特徴量vを含む所定範囲の代表値に置き換え、この代表値をクラスコードCLとして決定するクラスコード決定部154を有している。
【0082】
この場合、図13に示すように、特徴量vの変化範囲内においてlogスケールで等間隔となるようにM個のクラス範囲が設定される。クラスコード決定部154は、特徴量抽出部153で抽出された特徴量vがどのクラス範囲に含まれるかを判定し、その含まれるクラス範囲の代表値、例えば中間値をクラスコードCLとして決定する。例えば、特徴量抽出部153で抽出された特徴量vがクラス範囲3に含まれるとき、このクラス範囲3の代表値VがクラスコードCLとなる。
【0083】
このように、特徴量抽出部153で抽出された特徴量vをその特徴量vが含まれるクラス範囲の代表値に変更して用いることで、後述する正規方程式の生成に当たって必要とする学習データを容易に取得できるようになる。特徴量抽出部153で抽出された特徴量vをそのまま用いる場合には、特徴量vの各値に対応して予測タップ数以上の学習データを得ることが必要となり、非常に困難となる。
【0084】
また、係数種データ生成装置150は、NTSCエンコーダ152より出力される生徒信号SSより、教師信号STにおける注目位置の周辺に位置する複数の画素データを選択的に取り出して出力するタップ選択部155を有している。このタップ選択部155は、上述した画像信号処理部104のタップ選択部112と同様に構成される。
【0085】
また、係数種データ生成装置150は、入力端子151に供給される教師信号STの時間調整を行うための遅延回路156と、この遅延回路156で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応してタップ選択部155で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラスコード決定部154で決定されたクラスコードCL(特徴量抽出部153で抽出された特徴量vの代表値)とから、係数種データwi0〜wi3を得るための(9)式の正規方程式を生成する正規方程式生成部157を有している。
【0086】
この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成される。また、各学習データのそれぞれに対応してクラスコード決定部154からクラスコードCLが供給される。これにより、正規方程式生成部157では、複数のクラスコードCL(図13のv〜v参照)に係る多くの学習データが登録された正規方程式が生成され、係数種データwi0〜wi3を求めることが可能となる。
【0087】
なお、係数種データwi0〜wi3として、教師信号STを構成する輝度信号Y、色差信号R−Y,B−Yのそれぞれに対応したものを得る必要がある。したがって、正規方程式生成部157では、輝度信号Y、色差信号R−Y,B−Yのそれぞれに対応して正規方程式が生成される。この場合、輝度信号Yに対応した正規方程式は、注目位置の画素データyとして輝度信号Yの画素データを用いることで生成される。同様に、色差信号R−Y,B−Yのそれぞれに対応した正規方程式は、注目位置の画素データyとして色差信号R−Y,B−Yの画素データを用いることで生成される。
【0088】
また、係数種データ生成装置150は、正規方程式生成部157で生成された正規方程式のデータが供給され、当該正規方程式を解いて、係数種データwi0〜wi3を求める係数種データ決定部158と、この求められた係数種データwi0〜wi3を格納する係数種メモリ159とを有している。係数種データ決定部158では、正規方程式が例えば掃き出し法などによって解かれて、係数種データwi0〜wi3が求められる。
【0089】
図12に示す係数種データ生成装置150の動作を説明する。
入力端子151には、教師信号STとしてのY,R−Y,B−Yコンポーネント信号が供給される。このY,R−Y,B−Yコンポーネント信号はNTSCエンコーダ152に供給される。このNTSCエンコーダ152は、教師信号STに対してエンコード処理を施して生徒信号SSとしてのNTSC信号を生成する。
【0090】
NTSCエンコーダ152で得られる生徒信号SSは特徴量抽出部153に供給される。この特徴量抽出部153は、NTSC信号より教師信号STにおける注目位置の画素データに関連した特徴量vを抽出する。特徴量抽出部153で抽出された特徴量vはクラスコード決定部154に供給される。
【0091】
クラスコード決定部154は、特徴量vをこの特徴量vを含む所定範囲の代表値に置き換え、この代表値をクラスコードCLとして決定する。このようにクラスコード決定部154で決定されたクラスコードCLは正規方程式生成部157に供給される。
【0092】
また、NTSCエンコーダ152で得られる生徒信号SSはタップ選択部155に供給される。タップ選択部155は、生徒信号SSより、教師信号STにおける注目位置の周辺に位置する予測タップの画素データを選択的に取り出す。このようにタップ選択部155で取り出された予測タップの画素データxiは正規方程式生成部157に供給される。
【0093】
正規方程式生成部157は、遅延回路156で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応してタップ選択部155で選択的に取り出される予測タップの画素データxiと、この各注目位置の画素データyにそれぞれ対応してクラスコード決定部154で決定されるクラスコードCLとを用いて、係数種データwi0〜wi3を得るための(9)式の正規方程式を生成する。
【0094】
そして、正規方程式生成部157で生成された正規方程式のデータは係数種データ決定部158に供給される。係数種データ決定部158は、正規方程式を解いて係数種データwi0〜wi3(輝度信号Y、色差信号R−Y,B−Yの各信号分)を求める。そして、このように求められた係数種データwi0〜wi3は係数種メモリ159に格納される。
【0095】
このように、図12に示す係数種データ生成装置150においては、画像信号処理部104の係数種メモリ115に格納される、(1)式の推定式で用いられる係数データWiを求めるための(2)式の生成式における係数データである係数種データwi0〜wi3を良好に生成することができる。
【0096】
次に、係数種データの生成方法の他の例について説明する。この例においても、上述した(2)式の生成式における係数データである係数種データwi0〜wi3を求める例を示すものとする。
まず、推定式の係数データの求め方を説明する。ここでは、(1)式の推定式の係数データWi(i=1〜n)を最小二乗法により求める例を示すものとする。
【0097】
上述の、(1)式において、学習前は係数データW,W,‥‥,Wは未定係数である。学習は、クラス毎に、複数の信号データに対して行う。学習データ数がmの場合、(1)式に従って、以下に示す(10)式が設定される。nは予測タップの数を示している。
=W×xk1+W×xk2+‥‥+W×xkn・・・(10)
(k=1,2,‥‥,m)
【0098】
m>nの場合、係数データW,W,‥‥,Wは、一意に決まらないので、誤差ベクトルeの要素eを、以下の式(11)で定義して、(12)式のeを最小にする係数データを求める。いわゆる最小2乗法によって係数データを一意に定める。
=y−{w×xk1+w×xk2+‥‥+w×xkn} ・・・(11)
(k=1,2,‥‥m)
【0099】
【数7】
Figure 2004007227
【0100】
(12)式のeを最小とする係数データを求めるための実際的な計算方法としては、まず、(13)式に示すように、eを係数データWi(i=1,2,・・・,n)で偏微分し、iの各値について偏微分値が0となるように係数データWiを求めればよい。
【0101】
【数8】
Figure 2004007227
【0102】
(13)式から係数データWiを求める具体的な手順について説明する。(14)式、(15)式のようにXji,Yiを定義すると、(13)式は、(16)式の行列式の形に書くことができる。
【0103】
【数9】
Figure 2004007227
【0104】
【数10】
Figure 2004007227
【0105】
(16)式は、一般に正規方程式と呼ばれるものである。この正規方程式を掃き出し法(Gauss−Jordanの消去法)等の一般解法で解くことにより、係数データWi(i=1,2,・・・,n)を求めることができる。
【0106】
次に、各クラスコードに対応して生成された係数データWiを使用した、係数種データwi0〜wi3の求め方を説明する。
あるクラスコードCLの係数データが、kviになったとする。ここで、iは予測タップの番号である。このkviから係数種データwi0〜wi3を求める。
【0107】
係数データWi(i=1〜n)は、係数種データwi0〜wi3を使って、上述した(2)式で表現される。ここで、係数データWiに対して最小二乗法を使用することを考えると、残差は、(17)式で表される。
【0108】
【数11】
Figure 2004007227
【0109】
ここで、tは、上述の(3)式に示されている。(17)式に最小二乗法を作用させると、(18)式が得られる。
【0110】
【数12】
Figure 2004007227
【0111】
ここで、Xjk,Yをそれぞれ(19)式、(20)式のように定義すると、(18)式は(21)式のように書き換えられる。この(21)式も正規方程式であり、この式を掃き出し法等の一般解法で解くことにより、係数種データwi0〜wi3を算出することができる。
【0112】
【数13】
Figure 2004007227
【0113】
図14は、上述した係数種データの生成方法の他の例に基づいて、係数種データwi0〜wi3を生成するための係数種データ生成装置150Aの構成を示している。この図14において、図12と対応する部分には同一符号を付し、その詳細説明は省略する。
【0114】
係数種データ生成装置150Aは、遅延回路159で時間調整された教師信号STより得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応してタップ選択部155で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラスコード決定部154で決定されたクラスコードCL(特徴量抽出部153で抽出された特徴量vの代表値)とから、クラスコード毎に、係数データWi(i=1〜n)を得るための(16)式の正規方程式を生成する正規方程式生成部161を有している。
【0115】
この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成される。また、各学習データのそれぞれに対応してクラスコード決定部154からクラスコードCLが供給される。正規方程式生成部161では、クラスコード毎に、多くの学習データが登録された正規方程式が生成される。これにより、クラスコード毎に、係数データWi(i=1〜n)を求めることが可能となる。
【0116】
また、係数種データ生成装置150Aは、正規方程式生成部161で生成された正規方程式のデータが供給され、その正規方程式を解いて、クラスコード毎に、係数データWiを求める係数データ決定部162と、クラスコードCLと各クラスコードCLに対応した係数データWiとを使用して、係数種データwi0〜wi3を得るための(21)式の正規方程式を生成する正規方程式生成部163とを有している。
【0117】
また、係数種データ生成装置150Aは、正規方程式生成部163で生成された正規方程式のデータが供給され、正規方程式を解いて係数種データwi0〜wi3を求める係数種データ決定部164と、この求められた係数種データwi0〜wi3を格納する係数種メモリ159とを有している。
図14に示す係数種データ生成装置150Aのその他は、図12に示す係数種データ生成装置150と同様に構成される。
【0118】
次に、図14に示す係数種データ生成装置150Aの動作を説明する。
入力端子151には、教師信号STとしてのY,R−Y,B−Yコンポーネント信号が供給される。このY,R−Y,B−Yコンポーネント信号はNTSCエンコーダ152に供給される。このNTSCエンコーダ152は、教師信号STに対してエンコード処理を施して生徒信号SSとしてのNTSC信号を生成する。
【0119】
NTSCエンコーダ152で得られる生徒信号SSは特徴量抽出部153に供給される。この特徴量抽出部153は、NTSC信号より教師信号STにおける注目位置の画素データに関連した特徴量vを抽出する。特徴量抽出部153で抽出された特徴量vはクラスコード決定部154に供給される。
【0120】
クラスコード決定部154は、特徴量vをこの特徴量vを含む所定範囲の代表値に置き換え、この代表値をクラスコードCLとして決定する。このようにクラスコード決定部154で決定されたクラスコードは正規方程式生成部161に供給される。
【0121】
また、NTSCエンコーダ152で得られる生徒信号SSはタップ選択部155に供給される。タップ選択部155は、生徒信号SSより、教師信号STにおける注目位置の周辺に位置する予測タップの画素データを選択的に取り出す。このようにタップ選択部155で取り出された予測タップの画素データxiは正規方程式生成部161に供給される。
【0122】
正規方程式生成部161は、遅延回路156で時間調整された教師信号STから得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応してタップ選択部155で選択的に取り出される予測タップの画素データxiと、この各注目位置の画素データyにそれぞれ対応してクラスコード決定部154で決定されるクラスコードCLとを用いて、クラスコード毎に、係数データWi(i=1〜n)を得るための(16)式の正規方程式を生成する。
【0123】
そして、係数データ決定部162でその正規方程式が解かれ、各クラスコードに対応した係数データWiが求められる。正規方程式生成部163では、クラスコードCLと各クラスコードに対応した係数データWiとを用いて、係数種データwi0〜wi3を得るための(21)式の正規方程式が生成される。
そして、係数種データ決定部164でその正規方程式が解かれ、係数種データwi0〜wi3が求められ、その係数種データwi0〜wi3は係数種メモリ159に格納される。
【0124】
このように、図14に示す係数種データ生成装置150Aにおいても、画像信号処理部104の係数種メモリ115に格納される、(1)式の推定式で用いられる係数データWiを求めるための(2)式の生成式における係数データである係数種データwi0〜wi3を良好に生成することができる。
【0125】
なお、図1の画像信号処理部104における処理を、例えば図15に示すような画像信号処理装置300によって、ソフトウェアで実現することも可能である。
【0126】
まず、図15に示す画像信号処理装置300について説明する。この画像信号処理装置300は、装置全体の動作を制御するCPU301と、このCPU301の動作プログラムや係数種データ等が格納されたROM(read only memory)302と、CPU301の作業領域を構成するRAM(random access memory)303とを有している。これらCPU301、ROM302およびRAM303は、それぞれバス304に接続されている。
【0127】
また、画像信号処理装置300は、外部記憶装置としてのハードディスクドライブ(HDD)305と、フロッピー(登録商標)ディスク306をドライブするドライブ(FDD)307とを有している。これらドライブ305,307は、それぞれバス304に接続されている。
【0128】
また、画像信号処理装置300は、インターネット等の通信網400に有線または無線で接続する通信部308を有している。この通信部308は、インタフェース309を介してバス304に接続されている。
【0129】
また、画像信号処理装置300は、ユーザインタフェース部を備えている。このユーザインタフェース部は、リモコン送信機200からのリモコン信号RMを受信するリモコン信号受信回路310と、LCD(liquid crystal display)等からなるディスプレイ311とを有している。受信回路310はインタフェース312を介してバス304に接続され、同様にディスプレイ311はインタフェース313を介してバス304に接続されている。
【0130】
また、画像信号処理装置300は、NTSC信号を入力するための入力端子314と、Y,R−Y,B−Yコンポーネント信号を出力するための出力端子315とを有している。入力端子314はインタフェース316を介してバス304に接続され、同様に出力端子315はインタフェース317を介してバス304に接続される。
【0131】
ここで、上述したようにROM302に処理プログラムや係数種データ等を予め格納しておく代わりに、例えばインターネットなどの通信網400より通信部308を介してダウンロードし、ハードディスクやRAM303に蓄積して使用することもできる。また、これら処理プログラムや係数種データ等をフロッピー(登録商標)ディスク306で提供するようにしてもよい。
【0132】
また、処理すべきNTSC信号を入力端子314より入力する代わりに、予めハードディスクドライブ305に記録しておき、あるいはインターネットなどの通信網400より通信部308を介してダウンロードしてもよい。また、処理後のY,R−Y,B−Yコンポーネント信号を出力端子315に出力する代わり、あるいはそれと並行してディスプレイ311に供給して画像表示をしたり、さらにはハードディスクに格納したり、通信部308を介してインターネットなどの通信網400に送出するようにしてもよい。
【0133】
図16のフローチャートを参照して、図15に示す画像信号処理装置300における、NTSC信号よりY,R−Y,B−Yコンポーネント信号を得るため処理手順を説明する。
まず、ステップST1で、処理を開始し、ステップST2で、例えば入力端子314より装置内に1フレーム分または1フィールド分のNTSC信号を入力する。このように入力端子314より入力されるNTSC信号を構成する画素データはRAM303に一時的に格納される。なお、このNTSC信号が装置内のハードディスクドライブ305に予め記録されている場合には、このドライブ305からこのNTSC信号を読み出し、このNTSC信号を構成する画素データをRAM303に一時的に格納する。
【0134】
そして、ステップST3で、NTSC信号の全フレームまたは全フィールドの処理が終わっているか否かを判定する。処理が終わっているときは、ステップST4で、処理を終了する。一方、処理が終わっていないときは、ステップST5に進む。
【0135】
このステップST5では、Y,R−Y,B−Yコンポーネント信号における注目位置の画素(注目画素)を選択する。そして、ステップST6で、ステップST2で入力されたNTSC信号より、この注目位置の周辺に位置する複数の画素データを取得する。
【0136】
次に、ステップST7で、ステップST6で取得された複数の画素データに基づいて、Y,R−Y,B−Yコンポーネント信号における注目位置の画素データに関連した特徴量vを演算で求める(図5、図7参照)。そして、ステップST8で、特徴量vに基づいて、ROM302に格納されている係数種データwi0〜wi3から、(2)式の生成式によって、係数データWi(輝度信号Y、色差信号R−Y,B−Yの各信号分)を生成する。
【0137】
次に、ステップST9で、ステップST8で生成された係数データWiと、ステップST6で取得された複数の画素データ(予測タップ)xiとを使用して、(1)式の推定式により、Y,R−Y,B−Yコンポーネント信号(輝度信号Y、色差信号R−Y,B−Y)における注目位置の画素データを生成する。
【0138】
次に、ステップST10で、ステップST2で入力された1フレーム分または1フィールド分のNTSC信号の画素データの全領域においてY,R−Y,B−Yコンポーネント信号(輝度信号Y、色差信号R−Y,B−Y)の画素データを得る処理が終了したか否かを判定する。終了しているときは、ステップST2に戻り、次の1フレーム分または1フィールド分のNTSC信号の入力処理に移る。一方、終了していないときは、ステップST5に戻って、次の注目画素の選択を行って、上述したと同様の処理を繰り返す。
【0139】
このように、図16に示すフローチャートに沿って処理をすることで、入力されたNTSC信号の画素データを処理して、Y,R−Y,B−Yコンポーネント信号の画素データを得ることができる。上述したように、このように処理して得られたY,R−Y,B−Yコンポーネント信号は出力端子315に出力されたり、ディスプレイ311に供給されてそれによる画像が表示されたり、さらにはハードディスクドライブ305に供給されてハードディスクに記録されたりする。
【0140】
また、処理装置の図示は省略するが、図12の係数種データ生成装置150における処理を、ソフトウェアで実現することも可能である。
【0141】
図17のフローチャートを参照して、係数種データを生成するための処理手順を説明する。
まず、ステップST21で、処理を開始し、ステップST22で、教師信号(Y,R−Y,B−Yコンポーネント信号)を1フレーム分または1フィールド分だけ入力する。そして、ステップST23で、入力された教師信号より、生徒信号(NTSC信号)を生成する。
【0142】
次に、ステップST24で、教師信号の全フレームまたは全フィールドに対して学習処理が終わったか否かを判定する。終わっていないときは、ステップST25に進む。
ステップST25では、教師信号(Y,R−Y,B−Yコンポーネント信号)における注目位置の画素(注目画素)を選択する。そして、ステップST26で、ステップST23で生成された生徒信号(NTSC信号)より、この注目位置の周辺に位置する複数の画素データを取得する。
【0143】
次に、ステップST27で、ステップST26で取得された複数の画素データに基づいて、教師信号における注目位置の画素データに関連した特徴量vを演算で求める(図5、図7参照)。さらに、ステップST28で、ステップST27で求めた特徴量vをこの特徴量vを含む所定範囲の代表値に置き換え、この代表値をクラスコードCLとして決定する(図13参照)。
【0144】
次に、ステップST29で、正規方程式((9)式参照)を生成する。そして、ステップST30で、ステップST22で入力された教師信号の画素データの全領域において学習処理が終了したか否かを判定する。終了しているときは、ステップST22に戻って、次の1フレーム分または1フィールド分の教師信号の入力を行って、上述したと同様の処理を繰り返す。一方、終了していないときは、ステップST25に戻って、次の注目画素の選択を行って、上述したと同様の処理を繰り返す。
【0145】
また、ステップST24で、教師信号の全フレームまたは全フィールドに対して学習処理が終わったときは、ステップST31に進む。このステップST31では、正規方程式を掃き出し法等で解くことによって係数種データwi0〜wi3を算出し、ステップST32で、その係数種データwi0〜wi3をメモリに保存し、その後にステップST33で、処理を終了する。
【0146】
このように、図17に示すフローチャートに沿って処理をすることで、図12に示す係数種データ生成装置150と同様の手法によって、係数種データを得ることができる。
また、処理装置の図示は省略するが、図14の係数種データ生成装置150Aにおける処理も、ソフトウェアで実現可能である。
【0147】
図18のフローチャートを参照して、係数種データを生成するための処理手順を説明する。
まず、ステップST41で、処理を開始し、ステップST42で、教師信号(Y,R−Y,B−Yコンポーネント信号)を1フレーム分または1フィールド分だけ入力する。そして、ステップST43で、入力された教師信号より、生徒信号(NTSC信号)を生成する。
【0148】
次に、ステップST44で、教師信号の全フレームまたは全フィールドに対して学習処理が終わったか否かを判定する。終わっていないときは、ステップST45に進む。
ステップST45では、教師信号(Y,R−Y,B−Yコンポーネント信号)における注目位置の画素(注目画素)を選択する。そして、ステップST46で、ステップST43で生成された生徒信号(NTSC信号)より、この注目位置の周辺に位置する複数の画素データを取得する。
【0149】
次に、ステップST47で、ステップST46で取得された複数の画素データに基づいて、教師信号における注目位置の画素データに関連した特徴量vを演算で求める(図5、図7参照)。さらに、ステップST48で、ステップST47で求めた特徴量vをこの特徴量vを含む所定範囲の代表値に置き換え、この代表値をクラスコードCLとして決定する(図13参照)。
【0150】
次に、ステップST49で、クラス毎に、正規方程式((16)式参照)を生成する。そして、ステップST50で、ステップST42で入力された教師信号の画素データの全領域において学習処理が終了したか否かを判定する。終了しているときは、ステップST42に戻って、次の1フレーム分または1フィールド分の教師信号の入力を行って、上述したと同様の処理を繰り返す。一方、終了していないときは、ステップST45に戻って、次の注目画素の選択を行って、上述したと同様の処理を繰り返す。
【0151】
また、ステップST44で、教師信号の全フレームまたは全フィールドに対して学習処理が終わったときは、ステップST51に進む。このステップST51では、正規方程式を掃き出し法等で解くことによって、クラス毎に、係数データWiを算出する。
【0152】
次に、ステップST52で、ステップST51で算出された各クラスの係数データWiから、係数種データwi0〜wi3を求めるための正規方程式((21)式参照)を生成する。そして、ステップST53で、ステップST52で生成された正規方程式を掃き出し法等で解くことによって係数種データwi0〜wi3を算出し、ステップST54で、その係数種データwi0〜wi3をメモリに保存し、その後にステップST55で、処理を終了する。
【0153】
このように、図18に示すフローチャートに沿って処理をすることで、図14に示す係数種データ生成装置150Aと同様の手法によって、係数種データを得ることができる。
【0154】
なお、図3の画像信号処理部104では、係数データWi(i=1〜n)を生成するために(2)式の生成式を使用したが、次数の異なった多項式や、他の関数で表現される式でも実現可能である。
【0155】
また、図3の画像信号処理部104ではコンポジット信号であるNTSC信号をコンポーネント信号である輝度信号Y、色差信号R−Y,B−Yに変換するものを示した。しかし、コンポジット信号とコンポーネント信号の組み合わせはこれに限定されるものではない。例えば、他のコンポジット信号としては、PAL(phase alternating by line)信号等がある。また、他のコンポーネント信号としては赤、緑、青の3原色信号等がある。
【0156】
また、図3の画像信号処理部104の特徴量抽出部113で抽出される特徴量は、図5あるいは図7に示すものに限定されるものではない。要は、Y,R−Y,B−Yコンポーネント信号における注目位置の画素データに関連した特徴量であればよい。また、図5の特徴量抽出部113では特徴量v=L/Lとしたものであるが、v=log(L/L)の形で用いてもよい。同様に、図7の特徴量抽出部113では特徴量v=T/Tとしたものであるが、v=log(T/T)の形で用いてもよい。
【0157】
また、図3の画像信号処理部104では、1種類の特徴量vのみを使用するものであったが、2種類以上の特徴量vを用いるものも同様に構成することができる。例えば、図5、図7の特徴量抽出部113で抽出された2つの特徴量vを使用した構成とすることもできる。
【0158】
その場合、それぞれの特徴量vをv,vとするとき、係数データWiを生成するための生成式としては、(22)式に示すような生成式を用いることができる。
【0159】
【数14】
Figure 2004007227
【0160】
また、この生成式における係数データである係数種データwi0〜wi9は、図12に示す係数種データ生成装置150あるいは図14に示す係数種データ生成装置150Aと同様の構成の係数種データ生成装置により生成できる。その場合、特徴量vよりM段階のクラスが得られ、特徴量vよりM段階のクラスが得られ、合わせてM×M個にクラス分類される。つまり、クラスコード決定部154からは特徴量v,vそれぞれの代表値がクラスコードCL,CLとして得られ、これらクラスコードCL,CLを用いて正規方程式の生成が行われることとなる。
【0161】
また、図3の画像信号処理部104では、NTSC信号からY,R−Y,B−Yコンポーネント信号に変換するための推定式として線形一次方程式を使用したものを挙げたが、これに限定されるものではなく、例えば推定式として高次方程式を使用してもよい。
【0162】
また、図3の画像信号処理部104はNTSC信号からY,R−Y,B−Yコンポーネント信号に変換するものであったが、マトリックス回路105(図1参照)の機能をも含めることができる。その場合、NTSC信号からコンポーネント信号としての3原色信号R,G,Bに変換することができる。
【0163】
また、上述実施の形態においては、情報信号が画像信号であるものを示したが、この発明はこれに限定されない。例えば、情報信号が音声信号である場合にも、この発明を同様に適用することができる。
【0164】
【発明の効果】
この発明によれば、第1の情報信号を第2の情報信号に変換する際に、第2の情報信号における注目位置の画素データを推定式に基づいて生成するものであって、第2の情報信号における注目位置の情報データに関連した特徴量を抽出し、この特徴量に対応した推定式の係数データを係数種データを用いて生成するものであり、メモリ容量を節約して回路規模を低減できると共に、第2の情報信号(出力情報信号)による出力の質の向上を図ることができる。
【0165】
また、この発明によれば、第1の情報信号を第2の情報信号に変換する際に使用される推定式で用いられる係数データを生成するための、特徴量をパラメータとして含む生成式における係数データである係数種データを良好に得ることができる。
【図面の簡単な説明】
【図1】実施の形態としてのテレビ受信機の構成を示すブロック図である。
【図2】各フィールドの画素データの構成を示す図である。
【図3】画像信号処理部の構成を示すブロック図である。
【図4】予測タップの構造例を示す図である。
【図5】特徴量抽出部の構成例を示すブロック図である。
【図6】特徴量を抽出するための画素データ例を示す図である。
【図7】特徴量抽出部の構成例を示すブロック図である。
【図8】特徴量を抽出するための画素データ例を示す図である。
【図9】特徴量vと各タップの係数データWiとの関係例を示す図である。
【図10】予測タップの構造例を示す図である。
【図11】特徴量vと各タップの係数データWiとの関係例を示す図である。
【図12】係数種データ生成装置の構成例を示すブロック図である。
【図13】クラスコード決定処理を説明するための図である。
【図14】係数種データ生成装置の構成例を示すブロック図である。
【図15】ソフトウェアで実現するための画像信号処理装置の構成例を示すブロック図である。
【図16】画像信号処理を示すフローチャートである。
【図17】係数種データ生成処理を示すフローチャートである。
【図18】係数種データ生成処理を示すフローチャートである。
【符号の説明】
100・・・テレビ受信機、101・・・受信アンテナ、102・・・チューナ、103・・・A/D変換器、104・・・画像信号処理部、105・・・マトリックス回路、106・・・表示デバイス、111・・・入力端子、112・・・タップ選択部、113・・・特徴量抽出部、114・・・係数生成部、115・・・係数種メモリ、116・・・推定予測演算部、117・・・出力端子、121・・・バンドバスフィルタ、122,123,132・・・遅延回路、124,126,131・・・加算回路、125,127・・・絶対値化回路、128,133・・・除算回路、150,150A・・・係数種データ生成装置、151・・・入力端子、152・・・NTSCエンコーダ、153・・・特徴量抽出部、154・・・クラスコード決定部、155・・・タップ選択部、156・・・遅延回路、157,161,163・・・正規方程式生成部、158,164・・・係数種データ決定部、159・・・係数種メモリ、162・・・係数データ決定部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention is suitable for, for example, converting a composite signal into a component signal, a processing device and a processing method of an information signal, a generating device and a generating method of coefficient seed data used for the same, and executing each method. And a computer-readable medium storing the program.
[0002]
More specifically, the present invention, when converting the first information signal into the second information signal, generates pixel data of a target position in the second information signal based on an estimation formula. By extracting the feature amount related to the information data of the target position in the information signal of, and generating the coefficient data of the estimation formula corresponding to this feature amount using the coefficient seed data, the memory capacity can be saved and the circuit scale can be reduced. The present invention relates to an information signal processing device and the like which reduce the output and improve the quality of output by the second information signal.
[0003]
[Prior art]
In the conventional composite-component conversion, a composite signal, for example, an NTSC (National Television System Comittee) signal is first separated into a Y signal (luminance signal) and a C signal (color signal) by a Y / C separation circuit. , C signals are converted to baseband Y, RY, and BY component signals by color demodulation.
[0004]
Therefore, there is a problem that the circuit scale of the configuration for performing the processing is increased. Further, there is a problem in that image quality degradation such as dot disturbance and cross color is likely to occur in an edge portion of an image, a moving image portion, and the like due to an error in Y / C separation.
[0005]
Therefore, the present applicant extracts a plurality of pixel data located around the target position of the Y, RY, BY component signal from, for example, an NTSC signal, and based on the level distribution pattern of the plurality of pixel data. Then, the class of the pixel data of the target position in the Y, RY, BY component signal is determined, and the pixel data of the target position in the Y, RY, BY component signal is determined in accordance with this class. There has been proposed an image information converting apparatus for generating the image information (see Japanese Patent Application Laid-Open No. 2000-138949).
[0006]
[Problems to be solved by the invention]
This image information converter converts NTSC signals directly into Y, RY, and BY component signals, for example, and does not use a Y / C separation circuit or a color demodulation circuit but can reduce the circuit scale. In addition, it is possible to reduce image disturbance such as dot interference and cross color caused by an error in Y / C separation.
[0007]
However, in this image information conversion apparatus, pixel data of a target position in a Y, RY, BY component signal is generated based on an estimation formula, and coefficient data of the estimation formula of each class is calculated in advance by a coefficient. It was to be stored in memory. In order to improve the image quality of the image based on the Y, RY, and BY component signals, it is necessary to increase the number of classes. However, when the number of classes is increased, the coefficient data of the estimation formula to be stored in the coefficient memory increases, and it is necessary to increase the memory capacity of the coefficient memory, thereby increasing the circuit scale.
[0008]
SUMMARY OF THE INVENTION It is an object of the present invention to provide an information signal processing device and the like which can save the memory capacity and reduce the circuit scale, and can improve the quality of output by an output information signal. Further, an object of the present invention is to provide a coefficient seed data generation device and the like that can satisfactorily obtain coefficient seed data that is coefficient data in a generation equation for generating coefficient data of an estimation equation corresponding to a feature amount. It is in.
[0009]
[Means for Solving the Problems]
An information signal processing device according to the present invention is an information signal processing device that converts a first information signal including a plurality of pieces of information data into a second information signal including a plurality of pieces of information data. First data selecting means for selecting a plurality of first information data located around the target position in the second information signal based on the first information selecting means, and a plurality of first information data selected by the first data selecting means. A feature amount extracting unit configured to extract a feature amount related to the information data of the target position in the second information signal using the information data; and a coefficient data generating unit configured to generate coefficient data used in an estimation expression including the feature amount as a parameter. A storage unit that stores coefficient seed data that is the coefficient data of the generation formula, and a coefficient type data that is estimated based on the generation formula using the coefficient seed data stored in the storage unit and the feature value extracted by the feature value extraction device. A coefficient data generating means for generating coefficient data used in the equation, and a second selecting means for selecting, based on the first information signal, a plurality of pieces of second information data located around the target position in the second information signal. Using the data selection means, the coefficient data generated by the coefficient data generation means, and the plurality of pieces of second information data selected by the second data selection means, the attention in the second information signal based on the estimation formula And calculating means for calculating pixel data of the position.
[0010]
Further, an information signal processing method according to the present invention is an information signal processing method for converting a first information signal including a plurality of pieces of information data into a second information signal including a plurality of pieces of information data. A first step of selecting a plurality of pieces of first information data located around a target position in a second information signal based on a signal, and a plurality of pieces of first information data selected in the first step A second step of extracting a feature amount related to the information data of the position of interest in the second information signal, using a formula (1), and a generation formula for generating coefficient data used in an estimation formula, including the feature value as a parameter. A third step of generating coefficient data used in an estimation expression based on a generation expression using coefficient seed data which is coefficient data of the first step and a feature amount extracted in the second step; and a first information signal. A fourth step of selecting a plurality of pieces of second information data located around the position of interest in the second information signal, based on the coefficient data generated in the third step, and a fourth step of selecting the second information data. A fifth step of calculating pixel data of a target position in the second information signal based on the estimation formula using the plurality of pieces of second information data.
[0011]
A program according to the present invention is for causing a computer to execute the above information signal processing method. A computer-readable medium according to the present invention stores the above-mentioned program.
[0012]
In the present invention, a plurality of first information data located around the target position in the second information signal is selected from the first information signal, and a second information data is selected based on the plurality of first information data. The feature amount related to the information data of the target position in the information signal is extracted. Information data of the target position in the second information signal is generated in accordance with the extracted feature amount.
[0013]
That is, coefficient seed data, which is the coefficient data of the generation formula for generating the coefficient data used in the estimation formula, including the feature amount as a parameter, is stored in the storage means. Using the coefficient seed data and the extracted feature amount, coefficient data of an estimation formula corresponding to the extracted feature amount is generated.
[0014]
In addition, a plurality of pieces of second information data located around the target position in the second information signal are selected from the first information signal. Then, using the coefficient data of the estimation formula and the plurality of pieces of second information data, the pixel data of the target position in the second information signal is obtained based on the estimation formula.
[0015]
As described above, the coefficient data of the estimation formula corresponding to the feature amount related to the information data of the target position in the second information signal is generated and used using the coefficient seed data. Therefore, a plurality of coefficient data are not stored in the coefficient memory in advance, and the memory capacity can be saved and the circuit scale can be reduced. In addition, coefficient data corresponding to the feature amount itself is generated and used. Instead of generating and using coefficient data for each class by classifying the feature amount, the quality of output by the second information signal is improved. it can.
[0016]
In the case where the information signal is a composite color video signal, the characteristic amount extraction means uses the ratio of the change amount of the color signal of the upper line and the lower line to the line where the target position in the second information signal exists as the characteristic amount. By extracting, it is possible to reduce dot disturbance for a pattern in which a color change is mainly observed in the vertical direction.
[0017]
In the case where the information signal is composed of a plurality of pixel data obtained by sampling the NTSC signal as a composite signal at four times the frequency of the chrominance carrier frequency in the phases of the I axis and the Q axis, By extracting the ratio of the amount of change in the vertical direction between the I signal component and the Q signal component in the vicinity of the target position in the information signal of No. 2 as a feature amount, one of the I signal component and the Q signal component is mainly It is possible to reduce dot disturbance for a pattern in which only a large change occurs.
[0018]
Further, the coefficient seed data generation device according to the present invention includes a coefficient used in an estimation formula used when converting a first information signal including a plurality of pieces of information data into a second information signal including a plurality of pieces of information data. An apparatus for generating coefficient seed data, which is coefficient data in a generation formula including a feature value as a parameter, for generating data, wherein a second information signal is generated based on a student signal corresponding to the first information signal. A first data selecting means for selecting a plurality of first information data located around the position of interest in the teacher signal corresponding to the above, and a plurality of the first information data selected by the first data selecting means. A feature value extracting means for extracting a feature value related to the information data at the position of interest in the second information signal, and a feature value extracted by the feature value extracting device in a predetermined range including the feature value. Class code determining means for replacing the representative value with the representative value and determining the representative value as a class code; and second data for selecting a plurality of second information data located around the target position in the teacher signal based on the student signal. Coefficient seed data is obtained by using the selecting means, the class code determined by the class code determining means, the plurality of second information data selected by the second data selecting means, and the information data of the target position in the teacher signal. Calculation means.
[0019]
Further, the coefficient seed data generating method according to the present invention is characterized in that a coefficient used in an estimation formula used when converting a first information signal including a plurality of pieces of information data into a second information signal including a plurality of pieces of information data. A method for generating coefficient seed data, which is coefficient data in a generation formula including a feature value as a parameter, for generating data, wherein a second information signal is generated based on a student signal corresponding to the first information signal. A first step of selecting a plurality of first information data located around the position of interest in the teacher signal corresponding to the first step, and a plurality of first information data selected in the first step. A second step of extracting a feature amount related to the information data of the position of interest in the information signal of No. 2 and placing the feature amount extracted in the second step in a representative value of a predetermined range including the feature amount. In other words, a third step of determining this representative value as a class code, a fourth step of selecting a plurality of pieces of second information data located around the position of interest in the teacher signal based on the student signal, A fifth step of obtaining coefficient seed data using the class code determined in the third step, the plurality of pieces of second information data selected in the fourth step, and the information data of the target position in the teacher signal. Things.
[0020]
A program according to the present invention causes a computer to execute the above-described coefficient seed data generation method. A computer-readable medium according to the present invention stores the above-mentioned program.
[0021]
In the present invention, a plurality of first information data located around a target position in the teacher signal corresponding to the second information signal is selected from the student signal corresponding to the first information signal, and the plurality of first information data are selected. Based on one information data, a feature amount related to the information data of the target position in the teacher signal is extracted. Then, the extracted feature value is replaced with a representative value in a predetermined range including the feature value, and the representative value is determined as a class code.
[0022]
In addition, a plurality of pieces of second information data located around the target position in the teacher signal are selected from the student signal. Then, coefficient seed data is determined using the determined class code, the selected plurality of second information data, and the information data of the target position in the teacher signal. Here, the coefficient seed data is coefficient data in a generation formula for generating coefficient data used in an estimation formula used when converting the first information signal into the second information signal. By using this coefficient seed data, it is possible to obtain coefficient data corresponding to an arbitrary feature amount by a generation formula.
[0023]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of a television receiver 100 as an embodiment.
The television receiver 100 is supplied with a receiving antenna 101 and a broadcast signal (RF modulated signal) captured by the receiving antenna 101, performs channel selection processing, intermediate frequency amplification processing, detection processing, and the like, and performs composite color video processing. The system includes a tuner 102 that obtains an NTSC signal as a signal, and an analog-to-digital (A / D) converter 103 that converts an NTSC signal output from the tuner 102 from an analog signal to a digital signal.
[0024]
In the A / D converter 103, the NTSC signal is sampled on the I axis and the Q axis at a frequency four times as high as 4 fsc (where fsc is the color width carrier frequency), and is converted from an analog signal to a digital signal. FIG. 2 shows a configuration of pixel data of each field in that case.
[0025]
In FIG. 2, a circle indicates a Y-I signal having a phase of 0 degrees, a square indicates a YQ signal having a phase of 90 degrees, and a black circle indicates a Y + I signal having a phase of 180 degrees. ■ indicates a Y + Q signal having a phase of 270 degrees. As described above, the YI signal, the YQ signal, the Y + I signal, and the Y + Q signal are repeatedly arranged in the horizontal direction, and the YI signal and the Y + I signal are alternately arranged in a certain column in the vertical direction. In the column adjacent thereto, the YQ signal and the Y + Q signal are alternately arranged.
[0026]
Returning to FIG. 1, the television receiver 100 converts the NTSC signal converted into a digital signal by the A / D converter 103 into a component including a baseband luminance signal Y and color difference signals RY and BY. An image signal processing unit 104 that converts the Y, RY, and BY component signals into signals (Y, RY, and BY component signals); It has a matrix circuit 105 for converting into three primary color signals R, G, B, and a display device 106 for displaying an image based on the three primary color signals R, G, B output from the matrix circuit 105. The display device 106 includes, for example, a CRT (cathode-ray tube) display, an LCD (liquid crystal display), a PDP (plasma display panel), and the like.
[0027]
The operation of the television receiver 100 shown in FIG. 1 will be described.
The NTSC signal output from the tuner 102 is converted from an analog signal to a digital signal by an A / D converter 103, and then supplied to an image signal processing unit 104. The image signal processing unit 104 generates pixel data forming each of the luminance signal Y and the color difference signals RY and BY from the pixel data forming the NTSC signal.
[0028]
The Y, RY, and BY component signals output from the image signal processing unit 104 are supplied to a matrix circuit 105 and converted into three primary color signals R, G, and B of red, green, and blue. Then, the three primary color signals R, G, B output from the matrix circuit 105 are supplied to the display device 106. Thus, the image related to the channel selected by the tuner 102 is displayed on the display device 106 by the three primary color signals R, G, and B.
[0029]
Next, details of the image signal processing unit 104 will be described with reference to FIG.
The image signal processing unit 104 receives an NTSC signal converted into a digital signal by the A / D converter 103 (see FIG. 1), and inputs the NTSC signal. A tap selection unit 112 for selectively extracting and outputting a plurality of pixel data located around the target position in the RY and BY component signals.
[0030]
The tap selection unit 112 extracts a plurality of pixel data of a prediction tap used for prediction from the NTSC signal. FIG. 4 shows an example of the structure of the prediction tap. In this case, the prediction tap is x1~ X16, But x1~ XFifteenAre extracted from the NTSC signal. x16Is a constant, and is used to adjust a DC (Direct @ Current) -like offset (offset) generated between the two signals at the time of composite-component signal conversion.
[0031]
Further, the image signal processing unit 104 extracts a feature amount related to pixel data of a target position in the Y, RY, BY component signal from the NTSC signal input to the input terminal 111. have.
[0032]
FIG. 5 illustrates an example of the feature amount extraction unit 113. The feature amount extraction unit 113 shown in FIG. 5 sets the ratio of the change amount of the color signal of the upper line and the color signal of the lower line to the line where the target position exists in the Y, RY, BY component signal as the feature amount v. It is to extract.
[0033]
In FIG. 5, the NTSC signal is supplied to a band-pass filter (BPF) 121 having a center frequency of fsc (fsc is a color width carrier frequency), and the band-pass filter 121 extracts a color signal C from the NTSC signal. The color signal C extracted by the band-pass filter 121 is supplied to a series circuit of delay circuits 122 and 123 having a delay amount of one horizontal period.
[0034]
Further, the output signal of the delay circuit 122 and the output signal of the delay circuit 123 are added by the adder circuit 124, and the added value is supplied to the absolute value conversion circuit 125 and the absolute value L1Is obtained. Similarly, the output signal of the band-pass filter 121 and the output signal of the delay circuit 122 are added by the adding circuit 126, and the added value is supplied to the absolute value converting circuit 127 to output the absolute value L2Is obtained.
[0035]
In this case, assuming that the pixel data output from the delay circuit 122 is the pixel data a0 at the same position in the vertical and horizontal directions as the target position in the Y, RY, and BY component signals, as shown in FIG. As described above, the pixel data output from the delay circuit 123 is pixel data au at the same position in the horizontal direction on one line in the vertical direction with respect to the pixel data a0, and the pixel data output from the bandpass filter 121 is The pixel data ad is located one line below the data a0 in the vertical direction and at the same position in the horizontal direction. The addition circuit 124 adds the pixel data a0 and au, and the addition circuit 126 adds the pixel data a0 and ad.
[0036]
In the NTSC signal, the phase of the chrominance carrier is inverted every line. Therefore, the absolute value L obtained from the absolute value conversion circuit 1251Indicates the amount of change in the color signal C of the line above the line where the target position exists in the Y, RY, BY component signals. In this case, if the correlation between the color signal C of the line where the target position exists and the color signal C of the line above it is high, the absolute value L1Becomes smaller.
[0037]
Similarly, the absolute value L obtained from the absolute value conversion circuit 1272Indicates the amount of change in the color signal C of the line below the line where the target position exists in the Y, RY, BY component signals. In this case, if the correlation between the color signal C of the line where the target position exists and the color signal C of the line below the line is high, the absolute value L2Becomes smaller.
[0038]
Absolute value L obtained by absolute value conversion circuits 125 and 1271, L2Is supplied to the division circuit 128, and the characteristic amount v = L2/ L1Is obtained. This feature amount v indicates the ratio of the change amount of the color signal of the upper line and the lower line to the line where the target position exists in the Y, RY, and BY component signals.
[0039]
As described above, the feature amount extraction unit 113 shown in FIG. 5 uses the pixel data a0, au, and ad to extract the pixel data of the target position in the Y, RY, and BY component signals as shown in FIG. To obtain a feature value v related to. Therefore, the processing in the feature amount extraction unit 113 shown in FIG. 5 selects pixel data a0, au, and ad located around the target position in the Y, RY, and BY component signals based on the NTSC signal. This is equivalent to extracting the feature amount v using the selected pixel data a0, au, and ad.
[0040]
FIG. 7 shows another example of the feature amount extraction unit 113. The feature value extraction unit 113 shown in FIG. 7 calculates the ratio of the change amount of each of the I signal component and the Q signal component in the Y, RY, and BY component signals near the target position in the vertical direction to the feature value v. Is extracted as 7, parts corresponding to those in FIG. 5 are denoted by the same reference numerals, and detailed description thereof will be omitted.
[0041]
In FIG. 7, the absolute value L obtained by the absolute value conversion circuits 125 and 127 is shown.1, L2Is supplied to the addition circuit 131 and added. The addition value T output from the addition circuit 1312Is supplied to a delay circuit 132 having a delay time of one pixel period.
[0042]
Here, assuming that the pixel data output from the delay circuit 122 is the pixel data a0 at the same position in the vertical and horizontal directions as the target position in the Y, RY, and BY component signals, as shown in FIG. As described above, the pixel data output from the delay circuit 123 is pixel data au at the same position in the horizontal direction on one line in the vertical direction with respect to the pixel data a0, and the pixel data output from the bandpass filter 121 is The pixel data ad is located one line below the data a0 in the vertical direction and at the same position in the horizontal direction. The addition circuit 124 adds the pixel data a0 and au, and the addition circuit 126 adds the pixel data a0 and ad.
[0043]
In the NTSC signal, the phase of the chrominance carrier is inverted every line. Therefore, the absolute value L obtained from the absolute value conversion circuit 1251Indicates the amount of change in the color signal C of the line above the line where the target position exists in the Y, RY, BY component signals. In this case, if the correlation between the color signal C of the line where the target position exists and the color signal C of the line above it is high, the absolute value L1Becomes smaller.
[0044]
Similarly, the absolute value L obtained from the absolute value conversion circuit 1272Indicates the amount of change in the color signal C of the line below the line where the target position exists in the Y, RY, BY component signals. In this case, if the correlation between the color signal C of the line where the target position exists and the color signal C of the line below the line is high, the absolute value L2Becomes smaller.
[0045]
Therefore, the addition value T obtained from the addition circuit 1312Indicates the amount of change in the I signal component or the Q signal component in the vertical direction including the target position in the Y, RY, and BY component signals. At this time, the added value T output from the delay circuit 1321Is the added value T obtained from the adder 131 one pixel period ago.2It is. That is, this added value T1Is obtained based on pixel data a0 ', au', ad 'horizontally adjacent to the pixel data a0, au, ad, as shown in FIG. Therefore, the added value T obtained from the delay circuit 1321Indicates the amount of change in the Q signal component or the I signal component in the vertical direction including the position one pixel before the target position in the Y, RY, and BY component signals.
[0046]
In the pixel data example shown in FIG. 8, since the target position corresponds to the position where the I signal component exists, the added value T2Indicates the amount of change in the I signal component in the vertical direction, while the added value T1Indicates the amount of change in the Q signal component in the vertical direction.
[0047]
Addition value T output from addition circuit 1312And added value T output from delay circuit 1321Is supplied to the division circuit 133, and the characteristic amount v = T2/ T1Is obtained. The feature amount v indicates the ratio of the change amount in the vertical direction of each of the I signal component and the Q signal component near the target position in the Y, RY, and BY component signals.
[0048]
As described above, the feature quantity extraction unit 113 shown in FIG. 7 uses the pixel data a0, au, ad, a0 ', au', and ad 'as shown in FIG. This is for obtaining a feature amount v related to pixel data at a position of interest in the Y component signal. Accordingly, the processing in the feature amount extraction unit 113 shown in FIG. 7 is based on the NTSC signal, and the pixel data a0, au, ad, a0 'located around the target position in the Y, RY, BY component signal. , Au ′, ad ′, and extracting the feature amount v using the selected pixel data a0, au, ad, a0 ′, au ′, ad ′.
[0049]
In the example of the pixel data shown in FIG. 8, the pixel data a0, au, and ad and the pixel data a0 ', au', and ad 'one pixel before the pixel data are used. Pixel data one pixel after pixel data a0, au, and ad may be used as ad '. In that case, the addition value T1Are obtained using the pixel data a0, au, and ad, and the added value T2Are obtained using the pixel data a0 ', au', and ad '.
[0050]
Returning to FIG. 3, the image signal processing unit 104 further includes a coefficient generation unit 114 that generates coefficient data Wi (i = 1 to n) corresponding to the feature amount v extracted by the feature amount extraction unit 113. ing. Here, n represents the number of prediction taps selected by the tap selection unit 112. The coefficient data Wi is used in an estimation formula used in the estimation prediction operation unit 116 described later, and is information for converting an NTSC signal into a Y, RY, and BY component signal.
[0051]
The coefficient generation unit 114 generates coefficient data Wi for obtaining each of the luminance signal Y and the color difference signals RY and BY constituting the Y, RY, and BY component signals. The coefficient data Wi (each signal of the luminance signal Y and the color difference signals RY and BY) generated by the coefficient generation unit 114 is supplied to the estimation prediction calculation unit 116.
[0052]
Further, the image signal processing unit 104 includes a coefficient seed memory 115. In the estimation prediction calculation unit 116, the luminance signal Y and the color difference signals R-Y, B- are calculated from the pixel data xi of the prediction tap and the coefficient data Wi generated in the coefficient generation unit 114 by the estimation expression of Expression (1). Pixel data y at the position of interest in each of Y is calculated.
[0053]
(Equation 1)
Figure 2004007227
[0054]
The coefficient data Wi of the estimation expression is generated by a generation expression including the feature amount v as a parameter as shown in Expression (2). The coefficient seed memory 115 stores the coefficient seed data w which is the coefficient data in this generation formula.i0~ Wi3(For each of the luminance signal Y and the color difference signals RY and BY). In the coefficient generation unit 114 described above, the coefficient seed data wi0~ Wi3Is used, coefficient data Wi is generated based on the generation expression of Expression (2).
Wi = wi0+ Wi1v + wi2v2+ Wi3v3... (2)
[0055]
Further, the image signal processing unit 104 includes pixel data xi of the prediction tap selectively extracted by the tap selection unit 112 and coefficient data Wi (luminance signal Y, color difference signals RY, B) generated by the coefficient generation unit 114. −Y signal components) to calculate the pixel data y of the target position in each of the luminance signal Y and the color difference signals RY, BY constituting the Y, RY, and BY component signals. It has a prediction operation unit 116 and an output terminal 117 that outputs a Y, RY, BY component signal composed of pixel data y calculated by the estimation prediction operation unit 116.
[0056]
Next, the operation of the image signal processing unit 104 shown in FIG. 3 will be described.
The NTSC signal input to the input terminal 111 is supplied to the feature amount extraction unit 113. The feature amount extraction unit 113 extracts a feature amount v associated with pixel data of a target position in the Y, RY, and BY component signals from the NTSC signal. The feature amount v extracted by the feature amount extraction unit 113 is supplied to the coefficient generation unit 114.
[0057]
The coefficient generation unit 114 stores the coefficient seed data w stored in the coefficient seed memory 115.i0 ~ wi3(The luminance signal Y and the color difference signals RY and BY), and the luminance signals constituting the Y, RY and BY component signals based on the generation formula of the expression (2). For obtaining each of the Y and color difference signals RY and BY, coefficient data Wi corresponding to the feature value v is generated.
[0058]
The coefficient data Wi (the luminance signal Y, the color difference signals RY, and BY signals) generated by the coefficient generation unit 114 are supplied to the estimation prediction calculation unit 116. The NTSC signal input to the input terminal 111 is supplied to the tap selection unit 112. The tap selection unit 112 selectively extracts, from the NTSC signal, pixel data xi of a prediction tap located around the target position in the Y, RY, and BY component signals. The pixel data xi of the prediction tap extracted by the tap selection unit 112 is supplied to the estimation prediction calculation unit 116.
[0059]
The estimation / prediction calculation unit 116 uses the pixel data xi of the prediction tap and the coefficient data Wi (for each signal of the luminance signal Y and the color difference signals RY and BY) to calculate the estimation equation (1). Based on this, the pixel data y of the target position in each of the luminance signal Y and the color difference signals RY and BY constituting the Y, RY and BY component signals is calculated. The output terminal 117 outputs the Y, RY, and BY component signals composed of the pixel data y calculated by the estimation / prediction calculation unit 116.
[0060]
As described above, the NTSC signal can be converted into the Y, RY, and BY component signals by the image signal processing unit 104 shown in FIG.
In the image signal processing unit 104, the coefficient data Wi corresponding to the characteristic amount v associated with the pixel data at the target position in the Y, RY, BY component components extracted by the characteristic amount extraction unit 113 It is generated and used by the generation unit 114. Therefore, a plurality of coefficient data are not stored in the coefficient memory in advance, and the memory capacity can be saved and the circuit scale can be reduced.
[0061]
Further, in the image signal processing unit 104, the coefficient data Wi corresponding to the feature amount v itself related to the pixel data of the target position in the Y, RY, and BY component signals extracted by the feature amount extraction unit 113 is calculated. It is generated and used by the coefficient generation unit 114. Therefore, instead of classifying the feature amount v to generate and use the coefficient data Wi for each class, it is possible to improve the image quality of the image using the Y, RY, and BY component signals obtained by conversion. it can.
[0062]
Further, in the image signal processing unit 104, the feature amount extraction unit 113 is configured as shown in FIG. 5, and the upper and lower lines of the line where the target position exists in the Y, RY, and BY component signals are located. By extracting the ratio of the change amount of the color signal as the feature amount v, it is possible to reduce the dot disturbance for a pattern in which the color change is mainly observed in the vertical direction.
[0063]
FIG. 9 shows the relationship between the feature value v extracted by the feature value extraction unit 113 shown in FIG. 5 and the coefficient data Wi of each tap generated using the feature value v in the prediction tap structure shown in FIG. An example is shown. The horizontal axis in FIG. 9 is the logarithmic value of the feature value v. In FIG. 9, the tap x corresponding to the target position5Are normalized so that the coefficient data of becomes 1.
[0064]
As is clear from this figure, the tap x corresponding to the upper line1, X2, X3Is the feature value v (= L2/ L1) Increases, that is, as the color correlation of the upper line with respect to the line where the target position exists is higher than that of the lower line. On the other hand, tap x corresponding to the lower line7, X8, X9The absolute value of the coefficient increases as the feature amount v decreases, that is, as the color correlation between the lower line and the upper line with respect to the line where the target position exists increases.
[0065]
In the image signal processing unit 104, the feature amount extraction unit 113 is configured as shown in FIG. 7, and the I signal component and the Q signal component in the vicinity of the target position in the Y, RY, and BY component signals respectively. By extracting the ratio of the change amount in the vertical direction as the feature amount v, it is possible to reduce the dot disturbance mainly in the pattern in which only one of the I signal component and the Q signal component largely changes in the vertical direction. it can.
[0066]
FIG. 11 shows the relationship between the feature value v extracted by the feature value extraction unit 113 shown in FIG. 7 and the coefficient data Wi of each tap generated using the feature value v in the prediction tap structure shown in FIG. An example is shown. The horizontal axis in FIG. 11 is the logarithmic value of the feature value v. FIG. 11 shows an example in which the target position corresponds to the Y + I signal.
[0067]
As is clear from this figure, for example, the tap x corresponding to the Y + I signal8Is a feature amount v (= T2/ T1) Becomes smaller, that is, as the change amount of the I signal component in the vertical direction becomes smaller than the change amount of the Q signal component in the vertical direction. On the other hand, for example, a tap x corresponding to the Y + Q signal and the Y-Q signal7, X9Is the feature value v (= T2/ T1) Increases, that is, as the amount of change in the vertical direction of the Q signal component becomes smaller than the amount of change in the vertical direction of the I signal component.
[0068]
Next, an example of a method of generating coefficient seed data will be described. In this example, the coefficient seed data w which is the coefficient data in the generation equation of the above-described equation (2)i0~ Wi3Let us show an example of finding.
Here, for the following description, as shown in Expression (3), tj(J = 0 to 3) is defined.
t0= 1, t1= V, t2= V2, T3= V3... (3)
Using this equation (3), equation (2) can be rewritten as equation (4).
[0069]
(Equation 2)
Figure 2004007227
[0070]
Finally, the undetermined coefficient wijAsk for. That is, the coefficient value that minimizes the square error is determined using the pixel data of the student signal corresponding to the NTSC signal and the pixel data of the teacher signal corresponding to the Y, RY, and BY component signals. This is a so-called least squares method. Let the number of learning be m and the residual in k-th (1 ≦ k ≦ m) learning data be ek, And the total sum of the square errors is E, E is expressed by equation (5) using equations (1) and (2). Where xikIs the k-th pixel data at the i-th predicted tap position of the student signal, ykRepresents the pixel data of the k-th teacher signal corresponding thereto.
[0071]
(Equation 3)
Figure 2004007227
[0072]
In the solution by the method of least squares, w of equation (5) is used.ijW such that the partial differential byijAsk for. This is shown by equation (6).
[0073]
(Equation 4)
Figure 2004007227
[0074]
Hereinafter, as shown in Expressions (7) and (8), Xipjq, YipIs defined, Expression (6) can be rewritten using a matrix as in Expression (9).
[0075]
(Equation 5)
Figure 2004007227
[0076]
(Equation 6)
Figure 2004007227
[0077]
This equation is generally called a normal equation. This normal equation is expressed by w using a sweeping method (Gauss-Jordan elimination method) or the like.ijAnd the coefficient seed data wi0~ Wi3Is calculated.
[0078]
FIG. 12 shows coefficient seed data w based on an example of the above-described method of generating coefficient seed data.i0~ Wi32 shows a configuration of a coefficient seed data generation device 150 for generating a coefficient seed data.
[0079]
The coefficient seed data generation device 150 includes an input terminal 151 to which a teacher signal ST corresponding to the Y, RY, and BY component signals is input, and encodes the teacher signal ST to generate a student signal SS. And an NTSC encoder 152 that obtains an NTSC signal as
[0080]
In addition, the coefficient seed data generation device 150 includes a feature amount extraction unit 153 that extracts a feature amount v associated with pixel data of a target position in the teacher signal ST from the NTSC signal obtained by the NTSC encoder 152. The feature amount extraction unit 153 has the same configuration as the feature amount extraction unit 113 of the image signal processing unit 104 described above.
[0081]
Further, the coefficient seed data generation device 150 replaces the feature value v extracted by the feature value extraction unit 153 with a representative value in a predetermined range including the feature value v, and determines the representative value as a class code CL. It has a portion 154.
[0082]
In this case, as shown in FIG. 13, M class ranges are set so as to be equally spaced on the log scale within the change range of the feature amount v. The class code determination unit 154 determines in which class range the feature value v extracted by the feature value extraction unit 153 is included, and determines a representative value of the included class range, for example, an intermediate value as the class code CL. . For example, when the feature amount v extracted by the feature amount extraction unit 153 is included in the class range 3, the representative value V of the class range 33Becomes the class code CL.
[0083]
As described above, by changing the feature value v extracted by the feature value extraction unit 153 to a representative value of the class range including the feature value v and using it, learning data necessary for generating a normal equation described later can be obtained. You can easily get it. When the feature amount v extracted by the feature amount extraction unit 153 is used as it is, it is necessary to obtain learning data of the number of prediction taps or more corresponding to each value of the feature amount v, which is extremely difficult.
[0084]
Further, the coefficient seed data generation device 150 includes a tap selection unit 155 that selectively extracts and outputs a plurality of pixel data located around the target position in the teacher signal ST from the student signal SS output from the NTSC encoder 152. Have. The tap selection unit 155 has the same configuration as the tap selection unit 112 of the image signal processing unit 104 described above.
[0085]
Further, the coefficient seed data generating device 150 includes a delay circuit 156 for adjusting the time of the teacher signal ST supplied to the input terminal 151, and each target position obtained from the teacher signal ST time-adjusted by the delay circuit 156. , Pixel data xi of the prediction tap selectively extracted by the tap selection unit 155 corresponding to the pixel data y of each target position, and a class corresponding to the pixel data y of each target position. From the class code CL determined by the code determination unit 154 (representative value of the feature amount v extracted by the feature amount extraction unit 153), the coefficient seed data wi0~ Wi3Has a normal equation generating unit 157 for generating the normal equation of the expression (9) for obtaining the equation (9).
[0086]
In this case, one piece of learning data is generated by a combination of one piece of pixel data y and corresponding pixel data xi of n prediction taps. Further, the class code CL is supplied from the class code determination unit 154 corresponding to each of the learning data. Accordingly, the normal equation generation unit 157 generates a plurality of class codes CL (v in FIG. 13).1~ VMIs generated, a normal equation in which a large amount of learning data relating to the reference data are registered, and coefficient seed data wi0~ Wi3Can be obtained.
[0087]
Note that the coefficient seed data wi0~ Wi3It is necessary to obtain signals corresponding to the luminance signal Y and the color difference signals RY and BY constituting the teacher signal ST. Therefore, the normal equation generation unit 157 generates a normal equation corresponding to each of the luminance signal Y and the color difference signals RY and BY. In this case, the normal equation corresponding to the luminance signal Y is generated by using the pixel data of the luminance signal Y as the pixel data y of the target position. Similarly, the normal equation corresponding to each of the color difference signals RY and BY is generated by using the pixel data of the color difference signals RY and BY as the pixel data y of the target position.
[0088]
The coefficient seed data generation device 150 is supplied with the data of the normal equation generated by the normal equation generation unit 157, solves the normal equation, and obtains the coefficient seed data wi0~ Wi3And the coefficient seed data wi0~ Wi3And a coefficient seed memory 159 for storing In the coefficient seed data determining unit 158, the normal equation is solved by, for example, a sweeping method or the like, and the coefficient seed data wi0~ Wi3Is required.
[0089]
The operation of the coefficient seed data generation device 150 shown in FIG. 12 will be described.
The input terminal 151 is supplied with Y, RY, and BY component signals as the teacher signal ST. The Y, RY, and BY component signals are supplied to the NTSC encoder 152. The NTSC encoder 152 performs an encoding process on the teacher signal ST to generate an NTSC signal as the student signal SS.
[0090]
The student signal SS obtained by the NTSC encoder 152 is supplied to the feature amount extraction unit 153. The feature amount extraction unit 153 extracts a feature amount v associated with pixel data of a target position in the teacher signal ST from the NTSC signal. The feature value v extracted by the feature value extraction unit 153 is supplied to the class code determination unit 154.
[0091]
The class code determination unit 154 replaces the feature value v with a representative value in a predetermined range including the feature value v, and determines the representative value as the class code CL. The class code CL determined by the class code determination unit 154 is supplied to the normal equation generation unit 157.
[0092]
Further, the student signal SS obtained by the NTSC encoder 152 is supplied to the tap selection unit 155. The tap selection unit 155 selectively extracts pixel data of a prediction tap located around the target position in the teacher signal ST from the student signal SS. The pixel data xi of the prediction tap extracted by the tap selection unit 155 as described above is supplied to the normal equation generation unit 157.
[0093]
The normal equation generation unit 157 selects pixel data y of each target position obtained from the teacher signal ST time-adjusted by the delay circuit 156, and selectively selects the pixel data y of each target position by the tap selection unit 155. , And the class code CL determined by the class code determination unit 154 corresponding to the pixel data y of each target position, respectively, using the coefficient seed data wi0~ Wi3A normal equation of the equation (9) for obtaining the following equation is generated.
[0094]
Then, the data of the normal equation generated by the normal equation generation unit 157 is supplied to the coefficient seed data determination unit 158. The coefficient seed data determination unit 158 solves the normal equation to calculate the coefficient seed data wi0~ Wi3(For each of the luminance signal Y and the color difference signals RY and BY). Then, the coefficient seed data w thus obtainedi0~ Wi3Are stored in the coefficient seed memory 159.
[0095]
As described above, in the coefficient seed data generation device 150 illustrated in FIG. 12, the coefficient data Wi used in the estimation expression of the expression (1) and stored in the coefficient seed memory 115 of the image signal processing unit 104 is obtained by ( 2) Coefficient seed data w which is coefficient data in the generation equation of the equationi0~ Wi3Can be produced favorably.
[0096]
Next, another example of a method of generating coefficient seed data will be described. Also in this example, the coefficient seed data w which is the coefficient data in the generation equation of the above-described equation (2) is used.i0~ Wi3Let us show an example of finding.
First, a method of obtaining coefficient data of the estimation formula will be described. Here, an example is shown in which coefficient data Wi (i = 1 to n) of the estimation expression of Expression (1) is obtained by the least square method.
[0097]
In the above equation (1), before learning, the coefficient data W1, W2, ‥‥, WnIs an undetermined coefficient. The learning is performed on a plurality of signal data for each class. When the number of learning data is m, the following equation (10) is set according to the equation (1). n indicates the number of prediction taps.
yk= W1× xk1+ W2× xk2+ ‥‥ + Wn× xkn... (10)
(K = 1, 2, ‥‥, m)
[0098]
If m> n, the coefficient data W1, W2, ‥‥, WnIs not uniquely determined, so the element e of the error vector ekIs defined by the following equation (11), and e in the equation (12)2Find coefficient data that minimizes The coefficient data is uniquely determined by the so-called least square method.
ek= Yk− {W1× xk1+ W2× xk2+ ‥‥ + wn× xkn} ・ ・ ・ (11)
(K = 1,2, ‥‥ m)
[0099]
(Equation 7)
Figure 2004007227
[0100]
E in equation (12)2As a practical calculation method for obtaining coefficient data that minimizes the following equation, first, as shown in Expression (13), e2May be partially differentiated by coefficient data Wi (i = 1, 2,..., N), and coefficient data Wi may be obtained such that the partial differential value becomes 0 for each value of i.
[0101]
(Equation 8)
Figure 2004007227
[0102]
A specific procedure for obtaining the coefficient data Wi from the equation (13) will be described. When Xji and Yi are defined as in Expressions (14) and (15), Expression (13) can be written in the form of a determinant of Expression (16).
[0103]
(Equation 9)
Figure 2004007227
[0104]
(Equation 10)
Figure 2004007227
[0105]
The expression (16) is generally called a normal equation. By solving this normal equation by a general solution method such as a sweeping-out method (Gauss-Jordan elimination method), coefficient data Wi (i = 1, 2,..., N) can be obtained.
[0106]
Next, coefficient seed data w using coefficient data Wi generated corresponding to each class code is used.i0~ Wi3Explain how to find.
The coefficient data of a certain class code CL is kviLet's say Here, i is the number of the prediction tap. This kviFrom the coefficient seed data wi0~ Wi3Ask for.
[0107]
The coefficient data Wi (i = 1 to n) is the coefficient seed data wi0~ Wi3And is expressed by the above equation (2). Here, considering that the least squares method is used for the coefficient data Wi, the residual is represented by the equation (17).
[0108]
[Equation 11]
Figure 2004007227
[0109]
Where tjIs shown in the above equation (3). When the least squares method is applied to equation (17), equation (18) is obtained.
[0110]
(Equation 12)
Figure 2004007227
[0111]
Where Xjk, YjAre defined as Expressions (19) and (20), respectively, Expression (18) can be rewritten as Expression (21). This equation (21) is also a normal equation. By solving this equation by a general solution such as a sweeping-out method, the coefficient seed data wi0~ Wi3Can be calculated.
[0112]
(Equation 13)
Figure 2004007227
[0113]
FIG. 14 shows coefficient seed data w based on another example of the above-described method of generating coefficient seed data.i0~ Wi3Shows a configuration of a coefficient seed data generation device 150A for generating a. 14, parts corresponding to those in FIG. 12 are denoted by the same reference numerals, and detailed description thereof will be omitted.
[0114]
The coefficient seed data generation device 150A selects the pixel data y of each target position obtained from the teacher signal ST time-adjusted by the delay circuit 159, and selects the pixel data y of each target position by the tap selection unit 155. The class code CL determined by the class code determination unit 154 (corresponding to the pixel data xi of the prediction taps that are extracted dynamically and the pixel data y of each target position (the characteristic amount v of the characteristic amount v extracted by the characteristic amount extraction unit 153). From the (representative value) for each class code, a normal equation generation unit 161 for generating a normal equation of Expression (16) for obtaining coefficient data Wi (i = 1 to n).
[0115]
In this case, one piece of learning data is generated by a combination of one piece of pixel data y and corresponding pixel data xi of n prediction taps. Further, the class code CL is supplied from the class code determination unit 154 corresponding to each of the learning data. The normal equation generation unit 161 generates a normal equation in which a large amount of learning data is registered for each class code. This makes it possible to obtain coefficient data Wi (i = 1 to n) for each class code.
[0116]
Further, the coefficient seed data generation device 150A is supplied with the data of the normal equation generated by the normal equation generation unit 161, solves the normal equation, and obtains a coefficient data determination unit 162 for obtaining coefficient data Wi for each class code. , The coefficient seed data w using the class code CL and the coefficient data Wi corresponding to each class code CL.i0~ Wi3And a normal equation generating unit 163 for generating a normal equation of the equation (21) for obtaining the equation (21).
[0117]
The coefficient seed data generation device 150A is supplied with the data of the normal equation generated by the normal equation generation unit 163, and solves the normal equation to obtain the coefficient seed data w.i0~ Wi3And the coefficient seed data w obtained byi0~ Wi3And a coefficient seed memory 159 for storing
The other components of the coefficient seed data generation device 150A shown in FIG. 14 are configured similarly to the coefficient seed data generation device 150 shown in FIG.
[0118]
Next, the operation of the coefficient seed data generation device 150A shown in FIG. 14 will be described.
The input terminal 151 is supplied with Y, RY, and BY component signals as the teacher signal ST. The Y, RY, and BY component signals are supplied to the NTSC encoder 152. The NTSC encoder 152 performs an encoding process on the teacher signal ST to generate an NTSC signal as the student signal SS.
[0119]
The student signal SS obtained by the NTSC encoder 152 is supplied to the feature amount extraction unit 153. The feature amount extraction unit 153 extracts a feature amount v associated with pixel data of a target position in the teacher signal ST from the NTSC signal. The feature value v extracted by the feature value extraction unit 153 is supplied to the class code determination unit 154.
[0120]
The class code determination unit 154 replaces the feature value v with a representative value in a predetermined range including the feature value v, and determines the representative value as the class code CL. The class code determined by the class code determination unit 154 is supplied to the normal equation generation unit 161.
[0121]
Further, the student signal SS obtained by the NTSC encoder 152 is supplied to the tap selection unit 155. The tap selection unit 155 selectively extracts pixel data of a prediction tap located around the target position in the teacher signal ST from the student signal SS. The pixel data xi of the prediction tap extracted by the tap selection unit 155 as described above is supplied to the normal equation generation unit 161.
[0122]
The normal equation generating unit 161 selectively outputs the pixel data y of each target position obtained from the teacher signal ST time-adjusted by the delay circuit 156 and the tap selecting unit 155 corresponding to the pixel data y of each target position. , And the class data CL determined by the class code determination unit 154 in correspondence with the pixel data y at each target position, and the coefficient data Wi ( A normal equation of the formula (16) for obtaining i = 1 to n) is generated.
[0123]
Then, the normal equation is solved by the coefficient data determination unit 162, and coefficient data Wi corresponding to each class code is obtained. The normal equation generation unit 163 uses the class code CL and coefficient data Wi corresponding to each class code to generate coefficient seed data w.i0~ Wi3The normal equation of the equation (21) for obtaining the following equation is generated.
Then, the normal equation is solved by the coefficient seed data determining unit 164, and the coefficient seed data wi0~ Wi3Is obtained, and the coefficient seed data wi0~ Wi3Are stored in the coefficient seed memory 159.
[0124]
As described above, also in the coefficient seed data generation device 150A illustrated in FIG. 14, the coefficient data Wi used in the estimation expression of the expression (1) and stored in the coefficient seed memory 115 of the image signal processing unit 104 is obtained by ( 2) Coefficient seed data w which is coefficient data in the generation equation of the equationi0~ Wi3Can be produced favorably.
[0125]
Note that the processing in the image signal processing unit 104 in FIG. 1 can be realized by software using, for example, an image signal processing device 300 as shown in FIG.
[0126]
First, the image signal processing device 300 shown in FIG. 15 will be described. The image signal processing apparatus 300 includes a CPU 301 for controlling the operation of the entire apparatus, a ROM (read only memory) 302 in which an operation program of the CPU 301 and coefficient type data are stored, and a RAM (work area) for the CPU 301. (random @ access @ memory) 303. The CPU 301, the ROM 302, and the RAM 303 are connected to a bus 304, respectively.
[0127]
Further, the image signal processing device 300 has a hard disk drive (HDD) 305 as an external storage device, and a drive (FDD) 307 for driving a floppy (registered trademark) disk 306. These drives 305 and 307 are connected to the bus 304, respectively.
[0128]
In addition, the image signal processing device 300 includes a communication unit 308 that connects to a communication network 400 such as the Internet by wire or wirelessly. The communication unit 308 is connected to the bus 304 via the interface 309.
[0129]
Further, the image signal processing device 300 includes a user interface unit. The user interface unit has a remote control signal receiving circuit 310 for receiving a remote control signal RM from the remote control transmitter 200, and a display 311 such as an LCD (liquid crystal display). The receiving circuit 310 is connected to the bus 304 via the interface 312, and similarly, the display 311 is connected to the bus 304 via the interface 313.
[0130]
Further, the image signal processing device 300 has an input terminal 314 for inputting an NTSC signal and an output terminal 315 for outputting a Y, RY, BY component signal. The input terminal 314 is connected to the bus 304 via the interface 316, and the output terminal 315 is similarly connected to the bus 304 via the interface 317.
[0131]
Here, instead of previously storing the processing program, coefficient seed data, and the like in the ROM 302 as described above, for example, the processing program and the coefficient seed data are downloaded from the communication network 400 such as the Internet via the communication unit 308 and stored in the hard disk or the RAM 303 for use. You can also. Further, these processing programs, coefficient seed data, and the like may be provided on a floppy (registered trademark) disk 306.
[0132]
Instead of inputting the NTSC signal to be processed from the input terminal 314, the NTSC signal may be recorded in the hard disk drive 305 in advance or downloaded from the communication network 400 such as the Internet via the communication unit 308. Also, instead of outputting the processed Y, RY, and BY component signals to the output terminal 315, or in parallel with this, the image signal is supplied to the display 311 for image display, and further stored in the hard disk. The information may be transmitted to a communication network 400 such as the Internet via the communication unit 308.
[0133]
With reference to the flowchart of FIG. 16, a processing procedure for obtaining Y, RY, and BY component signals from the NTSC signal in the image signal processing device 300 shown in FIG. 15 will be described.
First, in step ST1, the process is started, and in step ST2, an NTSC signal for one frame or one field is input into the apparatus from, for example, the input terminal 314. Thus, the pixel data constituting the NTSC signal input from the input terminal 314 is temporarily stored in the RAM 303. When the NTSC signal is recorded in the hard disk drive 305 in the apparatus in advance, the NTSC signal is read from the drive 305, and pixel data constituting the NTSC signal is temporarily stored in the RAM 303.
[0134]
Then, in step ST3, it is determined whether or not processing of all frames or all fields of the NTSC signal has been completed. If the process has been completed, the process ends in step ST4. On the other hand, if the processing has not been completed, the process proceeds to step ST5.
[0135]
In step ST5, a pixel at a target position (target pixel) in the Y, RY, and BY component signals is selected. Then, in step ST6, a plurality of pieces of pixel data located around the target position are acquired from the NTSC signal input in step ST2.
[0136]
Next, in step ST7, based on the plurality of pixel data obtained in step ST6, a feature amount v related to the pixel data of the target position in the Y, RY, and BY component signals is calculated (FIG. 5, see FIG. 7). Then, in step ST8, the coefficient seed data w stored in the ROM 302 based on the feature amount v.i0~ Wi3Then, the coefficient data Wi (for each signal of the luminance signal Y and the color difference signals RY and BY) is generated by the generation expression of the expression (2).
[0137]
Next, in step ST9, using the coefficient data Wi generated in step ST8 and the plurality of pixel data (prediction taps) xi obtained in step ST6, Y, The pixel data of the target position in the RY, BY component signals (luminance signal Y, color difference signals RY, BY) is generated.
[0138]
Next, in step ST10, the Y, RY, BY component signals (the luminance signal Y, the color difference signal R- (Y, BY) pixel data is determined. If the processing has been completed, the process returns to step ST2, and shifts to the input processing of the NTSC signal for the next one frame or one field. On the other hand, if the processing has not been completed, the process returns to step ST5, the next target pixel is selected, and the same processing as described above is repeated.
[0139]
As described above, by performing the processing according to the flowchart shown in FIG. 16, the pixel data of the input NTSC signal is processed, and the pixel data of the Y, RY, and BY component signals can be obtained. . As described above, the Y, RY, and BY component signals obtained by the above-described processing are output to the output terminal 315 or supplied to the display 311 to display an image based on the output. The data is supplied to the hard disk drive 305 and recorded on the hard disk.
[0140]
Although illustration of the processing device is omitted, the processing in the coefficient seed data generation device 150 in FIG. 12 can be realized by software.
[0141]
The processing procedure for generating coefficient seed data will be described with reference to the flowchart in FIG.
First, in step ST21, processing is started, and in step ST22, a teacher signal (Y, RY, BY component signal) is input for one frame or one field. Then, in step ST23, a student signal (NTSC signal) is generated from the input teacher signal.
[0142]
Next, in step ST24, it is determined whether the learning process has been completed for all frames or all fields of the teacher signal. If not, the process proceeds to step ST25.
In step ST25, the pixel at the position of interest (pixel of interest) in the teacher signal (Y, RY, BY component signal) is selected. Then, in step ST26, a plurality of pixel data located around the target position are acquired from the student signal (NTSC signal) generated in step ST23.
[0143]
Next, in step ST27, based on the plurality of pixel data obtained in step ST26, a feature amount v related to the pixel data of the target position in the teacher signal is obtained by calculation (see FIGS. 5 and 7). Further, in step ST28, the characteristic amount v obtained in step ST27 is replaced with a representative value in a predetermined range including the characteristic amount v, and the representative value is determined as a class code CL (see FIG. 13).
[0144]
Next, in step ST29, a normal equation (see equation (9)) is generated. Then, in step ST30, it is determined whether or not the learning process has been completed in all regions of the pixel data of the teacher signal input in step ST22. If completed, the process returns to step ST22 to input the next one frame or one field of teacher signal, and repeat the same processing as described above. On the other hand, if the processing has not been completed, the process returns to step ST25, the next target pixel is selected, and the same processing as described above is repeated.
[0145]
If the learning process has been completed for all frames or all fields of the teacher signal in step ST24, the process proceeds to step ST31. In this step ST31, the coefficient seed data wi0~ Wi3Is calculated, and in step ST32, the coefficient seed data wi0~ Wi3Is stored in the memory, and then the process ends in step ST33.
[0146]
In this way, by performing the processing according to the flowchart shown in FIG. 17, the coefficient seed data can be obtained by the same method as that of the coefficient seed data generation device 150 shown in FIG.
Further, although the illustration of the processing device is omitted, the processing in the coefficient seed data generation device 150A of FIG. 14 can also be realized by software.
[0147]
A processing procedure for generating coefficient seed data will be described with reference to the flowchart in FIG.
First, in step ST41, the process is started, and in step ST42, a teacher signal (Y, RY, BY component signal) for one frame or one field is input. Then, in step ST43, a student signal (NTSC signal) is generated from the input teacher signal.
[0148]
Next, in step ST44, it is determined whether the learning process has been completed for all frames or all fields of the teacher signal. If not, the process proceeds to step ST45.
In step ST45, the pixel at the position of interest (pixel of interest) in the teacher signal (Y, RY, BY component signal) is selected. Then, in step ST46, a plurality of pixel data located around the target position are acquired from the student signal (NTSC signal) generated in step ST43.
[0149]
Next, in step ST47, based on the plurality of pixel data obtained in step ST46, a feature amount v related to the pixel data of the target position in the teacher signal is obtained by calculation (see FIGS. 5 and 7). Further, in step ST48, the characteristic amount v obtained in step ST47 is replaced with a representative value in a predetermined range including the characteristic amount v, and the representative value is determined as a class code CL (see FIG. 13).
[0150]
Next, in step ST49, a normal equation (see equation (16)) is generated for each class. Then, in step ST50, it is determined whether or not the learning process has been completed in all regions of the pixel data of the teacher signal input in step ST42. If it has been completed, the process returns to step ST42 to input the teacher signal for the next one frame or one field, and repeats the same processing as described above. On the other hand, if the processing has not been completed, the process returns to step ST45, the next target pixel is selected, and the same processing as described above is repeated.
[0151]
If the learning process has been completed for all frames or all fields of the teacher signal in step ST44, the process proceeds to step ST51. In step ST51, coefficient data Wi is calculated for each class by solving a normal equation by a sweeping-out method or the like.
[0152]
Next, in step ST52, the coefficient seed data w is calculated from the coefficient data Wi of each class calculated in step ST51.i0~ Wi3Is generated (see the equation (21)) for finding. In step ST53, the coefficient seed data w is obtained by solving the normal equation generated in step ST52 by a sweeping method or the like.i0~ Wi3Is calculated, and in step ST54, the coefficient seed data wi0~ Wi3Is stored in the memory, and then the process ends in step ST55.
[0153]
In this way, by performing the processing according to the flowchart shown in FIG. 18, the coefficient seed data can be obtained by the same method as the coefficient seed data generation device 150A shown in FIG.
[0154]
Note that the image signal processing unit 104 in FIG. 3 uses the generation expression of the expression (2) to generate the coefficient data Wi (i = 1 to n), but uses a polynomial having a different order or another function. It can also be realized by an expressed expression.
[0155]
The image signal processing unit 104 shown in FIG. 3 converts the NTSC signal, which is a composite signal, into a luminance signal Y and color difference signals RY, BY, which are component signals. However, the combination of the composite signal and the component signal is not limited to this. For example, another composite signal includes a PAL (phase alternating by line) signal. Other component signals include three primary color signals of red, green, and blue.
[0156]
Further, the feature amount extracted by the feature amount extraction unit 113 of the image signal processing unit 104 in FIG. 3 is not limited to those shown in FIG. 5 or FIG. In short, it is sufficient that the feature amount is related to the pixel data of the target position in the Y, RY, and BY component signals. The feature amount extraction unit 113 shown in FIG.2/ L1Where v = log (L2/ L1) May be used. Similarly, the feature amount extraction unit 113 in FIG.2/ T1Where v = log (T2/ T1) May be used.
[0157]
Although the image signal processing unit 104 of FIG. 3 uses only one type of feature v, an image signal processing unit 104 using two or more types of feature v can be similarly configured. For example, a configuration using two feature values v extracted by the feature value extraction unit 113 in FIGS.
[0158]
In that case, each feature v1, V2In this case, a generation expression as shown in Expression (22) can be used as a generation expression for generating the coefficient data Wi.
[0159]
[Equation 14]
Figure 2004007227
[0160]
Also, coefficient seed data w which is coefficient data in this generation formulai0~ Wi9Can be generated by the coefficient seed data generation device 150 shown in FIG. 12 or the coefficient seed data generation device having the same configuration as the coefficient seed data generation device 150A shown in FIG. In that case, the feature amount v1More M1The class of the stage is obtained, and the feature amount v2More M2The class of the stage is obtained.1× M2Classified into individual. That is, the feature amount v1, V2Each representative value is a class code CL1, CL2And these class codes CL1, CL2Is used to generate a normal equation.
[0161]
Further, in the image signal processing unit 104 in FIG. 3, an example in which a linear linear equation is used as an estimation equation for converting the NTSC signal into the Y, RY, and BY component signals has been described, but the present invention is not limited to this. Instead, for example, a higher-order equation may be used as the estimation equation.
[0162]
Although the image signal processing unit 104 in FIG. 3 converts the NTSC signal into the Y, RY, and BY component signals, the function of the matrix circuit 105 (see FIG. 1) can be included. . In that case, it is possible to convert the NTSC signal into three primary color signals R, G, and B as component signals.
[0163]
Further, in the above embodiment, the information signal is an image signal, but the present invention is not limited to this. For example, the present invention can be similarly applied to a case where the information signal is a voice signal.
[0164]
【The invention's effect】
According to the present invention, when the first information signal is converted into the second information signal, the pixel data of the target position in the second information signal is generated based on the estimation formula. The feature amount related to the information data of the target position in the information signal is extracted, and the coefficient data of the estimation formula corresponding to the feature amount is generated using the coefficient seed data. In addition to the reduction, it is possible to improve the quality of output by the second information signal (output information signal).
[0165]
Further, according to the present invention, a coefficient in a generation expression including a feature amount as a parameter for generating coefficient data used in an estimation expression used when converting the first information signal into the second information signal. Coefficient type data, which is data, can be obtained favorably.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a television receiver as an embodiment.
FIG. 2 is a diagram illustrating a configuration of pixel data of each field.
FIG. 3 is a block diagram illustrating a configuration of an image signal processing unit.
FIG. 4 is a diagram illustrating a configuration example of a prediction tap.
FIG. 5 is a block diagram illustrating a configuration example of a feature amount extraction unit.
FIG. 6 is a diagram illustrating an example of pixel data for extracting a feature amount.
FIG. 7 is a block diagram illustrating a configuration example of a feature amount extraction unit.
FIG. 8 is a diagram illustrating an example of pixel data for extracting a feature amount.
FIG. 9 is a diagram illustrating an example of a relationship between a feature value v and coefficient data Wi of each tap.
FIG. 10 is a diagram illustrating a configuration example of a prediction tap.
FIG. 11 is a diagram illustrating an example of a relationship between a feature value v and coefficient data Wi of each tap.
FIG. 12 is a block diagram illustrating a configuration example of a coefficient seed data generation device.
FIG. 13 is a diagram illustrating a class code determination process.
FIG. 14 is a block diagram illustrating a configuration example of a coefficient seed data generation device.
FIG. 15 is a block diagram illustrating a configuration example of an image signal processing device realized by software.
FIG. 16 is a flowchart illustrating image signal processing.
FIG. 17 is a flowchart illustrating a coefficient seed data generation process.
FIG. 18 is a flowchart illustrating a coefficient seed data generation process.
[Explanation of symbols]
100 television receiver, 101 receiving antenna, 102 tuner, 103 A / D converter, 104 image signal processing unit, 105 matrix circuit, 106 Display device 111 Input terminal 112 Tap selection unit 113 Feature extraction unit 114 Coefficient generation unit 115 Coefficient seed memory 116 Estimation prediction Arithmetic operation unit, 117 output terminal, 121 bandpass filter, 122, 123, 132 delay circuit, 124, 126, 131 addition circuit, 125, 127 absolute value conversion circuit .., 128, 133... Division circuit, 150, 150A... Coefficient seed data generation device, 151... Input terminal, 152... NTSC encoder, 153. Lass code determination unit, 155: tap selection unit, 156: delay circuit, 157, 161, 163: normal equation generation unit, 158, 164: coefficient type data determination unit, 159: coefficient type Memory, 162... Coefficient data determination unit

Claims (13)

複数の情報データからなる第1の情報信号を複数の情報データからなる第2の情報信号に変換する情報信号処理装置であって、
上記第1の情報信号に基づいて、上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のデータ選択手段と、
上記第1のデータ選択手段で選択された複数の第1の情報データを用いて、上記第2の情報信号における注目位置の情報データに関連した特徴量を抽出する特徴量抽出手段と、
特徴量をパラメータとして含む、推定式で用いられる係数データを生成するための生成式の係数データである係数種データを記憶する記憶手段と、
上記記憶手段に記憶されている係数種データと上記特徴量抽出手段で抽出された特徴量とを用いて、上記生成式に基づいて上記推定式で用いられる係数データを生成する係数データ生成手段と、
上記第1の情報信号に基づいて、上記第2の情報信号における注目位置の周辺に位置する複数の第2の情報データを選択する第2のデータ選択手段と、
上記係数データ生成手段で生成された係数データと上記第2のデータ選択手段で選択された複数の第2の情報データとを用いて、上記推定式に基づいて上記第2の情報信号における注目位置の画素データを算出して得る演算手段と
を備えることを特徴とする情報信号処理装置。
An information signal processing device for converting a first information signal including a plurality of pieces of information data into a second information signal including a plurality of pieces of information data,
First data selecting means for selecting, based on the first information signal, a plurality of pieces of first information data located around a target position in the second information signal;
A feature amount extracting unit that extracts a feature amount associated with the information data of the target position in the second information signal using the plurality of first information data selected by the first data selecting unit;
A storage unit that stores coefficient seed data that is coefficient data of a generation formula for generating coefficient data used in an estimation formula, including a feature amount as a parameter;
A coefficient data generation unit that generates coefficient data used in the estimation expression based on the generation expression using the coefficient seed data stored in the storage unit and the feature amount extracted by the feature amount extraction unit; ,
A second data selection unit that selects a plurality of pieces of second information data located around a target position in the second information signal based on the first information signal;
Using the coefficient data generated by the coefficient data generating means and the plurality of pieces of second information data selected by the second data selecting means, the position of interest in the second information signal based on the estimation formula And an operation means for calculating the pixel data.
上記第1の情報信号はコンポジットカラー映像信号であり、
上記特徴量抽出手段は、
上記第2の情報信号における注目位置が存在するラインに対するその上ラインおよび下ラインの色信号の変化量の比を上記特徴量として抽出する
ことを特徴とする請求項1に記載の情報信号処理装置。
The first information signal is a composite color video signal,
The feature amount extracting means includes:
2. The information signal processing apparatus according to claim 1, wherein a ratio of a change amount of a color signal of an upper line and a lower color line of the second information signal with respect to a line in which a target position exists is extracted as the feature amount. .
上記第1の情報信号はNTSC信号を色幅搬送波周波数の4倍の周波数によりI軸、Q軸の位相でサンプリングして得られた複数の画素データからなり、
上記第1のデータ選択手段は、
上記第2の情報信号における注目位置と垂直方向および水平方向に同一位置である第1の位置、該第1の位置に対して垂直方向に1ライン上で水平方向に同一位置である第2の位置および該第1の位置に対して垂直方向に1ライン下で水平方向に同一位置である第3の位置の画素データを選択し、
上記特徴量抽出手段は、
上記第1および第2の位置における画素データの色信号成分の加算絶対値と、上記第1および第3の位置における画素データの色信号成分の加算絶対値との比を上記特徴量として抽出する
ことを特徴とする請求項2に記載の情報信号処理装置。
The first information signal is composed of a plurality of pixel data obtained by sampling the NTSC signal at the I-axis and Q-axis phases at a frequency four times the color width carrier frequency,
The first data selection means includes:
A first position that is the same position in the vertical and horizontal directions as the position of interest in the second information signal, and a second position that is the same position in the horizontal direction on one line in the vertical direction with respect to the first position. Selecting pixel data at a third position that is the same position in the horizontal direction one line vertically below the position and the first position,
The feature amount extracting means includes:
The ratio between the sum of absolute values of the color signal components of the pixel data at the first and second positions and the sum of the color signal components of the pixel data at the first and third positions is extracted as the feature amount. 3. The information signal processing device according to claim 2, wherein:
上記第1の情報信号はNTSC信号を色搬送波周波数の4倍の周波数によりI軸、Q軸の位相でサンプリングして得られた複数の画素データからなり、
上記特徴量抽出手段は、
上記第2の情報信号における注目位置の近傍のI信号成分およびQ信号成分のそれぞれの垂直方向における変化量の比を上記特徴量として抽出する
ことを特徴とする請求項1に記載の情報信号処理装置。
The first information signal is composed of a plurality of pixel data obtained by sampling the NTSC signal at the I-axis and Q-axis phases at a frequency four times the color carrier frequency,
The feature amount extracting means includes:
2. The information signal processing according to claim 1, wherein a ratio of a vertical change amount of each of the I signal component and the Q signal component in the vicinity of the target position in the second information signal is extracted as the feature amount. apparatus.
上記第1のデータ選択手段は、
上記第2の情報信号における注目位置と垂直方向および水平方向に同一位置である第1の位置、該第1の位置に対して垂直方向に1ライン上で水平方向に同一位置である第2の位置および該第1の位置に対して垂直方向に1ライン下で水平方向に同一位置である第3の位置、並びに上記第1〜第3の位置に対して水平方向に隣接する第4〜第6の位置の画素データを選択し、
上記特徴量抽出手段は、
上記第1および第2の位置における画素データの色信号成分の加算絶対値および上記第1および第3の位置における画素データの色信号成分の加算絶対値の和と、上記第4および第5の位置における画素データの色信号成分の加算絶対値および上記第4および第6の位置における画素データの色信号成分の加算絶対値の和との比を特徴量として抽出する
ことを特徴とする請求項4に記載の情報信号処理装置。
The first data selection means includes:
A first position that is the same position in the vertical and horizontal directions as the target position in the second information signal, and a second position that is the same position in the horizontal direction on one line in the vertical direction with respect to the first position. A third position, which is the same position in the horizontal direction one line vertically below the position and the first position, and fourth to fourth positions horizontally adjacent to the first to third positions. Select the pixel data at the position of 6,
The feature amount extracting means includes:
The sum of the absolute value of the sum of the color signal components of the pixel data at the first and second positions and the absolute value of the color signal component of the pixel data at the first and third positions; The ratio between the sum of absolute values of the color signal components of the pixel data at the positions and the sum of the absolute values of the color signal components of the pixel data at the fourth and sixth positions is extracted as a feature amount. 5. The information signal processing device according to 4.
上記第1の情報信号はNTSC信号を色搬送波周波数の4倍の周波数によりI軸、Q軸の位相でサンプリングして得られた複数の画素データからなり、
上記特徴量抽出手段は、
上記第2の情報信号における注目位置が存在するラインに対するその上ラインおよび下ラインの色信号の変化量の比と、該注目位置の近傍のI信号成分およびQ信号成分のそれぞれの垂直方向における変化量の比とを上記特徴量として抽出する
ことを特徴とする請求項1に記載の情報信号処理装置。
The first information signal is composed of a plurality of pixel data obtained by sampling the NTSC signal at the I-axis and Q-axis phases at a frequency four times the color carrier frequency,
The feature amount extracting means includes:
The ratio of the change amount of the color signal of the upper line and the lower line to the line where the target position exists in the second information signal, and the change in the vertical direction of each of the I signal component and the Q signal component near the target position. 2. The information signal processing apparatus according to claim 1, wherein a ratio of the amounts is extracted as the feature amount.
複数の情報データからなる第1の情報信号を複数の情報データからなる第2の情報信号に変換する情報信号処理方法であって、
上記第1の情報信号に基づいて、上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、
上記第1のステップで選択された複数の第1の情報データを用いて、上記第2の情報信号における注目位置の情報データに関連した特徴量を抽出する第2のステップと、
特徴量をパラメータとして含む、推定式で用いられる係数データを生成するための生成式の係数データである係数種データと上記第2のステップで抽出された特徴量とを用いて、上記生成式に基づいて上記推定式で用いられる係数データを生成する第3のステップと、
上記第1の情報信号に基づいて、上記第2の情報信号における注目位置の周辺に位置する複数の第2の情報データを選択する第4のステップと、
上記第3のステップで生成された係数データと上記第4のステップで選択された複数の第2の情報データとを用いて、上記推定式に基づいて上記第2の情報信号における注目位置の画素データを算出して得る第5のステップと
を備えることを特徴とする情報信号処理方法。
An information signal processing method for converting a first information signal including a plurality of pieces of information data into a second information signal including a plurality of pieces of information data,
A first step of selecting, based on the first information signal, a plurality of pieces of first information data located around a target position in the second information signal;
A second step of using the plurality of first information data selected in the first step to extract a feature amount related to the information data of the target position in the second information signal;
Using the coefficient seed data, which is the coefficient data of the generation formula for generating the coefficient data used in the estimation formula, including the feature value as a parameter, and the feature value extracted in the second step, the generation formula A third step of generating coefficient data used in the estimation equation based on the third step;
A fourth step of selecting, based on the first information signal, a plurality of pieces of second information data located around a target position in the second information signal;
Using the coefficient data generated in the third step and the plurality of pieces of second information data selected in the fourth step, the pixel at the position of interest in the second information signal based on the estimation formula A fifth step of calculating data to obtain an information signal processing method.
複数の情報データからなる第1の情報信号を複数の情報データからなる第2の情報信号に変換するために、
上記第1の情報信号に基づいて、上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、
上記第1のステップで選択された複数の第1の情報データを用いて、上記第2の情報信号における注目位置の情報データに関連した特徴量を抽出する第2のステップと、
特徴量をパラメータとして含む、推定式で用いられる係数データを生成するための生成式の係数データである係数種データと上記第2のステップで抽出された特徴量とを用いて、上記生成式に基づいて上記推定式で用いられる係数データを生成する第3のステップと、
上記第1の情報信号に基づいて、上記第2の情報信号における注目位置の周辺に位置する複数の第2の情報データを選択する第4のステップと、
上記第3のステップで生成された係数データと上記第4のステップで選択された複数の第2の情報データとを用いて、上記推定式に基づいて上記第2の情報信号における注目位置の画素データを算出して得る第5のステップと
を有する情報信号処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な媒体。
In order to convert a first information signal including a plurality of pieces of information data into a second information signal including a plurality of pieces of information data,
A first step of selecting, based on the first information signal, a plurality of pieces of first information data located around a target position in the second information signal;
A second step of using the plurality of first information data selected in the first step to extract a feature amount related to the information data of the target position in the second information signal;
Using the coefficient seed data, which is the coefficient data of the generation formula for generating the coefficient data used in the estimation formula, including the feature value as a parameter, and the feature value extracted in the second step, the generation formula A third step of generating coefficient data used in the estimation equation based on the third step;
A fourth step of selecting, based on the first information signal, a plurality of pieces of second information data located around a target position in the second information signal;
Using the coefficient data generated in the third step and the plurality of pieces of second information data selected in the fourth step, the pixel at the position of interest in the second information signal based on the estimation formula A computer-readable medium storing a program for causing a computer to execute an information signal processing method having the fifth step of calculating data.
複数の情報データからなる第1の情報信号を複数の情報データからなる第2の情報信号に変換するために、
上記第1の情報信号に基づいて、上記第2の情報信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、
上記第1のステップで選択された複数の第1の情報データを用いて、上記第2の情報信号における注目位置の情報データに関連した特徴量を抽出する第2のステップと、
特徴量をパラメータとして含む、推定式で用いられる係数データを生成するための生成式の係数データである係数種データと上記第2のステップで抽出された特徴量とを用いて、上記生成式に基づいて上記推定式で用いられる係数データを生成する第3のステップと、
上記第1の情報信号に基づいて、上記第2の情報信号における注目位置の周辺に位置する複数の第2の情報データを選択する第4のステップと、
上記第3のステップで生成された係数データと上記第4のステップで選択された複数の第2の情報データとを用いて、上記推定式に基づいて上記第2の情報信号における注目位置の画素データを算出して得る第5のステップと
を有する情報信号処理方法をコンピュータに実行させるためのプログラム。
In order to convert a first information signal including a plurality of pieces of information data into a second information signal including a plurality of pieces of information data,
A first step of selecting, based on the first information signal, a plurality of pieces of first information data located around a target position in the second information signal;
A second step of using the plurality of first information data selected in the first step to extract a feature amount related to the information data of the target position in the second information signal;
Using the coefficient seed data, which is the coefficient data of the generation formula for generating the coefficient data used in the estimation formula, including the feature value as a parameter, and the feature value extracted in the second step, the generation formula A third step of generating coefficient data used in the estimation equation based on the third step;
A fourth step of selecting, based on the first information signal, a plurality of pieces of second information data located around a target position in the second information signal;
Using the coefficient data generated in the third step and the plurality of pieces of second information data selected in the fourth step, the pixel at the position of interest in the second information signal based on the estimation formula A program for causing a computer to execute an information signal processing method having a fifth step of calculating and obtaining data.
複数の情報データからなる第1の情報信号を複数の情報データからなる第2の情報信号に変換する際に使用される推定式で用いられる係数データを生成するための、特徴量をパラメータとして含む生成式における係数データである係数種データを生成する装置であって、
上記第1の情報信号に対応した生徒信号に基づいて、上記第2の情報信号に対応した教師信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のデータ選択手段と、
上記第1のデータ選択手段で選択された複数の第1の情報データを用いて、上記第2の情報信号における注目位置の情報データに関連した特徴量を抽出する特徴量抽出手段と、
上記特徴量抽出手段で抽出された特徴量を該特徴量を含む所定範囲の代表値に置き換え、該代表値をクラスコードとして決定するクラスコード決定手段と、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の情報データを選択する第2のデータ選択手段と、
上記クラスコード決定手段で決定されたクラスコード、上記第2のデータ選択手段で選択された複数の第2の情報データおよび上記教師信号における注目位置の情報データを用いて、上記係数種データを求める演算手段と
を備えることを特徴とする係数種データ生成装置。
A feature value is included as a parameter for generating coefficient data used in an estimation formula used when converting a first information signal including a plurality of pieces of information data into a second information signal including a plurality of pieces of information data. An apparatus for generating coefficient seed data that is coefficient data in a generation formula,
First data selecting means for selecting a plurality of first information data located around a target position in a teacher signal corresponding to the second information signal based on a student signal corresponding to the first information signal; When,
A feature amount extracting unit that extracts a feature amount associated with the information data of the target position in the second information signal using the plurality of first information data selected by the first data selecting unit;
Class code determining means for replacing the feature value extracted by the feature value extracting means with a representative value in a predetermined range including the feature value, and determining the representative value as a class code;
A second data selection unit that selects a plurality of pieces of second information data located around a target position in the teacher signal based on the student signal;
The coefficient seed data is obtained by using the class code determined by the class code determining means, the plurality of second information data selected by the second data selecting means, and the information data of the target position in the teacher signal. A coefficient seed data generation device, comprising: an operation unit.
複数の情報データからなる第1の情報信号を複数の情報データからなる第2の情報信号に変換する際に使用される推定式で用いられる係数データを生成するための、特徴量をパラメータとして含む生成式における係数データである係数種データを生成する方法であって、
上記第1の情報信号に対応した生徒信号に基づいて、上記第2の情報信号に対応した教師信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、
上記第1のステップで選択された複数の第1の情報データを用いて、上記第2の情報信号における注目位置の情報データに関連した特徴量を抽出する第2のステップと、
上記第2のステップで抽出された特徴量を該特徴量を含む所定範囲の代表値に置き換え、該代表値をクラスコードとして決定する第3のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の情報データを選択する第4のステップと、
上記第3のステップで決定されたクラスコード、上記第4のステップで選択された複数の第2の情報データおよび上記教師信号における注目位置の情報データを用いて、上記係数種データを求める第5のステップと
を備えることを特徴とする係数種データ生成方法。
A feature value is included as a parameter for generating coefficient data used in an estimation formula used when converting a first information signal including a plurality of pieces of information data into a second information signal including a plurality of pieces of information data. A method for generating coefficient seed data that is coefficient data in a generation formula,
A first step of selecting, based on a student signal corresponding to the first information signal, a plurality of first information data located around a target position in a teacher signal corresponding to the second information signal;
A second step of using the plurality of first information data selected in the first step to extract a feature amount related to the information data of the target position in the second information signal;
A third step of replacing the feature value extracted in the second step with a representative value in a predetermined range including the feature value, and determining the representative value as a class code;
A fourth step of selecting, based on the student signal, a plurality of pieces of second information data located around the position of interest in the teacher signal;
Using the class code determined in the third step, the plurality of pieces of second information data selected in the fourth step, and the information data of the position of interest in the teacher signal, a fifth step of obtaining the coefficient seed data. And a method for generating coefficient seed data.
複数の情報データからなる第1の情報信号を複数の情報データからなる第2の情報信号に変換する際に使用される推定式で用いられる係数データを生成するための、特徴量をパラメータとして含む生成式における係数データである係数種データを生成するために、
上記第1の情報信号に対応した生徒信号に基づいて、上記第2の情報信号に対応した教師信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、
上記第1のステップで選択された複数の第1の情報データを用いて、上記第2の情報信号における注目位置の情報データに関連した特徴量を抽出する第2のステップと、
上記第2のステップで抽出された特徴量を該特徴量を含む所定範囲の代表値に置き換え、該代表値をクラスコードとして決定する第3のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の情報データを選択する第4のステップと、
上記第3のステップで決定されたクラスコード、上記第4のステップで選択された複数の第2の情報データおよび上記教師信号における注目位置の情報データを用いて、上記係数種データを求める第5のステップと
を有する係数種データ生成方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な媒体。
A feature value is included as a parameter for generating coefficient data used in an estimation formula used when converting a first information signal including a plurality of pieces of information data into a second information signal including a plurality of pieces of information data. In order to generate coefficient seed data, which is the coefficient data in the generation formula,
A first step of selecting, based on a student signal corresponding to the first information signal, a plurality of first information data located around a target position in a teacher signal corresponding to the second information signal;
A second step of using the plurality of first information data selected in the first step to extract a feature amount related to the information data of the target position in the second information signal;
A third step of replacing the feature value extracted in the second step with a representative value in a predetermined range including the feature value, and determining the representative value as a class code;
A fourth step of selecting, based on the student signal, a plurality of pieces of second information data located around the position of interest in the teacher signal;
Using the class code determined in the third step, the plurality of pieces of second information data selected in the fourth step, and the information data of the position of interest in the teacher signal, a fifth step of obtaining the coefficient seed data. And a computer-readable medium storing a program for causing a computer to execute the coefficient seed data generation method having the steps of:
複数の情報データからなる第1の情報信号を複数の情報データからなる第2の情報信号に変換する際に使用される推定式で用いられる係数データを生成するための、特徴量をパラメータとして含む生成式における係数データである係数種データを生成するために、
上記第1の情報信号に対応した生徒信号に基づいて、上記第2の情報信号に対応した教師信号における注目位置の周辺に位置する複数の第1の情報データを選択する第1のステップと、
上記第1のステップで選択された複数の第1の情報データを用いて、上記第2の情報信号における注目位置の情報データに関連した特徴量を抽出する第2のステップと、
上記第2のステップで抽出された特徴量を該特徴量を含む所定範囲の代表値に置き換え、該代表値をクラスコードとして決定する第3のステップと、
上記生徒信号に基づいて、上記教師信号における注目位置の周辺に位置する複数の第2の情報データを選択する第4のステップと、
上記第3のステップで決定されたクラスコード、上記第4のステップで選択された複数の第2の情報データおよび上記教師信号における注目位置の情報データを用いて、上記係数種データを求める第5のステップと
を有する係数種データ生成方法をコンピュータに実行させるためのプログラム。
A feature value is included as a parameter for generating coefficient data used in an estimation formula used when converting a first information signal including a plurality of pieces of information data into a second information signal including a plurality of pieces of information data. In order to generate coefficient seed data, which is the coefficient data in the generation formula,
A first step of selecting, based on a student signal corresponding to the first information signal, a plurality of first information data located around a target position in a teacher signal corresponding to the second information signal;
A second step of using the plurality of first information data selected in the first step to extract a feature amount related to the information data of the target position in the second information signal;
A third step of replacing the feature value extracted in the second step with a representative value in a predetermined range including the feature value, and determining the representative value as a class code;
A fourth step of selecting, based on the student signal, a plurality of pieces of second information data located around the position of interest in the teacher signal;
Using the class code determined in the third step, the plurality of pieces of second information data selected in the fourth step, and the information data of the position of interest in the teacher signal, a fifth step of obtaining the coefficient seed data. For causing a computer to execute a coefficient seed data generation method having the steps of:
JP2002159974A 2002-05-31 2002-05-31 Information signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program Expired - Fee Related JP4055478B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002159974A JP4055478B2 (en) 2002-05-31 2002-05-31 Information signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002159974A JP4055478B2 (en) 2002-05-31 2002-05-31 Information signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program

Publications (2)

Publication Number Publication Date
JP2004007227A true JP2004007227A (en) 2004-01-08
JP4055478B2 JP4055478B2 (en) 2008-03-05

Family

ID=30429542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002159974A Expired - Fee Related JP4055478B2 (en) 2002-05-31 2002-05-31 Information signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program

Country Status (1)

Country Link
JP (1) JP4055478B2 (en)

Also Published As

Publication number Publication date
JP4055478B2 (en) 2008-03-05

Similar Documents

Publication Publication Date Title
US7064790B1 (en) Adaptive video data frame resampling
KR100939736B1 (en) Device and method of generating coefficient data, device and method of processing information signal using the same, device and method of generating data for generating coefficients using therefor, and carrier for providing information
JP2003506928A (en) System and method for image plane motion compensation in a color sequential display
CN101647292B (en) Motion adaptive upsampling of chroma video signals
JP4696388B2 (en) Information signal processing apparatus, information signal processing method, image signal processing apparatus and image display apparatus using the same, coefficient seed data generation apparatus, coefficient data generation apparatus, and information recording medium
JP4119092B2 (en) Method and apparatus for converting the number of frames of an image signal
JPH09172621A (en) Interpolation device and interpolation method for compressed high resolution video signal
JP3674186B2 (en) Image information conversion apparatus and method
EP0926902B1 (en) Signal conversion apparatus and method
JP4055478B2 (en) Information signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program
JPH10108218A (en) Scanning conversion circuit for video signal
KR20040103428A (en) Coefficient generating apparatus and its method, class generating apparatus and its method, information signal processing apparatus, and program for executing the methods
JP4055487B2 (en) Image signal processing apparatus and processing method, coefficient seed data generating apparatus and generating method used therefor, coefficient data generating apparatus and generating method, program for executing each method, and computer-readable recording of the program Medium
JP2010130155A (en) Video signal processing apparatus and method, and video display apparatus
JPS63268376A (en) Video signal processing circuit
JP4869302B2 (en) Image processing apparatus and image processing method
JP3777831B2 (en) Image information conversion apparatus and conversion method
JP2006332904A (en) Contour emphasizing circuit
JP4140662B2 (en) Coefficient seed data generation apparatus and coefficient data generation apparatus
JP4752130B2 (en) Image processing apparatus and method, recording medium, and program
JP4595162B2 (en) Image signal processing apparatus and image signal processing method
JP4018446B2 (en) Video signal processing device
JP3831960B2 (en) Interpolation apparatus and interpolation method for compressed high resolution video signal
JPH05292424A (en) Television receiver
JP3922286B2 (en) Coefficient learning apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050530

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070828

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071203

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131221

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees