JP2004266757A - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP2004266757A
JP2004266757A JP2003057429A JP2003057429A JP2004266757A JP 2004266757 A JP2004266757 A JP 2004266757A JP 2003057429 A JP2003057429 A JP 2003057429A JP 2003057429 A JP2003057429 A JP 2003057429A JP 2004266757 A JP2004266757 A JP 2004266757A
Authority
JP
Japan
Prior art keywords
image
texture
component
signal
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003057429A
Other languages
Japanese (ja)
Inventor
Shigeru Harada
茂 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003057429A priority Critical patent/JP2004266757A/en
Publication of JP2004266757A publication Critical patent/JP2004266757A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus and method capable of adjusting the contrast of each of multi-images in the case of displaying a plurality of the multi-images on one image screen. <P>SOLUTION: A S/T separation circuit 51 separates a luminance signal Y<SB>IN</SB>into a structure component S1 and a texture component T1. A structure correction circuit 53 corrects the structure component S1 to generate a structure component S2. A texture amplifier circuit 52 amplifies the texture component T1 to generate a texture component T2. A switch 54 selects the texture component T1 or the texture component T2 on the basis of a DE signal supplied from a multi-screen processing part 14 and supplies the selected texture component to an adder 55. The adder 55 acquires the texture component from the switch 54 and summates the texture component to the structure component S2. The image processing apparatus and method is applicable to television receivers. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置および方法に関し、特に、複数のマルチ画像を1画面に表示する場合において、マルチ画像毎にコントラストを調整できるようにした画像処理装置および方法に関する。
【0002】
【従来の技術】
画像処理装置は、入力画像に画質補正を施してから出力する画像処理機能として、例えば、明暗やコントラストの調整、輪郭補正等の機能を有している。
【0003】
例えば、特許文献1には、輝度分布の広がり量から自動的にコントラストの強調程度を判断し、ユーザが容易にコントラストを適正量だけ強調できるような画像処理機能を有する画像処理装置が提案されている。
【0004】
また、入力画像信号のヒストグラムを取ることにより、画像のコントラストを強調するコントラスト強調方法が提案されている。
【0005】
【特許文献1】
特開平10−208034号公報
【0006】
【発明が解決しようとする課題】
ところで、近年、1つの画面上に複数の縮小画像を同時に表示させるマルチ画面表示機能を有するテレビジョン受像機が販売されている。
【0007】
テレビジョン受像機にマルチ画面を表示させる場合、特許文献1に記載の画像処理機能では、縮小画像毎にコントラストを強調することができないという課題があった。
【0008】
また、上述したコントラスト強調方法では、縮小画像毎にコントラストを強調するには、縮小画像毎のヒストグラムを取らなければならず、その演算処理が多くなり、処理に時間がかかるという課題があった。
【0009】
本発明はこのような状況に鑑みてなされたものであり、マルチ画面を表示する場合において、簡単かつ迅速に縮小画像毎にコントラストを調整できるようにするものである。
【0010】
【課題を解決するための手段】
本発明の画像処理装置は、1画面に同時に表示される複数のマルチ画像のデータを含む入力画像データを、マルチ画像の輪郭を構成するストラクチャ成分とマルチ画像の細部を構成するテクスチャ成分とに分離するデータ分離手段と、データ分離手段により分離されたテクスチャ成分を強調するテクスチャ強調手段と、データ分離手段により分離されたストラクチャ成分に対して、非直線的補正を施すストラクチャ補正手段と、テクスチャ強調手段により強調されたテクスチャ成分と、強調されていないテクスチャ成分のうちいずれか一方を選択する選択手段と、ストラクチャ補正手段により補正されたストラクチャ成分と、選択手段により選択されたテクスチャ強調手段により強調されたテクスチャ成分を合成して加工データを生成する合成手段と、合成手段により合成された加工データに基づいて、複数のマルチ画像を1つの画面に表示させるように制御する表示制御手段とを備えることを特徴とする。
【0011】
前記マルチ画像の枠であることを表わす枠信号を出力する枠信号出力手段をさらに備えるようにすることができる。
【0012】
前記選択手段は、枠信号出力手段から、マルチ画像の枠であることを表わす枠信号が出力された場合、強調されていないテクスチャ成分を選択し、合成手段に供給するようにすることができる。
【0013】
前記枠信号出力手段は、マルチ画像の画像表示期間でない場合、マルチ画像の枠であることを表わす枠信号を出力するようにすることができる。
【0014】
前記枠信号出力手段は、さらに、マルチ画像の画像表示期間であって、マルチ画像の縁の近傍の所定の範囲のとき、マルチ画像の枠であることを表わす枠信号を出力するようにすることができる。
【0015】
本発明の画像処理方法は、1画面に同時に表示される複数のマルチ画像のデータを含む入力画像データを、マルチ画像の輪郭を構成するストラクチャ成分とマルチ画像の細部を構成するテクスチャ成分とに分離するデータ分離ステップと、データ分離ステップの処理により分離されたテクスチャ成分を強調するテクスチャ強調ステップと、データ分離ステップの処理により分離されたストラクチャ成分に対して、非直線的補正を施すストラクチャ補正ステップと、テクスチャ強調ステップの処理により強調されたテクスチャ成分と、強調されていないテクスチャ成分のうちいずれか一方を選択する選択ステップと、ストラクチャ補正ステップの処理により補正されたストラクチャ成分と、選択ステップの処理により選択されたテクスチャ成分を合成して加工データを生成する合成ステップと、合成ステップの処理により合成された加工データに基づいて、複数のマルチ画像を1つの画面に表示させるように制御する表示制御ステップとを含むことを特徴とする。
【0016】
本発明の画像処理装置および方法においては、入力画像データが、ストラクチャ成分とテクスチャ成分とに分離され、テクスチャ成分が強調されるとともに、ストラクチャ成分に対して、非直線的補正が施される。そして、強調されたテクスチャ成分と、強調されていないテクスチャ成分のうちいずれか一方が選択され、補正されたストラクチャ成分と、選択されたテクスチャ成分が合成されて加工データが生成され、加工データに基づいて、複数のマルチ画像が1つの画面に表示されるように制御される。
【0017】
【発明の実施の形態】
以下に、本発明の実施の形態について図面を参照して説明する。
【0018】
図1は、本発明を適用したテレビジョン受像機1の構成例を示すブロック図である。
【0019】
テレビジョン受像機1は、放送電波を受信し、所定のチャンネルの信号を復調する画像処理部2と、復調して得られた信号をもとに画像表示を行うディスプレイ3により構成されている。
【0020】
画像処理部2のチューナ11A,11Bは、それぞれ異なるチャンネル(番組)のテレビジョン信号を時分割で受信し、復調してコンポジット信号(CVBS:Composite Video Burst Signal)を出力する。Y/C分離回路12A,12Bは、対応するチューナ11A,11Bからコンポジット信号を取得し、コンポジット信号をそれぞれ輝度信号Yおよび色信号C(Y/C分離回路12A),輝度信号Yおよび色信号C(Y/C分離回路12B)に分離して出力する。クロマデコーダ13Aは、輝度信号Yと色信号Cを、YUV信号としての信号Yに変換し、クロマデコーダ13Bは、輝度信号Yと色信号Cを、YUV信号としての信号Yに変換して出力する。
【0021】
マルチ画面処理部14は、クロマデコーダ13Aとクロマデコーダ13BからのYUV信号(ここではYUV信号としての信号Y、および、信号Y)を取得し、取得したYUV信号に基づいて、1つの画面上に複数の縮小画像を同時に表示させるようなYUV信号としての信号YIN,UIN,VINを生成し、出力する。例えば、チューナ11Aがチャンネル1乃至5のテレビジョン信号を時分割で順次受信し、チューナ11Bがチャンネル6乃至9のテレビジョン信号を時分割で受信(すなわち、チャンネル6乃至9を順次受信)した場合、マルチ画面処理部14は、取得した9個のチャンネル(時分割で受信された9個のチャンネル)のYUV信号(信号Y、および、信号Y)に基づいて、1つの画面上に9個の縮小画像(以下、マルチ画像と称する)を同時に表示させるようなYUV信号としての信号YIN,UIN,VINを(1フレーム毎に)生成する(YUV信号としての信号Y、および信号Yを合成して生成する)。すなわち、信号YIN,UIN,VINには、9つのチャンネルの画像に対応する信号が含まれる。
【0022】
また、マルチ画面処理部14は、出力するYUV信号としての信号YIN,UIN,VINが、画像表示期間であるか否か(マルチ画像であるか否か)を示すDE(Display Enable)信号を生成し、テクスチャ強調部15のスイッチ54に出力する。
【0023】
画像データは、主に、画像の輪郭を構成するストラクチャ成分と、主に、その細部を構成するテクスチャ成分とを有する。テクスチャ強調部15,遅延回路16,およびクロマアンプ17では、主に、このテクスチャ成分を強調するテクスチャ強調に関する処理が行われる(詳細は後述する)。テクスチャ強調部15は、入力される輝度信号YINに対しテクスチャ強調処理を施し、輝度信号YOUT1として輪郭補正回路18に出力するとともに、クロマアンプ17に出力する。
【0024】
輪郭補正回路18には、シャープネス機能、すなわち、画像中の人物や物体の縁部、輪郭部の部分の鮮鋭度を強調する機能(周波数特性を補正する機能)が備えられている。輪郭補正回路18は、輝度信号YOUT1に対して、周波数特性の補正(輪郭強調補正)を行なうことにより、画像中の人物や物体の縁部、輪郭部の部分の鮮鋭度を補正する。例えば、輝度信号YOUT1の鮮鋭度が異常に強かった場合、輪郭補正回路18は、周波数特性を下げるように補正し、逆に、輝度信号YOUT1の鮮鋭度が弱すぎた場合、周波数特性を上げるように補正する。また、輪郭補正回路18のパラメータは、ユーザが設定することも可能であるので、ユーザは、自分の好みの鮮鋭度を設定することができる。輪郭補正回路18は、輝度信号YOUT1に対して、周波数特性を補正し(輪郭強調補正を行ない)、輝度信号YOUT2を生成し、マトリクス回路19に出力する。
【0025】
遅延回路16は、色差信号UIN,VINに対して遅延をかけ、テクスチャ強調部15において生成される輝度信号YOUT1と同期をとって出力する。クロマアンプ17は、入力される色差信号UIN,VINに「YIN/YOUT1」の比を乗じ、Y/C比(C;色差信号U,Vの双方を指す)を、テクスチャ強調処理の前後で一定の値に保つようにして色差信号UOUT,VOUTを生成する。生成された色差信号UOUT,VOUTは、マトリクス回路19に出力される。
【0026】
なお、YUV信号(ディジタルデータ)は、画像上の位置に対応する画素値の集合である。そのうち、輝度信号Yは輝度レベルを表現し、白100%である白レベルと、黒100%である黒レベルとの間の振幅値をとる。なお、画像信号の白100%は、IRE(Institute of Radio Engineers)という画像信号の相対的な比を表す単位において、100(IRE)と定められている。日本のNTSC信号の規格では、白レベルが100IRE,黒レベルが0IREである。それゆえ、以下の説明では、輝度信号Yが、黒を表す最低値(0IRE)またはその近傍の値をとることを「黒側」、白を表す最大値(100IRE)またはその近傍の値をとることを「白側」と称する。また、色差信号U,Vはそれぞれ、青(B;Blue)から輝度信号Yを減算した信号「B−Y」、赤(R;Red)から輝度信号Yを減算した信号「R−Y」に対応しており、これらU信号,V信号を輝度信号Yと組み合わせることによって色(色相,彩度,輝度)が表現される。
【0027】
マトリクス回路19は、テクスチャ強調処理後のYUV信号である信号YOUT2,UOUT,VOUTをRGB信号に変換し、ドライバ20に出力する。ドライバ20は、RGB信号に基づいて、ディスプレイ3の駆動信号を生成し、出力する。ディスプレイ3は、ドライバ20から供給される駆動信号に基づいて画像を表示する。ディスプレイ3は、どのような種類のディスプレイデバイスであってもよく、CRT(Cathode Ray Tube)21や、LCD(Liquid Crystal Display)22,PDP(Plasma Display Panel)(図示せず)等が用いられる。
【0028】
なお、いまの例の場合、入力される画像信号を放送信号としたが、これに限らず、VCR(VideoCassette Recorder)、またはDVD(Digital Versatile Disc)などの出力信号であってもよい。
【0029】
次に、このテレビジョン受像機1のうち、テクスチャ強調部15の構成と機能について、より詳細に説明する。テクスチャ強調部15は、S/T(ストラクチャ/テクスチャ)分離回路51,テクスチャ増幅回路52,ストラクチャ補正回路53、スイッチ54、および加算器55により構成されている。
【0030】
このテクスチャ強調部15では、図2に示されるような処理が行われる。すなわち、入力される輝度信号YINは、S/T分離回路51により、主に画像の輪郭成分を構成するストラクチャ成分S1と、主に、画像の細部を構成するテクスチャ成分T1とに分離される。テクスチャ成分T1は、テクスチャ増幅回路52により増幅されてテクスチャ成分T2となる。
【0031】
また、ストラクチャ成分S1は、ストラクチャ補正回路53により、低域側(黒側)が強調されると共に、高域側(白側)が抑えられるように振幅が補正され、ストラクチャ成分S2となる。ストラクチャ成分S2、選択されたテクスチャ成分(テクスチャ成分T1またはT2)は、加算器55により加算されて輝度信号YOUT1となる。
【0032】
スイッチ54は、テクスチャ増幅回路52により増幅されたテクスチャ成分T2と、増幅されていないテクスチャ成分T1のうちいずれか一方を、マルチ画面処理部14から供給されるDE信号に基づいて選択し、加算器55に出力する。DE信号は、画像表示期間である場合、DE=0とされ、画像表示期間でない場合、DE=1とされる。スイッチ54は、DE=0である場合(画像表示期間である(マルチ画像の表示期間である)場合)、テクスチャ増幅回路52により増幅されたテクスチャ成分T2を選択し、DE=1である場合(画像表示期間でない(マルチ画像の枠の表示期間である)場合)、増幅されていないテクスチャ成分T1を選択する。
【0033】
すなわち、DE信号は、マルチ画像の画像信号表示期間であることを表わす信号としても理解できるし(DE=0の場合)、マルチ画像の枠の表示期間であることを表わす信号としても理解することができる(DE=1)の場合)。
【0034】
画像表示期間である場合(マルチ画像の表示期間である場合)、補正が施されたストラクチャ成分S2にテクスチャ成分T2が重畳される格好となり、輝度信号YOUT1の振幅拡大は抑えられる。これに対して、画像表示期間でない場合(マルチ画像の枠の表示期間である場合)、補正が施されたストラクチャ成分S2にテクスチャ成分T1(増幅されていないテクスチャ成分)が重畳され、マルチ画像の枠におけるテクスチャの増幅は抑えられる。
【0035】
図3は、S/T分離回路51の構成を示すブロック図である。S/T分離回路51は、レベル判定部81,周波数判定部82,フィルタ特性決定部83,非線形フィルタ84、および減算器85により構成されている。レベル判定部81,周波数判定部82は、それぞれ、輝度信号YINの振幅レベル、および周波数の変動範囲を判定し、フィルタ特性決定部83に判定結果を出力する。フィルタ特性決定部83は、この判定結果に応じて、非線形フィルタ84の振幅レベル、および周波数の閾値を決定する。非線形フィルタ84は、フィルタ特性決定部83によって決められたフィルタ特性で輝度信号YINに平滑化を行い、ストラクチャ成分S1を抽出する。減算器85は、元の輝度信号YINからストラクチャ成分S1を減算することでテクスチャ成分T1を抽出する。
【0036】
非線形フィルタ84は、通常用いられる線形ローパスフィルタとは異なり、輝度信号YINの振幅レベルと周波数の双方を加味した非線形のフィルタであって、画像の輪郭を構成するストラクチャ成分S1が、それ以外の成分から峻別されるようになっている。より具体的には、輝度信号YINのうち、振幅変動が急峻なエッジ成分はそのまま保存し、エッジ成分以外の小振幅成分に対して平滑化を行うようになっている。その構成としては、例えば、特開2001−298621号公報に開示されているものを採用することができる。
【0037】
非線形フィルタ84は、2次元の非線形フィルタもしくは画像の水平方向と垂直方向それぞれに適用される1次元の非線形フィルタとして構成され、フィルタリングの中心画素に対し、画素値(振幅)の差の絶対値が所定の閾値ε以下に収まっている周辺画素の画素値はそのまま適用するが、画素値の絶対値の差が閾値εよりも大きければ、そこをエッジと判断し、周辺画素の画素値の代わりに中心画素の画素値を用いることで周辺画素の影響を排除してから平滑化を行う。
【0038】
ただし、実際の画像では、振幅変動が大きい部分が必ずしも画像上の輪郭線であるとは限らず、逆に、振幅変動が小さくとも輪郭線である場合がある。そのため、ここでは、振幅レベルだけでなく周波数からの情報を合わせて平滑化を行うことで、ストラクチャ成分S1の抽出の確度を上げるようにしている。
【0039】
なお、この非線形フィルタ84は、ストラクチャ成分S1としてエッジ以外の部分では出来るだけ変化が少ない信号を得ることが望ましいが、そのためには、空間的に広い範囲をカバーできるフィルタとすることが必要となる。例えば、輝度信号YINが水平有効画素720ドット,垂直走査ライン288本に相当するデータであれば、両方向に1/4である(180画素×72画素)程度の大きさのフィルタを用いるとよい。
【0040】
図4は、主として、S/T分離回路51に続くストラクチャ補正回路53の構成を示すブロック図である。テクスチャ増幅回路52は、S/T分離回路51から入力されるテクスチャ成分T1を、外部入力されるエンハンスゲインTEに応じて増幅することでテクスチャ成分T2を生成し、出力する。なお、実際のエンハンスゲインTEの値は、1乃至2の間の値とするのが適当である。通常の使用では、その値は例えば1.3乃至1.4程度とされるが、それ以上ではテクスチャ強調の効果が強く現れる。エンハンスゲインTEの値が2以上とされた場合、テクスチャ成分が強調され過ぎて違和感を与えるようになる。
【0041】
スイッチ54は、マルチ画面処理部14から供給されるDE信号に基づいて、テクスチャ増幅回路52により増幅されたテクスチャ成分T2、および増幅されていないテクスチャ成分T1のうちいずれか一方を選択し、選択したテクスチャ成分を加算器55に出力する。上述したように、DE信号は、画像表示期間(マルチ画像の画像表示期間)である場合、DE=0とされ、画像表示期間でない(マルチ画像の枠の表示期間)である場合、DE=1とされているので、スイッチ54は、画像表示期間では、テクスチャ成分T2を選択し、画像表示期間でないとき、テクスチャ成分T1を選択する。
【0042】
また、ストラクチャ補正回路53は、ガンマ曲線生成回路101,ゲイン調整回路102,遅延回路103、および加算器104からなる。このストラクチャ補正回路53は、S/T分離回路51から入力されるストラクチャ成分S1に対し、ストラクチャ成分S1の輝度レベルの最低値と最高値を除いた中間輝度領域において補正量が正の極大となるような非直線的補正、および輝度レベルの最高値を低減する補正を同時に施す。なお、本実施の形態では、上記非直線的補正を便宜的にガンマ補正と称する。
【0043】
ガンマ曲線生成回路101は、図5に示したように、予め基準となるガンマ特性101Aを保持しており、これからストラクチャS1を差し引いてガンマ補正の補正量であるガンマ曲線γを求め、ゲイン調整回路102に出力する。このガンマ特性101Aのガンマ値は、例えば、0.5乃至0.7(入力値をX,出力値をYとしたときの入出力特性がY=X0.5乃至Y=X0.7)とするとよい。またここでは、ガンマ特性101Aは、白側のレンジが下がった出力が得られるよう、最高出力値が、入力されるストラクチャ成分S1の最高値よりもオフセット値ΔYだけ低く設定されている。
【0044】
さらに、このガンマ特性101Aは、入力信号レベルの20乃至40(IRE)の範囲内にピーク(入力信号との差、すなわち補正量が最大となる振幅出力)Pを有している。人間の顔の輪郭や影の部分の黒は、振幅レベルでは、ほぼ20乃至40(IRE)に相当する。したがって、このように20乃至40(IRE)の範囲内の振幅レベルを持ち上げる(強調する)ように補正することで、人間の顔の輪郭や影の部分に対する強調効果を和らげ、顔に対し違和感を生じないようにすることができる。このように、最高値に対してオフセット値ΔYがあり、20乃至40(IRE)にピークPをもつという特徴は、生成されるガンマ曲線γに受け継がれる。
【0045】
ゲイン調整回路102は、ガンマ曲線γのゲインGを加減して調整する増幅器として構成されている。図6は、その調整の様子を示している。ガンマ曲線γは、ゲインGを上げると(G>1)、ガンマ曲線γのように変化し(ガンマ曲線γの場合に較べて、出力レベルが正または負の方向に大きくなり(絶対値が大きくなり))、ゲインGを下げると(0<G<1)、ガンマ曲線γのように変化する(ガンマ曲線γの場合に較べて、出力レベルが正または負の方向に小さくなる(絶対値が小さくなる))。これにより、ガンマ曲線γは、ピークP側への曲がり具合とオフセット値ΔYの値が同時に調整される。オフセット値ΔYは、例えば、入力側の最大振幅値に対して2乃至25%の範囲で選択される。
【0046】
ゲイン調整回路102は、ゲインGをエンハンスゲインTEに応じて加減する。エンハンスゲインTEが大きいほどテクスチャ成分T2の振幅は大きくなる。ストラクチャ成分S2は、ダイナミックレンジに対して黒側、および白側で飽和しないよう、エンハンスゲインTEに応じて黒側の特性は大きく曲げられねばならないし、白側の特性は低く抑えられねばならない。したがって、この場合にはゲインGが大きくなるように調整され、γ型のガンマ曲線が得られる。逆に、エンハンスゲインTEが小さい場合には、テクスチャ成分T2の振幅増大はさほど考慮する必要がないので、ゲインGはあまり変える必要はない。よって、この場合には、その増幅の度合いに応じてゲインGが小さくなるように調整され、γ型のガンマ曲線が得られる。
【0047】
本実施の形態では、ゲイン調整回路102はさらに、ゲインGをドライブゲインDに応じて加減するようになっている。前述のように、ドライバ20は、輝度階調に応じた電圧値の駆動信号を生成する。しかしながら、通常のテレビジョン受像機では、駆動信号のダイナミックレンジは可変であり、ダイナミックレンジの高輝度側(白側)にオフセットを付けて実効的な駆動電圧を加減することにより、画像の明るさが調整されるようになっている。このダイナミックレンジに対するゲインが、ドライブゲインDである。すなわち、ここでは、エンハンスゲインTEとドライブゲインDの2つの要素が同時に考慮されてガンマ曲線γのゲインGが決定される。
【0048】
ドライブゲインDが大きいことは、高圧で駆動されることを意味する。このときの白側は、輝度がひときわ高くなるために、人間の目の特性上、階調がとれなくなってくる。そのような状態では、いくらテクスチャ成分を強調しても効果的な画質改善は望めない。こうした場合、階調を視認できるレベルまでストラクチャ成分S2の振幅を下げるようにすれば、強調されたテクスチャ成分T2を十分に認めることができる。したがって、ドライブゲインDが大きい場合には、ゲインGは大きくなるように調整される。また、その場合にエンハンスゲインTEが大きければ、一層ゲインGは大きくする必要がある。
【0049】
逆に、ドライブゲインDが小さくなれば、このような問題が生じないのでストラクチャ成分S2を補正する必要はなく、ゲインGは小さく選ばれる。ただし、エンハンスゲインTEも小さければゲインGは小さいままでよいが、エンハンスゲインTEが大きければ、ゲインGはエンハンスゲインTEに応じて大きくする必要がある。
【0050】
なお、ドライブゲインDは連続的に可変であるが、一般的には、画質モードに対応して予め数段階に設定されており、そのうちの1つが外部から選択されるようになっている。具体例としては、ダイナミックモード(D=100%)、スタンダードモード(D=80乃至90%)、ソフトモード(D=50%)などと設定される。ダイナミックモードやスタンダードモードでは、CRT21またはLCD22などよりなるディスプレイ3をフルレンジに対し100%乃至80%の電圧で駆動させる。このようにドライブレベル上限近くで駆動させるほど輝度は高くなるが、ディスプレイ3上で視認される輝度は白側で飽和したようになり、白側の階調はあまりとれなくなってくる。これに対して、ソフトモードでは、フルレンジをダイナミックモード時の50%の電圧で駆動するので、輝度は多少低くなるが適正な階調表現がなされる。よって、ダイナミックモードやスタンダードモードのように、ドライブゲインDが大きな画質モードほど、高輝度側の特性を確保するために最終的に得られる輝度信号の白レベルを下げる必要がある。よって、ゲインGを大きくして、ガンマ曲線γのオフセットΔYを大きくとるようにする。
【0051】
なお、ゲインGは、最終的にドライバ20における駆動信号の振幅がダイナミックレンジいっぱいとなるような値に選ばれるのが好ましい。ただし、ディスプレイ3がCRT21である場合には、管面に表示される画像の輝度のうち高周波成分が高輝度側で大幅に低下する傾向があるため、駆動信号の振幅レベルを、ダイナミックレンジぎりぎりではなく、さらに少し下げるようにゲインGを調整する。このように、ゲインGはディスプレイ3の種類によっても加減され、例えば、エンハンスゲインTEが1.7であるときには、ディスプレイ3がLCD22であればゲインGは95%前後、CRT21であれば90%前後とされる。
【0052】
ゲイン調整回路102では、以上のようにして得られたゲインGによって、ガンマ曲線γの補正量が調整される。
【0053】
遅延回路103は、入力されるストラクチャ成分S1に遅延をかけ、ガンマ曲線生成回路101,ゲイン調整回路102によるガンマ曲線γに基づく補正成分と同期をとって出力する。加算器104は、入力されるストラクチャ成分S1とガンマ曲線γによる成分とを加算し、ストラクチャ成分S2を生成し、出力する。
【0054】
ストラクチャ成分S2は、さらに加算器55によりテクスチャ成分(テクスチャ成分T1またはテクスチャ成分T2)と加算される。これにより、画像表示期間ではテクスチャ成分が強調されると共に、ストラクチャ成分が補正された輝度信号YOUT1が生成され、画像表示期間でないとき、テクスチャ成分は強調されず、ストラクチャ成分のみが補正された輝度信号YOUT1が生成される。
【0055】
次に、図7乃至図11のフローチャートを参照して、テレビジョン受像機1における画像表示処理を説明する。なお、この処理は、図1のテレビジョン受像機1のY/C分離回路12A,12Bに、画像信号が入力されたとき開始される。
【0056】
ステップS1において、Y/C分離回路12A,12Bは、それぞれ画像信号を取得し、対応する画像信号を輝度信号Yおよび色信号C、並びに輝度信号Yおよび色信号Cに、それぞれ分離する。具体的には、Y/C分離回路12Aには、チューナ11Aにより受信され、復調されたテレビジョン信号が、コンポジット信号として入力されるので、Y/C分離回路12Aは、入力されたコンポジット信号(画像信号)を、輝度信号Yと色信号Cに分離し、クロマデコーダ13Aに出力する。また、Y/C分離回路12Bには、チューナ11Bにより受信され、復調されたテレビジョン信号が、コンポジット信号として入力されるので、Y/C分離回路12Bは、入力されたコンポジット信号(画像信号)を、輝度信号Yと色信号Cに分離し、クロマデコーダ13Bに出力する。
【0057】
例えば、チューナ11Aは、チャンネル1乃至5の5個の番組のテレビジョン信号を時分割で受信し、チューナ11Bは、チャンネル6乃至9の4個の番組のテレビジョン信号を時分割で受信する。このため、輝度信号Y,色信号Cには、5個の番組に対応するテレビジョン信号が順次含まれており、輝度信号Y,色信号Cには、4個の番組に対応するテレビジョン信号が順次含まれている。
【0058】
ステップS2において、クロマデコーダ13A,13Bは、対応する輝度信号と色信号(クロマデコーダ13Aは輝度信号Yおよび色信号C、クロマデコーダ13Bは輝度信号Yおよび色信号C)をそれぞれデコードし、YUV信号(クロマデコーダ13Aは、信号Y、クロマデコーダ13Bは、信号Y)を生成する。クロマデコーダ13A,13Bは、生成したYUV信号(クロマデコーダ13Aは信号Y、クロマデコーダ13Bは、信号Y)を、それぞれマルチ画面処理部14に供給する。
【0059】
マルチ画面処理部14には、クロマデコーダ13AからYUV信号としての信号Yが供給され、クロマデコーダ13BからYUV信号としての信号Yが供給されてくる。いまの例の場合、クロマデコーダ13Aは5個の番組に対応するYUV信号を供給し、クロマデコーダ13Bは、4個の番組に対応するYUV信号を供給するので、マルチ画面処理部14には、9個の番組に対応するYUV信号を取得する。
【0060】
そこで、ステップS3において、マルチ画面処理部14は、供給されたYUV信号としての信号Yおよび信号Y、いまの例の場合、9個の番組に対応するYUV信号に基づいて、マルチ画面表示を行なうためのYUV信号として信号YINININを生成する。具体的には、各チャンネルの画像の大きさを、縦方向と横方向にそれぞれ約1/3に縮小した画像(マルチ画像)を生成し、1フレーム内に3×3個のマトリックス上に配置した信号YINININを生成する。生成された信号YINININのうち、輝度信号YINはテクスチャ強調部15、およびクロマアンプ17に出力され、色差信号UIN,VINは遅延回路16に入力される。
【0061】
ステップS4において、テクスチャ強調部15は、テクスチャ強調処理を実行する。具体的には、輝度信号YINがストラクチャ成分S1とテクスチャ成分T1に分離され、テクスチャ成分T1が増幅されてテクスチャ成分T2が生成されるとともに、ストラクチャ成分S1が補正されてストラクチャ成分S2が生成される。スイッチ54は、増幅されたテクスチャ成分T2と、増幅されていないテクスチャ成分T1のうちいずれか一方を選択し、選択したテクスチャ成分を加算器55に出力する。加算器55は、スイッチ54から供給されたテクスチャ成分と、補正されたストラクチャ成分S2を加算し、輝度信号YOUT1を生成する(図2参照)。その処理の詳細は、図8乃至図11を参照して後述する。テクスチャ強調部15は、生成した輝度信号YOUT1を、輪郭補正回路18に供給するとともに、クロマアンプ17に供給する。
【0062】
ステップS5において、輪郭補正回路18は、輝度信号YOUT1を輪郭補正し(輝度信号YOUT1の周波数特性を補正し)、輝度信号YOUT2を生成する。
【0063】
ステップS6において、遅延回路16は、ステップS3の処理によりマルチ画面処理部14により供給された色差信号UIN,VINを遅延させる。具体的には、遅延回路16は、テクスチャ強調部15において生成される輝度信号YOUT1と同期をとるように、色差信号UIN,VINを遅延させる。遅延回路16は、遅延させた色差信号UIN,VINをクロマアンプ17に供給する。
【0064】
ステップS7において、クロマアンプ17は、ステップS3の処理によりマルチ画面処理部14から供給された輝度信号YIN(テクスチャ強調処理前の輝度信号)、およびステップS4の処理により供給された輝度信号YOUT1(テクスチャ強調処理後の輝度信号)の比「(YIN/YOUT1)」を求め、色差信号UIN,VINに乗じることにより、色差信号UIN,VINを輝度信号YOUTの増幅分だけ増幅する。これにより、Y/C比がテクスチャ強調処理の前後で一定に保たれるように色差信号UOUT,VOUTが生成される。クロマアンプ17は、生成した色差信号UOUT,VOUTを、マトリクス回路19に供給する。
【0065】
ステップS8において、マトリクス回路19は、輪郭補正回路18から輝度信号YOUT2(ステップS5の処理により生成された輝度信号YOUT2)を取得し、クロマアンプ17から色差信号UOUT,VOUT(ステップS7の処理により生成された色差信号UOUT,VOUT)を取得し、このYUV信号としての信号YOUT2OUTOUTをRGB信号に変換する。すなわち、テクスチャ強調処理後のYUV信号からRGB信号が生成される。マトリクス回路19は、変換したRGB信号をドライバ20に出力する。
【0066】
ステップS9において、ドライバ20は、RGB信号に基づいて、駆動信号を生成し、ディスプレイ3に出力する。具体的には、ドライバ20は、入力されるRGB信号(ステップS8の処理によりマトリクス回路19により変換されたRGB信号)を増幅し、輝度階調に応じた電圧値の駆動信号を生成し、ディスプレイ3に出力する。
【0067】
ステップS10において、ディスプレイ3は、入力される駆動信号に基づく画像を表示する。例えば、ディスプレイ3として、CRT21が選択されていた場合、CRT21は、この駆動信号に基づく画像を表示する。
【0068】
次に、図8のフローチャートを参照して、テクスチャ強調部15におけるテクスチャ強調処理を説明する。このフローチャートは、図7のステップS4の処理を詳細に説明するものである。なお、この処理は、マルチ画面処理部14から輝度信号YINがS/T分離回路51に供給されたとき開始される。
【0069】
ステップS51において、S/T分離回路51は、S/T分離処理を実行する。具体的には、輝度信号YINにおける、振幅レベルの変動範囲と周波数の変動範囲に基づいて、フィルタの特性が求められ、輝度信号YINが平滑化されることにより、ストラクチャ成分S1が求められるとともに、テクスチャ成分T1が求められる(図2)。その処理の詳細は、図9を参照して後述する。S/T分離回路51は、生成したテクスチャ成分T1をテクスチャ増幅回路52に供給し、ストラクチャ成分S2をストラクチャ補正回路53に供給する。
【0070】
ステップS52において、テクスチャ増幅回路52はテクスチャ増幅処理を実行する。具体的には、テクスチャ成分T1をエンハンスゲインTEに基づいて増幅し、テクスチャ成分T2を生成する(図2)。テクスチャ増幅回路52は、生成(増幅)したテクスチャ成分T2をスイッチ54に出力する。スイッチ54は、増幅されたテクスチャ成分T2と、増幅されていないテクスチャ成分T1のうちいずれか一方を選択し、選択したテクスチャ成分を加算器55に出力する。なお、この処理の詳細は、図10を参照して後述する。
【0071】
ステップS53において、ストラクチャ補正回路53は、ストラクチャ補正処理を実行する。具体的には、ストラクチャ成分S1を遅延させるとともに、ガンマ曲線γを求めてガンマ曲線γのゲインを加減し、遅延させたストラクチャ成分S1とガンマ曲線γを加算することにより、ストラクチャ成分S2を生成する(図2)。その処理の詳細は、図11を参照して後述する。ストラクチャ補正回路53は、生成したストラクチャ成分S2を加算器55に出力する。
【0072】
ステップS54において、加算器55は、ステップS53の処理により補正されたストラクチャ成分S2と、ステップS52の処理によりスイッチ54に選択されたテクスチャ成分(テクスチャ成分T1またはテクスチャ成分T2)を加算し、輝度信号YOUT1を生成する(図2)。生成された輝度信号YOUT1は、マトリクス回路19に供給されるとともに、クロマアンプ17に供給される。この処理により、テクスチャ成分が強調される。
【0073】
図8の処理によりテクスチャ強調処理が行なわれた輝度信号YOUT1に基づいて、上述したように、さらに、図7のステップS5乃至ステップS10の処理が実行される。
【0074】
図9は、図8のステップS51のS/T分離回路51におけるS/T分離処理を説明するフローチャートである。なお、この処理は、図3のS/T分離回路51(テクスチャ増幅回路52のレベル判定部81、周波数判定部82、および非線形フィルタ84)に輝度信号YINが供給されたとき開始される。
【0075】
ステップS101において、レベル判定部81は、輝度信号YINの振幅レベルの変動範囲を判定し、判定結果をフィルタ特性決定部83に出力する。
【0076】
ステップS102において、周波数判定部82は、輝度信号YINの周波数の変動範囲を判定し、判定結果をフィルタ特性決定部83に出力する。
【0077】
ステップS103において、フィルタ特性決定部83は、レベル判定部81による判定結果(ステップS101の処理)、および周波数判定部82による判定結果(ステップS102の処理)に基づいて、非線形フィルタ84の振幅レベル、および周波数の閾値を決定する。決定された振幅レベル、および周波数の閾値は、非線形フィルタ84に出力される。
【0078】
ステップS104において、非線形フィルタ84は、フィルタ特性決定部83から振幅レベル、および周波数の閾値を取得し、これに基づいて、輝度信号YINに平滑化処理を行ない、ストラクチャ成分S1を抽出する(図2)。ここで抽出されたストラクチャ成分S1は、エッジ部分はそのまま保存され、それ以外の部分のみ平滑化された画像データとされる。すなわち、画像の中の輪郭線等の大まかな構成を表すデータである。例えば、図12(ストラクチャ成分とテクスチャ成分とを原理的に説明する図)に示されるように、入力されるYUV信号としての信号YINININにより生成される画像が、画像121とされる場合、抽出されたストラクチャ成分S1(主に画像の輪郭成分を構成する成分)により生成される画像は、画像122とされる。
【0079】
ステップS105において、減算器85は、輝度信号YINからストラクチャ成分S1を減算する。これにより、テクスチャ成分S1が抽出される(図2)。抽出されたテクスチャ成分T1は、元信号からストラクチャ成分S1を除いた小振幅成分となっており、画像の中の細部、例えば衣服の模様などの細かな起伏に相当するデータである。図12の例の場合、抽出されたテクスチャ成分S1(主に画像の細部を構成する成分)により生成される画像は、画像123とされる。このように、画像信号が、ストラクチャ成分S1(画像122に対応する成分)とテクスチャ成分T1(画像123に対応する成分)に分離される。
【0080】
図9の処理により、S/T分離回路51からストラクチャ成分S1、およびテクスチャ成分T1が生成され、出力される。図9の処理により分離されたテクスチャ成分T1に基づいて、上述したように、図8のステップS52の処理が実行され、ストラクチャ成分S1に基づいて、図8のステップS53の処理が実行される。
【0081】
図10は、図8のステップS52のテクスチャ増幅回路52、および、スイッチ54(図4のテクスチャ増幅回路52とスイッチ54)におけるテクスチャ増幅処理を説明するフローチャートである。なお、この処理は、S/T分離回路51から、テクスチャ成分T1が供給されたとき開始される。
【0082】
ステップS151において、テクスチャ増幅回路52は、S/T分離回路51の減算器85からテクスチャ成分T1を取得する(図2参照)。
【0083】
ステップS152において、テクスチャ増幅回路52は、取得したテクスチャ成分T1を、外部入力されるエンハンスゲインTEに基づいて増幅し、テクスチャ成分T2を生成する(図2参照)。
【0084】
ステップS153において、テクスチャ増幅回路52は、生成したテクスチャ成分T2を、加算器55に出力する。
【0085】
ステップS154において、スイッチ54は、マルチ画面処理部14からDE信号を取得する。マルチ画面処理部14は、いま供給しているYUV信号が画像表示期間である場合、DE=0を出力し、画像表示期間でない場合(例えば、マルチ画像の枠(マルチ画像でない領域の画像)の表示期間である場合)、DE=1を出力する。
【0086】
具体的には、図13に示されるような、1画面に複数の縮小画像(マルチ画像)201乃至209を含む全体画像200を表示させる場合、マルチ画像201乃至209の内部の範囲では、DE=0とされ、マルチ画像201乃至209ではない範囲では、DE=1とされる。なお、いまの例の場合、マルチ画像201乃至205に対応する番組のテレビジョン信号は、チューナ11Aにより受信され、マルチ画像206乃至209に対応する番組のテレビジョン信号は、チューナ11Bにより受信されたものである。すなわち、マルチ画像201乃至205は、チューナ11Aにより受信された番組のチャンネル1乃至5に対応し、マルチ画像206乃至209は、チューナ11Bにより受信された番組のチャンネル6乃至9に対応する。
【0087】
ステップS155において、スイッチ54は、マルチ画面処理部14から供給されたDE信号がDE=0である(画像表示期間である)か否かを判定する。DE=0であると判定された場合、処理はステップS156に進み、スイッチ54は、テクスチャ増幅回路52からテクスチャ成分T2(ステップS153の処理で生成されたテクスチャ成分T2)を取得する。
【0088】
ステップS155において、DE=0でないと判定された場合、すなわち、DE=1である(マルチ画像の枠である)と判定された場合、ステップS157に進み、スイッチ54は、S/T分離回路51からテクスチャ成分T1を取得する。
【0089】
ステップS156の処理の後、またはステップS157の処理の後、ステップS158において、スイッチ54は、取得したテクスチャ成分を加算器55に出力する。すなわち、スイッチ54が、ステップS156においてテクスチャ成分T2を選択した場合、テクスチャ成分T2を加算器55に出力し、スイッチ54が、ステップS157においてテクスチャ成分T1を選択した場合、テクスチャ成分T1を加算器55に出力する。
【0090】
図10の処理により、図13に示されるような全体画像200を表示させる場合、縮小画像とされるマルチ画像201乃至マルチ画像209以外であって、全体画像200とされる部分(すなわち、マルチ画像の枠)を確実に識別することができ、もって、マルチ画像の枠領域のコントラストの強調(不要な強調)を防ぐことができる。
【0091】
具体的には、各マルチ画像間の枠の幅が狭い場合(例えば、マルチ画像201とマルチ画像204の間隔が狭い場合)においても、スイッチ54が、画像表示期間である場合(DE=0)とない場合(DE=1)を区別して、テクスチャ成分を選択するので、結果的に、枠領域のコントラストの不要な強調が抑えられる。これにより、例えば、枠周辺の画像(例えば、マルチ画像20i(i=1,2,3,・・・,9)の縁の近傍)とマルチ画像20i(i=1,2,3,・・・,9)の枠との輝度差が大きい場合に、マルチ画像の枠をテクスチャ成分と判定して、その輝度差を強調してしまうことを防ぐことができる。
【0092】
また、マルチ画像201乃至209のそれぞれを、1つの画像とみなし、ストラクチャ成分とテクスチャ成分に任意に分離して、テクスチャ成分を強調することができるので、容易に、本来のマルチ画像毎のコントラストの調整を行なうことができる。
【0093】
図10の処理により生成されたテクスチャ成分(テクスチャ成分T1またはテクスチャ成分T2)に基づいて、上述したように、さらに、図8のステップS54の処理が実行される。
【0094】
図11は、図8のステップS53のストラクチャ補正回路53におけるストラクチャ補正処理を説明するフローチャートである。なお、この処理は、S/T分離回路51からストラクチャ成分S1が図4のストラクチャ補正回路53(ストラクチャ補正回路53のガンマ曲線生成回路101、および遅延回路103)に供給されたとき開始される。
【0095】
ステップS201において、遅延回路103は、ストラクチャ成分S1を取得し、これを遅延させる。具体的には、ゲイン調整回路102において生成されるガンマ曲線γと同期を取るように遅延させ、遅延させたストラクチャ成分S1を加算器104に出力する。
【0096】
ステップS202において、ガンマ曲線生成回路101は、ストラクチャ成分S1をガンマ特性101Aから減算することでガンマ補正の補正量であるガンマ曲線γを求め、ゲイン調整回路102に出力する(図5)。いまの例の場合、ガンマ曲線γは、以下の3つの特徴と備えるものとされる。第1に、ガンマ値が選ばれることで黒側が持ち上がるような曲線とされる。第2に、入力信号の20乃至40(IRE)の範囲内に曲線のピークPを有する。第3に、最高出力値が最高入力値に対しオフセット値ΔYだけ低く設定さる。ガンマ曲線生成回路101は、生成したガンマ曲線γをゲイン調整回路102に出力する。
【0097】
ステップS203において、ゲイン調整回路102は、入力されたガンマ曲線γに対し、そのゲイン(ゲインG)を加減する(図4,図6)。具体的には、ゲイン調整回路102には、エンハンスゲインTE、およびドライブゲインDが入力され、両者の兼ね合いによってゲインGに強弱がつけられる。これにより、ゲインGは、テクスチャ成分T1の増幅の度合い、さらにはドライバ20側の信号制御、ディスプレイ3自体の特性等の画質に関わる条件を考慮した値となる。このゲインGにより、ガンマ曲線γの特性は、合成後の輝度信号YOUT1の振幅レンジがダイナミックレンジ内に収まるように設定される。ここでは、輝度信号YOUT1の振幅レンジがダイナミックレンジいっぱいに収まるようにゲインGを加減し、ガンマ曲線γを調整するものとする。このゲインGが加減されたガンマ曲線γは、加算器104に出力される。
【0098】
ステップS204において、加算器104は、ガンマ曲線γ(ステップS203の処理によりゲインGが加減されたガンマ曲線)と遅延回路103によりガンマ曲線γとの同期が取れているストラクチャ成分S1を取得し、ストラクチャ成分S1にガンマ曲線γを加算する。このことは、ガンマ補正が行なわれていることと等価である。このガンマ補正では、黒側の振幅レベルが持ち上がるように増幅されてコントラストが補正されるだけでなく、オフセットΔYにより白側の振幅レベルが低減される。また、20乃至40(IRE)の範囲内の輝度領域にピークを持たせ、振幅を持ち上げるような補正が施される。このように、ストラクチャ成分S1に上述したガンマ曲線γの特性が付与され、ストラクチャ成分S2が生成される(図2)。
【0099】
ステップS205において、加算器104は、生成したストラクチャ成分S2を加算器55に出力する。
【0100】
図11の処理により生成されたストラクチャ成分S2は、上述したように、さらに、図8のステップS54の処理が実行される。
【0101】
図7乃至図11の処理をまとめると、次のようになる。図10のステップS155において、スイッチ54は、画像表示期間である(DE=0)場合と、画像表示期間でない(DE=1)場合とを区別して、増幅されたテクスチャ成分T2、および増幅されていないテクスチャ成分T1のうち、いずれか一方を選択し、図8のステップS54において、加算器55は、ストラクチャ成分S2と、選択されたテクスチャ成分を加算して輝度信号YOUT1を生成する。
【0102】
画像表示期間である(DE=0)場合、ストラクチャ成分S2は、エンハンスゲインTEとドライブゲインDを参照したガンマ補正によって黒側が持ち上げられているので(図11の処理)、テクスチャ成分T2を加算した後の最小振幅レベルは、ダイナミックレンジいっぱいになる。また、白側の振幅レベルがエンハンスゲインTEとドライブゲインDを参照して低減されているので(図11の処理)、テクスチャ成分T2を加算した後の最大振幅レベルは、ダイナミックレンジいっぱいになる。したがって、輝度信号YOUT1は、テクスチャ強調処理がなされていると同時に、ドライバ20の駆動信号のダイナミックレンジ内にちょうど収まるようになっている。
【0103】
すなわち、元信号である輝度信号YOUT1のストラクチャ成分補正により、駆動信号は白側、黒側ともダイナミックレンジ内に収まったものとなる。よって、黒づまりや白づまりの現象が防止される。しかも、ここでは、駆動信号はダイナミックレンジいっぱいに駆動されるようになっており、必要以上に画像が暗くなるのを防いでいる。なお、上述したように、輝度信号YOUT1には、ドライバ20側での信号制御、ディスプレイ3自体の特性等の画質に関わる条件を考慮してストラクチャ成分補正がなされているので、これに基づく駆動信号は、適正なコントラスト配分で表示を行うようになっている。
【0104】
また、輝度信号YOUT1では、20乃至40(IRE)の範囲内にピークを有するように低輝度領域の振幅を持ち上げるような補正がなされているので、これに基づく駆動信号においても、この輝度領域の振幅が持ち上がったものとなる。よって、ちょうど人物の顔の輪郭や影に相当する黒色が明るく補正され、この範囲のテクスチャ成分増幅の効果が緩和される。
【0105】
したがって、ディスプレイ3に表示される画像では、黒づまりや白づまりの現象が防止され、テクスチャ強調処理による効果、すなわち細部のコントラスト向上により、鮮鋭であるにも関わらず自然な印象を与えるという効果が遺憾なく発揮される。また、ストラクチャ成分の補正により全体のコントラストバランスが調整されているため、細部のコントラスト向上を明るい部分でもはっきりと視認することができ、テクスチャ強調が一層有効なものとなる。さらに、テクスチャ強調処理によって人物の顔の輪郭や影の部分が黒く強調されてしまうことが緩和され、画質を落とさないようにすることができる。また、この画質に、さらに、輪郭補正が行なわれた画質とすることができる。
【0106】
画像表示期間でない(DE=1)場合、テクスチャ成分の不要な強調を防ぐことができる。
【0107】
以上の処理により、マルチ画像201乃至マルチ画像209の範囲と、マルチ画像でない範囲を確実に識別することができるので、マルチ画像の枠領域のコントラストの不要な強調を防ぐことができる。
【0108】
具体的には、各画像間の枠の幅が狭い場合(例えば、マルチ画像201とマルチ画像204の間隔が狭い場合)においても、スイッチ54が、画像表示期間である場合(DE=0)とない場合(DE=1)を区別して、テクスチャ成分を選択するので、結果的に、枠領域のコントラストの不要な強調が抑えられる。これにより、例えば、枠周辺の画像(例えば、マルチ画像20i(i=1,2,3,・・・,9)の縁の近傍)とマルチ画像20i(i=1,2,3,・・・,9)の枠との輝度差が大きい場合に、マルチ画像の枠をテクスチャ成分と判定して、その輝度差を強調してしまうことを防ぐことができる。
【0109】
また、マルチ画像201乃至209のそれぞれを、1つの画像とみなし、ストラクチャ成分とテクスチャ成分に任意に分離して、テクスチャ成分を強調することができるので、容易に、マルチ画像毎のコントラストの調整を行なうことができる。
【0110】
また、複数のマルチ画像201乃至209を含む全体画像200を表示する場合において、簡単かつ迅速に、マルチ画像毎にコントラストを調整することができる。
【0111】
なお、1つの画面上に複数のマルチ画像(縮小画像)を同時に表示させるマルチ画面表示機能を有するテレビジョン受像機は、以下のように構成することもできる。
【0112】
図14は、本発明を適用した他のテレビジョン受像機400の構成例を示すブロック図である。図中、図1と対応する部分については、同一の符号を付してあり、その説明は、繰り返しになるので省略する。
【0113】
図14の例の場合、テレビジョン受像機400には、DE領域変換部411が設けられており、DE領域変換部411は、マルチ画面処理部14から供給されるDE信号(上述した図1と同様に、出力したYUV信号(信号YINININ)が、画像表示期間でない(マルチ画像の枠である)ことを示すDE信号)の領域を2次元(水平および垂直方向)でさらに広くなるように枠信号DE’を生成する。具体的には、図15に示されるように、マルチ画像の枠の領域が広げられるように(マルチ画像の一部が枠となるように)、DE信号がDE’信号に変更される。
【0114】
図15において、マルチ画像20i(i=1,2,3,・・・,9)は、左または右の端部から内側に水平方向にx画素だけ狭められ(枠が広げられ)、また、上または下の端部から内側に、垂直方向にy画素(ライン)だけ狭められ(枠が広げられ)ている。すなわち、マルチ画像の縁の近傍の所定の範囲において、マルチ画像の表示領域が、DE領域変換部411によりマルチ画像の枠とされる。DE領域変換部411は、結果的に画像50i(i=1,2,・・・,9)の領域では、画像表示期間を示す信号DE’=0を出力し、画像50i(i=1,2,3,・・・,9)以外の領域では、画像表示期間でないことを示す信号(すなわち、マルチ画像の枠領域であることを示す枠信号)DE’=1を出力する。
【0115】
スイッチ412は、DE領域変換部411からDE’信号を取得し、DE’信号に基づいて、テクスチャ増幅回路52により生成されたテクスチャ成分T2(テクスチャ成分T1が増幅された成分)と、増幅されていないテクスチャ成分T1(S/T分離回路51から出力されたテクスチャ成分T1)のいずれか一方を選択する。
【0116】
具体的には、マルチ画面処理部14は、いま出力したYUV信号が画像表示期間である場合(マルチ画像20iの範囲内の場合)、DE=0をDE領域変換部411に供給し、YUV信号が画像表示期間でない場合(マルチ画像20iの領域外の枠領域である場合)、DE=1をDE領域変換部411に供給する。DE領域変換部411は、画像表示期間である場合(DE=0である場合)においても、そのマルチ画像20i(i=1,2,3,・・・,9)の左右の縁から水平方向にx画素だけ内側の領域と、上下の縁から垂直方向にy画素(ライン)だけ内側の範囲も枠の領域となるように信号をDE’=1と設定し、それ以外の範囲(例えば、画像501の内側、またはマルチ画像201の外側)のDE信号は、そのままDE’として設定する(すなわちDE’=DEとされる)。
【0117】
スイッチ412は、DE領域変換部411からのDE’信号が、DE’=0とされる場合、テクスチャ増幅回路52からテクスチャ成分T2を取得し、DE’=1とされる場合、S/T分離回路51からテクスチャ成分T1(すなわち、増幅されていないテクスチャ成分T1)を取得する。
【0118】
次に、図16のフローチャートを参照して、図14のテレビジョン受像機400のテクスチャ強調部410におけるテクスチャ強調処理を説明する。なお、図16のフローチャートは、上述した図7乃至図11のうち、図10のフローチャートに対応する処理とされ、その他の処理(図7,図8,図9,図11の処理)は、上述した図7,図8,図9,図11の処理と同様であるのでその説明は省略する。すなわち、図16のフローチャートは、図8のステップS52の処理の詳細な説明であって、図10のフローチャートに対応している。また、図16のステップS301乃至S303は、図10のステップS151乃至ステップS153にそれぞれ対応しており、図16のステップS310乃至ステップS313は、図10のステップS155乃至ステップS158にそれぞれ対応している。
【0119】
ステップS301において、テクスチャ増幅回路52は、S/T分離回路51の減算器85からテクスチャ成分T1を取得する(図10のステップS151に対応する処理)。
【0120】
ステップS302において、テクスチャ増幅回路52は、取得したテクスチャ成分T1を、外部入力されるエンハンスゲインTEに基づいて増幅し、テクスチャ成分T2を生成する(図10のステップS152に対応する処理)。
【0121】
ステップS303において、テクスチャ増幅回路52は、生成したテクスチャ成分T2をスイッチ412に出力する(図10のステップS153に対応する処理)。
【0122】
ステップS304において、DE領域変換部411は、マルチ画面処理部14からDE信号を取得する。上述したように、DE信号は、いま供給しているYUV信号が画像表示期間である場合、DE=0とされ、画像表示期間でない場合(マルチ画像の枠である場合)、DE=1とされている。
【0123】
ステップS305において、DE領域変換部411は、DE=1であるか(マルチ画像の枠であるか)否かを判定する。DE=1でない(すなわち、DE=0である)と判定された場合、ステップS306において、DE領域変換部411は、いま処理しているYUV信号に対応する領域を、枠領域とするか否かを判定する。
【0124】
具体的には、DE領域変換部411は、いま処理しているYUV信号に対応する箇所が、図15の画像501乃至509のいずれかの内側であるか否かを判定し、画像501乃至509のいずれかの内側にであると判定した場合、ステップS306の処理では、枠領域としないと判定される。逆に、DE領域変換部411は、マルチ画像201乃至209の内側であって、画像501乃至509の外側であると判定した場合、ステップS306の処理では、枠領域とすると判定される。なお、この処理は、ステップS305において、DE=1でない(すなわち、DE=0である)と判定された後の処理であるので、勿論、マルチ画像20i(i=1,2,3,・・・,9)より外側ではない。
【0125】
ステップS306において、枠領域としない(すなわち、画像501乃至509のいずれかの内側である)と判定された場合、ステップS307において、DE領域変換部411は、DE’=0を出力する。
【0126】
ステップS305において、DE=1であると判定された場合、またはステップS306において、枠領域すると判定された場合、処理はステップS308に進み、DE領域変換部411は、DE’=1(マルチ画像の枠の表示期間であることを示す信号)を出力する。
【0127】
ステップS309において、スイッチ412は、DE領域変換部411からDE’を取得する(図10のステップS154に対応する処理)。このDE’は、値が0または1とされている。
【0128】
ステップS310において、スイッチ412は、DE’信号が、DE’=0である(枠領域でない、すなわち、画像501乃至509のいずれかの内側である)か否かを判定する(図10のステップS155に対応する処理)。DE’=0であると判定された場合、処理はステップS311に進み、スイッチ412は、テクスチャ増幅回路52からテクスチャ成分T2(ステップS303の処理で生成されたテクスチャ成分T2)を取得する(図10のステップS156に対応する処理)。
【0129】
ステップS310において、DE’=0でないと判定された場合、すなわち、DE’=1である(画像表示期間でない)と判定された場合、ステップS312に進み、スイッチ412は、S/T分離回路51からテクスチャ成分T1(増幅されていないテクスチャ成分T1)を取得する(図10のステップS157に対応する処理)。
【0130】
ステップS311の処理の後、またはステップS312の処理の後、ステップS313において、スイッチ412は、取得したテクスチャ成分(テクスチャ成分T1またはテクスチャ成分T2)を加算器55に出力する。例えば、スイッチ412が、ステップS311においてテクスチャ成分T2を取得した場合、スイッチ412は、テクスチャ成分T2を加算器55に出力する。また、スイッチ412がステップS312においてテクスチャ成分T1を取得した場合、これを加算器55に出力する。
【0131】
図16の処理により、図15に示されるような複数のマルチ画像201乃至209よりなる全体画像200を表示させる場合、各マルチ画像の枠領域をさらに広くして(マルチ画像の縁の近傍の所定の範囲において、マルチ画像の枠をさらに広くして)、枠の領域、およびマルチ画像201乃至209の縁の近傍の所定の範囲のコントラストの強調(調整)を防ぐようにしたので、マルチ画像の枠(縁)が、異常に強調されるのを防ぐことができる。
【0132】
これにより、マルチ画面を表示させる場合に、コントラストの強調を弊害なく実現することができる。
【0133】
また、マルチ画像20i(i=1,2,3,・・・,9)の縁の近傍の所定の範囲の画像と枠との輝度差が大きい場合に、枠および縁の近傍の所定の範囲の画像のテクスチャ成分T1を増幅しないようにしたので、画像と枠の輝度差の強調を防ぐことができる。
【0134】
さらに、複数のマルチ画像を含む全体画像を表示する場合において、簡単かつ迅速に、マルチ画像毎にコントラストを調整することができる。
【0135】
以上により、テレビジョン受像機が、画像信号をテクスチャ成分とストラクチャ成分に分離し、テクスチャ成分を強調するようにしたので、複数のマルチ画像を1画面に表示させる場合(マルチ画面表示を行なう場合)においても、容易にマルチ画像毎にコントラストの強調(調整)を行なうことができる。
【0136】
また、枠領域範囲を示す信号(画像表示期間を示す信号)に基づいて、テクスチャの強調を調整するようにしたので、複数のマルチ画像を1つの画面上に同時に表示させる場合かつ、各マルチ画像間(マルチ画像の枠)が狭い場合においても、各マルチ画像間の枠をテクスチャ成分として判断されるのを防ぐことができ、もって、枠とマルチ画像の輝度差の強調を防ぐようにすることができる。
【0137】
さらに、複数のマルチ画像を1画面に表示させる場合に、マルチ画像毎のコントラストを調整し、かつ、枠と各マルチ画像の輝度差の強調を防ぐようにしたので、自然な画像とすることができる。
【0138】
また、画像表示期間を示す信号に基づいて、マルチ画像の枠を示す枠信号を生成するようにしたので、簡単に実現することができる。
【0139】
さらに、マルチ画像の枠領域より広い領域(マルチ画像の縁の近傍の所定の範囲)においても、枠領域と設定する(DE’)ようにしたので、各マルチ画像の縁が異常に強調されるのを防ぐことができる。
【0140】
なお、マルチ画面表示機能を有するテレビジョン受像機に限らず、各放送番組のチャンネルの内容を静止画で表示させるようなマルチチャンネルインデックス表示を行なうテレビジョン受像機においても、本発明は適用することができる。
【0141】
また、マルチ画像は、必ずしもサイズを縮小した画像である必要はない。もともと標準サイズの画像に較べてサイズが小さい画像であってもよい。
【0142】
さらに、以上の例では、ガンマ曲線γの調整をエンハンスゲインTE,ドライブゲインDの2つの条件を組み合わせて行なうようにしたが、エンハンスゲインTEだけを参照して行なうようにしてもよい。
【0143】
また、以上の例は、テレビジョン受像機について説明したが、画像表示機能を有するテレビジョン受像機に限らず、テレビジョンカメラ、デジタルカメラ、VTR(Video Tape Recorder)、プリンタ、およびパーソナルコンピュータ等の画像処理を行なう装置全般に適用することができる。
【0144】
さらに、上述した実施の形態では、本発明の画像処理方法に係るS/T分類、テクスチャ強調、およびストラクチャ補正の各動作を回路によって行なうものとしたが、これらをソフトウエア上で実現させてもよい。
【0145】
なお、本明細書において、各フローチャートを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0146】
【発明の効果】
以上の如く、本発明によれば、画像のコントラストを調整することができる。特に、本発明によれば、複数のマルチ画像を1画面に表示する場合において、マルチ画像毎にコントラストを調整することができる。また、簡単かつ迅速にマルチ画像毎にコントラストを調整することができる。
【図面の簡単な説明】
【図1】本発明を適用したテレビジョン受像機の構成例を示すブロック図である。
【図2】図1のテクスチャ強調部の作用を説明する図である。
【図3】図1のS/T分離回路の構成例を示すブロック図である。
【図4】図1のストラクチャ補正回路とテクスチャ増幅回路の構成例を示すブロック図である。
【図5】図4のガンマ曲線生成回路の作用を説明する図である。
【図6】図4のゲイン調整回路の作用を説明する図である。
【図7】図1のテレビジョン受像機における画像表示処理を説明するフローチャートである。
【図8】図7のステップS4のテクスチャ強調処理を説明するフローチャートである。
【図9】図8のステップS51のS/T分離処理を説明するフローチャートである。
【図10】図8のステップS52のテクスチャ強調処理を説明するフローチャートである。
【図11】図8のステップS53のストラクチャ補正処理を説明するフローチャートである。
【図12】ストラクチャ成分とテクスチャ成分を説明する図である。
【図13】複数のマルチ画像を含む全体画像の例を説明する図である。
【図14】本発明を適用したテレビジョン受像機の他の構成例を示すブロック図である。
【図15】複数のマルチ画像を含む全体画像の例を説明する図である。
【図16】図14のテクスチャ増幅回路におけるテクスチャ増幅処理を説明するフローチャートである。
【符号の説明】
2 画像処理部, 3 ディスプレイ, 14 マルチ画面処理部, 15 テクスチャ強調部, 16 遅延回路, 17 クロマアンプ, 18 輪郭補正回路, 51 輪郭補正回路, 52 テクスチャ増幅回路, 53 ストラクチャ補正回路, 54 スイッチ, 55 加算器, 81 レベル判定部,82 周波数判定部, 83 フィルタ特性決定部, 84 非線形フィルタ, 85 減算器, 101 ガンマ曲線生成回路, 102 ゲイン調整回路, 103 遅延回路, 104 加算器, 200 全体画像, 410 テクスチャ強調部, 411 DE領域変換部, 412 スイッチ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus and method, and more particularly, to an image processing apparatus and method capable of adjusting contrast for each multi image when displaying a plurality of multi images on one screen.
[0002]
[Prior art]
The image processing apparatus has, for example, functions such as adjustment of brightness and contrast, contour correction, and the like as an image processing function of performing image quality correction on an input image and outputting the image.
[0003]
For example, Patent Document 1 proposes an image processing apparatus having an image processing function that automatically determines the degree of contrast enhancement from the spread amount of a luminance distribution and allows a user to easily enhance contrast by an appropriate amount. I have.
[0004]
Further, a contrast enhancement method has been proposed in which a histogram of an input image signal is obtained to enhance the contrast of an image.
[0005]
[Patent Document 1]
JP-A-10-208044
[0006]
[Problems to be solved by the invention]
By the way, in recent years, a television receiver having a multi-screen display function of simultaneously displaying a plurality of reduced images on one screen has been sold.
[0007]
When displaying a multi-screen on a television receiver, the image processing function described in Patent Document 1 has a problem that contrast cannot be enhanced for each reduced image.
[0008]
Further, in the above-described contrast enhancement method, in order to enhance the contrast for each reduced image, it is necessary to take a histogram for each reduced image.
[0009]
The present invention has been made in view of such a situation, and it is an object of the present invention to easily and quickly adjust the contrast for each reduced image when displaying a multi-screen.
[0010]
[Means for Solving the Problems]
The image processing apparatus of the present invention separates input image data including data of a plurality of multi-images displayed simultaneously on one screen into a structure component forming a contour of the multi-image and a texture component forming details of the multi-image. Data separating means, texture enhancing means for enhancing the texture components separated by the data separating means, structure correcting means for performing non-linear correction on the structure components separated by the data separating means, and texture enhancing means Selecting means for selecting any one of the texture component emphasized by the above and the non-emphasized texture component, the structure component corrected by the structure correcting means, and the texture emphasized by the texture enhancing means selected by the selecting means Synthesize texture components to generate processed data And means, on the basis of the machining data combined by the combining means, characterized in that it comprises a display control unit that controls to display a plurality of multi-image on a single screen.
[0011]
The image processing apparatus may further include a frame signal output unit that outputs a frame signal indicating that the frame is the multi-image frame.
[0012]
When the frame signal output unit outputs a frame signal indicating that the frame is a multi-image frame, the selection unit may select an unemphasized texture component and supply the texture component to the synthesis unit.
[0013]
The frame signal output means may output a frame signal indicating that the frame is a multi-image frame when the image display period is not the multi-image image display period.
[0014]
The frame signal output means may output a frame signal indicating that the frame is a multi-image frame during an image display period of the multi-image and within a predetermined range near an edge of the multi-image. Can be.
[0015]
According to the image processing method of the present invention, input image data including data of a plurality of multi-images simultaneously displayed on one screen is separated into a structure component constituting an outline of the multi-image and a texture component constituting details of the multi-image. A data separation step, a texture enhancement step for enhancing texture components separated by the data separation step, and a structure correction step of performing non-linear correction on the structure components separated by the data separation step. A selection step of selecting one of a texture component enhanced by the processing of the texture enhancement step and a texture component not enhanced, a structure component corrected by the processing of the structure correction step, and a processing of the selection step. The selected texture component A combining step of combining and generating processed data; and a display control step of controlling a plurality of multi-images to be displayed on a single screen based on the processed data combined by the processing of the combining step. And
[0016]
In the image processing apparatus and method according to the present invention, input image data is separated into a structure component and a texture component, the texture component is emphasized, and the structure component is subjected to nonlinear correction. Then, one of the emphasized texture component and the non-emphasized texture component is selected, and the corrected structure component and the selected texture component are combined to generate processed data, and the processed data is generated based on the processed data. Thus, a plurality of multi-images are controlled to be displayed on one screen.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0018]
FIG. 1 is a block diagram illustrating a configuration example of a television receiver 1 to which the present invention has been applied.
[0019]
The television receiver 1 includes an image processing unit 2 that receives broadcast radio waves and demodulates a signal of a predetermined channel, and a display 3 that displays an image based on the demodulated signal.
[0020]
The tuners 11A and 11B of the image processing unit 2 receive television signals of different channels (programs) in a time-division manner, demodulate them, and output a composite signal (CVBS: Composite Video Burst Signal). The Y / C separation circuits 12A and 12B obtain composite signals from the corresponding tuners 11A and 11B, and convert the composite signals into luminance signals Y and C, respectively. 1 And color signal C 1 (Y / C separation circuit 12A), luminance signal Y 2 And color signal C 2 (Y / C separation circuit 12B). The chroma decoder 13A outputs the luminance signal Y 1 And color signal C 1 To the signal Y as a YUV signal 1 U 1 V 1 And the chroma decoder 13B outputs the luminance signal Y 2 And color signal C 2 To the signal Y as a YUV signal 2 U 2 V 2 And output.
[0021]
The multi-screen processing unit 14 receives the YUV signals from the chroma decoders 13A and 13B (here, the signal Y as the YUV signal). 1 U 1 V 1 , And signal Y 2 U 2 V 2 ), And a signal Y as a YUV signal for simultaneously displaying a plurality of reduced images on one screen based on the obtained YUV signal. IN , U IN , V IN Is generated and output. For example, when the tuner 11A sequentially receives television signals of channels 1 to 5 in a time-division manner, and the tuner 11B receives television signals of channels 6 to 9 in a time-division manner (that is, sequentially receives channels 6 to 9). , The multi-screen processing unit 14 obtains the YUV signals (signals Y) of the acquired nine channels (the nine channels received in 1 U 1 V 1 , And signal Y 2 U 2 V 2 ), A signal Y as a YUV signal for simultaneously displaying nine reduced images (hereinafter, referred to as a multi-image) on one screen. IN , U IN , V IN (For each frame) (signal Y as a YUV signal) 1 U 1 V 1 , And signal Y 2 U 2 V 2 Is generated by synthesizing). That is, the signal Y IN , U IN , V IN Contains signals corresponding to images of nine channels.
[0022]
Further, the multi-screen processing unit 14 outputs the signal Y as a YUV signal to be output. IN , U IN , V IN Generates a DE (Display Enable) signal indicating whether or not it is during the image display period (whether or not the image is a multi-image), and outputs the signal to the switch 54 of the texture emphasizing unit 15.
[0023]
The image data mainly has a structure component constituting an outline of the image and a texture component mainly constituting details thereof. The texture emphasizing unit 15, the delay circuit 16, and the chroma amplifier 17 mainly perform a process related to texture emphasis for emphasizing the texture component (details will be described later). The texture emphasizing unit 15 receives the input luminance signal Y IN Is subjected to a texture enhancement process, and the luminance signal Y OUT1 And outputs the result to the chroma amplifier 17.
[0024]
The contour correction circuit 18 has a sharpness function, that is, a function of enhancing the sharpness of the edges and contours of a person or an object in an image (a function of correcting a frequency characteristic). The contour correction circuit 18 outputs the luminance signal Y OUT1 By correcting the frequency characteristics (contour enhancement correction), the sharpness of the edges and contours of the person or object in the image is corrected. For example, the luminance signal Y OUT1 If the sharpness of the image signal is abnormally high, the contour correction circuit 18 corrects the frequency characteristic so as to decrease it, and conversely, OUT1 If the sharpness of is too weak, correction is made to increase the frequency characteristics. In addition, since the parameters of the contour correction circuit 18 can be set by the user, the user can set his or her desired sharpness. The contour correction circuit 18 outputs the luminance signal Y OUT1 , The frequency characteristic is corrected (contour enhancement correction is performed), and the luminance signal Y OUT2 Is generated and output to the matrix circuit 19.
[0025]
The delay circuit 16 controls the color difference signal U IN , V IN To the luminance signal Y generated in the texture emphasizing unit 15. OUT1 And output in synchronization. The chroma amplifier 17 receives the color difference signal U IN , V IN "Y IN / Y OUT1 , And maintain the Y / C ratio (C; both color difference signals U and V) at a constant value before and after the texture enhancement processing. OUT , V OUT Generate The generated color difference signal U OUT , V OUT Is output to the matrix circuit 19.
[0026]
The YUV signal (digital data) is a set of pixel values corresponding to positions on an image. The luminance signal Y expresses a luminance level, and takes an amplitude value between a white level which is 100% white and a black level which is 100% black. Note that 100% of the white of the image signal is defined as 100 (IRE) in a unit indicating a relative ratio of the image signal called IRE (Institute of Radio Engineers). In the Japanese NTSC signal standard, the white level is 100 IRE and the black level is 0 IRE. Therefore, in the following description, the luminance signal Y takes the minimum value (0IRE) representing black or a value in the vicinity thereof on the “black side”, and the maximum value (100IRE) representing white or a value in the vicinity thereof. This is referred to as “white side”. The color difference signals U and V are respectively converted into a signal "BY" obtained by subtracting the luminance signal Y from blue (B; Blue) and a signal "RY" obtained by subtracting the luminance signal Y from red (R; Red). The colors (hue, saturation, and luminance) are expressed by combining the U signal and the V signal with the luminance signal Y.
[0027]
The matrix circuit 19 outputs a signal Y which is a YUV signal after the texture enhancement processing. OUT2 , U OUT , V OUT Is converted to an RGB signal and output to the driver 20. The driver 20 generates and outputs a drive signal for the display 3 based on the RGB signals. The display 3 displays an image based on a drive signal supplied from the driver 20. The display 3 may be any type of display device, such as a CRT (Cathode Ray Tube) 21, an LCD (Liquid Crystal Display) 22, a PDP (Plasma Display Panel) (not shown), or the like.
[0028]
In the present example, the input image signal is a broadcast signal. However, the present invention is not limited to this, and may be an output signal such as a VCR (Video Cassette Recorder) or a DVD (Digital Versatile Disc).
[0029]
Next, the configuration and function of the texture emphasizing unit 15 of the television receiver 1 will be described in more detail. The texture emphasizing unit 15 includes an S / T (structure / texture) separating circuit 51, a texture amplifying circuit 52, a structure correcting circuit 53, a switch 54, and an adder 55.
[0030]
The texture emphasizing unit 15 performs a process as shown in FIG. That is, the input luminance signal Y IN Are separated by a S / T separation circuit 51 into a structure component S1 that mainly forms an outline component of the image and a texture component T1 that mainly forms details of the image. The texture component T1 is amplified by the texture amplification circuit 52 to become the texture component T2.
[0031]
The amplitude of the structure component S1 is corrected by the structure correction circuit 53 so that the low-frequency side (black side) is emphasized and the high-frequency side (white side) is suppressed. The structure component S2 and the selected texture component (texture component T1 or T2) are added by the adder 55, and the luminance signal Y OUT1 It becomes.
[0032]
The switch 54 selects one of the texture component T2 amplified by the texture amplification circuit 52 and the non-amplified texture component T1 based on the DE signal supplied from the multi-screen processing unit 14, and Output to 55. The DE signal is set to DE = 0 when it is in the image display period, and is set to DE = 1 when it is not in the image display period. The switch 54 selects the texture component T2 amplified by the texture amplification circuit 52 when DE = 0 (when the image display period is a multi-image display period) and when DE = 1 ( If it is not the image display period (it is the display period of the multi-image frame), the non-amplified texture component T1 is selected.
[0033]
That is, the DE signal can be understood as a signal indicating that it is a multi-image image signal display period (when DE = 0), and also as a signal indicating that it is a display period of a multi-image frame. (When DE = 1).
[0034]
In the image display period (the multi-image display period), the texture component T2 is superimposed on the corrected structure component S2, and the luminance signal Y OUT1 Is suppressed. On the other hand, when it is not the image display period (when it is the display period of the frame of the multi-image), the texture component T1 (unamplified texture component) is superimposed on the corrected structure component S2, and the multi-image The amplification of the texture in the frame is suppressed.
[0035]
FIG. 3 is a block diagram showing a configuration of the S / T separation circuit 51. The S / T separation circuit 51 includes a level determination unit 81, a frequency determination unit 82, a filter characteristic determination unit 83, a nonlinear filter 84, and a subtractor 85. The level determining section 81 and the frequency determining section 82 respectively output the luminance signal Y IN , And a fluctuation range of the frequency, and outputs a determination result to the filter characteristic determination unit 83. The filter characteristic determining unit 83 determines the amplitude level and the frequency threshold of the nonlinear filter 84 according to the determination result. The nonlinear filter 84 uses the filter characteristics determined by the filter characteristic determination unit 83 to generate the luminance signal Y. IN To extract the structure component S1. The subtractor 85 calculates the original luminance signal Y IN The texture component T1 is extracted by subtracting the structure component S1 from.
[0036]
The non-linear filter 84 is different from a commonly used linear low-pass filter in that the luminance signal Y IN Is a non-linear filter that considers both the amplitude level and the frequency of the image, and the structure component S1 constituting the contour of the image is distinguished from the other components. More specifically, the luminance signal Y IN Among them, the edge component having a sharp amplitude fluctuation is stored as it is, and the small amplitude component other than the edge component is smoothed. As the configuration, for example, the configuration disclosed in JP-A-2001-298621 can be adopted.
[0037]
The non-linear filter 84 is configured as a two-dimensional non-linear filter or a one-dimensional non-linear filter applied to the horizontal direction and the vertical direction of an image, respectively. The pixel values of the peripheral pixels falling within the predetermined threshold ε or less are applied as they are, but if the difference between the absolute values of the pixel values is larger than the threshold ε, it is determined to be an edge, and By using the pixel value of the central pixel, smoothing is performed after eliminating the influence of peripheral pixels.
[0038]
However, in an actual image, a portion where the amplitude variation is large is not always a contour on the image, and conversely, a portion where the amplitude variation is small may be a contour. Therefore, here, the accuracy of the extraction of the structure component S1 is increased by performing smoothing in accordance with not only the amplitude level but also information from the frequency.
[0039]
It is desirable that the non-linear filter 84 obtains a signal with as little change as possible in a portion other than the edge as the structure component S1, but for that purpose, it is necessary to use a filter that can cover a wide range in space. . For example, the luminance signal Y IN Is a data equivalent to 720 horizontal effective pixels and 288 vertical scanning lines, a filter having a size of about 1/4 (180 pixels × 72 pixels) in both directions may be used.
[0040]
FIG. 4 is a block diagram mainly showing the structure of the structure correction circuit 53 following the S / T separation circuit 51. The texture amplification circuit 52 generates and outputs a texture component T2 by amplifying the texture component T1 input from the S / T separation circuit 51 in accordance with the externally input enhancement gain TE. It is appropriate that the actual value of the enhancement gain TE be a value between 1 and 2. In normal use, the value is, for example, about 1.3 to 1.4, but above this value, the effect of texture emphasis appears strongly. When the value of the enhancement gain TE is set to 2 or more, the texture component is excessively emphasized and gives an uncomfortable feeling.
[0041]
The switch 54 selects and selects one of the texture component T2 amplified by the texture amplification circuit 52 and the non-amplified texture component T1 based on the DE signal supplied from the multi-screen processing unit 14. The texture component is output to the adder 55. As described above, when the DE signal is in the image display period (multi-image image display period), DE = 0. When the DE signal is not in the image display period (multi-image frame display period), DE = 1. Therefore, the switch 54 selects the texture component T2 during the image display period, and selects the texture component T1 during the non-image display period.
[0042]
The structure correction circuit 53 includes a gamma curve generation circuit 101, a gain adjustment circuit 102, a delay circuit 103, and an adder 104. In the structure correction circuit 53, the correction amount of the structure component S1 input from the S / T separation circuit 51 has a positive maximum in an intermediate brightness region excluding the lowest and highest brightness levels of the structure component S1. Such non-linear correction and correction for reducing the maximum value of the luminance level are performed at the same time. In the present embodiment, the non-linear correction is referred to as gamma correction for convenience.
[0043]
As shown in FIG. 5, the gamma curve generation circuit 101 holds a gamma characteristic 101A serving as a reference in advance, and subtracts the structure S1 from the gamma characteristic 101A to obtain a gamma curve γ which is a correction amount of gamma correction. 0 And outputs it to the gain adjustment circuit 102. The gamma value of the gamma characteristic 101A is, for example, 0.5 to 0.7 (when the input value is X and the output value is Y, the input / output characteristic is Y = X 0.5 Or Y = X 0.7 ). Here, the maximum output value of the gamma characteristic 101A is set to be lower than the maximum value of the input structure component S1 by an offset value ΔY so that an output with a reduced white range is obtained.
[0044]
Further, the gamma characteristic 101A has a peak (difference from the input signal, that is, an amplitude output that maximizes the correction amount) P within the range of the input signal level of 20 to 40 (IRE). The black of the outline or shadow of a human face corresponds to approximately 20 to 40 (IRE) in amplitude level. Therefore, by correcting the amplitude level within the range of 20 to 40 (IRE) so as to be raised (emphasized), the emphasis effect on the contours and shadows of the human face is alleviated, and the sense of discomfort for the face is reduced. Can be prevented from occurring. As described above, the feature that the offset value ΔY is relative to the highest value and the peak P is in the range of 20 to 40 (IRE) is that the generated gamma curve γ 0 Is inherited.
[0045]
The gain adjustment circuit 102 calculates the gamma curve γ 0 Is configured as an amplifier that adjusts the gain G by adjusting it. FIG. 6 shows the state of the adjustment. Gamma curve γ 0 Increases the gain G (G> 1), the gamma curve γ 1 (Gamma curve γ 0 , The output level increases in the positive or negative direction (absolute value increases), and when the gain G is reduced (0 <G <1), the gamma curve γ 2 (Gamma curve γ 0 The output level becomes smaller in the positive or negative direction (absolute value becomes smaller) than in the case of (1). This gives the gamma curve γ 0 , The degree of bending to the peak P side and the value of the offset value ΔY are simultaneously adjusted. The offset value ΔY is selected, for example, in the range of 2 to 25% of the maximum amplitude value on the input side.
[0046]
The gain adjustment circuit 102 increases or decreases the gain G according to the enhancement gain TE. As the enhancement gain TE increases, the amplitude of the texture component T2 increases. In order to prevent the structure component S2 from being saturated on the black side and the white side with respect to the dynamic range, the characteristics on the black side must be greatly bent in accordance with the enhancement gain TE, and the characteristics on the white side must be kept low. Therefore, in this case, the gain G is adjusted so as to increase, and γ 1 A gamma curve of the type is obtained. Conversely, when the enhancement gain TE is small, the gain G does not need to be changed much because the amplitude increase of the texture component T2 does not need to be considered so much. Therefore, in this case, the gain G is adjusted to be small in accordance with the degree of amplification, and γ 2 A gamma curve of the type is obtained.
[0047]
In the present embodiment, the gain adjustment circuit 102 further adjusts the gain G according to the drive gain D. As described above, the driver 20 generates a drive signal having a voltage value according to the luminance gradation. However, in a normal television receiver, the dynamic range of the drive signal is variable, and the brightness of the image is adjusted by offsetting the high-brightness side (white side) of the dynamic range to increase or decrease the effective drive voltage. Is to be adjusted. The gain for this dynamic range is the drive gain D. That is, here, the two factors of the enhancement gain TE and the drive gain D are considered simultaneously and the gamma curve γ 0 Is determined.
[0048]
A large drive gain D means that the drive is performed at a high pressure. At this time, the white side has a particularly high luminance, so that gradation cannot be obtained due to the characteristics of human eyes. In such a state, no matter how much the texture component is enhanced, an effective image quality improvement cannot be expected. In such a case, if the amplitude of the structure component S2 is reduced to a level at which the gradation can be visually recognized, the emphasized texture component T2 can be sufficiently recognized. Therefore, when the drive gain D is large, the gain G is adjusted to be large. In this case, if the enhancement gain TE is large, the gain G needs to be further increased.
[0049]
Conversely, if the drive gain D becomes small, such a problem does not occur, so that it is not necessary to correct the structure component S2, and the gain G is selected to be small. However, if the enhancement gain TE is also small, the gain G may be kept small, but if the enhancement gain TE is large, the gain G needs to be increased according to the enhancement gain TE.
[0050]
Although the drive gain D is continuously variable, it is generally set to several levels in advance corresponding to the image quality mode, and one of them is selected from outside. As a specific example, a dynamic mode (D = 100%), a standard mode (D = 80 to 90%), a soft mode (D = 50%), and the like are set. In the dynamic mode or the standard mode, the display 3 including the CRT 21 or the LCD 22 is driven at a voltage of 100% to 80% of the full range. As described above, the brightness becomes higher as the drive is performed near the upper limit of the drive level. However, the brightness visually recognized on the display 3 becomes saturated on the white side, and the gray level on the white side cannot be obtained much. On the other hand, in the soft mode, since the full range is driven by the voltage of 50% of that in the dynamic mode, the luminance is slightly lowered, but a proper gradation expression is performed. Therefore, in an image quality mode in which the drive gain D is large, such as the dynamic mode and the standard mode, it is necessary to lower the white level of the finally obtained luminance signal in order to secure the characteristics on the high luminance side. Therefore, by increasing the gain G, the gamma curve γ 0 Is set to be large.
[0051]
It is preferable that the gain G be selected so that the amplitude of the drive signal in the driver 20 finally fills the dynamic range. However, when the display 3 is the CRT 21, the high-frequency component of the luminance of the image displayed on the display screen tends to decrease significantly on the high luminance side, so that the amplitude level of the drive signal is limited to just the dynamic range. Instead, the gain G is adjusted so as to further lower it. As described above, the gain G is also adjusted according to the type of the display 3. For example, when the enhancement gain TE is 1.7, the gain G is around 95% when the display 3 is the LCD 22, and around 90% when the display 3 is the CRT 21. It is said.
[0052]
In the gain adjusting circuit 102, the gamma curve γ is obtained by the gain G obtained as described above. 0 Is adjusted.
[0053]
The delay circuit 103 delays the input structure component S1 and generates a gamma curve γ by the gamma curve generation circuit 101 and the gain adjustment circuit 102. 0 Is output in synchronization with the correction component based on. The adder 104 receives the input structure component S1 and the gamma curve γ 0 , And a structure component S2 is generated and output.
[0054]
The structure component S2 is further added to the texture component (texture component T1 or texture component T2) by the adder 55. As a result, the texture component is emphasized during the image display period, and the luminance signal Y in which the structure component is corrected is provided. OUT1 Is generated and the image is not in the image display period, the texture component is not emphasized, and only the structure component is corrected. OUT1 Is generated.
[0055]
Next, an image display process in the television receiver 1 will be described with reference to flowcharts in FIGS. This process is started when an image signal is input to the Y / C separation circuits 12A and 12B of the television receiver 1 in FIG.
[0056]
In step S1, the Y / C separation circuits 12A and 12B each obtain an image signal and convert the corresponding image signal into a luminance signal Y. 1 And color signal C 1 , And the luminance signal Y 2 And color signal C 2 , Respectively. Specifically, since the television signal received and demodulated by the tuner 11A is input to the Y / C separation circuit 12A as a composite signal, the Y / C separation circuit 12A outputs the composite signal ( Image signal) to the luminance signal Y 1 And color signal C 1 And outputs it to the chroma decoder 13A. Also, the television signal received and demodulated by the tuner 11B is input to the Y / C separation circuit 12B as a composite signal, so that the Y / C separation circuit 12B receives the input composite signal (image signal). With the luminance signal Y 2 And color signal C 2 And outputs it to the chroma decoder 13B.
[0057]
For example, the tuner 11A receives television signals of five programs on channels 1 to 5 in a time division manner, and the tuner 11B receives television signals of four programs on channels 6 to 9 in a time division manner. Therefore, the luminance signal Y 1 , Color signal C 1 Contains sequentially television signals corresponding to five programs, and a luminance signal Y 2 , Color signal C 2 Contains television signals corresponding to four programs in sequence.
[0058]
In step S2, the chroma decoders 13A and 13B output the corresponding luminance signal and color signal (the chroma decoder 13A outputs the luminance signal Y). 1 And color signal C 1 , The chroma decoder 13B outputs the luminance signal Y 2 And color signal C 2 ) Is decoded, and the YUV signal (the chroma decoder 13A outputs the signal Y 1 U 1 V 1 , The chroma decoder 13B outputs the signal Y 2 U 2 V 2 ). The chroma decoders 13A and 13B output the generated YUV signal (the chroma decoder 13A outputs the signal Y). 1 U 1 V 1 , The chroma decoder 13B outputs the signal Y 2 U 2 V 2 ) Are supplied to the multi-screen processing unit 14.
[0059]
The multi-screen processing unit 14 receives a signal Y as a YUV signal from the chroma decoder 13A. 1 U 1 V 1 Is supplied from the chroma decoder 13B to the signal Y as a YUV signal. 2 U 2 V 2 Is supplied. In the case of the present example, the chroma decoder 13A supplies YUV signals corresponding to five programs, and the chroma decoder 13B supplies YUV signals corresponding to four programs. YUV signals corresponding to nine programs are acquired.
[0060]
Therefore, in step S3, the multi-screen processing unit 14 outputs the signal Y as the supplied YUV signal. 1 U 1 V 1 And signal Y 2 U 2 V 2 In the case of the present example, the signal Y is used as a YUV signal for performing multi-screen display based on YUV signals corresponding to nine programs. IN U IN V IN Generate Specifically, an image (multi-image) in which the size of the image of each channel is reduced to about 1/3 in the vertical direction and the horizontal direction is generated, and is arranged on a 3 × 3 matrix in one frame. Signal Y IN U IN V IN Generate Generated signal Y IN U IN V IN Of the luminance signal Y IN Is output to the texture emphasizing unit 15 and the chroma amplifier 17 and the color difference signal U IN , V IN Is input to the delay circuit 16.
[0061]
In step S4, the texture emphasizing unit 15 performs a texture emphasizing process. Specifically, the luminance signal Y IN Is separated into a structure component S1 and a texture component T1, the texture component T1 is amplified to generate a texture component T2, and the structure component S1 is corrected to generate a structure component S2. The switch 54 selects one of the amplified texture component T2 and the non-amplified texture component T1, and outputs the selected texture component to the adder 55. The adder 55 adds the texture component supplied from the switch 54 and the corrected structure component S2, and generates a luminance signal Y OUT1 Is generated (see FIG. 2). Details of the processing will be described later with reference to FIGS. The texture emphasizing unit 15 generates the luminance signal Y OUT1 Is supplied to the contour correction circuit 18 and to the chroma amplifier 17.
[0062]
In step S5, the contour correction circuit 18 outputs the luminance signal Y OUT1 Is corrected (the luminance signal Y OUT1 Is corrected), and the luminance signal Y OUT2 Generate
[0063]
In step S6, the delay circuit 16 outputs the color difference signal U supplied by the multi-screen IN , V IN Delay. Specifically, the delay circuit 16 controls the luminance signal Y generated in the texture emphasizing unit 15. OUT1 And the color difference signal U IN , V IN Delay. The delay circuit 16 outputs the delayed color difference signal U IN , V IN Is supplied to the chroma amplifier 17.
[0064]
In step S7, the chroma amplifier 17 outputs the luminance signal Y supplied from the multi-screen processing unit 14 by the processing in step S3. IN (The luminance signal before the texture enhancement processing) and the luminance signal Y supplied by the processing in step S4. OUT1 (Luminance signal after texture emphasis processing) ratio “(Y IN / Y OUT1 )] And obtain the color difference signal U IN , V IN To the color difference signal U IN , V IN Is the luminance signal Y OUT Amplify by the amount of amplification. Thereby, the color difference signal U is maintained such that the Y / C ratio is kept constant before and after the texture enhancement processing. OUT , V OUT Is generated. The chroma amplifier 17 generates the color difference signal U OUT , V OUT Is supplied to the matrix circuit 19.
[0065]
In step S8, the matrix circuit 19 outputs the luminance signal Y from the contour correction circuit 18. OUT2 (The luminance signal Y generated by the process of step S5 OUT2 ) Is obtained, and the color difference signal U is OUT , V OUT (The color difference signal U generated by the process of step S7 OUT , V OUT ), And the signal Y as this YUV signal is obtained. OUT2 U OUT V OUT Is converted to an RGB signal. That is, an RGB signal is generated from the YUV signal after the texture enhancement processing. The matrix circuit 19 outputs the converted RGB signals to the driver 20.
[0066]
In step S9, the driver 20 generates a drive signal based on the RGB signals and outputs the drive signal to the display 3. Specifically, the driver 20 amplifies the input RGB signal (the RGB signal converted by the matrix circuit 19 by the process of step S8), generates a drive signal having a voltage value corresponding to the luminance gradation, and generates a display signal. Output to 3.
[0067]
In step S10, the display 3 displays an image based on the input drive signal. For example, when the CRT 21 is selected as the display 3, the CRT 21 displays an image based on the drive signal.
[0068]
Next, the texture enhancement processing in the texture enhancement unit 15 will be described with reference to the flowchart in FIG. This flowchart explains the processing of step S4 in FIG. 7 in detail. This processing is performed by the multi-screen processing unit 14 using the luminance signal Y. IN Is supplied to the S / T separation circuit 51.
[0069]
In step S51, the S / T separation circuit 51 performs an S / T separation process. Specifically, the luminance signal Y IN , The characteristic of the filter is determined based on the fluctuation range of the amplitude level and the fluctuation range of the frequency. IN Is smoothed, so that the structure component S1 is obtained and the texture component T1 is obtained (FIG. 2). Details of the processing will be described later with reference to FIG. The S / T separation circuit 51 supplies the generated texture component T1 to the texture amplification circuit 52, and supplies the structure component S2 to the structure correction circuit 53.
[0070]
In step S52, the texture amplification circuit 52 performs a texture amplification process. Specifically, the texture component T1 is amplified based on the enhancement gain TE to generate the texture component T2 (FIG. 2). The texture amplification circuit 52 outputs the generated (amplified) texture component T2 to the switch 54. The switch 54 selects one of the amplified texture component T2 and the non-amplified texture component T1, and outputs the selected texture component to the adder 55. The details of this processing will be described later with reference to FIG.
[0071]
In step S53, the structure correction circuit 53 performs a structure correction process. Specifically, while delaying the structure component S1, the gamma curve γ 0 Gamma curve γ 0 And the gamma curve γ 0 Are added to generate a structure component S2 (FIG. 2). Details of the processing will be described later with reference to FIG. The structure correction circuit 53 outputs the generated structure component S2 to the adder 55.
[0072]
In step S54, the adder 55 adds the structure component S2 corrected by the processing in step S53 and the texture component (texture component T1 or texture component T2) selected by the switch 54 in the processing in step S52, and outputs a luminance signal. Y OUT1 Is generated (FIG. 2). Generated luminance signal Y OUT1 Is supplied to the matrix circuit 19 and also to the chroma amplifier 17. By this processing, the texture component is emphasized.
[0073]
The luminance signal Y subjected to the texture enhancement processing by the processing of FIG. OUT1 As described above, the processing of steps S5 to S10 in FIG. 7 is further executed based on
[0074]
FIG. 9 is a flowchart illustrating the S / T separation processing in the S / T separation circuit 51 in step S51 in FIG. This processing is performed by the S / T separation circuit 51 (the level determination unit 81, the frequency determination unit 82, and the nonlinear filter 84 of the texture amplification circuit 52) shown in FIG. IN Is started when is supplied.
[0075]
In step S101, the level determination unit 81 determines whether the luminance signal Y IN Is determined, and the result of the determination is output to the filter characteristic determining unit 83.
[0076]
In step S102, the frequency determination unit 82 sets the luminance signal Y IN Is determined, and the result of the determination is output to the filter characteristic determining unit 83.
[0077]
In step S103, the filter characteristic determination unit 83 determines the amplitude level of the nonlinear filter 84 based on the determination result by the level determination unit 81 (processing in step S101) and the determination result by the frequency determination unit 82 (processing in step S102). And a frequency threshold. The determined amplitude level and frequency threshold are output to the nonlinear filter 84.
[0078]
In step S104, the non-linear filter 84 obtains the amplitude level and the frequency threshold from the filter characteristic determination unit 83, and based on the threshold, IN , And extracts a structure component S1 (FIG. 2). The extracted structure component S1 is image data in which an edge portion is stored as it is and only the other portion is smoothed. That is, it is data representing a rough configuration such as a contour line in an image. For example, as shown in FIG. 12 (a diagram for explaining the structure component and the texture component in principle), the signal Y as the input YUV signal is used. IN U IN V IN Is an image 121, an image generated by the extracted structure component S1 (mainly, a component constituting a contour component of the image) is an image 122.
[0079]
In step S105, the subtractor 85 outputs the luminance signal Y IN Is subtracted from the structure component S1. Thus, the texture component S1 is extracted (FIG. 2). The extracted texture component T1 is a small-amplitude component obtained by removing the structure component S1 from the original signal, and is data corresponding to details in an image, for example, fine undulations such as clothing patterns. In the case of the example of FIG. 12, an image generated by the extracted texture component S1 (mainly, a component constituting details of the image) is an image 123. As described above, the image signal is separated into the structure component S1 (the component corresponding to the image 122) and the texture component T1 (the component corresponding to the image 123).
[0080]
By the processing of FIG. 9, the structure component S1 and the texture component T1 are generated and output from the S / T separation circuit 51. As described above, the processing of step S52 of FIG. 8 is executed based on the texture component T1 separated by the processing of FIG. 9, and the processing of step S53 of FIG. 8 is executed based on the structure component S1.
[0081]
FIG. 10 is a flowchart illustrating the texture amplification processing in the texture amplification circuit 52 and the switch 54 (the texture amplification circuit 52 and the switch 54 in FIG. 4) in step S52 in FIG. This processing is started when the texture component T1 is supplied from the S / T separation circuit 51.
[0082]
In step S151, the texture amplification circuit 52 acquires the texture component T1 from the subtractor 85 of the S / T separation circuit 51 (see FIG. 2).
[0083]
In step S152, the texture amplification circuit 52 amplifies the acquired texture component T1 based on the externally input enhancement gain TE to generate the texture component T2 (see FIG. 2).
[0084]
In step S153, the texture amplification circuit 52 outputs the generated texture component T2 to the adder 55.
[0085]
In step S154, the switch 54 acquires a DE signal from the multi-screen processing unit 14. The multi-screen processing unit 14 outputs DE = 0 when the currently supplied YUV signal is in the image display period. In the case of the display period), DE = 1 is output.
[0086]
Specifically, as shown in FIG. 13, when displaying an entire image 200 including a plurality of reduced images (multi-images) 201 to 209 on one screen, in a range inside the multi-images 201 to 209, DE = 0, and in a range other than the multi images 201 to 209, DE = 1. In the case of the present example, the television signals of the programs corresponding to the multi-images 201 to 205 are received by the tuner 11A, and the television signals of the programs corresponding to the multi-images 206 to 209 are received by the tuner 11B. Things. That is, the multi images 201 to 205 correspond to channels 1 to 5 of the program received by the tuner 11A, and the multi images 206 to 209 correspond to channels 6 to 9 of the program received by the tuner 11B.
[0087]
In step S155, the switch 54 determines whether or not the DE signal supplied from the multi-screen processing unit 14 is DE = 0 (during an image display period). If it is determined that DE = 0, the process proceeds to step S156, and the switch 54 acquires the texture component T2 (the texture component T2 generated in the process of step S153) from the texture amplification circuit 52.
[0088]
If it is determined in step S155 that DE = 0 is not satisfied, that is, if it is determined that DE = 1 (it is a multi-image frame), the process proceeds to step S157, where the switch 54 sets the S / T separation circuit 51 to ON. , The texture component T1 is obtained.
[0089]
After the processing in step S156 or after the processing in step S157, in step S158, the switch 54 outputs the acquired texture component to the adder 55. That is, when the switch 54 selects the texture component T2 in step S156, the texture component T2 is output to the adder 55, and when the switch 54 selects the texture component T1 in step S157, the texture component T1 is added to the adder 55. Output to
[0090]
When the entire image 200 as shown in FIG. 13 is displayed by the processing of FIG. 10, portions other than the multi images 201 to 209 which are the reduced images and which are the entire image 200 (that is, the multi image ) Can be reliably identified, so that the contrast enhancement (unnecessary enhancement) of the frame region of the multi-image can be prevented.
[0091]
Specifically, even when the width of the frame between each multi-image is narrow (for example, when the interval between the multi-image 201 and the multi-image 204 is narrow), the switch 54 is in the image display period (DE = 0). Since the texture component is selected by distinguishing between the case and the case (DE = 1), unnecessary enhancement of the contrast of the frame region can be suppressed as a result. Thereby, for example, the image around the frame (for example, near the edge of the multi-image 20i (i = 1, 2, 3,..., 9)) and the multi-image 20i (i = 1, 2, 3,. When the luminance difference from the frame of (9) is large, it is possible to determine that the frame of the multi-image is a texture component and prevent the luminance difference from being emphasized.
[0092]
Further, since each of the multi images 201 to 209 is regarded as one image and can be arbitrarily separated into a structure component and a texture component to enhance the texture component, the contrast of each original multi image can be easily determined. Adjustments can be made.
[0093]
Based on the texture component (texture component T1 or texture component T2) generated by the process of FIG. 10, as described above, the process of step S54 of FIG. 8 is further performed.
[0094]
FIG. 11 is a flowchart for explaining the structure correction processing in the structure correction circuit 53 in step S53 of FIG. This process is started when the structure component S1 is supplied from the S / T separation circuit 51 to the structure correction circuit 53 of FIG. 4 (the gamma curve generation circuit 101 of the structure correction circuit 53 and the delay circuit 103).
[0095]
In step S201, the delay circuit 103 acquires the structure component S1 and delays it. Specifically, the gamma curve γ generated in the gain adjustment circuit 102 0 And outputs the delayed structure component S1 to the adder 104.
[0096]
In step S202, the gamma curve generation circuit 101 subtracts the structure component S1 from the gamma characteristic 101A to obtain a gamma curve γ that is a correction amount of the gamma correction. 0 And outputs it to the gain adjustment circuit 102 (FIG. 5). In the case of the present example, the gamma curve γ 0 Has the following three features. First, a curve is formed such that the black side rises when a gamma value is selected. Second, the input signal has a curve peak P in the range of 20 to 40 (IRE). Third, the highest output value is set lower than the highest input value by an offset value ΔY. The gamma curve generation circuit 101 generates the gamma curve γ 0 Is output to the gain adjustment circuit 102.
[0097]
In step S203, the gain adjustment circuit 102 sets the input gamma curve γ 0 The gain (gain G) is adjusted (FIGS. 4 and 6). Specifically, the enhancement gain TE and the drive gain D are input to the gain adjustment circuit 102, and the gain G is adjusted depending on the balance between the two. As a result, the gain G is a value that takes into account the degree of amplification of the texture component T1, the signal control on the driver 20 side, and conditions relating to image quality such as the characteristics of the display 3 itself. With this gain G, the gamma curve γ 0 Is a characteristic of the luminance signal Y after synthesis. OUT1 Is set to fall within the dynamic range. Here, the luminance signal Y OUT1 The gain G is adjusted so that the amplitude range of the dynamic range falls within the dynamic range, and the gamma curve γ 0 Shall be adjusted. Gamma curve γ with this gain G adjusted 0 Is output to the adder 104.
[0098]
In step S204, the adder 104 sets the gamma curve γ 0 (The gamma curve with the gain G adjusted by the processing in step S203) and the gamma curve γ by the delay circuit 103. 0 Is obtained, and a gamma curve γ is added to the structure component S1. 0 Is added. This is equivalent to performing gamma correction. In this gamma correction, not only the contrast is corrected by amplifying the amplitude level on the black side to rise, but also the amplitude level on the white side is reduced by the offset ΔY. Further, a correction is made such that a luminance region within a range of 20 to 40 (IRE) has a peak and the amplitude is raised. As described above, the gamma curve γ described above is added to the structure component S1. 0 And the structure component S2 is generated (FIG. 2).
[0099]
In step S205, the adder 104 outputs the generated structure component S2 to the adder 55.
[0100]
As described above, the structure component S2 generated by the processing of FIG. 11 is further subjected to the processing of step S54 of FIG.
[0101]
The processing of FIGS. 7 to 11 is summarized as follows. In step S155 of FIG. 10, the switch 54 distinguishes between the case where the image display period is set (DE = 0) and the case where the image display period is not set (DE = 1), and the amplified texture component T2 and the amplified texture component T2. One of the non-existing texture components T1 is selected, and in step S54 of FIG. 8, the adder 55 adds the structure component S2 and the selected texture component to generate a luminance signal Y. OUT1 Generate
[0102]
In the image display period (DE = 0), since the structure component S2 has its black side raised by gamma correction with reference to the enhancement gain TE and the drive gain D (the process of FIG. 11), the texture component T2 is added. The later minimum amplitude level fills the dynamic range. Further, since the white-side amplitude level is reduced with reference to the enhancement gain TE and the drive gain D (the processing in FIG. 11), the maximum amplitude level after adding the texture component T2 becomes full of the dynamic range. Therefore, the luminance signal Y OUT1 Are designed to fall within the dynamic range of the drive signal of the driver 20 at the same time that the texture emphasis processing is performed.
[0103]
That is, the luminance signal Y which is the original signal OUT1 As a result, the drive signal falls within the dynamic range on both the white side and the black side. Therefore, the phenomenon of black jam or white jam is prevented. Moreover, here, the drive signal is driven to the full dynamic range, thereby preventing the image from becoming darker than necessary. Note that, as described above, the luminance signal Y OUT1 In, the structure component correction is performed in consideration of the signal control on the driver 20 side and the conditions related to the image quality such as the characteristics of the display 3 itself, so that the driving signal based on this is displayed with an appropriate contrast distribution. It has become.
[0104]
Also, the luminance signal Y OUT1 Has been corrected so as to increase the amplitude of the low-luminance region so as to have a peak within the range of 20 to 40 (IRE). Therefore, even in a drive signal based on this, the amplitude of the luminance region is raised. It becomes. Therefore, the black color corresponding to the outline or shadow of the person's face is corrected to be bright, and the effect of the texture component amplification in this range is reduced.
[0105]
Therefore, in the image displayed on the display 3, the phenomenon of blackening or whitening is prevented, and the effect of the texture emphasis processing, that is, the effect of giving a natural impression despite sharpness due to the improvement of the contrast of details is regretted. It is demonstrated without. Further, since the overall contrast balance is adjusted by the correction of the structure component, the contrast enhancement of the details can be clearly recognized even in a bright portion, and the texture enhancement becomes more effective. Further, the contour and shadow of the person's face are alleviated from being emphasized black by the texture emphasizing process, so that the image quality can be prevented from being degraded. Further, the image quality can be further adjusted to the image quality after the contour correction.
[0106]
When the image display period is not reached (DE = 1), unnecessary emphasis of the texture component can be prevented.
[0107]
By the above processing, the range of the multi images 201 to 209 and the range that is not the multi image can be reliably identified, so that unnecessary enhancement of the contrast of the frame region of the multi image can be prevented.
[0108]
Specifically, even when the width of the frame between the images is narrow (for example, when the interval between the multi-image 201 and the multi-image 204 is narrow), when the switch 54 is in the image display period (DE = 0), Since the texture component is selected by discriminating the case where there is no (DE = 1), as a result, unnecessary enhancement of the contrast of the frame region can be suppressed. Thereby, for example, the image around the frame (for example, near the edge of the multi-image 20i (i = 1, 2, 3,..., 9)) and the multi-image 20i (i = 1, 2, 3,. When the luminance difference from the frame of (9) is large, it is possible to determine that the frame of the multi-image is a texture component and prevent the luminance difference from being emphasized.
[0109]
In addition, since each of the multi images 201 to 209 is regarded as one image and can be arbitrarily separated into a structure component and a texture component and the texture component can be emphasized, the contrast of each multi image can be easily adjusted. Can do it.
[0110]
Further, when displaying the entire image 200 including the plurality of multi images 201 to 209, the contrast can be easily and quickly adjusted for each multi image.
[0111]
Note that a television receiver having a multi-screen display function of simultaneously displaying a plurality of multi-images (reduced images) on one screen can also be configured as follows.
[0112]
FIG. 14 is a block diagram illustrating a configuration example of another television receiver 400 to which the present invention has been applied. In the figure, the parts corresponding to those in FIG.
[0113]
In the case of the example of FIG. 14, the television receiver 400 is provided with a DE area conversion unit 411, and the DE area conversion unit 411 receives the DE signal supplied from the multi-screen processing unit 14 (see FIG. Similarly, the output YUV signal (signal Y IN U IN V IN ) Generates a frame signal DE ′ so that an area of a non-image display period (a DE signal indicating that the frame is a multi-image frame) is further expanded two-dimensionally (in the horizontal and vertical directions). Specifically, as shown in FIG. 15, the DE signal is changed to the DE ′ signal so that the area of the frame of the multi-image is expanded (so that a part of the multi-image becomes a frame).
[0114]
In FIG. 15, the multi-image 20i (i = 1, 2, 3,..., 9) is narrowed in the horizontal direction by x pixels from the left or right end (the frame is expanded), and Inward from the upper or lower end, the pixel is narrowed (the frame is expanded) by y pixels (lines) in the vertical direction. That is, in a predetermined range near the edge of the multi-image, the display area of the multi-image is set as a frame of the multi-image by the DE area conversion unit 411. As a result, in the region of the image 50i (i = 1, 2,..., 9), the DE region conversion unit 411 outputs a signal DE ′ = 0 indicating the image display period, and outputs the image 50i (i = 1, 2). In areas other than (2, 3,..., 9), a signal indicating that it is not an image display period (that is, a frame signal indicating that it is a multi-image frame area) DE ′ = 1 is output.
[0115]
The switch 412 acquires the DE ′ signal from the DE area conversion unit 411, and based on the DE ′ signal, the texture component T2 (the component obtained by amplifying the texture component T1) generated by the texture amplification circuit 52 and the amplified signal. One of the non-existing texture components T1 (texture component T1 output from the S / T separation circuit 51) is selected.
[0116]
Specifically, when the currently output YUV signal is in the image display period (in the range of the multi-image 20i), the multi-screen processing unit 14 supplies DE = 0 to the DE area conversion unit 411, and outputs the YUV signal. Is not in the image display period (in the case of a frame area outside the area of the multi-image 20i), DE = 1 is supplied to the DE area conversion unit 411. Even in the image display period (when DE = 0), the DE area conversion unit 411 sets a horizontal direction from the left and right edges of the multi image 20i (i = 1, 2, 3,..., 9). The signal is set to DE ′ = 1 so that the region inside only x pixels and the region inside only y pixels (lines) in the vertical direction from the upper and lower edges also become the frame region, and the signal is set in other ranges (for example, The DE signal inside the image 501 or outside the multi-image 201 is set as it is as DE ′ (that is, DE ′ = DE).
[0117]
The switch 412 acquires the texture component T2 from the texture amplification circuit 52 when the DE ′ signal from the DE area conversion unit 411 is set to DE ′ = 0, and performs S / T separation when the DE ′ signal is set to DE ′ = 1. The texture component T1 (that is, the non-amplified texture component T1) is obtained from the circuit 51.
[0118]
Next, the texture enhancement processing in the texture enhancement unit 410 of the television receiver 400 in FIG. 14 will be described with reference to the flowchart in FIG. The flowchart of FIG. 16 corresponds to the processing of the flowchart of FIG. 10 among the above-described FIGS. 7 to 11, and the other processing (the processing of FIGS. 7, 8, 9, and 11) is the same as that of FIG. 7, FIG. 8, FIG. 9, and FIG. 11, and the description thereof is omitted. That is, the flowchart in FIG. 16 is a detailed description of the process in step S52 in FIG. 8, and corresponds to the flowchart in FIG. Steps S301 to S303 in FIG. 16 correspond to steps S151 to S153 in FIG. 10, respectively, and steps S310 to S313 in FIG. 16 correspond to steps S155 to S158 in FIG. 10, respectively. .
[0119]
In step S301, the texture amplification circuit 52 acquires the texture component T1 from the subtractor 85 of the S / T separation circuit 51 (processing corresponding to step S151 in FIG. 10).
[0120]
In step S302, the texture amplification circuit 52 amplifies the acquired texture component T1 based on the enhancement gain TE input from the outside, and generates a texture component T2 (processing corresponding to step S152 in FIG. 10).
[0121]
In step S303, the texture amplification circuit 52 outputs the generated texture component T2 to the switch 412 (processing corresponding to step S153 in FIG. 10).
[0122]
In step S304, the DE area conversion unit 411 acquires a DE signal from the multi-screen processing unit 14. As described above, the DE signal is set to DE = 0 when the currently supplied YUV signal is in the image display period, and is set to DE = 1 in the non-image display period (when the frame is a multi-image frame). ing.
[0123]
In step S305, the DE area conversion unit 411 determines whether DE = 1 (whether the frame is a multi-image frame). If it is determined that DE = 1 is not satisfied (that is, DE = 0), in step S306, the DE area conversion unit 411 determines whether the area corresponding to the YUV signal currently being processed is to be a frame area. Is determined.
[0124]
More specifically, the DE area conversion unit 411 determines whether the location corresponding to the YUV signal currently being processed is inside any of the images 501 to 509 in FIG. If it is determined to be inside any one of the above, it is determined in the processing of step S306 that it is not a frame area. Conversely, when the DE area conversion unit 411 determines that the image is inside the multi-images 201 to 209 and outside the images 501 to 509, it is determined in step S306 that the image is a frame area. Note that this processing is processing after it is determined in step S305 that DE = 1 is not satisfied (that is, DE = 0), and therefore, of course, the multi-image 20i (i = 1, 2, 3,...)・, 9) It is not outside.
[0125]
If it is determined in step S306 that the image is not a frame area (that is, it is inside any of the images 501 to 509), in step S307, the DE area conversion unit 411 outputs DE ′ = 0.
[0126]
If it is determined in step S305 that DE = 1, or if it is determined in step S306 that it is a frame area, the process proceeds to step S308, in which the DE area conversion unit 411 determines that DE ′ = 1 (multi-image (A signal indicating that the frame is in the display period).
[0127]
In step S309, the switch 412 acquires DE ′ from the DE area conversion unit 411 (a process corresponding to step S154 in FIG. 10). This DE 'has a value of 0 or 1.
[0128]
In step S310, the switch 412 determines whether or not the DE ′ signal is DE ′ = 0 (not in the frame area, that is, inside any of the images 501 to 509) (step S155 in FIG. 10). Processing corresponding to). If it is determined that DE ′ = 0, the process proceeds to step S311, and the switch 412 acquires the texture component T2 (the texture component T2 generated in the process of step S303) from the texture amplification circuit 52 (FIG. 10). Corresponding to step S156).
[0129]
If it is determined in step S310 that DE ′ = 0 is not satisfied, that is, if it is determined that DE ′ = 1 (not during the image display period), the process proceeds to step S312, where the switch 412 sets the S / T separation circuit 51. , A texture component T1 (texture component T1 that has not been amplified) is obtained from (step S157 in FIG. 10).
[0130]
After step S311 or after step S312, in step S313, the switch 412 outputs the obtained texture component (texture component T1 or texture component T2) to the adder 55. For example, when the switch 412 acquires the texture component T2 in step S311, the switch 412 outputs the texture component T2 to the adder 55. When the switch 412 acquires the texture component T1 in step S312, it outputs this to the adder 55.
[0131]
When displaying the entire image 200 including a plurality of multi-images 201 to 209 as shown in FIG. 15 by the processing in FIG. 16, the frame area of each multi-image is further enlarged (a predetermined area near the edge of the multi-image is determined). , The frame of the multi image is further widened), and contrast enhancement (adjustment) in the frame area and a predetermined range near the edges of the multi images 201 to 209 is prevented. The frame (edge) can be prevented from being abnormally emphasized.
[0132]
As a result, when displaying multiple screens, contrast enhancement can be realized without any adverse effect.
[0133]
When the luminance difference between the image and the frame in a predetermined range near the edge of the multi-image 20i (i = 1, 2, 3,..., 9) is large, the predetermined range near the frame and the edge is large. Since the texture component T1 of the image is not amplified, enhancement of the luminance difference between the image and the frame can be prevented.
[0134]
Further, when displaying an entire image including a plurality of multi-images, the contrast can be easily and quickly adjusted for each multi-image.
[0135]
As described above, the television receiver separates the image signal into the texture component and the structure component and emphasizes the texture component. Therefore, when displaying a plurality of multi-images on one screen (when performing multi-screen display). Also, the contrast can be easily enhanced (adjusted) for each multi image.
[0136]
In addition, since the texture enhancement is adjusted based on the signal indicating the frame area range (the signal indicating the image display period), when a plurality of multi-images are simultaneously displayed on one screen, Even when the interval (frame of the multi-image) is narrow, it is possible to prevent the frame between the multi-images from being determined as a texture component, thereby preventing the luminance difference between the frame and the multi-image from being emphasized. Can be.
[0137]
Further, when displaying a plurality of multi-images on one screen, the contrast of each multi-image is adjusted, and the luminance difference between the frame and each multi-image is prevented from being emphasized. it can.
[0138]
Further, since the frame signal indicating the frame of the multi-image is generated based on the signal indicating the image display period, it can be easily realized.
[0139]
Furthermore, since the frame area is set (DE ') even in an area wider than the frame area of the multi image (a predetermined range near the edge of the multi image), the edge of each multi image is abnormally emphasized. Can be prevented.
[0140]
The present invention is not limited to a television receiver having a multi-screen display function, but may be applied to a television receiver that performs a multi-channel index display such that the content of each broadcast program channel is displayed as a still image. Can be.
[0141]
Further, the multi-image does not necessarily need to be an image whose size is reduced. Originally, the image may be smaller in size than the standard size image.
[0142]
Further, in the above example, the gamma curve γ 0 Is adjusted by combining the two conditions of the enhancement gain TE and the drive gain D, but may be adjusted with reference to only the enhancement gain TE.
[0143]
In the above example, the television receiver has been described. However, the present invention is not limited to a television receiver having an image display function, and may be a television camera, a digital camera, a VTR (Video Tape Recorder), a printer, a personal computer, or the like. The present invention can be applied to all apparatuses that perform image processing.
[0144]
Further, in the above-described embodiment, each operation of S / T classification, texture enhancement, and structure correction according to the image processing method of the present invention is performed by a circuit, but these operations may be realized by software. Good.
[0145]
Note that, in this specification, the steps describing each flowchart include, in addition to the processing performed in chronological order according to the described order, not only the processing performed in chronological order but also the processing performed in parallel or individually. Is also included.
[0146]
【The invention's effect】
As described above, according to the present invention, the contrast of an image can be adjusted. In particular, according to the present invention, when displaying a plurality of multi images on one screen, the contrast can be adjusted for each multi image. Further, the contrast can be easily and quickly adjusted for each multi image.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a television receiver to which the present invention has been applied.
FIG. 2 is a diagram illustrating an operation of a texture emphasizing unit in FIG. 1;
FIG. 3 is a block diagram illustrating a configuration example of an S / T separation circuit in FIG. 1;
FIG. 4 is a block diagram illustrating a configuration example of a structure correction circuit and a texture amplification circuit of FIG. 1;
FIG. 5 is a diagram illustrating the operation of the gamma curve generation circuit of FIG.
FIG. 6 is a diagram illustrating the operation of the gain adjustment circuit of FIG. 4;
FIG. 7 is a flowchart illustrating image display processing in the television receiver in FIG. 1;
FIG. 8 is a flowchart illustrating a texture emphasizing process in step S4 of FIG. 7;
FIG. 9 is a flowchart illustrating an S / T separation process in step S51 of FIG. 8;
FIG. 10 is a flowchart illustrating a texture emphasizing process in step S52 of FIG. 8;
FIG. 11 is a flowchart illustrating a structure correction process in step S53 of FIG. 8;
FIG. 12 is a diagram illustrating a structure component and a texture component.
FIG. 13 is a diagram illustrating an example of an entire image including a plurality of multi-images.
FIG. 14 is a block diagram illustrating another configuration example of a television receiver to which the present invention has been applied.
FIG. 15 is a diagram illustrating an example of an entire image including a plurality of multi-images.
FIG. 16 is a flowchart illustrating a texture amplification process in the texture amplification circuit of FIG. 14;
[Explanation of symbols]
2 image processing section, 3 display, 14 multi-screen processing section, 15 texture enhancement section, 16 delay circuit, 17 chroma amplifier, 18 contour correction circuit, 51 contour correction circuit, 52 texture amplification circuit, 53 structure correction circuit, 54 switch, 55 adder, 81 level determination unit, 82 frequency determination unit, 83 filter characteristic determination unit, 84 nonlinear filter, 85 subtractor, 101 gamma curve generation circuit, 102 gain adjustment circuit, 103 delay circuit, 104 adder, 200 whole image , 410 texture enhancement unit, 411 DE area conversion unit, 412 switch

Claims (6)

画像を処理する画像処理装置において、
1画面に同時に表示される複数のマルチ画像のデータを含む入力画像データを、マルチ画像の輪郭を構成するストラクチャ成分とマルチ画像の細部を構成するテクスチャ成分とに分離するデータ分離手段と、
前記データ分離手段により分離された前記テクスチャ成分を強調するテクスチャ強調手段と、
前記データ分離手段により分離された前記ストラクチャ成分に対して、非直線的補正を施すストラクチャ補正手段と、
前記テクスチャ強調手段により強調された前記テクスチャ成分と、強調されていない前記テクスチャ成分のうちいずれか一方を選択する選択手段と、
前記ストラクチャ補正手段により補正された前記ストラクチャ成分と、前記選択手段により選択された前記テクスチャ強調手段により強調された前記テクスチャ成分を合成して加工データを生成する合成手段と、
前記合成手段により合成された前記加工データに基づいて、複数の前記マルチ画像を1つの画面に表示させるように制御する表示制御手段と
を備えることを特徴とする画像処理装置。
In an image processing apparatus for processing an image,
Data separation means for separating input image data including data of a plurality of multi-images simultaneously displayed on one screen into a structure component constituting a contour of the multi-image and a texture component constituting details of the multi-image;
Texture enhancement means for enhancing the texture component separated by the data separation means,
Structure correction means for performing non-linear correction on the structure components separated by the data separation means,
The texture component emphasized by the texture emphasizing means, and a selecting means for selecting any one of the texture components not emphasized,
Synthesizing means for synthesizing the structure component corrected by the structure correcting means and the texture component emphasized by the texture emphasizing means selected by the selecting means to generate processed data;
An image processing apparatus, comprising: display control means for controlling a plurality of multi-images to be displayed on one screen based on the processed data synthesized by the synthesis means.
前記マルチ画像の枠であることを表わす枠信号を出力する枠信号出力手段をさらに備える
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising a frame signal output unit that outputs a frame signal indicating that the frame is a frame of the multi image.
前記選択手段は、前記枠信号出力手段から、前記マルチ画像の枠であることを表わす前記枠信号が出力された場合、強調されていない前記テクスチャ成分を選択し、前記合成手段に供給する
ことを特徴とする請求項2に記載の画像処理装置。
When the frame signal indicating the frame of the multi-image is output from the frame signal output unit, the selection unit selects the non-emphasized texture component and supplies the texture component to the synthesis unit. The image processing apparatus according to claim 2, wherein:
前記枠信号出力手段は、前記マルチ画像の画像表示期間でない場合、前記マルチ画像の枠であることを表わす枠信号を出力する
ことを特徴とする請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the frame signal output unit outputs a frame signal indicating that the frame is a frame of the multi image when the image is not in the image display period of the multi image.
前記枠信号出力手段は、さらに、前記マルチ画像の画像表示期間であって、前記マルチ画像の縁の近傍の所定の範囲のとき、前記マルチ画像の枠であることを表わす枠信号を出力する
ことを特徴とする請求項4に記載の画像処理装置。
The frame signal output unit may further output a frame signal indicating that the frame is a frame of the multi-image during an image display period of the multi-image and within a predetermined range near an edge of the multi-image. The image processing apparatus according to claim 4, wherein:
画像を処理する画像処理装置の画像処理方法において、
1画面に同時に表示される複数のマルチ画像のデータを含む入力画像データを、マルチ画像の輪郭を構成するストラクチャ成分とマルチ画像の細部を構成するテクスチャ成分とに分離するデータ分離ステップと、
前記データ分離ステップの処理により分離された前記テクスチャ成分を強調するテクスチャ強調ステップと、
前記データ分離ステップの処理により分離された前記ストラクチャ成分に対して、非直線的補正を施すストラクチャ補正ステップと、
前記テクスチャ強調ステップの処理により強調された前記テクスチャ成分と、強調されていない前記テクスチャ成分のうちいずれか一方を選択する選択ステップと、
前記ストラクチャ補正ステップの処理により補正された前記ストラクチャ成分と、前記選択ステップの処理により選択された前記テクスチャ成分を合成して加工データを生成する合成ステップと、
前記合成ステップの処理により合成された前記加工データに基づいて、複数の前記マルチ画像を1つの画面に表示させるように制御する表示制御ステップと
を含むことを特徴とする画像処理方法。
In an image processing method of an image processing apparatus that processes an image,
A data separation step of separating input image data including data of a plurality of multi-images displayed simultaneously on one screen into a structure component forming a contour of the multi-image and a texture component forming details of the multi-image;
A texture emphasizing step of emphasizing the texture component separated by the processing of the data separating step;
A structure correction step of performing non-linear correction on the structure component separated by the processing of the data separation step;
A selection step of selecting one of the texture component emphasized by the processing of the texture emphasis step and the texture component that is not emphasized;
A combining step of combining the structure component corrected by the processing of the structure correction step and the texture component selected by the processing of the selection step to generate processed data;
A display control step of controlling the plurality of multi-images to be displayed on one screen based on the processed data synthesized by the processing of the synthesizing step.
JP2003057429A 2003-03-04 2003-03-04 Image processing apparatus and method Pending JP2004266757A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003057429A JP2004266757A (en) 2003-03-04 2003-03-04 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003057429A JP2004266757A (en) 2003-03-04 2003-03-04 Image processing apparatus and method

Publications (1)

Publication Number Publication Date
JP2004266757A true JP2004266757A (en) 2004-09-24

Family

ID=33120861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003057429A Pending JP2004266757A (en) 2003-03-04 2003-03-04 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP2004266757A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233340A (en) * 2006-02-27 2007-09-13 Lg Phillips Lcd Co Ltd Liquid crystal display and driving method therefor
JP2008154150A (en) * 2006-12-20 2008-07-03 Sony Corp Image-processing device, image-processing method, program of image-processing method, and recording medium recording program of image^processing method
WO2008152861A1 (en) * 2007-06-15 2008-12-18 Sony Corporation Image processor, image processing method, program of the image processing method, and recording medium on which the program of the image processing method is recorded
WO2009001955A1 (en) * 2007-06-25 2008-12-31 Olympus Corporation Image processing device, image processing method, and image processing program
WO2009093386A1 (en) * 2008-01-21 2009-07-30 Olympus Corporation Image processing apparatus, image processing program, computer readable storage medium having image processing program stored therein, and image processing method
WO2010018695A1 (en) * 2008-08-15 2010-02-18 Sharp Kabushiki Kaisha Image modifying method and device
US8175411B2 (en) 2010-09-28 2012-05-08 Sharp Laboratories Of America, Inc. Methods and systems for estimation of compression noise
CN102771113A (en) * 2010-02-24 2012-11-07 汤姆逊许可证公司 Split screen for 3D
US8351725B2 (en) 2008-09-23 2013-01-08 Sharp Laboratories Of America, Inc. Image sharpening technique
US8538193B2 (en) 2010-09-28 2013-09-17 Sharp Laboratories Of America, Inc. Methods and systems for image enhancement and estimation of compression noise
CN106296737A (en) * 2016-08-09 2017-01-04 惠州学院 A kind of based on the direct foreground video extraction system without Background learning

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233340A (en) * 2006-02-27 2007-09-13 Lg Phillips Lcd Co Ltd Liquid crystal display and driving method therefor
JP4661775B2 (en) * 2006-12-20 2011-03-30 ソニー株式会社 Image processing apparatus, image processing method, program for image processing method, and recording medium recording program for image processing method
JP2008154150A (en) * 2006-12-20 2008-07-03 Sony Corp Image-processing device, image-processing method, program of image-processing method, and recording medium recording program of image^processing method
US8031945B2 (en) 2006-12-20 2011-10-04 Sony Corporation Image-processing device, image-processing method, program of image-processing method, and recording medium recording program of image-processing method
US8369624B2 (en) * 2007-06-15 2013-02-05 Sony Corporation Image processing apparatus, image processing method, program of image processing method, and recording medium having program of image processing method recorded thereon
WO2008152861A1 (en) * 2007-06-15 2008-12-18 Sony Corporation Image processor, image processing method, program of the image processing method, and recording medium on which the program of the image processing method is recorded
US20100189359A1 (en) * 2007-06-15 2010-07-29 Shinichiro Gomi Image processing apparatus, image processing method, program of image processing method, and recording medium having program of image processing method recorded thereon
JP2008310117A (en) * 2007-06-15 2008-12-25 Sony Corp Image processor, image processing method, program of image processing method, and storage medium recording program of image processing method
US8768054B2 (en) 2007-06-25 2014-07-01 Olympus Corporation Image processing device, image processing method, and computer-readable storage medium storing image processing program
WO2009001955A1 (en) * 2007-06-25 2008-12-31 Olympus Corporation Image processing device, image processing method, and image processing program
JP2009005252A (en) * 2007-06-25 2009-01-08 Olympus Corp Image processing apparatus
WO2009093386A1 (en) * 2008-01-21 2009-07-30 Olympus Corporation Image processing apparatus, image processing program, computer readable storage medium having image processing program stored therein, and image processing method
US8098951B2 (en) 2008-08-15 2012-01-17 Sharp Laboratories Of America, Inc. Image sharpening technique
WO2010018695A1 (en) * 2008-08-15 2010-02-18 Sharp Kabushiki Kaisha Image modifying method and device
US8351725B2 (en) 2008-09-23 2013-01-08 Sharp Laboratories Of America, Inc. Image sharpening technique
CN102771113A (en) * 2010-02-24 2012-11-07 汤姆逊许可证公司 Split screen for 3D
JP2013520923A (en) * 2010-02-24 2013-06-06 トムソン ライセンシング Split screen for 3D
US8175411B2 (en) 2010-09-28 2012-05-08 Sharp Laboratories Of America, Inc. Methods and systems for estimation of compression noise
US8538193B2 (en) 2010-09-28 2013-09-17 Sharp Laboratories Of America, Inc. Methods and systems for image enhancement and estimation of compression noise
CN106296737A (en) * 2016-08-09 2017-01-04 惠州学院 A kind of based on the direct foreground video extraction system without Background learning

Similar Documents

Publication Publication Date Title
KR101263420B1 (en) Image processing apparatus, image display and image processing method
EP1858247B1 (en) Image correction circuit, image correction method and image display
US10129511B2 (en) Image processing apparatus, image projection apparatus, and image processing method
JP4011122B2 (en) Image quality correction circuit for video signals
JP4200890B2 (en) Video signal processing apparatus, television receiver using the same, and video signal processing method
JP4648071B2 (en) Video display device and video signal color saturation control method
US8369645B2 (en) Image correction circuit, image correction method and image display
JP2006093753A (en) Video display
JP2011014958A (en) Image signal processing device
JP4930781B2 (en) Image correction circuit, image correction method, and image display apparatus
JP2004266757A (en) Image processing apparatus and method
JP4175024B2 (en) Image display device, image processing device, and image processing method
WO2017159182A1 (en) Display control device, display apparatus, television receiver, control method for display control device, control program, and recording medium
JP4174656B2 (en) Image display device, image processing device, and image processing method
JP2008193645A (en) Lightness correcting device, method thereof, and display device
JP5012195B2 (en) Image correction circuit, image correction method, and image display apparatus
JP2007060169A (en) Image processing apparatus, image display apparatus and image processing method
JP4085285B2 (en) Flat panel display television receiver and panel signal generator
JP2005012285A (en) Moving picture processing apparatus, moving picture processing program, and recording medium
US8564725B2 (en) Video data processing apparatus and contrast correcting method
JP2009278227A (en) Image correction apparatus and method
JP2008042392A (en) Image processor and method
KR20070023530A (en) Image processing apparatus, image display and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080305

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080327