JP4434618B2 - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP4434618B2
JP4434618B2 JP2003122696A JP2003122696A JP4434618B2 JP 4434618 B2 JP4434618 B2 JP 4434618B2 JP 2003122696 A JP2003122696 A JP 2003122696A JP 2003122696 A JP2003122696 A JP 2003122696A JP 4434618 B2 JP4434618 B2 JP 4434618B2
Authority
JP
Japan
Prior art keywords
data
imaging
gradation
pixel
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003122696A
Other languages
Japanese (ja)
Other versions
JP2004325961A (en
Inventor
田 征 弘 吉
川 美由紀 石
村 卓 中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Display Central Inc
Original Assignee
Toshiba Mobile Display Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Mobile Display Co Ltd filed Critical Toshiba Mobile Display Co Ltd
Priority to JP2003122696A priority Critical patent/JP4434618B2/en
Publication of JP2004325961A publication Critical patent/JP2004325961A/en
Application granted granted Critical
Publication of JP4434618B2 publication Critical patent/JP4434618B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Liquid Crystal (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Facsimile Heads (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像取込み機能を備えた表示装置に関する。
【0002】
【従来の技術】
液晶表示装置は、信号線、走査線及び画素TFTが列設されたアレイ基板と、信号線及び走査線を駆動する駆動回路とを備えている。最近の集積回路技術の進歩発展により、駆動回路の一部をアレイ基板上に形成するプロセス技術が実用化されている。
【0003】
このようなプロセス技術の一つに、低温ポリシリコンTFT(Thin Film Transistor)プロセス技術が注目されている。低温ポリシリコンTFTプロセスを採用することにより、液晶表示装置全体を軽薄短小化することができ、携帯電話やノート型コンピュータなどの各種の携帯機器の表示装置として幅広く利用されている。
【0004】
ところで、アレイ基板上に、画像取込みを行う密着型エリアセンサを配置した画像取込み機能を備えた表示装置が提案されている(例えば、特許文献1,2を参照)。
【0005】
この種の画像取込み機能を備えた従来の表示装置は、各画素ごとに画像取込センサを配置し、画像取込センサでの受光量に応じた電荷をキャパシタに蓄積し、キャパシタの両端電圧を検出して画像取込みを行っている。
【0006】
【特許文献1】
特開2001-292276号公報
【特許文献2】
特開2001-339640号公報
【0007】
【発明が解決しようとする課題】
しかしながら、低温ポリシリコンTFTプロセスにより、上述したセンサを形成すると、センサの個別ばらつき等により、単一色の被写体を撮像しても、場所によって撮像データの階調値に差異が生じ、撮像データを表示させたときに表示ムラが発生する。
【0008】
このような表示ムラを抑制する対策として、上述した特許文献2には、撮像を繰返し行って、各水平ラインごとに最適な撮像時間を設定する技術が開示されている。
【0009】
この技術は、制御が複雑なため、画像取込に時間がかかるおそれがある。また、高性能のCPUやコントローラが必要になり、コストアップの要因になる。
【0010】
本発明は、このような点に鑑みてなされたものであり、その目的は、簡易な処理で撮像データのムラを抑制できる表示装置を提供することにある。
【0011】
【課題を解決するための手段】
上述した課題を解決するために、本発明の一態様では、縦横に列設される信号線及び走査線の各交点付近に形成される画素内の表示素子と、
前記表示素子のそれぞれに対応して少なくとも一個ずつ設けられ、それぞれが被写体の所定範囲の撮像を行う撮像部と、
前記撮像部の撮像結果に対応する第1の多階調データを格納する初期多階調データ格納部と、
所定の基準パターンを前記撮像部で撮像して得られる第2の多階調データを格納する基準パターン格納部と、
前記第1及び第2の多階調データに基づいて、前記第1の多階調データの表示ムラを調整した第3の多階調データを生成するムラ調整データ生成部と、を備え、
前記ムラ調整データ生成部は、
各画素ごとに、前記第2の多階調データと1画面分の前記第2の多階調データの階調平均値との差分を計算する差分計算部と、
各画素ごとに設定されるムラ調整のための第1の多階調データに応じた重み付け係数を各画素ごとに計算する重み計算部と、
各画素ごとに、対応する前記重み付け係数に前記差分を乗じてムラ調整値を計算するムラ調整値計算部と、
各画素ごとに、前記第1の多階調データから前記ムラ調整値を減じて前記第3の多階調データを生成するムラ相殺部と、を有する。
【0012】
【発明の実施の形態】
以下、本発明に係る表示装置について、図面を参照しながら具体的に説明する。
【0013】
図1は本発明に係る表示装置の全体構成を示すブロック図であり、カメラ付き携帯電話の表示装置の構成を示している。図1の表示装置は、画素TFTが列設されるLCD(Liquid Crystal Display)基板1と、LCD基板1上に実装される液晶ドライバIC(以下、LCDC)2と、ベースバンドLSI3と、カメラ4と、カメラ4の撮像データの画像処理を行う画像処理IC5と、基地局との通信を行う送受信部6と、各部への電源供給を行う電源回路7とを備えている。
【0014】
ベースバンドLSI3は、CPU11と、メインメモリ12と、MPEG処理部13と、DRAM14と、図示しない音声信号処理部等を有し、携帯電話全体の制御を行う。図1では、ベースバンドLSI3とは別個に画像処理IC5と送受信部6を設けているが、これらを一つのチップにまとめてもよい。CPU11とメインメモリ12で一つのチップとし、他を別の一つのチップとしてもよい。
【0015】
LCDC2は、制御部15とフレームメモリ16を有する。カメラ4は、CCD(Charge Coupled Device)やCMOSイメージ画像取込センサで実現される。
【0016】
本実施形態のLCD基板1には、画像取込を行う画像取込センサが画素ごとに設けられている。LCD基板1には共通電極をITO等の透明電極により形成した対向基板を所定間隔(約5ミクロン)で配置し、これらの間に液晶材料を注入し所定の方法で封止して、さらに両基板の外側に偏光板を貼り付けて用いる。
【0017】
図2はLCD基板1上に形成される回路を示すブロック図である。図示のように、LCD基板1上には、信号線及び走査線が列設される画素アレイ部21と、信号線を駆動する信号線駆動回路22と、走査線を駆動する走査線駆動回路23と、画像取込を制御する画像取込センサ制御回路24と、画像取込後の信号処理を行う信号処理出力回路25とが形成される。これらの回路は、例えば低温ポリシリコン技術を利用したポリシリコンTFTにより形成される。信号線駆動回路22は、デジタル画素データを表示素子の駆動に適したアナログ電圧に変換するD/A変換回路を含む。D/A変換回路は公知のものを用いる。
【0018】
図3は画素アレイ部21の1画素分の詳細回路図、図4はガラス基板上の1画素分のレイアウト図である。図4に示すように、本実施形態の画素は略正方形状である。
【0019】
各画素は、図3に示すように、画素TFT31と、補助容量Csに電荷を蓄積するか否かを制御する表示制御TFT32と、画像取込センサ33と、画像取込センサ33の撮像結果を格納するキャパシタC1と、キャパシタC1の蓄積電荷に応じた2値データを格納するSRAM34と、キャパシタC1に初期電荷を蓄積するための初期化用TFT35とを有する。
【0020】
ここで、各画素の輝度は、補助容量Csに蓄積された電荷に基づいて決まる画素電極電位と対向基板上に形成されたコモン電極の電位との差により、これらの間に挟まれた液晶層の透過率を制御することにより、階調制御される。
【0021】
図3では、各画素ごとに1個の画像取込センサ33を設ける例を示しているが、画像取込センサ33の数に特に制限はない。1画素当たりの画像取込センサ33の数を増やすほど、画像取込みの解像度を向上できる。
【0022】
キャパシタC1の初期化を行う場合は、画素TFT31と初期化用TFT35をオンする。表示素子の輝度を設定するためのアナログ電圧(アナログ画素電圧)を補助容量Csに書き込む場合は、画素TFT31と表示制御TFT32をオンする。キャパシタC1の電圧のリフレッシュを行う場合は、初期化用TFT35とSRAM34内のデータ保持用TFT36をともにオンする。キャパシタC1の電圧がSRAM34の電源電圧(5V)に近い値であれば多少リークしていてもリフレッシュの結果5Vになるし、逆にキャパシタC1の電圧がSRAM34のGND電圧(0V)に近い値であればリフレッシュの結果0Vになる。また、TFT35とTFT36とがともにオンしている限り、SRAM34のデータ値は極めて安定に保持されつづける。TFT35とTFT36のいずれかがオフしてもキャパシタC1の電位のリークが少ないうちはSRAM34のデータ値は保持されつづける。キャパシタC1の電位リークが多くなり、データ値が変わってしまわない前にリフレッシュを行うようにすれば、SRAM34のデータ値を保持しつづけることができる。SRAM34に格納された撮像データを信号線に供給する場合は、画素TFT31とデータ保持用TFT36をともにオンする。
【0023】
本実施形態の表示装置は、通常の表示動作を行うこともできるし、スキャナと同様の画像取込みを行うこともできる。通常の表示動作を行う場合は、TFT35、36はオフ状態に設定され、バッファには有効なデータは格納されない。この場合、信号線には、信号線駆動回路22からの信号線電圧が供給され、この信号線電圧に応じた表示が行われる。
【0024】
一方、画像取込みを行う場合は、図5に示すようにLCD基板1の上面側に画像取込み対象物(例えば、紙面)37を配置し、バックライト38からの光を対向基板39とLCD基板1を介して紙面37に照射する。紙面37で反射された光はLCD基板1上の画像取込センサ33で受光され、画像取込みが行われる。ここで、撮像対象側に配置されるガラス基板及び偏光板はできるだけ薄いものが良い。望ましくは合計0.2mm程度以下がよい。紙面はふつう拡散反射面であることが多く、照射される光をつよく拡散する。撮像対象側のガラス基板が厚いと、画像取込センサ受光部と紙面の距離が広がりその分拡散反射光が隣接画素の画像取込センサに入りやすくなり取り込み画像がぼやける原因となることがあるからである。
【0025】
取り込んだ画像データは、図3に示すようにSRAM34に格納された後、信号線を介して、図1に示すLCDC2に送られる。このLCDC2は、本実施形態の表示装置から出力されるデジタル信号を受けて、データの並び替えや撮像画像のムラを除去するための処理やデータ中のノイズの除去などの演算処理を行う。
【0026】
図6は画像処理IC5の内部構成を示すブロック図である。図6の画像処理IC5は、カメラ4で撮像された撮像データを受け取るカメラI/F部41と、制御部42と、カメラ4の動作制御を行う制御I/F43と、LCDC2からの撮像データを受け取るLCD-I/F44と、撮像データを格納する画像処理用メモリ45と、CPU11との間で制御信号のやり取りを行うホストI/F46と、撮像データの階調補正(ムラを除去するための処理)を行う階調補正部47と、撮像データの色補正を行う色補正部48と、欠陥画素補正部49と、撮像データのエッジ補正を行うエッジ補正部50と、撮像データのノイズを除去するノイズ除去部51と、撮像データのホワイトバランスを調整するホワイトバランス補正部52とを有する。従来の画像処理ICとの差異としては、LCD基板1から出力される撮像データを受け取るLCD-I/F44を有する点が特徴的である。
【0027】
LCD基板1の表示は、原則的にベースバンドLSI3からの指示及び監視の下で行われる。例えば、ベースバンドLSI3にカメラ4の撮像データが入力されると、ベースバンドLSI3はその撮像データを所定のタイミングでLCDC2に出力する。LCDC2は、ベースバンドLSI3からのカメラ4の撮像データをフレームメモリ16に格納する。ベースバンドLSI3から供給されるカメラ4の撮像データが間欠的であっても、LCDC2は、フレームメモリ16に格納された1画面分のカメラ4の撮像データを、所定のタイミングでLCD基板1に出力する。LCD基板1は、LCDC2からのカメラ4の撮像データをアナログ画素電圧に変換して信号線に書き込む。
【0028】
図7はLCDC2の内部構成の一例を示すブロック図である。図7のLCDC2は、MPEG-I/F61と、LUT(Lookup Table)62と、LCD-I/F63と、撮像データを格納するラインバッファ64と、LCDC2から供給された撮像データを保持する画像処理メモリ65と、表示用のデジタル画素データを保持するフレームメモリ16と、出力前演算部66と、第1バッファ67と、第2バッファ68と、画像処理部69と、ホストI/F70と、発振器71とを有する。
【0029】
これに対して、図8は従来のLCDC2の内部構成を示すブロック図である。図示のように、従来のLCDC2は、MPEG-I/F61と、LUT62と、LCD-I/F63と、フレームメモリ16と、バッファ67と、発振器71とを有する。
【0030】
従来は、動画像を表示する際、MPEG-I/Fを介して入力されたMPEGコーデック信号を、LUT62を参照してRGBデータに変換してフレームメモリ16に格納していた。また、テキストを表示する際は、ホストI/F45を介してCPU11から供給された描画コマンドをRGBデータに変換してフレームメモリ16に格納していた。発振器71は必要に応じて基準クロックを生成する。携帯電話の待ち受け時など、CPUが休止しているときに待ち受け画面を表示しつづけなければならない場合に該基準クロックに同期してLCDC2からLCD基板1に表示のための画素データを定常的に送りつづける。
【0031】
LCDC2は、フレームメモリ16から読み出したデジタル画像データを、例えば表示画面の第1行から順に1行ずつ必要に応じて並び替えてLCD基板1に出力する。
【0032】
本実施形態のLCDC2は、図7に示すように、従来のLCDC2が持たなかった画像処理メモリ65を備えており、LCD基板1からLCD-I/F43を介して供給される画像取込センサ33の撮像データを保持する。この画像取込センサ33の撮像データは、ホストI/F45とベースバンドLSI3を介して、画像処理IC5に供給される。
【0033】
LCD基板1内の各画素は、開口率を確保しなければならないため、画像取込用の画像取込センサ33や周辺回路を配置するスペースが限られている。開口率が小さくなると、通常表示の際の画面の表示輝度を確保するために、バックライトをより高輝度に点灯しなければならず、バックライトの消費電力が増大してしまう問題を生じるからである。できるだけ各画素の中には少ない数の画像取込センサ33と関連回路を内蔵するに留めることが望ましい。また、画像取込センサ33が1つでも、画像取込センサ33によるキャパシタC1の電位の微妙な変化を精密に外部に取り出すことができれば、それにより多階調の画像取り込みが実現できるが、困難である。なぜならガラス基板上に形成されるTFTや画像取込センサ33は同一基板上であっても動作閾値等に無視できないばらつきを有するためアナログ信号をそのまま画素から出力する誤差の小さいアナログ増幅回路を設けることが難しいからである。さらに画素内にばらつき補償回路を設けることも考えられるが、ばらつき補償回路自体それなりの面積を占有し開口率を損なう問題がある。したがって、多階調の画像取込を行うために、画素内に、複数の画像取込センサ33を設けたり、複雑な補償回路を設けることをせず、撮像条件を変えながら複数回の撮像を行ってこれらのデータに基づいて多階調化のための処理やノイズ補償のための処理を行うようにした。
【0034】
図9はLCDC2が行う画像取込時の処理手順を示すフローチャートである。まず、撮像条件を変えながら、N回画像取込センサ33による画像取込を行う(ステップS1)。次に、(1)式に基づいて、N回の撮像データの単純平均を計算する(ステップS2)。ここで、L(x,y)iは、i回目の座標(x,y)の階調値を示している。
【数1】

Figure 0004434618
【0035】
ステップS1及びS2の処理を行う際は、図10に示すように、各回の階調値を順に加算する逐次加算を行い、N回目まで逐次加算を行った後に、Nで割ればよい。逐次加算の過程で既に加算済みとなった撮像データは保持しておく必要がない。
【0036】
図10のような逐次加算を行う場合、フレームメモリ16は2回分程度の撮像データを格納できる容量があればよく、メモリ容量を削減できる。
【0037】
次に、むらパターンの減算処理を行う(ステップS3)。次に、ホワイトバランス調整や欠陥補正などを行う(ステップS4)。
【0038】
図11は、LCD基板1上の信号線駆動回路22、走査線駆動回路23、画像取込センサ制御回路24及び信号処理出力回路25と、LCDC2と、ベースバンドLSI3との間の信号のやり取りを示す図である。
【0039】
図12はガラス基板の詳細構成を示すブロック図である。本実施形態の画素アレイ部21は、水平方向320画素×垂直方向240画素の表示解像度を有する。バックライトを赤色、緑色及び青色で順繰りに発光させる、いわゆるフィールドシーケンシャル駆動を行うものである。フィールドシーケンシャル駆動ではバックライトの発光色は赤色、緑色及び青色のほか、白色に点灯することもある。画素はそれぞれごとに信号線及び走査線等が設けられる。信号線の総数は、320本で、走査線の総数は240本である。
【0040】
走査線駆動回路23は、240段のシフトレジスタ71と、3選択デコーダ72と、レベルシフタ(L/S)73と、マルチプレクサ(MUX)74と、バッファ75とを有する。
【0041】
信号処理出力回路25は、320個のプリチャージ回路76と、4選択デコーダ77と、10段毎にデータバスが接続されたの合計80段のシフトレジスタ78と、8個の出力バッファ79とを有する。
【0042】
図13は本実施形態の表示装置の動作を説明する図、図14は通常表示時のタイミング図、図15は画像取込センサ33のプリチャージ及び撮像時のタイミング図、図16は画像取込センサ33の撮像データ出力時のタイミング図である。
【0043】
通常の表示を行う場合には、図13のモードm1の動作を行う。一方、画像取込センサ33による画像取込を行う場合は、まずモードm1の動作を行い、全画素の輝度を所定値(液晶透過率が最も高くなるようにする)に設定する。この場合、図14に示すように、まず、走査線G1,G4,G7,…を駆動して画面の1/3の表示を行った後、走査線G2,G5,G8,…を駆動して画面の残り1/3の表示を行い、最後に、走査線G3,G6,G9,…を駆動して画面の最後の1/3の表示を行う。そしてバックライトを特定の色で点灯する。本実施形態ではまず白色を点灯する。
【0044】
次に、モードm2で、全画素のキャパシタC1をプリチャージ(初期電荷の蓄積)した後、撮像を行う。このとき、図15に示すように、走査線駆動回路23が全走査線を駆動している間に、全画素のキャパシタC1に5Vを書き込む。
【0045】
次に、モードm3で、一部の撮像データ(全画面の12分の1)の出力を行う。具体的には、走査線駆動回路23のシフトパルスに基づいて所定の走査線をオンすることにより、当該行に属するSRAM34に保持されたデータが信号線に書き込まれる。この場合、図16に示すように、まず、走査線G1,G4,G7,…に接続された画素内の画像取込センサ33の撮像データが信号線に出力される。残りの撮像データ(全画面の12分の11)すなわち、走査線G1,G4,G7,…に接続された画素内の画像取込センサ33の撮像データがのうちまだラッチ97に保持されているだけで出力されずにいるデータの出力、走査線G2,G5,G8,…に接続された画素内の画像取込センサ33の撮像データの信号線への出力、及び走査線G3,G6,G9,…に接続された画素内の画像取込センサ33の撮像データの信号線への出力はモードm4で行う(モードm3ではこれらは行わない)。
【0046】
信号線上に出力された撮像データは、図15のP/S変換回路91内のラッチ回路97に保持される。HSW[3:0]を(1,0,0,0)とすることにより、4つのラッチ回路97のうちいずれか一つのデータがシフトレジスタに書き込まれる。シフトレジスタ列をクロック(HCK)駆動することにより順に出力される。
【0047】
まず最初は、1,4,…,238行のデータのうち、1,5,9,…列のデータの出力が出力される。これは、全画素データの1/12に相当する。ここまでのデータに基づいて平均階調Lmeanを計算する。この動作の際には、LCDC2側では平均階調Lmeanをカウントする。
【0048】
全画素データの1/12の平均階調が飽和していないか否かを判定し(ステップS11)、飽和している場合は、データ出力を中止して、画像処理に移行する(モードm5)。
【0049】
次に、平均階調が小さすぎないか否かを判定し(ステップS12)、小さすぎる場合には、次の撮像時間をT+2×ΔTと長めにしてモードm2以降の処理を繰返す。小さすぎない場合には、平均階調が大きすぎないか否かを判定し(ステップS13)、大きすぎる場合には、次の撮像時間をT+0.5×ΔTと短めにしてモードm2以降の処理を繰り返す。大きすぎない場合には、モードm4により、残り12分の11のデータ出力を継続して行う。
【0050】
以上のモードm1からモードm4の動作を、平均階調が飽和してしまうまで繰り返す。
【0051】
モードm5では、こうして得られた撮像データを平均化処理することにより、白色成分の階調情報を合成することができる。
【0052】
同様にm4〜m7で緑色成分の合成と、青色成分の合成とを行う。白色、緑、青は、バックライト(LED)の発光色を白にするか、緑にするか、青にするかで切り替える。
【0053】
ここでは、バックライトを赤色点灯した状態では撮像は略することができる。合成された白色成分から、合成された青成分及び緑成分を減算することにより、赤成分を合成できる。画像取込センサ33の光電流は波長分散を有し、赤色の光を検出するには撮像時間を長くする必要がある場合に、全体の撮像時間が長くなってしまう問題を防ぐことができる。
【0054】
上述した手法により、RGBの各色の階調情報が求まった場合には、これら各色の合成結果を重ね合わせることにより、カラー撮像画面を合成できる。このカラー撮像画面はLCDC2の画像メモリ上に格納され、ベースバンドLSI3を経由して画像処理IC5に送られる。そして、汎用的な画像処理(階調補正、色補正、欠陥画素補正、エッジ補正、ノイズ除去、ホワイトバランス補正など)が行われ、再度LCDC2の表示用のフレームメモリ16に所定の手順で格納され、LCDC2からLCDに所定のフォーマットで出力することにより、LCDに表示することができる。
【0055】
図17はLCDC2の処理動作を示すフローチャートである。図13で説明した表示装置全体の動作のうち、撮像の際にLCDC2が具体的に行う処理動作を抜き出したものである。LCDC2は、撮像時間T=T+ΔTで撮像するよう画像取込センサ33に対して指示する(ステップS21)。次に、画像取込センサ33の撮像データのうち、水平方向は信号線のm本ごとに、垂直方向は走査線のn本ごとに、画像取込センサ33の撮像データを取り込む(ステップS22)。これにより、全画素のM(=m×n)分の1個の撮像データを取り込み、撮像データの平均階調Lmeanを計算する。(上述の実施形態においては、m=4、n=3の例を説明したが、m,nはこれらに限定されない)
【0056】
次に、平均階調Lmeanが所定の基準値(例えば、"64")以下か否かを判定する(ステップS23)。基準値以下の場合には、直前の撮像データの平均階調Lmean0との差異が所定の基準値ΔH0以上か否かを判定する(ステップS24)。
【0057】
差異が基準値以上であれば、差異が所定の基準値ΔH1以下か否かを判定する(ステップS25)。差異が基準値ΔH1以下であれば、残りの画像取込センサ33の撮像データを順に取り込み、画像処理メモリ65に格納されている各画素の撮像データに加算する(ステップS26)。次に、通算の撮像回数Aを"1"カウントアップした(ステップS27)後、ステップS21以降の処理を繰り返す。
【0058】
一方、ステップS24で差異が基準値ΔH0未満と判定された場合、またはステップS25で差異が基準値ΔH1より大きいと判定された場合には、ステップS21に戻る。
【0059】
また、ステップS23で平均階調Lmeanが64より大きいと判定された場合は、座標(x,y)の画素の階調値L(x,y)を(2)式に基づいて求める。
L(x,y)=L(x,y)/A …(2)
【0060】
図18は図9のステップS3の処理の詳細フローチャートである。まず、基準パターンである白色板を、液晶を中間調に設定した状態で画像取込センサ45で撮像する(ステップS31)。白色板は白紙でもよいし、硫酸バリウム等を塗布した平らな板でもよい。
【0061】
より具体的には、白色板を撮像時間T1(例えば5msec)〜T2(例えば50msec)の範囲で、等時間間隔で撮像時間を変えながら64回撮像し、撮像結果を画素ごとに単純平均して、多階調データを生成する。撮像時間が最短のT1では、ほとんどの撮像対象が真っ黒(L0とする)と認識され、撮像時間が最長のT2では、ほとんどの撮像対象が真っ白と認識されるように、各撮像時間を設定する。
【0062】
このような手順で撮像した白色板の再現撮像画像は図19のようになる。図19は中間調背景に黒っぽい部分と白っぽい部分とが入り乱れて「ムラ」が生じている再現画像である。図19からわかるように、ムラのない白色板を撮像したにもかかわらず、撮像データにはムラが生じている。ムラが生じる理由は、各画素のセンサのリーク電流にばらつきがあるためと、各画素のSRAMの動作しきい値にばらつきがあるためである。
【0063】
このため、比較的長い撮像時間でも白と認識しない画素や、その逆に比較的短い撮像時間でも白と認識する画素などが存在する。前者の画素では再現撮像画像が黒っぽくなり、後者の画素では再現撮像画像が白っぽくなる。
【0064】
本実施形態では、白色板を撮像した多階調データを図7の画像処理用メモリ45に格納する(ステップS32)。ここで、メモリ容量を削減するために、ムラの差分値だけを格納してもよい。全画面でムラは±4階調分程度しかないため、ムラの差分値は3ビット程度で表現できる。したがって、階調値をそのまま格納する場合に比べて、画像処理用メモリ45のメモリ容量を節約できる。
【0065】
なお、基準パターンの色は必ずしも白色でなくてもよく、中間調や、中間調よりも黒っぽい色でもよい。
【0066】
続いて、実際の撮像対象物を図1の表示装置で撮像する(ステップS33)。この場合も、撮像条件を変えて複数回撮像を行った結果を平均化して、多階調データを生成する。生成した多階調データは画像処理用メモリ45に格納される(ステップS34)。そのまま再現したのが図20である。図20は現実の撮像対象に図19のムラを重ね合わせたような、ムラのある再現画像である。
【0067】
続いて、ステップS34で格納した多階調データから、ステップS32で得られた多階調データを減じてムラ成分を除去する(ステップS35)。このとき、ステップS32で格納した白色板の多階調データをそのまま利用するのではなく、階調値に応じて重み付けを行ってもよい。
【0068】
より具体的には、例えば(3)式に基づいてムラ成分を除去する。
C(x,y)=L(x,y)−{B(x,y)−average(B(x,y))}×f(L(x,y)) …(3)
【0069】
ここで、(x, y)は画素位置、B(x, y)は基準パターンの多階調データ、average(B(x,y))はB(x,y)を画面全体で平均した値(平均階調)、L(x, y)は撮像対象物のムラ除去前の多階調データ、C(x, y)は撮像対象物のムラ除去後の階調値である。
【0070】
ムラ成分が除去された多階調データは画像処理用メモリ45に格納されるとともに、適当なタイミングで画素アレイ部21に表示される(ステップS36)。
【0071】
図21は白色板を撮像して得られた多階調データの階調値の変化を示す図であり、X軸は図19の水平方向座標、Y軸は階調値を表している。図示のように、白色板であるにもかかわらず、階調値は点線で示す階調値を挟んで上下に変動する。
【0072】
図22は図20に示す実際の撮像対象物を撮像して得られる多階調データの階調値の変化を示す図であり、X軸は図20の水平方向座標、Y軸は階調値を表している。図22の実線曲線cb1が撮像対象物の多階調データ、点線cb2は白色板の多階調データである。
【0073】
上述した(3)式では、白色板の多階調データを画面全体で平均化した画素値average(B(x, y))を計算し、白色板の多階調データB(x, y)と平均階調値average(B(x, y))との差分を、画素ごとに重み付けする。そして、この重み付けされた差分を、撮像対象物の多階調データから減じることにより、ムラの除去を行う。
【0074】
この結果、図23に示すようにムラのない画像が得られ、階調値の変動も図24に示すようにほとんどなくなる。図23は現実の撮像対象に近い、ムラのない再現画像である。
【0075】
次に、重み付け関数について詳述する。図25は撮像対象物の階調値と撮像対象物を撮像して得られる多階調データの階調誤差との関係を示す図であり、縦軸が階調誤差を表している。ここでは一例として、L0〜L63の全64階調のうち、L5,L32,L60の3階調について模式的に図示した。図25の例では、撮像対象物を64階調で表し、L63を真っ白とし、L0を真っ黒としている。図25のL60、L32、L5の順に白っぽい階調になる。図示のように、白に近いほど階調誤差は少なく、黒に近いほど階調誤差は大きくなる。この傾向は、本実施形態の撮像シーケンス(光源輝度は一定として撮像時間のみ段階的に変更して複数の撮像を行う)の場合に限らず、別の撮像シーケンス(例:撮像時間は一定として光源輝度のみ段階的に変更して複数の撮像を行う)の場合にも同様の傾向を示す。撮像対象の暗い部分では、明るい部分に比べ光リークの進行が遅く、光電変換素子の光リーク電流のばらつきの差や画素内回路を構成するTFTの特性ばらつきが大きくなるためである。したがって減算の際の重み付け関数は階調についての単調減少関数とするのがよい。
【0076】
このため、図26に示すように、撮像対象物の階調値に応じて、線形に重み付け係数が変化するような一次関数からなる重み付け関数を用いてもよい。
【0077】
また、現実に撮像を行う場合は、撮像対象物によって、異なる撮像条件で撮像を行う場合がある。例えば、暗めの撮像対象物を撮像する場合は撮像時間を長めに、明るめの撮像対象物を撮像する場合は撮像時間を短めにすることにより再現画像のコントラスト等の画質が好ましくなることがある。このように、撮像条件が異なる場合には、必ずしも図26のような一次の重み関数で重み付け係数を求めるのが望ましくない場合もあるし、図26のような重み付け関数を用いることで、新たなムラが発生するおそれもある。
【0078】
また、液晶自体に図27のような非線形のガンマ特性があるため、その影響も考慮に入れて重み付け係数を設定するのが望ましい場合もある。
【0079】
このため、場合によっては、図28に示すように、重み付け関数を折れ線関数にしてもよい。図28の例では、中間調付近で、一次の重み付け関数の傾きを変化させる例を示している。傾きを変化させるポイントは必ずしも中間調付近には限定されず、撮像条件や液晶のガンマ特性などにより決めるのが望ましい。
【0080】
あるいは、図29に示すように、2次以上の多次関数で重み付け関数を構成してもよい。図29の重み付け関数は、階調値に応じて重み付け係数が単調変化し、中間調付近の重み付け係数の変化量を小さくしている。
【0081】
このようにすることによって、図19のような減算処理のためのムラパターンの撮像を、都度頻回に行うことなく、表示装置の出荷時やユーザーにおけるシステムセットアップ時に1回だけ行うだけでよくなる。
【0082】
上述したムラの除去処理は、RGBの各色ごとに個別に行われ、その後に撮像画像の表示が行われる。
【0083】
このように、本実施形態では、センサで撮像して得られた多階調データに含まれるムラ成分を、上述した(1)式に基づいて除去するため、センサの特性ばらつき等により発生するムラの影響を受けない撮像データが得られる。
【0084】
上述した実施形態では、カラーフィルタを設けないで、バックライトの発光色を赤→青→緑と所定周期で切替えることによりカラー表示を行う表示装置において、図3に示すように各画素ごとに画像取込センサを設ける例を説明したが、カラーフィルタを各画素に設け、1画素を構成する3色(RGB)のうち、1色または2色分だけセンサを配置してもよい。
【0085】
例えば、図30は1画素を構成する3色のうち、緑色だけにセンサを設ける例を示している。この場合の1画素分の回路構成は図31のような回路図で表される。
【0086】
緑色に対応する画素TFT31には、初期化用TFT35を介して画像取込センサ33が接続されている。ところが、赤色に対応する画素TFTと青色に対応する画素TFTには画素取込センサは接続されていない。
【0087】
図31のような構成にすることにより、画像取込センサの数を削減でき、構造を簡易化できるとともに、液晶表示を行う際の開口率の向上が図れる。
【0088】
【発明の効果】
以上詳細に説明したように、本発明によれば、被写体の撮像結果である第1の多階調データに含まれるムラを、基準パターンの撮像結果である第2の多階調データを用いて調整するため、ムラのない多階調データが得られる。このため、撮像部の特性により撮像結果にムラが生じても、そのムラを相殺できる。
【図面の簡単な説明】
【図1】本発明に係る表示装置の全体構成を示すブロック図。
【図2】 LCD基板1上に形成される回路を示すブロック図。
【図3】画素アレイ部21の1画素分の詳細回路図。
【図4】ガラス基板上の1画素分のレイアウト図。
【図5】画像取込の方法を説明する図。
【図6】画像処理IC5の内部構成を示すブロック図。
【図7】 LCDC2の内部構成の一例を示すブロック図。
【図8】従来のLCDC2の内部構成を示すブロック図。
【図9】 LCDC2が行う画像取込時の処理手順を示すフローチャート。
【図10】逐次加算方法を説明する図。
【図11】 LCD基板1上の信号線駆動回路22、走査線駆動回路23、センサ制御回路24及び信号処理出力回路25と、LCDC2と、ベースバンドLSI3との間の信号のやり取りを示す図。
【図12】ガラス基板の詳細構成を示すブロック図。
【図13】本実施形態の表示装置の動作を説明する図。
【図14】通常表示時のタイミング図。
【図15】センサ33のプリチャージ及び撮像時のタイミング図。
【図16】センサ33の撮像データ出力時のタイミング図。
【図17】 LCDC2の処理動作を示すフローチャート。
【図18】図9のステップS3の処理の詳細フローチャート。
【図19】白色板の再現撮像画像を示す図。
【図20】実際の撮像対象物の撮像画像を示す図。
【図21】白色板を撮像して得られた多階調データの階調値の変化を示す図。
【図22】図20に示す撮像画像の階調値の変化を示す図。
【図23】図20からムラを除去した画像を示す図。
【図24】図23に対応する階調値の変化を示す図。
【図25】撮像対象物の階調値と撮像対象物を撮像して得られる多階調データの階調誤差との関係を示す図。
【図26】一次関数からなる重み付け関数を示す図。
【図27】非線形のガンマ特性を示す図。
【図28】折れ線からなる重み付け関数を示す図。
【図29】多次関数からなる重み付け関数を示す図。
【図30】1画素を構成する3色のうち、緑色だけにセンサを設ける例を示す図。
【図31】1画素の回路構成を示す回路図。
【符号の説明】
1 LCD基板
2 LCDC
3 ベースバンドLSI
4 カメラ
5 画像処理IC
6 送受信部
7 電源回路
11 CPU
12 メインメモリ
13 MPEG処理部
14 DRAM
15 制御部
16 フレームメモリ
21 画素アレイ部
22 信号線駆動回路
23 走査線駆動回路
24 センサ制御回路
25 信号処理出力回路
31 画素TFT
32 表示制御TFT
33 画像取込センサ
34 SRAM
35 初期化用TFT[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a display device having an image capturing function.
[0002]
[Prior art]
The liquid crystal display device includes an array substrate on which signal lines, scanning lines, and pixel TFTs are arranged, and a drive circuit that drives the signal lines and the scanning lines. With the recent progress and development of integrated circuit technology, a process technology for forming a part of a drive circuit on an array substrate has been put into practical use.
[0003]
As one of such process technologies, a low-temperature polysilicon TFT (Thin Film Transistor) process technology has attracted attention. By adopting a low-temperature polysilicon TFT process, the entire liquid crystal display device can be made light and thin, and it is widely used as a display device for various portable devices such as mobile phones and notebook computers.
[0004]
By the way, a display device having an image capturing function in which a contact area sensor for capturing an image is arranged on an array substrate has been proposed (see, for example, Patent Documents 1 and 2).
[0005]
In a conventional display device having this type of image capturing function, an image capturing sensor is arranged for each pixel, charges corresponding to the amount of light received by the image capturing sensor are accumulated in the capacitor, and the voltage across the capacitor is stored. It detects and captures an image.
[0006]
[Patent Document 1]
Japanese Patent Laid-Open No. 2001-292276
[Patent Document 2]
JP 2001-339640 A
[0007]
[Problems to be solved by the invention]
However, when the above-described sensor is formed by the low-temperature polysilicon TFT process, even if a single color subject is imaged due to individual variations of the sensor, the gradation value of the imaged data varies depending on the location, and the imaged data is displayed. Display irregularities occur.
[0008]
As a countermeasure for suppressing such display unevenness, Patent Document 2 described above discloses a technique of repeatedly performing imaging and setting an optimal imaging time for each horizontal line.
[0009]
Since this technique is complicated to control, it may take time to capture an image. In addition, a high-performance CPU and controller are required, which increases costs.
[0010]
The present invention has been made in view of such a point, and an object thereof is to provide a display device capable of suppressing unevenness of imaging data by simple processing.
[0011]
[Means for Solving the Problems]
In order to solve the above-described problem, in one embodiment of the present invention, a display element in a pixel formed in the vicinity of each intersection of a signal line and a scanning line arranged in rows and columns,
An imaging unit provided at least one for each of the display elements, each for imaging a predetermined range of a subject;
An initial multi-grayscale data storage unit for storing first multi-grayscale data corresponding to the imaging result of the imaging unit;
A reference pattern storage unit that stores second multi-gradation data obtained by imaging a predetermined reference pattern by the imaging unit;
An unevenness adjustment data generating unit that generates third multi-gradation data in which display unevenness of the first multi-gradation data is adjusted based on the first and second multi-gradation data,
The unevenness adjustment data generation unit
For each pixel, a difference calculation unit that calculates a difference between the second multi-gradation data and the gradation average value of the second multi-gradation data for one screen;
A weight calculation unit that calculates a weighting coefficient corresponding to the first multi-gradation data for unevenness adjustment set for each pixel for each pixel;
For each pixel, a non-uniformity adjustment value calculation unit that calculates the non-uniformity adjustment value by multiplying the corresponding weighting coefficient by the difference,
And a non-uniformity canceling unit that generates the third multi-gradation data by subtracting the non-uniformity adjustment value from the first multi-gradation data for each pixel.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a display device according to the present invention will be specifically described with reference to the drawings.
[0013]
FIG. 1 is a block diagram showing the overall configuration of a display device according to the present invention, and shows the configuration of a display device of a camera-equipped mobile phone. 1 includes an LCD (Liquid Crystal Display) substrate 1 in which pixel TFTs are arranged, a liquid crystal driver IC (hereinafter referred to as LCDC) 2 mounted on the LCD substrate 1, a baseband LSI 3, and a camera 4. And an image processing IC 5 that performs image processing of image data captured by the camera 4, a transmission / reception unit 6 that communicates with the base station, and a power supply circuit 7 that supplies power to each unit.
[0014]
The baseband LSI 3 includes a CPU 11, a main memory 12, an MPEG processing unit 13, a DRAM 14, an audio signal processing unit (not shown), and the like, and controls the entire mobile phone. In FIG. 1, the image processing IC 5 and the transmission / reception unit 6 are provided separately from the baseband LSI 3, but these may be combined into one chip. The CPU 11 and the main memory 12 may be one chip, and the other may be another chip.
[0015]
The LCDC 2 includes a control unit 15 and a frame memory 16. The camera 4 is realized by a CCD (Charge Coupled Device) or a CMOS image capture sensor.
[0016]
The LCD substrate 1 of the present embodiment is provided with an image capture sensor for capturing an image for each pixel. On the LCD substrate 1, a common substrate is formed of a transparent electrode such as ITO, and a counter substrate is arranged at a predetermined interval (about 5 microns), a liquid crystal material is injected between them and sealed by a predetermined method. A polarizing plate is attached to the outside of the substrate.
[0017]
FIG. 2 is a block diagram showing a circuit formed on the LCD substrate 1. As shown in the figure, on the LCD substrate 1, a pixel array section 21 in which signal lines and scanning lines are arranged, a signal line driving circuit 22 for driving signal lines, and a scanning line driving circuit 23 for driving scanning lines. Then, an image capturing sensor control circuit 24 that controls image capturing and a signal processing output circuit 25 that performs signal processing after image capturing are formed. These circuits are formed by, for example, a polysilicon TFT using low-temperature polysilicon technology. The signal line driving circuit 22 includes a D / A conversion circuit that converts digital pixel data into an analog voltage suitable for driving the display element. A known D / A conversion circuit is used.
[0018]
FIG. 3 is a detailed circuit diagram for one pixel of the pixel array section 21, and FIG. 4 is a layout diagram for one pixel on the glass substrate. As shown in FIG. 4, the pixel of this embodiment is substantially square.
[0019]
As shown in FIG. 3, each pixel has a pixel TFT 31, a display control TFT 32 that controls whether or not electric charge is accumulated in the auxiliary capacitor Cs, an image capturing sensor 33, and an image capturing result of the image capturing sensor 33. The capacitor C1 to be stored, the SRAM 34 for storing binary data corresponding to the accumulated charge of the capacitor C1, and the initialization TFT 35 for accumulating the initial charge in the capacitor C1.
[0020]
Here, the luminance of each pixel is determined by the difference between the pixel electrode potential determined based on the electric charge accumulated in the auxiliary capacitor Cs and the potential of the common electrode formed on the counter substrate. The gradation is controlled by controlling the transmittance.
[0021]
Although FIG. 3 shows an example in which one image capturing sensor 33 is provided for each pixel, the number of image capturing sensors 33 is not particularly limited. As the number of image capturing sensors 33 per pixel is increased, the resolution of image capturing can be improved.
[0022]
When the capacitor C1 is initialized, the pixel TFT 31 and the initialization TFT 35 are turned on. When an analog voltage (analog pixel voltage) for setting the luminance of the display element is written to the auxiliary capacitor Cs, the pixel TFT 31 and the display control TFT 32 are turned on. When refreshing the voltage of the capacitor C1, both the initialization TFT 35 and the data holding TFT 36 in the SRAM 34 are turned on. If the voltage of the capacitor C1 is close to the power supply voltage (5V) of the SRAM 34, the result of the refresh will be 5V even if there is some leakage, and conversely, the voltage of the capacitor C1 will be close to the GND voltage (0V) of the SRAM 34. If there is, it becomes 0V as a result of the refresh. Further, as long as both the TFT 35 and the TFT 36 are on, the data value of the SRAM 34 continues to be held extremely stably. Even if either TFT 35 or TFT 36 is turned off, the data value of the SRAM 34 continues to be held as long as the potential leakage of the capacitor C1 is small. If refresh is performed before the potential leak of the capacitor C1 increases and the data value does not change, the data value of the SRAM 34 can be held. When supplying imaging data stored in the SRAM 34 to the signal line, both the pixel TFT 31 and the data holding TFT 36 are turned on.
[0023]
The display device of the present embodiment can perform a normal display operation, and can also capture an image similar to a scanner. When a normal display operation is performed, the TFTs 35 and 36 are set to an off state, and valid data is not stored in the buffer. In this case, the signal line voltage from the signal line driving circuit 22 is supplied to the signal line, and display according to the signal line voltage is performed.
[0024]
On the other hand, when capturing an image, as shown in FIG. 5, an image capturing object (for example, a paper surface) 37 is disposed on the upper surface side of the LCD substrate 1, and light from the backlight 38 is transmitted to the counter substrate 39 and the LCD substrate 1. Irradiates the paper surface 37 via The light reflected by the paper surface 37 is received by the image capture sensor 33 on the LCD substrate 1 and image capture is performed. Here, the glass substrate and the polarizing plate arranged on the imaging target side should be as thin as possible. Desirably, the total is about 0.2 mm or less. The paper surface is usually a diffuse reflection surface, and diffuses the irradiated light. If the glass substrate on the imaging target side is thick, the distance between the light receiving unit of the image capturing sensor and the paper surface will increase, and diffused reflected light will easily enter the image capturing sensor of the adjacent pixel, which may cause the captured image to blur. It is.
[0025]
The captured image data is stored in the SRAM 34 as shown in FIG. 3, and then sent to the LCDC 2 shown in FIG. 1 through a signal line. The LCDC 2 receives the digital signal output from the display device according to the present embodiment, and performs arithmetic processing such as data rearrangement, removal of unevenness in the captured image, and removal of noise in the data.
[0026]
FIG. 6 is a block diagram showing the internal configuration of the image processing IC 5. The image processing IC 5 in FIG. 6 receives the imaging data from the camera I / F unit 41 that receives the imaging data captured by the camera 4, the control unit 42, the control I / F 43 that controls the operation of the camera 4, and the LCDC 2. Receiving LCD-I / F 44, image processing memory 45 for storing imaging data, host I / F 46 for exchanging control signals with the CPU 11, and gradation correction of imaging data (for removing unevenness) Gradation correction unit 47 that performs processing), color correction unit 48 that performs color correction of imaging data, defective pixel correction unit 49, edge correction unit 50 that performs edge correction of imaging data, and noise in imaging data are removed. And a white balance correction unit 52 that adjusts the white balance of the imaging data. A difference from the conventional image processing IC is that it has an LCD-I / F 44 that receives imaging data output from the LCD substrate 1.
[0027]
In principle, the display on the LCD substrate 1 is performed under instructions and monitoring from the baseband LSI 3. For example, when imaging data of the camera 4 is input to the baseband LSI 3, the baseband LSI 3 outputs the imaging data to the LCDC 2 at a predetermined timing. The LCDC 2 stores the image data of the camera 4 from the baseband LSI 3 in the frame memory 16. Even if the imaging data of the camera 4 supplied from the baseband LSI 3 is intermittent, the LCDC 2 outputs the imaging data of the camera 4 for one screen stored in the frame memory 16 to the LCD substrate 1 at a predetermined timing. To do. The LCD substrate 1 converts the imaging data of the camera 4 from the LCDC 2 into an analog pixel voltage and writes it to the signal line.
[0028]
FIG. 7 is a block diagram showing an example of the internal configuration of the LCDC 2. The LCDC 2 in FIG. 7 includes an MPEG-I / F 61, a LUT (Lookup Table) 62, an LCD-I / F 63, a line buffer 64 for storing imaging data, and image processing for holding imaging data supplied from the LCDC 2. Memory 65, frame memory 16 holding digital pixel data for display, pre-output operation unit 66, first buffer 67, second buffer 68, image processing unit 69, host I / F 70, oscillator 71.
[0029]
On the other hand, FIG. 8 is a block diagram showing an internal configuration of the conventional LCDC 2. As shown, the conventional LCDC 2 includes an MPEG-I / F 61, an LUT 62, an LCD-I / F 63, a frame memory 16, a buffer 67, and an oscillator 71.
[0030]
Conventionally, when displaying a moving image, an MPEG codec signal input via the MPEG-I / F is converted into RGB data with reference to the LUT 62 and stored in the frame memory 16. When displaying text, the drawing command supplied from the CPU 11 via the host I / F 45 is converted into RGB data and stored in the frame memory 16. The oscillator 71 generates a reference clock as necessary. When the standby screen must be displayed when the CPU is idle, such as when waiting for a mobile phone, the pixel data for display is constantly sent from the LCDC 2 to the LCD substrate 1 in synchronization with the reference clock. Continue.
[0031]
The LCDC 2 rearranges the digital image data read from the frame memory 16 as necessary, for example, one line at a time from the first line of the display screen, and outputs it to the LCD substrate 1.
[0032]
As shown in FIG. 7, the LCDC 2 of the present embodiment includes an image processing memory 65 that the conventional LCDC 2 does not have, and an image capture sensor 33 supplied from the LCD substrate 1 via the LCD-I / F 43. Image data is stored. The imaging data of the image capture sensor 33 is supplied to the image processing IC 5 via the host I / F 45 and the baseband LSI 3.
[0033]
Since each pixel in the LCD substrate 1 must secure an aperture ratio, a space for arranging an image capturing sensor 33 for image capturing and peripheral circuits is limited. If the aperture ratio is small, the backlight must be lit at a higher brightness in order to ensure the display brightness of the screen during normal display, resulting in a problem that the power consumption of the backlight increases. is there. It is desirable to keep as few image capture sensors 33 and associated circuits as possible in each pixel. Further, even if there is only one image capturing sensor 33, if a subtle change in the potential of the capacitor C1 caused by the image capturing sensor 33 can be accurately extracted to the outside, multi-gradation image capturing can be realized thereby, but it is difficult. It is. Because TFTs and image capture sensors 33 formed on a glass substrate have non-negligible variations in operation thresholds even on the same substrate, an analog amplifier circuit with a small error for outputting an analog signal as it is from a pixel is provided. Because it is difficult. Further, although it is conceivable to provide a variation compensation circuit in the pixel, there is a problem that the variation compensation circuit itself occupies a certain area and impairs the aperture ratio. Therefore, in order to capture a multi-tone image, a plurality of image capturing sensors 33 are not provided in the pixel or a complicated compensation circuit is not provided, and a plurality of imaging operations are performed while changing the imaging conditions. Based on these data, processing for multi-gradation and processing for noise compensation were performed.
[0034]
FIG. 9 is a flowchart showing a processing procedure at the time of image capture performed by the LCDC 2. First, image capture by the image capture sensor 33 is performed N times while changing the imaging conditions (step S1). Next, a simple average of N times of imaging data is calculated based on the equation (1) (step S2). Here, L (x, y) i represents the gradation value of the i-th coordinate (x, y).
[Expression 1]
Figure 0004434618
[0035]
When performing the processing of steps S1 and S2, as shown in FIG. 10, it is necessary to perform sequential addition for sequentially adding the gradation values of each time, and after performing sequential addition up to the Nth time, divide by N. It is not necessary to hold the imaging data that has already been added in the process of sequential addition.
[0036]
When performing the sequential addition as shown in FIG. 10, the frame memory 16 only needs to have a capacity capable of storing about two times of image data, and the memory capacity can be reduced.
[0037]
Next, unevenness pattern subtraction processing is performed (step S3). Next, white balance adjustment, defect correction, and the like are performed (step S4).
[0038]
11 shows signal exchange between the signal line driving circuit 22, the scanning line driving circuit 23, the image capturing sensor control circuit 24 and the signal processing output circuit 25 on the LCD substrate 1, and the LCDC 2 and the baseband LSI 3. FIG.
[0039]
FIG. 12 is a block diagram showing a detailed configuration of the glass substrate. The pixel array unit 21 of the present embodiment has a display resolution of 320 pixels in the horizontal direction × 240 pixels in the vertical direction. A so-called field sequential drive is performed in which the backlight emits light sequentially in red, green and blue. In the field sequential driving, the light emission color of the backlight may be lit white as well as red, green and blue. Each pixel is provided with a signal line, a scanning line, and the like. The total number of signal lines is 320, and the total number of scanning lines is 240.
[0040]
The scanning line driving circuit 23 includes a 240-stage shift register 71, a three-select decoder 72, a level shifter (L / S) 73, a multiplexer (MUX) 74, and a buffer 75.
[0041]
The signal processing output circuit 25 includes 320 precharge circuits 76, a 4-select decoder 77, a total of 80 shift registers 78 to which a data bus is connected every 10 stages, and eight output buffers 79. Have.
[0042]
FIG. 13 is a diagram for explaining the operation of the display device of the present embodiment, FIG. 14 is a timing diagram during normal display, FIG. 15 is a timing diagram during precharge and imaging of the image capture sensor 33, and FIG. It is a timing chart at the time of imaging data output of the sensor 33.
[0043]
When performing normal display, the operation in the mode m1 in FIG. 13 is performed. On the other hand, when the image capturing by the image capturing sensor 33 is performed, first, the operation of the mode m1 is performed, and the luminance of all the pixels is set to a predetermined value (the liquid crystal transmittance is maximized). In this case, as shown in FIG. 14, first, the scanning lines G1, G4, G7,... Are driven to display 1/3 of the screen, and then the scanning lines G2, G5, G8,. The remaining 1/3 of the screen is displayed. Finally, the scanning lines G3, G6, G9,... Are driven to display the last 1/3 of the screen. Then, the backlight is turned on with a specific color. In this embodiment, first, white is lit.
[0044]
Next, in mode m2, imaging is performed after the capacitors C1 of all the pixels are precharged (initial charge accumulation). At this time, as shown in FIG. 15, while the scanning line driving circuit 23 drives all the scanning lines, 5 V is written to the capacitors C1 of all the pixels.
[0045]
Next, in mode m3, a part of the imaging data (1/12 of the entire screen) is output. Specifically, by turning on a predetermined scanning line based on the shift pulse of the scanning line driving circuit 23, the data held in the SRAM 34 belonging to the row is written to the signal line. In this case, as shown in FIG. 16, first, the image data of the image capturing sensor 33 in the pixels connected to the scanning lines G1, G4, G7,... The remaining imaging data (11/12 of the entire screen), that is, the imaging data of the image capturing sensor 33 in the pixels connected to the scanning lines G1, G4, G7,. The output of the data that is not output only, the output of the imaging data of the image capturing sensor 33 in the pixels connected to the scanning lines G2, G5, G8,. ,... Are output in the signal line of the imaging data of the image capturing sensor 33 in the pixels connected to.
[0046]
The imaging data output on the signal line is held in the latch circuit 97 in the P / S conversion circuit 91 of FIG. By setting HSW [3: 0] to (1,0,0,0), any one of the four latch circuits 97 is written into the shift register. The shift register trains are sequentially output by driving the clock (HCK).
[0047]
First, the output of the data of 1,5,9,... Column among the data of 1,4,. This corresponds to 1/12 of the total pixel data. The average gradation Lmean is calculated based on the data so far. In this operation, the average gradation Lmean is counted on the LCDC 2 side.
[0048]
It is determined whether or not 1/12 average gradation of all pixel data is saturated (step S11). If saturated, data output is stopped and the process proceeds to image processing (mode m5). .
[0049]
Next, it is determined whether or not the average gradation is too small (step S12). If the average gradation is too small, the next imaging time is lengthened to T + 2 × ΔT and the processing after mode m2 is repeated. If it is not too small, it is determined whether or not the average gradation is too large (step S13). If it is too large, the next imaging time is shortened to T + 0.5 × ΔT and the processing after mode m2 is performed. repeat. If it is not too large, the remaining 11th of the data is continuously output in mode m4.
[0050]
The above operations from mode m1 to mode m4 are repeated until the average gradation is saturated.
[0051]
In mode m5, the gradation information of the white component can be synthesized by averaging the imaging data thus obtained.
[0052]
Similarly, the synthesis of the green component and the synthesis of the blue component are performed at m4 to m7. White, green, and blue are switched according to whether the backlight (LED) emission color is white, green, or blue.
[0053]
Here, imaging can be omitted when the backlight is lit in red. The red component can be synthesized by subtracting the synthesized blue component and green component from the synthesized white component. The photocurrent of the image capture sensor 33 has chromatic dispersion, and it is possible to prevent a problem that the entire imaging time becomes long when it is necessary to lengthen the imaging time to detect red light.
[0054]
When the gradation information of each color of RGB is obtained by the above-described method, the color imaging screen can be synthesized by superimposing the synthesis results of these colors. This color imaging screen is stored on the image memory of the LCDC 2 and sent to the image processing IC 5 via the baseband LSI 3. Then, general-purpose image processing (gradation correction, color correction, defective pixel correction, edge correction, noise removal, white balance correction, etc.) is performed and stored again in the display frame memory 16 of the LCDC 2 in a predetermined procedure. The data can be displayed on the LCD by outputting it from the LCDC2 to the LCD in a predetermined format.
[0055]
FIG. 17 is a flowchart showing the processing operation of the LCDC2. Among the operations of the entire display device described with reference to FIG. 13, processing operations specifically performed by the LCDC 2 at the time of imaging are extracted. The LCDC 2 instructs the image capture sensor 33 to image at the imaging time T = T + ΔT (step S21). Next, among the imaging data of the image capturing sensor 33, the imaging data of the image capturing sensor 33 is captured every m signal lines in the horizontal direction and every n scanning lines in the vertical direction (step S22). . Thereby, one M (= m × n) imaging data of all pixels is taken in, and the average gradation Lmean of the imaging data is calculated. (In the above-described embodiment, an example in which m = 4 and n = 3 has been described, but m and n are not limited to these.)
[0056]
Next, it is determined whether or not the average gradation Lmean is equal to or less than a predetermined reference value (for example, “64”) (step S23). If it is less than or equal to the reference value, it is determined whether or not the difference from the average gradation Lmean0 of the immediately preceding imaged data is greater than or equal to a predetermined reference value ΔH0 (step S24).
[0057]
If the difference is greater than or equal to the reference value, it is determined whether or not the difference is less than or equal to a predetermined reference value ΔH1 (step S25). If the difference is equal to or less than the reference value ΔH1, the remaining image capturing data of the image capturing sensor 33 is sequentially captured and added to the image capturing data of each pixel stored in the image processing memory 65 (step S26). Next, after incrementing the total number of times of imaging A by “1” (step S27), the processing after step S21 is repeated.
[0058]
On the other hand, if it is determined in step S24 that the difference is less than the reference value ΔH0, or if it is determined in step S25 that the difference is greater than the reference value ΔH1, the process returns to step S21.
[0059]
If it is determined in step S23 that the average gradation Lmean is greater than 64, the gradation value L (x, y) of the pixel at the coordinate (x, y) is obtained based on equation (2).
L (x, y) = L (x, y) / A (2)
[0060]
FIG. 18 is a detailed flowchart of the process in step S3 of FIG. First, a white plate as a reference pattern is imaged by the image capture sensor 45 with the liquid crystal set to a halftone (step S31). The white plate may be white paper or a flat plate coated with barium sulfate or the like.
[0061]
More specifically, the white plate is imaged 64 times while changing the imaging time at equal time intervals within the imaging time T1 (for example, 5 msec) to T2 (for example, 50 msec), and the imaging result is simply averaged for each pixel. Multi-tone data is generated. Set each imaging time so that most imaging objects are recognized as black (L0) at T1 with the shortest imaging time, and most imaging objects are recognized as white at T2 with the longest imaging time. .
[0062]
A reproduced captured image of the white plate imaged in such a procedure is as shown in FIG. FIG. 19 is a reproduction image in which a blackish portion and a whitish portion are mixed in a halftone background and “unevenness” is generated. As can be seen from FIG. 19, the imaging data is uneven even though the white plate having no unevenness is imaged. The reason why the unevenness occurs is that there is a variation in the leak current of the sensor of each pixel and a variation in the operation threshold value of the SRAM of each pixel.
[0063]
For this reason, there are pixels that are not recognized as white even in a relatively long imaging time, and conversely, pixels that are recognized as white even in a relatively short imaging time. In the former pixel, the reproduced captured image becomes blackish, and in the latter pixel, the reproduced captured image becomes whitish.
[0064]
In the present embodiment, multi-gradation data obtained by imaging a white plate is stored in the image processing memory 45 of FIG. 7 (step S32). Here, in order to reduce the memory capacity, only the unevenness difference value may be stored. Since the unevenness is only about ± 4 gradations on the entire screen, the unevenness difference value can be expressed by about 3 bits. Therefore, the memory capacity of the image processing memory 45 can be saved as compared with the case where the gradation value is stored as it is.
[0065]
Note that the color of the reference pattern does not necessarily have to be white, and may be a halftone or a darker color than the halftone.
[0066]
Subsequently, an actual imaging object is imaged by the display device of FIG. 1 (step S33). Also in this case, multi-gradation data is generated by averaging the results of imaging performed a plurality of times under different imaging conditions. The generated multi-gradation data is stored in the image processing memory 45 (step S34). FIG. 20 shows the reproduction as it is. FIG. 20 is a reproduced image with unevenness such that the unevenness of FIG. 19 is superimposed on an actual imaging target.
[0067]
Subsequently, the multi-gradation data stored in step S34 is subtracted from the multi-gradation data stored in step S34 to remove unevenness components (step S35). At this time, instead of using the multi-tone data of the white plate stored in step S32 as it is, weighting may be performed according to the tone value.
[0068]
More specifically, for example, the unevenness component is removed based on the equation (3).
C (x, y) = L (x, y) − {B (x, y) −average (B (x, y))} × f (L (x, y)) (3)
[0069]
Here, (x, y) is the pixel position, B (x, y) is the multi-tone data of the reference pattern, and average (B (x, y)) is the average value of B (x, y) over the entire screen. (Average gradation), L (x, y) is multi-tone data before unevenness removal of the imaging object, and C (x, y) is a gradation value after unevenness removal of the imaging object.
[0070]
The multi-gradation data from which the uneven component has been removed is stored in the image processing memory 45 and displayed on the pixel array unit 21 at an appropriate timing (step S36).
[0071]
FIG. 21 is a diagram showing changes in gradation values of multi-gradation data obtained by imaging a white plate, where the X axis represents the horizontal coordinate in FIG. 19 and the Y axis represents the gradation value. As shown in the figure, the gradation value fluctuates up and down across the gradation value indicated by the dotted line, regardless of the white plate.
[0072]
FIG. 22 is a diagram showing changes in gradation values of multi-gradation data obtained by imaging the actual imaging object shown in FIG. 20, where the X axis is the horizontal coordinate in FIG. 20 and the Y axis is the gradation value. Represents. The solid line curve cb1 in FIG. 22 is the multi-tone data of the imaging object, and the dotted line cb2 is the multi-tone data of the white plate.
[0073]
In the above equation (3), the pixel value average (B (x, y)) obtained by averaging the multi-tone data of the white plate over the entire screen is calculated, and the multi-tone data B (x, y) of the white plate is calculated. And the average gradation value average (B (x, y)) are weighted for each pixel. Then, unevenness is removed by subtracting the weighted difference from the multi-gradation data of the imaging object.
[0074]
As a result, an image having no unevenness is obtained as shown in FIG. 23, and the fluctuation of the gradation value is almost eliminated as shown in FIG. FIG. 23 is a reproduced image with no unevenness that is close to the actual imaging target.
[0075]
Next, the weighting function will be described in detail. FIG. 25 is a diagram showing the relationship between the gradation value of the imaging object and the gradation error of the multi-gradation data obtained by imaging the imaging object, and the vertical axis represents the gradation error. Here, as an example, among the 64 gray levels of L0 to L63, 3 gray levels of L5, L32, and L60 are schematically illustrated. In the example of FIG. 25, the imaging target is represented by 64 gradations, L63 is pure white, and L0 is black. The tone becomes whitish in the order of L60, L32, and L5 in FIG. As shown in the figure, the closer to white, the smaller the gradation error, and the closer to black, the larger the gradation error. This tendency is not limited to the case of the imaging sequence of the present embodiment (a plurality of imaging is performed by changing only the imaging time stepwise with the light source luminance being constant), but other imaging sequences (eg, the imaging light source is constant and the light source The same tendency is also shown in the case of performing a plurality of images by changing only the luminance stepwise. This is because in the dark part to be imaged, the light leakage progresses slower than in the bright part, and the difference in the light leakage current of the photoelectric conversion element and the characteristic variation of the TFT constituting the circuit in the pixel become large. Therefore, the weighting function at the time of subtraction is preferably a monotone decreasing function for gradation.
[0076]
For this reason, as shown in FIG. 26, a weighting function including a linear function that linearly changes the weighting coefficient in accordance with the gradation value of the imaging target may be used.
[0077]
Moreover, when imaging is actually performed, imaging may be performed under different imaging conditions depending on the imaging object. For example, the image quality such as the contrast of the reproduced image may be preferable by taking a longer imaging time when imaging a dark imaging object and shortening the imaging time when imaging a bright imaging object. As described above, when the imaging conditions are different, it may not always be desirable to obtain the weighting coefficient with a primary weighting function as shown in FIG. 26, or a new weighting function as shown in FIG. There is also a risk of unevenness.
[0078]
Further, since the liquid crystal itself has a non-linear gamma characteristic as shown in FIG. 27, it may be desirable to set the weighting factor in consideration of the influence.
[0079]
For this reason, in some cases, as shown in FIG. 28, the weighting function may be a polygonal line function. The example of FIG. 28 shows an example in which the slope of the primary weighting function is changed near the halftone. The point at which the inclination is changed is not necessarily limited to the vicinity of the halftone, but is preferably determined according to the imaging conditions, the gamma characteristics of the liquid crystal, and the like.
[0080]
Alternatively, as shown in FIG. 29, the weighting function may be composed of a quadratic or higher order function. In the weighting function of FIG. 29, the weighting coefficient changes monotonously according to the gradation value, and the amount of change in the weighting coefficient near the halftone is reduced.
[0081]
In this way, the uneven pattern imaging for the subtraction process as shown in FIG. 19 is not frequently performed every time, but only needs to be performed once at the time of display device shipment or system setup by the user.
[0082]
The unevenness removal process described above is performed individually for each color of RGB, and then the captured image is displayed.
[0083]
As described above, in this embodiment, the unevenness component included in the multi-gradation data obtained by imaging with the sensor is removed based on the above-described equation (1). Imaging data that is not affected by this is obtained.
[0084]
In the embodiment described above, in the display device that performs color display by switching the emission color of the backlight from red → blue → green at a predetermined cycle without providing a color filter, an image is displayed for each pixel as shown in FIG. Although an example in which a capture sensor is provided has been described, a color filter may be provided in each pixel, and sensors may be arranged for one color or two colors among the three colors (RGB) constituting one pixel.
[0085]
For example, FIG. 30 shows an example in which a sensor is provided only for green among three colors constituting one pixel. The circuit configuration for one pixel in this case is represented by a circuit diagram as shown in FIG.
[0086]
An image capture sensor 33 is connected to the pixel TFT 31 corresponding to green via an initialization TFT 35. However, a pixel capture sensor is not connected to the pixel TFT corresponding to red and the pixel TFT corresponding to blue.
[0087]
With the configuration as shown in FIG. 31, the number of image capture sensors can be reduced, the structure can be simplified, and the aperture ratio when performing liquid crystal display can be improved.
[0088]
【The invention's effect】
As described above in detail, according to the present invention, the unevenness included in the first multi-tone data that is the imaging result of the subject is detected using the second multi-tone data that is the imaging result of the reference pattern. Because of the adjustment, multi-tone data without unevenness can be obtained. For this reason, even if unevenness occurs in the imaging result due to the characteristics of the imaging unit, the unevenness can be offset.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an overall configuration of a display device according to the present invention.
FIG. 2 is a block diagram showing a circuit formed on the LCD substrate 1;
3 is a detailed circuit diagram for one pixel of the pixel array section 21. FIG.
FIG. 4 is a layout diagram for one pixel on a glass substrate.
FIG. 5 is a diagram for explaining a method of capturing an image.
FIG. 6 is a block diagram showing an internal configuration of the image processing IC 5;
FIG. 7 is a block diagram showing an example of the internal configuration of LCDC2.
FIG. 8 is a block diagram showing an internal configuration of a conventional LCDC2.
FIG. 9 is a flowchart showing a processing procedure when an image is captured by the LCDC 2;
FIG. 10 is a diagram illustrating a sequential addition method.
11 is a diagram showing signal exchange between the signal line driving circuit 22, the scanning line driving circuit 23, the sensor control circuit 24, and the signal processing output circuit 25 on the LCD substrate 1, and the LCDC 2 and the baseband LSI 3. FIG.
FIG. 12 is a block diagram showing a detailed configuration of a glass substrate.
FIG. 13 illustrates an operation of a display device according to an embodiment of the present invention.
FIG. 14 is a timing chart during normal display.
FIG. 15 is a timing chart when the sensor 33 is precharged and imaged;
FIG. 16 is a timing chart when the sensor 33 outputs image data.
FIG. 17 is a flowchart showing the processing operation of LCDC2.
FIG. 18 is a detailed flowchart of the process in step S3 of FIG.
FIG. 19 is a diagram showing a reproduced captured image of a white plate.
FIG. 20 is a diagram showing a captured image of an actual imaging object.
FIG. 21 is a diagram showing changes in gradation values of multi-gradation data obtained by imaging a white plate.
22 is a diagram showing a change in gradation value of the captured image shown in FIG. 20;
FIG. 23 is a view showing an image from which unevenness is removed from FIG. 20;
FIG. 24 is a diagram showing a change in gradation value corresponding to FIG.
FIG. 25 is a diagram illustrating a relationship between a gradation value of an imaging object and a gradation error of multi-gradation data obtained by imaging the imaging object.
FIG. 26 is a diagram illustrating a weighting function including a linear function.
FIG. 27 is a diagram illustrating nonlinear gamma characteristics.
FIG. 28 is a diagram illustrating a weighting function including a broken line.
FIG. 29 is a diagram illustrating a weighting function including a multi-order function.
FIG. 30 is a diagram illustrating an example in which a sensor is provided only in green among three colors constituting one pixel.
FIG. 31 is a circuit diagram showing a circuit configuration of one pixel.
[Explanation of symbols]
1 LCD board
2 LCDC
3 Baseband LSI
4 Camera
5 Image processing IC
6 transceiver
7 Power supply circuit
11 CPU
12 Main memory
13 MPEG processing section
14 DRAM
15 Control unit
16 frame memory
21 Pixel array section
22 Signal line drive circuit
23 Scanning line drive circuit
24 Sensor control circuit
25 Signal processing output circuit
31 pixel TFT
32 Display control TFT
33 Image capture sensor
34 SRAM
35 Initialization TFT

Claims (6)

縦横に列設される信号線及び走査線の各交点付近に形成される画素内の表示素子と、
前記表示素子のそれぞれに対応して少なくとも一個ずつ設けられ、それぞれが被写体の所定範囲の撮像を行う撮像部と、
前記撮像部の撮像結果に対応する第1の多階調データを格納する初期多階調データ格納部と、
所定の基準パターンを前記撮像部で撮像して得られる第2の多階調データを格納する基準パターン格納部と、
前記第1及び第2の多階調データに基づいて、前記第1の多階調データの表示ムラを調整した第3の多階調データを生成するムラ調整データ生成部と、を備え、
前記ムラ調整データ生成部は、
各画素ごとに、前記第2の多階調データと1画面分の前記第2の多階調データの階調平均値との差分を計算する差分計算部と、
各画素ごとに設定されるムラ調整のための第1の多階調データに応じた重み付け係数を各画素ごとに計算する重み計算部と、
各画素ごとに、対応する前記重み付け係数に前記差分を乗じてムラ調整値を計算するムラ調整値計算部と、
各画素ごとに、前記第1の多階調データから前記ムラ調整値を減じて前記第3の多階調データを生成するムラ相殺部と、を有することを特徴とする表示装置。
Display elements in pixels formed near intersections of signal lines and scanning lines arranged in rows and columns, and
An imaging unit provided at least one for each of the display elements, each for imaging a predetermined range of a subject;
An initial multi-grayscale data storage unit for storing first multi-grayscale data corresponding to the imaging result of the imaging unit;
A reference pattern storage unit that stores second multi-gradation data obtained by imaging a predetermined reference pattern by the imaging unit;
An unevenness adjustment data generating unit that generates third multi-gradation data in which display unevenness of the first multi-gradation data is adjusted based on the first and second multi-gradation data,
The unevenness adjustment data generation unit
For each pixel, a difference calculation unit that calculates a difference between the second multi-gradation data and the gradation average value of the second multi-gradation data for one screen;
A weight calculation unit that calculates a weighting coefficient corresponding to the first multi-gradation data for unevenness adjustment set for each pixel for each pixel;
For each pixel, a non-uniformity adjustment value calculation unit that calculates the non-uniformity adjustment value by multiplying the corresponding weighting coefficient by the difference,
A display device, comprising: a non-uniformity canceling unit that generates the third multi-gradation data by subtracting the non-uniformity adjustment value from the first multi-gradation data for each pixel.
前記重み計算部は、前記第1の多階調データの階調値に応じて単調に変化する前記重み付け係数を計算することを特徴とする請求項1に記載の表示装置。  The display device according to claim 1, wherein the weight calculation unit calculates the weighting coefficient that changes monotonously according to a gradation value of the first multi-gradation data. 前記重み計算部は、前記第1の多階調データの階調値と前記重み付け係数との相関関係を示す1次関数に基づいて、前記重み付け係数を計算することを特徴とする請求項1または2に記載の表示装置。  The weight calculation unit calculates the weighting coefficient based on a linear function indicating a correlation between a gradation value of the first multi-gradation data and the weighting coefficient. 2. The display device according to 2. 前記重み計算部は、前記第1の多階調データの階調値と前記重み付け係数との相関関係を示す単調変化の多次関数に基づいて、前記重み付け係数を計算することを特徴とする請求項1〜3のいずれかに記載の表示装置。  The weight calculation unit calculates the weighting coefficient based on a monotone change multi-order function indicating a correlation between a gradation value of the first multi-gradation data and the weighting coefficient. Item 4. The display device according to any one of Items 1 to 3. 前記重み計算部は、中間調付近の階調値に対する前記重み係数の変化量を、中間調以外の階調値に対する前記重み係数の変化量よりも小さくすることを特徴とする請求項1〜4のいずれかに記載の表示装置。  The weight calculation unit makes the amount of change in the weighting factor for a gradation value near a halftone smaller than the amount of change in the weighting factor for a gradation value other than a halftone. The display apparatus in any one of. 前記重み付け係数の絶対値は黒のとき最大となることを特徴とする請求項1〜5のいずれかに記載の表示装置。  6. The display device according to claim 1, wherein the absolute value of the weighting coefficient is maximum when the weight is black.
JP2003122696A 2003-04-25 2003-04-25 Display device Expired - Fee Related JP4434618B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003122696A JP4434618B2 (en) 2003-04-25 2003-04-25 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003122696A JP4434618B2 (en) 2003-04-25 2003-04-25 Display device

Publications (2)

Publication Number Publication Date
JP2004325961A JP2004325961A (en) 2004-11-18
JP4434618B2 true JP4434618B2 (en) 2010-03-17

Family

ID=33500841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003122696A Expired - Fee Related JP4434618B2 (en) 2003-04-25 2003-04-25 Display device

Country Status (1)

Country Link
JP (1) JP4434618B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072318A (en) * 2005-09-08 2007-03-22 Toshiba Matsushita Display Technology Co Ltd Display device
KR101127829B1 (en) 2005-12-07 2012-03-20 엘지디스플레이 주식회사 Flat Display Panel, Manufacturing Method thereof, Manufacturing Apparatus thereof, Picture Quality Controlling Apparatus thereof and Picture Quality Controlling Method thereof
GB2439098A (en) 2006-06-12 2007-12-19 Sharp Kk Image sensor and display
GB2439118A (en) 2006-06-12 2007-12-19 Sharp Kk Image sensor and display
JP5105806B2 (en) * 2006-09-13 2012-12-26 日本放送協会 Color correction apparatus and color correction method

Also Published As

Publication number Publication date
JP2004325961A (en) 2004-11-18

Similar Documents

Publication Publication Date Title
KR100603874B1 (en) Display device
US7643042B2 (en) Display device and driving circuit for displaying
TWI510091B (en) Driving method and driving apparatus of liquid crystal display
US8648883B2 (en) Display apparatus and method of driving the same
JP2005203783A (en) Photosensor and display utilizing the same
KR20130108054A (en) Liquid crystal display apparatus, method of driving liquid crystal display apparatus, and electronic apparatus
JP4523348B2 (en) Display device and driving method thereof
JP2007256917A (en) Apparatus and method for driving liquid crystal display device
US20120249507A1 (en) Driving apparatus and driving method of display device
JP2008233379A (en) Liquid crystal display device
KR100910560B1 (en) Driving apparatus of liquid crystal display for modifying digital gray data based on gray distribution and method thereof
JP2007156474A (en) Liquid crystal display and modifying method of image signal thereof
JP4910499B2 (en) Display driver, electro-optical device, electronic apparatus, and driving method
JP4434618B2 (en) Display device
KR101323469B1 (en) Driving liquid crystal display and apparatus for driving the same
WO2019138740A1 (en) Liquid crystal display device, method for driving liquid crystal display device, and electronic equipment
JP4303954B2 (en) Display device
US20110001735A1 (en) Electro-optical device, method for driving electro-optical device and electronic apparatus
JP2009229922A (en) Liquid crystal display device and method of driving the same, and electronic equipment
JP2007316380A (en) Electro-optical device, method for driving electro-optical device, and electronic apparatus
JP5369431B2 (en) Driving circuit, driving method, and display device
JP4634732B2 (en) Display device
KR20070064062A (en) Repairing system for liquid crystal display
JP2009128414A (en) Active matrix liquid crystal display device and driving method thereof
KR101012791B1 (en) Liquid crystal display and driving method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091222

R150 Certificate of patent or registration of utility model

Ref document number: 4434618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140108

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees