JP4303954B2 - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP4303954B2
JP4303954B2 JP2002381775A JP2002381775A JP4303954B2 JP 4303954 B2 JP4303954 B2 JP 4303954B2 JP 2002381775 A JP2002381775 A JP 2002381775A JP 2002381775 A JP2002381775 A JP 2002381775A JP 4303954 B2 JP4303954 B2 JP 4303954B2
Authority
JP
Japan
Prior art keywords
imaging
pixel
image
unit
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002381775A
Other languages
Japanese (ja)
Other versions
JP2004159273A (en
Inventor
村 卓 中
宏 宜 林
田 征 弘 吉
友 信 もたい
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Display Central Inc
Original Assignee
Toshiba Mobile Display Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Mobile Display Co Ltd filed Critical Toshiba Mobile Display Co Ltd
Priority to JP2002381775A priority Critical patent/JP4303954B2/en
Priority to US10/616,979 priority patent/US7205988B2/en
Priority to CNB031458602A priority patent/CN1331347C/en
Priority to TW092119028A priority patent/TWI225232B/en
Priority to KR10-2003-0047174A priority patent/KR100537704B1/en
Publication of JP2004159273A publication Critical patent/JP2004159273A/en
Priority to US11/620,789 priority patent/US7737962B2/en
Application granted granted Critical
Publication of JP4303954B2 publication Critical patent/JP4303954B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像取込み機能を備えた表示装置に関する。
【0002】
液晶表示装置は、信号線、走査線及び画素TFTが列設されたアレイ基板と、信号線及び走査線を駆動する駆動回路とを備えている。最近の集積回路技術の進歩発展により、駆動回路の一部をアレイ基板上に形成するプロセス技術が実用化されている。これにより、液晶表示装置全体を軽薄短小化することができ、携帯電話やノート型コンピュータなどの各種の携帯機器の表示装置として幅広く利用されている。
【0003】
ところで、アレイ基板上に、画像取込みを行う密着型エリアセンサを配置した画像取込み機能を備えた表示装置が提案されている(例えば、特許文献1,2を参照)。
【0004】
この種の画像取込み機能を備えた従来の表示装置は、センサに接続されたキャパシタの電荷量をセンサでの受光量に応じて変化させるようにし、キャパシタの両端電圧を検出することで、画像取込みを行っている。
【0005】
【特許文献1】
特開2001-292276号公報
【特許文献2】
特開2001-339640号公報
【0006】
【発明が解決しようとする課題】
しかしながら、センサに流れる電流は微弱であるため、その電流によるキャパシタの両端電圧の変化を精度よく検出するのは困難であり、測定誤差が大きくなる。このため、取込画像にノイズが現れやすくなる。
【0007】
また、キャパシタの両端電圧を検出するために、キャパシタにSRAMやバッファ回路を接続する場合、SRAMやバッファ回路を構成するトランジスタのしきい値電圧を超えたか否かにより「0」か「1」かの判定が行われるが、トランジスタのしきい値電圧にばらつきがあるため、「0」と「1」の判定基準がずれるおそれがある。また、センサに流れる電流もばらつきがあるため、「0」と「1」の判定基準がずれるおそれがある。
【0008】
本発明は、このような点に鑑みてなされたものであり、その目的は、光リークのばらつきやトランジスタ等の電気的特性のばらつきの影響を受けることなく、画像取込みを行うことができる表示装置を提供することにある。
【0009】
本発明の一態様によれば、縦横に列設される信号線及び走査線の各交点付近に形成される表示素子と、
前記表示素子のそれぞれに対応して少なくとも一個ずつ設けられ、それぞれが指定された範囲の入射光を受光して電気信号に変換する撮像部と、
前記撮像部で変換された電気信号に応じた電荷を蓄積する電荷蓄積部と、
複数の撮像条件のそれぞれにおける前記電荷蓄積部の蓄積電荷に基づいて、前記撮像部で撮像された画像に対応するデジタル画像データを生成する信号処理部と、
前記電荷蓄積部に蓄積された電荷が所定のしきい値以上か否かを示す2値データを出力する2値データ生成部と、
前記撮影条件を段階的に昇順または降順に切り替える撮影条件切替部と、を備え、
前記信号処理部は、前記撮影条件切替部が前記撮影条件を1段階切り替えたときに、前記2値データの論理が変化した場合には、注目画素の周囲の複数画素の前記2値データの値に基づいて、前記注目画素のデジタル画像データを生成することを特徴とする表示装置が提供される。
【0012】
【発明の実施の形態】
以下、本発明に係る表示装置について、図面を参照しながら具体的に説明する。
図1は本発明に係る表示装置の第1の実施形態の概略構成図であり、画像取込み機能を有することを特徴としている。図1の表示装置は、ガラス基板31と半導体基板32とで構成されている。ガラス基板31上には、信号線及び走査線が列設される画素アレイ部1と、信号線を駆動する信号線駆動回路2と、走査線を駆動する走査線駆動回路3と、画像を取り込んで出力する検出回路&出力回路4とが設けられている。これらの回路は、例えばポリシリコンTFTにより形成されている。信号線駆動回路2は、デジタル画素データを表示素子の駆動に適したアナログ電圧に変換するD/A変換回路を含む。D/A変換回路は公知のものを用いる。半導体基板32上には、表示制御及び画像取込制御を行うロジックIC33が実装されている。ガラス基板31と半導体基板32とは、例えばFPCを介して各種信号の送受を行う。
【0013】
図2は画素アレイ部1の一部を詳細に示したブロック図である。図2の画素アレイ部1は、縦横に列設される信号線及び走査線の各交点付近に形成される画素TFT11と、画素TFT11の一端とCs線との間に接続される液晶容量C1及び補助容量C2と、各画素TFT11ごとに2個ずつ設けられる画像取込み用のセンサ12a,12bとを有する。センサ12a,12bは、不図示の電源線及び制御線に接続されている。
【0014】
図2では、画像取込みの解像度を上げるために各画素ごとに2個のセンサ12a,12bを設ける例を示しているが、センサの数に特に制限はない。
【0015】
図3は図2の一部を詳細に示した回路図である。図3に示すように、センサ12a,12bはそれぞれフォトダイオードD1,D2とセンサ切替用トランジスタQ1,Q2とを有する。フォトダイオードD1,D2は、受光した光の光量に応じた電気信号を出力する。センサ切替用トランジスタQ1,Q2は、1画素内の複数のフォトダイオードD1,D2のいずれか一つを交互に選択する。
【0016】
各画素は、2つのセンサ12a,12bと、同一画素内の2つのセンサ12a,12bで共用されるキャパシタC3と、キャパシタC3の蓄積電荷に応じた2値データを格納するバッファ13と、バッファ13への書込み制御を行うトランジスタQ3と、バッファ13及びキャパシタC3を初期化するリセット用トランジスタQ4とを有する。
【0017】
バッファ13は、スタティックRAM(SRAM)で構成され、例えば、図4に示すように、直列接続された2つのインバータIV1,IV2と、後段のインバータIV2の出力端子と前段のインバータIV1の入力端子との間に配置されるトランジスタQ5と、後段のインバータの出力端子に接続される出力用トランジスタQ6とを有する。
【0018】
信号SPOLBがハイレベルのときに、トランジスタQ5はオンし、2つのインバータIV1,IV2は保持動作を行う。信号OUTiがハイレベルのときに、保持しているデータが検出線に出力される。
【0019】
本実施形態の表示装置は、通常の表示動作を行うこともできるし、スキャナと同様の画像取込みを行うこともできる。通常の表示動作を行う場合は、トランジスタQ3はオフ状態に設定され、バッファ13には有効なデータは格納されない。この場合、信号線には、信号線駆動回路2からの信号線電圧が供給され、この信号線電圧に応じた表示が行われる。
【0020】
一方、画像取込みを行う場合は、図5に示すようにアレイ基板21の上面側に画像取込み対象物(例えば、紙面)22を配置し、バックライト23からの光を対向基板24とアレイ基板21を介して紙面22に照射する。紙面22で反射された光はアレイ基板21上のセンサ12a,12bで受光され、画像取込みが行われる。
【0021】
取り込んだ画像データは、図3に示すようにバッファ13に格納された後、検出線を介して、図1に示すロジックIC33に送られる。このロジックIC33は、本実施形態の表示装置から出力されるデジタル信号を受けて、データの並び替えやデータ中のノイズの除去などの演算処理を行う。
【0022】
図6は図1に示したロジックIC33の内部構成を示すブロック図である。図6に示すように、ロジックIC33は、画素アレイ部1への表示制御を行う表示制御部41と、センサ12a,12bの画像取込制御を行う画像取込制御部42と、ロジックIC33全体の制御を行うCPU43と、CPU43が作業用に利用するメインメモリ44とを有する。
【0023】
画像取込制御部42は、図3の検出線上の撮像データを一時的に格納するバッファメモリ45と、画像取込用の制御信号を生成する制御信号発生回路46とを有する。CPU43は、バッファメモリに格納された撮像データに基づいて取込画像の画像処理を行って表示用の画像データを生成する。
【0024】
表示制御部41は、CPU43が生成した表示用の画像データを一時的に格納するバッファメモリ47と、図1の信号線駆動回路2と走査線駆動回路3の動作タイミングを制御する制御信号を生成する制御信号発生回路48とを有する。
【0025】
画像取込みを行う場合、予め各画素のキャパシタC3に初期電荷を蓄積しておく。センサ12a,12bが白っぽい画像を取り込むと、センサ12a,12bに電流が流れ、そのセンサ12a,12bに対応するキャパシタC3の電荷が放電して、キャパシタC3の両端電圧が低下する。一方、センサ12a,12bが黒っぽい画像を取り込むと、センサ12a,12bにはあまり電流は流れず、キャパシタC3の両端電圧はほとんど変化しない。
【0026】
したがって、キャパシタC3の両端電圧を検出することにより、取込画像の濃淡を判断することができる。本実施形態では、キャパシタC3の両端電圧をSRAMからなるバッファ13に一時的に格納する。このバッファ13は、キャパシタC3の両端電圧がSRAMの初段のインバータのしきい値電圧以上であれば「1」と判断し、しきい値未満であれば「0」と判断する。
【0027】
ところが、センサ12a,12bによる光リーク電流はばらつきがは微弱であるため、キャパシタC3の両端電圧にはばらつきが生じやすく、また、SRAMを構成するトランジスタのしきい値電圧もばらつくため、同じ画像を取り込んでも、場合によって、「1」と判断されたり、「0」と判断されたりする。このようなばらつきは、取込画像のノイズとなって現れる。市販のスキャナなどに良く用いられるシリコンウェハー上に形成される光電変換素子の電流ばらつきと比べて、表示装置のアレイ基板に用いるガラス基板などの絶縁基板上に形成される光電変換素子は、電流ばらつきが大きくなる。後者は、面積が大きく、プロセス温度も低い(基板の耐熱温度に制約される)ため、均一形成が難しい。従って、表示装置特有のばらつき補償手段がなんらかの形で必要となる。また、撮像対象の微妙な階調を再現できることが望ましいが、上記ばらつきにより阻害される。以下では、特性ばらつきの大きいトランジスタおよびリーク電流ばらつきのある光電変換素子で構成されるセンサ回路でありながら、ノイズを少なくできる、あるいは、階調表示を再現することができる手段および構成を説明する。
【0028】
図6に示すCPU43は、センサ12a,12bによる撮像条件を変えて複数回にわたって画像取込みを行い、これら複数回の画像取込みの結果に基づいて、最終的な取込画像データを生成する。具体的には、図7に示すように、キャパシタC3への印加電圧Vprcを4通りに変化させて、各電圧VprcをキャパシタC3に印加した状態でそれぞれ画像取込みを行うための制御信号をガラス基板に供給する。また、ガラス基板から出力される画像取り込みの結果のデジタルデータの演算処理を行う。ガラス基板に入力する信号(デジタル画素データ、制御クロック、制御信号)も、ガラス基板から出力される信号もデジタル信号(撮像結果に基づくデジタル信号)であるから、図6に示す表示制御部と画像取り込み制御部はワンチップ半導体上に形成することが容易である。仮にガラス基板上にD/A変換回路が無い場合は、表示制御部に増幅回路(アナログ回路)が必要となり、ワンチップ化は高コストになってしまうのに比べ有利な構成である。また、近年の半導体製造プロセスの微細化進展・集積度向上に伴い、図6のCPUおよびメインメモリも、表示制御部と画像取り込み制御部とワンチップ化してしまうことも容易である。
【0029】
図8はCPU43の処理動作の一例を示すフローチャートである。まず、CPU43は、各画素ごとに設けられる図3のキャパシタC3の一端に電圧Vprc=3.5V(SRAMの初段インバータの閾値に比較的近い値。インバータの閾値は電源電圧(5V)の半分の2.5Vを中心にばらつく。)を印加して、このキャパシタC3に初期電荷を蓄積する(ステップS1)。
【0030】
次に、1回目の画像取込みを行う(ステップS2)。この場合、画像の白い部分、あるいは、白に近いグレーを読み取ったセンサ12a,12bには電流が流れ、キャパシタC3の初期電荷が放電して、キャパシタC3の両端電圧が低下する。一方、画像の黒い部分を読み取ったセンサ12a,12bには電流が流れないため、キャパシタC3の両端電圧はほとんど変化しない。
【0031】
ステップS2では、キャパシタC3の両端電圧がSRAMの初段のインバータのしきい値電圧より高い場合には、その画素は黒であると判断する。すなわち、まず、取込画像の中で、黒色の部分だけをステップS2で抽出し、抽出された画素を黒色の画素値として確定し、その他の画素を白色の画素値として、メインメモリ44に格納する(ステップS3)。キャパシタC3のプリチャージ電圧がSRAMの初段インバータの閾値電圧に比較的近い電圧としているため、センサ部に対向する画像の部分が多少なりとも白よりだと、幾ばくかのリーク電流が生じ、キャパシタC3の電位は、SRAMの初段インバータの閾値電圧より下回る確立が高くなる。逆にいえば、この状態で、C3の電圧がインバータの閾値電圧より上のままであり続けるということは、対応する画像の部分はまず間違いなく黒と判断してよいということになる。
【0032】
例えば、図9は名刺(白地に黒文字)の画像を取り込んだ例であり、図9(a)はステップS1〜S3で得られる取込画像を示している。ステップS3では、よっぽど黒っぽい画素のみを黒として検出するため、図9(a)のように、全体的に白っぽくて、文字が多少かすれた画像が得られる。
【0033】
次に、キャパシタC3の一端に電圧Vprc=4Vを印加して、このキャパシタC3に初期電荷を蓄積し(ステップS4)、2回目の画像取込みを行う(ステップS5)。この場合、1回目よりもわずかに白っぽい画素まで、黒と判断される可能性がある。
【0034】
2回目の画像取込みが終わると、1回目が白色で、2回目が黒色と判断された画素を抽出し、抽出画素の周囲8画素の1回目の画素値の平均値を計算し、この平均値を抽出画素の画素値とする(ステップS6)。
【0035】
図9(b)はステップS4〜S6で得られる取込画像を示している。図9(a)よりもわずかに白っぽい画像も黒と判断するため、図9(a)よりも全体的に黒っぽい画像が得られる。
【0036】
このステップS6では、例えば、図10の斜線部で示す画素が抽出画素であるとすると、その周囲8画素の画素値G1〜G8の平均値(G1+…+G8)/2を抽出画素の画素値とする。G1〜G8が全て白ならば、画素値は白となるが、G1〜G8に白、黒がいくつかづつあると、画素値は中間調となる。
【0037】
次に、キャパシタC3の一端に電圧Vprc=4.5Vを印加して、このキャパシタC3に初期電荷を蓄積し(ステップS7)、3回目の画像取込みを行う(ステップS8)。この場合、2回目よりもわずかに白っぽい画素まで、黒と判断される可能性がある。
【0038】
図9(c)はステップS7〜S9で得られる取込画像を示している。図9(b)よりもわずかに白っぽい画像も黒と判断するため、図9(b)よりも全体的に黒っぽい画像が得られる。
【0039】
3回目の画像取込みが終わると、2回目が白色で、3回目が黒色と判断された画素を抽出し、抽出画素の周囲8画素の1回目の画素値の平均値を計算し、この平均値を抽出画素の画素値とする(ステップS9)。
【0040】
次に、キャパシタC3の一端に電圧Vprc=5Vを印加して、このキャパシタC3に初期電荷を蓄積し(ステップS10)、4回目の画像取込みを行う(ステップS11)。この場合、3回目よりもわずかに白っぽい画素まで、黒と判断される可能性がある。
【0041】
図9(d)はステップS10〜S12で得られる取込画像を示している。図9(c)よりもわずかに白っぽい画像も黒と判断するため、図9(c)よりも全体的に黒っぽい画像が得られる。
【0042】
4回目の画像取込みが終わると、3回目が白色で、4回目が黒色と判断された画素を抽出し、抽出画素の周囲8画素の1回目の画素値の平均値を計算し、この平均値を抽出画素の画素値とする(ステップS12)。
【0043】
ステップS12の処理を行った結果として得られる画像は、図11に示すものになり、中間調まで表現でき、かつノイズも除去できることがわかる。
【0044】
図12は「T」の文字を含む画像の一例を示す図、図13は図12の点線行の画像取込みを行った結果を示す図である。図示のように、1回目の画像取込時には、画素P7のみが「H」になる。したがって、この時点では、画素P7のみ、黒色と決定され、画素P7には黒色の画素値が割り当てられる。
【0045】
次に、2回目の画像取込みを行うと、画素P9が新たに「H」となる。したがって、その周囲8画素の前回の画素値(この場合、すべて白色の画素値)の平均値を画素P9の画素値とする。
【0046】
次に、3回目の画像取込みを行うと、画素P4が新たに「H」となる。したがって、その周囲8画素の前回の画素値(この場合、すべて白色の画素値)の平均値を画素P4の画素値とする。
【0047】
次に、4回目の画像取込みを行うと、すべての画素P1〜P15が「H」になる。したがって、残りの全画素P1〜P3、P5、P6、P8、P9、P11〜P15について、その周囲8画素の前回の画素値の平均値に基づいて画素値を決定する。
【0048】
このような手法で、図12の全ラインについて図8の処理を行うと、最終的に図14のような画像が得られる。図14を見ればわかるように、画像取込み時のノイズを除去できるとともに、中間色まで再現できる。
【0049】
本実施形態では、図8のフローチャートで示したように、撮影条件を変えて複数回(回数は多いほど、画像再現の精度が高くなる。)画像取込みを行い、各回の画像取込結果に基づいて最終的な取込画像を決定するため、各回の画像取込み結果を記憶しておく必要がある。例えば、図15に示すように、各回の画像取込み結果をメインメモリ44に格納しておくようにすると、必要なメモリ容量が多くなる。セット全体の小型化の要求の強い、携帯電話などの小型情報端末への適用を考えると、限られた計算資源で可能な演算処理が望ましい。計算資源の例として、CPUが計算を行うためのデータを保持するためのメモリがあげられる。
【0050】
このため、本実施形態では、画像取込制御部42内にバッファメモリ45を設け、このバッファメモリ45に1回分の画像取込み結果を格納しておき、この画像取込み結果をメインメモリ44に転送する。CPU43は、図8のフローチャートに従ってメインメモリ44のデータを利用して1回分の処理を行い、その処理結果をメインメモリ44の他の記憶領域に格納する。その間に、バッファメモリ45は次の回の画像取込み結果を格納する。以後、同様の動作を繰り返すことにより、最終的な取込画像が得られる。
【0051】
この場合、図16に示すように、メインメモリ44には、1回分の画像取込み結果のみが格納されるので、メインメモリ44の容量を削減できる。
【0052】
このように、本実施形態では、撮影条件を変えて複数回画像取込みを行った結果に基づいて、最終的な取込画像を決定するため、センサ12a,12bの特性ばらつきやSRAMのしきい値電圧のばらつき等の影響を受けずに画像取込みを行うことができ、ノイズが少なく、中間調まで再現できる取込画像が得られる。
【0053】
上述した実施形態では、複数の撮影条件として、キャパシタC3に印加する電圧を変える例を説明したが、キャパシタC3に印加する電圧を変える代わりに、画像取込みを行う時間を各撮影条件ごとに変えてもよい。あるいは、液晶の透過率を変えても良い。条件のバリエーションの具体的な例を図9に示したが、他にも同様の趣旨でのバリエーションが可能である。
【0054】
また、キャパシタC3に印加する電圧を変えるとともに、画像取込みを行う時間を変化させてもよい。この場合、撮影条件の数をより増やすことができる。
【0055】
(第2の実施形態)
撮像対象の濃淡は必ずしも一様ではなく、場所によって黒の密度が異なる。例えば、図17(a)の「東芝松下ディスプレイ」という文字をセンサで撮像する場合、図17(b)のような撮像結果が得られる。図示のように、「東」という文字は他の文字よりも黒の密度が高いため、黒くつぶれてしまう。逆に、「レ」や「イ」という文字は黒の密度が低いため、ほとんど線が消えかかっている。
【0056】
このように、黒の密度の高い文字が黒つぶれするのは、周囲の白色紙面/ガラス基板界面での多重反射光が入射しにくいためであり、逆に黒の密度が低い文字の線が消えかかるのは、多重反射光が余計に入射して黒線幅が細くなるためである。
【0057】
そこで、以下に説明する第2の実施形態では、撮像対象の部分的な黒密度のばらつきを考慮に入れて画像取込みを行うことを特徴とする。その際、単なるセンサアレイと異なり、表示装置に一体化されていることを積極的に利用して、センサ等の特性ばらつきを各画素の輝度を調節することによって補償する。
【0058】
図18は本発明に係る表示装置の第2の実施形態の全体構成を示すブロック図である。図18の表示装置は、画素アレイ部1と駆動回路の一部が形成されたガラス基板31と、このガラス基板31にフレキシブルケーブル(FPC)51で接続された制御回路基板52とを備えている。
【0059】
ガラス基板31上には、画素TFT11及び画像読取用センサ12が列設された画素アレイ部1と、信号線を駆動する信号線駆動回路2と、走査線を駆動する走査線駆動回路3と、センサ12を制御するセンサ制御回路53と、センサ12の撮像結果を出力する信号処理出力回路54とが形成されている。ガラス基板31上の各回路は、例えばポリシリコンTFTにより形成される。
【0060】
制御回路基板52上には、ガラス基板31上の各回路を制御するコントロールIC55と、画像データ等を記憶するメモリ56と、ガラス基板31及び制御回路基板52で使用する各種の直流電圧を出力する電源回路57とが実装されている。なお、コントロールIC55とは別個にCPUを設けてもよいし、メモリ56や電源回路57をコントロールIC55と一体化してもよいし、ディスクリート部品を制御回路基板52上に実装してもよい。
【0061】
図19は、ガラス基板31上の信号線駆動回路2、走査線駆動回路3、センサ制御回路53及び信号処理出力回路54と、制御回路基板52上のコントロールIC55及びメモリ56との接続関係を示すブロック図である。
【0062】
図示のように、コントロールIC55の内部には、表示制御部41、画像取込制御部42及びCPUが内蔵されている。表示制御部41は、信号線駆動回路2及び走査線駆動回路3に対して、デジタル画素データと、同期信号やクロック信号等の制御信号とを送信する。画像取込制御部42はセンサ制御回路53及び信号処理出力回路54に対して制御信号を送信し、信号処理出力回路54からの撮像データ及び必要に応じて撮像データの位置を明示するための同期信号を受信する。表示制御部41の内部にはバッファメモリ47及び制御信号発生回路48が設けられ、画像取込制御部42の内部にもバッファメモリ45及び制御信号発生回路46が設けられている。
【0063】
図20はガラス基板31の詳細構成を示すブロック図である。本実施形態の画素アレイ部1は、水平方向320画素×垂直方向240画素の表示解像度を有する。画素は水平方向に赤、青、緑の部分に分割され、それぞれごとに信号線が設けられる。信号線の総数は、320×3=960本で、走査線の総数は240本である。
【0064】
走査線駆動回路3は、240段のシフトレジスタ61と、SHUT(誤動作防止回路)62と、レベルシフタ63と、マルチプレクサ(MUX回路)64と、バッファ65とを有する。
【0065】
信号処理出力回路54は、960個のプリチャージ回路66と、3選択デコーダ67と、320段のシフトレジスタ68と、8個の出力バッファ69とを有する。
【0066】
図21は走査線駆動回路3の詳細構成を示す回路図である。図21で特徴的な部分は、レベルシフタ63の後段にMUX回路64を設けたことである。このMUX回路64は、走査線を1ラインごとにオンするか、全走査線を同時にオンするかを切り替える。全走査線を同時にオンするのは、センサ12による撮像結果を格納するキャパシタC3に初期電荷を蓄積するためである。
【0067】
このように、MUX回路64を設けることにより、キャパシタC3に初期電荷を蓄積するか否かを切り替える専用のTFTが不要となり、回路規模を削減できる。
【0068】
図22は信号処理出力回路54の詳細構成を示すブロック図である。図22の信号処理出力回路54は、同期信号を出力する同期信号発生回路71と、120本の信号線から供給される撮像データを1本のシリアルデータに変換する8つのP/S変換回路72と、各P/S変換回路72から出力されたシリアルデータをバッファリングする出力バッファ73と、撮像データの平均階調を検出するカウンタ74とを有する。ここで「平均階調」とは、出力データの階調を複数画素にわたって平均したものをいう。最終的に256階調の画像を構成しようとする場合、10画素中5画素が白、残り5画素が黒のデータの場合、平均階調は、256[階調]x5[画素]/10[画素]=128[階調]とする。
【0069】
図23は同期信号発生回路71の詳細構成を示すブロック図である。図23の同期信号発生回路71は、NANDゲート75及びクロック制御されるD型F/F76を有し、D型F/F76の後段には出力バッファ73が接続されている。絶縁基板上に形成されるNANDゲート等の組み合わせ回路のみでは、TFTの特性ばらつきのため出力データに対する位相ばらつきが大きくなり、同期信号の役割を果たせないことがある。そこで図23のように絶縁基板上のクロックによって制御されるD型F/Fを設けることによって、絶縁基板上のクロックとの位相差を小さくすることが好ましい。
【0070】
図24はP/S変換回路72の詳細構成を示すブロック図である。図24のP/S変換回路72は、3入力1出力のデコーダ77と、ラッチ78と、40段のシフトレジスタ79とを有する。デコーダ77は、図25のような回路で構成される。ラッチ78は、図26のような回路で構成される。シフトレジスタの制御に用いるクロックは図23のD型F/Fの制御に用いるクロックと共通化とすることによって、データと、同期信号との位相差を小さくすることができる。
【0071】
図27は出力バッファ73の詳細構成を示すブロック図である。図示のように、複数のバッファ(インバータ)80を縦続接続して構成される。後段のバッファほど、各インバータを構成するTFTのチャネル幅を大きくして必要な外部負荷(フレキシブルケーブル(FPC)51等)駆動力を確保する。
【0072】
図28は画素アレイ部1の1画素分の詳細回路図、図29はガラス基板31上の1画素分のレイアウト図である。図示のように、1画素は、RGBの3つの副画素81r,81g,81bからなり、各副画素は、画素TFT11と、補助容量Csに電荷を蓄積するか否かを制御する表示制御TFT82と、画像取込センサ12と、センサ12の撮像結果を格納するキャパシタC3と、キャパシタC3の蓄積電荷に応じた2値データを格納するSRAM83と、キャパシタC3に初期電荷を蓄積するための初期化用TFT84と、SRAM83のデータ保持用TFT85とを有する。ここで、各画素の輝度は、補助容量Csに蓄積された電荷に基づいて決まる画素電極電位と、対向基板上に形成されたコモン電極の電位との差によって階調制御される。
【0073】
キャパシタC3の初期化を行う場合は、画素TFT11と初期化用TFT84をオンする。表示素子の輝度を設定するためのアナログ電圧(アナログ画素データ)を補助容量Csに書き込む場合は、画素TFT11と表示制御TFT82をオンする。SRAM83のデータ保持(リフレッシュ)を行う場合は、初期化用TFT84とデータ保持用TFT84をオンする。SRAM83に格納された撮像データを信号線に供給する場合は、画素TFT11とデータ保持用TFT85をオンする。
【0074】
図30は本実施形態の表示装置の動作を説明する図である。通常の表示を行う場合には、モードm1の動作を行う。一方、センサ12による画像取込を行う場合は、まずモードm1の動作を行い全画素の輝度を所定値に設定する。次にモードm2で全画素のキャパシタC3のプリチャージ(初期電荷の蓄積)を行う。次に、モードm3で1画面分の赤色成分の画像取込を行う。次に、モードm4で1画面分の緑色成分の画像取込を行う。そして最後に、モードm5で1画面分の青色成分の画像取込を行う。
【0075】
図31〜図33はモードm1〜m5の動作タイミング図である。以下、これらの図を用いてモードm1〜m5の動作タイミングを順に説明する。
【0076】
モードm1では、図31の時刻t1〜t2に示すように、走査線駆動回路3は走査線を順に駆動し、そのタイミングに合わせて、信号線駆動回路2は各水平ラインごとに信号線にアナログ画素データを供給して画素表示を行う。アナログ画素データは、コントロールIC55から出力されるデジタル画素データを公知のD/A変換回路によって変換して得る。D/A変換回路は公知の技術(特開2000-305535等)によってガラス基板上に信号線駆動回路として薄膜形成する。
【0077】
モードm2では、図32の時刻t3に示すように、走査線駆動回路3はすべての走査線を同タイミングで駆動する。全画素のセンサ容量C3にプリチャージ電圧(5V)が蓄積される。時刻t4で初期化用TFT84とデータ保持用TFT85がともにオンし、SRAM83はリフレッシュ動作を行う。時刻t3から時刻t4の間にセンサ容量C3のプリチャージが完了していなくても、SRAM83のリフレッシュ動作により、全てのセンサ容量C3のプリチャージ電圧がSRAMの電源電圧(5V)に揃う。
【0078】
モードm3では、図32の時刻t5〜t6に示すように、各水平ラインごとに赤色成分の撮像データが信号線に供給される。各信号線に供給された赤色成分の撮像データは、図22に示すP/S変換回路72でシリアルデータに変換されて、8本のデータ線で外部に出力される。
【0079】
モードm4では、図33の時刻t7に示すように、各水平ラインごとに緑色の撮像データが信号線に供給される。モードm5では、図33の時刻t8に示すように、各水平ラインごとに青色の撮像データが信号線に供給される。
【0080】
図18のコントロールIC55は、320画素×240画素の表示領域を、図34に示すように40画素×30画素からなるブロック単位に分割し(水平方向8ブロック×垂直方向8ブロックが形成される)、各ブロックごとに表示輝度を個別に設定した状態で、センサ12による撮像を行う。これは本発明の特徴のひとつである。従来のCMOSイメージセンサと異なり、単にセンサを形成しただけではなく、各画素ごとの輝度制御手段を撮像時に積極的に活用することによって、センサやTFT特性の面内ばらつきを補償し、撮像画面の高品質化(均一性確保等)を図ることができる。
【0081】
図35は図18のコントロールIC55が行う処理動作の一例を示すフローチャートである。まず、各ブロックが所定の基準輝度(例えば、最大輝度の80%)になるように各ブロックの画素表示を行いながら、撮像時間を変化させて、複数回の撮像を行う(ステップS21)。ここでは、例えば、撮像時間を10msec〜50msecまで5msec単位で切替ながら9回撮像(試行撮像)を行う。
【0082】
次に、試行撮像結果に基づいて(撮像時間対平均階調のグラフの内挿によって)各ブロックごとに、ブロック内の平均階調が略中央値(256階調の場合は、128階調の値)になるような撮像時間t(m,n)を求める(ステップS22)。t(m,n)はセンサのリーク電流ばらつき、TFTの特性ばらつき、撮像対象の光反射特性、撮像対象の色、図形や文字などの線分の密度分布などによって様々に変化する。
【0083】
図36に示すように、撮像時間を変えることで、平均階調は大きく変化するため、上述したステップS22では、ブロックごとに最適な撮像時間を求める。
【0084】
次に、求めた撮像時間t(m,n)が基準時間(例えば、30msec)未満か否かをブロックごとに判定する(ステップS23)。基準時間未満のブロックについては、表示輝度Yを基準輝度(例えば、最大輝度の80%)よりも低くし(ステップS24)、基準時間以上のブロックについては、表示輝度Yを基準輝度以上にする(ステップS25)。つまり、最適な撮像時間のばらつきを表示素子の輝度(撮像対象に照射する光量)で補償するのである。このような補償方法は従来のCMOSイメージセンサの技術の延長にはない。なお、撮像時間をブロックごとに変えるのは制御が複雑となり実用的でない。
【0085】
より具体的には、例えば、以下の(1)式に基づいて、各ブロックの表示輝度Yを設定する。ただし、mは行、nは列を表している。
【0086】
【数1】

Figure 0004303954
(1)の計算結果が100%を超える場合には、Y(m,n) = 100%とする。なお、式(1)は例であって、表示素子の特性、センサの特性、撮像対象の特性に応じて変形すべきである。要は最適撮像時間のばらつきを表示輝度で保証するようなものであればよい。
【0087】
次に、撮像時間を例えば0.5msec刻みで変えながら、撮像時間10msec〜50msecまで81枚の撮像を行う(ステップS26;本撮像)。
【0088】
次に、81枚の撮像結果の平均値を計算し、最終的な撮像データを得る(ステップS27)。例えば、図37はステップS27で得られる撮像データの一例を示している。このとき、撮像時間を同じ間隔で変えながら撮像を行うのではなく、図37及び図38に示すように30msec付近の撮像を多めに行うなどの重み付けを行って、例えば、81枚より少ない回数の撮像結果を用いて平均値を計算してもよい。全体の処理時間を短縮できる。あるいは、平均値を計算する際に、各撮像結果に重み付けをしてもよい。
【0089】
図35のような処理を行うことで、図34に示すように撮像対象に黒密度のばらつきがあっても、図39に示すように、部分的な黒つぶれやかすれのない良好な撮像結果が得られる。
【0090】
このように、第2の実施形態では、撮像対象の黒密度を事前に(試行撮像によって)調べて、撮像対象に適した表示輝度をブロック単位で設定した状態で、センサ12による撮像を行うため、部分的な黒つぶれやかすれのない、均一な画質の撮像画像が得られる。
【0091】
本実施形態では、撮像対象の黒密度の分布の偏りに起因する撮像結果の黒つぶれを解決する手法を説明したが、センサのリーク電流の偏りやTFTの特性ばらつきの偏り等に起因する撮像結果の画質劣化の解決手段としても、同様の効果を奏する。
【0092】
また、試行撮像の後の本撮像の動作を次のような手順で行ってもよい。
(R1)図30のモードm1を行い、液晶の表示を全面赤表示にする。但し試行撮像に基づいて各ブロックごとに階調は変化させる。
(R2)モードm2を行い、全てのセンサ容量のプリチャージを行う。
(R3)モードm3,m4,m5を行い、赤信号線、緑信号線及び青信号線に属すする画素の撮像データも出力する。
(G1)モードm1を行い、液晶の表示を全面緑表示にする。但し試行撮像に基づいて各ブロックごとに階調は変化させる。
(G2)モードm2を行い、全てのセンサ容量のプリチャージを行う。
(G3)モードm3,m4,m5を行い、赤信号線、緑信号線及び青信号線に属すする画素の撮像データも出力する。
(B1)モードm1を行い、液晶の表示を全面青表示とする。但し試行撮像に基づいて各ブロックごとに階調は変化させる。
(B2)モードm2を行い、全てのセンサ容量のプリチャージを行う。
(B3)モードm3,m4,m5を行い、赤信号線、緑信号線及び青信号線に属すする画素の撮像データも出力する。
【0093】
一見、表示を全面赤として撮像を行う際、緑画素及び青画素のセンサのデータは無意味と思い込みやすいがそうではない。とくに光源(液晶層の背面に設けるバックライトの光が拡散光であり撮像面にいろいろな角度から光が照射されるような場合で、かつ、図5のように液晶セルの観察面側にセンサアレイが配置される構成の場合に意義がある。従来の密着CMOSイメージセンサと異なり、センサは撮像対象と密着できず、d(ガラス基板厚+偏光板などの光学フィルム厚)程度(0.2乃至0.7mm)は離れる。バックライト光は確かに赤画素からのみ発するが、撮像対象での反射光は適当に拡散する。拡散範囲はd程度であり画素ピッチはd程度かそれより小さい。したがって、緑画素及び青画素のセンサにも撮像対象に基づく光が入射する。上述の(R1)〜(B3)の処理を行うことにより、水平方向により高解像度な撮像結果を得ることができる。以下撮像時間を変えながら複数回繰り返して平均化処理する部分は詳述した実施形態と同様なので省略する。
【0094】
試行撮像では結局、各ブロックごとの平均階調を知れば足りることに着目すると、試行撮像においては、カウンタによる平均階調の計数結果のみブロックごとに出力するように構成してもよい。8個のデータ出力回路を停止して外部負荷駆動するための消費電力を節約することができる。
【0095】
また、本実施形態ではSRAMを画素内に設け、▲1▼センサの微弱な電流の増幅、▲2▼撮像後データを出力するまでの間のデータ保持をさせているが、SRAMに限定されない。ソースフォロアで▲1▼の電流増幅をしてもよい。撮像後データを出力するまでの間、リークなどのためデータを保持し続けることができない場合は、撮像直後にデータを出力するような制御回路及びシーケンスを用意すればよい。
【0096】
また、表示画面を区分してブロックごとに撮像時の表示輝度を調節する例を説明したが、対角画面寸法が比較的小さい表示装置(2インチ程度以下の携帯電話向け等)の場合や、センサやTFTの特性のチップ内ばらつきが小さい場合は、画面を分割せずに(分割数=1として)適用してもよい。その場合さらに、試行撮像と本撮像を分けずに次のように行ってもよい。
【0097】
すなわち、(1)まず、撮像時間をt0=10msec(どんな撮像対象でも殆どセンサに光リークが生じず、黒つぶれ画面が得られるような時間)で最初の撮像データ出力と、平均階調の計数を行う。最初の撮像データはコントロールIC55等のメモリに保存する。
【0098】
(2)t=t0+Δt(例えばΔt=0.5msec)として2回目の撮像をし、平均階調の計数を行う。
【0099】
(3)平均階調が所定値未満であれば、撮像データを出力することなく、撮像時間をt=t+2Δtとして、撮像と平均階調の計数を行う。
【0100】
(4)計数結果が所定値以上であれば撮像データを出力してコントロールIC55等のメモリに加算する。
【0101】
(5)(2)〜(4)を平均階調が256階調程度になるまで撮像時間tを適当に増やしながら繰り返す。
【0102】
上述した(1)〜(5)によりメモリ上に完成する画像を上述の実施形態で得られるものと同等の高品位な撮像結果と考えることができる。しかも画像演算のためのメモリは1フレーム程度しか要しない。ハード資源に制約のある携帯電話などで特に有効である。
【0103】
(第3の実施形態)
第2の実施形態の場合、ブロックごとに表示輝度を設定するため、場合によっては、隣接するブロック同士が著しく表示輝度が異なる場合もありうる。
【0104】
図40は第2の実施形態における各ブロックの表示輝度の一例を示す図であり、横軸はブロックの位置、縦軸は表示輝度を表している。理解がしやすいように、特定の1行に属するブロックを抜き出した。また、図41は第2の実施形態における隣接する4ブロックの撮像画像を図式化した図である。これらの図に示すように、隣接するブロック同士の表示輝度が不連続に変化している。このため、隣接するブロック同士で輝度差が大きいと、白密度の多い撮像対象を撮像したときに、図41のような色ムラが起きるおそれがある。たとえば同じ白地のはずなのに、撮像結果は市松状のブロックごとに白さが違って見えてしまうようなことが起こる。
【0105】
そこで、第3の実施形態では、各ブロック内の中央画素については、図35と同様の処理により表示輝度を設定し、中央画素から徐々に表示輝度を変化させ、隣接ブロックの境界付近の輝度差があまり生じないようにする。
【0106】
図42は図40と同じ条件で撮像を行った場合の第3の実施形態の処理結果を示す図、図43は第3の実施形態における隣接する4ブロックの撮影画像を図式化した図である。これらの図に示すように、隣接するブロック間で輝度差が大きく変化しなくなる。
【0107】
このように、第3の実施形態では、ブロックの中央画素から周辺にかけて徐々に輝度を変化させ、隣接するブロック間で輝度が大きく変化しないようにしたため、ブロック間の輝度差による撮像画像の色ムラがなくなる。
【0108】
(第4の実施形態)
第4の実施形態は、センサ12による撮像結果を、予め用意した基準パターンとパターンマッチングするものである。
【0109】
図44は本発明に係る表示装置の第4の実施形態の概略構成を示すブロック図である。図44の表示装置は、図19の構成に加えて、複数の基準パターンを格納する基準パターン格納部86を備えている。
【0110】
図45は基準パターン格納部に格納されている基準パターンの一例である。各基準パターン1a,1b,1c,2a,2b,2c,2d,3a,3b,3c,3dは、8画素×8画素のサイズであり、黒で示した部分がパターンを示している。なお、基準パターンのサイズや種類は図示したものに限定されない。
【0111】
図46は本実施形態のコントロールIC55が行う処理動作を示すフローチャートである。以下では、仮に図47のような撮像対象をセンサ12で撮像した結果、図48のような撮像データが得られたとして、図46のフローチャートの処理動作を説明する。
【0112】
本実施形態のコントロールIC55は、センサ12の撮像データを基準パターン格納部86に格納されているすべての基準パターンと比較する(ステップS31)。
【0113】
図45の各基準パターンの上部に付された数字は、図48の撮像データとの不一致画素数である。コントロールIC55は、不一致画素数の少ない基準パターンをいくつか選択する(ステップS32)。例えば、コントロールIC55が図45の4つの基準パターン1a,1b,1c,1dを選択したとする。
【0114】
次に、コントロールIC55は、選択した基準パターンの明暗を反転させたパターン(図49の反転パターンn1a,n1b,n1c,n1d)を生成し(ステップS33)、この反転パターンを画素アレイ部1に順に表示させながら、センサ12による撮像を繰返し行う(ステップS34)。この場合、図49の反転パターンn1a,n1b,n1c,n1dの白部分のみ光が透過するため、センサ12の撮像データは図50のようになる。撮像データr1aは基準パターン1aと反転パターンn1aに対応し、撮像データr1bは基準パターン1bと反転パターンn1bに対応し、撮像データr1cは基準パターン1cと反転パターンn1cに対応し、撮像データr1dは基準パターン1dと反転パターンn1dに対応する。
【0115】
次に、撮像データの中から、白色画素数がより少ない基準パターンをいくつか選択する(ステップS35)。例えば、図50の例では、2つの基準パターン1a,1bを選択する。
【0116】
次に、選択した基準パターンに基づいて、最終的な撮像結果を得る(ステップS36)。ここでは、選択した基準パターンと最初に得られた撮像データとを平均化するなどして、図51に示す最終的な撮像結果を得る。
【0117】
このように、第4の実施形態では、予め基準パターンを複数種類用意し、センサ12による撮像データを基準パターンと比較して最終的な撮像データを生成するため、センサ12の解像度をあまり高くすることなく、高品質の撮像データが得られる。特に、本実施形態は、形状が予めパターン化されている撮像対象を撮像する場合に特に効果が大きい。
【0118】
上述した各実施形態では、本発明に係る表示装置を液晶表示装置に適用した例について説明したが、本発明は、EL(Electroluminescense)表示装置やPDP(Plasma Display Panel)などの他の表示装置にも適用可能である。
【0119】
【発明の効果】
以上詳細に説明したように、本発明によれば、複数の撮影条件で画像取込みを行った結果に基づいて取込画像のデジタル画像データを生成するため、撮像部の特性ばらつき等の影響を受けることなく画像取込みを行うことができ、取込画像の品質を向上できる。また、複数回の画像取り込みおよび演算を行うにもかかわらず、多くの計算資源を要しない。
【0120】
また、本発明によれば、表示素子の表示輝度をブロックごとに設定した状態で撮像部による撮像を行うため、撮像対象に部分的な黒密度のばらつきがあっても、黒つぶれやかすれのない高品質の撮像画像が得られる。
【0121】
さらに、本発明は、撮像部による撮像結果を、予め用意した基準パターンと比較して、その比較結果に基づいて最終的な撮像データを生成するため、撮像部の解像度を上げなくても、撮像対象に忠実な撮像データが得られる。
【図面の簡単な説明】
【図1】本発明に係る表示装置の第1の実施形態の概略構成図。
【図2】画素アレイ部1の一部を詳細に示したブロック図。
【図3】図2の一部を詳細に示した回路図。
【図4】 SRAMの内部構成を示す回路図。
【図5】表示装置の断面図。
【図6】図1に示したロジックICの内部構成を示すブロック図。
【図7】キャパシタに印加する電圧を切り替える例を示す図。
【図8】CPUの処理動作の一例を示すフローチャート。
【図9】名刺の画像を取り込む例を示す図。
【図10】周囲8画素の平均を取る様子を示す図。
【図11】図8の処理結果を示す画像の例を示す図。
【図12】「T」の文字を含む画像の一例を示す図。
【図13】図12の点線行の画像取込みを行った結果を示す図。
【図14】図13の画像を取り込んだ結果として最終的に得られる図。
【図15】各撮影条件での画像取込み結果を別個にメインメモリに格納する例を示す図。
【図16】メインメモリの容量を削減する例を示す図。
【図17】(a)は撮像対象の一例を示す図、(b)は撮像結果の一例を示す図。
【図18】本発明に係る表示装置の第2の実施形態の全体構成を示すブロック図。
【図19】ガラス基板上の信号線駆動回路、走査線駆動回路、センサ制御回路及び信号処理出力回路と、制御回路基板上のコントロールIC及びメモリとの接続関係を示すブロック図。
【図20】ガラス基板31の詳細構成の一例を示すブロック図。
【図21】走査線駆動回路3の詳細構成の一例を示す回路図。
【図22】信号処理出力回路54の詳細構成の一例を示すブロック図。
【図23】同期信号発生回路71の詳細構成の一例を示すブロック図。
【図24】 P/S変換回路72の詳細構成の一例を示すブロック図。
【図25】デコーダの内部構成の一例を示す回路図。
【図26】ラッチの内部構成の一例を示す回路図。
【図27】出力バッファ73の詳細構成を示すブロック図。
【図28】画素アレイ部1の1画素分の詳細回路図。
【図29】ガラス基板31上の1画素分のレイアウト図。
【図30】本実施形態の表示装置の動作を説明する図。
【図31】モードm1の動作タイミング図。
【図32】モードm2,m3の動作タイミング図。
【図33】モードm4,m5の動作タイミング図。
【図34】ブロック分割を説明する図。
【図35】図18のコントロールIC55が行う処理動作の一例を示すフローチャート。
【図36】撮像時間と平均階調との関係を示す図。
【図37】ステップS7で得られる撮像データの一例を示す図。
【図38】平均階調増分を説明する図。
【図39】本実施形態の撮像結果の一例を示す図。
【図40】第2の実施形態における各ブロックの表示輝度の一例を示す図。
【図41】第2の実施形態における隣接する4ブロックの撮像画像を図式化した図。
【図42】図40と同じ条件で撮像を行った場合の第3の実施形態の処理結果を示す図。
【図43】第3の実施形態における隣接する4ブロックの撮影画像を図式化した図。
【図44】本発明に係る表示装置の第4の実施形態の概略構成を示すブロック図。
【図45】基準パターン格納部に格納されている基準パターンの一例を示す図。
【図46】本実施形態のコントロールIC55が行う処理動作を示すフローチャート。
【図47】撮像対象の一例を示す図。
【図48】撮像結果の一例を示す図。
【図49】反転パターンの一例を示す図。
【図50】センサの撮像データの一例を示す図。
【図51】最終的な撮像結果の一例を示す図。
【符号の説明】
1 画素アレイ部
2 信号線駆動回路
3 走査線駆動回路
4 検出回路&出力回路
11 画素TFT
12a,12b センサ
13 バッファ
21 アレイ基板
22 紙面
23 バックライト
24 対向基板
31 ガラス基板
32 半導体基板
33 ロジックIC
52 制御回路基板
53 センサ制御回路
54 信号処理出力回路
55 コントロールIC
56 メモリ
86 基準パターン格納部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a display device having an image capturing function.
[0002]
The liquid crystal display device includes an array substrate on which signal lines, scanning lines, and pixel TFTs are arranged, and a drive circuit that drives the signal lines and the scanning lines. With the recent progress and development of integrated circuit technology, a process technology for forming a part of a drive circuit on an array substrate has been put into practical use. As a result, the entire liquid crystal display device can be made light and thin, and it is widely used as a display device for various portable devices such as mobile phones and notebook computers.
[0003]
By the way, a display device having an image capturing function in which a contact area sensor for capturing an image is arranged on an array substrate has been proposed (see, for example, Patent Documents 1 and 2).
[0004]
A conventional display device having this type of image capture function changes the charge amount of a capacitor connected to the sensor in accordance with the amount of light received by the sensor, and detects the voltage across the capacitor, thereby capturing the image. It is carried out.
[0005]
[Patent Document 1]
Japanese Patent Laid-Open No. 2001-292276
[Patent Document 2]
JP 2001-339640 A
[0006]
[Problems to be solved by the invention]
However, since the current flowing through the sensor is weak, it is difficult to accurately detect a change in the voltage across the capacitor due to the current, resulting in a large measurement error. For this reason, noise tends to appear in the captured image.
[0007]
In addition, when an SRAM or a buffer circuit is connected to the capacitor in order to detect the voltage across the capacitor, it is “0” or “1” depending on whether the threshold voltage of the transistors constituting the SRAM or the buffer circuit is exceeded. However, since the threshold voltages of the transistors vary, the determination criteria of “0” and “1” may be shifted. In addition, since the current flowing through the sensor also varies, there is a possibility that the determination criteria of “0” and “1” are shifted.
[0008]
The present invention has been made in view of these points, and an object of the present invention is to provide a display device capable of capturing an image without being affected by variations in light leakage and variations in electrical characteristics of transistors and the like. Is to provide.
[0009]
According to one aspect of the present invention, display elements formed in the vicinity of intersections of signal lines and scanning lines arranged in rows and columns,
At least one image sensor corresponding to each of the display elements, each receiving an incident light in a specified range and converting it into an electrical signal;
A charge accumulating unit that accumulates electric charges according to the electrical signal converted by the imaging unit;
A signal processing unit that generates digital image data corresponding to an image captured by the imaging unit based on accumulated charges of the charge storage unit in each of a plurality of imaging conditions;
A binary data generation unit that outputs binary data indicating whether or not the charge accumulated in the charge accumulation unit is equal to or greater than a predetermined threshold;
A shooting condition switching unit that switches the shooting conditions step by step in ascending or descending order,
If the logic of the binary data changes when the shooting condition switching unit switches the shooting condition by one step, the signal processing unit may change the value of the binary data of a plurality of pixels around the target pixel. Generating digital image data of the pixel of interest based on Display device Is provided.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a display device according to the present invention will be specifically described with reference to the drawings.
FIG. 1 is a schematic configuration diagram of a first embodiment of a display device according to the present invention, which is characterized by having an image capturing function. The display device shown in FIG. 1 includes a glass substrate 31 and a semiconductor substrate 32. On the glass substrate 31, a pixel array section 1 in which signal lines and scanning lines are arranged, a signal line driving circuit 2 for driving signal lines, a scanning line driving circuit 3 for driving scanning lines, and an image are captured. Is provided with a detection circuit & output circuit 4 for outputting at the same time. These circuits are formed by, for example, polysilicon TFTs. The signal line driving circuit 2 includes a D / A conversion circuit that converts digital pixel data into an analog voltage suitable for driving the display element. A known D / A conversion circuit is used. On the semiconductor substrate 32, a logic IC 33 for performing display control and image capture control is mounted. The glass substrate 31 and the semiconductor substrate 32 transmit and receive various signals through, for example, an FPC.
[0013]
FIG. 2 is a block diagram showing a part of the pixel array unit 1 in detail. 2 includes a pixel TFT 11 formed in the vicinity of each intersection of a signal line and a scanning line arranged in rows and columns, a liquid crystal capacitor C1 connected between one end of the pixel TFT 11 and the Cs line, and The auxiliary capacitor C2 and two image capturing sensors 12a and 12b provided for each pixel TFT11 are provided. The sensors 12a and 12b are connected to a power line and a control line (not shown).
[0014]
Although FIG. 2 shows an example in which two sensors 12a and 12b are provided for each pixel in order to increase the resolution of image capture, the number of sensors is not particularly limited.
[0015]
FIG. 3 is a circuit diagram showing a part of FIG. 2 in detail. As shown in FIG. 3, the sensors 12a and 12b have photodiodes D1 and D2 and sensor switching transistors Q1 and Q2, respectively. The photodiodes D1 and D2 output an electrical signal corresponding to the amount of received light. The sensor switching transistors Q1 and Q2 alternately select any one of the plurality of photodiodes D1 and D2 in one pixel.
[0016]
Each pixel includes two sensors 12a and 12b, a capacitor C3 shared by the two sensors 12a and 12b in the same pixel, a buffer 13 for storing binary data corresponding to the accumulated charge in the capacitor C3, and a buffer 13 A transistor Q3 that controls writing to the buffer, and a reset transistor Q4 that initializes the buffer 13 and the capacitor C3.
[0017]
The buffer 13 is composed of a static RAM (SRAM). For example, as shown in FIG. 4, two inverters IV1 and IV2 connected in series, an output terminal of a subsequent inverter IV2, and an input terminal of a previous inverter IV1 And an output transistor Q6 connected to the output terminal of the subsequent stage inverter.
[0018]
When the signal SPOLB is at a high level, the transistor Q5 is turned on and the two inverters IV1 and IV2 perform a holding operation. When the signal OUTi is at a high level, the retained data is output to the detection line.
[0019]
The display device of the present embodiment can perform a normal display operation, and can also capture an image similar to a scanner. When a normal display operation is performed, the transistor Q3 is set to an off state, and valid data is not stored in the buffer 13. In this case, the signal line voltage from the signal line driving circuit 2 is supplied to the signal line, and display according to the signal line voltage is performed.
[0020]
On the other hand, when image capture is performed, an image capture target (for example, paper surface) 22 is arranged on the upper surface side of the array substrate 21 as shown in FIG. Irradiates the paper surface 22 via The light reflected by the paper surface 22 is received by the sensors 12a and 12b on the array substrate 21, and an image is captured.
[0021]
The captured image data is stored in the buffer 13 as shown in FIG. 3, and then sent to the logic IC 33 shown in FIG. 1 via the detection line. The logic IC 33 receives the digital signal output from the display device of the present embodiment and performs arithmetic processing such as data rearrangement and noise removal in the data.
[0022]
FIG. 6 is a block diagram showing an internal configuration of the logic IC 33 shown in FIG. As illustrated in FIG. 6, the logic IC 33 includes a display control unit 41 that performs display control on the pixel array unit 1, an image capture control unit 42 that performs image capture control of the sensors 12 a and 12 b, and the entire logic IC 33. It has CPU43 which performs control, and main memory 44 which CPU43 uses for work.
[0023]
The image capture control unit 42 includes a buffer memory 45 that temporarily stores imaging data on the detection line in FIG. 3 and a control signal generation circuit 46 that generates a control signal for image capture. The CPU 43 performs image processing of the captured image based on the imaging data stored in the buffer memory and generates display image data.
[0024]
The display control unit 41 generates a buffer memory 47 for temporarily storing the display image data generated by the CPU 43, and a control signal for controlling the operation timing of the signal line driving circuit 2 and the scanning line driving circuit 3 in FIG. And a control signal generation circuit 48.
[0025]
When capturing an image, initial charges are accumulated in the capacitor C3 of each pixel in advance. When the sensors 12a and 12b capture a whitish image, a current flows through the sensors 12a and 12b, the charge of the capacitor C3 corresponding to the sensors 12a and 12b is discharged, and the voltage across the capacitor C3 decreases. On the other hand, when the sensors 12a and 12b capture black images, current does not flow so much in the sensors 12a and 12b, and the voltage across the capacitor C3 hardly changes.
[0026]
Therefore, the density of the captured image can be determined by detecting the voltage across the capacitor C3. In the present embodiment, the voltage across the capacitor C3 is temporarily stored in the buffer 13 made of SRAM. The buffer 13 determines “1” if the voltage across the capacitor C3 is equal to or higher than the threshold voltage of the first-stage inverter of the SRAM, and determines “0” if it is less than the threshold.
[0027]
However, since the variation in the light leakage current due to the sensors 12a and 12b is weak, the voltage across the capacitor C3 is likely to vary, and the threshold voltage of the transistors constituting the SRAM also varies. Even if it is taken in, it is determined as “1” or “0” depending on the case. Such variations appear as noise in the captured image. Compared to the current variation of photoelectric conversion elements formed on silicon wafers often used in commercially available scanners, photoelectric conversion elements formed on insulating substrates such as glass substrates used for display array substrates are current variations. Becomes larger. The latter has a large area and a low process temperature (restricted by the heat-resistant temperature of the substrate), so that uniform formation is difficult. Therefore, a variation compensation means specific to the display device is required in some form. In addition, it is desirable to be able to reproduce subtle gradations of the imaging target, but this is hindered by the above-described variation. Hereinafter, a description will be given of means and configuration capable of reducing noise or reproducing gradation display even though the sensor circuit includes a transistor having a large characteristic variation and a photoelectric conversion element having a variation in leak current.
[0028]
The CPU 43 shown in FIG. 6 captures images a plurality of times while changing the imaging conditions of the sensors 12a and 12b, and generates final captured image data based on the results of the plurality of image captures. Specifically, as shown in FIG. 7, a control signal for capturing an image in a state where the voltage Vprc applied to the capacitor C3 is changed in four ways and each voltage Vprc is applied to the capacitor C3 is displayed on the glass substrate. To supply. In addition, the digital data as a result of image capture output from the glass substrate is processed. Since the signal (digital pixel data, control clock, control signal) input to the glass substrate and the signal output from the glass substrate are both digital signals (digital signals based on the imaging result), the display control unit and the image shown in FIG. The capture control unit can be easily formed on a one-chip semiconductor. If there is no D / A conversion circuit on the glass substrate, an amplifier circuit (analog circuit) is required for the display control unit, and the one-chip configuration is advantageous compared to the high cost. In addition, with the recent progress in miniaturization and improvement in the degree of integration of semiconductor manufacturing processes, the CPU and main memory in FIG. 6 can be easily integrated into a single chip with a display control unit and an image capture control unit.
[0029]
FIG. 8 is a flowchart showing an example of processing operation of the CPU 43. First, the CPU 43 has a voltage Vprc = 3.5 V (a value relatively close to the threshold value of the first stage inverter of the SRAM) at one end of the capacitor C3 of FIG. 3 provided for each pixel. The initial charge is accumulated in the capacitor C3 (step S1).
[0030]
Next, the first image capture is performed (step S2). In this case, current flows in the sensors 12a and 12b that read the white portion of the image or gray near white, the initial charge of the capacitor C3 is discharged, and the voltage across the capacitor C3 decreases. On the other hand, since no current flows through the sensors 12a and 12b that read the black portions of the image, the voltage across the capacitor C3 hardly changes.
[0031]
In step S2, if the voltage across the capacitor C3 is higher than the threshold voltage of the first inverter of the SRAM, it is determined that the pixel is black. That is, first, in the captured image, only the black portion is extracted in step S2, the extracted pixel is determined as a black pixel value, and the other pixels are stored in the main memory 44 as white pixel values. (Step S3). Since the precharge voltage of the capacitor C3 is relatively close to the threshold voltage of the first stage inverter of the SRAM, if the portion of the image facing the sensor portion is more or less white, some leakage current occurs and the capacitor C3 Is likely to be lower than the threshold voltage of the first-stage inverter of the SRAM. Conversely, in this state, if the voltage of C3 continues to be above the threshold voltage of the inverter, it means that the corresponding image portion can be definitely judged to be black.
[0032]
For example, FIG. 9 is an example in which an image of a business card (black characters on a white background) is captured, and FIG. 9A shows the captured image obtained in steps S1 to S3. In step S3, since only the blackish pixels are detected as black, as shown in FIG. 9A, an image that is entirely whitish and has some characters blurred is obtained.
[0033]
Next, a voltage Vprc = 4V is applied to one end of the capacitor C3, initial charge is accumulated in the capacitor C3 (step S4), and a second image capture is performed (step S5). In this case, pixels that are slightly whitish than the first time may be determined to be black.
[0034]
When the second image capture is completed, pixels that are determined to be white for the first time and black for the second time are extracted, and the average value of the first pixel values of the eight pixels around the extracted pixels is calculated. Is the pixel value of the extracted pixel (step S6).
[0035]
FIG. 9B shows the captured image obtained in steps S4 to S6. Since an image that is slightly whitish than that in FIG. 9A is also determined to be black, an overall darker image than that in FIG. 9A is obtained.
[0036]
In this step S6, for example, if the pixel indicated by the hatched portion in FIG. 10 is an extraction pixel, the average value (G1 +... + G8) / 2 of the surrounding pixel values G1 to G8 is obtained as the pixel value of the extraction pixel. And If G1 to G8 are all white, the pixel value is white, but if G1 to G8 are several white and black, the pixel value is halftone.
[0037]
Next, a voltage Vprc = 4.5 V is applied to one end of the capacitor C3, initial charge is accumulated in the capacitor C3 (step S7), and a third image capture is performed (step S8). In this case, pixels that are slightly whitish than the second time may be determined to be black.
[0038]
FIG. 9C shows the captured image obtained in steps S7 to S9. Since an image that is slightly whitish than that in FIG. 9B is also determined to be black, an overall darker image than that in FIG. 9B is obtained.
[0039]
When the third image capture is completed, pixels that are determined to be white for the second time and black for the third time are extracted, and the average value of the first pixel values of the eight pixels around the extracted pixel is calculated. Is the pixel value of the extracted pixel (step S9).
[0040]
Next, a voltage Vprc = 5 V is applied to one end of the capacitor C3, initial charge is accumulated in the capacitor C3 (step S10), and a fourth image capture is performed (step S11). In this case, pixels that are slightly whitish than the third time may be determined to be black.
[0041]
FIG. 9D shows the captured image obtained in steps S10 to S12. Since an image slightly whitish than that in FIG. 9C is also determined to be black, an overall darker image than in FIG. 9C is obtained.
[0042]
When the fourth image capture is completed, pixels that are determined to be white for the third time and black for the fourth time are extracted, and the average value of the first pixel values of the eight pixels around the extracted pixel is calculated. Is the pixel value of the extracted pixel (step S12).
[0043]
The image obtained as a result of performing the process of step S12 is as shown in FIG. 11, and it can be seen that halftones can be expressed and noise can be removed.
[0044]
FIG. 12 is a diagram showing an example of an image including the character “T”, and FIG. 13 is a diagram showing the result of image capture of the dotted line in FIG. As shown in the figure, at the time of the first image capture, only the pixel P7 becomes “H”. Therefore, at this time, only the pixel P7 is determined to be black, and a black pixel value is assigned to the pixel P7.
[0045]
Next, when the second image capture is performed, the pixel P9 is newly set to “H”. Accordingly, the average value of the previous pixel values of the surrounding eight pixels (in this case, all white pixel values) is set as the pixel value of the pixel P9.
[0046]
Next, when the third image capture is performed, the pixel P4 newly becomes “H”. Therefore, the average value of the previous pixel values of the surrounding eight pixels (in this case, all white pixel values) is set as the pixel value of the pixel P4.
[0047]
Next, when the fourth image capture is performed, all the pixels P1 to P15 become “H”. Accordingly, the pixel values of all the remaining pixels P1 to P3, P5, P6, P8, P9, and P11 to P15 are determined based on the average value of the previous pixel values of the surrounding eight pixels.
[0048]
When the process shown in FIG. 8 is performed on all the lines shown in FIG. 12 by such a method, an image as shown in FIG. 14 is finally obtained. As can be seen from FIG. 14, noise during image capture can be removed, and even intermediate colors can be reproduced.
[0049]
In the present embodiment, as shown in the flowchart of FIG. 8, image capturing is performed a plurality of times (the greater the number of times, the higher the accuracy of image reproduction) by changing the shooting conditions, and based on the image capturing results of each time. In order to determine the final captured image, it is necessary to store the image capture results of each time. For example, as shown in FIG. 15, if the result of each image capture is stored in the main memory 44, the required memory capacity increases. Considering the application to small information terminals such as mobile phones, which require strong downsizing of the entire set, arithmetic processing that can be performed with limited calculation resources is desirable. An example of the calculation resource is a memory for holding data for the CPU to perform calculations.
[0050]
For this reason, in this embodiment, a buffer memory 45 is provided in the image capture control unit 42, the image capture result for one time is stored in the buffer memory 45, and the image capture result is transferred to the main memory 44. . The CPU 43 performs one process using the data in the main memory 44 according to the flowchart of FIG. 8 and stores the processing result in another storage area of the main memory 44. Meanwhile, the buffer memory 45 stores the next image capture result. Thereafter, by repeating the same operation, a final captured image is obtained.
[0051]
In this case, as shown in FIG. 16, the main memory 44 stores only one image capture result, so the capacity of the main memory 44 can be reduced.
[0052]
As described above, in this embodiment, the final captured image is determined based on the result of capturing images a plurality of times while changing the shooting conditions. Therefore, variations in the characteristics of the sensors 12a and 12b and the threshold value of the SRAM are determined. An image can be captured without being affected by voltage variations and the like, and a captured image with less noise and reproducible up to a halftone can be obtained.
[0053]
In the above-described embodiment, the example in which the voltage applied to the capacitor C3 is changed as the plurality of shooting conditions has been described. Instead of changing the voltage applied to the capacitor C3, the time for capturing an image is changed for each shooting condition. Also good. Alternatively, the transmittance of the liquid crystal may be changed. Although the specific example of the variation of conditions was shown in FIG. 9, the variation with the same meaning is possible for others.
[0054]
In addition, the voltage applied to the capacitor C3 may be changed and the time for image capture may be changed. In this case, the number of shooting conditions can be increased.
[0055]
(Second Embodiment)
The density of the imaging target is not necessarily uniform, and the density of black varies depending on the location. For example, when the characters “Toshiba Matsushita Display” in FIG. 17A are imaged by a sensor, an imaging result as shown in FIG. 17B is obtained. As shown in the figure, the character “East” has a higher black density than other characters, and is therefore crushed in black. On the other hand, the letters “L” and “I” are almost black because the density of black is low.
[0056]
In this way, high density black characters are crushed black because it is difficult for multiple reflected light to enter the interface of the surrounding white paper surface / glass substrate. This is because the multiple reflected light is incident more and the black line width becomes narrower.
[0057]
In view of this, the second embodiment described below is characterized in that image capture is performed taking into account partial black density variations of the imaging target. At this time, unlike a simple sensor array, the fact that it is integrated in a display device is actively used to compensate for variations in characteristics of sensors and the like by adjusting the luminance of each pixel.
[0058]
FIG. 18 is a block diagram showing the overall configuration of the second embodiment of the display device according to the present invention. The display device of FIG. 18 includes a glass substrate 31 on which a pixel array unit 1 and a part of a drive circuit are formed, and a control circuit substrate 52 connected to the glass substrate 31 with a flexible cable (FPC) 51. .
[0059]
On the glass substrate 31, the pixel array unit 1 in which the pixel TFT 11 and the image reading sensor 12 are arranged, a signal line driving circuit 2 that drives a signal line, a scanning line driving circuit 3 that drives a scanning line, A sensor control circuit 53 that controls the sensor 12 and a signal processing output circuit 54 that outputs the imaging result of the sensor 12 are formed. Each circuit on the glass substrate 31 is formed by, for example, polysilicon TFT.
[0060]
On the control circuit board 52, a control IC 55 for controlling each circuit on the glass substrate 31, a memory 56 for storing image data and the like, and various DC voltages used in the glass substrate 31 and the control circuit board 52 are output. A power supply circuit 57 is mounted. A CPU may be provided separately from the control IC 55, the memory 56 and the power supply circuit 57 may be integrated with the control IC 55, or discrete components may be mounted on the control circuit board 52.
[0061]
FIG. 19 shows a connection relationship between the signal line drive circuit 2, the scanning line drive circuit 3, the sensor control circuit 53, and the signal processing output circuit 54 on the glass substrate 31, and the control IC 55 and the memory 56 on the control circuit board 52. It is a block diagram.
[0062]
As shown in the drawing, a display control unit 41, an image capture control unit 42, and a CPU are built in the control IC 55. The display control unit 41 transmits digital pixel data and control signals such as a synchronization signal and a clock signal to the signal line driving circuit 2 and the scanning line driving circuit 3. The image capture control unit 42 transmits a control signal to the sensor control circuit 53 and the signal processing output circuit 54, and synchronizes the imaging data from the signal processing output circuit 54 and the position of the imaging data as necessary. Receive a signal. A buffer memory 47 and a control signal generation circuit 48 are provided inside the display control unit 41, and a buffer memory 45 and a control signal generation circuit 46 are also provided inside the image capture control unit 42.
[0063]
FIG. 20 is a block diagram showing a detailed configuration of the glass substrate 31. The pixel array unit 1 of the present embodiment has a display resolution of 320 pixels in the horizontal direction × 240 pixels in the vertical direction. The pixel is divided into red, blue, and green portions in the horizontal direction, and a signal line is provided for each. The total number of signal lines is 320 × 3 = 960, and the total number of scanning lines is 240.
[0064]
The scanning line driving circuit 3 includes a 240-stage shift register 61, a SHUT (malfunction prevention circuit) 62, a level shifter 63, a multiplexer (MUX circuit) 64, and a buffer 65.
[0065]
The signal processing output circuit 54 includes 960 precharge circuits 66, a 3-select decoder 67, a 320-stage shift register 68, and 8 output buffers 69.
[0066]
FIG. 21 is a circuit diagram showing a detailed configuration of the scanning line driving circuit 3. The characteristic part in FIG. 21 is that a MUX circuit 64 is provided after the level shifter 63. The MUX circuit 64 switches whether the scanning lines are turned on line by line or all the scanning lines are turned on simultaneously. All the scanning lines are simultaneously turned on in order to accumulate initial charges in the capacitor C3 that stores the imaging result of the sensor 12.
[0067]
Thus, by providing the MUX circuit 64, a dedicated TFT for switching whether or not to store the initial charge in the capacitor C3 becomes unnecessary, and the circuit scale can be reduced.
[0068]
FIG. 22 is a block diagram showing a detailed configuration of the signal processing output circuit 54. The signal processing output circuit 54 of FIG. 22 includes a synchronization signal generation circuit 71 that outputs a synchronization signal, and eight P / S conversion circuits 72 that convert imaging data supplied from 120 signal lines into one serial data. And an output buffer 73 for buffering the serial data output from each P / S conversion circuit 72, and a counter 74 for detecting the average gradation of the imaging data. Here, the “average gradation” means the average of the gradation of the output data over a plurality of pixels. When an image with 256 gradations is finally formed, if 5 out of 10 pixels are white and the remaining 5 pixels are black, the average gradation is 256 [gradation] x 5 [pixel] / 10 [ Pixel] = 128 [gradation].
[0069]
FIG. 23 is a block diagram showing a detailed configuration of the synchronization signal generating circuit 71. As shown in FIG. 23 includes a NAND gate 75 and a clock-controlled D type F / F 76, and an output buffer 73 is connected to the subsequent stage of the D type F / F 76. Only a combinational circuit such as a NAND gate formed on an insulating substrate may cause a phase variation with respect to output data due to variations in TFT characteristics, and may not serve as a synchronization signal. Therefore, it is preferable to reduce the phase difference from the clock on the insulating substrate by providing a D-type F / F controlled by the clock on the insulating substrate as shown in FIG.
[0070]
FIG. 24 is a block diagram showing a detailed configuration of the P / S conversion circuit 72. The P / S conversion circuit 72 in FIG. 24 includes a 3-input 1-output decoder 77, a latch 78, and a 40-stage shift register 79. The decoder 77 includes a circuit as shown in FIG. The latch 78 includes a circuit as shown in FIG. The clock used for the control of the shift register is made common with the clock used for the control of the D-type F / F in FIG.
[0071]
FIG. 27 is a block diagram showing a detailed configuration of the output buffer 73. As shown, a plurality of buffers (inverters) 80 are connected in cascade. The downstream buffer increases the TFT channel width of each inverter and secures the necessary external load (flexible cable (FPC) 51, etc.) driving force.
[0072]
FIG. 28 is a detailed circuit diagram for one pixel of the pixel array section 1, and FIG. 29 is a layout diagram for one pixel on the glass substrate 31. As shown in the figure, one pixel is composed of three RGB subpixels 81r, 81g, and 81b, and each subpixel has a pixel TFT11 and a display control TFT82 that controls whether or not electric charge is accumulated in the auxiliary capacitor Cs. The image capturing sensor 12, the capacitor C3 for storing the imaging result of the sensor 12, the SRAM 83 for storing binary data corresponding to the stored charge of the capacitor C3, and the initialization for storing the initial charge in the capacitor C3 It has a TFT 84 and a data holding TFT 85 of the SRAM 83. Here, the luminance of each pixel is gradation controlled by the difference between the pixel electrode potential determined based on the charge accumulated in the auxiliary capacitor Cs and the potential of the common electrode formed on the counter substrate.
[0073]
When the capacitor C3 is initialized, the pixel TFT 11 and the initialization TFT 84 are turned on. When an analog voltage (analog pixel data) for setting the luminance of the display element is written to the auxiliary capacitor Cs, the pixel TFT 11 and the display control TFT 82 are turned on. When data retention (refresh) of the SRAM 83 is performed, the initialization TFT 84 and the data retention TFT 84 are turned on. When the imaging data stored in the SRAM 83 is supplied to the signal line, the pixel TFT 11 and the data holding TFT 85 are turned on.
[0074]
FIG. 30 is a diagram for explaining the operation of the display device of this embodiment. When performing normal display, the operation in mode m1 is performed. On the other hand, when the image is captured by the sensor 12, first, the operation of the mode m1 is performed to set the luminance of all pixels to a predetermined value. Next, in the mode m2, the capacitors C3 of all the pixels are precharged (initial charge accumulation). Next, the red component image for one screen is captured in mode m3. Next, the image of the green component for one screen is taken in mode m4. Finally, the image of the blue component for one screen is captured in mode m5.
[0075]
31 to 33 are operation timing charts of modes m1 to m5. Hereinafter, the operation timings of the modes m1 to m5 will be described in order with reference to these drawings.
[0076]
In the mode m1, as shown at times t1 to t2 in FIG. 31, the scanning line driving circuit 3 sequentially drives the scanning lines, and the signal line driving circuit 2 applies analog signals to the signal lines for each horizontal line in accordance with the timing. Pixel data is displayed by supplying pixel data. The analog pixel data is obtained by converting digital pixel data output from the control IC 55 by a known D / A conversion circuit. The D / A converter circuit is formed as a signal line driver circuit on a glass substrate by a known technique (Japanese Patent Laid-Open No. 2000-305535, etc.).
[0077]
In mode m2, as shown at time t3 in FIG. 32, the scanning line driving circuit 3 drives all the scanning lines at the same timing. A precharge voltage (5 V) is accumulated in the sensor capacitor C3 of all pixels. At time t4, both the initialization TFT 84 and the data holding TFT 85 are turned on, and the SRAM 83 performs a refresh operation. Even if the precharge of the sensor capacitor C3 is not completed between the time t3 and the time t4, the precharge voltage of all the sensor capacitors C3 is made equal to the power supply voltage (5V) of the SRAM by the refresh operation of the SRAM 83.
[0078]
In mode m3, as shown at times t5 to t6 in FIG. 32, red component imaging data is supplied to the signal line for each horizontal line. The red component imaging data supplied to each signal line is converted into serial data by a P / S conversion circuit 72 shown in FIG. 22, and is output to the outside through eight data lines.
[0079]
In mode m4, as shown at time t7 in FIG. 33, green imaging data is supplied to the signal line for each horizontal line. In mode m5, as shown at time t8 in FIG. 33, blue imaging data is supplied to the signal line for each horizontal line.
[0080]
The control IC 55 in FIG. 18 divides the display area of 320 pixels × 240 pixels into block units of 40 pixels × 30 pixels as shown in FIG. 34 (8 blocks in the horizontal direction × 8 blocks in the vertical direction are formed). The image is taken by the sensor 12 with the display brightness set individually for each block. This is one of the features of the present invention. Unlike conventional CMOS image sensors, not only sensors are formed, but also the brightness control means for each pixel is actively used during imaging to compensate for in-plane variations in sensors and TFT characteristics, and Higher quality (ensure uniformity, etc.) can be achieved.
[0081]
FIG. 35 is a flowchart showing an example of processing operations performed by the control IC 55 of FIG. First, while performing pixel display of each block so that each block has a predetermined reference luminance (for example, 80% of the maximum luminance), imaging is performed a plurality of times while changing the imaging time (step S21). Here, for example, imaging is performed nine times (trial imaging) while switching the imaging time from 10 msec to 50 msec in units of 5 msec.
[0082]
Next, based on the trial imaging results (by interpolation of the graph of imaging time vs. average gradation), the average gradation in the block is approximately the median value (in the case of 256 gradations, 128 gradations for each gradation). Imaging time t (m, n) such that (value) is obtained (step S22). t (m, n) varies depending on variations in sensor leakage current, TFT characteristics, light reflection characteristics of the imaging target, color of the imaging target, density distribution of lines such as graphics and characters, and the like.
[0083]
As shown in FIG. 36, since the average gradation changes greatly by changing the imaging time, the optimum imaging time is obtained for each block in step S22 described above.
[0084]
Next, it is determined for each block whether or not the obtained imaging time t (m, n) is less than a reference time (for example, 30 msec) (step S23). For blocks less than the reference time, the display luminance Y is set lower than the reference luminance (for example, 80% of the maximum luminance) (step S24), and for blocks longer than the reference time, the display luminance Y is set to be equal to or higher than the reference luminance ( Step S25). That is, the variation in the optimum imaging time is compensated by the brightness of the display element (the amount of light irradiated to the imaging target). Such a compensation method is not an extension of the technology of the conventional CMOS image sensor. Note that changing the imaging time for each block is not practical because of complicated control.
[0085]
More specifically, for example, the display luminance Y of each block is set based on the following equation (1). However, m represents a row and n represents a column.
[0086]
[Expression 1]
Figure 0004303954
When the calculation result of (1) exceeds 100%, Y (m, n) = 100%. Expression (1) is an example, and should be modified according to the characteristics of the display element, the characteristics of the sensor, and the characteristics of the imaging target. The point is that the display brightness can guarantee the variation in the optimum imaging time.
[0087]
Next, 81 images are taken from the imaging time of 10 msec to 50 msec while changing the imaging time in increments of 0.5 msec, for example (step S26; main imaging).
[0088]
Next, the average value of the 81 imaging results is calculated to obtain final imaging data (step S27). For example, FIG. 37 shows an example of the imaging data obtained in step S27. At this time, instead of performing imaging while changing the imaging time at the same interval, weighting such as performing imaging in the vicinity of 30 msec as shown in FIG. 37 and FIG. 38 is performed, for example, the number of times less than 81 The average value may be calculated using the imaging result. Overall processing time can be reduced. Alternatively, each imaging result may be weighted when calculating the average value.
[0089]
By performing the processing as shown in FIG. 35, even if there is a variation in black density in the imaging target as shown in FIG. 34, an excellent imaging result without partial blackout or blurring is obtained as shown in FIG. can get.
[0090]
As described above, in the second embodiment, the black density of the imaging target is checked in advance (by trial imaging), and imaging is performed by the sensor 12 in a state where the display luminance suitable for the imaging target is set in units of blocks. Thus, a captured image with uniform image quality without partial blackout or blurring can be obtained.
[0091]
In the present embodiment, the method for solving the blackout of the imaging result due to the uneven distribution of the black density of the imaging target has been described. However, the imaging result due to the unevenness of the leakage current of the sensor, the unevenness of the TFT characteristic variation, or the like. The same effect can be obtained as a means for solving the image quality degradation.
[0092]
Further, the main imaging operation after the trial imaging may be performed in the following procedure.
(R1) The mode m1 in FIG. 30 is performed, and the liquid crystal display is entirely red. However, the gradation is changed for each block based on trial imaging.
(R2) The mode m2 is performed, and all sensor capacitors are precharged.
(R3) Modes m3, m4, and m5 are performed, and imaging data of pixels belonging to the red signal line, the green signal line, and the blue signal line are also output.
(G1) The mode m1 is performed, and the entire liquid crystal display is displayed in green. However, the gradation is changed for each block based on trial imaging.
(G2) The mode m2 is performed, and all sensor capacitors are precharged.
(G3) Modes m3, m4, and m5 are performed, and imaging data of pixels belonging to the red signal line, the green signal line, and the blue signal line are also output.
(B1) The mode m1 is performed, and the liquid crystal display is entirely blue. However, the gradation is changed for each block based on trial imaging.
(B2) The mode m2 is performed, and all sensor capacitors are precharged.
(B3) The modes m3, m4, and m5 are performed, and imaging data of pixels belonging to the red signal line, the green signal line, and the blue signal line are also output.
[0093]
At first glance, it is easy to assume that the sensor data of the green pixel and the blue pixel is meaningless when imaging with the display being entirely red. Especially when the light source (backlight provided on the back side of the liquid crystal layer is diffused light and the image pickup surface is irradiated with light from various angles, and as shown in FIG. Unlike the conventional contact CMOS image sensor, the sensor cannot be in close contact with the object to be imaged, and is about d (glass substrate thickness + optical film thickness such as polarizing plate) (0.2 to 0.7). The backlight light is emitted only from the red pixel, but the reflected light from the imaging target is appropriately diffused, the diffusion range is about d, and the pixel pitch is about d or smaller. Light based on the imaging target also enters the pixel and blue pixel sensors, and by performing the above-described processes (R1) to (B3), a higher-resolution imaging result can be obtained in the horizontal direction. Change Portion averaging process is repeated a plurality of times will be omitted because it is similar to the embodiment described in detail.
[0094]
Focusing on the fact that it is only necessary to know the average gradation for each block in the trial imaging, in the trial imaging, only the result of counting the average gradation by the counter may be output for each block. Power consumption for driving the external load by stopping the eight data output circuits can be saved.
[0095]
In this embodiment, an SRAM is provided in a pixel, and (1) a weak current of the sensor is amplified and (2) data is held until data is output after imaging. However, the present invention is not limited to the SRAM. The current amplification of (1) may be performed by the source follower. In the case where data cannot be held due to a leak or the like until data is output after imaging, a control circuit and sequence that outputs data immediately after imaging may be prepared.
[0096]
In addition, an example of adjusting the display brightness at the time of imaging for each block by dividing the display screen has been described, but in the case of a display device with a relatively small diagonal screen size (for mobile phones of about 2 inches or less), When the variation in the chip of the characteristics of the sensor or TFT is small, it may be applied without dividing the screen (the number of divisions = 1). In that case, the trial imaging and the main imaging may be performed as follows without separating them.
[0097]
That is, (1) First, when the imaging time is t0 = 10 msec (the time that almost no light leaks to the sensor for any imaging target and a blackened screen is obtained), the first imaging data output and the average gradation count I do. The first imaging data is stored in a memory such as the control IC 55.
[0098]
(2) The second imaging is performed with t = t0 + Δt (for example, Δt = 0.5 msec), and the average gradation is counted.
[0099]
(3) If the average gradation is less than the predetermined value, imaging and counting of the average gradation are performed with the imaging time t = t + 2Δt without outputting the imaging data.
[0100]
(4) If the counting result is equal to or greater than a predetermined value, the imaging data is output and added to a memory such as the control IC 55.
[0101]
(5) Repeat (2) to (4) while appropriately increasing the imaging time t until the average gradation reaches about 256 gradations.
[0102]
The image completed on the memory according to the above (1) to (5) can be considered as a high-quality imaging result equivalent to that obtained in the above-described embodiment. Moreover, only about one frame is required for memory for image calculation. This is especially effective for mobile phones with limited hardware resources.
[0103]
(Third embodiment)
In the case of the second embodiment, since the display brightness is set for each block, in some cases, the display brightness may be significantly different between adjacent blocks.
[0104]
FIG. 40 is a diagram illustrating an example of the display brightness of each block according to the second embodiment. The horizontal axis represents the block position, and the vertical axis represents the display brightness. To make it easier to understand, a block belonging to a specific line was extracted. FIG. 41 is a diagram schematically showing captured images of four adjacent blocks in the second embodiment. As shown in these figures, the display luminance between adjacent blocks changes discontinuously. For this reason, if the luminance difference between adjacent blocks is large, color unevenness as shown in FIG. 41 may occur when an imaging target with a high white density is imaged. For example, although the image should be the same white background, the imaging result may appear to be different in white for each checkered block.
[0105]
Therefore, in the third embodiment, for the central pixel in each block, the display luminance is set by the same processing as in FIG. 35, the display luminance is gradually changed from the central pixel, and the luminance difference near the boundary between adjacent blocks is set. So that it does n’t happen too much.
[0106]
FIG. 42 is a diagram showing a processing result of the third embodiment when imaging is performed under the same conditions as in FIG. 40, and FIG. 43 is a diagram schematically showing captured images of four adjacent blocks in the third embodiment. . As shown in these figures, the luminance difference does not change greatly between adjacent blocks.
[0107]
As described above, in the third embodiment, since the luminance is gradually changed from the central pixel to the periphery of the block and the luminance is not greatly changed between adjacent blocks, the color unevenness of the captured image due to the luminance difference between the blocks. Disappears.
[0108]
(Fourth embodiment)
In the fourth embodiment, the imaging result of the sensor 12 is pattern-matched with a reference pattern prepared in advance.
[0109]
FIG. 44 is a block diagram showing a schematic configuration of the display device according to the fourth embodiment of the present invention. The display device of FIG. 44 includes a reference pattern storage unit 86 that stores a plurality of reference patterns in addition to the configuration of FIG.
[0110]
FIG. 45 shows an example of a reference pattern stored in the reference pattern storage unit. Each of the reference patterns 1a, 1b, 1c, 2a, 2b, 2c, 2d, 3a, 3b, 3c, and 3d has a size of 8 pixels × 8 pixels, and a black portion indicates a pattern. Note that the size and type of the reference pattern are not limited to those illustrated.
[0111]
FIG. 46 is a flowchart showing the processing operation performed by the control IC 55 of this embodiment. Hereinafter, the processing operation of the flowchart of FIG. 46 will be described assuming that imaging data as shown in FIG. 48 is obtained as a result of imaging the imaging target as shown in FIG. 47 by the sensor 12.
[0112]
The control IC 55 of the present embodiment compares the imaged data of the sensor 12 with all the reference patterns stored in the reference pattern storage unit 86 (step S31).
[0113]
The number given to the upper part of each reference pattern in FIG. 45 is the number of inconsistent pixels with the imaging data in FIG. The control IC 55 selects some reference patterns with a small number of mismatched pixels (step S32). For example, assume that the control IC 55 selects the four reference patterns 1a, 1b, 1c, and 1d shown in FIG.
[0114]
Next, the control IC 55 generates a pattern (inverted patterns n1a, n1b, n1c, n1d in FIG. 49) obtained by inverting the brightness of the selected reference pattern (step S33), and this inverted pattern is sequentially applied to the pixel array unit 1. While displaying, the imaging by the sensor 12 is repeated (step S34). In this case, since light passes through only the white portions of the inversion patterns n1a, n1b, n1c, and n1d in FIG. 49, the imaged data of the sensor 12 is as shown in FIG. The imaging data r1a corresponds to the reference pattern 1a and the inverted pattern n1a, the imaging data r1b corresponds to the reference pattern 1b and the inverted pattern n1b, the imaging data r1c corresponds to the reference pattern 1c and the inverted pattern n1c, and the imaging data r1d is the reference It corresponds to the pattern 1d and the inverted pattern n1d.
[0115]
Next, some reference patterns having a smaller number of white pixels are selected from the imaging data (step S35). For example, in the example of FIG. 50, two reference patterns 1a and 1b are selected.
[0116]
Next, a final imaging result is obtained based on the selected reference pattern (step S36). Here, the final imaging result shown in FIG. 51 is obtained by, for example, averaging the selected reference pattern and the first obtained imaging data.
[0117]
As described above, in the fourth embodiment, a plurality of reference patterns are prepared in advance, and the final image data is generated by comparing the image data obtained by the sensor 12 with the reference pattern. Therefore, high quality imaging data can be obtained. In particular, this embodiment is particularly effective when imaging an imaging target whose shape is patterned in advance.
[0118]
In each of the above-described embodiments, the example in which the display device according to the present invention is applied to a liquid crystal display device has been described. However, the present invention is applied to other display devices such as an EL (Electroluminescense) display device and a PDP (Plasma Display Panel). Is also applicable.
[0119]
【The invention's effect】
As described above in detail, according to the present invention, the digital image data of the captured image is generated based on the result of capturing the image under a plurality of shooting conditions, and thus is affected by variations in characteristics of the imaging unit. The image can be captured without any problem, and the quality of the captured image can be improved. In addition, a large amount of calculation resources are not required despite the multiple image captures and calculations.
[0120]
In addition, according to the present invention, since the imaging unit performs imaging with the display brightness of the display element set for each block, even if there is a partial black density variation in the imaging target, there is no blackout or blurring. A high-quality captured image can be obtained.
[0121]
Furthermore, the present invention compares the imaging result by the imaging unit with a reference pattern prepared in advance, and generates final imaging data based on the comparison result, so that imaging can be performed without increasing the resolution of the imaging unit. Imaging data faithful to the object can be obtained.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a first embodiment of a display device according to the present invention.
FIG. 2 is a block diagram showing a part of the pixel array unit 1 in detail.
FIG. 3 is a circuit diagram showing a part of FIG. 2 in detail.
FIG. 4 is a circuit diagram showing an internal configuration of SRAM.
FIG. 5 is a cross-sectional view of a display device.
6 is a block diagram showing an internal configuration of the logic IC shown in FIG. 1. FIG.
FIG. 7 is a diagram showing an example of switching a voltage applied to a capacitor.
FIG. 8 is a flowchart illustrating an example of processing operation of a CPU.
FIG. 9 is a diagram showing an example of capturing a business card image.
FIG. 10 is a diagram showing an average of eight surrounding pixels.
11 is a diagram showing an example of an image showing the processing result of FIG. 8;
FIG. 12 is a diagram showing an example of an image including a character “T”.
13 is a diagram showing a result of image capture of the dotted line in FIG. 12;
14 is a diagram finally obtained as a result of capturing the image of FIG. 13;
FIG. 15 is a diagram showing an example in which image capture results under each shooting condition are stored separately in the main memory.
FIG. 16 is a diagram showing an example of reducing the capacity of the main memory.
17A is a diagram illustrating an example of an imaging target, and FIG. 17B is a diagram illustrating an example of an imaging result.
FIG. 18 is a block diagram showing an overall configuration of a second embodiment of a display device according to the present invention.
FIG. 19 is a block diagram showing a connection relationship between a signal line driving circuit, a scanning line driving circuit, a sensor control circuit, and a signal processing output circuit on a glass substrate, and a control IC and a memory on the control circuit board.
20 is a block diagram showing an example of a detailed configuration of a glass substrate 31. FIG.
FIG. 21 is a circuit diagram showing an example of a detailed configuration of a scanning line driving circuit 3;
22 is a block diagram showing an example of a detailed configuration of a signal processing output circuit 54. FIG.
23 is a block diagram showing an example of a detailed configuration of a synchronization signal generation circuit 71. FIG.
24 is a block diagram showing an example of a detailed configuration of a P / S conversion circuit 72. FIG.
FIG. 25 is a circuit diagram showing an example of an internal configuration of a decoder.
FIG. 26 is a circuit diagram showing an example of an internal configuration of a latch.
27 is a block diagram showing a detailed configuration of an output buffer 73. FIG.
FIG. 28 is a detailed circuit diagram for one pixel of the pixel array section 1;
29 is a layout diagram for one pixel on a glass substrate 31. FIG.
FIG. 30 is a diagram illustrating an operation of a display device of an embodiment.
FIG. 31 is an operation timing chart of mode m1.
FIG. 32 is an operation timing chart of modes m2 and m3.
FIG. 33 is an operation timing chart of modes m4 and m5.
FIG. 34 is a diagram illustrating block division.
35 is a flowchart showing an example of a processing operation performed by the control IC 55 of FIG.
FIG. 36 is a diagram showing a relationship between imaging time and average gradation.
FIG. 37 is a diagram showing an example of imaging data obtained in step S7.
FIG. 38 is a diagram illustrating average gradation increments.
FIG. 39 is a diagram showing an example of an imaging result of the present embodiment.
FIG. 40 is a diagram showing an example of display luminance of each block in the second embodiment.
FIG. 41 is a diagram schematically showing captured images of four adjacent blocks in the second embodiment.
FIG. 42 is a diagram showing a processing result of the third embodiment when imaging is performed under the same conditions as in FIG.
FIG. 43 is a diagram schematically showing captured images of four adjacent blocks in the third embodiment.
FIG. 44 is a block diagram showing a schematic configuration of a display device according to a fourth embodiment of the present invention.
FIG. 45 is a diagram illustrating an example of a reference pattern stored in a reference pattern storage unit.
FIG. 46 is a flowchart showing the processing operation performed by the control IC 55 of the present embodiment.
FIG. 47 is a diagram showing an example of an imaging target.
FIG. 48 is a diagram showing an example of an imaging result.
FIG. 49 is a diagram showing an example of a reversal pattern.
FIG. 50 is a diagram illustrating an example of imaging data of a sensor.
FIG. 51 is a diagram showing an example of a final imaging result.
[Explanation of symbols]
1 Pixel array section
2 signal line drive circuit
3 Scanning line drive circuit
4 Detection circuit & output circuit
11 pixel TFT
12a, 12b sensor
13 buffers
21 Array substrate
22 pages
23 Backlight
24 Counter substrate
31 glass substrate
32 Semiconductor substrate
33 Logic IC
52 Control circuit board
53 Sensor control circuit
54 Signal processing output circuit
55 Control IC
56 memory
86 Reference pattern storage

Claims (4)

縦横に列設される信号線及び走査線の各交点付近に形成される表示素子と、
前記表示素子のそれぞれに対応して少なくとも一個ずつ設けられ、それぞれが指定された範囲の入射光を受光して電気信号に変換する撮像部と、
前記撮像部で変換された電気信号に応じた電荷を蓄積する電荷蓄積部と、
複数の撮像条件のそれぞれにおける前記電荷蓄積部の蓄積電荷に基づいて、前記撮像部で撮像された画像に対応するデジタル画像データを生成する信号処理部と、
前記電荷蓄積部に蓄積された電荷が所定のしきい値以上か否かを示す2値データを出力する2値データ生成部と、
前記撮影条件を段階的に昇順または降順に切り替える撮影条件切替部と、を備え、
前記信号処理部は、前記撮影条件切替部が前記撮影条件を1段階切り替えたときに、前記2値データの論理が変化した場合には、注目画素の周囲の複数画素の前記2値データの値に基づいて、前記注目画素のデジタル画像データを生成することを特徴とする表示装置
Display elements formed in the vicinity of intersections of signal lines and scanning lines arranged vertically and horizontally;
At least one image sensor corresponding to each of the display elements, each receiving an incident light in a specified range and converting it into an electrical signal;
A charge accumulating unit that accumulates electric charges according to the electrical signal converted by the imaging unit;
A signal processing unit that generates digital image data corresponding to an image captured by the imaging unit based on accumulated charges of the charge storage unit in each of a plurality of imaging conditions;
A binary data generation unit that outputs binary data indicating whether or not the charge accumulated in the charge accumulation unit is equal to or greater than a predetermined threshold;
A shooting condition switching unit that switches the shooting conditions step by step in ascending or descending order,
If the logic of the binary data changes when the shooting condition switching unit switches the shooting condition by one step, the signal processing unit may change the value of the binary data of a plurality of pixels around the target pixel. And generating digital image data of the pixel of interest based on the display .
前記撮影条件切替部は、前記電荷蓄積部に蓄積される初期電荷量を段階的に昇順または降順に切り替え、
前記電荷蓄積部は、複数通りの前記初期電荷量のそれぞれごとに、前記初期電荷量から前記撮像部での受光量に応じた電荷を差し引いた残りの電荷を蓄積することを特徴とする請求項1に記載の表示装置。
The imaging condition switching unit switches the initial charge amount accumulated in the charge accumulation unit step by step in ascending or descending order,
The charge accumulation unit accumulates a remaining charge obtained by subtracting a charge corresponding to an amount of light received by the imaging unit from the initial charge amount for each of the plurality of initial charge amounts. The display device according to 1.
前記撮影条件切替部は、前記撮像部での撮像時間を段階的に昇順または降順に切り替えることを特徴とする請求項1に記載の表示装置。  The display device according to claim 1, wherein the photographing condition switching unit switches the imaging time in the imaging unit in ascending order or descending order in a stepwise manner. 前記信号処理部は、前記撮影条件切替部が前記初期電荷量を1段階切り替えたときに、前記2値データの論理が変化した場合には、注目画素の周囲8画素の前回の画像取込み時における前記2値データの平均値を、前記注目画素のデジタル画像データとすることを特徴とする請求項1及至3のいずれかに記載の表示装置。  If the logic of the binary data changes when the imaging condition switching unit switches the initial charge amount by one step, the signal processing unit is configured to capture the previous image of eight pixels around the target pixel. The display device according to claim 1, wherein an average value of the binary data is digital image data of the pixel of interest.
JP2002381775A 2002-07-12 2002-12-27 Display device Expired - Fee Related JP4303954B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2002381775A JP4303954B2 (en) 2002-09-13 2002-12-27 Display device
US10/616,979 US7205988B2 (en) 2002-07-12 2003-07-11 Display device
CNB031458602A CN1331347C (en) 2002-07-12 2003-07-11 Display device
TW092119028A TWI225232B (en) 2002-07-12 2003-07-11 Display device
KR10-2003-0047174A KR100537704B1 (en) 2002-07-12 2003-07-11 Display device
US11/620,789 US7737962B2 (en) 2002-07-12 2007-01-08 Display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002267972 2002-09-13
JP2002381775A JP4303954B2 (en) 2002-09-13 2002-12-27 Display device

Publications (2)

Publication Number Publication Date
JP2004159273A JP2004159273A (en) 2004-06-03
JP4303954B2 true JP4303954B2 (en) 2009-07-29

Family

ID=32827540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002381775A Expired - Fee Related JP4303954B2 (en) 2002-07-12 2002-12-27 Display device

Country Status (1)

Country Link
JP (1) JP4303954B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006186266A (en) 2004-12-28 2006-07-13 Toshiba Matsushita Display Technology Co Ltd Photoelectric conversion element and display device using it
JP5254530B2 (en) * 2005-01-26 2013-08-07 株式会社ジャパンディスプレイセントラル Flat panel display
JP4649272B2 (en) * 2005-06-08 2011-03-09 シャープ株式会社 Display device
JP5345098B2 (en) * 2010-04-05 2013-11-20 日本アビオニクス株式会社 Projector with increased resistance to electrostatic noise
JP5312435B2 (en) * 2010-12-03 2013-10-09 株式会社半導体エネルギー研究所 Display device
JP5774974B2 (en) * 2010-12-22 2015-09-09 株式会社半導体エネルギー研究所 Driving method of semiconductor device

Also Published As

Publication number Publication date
JP2004159273A (en) 2004-06-03

Similar Documents

Publication Publication Date Title
KR100537704B1 (en) Display device
KR100603874B1 (en) Display device
KR100678554B1 (en) Display device
JP4383833B2 (en) Display device
EP1455264B1 (en) Display and Sensor Apparatus
KR100607620B1 (en) Liquid crystal display device
US8294662B2 (en) Electro-optical device, scan line driving circuit, and electronic apparatus
JP2007018458A (en) Display unit, sensor signal correction method, and imaging unit
JP2006244218A (en) Display device with built-in sensor
US7421141B2 (en) Automatic image correcting circuit
JP4303954B2 (en) Display device
JP4035424B2 (en) Display device
JP4434618B2 (en) Display device
JP4865849B2 (en) Imaging condition determination device, imaging condition determination method, imaging condition determination program, computer-readable recording medium, and unevenness correction system including the imaging condition determination device
KR100615007B1 (en) Display device
JP2007003553A (en) Matrix display device with area photosensor
JP4634732B2 (en) Display device
JP2005031661A (en) Display device
JP2005101358A (en) Photoelectric converter, image input device using the same, and photoelectric conversion method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090407

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090427

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4303954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130501

Year of fee payment: 4

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130501

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140501

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees