JP2004159273A - Display device - Google Patents
Display device Download PDFInfo
- Publication number
- JP2004159273A JP2004159273A JP2002381775A JP2002381775A JP2004159273A JP 2004159273 A JP2004159273 A JP 2004159273A JP 2002381775 A JP2002381775 A JP 2002381775A JP 2002381775 A JP2002381775 A JP 2002381775A JP 2004159273 A JP2004159273 A JP 2004159273A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- imaging
- display
- image
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、画像取込み機能を備えた表示装置に関する。
【0002】
液晶表示装置は、信号線、走査線及び画素TFTが列設されたアレイ基板と、信号線及び走査線を駆動する駆動回路とを備えている。最近の集積回路技術の進歩発展により、駆動回路の一部をアレイ基板上に形成するプロセス技術が実用化されている。これにより、液晶表示装置全体を軽薄短小化することができ、携帯電話やノート型コンピュータなどの各種の携帯機器の表示装置として幅広く利用されている。
【0003】
ところで、アレイ基板上に、画像取込みを行う密着型エリアセンサを配置した画像取込み機能を備えた表示装置が提案されている(例えば、特許文献1,2を参照)。
【0004】
この種の画像取込み機能を備えた従来の表示装置は、センサに接続されたキャパシタの電荷量をセンサでの受光量に応じて変化させるようにし、キャパシタの両端電圧を検出することで、画像取込みを行っている。
【0005】
【特許文献1】
特開2001−292276号公報
【特許文献2】
特開2001−339640号公報
【0006】
【発明が解決しようとする課題】
しかしながら、センサに流れる電流は微弱であるため、その電流によるキャパシタの両端電圧の変化を精度よく検出するのは困難であり、測定誤差が大きくなる。このため、取込画像にノイズが現れやすくなる。
【0007】
また、キャパシタの両端電圧を検出するために、キャパシタにSRAMやバッファ回路を接続する場合、SRAMやバッファ回路を構成するトランジスタのしきい値電圧を超えたか否かにより「0」か「1」かの判定が行われるが、トランジスタのしきい値電圧にばらつきがあるため、「0」と「1」の判定基準がずれるおそれがある。また、センサに流れる電流もばらつきがあるため、「0」と「1」の判定基準がずれるおそれがある。
【0008】
本発明は、このような点に鑑みてなされたものであり、その目的は、光リークのばらつきやトランジスタ等の電気的特性のばらつきの影響を受けることなく、画像取込みを行うことができる表示装置を提供することにある。
【0009】
【課題を解決するための手段】
上述した課題を解決するために、本発明は、縦横に列設される信号線及び走査線の各交点付近に形成される表示素子と、前記表示素子のそれぞれに対応して少なくとも一個ずつ設けられ、それぞれが指定された範囲の入射光を受光して電気信号に変換する撮像部と、前記撮像部で変換された電気信号に応じた電荷を蓄積する電荷蓄積部と、複数の撮像条件のそれぞれにおける前記電荷蓄積部の蓄積電荷に基づいて、前記撮像部で撮像された画像に対応するデジタル画像データを生成する信号処理部と、を備える。
【0010】
また、本発明は、縦横に列設される信号線及び走査線の各交点付近に形成される表示素子と、前記表示素子のそれぞれに対応して少なくとも1個ずつ設けられ、それぞれが指定された範囲の入射光を受光して電気信号に変換する撮像部と、前記撮像部で変換された電気信号に応じた電荷を蓄積する電荷蓄積部と、前記電荷蓄積部の蓄積電荷に応じた2値データを記憶する撮像データ記憶部と、隣接する複数の前記表示素子からなるブロックごとに、前記前記撮像データ記憶部に記憶された2値データに基づいて該ブロックにおける撮像対象の平均階調を検出する平均階調検出部と、前記平均階調検出部の検出結果に基づいて、前記撮像部で撮像を行う際の前記表示素子の表示輝度を前記ブロックごとに個別に設定する輝度設定部と、前記撮像部の撮像時間を複数通りに切替制御する撮像時間制御部と、前記ブロックのそれぞれを前記輝度設定部で設定された表示輝度に設定した状態で、前記撮像時間制御部で切替制御される個々の撮像時間での前記撮像部の撮像結果に基づいて、撮像画像に対応するデジタル画像データを生成する画像データ生成手段と、を備える。
【0011】
また、縦横に列設される信号線及び走査線の各交点付近に形成される表示素子と、前記表示素子のそれぞれに対応して少なくとも1個ずつ設けられ、それぞれが指定された範囲の入射光を受光して電気信号に変換する撮像部と、前記撮像部で変換された電気信号に応じた電荷を蓄積する電荷蓄積部と、前記電荷蓄積部の蓄積電荷に応じた2値データを記憶する撮像データ記憶部と、前記撮像部で撮像を行う場合に用いられる、複数の前記表示素子からなるブロックの表示形態を示す複数の基準パターンを記憶する基準パターン記憶部と、前記撮像部の撮像結果に近似した基準パターンを前記基準パターン記憶部から複数種類選択する基準パターン選択部と、前記基準パターン選択部で選択された基準パターンそれぞれの明暗を反転させた基準パターンを前記表示素子にて表示させた状態で、前記撮像部にて繰返し撮像を行った結果に基づいて、撮像画像に対応するデジタル画像を生成する画像データ生成手段と、を備える。
【0012】
【発明の実施の形態】
以下、本発明に係る表示装置について、図面を参照しながら具体的に説明する。
図1は本発明に係る表示装置の第1の実施形態の概略構成図であり、画像取込み機能を有することを特徴としている。図1の表示装置は、ガラス基板31と半導体基板32とで構成されている。ガラス基板31上には、信号線及び走査線が列設される画素アレイ部1と、信号線を駆動する信号線駆動回路2と、走査線を駆動する走査線駆動回路3と、画像を取り込んで出力する検出回路&出力回路4とが設けられている。これらの回路は、例えばポリシリコンTFTにより形成されている。信号線駆動回路2は、デジタル画素データを表示素子の駆動に適したアナログ電圧に変換するD/A変換回路を含む。D/A変換回路は公知のものを用いる。半導体基板32上には、表示制御及び画像取込制御を行うロジックIC33が実装されている。ガラス基板31と半導体基板32とは、例えばFPCを介して各種信号の送受を行う。
【0013】
図2は画素アレイ部1の一部を詳細に示したブロック図である。図2の画素アレイ部1は、縦横に列設される信号線及び走査線の各交点付近に形成される画素TFT11と、画素TFT11の一端とCs線との間に接続される液晶容量C1及び補助容量C2と、各画素TFT11ごとに2個ずつ設けられる画像取込み用のセンサ12a,12bとを有する。センサ12a,12bは、不図示の電源線及び制御線に接続されている。
【0014】
図2では、画像取込みの解像度を上げるために各画素ごとに2個のセンサ12a,12bを設ける例を示しているが、センサの数に特に制限はない。
【0015】
図3は図2の一部を詳細に示した回路図である。図3に示すように、センサ12a,12bはそれぞれフォトダイオードD1,D2とセンサ切替用トランジスタQ1,Q2とを有する。フォトダイオードD1,D2は、受光した光の光量に応じた電気信号を出力する。センサ切替用トランジスタQ1,Q2は、1画素内の複数のフォトダイオードD1,D2のいずれか一つを交互に選択する。
【0016】
各画素は、2つのセンサ12a,12bと、同一画素内の2つのセンサ12a,12bで共用されるキャパシタC3と、キャパシタC3の蓄積電荷に応じた2値データを格納するバッファ13と、バッファ13への書込み制御を行うトランジスタQ3と、バッファ13及びキャパシタC3を初期化するリセット用トランジスタQ4とを有する。
【0017】
バッファ13は、スタティックRAM(SRAM)で構成され、例えば、図4に示すように、直列接続された2つのインバータIV1,IV2と、後段のインバータIV2の出力端子と前段のインバータIV1の入力端子との間に配置されるトランジスタQ5と、後段のインバータの出力端子に接続される出力用トランジスタQ6とを有する。
【0018】
信号SPOLBがハイレベルのときに、トランジスタQ5はオンし、2つのインバータIV1,IV2は保持動作を行う。信号OUTiがハイレベルのときに、保持しているデータが検出線に出力される。
【0019】
本実施形態の表示装置は、通常の表示動作を行うこともできるし、スキャナと同様の画像取込みを行うこともできる。通常の表示動作を行う場合は、トランジスタQ3はオフ状態に設定され、バッファ13には有効なデータは格納されない。この場合、信号線には、信号線駆動回路2からの信号線電圧が供給され、この信号線電圧に応じた表示が行われる。
【0020】
一方、画像取込みを行う場合は、図5に示すようにアレイ基板21の上面側に画像取込み対象物(例えば、紙面)22を配置し、バックライト23からの光を対向基板24とアレイ基板21を介して紙面22に照射する。紙面22で反射された光はアレイ基板21上のセンサ12a,12bで受光され、画像取込みが行われる。
【0021】
取り込んだ画像データは、図3に示すようにバッファ13に格納された後、検出線を介して、図1に示すロジックIC33に送られる。このロジックIC33は、本実施形態の表示装置から出力されるデジタル信号を受けて、データの並び替えやデータ中のノイズの除去などの演算処理を行う。
【0022】
図6は図1に示したロジックIC33の内部構成を示すブロック図である。図6に示すように、ロジックIC33は、画素アレイ部1への表示制御を行う表示制御部41と、センサ12a,12bの画像取込制御を行う画像取込制御部42と、ロジックIC33全体の制御を行うCPU43と、CPU43が作業用に利用するメインメモリ44とを有する。
【0023】
画像取込制御部42は、図3の検出線上の撮像データを一時的に格納するバッファメモリ45と、画像取込用の制御信号を生成する制御信号発生回路46とを有する。CPU43は、バッファメモリに格納された撮像データに基づいて取込画像の画像処理を行って表示用の画像データを生成する。
【0024】
表示制御部41は、CPU43が生成した表示用の画像データを一時的に格納するバッファメモリ47と、図1の信号線駆動回路2と走査線駆動回路3の動作タイミングを制御する制御信号を生成する制御信号発生回路48とを有する。
【0025】
画像取込みを行う場合、予め各画素のキャパシタC3に初期電荷を蓄積しておく。センサ12a,12bが白っぽい画像を取り込むと、センサ12a,12bに電流が流れ、そのセンサ12a,12bに対応するキャパシタC3の電荷が放電して、キャパシタC3の両端電圧が低下する。一方、センサ12a,12bが黒っぽい画像を取り込むと、センサ12a,12bにはあまり電流は流れず、キャパシタC3の両端電圧はほとんど変化しない。
【0026】
したがって、キャパシタC3の両端電圧を検出することにより、取込画像の濃淡を判断することができる。本実施形態では、キャパシタC3の両端電圧をSRAMからなるバッファ13に一時的に格納する。このバッファ13は、キャパシタC3の両端電圧がSRAMの初段のインバータのしきい値電圧以上であれば「1」と判断し、しきい値未満であれば「0」と判断する。
【0027】
ところが、センサ12a,12bによる光リーク電流はばらつきがは微弱であるため、キャパシタC3の両端電圧にはばらつきが生じやすく、また、SRAMを構成するトランジスタのしきい値電圧もばらつくため、同じ画像を取り込んでも、場合によって、「1」と判断されたり、「0」と判断されたりする。このようなばらつきは、取込画像のノイズとなって現れる。市販のスキャナなどに良く用いられるシリコンウェハー上に形成される光電変換素子の電流ばらつきと比べて、表示装置のアレイ基板に用いるガラス基板などの絶縁基板上に形成される光電変換素子は、電流ばらつきが大きくなる。後者は、面積が大きく、プロセス温度も低い(基板の耐熱温度に制約される)ため、均一形成が難しい。従って、表示装置特有のばらつき補償手段がなんらかの形で必要となる。また、撮像対象の微妙な階調を再現できることが望ましいが、上記ばらつきにより阻害される。以下では、特性ばらつきの大きいトランジスタおよびリーク電流ばらつきのある光電変換素子で構成されるセンサ回路でありながら、ノイズを少なくできる、あるいは、階調表示を再現することができる手段および構成を説明する。
【0028】
図6に示すCPU43は、センサ12a,12bによる撮像条件を変えて複数回にわたって画像取込みを行い、これら複数回の画像取込みの結果に基づいて、最終的な取込画像データを生成する。具体的には、図7に示すように、キャパシタC3への印加電圧Vprcを4通りに変化させて、各電圧VprcをキャパシタC3に印加した状態でそれぞれ画像取込みを行うための制御信号をガラス基板に供給する。また、ガラス基板から出力される画像取り込みの結果のデジタルデータの演算処理を行う。ガラス基板に入力する信号(デジタル画素データ、制御クロック、制御信号)も、ガラス基板から出力される信号もデジタル信号(撮像結果に基づくデジタル信号)であるから、図6に示す表示制御部と画像取り込み制御部はワンチップ半導体上に形成することが容易である。仮にガラス基板上にD/A変換回路が無い場合は、表示制御部に増幅回路(アナログ回路)が必要となり、ワンチップ化は高コストになってしまうのに比べ有利な構成である。また、近年の半導体製造プロセスの微細化進展・集積度向上に伴い、図6のCPUおよびメインメモリも、表示制御部と画像取り込み制御部とワンチップ化してしまうことも容易である。
【0029】
図8はCPU43の処理動作の一例を示すフローチャートである。まず、CPU43は、各画素ごとに設けられる図3のキャパシタC3の一端に電圧Vprc=3.5V(SRAMの初段インバータの閾値に比較的近い値。インバータの閾値は電源電圧(5V)の半分の2.5Vを中心にばらつく。)を印加して、このキャパシタC3に初期電荷を蓄積する(ステップS1)。
【0030】
次に、1回目の画像取込みを行う(ステップS2)。この場合、画像の白い部分、あるいは、白に近いグレーを読み取ったセンサ12a,12bには電流が流れ、キャパシタC3の初期電荷が放電して、キャパシタC3の両端電圧が低下する。一方、画像の黒い部分を読み取ったセンサ12a,12bには電流が流れないため、キャパシタC3の両端電圧はほとんど変化しない。
【0031】
ステップS2では、キャパシタC3の両端電圧がSRAMの初段のインバータのしきい値電圧より高い場合には、その画素は黒であると判断する。すなわち、まず、取込画像の中で、黒色の部分だけをステップS2で抽出し、抽出された画素を黒色の画素値として確定し、その他の画素を白色の画素値として、メインメモリ44に格納する(ステップS3)。キャパシタC3のプリチャージ電圧がSRAMの初段インバータの閾値電圧に比較的近い電圧としているため、センサ部に対向する画像の部分が多少なりとも白よりだと、幾ばくかのリーク電流が生じ、キャパシタC3の電位は、SRAMの初段インバータの閾値電圧より下回る確立が高くなる。逆にいえば、この状態で、C3の電圧がインバータの閾値電圧より上のままであり続けるということは、対応する画像の部分はまず間違いなく黒と判断してよいということになる。
【0032】
例えば、図9は名刺(白地に黒文字)の画像を取り込んだ例であり、図9(a)はステップS1〜S3で得られる取込画像を示している。ステップS3では、よっぽど黒っぽい画素のみを黒として検出するため、図9(a)のように、全体的に白っぽくて、文字が多少かすれた画像が得られる。
【0033】
次に、キャパシタC3の一端に電圧Vprc=4Vを印加して、このキャパシタC3に初期電荷を蓄積し(ステップS4)、2回目の画像取込みを行う(ステップS5)。この場合、1回目よりもわずかに白っぽい画素まで、黒と判断される可能性がある。
【0034】
2回目の画像取込みが終わると、1回目が白色で、2回目が黒色と判断された画素を抽出し、抽出画素の周囲8画素の1回目の画素値の平均値を計算し、この平均値を抽出画素の画素値とする(ステップS6)。
【0035】
図9(b)はステップS4〜S6で得られる取込画像を示している。図9(a)よりもわずかに白っぽい画像も黒と判断するため、図9(a)よりも全体的に黒っぽい画像が得られる。
【0036】
このステップS6では、例えば、図10の斜線部で示す画素が抽出画素であるとすると、その周囲8画素の画素値G1〜G8の平均値(G1+…+G8)/2を抽出画素の画素値とする。G1〜G8が全て白ならば、画素値は白となるが、G1〜G8に白、黒がいくつかづつあると、画素値は中間調となる。
【0037】
次に、キャパシタC3の一端に電圧Vprc=4.5Vを印加して、このキャパシタC3に初期電荷を蓄積し(ステップS7)、3回目の画像取込みを行う(ステップS8)。この場合、2回目よりもわずかに白っぽい画素まで、黒と判断される可能性がある。
【0038】
図9(c)はステップS7〜S9で得られる取込画像を示している。図9(b)よりもわずかに白っぽい画像も黒と判断するため、図9(b)よりも全体的に黒っぽい画像が得られる。
【0039】
3回目の画像取込みが終わると、2回目が白色で、3回目が黒色と判断された画素を抽出し、抽出画素の周囲8画素の1回目の画素値の平均値を計算し、この平均値を抽出画素の画素値とする(ステップS9)。
【0040】
次に、キャパシタC3の一端に電圧Vprc=5Vを印加して、このキャパシタC3に初期電荷を蓄積し(ステップS10)、4回目の画像取込みを行う(ステップS11)。この場合、3回目よりもわずかに白っぽい画素まで、黒と判断される可能性がある。
【0041】
図9(d)はステップS10〜S12で得られる取込画像を示している。図9(c)よりもわずかに白っぽい画像も黒と判断するため、図9(c)よりも全体的に黒っぽい画像が得られる。
【0042】
4回目の画像取込みが終わると、3回目が白色で、4回目が黒色と判断された画素を抽出し、抽出画素の周囲8画素の1回目の画素値の平均値を計算し、この平均値を抽出画素の画素値とする(ステップS12)。
【0043】
ステップS12の処理を行った結果として得られる画像は、図11に示すものになり、中間調まで表現でき、かつノイズも除去できることがわかる。
【0044】
図12は「T」の文字を含む画像の一例を示す図、図13は図12の点線行の画像取込みを行った結果を示す図である。図示のように、1回目の画像取込時には、画素P7のみが「H」になる。したがって、この時点では、画素P7のみ、黒色と決定され、画素P7には黒色の画素値が割り当てられる。
【0045】
次に、2回目の画像取込みを行うと、画素P9が新たに「H」となる。したがって、その周囲8画素の前回の画素値(この場合、すべて白色の画素値)の平均値を画素P9の画素値とする。
【0046】
次に、3回目の画像取込みを行うと、画素P4が新たに「H」となる。したがって、その周囲8画素の前回の画素値(この場合、すべて白色の画素値)の平均値を画素P4の画素値とする。
【0047】
次に、4回目の画像取込みを行うと、すべての画素P1〜P15が「H」になる。したがって、残りの全画素P1〜P3、P5、P6、P8、P9、P11〜P15について、その周囲8画素の前回の画素値の平均値に基づいて画素値を決定する。
【0048】
このような手法で、図12の全ラインについて図8の処理を行うと、最終的に図14のような画像が得られる。図14を見ればわかるように、画像取込み時のノイズを除去できるとともに、中間色まで再現できる。
【0049】
本実施形態では、図8のフローチャートで示したように、撮影条件を変えて複数回(回数は多いほど、画像再現の精度が高くなる。)画像取込みを行い、各回の画像取込結果に基づいて最終的な取込画像を決定するため、各回の画像取込み結果を記憶しておく必要がある。例えば、図15に示すように、各回の画像取込み結果をメインメモリ44に格納しておくようにすると、必要なメモリ容量が多くなる。セット全体の小型化の要求の強い、携帯電話などの小型情報端末への適用を考えると、限られた計算資源で可能な演算処理が望ましい。計算資源の例として、CPUが計算を行うためのデータを保持するためのメモリがあげられる。
【0050】
このため、本実施形態では、画像取込制御部42内にバッファメモリ45を設け、このバッファメモリ45に1回分の画像取込み結果を格納しておき、この画像取込み結果をメインメモリ44に転送する。CPU43は、図8のフローチャートに従ってメインメモリ44のデータを利用して1回分の処理を行い、その処理結果をメインメモリ44の他の記憶領域に格納する。その間に、バッファメモリ45は次の回の画像取込み結果を格納する。以後、同様の動作を繰り返すことにより、最終的な取込画像が得られる。
【0051】
この場合、図16に示すように、メインメモリ44には、1回分の画像取込み結果のみが格納されるので、メインメモリ44の容量を削減できる。
【0052】
このように、本実施形態では、撮影条件を変えて複数回画像取込みを行った結果に基づいて、最終的な取込画像を決定するため、センサ12a,12bの特性ばらつきやSRAMのしきい値電圧のばらつき等の影響を受けずに画像取込みを行うことができ、ノイズが少なく、中間調まで再現できる取込画像が得られる。
【0053】
上述した実施形態では、複数の撮影条件として、キャパシタC3に印加する電圧を変える例を説明したが、キャパシタC3に印加する電圧を変える代わりに、画像取込みを行う時間を各撮影条件ごとに変えてもよい。あるいは、液晶の透過率を変えても良い。条件のバリエーションの具体的な例を図9に示したが、他にも同様の趣旨でのバリエーションが可能である。
【0054】
また、キャパシタC3に印加する電圧を変えるとともに、画像取込みを行う時間を変化させてもよい。この場合、撮影条件の数をより増やすことができる。
【0055】
(第2の実施形態)
撮像対象の濃淡は必ずしも一様ではなく、場所によって黒の密度が異なる。例えば、図17(a)の「東芝松下ディスプレイ」という文字をセンサで撮像する場合、図17(b)のような撮像結果が得られる。図示のように、「東」という文字は他の文字よりも黒の密度が高いため、黒くつぶれてしまう。逆に、「レ」や「イ」という文字は黒の密度が低いため、ほとんど線が消えかかっている。
【0056】
このように、黒の密度の高い文字が黒つぶれするのは、周囲の白色紙面/ガラス基板界面での多重反射光が入射しにくいためであり、逆に黒の密度が低い文字の線が消えかかるのは、多重反射光が余計に入射して黒線幅が細くなるためである。
【0057】
そこで、以下に説明する第2の実施形態では、撮像対象の部分的な黒密度のばらつきを考慮に入れて画像取込みを行うことを特徴とする。その際、単なるセンサアレイと異なり、表示装置に一体化されていることを積極的に利用して、センサ等の特性ばらつきを各画素の輝度を調節することによって補償する。
【0058】
図18は本発明に係る表示装置の第2の実施形態の全体構成を示すブロック図である。図18の表示装置は、画素アレイ部1と駆動回路の一部が形成されたガラス基板31と、このガラス基板31にフレキシブルケーブル(FPC)51で接続された制御回路基板52とを備えている。
【0059】
ガラス基板31上には、画素TFT11及び画像読取用センサ12が列設された画素アレイ部1と、信号線を駆動する信号線駆動回路2と、走査線を駆動する走査線駆動回路3と、センサ12を制御するセンサ制御回路53と、センサ12の撮像結果を出力する信号処理出力回路54とが形成されている。ガラス基板31上の各回路は、例えばポリシリコンTFTにより形成される。
【0060】
制御回路基板52上には、ガラス基板31上の各回路を制御するコントロールIC55と、画像データ等を記憶するメモリ56と、ガラス基板31及び制御回路基板52で使用する各種の直流電圧を出力する電源回路57とが実装されている。なお、コントロールIC55とは別個にCPUを設けてもよいし、メモリ56や電源回路57をコントロールIC55と一体化してもよいし、ディスクリート部品を制御回路基板52上に実装してもよい。
【0061】
図19は、ガラス基板31上の信号線駆動回路2、走査線駆動回路3、センサ制御回路53及び信号処理出力回路54と、制御回路基板52上のコントロールIC55及びメモリ56との接続関係を示すブロック図である。
【0062】
図示のように、コントロールIC55の内部には、表示制御部41、画像取込制御部42及びCPUが内蔵されている。表示制御部41は、信号線駆動回路2及び走査線駆動回路3に対して、デジタル画素データと、同期信号やクロック信号等の制御信号とを送信する。画像取込制御部42はセンサ制御回路53及び信号処理出力回路54に対して制御信号を送信し、信号処理出力回路54からの撮像データ及び必要に応じて撮像データの位置を明示するための同期信号を受信する。表示制御部41の内部にはバッファメモリ47及び制御信号発生回路48が設けられ、画像取込制御部42の内部にもバッファメモリ45及び制御信号発生回路46が設けられている。
【0063】
図20はガラス基板31の詳細構成を示すブロック図である。本実施形態の画素アレイ部1は、水平方向320画素×垂直方向240画素の表示解像度を有する。画素は水平方向に赤、青、緑の部分に分割され、それぞれごとに信号線が設けられる。信号線の総数は、320×3=960本で、走査線の総数は240本である。
【0064】
走査線駆動回路3は、240段のシフトレジスタ61と、SHUT(誤動作防止回路)62と、レベルシフタ63と、マルチプレクサ(MUX回路)64と、バッファ65とを有する。
【0065】
信号処理出力回路54は、960個のプリチャージ回路66と、3選択デコーダ67と、320段のシフトレジスタ68と、8個の出力バッファ69とを有する。
【0066】
図21は走査線駆動回路3の詳細構成を示す回路図である。図21で特徴的な部分は、レベルシフタ63の後段にMUX回路64を設けたことである。このMUX回路64は、走査線を1ラインごとにオンするか、全走査線を同時にオンするかを切り替える。全走査線を同時にオンするのは、センサ12による撮像結果を格納するキャパシタC3に初期電荷を蓄積するためである。
【0067】
このように、MUX回路64を設けることにより、キャパシタC3に初期電荷を蓄積するか否かを切り替える専用のTFTが不要となり、回路規模を削減できる。
【0068】
図22は信号処理出力回路54の詳細構成を示すブロック図である。図22の信号処理出力回路54は、同期信号を出力する同期信号発生回路71と、120本の信号線から供給される撮像データを1本のシリアルデータに変換する8つのP/S変換回路72と、各P/S変換回路72から出力されたシリアルデータをバッファリングする出力バッファ73と、撮像データの平均階調を検出するカウンタ74とを有する。ここで「平均階調」とは、出力データの階調を複数画素にわたって平均したものをいう。最終的に256階調の画像を構成しようとする場合、10画素中5画素が白、残り5画素が黒のデータの場合、平均階調は、256[階調]x5[画素]/10[画素]=128[階調]とする。
【0069】
図23は同期信号発生回路71の詳細構成を示すブロック図である。図23の同期信号発生回路71は、NANDゲート75及びクロック制御されるD型F/F76を有し、D型F/F76の後段には出力バッファ73が接続されている。絶縁基板上に形成されるNANDゲート等の組み合わせ回路のみでは、TFTの特性ばらつきのため出力データに対する位相ばらつきが大きくなり、同期信号の役割を果たせないことがある。そこで図23のように絶縁基板上のクロックによって制御されるD型F/Fを設けることによって、絶縁基板上のクロックとの位相差を小さくすることが好ましい。
【0070】
図24はP/S変換回路72の詳細構成を示すブロック図である。図24のP/S変換回路72は、3入力1出力のデコーダ77と、ラッチ78と、40段のシフトレジスタ79とを有する。デコーダ77は、図25のような回路で構成される。ラッチ78は、図26のような回路で構成される。シフトレジスタの制御に用いるクロックは図23のD型F/Fの制御に用いるクロックと共通化とすることによって、データと、同期信号との位相差を小さくすることができる。
【0071】
図27は出力バッファ73の詳細構成を示すブロック図である。図示のように、複数のバッファ(インバータ)80を縦続接続して構成される。後段のバッファほど、各インバータを構成するTFTのチャネル幅を大きくして必要な外部負荷(フレキシブルケーブル(FPC)51等)駆動力を確保する。
【0072】
図28は画素アレイ部1の1画素分の詳細回路図、図29はガラス基板31上の1画素分のレイアウト図である。図示のように、1画素は、RGBの3つの副画素81r,81g,81bからなり、各副画素は、画素TFT11と、補助容量Csに電荷を蓄積するか否かを制御する表示制御TFT82と、画像取込センサ12と、センサ12の撮像結果を格納するキャパシタC3と、キャパシタC3の蓄積電荷に応じた2値データを格納するSRAM83と、キャパシタC3に初期電荷を蓄積するための初期化用TFT84と、SRAM83のデータ保持用TFT85とを有する。ここで、各画素の輝度は、補助容量Csに蓄積された電荷に基づいて決まる画素電極電位と、対向基板上に形成されたコモン電極の電位との差によって階調制御される。
【0073】
キャパシタC3の初期化を行う場合は、画素TFT11と初期化用TFT84をオンする。表示素子の輝度を設定するためのアナログ電圧(アナログ画素データ)を補助容量Csに書き込む場合は、画素TFT11と表示制御TFT82をオンする。SRAM83のデータ保持(リフレッシュ)を行う場合は、初期化用TFT84とデータ保持用TFT84をオンする。SRAM83に格納された撮像データを信号線に供給する場合は、画素TFT11とデータ保持用TFT85をオンする。
【0074】
図30は本実施形態の表示装置の動作を説明する図である。通常の表示を行う場合には、モードm1の動作を行う。一方、センサ12による画像取込を行う場合は、まずモードm1の動作を行い全画素の輝度を所定値に設定する。次にモードm2で全画素のキャパシタC3のプリチャージ(初期電荷の蓄積)を行う。次に、モードm3で1画面分の赤色成分の画像取込を行う。次に、モードm4で1画面分の緑色成分の画像取込を行う。そして最後に、モードm5で1画面分の青色成分の画像取込を行う。
【0075】
図31〜図33はモードm1〜m5の動作タイミング図である。以下、これらの図を用いてモードm1〜m5の動作タイミングを順に説明する。
【0076】
モードm1では、図31の時刻t1〜t2に示すように、走査線駆動回路3は走査線を順に駆動し、そのタイミングに合わせて、信号線駆動回路2は各水平ラインごとに信号線にアナログ画素データを供給して画素表示を行う。アナログ画素データは、コントロールIC55から出力されるデジタル画素データを公知のD/A変換回路によって変換して得る。D/A変換回路は公知の技術(特開2000−305535等)によってガラス基板上に信号線駆動回路として薄膜形成する。
【0077】
モードm2では、図32の時刻t3に示すように、走査線駆動回路3はすべての走査線を同タイミングで駆動する。全画素のセンサ容量C3にプリチャージ電圧(5V)が蓄積される。時刻t4で初期化用TFT84とデータ保持用TFT85がともにオンし、SRAM83はリフレッシュ動作を行う。時刻t3から時刻t4の間にセンサ容量C3のプリチャージが完了していなくても、SRAM83のリフレッシュ動作により、全てのセンサ容量C3のプリチャージ電圧がSRAMの電源電圧(5V)に揃う。
【0078】
モードm3では、図32の時刻t5〜t6に示すように、各水平ラインごとに赤色成分の撮像データが信号線に供給される。各信号線に供給された赤色成分の撮像データは、図22に示すP/S変換回路72でシリアルデータに変換されて、8本のデータ線で外部に出力される。
【0079】
モードm4では、図33の時刻t7に示すように、各水平ラインごとに緑色の撮像データが信号線に供給される。モードm5では、図33の時刻t8に示すように、各水平ラインごとに青色の撮像データが信号線に供給される。
【0080】
図18のコントロールIC55は、320画素×240画素の表示領域を、図34に示すように40画素×30画素からなるブロック単位に分割し(水平方向8ブロック×垂直方向8ブロックが形成される)、各ブロックごとに表示輝度を個別に設定した状態で、センサ12による撮像を行う。これは本発明の特徴のひとつである。従来のCMOSイメージセンサと異なり、単にセンサを形成しただけではなく、各画素ごとの輝度制御手段を撮像時に積極的に活用することによって、センサやTFT特性の面内ばらつきを補償し、撮像画面の高品質化(均一性確保等)を図ることができる。
【0081】
図35は図18のコントロールIC55が行う処理動作の一例を示すフローチャートである。まず、各ブロックが所定の基準輝度(例えば、最大輝度の80%)になるように各ブロックの画素表示を行いながら、撮像時間を変化させて、複数回の撮像を行う(ステップS21)。ここでは、例えば、撮像時間を10msec〜50msecまで5msec単位で切替ながら9回撮像(試行撮像)を行う。
【0082】
次に、試行撮像結果に基づいて(撮像時間対平均階調のグラフの内挿によって)各ブロックごとに、ブロック内の平均階調が略中央値(256階調の場合は、128階調の値)になるような撮像時間t(m,n)を求める(ステップS22)。t(m,n)はセンサのリーク電流ばらつき、TFTの特性ばらつき、撮像対象の光反射特性、撮像対象の色、図形や文字などの線分の密度分布などによって様々に変化する。
【0083】
図36に示すように、撮像時間を変えることで、平均階調は大きく変化するため、上述したステップS22では、ブロックごとに最適な撮像時間を求める。
【0084】
次に、求めた撮像時間t(m,n)が基準時間(例えば、30msec)未満か否かをブロックごとに判定する(ステップS23)。基準時間未満のブロックについては、表示輝度Yを基準輝度(例えば、最大輝度の80%)よりも低くし(ステップS24)、基準時間以上のブロックについては、表示輝度Yを基準輝度以上にする(ステップS25)。つまり、最適な撮像時間のばらつきを表示素子の輝度(撮像対象に照射する光量)で補償するのである。このような補償方法は従来のCMOSイメージセンサの技術の延長にはない。なお、撮像時間をブロックごとに変えるのは制御が複雑となり実用的でない。
【0085】
より具体的には、例えば、以下の(1)式に基づいて、各ブロックの表示輝度Yを設定する。ただし、mは行、nは列を表している。
【0086】
【数1】
(1)の計算結果が100%を超える場合には、Y(m,n) = 100%とする。なお、式(1)は例であって、表示素子の特性、センサの特性、撮像対象の特性に応じて変形すべきである。要は最適撮像時間のばらつきを表示輝度で保証するようなものであればよい。
【0087】
次に、撮像時間を例えば0.5msec刻みで変えながら、撮像時間10msec〜50msecまで81枚の撮像を行う(ステップS26;本撮像)。
【0088】
次に、81枚の撮像結果の平均値を計算し、最終的な撮像データを得る(ステップS27)。例えば、図37はステップS27で得られる撮像データの一例を示している。このとき、撮像時間を同じ間隔で変えながら撮像を行うのではなく、図37及び図38に示すように30msec付近の撮像を多めに行うなどの重み付けを行って、例えば、81枚より少ない回数の撮像結果を用いて平均値を計算してもよい。全体の処理時間を短縮できる。あるいは、平均値を計算する際に、各撮像結果に重み付けをしてもよい。
【0089】
図35のような処理を行うことで、図34に示すように撮像対象に黒密度のばらつきがあっても、図39に示すように、部分的な黒つぶれやかすれのない良好な撮像結果が得られる。
【0090】
このように、第2の実施形態では、撮像対象の黒密度を事前に(試行撮像によって)調べて、撮像対象に適した表示輝度をブロック単位で設定した状態で、センサ12による撮像を行うため、部分的な黒つぶれやかすれのない、均一な画質の撮像画像が得られる。
【0091】
本実施形態では、撮像対象の黒密度の分布の偏りに起因する撮像結果の黒つぶれを解決する手法を説明したが、センサのリーク電流の偏りやTFTの特性ばらつきの偏り等に起因する撮像結果の画質劣化の解決手段としても、同様の効果を奏する。
【0092】
また、試行撮像の後の本撮像の動作を次のような手順で行ってもよい。
(R1)図30のモードm1を行い、液晶の表示を全面赤表示にする。但し試行撮像に基づいて各ブロックごとに階調は変化させる。
(R2)モードm2を行い、全てのセンサ容量のプリチャージを行う。
(R3)モードm3,m4,m5を行い、赤信号線、緑信号線及び青信号線に属すする画素の撮像データも出力する。
(G1)モードm1を行い、液晶の表示を全面緑表示にする。但し試行撮像に基づいて各ブロックごとに階調は変化させる。
(G2)モードm2を行い、全てのセンサ容量のプリチャージを行う。
(G3)モードm3,m4,m5を行い、赤信号線、緑信号線及び青信号線に属すする画素の撮像データも出力する。
(B1)モードm1を行い、液晶の表示を全面青表示とする。但し試行撮像に基づいて各ブロックごとに階調は変化させる。
(B2)モードm2を行い、全てのセンサ容量のプリチャージを行う。
(B3)モードm3,m4,m5を行い、赤信号線、緑信号線及び青信号線に属すする画素の撮像データも出力する。
【0093】
一見、表示を全面赤として撮像を行う際、緑画素及び青画素のセンサのデータは無意味と思い込みやすいがそうではない。とくに光源(液晶層の背面に設けるバックライトの光が拡散光であり撮像面にいろいろな角度から光が照射されるような場合で、かつ、図5のように液晶セルの観察面側にセンサアレイが配置される構成の場合に意義がある。従来の密着CMOSイメージセンサと異なり、センサは撮像対象と密着できず、d(ガラス基板厚+偏光板などの光学フィルム厚)程度(0.2乃至0.7mm)は離れる。バックライト光は確かに赤画素からのみ発するが、撮像対象での反射光は適当に拡散する。拡散範囲はd程度であり画素ピッチはd程度かそれより小さい。したがって、緑画素及び青画素のセンサにも撮像対象に基づく光が入射する。上述の(R1)〜(B3)の処理を行うことにより、水平方向により高解像度な撮像結果を得ることができる。以下撮像時間を変えながら複数回繰り返して平均化処理する部分は詳述した実施形態と同様なので省略する。
【0094】
試行撮像では結局、各ブロックごとの平均階調を知れば足りることに着目すると、試行撮像においては、カウンタによる平均階調の計数結果のみブロックごとに出力するように構成してもよい。8個のデータ出力回路を停止して外部負荷駆動するための消費電力を節約することができる。
【0095】
また、本実施形態ではSRAMを画素内に設け、▲1▼センサの微弱な電流の増幅、▲2▼撮像後データを出力するまでの間のデータ保持をさせているが、SRAMに限定されない。ソースフォロアで▲1▼の電流増幅をしてもよい。撮像後データを出力するまでの間、リークなどのためデータを保持し続けることができない場合は、撮像直後にデータを出力するような制御回路及びシーケンスを用意すればよい。
【0096】
また、表示画面を区分してブロックごとに撮像時の表示輝度を調節する例を説明したが、対角画面寸法が比較的小さい表示装置(2インチ程度以下の携帯電話向け等)の場合や、センサやTFTの特性のチップ内ばらつきが小さい場合は、画面を分割せずに(分割数=1として)適用してもよい。その場合さらに、試行撮像と本撮像を分けずに次のように行ってもよい。
【0097】
すなわち、(1)まず、撮像時間をt0=10msec(どんな撮像対象でも殆どセンサに光リークが生じず、黒つぶれ画面が得られるような時間)で最初の撮像データ出力と、平均階調の計数を行う。最初の撮像データはコントロールIC55等のメモリに保存する。
【0098】
(2)t=t0+Δt(例えばΔt=0.5msec)として2回目の撮像をし、平均階調の計数を行う。
【0099】
(3)平均階調が所定値未満であれば、撮像データを出力することなく、撮像時間をt=t+2Δtとして、撮像と平均階調の計数を行う。
【0100】
(4)計数結果が所定値以上であれば撮像データを出力してコントロールIC55等のメモリに加算する。
【0101】
(5)(2)〜(4)を平均階調が256階調程度になるまで撮像時間tを適当に増やしながら繰り返す。
【0102】
上述した(1)〜(5)によりメモリ上に完成する画像を上述の実施形態で得られるものと同等の高品位な撮像結果と考えることができる。しかも画像演算のためのメモリは1フレーム程度しか要しない。ハード資源に制約のある携帯電話などで特に有効である。
【0103】
(第3の実施形態)
第2の実施形態の場合、ブロックごとに表示輝度を設定するため、場合によっては、隣接するブロック同士が著しく表示輝度が異なる場合もありうる。
【0104】
図40は第2の実施形態における各ブロックの表示輝度の一例を示す図であり、横軸はブロックの位置、縦軸は表示輝度を表している。理解がしやすいように、特定の1行に属するブロックを抜き出した。また、図41は第2の実施形態における隣接する4ブロックの撮像画像を図式化した図である。これらの図に示すように、隣接するブロック同士の表示輝度が不連続に変化している。このため、隣接するブロック同士で輝度差が大きいと、白密度の多い撮像対象を撮像したときに、図41のような色ムラが起きるおそれがある。たとえば同じ白地のはずなのに、撮像結果は市松状のブロックごとに白さが違って見えてしまうようなことが起こる。
【0105】
そこで、第3の実施形態では、各ブロック内の中央画素については、図35と同様の処理により表示輝度を設定し、中央画素から徐々に表示輝度を変化させ、隣接ブロックの境界付近の輝度差があまり生じないようにする。
【0106】
図42は図40と同じ条件で撮像を行った場合の第3の実施形態の処理結果を示す図、図43は第3の実施形態における隣接する4ブロックの撮影画像を図式化した図である。これらの図に示すように、隣接するブロック間で輝度差が大きく変化しなくなる。
【0107】
このように、第3の実施形態では、ブロックの中央画素から周辺にかけて徐々に輝度を変化させ、隣接するブロック間で輝度が大きく変化しないようにしたため、ブロック間の輝度差による撮像画像の色ムラがなくなる。
【0108】
(第4の実施形態)
第4の実施形態は、センサ12による撮像結果を、予め用意した基準パターンとパターンマッチングするものである。
【0109】
図44は本発明に係る表示装置の第4の実施形態の概略構成を示すブロック図である。図44の表示装置は、図19の構成に加えて、複数の基準パターンを格納する基準パターン格納部86を備えている。
【0110】
図45は基準パターン格納部に格納されている基準パターンの一例である。各基準パターン1a,1b,1c,2a,2b,2c,2d,3a,3b,3c,3dは、8画素×8画素のサイズであり、黒で示した部分がパターンを示している。なお、基準パターンのサイズや種類は図示したものに限定されない。
【0111】
図46は本実施形態のコントロールIC55が行う処理動作を示すフローチャートである。以下では、仮に図47のような撮像対象をセンサ12で撮像した結果、図48のような撮像データが得られたとして、図46のフローチャートの処理動作を説明する。
【0112】
本実施形態のコントロールIC55は、センサ12の撮像データを基準パターン格納部86に格納されているすべての基準パターンと比較する(ステップS31)。
【0113】
図45の各基準パターンの上部に付された数字は、図48の撮像データとの不一致画素数である。コントロールIC55は、不一致画素数の少ない基準パターンをいくつか選択する(ステップS32)。例えば、コントロールIC55が図45の4つの基準パターン1a,1b,1c,1dを選択したとする。
【0114】
次に、コントロールIC55は、選択した基準パターンの明暗を反転させたパターン(図49の反転パターンn1a,n1b,n1c,n1d)を生成し(ステップS33)、この反転パターンを画素アレイ部1に順に表示させながら、センサ12による撮像を繰返し行う(ステップS34)。この場合、図49の反転パターンn1a,n1b,n1c,n1dの白部分のみ光が透過するため、センサ12の撮像データは図50のようになる。撮像データr1aは基準パターン1aと反転パターンn1aに対応し、撮像データr1bは基準パターン1bと反転パターンn1bに対応し、撮像データr1cは基準パターン1cと反転パターンn1cに対応し、撮像データr1dは基準パターン1dと反転パターンn1dに対応する。
【0115】
次に、撮像データの中から、白色画素数がより少ない基準パターンをいくつか選択する(ステップS35)。例えば、図50の例では、2つの基準パターン1a,1bを選択する。
【0116】
次に、選択した基準パターンに基づいて、最終的な撮像結果を得る(ステップS36)。ここでは、選択した基準パターンと最初に得られた撮像データとを平均化するなどして、図51に示す最終的な撮像結果を得る。
【0117】
このように、第4の実施形態では、予め基準パターンを複数種類用意し、センサ12による撮像データを基準パターンと比較して最終的な撮像データを生成するため、センサ12の解像度をあまり高くすることなく、高品質の撮像データが得られる。特に、本実施形態は、形状が予めパターン化されている撮像対象を撮像する場合に特に効果が大きい。
【0118】
上述した各実施形態では、本発明に係る表示装置を液晶表示装置に適用した例について説明したが、本発明は、EL(Electroluminescense)表示装置やPDP(Plasma Display Panel)などの他の表示装置にも適用可能である。
【0119】
【発明の効果】
以上詳細に説明したように、本発明によれば、複数の撮影条件で画像取込みを行った結果に基づいて取込画像のデジタル画像データを生成するため、撮像部の特性ばらつき等の影響を受けることなく画像取込みを行うことができ、取込画像の品質を向上できる。また、複数回の画像取り込みおよび演算を行うにもかかわらず、多くの計算資源を要しない。
【0120】
また、本発明によれば、表示素子の表示輝度をブロックごとに設定した状態で撮像部による撮像を行うため、撮像対象に部分的な黒密度のばらつきがあっても、黒つぶれやかすれのない高品質の撮像画像が得られる。
【0121】
さらに、本発明は、撮像部による撮像結果を、予め用意した基準パターンと比較して、その比較結果に基づいて最終的な撮像データを生成するため、撮像部の解像度を上げなくても、撮像対象に忠実な撮像データが得られる。
【図面の簡単な説明】
【図1】本発明に係る表示装置の第1の実施形態の概略構成図。
【図2】画素アレイ部1の一部を詳細に示したブロック図。
【図3】図2の一部を詳細に示した回路図。
【図4】SRAMの内部構成を示す回路図。
【図5】表示装置の断面図。
【図6】図1に示したロジックICの内部構成を示すブロック図。
【図7】キャパシタに印加する電圧を切り替える例を示す図。
【図8】CPUの処理動作の一例を示すフローチャート。
【図9】名刺の画像を取り込む例を示す図。
【図10】周囲8画素の平均を取る様子を示す図。
【図11】図8の処理結果を示す画像の例を示す図。
【図12】「T」の文字を含む画像の一例を示す図。
【図13】図12の点線行の画像取込みを行った結果を示す図。
【図14】図13の画像を取り込んだ結果として最終的に得られる図。
【図15】各撮影条件での画像取込み結果を別個にメインメモリに格納する例を示す図。
【図16】メインメモリの容量を削減する例を示す図。
【図17】(a)は撮像対象の一例を示す図、(b)は撮像結果の一例を示す図。
【図18】本発明に係る表示装置の第2の実施形態の全体構成を示すブロック図。
【図19】ガラス基板上の信号線駆動回路、走査線駆動回路、センサ制御回路及び信号処理出力回路と、制御回路基板上のコントロールIC及びメモリとの接続関係を示すブロック図。
【図20】ガラス基板31の詳細構成の一例を示すブロック図。
【図21】走査線駆動回路3の詳細構成の一例を示す回路図。
【図22】信号処理出力回路54の詳細構成の一例を示すブロック図。
【図23】同期信号発生回路71の詳細構成の一例を示すブロック図。
【図24】P/S変換回路72の詳細構成の一例を示すブロック図。
【図25】デコーダの内部構成の一例を示す回路図。
【図26】ラッチの内部構成の一例を示す回路図。
【図27】出力バッファ73の詳細構成を示すブロック図。
【図28】画素アレイ部1の1画素分の詳細回路図。
【図29】ガラス基板31上の1画素分のレイアウト図。
【図30】本実施形態の表示装置の動作を説明する図。
【図31】モードm1の動作タイミング図。
【図32】モードm2,m3の動作タイミング図。
【図33】モードm4,m5の動作タイミング図。
【図34】ブロック分割を説明する図。
【図35】図18のコントロールIC55が行う処理動作の一例を示すフローチャート。
【図36】撮像時間と平均階調との関係を示す図。
【図37】ステップS7で得られる撮像データの一例を示す図。
【図38】平均階調増分を説明する図。
【図39】本実施形態の撮像結果の一例を示す図。
【図40】第2の実施形態における各ブロックの表示輝度の一例を示す図。
【図41】第2の実施形態における隣接する4ブロックの撮像画像を図式化した図。
【図42】図40と同じ条件で撮像を行った場合の第3の実施形態の処理結果を示す図。
【図43】第3の実施形態における隣接する4ブロックの撮影画像を図式化した図。
【図44】本発明に係る表示装置の第4の実施形態の概略構成を示すブロック図。
【図45】基準パターン格納部に格納されている基準パターンの一例を示す図。
【図46】本実施形態のコントロールIC55が行う処理動作を示すフローチャート。
【図47】撮像対象の一例を示す図。
【図48】撮像結果の一例を示す図。
【図49】反転パターンの一例を示す図。
【図50】センサの撮像データの一例を示す図。
【図51】最終的な撮像結果の一例を示す図。
【符号の説明】
1 画素アレイ部
2 信号線駆動回路
3 走査線駆動回路
4 検出回路&出力回路
11 画素TFT
12a,12b センサ
13 バッファ
21 アレイ基板
22 紙面
23 バックライト
24 対向基板
31 ガラス基板
32 半導体基板
33 ロジックIC
52 制御回路基板
53 センサ制御回路
54 信号処理出力回路
55 コントロールIC
56 メモリ
86 基準パターン格納部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a display device having an image capturing function.
[0002]
The liquid crystal display device includes an array substrate on which signal lines, scanning lines, and pixel TFTs are arranged in rows, and a driving circuit that drives the signal lines and scanning lines. With the recent advancement and development of integrated circuit technology, a process technology for forming a part of a drive circuit on an array substrate has been put to practical use. As a result, the entire liquid crystal display device can be made lighter, thinner and smaller, and is widely used as a display device for various portable devices such as a mobile phone and a notebook computer.
[0003]
Meanwhile, there has been proposed a display device having an image capturing function in which a contact area sensor for capturing an image is arranged on an array substrate (for example, see
[0004]
Conventional display devices equipped with this type of image capture function change the amount of charge in a capacitor connected to the sensor in accordance with the amount of light received by the sensor, and detect the voltage across the capacitor to capture the image. It is carried out.
[0005]
[Patent Document 1]
JP 2001-292276 A
[Patent Document 2]
JP 2001-339640 A
[0006]
[Problems to be solved by the invention]
However, since the current flowing through the sensor is weak, it is difficult to accurately detect a change in the voltage across the capacitor due to the current, and the measurement error increases. For this reason, noise tends to appear in the captured image.
[0007]
When an SRAM or a buffer circuit is connected to the capacitor to detect the voltage across the capacitor, whether the threshold voltage of a transistor forming the SRAM or the buffer circuit is exceeded is “0” or “1”. Is determined, the thresholds of the transistors vary, and thus the criteria for “0” and “1” may be shifted. In addition, since the current flowing through the sensor also varies, the criterion of “0” and “1” may be shifted.
[0008]
The present invention has been made in view of such a point, and an object of the present invention is to provide a display device capable of capturing an image without being affected by variations in light leakage and variations in electrical characteristics of transistors and the like. Is to provide.
[0009]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention provides a display element formed near each intersection of signal lines and scanning lines arranged in rows and columns, and at least one display element corresponding to each of the display elements. An imaging unit that receives incident light in a specified range and converts it into an electric signal, a charge storage unit that accumulates a charge corresponding to the electric signal converted by the imaging unit, and a plurality of imaging conditions. And a signal processing unit that generates digital image data corresponding to an image captured by the imaging unit based on the charge stored in the charge storage unit.
[0010]
Further, according to the present invention, at least one display element is provided corresponding to each of the display elements formed near each intersection of signal lines and scanning lines arranged in rows and columns, and each of the display elements is designated. An imaging unit that receives incident light in a range and converts the light into an electric signal; a charge accumulation unit that accumulates a charge corresponding to the electric signal converted by the imaging unit; and a binary corresponding to the accumulated charge of the charge accumulation unit An image data storage unit for storing data and, for each block composed of a plurality of adjacent display elements, detecting an average gradation of an object to be imaged in the block based on binary data stored in the image data storage unit An average gradation detection unit, based on the detection result of the average gradation detection unit, a luminance setting unit that individually sets the display luminance of the display element when performing imaging with the imaging unit for each of the blocks, The imaging An imaging time control unit that controls switching of the imaging time in a plurality of ways, and individual imaging that is switched and controlled by the imaging time control unit with each of the blocks set to the display luminance set by the luminance setting unit. Image data generating means for generating digital image data corresponding to a captured image based on an imaging result of the imaging unit over time.
[0011]
Also, at least one display element is provided in the vicinity of each intersection of the signal lines and the scanning lines arranged in rows and columns, and at least one display element is provided corresponding to each of the display elements, and each of the display elements has an incident light in a designated range. An imaging unit that receives light and converts it into an electric signal; a charge accumulation unit that accumulates electric charges according to the electric signal converted by the imaging unit; and stores binary data corresponding to the accumulated charge of the charge accumulation unit. An imaging data storage unit, a reference pattern storage unit that stores a plurality of reference patterns indicating a display mode of a block including a plurality of display elements used when imaging is performed by the imaging unit, and an imaging result of the imaging unit A reference pattern selection unit for selecting a plurality of types of reference patterns from the reference pattern storage unit that are similar to the reference pattern; While displaying the turn at the display device, provided on the basis of a result of repeated imaging at the imaging unit, an image data generation means for generating a digital image corresponding to the captured image, a.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a display device according to the present invention will be specifically described with reference to the drawings.
FIG. 1 is a schematic configuration diagram of a first embodiment of a display device according to the present invention, which is characterized by having an image capturing function. 1 includes a
[0013]
FIG. 2 is a block diagram showing a part of the
[0014]
FIG. 2 shows an example in which two
[0015]
FIG. 3 is a circuit diagram showing a part of FIG. 2 in detail. As shown in FIG. 3, the
[0016]
Each pixel includes two
[0017]
The
[0018]
When the signal SPOLB is at a high level, the transistor Q5 is turned on, and the two inverters IV1 and IV2 perform a holding operation. When the signal OUTi is at a high level, the held data is output to the detection line.
[0019]
The display device of the present embodiment can perform a normal display operation, and can also perform image capture similar to a scanner. When a normal display operation is performed, the transistor Q3 is turned off, and no valid data is stored in the
[0020]
On the other hand, when performing image capture, an image capture target (for example, a paper surface) 22 is disposed on the upper surface side of the
[0021]
The captured image data is stored in the
[0022]
FIG. 6 is a block diagram showing the internal configuration of the
[0023]
The image
[0024]
The
[0025]
When an image is captured, an initial charge is stored in the capacitor C3 of each pixel in advance. When the
[0026]
Therefore, by detecting the voltage between both ends of the capacitor C3, the density of the captured image can be determined. In the present embodiment, the voltage between both ends of the capacitor C3 is temporarily stored in the
[0027]
However, since the light leak currents due to the
[0028]
The
[0029]
FIG. 8 is a flowchart showing an example of the processing operation of the
[0030]
Next, the first image capture is performed (step S2). In this case, a current flows through the
[0031]
In step S2, when the voltage across the capacitor C3 is higher than the threshold voltage of the first inverter of the SRAM, it is determined that the pixel is black. That is, first, only the black portion in the captured image is extracted in step S2, the extracted pixels are determined as black pixel values, and the other pixels are stored in the
[0032]
For example, FIG. 9 shows an example in which an image of a business card (black letters on a white background) is captured, and FIG. 9A shows the captured images obtained in steps S1 to S3. In step S3, since only the most black pixels are detected as black, an image which is entirely whitish and has slightly blurred characters is obtained as shown in FIG. 9A.
[0033]
Next, a voltage Vprc = 4 V is applied to one end of the capacitor C3 to accumulate initial charges in the capacitor C3 (step S4), and a second image capture is performed (step S5). In this case, even pixels slightly whitish than the first time may be determined as black.
[0034]
When the second image capturing is completed, the pixels determined to be white in the first time and black in the second time are extracted, and the average value of the first pixel values of eight pixels around the extracted pixel is calculated. Is the pixel value of the extracted pixel (step S6).
[0035]
FIG. 9B shows the captured image obtained in steps S4 to S6. Since an image that is slightly whitish than that in FIG. 9A is also determined to be black, an image that is entirely darker than that in FIG. 9A is obtained.
[0036]
In step S6, for example, assuming that a pixel indicated by a hatched portion in FIG. 10 is an extracted pixel, an average value (G1 +... + G8) / 2 of pixel values G1 to G8 of eight pixels around the extracted pixel is defined as a pixel value of the extracted pixel. I do. If G1 to G8 are all white, the pixel value is white, but if some of G1 to G8 are white and black, the pixel value is halftone.
[0037]
Next, a voltage Vprc = 4.5 V is applied to one end of the capacitor C3 to accumulate initial charges in the capacitor C3 (step S7), and a third image capture is performed (step S8). In this case, even pixels slightly whitish than the second time may be determined to be black.
[0038]
FIG. 9C shows the captured image obtained in steps S7 to S9. Since an image that is slightly whitish than that in FIG. 9B is also determined to be black, an image that is entirely darker than that in FIG. 9B is obtained.
[0039]
When the third image capturing is completed, the pixels determined to be white in the second time and black in the third time are extracted, and the average value of the first pixel values of eight pixels around the extracted pixel is calculated. Is the pixel value of the extracted pixel (step S9).
[0040]
Next, a voltage Vprc = 5 V is applied to one end of the capacitor C3 to accumulate initial charges in the capacitor C3 (step S10), and a fourth image capture is performed (step S11). In this case, even pixels slightly whitish than the third time may be determined to be black.
[0041]
FIG. 9D shows the captured image obtained in steps S10 to S12. Since an image that is slightly whitish than that in FIG. 9C is also determined to be black, an image that is entirely darker than that in FIG. 9C is obtained.
[0042]
When the fourth image capture is completed, the pixels determined to be white in the third time and black in the fourth time are extracted, and the average value of the first pixel values of eight pixels around the extracted pixel is calculated. Is the pixel value of the extracted pixel (step S12).
[0043]
The image obtained as a result of performing the processing in step S12 is as shown in FIG. 11, and it can be seen that the image can be expressed up to the halftone and the noise can be removed.
[0044]
FIG. 12 is a diagram illustrating an example of an image including the character “T”, and FIG. 13 is a diagram illustrating a result obtained by capturing an image of a dotted line in FIG. As shown, at the time of the first image capture, only the pixel P7 becomes “H”. Therefore, at this time, only the pixel P7 is determined to be black, and the pixel P7 is assigned a black pixel value.
[0045]
Next, when the second image capturing is performed, the pixel P9 is newly set to “H”. Therefore, the average value of the previous pixel values (all the white pixel values in this case) of the eight surrounding pixels is set as the pixel value of the pixel P9.
[0046]
Next, when the third image capturing is performed, the pixel P4 is newly set to “H”. Therefore, the average value of the previous pixel values (all the white pixel values in this case) of the eight surrounding pixels is set as the pixel value of the pixel P4.
[0047]
Next, when the fourth image capture is performed, all the pixels P1 to P15 become “H”. Therefore, the pixel values of all the remaining pixels P1 to P3, P5, P6, P8, P9, P11 to P15 are determined based on the average value of the previous pixel values of the surrounding eight pixels.
[0048]
When the processing of FIG. 8 is performed on all the lines of FIG. 12 by such a method, an image as shown in FIG. 14 is finally obtained. As can be seen from FIG. 14, it is possible to remove noise at the time of capturing an image and to reproduce even an intermediate color.
[0049]
In the present embodiment, as shown in the flowchart of FIG. 8, image capturing is performed a plurality of times (the greater the number of times, the higher the accuracy of image reproduction is improved), and the image capturing is performed based on the result of each image capturing. In order to determine the final captured image, it is necessary to store the result of each image capture. For example, as shown in FIG. 15, if the results of each image capture are stored in the
[0050]
For this reason, in the present embodiment, a
[0051]
In this case, as shown in FIG. 16, since only one image capture result is stored in the
[0052]
As described above, in the present embodiment, the final captured image is determined based on the result of performing the image capturing a plurality of times while changing the photographing conditions, and thus the characteristic variation of the
[0053]
In the above-described embodiment, an example in which the voltage applied to the capacitor C3 is changed as a plurality of shooting conditions has been described. However, instead of changing the voltage applied to the capacitor C3, the time for image capture is changed for each shooting condition. Is also good. Alternatively, the transmittance of the liquid crystal may be changed. Although a specific example of the variation of the condition is shown in FIG. 9, other variations with the same purpose are possible.
[0054]
Further, while changing the voltage applied to the capacitor C3, the time during which the image is captured may be changed. In this case, the number of shooting conditions can be further increased.
[0055]
(Second embodiment)
The density of the imaging target is not always uniform, and the density of black differs depending on the location. For example, when the image of “Toshiba Matsushita Display” in FIG. 17A is captured by the sensor, an imaging result as shown in FIG. 17B is obtained. As shown in the figure, the character "East" has a higher density of black than other characters, and is therefore blackened out. On the other hand, the characters “レ” and “イ” have almost black lines because the density of black is low.
[0056]
The reason why the characters with high black density are blackened is that multiple reflection light at the surrounding white paper surface / glass substrate interface is difficult to enter, and conversely, the lines of the characters with low black density disappear. This is because the multiple reflection light is additionally incident and the black line width is reduced.
[0057]
Therefore, a second embodiment described below is characterized in that an image is captured in consideration of a partial variation in black density of an imaging target. At this time, unlike a mere sensor array, by utilizing the fact that it is integrated into a display device, characteristic variations of sensors and the like are compensated by adjusting the luminance of each pixel.
[0058]
FIG. 18 is a block diagram showing the overall configuration of the second embodiment of the display device according to the present invention. The display device shown in FIG. 18 includes a
[0059]
On a
[0060]
On the control circuit board 52, a control IC 55 for controlling each circuit on the
[0061]
FIG. 19 shows a connection relationship between the signal
[0062]
As illustrated, the
[0063]
FIG. 20 is a block diagram showing a detailed configuration of the
[0064]
The scanning
[0065]
The signal
[0066]
FIG. 21 is a circuit diagram showing a detailed configuration of the scanning
[0067]
By providing the
[0068]
FIG. 22 is a block diagram showing a detailed configuration of the signal
[0069]
FIG. 23 is a block diagram showing a detailed configuration of the synchronization
[0070]
FIG. 24 is a block diagram showing a detailed configuration of the P /
[0071]
FIG. 27 is a block diagram showing a detailed configuration of the
[0072]
FIG. 28 is a detailed circuit diagram of one pixel of the
[0073]
When the initialization of the capacitor C3 is performed, the
[0074]
FIG. 30 is a diagram for explaining the operation of the display device of the present embodiment. When performing a normal display, the operation in the mode m1 is performed. On the other hand, when an image is captured by the
[0075]
FIGS. 31 to 33 are operation timing diagrams of the modes m1 to m5. Hereinafter, the operation timings of the modes m1 to m5 will be sequentially described with reference to these drawings.
[0076]
In the mode m1, as shown from time t1 to time t2 in FIG. 31, the scanning
[0077]
In the mode m2, as shown at time t3 in FIG. 32, the scanning
[0078]
In the mode m3, as shown at times t5 to t6 in FIG. 32, the imaging data of the red component is supplied to the signal line for each horizontal line. The image data of the red component supplied to each signal line is converted into serial data by a P /
[0079]
In the mode m4, as shown at time t7 in FIG. 33, green imaging data is supplied to the signal line for each horizontal line. In the mode m5, as shown at time t8 in FIG. 33, blue imaging data is supplied to the signal line for each horizontal line.
[0080]
The control IC 55 in FIG. 18 divides the display area of 320 pixels × 240 pixels into blocks of 40 pixels × 30 pixels as shown in FIG. 34 (eight horizontal blocks × eight vertical blocks are formed). Then, imaging is performed by the
[0081]
FIG. 35 is a flowchart showing an example of the processing operation performed by the control IC 55 of FIG. First, while performing pixel display of each block so that each block has a predetermined reference luminance (for example, 80% of the maximum luminance), the image pickup time is changed and image pickup is performed a plurality of times (step S21). Here, for example, nine times of imaging (trial imaging) are performed while switching the imaging time from 10 msec to 50 msec in units of 5 msec.
[0082]
Next, based on the trial imaging results (by interpolation of a graph of imaging time versus average gray level), for each block, the average gray level in the block is approximately the median value (128 gray levels in the case of 256 gray levels). Is obtained (step S22). t (m, n) varies variously depending on leak current variation of the sensor, variation of TFT characteristics, light reflection characteristics of the imaging target, color of the imaging target, density distribution of lines of figures, characters, and the like.
[0083]
As shown in FIG. 36, by changing the imaging time, the average gradation greatly changes. Therefore, in the above-described step S22, the optimal imaging time is obtained for each block.
[0084]
Next, it is determined for each block whether or not the obtained imaging time t (m, n) is shorter than a reference time (for example, 30 msec) (step S23). The display luminance Y is set lower than the reference luminance (for example, 80% of the maximum luminance) for blocks less than the reference time (step S24), and the display luminance Y is set to the reference luminance or more for blocks longer than the reference time (step S24). Step S25). That is, the optimal variation in the imaging time is compensated for by the luminance of the display element (the amount of light applied to the imaging target). Such a compensation method is not an extension of the conventional CMOS image sensor technology. Changing the imaging time for each block is complicated and impractical.
[0085]
More specifically, for example, the display luminance Y of each block is set based on the following equation (1). Here, m represents a row, and n represents a column.
[0086]
(Equation 1)
If the calculation result of (1) exceeds 100%, Y (m, n) = 100%. Expression (1) is an example, and should be modified according to the characteristics of the display element, the characteristics of the sensor, and the characteristics of the imaging target. In short, any method can be used as long as the variation in the optimal imaging time is guaranteed by the display luminance.
[0087]
Next, while changing the imaging time at intervals of, for example, 0.5 msec, 81 images are captured from the imaging time of 10 msec to 50 msec (step S26; main imaging).
[0088]
Next, an average value of the 81 imaging results is calculated to obtain final imaging data (step S27). For example, FIG. 37 illustrates an example of the imaging data obtained in step S27. At this time, instead of performing the imaging while changing the imaging time at the same interval, weighting is performed such as performing more imaging near 30 msec as shown in FIGS. The average value may be calculated using the imaging result. Overall processing time can be reduced. Alternatively, when calculating the average value, each imaging result may be weighted.
[0089]
By performing the processing as shown in FIG. 35, even if the imaging target has a variation in black density as shown in FIG. 34, as shown in FIG. 39, a good imaging result without partial blackout or blurring can be obtained. can get.
[0090]
As described above, in the second embodiment, the black density of the imaging target is checked in advance (by trial imaging), and the imaging by the
[0091]
In the present embodiment, the method of solving the blackening of the imaging result due to the uneven distribution of the black density of the imaging target has been described. However, the imaging result caused by the unevenness of the leak current of the sensor, the unevenness of the characteristic variation of the TFT, and the like. The same effect can be obtained as a solution for the image quality deterioration.
[0092]
Further, the operation of the main imaging after the trial imaging may be performed in the following procedure.
(R1) The mode m1 in FIG. 30 is performed, and the display of the liquid crystal is entirely displayed in red. However, the gradation is changed for each block based on the trial imaging.
(R2) Perform mode m2 to precharge all sensor capacitances.
(R3) Modes m3, m4, and m5 are performed, and imaging data of pixels belonging to the red signal line, the green signal line, and the blue signal line are also output.
(G1) The mode m1 is performed so that the display of the liquid crystal is entirely green. However, the gradation is changed for each block based on the trial imaging.
(G2) Perform mode m2 to precharge all sensor capacitances.
(G3) Perform the modes m3, m4, and m5, and also output the imaging data of the pixels belonging to the red signal line, the green signal line, and the blue signal line.
(B1) The mode m1 is performed, and the liquid crystal display is entirely displayed in blue. However, the gradation is changed for each block based on the trial imaging.
(B2) Perform mode m2 to precharge all sensor capacitances.
(B3) The modes m3, m4, and m5 are performed, and the imaging data of the pixels belonging to the red, green, and blue signal lines are also output.
[0093]
At first glance, when imaging is performed with the display being entirely red, it is easy to assume that the sensor data of the green and blue pixels is meaningless, but this is not the case. In particular, in the case where the light from the light source (backlight provided on the back side of the liquid crystal layer is diffused light and the image pickup surface is irradiated with light from various angles, and as shown in FIG. This is significant in the case of a configuration in which an array is arranged.Unlike a conventional contact CMOS image sensor, the sensor cannot adhere to an object to be imaged and has a thickness of about d (glass substrate thickness + optical film thickness such as a polarizing plate) (0.2). The backlight light is emitted only from the red pixels, but the reflected light from the object to be imaged is appropriately diffused, the diffusion range is about d, and the pixel pitch is about d or smaller. Therefore, light based on the object to be imaged is also incident on the sensors of the green and blue pixels, and by performing the above-described processes (R1) to (B3), an imaging result with higher resolution in the horizontal direction can be obtained. Portion averaging process is repeated a plurality of times while changing the following imaging time is omitted because it is similar to the embodiment described in detail.
[0094]
Paying attention to the fact that it is sufficient to know the average gray level of each block in the trial imaging, the trial imaging may be configured to output only the counting result of the average gray level by the counter for each block. Power consumption for driving the external load by stopping the eight data output circuits can be saved.
[0095]
Further, in the present embodiment, an SRAM is provided in the pixel to (1) amplify a weak current of the sensor and (2) retain data until outputting data after imaging, but the present invention is not limited to the SRAM. The current follow-up (1) may be performed by the source follower. If data cannot be held due to leakage or the like until data is output after imaging, a control circuit and a sequence that outputs data immediately after imaging may be prepared.
[0096]
Also, an example has been described in which the display screen is divided and the display brightness at the time of imaging is adjusted for each block. However, in the case of a display device having a relatively small diagonal screen size (such as for a mobile phone of about 2 inches or less), When the variation in the characteristics of the sensor or the TFT in the chip is small, the present invention may be applied without dividing the screen (assuming the number of divisions = 1). In this case, the trial imaging and the main imaging may be performed as follows without separating the imaging.
[0097]
That is, (1) First, the imaging time is set to t0 = 10 msec (light leakage does not almost occur in the sensor for any imaging target and a black-out screen is obtained), and the first imaging data output and the average gradation count are performed. I do. The first imaging data is stored in a memory such as the control IC 55.
[0098]
(2) The second imaging is performed with t = t0 + Δt (for example, Δt = 0.5 msec), and the average gradation is counted.
[0099]
(3) If the average gradation is less than the predetermined value, the imaging and the counting of the average gradation are performed with the imaging time set to t = t + 2Δt without outputting the imaging data.
[0100]
(4) If the counting result is equal to or more than the predetermined value, the imaging data is output and added to the memory such as the control IC 55.
[0101]
(5) Steps (2) to (4) are repeated while appropriately increasing the imaging time t until the average gradation becomes about 256 gradations.
[0102]
An image completed on the memory by the above-described (1) to (5) can be considered as a high-quality imaging result equivalent to that obtained in the above-described embodiment. In addition, only about one frame is required for a memory for image calculation. This is particularly effective for mobile phones with limited hardware resources.
[0103]
(Third embodiment)
In the case of the second embodiment, since the display luminance is set for each block, the display luminance may be significantly different between adjacent blocks in some cases.
[0104]
FIG. 40 is a diagram showing an example of the display luminance of each block in the second embodiment, where the horizontal axis represents the position of the block and the vertical axis represents the display luminance. Blocks belonging to a specific row have been extracted for easy understanding. FIG. 41 is a diagram schematically illustrating captured images of four adjacent blocks in the second embodiment. As shown in these figures, the display luminance of adjacent blocks changes discontinuously. Therefore, if the luminance difference between adjacent blocks is large, color unevenness as shown in FIG. 41 may occur when an imaging target having a high white density is imaged. For example, although the white background should be the same, the imaging result may look different for each checkered block.
[0105]
Therefore, in the third embodiment, for the central pixel in each block, the display luminance is set by the same processing as in FIG. 35, the display luminance is gradually changed from the central pixel, and the luminance difference near the boundary of the adjacent block is set. Should not occur much.
[0106]
FIG. 42 is a diagram showing a processing result of the third embodiment when imaging is performed under the same conditions as in FIG. 40, and FIG. 43 is a diagram schematically showing captured images of four adjacent blocks in the third embodiment. . As shown in these figures, the luminance difference between adjacent blocks does not change significantly.
[0107]
As described above, in the third embodiment, the luminance is gradually changed from the central pixel to the periphery of the block so that the luminance does not largely change between adjacent blocks. Disappears.
[0108]
(Fourth embodiment)
In the fourth embodiment, the imaging result of the
[0109]
FIG. 44 is a block diagram showing a schematic configuration of the fourth embodiment of the display device according to the present invention. The display device in FIG. 44 includes a reference
[0110]
FIG. 45 is an example of a reference pattern stored in the reference pattern storage unit. Each of the
[0111]
FIG. 46 is a flowchart showing a processing operation performed by the control IC 55 of the present embodiment. In the following, the processing operation of the flowchart of FIG. 46 will be described assuming that image data as illustrated in FIG. 48 is obtained as a result of imaging the imaging target as illustrated in FIG. 47 by the
[0112]
The control IC 55 of the present embodiment compares the image data of the
[0113]
The number given above each reference pattern in FIG. 45 is the number of pixels that do not match the imaging data in FIG. The control IC 55 selects some reference patterns having a small number of mismatched pixels (step S32). For example, it is assumed that the control IC 55 has selected the four
[0114]
Next, the control IC 55 generates a pattern (inversion patterns n1a, n1b, n1c, n1d in FIG. 49) in which the selected reference pattern is inverted in brightness (step S33). While displaying the image, the image pickup by the
[0115]
Next, some reference patterns having a smaller number of white pixels are selected from the imaging data (step S35). For example, in the example of FIG. 50, two
[0116]
Next, a final imaging result is obtained based on the selected reference pattern (step S36). Here, the final imaging result shown in FIG. 51 is obtained by, for example, averaging the selected reference pattern and the initially obtained imaging data.
[0117]
As described above, in the fourth embodiment, a plurality of types of reference patterns are prepared in advance, and image data obtained by the
[0118]
In each of the embodiments described above, an example in which the display device according to the present invention is applied to a liquid crystal display device has been described. Is also applicable.
[0119]
【The invention's effect】
As described in detail above, according to the present invention, digital image data of a captured image is generated based on a result of image capturing under a plurality of image capturing conditions, and thus the digital image data is affected by a variation in characteristics of an image capturing unit. It is possible to capture an image without the need to improve the quality of a captured image. Also, despite the fact that image capture and calculation are performed a plurality of times, much computational resources are not required.
[0120]
Further, according to the present invention, imaging is performed by the imaging unit in a state where the display luminance of the display element is set for each block. Therefore, even if there is partial variation in black density in the imaging target, there is no blackout or blurring. High quality captured images can be obtained.
[0121]
Furthermore, the present invention compares the imaging result of the imaging unit with a reference pattern prepared in advance, and generates final imaging data based on the comparison result. Imaging data faithful to the target can be obtained.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a first embodiment of a display device according to the present invention.
FIG. 2 is a block diagram showing a part of the
FIG. 3 is a circuit diagram showing a part of FIG. 2 in detail;
FIG. 4 is a circuit diagram showing an internal configuration of an SRAM.
FIG. 5 is a cross-sectional view of a display device.
FIG. 6 is a block diagram showing an internal configuration of the logic IC shown in FIG. 1;
FIG. 7 is a diagram showing an example of switching a voltage applied to a capacitor.
FIG. 8 is a flowchart illustrating an example of a processing operation of a CPU.
FIG. 9 is a diagram illustrating an example of capturing an image of a business card.
FIG. 10 is a diagram illustrating a state in which an average of eight surrounding pixels is obtained.
FIG. 11 is a view showing an example of an image showing the processing result of FIG. 8;
FIG. 12 is a diagram illustrating an example of an image including a character “T”.
FIG. 13 is a diagram showing the result of image capture of the dotted line in FIG. 12;
FIG. 14 is a view finally obtained as a result of capturing the image of FIG. 13;
FIG. 15 is a diagram showing an example in which image capture results under each shooting condition are separately stored in a main memory.
FIG. 16 is a diagram showing an example of reducing the capacity of a main memory.
17A is a diagram illustrating an example of an imaging target, and FIG. 17B is a diagram illustrating an example of an imaging result.
FIG. 18 is a block diagram showing an overall configuration of a display device according to a second embodiment of the present invention.
FIG. 19 is a block diagram showing a connection relationship between a signal line driver circuit, a scanning line driver circuit, a sensor control circuit, and a signal processing output circuit on a glass substrate, and a control IC and a memory on the control circuit substrate.
FIG. 20 is a block diagram showing an example of a detailed configuration of a
FIG. 21 is a circuit diagram showing an example of a detailed configuration of a scanning
FIG. 22 is a block diagram showing an example of a detailed configuration of a signal
FIG. 23 is a block diagram showing an example of a detailed configuration of a synchronization
FIG. 24 is a block diagram showing an example of a detailed configuration of a P /
FIG. 25 is a circuit diagram showing an example of the internal configuration of a decoder.
FIG. 26 is a circuit diagram showing an example of the internal configuration of a latch.
FIG. 27 is a block diagram showing a detailed configuration of an
FIG. 28 is a detailed circuit diagram of one pixel of the
FIG. 29 is a layout diagram of one pixel on a
FIG. 30 illustrates an operation of the display device of the embodiment.
FIG. 31 is an operation timing chart of a mode m1.
FIG. 32 is an operation timing chart in modes m2 and m3.
FIG. 33 is an operation timing chart of modes m4 and m5.
FIG. 34 is a diagram illustrating block division.
FIG. 35 is a flowchart illustrating an example of a processing operation performed by the control IC 55 in FIG. 18;
FIG. 36 is a diagram illustrating a relationship between an imaging time and an average gradation.
FIG. 37 is a view showing an example of imaging data obtained in step S7.
FIG. 38 is a diagram illustrating an average gradation increment.
FIG. 39 is a view showing an example of an imaging result of the embodiment.
FIG. 40 is a diagram illustrating an example of display luminance of each block according to the second embodiment.
FIG. 41 is a diagram schematically illustrating captured images of four adjacent blocks according to the second embodiment.
FIG. 42 is a diagram showing a processing result of the third embodiment when imaging is performed under the same conditions as in FIG. 40;
FIG. 43 is a diagram schematically illustrating captured images of four adjacent blocks according to the third embodiment.
FIG. 44 is a block diagram showing a schematic configuration of a fourth embodiment of the display device according to the present invention.
FIG. 45 is a view showing an example of a reference pattern stored in a reference pattern storage unit.
FIG. 46 is a flowchart showing a processing operation performed by the control IC 55 of the embodiment.
FIG. 47 is a diagram illustrating an example of an imaging target.
FIG. 48 is a view showing an example of an imaging result.
FIG. 49 is a diagram showing an example of a reverse pattern.
FIG. 50 is a diagram showing an example of imaging data of a sensor.
FIG. 51 is a diagram showing an example of a final imaging result.
[Explanation of symbols]
1 Pixel array section
2 Signal line drive circuit
3 Scan line drive circuit
4 Detection circuit & output circuit
11 pixel TFT
12a, 12b sensor
13 Buffer
21 Array board
22 space
23 Backlight
24 Counter substrate
31 glass substrate
32 Semiconductor substrate
33 Logic IC
52 control circuit board
53 Sensor control circuit
54 signal processing output circuit
55 Control IC
56 memories
86 Reference pattern storage
Claims (16)
前記表示素子のそれぞれに対応して少なくとも一個ずつ設けられ、それぞれが指定された範囲の入射光を受光して電気信号に変換する撮像部と、
前記撮像部で変換された電気信号に応じた電荷を蓄積する電荷蓄積部と、
複数の撮像条件のそれぞれにおける前記電荷蓄積部の蓄積電荷に基づいて、前記撮像部で撮像された画像に対応するデジタル画像データを生成する信号処理部と、を備えることを特徴とする画像取込み機能を備えた表示装置。A display element formed near each intersection of signal lines and scanning lines arranged in rows and columns;
An image pickup unit that is provided at least one by one corresponding to each of the display elements and receives an incident light in a specified range and converts the incident light into an electric signal,
A charge accumulation unit that accumulates charges according to the electric signal converted by the imaging unit;
A signal processing unit that generates digital image data corresponding to an image captured by the imaging unit based on the charge stored in the charge storage unit under each of a plurality of imaging conditions. Display device provided with.
前記信号処理部は、前記複数の撮影条件のそれぞれで得られた前記2値データに基づいて、前記デジタル画像データを生成することを特徴とする請求項1に記載の表示装置。A binary data generation unit that outputs binary data indicating whether or not the charge stored in the charge storage unit is equal to or greater than a predetermined threshold;
The display device according to claim 1, wherein the signal processing unit generates the digital image data based on the binary data obtained under each of the plurality of shooting conditions.
前記電荷蓄積部は、複数通りの前記初期電荷量のそれぞれごとに、前記初期電荷量から前記撮像部での受光量に応じた電荷を差し引いた残りの電荷を蓄積することを特徴とする請求項3に記載の表示装置。The imaging condition switching unit switches the initial charge amount stored in the charge storage unit in a stepwise or ascending order,
The charge accumulating unit accumulates, for each of a plurality of types of the initial charge amounts, remaining charges obtained by subtracting charges corresponding to a light reception amount in the imaging unit from the initial charge amounts. 4. The display device according to 3.
前記一時的格納部に格納された前記2値データを格納する第1領域と、この第1領域に格納されている2値データに対応する前記デジタル画像データを格納する第2領域と、を有する作業用格納部と、を備えることを特徴とする請求項2及至6のいずれかに記載の表示装置。A temporary storage unit for temporarily storing the binary data under one shooting condition;
A first area for storing the binary data stored in the temporary storage unit; and a second area for storing the digital image data corresponding to the binary data stored in the first area. The display device according to claim 2, further comprising a work storage unit.
前記信号処理部、前記一時的格納部及び前記作業用格納部は、前記絶縁基板とは別個の半導体基板上に形成されることを特徴とする請求項7に記載の表示装置。The display element, the imaging unit, the charge storage unit and the binary data generation unit are formed on the same insulating substrate,
The display device according to claim 7, wherein the signal processing unit, the temporary storage unit, and the working storage unit are formed on a semiconductor substrate separate from the insulating substrate.
前記表示素子のそれぞれに対応して少なくとも1個ずつ設けられ、それぞれが指定された範囲の入射光を受光して電気信号に変換する撮像部と、
前記撮像部で変換された電気信号に応じた電荷を蓄積する電荷蓄積部と、
前記電荷蓄積部の蓄積電荷に応じた2値データを増幅する撮像データ増幅部と、
前記撮像データ増幅部にて増幅された2値データに基づいて撮像対象の平均階調を検出する平均階調検出部と、
前記平均階調検出部の検出結果に基づいて、前記撮像部で撮像を行う際の前記表示素子の表示輝度を設定する輝度設定部と、
前記撮像部の撮像時間を複数通りに切替制御する撮像時間制御部と、
前記輝度設定部で設定された表示輝度に設定した状態で、前記撮像時間制御部で切替制御される個々の撮像時間での前記撮像部の撮像結果に基づいて、撮像画像に対応するデジタル画像データを生成する画像データ生成手段と、を備えることを特徴とする表示装置。A display element formed near each intersection of signal lines and scanning lines arranged in rows and columns;
An imaging unit provided at least one for each of the display elements, each of which receives incident light in a designated range and converts the incident light into an electric signal;
A charge accumulation unit that accumulates charges according to the electric signal converted by the imaging unit;
An image data amplifying unit that amplifies binary data according to the charge stored in the charge storage unit;
An average gray level detection unit that detects an average gray level of the imaging target based on the binary data amplified by the imaging data amplification unit;
A brightness setting unit that sets a display brightness of the display element when performing imaging with the imaging unit based on a detection result of the average gradation detection unit;
An imaging time control unit configured to switch and control the imaging time of the imaging unit in a plurality of ways;
Digital image data corresponding to a captured image based on imaging results of the imaging unit at individual imaging times that are switched and controlled by the imaging time control unit in a state in which the display luminance is set by the luminance setting unit. And an image data generating means for generating the image data.
前記走査線駆動回路は、前記電荷蓄積部に初期電荷を蓄積する際には、すべての走査線を同時に駆動することを特徴とする請求項9及至12のいずれかに記載の表示装置。A scanning line driving circuit capable of switching control whether to sequentially drive the scanning lines or to drive all the scanning lines simultaneously,
13. The display device according to claim 9, wherein the scanning line driving circuit drives all the scanning lines at the same time when initial charge is stored in the charge storage unit.
前記平均階調検出部は、前記データ数計測部の計測結果に基づいて平均階調を検出することを特徴とする表示装置。A data number measuring unit for measuring the number of “0” or “1” included in the serial data,
The display device, wherein the average gray level detecting unit detects an average gray level based on a measurement result of the data number measuring unit.
前記表示素子のそれぞれに対応して少なくとも1個ずつ設けられ、それぞれが指定された範囲の入射光を受光して電気信号に変換する撮像部と、
前記撮像部で変換された電気信号に応じた電荷を蓄積する電荷蓄積部と、
前記電荷蓄積部の蓄積電荷に応じた2値データを増幅する撮像データ増幅部と、
前記撮像部で撮像を行う場合に用いられる、複数の前記表示素子からなるブロックの表示形態を示す複数の基準パターンを記憶する基準パターン記憶部と、
前記撮像部の撮像結果に近似した基準パターンを前記基準パターン記憶部から複数種類選択する基準パターン選択部と、
前記基準パターン選択部で選択された基準パターンそれぞれの明暗を反転させた基準パターンを前記表示素子にて表示させた状態で、前記撮像部にて繰返し撮像を行った結果に基づいて、撮像画像に対応するデジタル画像を生成する画像データ生成手段と、を備えることを特徴とする表示装置。A display element formed near each intersection of signal lines and scanning lines arranged in rows and columns;
An imaging unit provided at least one for each of the display elements, each of which receives incident light in a designated range and converts the incident light into an electric signal;
A charge accumulation unit that accumulates charges according to the electric signal converted by the imaging unit;
An image data amplifying unit that amplifies binary data according to the charge stored in the charge storage unit;
A reference pattern storage unit that stores a plurality of reference patterns indicating a display mode of a block including a plurality of display elements, which is used when imaging is performed by the imaging unit.
A reference pattern selection unit that selects a plurality of types of reference patterns approximate to the imaging result of the imaging unit from the reference pattern storage unit,
In a state where a reference pattern obtained by inverting the brightness of each of the reference patterns selected by the reference pattern selection unit is displayed on the display element, based on a result of repeatedly performing imaging in the imaging unit, a captured image is formed. A display device, comprising: image data generating means for generating a corresponding digital image.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002381775A JP4303954B2 (en) | 2002-09-13 | 2002-12-27 | Display device |
KR10-2003-0047174A KR100537704B1 (en) | 2002-07-12 | 2003-07-11 | Display device |
US10/616,979 US7205988B2 (en) | 2002-07-12 | 2003-07-11 | Display device |
CNB031458602A CN1331347C (en) | 2002-07-12 | 2003-07-11 | Display device |
TW092119028A TWI225232B (en) | 2002-07-12 | 2003-07-11 | Display device |
US11/620,789 US7737962B2 (en) | 2002-07-12 | 2007-01-08 | Display device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002267972 | 2002-09-13 | ||
JP2002381775A JP4303954B2 (en) | 2002-09-13 | 2002-12-27 | Display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004159273A true JP2004159273A (en) | 2004-06-03 |
JP4303954B2 JP4303954B2 (en) | 2009-07-29 |
Family
ID=32827540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002381775A Expired - Fee Related JP4303954B2 (en) | 2002-07-12 | 2002-12-27 | Display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4303954B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006343514A (en) * | 2005-06-08 | 2006-12-21 | Sharp Corp | Display device |
JP2007102154A (en) * | 2005-01-26 | 2007-04-19 | Toshiba Matsushita Display Technology Co Ltd | Plane display device |
US7361947B2 (en) | 2004-12-28 | 2008-04-22 | Toshiba Matsushita Display Technology Co., Ltd. | Photoelectric conversion element and display device including the same |
JP2011085946A (en) * | 2010-12-03 | 2011-04-28 | Semiconductor Energy Lab Co Ltd | Display device |
JP2011223083A (en) * | 2010-04-05 | 2011-11-04 | Nippon Avionics Co Ltd | Projector enhanced in static electricity noise resistance |
JP2012146292A (en) * | 2010-12-22 | 2012-08-02 | Semiconductor Energy Lab Co Ltd | Method for driving semiconductor device |
-
2002
- 2002-12-27 JP JP2002381775A patent/JP4303954B2/en not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7361947B2 (en) | 2004-12-28 | 2008-04-22 | Toshiba Matsushita Display Technology Co., Ltd. | Photoelectric conversion element and display device including the same |
JP2007102154A (en) * | 2005-01-26 | 2007-04-19 | Toshiba Matsushita Display Technology Co Ltd | Plane display device |
JP2006343514A (en) * | 2005-06-08 | 2006-12-21 | Sharp Corp | Display device |
JP4649272B2 (en) * | 2005-06-08 | 2011-03-09 | シャープ株式会社 | Display device |
JP2011223083A (en) * | 2010-04-05 | 2011-11-04 | Nippon Avionics Co Ltd | Projector enhanced in static electricity noise resistance |
JP2011085946A (en) * | 2010-12-03 | 2011-04-28 | Semiconductor Energy Lab Co Ltd | Display device |
JP2012146292A (en) * | 2010-12-22 | 2012-08-02 | Semiconductor Energy Lab Co Ltd | Method for driving semiconductor device |
Also Published As
Publication number | Publication date |
---|---|
JP4303954B2 (en) | 2009-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100537704B1 (en) | Display device | |
KR100603874B1 (en) | Display device | |
US9264634B2 (en) | Signal processing device and method, imaging element, and imaging device | |
US8520110B2 (en) | Solid-state imaging device, driving control method, and imaging apparatus | |
US6507365B1 (en) | Solid-state imaging device | |
JP4383833B2 (en) | Display device | |
US20060013485A1 (en) | Data processing method, data processing apparatus, semiconductor device, and electronic apparatus | |
KR100607620B1 (en) | Liquid crystal display device | |
CN101370073B (en) | Solid state image pick-up device and camera system | |
US9596422B2 (en) | Signal processing device and method, imaging device, and imaging apparatus | |
JP2006244218A (en) | Display device with built-in sensor | |
GB2419950A (en) | Capacitance measuring apparatus for LCD touch screen | |
JP4303954B2 (en) | Display device | |
JP2009206709A (en) | Solid-state imaging apparatus, driving method of solid-state imaging apparatus and electronic apparatus | |
JP4035424B2 (en) | Display device | |
JP4434618B2 (en) | Display device | |
JP2011097541A (en) | Solid-state imaging element, camera system, method of reading solid imaging element, and program | |
US9013626B2 (en) | Signal processing circuit of solid-state imaging element, signal processing method of solid-state imaging element, and electronic apparatus | |
WO2013027326A1 (en) | Solid-state imaging device | |
JP2007003553A (en) | Matrix display device with area photosensor | |
JP2020057886A (en) | Imaging apparatus | |
JP6433276B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
EP4362488A1 (en) | Avalanche photoelectric conversion apparatus, method for controlling avalanche photoelectric conversion apparatus, program, and storage medium | |
JP4634732B2 (en) | Display device | |
KR20040111142A (en) | Display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090407 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090427 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120501 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4303954 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120501 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120501 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120501 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130501 Year of fee payment: 4 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130501 Year of fee payment: 4 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140501 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |