JP2011038916A - Detector, display apparatus, and method for measuring proximal distance of object - Google Patents

Detector, display apparatus, and method for measuring proximal distance of object Download PDF

Info

Publication number
JP2011038916A
JP2011038916A JP2009187134A JP2009187134A JP2011038916A JP 2011038916 A JP2011038916 A JP 2011038916A JP 2009187134 A JP2009187134 A JP 2009187134A JP 2009187134 A JP2009187134 A JP 2009187134A JP 2011038916 A JP2011038916 A JP 2011038916A
Authority
JP
Japan
Prior art keywords
light
detection
anisotropy
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009187134A
Other languages
Japanese (ja)
Other versions
JP5528739B2 (en
Inventor
Daisuke Takama
大輔 高間
Kenta Seki
健太 関
Masahito Imai
雅人 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009187134A priority Critical patent/JP5528739B2/en
Priority to US12/850,372 priority patent/US20110037732A1/en
Priority to CN201010248403XA priority patent/CN101996004A/en
Publication of JP2011038916A publication Critical patent/JP2011038916A/en
Application granted granted Critical
Publication of JP5528739B2 publication Critical patent/JP5528739B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display

Abstract

<P>PROBLEM TO BE SOLVED: To accurately and optically detect a distance to a specimen, and inhibit an increase in a cost. <P>SOLUTION: A detector has an optical sensor array 3 having an optical anisotropy, a detection/drive section 6 of the optical sensor array, and a height detection section 7. The detection/drive section 6 drives the optical sensor array 3, images the specimen, and generates a plurality of different detection images P1, P2 based on the light reception anisotropy. The height detection section 7 detects the distance (a height) from a sensor light reception plane of the optical sensor array 3 to the specimen by using a plurality of the detection images. At this time, the height detection section 7 detects the height based on the magnitude of a displacement generated by a light reception anisotropy difference in image portions corresponding to shadows or reflections of the specimen included in a plurality of the detection images. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、手やスタイラスペン等の被検出物が近接したときに、被検出物を撮像する光センサの受光面から当該被検出物までの距離(高さ)を検出する検出装置と、当該高さ検出の機能をもつ表示装置とに関する。また、本発明は光センサアレイの受光異方性を利用した物体の近接距離測定方法に関する。   The present invention provides a detection device that detects a distance (height) from a light receiving surface of an optical sensor that images a detection object to the detection object when the detection object such as a hand or a stylus pen comes close to the detection object, The present invention relates to a display device having a height detection function. The present invention also relates to a method for measuring the proximity distance of an object using the light receiving anisotropy of an optical sensor array.

人やスタイラスペン等の被検出物の接触または近接を検出する検出装置が知られている。また、表示装置に光センサを配置して、表示面に被検出物が接触または近接したことを検出する接触センサ機能を有する表示装置が知られている。
接触検出の方式としては、光学式、静電容量式、抵抗膜式などがある。このうち光学式と静電容量式は、接触のみならず近接も検出できる。
A detection device that detects contact or proximity of an object to be detected such as a person or a stylus pen is known. There is also known a display device having a contact sensor function in which an optical sensor is arranged on the display device to detect that an object to be detected contacts or approaches the display surface.
Examples of the contact detection method include an optical method, a capacitance method, and a resistance film method. Of these, the optical type and the capacitance type can detect not only contact but also proximity.

ところで、表示装置の表示画面を直接触ることにより、機器を操作するボタン等の代わりとする新しいユーザインターフェイス(UI)が開発されている。特に、携帯電話のようなモバイル機器において、表示画面を利用したUIの開発が活発化している。
モバイル機器のように比較的小さな表示画面では、指で操作する際、操作性の観点からある程度の大きさのアイコンが必要となる。ただし、操作性を重視しアイコンを大きくすると、一覧できる情報量が少なくなってしまう。
By the way, a new user interface (UI) has been developed as a substitute for buttons for operating devices by directly touching the display screen of the display device. In particular, in mobile devices such as mobile phones, development of UI using a display screen has been activated.
On a relatively small display screen such as a mobile device, when operating with a finger, an icon of a certain size is required from the viewpoint of operability. However, if the icons are enlarged with emphasis on operability, the amount of information that can be listed decreases.

このような不都合に対処するために、非接触段階(近接段階)で指等を検出し、指等の動きに応じて表示パネルに表示された映像などの表示状態に変化を持たせるという、今までにない情報表示手法も提案されている(特許文献1参照)。
特許文献1に記載の表示装置の接触および近接検出の方式は静電容量式であり、指などの近接距離に応じて表示状態に変化を持たせることができるように構成されている。この目的から大まかな近接距離しか検出できない。つまり、この表示装置の近接検出では、静電容量の変化を周波数の変化に変換し、この周波数の変化を電圧に変換する。電圧が大きいときは静電容量の変化をもたらす指が近く、電圧が小さいと指が遠くにあると判定する。
In order to deal with such inconvenience, a finger or the like is detected at a non-contact stage (proximity stage), and a display state of an image or the like displayed on the display panel is changed according to the movement of the finger or the like. An unprecedented information display method has also been proposed (see Patent Document 1).
The method of contact and proximity detection of the display device described in Patent Document 1 is an electrostatic capacitance type, and is configured so that the display state can be changed according to the proximity distance of a finger or the like. Only a rough proximity distance can be detected for this purpose. That is, in proximity detection of this display device, a change in capacitance is converted into a change in frequency, and the change in frequency is converted into a voltage. When the voltage is high, it is determined that the finger causing the change in capacitance is close, and when the voltage is low, it is determined that the finger is far away.

特開2008−117371号公報JP 2008-117371 A

静電容量式の容量変化が小さいとノイズレベルに埋もれてしまう。特に表示装置に接触または近接の検出機能を内蔵した場合、表示のために電位変化する配線が検出電極の近くに配置され、その配線の電位変化が誘導ノイズとなって検出電極に重畳しやすい。また、表示装置内蔵タイプでなくとも、静電容量式による被検出物との距離検出は、検出信号が静電容量変化に基づくものであるため、一般に精度よい検出ができない。
小さい静電容量変化でも検出可能とするため、上記特許文献1では発振器を利用した静電容量型検出器を準備する必要がある。このため、上記特許文献1に記載の表示装置(あるいは検出装置)はコストが高くなるという不利益をともなう。
If the capacitance type capacitance change is small, it will be buried in the noise level. In particular, when a display or a proximity detection function is built in the display device, a wiring whose potential changes for display is arranged near the detection electrode, and the potential change of the wiring is easily induced noise and superimposed on the detection electrode. Even if the display device is not of a built-in type, the detection of the distance to the object to be detected by the capacitance type is generally not possible because the detection signal is based on the change in capacitance.
In order to enable detection even with a small change in capacitance, in Patent Document 1, it is necessary to prepare a capacitance detector using an oscillator. For this reason, the display device (or detection device) described in Patent Document 1 has a disadvantage that the cost becomes high.

本発明は、被検出物との距離を、コスト増を抑制しつつ精度よく光学的に検出(あるいは測定)できる検出装置および表示装置を提供するものである。また、本発明は、低コストで高精度な検出を可能とする物体の近接距離測定方法を提供するものである。   The present invention provides a detection device and a display device that can optically detect (or measure) a distance from an object to be detected with high accuracy while suppressing an increase in cost. The present invention also provides an object proximity distance measuring method that enables highly accurate detection at low cost.

本発明に関わる検出装置は、光学異方性を有する光センサアレイと、光センサアレイの検出駆動部と、高さ検出部とを有する。
前記検出駆動部は、前記光センサアレイを駆動して被検出物を撮像し、前記受光異方性に基づいて異なる複数の検出画像を発生する。
前記高さ検出部は、前記複数の検出画像を入力し、入力した複数の検出画像を用いて、前記光センサアレイのセンサ受光面から前記被検出物までの距離(高さ)を検出する。より詳細に、前記高さ検出部は、前記複数の検出画像に含まれる前記被検出物の影または反射に対応した画像部分に前記受光異方性の違いにより生じた位置ずれの大きさに基づいて前記高さを検出する。
The detection apparatus according to the present invention includes an optical sensor array having optical anisotropy, a detection drive unit for the optical sensor array, and a height detection unit.
The detection driving unit drives the optical sensor array to image a detection object, and generates a plurality of different detection images based on the light reception anisotropy.
The height detection unit inputs the plurality of detection images, and detects a distance (height) from the sensor light receiving surface of the photosensor array to the detected object using the input plurality of detection images. In more detail, the height detection unit is based on the magnitude of the positional deviation caused by the difference in the light reception anisotropy in the image portion corresponding to the shadow or reflection of the detected object included in the plurality of detection images. To detect the height.

光センサアレイ自身が受光異方性を有してもよいし、たとえば、受光異方性付与部により光センサアレイに受光異方性を付与してもよい。前者の場合、例えば、光センサアレイの受光面に対し片側からの光を一部遮り、他方側からの光を余り遮らない庇のようなものを半導体プロセスで一体形成してもよい。
一方、後者の場合の検出装置は、カラーフィルタなどの波長選択のための波長選択フィルタ部、遮光フィルタ、あるいは、レンズアレイなどを受光異方性付与部として有するとよい。
The optical sensor array itself may have light reception anisotropy, or for example, the light sensor array may be provided with light reception anisotropy by a light reception anisotropy application unit. In the former case, for example, a ridge that partially blocks light from one side and does not block much light from the other side with respect to the light receiving surface of the photosensor array may be integrally formed by a semiconductor process.
On the other hand, the detection device in the latter case may include a wavelength selection filter unit for wavelength selection such as a color filter, a light shielding filter, or a lens array as a light receiving anisotropy imparting unit.

特に波長選択フィルタなどを受光異方性付与部として有する場合、前記検出駆動部が、異なる波長範囲の光による複数回の撮像によって前記複数の検出画像を発生させるようにするとよい。
この場合の前記光センサアレイは、前記受光異方性付与部の透過光を受光する際に異なる向きから入射される光の受光量に波長依存性が生じることで前記受光異方性が付与される複数の光センサを2次元配置したものである。前記検出駆動部は、互いに異なる波長範囲をそれぞれが有する複数の光を時分割で前記被検出物に照射する。また、前記検出駆動部は、被検出物で反射して戻される反射光が前記受光異方性付与部を透過した後に前記複数の光センサで受光するときの各受光時間を前記複数の光の照射に同期して時分割で制御する。この時分割制御によって複数回の撮像が行われ、これにより複数の検出画像が発生され、その画像のずれに基づいて高さが検出される。
In particular, when a wavelength selection filter or the like is provided as the light-receiving anisotropy imparting unit, the detection driving unit may generate the plurality of detection images by imaging a plurality of times with light in different wavelength ranges.
In this case, the photosensor array is provided with the light-receiving anisotropy due to the wavelength dependence of the amount of light incident from different directions when receiving the transmitted light of the light-receiving anisotropy providing unit. A plurality of optical sensors are two-dimensionally arranged. The said detection drive part irradiates the said to-be-detected object with the some light which each has a mutually different wavelength range by time division. In addition, the detection driving unit may determine the time of each light received when the reflected light reflected and returned by the object to be detected is received by the plurality of optical sensors after passing through the light receiving anisotropy imparting unit. Control in time division in synchronization with irradiation. By this time-division control, imaging is performed a plurality of times, whereby a plurality of detected images are generated, and the height is detected based on the deviation of the images.

本発明に関わる表示装置は、上記した検出装置と同様に、光センサアレイ、検出駆動部および高さ検出部を有する。このほかに表示装置は、光変調部および表示面を有する。光変調部は、入力する映像信号に応じて入射光を変調し、発生した表示画像を前記表示面から表示させる。   The display device according to the present invention includes a photosensor array, a detection drive unit, and a height detection unit, similarly to the above-described detection device. In addition, the display device includes a light modulation unit and a display surface. The light modulation unit modulates incident light in accordance with an input video signal and displays the generated display image from the display surface.

本発明に関わる物体の近接距離測定方法は、以下のステップを含む。
(1)受光異方性を有する光センサアレイを駆動して被検出物を撮像し、前記受光異方性に基づいて異なる複数の検出画像を発生するステップ。
(2)前記複数の検出画像に含まれる前記被検出物の影または反射に対応した画像部分に前記受光異方性の違いにより生じた位置ずれの大きさに基づいて、前記光センサアレイのセンサ受光面から前記被検出物までの距離(高さ)を測定するステップ。
An object proximity distance measuring method according to the present invention includes the following steps.
(1) A step of driving a photosensor array having light reception anisotropy to image an object to be detected and generating a plurality of different detection images based on the light reception anisotropy.
(2) The sensor of the optical sensor array based on the size of the positional deviation caused by the difference in the light receiving anisotropy in the image portion corresponding to the shadow or reflection of the detected object included in the plurality of detection images. Measuring a distance (height) from a light receiving surface to the object to be detected;

本発明に関わる他の、物体の近接距離測定方法は、以下のステップを含む。
(1)受光異方性を有する光センサアレイ内の複数の光センサから、異なる受光異方性に対応する光センサの組み合わせで複数回、被検出物を撮像するステップ。
(2)前記複数回の撮像によって得られる複数の検出画像に含まれる前記被検出物の影または反射に対応した画像部分に前記受光異方性の違いにより生じた位置ずれの大きさに基づいて、光センサアレイのセンサ受光面から前記被検出物までの距離(高さ)を測定するステップ。
Another object proximity distance measuring method according to the present invention includes the following steps.
(1) A step of imaging an object to be detected a plurality of times with a combination of optical sensors corresponding to different light receiving anisotropies from a plurality of optical sensors in the optical sensor array having light receiving anisotropy.
(2) Based on the size of the positional deviation caused by the difference in the light receiving anisotropy in the image portion corresponding to the shadow or reflection of the detected object included in the plurality of detection images obtained by the plurality of times of imaging. Measuring the distance (height) from the sensor light receiving surface of the optical sensor array to the detected object.

本発明では、通常の光学式接触センサと同様に光センサアレイを有するが、これが受光異方性を有するため高さ検出が可能である。よって低コストであり、また、画像間のずれを用いるため静電容量式に比べ高精度である。
以上より、本発明によれば、光学的に被検出物との距離を、コスト増を抑制しつつ精度よく検出(あるいは測定)できる検出装置および表示装置を提供することができる。また、本発明によれば、低コストで高精度な検出を可能とする物体の近接距離測定方法を提供することができる。
In the present invention, an optical sensor array is provided in the same manner as a normal optical contact sensor, but height detection is possible because this has light receiving anisotropy. Therefore, the cost is low, and since the shift between images is used, the accuracy is higher than that of the capacitance type.
As described above, according to the present invention, it is possible to provide a detection device and a display device that can accurately detect (or measure) the distance from an object to be detected while suppressing an increase in cost. Further, according to the present invention, it is possible to provide a method for measuring the proximity distance of an object that enables highly accurate detection at a low cost.

第1の実施の形態に関わる検出装置の要部を示す図である。It is a figure which shows the principal part of the detection apparatus in connection with 1st Embodiment. 検出装置の受光面内における領域区分の説明図である。It is explanatory drawing of the area division in the light-receiving surface of a detection apparatus. 図2の各領域で異方性付与の方位が異なる光センサの組み合わせ例を示す説明図である。It is explanatory drawing which shows the example of a combination of the optical sensor from which the anisotropy provision direction differs in each area | region of FIG. 高さ検出の第1の手法を示す図である。It is a figure which shows the 1st method of height detection. 高さ検出の第1の手法の改善点を説明するための図である。It is a figure for demonstrating the improvement of the 1st method of height detection. 高さ検出の第2の手法を示す図である。It is a figure which shows the 2nd method of height detection. 第2〜第5の実施の形態に関わる表示装置の全体構成を表すブロック図である。It is a block diagram showing the whole structure of the display apparatus in connection with 2nd-5th embodiment. I/Oディスプレイパネルの構成例を示す図である。It is a figure which shows the structural example of an I / O display panel. 画素ユニットに含まれる表示画素部とセンサ部との等価回路図である。It is an equivalent circuit diagram of the display pixel part and sensor part which are contained in a pixel unit. 3原色表示のための3つの画素とセンサ読み出しHドライバとの接続関係を示す図である。It is a figure which shows the connection relation of three pixels for 3 primary color displays, and a sensor read-out H driver. 第2の実施の形態に関わる表示装置の画素ユニットの平面図と断面図である。It is the top view and sectional drawing of the pixel unit of the display apparatus in connection with 2nd Embodiment. 第2の実施の形態に関わる表示装置の表示領域とセンサ領域の配置平面図である。It is an arrangement top view of a display field and a sensor field of a display concerning a 2nd embodiment. 図11に示す構成の表示面に指先を近接させた場合の光の経路を示す斜視図である。It is a perspective view which shows the path | route of light when a fingertip is made to adjoin to the display surface of the structure shown in FIG. バックライトの点滅周期を示すタイミングチャートである。It is a timing chart which shows the blinking period of a backlight. 第2の実施の形態において、発光と、撮像およびデータ書き込みの各スキャンを示すタイミングチャートである。9 is a timing chart showing light emission, imaging, and data writing scans in the second embodiment. 第2の実施の形態において撮像データの解析結果を示す図である。It is a figure which shows the analysis result of imaging data in 2nd Embodiment. 指高さと検出画像のピーク間距離との関係を示すグラフである。It is a graph which shows the relationship between finger height and the distance between peaks of a detection image. 第2の実施の形態の変形例に関わる図である。It is a figure in connection with the modification of 2nd Embodiment. 第3の実施の形態に関わる表示装置の画素ユニットの平面図と断面図である。It is the top view and sectional drawing of the pixel unit of the display apparatus in connection with 3rd Embodiment. 第3の実施の形態に関わる表示装置の表示領域とセンサ領域の配置平面図である。It is an arrangement top view of a display field and a sensor field of a display concerning a 3rd embodiment. 図19に示す構成の表示面に指先を近接させた場合の光の経路を示す斜視図である。FIG. 20 is a perspective view illustrating a light path when a fingertip is brought close to the display surface having the configuration illustrated in FIG. 19. RBフィルタとRGBフィルタの透過スペクトルを示すグラフである。It is a graph which shows the transmission spectrum of RB filter and RGB filter. RGB光の波長範囲を示すグラフである。It is a graph which shows the wavelength range of RGB light. 第3の実施の形態において撮像データの解析結果を示す図である。It is a figure which shows the analysis result of imaging data in 3rd Embodiment. 第3の実施の形態の変形例に関わる図である。It is a figure in connection with the modification of 3rd Embodiment. 第4の実施の形態に関わる表示装置のレンズとセンサ配置の関係を示す図である。It is a figure which shows the relationship between the lens and sensor arrangement | positioning of a display apparatus in connection with 4th Embodiment. 第5の実施の形態に関わる表示装置の断面図と平面図である。It is sectional drawing and a top view of the display apparatus in connection with 5th Embodiment. 第6の実施の形態に関わるテレビの斜視図である。It is a perspective view of the television in connection with 6th Embodiment. 第6の実施の形態に関わるデジタルカメラの斜視図である。It is a perspective view of the digital camera in connection with 6th Embodiment. 第6の実施の形態に関わるノート型パーソナルコンピュータの斜視図である。It is a perspective view of the notebook type personal computer in connection with 6th Embodiment. 第6の実施の形態に関わるビデオカメラの斜視図である。It is a perspective view of the video camera in connection with 6th Embodiment. 第6の実施の形態に関わる携帯電話機の開閉図、平面図、側面図、上面図および下面図である。It is an opening / closing view, a plan view, a side view, a top view, and a bottom view of a mobile phone according to a sixth embodiment.

本発明の実施形態を、表示装置としては主に液晶表示装置を例として図面を参照して説明する。
以下、次の順で説明を行う。
1.第1の実施の形態:発明を実施する形態の概要(検出装置の例)。
2.第2の実施の形態:色ごとの光を時分割で照射して撮像を時分割で行うフィールドシーケンシャル方式の液晶表示装置への本発明の適用。
3.第3の実施の形態:本発明が適用された、遮光フィルタを用いた空間分割方式の液晶表示装置。
4.第4の実施の形態:有機EL表示装置への本発明の適用。
5.第5の実施の形態:レンズアレイを用いて受光異方性を持たせる表示装置例。
6.第5の実施の形態:電子機器への本発明の適用例。
Embodiments of the present invention will be described with reference to the drawings mainly using a liquid crystal display device as an example of a display device.
Hereinafter, description will be given in the following order.
1. First Embodiment: Outline of an embodiment for carrying out the invention (example of a detection device).
2. Second Embodiment: Application of the present invention to a field-sequential liquid crystal display device that irradiates light for each color in a time-sharing manner and performs imaging in a time-sharing manner.
3. Third Embodiment: A space division type liquid crystal display device using a light shielding filter to which the present invention is applied.
4). Fourth Embodiment: Application of the present invention to an organic EL display device.
5). Fifth embodiment: a display device example having a light receiving anisotropy using a lens array.
6). Fifth Embodiment: Application example of the present invention to an electronic device.

<1.第1の実施の形態>
[検出装置の構成]
図1(A)および図1(B)に、本発明の実施の形態に関わる検出装置の要部を示す。
図1(A)に図解される検出装置1は、基板2、光センサアレイ3、受光異方性付与部4、保護層5を少なくとも有する。保護層5の最表面が、被検出物(指やスタイラスペン等)が接近する検出面5Aである。
<1. First Embodiment>
[Configuration of detection device]
1A and 1B show a main part of a detection apparatus according to an embodiment of the present invention.
The detection device 1 illustrated in FIG. 1A includes at least a substrate 2, a photosensor array 3, a light receiving anisotropy imparting unit 4, and a protective layer 5. The outermost surface of the protective layer 5 is a detection surface 5A on which an object to be detected (such as a finger or a stylus pen) approaches.

ここで光センサアレイ3は、図1(B)に示すように、光センサPSをマトリクス状に配置したものである。光センサPSは半導体プロセスを用いて基板に形成されるフォトディテクタとその制御のためのセンサ回路を含む。光センサPSの等価回路の詳細は後述の実施の形態で述べる。   Here, in the optical sensor array 3, as shown in FIG. 1B, optical sensors PS are arranged in a matrix. The optical sensor PS includes a photodetector formed on a substrate using a semiconductor process and a sensor circuit for controlling the photodetector. Details of an equivalent circuit of the optical sensor PS will be described in an embodiment described later.

基板2は半導体基板でもよく、その場合は、基板2に直接、光センサPSを構成するフォトディテクタやセンサ回路が半導体プロセスを用いて形成される。また、基板2は絶縁物からなる基板でもよい。その場合にTFT(薄膜トランジスタ)の形成プロセスを用いて絶縁基板上に薄膜半導体層が形成され、フォトディテクタやセンサ回路が薄膜半導体層に形成される。さらに半導体基板に絶縁層を形成し、その上に薄膜半導体層を形成する形態も採用できる。   The substrate 2 may be a semiconductor substrate. In that case, a photodetector and a sensor circuit constituting the optical sensor PS are directly formed on the substrate 2 using a semiconductor process. The substrate 2 may be a substrate made of an insulator. In that case, a thin film semiconductor layer is formed on the insulating substrate using a TFT (thin film transistor) formation process, and a photodetector and a sensor circuit are formed on the thin film semiconductor layer. Furthermore, a form in which an insulating layer is formed on a semiconductor substrate and a thin film semiconductor layer is formed thereon can also be employed.

いずれの場合でも光センサのアレイに対して、多層配線構造によって行(水平)方向や列(垂直)方向に光センサの相互接続配線が形成される。
図示例の検出装置は、相互接続配線として、水平方向に光センサPSを接続し垂直方向に分離するN本の走査線SCNと、垂直方向に光センサPSを相互接続し水平方向に分離するM本のセンサ線SLを有する。
In any case, interconnection lines for photosensors are formed in a row (horizontal) direction and a column (vertical) direction by a multilayer wiring structure with respect to the array of photosensors.
The detection device of the illustrated example has N scanning lines SCN that connect the optical sensors PS in the horizontal direction and separate in the vertical direction as interconnection wirings, and M that interconnect the optical sensors PS in the vertical direction and separate in the horizontal direction. It has two sensor lines SL.

このように形成された光センサアレイ3は、それ自体に受光異方性を有する場合と、図示例のように受光異方性付与部4を光センサアレイ3の受光面側に配置することで光センサアレイ3に受光異方性を付与する場合がある。
ここで“受光異方性”とは、異なる向きで光センサPSに入る光(被検出物側からの光)に対して受光感度があたかも違うようにした受光時の性質をいう。つまり、ある角度で入射した光についてはセンサ出力が高く、他の角度で入射した光についてはセンサ出力が低くなる性質を受光異方性と呼ぶ。
The optical sensor array 3 thus formed has its own light receiving anisotropy, and the light receiving anisotropy imparting portion 4 is disposed on the light receiving surface side of the optical sensor array 3 as shown in the example of the drawing. In some cases, the photosensor array 3 is provided with light receiving anisotropy.
Here, “light reception anisotropy” refers to a property at the time of light reception in which the light reception sensitivity is different for light entering the optical sensor PS in different directions (light from the detected object side). That is, the property that the sensor output is high for light incident at a certain angle and the sensor output is low for light incident at another angle is called light receiving anisotropy.

光センサアレイ3自身が受光異方性をもつ場合として、受光異方性を光センサPSのフォトディテクタの半導体物性で持たせてもよい。また、これができない場合は、光センサPSの受光面側に半導体プロセス等で片側遮光のための庇状の部位を形成し、ある角度の光に対しては遮光性が強く、他の角度の光については遮光性を弱めることで光センサアレイ3自身に受光異方性をもたせてもよい。その場合、図1(A)の受光異方性付与部4は不要となる。   As a case where the optical sensor array 3 itself has light receiving anisotropy, the light receiving anisotropy may be given by the semiconductor physical property of the photodetector of the optical sensor PS. If this is not possible, a saddle-shaped part for light shielding on one side is formed on the light receiving surface side of the optical sensor PS by a semiconductor process or the like. With respect to the optical sensor array 3, the optical sensor array 3 itself may have light receiving anisotropy by weakening the light shielding property. In that case, the light-receiving anisotropy imparting unit 4 in FIG.

受光異方性付与部4としては、上記庇状の部位と同様な作用を光センサアレイ3に与える遮光フィルタ、あるいは、異なる角度の光に対して波長選択性を持たせるカラーフィルタを用いるとよい。遮光フィルタやカラーフィルタの詳細な形態や作用は後述する表示装置の実施の形態で述べる。
また、本実施の形態で後述するように、被検出物からの光の向きを主に2方向に分けるレンズをアレイ状に配置したレンズアレイを、受光異方性付与部4として用いることができる。このようなレンズとしては、半円筒状のシリンドリカルレンズがある。
As the light-receiving anisotropy imparting section 4, a light-shielding filter that gives the optical sensor array 3 the same effect as the bowl-shaped part or a color filter that gives wavelength selectivity to light at different angles may be used. . Detailed forms and operations of the light shielding filter and the color filter will be described in embodiments of the display device described later.
Further, as will be described later in the present embodiment, a lens array in which lenses that divide the direction of light from an object to be detected into two directions are arranged in an array can be used as the light-receiving anisotropy imparting unit 4. . As such a lens, there is a semi-cylindrical cylindrical lens.

図1(B)に示すように、N本の走査線SCNに垂直駆動回路(V.DRV)6Vが接続され、M本のセンサ線SLに水平駆動回路(H.DRV)6Hが接続されている。また、センサ読み出しHドライバ6SRHに高さ検出部(H.DET)7が接続されている。   As shown in FIG. 1B, a vertical drive circuit (V.DRV) 6V is connected to N scanning lines SCN, and a horizontal drive circuit (H.DRV) 6H is connected to M sensor lines SL. Yes. Further, a height detection unit (H.DET) 7 is connected to the sensor readout H driver 6SRH.

センサ読み出しVドライバ6SRVとセンサ読み出しHドライバ6SRHで検出駆動部6を構成する。検出駆動部6は、光センサアレイ3を駆動して被検出物を撮像し、受光異方性に基づいて異なる複数の検出画像を発生する回路である。検出駆動部6にCPUなどの制御回路を概念的に含んでもよい。
複数の検出画像は、それぞれ光センサPSからのセンサ出力の集合であり、アナログ画像でもデジタル画像でもよい。複数の検出画像の各々は、M本のセンサ線SLからパラレルに排出されるセンサ出力をセンサ読み出しHドライバ6SRH内で必要に応じてデジタル信号に変換して蓄積することで発生した、高さ検出部7に与えられる画像データである。
The sensor read V driver 6SRV and the sensor read H driver 6SRH constitute the detection drive unit 6. The detection drive unit 6 is a circuit that drives the optical sensor array 3 to pick up an image of an object to be detected and generates a plurality of different detection images based on the light reception anisotropy. The detection drive unit 6 may conceptually include a control circuit such as a CPU.
Each of the plurality of detected images is a set of sensor outputs from the optical sensor PS, and may be an analog image or a digital image. Each of the plurality of detection images is generated by converting sensor outputs discharged in parallel from the M sensor lines SL into digital signals as necessary in the sensor readout H driver 6SRH and storing them. This is image data given to the unit 7.

高さ検出部7は、不図示のCPU等の制御回路を概念的に含んでもよい。高さ検出部7は、内蔵の、または、外部の制御回路の制御を受けて、複数の検出画像から、光センサアレイ3のセンサ受光面から被検出物までの距離(高さ)を検出する回路である。
高さ検出部7自身がCPUの場合もあり、その場合、高さ検出部7の上記機能はCPUが実行するプログラムの手順として実現される。また、高さ検出部7は必要に応じて処理のための画像メモリを含むように構成してもよい。
The height detection unit 7 may conceptually include a control circuit such as a CPU (not shown). The height detector 7 detects the distance (height) from the sensor light-receiving surface of the optical sensor array 3 to the object to be detected from a plurality of detection images under the control of a built-in or external control circuit. Circuit.
In some cases, the height detection unit 7 itself is a CPU, and in this case, the above functions of the height detection unit 7 are realized as a procedure of a program executed by the CPU. Further, the height detection unit 7 may include an image memory for processing as necessary.

検出装置1は、検出のための光を外光とする影検出型の検出装置でもよいし、検出装置1で自発光する光を被検出物で反射させる反射検出型の検出装置でもよい。   The detection apparatus 1 may be a shadow detection type detection apparatus that uses light for detection as external light, or may be a reflection detection type detection apparatus that reflects light emitted by the detection apparatus 1 by an object to be detected.

影検出型の場合、検出面5Aから外光を取り込み、その外光の強度分布を光センサアレイ3でセンシングする。検出面5Aに接触または近接する被検出物がある場合、光センサアレイ3に入射される外光の強度分布に被検出物に対応した暗い画像部分が含まれる。高さ検出部7は、異なる受光異方性で取り込んだ複数の検出画像から、この物体の影に相当する暗い画像部分の位置ずれの大きさを求め、その位置ずれの大きさから高さを検出する。   In the case of the shadow detection type, external light is taken in from the detection surface 5 </ b> A, and the intensity distribution of the external light is sensed by the optical sensor array 3. When there is an object to be detected that is in contact with or close to the detection surface 5A, the intensity distribution of the external light incident on the optical sensor array 3 includes a dark image portion corresponding to the object to be detected. The height detection unit 7 obtains the magnitude of the positional deviation of the dark image portion corresponding to the shadow of the object from a plurality of detection images captured with different light receiving anisotropies, and calculates the height from the magnitude of the positional deviation. To detect.

反射検出型の場合、図1(A)の構成にさらに、光照射部を追加する必要がある。
光照射部は、例えば基板2の光センサアレイ3と反対側の裏面側に配置される。光照射部の光源は任意であるが、低消費電力化や小型化のためには、例えば、少なくとも1つのLED光源とLED光を面状光に変換する導光板とを含んで構成される。導光板の裏面には光センサアレイ3への照度を上げるために反射シートが設けられる。
In the case of the reflection detection type, it is necessary to add a light irradiation unit to the configuration of FIG.
The light irradiation unit is disposed, for example, on the back side of the substrate 2 opposite to the photosensor array 3. Although the light source of a light irradiation part is arbitrary, in order to reduce power consumption and size reduction, for example, it is configured to include at least one LED light source and a light guide plate that converts LED light into planar light. A reflection sheet is provided on the back surface of the light guide plate to increase the illuminance to the optical sensor array 3.

反射検出では、このようにして発生した光照射部からの面状光が、ガラス等の透明材料からなる基板2を透過して、さらに光センサアレイ3、受光異方性付与部4および保護層5を透過して検出面5Aから外部に出射される。出射した光(検出光)は被検出物で反射され、その反射光が検出面5Aから検出装置1の内部に戻される。
反射光は受光異方性付与部4を通るときに受光異方性付与のための受光角度依存性を持ち光センサアレイ3に入射される。
In the reflection detection, the planar light from the light irradiation unit generated in this way passes through the substrate 2 made of a transparent material such as glass, and further, the optical sensor array 3, the light receiving anisotropy imparting unit 4, and the protective layer. 5 is transmitted to the outside from the detection surface 5A. The emitted light (detection light) is reflected by the object to be detected, and the reflected light is returned from the detection surface 5A to the inside of the detection apparatus 1.
When the reflected light passes through the light receiving anisotropy imparting unit 4, the reflected light has a light receiving angle dependency for imparting the light receiving anisotropy and is incident on the optical sensor array 3.

光センサアレイ3内の各光センサPSは、受光異方性に基づく複数、最低でも2つの異なる検出画像を発生する。光センサアレイ3が複数の異なる検出画像を発生する原理は、受光異方性付与部4の構成に依存する。   Each photosensor PS in the photosensor array 3 generates a plurality of at least two different detection images based on the light reception anisotropy. The principle by which the photosensor array 3 generates a plurality of different detection images depends on the configuration of the light receiving anisotropy imparting unit 4.

詳細は後述するが、受光異方性付与部4が一方向の一方側から斜めに入射される光と他方側から斜めに入射される光に異方性を持たせる遮光フィルタの場合がある。この場合、この異なる2つの光を選択的に光センサアレイ3に導くように、光センサPSごとに対応する遮光フィルタのパターンが決められている。
一例を挙げると、水平、垂直方向で1つ置きの第1光センサに対しては、例えば水平方向で右からの光が透過され、左からの光がほぼ遮光される。反対に、水平、垂直方向で残る1つ置きの第2光センサに対しては水平方向で左からの光が透過され、右からの光がほぼ遮光される。
この例では光センサアレイ3で離散的な第1光センサ群から第1の検出画像が得られ、他の離散的な第2光センサ群から第2の検出画像が得られる。
Although details will be described later, there is a case where the light receiving anisotropy imparting unit 4 is a light shielding filter that gives anisotropy to light incident obliquely from one side in one direction and light incident obliquely from the other side. In this case, the pattern of the light shielding filter corresponding to each photosensor PS is determined so as to selectively guide the two different lights to the photosensor array 3.
As an example, for every other first photosensor in the horizontal and vertical directions, light from the right is transmitted in the horizontal direction and light from the left is substantially blocked. On the other hand, the light from the left is transmitted in the horizontal direction and the light from the right is substantially shielded with respect to every other second photosensor remaining in the horizontal and vertical directions.
In this example, the first detection image is obtained from the discrete first photosensor group in the photosensor array 3, and the second detection image is obtained from the other discrete second photosensor group.

反射光の斜めの光成分は被検出物が近いと、その入射角度が小さい(垂直に近い)。一方、この斜めの光成分は被検出物が検出面5Aから遠ざかるにしたがって入射角度が大きくなる。このため、同じ被写体である被検出物を撮像することにより得られた上記第1および第2の検出画像は、その被写体(被検出物)に対応する画像部分のずれが、被写体が遠いほど大きくずれる性質がある。
このことを利用して高さ検出部7は、被検出物の画像部分のずれの大きさから高さ(センサ受光面から被検出物までの距離)を正確に検出することができる。
The oblique light component of the reflected light has a small incident angle (near vertical) when the object to be detected is close. On the other hand, the angle of incidence of this oblique light component increases as the object to be detected moves away from the detection surface 5A. For this reason, in the first and second detection images obtained by imaging the detected object that is the same subject, the shift of the image portion corresponding to the subject (detected object) becomes larger as the subject is farther away. There is a tendency to shift.
Utilizing this fact, the height detector 7 can accurately detect the height (the distance from the sensor light receiving surface to the detected object) from the magnitude of the shift of the image portion of the detected object.

遮光フィルタに代表されるように、異方性を空間的にもたせる方式を、以下、空間分割方式と呼ぶ。   A method of providing anisotropy spatially as represented by a light shielding filter is hereinafter referred to as a space division method.

受光異方性付与部4がカラーフィルタの場合も、高さ検出原理自体は、上記の場合と同様である。ただし、カラーフィルタの場合、異方性の与え方が上記遮光フィルタの場合と異なる。
受光異方性付与部4としてのカラーフィルタは、詳細は後述するが、その光センサPSに対応する部分に、遮光部と、異方性を与えたい方向の両側に異なる光透過特性のカラーフィルタ部とを有する。
この場合、検出装置1は反射検出型に限られ、しかも、その光出射部が異なる色の少なくとも2色の光を独立に発光する構成が必要である。この複数(例えば2つ)の光を1つの光センサPSで受光する場合は、光の発光を時分割で行い、さらに光センサPSの受光時間の制御も、光の発光に同期した時分割で行う。これにより異なる色の光による撮像が複数回(例えば2回)実行されることになり、各撮像から異なる検出画像が得られる。
Even when the light receiving anisotropy imparting unit 4 is a color filter, the height detection principle itself is the same as the above case. However, in the case of a color filter, the method of giving anisotropy is different from the case of the light shielding filter.
The color filter serving as the light receiving anisotropy imparting unit 4 will be described in detail later. The color filter having different light transmission characteristics on both sides of the light shielding unit and the direction in which the anisotropy is desired is provided in the portion corresponding to the optical sensor PS. Part.
In this case, the detection device 1 is limited to the reflection detection type, and the light emitting unit needs to be configured to independently emit at least two colors of different colors. When a plurality of (for example, two) lights are received by one optical sensor PS, the light emission is performed in a time-sharing manner, and the light-receiving time of the optical sensor PS is also controlled in a time-sharing manner synchronized with the light emission. Do. Thereby, imaging with light of different colors is executed a plurality of times (for example, twice), and different detection images are obtained from each imaging.

この場合のカラーフィルタに代表されるように、異方性を時間的に制御してもたせる方式を、以下、時分割方式と呼ぶ。   A method for allowing the anisotropy to be controlled temporally as represented by the color filter in this case is hereinafter referred to as a time division method.

一方、複数の色に対応して受光感度の中心波長が異なる複数種類の光センサPSを近接配置し、その複数種類の光センサPSを1組として、この組をマトリクス状に配置して光センサアレイ3を形成することもできる。この場合、1回の撮像でも、光センサPSの種類(受光感度特性の違い)ごとに検出画像を出力させることで、被検出物に対応する画像部分の位置が高さに応じてずれる複数の画像を得ることができる。
ただし、カラーフィルタのフィルタ部分との対応関係で、ある色の光成分に対しては被検出物が近いほど、その色を受光する光センサの受光量が多くなる。そのため、他の色の光成分に対しては被検出物が遠いほど、その色を受光する光センサの受光量が多くなるように、複数の種類の光センサ配置を決める必要がある。
On the other hand, a plurality of types of photosensors PS having different light receiving sensitivity center wavelengths corresponding to a plurality of colors are arranged close to each other, and the set of the plurality of types of photosensors PS is arranged in a matrix to form a photosensor. An array 3 can also be formed. In this case, even in a single imaging operation, by outputting a detection image for each type of photosensor PS (difference in light reception sensitivity characteristics), a plurality of positions in which the position of the image portion corresponding to the object to be detected is shifted according to the height. An image can be obtained.
However, in correspondence with the filter portion of the color filter, the closer the detected object is to a light component of a certain color, the greater the amount of light received by the photosensor that receives that color. For this reason, it is necessary to determine a plurality of types of photosensor arrangements so that the farther the object to be detected is for the light components of other colors, the greater the amount of light received by the photosensor that receives that color.

この場合は、複数種類の光センサPSで異方性を持たせる意味では空間分割方式の一つである。つまり、カラーフィルタを受光異方性付与部4として用いる場合は、時分割方式のほかに空間分割方式の採用も可能である。
以下、この方式を、遮光フィルタによる空間分割方式と区別する意味で、カラーフィルタと光センサ特性との組み合わせによる空間分割方式と呼ぶ。
In this case, it is one of the space division methods in the sense that anisotropy is provided by a plurality of types of optical sensors PS. That is, when a color filter is used as the light receiving anisotropy imparting unit 4, a space division method can be employed in addition to the time division method.
Hereinafter, this method is referred to as a space division method using a combination of a color filter and an optical sensor characteristic in a sense that is different from a space division method using a light shielding filter.

図2に、受光異方性付与部4(遮光フィルタまたはカラーフィルタ)における異方性方位の観点から分けた、検出装置1(検出パネル)の検出面5Aの領域区分を示す。図2は、検出パネルの検出面内全体を9つの面内領域に分けて示すものである。また、図2では、3×3の矩形領域上側と左側に、検出面5Aから離れる向きをz方向としたときに、被検出物のz方向の検出可能領域を示している(三角形の中は検出可能領域)。   FIG. 2 shows the region division of the detection surface 5A of the detection apparatus 1 (detection panel) divided from the viewpoint of the anisotropic orientation in the light reception anisotropy imparting unit 4 (light shielding filter or color filter). FIG. 2 shows the entire detection surface of the detection panel divided into nine in-plane regions. FIG. 2 shows the detectable region in the z direction of the object to be detected when the direction away from the detection surface 5A is the z direction on the upper side and the left side of the 3 × 3 rectangular region (the inside of the triangle is Detectable area).

図3は、上記3×3の各矩形領域での高さ検出に用いる具体的なセンサの組み合わせ例を示すものである。この例では、例えば図3(B)に示すように、遮光フィルタ(遮光部)と光センサPSとの相対的な位置関係から異方性付与方向を4方に持つもの4つを1ユニットとする。そして、このユニットが検出装置(検出パネル)の面内の行方向および列方向に繰り返し配置されているとする。この遮光部と光センサPSとの相対的な位置関係が異なるものを符号“4D,4L,4R,4U”で示す。それぞれは光センサPSの遮光部で3方が囲まれているが、その遮光部で囲まれていない残りの1方の向きに受光異方性が付与されている。以下、異方性の付与方位を表す名称として、下異方性付与部4D、左異方性付与部4L、右異方性付与部4R、上異方性付与部4Uを用いる。
なお、ここでは遮光部と光センサPSの関係で受光異方性が付与されている例を示すが、カラーフィルタの場合、遮光部と同様に3方で特定の色成分が遮断または減衰されることで残りの1方に受光異方性を付与することができる。
FIG. 3 shows an example of a specific combination of sensors used for height detection in each 3 × 3 rectangular area. In this example, for example, as shown in FIG. 3B, four units having anisotropy imparting directions in four directions from the relative positional relationship between the light shielding filter (light shielding portion) and the optical sensor PS are defined as one unit. To do. It is assumed that this unit is repeatedly arranged in the row direction and the column direction within the surface of the detection device (detection panel). Those having a different relative positional relationship between the light shielding portion and the optical sensor PS are denoted by reference numerals “4D, 4L, 4R, 4U”. Each of the three sides is surrounded by the light-shielding portion of the optical sensor PS, but light-receiving anisotropy is given to the remaining one direction not surrounded by the light-shielding portion. Hereinafter, the lower anisotropy imparting unit 4D, the left anisotropy imparting unit 4L, the right anisotropy imparting unit 4R, and the upper anisotropy imparting unit 4U are used as names indicating the orientation of anisotropy.
Here, an example is shown in which the light receiving anisotropy is imparted due to the relationship between the light shielding portion and the optical sensor PS. However, in the case of a color filter, a specific color component is blocked or attenuated in three directions as with the light shielding portion. Thus, the light receiving anisotropy can be imparted to the remaining one.

図3で符号“1C”により示す中央の四角領域は、どの方向からの光でも十分な光量が得られるため、4つの遮光部と光センサPSの組み合わせのうち任意の2つ以上を、どのように組み合わせてもよい。   In the central square region indicated by reference numeral “1C” in FIG. 3, a sufficient amount of light can be obtained from any direction, so any two or more of the combinations of the four light-shielding portions and the optical sensor PS can be used. May be combined.

これに対し、図3で符号“1R”と“1L”で示す右側と左側の領域は、例えば丸印で囲む下方と上方に異方性が付与された、下異方性付与部4Dと上異方性付与部4Uを用いて、それぞれ得られる2つの画像から高さx方向の位置検出を行うとよい。これらの左右の領域は、左右からの入射光量は均等でないが、上下からの入射光量はほぼ均等なため、上下の異方性を利用することが望ましいからである。   On the other hand, the right and left regions indicated by reference numerals “1R” and “1L” in FIG. 3 are, for example, the lower anisotropy imparting portion 4D and the upper anisotropy imparted to the lower and upper sides surrounded by circles. The anisotropy imparting unit 4U may be used to detect the position in the height x direction from the two images obtained respectively. This is because, in these left and right regions, the incident light amounts from the left and right are not equal, but the incident light amounts from the upper and lower sides are almost equal, and therefore it is desirable to use the upper and lower anisotropy.

また、図3で符号“1U”と“1D”で示す上側と下側の領域は、例えば丸印で囲む右方と左方に異方性が付与された、左異方性付与部4Lと右異方性付与部4Rを用いて、それぞれ得られる2つの画像から高さz方向の位置検出を行うとよい。これらの上下の領域は、上下からの入射光量は均等でないが、左右からの入射光量はほぼ均等なため、左右の異方性を利用することが望ましいからである。   Further, the upper and lower regions indicated by reference numerals “1U” and “1D” in FIG. 3 are, for example, left anisotropy imparting portions 4L that are provided with anisotropy on the right and left sides surrounded by circles. The right anisotropy imparting unit 4R may be used to detect the position in the height z direction from the two images obtained respectively. This is because, in these upper and lower regions, the amount of incident light from the upper and lower sides is not uniform, but the amount of incident light from the left and right is substantially equal, so it is desirable to use the left and right anisotropy.

これに対し、図3に示す4つのコーナー部分の領域は、それぞれの位置によって用いるとよい異方性付与部の組み合わせが異なる。
符号“1CN_1”により示す左上のコーナー部分の領域では、上方と左方からの入射光量が限定的になるため、下異方性付与部4Dと右異方性付与部4Rを用いるとよい。同様な理由から、符号“1CN_2”により示す右上のコーナー部分の領域では下異方性付与部4Dと右異方性付与部4Rを用いる。また、符号“1CN_3”により示す左下のコーナー部分の領域では右異方性付与部4Rと上異方性付与部4Uを用いる。さらに、符号“1CN_4”により示す右下のコーナー部分の領域では左異方性付与部4Lと上異方性付与部4Uを用いる。
On the other hand, the four corner portions shown in FIG. 3 have different combinations of anisotropy imparting portions that are preferably used depending on their positions.
In the upper left corner area indicated by reference numeral “1CN_1”, the amount of incident light from above and from the left is limited, so the lower anisotropy imparting section 4D and the right anisotropy imparting section 4R may be used. For the same reason, the lower anisotropy imparting portion 4D and the right anisotropy imparting portion 4R are used in the upper right corner portion indicated by the reference numeral “1CN_2”. Further, the right anisotropy imparting unit 4R and the upper anisotropy imparting unit 4U are used in the area of the lower left corner portion denoted by reference numeral “1CN — 3”. Further, the left anisotropy imparting portion 4L and the upper anisotropy imparting portion 4U are used in the area of the lower right corner portion indicated by reference numeral “1CN — 4”.

このように、検出面5Aの位置に応じて適切な異方性付与部の組み合わせを選択することによって、それぞれから得られる2つの画像から高さz方向の位置検出を行うことができる。つまり、図3の丸印で囲むような異方性付与部の選択を行うと、それぞれから得られる2つの画像にはx方向またはy方向に画像の位置ずれが生じる。図1の高さ検出部7は、この位置ずれの大きさに基づいて被検出物の高さ(z方向)の位置検出を行う。   Thus, by selecting an appropriate combination of anisotropy units according to the position of the detection surface 5A, position detection in the height z direction can be performed from two images obtained from each. That is, when the anisotropy imparting unit is selected so as to be surrounded by a circle in FIG. 3, image misalignment occurs in the x direction or the y direction in the two images obtained from each. The height detection unit 7 in FIG. 1 performs position detection of the height (z direction) of the detection object based on the magnitude of this positional deviation.

なお、図3に示す“遮光部”をカラーフィルタによる特定色の遮光または透過で代替させる場合、時分割と空間分割を組み合わせた画像取得が可能である。
カラーフィルタの場合、右異方性付与部4R、左異方性付与部4L、下異方性付与部4D、上異方性付与部4Uの任意の2つ(図3の領域に応じて適切な丸印の2つ)に異なる波長範囲を選択する、つまり色選択性をもたせた2つのカラーフィルタ部が配置される。
Note that when the “light-shielding portion” shown in FIG. 3 is replaced by light shielding or transmission of a specific color by a color filter, it is possible to acquire an image by combining time division and space division.
In the case of a color filter, any two of right anisotropy imparting portion 4R, left anisotropy imparting portion 4L, lower anisotropy imparting portion 4D, and upper anisotropy imparting portion 4U (appropriate depending on the region of FIG. 3) Two color filter sections that select different wavelength ranges, that is, have color selectivity, are arranged on the two circles.

[高さ検出手法]
つぎに、高さ検出部7が2つの検出画像で行う高さ検出の手法を、2例説明する。なお、以下の説明では、右異方性付与部4Rと左異方性付与部4Lとの組み合わせを一例とするが、上述したように検出場所に応じて、下異方性付与部4Dと上異方性付与部4Uとの組み合わせでもよい。また、コーナー部等、場所によっては上下の一方と、左右の一方とで異方性付与部を任意に組み合わせることもできる。
第1の手法では、図1(B)の検出駆動部6から出力される2つの検出画像を用い、その各々に含まれる被検出物に対応する画像部分のセンサ出力分布のピーク位置に基づいて高さ検出を行う。
[Height detection method]
Next, two examples of height detection techniques performed by the height detection unit 7 using two detection images will be described. In the following description, the combination of the right anisotropy imparting unit 4R and the left anisotropy imparting unit 4L is taken as an example. However, as described above, the lower anisotropy imparting unit 4D and the upper anisotropy imparting unit 4D A combination with the anisotropy imparting unit 4U may be used. Further, depending on the location, such as a corner portion, the anisotropy imparting portion can be arbitrarily combined with one of the upper and lower sides and one of the left and right sides.
In the first method, two detection images output from the detection drive unit 6 in FIG. 1B are used, and based on the peak position of the sensor output distribution of the image portion corresponding to the detected object included in each of the detection images. Perform height detection.

図4(A2)および図4(B2)は、第1の手法の説明図である。
図4(A2)および図4(B2)において、その横軸が異方性付与方向(例えばx方向)の位置を示し、また、被検出物に対応する画像部分を発生したセンサ出力(受光量)が、横軸から縦方向に離れるほど大きいことを表している。つまり、この縦軸は検出画像のラインプロファイルを表している。図4(A1)と図4(B1)は、それぞれ図4(A2)と図4(B2)の検出画像のラインプロファイルが得られるときの被検出物SDの基準面(例えば検出面5Aまたは受光面)からの距離の相違を模式的に示している。
FIG. 4 (A2) and FIG. 4 (B2) are explanatory diagrams of the first method.
4 (A2) and 4 (B2), the horizontal axis indicates the position in the direction of imparting anisotropy (for example, the x direction), and the sensor output (the amount of received light) that generates the image portion corresponding to the object to be detected. ) Indicates that the distance from the horizontal axis in the vertical direction increases. That is, the vertical axis represents the line profile of the detected image. FIGS. 4A1 and 4B1 respectively show the reference surface (for example, the detection surface 5A or the light receiving surface) of the detection object SD when the line profiles of the detection images of FIGS. 4A2 and 4B2 are obtained, respectively. The difference in distance from the surface is schematically shown.

図4(B1)および図4(B2)に示すように、右異方性付与部4R(図2参照)を透過した光を受光した右異方性センサからは、第1検出画像のラインプロファイル(以下、第1検出画像P1)が得られ、そのピークのx方向アドレスは相対的に小さい。これに対し、左異方性付与部4L(図2参照)を透過した光を受光した左異方性センサからは、第2検出画像ラインプロファイル(以下、第2検出画像P2)が得られ、そのピークのx方向アドレスは相対的に大きい。この第1および第2検出画像のピーク間のx座標の差分は、被検出物SDの基準面からの位置の大きさに応じて変化する。   As shown in FIG. 4 (B1) and FIG. 4 (B2), the line profile of the first detection image is received from the right anisotropy sensor that has received the light transmitted through the right anisotropy imparting unit 4R (see FIG. 2). (Hereinafter, the first detection image P1) is obtained, and the x-direction address of the peak is relatively small. On the other hand, a second detected image line profile (hereinafter referred to as a second detected image P2) is obtained from the left anisotropy sensor that has received light transmitted through the left anisotropy imparting unit 4L (see FIG. 2). The peak x-direction address is relatively large. The x-coordinate difference between the peaks of the first and second detection images changes according to the size of the position of the detection object SD from the reference plane.

被検出物SDが比較的小さい場合、各出力分布のピークは一意に決まるため、第1検出画像P1のピーク座標x1と第2検出画像P2のピーク座標x2とが確定できる。高さ検出部7は、このピーク座標の差(x2−x1)を算出し、その大きさから被検出物SDの高さを求める。   When the detection object SD is relatively small, the peak of each output distribution is uniquely determined, so that the peak coordinate x1 of the first detection image P1 and the peak coordinate x2 of the second detection image P2 can be determined. The height detection unit 7 calculates the difference (x2−x1) between the peak coordinates, and obtains the height of the detection object SD from the size.

図5に被検出物SDの大きさによる検出画像プロファイルの相違を示す。
図5(A)のように被検出物SDが小さい場合に対して、図5(B)に被検出物SDが大きい場合を示す。
図4を用いて説明した上記第1の手法は、指先のように小さな対象物の場合はうまくいくが、大きな対象物の際は、ピーク検出法では正確にセンサ受光面から対象物までの距離(高さ)を求めることができない。なぜなら、大きな対象物(被検出物SD)の場合、第1検出画像P1と第2検出画像P2の各ラインプロファイルはピーク付近がフラットになる場合があり、その場合のピーク検出の精度によっては検出ピークに大きな幅が生じるからである。そのため、その検出ピーク幅のどのポイントを差分演算の対象にするかによって位置ずれ量も誤差を含むことになり、結果として、高さ検出の精度が悪いことがある。
FIG. 5 shows the difference in the detected image profile depending on the size of the detection object SD.
FIG. 5B shows a case where the detected object SD is large as compared to a case where the detected object SD is small as shown in FIG.
The first method described with reference to FIG. 4 works well for a small object such as a fingertip. However, for a large object, the distance from the sensor light receiving surface to the object is accurate with the peak detection method. (Height) cannot be determined. This is because, in the case of a large object (detected object SD), each line profile of the first detection image P1 and the second detection image P2 may be flat near the peak, and detection is performed depending on the accuracy of peak detection in that case. This is because a large width occurs in the peak. For this reason, the positional deviation amount includes an error depending on which point of the detected peak width is subjected to the difference calculation, and as a result, the accuracy of height detection may be poor.

図6(A)と図6(B)に、第2の手法を示す。
第2の手法は第1の手法の欠点を持たない手法であり、図6(A)に被検出物が小さい場合のセンサ出力分布例を、図6(B)に被検出物が大きい場合のセンサ出力分布例を、それぞれ示す。
第2の手法では、第1検出画像P1と第2検出画像P2に共通なある閾値THを用いて、各検出画像データを2値化し、2値化情報に基づいて高さ検出を行う。この2値化情報を図6には2つの丸印で示す。第1検出画像P1を変換して得られた第1識別画像PI1と、第2検出画像P2を変換して得られた第2識別画像PI2とは、それぞれ被検出物に対応した検出画像部分に相当する。よって、図6(A)に比べ図6(B)で識別画像の大きさが大きくなっている。この識別画像の大きさ(径)は閾値THのとりかたに依存するが、この大きさ自体は高さ検出に影響しない。
FIG. 6A and FIG. 6B show the second method.
The second method is a method that does not have the disadvantages of the first method. FIG. 6A illustrates an example of sensor output distribution when the detected object is small, and FIG. 6B illustrates the case where the detected object is large. An example of sensor output distribution is shown below.
In the second method, each detection image data is binarized using a certain threshold TH common to the first detection image P1 and the second detection image P2, and height detection is performed based on the binarized information. This binarized information is indicated by two circles in FIG. The first identification image PI1 obtained by converting the first detection image P1 and the second identification image PI2 obtained by converting the second detection image P2 are respectively detected image portions corresponding to the detected object. Equivalent to. Therefore, the size of the identification image is larger in FIG. 6B than in FIG. The size (diameter) of the identification image depends on how the threshold value TH is set, but the size itself does not affect the height detection.

高さ検出では、高さ検出部7が得られた第1識別画像PI1と第2識別画像PI2のそれぞれに対し、そのx方向の重心位置を求める。重心位置の求め方は、例えばx方向の両端のアドレスを平均する方法が採用できる。   In height detection, the center of gravity position in the x direction is obtained for each of the first identification image PI1 and the second identification image PI2 obtained by the height detection unit 7. For example, a method of averaging addresses at both ends in the x direction can be adopted as a method of obtaining the center of gravity position.

このようにして求めた2つの重心位置は、検出面5Aに対する被検出物の位置が同じである限り、その大きさによらず一定となる。具体的に図6(A)で求めた第1識別画像PI1の重心位置と図6(B)で求めた第2識別画像PI2の重心位置はx軸上で一致する。また、閾値THが変化しても重心位置は変化しない(対称分布の場合)。一方、指が傾いて近接している場合など非対象分布となる場合もあるが、同じ閾値THなら重心位置に大きな差はない。   The two barycentric positions obtained in this way are constant regardless of their sizes as long as the position of the detected object with respect to the detection surface 5A is the same. Specifically, the barycentric position of the first identification image PI1 obtained in FIG. 6A matches the barycentric position of the second identification image PI2 obtained in FIG. 6B on the x axis. Further, the position of the center of gravity does not change even when the threshold value TH changes (in the case of a symmetric distribution). On the other hand, there may be a non-target distribution such as when the finger is tilted and close, but if the threshold value TH is the same, there is no significant difference in the center of gravity position.

なお、第2の手法では、被検出物が遠くにある場合などでは分布のピークが低下し、これが閾値THを下回ることもある。その場合、閾値THを変更しなければならない不都合を第2の手法はかかえている。
よって、例えば分布ピークが小さい場合や小さい被検出物の検出では第1の手法を用い、分布ピークが大きい場合や大きい被検出物の検出では第2の手法を用いることとして、両手法を切り替えるか併用することもできる。
In the second method, when the object to be detected is far away, the distribution peak decreases, which may be lower than the threshold value TH. In that case, the second method has a disadvantage that the threshold value TH must be changed.
Therefore, for example, the first method is used when the distribution peak is small or small detection object is detected, and the second method is used when the distribution peak is large or large detection object is detected. It can also be used together.

以上の高さ検出を可能とする本実施の形態に関わる検出装置1は、光学式検出であり、かつ画像処理演算による高さ検出であるため、センサ出力にノイズが重畳されていても差分演算時にキャンセルされる。このため高い精度で高さ検出が可能である。また、受光異方性付与部4が必要となる場合があるものの、発振器等を用いてセンサ出力変換を行うための大掛かりな回路が不要であるためコスト的にも有利である。   Since the detection apparatus 1 according to the present embodiment that enables the above height detection is optical detection and height detection by image processing calculation, the difference calculation is performed even if noise is superimposed on the sensor output. Sometimes canceled. Therefore, the height can be detected with high accuracy. In addition, although the light receiving anisotropy imparting unit 4 may be required, a large circuit for performing sensor output conversion using an oscillator or the like is unnecessary, which is advantageous in terms of cost.

第2の手法では、2値化情報をそのまま用いて、被検出物の大きさを検出することもできる。なお、被検出物の大きさを面状に検出したい場合は、図2に示す第1異方性付与方向での大きさ検出と、第2異方性付与方向での大きさ検出が必要となる。   In the second method, the size of the detected object can be detected using the binarized information as it is. In addition, when it is desired to detect the size of the object to be detected, it is necessary to detect the size in the first anisotropy applying direction and the size detection in the second anisotropy applying direction shown in FIG. Become.

<2.第2の実施の形態>
第2の実施の形態に関わる表示装置は、ユーザとのインタラクティブな情報の入出力が可能な表示パネル(I/Oディスプレイパネル)として実現してもよい。あるいは、I/Oディスプレイパネルとその外部のICをモジュール実装した表示モジュール、さらには、アプリケーションプログラムの実行部まで備えた、例えばテレビジョン受像機、モニタ装置などとして、当該実施の形態に関わる表示装置を実現してもよい。
以下、アプリケーションプログラムの実行部まで備えた表示装置を例として、第2の実施の形態の詳細を説明する。
<2. Second Embodiment>
The display device according to the second embodiment may be realized as a display panel (I / O display panel) capable of interactively inputting and outputting information with a user. Alternatively, a display module in which an I / O display panel and its external IC are mounted in a module, and further including an application program execution unit, such as a television receiver, a monitor device, etc. May be realized.
Hereinafter, the details of the second embodiment will be described by taking a display device including an execution unit of an application program as an example.

[表示装置の全体構成]
図7は、表示装置の全体構成を表すブロック図である。
図7に図解する表示装置10は、I/Oディスプレイパネル10Pと、バックライト20と、表示ドライブ回路1100と、受光ドライブ回路1200と、画像処理部1300と、アプリケーションプログラム実行部1400とを有する。
[Overall configuration of display device]
FIG. 7 is a block diagram illustrating the overall configuration of the display device.
The display device 10 illustrated in FIG. 7 includes an I / O display panel 10P, a backlight 20, a display drive circuit 1100, a light receiving drive circuit 1200, an image processing unit 1300, and an application program execution unit 1400.

I/Oディスプレイパネル10Pは、複数の画素が全面に渡ってマトリクス状に配置された液晶パネル(LCD(Liquid Crystal Display))からなり、線順次動作をしながら表示データに基づく所定の図形や文字などの画像を表示する機能(表示機能)を有する。また、I/Oディスプレイパネル10Pは、後述するように、I/Oディスプレイパネル10Pの表示面11に接触または近接する物体を撮像する機能(撮像機能)を有する。   The I / O display panel 10P is composed of a liquid crystal panel (LCD (Liquid Crystal Display)) in which a plurality of pixels are arranged in a matrix over the entire surface, and a predetermined figure or character based on display data while performing line sequential operation. And the like (display function). Further, as described later, the I / O display panel 10P has a function (imaging function) of imaging an object that is in contact with or close to the display surface 11 of the I / O display panel 10P.

バックライト20は、例えば3原色の各色を発光する複数の発光ダイオード(LED)が配置されてなるI/Oディスプレイパネル10Pの光源である。バックライト20は、後述するように、表示ドライブ回路1100の制御によって、I/Oディスプレイパネル10Pの動作タイミングに同期した所定のタイミングで高速に各色のLEDをオンまたはオフする動作を行う。   The backlight 20 is a light source of the I / O display panel 10P in which a plurality of light emitting diodes (LEDs) that emit light of, for example, three primary colors are arranged. As will be described later, the backlight 20 performs an operation of turning on or off the LEDs of each color at high speed at a predetermined timing synchronized with the operation timing of the I / O display panel 10P under the control of the display drive circuit 1100.

表示ドライブ回路1100は、I/Oディスプレイパネル10Pにおいて表示データに基づく画像が表示されるように、I/Oディスプレイパネル10Pの駆動を行う(線順次動作の駆動を行う)回路である。   The display drive circuit 1100 is a circuit that drives the I / O display panel 10P (drives a line sequential operation) so that an image based on display data is displayed on the I / O display panel 10P.

受光ドライブ回路1200は、I/Oディスプレイパネル10Pにおいて受光データが得られるように、指先などの被検出物を撮像し、撮像画像を複数の検出画像として出力する回路である。
上記表示ドライブ回路1100が線順次で画素駆動を行って液晶層(光変調層)を駆動するのに対し、受光ドライブ回路1200は光センサアレイを線順次で駆動する回路である。なお、光センサからの受光データは、例えばフレーム単位でフレームメモリ(FM)に蓄積され、撮像画像(複数の検出画像)として画像処理部1300へ出力される。
The light receiving drive circuit 1200 is a circuit that picks up an object to be detected such as a fingertip and outputs the picked up images as a plurality of detected images so that light receiving data can be obtained in the I / O display panel 10P.
The display drive circuit 1100 drives the liquid crystal layer (light modulation layer) by performing pixel driving in a line sequential manner, whereas the light receiving drive circuit 1200 is a circuit for driving the optical sensor array in a line sequential manner. The light reception data from the optical sensor is accumulated in a frame memory (FM), for example, in units of frames, and is output to the image processing unit 1300 as captured images (a plurality of detected images).

画像処理部1300は、受光ドライブ回路1200から出力される撮像画像(検出画像)に基づいて所定の画像処理(演算処理)を行う。これにより、画像処理部1300は、I/Oディスプレイパネル10Pに接触または近接する物体に関する情報(位置座標データ、物体の形状や大きさに関するデータなど)を検出し、取得する。なお、この検知する処理の特にz方向の距離(高さ)検出処理については、第1の実施の形態で図4〜図6を用いて既に説明したため、ここでの説明は省略する。   The image processing unit 1300 performs predetermined image processing (calculation processing) based on the captured image (detected image) output from the light receiving drive circuit 1200. Thereby, the image processing unit 1300 detects and acquires information (position coordinate data, data related to the shape and size of the object, etc.) related to an object that is in contact with or close to the I / O display panel 10P. In addition, since the distance (height) detection process in the z direction of the detection process has already been described with reference to FIGS. 4 to 6 in the first embodiment, the description thereof is omitted here.

アプリケーションプログラム実行部1400は、画像処理部1300による検知結果に基づいて所定のアプリケーションソフトウエアに応じた処理を実行する回路である。   The application program execution unit 1400 is a circuit that executes processing according to predetermined application software based on the detection result by the image processing unit 1300.

アプリケーションソフトウエアに応じた処理には、表示ボタンを高さ検出結果に応じて大きくし、あるいは小さくする処理、ボタンそのものを変更する処理などが例示できる。
また、本発明の適用により高精度な高さ検出ができる。このため、高さ範囲を数段階に区分して、どの区分に指先などの被検出物が存在するかに応じて、アプリケーションソフトウエアに、単なるボタン切り替えなどの2値情報以上の情報量をもつ多値情報を入力することもできる。よって、動作の程度、例えばゲームなどのアクションの程度などを指先の高さで制御するアプリケーションソフトウエアの操作への適用も可能である。
なお、簡単な例では、指先などの被検出物の位置座標(高さを含む)を表示データに含むようにし、I/Oディスプレイパネル10P上に表示させる処理も例示できる。
Examples of the process corresponding to the application software include a process for increasing or decreasing the display button according to the height detection result, a process for changing the button itself, and the like.
In addition, the application of the present invention enables highly accurate height detection. For this reason, the height range is divided into several stages, and the application software has an amount of information that is more than binary information such as simple button switching, depending on which section the detected object such as a fingertip exists. Multi-value information can also be input. Therefore, the present invention can be applied to the operation of application software that controls the degree of operation, for example, the degree of action of a game or the like with the height of a fingertip.
In addition, in a simple example, the process of making the display data include the position coordinates (including the height) of an object to be detected such as a fingertip and displaying it on the I / O display panel 10P can be exemplified.

ボタン表示や位置データなどを含み、アプリケーションプログラム実行部1400で発生する表示データは、表示ドライブ回路1100へ供給される。   Display data generated by the application program execution unit 1400, including button display and position data, is supplied to the display drive circuit 1100.

[表示パネル全体構成]
図8は、I/Oディスプレイパネル10Pの構成例を示す図である。
図8に図解するI/Oディスプレイパネル10Pは、表示領域DRおよびセンサ領域SRを含む表示部10P1と、表示Hドライバ(DH.DRV)2200と、表示Vドライバ(DV.DRV)2300を有する。また、I/Oディスプレイパネル10Pは、センサ読み出しHドライバ(SRH.DRV)6SRHと、センサ読み出しVドライバ(SV.DRV)6SRVとを有する。
[Display panel overall configuration]
FIG. 8 is a diagram illustrating a configuration example of the I / O display panel 10P.
An I / O display panel 10P illustrated in FIG. 8 includes a display unit 10P1 including a display region DR and a sensor region SR, a display H driver (DH.DRV) 2200, and a display V driver (DV.DRV) 2300. In addition, the I / O display panel 10P includes a sensor readout H driver (SRH.DRV) 6SRH and a sensor readout V driver (SV.DRV) 6SRV.

表示領域DRおよびセンサ領域SRは、バックライト20からの光を変調して表示光を出射するとともに、その表示面11に接触または近接する物体を撮像する領域である。このために表示領域DRおよびセンサ領域SRには、光変調層を含む液晶素子と受光素子(光センサPS)とがそれぞれマトリクス状に配置されている。   The display area DR and the sensor area SR are areas for modulating the light from the backlight 20 to emit display light and imaging an object that is in contact with or close to the display surface 11. For this purpose, in the display region DR and the sensor region SR, liquid crystal elements including a light modulation layer and light receiving elements (photosensors PS) are arranged in a matrix.

表示Hドライバ2200および表示Vドライバ2300は、表示ドライブ回路1100(図7)から供給される表示駆動用の表示信号および制御クロック(CLK)に基づいて、表示部10P1内の各画素の液晶素子を線順次駆動する回路である。   The display H driver 2200 and the display V driver 2300 change the liquid crystal element of each pixel in the display unit 10P1 based on the display drive display signal and the control clock (CLK) supplied from the display drive circuit 1100 (FIG. 7). It is a circuit that drives line-sequentially.

センサ読み出しVドライバ6SRVおよびセンサ読み出しHドライバ6SRHは、センサエリア2100内の各画素の受光素子(光センサPS)を線順次駆動し、センサ出力信号を取得する回路である。   The sensor readout V driver 6SRV and the sensor readout H driver 6SRH are circuits that line-sequentially drive the light receiving elements (photosensors PS) of each pixel in the sensor area 2100 and acquire sensor output signals.

第2の実施の形態に関わる表示装置10における検出駆動部は、撮像を制御するセンサ読み出しVドライバ6SRVおよびセンサ読み出しHドライバ6SRHのほかに、図7の表示ドライブ回路1100を含む。これにより検出駆動部は、バックライト20を撮像に同期して制御する機能を有する。   The detection drive unit in the display device 10 according to the second embodiment includes the display drive circuit 1100 of FIG. 7 in addition to the sensor readout V driver 6SRV and the sensor readout H driver 6SRH that control imaging. Accordingly, the detection drive unit has a function of controlling the backlight 20 in synchronization with imaging.

[画素ユニットの回路構成]
画素ユニットとは、3色または4色等の色配列の基本をなす画素の組であり、画素ユニットを規則的に配列することにより表示領域DRおよびセンサ領域SRが形成されている。
[Pixel unit circuit configuration]
The pixel unit is a group of pixels that form the basis of a color arrangement such as three colors or four colors, and the display area DR and the sensor area SR are formed by regularly arranging the pixel units.

図9は、画素ユニットに含まれる表示画素部とセンサ部との等価回路図である。センサ部は、通常、画素ユニットの境界で表示画素部間に設けられた遮光領域を利用して配置される。よって、以下、表示画素部の配置領域を“表示領域DR”と呼び、センサ部を“遮光領域”または“センサ領域”と呼ぶ。遮光領域とセンサ領域は同一符号“SR”で表記する。表示領域DRとセンサ領域(遮光領域)SRは、図8の表示部10P1に繰り返し、規則的に配置される。   FIG. 9 is an equivalent circuit diagram of the display pixel unit and the sensor unit included in the pixel unit. The sensor unit is usually arranged using a light shielding region provided between the display pixel units at the boundary of the pixel unit. Therefore, hereinafter, the arrangement region of the display pixel portion is referred to as “display region DR”, and the sensor portion is referred to as “light shielding region” or “sensor region”. The light shielding area and the sensor area are denoted by the same symbol “SR”. The display area DR and the sensor area (light-shielding area) SR are repeatedly arranged regularly on the display unit 10P1 in FIG.

表示領域DRには、水平方向に延在する表示走査線DSCNと垂直方向に延在する表示信号線DSLとの交点付近に、薄膜トランジスタ(TFT)などからなるアクセストランジスタATが配置されている。アクセストランジスタATがFETからなる場合、そのゲートが表示走査線DSCNに接続され、そのドレインが表示信号線DSLに接続されている。アクセストランジスタATのソースは画素ごとの画素電極PEに接続されている。画素電極PEが隣接する液晶層(光変調層)37を駆動する電極であり、通常、透明電極材料から形成されている。   In the display region DR, an access transistor AT including a thin film transistor (TFT) is disposed in the vicinity of an intersection between the display scanning line DSCN extending in the horizontal direction and the display signal line DSL extending in the vertical direction. When the access transistor AT is composed of an FET, its gate is connected to the display scanning line DSCN, and its drain is connected to the display signal line DSL. The source of the access transistor AT is connected to the pixel electrode PE for each pixel. The pixel electrode PE is an electrode for driving the adjacent liquid crystal layer (light modulation layer) 37 and is usually formed of a transparent electrode material.

表示信号線DSLと直交する方向(水平方向)に延在する共通電位線に、液晶層を挟んで画素電極PEと対向する対向電極FEが設けられている。対向電極FEは通常、画素間に共通に設けられ、透明電極材料から形成されている。   A common electrode extending in a direction (horizontal direction) orthogonal to the display signal line DSL is provided with a counter electrode FE that faces the pixel electrode PE with the liquid crystal layer interposed therebetween. The counter electrode FE is usually provided between the pixels and is made of a transparent electrode material.

このような構成の表示領域DRの各画素は、表示走査線DSCNを介して供給される表示走査信号に基づいてアクセストランジスタATがオンまたはオフする。アクセストランジスタATがオンすると、このときに表示信号線DSLに供給されている表示信号に応じた画素電圧が画素電極PEに画素電圧が印加され、これにより表示状態が設定される。   In each pixel of the display region DR having such a configuration, the access transistor AT is turned on or off based on a display scanning signal supplied via the display scanning line DSCN. When the access transistor AT is turned on, a pixel voltage corresponding to the display signal supplied to the display signal line DSL at this time is applied to the pixel electrode PE, thereby setting a display state.

表示領域DRに隣接するセンサ領域(遮光領域)SRには、例えばフォトダイオードなどからなる光センサPSが配置され、逆バイアスのため、そのカソード側に電源電圧VDDが供給されるようになっている。光センサPSのアノード側に、リセットスイッチRSTSWとキャパシタCが接続されている。
光センサPSのアノードは、キャパシタCの大きさで蓄積容量が決まり、その蓄積電荷がリセットスイッチRSTSWによって接地電位に放電(リセット)されるようになっている。リセットスイッチRSTSWをオンからオフの状態にしてから、つぎにオンするまでの時間が電荷蓄積時間、つまり撮像時間に相当する。
In the sensor region (light-shielding region) SR adjacent to the display region DR, a photosensor PS made of, for example, a photodiode is disposed, and the power supply voltage VDD is supplied to the cathode side for reverse bias. . A reset switch RSTSW and a capacitor C are connected to the anode side of the photosensor PS.
The storage capacity of the anode of the photosensor PS is determined by the size of the capacitor C, and the stored charge is discharged (reset) to the ground potential by the reset switch RSTSW. The time from when the reset switch RSTSW is turned off to when it is turned on corresponds to the charge accumulation time, that is, the imaging time.

また、光センサPSのアノードと、垂直方向に延在するセンサ線SLとの間に、バッファアンプBAMPおよび読み出しスイッチRSWが直列接続されている。
蓄積電荷は読み出しスイッチRSWがオンとなるタイミングで、バッファアンプBAMPを介してセンサ線SLに供給され、図9に示す画素ユニットの基本構成3100の外部へ出力される。また、リセットスイッチRSTSWのオンとオフの動作は、リセット線RSTLにより供給されるリセット信号により制御され、読み出しスイッチRSWのオンとオフの動作は、リード制御線RCLにより供給されるリード制御信号により制御される。リセット線RSTLとリード制御線RCLによりセンサ走査信号線SSCNを構成する。
In addition, a buffer amplifier BAMP and a readout switch RSW are connected in series between the anode of the optical sensor PS and the sensor line SL extending in the vertical direction.
The accumulated charge is supplied to the sensor line SL via the buffer amplifier BAMP at the timing when the readout switch RSW is turned on, and is output to the outside of the basic configuration 3100 of the pixel unit shown in FIG. The on / off operation of the reset switch RSTSW is controlled by a reset signal supplied by a reset line RSTL, and the on / off operation of the read switch RSW is controlled by a read control signal supplied by a read control line RCL. Is done. A sensor scanning signal line SSCN is constituted by the reset line RSTL and the read control line RCL.

図10に、3原色表示のための3つの画素とセンサ読み出しHドライバ6SRHとの接続関係を示す。
図10では、赤(R)表示時の画素(R画素)を含む画素ユニットの基本構成10PRと、緑(G)表示時の画素(G画素)を含む画素ユニットの基本構成10PGと、青(B)表示時の画素(B画素)を含む画素ユニット10PBとが表示部10P1内に並んで示されている。なお、画素の色は他の実施の形態ではカラーフィルタの色配列で規定されるが、本実施の形態では、フィールドシーケンシャル方式であるためLED光源の色で規定される。よって、図10に示す3つの画素ユニットの基本構成10PR,10PG,10PBは、時系列に表示色が変化する同一画素ユニットを示すものである。
FIG. 10 shows the connection relationship between the three pixels for displaying the three primary colors and the sensor readout H driver 6SRH.
In FIG. 10, a basic configuration 10PR of a pixel unit including a pixel (R pixel) at the time of red (R) display, a basic configuration 10PG of a pixel unit including a pixel (G pixel) at the time of green (G) display, and blue ( B) A pixel unit 10PB including pixels at the time of display (B pixel) is shown side by side in the display unit 10P1. Note that the color of the pixel is defined by the color arrangement of the color filter in other embodiments, but in this embodiment, it is defined by the color of the LED light source because of the field sequential method. Therefore, the basic configurations 10PR, 10PG, and 10PB of the three pixel units shown in FIG. 10 indicate the same pixel unit whose display color changes in time series.

各画素ユニットの基本構成における光センサPSに接続されたキャパシタ(不図示)や寄生容量に蓄積された電荷は、バッファアンプBAMPで増幅される。増幅後の電荷は、読み出しスイッチRSWがオンになるタイミングで、センサ線SLを介してセンサ読み出しHドライバ6SRHへ供給される。
なお、センサ線SLに定電流源IGが接続され、センサ読み出しHドライバ6SRHで感度良く受光量に対応した信号が検出されるようになっている。
Charges accumulated in a capacitor (not shown) or a parasitic capacitance connected to the photosensor PS in the basic configuration of each pixel unit are amplified by a buffer amplifier BAMP. The amplified charge is supplied to the sensor readout H driver 6SRH via the sensor line SL at the timing when the readout switch RSW is turned on.
A constant current source IG is connected to the sensor line SL, and a signal corresponding to the amount of received light is detected with high sensitivity by the sensor readout H driver 6SRH.

[画素ユニットの平面および断面の構造]
図11(A)に画素ユニットの平面(受光異方性付与部4(図1(A)参照)の領域区分)を示す。また、図11(B)に、画素ユニットの断面を図11(A)と対応して示す。
[Plane and cross-sectional structure of the pixel unit]
FIG. 11A shows a plane of the pixel unit (region division of the light-receiving anisotropy imparting unit 4 (see FIG. 1A)). FIG. 11B shows a cross section of the pixel unit corresponding to FIG.

図11(B)に図解する(液晶)表示装置10は、表示面11(図の最上層側の面)と反対側の背面(図の最下層側の面)側にバックライト20が配置されている。
(液晶)表示装置10は、2枚のガラス基板が貼り合わされ、その間や外面側に種々の機能層を有して、バックライト20と表示面11との間に配置された表示部10P1が配置されている。ここでいう表示部10P1は、図7のI/Oディスプレイパネル10Pの有効表示領域に対応する。
In the (liquid crystal) display device 10 illustrated in FIG. 11B, a backlight 20 is arranged on the back surface (surface on the lowermost layer side) opposite to the display surface 11 (surface on the uppermost layer side in the drawing). ing.
(Liquid crystal) The display device 10 has two glass substrates bonded together, and various display layers 10P1 disposed between the backlight 20 and the display surface 11 between them and having various functional layers on the outer surface side. Has been. The display unit 10P1 here corresponds to the effective display area of the I / O display panel 10P of FIG.

バックライト20は、詳細は図示しないが、導光板、LED等の光源、光源駆動部、反射シート、プリズムシートなどを一体に組み立てた画像ディスプレイ専用の照明装置である。   Although not shown in detail, the backlight 20 is a lighting device dedicated to an image display in which a light guide plate, a light source such as an LED, a light source driving unit, a reflection sheet, a prism sheet, and the like are integrally assembled.

表示部10P1は、上記2枚のガラス基板として、バックライト20側のTFT基板30と、表示面11側の対向基板31とを有する。
TFT基板30の表示面11側の主面には、絶縁膜32A、配線層32B、平坦化膜32Cからなる受光層32が形成されている。また、TFT基板30の他方の主面(裏面)には、第1偏光板40が貼られている。
The display unit 10P1 includes the TFT substrate 30 on the backlight 20 side and the counter substrate 31 on the display surface 11 side as the two glass substrates.
On the main surface of the TFT substrate 30 on the display surface 11 side, a light receiving layer 32 including an insulating film 32A, a wiring layer 32B, and a planarizing film 32C is formed. A first polarizing plate 40 is attached to the other main surface (back surface) of the TFT substrate 30.

受光層32内の絶縁膜32A内に光センサPSのフォトダイオードPDが形成されている。フォトダイオードPDの上面(表示面11側の面)がセンサ受光面である。
フォトダイオードPDの上方を開口部とする配線層32Bには、図9のセンサ線SL、リセット線RSTL、リード制御線RCLおよび電源線等となる多数の配線が形成されている。
平坦化膜32Cは、配線による段差を平坦化するように配線を覆って形成されている。
A photodiode PD of the optical sensor PS is formed in the insulating film 32A in the light receiving layer 32. The upper surface (surface on the display surface 11 side) of the photodiode PD is a sensor light receiving surface.
In the wiring layer 32B having an opening above the photodiode PD, a large number of wirings such as the sensor line SL, the reset line RSTL, the read control line RCL, and the power supply line in FIG. 9 are formed.
The planarizing film 32C is formed so as to cover the wiring so as to planarize a step due to the wiring.

受光層32上(表示面11側)に、対向電極FE(共通電極ともいう)、絶縁膜33A、画素電極PEを含む表示電極層33が形成されている。
対向電極FEおよび画素電極PEは透明電極材料からなり、対向電極FEは画素間共通の大きさで配置され、画素電極PEは画素ごとに分離されている。特に画素電極PEは垂直方向に長いスリットを多数有する。
画素電極PEの表面および下地の絶縁膜33Aを覆って、第1配向膜34が形成されている。
A display electrode layer 33 including a counter electrode FE (also referred to as a common electrode), an insulating film 33A, and a pixel electrode PE is formed on the light receiving layer 32 (on the display surface 11 side).
The counter electrode FE and the pixel electrode PE are made of a transparent electrode material, the counter electrode FE is arranged in a common size between pixels, and the pixel electrode PE is separated for each pixel. In particular, the pixel electrode PE has many slits that are long in the vertical direction.
A first alignment film 34 is formed to cover the surface of the pixel electrode PE and the underlying insulating film 33A.

対向基板31の一方の面(裏面側)に、受光異方性付与部としてのカラーフィルタ35と、その平坦化膜35Aと、第2配向膜36とが形成されている。   On one surface (back surface side) of the counter substrate 31, a color filter 35 as a light receiving anisotropy imparting portion, a planarizing film 35A, and a second alignment film 36 are formed.

TFT基板30は、スペーサ(不図示)を介して内部空間を形成するように対向基板31と貼り合わされている。このとき、受光層32や表示電極層33および第1配向膜34を形成したTFT基板30の面と、カラーフィルタ35や第2配向膜36を形成した対向基板31の面とが、対向するように両基板が貼り合わされる。
スペーサが形成されていない箇所から、2枚の基板間の内部空間に液晶が注入されている。その後、液晶の注入箇所が閉じられると、液晶がTFT基板30、対向基板31およびスペーサ内に液晶が封入され、これにより液晶層37が形成されている。液晶層37は、第1配向膜34と第2配向膜36に接しているため、それら配向膜のラビングの向きで液晶分子の配向方向が決められる。
The TFT substrate 30 is bonded to the counter substrate 31 so as to form an internal space via a spacer (not shown). At this time, the surface of the TFT substrate 30 on which the light receiving layer 32, the display electrode layer 33, and the first alignment film 34 are formed and the surface of the counter substrate 31 on which the color filter 35 and the second alignment film 36 are formed are opposed to each other. Both substrates are bonded together.
Liquid crystal is injected into the internal space between the two substrates from the portion where the spacer is not formed. Thereafter, when the liquid crystal injection portion is closed, the liquid crystal is sealed in the TFT substrate 30, the counter substrate 31, and the spacer, whereby the liquid crystal layer 37 is formed. Since the liquid crystal layer 37 is in contact with the first alignment film 34 and the second alignment film 36, the alignment direction of the liquid crystal molecules is determined by the rubbing direction of these alignment films.

このように形成された液晶層37に対し、画素ごとの画素電極PEと、画素間で共通な対向電極FEとが、層厚方向に隣接配置される。この2種類の電極は、液晶層37に電圧を印加するための電極である。液晶層37を挟んで2つの電極が配置される場合(縦方向の駆動モード)と、TFT基板30側に2つの電極が2層配置される場合(横方向の駆動モード)とがある。図11(B)は後者の横方向の駆動モードの場合を示す。
この場合、画素電極PEと対向電極FEは絶縁分離されているが、下層側の対向電極FEは、上層側で液晶層37に接する画素電極PEのパターンの間から液晶に電気的な作用を与える。このため、横方向の駆動モードでは電界の向きが横方向となる。これに対し、2つの電極が液晶層37を、その厚さ方向から挟んで配置される場合は、電界の向きが縦方向(厚さ方向)となる。
For the liquid crystal layer 37 formed in this way, a pixel electrode PE for each pixel and a common electrode FE common to the pixels are disposed adjacent to each other in the layer thickness direction. These two types of electrodes are electrodes for applying a voltage to the liquid crystal layer 37. There are a case where two electrodes are arranged with the liquid crystal layer 37 interposed therebetween (vertical driving mode) and a case where two layers of two electrodes are arranged on the TFT substrate 30 side (horizontal driving mode). FIG. 11B shows the case of the latter lateral driving mode.
In this case, the pixel electrode PE and the counter electrode FE are insulated and separated, but the counter electrode FE on the lower layer side exerts an electrical action on the liquid crystal from between the pattern of the pixel electrode PE in contact with the liquid crystal layer 37 on the upper layer side. . Therefore, the direction of the electric field is the horizontal direction in the horizontal driving mode. On the other hand, when the two electrodes are arranged with the liquid crystal layer 37 sandwiched from the thickness direction, the direction of the electric field is the vertical direction (thickness direction).

いずれの駆動モード仕様で電極が配置されている場合でも、2つの電極によって液晶層37に対し電圧をマトリクスに駆動可能である。このため、液晶層37は、その透過を光学的に変調する機能層(光変調層)として機能する。液晶層37は、この印加電圧の大きさに応じて階調表示を行う。   Regardless of the drive mode specification, the voltage can be driven in a matrix with respect to the liquid crystal layer 37 by the two electrodes. Therefore, the liquid crystal layer 37 functions as a functional layer (light modulation layer) that optically modulates the transmission. The liquid crystal layer 37 performs gradation display according to the magnitude of the applied voltage.

他の光学機能層として、バックライト20とTFT基板30との間に配置されている第1偏光板40と対をなす第2偏光板50が、対向基板31の表示面11側の面に貼られている。
第2偏光板50の表示面11側は不図示の保護層に覆われ、その最表面が、外部から画像を視認する表示面11となっている。
As another optical functional layer, a second polarizing plate 50 that forms a pair with the first polarizing plate 40 disposed between the backlight 20 and the TFT substrate 30 is attached to the surface of the counter substrate 31 on the display surface 11 side. It has been.
The display surface 11 side of the second polarizing plate 50 is covered with a protective layer (not shown), and the outermost surface is the display surface 11 for visually recognizing an image.

第2の実施の形態では、フィールドシーケンシャル方式を採用していることと関連して、カラーフィルタ35の表示領域DR部分には色選択性をもたない。なぜなら、色の選択はバックライト20がR,G,Bの各色のLEDを順次点滅させることで行われるからである。   In the second embodiment, the display area DR portion of the color filter 35 does not have color selectivity in connection with the adoption of the field sequential method. This is because the color is selected by the backlight 20 sequentially blinking the R, G, and B LEDs.

一方、カラーフィルタ35のセンサ領域(遮光領域)SRには、いわゆるブラックマトリクスとしても機能する遮光部60が配置され、その水平方向両側に2つのカラーフィルタ部61Rと61Bが配置されている。カラーフィルタ部61Rは主に赤(R)の色成分を透過し、その他の色成分をカットする赤色透過フィルタである。カラーフィルタ部61Bは主に青(B)の色成分を透過し、その他の色成分をカットする青色透過フィルタである。   On the other hand, in the sensor region (light shielding region) SR of the color filter 35, a light shielding unit 60 that also functions as a so-called black matrix is arranged, and two color filter units 61R and 61B are arranged on both sides in the horizontal direction. The color filter unit 61R is a red transmission filter that mainly transmits red (R) color components and cuts other color components. The color filter unit 61B is a blue transmission filter that mainly transmits the blue (B) color component and cuts other color components.

このようなカラーフィルタ35の構成により、遮光部60の作用によって光センサPSに正面からくる光は、フォトダイオードPDに入射しない。一方、指等からの反射光はバックライト20がR発光時には赤(R)の反射光のみが存在するため、フォトダイオードPDの右側のみから光Lrが入射する。バックライト20がB発光時には青(B)の反射光のみが存在するため、フォトダイオードPDの左側のみから光Lbが入射する。   With such a configuration of the color filter 35, the light coming from the front to the optical sensor PS by the action of the light shielding unit 60 does not enter the photodiode PD. On the other hand, light Lr is incident only from the right side of the photodiode PD because only the reflected light of red (R) is present when the backlight 20 emits R. Since only the blue (B) reflected light exists when the backlight 20 emits B light, the light Lb enters only from the left side of the photodiode PD.

図12に、表示領域DRとセンサ領域(遮光領域)SRの、表示部10P1における配置平面図を示す。図13は、図12に示す領域構成の表示面に指先を近接させた場合の光の経路を示す斜視図である。
図12に示すように、表示部10P1の列方向(垂直方向)に延びるラインとしてセンサ領域(遮光領域)SRが形成され、その間に表示領域DRが配置される。図12で太い破線で示す四角の領域が画素ユニットであり、画素の所定数個に対応する。RGB3色表示の場合の画素ユニットは3画素とブラックマトリクスに対応した面積を有するが、フィールドシーケンシャル方式では色表示の色数と画素ユニットの画素数は必ずしも対応していなくてもよい。
FIG. 12 shows an arrangement plan view of the display area DR and the sensor area (light-shielding area) SR in the display unit 10P1. FIG. 13 is a perspective view showing a light path when a fingertip is brought close to the display surface having the area configuration shown in FIG.
As shown in FIG. 12, a sensor region (light-shielding region) SR is formed as a line extending in the column direction (vertical direction) of the display unit 10P1, and the display region DR is arranged therebetween. A square area indicated by a thick broken line in FIG. 12 is a pixel unit, and corresponds to a predetermined number of pixels. In the case of RGB three-color display, the pixel unit has an area corresponding to three pixels and a black matrix. However, in the field sequential method, the number of colors for color display and the number of pixels in the pixel unit do not necessarily correspond.

表示部10P1の表示面に指先を近接させると、右方向から斜めに入射される赤成分の光Lrがカラーフィルタ部61Rを透過してPD受光面に届くが、同じ向きのその他の色成分はカラーフィルタ部61Rで吸収される。同様に、左方向から斜めに入射される青成分の光Lbがカラーフィルタ部61Bを透過してPD受光面に届くが、同じ向きのその他の色成分はカラーフィルタ部61Bで吸収される。
この赤成分の光Lrを受光したときにフォトダイオードPDから出力されるセンサ出力の集合から、例えば第1検出画像P1(図4〜図6参照)が構成される。また、青成分の光Lbを受光したときにフォトダイオードPDから出力されるセンサ出力の集合から、例えば第2検出画像P2(図4〜図6参照)が構成される。
When the fingertip is brought close to the display surface of the display unit 10P1, the red component light Lr incident obliquely from the right direction passes through the color filter unit 61R and reaches the PD light receiving surface, but other color components in the same direction are Absorbed by the color filter unit 61R. Similarly, blue component light Lb incident obliquely from the left direction passes through the color filter unit 61B and reaches the PD light receiving surface, but other color components in the same direction are absorbed by the color filter unit 61B.
For example, a first detection image P1 (see FIGS. 4 to 6) is configured from a set of sensor outputs output from the photodiode PD when the red component light Lr is received. Further, for example, a second detection image P2 (see FIGS. 4 to 6) is configured from a set of sensor outputs output from the photodiode PD when the blue component light Lb is received.

[表示装置の動作(物体の近接距離測定手法を含む)]
つぎに、第1検出画像P1および第2検出画像P2を取得する手順、ならびに、高さ検出の手順を含む表示装置10の動作について、詳細に説明する。
[Operation of display device (including proximity measurement method for objects)]
Next, a procedure for acquiring the first detection image P1 and the second detection image P2 and an operation of the display device 10 including a height detection procedure will be described in detail.

まず、この表示装置10の基本動作、すなわち画像の表示動作および物体の撮像動作について説明する。ここでは図7の構成を前提とするため、検出後の高さ情報がアプリケーションソフトウエアで用いられる仕方の例まで含めて説明する。   First, a basic operation of the display device 10, that is, an image display operation and an object imaging operation will be described. Since the configuration shown in FIG. 7 is assumed here, an example of how the height information after detection is used in the application software will be described.

図7の表示装置10では、アプリケーションプログラム実行部1400から供給される表示データに基づいて、表示ドライブ回路1200において表示用の駆動信号が生成される。この駆動信号により、I/Oディスプレイパネル10Pに対して線順次表示駆動がなされ、画像が表示される。
また、このときバックライト20も表示ドライブ回路1100によって駆動され、I/Oディスプレイパネル10Pと同期した点灯と消灯の動作がなされる。
In the display device 10 of FIG. 7, a display drive signal is generated in the display drive circuit 1200 based on display data supplied from the application program execution unit 1400. With this drive signal, line-sequential display drive is performed on the I / O display panel 10P, and an image is displayed.
At this time, the backlight 20 is also driven by the display drive circuit 1100, and is turned on and off in synchronization with the I / O display panel 10P.

ここで、図14を参照して、バックライト20のオンまたはオフの動作とI/Oディスプレイパネル10Pの表示状態との関係について説明する。   Here, with reference to FIG. 14, the relationship between the operation of turning on or off the backlight 20 and the display state of the I / O display panel 10P will be described.

まず、例えば1/60秒のフレーム周期で画像表示がなされている場合、各1/3フレーム期間の前半期間(1/360秒間)にバックライト20が消灯し(オフ状態となり)、表示が行われない。一方、各検出装置1/3フレーム期間の後半期間には、バックライト20が点灯し(オン状態となり)、各画素に表示信号が供給され、そのフレーム期間の画像が表示されるようになっている。
このような1/3フレーム期間(1/120秒間)がR,G,Bの各色で3回繰り返すことで1フレームの画像表示がなされる。
First, for example, when an image is displayed with a frame period of 1/60 seconds, the backlight 20 is turned off (turned off) in the first half period (1/360 seconds) of each 1/3 frame period, and display is performed. I will not. On the other hand, in the second half period of each detection apparatus 1/3 frame period, the backlight 20 is turned on (turned on), a display signal is supplied to each pixel, and an image of that frame period is displayed. Yes.
Such a 1/3 frame period (1/120 seconds) is repeated three times for each of the colors R, G, and B, so that one frame of image is displayed.

このように、各1/3フレーム期間の前半期間は、I/Oディスプレイパネル10Pから表示光が出射されない無光期間である一方、各1/3フレーム期間の後半期間は、I/Oディスプレイパネル10Pから表示光が出射される有光期間となっている。   Thus, the first half period of each 1/3 frame period is a non-light period during which display light is not emitted from the I / O display panel 10P, while the second half period of each 1/3 frame period is an I / O display panel. It is a light period during which display light is emitted from 10P.

ここで、I/Oディスプレイパネル10Pに接触または近接する物体(例えば、指先など)がある場合、受光ドライブ回路1200による線順次受光駆動により、このI/Oディスプレイパネル10Pにおける各画素の受光素子においてその物体が撮像される。撮像の結果、各受光素子からの受光信号が受光ドライブ回路1200へ供給される。受光ドライブ回路1200では、1フレーム分の画素の受光信号が蓄積され、撮像画像として画像処理部1300へ出力される。   Here, when there is an object (for example, a fingertip or the like) in contact with or close to the I / O display panel 10P, the light receiving element of each pixel in the I / O display panel 10P is driven by line-sequential light receiving drive by the light receiving drive circuit 1200. The object is imaged. As a result of imaging, a light reception signal from each light receiving element is supplied to the light receiving drive circuit 1200. In the light receiving drive circuit 1200, light receiving signals of pixels for one frame are accumulated and output to the image processing unit 1300 as captured images.

そして画像処理部1300では、この撮像画像に基づいて、以下説明する所定の画像処理(演算処理)を行い、I/Oディスプレイパネル10Pに接触または近接する物体に関する情報(位置座標データ、物体の形状や大きさに関するデータなど)が検出される。   The image processing unit 1300 performs predetermined image processing (arithmetic processing) described below based on the captured image, and information (position coordinate data, object shape) regarding an object that touches or approaches the I / O display panel 10P. And data related to size) are detected.

図15(A)から図15(B3)に、さらに詳細なタイミングチャートを示す。
図15(A)に、書き込み動作期間とスキャン動作を模式的に示す。図15(B1)にR発光期間を、図15(B2)にG発光期間を、図15(B3)にB発光期間を、それぞれ示す。
図15(B1)〜図15(B3)は、図14と同様に、非発光期間(バックライトオフ)と発光期間(バックライトオン)が短い周期(1/360秒)で繰り返されることを表している。
15A to 15B3 show more detailed timing charts.
FIG. 15A schematically shows a writing operation period and a scanning operation. FIG. 15B1 shows the R emission period, FIG. 15B2 shows the G emission period, and FIG. 15B3 shows the B emission period.
15B1 to 15B3 show that the non-light emitting period (backlight off) and the light emitting period (backlight on) are repeated in a short cycle (1/360 seconds), as in FIG. ing.

1フレーム期間における最初のバックライトオフの期間T1はR書き込み期間であり、表示走査線DSCN(図9)を表示Vドライバ2300(図8)が制御することで、R表示信号がアクセストランジスタATを介して画素電極PEに設定される。次の期間T2でバックライトがオンすることによりR発光表示が行われる。
この動作は、期間T3とT4、期間T5とT6の組み合わせで、G発光表示とB発光表示でも、同様に繰り返される。
The first backlight off period T1 in one frame period is the R writing period, and the display scanning line DSCN (FIG. 9) is controlled by the display V driver 2300 (FIG. 8), so that the R display signal controls the access transistor AT. To the pixel electrode PE. When the backlight is turned on in the next period T2, R light emission display is performed.
This operation is repeated in the same manner for the G light emission display and the B light emission display by combining the periods T3 and T4 and the periods T5 and T6.

本実施の形態では、光センサによる撮像の動作が、バックライトオンに対応する期間T2,T4,T6のうち、R発光時とB発光時に対応する期間T2とT6で行われる。この各期間T2またはT4においては、図9のリセット線RSTLを線順次でスキャンするリセットスキャンと、リード制御線RCLを線順次でスキャンするリードスキャンが遅延して行われる。各スキャンの1画面分の時間は期間T2またはT6の半分の時間だけ行われ、リセットスキャンの一画面分のスキャンが終わると同時にリードスキャンが開始される。このリセットスキャンとリードスキャンのディレイ時間が電荷蓄積時間(撮像時間)である。電荷の蓄積(撮像)と排出(リード)の動作が一定のディレイ時間をもちながら1画面分実行されると、複数のセンサ線SLからは、センサ出力が時系列で図10のセンサ読み出しHドライバ6SRHに読み出される。   In the present embodiment, the imaging operation by the optical sensor is performed in periods T2 and T6 corresponding to R light emission and B light emission among the periods T2, T4, and T6 corresponding to backlight on. In each period T2 or T4, a reset scan for scanning the reset line RSTL in FIG. 9 in a line sequence and a read scan in which the read control line RCL is scanned in a line sequence are delayed. The time for one screen of each scan is only half of the period T2 or T6, and the read scan is started at the same time as the scan for one screen of the reset scan is completed. The delay time between the reset scan and the read scan is a charge accumulation time (imaging time). When the charge accumulation (imaging) and discharge (read) operations are executed for one screen while having a fixed delay time, the sensor outputs from the plurality of sensor lines SL are time-sequentially and the sensor readout H driver of FIG. Read to 6SRH.

センサ読み出しHドライバ6SRHが行う第1検出画像P1と第2検出画像P2の認識と、その位置ずれから高さを求める具体的な手法は、第1の実施の形態で図4と図6を用いて説明したため、ここでは割愛する。   A specific method for recognizing the first detection image P1 and the second detection image P2 performed by the sensor read-out H driver 6SRH and obtaining the height from the positional deviation is shown in FIGS. 4 and 6 in the first embodiment. I will omit it here.

図16に撮像データの解析結果を示す。図16(A1)と図16(B1)がR発光時撮像データの立体表示と平面表示を示す図である。図16(A2)と図16(B2)がR発光時撮像データの立体表示と平面表示を示す図である。
指の位置は撮像データの中央に位置し、各撮像データのピーク位置は指のある位置からそれぞれ左右にずれていることが分かる。R発光時のピーク位置座標を(x1,y1)、B発光時のピーク位置座標を(x2,y1)とする。
FIG. 16 shows the analysis result of the imaging data. FIG. 16A1 and FIG. 16B1 are diagrams showing stereoscopic display and planar display of imaging data during R emission. FIGS. 16A2 and 16B2 are diagrams showing a stereoscopic display and a planar display of imaging data during R emission.
It can be seen that the position of the finger is located at the center of the imaging data, and the peak position of each imaging data is shifted to the left and right from the position where the finger is located. The peak position coordinates at the time of R emission are (x1, y1), and the peak position coordinates at the time of B emission are (x2, y1).

図17に、横軸に指高さ(被検出物−受光面距離)、縦軸にx方向のピーク間距離|x1−x2|をとったグラフを示す。
ピーク間距離|x1−x2|は指高さdに対して単調増加している。このことから、ある指高さで検知使用とした際、ピーク間距離の閾値を切ることにより、ある高さに被検出物が来ているかどうか判定することができる。
FIG. 17 is a graph in which the horizontal axis represents the finger height (detected object-light receiving surface distance), and the vertical axis represents the distance between peaks | x1-x2 | in the x direction.
The peak-to-peak distance | x1-x2 | increases monotonously with the finger height d. From this, when detection is used at a certain finger height, it is possible to determine whether or not the detected object is at a certain height by cutting the threshold between the peaks.

例えば、指高さd=10[mm]で検知したいとき、
ピーク間距離|x1−x2|>16の場合に「指あり」、
ピーク間距離|x1−x2|≦16の場合に「指なし」
とすれば、非接触で被検出物の有無を判定することができる。
For example, when you want to detect with finger height d = 10 [mm]
“With finger” when peak-to-peak distance | x1-x2 |> 16,
“No finger” when peak-to-peak distance | x1-x2 | ≦ 16
Then, the presence or absence of the detection object can be determined in a non-contact manner.

また、指高さd自身を正確に求めることができるため、その高さ情報を様々なアプリケーションソフトウエアの操作に応用することができる。   In addition, since the finger height d itself can be accurately obtained, the height information can be applied to various application software operations.

以上の指高さdの検出、それを用いた被検出物の有無判定、位置判定は、図7の画像処理部1300で行う。アプリケーションソフトウエアの操作への応用はアプリケーションプログラム実行部1400が、画像処理部1300からの検知結果に基づいて行い、必要に応じて応用結果を表示データにフィードバックさせる。   The above-described detection of the finger height d, the presence / absence determination of the detected object using the finger height, and the position determination are performed by the image processing unit 1300 in FIG. Application program operation is applied to the application program execution unit 1400 based on the detection result from the image processing unit 1300, and the application result is fed back to display data as necessary.

本実施の形態では、センサ受光面から被検出物までの距離(高さ)を正確に検出することができる。
また、光センサPS(図11(B)の受光層32)および受光異方性付与部4(図11(B)のカラーフィルタ35)は、表示装置10と同一のプロセスで作成できる。このため、本実施の形態の表示装置10は、静電容量タイプなどで必要であった外付け部材が不要となり、コストを削減することができる。
さらに、時分割方式を採用することにより、非常に分解能が高い撮像データを得ることができ、受光面から被検出物までの距離を高精度で演算することができる。
In the present embodiment, the distance (height) from the sensor light receiving surface to the object to be detected can be accurately detected.
Further, the photosensor PS (the light receiving layer 32 in FIG. 11B) and the light receiving anisotropy imparting unit 4 (the color filter 35 in FIG. 11B) can be created by the same process as the display device 10. For this reason, the display device 10 according to the present embodiment does not require an external member required for the capacitance type or the like, and can reduce the cost.
Furthermore, by adopting the time division method, it is possible to obtain imaging data with very high resolution, and to calculate the distance from the light receiving surface to the detected object with high accuracy.

第2の実施の形態では、以下の変形が可能である。
図11〜図12に示す例では、センサ受光面の真上を遮光する構造としたが、例えば図18(B)〜図18(C)のように、センサ受光面よりも遮光部60が小さくなっても、光センサPSの受光異方性が保たれれば採用することができる。逆に、遮光部60をセンサ受光面よりも大きくしても、光センサPSの受光異方性が保たれれば採用することができる。
In the second embodiment, the following modifications are possible.
In the example shown in FIGS. 11 to 12, the structure directly shields the light receiving surface of the sensor. However, as shown in FIGS. 18B to 18C, the light shielding portion 60 is smaller than the sensor light receiving surface. Even if it becomes, it can employ | adopt, if the light reception anisotropy of optical sensor PS is maintained. Conversely, even if the light shielding portion 60 is made larger than the sensor light receiving surface, it can be adopted as long as the light receiving anisotropy of the optical sensor PS is maintained.

また、センサ受光面を遮光する遮光部は必ずしも対向基板31側に作成する必要はない。TFT基板30側に遮光部に作成してもよい。ただし、センサ受光面と遮光部との間には斜め光を受光するためのセパレーションが必要となる。   Further, the light shielding portion that shields the sensor light receiving surface is not necessarily formed on the counter substrate 31 side. The light shielding portion may be formed on the TFT substrate 30 side. However, a separation for receiving oblique light is required between the sensor light receiving surface and the light shielding portion.

検出光は、可視光、非可視光(紫外線、赤外線)を問わない。ただし、表示画像に依存しないシステムという意味では、検出光に非可視光を採用することが望ましい。検出光が非可視光の場合、少なくとも撮像期間は点灯する非可視光を発光するLEDをバックライト20に追加するか、当該LEDを含む別のバックライトを設ける必要がある。
さらに、液晶モードは、TN、VA、IPS、FFS、ECBなど問わない。
The detection light may be visible light or invisible light (ultraviolet light, infrared light). However, in the sense of a system that does not depend on a display image, it is desirable to employ invisible light as detection light. When the detection light is invisible light, an LED that emits invisible light that is lit at least during the imaging period needs to be added to the backlight 20, or another backlight including the LED needs to be provided.
Further, the liquid crystal mode may be TN, VA, IPS, FFS, ECB, or the like.

<3.第3の実施の形態>
本実施の形態は、空間分割方式を採用した(液晶)表示装置に関し、図19〜図21に例示される。
ここで図19は第2の実施の形態に関わる図11に対応し、図20は図12に、図21は図13に、それぞれ対応する。以下、図19〜図21が、図11〜図13と異なる点を説明し、同一符号を付した構成の説明を省略する。また、図7〜図10、ならびに、第1の実施の形態で述べた検出手法の基本は本実施の形態でも適用される。
<3. Third Embodiment>
The present embodiment relates to a (liquid crystal) display device adopting a space division method, and is exemplified in FIGS.
Here, FIG. 19 corresponds to FIG. 11 related to the second embodiment, FIG. 20 corresponds to FIG. 12, and FIG. 21 corresponds to FIG. Hereinafter, FIG. 19 to FIG. 21 will be described differently from FIG. 11 to FIG. 13, and description of the configuration with the same reference numerals will be omitted. The basics of the detection method described in FIGS. 7 to 10 and the first embodiment are also applied to this embodiment.

図19は、水平方向に隣接する2つの画素ユニットの断面図と平面図である。
第3の実施の形態では、第2の実施の形態と同様、TFT基板30に受光層32と表示電極層33を同一プロセスで形成し、また、対向基板31にカラーフィルタ15を形成する。受光層32にはフォトダイオードPDがアレイ状に配置され、これにより光センサアレイ3(図1参照)が形成される。
FIG. 19 is a cross-sectional view and a plan view of two pixel units adjacent in the horizontal direction.
In the third embodiment, similarly to the second embodiment, the light receiving layer 32 and the display electrode layer 33 are formed on the TFT substrate 30 by the same process, and the color filter 15 is formed on the counter substrate 31. Photodiodes PD are arranged in an array on the light receiving layer 32, whereby the photosensor array 3 (see FIG. 1) is formed.

空間分割方式では2種類の光センサPSを有する。
この光センサの種類とは、カラーフィルタ15の光透過特性が異なるとの意味である。つまり、カラーフィルタ15の光透過特性が異なることでフォトダイオードPDに受光異方性をもたせることから、この意味で光センサアレイを空間的に分離している。
The space division method has two types of optical sensors PS.
The type of the optical sensor means that the light transmission characteristics of the color filter 15 are different. That is, since the light transmission characteristics of the color filter 15 are different, the photodiode PD has light receiving anisotropy. In this sense, the photosensor array is spatially separated.

具体的に、水平方向に隣接する2つの光センサにおいて、各フォトダイオードPDの受光面の真上は双方とも遮光部60により遮光する。ただし、一方の光センサPSのセンサ領域を、遮光部60の右側を赤外光成分IR等の特定の波長成分に対する開口部とし、逆に、他方の光センサPSのセンサ領域を、遮光部60の左側が特定の波長成分に対する開口部とするカラーフィルタ15の構造としている。
この右側開口のセンサ領域を右異方性センサ領域SRRと呼び、左側開口のセンサ領域を左異方性センサ領域SRLと呼ぶ。
Specifically, in the two optical sensors adjacent in the horizontal direction, both of the light receiving surfaces of the photodiodes PD are both shielded by the light shielding unit 60. However, the sensor region of one photosensor PS is an opening portion for a specific wavelength component such as an infrared light component IR on the right side of the light shielding portion 60, and conversely, the sensor region of the other photosensor PS is the light shielding portion 60. The left side of FIG. 6 has a structure of the color filter 15 that is an opening for a specific wavelength component.
The sensor area with the right opening is called a right anisotropic sensor area SRR, and the sensor area with the left opening is called a left anisotropic sensor area SRL.

そして、図20に示すように、右異方性センサ領域SRRと左異方性センサ領域SRLをそれぞれ含む画素ユニット(太い破線の四角領域)を、表示面から視て市松状にマトリクス配置している。
配置方法については市松状に限定せずに、ストライプ状配置としてもよい。
Then, as shown in FIG. 20, pixel units (thick dashed square regions) each including the right anisotropy sensor region SRR and the left anisotropy sensor region SRL are arranged in a matrix in a checkered pattern as viewed from the display surface. Yes.
The arrangement method is not limited to the checkered pattern, but may be a stripe pattern.

第2の実施の形態では、検出光に可視光を使用した場合、表示画像が黒表示の場合に被検出物からの反射光がないため、検知できないという不都合がある。
そこで第3の実施の形態では、検出光に赤外線(波長λ=850[nm])の赤外光IRを用いることにより、表示画像に依存しないシステムを採用した。ただし、可視光でも同様のシステムを組むことは可能である。
In the second embodiment, when visible light is used as the detection light, there is no inconvenience that detection is impossible because there is no reflected light from the detected object when the display image is black.
Therefore, in the third embodiment, an infrared light IR (wavelength λ = 850 [nm]) infrared light IR is used as detection light, thereby adopting a system that does not depend on a display image. However, it is possible to build a similar system with visible light.

検出光を赤外光IRとした場合、右異方性センサ領域SRRおよび左異方性センサ領域SRLの開口部と表現した部分を、IR選択透過特性を持たせたIR透過部62とする必要がある。
IR透過部62を形成する手法は種々あるが、ここでは図19に示すように、赤(R)のカラーフィルタ部に赤(R)の透過フィルタ層を重ねた2層重ね構造により、これを実現している。
When the detection light is infrared light IR, a portion expressed as an opening of the right anisotropy sensor region SRR and the left anisotropy sensor region SRL needs to be an IR transmission portion 62 having IR selective transmission characteristics. There is.
There are various methods for forming the IR transmission part 62. Here, as shown in FIG. 19, the red (R) color filter part is overlapped with a red (R) transmission filter layer, and this is formed. Realized.

図22(A)に、RとBの2層重ね構造を有するフィルタ(RBフィルタ)の透過スペクトルを示す。
図23(A)〜図23(C)の各色の波長範囲を参照すると、図22(A)のRBフィルタは、可視光を遮断する一方、赤外線(波長λ=850[nm])を良好に透過することが分かる。これにより表示画像に依存しないシステムを組むことができる。
FIG. 22A shows a transmission spectrum of a filter (RB filter) having a two-layer structure of R and B.
Referring to the wavelength ranges of the respective colors shown in FIGS. 23A to 23C, the RB filter shown in FIG. 22A blocks visible light while favoring infrared rays (wavelength λ = 850 [nm]). It can be seen that it is transmitted. This makes it possible to build a system that does not depend on the display image.

IR透過部62をRとGとBの3層重ね構造のフィルタ(RGBフィルタ)とすることもできる。
図22(B)にその透過スペクトルを示す。
このスペクトルから可視光遮断効果がRBフィルタより高いことがわかり、その分、検出精度を向上させることが可能となる。
The IR transmitting unit 62 may be a filter (RGB filter) having a three-layer structure of R, G, and B.
FIG. 22B shows the transmission spectrum.
It can be seen from this spectrum that the visible light blocking effect is higher than that of the RB filter, and the detection accuracy can be improved accordingly.

図24に、右異方性センサ領域SRRの透過IR光を受光する右異方性センサの撮像データと、左異方性センサ領域SRLの透過IR光を受光する左異方性センサの撮像データを示す。
指の位置は撮像データの中央に位置し、各撮像データのピーク位置は指のある位置からそれぞれ左右にずれていることが分かる。右異方性センサから出力される撮像データのピーク位置座標を(X1,Y1)、左異方性センサから出力される撮像データのピーク位置を(X2,Y1)とする。
そのピーク位置のx座標差分|X1−X2|を計算することにより、図16と同様のグラフを得ることができる。
第1および第2の実施の形態と同様な指高さで検知使用とした際、ピーク間距離の閾値を基準として、ある高さに被検出物が存在するか否かを判定することができる。また、第2の実施の形態と同様に、高さ情報を含む位置情報をアプリケーションソフトの操作へ応用することができる。
FIG. 24 shows imaging data of the right anisotropy sensor that receives the transmitted IR light in the right anisotropy sensor region SRR, and imaging data of the left anisotropy sensor that receives the transmitted IR light in the left anisotropy sensor region SRL. Indicates.
It can be seen that the position of the finger is located at the center of the imaging data, and the peak position of each imaging data is shifted to the left and right from the position where the finger is located. The peak position coordinates of the imaging data output from the right anisotropy sensor are (X1, Y1), and the peak position of the imaging data output from the left anisotropy sensor is (X2, Y1).
By calculating the x-coordinate difference | X1-X2 | of the peak position, a graph similar to FIG. 16 can be obtained.
When detection and use is performed at the same finger height as in the first and second embodiments, it is possible to determine whether or not an object to be detected exists at a certain height on the basis of the threshold value of the peak-to-peak distance. . Further, as in the second embodiment, position information including height information can be applied to the operation of application software.

なお、第3の実施の形態では、時分割のLED点滅とそれに同期したスキャン動作の制御は行わないで、1フィールドで表示スキャンと撮像スキャンを並行して行うとよい。そのため、バックライト20は例えば白色LEDとIR光のLEDを光源とするように変更し、あるいは、白色光源とIR光源を2つのバックライトで分離して用いるとよい。
また、図19に示すように画素ユニットはRGBの3色混合の場合は3画素分とセンサ領域との合計の面積とし、4色混合の場合はさらに1画素分大きい面積とする。
In the third embodiment, it is preferable to perform display scanning and imaging scanning in one field in parallel without performing time-division LED blinking and control of the scanning operation in synchronization therewith. For this reason, the backlight 20 may be changed so that, for example, white LEDs and IR light LEDs are used as light sources, or the white light source and the IR light source may be separated by two backlights.
Further, as shown in FIG. 19, the pixel unit has a total area of three pixels and the sensor region in the case of RGB three-color mixing, and an area larger by one pixel in the case of four-color mixing.

第3の実施の形態では、第2の実施の形態と同様に、被検出物の高さを正確に検出することができ、また、静電容量タイプなどで必要であった外付け部材が不要となり、コストを削減することができるという利益を得られる。
さらに空間分割方式を採用することにより、特殊な3色LEDバックライトを使う必要がないため、低コストで実現可能であり、1画面の表示クロック周波数も時分割より低くてすむ。
In the third embodiment, as in the second embodiment, the height of the object to be detected can be accurately detected, and an external member required for a capacitance type or the like is unnecessary. Thus, it is possible to obtain a profit that the cost can be reduced.
Further, by adopting the space division method, it is not necessary to use a special three-color LED backlight, so that it can be realized at a low cost, and the display clock frequency of one screen can be lower than the time division.

第3の実施の形態では、以下の変形が可能である。
図19〜図21に示す例では、センサ受光面の真上を遮光する構造としたが、例えば図25(B)〜図25(D)のように、センサ受光面をより完全に覆うようにしてもよいし、一部または全部を覆わないようにしてもよい。ただし、これらの変形例では、光センサPSの受光異方性が保たれることを条件とする。
In the third embodiment, the following modifications are possible.
In the example shown in FIGS. 19 to 21, the structure directly shields the light receiving surface of the sensor. For example, as shown in FIGS. 25B to 25D, the sensor light receiving surface is more completely covered. You may make it not cover a part or all. However, in these modified examples, the light receiving anisotropy of the optical sensor PS is maintained.

また、第2の実施の形態と同様に、センサ受光面を遮光する遮光部は必ずしも対向基板31側に作成する必要はない。さらに、液晶モードは、TN、VA、IPS、FFS、ECBなど問わない。
特に空間分割型の場合で可視光で検出することを前提とするならば、反射型液晶表示装置に本発明を応用して被検出物の影を撮像するものでもよい。その場合、IR光源などの特別な光源を含むバックライト20が不要となる。
Further, similarly to the second embodiment, the light shielding portion that shields the sensor light receiving surface is not necessarily formed on the counter substrate 31 side. Further, the liquid crystal mode may be TN, VA, IPS, FFS, ECB, or the like.
In particular, in the case of the space division type, assuming that detection is performed with visible light, the present invention may be applied to a reflection type liquid crystal display device to image a shadow of an object to be detected. In that case, the backlight 20 including a special light source such as an IR light source becomes unnecessary.

<4.第4の実施の形態>
[レンズアレイによる受光異方性]
つぎに、レンズアレイによる受光異方性の付与について図面を参照して説明する。この第4の実施の形態は、空間分割方式の一種であり第3の実施の形態のカラーフィルタ15にIR透過部62を設ける代わりに採用できる構成を示すものである。
<4. Fourth Embodiment>
[Reception anisotropy by lens array]
Next, the application of light reception anisotropy by the lens array will be described with reference to the drawings. The fourth embodiment is a kind of space division system, and shows a configuration that can be adopted instead of providing the IR transmitting unit 62 in the color filter 15 of the third embodiment.

図26の例では、例えば第2偏光板50の上にシリンドリカルレンズのアレイを形成する。シリンドリカルレンズは半円筒状の断面を有することから、右から斜めに入射する光を効率よく左側配置の右センサに集光できる。同様に、左から斜めに入射する光を効率よく右側配置の左センサに集光できる。   In the example of FIG. 26, for example, an array of cylindrical lenses is formed on the second polarizing plate 50. Since the cylindrical lens has a semi-cylindrical cross section, light incident obliquely from the right can be efficiently collected on the right sensor arranged on the left side. Similarly, light incident obliquely from the left can be efficiently collected on the left sensor arranged on the right side.

第4の実施の形態では、フォトダイオードPDを対で近接配置し、左右の斜めの光を受光できるようにすることで受光異方性をもたせる。よって、本実施の形態では、受光異方性付与部4としてのレンズアレイと、光センサアレイ3としての対でフォトダイオードPDをもつ光センサアレイとの協働によって受光異方性が発生している。   In the fourth embodiment, a pair of photodiodes PD are arranged close to each other so as to receive left and right oblique light, thereby providing light receiving anisotropy. Therefore, in the present embodiment, the light receiving anisotropy is generated by the cooperation of the lens array as the light receiving anisotropy imparting unit 4 and the photo sensor array having the photodiode PD in a pair as the light sensor array 3. Yes.

例えば右センサ(PD)で得た画像を第1検出画像P1とし、左センサ(PD)で得た画像を第2検出画像P2として、そのピークや重心の差分から高さ検出が可能となる。   For example, an image obtained by the right sensor (PD) is set as the first detection image P1, and an image obtained by the left sensor (PD) is set as the second detection image P2, and height detection can be performed from the difference between the peak and the center of gravity.

なお、表示装置10ではコストの面や表示装置10の薄型化の面で遮光フィルタやカラーフィルタで受光異方性付与部4を実現することが望ましい。とくにカラーフィルタは、画素の色配列のために本発明が非適用の表示装置10にも有するものであり、本発明の適用時に、その既存のカラーフィルタに受光異方性付与のための改良を加えるだけでよい。そのため、表示装置10への本発明の適用に際し、コスト抑制の面からカラーフィルタで受光異方性付与部4を実現するが最も望ましい。   In the display device 10, it is desirable that the light receiving anisotropy imparting unit 4 is realized by a light-shielding filter or a color filter in terms of cost and thinning of the display device 10. In particular, the color filter is also provided in the display device 10 to which the present invention is not applied because of the color arrangement of the pixels. When the present invention is applied, the existing color filter is improved for imparting light receiving anisotropy. Just add. Therefore, when applying the present invention to the display device 10, it is most desirable to realize the light receiving anisotropy imparting unit 4 with a color filter from the viewpoint of cost reduction.

<5.第5の実施の形態>
本発明が適用可能な表示装置は、液晶表示以外の表示方法、例えば有機EL、無機EL、電子ペーパーなどの方式は問わない。
<5. Fifth embodiment>
The display device to which the present invention can be applied is not limited to display methods other than liquid crystal display, such as organic EL, inorganic EL, and electronic paper.

図27に、一例として有機ELに適用した際のレイアウト図を示す。
有機EL表示装置70は、基板71の積層構造内に、R,G,Bの光をそれぞれ自発光する有機EL膜を備える。
この有機EL膜に赤外光成分IRを発光する、または、多く含む発光特性の有機積層膜72IRを形成しておき、これをIR光源とする。
本実施の形態では第3の実施の形態と同様なカラーフィルタ15によりフォトダイオードPDに受光異方性を持たせることが可能である。
FIG. 27 shows a layout diagram when applied to an organic EL as an example.
The organic EL display device 70 includes an organic EL film that spontaneously emits R, G, and B light in the laminated structure of the substrate 71.
An organic laminated film 72IR having a light emission characteristic that emits or contains a large amount of infrared light component IR is formed on this organic EL film, and this is used as an IR light source.
In the present embodiment, it is possible to give the photodiode PD light reception anisotropy by the color filter 15 similar to that of the third embodiment.

なお、ここでは赤外光IRを用いる空間分割方式で記載したが、IR光源がなくてもよいし、また、時分割方式でも実現可能である。   In addition, although it described by the space division system using infrared light IR here, there may not be IR light source and it is realizable also by a time division system.

<6.第6の実施の形態>
以上説明した本実施形態に係る表示装置は、図28〜図32に示す様々な電子機器、例えば、デジタルカメラ、ノート型パーソナルコンピュータ、携帯電話等の携帯端末装置、ビデオカメラなど、電子機器に入力された映像信号、若しくは、電子機器内で生成した映像信号を、画像若しくは映像として表示するあらゆる分野の電子機器の表示装置に適用することが可能である。以下に、本実施形態が適用される電子機器の一例について説明する。
<6. Sixth Embodiment>
The display device according to the present embodiment described above is input to various electronic devices shown in FIGS. 28 to 32, such as digital cameras, notebook personal computers, mobile terminal devices such as mobile phones, and video cameras. The video signal generated or the video signal generated in the electronic device can be applied to a display device of an electronic device in any field for displaying as an image or a video. Below, an example of the electronic device to which this embodiment is applied is demonstrated.

図28は、本発明が適用されるテレビを示す斜視図である。
本適用例に係るテレビは、フロントパネル120やフィルターガラス130等から構成される映像表示画面部110を含む。映像表示画面部110として第2〜第5の本実施形態に係る表示装置を用いることができる。
FIG. 28 is a perspective view showing a television to which the present invention is applied.
The television according to this application example includes a video display screen unit 110 including a front panel 120, a filter glass 130, and the like. As the video display screen unit 110, display devices according to the second to fifth embodiments can be used.

図29は、本発明が適用されるデジタルカメラを示す斜視図であり、(A)は表側から見た斜視図、(B)は裏側から見た斜視図である。
本適用例に係るデジタルカメラは、フラッシュ用の発光部111、表示部112、メニュースイッチ113、シャッターボタン114等を含む。表示部112として第2〜第5の実施形態に係る表示装置を用いることができる。
FIG. 29 is a perspective view showing a digital camera to which the present invention is applied, in which (A) is a perspective view seen from the front side, and (B) is a perspective view seen from the back side.
The digital camera according to this application example includes a flash light emitting unit 111, a display unit 112, a menu switch 113, a shutter button 114, and the like. As the display unit 112, the display devices according to the second to fifth embodiments can be used.

図30は、本発明が適用されるノート型パーソナルコンピュータを示す斜視図である。
本適用例に係るノート型パーソナルコンピュータは、本体121に、文字等を入力するとき操作されるキーボード122、画像を表示する表示部123等を含む。表示部123として第2〜第5の実施形態に係る表示装置を用いることができる。
FIG. 30 is a perspective view showing a notebook personal computer to which the present invention is applied.
A notebook personal computer according to this application example includes a main body 121 including a keyboard 122 that is operated when characters and the like are input, a display unit 123 that displays an image, and the like. As the display unit 123, display devices according to the second to fifth embodiments can be used.

図31は、本発明が適用されるビデオカメラを示す斜視図である。
本適用例に係るビデオカメラは、本体部131、前方を向いた側面に被写体撮影用のレンズ132、撮影時のスタート/ストップスイッチ133、表示部134等を含む。表示部134として本実施形態に係る表示装置を用いることができる。
FIG. 31 is a perspective view showing a video camera to which the present invention is applied.
The video camera according to this application example includes a main body 131, a lens 132 for shooting an object on a side facing forward, a start / stop switch 133 at the time of shooting, a display unit 134, and the like. The display device according to this embodiment can be used as the display unit 134.

図32は、本発明が適用される携帯端末装置、例えば携帯電話機を示す図であり、(A)は開いた状態での正面図、(B)はその側面図、(C)は閉じた状態での正面図、(D)は左側面図、(E)は右側面図、(F)は上面図、(G)は下面図である。
本適用例に係る携帯電話機は、上側筐体141、下側筐体142、連結部(ここではヒンジ部)143、ディスプレイ144、サブディスプレイ145、ピクチャーライト146、カメラ147等を含む。ディスプレイ144やサブディスプレイ145として第2〜第5の本実施形態に係る表示装置を用いることができる。
32A and 32B are diagrams showing a mobile terminal device to which the present invention is applied, for example, a mobile phone, in which FIG. 32A is a front view in an opened state, FIG. 32B is a side view thereof, and FIG. (D) is a left side view, (E) is a right side view, (F) is a top view, and (G) is a bottom view.
The mobile phone according to this application example includes an upper casing 141, a lower casing 142, a connecting portion (here, a hinge portion) 143, a display 144, a sub-display 145, a picture light 146, a camera 147, and the like. As the display 144 and the sub-display 145, display devices according to the second to fifth embodiments can be used.

1…検出装置、1R等…検出面内領域、3…光センサアレイ、4…受光異方性付与部、6…検出駆動部、10…表示装置、10P…I/Oディスプレイパネル、11…表示面、15…カラーフィルタ、20…バックライト、37…液晶層、60…遮光部、61R,61B…カラーフィルタ部、62…IR透過部、PS…光センサ、PD…フォトダイオード、SD…被検出物、P1…第1検出画像、P2…第2検出画像   DESCRIPTION OF SYMBOLS 1 ... Detection apparatus, 1R, etc .... Detection surface area | region, 3 ... Photosensor array, 4 ... Light reception anisotropy provision part, 6 ... Detection drive part, 10 ... Display apparatus, 10P ... I / O display panel, 11 ... Display Surface, 15 ... Color filter, 20 ... Back light, 37 ... Liquid crystal layer, 60 ... Shading part, 61R, 61B ... Color filter part, 62 ... IR transmission part, PS ... Optical sensor, PD ... Photodiode, SD ... Detected Object, P1 ... first detection image, P2 ... second detection image

Claims (16)

受光異方性を有する光センサアレイと、
前記光センサアレイを駆動して被検出物を撮像し、前記受光異方性に基づいて異なる複数の検出画像を発生する検出駆動部と、
前記複数の検出画像を入力し、入力した複数の検出画像に含まれる前記被検出物の影または反射に対応した画像部分に前記受光異方性の違いにより生じた位置ずれの大きさに基づいて、前記光センサアレイのセンサ受光面から前記被検出物までの距離(高さ)を検出する高さ検出部と、
を有する検出装置。
An optical sensor array having light receiving anisotropy;
A detection driver that drives the optical sensor array to image a detection object and generates a plurality of different detection images based on the light reception anisotropy;
The plurality of detection images are input, and an image portion corresponding to a shadow or reflection of the object to be detected included in the input detection images is based on the size of the positional deviation caused by the difference in the light receiving anisotropy. A height detection unit for detecting a distance (height) from the sensor light receiving surface of the photosensor array to the object to be detected;
A detection device having:
前記光センサアレイの前記被検出物が接近する側に、前記光センサアレイの隣接する複数の光センサの組内で異なる受光異方性を付与する受光異方性付与部を有する
請求項1に記載の検出装置。
The light-receiving anisotropy imparting section for imparting different light-receiving anisotropy within a set of a plurality of adjacent optical sensors of the photosensor array is provided on the side of the photosensor array where the object to be detected approaches. The detection device described.
前記光センサアレイは、前記受光異方性付与部の透過光を受光する際に異なる向きから入射される光の受光量に波長依存性が生じることで前記受光異方性が付与される複数の光センサを2次元配置したものであり、
前記検出駆動部は、互いに異なる波長範囲をそれぞれが有する複数の光を時分割で前記被検出物に照射し、当該被検出物で反射して戻される反射光が前記受光異方性付与部を透過した後に前記複数の光センサで受光するときの各受光時間を前記複数の光の照射に同期して時分割で制御することで異なる波長範囲の光による複数回の撮像を行い、当該複数回の撮像によって前記複数の検出画像を発生させる
請求項2に記載の検出装置。
The optical sensor array has a plurality of light receiving anisotropies due to wavelength dependency of the amount of light received from different directions when receiving the transmitted light of the light receiving anisotropy applying unit. It is a two-dimensional arrangement of optical sensors,
The detection drive unit irradiates the detected object with a plurality of lights each having a different wavelength range in a time-sharing manner, and reflected light returned by the detected object returns the light receiving anisotropy imparting unit. A plurality of times of imaging with light in different wavelength ranges is performed by controlling each light receiving time when receiving by the plurality of light sensors after transmission in a time-sharing manner in synchronization with the irradiation of the plurality of lights. The detection device according to claim 2, wherein the plurality of detection images are generated by imaging of the image.
前記受光異方性付与部は、1つの前記光センサの受光面に対向する部分が、遮光部と、当該遮光部の一方向の両側で異なる波長範囲を透過する1対の波長選択フィルタ部とを有し、前記一方向の一方側から斜めに入る光と他方側から斜めに入る光に波長選択性を持たせることで前記光センサに受光異方性を付与する
請求項3に記載の検出装置。
The light-receiving anisotropy imparting unit includes a light-shielding unit, a portion facing the light-receiving surface of the one photosensor, and a pair of wavelength selection filter units that transmit different wavelength ranges on both sides in one direction of the light-shielding unit. The light receiving anisotropy is imparted to the photosensor by giving wavelength selectivity to light that enters obliquely from one side of the one direction and light that enters obliquely from the other side of the one direction. apparatus.
前記受光異方性付与部は、前記隣接する複数の光センサに対し各センサ受光面の一部または全部を前記被検出物が接近する側で遮光するパターンを光センサごとに有し、当該パターンの配置と形状の少なくとも一方が前記複数の光センサに対し異なる遮光フィルタであり、
前記光センサアレイは、前記遮光フィルタの前記パターンが及ぼす遮光の程度の違いによって前記受光異方性が異なる複数の光センサ配列が規定され、
前記検出駆動部は、前記光センサアレイを駆動して、前記複数の光センサ配列から互いに異なる前記複数の検出画像を発生する
請求項2に記載の検出装置。
The light-receiving anisotropy imparting unit has a pattern that shields a part or all of each sensor light-receiving surface on the side closer to the detected object with respect to the plurality of adjacent optical sensors. A light shielding filter in which at least one of the arrangement and the shape is different with respect to the plurality of optical sensors,
The photosensor array is defined by a plurality of photosensor arrays having different light receiving anisotropy depending on a degree of light shielding exerted by the pattern of the light shielding filter,
The detection device according to claim 2, wherein the detection driving unit drives the photosensor array to generate the plurality of detection images different from each other from the plurality of photosensor arrays.
光照射部をさらに有し、
前記受光異方性付与部は、前記光センサアレイの光入射側に配置されたレンズアレイであり、
前記光照射部が異なる向きの成分をもつ光を照射したときに、前記被検出物で反射された反射光を入射角に応じて主として受光する光センサが前記組内で異なるように前記レンズアレイの1つのレンズに対して前記複数の光センサが配置されることによって、前記受光異方性が異なる複数の光センサ配列が前記光センサアレイに規定され、
前記検出駆動部は、前記光センサアレイを駆動して、前記複数の光センサ配列から互いに異なる前記複数の検出画像を発生する
請求項2に記載の検出装置。
It further has a light irradiation part,
The light receiving anisotropy imparting unit is a lens array disposed on a light incident side of the photosensor array,
The lens array so that, when the light irradiating unit irradiates light having components in different directions, the optical sensors that mainly receive the reflected light reflected by the detection object according to the incident angle are different in the set. By arranging the plurality of photosensors for one lens, a plurality of photosensor arrays having different light receiving anisotropies are defined in the photosensor array,
The detection device according to claim 2, wherein the detection driving unit drives the photosensor array to generate the plurality of detection images different from each other from the plurality of photosensor arrays.
前記高さ検出部は、前記複数の検出画像の各々において前記被検出物に対応した前記画像部分を識別し、当該識別した画像部分の受光量のピーク位置を前記複数の検出画像の各々で求め、当該複数の検出画像における前記受光量のピーク位置の差から演算により前記高さを求める
請求項1に記載の検出装置。
The height detection unit identifies the image portion corresponding to the object to be detected in each of the plurality of detection images, and obtains the peak position of the received light amount of the identified image portion in each of the plurality of detection images. The detection device according to claim 1, wherein the height is obtained by calculation from a difference between peak positions of the received light amounts in the plurality of detection images.
前記高さ検出部は、前記複数の検出画像の各々に対し検出画像に含まれる各センサ出力を閾値との大小関係で2値化し、得られた2値化情報から前記被検出物に対応した画像部分を識別し、当該画像部分の各重心位置を算出し、求めた重心位置の差から演算により前記高さを求める
請求項1に記載の検出装置。
The height detection unit binarizes each sensor output included in the detection image for each of the plurality of detection images according to a magnitude relationship with a threshold value, and corresponds to the detected object from the obtained binarization information. The detection device according to claim 1, wherein an image part is identified, each centroid position of the image part is calculated, and the height is obtained by calculation from a difference between the obtained centroid positions.
入力する映像信号に応じて入射光を変調し、発生した表示画像を出力する光変調部と、
前記光変調部からの前記表示画像を表示する表示面と、
受光異方性を有する光センサアレイと、
前記光センサアレイを駆動して前記表示面に接触または近接する被検出物を撮像し、前記受光異方性に基づいて異なる複数の検出画像を発生する検出駆動部と、
前記複数の検出画像を入力し、入力した複数の検出画像に含まれる前記被検出物の影または反射に対応した画像部分に前記受光異方性の違いにより生じた位置ずれの大きさに基づいて、前記光センサアレイのセンサ受光面から前記被検出物までの距離(高さ)を検出する高さ検出部と、
を有する表示装置。
A light modulation unit that modulates incident light according to an input video signal and outputs a generated display image;
A display surface for displaying the display image from the light modulator;
An optical sensor array having light receiving anisotropy;
A detection drive unit that drives the photosensor array to image a detection object in contact with or close to the display surface and generates a plurality of different detection images based on the light reception anisotropy;
The plurality of detection images are input, and an image portion corresponding to a shadow or reflection of the object to be detected included in the input detection images is based on the size of the positional deviation caused by the difference in the light receiving anisotropy. A height detection unit for detecting a distance (height) from the sensor light receiving surface of the photosensor array to the object to be detected;
A display device.
前記検出駆動部は、前記光変調部が前記表示画像を出力していない期間に、前記被検出物の撮像による前記複数の検出画像の発生を行う
請求項9に記載の表示装置。
The display device according to claim 9, wherein the detection driving unit generates the plurality of detection images by imaging the detection target object during a period in which the light modulation unit does not output the display image.
前記検出駆動部は、前記光変調部が変調する可視光と異なる非可視光を前記被検出物に照射することで前記被検出物の撮像による前記複数の検出画像の発生を行う
請求項9に記載の表示装置。
The detection drive unit generates the plurality of detection images by imaging the detection object by irradiating the detection object with invisible light different from visible light modulated by the light modulation unit. The display device described.
前記光センサアレイと前記表示面との間に前記光変調部が配置され、
前記光変調部と前記表示面との間に、前記光変調部の前記光センサに対向する部分ごとに透過光の波長範囲を制限するカラーフィルタが配置され、
光センサの受光面と対向して前記カラーフィルタの遮光部が配置され、当該遮光部に隣接するカラーフィルタ部分の透過光の波長範囲が、各光センサに対しセンサ配置面内の少なくとも一方の方向で異なることによって前記光センサアレイに前記受光異方性をもたせている
請求項9に記載の表示装置。
The light modulation unit is disposed between the photosensor array and the display surface,
Between the light modulation unit and the display surface, a color filter that restricts a wavelength range of transmitted light is disposed for each portion of the light modulation unit facing the optical sensor,
The light-shielding portion of the color filter is disposed opposite to the light-receiving surface of the photosensor, and the wavelength range of transmitted light of the color filter portion adjacent to the light-shielding portion is at least one direction within the sensor placement surface with respect to each photosensor The display device according to claim 9, wherein the photosensor array has the light receiving anisotropy by being different.
前記検出駆動部は、互いに異なる波長範囲をそれぞれが有する複数の光を時分割で前記被検出物に照射し、当該被検出物に反射して戻される反射光が前記カラーフィルタを透過した後に前記複数の光センサで受光するときの各受光時間を前記複数の光の照射に同期して時分割で制御することで異なる波長範囲の光による複数回の撮像を行い、当該複数回の撮像によって前記複数の検出画像を発生させる
請求項11に記載の表示装置。
The detection driving unit irradiates the detected object with a plurality of lights each having a different wavelength range in a time-sharing manner, and the reflected light reflected and returned to the detected object passes through the color filter. By performing time-sharing control of each light receiving time when receiving light by a plurality of optical sensors in synchronization with the irradiation of the plurality of lights, imaging is performed a plurality of times with light in different wavelength ranges, and the imaging is performed by the plurality of imaging operations. The display device according to claim 11, wherein a plurality of detected images are generated.
受光異方性を有する光センサアレイを駆動して被検出物を撮像し、前記受光異方性に基づいて異なる複数の検出画像を発生するステップと、
前記複数の検出画像を入力し、入力した複数の検出画像に含まれる前記被検出物の影または反射に対応した画像部分に前記受光異方性の違いにより生じた位置ずれの大きさに基づいて、前記光センサアレイのセンサ受光面から前記被検出物までの距離(高さ)を測定するステップと、
を含む物体の近接距離測定方法。
Imaging a detection object by driving a photosensor array having light reception anisotropy, and generating a plurality of different detection images based on the light reception anisotropy;
The plurality of detection images are input, and an image portion corresponding to a shadow or reflection of the object to be detected included in the input detection images is based on the size of the positional deviation caused by the difference in the light receiving anisotropy. Measuring the distance (height) from the sensor light receiving surface of the photosensor array to the object to be detected;
Measuring method of proximity distance of objects including
受光異方性を有する光センサアレイ内の複数の光センサから、異なる受光異方性に対応する光センサの組み合わせで複数回、被検出物を撮像するステップと、
前記複数回の撮像によって得られる複数の検出画像を入力し、入力した複数の検出画像に含まれる前記被検出物の影または反射に対応した画像部分に前記受光異方性の違いにより生じた位置ずれの大きさに基づいて、光センサアレイのセンサ受光面から前記被検出物までの距離(高さ)を測定するステップと、
を含む物体の近接距離測定方法。
Imaging a detected object a plurality of times with a combination of photosensors corresponding to different photodetection anisotropy from a plurality of photosensors in the photosensor array having photodetection anisotropy;
A position generated by the difference in the light receiving anisotropy in the image portion corresponding to the shadow or reflection of the object to be detected included in the plurality of input detection images by inputting the plurality of detection images obtained by the plurality of times of imaging. Measuring the distance (height) from the sensor light receiving surface of the photosensor array to the detected object based on the magnitude of the deviation;
Measuring method of proximity distance of objects including
前記光センサアレイ内の複数の光センサの各々は、異なる向きから入射される光の受光量に波長依存性を付与することで前記受光異方性をもたせた光センサであり、
前記被検出物を撮像するステップでは、前記被検出物に対し、互いに異なる波長範囲をそれぞれが有する複数の光を時分割で照射し、対応する波長範囲の光が前記被検出物に照射されたときに、反射して戻される反射光を対応する受光感度ピークの光センサが受光可能に、前記複数の光センサの受光時間を前記複数の光の照射に同期して時分割で制御する
請求項15に記載の物体の近接距離測定方法。
Each of the plurality of photosensors in the photosensor array is a photosensor having the light reception anisotropy by giving wavelength dependency to the amount of light received from different directions.
In the step of imaging the detected object, the detected object is irradiated with a plurality of lights each having a different wavelength range in a time-sharing manner, and light in the corresponding wavelength range is irradiated to the detected object. The light receiving time of the plurality of light sensors is controlled in a time-sharing manner in synchronization with the irradiation of the plurality of lights so that the light sensor of the light receiving sensitivity peak corresponding to the reflected light that is reflected back can be received. 15. A method for measuring a proximity distance of an object according to 15.
JP2009187134A 2009-08-12 2009-08-12 Detection device, display device, and method for measuring proximity distance of object Expired - Fee Related JP5528739B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009187134A JP5528739B2 (en) 2009-08-12 2009-08-12 Detection device, display device, and method for measuring proximity distance of object
US12/850,372 US20110037732A1 (en) 2009-08-12 2010-08-04 Detecting device, display device, and object proximity distance measuring method
CN201010248403XA CN101996004A (en) 2009-08-12 2010-08-05 Detecting device, display device, and object proximity distance measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009187134A JP5528739B2 (en) 2009-08-12 2009-08-12 Detection device, display device, and method for measuring proximity distance of object

Publications (2)

Publication Number Publication Date
JP2011038916A true JP2011038916A (en) 2011-02-24
JP5528739B2 JP5528739B2 (en) 2014-06-25

Family

ID=43588327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009187134A Expired - Fee Related JP5528739B2 (en) 2009-08-12 2009-08-12 Detection device, display device, and method for measuring proximity distance of object

Country Status (3)

Country Link
US (1) US20110037732A1 (en)
JP (1) JP5528739B2 (en)
CN (1) CN101996004A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015176473A (en) * 2014-03-17 2015-10-05 アルプス電気株式会社 input device

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011257338A (en) * 2010-06-11 2011-12-22 Seiko Epson Corp Optical position detection device and display device with position detection function
JP2011257337A (en) 2010-06-11 2011-12-22 Seiko Epson Corp Optical position detection device and display device with position detection function
WO2012091018A1 (en) * 2010-12-28 2012-07-05 シャープ株式会社 Organic el display unit, organic el display device, and method for producing organic el display unit
KR101632311B1 (en) * 2010-12-30 2016-06-22 삼성전자주식회사 Panel type camera, optical touch screen and display apparatus employing the same
US8564571B2 (en) * 2011-05-31 2013-10-22 Microsoft Corporation Birefringent lenslet camera
CN103843320B (en) * 2011-09-28 2015-11-25 富士胶片株式会社 Imageing sensor and imaging device
TWI430012B (en) * 2011-12-05 2014-03-11 Hannspree Inc Image-capturing touch panel
JP5944511B2 (en) * 2012-08-31 2016-07-05 株式会社日立メディコ Biological light measurement device and biological light measurement method using the same
FR3009413B1 (en) * 2013-08-02 2015-07-17 Thales Sa DEVICE FOR AIDING THE DETECTION OF OBJECTS MADE ON THE SOIL FROM SOIL IMAGES OBTAINED FROM A WAVE REFLECTING IMAGING DEVICE
US20150084928A1 (en) * 2013-09-23 2015-03-26 Qualcomm Incorporated Touch-enabled field sequential color display using in-cell light sensors
US9454265B2 (en) 2013-09-23 2016-09-27 Qualcomm Incorporated Integration of a light collection light-guide with a field sequential color display
KR101550576B1 (en) * 2014-01-09 2015-09-04 주식회사 코리아하이텍 Optical switch for vehicle
JP6315679B2 (en) * 2014-04-18 2018-04-25 浜松ホトニクス株式会社 Distance image sensor
US9607411B2 (en) 2014-04-23 2017-03-28 Ebay Inc. Specular highlights on photos of objects
JP6390277B2 (en) * 2014-09-02 2018-09-19 ソニー株式会社 Information processing apparatus, control method, and program
CN105183149B (en) * 2015-08-12 2018-02-27 京东方科技集团股份有限公司 Distance sensing substrate, display device, display system and method for adjusting resolution
JP7024285B2 (en) * 2017-09-26 2022-02-24 オムロン株式会社 Displacement measuring device, system, and displacement measuring method
JP2019096098A (en) * 2017-11-24 2019-06-20 セイコーエプソン株式会社 Image display device and control method thereof
CN111480132A (en) * 2017-12-19 2020-07-31 索尼公司 Information processing system, information processing method, and program
CN108171183B (en) * 2018-01-02 2021-01-22 京东方科技集团股份有限公司 Display substrate, manufacturing method thereof, display device and fingerprint identification method
CN108407116A (en) * 2018-03-30 2018-08-17 青岛高测科技股份有限公司 And line detector, method and the diamond cutting line slicing machine including this and line detector
US10860938B2 (en) * 2018-04-12 2020-12-08 Oracle International Corporation Using the barycentric coordinate technique to determine optimal sensor locations
US10635374B2 (en) * 2018-08-28 2020-04-28 Innolux Corporation Electronic device
JP7319083B2 (en) * 2019-04-26 2023-08-01 株式会社キーエンス optical displacement meter
CN113358141B (en) * 2020-03-06 2023-05-09 欧姆龙(上海)有限公司 Photoelectric sensor and signal processing method
CN111929571B (en) * 2020-10-19 2022-11-04 深圳市Tcl高新技术开发有限公司 LED chip test fixture, test method and test system
CN114915335B (en) * 2021-02-10 2023-11-10 深南电路股份有限公司 Polarity test method and device based on wavelength division multiplexing
CN113050811B (en) * 2021-03-30 2023-12-26 联想(北京)有限公司 Electronic equipment and input equipment
CN113624649B (en) * 2021-08-05 2023-12-08 西安航空学院 System and method for detecting needle-shaped content of road aggregate based on machine vision

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08297161A (en) * 1995-04-13 1996-11-12 Samsung Electron Co Ltd Infrared-ray material-body detector
JPH10293008A (en) * 1997-04-18 1998-11-04 Nec Corp Height-measuring device
JPH11160027A (en) * 1997-11-25 1999-06-18 Todaka Seisakusho:Kk Height measuring apparatus of spherical object and its measuring method
JP2008146203A (en) * 2006-12-07 2008-06-26 Seiko Epson Corp Electro-optical device and electronic equipment
JP2009032005A (en) * 2007-07-26 2009-02-12 Toshiba Corp Input display device and input display panel
WO2010140670A1 (en) * 2009-06-02 2010-12-09 Sharp Kabushiki Kaisha Display panel

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003322868A (en) * 2002-05-08 2003-11-14 Toshiba Corp Liquid crystal display
US20060170808A1 (en) * 2005-02-02 2006-08-03 Biernath Rolf W Article having a birefringent surface for use as a blur filter
US8284165B2 (en) * 2006-10-13 2012-10-09 Sony Corporation Information display apparatus with proximity detection performance and information display method using the same
JP2009128686A (en) * 2007-11-26 2009-06-11 Sony Corp Display apparatus and electronic device
TW200935375A (en) * 2007-12-07 2009-08-16 Sony Corp Display and electronic apparatus
US8253713B2 (en) * 2008-10-23 2012-08-28 At&T Intellectual Property I, L.P. Tracking approaching or hovering objects for user-interfaces

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08297161A (en) * 1995-04-13 1996-11-12 Samsung Electron Co Ltd Infrared-ray material-body detector
JPH10293008A (en) * 1997-04-18 1998-11-04 Nec Corp Height-measuring device
JPH11160027A (en) * 1997-11-25 1999-06-18 Todaka Seisakusho:Kk Height measuring apparatus of spherical object and its measuring method
JP2008146203A (en) * 2006-12-07 2008-06-26 Seiko Epson Corp Electro-optical device and electronic equipment
JP2009032005A (en) * 2007-07-26 2009-02-12 Toshiba Corp Input display device and input display panel
WO2010140670A1 (en) * 2009-06-02 2010-12-09 Sharp Kabushiki Kaisha Display panel

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015176473A (en) * 2014-03-17 2015-10-05 アルプス電気株式会社 input device

Also Published As

Publication number Publication date
JP5528739B2 (en) 2014-06-25
US20110037732A1 (en) 2011-02-17
CN101996004A (en) 2011-03-30

Similar Documents

Publication Publication Date Title
JP5528739B2 (en) Detection device, display device, and method for measuring proximity distance of object
TWI491246B (en) Stereoscopic image displaying device, object proximity detecting device, and electronic apparatus
JP5780970B2 (en) Touch sensitive display
KR101281830B1 (en) Liquid crystal display having multi-touch sensing function and driving method thereof
US8797297B2 (en) Display device
US8847907B2 (en) Display device and display direction switching system
KR20180064631A (en) Display device and driving method thereof
RU2456659C2 (en) Image capturing device, image display and capturing device and electronic device
KR20100098302A (en) Image input device, image input-output device and electronic unit
TWI395170B (en) Liquid-crystal display apparatus
US20120229384A1 (en) Display device with location detection function and input location detection system
WO2011052261A1 (en) Pointing device
JP2008083675A (en) Liquid crystal display with multi-touch sensing function and drive method therefor
JP2010061639A (en) Biometrics authentication system
CN102282532A (en) Area sensor and liquid crystal display device with area sensor
CN109146945B (en) Display panel and display device
US20120013595A1 (en) Display device and method of operation thereof
JP2011060262A (en) Touch screen built-in type liquid crystal display device
JP2010204995A (en) Display device with position detecting function, and electronic apparatus
CN102591513A (en) Display device, position correction method, and program
JP2011044479A (en) Sensor element, method of driving the same, sensor device, display device with input function, and electronic apparatus
KR20080091022A (en) Display apparatus
US9323373B2 (en) Touch screen display device
US20110316771A1 (en) Display apparatus, television reception apparatus and pointing system
JP2010152573A (en) Display apparatus and display method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20120330

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120621

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130731

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140416

R150 Certificate of patent or registration of utility model

Ref document number: 5528739

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees