WO2011033806A1 - 位置検出システム、表示パネル、および表示装置 - Google Patents

位置検出システム、表示パネル、および表示装置 Download PDF

Info

Publication number
WO2011033806A1
WO2011033806A1 PCT/JP2010/056567 JP2010056567W WO2011033806A1 WO 2011033806 A1 WO2011033806 A1 WO 2011033806A1 JP 2010056567 W JP2010056567 W JP 2010056567W WO 2011033806 A1 WO2011033806 A1 WO 2011033806A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
receiving sensor
unit
sensor unit
shadows
Prior art date
Application number
PCT/JP2010/056567
Other languages
English (en)
French (fr)
Inventor
雅幸 畠
敏明 中川
吉水 敏幸
之雄 水野
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US13/395,498 priority Critical patent/US20120176342A1/en
Publication of WO2011033806A1 publication Critical patent/WO2011033806A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Definitions

  • the present invention relates to a position detection system for detecting the position of an object, a display panel (liquid crystal display panel or the like) on which the position detection system is mounted, and a display device (liquid crystal display device or the like) on which the display panel is mounted.
  • Recent liquid crystal display devices may be equipped with a touch panel that can set various instructions on the liquid crystal display device by touching a finger or the like. There are various mechanisms for a position detection system for an object such as a finger on such a touch panel.
  • the touch panel 149 disclosed in Patent Document 1 shown in FIG. 16 is a position detection system using light, and includes two optical transmission / reception units 129 (129A and 129B).
  • the light transmission / reception unit 129 (129A / 129B) includes a light receiving element 122 (122A / 122B), a light emitting element 123 (123A / 123B), and a polygon mirror 124 (124A / 124B).
  • the light transmission / reception unit 129 is located near both ends of the retroreflective sheet 131 surrounding the touch panel 149, and supplies the light from the light emitting element 123 to the retroreflective sheet 131 via the polygon mirror 124.
  • the reflected light from the retroreflective sheet 131 is incident on the light receiving element 122 after being reflected by the polygon mirror 124.
  • an object (shielding object) S such as a finger
  • the reflected light is blocked and does not enter the light receiving element 122.
  • the received light data in the light receiving element 122 includes a change corresponding to light being blocked. Therefore, the position of the object is obtained from this change.
  • the position detection system of the touch panel 149 uses only two optical transmission / reception units 129A and 129B, only one object such as a finger can be detected.
  • the light transmission / reception unit 129 includes the light receiving element 122, the light emitting element 123, the polygon mirror 124, and a plurality of members in one unit, the structure becomes complicated, resulting in an increase in cost. Absent.
  • the present invention has been made to solve the above problems.
  • the object is to provide a simple position detection system or the like that can simultaneously detect a plurality of objects such as fingers.
  • the position detection system includes a light source unit including a plurality of light sources, a light receiving sensor unit that receives light from the light source, and a position detection unit that detects a position of a shield that blocks light from the light source from a change in received light amount in the light receiving sensor. ,including.
  • the light-receiving sensor unit has two side-type linear light-receiving sensors facing each other and a bridge-type linear light bridge extending from one side-type linear light-receiving sensor to the other side-type linear light-receiving sensor.
  • the space overlapping the area surrounded by these linear light receiving sensors is a two-dimensional coordinate map space in which the position of the shielding object can be specified from the change in the amount of received light.
  • the light source unit includes a plurality of P (three or more integers) light sources, and these light sources are arranged so as to face the bridge-type linear light receiving sensor while being spaced apart from each other, and are lit in order. Supply light to the coordinate map space. Further, the position detection unit receives light according to P or more shadows in the linear light receiving sensor unit that is generated by illuminating the (P-1) or less shields in which light from a plurality of light sources is arranged in the coordinate map space. From the quantity change, the position of one or more shielding objects in the coordinate map area is detected using a triangulation method.
  • the position detection unit is based on one of the three light sources and the light of the light source. Connections connecting the shadows in the linear light-receiving sensor unit with another one of the three light sources and connections connecting the shadows in the linear light-receiving sensor unit based on the light of the light source and the last one of the three light sources and the light source It is preferable that a part of the dense area of the intersection generated by the three types of connections connecting the shadows in the linear light receiving sensor unit based on the light is the position of the shielding object.
  • the position detection unit preferably sets the intersection satisfying the following (1) and (2) as the position of the shielding object.
  • the position detection unit specifies the position of the shielding object as follows.
  • the position detection unit includes a part included in one overlapping area of the first surrounding area, the second surrounding area, and the third surrounding area, and another one of the first surrounding areas. It is desirable that a part included in the overlapping region of the first surrounding region, the second surrounding region, and the third surrounding region is the position of the shielding object.
  • two surrounding areas in the coordinate map area surrounded by one light source and both ends of the width of each of the two shadows in the linear light receiving sensor unit based on the light of the light source are defined as two first surrounding areas.
  • one enclosed area in the coordinate map area surrounded by another light source and both ends of the width of one shadow in the linear light receiving sensor unit based on the light of the light source is defined as one second enclosed area.
  • one enclosed area in the coordinate map area surrounded by another light source and both ends of one shadow width in the linear light receiving sensor unit based on the light of the light source is designated as one third enclosed area. To do.
  • a liquid crystal display panel equipped with this position detection system that is, a touch panel, can recognize a gesture operation using two objects (such as fingers).
  • this touch panel has a relatively simple structure, it is possible to suppress an increase in the cost of the touch panel.
  • a plurality of objects such as fingers can be detected simultaneously, and the cost can be reduced because of the simple structure.
  • FIG. 7A to FIG. 7C are plan views mainly showing connections.
  • FIG. 9A to FIG. 9C are plan views mainly showing connection and surrounding areas
  • the top view which showed the shadow of the target object when LED23A light-emits The top view which showed the shadow of the target object when LED23B light-emits
  • the top view which showed the shadow of the target object when LED23C light-emits 11A to 11C are plan views mainly showing the surrounding areas EAa12, EAb1, and EAc12.
  • FIGS. 12A and 12B are plan views mainly showing the surrounding areas EAa12, EAb2, and EAc12. Plan view summarizing FIGS. 12A and 12B The top view which showed the shadow of the target object when LED23A light-emits The top view which showed the shadow of the target object when LED23B light-emits The top view which showed the shadow of the target object when LED23C light-emits
  • FIG. 13A to FIG. 13C are plan views mainly showing connections. Partial sectional view of liquid crystal display Plan view showing a conventional touch panel
  • FIG. 2 is a partial cross-sectional view of a liquid crystal display device [display device] 69.
  • the liquid crystal display device 69 includes a backlight unit [illumination device] 59 and a liquid crystal display panel [display panel] 49.
  • the backlight unit 59 is an illuminating device equipped with a light source such as an LED (Light Emitting Diode) or a fluorescent tube, and emits light (backlight light BL) to the liquid crystal display panel 49 which is a non-light emitting display panel. ).
  • a light source such as an LED (Light Emitting Diode) or a fluorescent tube
  • backlight light BL light
  • the liquid crystal display panel 49 which is a non-light emitting display panel.
  • the liquid crystal display panel 49 that receives light includes an active matrix substrate 42 and a counter substrate 43 that sandwich the liquid crystal 41.
  • the active matrix substrate 42 is arranged so that the gate signal lines and the source signal lines intersect with each other, and at the intersection of the both signal lines, the applied voltage to the liquid crystal (liquid crystal molecules) 41 is adjusted.
  • Necessary switching elements for example, Thin Film Transistor are arranged.
  • a polarizing film 44 is attached to the light receiving side of the active matrix substrate 42 and the emission side of the counter substrate 43.
  • the liquid crystal display panel 59 as described above displays an image using a change in light transmittance caused by the inclination of the liquid crystal molecules 41 in response to the applied voltage.
  • the liquid crystal display panel 49 is also equipped with a position detection system PM.
  • the liquid crystal display panel 49 on which the position detection system PM is mounted may be referred to as a touch panel.
  • the position detection system PM is a system that detects where the finger as shown in FIG. 2 is on the liquid crystal display panel 49.
  • FIG. 1 is a plan view of the position detection system PM and a block diagram of the microcomputer unit 11 required for controlling the position detection system PM). Is an explanatory diagram).
  • the position detection system PM includes a protection sheet 21, a line sensor unit [light receiving sensor unit] 22U, an LED unit [light source unit] 23U, a reflection mirror unit 24U, and a microcomputer unit 11.
  • the protective sheet 21 is a sheet that covers the counter substrate 43 of the liquid crystal display panel 49 (more specifically, the polarizing film 44 on the counter substrate 43). This protective sheet 21 is arranged between the finger and the display surface by disposing an object such as a finger on the display surface side of the liquid crystal display panel 49, and prevents damage to the liquid crystal display panel 49.
  • the line sensor unit 22U is a unit in which three line sensors 22 (22A to 22C) in which light receiving chips CP (see FIG. 3A described later) are arranged in a line are arranged. However, the three line sensors 22A to 22C may be integrated in a series.
  • the line sensor unit 22U is disposed in the same layer as the liquid crystal 41, that is, between the active matrix substrate 42 and the counter substrate 43, and faces the light receiving surface toward the counter substrate 43. The light receiving mechanism will be described later.
  • the line sensors 22A to 22C are arranged so as to surround a certain area (enclosed shape).
  • the arrangement shape of the line sensor unit 22U is not particularly limited as long as it is a surrounding shape surrounding a certain region.
  • the line sensor unit 22U includes a line sensor 22A and a line sensor 22B that are arranged to face each other as shown in FIG. 1, and a line sensor [side type linear light receiving sensor] 22A to a line sensor [side type linear light receiving sensor] 22B.
  • Line sensor [bridge type linear light receiving sensor] 22C extending between the line sensors 22A to 22C, the line sensors 22A to 22C are arranged in a bracket shape (“[” shape) surrounding a certain area. That is, the line sensor 22A, the line sensor 22C, and the line sensor 22B are arranged in a bracket shape while forming a series.
  • a rectangular area surrounded by the line sensors 22A to 22C in the line sensor unit 22U is defined as a coordinate map area MA, and a space in which a finger or the like is arranged overlapping the coordinate map area MA is an object arrangement space [coordinate map space]. Let it be MS. Further, the line direction of the line sensor 22C is the X direction, the line direction of the line sensors 22A and 22B is the Y direction, and the direction intersecting (orthogonal) with the X direction and the Y direction is the Z direction.
  • the LED unit 23U is a unit in which three LEDs 23 (23A to 23C) are arranged in a row on the protective sheet 21. More specifically, the LED unit 23U has LEDs [point light sources] 23A to 23C arranged so as to face the line sensor 22C while being spaced apart from each other. That is, the LEDs 23A to 23C are arranged in a line along the line direction (X direction) of the line sensor 22C, and are arranged so as to close the bracket-shaped openings that are the arrangement shape of the line sensor unit 22U.
  • the LEDs 23A to 23C make the traveling direction of the emitted light [light source light] follow the sheet surface of the protective sheet 21 (the XY plane direction defined by the X direction and the Y direction) and are surrounded by the line sensors 22A to 22C. Directed to the object placement space MS that overlaps the coordinate map area MA (that is, the space on the protective sheet 21 that overlaps the coordinate map area MA).
  • the reflection mirror unit 24U is a unit in which three linear reflection mirrors 24 (24A to 24C) are arranged in the same manner as the line sensors 22A to 22C. More specifically, the reflection mirror unit 24U superimposes the reflection mirror 24A on the line sensor 22A, the reflection mirror 24B on the line sensor 22B, and the reflection mirror 24C on the line sensor 22C on the protective sheet 21. That is, the reflection mirror unit 24U surrounds the target arrangement space MS on the protective sheet 21 that overlaps the coordinate map area MA with the reflection mirrors 24A to 24C.
  • the LED 23A is disposed near one end of the reflection mirror 24A that is not adjacent to the reflection mirror 24C. In other words, the LED 23A is disposed near one end of the licensor 22A that is not adjacent to the licensor 22C. Therefore, the light emitted from the LED 23A reaches the protective sheet 21 that overlaps the coordinate map area MA, that is, the target arrangement space MS.
  • the LED 23B is disposed near one end of the reflection mirror 24B that is not adjacent to the reflection mirror 24C. In other words, the LED 23B is disposed near one end of the line sensor 22B that is not adjacent to the line sensor 22C. Therefore, the light emitted from the LED 23B spreads over the protective sheet 21 overlapping the coordinate map area MA.
  • the reflecting mirror unit 24U on the protective sheet 21 is tilted so that the mirror surface of the reflecting mirror 24A can receive the light of the LED unit 23U, and is directed toward the light receiving surface of the line sensor 22A, and the mirror surface of the reflecting mirror 24B is directed to the LED unit 23U.
  • the light is directed toward the light receiving surface of the line sensor 22B while being tilted so as to receive the light
  • the mirror surface of the reflecting mirror 24C is directed toward the light receiving surface of the line sensor 22C while being tilted so that the light from the LED unit 23U can be received.
  • the reflection mirror unit 24U guides the light traveling in the target arrangement space MS on the protective sheet 21 to the line sensor unit 22U.
  • the line sensor unit 22U receives light traveling in the target arrangement space MS.
  • a light shielding film BF is preferably attached to the reflection mirror unit 24U (ie, the reflection mirrors 24A to 24C) and the LED unit 23U (ie, the LEDs 23A to 23C) in order to suppress light leakage to the outside.
  • a light shielding film BF may be attached to the outer surface of the reflecting mirror 24 facing the outside and the outer surface of the LED 23 facing the outside.
  • the microcomputer unit 11 controls the position detection system PM and includes an LED driver 18 and a position detection unit 12.
  • the LED driver 18 is a driver that supplies an operating current to the LEDs 23A to 23C of the LED unit 23U.
  • the position detection unit 12 includes a memory 13, a detection management unit 14, a surrounding area setting unit 15, a connection setting unit 16, and a position specifying unit 17.
  • the memory 13 stores a coordinate map area MA for specifying the position of a finger or the like when an object such as a finger is arranged in the target arrangement space MS.
  • the coordinate map area MA is defined by the number of light receiving chips CP incorporated in the line sensors 22A to 22C arranged in a bracket shape as shown in FIG. 3A, for example.
  • the line sensor 22A includes m light receiving chips CP
  • the line sensor 22B includes m light receiving chips CP
  • the line sensor 22C includes n light receiving chips CP (n and m are plural).
  • the outermost light receiving chip CP of the line sensor 22A and the outermost light receiving chip CP of the line sensor 22B face each other along the X direction in the line sensors 22A and 22B arranged in parallel. Further, the line sensor 22C spans between the outermost light receiving chips CP in the line sensors 22A and 22B facing each other.
  • the coordinate map area MA is a large section area in which the width W for each light receiving chip CP in the line sensors 22A to 22C is extended in a direction orthogonal to the line direction of the line sensors 22A to 22C including each light receiving chip CP. It is divided.
  • the width W of each light receiving chip CP in the line sensor 22A extends in the X direction to become m large divided areas
  • the width W of each light receiving chip CP in the line sensor 22B extends in the X direction to m large. It becomes a partitioned area. Note that the large section area based on the light receiving chip CP included in the line sensor 22A matches the large section area based on the light receiving chip CP included in the line sensor 22B. Further, the width W of each light receiving chip CP in the line sensor 22C extends in the Y direction and becomes n large divided regions.
  • the coordinate map area MA is an area filled with the small divisions as shown in FIG. 3B.
  • a coordinate map area MA having matrix-like small sections is formed. Then, by forming such a coordinate map area MA, it is possible to specify the position of a finger or the like in the target arrangement space MS overlapping the coordinate map area MA.
  • the longitudinal direction is along the X direction
  • the short direction is along the Y direction.
  • the detection management unit 14 controls the LED unit 23U through the LED driver 18, and determines the light receiving state in the line sensor unit 22U through the line sensor unit 22U. More specifically, the detection management unit 14 controls the light emission timing and the light emission time of the LEDs 23A to 23C by the control signal, and the shadow generated in the line sensors 22A to 22C from the values (signal intensity) of the light reception signals of the line sensors 22A to 22C. [Shadow counting step].
  • the line sensors 22B and 22C reach the line sensor unit 22U.
  • the dark hatched portion connected to the object (shielding object) (1) and (2) means a shadow
  • the other thin hatch means an area irradiated with light, and is hatched.
  • the LED 23A means that light is emitted.
  • change areas V1 and V2 occur in the light reception data (light reception signal) in the line sensor unit 22U.
  • the arrangement of the graph indicating the received light data is matched with the positions of the line sensors 22A to 22C.
  • the detection management unit 14 counts the number of shadows overlapping the line sensor unit 22U by the number of change regions V1 and V2 generated in the light reception data (signal intensity of the data signal) in the line sensor unit 22U.
  • the enclosure area setting unit 15 sets an enclosure area EA that connects the shadow in the line sensor unit 22U and the LED 23 that creates the shadow in the coordinate map area MA [enclosure area setting step].
  • the surrounding area setting unit 15 is an area (enclosing area EAa1) surrounded by one light source LED 23A and both ends of one shadow width in the line sensor 22C based on the light of the LED 23A.
  • the surrounding area setting unit 15 sets an area (enclosing area EAa2) surrounded by the LED 23A and both ends of one shadow width in the line sensor 22B based on the light of the LED 23A. Details of how to set the position of an object such as a finger using the surrounding area EA (for example, EAa1 and EAa2) will be described later.
  • connection setting unit 16 sets a connection line L (for example, La1 and La2) that connects one shaded point in the line sensor unit 22U and the LED 23 that creates the shadow in the coordinate map area MA [connection setting process].
  • the one point may be an intermediate point in the width direction of the shadow in the line sensor 22, that is, in the arrangement direction of the light receiving chips CP where the shadow reaches.
  • the connection line L that connects the intermediate point and the LED 23 may be set as a line that bisects the angle of the LED 23 in the surrounding area EA at the apex while passing through the LED 23. Details of how to set the position of an object such as a finger using this connection L (for example, La1 and La2) will be described later.
  • the position specifying unit 17 specifies the position of an object such as a finger using at least one of the enclosing area EA set by the enclosing area setting unit 15 and the connection L set by the connection setting unit 16 [position specifying step]. . Specifically, it is as follows.
  • the detection management unit 14 causes the LED 23A to emit light as shown in FIG. 7A via the LED driver 18, the detection management is performed when the line sensor unit 22U detects a shadow caused by the objects (1) and (2).
  • the unit 14 determines that the number of shadows is two from the light reception data of the line sensor unit 22U.
  • the line sensor unit 22U detects the shadow caused by the objects (1) and (2).
  • the management unit 14 determines that the number of shadows is two from the light reception data of the line sensor unit 22U.
  • the detection management unit 14 causes the LED 23C to emit light as shown in FIG. 7C via the LED driver 18, the detection management is performed when the line sensor unit 22U detects a shadow caused by the objects (1) and (2).
  • the unit 14 determines that the number of shadows is two from the light reception data of the line sensor unit 22U.
  • the detection management unit 14 turns on the LEDs 23A to 23C individually and sequentially, and counts the shadows of the objects (1) and (2) caused by the light of the LEDs 23A to 23C from the light reception data of the line sensor unit 22U. Further, the detection management unit 14 counts the total number of shadows generated by the light of the LEDs 23A to 23C [shadow counting step]. As a result, when the objects (1) and (2) are located as shown in FIGS. 7A to 7C, the detection management unit 14 determines that six shadows have occurred.
  • the detection management unit 14 specifies which section of the outermost linear area of the coordinate map area MA the shadow occupies from the data (map data) of the coordinate map area MA acquired from the memory 13 (see FIG. 3B). .
  • the shadows are divided into one row of partition regions from the reference partition E to the partition G, one row of partition regions from the partition G to the partition H, and one row of partition regions from the partition H to the partition F.
  • connection setting unit 16 sets the connection L in the coordinate map area MA using the specific section data transmitted from the detection management unit 14.
  • This connection line L is a section in a plurality of sections indicating the width of one shadow in the coordinate map area MA, for example, an intermediate section of a plurality of sections (specific section data) arranged in a line indicating a shadow, and an emission point of the LED 23. It is a connection which connects the section shown.
  • connection La1 is set.
  • the specific division data which shows the shadow of a target object (2), the intermediate division between the divisions of both ends, and the reference division E which is a division which shows the emission point of LED23A are tied.
  • Connection La2 is set.
  • the specific section data indicating the shadow of the object (1), the intermediate section between the sections at both ends, and the section J that is a section indicating the emission point of the LED 23C; are connected to set the connection Lc1.
  • the intermediate division between the divisions of both ends and the division J which is a division which shows the emission point of LED23C are connected by the specific division data which shows the shadow of a target object (2), and it connects. Lc2 is set.
  • connection setting unit 16 sets six connections L [connection setting step], and transmits data (connection data) indicating the connections L to the position specifying unit 17.
  • the position specifying unit 17 specifies the intersection of the connection lines L from the connection data transmitted from the connection setting unit 16. Then, eleven intersection points IP1 to IP11 are specified as shown in FIG. The figure shown at the tip of the white line arrow is an enlarged partial view. The positions of these intersection points IP are identified by, for example, triangulation using the reference section E as a fixed point and a line connecting the reference point E to the section F (also referred to as the X axis) as a base line. Furthermore, the position specifying unit 17 specifies two places where three intersection points IP are dense among the eleven intersection points IP. In addition, the setting of the space
  • the position specifying unit 17 densely gathers the intersection point IP1 (intersection point between the connection line La1 and the connection line Lb1), the intersection point IP2 (intersection point between the connection line Lb1 and the connection line Lc1), and the intersection point IP3 (intersection point between the connection line Lc1 and the connection line La1).
  • the position specifying unit 17 densely gathers the intersection point IP4 (intersection point between the connection line La2 and the connection line Lb2), the intersection point IP5 (intersection point between the connection line Lb2 and the connection line Lc2), and the intersection point IP6 (intersection point between the connection line Lc2 and the connection line La2).
  • Judge. And these two places are specified as the position of the object (1) (2) such as a finger [position specifying step].
  • the position detection unit 12 including the position specifying unit 17 uses a part of a dense area of intersections IP1 to IP3 generated by the connection La1 based on the LED 23A, the connection Lb1 based on the LED 23B, and the connection Lc1 based on the LED 23C as one object.
  • the position (1) is determined, and a part of the dense area of the intersections IP4 to IP6 generated by the connection La2 based on the LED 23A, the connection Lb2 based on the LED 23B, and the connection Lc2 based on the LED 23C is set as another object (2 ) Position.
  • the center of a region surrounded by the intersection point IP that is, the triangular region having the intersection points IP1 to IP3 as vertices, and the intersection points IP4 to IP6 as vertices It is good also considering the gravity center of the triangular area to be the position of the object (1) (2).
  • the number of shadows counted by the line sensor unit 22U varies depending on the arrangement of the objects (1) and (2).
  • the LED 23A emits light as shown in FIG. 9A
  • the detection management unit 14 determines that the number of shadows is two from the light reception data of the line sensor unit 22U
  • the LED 23B emits light as shown in FIG. 9B.
  • FIG. 9C a case as shown in FIG. 9C also occurs.
  • the detection management unit 14 determines that the number of shadows is one from the light reception data of the line sensor unit 22U.
  • the detection management unit 14 turns on the LEDs 23A to 23C individually and sequentially, and the shadow of the object (1) (2) generated by the light of each of the LEDs 23A to 23C is line sensor unit. It counts from the light reception data of 22U. Then, the detection management unit 14 determines that the total number of shadows generated by the lights of the LEDs 23A to 23C is 5 [shadow count process].
  • the detection management unit 14 obtains specific section data indicating which section of the outermost linear area of the coordinate map area MA the shadow occupies [specific section data setting step], and the specific section data is connected to the connection setting section. 16 and the enclosed area setting unit 15. More specifically, the detection management unit 14 transmits two specific section data corresponding to the light emission of the LED 23A and two specific section data corresponding to the light emission of the LED 23B to the connection setting unit 16, and responds to the light emission of the LED 23C. One specific section data is transmitted to the surrounding area setting unit 15. Note that the detection management unit 14 sets the transmission destination of the specific section data according to the number of shadows.
  • the connection setting unit 16 sets the connection L using the specific section data transmitted from the detection management unit 14. That is, the connection setting unit 16 connects the lines La1 and La2 [first connection] based on the specific section data corresponding to the light emission of the LED 23A and the connections Lb1 and Lb2 [second connection based on the specific section data corresponding to the light emission of the LED 23B. ] [Connection setting step]. Then, the connection setting unit 16 transmits the four connection data to the position specifying unit 17.
  • the surrounding area setting unit 15 sets an area (enclosing area EAc12) surrounded by the LED 23C as one light source and both ends of one shadow width in the line sensor unit 22U based on the light of the LED 23C [enclosing area setting step. ]. More specifically, the enclosing area EAc12 is set by the section J that is a section indicating the emission point of the LED 23C and the outermost two sections indicated by the specific section data corresponding to the light emission of the LED 23C. In other words, the connection between the section J and the outermost section of the specific section data is set, and the connection between the section J and another outermost section of the specific section data is set.
  • the surrounding area setting unit 15 obtains one surrounding area EAc12 and positions the surrounding area data (in other words, the connection data and the specific section data corresponding to the outer periphery of the surrounding area EAc12) indicating the surrounding area EAc12. It transmits to the specifying unit 17.
  • the position specifying unit 17 specifies the intersection of the connection lines L from the connection data transmitted from the connection setting unit 16. Then, as shown in FIG. 10, four intersection points IP21 to IP24 are specified. Further, the position specifying unit 17 specifies an intersection IP that overlaps the enclosed area EAc12 among the four intersections IP21 to IP24 from the enclosed area data transmitted from the enclosed area setting unit 15 [position specifying step].
  • the position specifying unit 17 determines that the intersection IP21 (intersection of the connection La1 and the connection Lb1) and the intersection IP22 (intersection of the connection La2 and the connection Lb2) are the intersection IP overlapping the surrounding area EAc12. Then, these two intersections IP21 and IP22 are specified as the positions of the objects (1) and (2) such as fingers.
  • the position detection unit 12 including the position specifying unit 17 has two connection lines La1 and La2 that are generated by individually connecting two shadows from one LED 23A that simultaneously generates two shadows, and two shadows at the same time.
  • the intersections IP21 to IP24 of the two connections Lb1 and Lb2 generated by individually connecting the two shadows are specified from the LED 23B that generates
  • the position detection unit 12 specifies an enclosed area EAc12 in the coordinate map area MA surrounded by the LED 23C and both ends of the width of one shadow in the sensor unit 22U based on the light of the LED 23C, and intersects with the enclosed area EAc12 Specify IP. Then, as shown in FIG. 10, these intersections IP21 and IP22 are specified as the positions of the objects (1) and (2) such as fingers.
  • the line sensor unit 22U detects only one shadow by the light from the LED 23C, which is one of the three LEDs 23. In some cases, the line sensor unit 22U detects only one shadow with the light from the LEDs 23A and 23C, which are two of the three LEDs 23.
  • the detection management unit 14 turns on the LEDs 23A to 23C individually and sequentially, and the shadow of the object (1) (2) caused by the light of each of the LEDs 23A to 23C is line sensor unit. It counts from the light reception data of 22U. Then, the detection management unit 14 determines that the total number of shadows generated by the lights of the LEDs 23A to 23C is four [shadow counting step]. Further, the detection management unit 14 surrounds one specific section data corresponding to the light emission of the LED 23A, two specific section data corresponding to the light emission of the LED 23B, and one specific section data corresponding to the light emission of the LED 23C. Transmit to the area setting unit 15 [specific section data setting step].
  • the enclosed area setting unit 15 sets an area (enclosed area EAa12) surrounded by the LED 23A and both ends of one shadow width in the line sensor unit 22U based on the light of the LED 23A. More specifically, the surrounding area EAa12 is set by the reference section E that is a section indicating the emission point of the LED 23A and the outermost two sections indicated by the specific section data corresponding to the light emission of the LED 23A [enclosed area setting step]. In other words, the connection between the reference section E and the outermost section of the specific section data is set, and the connection between the reference section E and another outermost section of the specific section data is set. Then, the surrounding area setting unit 15 transmits the surrounding area data indicating the surrounding area EAa12 [second surrounding area] to the position specifying unit 17.
  • the surrounding area setting unit 15 sets areas (enclosing areas EAb1 and EAb2) surrounded by the LED 23B and both ends of two shadow widths in the line sensor unit 22U based on the light of the LED 23B. More specifically, the surrounding areas EAb1 and EAb2 are set by the section F, which is a section indicating the emission point of the LED 23B, and the outermost two sections shown for each specific section data corresponding to the light emission of the LED 23B. ]. In other words, the connection between the section F and the outermost section of each specific section data is set, and the connection between the section F and another outermost section of each specific section data is set. Then, the surrounding area setting unit 15 transmits the surrounding area data indicating the surrounding areas EAb1 and EAb2 [first surrounding area] to the position specifying unit 17.
  • the surrounding area setting unit 15 sets an area (enclosing area EAc12) surrounded by the LED 23C and both ends of one shadow width in the line sensor unit 22U based on the light of the LED 23C [enclosing area setting step]. Then, the surrounding area setting unit 15 transmits the surrounding area data indicating the surrounding area EAc12 [third surrounding area] to the position specifying unit 17.
  • the position specifying unit 17 specifies the overlapping area PA where the different types of surrounding areas EA overlap from the surrounding area data EA transmitted from the surrounding area setting unit 15. For example, as shown in FIG. 12A, an area PA1 where the surrounding area EAa12 based on the LED 23A, the surrounding area EAb1 which is one of the two surrounding areas EA based on the LED 23B, and the surrounding area EAc12 based on the LED 23C overlap is specified. . And the range (for example, circle of the maximum diameter which covers superimposition field PA1) which can cover this superimposition field PA1 is specified as the position of objects (1), such as a finger [position specification process].
  • the position specifying unit 17 overlaps the surrounding area EAa12 based on the LED 23A, the surrounding area EAb2 which is the other of the two surrounding areas EA based on the LED 23B, and the surrounding area EAc12 based on the LED 23C.
  • the area PA2 is specified.
  • a range that covers this overlapping area PA2 is specified as the position of the object (2) such as a finger [position specifying step].
  • the position detection unit 12 including the position specifying unit 17 is a coordinate map of the two surrounding areas EAb1 and EAb2 surrounded by the LED 23B and both ends of the widths of the two shadows in the line sensor unit 22U based on the light of the LED 23B. Set on area MA.
  • the position detection unit 12 sets one surrounding area EAa12 surrounded by the LED 23A and both ends of one shadow width in the line sensor unit 22U based on the light of the LED 23A on the coordinate map area MA.
  • the position detection unit 12 sets one surrounding area EAc12 surrounded by the LED 23C and both ends of one shadow width in the line sensor unit 22U based on the light of the LED 23C on the coordinate map area MA.
  • the position detection unit 12 includes one enclosed area EAb1, an enclosed area EAa12, and a part included in an overlapping area of the enclosed area EAc12, another enclosed area EAb2, an enclosed area EAa12, and A part included in the overlapping region of the surrounding region EAc12 is set as the position of the objects (1) and (2).
  • the center of gravity of the overlapping area PA1 or the center of the maximum diameter circle covering the overlapping area PA2 may be set as the position of the object.
  • the line sensor unit 22U detects only one shadow by the light from each of the LEDs 23A to 23C, there is a case where only one object is arranged in the object arrangement space MS.
  • the detection management unit 14 turns on the LEDs 23A to 23C individually and sequentially, and the shadow of the object (1) generated by the light of each LED 23A to 23C is received by the line sensor unit 22U. Count from the data. That is, the detection management unit 14 determines that the total number of shadows generated by the lights of the LEDs 23A to 23C is three [shadow count process].
  • the detection management unit 14 connects one specific section data corresponding to the light emission of the LED 23A, one specific section data corresponding to the light emission of the LED 23B, and one specific section data corresponding to the light emission of the LED 23C. It transmits to the setting part 16 [specific division data setting process].
  • the connection setting unit 16 sets the connection L using the specific section data transmitted from the detection management unit 14. That is, the connection setting unit 16 connects the connection La1 based on the specific section data corresponding to the light emission of the LED 23A, the connection Lb1 based on the specific section data corresponding to the light emission of the LED 23B, and the connection Lc1 based on the specific section data corresponding to the light emission of the LED 23C. And [Connection setting step]. Then, the connection setting unit 16 transmits the three connection data to the position specifying unit 17.
  • the position specifying unit 17 sets the intersection of the connections L from the connection data transmitted from the connection setting unit 16. Then, as shown in FIG. 14, three intersection points IP1 to 1P3 are set. And the location where this intersection is crowded is specified as the position of the object (1) such as a finger [position specifying step].
  • the position detection unit 12 including the position specifying unit 17 uses a part of the dense basin of intersections IP1 to IP3 generated by the connection La1 based on the LED 23A, the connection Lb1 based on the LED 23B, and the connection Lc1 based on the LED 23C as one object. Judged as the position.
  • the center of gravity of the triangular area having the intersections IP1 to IP3 as vertices may be set as the position of the object (1).
  • the position detection unit 12 generates the line sensor unit 22U generated by illuminating the two objects (1) and (2) arranged in the object arrangement space MS (coordinate map space) with the light from the plurality of LEDs 23A to 23C. From the change in the amount of received light according to three or more shadows in (the occurrence of the change areas V1 and V2 in the received light data), one object (1) or two objects (1) and (2) in the coordinate map area MA The position is detected using triangulation.
  • the shadow of the object overlapping the coordinate map area MA surrounded by the line sensor unit 22U is detected from the light reception data of the line sensor unit 22U, and data based on the shadow (specific section data, connection data, enclosed area data, etc.) ) To detect the position of the object by triangulation.
  • the position detection system PM including the position detection unit 12 includes only the bracket-shaped line sensor unit 22U and the three LEDs 23A to 23C (LED unit 23U) arranged in the bracket-shaped opening in terms of mechanism (hardware).
  • the liquid crystal display panel 49 equipped with the position detection system PM that is, the touch panel 49 can recognize a gesture operation using two objects (such as fingers).
  • the touch panel 49 has a relatively simple structure, an increase in cost of the touch panel 49 and the liquid crystal display device 69 equipped with the touch panel 49 can be suppressed.
  • the number of the LEDs 23 included in the LED unit 23U is three, but is not limited thereto. For example, four or more LEDs 23 may be included.
  • the LED unit 23U includes a plurality of P (an integer greater than or equal to 3) LEDs 23, and these LEDs 23 are arranged so as to face the line sensor 22C while being spaced apart from each other, and are lit in order so that the target arrangement space is obtained.
  • the position detection unit 12 is a line sensor unit that is generated by illuminating an object such as (P-1) or less fingers, in which the light from the plurality of LEDs 23 is arranged in the target arrangement space MS.
  • the position of the object or objects in the coordinate map area MA is detected from the change in the amount of received light corresponding to P or more shadows in 22U using the triangulation method.
  • the reflection mirror unit 24U is not necessarily essential.
  • the line sensor unit 22U may be disposed on the protective sheet 21, and the light of the LED unit 23U may be received without passing through a light refraction member such as the reflection mirror unit 24U.
  • the number of parts of the liquid crystal display panel 49 is reduced, so that the cost can be reduced.
  • the LED 23 which is a light emitting element is described as an example of the point light source, but the present invention is not limited to this.
  • it may be a light emitting element such as a laser element, or a light emitting element formed of a self-luminous material such as an organic EL (Electro Luminescence) or an inorganic EL.
  • a light emitting element such as a laser element
  • a light emitting element formed of a self-luminous material such as an organic EL (Electro Luminescence) or an inorganic EL.
  • a point light source such as a lamp may be used.
  • the liquid crystal display device 69 is exemplified as the display device, but the present invention is not limited to this.
  • the position detection system PM may be mounted on another display device such as a plasma display device or an electronic blackboard.
  • the position detection as described above is realized by a position detection program.
  • This program is a computer-executable program and may be recorded on a computer-readable recording medium. This is because the program recorded on the recording medium becomes portable.
  • Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape to be separated, a disk system of an optical disk such as a magnetic disk and a CD-ROM, a card system such as an IC card (including a memory card) and an optical card. Or a semiconductor memory system such as a flash memory.
  • a tape system such as a magnetic tape and a cassette tape to be separated
  • a disk system of an optical disk such as a magnetic disk and a CD-ROM
  • a card system such as an IC card (including a memory card) and an optical card.
  • a semiconductor memory system such as a flash memory.
  • the microcomputer unit 11 may acquire the position detection control program by communication from the communication network.
  • the communication network includes the Internet, infrared communication, and the like regardless of wired wireless communication.
  • the present invention can be used in a position detection system that detects the position of an object, a display panel (such as a liquid crystal display panel) on which the position detection system is mounted, and a display device (such as a liquid crystal display device) that includes the display panel. is there.
  • PM position detection system 11 microcomputer unit 12 position detection unit 13 memory 14 detection management unit 15 enclosure region setting unit 16 connection setting unit 17 position specifying unit 18 LED driver 21 protective sheet 22 line sensor (linear light receiving sensor) 22A line sensor (side-type linear light receiving sensor) 22B Line sensor (Side type linear light receiving sensor) 22C Line sensor (Bridge type linear light receiving sensor) 22U line sensor unit 23 LED (light source) 23U LED unit (light source unit) 24 reflective mirror 24U reflective mirror unit L connection EA enclosed area IP intersection 49 liquid crystal display panel (display panel, touch panel) 59 Backlight unit (lighting device) 69 Liquid crystal display device (display device)

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

 LEDユニット23UはP個(3個以上の整数)の複数のLED23を互いに間隔を空けつつラインセンサ22Cに対向するように配置し、順番に点灯させることで対象配置空間MSに光を供給している。位置検出ユニット12は複数のLED23の光が対象配置空間MSに配置される(P-1)個以下の指等の対象物を照らすことで生じるラインセンサユニット22UにおけるP個以上の影に応じた受光量変化から、座標マップ領域MAにおける単数または複数の対象物の位置を、三角測量法を用いて検出する。

Description

位置検出システム、表示パネル、および表示装置
 本発明は、対象物の位置を検出する位置検出システム、およびその位置検出システムを搭載する表示パネル(液晶表示パネル等)、さらに表示パネルを搭載する表示装置(液晶表示装置等)に関する。
 昨今の液晶表示装置は、指等が触れることで様々な指示を液晶表示装置に設定できるタッチパネルを搭載することがある。このようなタッチパネルにおける指等の対象物の位置検出システムの仕組みは様々である。
 例えば、図16に示した特許文献1に開示されているタッチパネル149は光を用いた位置検出システムであって、2つの光送受ユニット129(129A・129B)を搭載する。この光送受ユニット129(129A・129B)は受光素子122(122A・122B)、発光素子123(123A・123B)、およびポリゴンミラー124(124A・124B)を含む。そして、光送受ユニット129はタッチパネル149の周囲を囲む再帰性反射シート131の両端付近に位置し、発光素子123の光をポリゴンミラー124を介して再帰性反射シート131に供給する。
 すると、再帰性反射シート131からの反射光がポリゴンミラー124で反射した後に受光素子122に入射する。ただし、指等の対象物(遮蔽物)Sが存在すると、反射光は遮られるので受光素子122には入射しない。そのため、受光素子122における受光データには光を遮られた分の変化が含まれる。そこで、この変化から対象物の位置が求められる。
特開平11-143624号公報
 しかしながら、このようなタッチパネル149の位置検出システムは2つの光送受ユニット129A・129Bしか用いていないため、指等の対象物を1つだけしか検出できない。その上、光送受ユニット129は1つのユニット内に受光素子122、発光素子123、およびポリゴンミラー124と複数の部材とを含むために構造が複雑化し、それに起因してコストも高くならざるを得ない。
 本発明は上記の問題点を解決するためになされたものである。そして、その目的は指等の対象物を同時に複数検出でき、かつ簡易な位置検出システム等を提供することにある。
 位置検出システムは、複数の光源を含む光源ユニットと、光源の光を受光する受光センサユニットと、光源からの光を遮る遮蔽物の位置を上記受光センサにおける受光量変化から検出する位置検出ユニットと、を含む。
 この位置検出システムでは、受光センサユニットが、対向する2つのサイド型線状受光センサと、一方のサイド型線状受光センサから他方のサイド型線状受光センサまでの間に架け渡る架橋型線状受光センサと、を含むことで、これら線状受光センサに囲まれる領域に重なる空間が、受光量変化から遮蔽物の位置特定可能な2次元の座標マップ空間になっている。
 そして、光源ユニットは、P個(3個以上の整数)の複数の光源を含み、それら光源を互いに間隔を空けつつ架橋型線状受光センサに対向するように配置し、順番に点灯させることで座標マップ空間に光を供給する。さらに、位置検出ユニットは、複数の光源の光が座標マップ空間に配置される(P-1)個以下の遮蔽物を照らすことで生じる線状受光センサユニットにおけるP個以上の影に応じた受光量変化から、座標マップ領域における単数または複数の遮蔽物の位置を、三角測量法を用いて検出する。
 例えば、3つの光源が順番に点灯した後に、線状受光センサユニットにて影が合計で3つまたは6つ生じた場合、位置検出ユニットは、3つの光源における1つと、その光源の光に基づく線状受光センサユニットにおける影とを結ぶ結線、3つの光源における別の1つと、その光源の光に基づく線状受光センサユニットにおける影とを結ぶ結線、3つの光源における最後の1つと、その光源の光に基づく線状受光センサユニットにおける影とを結ぶ結線、の3種類の結線により生じる交点の密集領域の一部を、遮蔽物の位置とすると望ましい。
 また、1つの光源の点灯で線状受光センサユニットに影が同時に2つ生じ、別の1つの光源の点灯で線状受光センサユニットに影が同時に2つ生じ、さらに別の1つの光源の点灯で線状受光センサユニットに影が1つ生じることで、合計5つの影が生じた場合、位置検出ユニットは下記の(1)および(2)を満たす交点を遮蔽物の位置とすると望ましい。
 (1)同時に2つの影を生成する1つの光源から、それら2つの影を個別に結ぶことで生じる2本の第1の結線と、同時に2つの影を生成する別の1つの光源から、それら2つの影を個別に結ぶことで生じる2本の第2の結線と、の交点。
 (2)さらに別の光源と、その光源の光に基づく線状受光センサにおける1つの影における幅の両端とで囲まれる座標マップ領域における囲み領域に重なる交点。
 また、1つの光源の点灯で線状受光センサユニットに影が同時に2つ生じ、別の1つの光源の点灯で線状受光センサユニットに影が1つ生じ、さらに別の1つの光源の点灯で線状受光センサユニットに影が1つ生じることで、合計4つの影が生じた場合、位置検出ユニットは以下のようにして遮蔽物の位置を特定すると望ましい。
 すなわち、位置検出ユニットは以下に続く第1~第3囲み領域に関して、1つの第1囲み領域、第2囲み領域、および第3囲み領域の重なり領域に含まれる一部と、別の1つの第1囲み領域、第2囲み領域、および第3囲み領域の重なり領域に含まれる一部と、を遮蔽物の位置とすると望ましい。
 なお、1つの光源と、その光源の光に基づく線状受光センサユニットにおける2つの影の各々の幅の両端とで囲まれる座標マップ領域における2つの囲み領域を、2つの第1囲み領域とする。
 また、別の1つの光源と、その光源の光に基づく線状受光センサユニットにおける1つの影の幅の両端とで囲まれる座標マップ領域における1つの囲み領域を、1つの第2囲み領域とする。
 また、さらに別の1つの光源と、その光源の光に基づく線状受光センサユニットにおける1つの影の幅の両端とで囲まれる座標マップ領域における1つの囲み領域を、1つの第3囲み領域とする。
 以上のような位置検出システムにより、例えば、機構上、簡易な線状受光センサユニットと、複数の光源を含む簡易な光源ユニットとを含むだけで2つの対象物の同時検出できる。そのため、この位置検出システムを搭載した液晶表示パネル、すなわちタッチパネルは2つの対象物(指等)を用いたジェスチャー動作を認識できる。
 その上、このタッチパネルは比較的簡単な構造であるので、タッチパネルのコストアップを抑制することができる。
 本発明の位置検出システムによると、指等の対象物を同時に複数検出でき、かつ簡易な構造なためにコストダウンが図れる。
位置検出システムの平面図と、この位置検出システムの制御に要するマイコンユニットのブロック図とを、併記した説明図 液晶表示装置の部分断面図 ラインセンサユニットを示す平面図 座標マップ領域を示す平面図 対象配置空間を示す平面図 ラインセンサユニットの信号強度を示すグラフを並べた説明図 囲み領域を示す平面図 結線を示す平面図 LED23Aが発光した場合の対象物の影を示した平面図 LED23Bが発光した場合の対象物の影を示した平面図 LED23Cが発光した場合の対象物の影を示した平面図 図7A~図7Cにおける結線を主体的に示した平面図 LED23Aが発光した場合の対象物の影を示した平面図 LED23Bが発光した場合の対象物の影を示した平面図 LED23Cが発光した場合の対象物の影を示した平面図 図9A~図9Cにおける結線および囲み領域を主体的に示した平面図 LED23Aが発光した場合の対象物の影を示した平面図 LED23Bが発光した場合の対象物の影を示した平面図 LED23Cが発光した場合の対象物の影を示した平面図 図11A~図11Cにおける囲み領域EAa12・EAb1・EAc12を主体的に示した平面図 図11A~図11Cにおける囲み領域EAa12・EAb2・EAc12を主体的に示した平面図 図12Aおよび図12Bをまとめた平面図 LED23Aが発光した場合の対象物の影を示した平面図 LED23Bが発光した場合の対象物の影を示した平面図 LED23Cが発光した場合の対象物の影を示した平面図 図13A~図13Cにおける結線を主体的に示した平面図 液晶表示装置の部分断面図 従来のタッチパネルを示す平面図
 [実施の形態1]
 実施の一形態について、図面に基づいて説明すれば以下の通りである。なお、便宜上、部材やハッチング、さらに部材符号等を省略する場合もあるが、その場合には他の図面を参照するものとする。例えば、後述のラインセンサ22を受光チップCPのみで図示することもある。逆に、便宜上、断面図ではないがハッチングを用いることもある。また、矢印に併記される黒丸は紙面に対して垂直方向を意味する。
 図2は液晶表示装置[表示装置]69の部分断面図である。この図に示すように、液晶表示装置69はバックライトユニット[照明装置]59と液晶表示パネル[表示パネル]49とを含む。
 バックライトユニット59は、例えばLED(Light Emitting Diode)または蛍光管のような光源を搭載する照明装置であって、非発光型の表示パネルである液晶表示パネル49に対して光(バックライト光BL)を照射する。
 光を受ける液晶表示パネル49は液晶41を挟み込むアクティブマトリックス基板42と対向基板43とを含む。また、アクティブマトリックス基板42には、図示されていないがゲート信号線とソース信号線とが互いに交差するように配置され、さらに両信号線の交差点には液晶(液晶分子)41に対する印加電圧調整に要するスイッチング素子(例えば、Thin Film Transistor)が配置される。
 また、アクティブマトリックス基板42の受光側、対向基板43の出射側には偏光フィルム44が取り付けられる。そして、以上のような液晶表示パネル59は印加電圧に反応した液晶分子41の傾きに起因する光透過率の変化を利用して画像を表示する。
 また、この液晶表示パネル49には位置検出システムPMも搭載される。なお、この位置検出システムPMを搭載する液晶表示パネル49をタッチパネルと称してもよい。この位置検出システムPMは、図2に示すような指が液晶表示パネル49上のどこにあるかを検出するシステムである。
 ここで、この位置検出システムPMについて、図1と図2とを用いて詳説する(図1は位置検出システムPMの平面図と、この位置検出システムPMの制御に要するマイコンユニット11のブロック図とを、併記した説明図である)。
 位置検出システムPMは保護シート21、ラインセンサユニット[受光センサユニット]22U、LEDユニット[光源ユニット]23U、反射ミラーユニット24U、およびマイコンユニット11を含む。
 保護シート21は液晶表示パネル49の対向基板43(詳説すると、対向基板43上の偏光フィルム44)を覆うシートである。この保護シート21は指のような対象物が液晶表示パネル49の表示面側に配置されることで指と表示面との間に介在し、液晶表示パネル49に対する傷等を防ぐ。
 ラインセンサユニット22Uは受光チップCP(後述の図3A参照)を線状に配置させたラインセンサ22(22A~22C)を3つ並べたユニットである。ただし、3つのラインセンサ22A~22Cが一連状に一体化してもかまわない。そして、このラインセンサユニット22Uは液晶41と同層、すなわちアクティブマトリックス基板42と対向基板43との間に介在し、受光面を対向基板43に向ける。なお、受光の仕組みについては後述する。
 また、ラインセンサユニット22Uは一定領域を囲むような形(囲み形状)でラインセンサ22A~22Cを配置している。ただし、ラインセンサユニット22Uの配置形状は一定領域を囲む囲み形状であれば特に限定されない。
 例えば、ラインセンサユニット22Uは、図1に示すように対向配置されたラインセンサ22Aおよびラインセンサ22Bと、ラインセンサ[サイド型線状受光センサ]22Aからラインセンサ[サイド型線状受光センサ]22Bまでの間に架け渡るラインセンサ[架橋型線状受光センサ]22Cと、を含むことで、ラインセンサ22A~22Cを一定領域を囲む括弧状(“[”状)に配置している。すなわち、ラインセンサ22A、ラインセンサ22C、ラインセンサ22Bが、一連状になりつつ括弧状に配置されている。
 なお、ラインセンサユニット22Uにおけるラインセンサ22A~22Cで囲まれる矩形の領域を座標マップ領域MAとし、この座標マップ領域MAに重なって指等が配置される空間を対象物配置空間[座標マップ空間]MSとする。また、ラインセンサ22Cのライン方向をX方向、ラインセンサ22A・22Bのライン方向をY方向、X方向およびY方向に交差(直交等)する方向をZ方向とする。
 LEDユニット23Uは保護シート21上にて3つのLED23(23A~23C)を列状に配置させたユニットである。詳説すると、LEDユニット23UはLED[点状光源]23A~23Cを互いに間隔を空けつつ、ラインセンサ22Cに対向するように配置している。すなわち、LED23A~23Cはラインセンサ22Cのライン方向(X方向)に沿って列状に並び、且つラインセンサユニット22Uの配置形状である括弧状の開口を塞ぐように並んでいる。
 そして、LED23A~23Cは出射光[光源光]の進行方向を保護シート21のシート面(X方向とY方向とで規定されるXY面方向)に沿わせるとともに、ラインセンサ22A~22Cに囲まれた座標マップ領域MAに重なる対象物配置空間MS(すなわち、座標マップ領域MAに重なる保護シート21上の空間)に向ける。
 反射ミラーユニット24Uはラインセンサ22A~22Cと同様に、線状な反射ミラー24(24A~24C)を3つ並べたユニットである。詳説すると、反射ミラーユニット24Uは保護シート21上にて反射ミラー24Aをラインセンサ22Aに重ね、反射ミラー24Bをラインセンサ22Bに重ね、反射ミラー24Cをラインセンサ22Cに重ねる。すなわち、反射ミラーユニット24Uは座標マップ領域MAに重なる保護シート21上の対象配置空間MSを反射ミラー24A~24Cで囲む。
 その上、LED23Aは反射ミラー24Cに隣り合わない反射ミラー24Aの一端付近に配置される。別表現すると、LED23Aはライセンサ22Cに隣り合わないライセンサ22Aの一端付近に配置される。そのため、LED23Aの出射光は座標マップ領域MAに重なる保護シート21上、すなわち対象配置空間MSに行き渡る。
 また、LED23Bは反射ミラー24Cに隣り合わない反射ミラー24Bの一端付近に配置される。別表現すると、LED23Bはラインセンサ22Cに隣り合わないラインセンサ22Bの一端付近に配置される。そのため、LED23Bの出射光は座標マップ領域MAに重なる保護シート21上に行き渡る。
 また、LED23Cは反射ミラー24Aの一端と反射ミラー24Bの一端との間に配置される。別表現すると、LED23Cはラインセンサ22Aの一端とラインセンサ22Bの一端との間に配置される。そのため、LED23Cの出射光は座標マップ領域MAに重なる保護シート21上に行き渡る。
 さらに、保護シート21上の反射ミラーユニット24Uは反射ミラー24Aのミラー面をLEDユニット23Uの光を受光できるように傾けつつラインセンサ22Aの受光面に向け、反射ミラー24Bのミラー面をLEDユニット23Uの光を受光できるように傾けつつラインセンサ22Bの受光面に向け、さらに反射ミラー24Cのミラー面をLEDユニット23Uの光を受光できるように傾けつつラインセンサ22Cの受光面に向ける。
 このようになっていると、反射ミラーユニット24Uは保護シート21上の対象配置空間MSを行き交う光をラインセンサユニット22Uに導く。その結果、ラインセンサユニット22Uは対象配置空間MSを行き交う光を受光する。
 なお、反射ミラーユニット24U(すなわち、反射ミラー24A~24C)およびLEDユニット23U(すなわち、LED23A~23C)には外部への光漏れを抑えるために遮光フィルムBFが取り付けられているとよい。例えば、図2に示すように外部に面する反射ミラー24の外面、および外部に面するLED23の外面に遮光フィルムBFが貼られているとよい。
 マイコンユニット11は位置検出システムPMを制御するものであり、LEDドライバー18と位置検出ユニット12とを含む。
 LEDドライバー18はLEDユニット23UのLED23A~23Cに対して動作電流を供給するドライバーである。
 位置検出ユニット12はメモリ13、検知管理部14、囲み領域設定部15、結線設定部16、および位置特定部17を含む。
 メモリ13は対象配置空間MSに指等の対象物が配置された場合、その指等の位置を特定するための座標マップ領域MAを記憶する。座標マップ領域MAは、例えば図3Aに示すような括弧状配置のラインセンサ22A~22Cに組み込まれる受光チップCPの個数で規定される。
 例えば、ラインセンサ22Aに受光チップCPがm個、ラインセンサ22Bに受光チップCPがm個、ラインセンサ22Cに受光チップCPがn個、含まれるとする(なお、n、mともに複数である)。そして、このラインセンサユニット22Uでは、平行配置のラインセンサ22A・22Bにて、ラインセンサ22Aの最外の受光チップCPとラインセンサ22Bの最外の受光チップCPとがX方向に沿って向かい合う。さらに、ラインセンサ22Cは向かい合ったラインセンサ22A・22Bにおける最外の受光チップCP同士の間に架け渡る。
 すると、ラインセンサ22A~22Cにおける受光チップCP毎の幅Wを、各受光チップCPを含むラインセンサ22A~22Cのライン方向に対して直交する方向に延ばした大区画領域で、座標マップ領域MAは区分けされる。
 詳説すると、ラインセンサ22Aにおける受光チップCP毎の幅WはX方向に延びてm個の大区画領域になり、ラインセンサ22Bにおける受光チップCP毎の幅WはX方向に延びてm個の大区画領域になる。なお、ラインセンサ22Aに含まれる受光チップCPに基づく大区画領域と、ラインセンサ22Bに含まれる受光チップCPに基づく大区画領域とは一致する。また、ラインセンサ22Cにおける受光チップCP毎の幅WはY方向に延びてn個の大区画領域になる。
 そして、これらの大区画領域の重なる領域を小区画とすると、図3Bに示すように座標マップ領域MAは小区画で埋め尽くされた領域になる。別表現すると、マトリックス状の小区画を有する座標マップ領域MAが形成される。そして、このような座標マップ領域MAが形成されることで、この座標マップ領域MAに重なる対象配置空間MSにおける指等の位置を特定できる。
 なお、矩形の座標マップ領域MAにおける長手方向はX方向に沿い、短手方向はY方向に沿う。そして、隣り合うラインセンサ22Aおよびラインセンサ22Cにおいて、ラインセンサ22Cの端に隣り合わないラインセンサ22Aの端に位置する受光チップCPに基づく大区画領域と、ラインセンサ22Aの端に隣り合うラインセンサ22Cの端に位置する受光チップCPに基づく大区画領域と、で特定される小区画を、便宜上、基準区画Eとし、その位置をE(X,Y)=E(1,1)と表現する。なお、この基準区画Eの位置にLED23Aの出射点が重なると解釈できる。
 また、基準区画Eと同じY方向(Y座標)上の位置で、X方向(X座標)上における最大の位置にある区画を区画Fとし、その位置をF(X,Y)=F(Xn,1)と表現する(nはラインセンサ22Cにおける受光チップCPの数の個数と同じである)。なお、この区画Fの位置にLED23Bの出射点が重なると解釈でき、基準区画Eと区画Fとの中間の区画(区画J)にLED23Cの出射点が重なると解釈できる。
 また、基準区画Eと同じX方向上の位置で、Y方向上における最大の位置である区画を区画Gとし、その位置をG(X,Y)=F(1,Ym)と表現する(mはラインセンサ22A・22Bにおける受光チップCPの数の個数と同じである)。また、X方向上における最大の位置で、Y方向上における最大の位置である区画を区画Hとし、その位置をH(X,Y)=H(Xn,Ym)と表現する。
 検知管理部14はLEDドライバー18を介してLEDユニット23Uを制御するとともに、ラインセンサユニット22Uを介してそのラインセンサユニット22Uにおける受光状態を判断する。詳説すると、検知管理部14は制御信号でLED23A~23Cの発光タイミングおよび発光時間等を制御するととともに、ラインセンサ22A~22Cの受光信号の値(信号強度)からラインセンサ22A~22Cに生じた影の個数をカウントする[影カウント工程]。
 例えば、図4Aに示すように、対象配置空間MSにおける指等(対象物(1)(2))がLEDユニット23Uからの光を受けることで影が生じた場合、その影はLED23からの光の進行方向に沿って延び、ラインセンサユニット22Uにおけるラインセンサ22B・22C到達する。なお、図4Aにおいて、対象物(遮蔽物)(1)(2)に連なる濃いハッチング部分が影を意味し、それ以外の薄いハッチングは光が照射されている領域を意味し、ハッチングの施されたLED23Aは発光していることを意味する。
 すると、図4Bに示すように、ラインセンサユニット22Uにおける受光データ(受光信号)に変化領域V1・V2が生じる。なお、図中、受光データを示すグラフの配置をラインセンサ22A~22Cの位置に合わせている。検知管理部14はラインセンサユニット22Uにおける受光データ(データ信号の信号強度)に生じる変化領域V1・V2の数で、ラインセンサユニット22Uに重なる影の個数をカウントする。
 囲み領域設定部15は、座標マップ領域MAにてラインセンサユニット22Uにおける影と、その影を作り出すLED23とを繋げた囲み領域EAを設定する[囲み領域設定工程]。
 例えば、図5に示すように、囲み領域設定部15は1つの光源であるLED23Aと、そのLED23Aの光に基づくラインセンサ22Cにおける1つの影の幅の両端とで囲まれる領域(囲み領域EAa1)を設定する。また、囲み領域設定部15はLED23Aと、そのLED23Aの光に基づくラインセンサ22Bにおける1つの影の幅の両端とで囲まれる領域(囲み領域EAa2)を設定する。なお、この囲み領域EA(例えば、EAa1・EAa2)を用いて指等の対象物の位置を設定する仕方の詳細は後述する。
 結線設定部16は、座標マップ領域MAにてラインセンサユニット22Uにおける影のある一点と、その影を作り出すLED23とを結ぶ結線L(例えば、La1・La2)を設定する[結線設定工程]。なお、ある一点とは、図6に示すように例えばラインセンサ22における影の幅方向、すなわち影の到達する受光チップCPの並び方向での中間点が挙げられる。なお、この中間点とLED23とを結ぶ結線LはLED23を通りつつ、囲み領域EAにおけるLED23を頂点とする角度を2等分する線として設定されてもかまわない。この結線L(例えば、La1・La2)を用いて指等の対象物の位置を設定する仕方の詳細は後述する。
 位置特定部17は囲み領域設定部15で設定された囲み領域EA、および結線設定部16で設定された結線Lの少なくとも一方を用いて指等の対象物の位置を特定する[位置特定工程]。具体的には以下の通りである。
 例えば、検知管理部14がLEDドライバー18を介して、図7Aに示すようにLED23Aを発光させた場合、ラインセンサユニット22Uが対象物(1)(2)によって生じた影を検知すると、検知管理部14はラインセンサユニット22Uの受光データから影の数が2つであると判断する。
 次に、検知管理部14がLEDドライバー18を介して、図7Bに示すようにLED23Bを発光させた場合、ラインセンサユニット22Uが対象物(1)(2)によって生じた影を検知すると、検知管理部14はラインセンサユニット22Uの受光データから影の数が2つであると判断する。
 さらに、検知管理部14がLEDドライバー18を介して、図7Cに示すようにLED23Cを発光させた場合、ラインセンサユニット22Uが対象物(1)(2)によって生じた影を検知すると、検知管理部14はラインセンサユニット22Uの受光データから影の数が2つであると判断する。
 つまり、検知管理部14はLED23A~23Cを個別かつ順番に点灯させ、LED23A~23C毎の光で生じる対象物(1)(2)の影をラインセンサユニット22Uの受光データからカウントする。さらに、検知管理部14は各LED23A~23Cの光で生じた影の合計数をカウントする[影カウント工程]。この結果、図7A~図7Cに示されるように対象物(1)(2)が位置する場合、検知管理部14は影が6個生じたと判断する。
 また、検知管理部14はメモリ13から取得した座標マップ領域MAのデータ(マップデータ)から影が座標マップ領域MAの最外の線状領域のどの区画を占めるかを特定する(図3B参照)。
 詳説すると、影が基準区画Eから区画Gまでの一列状の区画領域、区画Gから区画Hまでの一列状の区画領域、および区画Hから区画Fまでの一列状の区画領域にて、どの区画を連続して占めるかを検知管理部14が特定する[特定区画データ設定工程]。そして、検知管理部14は座標マップ領域MAにて特定された区画のデータ(特定区画データ)を結線設定部16に送信する。
 結線設定部16は検知管理部14から送信されてきた特定区画データを用いて、座標マップ領域MAに結線Lを設定する。この結線Lは座標マップ領域MAにて1つの影の幅を示す複数の区画における一区画、例えば影を示す線状に並ぶ複数区画(特定区画データ)の中間の区画と、LED23の出射点を示す区画とを結ぶ結線である。
 例えば、LED23Aが発光した場合(図7A参照)、対象物(1)の影を示す特定区画データにて両端の区画同士の間の中間区画と、LED23Aの出射点を示す区画である基準区画Eとが結ばれて結線La1が設定される。また、LED23Aが発光した場合、対象物(2)の影を示す特定区画データにて両端の区画同士の間の中間区画と、LED23Aの出射点を示す区画である基準区画Eとが結ばれて結線La2が設定される。
 次に、LED23Bが発光した場合(図7B参照)、対象物(1)の影を示す特定区画データにて両端の区画同士の間の中間区画と、LED23Bの出射点を示す区画である区画Fとが結ばれて結線Lb1が設定される。また、LED23Bが発光した場合、対象物(2)の影を示す特定区画データにて両端の区画同士の間の中間区画と、LED23Bの出射点を示す区画である区画Fとが結ばれて結線Lb2が設定される。
 さらに、LED23Cが発光した場合(図7C参照)、対象物(1)の影を示す特定区画データにて両端の区画同士の間の中間区画と、LED23Cの出射点を示す区画である区画Jとが結ばれて結線Lc1が設定される。また、LED23Cが発光した場合、対象物(2)の影を示す特定区画データにて両端の区画同士の間の中間区画と、LED23Cの出射点を示す区画である区画Jとが結ばれて結線Lc2が設定される。
 このようにして、結線設定部16は6本の結線Lを設定し[結線設定工程]、それらの結線Lを示すデータ(結線データ)を位置特定部17に送信する。
 位置特定部17は結線設定部16から送信された結線データから結線L同士の交点を特定する。すると、図8に示すように11個の交点IP1~IP11が特定される。なお、白線矢印の先に示す図は拡大部分図である。これら交点IPの位置は、例えば基準区画Eを不動点、基準点Eから区画Fまでを結ぶ線(X軸ともいえる)を基線とした三角測量法で特定される。さらに、位置特定部17は11個の交点IPのうち、3個の交点IPの密集する箇所を2箇所特定する。なお、密集と判断する交点IP同士の間隔の設定は任意である。
 例えば、位置特定部17は交点IP1(結線La1と結線Lb1との交点)、交点IP2(結線Lb1と結線Lc1との交点)、および交点IP3(結線Lc1と結線La1との交点)を密集する箇所と判断する。また、位置特定部17は交点IP4(結線La2と結線Lb2との交点)、交点IP5(結線Lb2と結線Lc2との交点)、および交点IP6(結線Lc2と結線La2との交点)を密集する箇所と判断する。そして、これら2箇所が指等の対象物(1)(2)の位置と特定される[位置特定工程]。
 つまり、位置特定部17を含む位置検出ユニット12はLED23Aに基づく結線La1と、LED23Bに基づく結線Lb1と、LED23Cに基づく結線Lc1とで生じる交点IP1~IP3の密集領域の一部を1つの対象物(1)の位置と判断し、LED23Aに基づく結線La2と、LED23Bに基づく結線Lb2と、LED23Cに基づく結線Lc2とで生じる交点IP4~IP6の密集領域の一部を別の1つの対象物(2)の位置と判断する。
 なお、より正確に対象物(1)(2)の位置の特定を要する場合、交点IPで囲まれた領域、すなわち交点IP1~IP3を頂点とする三角領域の重心、および交点IP4~IP6を頂点とする三角領域の重心を対象物(1)(2)の位置としてもよい。
 ところで、ラインセンサユニット22Uにてカウントされる影の個数は対象物(1)(2)の配置によって変わる。例えば、図9Aに示すようにLED23Aが発光し、ラインセンサユニット22Uの受光データから検知管理部14が影の数は2つであると判断する場合や、図9Bに示すようにLED23Bが発光し、ラインセンサユニット22Uの受光データから検知管理部14が影の数は2つであると判断する場合以外に、図9Cに示すような場合も生じる。
 すなわち、検知管理部14がLEDドライバー18を介して、図9Cに示すようにLED23Cを発光させた場合、対象物(2)によって生じた影の範囲に対象物(1)が位置するために、影が1つしか生じない場合も生じる。このような場合、検知管理部14はラインセンサユニット22Uの受光データから影の数が1つであると判断する。
 すると、図9A~図9Cに示すように、検知管理部14はLED23A~23Cを個別かつ順番に点灯させ、LED23A~23C毎の光で生じる対象物(1)(2)の影をラインセンサユニット22Uの受光データからカウントする。そして、検知管理部14は各LED23A~23Cの光で生じた影の合計数を5個と判断する[影カウント工程]。
 さらに、検知管理部14は影が座標マップ領域MAの最外の線状領域のどの区画を占めるかを示した特定区画データを求め[特定区画データ設定工程]、その特定区画データを結線設定部16と囲み領域設定部15とに送信する。詳説すると、検知管理部14はLED23Aの発光に応じた2個の特定区画データと、LED23Bの発光に応じた2個の特定区画データとを結線設定部16に送信し、LED23Cの発光に応じた1個の特定区画データを囲み領域設定部15に送信する。なお、特定区画データの送信先は影の個数に応じて検知管理部14が設定する。
 結線設定部16は検知管理部14から送信されてきた特定区画データを用いて結線Lを設定する。すなわち、結線設定部16はLED23Aの発光に応じた特定区画データに基づく結線La1・La2[第1の結線]と、LED23Bの発光に応じた特定区画データに基づく結線Lb1・Lb2[第2の結線]とを設定する[結線設定工程]。そして、結線設定部16は4本の結線データを位置特定部17に送信する。
 囲み領域設定部15は1つの光源であるLED23Cと、そのLED23Cの光に基づくラインセンサユニット22Uにおける1つの影の幅の両端とで囲まれる領域(囲み領域EAc12)を設定する[囲み領域設定工程]。詳説すると、LED23Cの出射点を示す区画である区画Jと、LED23Cの発光に応じた特定区画データに示される最外の2つの区画とで囲み領域EAc12を設定する。言い換えると、区画Jと特定区画データの最外の一区画との結線が設定されるとともに、区画Jと特定区画データの最外の別の一区画との結線が設定される。
 このようにして、囲み領域設定部15は1つの囲み領域EAc12を求め、その囲み領域EAc12を示すデータである囲み領域データ(言い換えると、囲み領域EAc12の外周にあたる結線データおよび特定区画データ)を位置特定部17に送信する。
 位置特定部17は結線設定部16から送信された結線データから結線L同士の交点を特定する。すると、図10に示すように4個の交点IP21~IP24が特定される。さらに、位置特定部17は囲み領域設定部15から送信された囲み領域データから4個の交点IP21~IP24のうち囲み領域EAc12に重なる交点IPを特定する[位置特定工程]。
 例えば、位置特定部17は交点IP21(結線La1と結線Lb1との交点)と交点IP22(結線La2と結線Lb2との交点)とが囲み領域EAc12に重なる交点IPと判断する。そして、これら2つの交点IP21・IP22が指等の対象物(1)(2)の位置と特定される。
 つまり、位置特定部17を含む位置検出ユニット12は、同時に2つの影を生成する1つのLED23Aから、それら2つの影を個別に結ぶことで生じる2本の結線La1・La2と、同時に2つの影を生成するLED23Bから、それら2つの影を個別に結ぶことで生じる2本の結線Lb1・Lb2と、の交点IP21~IP24を特定する。
 さらに、位置検出ユニット12はLED23Cと、そのLED23Cの光に基づくセンサユニット22Uにおける1つの影の幅の両端とで囲まれる座標マップ領域MAにおける囲み領域EAc12を特定し、その囲み領域EAc12に重なる交点IPを特定する。そして、図10に示すようにこれらの交点IP21・IP22が指等の対象物(1)(2)の位置と特定される。
 なお、図9A~図9Cに示すように3個のLED23のうちの1つであるLED23Cからの光でラインセンサユニット22Uが1つの影しか検知しない場合以外に、図11A~図11Cに示すように3個のLED23のうちの2つであるLED23AおよびLED23Cからの光でラインセンサユニット22Uが1つの影しか検知しない場合もある。
 つまり、図11A~図11Cに示すように、検知管理部14はLED23A~23Cを個別かつ順番に点灯させ、LED23A~23C毎の光で生じる対象物(1)(2)の影をラインセンサユニット22Uの受光データからカウントする。そして、検知管理部14は各LED23A~23Cの光で生じた影の合計数を4個と判断する[影カウント工程]。さらに、検知管理部14はLED23Aの発光に応じた1個の特定区画データと、LED23Bの発光に応じた2個の特定区画データと、LED23Cの発光に応じた1個の特定区画データとを囲み領域設定部15に送信する[特定区画データ設定工程]。
 囲み領域設定部15はLED23Aと、そのLED23Aの光に基づくラインセンサユニット22Uにおける1つの影の幅の両端とで囲まれる領域(囲み領域EAa12)を設定する。詳説すると、LED23Aの出射点を示す区画である基準区画Eと、LED23Aの発光に応じた特定区画データに示される最外の2つの区画とで囲み領域EAa12を設定する[囲み領域設定工程]。言い換えると、基準区画Eと特定区画データの最外の一区画との結線が設定されるとともに、基準区画Eと特定区画データの最外の別の一区画との結線が設定される。そして、囲み領域設定部15はこの囲み領域EAa12[第2囲み領域]を示す囲み領域データを位置特定部17に送信する。
 また、囲み領域設定部15はLED23Bと、そのLED23Bの光に基づくラインセンサユニット22Uにおける2つの影の幅の両端とで囲まれる領域(囲み領域EAb1・EAb2)を設定する。詳説すると、LED23Bの出射点を示す区画である区画Fと、LED23Bの発光に応じた特定区画データ毎に示される最外の2つの区画とで囲み領域EAb1・EAb2を設定する[囲み領域設定工程]。言い換えると、区画Fと各特定区画データの最外の一区画との結線が設定されるとともに、区画Fと各特定区画データの最外の別の一区画との結線が設定される。そして、囲み領域設定部15はこの囲み領域EAb1・EAb2[第1囲み領域]を示す囲み領域データを位置特定部17に送信する。
 また、囲み領域設定部15はLED23Cと、そのLED23Cの光に基づくラインセンサユニット22Uにおける1つの影の幅の両端とで囲まれる領域(囲み領域EAc12)を設定する[囲み領域設定工程]。そして、囲み領域設定部15はこの囲み領域EAc12[第3囲み領域]を示す囲み領域データを位置特定部17に送信する。
 位置特定部17は囲み領域設定部15から送信されてきた囲み領域データEAから異種の囲み領域EAの重なる重畳領域PAを特定する。例えば、図12Aに示すようにLED23Aに基づく囲み領域EAa12と、LED23Bに基づく2つの囲み領域EAのうちの一方である囲み領域EAb1と、LED23Cに基づく囲み領域EAc12との重なった領域PA1を特定する。そして、この重畳領域PA1を覆える程度の範囲(例えば、重畳領域PA1を覆う最大径の円)が指等の対象物(1)の位置と特定される[位置特定工程]。
 また、位置特定部17は図12Bに示すようにLED23Aに基づく囲み領域EAa12と、LED23Bに基づく2つの囲み領域EAのうちの他方である囲み領域EAb2と、LED23Cに基づく囲み領域EAc12との重なった領域PA2を特定する。そして、この重畳領域PA2を覆える程度の範囲が指等の対象物(2)の位置と特定される[位置特定工程]。
 つまり、位置特定部17を含む位置検出ユニット12はLED23Bと、そのLED23Bの光に基づくラインセンサユニット22Uにおける2つの影の各々の幅の両端とで囲まれる2つの囲み領域EAb1・EAb2を座標マップ領域MA上に設定する。
 また、位置検出ユニット12はLED23Aと、そのLED23Aの光に基づくラインセンサユニット22Uにおける1つの影の幅の両端とで囲まれる1つの囲み領域EAa12を座標マップ領域MA上に設定する。
 また、位置検出ユニット12はLED23Cと、そのLED23Cの光に基づくラインセンサユニット22Uにおける1つの影の幅の両端とで囲まれる1つの囲み領域EAc12を座標マップ領域MA上に設定する。
 そして、位置検出ユニット12は図12Cに示すように1つの囲み領域EAb1、囲み領域EAa12、および囲み領域EAc12の重なり領域に含まれる一部と、別の1つの囲み領域EAb2、囲み領域EAa12、および囲み領域EAc12の重なり領域に含まれる一部とを対象物(1)(2)の位置とする。
 なお、より正確に対象物(1)(2)の位置の特定を要する場合、重畳領域PA1の重心、または重畳領域PA2を覆う最大径の円の中心を対象物の位置としてもよい。
 また、LED23A~23Cの各々からの光でラインセンサユニット22Uが1つの影しか検知しない場合としては、対象配置空間MSに1個の対象物だけしか配置されていない場合がある。
 すなわち、図13A~図13Cに示すように、検知管理部14はLED23A~23Cを個別かつ順番に点灯させ、LED23A~23C毎の光で生じる対象物(1)の影をラインセンサユニット22Uの受光データからカウントする。つまり、検知管理部14は各LED23A~23Cの光で生じた影の合計数を3個と判断する[影カウント工程]。
 さらに、検知管理部14はLED23Aの発光に応じた1個の特定区画データと、LED23Bの発光に応じた1個の特定区画データと、LED23Cの発光に応じた1個の特定区画データとを結線設定部16に送信する[特定区画データ設定工程]。
 結線設定部16は検知管理部14から送信されてきた特定区画データを用いて、結線Lを設定する。すなわち、結線設定部16はLED23Aの発光に応じた特定区画データに基づく結線La1と、LED23Bの発光に応じた特定区画データに基づく結線Lb1と、LED23Cの発光に応じた特定区画データに基づく結線Lc1とを設定する[結線設定工程]。そして、結線設定部16は3本の結線データを位置特定部17に送信する。
 位置特定部17は結線設定部16から送信された結線データから結線L同士の交点を設定する。すると、図14に示すように3個の交点IP1~1P3が設定される。そして、この交点の密集する箇所が指等の対象物(1)の位置と特定される[位置特定工程]。
 つまり、位置特定部17を含む位置検出ユニット12はLED23Aに基づく結線La1と、LED23Bに基づく結線Lb1と、LED23Cに基づく結線Lc1とで生じる交点IP1~IP3の密集流域の一部を1つの対象物の位置と判断する。
 なお、より正確に対象物の位置の特定を要する場合、交点IP1~IP3を頂点とする三角領域の重心を対象物(1)の位置としてもよい。
 以上を総括すると、位置検出ユニット12は複数のLED23A~23Cの光が対象配置空間MS(座標マップ空間)に配置される2つの対象物(1)(2)を照らすことで生じるラインセンサユニット22Uにおける3つ以上の影に応じた受光量変化(受光データにおける変化領域V1・V2の発生)から、座標マップ領域MAにおける1つの対象物(1)または2つの対象物(1)(2)の位置を、三角測量法を用いて検出する。言い換えると、ラインセンサユニット22Uにて囲まれる座標マップ領域MAに重なる対象物の影をラインセンサユニット22Uの受光データから検出し、その影に基づくデータ(特定区画データ、結線データ、囲み領域データ等)を用いて三角測量法で対象物の位置を検出する。
 つまり、位置検出ユニット12を含む位置検出システムPMは機構上(ハード上)、括弧状のラインセンサユニット22Uと、括弧状の開口に並ぶ3個のLED23A~23C(LEDユニット23U)とを含むだけで、2つの対象物の同時検出(同時認識)できる。そのため、この位置検出システムPMを搭載した液晶表示パネル49、すなわちタッチパネル49は2つの対象物(指等)を用いたジェスチャー動作を認識できる。
 その上、このタッチパネル49は比較的簡単な構造であるので、タッチパネル49、さらにタッチパネル49を搭載した液晶表示装置69のコストアップを抑制することができる。
 [その他の実施の形態]
 なお、本発明は上記の実施の形態に限定されず、本発明の趣旨を逸脱しない範囲で、種々の変更が可能である。
 例えば、上記実施形態において、LEDユニット23Uに含まれるLED23の個数は3個であったが、これに限定されるものではない。例えば、4個以上のLED23が含まれていてもかまわない。
 すなわち、LEDユニット23UがP個(3個以上の整数)の複数のLED23を含み、それらLED23を互いに間隔を空けつつラインセンサ22Cに対向するように配置して順番に点灯させることで対象配置空間MSに光を供給している場合、位置検出ユニット12は複数のLED23の光が対象配置空間MSに配置される(P-1)個以下の指等の対象物を照らすことで生じるラインセンサユニット22UにおけるP個以上の影に応じた受光量変化から、座標マップ領域MAにおける単数または複数の対象物の位置を、三角測量法を用いて検出する。
 また、LEDユニット23Uの光は反射ミラーユニット24Uを介してラインセンサユニット22Uに入射していたが、反射ミラーユニット24Uが必須とは限らない。
 例えば、図15の断面図に示すようにラインセンサユニット22Uが保護シート21上に配置され、反射ミラーユニット24U等の光屈折部材を介することなくLEDユニット23Uの光を受光してもよい。その結果、液晶表示パネル49の部品点数が削減するのでコストダウンが図れる。
 また、上記実施形態では、点状光源として、発光素子であるLED23を例に挙げて説明したが、これに限定されるものではない。例えば、レーザ素子のような発光素子、あるいは有機EL(Electro Luminescence)、または無機ELのような自発光材料で形成される発光素子であってもかまわない。また、発光素子に限らず、ランプのような点状光源であってもかまわない。
 また、上記実施形態では、表示装置として、液晶表示装置69を例に挙げているが、これに限定されるものではない。例えば、プラズマディスプレイ装置、または電子黒板のような他の表示装置に位置検出システムPMが搭載されてもよい。
 ところで、以上のような位置検出は位置検出プログラムで実現される。そして、このプログラムはコンピュータにて実行可能なプログラムであり、コンピュータに読み取り可能な記録媒体に記録されてもよい。なぜなら、記録媒体に記録されたプログラムは持ち運び自在になるためである。
 なお、この記録媒体としては、例えば分離される磁気テープやカセットテープ等のテープ系、磁気ディスクやCD-ROM等の光ディスクのディスク系、ICカード(メモリカードを含む)や光カード等のカード系、あるいはフラッシュメモリ等による半導体メモリ系が挙げられる。
 また、マイコンユニット11は通信ネットワークからの通信で位置検出制御プログラムを取得してもよい。なお、通信ネットワークとしては有線無線を問わず、インターネット、赤外線通信等が挙げられる。
 本発明は、対象物の位置を検出する位置検出システム、およびその位置検出システムを搭載する表示パネル(液晶表示パネル等)、さらに表示パネルを搭載する表示装置(液晶表示装置等)において利用可能である。
   PM    位置検出システム
   11    マイコンユニット
   12    位置検出ユニット
   13    メモリ
   14    検知管理部
   15    囲み領域設定部
   16    結線設定部
   17    位置特定部
   18    LEDドライバー
   21    保護シート
   22    ラインセンサ(線状受光センサ)
   22A   ラインセンサ(サイド型線状受光センサ)
   22B   ラインセンサ(サイド型線状受光センサ)
   22C   ラインセンサ(架橋型線状受光センサ)
   22U   ラインセンサユニット
   23    LED(光源)
   23U   LEDユニット(光源ユニット)
   24    反射ミラー
   24U   反射ミラーユニット
   L     結線
   EA    囲み領域
   IP    交点
   49    液晶表示パネル(表示パネル、タッチパネル)
   59    バックライトユニット(照明装置)
   69    液晶表示装置(表示装置)

Claims (6)

  1.  複数の光源を含む光源ユニットと、
     上記光源の光を受光する受光センサユニットと、
     上記光源からの光を遮る遮蔽物の位置を上記受光センサにおける受光量変化から検出する位置検出ユニットと、
    を含む位置検出システムであって、
     上記受光センサユニットが、対向する2つのサイド型線状受光センサと、上記一方のサイド型線状受光センサから他方のサイド型線状受光センサまでの間に架け渡る架橋型線状受光センサと、を含むことで、
     これら線状受光センサに囲まれる領域に重なる空間が、上記受光量変化から上記遮蔽物の位置特定可能な2次元の座標マップ空間になっており、
     上記光源ユニットは、P個(3個以上の整数)の複数の光源を含み、それら光源を互いに間隔を空けつつ上記架橋型線状受光センサに対向するように配置し、順番に点灯させることで上記座標マップ空間に光を供給しており、
     上記位置検出ユニットは、複数の上記光源の光が上記座標マップ空間に配置される(P-1)個以下の上記遮蔽物を照らすことで生じる上記線状受光センサユニットにおけるP個以上の影に応じた上記受光量変化から、上記座標マップ領域における単数または複数の上記遮蔽物の位置を、三角測量法を用いて検出する位置検出システム。
  2.  3つの上記光源が順番に点灯した後に、上記線状受光センサユニットにて上記影が合計で3つまたは6つ生じた場合、
     上記位置検出ユニットは、
    上記3つの光源における1つと、その光源の光に基づく上記線状受光センサユニットにおける上記影とを結ぶ結線、
    上記3つの光源における別の1つと、その光源の光に基づく上記線状受光センサユニットにおける上記影とを結ぶ結線、
    上記3つの光源における最後の1つと、その光源の光に基づく上記線状受光センサユニットにおける上記影とを結ぶ結線、
    の3種類の上記結線により生じる交点の密集領域の一部を上記遮蔽物の位置とする請求項1に記載の位置検出システム。
  3.  1つの上記光源の点灯で上記線状受光センサユニットに上記影が同時に2つ生じ、別の1つの上記光源の点灯で上記線状受光センサユニットに上記影が同時に2つ生じ、さらに別の1つの上記光源の点灯で上記線状受光センサユニットに上記影が1つ生じることで、合計5つの上記影が生じた場合、
     上記位置検出ユニットは、
    (1)同時に2つの上記影を生成する1つの上記光源から、それら2つの影を個別に結ぶことで生じる2本の第1の上記結線と、同時に2つの上記影を生成する別の1つの上記光源から、それら2つの影を個別に結ぶことで生じる2本の第2の上記結線と、の交点、
    (2)さらに別の光源と、その光源の光に基づく上記線状受光センサにおける1つの影における幅の両端とで囲まれる上記座標マップ領域における囲み領域に重なる上記交点、
    上記(1)および(2)を満たす交点を上記遮蔽物の位置とする請求項1に記載の位置検出システム。
  4.  1つの上記光源の点灯で上記線状受光センサユニットに上記影が同時に2つ生じ、別の1つの上記光源の点灯で上記線状受光センサユニットに上記影が1つ生じ、さらに別の1つの上記光源の点灯で上記線状受光センサユニットに上記影が1つ生じることで、合計4つの上記影が生じた場合、
     上記位置検出ユニットは、
    1つの上記光源と、その光源の光に基づく上記線状受光センサユニットにおける2つの影の各々の幅の両端とで囲まれる上記座標マップ領域における2つの囲み領域を、2つの第1囲み領域とし、
    別の1つの上記光源と、その光源の光に基づく上記線状受光センサユニットにおける1つの影の幅の両端とで囲まれる上記座標マップ領域における1つの囲み領域を、1つの第2囲み領域とし、
    さらに別の1つの上記光源と、その光源の光に基づく上記線状受光センサユニットにおける1つの影の幅の両端とで囲まれる上記座標マップ領域における1つの囲み領域を、1つの第3囲み領域とし、
    1つの上記第1囲み領域、上記第2囲み領域、および上記第3囲み領域の重なり領域に含まれる一部と、別の1つの上記第1囲み領域、上記第2囲み領域、および上記第3囲み領域の重なり領域に含まれる一部と、を上記遮蔽物の位置とする請求項1に記載の位置検出システム。
  5.  請求項1~4のいずれか1項に記載の位置検出システムを搭載した表示パネル。
  6.  請求項5に記載の表示パネルを搭載した表示装置。
PCT/JP2010/056567 2009-09-15 2010-04-13 位置検出システム、表示パネル、および表示装置 WO2011033806A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/395,498 US20120176342A1 (en) 2009-09-15 2010-04-13 Position detection system, display panel, and display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009213603 2009-09-15
JP2009-213603 2009-09-15

Publications (1)

Publication Number Publication Date
WO2011033806A1 true WO2011033806A1 (ja) 2011-03-24

Family

ID=43758419

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/056567 WO2011033806A1 (ja) 2009-09-15 2010-04-13 位置検出システム、表示パネル、および表示装置

Country Status (2)

Country Link
US (1) US20120176342A1 (ja)
WO (1) WO2011033806A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110316005A1 (en) * 2009-03-06 2011-12-29 Sharp Kabushiki Kaisha Display apparatus
KR101155923B1 (ko) * 2010-07-23 2012-06-20 삼성에스디아이 주식회사 광 주사형 터치 패널

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6165540U (ja) * 1984-10-03 1986-05-06
JPH11305942A (ja) * 1998-04-20 1999-11-05 Nippon Signal Co Ltd:The 入力装置
JP2004126929A (ja) * 2002-10-02 2004-04-22 Ricoh Elemex Corp 座標検知装置
JP2006146816A (ja) * 2004-11-24 2006-06-08 Canon Inc 座標入力方法及びその装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1109539A (en) * 1978-04-05 1981-09-22 Her Majesty The Queen, In Right Of Canada, As Represented By The Ministe R Of Communications Touch sensitive computer input device
US8339379B2 (en) * 2004-04-29 2012-12-25 Neonode Inc. Light-based touch screen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6165540U (ja) * 1984-10-03 1986-05-06
JPH11305942A (ja) * 1998-04-20 1999-11-05 Nippon Signal Co Ltd:The 入力装置
JP2004126929A (ja) * 2002-10-02 2004-04-22 Ricoh Elemex Corp 座標検知装置
JP2006146816A (ja) * 2004-11-24 2006-06-08 Canon Inc 座標入力方法及びその装置

Also Published As

Publication number Publication date
US20120176342A1 (en) 2012-07-12

Similar Documents

Publication Publication Date Title
JP5552296B2 (ja) 光学式タッチ装置及び遮光物の位置検出方法
US8970554B2 (en) Assembly having display panel and optical sensing frame and display system using the same
US8896576B2 (en) Touch panel, liquid crystal panel, liquid crystal display device, and touch panel-integrated liquid crystal display device
US8866797B2 (en) Display device with position detecting function and electronic apparatus
JP6337149B2 (ja) 照明装置、及び表示装置
US10353135B2 (en) Backlight unit and mobile electronic device including the same
US8803845B2 (en) Optical touch input system and method of establishing reference in the same
US10353132B2 (en) Display device
US8736584B2 (en) Coordinate sensor and display device
JP2012173029A (ja) 光学式位置検出装置および入力機能付き表示システム
US8400429B2 (en) Touch device and touch method
US20100225581A1 (en) Optical position detecting device, display device with position detecting function, and electronic apparatus
US20150035804A1 (en) Optical position detection device and display system with input function
WO2011033806A1 (ja) 位置検出システム、表示パネル、および表示装置
JP5342650B2 (ja) 位置検出システム、表示パネル、および表示装置
TWI451312B (zh) 光學觸控裝置及其光源組件
JP5406935B2 (ja) 位置検出システム、表示パネル、および表示装置
TWI448943B (zh) 觸控裝置
JP2012133631A (ja) 光学式位置検出装置
JP2001228972A (ja) 表示装置
JP2011065408A (ja) 光学式位置検出装置、光学式位置検出装置の校正方法、および位置検出機能付き表示装置
JP2011038960A (ja) 光学式位置検出装置、位置検出機能付き表示装置および光学式位置検出方法
JP2012194130A (ja) 光学式位置検出装置および入力機能付き表示システム
JP2012194127A (ja) 光学式位置検出装置および入力機能付き表示システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10816919

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13395498

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10816919

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP