WO2011052264A1 - 位置検出システム、表示パネル、および表示装置 - Google Patents

位置検出システム、表示パネル、および表示装置 Download PDF

Info

Publication number
WO2011052264A1
WO2011052264A1 PCT/JP2010/060435 JP2010060435W WO2011052264A1 WO 2011052264 A1 WO2011052264 A1 WO 2011052264A1 JP 2010060435 W JP2010060435 W JP 2010060435W WO 2011052264 A1 WO2011052264 A1 WO 2011052264A1
Authority
WO
WIPO (PCT)
Prior art keywords
lighting
position detection
light
led
shadows
Prior art date
Application number
PCT/JP2010/060435
Other languages
English (en)
French (fr)
Inventor
北川 大二
浩二 熊田
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to JP2011538281A priority Critical patent/JP5406935B2/ja
Priority to EP10826399A priority patent/EP2495642A1/en
Priority to US13/498,704 priority patent/US20120182268A1/en
Publication of WO2011052264A1 publication Critical patent/WO2011052264A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual

Definitions

  • the present invention relates to a position detection system that detects the position of an object, a display panel (such as a liquid crystal display panel) that includes the position detection system, and a display device (such as a liquid crystal display device) that includes the display panel. .
  • a position detection system that detects the position of an object
  • a display panel such as a liquid crystal display panel
  • a display device such as a liquid crystal display device
  • a recent liquid crystal display device may be equipped with a touch panel that can set various instructions on the liquid crystal display device by touching a finger or the like (for example, Patent Document 1).
  • a touch panel that can set various instructions on the liquid crystal display device by touching a finger or the like (for example, Patent Document 1).
  • the position detection system shown in this figure includes a line sensor unit 122U (an assembly of line sensors 122A to 122C) arranged in a parenthesis shape (“[” shape), and an area ma surrounded by the line sensor unit 122U. And two LEDs 123 (123A and 123B) for supplying light.
  • connection sL the line formed by connecting the shadow and the LED 123 causing the shadow (specifically, the connection sLa1 and The intersection with the connection sLb1 is specified as the position of the object (1)).
  • This position detection process will be described in detail as shown in the flowchart of FIG. That is, first, the LED 123A is turned on (STEP 101), and then the number of shadows in the line sensor unit 122U is counted (STEP 102). Thereafter, the LED 123A is turned off (STEP 103), the LED 123B is turned on (STEP 104), the number of shadows in the line sensor unit 122U is counted again (STEP 105), and then the LED 123B is turned off (STEP 106).
  • connection with the connection sLa1 is performed by receiving the light of the LED 123A.
  • a connection sLb1 and a connection sLb2 are generated (where two objects are placed in the area ma is referred to as multi-touch).
  • the present invention has been made to solve the above problems.
  • the object is to provide a position detection system or the like that can shorten the time required for position detection.
  • the position detection system receives a light source unit including a plurality of light sources, a light-receiving sensor unit that receives light from the light source in an enclosed shape, and a shadow of an object that overlaps the enclosed area surrounded by the light-receiving sensor unit.
  • a position detection unit that detects from the light reception data of the sensor unit and detects the position of the object by triangulation using data based on the shadow.
  • the position detection unit divides a plurality of light sources into a plurality of groups, lights each group, and causes shadows that are generated based on the object by the first lighting and detected by the light receiving sensor unit. Or the next lighting is determined according to the total number of shadows that are generated based on the object in the first and second lighting and detected by the light receiving sensor unit.
  • the position detection time can be changed according to the number of shadows. Therefore, the position detection time can be shortened.
  • one of the plurality of sets includes a two-type set including two light sources, and when the total number of shadows is 0 or 2 by the first lighting by the light source of the two-type set It is desirable that the second lighting is not performed for the second time, and the position of a single object is detected from the shadow data generated by the lighting with the two light sources.
  • the number of objects is zero, so naturally position detection may not be performed. Further, when the total number of shadows based on the two light sources is two, the number of objects is one, so that the position of the object can be detected early by relatively simple position detection. Therefore, for example, such a position detection system detects the position of an object earlier than a position detection system that requires individual lighting of all light sources, even though there is a single object.
  • the second lighting is performed with the second light source in another group, and the two-type light source It is desirable that the positions of a plurality of objects are detected from shadow data generated by lighting by the shadow data generated by lighting by a light source in another group after the second time.
  • the position detection unit detects the positions of a plurality of objects using the shadow generated by the lighting. That is, when the number of objects is two or more, position detection is performed by extending the time, but in other cases, the position detection time is shortened.
  • this position detection system although there are three or more light sources, it is lit only twice for position detection. Therefore, this position detection system, for example, lights up three light sources individually (in short, it is turned on three times or more) and detects the position of the object earlier than a position detection system that detects the position of the object. The position can be detected.
  • two of the plurality of sets include a single type set including one light source, and the first lighting by the first single type set and the second separate type set.
  • the total number of shadows is 0 or 2 in the second lighting by the one-piece set, the next lighting that is the third time is not performed, and the lighting is caused by the two-time lighting by the one-piece set. It is desirable that the position of a single object is detected from shadow data.
  • the position of the object is detected at an early stage by relatively simple position detection. Therefore, for example, such a position detection system detects the position of an object earlier than a position detection system that requires individual lighting of all light sources, even though there is a single object.
  • the total number of shadows is 3 or more in the first lighting by the first single group and the second lighting by the second another single group, it is the third time.
  • Data of shadows caused by lighting by the first light source of the first type and the second time when the next lighting is performed, and data of shadows caused by lighting by the light source of the third time after the first time it is desirable that the positions of a plurality of objects are detected.
  • the object is always illuminated by a single light source, so the darkness (darkness) of the shadow detected by the light receiving sensor unit is high. That is, a shadow caused by one light source is not illuminated by another light source. Therefore, the shadow detection accuracy of the light receiving sensor unit is increased, and consequently the position detection accuracy of the object is also increased.
  • a display panel on which the position detection system as described above is mounted is also the present invention, and further, a display device on which the display panel is mounted is also the present invention.
  • the position detection system of the present invention it is possible to shorten the position detection time (position detection cycle time) for the position detection target.
  • FIG. 6 is a partial cross-sectional view of a liquid crystal display device [display device] 69.
  • the liquid crystal display device 69 includes a backlight unit [illumination device] 59 and a liquid crystal display panel [display panel] 49.
  • the backlight unit 59 is an illuminating device on which a light source such as an LED (Light Emitting Diode) or a fluorescent tube is mounted, for example. Irradiate.
  • a light source such as an LED (Light Emitting Diode) or a fluorescent tube is mounted, for example. Irradiate.
  • the liquid crystal display panel 49 that receives light includes an active matrix substrate 42 and a counter substrate 43 that sandwich the liquid crystal 41.
  • the active matrix substrate 42 is arranged so that the gate signal lines and the source signal lines intersect with each other, and an application to the liquid crystal (liquid crystal layer) 41 is made at the intersection of both signal lines.
  • a switching element for example, a thin film transistor required for voltage adjustment is arranged.
  • a polarizing film 44 is attached to the light receiving side of the active matrix substrate 42 and the emission side of the counter substrate 43.
  • the liquid crystal display panel 49 as described above displays an image using the change in light transmittance caused by the inclination of the liquid crystal molecules 41 in response to the applied voltage.
  • a position detection system PM is also mounted on the liquid crystal display panel 49 (note that the liquid crystal display panel 49 on which the position detection system PM is mounted may be referred to as a touch panel 49).
  • This position detection system PM is a system that detects where the finger as shown in FIG. 6 is on the liquid crystal display panel 49.
  • FIG. 7 is a plan view of the position detection system PM and a block diagram of the microcomputer unit 11 required for controlling the position detection system PM). And is an explanatory diagram).
  • the position detection system PM includes a protection sheet 21, a line sensor unit [light receiving sensor unit] 22U, an LED unit [light source unit] 23U, and a microcomputer unit 11.
  • the protective sheet 21 is a sheet that covers the counter substrate 43 of the liquid crystal display panel 49 (specifically, the polarizing film 44 on the counter substrate 43). This protective sheet 21 is disposed between the finger and the display surface by an object such as a finger being disposed on the display surface side of the liquid crystal display panel 49, and prevents damage to the liquid crystal display panel 49.
  • the line sensor unit 22U is a unit in which three line sensors 22 (22A, 22B, and 22C) in which the light receiving chips CP are linearly arranged on the protective sheet 21 are arranged (however, the three line sensors 22A). ⁇ 22C may be integrated in a series). Specifically, the line sensor unit 22U arranges the line sensors 22A to 22C so as to surround a certain region (enclosed shape). However, the arrangement shape of the line sensor unit 22U is not particularly limited as long as it is a surrounding shape surrounding a certain region.
  • the line sensor unit 22U includes a line sensor 22A and a line sensor 22B arranged opposite to each other, and a line sensor [side type linear light receiving sensor] 22A to a line sensor [side type linear light receiving sensor].
  • the line sensors 22A to 22C are arranged in a bracket shape (“[” shape) surrounding a certain area by including a line sensor [bridged linear light receiving sensor] 22C extending between 22B and 22B.
  • the line sensor 22A, the line sensor 22C, and the line sensor 22B are arranged in parentheses while being in a series).
  • a rectangular area surrounded by the line sensors 22A to 22C in the line sensor unit 22U is defined as a coordinate map area MA. Further, the line direction of the line sensor 22C is the X direction, the line direction of the line sensors 22A and 22B is the Y direction, and the direction intersecting (orthogonal) with the X direction and the Y direction is the Z direction.
  • the LED unit 23U is a unit in which three LEDs 23 (23A to 23C) are arranged in a row on the protective sheet 21. Specifically, the LED unit 23U arranges the LEDs [point light sources] 23A to 23C so as to face the line sensor 22C while being spaced apart from each other ⁇ that is, the LEDs 23A to 23C are arranged in the line direction (X (Line) along the direction) and line up so as to close the bracket-shaped openings that are the arrangement shape of the line sensor unit 22U ⁇ .
  • the LEDs 23A to 23C cause the traveling direction of the emitted light [light source light] to be along the sheet surface of the protective sheet 21 (the XY plane direction defined by the X direction and the Y direction) and to the line sensors 22A to 22C. Direct to the enclosed coordinate map area MA.
  • the LED 23A is arranged near one end of the line sensor 22A that is not adjacent to the line sensor 22C, so that the emitted light from the LED 23A reaches the coordinate map area MA. Further, the LED 23B is disposed near one end of the line sensor 22B that is not adjacent to the line sensor 22C, so that the emitted light from the LED 23B reaches the coordinate map area MA. Further, the LED 23C is arranged between one end of the line sensor 22A and one end of the line sensor 22B, so that the emitted light of the LED 23C reaches the coordinate map area MA.
  • the line sensor unit 22U (licensors 22A to 22C) and the LED unit 23U (that is, LEDs 23A to 23C) are preferably provided with a light shielding film BF in order to suppress light leakage to the outside.
  • a light-shielding film BF is preferably pasted on the outer surface of the line sensor 22 facing the outside and the outer surface of the LED 23 facing the outside (FIG. 6 shows the line sensor 22C). And is a cross-sectional view in which the LED 23C is visible).
  • the microcomputer unit 11 controls the position detection system PM, and includes an LED driver 17 and a position detection unit 12.
  • the LED driver 17 is a driver that supplies an operating current to the LEDs 23A to 23C of the LED unit 23U.
  • the position detection unit 12 includes a memory 13, a detection management unit 14, a connection setting unit 15, and a position specifying unit 16.
  • the memory 13 stores the coordinate map area MA in order to specify the position of the finger or the like when an object such as a finger is placed in the coordinate map area MA.
  • the coordinate map area MA is defined by, for example, the number of light receiving chips CP incorporated in the line sensors 22A to 22C arranged in parentheses as shown in FIG. 8A.
  • the line sensor 22A includes m light receiving chips CP
  • the line sensor 22B includes m light receiving chips CP
  • the line sensor 22C includes n light receiving chips CP (n and m are plural).
  • the outermost light receiving chip CP of the line sensor 22A and the outermost light receiving chip CP of the line sensor 22B face each other along the X direction in the line sensors 22A and 22B arranged in parallel.
  • the line sensor 22C spans between the outermost light receiving chips CP in the line sensors 22A and 22B facing each other.
  • the coordinate map area MA is a large section area in which the width W for each light receiving chip CP in the line sensors 22A to 22C is extended in a direction orthogonal to the line direction of the line sensors 22A to 22C including each light receiving chip CP. It is divided.
  • the width W for each light receiving chip CP in the line sensor 22A extends in the X direction to become m large divided areas
  • the width W for each light receiving chip CP in the line sensor 22B extends to the m pieces in the X direction. (A large divided area based on the light receiving chip CP included in the line sensor 22A coincides with a large divided area based on the light receiving chip CP included in the line sensor 22B).
  • the width W of each light receiving chip CP in the line sensor 22C extends in the Y direction and becomes n large divided regions.
  • the coordinate map area MA becomes an area filled with small sections as shown in FIG. Having a coordinate map area MA).
  • the longitudinal direction is along the X direction
  • the short direction is along the Y direction.
  • the detection management unit 14 controls the LED unit 23U through the LED driver 17, and determines the light receiving state in the line sensor unit 22U through the line sensor unit 22U. More specifically, the detection management unit 14 controls the light emission timing and the light emission time of the LEDs 23A to 23C with the control signal, and is generated in the line sensors 22A to 22C from the values (signal intensity) of the light reception signals of the line sensors 22A to 22C. Count the number of shadows [shadow counting step].
  • the shadow is reflected by the light from the LED 23A. Extends along the traveling direction and reaches the line sensors 22B and 22C in the line sensor unit 22U ⁇ Note that the dark hatched portion connected to the object (shielding object) (1) (2) means a shadow, and other thin hatching Means a region irradiated with light, and the hatched LED 23A emits light ⁇ .
  • the change areas V1 and V2 occur in the light reception data (light reception signal) in the line sensor unit 22U (note that the arrangement of the graphs indicating the light reception data in the figure is the positions of the line sensors 22A to 22C). To match).
  • the detection management unit 14 counts the number of shadows overlapping the line sensor unit 22U by the number of change regions V1 and V2 generated in the light reception data (signal intensity of the data signal) in the line sensor unit 22U.
  • the detection management unit 14 specifies from the data (map data) of the coordinate map area MA acquired from the memory 13 which section of the outermost linear area of the coordinate map area MA occupies.
  • the shadows are in a single-line partition region from the reference partition E to the partition G, a single-line partition region from the partition G to the partition H, and a single-line partition region from the partition H to the partition F.
  • the detection management unit 14 specifies which sections are continuously occupied [specific section data setting step]. Then, the detection management unit 14 transmits data of the specified section (specific section data) to the connection setting unit 15 in the coordinate map area MA.
  • connection setting unit 15 sets, in the coordinate map area MA, a connection L (for example, La1 and La2) that connects one point with a shadow in the line sensor unit 22U and the LED 23 that creates the shadow [connection setting step]. That is, using the specific section data transmitted from the detection management unit 14, in the coordinate map area MA, one section in a plurality of sections indicating the width of one shadow ⁇ for example, a plurality of sections arranged in a line indicating a shadow A connection line connecting the middle section of (specific section data) and the section indicating the emission point of the LED 23 is set.
  • a connection L for example, La1 and La2
  • the LED 23A when the LED 23A emits light, as shown in FIG. 10, in the specific section data indicating the shadow of the object (1), the intermediate section between the sections at both ends and the section indicating the emission point of the LED 23A.
  • the reference section E is connected and a connection line La1 is set.
  • the specific division data which shows the shadow of a target object (2) the reference division E which is a division which shows the emission point of LED23A and the intermediate division between divisions of both ends is tied.
  • the connection La2 is set.
  • the one point includes an intermediate point in the width direction of the shadow in the line sensor 22, that is, in the arrangement direction of the light receiving chips CP where the shadow reaches, but is not limited thereto. (The details of the method for specifying the position of an object such as a finger using this connection L will be described later).
  • the position specifying unit 16 specifies the position of an object such as a finger using the data of the connection L (connection data) set by the connection setting unit 15 [position specifying step]. Specifically, it is as shown in the flowchart of FIG. 1, the plan view of FIGS. 2A to 2C, and the plan view of FIG. 3 (note that the shades of shades indicating the shadows shown in FIGS. 2A to 2C are shaded shades). Is proportional to the density of).
  • the detection management unit 14 causes the LEDs 23A and 23B to emit light via the LED driver 17 as shown in FIG. 1 (STEP 1). Then, as shown in FIG. 2A, two shadows are generated by the light of the LED 23A for the objects (1) and (2), and two shadows are also generated by the light of the LED 23B for the objects (1) and (2). Arise. Therefore, the detection management unit 14 counts the number of shadows from the light reception data of the line sensor unit 22U, and counts that the total number of shadows is 4 (STEP 2; [shadow count process]).
  • the detection management unit 14 determines whether or not the number (total number) of shadows generated by the two LEDs 23A and 23B is “0” (STEP 3; [object existence determination step]). This is because when the number of shadows is “0”, the object is not placed in the coordinate map area MA (note that when the number of shadows is “0”, the detection management unit 14 continues. The number of shadows can be counted; YES in STEP 3).
  • the detection management unit 14 determines that the number of shadows is not “0” (NO in STEP 3), it next determines whether the number of shadows is “2” (STEP 4; [Object Number Judgment Step]). Because, when the two light sources LED 23A and LED 23B emit light, as shown in FIG. 2B, if there is only one object (only the object (1)), only two shadows are generated. This is because there is not.
  • the detection management unit 14 determines that the number of shadows is “2” (YES in STEP 4)
  • the specific section data related to the two shadows is transmitted to the connection setting unit 15 [specific section data setting Process]. Thereafter, a process as a so-called single touch, in which there is one object, proceeds (STEP 5).
  • connection setting unit 15 sets the connection La1 from the specific section data based on the shadow generated by the light of the LED 23A, and further, the specific section data based on the shadow generated by the light of the LED 23B. Then, the connection Lb1 is set [connection setting step]. The data of the connection lines La1 and Lb1 is transmitted from the connection setting unit 15 to the position specifying unit 16.
  • the position specifying unit 16 specifies the intersection IP between the connections L from the connection data transmitted from the connection setting unit 15.
  • the position of the intersection point IP is specified by, for example, a triangulation method using the reference section E as a fixed point and a line connecting the reference point E to the section F (also referred to as the X axis) as a base line.
  • specification part 16 specifies one place of this intersection IP as a position of a target object (1) [position specification process].
  • the detection management unit 14 determines that the number of shadows is not “2” (more specifically, 3 or more) (NO in STEP 4), the detection management unit 14 turns off the LED 23A and the LED 23B ( STEP6). Moreover, the detection management part 14 transmits the specific division data regarding three or more shadows to the connection setting unit 15 [specific division data setting step]. For example, as illustrated in FIG. 2A, when four shadows are generated, the detection management unit 14 transmits four specific section data to the connection setting unit 15.
  • the detection management unit 14 turns on the LED 23C via the LED driver 17 (STEP 7). Then, as shown in FIG. 2C, two shadows are generated by the light of the LED 23C with respect to the objects (1) and (2). Therefore, the detection management unit 14 counts the number of shadows from the light reception data of the line sensor unit 22U, and counts that the number of shadows is 2 (STEP 8; [shadow counting step]). Furthermore, the detection management unit 14 transmits specific section data relating to two shadows to the connection setting unit 15 ⁇ Note that after the number of shadows is counted, the detection management unit 14 turns off the LED 23C (STEP 9 ) ⁇ .
  • connection setting unit 15 sets the connection La1 and La2 from the specific section data based on the shadow generated by the light of the LED 23A, and the connection Lb1 and Lb2 from the specific section data based on the shadow generated by the light of the LED 23B. Set [connection setting process]. Further, the connection setting unit 15 sets the connections Lc1 and Lc2 from the specific section data based on the shadow generated by the light of the LED 23C [connection setting step].
  • the position specifying unit 16 specifies the intersection IP between the connections L from the connection data transmitted from the connection setting unit 15. Then, as shown in FIG. 3, eleven intersections IP1 to IP11 are specified (the figure shown at the tip of the white line arrow is an enlarged partial view).
  • the positions of these intersection points IP are specified by, for example, triangulation using the reference section E as a fixed point and a line connecting the reference point E to the section F as a base line.
  • specification part 16 specifies two places where the three intersection IPs are dense among 11 intersection IPs (In addition, the setting of the space
  • the position specifying unit 16 densely intersects the intersection point IP1 (intersection point between the connection line La1 and the connection line Lb1), the intersection point IP2 (intersection point between the connection line Lb1 and the connection line Lc1), and the intersection point IP3 (intersection point between the connection line Lc1 and the connection line La1). Judged as a place. Further, the position specifying unit 16 concentrates the intersection point IP4 (intersection point between the connection line La2 and the connection line Lb2), the intersection point IP5 (intersection point between the connection line Lb2 and the connection line Lc2), and the intersection point IP6 (intersection point between the connection line Lc2 and the connection line La2). Judged as a place. And these two places are specified as the position of the object (1) (2) such as a finger [position specifying step].
  • the position detection unit 12 including the position specifying unit 16 sets one part of the dense area of the intersections IP1 to IP3 generated at the intersection of the connection La1 based on the LED 23A, the connection Lb1 based on the LED 23B, and the connection Lc1 based on the LED 23C.
  • the position of one object (1) is determined, and a part of the dense area of intersections IP4 to IP6 generated at the intersection of the connection line La2 based on the LED 23A, the connection line Lb2 based on the LED 23B, and the connection line Lc2 based on the LED 23C is determined as another 1 It is determined that the position of one object (2).
  • the center of the region surrounded by the intersection point IP that is, the triangular region having the vertexes of the intersection points IP1 to IP3, and the intersection points IP4 to IP4
  • the center of gravity of the triangular region having the vertex at IP6 may be set as the position of the objects (1) and (2).
  • an LED unit 23U that includes a plurality of LEDs 23A to 23C, a line sensor unit 22U that receives the light from the LEDs 23, and a box that is surrounded by the line sensor unit 22U.
  • the shadow of the object that overlaps the area is detected from the light reception data of the line sensor unit 22U, and the object based on the shadow (specific section data, connection data) is triangulated.
  • a position detection unit 12 for detecting the position of the object.
  • the position detection unit 12 includes a plurality of LEDs 23A to 23C, a plurality of sets, for example, one set including a plurality of LEDs 23, that is, LED 23A and LED 23B, and one set including only a single LED 23C. Divide into [one-piece set] and turn on each set. Further, the position detection unit 12 determines whether or not the next lighting is performed in accordance with the total number of shadows generated by the line sensor unit 22U based on the object in the first lighting (ie, [target object The presence / absence determination step] and the [object number determination step] can also be called [lighting determination step].
  • the detection management unit 14 divides the LEDs 23A to 23C into two sets, and turns on a set including two light sources, the LED 23A and the LED 23B, for the first time.
  • the detection management unit 14 does not perform the second lighting (lighting of the LED 23C) for the second time, and the shadow generated by the lighting by the LED 23A and the LED 23B.
  • the position of a single object is detected from the data.
  • a position detection system in which three LEDs are individually turned on and off, and an intersection IP between the connections L is obtained from a connection L based on a shadow generated every time the LED is turned on, and the position of one object is specified.
  • the lighting is performed three times and the light is extinguished three times (in addition, such a position detection example is referred to as Comparative Example 1).
  • the single touch position detection process in the position detection system PM is shorter in time than the single touch position detection process in the first comparative example (in short, the detection cycle is short).
  • the two LEDs are individually turned on and off, and the intersection IP between the connections L is obtained from the connection L based on the shadow generated each time the LED is turned on, and the position of the object is specified.
  • the lighting is performed twice and the light is turned off twice (this position detection example is referred to as Comparative Example 2; see FIG. 12).
  • the LED 23 ⁇ / b> A and the LED 23 ⁇ / b> B need only be turned on at the same time in order to detect the position of the object by single touch. Therefore, the time of the single touch position detection process in the position detection system PM is shorter than that of the single touch position detection process in the second comparative example.
  • the position detection system PM when the two light sources LED23A and LED23B are turned on and the total number of shadows is three or more, the next lighting that is the second time (LED23C is turned on) is performed. . And the position of a some target object is detected by the data of the shadow produced by lighting by LED23A and LED23B, and the data of the shadow produced by lighting of LED23C after the 2nd time.
  • the position detection time (detection cycle) of the object with multi-touch is shortened.
  • the total number of shadows based on the two LEDs 23A and 23B is three or more, the number of objects is two or more. Therefore, only in such a case, the second lighting required for position detection is performed, and the position detection unit 12 detects the positions of a plurality of objects using the shadow generated by the lighting. That is, the position detection system PM performs position detection by extending the time when there are two or more objects, but shortens the position detection time in other cases.
  • this position detection system PM as shown in FIG. 1, only two times of lighting and two times of extinguishing are performed in order to detect the position of the object by multi-touch. That is, the multi-touch position detection process in the position detection system PM can be shortened by about 33% as compared to the multi-touch position detection process in the first comparative example.
  • position detection other than single touch and multi-touch described with reference to the flowchart of FIG.
  • the position detection process is as shown in the flowchart of FIG.
  • the detection management unit 14 causes the LED 23A to emit light as shown in FIG. 4 via the LED driver 17 (STEP 21). Then, as FIG. 5A shows, two shadows arise with the light of LED23A with respect to a target object (1) (2). Then, the detection management unit 14 counts the number of shadows from the light reception data of the line sensor unit 22U, and counts the number of shadows generated by one LED 23A as two (STEP 22; [shadow count process]). Thereafter, the detection management unit 14 turns off the LED 23A (STEP 23).
  • the detection management unit 14 causes the LED 23B to emit light via the LED driver 17 (STEP 24). Then, as FIG. 5B shows, two shadows arise with the light of LED23B with respect to a target object (1) (2). Then, the detection management unit 14 counts the number of shadows from the light reception data of the line sensor unit 22U, and counts the number of shadows generated by one LED 23B as two (STEP 25; [shadow count process]). Thereafter, the detection management unit 14 turns off the LED 23B (STEP 26).
  • the detection management unit 14 counts the total number of shadows based on the LED 23A and the number of shadows based on the LED 23B, and determines whether or not the number is “0” (STEP 27; [object] Presence determination process]). For example, if the number of shadows is “0”, the object is not placed in the coordinate map area MA. Therefore, the detection management unit 14 turns on the LED 23A again and continues to count the number of shadows. Can be counted (YES in STEP 27).
  • the detection management unit 14 determines whether or not the number of shadows is “2” (STEP 28; Process]). For example, if the number of shadows is “2”, the shadow of the object based on the LED 23A is one, the shadow of the object based on the LED 23B is one, and there is only one object. In such a case, that is, when the detection management unit 14 determines that the number of shadows is “2” (YES in STEP 28), the specific section data regarding the two shadows is transmitted to the connection setting unit 15 [ Specific section data setting process]. Thereafter, a process as a so-called single touch in which there is one object proceeds (STEP 29).
  • connection setting unit 15 sets the connection La1 from the specific section data based on the shadow generated by the light of the LED 23A, and further sets the connection Lb1 from the specific section data based on the shadow generated by the light of the LED 23B [ Connection setting process]. Then, the data of the connection lines La1 and Lb1 are transmitted from the connection setting unit 15 to the position specifying unit 16. And the position specific
  • the detection management unit 14 determines that the number of shadows is not “2” (more specifically, 3 or more) (NO in STEP 28), the specific section data related to the shadows is sent to the connection setting unit 15. Transmit [specific section data setting step]. For example, as shown in FIG. 5A and FIG. 5B, when a total of four shadows are generated by turning on the LED twice, the detection management unit 14 transmits the four specific section data to the connection setting unit 15. To do. Thereafter, the detection management unit 14 turns on the LED 23C as shown in FIG. 5C (STEP 30).
  • the detection management unit 14 counts the number of shadows from the light reception data of the line sensor unit 22U, and determines that the number of shadows is two (STEP 31; [shadow count process]). Furthermore, the detection management unit 14 transmits the specific section data regarding the two shadows to the connection setting unit 15 ⁇ Note that after the number of shadows is counted, the detection management unit 14 turns off the LED 23C (STEP 32) ⁇ . .
  • connection setting unit 15 sets the connection L (La1, Lb1, Lc1, La2, Lb2, Lc2) from the specific section data based on the shadow generated by the light of the LEDs 23A to 23C [connection setting step].
  • the position specifying unit 16 sets the intersection of the connections L from the connection data transmitted from the connection setting unit 15.
  • specification part 16 specifies two places where the three intersection IPs are crowded among 11 intersection IP. And these two places are specified as the position of objects (1) (2), such as a finger. [Locating step].
  • the position detection unit 12 includes a plurality of LEDs 23A to 23C including a plurality of sets, for example, one set including a single LED 23 called LED 23A [one type set] and one set including a single LED 23 called LED 23B. It is divided into [one type set] and one set [one type set] including a single LED 23 called LED 23C, and each set is turned on. Further, the position detection unit 12 determines whether or not the next lighting is performed according to the total number of shadows that are generated based on the object in the first and second lighting and detected by the line sensor unit 22U (that is, The [object presence / absence determination step] and the [object number determination step] can also be called [lighting determination step].
  • the detection management unit 14 divides the LEDs 23A to 23C individually, turns on the LED 23A for the first time, and turns on the LED 23B for the second time.
  • the detection management unit 14 does not perform the next lighting (LED 23C lighting) for the third time, and turns on the LEDs 23A and 23B twice.
  • the position of a single object is detected from the shadow data generated in step (1).
  • the position detection of the object by single touch as shown in the flowchart of FIG. 4 can be detected in a relatively short time as in the first embodiment (for example, the above-described comparison).
  • the position detection time of the object by single touch shown in the flowchart of FIG. 4 is shorter than when single LED position detection is performed by individually lighting three LEDs as in Example 1.
  • the position detection system PM when the total number of shadows is 3 or more by the first lighting by the LED 23A and the second lighting by the LED 23B, the next lighting that is the third time is performed.
  • the positions of a plurality of objects are detected from the shadow data generated by the lighting by the first LED 23A and the second LED 23B and the shadow data generated by the third and subsequent LEDs 23C.
  • the objects (1) and (2) are always illuminated by the single LED 23, and therefore the darkness of the shadow detected by the line sensor unit 22U. (Darkness) is dark. That is, a shadow generated by one LED 23 is not illuminated by another LED 23. Therefore, the shadow detection accuracy of the line sensor unit 22U (that is, the accuracy of the specific section data) is increased, and as a result, the accuracy of the connection data is increased. As a result, the position detection accuracy of the object obtained from the intersection point IP of the connection data (connection L) is also increased.
  • the position detection of the target object by multi-touch is assumed to be a gesture operation of a finger, for example.
  • a gesture operation is not faster than, for example, a pen input operation. Therefore, even if the multi-touch position detection time (see FIG. 4) in the second embodiment is longer than the multi-touch position detection time (see FIG. 1) in the first embodiment, the adverse effects are slight. Yes (of course, it is needless to say that a shorter one is desirable as in the multi-touch position detection time in the first embodiment).
  • the line sensor unit 22U in the position detection system PM is not necessarily located on the protective substrate 21 as shown in FIGS.
  • the linear reflection mirror 24A is positioned instead of the line sensor 22A positioned on the protective substrate 21 in FIGS. 6 and 7, and the linear reflection mirror 24B is positioned instead of the line sensor 22B.
  • a linear reflecting mirror 24C is positioned instead of the sensor 22C.
  • the line sensors 22A to 22C are arranged on the active matrix substrate 42 so as to overlap the reflecting mirrors 24A to 24C.
  • the reflecting mirrors 24A to 24C tilt the mirror surface of the reflecting mirror 24A so that the light of the LED unit 23U can be received and face the light receiving surface of the line sensor 22A. While tilting the mirror surface so as to receive the light of the LED unit 23U, the line sensor is directed toward the light receiving surface of the line sensor 22B, and further, the mirror surface of the reflecting mirror 24C is tilted so as to receive the light of the LED unit 23U. Direct toward 22C light receiving surface.
  • the coordinate map area MA is generated on the active matrix substrate 42.
  • the protective substrate 21 is positioned so as to cover the coordinate map area MA, the object placed on the protective substrate 21 overlaps the coordinate map area MA. Therefore, even in the position detection system PM shown in FIG. 11, the object receives the light from the LED unit 23U to cause a shadow, and the line sensor unit 22U acquires the light reception data changed by the shadow.
  • the number of shadows caused by the object (1) is two.
  • the line sensor 22C the line It is possible that the sensor unit 22U detects one shadow caused by the lighting of the LEDs 23A and 23B as one.
  • the LED 23 which is a light emitting element has been described as an example of a point light source, but is not limited thereto.
  • a light emitting element such as a laser element, or a light emitting element formed of a self-luminous material such as organic EL (Electro-Luminescence) or inorganic EL may be used.
  • a point light source such as a lamp may be used.
  • the liquid crystal display device 69 is taken as an example of the display device, but the present invention is not limited to this.
  • the position detection system PM may be mounted on another display device such as a plasma display device or an electronic blackboard.
  • the position detection as described above is realized by a position detection program.
  • This program is a computer-executable program and may be recorded on a computer-readable recording medium. This is because the program recorded on the recording medium becomes portable.
  • Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape to be separated, a disk system of an optical disk such as a magnetic disk and a CD-ROM, a card system such as an IC card (including a memory card) and an optical card. Or a semiconductor memory system such as a flash memory.
  • a tape system such as a magnetic tape and a cassette tape to be separated
  • a disk system of an optical disk such as a magnetic disk and a CD-ROM
  • a card system such as an IC card (including a memory card) and an optical card.
  • a semiconductor memory system such as a flash memory.
  • microcomputer unit 11 may acquire the position detection control program by communication from the communication network.
  • the communication network includes the Internet, infrared communication, etc. regardless of wired wireless.
  • PM position detection system 11 microcomputer unit 12 position detection unit 13 memory 14 detection management unit 15 connection setting unit 16 position specifying unit 17 LED driver 21 protection sheet 22 line sensor (light receiving sensor) 22A line sensor 22B line sensor 22C line sensor 22U line sensor unit (light receiving sensor unit) MA coordinate map area 23 LED (light source) 23U LED unit (light source unit) L connection IP intersection 49 Liquid crystal display panel (display panel, touch panel) 59 Backlight unit (lighting device) 69 Liquid crystal display device (display device)

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)

Abstract

位置検出ユニットは、複数有るLED23A~23Cを、複数の組、例えば、LED23AおよびLED23Bという複数個のLED23を含む1組と、単数個のLED23Cのみを含む1組に分け、組毎に点灯させる。さらに、位置検出ユニットは、1回目の点灯で対象物を基に生じ、ラインセンサユニットで検出される影の全個数に応じて、次の点灯の有無を決定する。

Description

位置検出システム、表示パネル、および表示装置
 本発明は、対象物の位置を検出する位置検出システム、および、その位置検出システムを搭載する表示パネル(液晶表示パネル等)、さらには、表示パネルを搭載する表示装置(液晶表示装置等)に関する。
 昨今の液晶表示装置は、指等が触れることで、様々な指示を液晶表示装置に設定できるタッチパネルを搭載することがある(例えば、特許文献1)。このようなタッチパネルにおける指等の対象物の位置検出システムの仕組みは様々である。
 位置検出システムの一例を、図12を用いて説明する。この図に示すような位置検出システムは、括弧状(“[”状)に配置されたラインセンサユニット122U(ラインセンサ122A~122Cの集合体)と、そのラインセンサユニット122Uに囲まれた領域maに、光を供給する2つのLED123(123A・123B)と、を含む。
 そして、領域maに指等の対象物(1)が置かれると、LED123A・123Bからの光が遮られることで影が生じ、その影をラインセンサユニット122Uが検知する。さらに、この影と影を生じさせたLED123とが結ばれることで形成される線(結線sL)を利用して、対象物(1)の位置が特定される(具体的には、結線sLa1と結線sLb1との交点が、対象物(1)の位置として特定される)。
 この位置検出過程を詳説すると、図13のフローチャートのようになる。すなわち、まず、LED123Aが点灯し(STEP101)、次に、ラインセンサユニット122Uにおける影の個数がカウントされる(STEP102)。この後、LED123Aは消灯され(STEP103)、次に、LED123Bが点灯し(STEP104)、再びラインセンサユニット122Uにおける影の個数がカウントされ(STEP105)、この後、LED123Bは消灯される(STEP106)。
 そして、影の個数が“0”個の場合、対象物は無いので、位置検出が行われず(STEP107のYES)、影の個数が“2”個の場合、1つの対象物があるので、その対象物(1)の位置検出が行われる(STEP107のNO→STEP108;なお、領域maに、1個の対象物が置かれることを、シングルタッチと称する)。
特開2000-105671号公報
 ところで、以上のような位置検出システムの場合、図14に示すように、領域maに、2つの対象物(1)(2)が置かれると、LED123Aの光を受けることで、結線sLa1と結線sLa2とが生じ、かつ、LED123Bの光を受けることで、結線sLb1と結線sLb2とが生じる(なお、領域maに、2個の対象物が置かれることを、マルチタッチと称する)。
 すると、図14に示すように、結線sLa1、sLb1、sLa2、sLb2の交差により生じる交点のうち、2つの交点(□で示す交点)は、対象物(1)(2)の位置を反映しない。したがって、この位置検出システムPMでは、複数の対象物(1)(2)の正確な位置検出ができない。その上、この位置検出システムは、図13のフローチャートに示すように、LED123Aを1回点灯させた後に、消灯し、さらに、LED123Bの1回点灯させた後に消灯させるため、比較的位置検出に要する時間が長くなる。
 本発明は、上記の問題点を解決するためになされたものである。そして、その目的は、位置検出に要する時間を短縮可能な位置検出システム等を提供することにある。
 位置検出システムは、複数の光源を含む光源ユニットと、囲み形状になって、光源からの光を受光する受光センサユニットと、受光センサユニットにて囲まれる囲み領域に重なる対象物の影を、受光センサユニットの受光データから検出し、その影に基づくデータを用いて、三角測量法で、対象物の位置を検出する位置検出ユニットと、を含む。
 そして、この位置検出システムでは、位置検出ユニットが、複数有る光源を、複数の組に分け、組毎に点灯させ、1回目の点灯で対象物を基に生じ、受光センサユニットで検出される影の全個数、または、1回目および2回目の点灯で、対象物を基に生じ、受光センサユニットで検出される影の全個数に応じて、次の点灯の有無を決定する。
 このようになっていると、影の個数に応じて、位置検出時間が変えられる。そのため、位置検出時間の短縮化も可能になる。
 例えば、対象物の個数が、0個、1個、または2個の場合、それぞれの対象物の個数に応じて、影の個数も変わってくる。詳説すると、複数の組の1つには、2個の光源を含む2個型組が有り、2個型組の光源による1回目の点灯で、影の全個数が0個または2個の場合、2回目となる次の点灯が行なわれず、2個型組の光源による点灯で生じた影のデータで、単数の対象物の位置が検出されると望ましい。
 通常、2個の光源に基づく影の全個数が0個の場合、対象物は0個なので、当然、位置検出を行わなくてもよい。また、2個の光源に基づく影の全個数が2個の場合、対象物は1個なので、比較的簡単な位置検出で、早期に対象物の位置が検出される。そのため、このような位置検出システムは、例えば、対象物が単数であるにもかかわらず、全光源の個別点灯を要する位置検出システムに比べて、早期に対象物の位置を検出する。
 一方で、2個型組の光源による1回目の点灯で、影の全個数が3個以上の場合、別の組における光源による2回目となる次の点灯が行われ、2個型組の光源による点灯で生じた影のデータと、2回目以降の別の組における光源による点灯で生じた影のデータとで、複数の対象物の位置が検出されると望ましい。
 通常、2個の光源に基づく影の全個数が3個以上の場合、対象物は2個以上である。そのため、このような場合に限って、位置検出に要する2回目の点灯が行われ、その点灯により生じた影を用いて、位置検出ユニットが、複数の対象物の位置検出を行う。つまり、対象物が2個以上の場合は、時間を延長させて位置検出を行うが、それ以外の場合は位置検出時間を短縮させる。
 また、この位置検出システムでは、光源は3個以上であるが、位置検出のために2回しか点灯しない。そのため、この位置検出システムは、例えば、3個の光源を個別に点灯して(要は3回以上点灯して)、対象物の位置検出を行う位置検出システムに比べて、早期に対象物の位置を検出することができる。
 また、位置検出システムでは、複数の組の2個には、1個の光源を含む1個型組が有り、1つ目の1個型組による1回目の点灯と、2つ目の別の1個型組による2回目の点灯とで、影の全個数が0個または2個の場合、3回目となる次の点灯が行なわれず、2回の1個型組の光源による点灯で生じた影のデータで、単数の対象物の位置が検出されると望ましい。
 このようになっていると、上述同様、2個の光源に基づく影の全個数が0個の場合、対象物は0個なので、当然、位置検出を行わなくてもよく、また、2個の光源に基づく影の全個数が2個の場合、対象物は1個なので、比較的簡単な位置検出で、早期に対象物の位置が検出される。そのため、このような位置検出システムは、例えば、対象物が単数であるにもかかわらず、全光源の個別点灯を要する位置検出システムに比べて、早期に対象物の位置を検出する。
 また、1つ目の1個型組による1回目の点灯と、2つ目の別の1個型組による2回目の点灯とで、影の全個数が3個以上の場合、3回目となる次の点灯が行われ、1回目および2回目の1個型組の光源による点灯で生じた影のデータと、3回目以降のさらに別の1個型組における光源による点灯で生じた影のデータとで、複数の対象物の位置が検出されると望ましい。
 このようになっていると、対象物は、常に、単数の光源で照らされるために、受光センサユニットに検出される影の暗さ(暗度)は濃い。すなわち、1つの光源によって生じた影が、別の光源によって照らされることがない。そのため、受光センサユニットの影の検出精度が高まり、ひいては、対象物の位置検出精度も高まる。
 なお、以上のような位置検出システムを搭載する表示パネルも本発明といえ、さらには、その表示パネルを搭載する表示装置も本発明といえる。
 本発明の位置検出システムによると、位置検出の対象物に対する位置検出時間(位置検出の周期時間)の短縮が図れる。
位置検出システムの位置検出過程を示すフローチャートである。 複数の対象物に対してLED23A・23Bが発光した場合の対象物の影を示した平面図である。 単数の対象物に対してLED23A・23Bが発光した場合の対象物の影を示した平面図である。 複数の対象物に対してLED23Cが発光した場合の対象物の影を示した平面図である。 図2Aおよび図2Cにおける結線を主体的に示した平面図である。 位置検出システムの位置検出過程を示すフローチャートである。 LED23Aが発光した場合の対象物の影を示した平面図である。 LED23Bが発光した場合の対象物の影を示した平面図である。 LED23Cが発光した場合の対象物の影を示した平面図である。 液晶表示装置の部分断面図である。 位置検出システムの平面図と、この位置検出システムの制御に要するマイコンユニットのブロック図とを、併記した説明図である。 ラインセンサユニットを示す平面図である。 座標マップ領域を示す平面図である。 座標マップ領域を示す平面図である。 ラインセンサユニットの信号強度を示すグラフを並べた説明図である。 結線を示す平面図である。 液晶表示装置の部分断面図である。 従来の位置検出システムでのシングルタッチでの位置検出を説明する平面図である。 従来の位置検出システムでの位置検出過程を示すフローチャートである。 従来の位置検出システムでのマルチタッチでの位置検出を説明する平面図である。
 [第1実施形態]
 第1実施形態について、図面に基づいて説明すれば、以下の通りである。なお、便宜上、部材やハッチング、さらには、部材符号等を省略する場合もあるが、かかる場合、他の図面を参照するものとする(例えば、後述のラインセンサ22を受光チップCPのみで図示することもある)。逆に、便宜上、断面図ではないが、ハッチングを用いることもある。また、矢印に併記される黒丸は、紙面に対して垂直方向を意味する。
 図6は、液晶表示装置[表示装置]69の部分断面図である。この図に示すように、液晶表示装置69は、バックライトユニット[照明装置]59と液晶表示パネル[表示パネル]49とを含む。
 バックライトユニット59は、例えばLED(Light Emitting Diode)または蛍光管のような光源を搭載する照明装置で、非発光型の表示パネルである液晶表示パネル49に対して、光(バックライト光BL)を照射する。
 光を受ける液晶表示パネル49は、液晶41を挟み込むアクティブマトリックス基板42と対向基板43とを含む。また、アクティブマトリックス基板42には、図示されていないが、ゲート信号線とソース信号線とが互いに交差するように配置され、さらに、両信号線の交差点には、液晶(液晶層)41に対する印加電圧調整に要するスイッチング素子(例えば、Thin Film Transistor)が配置される。
 また、アクティブマトリックス基板42の受光側、対向基板43の出射側には、偏光フィルム44が取り付けられる。そして、以上のような液晶表示パネル49は、印加電圧に反応した液晶分子41の傾きに起因する光透過率の変化を利用して、画像を表示する。
 また、この液晶表示パネル49には、位置検出システムPMも搭載される(なお、この位置検出システムPMを搭載する液晶表示パネル49をタッチパネル49と称してもよい)。この位置検出システムPMは、図6に示すような指が液晶表示パネル49上のどこにあるかを検出するシステムである。
 ここで、この位置検出システムPMについて、図6と図7とを用いて詳説する(図7は、位置検出システムPMの平面図と、この位置検出システムPMの制御に要するマイコンユニット11のブロック図とを、併記した説明図である)。
 位置検出システムPMは、保護シート21、ラインセンサユニット[受光センサユニット]22U、LEDユニット[光源ユニット]23U、およびマイコンユニット11を含む。
 保護シート21は、液晶表示パネル49の対向基板43(詳説すると、対向基板43上の偏光フィルム44)を覆うシートである。この保護シート21は、指のような対象物が液晶表示パネル49の表示面側に配置されることで、指と表示面との間に介在し、液晶表示パネル49に対する傷等を防ぐ。
 ラインセンサユニット22Uは、保護シート21上にて、受光チップCPを線状に配置させたラインセンサ22(22A・22B・22C)を3つ、並べたユニットである(ただし、3つのラインセンサ22A~22Cが一連状に一体化してもかまわない)。詳説すると、ラインセンサユニット22Uは、ラインセンサ22A~22Cを、一定領域を囲むような形(囲み形状)で配置させる。ただし、ラインセンサユニット22Uの配置形状は、一定領域を囲む囲み形状であれば、特に限定されない。
 例えば、ラインセンサユニット22Uは、図7に示すように、対向配置されたラインセンサ22Aおよびラインセンサ22Bと、ラインセンサ[サイド型線状受光センサ]22Aからラインセンサ[サイド型線状受光センサ]22Bまでの間に架け渡るラインセンサ[架橋型線状受光センサ]22Cと、を含むことで、ラインセンサ22A~22Cを、一定領域を囲む括弧状(“[”状)に配置させる(要は、ラインセンサ22A、ラインセンサ22C、ラインセンサ22Bが、一連状になりつつ、括弧状に配置される)。
 なお、ラインセンサユニット22Uにおけるラインセンサ22A~22Cで囲まれる矩形の領域を、座標マップ領域MAとする。また、ラインセンサ22Cのライン方向をX方向、ラインセンサ22A・22Bのライン方向をY方向、X方向およびY方向に交差(直交等)する方向をZ方向とする。
 LEDユニット23Uは、保護シート21上にて、3つのLED23(23A~23C)を、列状に配置させたユニットである。詳説すると、LEDユニット23Uは、LED[点状光源]23A~23Cを互いに間隔を空けつつ、ラインセンサ22Cに対向するように配置させる{すなわち、LED23A~23Cは、ラインセンサ22Cのライン方向(X方向)に沿って列状に並び、かつ、ラインセンサユニット22Uの配置形状である括弧状の開口を塞ぐように並ぶ}。
 そして、LED23A~23Cは、出射光[光源光]の進行方向を、保護シート21のシート面(X方向とY方向とで規定されるXY面方向)に沿わせるとともに、ラインセンサ22A~22Cに囲まれた座標マップ領域MAに向ける。
 なお、ラインセンサ22Cに隣り合わないラインセンサ22Aの一端付近に、LED23Aが配置されることで、LED23Aの出射光は、座標マップ領域MAに行き渡る。また、ラインセンサ22Cに隣り合わないラインセンサ22Bの一端付近に、LED23Bが配置されることで、LED23Bの出射光は、座標マップ領域MAに行き渡る。また、ラインセンサ22Aの一端とラインセンサ22Bの一端との間に、LED23Cが配置されることで、LED23Cの出射光は、座標マップ領域MAに行き渡る。
 なお、ラインセンサユニット22U(ライセンサ22A~22C)およびLEDユニット23U(すなわち、LED23A~23C)には、外部への光漏れを抑えるために、遮光フィルムBFが取り付けられているとよい。例えば、図6に示すように、外部に面するラインセンサ22の外面、および、外部に面するLED23の外面に、遮光フィルムBFが貼られているとよい(なお、図6は、ラインセンサ22CおよびLED23Cを視認可能にした断面図である)。
 マイコンユニット11は、位置検出システムPMを制御するものであり、LEDドライバー17と位置検出ユニット12とを含む。
 LEDドライバー17は、LEDユニット23UのLED23A~23Cに対して動作電流を供給するドライバーである。
 位置検出ユニット12は、メモリ13、検知管理部14、結線設定部15、および位置特定部16を含む。
 メモリ13は、座標マップ領域MAに指等の対象物が配置された場合、その指等の位置を特定するために、その座標マップ領域MAを記憶する。座標マップ領域MAは、例えば、図8Aに示すような、括弧状配置のラインセンサ22A~22Cに組み込まれる受光チップCPの個数で規定される。
 例えば、ラインセンサ22Aに受光チップCPがm個、ラインセンサ22Bに受光チップCPがm個、ラインセンサ22Cに受光チップCPがn個、含まれるとする(なお、n、mともに複数である)。そして、このラインセンサユニット22Uでは、平行配置のラインセンサ22A・22Bにて、ラインセンサ22Aの最外の受光チップCPとラインセンサ22Bの最外の受光チップCPとが、X方向に沿って向かい合う。さらに、ラインセンサ22Cは、向かい合ったラインセンサ22A・22Bにおける最外の受光チップCP同士の間に架け渡る。
 すると、ラインセンサ22A~22Cにおける受光チップCP毎の幅Wを、各受光チップCPを含むラインセンサ22A~22Cのライン方向に対して直交する方向に延ばした大区画領域で、座標マップ領域MAは区分けされる。
 詳説すると、ラインセンサ22Aにおける受光チップCP毎の幅Wは、X方向に延びてm個の大区画領域になり、ラインセンサ22Bにおける受光チップCP毎の幅Wは、X方向に延びてm個の大区画領域になる(なお、ラインセンサ22Aに含まれる受光チップCPに基づく大区画領域と、ラインセンサ22Bに含まれる受光チップCPに基づく大区画領域とは、一致する)。また、ラインセンサ22Cにおける受光チップCP毎の幅Wは、Y方向に延びてn個の大区画領域になる。
 そして、これらの大区画領域の重なる領域を小区画とすると、座標マップ領域MAが、図8Bに示すように、小区画で埋め尽くされた領域になる(別表現すると、マトリックス状の小区画を有する座標マップ領域MAが形成される)。そして、このような座標マップ領域MAが形成されることで、この座標マップ領域MAにおける指等の位置が特定可能になる。
 なお、矩形の座標マップ領域MAにおける長手方向はX方向に沿い、短手方向はY方向に沿う。そして、隣り合うラインセンサ22Aおよびラインセンサ22Cにおいて、ラインセンサ22Cの端に隣り合わないラインセンサ22Aの端に位置する受光チップCPに基づく大区画領域と、ラインセンサ22Aの端に隣り合うラインセンサ22Cの端に位置する受光チップCPに基づく大区画領域と、で特定される小区画を、便宜上、基準区画Eとし、その位置をE(X,Y)=E(1,1)と表現する(なお、この基準区画Eの位置に、LED23Aの出射点が重なると解釈できる)。
 また、基準区画Eと同じY方向(Y座標)上の位置で、X方向(X座標)上における最大の位置にある区画を、区画Fとし、その位置をF(X,Y)=F(Xn,1)と表現する(nは、ラインセンサ22Cにおける受光チップCPの数の個数と同じである)。なお、この区画Fの位置に、LED23Bの出射点が重なると解釈でき、基準区画Eと区画Fとの中間の区画(区画J)に、LED23Cの出射点が重なると解釈できる。
 また、基準区画Eと同じX方向上の位置で、Y方向上における最大の位置である区画を、区画Gとし、その位置をG(X,Y)=F(1,Ym)と表現する(mは、ラインセンサ22A・22Bにおける受光チップCPの数の個数と同じである)。また、X方向上における最大の位置で、Y方向上における最大の位置である区画を、区画Hとし、その位置をH(X,Y)=H(Xn,Ym)と表現する。
 検知管理部14は、LEDドライバー17を介して、LEDユニット23Uを制御するとともに、ラインセンサユニット22Uを介して、そのラインセンサユニット22Uにおける受光状態を判断する。詳説すると、検知管理部14は、制御信号で、LED23A~23Cの発光タイミングおよび発光時間等を制御するととともに、ラインセンサ22A~22Cの受光信号の値(信号強度)からラインセンサ22A~22Cに生じた影の個数をカウントする[影カウント工程]。
 例えば、図9Aに示すように、座標マップ領域MAにおける指等(対象物(1)(2))がLED23Aからの光を受けることで、影が生じた場合、その影はLED23Aからの光の進行方向に沿って延び、ラインセンサユニット22Uにおけるラインセンサ22B・22C到達する{なお、対象物(遮蔽物)(1)(2)に連なる濃いハッチング部分が影を意味し、それ以外の薄いハッチングは光が照射されている領域を意味し、ハッチングの施されたLED23Aは発光していることを意味する}。
 すると、図9Bに示すように、ラインセンサユニット22Uにおける受光データ(受光信号)に変化領域V1・V2が生じる(なお、図中に受光データを示すグラフの配置は、ラインセンサ22A~22Cの位置に合わせる)。検知管理部14は、ラインセンサユニット22Uにおける受光データ(データ信号の信号強度)に生じる変化領域V1・V2の数で、ラインセンサユニット22Uに重なる影の個数をカウントする。
 また、検知管理部14は、メモリ13から取得した座標マップ領域MAのデータ(マップデータ)から、影が座標マップ領域MAの最外の線状領域のどの区画を占めるかを、特定する。
 詳説すると、影が、基準区画Eから区画Gまでの一列状の区画領域、区画Gから区画Hまでの一列状の区画領域、および、区画Hから区画Fまでの一列状の区画領域にて、どの区画を連続して占めるかを、検知管理部14が特定する[特定区画データ設定工程]。そして、検知管理部14は、座標マップ領域MAにて、特定された区画のデータ(特定区画データ)を、結線設定部15に送信する。
 結線設定部15は、座標マップ領域MAにて、ラインセンサユニット22Uにおける影のある一点と、その影を作り出すLED23とを結ぶ結線L(例えば、La1・La2)を設定する[結線設定工程]。すなわち、検知管理部14から送信されてきた特定区画データを用いて、座標マップ領域MAにて、1つの影の幅を示す複数の区画における一区画{例えば、影を示す線状に並ぶ複数区画(特定区画データ)の中間の区画}と、LED23の出射点を示す区画とを結ぶ結線を設定する。
 例えば、LED23Aが発光した場合、図10に示すように、対象物(1)の影を示す特定区画データにて、両端の区画同士の間の中間区画と、LED23Aの出射点を示す区画である基準区画Eとが結ばれ、結線La1が設定される。また、LED23Aが発光した場合、対象物(2)の影を示す特定区画データにて、両端の区画同士の間の中間区画と、LED23Aの出射点を示す区画である基準区画Eとが結ばれ、結線La2が設定される。
 なお、ある一点とは、図10に示すように、例えばラインセンサ22における影の幅方向、すなわち影の到達する受光チップCPの並び方向での中間点が挙げられるが、これに限定されるものではない(この結線Lを用いて、指等の対象物の位置を特定する方法の詳細は、後述する)。
 位置特定部16は、結線設定部15で設定された結線Lのデータ(結線データ)を用いて、指等の対象物の位置を特定する[位置特定工程]。具体的には、図1のフローチャート、図2A~図2Cの平面図、および図3の平面図に示すとおりである(なお、図2A~図2Cに示される影を示すハッチングの濃淡は、影の濃さに比例する)。
 まず、検知管理部14が、LEDドライバー17を介して、図1に示すように、LED23AとLED23Bとを発光させる(STEP1)。すると、図2Aに示されるように、対象物(1)(2)に対するLED23Aの光で、2個の影が生じ、対象物(1)(2)に対するLED23Bの光でも、2個の影が生じる。そこで、検知管理部14は、ラインセンサユニット22Uの受光データから影の数を数え、影の合計数は4個であるとカウントする(STEP2;[影カウント工程])。
 そして、検知管理部14は、2個のLED23A・23Bによって生じた影の数(合計数)が“0”個であるか否かを判断する(STEP3;[対象物有無判断工程])。なぜなら、影の個数が“0”個の場合、対象物が座標マップ領域MAには置かれていないためである(なお、影の個数が“0”の場合、検知管理部14は、継続して影の個数を数えられる状態になっている;STEP3のYES)。
 そして、検知管理部14が、影の個数を“0”個ではないと判断した場合(STEP3のNO)、次に、影の個数が“2”個であるか否かを判断する(STEP4;[対象物個数判断工程])。なぜなら、2個の光源であるLED23AとLED23Bとが発光する場合、図2Bに示すように、対象物が1つであると(対象物(1)のみであると)、2個しか影が生じないためである。
 ここで、検知管理部14が、影の個数を“2”個であると判断すると(STEP4のYES)、その2個の影に関する特定区画データを結線設定部15に送信する[特定区画データ設定工程]。そして、以降、対象物が1個である、いわゆるシングルタッチとしての処理が進行する(STEP5)。
 詳説すると、結線設定部15が、図2Bに示すように、LED23Aの光で生じた影に基づく特定区画データから、結線La1を設定し、さらに、LED23Bの光で生じた影に基づく特定区画データから、結線Lb1を設定する[結線設定工程]。そして、この結線La1・Lb1のデータが、結線設定部15から位置特定部16に送信される。
 位置特定部16は、結線設定部15から送信された結線データから、結線L同士の交点IPを特定する。この交点IPの位置は、例えば、基準区画Eを不動点、基準点Eから区画Fまでを結ぶ線(X軸ともいえる)を基線とした三角測量法で、特定される。そして、位置特定部16は、この交点IPの1箇所を対象物(1)の位置として特定する[位置特定工程]。
 一方で、検知管理部14が、影の個数を“2”個ではない(詳説すると、3個以上)と判断すると(STEP4のNO)、検知管理部14は、LED23AとLED23Bとを消灯させる(STEP6)。また、検知管理部14は、3つ以上の影に関する特定区画データを結線設定部15に送信する[特定区画データ設定工程]。例えば、図2Aに示すように、4個の影が生じている場合、検知管理部14は、4個の特定区画データを、結線設定部15に送信する。
 さらに、検知管理部14は、LEDドライバー17を介して、LED23Cを点灯させる(STEP7)。すると、図2Cに示されるように、対象物(1)(2)に対するLED23Cの光で、2個の影が生じる。そこで、検知管理部14は、ラインセンサユニット22Uの受光データから影の数を数え、影の数は2個であるとカウントする(STEP8;[影カウント工程])。さらに、また、検知管理部14は、2個の影に関する特定区画データを結線設定部15に送信する{なお、影の数がカウントされた後、検知管理部14は、LED23Cを消灯させる(STEP9)}。
 そして、以降、対象物が複数個(例えば2個)である、いわゆるマルチタッチとしての処理が進行する(STEP10)。詳説すると、結線設定部15が、LED23Aの光で生じた影に基づく特定区画データから、結線La1・La2を設定し、LED23Bの光で生じた影に基づく特定区画データから、結線Lb1・Lb2を設定する[結線設定工程]。さらに、結線設定部15は、LED23Cの光で生じた影に基づく特定区画データから、結線Lc1・Lc2を設定する[結線設定工程]。
 そして、位置特定部16は、結線設定部15から送信された結線データから、結線L同士の交点IPを特定する。すると、図3に示すように、11個の交点IP1~IP11が特定される(なお、白線矢印の先に示す図は拡大部分図である)。これら交点IPの位置は、例えば、基準区画Eを不動点、基準点Eから区画Fまでを結ぶ線を基線とした三角測量法で、特定される。そして、位置特定部16は、11個の交点IPのうち、3個の交点IPの密集する箇所を、2箇所特定する(なお、密集と判断する交点IP同士の間隔の設定は任意である)。
 例えば、位置特定部16は、交点IP1(結線La1と結線Lb1との交点)、交点IP2(結線Lb1と結線Lc1との交点)、および交点IP3(結線Lc1と結線La1との交点)を密集する箇所と判断する。また、位置特定部16は、交点IP4(結線La2と結線Lb2との交点)、交点IP5(結線Lb2と結線Lc2との交点)、および交点IP6(結線Lc2と結線La2との交点)を密集する箇所と判断する。そして、これら2箇所が、指等の対象物(1)(2)の位置と特定される[位置特定工程]。
 つまり、位置特定部16を含む位置検出ユニット12は、LED23Aに基づく結線La1と、LED23Bに基づく結線Lb1と、LED23Cに基づく結線Lc1との交差で生じる交点IP1~IP3の密集領域の一部を1つの対象物(1)の位置と判断し、LED23Aに基づく結線La2と、LED23Bに基づく結線Lb2と、LED23Cに基づく結線Lc2との交差で生じる交点IP4~IP6の密集領域の一部を別の1つの対象物(2)の位置と判断する。
 なお、より正確に、対象物(1)(2)の位置の特定を要する場合、交点IPで囲まれた領域、すなわち、交点IP1~IP3を頂点とする三角領域の重心、および、交点IP4~IP6を頂点とする三角領域の重心を対象物(1)(2)の位置としてもよい。
 総括すると、位置検出システムPMでは、複数のLED23A~23Cを含むLEDユニット23Uと、囲み形状になって、LED23からの光を受光するラインセンサユニット22Uと、このラインセンサユニット22Uにて囲まれる囲み領域(すなわち座標マップ領域MA)に重なる対象物の影を、ラインセンサユニット22Uの受光データから検出し、その影に基づくデータ(特定区画データ、結線データ)を用いて、三角測量法で、対象物の位置を検出する位置検出ユニット12と、が含まれる。
 そして、位置検出ユニット12は、複数有るLED23A~23Cを、複数の組、例えば、LED23AおよびLED23Bという複数個のLED23を含む1組[2個型組]と、単数個のLED23Cのみを含む1組[1個型組]に分け、組毎に点灯させる。さらに、位置検出ユニット12は、1回目の点灯で対象物を基に生じ、ラインセンサユニット22Uで検出される影の全個数に応じて、次の点灯の有無を決定する(すなわち、[対象物有無判断工程]および[対象物個数判断工程]は、[点灯決定工程]ともいえる)。
 例えば、検知管理部14は、LED23A~23Cを2組に分け、LED23AとLED23Bとの2個の光源を含む組を、1回目に点灯させる。そして、その点灯で生じる影の全個数が0個または2個の場合、検知管理部14は2回目となる次の点灯(LED23Cの点灯)を行なわず、LED23AとLED23Bとによる点灯で生じた影のデータで、単数の対象物の位置を検出する。
 通常、2個のLED23A・23Bに基づく影の全個数が0個の場合、対象物は0個なので、当然、位置検出が行われなくてよい。また、2個のLED23A・23Bに基づく影の全個数が2個の場合、対象物は1個なので、比較的簡単な位置検出で、早期に対象物の位置が検出される。そのため、このような位置検出システムPMは、例えば、対象物が単数であるにもかかわらず、全てのLEDの個別点灯(要は、複数回の点灯)を要する位置検出システムに比べて、早期に対象物の位置を検出する。
 例えば、3個のLEDを個別に点灯および消灯させ、点灯毎に生じる影に基づく結線Lから、結線L同士の交点IPを求め、1個の対象物の位置を特定するような位置検出システムは、3回の点灯と3回の消灯とを行う(なお、このような位置検出例を、比較例1と称する)。
 しかしながら、上述の位置検出システムPMでは、図1に示すように、シングルタッチでの対象物の位置検出のために、LED23AとLED23Bとが同時に点灯するだけでよい。そのため、この位置検出システムPMでのシングルタッチの位置検出過程は、比較例1でのシングルタッチの位置検出過程に比べても、時間が短縮する(要は検出周期が短い)。
 また、別の位置検出システムでは、2個のLEDが個別に点灯および消灯し、点灯毎に生じる影に基づく結線Lから、結線L同士の交点IPが求められ、対象物の位置が特定される場合、2回の点灯と2回の消灯が行われる(なお、このような位置検出例を、比較例2と称する;図12参照)。
 しかしながら、上述の位置検出システムでは、図1に示すように、シングルタッチでの対象物の位置検出のために、LED23AとLED23Bとが同時に点灯するだけでよい。そのため、この位置検出システムPMでのシングルタッチの位置検出過程は、比較例2でのシングルタッチの位置検出過程に比べても、時間が短縮する。
 一方で、上述の位置検出システムPMでは、LED23AとLED23Bとの2個の光源の点灯で、影の全個数が3個以上の場合、2回目となる次の点灯(LED23Cの点灯)が行われる。そして、LED23AとLED23Bとによる点灯で生じた影のデータと、2回目以降のLED23Cの点灯で生じた影のデータとで、複数の対象物の位置を検出する。
 このようになっていると、マルチタッチでの対象物の位置検出時間(検出周期)が短縮される。通常、2個のLED23A・23Bに基づく影の全個数が3個以上の場合、対象物は2個以上である。そのため、このような場合に限って、位置検出に要する2回目の点灯が行われ、その点灯により生じた影を用いて、位置検出ユニット12が、複数の対象物の位置検出を行う。つまり、この位置検出システムPMは、対象物が2個以上の場合、時間を延長させて位置検出を行うが、それ以外の場合は位置検出時間を短縮させる。
 また、この位置検出システムPMでは、図1に示すように、マルチタッチでの対象物の位置検出のために、2回の点灯および2回の消灯しか行われない。つまり、この位置検出システムPMでのマルチタッチの位置検出過程は、上述の比較例1でのマルチタッチの位置検出過程に比べて、33%程度の時間短縮が図れる。
 [第2実施形態]
 第2実施形態について説明する。なお、第1実施形態で用いた部材と同様の機能を有する部材については同一の符号を付記し、その説明を省略する。
 第1実施形態で、図1のフローチャートを用いて説明したシングルタッチおよびマルチタッチ以外の位置検出もある。例えば、図4のフローチャートに示すような位置検出過程である。
 詳説すると、位置検出ユニット12では、検知管理部14が、LEDドライバー17を介して、図4に示すように、LED23Aを発光させる(STEP21)。すると、図5Aに示されるように、対象物(1)(2)に対するLED23Aの光で、2個の影が生じる。そして、検知管理部14は、ラインセンサユニット22Uの受光データから影の数を数え、1つのLED23Aによって生じた影の数を、2個とカウントする(STEP22;[影カウント工程])。その後、検知管理部14は、LED23Aを消灯させる(STEP23)。
 次に、検知管理部14は、LEDドライバー17を介して、LED23Bを発光させる(STEP24)。すると、図5Bに示されるように、対象物(1)(2)に対するLED23Bの光で、2個の影が生じる。そして、検知管理部14は、ラインセンサユニット22Uの受光データから影の数を数え、1つのLED23Bによって生じた影の数を、2個とカウントする(STEP25;[影カウント工程])。その後、検知管理部14は、LED23Bを消灯させる(STEP26)。
 ここで、検知管理部14は、LED23Aに基づく影の個数と、LED23Bに基づく影の個数との合計個数をカウントし、その個数が“0”個か否かを判断する(STEP27;[対象物有無判断工程])。例えば、影の個数が“0”個であったならば、対象物が座標マップ領域MAには置かれていないので、検知管理部14は、再び、LED23Aを点灯させ、継続して影の個数を数えられる状態になる(STEP27のYES)。
 さらに、検知管理部14が、影の個数を“0”個ではないと判断した場合、次に、影の個数が“2”個であるか否かを判断する(STEP28;[対象物個数判断工程])。例えば、影の個数が“2”個であったならば、LED23Aに基づく対象物の影は1つで、LED23Bに基づく対象物の影も1つであり、対象物は1つだけになる。そのような場合、すなわち、検知管理部14が、影の個数を“2”個であると判断すると(STEP28のYES)、その2個の影に関する特定区画データを結線設定部15に送信する[特定区画データ設定工程]。そして、以降、対象物が1個である、いわゆるシングルタッチとしての処理が進行する(STEP29)。
 すなわち、結線設定部15が、LED23Aの光で生じた影に基づく特定区画データから、結線La1を設定し、さらに、LED23Bの光で生じた影に基づく特定区画データから、結線Lb1を設定する[結線設定工程]。そして、この結線La1・Lb1のデータが、結線設定部15から位置特定部16に送信される。そして、位置特定部16は、結線設定部15から送信された結線データから、結線L同士の交点を特定し、その交点の1箇所を対象物(1)の位置として特定する[位置特定工程]。
 一方で、検知管理部14が、影の個数を“2”個ではない(詳説すると、3個以上)と判断した場合(STEP28のNO)、それらの影に関する特定区画データを結線設定部15に送信する[特定区画データ設定工程]。例えば、図5Aおよび図5Bのように、2回のLEDの点灯で、合計4個の影が生じている場合、検知管理部14は、4個の特定区画データを、結線設定部15に送信する。その後、検知管理部14は、図5Cに示すように、LED23Cを点灯させる(STEP30)。
 すると、対象物(1)(2)に対するLED23Cの光で、2個の影が生じる。そこで、検知管理部14は、ラインセンサユニット22Uの受光データから影の数を数え、影の数は2個であると判断する(STEP31;[影カウント工程])。さらに、検知管理部14は、2個の影に関する特定区画データを結線設定部15に送信する{なお、影の数がカウントされた後、検知管理部14は、LED23Cを消灯させる(STEP32)}。
 そして、以降、対象物が複数個(例えば2個)である、いわゆるマルチタッチとしての処理が進行する(STEP33)。詳説すると、結線設定部15が、LED23A~23Cの光で生じた影に基づく特定区画データから、結線L(La1・Lb1・Lc1・La2・Lb2・Lc2)を設定する[結線設定工程]。そして、位置特定部16は、結線設定部15から送信された結線データから、結線L同士の交点を設定する。そして、上述した図3に示すように、位置特定部16は、11個の交点IPのうち、3個の交点IPの密集する箇所を、2箇所特定する。そして、これら2箇所が、指等の対象物(1)(2)の位置と特定される。[位置特定工程]。
 総括すると、位置検出ユニット12は、複数有るLED23A~23Cを、複数の組、例えば、LED23Aという単数個のLED23を含む1組[1個型組]と、LED23Bという単数個のLED23を含む1組[1個型組]と、LED23Cという単数個のLED23を含む1組[1個型組]と、に分け、組毎に点灯させる。さらに、位置検出ユニット12は、1回目および2回目の点灯で、対象物を基に生じ、ラインセンサユニット22Uで検出される影の全個数に応じて、次の点灯の有無を決定する(すなわち、[対象物有無判断工程]および[対象物個数判断工程]は、[点灯決定工程]ともいえる)。
 すなわち、検知管理部14は、LED23A~23Cを個別に分け、1回目にLED23A点灯させ、2回目にLED23Bを点灯させる。そして、それらの点灯で生じる影の全個数が0個または2個の場合、検知管理部14は3回目となる次の点灯(LED23Cの点灯)を行なわず、LED23AとLED23Bとの2回の点灯で生じた影のデータで、単数の対象物の位置を検出する。
 このようになっていると、図4のフローチャートに示されるような、シングルタッチでの対象物の位置検出は、第1実施形態同様に、比較的短時間で位置検出できる(例えば、上述の比較例1のような3個のLEDを個別に点灯させて、シングルタッチの位置検出が行われる場合に比べて、図4のフローチャートに示すシングルタッチでの対象物の位置検出時間は短くなる)。
 一方で、上述の位置検出システムPMでは、LED23Aよる1回目の点灯と、LED23Bによる2回目の点灯とで、影の全個数が3個以上の場合、3回目となる次の点灯が行われ、1回目のLED23Aおよび2回目のLED23Bによる点灯で生じた影のデータと、3回目以降のLED23Cによる点灯で生じた影のデータとで、複数の対象物の位置を検出する。
 このようになっていると、図5A~図5Cのように、対象物(1)(2)は、常に、単数のLED23で照らされるために、ラインセンサユニット22Uに検出される影の暗さ(暗度)は濃い。すなわち、1つのLED23によって生じた影が、別のLED23によって照らされることがない。そのため、ラインセンサユニット22Uの影の検出精度(すなわち、特定区画データの精度)が高まり、ひいては、結線データの精度が高まる。その結果、結線データ(結線L)の交点IPから求められる対象物の位置検出精度も高まる。
 なお、マルチタッチでの対象物の位置検出は、例えば、指等のゼスチャー動作が想定される。このようなゼスチャー動作は、例えばペン入力動作に比べて高速ではない。そのため、第1実施形態でのマルチタッチの位置検出時間(図1参照)に比べて、第2実施形態でのマルチタッチの位置検出時間(図4参照)が長かったとしても、弊害は軽微である(もちろん、第1実施形態でのマルチタッチの位置検出時間のように、短いほうが望ましいことはいうまでもない)。
 [その他の実施形態]
 なお、本発明は上記の実施形態に限定されず、本発明の趣旨を逸脱しない範囲で、種々の変更が可能である。
 例えば、位置検出システムPMにおけるラインセンサユニット22Uは、図6、図7等に示すように、保護基板21上に位置するとは限らない。一例を挙げるなら、図11に示すような、位置検出システムPMもあり得る。
 すなわち、図6、図7等での保護基板21上に位置するラインセンサ22Aに換わって線状の反射ミラー24Aが位置し、ラインセンサ22Bに換わって線状の反射ミラー24Bが位置し、ラインセンサ22Cに換わって線状の反射ミラー24Cが位置する。さらに、ラインセンサ22A~22Cは、反射ミラー24A~24Cに重なりつつ、アクティブマトリックス基板42に配置される。
 そして、これら反射ミラー24A~24C(反射ミラーセット24U)は、反射ミラー24Aのミラー面を、LEDユニット23Uの光を受光できるように傾けつつ、ラインセンサ22Aの受光面に向け、反射ミラー24Bのミラー面をLEDユニット23Uの光を受光できるように傾けつつ、ラインセンサ22Bの受光面に向け、さらに、反射ミラー24Cのミラー面を、LEDユニット23Uの光を受光できるように傾けつつ、ラインセンサ22Cの受光面に向ける。
 なお、このような位置検出システムPMを含む液晶表示パネル49では、座標マップ領域MAは、アクティブマトリックス基板42上に生じることになる。しかし、保護基板21は、座標マップ領域MAを覆うように位置するので、その保護基板21上に置かれる対象物は、座標マップ領域MAに重なる。そのため、図11に示される位置検出システムPMであっても、対象物は、LEDユニッ23Uの光を受けて影を生じさせ、ラインセンサユニット22Uは、影によって変化した受光データを取得する。
 また、図2Bに示されるようなシングルタッチの場合、対象物(1)に起因する影の個数は2個であるが、例えばラインセンサ22Cに近接して対象物(1)が位置すると、ラインセンサユニット22Uが、LED23A・23Bの点灯で生じる影を1個と検出することもあり得る。
 このような事態も考慮する場合、図1におけるSTEP4でのNOからSTEP6に至るまで、“影の個数は1?”といった判断工程が加えられればよい。
 また、以上では、点状光源として、発光素子であるLED23を例に挙げて説明したが、これに限定されるものではない。例えば、レーザ素子のような発光素子、あるいは、有機EL(Electro-Luminescence)または無機ELのような自発光材料で形成される発光素子であってもかまわない。また、発光素子に限らず、ランプのような点状光源であってもかまわない。
 また、以上では、表示装置として、液晶表示装置69を例に挙げているが、これに限定されるものではない。例えば、プラズマディスプレイ装置、または電子黒板のような、他の表示装置に、位置検出システムPMが搭載されてもよい。
 ところで、以上のような位置検出は、位置検出プログラムで実現される。そして、このプログラムは、コンピュータにて実行可能なプログラムであり、コンピュータに読み取り可能な記録媒体に記録されてもよい。なぜなら、記録媒体に記録されたプログラムは、持ち運び自在になるためである。
 なお、この記録媒体としては、例えば分離される磁気テープやカセットテープ等のテープ系、磁気ディスクやCD-ROM等の光ディスクのディスク系、ICカード(メモリカードを含む)や光カード等のカード系、あるいはフラッシュメモリ等による半導体メモリ系が挙げられる。
 また、マイコンユニット11は、通信ネットワークからの通信で位置検出制御プログラムを取得してもよい。なお、通信ネットワークとしては、有線無線を問わず、インターネット、赤外線通等が挙げられる。
   PM    位置検出システム
   11    マイコンユニット
   12    位置検出ユニット
   13    メモリ
   14    検知管理部
   15    結線設定部
   16    位置特定部
   17    LEDドライバー
   21    保護シート
   22    ラインセンサ(受光センサ)
   22A   ラインセンサ
   22B   ラインセンサ
   22C   ラインセンサ
   22U   ラインセンサユニット(受光センサユニット)
   MA    座標マップ領域
   23    LED(光源)
   23U   LEDユニット(光源ユニット)
   L     結線
   IP    交点
   49    液晶表示パネル(表示パネル、タッチパネル)
   59    バックライトユニット(照明装置)
   69    液晶表示装置(表示装置)

Claims (7)

  1.  複数の光源を含む光源ユニットと、
     囲み形状となり、上記光源からの光を受光する受光センサユニットと、
     上記受光センサユニットにて囲まれる囲み領域に重なる対象物の影を、上記受光センサユニットの受光データから検出し、その影に基づくデータを用いて、三角測量法で、上記対象物の位置を検出する位置検出ユニットと、
    を含む位置検出システムにあって、
     上記位置検出ユニットが、
     複数有る上記光源を、複数の組に分け、組毎に点灯させ、
     1回目の点灯で上記遮蔽物を基に生じ、上記受光センサユニットで検出される影の全個数、または、1回目および2回目の点灯で、上記遮蔽物を基に生じ、上記受光センサユニットで検出される影の全個数に応じて、次の点灯の有無を決定する位置検出システム。
  2.  複数の上記組の1つには、2個の光源を含む2個型組が有り、
     上記2個型組の上記光源による1回目の点灯で、上記影の全個数が0個または2個の場合、2回目となる次の点灯が行なわれず、上記2個型組の上記光源による点灯で生じた上記影のデータで、単数の上記対象物の位置が検出される請求項1に記載の位置検出システム。
  3.  上記2個型組の上記光源による1回目の点灯で、上記影の全個数が3個以上の場合、別の上記組における上記光源による2回目となる次の点灯が行われ、
     上記2個型組の上記光源による点灯で生じた上記影のデータと、2回目以降の上記別の組における上記光源による点灯で生じた上記影のデータとで、複数の上記対象物の位置が検出される請求項2に記載の位置検出システム。
  4.  複数の上記組の2個には、1個の光源を含む1個型組が有り、
     1つ目の上記1個型組による1回目の点灯と、2つ目の別の上記1個型組による2回目の点灯とで、上記影の全個数が0個または2個の場合、3回目となる次の点灯が行なわれず、2回の上記1個型組の上記光源による点灯で生じた上記影のデータで、単数の上記対象物の位置が検出される請求項1に記載の位置検出システム。
  5.  1つ目の上記1個型組による1回目の点灯と、2つ目の別の上記1個型組による2回目の点灯とで、上記影の全個数が3個以上の場合、3回目となる次の点灯が行われ、
     1回目および2回目の上記1個型組の上記光源による点灯で生じた上記影のデータと、3回目以降のさらに別の上記1個型組における上記光源による点灯で生じた上記影のデータとで、複数の上記対象物の位置が検出される請求項4に記載の位置検出システム。
  6.  請求項1~5のいずれか1項に記載の位置検出システムを搭載する表示パネル。
  7.  請求項6に記載の表示パネルを搭載する表示装置。
PCT/JP2010/060435 2009-10-26 2010-06-21 位置検出システム、表示パネル、および表示装置 WO2011052264A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011538281A JP5406935B2 (ja) 2009-10-26 2010-06-21 位置検出システム、表示パネル、および表示装置
EP10826399A EP2495642A1 (en) 2009-10-26 2010-06-21 Position detection system, display panel, and display device
US13/498,704 US20120182268A1 (en) 2009-10-26 2010-06-21 Position detection system, display panel, and display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009245725 2009-10-26
JP2009-245725 2009-10-26

Publications (1)

Publication Number Publication Date
WO2011052264A1 true WO2011052264A1 (ja) 2011-05-05

Family

ID=43921695

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/060435 WO2011052264A1 (ja) 2009-10-26 2010-06-21 位置検出システム、表示パネル、および表示装置

Country Status (4)

Country Link
US (1) US20120182268A1 (ja)
EP (1) EP2495642A1 (ja)
JP (1) JP5406935B2 (ja)
WO (1) WO2011052264A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2495637A4 (en) * 2009-10-26 2015-06-17 Sharp Kk POSITION DETECTION SYSTEM, DISPLAY BOARD AND DISPLAY DEVICE
JP6037901B2 (ja) * 2013-03-11 2016-12-07 日立マクセル株式会社 操作検出装置、操作検出方法及び表示制御データ生成方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6165540U (ja) * 1984-10-03 1986-05-06
JPH11305942A (ja) * 1998-04-20 1999-11-05 Nippon Signal Co Ltd:The 入力装置
JP2004126929A (ja) * 2002-10-02 2004-04-22 Ricoh Elemex Corp 座標検知装置
JP2006146816A (ja) * 2004-11-24 2006-06-08 Canon Inc 座標入力方法及びその装置
JP2007207281A (ja) * 2007-05-21 2007-08-16 Ricoh Co Ltd 情報入出力装置、情報入出力制御方法、記録媒体およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331264A (ja) * 2000-05-19 2001-11-30 Newcom:Kk 光学式位置検出装置及び光学式位置検出方法
US6690363B2 (en) * 2000-06-19 2004-02-10 Next Holdings Limited Touch panel display system
WO2006095320A2 (en) * 2005-03-10 2006-09-14 Koninklijke Philips Electronics, N.V. System and method for detecting the location, size and shape of multiple objects that interact with a touch screen display
CN101479691B (zh) * 2006-06-28 2011-12-14 皇家飞利浦电子股份有限公司 基于光学参数的用于对象学习和识别的方法及装置
AU2008280953A1 (en) * 2007-08-30 2009-03-19 Next Holdings Ltd Optical touchscreen with improved illumination

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6165540U (ja) * 1984-10-03 1986-05-06
JPH11305942A (ja) * 1998-04-20 1999-11-05 Nippon Signal Co Ltd:The 入力装置
JP2004126929A (ja) * 2002-10-02 2004-04-22 Ricoh Elemex Corp 座標検知装置
JP2006146816A (ja) * 2004-11-24 2006-06-08 Canon Inc 座標入力方法及びその装置
JP2007207281A (ja) * 2007-05-21 2007-08-16 Ricoh Co Ltd 情報入出力装置、情報入出力制御方法、記録媒体およびプログラム

Also Published As

Publication number Publication date
JPWO2011052264A1 (ja) 2013-03-14
JP5406935B2 (ja) 2014-02-05
US20120182268A1 (en) 2012-07-19
EP2495642A1 (en) 2012-09-05

Similar Documents

Publication Publication Date Title
JP5308359B2 (ja) 光学式タッチ制御システム及びその方法
JP2012173029A (ja) 光学式位置検出装置および入力機能付き表示システム
JP2011065620A (ja) 光学式タッチ装置、遮光物の位置検出方法及び線性光源モジュール
JP2012515403A (ja) タッチ感応ディスプレイ
JP2011257338A (ja) 光学式位置検出装置および位置検出機能付き表示装置
US20230325036A1 (en) Operation method of electronic device for sensing optical signal and electronic device
TWI430151B (zh) 觸控裝置及其觸控方法
KR101374418B1 (ko) 멀티 터치 장치
US20150035804A1 (en) Optical position detection device and display system with input function
JP5406935B2 (ja) 位置検出システム、表示パネル、および表示装置
TWI526898B (zh) 光學觸控面板及其導光模組
TWI433012B (zh) 光學式觸控顯示裝置與光學操作裝置
JP5342650B2 (ja) 位置検出システム、表示パネル、および表示装置
TWI526900B (zh) 光學觸控裝置及用於其之顯示模組與光源組件
WO2011033806A1 (ja) 位置検出システム、表示パネル、および表示装置
JP2012146231A (ja) 光学式位置検出装置および位置検出システム
JP6529827B2 (ja) 表示装置
JP2011123585A (ja) 位置検出装置
JP2011123584A (ja) 光学式位置検出装置および位置検出機能付き表示装置
JP5609581B2 (ja) 光学式位置検出装置および位置検出機能付き機器
TWI705366B (zh) 光學觸控裝置與光學觸控方法
TWI390435B (zh) 顯示裝置及光感測系統
JP2012133631A (ja) 光学式位置検出装置
JP2011086030A (ja) 位置検出機能付き表示装置
JP2012194127A (ja) 光学式位置検出装置および入力機能付き表示システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10826399

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011538281

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2010826399

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13498704

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE