WO2012008168A1 - タッチパネルを用いた入力装置およびその入カ方法 - Google Patents

タッチパネルを用いた入力装置およびその入カ方法 Download PDF

Info

Publication number
WO2012008168A1
WO2012008168A1 PCT/JP2011/050909 JP2011050909W WO2012008168A1 WO 2012008168 A1 WO2012008168 A1 WO 2012008168A1 JP 2011050909 W JP2011050909 W JP 2011050909W WO 2012008168 A1 WO2012008168 A1 WO 2012008168A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch panel
input device
light
contact
display
Prior art date
Application number
PCT/JP2011/050909
Other languages
English (en)
French (fr)
Inventor
田名網 克周
芳幸 川股
Original Assignee
株式会社 翔栄
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 翔栄 filed Critical 株式会社 翔栄
Priority to EP11806501.0A priority Critical patent/EP2595033B1/en
Priority to US13/809,057 priority patent/US9075479B2/en
Priority to JP2012524462A priority patent/JP5406990B2/ja
Publication of WO2012008168A1 publication Critical patent/WO2012008168A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0445Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using two or more layers of sensing electrodes, e.g. using two layers of electrodes separated by a dielectric layer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/045Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Definitions

  • the present invention relates to an input device using a touch panel including a contact type touch panel, a retroreflective film provided on the surface of the contact type touch panel, and an optical touch panel provided with a detection unit, and an input method thereof.
  • Conventional input devices generally have a structure in which the input unit of the touch panel is placed on a display unit such as a display. The operator can directly operate the switch of the input unit by touching the operation menu displayed on the display. And a desired menu is selected and executed.
  • a display unit such as a display.
  • the operator can directly operate the switch of the input unit by touching the operation menu displayed on the display. And a desired menu is selected and executed.
  • a device in which a two-stage switch is constituted by an input portion by pressing and an input portion by infrared rays, and the operation load is reduced by reducing the number of times of pressing input (for example, see Patent Document 1). .
  • Such an input device includes display means for displaying an operation menu, a contact input detection unit that has an input operation surface on a display surface of the operation menu and detects an input position to which pressure is applied, and surroundings of the contact input detection unit
  • a spatial input detection unit that detects an object in the vicinity of the input operation surface and controls the display of the operation menu based on the detection result of the spatial input detection unit, and at the input position detected by the contact input detection unit
  • a control unit that executes a selection confirmation process for the operation menu based on the operation menu. The operator can select an operation item without touching the input operation surface of the contact input detection unit, thereby reducing the number of operations on the contact input detection unit and reducing the operation burden.
  • Such an input device includes a touch panel type operation unit that operates an upper surface on which an operation switch is arranged by an operator's hand, a display unit that displays an arrangement position of the operation switch and an operation menu screen thereof, an operation unit and an operator's Means for photographing the hand with a camera from above, means for combining and displaying the photographed image on the operation menu screen, and means for providing the operation unit to emit light of the entire operation unit.
  • an input unit of the same size is arranged on the display unit, and the operator makes a selection by bringing the finger close to the display unit. It itself serves as a pointer.
  • the operator's instruction position and the selection position on the operation menu screen of the display unit correspond one-to-one, so that the operator can easily understand intuitively, and there is no need to display a pointer etc. on the operation menu screen.
  • This is an obstacle to disposing the display unit and the display unit separately.
  • the present invention has been made in view of the above-described conventional problems.
  • a contact-type touch panel a retroreflective film provided so as to cover the surface of the contact-type touch panel, and upper ends of one side of the contact-type touch panel.
  • an optical touch panel having a pair of detection units including a light emitting unit and a light receiving unit, and light from the light emitting unit is obliquely above an operation article such as a hand placed on the retroreflective film.
  • An operation object such as a finger that moves on the retroreflective film by detecting reflected light from the retroreflective film exposed from the operation object by the light receiving unit to distinguish and recognize the form of the operation object.
  • the incident angle of the position of the operation object is detected by the detection unit, the coordinates of the operation object are obtained by the principle of triangulation, and the input information is confirmed by touching the contact-type touch panel.
  • the contact touch panel and the optical touch panel are covered with a light-shielding cover, and the operation article is inserted through an opening provided on one side.
  • the present invention is characterized in that a resistive touch panel or a capacitive touch panel is used as the contact touch panel.
  • a light emitting diode is used for the light emitting portion of the detecting portion of the optical touch panel, and a CMOS sensor is used for the light receiving portion.
  • the present invention includes a contact type touch panel, a retroreflective film provided so as to cover the surface of the contact type touch panel, and a light emitting unit and a light receiving unit located above both ends of one side of the contact type touch panel.
  • An input device using a touch panel composed of an optical touch panel provided with a pair of detection units and a cursor displayed on a display panel provided at a position away from the input device is operated from the input device.
  • Input from the light emitting portion of the optical touch panel is irradiated obliquely from above the operation object such as a hand placed on the retroreflective film, and the retroreflection exposed from the operation object.
  • Reflected light from the film is detected by the light receiving unit, the microcomputer control unit distinguishes the form of the operation article, and the display panel receives the form recognition signal from the microcomputer control unit.
  • the position of an operation object such as a finger that moves on the retroreflective film of the optical touch panel in the selected display mode is selected from the plurality of display modes displayed on the screen. Is detected by the detection unit and input to the microcomputer control unit, the coordinates of the operation object are obtained on the principle of triangulation, the coordinate signal is transmitted to the display panel, and the cursor is transmitted according to the coordinate signal.
  • the selected display mode is moved to an operation selection area on the display panel, touches the contact-type touch panel at a position where the cursor is in the selected operation selection area, and outputs a confirmation signal from the microcomputer control unit. It is characterized by performing the operation. According to the present invention, the form of the operation article is distinguished by the number of fingers, and one of a plurality of display modes displayed on the display panel is selected by a form recognition signal from the microcomputer control unit.
  • a contact type touch panel a retroreflective film covering the surface of the contact type touch panel, and a pair positioned above both ends of one side of the contact type touch panel.
  • an optical touch panel provided with a detection unit. That is, the input device can be completed with only the touch panel.
  • the detection unit of the optical touch panel includes a light emitting unit using a light emitting diode and a light receiving unit using a CMOS sensor, the light irradiated from the light emitting unit toward the retroreflective film is reflected back. The incoming direction can be detected by the light receiving unit.
  • the operation object such as a finger on the retroreflective film blocks the irradiation light and the reflected light, and the shadow is detected by the light receiving unit. Therefore, the coordinates of the operation object are obtained from the incident angle of the shadow and the principle of triangulation. It is done. Further, since the operation object can be irradiated with light obliquely from above and the entire surface of the operation object can be irradiated with light, the form of the operation object can be recognized.
  • retroreflection refers to the property that when light is reflected, the light is reflected back at the same angle with respect to the incident angle of the light.
  • a film made of a retroreflective member is called a retroreflective film.
  • the optical touch panel includes a retroreflective film and a pair of detection units.
  • infrared scanning touch panels there are other types of infrared scanning touch panels in the optical touch panel, but in such a system, a plurality of light emitting elements and light receiving elements must be installed on opposite sides.
  • the optical touch panel of the present invention only needs a pair of detection units, and can detect coordinates with high resolution by only two light emitting units and two light receiving units, thereby greatly increasing the number of parts. There is an effect that can be reduced. As a result, the size of the touch panel can be freely selected without changing the number of parts.
  • the size of the input device and the size of the display can be freely selected, it is possible to make the size of the input device smaller than the size of the display in accordance with the application and usage of the input device, which increases the degree of design freedom. There is also an effect that the design property is excellent.
  • the contact-type touch panel and the optical touch panel are covered with a light-shielding cover, so that incident of external light such as sunlight can be prevented. Thereby, since it can prevent that sunlight injects into a retroreflection film and malfunctions, an input device can be utilized without being influenced by an environment.
  • the reflected light from the retroreflective film can be detected and the form of the operation article can be distinguished by the microcomputer control unit.
  • a plurality of display modes displayed on the display panel can be associated with each other.
  • the coordinates of the operation object such as a finger moving on the retroreflective film are detected, and the cursor moving according to the coordinate signal is displayed on the display panel.
  • the display panel can be provided at a position away from the input device. Also, the operator can operate by looking only at the display panel.
  • a retroreflective film is stuck on the surface of the contact type touch panel to hide it even if the surface of the contact type touch panel is slightly scratched during the manufacturing process. be able to. Moreover, it can protect also from being damaged to a contact-type touchscreen by being covered with a retroreflection film. As a result, the number of defective products can be greatly reduced, and waste of resources can be eliminated.
  • FIG. 1 is a block diagram for explaining an input device using a touch panel of the present invention.
  • FIG. 2 is a perspective view illustrating a light-shielding cover that covers the input device of the present invention.
  • 3A is a top view illustrating an input device using the touch panel of the present invention
  • FIG. 3B is a cross-sectional view thereof
  • FIG. 3C is a diagram showing a light irradiation range of the detection unit. It is.
  • FIG. 4 is a diagram illustrating a method for detecting a coordinate position according to the triangulation principle of the present invention.
  • 5A and 5B are diagrams illustrating a method for detecting the coordinate position of an operation article such as a finger using the optical touch panel of the present invention.
  • FIG. 6A to 6D are views for explaining a method of recognizing the form of an operation article such as a hand by the optical touch panel of the present invention.
  • FIG. 7 is a flowchart for explaining an input method of the input device using the touch panel of the present invention.
  • FIG. 8 is a diagram for explaining an embodiment in which an input device using the touch panel of the present invention is mounted on a car.
  • FIG. 9 is a flowchart for explaining an input method when the input device using the touch panel of the present invention is mounted on a car.
  • 10A to 10C are diagrams for explaining examples of screens displayed by the input method of the input device of the present invention.
  • FIG. 1 is a block diagram for explaining an input device using a touch panel of the present invention.
  • FIG. 2 is a perspective view illustrating a light-shielding cover that covers the input device of the present invention.
  • the input device 1 using the touch panel of the present invention includes a contact touch panel 2, an optical touch panel 3, and a microcomputer control unit 4.
  • the contact-type touch panel 2 is a touch panel in which a transparent conductive film 23 (see FIG. 3) is formed between an upper substrate 21 (see FIG. 3) and a lower substrate 22 (see FIG. 3), and an operator contacts the upper substrate 21.
  • Input A glass plate or a film is used for the upper substrate or the lower substrate, and an ITO film is used for the transparent conductive film.
  • a resistive touch panel or a capacitive touch panel is used as the contact touch panel 2.
  • the resistive film type touch panel includes a glass-glass structure or a film-glass structure touch panel.
  • a transparent conductive film 23 is formed on one surface of an upper substrate 21 and a lower substrate 22 made of a glass plate or a film, and the transparent conductive film 23 is formed. This is a structure in which the dot spacers are arranged between them.
  • the transparent conductive film on the upper substrate is electrically connected to the transparent conductive film on the lower substrate where there is no dot spacer.
  • the coordinate position is determined by measuring the X-axis and Y-axis voltages at the pressed position.
  • the capacitive touch panel has a structure in which a transparent conductive film 23 is formed on a lower substrate 22 such as glass or plastic, and the surface is overcoated with an upper substrate 21 such as a film or plastic.
  • the optical touch panel 3 includes a retroreflective film 31 (see FIG. 3), a pair of detection units 34 (see FIG. 3) including a light emitting unit 32 that irradiates the retroreflective film with light and a light receiving unit 33 that receives the reflected light.
  • the microcomputer control unit 4 receives signals generated by the contact touch panel 2 and the optical touch panel 3, generates a coordinate signal based on the incident angle detected by the optical touch panel and the principle of triangulation, and corresponds to the coordinate signal.
  • the control unit has a calculation function and a data processing function for moving the cursor to be moved on the display panel 5.
  • the display panel 5 is a display such as a liquid crystal or an organic EL that displays a plurality of display modes and a cursor for controlling the display modes, and is installed at a position away from the input device 1 using a touch panel.
  • FIG. 2 shows an example of a light-shielding cover that covers an input device using the touch panel of the present invention.
  • the light-shielding cover 6 covers the contact type touch panel 2 and the optical touch panel 3 and is formed by providing an opening on one side thereof, and prevents malfunction due to incidence of external light such as sunlight.
  • a touch panel type input device 1 is arranged on a support base, and a portion where the contact type touch panel and the optical touch panel are located is enclosed in a dome shape.
  • FIG. 3A is a top view of the input device 1 of the present invention
  • FIG. 3B is a cross-sectional view thereof
  • FIG. 3C is a diagram showing a light irradiation range of the detection unit.
  • a case where a resistance film type touch panel is used as the contact type touch panel will be described as an example.
  • the contact-type touch panel 2 is provided in a frame-shaped casing 7 whose upper surface is opened.
  • the housing 7 supports the contact type touch panel 2, protects the touch panel from external force, and serves as a support base on which the detection unit 34 of the optical touch panel 3 is installed.
  • the optical touch panel 3 which is a feature of the present application includes a retroreflective film 31, a light emitting unit 32 (not shown) that irradiates the retroreflective film, and a light receiving unit 33 (not shown) that receives the reflected light. ).
  • the retroreflective film 31 is provided so as to cover the entire surface of the operation selection area to be touched on the contact-type touch panel 2.
  • a pair of detection units 34 is provided at both ends of one side of the touch-type touch panel 2 and above the surface of the touch-type touch panel 2.
  • the detection unit 34 includes a light emitting unit 31 and a light receiving unit 32 (not shown). Therefore, the infrared light from the light emitting unit 31 is applied to the retroreflective film 31 obliquely from above, is reflected by the retroreflective film 31, and returns to the light receiving unit 32.
  • the cross-sectional view in FIG. 3B corresponds to a portion indicated by line XX in FIG.
  • a resistive film type touch panel having a glass-glass structure or a film-glass structure is used as the contact type touch panel 2.
  • an ITO film 23 is formed on one side of the upper substrate 21 and the lower substrate 22, and a transparent electrode, extraction electrode, and external extraction electrode (not shown) patterned by photoetching are formed. Then, the transparent electrodes of the upper substrate 21 and the lower substrate 22 are overlapped so as to face each other, and the upper and lower substrates are attached with the adhesive layer 24 provided at the peripheral edge of the substrate. In order to maintain the distance between the upper and lower substrates, a number of dot spacers (not shown) are provided on one glass substrate.
  • the transparent electrode on the upper substrate and the transparent electrode on the lower substrate are brought into contact with each other at that point to be turned on.
  • This ON signal is sent to the microcomputer control unit 4 via each extraction electrode and external extraction electrode, and processing corresponding to the ON signal is performed.
  • the transparent electrode on the upper substrate and the transparent electrode on the lower substrate are separated from each other and are turned off, and the processing corresponding to the on signal ends.
  • the optical touch panel 3 has a retroreflective film 31 attached to the surface of the contact touch panel 2 with an adhesive so as to be approximately the same size as the operation selection area to be touched.
  • the retroreflective film 31 is pressed at the same time as the contact type touch panel 2 is pressed, a protective sheet (not shown) for protecting it from dirt and scratches is stuck on the surface thereof.
  • a pair of detection part 34 is fixed to the strong housing
  • a light emitting diode is used for the light emitting unit 32 and a CMOS sensor is used for the light receiving unit 33.
  • the optical touch panel 3 utilizes the property of retroreflecting when irradiated light from the light emitting unit 32 hits the retroreflective film 31 and returning straight at the same incident angle as the irradiated light.
  • the irradiated light of that portion is blocked, and thus is detected as a shadow by the light receiving unit 33.
  • the shadow is detected by the pair of detection units 34, and the form and coordinate position of the operation article are detected. Specifically, the coordinate position where the operation article is located is detected based on two incident angles and the principle of triangulation. This coordinate signal can be sent to the microcomputer control unit 4 to display a cursor on the display panel 5.
  • the microcomputer control unit 4 distinguishes the form of the operation article.
  • the microcomputer control unit 4 can generate a form recognition signal, select one from a plurality of display modes, and display it on the display panel.
  • the present invention is characterized in that one optical touch panel 3 has the two types of detection described above.
  • FIG. 3C shows a range in which infrared light can be irradiated from the light emitting unit 32 of the detecting unit 34.
  • FIG. 4 is a diagram for explaining a method of detecting a coordinate position based on the principle of triangulation.
  • FIGS. 5A to 5B are diagrams illustrating a method for detecting the coordinate position of an operation article such as a finger using an optical touch panel.
  • FIGS. 6A to 6D are diagrams illustrating a method for recognizing the form of an operation article such as a hand using an optical touch panel.
  • the operation object on the retroreflective film 31 is set to A, and its X coordinate and Y coordinate are obtained. If the position of the detection unit on the left side is the origin and the coordinates of the operation article are (X, Y), the direction of the detection unit on the right side is the X axis and the direction perpendicular thereto is the Y axis.
  • FIG. 5A is a diagram for explaining a method of recognizing a form using an optical touch panel
  • FIG. 5B is a diagram for explaining the signal strength.
  • FIG. 5A when one finger of the operator is placed on the retroreflective film 31, light is irradiated from the two detection units, and the part where the finger is present is shadowed on the light receiving unit. Detected. In the light receiving unit, detection as shown in FIG. 5B is performed.
  • the signal intensity representing a state in which there is no operation article on the retroreflective film.
  • the horizontal pixel position indicates the position of a shadow appearing on a side positioned horizontally with respect to the detection unit. As shown in FIG.
  • the detection unit 34 is disposed above the surface of the retroreflective film 31, and the operation article 8 is placed on the retroreflective film 31, thereby irradiating the entire operation article obliquely from above. Because it can, it is difficult to shadow the operation. However, when adjacent manipulation objects approach each other, it is inevitable that they overlap with each other in the irradiation direction and are recognized as one manipulation article. In order to solve this problem, a pair of detection units 34 are provided above both ends of one side of the touch-type touch panel 2, and graphs of signal intensities detected from the detection units are combined to improve the accuracy of detection results. Thereby, even when an operation article such as a hand is arranged, the number of the manipulation objects can be detected. FIG.
  • FIG. 6B shows the signal intensity detected by the light receiving unit on the left side of FIG. Since an operation object such as a hand is irradiated from the little finger side, four shadows of a little finger, a ring finger, a middle finger, and an index finger appear. At this time, the thumb becomes a shadow of the index finger and is located far from the light emitting unit, so that the shadow of the index finger is wider than the horizontal pixel position and the signal intensity appears weak.
  • FIG. 6C shows the signal intensity detected by the light receiving unit on the right side of FIG. In this case, since it is irradiated from the thumb side, four shadows of the thumb, forefinger, middle finger and ring finger appear.
  • the little finger becomes a shadow of the ring finger and is located far from the light emitting unit, so that the shadow of the ring finger is wider than the horizontal pixel position and the signal intensity appears weak.
  • these detection results are synthesize
  • FIG.6 (D) As shown in the figure, when five fingers are spread on the retroreflective film 31, it can be seen that there are shadows corresponding to the number of five fingers. This can be accurately identified by performing the detection at the two detection units 34 and combining the results. As a result, the number of fingers can be distinguished.
  • the entire operation article can be irradiated with infrared light.
  • the height above the detection unit 34 may be selected within a range in which the entire operation article can be irradiated.
  • the number of fingers is identified by the microcomputer control unit 4, and a form recognition signal is generated.
  • the form recognition signal is a signal that controls each display mode corresponding to the number of fingers and controls the display on the display panel by selecting the identified number of display modes.
  • step S1 When the power of the input device 1 using the touch panel is turned on, an initial setting screen is displayed on the display panel 5 provided at a position distant from the input device (step S1). And the light from the light emission part 32 of the optical touch panel 3 is irradiated on the operation object such as the hand placed on the retroreflective film 31 obliquely from above, and the reflected light from the retroreflective film 31 exposed from the operation object is reflected. Detection is performed by the light receiving unit 33, and the form of the operation article is distinguished and recognized by the microcomputer control unit 4 (step S2). At this time, irradiation is performed a plurality of times at regular intervals, and the form of the operation article is recognized only when the detection values of all the reflected light are the same.
  • step S2 is continuously performed three times at 1 second intervals. Accordingly, it is possible to recognize that the screen mode is selected by the operator's intention, and it is possible to distinguish a case where an operation article such as a hand or a sleeve of clothes is erroneously placed on the optical touch panel. Then, one of a plurality of display modes displayed on the display panel 5 is selected by a form recognition signal from the microcomputer control unit 4 (step S3). Thereafter, the display mode is switched to the display mode 5 and displayed on the display panel 5 (step S4).
  • the position of an operation object such as a finger that moves on the retroreflective film 31 of the optical touch panel 3 is detected by the detection unit and the incident angle is input to the microcomputer control unit 4.
  • the coordinates of the operation object are obtained by the principle of triangulation.
  • the microcomputer control unit 4 transmits the coordinate signal of the coordinates to the display panel, and moves the cursor in the operation selection area on the display panel according to the coordinate signal (step S5). And it contacts the contact-type touch panel 2 via the retroreflective film 31 in the position where the cursor of the selected operation
  • step S7 When switching to another display mode, an initial setting screen button for ending the current display mode and displaying the initial setting screen in step S1 is selected (step S7). Thereafter, the microcomputer control unit 4 returns to the process of step S1, and the operator recognizes an operation article such as a hand. Instead of step S7, if no operation is performed for a predetermined time after step S6, the process may return directly to step S1.
  • FIG. 8 is a diagram showing an example in which a car navigation system is installed in a vehicle.
  • FIG. 9 is a flowchart for explaining an input method when used in a car navigation system.
  • FIG. 10 is an example of an image in each display mode of the car navigation system.
  • the navigation mode is selected when the number of recognized operation objects is one, the air conditioning setting mode when two, the audio mode when three, the vehicle outside camera mode when four, and the five outside camera mode.
  • the television mode is selected.
  • the input device 1 using a touch panel is installed near the operator's hand and covered with a light-shielding cover 6 to prevent the incidence of external light such as sunlight. It has been broken. More specifically, when it is arranged on the center console, the operator can omit the work of confirming the arrangement location before the operation, and the operability is improved because the movement of the hand is small.
  • the display panel 5 may be a position where the operator can confirm the line of sight without greatly moving, and is specifically arranged on the instrument panel.
  • the input device 1 is turned on, and an initial setting screen is displayed on the display panel 5 (step S10).
  • an operator makes a desired form with operation things, such as a hand, and puts it on the retroreflection film 31, and makes it recognize.
  • the optical touch panel 3 detects the reflected light from the retroreflective film 31 with the light receiving unit 33, the microcomputer control unit 4 distinguishes and recognizes the form of the operation article, and generates the form recognition signal (step S20).
  • step S20 is continuously performed three times at 1-second intervals, and it is confirmed that all detected values match, thereby identifying the erroneous operation. Specifically, when the operator puts one finger on the retroreflective film, the number of recognition is recognized as one, and when the operator puts two fingers up, the number of recognition is two, three. When the fingers are placed upright, the number of recognition is recognized as three, respectively. Here, the process in each number of recognition is demonstrated. (When one finger is raised) The recognition number is recognized as one by the number recognition means in step S20 (step S30). One of the plurality of screen modes is selected by the form recognition signal from the microcomputer control unit 4 and displayed on the display panel 5 (step S40).
  • the navigation mode is selected and displayed.
  • the optical touch panel 3 detects the position of an operation object such as a finger that moves on the retroreflective film 31, detects its incident angle, inputs it to the microcomputer control unit 4, and operates the operation object on the principle of triangulation. Coordinates are generated, and a coordinate signal is generated and transmitted to the display panel.
  • the cursor 9 moves on the display panel according to the coordinate signal, and an operation is selected (step S50). Specifically, as shown in FIG. 10A, the coordinate position designated by the operator on the retroreflective film is detected, and the cursor 9 is displayed on the navigation screen of the display panel according to the coordinate signal.
  • Step S60 the operator moves the cursor 9 on the map to move the screen up and down, left and right, or moves the cursor to a selection area to be operated from each selection menu such as enlargement or reduction of the display screen or search for the destination. 9 can be moved to make the selection.
  • the display screen is enlarged.
  • the operator contacts the touch-type touch panel 2 through the retroreflective film 31 with the cursor 9 in the selected operation selection area, and outputs a confirmation signal from the microcomputer control unit 4 to perform the selected operation. (Step S60). Specifically, when the operator wants to enlarge the display screen, as shown in FIG.
  • step S10 the operator moves his / her finger on the retroreflective film 31 and moves the cursor to an area on the display panel where there is an enlarge button. Move 9 to make a selection. And if the contact type touch panel 2 is contacted and confirmed via the retroreflection film 31 in the state where the cursor 9 is on the enlargement button, the screen is enlarged. Finally, when switching to another display mode, an initial screen button for returning to the initial setting screen on the display panel is selected with the cursor 9, and the contact type touch panel is touched to confirm (step S70). Thereafter, since the process returns to step S10, the operator may make a form with a finger and recognize it.
  • Step S10 may be performed by causing the microcomputer control unit to recognize the form for a certain period of time. (When two fingers are raised) Since each process is the same as the case where the above-mentioned one finger is raised, a specific process flow will be described below.
  • the number is recognized by the number recognition means in step S20 (step S31), and an air conditioning setting screen is displayed on the display panel 5 (step S41). When the operator wants to raise the temperature of the air conditioning from 23 degrees to 25 degrees, as shown in FIG.
  • the operator moves the retroreflective film 31 with a finger and moves the cursor 9 in the area of the temperature increase button. It moves and makes a selection (step S50), and touches the touch panel 2 via the retroreflective film 31 while the cursor 9 is on the temperature increase button to confirm (step S60). In this case, the touch-type touch panel 2 may be touched twice to raise twice. Thereafter, the user touches the initial screen button for returning to the initial setting screen, and returns to step S10 (step S70). (When three fingers are raised) Similar to the case of two fingers, a specific processing flow will be described below. The number is recognized by the number recognition means in step S20 (step S32), and an audio screen is displayed on the display panel 5 (step S42).
  • step S50 When the operator wants to skip one song, as shown in FIG. 10 (C), the operator moves the cursor on the retroreflective film 31 with the finger and moves the cursor 9 to the skip button area for selection (step).
  • step S50 When the cursor 9 is on the skip button, the contact touch panel 2 is contacted once via the retroreflective film 31 and determined (step S60). Thereafter, the user touches the initial screen button for returning to the initial setting screen, and returns to step S10 (step S70).
  • step S30 Similar to the case of two fingers, a specific processing flow will be described below.
  • the number is recognized by the number recognizing means in step S20 (step S33), and the outside camera screen is displayed on the display panel 5 (step S43).
  • step S50 When the operator wants to switch to the rear camera, the operator moves the cursor on the retroreflective film 31 with a finger and moves the cursor 9 to the area of the rear camera switching button (step S50).
  • the contact button 2 is contacted and confirmed once through the retroreflective film 31 in a state of being on the switching button (step S60). Thereafter, the user touches the initial screen button for returning to the initial setting screen, and returns to step S10 (step S70).
  • step S40 Similar to the case of two fingers, a specific processing flow will be described below.
  • the number is recognized by the number recognition means in step S20 (step S34), and a television screen is displayed on the display panel 5 (step S44).
  • step S50 the operator moves the cursor on the retroreflective film 31 with a finger and moves the cursor 9 to the area of the channel selection button (step S50).
  • the contact touch panel 2 is contacted and confirmed once through the retroreflective film 31 in a state where the station button is located (step S60). Thereafter, the user touches the initial screen end button to return to the initial setting screen, and returns to step S10 (step S70).
  • step S50 the coordinate value on the touch panel obtained in step S50 is converted into the coordinate value of the panel size of the display panel to generate a coordinate signal. And tell the display panel.
  • the design of the inch size of the touch panel of the input device 1 and the panel size of the display panel can be freely changed.
  • the input device 1 using a touch panel is used for a car navigation system.
  • the input device 1 may be used as an input device for home appliances or an input device for a game machine.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)

Abstract

従来の入力装置には、タッチパネル式の操作部と表示部とを離れた位置に別々に配置してブラインド操作を容易にするものはあったが、操作部上のユーザの手を撮影するカメラと、撮影した手の画像を変換して表示部に合成する画像処理が必要であり、処理方法の単純化が望まれていた。また、かかる装置に用いる部品点数の縮減も望まれていた。 本発明のタッチパネルを用いた入力装置1は、接触式タッチパネル2と、接触式タッチパネルの表面を覆う再帰反射フィルム31と接触式タッチパネルの一辺の両端の上方に位置する一対の検出部34とを備えた光学式タッチパネル3とで構成され、光学式タッチパネルにより操作物の形態の認識と座標位置の検出の2種類の検出を行えるタッチパネルを用いた入力装置およびその入力方法を提供する。

Description

タッチパネルを用いた入力装置およびその入力方法
 本発明は接触式タッチパネルと、接触式タッチパネルの表面に設けた再帰反射フィルムと検出部を備えた光学式タッチパネルとで構成されるタッチパネルを用いた入力装置およびその入力方法に関する。
 従来の入力装置は、ディスプレイ等の表示部上にタッチパネルの入力部を重ねて配置した構造が一般的であり、操作者がディスプレイに表示される操作メニューに直接接触することで入力部のスイッチ操作が行われ、所望のメニューの選択および実行が行なわれる。
 こうした入力装置として、押圧による入力部分と赤外線による入力部分とで二段階スイッチを構成し、押圧の入力回数を減らすことで操作負担を軽減させるものが知られている(例えば、特許文献1参照)。
 かかる入力装置は、操作メニューを表示する表示手段と、操作メニューの表示面上に入力操作面を有し圧力が印加された入力位置を検出する接触入力検知部と、この接触入力検知部の周囲に配置されて入力操作面の近傍の物体を検出する空間入力検知部と、この空間入力検知部の検出結果に基づいて操作メニューの表示を制御すると共に、接触入力検知部で検出した入力位置に基づいて操作メニューに対する選択確定処理を実行する制御部とを備える。
 操作者は接触入力検知部の入力操作面に触れずに操作項目を選択できることで、接触入力検知部に対する操作回数を減らせ、操作負担が軽減するものである。
 しかし、入力部と表示部が一体の構造をした入力装置では、操作者の手元付近に設置した場合には操作者の視線を手元に移動させる負担が生じ、操作者の視線の移動が少ない位置に配置した場合には操作者の手を表示部に伸ばす負担が生じるため、入力部と表示部とを離間して別々に配置し、負担を軽減させた入力装置が知られている(例えば、特許文献2参照)。
 かかる入力装置は、操作スイッチが配置された上面を操作者の手により操作するタッチパネル式の操作部と、操作スイッチの配置位置及びその操作メニュー画面を表示する表示部と、操作部及び操作者の手を上方からカメラで撮影する手段と、その撮影した画像を操作メニュー画面に合成して表示する手段と、操作部に設けて操作部全体を発光させる手段とを備える。
 カメラで撮影した操作部上の手の画像を抽象画像に変換し、操作メニュー画像に合成して表示することで、操作者は入力部を直視しなくても、表示部を見ながらのスイッチ操作、いわゆるブラインド操作が行えるものである。
特開2004−71233号公報 特許第4389855号公報
 上述したように、特許文献1に示される入力装置においては、表示部上に同サイズの入力部を重ねて配置し、操作者が表示部に指を近づけて選択を行うため、操作者の指そのものがポインターの役割を果たす。すなわち、操作者の指示位置と、表示部の操作メニュー画面の選択位置とは一対一に対応するので操作者は直感的に分りやすく、ポインター等を操作メニュー画面に表示させる必要がないため、入力部と表示部とを分離して別々に離して配置することの障害となっている。
 入力部と表示部とを別々に配置するためには、入力部上にある指などの指示位置を操作者が表示部上で視認できる必要があり、もともと表示部と入力部を重ねた構造で、操作者の指をポインターなどに代用する装置では、両者を分離できない問題点がある。
 一方、特許文献2に示される入力装置においては、表示部と操作部とを分離して別々に配置するために、操作者が表示部の操作メニュー画面を見ながら操作できるようにする必要があり、操作部及び操作者の手を撮影するカメラと、撮影した手の画像を抽出して操作メニュー画面に合成して表示させる処理などにより、入力装置の部品点数の縮小化や処理方法の単純化の障害となっている。
 また、ブラインド操作を可能にするためには、カメラで撮影した手画像を抽出し、操作部における実際の手の位置と各操作スイッチの位置との相対位置を演算して合成する必要があり、画像処理を必要とする高価なカメラを用いるためコストが高くなる問題点もある。
 更に、カメラでの撮影に際し、LEDなどの光源を操作部に当てないと、太陽光などの入射がある環境下や夜間等の照明不足の環境下では撮影しにくく、操作部上の手を正確に認識できない問題点もある。このために、環境に左右されずに操作部上の操作物を認識できることが求められていた。
 そして、カーナビや家電製品のリモコンなどのように、入力装置の用途・形態に合わせて操作部のサイズを自由に変更できることが望まれている。
 本発明は上述した従来の問題点に鑑みてなされ、第1に、接触式タッチパネルと、前記接触式タッチパネルの表面を覆うように設けた再帰反射フィルムと、前記接触式タッチパネルの一辺の両端の上方に位置した発光部と受光部とからなる一対の検出部とを備えた光学式タッチパネルとで構成され、前記発光部からの光が前記再帰反射フィルム上に置かれる手などの操作物に斜め上方から照射され、前記操作物から露出した前記再帰反射フィルムからの反射光を前記受光部で検出して前記操作物の形態を区別して認識し、前記再帰反射フィルム上を移動させる指などの操作物の位置を前記検出部によりその入射角を検出し、三角測量の原理で前記操作物の座標を求め、前記接触式タッチパネルに接触することで入力情報の確定させることを特徴とする。
 また、本発明は、前記接触式タッチパネルと前記光学式タッチパネルは遮光性のカバーで覆われ、1辺に設けた開口部より前記操作物を入れることを特徴とする。
 更に、本発明は、前記接触式タッチパネルとしては抵抗膜式タッチパネルまたは静電容量式タッチパネルを用いることを特徴とする。
 更に、本発明は、前記光学式タッチパネルの前記検出部の前記発光部には発光ダイオードを用い、前記受光部にはCMOSセンサーを用いることを特徴とする。
 第2に、本発明は、接触式タッチパネルと、前記接触式タッチパネルの表面を覆うように設けた再帰反射フィルムと、前記接触式タッチパネルの一辺の両端の上方に位置した発光部と受光部とからなる一対の検出部とを備えた光学式タッチパネルとで構成されるタッチパネルを用いた入力装置を用い、該入力装置と離れた位置に設けた表示パネルに表示されるカーソルを前記入力装置から操作して入力する入力方法であって、前記光学式タッチパネルの前記発光部からの光が前記再帰反射フィルム上に置かれる手などの操作物に斜め上方から照射され、前記操作物から露出した前記再帰反射フィルムからの反射光を前記受光部で検出してマイコン制御部で前記操作物の形態を区別して、前記マイコン制御部からの形態認識信号で前記表示パネルに表示される複数の表示モードの中から1つを選択し、次に、選択された前記表示モードの中で、前記光学式タッチパネルの前記再帰反射フィルム上を移動させる指などの操作物の位置を前記検出部によりその入射角を検出して前記マイコン制御部に入力し、三角測量の原理で前記操作物の座標を求めて座標信号を前記表示パネルに伝えて前記カーソルを前記座標信号に従って前記表示パネル上の動作選択領域に移動させ、選択した前記動作選択領域の前記カーソルがある位置で前記接触式タッチパネルに接触して前記マイコン制御部から確定信号を出力して、選択された前記表示モードの操作を行うことを特徴とする。
 また、本発明は、前記操作物の形態は指の本数で区別して、前記マイコン制御部からの形態認識信号で前記表示パネルに表示される複数の表示モードの中から1つを選択することを特徴とする。
 第1に、本発明のタッチパネルを用いた入力装置に依れば、接触式タッチパネルと、かかる接触式タッチパネルの表面を覆った再帰反射フィルムと、接触式タッチパネルの一辺の両端の上方に位置した一対の検出部とを備えた光学式タッチパネルとで構成される。すなわち、タッチパネルのみで入力装置を完成できる。
 また、光学式タッチパネルの検出部は発光ダイオードを用いた発光部と、CMOSセンサーを用いた受光部とを備えるために、発光部から再帰反射フィルムに向けて照射した光が、反射して戻ってくる入射方向を受光部で検出できる。
 これにより、再帰反射フィルム上の指などの操作物が照射光と反射光を遮断し、受光部でその影を検出するので、その影の入射角度と三角測量の原理により操作物の座標が求められる。また、操作物に対して斜め上方より光を照射し、操作物の表面全体に光を照射できるので、操作物の形態が認識できる。
 その結果、従来の入力装置では必要とされていた、入力エリアと操作者の手をカメラで撮影する処理や、撮影した画像より手の形態を認識する処理や、撮影した画像と表示画面との相対位置の関係より座標を検出する処理などが不要となるため、入力装置からカメラを不用にできる。
 ここで、再帰反射とは、光を反射する際に、光の入射角度に対して、同じ角度に光が反射されて戻る性質のことである。本発明では再帰反射部材から成るフィルムを再帰反射フィルムと呼ぶ。
 以上のことより、カメラの設置エリアの確保や、カメラと被写体の焦点距離の確保などが一切不要となり、タッチパネルのみで操作物の形態の認識と、操作物の座標の検出との両方を判別できるので、入力装置の小型化および薄型化に繋がる効果がある。
 第2に、本発明のタッチパネルを用いた入力装置に依れば、光学式タッチパネルは再帰反射フィルムと一対の検出部とで構成される。
 光学式タッチパネルには他の方式の赤外線走査式タッチパネルがあるが、かかる方式では、対向する辺に複数個の発光素子と受光素子を設置しなければならない。一辺に設置する発光素子と受光素子の数は、検出したい座標の分解能に応じて増減する必要があり、素子数が多いほど分解能は高くなる。
 従って、赤外線走査方式タッチパネルと比べて、本発明の光学式タッチパネルは一対の検出部があれば良く、2つの発光部と2つの受光部のみで分解能の高い座標を検出できるため、部品点数を大幅に減らせる効果がある。
 その結果、部品点数を変えることなく、タッチパネルのサイズを自由に選択できる。
 また、入力装置のサイズとディスプレイのサイズを自由に選択できるため、入力装置の用途や使用形態に合わせて入力装置のサイズをディスプレイのサイズより小さくすることも可能であり、設計の自由度があがり、意匠性に優れる効果もある。
 第3に、本発明のタッチパネルを用いた入力装置に依れば、接触式タッチパネルと光学式タッチパネルとを遮光性のカバーで覆うために、太陽光などの外部光の入射を防止できる。これにより、再帰反射フィルムに太陽光が入射して誤動作することを防げるため、環境に左右されることなく入力装置を利用できる。
 第4に、本発明のタッチパネルを用いた入力装置の入力方法に依れば、再帰反射フィルムからの反射光を検出し、マイコン制御部により操作物の形態を区別できるため、操作物の形態と表示パネルに表示される複数の表示モードとを対応付けることができる。
 これにより、入力装置の電源がオンされた後は、操作者は1本指や2本指などの予め定めた形態を入力装置に検出させるだけよく、ディスプレイを見なくても、所望の画面モードを選択して表示パネルに表示できる。
 その結果、電源をオンした後に画面モードを選択するモード選択画面を表示させる必要もなく、また、モード選択画面上の所望のボタンスイッチを選択する動作も省略できる。
 第5に、本発明のタッチパネルを用いた入力装置の入力方法に依れば、再帰反射フィルム上を移動する指などの操作物の座標を検出し、その座標信号に従って移動するカーソルを表示パネルに表示できる。これにより、入力装置と離れた位置に表示パネルを設けることができる。また、操作者は表示パネルのみを見て操作できる。
 第6に、本発明のタッチパネルを用いた入力装置に依れば、製造過程において接触式タッチパネルの表面にわずかな傷などがついても、接触式タッチパネルの表面に再帰反射フィルムを貼着して隠すことができる。また、再帰反射フィルムで覆われることにより接触式タッチパネルに傷がつくことからも守れる。これにより、不良品を大幅に減らせ、資源の無駄もなくすことができる。
 図1は、本発明のタッチパネルを用いた入力装置を説明するためのブロック図である。
 図2は、本発明の入力装置を覆う遮光性カバーを説明する斜視図である。
 図3は、(A)は本発明のタッチパネルを用いた入力装置を説明する上面図であり、(B)はその断面図であり、(C)は検出部の光の照射範囲を表した図である。
 図4は、本発明の三角測量の原理により座標位置を検出する方法を説明する図である。
 図5は、(A)(B)は、本発明の光学式タッチパネルによる指などの操作物の座標位置を検出する方法を説明する図である。
 図6は、(A)~(D)は本発明の光学式タッチパネルによる手などの操作物の形態を認識する方法を説明する図である。
 図7は、本発明のタッチパネルを用いた入力装置の入力方法を説明するフロー図である。
 図8は、本発明のタッチパネルを用いた入力装置を車に搭載した実施例を説明する図である。
 図9は、本発明のタッチパネルを用いた入力装置を車に搭載した場合の入力方法を説明するフロー図である。
 図10は、(A)~(C)は、本発明の入力装置の入力方法により表示される画面の一例を説明する図である。
 図1は、本発明のタッチパネルを用いた入力装置を説明するためのブロック図である。図2は、本発明の入力装置を覆う遮光性のカバーを説明する斜視図である。
 図1に示すように、本発明のタッチパネルを用いた入力装置1は、接触式タッチパネル2と、光学式タッチパネル3と、マイコン制御部4とで構成される。
 接触式タッチパネル2は、上基板21(図3参照)と下基板22(図3参照)の間に透明導電膜23(図3参照)を形成したタッチパネルであり、操作者が上基板21に接触して入力を行うものである。上基板あるいは下基板にはガラス板やフィルムなどを用い、透明導電膜にはITO膜などを用いる。
 具体的には、接触式タッチパネル2として、抵抗膜式タッチパネルまたは静電容量式タッチパネルが用いられる。
 抵抗膜式タッチパネルは、ガラス−ガラス構造あるいはフィルム−ガラス構造のタッチパネルがあり、ガラス板あるいはフィルムからなる上基板21と下基板22の片面に透明導電膜23を形成し、かかる透明導電膜23を対向させ、その間にドットスペーサを配置した構造である。操作者が上基板を押下すると、上基板の透明導電膜はドットスペーサのない個所で下基板の透明導電膜と導通する。押下された位置のX軸とY軸の電圧を計測することで座標位置が決定される。
 静電容量式タッチパネルは、ガラスやプラスチックなどの下基板22上に透明導電膜23を形成し、その表面をフィルムやプラスチックなどの上基板21でオーバーコートを施した構造である。操作者がタッチをすると、指先と透明導電膜との間で静電容量が変化するので、その変化を利用して座標位置の検出を行う。
 光学式タッチパネル3は、再帰反射フィルム31(図3参照)と、再帰反射フィルムに光を照射する発光部32とその反射光を受光する受光部33とからなる一対の検出部34(図3参照)で形成されるタッチパネルであり、再帰反射フィルム上に置かれた操作者の手などの操作物の形態の認識や、操作者の指などの操作物の座標位置の検出を行うものである。なお、詳しくは図3で詳細に説明する。
 マイコン制御部4は、接触式タッチパネル2と光学式タッチパネル3で生成された信号を受信したり、光学式タッチパネルで検出した入射角と三角測量の原理により座標信号を生成したり、座標信号に対応するカーソルを表示パネル5上で移動させるといった演算機能やデータ処理機能を有する制御部である。
 表示パネル5とは、複数の表示モードとそれを制御するカーソルを表示する液晶や有機ELなどのディスプレイであり、タッチパネルを用いた入力装置1とは離れた位置に設置される。
 次に、図2に本発明のタッチパネルを用いた入力装置を覆う遮光性カバーの一例を示す。
 遮光性カバー6は、接触式タッチパネル2と光学式タッチパネル3を覆い、その一辺に開口部を設けて形成され、太陽光などの外部光の入射による誤動作を防ぐものである。
 図に示すように、支持台にタッチパネル式の入力装置1を配置し、接触式タッチパネルと光学式タッチパネルが位置する個所をドーム状に囲う。開口部は、操作者の手や指などの操作物を入れて操作を行う部分であり、操作性を確保するために一定の高さを要する。
 更に、図3を用いて本発明のタッチパネルを用いた入力装置1の具体的な構造について説明する。図3(A)は本発明の入力装置1の上面図であり、図3(B)はその断面図であり、図3(C)は検出部の光の照射範囲を表した図である。なお、ここでは接触式タッチパネルとして抵抗膜式タッチパネルを用いる場合を例に説明する。
 図3(A)に示すように、接触式タッチパネル2は、上面を開口した枠状の筐体7の中に設けられる。筐体7は、接触式タッチパネル2を支持し、タッチパネルを外力より保護し、光学式タッチパネル3の検出部34を設置する支持台としての役割がある。
 次に、本願の特徴である光学式タッチパネル3は、再帰反射フィルム31と、再帰反射フィルムに光を照射する発光部32(図示せず)とその反射光を受光する受光部33(図示せず)とからなる一対の検出部34で形成される。
 再帰反射フィルム31は、接触式タッチパネル2のタッチされる動作選択領域の全面が覆われるように設けられる。
 検出部34は、接触式タッチパネル2の一辺の両端で、接触式タッチパネル2の表面より上方に位置して一対設けられる。検出部の設置には強度が必要となるため、筐体7側に設けると良い。検出部34は、図示しない発光部31と受光部32とからなる。従って、発光部31からの赤外線光は再帰反射フィルム31に斜め上方から照射され、再帰反射フィルム31で反射されて受光部32に戻る。
 図3(B)の断面図は、図3(A)のX−X線で示す部分に対応している。図に示すように、接触式タッチパネル2として、ガラス−ガラス構造あるいはフィルム−ガラス構造の抵抗膜式タッチパネルを用いる。
 接触式タッチパネル2には、上基板21と下基板22の片面にITO膜23が形成され、フォトエッチングによりパターンニングした透明電極や引き出し電極、外部取り出し電極(図示せず)が形成される。そして、上基板21と下基板22の透明電極を対向するように重ね合わせ、基板の周端部に設けた接着層24で上下基板を貼着する。なお、上下基板の間隔を保持するために、一方のガラス基板に図示しないドットスペーサが多数配設されている。
 接触式タッチパネル2のタッチされる動作選択領域の任意の点を指またはペン等で押圧操作すると、その点において上基板の透明電極と下基板の透明電極とが接触してオン状態となる。このオン信号が各引き出し電極、外部取り出し電極を介してマイコン制御部4へと送られ、オン信号に対応する処理が行われる。
 なお、押圧操作を止めると上基板の透明電極と下基板の透明電極とが離れてオフ状態となり、かかるオン信号に対応する処理は終了する。
 光学式タッチパネル3は、接触式タッチパネル2の表面で、タッチされる動作選択領域とほぼ同じ大きさに再帰反射フィルム31が接着剤により貼着されている。また、再帰反射フィルム31は接触式タッチパネル2を押圧するときに同時に押圧されるため、その表面上には汚れや傷から守るための保護シート(図示せず)が貼着されている。そして、一対の検出部34は、接触式タッチパネルの一辺の両端の上方に位置するように、強度のある筐体7側に接着剤で固定される。発光部32には発光ダイオードを用い、受光部33にはCMOSセンサーを用いる。
 光学式タッチパネル3は、発光部32からの照射光が再帰反射フィルム31に当たると再帰反射し、照射光と同じ入射角度でまっすぐに戻る性質を利用している。再帰反射フィルム31上に、手、指またはペン等の操作物を置いたとき、その部分の照射光は遮られるために、受光部33では影として検出される。一対の検出部34でこの影を検出し、操作物の形態や座標位置を検出する。
 具体的には、2つの入射角度と三角測量の原理により操作物のある座標位置を検出する。この座標信号をマイコン制御部4へと送り、表示パネル5にカーソルを表示できる。
 また、複数本の指を広げたり、くっつけたりした形状で再帰反射フィルム31上に置いた場合には、斜め上方からの照射光が発光部から照射されるので、受光部で影の本数を検出し、マイコン制御部4でその操作物の形態を区別する。マイコン制御部4で形態認識信号を生成して、複数の表示モードの中から1つを選択して表示パネルに表示させることができる。
 本発明では上述した2種類の検出を1つの光学式タッチパネル3に持たせることが特徴である。
 図3(C)は、検出部34の発光部32から赤外線光が照射できる範囲を示している。図に示すように、再帰反射フィルム31より上方にある発光部32から照射するので、接触式タッチパネル2のタッチされる動作選択領域には赤外線光が照射されることがわかる。
 これにより、操作物の影になる部分をなくすことができ、より正確な形態の認識ができる。
 次に、図4~図6を用いて、光学式タッチパネルの検出方法を説明する。図4は、三角測量の原理により座標位置を検出する方法を説明する図である。図5(A)~図5(B)は、光学式タッチパネルによる指などの操作物の座標位置を検出する方法を説明する図である。図6(A)~図6(D)は、光学式タッチパネルによる手などの操作物の形態を認識する方法を説明する図である。
 図4に示すように、再帰反射フィルム31上の操作物をAとし、そのX座標とY座標を求める。
 左側の検出部の位置を原点、操作物の座標を(X,Y)とすると、右側の検出部方向がX軸となり、それに垂直の方向がY軸となる。
 そして、接触式タッチパネルの1辺と2箇所に配置した検出部34で検出した影との入射角度をそれぞれα、βとし、左右の検出部34間の距離をLとすると、以下の関係式
 tan α=Y/X        …(1)
 tan β=Y/(L−X)    …(2)
が成立する。
式(1)、式(2)よりXを求めると、
 式(1)より Y=X tan α
 式(2)より Y=(L−X) tan β
 ∴ X=(L tan β)/(tan α + tan β)   …(3)
となる。
従って、検出された角度α、βと、式(1)、式(3)により、操作物Aの座標(X,Y)を算出できる。
 また、図5(A)は光学式タッチパネルによる形態を認識する方法を説明する図であり、図5(B)はその信号強度を説明する図である。
 図5(A)に示すように、再帰反射フィルム31上に、操作者の指1本を置いた場合には、2つの検出部から光が照射され、指がある部分は影として受光部に検出される。受光部では、図5(B)に示すような検出が行われる。
 図中、(1)の両矢印間は、再帰反射フィルム上になにも操作物がない状態を表した信号強度である。操作物がないため、照射光は全て反射されるので、水平画素位置に対して水平な線となる。
 なお、信号強度は初期値に対して補正して図示している。
 一方、図中(2)の両矢印間は、再帰反射フィルム上に操作物がある状態を表した信号強度である。操作物により影が検出されるため、影を検出している間は信号強度が弱くなる。
 これを利用して、操作物の形態を区別することができる。
 ここで、水平画素位置とは、検出部に対して水平に位置する辺に現れる影の位置を示すものである。
 図6(A)に示すように、検出部34を再帰反射フィルム31面より上方に配置し、再帰反射フィルム31上に操作物8を置くことで、斜め上方より操作物全体に赤外線光を照射できるので、操作物に影ができにくい。
 しかし、隣り合う操作物が接近する場合には、照射方向により重なり、1本の操作物と認識されることは避けられない。これを解消するために、一対の検出部34を接触式タッチパネル2の一辺の両端の上方に設け、各検出部から検出した信号強度のグラフを合成して検出結果の正確性を高めている。
 これにより、手などの操作物を配置した場合でも、その本数を検出することができる。
 図6(B)には、図6(A)の左側の受光部で検出した信号強度を示す。手などの操作物に対し、小指側から照射されるので、小指、薬指、中指、人差し指の4本の影が現れる。この際、親指は人差し指の影となり、発光部からも遠くに位置するために、人差し指の影は水平画素位置に対して幅が広く、そして信号強度は弱く現れる。
 一方、図6(C)には、図6(A)の右側の受光部で検出した信号強度を示す。この場合は、親指側から照射されるので、親指、人差し指、中指、薬指の4本の影が現れる。上述同様に、小指は薬指の影となり、発光部からも遠くに位置するために、薬指の影は水平画素位置に対して幅が広く、そして信号強度は弱く現れる。
 そして、図6(D)に示すように、マイコン制御部4でこれらの検出結果が合成される。図に示すように、再帰反射フィルム31上に5本指を広げた場合には5本指の数だけ影があることがわかる。これを2箇所の検出部34で行い、それらの結果を合成させることで、正確に識別できる。その結果、指の本数を区別できる。
 従って、検出部34は再帰反射フィルム31の表面より30mm~100mm程度上方に位置させれば、操作物全体に赤外線光を照射できる。検出部34の上方への高さは操作物全体を照射できる範囲に選択されると良い。
 上述のように指の本数はマイコン制御部4で識別され、形態認識信号が生成される。
 形態認識信号とは、指の本数ごとに各表示モードが対応し、識別された本数の表示モードを選択して表示パネルの表示を制御する信号である。
 次に、図7を用いて本発明のタッチパネルを用いた入力装置の入力方法について説明する。
 タッチパネルを用いた入力装置1の電源をオンにすると、入力装置と離れた位置に設けた表示パネル5に初期設定画面が表示される(ステップS1)。
 そして、光学式タッチパネル3の発光部32からの光が、再帰反射フィルム31上に置かれた手などの操作物に斜め上方から照射され、操作物から露出した再帰反射フィルム31からの反射光を受光部33で検出し、マイコン制御部4で操作物の形態を区別してその形態を認識する(ステップS2)。
 なお、この際に、一定間隔で複数回の照射を行い、その全ての反射光の検出値が一致している場合にのみ、操作物の形態を認識する。具体的には、ステップS2の処理を1秒間隔で3回連続して行う。これにより、操作者の意思により画面モードの選択が行われていることを認識でき、誤って手などの操作物や洋服の袖などが光学式タッチパネル上に置かれた場合を区別できる。
 そして、マイコン制御部4からの形態認識信号により、表示パネル5に表示される複数の表示モードの中から1つを選択する(ステップS3)。
 その後、かかる表示モードに切り替えられて、表示パネル5に表示される(ステップS4)。
 そして、表示された表示モードの中で、光学式タッチパネル3の再帰反射フィルム31上を移動させる指などの操作物の位置を検出部によりその入射角を検出してマイコン制御部4に入力し、三角測量の原理で操作物の座標を求める。マイコン制御部4はかかる座標の座標信号を表示パネルに伝えて、カーソルを座標信号に従って表示パネル上の動作選択領域で移動させる(ステップS5)。
 そして、選択した動作選択領域のカーソルがある位置で再帰反射フィルム31を介して接触式タッチパネル2に接触する。これによりマイコン制御部4から確定信号を出力し、選択された表示モードの操作を行う(ステップS6)。
 そして、他の表示モードへ切り替える場合には、現在の表示モードを終了してステップS1の初期設定画面を表示させる初期設定画面ボタンを選択する(ステップS7)。その後、マイコン制御部4によりステップS1の処理へと戻り、操作者は手などの操作物を認識させる。
 なお、ステップS7の代わりに、ステップS6の後に一定時間何も操作がされない場合には直接ステップS1へと戻るようにしても良い。
 ここで、本発明のタッチパネルを用いた入力装置をカーナビに利用する場合の実施例を説明する。
 図8は、カーナビとして車両に設置した一例を示した図である。図9は、カーナビに用いた場合の入力方法を説明するフロー図である。図10は、カーナビの各表示モードの画像の一例である。ここでは、操作物の認識本数が1本の場合にはナビモード、2本の場合には空調設定モード、3本の場合にはオーディオモード、4本の場合には車外カメラモード、5本の場合にはテレビモードがそれぞれ選択されるものとする。
 図8に示すように、カーナビとして用いた場合は、操作者の手元付近にタッチパネルを用いた入力装置1が設置され、太陽光などの外部光の入射を防ぐために、遮光性のカバー6で覆われている。具体的には、センターコンソールに配置すると、操作者は操作の前に配置個所を確認する作業を省略でき、また、手の移動も少ない分、操作性も向上する。
 表示パネル5は、操作者が視線を大きく移動することなく確認できる位置であればよく、具体的にはインストルメント・パネルに配置する。
 図9に示すように、操作者は車を起動させると入力装置1の電源はオンとなり、表示パネル5に初期設定画面が表示される(ステップS10)。
 そして、操作者は表示させる表示モードを選択するために、手などの操作物で所望の形態を作り、再帰反射フィルム31上に置いて認識させる。光学式タッチパネル3は再帰反射フィルム31からの反射光を受光部33で検出し、マイコン制御部4で操作物の形態を区別して認識し、その形態認識信号を生成する(ステップS20)。
 なお、この際に、ステップS20を1秒間隔で3回連続して行い、全ての検出値が一致していることを確認することで、誤操作との識別を行う。
 具体的には、操作者は1本指を立て再帰反射フィルム上に置いた場合には認識本数が1本と認識され、2本指を立てて置いた場合には認識本数が2本、3本指を立てて置いた場合には認識本数が3本と、それぞれ区別されて認識される。ここで、各認識本数における処理を説明する。
 (1本指を立てた場合)
 ステップS20の本数認識手段により、認識本数が1本と認識される(ステップS30)。
 マイコン制御部4からの形態認識信号により複数の画面モードの中から1つが選択され、表示パネル5に表示される(ステップS40)。
 ここでは、1本の場合の形態認識信号が生成されるため、ナビモードが選択されて表示される。
 その後は、光学式タッチパネル3は、再帰反射フィルム31上を移動させる指などの操作物の位置を検出し、その入射角を検出してマイコン制御部4に入力し、三角測量の原理で操作物の座標を求め、座標信号を生成して表示パネルに伝える。そして、その座標信号に従って表示パネル上をカーソル9が移動し、動作の選択を行う(ステップS50)。
 具体的には、図10(A)に示すように、操作者が再帰反射フィルム上で指示する座標位置を検出し、その座標信号に従って表示パネルのナビ画面上にカーソル9を表示させる。これにより、操作者は、地図上でカーソル9を移動させて画面を上下左右に移動させることや、表示画面の拡大あるいは縮小や目的地の検索などの各選択メニューから動作させたい選択領域にカーソル9を移動させて、その選択を行うことができる。なお、ここでは表示画面の拡大を行うものとする。
 そして、操作者は選択した動作選択領域にカーソル9がある状態で再帰反射フィルム31を介して接触式タッチパネル2に接触し、マイコン制御部4から確定信号を出力して、選択された動作を行う(ステップS60)。
 具体的には、操作者は表示画面を拡大させたい場合には、図10(A)に示すように、再帰反射フィルム31上を指で移動し、表示パネル上の拡大ボタンがある領域までカーソル9を移動し、選択を行う。そして、拡大ボタン上にカーソル9がある状態で再帰反射フィルム31を介して接触式タッチパネル2に接触して確定すると、画面が拡大される。
 最後に、他の表示モードに切り替える場合には、表示パネル上の初期設定画面へと戻る初期画面ボタンをカーソル9で選択し、接触式タッチパネルに接触して確定する(ステップS70)。その後、処理はステップS10へ戻るため、操作者は指で形態を作り認識させればよい。
 なお、初期設定画面へと戻るボタンで終了の指示を行う代わりに、ステップS60の後に一定時間何も操作がされない場合には直接ステップS10へ戻るようにしたり、操作者が指で形態を作って一定時間その形態をマイコン制御部に認識させることでステップS10が行われるようにしても良い。
 (2本指を立てた場合)
 なお、各処理は上述の1本指を立てた場合と同様であるので、具体的な処理の流れを以下に説明する。
 ステップS20の本数認識手段により2本と認識され(ステップS31)、表示パネル5には空調設定画面が表示される(ステップS41)。
 操作者は、空調の温度を23度から25度に上げたい場合には、図10(B)に示すように、再帰反射フィルム31上を指で移動させて温度上昇ボタンの領域にカーソル9を移動して選択を行い(ステップS50)、カーソル9が温度上昇ボタン上にある状態で再帰反射フィルム31を介して接触タッチパネル2に接触して確定する(ステップS60)。この場合には2度上昇させるため、接触式タッチパネル2に2回タッチすればよい。
 その後、初期設定画面へと戻る初期画面ボタンにタッチして、ステップS10へと戻る(ステップS70)。
 (3本指を立てた場合)
 なお、2本指の場合と同様に、具体的な処理の流れを以下に説明する。
 ステップS20の本数認識手段により3本と認識され(ステップS32)、表示パネル5にはオーディオ画面が表示される(ステップS42)。
 操作者は、1曲スキップさせたい場合には、図10(C)に示すように、再帰反射フィルム31上を指で移動させてスキップボタンの領域にカーソル9を移動して選択を行い(ステップS50)、カーソル9がスキップボタン上にある状態で再帰反射フィルム31を介して接触タッチパネル2に1回接触して確定する(ステップS60)。
 その後、初期設定画面へと戻る初期画面ボタンにタッチして、ステップS10へと戻る(ステップS70)。
 (4本指を立てた場合)
 なお、2本指の場合と同様に、具体的な処理の流れを以下に説明する。
 ステップS20の本数認識手段により4本と認識され(ステップS33)、表示パネル5には車外カメラ画面が表示される(ステップS43)。
 操作者は、リアカメラに切り替えたい場合には、再帰反射フィルム31上を指で移動させてリアカメラ切替ボタンの領域にカーソル9を移動して選択を行い(ステップS50)、カーソル9がリアカメラ切替ボタン上にある状態で再帰反射フィルム31を介して接触タッチパネル2に1回接触して確定する(ステップS60)。
 その後、初期設定画面へと戻る初期画面ボタンにタッチして、ステップS10へと戻る(ステップS70)。
 (5本指を立てた場合)
 なお、2本指の場合と同様に、具体的な処理の流れを以下に説明する。
 ステップS20の本数認識手段により5本と認識され(ステップS34)、表示パネル5にはテレビ画面が表示される(ステップS44)。
 操作者は、選局を変更したい場合には、再帰反射フィルム31上を指で移動させて選局ボタンの領域にカーソル9を移動して選択を行い(ステップS50)、カーソル9が所望の選局ボタン上にある状態で再帰反射フィルム31を介して接触タッチパネル2に1回接触して確定する(ステップS60)。
 その後、初期設定画面へと戻る初期画面終了ボタンにタッチして、ステップS10へと戻る(ステップS70)。
 なお、入力装置1のタッチパネルのインチサイズと表示パネル5のパネルサイズが異なる場合には、ステップS50において求めたタッチパネル上の座標値を表示パネルのパネルサイズの座標値に変換し、座標信号を生成して表示パネルに伝える。これにより、入力装置1のタッチパネルのインチサイズと表示パネルのパネルサイズを自由に設計変更することができる。
 また、上述した実施例では、タッチパネルを用いた入力装置1をカーナビに用いた場合を説明したが、家電製品の入力装置や、ゲーム機の入力装置としても用いてもよい。
 1     入力装置
 2     接触式タッチパネル
 3     光学式タッチパネル
 4     マイコン制御部
 5     表示パネル
 6     遮光性カバー
 7     筐体
 8     操作物
 9     カーソル
 21    上基板
 22    下基板
 23    透明導電膜
 24    接着剤
 31    再帰反射フィルム
 32    発光部
 33    受光部
 34    検出部

Claims (6)

  1.  接触式タッチパネルと、
     前記接触式タッチパネルの表面を覆うように設けた再帰反射フィルムと、前記接触式タッチパネルの一辺の両端の上方に位置した発光部と受光部とからなる一対の検出部とを備えた光学式タッチパネルとで構成され、
     前記発光部からの光が前記再帰反射フィルム上に置かれる手などの操作物に斜め上方から照射され、前記操作物から露出した前記再帰反射フィルムからの反射光を前記受光部で検出して前記操作物の形態を区別して認識し、
     前記再帰反射フィルム上を移動させる指などの操作物の位置を前記検出部によりその入射角を検出し、三角測量の原理で前記操作物の座標を求め、
     前記接触式タッチパネルに接触することで入力情報の確定させることを特徴とするタッチパネルを用いた入力装置。
  2.  前記接触式タッチパネルと前記光学式タッチパネルは遮光性のカバーで覆われ、1辺に設けた開口部より前記操作物を入れることを特徴とする請求項1に記載のタッチパネルを用いた入力装置。
  3.  前記接触式タッチパネルとしては抵抗膜式タッチパネルまたは静電容量式タッチパネルを用いることを特徴とする請求項1に記載のタッチパネルを用いた入力装置。
  4.  前記光学式タッチパネルの前記検出部の前記発光部には発光ダイオードを用い、前記受光部にはCMOSセンサーを用いることを特徴とする請求項1に記載のタッチパネルを用いた入力装置。
  5.  接触式タッチパネルと、前記接触式タッチパネルの表面を覆うように設けた再帰反射フィルムと、前記接触式タッチパネルの一辺の両端の上方に位置した発光部と受光部とからなる一対の検出部とを備えた光学式タッチパネルとで構成されるタッチパネルを用いた入力装置を用い、該入力装置と離れた位置に設けた表示パネルに表示されるカーソルを前記入力装置から操作して入力する入力方法であって、
     前記光学式タッチパネルの前記発光部からの光が前記再帰反射フィルム上に置かれる手などの操作物に斜め上方から照射され、前記操作物から露出した前記再帰反射フィルムからの反射光を前記受光部で検出してマイコン制御部で前記操作物の形態を区別して、前記マイコン制御部からの形態認識信号で前記表示パネルに表示される複数の表示モードの中から1つを選択し、
     次に、選択された前記表示モードの中で、前記光学式タッチパネルの前記再帰反射フィルム上を移動させる指などの操作物の位置を前記検出部によりその入射角を検出して前記マイコン制御部に入力し、三角測量の原理で前記操作物の座標を求めて座標信号を前記表示パネルに伝えて前記カーソルを前記座標信号に従って前記表示パネル上の動作選択領域に移動させ、
     選択した前記動作選択領域の前記カーソルがある位置で前記接触式タッチパネルに接触して前記マイコン制御部から確定信号を出力して、選択された前記表示モードの操作を行うことを特徴とするタッチパネルを用いた入力装置の入力方法。
  6.  前記操作物の形態は指の本数で区別して、前記マイコン制御部からの形態認識信号で前記表示パネルに表示される複数の表示モードの中から1つを選択することを特徴とする請求項5に記載のタッチパネルを用いた入力装置の入力方法。
PCT/JP2011/050909 2010-07-13 2011-01-13 タッチパネルを用いた入力装置およびその入カ方法 WO2012008168A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP11806501.0A EP2595033B1 (en) 2010-07-13 2011-01-13 Input device using touch panel and input method thereof
US13/809,057 US9075479B2 (en) 2010-07-13 2011-01-13 Input device and method using an optical touch panel and a contact touch panel
JP2012524462A JP5406990B2 (ja) 2010-07-13 2011-01-13 タッチパネルを用いた入力装置およびその入力方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010159195 2010-07-13
JP2010-159195 2010-07-13

Publications (1)

Publication Number Publication Date
WO2012008168A1 true WO2012008168A1 (ja) 2012-01-19

Family

ID=45469182

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/050909 WO2012008168A1 (ja) 2010-07-13 2011-01-13 タッチパネルを用いた入力装置およびその入カ方法

Country Status (4)

Country Link
US (1) US9075479B2 (ja)
EP (1) EP2595033B1 (ja)
JP (1) JP5406990B2 (ja)
WO (1) WO2012008168A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235305A (ja) * 2012-05-02 2013-11-21 Shoei:Kk タッチパネル
WO2014004570A3 (en) * 2012-06-29 2014-02-20 Apple Inc. Far-field sensing for rotation of fingerprint
CN104076987A (zh) * 2013-03-25 2014-10-01 南京瓦迪电子科技有限公司 一种光学触控装置
JP2015072560A (ja) * 2013-10-02 2015-04-16 株式会社Nttドコモ 入力装置
US9111125B2 (en) 2013-02-08 2015-08-18 Apple Inc. Fingerprint imaging and quality characterization
US9135496B2 (en) 2012-05-18 2015-09-15 Apple Inc. Efficient texture comparison
US9202099B2 (en) 2012-06-29 2015-12-01 Apple Inc. Fingerprint sensing and enrollment
US9715616B2 (en) 2012-06-29 2017-07-25 Apple Inc. Fingerprint sensing and enrollment
US9846799B2 (en) 2012-05-18 2017-12-19 Apple Inc. Efficient texture comparison
JP2018125037A (ja) * 2013-04-28 2018-08-09 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co.,Ltd. タッチパネル及び液晶ディスプレイ
US10068120B2 (en) 2013-03-15 2018-09-04 Apple Inc. High dynamic range fingerprint sensing

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107077196B (zh) * 2014-09-30 2020-01-21 惠普发展公司,有限责任合伙企业 识别触敏表面上的对象
EP3242190B1 (en) * 2016-05-06 2019-11-06 Advanced Silicon SA System, method and computer program for detecting an object approaching and touching a capacitive touch device
JP6086461B1 (ja) 2016-09-09 2017-03-01 株式会社ネットアプリ タッチパネル及びタッチパネルシステム
JP6233941B1 (ja) * 2017-05-11 2017-11-22 株式会社ネットアプリ 非接触式の三次元タッチパネル、非接触式の三次元タッチパネルシステム、非接触式の三次元タッチパネルの制御方法、プログラム及び記録媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056749A (ja) * 1999-08-19 2001-02-27 Ricoh Co Ltd 筆記情報入力システム
JP2003173237A (ja) * 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
JP2004071233A (ja) 2002-08-02 2004-03-04 Fujikura Ltd 入力装置
JP4389855B2 (ja) 2005-09-05 2009-12-24 トヨタ自動車株式会社 車両用操作装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3819654B2 (ja) 1999-11-11 2006-09-13 株式会社シロク 指示体の識別機能を有する光デジタイザ
US20090309853A1 (en) * 2008-06-13 2009-12-17 Polyvision Corporation Electronic whiteboard system and assembly with optical detection elements
KR100913758B1 (ko) 2009-02-09 2009-08-24 호감테크놀로지(주) 터치 패널의 터치 위치 검출 장치
US8717315B2 (en) * 2009-10-06 2014-05-06 Pixart Imaging Inc. Touch-control system and touch-sensing method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056749A (ja) * 1999-08-19 2001-02-27 Ricoh Co Ltd 筆記情報入力システム
JP2003173237A (ja) * 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
JP2004071233A (ja) 2002-08-02 2004-03-04 Fujikura Ltd 入力装置
JP4389855B2 (ja) 2005-09-05 2009-12-24 トヨタ自動車株式会社 車両用操作装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2595033A4 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235305A (ja) * 2012-05-02 2013-11-21 Shoei:Kk タッチパネル
US9135496B2 (en) 2012-05-18 2015-09-15 Apple Inc. Efficient texture comparison
US9846799B2 (en) 2012-05-18 2017-12-19 Apple Inc. Efficient texture comparison
WO2014004570A3 (en) * 2012-06-29 2014-02-20 Apple Inc. Far-field sensing for rotation of fingerprint
US9202099B2 (en) 2012-06-29 2015-12-01 Apple Inc. Fingerprint sensing and enrollment
US9715616B2 (en) 2012-06-29 2017-07-25 Apple Inc. Fingerprint sensing and enrollment
US9111125B2 (en) 2013-02-08 2015-08-18 Apple Inc. Fingerprint imaging and quality characterization
US10068120B2 (en) 2013-03-15 2018-09-04 Apple Inc. High dynamic range fingerprint sensing
CN104076987A (zh) * 2013-03-25 2014-10-01 南京瓦迪电子科技有限公司 一种光学触控装置
JP2018125037A (ja) * 2013-04-28 2018-08-09 京東方科技集團股▲ふん▼有限公司Boe Technology Group Co.,Ltd. タッチパネル及び液晶ディスプレイ
JP2015072560A (ja) * 2013-10-02 2015-04-16 株式会社Nttドコモ 入力装置

Also Published As

Publication number Publication date
JPWO2012008168A1 (ja) 2013-09-05
US20130106791A1 (en) 2013-05-02
EP2595033A1 (en) 2013-05-22
JP5406990B2 (ja) 2014-02-05
EP2595033B1 (en) 2015-03-04
EP2595033A4 (en) 2014-03-05
US9075479B2 (en) 2015-07-07

Similar Documents

Publication Publication Date Title
JP5406990B2 (ja) タッチパネルを用いた入力装置およびその入力方法
JP7248640B2 (ja) 複合ヒューマンインターフェースが備えられた電子機器
US11747916B2 (en) Electronic device having multi-functional human interface
TWI483143B (zh) 混合式指向裝置
JP4442877B2 (ja) 座標入力装置およびその制御方法
US20140132516A1 (en) Optical keyboard
TWI571769B (zh) 非接觸輸入裝置及方法
WO2007088942A1 (ja) 入力装置、及びその方法
CN103744542B (zh) 混合式指向装置
US20120044143A1 (en) Optical imaging secondary input means
WO2005031554A1 (ja) 光学式位置検出装置
JP5738863B2 (ja) タッチパネルを用いた入力装置およびその入力方法
JP2010160772A (ja) バーチャル入力装置を有する電子装置
KR20150050546A (ko) 복합휴먼 인터페이스 장치
KR20130031050A (ko) 터치 인식 디스플레이 장치
KR20130136313A (ko) 터치 펜을 이용한 터치 스크린 시스템 및 그 터치 인식 방법
KR100860158B1 (ko) 펜 형의 위치 입력 장치
JP2010009311A (ja) ユーザインタフェイス装置
CN105659193A (zh) 多功能人机交互设备
JP2015095210A (ja) 操作入力装置
KR102171400B1 (ko) 복합 휴먼 인터페이스가 구비된 전자기기 및 그 제어 방법
EP2101248B1 (en) Electronic device with unit for sending and receiving light
JP5986418B2 (ja) プログラマブル表示器、その制御装置
TW201305853A (zh) 混合式指向裝置
JP2011197756A (ja) 情報処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11806501

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012524462

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13809057

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2011806501

Country of ref document: EP