WO2014061626A1 - タッチパネル式入力装置、その制御方法、および、プログラム - Google Patents

タッチパネル式入力装置、その制御方法、および、プログラム Download PDF

Info

Publication number
WO2014061626A1
WO2014061626A1 PCT/JP2013/077894 JP2013077894W WO2014061626A1 WO 2014061626 A1 WO2014061626 A1 WO 2014061626A1 JP 2013077894 W JP2013077894 W JP 2013077894W WO 2014061626 A1 WO2014061626 A1 WO 2014061626A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch sensor
touch
information processing
information
detection output
Prior art date
Application number
PCT/JP2013/077894
Other languages
English (en)
French (fr)
Inventor
佐藤 雄一
健次 前田
辰雄 渡辺
高山 和也
夏見 昌之
哲也 梅木田
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US14/435,499 priority Critical patent/US20150301647A1/en
Priority to CN201380053695.3A priority patent/CN104737107B/zh
Publication of WO2014061626A1 publication Critical patent/WO2014061626A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/36Handling requests for interconnection or transfer for access to common bus or bus system
    • G06F13/368Handling requests for interconnection or transfer for access to common bus or bus system with decentralised access control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • G06F3/041661Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving using detection at multiple resolutions, e.g. coarse and fine scanning; using detection within a limited area, e.g. object tracking window
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0443Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a single layer of sensing electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention relates to a touch panel type input device, a control method thereof, and a program, and more particularly to a touch panel type input device that detects an input characteristic of an operator, a control method thereof, and a program.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2012-27581 discloses a portable terminal including sensors on the back surface and side surface of a layout surface on which a keyboard is disposed. The sensor outputs coordinate information in which contact is sensed. Thereby, a portable terminal detects a holding state from the output coordinate information. Then, the portable terminal estimates the movable range of the thumb based on the coordinate information, and displays the keyboard based on the estimated movable range of the thumb.
  • Japanese Patent Application Laid-Open No. 2008-242958 discloses an input device that performs input by pressing one or more buttons displayed on a touch panel.
  • a touch detection area on the touch panel is defined for each button.
  • the input device includes a history recording unit that records past input information, a first determination unit that determines whether the contact position of the user is included in any of the contact detection areas of the buttons, If the contact position is not included in any of the contact detection areas in the determination by the determination means, it is determined whether or not the contact position can be included in any of the contact detection areas based on the history record information.
  • a second determination unit; and a position addition unit that adds a contact position to the determined contact detection area when it is determined that the determination can be included by the determination by the second determination unit.
  • Patent Document 3 Japanese Patent Laid-Open No. 2011-164746 discloses a terminal device that accepts input by pen touch.
  • the terminal device includes an electromagnetic induction pen detection unit and a capacitance detection unit finger detection unit.
  • the electromagnetic induction pen detection unit acquires the pen tip coordinates (Xp, Yp) of the pen.
  • the capacitance detection unit type finger detection unit acquires palm coordinates (Xh, Yh).
  • the terminal device sets a right-handed GUI (Graphical User Interface).
  • the terminal device sets the left-handed hand GUI.
  • Japanese Patent Application Laid-Open No. 2011-81646 discloses a display terminal that accepts input with a stylus pen.
  • the tilt direction is detected based on the detection output of the sensor incorporated in the stylus pen.
  • the display terminal determines the user's dominant hand based on the detected tilt direction.
  • the display terminal controls the setting of UI (User Interface) according to the result of the dominant hand determination. Thereby, the user can operate the display terminal with a UI corresponding to the dominant hand, without depending on a plurality of operations.
  • UI User Interface
  • Japanese Patent Application Laid-Open No. 08-212055 discloses a three-dimensional position recognition type touch panel device.
  • the touch panel device is provided in a vertical direction around the display surface, a plurality of sensors for detecting the position of the object inserted in the space, and a display surface on which the object points based on the detection results of the plurality of sensors.
  • a display means for displaying an indication point indicating that the object is pointing to the position on the display surface obtained by the calculation means.
  • the sensor closest to the display surface senses an object inserted in the space, or when it is determined that the indication point exists within a predetermined coordinate area representing the input area for a certain period of time, Confirm the input.
  • the detected position of the object tip is associated with the display magnification. Accordingly, it is possible to perform an input operation without directly touching the display surface with a finger or the like, or to perform a plurality of enlargement operations with one input.
  • Japanese Patent Application Laid-Open No. 2012-073658 discloses a computer system capable of multi-window operation.
  • the window system executes control for assigning unique windows to a plurality of application programs operating in parallel.
  • the motion sensor as a pointing device irradiates the user's hand moving in a three-dimensional space with light intermittently, and executes a photographing process during irradiation and non-irradiation.
  • the difference image with the obtained image is analyzed, and the user's hand is detected.
  • the window system controls the window based on information on the user's hand detected by the motion sensor.
  • Patent Document 7 Japanese Patent Application Laid-Open No. 2011-180712 discloses a projection-type image display device.
  • the projection unit projects an image on a screen.
  • the camera captures an area including at least an image projected on the screen.
  • the infrared camera images the space above the screen.
  • the contact determination unit determines whether or not the user's finger is in contact with the screen based on the image captured by the infrared camera.
  • the coordinate determination unit outputs the coordinates of the tip of the user's finger as a pointing position with respect to the projected image based on the image captured by the camera. . Thereby, the user's touch operation with respect to the projected image is realized.
  • Patent Document 8 Japanese Patent Laid-Open No. 2001-31369 discloses an input device.
  • the input device uses an optical sensor to detect a position from when an operation point is detected in the measurement space until it touches the detection panel, and is selected based on the detection output and the contact position on the screen. Determine the item.
  • the operation position is the position of the adjacent item because the operator operated without looking at the screen from directly above. If the operation point slightly moves due to the operator's hand shaking, etc., the indicated point touches a slightly different position from the item that was previously indicated in a different color. However, erroneous input is prevented by selecting the item intended by the operator.
  • the user inputs information to the touch panel, it is an important matter as will be described below whether the user operates with the right hand or the left hand.
  • the user inputs information to the touch panel by holding the stylus pen directly with the dominant hand's finger or with the dominant hand. At this time, even if the user tries to touch the same point depending on whether the input is performed with the right hand or the left hand, a deviation may occur with respect to the actual touch position. Further, the magnitude of the touch position shift may change depending on the magnitude of the tilt of the finger or the stylus pen during input.
  • Patent Literature 1 and Patent Literature 4 to Patent Literature 8 require a new sensor and increase the production cost of the device. New challenges are likely to arise.
  • Patent Document 2 it is necessary to use past erroneous input information, and it takes time to optimize the determination of the contact position. Therefore, there is a problem that it takes time until the user understands the input characteristics after the user starts using the apparatus.
  • Patent Document 3 a certain wide input area is required for determination of a dominant hand based on an input position of a pen or a finger. For this reason, it is expected that the number of devices to which the technology described in Patent Document 3 is difficult to apply while communication devices are becoming smaller in size.
  • the present invention has been conceived in view of such a situation, and an object of the present invention is to provide a touch panel type input device early without using a dedicated sensor and from the start of use by a user, and the device can be small. In this case, the user input characteristics can be detected.
  • an input device including a touch panel including a touch sensor that detects an operation using an operation body.
  • the input device further includes information processing means for performing information processing based on information input to the touch sensor.
  • the touch sensor can change the detection output for the information processing means in accordance with the position of the object at a location separated from the touch sensor.
  • the information processing means determines whether the operation on the touch sensor is performed with the right hand or the left hand of the operator based on the distribution of the detection output in the touch sensor. Further, the information processing means acquires information for specifying the degree of inclination of the operating body with respect to the touch sensor based on the distribution of the detection output in the touch sensor.
  • the touch sensor increases the sensitivity of detection of the operation on the condition that a touch operation on the touch sensor is performed, and the sensitivity before the sensitivity is increased on the condition that the determination by the information processing means is completed.
  • the touch sensor increases the sensitivity of detecting the operation only in a part including a portion where the touch operation is detected.
  • the touch sensor increases the frequency of operation detection on the condition that a touch operation on the touch sensor is performed, and increases the frequency before the increase on the condition that the determination by the information processing means is completed.
  • the information processing means increases the frequency of acquiring the detection output from the touch sensor on the condition that the touch operation is performed on the touch sensor, and sets the frequency before increasing the frequency on the condition that the determination is completed. return.
  • the information processing unit corrects position information that is a target of input of information of the touch sensor based on the determination result and the degree of inclination.
  • a method for controlling the input device which is executed by a computer of the input device having a touch panel including a touch sensor that detects an operation using an operating body.
  • the control method includes a step of executing information processing based on information input to the touch sensor.
  • the touch sensor can change the detection output for the information processing means in accordance with the position of the object at a location separated from the touch sensor.
  • the step of executing the information processing is based on the detection output distribution in the touch sensor, determining whether the operation on the touch sensor is performed by the right hand or the left hand of the operator, and detecting the detection output in the touch sensor. Acquiring information specifying the degree of inclination of the operating body with respect to the touch sensor based on the distribution.
  • a program executed by a computer of an input device including a touch panel including a touch sensor that detects an operation using an operating tool causes the computer to execute a step of executing information processing based on information input to the touch sensor.
  • the touch sensor can change the detection output for the information processing means in accordance with the position of the object at a location separated from the touch sensor.
  • the step of executing the information processing is based on the detection output distribution in the touch sensor, determining whether the operation on the touch sensor is performed by the right hand or the left hand of the operator, and detecting the detection output in the touch sensor. Acquiring information specifying the degree of inclination of the operating body with respect to the touch sensor based on the distribution.
  • the input device determines whether the operator is operating the touch sensor with the right hand or the left hand based on the distribution of the detection output in the touch sensor. Further, the input device acquires information for specifying the degree of inclination of the operating body with respect to the touch sensor based on the distribution of the detection output in the touch sensor.
  • the touch panel type input device does not have a dedicated sensor, and can detect the user input characteristics early from the start of use by the user and even when the device is small.
  • FIG. 1 is a diagram showing an appearance of an input terminal 1 which is an embodiment of a touch panel input device.
  • input terminal 1 includes a display 35 and an input button 25A on the outer surface thereof.
  • the display 35 is a touch panel configured integrally with a touch sensor 40 described later.
  • the input terminal 1 is realized by a smartphone (high function mobile phone).
  • the input terminal 1 can be realized by other types of devices such as a tablet terminal or a mobile phone as long as the information processing function described in this specification can be exhibited.
  • the touch sensor 40 is configured integrally with the display 35, the touch operation on the touch sensor 40 is appropriately referred to as “touch operation on the touch panel” or “touch operation on the display 35”. It may be mentioned.
  • the touch sensor 40 and the display 35 may be configured separately rather than integrally.
  • FIG. 2 is a diagram for schematically explaining an example of an operation mode for the display 35 of the input terminal 1.
  • the operator in the input terminal 1, the operator can input information with the right hand or the left hand with respect to the display 35.
  • a hand 202 indicates the position of the operator's hand and fingers with respect to the display 35 when the operator inputs information with the left hand.
  • a hand 204 indicates the position of the operator's hand and fingers with respect to the display 35 when the operator inputs information with the right hand. If the operator is right-handed, the operator inputs information to the display 35 mainly with the right hand. If the operator is left-handed, the operator inputs information to the display 35 mainly with the left hand.
  • the finger used for input extends from the right side of the display 35 to the display 35.
  • the finger contacts the display 35 at a position slightly to the right of the point intended by the operator.
  • the detection output of the touch sensor of the display 35 can be influenced by the position of the finger or the stylus pen at a position separated from the display 35, the touch position detected by the touch sensor is the user. Can tend to shift to the right side of the position where the user actually tried to touch. In this case, the detection output distribution of the touch sensor may be biased on the right side of the touched portion.
  • touch sensors whose detection output can be affected as described above include, for example, sensors that employ a capacitance method or an infrared method as a detection method.
  • FIG. 3 is a diagram for explaining a malfunction caused by the detected touch position in the touch sensor being shifted with respect to the actual touch position.
  • FIG. 3A shows an example of handwriting input to the display 35 when the input terminal 1 detects and processes the touch position itself of the user as the touch position, or is ideal.
  • (B) of FIG. 3 is a figure which shows an example of the handwritten input with respect to the display 35 when the said correction
  • the degree of shift as described above is also affected by the direction in which the operator moves his / her finger while touch input continues. For example, the shift amount is small when the finger is moving from right to left, and the shift amount is large when the finger is moving from left to right. In other words, even if a single line is drawn, if the direction of finger movement changes while drawing a line, such as when drawing a curve, the amount of shift changes while drawing a line. obtain. Therefore, as shown in FIG. 3B, even if the user touches the display 35 in a trajectory according to the original character, the trajectory detected on the display 35 is different from the trajectory touched by the user. There may be cases. On the other hand, according to the present embodiment, when the user touches display 35 in a trajectory according to the original character, display 35 detects the trajectory as shown in FIG. .
  • FIG. 4 is a diagram schematically illustrating an example of an operation mode for the display 35 when the operator inputs information to the display 35 using the stylus pen.
  • the operator in input terminal 1, the operator can input information to display 35 using stylus pen 210 held by right hand 208, or stylus pen 210 held by left hand 206. You can also enter information using. If the operator is right-handed, the operator mainly holds the stylus pen 210 with the right hand and inputs information to the display 35. If the operator is left-handed, the operator mainly holds the stylus pen 210 with the left hand and inputs information to the display 35.
  • the input terminal 1 corrects the detection output from the touch sensor of the display 35 and / or adjusts the display content on the display 35 according to the determination result.
  • correction of the detection output for example, when it is determined to be right-handed, there is correction that shifts the touch position specified by the detection output from the touch sensor to the left side.
  • the degree of shift can be changed according to the distribution form of the detection output in the touch sensor. For example, the shift amount may be increased as it is determined that the inclination of the user's finger or hand (stylus pen 210) is larger.
  • adjustment of the display content on the display 35 for example, adjustment of the arrangement of icons displayed on the display 35 can be mentioned. More specifically, when it is determined to be right-handed, icons with higher usage frequency are arranged on the right side, and when it is determined to be left-handed, icons with higher usage frequency are arranged on the left side. As shown, the arrangement of the icons is adjusted.
  • FIG. 5 is a diagram for explaining a mechanism for detecting an operation position with respect to the display 35 by the touch sensor of the input terminal 1.
  • FIG. 5 schematically shows a cross section of the touch sensor 40.
  • the touch sensor 40 includes a glass substrate 40C, an electrode pair 40X disposed on the glass substrate 40C, and a protection plate 40D disposed on the electrode pair 40X.
  • the electrode pair 40X may be disposed on the protective plate 40D instead of the glass substrate 40C.
  • the touch sensor 40 is disposed on the front side with respect to the display 35 that displays the control state of the input terminal 1 and the like. Therefore, the operator visually recognizes the display on the display 35 via the touch sensor 40. In the present embodiment, a case where a touch panel is configured by the display 35 and the touch sensor 40 is shown.
  • the touch sensor 40 may be disposed on the back side of the display 35. In this case, the operator visually recognizes the display on the display 35 from the front surface of the input terminal 1 and performs a touch operation on the back surface of the input terminal 1.
  • Each electrode pair 40X includes an electrode 40A and an electrode 40B.
  • the capacitance of the electrode 40A of each electrode pair 40X and the capacitance of the electrode 40B change as the conductor approaches the electrodes 40A and 40B. More specifically, as shown in FIG. 5, when a finger (an operator), which is an example of a conductor, approaches the electrode pair 40 ⁇ / b> X, the capacitance of each of the electrodes 40 ⁇ / b> A and 40 ⁇ / b> B is expressed by the finger F It changes according to the distance. In FIG. 5, the distances between the electrodes 40A and 40B and the finger F are indicated by distances RA and RB, respectively.
  • the input terminal 1 as shown in FIG.
  • the electrode pair 40 ⁇ / b> X is arranged so as to be arranged over the entire area of the touch sensor 40 (which is arranged to overlap the display 35 in FIG. 6). Yes.
  • the electrode pairs 40X are arranged in a matrix, for example. Further, in the input terminal 1, the capacitances of the electrodes 40A and 40B of each electrode pair 40X are detected independently of each other. Therefore, the input terminal 1 can acquire the distribution of the amount of change in capacitance of the electrodes 40A and 40B of the electrode pair 40X across the entire touch sensor 40 (the entire display 35). Then, the input terminal 1 specifies the touch position on the display 35 based on the distribution of the change amount.
  • the electrostatic capacitance distribution of the electrodes 40A and 40B can be influenced by whether the operator operates with the right hand or the left hand as described with reference to FIG. Further, the electrostatic capacitance distribution of the electrodes 40A and 40B can be influenced by whether the operator holds the stylus pen 210 with the right hand or the left hand as described with reference to FIG.
  • FIGS. 7 and 8 are diagrams for explaining the influence of the portion of the conductors that do not contact the display 35 (touch panel) in the electrostatic capacitance distribution of the electrodes 40A and 40B.
  • FIG. 7A shows a state in which the stylus pen 210 is in contact with the display 35 without tilting left or right with respect to the display 35 in the input terminal 1.
  • the left-right direction is indicated by a line L1.
  • FIG. 7B shows an example of the detection output corresponding to the detection output of the electrode pair 40X arranged on the line L1 corresponding to the detection output of FIG.
  • the vertical axis of the graph in FIG. 7B corresponds to the capacitance.
  • the horizontal axis corresponds to information (sensor ID) that identifies each of the electrode pairs 40X arranged on the line L1.
  • the output E11 shown in FIG. 7B corresponds to the capacitance of the electrode 40B.
  • FIG. 8A shows a state in which the stylus pen 210 is in contact with the display 35 while tilting to the right with respect to the display 35 in the input terminal 1.
  • the left-right direction is indicated by a line L2.
  • FIG. 8B shows an example of the detection output corresponding to the detection output corresponding to FIG. 8A and the capacitance of the electrode pair 40X disposed on the line L2.
  • the vertical axis of the graph in FIG. 8B corresponds to the capacitance.
  • the horizontal axis corresponds to information (sensor ID) that identifies each of the electrode pairs 40X arranged on the line L2.
  • the output E21 shown in FIG. 8B corresponds to the capacitance of the electrode 40B.
  • the slope on the right side indicated by the white arrow A21 from the peak position is gentler than the slope on the left side. Therefore, in the input terminal 1, when the conductor (stylus pen 210) is tilted on the display 35, the distribution of detection outputs of the electrodes 40 ⁇ / b> A and 40 ⁇ / b> B of the touch sensor 40 is also biased to the same side as the tilt.
  • FIG. 9 is a diagram schematically showing the distribution of detection outputs of the electrode pairs 40X arranged two-dimensionally (for example, in a matrix) over the entire area of the touch sensor 40.
  • FIG. FIG. 9 shows the detection output corresponding to the state of FIG.
  • the input terminal 1 acquires detection outputs of the electrodes 40 ⁇ / b> A and 40 ⁇ / b> B of each electrode pair 40 ⁇ / b> X arranged two-dimensionally over the entire area of the touch sensor 40.
  • the position where the peak of the detection output exists is specified in the vertical direction.
  • FIG. 8B the degree of inclination of the conductor is predicted based on the distribution of the detection output in the left-right direction at the specified position.
  • the input terminal 1 predicts the inclination of the conductor from the distribution of the detection output using the relationship between the inclination of the conductor and the distribution of the detection outputs of the electrodes 40A and 40B. Then, the input terminal 1 determines whether the operator inputs information to the display 35 with the right hand or inputs information to the display 35 with the left hand, based on the prediction result of the inclination of the conductor.
  • the capacitances of the electrodes 40A and 40B of the touch sensor 40 may be affected by the distance from the conductor. Therefore, even if the conductor is not in contact with the touch sensor 40, the capacitance of the electrodes 40A and 40B may be affected if the conductor exists in the vicinity of the touch sensor 40.
  • the conductor (operator's right hand) is expected to be present near the surface of the display 35 near the right side of the point where the operator's finger or stylus pen 120 contacts.
  • the peak of the capacitance coincides with the point where the finger of the operator or the stylus pen 120 contacts.
  • the peak position shifts to the right from the position originally intended by the user to touch.
  • the location where the user tries to touch is often not just below the finger but slightly to the left.
  • the center of the position where the touch sensor 40 is touched is the belly of the finger, the peak position often shifts slightly to the right. The same applies when the operator inputs information to the display 35 with the left hand.
  • FIG. 10 is a block diagram illustrating an example of a hardware configuration of the input terminal 1.
  • the input terminal 1 includes a CPU 20, an antenna 23, a communication device 24, a hardware button 25, a camera 26, a flash memory 27, a RAM (Random Access Memory) 28, a ROM 29, and a memory card driving device 30. , Microphone 32, speaker 33, audio signal processing circuit 34, display 35, LED (Light Emitting Diode) 36, data communication I / F 37, vibrator 38, gyro sensor 39, and touch sensor 40. Prepare.
  • a memory card 31 can be attached to the memory card drive device 30.
  • the antenna 23 receives a signal transmitted from the base station, or transmits a signal for communicating with another communication device via the base station.
  • the signal received by the antenna 23 is subjected to front-end processing by the communication device 24, and the processed signal is sent to the CPU 20.
  • the touch sensor 40 receives a touch operation on the input terminal 1 and sends the coordinate value of the point where the touch operation is detected to the CPU 20.
  • the CPU 20 executes a process defined in advance according to the coordinate value and the operation mode of the input terminal 1.
  • the CPU 20 can determine whether the operator has used the right hand or the left hand for the touch operation according to the detection output from the touch sensor 40. Further, the CPU 20 can correct the coordinate value of the point where the touch operation is detected based on the result of the determination. In FIG. 10, these functions of the CPU 20 are shown as a determination unit 20A and a correction unit 20B.
  • the hardware button 25 includes an input button 25A. Each button included in the hardware button 25 is operated from the outside to input a signal corresponding to each button to the CPU 20.
  • the CPU 20 executes a process for controlling the operation of the input terminal 1 based on a command given to the input terminal 1.
  • the CPU 20 executes a predetermined process based on the signal sent from the communication device 24 and sends the processed signal to the audio signal processing circuit 34.
  • the audio signal processing circuit 34 performs predetermined signal processing on the signal, and sends the processed signal to the speaker 33.
  • the speaker 33 outputs sound based on the signal.
  • the microphone 32 receives an utterance to the input terminal 1 and sends a signal corresponding to the uttered voice to the voice signal processing circuit 34.
  • the audio signal processing circuit 34 executes a predetermined process for a call based on the signal, and sends the processed signal to the CPU 20.
  • the CPU 20 converts the signal into data for transmission, and sends the converted data to the communication device 24.
  • the communication device 24 generates a signal for transmission using the data, and transmits the signal to the antenna 23.
  • the flash memory 27 stores data sent from the CPU 20.
  • the CPU 20 reads data stored in the flash memory 27 and executes a predetermined process using the data.
  • the RAM 28 temporarily holds data generated by the CPU 20 based on operations performed on the touch sensor 40 or operations on other input terminals.
  • the ROM 29 stores a program or data for causing the input terminal 1 to execute a predetermined operation.
  • the CPU 20 reads the program or data from the ROM 29 and controls the operation of the input terminal 1.
  • the memory card driving device 30 reads out data stored in the memory card 31 and sends it to the CPU 20.
  • the memory card drive device 30 writes the data output by the CPU 20 in the empty area of the memory card 31.
  • the memory card drive device 30 erases data stored in the memory card 31 based on the command received by the CPU 20.
  • the memory card drive device 30 may be replaced with a media drive that reads and writes information on a recording medium other than the memory card 31.
  • Recording media include CD-ROM (Compact Disk-Read Only Memory), DVD-ROM (Digital Versatile Disk-Read Only Memory), Blue-ray disk, USB (Universal Serial Bus) memory, memory card, FD (Flexible Disk). ), Hard disk, magnetic tape, cassette tape, MO (Magnetic Optical Disk), MD (Mini Disk), IC (Integrated Circuit) card (excluding memory card), optical card, mask ROM, EPROM, EEPROM (Electronically Erasable Programmable Read) Non-volatile storage media such as “Only Memory”.
  • the audio signal processing circuit 34 executes signal processing for a call as described above.
  • the CPU 20 and the audio signal processing circuit 34 are shown as separate configurations. However, in other aspects, the CPU 20 and the audio signal processing circuit 34 may be configured as an integral unit. Good.
  • the display 35 displays an image defined by the data based on the data acquired from the CPU 20. For example, the attributes (still file name, performer, performance time, etc.) of still images, moving images, and music files stored in the flash memory 27 are displayed.
  • the LED 36 realizes a predetermined light emission operation based on a signal from the CPU 20.
  • Data communication I / F 37 accepts mounting of a data communication cable.
  • the data communication I / F 37 sends a signal output from the CPU 20 to the cable.
  • the data communication I / F 37 sends data received via the cable to the CPU 20.
  • the vibrator 38 performs an oscillating operation at a predetermined frequency based on a signal output from the CPU 20.
  • the gyro sensor 39 detects the direction of the input terminal 1 and transmits the detection result to the CPU 20.
  • the CPU 20 detects the attitude of the input terminal 1 based on the detection result. More specifically, the shape of the housing of the input terminal 1 is a rectangle as shown in FIG. Then, based on the detection result, the CPU 20 determines whether the longitudinal direction of the rectangle is positioned in the vertical direction of the user who visually recognizes the display 35 or in the horizontal direction. Detect posture.
  • the gyro sensor 39 can be replaced with any member that acquires data for detecting the attitude of the casing of the input terminal 1.
  • FIG. 11 is a flowchart of processing executed by the CPU 20 for detecting a touch operation in the input terminal 1. Note that the processing in FIG. 11 is continuously executed during a period in which the input terminal 1 operates in a mode in which a touch operation to the touch sensor 40 is received.
  • step S10 CPU 10 determines whether or not a touch operation on touch sensor 40 has been performed. If the CPU 10 determines that there is no touch operation, the CPU 10 waits until the operation is detected. If the CPU 10 determines that there is a touch operation, the process proceeds to step S20. Note that, for example, as described with reference to FIG. 7B and the like, the CPU 10 determines that the absolute value of at least one of the capacitances of all the electrode pairs 40X is equal to or greater than a specific value. It is determined that a touch operation has been performed.
  • step S20 the CPU 20 changes the operation mode so as to increase the sensitivity of the touch sensor 40, and advances the process to step S30.
  • “increasing the sensitivity of the touch sensor 40” is realized by, for example, increasing the number of sensing integrations or improving the amount of information.
  • the increase in the number of sensing integrations means, for example, that the CPU 20 integrates eight outputs from each electrode 40A, 40B to determine one detection output of each electrode 40A, 40B of each electrode pair 40X of the touch sensor 40.
  • the improvement of the information amount includes, for example, increasing the gain of the detection output from each electrode 40A, 40B in the CPU 20.
  • step S30 the CPU 20 determines the state of the sky above the display 35 (a position slightly separated from the surface of the display 35), and advances the process to step S40. In the determination, it is determined whether the conductor is tilted to the right or to the left as shown in FIG. More specifically, as described with reference to FIGS. 7 to 9, the CPU 20 creates a distribution of detection outputs of the electrodes 40A and 40B of the touch sensor 40, and the distribution of the detection outputs is When the peak of the detection output is centered, the upper conductor is tilted to the right or to the left depending on whether it is biased to the right (see FIG. 8B) or to the left. It is determined whether it is. In addition, the determination result of the attitude of the casing of the input terminal 1 based on the detection output of the gyro sensor 39 may be used for determining the vertical and horizontal directions.
  • step S40 the CPU 20 determines whether to proceed to step S50 or to proceed to step S60 based on the determination result in step S30. More specifically, if the determination result in step S30 is that the conductor in the sky is tilted to the right, the CPU 20 advances the process to step S50. On the other hand, if the determination result in step S30 is that the conductor in the sky is tilted to the left, the CPU 20 advances the process to step S60.
  • step S50 the CPU 20 determines that the operator is right-handed and advances the process to step S70.
  • step S60 the CPU 20 determines that the operator is left-handed and advances the process to step S70.
  • step S70 the CPU 20 returns the sensitivity of the touch sensor 40 raised in step S20 to the normal one, and proceeds to step S80.
  • step S80 the CPU 20 executes a process for deriving the coordinate value of the operation target on the touch panel (touch panel coordinate process), and returns the process to step S10.
  • step S80 the CPU 20 specifies the coordinate value of the operation target of the touch sensor 40 (each electrode of the touch sensor 40) specified based on the touch operation detected in step S10 based on the distribution of the detection result acquired in step S30.
  • the coordinate value of the operation target based on the detection outputs of 40A and 40B) can be corrected.
  • the specification of the coordinate value of the operation target based on the detection output of each electrode 40A, 40B of the touch sensor 40 can be realized by a known technique, and thus detailed description thereof will not be repeated here. Further, specific examples of the contents of correction include those described above as “example of correction of detection output”.
  • the CPU20 delivers the coordinate value derived
  • the CPU 20 can also hand over the result of determination in step S50 or step S60 together with the coordinate value to the application.
  • the application can change the processing content in the application including the display content on the display 35 according to the determination result, for example, adjusting the arrangement of icons as described above. Note that the application may also be executed by the CPU 20.
  • step S40 if it cannot be determined in step S40 that the conductor is tilted to the left or right in the sky of the display 35, the CPU 20 performs steps S50 and S60, for example, step S50 and the like. The process proceeds to a predetermined one.
  • FIG. 12 is a diagram illustrating a change in operation mode related to a change in sensitivity of the touch sensor 40 in the input terminal 1 according to the present embodiment.
  • FIG. 12 shows the presence / absence of a touch operation (touch operation), the drive mode of the touch sensor 40 (sensor drive), and the sensitivity (sensor sensitivity) of the touch sensor 40 in each drive mode.
  • the drive mode is a standby mode until a touch operation on touch sensor 40 is detected.
  • the touch operation is started (the process from step S10 to step S20 in FIG. 11 corresponds to the progress), the drive mode shifts to the sky determination mode accordingly, and the sensitivity of the sensor (touch sensor 40).
  • the sensitivity of the sensor before the rise is indicated by “Normal”, and the sensitivity of the sensor after the rise is indicated by “High”.
  • step S50 or step S60 in FIG. 12 the sky discrimination mode is finished.
  • the increase in sensitivity of the sensor is canceled.
  • detection of a normal touch position or the like is continued (normal coordinate detection mode). Then, when the touch operation is released, the operation mode shifts to the standby mode again.
  • the above sky determination mode and normal coordinate detection mode may be executed alternately during the touch operation.
  • the sky determination mode there is a possibility that the sensor sensitivity may be increased and noise may be easily affected. Accordingly, there is a possibility that the position accuracy of the touch operation may be deteriorated, so that it can be considered that the touch position information in the sky determination mode is not used.
  • the process belonging to the sky determination mode (steps S30 to S60) is executed only once during the period of one touch operation, the determination of the touch position cannot follow changes such as the degree of inclination. Possibility is also assumed. For this reason, when the change cannot be followed, the sky determination mode and the normal coordinate detection mode may be alternately performed during the period in which the touch operation is continued.
  • the touch position of the display 35 (the coordinate value that is the target of the touch) can be corrected based on the determination result. Accordingly, as described with reference to FIG. 3, the difference between the coordinate value of the touch operation acquired in the input terminal 1 and the position intended by the user can be further reduced.
  • the CPU 20 increases the sensitivity of the touch sensor 40 in a period (step S20 to step S70) in which the operator's dominant hand (hand used for operation) is determined. As a result, the CPU 20 can more accurately determine the dominant hand and detect the degree of inclination.
  • the power consumption of the input terminal 1 can increase due to an increase in sensitivity of the touch sensor 40.
  • the increase in power consumption can be suppressed as much as possible by increasing the sensitivity only during the above period.
  • the possibility that the output from the touch sensor 40 to the CPU 20 includes noise increases, and this may increase the error at the position specified based on the output of the touch sensor 40. obtain.
  • the CPU 20 determines from the position of the plurality of electrode pairs 40X included in the touch sensor 40 that are located in the vicinity of the position where the touch operation is detected in step S10. It is preferable to execute processing based on the detection output.
  • the error since the error may become large, the influence of the error can be minimized by not using the position information of the touch during the sensitivity increase time, but only by determining the effective hand and acquiring the tilt information. it can.
  • the number of integration of the detection output of the touch sensor 40 is increased.
  • the CPU 20 cannot specify the detection values of the electrodes 40 ⁇ / b> A and 40 ⁇ / b> B in the touch sensor 40 until the detection output of the number of times more than usual is acquired from the touch sensor 40.
  • processing may be slow.
  • the operation frequency of the CPU 20 and the touch sensor 40 may be changed to increase.
  • the increase in power consumption can be suppressed as much as possible by reducing the operating frequency from that period.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 入力装置は、操作者による操作を検出するタッチセンサとディスプレイ(35)とを含むタッチパネルを備えている。入力装置は、タッチセンサに入力された情報に基づいて、情報処理を実行する。タッチセンサは、当該タッチセンサに対して離間した場所における物体の位置に応じて、情報処理手段に対する検出出力を変更することができる。入力装置は、さらに、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作が、操作者の右手によって行なわれたか左手によって行なわれたかを判定する。

Description

タッチパネル式入力装置、その制御方法、および、プログラム
 本発明は、タッチパネル式入力装置、その制御方法、および、プログラムに関し、特に、操作者の入力特性を検出する、タッチパネル式入力装置、その制御方法、および、プログラムに関する。
 従来、タッチパネル式入力装置について、種々の技術が提案されている。特に、このような入力装置において、ユーザの利き手等、ユーザによる操作の特性を判定する技術は、利便性の向上という観点から興味深い。
 たとえば、特許文献1(特開2012-27581号公報)は、キーボードが配置される配置面の裏面および側面にセンサを備える携帯端末を開示する。当該センサは、接触を感知した座標情報を出力する。これにより、携帯端末は、出力された座標情報から、保持状態を検出する。そして、携帯端末は、当該座標情報に基づいて親指の可動範囲を推定し、推定した親指の可動範囲に基づいて、キーボードを表示する。
 特許文献2(特開2008-242958号公報)は、タッチパネル上に表示されている1つ又は複数のボタンの押下で入力を行う入力装置を開示する。当該入力装置では、ボタン毎に、タッチパネル上の接触検知領域が定義されている。そして、入力装置は、過去の入力情報を記録する履歴記録手段と、利用者の接触位置が、各ボタンの接触検知領域のいずれかに含まれるかを判定する第1の判定手段と、第1の判定手段による判定で上記接触位置が上記接触検知領域のいずれにも含まれない場合に、履歴記録情報にて、接触位置を接触検知領域のいずれかに含めることができるか否かを判定する第2の判定手段と、第2の判定手段による判定で含めることができると判定された場合に、判定された接触検知領域に、接触位置を追加する位置追加手段とを備える。これにより、利用者のタッチパネルへの接触位置を記録・学習することで、該接触位置と正規のボタン位置との誤差を自動補正する。
 特許文献3(特開2011-164746号公報)は、ペンタッチによる入力を受け付ける端末装置を開示する。当該端末装置は、電磁誘導方式ペン検出部と、静電容量検出部方式手指検出部とを含む。電磁誘導方式ペン検出部は、ペンのペン先座標(Xp,Yp)を取得する。静電容量検出部方式手指検出部は、手のひら座標(Xh,Yh)を取得する。ペン先X座標Xpが手のひらX座標Xhより小さい場合、端末装置は、右利き手用GUI(Graphical User Interface)を設定する。一方、ペン先X座標Xpが手のひらX座標Xhより大きい場合、端末装置は、左利き手用GUIを設定する。
 特許文献4(特開2011-81646号公報)は、スタイラスペンによる入力を受け付ける表示端末を開示する。スタイラスペンによって表示端末がタッチされると、スタイラスペンに組み込まれたセンサの検出出力に基づいて、傾き方向が検出される。表示端末は、検出された傾き方向に基づいて、ユーザの利き手を判定する。そして、表示端末は、利き手の判定結果に応じて、UI(User Interface)の設定を制御する。これにより、複数回の操作に拠らず、ユーザは利き手に応じたUIで、表示端末を操作することができる。
 特許文献5(特開平08-212005号公報)は、3次元位置認識型のタッチパネル装置を開示する。当該タッチパネル装置は、ディスプレイ面に対しその周囲の垂直方向に設けられ、空間内に挿入された物体の位置を検出する複数のセンサと、複数のセンサによる検出結果に基づいて物体が指し示すディスプレイ面上の位置を計算する計算手段と、該計算手段によって得られたディスプレイ面上の位置に物体が指し示していることを表わす指示ポイントを表示する表示手段とを有している。そして、当該タッチパネル装置は、ディスプレイ面に最も近いセンサが空間内に挿入された物体を感知した場合、または、指示ポイントが入力エリアを表わす所定座標区域内に一定時間存在したと判断された場合に、入力を確定する。また、タッチパネル装置では、検出された物体先端の位置と表示拡大率とが対応づけられている。これにより、ディスプレイ面に直接指などを触れることなく入力作業を行う、または複数回の拡大操作を1回の入力で済ますことを可能にする。
 特許文献6(特開2012-073658号公報)は、マルチウィンドウ操作が可能なコンピュータシステムを開示する。当該コンピュータシステムにおいて、ウィンドウシステムは、並行して動作する複数のアプリケーションプログラムにそれぞれ固有のウィンドウを割り当てる制御を実行する。ポインティングデバイスとしてのモーションセンサは、三次元空間中で動かされるユーザの手に間欠的に光を照射し、照射時及び非照射時で撮影処理を実行し、照射時に得られた画像と非照射時に得られた画像との差分画像を解析し、ユーザの手を検出する。ウィンドウシステムは、モーションセンサが検出したユーザの手の情報に基づいて、ウィンドウを制御する。
 特許文献7(特開2011-180712号公報)は、投写型の映像表示装置を開示する。投写型映像表示装置では、投写部は、スクリーンに映像を投写する。カメラは、少なくともスクリーンに投写された映像を含む領域を撮像する。赤外線カメラは、スクリーンの上方空間を撮像する。接触判定部は、赤外線カメラにより撮像された画像に基づき、ユーザの指がスクリーンに接触しているか否かを判定する。座標決定部は、接触判定部により指がスクリーンに接触していると判定されたとき、カメラにより撮像された画像に基づいて、ユーザの指の先端の座標を、投写映像に対するポインティング位置として出力する。これにより、投写映像に対するユーザのタッチ操作を実現する。
 特許文献8(特開2001-312369号公報)は、入力装置を開示する。当該入力装置は、光センサを利用して、計測空間内に操作点が検出されてから検出パネルに接触するまでの位置を検出し、当該検出出力と画面上接触位置とに基づいて、選択された項目を決定する。これにより、画面に接触する直前の位置を検出する装置と画面に接触した位置を検出する装置に誤差がある場合、操作者が画面を真上から見ないで操作したため操作位置が隣接項目の位置へとそれてしまった場合、操作者の手が震えたこと等によって操作点が微動してしまった場合などに、それまで別色で指示していた項目から多少異なる位置に指示点が接触しても、操作者の意図した項目を選択することで、誤入力を防止する。
特開2012-27581号公報 特開2008-242958号公報 特開2011-164746号公報 特開2011-81646号公報 特開平08-212005号公報 特開2012-073658号公報 特開2011-180712号公報 特開2001-312369号公報
 入力装置において、ユーザの利き手等の入力特性を検出し、当該特性に基づいて入力情報の処理等を制御することは、誤入力の削減等に貢献でき、重要であると考えられる。特に、ユーザがタッチパネルに情報を入力する際、当該ユーザが右手と左手のどちらで操作するかは、以下に説明するように、重要な事項である。ユーザは、利き手の指で直接、または、利き手でスタイラスペンを把持して、タッチパネルに情報を入力する。このとき、右手と左手のいずれで入力されるかによって、ユーザが同じポイントをタッチしようとしても、実際のタッチ位置に対してずれが生じる場合があるからである。さらには、指またはスタイラスペンの入力時傾きの大きさによって、上記タッチ位置のずれの大きさが変化する場合がある。
 しかしながら、従来の技術によってユーザの入力特性を検出しようとした場合、特許文献1および特許文献4~特許文献8に記載の技術では、新たにセンサを必要とし、装置の生産コストを上昇させる等の新たな課題が生じると考えられる。また、特許文献2に記載の技術では、過去の誤入力情報を利用する必要があり、接触位置の判定の適正化に時間を要する。したがって、ユーザが装置の利用を開始してからユーザの入力特性を把握するまでに時間を要するという課題があった。また、特許文献3に記載の技術では、ペンや指の入力位置に基づく利き手の判定に、ある程度広い入力領域が必要とされる。このため、通信機器の小型化が進む中、特許文献3に記載の技術を適用することが難しい機器が増えることが予想される。
 本発明は、かかる実情に鑑み考え出されたものであり、その目的は、タッチパネル式の入力装置において、専用のセンサを搭載することなく、ユーザによる利用の開始から早期に、かつ、装置が小型である場合にも、ユーザの入力特性を検出できるようにすることである。
 ある局面に従うと、操作体を用いた操作を検出するタッチセンサを含むタッチパネルを備えた入力装置が提供される。入力装置は、タッチセンサに入力された情報に基づいて、情報処理を実行する情報処理手段をさらに備える。タッチセンサは、当該タッチセンサに対して離間した場所における物体の位置に応じて、情報処理手段に対する検出出力を変更することができる。情報処理手段は、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作が、操作者の右手によって行なわれたか左手によって行なわれたかを判定する。また、情報処理手段は、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作体の傾きの度合いを特定するための情報を取得する。
 好ましくは、タッチセンサは、タッチセンサに対するタッチ操作が行なわれたことを条件として、操作の検出の感度を上昇させ、情報処理手段による判定が完了したことを条件として、感度を上昇させる前の感度に戻す。
 さらに好ましくは、タッチセンサは、タッチ操作が行なわれたことが検出された部分を含む一部の部分においてのみ、操作の検出の感度を上昇させる。
 好ましくは、タッチセンサは、タッチセンサに対するタッチ操作が行なわれたことを条件として、操作の検出の頻度を上昇させ、情報処理手段による判定が完了したことを条件として、当該頻度を上昇させる前の頻度に戻す。情報処理手段は、タッチセンサに対するタッチ操作が行なわれたことを条件として、タッチセンサから検出出力を取得する頻度を上昇させ、判定が完了したことを条件として、当該頻度を上昇させる前の頻度に戻す。
 好ましくは、情報処理手段は、判定の結果および傾きの度合いに基づいて、タッチセンサの情報の入力の対象となった位置情報を補正する。
 他の局面に従うと、操作体を用いた操作を検出するタッチセンサを含むタッチパネルを備えた入力装置のコンピュータによって実行される、当該入力装置の制御方法が提供される。当該制御方法は、タッチセンサに入力された情報に基づいて、情報処理を実行するステップを備える。タッチセンサは、当該タッチセンサに対して離間した場所における物体の位置に応じて、情報処理手段に対する検出出力を変更することができる。情報処理を実行するステップは、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作が、操作者の右手によって行なわれたか左手によって行なわれたかを判定することと、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作体の傾きの度合いを特定する情報を取得することとを含む。
 さらに他の局面に従うと、操作体を用いた操作を検出するタッチセンサを含むタッチパネルを備えた入力装置のコンピュータによって実行されるプログラムが提供される。プログラムは、コンピュータに、タッチセンサに入力された情報に基づいて、情報処理を実行するステップを実行させる。タッチセンサは、当該タッチセンサに対して離間した場所における物体の位置に応じて、情報処理手段に対する検出出力を変更することができる。情報処理を実行するステップは、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作が、操作者の右手によって行なわれたか左手によって行なわれたかを判定することと、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作体の傾きの度合いを特定する情報を取得することとを含む。
 ある局面によれば、入力装置は、タッチセンサにおける検出出力の分布に基づいて、タッチセンサを操作者が右手で操作しているか左手で操作しているかを判定する。また、入力装置は、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作体の傾きの度合いを特定するための情報を取得する。
 これにより、タッチパネル式の入力装置は、専用のセンサを備えることなく、ユーザによる利用の開始から早期に、かつ、装置が小型である場合にも、ユーザの入力特性を検出できる。
タッチパネル式入力装置の一実施の形態である入力端末の外観を示す図である。 入力端末のディスプレイに対する操作態様の例を模式的に説明するための図である。 タッチセンサにおいて、検出されるタッチ位置が、実際のタッチ位置に対してシフトすることによる不具合を説明するための図である。 操作者がスタイラスペンを利用してディスプレイに情報を入力する際の、ディスプレイに対する操作態様の例を模式的に示す図である。 入力端末のタッチセンサによって、ディスプレイに対する操作位置を検出する機構を説明するための図である。 入力端末におけるタッチセンサの配置の一例を示す図である。 電極の静電容量の分布における、導電体のディスプレイに接触しない部分による影響を説明するための図である。 電極の静電容量の分布における、導電体のディスプレイに接触しない部分による影響を説明するための図である。 タッチセンサの全域に渡って二次元的に配置された電極対のそれぞれの検出出力の分布を模式的に示す図である。 入力端末のハードウェア構成の一例を表わすブロック図である。 入力端末において実行される、タッチ操作の検出のための処理のフローチャートである。 入力端末における、タッチセンサの感度の変更に関する動作モードの変化を示す図である。
 以下、タッチパネル式入力装置の実施の形態について、図面を参照して説明する。なお、以下の説明において、同一の機能および作用を有する要素については、同じ各図を通して同じ符号を付し、重複する説明を繰返さない。
 [入力装置の外観]
 図1は、タッチパネル式入力装置の一実施の形態である入力端末1の外観を示す図である。図1を参照して、入力端末1は、その外面に、ディスプレイ35と、入力ボタン25Aとを含む。ディスプレイ35は、後述するタッチセンサ40と一体に構成された、タッチパネルである。本実施の形態では、入力端末1は、スマートフォン(高機能携帯電話機)によって実現される。なお、入力端末1は、本明細書に記載される情報処理機能を発揮できれば、タブレット端末または携帯電話機等、他の種類の装置によっても実現され得る。なお、本実施の形態では、タッチセンサ40がディスプレイ35と一体に構成されているため、タッチセンサ40へのタッチ操作が、適宜、「タッチパネルへのタッチ操作」「ディスプレイ35へのタッチ操作」と言及される場合もあり得る。上記タッチセンサ40とディスプレイ35については、一体に構成せず別々に構成してもよい。
 [処理の概要]
 図2は、入力端末1のディスプレイ35に対する操作態様の例を模式的に説明するための図である。図2を参照して、入力端末1では、操作者は、ディスプレイ35に対して、右手で情報を入力することも、左手で入力することもできる。図2において、手202は、操作者が左手で情報を入力する際のディスプレイ35に対する操作者の手および指の位置を示す。手204は、操作者が右手で情報を入力する際のディスプレイ35に対する操作者の手および指の位置を示す。操作者は、右利きであれば、主に右手でディスプレイ35へ情報を入力する。操作者は、左利きであれば、主に左手でディスプレイ35へ情報を入力する。
 図2から理解されるように、ディスプレイ35に、操作者の右手(手204)で情報が入力される場合、入力に利用される指は、ディスプレイ35の右側から当該ディスプレイ35へと延びている。このため、この場合のある傾向として、操作者が意図したポイントよりも若干右寄りの位置で、指がディスプレイ35に接触するという傾向を挙げることができる。また、この場合の他の傾向として、ディスプレイ35のタッチセンサの検出出力が、ディスプレイ35と離間した位置における指やスタイラスペンの位置に影響を受け得るとき、タッチセンサにおいて検出されるタッチ位置はユーザが実際にタッチしようとした位置よりも右側にシフトするという傾向を挙げることができる。また、その際にはタッチしている部分より右側において、タッチセンサの検出出力分布に偏りが生じるという傾向を挙げることができる。ユーザの指は、その先端がディスプレイ35に接触するとともに、それ以外の部分も当該接触位置より右側でディスプレイ35に近接しているからである。なお、検出出力が上記のような影響を受け得るタッチセンサの例としては、たとえば、検出方式として静電容量方式や赤外線方式を採用するセンサが挙げられる。
 また、図2から理解されるように、ディスプレイ35に、操作者の左手(手202)で情報が入力される場合、入力に利用される指は、ディスプレイ35の左側から当該ディスプレイ35へと延びている。このため、この場合のある傾向として、操作者が意図したポイントよりも若干左寄りの位置で、指がディスプレイ35に接触するという傾向を挙げることができる。また、この場合の他の傾向として、ディスプレイ35のタッチセンサの検出出力が、ディスプレイ35と離間した位置における指やスタイラスペンの位置に影響を受け得るとき、タッチセンサにおいて検出されるタッチ位置はユーザが実際にタッチしようとした位置よりも左側にシフトするという傾向を挙げることができる。また、その際にはタッチしている部分より左側において、タッチセンサの検出出力分布に偏りが生じるという傾向を挙げることができる。
 図3は、タッチセンサにおいて、検出されるタッチ位置が、実際のタッチ位置に対してシフトすることによる不具合を説明するための図である。図3の(A)は、入力端末1において、タッチ位置としてユーザのタッチ位置そのものが検出されて処理された際の、もしくは理想的な、ディスプレイ35に対する手書き入力の一例を示す。一方、図3の(B)は、当該補正がなされない場合の、ディスプレイ35に対する手書き入力の一例を示す図である。
 上記のようなシフトの度合いは、タッチ入力の継続中に操作者が指を動かす方向にも影響を受ける。たとえば、指が右から左に移動しているときはシフト量は少なく、指が左から右に移動しているときにはシフト量は多い、などの傾向が挙げられる。つまり、一本の線を描く場合であっても、曲線を描く等、線を描いている最中に指の移動方向が変わる場合には、線を描く最中に上記シフトの量は変化し得る。このため、図3の(B)に示されるように、ユーザが本来の文字に従った軌道でディスプレイ35をタッチしても、ディスプレイ35において検出される軌跡は、ユーザのタッチした軌道とは異なる場合があり得る。一方、本実施の形態によれば、ユーザが本来の文字に従った軌道でディスプレイ35をタッチすれば、図3の(A)に示されるように、ディスプレイ35は、その通りの軌道を検出する。
 図4は、操作者がスタイラスペンを利用してディスプレイ35に情報を入力する際の、ディスプレイ35に対する操作態様の例を模式的に示す図である。図4を参照して、入力端末1では、操作者は、ディスプレイ35に対して、右手208で把持したスタイラスペン210を利用して情報を入力することもできれば、左手206で把持したスタイラスペン210を利用して情報を入力することもできる。操作者は、右利きであれば、主に右手でスタイラスペン210を把持して、ディスプレイ35へ情報を入力する。操作者は、左利きであれば、主に左手でスタイラスペン210を把持して、ディスプレイ35へ情報を入力する。
 本実施の形態では、操作者が、ディスプレイ35に対して、右手で情報を入力しているか、左手で情報を入力しているかを判定する。そして、入力端末1は、当該判定結果に応じて、ディスプレイ35のタッチセンサからの検出出力の補正、および/または、ディスプレイ35における表示内容の調整を行なう。
 検出出力の補正の例としては、たとえば、右利きと判断された場合には、タッチセンサからの検出出力によって特定されるタッチ位置を左側にシフトさせるような補正が挙げられる。また、シフトの度合いは、タッチセンサにおける検出出力の分布の態様に応じて、変更され得る。たとえば、ユーザの指や手(スタイラスペン210)の傾きが大きいと判断されるほど、シフト量が大きくされる場合があり得る。
 ディスプレイ35における表示内容の調整の例としては、たとえば、ディスプレイ35に表示されるアイコンの配列の調整が挙げられる。より具体的には、右利きと判断された場合には、利用頻度が高いアイコンほど右側に配列されるように、また、左利きと判断された場合には、利用頻度の高いアイコンほど左側に配列されるように、アイコンの配列が調整される。
 [検出機構の例示]
 次に、入力端末1における、操作者の操作する手が右手であるか左手であるかの検出をするための機構について、説明する。本明細書では、操作者の操作する手が右手であるとが検出されたことを、操作者が右利きであることが検出されたという場合がある。操作者が右利きであれば、多くの場合、当該操作者は右手で操作するからである。また、操作者の操作する手が左手であるとが検出されたことを、操作者が左利きであることが検出されたという場合がある。操作者が左利きであれば、多くの場合、当該操作者は左手で操作するからである。
 図5は、入力端末1のタッチセンサによって、ディスプレイ35に対する操作位置を検出する機構を説明するための図である。
 図5には、タッチセンサ40の断面が模式的に示されている。タッチセンサ40は、ガラス基板40Cと、当該ガラス基板40C上に配置された電極対40Xと、電極対40X上に配置された保護板40Dとを含む。電極対40Xについては、ガラス基板40Cではなく保護板40D上に配置してもよい。タッチセンサ40は、入力端末1の制御状態等を表示するディスプレイ35に対して表面側に配置されている。したがって、操作者は、タッチセンサ40を介して、ディスプレイ35上の表示を視認する。本実施の形態では、ディスプレイ35とタッチセンサ40によって、タッチパネルが構成される場合を示す。
 なお、タッチセンサ40は、ディスプレイ35の裏面側に配置されていても良い。この場合、操作者は、入力端末1の表面からディスプレイ35における表示を視認し、入力端末1の裏面に対してタッチ操作を行なう。
 各電極対40Xは、電極40Aと、電極40Bとを含む。
 各電極対40Xの電極40Aの静電容量と電極40Bの静電容量とは、各電極40A,40Bに導電体が近づくと変化する。より具体的には、図5に示されるように、電極対40Xに、導電体の一例である(操作者の)指Fが近づくと、電極40A,40Bのそれぞれの静電容量は、指Fとの距離に応じて変化する。図5では、電極40A,40Bと指Fとの距離が、それぞれ、距離RA,RBで示されている。入力端末1では、図6に示されるように、電極対40Xは、タッチセンサ40(図6ではディスプレイ35に重ねられて配置されている)の全域に渡って配列されるように、配置されている。電極対40Xは、たとえばマトリクス状に、配列されている。また、入力端末1では、各電極対40Xの電極40A,40Bの静電容量を、互いに独立して検出される。したがって、入力端末1は、タッチセンサ40全域(ディスプレイ35全域)に渡って、電極対40Xの電極40A,40Bの静電容量の変化量の分布を取得できる。そして、入力端末1は、当該変化量の分布に基づいて、ディスプレイ35におけるタッチ位置を特定する。
 なお、上記した導電体がディスプレイ35(タッチパネル)に接触していない状態であっても、各電極40A,40Bの静電容量は、当該導電体の位置(各電極40A,40Bに対する距離)に影響を受け得る。したがって、電極40A,40Bの静電容量の分布は、図2を参照して説明したような、操作者が右手で操作するか左手で操作するかによって、影響を受け得る。また、電極40A,40Bの静電容量の分布は、図4を参照して説明したような、操作者がスタイラスペン210を右手で把持するか左手で把持するかによって、影響を受け得る。図7および図8は、電極40A,40Bの静電容量の分布における、導電体のディスプレイ35(タッチパネル)に接触しない部分による影響を説明するための図である。
 図7の(A)には、入力端末1において、ディスプレイ35に対して左右のいずれにも傾かずに、スタイラスペン210がディスプレイ35に接触している状態が示されている。図7の(A)では、左右方向が、線L1で示されている。
 図7の(B)には、図7の(A)に対応した検出出力であって、線L1上に配置された電極対40Xの静電容量の検出出力の一例が示されている。図7の(B)のグラフの縦軸は、静電容量に対応する。横軸は、線L1上に配置された各電極対40Xのそれぞれを特定する情報(センサID)に対応する。図7の(B)に示された出力E11は、電極40Bの静電容量に対応する。
 図8の(A)には、入力端末1において、ディスプレイ35に対して右側に傾きながら、スタイラスペン210がディスプレイ35に接触している状態が示されている。図8の(A)では、左右方向が、線L2で示されている。
 図8の(B)には、図8の(A)に対応した検出出力であって、線L2上に配置された電極対40Xの静電容量の検出出力の一例が示されている。図8の(B)のグラフの縦軸は、静電容量に対応する。横軸は、線L2上に配置された各電極対40Xのそれぞれを特定する情報(センサID)に対応する。図8の(B)に示された出力E21は、電極40Bの静電容量に対応する。
 図8の(B)では、出力E21は、ピーク位置から、白抜きの矢印A21で示した右側の勾配が、左側の勾配よりもなだらかになっている。したがって、入力端末1では、ディスプレイ35で導電体(スタイラスペン210)が傾いて存在する場合、タッチセンサ40の電極40A,40Bの検出出力の分布も当該傾きと同じ側に偏る。
 図9は、タッチセンサ40の全域に渡って二次元的に(たとえば、マトリクス状に)配置された電極対40Xのそれぞれの検出出力の分布を模式的に示す図である。なお、図9には、図8の(A)の状態に対応した検出出力が示されている。入力端末1では、図9に示されたように、タッチセンサ40の全域に渡って二次元的に配置された各電極対40Xの電極40A,40Bの検出出力を取得する。入力端末1では、上下方向で、検出出力のピークが存在する位置を特定する。そして、図8の(B)に示されたように、特定された位置の左右方向における検出出力の分布に基づいて、導電体の傾きの度合いが予測される。
 以上説明したように、入力端末1は、導電体の傾きと電極40A,40Bの検出出力の分布の関係を利用して、上記検出出力の分布から、上記導電体の傾きを予測する。そして、入力端末1は、上記導電体の傾きの予測結果に基づいて、操作者が、右手でディスプレイ35に情報を入力しているか、左手でディスプレイ35に情報を入力しているかを判定する。
 ここで、図2を参照して説明した、導電体の傾きによって、タッチセンサ40において検出されるタッチ位置が実際のタッチ位置よりも右側または左側にシフトするという傾向について、説明する。
 図5を参照して説明したように、タッチセンサ40の各電極40A,40Bの静電容量は、導電体との距離に影響を受ける場合がある。したがって、タッチセンサ40に導電体が接触していなくとも、タッチセンサ40近傍に導電体が存在すれば、電極40A,40Bの静電容量は影響を受ける可能性がある。操作者が右手でディスプレイ35に情報を入力する場合、ディスプレイ35の表面近傍では、操作者の指またはスタイラスペン120が接触する点の右側近傍に導電体(操作者の右手)が存在すると予想される。本来は、図7の(B)や図8の(B)に示されたようなグラフでは、静電容量のピークは、操作者の指またはスタイラスペン120が接触する点に一致する。しかしながら、上記のようなディスプレイ35の表面近傍における導電体の存在により、当該ピークの位置は、本来ユーザがタッチしようと意図した位置から右側にシフトする事態が想定される。たとえば、右手の指で操作する場合、ユーザがタッチしようと試みる場所は指の真下ではなく、若干左方向にある場合が多い。しかし、タッチセンサ40に触れられる位置の中心は指の腹であることから、ピーク位置は若干右方向にシフトすることが多い。また、操作者が左手でディスプレイ35に情報を入力する際も、同様であると考えられる。
 [ハードウェア構成]
 図10を参照して、入力端末1のハードウェア構成について説明する。図10は、入力端末1のハードウェア構成の一例を表わすブロック図である。
 入力端末1は、CPU20と、アンテナ23と、通信装置24と、ハードウェアボタン25と、カメラ26と、フラッシュメモリ27と、RAM(Random Access Memory)28と、ROM29と、メモリカード駆動装置30と、マイク32と、スピーカ33と、音声信号処理回路34と、ディスプレイ35と、LED(Light Emitting Diode)36と、データ通信I/F37と、バイブレータ38と、ジャイロセンサ39と、タッチセンサ40とを備える。メモリカード駆動装置30には、メモリカード31が装着され得る。
 アンテナ23は、基地局によって発信される信号を受信し、または、基地局を介して他の通信装置と通信するための信号を送信する。アンテナ23によって受信された信号は、通信装置24によってフロントエンド処理が行なわれた後、処理後の信号は、CPU20に送られる。
 タッチセンサ40は、入力端末1に対するタッチ操作を受け付けて、当該タッチ操作が検出された点の座標値をCPU20に送出する。CPU20は、その座標値と入力端末1の動作モードとに応じて予め規定されている処理を実行する。
 なお、CPU20は、上記したように、タッチセンサ40からの検出出力に応じて、操作者が、タッチ操作に、右手を使用したか左手を使用したかを判定することができる。また、CPU20は、当該判定の結果に基づいて、タッチ操作が検出された点の座標値を補正することができる。図10では、これらのCPU20の機能が、判定部20Aおよび補正部20Bとして示されている。
 ハードウェアボタン25は、入力ボタン25Aを含む。ハードウェアボタン25に含まれる各ボタンは、外部から操作されることにより、各ボタンに対応する信号を、CPU20に入力する。
 CPU20は、入力端末1に対して与えられる命令に基づいて入力端末1の動作を制御するための処理を実行する。入力端末1が信号を受信すると、CPU20は、通信装置24から送られた信号に基づいて予め規定された処理を実行し、処理後の信号を音声信号処理回路34に送出する。音声信号処理回路34は、その信号に対して予め規定された信号処理を実行し、処理後の信号をスピーカ33に送出する。スピーカ33は、その信号に基づいて音声を出力する。
 マイク32は、入力端末1に対する発話を受け付けて、発話された音声に対応する信号を音声信号処理回路34に対して送出する。音声信号処理回路34は、その信号に基づいて通話のために予め規定された処理を実行し、処理後の信号をCPU20に対して送出する。CPU20は、その信号を送信用のデータに変換し、変換後のデータを通信装置24に対して送出する。通信装置24は、そのデータを用いて送信用の信号を生成し、アンテナ23に向けてその信号を送出する。
 フラッシュメモリ27は、CPU20から送られるデータを格納する。また、CPU20は、フラッシュメモリ27に格納されているデータを読み出し、そのデータを用いて予め規定された処理を実行する。
 RAM28は、タッチセンサ40に対して行なわれた操作やその他の入力端末への操作に基づいてCPU20によって生成されるデータを一時的に保持する。ROM29は、入力端末1に予め定められた動作を実行させるためのプログラムあるいはデータを格納している。CPU20は、ROM29から当該プログラムまたはデータを読み出し、入力端末1の動作を制御する。
 メモリカード駆動装置30は、メモリカード31に格納されているデータを読み出し、CPU20に送出する。メモリカード駆動装置30は、CPU20によって出力されるデータを、メモリカード31の空き領域に書き込む。メモリカード駆動装置30は、CPU20によって受けた命令に基づき、メモリカード31に格納されているデータを消去する。
 なお、メモリカード駆動装置30は、メモリカード31以外の形態の記録媒体に対して情報の読み取りおよび書き込みを行なうメディアドライブに置換される場合があり得る。記録媒体としては、CD-ROM(Compact Disk - Read Only Memory)、DVD-ROM(Digital Versatile Disk - Read Only Memory)、Blue-rayディスク、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disk)、MD(Mini Disk)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
 音声信号処理回路34は、上述のような通話のための信号処理を実行する。なお、図10に示される例では、CPU20と音声信号処理回路34とが別個の構成として示されているが、他の局面において、CPU20と音声信号処理回路34とが一体として構成されていてもよい。
 ディスプレイ35は、CPU20から取得されるデータに基づいて、当該データによって規定される画像を表示する。たとえば、フラッシュメモリ27が格納している静止画、動画、音楽ファイルの属性(当該ファイルの名前、演奏者、演奏時間など)を表示する。
 LED36は、CPU20からの信号に基づいて、予め定められた発光動作を実現する。
 データ通信I/F37は、データ通信用のケーブルの装着を受け付ける。データ通信I/F37は、CPU20から出力される信号を当該ケーブルに対して送出する。あるいは、データ通信I/F37は、当該ケーブルを介して受信されるデータを、CPU20に対して送出する。
 バイブレータ38は、CPU20から出力される信号に基づいて、予め定められた周波数で発振動作を実行する。
 ジャイロセンサ39は、入力端末1の向きを検出し、検出結果をCPU20に送信する。CPU20は、当該検出結果に基づいて、入力端末1の姿勢を検出する。より具体的には、入力端末1の筐体の形状は、図1等に示されるように長方形である。そして、CPU20は、上記検出結果に基づいて、当該長方形の長手方向が、ディスプレイ35を視認するユーザの上下方向に位置するか、または、左右方向に位置するか等、入力端末1の筐体の姿勢を検出する。なお、ジャイロセンサ39の検出結果に基づいた入力端末1の筐体の姿勢の検出については、公知の技術を採用することができるため、ここでは詳細な説明は繰り返さない。また、ジャイロセンサ39は、入力端末1の筐体の姿勢を検出するためのデータを取得するいかなる部材にも置換され得る。
 [タッチ操作の検出処理]
 次に、図11を参照して、ディスプレイ35に対するタッチ操作の検出のための処理の内容を説明する。図11は、入力端末1において、タッチ操作の検出のためにCPU20が実行する処理のフローチャートである。なお、図11の処理は、入力端末1がタッチセンサ40へのタッチ操作を受け付けるモードで動作している期間中、継続して、実行される。
 図11を参照して、ステップS10で、CPU10は、タッチセンサ40へのタッチ操作があったか否かを判断する。そして、CPU10は、タッチ操作が無いと判断すると、当該操作が検出されるまで待機し、タッチ操作があったと判断すると、ステップS20へ処理を進める。なお、CPU10は、たとえば、図7の(B)等を参照して説明したように、すべての電極対40Xのうち少なくとも1つの静電容量の絶対値が特定の値以上となった場合に、タッチ操作があったと判断する。
 ステップS20では、CPU20は、タッチセンサ40の感度を上昇させるように動作モードを変更して、ステップS30へ処理を進める。なお、「タッチセンサ40の感度を上昇させる」とは、たとえば、センシングの積分回数の上昇、または、情報量の向上によって、実現される。センシングの積分回数の上昇とは、たとえば、CPU20が、タッチセンサ40の各電極対40Xの各電極40A,40Bの1回分の検出出力の決定に、各電極40A,40Bから8回の出力の積分値を利用していたところ、その4倍の32回の出力の積分値を利用することが挙げられる。情報量の向上とは、たとえば、CPU20において、各電極40A,40Bからの検出出力のゲインを上昇させることが挙げられる。
 ステップS30では、CPU20は、ディスプレイ35の上空(ディスプレイ35表面から僅かに離間した位置)の状態の判別を行なって、ステップS40へ処理を進める。判別とは、ディスプレイ35の上空において、導電体が、図8の(A)に示されたように右に傾いているか、または、左に傾いているかを判別する。より具体的には、CPU20は、図7~図9を参照して説明したように、タッチセンサ40の各電極40A,40Bの検出出力の分布を作成し、そして、当該検出出力の分布が、検出出力のピークを中心とした場合、右側に偏っているか(図8の(B)参照)、または、左側に偏っているかに応じて、上空の導電体が右側に傾いているか左側に傾いているかを判別する。なお、上下左右方向の決定には、ジャイロセンサ39の検出出力に基づく、入力端末1の筐体の姿勢の検出結果を利用してもよい。
 ステップS40では、CPU20は、ステップS30における判別結果に基づいて、ステップS50へ処理を進めるか、ステップS60へ処理を進めるかを決定する。より具体的には、ステップS30における判別結果が、上空の導電体が右に傾いているというものであれば、CPU20は、ステップS50へ処理を進める。一方、ステップS30における判別結果が、上空の導電体が左に傾いているというものであれば、CPU20は、ステップS60へ処理を進める。
 ステップS50では、CPU20は、操作者が右利きであると判断して、ステップS70へ処理を進める。
 一方、ステップS60では、CPU20は、操作者が左利きであると判断して、ステップS70へ処理を進める。
 ステップS70では、CPU20は、ステップS20で上昇させたタッチセンサ40の感度を通常のものに戻して、ステップS80へ処理を進める。
 ステップS80では、CPU20は、タッチパネルにおける操作対象の座標値を導出する処理(タッチパネル座標処理)を実行して、ステップS10へ処理を戻す。
 ステップS80では、CPU20は、ステップS30で取得した検出結果の分布に基づいて、ステップS10で検出したタッチ操作に基づいて特定される、タッチセンサ40の操作対象の座標値(タッチセンサ40の各電極40A,40Bの検出出力に基づく操作対象の座標値)を補正することができる。タッチセンサ40の各電極40A,40Bの検出出力に基づく操作対象の座標値の特定は、公知の技術によって実現可能であるため、ここでは詳細な説明は繰り返さない。また、補正の内容の具体例としては、「検出出力の補正の例」として上記されたものが例示される。
 CPU20は、ステップS80で導出した座標値を、入力端末1において起動しているアプリケーションに引き渡す。このとき、CPU20は、座標値とともに、ステップS50またはステップS60における判断の結果を、当該アプリケーションに引き渡すこともできる。これにより、当該アプリケーションは、たとえばアイコンの配列を上記したように調整する等、ディスプレイ35における表示内容を含むアプリケーションにおける処理内容を、判断の結果に応じて変更することができる。なお、当該アプリケーションも、CPU20によって実行される場合があり得る。
 以上説明した本実施の形態では、ステップS40において、ディスプレイ35の上空において、左右のいずれにも導電体が傾いていることが判別できない場合、CPU20は、たとえばステップS50等、ステップS50とステップS60のうち予め定められた方へ処理を進める。
 [駆動モードの変化の態様]
 図12は、本実施の形態における入力端末1における、タッチセンサ40の感度の変更に関する動作モードの変化を示す図である。図12では、タッチ操作の有無(タッチ操作)と、タッチセンサ40の駆動モード(センサ駆動)と、各駆動モードにおけるタッチセンサ40の感度(センサ感度)が示されている。
 図12を参照して、タッチセンサ40に対するタッチ操作が検出されるまで、駆動モードは、待機モードである。タッチ操作が開始されると(図11における、ステップS10からステップS20への処理が進行に相当)、これに応じて、駆動モードは上空判別モードへと移行し、センサ(タッチセンサ40)の感度が上昇する。図12では、上昇前のセンサの感度が「Normal」で示され、上昇後のセンサの感度が「High」で示されている。
 その後、図12のステップS50またはステップS60で利き手の判断が終了することにより、上空判別モードが終了する。これに応じて、センサの感度の上昇が解除される。その後、タッチセンサ40へのタッチ操作が継続されている期間中、通常のタッチ位置等の検出が継続される(通常座標検出モード)。そして、タッチ操作が解除されると、動作モードは、再度待機モードに移行する。
 上記、上空判別モードと通常座標検出モードとは、タッチ操作の期間中、交互に実行されてもよい。上空判別モードでは、センサ感度を上昇させることによりノイズの影響を受けやすくなる可能性がある。これにより、タッチ操作の位置精度が悪くなる可能性があるため、上空判別モードにおけるタッチ位置情報は使用しないことも考慮できる。ただし、1回のタッチ操作の期間中に上空判別モードに属する処理(ステップS30~ステップS60)が1回しか実行されなかった場合には、タッチ位置の決定が傾きの度合いなどの変化に追従できない可能性も想定される。このため、当該変化に追従できない場合には、上空判別モードと通常座標検出モードとは、タッチ操作が継続されている期間中、交互に行なわれればよい。
 [実施の形態の効果および変形例]
 以上説明した本実施の形態では、導電体(スタイラスペン、指、等)によるタッチセンサ40へのタッチ操作が検出されると、操作者が右利きか左利きかが判別される。これにより、ディスプレイ35における表示内容を含む、アプリケーションの処理内容が、ユーザが操作する手(右手または左手)に応じたものとすることができる。なお、当該判別は、ディスプレイ35に対するタッチ位置を検出するために搭載されているタッチセンサ40の検出出力に基づいて行なわれ、他に特別なセンサを必要としない。本実施の形態では、タッチセンサに情報を入力する上記導電体により、操作体が構成される。
 また、本実施の形態では、上記判別の結果に基づいて、ディスプレイ35のタッチ位置(タッチの対象となった座標値)が補正され得る。これにより、図3を参照して説明したように、入力端末1内で取得されるタッチ操作の座標値と、ユーザの意図した位置との差異をより小さくすることができる。
 本実施の形態では、操作者の利き手(操作に使用している手)を判別する期間(ステップS20~ステップS70)では、CPU20は、タッチセンサ40の感度を上昇させる。これにより、CPU20は、より正確に、利き手を判別できるとともに、その傾きの度合いを検出することができる。
 タッチセンサ40の感度の上昇により、入力端末1における消費電力量が上昇し得る。ただし、本実施の形態では、上記期間に限って感度を上昇させることにより、消費電力量の上昇が極力抑えられる。
 また、感度を上昇させることにより、タッチセンサ40からCPU20への出力がノイズを含む可能性が大きくなり、これにより、タッチセンサ40の出力に基づいて特定される位置における誤差が大きくなる場合があり得る。この点については、ステップS20~ステップS70の期間では、CPU20は、タッチセンサ40に含まれる複数の電極対40Xのうち、ステップS10においてタッチ操作を検出された位置とその近傍に位置するものからの検出出力に基づいて、処理を実行することが好ましい。また、上記誤差が大きくなる場合があるため、上記感度上昇時間におけるタッチの位置情報については利用せず、効き手判別、傾き情報取得にとどめることによって、該誤差の影響を最小限にとどめることができる。
 また、感度の上昇の一例として、タッチセンサ40の検出出力の積分回数を増大することを挙げた。この場合、CPU20は、タッチセンサ40から通常より多い回数の検出出力を取得するまで、タッチセンサ40における各電極40A,40Bの検出値を特定できない。これにより、処理が遅くなる可能性も想定される。この場合には、ステップS20~ステップS70の期間では、CPU20およびタッチセンサ40の動作周波数を上昇させるよう変更すればよい。一方、これ以外の期間では、動作周波数を当該期間よりも減少させることにより、消費電力量の上昇を極力抑えることができる。
 今回開示された実施の形態およびその変形例はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。実施の形態およびその変形例において開示された技術は、可能な限り単独でも組み合わせても実施され得ることが意図される。
 1 入力端末、20 CPU、20A 判定部、20B 補正部、23 アンテナ、24 通信装置、25 ハードウェアボタン、26 カメラ、27 フラッシュメモリ、28 RAM、29 ROM、30 メモリカード駆動装置、31 メモリカード、32 マイク、33 スピーカ、34 音声信号処理回路、35 ディスプレイ、36 LED、37 データ通信I/F、38 バイブレータ、35 ディスプレイ、39 ジャイロセンサ、40 タッチセンサ、40A,40B 電極、40C ガラス基板、40D 保護板、40X 電極対。

Claims (7)

  1.  操作体を用いた操作を検出するタッチセンサを含むタッチパネルを備えた入力装置であって、
     前記タッチセンサに入力された情報に基づいて、情報処理を実行する情報処理手段をさらに備え、
     前記タッチセンサは、当該タッチセンサに対して離間した場所における物体の位置に応じて、前記情報処理手段に対する検出出力を変更することができ、
     前記情報処理手段は、前記タッチセンサにおける検出出力の分布に基づいて、前記タッチセンサに対する操作が、操作者の右手によって行なわれたか左手によって行なわれたかを判定し、
     前記情報処理手段は、前記タッチセンサにおける検出出力の分布に基づいて、前記タッチセンサに対する前記操作体の傾きの度合いを特定するための情報を取得する、タッチパネル式入力装置。
  2.  前記タッチセンサは、前記タッチセンサに対するタッチ操作が行なわれたことを条件として、前記操作の検出の感度を上昇させ、前記情報処理手段による前記判定が完了したことを条件として、前記感度を上昇させる前の感度に戻す、請求項1に記載のタッチパネル式入力装置。
  3.  前記タッチセンサは、前記タッチ操作が行なわれたことが検出された部分を含む一部の部分においてのみ、前記操作の検出の感度を上昇させる、請求項2に記載のタッチパネル式入力装置。
  4.  前記タッチセンサは、前記タッチセンサに対するタッチ操作が行なわれたことを条件として、前記操作の検出の頻度を上昇させ、前記情報処理手段による前記判定が完了したことを条件として、当該頻度を上昇させる前の頻度に戻し、
     前記情報処理手段は、前記タッチセンサに対するタッチ操作が行なわれたことを条件として、前記タッチセンサから検出出力を取得する頻度を上昇させ、前記判定が完了したことを条件として、当該頻度を上昇させる前の頻度に戻す、請求項1~請求項3のいずれか1項に記載のタッチパネル式入力装置。
  5.  前記情報処理手段は、前記判定の結果および前記傾きの度合いに基づいて、前記タッチセンサの情報の入力の対象となった位置情報を補正する、請求項1~請求項4のいずれか1項に記載のタッチパネル式入力装置。
  6.  操作体を用いた操作を検出するタッチセンサを含むタッチパネルを備えた入力装置のコンピュータによって実行される、当該入力装置の制御方法であって、
     前記タッチセンサに入力された情報に基づいて、情報処理を実行するステップを備え、
     前記タッチセンサは、当該タッチセンサに対して離間した場所における物体の位置に応じて、前記情報処理手段に対する検出出力を変更することができ、
     前記情報処理を実行するステップは、
      前記タッチセンサにおける検出出力の分布に基づいて、前記タッチセンサに対する操作が、操作者の右手によって行なわれたか左手によって行なわれたかを判定することと、
      前記タッチセンサにおける検出出力の分布に基づいて、前記タッチセンサに対する前記操作体の傾きの度合いを特定するための情報を取得することとを含む、タッチパネル式入力装置の制御方法。
  7.  操作体を用いた操作を検出するタッチセンサを含むタッチパネルを備えた入力装置のコンピュータによって実行されるプログラムであって、
     前記プログラムは、前記コンピュータに、
     前記タッチセンサに入力された情報に基づいて、情報処理を実行するステップを実行させ、
     前記タッチセンサは、当該タッチセンサに対して離間した場所における物体の位置に応じて、前記情報処理手段に対する検出出力を変更することができ、
     前記情報処理を実行するステップは、
      前記タッチセンサにおける検出出力の分布に基づいて、前記タッチセンサに対する操作が、操作者の右手によって行なわれたか左手によって行なわれたかを判定することと、
      前記タッチセンサにおける検出出力の分布に基づいて、前記タッチセンサに対する前記操作体の傾きの度合いを特定するための情報を取得することとを含む、プログラム。
PCT/JP2013/077894 2012-10-17 2013-10-15 タッチパネル式入力装置、その制御方法、および、プログラム WO2014061626A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/435,499 US20150301647A1 (en) 2012-10-17 2013-10-15 Touch panel-type input device, method for controlling the same, and storage medium
CN201380053695.3A CN104737107B (zh) 2012-10-17 2013-10-15 触摸面板式输入装置、其控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012229693A JP6000797B2 (ja) 2012-10-17 2012-10-17 タッチパネル式入力装置、その制御方法、および、プログラム
JP2012-229693 2012-10-17

Publications (1)

Publication Number Publication Date
WO2014061626A1 true WO2014061626A1 (ja) 2014-04-24

Family

ID=50488189

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/077894 WO2014061626A1 (ja) 2012-10-17 2013-10-15 タッチパネル式入力装置、その制御方法、および、プログラム

Country Status (4)

Country Link
US (1) US20150301647A1 (ja)
JP (1) JP6000797B2 (ja)
CN (1) CN104737107B (ja)
WO (1) WO2014061626A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3134799A1 (en) * 2014-06-04 2017-03-01 Apple Inc. Mid-frame blanking

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015053034A (ja) * 2013-08-07 2015-03-19 船井電機株式会社 入力装置
KR20150019352A (ko) * 2013-08-13 2015-02-25 삼성전자주식회사 전자장치에서 그립상태를 인지하기 위한 방법 및 장치
US9665206B1 (en) * 2013-09-18 2017-05-30 Apple Inc. Dynamic user interface adaptable to multiple input tools
USD755244S1 (en) * 2013-12-30 2016-05-03 Samsung Electronics Co., Ltd. Display screen with animated icon
US10416801B2 (en) * 2014-04-08 2019-09-17 Atmel Corporation Apparatus, controller, and device for touch sensor hand-configuration analysis based at least on a distribution of capacitance values
USD776200S1 (en) * 2014-05-27 2017-01-10 Amazon Technologies, Inc. Label with a touch graphic
US10175741B2 (en) 2016-03-03 2019-01-08 Atmel Corporation Touch sensor mode transitioning
US10761634B2 (en) * 2016-07-06 2020-09-01 Sharp Kabushiki Kaisha Touch panel control device and electronic device
US20180181245A1 (en) * 2016-09-23 2018-06-28 Microsoft Technology Licensing, Llc Capacitive touch mapping
KR101815889B1 (ko) 2017-02-08 2018-01-08 계명대학교 산학협력단 사용자의 키 입력 특성을 학습하는 가상 키패드를 이용한 사용자의 키 입력 방법 추정 방법 및 시스템
JP7159636B2 (ja) * 2018-06-20 2022-10-25 カシオ計算機株式会社 電子機器、制御方法及びプログラム
US11775120B2 (en) * 2021-01-28 2023-10-03 Texas Instruments Incorporated Combined capacitive and piezoelectric sensing in a human machine interface
US11537239B1 (en) * 2022-01-14 2022-12-27 Microsoft Technology Licensing, Llc Diffusion-based handedness classification for touch-based input

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012146026A (ja) * 2011-01-07 2012-08-02 Canon Inc タッチパネル装置およびタッチパネル検出位置補正方法
JP2012194692A (ja) * 2011-03-15 2012-10-11 Ntt Docomo Inc 表示装置、表示装置の制御方法、及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250610A (ja) * 2009-04-16 2010-11-04 Sony Corp 情報処理装置、傾き検出方法及び傾き検出プログラム
JP2011028560A (ja) * 2009-07-27 2011-02-10 Sony Corp 情報処理装置、表示方法及び表示プログラム
CN102713822A (zh) * 2010-06-16 2012-10-03 松下电器产业株式会社 信息输入装置、信息输入方法以及程序
US9244545B2 (en) * 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
US9354804B2 (en) * 2010-12-29 2016-05-31 Microsoft Technology Licensing, Llc Touch event anticipation in a computing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012146026A (ja) * 2011-01-07 2012-08-02 Canon Inc タッチパネル装置およびタッチパネル検出位置補正方法
JP2012194692A (ja) * 2011-03-15 2012-10-11 Ntt Docomo Inc 表示装置、表示装置の制御方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3134799A1 (en) * 2014-06-04 2017-03-01 Apple Inc. Mid-frame blanking

Also Published As

Publication number Publication date
CN104737107A (zh) 2015-06-24
US20150301647A1 (en) 2015-10-22
CN104737107B (zh) 2017-05-31
JP2014081807A (ja) 2014-05-08
JP6000797B2 (ja) 2016-10-05

Similar Documents

Publication Publication Date Title
JP6000797B2 (ja) タッチパネル式入力装置、その制御方法、および、プログラム
US8466934B2 (en) Touchscreen interface
US9977497B2 (en) Method for providing haptic effect set by a user in a portable terminal, machine-readable storage medium, and portable terminal
JP4609557B2 (ja) 情報処理装置及び情報処理方法
US7705831B2 (en) Pad type input device and scroll controlling method using the same
JP5295328B2 (ja) スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
US9552071B2 (en) Information processing apparatus, information processing method and computer program
JP5808712B2 (ja) 映像表示装置
KR102184288B1 (ko) 입력 유닛에 햅틱 효과를 제공하는 휴대 단말 및 방법
US9817517B2 (en) Touch device and method of controlling the same that changes the sensitivity of a touch input based on the touch input's capacitance
KR20110074663A (ko) 정보처리장치 및 그 제어 방법
JP2010146032A (ja) 携帯端末装置、及び表示制御方法
JP2019128961A (ja) 指紋認識のための方法、電子装置及び格納媒体
US20130100061A1 (en) Mobile terminal and controlling method thereof
US20150268828A1 (en) Information processing device and computer program
WO2014049671A1 (ja) 表示装置およびペン入力消去方法
WO2015159774A1 (ja) 入力装置、入力装置の制御方法
US8188975B2 (en) Method and apparatus for continuous key operation of mobile terminal
KR20150008963A (ko) 스크린을 제어하는 휴대 단말 및 방법
US9235338B1 (en) Pan and zoom gesture detection in a multiple touch display
JP2010211323A (ja) 入力システム、携帯端末、入出力装置、入力システム制御プログラム、コンピュータ読み取り可能な記録媒体、および、入力システムの制御方法
JP2016119019A (ja) 情報処理装置、情報処理方法、プログラム
WO2018159414A1 (ja) 端末装置及び操作制御プログラム
KR101573287B1 (ko) 전자기기에서 터치 위치 디스플레이 방법 및 장치
KR102086676B1 (ko) 유저 인터페이스를 통한 입력 처리 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13846833

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14435499

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13846833

Country of ref document: EP

Kind code of ref document: A1