WO2013038630A1 - 情報入力装置及び情報入力方法 - Google Patents

情報入力装置及び情報入力方法 Download PDF

Info

Publication number
WO2013038630A1
WO2013038630A1 PCT/JP2012/005672 JP2012005672W WO2013038630A1 WO 2013038630 A1 WO2013038630 A1 WO 2013038630A1 JP 2012005672 W JP2012005672 W JP 2012005672W WO 2013038630 A1 WO2013038630 A1 WO 2013038630A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
detected
position information
unit
contact
Prior art date
Application number
PCT/JP2012/005672
Other languages
English (en)
French (fr)
Inventor
知成 高橋
池田 洋一
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2013508301A priority Critical patent/JP5841590B2/ja
Priority to US13/989,213 priority patent/US20130300704A1/en
Publication of WO2013038630A1 publication Critical patent/WO2013038630A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to an information input device and an information input method using a touch sensor such as a touch pad or a touch panel.
  • a touch sensor such as a touch pad or a touch panel.
  • touch input which is input by touching a touch sensor
  • the type of touch input motion is identified, and the motion
  • the present invention relates to an information input device and an information input method that perform information device control according to the type of information.
  • a touch pad is well known as one of input devices for operating a GUI screen displayed on the display.
  • the user can perform a pointing operation to move the cursor on the GUI screen by tracing the surface of the touch pad with a finger, and according to the movement of the user's finger. Intuitive operation can be performed.
  • gesture operations such as turning the surface of the touchpad as if drawing a circle with a finger (rotation operation) and operations for flicking the surface of the touchpad with a finger (flick operation)
  • rotation operation rotation operation
  • flick operation flick operation
  • the present invention solves the above-described conventional problems, and an object of the present invention is to provide an information input device having operation means adapted to the user's intention, improving the identification performance of gestures such as flicks and rotations.
  • an information input device is an information input device that specifies a touch input from a user as a touch gesture, and the touch input to the touch sensor and the touch sensor is performed.
  • a predetermined number of the contact positions detected after the touch input is started from a plurality of contact positions sequentially detected at a plurality of different timings during a predetermined time.
  • An input processing unit that specifies a touch gesture using a plurality of specific contact positions that are detected later and that exclude a contact position belonging to a predetermined region.
  • the input processing unit specifies a touch gesture using at least a predetermined number of contact positions detected since the start of touch input, and a predetermined number of detections have been performed.
  • the touch gesture is specified by excluding the contact positions included in a predetermined area that is a subsequent contact position and has many erroneous detections. For this reason, the adoption / non-adoption of the detection information of the touch sensor can be determined more appropriately. For this reason, detection of a touch gesture can be more adapted to the touch gesture intended by the user, and the performance of touch gesture input can be improved.
  • a recording medium such as a method, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the method, the integrated circuit, the computer program, and the recording medium. You may implement
  • the information input device of the present invention can make touch gesture detection more suitable for the touch gesture intended by the user, and can improve the performance of touch gesture input.
  • FIG. 1 is a block diagram illustrating a configuration of the information input device according to the first embodiment.
  • FIG. 2 is a diagram illustrating a point where a touch input by the user is performed on the touch sensor.
  • FIG. 3 is a diagram illustrating an example of the appearance of the information input device when the information input device is a remote controller.
  • FIG. 4 is a diagram illustrating a point where touch input by the user is performed on the touch sensor.
  • FIG. 5 is a diagram illustrating a point where a touch input by the user is performed on the touch sensor.
  • FIG. 6 is a diagram for explaining a first specific example of a predetermined area set as an exclusion area.
  • FIG. 7 is a diagram for explaining a plurality of detection points at which the detection unit detects a locus of finger movement on the touch sensor.
  • FIG. 8 is a diagram showing a graph in which a plurality of detection points are mapped to the two-dimensional coordinates of the time t and the vertical axis y.
  • FIG. 9 is a diagram for explaining detection points at which the detection unit detects a locus of finger movement on the touch sensor.
  • FIG. 10 is a diagram for explaining how to specify a touch gesture of a rotation operation by using a plurality of detection points.
  • FIG. 11 is a diagram for explaining how to specify a touch gesture of a rotation operation by using a plurality of detection points.
  • FIG. 12 is a flowchart showing a flow of information input processing performed by the input processing unit of the information input device.
  • FIG. 13 is a diagram for explaining an example in which a problem occurs when the technique of Patent Document 2 is applied to a touch sensor having a protrusion.
  • FIG. 14 is a block diagram showing a configuration of an information input device according to another embodiment of the first embodiment.
  • FIG. 15 is a diagram for explaining a specific behavior of the region changing unit.
  • the information input device described in Patent Literature 1 includes an operation unit in which a touch sensor is arranged, a storage unit that stores the positions of two points, a start point and an end point, input to the operation unit, and a start point and an end point.
  • An input direction determination unit that determines an input direction from the positions of two points, and a control unit that changes the arrangement of operation regions arranged in the operation unit based on the determined input direction.
  • the type of the touch gesture movement is identified based on the series information of two or more points of the contact position detected by the touch sensor, and the type of the touch gesture movement is identified. It is common to specify the type of information device control in response.
  • the “sequence information” referred to here is a collection of a plurality of detection points identified as one touch gesture. For this reason, when the specific position information is stored differently from the user's intention among the stored contact position series information, the touch gesture identification result is different from the user's intended touch gesture. Problem arises.
  • FIG. 2 is a diagram illustrating a point where touch input by the user is performed on the touch sensor 10.
  • the detection points 100 to 140 are points indicating positions where contact by the user is detected, and the reference numbers are assigned so that the numbers increase from the smallest number to the largest in the order of the detected time.
  • the touch input shown in FIG. 2 when the user moves the detection points 100 to 130 from the left to the right with the right hand and releases the finger of the right hand from the touch sensor, the user touches the detection point 140 with the left hand unintentionally. It is an example when it is detected that the left hand is released.
  • the user can determine from the detection points 100 to 130 that the finger of the right hand is moved from left to right.
  • the contact start point in the detected touch input is recognized as the detection point 100
  • the end point is recognized as the detection point 140.
  • the detection points 100 to 140 are detected as shown in FIG. 2, the touch input start point and end point are detected as in Patent Document 1, and the touch input is identified by the moving direction between the two points. If the technology to be applied is applied, it is identified that the movement is downward from the area above the touch sensor 10.
  • at least one specific point is detected at a position different from the user's intention among the series information constituting the touch input input by the user, it is identified as an information input different from the user's intention. There is a problem of end up.
  • Patent Document 2 in an information input method using a touch sensor, a method for selectively rejecting a touch event in an end region of the touch sensor panel is described in order to minimize an unintended operation. Yes. In other words, even if a touch is performed in the end region of the touch sensor panel where an input different from the user's intention is easily performed so that it is not erroneously detected that the touch is performed at a position different from the user's intention, the touch is not performed. A method of selective exclusion is described. There have also been proposed methods for providing some exceptions to refusal to touch at the edge of the touch panel, which are detected in the main area of the touch sensor and are recognized as part of a specific gesture. It is stated that contact is not rejected even if the finger is moved to the end.
  • Patent Document 2 has problems described below, particularly depending on the shape and properties of the touch sensor.
  • FIG. 3 is a diagram illustrating an example of the appearance of the information input device when the information input device is a remote controller.
  • the information input device 200 is a remote controller for home appliances, and includes a touch sensor 210 together with buttons for inputting.
  • the user's finger may move in a direction along the edge of the touch sensor when the user's finger contacts the sensor peripheral portion.
  • FIG. 4 is a diagram illustrating the surface of the touch sensor 10.
  • the touch sensor 10 has a protrusion 380 above it.
  • a boundary line 390 indicated by a broken broken line is a boundary line that separates the main area A1 and the end area A2 of the touch sensor 10.
  • the left and upper portions from the boundary line 390 are the end region A ⁇ b> 2, and the other portions are the main region A ⁇ b> 1.
  • the detection points 300 to 360 are touch sensors 10 in the locus of the actual finger contact position when the user performs an upward flick operation (see the white arrow in FIG. 4) from the lower area of the touch sensor 10. It is an example of the detection point detected by. From the detection point 300 to the detection point 330, the user moves his / her finger from the bottom to the top. Then, the user's finger 370 hits the protrusion 380 around the touch sensor 10 at the detection point 330, and has moved along the protrusion 380 of the touch sensor 10 from the detection point 330 to the detection point 360.
  • the start point at which the user touches the touch sensor 10 with the fingertip as in the detection points 300 to 330 and the point immediately after that are located at the left end, and the end point and the point immediately in front thereof as in the detection points 330 to 360. 4 is not detected by applying a method of rejecting all contact information in the end region A2 as in the method of Patent Document 2, when the is positioned at the upper end.
  • the detection points 300 to 360 are identified as a part of a gesture by applying the method of Patent Document 2, and all points are treated as valid as an exception of contact rejection.
  • the direction is detected by the detection point 300 that is the start point and the detection point 360 that is the end point, and is identified as a gesture that has moved from the lower left region to the upper right direction. That is, while the user is about to input a flick operation in the upward direction, the information input device identifies the flick operation as a flick operation in the upper right direction from the lower left.
  • the input is identified as information input that is different from the user's intention. Therefore, if the user tries to perform the intended operation, an operation for correcting the erroneously identified input is required, and the user-friendliness is a problem. become.
  • FIG. 5 is a diagram for explaining a problem that occurs when the contact time is short in the touch sensor 10 having the bulge 460 around as in FIG. 4.
  • the detection points 400 to 440 are points indicating positions where contact by the user is detected, and the reference numbers are assigned so that the numbers increase from the smallest number to the largest in the order of the detected time.
  • a boundary line 470 indicated by a broken line is a boundary line that separates the end region A12 and the main region A11 of the touch sensor 10, and a portion of the touch sensor 10 above the boundary line 470 is an end region of the touch sensor 10. Therefore, this is a region that is a candidate for contact rejection.
  • the part below the boundary line 470 among the touch sensors 10 is the main area A11 of the touch sensor.
  • the user moves his / her finger from the bottom to the top from the detection point 400 to the detection point 420 which is the start point. At this time, it is assumed that the user intends an upward flick operation. However, it is detected that the finger hits the protrusion 460 around the touch sensor 10 at the detection point 420 and the user's finger has moved rightward along the protrusion 460 of the touch sensor 10.
  • the movement direction from the detection point 400 as the start point to the detection point 440 as the end point is set to be obliquely upward from the lower left. Identified as a direction flick operation.
  • the flick operation intended by the user is an upward flick operation, in this case as well, the result is different from the user's intention.
  • the input is identified as information input that is different from the user's intention. Therefore, if the user tries to perform the intended operation, an operation for correcting the erroneously identified input is required, and the user-friendliness is a problem. become.
  • an information input device is an information input device that specifies a touch input from a user as a touch gesture, and includes a touch sensor and the touch on the touch sensor. The contact position where the input is performed, and a predetermined number of the contact positions from the start of the touch input among the plurality of contact positions sequentially detected at a plurality of different timings during a predetermined time. And an input processing unit that identifies a touch gesture using a plurality of specific contact positions excluding contact positions belonging to a predetermined area.
  • the contact positions belonging to a predetermined area are excluded.
  • a plurality of positions are used as specific positions for specifying touch gestures.
  • the input from the start of the touch input to a certain time is often input by the user, but the input input after that may include an unintended input. Further, many unintended inputs occur in a predetermined area. From these things, at the contact position after the touch gesture is specified by using at least a predetermined number of contact positions detected after the touch input is started and the predetermined number of detections are performed.
  • the touch gesture is specified by excluding the contact position included in a predetermined area where there are many erroneous detections, it is possible to more appropriately determine whether or not to adopt the detection information of the touch sensor. For this reason, detection of a touch gesture can be more adapted to the touch gesture intended by the user, and the performance of touch gesture input can be improved.
  • the input processing unit detects each of the detection unit that detects the plurality of contact positions, the plurality of contact positions detected during the predetermined time by the detection unit, and the plurality of contact positions.
  • a first storage unit that stores, as position information, information that associates the timing with the second timing, a second storage unit that stores the predetermined region of the regions on the touch sensor, and the first storage
  • the contact position detected by the detection unit after the number of the contact positions indicated by the position information stored by the unit exceeds the predetermined number is stored in the second storage unit in advance.
  • two or more pieces of positional information among a plurality of pieces of positional information stored in the first storage unit after the exclusion processing and an exclusion unit that performs the exclusion processing to exclude the contact position for A specifying unit configured to specify the touch gesture Te may have.
  • the input processing unit further includes the predetermined storage stored in the second storage unit when at least one of the plurality of contact positions detected by the detection unit belongs to a specific region.
  • a region changing unit that changes the region that has been changed, and the exclusion unit is changed by the region changing unit with respect to the contact position detected by the detection unit after the contact position belongs to the specific region.
  • the exclusion process using a predetermined area may be performed.
  • the touch sensor has a protrusion formed on the surface thereof, and the region changing unit has at least one of a plurality of contact positions detected by the detection unit as the specific region.
  • the predetermined region stored in the second storage unit may be changed.
  • the input processing unit is further stored after the first position information from the point of any first position information among the plurality of position information stored by the first storage unit.
  • the second storage unit has a region changing unit that changes the predetermined region stored, the exclusion unit, For the contact position detected by the detection unit after the contact position belongs to a specific region, the exclusion process using a predetermined region changed by the region change unit may be performed.
  • the second storage unit may store an end region predetermined as an end of the touch sensor as the predetermined region.
  • an information input device that identifies a touch input from a user as a touch gesture, which is a touch sensor and a contact position where the touch input to the touch sensor is performed, and a plurality of different information during a predetermined time. Are detected after a predetermined number of the contact positions have been detected from the start of the touch input, and stored in the plurality of contact positions.
  • a plurality of identifications excluding the contact position An input processing unit for identifying a touch gesture with tactile position may be provided.
  • the specifying unit may calculate the touch input calculated from the direction of the touch input calculated by approximating the two or more specific positions with line segments and position information indicating the two or more specific positions.
  • a linear motion having parameter information indicating the speed of the touch may be specified as a touch gesture.
  • the specific unit includes the direction of the touch input calculated by approximating three or more specific positions among the plurality of specific positions stored in the first storage unit with an arc, and the three or more A rotational motion having parameter information indicating the speed of the touch input calculated from the position information indicating the specific position may be specified as a touch gesture.
  • a recording medium such as a method, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the method, the integrated circuit, the computer program, and the recording medium. You may implement
  • FIG. 1 is a block diagram of an information input device according to an embodiment of the present invention.
  • the information input device 1 includes a touch sensor 10 and an input processing unit 20.
  • the touch sensor 10 is a device that detects a position where a user's finger contacts the surface of the touch sensor 10, and outputs an electrical signal corresponding to the touched position.
  • the touch sensor 10 can be realized by a touch pad, a touch panel, or the like.
  • the touch sensor 10 may detect a user's finger using any of a capacitance method, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and the like. Description will be made using a capacitive touch sensor.
  • the input processing unit 20 includes a detection unit 21, a first storage unit 22, a second storage unit 23, an exclusion unit 24, and a specifying unit 25.
  • the detection unit 21 uses an electrical signal obtained from the capacitive touch sensor 10 to detect the position when the user's finger contacts the touch sensor 10 at a predetermined sampling period during a predetermined time. .
  • the detection unit 21 detects a position (contact position) where the touch sensor 10 is repeatedly touched at a sampling period of 60 ms.
  • the detection unit 21 is not limited to detecting a position touched by the touch sensor 10 at a constant cycle, and may be configured to be detected at a different cycle. For example, when the movement of the touch input by the user is faster than a predetermined threshold, the sampling cycle is shortened. Conversely, when the movement of the touch input by the user is slower than the predetermined threshold, the sampling cycle is increased. You may make it do. Further, the sampling cycle may be shortened as the movement of the touch input by the user becomes faster. As described above, by dynamically changing the sampling period in accordance with the moving speed of the touch input by the user, the intervals between the plurality of detected contact positions can be made closer to a constant value.
  • the detection unit 21 may be in any form as long as the position where the touch input to the touch sensor is performed can be detected at a plurality of different timings during a predetermined time.
  • the first storage unit 22 stores, as position information, information associating a plurality of contact positions detected by the detection unit 21 during a predetermined time with timings at which the plurality of contact positions are detected.
  • the second storage unit 23 stores a predetermined area of the touch sensor 10 as an exclusion area.
  • This exclusion area is an area that indicates a position candidate that is not stored in the first storage unit 22.
  • a portion where the detection accuracy of detection may drop is set as an exclusion region.
  • the exclusion area may be an area that is predetermined at the time of factory shipment.
  • the user may be able to set a part of the area where it is difficult for the user to perform a touch operation later as an exclusion area.
  • FIG. 6 is a diagram for explaining a first specific example of a predetermined area set as an exclusion area.
  • a region outside the boundary line 500 indicated by a rectangular broken line on the touch sensor 10 is set as an exclusion region A22.
  • region of the inner part of the rectangular broken line on the touch sensor 10 is main area
  • the protrusion around the touch sensor 10 is raised, for example, when a user performs a flick operation, the direction of the flick operation is likely to change if a part of the finger hits the peripheral protrusion.
  • the region outside the rectangular broken line (end region) of the touch sensor 10 is set as the exclusion region. Is effective in reducing false detections.
  • a second specific example of the exclusion region is that when the touch sensor is a capacitance type as in the first embodiment, the distribution of the conductive film arranged to detect the capacitance of the finger is thin. It is an area.
  • the exclusion unit 24 is configured such that the position detected by the detection unit 21 after the number of contact positions indicated by the position information stored in the first storage unit 22 exceeds a predetermined number is detected by the second storage unit 23. If it belongs to a predetermined area stored, an exclusion process for eliminating the contact position is performed. Specifically, the exclusion unit 24 determines whether or not the position (contact position) detected by the detection unit 21 is included in the exclusion region stored in the second storage unit 23. When the contact position is included in the exclusion region as a result of the region determination, the exclusion unit 24 further determines a predetermined number of contact positions indicated by the position information stored in the first storage unit 22. The number of whether or not the number is exceeded is determined.
  • the exclusion unit 24 performs an exclusion process that excludes a contact position that satisfies the determination condition when the determination conditions of both the area determination and the number determination are satisfied.
  • the exclusion unit 24 performs a process such that the position information associated with the contact position that satisfies the determination conditions of both the area determination and the number determination is not stored in the first storage unit 22 as a result of detecting the touch input. What is necessary is just to perform as an exclusion process, and the form of an exclusion process is not ask
  • the predetermined number may be changed according to the complexity of the menu of the device to be operated by the information input device 1.
  • the complexity is small if the operation is to change the TV program guide to the next day. That is, if it is detected that the TV program schedule is displayed and it is determined that the complexity of the menu is small, it is easy to return to the original screen even if erroneous input detection is performed.
  • the predetermined number is set to a small number (for example, three).
  • an operation for editing a recorded program has a high complexity.
  • the predetermined number is set to a large number (for example, 10). In this way, the predetermined number may be set to increase as the complexity of the menu for operating the device increases.
  • the first example of timing is the timing at which the user lifts his / her finger from the touch sensor 10, and the exclusion unit 24 excludes the position information stored in the first storage unit 22 in order from the latest position information. Determine whether or not. That is, the exclusion process is performed at the timing when one touch input by the user is completed. Then, both the region determination and the number determination are sequentially performed from the latest contact position among the plurality of contact positions detected in the touch input, and the position information associated with the contact position satisfying both determination conditions is first A process of deleting from the position information stored in the storage unit 22 is performed as an exclusion process.
  • the second example of timing is a point in time when the contact position is detected by the detection unit 21, and it is determined whether or not the detected contact position is stored in the first storage unit 22 as position information. That is, the exclusion unit 24 performs, as the exclusion process, a process that is not stored in the first storage unit 22 when the contact position detected by the detection unit 21 satisfies both the determination conditions of the area determination and the number determination.
  • a third example of timing is when the number of pieces of position information stored in the first storage unit 22 has gathered more than a predetermined number, and the exclusion unit 24 is stored in the first storage unit 22.
  • the area determination and the number determination are performed to determine whether or not to exclude from the first storage unit 22 in order from the latest position information. If both determination conditions are satisfied, a process of deleting position information associated with a contact position that satisfies the determination condition from the position information stored in the first storage unit 22 is performed as an exclusion process.
  • a fourth example of timing is when a predetermined number of pieces of position information stored in the first storage unit 22 are collected, and the exclusion unit 24 is detected by the detection unit 21 after that time.
  • the area determination is performed for the contact position, and the process of not storing the contact position satisfying the area determination condition in the first storage unit 22 is performed as an exclusion process.
  • the exclusion part 24 is the position detected by the detection part 21 after that, when the positional information where one touch input memorize
  • the exclusion processing condition by the exclusion unit 24 is that the positional information associated with the contact position detected by the detection unit 21 is included in the exclusion region that is an arbitrary region. The region determination need not be a condition for the exclusion process.
  • an example of a method for detecting a sudden change in the direction of finger movement is as follows. The first connecting from the point of any first position information stored in the first storage unit 22 to the point of the second position information stored in the first storage unit 22 after the first position information.
  • the angle between the second vector and the second vector connecting the second positional information point and the third positional information point stored in the first storage unit 22 after the second positional information When the absolute value of the angle is equal to or greater than a predetermined angle, it is detected as a sudden change in the direction of finger movement.
  • the specifying unit 25 uses the position information of at least two points among the position information stored in the first storage unit 22 to identify whether or not the touch gesture is determined in advance. Specify the type.
  • FIG. 7 is a diagram for explaining the detection points 800 to 830 where the detection unit 21 detects the trajectory of the finger movement on the touch sensor 10.
  • the detection points 800 to 830 shown in FIG. 7 are points indicating the contact positions associated with the position information stored in the first storage unit 22 in time order. That is, the detection points 800 to 830 are contact positions by the user and are points detected by the detection unit 21.
  • the specifying unit 25 identifies that the touch input by the user is a flick operation.
  • a first example of a specific operation of the specifying unit 25 when specifying a touch gesture by a flick operation is the oldest detection point 800 indicated by the position information among the position information stored in the first storage unit 22.
  • the touch gesture is specified by using two points, that is, a start point that is and an end point that is the latest detection point 830.
  • the specifying unit 25 sets the movement vector from the detection point 800 to the detection point 830 in the line segment connecting the detection point 800 and the detection point 830 as a time difference between the time when the detection point 800 is stored and the time when the detection point 830 is stored. Divide to calculate the velocity vector.
  • the specifying unit 25 specifies a touch gesture by regarding the flick operation when the direction and norm of the calculated velocity vector are within a predetermined value range.
  • the second example of the specific operation of the specifying unit 25 when specifying a touch gesture by a flick operation specifies a touch gesture by deriving an approximate line or an approximate curve using all position information. That is.
  • the specifying unit 25 uses the least square method for the position information (that is, the time information t and the position information (x, y)) of each of the detection points 800 to 830 stored in the first storage unit 22.
  • a relational expression x (t) of x and t and a relational expression y (t) of y and t are derived.
  • the graph 900 in FIG. 8 is obtained by mapping the detection points 800 to 830 to the two-dimensional coordinates of the time t and the vertical axis y.
  • the curve 910 can be derived by approximating the coordinate y with a quadratic expression at time t.
  • a curve (not shown) in which the coordinate x is approximated by a quadratic expression at time t can be derived.
  • the x and y components of the speed are obtained by differentiating the relational expression x (t) and the relational expression y (t) at time t. That is, the velocity vector at each time can be obtained.
  • the specifying unit 25 specifies the touch gesture by regarding the flick operation when the direction and norm of the velocity vector at the calculated predetermined time are within a predetermined value range.
  • FIG. 9 is a diagram for explaining the detection points 1000 to 1040 where the detection unit 21 detects the locus of finger movement on the touch sensor 10.
  • the detection points 1000 to 1040 shown in FIG. 9 are points indicating the contact positions associated with the position information stored in the first storage unit 22 in time order. That is, the detection points 1000 to 1040 are contact positions by the user and are points detected by the detection unit 21.
  • the specifying unit 25 identifies that the touch input by the user is a rotation operation.
  • the specifying unit 25 connects the first position information point stored in the first storage unit 22 to the second position information point stored after the first position information.
  • the angle formed by the vector and the second vector connecting the second position information point and the third position information point stored after the second position information is obtained.
  • FIG. 10 will be described as an example.
  • Detection points 1000 to 1040 in FIG. 10 are the same as detection points 1000 to 1040 in FIG.
  • An angle 1120 formed by a vector 1100 from the detection point 1000 to the detection point 1010 and a vector 1110 from the detection point 1010 to the detection point 1020 is obtained.
  • FIG. 11 will be described as an example. Detection points 1000 to 1040 in FIG. 11 are the same as detection points 1000 to 1040 in FIGS. Angles formed by vectors connecting the respective points are obtained as a corner 1120, a corner 1210, a corner 1220, and a corner 1230, respectively.
  • the specifying unit 25 has a direction in which the angle between the vectors connecting the position information points obtained by the above method is within a certain range, and the sum of the angles formed is When a predetermined value is reached, it can be regarded as a rotational motion.
  • the above method is a specific example of the specifying unit 25 when the touch gesture of the rotation operation is specified.
  • FIG. 12 is a flowchart showing a flow of information input processing performed by the input processing unit 20 of the information input device.
  • the first example of the above-described timing will be described as the timing at which the exclusion unit 24 performs the exclusion process.
  • the detection unit 21 detects a contact position for a predetermined time with a predetermined sampling cycle (S101).
  • storage part 22 memorize
  • the first storage unit 22 stores position information in which all of the plurality of contact positions detected by the detection unit 21 are associated during a predetermined time.
  • the exclusion unit 24 reads the latest position information among the position information stored in the first storage unit 22 (S103).
  • the exclusion unit 24 determines whether or not the contact positions associated with the read position information have been detected in excess of a predetermined number (S104). That is, the exclusion unit 24 performs number determination on the read position information.
  • the exclusion unit 24 determines whether the contact position associated with the position information belongs to the exclusion region. It is determined whether or not (S105). That is, the exclusion unit 24 performs region determination for the contact position.
  • the exclusion unit 24 deletes the position information from the first storage unit 22 when it is determined by the region determination that the contact position associated with the read position information belongs to the exclusion region (S105: Yes) (S105). As a result, position information that satisfies both the number determination and area determination conditions is deleted from the first storage unit 22.
  • step S106 the position information detected immediately before the position information read in step S106 is read (S107), and the process returns to step S104.
  • the specifying unit 25 sets two or more pieces of position information stored in the first storage unit 22.
  • the touch gesture is specified by using (S108).
  • the exclusion unit 24 detects after the number of contact positions indicated by the position information stored in the first storage unit 22 exceeds a predetermined number. If the contact position detected by the unit 21 belongs to a predetermined region, an exclusion process for excluding the contact position from the position information stored in the first storage unit 22 is performed. Then, the specifying unit 25 specifies a touch gesture using two or more specific positions among the specific positions associated with the position information stored in the first storage unit 22 after the exclusion process by the exclusion unit 24.
  • the user moves his / her finger from the detection point 300 to the detection point 330 to perform a flick operation from the bottom to the top, and then the touch sensor at the detection point 330.
  • the exclusion area stored in the second storage unit 23 is the area on the left side and the upper side of the boundary line 390 and the number of pieces of position information stored in the first storage unit 22 is 4 or more, the exclusion unit It is assumed that position information detected after 24 is not stored in the first storage unit 22.
  • the specifying unit 25 specifies the flick operation in the upward direction from the moving direction from the detection point 300 that is the start point to the detection point 330 that is the end point.
  • the user moves the finger related to the touch input from the detection point 400 to the detection point 420 to perform the upward flick operation, and then, at the detection point 420, the protrusion around the touch sensor is formed.
  • the exclusion unit 24 It is assumed that position information detected after the fourth is not stored in the first storage unit 22. In other words, it is assumed that the area above the boundary line 470 is set as the predetermined area, and the predetermined number is set to 3.
  • the position information used by the specifying unit 25 to specify the touch gesture is three points from the detection points 400 to 420.
  • the specifying unit 25 specifies the flick operation in the upward direction from the moving direction from the detection point 400 that is the start point to the detection point 420 that is the end point.
  • the flick operation and its direction that are not correctly detected as intended by the user can be correctly detected by the information input apparatus 1 according to the first embodiment.
  • the exclusion area is set around the bulge around the touch sensor, but is not limited to such a bulge.
  • the exclusion region is a region around the protrusion of the touch sensor 11 when the touch sensor 11 is provided with a protrusion on the surface thereof.
  • the touch sensor is used as a guide for the position so that the position of the finger touching the user can be identified by tactile sense without the user looking at the touch sensor.
  • Protrusions may be provided on the surface.
  • Detection points 610 to 650 are detection points detected by the touch sensor 11 in the locus of the contact position of the finger when the user intends an upward flick operation.
  • the detection point 640 and the detection point 650 are detection points representing movement when the finger 660 collides with the protrusion 600 near the detection point 630 and the finger flows rightward due to the collision.
  • the flick operation is specified based on the moving direction from the detection point 610 that is the start point to the detection point 650 that is the end point among the detection points 610 to 650 detected by the detection unit 21, It becomes a flick operation in the direction.
  • the detection point 640 and the detection point 650 are candidates for position information that the exclusion unit 24 does not store in the first storage unit 22.
  • the exclusion unit 24 is set to exclude position information included in the exclusion region when the first storage unit 22 stores three or more pieces of position information.
  • the positions of the detection points 610 to 630 that are effective points that are not excluded from the first storage unit 22 by the exclusion unit 24 are set as described above, the positions of the detection points 610 to 630 that are effective points that are not excluded from the first storage unit 22 by the exclusion unit 24.
  • a touch gesture is specified by the specifying unit 25 based on the series of information. In this case, the specifying unit 25 specifies the flick operation in the upward direction. In this way, in order to eliminate the influence of finger movement different from the user's intention from the material to identify the touch gesture, the periphery of the protrusion 600 and the assumed finger trajectory after the finger contacts the protrusion It is useful to set a candidate area as an exclusion area.
  • the exclusion area is fixed to a predetermined area, but is not limited thereto, and may be dynamically changed.
  • the exclusion area is set around the projection 600 for a predetermined time thereafter. It is also possible to do.
  • the input processing unit 20 a further includes a region changing unit 26. That is, the information input device 1a having the input processing unit 20a as described above may be used.
  • the area changing unit 26 sets the exclusion area around the protrusion for a predetermined time thereafter.
  • the region changing unit 26 changes a predetermined region stored in the second storage unit 23 when at least one of the plurality of contact positions detected by the detecting unit 21 belongs to a specific region. . Note that it is considered that a sudden change in the direction of finger movement cannot occur unless an event of contact with the protrusion 600 occurs, and a protrusion is detected when a sudden change in the direction of finger movement is detected.
  • an example of a method for detecting a sudden change in the direction of finger movement is as follows.
  • the angle between the position information point and the second vector connecting the third position information point stored after the second position information is obtained, and the absolute value of the angle is equal to or greater than a predetermined angle.
  • exclusion part 24 is the area
  • the region changing unit 26 determines that the finger has touched the protrusion. I reckon. Thereafter, the region changing unit 26 sets the inside of the boundary line 670 as an exclusion region.
  • the exclusion unit 24 is stored in the first storage unit 22 because the exclusion region is not set. Do not exclude existing location information. Therefore, it is possible to reduce the elimination of the touch input intended by the user caused by the fixed exclusion area being set. For this reason, a touch gesture can be recognized based on more positional information.
  • the input processing unit 20 includes the detection unit 21, the first storage unit 22, the second storage unit 23, the exclusion unit 24, and the specifying unit 25.
  • the input processing unit is a contact position where touch input to the touch sensor is performed, and touch input is started from a plurality of contact positions sequentially detected at a plurality of different timings during a predetermined time. If a touch gesture is specified using a plurality of specific contact positions that are detected after a predetermined number of contact positions are detected from the above and excluding contact positions belonging to a predetermined area, the input processing unit 20 Is not limited to having the above configuration.
  • each of the above devices can be realized by a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like.
  • a computer program is stored in the RAM or the hard disk unit.
  • Each device achieves its functions by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • the system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. .
  • a computer program is stored in the ROM.
  • the system LSI achieves its functions by the microprocessor loading a computer program from the ROM to the RAM and performing operations such as operations in accordance with the loaded computer program.
  • each of the above devices may be configured from an IC card that can be attached to and detached from each device or a single module.
  • the IC card or module is a computer system that includes a microprocessor, ROM, RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its functions by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the present invention may be realized by the method described above. Further, these methods may be realized by a computer program realized by a computer, or may be realized by a digital signal consisting of a computer program.
  • the present invention also relates to a computer-readable recording medium that can read a computer program or a digital signal, such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc), You may implement
  • a computer program or a digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the present invention is also a computer system including a microprocessor and a memory.
  • the memory stores a computer program, and the microprocessor may operate according to the computer program.
  • program or digital signal may be recorded on a recording medium and transferred, or the program or digital signal may be transferred via a network or the like, and may be implemented by another independent computer system.
  • the information input device has an effect that a more reliable operation can be performed by performing touch gesture recognition that eliminates finger movements different from the user's intention in touch gesture operation using a touch sensor. It is useful as an information input device and an information input method for electronic equipment.

Abstract

本発明は、フリックや回転等のジェスチャの識別性能を向上させ、ユーザの意図に適合する操作手段を持つ情報入力装置を提供することを目的とする。情報入力装置(1)は、ユーザからのタッチ入力をタッチジェスチャとして特定する情報入力装置であって、タッチセンサ(10)と、タッチセンサに対するタッチ入力が行われた接触位置であって、所定時間の間における異なる複数のタイミングで順次検出された複数の接触位置の中から、タッチ入力が開始されてから予め定められた数の接触位置が検出された後に検出され、かつ、予め定められた領域に属する接触位置を除いた複数の特定接触位置を用いてタッチジェスチャを特定する入力処理部(20)と、を備える。

Description

情報入力装置及び情報入力方法
 本発明は、タッチパッド、タッチパネル等のタッチセンサを用いた情報入力装置及び情報入力方法に関する。特に、タッチセンサに接触することによる入力であるタッチ入力がユーザにより行われた際に、接触した二点以上の複数の位置情報を取得することで、タッチ入力の動きの種別を識別し、動きの種別に応じた情報機器制御を行う情報入力装置及び情報入力方法に関する。
 PCや携帯電話等のディスプレイを備えた電子機器において、そのディスプレイに表示されたGUI画面を操作する入力デバイスの一つとして、タッチパッドがよく知られている。入力デバイスにタッチパッドを用いた情報入力装置では、ユーザがタッチパッドの表面を指でなぞることにより、GUI画面上のカーソルを移動させるポインティング操作を行うことができ、ユーザの指の動きに応じた直感的な操作を行うことができる。さらに、最近では、ポインティング操作以外に、タッチパッドの表面を指で円を描くように回す操作(回転操作)や、タッチパッドの表面を指で軽く払うような操作(フリック操作)等のジェスチャ操作によって、例えば、GUI画面に表示された文書や写真等のオブジェクトを拡大/縮小したり、上下左右にスクロールしたりすることができ、一つの入力デバイスで、複数の、より自由度の高い直感的な操作が実現できるようになっている(特許文献1および特許文献2参照)。
特開2009-140210号公報 特開2009-217814号公報
 しかしながら、特許文献1および特許文献2の技術では、ユーザが意図する入力を別の入力として誤って検出する場合がある。
 本発明は、前記従来の課題を解決するもので、フリックや回転等のジェスチャの識別性能を向上させ、ユーザの意図に適合する操作手段を持つ情報入力装置を提供することを目的とする。
 前記従来の課題を解決するために、本発明の情報入力装置は、ユーザからのタッチ入力をタッチジェスチャとして特定する情報入力装置であって、タッチセンサと、前記タッチセンサに対する前記タッチ入力が行われた接触位置であって、所定時間の間における異なる複数のタイミングで順次検出された複数の接触位置の中から、前記タッチ入力が開始されてから予め定められた数の前記接触位置が検出された後に検出され、かつ、予め定められた領域に属する接触位置を除いた複数の特定接触位置を用いてタッチジェスチャを特定する入力処理部と、を備える。
 これによれば、所定時間の間において検出された複数の接触位置の中から、予め定められた数の接触位置が検出された後に検出され、かつ、予め定められた領域に属する接触位置を除いた複数の位置を特定位置としてタッチジェスチャの特定に用いる。タッチ入力の開始からある時間までの間の入力は、ユーザが意図して入力していることが多いが、その後に入力された入力は意図していない入力を含む場合がある。そして、さらに、意図していない入力は、予め定められた領域において多く発生する。これらのことから、入力処理部は、タッチ入力が開始されてから予め定められた数だけ検出された接触位置を少なくとも用いてタッチジェスチャ特定し、かつ、予め定められた数の検出が行われた以降の接触位置であって誤検出が多い予め定められた領域に含まれる接触位置を除いてタッチジェスチャを特定する。このため、より適切にタッチセンサの検出情報の採択・不採択を決めることができる。このため、タッチジェスチャの検出をユーザの意図するタッチジェスチャに、より適合させることができ、タッチジェスチャ入力の性能を向上できる。
 なお、これらの全般的または具体的な態様は、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本発明の情報入力装置は、タッチジェスチャの検出をユーザの意図するタッチジェスチャに、より適合させることができ、タッチジェスチャ入力の性能を向上できる。
図1は、実施の形態1における情報入力装置の構成を示すブロック図である。 図2は、タッチセンサ上においてユーザによるタッチ入力が行われた点を示す図である。 図3は、情報入力装置がリモートコントローラである場合の、情報入力装置の外観の例を示す図である。 図4は、タッチセンサ上においてユーザによるタッチ入力が行われた点を示す図である。 図5は、タッチセンサ上においてユーザによるタッチ入力が行われた点を示す図である。 図6は、排除領域として設定される予め定められた領域の第一の具体例を説明するための図である。 図7は、タッチセンサ上の指の動きの軌跡を検出部が検出した複数の検出点について説明するための図である。 図8は、複数の検出点を、時刻tおよび縦軸yの二次元座標にマッピングしたグラフを示す図である。 図9は、タッチセンサ上の指の動きの軌跡を検出部が検出した検出点について説明するための図である。 図10は、複数の検出点により回転操作のタッチジェスチャの特定の仕方を説明するための図である。 図11は、複数の検出点により回転操作のタッチジェスチャの特定の仕方を説明するための図である。 図12は、情報入力装置の入力処理部により行われる情報入力処理の流れを示すフローチャートである。 図13は、突起物を有するタッチセンサに特許文献2の技術を適用したときに問題が生じる例を説明するための図である。 図14は、実施の形態1の他の形態に係る情報入力装置の構成を示すブロック図である。 図15は、領域変化部の具体的な挙動を説明するための図である。
 (本発明の基礎となった知見)
 本発明者は、「背景技術」の欄において記載した、スタイラス検出装置に関し、以下の問題が生じることを見出した。
 特許文献1に記載の情報入力装置は、タッチセンサを配置した操作部と、操作部に入力された開始点および終了点の二つの点の位置を記憶する記憶部と、開始点および終了点の二つの点の位置より入力方向を判断する入力方向判定部と、判断された入力方向に基づいて、操作部に配置される操作領域の配置を変更する制御部とにより構成される。この構成により、ユーザが指先をタッチセンサに接触させた開始点から終了点までの二点間の移動方向で、操作キーなどの操作領域の配置を制御することができ、情報入力装置の向きおよび操作領域の向きを意識しなくても操作することができる。このため、操作キーなどの操作領域を見ずにブラインドタッチで操作することができる。
 このように、タッチジェスチャによる情報入力装置では、タッチセンサが検出した接触位置の二点以上の系列情報に基づき、タッチジェスチャの動きの種別を識別して、識別されたタッチジェスチャの動きの種別に応じた情報機器制御の種別を特定することが一般的である。なお、ここで言う「系列情報」とは、一つのタッチジェスチャとして識別される複数の検出点の集まりのことである。このため、記憶している接触位置の系列情報のうち、特定の位置情報がユーザの意図とは異なって記憶されている場合は、タッチジェスチャの識別結果がユーザの意図するタッチジェスチャとは異なってしまうという問題が生じる。
 以下、図2を用いてこの問題を説明する。図2は、タッチセンサ10上においてユーザによるタッチ入力が行われた点を示す図である。検出点100~140は、ユーザによる接触が検出された位置を示す点であり、検出された時間順に小さい番号から大きい番号となるように符号が付されている。図2で示すタッチ入力は、ユーザが、右手で検出点100~130まで左から右に移動させて、右手の指をタッチセンサから離すときに、意図せず左手で検出点140に触れ、そのまま左手を離したことを検出した場合の例である。ユーザが意図しなかった入力である検出点140を除いた場合、ユーザは、右手の指を左から右へ移動させていることが検出点100~130から判定できる。しかし、検出されたタッチ入力における接触の開始点は検出点100であると認識され、終了点は検出点140であると認識されたことになる。このため、図2のように検出点100~140が検出された場合に、特許文献1のようにタッチ入力の開始点および終了点を検出して当該二点間の移動方向によりタッチ入力を識別する技術を適用すれば、タッチセンサ10の上の領域から下方向への移動であることが識別されることになる。このように、ユーザが入力したタッチ入力を構成する系列情報のうち、少なくとも特定の一点がユーザの意思とは異なる位置で検出された情報になった場合、ユーザの意図とは異なる情報入力として識別してしまうという問題がある。
 そこで、特許文献2によると、タッチセンサを用いた情報入力方法において、意図しないオペレーションを最小限にするために、タッチセンサパネルの端部領域におけるタッチ事象を選択的に拒否する方法が述べられている。つまり、ユーザの意思とは異なる位置においてタッチされたことが誤検出されないように、ユーザの意思とは異なる入力が行われやすいタッチセンサパネルの端部領域においてタッチが行われても、当該タッチを選択的に排除する方法が記載されている。また、タッチパネルの端部における接触の拒否に対するいくつかの例外を設ける方法も提案されており、タッチセンサの主領域内で検出され、特定のジェスチャの一部として認識された場合に、タッチセンサの端部まで指を移動させても接触を拒否しないことが述べられている。
 しかしながら、特許文献2に記載されている構成では、特にタッチセンサの形状や性質に依存して、以降で説明する問題が生じる。
 情報入力装置が、テレビ、デジタルレコーダなどの家電製品のリモートコントローラなどであって、情報入力装置に搭載されているタッチセンサが小型である場合は、情報入力装置の把持の仕方によって、ユーザが自然に接触するタッチセンサ上の位置が端部(つまり接触を拒否する領域)になる。図3は、情報入力装置がリモートコントローラである場合の、情報入力装置の外観の例を示す図である。情報入力装置200は、図3に示すように、家電製品のリモートコントローラであり、入力するためのボタンとともにタッチセンサ210を有する。ユーザが情報入力を行う際に、ユーザの手220の指を自然に伸ばした状態でタッチセンサに触れた場合、検出点230のようにタッチセンサ210の左端に触れる。
 さらに、タッチセンサ210の周囲がセンサ部分より出っ張っている場合、ユーザの指がセンサ周囲部分に接触したとき、ユーザの指は、タッチセンサの縁に沿った方向に移動することがある。
 この現象を、図4を用いて説明する。図4は、タッチセンサ10の表面を表す図である。タッチセンサ10は、その上方に出っ張り380を有する。破線の折れ線で示す境界線390は、タッチセンサ10の主領域A1と端部領域A2とを切り分ける境界線である。タッチセンサ10のうち、境界線390より左側および上側の部分は端部領域A2であり、それ以外の部分は主領域A1である。
 検出点300~360は、ユーザがタッチセンサ10の下の領域から上方向へフリック操作(図4の白抜き矢印参照)を行ったときの実際の指の接触位置の軌跡のうちでタッチセンサ10により検出された検出点の例である。検出点300から検出点330までの間、ユーザは指を下から上に動かしている。そして、検出点330においてユーザの指370がタッチセンサ10の周囲の出っ張り380に当たり、検出点330から検出点360までタッチセンサ10の出っ張り380に沿って動いてしまっている。検出点300~330のように、ユーザがタッチセンサ10に指先を接触させた開始点およびその直後の点が左端に位置し、かつ、検出点330~360のように終了点およびその直前の点が上端に位置した場合、特許文献2の方法のように、端部領域A2における全ての接触情報を拒否する方法を適用すれば、図4に示したようなフリック操作が検出されない。
 反対に、検出点300~360を、特許文献2の方法を適用して、ジェスチャの一部として識別し、接触拒否の例外とみなして全ての点を有効として扱う場合を考える。この場合には、開始点である検出点300および終了点である検出点360で方向を検出することになり、左下の領域からから右斜め上方向の移動したジェスチャとして識別される。つまり、ユーザは上方向へのフリック操作の入力を行おうとしているのに対し、情報入力装置は、当該フリック操作を左下から右斜め上方向へのフリック操作として識別する。
 いずれの場合も、ユーザの意図とは異なる情報入力として識別されるため、ユーザは意図する操作を行おうとすれば、誤って識別された入力を訂正する操作が必要になり、使い勝手の悪さが問題になる。
 また、タッチセンサ10において、接触位置を検出する頻度が低いときにも、問題が生じる。
 例えば、フリック操作の際に、タッチセンサ10へのユーザの接触時間が短いときには、わずかな点の検出しかできない。
 このときの問題を、図5を用いて説明する。図5は、図4と同様に周囲に出っ張り460を有するタッチセンサ10において、接触時間が短いときに生じる問題について説明する図である。検出点400~440は、ユーザによる接触が検出された位置を示す点であり、検出された時間順に小さい番号から大きい番号となるように符号が付されている。また破線で示す境界線470はタッチセンサ10の端部領域A12と主領域A11とを切り分ける境界線であり、タッチセンサ10のうち、境界線470より上側の部分は、タッチセンサ10の端部領域であって、接触の拒否の候補になる領域である。また、タッチセンサ10のうち、境界線470より下側の部分は、タッチセンサの主領域A11である。ユーザは開始点である検出点400から検出点420までの間、ユーザは指を下から上に動かしている。このとき、ユーザは、上方向のフリック操作を意図している場合であるとする。しかし、検出点420にてタッチセンサ10の周囲の出っ張り460に指が当たり、その後ユーザの指はタッチセンサ10の出っ張り460に沿って右方向に移動してしまっていることが検出されている。
 このような場合に、もし、特許文献2で示すように端の点を拒否すれば、タッチジェスチャ認識に利用される位置情報の系列情報は検出点400の一点のみとなり、タッチジェスチャの方向を検出できない。よって、このような場合には、フリック操作を検出することはできない。そのため、ユーザの意図とは異なり、タッチジェスチャ操作は発生しないという結果になる。
 また、ジェスチャの一部として検出点400~430の全ての位置情報を有効に扱った場合、開始点である検出点400から終了点である検出点440までの移動方向として、左下から右斜め上方向のフリック操作であると識別される。ここで、ユーザの意図したフリック操作は、上方向のフリック操作であるため、この場合もユーザの意図とは異なる結果となる。
 いずれの場合も、ユーザの意図とは異なる情報入力として識別されるため、ユーザは意図する操作を行おうとすれば、誤って識別された入力を訂正する操作が必要になり、使い勝手の悪さが問題になる。
 このような問題を解決するために、本発明の一態様に係る情報入力装置は、ユーザからのタッチ入力をタッチジェスチャとして特定する情報入力装置であって、タッチセンサと、前記タッチセンサに対する前記タッチ入力が行われた接触位置であって、所定時間の間における異なる複数のタイミングで順次検出された複数の接触位置の中から、前記タッチ入力が開始されてから予め定められた数の前記接触位置が検出された後に検出され、かつ、予め定められた領域に属する接触位置を除いた複数の特定接触位置を用いてタッチジェスチャを特定する入力処理部と、を備える。
 これによれば、所定時間の間において検出された複数の接触位置の中から、予め定められた数の接触位置が検出された後に検出され、かつ、予め定められた領域に属する接触位置を除いた複数の位置を特定位置としてタッチジェスチャの特定に用いる。タッチ入力の開始からある時間までの間の入力は、ユーザが意図して入力していることが多いが、その後に入力された入力は意図していない入力を含む場合がある。そして、さらに、意図していない入力は、予め定められた領域において多く発生する。これらのことから、タッチ入力が開始されてから予め定められた数だけ検出された接触位置を少なくとも用いてタッチジェスチャ特定し、かつ、予め定められた数の検出が行われた以降の接触位置であって誤検出が多い予め定められた領域に含まれる接触位置を除いてタッチジェスチャを特定するため、より適切にタッチセンサの検出情報の採択・不採択を決めることができる。このため、タッチジェスチャの検出をユーザの意図するタッチジェスチャに、より適合させることができ、タッチジェスチャ入力の性能を向上できる。
 また、例えば、前記入力処理部は、前記複数の接触位置を検出する検出部と、前記検出部により前記所定時間の間に検出された複数の接触位置と、当該複数の接触位置のそれぞれが検出されたタイミングとを関連付けた情報を位置情報として記憶する第一記憶部と、前記タッチセンサ上の領域のうちの前記予め定められた領域を記憶している第二記憶部と、前記第一記憶部により記憶された位置情報で示される前記接触位置の数が前記予め定められた数を超えた以降に前記検出部により検出された接触位置が、前記第二記憶部により記憶されている前記予め定められた領域に属すれば、当該接触位置を排除する排除処理を行う排除部と、前記排除処理後に前記第一記憶部により記憶されている複数の位置情報のうち、二以上の位置情報を用いて前記タッチジェスチャを特定する特定部と、を有してもよい。
 また、例えば、前記入力処理部は、さらに、前記検出部で検出された前記複数の接触位置の少なくとも一つが特定の領域に属したときに、前記第二記憶部が記憶している前記予め定められた領域を変化させる領域変化部を有し、前記排除部は、前記特定の領域に前記接触位置が属した後において前記検出部に検出された接触位置について、前記領域変化部により変化された予め定められた領域を用いた前記排除処理を行ってもよい。
 また、例えば、前記タッチセンサは、その表面に形成される突起物を有し、前記領域変化部は、前記検出部で検出された複数の接触位置の少なくとも一つが前記特定の領域である、前記突起物が形成される領域に属したときに、前記第二記憶部が記憶している前記予め定められた領域を変化させてもよい。
 また、例えば、前記入力処理部は、さらに、前記第一記憶部により記憶されている複数の位置情報のうち任意の第一の位置情報の点から、第一の位置情報より後で記憶された第2の位置情報の点までを結ぶ第一のベクトルと、第2の位置情報の点と第2の位置情報より後で記憶された第3の位置情報の点までを結ぶ第2のベクトルとのなす角の絶対値が予め定められた角度以上であるときに、前記第二記憶部が記憶している前記予め定められた領域を変化させる領域変化部を有し、前記排除部は、前記特定の領域に前記接触位置が属した後において前記検出部に検出された接触位置について、前記領域変化部により変化された予め定められた領域を用いた前記排除処理を行ってもよい。
 また、例えば、前記第二記憶部は、前記タッチセンサの端として予め定められた端部領域を前記予め定められた領域として記憶していてもよい。
 また、例えば、ユーザからのタッチ入力をタッチジェスチャとして特定する情報入力装置であって、タッチセンサと、前記タッチセンサに対する前記タッチ入力が行われた接触位置であって、所定時間の間における異なる複数のタイミングで順次検出された複数の接触位置の中から、前記タッチ入力が開始されてから予め定められた数の前記接触位置が検出された後に検出され、かつ、前記複数の接触位置に記憶されている任意の第一の位置情報の点から、第一の位置情報より後で記憶された第2の位置情報の点までを結ぶ第一のベクトルと、第2の位置情報の点と第2の位置情報より後で記憶された第3の位置情報の点までを結ぶ第2のベクトルとのなす角の絶対値が予め定められた角度以上であるときに、接触位置を除いた複数の特定接触位置を用いてタッチジェスチャを特定する入力処理部と、を備えてもよい。
 また、例えば、前記特定部は、前記二以上の特定位置を線分で近似することにより算出される前記タッチ入力の方向と、当該二以上の特定位置を示す位置情報から算出される前記タッチ入力の速さとを示すパラメータ情報を持つ直線運動をタッチジェスチャとして特定してもよい。
 また、例えば、前記特定部は、前記第一記憶部で記憶された複数の特定位置のうち、三以上の特定位置を円弧で近似することにより算出される前記タッチ入力の方向と、当該三以上の特定位置を示す位置情報から算出される前記タッチ入力の速さとを示すパラメータ情報を持つ回転運動をタッチジェスチャとして特定してもよい。
 なお、これらの全般的または具体的な態様は、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 以下、本発明の実施の形態について、図面を参照しながら説明する。
 なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する趣旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態1)
 図1は、本発明の実施の形態における情報入力装置のブロック図である。
 情報入力装置1は、タッチセンサ10と、入力処理部20とを備える。タッチセンサ10は、ユーザの指がタッチセンサ10の表面に接触した位置を検出するデバイスであり、接触した位置に対応する電気信号を出力する。タッチセンサ10は、具体的には、タッチパッドやタッチパネル等により実現できる。なお、タッチセンサ10がユーザの指を検出する方式としては、静電容量方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式等のいずれでもよいが、以下、本発明では、静電容量方式のタッチセンサを用いて説明する。
 入力処理部20は、検出部21と、第一記憶部22と、第二記憶部23と、排除部24と、特定部25とを有する。
 検出部21は、静電容量方式のタッチセンサ10から得られる電気信号を用いて、ユーザの指がタッチセンサ10に接触したときの位置を所定時間の間に予め定められたサンプリング周期で検出する。検出部21は、例えば、60msのサンプリング周期で繰り返しタッチセンサ10においてタッチされた位置(接触位置)を検出する。
 なお、検出部21は、一定の周期でタッチセンサ10においてタッチされた位置を検出することに限らずに、異なる周期で検出されるような形態であってもよい。例えば、ユーザによるタッチ入力の移動が予め定められた閾値よりも速い場合にはサンプリング周期を短くし、反対にユーザによるタッチ入力の移動が予め定められた閾値よりも遅い場合にはサンプリング周期を長くするようにしてもよい。また、ユーザによるタッチ入力の移動が速くなるほど、サンプリング周期を短くするようにしてもよい。このようにサンプリング周期をユーザによるタッチ入力の移動速度に応じて動的に変更することにより、検出される複数の接触位置の間隔を一定に近づけることができる。このため、一定のサンプリング周期で接触位置の検出を行う場合よりも、サンプリングの精度の向上と電力消費量の低減とを両立させることができる。このように、検出部21は、タッチセンサに対するタッチ入力が行われた位置を、所定時間の間における異なる複数のタイミングで検出できるものであればその形態は問わない。
 第一記憶部22は、所定時間の間に検出部21により検出された複数の接触位置と、当該複数の接触位置のそれぞれが検出されたタイミングとを関連付けた情報を位置情報として記憶する。
 第二記憶部23は、タッチセンサ10の予め定められた領域を排除領域として記憶している。なお、「領域を記憶している」とは、当該領域を特定する情報を記憶していることである。この排除領域は、第一記憶部22に記憶させない位置の候補であることを示す領域で、タッチセンサ10上の領域のうち、ユーザがタッチ操作を行いにくい部分や、タッチセンサ10の特性により位置検出の検出精度が落ちる可能性のある部分が排除領域として設定される。なお、排除領域は、工場出荷時に予め定められた領域であってもよい。また、ユーザがタッチ操作を行いにくい部分の領域を、後で排除領域としてユーザが設定できるようにしてもよい。
 図6は、排除領域として設定される予め定められた領域の第一の具体例を説明するための図である。図6において、タッチセンサ10上の長方形状の破線で示す境界線500の外側部分の領域が排除領域A22として設定される。なお、タッチセンサ10上の長方形状の破線の内側部分の領域は、タッチセンサ10の排除領域以外の領域である主領域A21である。特にタッチセンサ10の周囲が盛り上がった出っ張りとなっているときは、例えばフリック操作をユーザが行った場合に指の一部が周囲の出っ張りに当たれば、フリック操作の方向が変わりやすい。このように、ユーザが意図するタッチ操作が正確にできずに、誤入力される場合があるので、タッチセンサ10の長方形状の破線の外側の領域(端部領域)を排除領域として設定することが誤検出を低減するために有効である。
 排除領域の第二の具体例は、本実施の形態1のようにタッチセンサが静電容量式である場合、指の静電容量を検知するために配置される導電膜の分布が薄い部分の領域である。
 排除部24は、第一記憶部22により記憶された位置情報で示される接触位置の数が予め定められた数を超えた以降に検出部21により検出された位置が、第二記憶部23により記憶されている予め定められた領域に属すれば、当該接触位置を排除する排除処理を行う。具体的には、排除部24は、検出部21により検出された位置(接触位置)が、第二記憶部23により記憶されている排除領域に含まれるか否かの領域判定を行う。そして、排除部24は、当該領域判定の結果、接触位置が排除領域に含まれる場合に、さらに第一記憶部22に記憶されている位置情報が示す接触位置の数が予め定められた数を超えているか否かの数判定を行う。当該数判定の結果、接触位置の数が予め定められた数を超えている場合に、該当する接触位置を第一記憶部22で記憶しないための排除処理を行う。つまり、排除部24は、領域判定および数判定の両方の判定条件を満たす場合に判定条件を満たした接触位置を排除する排除処理を行う。
 なお、排除部24は、タッチ入力を検出した場合の結果として、領域判定および数判定の両方の判定条件を満たす接触位置が関連付けられた位置情報が第一記憶部22に記憶されないような処理を排除処理として行えばよく、排除処理の形態は問わない。つまり、排除部24が、検出部21により検出された接触位置を示す位置情報について排除処理を行うか否かの判定を行うタイミングは複数考えられる。
 また、予め定められた数は、情報入力装置1による操作の対象となる機器のメニューの複雑度に応じて変更されるようにしてもよい。例えば、TV番組の番組表を次の日に遷移させるための操作であれば複雑度が小さい。つまり、TV番組の番組表が表示されていることを検出して、メニューの複雑度が小さいと判定されれば、入力の誤検出が行われても元の画面に戻ることは容易であるため、予め定められた数を少ない数(例えば3個など)に設定する。反対に、例えば録画された番組の編集を行うための操作であれば複雑度が大きい。つまり、このように、録画された番組を編集するためのメニューが表示されていることを検出して、メニューの複雑度が大きいと判定されれば、入力の誤検出が行われた場合に、元の状態に戻すことは困難であるため、予め定められた数を多い数(例えば10個など)に設定する。このようにして、機器を操作するためのメニューの複雑度が大きいほど、予め定められた数を多くするように設定してもよい。
 タイミングの第一の例は、ユーザがタッチセンサ10から指を離したタイミングであり、排除部24は、第一記憶部22で記憶されている位置情報のうち、最新の位置情報から順に排除するかどうかを判定する。つまり、ユーザによる一つのタッチ入力が終了したタイミングで排除処理が行われる。そして、タッチ入力において検出された複数の接触位置のうちで最新の接触位置から順に領域判定および数判定の両方を行い、両方の判定条件を満たした接触位置が関連付けられた位置情報を、第一記憶部22に記憶されている位置情報から削除する処理を、排除処理として行う。
 タイミングの第二の例は、検出部21で接触位置を検出した時点であり、検出した接触位置を位置情報として第一記憶部22に記憶させるかどうかを判定する。つまり、排除部24は、検出部21により検出された接触位置が領域判定および数判定の両方の判定条件を満たせば第一記憶部22に記憶させない処理を、排除処理として行う。
 タイミングの第三の例は、第一記憶部22で記憶されている位置情報の数が予め定められた数以上集まったときであり、排除部24は、第一記憶部22で記憶されている位置情報のうち、最新の位置情報から順に第一記憶部22から排除するか否かの領域判定および数判定を行う。そして、両方の判定条件を満たせば、第一記憶部22に記憶されている位置情報から、当該判定条件を満たした接触位置が関連付けられた位置情報を削除する処理を、排除処理として行う。
 タイミングの第四の例は、第一記憶部22で記憶されている位置情報の数が予め定められた数集まったときであり、排除部24は、そのとき以降に検出部21により検出された接触位置について領域判定を行い、領域判定の条件を満たした接触位置を第一記憶部22に記憶させない処理を、排除処理として行う。
 なお、排除部24は、第一記憶部22により記憶されている一つのタッチ入力が検出された位置情報が予め定められた数以上に達した場合、それ以降に検出部21により検出された位置情報の信用性が低いときに、当該位置情報を特定部25(後述参照)のタッチジェスチャの特定に利用させないことである。なお、本実施の形態1では、検出部21により検出された接触位置が関連付けられた位置情報が任意の領域である排除領域に含まれていることを排除部24による排除処理の条件としたが、領域判定を排除処理の条件にしなくてもよい。例えば、領域判定の判定条件の代わりに、タッチパッドの周囲の出っ張りや突起物への指の衝突の検出を行い、数判定を満たしていれば、衝突が検出された以降の位置情報の記憶を排除しても良い。また、急激な指の動きの方向の変化を、衝突という事象が起こらない限り、発生しえないものと考え、急激な指の動きの方向の変化が検出された場合に、衝突が検出されたと認識するようにしてもよい。ここで、急激な指の動きの方向の変化の検出方法の一例は、次のとおりである。第一記憶部22に記憶されている任意の第一の位置情報の点から、第一の位置情報より後で第一記憶部22に記憶された第2の位置情報の点までを結ぶ第一のベクトルと、第2の位置情報の点と第2の位置情報より後で第一記憶部22に記憶された第3の位置情報の点までを結ぶ第2のベクトルとのなす角を求め、当該角の絶対値が予め定められた角度以上であるときに急激な指の動きの方向の変化として検出する。
 特定部25は、第一記憶部22で記憶されている位置情報のうち、少なくとも二点以上の位置情報を用いて、予め定められたタッチジェスチャであるかどうかを識別することにより、タッチジェスチャの種別を特定する。
 以下で、特定部25の具体的な動作について説明する。
 図7は、タッチセンサ10上の指の動きの軌跡を検出部21が検出した検出点800~830について説明するための図である。なお、図7に示す検出点800~830は、第一記憶部22に記憶されている位置情報に関連付けられた接触位置を時間順に示した点である。つまり、検出点800~830は、ユーザによる接触位置であって、検出部21により検出された点である。図7に示すような検出点800~830が関連付けられた位置情報が第一記憶部22に記憶されている場合、特定部25は、ユーザによるタッチ入力がフリック操作であると識別する。
 フリック操作によるタッチジェスチャを特定する場合の特定部25の具体的な動作の第一の例は、第一記憶部22に記憶されている位置情報のうち、当該位置情報が示す最も古い検出点800である開始点と最も新しい検出点830である終了点との二点を用いてタッチジェスチャを特定することである。特定部25は、検出点800および検出点830を結んだ線分における検出点800から検出点830への移動ベクトルを、検出点800を記憶した時刻と検出点830を記憶した時刻との時間差で割ることで、速度ベクトルを計算する。特定部25は、算出した速度ベクトルの方向およびノルムが予め定められた値の範囲内にあるときにフリック操作であるとみなすことによりタッチジェスチャを特定する。
 また、フリック操作によるタッチジェスチャを特定する場合の特定部25の具体的な動作の第二の例は、全ての位置情報を用いて近似直線または近似曲線を導出することにより、タッチジェスチャを特定することである。具体的には、特定部25は、第一記憶部22に記憶された検出点800~830の各々の位置情報(つまり、時刻の情報tおよび位置情報(x、y))において、最小二乗法などで近似することで、xおよびtの関係式x(t)と、yおよびtの関係式y(t)とを導出する。例えば、図8におけるグラフ900は検出点800~830を、時刻tおよび縦軸yの二次元座標にマッピングしたものである。このグラフ900を用いて、座標yを時刻tの二次式で近似すると曲線910を導出することができる。同様にして、座標xを時刻tの二次式で近似した曲線(図示せず)を導出することができる。その後、関係式x(t)および関係式y(t)を時刻tで微分することで、速度のx成分およびy成分が求まる。つまり、各時刻における速度ベクトルを求めることができる。これにより、特定部25は、算出した所定の時刻における速度ベクトルの方向およびノルムが予め定められた値の範囲内にあるときにフリック操作であるとみなすことによりタッチジェスチャを特定する。
 図9は、タッチセンサ10上の指の動きの軌跡を検出部21が検出した検出点1000~1040について説明するための図である。なお、図9に示す検出点1000~1040は、第一記憶部22に記憶されている位置情報に関連付けられた接触位置を時間順に示した点である。つまり、検出点1000~1040は、ユーザによる接触位置であって、検出部21により検出された点である。図9に示すような検出点1000~1040が関連付けられた位置情報が第一記憶部22に記憶されている場合、特定部25は、ユーザによるタッチ入力が回転操作であると識別する。
 回転操作のタッチジェスチャを特定する場合の特定部25の具体的な動作の例を以下で説明する。特定部25は、第一記憶部22に記憶されている任意の第一の位置情報の点から、第一の位置情報より後で記憶された第2の位置情報の点までを結ぶ第一のベクトルと、第2の位置情報の点と第2の位置情報より後で記憶された第3の位置情報の点までを結ぶ第2のベクトルとのなす角を求める。具体的には、図10を例に説明する。図10における検出点1000~1040は、図9における検出点1000~1040と同一である。検出点1000から検出点1010に向かうベクトル1100と、検出点1010から検出点1020に向かうベクトル1110とのなす角1120を求める。
 さらに前記第3の位置情報の点から前記第3の位置情報より後で記憶された第4の位置情報の点に向かう第3のベクトルにおいて、第2のベクトルと第3のベクトルとのなす角を求める。同様に以降の点から生成したベクトルのなす角を求める。具体的には、図11を例に説明する。図11における検出点1000~1040は、図9および図10における検出点1000~1040と同一である。各々の点を結ぶベクトルのなす角は、それぞれ角1120及び、角1210、角1220、角1230として求められる。
 特定部25は、所定時間の間に記憶された位置情報において、以上の方法で求めた位置情報の点を結ぶベクトル同士のなす角の方向が一定の範囲にあり、かつ、なす角の総和が予め定められた値に達したときに回転運動とみなすことができる。
 以上の方法が、回転操作のタッチジェスチャを特定する場合の特定部25の具体例である。
 以下、図12を参照して、情報入力装置により行われる情報入力処理について説明する。
 図12は、情報入力装置の入力処理部20により行われる情報入力処理の流れを示すフローチャートである。ここでは、排除部24が排除処理を行うタイミングとして、上述したタイミングの第一の例について説明する。
 まず、タッチセンサ10にユーザによる接触が行われたとき、検出部21が、予め定められたサンプリング周期で所定時間の間の接触位置を検出する(S101)。
 次に、第一記憶部22は、所定時間の間に検出部21により検出された複数の接触位置と、当該複数の接触位置のそれぞれが検出されたタイミングとを関連付けた情報を位置情報として記憶する(S102)。つまり、ここでは、第一記憶部22は、所定時間の間に検出部21により検出された複数の接触位置の全てが関連付けられた位置情報を記憶する。
 排除部24は、第一記憶部22に記憶されている位置情報のうち、最新の位置情報を読み出す(S103)。
 排除部24は、読み出した位置情報に関連付けられた接触位置が、予め定められた数を超えて検出されたか否かを判定する(S104)。つまり、排除部24は、読み出した位置情報について、数判定を行う。
 排除部24は、数判定により、読み出した位置情報が予め定められた数を超えた後に検出されたと判定した場合(S104:Yes)、当該位置情報に関連付けられた接触位置が排除領域に属するか否かを判定する(S105)。つまり、排除部24は、当該接触位置について、領域判定を行う。
 排除部24は、領域判定により、読み出した位置情報に関連付けられた接触位置が排除領域に属すると判定した場合(S105:Yes)、当該位置情報を第一記憶部22から削除する(S105)。これにより、数判定および領域判定の両方の判定条件を満たした位置情報が第一記憶部22から削除されることになる。
 そして、ステップS106により読み出された位置情報の一つ前に検出された位置情報を読み出し(S107)、ステップS104に戻る。
 一方で、数判定および領域判定のうち、一方の判定条件を満たさなかった場合(S104:NoまたはS105:No)、特定部25は、第一記憶部22に記憶されている位置情報を二以上用いてタッチジェスチャを特定させる(S108)。
 本実施の形態1に係る情報入力装置1によれば、排除部24が、第一記憶部22により記憶された位置情報で示される接触位置の数が予め定められた数を超えた以降に検出部21により検出された接触位置が、予め定められた領域に属すれば、第一記憶部22により記憶されている位置情報の中から当該接触位置を排除する排除処理を行う。そして、特定部25が、排除部24による排除処理後に第一記憶部22に記憶されている位置情報に関連付けられた特定位置のうちで二以上の特定位置を用いてタッチジェスチャを特定する。
 例えば、図4を用いて説明したような、下から上方向へのフリック操作をユーザが行おうとして、検出点300から検出点330まで指を移動して、その後、検出点330にてタッチセンサ周囲の出っ張りにユーザの指が接触して、検出点330から検出点360まで移動したという場面を考える。この場面において、第二記憶部23が記憶している排除領域を境界線390の左側および上側の領域とし、第一記憶部22で記憶された位置情報の数が4以上のときに、排除部24が5つ目以降に検出された位置情報を第一記憶部22に記憶させないものとする。つまり、予め定められた領域として境界線390の左側および上側の領域が設定されており、予め定められた数が4に設定されているものとする。この場合、特定部25がタッチジェスチャを特定するのに用いる位置情報は、検出点300~330までの4点となる。このため、特定部25は、開始点である検出点300から終了点である検出点330までの移動方向から、上方向のフリック操作であると特定する。
 また、図5において、上方向へのフリック操作をユーザが行おうとして、検出点400から検出点420までタッチ入力に係る指を移動して、その後、検出点420にてタッチセンサ周囲の出っ張りにユーザの指が接触して、検出点420から検出点430まで移動したという場面を考える。この場面において、第二記憶部23が記憶している排除領域を境界線470の上側の領域とし、第一記憶部22で記憶された位置情報の数が3以上のときに、排除部24が4つ目以降に検出された位置情報を第一記憶部22に記憶させないものとする。つまり、予め定められた領域として境界線470の上側の領域が設定されており、予め定められた数が3に設定されているものとする。この場合、特定部25がタッチジェスチャを特定するのに用いる位置情報は、検出点400~420までの3点となる。このため、特定部25は、開始点である検出点400から終了点である検出点420までの移動方向から、上方向のフリック操作であると特定する。
 以上のようにして、上述した従来例では、ユーザが意図したとおりに正しく検出されなかったフリック操作及びその方向を、本実施の形態1に係る情報入力装置1では、正しく検出することができる。
 上記実施の形態1に係る情報入力装置1では、排除領域は、タッチセンサの周りの出っ張りの周辺に設定されているが、このような出っ張りに限らない。
 例えば、排除領域は、その表面に突起物が設けられるタッチセンサ11である場合、タッチセンサ11の突起物の周囲の領域である。タッチセンサ11を用いてユーザがポインティング操作を行う際に、ユーザがタッチセンサを見なくても触覚でユーザが接触している指の位置を識別できるように、位置の目安にする目的でタッチセンサに突起物を設けることがある。このようなタッチセンサ11にユーザがタッチ入力を行っている場合に、突起物に指が当たったとき、ユーザの意図とは異なる移動が生じることがある。
 この現象を、図13を用いて説明する。タッチセンサ11には、その上部に突起物600が配置されているものとする。検出点610~650はユーザが上方向のフリック操作を意図したときの指の接触位置の軌跡のうちでタッチセンサ11により検出された検出点である。検出点640および検出点650は、検出点630の付近で指660が突起物600に衝突し、衝突により指が右方向に流れてしまったときの移動を表す検出点である。ここで、検出部21により検出された検出点610~650のうち、開始点である検出点610から終了点である検出点650までの移動方向をもとにフリック操作を特定すれば右斜め上方向へのフリック操作になってしまう。一方で、境界線670の内側を排除領域として設定すれば、検出点640および検出点650は、排除部24にて第一記憶部22による記憶を行わせない位置情報の候補になる。また、排除部24は、第一記憶部22が3点以上の位置情報を記憶しているときに、排除領域に含まれる位置情報を排除するように設定されている。
 このように排除部24の領域判定および数判定の判定条件が設定されていれば、排除部24により第一記憶部22から排除されずに残った有効な点である検出点610~630の位置情報の系列をもとにタッチジェスチャが特定部25により特定される。この場合、特定部25は、上方向のフリック操作であると特定する。このように、ユーザの意図と異なる指の移動の影響を、タッチジェスチャを特定するため材料から排除するために、突起物600の周辺、および指が突起物に接触した後に想定される指の軌跡の候補となる領域を排除領域と設定することは、有用である。
 また、上記実施の形態に係る情報入力装置1では、排除領域は、予め定められた領域に固定されているが、これに限らずに、動的に変更するようにしてもよい。
 例えば、ユーザがタッチ入力を行う際に、指が突起物600そのものには触れず、突起物600の付近を通過した場合には、突起物600の周辺を排除領域に設定する特別な理由はなくなる。そこで、単純に突起物600の周辺を排除領域と設定するのでなく、突起物600に指が触れたと判定されたときに、それ以降の所定時間の間、排除領域を突起物600の周辺に設定することも可能である。
 このような場合には、図14に示すように、入力処理部20aは、領域変化部26をさらに有する。つまり、上記のような入力処理部20aを有する情報入力装置1aであってもよい。領域変化部26は、突起物600に指が触れたと判定したときに、それ以降の所定時間の間、排除領域を突起物の周辺に設定する。つまり、領域変化部26は、検出部21で検出された複数の接触位置の少なくとも一つが特定の領域に属したときに、第二記憶部23が記憶している予め定められた領域を変化させる。なお、急激な指の動きの方向の変化を、突起物600との接触という事象が起こらない限り、発生しえないと考え、急激な指の動きの方向の変化が検出された場合に、突起物600に指が触れたと判定して、排除領域を突起物の周辺に設定しても良い。ここで、急激な指の動きの方向の変化の検出方法の一例は、次のとおりである。第一記憶部22に記憶されている任意の第一の位置情報の点から、第一の位置情報より後で記憶された第2の位置情報の点までを結ぶ第一のベクトルと、第2の位置情報の点と第2の位置情報より後で記憶された第3の位置情報の点までを結ぶ第2のベクトルとのなす角を求め、当該角の絶対値が予め定められた角度以上であるときに急激な指の動きの方向の変化を検出する。
 そして、排除部24は、特定の領域である突起物600(または突起物600のすぐそばの領域700)に接触位置が属した後において検出部21により検出された接触位置について、領域変化部26により変化された予め定められた領域を用いた排除処理を行う。
 領域変化部26の具体的な挙動を、図15を用いて説明する。初期状態では、排除領域は設定されていないものとする。図15のタッチセンサ11の上の突起物600のすぐそばに領域700を定義し、この領域700内での指の接触を検出したときに、領域変化部26は、指が突起物に触れたとみなす。その後、領域変化部26は、境界線670の内側を排除領域として設定する。この動作により、領域700に指が接触せずに、突起物600に指が当たっていないとみなされるときは、排除領域は設定されないので、排除部24は、第一記憶部22に記憶されている位置情報を排除しない。よって、排除領域が固定的に設定されることによって生じるユーザの意図するタッチ入力の排除がなされることを低減できる。このため、より多くの位置情報をもとにタッチジェスチャの認識を行うことができる。
 また、上記実施の形態1に係る情報入力装置1では、入力処理部20は、検出部21と、第一記憶部22と、第二記憶部23と、排除部24と、特定部25とを有するが、これらの構成を有しなくてもよい。つまり、入力処理部が、タッチセンサに対するタッチ入力が行われた接触位置であって、所定時間の間における異なる複数のタイミングで順次検出された複数の接触位置の中から、タッチ入力が開始されてから予め定められた数の接触位置が検出された後に検出され、かつ、予め定められた領域に属する接触位置を除いた複数の特定接触位置を用いてタッチジェスチャを特定すれば、入力処理部20が上記の構成を有することに限定されない。
 なお、本発明を上記実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
 上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムで実現され得る。RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。ROMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、ROMからRAMにコンピュータプログラムをロードし、ロードしたコンピュータプログラムにしたがって演算等の動作することにより、システムLSIは、その機能を達成する。
 上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されてもよい。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールには、上記の超多機能LSIが含まれてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有してもよい。
 本発明は、上記に示す方法で実現されてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムで実現してもよいし、コンピュータプログラムからなるデジタル信号で実現してもよい。
 また、本発明は、コンピュータプログラムまたはデジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc)、半導体メモリなどに記録したもので実現してもよい。また、これらの記録媒体に記録されているデジタル信号で実現してもよい。
 また、本発明は、コンピュータプログラムまたはデジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送してもよい。
 また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、メモリは、コンピュータプログラムを記憶しており、マイクロプロセッサは、コンピュータプログラムにしたがって動作してもよい。
 また、プログラムまたはデジタル信号を記録媒体に記録して移送することにより、またはプログラムまたはデジタル信号をネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
 上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
 本発明にかかる情報入力装置は、タッチセンサを用いたタッチジェスチャ操作において、ユーザの意図と異なる指の動きを排除したタッチジェスチャ認識を行うことで、より確実な操作を行うことができるという効果を有し、電子機器等への情報入力装置及び情報入力方法として有用である。
 1、1a、200 情報入力装置
10、11、210 タッチセンサ
20、20a 入力処理部
21 検出部
22 第一記憶部
23 第二記憶部
24 排除部
25 特定部
26 領域変化部

Claims (12)

  1.  ユーザからのタッチ入力をタッチジェスチャとして特定する情報入力装置であって、
     タッチセンサと、
     前記タッチセンサに対する前記タッチ入力が行われた接触位置であって、所定時間の間における異なる複数のタイミングで順次検出された複数の接触位置の中から、前記タッチ入力が開始されてから予め定められた数の前記接触位置が検出された後に検出され、かつ、予め定められた領域に属する接触位置を除いた複数の特定接触位置を用いてタッチジェスチャを特定する入力処理部と、を備える
     情報入力装置。
  2.  前記入力処理部は、
     前記複数の接触位置を検出する検出部と、
     前記検出部により前記所定時間の間に検出された複数の接触位置と、当該複数の接触位置のそれぞれが検出されたタイミングとを関連付けた情報を位置情報として記憶する第一記憶部と、
     前記タッチセンサ上の領域のうちの前記予め定められた領域を記憶している第二記憶部と、
     前記第一記憶部により記憶された位置情報で示される前記接触位置の数が前記予め定められた数を超えた以降に前記検出部により検出された接触位置が、前記第二記憶部により記憶されている前記予め定められた領域に属すれば、当該接触位置を排除する排除処理を行う排除部と、
     前記排除処理後に前記第一記憶部により記憶されている複数の位置情報のうち、二以上の位置情報を用いて前記タッチジェスチャを特定する特定部と、を有する
     請求項1に記載の情報入力装置。
  3.  前記入力処理部は、さらに、前記検出部で検出された前記複数の接触位置の少なくとも一つが特定の領域に属したときに、前記第二記憶部が記憶している前記予め定められた領域を変化させる領域変化部を有し、
     前記排除部は、前記特定の領域に前記接触位置が属した後において前記検出部に検出された接触位置について、前記領域変化部により変化された予め定められた領域を用いた前記排除処理を行う
     請求項1または2に記載の情報入力装置。
  4.  前記タッチセンサは、その表面に形成される突起物を有し、
     前記領域変化部は、前記検出部で検出された複数の接触位置の少なくとも一つが前記特定の領域である、前記突起物が形成される領域に属したときに、前記第二記憶部が記憶している前記予め定められた領域を変化させる
     請求項3に記載の情報入力装置。
  5.  前記入力処理部は、さらに、前記第一記憶部により記憶されている複数の位置情報のうち任意の第一の位置情報の点から、第一の位置情報より後で記憶された第2の位置情報の点までを結ぶ第一のベクトルと、第2の位置情報の点と第2の位置情報より後で記憶された第3の位置情報の点までを結ぶ第二のベクトルとのなす角の絶対値が予め定められた角度以上であるときに、前記第二記憶部が記憶している前記予め定められた領域を変化させる領域変化部を有し、
     前記排除部は、前記特定の領域に前記接触位置が属した後において前記検出部に検出された接触位置について、前記領域変化部により変化された予め定められた領域を用いた前記排除処理を行う
     請求項1または2に記載の情報入力装置。
  6.  前記第二記憶部は、前記タッチセンサの端として予め定められた端部領域を前記予め定められた領域として記憶している
     請求項1から5のいずれか1項に記載の情報入力装置。
  7.  ユーザからのタッチ入力をタッチジェスチャとして特定する情報入力装置であって、
     タッチセンサと、
     前記タッチセンサに対する前記タッチ入力が行われた接触位置であって、所定時間の間における異なる複数のタイミングで順次検出された複数の接触位置の中から、前記タッチ入力が開始されてから予め定められた数の前記接触位置が検出された後に検出され、かつ、前記複数の接触位置に記憶されている任意の第一の位置情報の点から、第一の位置情報より後で記憶された第2の位置情報の点までを結ぶ第一のベクトルと、第2の位置情報の点と第2の位置情報より後で記憶された第3の位置情報の点までを結ぶ第二のベクトルとのなす角の絶対値が予め定められた角度以上であるときに、接触位置を除いた複数の特定接触位置を用いてタッチジェスチャを特定する入力処理部と、を備える
     情報入力装置。
  8.  前記特定部は、前記二以上の特定位置を線分で近似することにより算出される前記タッチ入力の方向と、当該二以上の特定位置を示す位置情報から算出される前記タッチ入力の速さとを示すパラメータ情報を持つ直線運動をタッチジェスチャとして特定する
     請求項1から7のいずれか1項に記載の情報入力装置。
  9.  前記特定部は、前記第一記憶部で記憶された複数の特定位置のうち、三以上の特定位置を円弧で近似することにより算出される前記タッチ入力の方向と、当該三以上の特定位置を示す位置情報から算出される前記タッチ入力の速さとを示すパラメータ情報を持つ回転運動をタッチジェスチャとして特定する
     請求項1から7のいずれか1項に記載の情報入力装置。
  10.  ユーザからのタッチセンサへのタッチ入力をタッチジェスチャとして特定する情報入力方法であって、
     前記タッチセンサに対する前記タッチ入力が行われた位置であって、異なる複数のタイミングで検出された複数の接触位置を検出する検出ステップと、
     前記検出ステップにおいて所定時間の間に検出された複数の接触位置と、当該複数の接触位置のそれぞれが検出されたタイミングとを関連付けた情報を位置情報として第一記憶部に記憶させる記憶ステップと、
     前記記憶ステップで記憶された位置情報で示される前記接触位置の数が予め定められた数を超えた以降に前記検出ステップにおいて検出された接触位置が、前記予め定められた領域に属すれば、当該接触位置を排除する排除処理を行う排除ステップと、
     前記排除処理後に前記第一記憶部により記憶されている複数の位置情報のうち、二点以上の位置情報を用いてタッチジェスチャを特定する特定ステップと、を含む
     情報入力方法。
  11.  請求項10に記載の各ステップをコンピュータに実行させるためのプログラム。
  12.  ユーザからのタッチ入力をタッチジェスチャとして特定する情報入力装置に備えられる集積回路であって、
     前記タッチセンサに対する前記タッチ入力が行われた位置であって、異なる複数のタイミングで検出された複数の接触位置を検出する検出部と、
     前記検出部により前記所定時間の間に検出された複数の接触位置と、当該複数の接触位置のそれぞれが検出されたタイミングとを関連付けた情報を位置情報として記憶する第一記憶部と、
     前記タッチセンサ上の領域のうちの前記予め定められた領域を記憶している第二記憶部と、
     前記第一記憶部により記憶された位置情報で示される前記接触位置の数が前記予め定められた数を超えた以降に前記検出部により検出された接触位置が、前記第二記憶部により記憶されている前記予め定められた領域に属すれば、当該接触位置を排除する排除処理を行う排除部と、
     前記排除処理後に前記第一記憶部により記憶されている複数の位置情報のうち、二以上の位置情報を用いて前記タッチジェスチャを特定する特定部と、を備える
     集積回路。
PCT/JP2012/005672 2011-09-13 2012-09-06 情報入力装置及び情報入力方法 WO2013038630A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013508301A JP5841590B2 (ja) 2011-09-13 2012-09-06 情報入力装置及び情報入力方法
US13/989,213 US20130300704A1 (en) 2011-09-13 2012-09-06 Information input device and information input method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-199931 2011-09-13
JP2011199931 2011-09-13

Publications (1)

Publication Number Publication Date
WO2013038630A1 true WO2013038630A1 (ja) 2013-03-21

Family

ID=47882883

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/005672 WO2013038630A1 (ja) 2011-09-13 2012-09-06 情報入力装置及び情報入力方法

Country Status (3)

Country Link
US (1) US20130300704A1 (ja)
JP (1) JP5841590B2 (ja)
WO (1) WO2013038630A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58103744A (ja) * 1981-12-16 1983-06-20 Hitachi Ltd 螢光ランプの製造方法
JP2014235524A (ja) * 2013-05-31 2014-12-15 グリー株式会社 情報処理方法、情報処理システム及びプログラム
JP2017004565A (ja) * 2016-09-29 2017-01-05 グリー株式会社 情報処理方法、情報処理システム及びプログラム
JP2017509977A (ja) * 2014-02-21 2017-04-06 クゥアルコム・インコーポレイテッドQualcomm Incorporated タッチデバイス上の電力消費を改善するための方法および装置
JP6389581B1 (ja) * 2018-05-16 2018-09-12 株式会社Cygames プログラム、電子装置、及び方法
JP2018156589A (ja) * 2017-03-21 2018-10-04 富士ゼロックス株式会社 入力装置、画像形成装置及びプログラム
JP2019200765A (ja) * 2018-07-13 2019-11-21 株式会社Cygames プログラム、電子装置、及び方法

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9507454B1 (en) * 2011-09-19 2016-11-29 Parade Technologies, Ltd. Enhanced linearity of gestures on a touch-sensitive surface
US20150149801A1 (en) * 2013-11-26 2015-05-28 Synaptics Incorporated Complex wakeup gesture framework
KR102282498B1 (ko) * 2014-05-19 2021-07-27 삼성전자주식회사 디스플레이를 이용한 입력 처리 방법 및 장치
CN104731498B (zh) * 2015-01-30 2016-07-13 努比亚技术有限公司 移动终端防误触控方法及装置
US10318128B2 (en) * 2015-09-30 2019-06-11 Adobe Inc. Image manipulation based on touch gestures
US10282579B2 (en) 2016-01-29 2019-05-07 Synaptics Incorporated Initiating fingerprint capture with a touch screen
US10592717B2 (en) 2016-01-29 2020-03-17 Synaptics Incorporated Biometric imaging with hover detection
EP3640783B1 (en) 2017-09-11 2023-12-13 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Touch operation response method and device
US10698533B2 (en) 2017-09-11 2020-06-30 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method for responding to touch operation and electronic device
WO2019047234A1 (zh) * 2017-09-11 2019-03-14 广东欧珀移动通信有限公司 触摸操作响应方法及装置
WO2019047226A1 (zh) 2017-09-11 2019-03-14 广东欧珀移动通信有限公司 触摸操作响应方法及装置
JP7218567B2 (ja) * 2018-12-21 2023-02-07 京セラドキュメントソリューションズ株式会社 情報入力装置
JP7205236B2 (ja) * 2019-01-08 2023-01-17 トヨタ自動車株式会社 リモート走行システム及びリモート走行アプリケーションソフト

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02112013A (ja) * 1988-10-21 1990-04-24 Toshiba Corp タッチパネル式入力装置
JPH07114621A (ja) * 1993-10-15 1995-05-02 Hitachi Ltd ジェスチャ認識方法およびそれを用いたジェスチャ認識装置
JP2009217814A (ja) * 2008-01-04 2009-09-24 Apple Inc タッチ表面の端部領域におけるタッチ接触の選択的拒否
US20110069021A1 (en) * 2009-06-12 2011-03-24 Hill Jared C Reducing false touchpad data by ignoring input when area gesture does not behave as predicted

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8279180B2 (en) * 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
US8854316B2 (en) * 2010-07-16 2014-10-07 Blackberry Limited Portable electronic device with a touch-sensitive display and navigation device and method
WO2012037664A1 (en) * 2010-09-24 2012-03-29 Research In Motion Limited Portable electronic device and method of controlling same
CN102622120B (zh) * 2011-01-31 2015-07-08 宸鸿光电科技股份有限公司 多点触控面板的触碰轨迹追踪方法
US8994670B2 (en) * 2011-07-21 2015-03-31 Blackberry Limited Electronic device having touch-sensitive display and method of controlling same to identify touches on the touch-sensitive display

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02112013A (ja) * 1988-10-21 1990-04-24 Toshiba Corp タッチパネル式入力装置
JPH07114621A (ja) * 1993-10-15 1995-05-02 Hitachi Ltd ジェスチャ認識方法およびそれを用いたジェスチャ認識装置
JP2009217814A (ja) * 2008-01-04 2009-09-24 Apple Inc タッチ表面の端部領域におけるタッチ接触の選択的拒否
US20110069021A1 (en) * 2009-06-12 2011-03-24 Hill Jared C Reducing false touchpad data by ignoring input when area gesture does not behave as predicted

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58103744A (ja) * 1981-12-16 1983-06-20 Hitachi Ltd 螢光ランプの製造方法
JP2014235524A (ja) * 2013-05-31 2014-12-15 グリー株式会社 情報処理方法、情報処理システム及びプログラム
JP2017509977A (ja) * 2014-02-21 2017-04-06 クゥアルコム・インコーポレイテッドQualcomm Incorporated タッチデバイス上の電力消費を改善するための方法および装置
JP2017004565A (ja) * 2016-09-29 2017-01-05 グリー株式会社 情報処理方法、情報処理システム及びプログラム
JP2018156589A (ja) * 2017-03-21 2018-10-04 富士ゼロックス株式会社 入力装置、画像形成装置及びプログラム
JP6389581B1 (ja) * 2018-05-16 2018-09-12 株式会社Cygames プログラム、電子装置、及び方法
WO2019220873A1 (ja) * 2018-05-16 2019-11-21 株式会社Cygames プログラム、電子装置、及び方法
JP2019200595A (ja) * 2018-05-16 2019-11-21 株式会社Cygames プログラム、電子装置、及び方法
CN112424739A (zh) * 2018-05-16 2021-02-26 Cy游戏公司 程序、电子装置和方法
JP2019200765A (ja) * 2018-07-13 2019-11-21 株式会社Cygames プログラム、電子装置、及び方法
JP7250451B2 (ja) 2018-07-13 2023-04-03 株式会社Cygames プログラム、電子装置、及び方法

Also Published As

Publication number Publication date
JP5841590B2 (ja) 2016-01-13
US20130300704A1 (en) 2013-11-14
JPWO2013038630A1 (ja) 2015-03-23

Similar Documents

Publication Publication Date Title
JP5841590B2 (ja) 情報入力装置及び情報入力方法
JP6429981B2 (ja) ユーザ入力の意図の分類
US9557852B2 (en) Method of identifying palm area of a touch panel and a updating method thereof
JP5728008B2 (ja) 情報入力装置、情報入力方法及びプログラム
TWI514229B (zh) 圖形編輯方法以及電子裝置
US9348458B2 (en) Gestures for touch sensitive input devices
US20140300559A1 (en) Information processing device having touch screen
CN105117056B (zh) 一种操作触摸屏的方法和设备
US20120032903A1 (en) Information processing apparatus, information processing method, and computer program
JP2010244132A (ja) タッチパネル付きユーザインタフェース装置、ユーザインタフェース制御方法およびユーザインタフェース制御プログラム
EP1774429A2 (en) Gestures for touch sensitive input devices
US9477398B2 (en) Terminal and method for processing multi-point input
TWI526952B (zh) 電容式觸控裝置及其物件辨識方法
WO2012111227A1 (ja) タッチ式入力装置、電子機器および入力方法
US20140298275A1 (en) Method for recognizing input gestures
US9367169B2 (en) Method, circuit, and system for hover and gesture detection with a touch screen
US20170308177A1 (en) Capacitive Keyboard Having Variable Make Points
CN104679312A (zh) 电子装置及其触控系统、触控方法
KR20070079858A (ko) 터치패드를 이용한 드래그 기능 구현 방법
KR20110047556A (ko) 멀티 터치 입력 기반 스트로크 특징 데이터에 의한 전자 기기의 동작 제어 방법

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013508301

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12831044

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13989213

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12831044

Country of ref document: EP

Kind code of ref document: A1