WO2011101940A1 - 携帯端末及びその制御方法 - Google Patents
携帯端末及びその制御方法 Download PDFInfo
- Publication number
- WO2011101940A1 WO2011101940A1 PCT/JP2010/007198 JP2010007198W WO2011101940A1 WO 2011101940 A1 WO2011101940 A1 WO 2011101940A1 JP 2010007198 W JP2010007198 W JP 2010007198W WO 2011101940 A1 WO2011101940 A1 WO 2011101940A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- contact area
- input
- contact
- touch panel
- image data
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
Definitions
- the present invention relates to a mobile terminal and a control method thereof, and particularly to a mobile terminal including a touch panel and a control method thereof.
- a touch panel that senses the contact of a fingertip or a pen and performs an input operation is used.
- a method for detecting contact a resistive film method, an ultrasonic method, a capacitance method, and the like have been proposed.
- Patent Document 1 discloses a technique for detecting a pen contact area on a touch panel and switching between an input mode and an erase mode according to the detected contact area. Specifically, when the touch panel is touched with a thin pen tip, it functions as an input mode, and when it touches the touch panel with a thick pen tip, it functions as an erase mode.
- Patent Document 2 discloses a technique for determining that an input is made with a pen when the contact area on the touch panel is less than a predetermined value, and determining that the input is made with a finger when the contact area is greater than or equal to a predetermined value. Yes.
- Patent Document 3 discloses a technique of arranging dot spacers arranged on a resistive film type touch panel at different pitches. Specifically, in a touch panel, an area where dot spacers are arranged at a relatively long pitch allows input with both a finger and a pen, and an area where dot spacers are arranged at a pitch shorter than the pitch is only a pen. Can be input. In addition, in a region where the arrangement pitch of the dot spacers is even shorter, input of either a finger or a pen is prohibited.
- Patent Document 4 a fingerprint pattern or contact area pattern of a user's finger is registered in association with a processing operation, and the fingerprint pattern or contact area pattern of the finger touching the touch panel is detected and the fingerprint pattern is detected.
- a technique for executing a processing operation assigned to a contact area pattern is disclosed.
- unintended input with a finger or a pen can be prohibited by adjusting the arrangement pitch of the dot spacers. For this purpose, it is necessary to determine in advance an area where input is prohibited, but it is difficult to determine an input prohibited area by predicting the position of an unintended input.
- the present invention has been made to solve such a problem, and an object thereof is to provide a portable terminal capable of preventing an unintentional erroneous input to a touch panel and a control method thereof.
- a portable terminal includes a touch panel that performs input by contact of an object, contact area detection means that detects a contact area of the object on the touch panel when the object contacts the touch panel, and the touch panel of the object.
- Input determination means for determining whether or not an input by contact with the touch panel is valid, wherein the input determination means is configured such that the contact area detected by the contact area detection means is a fingertip touching the touch panel when a finger is input. When the value is equal to or greater than the value corresponding to the upper limit of the contact area, it is determined that the input due to the contact of the object is invalid.
- the contact area of the object on the touch panel is detected, and the input by touching the object to the touch panel is detected. It is determined whether or not the input is valid when determining whether or not the input is valid when the detected contact area is equal to or greater than the upper limit of the contact area of the fingertip that touches the touch panel when a finger is input Therefore, it is determined that the input due to the contact of the object is invalid.
- the present invention it is possible to provide a mobile terminal capable of preventing an unintentional erroneous input to the touch panel and a control method thereof.
- FIG. 1 is a diagram illustrating a configuration example of a mobile terminal according to a first embodiment
- FIG. 3 is a diagram illustrating a usage example of the mobile terminal according to the first exemplary embodiment
- 3 is a flowchart illustrating an operation of the mobile terminal according to the first exemplary embodiment.
- FIG. 3 is a diagram for explaining notification information of a control unit according to the first embodiment; It is a figure which shows the structural example of the portable terminal concerning Embodiment 2.
- FIG. 10 is a flowchart illustrating an operation of the mobile terminal according to the second exemplary embodiment. It is a figure which shows the structural example of the portable terminal concerning Embodiment 3.
- FIG. 10 is a flowchart showing the operation of the mobile terminal according to the third exemplary embodiment.
- Embodiment 1 Embodiments of the present invention will be described below with reference to the drawings.
- the mobile terminal 1 includes a control unit 10, an LCD (Liquid Crystal Display) 20, a touch panel 30, and a general application unit 40.
- LCD Liquid Crystal Display
- the control unit 10 includes a display unit 101 and an input determination unit 102.
- the display unit 101 displays the screen information sent from the general-purpose application unit 40 on the LCD 20.
- the general-purpose application unit 40 acquires coordinate information on the touch panel 30 notified from the control unit 10 when an object comes into contact with the touch panel 30. Then, the general-purpose application unit 40 executes event processing based on the acquired coordinate information, sends the execution result of the event processing to the display unit 101, and updates the screen information.
- the contents of the application are, for example, a browser, a mailer, and the like, which are general applications well known today.
- the input determination unit 102 determines whether or not input by touching the touch panel 30 is valid when an object touches the touch panel 30. Specifically, when the area of the object touching the touch panel 30 is equal to or greater than the upper limit of the contact area of the fingertip that touches the touch panel 30 when a finger is input (hereinafter referred to as a first threshold), It is determined that the input due to the contact of the object is invalid.
- the first threshold value can be arbitrarily set by the user, and is preferably larger than the fingertip and smaller than the finger pad.
- the touch panel 30 includes a contact coordinate acquisition unit 301 and a contact area detection unit 302.
- the contact coordinate acquisition unit 301 acquires coordinates at which an object touches the touch panel 30. Specifically, when the user touches the touch panel 30 with a pen, a finger, or the like, the contact coordinate acquisition unit 301 acquires coordinate information of the touched point and sends the coordinate information to the control unit 10.
- the contact area detection unit 302 detects the contact area of the object with the touch panel 30.
- FIG. 2 shows a usage example in which the thumb 92 of the hand holding the mobile terminal 1 is touching the touch panel 30.
- the touch panel 30 detects contact of an object (step S101). Then, the contact area detection unit 302 detects the contact area W of the object that has touched the touch panel 30, and sends information on the contact area W to the control unit 10 (step S102). At this time, the contact coordinate acquisition unit 301 also sends the acquired coordinate information of the contact position of the object to the control unit 10. The input determination unit 102 determines whether or not the sent contact area W is larger than the first threshold value Wa (step S103).
- the input determination unit 102 determines that the input by the contact of the object is valid. And the control part 10 notifies the general purpose application part 40 of the coordinate information sent from the contact coordinate acquisition part 301 (step S104). Then, the general-purpose application unit 40 executes a processing operation according to the coordinate information. Thereafter, the general-purpose application unit 40 sends the processing result to the control unit 10, and the display unit 101 updates the display on the LCD 20 based on the processing result.
- the input determination unit 102 determines that the input by the contact of the object is invalid. For this reason, the control unit 10 does not send the coordinate information by the contact whose contact area W is equal to or larger than the first threshold value Wa to the general-purpose application unit 40. That is, the general-purpose application unit 40 does not perform any processing for the touch of the object with the touch panel 30.
- FIG. 4 is a diagram illustrating information notified from the touch panel 30 to the control unit 10 in the usage example illustrated in FIG. 2.
- the contact coordinate acquisition unit 301 acquires the coordinates (x1, y1) of the portion 93 and sends coordinate information to the control unit 10.
- the contact coordinate acquisition unit 301 acquires the center coordinates of the contact portion.
- the contact area detection unit 302 detects the contact area W ⁇ b> 1 and sends information on the contact area W ⁇ b> 1 to the control unit 10.
- the touch panel 30 sends the coordinates (x2, y2) of the contact portion 94 by the thumb 92 and the contact area W2 to the control unit 10.
- the input determination unit 102 determines whether or not the contact areas W1 and W2 sent from the contact area detection unit 302 are greater than or equal to the first threshold Wa. In this example, it is assumed that W1 ⁇ Wa ⁇ W2. Since the contact area W1 is smaller than the first threshold Wa, the input determination unit 102 determines that the object touched by the contact area W1, that is, the input of the pen 91 is valid. Then, the control unit 10 sends the input coordinates (x1, y1) by the pen 91 to the general-purpose application unit 40.
- the input determination unit 102 determines that the input of the object touched by the contact area W2, that is, the input of the thumb 92 is invalid. Therefore, the control unit 10 does not send the input coordinates (x2, y2) by the thumb 92 to the general-purpose application unit 40. Note that when a plurality of objects touch the touch panel 30 simultaneously (for example, when a pen and a finger touch the touch panel at the same time), the input determination unit 102 performs a determination operation on each object.
- the contact area detection unit 302 detects the contact area of the object on the touch panel 30, and the input determination unit 102 detects the contact area and the first threshold value. Based on the above, it is determined whether or not the input by the contact of the object is valid. Therefore, for example, even when a part of a finger holding the mobile terminal 1 touches the touch panel 30, the contact is invalidated if the contact area is equal to or larger than the first threshold value. On the other hand, a contact having a contact area with a pen or a fingertip that is smaller than the first threshold is effective. As a result, erroneous input that occurs due to unintended contact with the touch panel 30 can be prevented.
- Embodiment 2 A second embodiment according to the present invention will be described.
- a configuration example of the mobile terminal 2 according to the present embodiment is shown in FIG.
- the mobile terminal 2 shown in FIG. 5 includes an image comparison unit 103, a contact image reading unit 303, a touch panel setting application unit 41, and a registered image storage unit 60 in addition to the configuration of the mobile terminal 1 shown in FIG. Since other configurations are the same as those of the mobile terminal 1, description thereof is omitted.
- the image comparison unit 103 performs authentication by comparing the image data in contact with the touch panel 30 with the registered image data. Based on the contact area W detected by the contact area detection unit 302 and the comparison result of the image comparison unit 103, the input determination unit 102 determines whether or not the input by the contact of the object is valid.
- the registered image data is user's own fingertip image data registered in advance, and is stored in the registered image storage unit 60 which is a memory such as a RAM (Random Access Memory).
- the contact image reading unit 303 scans an image of an object that has touched the touch panel 30 and reads image data of the object.
- the image data is sent to the image comparison unit 103.
- fingertip image data is used as the image data.
- the image comparison unit 103 compares image data using fingerprint authentication, vein authentication, or the like.
- the touch panel setting application unit 41 is an application that displays a user setting screen related to the comparison process of the image comparison unit 103.
- the user setting screen relating to the comparison processing is, for example, a screen for registering registered image data, a screen for switching between valid and invalid of the image comparison processing, and the like.
- the touch panel 30 detects contact of an object (step S101).
- the contact area detection unit 302 detects the contact area W and sends the contact area W to the control unit 10.
- the contact image reading unit 303 reads the fingertip image data of the finger that has touched the touch panel, and sends it to the control unit 10 (step S201).
- the input determination part 102 determines whether the contact area W is more than 1st threshold value Wa (step S103).
- the input determination unit 102 determines that the input by the contact of the object is invalid.
- the control unit 10 reads the fingerprint authentication setting set by the touch panel setting application unit 41 (step S202). Specifically, the image comparison unit 103 reads registered fingertip image data from the registered image storage unit 60. Further, the control unit 10 reads the setting for enabling / disabling fingerprint authentication. Then, the control unit 10 determines whether fingerprint authentication is valid (step S203). If the fingerprint authentication is invalid, the control unit 10 notifies the general-purpose application unit 40 of the coordinate information of the fingertip that has touched the touch panel 30 (step S104).
- the image comparison unit 103 compares the fingertip image data read by the contact image reading unit 303 with the registered fingertip image data read from the registered image storage unit 60 (step S204). When the read fingertip image data matches the registered fingertip image data, the input determination unit 102 determines that the input by the touch of the fingertip is valid, and the control unit 10 obtains the coordinate information of the fingertip from the general-purpose application unit 40. (Step S104). When the reading fingertip image data does not match the registered fingertip image data, the input determination unit 102 determines that the input by the fingertip is invalid, and the control unit 10 does not notify the coordinate information of the fingertip. Note that the validity / invalidity of the authentication process can be arbitrarily switched by the user by changing the setting of the touch panel setting application unit 41.
- the contact image reading unit 303 reads image data such as a fingerprint touching the touch panel 30, and the input determination unit 102 adds the contact area W to Based on the read image, it is determined whether or not an input by contact with a fingertip or the like is valid. Therefore, contact other than the user's fingertip registered in advance is invalidated. As a result, the accuracy of erroneous input determination is increased. Moreover, since it does not react except a user's finger
- Embodiment 3 A third embodiment according to the present invention will be described.
- a configuration example of the mobile terminal 3 according to the present embodiment is shown in FIG.
- the mobile terminal 3 illustrated in FIG. 7 includes a mode determination unit 104 in addition to the configuration of the mobile terminal 2 illustrated in FIG. Since other configurations are the same as those of the mobile terminal 2, the description thereof is omitted.
- the contact area W detected by the contact area detection unit 302 is a value corresponding to the upper limit of the contact area of the pen tip that touches the touch panel 30 during pen input (hereinafter referred to as a second threshold) Wb. If the contact area W is equal to or larger than the second threshold value Wb and smaller than the first threshold value Wa, it is determined to be the finger input mode.
- the second threshold value is a threshold value for determining whether an object touching the touch panel 30 is a pen or a finger.
- the second threshold value can be arbitrarily set by the user, and is preferably larger than the contact area of the pen tip and smaller than the contact area of the finger tip.
- the mode determination unit 104 Similar to the input determination unit 102, the mode determination unit 104 also performs a determination operation on each object when a plurality of objects touch the touch panel 30 at the same time.
- the touch panel 30 detects contact of an object (step S101)
- the contact area detection unit 302 detects the contact area W
- the contact image reading unit 303 reads the contact image of the object ( Step S201).
- the input determination unit 102 and the mode determination unit 104 determine the input mode of the object that has touched the touch panel 30 (step S301). Specifically, the input determination unit 102 determines whether or not the contact area W is greater than or equal to the first threshold value Wa, as in the second embodiment described above. Here, when the contact area W is larger than the first threshold Wa (W ⁇ Wa), the input determination unit 102 determines that the input by the contact of the object is invalid.
- the mode determination unit 104 determines whether the input mode is the pen input mode or the finger input mode.
- the contact area W of the touched object is smaller than the second threshold value Wb (W ⁇ Wb)
- the mode determination unit 104 determines that the object touching the touch panel 30 is the pen tip mode and is in the pen input mode. .
- the control unit 10 notifies the general-purpose application unit 40 of the coordinate information of the contact portion of the pen tip, assuming that the input is in the pen input mode (S104).
- the mode determination unit 104 determines that the object touching the touch panel 30 is the fingertip It is determined that When it is determined that the touched object is the fingertip, the same processing as in the second embodiment is performed.
- the control unit 10 reads the fingertip image authentication setting (step S202). Then, the control unit 10 determines whether the authentication is valid (step S203). If the authentication is invalid, the control unit 10 notifies the general-purpose application unit 40 of the coordinate information of the fingertip. If the authentication is valid, the image comparison unit 103 compares the read image with the registered image (step S204). If the read image matches the registered image, the control unit 10 notifies the general-purpose application unit 40 of the coordinate information of the contact portion of the fingertip, assuming that the input is the finger input mode (step S104). If the read image does not match the registered image, the input determination unit 102 determines that the input is invalid.
- the mode determination unit 104 determines the input mode according to the contacted object. Therefore, the processing operation of the general-purpose application unit 40 can be changed depending on whether the input mode is the pen input mode or the finger input mode. As a result, the processing operation for the touch on the touch panel 30 can be easily changed.
- the image data is not limited to the fingertip image, and may be a stylus image.
- the registered image data may be a general-purpose fingertip image that can determine whether the fingertip is not the user's fingertip image data. Thereby, even if it is a fingertip other than a user, it determines with an effective input, and the convenience improves.
- the control unit 10 may be configured to detect the contact area W based on coordinate information sent from the touch panel 30.
- a touch panel for input by contact of an object; When the object touches the touch panel, contact area detection means for detecting a contact area of the object on the touch panel; Input determination means for determining whether or not input by contact of the object with the touch panel is valid, The input determination means is invalid when the contact area detected by the contact area detection means is greater than or equal to a value corresponding to an upper limit of a contact area of a fingertip that contacts the touch panel when a finger is input.
- a portable terminal that is determined to be present.
- Appendix 2 The mobile terminal according to appendix 1, wherein when the user grips the mobile terminal with one hand, a part of a finger of the gripped hand touches the touch panel.
- (Appendix 4) Registered image storage means for storing pre-registered image data; Image comparison means for comparing the pre-registered image data with the image data read by the contact image reading means, When the contact area detected by the contact area detection unit is smaller than a value corresponding to the upper limit of the contact area of the fingertip, the input determination unit is based on the contact of the object based on the comparison result of the image comparison unit.
- the input determination means has a value corresponding to an upper limit of the contact area of the fingertip and the contact area detected by the contact area detection means is greater than or equal to a value corresponding to an upper limit of the contact area of the pen tip contacting the touch panel at the time of pen input
- the portable terminal according to Supplementary Note 3 or 4 that determines whether or not the input by contact of the object is valid based on the image data read by the contact image reading unit.
- Appendix 6 The mobile terminal according to appendices 3 to 5, wherein the image data is user fingertip image data, and the contact image reading means reads the fingertip image data in contact with the touch panel.
- Appendix 10 The mobile terminal according to appendix 9, wherein when the user grips the mobile terminal with one hand, a part of a finger of the gripped hand touches the touch panel.
- Appendix 12 Compare the pre-registered image data with the scanned image data, The mobile terminal control method according to appendix 11, wherein it is determined whether or not an input by contact with the object is valid based on the comparison result.
- the determination as to whether or not the input is valid corresponds to the detected contact area not less than a value corresponding to the upper limit of the contact area of the pen tip that contacts the touch panel during pen input and the upper limit of the contact area of the fingertip.
- Appendix 14 14. The method of controlling a mobile terminal according to any one of appendices 11 to 13, wherein the image data is user fingertip image data, and the fingertip image data in contact with the touch panel is read.
- a touch panel for input by contact of an object; When the object touches the touch panel, contact area detection means for detecting a contact area of the object on the touch panel; Input determination means for determining whether or not input by contact of the object with the touch panel is valid, The input determination means is invalid when the contact area detected by the contact area detection means is greater than or equal to a value corresponding to an upper limit of a contact area of a fingertip that contacts the touch panel when a finger is input.
- An input device that determines that there is.
- Appendix 18 The input device according to appendix 17, wherein the touch panel has a size such that when a user grips the input device with one hand, a part of a finger of the gripped hand touches the touch panel.
- (Appendix 20) Registered image storage means for storing pre-registered image data; Image comparison means for comparing the pre-registered image data with the image data read by the contact image reading means, When the contact area detected by the contact area detection unit is smaller than a value corresponding to the upper limit of the contact area of the fingertip, the input determination unit is based on the contact of the object based on the comparison result of the image comparison unit. Item 20.
- the input device according to appendix 19, which determines whether or not input is valid.
- the input determination means has a value corresponding to an upper limit of the contact area of the fingertip and the contact area detected by the contact area detection means is greater than or equal to a value corresponding to an upper limit of the contact area of the pen tip contacting the touch panel at the time of pen input 21.
- the input device according to appendix 19 or 20, wherein the input device determines whether or not the input by the contact of the object is valid based on the image data read by the contact image reading unit.
- Control unit 20 LCD 30 touch panel 40 general-purpose application unit 41 touch panel setting application unit 50 surface 60 registered image storage unit 91 pen 92 thumb 93 pen contact portion 94 thumb contact portion 101 display unit 102 input determination unit 103 image comparison unit 104 mode determination unit 301 contact coordinates Acquisition unit 302 Contact area detection unit 303 Contact image reading unit
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
以下、図面を参照して本発明の実施の形態について説明する。本実施の形態にかかる携帯端末1の構成例を図1に示す。携帯端末1は、制御部10、LCD(Liquid Crystal Display)20、タッチパネル30、汎用アプリケーション部40を備える。
本発明にかかる実施の形態2について説明する。本実施の形態にかかる携帯端末2の構成例を図5に示す。図5に示した携帯端末2は、図1に示した携帯端末1の構成に加え、画像比較部103、接触画像読取部303、タッチパネル設定アプリケーション部41、登録画像記憶部60を備える。なお、その他の構成については携帯端末1と同様であるので、説明を省略する。
本発明にかかる実施の形態3について説明する。本実施の形態にかかる携帯端末3の構成例を図7に示す。図7に示した携帯端末3は、図5に示した携帯端末2の構成に加えて、モード判定部104を備える。なお、その他の構成については携帯端末2と同様であるので、説明を省略する。
物体の接触により入力を行うタッチパネルと、
前記物体が前記タッチパネルに接触した場合、前記タッチパネルにおける当該物体の接触面積を検出する接触面積検出手段と、
前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する入力判定手段と、を備え、
前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が、指入力時に前記タッチパネルに接する指先の接触面積の上限に対応する値以上である場合、前記物体の接触による入力は無効であると判定する携帯端末。
前記タッチパネルは、前記携帯端末をユーザが片手で把持した場合、把持した手の指の一部が前記タッチパネルに触れる大きさである付記1に記載の携帯端末。
前記タッチパネルに接触した前記物体の画像データを読み取る接触画像読取手段をさらに備え、
前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が指先の接触面積の上限に対応する値よりも小さい場合、前記接触画像読取手段が読み取った画像データに基づいて、前記物体の接触による入力が有効であるか否かを判定する付記1または2に記載の携帯端末。
予め登録された画像データを格納する登録画像記憶手段と、
前記予め登録された画像データと前記接触画像読取手段が読み取った画像データとを比較する画像比較手段と、をさらに備え、
前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が前記指先の接触面積の上限に対応する値よりも小さい場合、前記画像比較手段の比較結果に基づいて、当該物体の接触による入力が有効であるか否かを判定する付記3に記載の携帯端末。
前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が、ペン入力時に前記タッチパネルに接するペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、前記接触画像読取手段が読み取った画像データに基づいて、前記物体の接触による入力は有効であるか否かを判定する付記3または4に記載の携帯端末。
前記画像データはユーザの指先画像データであり、前記接触画像読取手段は、前記タッチパネルに接触した前記指先画像データを読み取る付記3~5に記載の携帯端末。
前記接触面積検出手段が検出した前記接触面積が、前記ペン先の接触面積の上限に対応する値よりも小さい場合、ペン入力モードであると判定し、前記接触面積が前記ペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、指入力モードであると判定するモード判定手段をさらに備える付記5または6に記載の携帯端末。
前記タッチパネルに複数の前記物体が接触する場合、
前記入力判定手段は、それぞれの前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する付記1~7のいずれか一項に記載の携帯端末。
物体の接触により入力を行うタッチパネルに前記物体が接触した場合、前記タッチパネルにおける当該物体の接触面積を検出し、
前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定し、
前記入力が有効であるか否かの判定は、
検出した前記接触面積が、指入力時に前記タッチパネルに接する指先の接触面積の上限に対応する値以上である場合、当該物体の接触による入力は無効であると判定する携帯端末の制御方法。
前記タッチパネルは、前記携帯端末をユーザが片手で把持した場合、把持した手の指の一部が前記タッチパネルに触れる大きさである付記9に記載の携帯端末。
前記タッチパネルに接触した前記物体の画像データを読み取り、
前記入力が有効であるか否かの判定は、
検出した前記接触面積が指先の接触面積の上限に対応する値よりも小さい場合、読み取った前記画像データに基づいて、前記物体の接触による入力が有効であるか否かを判定する付記9または10に記載の携帯端末の制御方法。
予め登録された画像データと読み取った画像データとを比較し、
比較結果に基づいて、当該物体の接触による入力が有効であるか否かを判定する付記11に記載の携帯端末の制御方法。
前記入力は有効であるか否かの判定は、検出した前記接触面積が、ペン入力時に前記タッチパネルに接するペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、読み取った前記画像データに基づいて、前記物体の接触による入力が有効であるか否かを判定する付記11または12に記載の携帯端末の制御方法。
前記画像データはユーザの指先画像データであり、前記タッチパネルに接触した前記指先画像データを読み取る付記11~13のいずれか一項に記載の携帯端末の制御方法。
検出した前記物体の接触面積が、前記ペン先の接触面積の上限に対応する値よりも小さいは、ペン入力モードであると判定し、
前記接触面積が前記ペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、指入力モードであると判定する付記13または14に記載の携帯端末の制御方法。
前記タッチパネルに複数の前記物体が接触する場合、
前記入力は有効であるか否かの判定は、それぞれの前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する付記9~15のいずれか一項に記載の携帯端末の制御方法。
物体の接触により入力を行うタッチパネルと、
前記物体が前記タッチパネルに接触した場合、前記タッチパネルにおける当該物体の接触面積を検出する接触面積検出手段と、
前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する入力判定手段と、を備え、
前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が、指入力時に前記タッチパネルに接する指先の接触面積の上限に対応する値以上である場合、前記物体の接触による入力は無効であると判定する入力装置。
前記タッチパネルは、前記入力装置をユーザが片手で把持した場合、把持した手の指の一部が前記タッチパネルに触れる大きさである付記17に記載の入力装置。
前記タッチパネルに接触した前記物体の画像データを読み取る接触画像読取手段をさらに備え、
前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が指先の接触面積の上限に対応する値よりも小さい場合、前記接触画像読取手段が読み取った画像データに基づいて、前記物体の接触による入力が有効であるか否かを判定する付記17または18に記載の入力装置。
予め登録された画像データを格納する登録画像記憶手段と、
前記予め登録された画像データと前記接触画像読取手段が読み取った画像データとを比較する画像比較手段と、をさらに備え、
前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が前記指先の接触面積の上限に対応する値よりも小さい場合、前記画像比較手段の比較結果に基づいて、当該物体の接触による入力が有効であるか否かを判定する付記19に記載の入力装置。
前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が、ペン入力時に前記タッチパネルに接するペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、前記接触画像読取手段が読み取った画像データに基づいて、前記物体の接触による入力は有効であるか否かを判定する付記19または20に記載の入力装置。
前記画像データはユーザ指先画像データであり、前記接触画像読取手段は、前記タッチパネルに接触した前記指先画像データを読み取る付記19~21に記載の入力装置。
前記接触面積検出手段が検出した前記接触面積が、前記ペン先の接触面積の上限に対応する値よりも小さい場合、ペン入力モードであると判定し、前記接触面積が前記ペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、指入力モードであると判定するモード判定手段をさらに備える付記21または22に記載の入力装置。
前記タッチパネルに複数の前記物体が接触する場合、
前記入力判定手段は、それぞれの前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する付記17~23のいずれか一項に記載の入力装置。
10 制御部
20 LCD
30 タッチパネル
40 汎用アプリケーション部
41 タッチパネル設定アプリケーション部
50 面
60 登録画像記憶部
91 ペン
92 親指
93 ペンの接触部分
94 親指の接触部分
101 表示部
102 入力判定部
103 画像比較部
104 モード判定部
301 接触座標取得部
302 接触面積検出部
303 接触画像読取部
Claims (10)
- 物体の接触により入力を行うタッチパネルと、
前記物体が前記タッチパネルに接触した場合、前記タッチパネルにおける当該物体の接触面積を検出する接触面積検出手段と、
前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する入力判定手段と、を備え、
前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が、指入力時に前記タッチパネルに接する指先の接触面積の上限に対応する値以上である場合、前記物体の接触による入力は無効であると判定する携帯端末。 - 前記タッチパネルは、前記携帯端末をユーザが片手で把持した場合、把持した手の指の一部が前記タッチパネルに触れる大きさである請求項1に記載の携帯端末。
- 前記タッチパネルに接触した前記物体の画像データを読み取る接触画像読取手段をさらに備え、
前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が前記指先の接触面積の上限に対応する値よりも小さい場合、前記接触画像読取手段が読み取った画像データに基づいて、前記物体の接触による入力が有効であるか否かを判定する請求項1または2に記載の携帯端末。 - 予め登録された画像データを格納する登録画像記憶手段と、
前記予め登録された画像データと前記接触画像読取手段が読み取った画像データとを比較する画像比較手段と、をさらに備え、
前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が前記指先の接触面積の上限に対応する値よりも小さい場合、前記画像比較手段の比較結果に基づいて、当該物体の接触による入力が有効であるか否かを判定する請求項3に記載の携帯端末。 - 前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が、ペン入力時に前記タッチパネルに接するペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、前記接触画像読取手段が読み取った画像データに基づいて、前記物体の接触による入力は有効であるか否かを判定する請求項3または4に記載の携帯端末。
- 前記画像データはユーザの指先画像データであり、前記接触画像読取手段は、前記タッチパネルに接触した前記指先画像データを読み取る請求項3~5のいずれか一項に記載の携帯端末。
- 前記接触面積検出手段が検出した前記接触面積が、前記ペン先の接触面積の上限に対応する値よりも小さい場合、ペン入力モードであると判定し、前記接触面積が前記ペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、指入力モードであると判定するモード判定手段をさらに備える請求項5または6に記載の携帯端末。
- 前記タッチパネルに複数の前記物体が接触する場合、
前記入力判定手段は、それぞれの前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する請求項1~7のいずれか一項に記載の携帯端末。 - 物体の接触により入力を行うタッチパネルに前記物体が接触した場合、前記タッチパネルにおける当該物体の接触面積を検出し、
前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定し、
前記入力が有効であるか否かの判定は、
検出した前記接触面積が、指入力時に前記タッチパネルに接する指先の接触面積の上限に対応する値以上である場合、当該物体の接触による入力は無効であると判定する携帯端末の制御方法。 - 前記タッチパネルに接触した前記物体の画像データを読み取り、
前記入力が有効であるか否かの判定は、
検出された前記接触面積が前記指先の接触面積の上限に対応する値よりも小さい場合、読み取った前記画像データに基づいて、前記物体の接触による入力が有効であるか否かを判定する請求項9に記載の携帯端末の制御方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP10846080A EP2538310A1 (en) | 2010-02-19 | 2010-12-10 | Mobile terminal and control method thereof |
US13/519,820 US20120299856A1 (en) | 2010-02-19 | 2010-12-10 | Mobile terminal and control method thereof |
JP2012500405A JPWO2011101940A1 (ja) | 2010-02-19 | 2010-12-10 | 携帯端末及びその制御方法 |
CN2010800616812A CN102713804A (zh) | 2010-02-19 | 2010-12-10 | 移动终端及其控制方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010-035251 | 2010-02-19 | ||
JP2010035251 | 2010-02-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2011101940A1 true WO2011101940A1 (ja) | 2011-08-25 |
Family
ID=44482564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2010/007198 WO2011101940A1 (ja) | 2010-02-19 | 2010-12-10 | 携帯端末及びその制御方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20120299856A1 (ja) |
EP (1) | EP2538310A1 (ja) |
JP (1) | JPWO2011101940A1 (ja) |
CN (1) | CN102713804A (ja) |
WO (1) | WO2011101940A1 (ja) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103064548A (zh) * | 2011-10-24 | 2013-04-24 | 联咏科技股份有限公司 | 可滤除误触面板的手势判断方法 |
CN103092392A (zh) * | 2011-10-12 | 2013-05-08 | 富士施乐株式会社 | 接触检测装置、记录显示装置和接触检测方法 |
WO2013128911A1 (ja) * | 2012-03-02 | 2013-09-06 | Necカシオモバイルコミュニケーションズ株式会社 | 携帯端末装置、誤操作防止方法、及びプログラム |
JP2014063220A (ja) * | 2012-09-19 | 2014-04-10 | Sharp Corp | 情報処理装置、情報処理装置の制御方法、制御プログラム、および記録媒体 |
KR20140056959A (ko) * | 2012-11-02 | 2014-05-12 | 엘지전자 주식회사 | 이동 단말기 |
JP2014174600A (ja) * | 2013-03-06 | 2014-09-22 | Sharp Corp | タッチパネル端末及びタッチパネル制御方法 |
JP2014528137A (ja) * | 2011-09-30 | 2014-10-23 | インテル コーポレイション | 意図的でないタッチセンサへの接触を排除するモバイルデバイス |
JP2015118541A (ja) * | 2013-12-18 | 2015-06-25 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
JP2015526801A (ja) * | 2012-07-13 | 2015-09-10 | サムスン エレクトロニクス カンパニー リミテッド | タッチペンを利用する携帯端末機及びこれを利用した手書き入力方法 |
JP2016045553A (ja) * | 2014-08-20 | 2016-04-04 | アルプス電気株式会社 | 情報処理装置とその指先操作識別方法並びにプログラム |
JP2016517101A (ja) * | 2013-03-18 | 2016-06-09 | クアルコム,インコーポレイテッド | タッチ感知のための最適化された適応的閾値処理 |
JP2016139431A (ja) * | 2011-09-30 | 2016-08-04 | インテル コーポレイション | 意図的でないタッチセンサへの接触を排除するモバイルデバイス |
JP2016143349A (ja) * | 2015-02-04 | 2016-08-08 | キヤノン株式会社 | 電子機器およびその制御方法 |
US9541993B2 (en) | 2011-12-30 | 2017-01-10 | Intel Corporation | Mobile device operation using grip intensity |
JP2018139158A (ja) * | 2018-06-18 | 2018-09-06 | カシオ計算機株式会社 | 携帯端末及びプログラム |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5651494B2 (ja) | 2011-02-09 | 2015-01-14 | 日立マクセル株式会社 | 情報処理装置 |
JP6199534B2 (ja) * | 2011-04-26 | 2017-09-20 | 京セラ株式会社 | 電子機器及びその制御方法 |
JP5813991B2 (ja) | 2011-05-02 | 2015-11-17 | 埼玉日本電気株式会社 | 携帯端末、入力制御方法及びプログラム |
TW201316211A (zh) * | 2011-10-13 | 2013-04-16 | Novatek Microelectronics Corp | 可濾除誤觸面板的手勢判斷方法 |
CN103186750B (zh) * | 2011-12-28 | 2017-04-12 | 富泰华工业(深圳)有限公司 | 可防盗的触摸型便携式装置及防盗方法 |
KR20130099745A (ko) * | 2012-02-29 | 2013-09-06 | 주식회사 팬택 | 터치 단말기의 입력 신호 구분 장치 및 방법 |
US9105211B2 (en) * | 2012-03-13 | 2015-08-11 | Samsung Electronics Co., Ltd | Portable projector and image projecting method thereof |
TWI496054B (zh) * | 2012-08-15 | 2015-08-11 | Pixart Imaging Inc | 光學觸控裝置、光學觸控及位移感測裝置、可調式導光裝置、光學觸控方法以及光學觸控及位移感測方法 |
CN103019596B (zh) * | 2012-12-07 | 2016-12-21 | Tcl通讯(宁波)有限公司 | 一种基于触摸屏实现虚拟按键操作的方法及移动终端 |
KR20140106097A (ko) * | 2013-02-25 | 2014-09-03 | 삼성전자주식회사 | 전자 장치에서 터치 입력 방식을 결정하기 위한 장치 및 방법 |
JP5983503B2 (ja) * | 2013-04-03 | 2016-08-31 | カシオ計算機株式会社 | 情報処理装置及びプログラム |
WO2014194192A1 (en) | 2013-05-30 | 2014-12-04 | David Andrews | Multi-dimensional trackpad |
JP6385656B2 (ja) * | 2013-08-22 | 2018-09-05 | シャープ株式会社 | 情報処理装置、情報処理方法及びプログラム |
DE112014004628T5 (de) | 2013-10-08 | 2016-07-28 | Tk Holdings Inc. | Vorrichtung und Verfahren für direktes Leiten haptischer Energie an die Berührungsoberfläche |
CN104951226B (zh) * | 2014-03-25 | 2018-08-24 | 宏达国际电子股份有限公司 | 接触输入判断方法及使用此接触输入判断方法的电子装置 |
US9665162B2 (en) * | 2014-03-25 | 2017-05-30 | Htc Corporation | Touch input determining method which can determine if the touch input is valid or not valid and electronic apparatus applying the method |
US10061438B2 (en) * | 2014-05-14 | 2018-08-28 | Sony Semiconductor Solutions Corporation | Information processing apparatus, information processing method, and program |
TW201608487A (zh) * | 2014-08-27 | 2016-03-01 | 義隆電子股份有限公司 | 防誤觸方法 |
US9195879B1 (en) | 2014-08-31 | 2015-11-24 | Qualcomm Incorporated | Air/object determination for biometric sensors |
US9582705B2 (en) * | 2014-08-31 | 2017-02-28 | Qualcomm Incorporated | Layered filtering for biometric sensors |
US9665763B2 (en) * | 2014-08-31 | 2017-05-30 | Qualcomm Incorporated | Finger/non-finger determination for biometric sensors |
US10466826B2 (en) | 2014-10-08 | 2019-11-05 | Joyson Safety Systems Acquisition Llc | Systems and methods for illuminating a track pad system |
CN105630314A (zh) * | 2014-10-28 | 2016-06-01 | 富泰华工业(深圳)有限公司 | 一种操作模式切换系统及方法 |
CN105117132B (zh) * | 2015-08-31 | 2018-08-24 | 广州视源电子科技股份有限公司 | 一种触摸控制方法及装置 |
TWI554938B (zh) * | 2015-09-03 | 2016-10-21 | 義隆電子股份有限公司 | 觸控裝置的控制方法 |
JP6742730B2 (ja) * | 2016-01-05 | 2020-08-19 | キヤノン株式会社 | 電子機器及びその制御方法 |
CN105681594B (zh) * | 2016-03-29 | 2019-03-01 | 努比亚技术有限公司 | 一种终端的边缘交互系统和方法 |
CN106990893B (zh) * | 2017-03-20 | 2020-07-03 | 北京小米移动软件有限公司 | 触屏操作的处理方法和装置 |
WO2021138077A1 (en) | 2019-12-30 | 2021-07-08 | Joyson Safety Systems Acquisition Llc | Systems and methods for intelligent waveform interruption |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07200133A (ja) | 1993-12-28 | 1995-08-04 | Casio Comput Co Ltd | ペン入力装置 |
JPH09138730A (ja) * | 1995-11-14 | 1997-05-27 | Sharp Corp | 情報入力処理装置 |
JPH11327727A (ja) | 1998-05-11 | 1999-11-30 | Nec Corp | 画面操作システムおよび画面操作方法 |
JP2000250690A (ja) * | 1999-02-26 | 2000-09-14 | Nec Shizuoka Ltd | 仮想キーボードシステム |
JP2007219737A (ja) | 2006-02-15 | 2007-08-30 | Fujitsu Component Ltd | タッチパネル |
JP2008108233A (ja) | 2006-09-28 | 2008-05-08 | Kyocera Corp | 携帯端末及びその制御方法 |
JP2009134638A (ja) * | 2007-11-30 | 2009-06-18 | Sharp Corp | 操作処理装置 |
WO2009157560A1 (ja) * | 2008-06-27 | 2009-12-30 | 京セラ株式会社 | ユーザインタフェース生成装置 |
JP2010035251A (ja) | 2008-07-25 | 2010-02-12 | Denso Corp | 車両用回転電機 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08307954A (ja) * | 1995-05-12 | 1996-11-22 | Sony Corp | 座標入力装置および方法、並びに情報処理装置 |
US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US7190348B2 (en) * | 2000-12-26 | 2007-03-13 | International Business Machines Corporation | Method for touchscreen data input |
US7738916B2 (en) * | 2003-05-21 | 2010-06-15 | Hitachi High-Technologies Corporation | Portable terminal device with built-in fingerprint sensor |
JP2007503797A (ja) * | 2003-05-30 | 2007-02-22 | プリヴァリス・インコーポレーテッド | 機密データへのアクセス及び使用を制御するための回路内セキュリティ・システム及び方法 |
JP2006302067A (ja) * | 2005-04-22 | 2006-11-02 | Alps Electric Co Ltd | 入力装置 |
US8374324B2 (en) * | 2005-06-02 | 2013-02-12 | At&T Intellectual Property I, L.P. | Methods of using biometric data in a phone system and apparatuses to perform the methods |
US20070097096A1 (en) * | 2006-03-25 | 2007-05-03 | Outland Research, Llc | Bimodal user interface paradigm for touch screen devices |
US8686964B2 (en) * | 2006-07-13 | 2014-04-01 | N-Trig Ltd. | User specific recognition of intended user interaction with a digitizer |
US8997015B2 (en) * | 2006-09-28 | 2015-03-31 | Kyocera Corporation | Portable terminal and control method therefor |
KR101442542B1 (ko) * | 2007-08-28 | 2014-09-19 | 엘지전자 주식회사 | 입력장치 및 이를 구비한 휴대 단말기 |
US20110012856A1 (en) * | 2008-03-05 | 2011-01-20 | Rpo Pty. Limited | Methods for Operation of a Touch Input Device |
-
2010
- 2010-12-10 JP JP2012500405A patent/JPWO2011101940A1/ja active Pending
- 2010-12-10 US US13/519,820 patent/US20120299856A1/en not_active Abandoned
- 2010-12-10 WO PCT/JP2010/007198 patent/WO2011101940A1/ja active Application Filing
- 2010-12-10 EP EP10846080A patent/EP2538310A1/en not_active Withdrawn
- 2010-12-10 CN CN2010800616812A patent/CN102713804A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07200133A (ja) | 1993-12-28 | 1995-08-04 | Casio Comput Co Ltd | ペン入力装置 |
JPH09138730A (ja) * | 1995-11-14 | 1997-05-27 | Sharp Corp | 情報入力処理装置 |
JPH11327727A (ja) | 1998-05-11 | 1999-11-30 | Nec Corp | 画面操作システムおよび画面操作方法 |
JP2000250690A (ja) * | 1999-02-26 | 2000-09-14 | Nec Shizuoka Ltd | 仮想キーボードシステム |
JP2007219737A (ja) | 2006-02-15 | 2007-08-30 | Fujitsu Component Ltd | タッチパネル |
JP2008108233A (ja) | 2006-09-28 | 2008-05-08 | Kyocera Corp | 携帯端末及びその制御方法 |
JP2009134638A (ja) * | 2007-11-30 | 2009-06-18 | Sharp Corp | 操作処理装置 |
WO2009157560A1 (ja) * | 2008-06-27 | 2009-12-30 | 京セラ株式会社 | ユーザインタフェース生成装置 |
JP2010035251A (ja) | 2008-07-25 | 2010-02-12 | Denso Corp | 車両用回転電機 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016139431A (ja) * | 2011-09-30 | 2016-08-04 | インテル コーポレイション | 意図的でないタッチセンサへの接触を排除するモバイルデバイス |
US9317156B2 (en) | 2011-09-30 | 2016-04-19 | Intel Corporation | Mobile device rejection of unintentional touch sensor contact |
US10001871B2 (en) | 2011-09-30 | 2018-06-19 | Intel Corporation | Mobile device rejection of unintentional touch sensor contact |
JP2014528137A (ja) * | 2011-09-30 | 2014-10-23 | インテル コーポレイション | 意図的でないタッチセンサへの接触を排除するモバイルデバイス |
CN103092392A (zh) * | 2011-10-12 | 2013-05-08 | 富士施乐株式会社 | 接触检测装置、记录显示装置和接触检测方法 |
JP2013084223A (ja) * | 2011-10-12 | 2013-05-09 | Fuji Xerox Co Ltd | 接触検出装置、記録表示装置、及びプログラム |
CN103064548A (zh) * | 2011-10-24 | 2013-04-24 | 联咏科技股份有限公司 | 可滤除误触面板的手势判断方法 |
US9541993B2 (en) | 2011-12-30 | 2017-01-10 | Intel Corporation | Mobile device operation using grip intensity |
WO2013128911A1 (ja) * | 2012-03-02 | 2013-09-06 | Necカシオモバイルコミュニケーションズ株式会社 | 携帯端末装置、誤操作防止方法、及びプログラム |
JPWO2013128911A1 (ja) * | 2012-03-02 | 2015-07-30 | Necカシオモバイルコミュニケーションズ株式会社 | 携帯端末装置、誤操作防止方法、及びプログラム |
JP2015526801A (ja) * | 2012-07-13 | 2015-09-10 | サムスン エレクトロニクス カンパニー リミテッド | タッチペンを利用する携帯端末機及びこれを利用した手書き入力方法 |
US9898186B2 (en) | 2012-07-13 | 2018-02-20 | Samsung Electronics Co., Ltd. | Portable terminal using touch pen and handwriting input method using the same |
JP2014063220A (ja) * | 2012-09-19 | 2014-04-10 | Sharp Corp | 情報処理装置、情報処理装置の制御方法、制御プログラム、および記録媒体 |
KR20140056959A (ko) * | 2012-11-02 | 2014-05-12 | 엘지전자 주식회사 | 이동 단말기 |
KR101992192B1 (ko) * | 2012-11-02 | 2019-09-30 | 엘지전자 주식회사 | 이동 단말기 |
JP2014174600A (ja) * | 2013-03-06 | 2014-09-22 | Sharp Corp | タッチパネル端末及びタッチパネル制御方法 |
JP2016517101A (ja) * | 2013-03-18 | 2016-06-09 | クアルコム,インコーポレイテッド | タッチ感知のための最適化された適応的閾値処理 |
JP2015118541A (ja) * | 2013-12-18 | 2015-06-25 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
US10048728B2 (en) | 2013-12-18 | 2018-08-14 | Canon Kabushiki Kaisha | Information processing apparatus, method, and storage medium |
JP2016045553A (ja) * | 2014-08-20 | 2016-04-04 | アルプス電気株式会社 | 情報処理装置とその指先操作識別方法並びにプログラム |
JP2016143349A (ja) * | 2015-02-04 | 2016-08-08 | キヤノン株式会社 | 電子機器およびその制御方法 |
JP2018139158A (ja) * | 2018-06-18 | 2018-09-06 | カシオ計算機株式会社 | 携帯端末及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN102713804A (zh) | 2012-10-03 |
EP2538310A1 (en) | 2012-12-26 |
JPWO2011101940A1 (ja) | 2013-06-17 |
US20120299856A1 (en) | 2012-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2011101940A1 (ja) | 携帯端末及びその制御方法 | |
US8266529B2 (en) | Information processing device and display information editing method of information processing device | |
US9671893B2 (en) | Information processing device having touch screen with varying sensitivity regions | |
CN104007932B (zh) | 一种触摸点识别方法及装置 | |
JP5507494B2 (ja) | タッチ・スクリーンを備える携帯式電子機器および制御方法 | |
US8619036B2 (en) | Virtual keyboard based activation and dismissal | |
JP5105127B2 (ja) | 携帯端末、そのキー操作制御方法およびプログラム | |
KR101523379B1 (ko) | 휴대 단말기에서 터치스크린 상의 터치 지점의 위치 보정 방법 및 이를 수행하는 장치 | |
AU2011283001A1 (en) | Touch Input Transitions | |
US20120007816A1 (en) | Input Control Method and Electronic Device for a Software Keyboard | |
US10048726B2 (en) | Display control apparatus, control method therefor, and storage medium storing control program therefor | |
US20130249826A1 (en) | Method and apparatus for detecting touch | |
US20130321322A1 (en) | Mobile terminal and method of controlling the same | |
JP2008165575A (ja) | タッチパネル装置 | |
JP2010020658A (ja) | 情報端末装置およびその入力制御方法 | |
WO2012144616A1 (ja) | 電子機器、電子機器の制御方法、および、プログラム | |
US10303295B2 (en) | Modifying an on-screen keyboard based on asymmetric touch drift | |
JP2015146090A (ja) | 手書き入力装置及び入力制御プログラム | |
CN115237274A (zh) | 信息处理装置以及控制方法 | |
CN104679312A (zh) | 电子装置及其触控系统、触控方法 | |
CN109696985B (zh) | 输入装置及程序 | |
JP2011204092A (ja) | 入力装置 | |
JP6006487B2 (ja) | 入力装置 | |
EP2407866B1 (en) | Portable electronic device and method of determining a location of a touch | |
KR20150060476A (ko) | 터치스크린 상의 명령입력영역 제어 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 201080061681.2 Country of ref document: CN |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10846080 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 13519820 Country of ref document: US |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2010846080 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2012500405 Country of ref document: JP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 7045/CHENP/2012 Country of ref document: IN |
|
NENP | Non-entry into the national phase |
Ref country code: DE |