WO2011101940A1 - 携帯端末及びその制御方法 - Google Patents

携帯端末及びその制御方法 Download PDF

Info

Publication number
WO2011101940A1
WO2011101940A1 PCT/JP2010/007198 JP2010007198W WO2011101940A1 WO 2011101940 A1 WO2011101940 A1 WO 2011101940A1 JP 2010007198 W JP2010007198 W JP 2010007198W WO 2011101940 A1 WO2011101940 A1 WO 2011101940A1
Authority
WO
WIPO (PCT)
Prior art keywords
contact area
input
contact
touch panel
image data
Prior art date
Application number
PCT/JP2010/007198
Other languages
English (en)
French (fr)
Inventor
亮二 蓮井
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to EP10846080A priority Critical patent/EP2538310A1/en
Priority to US13/519,820 priority patent/US20120299856A1/en
Priority to JP2012500405A priority patent/JPWO2011101940A1/ja
Priority to CN2010800616812A priority patent/CN102713804A/zh
Publication of WO2011101940A1 publication Critical patent/WO2011101940A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment

Definitions

  • the present invention relates to a mobile terminal and a control method thereof, and particularly to a mobile terminal including a touch panel and a control method thereof.
  • a touch panel that senses the contact of a fingertip or a pen and performs an input operation is used.
  • a method for detecting contact a resistive film method, an ultrasonic method, a capacitance method, and the like have been proposed.
  • Patent Document 1 discloses a technique for detecting a pen contact area on a touch panel and switching between an input mode and an erase mode according to the detected contact area. Specifically, when the touch panel is touched with a thin pen tip, it functions as an input mode, and when it touches the touch panel with a thick pen tip, it functions as an erase mode.
  • Patent Document 2 discloses a technique for determining that an input is made with a pen when the contact area on the touch panel is less than a predetermined value, and determining that the input is made with a finger when the contact area is greater than or equal to a predetermined value. Yes.
  • Patent Document 3 discloses a technique of arranging dot spacers arranged on a resistive film type touch panel at different pitches. Specifically, in a touch panel, an area where dot spacers are arranged at a relatively long pitch allows input with both a finger and a pen, and an area where dot spacers are arranged at a pitch shorter than the pitch is only a pen. Can be input. In addition, in a region where the arrangement pitch of the dot spacers is even shorter, input of either a finger or a pen is prohibited.
  • Patent Document 4 a fingerprint pattern or contact area pattern of a user's finger is registered in association with a processing operation, and the fingerprint pattern or contact area pattern of the finger touching the touch panel is detected and the fingerprint pattern is detected.
  • a technique for executing a processing operation assigned to a contact area pattern is disclosed.
  • unintended input with a finger or a pen can be prohibited by adjusting the arrangement pitch of the dot spacers. For this purpose, it is necessary to determine in advance an area where input is prohibited, but it is difficult to determine an input prohibited area by predicting the position of an unintended input.
  • the present invention has been made to solve such a problem, and an object thereof is to provide a portable terminal capable of preventing an unintentional erroneous input to a touch panel and a control method thereof.
  • a portable terminal includes a touch panel that performs input by contact of an object, contact area detection means that detects a contact area of the object on the touch panel when the object contacts the touch panel, and the touch panel of the object.
  • Input determination means for determining whether or not an input by contact with the touch panel is valid, wherein the input determination means is configured such that the contact area detected by the contact area detection means is a fingertip touching the touch panel when a finger is input. When the value is equal to or greater than the value corresponding to the upper limit of the contact area, it is determined that the input due to the contact of the object is invalid.
  • the contact area of the object on the touch panel is detected, and the input by touching the object to the touch panel is detected. It is determined whether or not the input is valid when determining whether or not the input is valid when the detected contact area is equal to or greater than the upper limit of the contact area of the fingertip that touches the touch panel when a finger is input Therefore, it is determined that the input due to the contact of the object is invalid.
  • the present invention it is possible to provide a mobile terminal capable of preventing an unintentional erroneous input to the touch panel and a control method thereof.
  • FIG. 1 is a diagram illustrating a configuration example of a mobile terminal according to a first embodiment
  • FIG. 3 is a diagram illustrating a usage example of the mobile terminal according to the first exemplary embodiment
  • 3 is a flowchart illustrating an operation of the mobile terminal according to the first exemplary embodiment.
  • FIG. 3 is a diagram for explaining notification information of a control unit according to the first embodiment; It is a figure which shows the structural example of the portable terminal concerning Embodiment 2.
  • FIG. 10 is a flowchart illustrating an operation of the mobile terminal according to the second exemplary embodiment. It is a figure which shows the structural example of the portable terminal concerning Embodiment 3.
  • FIG. 10 is a flowchart showing the operation of the mobile terminal according to the third exemplary embodiment.
  • Embodiment 1 Embodiments of the present invention will be described below with reference to the drawings.
  • the mobile terminal 1 includes a control unit 10, an LCD (Liquid Crystal Display) 20, a touch panel 30, and a general application unit 40.
  • LCD Liquid Crystal Display
  • the control unit 10 includes a display unit 101 and an input determination unit 102.
  • the display unit 101 displays the screen information sent from the general-purpose application unit 40 on the LCD 20.
  • the general-purpose application unit 40 acquires coordinate information on the touch panel 30 notified from the control unit 10 when an object comes into contact with the touch panel 30. Then, the general-purpose application unit 40 executes event processing based on the acquired coordinate information, sends the execution result of the event processing to the display unit 101, and updates the screen information.
  • the contents of the application are, for example, a browser, a mailer, and the like, which are general applications well known today.
  • the input determination unit 102 determines whether or not input by touching the touch panel 30 is valid when an object touches the touch panel 30. Specifically, when the area of the object touching the touch panel 30 is equal to or greater than the upper limit of the contact area of the fingertip that touches the touch panel 30 when a finger is input (hereinafter referred to as a first threshold), It is determined that the input due to the contact of the object is invalid.
  • the first threshold value can be arbitrarily set by the user, and is preferably larger than the fingertip and smaller than the finger pad.
  • the touch panel 30 includes a contact coordinate acquisition unit 301 and a contact area detection unit 302.
  • the contact coordinate acquisition unit 301 acquires coordinates at which an object touches the touch panel 30. Specifically, when the user touches the touch panel 30 with a pen, a finger, or the like, the contact coordinate acquisition unit 301 acquires coordinate information of the touched point and sends the coordinate information to the control unit 10.
  • the contact area detection unit 302 detects the contact area of the object with the touch panel 30.
  • FIG. 2 shows a usage example in which the thumb 92 of the hand holding the mobile terminal 1 is touching the touch panel 30.
  • the touch panel 30 detects contact of an object (step S101). Then, the contact area detection unit 302 detects the contact area W of the object that has touched the touch panel 30, and sends information on the contact area W to the control unit 10 (step S102). At this time, the contact coordinate acquisition unit 301 also sends the acquired coordinate information of the contact position of the object to the control unit 10. The input determination unit 102 determines whether or not the sent contact area W is larger than the first threshold value Wa (step S103).
  • the input determination unit 102 determines that the input by the contact of the object is valid. And the control part 10 notifies the general purpose application part 40 of the coordinate information sent from the contact coordinate acquisition part 301 (step S104). Then, the general-purpose application unit 40 executes a processing operation according to the coordinate information. Thereafter, the general-purpose application unit 40 sends the processing result to the control unit 10, and the display unit 101 updates the display on the LCD 20 based on the processing result.
  • the input determination unit 102 determines that the input by the contact of the object is invalid. For this reason, the control unit 10 does not send the coordinate information by the contact whose contact area W is equal to or larger than the first threshold value Wa to the general-purpose application unit 40. That is, the general-purpose application unit 40 does not perform any processing for the touch of the object with the touch panel 30.
  • FIG. 4 is a diagram illustrating information notified from the touch panel 30 to the control unit 10 in the usage example illustrated in FIG. 2.
  • the contact coordinate acquisition unit 301 acquires the coordinates (x1, y1) of the portion 93 and sends coordinate information to the control unit 10.
  • the contact coordinate acquisition unit 301 acquires the center coordinates of the contact portion.
  • the contact area detection unit 302 detects the contact area W ⁇ b> 1 and sends information on the contact area W ⁇ b> 1 to the control unit 10.
  • the touch panel 30 sends the coordinates (x2, y2) of the contact portion 94 by the thumb 92 and the contact area W2 to the control unit 10.
  • the input determination unit 102 determines whether or not the contact areas W1 and W2 sent from the contact area detection unit 302 are greater than or equal to the first threshold Wa. In this example, it is assumed that W1 ⁇ Wa ⁇ W2. Since the contact area W1 is smaller than the first threshold Wa, the input determination unit 102 determines that the object touched by the contact area W1, that is, the input of the pen 91 is valid. Then, the control unit 10 sends the input coordinates (x1, y1) by the pen 91 to the general-purpose application unit 40.
  • the input determination unit 102 determines that the input of the object touched by the contact area W2, that is, the input of the thumb 92 is invalid. Therefore, the control unit 10 does not send the input coordinates (x2, y2) by the thumb 92 to the general-purpose application unit 40. Note that when a plurality of objects touch the touch panel 30 simultaneously (for example, when a pen and a finger touch the touch panel at the same time), the input determination unit 102 performs a determination operation on each object.
  • the contact area detection unit 302 detects the contact area of the object on the touch panel 30, and the input determination unit 102 detects the contact area and the first threshold value. Based on the above, it is determined whether or not the input by the contact of the object is valid. Therefore, for example, even when a part of a finger holding the mobile terminal 1 touches the touch panel 30, the contact is invalidated if the contact area is equal to or larger than the first threshold value. On the other hand, a contact having a contact area with a pen or a fingertip that is smaller than the first threshold is effective. As a result, erroneous input that occurs due to unintended contact with the touch panel 30 can be prevented.
  • Embodiment 2 A second embodiment according to the present invention will be described.
  • a configuration example of the mobile terminal 2 according to the present embodiment is shown in FIG.
  • the mobile terminal 2 shown in FIG. 5 includes an image comparison unit 103, a contact image reading unit 303, a touch panel setting application unit 41, and a registered image storage unit 60 in addition to the configuration of the mobile terminal 1 shown in FIG. Since other configurations are the same as those of the mobile terminal 1, description thereof is omitted.
  • the image comparison unit 103 performs authentication by comparing the image data in contact with the touch panel 30 with the registered image data. Based on the contact area W detected by the contact area detection unit 302 and the comparison result of the image comparison unit 103, the input determination unit 102 determines whether or not the input by the contact of the object is valid.
  • the registered image data is user's own fingertip image data registered in advance, and is stored in the registered image storage unit 60 which is a memory such as a RAM (Random Access Memory).
  • the contact image reading unit 303 scans an image of an object that has touched the touch panel 30 and reads image data of the object.
  • the image data is sent to the image comparison unit 103.
  • fingertip image data is used as the image data.
  • the image comparison unit 103 compares image data using fingerprint authentication, vein authentication, or the like.
  • the touch panel setting application unit 41 is an application that displays a user setting screen related to the comparison process of the image comparison unit 103.
  • the user setting screen relating to the comparison processing is, for example, a screen for registering registered image data, a screen for switching between valid and invalid of the image comparison processing, and the like.
  • the touch panel 30 detects contact of an object (step S101).
  • the contact area detection unit 302 detects the contact area W and sends the contact area W to the control unit 10.
  • the contact image reading unit 303 reads the fingertip image data of the finger that has touched the touch panel, and sends it to the control unit 10 (step S201).
  • the input determination part 102 determines whether the contact area W is more than 1st threshold value Wa (step S103).
  • the input determination unit 102 determines that the input by the contact of the object is invalid.
  • the control unit 10 reads the fingerprint authentication setting set by the touch panel setting application unit 41 (step S202). Specifically, the image comparison unit 103 reads registered fingertip image data from the registered image storage unit 60. Further, the control unit 10 reads the setting for enabling / disabling fingerprint authentication. Then, the control unit 10 determines whether fingerprint authentication is valid (step S203). If the fingerprint authentication is invalid, the control unit 10 notifies the general-purpose application unit 40 of the coordinate information of the fingertip that has touched the touch panel 30 (step S104).
  • the image comparison unit 103 compares the fingertip image data read by the contact image reading unit 303 with the registered fingertip image data read from the registered image storage unit 60 (step S204). When the read fingertip image data matches the registered fingertip image data, the input determination unit 102 determines that the input by the touch of the fingertip is valid, and the control unit 10 obtains the coordinate information of the fingertip from the general-purpose application unit 40. (Step S104). When the reading fingertip image data does not match the registered fingertip image data, the input determination unit 102 determines that the input by the fingertip is invalid, and the control unit 10 does not notify the coordinate information of the fingertip. Note that the validity / invalidity of the authentication process can be arbitrarily switched by the user by changing the setting of the touch panel setting application unit 41.
  • the contact image reading unit 303 reads image data such as a fingerprint touching the touch panel 30, and the input determination unit 102 adds the contact area W to Based on the read image, it is determined whether or not an input by contact with a fingertip or the like is valid. Therefore, contact other than the user's fingertip registered in advance is invalidated. As a result, the accuracy of erroneous input determination is increased. Moreover, since it does not react except a user's finger
  • Embodiment 3 A third embodiment according to the present invention will be described.
  • a configuration example of the mobile terminal 3 according to the present embodiment is shown in FIG.
  • the mobile terminal 3 illustrated in FIG. 7 includes a mode determination unit 104 in addition to the configuration of the mobile terminal 2 illustrated in FIG. Since other configurations are the same as those of the mobile terminal 2, the description thereof is omitted.
  • the contact area W detected by the contact area detection unit 302 is a value corresponding to the upper limit of the contact area of the pen tip that touches the touch panel 30 during pen input (hereinafter referred to as a second threshold) Wb. If the contact area W is equal to or larger than the second threshold value Wb and smaller than the first threshold value Wa, it is determined to be the finger input mode.
  • the second threshold value is a threshold value for determining whether an object touching the touch panel 30 is a pen or a finger.
  • the second threshold value can be arbitrarily set by the user, and is preferably larger than the contact area of the pen tip and smaller than the contact area of the finger tip.
  • the mode determination unit 104 Similar to the input determination unit 102, the mode determination unit 104 also performs a determination operation on each object when a plurality of objects touch the touch panel 30 at the same time.
  • the touch panel 30 detects contact of an object (step S101)
  • the contact area detection unit 302 detects the contact area W
  • the contact image reading unit 303 reads the contact image of the object ( Step S201).
  • the input determination unit 102 and the mode determination unit 104 determine the input mode of the object that has touched the touch panel 30 (step S301). Specifically, the input determination unit 102 determines whether or not the contact area W is greater than or equal to the first threshold value Wa, as in the second embodiment described above. Here, when the contact area W is larger than the first threshold Wa (W ⁇ Wa), the input determination unit 102 determines that the input by the contact of the object is invalid.
  • the mode determination unit 104 determines whether the input mode is the pen input mode or the finger input mode.
  • the contact area W of the touched object is smaller than the second threshold value Wb (W ⁇ Wb)
  • the mode determination unit 104 determines that the object touching the touch panel 30 is the pen tip mode and is in the pen input mode. .
  • the control unit 10 notifies the general-purpose application unit 40 of the coordinate information of the contact portion of the pen tip, assuming that the input is in the pen input mode (S104).
  • the mode determination unit 104 determines that the object touching the touch panel 30 is the fingertip It is determined that When it is determined that the touched object is the fingertip, the same processing as in the second embodiment is performed.
  • the control unit 10 reads the fingertip image authentication setting (step S202). Then, the control unit 10 determines whether the authentication is valid (step S203). If the authentication is invalid, the control unit 10 notifies the general-purpose application unit 40 of the coordinate information of the fingertip. If the authentication is valid, the image comparison unit 103 compares the read image with the registered image (step S204). If the read image matches the registered image, the control unit 10 notifies the general-purpose application unit 40 of the coordinate information of the contact portion of the fingertip, assuming that the input is the finger input mode (step S104). If the read image does not match the registered image, the input determination unit 102 determines that the input is invalid.
  • the mode determination unit 104 determines the input mode according to the contacted object. Therefore, the processing operation of the general-purpose application unit 40 can be changed depending on whether the input mode is the pen input mode or the finger input mode. As a result, the processing operation for the touch on the touch panel 30 can be easily changed.
  • the image data is not limited to the fingertip image, and may be a stylus image.
  • the registered image data may be a general-purpose fingertip image that can determine whether the fingertip is not the user's fingertip image data. Thereby, even if it is a fingertip other than a user, it determines with an effective input, and the convenience improves.
  • the control unit 10 may be configured to detect the contact area W based on coordinate information sent from the touch panel 30.
  • a touch panel for input by contact of an object; When the object touches the touch panel, contact area detection means for detecting a contact area of the object on the touch panel; Input determination means for determining whether or not input by contact of the object with the touch panel is valid, The input determination means is invalid when the contact area detected by the contact area detection means is greater than or equal to a value corresponding to an upper limit of a contact area of a fingertip that contacts the touch panel when a finger is input.
  • a portable terminal that is determined to be present.
  • Appendix 2 The mobile terminal according to appendix 1, wherein when the user grips the mobile terminal with one hand, a part of a finger of the gripped hand touches the touch panel.
  • (Appendix 4) Registered image storage means for storing pre-registered image data; Image comparison means for comparing the pre-registered image data with the image data read by the contact image reading means, When the contact area detected by the contact area detection unit is smaller than a value corresponding to the upper limit of the contact area of the fingertip, the input determination unit is based on the contact of the object based on the comparison result of the image comparison unit.
  • the input determination means has a value corresponding to an upper limit of the contact area of the fingertip and the contact area detected by the contact area detection means is greater than or equal to a value corresponding to an upper limit of the contact area of the pen tip contacting the touch panel at the time of pen input
  • the portable terminal according to Supplementary Note 3 or 4 that determines whether or not the input by contact of the object is valid based on the image data read by the contact image reading unit.
  • Appendix 6 The mobile terminal according to appendices 3 to 5, wherein the image data is user fingertip image data, and the contact image reading means reads the fingertip image data in contact with the touch panel.
  • Appendix 10 The mobile terminal according to appendix 9, wherein when the user grips the mobile terminal with one hand, a part of a finger of the gripped hand touches the touch panel.
  • Appendix 12 Compare the pre-registered image data with the scanned image data, The mobile terminal control method according to appendix 11, wherein it is determined whether or not an input by contact with the object is valid based on the comparison result.
  • the determination as to whether or not the input is valid corresponds to the detected contact area not less than a value corresponding to the upper limit of the contact area of the pen tip that contacts the touch panel during pen input and the upper limit of the contact area of the fingertip.
  • Appendix 14 14. The method of controlling a mobile terminal according to any one of appendices 11 to 13, wherein the image data is user fingertip image data, and the fingertip image data in contact with the touch panel is read.
  • a touch panel for input by contact of an object; When the object touches the touch panel, contact area detection means for detecting a contact area of the object on the touch panel; Input determination means for determining whether or not input by contact of the object with the touch panel is valid, The input determination means is invalid when the contact area detected by the contact area detection means is greater than or equal to a value corresponding to an upper limit of a contact area of a fingertip that contacts the touch panel when a finger is input.
  • An input device that determines that there is.
  • Appendix 18 The input device according to appendix 17, wherein the touch panel has a size such that when a user grips the input device with one hand, a part of a finger of the gripped hand touches the touch panel.
  • (Appendix 20) Registered image storage means for storing pre-registered image data; Image comparison means for comparing the pre-registered image data with the image data read by the contact image reading means, When the contact area detected by the contact area detection unit is smaller than a value corresponding to the upper limit of the contact area of the fingertip, the input determination unit is based on the contact of the object based on the comparison result of the image comparison unit. Item 20.
  • the input device according to appendix 19, which determines whether or not input is valid.
  • the input determination means has a value corresponding to an upper limit of the contact area of the fingertip and the contact area detected by the contact area detection means is greater than or equal to a value corresponding to an upper limit of the contact area of the pen tip contacting the touch panel at the time of pen input 21.
  • the input device according to appendix 19 or 20, wherein the input device determines whether or not the input by the contact of the object is valid based on the image data read by the contact image reading unit.
  • Control unit 20 LCD 30 touch panel 40 general-purpose application unit 41 touch panel setting application unit 50 surface 60 registered image storage unit 91 pen 92 thumb 93 pen contact portion 94 thumb contact portion 101 display unit 102 input determination unit 103 image comparison unit 104 mode determination unit 301 contact coordinates Acquisition unit 302 Contact area detection unit 303 Contact image reading unit

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 本発明は、タッチパネルへの意図しない誤入力を防止することができる携帯端末及びその制御方法を提供することを目的とする。本発明にかかる携帯端末(1)は、タッチパネル(30)、接触面積検出部(302)、入力判定部(102)を備える。接触面積検出部(302)は、物体がタッチパネル(30)に接触した場合、タッチパネル(30)における物体の接触面積を検出する。入力判定部(102)は、物体のタッチパネル(30)への接触による入力が有効であるか否か判定する。接触面積検出部(302)が検出した接触面積が、指入力時にタッチパネル(30)に接する指先の接触面積の上限に対応する値以上である場合、入力判定部(102)は、物体の接触による入力は無効であると判定する。

Description

携帯端末及びその制御方法
 本発明は携帯端末及びその制御方法に関し、特にタッチパネルを備える携帯端末及びその制御方法に関する。
 近年、携帯端末のUI(User Interface)として、指先やペンの接触を感知して入力操作を行うタッチパネルが利用されている。接触を感知する方式として、抵抗膜方式、超音波方式、静電容量方式等が提案されている。
 特許文献1には、タッチパネルにおけるペンの接触面積を検出し、検出された接触面積に従って入力モードと消去モードとを切り替える技術が開示されている。具体的には、細いペン先でタッチパネルに触れた場合は入力モードとして機能して、太いペン先でタッチパネルに触れた場合は消去モードとして機能する。
 また、特許文献2には、タッチパネルにおける接触面積が所定値未満である場合はペンによる入力と判定し、接触面積が所定値以上である場合は指による入力であると判定する技術が開示されている。
 一方、特許文献3には、抵抗膜方式のタッチパネルに配列されるドットスペーサを異なるピッチで配置する技術が開示されている。具体的には、タッチパネルにおいて、比較的長いピッチでドットスペーサが配置された領域は指及びペンの双方での入力が可能となり、前記ピッチよりも短いピッチでドットスペーサが配置された領域はペンのみの入力が可能となる。また、ドットスペーサの配列ピッチがさらに短い領域においては指及びペンのいずれの入力も禁止される。
 他方、特許文献4には、ユーザの指の指紋パターンまたは接触面積パターンと処理動作とを対応付けて登録しておき、タッチパネルに触れた指の指紋パターンまたは接触面積パターンを検出して当該指紋パターンまたは接触面積パターンに割り当てられた処理動作を実行する技術が開示されている。
特開平7-200133号公報 特開2008-108233号公報 特開2007-219737号公報 特開平11-327727号公報
 しかしながら、特許文献1及び2に記載された技術においては、ユーザがタッチパネルを備える携帯端末を把持した場合に、意図しない部位(例えば、ユーザの指の腹や掌等)がタッチパネルに触れることによって、消去モードあるいは指入力としての誤入力が発生してしまう可能性がある。
 また、特許文献3に記載された技術においては、ドットスペーサの配列ピッチを調整することにより、指やペンによる意図しない入力を禁止することができる。そのためには、入力を禁止する領域を予め決定しておく必要があるが、意図しない入力の位置を予測して入力禁止領域を決定するのは困難である。
 さらに、特許文献4に記載された技術においては、登録されていない指紋パターンまたは接触面積パターンがタッチパネルに触れても反応しない。そのため、使用する可能性のある指の指紋パターンまたは接触面積パターンの全てを登録する必要性が生じ、ユーザにとって操作が煩雑となる。
 本発明は、このような問題を解決するためになされたものであり、タッチパネルへの意図しない誤入力を防止することができる携帯端末及びその制御方法を提供することを目的としている。
 本発明にかかる携帯端末は、物体の接触により入力を行うタッチパネルと、前記物体が前記タッチパネルに接触した場合、前記タッチパネルにおける当該物体の接触面積を検出する接触面積検出手段と、前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する入力判定手段と、を備え、前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が、指入力時に前記タッチパネルに接する指先の接触面積の上限に対応する値以上である場合、前記物体の接触による入力は無効であると判定するものである。
 本発明にかかる携帯端末の制御方法は、物体の接触により入力を行うタッチパネルに前記物体が接触した場合、前記タッチパネルにおける当該物体の接触面積を検出し、前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定し、前記入力が有効であるか否かの判定は、検出した前記接触面積が、指入力時に前記タッチパネルに接する指先の接触面積の上限に対応する値以上である場合、当該物体の接触による入力は無効であると判定するものである。
 本発明によれば、タッチパネルへの意図しない誤入力を防止することができる携帯端末及びその制御方法を提供することができる。
実施の形態1にかかる携帯端末の構成例を示す図である。 実施の形態1にかかる携帯端末の使用例を示す図である。 実施の形態1にかかる携帯端末の動作を示すフローチャートである。 実施の形態1にかかる制御部の通知情報を説明するための図である。 実施の形態2にかかる携帯端末の構成例を示す図である。 実施の形態2にかかる携帯端末の動作を示すフローチャートである。 実施の形態3にかかる携帯端末の構成例を示す図である。 実施の形態3にかかる携帯端末の動作を示すフローチャートである。
 実施の形態1
 以下、図面を参照して本発明の実施の形態について説明する。本実施の形態にかかる携帯端末1の構成例を図1に示す。携帯端末1は、制御部10、LCD(Liquid Crystal Display)20、タッチパネル30、汎用アプリケーション部40を備える。
 制御部10は、表示部101、入力判定部102を備える。表示部101は、汎用アプリケーション部40から送られてきた画面情報をLCD20に表示する。ここで、汎用アプリケーション部40は、タッチパネル30に物体が接触した場合に、制御部10から通知されるタッチパネル30上の座標情報を取得する。そして、汎用アプリケーション部40は、取得した座標情報に基づいてイベント処理を実行し、イベント処理の実行結果を表示部101に送り画面情報を更新する。アプリケーションの内容は、例えばブラウザやメーラ等であり、今日よく知られている一般的なアプリケーションである。
 入力判定部102は、物体がタッチパネル30に接触した場合に、タッチパネル30への接触による入力が有効であるか否か判定する。具体的には、タッチパネル30に接触した物体の面積が、指入力時にタッチパネル30に接する指先の接触面積の上限に対応する値(以下、第1の閾値と称す。)以上である場合に、当該物体の接触による入力は無効であると判定する。なお、第1の閾値は、ユーザが任意に設定可能であり、指先よりも大きく、指の腹よりは小さい面積であることが好ましい。
 タッチパネル30は、接触座標取得部301、接触面積検出部302を備える。接触座標取得部301は、タッチパネル30において物体が接触した座標を取得する。具体的には、タッチパネル30にユーザがペンや指等を接触させた場合、接触座標取得部301は、接触した点の座標情報を取得し、制御部10に座標情報を送る。接触面積検出部302は、物体がタッチパネル30に接触した場合、当該物体のタッチパネル30への接触面積を検出する。
 ここで、携帯端末1の使用例について図2を用いて説明する。図2に示すように、携帯端末1のユーザは、片手で携帯端末1を把持し、もう一方の手でペン91(または指先)を用いてタッチパネル30に触れて入力動作を行う。このとき、タッチパネル30は、携帯端末1をユーザが片手で把持した場合に、把持した手の指の一部がタッチパネル30に触れる大きさである。より詳細には、携帯端末1のタッチパネル30が設けられている面50において、タッチパネル30の領域が面50の面積の80~90%を占めているような携帯端末1においては、把持した際にタッチパネル30に指が触れやすいので、本発明を適用することによる効果が大きい。図2においては、携帯端末1を把持する手の親指92がタッチパネル30に触れている使用状態を示している。
 続いて、本実施の形態にかかる携帯端末1の動作例について図3に示したフローチャートを用いて説明する。まず、タッチパネル30が物体の接触を検出する(ステップS101)。すると、接触面積検出部302が、タッチパネル30に接触した物体の接触面積Wを検出し、接触面積Wの情報を制御部10へ送る(ステップS102)。このとき、接触座標取得部301も、取得した物体の接触位置の座標情報を制御部10に送る。入力判定部102は、送られてきた接触面積Wが第1の閾値Waよりも大きいか否かを判定する(ステップS103)。
 接触面積Wが第1の閾値Waよりも小さい場合(W<Wa)、入力判定部102は、当該物体の接触による入力は有効であると判定する。そして、制御部10は、接触座標取得部301から送られてきた座標情報を汎用アプリケーション部40に通知する(ステップS104)。そして、汎用アプリケーション部40は、座標情報に応じた処理動作を実行する。その後、汎用アプリケーション部40は、処理結果を制御部10に送り、表示部101が当該処理結果に基づいてLCD20の表示を更新する。
 一方、接触面積Wが第1の閾値Wa以上である場合(W≧Wa)、入力判定部102は、当該物体の接触による入力は無効であると判定する。そのため、制御部10は、接触面積Wが第1の閾値Wa以上である接触による座標情報を汎用アプリケーション部40に送らない。つまり、当該物体のタッチパネル30への接触に対しては、汎用アプリケーション部40は何ら処理を実行しない。
 以上のタッチパネル30の動作について図2に示した使用例を用いてより具体的に説明する。図4は、図2に示した使用例において、タッチパネル30から制御部10へ通知される情報を示す図である。図4において、ペン91でタッチパネル30に触れた部分93については、接触座標取得部301は、当該部分93の座標(x1、y1)を取得し、制御部10に座標情報を送る。このとき、接触座標取得部301は、接触部分の中心座標を取得する。また、接触面積検出部302は、接触面積W1を検出し、接触面積W1の情報を制御部10に送る。同様に、タッチパネル30は、親指92による接触部分94の座標(x2、y2)及び接触面積W2を制御部10に送る。
 入力判定部102は、接触面積検出部302から送られてきた接触面積W1、W2が第1の閾値Wa以上であるか否かを判定する。本例においては、W1<Wa<W2であるとする。接触面積W1は第1の閾値Waよりも小さいため、入力判定部102は、接触面積W1により接触した物体、つまりペン91の入力は有効であると判定する。そして、制御部10がペン91による入力座標(x1、y1)を汎用アプリケーション部40に送る。
 一方、接触面積W2は第1の閾値Waよりも大きいため、入力判定部102は、接触面積W2により接触した物体、つまり親指92の入力は無効であると判定する。そのため、制御部10は親指92による入力座標(x2、y2)を汎用アプリケーション部40に送らない。なお、入力判定部102は、タッチパネル30に同時に複数の物体が接触した場合(例えば、ペンと指が同時にタッチパネルに接触した場合)、それぞれの物体に対して判定動作を行う。
 このように、本実施の形態にかかる携帯端末1の構成によれば、接触面積検出部302がタッチパネル30上の物体の接触面積を検出し、入力判定部102が当該接触面積と第1の閾値とに基づいて、物体の接触による入力は有効であるか否かを判定する。そのため、例えば、携帯端末1を把持する指の一部がタッチパネル30に触れてしまうような場合であっても、接触面積が第1の閾値以上であれば当該接触は無効とされる。その一方で、ペンや指先などによる接触面積が第1の閾値よりも小さい接触は有効とされる。その結果、タッチパネル30への意図しない接触により発生する誤入力を防止することができる。
 実施の形態2
 本発明にかかる実施の形態2について説明する。本実施の形態にかかる携帯端末2の構成例を図5に示す。図5に示した携帯端末2は、図1に示した携帯端末1の構成に加え、画像比較部103、接触画像読取部303、タッチパネル設定アプリケーション部41、登録画像記憶部60を備える。なお、その他の構成については携帯端末1と同様であるので、説明を省略する。
 画像比較部103は、タッチパネル30に接触した画像データと登録画像データとを比較し、認証を行う。入力判定部102は、接触面積検出部302が検出した接触面積Wと画像比較部103の比較結果とに基づいて、当該物体の接触による入力は有効であるか否かを判定する。ここで、登録画像データとは、予め登録されたユーザ自身の指先画像データであり、RAM(Random Access Memory)等のメモリである登録画像記憶部60に格納されている。
 接触画像読取部303は、タッチパネル30に接触した物体の画像をスキャンして、当該物体の画像データを読み取る。当該画像データは画像比較部103へ送られる。本実施の形態においては、画像データとして指先画像データが用いられる。画像比較部103は、指紋認証や静脈認証等を用いて画像データを比較する。
 タッチパネル設定アプリケーション部41は、画像比較部103の比較処理に関するユーザ設定画面を表示させるアプリケーションである。比較処理に関するユーザ設定画面とは、例えば登録画像データを登録する画面や、画像比較処理の有効無効を切り替える画面等である。
 続いて、本実施の形態にかかる携帯端末2の動作例について図6に示したフローチャートを用いて説明する。まず、実施の形態1と同様に、タッチパネル30が物体の接触を検出する(ステップS101)。次に、接触面積検出部302が、接触面積Wを検出し、接触面積Wを制御部10へ送る。また、接触画像読取部303は、タッチパネルに接触した指の指先画像データを読み取り、制御部10へ送る(ステップS201)。そして、入力判定部102が、接触面積Wが第1の閾値Wa以上か否かを判定する(ステップS103)。ここで、接触面積Wが第1の閾値Waよりも大きい場合は(W≧Wa)、入力判定部102は、当該物体の接触による入力は無効であると判定する。
 一方、接触面積Wが第1の閾値Waよりも小さい場合(W<Wa)、制御部10は、タッチパネル設定アプリケーション部41により設定された指紋認証設定の読み込みを実行する(ステップS202)。具体的には、画像比較部103は、登録画像記憶部60から登録指先画像データを読み込む。また、制御部10は、指紋認証の有効無効の設定を読み込む。そして、制御部10は、指紋認証が有効であるか否かを判定する(ステップS203)。指紋認証が無効である場合は、制御部10はタッチパネル30に接触した指先の座標情報を汎用アプリケーション部40に通知する(ステップS104)。
 指紋認証が有効である場合、画像比較部103は、接触画像読取部303が読み取った指先画像データと、登録画像記憶部60から読み込んだ登録指先画像データとを比較する(ステップS204)。読み取った指先画像データが登録指先画像データと一致した場合は、入力判定部102は、当該指先の接触による入力は有効であると判定し、制御部10は当該指先の座標情報を汎用アプリケーション部40に通知する(ステップS104)。読取指先画像データが登録指先画像データと一致しない場合は、入力判定部102は、当該指先による入力は無効であると判定し、制御部10は当該指先の座標情報を通知しない。なお、この認証処理の有効無効は、タッチパネル設定アプリケーション部41の設定を変更することにより、ユーザが任意に切り替え可能である。
 このように、本実施の形態にかかる携帯端末2によれば、接触画像読取部303がタッチパネル30に接触した指紋等の画像データを読み取り、入力判定部102は、接触面積Wに加えて、当該読取画像に基づいて、指先などの接触による入力が有効であるか否かを判定する。そのため、予め登録したユーザの指先以外の接触は無効とされる。その結果、誤入力判定の精度が高まる。また、ユーザの指以外には反応しないためセキュリティの向上も図ることができる。
 実施の形態3
 本発明にかかる実施の形態3について説明する。本実施の形態にかかる携帯端末3の構成例を図7に示す。図7に示した携帯端末3は、図5に示した携帯端末2の構成に加えて、モード判定部104を備える。なお、その他の構成については携帯端末2と同様であるので、説明を省略する。
 モード判定部104は、接触面積検出部302が検出した接触面積Wが、ペン入力時にタッチパネル30に接するペン先の接触面積の上限に対応する値(以下、第2の閾値と称す。)Wbよりも小さい場合、ペン入力モードであると判定し、接触面積Wが第2の閾値Wb以上かつ第1の閾値Waよりも小さい場合、指入力モードであると判定する。ここで、第2の閾値とは、タッチパネル30に接触した物体がペンによるものか指によるものかを判定するための閾値である。第2の閾値は、ユーザが任意に設定可能であり、ペン先の接触面積よりも大きく、指先の接触面積よりも小さい値が好ましい。なお、入力判定部102と同様に、モード判定部104も、タッチパネル30に同時に複数の物体が接触した場合、それぞれの物体に対して判定動作を行う。
 続いて、本実施の形態にかかる携帯端末3の動作例について図8に示すフローチャートを用いて説明する。まず、実施の形態2と同様に、タッチパネル30が物体の接触を検出すると(ステップS101)、接触面積検出部302が接触面積Wを検出し、接触画像読取部303が物体の接触画像を読み取る(ステップS201)。
 次に、入力判定部102及びモード判定部104が、タッチパネル30に接触した物体の入力モードを判定する(ステップS301)。具体的には、入力判定部102が、上述した実施の形態2と同様に、接触面積Wが第1の閾値Wa以上か否かを判定する。ここで、接触面積Wが第1の閾値Waよりも大きい場合は(W≧Wa)、入力判定部102は、当該物体の接触による入力は無効であると判定する。
 一方、接触面積Wが第1の閾値Waよりも小さい場合(W<Wa)、モード判定部104は、入力モードがペン入力モードであるか指入力モードであるかを判定する。接触した物体の接触面積Wが第2の閾値Wbよりも小さい場合(W<Wb)、モード判定部104は、タッチパネル30に接触した物体はペン先であるとして、ペン入力モードであると判定する。この場合、制御部10は、当該入力はペン入力モードであるとして、ペン先の接触部分の座標情報を汎用アプリケーション部40に通知する(S104)。
 接触した物体の接触面積Wが第2の閾値Wb以上であり、かつ、第1の閾値Waよりも小さい場合(Wb≦W<Wa)、モード判定部104は、タッチパネル30に接触した物体は指先であると判定する。接触した物体が指先であると判定されると、実施の形態2と同様の処理が行われる。
 つまり、制御部10が、指先画像の認証設定を読み込む(ステップS202)。そして、制御部10は、認証が有効であるか否かを判定し(ステップS203)、無効であれば、当該指先の座標情報を汎用アプリケーション部40に通知する。認証が有効である場合は、画像比較部103が、読取画像と登録画像とを比較する(ステップS204)。読取画像と登録画像とが一致していれば、制御部10は、当該入力は指入力モードであるとして、指先の接触部分の座標情報を汎用アプリケーション部40に通知する(ステップS104)。読取画像と登録画像とが一致しなければ、入力判定部102は、当該入力を無効であると判定する。
 このように、本実施の形態にかかる携帯端末3によれば、モード判定部104が、接触した物体に応じて入力モードを判定する。そのため、ペン入力モードの場合か指入力モードの場合かによって、汎用アプリケーション部40の処理動作を変更することができる。その結果、タッチパネル30への接触に対する処理動作の変更を容易に行うことができる。
 なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更、組み合わせをすることが可能である。例えば、画像データは、指先画像に限られず、スタイラスの画像であってもよい。また、登録画像データは、ユーザの指先画像データではなく、指先か否かを判定できるような汎用的な指先画像であってもよい。これにより、ユーザ以外の指先であっても有効な入力と判定されるため、利便性が向上する。さらに、制御部10が、タッチパネル30から送られてくる座標情報に基づいて、接触面積Wを検出する構成としてもよい。
 上記の実施の形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
   (付記1)
 物体の接触により入力を行うタッチパネルと、
 前記物体が前記タッチパネルに接触した場合、前記タッチパネルにおける当該物体の接触面積を検出する接触面積検出手段と、
 前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する入力判定手段と、を備え、
 前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が、指入力時に前記タッチパネルに接する指先の接触面積の上限に対応する値以上である場合、前記物体の接触による入力は無効であると判定する携帯端末。
   (付記2)
 前記タッチパネルは、前記携帯端末をユーザが片手で把持した場合、把持した手の指の一部が前記タッチパネルに触れる大きさである付記1に記載の携帯端末。
   (付記3)
 前記タッチパネルに接触した前記物体の画像データを読み取る接触画像読取手段をさらに備え、
 前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が指先の接触面積の上限に対応する値よりも小さい場合、前記接触画像読取手段が読み取った画像データに基づいて、前記物体の接触による入力が有効であるか否かを判定する付記1または2に記載の携帯端末。
   (付記4)
 予め登録された画像データを格納する登録画像記憶手段と、
 前記予め登録された画像データと前記接触画像読取手段が読み取った画像データとを比較する画像比較手段と、をさらに備え、
 前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が前記指先の接触面積の上限に対応する値よりも小さい場合、前記画像比較手段の比較結果に基づいて、当該物体の接触による入力が有効であるか否かを判定する付記3に記載の携帯端末。
   (付記5)
 前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が、ペン入力時に前記タッチパネルに接するペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、前記接触画像読取手段が読み取った画像データに基づいて、前記物体の接触による入力は有効であるか否かを判定する付記3または4に記載の携帯端末。
   (付記6)
 前記画像データはユーザの指先画像データであり、前記接触画像読取手段は、前記タッチパネルに接触した前記指先画像データを読み取る付記3~5に記載の携帯端末。
   (付記7)
 前記接触面積検出手段が検出した前記接触面積が、前記ペン先の接触面積の上限に対応する値よりも小さい場合、ペン入力モードであると判定し、前記接触面積が前記ペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、指入力モードであると判定するモード判定手段をさらに備える付記5または6に記載の携帯端末。
   (付記8)
 前記タッチパネルに複数の前記物体が接触する場合、
 前記入力判定手段は、それぞれの前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する付記1~7のいずれか一項に記載の携帯端末。
   (付記9)
 物体の接触により入力を行うタッチパネルに前記物体が接触した場合、前記タッチパネルにおける当該物体の接触面積を検出し、
 前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定し、
 前記入力が有効であるか否かの判定は、
 検出した前記接触面積が、指入力時に前記タッチパネルに接する指先の接触面積の上限に対応する値以上である場合、当該物体の接触による入力は無効であると判定する携帯端末の制御方法。
   (付記10)
 前記タッチパネルは、前記携帯端末をユーザが片手で把持した場合、把持した手の指の一部が前記タッチパネルに触れる大きさである付記9に記載の携帯端末。
   (付記11)
 前記タッチパネルに接触した前記物体の画像データを読み取り、
 前記入力が有効であるか否かの判定は、
 検出した前記接触面積が指先の接触面積の上限に対応する値よりも小さい場合、読み取った前記画像データに基づいて、前記物体の接触による入力が有効であるか否かを判定する付記9または10に記載の携帯端末の制御方法。
   (付記12)
 予め登録された画像データと読み取った画像データとを比較し、
 比較結果に基づいて、当該物体の接触による入力が有効であるか否かを判定する付記11に記載の携帯端末の制御方法。
   (付記13)
 前記入力は有効であるか否かの判定は、検出した前記接触面積が、ペン入力時に前記タッチパネルに接するペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、読み取った前記画像データに基づいて、前記物体の接触による入力が有効であるか否かを判定する付記11または12に記載の携帯端末の制御方法。
   (付記14)
 前記画像データはユーザの指先画像データであり、前記タッチパネルに接触した前記指先画像データを読み取る付記11~13のいずれか一項に記載の携帯端末の制御方法。
   (付記15)
 検出した前記物体の接触面積が、前記ペン先の接触面積の上限に対応する値よりも小さいは、ペン入力モードであると判定し、
 前記接触面積が前記ペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、指入力モードであると判定する付記13または14に記載の携帯端末の制御方法。
   (付記16)
 前記タッチパネルに複数の前記物体が接触する場合、
 前記入力は有効であるか否かの判定は、それぞれの前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する付記9~15のいずれか一項に記載の携帯端末の制御方法。
   (付記17)
 物体の接触により入力を行うタッチパネルと、
 前記物体が前記タッチパネルに接触した場合、前記タッチパネルにおける当該物体の接触面積を検出する接触面積検出手段と、
 前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する入力判定手段と、を備え、
 前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が、指入力時に前記タッチパネルに接する指先の接触面積の上限に対応する値以上である場合、前記物体の接触による入力は無効であると判定する入力装置。
   (付記18)
 前記タッチパネルは、前記入力装置をユーザが片手で把持した場合、把持した手の指の一部が前記タッチパネルに触れる大きさである付記17に記載の入力装置。
   (付記19)
 前記タッチパネルに接触した前記物体の画像データを読み取る接触画像読取手段をさらに備え、
 前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が指先の接触面積の上限に対応する値よりも小さい場合、前記接触画像読取手段が読み取った画像データに基づいて、前記物体の接触による入力が有効であるか否かを判定する付記17または18に記載の入力装置。
   (付記20)
 予め登録された画像データを格納する登録画像記憶手段と、
 前記予め登録された画像データと前記接触画像読取手段が読み取った画像データとを比較する画像比較手段と、をさらに備え、
 前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が前記指先の接触面積の上限に対応する値よりも小さい場合、前記画像比較手段の比較結果に基づいて、当該物体の接触による入力が有効であるか否かを判定する付記19に記載の入力装置。
   (付記21)
 前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が、ペン入力時に前記タッチパネルに接するペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、前記接触画像読取手段が読み取った画像データに基づいて、前記物体の接触による入力は有効であるか否かを判定する付記19または20に記載の入力装置。
   (付記22)
 前記画像データはユーザ指先画像データであり、前記接触画像読取手段は、前記タッチパネルに接触した前記指先画像データを読み取る付記19~21に記載の入力装置。
   (付記23)
 前記接触面積検出手段が検出した前記接触面積が、前記ペン先の接触面積の上限に対応する値よりも小さい場合、ペン入力モードであると判定し、前記接触面積が前記ペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、指入力モードであると判定するモード判定手段をさらに備える付記21または22に記載の入力装置。
   (付記24)
 前記タッチパネルに複数の前記物体が接触する場合、
 前記入力判定手段は、それぞれの前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する付記17~23のいずれか一項に記載の入力装置。
 この出願は、2010年2月19日に出願された日本出願特願2010-35251を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1~3 携帯端末
10 制御部
20 LCD
30 タッチパネル
40 汎用アプリケーション部
41 タッチパネル設定アプリケーション部
50 面
60 登録画像記憶部
91 ペン
92 親指
93 ペンの接触部分
94 親指の接触部分
101 表示部
102 入力判定部
103 画像比較部
104 モード判定部
301 接触座標取得部
302 接触面積検出部
303 接触画像読取部

Claims (10)

  1.  物体の接触により入力を行うタッチパネルと、
     前記物体が前記タッチパネルに接触した場合、前記タッチパネルにおける当該物体の接触面積を検出する接触面積検出手段と、
     前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する入力判定手段と、を備え、
     前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が、指入力時に前記タッチパネルに接する指先の接触面積の上限に対応する値以上である場合、前記物体の接触による入力は無効であると判定する携帯端末。
  2.  前記タッチパネルは、前記携帯端末をユーザが片手で把持した場合、把持した手の指の一部が前記タッチパネルに触れる大きさである請求項1に記載の携帯端末。
  3.  前記タッチパネルに接触した前記物体の画像データを読み取る接触画像読取手段をさらに備え、
     前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が前記指先の接触面積の上限に対応する値よりも小さい場合、前記接触画像読取手段が読み取った画像データに基づいて、前記物体の接触による入力が有効であるか否かを判定する請求項1または2に記載の携帯端末。
  4.  予め登録された画像データを格納する登録画像記憶手段と、
     前記予め登録された画像データと前記接触画像読取手段が読み取った画像データとを比較する画像比較手段と、をさらに備え、
     前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が前記指先の接触面積の上限に対応する値よりも小さい場合、前記画像比較手段の比較結果に基づいて、当該物体の接触による入力が有効であるか否かを判定する請求項3に記載の携帯端末。
  5.  前記入力判定手段は、前記接触面積検出手段が検出した前記接触面積が、ペン入力時に前記タッチパネルに接するペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、前記接触画像読取手段が読み取った画像データに基づいて、前記物体の接触による入力は有効であるか否かを判定する請求項3または4に記載の携帯端末。
  6.  前記画像データはユーザの指先画像データであり、前記接触画像読取手段は、前記タッチパネルに接触した前記指先画像データを読み取る請求項3~5のいずれか一項に記載の携帯端末。
  7.  前記接触面積検出手段が検出した前記接触面積が、前記ペン先の接触面積の上限に対応する値よりも小さい場合、ペン入力モードであると判定し、前記接触面積が前記ペン先の接触面積の上限に対応する値以上かつ前記指先の接触面積の上限に対応する値よりも小さい場合、指入力モードであると判定するモード判定手段をさらに備える請求項5または6に記載の携帯端末。
  8.  前記タッチパネルに複数の前記物体が接触する場合、
     前記入力判定手段は、それぞれの前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定する請求項1~7のいずれか一項に記載の携帯端末。
  9.  物体の接触により入力を行うタッチパネルに前記物体が接触した場合、前記タッチパネルにおける当該物体の接触面積を検出し、
     前記物体の前記タッチパネルへの接触による入力が有効であるか否か判定し、
     前記入力が有効であるか否かの判定は、
     検出した前記接触面積が、指入力時に前記タッチパネルに接する指先の接触面積の上限に対応する値以上である場合、当該物体の接触による入力は無効であると判定する携帯端末の制御方法。
  10.  前記タッチパネルに接触した前記物体の画像データを読み取り、
     前記入力が有効であるか否かの判定は、
     検出された前記接触面積が前記指先の接触面積の上限に対応する値よりも小さい場合、読み取った前記画像データに基づいて、前記物体の接触による入力が有効であるか否かを判定する請求項9に記載の携帯端末の制御方法。
PCT/JP2010/007198 2010-02-19 2010-12-10 携帯端末及びその制御方法 WO2011101940A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP10846080A EP2538310A1 (en) 2010-02-19 2010-12-10 Mobile terminal and control method thereof
US13/519,820 US20120299856A1 (en) 2010-02-19 2010-12-10 Mobile terminal and control method thereof
JP2012500405A JPWO2011101940A1 (ja) 2010-02-19 2010-12-10 携帯端末及びその制御方法
CN2010800616812A CN102713804A (zh) 2010-02-19 2010-12-10 移动终端及其控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-035251 2010-02-19
JP2010035251 2010-02-19

Publications (1)

Publication Number Publication Date
WO2011101940A1 true WO2011101940A1 (ja) 2011-08-25

Family

ID=44482564

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/007198 WO2011101940A1 (ja) 2010-02-19 2010-12-10 携帯端末及びその制御方法

Country Status (5)

Country Link
US (1) US20120299856A1 (ja)
EP (1) EP2538310A1 (ja)
JP (1) JPWO2011101940A1 (ja)
CN (1) CN102713804A (ja)
WO (1) WO2011101940A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103064548A (zh) * 2011-10-24 2013-04-24 联咏科技股份有限公司 可滤除误触面板的手势判断方法
CN103092392A (zh) * 2011-10-12 2013-05-08 富士施乐株式会社 接触检测装置、记录显示装置和接触检测方法
WO2013128911A1 (ja) * 2012-03-02 2013-09-06 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、誤操作防止方法、及びプログラム
JP2014063220A (ja) * 2012-09-19 2014-04-10 Sharp Corp 情報処理装置、情報処理装置の制御方法、制御プログラム、および記録媒体
KR20140056959A (ko) * 2012-11-02 2014-05-12 엘지전자 주식회사 이동 단말기
JP2014174600A (ja) * 2013-03-06 2014-09-22 Sharp Corp タッチパネル端末及びタッチパネル制御方法
JP2014528137A (ja) * 2011-09-30 2014-10-23 インテル コーポレイション 意図的でないタッチセンサへの接触を排除するモバイルデバイス
JP2015118541A (ja) * 2013-12-18 2015-06-25 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2015526801A (ja) * 2012-07-13 2015-09-10 サムスン エレクトロニクス カンパニー リミテッド タッチペンを利用する携帯端末機及びこれを利用した手書き入力方法
JP2016045553A (ja) * 2014-08-20 2016-04-04 アルプス電気株式会社 情報処理装置とその指先操作識別方法並びにプログラム
JP2016517101A (ja) * 2013-03-18 2016-06-09 クアルコム,インコーポレイテッド タッチ感知のための最適化された適応的閾値処理
JP2016139431A (ja) * 2011-09-30 2016-08-04 インテル コーポレイション 意図的でないタッチセンサへの接触を排除するモバイルデバイス
JP2016143349A (ja) * 2015-02-04 2016-08-08 キヤノン株式会社 電子機器およびその制御方法
US9541993B2 (en) 2011-12-30 2017-01-10 Intel Corporation Mobile device operation using grip intensity
JP2018139158A (ja) * 2018-06-18 2018-09-06 カシオ計算機株式会社 携帯端末及びプログラム

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5651494B2 (ja) 2011-02-09 2015-01-14 日立マクセル株式会社 情報処理装置
JP6199534B2 (ja) * 2011-04-26 2017-09-20 京セラ株式会社 電子機器及びその制御方法
JP5813991B2 (ja) 2011-05-02 2015-11-17 埼玉日本電気株式会社 携帯端末、入力制御方法及びプログラム
TW201316211A (zh) * 2011-10-13 2013-04-16 Novatek Microelectronics Corp 可濾除誤觸面板的手勢判斷方法
CN103186750B (zh) * 2011-12-28 2017-04-12 富泰华工业(深圳)有限公司 可防盗的触摸型便携式装置及防盗方法
KR20130099745A (ko) * 2012-02-29 2013-09-06 주식회사 팬택 터치 단말기의 입력 신호 구분 장치 및 방법
US9105211B2 (en) * 2012-03-13 2015-08-11 Samsung Electronics Co., Ltd Portable projector and image projecting method thereof
TWI496054B (zh) * 2012-08-15 2015-08-11 Pixart Imaging Inc 光學觸控裝置、光學觸控及位移感測裝置、可調式導光裝置、光學觸控方法以及光學觸控及位移感測方法
CN103019596B (zh) * 2012-12-07 2016-12-21 Tcl通讯(宁波)有限公司 一种基于触摸屏实现虚拟按键操作的方法及移动终端
KR20140106097A (ko) * 2013-02-25 2014-09-03 삼성전자주식회사 전자 장치에서 터치 입력 방식을 결정하기 위한 장치 및 방법
JP5983503B2 (ja) * 2013-04-03 2016-08-31 カシオ計算機株式会社 情報処理装置及びプログラム
WO2014194192A1 (en) 2013-05-30 2014-12-04 David Andrews Multi-dimensional trackpad
JP6385656B2 (ja) * 2013-08-22 2018-09-05 シャープ株式会社 情報処理装置、情報処理方法及びプログラム
DE112014004628T5 (de) 2013-10-08 2016-07-28 Tk Holdings Inc. Vorrichtung und Verfahren für direktes Leiten haptischer Energie an die Berührungsoberfläche
CN104951226B (zh) * 2014-03-25 2018-08-24 宏达国际电子股份有限公司 接触输入判断方法及使用此接触输入判断方法的电子装置
US9665162B2 (en) * 2014-03-25 2017-05-30 Htc Corporation Touch input determining method which can determine if the touch input is valid or not valid and electronic apparatus applying the method
US10061438B2 (en) * 2014-05-14 2018-08-28 Sony Semiconductor Solutions Corporation Information processing apparatus, information processing method, and program
TW201608487A (zh) * 2014-08-27 2016-03-01 義隆電子股份有限公司 防誤觸方法
US9195879B1 (en) 2014-08-31 2015-11-24 Qualcomm Incorporated Air/object determination for biometric sensors
US9582705B2 (en) * 2014-08-31 2017-02-28 Qualcomm Incorporated Layered filtering for biometric sensors
US9665763B2 (en) * 2014-08-31 2017-05-30 Qualcomm Incorporated Finger/non-finger determination for biometric sensors
US10466826B2 (en) 2014-10-08 2019-11-05 Joyson Safety Systems Acquisition Llc Systems and methods for illuminating a track pad system
CN105630314A (zh) * 2014-10-28 2016-06-01 富泰华工业(深圳)有限公司 一种操作模式切换系统及方法
CN105117132B (zh) * 2015-08-31 2018-08-24 广州视源电子科技股份有限公司 一种触摸控制方法及装置
TWI554938B (zh) * 2015-09-03 2016-10-21 義隆電子股份有限公司 觸控裝置的控制方法
JP6742730B2 (ja) * 2016-01-05 2020-08-19 キヤノン株式会社 電子機器及びその制御方法
CN105681594B (zh) * 2016-03-29 2019-03-01 努比亚技术有限公司 一种终端的边缘交互系统和方法
CN106990893B (zh) * 2017-03-20 2020-07-03 北京小米移动软件有限公司 触屏操作的处理方法和装置
WO2021138077A1 (en) 2019-12-30 2021-07-08 Joyson Safety Systems Acquisition Llc Systems and methods for intelligent waveform interruption

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200133A (ja) 1993-12-28 1995-08-04 Casio Comput Co Ltd ペン入力装置
JPH09138730A (ja) * 1995-11-14 1997-05-27 Sharp Corp 情報入力処理装置
JPH11327727A (ja) 1998-05-11 1999-11-30 Nec Corp 画面操作システムおよび画面操作方法
JP2000250690A (ja) * 1999-02-26 2000-09-14 Nec Shizuoka Ltd 仮想キーボードシステム
JP2007219737A (ja) 2006-02-15 2007-08-30 Fujitsu Component Ltd タッチパネル
JP2008108233A (ja) 2006-09-28 2008-05-08 Kyocera Corp 携帯端末及びその制御方法
JP2009134638A (ja) * 2007-11-30 2009-06-18 Sharp Corp 操作処理装置
WO2009157560A1 (ja) * 2008-06-27 2009-12-30 京セラ株式会社 ユーザインタフェース生成装置
JP2010035251A (ja) 2008-07-25 2010-02-12 Denso Corp 車両用回転電機

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08307954A (ja) * 1995-05-12 1996-11-22 Sony Corp 座標入力装置および方法、並びに情報処理装置
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7190348B2 (en) * 2000-12-26 2007-03-13 International Business Machines Corporation Method for touchscreen data input
US7738916B2 (en) * 2003-05-21 2010-06-15 Hitachi High-Technologies Corporation Portable terminal device with built-in fingerprint sensor
JP2007503797A (ja) * 2003-05-30 2007-02-22 プリヴァリス・インコーポレーテッド 機密データへのアクセス及び使用を制御するための回路内セキュリティ・システム及び方法
JP2006302067A (ja) * 2005-04-22 2006-11-02 Alps Electric Co Ltd 入力装置
US8374324B2 (en) * 2005-06-02 2013-02-12 At&T Intellectual Property I, L.P. Methods of using biometric data in a phone system and apparatuses to perform the methods
US20070097096A1 (en) * 2006-03-25 2007-05-03 Outland Research, Llc Bimodal user interface paradigm for touch screen devices
US8686964B2 (en) * 2006-07-13 2014-04-01 N-Trig Ltd. User specific recognition of intended user interaction with a digitizer
US8997015B2 (en) * 2006-09-28 2015-03-31 Kyocera Corporation Portable terminal and control method therefor
KR101442542B1 (ko) * 2007-08-28 2014-09-19 엘지전자 주식회사 입력장치 및 이를 구비한 휴대 단말기
US20110012856A1 (en) * 2008-03-05 2011-01-20 Rpo Pty. Limited Methods for Operation of a Touch Input Device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200133A (ja) 1993-12-28 1995-08-04 Casio Comput Co Ltd ペン入力装置
JPH09138730A (ja) * 1995-11-14 1997-05-27 Sharp Corp 情報入力処理装置
JPH11327727A (ja) 1998-05-11 1999-11-30 Nec Corp 画面操作システムおよび画面操作方法
JP2000250690A (ja) * 1999-02-26 2000-09-14 Nec Shizuoka Ltd 仮想キーボードシステム
JP2007219737A (ja) 2006-02-15 2007-08-30 Fujitsu Component Ltd タッチパネル
JP2008108233A (ja) 2006-09-28 2008-05-08 Kyocera Corp 携帯端末及びその制御方法
JP2009134638A (ja) * 2007-11-30 2009-06-18 Sharp Corp 操作処理装置
WO2009157560A1 (ja) * 2008-06-27 2009-12-30 京セラ株式会社 ユーザインタフェース生成装置
JP2010035251A (ja) 2008-07-25 2010-02-12 Denso Corp 車両用回転電機

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016139431A (ja) * 2011-09-30 2016-08-04 インテル コーポレイション 意図的でないタッチセンサへの接触を排除するモバイルデバイス
US9317156B2 (en) 2011-09-30 2016-04-19 Intel Corporation Mobile device rejection of unintentional touch sensor contact
US10001871B2 (en) 2011-09-30 2018-06-19 Intel Corporation Mobile device rejection of unintentional touch sensor contact
JP2014528137A (ja) * 2011-09-30 2014-10-23 インテル コーポレイション 意図的でないタッチセンサへの接触を排除するモバイルデバイス
CN103092392A (zh) * 2011-10-12 2013-05-08 富士施乐株式会社 接触检测装置、记录显示装置和接触检测方法
JP2013084223A (ja) * 2011-10-12 2013-05-09 Fuji Xerox Co Ltd 接触検出装置、記録表示装置、及びプログラム
CN103064548A (zh) * 2011-10-24 2013-04-24 联咏科技股份有限公司 可滤除误触面板的手势判断方法
US9541993B2 (en) 2011-12-30 2017-01-10 Intel Corporation Mobile device operation using grip intensity
WO2013128911A1 (ja) * 2012-03-02 2013-09-06 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、誤操作防止方法、及びプログラム
JPWO2013128911A1 (ja) * 2012-03-02 2015-07-30 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、誤操作防止方法、及びプログラム
JP2015526801A (ja) * 2012-07-13 2015-09-10 サムスン エレクトロニクス カンパニー リミテッド タッチペンを利用する携帯端末機及びこれを利用した手書き入力方法
US9898186B2 (en) 2012-07-13 2018-02-20 Samsung Electronics Co., Ltd. Portable terminal using touch pen and handwriting input method using the same
JP2014063220A (ja) * 2012-09-19 2014-04-10 Sharp Corp 情報処理装置、情報処理装置の制御方法、制御プログラム、および記録媒体
KR20140056959A (ko) * 2012-11-02 2014-05-12 엘지전자 주식회사 이동 단말기
KR101992192B1 (ko) * 2012-11-02 2019-09-30 엘지전자 주식회사 이동 단말기
JP2014174600A (ja) * 2013-03-06 2014-09-22 Sharp Corp タッチパネル端末及びタッチパネル制御方法
JP2016517101A (ja) * 2013-03-18 2016-06-09 クアルコム,インコーポレイテッド タッチ感知のための最適化された適応的閾値処理
JP2015118541A (ja) * 2013-12-18 2015-06-25 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
US10048728B2 (en) 2013-12-18 2018-08-14 Canon Kabushiki Kaisha Information processing apparatus, method, and storage medium
JP2016045553A (ja) * 2014-08-20 2016-04-04 アルプス電気株式会社 情報処理装置とその指先操作識別方法並びにプログラム
JP2016143349A (ja) * 2015-02-04 2016-08-08 キヤノン株式会社 電子機器およびその制御方法
JP2018139158A (ja) * 2018-06-18 2018-09-06 カシオ計算機株式会社 携帯端末及びプログラム

Also Published As

Publication number Publication date
CN102713804A (zh) 2012-10-03
EP2538310A1 (en) 2012-12-26
JPWO2011101940A1 (ja) 2013-06-17
US20120299856A1 (en) 2012-11-29

Similar Documents

Publication Publication Date Title
WO2011101940A1 (ja) 携帯端末及びその制御方法
US8266529B2 (en) Information processing device and display information editing method of information processing device
US9671893B2 (en) Information processing device having touch screen with varying sensitivity regions
CN104007932B (zh) 一种触摸点识别方法及装置
JP5507494B2 (ja) タッチ・スクリーンを備える携帯式電子機器および制御方法
US8619036B2 (en) Virtual keyboard based activation and dismissal
JP5105127B2 (ja) 携帯端末、そのキー操作制御方法およびプログラム
KR101523379B1 (ko) 휴대 단말기에서 터치스크린 상의 터치 지점의 위치 보정 방법 및 이를 수행하는 장치
AU2011283001A1 (en) Touch Input Transitions
US20120007816A1 (en) Input Control Method and Electronic Device for a Software Keyboard
US10048726B2 (en) Display control apparatus, control method therefor, and storage medium storing control program therefor
US20130249826A1 (en) Method and apparatus for detecting touch
US20130321322A1 (en) Mobile terminal and method of controlling the same
JP2008165575A (ja) タッチパネル装置
JP2010020658A (ja) 情報端末装置およびその入力制御方法
WO2012144616A1 (ja) 電子機器、電子機器の制御方法、および、プログラム
US10303295B2 (en) Modifying an on-screen keyboard based on asymmetric touch drift
JP2015146090A (ja) 手書き入力装置及び入力制御プログラム
CN115237274A (zh) 信息处理装置以及控制方法
CN104679312A (zh) 电子装置及其触控系统、触控方法
CN109696985B (zh) 输入装置及程序
JP2011204092A (ja) 入力装置
JP6006487B2 (ja) 入力装置
EP2407866B1 (en) Portable electronic device and method of determining a location of a touch
KR20150060476A (ko) 터치스크린 상의 명령입력영역 제어 방법 및 장치

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080061681.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10846080

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13519820

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2010846080

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012500405

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 7045/CHENP/2012

Country of ref document: IN

NENP Non-entry into the national phase

Ref country code: DE