JP5899568B2 - 入力物体を区別するシステム及び方法 - Google Patents
入力物体を区別するシステム及び方法 Download PDFInfo
- Publication number
- JP5899568B2 JP5899568B2 JP2013518508A JP2013518508A JP5899568B2 JP 5899568 B2 JP5899568 B2 JP 5899568B2 JP 2013518508 A JP2013518508 A JP 2013518508A JP 2013518508 A JP2013518508 A JP 2013518508A JP 5899568 B2 JP5899568 B2 JP 5899568B2
- Authority
- JP
- Japan
- Prior art keywords
- object position
- distance
- input
- processing system
- correspond
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 38
- 238000012545 processing Methods 0.000 claims description 84
- 230000033001 locomotion Effects 0.000 claims description 40
- 230000004044 response Effects 0.000 claims description 35
- 230000004913 activation Effects 0.000 claims description 9
- 230000003139 buffering effect Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 description 24
- 230000008859 change Effects 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000005684 electric field Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011982 device technology Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04166—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
Description
[発明の例]
[例1]
感知領域内の物体を感知するように構成された感知電極の配列と、
前記感知電極の配列に結合された処理システムであって、
前記感知電極の配列を操作して前記感知領域内の物体の位置を検出し、
第1の物体位置と第2の物体位置との間の第1の距離を判定し、
前記第2の物体位置と第3の物体位置との間の第2の距離を判定し、
前記第1の物体位置と前記第2の物体位置の両方が単一の入力物体に対応するかどうかを前記第1の距離及び前記第2の距離から判定する
ように構成された処理システムと
を備える入力装置。
[例2]
前記処理システムは、前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するかどうかを、
前記第1の距離が第1の閾値より大きく、且つ前記第2の距離が第2の閾値より小さいかどうかを判定することにより判定するように構成される例1に記載の入力装置。
[例3]
前記処理システムが、第0の物体位置と前記第1の物体位置との間の第0の距離を判定するように構成され、前記処理システムが、前記第0の距離が第0の閾値より小さいかどうかを追加的に判定することにより、前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するかどうかを判定するようにさらに構成される例1に記載の入力装置。
[例4]
前記処理システムは、前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応すると判定されるのに応答して動き制御信号を通知し、前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するのではないと判定されると前記動き制御信号を通知しないようにさらに構成される、例1に記載の入力装置。
[例5]
前記処理システムが、
前記第2の物体位置の取得及び前記第1の距離の判定の少なくとも一方に応答して制御信号をバッファリングし、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応すると判定されるのに応答して前記制御信号を通知し、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するのではないと判定されると、前記制御信号を通知しない
ようにさらに構成される、例1に記載の入力装置。
[例6]
前記感知領域内の入力物体で接触することが可能な入力面をさらに備え、前記入力面が、前記入力面に加えられた力に応答して動くようにさらに構成され、前記処理システムが、前記入力面の十分な動きに応答して作動信号を通知するようにさらに構成される、例1に記載の入力装置。
[例7]
前記感知領域内の入力物体で接触可能な入力面と、
前記入力面の下に位置する、アクティブエリアを有する表示画面であって、前記アクティブエリアは前記入力面を通して視認できる、表示画面と
をさらに備え、
前記処理システムが、
前記第1の物体位置と前記第2の物体位置の両方が単一の入力物体に対応するのではないと判定されるのに応答して、第1の入力物体が前記入力面から離れたことを示す指示を提供するようにさらに構成される、例1に記載の入力装置。
[例8]
感知領域内の物体を静電容量により感知するように構成され、前記感知領域は第1の部分及び第2の部分を含み、前記第2の部分はインタフェース動作に関連付けられる、複数のセンサ電極と、
前記複数のセンサ電極に通信的に結合された処理システムであって、
前記感知電極の配列を操作して前記感知領域内の物体の位置を検出し、
第1の物体位置と第2の物体位置との間の第1の距離を判定し、前記第2の物体位置は前記第1の物体位置の次にあり、
前記第2の物体位置と第3の物体位置との間の第2の距離を判定し、前記第3の物体位置は前記第2の物体位置の次にあり、
前記第1の距離が第1の閾値より大きく、且つ前記第2の距離が第2の閾値より小さいかどうかを判定することにより、前記第1の物体位置と前記第2の物体位置が前記単一の入力物体に対応するかどうかを判定し、
前記第1の物体位置が前記第1の部分内にあり、前記第2の物体位置が前記第2の部分内にあり、且つ前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するのではないと判定されること
に応答して前記第2の部分に関連付けられた前記インタフェース動作を指示し、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応すると判定されること
に応答してカーソルの移動を指示する
ように構成された処理システムと
を備える入力装置。
[例9]
感知領域内の物体を感知するように構成された入力装置のための処理システムであって、
前記感知領域内の入力物体の物体位置を取得するように構成された位置取得モジュールと、
前記位置取得モジュールによって取得された第1の物体位置と、前記位置取得モジュールによって取得された第2の物体位置との間の第1の距離を判定し、
前記位置取得モジュールによって取得された前記第2の物体位置と第3の物体位置との間の第2の距離を判定し、
前記第1の物体位置と前記第2の物体位置の両方が単一の入力物体に対応するかどうかを、前記第1の距離及び前記第2の距離を使用して判定する
ように構成された判定モジュールと
を備える処理システム。
[例10]
前記判定モジュールは、前記第1の物体位置と前記第2の物体位置の両方が単一の入力物体に対応するかどうかを
前記第1の距離が第1の閾値より大きく、且つ前記第2の距離が第2の閾値より小さいかどうかを判定することにより判定するように構成される、例9に記載の処理システム。
[例11]
前記判定モジュールは、前記第1の距離及び前記第2の距離から、前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するかどうかを、
前記第1の距離が、第1の閾値より大きい第1の軸における成分を有するかどうかを判定し、
前記第1の距離が、第2の閾値より小さい第2の軸における成分を有するかどうかを判定し、
前記第2の距離が、第3の閾値より大きい前記第2の軸における成分を有するかどうかを判定し、
前記第2の距離が、第4の閾値より小さい前記第1の軸における成分を有するかどうかを判定する
ことにより判定するように構成される、例9に記載の処理システム。
[例12]
前記判定モジュールが、第0の物体位置と前記第1の物体位置との間の第0の距離を判定するようにさらに構成され、前記処理システムが、前記第0の距離が第0の閾値より小さいかどうかを追加的に判定することにより、前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するかどうかを判定するように構成され、前記第2の物体位置は前記第1の物体位置の次にあり、前記第3の物体位置は前記第2の物体位置の次にあり、前記第1の物体位置は前記第0の物体位置の次にある、例9に記載の処理システム。
[例13]
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するのではないと判定されると制御信号を通知するように構成された通知モジュールをさらに備える、例9に記載の処理システム。
[例14]
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応すると判定されるのに応答して制御信号を通知するように構成された通知モジュールをさらに備える、例9に記載の処理システム。
[例15]
前記第2の物体位置の取得及び前記第1の距離の判定の少なくとも一方に応答して動き制御信号をバッファリングし、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応すると判定されるのに応答して前記動き制御信号を通知し、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するのではないと判定されると、前記動き制御信号を通知しない
ように構成された通知モジュールをさらに備える、例16に記載の処理システム。
[例16]
前記判定モジュールが、
前記第1、第2、及び第3の物体位置の少なくとも1つに関連する時間及び速度の少なくとも一方を判定し、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するかどうかを判定する際に、前記時間及び前記速度の前記少なくとも一方を使用する
ようにさらに構成される、例9に記載の処理システム。
[例17]
前記感知領域は選択領域を含み、前記処理システムが、
前記第1の物体位置及び前記第2の物体位置の少なくとも一方が前記選択領域内にあるのに応答して、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応すると判定されるのに応答して、移動を生じさせるための第1の制御信号を通知し、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するのではないと判定されるのに応答して、選択を行わせるための第2の制御信号を通知する
ように構成された通知モジュールをさらに備える、例9に記載の処理システム。
[例18]
入力装置の感知領域内のユーザ入力に関連する物体位置に反応する方法であって、
第1の物体位置と第2の物体位置との間の第1の距離を判定するステップと、
前記第2の物体位置と第3の物体位置との間の第2の距離を判定するステップと、
前記第1の物体位置と前記第2の物体位置の両方が単一の入力物体に対応するかどうかを、前記第1の距離及び前記第2の距離を使用して判定するステップと、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応すると判定されるのに応答して制御信号を生成するステップと
を含む方法。
[例19]
前記第1の物体位置と前記第2の物体位置が単一の入力物体に対応するかどうかを、前記第1の距離及び前記第2の距離を使用して判定する前記ステップが、
前記第1の距離が第1の閾値より大きく、且つ前記第2の距離が第2の閾値より小さいかどうかを判定するサブステップを含む、例18に記載の方法。
[例20]
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するのではないと判定されると前記制御信号を生成しないステップをさらに含む、例18に記載の方法。
[例21]
前記第2の物体位置が前記第1の物体位置の次にあり、前記第3の物体位置が前記第2の物体位置の次にある、例18に記載の方法。
[例22]
前記第1、第2、及び第3の物体位置の少なくとも1つに関連する時間及び速度の少なくとも一方を判定するステップと、
前記第1の物体位置と前記第2の物体位置が前記単一の入力物体に対応するかどうかを判定する際に、前記時間及び前記速度の前記少なくとも一方を使用するステップと
をさらに含む例18に記載の方法。
[例23]
第0の物体位置と前記第1の物体位置との間の第0の距離を判定するステップをさらに含み、前記第1の物体位置と前記第2の物体位置が前記単一の入力物体に対応するかどうかを判定する前記ステップが、前記第0の距離を使用するサブステップをさらに含む、例18に記載の方法。
[例24]
前記感知領域は、1つの機能に関連付けられた部分を有し、前記第1の物体位置及び前記第2の物体位置の少なくとも一方が前記部分内にあることに応答して、前記制御信号を生成する前記ステップが、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応すると判定されるのに応答して、移動を生じさせるための第1の制御信号を生成するサブステップと、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するのではないと判定されるのに応答して、前記機能を行わせるための第2の制御信号を生成するサブステップと
を含む、例18に記載の方法。
Claims (10)
- 感知領域内の物体を感知するように構成された、複数の感知電極からなる感知電極配列と、
前記感知電極配列に結合された処理システムであって、
前記感知電極配列を操作して前記感知領域内の物体の位置を検出し、前記検出された位置は、前記感知領域における第1の物体位置、第2の物体位置及び第3の物体位置を含み、前記第1の物体位置は前記第2の物体位置に時間的に先立ち、前記第2の物体位置は前記第3の物体位置に時間的に先立ち、
前記第1の物体位置と前記第2の物体位置との間の第1の距離を特定し、
前記第2の物体位置と前記第3の物体位置との間の第2の距離を特定し、
前記第1の距離が第1の閾値より大きく、且つ前記第2の距離が第2の閾値より小さいかどうかを判定することにより、前記第1の物体位置と前記第2の物体位置の両方が、前記感知領域内で移動された同じ入力物体を示す単一の入力物体に対応するかどうかを前記第1の距離及び前記第2の距離から判定する
ように構成された処理システムと、
を備える入力装置。 - 前記処理システムが、第0の物体位置と前記第1の物体位置との間の第0の距離を特定するようにさらに構成され、前記処理システムが、前記第0の距離が第0の閾値より小さいかどうかを追加的に判定することにより、前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するかどうかを判定するように構成され、前記検出された位置は、前記第1の物体位置に時間的に先立つ前記第0の物体位置をさらに有する、請求項1に記載の入力装置。
- 前記処理システムは、前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応すると判定されるのに応答して動き制御信号を通知し、前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するのではないと判定されるのに応答して前記動き制御信号を通知しないようにさらに構成される、請求項1または2に記載の入力装置。
- 前記処理システムが、
前記第2の物体位置の取得及び前記第1の距離の特定の少なくとも一方に応答して制御信号をバッファリングし、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応すると判定されるのに応答して前記制御信号を通知し、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するのではないと判定されるのに応答して前記制御信号を通知しない
ようにさらに構成される、請求項1〜3のいずれか一項に記載の入力装置。 - 前記感知領域内の入力物体で接触することが可能な入力面をさらに備え、前記入力面が、前記入力面に加えられた力に応答して動くようにさらに構成され、前記処理システムが、前記入力面の無視できない動きに応答して作動信号を通知するようにさらに構成される、請求項1〜4のいずれか一項に記載の入力装置。
- 感知領域内の物体を感知するように構成された入力装置のための処理システムであって、
前記感知領域内の入力物体の物体位置を取得するように構成された位置取得モジュールであって、前記取得された物体位置は、前記感知領域における第1の物体位置、第2の物体位置及び第3の物体位置を含み、前記第1の物体位置は前記第2の物体位置に時間的に先立ち、前記第2の物体位置は前記第3の物体位置に時間的に先立つ、位置取得モジュールと、
前記位置取得モジュールによって取得された前記第1の物体位置と、前記位置取得モジュールによって取得された前記第2の物体位置との間の第1の距離を特定し、
前記第2の物体位置と、前記位置取得モジュールによって取得された前記第3の物体位置との間の第2の距離を特定し、
前記第1の距離が第1の閾値より大きく、且つ前記第2の距離が第2の閾値より小さい場合に、前記第1の物体位置と前記第2の物体位置の両方が、前記感知領域内で移動された同じ入力物体を示す単一の入力物体に対応するかどうか判定する
ように構成された判定モジュールと、
を備える処理システム。 - 前記判定モジュールが、第0の物体位置と前記第1の物体位置との間の第0の距離を特定するようにさらに構成され、前記処理システムが、前記第0の距離が第0の閾値より小さいかどうかを追加的に判定することにより、前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するかどうかを判定するように構成され、前記取得された物体位置は、前記第1の物体位置に時間的に先立つ前記第0の物体位置をさらに有する、請求項6に記載の処理システム。
- 前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応すると判定されるのに応答して動き制御信号を通知し、前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するのではないと判定されるのに応答して前記動き制御信号を通知しないように構成された通知モジュールをさらに備える、請求項6または7に記載の処理システム。
- 前記第2の物体位置の取得及び前記第1の距離の特定の少なくとも一方に応答して制御信号をバッファリングし、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応すると判定されるのに応答して前記制御信号を通知し、
前記第1の物体位置と前記第2の物体位置の両方が前記単一の入力物体に対応するのではないと判定されるのに応答して前記制御信号を通知しない
ように構成された通知モジュールをさらに備える、請求項6〜8のいずれか一項に記載の処理システム。 - 前記入力装置が、前記感知領域内の入力物体で接触することが可能な入力面をさらに備え、前記入力面が、前記入力面に加えられた力に応答して動くようにさらに構成され、前記処理システムが、前記入力面の無視できない動きに応答して作動信号を通知するようにさらに構成される、請求項6〜9のいずれか一項に記載の処理システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/827,983 | 2010-06-30 | ||
US12/827,983 US9134843B2 (en) | 2010-06-30 | 2010-06-30 | System and method for distinguishing input objects |
PCT/US2011/041853 WO2012012099A2 (en) | 2010-06-30 | 2011-06-24 | System and method for distinguishing input objects |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013534013A JP2013534013A (ja) | 2013-08-29 |
JP2013534013A5 JP2013534013A5 (ja) | 2014-08-07 |
JP5899568B2 true JP5899568B2 (ja) | 2016-04-06 |
Family
ID=45399324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013518508A Active JP5899568B2 (ja) | 2010-06-30 | 2011-06-24 | 入力物体を区別するシステム及び方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9134843B2 (ja) |
JP (1) | JP5899568B2 (ja) |
CN (1) | CN103069364B (ja) |
WO (1) | WO2012012099A2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120194457A1 (en) * | 2011-01-28 | 2012-08-02 | Bruce Cannon | Identifiable Object and a System for Identifying an Object by an Electronic Device |
JP6103807B2 (ja) * | 2012-01-10 | 2017-03-29 | キヤノン株式会社 | 表示制御装置、その制御方法及びプログラム |
US9703431B2 (en) * | 2014-06-03 | 2017-07-11 | Synaptics Incorporated | Noise detection and mitigation for capacitive sensing devices |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4803883B2 (ja) * | 2000-01-31 | 2011-10-26 | キヤノン株式会社 | 位置情報処理装置及びその方法及びそのプログラム。 |
US7254775B2 (en) * | 2001-10-03 | 2007-08-07 | 3M Innovative Properties Company | Touch panel system and method for distinguishing multiple touch inputs |
JP4555538B2 (ja) * | 2002-04-30 | 2010-10-06 | 株式会社ケンウッド | 操作コマンド処理プログラムおよびナビゲーションシステム |
JP2006106844A (ja) | 2004-09-30 | 2006-04-20 | Seiko Epson Corp | タッチパネルのデータ取込み方法及びその装置 |
JP3865141B2 (ja) * | 2005-06-15 | 2007-01-10 | 任天堂株式会社 | 情報処理プログラム及び情報処理装置 |
US7659887B2 (en) * | 2005-10-20 | 2010-02-09 | Microsoft Corp. | Keyboard with a touchpad layer on keys |
KR20070106280A (ko) | 2006-04-28 | 2007-11-01 | 주식회사 현대오토넷 | 터치 패널 노이즈 제거 방법 |
US8279180B2 (en) * | 2006-05-02 | 2012-10-02 | Apple Inc. | Multipoint touch surface controller |
JP2006351027A (ja) * | 2006-07-03 | 2006-12-28 | Nintendo Co Ltd | 情報処理プログラム及び情報処理装置 |
JP2008033739A (ja) * | 2006-07-31 | 2008-02-14 | Sony Corp | 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置 |
US8519963B2 (en) * | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display |
WO2008095132A2 (en) * | 2007-01-31 | 2008-08-07 | Perceptive Pixel, Inc. | Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques |
TWI444876B (zh) * | 2007-04-05 | 2014-07-11 | Qrg Ltd | 二維位置感應器 |
US7936341B2 (en) * | 2007-05-30 | 2011-05-03 | Microsoft Corporation | Recognizing selection regions from multiple simultaneous inputs |
US7916126B2 (en) * | 2007-06-13 | 2011-03-29 | Apple Inc. | Bottom-up watershed dataflow method and region-specific segmentation based on historic data to identify patches on a touch sensor panel |
US9740386B2 (en) * | 2007-06-13 | 2017-08-22 | Apple Inc. | Speed/positional mode translations |
US8059101B2 (en) * | 2007-06-22 | 2011-11-15 | Apple Inc. | Swipe gestures for touch screen keyboards |
DE112008001800B4 (de) * | 2007-07-12 | 2020-07-30 | Atmel Corporation | Zweidimensionales Touchpanel |
US20090174675A1 (en) | 2008-01-09 | 2009-07-09 | Dave Gillespie | Locating multiple objects on a capacitive touch pad |
US20090207140A1 (en) * | 2008-02-19 | 2009-08-20 | Sony Ericsson Mobile Communications Ab | Identifying and responding to multiple time-overlapping touches on a touch panel |
US9823784B2 (en) * | 2008-04-10 | 2017-11-21 | Atmel Corporation | Capacitive touch screen with noise suppression |
KR101077854B1 (ko) * | 2008-05-22 | 2011-10-31 | (주)멜파스 | 복수의 접촉 입력을 감지하는 방법 및 장치 |
US8054300B2 (en) * | 2008-06-17 | 2011-11-08 | Apple Inc. | Capacitive sensor panel having dynamically reconfigurable sensor size and shape |
KR20100002849A (ko) | 2008-06-30 | 2010-01-07 | (주)엠앤소프트 | 터치스크린에서 입력신호에 대한 디스플레이 처리 방법 |
US20100162181A1 (en) * | 2008-12-22 | 2010-06-24 | Palm, Inc. | Interpreting Gesture Input Including Introduction Or Removal Of A Point Of Contact While A Gesture Is In Progress |
-
2010
- 2010-06-30 US US12/827,983 patent/US9134843B2/en active Active
-
2011
- 2011-06-24 CN CN201180041943.3A patent/CN103069364B/zh active Active
- 2011-06-24 JP JP2013518508A patent/JP5899568B2/ja active Active
- 2011-06-24 WO PCT/US2011/041853 patent/WO2012012099A2/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN103069364A (zh) | 2013-04-24 |
WO2012012099A3 (en) | 2012-03-15 |
US9134843B2 (en) | 2015-09-15 |
JP2013534013A (ja) | 2013-08-29 |
US20120001855A1 (en) | 2012-01-05 |
CN103069364B (zh) | 2015-12-02 |
WO2012012099A2 (en) | 2012-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105556443B (zh) | 使用动态阈值对压感板的点击检测的方法和设备 | |
JP5862898B2 (ja) | 動作モードを変更する方法および装置 | |
KR102450301B1 (ko) | 중간 차폐 전극층을 채용한 포스 및 근접 센싱을 위한 디바이스 및 방법 | |
US8902191B2 (en) | Proximity sensing for capacitive touch sensors | |
US9946425B2 (en) | Systems and methods for switching sensing regimes for gloved and ungloved user input | |
US20130154933A1 (en) | Force touch mouse | |
US20120161791A1 (en) | Methods and apparatus for determining input objects associated with proximity events | |
JP2010134895A (ja) | 選択的入力信号拒否及び修正 | |
US9405383B2 (en) | Device and method for disambiguating region presses on a capacitive sensing device | |
JP6659670B2 (ja) | 局部的な力感知のためのデバイス及び方法 | |
US9519360B2 (en) | Palm rejection visualization for passive stylus | |
JP5899568B2 (ja) | 入力物体を区別するシステム及び方法 | |
US9823767B2 (en) | Press and move gesture | |
WO2016018530A1 (en) | Improved stackup for touch and force sensing | |
TW202316257A (zh) | 具有存在偵測的電容式指向桿組件 | |
JP2018525709A (ja) | ランドリフトイベントの位置フィルタリング |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140618 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140618 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150917 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5899568 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |