JP2014510987A - タッチセンサ式入力デバイス上のクリックの曖昧性解消 - Google Patents

タッチセンサ式入力デバイス上のクリックの曖昧性解消 Download PDF

Info

Publication number
JP2014510987A
JP2014510987A JP2014505383A JP2014505383A JP2014510987A JP 2014510987 A JP2014510987 A JP 2014510987A JP 2014505383 A JP2014505383 A JP 2014505383A JP 2014505383 A JP2014505383 A JP 2014505383A JP 2014510987 A JP2014510987 A JP 2014510987A
Authority
JP
Japan
Prior art keywords
input device
touch
sensitive input
fingers
reporting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014505383A
Other languages
English (en)
Other versions
JP6244298B2 (ja
JP2014510987A5 (ja
Inventor
デ ロス レイエス アンドレウ
タボネ リアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2014510987A publication Critical patent/JP2014510987A/ja
Publication of JP2014510987A5 publication Critical patent/JP2014510987A5/ja
Application granted granted Critical
Publication of JP6244298B2 publication Critical patent/JP6244298B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/046Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

タッチセンサ式入力デバイスの表面は、クリックまたは他の操作を行うためにユーザが押圧し得る、物理的ボタンとしての機能を果たし得る。例えば、ユーザは、左クリックのために、1本の指で入力デバイスの表面を押圧し得、また、右クリックのために、2本の指で入力デバイスの表面を押圧し得る。一態様において、ユーザが入力デバイスの表面を押圧したときに、左クリックまたは右クリックを検出するためのシステムが提供される。システムが、最初に、入力デバイスの表面が押圧されたことを検出すると、システムは、ユーザが表面を1本の指で押圧しているのか、2本の指で押圧しているのかという判定を行う前に、短時間待機し得る。この時間中に、システムは、より信頼性のある判定を行うために、さらなる情報を収集し得る。
【選択図】 図1

Description

関連出願の相互参照
本出願は、2011年4月13日に出願された米国特許仮出願第61/475,213号、名称「CLICK DISAMBIGUATION ON A TOUCH−SENSITIVE INPUT DEVICE」の利益を主張するものであり、その開示は、全ての目的に対して本明細書に参照によりその全体が組み込まれる。
本開示は、概して、タッチセンサ式入力デバイス上のクリックに関する。
ユーザは、タッチセンサ式入力デバイス(例えば、タッチパッド)を介して、コマンドをコンピューティングシステム(例えば、ラップトップ)に入力し得る。例えば、ユーザは、ページをスクロールするために入力デバイスの表面を横断して指を移動させ得、またはコンピューティングシステム上に表示されるポインタを移動させ得る。別の例において、ユーザは、1本以上の指でタッチセンサ式入力デバイスの表面を押圧することによって、クリックを行い得る。
タッチセンサ式入力デバイスの表面は、クリックまたは他の操作を行うためにユーザが押圧し得る、物理的ボタンとしての機能を果たし得る。例えば、ユーザは、左クリックのために、1本の指で入力デバイスの表面を押圧し得、また、右クリックのために、2本の指で入力デバイスの表面を押圧し得る。
本開示の一態様において、ユーザが入力デバイスの表面を押圧したときに、左クリックまたは右クリックを検出するためのシステムが提供される。システムが、最初に、入力デバイスの表面が押圧されたことを検出すると、システムは、ユーザが入力デバイスの表面を1本の指で押圧しているのか、2本の指で押圧しているのかという判定を行う前に、短時間待機し得る。この時間中に、システムは、より信頼性のある判定を行うために、さらなる情報を収集し得る。
本開示の別の態様において、タッチセンサ式入力デバイスを使用して生成されるボタンアクションを報告する、コンピュータにより実現される方法が提供される。本方法は、タッチセンサ式入力デバイスの表面が押圧されたと判定するステップと、表面が押圧された後に、タッチセンサ式入力デバイスの表面にある指の数を検出するステップと、タッチセンサ式入力デバイスの表面で検出された指の数が2本である場合、右ボタン押下を報告するステップと、を含む。本方法はまた、タッチセンサ式入力デバイスの表面で検出された指の数が1本である場合、ある時間が経過するまで、または表面がもはや押圧されなくなるまで、待機するステップ、および待機ステップ中またはその後に、タッチセンサ式入力デバイスの表面で検出された指の数に基づいて、ボタンアクションを報告するステップも含む。
本開示のさらなる態様において、処理ユニットに、タッチセンサ式入力デバイスを使用して生成されるボタンアクションを報告する方法を実行させるための、機械が読み出し可能な命令を備える、機械が読み出し可能な記憶媒体が提供される。本方法は、タッチセンサ式入力デバイスの表面が押圧されたと判定するステップと、表面が押圧された後に、タッチセンサ式入力デバイスの表面にある指の数を検出するステップと、タッチセンサ式入力デバイスの表面で検出された指の数が2本である場合、第1のボタンアクションを報告するステップと、を含む。本方法はまた、タッチセンサ式入力デバイスの表面で検出された指の数が1本である場合、ある時間が経過するまで、またはタッチセンサ式入力デバイスの表面がもはや押圧されなくなるまで、待機するステップ、および待機ステップ中またはその後に、タッチセンサ式入力デバイスの表面で検出された指の数に基づいて、ボタンアクションを報告するステップも含む。
本開示のさらに別の態様において、タッチセンサ式入力デバイスの使用に対応するジェスチャーを報告するためのシステムが提供される。本システムは、タッチセンサ式入力デバイスと、処理ユニットとを含む。処理ユニットは、タッチセンサ式入力デバイスの表面が押圧されたと判定し、表面が押圧された後に、タッチセンサ式入力デバイスの表面にある指の数を検出し、タッチセンサ式入力デバイスの表面で検出された指の数が2本である場合、第1のジェスチャーを報告するように構成される。処理ユニットはまた、タッチセンサ式入力デバイスの表面で検出された指の数が1本である場合、ある時間が経過するまで、または表面がもはや押圧されなくなるまで、待機し、待機ステップ中またはその後に、タッチセンサ式入力デバイスの表面で検出された指の数に基づいて、ジェスチャーを報告するようにも構成される。
本発明のさらなる特徴および利点は、下の説明に記述され、部分的にはその説明から明らかになり、または本発明の実践によって学習され得る。本発明の利点は、本書面の説明、ならびに添付図面で特に指摘される構造によって実現および達成されるであろう。
本開示の特定の態様による、例示的なシステムの概念図である。
本開示の特定の態様による、左クリックを行うために1本の指でタッチセンサ式入力デバイスの表面を押圧する実施例を示す図である。
本開示の特定の態様による、右クリックを行うために2本の指でタッチセンサ式入力デバイスの表面を押圧する実施例を示す図である。
本開示の特定の態様による、右クリックまたは左クリックを検出する例示的な方法のフローチャートである。
図1のシステムを実現することができる例示的なコンピュータシステムを例示するブロック図である。
下の詳細な説明では、本開示の十分な理解を提供するために、多くの特定の詳細を記述する。しかしながら、当業者には、これらの特定の詳細のいくつかがなくとも、本開示が実践され得ることが明らかになるであろう。他の事例では、よく知られた構造および技術は、本開示を不明瞭にしないために、詳細に示されていない。
図1は、本開示の特定の態様による、例示的なシステム110を示す。システム110は、タッチセンサ式入力デバイス120と、フレーム取り込みモジュール125と、識別情報(ID)モジュール130と、クリック検出モジュール135と、およびジェスチャー認識モジュール140とを含む。タッチセンサ式入力デバイス120は、タッチパッドを含み得る。
一態様において、入力デバイス120は、入力デバイス120の表面にある1本以上の指、入力デバイス120の表面にある各指の位置(例えば、(x,y)座標)、および各指の圧力を検出し得、ここで、該圧力は、入力デバイス120の表面との接触面積として定義され得る。一態様において、フレーム取り込みモジュール125は、フレームを逐次的に取り込んで出力し得、ここで、各フレームは、所与の時間インスタンスで、入力デバイス120の表面にある各指の検出位置(例えば、(x,y)座標)および圧力(例えば、接触面積)を含む。各フレームは、正しいフレームシーケンスを維持するのを補助するために、逐次的な識別子等の、さらなる情報を含み得る。フレーム取り込みモジュール125は、例えば、毎秒80フレームの速度でフレームを取り込み得る。しかしながら、対象技術は、このフレーム速度に限定されない。フレーム速度は、入力デバイス120の製造業者、入力デバイス120のモデル、および/または他の因子に応じて変動し得る。フレーム取り込みモジュール125は、下でさらに詳細に論じるように、さらなる処理のために、取り込んだ各フレームをIDモジュール130に出力し得る。
一態様において、IDモジュール130は、入力デバイス120の表面で検出された各指にIDを割り当てるように構成され得る。あるフレームで新しい指が検出されると、IDモジュールは、ユーザの接触に新しいIDを割り当て、その割り当てられたIDによって、後続フレームにおいて該指を識別する。各フレームについて、IDモジュール130は、フレームの中の各検出位置(例えば、(x,y)座標)を、対応する指に割り当てられたIDと関連付け得る。
IDモジュール130は、本開示のいくつかの態様によれば、指と掌または親指とを区別することができる。親指または掌は、指と異なって報告することができ、または報告から除外することができる。一態様において、親指または掌は、IDモジュールによって指とみなされない。親指および掌を報告する、および他に取り扱うための他の手法を使用することができる。
IDは、ジェスチャー認識モジュール140が、異なるフレームの中のどの検出位置が同じ指に属するのかを識別し、したがって、特定の指の動きを、その割り当てられたIDを使用して追跡することを可能にする。例えば、ジェスチャー認識モジュール140は、ある指に割り当てられたIDを使用して、2つの連続するフレームについて該指の検出位置を決定し、該検出位置に基づいて、フレーム間の該指の動きを推定し得る。ジェスチャー認識モジュール140は、次いで、動きをジェスチャー(例えば、ポインタの動き、スクロール等)に変換し得る。したがって、IDは、ジェスチャー認識モジュール140が、入力デバイス120の表面にある個々の指を識別し、追跡することを可能にする。
一態様において、ユーザは、1本以上の指で表面に充分な下向きの力を印加することによって、タッチセンサ式入力デバイス120(例えば、タッチパッド)の表面を押圧し得る。したがって、入力デバイス120の表面は、ユーザが操作(例えば、クリック)を行うために押下することができる、物理的ボタンの機能を果たし得る。例えば、ユーザは、(図2Aで示される)1本の指で入力デバイス120の表面210を押圧し得、表面210が、左クリックを行うために復帰することを可能にし得る。別の例において、ユーザは、(図2Bで示される)2本の指で入力デバイス120の表面210を押圧し得、表面210が、右クリックを行うために復帰することを可能にし得る。本開示において、入力デバイス120の表面210は、ボタンとして使用されるときに、物理的ボタンと称され得る。
クリックは、2つの別々のアクション、すなわち、物理的ボタンを押下することと、次いで物理的ボタンを復帰させることとを含み得る。物理的ボタンを押下するときに物理的ボタン上にある指の数は、クリックが右クリックであるのか、左クリックであるのかを判定し得る。例えば、物理的ボタンを押下するときに2本の指が物理的ボタン上にある場合は、右ボタン押下が報告される。次いで、物理的ボタンを押下した状態を維持しながら、2本の指のうちの1本が外される。この場合、物理的ボタンが復帰するときに、右ボタン復帰が右ボタン押下と一致していることが報告され、右クリックが行われる。
一態様において、各フレームは、物理的ボタン(入力デバイス120の表面210)が押下されているのか、復帰したのかを示す、表示子(例えば、ビット)を示し得る。クリック検出モジュール135は、ユーザによる左クリックまたは右クリックを検出するために、この情報および物理ボタン(入力デバイス120の表面210)上の指の数を使用し得る。例えば、現行フレームが、物理的ボタンが押下されていることを示し、先行フレームが、物理的ボタンが復帰したことを示すときに、クリック検出モジュール135は、右ボタン押下または左ボタン押下を検出するために、現行フレームにおける指の数を決定し得る。現行フレームが、物理的ボタン上に2本の指があることを示す場合、クリック検出モジュール135は、右ボタン押下を検出し、右ボタン押下をジェスチャー認識モジュール140に報告し得る。この場合、物理的ボタンが復帰したときに、右クリックが検出される。現行フレームが、物理的ボタン上に1本の指だけがある、またはいかなる指もない場合、クリック検出モジュール135は、左ボタン押下を検出し、左ボタン押下をジェスチャー認識モジュール140に報告し得る。この場合、物理的ボタンが復帰したときに、左クリックが検出される。
しかしながら、クリック検出モジュール135は、ユーザが右クリックを意図するときに、左クリックを誤って検出し得る。これは、例えば、ユーザが空中から2本の指で物理的ボタン(例えば、入力デバイス120の表面210)上を押下するときに起こり得る。この例において、物理的ボタンが押下されていることを示す第1のフレームは、物理的ボタン上に指があることを示し得ない。これは、入力デバイス120が、物理的ボタンが押下されていることを報告することに対して、物理的ボタン上の指を報告することが遅れ得るからである。その結果、クリック検出モジュール135は、ユーザが右クリックを意図するときに、左クリックを誤って検出し得る。別の例において、ユーザが空中から2本の指で物理的ボタンを押下することを意図するときに、2本の指のうちの1本が、もう1本の指が到達する前に、物理的ボタンに到達し得る。この例において、物理的ボタンが押下されていることを示す第1のフレームは、第1の指が物理的ボタンに到達したことだけしか示し得ない。その結果、クリック検出モジュール135は、ユーザが右クリックを意図するときに、左クリックを誤って検出し得る。
これに対処するために、クリック検出モジュール135は、物理的ボタンが最初に押下された後に、右ボタン押下または左ボタン押下を報告することを、(例えば、事前設定された閾値に基づいて)短時間待機し得る。クリック検出モジュール135は、この時間を使用して、1つ以上の後続フレームからさらなる情報を受け取り、該さらなる情報を使用して、ユーザが1本の指で押下しているのか、2本の指で押下しているのかという、より信頼性のある判定を行い得る。
ジェスチャー認識モジュール140および/またはクリック検出モジュール135は、本開示のいくつかの態様によれば、親指または掌を無視することができる。
図3は、右クリックまたは左クリックを検出するために、クリック検出モジュール135によって行われ得る、例示的な方法を示す。本方法は、クリック検出モジュール135が、物理的ボタンが押下されていることを示す第1のフレームを受け取るときに開始する。これは、現行フレームが、物理的ボタンが押下されていることを示し、先行フレームが、物理的ボタンが復帰したことを示すときに起こり得る。
ステップ310で、クリック検出モジュール135は、現行フレームが物理的ボタン(入力デバイス120の表面210)上で2本の指を示すかどうかを判定する。現行フレームが2本の指を示す場合、クリック検出モジュール135は、ステップ320で、右ボタン押下を報告する。そうでない場合、クリック検出モジュール135は、ステップ330へ進む。
ステップ330で、クリック検出モジュール135は、左ボタン押下または右ボタン押下を報告するための制限時間(例えば、30ミリ秒)を開始する。制限時間は、クリック検出モジュール135が、1つ以上の後続フレームから十分な情報を受け取って、ユーザの意図を確実に判定するのに必要な時間として経験的に決定され得る。
ステップ340で、クリック検出モジュール135は、制限時間を超えたかどうかを判定する。制限時間を超えた場合、クリック検出モジュール135は、左ボタン押下を報告する。これは、例えば、制限時間内で、物理的ボタンがまだ押下されており、クリック検出モジュール135が、2本の指を示す後続フレームを受け取っていないときに起こり得る。そうでない場合、クリック検出モジュール135は、ステップ355へ進む。
ステップ355で、クリック検出モジュール135は、次のフレームが、物理的ボタンが押下されていることを示すかどうかを判定する。次のフレームが、物理的ボタンが押下されていることを示す場合、クリック検出モジュール135は、ステップ360へ進む。そうでない場合、クリック検出モジュール135は、ステップ375へ進む。ステップ375は、次のフレームが、物理的ボタンが復帰したことを示すときに行われる。
ステップ360で、クリック検出モジュール135は、次のフレームが2本の指を示すかどうかを判定する。次のフレームが2本の指を示す場合、クリック検出モジュール135は、ステップ365で、右ボタン押下を報告する。そうでない場合、クリック検出モジュール135は、ステップ340に戻る。制限時間内で後続フレームが受け取られる場合、クリック検出モジュール135は、該後続フレームについてステップ355〜385を繰り返し得る。
ステップ375で、クリック検出モジュール135は、次のフレームが2本の指を示すかどうかを判定する。次のフレームが2本の指を示す場合、クリック検出モジュール135は、ステップ380で、右ボタン押下および右ボタン復帰を報告する。クリック検出モジュール135は、ステップ375が行われるときに物理的ボタンが復帰しているので、右ボタン復帰を報告する。そうでない場合、クリック検出モジュール135は、ステップ385で、左ボタン押下および左ボタン復帰を報告する。
上の例において、クリック検出モジュール135は、制限時間内で後続フレームが、ボタンが押下されていることを示し、かつ2本の指を示す場合、制限時間が終了する前に、右ボタン押下を報告し得る。クリック検出モジュール135はまた、制限時間内で後続フレームが、ボタンが復帰したことを示す場合、制限時間が終了する前に、右ボタン押下または左ボタン押下も報告し得る。この場合、クリック検出モジュール135は、後続フレームが2本の指を示す場合に、右ボタン押下および右ボタン復帰を報告し得、また、後続フレームが1本の指を示す、またはいかなる指も示さない場合に、左ボタン押下および左ボタン復帰を報告し得る。
一態様において、クリック検出モジュール135は、制限時間が終了するまで、ボタン押下が右ボタン押下なのか、左ボタン押下なのかという判定を行い得ない。また、対象技術の態様は、2つを超える状態(例えば、左クリック対右クリック)間の曖昧性を解消するためにも使用され得る。例えば、対象技術は、3つ以上の異なるタイプのクリックまたは他のジェスチャー間の曖昧性を解消するために使用され得る。
本開示の一態様によれば、物理的ボタン押下は、指が検出されることなく検出することができる。例えば、物理的ボタン押下は、いくつかの態様では指として示されることから除外することができる、親指または掌によって生じさせることができる。別の態様によれば、異なる制限時間を、異なる数の検出された指に適用することができる。例えば、異なる制限時間を、検出されなかった指、検出された1本の指、および検出された2本の指に適用することができる。検出された指の数に対する制限時間が終了すると、クリック検出モジュールは、次のフレームで示される指の数に基づいて、ボタンアクションを報告することができる。
さらなる態様では、2つを超える状態間の曖昧性を解消するときに、異なる制限時間を使用することができる。例えば、4つの可能な状態として、いかなる指にもよらないクリック、1本の指によるクリック、2本の指によるクリック、および3本の指によるクリックが挙げられるが、それらに限定されず、これらのそれぞれは、本開示のいくつかの態様によれば、異なるボタンアクションを表すことができる。ボタンアクションはまた、2つの異なる数の検出された指によって表すこともできる。例えば、いかなる親指以外の指にもよらない(例えば、掌または親指による)クリックおよび1本の指によるクリックはどちらも、左ボタン押下アクションを表すことができる。別の例の場合、2本の指によるクリックおよび3本の指によるクリックはどちらも、右ボタン押下アクションを表すことができる。本開示の態様は、これらの例に限定されない。
図4は、例示的なコンピューティングシステム400であって、それによって対象技術のいくつかの実現例が実現され得る、例示的なコンピューティングシステム400を例示する。システム400は、コンピュータ、電話、PDA、タブレット、または任意の他の種類の電子デバイスとすることができる。そのようなシステム400は、種々のタイプのコンピュータが読み出し可能な媒体と、種々の他のタイプのコンピュータが読み出し可能な媒体のためのインターフェースとを含む。システム400は、バス405と、処理ユニット(複数可)410と、システムメモリ415と、リードオンリーメモリ420と、ストレージデバイス425と、入力インターフェース430と、出力インターフェース435と、ネットワークインターフェース440とを含み得る。
バス405は、システム400の多数の内蔵デバイスと通信可能に接続する、全てのシステム、周辺機器、およびチップセットバスを集合的に表す。例えば、バス405は、処理ユニット(複数可)410を、リードオンリーメモリ420、システムメモリ415、およびストレージデバイス425と通信可能に接続する。
これらの種々のメモリ装置から、処理ユニット410(複数可)は、上で説明した種々の機能を行うために、命令を取り出し、その命令を実行し得る。例えば、処理ユニット(複数可)は、図1で例示される種々のモジュールの機能を行うために、命令を実行し得る。処理ユニット(複数可)は、異なる実現例において、シングルプロセッサまたはマルチコアプロセッサとすることができる。
リードオンリーメモリ(ROM)420は、システム400の処理ユニット(複数可)410および他のモジュールによって必要とされる、静的データおよび命令を記憶することができる。一方で、ストレージデバイス425は、読み出しおよび書き込みメモリデバイスであり得る。このデバイスは、システム400の電源が切られたときであっても命令およびデータを記憶する、不揮発性メモリユニットを備え得る。本発明のいくつかの実現例は、ストレージデバイス425として、マスストレージデバイス(磁気ディスクまたは光ディスク、およびその対応するディスクドライブ等)を使用し得る。
他の実現例は、ストレージデバイス425として、リムーバブルストレージデバイス(フラッシュドライブ、フロッピーディスク、およびその対応するディスクドライブ等)を使用し得る。システムメモリ415は、ランダムアクセスメモリ等の揮発性読み出しおよび書き込みメモリであり得る。システムメモリ415は、プロセッサが実行時に必要とする命令およびデータの一部を記憶し得る。いくつかの実現例において、上で説明した種々の過程を実行するための命令は、システムメモリ415、ストレージデバイス425、および/またはリードオンリーメモリ420に記憶され得る。
バス405はまた、入力インターフェース430および出力インターフェース435にも接続し得る。入力インターフェース430は、タッチセンサ式入力デバイス120を含み得る。出力インターフェース435は、システム400によって生成される表示画像を提供することができる。任意選択の出力インターフェース435は、プリンタおよび陰極線管(CRT)または液晶ディスプレイ(LCD)等の表示デバイスとインターフェースすることができる。いくつかの実現例は、入力デバイスおよび出力デバイスの双方として機能する、タッチスクリーン等のデバイスとインターフェースすることができる。
バス405はまた、システム400を、ネットワークアダプタ(図示せず)を通して、ネットワークインターフェース440にも連結し得る。このようにして、コンピュータは、コンピュータのネットワーク(ローカルエリアネットワーク(「LAN」)、ワイドエリアネットワーク(「WAN」)、またはイントラネット等)、またはインターネット等のネットワークの相互接続したネットワークの一部とすることができる。システム400の任意のまたは全ての構成要素は、本発明と連携して使用することができる。
本明細書は、多くの細目を含むが、これらは、特許請求され得るものの範囲を限定するものと解釈すべきではなく、本主題の特定の実現例を説明するものとして解釈すべきである。別個の実施形態に関連して本明細書で説明される特定の特徴を単一の実施形態に組み合わせて実現することもできる。その逆に、単一の実施形態に関連して説明される種々の特徴を、複数の実施形態で別個に、または任意の好適な部分的組み合わせで実現することもできる。さらに、特徴は、特定の組み合わせで作用するように上で説明され得、さらに最初に、そのように特許請求され得るが、特許請求される組み合わせからの1つ以上の特徴は、いくつかの場合において、その組み合わせから実行することができ、特許請求される組み合わせは、部分的組み合わせまたは部分的組み合わせの変形例を対象とし得る。
同様に、操作は、図では特定の順序で表されるが、これは、望ましい結果を達成するために、そのような操作が、示される特定の順序で、または逐次的な順序で行われること、または、その全ての例示される操作が行われることを必要とすると理解すべきではない。特定の状況では、マルチタスクおよび並行処理を行うことが有利であり得る。さらに、上で説明される態様における種々のシステム構成要素の分離は、全ての態様においてそのような分離を必要とすると理解するべきではなく、説明されるプログラム構成要素およびシステムは、一般に、単一のソフトウェア製品にともに統合することができるか、または多数のソフトウェア製品にパッケージ化することができると理解すべきである。
これらの、および他の実現例は、以下の特許請求の範囲の範囲内である。

Claims (21)

  1. タッチセンサ式入力デバイスを使用して生成されるボタンアクションを報告する、コンピュータにより実現される方法であって、
    前記タッチセンサ式入力デバイスの表面が押圧されたと判定するステップと、
    前記表面が押圧された後に、前記タッチセンサ式入力デバイスの前記表面にある指の数を検出するステップと、
    前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が2本である場合、右ボタン押下アクションを報告するステップと、
    前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が1本である場合、ある時間が経過するまで、または前記表面がもはや押圧されなくなるまで、待機するステップと、
    前記待機ステップ中またはその後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数に基づいて、前記ボタンアクションを報告するステップと、
    を含む、コンピュータにより実現される方法。
  2. 前記時間は、多数のフレームを備え、前記タッチセンサ式入力デバイスの前記表面にある前記指の数を検出する前記ステップは、前記時間が経過するまで、または前記表面がもはや押圧されなくなるまで、各フレームについて繰り返される、請求項1に記載のコンピュータにより実現される方法。
  3. 前記ボタンアクションを報告することはさらに、前記フレームのうちの1つについて、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が2本である場合に、前記右ボタン押下アクションを報告することを含む、請求項2に記載のコンピュータにより実現される方法。
  4. 前記ボタンアクションを報告することはさらに、前記時間が経過し、前記時間中の前記フレームの全てについて、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が1本であった場合に、左ボタン押下アクションを報告することを含む、請求項2に記載のコンピュータにより実現される方法。
  5. 前記ボタンアクションを報告することはさらに、
    前記時間が経過する前に、前記タッチセンサ式入力デバイスの前記表面がもはや押圧されていないと判定することと、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数に基づいて、前記ボタンアクションを報告することと、を含む、請求項1に記載のコンピュータにより実現される方法。
  6. 前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数に基づいて、前記ボタンアクションを報告することはさらに、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面の前記指の数を検出することと、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が2本である場合、前記右ボタン押下アクションを報告することと、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が1本である場合、左ボタン押下アクションを報告することと、を含む、請求項5に記載のコンピュータにより実現される方法。
  7. 前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数に基づいて、前記ボタンアクションを報告することはさらに、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面の前記指の数を検出することと、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が2本である場合、第1のボタン押下および復帰アクションを報告することと、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が1本である場合、第2のボタン押下および復帰アクションを報告することと、を含む、請求項5に記載のコンピュータにより実現される方法。
  8. プロセッサに、タッチセンサ式入力デバイスを使用して生成されるボタンアクションを報告する方法を実行させるための、機械が読み出し可能な命令を備える、機械が読み出し可能な記憶媒体であって、前記方法は、
    前記タッチセンサ式入力デバイスの表面が押圧されたと判定するステップと、
    前記表面が押圧された後に、前記タッチセンサ式入力デバイスの前記表面にある指の数を検出するステップと、
    前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が2本である場合、第1のボタンアクションを報告するステップと、
    前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が1本である場合、ある時間が経過するまで、または前記タッチセンサ式入力デバイスの前記表面がもはや押圧されなくなるまで、待機するステップと、
    前記待機ステップ中またはその後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数に基づいて、前記ボタンアクションを報告するステップと、
    を含む、機械が読み出し可能な記憶媒体。
  9. 前記時間は、多数のフレームを備え、前記タッチセンサ式入力デバイスの前記表面にある前記指の数を検出する前記ステップは、前記時間が経過するまで、または前記表面がもはや押圧されなくなるまで、各フレームについて繰り返される、請求項8に記載の機械が読み出し可能な記憶媒体。
  10. 前記ボタンアクションを報告することはさらに、前記フレームのうちの1つについて、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が2本である場合に、前記第1のボタンアクションを報告することを含む、請求項9に記載の機械が読み出し可能な記憶媒体。
  11. 前記ボタンアクションを報告することはさらに、前記時間が経過し、前記時間中の前記フレームの全てについて、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が1本であった場合に、第2のボタンアクションを報告することを含む、請求項9に記載の機械が読み出し可能な記憶媒体。
  12. 前記ボタンアクションを報告することはさらに、
    前記時間が経過する前に、前記タッチセンサ式入力デバイスの前記表面がもはや押圧されていないと判定することと、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数に基づいて、前記ボタンアクションを報告することと、を含む、請求項8に記載の機械が読み出し可能な記憶媒体。
  13. 前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数に基づいて、前記ボタンアクションを報告することはさらに、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面の前記指の数を検出することと、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が2本である場合、前記第1のボタンアクションを報告することと、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が1本である場合、前記第2のボタンアクションを報告することと、を含む、請求項12に記載の機械が読み出し可能な記憶媒体。
  14. 前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数に基づいて、前記ボタンアクションを報告することはさらに、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面の前記指の数を検出することと、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が2本である場合、前記第1のボタンアクションおよび前記第2のボタンアクションを報告することと、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が1本である場合、第3のボタンアクションおよび第4のボタンアクションを報告することと、を含む、請求項12に記載の機械が読み出し可能な記憶媒体。
  15. タッチセンサ式入力デバイスの使用に対応するジェスチャーを報告するためのシステムであって、
    前記タッチセンサ式入力デバイスと、
    処理ユニットであって、
    前記タッチセンサ式入力デバイスの表面が押圧されたと判定し、
    前記表面が押圧された後に、前記タッチセンサ式入力デバイスの前記表面にある指の数を検出し、
    前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が2本である場合、第1のジェスチャーを報告し、
    前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が1本である場合、ある時間が経過するまで、または前記表面がもはや押圧されなくなるまで、待機し、かつ、
    前記待機ステップ中またはその後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数に基づいて、前記ジェスチャーを報告するように構成される、処理ユニットと、
    を備える、システム。
  16. 前記時間は、多数のフレームを備え、前記処理ユニットはさらに、前記時間が経過するまで、または前記表面がもはや押圧されなくなるまで、各フレームについて、前記タッチセンサ式入力デバイスの前記表面にある前記指の数を検出することを繰り返すように構成される、請求項15に記載のシステム。
  17. 前記処理ユニットは、前記フレームのうちの1つについて、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が2本である場合に、前記第1のジェスチャーを報告するように構成されることによって、前記ジェスチャーを報告するように構成される、請求項16に記載のシステム。
  18. 前記処理ユニットは、前記時間が経過し、前記時間中の前記フレームの全てについて、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が1本であった場合に、第2のジェスチャーを報告するように構成されることによって、前記ジェスチャーを報告するように構成される、請求項16に記載のシステム。
  19. 前記処理ユニットは、
    前記時間が経過する前に、前記タッチセンサ式入力デバイスの前記表面がもはや押圧されていないと判定し、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数に基づいて、前記ジェスチャーを報告するように構成されることによって、前記ジェスチャーを報告するように構成される、請求項15に記載のシステム。
  20. 前記処理ユニットは、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面の前記指の数を検出し、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が2本である場合、前記第1のジェスチャーを報告し、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が1本である場合、前記第2のジェスチャーを報告するように構成されることによって、前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数に基づいて、前記ジェスチャーを報告するように構成される、請求項19に記載のシステム。
  21. 前記処理ユニットは、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面の前記指の数を検出し、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が2本である場合、前記第1のジェスチャーおよび前記第2のジェスチャーを報告し、
    前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数が1本である場合、第3のジェスチャーおよび第4のジェスチャーを報告するように構成されることによって、前記タッチセンサ式入力デバイスがもはや押圧されなくなった後に、前記タッチセンサ式入力デバイスの前記表面で検出された前記指の数に基づいて、前記ジェスチャーを報告するように構成される、請求項19に記載のシステム。
JP2014505383A 2011-04-13 2012-04-13 タッチセンサ式入力デバイス上のクリックの曖昧性解消 Active JP6244298B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161475213P 2011-04-13 2011-04-13
US61/475,213 2011-04-13
PCT/US2012/033680 WO2012142525A1 (en) 2011-04-13 2012-04-13 Click disambiguation on a touch-sensitive input device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016121104A Division JP6349348B2 (ja) 2011-04-13 2016-06-17 タッチセンサ式入力デバイス上のクリックの曖昧性解消

Publications (3)

Publication Number Publication Date
JP2014510987A true JP2014510987A (ja) 2014-05-01
JP2014510987A5 JP2014510987A5 (ja) 2017-09-07
JP6244298B2 JP6244298B2 (ja) 2017-12-06

Family

ID=46001835

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014505383A Active JP6244298B2 (ja) 2011-04-13 2012-04-13 タッチセンサ式入力デバイス上のクリックの曖昧性解消
JP2016121104A Active JP6349348B2 (ja) 2011-04-13 2016-06-17 タッチセンサ式入力デバイス上のクリックの曖昧性解消

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016121104A Active JP6349348B2 (ja) 2011-04-13 2016-06-17 タッチセンサ式入力デバイス上のクリックの曖昧性解消

Country Status (9)

Country Link
US (3) US8390593B2 (ja)
EP (1) EP2697704B1 (ja)
JP (2) JP6244298B2 (ja)
KR (1) KR101865638B1 (ja)
CN (1) CN103547990B (ja)
AU (1) AU2012242519B2 (ja)
BR (1) BR112013026291B1 (ja)
CA (1) CA2832974C (ja)
WO (1) WO2012142525A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8390593B2 (en) 2011-04-13 2013-03-05 Google Inc. Click disambiguation on a touch-sensitive input device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002003316A1 (en) * 2000-07-05 2002-01-10 Smart Technologies Inc. Camera-based touch system
JP2005108211A (ja) * 2003-09-16 2005-04-21 Smart Technol Inc ジェスチャ認識方法及びそれを組み込んだタッチシステム
US20080165141A1 (en) * 2007-01-05 2008-07-10 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793094A (ja) * 1993-09-24 1995-04-07 Matsushita Electric Ind Co Ltd 座標入力装置
JPH09146708A (ja) * 1995-11-09 1997-06-06 Internatl Business Mach Corp <Ibm> タッチパネルの駆動方法及びタッチ入力方法
US6208329B1 (en) 1996-08-13 2001-03-27 Lsi Logic Corporation Supplemental mouse button emulation system, method and apparatus for a coordinate based data input device
EP1717679B1 (en) * 1998-01-26 2016-09-21 Apple Inc. Method for integrating manual input
JP2000099269A (ja) * 1998-09-22 2000-04-07 Nec Corp マウス対応タッチパネル用入力装置
JP2003167669A (ja) * 2001-11-22 2003-06-13 Internatl Business Mach Corp <Ibm> 情報処理装置、プログラム及び座標入力方法
US20070046643A1 (en) * 2004-08-06 2007-03-01 Hillis W Daniel State-Based Approach to Gesture Identification
US7719522B2 (en) * 2004-09-24 2010-05-18 Apple Inc. Raw data track pad device and system
US8390593B2 (en) 2011-04-13 2013-03-05 Google Inc. Click disambiguation on a touch-sensitive input device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002003316A1 (en) * 2000-07-05 2002-01-10 Smart Technologies Inc. Camera-based touch system
JP2005108211A (ja) * 2003-09-16 2005-04-21 Smart Technol Inc ジェスチャ認識方法及びそれを組み込んだタッチシステム
US20080165141A1 (en) * 2007-01-05 2008-07-10 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices

Also Published As

Publication number Publication date
US20140320455A1 (en) 2014-10-30
US20120262400A1 (en) 2012-10-18
BR112013026291B1 (pt) 2021-06-15
AU2012242519B2 (en) 2015-11-05
EP2697704B1 (en) 2020-06-03
US9182873B2 (en) 2015-11-10
KR101865638B1 (ko) 2018-06-08
JP6244298B2 (ja) 2017-12-06
EP2697704A1 (en) 2014-02-19
US8773388B2 (en) 2014-07-08
CN103547990A (zh) 2014-01-29
CN103547990B (zh) 2016-05-04
JP6349348B2 (ja) 2018-06-27
KR20140034773A (ko) 2014-03-20
CA2832974A1 (en) 2012-10-18
WO2012142525A1 (en) 2012-10-18
JP2016181279A (ja) 2016-10-13
CA2832974C (en) 2018-01-23
AU2012242519A1 (en) 2013-10-24
BR112013026291A2 (pt) 2020-11-17
US20130176259A1 (en) 2013-07-11
US8390593B2 (en) 2013-03-05

Similar Documents

Publication Publication Date Title
EP2638452B1 (en) Resolving merged touch contacts
CN110058782B (zh) 基于交互式电子白板的触摸操作方法及其系统
US20120182238A1 (en) Method and apparatus for recognizing a pen touch in a device
US9116583B1 (en) Dampening thumb movement on a touch-sensitive input device
WO2019223461A1 (zh) 一种触摸检测方法和计算机可读存储介质
CN103635873A (zh) 触摸操作处理方法及终端设备
US20120249448A1 (en) Method of identifying a gesture and device using the same
US20120249599A1 (en) Method of identifying a multi-touch scaling gesture and device using the same
US20120249487A1 (en) Method of identifying a multi-touch shifting gesture and device using the same
TW201324318A (zh) 觸摸屏電子裝置及其控制方法
TW201203037A (en) Touch controlled electric apparatus and control method thereof
US20140267052A1 (en) Palm Check of a Touchpad
CN104025007A (zh) 检测第一和第二触摸以将数据文件与图形数据对象相关联
US20150253874A1 (en) Touch pad palm detection
JP6349348B2 (ja) タッチセンサ式入力デバイス上のクリックの曖昧性解消
KR20140122683A (ko) 터치지점들이 상대적으로 회전하는 터치이벤트 처리방법
WO2024103488A1 (zh) 接触式红外触控方法、设备及存储介质
JP2017102851A (ja) 情報処理装置、情報処理プログラム、および電子機器
US20120206397A1 (en) Ink control on tablet devices
WO2017185467A1 (zh) 一种可触摸控件移动方法及装置
WO2016017096A1 (ja) 情報処理装置、情報処理方法及びプログラム
TW201133326A (en) Touch control electronic apparatus and multiple windows management method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150410

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150420

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20150420

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150908

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150916

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151028

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151030

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160617

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160627

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160729

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170628

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20170726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171113

R150 Certificate of patent or registration of utility model

Ref document number: 6244298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250