JP2016512371A - タッチおよびホバー・アクションを組み合わせたタッチ・センサ上の入力相互作用 - Google Patents

タッチおよびホバー・アクションを組み合わせたタッチ・センサ上の入力相互作用 Download PDF

Info

Publication number
JP2016512371A
JP2016512371A JP2016502454A JP2016502454A JP2016512371A JP 2016512371 A JP2016512371 A JP 2016512371A JP 2016502454 A JP2016502454 A JP 2016502454A JP 2016502454 A JP2016502454 A JP 2016502454A JP 2016512371 A JP2016512371 A JP 2016512371A
Authority
JP
Japan
Prior art keywords
touch
hover
action
finger
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016502454A
Other languages
English (en)
Inventor
ウーリー,リチャード・ディー
Original Assignee
サーク・コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サーク・コーポレーション filed Critical サーク・コーポレーション
Publication of JP2016512371A publication Critical patent/JP2016512371A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

タッチおよびホバー・アクションの如何なる組み合わせとされるジェスチャを規定するシステムおよび方法であって、タッチおよびホバー・アクションは、如何なる順序および如何なる数の別個のタッチおよびホバー・アクションで組み合わされ、単一のジェスチャまたは一連のジェスチャを規定する。【選択図】図2

Description

本発明は、全般的に、タッチおよび近接感知の両方を実行することができるタッチ・センサに関するものである。ここでは、単一のジェスチャでタッチ・アクションと、非タッチ・アクション、即ちホバー・アクションとを組み合わせることができる。
本発明で用いることができるタッチパッド技術の一実施形態を記載することは、有用なものとなる。
具体的には、CIRQUE(登録商標)社製の相互容量感応タッチパッド技術は、液晶ディスプレイ(LCD)のようなディスプレイと組み合わせるときに本発明を実装するのに使用することができる。CIRQUE(登録商標)社製のタッチパッドは、相互容量感応デバイスであり、一例を図1にブロック図として示す。タッチパッドは、不透明な表面を使用するか、または透明な表面を用いて実装することができる。つまり、タッチパッドは、従来のタッチパッドとして、または、ディスプレイ上のタッチ感応表面として、即ちタッチスクリーンとして動作させることができる。
CIRQUE(登録商標)社製のタッチパッド技術では、行および列電極の格子を用いて、タッチパッドのタッチ感応エリアを規定する。通例、タッチパッドは約16×12電極、または空間に制約があるときには8×6電極の矩形格子である。これら行および列電極には、1つの感知電極が織りまぜられる。全ての位置測定は感知電極を通じて行われる。しかしながら、行および列電極は、感知電極としても動作することができ、つまり、少なくとも1つの電極が信号を駆動させ、他の電極が信号を検知するのに用いられる。
更に詳細には、図1は、CIRQUE(登録商標)社が教示する相互容量感応タッチパッド10を示し、タッチパッドの電極グリッドに行(12)および列(14)(XおよびY)電極を含む。タッチパッドにおける全ての測定パラメータは、タッチパッドの電極グリッド上にまた配置される単一の感知電極16から取得され、XまたはY電極12,14からではない。測定には固定した基準点は何ら用いられない。タッチパッド・センサ制御回路20は、様々なパターンでXおよびY電極12,14に直接送られる信号を、P,N発生器22,24から生成する。したがって、タッチパッド電極グリッド上の電極数とタッチパッド・センサ制御回路20上の駆動ピンの数の間には、1対1の対応がある。
タッチパッド10は、絶対容量測定に依存せずに、タッチパッド表面上の指(または他の容量型オブジェクト)の位置を決定することができる。タッチパッド10は、検知線16への電荷の不均衡を測定する。タッチパッド10上に指示物体(pointing object)がない場合、タッチパッド・センサ制御回路20は均衡状態にあり、検知線16上には電荷の不均衡はない。電極12,14上に容量電荷があることもあるし、そうでないこともある。CIRQUE(登録商標)社の方法論では、このことは無関係である。指示物体が容量性結合のために、指示物体が不均衡を生ずると、タッチパッド電極グリッドを備える複数の電極12,14上に容量変化が生ずる。測定するのは容量変化であって、電極12,14上における絶対容量値ではない。タッチパッド10は、検知線上において均衡を再確立するため即ち再現するために、検知線16に注入しなければならない電荷量を測定することによって、容量変化を判定する。
指のような指示物体の位置を反映するために、タッチパッド10は、X電極12について、およびY電極14についての2つの完全な測定サイクル(4つの完全な測定)を作らなければならない。そのステップは、X電極12およびY電極14の両方について次のとおりとなる。
第一に、P,N発生器22からの第1信号によって電極のグループ(即ちX電極12の選択グループ)が駆動され、相互容量測定デバイス26を用いた第1測定が行われて、最大の信号の位置を判定する。しかしながら、1つの測定からでは、指が、最大信号に最も近い電極の一方の側上にあるか他方の側上にあるかについて知ることは不可能である。
次に、1本の電極によって最も近い電極の一方の側にシフトして、電極のグループは、再度信号によって駆動される。換言すれば、グループの一方の側への電極が即座に追加される一方で、元のグループの他方の側の電極はもはや駆動されない。
第三に、電極の新規のグループが駆動され、2回目の測定が行われる。
最後に、測定した2つの信号を比較する数式を用いて、指の位置が判定される。
したがって、タッチパッド10は、指の位置を判定するために、静電容量の変化を測定する。上述した全てのハードウェアおよび方法論は、タッチパッド・センサ制御回路20がタッチパッド10の電極12,14を直接駆動させることを想定する。つまり、通例の12×16個の電極グリッドのタッチパッドについて、電極グリッドの電極12,14を駆動させるのに用いるタッチパッド・センサ制御回路20から利用可能なピンは、合計28本(12+16=28)ある。
CIRQUE(登録商標)社製タッチパッドの感度または分解能は、16×12格子の行および列電極が含意するよりも遥かに高い。分解能は、通例、1インチ当たり約960カウント以上である。正確な分解能は、コンポーネントの感度、同じ行および列上にある電極12,14間の間隔、そして本発明にとっては重要でないその他の要因によって決定される。
CIRQUE(登録商標)製タッチパッドはXおよびY電極12,14の格子、ならびに別個の単独検知電極16を使用するが、多重化を用いることによって、検知電極16もXまたはY電極12,14にすることができる。いずれの設計でも、本発明が機能するのを可能にする。
CIRQUE(登録商標)社製タッチパッドの基礎技術は、相互容量センサに基づく。しかしながら、本発明のために他のタッチパッド技術も用いることができる。これら他の近接感知およびタッチ感知タッチパッド技術は、電磁気、感応、圧力検知、静電気、超音波、光、電気抵抗膜、半伝導性膜、または他の指若しくはスタイラス応答の技術を含む。
好ましい実施形態では、本発明は、タッチおよびホバー・アクションの如何なる組み合わせともなるジェスチャを規定するシステムおよび方法であり、タッチおよびホバー・アクションが、別々のタッチおよびホバー・アクションにおける如何なる順序でも組み合わされ、また、別々の数のタッチおよびホバー・アクションを伴う。別々のタッチおよびホバー・アクションは、単一のジェスチャまたは一連のジェスチャを規定することができる。
本発明のこれらのおよびその他の目的、特徴点、利点、および代わりの態様は、添付の図面と組み合わせて以下の詳細な説明を検討することによって、当業者には明白になるであろう。
図1は、CIRQUE(登録商標)社によって製造される相互容量感知型タッチパッドのコンポーネントのブロック図であり、本発明の原理にしたがって動作することができる。 図2は、タッチおよびホバー・センサ、並びに、タッチおよびホバー・ジェスチャの両方を用いて指を動かすようにして実行されるジェスチャの側面図である。 図3Aは、タッチおよびホバー・センサより上部の検知ボリュームの斜視図である。 図3Bは、タッチおよびホバー・センサより上部の検知ボリュームの側面図である。 図4は、タッチおよびホバー・スクリーンと共に用いるスタイラスの斜視図である。 図5は、2つのホバー・センサとは別のタッチ・センサの斜視図である。
これより、本発明の種々のエレメントに番号の指定(numeral designation)が与えられた図面を参照して、当業者が本発明を行い使用することを可能にするように、本発明について説明する。尚、以下の記載は、本発明の原理の説明に過ぎず、後に続く特許請求の範囲を狭めるように解釈してはならないことは言うまでない。
この文書全体にわたり「タッチ・センサ」という用語は、「相互容量タッチ・センサ」、「タッチ・パネル」、「近接センサ」、「感触および近接センサ」、「タッチパッド」、および「タッチスクリーン」と取り換え可能に用いることができることは言うまでもない。また、「ポータブル電子装置(portable electronic appliance)」という用語は、「携帯電話」、「スマートフォン・」および「タブレット・コンピュータ」で取り換え可能に用いることができる。
タッチ・センサの表面と接触すると、様々な命令として、または、様々な機能を制御する入力として解釈できるセンサに入力を供給することが可能である。例えば、当該入力は、グラフィカル・ユーザ・インタフェース上のカーソルを制御する形態のものとすることができる。他の機能にはジェスチャの実行が含まれるが、これに限定するものとみなしてはならない。ジェスチャは、タッチ・センサによって検知される如何なるアクションともすることができ、次いで、プログラムによって実行されることになる、あるアクションまたは機能と関連付けられる。
様々な基準を用いて、どのジェスチャが実行されているかを判断することができる。例えば、タッチ・センサの表面をタッチしている指の数、接触のタイミング、および追跡されている指の動きは全て、ジェスチャ間を区別できる要因となる。
しかしながら、近接感知型のタッチ・センサを用いると、上記のタッチ・センサとすることができる検知ボリューム(3次元のスペース)も存在する。当該タッチ・センサはまた、接触が行われない内に1つ以上のオブジェクトを検知および/または追跡することもできる。このデータはまた、タッチ・センサの性能に応じて使用可能とすることもできる。このデータは、表面を離れたデータ、近接度、またはホバー情報から生じるものとして特徴付けることができる。つまり、ホバリングは、1つ以上の指がタッチ・センサにわたり配置されるものとして規定され、その結果、タッチ・センサと接触することなく検知可能となる。ホバーという用語は、1本の指または複数の指が静止していないことを意味するが、接触から除かれるに過ぎない。
本発明の第1実施形態は、単一のタッチ・センサによって収集されるタッチおよびホバー・データを結合するというコンセプトに向けられる。単一のタッチ・センサは、近接性またはホバー情報をタッチ情報と同様に収集する機能を含む。結合するタッチおよびホバー情報は、結果として、入力情報の追加のレベルとなり得、如何なるコンピューティング・デバイスへの入力を提供する。
第1実施形態のコンセプトを図示するために用いることができる幾らかの例がある。図2に、単一の指の動きを示すスナップショットの図示を提供し、単一の指は最初の位置40から最後の位置46まで進む。
図2は、タッチおよびホバー・センサ30を示す。タッチおよびホバー・センサ30は線状の設計としてもよく、表面34上または、それよりも上部の検知ボリュームのいずれかで長軸48に沿うように、2次元でオブジェクトを検知することができる。代替として、タッチおよびホバー・センサ30は、表面34の上と同様に、2次元の表面34上のオブジェクトを検知する標準設計としてもよい。
本実施形態は単一のジェスチャを示しており、指32が位置40から開始する。ユーザは、タッチ・アクションでタッチおよびホバー・センサの表面34に沿って指32を位置42に到達するまで動かす。指32は、次いで、タッチおよびホバー・センサ30から持ち上げられて離れるが、ホバー・アクションの同一方向での動きを継続する。指32は、次いで、別のタッチ・アクションの位置44で、タッチおよびホバー・センサ30と接触する。指32は、次いで、タッチ・アクションの位置46に到達するまで表面34に沿って動きを継続する。指32は、次いで、停止して、タッチおよびホバー・センサ30から除かれる。
重要なことは、タッチおよびホバー・センサ30が常に指32の位置を認識していたということである。指がタッチおよびホバー・センサ30の表面34にある間、および表面34の上にある間は、指32は追跡され続けていたことを意味する。タッチ・アクションおよびホバー・アクションは、単一のジェスチャに結合することができる。または、タッチ・アクションおよびホバー・アクションは、別々の関係のないイベントとみなすことができる。
代替の実施形態では、複数の指32を同時に使うことができる。指32は、タッチおよびホバー・センサ30の表面34上に全てが同時にあってもよく、タッチおよびホバー・センサ30より上部に全てがあってもよく、または、幾らかの指32が表面上にあると共に、他の指がまた表面より上部にあってもよい。
1つ以上の指を有するジェスチャは、単に、タッチおよびホバー・センサ30上に、ホバー・センサ30より上部に、およびホバー・センサ30上且つこれより上部にあることに限定されない。他の代替の実施形態では、指32はまた、ジェスチャの間、位置を変更することもできる。例えば、指32は、ホバー・アクションにおいてタッチおよびホバー・センサ30より上部で開始し、次いで、タッチ・アクションにおいて表面34へ動かしてもよい。同様に、指32は、タッチ・アクションにおいてタッチおよびホバー・センサ30上で開始し、次いで、ホバー・アクションにおいて持ち上げて離れてもよい。代替として、幾らかの指がタッチ・アクションにおいて表面34上で開始し、他の指がホバー・アクションにおいて表面より上部で開始し、次いで、1つ以上の指が位置をスイッチしてもよい。
図3Aに示した代替の他の実施形態では、ジェスチャは、タッチおよびホバー・センサ30上に指を置き次いでそれらを放すという動きによって規定されるだけではなく、表面34上または表面より上部にある間の動きによって規定されてもよい。
検知ボリューム36での動きを検知することによって、タッチおよびホバー・センサ30より上部の動きを検知することができる。検知ボリューム36は、タッチ・およびホバー・センサ30より上部の空間における3次元ボリュームとして規定することができる。検知ボリューム36における3次元空間の正確な大きさ(dimension)は正確に示されていないことが理解される。図示の検知ボリューム36は、特定の形状に限定するものとみなしてはならず、例示の目的でのみに過ぎない。検知ボリューム36の形状は、より適切には、図3Bのプロファイルに示したような球形の先を切り取ったものであり、当該球形の切り取った部分がタッチおよびホバー・センサ30を規定する。しかしながら、図3Bに示す検知ボリュームはまた、検知ボリュームの実際の形状に限定するものとみなしてはならない。
動きを伴うジェスチャは、指を離して広げる、または指を全て一緒となるように指を動かすといったことを含むことができる。指を離して広げることは、タッチ・アクション若しくはホバー・アクション、またはそれらの組み合わせとして実行することができる。
如何なる機能も、これらのジェスチャに割り当てることができる。例えば、全ての指32がタッチしている位置から全ての指32を離して広げる位置をまで指を動かす場合は、当該ジェスチャはズーム機能として解釈することができる。ズーム機能は、ズーム・アウト機能を定義する1つの動きとズーム・イン機能と定義する逆の動きによって、ズーム・インまたはズーム・アウトということになる。
他のジェスチャは、これに限定されないが、握る、押す、引く、離して広げる、上げる、置く、指単独の動き、手の動きと組み合わせた指の動き、指の動きではない手の動き、または、手および指によって検知ボリューム36で実行できる認識可能な他の如何なるジェスチャをも含むことができる。
ジェスチャはまた、反復的な動きを含むこともできる。例えば、ジェスチャは、タッチ・アクション、次いでホバー・アクション、次いで再度のタッチ・アクションを含んでもよい。代替として、ジェスチャは、ホバー・アクションから始まり、タッチ・アクション、次いで再度のホバー・アクションを含んでもよい。タッチ・アクションおよびホバー・アクションは、如何なる順序や、如何なる組み合わせとすることができ、その結果、一意のジェスチャを生成することができるということが理解されなければならない。
本発明の他の実施形態では、ジェスチャは、運動量を使用するものとして定義される。例えば、画像、ファイル、またはアプリケーション内での押すまたは引くジェスチャの実行は、運動量または慣性的な動きにおける正確性のレベルを向上させるために、タッチおよびホバー・センサ30によって認識される運動量データと組み合わせることができる。例えば、ユーザは、離して広げ、次いでそれらを一緒にまとめる全ての指32を使用して、ズーム・イン・ジェスチャを実行することができる。当該動きは、タッチおよびホバー・センサ30から離れて動いている付加的な手の動きと組み合わせることができる。当該手の動きは、ズーム・イン・ジェスチャと同時に行うことができ、そして、手および指がタッチおよびホバー・センサ30の検知ボリューム36内からもはやなくなった後であっても、一定期間にわたりズーム・イン・ジェスチャを継続させることができる。ジェスチャが終了した後にジェスチャが継続できる期間を調整して、慣性の感覚(feeling)をジェスチャに与えることができる。当該感覚は、ジェスチャが終了した後に直ちに終了するのではなく、徐々に停止させる。
本発明の他の実施形態では、ユーザは、タッチおよびホバー・センサ30全体にわたり指32の動きとして定義されるジェスチャを実行することを望んでもよい。
タッチおよびホバー・センサ30は、動きの長さ全体にわたりタッチおよびホバー・センサと接触を維持するのが困難な環境におけるものとすることができる。
例えば、車両の或る機能について制御する入力を提供するタッチおよびホバー・センサ30を収容する車両について検討する。ユーザがファンの気流を増大させるのを望むことを想定する。ファンは、タッチおよびホバー・センサ30によって制御することができる。ユーザは、指をタッチし、次いで、ファンの速度を上げるために、タッチおよびホバー・センサ30の表面34に沿って指を走らせることを必要とする。しかしながら、ユーザがタッチおよびホバー・センサ30に沿って指を走らせるにつれて、突起にぶつかり(hit a bump)、瞬間的に、指を持ち上げ、タッチおよびホバー・センサとの接触を失うことになる。しかしながら、ユーザは、指32を所望の方向に動かすのを継続することができる。更にまた、ユーザは、タッチおよびホバー・センサ30と再び接触することができ、指の実質的に直線的な動きを中断することはない。例えば、動きは図2に示すものとすることができる。
指32の直線的な動きが位置42,44の間の部分(segment)によって中断されたにも拘わらず、タッチおよびホバー・センサ30は、たとえ動きが当該タッチおよびホバー・センサ上およびこれより上部の両方であったとしても、単一の方向における中断されないものとしてジェスチャを解釈することができる。ジェスチャが位置46で完了した後は、ファンの速度について、如何なるファンの速度も位置42から位置46までの指の動きと関連付けられることになろう。ジェスチャは、タッチおよびホバーの如何なる組み合わせとしてもよく。また、タッチまたはホバーで開始してもよい。
図4に示す本発明の別の実施形態では、タッチおよびホバー・ジェスチャは、タッチおよびホバー・タッチ・スクリーン50上のスタイラス52と組み合わせて使用されることができる。スタイラス52は、特徴部にインク付けをする一意の制御を可能にするために、タッチおよびホバー・タッチ・スクリーン50によって用いることができる。例えば、タッチおよびホバー・タッチ・スクリーン50へのインク付けの濃さを変更することは、望ましいことである。スタイラス52を用いたジェスチャを実行するために、ユーザは、タッチおよびホバー・タッチ・スクリーン50においてスタイラス52を持ち上げて離し、また、仮想的に表示されることになるインクの濃さを変更するタッチおよびホバー・タッチ・スクリーンにわたる検知ボリューム36でのアクションを実行することができる。ユーザは、次いで、スタイラス52を用いてタッチおよびホバー・タッチ・スクリーン50にタッチし、調整されたインク付けの濃さを用いることができる。
スタイラス52を用いて実行できるジェスチャは、旋回させること(twirling)、前後に動かすこと、うねらせること(waving)、ピボットすること、または、全ての他の考えられる動きと区別できる如何なる他の認識可能なスライラスの動きを含むことができるが、これに限定するものとみなしてはならない。
本発明の他の実施形態では、ユーザは、タッチおよびホバー・タッチ・スクリーン50上に示されるオブジェクトをドラッグ・アンド・ドロップするのを望むでもよい。ユーザは、それにタッチし、次いで指をタッチおよびホバー・タッチ・スクリーン50から持ち上げて離すことによってオブジェクトを選択し、そして、異なる位置での接触を行うことができ、これにより、当該オブジェクトを、異なる位置に動かすか、またはドラッグさせる。
図5に示される他の本発明の他の代替の実施形態では、タッチ・センサ60およびホバー・センサ62は、別々の装置としてもよく、2以上のデバイスとしてもよい。タッチ・センサ60およびホバー・センサ62におけるセンサは、それら機能を実行するために、異なる感知技術をも用いることさえもできる。センサは、専用のものとしてもよく、または、それらは他の機能を共有することもできる。
本発明の別の態様は、ホバー・センサ62がタッチ・センサ60とは異なる動作容積を有することができるということである。例えば、ホバー・センサ62は、左、右、左右、またはタッチ・センサ60の下部さえにおける検知量を有することができる。
本発明の他の態様では、タッチおよびホバー・タッチ・スクリーン50は、接触を行う前にホバーするときに、視覚的フィードバックをユーザに提供することができる。
尚、以上で説明した構成は、本発明の原理の応用を例示するに過ぎないことは理解されてしかるべきである。本発明の主旨や範囲から逸脱することなく、数多くの変更および代替構成も、当業者によって考案することができる。添付する特許請求の範囲は、このような変更および構成にも当てはまることを意図している。

Claims (18)

  1. タッチおよびホバー・センサを用いてタッチおよびホバー・ジェスチャを実行する方法であって、
    タッチおよびホバー・センサを設けるステップであって、該タッチおよびホバー・センサが、少なくとも1つの指示物体の直接の接触を検知することができ、また、前記タッチおよびホバー・センサに近接する検知ボリュームで前記少なくとも1つの指示物体の存在を検知することができる、ステップと、
    タッチおよびホバー・センサと共に前記少なくとも1つの指示物体による直接の接触を行うことにより少なくとも1つのタッチ・アクションを含み、且つ前記少なくとも1つの指示物体を前記検知ボリュームに移動させることによる少なくとも1つのホバー・アクションを含む単一のジェスチャを実行するステップと、
    前記少なくとも1つのタッチ・アクションと前記少なくとも1つのホバー・アクションとを組み合わせて、前記単一のジェスチャとするステップと、
    前記単一のジェスチャに関連付けられる少なくとも1つの機能を実行するステップと
    を含む、方法。
  2. 請求項1記載の方法において、前記少なくとも1つの指示物体が、スタイラス、1本の指、および複数の指を含んだ指示物体の群から選択される、方法。
  3. 請求項2記載の方法であって、更に、前記ホバー・アクションを、旋回させる、前後に動かす、うねらせる、ピボットする、握る、押す、引く、指を離して広げる、指を一緒にまとめる、上げる、置く、前記指の単独の動き、手の動きと組み合わせた前記指の動き、および、前記指ではなく前記手の動きを含んだホバー・アクションの群から選択するステップを含む、方法。
  4. 請求項2記載の方法であって、更に、前記タッチ・アクションを、旋回させる、前後に動かす、うねらせる、ピボットする、握る、押す、引く、指を離して広げる、指を一緒にまとめる、上げる、置く、前記指の単独の動き、手の動きと組み合わせた前記指の動き、および、前記指ではなく前記手の動きを含んだホバー・アクションの群から選択するステップを含む、方法。
  5. 請求項2記載の方法において、更に、前記少なくとも1つのホバー・アクションが、前記タッチおよびホバー・センサによって検知可能である1つ以上の指の動きを含む、方法。
  6. 請求項2記載の方法において、更に、前記少なくとも1つのタッチ・アクションが、前記タッチおよびホバー・センサによって検知可能である1つ以上の指の動きを含む、方法。
  7. 請求項2記載の方法において、更に、前記単一のジェスチャが、前記少なくとも1つのホバー・アクションと同時に実行される少なくとも1つのタッチ・アクションを含む、方法。
  8. 請求項2記載の方法であって、更に、前記スタイラスの前記タッチ・アクションおよび前記ホバー・アクションを、旋回させる、前後に動かす、うねらせる、ピボットすることを含んだ前記タッチおよびホバー・アクションの群から選択するステップを含む、方法。
  9. 請求項2記載の方法であって、更に、前記単一のジェスチャが終了した後に、一定の期間にわたり前記機能が継続して実行されるように、前記少なくとも1つのタッチ・アクションまたは前記少なくとも1つのホバー・アクションに対して慣性を加えるステップを含む、方法。
  10. タッチおよびホバー・センサを用いてタッチおよびホバー・ジェスチャを実行する方法であって、
    タッチおよびホバー・センサを設けるステップであって、該タッチおよびホバー・センサが、少なくとも1つの指示物体の直接の接触を検知することができ、また、前記タッチおよびホバー・センサに近接する検知ボリュームで前記少なくとも1つの指示物体の存在を検知することができる、ステップと、
    タッチおよびホバー・センサと共に前記少なくとも1つの指示物体による直接の接触を行うことによる少なくとも1つのタッチ・アクションを含み、または、前記少なくとも1つの指示物体を前記検知ボリュームに動かすことによるホバー・アクション、若しくは少なくとも1つのタッチ・アクションおよび少なくとも1つのホバー・アクションの組み合わせを含む単一のジェスチャを実行するステップと、
    前記少なくとも1つのタッチ動作と前記少なくとも1つのホバー動作とが前記単一のジェスチャの一部として実行される場合に、前記少なくとも1つのタッチ動作と前記少なくとも1つのホバー・アクションとを組み合わせるステップと、
    前記単一のジェスチャに関連付けられる少なくとも1つの機能を実行するステップと
    を含む、方法。
  11. 請求項10記載の方法において、前記少なくとも1つの指示物体が、スタイラス、1本の指、および複数の指を含んだ指示物体の群から選択される、方法。
  12. 請求項11記載の方法であって、更に、前記ホバー・アクションを、旋回させる、前後に動かす、うねらせる、ピボットする、握る、押す、引く、指を離して広げる、指を一緒にまとめる、上げる、置く、前記指の単独の動き、手の動きと組み合わせた前記指の動き、および、前記指ではなく前記手の動きを含んだホバー・アクションの群から選択するステップを含む、方法。
  13. 請求項11記載の方法であって、更に、タッチ・アクションを、旋回させる、前後に動かす、うねらせる、ピボットする、握る、押す、引く、指を離して広げる、指を一緒にまとめる、上げる、置く、前記指の単独の動き、手の動きと組み合わせた前記指の動き、および、前記指ではなく前記手の動きを含んだホバー・アクションの群から選択するステップを含む、方法。
  14. 請求項11記載の方法において、更に、前記少なくとも1つのホバー・アクションが、前記タッチおよびホバー・センサによって検知可能である1つ以上の指の動きを含む、方法。
  15. 請求項11記載の方法において、更に、前記少なくとも1つのタッチ・アクションが、前記タッチおよびホバー・センサによって検知可能である1つ以上の指の動きを含む、方法。
  16. 請求項11記載の方法において、更に、前記単一のジェスチャが、前記少なくとも1つのホバー・アクションと同時に実行される少なくとも1つのタッチ・アクションを含む、方法。
  17. 請求項11記載の方法であって、更に、前記スタイラスの前記タッチ・アクションおよび前記ホバー・アクションを、旋回させる、前後に動かす、うねらせる、ピボットすることを含んだタッチおよびホバー・アクションの群から選択するステップを含む、方法。
  18. 請求項11記載の方法であって、更に、前記単一のジェスチャが終了した後に、一定の期間にわたり前記機能が継続して実行されるように、前記少なくとも1つのタッチ・アクションまたは前記少なくとも1つのホバー・アクションに対して慣性を加えるステップを含む、方法。
JP2016502454A 2013-03-14 2014-03-14 タッチおよびホバー・アクションを組み合わせたタッチ・センサ上の入力相互作用 Pending JP2016512371A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361782530P 2013-03-14 2013-03-14
US61/782,530 2013-03-14
US14/208,345 2014-03-13
US14/208,345 US20140282279A1 (en) 2013-03-14 2014-03-13 Input interaction on a touch sensor combining touch and hover actions
PCT/US2014/027475 WO2014152560A1 (en) 2013-03-14 2014-03-14 Input interaction on a touch sensor combining touch and hover actions

Publications (1)

Publication Number Publication Date
JP2016512371A true JP2016512371A (ja) 2016-04-25

Family

ID=51534556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016502454A Pending JP2016512371A (ja) 2013-03-14 2014-03-14 タッチおよびホバー・アクションを組み合わせたタッチ・センサ上の入力相互作用

Country Status (4)

Country Link
US (1) US20140282279A1 (ja)
JP (1) JP2016512371A (ja)
CN (1) CN105190519A (ja)
WO (1) WO2014152560A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102161446B1 (ko) * 2013-11-05 2020-10-05 삼성전자 주식회사 터치 기반 사용자 인터페이스를 포함하는 전자 장치
US20150160819A1 (en) * 2013-12-06 2015-06-11 Microsoft Corporation Crane Gesture
KR20160034135A (ko) * 2014-09-19 2016-03-29 삼성전자주식회사 터치 입력을 처리하는 전자 장치 및 방법
KR102380228B1 (ko) * 2014-11-14 2022-03-30 삼성전자주식회사 디바이스를 제어하는 방법 및 그 디바이스
KR102559030B1 (ko) * 2016-03-18 2023-07-25 삼성전자주식회사 터치 패널을 포함하는 전자 장치 및 그 제어 방법
US10416777B2 (en) 2016-08-16 2019-09-17 Microsoft Technology Licensing, Llc Device manipulation using hover
US10318034B1 (en) 2016-09-23 2019-06-11 Apple Inc. Devices, methods, and user interfaces for interacting with user interface objects via proximity-based and contact-based inputs

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
JP5324440B2 (ja) * 2006-07-12 2013-10-23 エヌ−トリグ リミテッド デジタイザのためのホバリングおよびタッチ検出
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
EP2232355B1 (en) * 2007-11-07 2012-08-29 N-Trig Ltd. Multi-point detection on a single-point detection digitizer
US8477103B2 (en) * 2008-10-26 2013-07-02 Microsoft Corporation Multi-touch object inertia simulation
US8493344B2 (en) * 2009-06-07 2013-07-23 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface

Also Published As

Publication number Publication date
WO2014152560A1 (en) 2014-09-25
CN105190519A (zh) 2015-12-23
US20140282279A1 (en) 2014-09-18

Similar Documents

Publication Publication Date Title
KR101862110B1 (ko) 햅틱 피드백을 갖는 입력
US9703435B2 (en) Touchpad combined with a display and having proximity and touch sensing capabilities to enable different functions or interfaces to be displayed
JP2016512371A (ja) タッチおよびホバー・アクションを組み合わせたタッチ・センサ上の入力相互作用
JP5832784B2 (ja) タッチパネルシステムおよびそれを用いた電子機器
US20090167719A1 (en) Gesture commands performed in proximity but without making physical contact with a touchpad
US7952566B2 (en) Apparatus and method for touch screen interaction based on tactile feedback and pressure measurement
US20110221684A1 (en) Touch-sensitive input device, mobile device and method for operating a touch-sensitive input device
KR101062594B1 (ko) 포인터 디스플레이가 가능한 터치스크린
US20110109577A1 (en) Method and apparatus with proximity touch detection
US20100328261A1 (en) Capacitive touchpad capable of operating in a single surface tracking mode and a button mode with reduced surface tracking capability
JP5780438B2 (ja) 電子機器、位置指定方法及びプログラム
JPWO2014103085A1 (ja) タッチパネルデバイスとタッチパネルデバイスの制御方法
JP2012521027A (ja) 触覚によるフィードバックを有するデータ入力機器
WO2008079308A2 (en) Method for activating and controlling scrolling on a touchpad
JP2013546066A (ja) デバイスとのユーザのタッチ及び非タッチベースのインタラクション
KR20130002983A (ko) 전극 배열이 집적된 컴퓨터 키보드
KR20150021975A (ko) 전자 디바이스용 입력 방법 및 입력 디바이스, 이러한 방법을 수행하는 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체
Ikematsu et al. Ohmic-sticker: Force-to-motion type input device that extends capacitive touch surface
CN104714643B (zh) 一种利用传感器实现模拟触摸屏的方法、系统及移动终端
KR20110075700A (ko) Z값을 이용한 터치 인터페이스 장치 및 방법
JP2018032122A (ja) 表示操作装置
CN104793853B (zh) 使用者界面的操作方法与电子装置
TWI550466B (zh) 背景訊號更新方法及其感測裝置
JP6421973B2 (ja) 情報処理装置
TWI550489B (zh) 背景訊號更新方法及其感測裝置