JP2012506574A - 電子システムのパラメータを調節するための入力デバイス及び方法 - Google Patents

電子システムのパラメータを調節するための入力デバイス及び方法 Download PDF

Info

Publication number
JP2012506574A
JP2012506574A JP2011532147A JP2011532147A JP2012506574A JP 2012506574 A JP2012506574 A JP 2012506574A JP 2011532147 A JP2011532147 A JP 2011532147A JP 2011532147 A JP2011532147 A JP 2011532147A JP 2012506574 A JP2012506574 A JP 2012506574A
Authority
JP
Japan
Prior art keywords
adjustment
movement
sensing area
change
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011532147A
Other languages
English (en)
Other versions
JP2012506574A5 (ja
JP5561682B2 (ja
Inventor
ケビン アーサー,
ザ サード, ウィリアム アール. メイソン,
ショーン ピー. デイ,
Original Assignee
シナプティクス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シナプティクス インコーポレイテッド filed Critical シナプティクス インコーポレイテッド
Publication of JP2012506574A publication Critical patent/JP2012506574A/ja
Publication of JP2012506574A5 publication Critical patent/JP2012506574A5/ja
Application granted granted Critical
Publication of JP5561682B2 publication Critical patent/JP5561682B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

感知システムが感知領域における第1の物体及び第2の物体の運動を検出するように構成され、処理システムがこの感知システムに結合される、調節を達成するための入力デバイス及び方法が提示される。処理システムは、第2の物体に対する第1の物体の位置の変化を検出するように構成され、第1の物体及び第2の物体は、感知領域に同時に存在し、処理システムはさらに、感知領域における第1の物体の運動に応答してパラメータの変更を達成するように構成される。
【選択図】 図1

Description

[優先権データ]
[0001]本出願は、2008年10月21日に出願された米国特許仮出願第61/107、245号、及び2009年2月23日に出願された米国実用特許出願第12/391、011号の優先権を主張するものである。該出願は、参照により本明細書に組み込まれる。
[0002]本発明は、概して電子デバイスに関し、より詳細には近接センサデバイスなどの入力デバイスに関する。
[0003]近接センサデバイス(一般的にはタッチパッド又は触覚センサデバイスとも呼ばれる)は、多様な電子システムに広く使用されている。近接センサデバイスは、典型的には、しばしば表面によって画定される感知領域を備え、この感知領域は、1つ又は複数の指、スタイラス、及び/又は他の物体の存在、位置、及び/又は運動を判定するために、静電容量技術、抵抗技術、電気誘導技術、光学技術、音響技術、及び/又は他の技術を利用する。近接センサデバイスを指(複数可)及び/又は他の物体(複数可)と共に使用し、電子システムに入力を与えることができる。例えば、近接センサデバイスは、ノートブックコンピュータに一体化されたもの、又はデスクトップコンピュータの周辺機器など、より大きな計算システム用の入力デバイスとして使用される。近接センサデバイスは、携帯型情報端末(PDA)、遠隔制御装置、デジタルカメラ、ビデオカメラ、無線電話及びテキストメッセージシステムなどの通信システムなど、ハンドヘルド型システムを含む、より小さなシステムにおいても使用される。近接センサデバイスは、CD、DVD、MP3、ビデオ、又は他のメディアのレコーダ若しくはプレーヤなどのメディアシステムにますます使用されている。
[0004]多数の電子デバイスが、ユーザインターフェース(UI)と、UIと連動する入力デバイス(例えばインターフェースナビゲーションなど)とを備える。典型的なUIは、グラフィック要素及び/又はテキスト要素を表示するための画面を備える。このタイプのUIの利用が増加したことにより、ポインティングデバイスとしての近接センサデバイスの需要が高まっている。これらの用途において、近接センサデバイスは、値調節デバイス、カーソル制御デバイス、選択デバイス、スクロールデバイス、図形/文字/手書き入力デバイス、メニューナビゲーションデバイス、ゲーム入力デバイス、ボタン入力デバイス、キーボード、及び/又は他の入力デバイスとして機能し得る。
[0005]入力デバイスの改良が引き続き求められている。特に、UI用途におけるポインティングデバイスとしての近接センサの操作性の改良が、引き続き求められている。
[0006]パラメータの調節を達成するための方法が提示される。感知領域における第2の物体に対する第1の物体の位置の変化が検出される。第1の物体及び第2の物体は、感知領域に同時に存在する。感知領域における第2の物体に対する第1の物体の位置の変化を示す第1の測定値が決定(determine)される。パラメータに対する第1の調節が、感知領域における第2の物体に対する第1の物体の位置の変化に応答して示される。第1の調節の量は、第1の測定値に基づく。感知領域における第2の物体に対する第1の物体の位置の変化の検出後に、感知領域における第1の物体の運動が検出される。感知領域に対する第1の物体の運動を示す第2の測定値が決定される。パラメータに対する第2の調節が、第1の物体の運動の検出と、感知領域における第2の物体に対する第1の物体の位置の変化の開始と感知領域における第1の物体の運動の開始との間に、感知領域における第1の物体及び第2の物体の少なくとも一方が継続的に存在することに応答して、示される。パラメータに対する第2の調節の量は、第2の測定値に基づく。
[0007]感知領域を有するセンサデバイスを使用してパラメータの調節を達成するための方法が提示される。感知領域における第2の物体に対する第1の物体の位置を示す角度の変化が検出される。第1の物体及び第2の物体は、感知領域に同時に存在する。角度の変化の検出後に、パラメータの調節を達成するための調節モードに進む。角度の変化の検出後の感知領域における第1の物体の運動が検出される。感知領域に対する第1の物体の運動を示す測定値が決定される。感知領域における第1の物体の運動の検出に応答して調節モードに進んだ後に、パラメータに対する調節が示される。パラメータに対する調節の量は、測定値に基づく。
[0008]入力デバイスが提示される。この入力デバイスは、感知領域における第1の物体及び第2の物体の存在及び運動を検出するように構成された感知システムと、感知システムに結合される処理システムとを備える。処理システムは、感知領域における第2の物体に対する第1の物体の位置の変化を示す第1の測定値を決定し、感知領域における第2の物体に対する第1の物体の位置の変化に応答してパラメータに対する第1の調節を示すように構成され、パラメータに対する第1の調節の量が、第1の測定値に基づき、さらに処理システムは、感知領域に対する第1の物体の運動を示す第2の測定値を決定するように構成され、第1の物体の運動が、感知領域における第2の物体に対する第1の物体の位置の変化後に行なわれ、さらに処理システムは、第1の物体の運動と、感知領域における第2の物体に対する第1の物体の位置の変化の開始と感知領域における第1の物体の運動の開始との間に感知領域における第1の物体及び第2の物体のうちの少なくとも一方が継続的に存在することに応答して、パラメータに対する第2の調節を示すように構成され、パラメータに対する第2の調節の量は、第2の測定値に基づく。
[0009]入力デバイスが提示される。この入力デバイスは、感知領域における第1の物体及び第2の物体の存在及び運動を検出するように構成された感知システムと、感知システムに結合される処理システムとを備える。処理システムは、感知領域における第2の物体に対する第1の物体の位置を示す角度の変化を検出するように構成され、第1の物体及び第2の物体は、感知領域に同時に存在し、さらに処理システムは、角度の変化の検出後に調節モードに進んでパラメータの調節を達成し、角度の変化の検出後に感知領域における第1の物体の運動を検出し、感知領域に対する第1の物体の運動を示す測定値を決定し、感知領域における第1の物体の運動の検出に応答してパラメータに対する調節を示すように構成され、パラメータに対する調節の量は、測定値に基づく。
[0010]プログラム製品が提示される。このプログラム製品は、入力デバイス用プログラムと、入力デバイス用プログラムを担持するコンピュータ可読メディアとを備える。入力デバイス用プログラムは、感知領域における第2の物体に対する第1の物体の位置の変化を検出するように構成され、第1の物体及び第2の物体は、感知領域に同時に存在し、さらに入力デバイス用プログラムは、感知領域における第2の物体に対する第1の物体の位置の変化を示す第1の測定値を決定し、感知領域における第2の物体に対する第1の物体の位置の変化に応答してパラメータに対する第1の調節を示すように構成され、パラメータに対する第1の調節の量は、第1の測定値に基づき、さらに入力デバイス用プログラムは、感知領域における第2の物体に対する第1の物体の位置の変化後の移行事象を検出し、移行事象後の感知領域における第1の物体の運動を検出し、感知領域に対する第1の物体の運動を示す第2の測定値を決定し、第1の物体の運動と、移行事象の開始と感知領域における第1の物体の運動の開始との間に、感知領域における第1の物体及び第2の物体のうちの少なくとも一方が継続的に存在することに応答して、パラメータに対する第2の調節を示すように構成され、パラメータに対する第2の調節の量は、第2の測定値に基づく。
[0011]以下、添付の図面を参照として、本発明の好ましい例示的な実施形態を説明する。これらの図面において、同様の記号は、同様の要素を指す。
本発明の一実施形態による入力デバイスを備える例示的なシステムのブロック図である。 入力デバイスの感知領域と関連付けられた表面上における物体の存在を示す、図1の入力デバイスの感知領域の側面図である。 入力デバイスの感知領域と関連付けられた表面中における物体の移動を示す、図1の入力デバイスの感知領域の側面図である。 入力デバイスの感知領域と関連付けられた表面からの物体の離動を示す、図1の入力デバイスの感知領域の側面図である。 本発明の一実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。 本発明の一実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。 本発明の一実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。 本発明の一実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。 本発明の一実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。 図5〜9に示される感知領域内における物体の移動に応答して表示される画像のパラメータの変化を示すディスプレイの平面図である。 図5〜9に示される感知領域内における物体の移動に応答して表示される画像のパラメータの変化を示すディスプレイの平面図である。 図5〜9に示される感知領域内における物体の移動に応答して表示される画像のパラメータの変化を示すディスプレイの平面図である。 本発明の別の実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。 本発明の別の実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。 本発明の別の実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。 本発明の別の実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。 本発明の別の実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。 図13〜17に示される感知領域内における物体の移動に応答して表示される画像のパラメータの変化を示すディスプレイの平面図である。 図13〜17に示される感知領域内における物体の移動に応答して表示される画像のパラメータの変化を示すディスプレイの平面図である。 図13〜17に示される感知領域内における物体の移動に応答して表示される画像のパラメータの変化を示すディスプレイの平面図である。 本発明の他の実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。 本発明の他の実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。 本発明の他の実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。 本発明の他の実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。 本発明の他の実施形態による、図2〜4の感知領域における2つの物体の移動を示す、感知領域の平面図である。
[0019]以下の詳細な説明は、当然ながら単に例示的なものにすぎず、本発明又は本発明の用途及び使用法を限定するようには意図されない。さらに、先述の技術分野、背景、概要、又は以下の詳細な説明において示される、いかなる明示又は示される理論にも拘束されることを意図しない。
[0020]本発明は、操作性の向上を促進する入力デバイス及び方法を提供する。具体的には、この入力デバイス及び方法は、デバイス上での物体運動と、ディスプレイ上に結果的にもたらされる作用との間におけるマッピングを可能にする。一例としては、この入力デバイス及び方法により、ユーザが入力の様々な組合せを用いて電子システムのパラメータを変更することが可能となり、それによりさらに愉快なユーザ体験及びさらに向上した性能が得られる。
[0021]次に図面を参照すると、図1は、入力デバイスすなわち近接センサデバイス116に結合された、例示的な電子システム100のブロック図である。電子システム100は、任意のタイプのパーソナルコンピュータ、ポータブルコンピュータ、ワークステーション、携帯型情報端末、ビデオゲームプレーヤ、通信デバイス(無線電話及びメッセージデバイスを含む)、レコーダ及びプレーヤを含むメディアデバイス(テレビ、ケーブルボックス、音楽プレーヤ、及びビデオプレーヤを含む)、デジタルカメラ、ビデオカメラ、又はユーザからの入力を受領し情報を処理することが可能な他のデバイスを表すように意図される。したがって、システム100の種々の実施形態は、任意のタイプのプロセッサ、メモリ、又はディスプレイを備えてもよい。さらに、システム100の要素は、バス、ネットワーク、又は他の無線相互接続若しくは有線相互接続を介して通信してもよい。入力デバイス116は、複数の非限定的な例を挙げるとIC、SPI、PS/2、ユニバーサルシリアルバス(USB)、ブルートゥース、RF、IRDA、又は任意の他のタイプの有線接続若しくは無線接続を含む、任意のタイプのインターフェース又は接続を介してシステム100に接続されてもよい。
[0022]入力デバイス116(例えばタッチパッドなど)は、処理システム(又はプロセッサ)119及び感知領域118を備える。入力デバイス116は、感知領域118内におけるスタイラス114或いは指及び/又は他の入力物体の位置に感応する。「感知領域」118は、本明細書においては、入力デバイスのセンサが物体の位置を検出可能である入力デバイス116の上方、周囲、中、及び/又は付近の任意のスペースを広く包含するように意図される。従来的な一実施形態においては、感知領域118は、センサの表面から、1つ又は複数の方向に、ある距離にわたり、信号対雑音比が物体の検出の妨げとなるまで空間内に広がる。この距離は、1ミリメートル未満、数ミリメートル未満、数センチメートル未満、又はそれ以上のオーダであってもよく、利用されるタイプの位置感知技術及び所望の精度に伴って大幅に変動してもよい。他の実施形態が、圧力印加を伴う又は伴わない表面との接触を要してもよい。したがって、特定の感知領域の平面性、サイズ、形状、及び正確な位置は、実施形態ごとに大きく異なることとなる。
[0023]作動時に、入力デバイス116は、感知領域118内におけるスタイラス114、指、又は他の入力物体の位置を適切に検出し、処理システム119を使用して電子システム100に位置情報の電気的指示又は電子的指示を与える。システム100は、ユーザからの入力を受領するために、ディスプレイ上のカーソル若しくは他の物体を移動させるために、又は任意の他の目的のために、この指示を適切に処理する。
[0024]入力デバイス116は、1つ又は複数の感知領域118を実装するために感知技術の任意の組合せを利用するセンサ(図示せず)を備える。入力デバイス116は、物体の存在を検出するための様々な技術を利用してもよく、物体の存在を検出するように構成された1つ又は複数の電極又は構造物を備えてもよい。複数の非限定的な例としては、入力デバイス116は、静電容量技術、抵抗技術、電気誘導技術、表面音波技術、及び/又は光学技術を利用してもよい。これらの技術の多くが、実質的に長い耐用寿命を有し得るため、機械構造物(例えば機械スイッチ)を動かすことが必要であるものにとって有利である。触覚センサデバイスの一般的な静電容量式実装においては、典型的には電圧が印加されて、感知表面中に電場を形成する。静電容量式入力デバイスは、物体による電場の変化により引き起こされる静電容量の変化を検出することによって、物体の位置を検出する。同様に、一般的な抵抗式実装においては、可撓性上部層及び下部層が、絶縁要素により分離され、電圧勾配が、これらの層間に形成される。可撓性上部層を押圧することにより、上部層と下部層との間に電気的接触が生ずる。抵抗式入力デバイスは、物体の接触位置における駆動電極間の相対抵抗による電圧出力を検出することによって、物体の位置を検出する。電気誘導式実装においては、センサは、共振コイル又はコイル対により誘発されるループ電流を感知し、距離、配向、又は位置を決定するために量、位相、及び/又は周波数の組合せを利用することができる。これらの全ての場合で、入力デバイス116は、物体の存在を検出し、電子システム100に検出物体の指示を送る。例えば、入力デバイス116のセンサは、任意の数の感知領域118に対応するために、静電容量センサ電極のアレイを使用してもよい。別の例としては、センサは、同一の感知領域又は異なる感知領域に対応するために、抵抗感知技術との組合せにおいて静電容量感知技術を利用してもよい。本発明の種々の実施形態を実装するために使用され得るタイプの技術の例は、いずれもSynaptics Inc.社に譲渡された米国特許第5、543、591号、米国特許第6、259、234号、及び米国特許第5、815、091号に見ることが可能である。
[0025]時として近接センサプロセッサ又は触覚センサコントローラと呼ばれる処理システム119は、センサ及び電子システム100に結合される。一般的には、処理システム119は、センサから電気信号を受領し、これらの電気信号を処理し、電子システム100と通信する。処理システム119は、センサから受領した信号に対して様々な処理を実施することにより、入力デバイス116を実現するように構成される。例えば、処理システム119は、個々のセンサ電極を選択又は接続することができ、存在/近接を検出することができ、位置情報又は運動情報を計算することができ、しきい値に達した際の位置又は運動を報告することができ、及び/又は電子システム100への報告前若しくはユーザに示す前に有効タップ/ストローク/文字/ボタン/ジェスチャシーケンスを解釈及び待機することができる。さらに、処理システム119は、センサの近傍であるタイプの又は組合せの物体運動がいつ生じたかを判定することができる。例えば、処理システム119は、物体がセンサから引き上げられる場合にその物体が移動しつつある方向を判定することができ、その運動に応答して適切な指示を生成することができる。
[0026]本明細書において、「処理システム」という用語は、列挙される作業を実施するように構成された1つ又は複数の処理要素を含むように定義される。したがって、処理システム119は、センサから電気信号を受領し電子システム100と通信する1つ又は複数の集積回路、ファームウェアコード、及び/又はソフトウェアコードの全て又は一部を含んでもよい。いくつかの実施形態においては、処理システム119を含む全ての処理要素が、入力デバイス116の中又は付近に共に配置される。他の実施形態においては、これらの要素は、物理的に分離され、処理システム119のある要素が入力デバイス116の近くに位置し、処理システム119のある要素が他の場所(電子システム100のための他の回路の付近など)に位置してもよい。この後者の実施形態においては、最小限の処理が、入力デバイス116の付近の要素によって実施され、処理の大部分が、他の場所の要素によって実施されてもよい。
[0027]さらに、処理システム119は、通信対象である電子システムの一部から物理的に分離されてもよく、又は、処理システム119は、電子システムのその一部と一体的に実装されてもよい。例えば、処理システム119は、入力デバイス116の実現に加えて電子システムのための他の機能を果たす処理システム上に少なくとも部分的に存在してもよい。
[0028]また、本願においては、「電子システム」という用語は、入力デバイス116と通信する任意のタイプのデバイスを広く指す。したがって、電子システム100は、触覚センサデバイスが中に実装され得る又は結合され得る任意のタイプのデバイス又は複数のデバイスを含んでもよい。入力デバイス116は、電子システム100の一部として実装されてもよく、又は任意の適切な技術を使用して電子システムに結合されてもよい。したがって、非限定的な例としては、電子システム100は、任意のタイプの計算デバイス、メディアプレーヤ、通信デバイス、又は別の入力デバイス(別の触覚センサデバイス又はキーボードなど)を含んでもよい。いくつかの場合には、電子システム100自体が、さらに大型のシステムの周辺機器である。例えば、電子システム100は、適切な有線技術又は無線技術を使用してコンピュータ又はメディアシステムと通信する、遠隔制御デバイス又はディスプレイデバイスなどのデータ入力デバイス又はデータ出力デバイス(例えばテレビ用の遠隔制御装置など)であってもよい。また、電子システム100の種々の要素(プロセッサ、メモリ、等々)が、システム全体の一部として、触覚センサデバイスの一部として、又はそれらの組合せとして実装されてもよいことにも留意されたい。さらに、電子システム100は、入力デバイス116のホスト又はスレーブとなり得る。
[0029]図示される実施形態においては、入力デバイス116は、ボタン120と共に実装される。ボタン120は、入力デバイス116に対して追加的な入力機能を提供するために実装されてもよい。例えば、ボタン120は、入力デバイス116を用いたアイテムの選択を容易にするために使用されてもよい。当然ながら、これは、追加的な入力機能を入力デバイス116に追加し得る様式の一例に過ぎない。他の実施形態においては、入力デバイス116は、物理スイッチ、仮想スイッチ、又は追加の近接感知領域などの、代替の又は追加の入力デバイスを備えてもよい。また対照的に、入力デバイス116は、追加の入力デバイスを伴わずに実装されてもよい。
[0030]同様に、処理システム119により提供される位置情報は、物体の存在の任意の適切な指示であってもよい。例えば、処理システム119は、「ゼロ次元」1ビット位置情報、スカラー量のような「一次元」位置情報(例えば感知領域に沿った)、及び値の組合せのような「二次元」若しくは「三次元」ベクトル位置情報(例えば、水平軸/垂直軸/奥行き軸、傾斜軸/ラジアル軸、又は二次元又は三次元に延びる任意の他の軸の組合せなど)等々を提供するように実装されてもよい。さらに、本明細書において、「位置情報」という用語は、絶対位置タイプ情報及び相対位置タイプ情報と、1つ又は複数の方向への運動の測定値を含む速度及び加速度等々のさらに他のタイプの空間領域情報とを広く包含するように意図される。また、様々な形態の位置情報が、ジェスチャ認識等々の場合のように、時間履歴成分を含んでもよい。以下においてさらに詳細に説明されるように、処理システム119からの位置情報は、カーソル制御用のポインティングデバイスとしての入力デバイス116の使用を含む、あらゆる範囲のインターフェース入力を容易化する。
[0031]いくつかの実施形態においては、さらに、処理システム119は、入力デバイス116において他の機能を実施するように構成されてもよい。例えば、処理システム119は、個々のセンサ電極を選択又は接続し、存在/近接を検出し、位置情報又は運動情報を計算し、しきい値に達した際の位置又は運動を報告し、及び/又は電子システム100への報告前若しくはユーザに示す前に有効タップ/ストローク/文字/ボタン/ジェスチャシーケンスを解釈及び待機するように構成されてもよい。
[0032]本明細書において説明される様々な実施形態は、「近接センサデバイス」と呼ばれるが、これらの用語は、本明細書においては、従来の入力デバイスのみならず、1つ又は複数の指、ポインタ、スタイラス、及び/又は他の物体の位置を検出することが可能な広範囲の均等な入力デバイスを包含するように意図されることに留意されたい。かかるデバイスは、タッチスクリーン、タッチパッド、タッチタブレット、生体認証デバイス、及び手書き文字認識デバイス又は文字認識デバイス等々を非限定的に含んでもよい。また、本願においては、「電子デバイス」という用語は、入力デバイス116と通信する任意のタイプのデバイスを広く指す。したがって、電子システム100は、触覚センサデバイスが中に実装され得る又は結合され得る任意のタイプのデバイス又は複数のデバイスを含んでもよい。したがって、近接センサデバイスが、物体の単なる存在又は不在以上のものを適切に検出してもよく、広い範囲の均等物を包含してもよい。
[0033]さらに、入力デバイス116は、電子システム100の一部として実装されてもよく、又は任意の適切な技術を使用して電子システム100に結合されてもよい。したがって、非限定的な例としては、電子システム100は、任意のタイプの計算デバイス、メディアプレーヤ、通信デバイス、又はゲームデバイスを含むことが可能である。いくつかの場合においては、電子システム100自体が、さらに大型のシステムの周辺機器である。例えば、電子システム100は、適切な有線技術又は無線技術を使用してコンピュータ又はメディアシステムと通信する、遠隔制御デバイス又はディスプレイデバイスなどのデータ入力デバイス又はデータ出力デバイス(例えばテレビ用の遠隔制御装置など)であってもよい。また、電子システム100の種々の要素(例えばディスプレイ画面、プロセッサ、メモリ、等々)が、システム全体の一部として、入力デバイスの一部として、又はそれらの組合せとして実装されてもよいことにも留意されたい。さらに、電子システム100は、入力デバイス116のホスト又はスレーブとなり得る。
[0034]本発明の実施形態においては、入力デバイス116は、ユーザがユーザインターフェースの一部として入力デバイス116を使用することにより電子システムの調節を容易に行なうことが可能となるように構成される。例えば、スクロール、パン、メニューナビゲーション、及びカーソル制御等々のユーザインターフェースナビゲーションを容易化するために使用されてもよい。別の例としては、色、色調、明るさ、及びコントラストなどの視覚パラメータ、ボリューム、ピッチ、及び強度などの聴覚パラメータ、並びに速度及び振幅などの操作パラメータを含む、デバイスパラメータの変更など、値調節を容易化するために使用されてもよい。また、入力デバイス116は、マシンの移動の制御においてなど、機械的デバイスの制御のために使用されてもよい。
[0035]また、本発明の実施形態は、本明細書においては完全機能型の近接センサデバイスのコンテクストにおいて説明されるが、本発明の機構は、多様な形態のプログラム製品として頒布することが可能であることも理解されたい。例えば、本発明の機構は、コンピュータ可読信号担持メディア上の近接センサプログラムとして実装及び頒布され得る。さらに、本発明の実施形態は、頒布の実施のために使用される特定のタイプのコンピュータ可読信号担持メディアに関わらず、同等に適用される。信号担持メディアの例には、メモリスティック/メモリカード/メモリモジュール、光学ディスク、磁気ディスク、及びハードデバイスなどの記録可能メディアが含まれる。
[0036]本発明の少なくともいくつかの実施形態においては、入力デバイス及び方法は、入力デバイス上における指(又は他の物体)の運動と、コンピュータディスプレイ上に結果的にもたらされるポインタの運動との間におけるマッピングを伴って実現される。
[0037]本明細書において説明される技術は、電子システム100の機能の様々なパラメータの調節を容易化するように意図される。かかるパラメータの例には、画像のパラメータ(例えばピクチャ又はテキストなど)、ディスプレイデバイスの設定(明るさ、色、コントラスト、等々)、及び聴覚設定(ボリューム、バランス、高音レベル、低音レベル、等々)が含まれる。一実施形態においては、パラメータは、画像のサイズ(例えばズームレベルなど)又は画像の垂直位置若しくは水平位置(例えばスクロールなど)などの、ディスプレイデバイスにより表示される画像に関するものである。
[0038]これらの技術は、ある特定のパラメータの変化、また変化の継続を開始させる、感知領域118における物体の2つ以上の移動又はジェスチャの組合せとして説明されてもよい。代替としては、2つ以上の移動が、複数の部分を伴う単一のジェスチャを合同で形成するように理解されてもよい。一実施形態においては、2つ(又はそれ以上)の物体の存在が、感知領域118内において検出され、その後に物体のうちの少なくとも1つが第1の移動を行なうと、パラメータが変化する。物体のうちの少なくとも1つが、感知領域に留まり、「移行事象」の検出後に第2の移動を行なうと、パラメータの変化が継続される。感知領域118から物体が離動(removal)すると、変化が中断され、このプロセスは、感知領域118に2つの物体を再び配置することにより再開され得る。しかし、物体の中の1つが、感知領域118に留まり、第3の移動を起こすと、パラメータの変化は、「反転」され得る。
[0039]図2〜25は、本発明の種々の実施形態による、上述のシステム及び方法の実施を説明する。図2〜4は、感知領域118内に位置する、感知領域118中で移動される、及び感知領域118から離動される、物体の一例を示す。具体的には、図2は、感知領域118内に配置されつつある(又は既に位置決めされている)入力物体114(例えばユーザの指など)を示す。図3は、感知領域118中で移動されつつある入力物体114を示し、これは、上述の移動の中の1つに相当する。図4は、感知領域118から引き上げられつつある、又は離動されつつある入力物体114を示す。
[0040]図5〜9は、感知領域118内における2つの入力物体114の一連の移動の際の感知領域118の平面図を示す。感知領域118における入力物体114の先端部の位置は、入力物体114の感知領域118との接触面に相当する接触面円122及び124によって示される。すなわち、円122及び124は、入力物体114が配置され移動される感知領域118の特定区域(すなわち感知領域内における物体114の部分)を示す。したがって、以下の説明においては、「入力物体」と「接触面円」という用語は、交換可能に使用されることがある。図7において円122が「破線」で見えるのは、各入力物体114が感知領域118から離動される感知領域118の特定区域を示す。
[0041]図10〜12は、図5〜9に示される入力物体114の移動に応答してディスプレイ128上に表示される例示的な画像130のパラメータに対してなされる調節又は変化を示す、入力デバイス116(図1)と共に作動可能に接続された状態のディスプレイ128を有するディスプレイデバイス126の平面図である。画像130が、物体(例えば航空機)のピクチャとして示されるが、「画像」という語は、本明細書においては、物体のピクチャ(すなわち動画又は静止画)、様々なタイプのテキスト及び他の記号、及び/又は図及びマップなどの、ディスプレイデバイス126により生成される任意の視覚デザインを指すように意図されることを理解されたい。
[0042]初めに、図5に図示されるように、感知領域118における2つの入力物体114の同時存在が、感知される。特に、図5は、接触面円122及び124の移動の欠落により示されるような、入力物体114(例えばユーザの2つの指、又は1つの指及び1つの親指など)が感知領域118内において静止状態にある、感知領域118を示す。
[0043]図6に図示されるように、接触面円122及び124(すなわち入力物体114)は、それらの相対位置が変更されるように(すなわち第1の運動)、第1の移動を受ける。本発明の一態様によれば、接触面円122及び124の位置の相対変化を表す測定値(又は第1の測定値)が、決定され、以下に説明されるように使用される。図示される特定の例においては、位置の相対変化の測定値は、接触面円122及び124間の距離の変化(例えば増分)であってもよい。
[0044]少なくとも1つの実施形態において、パラメータの変化は、入力物体114の中の1つだけの移動(例えば、接触面円122が静止状態に留まる一方で、接触面円124が接触面円122の方向に移動するなど)により開始されてもよいことを理解されたい。パラメータの変化量は、一実施形態においては、接触面円122及び124の移動(複数可)を表す測定値(例えば接触面円122及び124間の距離など)に基づく。例えば、一実施形態においては、画像130のズームレベルが、接触面円122及び124間の距離の増分に比例して増加される。
[0045]代替的な実施形態においては、接触面円122及び124の相対位置を表す測定値が、他の様々なタイプの測定値を含んでもよい。例えば、この測定値は、第1の物体及び第2の物体(又は接触面円122及び124)の決定される中心間の距離を含んでもよい。代替的には、この測定値は、第1の物体の位置及び第2の物体の位置により規定される方向を含んでもよい。例えば、この方向は、第1の物体から第2の物体の方向を指すベクトル、又はその逆の方向を指すベクトルの方向であってもよい。かかる方向は、適切な基準フレームに対する角度として測定されてもよい(例えば、所定のゼロ角度方向を有する極座標系を使用して、正のX軸に一致する方向がゼロと見なされ、X軸から反時計回り方向の角度が正と見なされるデカルト座標系を使用して、等々)。他の例としては、この方向は、2つの位置と線などの基準とにより規定される角度(例えば、第1の物体及び第2の物体の決定される中心を横切る線と基準線との間の角度など)として測定されてもよい。さらに、この基準は、動的なものとなされてもよく、前回の入力位置及び初期位置等々の要素に基づくものであってもよい。また、基準は、ユーザによる設定が可能なものとなされてもよい。
[0046]さらに、測定値は、相対位置を表す様々な量の組合せを含んでもよい。例えば、測定値は、物体間の距離と物体により規定される方向との双方の組合せを含んでもよい。
[0047]また、多くの実施形態において、測定値を決定するステップは、物体の実際の位置が計算されること、又は実際の中心が決定されることを要さない点に留意されたい。例えば、物体により規定される方向及び/又は物体間の距離は、各物体の位置の明確な計算を伴わずに決定されてもよい。いくつかの実施形態は、第1の物体及び第2の物体に関する位置の予想されるセットの中から任意の選択肢を事実上用いる。これらの実施形態においては、第1の物体及び第2の物体の可能性のある位置の種々のセットが存在し、測定値の値は、可能性のある位置が第1の物体及び第2の物体の実際の位置である場合でも、可能性のある位置のこれらのセットの中の1つ又は複数から決定される。ある特定の例は、直交する軸に沿って整列されたセンサ電極のセットを含むセンサアレイを有する静電容量プロファイルタイプのセンサデバイスを使用する。かかる静電容量プロファイルタイプのセンサは、物体を入力するための各センサ電極の総容量結合を事実上測定し、それにより、感知領域118における任意の個数の物体の2次元(2D)位置を表す2つの単一軸のプロファイルが生成される。したがって、第1の入力物体及び第2の入力物体が、センサ電極付近に配置されると、第1の物体及び第2の物体の可能な位置のいずれが物体の真の位置を反映するのかが、プロファイルからは不明確になり得る。しかし、可能な位置同士の間の距離は、両セットにおいて同一である。したがって、測定値として距離を使用することにより、実際の位置を決定する必要がなくなる。
[0048]また、第1の物体及び第2の物体の相対位置は、これらの物体が別の基準フレームに対して移動しつつある場合でも、実質的に同一のまま(これらの物体が互いに対して実質的に静止状態にあるように)であることがある。例えば、第1の物体及び第2の物体が、同一の速度で感知領域118を通り移動しつつある場合には、第1の物体及び第2の物体は、感知領域118に対しては移動中であるが、互いに対しては移動中とはならないことになる。
[0049]これらのいずれの場合においても、決定される測定値(相対位置及び/又は相対角度)は、図10及び図11に図示されるように、パラメータに対して第1の調節を行なうために使用されてもよい。図示される実施形態においては、変更される画像130の特定のパラメータは、一般的に理解されるように、画像130のサイズ又は「ズーム」レベルである。図10に示される画像130の例示的なサイズは、図5に図示されるような円122及び124の位置に対応する。接触面円122及び124が、離れるように移動すると(図6)、画像130は、図11において示されるように、ズーム矢印132(ユーザには見えなくてもよい)に示されるようにサイズが増大する。(又は「ズームイン」される)。一実施形態においては、パラメータの変化は、円122及び124の検出される移動(複数可)がパラメータの所望の変化を示すと判定されるまで(例えば円122及び124間の距離の初期しきい値を越えるまで)は開始されない。
[0050]次に図7を参照すると、「移行」事象又はモード切替え事象が、第1の移動後に検出される。図7に図示される例示的な移行事象は、円122に相当する入力物体114が感知領域118から離動する一方で、円124が移動し続ける(すなわち第2の運動)。すなわち、入力物体114の中の1つが、感知領域から離動され、他の入力物体が、感知領域に留まる。図示される例においては、接触面円124は、移行事象後に弓状経路に沿って移動する。
[0051]移行事象として使用され得る物体114による動作の他の例には、しきい値(高又は低)を越える2つの物体間の距離及び/又は角度(或いは距離及び/又は角度の変化)と、例えばある所定の時間量にわたり(比較的小さな曲率半径で)「旋回」態様で移動する物体114の中の1つなどの、しきい値(高又は低)を越える物体114の中の1つの移動の曲率半径とが含まれる。
[0052]図8を参照すると、接触面円124が、例えば図7において開始される弓状経路などに沿って移動し続け、したがって、同一方向に曲がり続けることがある。上述の態様と同様の態様で、移行事象後の感知領域118における入力物体114の中の1つ(例えば接触面円124など)の移動を表す測定値が、決定され、パラメータのさらなる調節のために使用される。接触面円124の運動は、任意の経路形状を含んでもよく、調節のための測定値は、経路長さに基づいてもよい。パラメータは、接触面円122及び124の角度の変化により決定されるのと同一の態様で継続的に調節されてもよい。そのため、図12を参照すると、図示される実施形態においては、画像は、サイズが増大し続ける。一実施形態においては、パラメータの変化の継続は、入力物体114の一方又は両方が、移行事象の開始と移行事象後の入力物体(複数可)114の運動の開始との間において継続的に感知領域118内に留まる場合にのみ生じる。
[0053]一実施形態においては、パラメータの変化の継続の量は、移行事象の検出後の円124の移動を表す測定値(例えば経路長さなど)に基づく。一実施形態においては、この測定値は、経路長さ測定値(物体が移動した経路の全長の測定値)を含んでもよい。経路長さの計算の例には、円124の移動のフィルタリング又は理想化された推定値から導出された測定値、及び円124が移動した経路に近似する線形セグメントの和が含まれる。他の実施形態においては、代替の測定値が、1つ又は複数の軸(デカルト座標系におけるX軸及びY軸など)に沿った変位、及び移動した経路の選択軸に沿った変位率を含んでもよい。パラメータの変化は、接触面円124が図7において開始される弓状経路に沿って(すなわち同一の優先的な曲がり方向に)移動し続ける限りにおいて、継続し得る。別の実施形態においては、パラメータの変化は、接触面円124がセンサ領域内に留まる限りにおいて、継続し得る。移行事象が旋回運動で移動されつつある物体114の中の1つである一実施形態においては、パラメータの変化を継続させる円124の移動は、円形運動での移動を含むが、旋回運動の曲率半径よりも大きな曲率半径を有する「円形スクロール」運動であってもよい。
[0054]一実施形態においては、測定値は、経路長さ測定値(物体が移動した経路の全長の測定値)を含んでもよい。代替の実施形態においては、測定値は、1つ又は複数の軸(デカルト座標系におけるX軸及びY軸など)に沿った変位、移動した経路の選択軸に沿った変位率、円124の移動のフィルタリング又は理想化された推定値から導出された測定値、及び円124が移動した経路のセグメントの和を含んでもよい。
[0055]一実施形態においては、物体114の中の1つが離動され、円124が弓状経路に沿って移動し続ける後では、画像130は、図12に図示されるように、サイズが増大し続ける。いくつかの実施形態においては、パラメータの変化の継続は、両物体114が図6及び図7に図示される運動間において感知領域に留まる場合に、生じ得る点に留意されたい。かかる実施形態においては、第2のジェスチャ又は運動は、両円122及び124の中の一方の弓状運動であると見なされてもよい。別の実施形態においては、物体114の中の1つが離動された後に、円124は、直線セグメントなどの線形経路、矩形などの多角形を描き得る多数の線形経路、波線セグメント、部分弧、又は1つ又は複数の円形経路などの非線形経路、及び任意の個数の経路中を移動することがある。例えば、経路は、1回又は複数回にわたり自体を横断することが可能である。
[0056]図8に図示されるように、円124が、曲がり続けると、経路は、「旋回」運動を受ける各入力物体114を示すものとなり得る(すなわち一連のループ又は円)。図12の画像130は、図示される旋回運動が同一方向(例えば時計回り方向)に継続する限りにおいて、サイズが増大し続けることができる。
[0057]図9を参照すると、次いで、接触面円124の運動が、「反転」され、それによりパラメータは、例えば図11及び図10にそれぞれ図示されるサイズに戻るように、やはり反転されるように調節される(例えばサイズが低下される、又は「ズームアウト」される)。一実施形態においては、パラメータの反転される又は逆方向への変化の量は、感知領域118中における又は感知領域118に対する物体114の中の1つ(例えば感知領域に留まっている物体など)の経路長さなどの、反転運動を表す決定された測定値に基づいてもよい。反転される方向は、「急激反転」又は角度方向の変化として説明されてもよい。急激反転は、同一経路又は初期経路に対して鋭角を有する経路に沿った逆方向への運動を含むことができる。
[0058]さらに、パラメータの変化の反転を生じさせる運動は、「両極性」に関しても定義され得る。ある特定の方向(例えば時計周り方向など)への十分な曲がりが生じた場合に、初期両極性が、この曲がり方向と関連付けされる。この両極性は、急激な反転方向(上述のような)により、又は両極性が曲がり方向と関連付けされた後では、その両極性に関連付けされた方向から逆方向(例えば反時計周り方向など)に十分に曲がることにより、反転され得る。
[0059]2つの最も一般的な制御ジェスチャは、線形運動及び回転運動であってもよく、線形運動が本来的に小さな偏倚運動(excursions)であり、円形運動が本来的にさらに大きな移動であるため、これら両方を取り扱うための統合された機構が望ましいことを理解されたい。次元性の低下のためにこれら2つのタイプの運動を統合することは、主に、適切なサインマネージメントの役割である。単一方向への継続的な線形移動は、反転を生じさせないことがある。しかし、線形移動の際の方向における別個の反転が、反転を生じさせることがある。さらに、ある特定の対称性(handedness)の継続的な曲がり移動は、反転を生じさせないことがある。しかし、回転運動の対称性における別個の反転が、
[0060]残りの入力物体114が感知領域118から離動されると、パラメータの変化は終わり、このプロセスは、ユーザにより再開され得る。一実施形態においては、パラメータの変化は、入力物体(複数可)114がある所定の時間量にわたり感知領域118から外に留まる場合に(例えばこのプロセスがユーザにより再開されるまでなど)、中止され得る。接触面円124が移動を止め、しかし入力物体114が感知領域118に留まる場合には、パラメータの変化は終わる。しかし、ユーザは、図7及び図8に示される態様において物体114を再度移動させることにより、変化を再開させることができる。一実施形態においては、入力物体114が、感知領域118に留まり、次いで逆の曲がり方向(図9)に弓状経路に沿って移動し始めると、パラメータの変化は反転されて、画像130はサイズが小さくなる(又は「ズームアウト」される)。例えば、次いで、画像130は、図11及び図10にそれぞれ図示されるサイズへと戻り得る。
[0061]代替の一実施形態においては、入力物体114が、感知領域118に留まり、次いで逆の曲がり方向(図9)に弓状経路に沿って移動し始めると、パラメータの変化が継続されて、画像130はサイズが大きくなる(又は「ズームイン」される)。他の一実施形態においては、ユーザは、感知領域118内に入力物体114を残し、直線セグメントなどの線形経路、矩形などの多角形を描き得る多数の線形経路、波線セグメント、部分弧、又は1つ又は複数の円形経路などの非線形経路、及び任意の個数の経路を含む、任意の組合せの経路において入力物体114を移動させることにより、同一の態様でパラメータに対する調節を継続することができる。例えば、経路は、1回又は複数回にわたり自体を横断することが可能である。パラメータのこの「逆方向変化」の量は、上述の移動と同様に、接触面円124の移動の経路長さに基づいてもよい。
[0062]パラメータの初期変化と同様の態様で、パラメータの逆方向変化が、感知領域118から残りの入力物体114を離動し、接触面円124の移動を停止することにより、やはり中止され得る。そのため、一実施形態においては、ユーザは、感知領域118内に入力物体114を残し、逆方向に入力物体114を旋回させることにより、逆の態様においてパラメータを反復的に変化させることができる。また、少なくとも1つの実施形態において、パラメータの変化が生じる速度(又はレート)は、接触面円122及び124が移動される速度に依拠することにも留意されたい。すなわち、接触面円122及び124の速度が上昇すると、パラメータが変化されるレートが上昇する。
[0063]図13〜20は、別の作動モードにおける、又は別の実施形態による、入力デバイス116及びディスプレイデバイス126の作動を図示する。特に、図13〜17は、図5〜9に図示されるものと同様の接触面円122及び124の移動を図示する。しかし、図13及び図14において示されるように、2つの入力物体114の初期移動により、接触面円122及び124間の距離が縮小される。前述と同様に、この運動は、実質的に線形的なものとして図示されるが、図14に図示される移動円122(及び/又は124)の経路は、例えば実質的に無限の曲率半径などを有する弓状経路であると理解されてもよい。図18〜20は、図13〜17に図示される接触面円122及び124の移動に応答して画像130の同一のパラメータ(例えばサイズなど)に対して調節又は変更がなされる際の、ディスプレイデバイス126を図示する。
[0064]上述の実施形態と同様に、初めに、図13に図示されるように、感知領域118における2つの入力物体114の同時存在が感知される。図18に図示される画像130の例示的なサイズは、図13に図示されるような円122及び124の位置に対応することができる。
[0065]図14を参照すると、図示される実施形態においては、接触面円122及び124は、第1の移動を受け、それにより接触面円122及び124の間の距離が縮小される。接触面円122及び124の間の距離のこの縮小は、(上述のように)パラメータの変化の基礎をなす測定値として使用されてもよい。円122及び124間の角度の変化が、上述のように測定値としてやはり使用されてもよいことに留意されたい。図14に図示される運動の結果、適切なパラメータが調節され、これは、図示される実施形態においては、図19のズーム矢印132により示されるように、画像130のサイズの縮小(又は「ズームアウト」)となる。
[0066]図15を参照すると、次いで、システムを調節モードに入らせる移行事象が検出される。図示されるように、示される移行事象は、感知領域118からの入力物体114の中の1つの離動を含む。物体114の中の1つが離動された(すなわち移行事象)後には、調節モードに進み、円124が第2の経路(図15)に沿って移動し続け、画像130は図20に図示されるようにサイズが縮小し続ける。前述と同様に、パラメータのこれらの変化の量は、円122及び124の相対位置又は相対運動を表す測定値(例えば感知領域118に対する物体(複数可)114の運動の経路長さなど)に基づいてもよい。このプロセスは、上述のものと同様の態様において中止され得るものであり、同様に、パラメータの変化は、感知領域118内における残りの入力物体114の継続的な存在と、逆方向への優先的な曲がり方向を有する第2の経路に沿った接触面円124の運動とによって、継続され得る。
[0067]調節モードに進んだ後に、パラメータは、図15に図示されるように残りの入力物体114(すなわち対応する接触面円124)が第2の経路に沿って移動し続ける間、2つの物体114の初期移動により規定されるのと同様の態様において調節され続け得る(例えば「ズームアウト」など)。第2の経路は、上述のものと同様の経路の任意の組合せを含んでもよい。図16に図示されるように、接触面円124は、第2の経路に沿って移動し続けることができる。図15及び図16に図示される運動は、図14に図示される経路の曲率半径(例えば無限の)よりも小さな曲率半径123を有する経路に従ってもよい。
[0068]一実施形態においては、残りの入力物体114の移動が反転される場合でも、パラメータは、初期移動により規定される態様で調節され続けることができる(例えば「ズームアウト」など)。したがって、図17に図示されるように、接触面円124が、図9に図示されるものと同様の態様において曲がり運動の方向を反転させる場合には、画像130は、サイズが縮小し続け得る。接触面円124の反転運動は、図17に図示されるように第3の弓状経路に従ってもよく、この第3の弓状経路は、図14に図示される経路(複数可)の曲率半径よりも小さく、第2の経路(図15及び/又は図16)の曲率半径123よりも大きい又は小さい曲率半径125を有してもよい。
[0069]図21〜25は、例えば図10〜12及び/又は図18〜20に図示されるものと同様の画像に対する変化をもたらすために使用され得る、接触面円122及び124の移動を図示する。図21に図示されるように、入力物体114は、接触面円122及び124が静止状態にあるように、感知領域118内において同時に感知される。図22を参照すると、次いで、接触面円122及び124の一方又は両方が、第1の弓状経路に沿って移動されて(例えば第1の優先的な曲がり方向に)、それらの相対位置を表す角度が変化する。図示される実施形態においては、接触面円122及び124間の距離は、実質的に一定に留まる。
[0070]一実施形態においては、接触面円122及び124の初期移動は、特定のパラメータに対する調整を生じさせない。逆に、相対位置を表す角度(又は角度の変化)がしきい値を越える場合に、システムは、明確な移行事象の検出を伴わずに(しかししきい値の超過は、移行事象と見なされ得る)調節モードに「ロック」される。調節モードに進んだ後には、パラメータ(例えば画像130のサイズなど)が、感知領域118に対する入力物体114の中の一方又は両方を表す測定値(例えば経路長さ、又は感知領域118における入力物体(複数可)114と基準点との間の角度の変化など)に基づいて調節される。
[0071]モードロックが使用される場合には、パラメータが調節される(例えば「増大される」又は「低減される」)態様は、接触面円122及び124の初期移動によって決定されてもよい。例えば、図22に図示される接触面円の反時計回り方向運動が、画像130をズームアウトする又は画像130のサイズを縮小するために使用されてもよい。画像130のサイズの縮小は、入力物体(複数可)114の運動がいかなる様式において「反転」されても、モードロック後のその運動の方向又は形状に関わらず継続することができる。そのため、接触面円124が、図23の弓状経路に沿って移動しなくても、画像130は、サイズが縮小し続けることができる。さらに、図24及び25に図示される明らかな反転運動が、画像130を同一の様式で調節させてもよい(例えばズームアウトさせるなど)。
[0072]上述のものと同様の態様において、調節モード及びモードロックは、感知領域118からの残りの入力物体(複数可)の離動により(すなわち所定の時間にわたって)停止され得る。一実施形態においては、モードロックは、入力物体(複数可)114がある所定の時間量にわたり感知領域118から外に留まる場合に(例えばこのプロセスがユーザにより再開されるまでなど)、停止され得る。次いで、ユーザは、両入力物体114を感知領域118内に位置決めし戻すことにより、このプロセスを再開させることができる。
[0073]一実施形態においては、物体114の中の1つが移動される経路の「対掌性(chirality)」が、パラメータの変化が継続されるべきであるか否か、及び/又はこの変化が反転されるべき時(例えば物体114の曲がり運動が反転する時)を判定するために使用されてもよい。対掌性経路は、二次元スペースを通る個別の経路であり、この経路に沿った各セグメントが、2つの可能な対掌性の一方を付される。セグメントの対掌性は、優先的な又は「好ましい」曲がり方向により指定される。有機化学からの技術用語を本明細書における使用に適合化させると、左旋性(L)セグメントは、概して左側曲がりシーケンスの一部である。右旋性(D)セグメントは、概して、主に右への曲がりである。例えば、円形経路が反時計回り方向(CCW)に辿られる場合には、そのセグメントはLとなり、又は時計回り方向に辿られる場合には、Dとなる。
[0074]対掌性経路のセグメントが付されると、直接的に、一次元出力変数上にこの経路がマッピングされる。対掌性は、出力のサインを確立する役割を果たし、移動距離は、量を確立する役割を果たす。慣例的には、Lセグメントが正の出力を生成し、D経路が負の出力を生成するが、他の実施形態が、逆の及び/又は任意の他のスキームを使用してもよい。入力経路長さから出力量を導出することにより、二次元ポインティングデバイスの動的範囲の全てが、任意の関連付けされる一次元タスクに関わることが可能となる。この一次元出力変数は、パラメータが変更されるべき態様(例えば画像130のサイズの増大又は縮小など)の決定において使用され得る。
[0075]別の実施形態においては、物体114の中の1つが移動される入力経路の角度が、パラメータの変化が継続されるべきであるか否か、及び/又はこの変化が反転されるべき時(例えば物体114の曲がり運動が反転する時)を判定するために使用されてもよい。入力経路の角度は、第1の変位ベクトルと、この経路に沿った第1の変位ベクトルの直後に続く第2の変位ベクトルとにより規定されてもよい。第1の変位ベクトルは、第1の位置から第2の位置までの変位を表し、第2の変位ベクトルは、第2の位置から第3の位置までの変位を表す。入力経路の角度は、第1の変位ベクトルと第2の変位ベクトルとの間の角度であり、この角度は、パラメータが変更されるべき態様(例えば画像130のサイズの増大又は縮小など)を決定する。この角度が、基準値よりも大きい場合には、継続されると見なされ、基準値よりも小さい場合には、継続するとは見なされない。
[0076]本明細書において示される実施形態及び例は、本発明及びその特定の適用例を最も良く説明し、それにより当業者による本発明の作製及び利用を可能にするために提示された。しかし、前述の説明及び例は、もっぱら例示のために提示されるものであることが当業者には理解されよう。示される説明は、包括的になるようには意図されず、又は開示される正確な形態に本発明を限定するようには意図されない。上述の教示に鑑みて、以下の特許請求の範囲の趣旨から逸脱することなく、多数の修正及び変形が可能である。

Claims (26)

  1. パラメータの調節を達成するための方法であって、
    感知領域における第2の物体に対する第1の物体の位置の変化を検出するステップであり、前記第1の物体及び前記第2の物体が、前記感知領域に同時に存在する、ステップと、
    前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化を示す第1の測定値を決定するステップと、
    前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化に応答して前記パラメータに対する第1の調節を示すステップであり、前記パラメータに対する前記第1の調節の量が、前記第1の測定値に基づく、ステップと、
    前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化を検出する前記ステップの後に、前記感知領域における前記第1の物体の運動を検出するステップと、
    前記感知領域に対する前記第1の物体の前記運動を示す第2の測定値を決定するステップと、
    前記第1の物体の前記運動を検出する前記ステップと、前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化の開始と前記感知領域における前記第1の物体の前記運動の開始との間に、前記感知領域における前記第1の物体及び前記第2の物体のうちの少なくとも一方が継続的に存在することとに応答して、前記パラメータに対する第2の調節を示すステップであり、前記パラメータに対する前記第2の調節の量が、前記第2の測定値に基づく、ステップと
    を含む、方法。
  2. 前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化と前記感知領域における前記第1の物体の前記運動との間における移行を示す移行事象を検出するステップをさらに含み、前記第2の調節を示す前記ステップが、前記移行事象を検出するこのステップに応答してさらに行なわれる、請求項1に記載の方法。
  3. 前記移行事象が、前記感知領域からの前記第1の物体及び前記第2の物体の少なくとも一方の離動を含む、請求項2に記載の方法。
  4. 前記移行事象が、しきい値を超える前記第1の測定値を含む、請求項2に記載の方法。
  5. 前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化を示す第1の測定値を決定する前記ステップが、
    前記第2の物体に対する前記第1の物体の位置の前記変化を示す距離の変化を決定するステップから成る、請求項1に記載の方法。
  6. 前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化を示す第1の測定値を決定する前記ステップが、
    前記第2の物体に対する前記第1の物体の位置の前記変化を示す角度の変化を決定するステップから成る、請求項1に記載の方法。
  7. 前記感知領域における前記第1の物体の前記運動を検出する前記ステップの後に、前記感知領域における前記第1の物体の第2の運動を検出するステップであって、前記第2の運動が、前記第1の運動の逆となる、ステップと、
    前記感知領域に対する前記第1の物体の前記第2の運動を示す第3の測定値を決定するステップと、
    前記第1の物体の前記第2の運動を検出する前記ステップに応答して前記パラメータに対する第3の調節を示すステップであって、前記パラメータに対する前記第3の調節が、前記第3の測定値に基づき、前記パラメータに対する前記第3の調節が、前記パラメータに対する前記第2の調節の逆ではない、ステップと
    をさらに含む、請求項1に記載の方法。
  8. 前記感知領域における前記第1の物体の前記運動を検出する前記ステップの後に、前記感知領域における前記第1の物体の第2の運動を検出するステップであって、前記第2の運動が、前記第1の運動の逆となる、ステップと、
    前記感知領域に対する前記第1の物体の前記第2の運動を示す第3の測定値を決定するステップと、
    前記第1の物体の前記第2の運動を検出する前記ステップに応答して前記パラメータに対する第3の調節を示すステップであって、前記パラメータに対する前記第3の調節が、前記第3の測定値に基づき、前記パラメータに対する前記第3の調節が、前記パラメータに対する前記第2の調節の逆となる、ステップと
    をさらに含む、請求項1に記載の方法。
  9. 前記第2の測定値が、前記感知領域に対する前記第1の物体の前記運動の経路長さである、請求項1に記載の方法。
  10. 感知領域を有するセンサデバイスを使用してパラメータの調節を達成するための方法であって、
    前記感知領域における第2の物体に対する第1の物体の位置を示す角度の変化を検出するステップであり、前記第1の物体及び前記第2の物体が、前記感知領域に同時に存在する、ステップと、
    角度の前記変化を検出する前記ステップの後に、前記パラメータの調節を達成するための調節モードに進むステップと、
    前記角度の前記変化を検出する前記ステップの後に、前記感知領域における前記第1の物体の運動を検出するステップと、
    前記感知領域に対する前記第1の物体の前記運動を示す測定値を決定するステップと、
    前記感知領域における前記第1の物体の前記運動を検出する前記ステップに応答して前記調節モードに進む前記ステップの後に、前記パラメータに対する調節を示すステップであり、前記パラメータに対する前記調節の量が、前記測定値に基づく、ステップと
    を含む、方法。
  11. 前記第2の物体に対する前記第1の物体の前記位置を示す前記角度の前記変化を示す第2の測定値を決定するステップと、
    前記感知領域における前記第1の物体の前記運動を検出する前記ステップに応答して前記パラメータに対する前記調節を示す前記ステップの前に、先行調節を示すステップであって、前記先行調節が、前記第2の物体に対する前記第1の物体の前記位置を示す角度の前記変化に応答するものであり、前記先行調節の量が、前記第2の測定値に基づく、ステップと
    をさらに含む、請求項10に記載の方法。
  12. 前記調節モードに進む前記ステップが、
    しきい値を越える前記角度の前記変化に応答して、前記調節モードに進むステップ
    をさらに含む、請求項10に記載の方法。
  13. 感知領域における第1の物体及び第2の物体の存在及び運動を検出するように構成された感知システムと、
    前記感知システムに結合される処理システムであって、
    前記感知領域における前記第2の物体に対する前記第1の物体の位置の変化を示す第1の測定値を決定し、
    前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化に応答してパラメータに対する第1の調節を示し、前記パラメータに対する前記第1の調節の量が、前記第1の測定値に基づき、
    前記感知領域に対する前記第1の物体の運動を示す第2の測定値を決定し、前記第1の物体の前記運動が、前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化後に行なわれ、
    前記第1の物体の前記運動と、前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化の開始と前記感知領域における前記第1の物体の前記運動の開始との間に、前記感知領域における前記第1の物体及び前記第2の物体のうちの少なくとも一方が継続的に存在することとに応答して、前記パラメータに対する第2の調節を示し、前記パラメータに対する前記第2の調節の量が、前記第2の測定値に基づく
    ように構成される、処理システムと
    を備える、入力デバイス。
  14. 前記処理システムが、前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化と前記感知領域における前記第1の物体の前記運動との間における移行を示す移行事象を検出するようにさらに構成され、前記処理システムが、前記移行事象にさらに応答して前記第2の調節を示すようにさらに構成される、請求項13に記載の入力デバイス。
  15. 前記移行事象が、前記感知領域からの前記第1の物体及び前記第2の物体の少なくとも一方の離動を含む、請求項14に記載の入力デバイス。
  16. 前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化を示す前記第1の測定値が、距離の変化を含む、請求項13に記載の入力デバイス。
  17. 前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化を示す前記第1の測定値が、角度の変化を含む、請求項13に記載の入力デバイス。
  18. 前記パラメータに対する前記第1の調節及び前記第2の調節がそれぞれ、ディスプレイ上に表示される画像のズーム機能、ディスプレイ上に表示される画像の回転機能、又はそれらの組合せを含む、請求項13に記載の入力デバイス。
  19. 感知領域における第1の物体及び第2の物体の存在及び運動を検出するように構成された感知システムと、
    前記感知システムに結合される処理システムであって、
    前記感知領域における第2の物体に対する第1の物体の位置を示す角度の変化を検出し、前記第1の物体及び前記第2の物体が、前記感知領域に同時に存在し、
    前記角度の前記変化の検出後に調節モードに進んで前記パラメータの調節を達成し、
    前記角度の前記変化の検出後に前記感知領域における前記第1の物体の運動を検出し、
    前記感知領域に対する前記第1の物体の前記運動を示す測定値を決定し、及び
    前記感知領域における前記第1の物体の前記運動の検出に応答して前記パラメータに対する調節を示し、前記パラメータに対する前記調節の量が、前記測定値に基づく
    ように構成される、処理システムと
    を備える、入力デバイス。
  20. 前記パラメータに対する前記調節が、後の調節であり、前記パラメータに対する前の調節が、前記角度の前記変化の検出に応答して示される、請求項19に記載の入力デバイス。
  21. 前記処理システムが、
    前記第2の物体に対する前記第1の物体の前記位置を示す前記角度の前記変化を示す第2の測定値を決定し、
    前記感知領域における前記第1の物体の前記運動の検出に応答して前記パラメータに対する前記調節を示す前に、先行調節を示し、前記先行調節が、前記第2の物体に対する前記第1の物体の前記位置を示す角度の前記変化に応答するものであり、前記先行調節の量が、前記第2の測定値に基づく
    ようにさらに構成される、請求項19に記載の入力デバイス。
  22. 前記処理システムが、前記角度の前記変化に応答して前記調節モードに進むようにさらに構成される、請求項19に記載の入力デバイス。
  23. 入力デバイス用プログラムであって、
    感知領域における第2の物体に対する第1の物体の位置の変化を検出し、前記第1の物体及び前記第2の物体が、前記感知領域に同時に存在し、
    前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化を示す第1の測定値を決定し、
    前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化に応答してパラメータに対する第1の調節を示し、前記パラメータに対する前記第1の調節の量が、前記第1の測定値に基づき、
    前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化後の移行事象を検出し、
    前記移行事象後の前記感知領域における前記第1の物体の運動を検出し、
    前記感知領域に対する前記第1の物体の前記運動を示す第2の測定値を決定し、
    前記第1の物体の前記運動と、前記移行事象の開始と前記感知領域における前記第1の物体の前記運動の開始との間に、前記感知領域における前記第1の物体及び前記第2の物体のうちの少なくとも一方が継続的に存在することとに応答して、前記パラメータに対する第2の調節を示し、前記パラメータに対する前記第2の調節の量が、前記第2の測定値に基づく
    ように構成された、入力デバイス用プログラムと、
    前記入力デバイス用プログラムを担持するコンピュータ可読メディアと
    を備える、プログラム製品。
  24. 前記移行事象が、前記感知領域からの前記第1の物体及び前記第2の物体の少なくとも一方の離動を含む、請求項23に記載のプログラム製品。
  25. 前記移行事象が、しきい値を越える前記第1の測定値を含み、前記第1の測定値が、前記感知領域における前記第2の物体に対する前記第1の物体の位置を示す角度の変化と、前記第1の物体及び前記第2の物体を隔てる距離の変化とのうち少なくとも一方を含む、請求項23に記載のプログラム製品。
  26. 前記処理システムが、
    前記感知領域に対する前記第1の物体の第2の運動を示す第3の測定値を決定し、
    前記第1の物体の前記第2の運動と、前記感知領域における前記第1の物体の前記運動の開始と前記感知領域における前記第1の物体の前記第2の運動の開始との間に、前記感知領域における前記第1の物体及び前記第2の物体の少なくとも一方が継続的に存在することとに応答して、前記パラメータに対する第3の調節を示し、前記パラメータに対する前記第3の調節が、前記第3の測定値に基づく
    ようにさらに構成される、請求項23に記載のプログラム製品。
JP2011532147A 2008-10-21 2009-10-06 電子システムのパラメータを調節するための入力デバイス及び方法 Active JP5561682B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US10724508P 2008-10-21 2008-10-21
US61/107,245 2008-10-21
US12/391,011 US8174504B2 (en) 2008-10-21 2009-02-23 Input device and method for adjusting a parameter of an electronic system
US12/391,011 2009-02-23
PCT/US2009/059685 WO2010047945A2 (en) 2008-10-21 2009-10-06 Input device and method for adjusting a parameter of an electronic system

Publications (3)

Publication Number Publication Date
JP2012506574A true JP2012506574A (ja) 2012-03-15
JP2012506574A5 JP2012506574A5 (ja) 2012-11-08
JP5561682B2 JP5561682B2 (ja) 2014-07-30

Family

ID=42108277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011532147A Active JP5561682B2 (ja) 2008-10-21 2009-10-06 電子システムのパラメータを調節するための入力デバイス及び方法

Country Status (6)

Country Link
US (1) US8174504B2 (ja)
EP (1) EP2356548A2 (ja)
JP (1) JP5561682B2 (ja)
KR (1) KR20110074600A (ja)
CN (1) CN102257468B (ja)
WO (1) WO2010047945A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013257517A (ja) * 2012-06-14 2013-12-26 Yamaha Corp パラメータ制御プログラム及びパラメータ制御装置
JP2015005265A (ja) * 2013-11-25 2015-01-08 利仁 曽根 リサイズ要求判定方法
JP2016045813A (ja) * 2014-08-25 2016-04-04 キヤノン株式会社 ズーム制御装置およびその制御方法

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100321319A1 (en) * 2009-06-17 2010-12-23 Hefti Thierry Method for displaying and updating a view of a graphical scene in response to commands via a touch-sensitive device
US20110205169A1 (en) * 2010-02-24 2011-08-25 Primax Electronics Ltd. Multi-touch input apparatus and its interface method using hybrid resolution based touch data
US8878773B1 (en) 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
JP2015038642A (ja) 2010-06-09 2015-02-26 株式会社東芝 表示処理装置及び表示処理方法
FR2963970B1 (fr) * 2010-08-17 2013-07-12 Compagnie Ind Et Financiere Dingenierie Ingenico Procede de commande d'actions au moyen d'un ecran tactile.
US20120054670A1 (en) * 2010-08-27 2012-03-01 Nokia Corporation Apparatus and method for scrolling displayed information
US20120161791A1 (en) * 2010-12-28 2012-06-28 Synaptics Incorporated Methods and apparatus for determining input objects associated with proximity events
US8497838B2 (en) * 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
CN102692995A (zh) * 2011-03-21 2012-09-26 国基电子(上海)有限公司 具有接近感应功能的电子装置及接近感应控制方法
KR20140025524A (ko) * 2011-06-21 2014-03-04 유니파이 게엠베하 운트 코. 카게 정보 기술 장치의 디스플레이 디바이스에 의한 회화 정보의 표현에 영향을 주기 위한 방법들 및 물건들
US9041734B2 (en) 2011-07-12 2015-05-26 Amazon Technologies, Inc. Simulating three-dimensional features
US10088924B1 (en) 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
US8947351B1 (en) * 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
DE102011084802A1 (de) * 2011-10-19 2013-04-25 Siemens Aktiengesellschaft Anzeige- und Bedieneinrichtung
JP5160680B1 (ja) * 2011-10-26 2013-03-13 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理装置の制御方法、及びプログラム
JP5060651B2 (ja) * 2011-12-20 2012-10-31 株式会社東芝 表示処理装置、表示制御プログラム及び表示処理方法
US8942434B1 (en) 2011-12-20 2015-01-27 Amazon Technologies, Inc. Conflict resolution for pupil detection
TWI547858B (zh) * 2011-12-30 2016-09-01 富智康(香港)有限公司 於觸控螢幕上控制檔案縮放及旋轉的系統及方法
US9223415B1 (en) 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
US9342195B2 (en) * 2012-03-12 2016-05-17 Microchip Technology Incorporated System and method to share electrodes between capacitive touch controller and gesture detection device
US20130257792A1 (en) * 2012-04-02 2013-10-03 Synaptics Incorporated Systems and methods for determining user input using position information and force sensing
US9317113B1 (en) 2012-05-31 2016-04-19 Amazon Technologies, Inc. Gaze assisted object recognition
CN103593119B (zh) * 2012-08-14 2017-06-13 国基电子(上海)有限公司 便携式电子装置及其显示内容放大的方法
US9195368B2 (en) 2012-09-13 2015-11-24 Google Inc. Providing radial menus with touchscreens
US9507425B2 (en) 2013-03-06 2016-11-29 Sony Corporation Apparatus and method for operating a user interface of a device
DE102013009009B4 (de) * 2013-05-17 2023-08-03 Elektrobit Automotive Gmbh System und Verfahren zur Datenauswahl mittels einer berührungsempfindlichen Oberfläche
US9269012B2 (en) 2013-08-22 2016-02-23 Amazon Technologies, Inc. Multi-tracker object tracking
CN105531646A (zh) * 2013-09-17 2016-04-27 皇家飞利浦有限公司 手势驱动的范围和值的同时选择
US10055013B2 (en) 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
CN103995653B (zh) * 2014-06-09 2018-10-12 联想(北京)有限公司 一种参数调节的方法和装置
CA2955169A1 (en) * 2014-09-03 2016-03-10 University Of Malta A human machine interface device for aircraft
CN105137938A (zh) * 2015-08-31 2015-12-09 中国烟草总公司广东省公司 一种基于物联网技术的智能烟田监控管理系统
US9652069B1 (en) 2015-10-22 2017-05-16 Synaptics Incorporated Press hard and move gesture
US10089000B2 (en) 2016-06-03 2018-10-02 Microsoft Technology Licensing, Llc Auto targeting assistance for input devices
US10459544B2 (en) * 2017-05-19 2019-10-29 Htc Corporation Electronic system and proximity sensing method
US11094135B1 (en) * 2021-03-05 2021-08-17 Flyreel, Inc. Automated measurement of interior spaces through guided modeling of dimensions
US20230289244A1 (en) * 2022-01-21 2023-09-14 Hewlett-Packard Development Company, L.P. Peripheral device positions

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008020446A1 (en) * 2006-08-15 2008-02-21 N-Trig Ltd. Gesture detection for a digitizer
JP2008217767A (ja) * 2008-01-29 2008-09-18 Fujitsu Ten Ltd 表示装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5327161A (en) * 1989-08-09 1994-07-05 Microtouch Systems, Inc. System and method for emulating a mouse input device with a touchpad input device
US5543590A (en) * 1992-06-08 1996-08-06 Synaptics, Incorporated Object position detector with edge motion feature
US5543591A (en) * 1992-06-08 1996-08-06 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5880411A (en) * 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5889236A (en) * 1992-06-08 1999-03-30 Synaptics Incorporated Pressure sensitive scrollbar feature
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5943052A (en) * 1997-08-12 1999-08-24 Synaptics, Incorporated Method and apparatus for scroll bar control
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US7469381B2 (en) * 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
US7138983B2 (en) * 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
JP4803883B2 (ja) 2000-01-31 2011-10-26 キヤノン株式会社 位置情報処理装置及びその方法及びそのプログラム。
JP4223664B2 (ja) 2000-09-14 2009-02-12 株式会社リコー タッチパネル式座標入力装置
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP5259898B2 (ja) 2001-04-13 2013-08-07 富士通テン株式会社 表示装置、及び表示処理方法
US7038659B2 (en) 2002-04-06 2006-05-02 Janusz Wiktor Rajkowski Symbol encoding apparatus and method
CN100412766C (zh) * 2003-08-29 2008-08-20 诺基亚公司 在基于触摸的用户输入装置上用于识别双点用户输入的方法和装置
WO2005104709A2 (en) * 2004-04-23 2005-11-10 Cirque Corporation An improved method for scrolling and edge motion on a touchpad
JP4903371B2 (ja) * 2004-07-29 2012-03-28 任天堂株式会社 タッチパネルを用いたゲーム装置およびゲームプログラム
US20070046643A1 (en) * 2004-08-06 2007-03-01 Hillis W Daniel State-Based Approach to Gesture Identification
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
US9395905B2 (en) * 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
US20070262951A1 (en) * 2006-05-09 2007-11-15 Synaptics Incorporated Proximity sensor device and method with improved indication of adjustment
WO2007149357A2 (en) 2006-06-16 2007-12-27 Cirque Corporation A method of scrolling that is activated by touchdown in a predefined location on a touchpad that recognizes gestures for controlling scrolling functions
US8086971B2 (en) 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US20090207140A1 (en) * 2008-02-19 2009-08-20 Sony Ericsson Mobile Communications Ab Identifying and responding to multiple time-overlapping touches on a touch panel

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008020446A1 (en) * 2006-08-15 2008-02-21 N-Trig Ltd. Gesture detection for a digitizer
JP2008217767A (ja) * 2008-01-29 2008-09-18 Fujitsu Ten Ltd 表示装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013257517A (ja) * 2012-06-14 2013-12-26 Yamaha Corp パラメータ制御プログラム及びパラメータ制御装置
JP2015005265A (ja) * 2013-11-25 2015-01-08 利仁 曽根 リサイズ要求判定方法
JP2016045813A (ja) * 2014-08-25 2016-04-04 キヤノン株式会社 ズーム制御装置およびその制御方法

Also Published As

Publication number Publication date
CN102257468A (zh) 2011-11-23
US8174504B2 (en) 2012-05-08
WO2010047945A3 (en) 2010-09-30
KR20110074600A (ko) 2011-06-30
CN102257468B (zh) 2013-11-13
JP5561682B2 (ja) 2014-07-30
WO2010047945A2 (en) 2010-04-29
EP2356548A2 (en) 2011-08-17
US20100097332A1 (en) 2010-04-22

Similar Documents

Publication Publication Date Title
JP5561682B2 (ja) 電子システムのパラメータを調節するための入力デバイス及び方法
US9870137B2 (en) Speed/positional mode translations
EP2788843B1 (en) Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means
US7825797B2 (en) Proximity sensor device and method with adjustment selection tabs
US8139028B2 (en) Proximity sensor and method for indicating extended interface results
US20090289902A1 (en) Proximity sensor device and method with subregion based swipethrough data entry
US9690377B2 (en) Mobile terminal and method for controlling haptic feedback
JP5862898B2 (ja) 動作モードを変更する方法および装置
KR101007045B1 (ko) 접촉센서 장치 및 이 장치의 포인팅 좌표 결정 방법
KR101521337B1 (ko) 재배치가능한 터치면 상의 제스처 방위의 검출
US20070262951A1 (en) Proximity sensor device and method with improved indication of adjustment
US20150109242A1 (en) Method, device and mobile terminal for three-dimensional operation control of a touch screen
US20140043265A1 (en) System and method for detecting and interpreting on and off-screen gestures
US20090288889A1 (en) Proximity sensor device and method with swipethrough data entry
WO2008085789A2 (en) Gestures for devices having one or more touch sensitive surfaces
CN104793853B (zh) 使用者界面的操作方法与电子装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140602

R150 Certificate of patent or registration of utility model

Ref document number: 5561682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250