JP2014532908A - マルチポインタ間接入力装置の加速度によるインターラクション - Google Patents

マルチポインタ間接入力装置の加速度によるインターラクション Download PDF

Info

Publication number
JP2014532908A
JP2014532908A JP2014537345A JP2014537345A JP2014532908A JP 2014532908 A JP2014532908 A JP 2014532908A JP 2014537345 A JP2014537345 A JP 2014537345A JP 2014537345 A JP2014537345 A JP 2014537345A JP 2014532908 A JP2014532908 A JP 2014532908A
Authority
JP
Japan
Prior art keywords
input
display
point
points
displacement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014537345A
Other languages
English (en)
Other versions
JP2014532908A5 (ja
JP6141290B2 (ja
Inventor
ホンジ,スコット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014532908A publication Critical patent/JP2014532908A/ja
Publication of JP2014532908A5 publication Critical patent/JP2014532908A5/ja
Application granted granted Critical
Publication of JP6141290B2 publication Critical patent/JP6141290B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

タッチセンサを含むがこれに限定されない間接的インターラクション型入力装置は複数の入力点を提供できる。これらの複数の点はディスプレイなどの出力装置上の複数の点に対応付けられる。しかし、複数の入力点は、ポインタ弾道の適用と、入力センサと目標ディスプレイとの間の解像度の違いを管理しづらくする。そのため、複数の点の特徴を特定して用いて、各点の対応付けを調整する。例えば、この問題を解決する一方法は、前のフレームからの、前の点から、または基準点からの変位が最も小さい入力点を特定することである。この変位を用いて、入力装置から対応するディスプレイ座標への一組の入力点の対応付けを調節する。

Description

本発明の一実施形態は、マルチポインタ間接入力装置の加速度によるインターラクションに関する。
コンピューティングシステムのナビゲーションと空間的コントロールに用いるマニュアル入力装置は、コンピュータシステムの機能及び全体的なユーザ体験に対して大きなインパクトを有する。複数種類のマニュアル入力装置がある。パーソナルコンピュータで最も一般的なものには、マウスやタッチパッドなどのシングルポインタ間接インターラクション型装置と、タッチスクリーンなどの直接インターラクション型装置がある。
シングルポインタ間接インターラクション型装置センサは、センサとのユーザインターラクションを検知して、このインターラクションをディスプレイ上の位置に対応させる。入力ポイントをディスプレイに対応させる一方法には、センサ範囲(sensor extents)のディスプレイ範囲(extents
of the display)への一対一対応があり、これは絶対対応と呼ばれる。絶対対応を用いる装置例としてはペンタッチ型デジタイザがある。他の一方法には、装置センサ座標のディスプレイの可動部分への対応があり、これは相対対応と呼ばれる。
相対的対応を用いる装置例としては、マウスや、マウスをエミュレートする装置、例えばトラックパッドなどがある。マウスは、検知されたその装置とのインターラクションに基づいて、動きを検知して、仮想開始点をある距離だけ移動させる。トラックパッドは一般的にマウスと同様に用いられる。トラックパッドへのコンタクトの動きが検知され、検知された動きはマウス入力と同様に処理される。
直接インターラクション型装置により、ディスプレイと仮想的にアライン(align)された装置とインターラクションできる。直接インターラクション型装置は、タッチ検知面上の位置と、同じサイズのディスプレイ上の位置とを、絶対対応を用いて、対応させる。例えば、ユーザがタッチスクリーン上の点にタッチすると、入力イベントが、ユーザインタフェース中の、ユーザによりタッチされたディスプレイ上の点に対応する位置において、コマンド起動などのアプリケーション応答をトリガーする。
マルチポインタ入力からの空間的入力のディスプレイへの絶対及び相対対応付け(mapping)には、入力装置及びディスプレイ装置の物理的属性、システムの能力、アプリケーションユーザインタフェースの性質とレイアウト、ユーザが実行するタスクの種類、及び様々なエルゴノミック要因に応じて、利点と欠点がある。
例えば、相対的マッピングモードでは、入力装置センサは目標ディスプレイ座標空間の一部のみに広がっている。それゆえ、入力点の動きが検出されているうちに、その点の、ある形式の加速を用いなければ、一表示位置から他の一表示位置へのナビゲーションには複数のストロークが含まれ得る。逆に、ピクセルレベルの、ポイントツーポイントの目標精度を達成するため、その点の、ある形式の減速を用いることができる。かかる加速と減速は「ポインタ弾道」と呼ぶこともある。他の一例として、絶対対応付けモードにおいて、入力センサは、ディスプレイ座標空間に対して、解像度がずっと低く、アスペクト比が大きく異なるかも知れない。それゆえ、ピクセルレベルのポイントツーポイントのナビゲーションにおける精度を実現することは、ある形式の正の及び/または負の加速がなければ困難である。
本欄では、発明の詳細な説明で詳しく説明するコンセプトの一部を選んで、簡単に説明する。本欄は、特許を請求する主題の重要な特徴や本質的な特徴を特定するものではなく、特許を請求する主題の範囲を限定するものでもない。
間接的インターラクション型入力装置は、一または複数の入力センサを含む。各センサは複数の入力点を検知して提供できる。本技術分野では様々なマルチポイント入力検知技術が知られており、容量型、抵抗型、及び圧力型タッチセンサ、光センサ、及びモーションビデオ・スケルタル・トラッキングシステムが含まれるがこれらに限定されない。センサ入力点をディスプレイ等の出力への対応付けに適用される計算は、センサが(2次元座標空間中の離散的位置以外の)入力点を確定するやり方、及び入力点を検知するやり方には依存しない。例えば、タッチセンシティブセンサは、座標空間中のユーザがセンサにタッチしている二以上の位置を示すデータを提供できる。かかるセンサは形状が四角形であってもよいが、他の形状でもよい。センサはトラックパッドと同様に見えるが、一点の動きをトラッキングするのではなく、ユーザがタッチした複数の店を検知する。これらの複数の点はディスプレイなどの出力装置上の複数の点に対応付けられる。
しかし、複数の入力点は、ポインタ弾道の適用と、入力センサと目標ディスプレイとの間の解像度の違いを管理しづらくする。そのため、複数の点の特徴を特定して用いて、各点の対応付けを調整する。例えば、この問題を解決する一方法は、前のフレームからの、前の位置から、または基準点からの変位が最も小さい入力点を特定することである。この変位を用いて、センサから対応するディスプレイ座標への一組の入力点の対応付けを調節する。
したがって、一態様では、マルチポインタ間接入力型装置センサ上の入力点を示す情報をメモリに受け取る。入力点は、表示のため、ディスプレイ座標空間中の位置に対応付けられる。2つの時点間の入力点の変位を決定する。決定した変位により、入力点の対応付けを修正する。入力点の修正された対応付けにより、ディスプレイ上に複数の点を表示する。
以下の説明では、本手法の一部を構成する、本手法の具体的な実施例を例示として示す添付図面を参照する。言うまでもなく、これ以外の実施形態を用いてもよく、本開示の範囲から逸脱することなく、構造的な変更を施すこともできる。
マルチポインタ間接入力装置を用いるシステムを示すブロック図である。 ビューポート配置の一実施形態を示すフローチャートである。 入力対応付けの一実施形態を示すフローチャートである。 入力対応付けの他の一実施形態を示すフローチャートである。 入力加速の一実施形態を示すフローチャートである。 スパン調整の一実施形態を示すフローチャートである。 かかるシステムを実施できる一コンピューティング装置例を示すブロック図である。
以下のセクションでは、マルチポインタ、間接入力装置を用いることができる一動作環境例をを説明する。
図1を参照するに、コンピュータシステム100は、コンピュータプラットフォーム104(その一例の詳細は後で説明する)に接続された、センサを有するマルチポインタ間接入力装置102を含む。かかるコンピュータシステムは、パーソナルコンピュータ、ホームエンターテイメントシステム、プロジェクタ、キオスクアプリケーション、小型パーソナルエレクトロニクスなどであり得る。コンピュータプラットフォームは、一または複数のアプリケーション108と、コンピュータプラットフォーム104の資源(コンピュータプラットフォーム104のマルチポインタ間接入力装置を含む周辺装置)との間のインターラクションを管理するオペレーティングシステムを有する。
オペレーティングシステムにおいては、複数の検知された入力点110を記述するデータが、マルチポインタ間接入力装置102のセンサから受け取られる。これらの入力点は処理され、ディスプレイ120上の点に対応付けられる。
この対応付けプロセスは、装置座標系のディスプレイ座標系への最初の対応付けを決定し、これは相対的でも絶対的でもよく、次に、装置座標系からディスプレイ座標系への各点の対応付けを決定する。かかる最初の対応付けは、各入力セッションの初めに行われる。
入力セッションは第1の入力がセンサにより検知された時点から、最後の入力がセンサから無くなった時点までである。入力セッション中、入力点は動きやすい。入力点はセンサ座標系の新しい位置から、ディスプレイ座標系の対応する新しい位置に対応付けられる。この動き対応付けには、バウンディングと加速などの問題を考慮できる。
図1に示したように、入力セッションの初めに、複数の点110がビューポート選択モジュール130に入力される。ビューポート選択モジュールは、その出力として、ディスプレイ座標系におけるビューポートサイズと位置132を提供する。ビューポートは、センサ座標空間が対応付け(mapped)られるディスプレイ座標空間中の領域を確定する。複数の装置センサがシステムに接続される構成では、各センサは自分のビューポートを有する。ビューポートは、入力装置センサの形状に対応する形状を有し得る。しかし、いくつかの実施では、ビューポートは、センサとは異なるアスペクト比や方向を、さらには異なる形状を有していてもよい。例えば、楕円形のセンサが四角形のビューポートに対応付けられてもよい。ビューポートの形状は一般的に干すとシステムにより確定されるが、装置やユーザによって確定されてもよい。ビューポートのサイズと位置は、ユーザ入力がセンサにより検知された時に計算される。ユーザ入力がセンサにより検知されていなければ、ビューポートのサイズと位置は確定されない。ビューポートは一般的にはユーザに表示されない。総合して、ビューポートの形状、サイズ及び位置は、センサ座標系のディスプレイ座標系への対応付けを表す。設定134は、後で例を詳細に説明するが、相対的または絶対的な対応付けなどにより、この対応付けをどう行うかを決定する。
また、複数の点110は、入力セッションにより入力対応付けモジュール140に入力される。入力対応付けモジュールは、その出力として、ディスプレイ座標系における複数の点142を提供する。設定134は、あとで例を詳細に説明するが、相対的入力位置を解釈し、入力運動加速度、スパン調節、及び制約条件を適用するために、装置とディスプレイの基準位置を決定することなどにより、各点がどう対応付けられるか決定する。
複数の点142は、ディスプレイ座標系に対応付けられると、ディスプレイ上に表示できる。各点は、例えば、表示されたアイテムを選択するための単一の点と同様に、または、例えば、ホストシステムユーザインタフェースにおいて要素のズーム、回転、または動きの実行をする直接タッチ入力センサからの複数点と同様に、オペレーティングシステム106及び/またはアプリケーション108により処理できる。ディスプレイに対応づけられたマルチポイントの可能性のある利用範囲は、本発明を限定するものではない。
この場合において、図2、図3および図4を参照して、マルチポイント(multiple points)のディスプレイへの対応付けの実施例をより詳細に説明する。
図2において、フローチャートは、ビューポートのサイズと位置がビューポート選択モジュールによりどのように選択できるか、及び複数の点(points)がどのように対応付けできるか、実施形態を説明している。
留意点として、以下の実施形態は、所望のユーザ体験に関する設計上の意志決定に基づく。例えば、物理的な各点の他の物理的な点に対する相対的な位置は、ディスプレイへの投影時、保持されるものと仮定する。また、すべての入力間の距離は対称的にスケールされるものと仮定する。
ユーザ体験の他の一側面は、入力装置とディスプレイとの間の対応付けの種類である。対応付け(mapping)は相対的なものと絶対的なものがあり、各軸について独立でもよい。例えば、y軸に相対的対応付けを適用し、x軸に絶対的対応付けを適用してもよいし、その逆であってもよい。また、両方の軸について、異なる相対的対応付け(relative mappings)を用いることもできる。また、対応付けは、論理的座標に基づいても、または入力装置とディスプレイの物理的寸法に基づいてもよい。対応付けが装置の物理的寸法に基づく場合、空間的精度を高め、より直感的で認識効率の高いインタフェースを提供する。対応付けの種類に関するこれらの決定は、システムにおける任意的な設定であってもよい。
ユーザ体験の他の一側面は制約ポリシーである。具体的に、装置入力はシステムのディスプレイ制約ポリシーを条件とできる。例えば、すべての装置入力を、ディスプレイ内に留まるように強制しても、またはそのうちの一装置入力のみを、ディスプレイ内に留まるように強制してもよい。他の一実施形態では、制約ポリシーを用いない。制約ポリシーに関するこれらの決定は、システムにおける任意的な設定であってもよい。
ビューポートのサイズと位置は、各入力セッションの初めに決定される。例えば、ユーザ入力が無い期間の後、センサにより一または複数の入力点が検知されると、入力セッションの開始が検知される(200)。各軸のビューポートの寸法は、入力装置、ホストシステム、またはユーザにより確定され得る。この寸法は、目標ディスプレイ装置のパーセンテージまたは物理的な距離単位で表される。物理的な距離単位を用いる場合、入力センサとディスプレイの両方の物理的及び論理的(座標)範囲が、例えば、装置、ユーザ入力、またはその他の手段により提供される。ディスプレイ座標空間における出力ロケータの位置を読み出す(201)。この実施形態では、出力ロケータの位置は、(ユーザのログインに始まり、ユーザのログオフで終わる)ユーザセッションに対してグローバルである。出力ロケータ位置は、システムに接続された複数のシングルポインタ入力装置及びマルチポインタ入力装置間で共有され、更新される。出力ロケータは、前の入力セッションで保存された位置であってもよい。事前に入力セッションが無ければ、ディスプレイ装置の中心、マウスその他の装置の最終位置、または別のデフォルトディスプレイ位置が、出力ロケータ位置として用いられる。
次に、ディスプレイ装置と入力装置の既知のパラメータ、すなわち座標と境界が与えられると、各軸のスケーリングファクタが決定される(202)。これらのパラメータは、一般的に、メモリに格納される。ディスプレイ装置の場合、パラメータはシステムAPIを用いて読み出すことができる。入力装置の場合、パラメータは、装置問い合わせ(device interrogation)により読み出すことができる。ディスプレイ装置と入力装置の座標と境界(bounds)があれば、スケーリングファクタが決まる。絶対的対応付けを用いる場合、物理的範囲に基づく計算は必要ない。x軸とy軸のスケールファクタは、装置とディスプレイの座標範囲の一対一の比率に基づく。相対的対応付けを用いる場合、x軸とy軸のスケールファクタは、装置の寸法の、ディスプレイ座標中のビューポートの寸法に対する比率により決まる。スケールファクタは、一度計算され、メモリに格納され、必要に応じて読み出される。
ディスプレイ座標空間におけるビューポート範囲、すなわち頂点のx及びy座標は、決定されたスケールファクタを用いて決定される(203)。新しい出力ロケータが次のように計算される前に、保存された出力ロケータを用いて入力セッションに対して最初にビューポート範囲が決定される。
ディスプレイの画素密度を用いてスケールされたビューポートの場合、スケールファクタSVは非ゼロで、0と1の間の正値であり、ビューポートの範囲は、
Rv=
{LV0x−SVx/[2*extent(RDx)],
LV0x+SVx/[2*extent(RDx)],
LV0y−SVy/[2*extent(RDy)],
LV0y+SVy/[2*extent(RDy)]}、
ここで、LV0は初期ビューポートロケータであり、一般的には目標ディスプレイの中心であり、SVはスケールファクタであり、範囲(RD)はディスプレイのx及びy座標範囲、すなわち画素幅及び高さであり、添え字xとyはx軸及びy軸における値を示す。
物理的寸法を用いるビューポートの場合、所望のサイズSVは非ゼロ、正数であり、目標ディスプレイの物理的範囲より大きくなく、ディスプレイの画素密度Dはハードウェア問い合わせにより知ることができ、ビューポートの範囲は、
Rv=
{[LV0x−SVx/[2*extent(RDx)]]*Dx+RDx.left,
[LV0x+[SVx/[2*extent(RDx)]]*Dx+RDx.left,
[LV0y−[SVy/[2*extent(RDy)]]*Dy+RDy.top,
[LV0y+SVy/[2*extent(RDy)]]*Dy+RDy.top}。
ビューポートの初期範囲が与えられると、最初は装置座標系中ににセンサロケータが決まる(204)。センサロケータを選択する方法はたくさんあり、所望のユーザインターラクションに応じて方法が選択される。例えば、センサにより一入力が検知された場合、センサロケータはこの一入力の座標であってもよい。複数の入力がある場合、センサロケータは、1つの「主要な」入力の位置であってもよいし、他の入力に関連した一点、例えばすべての点の幾何学的中心であってもよい。入力点が検知されなければ、センサロケータは確定されず、入力セッション間で存続しない。
主要な入力の位置をセンサロケータとして用いる場合、様々な方法を用いてその入力を主要なものとして選択しアサインすることができる。一般的に、「主要な」入力は、任意の方法により選択された入力点である。例えば、主要な入力は、そのセッションにおいて検知された最初の入力または最後の入力であり得る。この方法には、複数の入力が同時にあった場合に、無作為による選択を強制しなければならないという欠点がある。解決策としては、主要な入力を、ある形式の幾何学的順序により、例えば幾何学的ソーティングの式による最高次入力などにより選択することである。例えば、ソーティングの式は、すべての入力と基準点の幾何学的中心にある原点に対して、各入力点により形成される角度をソートできる。基準点は、例えば、ユーザの利き手に基づき測定された角度を有する垂直線であり得る。
方法にかかわらず、センサロケータの決定は、入力の到着時間及び出発時間により影響を受ける。ユーザが複数の入力を同時に触れたいまたは離したいが、少し異なる時間に触れたまたは離した状況に対する保護として、短い時間ウィンドウ(例えば、10−60ms)を用いて、センサロケータの計算を遅らせることができる。
次に、センサロケータ一が、装置座標からディスプレイ座標に対応付けられる(205)。結果は、フレームの新しい出力ロケータ位置である。この位置は式[LS/extent(RS)*extent(RV)]+RV0により計算できる。ここで、LSはセンサロケータのxまたはy座標であり、extent(RS)はセンサ座標空間の幅または高さであり、extent(RV)はビューポートの幅または高さであり、RV0は初期ビューポートの幅または高さである。この新しい出力ロケータは、ディスプレイの境界内に制約される。
新しい出力ロケータが与えられると、ビューポートは、ビューポートロケータを取得することにより、ディスプレイ座標空間中に配置される(206)。セッションの最初のフレームについて、ビューポート位置が決定される。後続のフレームにおいて、その位置がメモリから読み出される。ビューポートの位置は論理的に決定される。すなわち、ビューポートを表示するかどうかは任意的である。実際、ほとんどの実施形態では、ビューポートを表示しない方が好ましいようだ。
上記の通り、ビューポートはディスプレイ上の入力センサ座標空間のプロジェクションであり、ビューポートロケータ位置はディスプレイ座標におけるビューポートの幾何学的中心である。上記の通り、出力ロケータとは異なり、ビューポートは入力がセンサにより検知されなければ、確定されない。ビューポートは(ユーザセッションに対してグローバルではなく)装置インスタンスに関連し、その位置はユーザがセンサ上に最初に入力した時に更新される。入力セッションが始まると、その入力セッションが終わるまで、ビューポートはフレーム間で静止している。フレームが入力セッションの継続を示す(前と現在のフレームの両方の入力のリストが空でない)場合、ビューポートロケータがメモリから読み出される。フレームが新しい入力セッションの始まりである場合、ビューポートロケータは(ステップ205で決定された)センサロケータと(ステップ201で決定された)出力ロケータ位置との間のオフセットを決めることにより、次式により得られる。
ΔLD=LD−LD0
LV=[LS/extent(RS)*extent(RV)]+LV0+ΔLD
LVは目標ディスプレイの境界に制約され、上記の決められたビューポートの範囲は新しいビューポートロケータを用いて再計算される。
センサロケータ、ビューポートロケータ、及びフレームの出力ロケータを計算した後、そのフレームのセンサ入力が、以下により詳しく説明するように、ディスプレイ座標に対応付けられる(208)。ステップ210で決定されたように、入力セッションが終わると、入力セッションに関する情報(最後の出力ロケータなど)が保存される(212)。入力セッションが終わっておらず、(ステップ214で決定された)更新されたセンサ入力位置が受け取られた場合、プロセスは、そのフレームのセンサロケータを決定するステップ204から、これらの新しい入力をディスプレイに対応付けするステップ208までを繰り返す。しかし、フレームが継続中のセッションの一部である場合、ビューポートロケータはステップ206で決定されず、メモリから読み出される。
図3は、ビューポートのサイズと位置が与えられると、センサ入力がビューポート中の点にどうやって対応付けられるかを、(関連する対応付けが行われる場合の)単一ディスプレイ上での境界条件の強制も含めて示している。図3は、すべての入力がディスプレイ中にあるように制約された場合を示す。
システムは、装置から入力点のリストを受け取る(300)。各入力点は装置座標空間中の座標を有する。次に、入力点を、ディスプレイ座標空間中の対応する点に対応付ける(302)。例えば、装置座標空間中点CSのディスプレイ座標空間中の座標CDは、[CS/extent(RS)*extent(RV)]+RVにより計算できる。
入力点を含む境界ボックスを確定する(304)。境界ボックスの角が、ディスプレイの見える範囲に対応付けられ、比較される(306)。境界ボックスのどの角もディスプレイの見えるエリアの外側であれば、入力対応付けが保持される(310)。そうでなければ、境界ボックスをディスプレイの見える範囲内に動かすオフセットを決定する(312)。最小の救済オフセットの計算において、入力境界ボックスの各非適合角の前と現在のフレームの間の変位ベクトルまたは個々の入力は、経路と、それの見えるディスプレイ境界との交点とを確定する。救済オフセットは、その経路の原点と交点との間の変位である。このオフセットを入力点に適用して、ディスプレイの見えるエリア内の新しい位置に再び対応付ける。
他の一実施形態では、装置からの少なくとも一入力点は表示され続けるように、制約される。図4において、システムは、装置から入力点のリストを受け取る(400)。各入力点は装置座標空間中の座標を有する。次に、入力点を、ディスプレイ座標空間中の対応する点に対応付ける(402)。入力点を含む境界ボックスを確定する(404)。境界ボックスの角が、ディスプレイの見える範囲と比較される(406)。境界ボックスの少なくとも一つの角がディスプレイの見えるエリアにあれば、入力対応付けが保持される(410)。そうでなければ、境界ボックスの少なくとも一点をディスプレイの見える範囲内に動かす救済オフセットを決定する(412)。次に、含まれる角に最も近い入力のオフセットを決定し、救済オフセットに適用する(414)。この更新されたオフセットを入力点に適用して、ディスプレイの見えるエリア内の新しい位置に再び対応付ける。
複数のモニタディスプレイに対して、プロセスは同様である。ディスプレイの可視エリアの交わりが、内部に隙間のない、単一の四角形の「仮想的」ディスプレイである規則的なディスプレイトポロジーがある。規則的なディスプレイトポロジーの場合、仮想的ディスプレイ面の境界へ複数の入力を制限することは、単一ディスプレイの場合のそれと同じである。ディスプレイの可視エリアの交わりが、凸型または凹型の内部のすきまを有する直線的な仮想ディスプレイである不規則なディスプレイトポロジーもあり得る。これらのディスプレイトポロジーに対して、上記の方法を用いて救済オフセットを計算して適用できる。
しかし、別のうまくいかないケースは、点が凸型または凹型の内部の隙間の一つの中にある場合、ディスプレイの見えるエリアの外側の点のみを含む境界ボックスを計算して、救済オフセットを計算するのに使える。この場合、ディスプレイの可視エリアに対応付けられない入力点を含むように、境界ボックスが計算される。ここでは、これを不適合な境界ボックスと呼ぶ。不適合な境界ボックスの少なくともひとつの角がディスプレイの可視部分内に含まれるようにする最小の救済オフセットを計算する。この救済オフセットはすべての入力に対して装置・ディスプレイ変換に適用される。
複数のモニタの場合の境界条件のより具体的な実施形態をここで説明する。
この例では、各入力に対して、目標境界ディスプレイ(RD,target)を次のように決定する。まず、入力位置CDが仮想ディスプレイ面の可視領域内に含まれないか、判断する。含まれなければ、前のフレームの入力のディスプレイの座標RD0を読み出す。新しいセッションを表すフレームに対して、これらの座標を出力ロケータ位置LDを含むディスプレイの座標で置き換える。次に、x軸またはy軸のどちらかで、入力CDがRD0により制約されているか判断する。どちらかの軸で位置テストをする場合、目標境界ディスプレイはディスプレイRD0である。さもなければ、入力はディスプレイRD0の境界線を越えている。この入力に対して、センサ座標の変位ベクトルΔSS:ΔSS=CS−CS0を決定する。センサの範囲extent(RS)を読み出す。変位の主要軸を決定する。|ΔSSx/extent(RSx)|>=|ΔSSy/extent(RSy)|であれば、X軸が支配的である。そうでなければ、Y軸が支配的である。
入力変位の主要軸を用いて目標境界ディスプレイを決定する。X軸が支配的である場合、目標境界ディスプレイRDは次の条件を満たすディスプレイである:
1.入力がディスプレイの水平範囲に入る;
2.目標ディスプレイが入力の主要移動方向であり、最後のディスプレイとその境界を共有している;及び
3.最後の入力位置がディスプレイの垂直範囲内にある。
Y軸が支配的である場合、目標境界ディスプレイRDは次の条件を満たす:
1.入力がディスプレイの垂直範囲に入る;
2.目標ディスプレイが入力の主要移動方向であり、最後のディスプレイとその境界を共有している;及び
3.最後の入力位置がディスプレイの水平範囲内にある。
主要方向を用いて目標境界ディスプレイを決定できない場合、非主要方向で検索を行う。目標境界ディスプレイがまだ見つからない場合、目標ディスプレイはその入力の前のディスプレイである。
一入力の目標境界ディスプレイが与えられると、入力がそのディスプレイに固定され、固定オフセットが計算されて格納される。固定オフセットはすべての入力に適用され、入力間の相対的な距離が維持される。このように入力を調整した後、再びすべてをテストして、ディスプレイの見える部分にあるか確認する。
いくつかのインターラクションモードでは、センサで同時に複数の入力をしようとするユーザの意図を実現するのに、短い時間しかない。セッションの最初の入力があると、タイマーが起動され、入力は非アクティブとマークされ、センサロケータの決定が、タイマーが経過するまで遅らされ、または入力が無くなると終了される。同様に、ユーザは複数の入力を同時にしても良い。センサロケータの位置に影響を与えずにこの意図を実現するため、タイマーを用いることもできる。タイマーが起動され、そのタイマーが経過するまで、その複数の入力が継続的にセンサロケータの計算に含められる。
上記の説明では、相対的及び絶対的対応付けモードの両方において、複数の入力点がディスプレイ座標に直接対応付けられる。しかし、相対的対応付けモードでは、入力装置は目標ディスプレイ座標空間の一部のみに広がっている。それゆえ、入力点の動きが検出されているうちに、その点の、ある形式の加速が適用されなければ、一表示位置から他の一表示位置へのナビゲーションには複数のストロークが含まれ得る。逆に、ピクセルレベルの、ポイントツーポイントの目標精度を達成するため、その点の、ある形式の減速を用いることができる。かかる加速と減速は、「ポインタ弾道」と呼ばれることもあるが、以下のように、マルチ入力の間接的入力装置に適用できる。入力装置における入力点の変位は、装置座標空間からディスプレイ座標空間への入力点の対応付けにおいて考慮され、場合によって、ディスプレイ上でのそれらの点の動きを加速または減速する。一般的に、入力点の変位の尺度を決定する。この変位は、入力装置点の対応ディスプレイ座標への対応付けをどのように変更するか、その変位に基づいて決定する関数への入力である。
一実施形態では、各入力点の変位が決められる。変位ベクトルが最小である入力のセンサ画素における物理的変位は、加速曲線変換され、単一の加速されたディスプレイ変位を生成する。これは出力ロケータ及びすべての点のディスプレイ変位に適用される。加速関数の入力は、ベクトルの大きさ、または各軸の値のいずれかでよく、2つの異なる加速関数に入力できる。ここで、この実施形態を図5を参照して説明する。
まず、第1と第2の時点から、入力センサ上の入力点が受け取られる(500)。動いているまたは静止した入力を一意的に特定しトラッキングする方法は、本技術分野において「入力認識及びトラッキング」として知られるが、装置やセンサにより決まることに留意されたい。本発明は、特定の入力認識及びトラッキング手法に限定されない。本技術分野において適切であると思われる認識及びトラッキングの任意の手法を用いることができる。
ある時間内の各入力の各次元における装置座標(すなわち、画素)における変位を決定する(502)。その時間が一定であると分かっている場合、変位のみを使うことができる。そうでなければ、その時間を用いて速さを計算する。
入力の各時間すなわち「フレーム」について、最小の変位または速さを特定する(504)。大きさが(平均や最大ではなく)最小の入力を選択し、入力センサにおいて静止している入力が、ディスプレイに対応付けられた時に、静止したままであるようにする。
特定された入力の変位を、センサの画素密度を用いて、画素における変位から、物理的変位に変換できる。変位値を加速関数への入力として用いて、その値を加速された変位に変換する(506)。本発明は、用いられる特定の加速度の式により限定されない。マウスポインタの加速などに用いられているように、本技術分野で現在用いられている合理的な手法を用いることができる。本発明は、概して、各座標軸(x、y、またはz)の独立した加速を許容する加速度の式に適用できる。好適な変換を、変位値を加速された変位値に対応付ける、部分ごとの線形関数を用いて実施できる。加速された変位値は、物理的次元に基づく場合、画素座標に変換して戻すことができる。
加速された変位は、ディスプレイ座標空間における加速された変位に変換される(508)。例えば、変換は次式DCD=DCS/extent(RS)*extent(RV)]+RVで表すことができる。ディスプレイ座標に対応付けされた各入力位置は、加速された変位により調整される(510)。
絶対的対応付けされた次元の場合、図6を参照して説明するように、スパン調整と呼ばれる同様の方法を用いることができる。図6において、各センサロケータからの各入力の変位を、装置座標空間の画素単位で、決定する(600)。最小変位を選択する(602)。この最小変位値を、装置の画素密度を用いて、物理的次元に変換する(604)。物理的次元における最小変位値を、任意の適切な変換を用いて、スパン調整値に変換する(606)。好適な変換は、変位値をスパン調整値に対応付ける部分ごとの線形関数などの加速度変換と同様であってもよい。このスパン調整値は、画素値に変換して戻される(608)。加速度と同様に、スパン調整値はディスプレイ画素値に変換され(610)、各入力点はその値を用いて調整される(612)。
留意点として、入力点への加速度とスパンの調整修正は、点が見えるディスプレイエリアに留まるようにする境界条件を適用する前に行われる。
実施例を説明したので、かかるシステムが動作するように設計されたコンピューティング環境を説明する。以下の説明は、このシステムを実施できる好適なコンピューティング環境の簡単な一般的説明するものである。本システムは、多数の汎用または特定用途のコンピューティングハードウェア構成で実施することができる。好適な周知のコンピューティング装置の例には、限定ではなく、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドまたはラップトップ装置(例えば、メディアプレーヤ、ノートブックコンピュータ、セルラー電話、パーソナルデジタルアシスタント、ボイスレコーダ)、マルチプロセッサシステム、マイクロプロセッサベースシステム、セットトップボックス、ゲームコンソール、プログラマブルコンシューマエレクトロニクス、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、上記のシステムまたは装置のいずれかを含む分散コンピューティング環境などが含まれる。
図7は、好適なコンピューティング環境の一例を示す。上記のコンピューティングシステム環境は、好適なコンピューティング環境の単なる一例であって、かかるコンピューティング環境の利用や機能の範囲に関する限定を示唆するものではない。どのコンピューティング環境も、上記の動作環境に示したコンポーネントのどれかまたはその組合せに依存するまたは必要とすると解してはならない。
図7を参照し、コンピューティング環境例はコンピューティングマシン700などのコンピューティングマシンを含む。最も基本的な構成では、コンピューティングマシン700は少なくとも1つの処理ユニット702とメモリ704を含む。コンピューティング装置は、複数の処理ユニット及び/または追加的なグラフィックス処理ユニット720などのコ・プロセッシングユニット(co-processing units)を含む。コンピューティング装置の構成とタイプに応じて、メモリ704は、(RAMなどの)揮発性であっても、(ROMやフラッシュメモリなどの)不揮発性であっても、これらの組合せであってもよい。この最も基本的な構成を図7において破線706で示した。また、コンピューティングマシン700は、追加的特徴や機能を有していてもよい。例えば、コンピューティングマシン700は、磁気または光学のディスクまたはテープなどを含むがこれらに限定されない(リムーバブル及び/または非リムーバブルの)追加的な記憶も含み得る。かかる追加的記憶は、図7において、リムーバブル記憶708及び非リムーバブル記憶710により示されている。コンピュータ記憶媒体には、コンピュータプログラム命令、データ構造、プログラムモジュールその他のデータなどの情報を記憶するための任意の方法や技術で実施された、揮発性および不揮発性、リムーバブルまたは非リムーバブルの媒体を含む。メモリ704、リムーバブル記憶708、及び非リムーバブル記憶710は、すべてコンピュータ記憶媒体の例である。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリその他のメモリ技術、CD−ROM、デジタルバーサタイルディスク(DVD)その他の光ディスク記憶媒体、磁気カセット、磁気テープ、磁気ディスク記憶その他の磁気記憶装置、またはその他の、所望の情報の記憶に使え、コンピューティングマシン700によりアクセスできる任意の媒体を含むが、これらに限定されない。かかるコンピュータ記憶媒体はコンピューティングマシン700の一部であり得る。
コンピューティングマシン700は、装置が他の装置と通信できるようにする通信接続712も含み得る。通信接続712は通信媒体の一例である。通信媒体は、一般的に、キャリア波などの変調データ信号やその他の伝送メカニズム中のコンピュータプログラム命令、データ構造、プログラムモジュールその他のデータを担い、任意の情報配信媒体を含む。「変調データ信号」との用語は、情報を信号にエンコードするように設定または変更された特徴を有し、信号を受信する装置の構成や状態を変化させる信号を意味する。限定でなく例示として、通信媒体は、優先ネットワークや直接優先接続などの有線媒体と、音響、RF、赤外線、その他の無線媒体などの無線媒体とを含む。
コンピューティングマシン700は、キーボード、マウス、ペン、カメラ、タッチ入力装置などの様々な入力装置714を有する。ディスプレイスピーカ、プリンタなどの出力装置716を含んでいてもよい。これらの装置はすべて本技術分野で周知であり、これ以上説明する必要はない。
システムは、コンピューティングマシンにより処理される、プログラムモジュールなどのコンピュータ実行可能命令及び/またはコンピュータインタープリタ命令を含むソフトウェアの一般的なコンテキストで実施することもできる。一般的に、プログラムモジュールには、処理ユニットにより処理されたときに、あるタスクを実行したり、ある抽象的データタイプをインプリメントするように処理ユニットに命令する、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などが含まれる。このシステムは、通信ネットワークによりリンクされたリモート処理装置によりタスクが実行される分散計算環境で実施することもできる。分散コンピューティング環境では、プログラムモジュールは、メモリ記憶装置を含むローカル及びリモートのコンピュータ記憶媒体の両方に配置できる。
添付した請求項のプリアンブルの「製品」、「方法」、「マシン」、及び「物質組成」との用語は、請求項を、米国特許法第101条におけるこれらの用語の使用により画定される保護対象の主題の範囲内になるように限定するものである。
ここに説明した実施形態を必要に応じて組み合わせて、追加的なハイブリッドの実施形態を構成することもできる。言うまでもなく、添付した請求項で画定した主題は、上記の具体的な実施形態に必ずしも限定されない。上記の具体的な実施形態は単に例として開示したものである。

Claims (10)

  1. コンピュータにより実施される方法であって、
    複数のフレームについて、マルチポインタ間接入力装置から複数の入力点を示す情報をメモリに受け取るステップと、
    前記複数のフレームのうちの一フレームの前記複数の入力点を、ディスプレイのディスプレイ座標空間中の複数の位置に対応付けるステップと、
    前記複数のフレームのうちの他の一フレーム中の他の一点に対して、前記一フレーム中の前記複数の入力点の各々の変位を決定するステップと、
    前記決定された変位により、前記複数の入力点の対応付けを修正するステップと、
    前記入力点の修正された対応付けにより、ディスプレイ上に複数の点を表示するステップと
    を有する、方法。
  2. 前記対応付けを修正するステップは、
    前記複数の点のうちの変位が最も小さい点を選択するステップと、
    前記最も小さい変位によりオフセットを決定するステップと、
    各入力点について、対応付けられた位置に前記オフセットを加えるステップと
    を有する、請求項1に記載のコンピュータにより実施される方法。
  3. 前記対応付けを修正するステップは、
    前記複数の点のうちの変位が最も小さい点を選択するステップと、
    前記最も小さい変位により前記複数の入力点に関する基準点に、オフセットを適用するステップと、
    各入力点について、その位置を、前記基準点からのオフセットにより決定するステップと
    を有する、請求項1に記載のコンピュータにより実施される方法。
  4. 前記他の一フレームの他の点は、前記他の一フレーム中の前記一入力点の位置である、
    請求項1に記載のコンピュータにより実施される方法。
  5. 前記他のフレーム中の前記他の点は前記他のフレームのセンサロケータである、
    請求項1に記載のコンピュータにより実施される方法。
  6. 小さな変位により、一フレームから次のフレームへの点の変位を減らすように、対応付けが調整される、
    請求項1に記載のコンピュータにより実施される方法。
  7. 大きな変位により、一フレームから次のフレームへの点の変位を増やすように、対応付けが調整される、
    請求項1に記載のコンピュータにより実施される方法。
  8. 前記対応付けを修正するステップは、各軸に対して異なる加速機能を適用する、
    請求項1に記載のコンピュータにより実施される方法。
  9. 前記対応付けを修正するステップは、前記変位の大きさにより加速を適用する、
    請求項1に記載のコンピュータにより実施される方法。
  10. 製品であって、
    コンピュータプログラム命令がエンコードされたコンピュータ読み取り可能記憶媒体を有し、前記コンピュータプログラム命令は、コンピュータにより処理されると、前記コンピュータに、
    複数のフレームについて、マルチポインタ間接入力装置から複数の入力点を示す情報をメモリに受け取るステップと、
    前記複数のフレームのうちの一フレームの前記複数の入力点を、ディスプレイのディスプレイ座標空間中の複数の位置に対応付けるステップと、
    前記複数のフレームのうちの他の一フレーム中の他の一点に対して、前記一フレーム中の前記複数の入力点の各々の変位を決定するステップと、
    前記決定された変位により、前記複数の入力点の対応付けを修正するステップと、
    前記入力点の修正された対応付けにより、ディスプレイ上に複数の点を表示するステップと
    を実行させる、製品。

JP2014537345A 2011-10-20 2012-10-20 マルチポインタ間接入力装置の加速度によるインターラクション Active JP6141290B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/277,222 2011-10-20
US13/277,222 US9274642B2 (en) 2011-10-20 2011-10-20 Acceleration-based interaction for multi-pointer indirect input devices
PCT/US2012/061225 WO2013059752A1 (en) 2011-10-20 2012-10-20 Acceleration-based interaction for multi-pointer indirect input devices

Publications (3)

Publication Number Publication Date
JP2014532908A true JP2014532908A (ja) 2014-12-08
JP2014532908A5 JP2014532908A5 (ja) 2017-04-27
JP6141290B2 JP6141290B2 (ja) 2017-06-07

Family

ID=47574688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014537345A Active JP6141290B2 (ja) 2011-10-20 2012-10-20 マルチポインタ間接入力装置の加速度によるインターラクション

Country Status (6)

Country Link
US (1) US9274642B2 (ja)
EP (1) EP2769288B1 (ja)
JP (1) JP6141290B2 (ja)
KR (1) KR101994500B1 (ja)
CN (1) CN102902412B (ja)
WO (1) WO2013059752A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130155018A1 (en) * 2011-12-20 2013-06-20 Synaptics Incorporated Device and method for emulating a touch screen using force information
US10191890B2 (en) 2014-12-17 2019-01-29 Microsoft Technology Licensing, Llc Persistent viewports
US9842268B1 (en) * 2015-03-27 2017-12-12 Google Llc Determining regions of interest based on user interaction

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61259331A (ja) * 1985-05-13 1986-11-17 Nec Corp 座標入力方法とその装置
JP2008146165A (ja) * 2006-12-06 2008-06-26 Sony Corp 表示装置、表示装置の制御方法、及びプログラム
US20100328206A1 (en) * 2009-06-26 2010-12-30 Panasonic Corporation Dual pointer management method using cooperating input sources and efficient dynamic coordinate remapping
JP2011513830A (ja) * 2008-02-28 2011-04-28 ニューヨーク・ユニバーシティ 処理装置に入力を与える方法及び装置、並びにセンサパッド
JP2011159034A (ja) * 2010-01-29 2011-08-18 Sony Corp 情報処理装置および情報処理方法
JP2013222426A (ja) * 2012-04-19 2013-10-28 Sony Corp 情報処理装置、情報処理方法、プログラム、及び、情報処理システム

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2552427B2 (ja) * 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US6029214A (en) 1995-11-03 2000-02-22 Apple Computer, Inc. Input tablet system with user programmable absolute coordinate mode and relative coordinate mode segments
EP1717677B1 (en) 1998-01-26 2015-06-17 Apple Inc. Method and apparatus for integrating manual input
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US7289109B2 (en) 2000-09-26 2007-10-30 Denny Jaeger Method and apparatus for detecting actuation of a controller device on a touch screen
US6738045B2 (en) 2001-02-26 2004-05-18 Microsoft Corporation Method and system for accelerated data navigation
US7730401B2 (en) 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
CN1582465B (zh) 2001-11-01 2013-07-24 伊梅森公司 输入设备以及包含该输入设备的移动电话
WO2003065190A2 (en) * 2002-01-29 2003-08-07 Meta4Hand Inc. Computer pointer control
US7310103B2 (en) 2002-03-05 2007-12-18 Sun Microsystems, Inc. Pipelined 2D viewport clip circuit
US6995748B2 (en) 2003-01-07 2006-02-07 Agilent Technologies, Inc. Apparatus for controlling a screen pointer with a frame rate based on velocity
US7757186B2 (en) 2003-07-07 2010-07-13 Apple Inc. Automatic mapping of pointing devices to multiple displays
US8164573B2 (en) 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
US7180531B2 (en) 2004-02-27 2007-02-20 Microsoft Corporation Method and apparatus for enabling application program compatibility with display devices having improved pixel density
US7629961B2 (en) 2004-03-01 2009-12-08 Microsoft Corporation Dynamically adjusting operation of one or more sensors of a computer input device
EP2000893B1 (en) 2004-07-30 2016-09-21 Apple Inc. Mode-based graphical user interfaces for touch sensitive input devices
US7692627B2 (en) 2004-08-10 2010-04-06 Microsoft Corporation Systems and methods using computer vision and capacitive sensing for cursor control
US7557774B2 (en) 2004-08-13 2009-07-07 Microsoft Corporation Displaying visually correct pointer movements on a multi-monitor display system
EP1800245B1 (en) 2004-09-09 2012-01-04 Silicon Optix Inc. System and method for representing a general two dimensional spatial transformation
US7432916B2 (en) 2004-12-09 2008-10-07 Universal Electronics, Inc. Controlling device with dual-mode, touch-sensitive display
TWI254581B (en) 2004-12-27 2006-05-01 Sunplus Technology Co Ltd Method and device for detecting image movements
US7605804B2 (en) * 2005-04-29 2009-10-20 Microsoft Corporation System and method for fine cursor positioning using a low resolution imaging touch screen
US7567240B2 (en) 2005-05-31 2009-07-28 3M Innovative Properties Company Detection of and compensation for stray capacitance in capacitive touch sensors
US9019209B2 (en) 2005-06-08 2015-04-28 3M Innovative Properties Company Touch location determination involving multiple touch location processes
US20070109275A1 (en) 2005-11-16 2007-05-17 Chen-Ting Chuang Method for controlling a touch screen user interface and device thereof
WO2007064456A2 (en) * 2005-11-28 2007-06-07 The George Washington University Virtual reality simulator harness systems
US7869646B2 (en) * 2005-12-01 2011-01-11 Electronics And Telecommunications Research Institute Method for estimating three-dimensional position of human joint using sphere projecting technique
JP4151982B2 (ja) 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
US20070257891A1 (en) 2006-05-03 2007-11-08 Esenther Alan W Method and system for emulating a mouse on a multi-touch sensitive surface
US8269725B2 (en) 2006-06-28 2012-09-18 Microsoft Corporation Input simulation system for touch based devices
US20080001926A1 (en) 2006-06-29 2008-01-03 Xiaoping Jiang Bidirectional slider
US7733346B2 (en) * 2006-07-28 2010-06-08 Sony Corporation FACS solving in motion capture
JP2008033739A (ja) 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
US20080055256A1 (en) 2006-08-31 2008-03-06 Intel Corporation Touch screen controller with embedded overlay
US8284165B2 (en) 2006-10-13 2012-10-09 Sony Corporation Information display apparatus with proximity detection performance and information display method using the same
US8023726B2 (en) * 2006-11-10 2011-09-20 University Of Maryland Method and system for markerless motion capture using multiple cameras
US7855718B2 (en) 2007-01-03 2010-12-21 Apple Inc. Multi-touch input discrimination
EP2135155B1 (en) 2007-04-11 2013-09-18 Next Holdings, Inc. Touch screen system with hover and click input methods
US20090046110A1 (en) 2007-08-16 2009-02-19 Motorola, Inc. Method and apparatus for manipulating a displayed image
US8432365B2 (en) 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
US8125458B2 (en) 2007-09-28 2012-02-28 Microsoft Corporation Detecting finger orientation on a touch-sensitive device
FR2922035B1 (fr) 2007-10-08 2016-09-30 Dav Procede de commande d'un dispositif de commande a surface tactile et dispositif de commande electrique a surface tactile comportant des moyens de mise en oeuvre dudit procede
US8031175B2 (en) 2008-04-21 2011-10-04 Panasonic Corporation Touch sensitive remote control system that detects hand size characteristics of user and adapts mapping to screen display
WO2009060454A2 (en) * 2007-11-07 2009-05-14 N-Trig Ltd. Multi-point detection on a single-point detection digitizer
JP2009116769A (ja) 2007-11-09 2009-05-28 Sony Corp 入力装置、入力装置の制御方法、及びプログラム
US20090184939A1 (en) * 2008-01-23 2009-07-23 N-Trig Ltd. Graphical object manipulation with a touch sensitive screen
US8797271B2 (en) 2008-02-27 2014-08-05 Microsoft Corporation Input aggregation for a multi-touch device
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
TWI416381B (zh) * 2008-03-05 2013-11-21 Mitac Int Corp Touch the sliding method
EP2300899A4 (en) 2008-05-14 2012-11-07 3M Innovative Properties Co SYSTEM AND METHOD FOR EVALUATING POSITIONS OF MULTIPLE TOUCH INPUTS
US9268483B2 (en) 2008-05-16 2016-02-23 Microsoft Technology Licensing, Llc Multi-touch input platform
US8390577B2 (en) 2008-07-25 2013-03-05 Intuilab Continuous recognition of multi-touch gestures
US8810522B2 (en) * 2008-09-29 2014-08-19 Smart Technologies Ulc Method for selecting and manipulating a graphical object in an interactive input system, and interactive input system executing the method
US8407624B2 (en) 2008-10-02 2013-03-26 International Business Machines Corporation Mouse movement using multiple thresholds utilizing linear exponential acceleration and sub-pixel precision
US8866790B2 (en) * 2008-10-21 2014-10-21 Atmel Corporation Multi-touch tracking
US8477103B2 (en) 2008-10-26 2013-07-02 Microsoft Corporation Multi-touch object inertia simulation
US8466879B2 (en) 2008-10-26 2013-06-18 Microsoft Corporation Multi-touch manipulation of application objects
DE102009046177A1 (de) 2008-10-30 2010-06-10 Samsung Electronics Co., Ltd., Suwon Berührungsdatengenerator
KR101021440B1 (ko) 2008-11-14 2011-03-15 한국표준과학연구원 터치입력장치, 이를 이용한 휴대기기 및 그 제어방법
US8294047B2 (en) 2008-12-08 2012-10-23 Apple Inc. Selective input signal rejection and modification
TWM361674U (en) 2009-02-19 2009-07-21 Sentelic Corp Touch control module
US8154529B2 (en) * 2009-05-14 2012-04-10 Atmel Corporation Two-dimensional touch sensors
US9134848B2 (en) 2009-06-03 2015-09-15 Stmicroelectronics Asia Pacific Pte Ltd Touch tracking on a touch sensitive interface
US8462134B2 (en) 2009-06-29 2013-06-11 Autodesk, Inc. Multi-finger mouse emulation
US9323398B2 (en) 2009-07-10 2016-04-26 Apple Inc. Touch and hover sensing
CN101626522B (zh) 2009-07-20 2010-11-03 北京中科同和信息技术有限公司 实现多媒体播放适屏显示的方法
TW201104529A (en) 2009-07-22 2011-02-01 Elan Microelectronics Corp Touch device, control method and control unit for multi-touch environment
JP5471137B2 (ja) 2009-08-05 2014-04-16 ソニー株式会社 表示装置、表示方法及びプログラム
TWI407339B (zh) 2009-08-06 2013-09-01 Htc Corp 追蹤觸控面板上碰觸輸入之移動軌跡的方法與電腦程式產品及其相關電子裝置
US8850353B2 (en) 2009-08-18 2014-09-30 Siemens Aktiengesellschaft Method and system for overlaying space-constrained display with a reference pattern during document scrolling operations
US8988191B2 (en) 2009-08-27 2015-03-24 Symbol Technologies, Inc. Systems and methods for pressure-based authentication of an input on a touch screen
KR20110028834A (ko) 2009-09-14 2011-03-22 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 터치 압력을 이용한 사용자 인터페이스 제공 방법 및 장치
AU2010308596A1 (en) 2009-10-19 2012-06-07 Flatfrog Laboratories Ab Determining touch data for one or more objects on a touch surface
KR101092841B1 (ko) 2009-12-29 2011-12-14 (주)엑시스 소프트웨어 엔지니어링 터치 입력을 인식하는 컴퓨팅 장치
US8502789B2 (en) 2010-01-11 2013-08-06 Smart Technologies Ulc Method for handling user input in an interactive input system, and interactive input system executing the method
US20110230238A1 (en) 2010-03-17 2011-09-22 Sony Ericsson Mobile Communications Ab Pointer device to navigate a projected user interface
US8982060B2 (en) 2010-08-27 2015-03-17 Apple Inc. Touch and hover sensor compensation
US9019230B2 (en) * 2010-10-31 2015-04-28 Pixart Imaging Inc. Capacitive touchscreen system with reduced power consumption using modal focused scanning
US8593421B2 (en) * 2011-03-22 2013-11-26 Adobe Systems Incorporated Local coordinate frame user interface for multitouch-enabled devices

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61259331A (ja) * 1985-05-13 1986-11-17 Nec Corp 座標入力方法とその装置
JP2008146165A (ja) * 2006-12-06 2008-06-26 Sony Corp 表示装置、表示装置の制御方法、及びプログラム
JP2011513830A (ja) * 2008-02-28 2011-04-28 ニューヨーク・ユニバーシティ 処理装置に入力を与える方法及び装置、並びにセンサパッド
US20100328206A1 (en) * 2009-06-26 2010-12-30 Panasonic Corporation Dual pointer management method using cooperating input sources and efficient dynamic coordinate remapping
JP2012531667A (ja) * 2009-06-26 2012-12-10 パナソニック株式会社 協働する入力ソースと効率的な動的座標リマッピングを用いるデュアルポインタ管理方法
JP2011159034A (ja) * 2010-01-29 2011-08-18 Sony Corp 情報処理装置および情報処理方法
JP2013222426A (ja) * 2012-04-19 2013-10-28 Sony Corp 情報処理装置、情報処理方法、プログラム、及び、情報処理システム

Also Published As

Publication number Publication date
EP2769288A1 (en) 2014-08-27
EP2769288A4 (en) 2015-08-12
WO2013059752A1 (en) 2013-04-25
CN102902412B (zh) 2015-11-18
CN102902412A (zh) 2013-01-30
US20130100018A1 (en) 2013-04-25
US9274642B2 (en) 2016-03-01
KR20140078681A (ko) 2014-06-25
EP2769288B1 (en) 2024-05-29
KR101994500B1 (ko) 2019-06-28
JP6141290B2 (ja) 2017-06-07

Similar Documents

Publication Publication Date Title
US9952689B2 (en) Application programming interface for a multi-pointer indirect touch input device
US9542005B2 (en) Representative image
US9575562B2 (en) User interface systems and methods for managing multiple regions
US11443453B2 (en) Method and device for detecting planes and/or quadtrees for use as a virtual substrate
US9158446B2 (en) Method and apparatus for interfacing
US9870080B2 (en) Method, system, and device for controlling a cursor or user interface action as a function of touch and force input
WO2010017711A1 (zh) 一种图形触摸命令的执行方法、装置及移动终端
US9658715B2 (en) Display mapping modes for multi-pointer indirect input devices
JP6141290B2 (ja) マルチポインタ間接入力装置の加速度によるインターラクション
EP2771766B1 (en) Pressure-based interaction for indirect touch input devices
US20130249807A1 (en) Method and apparatus for three-dimensional image rotation on a touch screen
US10521052B2 (en) 3D interactive system
US9146666B2 (en) Touch sensor navigation
US20140189582A1 (en) Display control device, display control method, and program
US20140184566A1 (en) Electronic apparatus, method of controlling the same, and computer-readable recording medium
US20130278603A1 (en) Method, Electronic Device, And Computer Readable Medium For Distorting An Image On A Touch Screen
US10275146B2 (en) Virtual navigation apparatus, navigation method, and non-transitory computer readable medium thereof

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150930

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20170321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170502

R150 Certificate of patent or registration of utility model

Ref document number: 6141290

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250