JP2014533866A - タッチ・センサーの動的スケーリング - Google Patents

タッチ・センサーの動的スケーリング Download PDF

Info

Publication number
JP2014533866A
JP2014533866A JP2014543528A JP2014543528A JP2014533866A JP 2014533866 A JP2014533866 A JP 2014533866A JP 2014543528 A JP2014543528 A JP 2014543528A JP 2014543528 A JP2014543528 A JP 2014543528A JP 2014533866 A JP2014533866 A JP 2014533866A
Authority
JP
Japan
Prior art keywords
user interface
area
display screen
user
touch sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014543528A
Other languages
English (en)
Other versions
JP2014533866A5 (ja
Inventor
ミラー,マイケル・シー
シュウェシンガー,マーク
ジェンツコウ,ハウケ
アシュリー,ブライオン
ハリス,ジョン
ハンクス,リチャード
グラント,アンソニー・ジョン
サリン,ラマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014533866A publication Critical patent/JP2014533866A/ja
Publication of JP2014533866A5 publication Critical patent/JP2014533866A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

タッチ・センサーとディスプレイ・スクリーンとの間でのマッピングの動的スケーリングと関連する実施形態を開示する。開示される1つの実施形態は方法を提供し、方法は、タッチ・センサーのエリアをディスプレイ・スクリーンの第1エリアへマッピングする第1ユーザー・インターフェース・マッピングを設定することと、ユーザー入力デバイスから、ユーザー・インターフェースのユーザー・インタラクション・コンテキストを変更するユーザー入力を受け取ることと、ユーザー入力に応じて、タッチ・センサーのエリアをディスプレイ・スクリーンの第2エリアへマッピングする第2ユーザー・インターフェース・マッピングを設定することとを含む。方法は更に、第2ユーザー・インターフェース・マッピングに基づく位置におけるユーザー入力を表すユーザー・インターフェース・イメージの出力を、ディスプレイ・デバイスへ提供することを含む。

Description

[0001] 多くの計算デバイスは、ユーザー入力デバイスとしてタッチ・センサーを用いる。タッチ・センサーを介して行われる入力は、様々な様式で、グラフィカル・ユーザー・インターフェースでのアクションへと変換することができる。例えば、幾つかの場合には、例えばカーソルの動きを制御するために、タッチ・センサーを、純粋に、表面上での指の位置の変化を追跡するために用いることができる。即ち、タッチ・センサー上での接触の特定の位置は、グラフィカル・ユーザー・インターフェース上でのカーソルの特定の位置には影響しない。タッチ入力のそのような解釈は、例えば、タッチ・センサーがディスプレイ・デバイスの上に直接に配されていないラップトップ・コンピューターのタッチ・パッドで、用いることができる。
[0002] 別の場合では、タッチ・センサー上の位置は、グラフィカル・ユーザー・インターフェース上の対応する位置へとマッピングされ得る。そのような場合、タッチ・センサーに対して行われた接触は、そのタッチ・センサー位置へとマッピングされた特定のディスプレイ・スクリーン位置にあるユーザー・インターフェース・エレメントに影響を及ぼし得る。そのような直接的マッピングは、例えば、透明タッチ・センサーをディスプレイに被せて配する場合に、用いることができる。
[0003] タッチ・センサーとディスプレイ・スクリーンとの間でのマッピングの動的スケーリングと関連する様々な実施形態を開示する。例えば、開示される1つの実施形態は方法を提供し、その方法は、タッチ・センサーのエリアをディスプレイ・スクリーンの第1エリアへマッピングする第1ユーザー・インターフェース・マッピングを設定することと、ユーザー入力デバイスから、ユーザー・インターフェースのユーザー・インタラクション・コンテキストを変更するユーザー入力を受け取ることと、ユーザー入力に応じて、タッチ・センサーのエリアをディスプレイ・スクリーンの第2エリアへマッピングする第2ユーザー・インターフェース・マッピングを設定することとを含む。方法は更に、第2ユーザー・インターフェース・マッピングに基づく位置におけるユーザー入力を表すユーザー・インターフェース・イメージの出力を、ディスプレイ・デバイスへ提供することを含む。
[0004] この概要は、以下の詳細な説明で更に説明する概念のうちの選択したものを、簡素化した形で紹介するものである。この概要は、特許請求の範囲に記載の主題事項の鍵となる特徴や本質的な特徴を特定することを意図しておらず、また、特許請求の範囲に記載の主題事項の範囲を限定するために用いることを意図していない。更に、特許請求の範囲に記載の主題事項は、本開示の何れかの部分に記載された欠点の何れか又は全てを解決する実装には限定されない。
図1は、タッチ感応型入力デバイスの使用環境の例示の実施形態を示す。 図2は、ディスプレイ・スクリーンへのタッチ・センサーのマッピングの動的スケーリングの方法の実施形態を描写するフロー図を示す。 図3は、タッチ・センサーを含むタッチ感応型ユーザー入力デバイスの実施形態を示し、また、デバイスのスクリーンへのタッチ・センサーの第1マッピングの例を示す。 図4は、ユーザー・インターフェース・コンテキストの変化に基づいた、図5の実施形態の例示の第2マッピングを示す。 図5は、別の例示のマッピングを示すものであり、タッチ・センサーのサブ領域が、異なるアスペクト比で、ユーザー・インターフェースの対応するサブ領域へマッピングされることを示す。 図6は、専用のリモート・コントロール・ユーザー入力デバイスの例示の実施形態のブロック図を示す。 図7は、図6の実施形態とのユーザー・インタラクションの例を示す。 図8は、図6の実施形態とのユーザー・インタラクションの別の例を示す。 図9は、ユーザー入力デバイスを動作させるための方法の実施形態を描写するフロー図を示す。 図10は、計算デバイスの実施形態のブロック図を示す。
[0015] 上記のように、タッチ・センサーを、グラフィカル・ユーザー・インターフェースへマッピングして、タッチ・センサー上の特定の位置がグラフィカル・ユーザー・インターフェース上の特定の位置に対応するようにできる。スマート・フォンやノートパッド・コンピューターの場合のように、そのようなタッチ・センサーがグラフィカル・ユーザー・インターフェースへ直接に被せて配される場合には、望まれるタッチ入力を行うために適切な位置を選択することは、単に、望まれるユーザー・インターフェース・エレメントの真上の表面を触ることを含む。
[0016] しかし、タッチ・センサーがグラフィカル・ユーザー・インターフェースの直上に配されていない場合には、タッチ入力を行うためにタッチ・センサー上の正しい位置を見つけることが難しくなり得る。図1は、使用環境100の例示の実施形態を示し、この使用環境において、ユーザー102は、タッチ感応型デバイス104を用いて、リモートから、別個のディスプレイ・システムに表示されたユーザー・インターフェースとインタラクションしており、そのディスプレイ・システムは、メディア・プレゼンテーション・デバイス107と結合されたディスプレイ・デバイス106(例えば、テレビジョンやモニター)などであり、メディア・プレゼンテーション・デバイスは、ビデオ・ゲーム・システム、パーソナル・メディア・コンピューター、セットトップ・ボックス、または他の適切な計算デバイスなどである。使用環境100においてリモート・コントロール・デバイスとして用いることができるタッチ感応型デバイスの例は、スマート・フォン、ポータブル・メディア・プレーヤー、ノートパッド・コンピューター、ラップトップ・コンピューター、および専用リモート・コントロール・デバイスであるが、これらには限定されない。
[0017] そのような使用環境では、使用中に、ディスプレイ・スクリーンとリモート・コントロール・デバイスとの間で行ったり来たりせねばならない、という混乱を起こし得るユーザー・エクスペリエンスを避けるために、リモート・コントロール・デバイスにユーザー・インターフェースのイメージを表示しないことが望ましいであろう。しかし、ユーザーは、タッチ・センサーがユーザーの直接の視野内に無いときに比較的離れたディスプレイ・スクリーンを見ているときに、ユーザー・インターフェース・エレメントの迅速な選択を行うことにおいて、幾らかの困難を経験し得る。そのような困難を克服することを助けるために、現在のタッチ感応型デバイスは、精度を高くするために、ユーザーがユーザー・インターフェースの一部へズーム・インすることを、可能とすることができる。しかし、これは、ユーザー・インターフェースの他のエリアを不明瞭にし、また、ユーザー・インターフェースとインタラクションすることの複雑性を増加させる。
[0018] 従って、ここで、タッチ感応型ユーザー入力デバイスの使用を容易にすることと関連する実施形態を開示し、ユーザー・インターフェースのアクティブ部分へのタッチ・センサーのマッピングを動的にスケーリングすることにより、使用を容易にする。再び図1を参照すると、ユーザー102が、テキスト入力ユーザー・インターフェース110とインタラクションしているところが示されており、テキスト入力ユーザー・インターフェース110は、文字入力コントロール112とテキスト表示および編集フィールド114とがレイアウトされた形態であるアクティブ・エリア(例えば、ユーザー選択可能コントロールを持つエリア)を含む。ユーザー・インターフェース110のアクティブ・エリアは、ディスプレイ・デバイス106のディスプレイ・スクリーン116の一部のみを占有する。従って、タッチ感応型デバイス104のタッチ・センサー118全体がディスプレイ・スクリーン116全体へマッピングされた場合、ユーザー・インターフェース110のアクティブ・エリアとインタラクションするためにタッチ・センサー118の一部分のみが使用可能となり、タッチ・センサー118の他の部分は使用されないであろう。
[0019] 即ち、開示される実施形態に従うと、ユーザー102がテキスト入力ユーザー・インターフェース110へとナビゲーションするとき、ディスプレイ・スクリーン116へのタッチ・センサー118のマッピングを動的に調節することができ、それにより、タッチ・センサー118の大きい相対エリアが、ユーザー・インターフェース110のアクティブ・エリアに対応するディスプレイ・デバイス106のエリアへマッピングされるようにする。これは、ユーザーがユーザー入力を、より正確に制御することを可能にできる。
[0020] 幾つかの実施形態では、タッチ・センサーの様々なエリアを、ユーザー・インターフェースと関連して異なる度合で動的にスケーリングすることができる。これは、例えば、より頻繁に使用されるユーザー・インターフェースのコントロールに対して、ユーザー・インターフェース上にある同様のサイズのあまり頻繁に使用されないユーザー・インターフェースのコントロールよりも、タッチ・センサーの比較的多くのエリアを割り当てることを、可能にすることができる。これは、ユーザーが、より頻繁に使用されるコントロールを、あまり頻繁に使用されないコントロールに対するよりも低精度のタッチ入力で選択することを、可能にすることができる。同様に、誤った選択による影響が重大であるユーザー・インターフェースのコントロールに対しては、同様のサイズであるが誤った選択による影響が小さいコントロールよりも、タッチ・センサーの比較的小さいエリアを割り当てることができる。より特定的な例として、タッチ・センサーのマッピングは、メディア再生ユーザー・インターフェース上の「pause(ポーズ)」コントロールと「stop(ストップ)」コントロールとに対して、異なってスケーリングすることができるが、誤って「pause」コントロールを選択することは、誤って「stop」コントロールを選択することよりも重大性が低いので、「pause」コントロールを選択し易くすることができる。
[0021] 図2は、ディスプレイ・デバイスのディスプレイ・スクリーンへのタッチ・センサーのマッピングの動的スケーリングの方法200の実施形態を描写するフロー図を示す。方法200は、任意の適切なデバイスにより行えることが理解されるであろう。任意の適切なデバイスは、図1のリモート・コントロール・デバイス、メディア・プレゼンテーション・デバイスを含むが、それらには限定されない。方法200は、202において、リモート・コントロール・デバイスのタッチ・センサーのエリアを、ディスプレイ・デバイスのスクリーンの第1エリアにマッピングする第1ユーザー・インターフェース・マッピングを設定することを含む。方法200は更に、204において、タッチ感応型ユーザー入力デバイスから第1ユーザー入力を受け取ることと、206において、第1ユーザー・インターフェース・マッピングに基づく位置における第1ユーザー入力を表す第1ユーザー・インターフェース・イメージの出力を、ディスプレイ・デバイスへ提供することとを含む。図3は、タッチ入力およびユーザー・インターフェース・イメージの例示の実施形態を示す。図3の例では、タッチ・センサー118の全エリアが、1つのアスペクト比でディスプレイ・デバイス106の全エリアへマップされる。この図では、タッチ・センサー118上の選択された位置間でのタッチ入力300の動きの結果として、ディスプレイ・スクリーン116に表示されるユーザー・インターフェース上の比例した位置でカーソル302が動くことが、理解できる。
[0022] 引き続き図2を用いると、方法200は次に、208において、ユーザー・インターフェースとのユーザー・インタラクションのコンテキストを変更する第2タッチ入力を受け取ることを含む。ここで用いられる「コンテキストの変更」およびそれと同様のことは、ユーザー・インターフェースのインタラクティビティの構成(aspect)における任意の変更のことを言うものであり得、それは、表示されるコントロールの選択における変更、コントロールの位置の変更などである。図2において、例示のタッチ入力は、図3に示すサーチ・バーの選択として描写されている。第2タッチ入力に応じて、方法200は、210において、タッチ・センサーのエリアを、ディスプレイ・スクリーンの第1エリアとは異なるディスプレイ・スクリーンの第2エリアへマッピングする第2ユーザー・インターフェース・マッピングを設定することを含む。ディスプレイ・スクリーンの第2エリアは、212で示すように、第1エリアと異なるサイズを有することができ、214で示すように、異なる位置を有することができ、且つ/又は第1エリアとの他の任意の適切な差異を有することができる。更に、ディスプレイ・スクリーンの第2エリアはまた、第1のマッピングとは異なるアスペクト比を有することができる。方法200は更に、208において、第2ユーザー・インターフェース・マッピングに基づく位置における第2ユーザー入力を表す第2ユーザー・インターフェース・イメージの出力を提供することを含む。第2ユーザー・インターフェース・イメージは、他の任意の適切な情報、例えば、ディスプレイ・スクリーンの第2エリア内に表示されるように構成される複数のユーザー・インターフェース・コントロールなどを、含むことができる。
[0023] 図4は、ディスプレイ・スクリーンへの、タッチ・センサーのエリアの第2マッピングの例示の実施形態を示す。センサーのエリア全体をディスプレイ・スクリーン全体へ1つのアスペクト比でマッピングするのではなく、図4は、タッチ・センサーのエリア全体が、1つのアスペクト比で、アクティブな文字入力コントロール112とテキスト表示および編集フィールド114とにより占有されるディスプレイ・スクリーンのエリアにマッピングされており、それらのエレメントに占有されていないディスプレイ・スクリーンの他のエリアは除外されていることを示す。即ち、示した実施形態では、ディスプレイ・スクリーンの第2エリアは、ディスプレイ・スクリーンの第1エリアよりも小さい。そのようなマッピングは、サーチ結果などのような他のエレメントを表示するための場所をディスプレイ・スクリーンに含めることと、タッチ入力を行うためのタッチ・センサー・エリアをより多く提供することにより、タッチ入力を入力することを容易にすることとを可能にする。ここでは、タッチ・センサーのマッピングの変更は、テキスト入力ユーザー・インターフェースのコンテキストで示されているが、動的なタッチ・センサーのマッピングの変更を、更なるタッチ入力の精度が望まれるであろう他の任意の適切なユーザー・インターフェースのコンテキストで用いることができることは、理解されるであろう。
[0024] 上記のように、幾つかの実施形態では、ユーザー・インターフェースに対して、タッチ・センサーの様々なエリアを異なる度合で動的にスケーリングすることができ、それにより、様々なユーザー・インターフェース・コントロールを、より容易に位置決めされるように、又はそれほど容易に位置決めされないようにすることができる。これは、ユーザー・インターフェースにおいて、例えば、より頻繁に用いられるユーザー・インターフェース・コントロールに対して、類似のサイズのそれほど頻繁には用いられないユーザー・インターフェース・コントロールよりも、タッチ・センサー上の相対的に大きいエリアを割り当てることを、可能にすることができる。
[0025] 図5は、タッチ・センサーのマッピングの実施形態を示し、この実施形態では、ディスプレイ・スクリーンの第1サブ領域とディスプレイ・スクリーンの第2サブ領域とが、生じそうな使用パターンに基づいて、異なるアスペクト比でタッチ・センサーへマッピングされる。より特定的には、ユーザーは、テキスト表示および編集フィールドよりも頻繁に、テキスト入力ユーザー・インターフェースの文字入力コントロールとインタラクションする可能性が高そうなので、図5のユーザー・インターフェースへのタッチ・センサーのマッピングは、文字入力コントロールの選択を容易にするように、およびテキスト表示および編集フィールドを選択するためにはより慎重にユーザー入力を行うことを奨励するように、構成される。ディスプレイ・スクリーンの第1サブ領域500は、文字入力コントロール112を含むものとして示され、第2サブ領域は、テキスト表示および編集フィールド114を含むものとして示されている。示されているように、第1サブ領域500は、タッチ・センサー118のサブ領域504へマッピングされており、第1サブ領域500は、文字入力コントロール112により占有されているディスプレイ・スクリーン・エリアの相対量よりも大きい、タッチ・センサーの相対エリアを占有している。同様に、ディスプレイ・スクリーンの第2サブ領域502は、タッチ・センサー118のサブ領域506へマッピングされており、第2サブ領域502は、テキスト表示および編集フィールド114により占有されているディスプレイ・スクリーン・エリアの相対量よりも小さいタッチ・センサー504の相対エリアを占有している。このように、図5に示すタッチ・センサーのマッピングは、文字入力コントロール112の選択を容易にすることができ、且つテキスト表示および編集フィールド114を不注意に選択することを避ける手助けをすることができる。
[0026] 幾つかの実施形態では、ユーザー・インターフェースのマッピングは、タッチ入力がサブ領域間で動くときに、何らかのヒステリシスを示すように構成することができる。例えば、ユーザーの指が、タッチ・センサー/ユーザー・インターフェースのマッピングの第1サブ領域から第2サブ領域の中へと境界を横切ることにより、ユーザー・インターフェース・コントロールに対応するタッチ・センサー領域へ入った後には、タッチ入力により現在焦点が合わされている第2サブ領域のユーザー・インターフェース・エレメントは、たとえユーザーが第1サブ領域へ戻るように境界を横切った後でも、カーソルが境界を越えてスレッショルド距離を過ぎるまで、変更されないようにすることができる。これは、ユーザー・インターフェース・コントロール間で移動するために、より慎重にユーザー入力を行うことを、含むことができ、従って、不注意に入力することを避ける手助けをすることができる。別の実施形態では、双方の運動方向におけるタッチ・センサーのサブ領域間での切り替えを認識するために、1つの境界位置を用いることができる。サブ領域間でのヒステリシスの度合は、サブ領域のマッピングと同様に変わることが、理解されるであろう。例えば、誤った選択による影響が重大である領域内へと動くときに、影響が小さい領域への場合と比較して、多い量のヒステリシスを適用することができる。
[0027] 上記のように、ユーザー・インターフェースへのタッチ・センサーの動的スケーリングは、任意の適切なタッチ感応型入力デバイスで用いることができ、タッチ感応型入力デバイスは、スマート・フォン、ポータブル・メディア・プレーヤー、ノートパッド・コンピューター、ラップトップ・コンピューター、および専用リモート・コントロール・デバイスを含むが、これらには限定されない。図6は、専用のタッチ感応型リモート・コントロール・デバイス600の実施形態のブロック図を示し、このリモート・コントロール・デバイス600は、従来のタッチ感応型デバイスよりもテキスト入力を容易にするように構成されており、図7は、リモート・コントロール・デバイス600のための例示の使用環境を示す。リモート・コントロール・デバイス600は、少なくとも第1タッチ・エリア604と第2タッチ・エリア606とを有するタッチ・センサー602を含む。更に、第1アクチュエーター608が第1タッチ・エリア604と関連し、第2アクチュエーター610が第2タッチ・エリア606と関連する。第1アクチュエーター608は、第1タッチ・エリア604で押されることにより作動させられるように構成され、第2アクチュエーター610は、第1タッチ・エリア606で押されることにより作動させられるように構成される。ユーザーは、タッチ入力により、望む文字の上へカーソルを動かすことにより、入力する文字を選び、次に、対応するアクチュエーターをトリガーするためにタッチ・エリアを押すことができる。図7は、第1タッチ・エリア604に対しての第1カーソル700と、第2タッチ・エリア606に対しての第2カーソル702とを示し、各カーソルは、ディスプレイ・スクリーンへマップされたタッチ入力の位置を示している。別の実施形態では、専用のリモート・コントロール・デバイスは、1つのアクチュエーターを含むようにすること、またはタッチ感応型面で押すことによりトリガーされるアクチュエーターを含まないようにすることができる。そのような実施形態では、クリック型のユーザー・インタラクションをシミュレーションするために様々なヒステリシスを用いることができる。更に、2つのタッチ・エリアがまた、タッチ・エリア間に輪郭(delineation)の無い1つの物理的タッチ面を含むことができ、更には、様々な応用でマッピングでき、例えば、2つのタッチ・エリアを1つのタッチ・エリアと考えられるようにできることが、理解されるであろう。
[0028] 2つのタッチ・エリアと2つのアクチュエーターとを用いることにより、ユーザーは、図7に示すように、それぞれの手ごとに別個のカーソルを独立して操作することを可能とされ、従って、テキスト入力の効率を高める手助けがなされる。更に、幾つかの実施形態では、リモート・コントロール・デバイス600は、ディスプレイ・スクリーンまたはタッチ・センサー上の他のフィーチャーを欠くようにすることができる。これは、制御されているディスプレイ・デバイスのディスプレイ・スクリーンからユーザーの注意がそれることを防ぐ手助けとなり得、従って、ディスプレイ・デバイスへユーザーの注意を集中させる手助けとなる。
[0029] リモート・コントロール・デバイス600は、ロジック・サブシステム612と、命令を格納するデータ保持サブシステム614とを更に含み、命令は、様々なタスクを行うためにロジック・サブシステム612により実行可能であり、タスクは、ユーザー入力を受け取ること、ユーザー入力をメディア・プレゼンテーション・デバイスやディスプレイ・デバイスなどへ通信することなどである。これらのコンポーネントの例は、以下で更に詳細に説明する。
[0030] それぞれに独立して動作可能なアクチュエーターを有する別個にされた第1タッチ・エリアおよび第2タッチ・エリアを用いることにより、ユーザーが、文字入力の間に面から指を持ち上げずに、2つの親指または他の指を用いてテキストを迅速に入力することを、可能とすることができる。更に、リモート・コントロール・デバイス600はディスプレイ・スクリーンを欠くようにできるので、ユーザーは、リモート・コントロール・デバイス600を使用中に下を見ることにより注意がそらされることがなく、むしろ、ディスプレイ・デバイスに対して全ての注意力を働かせることができる。これらの特徴は、タッチ・センサーが、ディスプレイ・スクリーンから離れて位置し得るものであり、且つユーザーがディスプレイ・スクリーンを見ているときに直接の視野外にあり得るという使用環境においてテキストを入力する他の方法に勝る様々な利点を提供することができる。例えば、幾つかのリモート・コントロール・デバイスは、方向パッド(例えば、上、下、左、および右のコマンドを有するコントロール)を用いて、表示された英数字キーボード・レイアウトの上でカーソルを移動させる。しかし、そのようなテキスト入力は、遅く且つ退屈であり得る。他のリモート・コントロール・デバイスはハード・キーボードを有し得る。ハード・キーボードは、方向パッドを使用する場合と比べてテキスト入力の効率を改善することができるが、入力デバイスのサイズ、複雑性、およびコストも増加させる。また、ハード・キーボードを含めることにより、ユーザーに対しては、下を向いてデバイスを見ることと、上を向いてディスプレイ・スクリーンを見ることとに分けて注意をはらうことを強いることにもなる。それとは対照的に、図6の実施形態では、ハード・キーボードの各ボタンに対して1つのアクチュエーターを設けるのではなく、2つのアクチュエーターを含ませることにより、デバイスのコストを低減する手助けとなり得る。上記のように、リモート・コントロール・デバイス600のタッチ・センサー602がディスプレイ・スクリーンへ動的にマッピングされ得、それにより、テキストの選択が更に容易にされ得ることが、理解されるであろう。
[0031] 第1アクチュエーター608および第2アクチュエーター610は、任意の適切な作動機構を用いることができる。幾つかの実施形態では、アクチュエーター608、610は、テキストが選択されるときに触覚フィードバックを提供するための物理的なボタンを含むことができる。別の実施形態では、アクチュエーター608、610は、圧力センサーまたは他の作動機構を用いることができる。圧力センサー又はそれと同様のものが用いられる場合、リモート・コントロール・デバイス600は、記録された入力に関してのユーザー・フィードバックを提供するための、振動機構などのようなハプティック(haptic)・フィードバック・システム616を含むことができる。
[0032] 図7の実施形態では、カーソル700、702は、タッチ・センサー602上での指の位置を示し、他のハイライト化は、現在焦点を合わされているユーザー・インターフェース・コントロールを示す焦点インジケーターとして用いられる。図7の特定の例では、左のカーソル700は、文字「e」へ焦点を合わせるように配置され、右のカーソル702は、文字「j」へ焦点を合わせるように配置されている。他の実施形態では、タッチの位置およびタッチ入力のための焦点は、1つのユーザー・インターフェース・エレメントを介して示すことができる。
[0033] 表示されるカーソルの数、およびディスプレイ・スクリーンへのタッチ・センサー602のマッピングを、タッチ・センサー602に接触する指の数に応じたものにできることが、理解されるであろう。例えば、図7に示すように、2つの指がタッチ・センサー602と接触しているときに、2つのカーソルを表示することができる。この場合、タッチ・センサー602の第1タッチ・エリア604と第2タッチ・エリア606とを、ディスプレイ・スクリーンの対応する第1エリアおよび第2エリアへマッピングすることができる。同様に、1つの指がタッチ・センサー602と接触している場合、例えば、リモート・コントロール・デバイス600がポートレート方向に保持される場合(図8に示すように)、1つのカーソル800をディスプレイ・スクリーンに表示することができる。この場合、タッチ・センサー602の1つのタッチ・エリア(例えば、第1タッチ・エリア604)を、ディスプレイ・スクリーンのアクティブ・エリア全体にマッピングすることができる。
[0034] 図9は、リモート・コントロール・デバイス600などのようなリモート・コントロール・デバイスの動作の方法900の実施形態を示す。方法900は、902において、タッチ・センサー602の第1タッチ・エリア604および第2タッチ・エリア606などのような、タッチ・センサーの第1エリアおよび第2エリアでそれぞれに生じる第1タッチ入力および第2タッチ入の動きを独立的に検出および追跡することを含む。方法は、次に、904において、第1タッチ面に対応する第1アクチュエーターの作動と、第2タッチ面に対応する第2作動の作動とを独立的に追跡することを含む。方法900はまた、906において、検出したタッチ入力およびアクションを持つ情報をリモート計算デバイスと通信することを含む。次に、リモート計算デバイスは、ユーザー・インターフェース・エレメントに対応するアクションを、ユーザーにより作動させられたときにタッチ入力の位置に基づいて、行うことができる。
[0035] 上記のように、限定ではないがタッチ感応型デバイス104、ディスプレイ・デバイス106、メディア・プレゼンテーション・デバイス107、およびリモート・コントロール・デバイス600を含む上記のディスプレイ・システムおよびタッチ感応型入力デバイスのそれぞれは、計算デバイスの形態とするこができる。図10は、上記の方法およびプロセスの1以上のものを行うことができる、限定ではない例の計算システム1000を概略的に示す。計算システム1000は、簡略化した形で示している。本開示の範囲から離れずに、実質的に任意のコンピューター・アーキテクチャーを使用できることが理解される。別の実施形態では、計算システム1000は、メインフレーム・コンピューター、サーバー・コンピューター、デスクトップ・コンピューター、ラップトップ・コンピューター、タブレット・コンピューター、ホーム・エンターテイメント・コンピューター、ネットワーク計算デバイス、モバイル計算デバイス、モバイル通信デバイス、ゲーム・デバイスなどの形態とすることができる。
[0036] 計算システム1000は、ロジック・サブシステム1002と、データ保持サブシステム1004とを含む。計算システム1000は、オプションとして、ディスプレイ・サブシステム1006を含むこと、またはディスプレイ・システム(図6のリモート・コントロール・デバイスと関連して説明した)を省略することができる。計算システム1000は更に、他の計算デバイスと通信するための通信サブシステム1008と、タッチ入力を検出するように構成されるタッチ・センサーを含むセンサー・サブシステム1009とを含むことができる。計算システム1000はまた、ここで説明していない他の入力および/または出力デバイスを含むことができる。
[0037] ロジック・サブシステム1002は、1以上の命令を実行するように構成される1以上の物理デバイスを含むことができる。例えば、ロジック・サブシステム1002は、1以上のアプリケーション、サービス、プログラム、ルーチン、ライブラリー、オブジェクト、コンポーネント、データ構造、または他の論理構造の一部である1以上の命令を実行するように、構成することができる。そのような命令はタスクを行うように、データ・タイプをインプリメントするように、1以上のデバイスの状態を変換するように、または望まれる結果へ到達しるように、インプリメントすることができる。
[0038] ロジック・サブシステム1002は、ソフトウェア命令を実行するように構成される1以上のプロセッサーを含むことができる。更に又は代替的に、ロジック・サブシステム1002は、ハードウェアまたはファームウェアの命令を実行するように構成される1以上のハードウェアまたはファームウェアのロジック機構を含むことができる。ロジック・サブシステム1002のプロセッサーは、シングル・コアまたはマルチコアとすることができ、プロセッサーで実行されるプログラムは、並列型または分散型の処理のために構成することができる。ロジック・サブシステム1002は、オプションとして、2以上のデバイスに分散された個々のコンポーネントを含むことができ、2以上のデバイスは、リモートに位置すること、及び/又は統合した処理のために構成することができる。ロジック・サブシステム1002の1以上の構成は、クラウド計算構成において構成されるリモートでアクセス可能なネットワーク化された計算デバイスにより、仮想化して実行することができる。
[0039] データ保持サブシステム1004は、コンピューター読取可能媒体を含んでおり物理的であり一時的ではないデバイスを含み、コンピューター読取可能媒体は、ここで説明した方法およびプロセスをインプリメントするためにロジック・サブシステムにより実行可能なデータおよび/または命令を格納するように、構成される。そのような方法およびプロセスがインプリメントされると、データ保持サブシステム1004の状態が変換され得る(例えば、異なるデータを保持するように)。
[0040] データ保持サブシステム1004は、取り外し可能な媒体および/またはビルトインのデバイスを含むことができる。データ保持サブシステム1004は、とりわけ、光メモリ・デバイス(例えば、CD、DVD、HD−DVD、Blu−Ray(登録商標)ディスクなど)、半導体メモリ・デバイス(例えば、RAM、EPROM、EEPROMなど)、および/または磁気メモリ・デバイス(例えば、ハード・ディスク・ドライブ、フロッピー(登録商標)・ディスク・ドライブ、テープ・ドライブ、MRAMなど)を含むことができる。データ保持サブシステム1004は、以下の、揮発性、不揮発性、動的、静的、読み出し/書き込み、読み出し専用、ランダム・アクセス、シーケンシャル・アクセス、ロケーション・アドレス指定可能(location addressable)、ファイル・アドレス指定可能(file addressable)、およびコンテンツ・アドレス指定可能(content addressable)という特性のうちの1以上のものを持つデバイスを含むことができる。幾つかの実施形態で、ロジック・サブシステム1002およびデータ保持サブシステム1004は、特定用途向け集積回路やシステム・オン・チップなどのような、1以上の共通デバイスに統合することができる。
[0041] 図10はまた、取り外し可能コンピューター読取可能ストレージ媒体1010の形態のデータ保持サブシステムの構成を示し、これは、ここで説明した方法およびプロセスをインプリメントするために実行可能なデータおよび/または命令を格納および/または転送するために、用いることができる。取り外し可能コンピューター読取可能ストレージ媒体1010は、とりわけ、CD、DVD、HD−DVD、Blu−Ray(登録商標)ディスク、EEPROM、および/またはフロッピー(登録商標)・ディスクの形態とすることができる。
[0042] データ保持サブシステム1004が1以上の物理的で非一時的ではないデバイスを含むことが、理解される。対照的に、ここで説明する命令の幾つかの実施形態の構成では、物理デバイスにより少なくとも有限期間にわたって保持されない純粋な信号(例えば、電磁信号、光信号など)として、一時的な様式で伝播させることができる。更に、本開示と関連するデータおよび/または他の形式の情報は、純粋な信号により伝播させることができる。
[0043] ディスプレイ・サブシステム1006は、含まれる場合には、データ保持サブシステム1004により保持されるデータの視覚的表現を呈示するために、用いることができる。ここで説明される方法およびプロセスは、データ保持サブシステムにより保持されるデータを変更するので、データ保持サブシステムの状態を変換し、ディスプレイ・サブシステム1006の状態も同様に、基礎となるデータにおける変化を視覚的に表すように変換される。ディスプレイ・サブシステム1006は、実質的に任意のタイプの技術を用いる1以上のディスプレイ・デバイスを含むことができる。そのようなディスプレイ・デバイスは、ロジック・サブシステム1002および/またはデータ保持サブシステム1004と、共有するエンクロージャーにおいて組み合わせることができ、また、そのようなディスプレイ・デバイスは、周辺ディスプレイ・デバイスとすることができる。
[0044] 通信サブシステム1008は、計算システム1000を1以上の他の計算デバイスと通信するように結合するように、構成することができる。通信サブシステム1008は、1以上の異なる通信プロトコルとコンパチブルの有線および/またはワイヤレスの通信デバイスを含むことができる。限定ではない例として、通信サブシステムは、ワイヤレス電話ネットワーク、ワイヤレス・ローカル・エリア・ネットワーク、有線ローカル・エリア・ネットワーク、ワイヤレス・ワイド・エリア・ネットワーク、有線ワイド・エリア・ネットワークなどを介して通信するために、構成することができる。幾つかの実施形態では、通信サブシステムは、計算システム1000がインターネットなどのようなネットワークを介して他のデバイスとの間でのメッセージの送信および/または受信を行うことを、可能とすることができる。
[0045] ここで説明した構成および/またはアプローチが本質的に例示であり、且つそれらの特定の実施形態または例が限定のためのものと考慮されない、ということが理解される。なぜなら、様々な変形が可能だからである。ここで説明した特定のルーチンや方法は、任意の数の処理戦略のうちの1以上のものを表すものであり得る。従って、例示した様々な動作は、例示した順に、別の順に、並列に、または場合によっては省略して、行うことができる。同様に、上記のプロセスの順も、変更することができる。
[0046] 本開示の主題事項は、ここで開示した様々なプロセス、システム、および構成、および他の特徴、機能、動作、および/または特性の全ての新規および非自明のコンビネーションおよびサブコンビネーションを含み、且つそれらのいかなる等価物も含む。

Claims (10)

  1. タッチ・センサーを含むユーザー入力デバイスから入力を受け取るように、および前記タッチ・センサーから分離しているディスプレイ・デバイスへユーザー・インターフェース・イメージを出力するように構成される計算デバイスにおける方法であって、
    前記タッチ・センサーのエリアを前記ディスプレイ・デバイスのディスプレイ・スクリーンの第1エリアへマッピングする第1ユーザー・インターフェース・マッピングを設定するステップと、
    ユーザー・インターフェースのユーザー・インタラクション・コンテキストを変更させるユーザー入力を、前記ユーザー入力デバイスから受け取るステップと、
    前記ユーザー入力に応じて、前記タッチ・センサーの前記エリアを前記ディスプレイ・スクリーンの第2エリアへマッピングする第2ユーザー・インターフェース・マッピングを設定するステップと、
    前記ディスプレイ・デバイスへ、前記第2ユーザー・インターフェース・マッピング基づく位置における前記ユーザー入力を表すユーザー・インターフェース・イメージの出力を提供するステップと
    を含む方法。
  2. 請求項1に記載の方法であって、前記ディスプレイ・スクリーンの前記第2エリアは、前記ディスプレイ・スクリーンの前記第1エリアよりも小さい、方法。
  3. 請求項2に記載の方法であって、前記ユーザー・インターフェース・イメージは、前記ディスプレイ・スクリーンの前記第2エリア内に表示されるように構成される複数のユーザー・インターフェース・コントロールを含む、方法。
  4. 請求項3に記載の方法であって、前記複数のユーザー・インターフェース・コントロールはテキスト入力キーボードを含む、方法。
  5. 請求項1に記載の方法であって、前記ディスプレイ・スクリーンの前記第2エリアは、前記ディスプレイ・スクリーンの前記第1エリアとは異なる位置を含む、方法。
  6. 請求項1に記載の方法であって、前記第2ユーザー・インターフェース・マッピングは、異なるアスペクト比で前記タッチ・センサーへマッピングされる前記ディスプレイ・スクリーンの第1サブ領域と前記ディスプレイ・スクリーンの第2サブ領域とを含む、方法。
  7. 請求項1に記載の方法であって、前記ユーザー・インターフェース・イメージは、第1サブ領域にテキスト入力コントロールを含み、第2サブ領域にテキスト・ボックスを含む、方法。
  8. 請求項7に記載の方法であって、前記第1サブ領域と前記第2サブ領域との間の境界の上のカーソルの動きに対応するタッチ入力データを受け取るステップと、前記カーソルが前記境界を越えてスレッショルド距離を通過するまで、前記ユーザー入力の焦点を変更しないステップとを更に含む方法。
  9. 計算デバイスであって、
    ロジック・サブシステムと、
    通信サブシステムと、
    格納した命令を含むデータ保持サブシステムと
    を備え、前記命令は、
    リモート・コントロール・デバイスのタッチ・センサーのエリアを、ディスプレイ・デバイスのディスプレイ・スクリーンの第1エリアへマッピングする第1ユーザー・インターフェース・マッピングを設定すること、
    第1ユーザー入力を受け取ること、
    前記第1ユーザー入力に応じて、前記第1ユーザー・インターフェース・マッピングに基づく位置における前記第1ユーザー入力を表す第1ユーザー・インターフェース・イメージの出力を、前記ディスプレイ・デバイスへ提供すること、
    ユーザー・インタラクション・コンテキストを変更する第2ユーザー入力を、前記ユーザー入力デバイスから受け取ること、
    前記ユーザー入力に応じて、前記タッチ・センサーの前記エリアを、前記ディスプレイ・スクリーンの前記第1エリアよりも小さい前記ディスプレイ・クリーンの第2エリアへマッピングする第2ユーザー・インターフェース・マッピングを設定すること、および
    前記第2ユーザー・インターフェース・マッピングに基づく位置における前記第2ユーザー入力を表す第2ユーザー・インターフェース・イメージの出力を、前記ディスプレイ・デバイスへ提供すること
    を行わせるように、前記ロジック・サブシステムにより実行可能である、
    計算デバイス。
  10. 請求項9に記載の計算デバイスであって、前記第2ユーザー・インターフェース・イメージは、前記ディスプレイ・スクリーンの前記第2エリア内に表示されるように構成される複数のユーザー・インターフェース・コントロールを含む、計算デバイス。
JP2014543528A 2011-11-23 2012-11-20 タッチ・センサーの動的スケーリング Pending JP2014533866A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/304,093 2011-11-23
US13/304,093 US20130127738A1 (en) 2011-11-23 2011-11-23 Dynamic scaling of touch sensor
PCT/US2012/066006 WO2013078171A1 (en) 2011-11-23 2012-11-20 Dynamic scaling of touch sensor

Publications (2)

Publication Number Publication Date
JP2014533866A true JP2014533866A (ja) 2014-12-15
JP2014533866A5 JP2014533866A5 (ja) 2016-01-21

Family

ID=47627894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014543528A Pending JP2014533866A (ja) 2011-11-23 2012-11-20 タッチ・センサーの動的スケーリング

Country Status (6)

Country Link
US (1) US20130127738A1 (ja)
EP (1) EP2597548A3 (ja)
JP (1) JP2014533866A (ja)
KR (1) KR20140094639A (ja)
CN (1) CN102937876B (ja)
WO (1) WO2013078171A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016146104A (ja) * 2015-02-09 2016-08-12 富士ゼロックス株式会社 入力システム、入力装置およびプログラム

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9213482B2 (en) * 2011-11-11 2015-12-15 Elan Microelectronics Corporation Touch control device and method
US20130155171A1 (en) * 2011-12-16 2013-06-20 Wayne E. Mock Providing User Input Having a Plurality of Data Types Using a Remote Control Device
WO2013150637A1 (ja) * 2012-04-05 2013-10-10 パイオニア株式会社 端末装置、表示装置、キャリブレーション方法及びキャリブレーションプログラム
KR101341737B1 (ko) * 2012-06-21 2013-12-16 주식회사 팬택 후면 터치를 이용한 단말 제어 장치 및 방법
WO2014003337A1 (ko) * 2012-06-28 2014-01-03 한양대학교 산학협력단 유아이 조절 방법 및 이를 사용하는 사용자 단말기
TWI467467B (zh) * 2012-10-29 2015-01-01 Pixart Imaging Inc 畫面物件移動控制方法及裝置
US10001918B2 (en) 2012-11-21 2018-06-19 Algotec Systems Ltd. Method and system for providing a specialized computer input device
US8769431B1 (en) * 2013-02-28 2014-07-01 Roy Varada Prasad Method of single-handed software operation of large form factor mobile electronic devices
US9760278B2 (en) * 2013-03-01 2017-09-12 Altaba INC. Finger expressions for touch screens
CN104656881B (zh) * 2013-11-22 2018-03-02 上海斐讯数据通信技术有限公司 一种外接输入的方法及外接输入装置
USD766259S1 (en) * 2013-12-31 2016-09-13 Beijing Qihoo Technology Co. Ltd. Display screen with a graphical user interface
US9996160B2 (en) 2014-02-18 2018-06-12 Sony Corporation Method and apparatus for gesture detection and display control
KR20150107528A (ko) * 2014-03-14 2015-09-23 삼성전자주식회사 사용자 인터페이스를 제공하는 방법과 전자 장치
US9807725B1 (en) * 2014-04-10 2017-10-31 Knowles Electronics, Llc Determining a spatial relationship between different user contexts
CN103955339A (zh) * 2014-04-25 2014-07-30 华为技术有限公司 一种终端操作方法及终端设备
US9826187B2 (en) 2015-08-25 2017-11-21 Echostar Technologies L.L.C. Combined absolute/relative touchpad navigation
US9781468B2 (en) * 2015-08-25 2017-10-03 Echostar Technologies L.L.C. Dynamic scaling of touchpad/UI grid size relationship within a user interface
WO2017039125A1 (en) * 2015-08-28 2017-03-09 Samsung Electronics Co., Ltd. Electronic device and operating method of the same
GB2541730B (en) * 2015-08-28 2020-05-13 Samsung Electronics Co Ltd Displaying graphical user interface elements on a touch screen
US10785441B2 (en) * 2016-03-07 2020-09-22 Sony Corporation Running touch screen applications on display device not having touch capability using remote controller having at least a touch sensitive surface
US10434405B2 (en) * 2017-10-30 2019-10-08 Microsoft Technology Licensing, Llc Control stick sensitivity adjustment
CN108255397A (zh) * 2018-02-02 2018-07-06 中兴通讯股份有限公司 控制执行方法、装置、存储介质及电子装置
US10969899B2 (en) 2019-07-19 2021-04-06 Samsung Electronics Co., Ltd. Dynamically adaptive sensing for remote hover touch
US11416130B2 (en) * 2019-10-01 2022-08-16 Microsoft Technology Licensing, Llc Moving applications on multi-screen computing device
CN114157889B (zh) * 2020-08-18 2024-04-16 海信视像科技股份有限公司 一种显示设备及触控协助交互方法
KR20230112485A (ko) * 2022-01-20 2023-07-27 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
US11797176B1 (en) * 2022-07-06 2023-10-24 Dell Products L.P. Input area segmentation for a touch-based user input device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346507A (ja) * 2004-06-03 2005-12-15 Sony Corp 携帯型電子機器、入力操作制御方法及びそのプログラム
JP2007280019A (ja) * 2006-04-06 2007-10-25 Alps Electric Co Ltd 入力装置およびこの入力装置を使用したコンピュータシステム
JP2008257629A (ja) * 2007-04-09 2008-10-23 Matsushita Electric Ind Co Ltd タッチ式入力装置
JP2009087075A (ja) * 2007-09-28 2009-04-23 Toshiba Corp 情報処理装置、情報処理装置の制御方法、及び情報処理装置の制御プログラム
JP2010521022A (ja) * 2007-02-23 2010-06-17 ティーピーアイ カンパニー リミテッド デジタル機器に使われるポインティング装置を利用した仮想キーボード入力システム
US20100295797A1 (en) * 2009-05-21 2010-11-25 Sony Computer Entertainment America Inc. Continuous and dynamic scene decomposition for user interface
JP2010536076A (ja) * 2007-06-28 2010-11-25 パナソニック株式会社 仮想キーパッドシステム及び方法
WO2010151501A1 (en) * 2009-06-26 2010-12-29 Panasonic Corporation Dual pointer management method using cooperating input sources and efficient dynamic coordinate remapping
US20110113371A1 (en) * 2009-11-06 2011-05-12 Robert Preston Parker Touch-Based User Interface User Error Handling

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6380929B1 (en) * 1996-09-20 2002-04-30 Synaptics, Incorporated Pen drawing computer input device
US6088023A (en) * 1996-12-10 2000-07-11 Willow Design, Inc. Integrated pointing and drawing graphics system for computers
US20060071915A1 (en) * 2004-10-05 2006-04-06 Rehm Peter H Portable computer and method for taking notes with sketches and typed text
US8775964B2 (en) * 2005-03-23 2014-07-08 Core Wireless Licensing, S.a.r.l. Method and mobile terminal device for mapping a virtual user input interface to a physical user input interface
KR100857508B1 (ko) * 2007-04-24 2008-09-08 (주)비욘위즈 디지털 방송용 셋탑박스 제어장치, 그 구동방법 및 디지털방송 시스템
EP2283421B1 (en) * 2008-05-20 2019-08-14 Citrix Systems, Inc. Methods and systems for using external display devices with a mobile computing device
JP2009282939A (ja) * 2008-05-26 2009-12-03 Wacom Co Ltd グラフィックタブレットを関連ディスプレイにマッピングする装置、方法、およびコンピュータ可読媒体
US20100302190A1 (en) * 2009-06-02 2010-12-02 Elan Microelectronics Corporation Multi-functional touchpad remote controller
TWI518561B (zh) * 2009-06-02 2016-01-21 Elan Microelectronics Corp Multi - function touchpad remote control and its control method
TW201104529A (en) * 2009-07-22 2011-02-01 Elan Microelectronics Corp Touch device, control method and control unit for multi-touch environment
US9542097B2 (en) * 2010-01-13 2017-01-10 Lenovo (Singapore) Pte. Ltd. Virtual touchpad for a touch device
CN102918490B (zh) * 2010-04-01 2014-07-23 思杰系统有限公司 与在平板计算装置的虚拟桌面内显示的远程应用交互
JP2011242386A (ja) * 2010-04-23 2011-12-01 Immersion Corp 接触センサと触覚アクチュエータとの透明複合圧電材結合体
TWI413922B (zh) * 2010-04-23 2013-11-01 Primax Electronics Ltd 觸控板之控制方法與應用該方法之觸控裝置
JP5762967B2 (ja) * 2010-05-18 2015-08-12 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 座標決定装置、座標決定方法及び座標決定プログラム
US20120068938A1 (en) * 2010-09-16 2012-03-22 Research In Motion Limited Electronic device with touch-sensitive display
JP5790203B2 (ja) * 2011-06-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および遠隔操作システム
JP6141596B2 (ja) * 2011-12-27 2017-06-07 セイコーエプソン株式会社 表示装置、表示システム及び表示装置のデータ供給方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346507A (ja) * 2004-06-03 2005-12-15 Sony Corp 携帯型電子機器、入力操作制御方法及びそのプログラム
JP2007280019A (ja) * 2006-04-06 2007-10-25 Alps Electric Co Ltd 入力装置およびこの入力装置を使用したコンピュータシステム
JP2010521022A (ja) * 2007-02-23 2010-06-17 ティーピーアイ カンパニー リミテッド デジタル機器に使われるポインティング装置を利用した仮想キーボード入力システム
JP2008257629A (ja) * 2007-04-09 2008-10-23 Matsushita Electric Ind Co Ltd タッチ式入力装置
JP2010536076A (ja) * 2007-06-28 2010-11-25 パナソニック株式会社 仮想キーパッドシステム及び方法
JP2009087075A (ja) * 2007-09-28 2009-04-23 Toshiba Corp 情報処理装置、情報処理装置の制御方法、及び情報処理装置の制御プログラム
US20100295797A1 (en) * 2009-05-21 2010-11-25 Sony Computer Entertainment America Inc. Continuous and dynamic scene decomposition for user interface
WO2010151501A1 (en) * 2009-06-26 2010-12-29 Panasonic Corporation Dual pointer management method using cooperating input sources and efficient dynamic coordinate remapping
US20110113371A1 (en) * 2009-11-06 2011-05-12 Robert Preston Parker Touch-Based User Interface User Error Handling

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016146104A (ja) * 2015-02-09 2016-08-12 富士ゼロックス株式会社 入力システム、入力装置およびプログラム

Also Published As

Publication number Publication date
CN102937876A (zh) 2013-02-20
CN102937876B (zh) 2017-03-01
US20130127738A1 (en) 2013-05-23
EP2597548A2 (en) 2013-05-29
KR20140094639A (ko) 2014-07-30
WO2013078171A1 (en) 2013-05-30
EP2597548A3 (en) 2013-12-11

Similar Documents

Publication Publication Date Title
JP2014533866A (ja) タッチ・センサーの動的スケーリング
US9996176B2 (en) Multi-touch uses, gestures, and implementation
US20220244844A1 (en) Single contact scaling gesture
JP5684291B2 (ja) オンおよびオフスクリーン・ジェスチャーの組み合わせ
US11752432B2 (en) Information processing device and method of causing computer to perform game program
US20120169776A1 (en) Method and apparatus for controlling a zoom function
US20160216862A1 (en) Using gestures to deliver content to predefined destinations
KR101756579B1 (ko) 베젤 에지에서의 터치를 검출하기 위한 방법, 전자 디바이스 및 컴퓨터 판독 가능 저장 매체
JP2013504794A (ja) 時間分離タッチ入力
CA2861988A1 (en) Method and apparatus for moving contents in terminal
US20130038552A1 (en) Method and system for enhancing use of touch screen enabled devices
TW201405413A (zh) 觸控模式
SE1350066A1 (sv) Skalbar inmatning från spårat objekt i beröringsfritt användargränssnitt
JP2013109667A (ja) 情報処理装置および情報処理方法
US20150033161A1 (en) Detecting a first and a second touch to associate a data file with a graphical data object
TW201617827A (zh) 觸控螢幕姿態技術
WO2013119477A1 (en) Presentation techniques
KR20060118821A (ko) 포인팅디바이스를 이용한 애플리케이션 실행 방법, 장치 및애플리케이션 실행 프로그램을 기록한 컴퓨터로 읽을 수있는 매체
US11481110B2 (en) Gesture buttons
US10552022B2 (en) Display control method, apparatus, and non-transitory computer-readable recording medium
US20160048325A1 (en) Electronic device and gesture input method of item selection
US20160117000A1 (en) Touchscreen input method and apparatus
CN109885249A (zh) 一种分屏处理方法、智能终端及可读存储介质
Procházka et al. Mainstreaming gesture based interfaces
JP2018077343A (ja) 表示制御装置、表示システム、表示方法及びプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150519

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170517

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180119