JP6141300B2 - ユーザ・インターフェースの間接的対話 - Google Patents

ユーザ・インターフェースの間接的対話 Download PDF

Info

Publication number
JP6141300B2
JP6141300B2 JP2014541143A JP2014541143A JP6141300B2 JP 6141300 B2 JP6141300 B2 JP 6141300B2 JP 2014541143 A JP2014541143 A JP 2014541143A JP 2014541143 A JP2014541143 A JP 2014541143A JP 6141300 B2 JP6141300 B2 JP 6141300B2
Authority
JP
Japan
Prior art keywords
sensor surface
input data
user interface
contact
mapped
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014541143A
Other languages
English (en)
Other versions
JP2014532949A (ja
Inventor
ジー. ウィリアムズ,セアラ
ジー. ウィリアムズ,セアラ
ボーラー フリーガル,エリック
ボーラー フリーガル,エリック
ロジャー ヴォス,ウィリアム
ロジャー ヴォス,ウィリアム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014532949A publication Critical patent/JP2014532949A/ja
Application granted granted Critical
Publication of JP6141300B2 publication Critical patent/JP6141300B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

ユーザがデバイスと対話し、その対話がディスプレイ上のある位置にマップされることに関する。
従来、ユーザは、様々な入力デバイスを使用し、ユーザ・インターフェースの要素と対話する。一般に、これらの入力デバイスは、そのデバイスが有するユーザ・インターフェースとの対話のタイプに基づいて、直接的対話デバイスおよび/または間接的対話デバイスとして分類することができる。たとえば、タッチスクリーンなどの直接的対話デバイスは、モニタに表示されたものとユーザが直接的に対話することを可能にするように構成され、一方、たとえば、マウスまたはキーボードなどの間接的対話デバイスは、モニタに表示されたものとユーザが間接的に対話することを可能にするように構成される。
たとえば、マウスとタッチパッドなどのマウスをまねたデバイスとは、より一般的なタイプの間接的対話デバイスのうちの一部である。ユーザはデバイスと対話し、その対話が、ディスプレイ上のある位置にマップされる。たとえば、マウスは動きを感知することができ、その動きは、推定された開始位置と、感知されたデバイスとの対話とに基づき、ある位置にマップされる。タッチパッドは、一般に、マウスと同様の方式で使用される。タッチパッド上の接点(contact)(たとえば、指、スタイラスなど)の動きが感知され、感知された動きは、マウス入力と同様の方式で処理される。
特に、間接的対話デバイスのセンサ表面の第1の部分を使用して第1のタスクを実行しながら上記センサ表面の第2の部分を使用して異なるタスクを実行するための1つまたは複数のシステムおよび/または技法を提供することに関する。
本概要は、発明を実施するための形態で以下にさらに記載される概念の選択を簡易化された形で紹介するために提供される。本概要は、特許請求されている対象の主要な要因または本質的特徴を特定するものではなく、特許請求されている対象の範囲を限定するために使用されるものでもない。
特に、間接的対話デバイスのセンサ表面の第1の部分を使用して第1のタスクを実行し、一方、上記センサ表面の第2の部分を使用して異なるタスクを実行するための1つまたは複数のシステムおよび/または技法が、提供される。一例として、センサ表面の第1の部分は、コンピュータ・システムのユーザ・インターフェースでオブジェクト(たとえば、メニュー、画面上のキーボードなど)を開くおよび/または閉じるために、かつ/あるいはユーザ・インターフェースでオブジェクトを切り替えるために使用することができ、一方、上記センサ表面の別の部分は、ユーザ・インターフェース内でナビゲートするために使用され得る。接点(たとえば、指、スタイラスなど)がセンサ表面の第1の部分に対して所定の方式(たとえば、特定のジェスチャ/動きを行う、および/または指定された量の圧力が適用されるなど)で適用されるとき、そのジェスチャに関連付けられたタスクが開始され得る。
一実施形態ではオブジェクトが間接的対話デバイスからの入力を介して開かれる/起動されるとき、センサ表面の2つ以上の部分がユーザ・インターフェースの異なる領域にマップされ得る。たとえば、そのセンサ表面の第1の部分が起動されたオブジェクト(たとえば、または、起動されたオブジェクトの一部)にマップ可能であり、一方、第2の部分は、より一般的にはユーザ・インターフェースにマップされる(たとえば、ポインタがそのユーザ・インターフェース内でナビゲートすることができるように)。第1の部分はオブジェクトにマップされ、第2の部分は、より一般的に、ユーザ・インターフェースにマップされる(たとえば、そして、オブジェクトを含む)ので、一例で、第2の部分は、第1の部分もマップされるユーザ・インターフェースの一部にマップされ得る(たとえば、重複する)。たとえば、第2の部分の少なくともいくらかは、第1の部分がマップされるオブジェクトにマップされ得る。別の実施形態で、センサ表面の第1の部分および第2の部分は、ディスプレイの異なる領域にマップされ得る(たとえば、マップされる領域に重複がないように)。
別の実施形態で、第1の部分および第2の部分の相対的表面領域は、開始されるタスクに基づいて変更され得る。たとえば、一実施形態で、センサ表面の第1の部分に対して適用されるジェスチャ(たとえば、動きの形)に基づくタスクの開始は、第2の部分に関する表面領域と比べて第1の部分に関する表面領域の量を増加させるまたは減少させることができる。例として、オブジェクトがユーザ・インターフェース内で開かれるとき(たとえば、センサ表面に適用されるジェスチャに基づいて)、第1の部分の表面領域は拡大され、拡大された第1の部分が、開かれたオブジェクトにマップされ得る。同様に、オブジェクトが閉じられるとき、第1の部分の表面領域は減らされ得る(たとえば、それの最初のサイズに戻される)。
前述のおよび関連する目的を達成するために、以下の説明および添付の図面は、ある特定の例示的態様および実装形態を記載する。これらは、1つまたは複数の態様が使用され得る様々な方法のうちのほんのいくつかを示す。本開示の他の態様、利点、新しい特徴が、添付の図面とともに考慮されるときに以下の詳細な説明から明らかとなろう。
間接的対話デバイスを使用してユーザ・インターフェースと対話するための例示的方法を示す図である。 所定のジェスチャを表す入力データの受信前の間接的対話デバイスの例示的センサ表面を示す図である。 所定のジェスチャを表す入力データの受信前の例示的ディスプレイを示す図である。 所定のジェスチャを表す入力データの受信時の例示的ディスプレイを示す図である。 所定のジェスチャを表す入力データの受信時の間接的対話デバイスの例示的センサ表面を示す図である。 所定のジェスチャを表す入力データの受信時の間接的対話デバイスの例示的センサ表面を示す図である。 所定のジェスチャを表す入力データの受信時の例示的ディスプレイを示す図である。 間接的対話デバイスを使用してユーザ・インターフェースと対話するための例示的システムを示す図である。 本明細書に記載の定めのうちの1つまたは複数を実施するように構成されたプロセッサ実行可能命令が備えられ得る例示的コンピュータ可読媒体を示す図である。 本明細書に記載の定めのうちの1つまたは複数が実装され得る例示的コンピューティング環境を示す図である。
特許請求されている対象が、ここで図面を参照して説明され、それらの図面をとおして、同様の参照番号は同様の要素を参照するために概して使用される。以下の記載では、説明を目的として、多数の特定の詳細が、特許請求されている対象の完全な理解を実現するために、記載される。しかし、特許請求されている対象は、これらの特定の詳細なしに実施され得ることが、明らかであり得る。他の例では、構造およびデバイスが、特許請求されている対象の説明を円滑に進めるために、ブロック図の形で示される。
特に、1つまたは複数のシステムおよび/または技法が、間接的対話デバイスの部分を使用してコンピュータ・システムのユーザ・インターフェース内でオブジェクトを起動するために、および/または、そのオブジェクトに間接的対話デバイスのセンサ表面(たとえば、タッチセンサ式表面、熱感知式表面など)の部分をマップする(たとえば、センサ表面のマップされた部分がオブジェクトを操作するために使用され得るように)ために、提供される。たとえば、一実施形態で、センサ表面の1つまたは複数の端部分は、そのセンサ表面に対して適用される接点(たとえば、指、スタイラスなど)によって行われ得る様々な所定のジェスチャ(たとえば、所定の方式(複数可)での動き)に敏感なエリアを備え得る。たとえば、エリア内で開始されたおよび/またはそこに備わった所定のジェスチャを検出したとき、その所定のジェスチャに対応するタスクが生じ得る。そのようなタスクの一例として、たとえば、コンピュータ・システムのディスプレイに提示されるユーザ・インターフェースのメニューが起動可能であり、画面上のキーボードがそのユーザ・インターフェース内で起動可能であり、かつ/あるいは提示されたユーザ・インターフェースの一部は、第1のアプリケーションの提示と第2のアプリケーションの提示との間で切り替えが可能である。
さらに、一実施形態で、1つまたは複数の端部分が、所定のジェスチャの検出に基づいて、起動されたオブジェクトなど(たとえば、メニュー、画面上のキーボードなど)の、ユーザ・インターフェース内に備わったオブジェクトにマップされ得る。それにより、ユーザは、上記1つまたは複数の端部分を用いてオブジェクトを操作および/または制御し、一方、センサ表面の第2の部分を介してユーザ・インターフェース内をナビゲートすることができる。一実施形態で、センサ表面の端部分がオブジェクトにマップされるとき、上記センサ表面の端部分は、それの元のサイズ(たとえば、ジェスチャの検出の前の)に比べて拡大され得る。上記端部分が、上記オブジェクトにもうマップされないとき(たとえば、上記オブジェクトがユーザ・インターフェース内で隠されたため)、そのサイズは、第2のオブジェクトが上記端部分を介して起動されるまで(たとえば、そして、上記端部分が、第2のオブジェクトなどの別のオブジェクトに再びマップされるまで)、縮小することができる(たとえば、それの元のサイズに戻る)。
オブジェクトを起動する、アプリケーションを切り替える、および/またはオブジェクトを操作するための間接的対話デバイスの1つまたは複数の端部分の使用が本明細書で具体的に参照されるが、間接的対話デバイスの他の部分も同様にまたは代替で使用することができる(たとえば、その適用は端部分に限定されるものではない)。さらに、他に具体的に明記しない限り、センサ表面の単一の部分が複数の機能のために使用され得ることが理解されよう。たとえば、センサ表面は、単一の部分が所定のジェスチャ(たとえば、指定されたタスクを開始することができる)を検出するように構成され、そして、ユーザ・インターフェース内でナビゲートするために使用されるように構成された、上記単一の部分のみを備えることができる。
さらに、センサ表面が複数の部分を備えるものとして記載される限りは、そのような部分はほぼ同じおよび/または同様のハードウェアから成り得るので、ユーザはそれらの複数の部分を視覚的に区別することは難しいおよび/または不可能であり得ることが、理解されよう。しかし、一実施形態で、それらの様々な部分は、視覚的に区別が可能であり得る。たとえば、LED照明および/または他の効果が、ユーザが部分を視覚的に見分けるのを助けるために使用され得る(たとえば、第1の部分が第2の部分とは異なって照らし出される場合)。また、1つまたは複数の追加のおよび/または異なるタイプのセンサが、センサ表面を補完するためなどに、連動して使用され得る。たとえば、追加のセンサが、ジェスチャがセンサ表面の外側で開始し、次いでセンサ表面に入るときに、そのことを検出するために、センサ表面の端の周囲に置かれ得る(たとえば、ベゼル・センサ、光学、磁気、電磁気など)。そのようなセンサは、たとえば、特に、センサ表面の端をそのセンサ表面の他の部分と区別して、センサ表面に近づく、離れるなどする接点(たとえば、指)を検知するためなどに、有用であり得る。そのようなシナリオのいずれでも、センサ表面は、やはり、これらの追加の、他のセンサなどを備えると言うことができる。
「間接的対話」および/または同様のものは、本明細書では広義で使用され、実体(たとえば、ユーザ)がディスプレイ以外のデバイスと対話してそのディスプレイ上のユーザ・インターフェースを変更させる対話の一形式を記載していることが、理解され得る。たとえば、ラップトップ・コンピュータのタッチパッドは、ユーザがタッチパッドで対話して、ラップトップのディスプレイ/モニタに提示されたポインタを制御するので、間接的対話デバイスの一例であり得る。いくつかの適用例で、直接的対話デバイスが、間接的対話デバイスとして使用され得ることもまた理解されよう。一例として、タッチスクリーンを備えるモバイル・デバイスが、テレビジョンを制御するための遠隔制御として使用される場合、たとえば、モバイル・デバイスのタッチスクリーンは、テレビジョンに表示されたユーザ・インターフェース(たとえば、そこにあるターゲット、カーソルなど)を操作するための間接的対話デバイスとして使用され得る。
図1は、間接的対話デバイスを使用し、コンピュータ・システムのユーザ・インターフェース上でオブジェクトを起動する、上記の起動されたオブジェクトに連携する(engage)、および/または、上記オブジェクトを隠す(たとえば、それがユーザ・インターフェースにもう提示されないように)ための例示的方法100を示す。そのような方法100は、タッチスクリーンを一般に備えないラップトップおよび/またはデスクトップ・コンピュータへの特定の適用可能性を見出すことができるが、そのようなものとして限定されるものではない。たとえば、別の実施形態で、例示的方法100は、タッチスクリーンと連動して使用することができ、間接的対話デバイスが、そのタッチスクリーンを補完することができる(たとえば、タッチスクリーンを介してでは通常は達成不可能な精度が求められる適用例においてなど)。
例示的方法100は、間接的対話デバイスを使用し、オブジェクトを起動すること、連携すること、および隠すことを行うが、これらの動作のうちの1つまたは複数は、本明細書に記載のもの以外の技法を用いて実行され得ることが、理解されよう。たとえば、別の実施形態で、オブジェクトは、所定の量の時間が満了した後におよび/またはユーザ・インターフェースの別のアスペクト(aspect)が連携されたときに、自動的に隠す/閉じることができる。したがって、特許請求の範囲を含む、本開示は、本明細書に記載の動作の各々を含むことに必ずしも限定されるものではない。別の例として、114で受信され、センサ表面の第1の部分に対して接点が第2の所定の方式で適用されていることを表す第2の入力データは、オブジェクトを連携するおよび/またはそのオブジェクトを隠すために使用することができる(たとえば、それにより、118に関して記載される動作は省略され得る)。たとえば、接点がセンサ表面の第1の部分に対して第1の方式で適用される場合(たとえば、接点が指定された量の力で適用される、接点が特定のジェスチャを行うなど)、オブジェクトは、116で連携され得る。(たとえば、第1の方式で適用される代わりに)接点がセンサ表面の第1の部分に対して第2の方式で適用される(たとえば、接点が所定の方式で動かされる(たとえば、接点が所定のジェスチャを実行する)、接点がセンサ表面に異なる量の力を適用するなど)場合、オブジェクトは、120で隠すことができる(たとえば、116および/または118に記載の動作を飛び越して)。したがって、本例示的方法は、1つの例示的方法を単に説明することを意図し、適用例で実際に実装される方法は、本明細書に記載されていないことがある追加のアクションを含むことがあり、かつ/あるいは本明細書に記載の方法は、1つまたは複数の適用例で実行されないことがある追加のアクションを含み得る(たとえば、116、118および/または120(あるいは、その他)などの動作は、適用例、実装形態、構成などに応じて、省略され得る)。さらに、入力データが受信されるときに生じるイベント(たとえば、オブジェクトが、起動される、連携される、および/または隠されるかどうか)は、いかに接点がセンサ表面に対して適用されるかといった機能でもよい。したがって、例示的方法は、必ずしもイベントの流れを示すものとして解釈されるものではない(たとえば、オブジェクトを隠させることを意図したジェスチャを表す入力データは、オブジェクトを連携させることを意図したジェスチャを表す入力データの前に受信されることがあるので)。
例示的方法100は102で開始し、コンピュータ・システムに結合された間接的対話デバイスが、104で検出される。例として、タッチパッドが、有線接続(たとえば、ユニバーサル・シリアル・バス(Universal Serial Bus:USB)など)および/または無線接続(たとえば、ブルートゥース接続、赤外線接続など)を介してコンピュータ・システムに結合され得る。さらに、間接的対話デバイスは、コンピュータ・システムが製造されるときにコンピュータ・システムに結合されることがあり、したがって、間接的対話デバイスは、たとえば、コンピュータ・システムの最初の起動時に検出され得ることが、理解されよう。別法として、たとえば、間接的対話デバイスは、エンドユーザによってコンピュータ・システムに結合されることがあり、たとえば、間接的対話デバイスが結合されるときにおよび/または次の再起動のときに検出され得る。
間接的対話デバイスを検出したときに、コンピュータ・システムおよび/またはその構成要素は、ドライバをインストールするように構成することができ、上記ドライバは、たとえば、間接的対話デバイスとコンピュータ・システムとの間でデータの移動を提供するように、かつ/あるいは間接的対話デバイスとの対話のためにコンピュータ・システムの準備を整えるおよび/またはその逆を行うように構成され得る。
例示的方法100はまた、106で、間接的対話デバイスのセンサ表面に対して接点が第1の所定の方式で適用されていることを表す第1の入力データを受信するステップを含む。例として、但し限定ではなく、接点が所定の方式で動いている(たとえば、1つまたは複数の所定のジェスチャを実行している)ことを表す、センサ表面に対して接点が特定の量の圧力を適用していることを表すなどの入力データが、受信され得る。簡潔さを目的として、ジェスチャおよび/または同様のものは、センサ表面に対して接点が適用されていることを示すために本明細書で使用され得ることが、理解されよう。そのような用語の使用は、動きなどの特定のタイプの適用を暗示するものではなく、より一般的に、センサ表面に対して接点が適用されていることを指すために使用される。
一例として、表または他のデータ構造が、ユーザ・インターフェース内で特定のタスク/イベントをトリガするために(たとえば、ユーザ、アプリケーション開発者、コンピュータ製造会社などによって)予め定義された複数のジェスチャを備え得る。たとえば、そのようなタスク/イベントには、特に、ユーザ・インターフェースでオブジェクトを開くこと、オブジェクトを閉じること、ユーザ・インターフェースで提示されたアプリケーションを切り替えること、ユーザ・インターフェースで提示されたオブジェクトを切り替えることなどを含み得る。予め定義されていないジェスチャを表す入力データもまた、受信され得る(たとえば、間接的対話デバイスが動作可能に結合されたコンピュータ・システムによって)が、そのような入力データは、他の目的で使用され得る(たとえば、そのユーザ・インターフェース内でナビゲートするために(たとえば、ユーザ・インターフェース内でナビゲートするマウス・ポインタと同様に)など)。
所定のジェスチャには、特に、特定の方式で接点を回転させること(たとえば、時計回りで、反時計回りでなど)、特定の方式で接点の動きの方向を変えること、センサ表面の特定の領域/部分でジェスチャを開始および/または終了すること、指定された量の力を適用すること、センサ表面の特定の部分に触れること、センサのエリアの外側でジェスチャを開始するが内側で終わること、センサのエリアの内側でジェスチャを開始するが外側で終わることなどを含み得る。一例として、センサ表面は、複数の部分に分割することができる(たとえば、第1の入力データの受信の前に)。たとえば、第1の部分は、ユーザ・インターフェース内で何らかのイベントをトリガするために使用することができ(たとえば、1つまたは複数のオブジェクトの起動を初期化すること、および/またはユーザ・インターフェース内でオブジェクトを閉じることなど)、そして、第2の部分は、表示されたユーザ・インターフェース内でナビゲートするためなどの何らかの他の機能/目的のために使用することができる。したがって、たとえば、センサ表面の第1の部分内で生じる、開始する、および/または終了するジェスチャは、ユーザ・インターフェース内で何らかのイベントをトリガすることができ、一方、センサ表面の第2の部分内で生じる、開始する、および/または終了するジェスチャは、ユーザ・インターフェース内でターゲット(たとえば、ポインタ)をナビゲートするために使用することができる。
例示的方法100の108で、オブジェクトが、第1の入力データの受信(たとえば、106で)に応答してユーザ・インターフェース内で起動される。すなわち、受信された入力データが、オブジェクトの起動に対応するジェスチャを表すとき、上記オブジェクトが、ユーザ・インターフェース内で起動され得る(たとえば、開かれる)。たとえば、そのようなオブジェクトには、特に、メニュー、画面上のキーボード、および/または、第1の入力データの受信より前に表示されなかった(たとえば、またはアクティブに表示されなかった(たとえば、それが少なくとも部分的に目立たなくされていたためなど))他のユーザ・インターフェース機能を含み得る。この方法で、間接的対話デバイスは、たとえば、第1の入力データの受信より前にはユーザ・インターフェース内で閉じられて(たとえば、および/または他の方法で非アクティブに)見えた、たとえば、メニューおよび/または画面上のキーボードを開くために使用することができる。
例示的方法100の110で、間接的対話デバイスのセンサ表面の少なくとも第1の部分は、ユーザ・インターフェース内に提示された起動された/開かれたオブジェクトにマップされる(たとえば、絶対的マッピング、相対的マッピング、および/または他のマッピング技法を使用して)。すなわち、別の言い方をすれば、センサ表面の少なくとも一部(たとえば、センサ表面全体のすべてまたはそれ未満を備え得る)が、オブジェクトにマップされる。この方法で、接点がセンサ表面の第1の部分に適用されるとき、上記オブジェクトが連携され得る。例として、オブジェクトは、5つの選択(たとえば、5つのボタン)を備えるメニューを備え得る。したがって、たとえば、センサ表面の第1の部分は5つのセクションに分割することができ、それぞれのセクションが、上記5つの選択のうちの1つにマップされ得る。続いて、ある接点が上記5つのセクションのうちの1つまたは複数に対して適用されるとき、たとえば、上記接点が適用されるセクション(複数可)に対応する1つまたは複数の選択が、ユーザ・インターフェース内で選択および/または識別され得る(たとえば、その選択を強調表示することによって)。そのような特徴は、図2〜7に関してさらに説明され得ることが、理解されよう。
絶対的マッピング技法は、一般に、ディスプレイの対応する軸および/またはディスプレイ内の特定のオブジェクト(複数可)に間接的対話デバイスの軸を基準化する(scale)ように構成される(たとえば、間接的対話デバイスの一部が単にオブジェクト(複数可)にマップされるとき)。たとえば、x方向で、間接的対話デバイスのセンサ表面上のそれぞれのポイントがディスプレイ/オブジェクト上の単に1つのポイント(たとえば、または特定の数のポイント)にマップするように、間接的対話デバイスのx軸が、ディスプレイ/オブジェクトの対応するx軸で基準化され得る。同様に、y方向で、間接的対話デバイスのセンサ表面上のそれぞれのポイントがディスプレイ/オブジェクト上の単に1つのポイント(たとえば、または特定の数のポイント)にマップするように、間接的対話デバイスのy軸が、ディスプレイ/オブジェクトの対応するy軸で基準化され得る。従来は、タッチスクリーンおよび/またはペン・デジタイザは、絶対的マッピング技法を使用した。
相対的マッピング技法は、センサ表面が一般に、ディスプレイ/オブジェクトの移動可能な小領域(たとえば、ユーザには見せることができない)にマップされるという点で、絶対的マッピング技法とは異なる。すなわち、本マッピングは、接点(たとえば、指)がセンサ表面によって検出されるときの、ディスプレイ/オブジェクト上のターゲット(たとえば、ポインタ)の現在の位置の関数であり、上記ターゲットの位置の変更に基づいて変わり得る。たとえば、接点が検出されるときに、ターゲットがディスプレイ/オブジェクトの右上の象限内に中心を置く場合、センサ表面は、センサ表面の中心点が上記ターゲットの位置に一致するように、マップされ得る(たとえば、ディスプレイ/オブジェクトのすべてに満たない部分がセンサ表面上のポイントにマップされるようにする)(たとえば、単にディスプレイ/オブジェクトの右上の象限がマップされ得るなど)。ある期間に接点がセンサ表面によって検出されない場合、たとえば、接点が再び検出されるときに、本マッピングは、ターゲットの位置がセンサ表面の中心点にマップされるように、変更され得る。従来は、マウスおよび/またはマウスをまねたトラックパッドは、相対的マッピング技法を使用した。
センサ表面の少なくともいくらかが、起動されたオブジェクトにマップされない場合、残りの部分(たとえば、または、110でオブジェクトにマップされなかったセンサ表面の少なくとも一部)が、本例示的方法の112で1つまたは複数のマッピング技法(たとえば、絶対的マッピング、相対的マッピング、絶対的および相対的マッピングの組合せなど)を用いてユーザ・インターフェースにマップされ得る。通常は、上記残りの部分は、オブジェクト(たとえば、第1の部分が110でマップされた)を備えないユーザ・インターフェースの部分にマップされるが、一実施形態で、第2の部分は、オブジェクトに少なくとも部分的にマップされ得る。たとえば、第2の部分は、ユーザ・インターフェース全体にマップされ得る。オブジェクトはユーザ・インターフェース内に構成されるので、第2の部分は上記オブジェクトに少なくとも部分的にマップされ得る(たとえば、しかし、第2の部分の少なくとも一部は、オブジェクトがディスプレイを満たさない限り、ユーザ・インターフェースのうちオブジェクトを備えない部分にマップされ得る)。この方法で、ターゲット(たとえば、ポインタ)は、第2の部分に対して接点が適用されていることを表す入力データに少なくとも部分的に基づいてオブジェクトを越えて操作することができ、そして、オブジェクトは、第1の部分に対して同一のおよび/または異なる接点が適用されていることを表す入力データに少なくとも部分的に基づいて連携され得る。
たとえば、センサ表面の第2の部分をユーザ・インターフェースにマップすることによって、第2の部分は、ユーザ・インターフェースをナビゲートするおよび/または何らかの他の機能を実行するために使用することができ、一方で、オブジェクトにマップされた第1の部分は、上記オブジェクトを連携するために(同時に)使用され得ることが、理解されよう。すなわち、別の言い方をすれば、センサ表面の第1の部分(たとえば、110でそのオブジェクトにマップされた)は、オブジェクトをナビゲートするおよび/または連携するために使用することができ、一方で、センサ表面の第2の部分は、ユーザ・インターフェースの他の部分をナビゲートするおよび/または連携するために(同時に)使用され得る、および/または何らかの他の機能を実行するために使用され得る(たとえば、タップされたときに、エンター、選択、リターンなどのボタンまたはキーの機能を果たす)。
例示的方法100の114で、センサ表面の第1の部分に対して接点が第2の所定の方式で適用されていることを表す第2の入力データが受信され、オブジェクトが、第2の入力データに少なくとも部分的に基づいて116で連携される。たとえば、前述のように、108で起動される/開かれるオブジェクトは5つの選択(たとえば、5つのボタン)を備えることができ、そして、センサ表面の第1の部分は5つのセクションに分割することができ、それぞれのセクションは上記5つの選択のうちの1つに対応する。たとえば、第2の入力データは、ある接点がそれらの5つのセクションのうちの1つまたは複数に対して適用されていることを表すことができ、上記第2の入力データに基づいて、上記接点が適用されたセクションに対応する選択が連携され得る。
特許請求の範囲においておよび/または本明細書をとおして、第1の、第2の、第3のなどの用語は、要素を区別するために使用され得ることが、理解されよう。しかし、そのような用語は、オブジェクト/特徴が一意的であることを暗示するおよび/または時間的順序を暗示するものではない。たとえば、記述は、特に、センサ表面に対して第1の接点が適用されていることを表す第1の入力データを受信することと、センサ表面に対して第2の接点が適用されていることを表す第2の入力データを受信することとを提供し得る。他に明示的な指定のない限り、第1のおよび第2の接点は同一の接点でよく、かつ/あるいは第1の接点は第2の接点とは異なってよい(たとえば、したがって、第1の接点および第2の接点が一意的な接点となる)。
オブジェクトを連携するために第2の入力データの受信および/または第2の入力データの使用が本明細書で具体的に参照されるが、他の入力データ(たとえば、オブジェクトを連携しない)もまた断続的に受信され得ることが、理解されよう。たとえば、センサ表面が第1の部分および第2の部分を備える場合、第2の部分に対して1つまたは複数の接点が適用されていることを表す入力データもまた受信され得る。そのような入力データは、特に、たとえば、ユーザ・インターフェース内でターゲット(たとえば、ポインタ)をナビゲートするおよび/またはユーザ・インターフェースの他のアスペクト/オブジェクトを連携するために使用され得る。
例示的方法100の118で、間接的対話デバイスのセンサ表面に対して接点が第3の所定の方式で適用されていることを表す第3の入力データが受信され、120で、オブジェクトが上記第3の入力データの受信に応答して隠される/閉じられる。たとえば、一実施形態で、オブジェクト(たとえば、108で起動された)は、108でオブジェクトを起動させたジェスチャと反対のジェスチャを接点が実行するときに、隠すおよび/または閉じることができるが、他のタイプのジェスチャがそのオブジェクトを隠させる(たとえば、それが少なくとも部分的に目立たなくされるように)および/または閉じさせることができる。例として、オブジェクトが、1つまたは複数の接点がセンサ表面の端から離れて移動することに基づいて起動される/開かれる場合、オブジェクトは、上記センサ表面の同一のおよび/または異なる端の方へ接点が移動することによって隠す/閉じることができる。別の例として、センサ表面の第1の端に対して接点が適用されると、108でオブジェクトを起動させることができ、一方、センサ表面の第2の端に対して接点が適用される(たとえば、同一の接点および/または異なる接点)と、120で上記オブジェクトを隠させる/閉じさせることができる。
オブジェクトの起動および/または連携をもたらすためにおよび/またはオブジェクトが隠される/閉じられるようにするために間接的対話デバイスのセンサ表面に適用され得る企図された多数のジェスチャが存在することが、理解されよう。前述のジェスチャおよび以下に記載のジェスチャは、単に、適用され得る事実上数えきれないほどのジェスチャのうちのいくつかの例を提供することを意図され、特許請求の範囲を含む本開示は、実際の範囲で本明細書に記載の特定のジェスチャ/動きに限定されるものではない。
さらに、本例示的方法をとおして、センサ表面に対して接点が適用されていることを表す入力データの受信が参照されるが、入力データは、同様におよび/またはその代わりに、センサ表面に対して複数の接点が適用されていることを表し得る。さらに、一実施形態で、入力データが単に1つの接点ではなくて複数の接点を表す場合、異なるタスクが生じ得る。たとえば、単に1つの接点(たとえば、1本の指)によって実行されたジェスチャを表す入力データが、第1のオブジェクトを起動させることができ、一方で、2つの接点で実行された同様のジェスチャを表す入力データは、第1のオブジェクトを隠させる/閉じさせることができ、かつ/あるいは第1のオブジェクトとは異なる第2のオブジェクトを起動させることができる。さらに、接点は、実際には、そこに対して適用されることになるセンサ表面に必ずしも「接する」必要はない。たとえば、センサ表面が感熱式、磁気、伝導性などの場合、接点は、センサ表面に単に近づくことによってセンサ表面に対して適用され得る。
例示的方法100は、122で終了する。
図2〜5は、間接的対話デバイスを介してオブジェクト(たとえば、メニュー)を開くおよび/またはオブジェクトを連携するための例示的実施形態を示す。より具体的には、図2は、第1の入力データ(たとえば、図1の例示的方法100において106で受信され得る)の生成前の例示的センサ表面200(たとえば、タッチパッド、感熱式表面など)を示す。図3は、第1の入力データの生成の前の例示的ディスプレイ300を示す。図4は、第1の入力データが受信され(たとえば、センサ表面を備える間接的対話デバイスから)、オブジェクト406(たとえば、メニュー)が起動された(たとえば、図1の例示的方法100において108で)後の例示的ディスプレイ400(たとえば、図3における300)を示す。図5は、第1の入力データが受信され、センサ表面の部分502が、図4のディスプレイ400に提示された例示的ユーザ・インターフェース402などのオブジェクト406にマップされた(たとえば、図1の例示的方法100の110で)後の例示的センサ表面500(たとえば、図2における200)を示す。
図2に示すように、および図1の例示的方法100に関してさらに説明されるように、一実施形態で、センサ表面200は複数の部分から成り得る(たとえば、上記複数の部分は視覚的に(および/または他の方法で)区別できてよく、または区別できなくてよい)。明確さを目的として、図示の実施形態では、第1の部分202は暗い灰色の模様で埋められ、一方、第2の部分204は埋められていない。
オブジェクトの起動(たとえば、図1の例示的方法100の108で)より前に、第1の部分202は、センサ表面200の総表面領域の相対的に小さい部分を備え得る。たとえば、図示の実施形態で、第1の部分202は、センサ表面の最上部の9mmだけを消費する。
第1の接点206(たとえば、指)がセンサ表面200に対して適用されるとき、第1の接点206が適用される位置を表すおよび/またはセンサ表面200に対する第1の接点206の動きを表す入力データが、間接的対話デバイスによって生成され得る(たとえば、そして、図1の例示的方法100における106でコンピュータ・システムによって受信される)。そのような入力は、ユーザ・インターフェース内でターゲット(たとえば、ポインタ)をナビゲートするために、および/またはタスク/イベント(たとえば、オブジェクトの起動など)を開始するために、使用され得る。
そのような入力データを受信するコンピュータ・システムは、所定のジェスチャ一式を備えることができ、入力データは、上記所定のジェスチャ一式と比較されて、入力データが所定のジェスチャに対応するジェスチャを表すかどうかが判定され得る。入力データが、第1の接点206が所定のジェスチャのうちの1つまたは複数を実質的に実行していることを表す場合、コンピュータ・システムおよび/またはその部分は、入力データによって示されるジェスチャに対応する所定のジェスチャに関連付けられたタスク/イベント(たとえば、メニューを開くこと、メニューを閉じること、画面上のキーボードを開くこと、ユーザ・インターフェース内に提示されるアプリケーションを切り替えることなど)を開始することができる。
例として、コンピュータ・システムは、受信された入力データが、図2の矢印208によって示すように、接点が、センサ表面200の第1の部分202に適用され、下方向へ(たとえば、センサ表面200の第2の部分204の方へ)ドラッグされていることを表す場合、メニューおよび/または画面上のキーボードが起動することになることを実現することができる。そのようなジェスチャを第1の接点206が実行していることを表す入力データが受信される場合、コンピュータ・システムおよび/またはその部分は、対応する所定のジェスチャに関連付けられたイベントを開始することができる(たとえば、メニューおよび/または画面上のキーボードを起動する)。第1の接点206が第1の部分202に適用されているが、何らかの他のジェスチャを実行していることを表す入力データが受信される場合、たとえば、上記ジェスチャがコンピュータ・システムのデータベース内の所定のジェスチャに対応するかどうかに依存して、異なるイベントが開始されてよく、かつ/あるいはイベントがまったく開始されなくてよい。
さらに、入力データが、代わりにおよび/または同様に、第1の接点206および/または別の接点が第2の部分204に適用されていることを表す場合、コンピュータ・システムは、上記入力データを使用して他の機能を実行することができることが、理解されよう。たとえば、一実施形態で、接点(複数可)が第2の部分204に適用されていることを表す入力データは、ユーザ・インターフェース内でターゲット(たとえば、マウス・ポインタ)をナビゲートするために、および/または、現在表示されるユーザ・インターフェース内に提示された他のオブジェクト/アスペクトを連携するために、使用することができる(たとえば、第2の部分が、タッチパッドが従来使用される方法と同様の方式で使用され得る)。
図3は、接点(たとえば、図2の206)が所定のジェスチャを実行していることを表す入力データが間接的対話デバイスから受信される(たとえば、図1の例示的方法100の106で)ときに生じ得るタスク/イベント(たとえば、メニューの起動)の開始より前に、ディスプレイ300に提示され得るユーザ・インターフェース302を備えるコンピュータ・システムの例示的ディスプレイ300(たとえば、モニタ)を示す。図示するように、ユーザ・インターフェース302は、アプリケーション304で実質的に構成されることが、理解されよう。
図4は、所定のジェスチャを表す入力データが間接的対話デバイスから受信された(たとえば、図1の例示的方法100の106で)後のユーザ・インターフェース402(たとえば、図3の302)を備えるコンピュータ・システムの例示的ディスプレイ400(たとえば、図3の300)を示す。たとえば、接点(たとえば、図2の206)が、センサ表面の上端から(たとえば、図2のセンサ表面200の第1の部分202から)スワイプし、および/または上記上端からセンサ表面200に入っていることを表す入力データを受信したときに、メニュー406が、ユーザ・インターフェース402内で開かれ得る。メニュー406は、選択および/または連携することができる項目のうちの1つまたは複数を備え得る。たとえば、図示されたメニュー406は、項目A、B、C、D、E、F、およびGを備える。受信された入力データに基づいてユーザ・インターフェースにメニュー406を組み込むため、アプリケーション404を表すユーザ・インターフェース402の部分(たとえば、図3の304)は、メニュー406が存在しなかった(たとえば、図3に示すように)ときのそのサイズと比べて縮小され得ることもまた理解されよう。
図1の例示的方法100の動作110に関して記載されるように、センサ表面の少なくとも一部が、ユーザ・インターフェース402内で開かれたメニュー406にマップされ得る。この方法で、ユーザは、センサ表面を用いて、メニュー406(たとえば、またはその選択)を連携することができる。
図5は、メニュー406にマップされ得る、かつ/あるいはメニュー406を連携する(たとえば、図1の例示的方法100の116で)および/または所定のジェスチャ(複数可)を表す受信された入力データに基づいて起動され得る他のオブジェクトを連携するために使用されるように構成され得る、第1の部分502(たとえば、図2の202)を備える例示的センサ表面500(たとえば、図2における200)を示す。一例として、接点506(たとえば、図2の206)は、センサ表面500の第1の部分502と対話して図4のメニュー406を連携することができる。たとえば、接点506は、項目Aにマップされた第1の部分502のあるセクション(たとえば、第1の部分502の左端のセクション)に接点506を適用することによって、メニュー406の項目Aを選択することができる。
一実施形態で、接点(複数可)がセンサ表面500の第1の部分502に適用されるとき、メニュー406内の項目(複数可)および/または第1の部分502の特定のエリアに適用される接点によって連携される他のオブジェクトは、メニュー406の他のアスペクトに対して区別され得る(たとえば、強調表示される、太字にされるなど)。たとえば、接点506が、項目Aにマップされた第1の部分502のうちのあるセクションに適用される場合、項目Aは、メニュー406内のその他の項目に対して強調表示され得るおよび/または他の方法で区別され得る。この方法で、ユーザは、たとえば、どの項目が連携されているかを知ることができる。また、センサ表面の一部分がオブジェクトまたはその部分にマップされるとき、上記オブジェクト(たとえば、その部分または全体)がセンサ表面の対応する部分に適用される接点の視覚的なまたは他の指標を提供するように構成される場合には、ターゲット(たとえば、ポインタなど)は、必要とされないことがある(たとえば、ターゲットは冗長となり得るので、省くことができる)。
メニュー406にマップされないセンサ表面500の部分は、たとえば、他の機能を実行するために使用することができる。たとえば、第2の部分504(たとえば、図2の204)は、ユーザ・インターフェース402内でナビゲートするために、ならびに/またはメニュー406に加えたおよび/もしくはメニュー406を含む他のオブジェクト/アスペクトを連携するために、使用することができる。たとえば、センサ表面500の第2の部分504は、アプリケーション404内でターゲット(たとえば、マウス・ポインタ)をナビゲートするために使用することができ、および/またはアプリケーション404のアスペクトを連携するために使用することができる(たとえば、従来のタッチパッドがユーザ・インターフェース402と対話する方式と同様の方式で)。
さらに、図2を図5と比較することによって示されるように、一実施形態で、センサ表面500の第1の部分502および/または第2の部分504の表面領域は、オブジェクトが起動される、隠される、および/または他の方法で操作される(たとえば、間接的対話デバイスから受信される入力データに基づいて)ときに、調整することができる。たとえば、図2に示すように、所定のジェスチャを表す第1の入力データの受信の前、センサ表面200の第1の部分202は、センサ表面200の最上部9mmとして画定された。図5に示すように、第1の入力データが受信され、メニュー406が上記受信された入力データに基づいて開かれた後、センサ表面500の第1の部分502は、センサ表面500の最上部20mmとして画定された。したがって、第1の部分506の表面領域は、第1の入力データの受信前のそれのサイズ(たとえば、図2に示すような)に比べて拡大された。同様に、センサ表面500の第2の部分504の表面領域は、第1の部分502の拡大を受け入れるために、第1の入力データの受信前のそれのサイズ(たとえば、図2に示すような)に比べて縮小された。
図2〜5は、単に、どのようにオブジェクトが、間接的対話デバイスのセンサ表面を用いて起動および/または連携され得るかの一例を提供することを意図し、限定的な形で解釈されることは意図されていないことが、理解されよう。たとえば、一実施形態で、センサ表面の複数の端が、それぞれ、オブジェクトを起動する/開くため、および/または起動された/開かれたオブジェクトを連携するための部分を備え得る。たとえば、センサ表面の上端、下端、左端、および/または右端は、オブジェクトを起動および/または連携するための部分を備え得る。さらに、ユーザ・インターフェース内のオブジェクトの配置および/または連携されるオブジェクトのタイプは、特に、接点がセンサ表面の左端、右端、上端、または下端を連携するかどうか、および/または受信されるジェスチャのタイプに依存し得る。たとえば、一実施形態で、ユーザ・インターフェース内のオブジェクトの配置は、接点(複数可)が対話した端に対応し得る。一例として、接点(複数可)が左端に対して適用された場合、オブジェクトはユーザ・インターフェースの左端に置くことができ、かつ/あるいは接点(複数可)が下端に対して適用された場合、オブジェクトはユーザ・インターフェースの下端に置くことができる。
図5は、センサ表面500のすべてに満たない部分が起動されたオブジェクト(たとえば、図4のメニュー406)にマップされることを示すが、起動されたオブジェクトにマップされるセンサ表面500の量は、特に、起動されるオブジェクトのタイプに依存し得ることもまた理解されよう。たとえば、一実施形態で、実体(たとえば、ユーザ、開発者など)は、画面上のキーボードを起動するように構成された1つまたは複数のジェスチャを定義することができる。そのようなキーボードは、ディスプレイに提示されるユーザ・インターフェース全体を備えなくてもよいが、センサ表面のほぼすべてを上記キーボードにマップすることが望ましい場合がある(たとえば、間接的対話デバイスを用いて画面上のキーボードのそれぞれのキーをユーザが選択するための十分なスペースを提供するために)。そのような一実施形態では、したがって、上記画面上のキーボードが起動される間に、センサ表面のいずれかがそのユーザ・インターフェースをナビゲートするために使用され得ることはほとんどない(たとえば、画面上のキーボードがユーザ・インターフェース内に表示される間、センサ表面500の第1の部分502はセンサ表面500のほぼすべてを備えることができ、第2の部分502は、センサ表面500のうちの、たとえあったとしても、わずかを備える)。
一例では、画面上のキーボードおよび/または他のオブジェクトがユーザ・インターフェース内で閉じられるまたは隠されるとき(たとえば、別の所定のジェスチャを表す受信された入力に基づいて)、上記オブジェクトにマップされたセンサ表面の部分(たとえば、図5の502)は、アンマップすることができる。さらに、上記マップされた部分(たとえば、図5の502)が、起動されるオブジェクト(たとえば、図4のメニュー406)に基づいて拡大されたまたは他の方法で調整された場合、上記オブジェクトにマップされたセンサ表面の上記部分の表面領域は、再調整することができる。たとえば、一実施形態で、上記マップされた部分の表面領域は、上記オブジェクトが拡大される前のそれのサイズに戻すことができる(たとえば、センサ表面500の最上部20mmから図2に示すような単に最上部9mmに図5の第1の部分506を縮小すること)。
図6および図7は、間接的対話デバイスのセンサ表面600(たとえば、図5における500)に対して接点606(たとえば、図5における506)が所定のジェスチャ/動きを実行していることを表す、間接的対話デバイスからの入力データの受信に少なくとも部分的に基づいて開始され得る、さらに別のタスク/イベントを示す。より具体的には、図6および図7は、アプリケーション704、706(たとえば、図4における404)および/またはディスプレイ700(たとえば、図4における400)に表示されるユーザ・インターフェース702(たとえば、図4における402)内で提示され得る他のオブジェクトの間で切り替えるための間接的対話デバイスを使用するための例示的技法を示す。
図6は、センサ表面600の第1の部分および第2の部分を示さないが、一実施形態で、センサ表面600は、図2および図5に示すものと同様の第1のおよび第2の(たとえば、および/または他の)部分を備え得ることが理解されよう。たとえば、センサ表面600の左端(たとえば、接点が適用される場所)は、アプリケーションをいつ切り替えるかを判定するために使用されるように構成された細いストリップ(たとえば、9mm幅)を備え得る。図2および図5に記載のように、センサ表面600の残りの表面領域(たとえば、もしあれば)は、何らかの他の機能を実行するために(たとえば、図7のユーザ・インターフェース702内でナビゲートするおよび/またはユーザ・インターフェース702のアスペクトを連携するためになど)使用することができる。
図6は、接点606がu字型のジェスチャ(たとえば、矢印604によって示すような)を実行していることを示す。前述のように、特定のイベントを開始するために実行され得るジェスチャ(複数可)は、特に、ユーザの好み、開発者の仕様などに依存し得ることが理解されよう。たとえば、ユーザは、センサ表面600の左端で始まるu字型のジェスチャを表す入力データの受信が、表示されているユーザ・インターフェース702上の複数のアプリケーションの切り替えをトリガすることになることを指定することができる。しかし、ユーザ・インターフェース702に提示され得るアプリケーションおよび/または他のオブジェクトを切り替えるための他のジェスチャもまた、企図される。たとえば、一実施形態で、u字型のジェスチャを表す入力データは、2つのアプリケーション704、706の分割画面をもたらすように構成され得るのに対して、センサ表面600を横切る接点602の単純な左から右への動きは、ユーザ・インターフェース702を第1のアプリケーション704の表示から第2のアプリケーション706の表示に切り替えさせることができる。
u字型のジェスチャおよび/または他の所定のジェスチャを表す入力データを受信したとき、対応するイベントが開始され得る。たとえば、図7に示すように、u字型のジェスチャを表す入力データの受信は、コンピュータ・システムをトリガして、ユーザ・インターフェース702を単なる第1のアプリケーション704の表示から第1のアプリケーション704および第2のアプリケーション706の分割画面の表示に切り替えることができる(たとえば、矢印708によって示すように)。この方法で、間接的対話デバイスは、たとえば、ユーザ・インターフェース702に提示され得るアプリケーション704、706および/または他のオブジェクトの間で切り替えるために使用され得る。
図8は、間接的対話システム804の例示的環境800の構成要素ブロック図を示す。より具体的には、図8は、ディスプレイ814に提示されたユーザ・インターフェースに備わった1つまたは複数のオブジェクトを起動する(たとえば、開く)、連携する、および/または閉じるために間接的対話デバイス802を使用することを実現するように構成されたシステム804の例示的環境800を示す。例として、システム804は、画面上のキーボードおよび/またはメニューを開くおよび/または閉じるために、かつ/あるいは、ユーザ・インターフェース内に提示されたアプリケーションを切り替えるために、使用することができる。そのようなシステムは、間接的インターフェース・デバイス802(たとえば、マウス、タッチパッドなど)を使用することが有用であり得るパーソナル・コンピュータおよび/または他のコンピューティング環境に対して、特定の適用性を見出すことができる。
例示的システム804は、間接的対話デバイス802から入力を受信するように構成することができる入力受信部構成要素806を備える。一例として、間接的対話デバイス802(たとえば、タッチパッド、感熱式表面などのタッチセンサ式の表面を備え得る)は、接点(たとえば、指、スタイラスなど)との特定のタイプの対話を検出するようにおよび/またはそれらの対話を入力データに変換するように構成され得る。そのような入力データは、1つまたは複数の接点がセンサ表面などに対して動かされる場合、特に、たとえば、センサ表面に対して適用される接点(複数可)の位置、接点(複数可)の動きに関する(たとえば、それを表す)情報を提供することができる。
例示的システム804はまた、センサ構成要素808を備える。少なくとも部分的にハードウェアを介して実装されたハードウェアおよび/またはソフトウェアを備え得るセンサ構成要素808は、間接的対話デバイス802のセンサ表面に少なくとも第1の部分および第2の部分を備えさせるように構成される。すなわち、別の言い方をすれば、センサ構成要素808は、センサ表面の第1の部分に接点(複数可)が適用されていることを表す入力データが、センサ表面の第2の部分に接点(複数可)が適用されていることを表す入力データとは異なって取り扱われることをもたらすように構成される(たとえば、本質的に、上記センサ表面を、異なる機能を供するようにそれぞれ構成された複数の部分に分割させる)。たとえば、一実施形態で、センサ表面の第1の部分(たとえば、図2における202)は、第1の部分に対して適用された第1の接点(複数可)によって実行された1つまたは複数の所定のジェスチャの検出に応答してユーザ・インターフェースを変更するために使用されるように、センサ構成要素808によって、構成され得る。センサ表面の第2の部分(たとえば、図2における204)は、何らかの他の機能のために使用されるように構成され得る。一例として、第2の部分は、ユーザ・インターフェース内でナビゲートするために使用されるようにセンサ構成要素808によって構成され得る。
例として、但し限定ではなく、間接的対話デバイス802がコンピュータ・システムに結合されるときおよび/またはその後のいつかに、センサ構成要素808は、間接的対話デバイス802のセンサ表面を複数の部分に分割するように構成され得る。そのような分割は、間接的対話デバイス802に知られていても知られていなくてもよいことが、理解されよう。一例として、入力データが入力データ構成要素806によって受信されるとき、そのようなデータが、たとえば、センサ表面の第1の部分に接点が適用されていることを表すか、または第2の部分に接点が適用されていることを表すかに関して、判定が行われ得る。そのような一実施形態で、センサ表面の複数の部分への分割に関する情報を間接的対話デバイス802に提供することは、必須でない場合があり、および/または望ましくない場合がある。そうではなくて、上記分割は、たとえば、間接的対話デバイス802から受信されるデータの処理中に使用され得る。しかし、他の実施形態で、間接的対話デバイス802にセンサ表面の複数の部分への分割に関する情報を提供することは有利である場合がある。たとえば、そのような情報を使用し、間接的対話デバイス802は、センサ表面の外観、センサ表面との音声対話(複数可)などを変更することができる(たとえば、ユーザがそのような分割に気が付くように)。
図8は、システム804内に備わったものとしてセンサ構成要素808を示すが、別の実施形態では、センサ構成要素808は間接的対話デバイス802内に備わり得ることもまた理解されよう。そのような一実施形態で、たとえば、間接的対話デバイス802は、独立して(たとえば、および/またはシステム804からの入力で)、間接的対話デバイス802のセンサ表面を複数の部分に分割することができる。
センサ表面のそれぞれの部分は、異なる機能を実行するために使用されるように構成される(たとえば、それらの機能は重複し得るが)。一例として、センサ表面の第1の部分(たとえば、1つまたは複数の端部分)内で開始される、終了されるおよび/またはそこに備わった1つまたは複数の接点(たとえば、指、スタイラスなど)とセンサ表面との間の対話(複数可)を表す入力データ構成要素806によって受信される入力データは、たとえば、ユーザ・インターフェースを変更するために(たとえば、メニューおよび/または画面上のキーボードを開く/閉じるために、ユーザ・インターフェース内に提示され得るアプリケーションおよび/または他のオブジェクトを切り替えるために、および/または、何らかの他のイベント/タスクを開始するために)使用され得る。センサ表面の第2の部分(たとえば、センサ構成要素808によって指定されるものとしての)内で開始される、終了されるおよび/またはそこに備わった1つまたは複数の接点とセンサ表面との間の対話(複数可)を表す入力データ構成要素806によって受信される入力データは、たとえば、ユーザ・インターフェース内に提示されたオブジェクトをナビゲートするおよび/または連携するために使用され得る。
接点(複数可)が第1の部分と対話していることを表す入力データの受信によってトリガされる特定のイベント/タスクは、特に、ユーザ仕様、開発者仕様、製造会社仕様などに依存し得ることが理解されよう。一例として、システム804は、1つまたは複数の所定のジェスチャ(たとえば、接点(複数可)とセンサ表面との間の所定の対話)と入力データが上記所定のジェスチャのうちの1つまたは複数を表す場合に実行されることになる関連するイベント/タスクとを備えるデータベース(図示せず)を備え得る。
例示的環境800のシステム804はまた、特に、入力データ構成要素806によって受信される入力データを処理するように構成された、処理構成要素810を備える。たとえば、処理構成要素810は、入力データがセンサ表面の第1のおよび/または第2の部分で生じた対話を表すかどうかを判定するように構成することができる。上記対話が第2の部分で生じた場合、処理構成要素810は、受信された入力データに少なくとも部分的に基づいて第2の部分の1つまたは複数の機能を実行するように構成され得る。たとえば、第2の部分がディスプレイ814に提示されたユーザ・インターフェースをナビゲートするために使用されるように構成される場合、処理構成要素810は、ユーザ・インターフェースに関するターゲット(たとえば、マウス・ポインタ)を操作するように構成され得る。
対話が第1の部分で少なくとも部分的に生じた場合、処理構成要素810は、入力データが指定のイベント/タスクを開始することを意図されたジェスチャを表すかを判定するように構成され得る。一例として、処理構成要素810は、入力データが所定のジェスチャを表すかどうかを判定するために、1つまたは複数の定義されたジェスチャを表す情報を備えるデータベースと入力データとを比較することができる。入力データが所定のジェスチャを表す場合、処理構成要素810は、入力データで指示されたジェスチャに関連付けられたイベントを識別し、識別されたイベントを実行することができる。例として、処理構成要素810は、1つまたは複数のオブジェクトを起動する(たとえば、メニューおよび/または画面上のキーボード(たとえば、ピアノ)を開く)、ユーザ・インターフェース内に表示されるように構成された複数のオブジェクト(たとえば、アプリケーション)を切り替える、かつ/あるいは1つまたは複数のオブジェクトを閉じる/隠す(たとえば、メニューおよび/または画面上のキーボードを閉じること)ように構成することができる。
一実施形態で、オブジェクトが、間接的対話デバイス802で生じる対話を介して起動されるとき(たとえば、所定のジェスチャを表す入力データが受信されるとき)、上記オブジェクトは、例示的システム804のマッピング構成要素812を介してセンサ表面の少なくとも一部にマップされ得る。たとえば、一実施形態で、マッピング構成要素812は、オブジェクトをセンサ表面の第1の部分(たとえば、センサ構成要素808によって画定されるものとしての)にマップするように構成することができる(たとえば、図2〜5に関してさらに詳しく説明されるように)。この方法で、接点は、たとえば、センサ表面の第1の部分を介して、起動されたオブジェクトのアスペクトを連携することができる。
図5に関して前述したように、センサ表面の一部分がオブジェクトにマップされるとき、上記マッピングを受け入れるために、センサ表面の1つまたは複数の部分の表面領域を調整することが望ましいことがあることが、理解されよう。たとえば、一実施形態で、第1の部分は、(たとえば、オブジェクトを起動する/開く前には)センサ表面の最上部9mmを単に備え得る。そのような小さい表面領域は、ユーザが第1の部分を介して上記マップされたオブジェクトのアスペクトと対話することを困難にし得る。したがって、一実施形態で、センサ構成要素808は、センサ表面の一部分にマップされることになるオブジェクトが起動されるときに、第1の部分および第2の部分のうちの少なくとも1つの表面領域を変更することができる。たとえば、オブジェクトが所定のジェスチャを表す入力データに基づいて起動されるとき、センサ構成要素808は、第1の部分の表面領域を拡大し、一方、第2の部分の表面領域を縮小するように構成され得る(たとえば、表面の総面積が一定のままであるように)。この方法で、マッピング構成要素812は、センサ表面のより大きな部分にオブジェクトをマップすることができる(たとえば、オブジェクトが開かれる前のそれのサイズに比べて)。
たとえば、センサ表面の一部分にマップされるオブジェクトが閉じられるおよび/または隠されるとき、第1のおよび/または第2の部分の表面領域はセンサ構成要素808によって再調整され得ることが、理解されよう。一例として、オブジェクトが閉じられるとき、上記オブジェクトにマップされたセンサ表面の一部分の表面領域は、上記オブジェクトの起動より前のそれのサイズに調整され得る(たとえば、縮小される)。
さらに別の実施形態は、本明細書で提示される技法のうちの1つまたは複数を実装するように構成されたプロセッサ実行可能命令を備えるコンピュータ可読媒体を含む。これらの方法で考案され得る例示的コンピュータ可読媒体が図9に示され、実装形態900は、そこに符号化されたコンピュータ可読データ914があるコンピュータ可読媒体916(たとえば、CD−R、DVD−R、またはハード・ディスク・ドライブのプラッタ)を備える。このコンピュータ可読データ914は、順に、本明細書に記載の原理のうちの1つまたは複数に従って動作するように構成された一式のコンピュータ命令912を備える。そのような一実施形態900で、プロセッサ実行可能コンピュータ命令912は、たとえば、図1の例示的方法100のうちの少なくともいくらかなどの方法910を実行するように構成され得る。別のそのような実施形態で、プロセッサ実行可能命令912は、たとえば、図8の例示的システム800のうちの少なくとも一部などのシステムを実装するように構成することができる。本明細書で提示される技法に従って動作するように構成された、多数のそのようなコンピュータ可読媒体916が、当業者によって考案され得る。
本対象は、構造的特徴および/または方法論的動作に特有の文言で説明されるが、添付の特許請求の範囲で定められる対象は、前述の特定の特徴または動作に必ずしも限定されないことを理解されたい。そうではなくて、前述の特定の特徴および動作は、特許請求の範囲を実装する例示的形態として開示される。
本願では、「構成要素」、「モジュール」、「システム」、「インターフェース」という用語および同様のものは、一般に、コンピュータ関連実体、ハードウェア、ハードウェアおよびソフトウェアの組合せ、ソフトウェアまたは実行中のソフトウェアのいずれかを指すものである。たとえば、構成要素は、プロセッサで実行するプロセス、プロセッサ、オブジェクト、実行ファイル、実行のスレッド、プログラム、および/またはコンピュータでもよいが、それらであることに限定されない。例として、コントローラ上で動作するアプリケーションおよび上記コントローラの両方が構成要素でもよい。1つまたは複数の構成要素が、プロセスおよび/または実行のスレッド内に存在してもよく、構成要素は、1つのコンピュータ上に置かれてもおよび/または複数のコンピュータ間で分散されてもよい。
さらに、特許請求されている対象は、標準プログラミングおよび/またはエンジニアリング技法を使用してソフトウェア、ファームウェア、ハードウェア、またはそれらの任意の組合せを作り出してコンピュータを制御して本開示される対象を実装する、方法、装置、または製造品として実装され得る。本明細書で「製造品」という用語は、任意のコンピュータ可読デバイス、搬送波、または媒体からアクセス可能なコンピュータ・プログラムを包含するものである。もちろん、多数の変更が、特許請求されている対象の範囲および趣旨を逸脱することなしに、この構成に行われ得ることが、当業者には理解されよう。
図10および以下の考察は、本明細書に記載のもののうちの1つまたは複数の実施形態を実装するための適切なコンピューティング環境の簡潔な概要を提供する。図10の動作環境は、適切な動作環境の単に一例であり、その動作環境の使用または機能性の範囲に関していかなる限定も示唆するものではない。例示的コンピューティング・デバイスは、パーソナル・コンピュータ、サーバ・コンピュータ、ハンドヘルドまたはラップトップ・デバイス、モバイル・デバイス(携帯電話、パーソナル・デジタル・アシスタント(Personal Digital Assistants:PDA)、メディア・プレーヤ、および同様のものなど)、マルチプロセッサ・システム、家庭用電化製品、ミニ・コンピュータ、メインフレーム・コンピュータ、前述のシステムまたはデバイスのいずれかを含む分散コンピューティング環境、および同様のものを含むが、これらに限定されない。
必須ではないが、実施形態は、1つまたは複数のコンピューティング・デバイスによって実行される「コンピュータ可読命令」との一般的関連で説明される。コンピュータ可読命令は、コンピュータ可読媒体(以下に論じる)を介して分散され得る。コンピュータ可読命令は、特定のタスクを実行するまたは特定の抽象データ型を実装する、機能、オブジェクト、アプリケーション・プログラミング・インターフェース(Application Programming Interface:API)、データ構造体、および同様のものなどのプログラム・モジュールとして実装され得る。通常は、コンピュータ可読命令の機能は、様々な環境で要望に応じて結合または分散され得る。
図10は、本明細書で提供される1つまたは複数の実施形態を実装するように構成されたコンピューティング・デバイス1012を備えるシステム1010の一例を示す。一構成において、コンピューティング・デバイス1012は、少なくとも1つの処理ユニット1016およびメモリ1018を含む。コンピューティング・デバイスの正確な構成およびタイプに応じて、メモリ1018は、揮発性(たとえば、RAMなど)、不揮発性(たとえば、ROM、フラッシュ・メモリなど)、または、その2つの何らかの組合せであってよい。この構成は、破線1014によって図10に示される。
他の実施形態で、デバイス1012は、追加の特徴および/または機能を含み得る。たとえば、デバイス1012はまた、磁気ストレージ、光学ストレージ、および同様のものを含むがこれらに限定されない追加のストレージ(たとえば、取外し可能および/または取外し不能)を含み得る。そのような追加のストレージが、ストレージ1020によって図10に示される。一実施形態で、本明細書で提供される1つまたは複数の実施形態を実装するためのコンピュータ可読命令が、ストレージ1020内にあってよい。ストレージ1020はまた、オペレーティング・システム、アプリケーション・プログラム、および同様のものを実装するための他のコンピュータ可読命令も記憶することができる。たとえば、コンピュータ可読命令は、処理ユニット1016による実行のためにメモリ1018内にロードされ得る。
本明細書で「コンピュータ可読媒体」という用語は、コンピュータ記憶媒体を含む。コンピュータ記憶媒体は、コンピュータ可読命令または他のデータなどの情報の記憶のための任意の方法または技術で実装された、揮発性および不揮発性の、取外し可能および取外し不能な媒体を含む。メモリ1018およびストレージ1020は、コンピュータ記憶媒体の例である。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュ・メモリもしくは他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)もしくは他の光学ストレージ、磁気カセット、磁気テープ、磁気ディスク・ストレージもしくは他の磁気記憶装置、または所望の情報を記憶するために使用され得るおよびデバイス1012によってアクセスされ得る任意の他の媒体を含むが、これらに限定されない。任意のそのようなコンピュータ記憶媒体は、デバイス1012の部分でもよい。
デバイス1012はまた、デバイス1012が他のデバイスと通信できるようにする通信接続(複数可)1026を含み得る。通信接続(複数可)1026は、モデム、ネットワーク・インターフェース・カード(Network Interface Card:NIC)、統合ネットワーク・インターフェース、無線周波数送信機/受信機、赤外線ポート、USB接続、またはコンピューティング・デバイス1012を他のコンピューティング・デバイスに接続するための他のインターフェースを含み得るが、これらに限定されない。通信接続(複数可)1026は、有線接続または無線接続を含み得る。通信接続(複数可)1026は、通信媒体を送信および/または受信することができる。
「コンピュータ可読媒体」という用語は、通信媒体を含み得る。通信媒体は、通常は、搬送波または他の移送機構などの「変調されたデータ信号」内のコンピュータ可読命令または他のデータを実施し、任意の情報配信媒体を含む。「変調されたデータ信号」という用語は、信号内に情報を符号化するための方式で設定されたまたは変更されたその特性のうちの1つまたは複数を有する信号を含み得る。
デバイス1012は、キーボード、マウス、ペン、音声入力デバイス、タッチ入力デバイス、赤外線カメラ、ビデオ入力デバイス、および/または任意の他の入力デバイスなどの入力デバイス(複数可)1024を含み得る。1つまたは複数のディスプレイ、スピーカ、プリンタ、および/または任意の他の出力デバイスなどの出力デバイス(複数可)1022もまた、デバイス1012に含まれ得る。入力デバイス(複数可)1024および出力デバイス(複数可)1022は、有線接続、無線接続、またはそれらの任意の組合せを介してデバイス1012に接続され得る。一実施形態で、別のコンピューティング・デバイスからの入力デバイスまたは出力デバイスが、コンピューティング・デバイス1012のための入力デバイス(複数可)1024または出力デバイス(複数可)1022として使用され得る。
コンピューティング・デバイス1012の構成要素は、バスなどの様々な相互接続によって接続され得る。そのような相互接続は、PCIエクスプレス、ユニバーサル・シリアル・バス(USB)、ファイアワイヤ(IEEE1394)、光学バス構造、および同様のものなどの周辺構成要素相互接続(Peripheral Component Interconnect:PCI)を含み得る。別の実施形態で、コンピューティング・デバイス1012の構成要素は、ネットワークによって相互接続され得る。たとえば、メモリ1018は、ネットワークによって相互接続された異なる物理的位置に置かれた複数の物理的メモリ・ユニットで構成され得る。
コンピュータ可読命令を記憶するために使用される記憶装置は、ネットワークを渡って分散され得ることが、当業者には理解されよう。たとえば、ネットワーク1028を介してアクセス可能なコンピューティング・デバイス1030は、本明細書で提供される1つまたは複数の実施形態を実装するために、コンピュータ可読命令を記憶することができる。コンピューティング・デバイス1012は、コンピューティング・デバイス1030にアクセスし、実行のために上記コンピュータ可読命令の一部またはすべてをダウンロードすることができる。別法として、コンピューティング・デバイス1012は、必要に応じ、複数のコンピュータ可読命令をダウンロードすることができ、あるいは、いくつかの命令はコンピューティング・デバイス1012で実行し、いくつかはコンピューティング・デバイス1030で実行することができる。
実施形態の様々な動作が、本明細書で提供される。一実施形態で、記載された動作のうちの1つまたは複数は、コンピューティング・デバイスによって実行される場合に記載された動作を上記コンピューティング・デバイスに実行させることになる1つまたは複数のコンピュータ可読媒体に記憶されたコンピュータ可読命令を構成し得る。それらの動作のうちのいくつかまたはすべてが記載された順序は、これらの動作が必ず順序依存であることを示唆するものとして解釈されるべきではない。代替順序が、本明細書の助けを借りて、当業者には理解されよう。さらに、すべての動作が、本明細書で提供される各実施形態に必ずしも存在する訳ではないことが、理解されよう。
さらに、「例示的」という言葉は、例、事例または例証の役割を果たすことを意味するために、本明細書で使用される。本明細書に「例示的」として記載される態様または設計は、他の態様または設計に勝るものとして必ずしも解釈されるものではない。そうではなくて、例示的という言葉の使用は、具体的な形で本概念を提示することを意図する。本願では、「または」という用語は、排他的な「または」ではなくて包括的な「または」を意味するものである。すなわち、他に指定のない限り、または文脈から明らかであれば、「XはAまたはBを使用する」は、自然な包含的順列のいずれかを意味するものである。すなわち、XがAを使用する、XがBを使用する、あるいは、XがAおよびBの両方を使用する場合、そのとき、「XはAまたはBを使用する」は、前述の例のいずれの下でも満たされる。加えて、本願および添付の特許請求の範囲で使用される冠詞「a(1つの)」および「an(1つの)」は、概して、他に指定のない限りまたは単数形を対象とすることが文脈から明らかでなければ、「1つまたは複数の」を意味するものとして解釈され得る。また、AおよびBのうちの少なくとも1つあるいは同様のものは、概して、AまたはB、あるいは、AおよびBの両方を意味する。
本開示は1つまたは複数の実装形態に関して示され、説明されてきたが、均等な代替形態および変更形態が、本明細書および添付の図面を読み、理解することに少なくとも部分的に基づいて、当業者には想到されよう。本開示は、すべてのそのような変更形態および代替形態を含み、添付の特許請求の範囲によってのみ限定される。前述の構成要素(たとえば、要素、リソースなど)によって実行される様々な機能に特に関して、そのような構成要素を記載するために使用される用語は、他に指示のない限り、たとえ本開示の本明細書に示された例示的実装形態における機能を実行する開示される構造と構造的に同等でなくても、記載された構成要素の指定された機能を実行する(たとえば、機能的に同等な)任意の構成要素に相当するものとする。加えて、本開示の具体的な特徴がいくつかの実装形態のうちの1つのみに関して開示されることがあるが、そのような特徴は、任意の所与のまたは特定の適用例のために求められ得るおよび有利であり得るように、その他の実装形態の1つまたは複数の他の特徴と結合され得る。さらに、「含む」、「有した」、「有する」、「もつ」という用語またはそれらの変化形が詳細な説明または特許請求の範囲のいずれかで使用される限りにおいて、そのような用語は、「備える」という用語と同様の形で包括的なものとする。

Claims (8)

  1. ユーザ・インターフェースとの間接的対話のための方法であって、
    間接的対話デバイスのセンサ表面に対して第1の接触が第1の所定の方式でなされていることを表す第1の入力データを受信するステップと、
    前記センサ表面を少なくとも2つの部分に分割するステップであって、前記センサ表面の第1の部分で開始する前記第1の接触による対話が、1つまたは複数のオブジェクトを起動するように構成され、前記センサ表面の第2の部分で開始する第2の接触による対話が、前記ユーザ・インターフェースを操作するために使用されるように構成された、ステップと、
    前記第1の入力データに応答して前記ユーザ・インターフェース内でオブジェクトを起動するステップと、
    前記オブジェクトに前記センサ表面の少なくとも一部をマップするステップと、
    前記オブジェクトを起動すると、前記センサ表面の前記第2の部分の表面領域を縮小しながら前記センサ表面の前記第1の部分の表面領域を拡張するステップであって、前記オブジェクトに前記センサ表面の少なくとも一部をマップするステップは、前記オブジェクトに前記センサ表面の前記拡張された第1の部分をマップするステップと
    を含む方法。
  2. 前記オブジェクトを起動するステップは、メニューを開くステップと画面上のキーボードを開くステップとのうちの少なくとも1つを含む、請求項1に記載の方法。
  3. 前記オブジェクトに前記センサ表面の少なくとも一部をマップするステップは、前記センサ表面の第1の部分が前記オブジェクトにマップされるように前記オブジェクトに前記センサ表面のすべてに満たない部分をマップするステップを含む、請求項1に記載の方法。
  4. 前記センサ表面の前記第1の部分に対して第2の接触がなされていることを表す第2の入力データを受信するステップと、
    前記第2の入力データに少なくとも部分的に基づいて前記オブジェクトをエンゲージするステップと、
    を含む請求項3に記載の方法。
  5. ユーザ・インターフェースとの間接的対話のためのシステムであって、
    間接的対話デバイスのセンサ表面に対して第1の接触が第1の所定の方式でなされていることを表す第1の入力データを受信する手段と、
    前記センサ表面を少なくとも2つの部分に分割する手段であって、前記センサ表面の第1の部分で開始する前記第1の接触による対話が、1つまたは複数のオブジェクトを起動するように構成され、前記センサ表面の第2の部分で開始する第2の接触による対話が、前記ユーザ・インターフェースを操作するために使用されるように構成された、手段と、
    前記第1の入力データに応答して前記ユーザ・インターフェース内でオブジェクトを起動する手段と、
    前記オブジェクトに前記センサ表面の少なくとも一部をマップする手段と、
    前記オブジェクトを起動すると、前記センサ表面の前記第2の部分の表面領域を縮小しながら前記センサ表面の前記第1の部分の表面領域を拡張する手段であって、前記オブジェクトに前記センサ表面の少なくとも一部をマップする手段は、前記オブジェクトに前記センサ表面の前記拡張された第1の部分をマップする手段と
    を含むシステム。
  6. 前記オブジェクトを起動する手段は、メニューを開く手段と画面上のキーボードを開く手段とのうちの少なくとも1つを含む、請求項5に記載のシステム。
  7. 前記オブジェクトに前記センサ表面の少なくとも一部をマップする手段は、前記センサ表面の第1の部分が前記オブジェクトにマップされるように前記オブジェクトに前記センサ表面のすべてに満たない部分をマップする手段を含む、請求項5に記載のシステム。
  8. 前記センサ表面の前記第1の部分に対して第2の接触がなされていることを表す第2の入力データを受信する手段と、
    前記第2の入力データに少なくとも部分的に基づいて前記オブジェクトをエンゲージする手段と、
    を含む請求項7に記載のシステム。
JP2014541143A 2011-11-08 2012-11-05 ユーザ・インターフェースの間接的対話 Active JP6141300B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/291,776 US9594504B2 (en) 2011-11-08 2011-11-08 User interface indirect interaction
US13/291,776 2011-11-08
PCT/US2012/063626 WO2013070557A1 (en) 2011-11-08 2012-11-05 User interface indirect interaction

Publications (2)

Publication Number Publication Date
JP2014532949A JP2014532949A (ja) 2014-12-08
JP6141300B2 true JP6141300B2 (ja) 2017-06-07

Family

ID=48224637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014541143A Active JP6141300B2 (ja) 2011-11-08 2012-11-05 ユーザ・インターフェースの間接的対話

Country Status (6)

Country Link
US (1) US9594504B2 (ja)
EP (1) EP2776911B1 (ja)
JP (1) JP6141300B2 (ja)
KR (1) KR102061360B1 (ja)
CN (1) CN103917945B (ja)
WO (1) WO2013070557A1 (ja)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US9310994B2 (en) * 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9658766B2 (en) * 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US8933952B2 (en) 2011-09-10 2015-01-13 Microsoft Corporation Pre-rendering new content for an application-selectable user interface
US9213482B2 (en) * 2011-11-11 2015-12-15 Elan Microelectronics Corporation Touch control device and method
US9032292B2 (en) * 2012-01-19 2015-05-12 Blackberry Limited Simultaneous display of multiple maximized applications on touch screen electronic devices
US20160041965A1 (en) * 2012-02-15 2016-02-11 Keyless Systems Ltd. Improved data entry systems
US9395852B2 (en) * 2012-05-07 2016-07-19 Cirque Corporation Method for distinguishing between edge swipe gestures that enter a touch sensor from an edge and other similar but non-edge swipe actions
KR101963787B1 (ko) * 2012-07-09 2019-03-29 삼성전자주식회사 휴대 단말기의 부가 기능 운용 방법 및 장치
KR102044829B1 (ko) * 2012-09-25 2019-11-15 삼성전자 주식회사 휴대단말기의 분할화면 처리장치 및 방법
US8887097B2 (en) * 2012-10-24 2014-11-11 Hewlett-Packard Development Company, L.P. Object opening menu
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
KR102210278B1 (ko) * 2012-12-06 2021-02-02 삼성전자주식회사 디스플레이 장치 및 제어 방법
CN103324435B (zh) * 2013-05-24 2017-02-08 华为技术有限公司 分屏显示的方法、装置及其电子设备
JP5739479B2 (ja) * 2013-06-12 2015-06-24 本田技研工業株式会社 プログラム及びアプリケーション制御方法
CN104298453A (zh) * 2013-07-15 2015-01-21 鸿富锦精密工业(深圳)有限公司 手写输入控制方法
CN103530059B (zh) * 2013-10-30 2016-08-17 广州视睿电子科技有限公司 人机交互系统及方法
KR20150081840A (ko) * 2014-01-07 2015-07-15 삼성전자주식회사 디스플레이장치 및 그 제어방법
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
USD759724S1 (en) * 2014-06-03 2016-06-21 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
CN105786341B (zh) * 2014-12-24 2019-12-13 阿里巴巴集团控股有限公司 控制移动终端应用程序的方法和装置
JP6520227B2 (ja) * 2015-03-04 2019-05-29 セイコーエプソン株式会社 表示装置および表示制御方法
US9860145B2 (en) 2015-07-02 2018-01-02 Microsoft Technology Licensing, Llc Recording of inter-application data flow
US9785484B2 (en) 2015-07-02 2017-10-10 Microsoft Technology Licensing, Llc Distributed application interfacing across different hardware
US9658836B2 (en) 2015-07-02 2017-05-23 Microsoft Technology Licensing, Llc Automated generation of transformation chain compatible class
US9712472B2 (en) 2015-07-02 2017-07-18 Microsoft Technology Licensing, Llc Application spawning responsive to communication
US9733915B2 (en) 2015-07-02 2017-08-15 Microsoft Technology Licensing, Llc Building of compound application chain applications
US10261985B2 (en) 2015-07-02 2019-04-16 Microsoft Technology Licensing, Llc Output rendering in dynamic redefining application
US10198252B2 (en) 2015-07-02 2019-02-05 Microsoft Technology Licensing, Llc Transformation chain application splitting
US9733993B2 (en) 2015-07-02 2017-08-15 Microsoft Technology Licensing, Llc Application sharing using endpoint interface entities
US10031724B2 (en) 2015-07-08 2018-07-24 Microsoft Technology Licensing, Llc Application operation responsive to object spatial status
US10198405B2 (en) 2015-07-08 2019-02-05 Microsoft Technology Licensing, Llc Rule-based layout of changing information
US10277582B2 (en) 2015-08-27 2019-04-30 Microsoft Technology Licensing, Llc Application service architecture
US10417827B2 (en) * 2017-05-04 2019-09-17 Microsoft Technology Licensing, Llc Syndication of direct and indirect interactions in a computer-mediated reality environment
DK180117B1 (en) 2017-05-15 2020-05-15 Apple Inc. SYSTEMS AND METHODS FOR INTERACTING WITH MULTIPLE APPLICATIONS THAT ARE SIMULTANEOUSLY DISPLAYED ON AN ELECTRONIC DEVICE WITH A TOUCHSENSITIVE DISPLAY

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5327161A (en) 1989-08-09 1994-07-05 Microtouch Systems, Inc. System and method for emulating a mouse input device with a touchpad input device
US6057845A (en) * 1997-11-14 2000-05-02 Sensiva, Inc. System, method, and apparatus for generation and recognizing universal commands
US6262717B1 (en) 1998-07-02 2001-07-17 Cirque Corporation Kiosk touch pad
US7348961B1 (en) * 1999-02-26 2008-03-25 Jonathan Shneidman Telescreen operating method
US6757002B1 (en) 1999-11-04 2004-06-29 Hewlett-Packard Development Company, L.P. Track pad pointing device with areas of specialized function
JP4300703B2 (ja) 2000-11-15 2009-07-22 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム格納媒体
US20030025676A1 (en) * 2001-08-02 2003-02-06 Koninklijke Philips Electronics N.V. Sensor-based menu for a touch screen panel
JP2005348036A (ja) 2004-06-02 2005-12-15 Sony Corp 情報処理システム、情報入力装置、情報処理方法、および、プログラム
US8402384B2 (en) * 2004-11-09 2013-03-19 Research In Motion Limited Dynamic bar oriented user interface
JP2009501389A (ja) 2005-07-12 2009-01-15 サーク・コーポレーション 矩形タッチパッド・センサおよび円形スクロール領域としての機能性を提供する矩形センサ・グリッド
US20090278806A1 (en) 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7949948B2 (en) * 2007-05-09 2011-05-24 Microsoft Corporation Constraint and rule-based page layout
JP2009087075A (ja) 2007-09-28 2009-04-23 Toshiba Corp 情報処理装置、情報処理装置の制御方法、及び情報処理装置の制御プログラム
JP5065838B2 (ja) 2007-10-04 2012-11-07 アルプス電気株式会社 座標入力装置
JP2009129171A (ja) 2007-11-22 2009-06-11 Denso It Laboratory Inc 移動体に搭載される情報処理装置
US9086775B1 (en) * 2008-07-10 2015-07-21 Google Inc. Minimizing software based keyboard
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US10375223B2 (en) * 2008-08-28 2019-08-06 Qualcomm Incorporated Notifying a user of events in a computing device
US9501694B2 (en) * 2008-11-24 2016-11-22 Qualcomm Incorporated Pictorial methods for application selection and activation
KR101565768B1 (ko) 2008-12-23 2015-11-06 삼성전자주식회사 휴대단말의 잠금 모드 해제 방법 및 장치
US9696803B2 (en) 2009-03-12 2017-07-04 Immersion Corporation Systems and methods for friction displays and additional haptic effects
KR20100106638A (ko) 2009-03-24 2010-10-04 한국과학기술원 터치 기반 인터페이스 장치, 방법 및 이를 이용한 모바일 기기, 터치 패드
TW201035824A (en) 2009-03-25 2010-10-01 E Lead Electronic Co Ltd Method of operating trackpad with button function
KR101593598B1 (ko) * 2009-04-03 2016-02-12 삼성전자주식회사 휴대단말에서 제스처를 이용한 기능 실행 방법
KR20100118366A (ko) * 2009-04-28 2010-11-05 삼성전자주식회사 휴대 단말기의 터치스크린 운용 방법 및 이를 지원하는 휴대 단말기
US20100277422A1 (en) * 2009-04-30 2010-11-04 Microsoft Corporation Touchpad display
US8279194B2 (en) * 2009-05-22 2012-10-02 Elo Touch Solutions, Inc. Electrode configurations for projected capacitive touch screen
US8681106B2 (en) 2009-06-07 2014-03-25 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US20100328261A1 (en) 2009-06-24 2010-12-30 Woolley Richard D Capacitive touchpad capable of operating in a single surface tracking mode and a button mode with reduced surface tracking capability
US9152317B2 (en) 2009-08-14 2015-10-06 Microsoft Technology Licensing, Llc Manipulation of graphical elements via gestures
EP2470983A1 (en) * 2009-08-25 2012-07-04 Google, Inc. Direct manipulation gestures
US9513798B2 (en) 2009-10-01 2016-12-06 Microsoft Technology Licensing, Llc Indirect multi-touch interaction
KR101092722B1 (ko) 2009-12-02 2011-12-09 현대자동차주식회사 차량의 멀티미디어 시스템 조작용 사용자 인터페이스 장치
KR20110063297A (ko) * 2009-12-02 2011-06-10 삼성전자주식회사 휴대용단말기 및 그 제어방법
US9542097B2 (en) 2010-01-13 2017-01-10 Lenovo (Singapore) Pte. Ltd. Virtual touchpad for a touch device
US9367205B2 (en) * 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9405404B2 (en) 2010-03-26 2016-08-02 Autodesk, Inc. Multi-touch marking menus and directional chording gestures
CN102236442B (zh) 2010-04-28 2015-04-15 赛恩倍吉科技顾问(深圳)有限公司 触摸板控制系统及方法
US20110296333A1 (en) * 2010-05-25 2011-12-01 Bateman Steven S User interaction gestures with virtual keyboard
US20110292268A1 (en) * 2010-05-26 2011-12-01 T-Mobile Usa, Inc. Multi-region touchpad device
US20110314427A1 (en) * 2010-06-18 2011-12-22 Samsung Electronics Co., Ltd. Personalization using custom gestures
US20120017171A1 (en) * 2010-07-14 2012-01-19 Wen-Chieh Tseng Interface display adjustment method and touch display apparatus using the same
US8972879B2 (en) * 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
WO2012020865A1 (ko) * 2010-08-13 2012-02-16 엘지전자 주식회사 이동단말기, 디스플레이 장치 및 그 제어 방법
US8918725B2 (en) * 2010-08-31 2014-12-23 A Thinking Ape Technologies Systems and methods to support real-time integrated mobile communication for social applications
KR101750898B1 (ko) * 2010-12-06 2017-06-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
US8825734B2 (en) * 2011-01-27 2014-09-02 Egain Corporation Personal web display and interaction experience system
US9553948B2 (en) * 2011-05-05 2017-01-24 Vmware, Inc. User interface for managing monitoring profiles
EP4344163A3 (en) * 2011-06-05 2024-04-24 Apple Inc. Systems and methods for displaying notifications received from multiple applications
US8959430B1 (en) * 2011-09-21 2015-02-17 Amazon Technologies, Inc. Facilitating selection of keys related to a selected key

Also Published As

Publication number Publication date
EP2776911B1 (en) 2021-04-28
US20130117715A1 (en) 2013-05-09
WO2013070557A1 (en) 2013-05-16
US9594504B2 (en) 2017-03-14
KR102061360B1 (ko) 2019-12-31
JP2014532949A (ja) 2014-12-08
EP2776911A1 (en) 2014-09-17
KR20140094534A (ko) 2014-07-30
CN103917945B (zh) 2018-10-19
EP2776911A4 (en) 2015-07-22
CN103917945A (zh) 2014-07-09

Similar Documents

Publication Publication Date Title
JP6141300B2 (ja) ユーザ・インターフェースの間接的対話
US10579205B2 (en) Edge-based hooking gestures for invoking user interfaces
US10387016B2 (en) Method and terminal for displaying a plurality of pages,method and terminal for displaying a plurality of applications being executed on terminal, and method of executing a plurality of applications
US9146672B2 (en) Multidirectional swipe key for virtual keyboard
US9400590B2 (en) Method and electronic device for displaying a virtual button
US20160004373A1 (en) Method for providing auxiliary information and touch control display apparatus using the same
US20140306897A1 (en) Virtual keyboard swipe gestures for cursor movement
US20120105367A1 (en) Methods of using tactile force sensing for intuitive user interface
EP2776905B1 (en) Interaction models for indirect interaction devices
US20110283212A1 (en) User Interface
JP7233109B2 (ja) タッチ感知面-ディスプレイによる入力方法、電子装置、触覚-視覚技術による入力制御方法及びシステム
US20140082559A1 (en) Control area for facilitating user input
US20130106707A1 (en) Method and device for gesture determination
KR20140016699A (ko) 사용자 입력을 제어하기 위한 방법 및 그 전자 장치
US20130038552A1 (en) Method and system for enhancing use of touch screen enabled devices
US10019148B2 (en) Method and apparatus for controlling virtual screen
US20150268736A1 (en) Information processing method and electronic device
Procházka et al. Mainstreaming gesture based interfaces

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170502

R150 Certificate of patent or registration of utility model

Ref document number: 6141300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250