JP6038898B2 - エッジ・ジェスチャー - Google Patents

エッジ・ジェスチャー Download PDF

Info

Publication number
JP6038898B2
JP6038898B2 JP2014512820A JP2014512820A JP6038898B2 JP 6038898 B2 JP6038898 B2 JP 6038898B2 JP 2014512820 A JP2014512820 A JP 2014512820A JP 2014512820 A JP2014512820 A JP 2014512820A JP 6038898 B2 JP6038898 B2 JP 6038898B2
Authority
JP
Japan
Prior art keywords
gesture
edge
interface
user interface
immersive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014512820A
Other languages
English (en)
Other versions
JP2014515519A5 (ja
JP2014515519A (ja
Inventor
ナン,ジェニファー
クレイ サッターフィールド,ジェシー
クレイ サッターフィールド,ジェシー
エー. マシューズ,デイヴィッド
エー. マシューズ,デイヴィッド
ピー. ラッソ,トーマス
ピー. ラッソ,トーマス
ジェイ. ジャレット,ロバート
ジェイ. ジャレット,ロバート
ジャオ,ウエイドーン
ハリス,ジェンセン
デヴ サレーン,チャイタニヤ
デヴ サレーン,チャイタニヤ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=47220136&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6038898(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014515519A publication Critical patent/JP2014515519A/ja
Publication of JP2014515519A5 publication Critical patent/JP2014515519A5/ja
Application granted granted Critical
Publication of JP6038898B2 publication Critical patent/JP6038898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Description

本願はエッジ・ジェスチャーに関する。
現在ディスプレイ上に見えていないユーザー・インターフェースを選択するための従来の技法はしばしば、混乱を招く、貴重な表示スペースを食う、異なる装置を横断して普遍的に適用できない、または貧弱なユーザー経験を提供する。
たとえば、いくつかの従来の技法は、タスクバー内、フローティング・ウインドー内またはウインドー・フレーム上の画面上コントロールを通じてユーザー・インターフェースの選択を可能にする。しかしながら、これらの画面上コントロールは、貴重なディスプレイ不動産を食い、ユーザーが正しいコントロールをみつけて選択することを要求することでユーザーを困惑させることがある。
他のいくつかの従来の技法は、ホットキーおよびボタンのようなハードウェアを通じたユーザー・インターフェースの選択を可能にする。これらの技法は、よくて、ユーザーがどのキー、キー組み合わせまたはハードウェア・ボタンを選択すべきかを記憶することを要求する。この最良事例でさえ、ユーザーはしばしば不慮にキーまたはボタンを選択してしまう。さらに、多くの場合、コンピューティング装置上のハードウェアが装置モデル、世代、ベンダーまたは製造業者によって変わりうるので、ハードウェア選択技法は普遍的に適用できない。そのような場合、技法は、異なるコンピューティング装置を横断して機能しないか、異なる仕方で機能する。これは、正しいハードウェアを覚える必要があるというユーザーの問題を悪化させる。多くのユーザーは複数の装置を有しており、よって異なる装置について異なるハードウェア選択を覚える必要があることがあるからである。さらに、多くのコンピューティング装置にとって、ハードウェア選択は、タッチスクリーン装置がユーザーが心的および身体的な方向を表示ベースの対話からハードウェア・ベースの対話に変えることを要求するなど、ユーザーに、ユーザーの通常の対話のフロー外でコンピューティング装置に関わることを強制する。
本稿は、エッジ・ジェスチャーを可能にする技法および装置を記述する。いくつかの実施形態では、これらの技法および装置は、現在ディスプレイ上に見えていないユーザー・インターフェースを、使いやすく覚えやすいエッジ・ジェスチャーを通じて選択することを可能にする。
この概要は、詳細な説明においてさらに後述するエッジ・ジェスチャーを可能にするための簡略化された概念を導入するために与えられている。この概要は、特許請求される主題の本質的な特徴を特定することを意図したものではないし、特許請求される主題の範囲を決定する際に使うことも意図されていない。エッジ・ジェスチャーを可能にする技法および/または装置は、本稿では、別個に、または連携して、コンテキストによって許される範囲で「本技法」とも称される。
エッジ・ジェスチャーを可能にする実施形態は、以下の図面を参照して記述される。同様の特徴および構成要素を参照するために各図を通じて同じ番号が使われている。
エッジ・ジェスチャーを可能にする技法が実装できる例示的なシステムを示す図である。 エッジ・ジェスチャーが該ジェスチャーが始まるエッジにほぼ垂直であることに基づいてエッジ・ジェスチャーを可能にする例示的な方法を示す図である。 没入型インターフェースを呈示するタッチ感応性ディスプレイを有する例示的なタブレット・コンピューティング装置を示す図である。 図3の例示的な没入型インターフェースを例示的なエッジとともに示す図である。 図3および図4の例示的な没入型インターフェースを、垂直線からの角度分散線(angular variance lines)およびジェスチャーの出発点からのちの点までの線とともに示す図である。 図4に示される没入型インターフェースのエッジを、右エッジにおける二つの領域とともに示す図である。 エッジ・ジェスチャーに応答してシステム・インターフェース・モジュールによって、図3の没入型インターフェースおよびウェブページ上に呈示される、アプリケーション選択インターフェースを示す図である。 ジェスチャーの何らかの因子に基づいて呈示すべきインターフェースを決定することを含む、エッジ・ジェスチャーを可能にする例示的な方法を示す図である。 エッジ・ジェスチャーに応答して呈示されるユーザー・インターフェースの拡張または呈示終了または別のユーザー・インターフェースの呈示を可能にする例示的な方法を示す図である。 ウインドー・ベースの電子メール・インターフェースおよび二つの没入型インターフェースを有するタッチ感応性ディスプレイを有するラップトップ・コンピュータを示す図である。 図10のインターフェースを、開始点、のちの点および一つまたは複数の逐次的な点を有する二つのジェスチャーとともに示す図である。 エッジ・ジェスチャーに応答して呈示される電子メール・ハンドリング・インターフェースとともに図10および図11のウインドー・ベースの電子メール・インターフェースを示す図である。 図12のインターフェースを、エッジから事前設定された距離の後続点を有すると判別されたジェスチャーに応答して呈示される追加的電子メール・オプション・インターフェースとともに示す図である。 エッジ・ジェスチャーを可能にする技法が実装できる例示的な装置を示す図である。
〈概観〉
本稿は、エッジ・ジェスチャーを可能にする技法および装置を記述する。これらの技法は、ユーザーが、現在、ユーザーの装置上に露わにされていないインターフェースを迅速かつ簡単に選択できるようにするとともに他の操作をも可能にする。
ユーザーがタブレット・コンピューティング装置上で映画を見ている事例を考えてみる。映画がディスプレイ全部を占める没入型インターフェース上で再生されており、ユーザーが映画を止めることなくソーシャル・ネットワーキングのウェブページをチェックしたいとする。記載される技法および装置は、ユーザーが、ディスプレイのエッジに始まる簡単なスワイプ・ジェスチャーを通じて他のインターフェースを選択できるようにする。ユーザーはディスプレイの一つのエッジからスワイプして、ユーザー・インターフェースを引き出し(drag out)てもよく、それによりソーシャル・ネットワーキング・ウェブサイトを選択できる。代わりに、ユーザーが、字幕または監督の論評を有効にするメニューを表示するなど、没入型インターフェースでは許されない仕方で、映画を再生しているメディア・アプリケーションと対話したいとする。ユーザーはタブレットのディスプレイの別のエッジからスワイプし、没入型インターフェースのための制御メニューを引き出し、このメニューから迅速かつ簡単に項目および/またはコマンドを選択してもよい。
これら両方の事例において、映画を再生するために使われる貴重な不動産が画面上コントロールで食われることはなく、ユーザーがハードウェア・ボタンを覚え、みつけることも要求されなかった。さらに、エッジから始まるもの以外のいかなるジェスチャーもこの例の技法によって使われず、よって、没入型インターフェースが普通に利用可能なジェスチャーをほとんど全部使うことを許容する。さらに、エッジ・ジェスチャーまたはその一部を考えることによって、本技法は、ジェスチャーまたはタッチ入力システムのパフォーマンスに影響しない。エッジ・ジェスチャーはジェスチャー全体が完了する前に処理されることができ、よそでの開始されたジェスチャー全体を処理することに関連する遅延を回避するからである。
これらは、本技法がエッジ・ジェスチャーを可能にし、使用する多くの仕方のうちほんの二つの例である。他の例については後述する。
〈例示的なシステム〉
図1は、エッジ・ジェスチャーを可能にする技法が具現できる例示的なシステム100を示している。システム100は、六個の例:ラップトップ・コンピュータ104、タブレット・コンピュータ106、スマートフォン108、セットトップボックス110、デスクトップ・コンピュータ112およびゲーム装置114をもって示されているコンピューティング装置102を含む。ただし、サーバーおよびネットブックのような他のコンピューティング装置およびシステムが使用されてもよい。
コンピューティング装置102は、コンピュータ・プロセッサ(単数または複数)116およびコンピュータ可読記憶媒体118(媒体118)を含む。媒体118はオペレーティング・システム120、ウインドー・ベース・モード・モジュール122、没入モード・モジュール124、システム・インターフェース・モジュール126、ジェスチャー・ハンドラ128および一つまたは複数のアプリケーション130を含み、各アプリケーションはそれぞれ一つまたは複数のアプリケーション・ユーザー・インターフェース132をもつ。
コンピューティング装置102はまた、一つまたは複数のディスプレイ134および入力機構136を含むまたはこれへのアクセスをもつ。たとえば、図1にはディスプレイが示されている。入力機構136は、若干の例を挙げれば、タッチベースのセンサーおよび動き追跡センサー(たとえばカメラに基づくもの)のようなジェスチャー感応性のセンサーおよびデバイスならびにマウス(独立型またはキーボードと一体)、トラックパッドおよび付属の音声認識ソフトウェア付きのマイクロホンを含む。入力機構136はディスプレイ134と別個であっても一体であってもよい。一体型の例は統合されたタッチ感応性または動き感応性センサーをもつジェスチャー感応性ディスプレイを含む。
ウインドー・ベース・モード・モジュール122は、フレームをもつウインドーを通じてアプリケーション・ユーザー・インターフェース132を呈示する。これらのフレームは、アプリケーションと対話するためのコントロールおよび/またはユーザーがウインドーを動かしサイズ変更できるようにするコントロールを提供してもよい。
没入モード・モジュール124は、ユーザーがアプリケーション・ユーザー・インターフェース132を通じてアプリケーション130の一つまたは複数を閲覧し、これと対話しうる環境を提供する。いくつかの実施形態では、この環境は、ウインドー・フレームほとんどなしまたは全くなしで、および/またはユーザーがウインドー・フレームのレイアウトまたは他のウインドーとの関連での首位性(たとえばどのウインドーがアクティブであるかまたは手前にあるか)を管理したり手動でアプリケーション・ユーザー・インターフェース132のサイズもしくは位置を決めたりする必要なしに、アプリケーションの内容を呈示し、該アプリケーションとの対話を可能にする。
この環境は、ウインドー・ベースのデスクトップ環境を使うことなくホストおよび/または表面化することができるが、それは必須ではない。このように、いくつかの事例では、没入モード・モジュール124は、ウインドーではない(実質的なフレームのないウインドーでさえない)没入型の環境を呈示し、デスクトップのような表示(たとえばタスクバー)の使用を排除する。さらに、いくつかの実施形態では、この没入型の環境は、閉じることも、アンインストールすることもできない点でオペレーティング・システムと同様である。必須ではないが、いくつかの場合には、この没入型の環境は、ディスプレイのピクセルの全部またはほとんど全部をアプリケーションが使うことを可能にする。没入型環境の例は、本技法を記述する一環として下記で与えられる。ただし、それは網羅的でも、本稿に記載される技法を限定することを意図されたものでもない。
システム・インターフェース・モジュール126は、オペレーティング・システム120との対話を可能にする一つまたは複数のインターフェースを提供する。ほんの数例を挙げれば、たとえば、アプリケーション立ち上げインターフェース、スタート・メニューまたはシステム・ツールもしくはオプション・メニューなどである。
オペレーティング・システム120、モジュール122、124および126ならびにジェスチャー・ハンドラ128は、互いから別個であることもできるし、あるいは任意の好適な形で組み合わされまたは統合されることができる。
〈例示的な方法〉
図2は、エッジ・ジェスチャーがジェスチャーが始まるエッジにほぼ垂直であることに基づいてエッジ・ジェスチャーを可能にする方法200を描いている。以下の議論の諸部分において、図1のシステム100を参照することがあるが、その参照は単に例としてである。
ブロック202はジェスチャーを受け取る。このジェスチャーは、ウインドー・ベースのインターフェースを通じて、没入型インターフェースを通じてまたは全くインターフェースを通じずになど、ディスプレイのさまざまな部分において受領されてもよい。さらに、このジェスチャーは、タッチパッド、マウスもしくはローラー・ボールを通じて受領される動きのポインター追跡または腕(単数または複数)、指(単数または複数)もしくはスタイラスでなされる、動き感応性もしくはタッチ感応性機構を通じて受領される物理的な動きなど、さまざまな仕方でなされ、受領されてもよい。いくつかの場合には、ジェスチャーはディスプレイの物理的なエッジからまたは物理的なエッジ近くで(たとえば、指またはスタイラスがディスプレイのエッジに出会う際に)、ほんの数例挙げればタッチ・デジタイザー、容量性タッチスクリーンまたは容量性センサーによって、受領される。
たとえば、タブレット・コンピューティング装置106を示している図3を考える。タブレット106はウェブページ306を含む没入型インターフェース304を表示しているところを示されているタッチ感応性ディスプレイ302を含む。継続的な例の一環として、ブロック202において、ジェスチャー・ハンドラ128が図3に示されるようなジェスチャー308を受領する。
ブロック204は、ジェスチャーの開始点がエッジにあるかどうかを判定する。上記のように、問題のエッジは、没入型であれウインドー・ベースであれユーザー・インターフェースのおよび/またはディスプレイのエッジであることができる。いくつかの場合には、もちろん、ユーザー・インターフェースのエッジはディスプレイのエッジでもある。エッジのサイズは、ディスプレイまたはインターフェースについてのさまざまな因子に基づいて変わりうる。小さなディスプレイまたはインターフェースは、大きなディスプレイまたはインターフェースよりも、絶対的なまたはピクセルの面でより小さなサイズをもつことがある。感度が高い入力機構はより小さなエッジも許可する。いくつかの事例では、入力機構がディスプレイまたは画面を越えたジェスチャー部分を受領することができる場合には、エッジはディスプレイまたは画面のエッジを越えて延びていてもよい。エッジの例は長方形であり、一方の次元方向において1ピクセルから20ピクセルまでの間であり、他方の次元方向においてはインターフェースまたはディスプレイのインターフェース限界である。ただし、凸型および凹型のエッジを含め他のサイズおよび形が代わりに使われてもよい。
上記の継続的な例を続け、図4を考える。図4は、図3の没入型インターフェース304およびジェスチャー308のほかに、左エッジ402、上エッジ404、右エッジ406および下エッジ408を示している。視覚的な明瞭さのため、ウェブページ306は示されていない。この例では、インターフェースおよびディスプレイの寸法は、スマートフォンと多くのラップトップおよびデスクトップ・ディスプレイの間の中くらいのサイズである。エッジ402、404、406および408は、20ピクセルまたは絶対的に約10〜15mmの小さな寸法をもつ。それぞれの領域は、図では、ディスプレイ限界から20ピクセルの、それぞれエッジ限界410、412、414および416のところにある破線によって境を区切られている。
ジェスチャー・ハンドラ128が、ジェスチャー308が開始点418をもち、この開始点418が左エッジ402内であることを判別する。ジェスチャー・ハンドラ128は、この場合、開始点を、ジェスチャー308が始まる[X,Y]座標をピクセル単位で示すデータを受領し、これらの座標の第一のものを各エッジ402〜408内に含まれるピクセルと比較することによって判別する。ジェスチャー・ハンドラ128はしばしば、開始点および該開始点がエッジ内かどうかを、サンプル・レートより速く決定でき、よってジェスチャーを単に、ジェスチャーがなされる見えているインターフェースに直接渡す技法からほとんどまたは全くパフォーマンス劣化を引き起こすことがない。
方法200に戻ると、一般に、ブロック204がジェスチャーの開始点がエッジではないと判別する場合、方法200は「No」経路に沿ってブロック206に進む。ブロック206はジェスチャーを、ジェスチャーが受領された根底にあるインターフェースなど、露わにされているユーザー・インターフェースに渡す。上記の継続的な例を変えて、ジェスチャー308がエッジ内に開始点をもたないと判別されたとする。そのような場合、ジェスチャー・ハンドラ128は、ジェスチャー308についてのバッファリングされたデータを没入型ユーザー・インターフェース304に渡す。ジェスチャーを渡したのち、方法200は終了する。
ブロック204が、ジェスチャーの開始点がエッジにあると判別する場合、方法200は「Yes」経路に沿ってブロック208に進む。任意的に、ブロック204は方法がブロック208に進む前にジェスチャーの一部の長さを判別してもよい。いくつかの場合には、ジェスチャーの前記一部の長さを判別することは、ジェスチャーの完了に先立って開始点が決定されることを許容する。ブロック208は、開始点からジェスチャーののちの点までの線がエッジからほぼ垂直であるかどうかを判別することによって、ブロック204の肯定的な判定に応答する。
ブロック208は、いくつかの実施形態では、使用される前記のちの点を決定する。ジェスチャー・ハンドラ128はたとえば、前記のちの点が、みな図4のエッジ402についてのエッジ限界410を過ぎたところまたは開始点418から20ピクセルなど、エッジもしくは開始点から事前設定された距離で受領されることに基づいて、ジェスチャーの前記のちの点を決定することができる。他のいくつかの実施形態では、ジェスチャー・ハンドラ128は、前記のちの点が開始点の受領後、ジェスチャーがタップ・アンド・ホールドまたはホバー・ジェスチャーであると判定するのにコンピューティング装置102が一般に使うよりもわずかに長い時間など、事前設定された時間に受領されることに基づいて前記のちの点を決定する。
上記の継続的な実施形態について、ジェスチャー・ハンドラ128は、エッジ402の外側で受領されるジェスチャー308ののちに受領された点を、該のちに受領された点が事前設定された時間以内に受領される限り、使用する。その事前設定された時間内にエッジの外側で点が受領されなければ、ジェスチャー・ハンドラ128はブロック206に進み、ジェスチャー308を没入型インターフェース304に渡す。
開始点を使って、ブロック208は、ジェスチャーの開始点からのちの点までの線がエッジにほぼ垂直であるかどうかを判定する。ブロック208によるこの判定では、5度、10度、20度または30度など、さまざまな分散角(angle of variance)が使用できる。
たとえば、垂直からの分散角30度を考える。図5は、この例示的な分散を示しており、図3および図4の没入型インターフェース304、ジェスチャー308、左エッジ402、左エッジ限界410および開始点418を、垂直線504から30度の分散の線502とともに示している。このように、ジェスチャー・ハンドラ128は、開始点418からのちの点508までの線506(これは垂直から約20度である)が、この例示的な30度の分散線(variance line)502内であることに基づいて、ほぼ垂直であると判定する。
一般に、ブロック208が上記線がエッジにほぼ垂直でないと判定する場合、方法200は「No」の経路に沿ってブロック206に進む(たとえば指の経路が曲がっている)。部分的に上述したように、ブロック208は、のちの点またはジェスチャーの他の側面が該ジェスチャーの資格を失わせることを判定してもよい。例としては、ホバー、タップ、プレス・アンド・ホールドまたは上下ジェスチャー(たとえばユーザー・インターフェース内で内容をスクロールさせるため)などのためにのちの点がエッジ内にある場合、上記ジェスチャーが単一入力ジェスチャーであると設定されていて第二の入力が受領される場合(たとえば、第一の指がエッジで始まるが、その後、第二の指がどこかに着地する)、または上記ジェスチャー中または上記ジェスチャーの前にタップ・イベントが発生する場合(たとえば、指がすでに他所で接触をしている、またはジェスチャー中に他所で接触が受領される)が含まれる。
ブロック208が、エッジ外ののちの点に基づいて上記線がほぼ垂直であると判定する場合、方法200は「Yes」の経路に沿ってブロック210に進む。
ブロック210は、ブロック208の肯定的な判定に対して、ジェスチャーを、露わにされているユーザー・インターフェース以外のエンティティに渡すことによって応答する。このエンティティは、そもそもジェスチャーがユーザー・インターフェースを通じて受領されたとしても、該ジェスチャーが受領されたユーザー・インターフェースではない。ブロック210は、ジェスチャーの開始点が受領されたエッジまたはエッジの領域などに基づいて、ジェスチャーをどのエンティティに渡すかも決定してもよい。たとえば図6を考える。図6は、図4の没入型インターフェース304およびエッジ402、404、406および408を示すが、右エッジ406に上領域602および下領域604を加えている。上領域602内の開始点の結果、下領域604の受領された開始点とは異なるエンティティを与えることができる(または同じエンティティでも異なるユーザー・インターフェースが応答して提供される)。同様に、上エッジ404内の開始点の結果、左エッジ402または下エッジ408とは異なるエンティティまたはインターフェースを与えることができる。
いくつかの場合には、このエンティティは上記ユーザー・インターフェースに関連付けられたアプリケーションである。そのような場合、ジェスチャーをそのエンティティに渡すことは、該アプリケーションに、該アプリケーションとの対話を可能にする第二のユーザー・インターフェースを呈示させる効果をもつことができる。上記の映画の例では、エンティティは、映画を再生しているメディア・プレーヤーであるが映画を表示する没入型インターフェースではないことができる。その場合、メディア・プレーヤーは、映画を表示するインターフェースによって可能にされる、「一時停止」、「再生」、「停止」などの選択ではなく、字幕または監督の論評の選択を可能にする第二のユーザー・インターフェースを呈示することができる。この機能は、図1では、アプリケーション130の一つが、二つ以上のアプリケーション・ユーザー・インターフェース132を含むまたは呈示することができる場合に、許容される。このように、ブロック210は、ジェスチャーを、システム・インターフェース・モジュール126、ユーザー・インターフェースを現在呈示しているアプリケーション130のうちの前記一つまたはアプリケーション130のうちの別のものに渡すことができる。ここでは三つの可能性だけを挙げた。
上記の継続的な実施形態の完結として、ブロック210において、ジェスチャー・ハンドラ128はジェスチャー308をシステム・インターフェース・モジュール126に渡す。システム・インターフェース・モジュール126はジェスチャー308のバッファリングされている部分を受領し、ジェスチャー308の残りを、ユーザーによってなされるにつれて受領し続ける。図7は、ジェスチャー308を受領したときの可能な応答を示しており、システム・インターフェース・モジュール126によって、図3からの没入型インターフェース304およびウェブページ306の上に呈示されるアプリケーション選択インターフェース702を示している。アプリケーション選択インターフェース702は、さまざまな他のアプリケーションおよびそのそれぞれのインターフェースの選択を、選択可能なアプリケーション・タイル704、706、708および710において可能にする。
例示的なアプリケーション選択インターフェース702は、没入モード・モジュール124を使って呈示される没入型ユーザー・インターフェースである。ただし、これは必須ではない。呈示される諸インターフェースまたはそのリストは、代わりに、ウインドー・ベースであり、ウインドー・ベース・モジュール122を使って呈示されてもよい。これらのモジュールはいずれも図1に示されている。
ブロック210は、追加的にまたは代替的に、受領されたジェスチャーについての他の因子に基づいて、ジェスチャーを種々のエンティティおよび/またはインターフェースに渡すことを決定してもよい。例示的な因子は下記の方法800においてより詳細に記述する。
方法200および以下に記述する他の方法は、ジェスチャーがなされ受領されつつあるときなど、リアルタイムで実行できることを注意しておく。これは、中でも、ジェスチャーに応答して呈示されるユーザー・インターフェースが、ジェスチャーの完了前に呈示されることを許容する。さらに、ユーザー・インターフェースはジェスチャーが受領されるにつれて漸進的に呈示されることができる。これは、ジェスチャーが実行される際にエッジからユーザー・インターフェースを引き出す際にユーザー・インターフェースがジェスチャーに(たとえばジェスチャーを行うマウス・ポイントまたは人の指に)「くっついている」ように見えるユーザー経験を許容する。
図8は、ジェスチャーの何らかの因子に基づいて呈示すべきインターフェースを決定することを含むエッジ・ジェスチャーを可能にするための方法800を描いている。以下の議論の諸部分において、図1のシステム100を参照することがあるが、その参照は単に例としてである。方法800は、本稿に記載される他の方法と完全にまたは部分的に別個に、あるいは他の方法と連携して機能してもよい。
ブロック802はユーザー・インターフェースを通じてなされたジェスチャーが、ユーザー・インターフェースのエッジにおける開始点およびエッジ内でないのちの点をもつことを判別する。ブロック802は、ブロック802の判定の基礎となるのちの点の判別など、方法200の諸側面と同様に動作し、あるいは該諸側面を使ってもよい。ブロック802は異なる仕方で機能してもよい。
一つの場合には、たとえば、ブロック802は、ジェスチャーが、表されている没入型ユーザー・インターフェースのエッジにおいて始まり、エッジにないがジェスチャーの角度に基づいていないのちの点をもつ一本指のスワイプ・ジェスチャーであることを判別する。この判別に基づいて、ブロック802は、ジェスチャーを表されている没入型ユーザー・インターフェースに渡すのではなく、ブロック804に進む。
ブロック804は、ジェスチャーの一つまたは複数の因子に基づいてどのインターフェースを呈示するかを決定する。ブロック804は、ジェスチャーの最終的な長さまたは中間的な長さ、ジェスチャーが単一点か複数点か(たとえば一本指か複数指か)またはジェスチャーのスピードに基づいてそれを行ってもよい。いくつかの場合には、ジェスチャーの二つ以上の因子がどのインターフェースを呈示すべきかを決定する。あるドラッグ長さおよびホールド時間をもつドラッグ・アンド・ホールドまたはあるドラッグ長さおよびドロップ位置をもつドラッグ・アンド・ドロップ・ジェスチャーなどである。このように、ブロック804は、たとえば、複数指ジェスチャーに応答してスタート・メニューを、比較的短い一本指ジェスチャーに応答してアプリケーション選択インターフェースを、あるいは比較的長い一本指ジェスチャーに応答してコンピューティング装置102をシャットダウンする選択を許容するシステム制御インターフェースを呈示することを決定してもよい。そうするために、ジェスチャー・ハンドラ128はジェスチャーの長さ、スピードまたは入力(たとえば指)の数を判別してもよい。
応答して、ブロック806は決定されたユーザー・インターフェースを呈示する。決定されたユーザー・インターフェースは、本稿で言及されているもののいずれであっても、また電子書籍の新規ページ、追加的な視覚要素(たとえばツールバーまたはナビゲーション・バー)または現在のユーザー・インターフェースの修正された見え方(現在のユーザー・インターフェースのテキストを異なるフォント、色またはハイライトで呈示する)といった全体的な新しい視覚要素であってもよい。いくつかの場合には、ビデオ・ゲームに関係するアクションまたは現在のもしくは呈示されるユーザー・インターフェースに関連するサウンド効果といった視覚的または非視覚的な効果が呈示されてもよい。
例として、ジェスチャー・ハンドラ128が、ジェスチャーのある因子に基づいて、オペレーティング・システム120との対話を可能にするユーザー・インターフェースを呈示することを決定するとする。応答して、システム・インターフェース・モジュール126がこのユーザー・インターフェースを呈示する。ユーザー・インターフェースの呈示は、図7のアプリケーション選択ユーザー・インターフェース702の漸進的な表示など、他の方法において記述されているのと同様の仕方であってもよい。
方法200および/または方法800の全体または一部に続いて、本技法は、図9の方法900を実行することに進んでもよい。方法900は、ユーザー・インターフェースの拡張、別のインターフェースの呈示またはエッジ・ジェスチャーに応答して呈示されているユーザー・インターフェースの呈示終了を可能にする。
ブロック902は、ジェスチャーの後続点を受領する。第二のユーザー・インターフェースの少なくとも何らかの部分の呈示後である。部分的に上記したように、方法200および/または800は、現在のユーザー・インターフェースに関連付けられている同じアプリケーションのための第二のユーザー・インターフェース、異なるアプリケーションまたはシステム・ユーザー・インターフェースのような第二のユーザー・インターフェースを呈示するまたは呈示させることができる。
例として、タッチ感応性ディスプレイ1002を有するラップトップ・コンピュータ104を示している図10を考える。該ディスプレイは、ウインドー・ベースの電子メール・インターフェース1004および二つの没入型インターフェース1006および1008を表示している。ウインドー・ベースの電子メール・インターフェース1004は、ラップトップ・コンピュータ104にとってリモートまたはローカルであることができる、電子メールを管理するアプリケーションに関連付けられている。図10はまた、二つのジェスチャー1010および1012をも示している。ジェスチャー1010は直線で進み、一方、ジェスチャー1012は逆戻りする(二つの方向を示す二つの矢印で図示されている)。
図11は、開始点(starting point)1102、のちの点(later point)1104および後続点(successive point)1106をもつジェスチャー1010と、開始点1102、のちの点1108および第一の後続点1110および第二の後続点1112をもつジェスチャー1012とを示している。図11はまた、下エッジ1114、のちの点の領域1116およびインターフェース追加領域1118をも示している。
ブロック904は、後続点に基づいて、ジェスチャーが逆行、延長を含むかいずれも含まないかを判定する。ブロック904は、後続点が前記エッジにあるまたは当該ジェスチャーの以前の点よりエッジに近いことを判別することによってジェスチャーの方向における反転を判別してもよい。ブロック904は、後続点が前記エッジまたは前記のちの点から事前設定された距離にあることに基づいてジェスチャーが延びていることを判別してもよい。これらのいずれも真であると判定されない場合、方法900はブロック902および904を繰り返して、ジェスチャーが終了するまで、さらなる後続点を受領および解析してもよい。ブロック904が反転があると判定する場合、方法900は「反転」経路に沿ってブロック906に進む。ブロック904がジェスチャーが延長されていると判定する場合、方法900は「延長」経路に沿ってブロック908に進む。
今の例のコンテキストにおいて、ジェスチャー・ハンドラ128がジェスチャー1012の第一の後続点1110を受領するとする。ジェスチャー・ハンドラ128はその際、第一の後続点1110がエッジ1114になく、当該ジェスチャーの以前の点よりエッジ1114に近くなく(たとえば、のちの点1108より近くない)、インターフェース追加領域1118内でないことによって前記エッジまたはのちの点から事前設定された距離でもないことを判別する。そのような場合、方法900はブロック902に戻る。
ブロック902の第二の反復では、ジェスチャー・ハンドラ128が第二の後続点1112を受領するとする。そのような場合、ジェスチャー・ハンドラ128は第二の後続点1112が第一の後続点1110よりエッジ1114に近く、よってジェスチャー1012が反転を含んでいることを判別する。ジェスチャー・ハンドラ128は次いでブロック906に進んで、当該ジェスチャーに応答して前に呈示された第二のユーザー・インターフェースの呈示を終える。例として、電子メール・ハンドリング・インターフェース1202を示す図12を考える。ブロック906のこの例示的な場合では、ジェスチャー・ハンドラ128は電子メール・アプリケーションに、ジェスチャー1012の反転に応答してインターフェース1202を呈示することをやめさせる(除去されることは図示していない)。
しかしながら、ブロック908は、第三のユーザー・インターフェースまたは第二のユーザー・インターフェースの拡張を呈示するまたは呈示させる。いくつかの場合には、第三のユーザー・インターフェースの呈示は、呈示を取り消すことまたは第二のユーザー・インターフェースを隠す(たとえば第三のユーザー・インターフェースを第二のユーザー・インターフェースの上に呈示する)ことを通じて、第二のユーザー・インターフェースが呈示されるのを終わらせる。継続的な例を続け、図13を考える。この図は、エッジ1104から事前設定された距離の、この場合、図11のインターフェース追加領域1118内である後続点1106をもつと判定されたジェスチャー1010に応答して追加的な電子メール・オプション・インターフェース1302を示している。この領域および事前設定距離は、当該ジェスチャーに応答して前に呈示されたユーザー・インターフェースのサイズに基づいて設定されることができる。こうして、追加的なコントロールを追加したいユーザーは、単に、ジェスチャーを、該ジェスチャーのより早期の部分に応答して呈示されたユーザー・インターフェースを過ぎて延長するだけでよい。
方法900は、追加的なユーザー・インターフェースを追加するまたは呈示されているユーザー・インターフェースを拡張するために繰り返されることができる。図7の例示的なインターフェース702に戻ると、たとえば、ジェスチャー・ハンドラ128は、ジェスチャー308がインターフェース702を過ぎて延びるにつれて、選択可能なアプリケーション・タイルの追加的なセットを呈示するなどして、インターフェースまたはコントロールをインターフェース702に追加することを続けることができる。ジェスチャー308が追加的なタイルを過ぎて延びる場合には、ジェスチャー・ハンドラ128はシステム・インターフェース・モジュール124に、該タイルに隣接する、ユーザーがコントロールを選択できるようにする別のインターフェースを呈示させてもよい。コントロールは、コンピューティング装置102をサスペンド、ハイバーネート、モード切り換え(没入型からウインドー・ベースにおよびその逆)またはシャットダウンするなどである。
エッジ・ジェスチャーに応答して呈示される上記の例のユーザー・インターフェースは不透明であるが、部分透明(partially transparent)であってもよい。これは、内容を隠蔽しないことによって有用となりうる。上記の映画の例では、呈示されるユーザー・インターフェースは、部分透明であり、それによりユーザー・インターフェースの使用中、映画が部分的に隠蔽されるだけとすることができる。同様に、図12および図13の例において、インターフェース1202および1302は部分透明であってもよく、それにより、ユーザーが、インターフェースの一つにおけるコントロールの選択もしながら、電子メールのテキストを見ることができるようにする。
以上の議論は、本技法がエッジ・ジェスチャーを可能にし、使用しうる方法を記述している。これらの方法は、実行される動作を指定するブロックのセットとして示されているが、必ずしもそれぞれのブロックによる動作を実行するための図示した順序に限定されるわけではない。
これらの方法の諸側面は、ハードウェア(たとえば、固定論理回路)、ファームウェア、シリコン・オン・チップ(SoC)、ソフトウェア、手動処理またはそれらの任意の組み合わせにおいて実装されてもよい。ソフトウェア実装は、コンピュータ・プロセッサによって実行されたときに指定されたタスクを実行する、ソフトウェア、アプリケーション、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造、手続、モジュール、関数などといったプログラム・コードを表す。プログラム・コードは、コンピュータ・プロセッサにローカルおよび/またはリモートな一つまたは複数のコンピュータ可読メモリ・デバイスに記憶されることができる。上記の方法はまた、複数のコンピューティング装置によって分散コンピューティング環境において実施されてもよい。
〈例示的な装置〉
図14は、エッジ・ジェスチャーを可能にし、使用するために、クライアント、サーバーおよび/または図1ないし図13を参照して述べたコンピューティング装置の任意の型として実装されることができる例示的な装置1400のさまざまなコンポーネントを示している。諸実施形態において、装置1400は、有線および/または無線装置の一つまたは組み合わせとして、テレビジョン・クライアント装置(たとえばテレビジョン・セットトップ・ボックス、デジタル・ビデオ・レコーダー(DVR)など)、消費者装置、コンピュータ装置、サーバー装置、ポータブル・コンピュータ装置、ユーザー装置、通信装置、ビデオ処理および/またはレンダリング装置、アプライアンス装置、ゲーム装置、電子装置および/または別の型の装置の形として、実装されることができる。装置1400はまた、ユーザー(たとえば人)および/または当該装置を運用するエンティティに関連付けられていてもよい。よって、装置は、ユーザー、ソフトウェア、ファームウェアおよび/または装置の組み合わせを含む論理的な装置を記述する。
装置1400は、装置データ1404(たとえば受領されるデータ、受領されつつあるデータ、放送のためにスケジュールされているデータ、該データのデータ・パケットなど)の有線および/または無線通信を可能にする通信装置1402を含む。装置データ1404または他の装置コンテンツは、当該装置の構成設定、当該装置上に記憶されているメディア・コンテンツおよび/または当該装置のユーザーに関連付けられた情報を含むことができる。装置1400上に記憶されたメディア・コンテンツは、任意の型のオーディオ、ビデオおよび/または画像データを含むことができる。装置1400は、一つまたは複数のデータ入力1406を含み、それを介して、ユーザー選択可能な入力、メッセージ、音楽、テレビジョン・メディア・コンテンツ、記録されたビデオ・コンテンツおよび任意のコンテンツおよび/またはデータ源から受領された他の任意の型のオーディオ、ビデオおよび/または画像データといった、任意の型のデータ、メディア・コンテンツおよび/または入力が受領されることができる。
装置1400は通信インターフェース1408をも含む。これはシリアルおよび/またはパラレル・インターフェース、無線インターフェース、任意の型のネットワーク・インターフェース、モデムおよび他の任意の型の通信インターフェースのうちの任意の一つまたは複数として実装されることができる。通信インターフェース1408は装置1400と通信ネットワークとの間の接続および/または通信リンクを提供し、該リンクによって他の電子装置、コンピューティング装置および通信装置が装置1400とデータを通信する。
装置1400は一つまたは複数のプロセッサ1410(たとえば、マイクロプロセッサ、コントローラなどの任意のもの)を含む。該プロセッサはさまざまなコンピュータ実行可能命令を処理して、装置1400の動作を制御するとともに、エッジ・ジェスチャーを可能にするおよび/または使用する技法を可能にする。代替的にまたは追加的に、装置1400は、概括的に1412において特定される処理および制御回路との関連で実装される、ハードウェア、ファームウェアまたは固定論理回路のうちの任意のものまたは組み合わせを用いて実装されることができる。図示していないが、装置1400は、当該装置内のさまざまなコンポーネントを結合するシステム・バスまたはデータ転送システムを含むことができる。システム・バスは、多様なバス・アーキテクチャの任意のものを利用する、メモリ・バスまたはメモリ・コントローラ、周辺バス、ユニバーサル・シリアル・バスおよび/またはプロセッサもしくはローカル・バスといった種々のバス構造の任意のものまたは組み合わせを含むことができる。
装置1400は、持続的および/または非一時的なデータ記憶(すなわち、単なる信号伝送ではなく)を可能にする一つまたは複数のメモリ・デバイスのようなコンピュータ可読記憶媒体1414をも含む。その例としては、ランダム・アクセス・メモリ(RAM)、不揮発性メモリ(たとえば、読み出し専用メモリ(ROM)、フラッシュメモリ、EPROM、EEPROMなどの任意の一つまたは複数)およびディスク記憶装置が含まれる。ディスク記憶装置は、ハードディスクドライブ、記録可能型および/または書き換え可能型コンパクトディスク(CD)、任意の型のデジタル多用途ディスク(DVD)などといった任意の型の磁気もしくは光学式記憶装置として実装されてもよい。装置1400は、大容量記憶媒体装置1416をも含むことができる。
コンピュータ可読記憶媒体1414は、装置データ1404ならびにさまざまな装置アプリケーション1418および装置1400の動作の諸側面に関係した他の任意の型の情報および/またはデータを記憶するデータ記憶機構を提供する。たとえば、オペレーティング・システム1420は、コンピュータ可読記憶媒体1414とともにコンピュータ・アプリケーションとして維持され、プロセッサ1410上で実行されることができる。装置アプリケーション1418は、任意の形の制御アプリケーションのような装置マネージャ、ソフトウェア・アプリケーション、信号処理および制御モジュール、特定の装置にネイティブなコード、特定の装置のためのハードウェア抽象化層などを含んでいてもよい。
装置アプリケーション1418は、エッジ・ジェスチャーを使用するまたは可能にする技法を実装するための任意のシステム・コンポーネントまたはモジュールをも含む。この例では、装置アプリケーション1418はシステム・インターフェース・モジュール122、ジェスチャー・ハンドラ128およびアプリケーション(単数または複数)130を含むことができる。
〈結語〉
エッジ・ジェスチャーを可能にする技法および装置の諸実施形態を特徴および/または方法に固有の言葉で記述してきたが、付属の請求項の主題が必ずしも記述されている特定の特徴または方法に限定されないことは理解しておくべきである。むしろ、特定の特徴および方法は、エッジ・ジェスチャーを可能にするおよび/または使用する例示的な実装として開示されているのである。
いくつかの付記を記載しておく。
〔付記1〕
コンピュータ実装される方法であって:
一つまたは複数のユーザー・インターフェースを呈示するジェスチャー感応性ディスプレイを通じてなされたジェスチャーを受領する段階と;
前記ジェスチャーが前記ジェスチャー感応性ディスプレイのエッジにある開始点および該エッジにないのちの点をもつことを判別する段階と;
前記判別に応答して、前記ジェスチャーを、前記ジェスチャー感応性ディスプレイに呈示されている前記一つまたは複数のユーザー・インターフェース以外のエンティティもしくは他のユーザー・インターフェースに渡す段階とを含む、
コンピュータ実装される方法。
〔付記2〕
前記他のユーザー・インターフェースがスタート・メニュー、アプリケーション選択インターフェースまたは前記コンピューティング装置のためのオプション・インターフェースである、付記1記載のコンピュータ実装される方法。
〔付記3〕
前記エッジの複数の領域のうちのある領域を決定する段階をさらに含み、前記ジェスチャーを前記エンティティに渡すことが、前記領域に基づいて前記他のユーザー・インターフェースを指示する、付記1記載のコンピュータ実装される方法。
〔付記4〕
前記ジェスチャーが第一の長さまたは第二の長さであることを判別する段階をさらに含み、前記ジェスチャーを渡すことが、前記ジェスチャーを、前記ジェスチャーが前記第一の長さであると判定される場合には前記エンティティに渡し、前記ジェスチャーが前記第二の長さであると判定される場合には前記他のユーザー・インターフェースに渡す、付記1記載のコンピュータ実装される方法。
〔付記5〕
前記ジェスチャーが一本指のジェスチャーであるか複数指のジェスチャーであるかを判定することをさらに含み、前記ジェスチャーを渡すことが、前記ジェスチャーが一本指のジェスチャーであるか複数指のジェスチャーであるかを判定することに応じて前記ジェスチャーを前記エンティティまたは前記他のユーザー・インターフェースに渡す、付記1記載のコンピュータ実装される方法。
〔付記6〕
前記ジェスチャーを前記エンティティに渡すことが、前記エンティティに前記他のユーザー・インターフェースを呈示させ、前記他のユーザー・インターフェースが前記ジェスチャー感応性ディスプレイに関連するコンピューティング装置のシステムとの対話を可能にする、付記1記載のコンピュータ実装される方法。
〔付記7〕
前記第二のユーザー・インターフェースが少なくとも半透明である、付記6記載のコンピュータ実装される方法。
〔付記8〕
前記ジェスチャーを渡すことが、前記他のユーザー・インターフェースの表示を引き起こし、当該方法がさらに:
前記ジェスチャー感応性ディスプレイを通じてなされた第二のジェスチャーを受領する段階と;
前記第二のジェスチャーが前記他のユーザー・インターフェース内にある開始点および前記エッジにあるのちの点をもつことを判別する段階と;
前記第二のジェスチャーが前記他のユーザー・インターフェース内にある開始点および前記エッジにあるのちの点をもつことを判別するのに応答して、前記他のユーザー・インターフェースの表示を終了させる段階とを含む、
付記1記載のコンピュータ実装される方法。
〔付記9〕
コンピュータ実装される方法であって:
一つまたは複数のユーザー・インターフェースを呈示するジェスチャー感応性ディスプレイを通じてなされたジェスチャーを受領する段階と;
前記ジェスチャーの開始点が前記ジェスチャー感応性ディスプレイのエッジにおいて受領されているかどうかを判定する段階と;
前記開始点が前記ジェスチャー感応性ディスプレイのエッジにないと判定することに応答して、前記ジェスチャーを前記一つまたは複数のユーザー・インターフェースのうちの一つのユーザー・インターフェースに渡す段階であって、前記一つのユーザー・インターフェースを通じて前記ジェスチャーの別の点の前記開始点が受領される、段階と;
前記開始点が前記ジェスチャー感応性ディスプレイのエッジにあると判定することに応答して、前記開始点から前記ジェスチャーののちの点までの直線がそのエッジからの垂直から約30度以内であるかどうかを判定する段階と;
前記直線がそのエッジからの垂直から約30度以内でないと判定するのに応答して、前記ジェスチャーを前記一つまたは複数のユーザー・インターフェースのうちの前記一つのユーザー・インターフェースに渡す段階と;
前記直線が約30度以内であると判定するのに応答して、システム・エンティティとの対話を可能にするシステム・インターフェースを呈示する段階とを含む、
コンピュータ実装される方法。
〔付記10〕
前記一つまたは複数のユーザー・インターフェースのうちの一つが没入型インターフェースであり、前記一つまたは複数のユーザー・インターフェースのうちの別の一つがウインドー・ベースのインターフェースである、付記9記載の方法。

Claims (2)

  1. コンピュータ実装される方法であって:
    一つまたは複数の没入型ユーザー・インターフェースを呈示するジェスチャー感応性ディスプレイを通じてなされたジェスチャーを受領する段階と;
    前記ジェスチャーの開始点が前記ジェスチャー感応性ディスプレイのエッジにおいて受領されているかどうかを判定する段階と;
    前記開始点が前記ジェスチャー感応性ディスプレイのエッジにないと判定することに応答して、前記ジェスチャーを前記一つまたは複数の没入型ユーザー・インターフェースのうちの一つの没入型ユーザー・インターフェースに渡す段階であって、前記一つの没入型ユーザー・インターフェースを通じて前記ジェスチャーの前記開始点が受領される、段階と;
    前記開始点が前記ジェスチャー感応性ディスプレイのエッジにあると判定することに応答して、前記開始点から前記ジェスチャーののちの点までの直線がそのエッジからの垂直から所定の分散角以内であるかどうかを判定する段階と;
    前記直線がそのエッジからの垂直から前記所定の分散角以内でないと判定するのに応答して、前記ジェスチャーを前記一つまたは複数の没入型ユーザー・インターフェースのうちの前記一つの没入型ユーザー・インターフェースに渡し、前記直線が前記所定の分散角以内であると判定するのに応答して、前記一つまたは複数の没入型ユーザー・インターフェースと同時に表示されるオペレーティング・システム・ユーザー・インターフェースの呈示を引き起こすよう動作可能なシステム・インターフェース・モジュールに前記ジェスチャーを渡し、前記オペレーティング・システム・ユーザー・インターフェースは、前記一つまたは複数の没入型ユーザー・インターフェースにおいてコンテンツを表示し続けている間にオペレーティング・システムとの対話を可能にする、段階とを含む、
    コンピュータ実装される方法。
  2. 前記オペレーティング・システム・ユーザー・インターフェースが半透明である、請求項記載の方法。
JP2014512820A 2011-05-27 2011-10-09 エッジ・ジェスチャー Active JP6038898B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/118,221 US20120304107A1 (en) 2011-05-27 2011-05-27 Edge gesture
US13/118,221 2011-05-27
PCT/US2011/055513 WO2012166176A1 (en) 2011-05-27 2011-10-09 Edge gesture

Publications (3)

Publication Number Publication Date
JP2014515519A JP2014515519A (ja) 2014-06-30
JP2014515519A5 JP2014515519A5 (ja) 2014-11-06
JP6038898B2 true JP6038898B2 (ja) 2016-12-07

Family

ID=47220136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014512820A Active JP6038898B2 (ja) 2011-05-27 2011-10-09 エッジ・ジェスチャー

Country Status (17)

Country Link
US (1) US20120304107A1 (ja)
EP (1) EP2715491B1 (ja)
JP (1) JP6038898B2 (ja)
KR (1) KR20140025493A (ja)
CN (1) CN103562838B (ja)
AU (1) AU2011369359A1 (ja)
BR (1) BR112013030414A2 (ja)
CA (1) CA2836263A1 (ja)
CO (1) CO6920259A2 (ja)
HK (1) HK1193660A1 (ja)
IL (1) IL229622A0 (ja)
MX (1) MX342078B (ja)
NZ (1) NZ618254A (ja)
RU (1) RU2591671C2 (ja)
SG (2) SG195135A1 (ja)
WO (1) WO2012166176A1 (ja)
ZA (1) ZA201307920B (ja)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US20120036471A1 (en) * 2010-08-04 2012-02-09 Misys Tool bars along lateral edges of a mobile computing device display
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US20120159383A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Customization of an immersive environment
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US9766718B2 (en) * 2011-02-28 2017-09-19 Blackberry Limited Electronic device and method of displaying information in response to input
US9477311B2 (en) 2011-01-06 2016-10-25 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9471145B2 (en) 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9465440B2 (en) 2011-01-06 2016-10-11 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9015641B2 (en) 2011-01-06 2015-04-21 Blackberry Limited Electronic device and method of providing visual notification of a received communication
US9423878B2 (en) 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US8933952B2 (en) 2011-09-10 2015-01-13 Microsoft Corporation Pre-rendering new content for an application-selectable user interface
US9360940B2 (en) * 2011-11-14 2016-06-07 Google Inc. Multi-pane interface
KR20130054579A (ko) * 2011-11-17 2013-05-27 삼성전자주식회사 디스플레이장치 및 그 제어방법
JP5850229B2 (ja) * 2011-11-29 2016-02-03 日本精機株式会社 車両用操作装置
US9223472B2 (en) 2011-12-22 2015-12-29 Microsoft Technology Licensing, Llc Closing applications
US9128605B2 (en) * 2012-02-16 2015-09-08 Microsoft Technology Licensing, Llc Thumbnail-image selection of applications
US9785291B2 (en) 2012-10-11 2017-10-10 Google Inc. Bezel sensitive touch screen system
GB201300031D0 (en) 2013-01-02 2013-02-13 Canonical Ltd Ubuntu UX innovations
KR102091028B1 (ko) * 2013-03-14 2020-04-14 삼성전자 주식회사 사용자 기기의 오브젝트 운용 방법 및 장치
US9450952B2 (en) 2013-05-29 2016-09-20 Microsoft Technology Licensing, Llc Live tiles without application-code execution
US9207849B2 (en) 2013-03-29 2015-12-08 Microsoft Technology Licensing, Llc Start and application navigation
US9645651B2 (en) * 2013-09-24 2017-05-09 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
US9851896B2 (en) 2013-12-17 2017-12-26 Google Inc. Edge swiping gesture for home navigation
US10866714B2 (en) * 2014-02-13 2020-12-15 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
US10712918B2 (en) 2014-02-13 2020-07-14 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
US10747416B2 (en) * 2014-02-13 2020-08-18 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
CN108733302B (zh) * 2014-03-27 2020-11-06 原相科技股份有限公司 手势触发方法
KR20150114160A (ko) * 2014-04-01 2015-10-12 삼성전자주식회사 Ui를 디스플레하는 전자 장치 및 방법
EP3126969A4 (en) 2014-04-04 2017-04-12 Microsoft Technology Licensing, LLC Expandable application representation
KR102107275B1 (ko) 2014-04-10 2020-05-06 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 컴퓨팅 디바이스에 대한 접이식 쉘 커버
CN105359055A (zh) 2014-04-10 2016-02-24 微软技术许可有限责任公司 计算设备的滑盖
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US9576172B2 (en) * 2014-09-16 2017-02-21 Facebook, Inc. Systems and methods for simultaneously providing and reading machine-readable codes
CN106662891B (zh) 2014-10-30 2019-10-11 微软技术许可有限责任公司 多配置输入设备
KR102342555B1 (ko) * 2014-11-10 2021-12-23 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR102481878B1 (ko) * 2015-10-12 2022-12-28 삼성전자주식회사 휴대 장치 및 휴대 장치의 화면 표시방법
CN105573545A (zh) * 2015-11-27 2016-05-11 努比亚技术有限公司 一种手势校准方法、装置及手势输入处理方法
KR20170076357A (ko) * 2015-12-24 2017-07-04 삼성전자주식회사 사용자 단말 장치, 이의 스피커 장치의 음량을 조절하기 위한 모드 전환 방법 및 음향 시스템
US10209821B2 (en) 2016-04-05 2019-02-19 Google Llc Computing devices having swiping interfaces and methods of operating the same
DE102016208575A1 (de) * 2016-05-19 2017-11-23 Heidelberger Druckmaschinen Ag Touchpad mit Gestensteuerung für Wallscreen
JP2018060241A (ja) * 2016-09-30 2018-04-12 富士通株式会社 関心度評価プログラム、対話プログラム、表示プログラム、装置、及び方法
US10203866B2 (en) 2017-05-16 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
US11036387B2 (en) 2017-05-16 2021-06-15 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
KR101981908B1 (ko) * 2017-05-16 2019-08-28 애플 인크. 사용자 인터페이스들 사이에 내비게이팅하고 제어 객체들과 상호작용하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
CN108319414A (zh) * 2018-01-31 2018-07-24 北京小米移动软件有限公司 界面显示方法及装置
KR102301903B1 (ko) * 2019-12-09 2021-09-14 네이버 주식회사 복수의 디스플레이들을 포함하는 사용자 단말을 사용하여 사이드 바와 연관된 콘텐츠를 제공하는 방법 및 장치

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5821930A (en) * 1992-08-23 1998-10-13 U S West, Inc. Method and system for generating a working window in a computer system
US5568604A (en) * 1992-12-31 1996-10-22 U S West Technologies, Inc. Method and system for generating a working window in a computer system
CN1059303C (zh) * 1994-07-25 2000-12-06 国际商业机器公司 在个人通讯设备的显示屏幕上标记文本的装置和方法
US6219032B1 (en) * 1995-12-01 2001-04-17 Immersion Corporation Method for providing force feedback to a user of an interface device based on interactions of a controlled cursor with graphical elements in a graphical user interface
KR100327209B1 (ko) * 1998-05-12 2002-04-17 윤종용 첨펜의자취를이용한소프트웨어키보드시스템및그에따른키코드인식방법
JP2000347645A (ja) * 1999-03-31 2000-12-15 Sony Corp 画像表示処理方法、画像表示処理プログラム格納媒体、および画像表示処理装置
JP2002055753A (ja) * 2000-08-10 2002-02-20 Canon Inc 情報処理装置、機能一覧表表示方法、及び記憶媒体
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7925996B2 (en) * 2004-11-18 2011-04-12 Microsoft Corporation Method and system for providing multiple input connecting user interface
US7561145B2 (en) * 2005-03-18 2009-07-14 Microsoft Corporation Systems, methods, and computer-readable media for invoking an electronic ink or handwriting interface
US7676767B2 (en) * 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
JP2007148783A (ja) * 2005-11-28 2007-06-14 Buffalo Inc コンピュータの画像表示装置、画像表示方法、画像表示プログラムを記録した媒体
US8296684B2 (en) * 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
KR20080041809A (ko) * 2006-11-08 2008-05-14 삼성전자주식회사 휴대용 단말기에서 디스플레이 제어 방법 및 장치
US8351989B2 (en) * 2007-02-23 2013-01-08 Lg Electronics Inc. Method of displaying menu in a mobile communication terminal
US11126321B2 (en) * 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
KR101224588B1 (ko) 2008-01-24 2013-01-22 삼성전자주식회사 멀티포인트 스트록을 감지하기 위한 ui 제공방법 및 이를적용한 멀티미디어 기기
US8159469B2 (en) 2008-05-06 2012-04-17 Hewlett-Packard Development Company, L.P. User interface for initiating activities in an electronic device
KR101461954B1 (ko) * 2008-05-08 2014-11-14 엘지전자 주식회사 단말기 및 그 제어 방법
US20090289902A1 (en) * 2008-05-23 2009-11-26 Synaptics Incorporated Proximity sensor device and method with subregion based swipethrough data entry
TW201005599A (en) * 2008-07-18 2010-02-01 Asustek Comp Inc Touch-type mobile computing device and control method of the same
US8924892B2 (en) * 2008-08-22 2014-12-30 Fuji Xerox Co., Ltd. Multiple selection on devices with many gestures
US20100107067A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch based user interfaces
JP4853507B2 (ja) * 2008-10-30 2012-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8499251B2 (en) * 2009-01-07 2013-07-30 Microsoft Corporation Virtual page turn
CN102150114B (zh) * 2009-02-06 2014-01-22 松下电器产业株式会社 图像显示设备
JP5370374B2 (ja) * 2009-02-13 2013-12-18 富士通モバイルコミュニケーションズ株式会社 情報処理装置
US8836648B2 (en) * 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US8681106B2 (en) * 2009-06-07 2014-03-25 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US8832585B2 (en) * 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
US8957918B2 (en) * 2009-11-03 2015-02-17 Qualcomm Incorporated Methods for implementing multi-touch gestures on a single-touch touch surface
US8438504B2 (en) * 2010-01-06 2013-05-07 Apple Inc. Device, method, and graphical user interface for navigating through multiple viewing areas
US8239785B2 (en) * 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US20110191675A1 (en) * 2010-02-01 2011-08-04 Nokia Corporation Sliding input user interface
US8799827B2 (en) * 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US20110209098A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
US20110210850A1 (en) * 2010-02-26 2011-09-01 Phuong K Tran Touch-screen keyboard with combination keys and directional swipes
TW201133298A (en) * 2010-03-25 2011-10-01 Novatek Microelectronics Corp Touch sensing method and system using the same
US20110252357A1 (en) * 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
JP5529616B2 (ja) * 2010-04-09 2014-06-25 株式会社ソニー・コンピュータエンタテインメント 情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体
US20110273379A1 (en) * 2010-05-05 2011-11-10 Google Inc. Directional pad on touchscreen
US20120180001A1 (en) * 2011-01-06 2012-07-12 Research In Motion Limited Electronic device and method of controlling same

Also Published As

Publication number Publication date
SG195135A1 (en) 2013-12-30
NZ618254A (en) 2015-01-30
CA2836263A1 (en) 2012-12-06
EP2715491A1 (en) 2014-04-09
RU2013152636A (ru) 2015-06-10
ZA201307920B (en) 2015-01-28
IL229622A0 (en) 2014-01-30
MX342078B (es) 2016-09-13
KR20140025493A (ko) 2014-03-04
BR112013030414A2 (pt) 2020-08-11
CO6920259A2 (es) 2014-04-10
US20120304107A1 (en) 2012-11-29
SG10201604341YA (en) 2016-07-28
CN103562838B (zh) 2015-10-07
HK1193660A1 (zh) 2014-09-26
MX2013013921A (es) 2013-12-16
AU2011369359A1 (en) 2013-12-19
EP2715491B1 (en) 2019-06-12
WO2012166176A1 (en) 2012-12-06
CN103562838A (zh) 2014-02-05
RU2591671C2 (ru) 2016-07-20
JP2014515519A (ja) 2014-06-30
EP2715491A4 (en) 2015-02-18

Similar Documents

Publication Publication Date Title
JP6038898B2 (ja) エッジ・ジェスチャー
JP5980913B2 (ja) エッジ・ジェスチャー
KR102027612B1 (ko) 애플리케이션의 썸네일-이미지 선택 기법
US9329774B2 (en) Switching back to a previously-interacted-with application
US20120304131A1 (en) Edge gesture
JP6046126B2 (ja) マルチ・アプリケーション環境
US9104440B2 (en) Multi-application environment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140917

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160722

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161102

R150 Certificate of patent or registration of utility model

Ref document number: 6038898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250