JP2013528304A - ジャンプ、チェックマーク、および取消し線のジェスチャー - Google Patents

ジャンプ、チェックマーク、および取消し線のジェスチャー Download PDF

Info

Publication number
JP2013528304A
JP2013528304A JP2013514209A JP2013514209A JP2013528304A JP 2013528304 A JP2013528304 A JP 2013528304A JP 2013514209 A JP2013514209 A JP 2013514209A JP 2013514209 A JP2013514209 A JP 2013514209A JP 2013528304 A JP2013528304 A JP 2013528304A
Authority
JP
Japan
Prior art keywords
gesture
input
item
gestures
computing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013514209A
Other languages
English (en)
Other versions
JP2013528304A5 (ja
Inventor
ハリス,ジョナサン・アール
アレン,アンドリュー・エス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2013528304A publication Critical patent/JP2013528304A/ja
Publication of JP2013528304A5 publication Critical patent/JP2013528304A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ジェスチャーおよび他の機能を含む技術が説明される。1つまたは複数の実装形態では、本技術はコンピューティングデバイスに入力を提供するために使用できるジェスチャーを説明する。アクティブにするジェスチャー、塗りつぶすジェスチャー、レベルジェスチャー、ジャンプジェスチャー、チェックマークジェスチャー、取消し線ジェスチャー、消去ジェスチャー、丸を付けるジェスチャー、優先順位を付けるジェスチャー、およびアプリケーショントレイジェスチャーを含む、様々な異なるジェスチャーが考えられる。

Description

本発明は、ジャンプ、チェックマーク、および取消し線のジェスチャーに関する。
[0001]モバイルデバイス、ゲーム機、テレビ、セットトップボックス、パーソナルコンピューターなどのコンピューティングデバイスから利用できる機能の量は増加し続けている。しかし、コンピューティングデバイスと対話するために使用されてきた従来技術は、機能の量が増加すると効率が悪くなる場合がある。
[0002]たとえば、さらなる機能をメニューに含めると、メニューにさらなるレベルを追加し、ならびにそれぞれのレベルにさらなる選択肢を追加することになる場合がある。さらに、従来技術を使用してこれらの機能を含めると、ユーザーは現在のユーザーインターフェースから「離れた」機能にアクセスするために、メニューを通じてナビゲートしなければならなくなる場合がある。
[0003]その結果、これらの機能をメニューに追加すると、機能の選択肢が非常に多いことによってユーザーをいらいらさせる場合があり、したがって、さらなる機能ならびにその機能を使用するデバイス自体の両方の利用を減少させてしまう。したがって、機能にアクセスするために使用されてきた従来技術は、コンピューティングデバイスのユーザーにとって機能およびデバイスの実用性を全体的に制限してしまう場合がある。
[0004]ジェスチャーおよび他の機能を含む技術が説明される。1つまたは複数の実装形態では、本技術はコンピューティングデバイスに入力を提供するために使用できるジェスチャーを説明する。アクティブにするジェスチャー、塗りつぶすジェスチャー、レベルジェスチャー、ジャンプジェスチャー、チェックマークジェスチャー、取消し線ジェスチャー、消去ジェスチャー、丸を付けるジェスチャー、優先順位を付けるジェスチャー、およびアプリケーショントレイジェスチャーを含む、様々な異なるジェスチャーが考えられる。
[0005]この概要は、以下の詳細な説明においてさらに説明する概念から選択したものを、簡単な形式で紹介するために提供される。この概要は、特許請求の範囲に記載された対象の主な特徴または基本的な特徴を特定することを意図するものではなく、また特許請求の範囲に記載された対象の範囲を判断する際に補助として用いられることを意図するものでもない。
[0006]詳細な説明は、添付の図面を参照して記述される。図面において、参照番号のうち一番左の数字は、その参照番号が最初に現れる図面を特定する。記述および図面内の異なる例における同じ参照番号の使用は、類似または同一の項目を示してよい。
[0007]本明細書に記載のジェスチャー技術を使用するために動作可能な例示的実装形態における環境を示す図である。 [0008]図1のジェスチャーモジュールを、複数のデバイスが中央コンピューティングデバイスを通じて相互接続されている環境において実装されるように示している、例示的システムを示す図である。 [0009]図1のアクティブにするジェスチャーの段階がコンピューティングデバイスとの対話(インタラクション)を通じて入力されるものとして示されている、例示的実装形態を示す図である。 [0010]1つまたは複数の実施形態による、アクティブにするジェスチャーの例示的実装形態における手順を示す流れ図である。 [0011]図1の塗りつぶすジェスチャーがコンピューティングデバイスとの対話を通じて入力されるものとして示されている、例示的実装形態を示す図である。 [0012]1つまたは複数の実施形態による、図1の塗りつぶすジェスチャーの例示的実装形態における手順を示す流れ図である。 [0013]図1のレベルジェスチャーの段階がコンピューティングデバイスとの対話を通じて入力されるものとして示されている、例示的実装形態を示す図である。 [0014]1つまたは複数の実施形態による、図1のレベルジェスチャーの例示的実装形態における手順を示す流れ図である。 [0015]図1のジャンプジェスチャーの段階がコンピューティングデバイスとの対話を通じて入力されるものとして示されている、例示的実装形態を示す図である。 [0016]1つまたは複数の実施形態による、図1のジャンプジェスチャーの例示的実装形態における手順を示す流れ図である。 [0017]図1のチェックマークジェスチャーの段階がコンピューティングデバイスとの対話を通じて入力されるものとして示されている、例示的実装形態を示す図である。 [0018]1つまたは複数の実施形態による、図1のチェックマークジェスチャーの例示的実装形態における手順を示す流れ図である。 [0019]図1の取消し線ジェスチャーの段階がコンピューティングデバイスとの対話を通じて入力されるものとして示されている、例示的実装形態を示す図である。 [0020]図1の取消し線ジェスチャーの段階がコンピューティングデバイスとの対話を通じて入力されるものとして示されている、他の例示的実装形態を示す図である。 [0021]1つまたは複数の実施形態による、図1の取消し線ジェスチャーの例示的実装形態における手順を示す流れ図である。 [0022]図1の消去ジェスチャーの段階がコンピューティングデバイスとの対話を通じて入力されるものとして示されている、他の例示的実装形態を示す図である。 [0023]1つまたは複数の実施形態による、図1の消去ジェスチャーの例示的実装形態における手順を示す流れ図である。 [0024]図1の丸を付けるジェスチャーの段階がコンピューティングデバイスとの対話を通じて入力されるものとして示されている、他の例示的実装形態を示す図である。 [0025]1つまたは複数の実施形態による、図1の丸を付けるジェスチャーの例示的実装形態における手順を示す流れ図である。 [0026]図1の優先順位を付けるジェスチャーの段階がコンピューティングデバイスとの対話を通じて入力されるものとして示されている、例示的実装形態を示す図である。 [0027]1つまたは複数の実施形態による、図1の優先順位を付けるジェスチャーの例示的実装形態における手順を示す流れ図である。 [0028]図1のアプリケーショントレイジェスチャーの段階がコンピューティングデバイスとの対話を通じて入力されるものとして示されている、例示的実装形態を示す図である。 [0029]1つまたは複数の実施形態による、図1のアプリケーショントレイジェスチャーの例示的実装形態における手順を示す流れ図である。 [0030]本明細書に記載のジェスチャー技術の実施形態を実装するために、図1乃至23を参照して記述されるように、任意の種類のポータブルおよび/またはコンピューターデバイスとして実装されうる例示的デバイスの様々なコンポーネントを示す図である。
概要
[0031]コンピューティングデバイスの機能にアクセスするために使用されてきた従来技術は、増加し続ける数の機能にアクセスするために拡大されると効率が悪くなる場合がある。したがって、これらの従来技術は、さらなる機能に関してユーザーをいらいらさせることになる場合があり、また、それらのさらなる機能を有するコンピューティングデバイスについてのユーザーの満足度を減少させることになる場合がある。たとえば、従来のメニューを使用すると、ユーザーは所望の機能を捜し出すために複数のレベルおよびそれぞれのレベルでの選択を通じてナビゲートしなければならなくなる場合があり、これは時間がかかり、かつユーザーをいらいらさせる場合がある。
[0032]ジェスチャーを含む技術が説明される。以下の記述では、コンピューティングデバイスの機能を開始するためのジェスチャーを含む様々な異なる実装形態が説明される。この方法では、ユーザーは、従来のアクセス技術を使用することを含む複雑さに直面することなく、効率的かつ直観的な方法で機能に容易にアクセスできる。様々な異なるジェスチャーが考えられ、それらのさらなる説明は以下のセクションに関連して見つけられよう。
[0033]以下の記述では、本明細書に記載のジェスチャー技術を使用するために動作可能な例示的環境がまず説明される。次いで、例示的環境ならびに他の環境において使用されうる技術および手順の例が説明される。したがって、例示的環境は例示的技術および手順を実行することに限定されない。同様に、例示的技術および手順は、例示的環境における実装形態に限定されない。
例示的環境
[0034]図1は、ジェスチャー技術を使用するために動作可能な例示的実装形態における環境100を示す図である。図示された環境100は、様々な方法で構成されうるコンピューティングデバイス102の例を含む。たとえば、コンピューティングデバイス102は、図2に関連してさらに説明するように、従来型コンピューター(たとえば、デスクトップパーソナルコンピューター、ラップトップコンピューターなど)、移動局、エンターテイメント家電、通信可能なようにテレビに結合されたセットトップボックス、無線電話、ネットブック、ゲーム機などとして構成されうる。したがって、コンピューティングデバイス102の範囲は、十分なメモリとプロセッサリソースを有するフルリソースデバイス(たとえば、パーソナルコンピューター、ゲーム機)から、メモリおよび/または処理リソースが限られている低リソースデバイス(たとえば、従来型セットトップボックス、ハンドヘルドゲーム機)にまで及ぶ。コンピューティングデバイス102は、コンピューティングデバイス102に1つまたは複数の動作を実行させるソフトウェアに関連してもよい。
[0035]コンピューティングデバイス102は、入力モジュール104を含むものとして示されている。入力モジュール104は、コンピューティングデバイス102の入力に関する機能の代表である。たとえば、入力モジュール104は、ジェスチャーを識別して、そのジェスチャーに対応する動作を実行するために、キーボード、マウスから入力を受信するように構成されうる。入力は、入力モジュール104によって様々な異なる方法で識別されうる。
[0036]たとえば、入力モジュール104は、コンピューティングデバイス102のディスプレイデバイス106の近位にあるユーザーの手108の指や、スタイラス110などから、ディスプレイデバイス106のタッチスクリーン機能を介して受信した入力を認識するように構成されうる。タップや線引きなどの、ディスプレイデバイス106にわたるスタイラス110および/またはユーザーの手108の指の動きを認識するために、入力は様々な異なる形式をとってよい。実装形態では、これらの入力をジェスチャーとして認識でき、その機能はジェスチャーモジュール112によって表される。
[0037]単一の種類の入力(たとえば、タッチジェスチャー)、ならびに複数の種類の入力を含むジェスチャーから認識されるジェスチャーなど、様々な異なる種類のジェスチャーを認識できる。たとえば、コンピューティングデバイス102は、タッチ入力(たとえば、ユーザーの手108の1本または複数の指によって提供される)とスタイラス入力(たとえば、スタイラス110によって提供される)とを検出して、それらを区別するように構成されうる。この区別は、ユーザーの手108の指によって接触されるディスプレイデバイス108の量に対する、スタイラス110によって接触されるディスプレイデバイス106の量を検出することなどによって、様々な方法で実行されうる。ナチュラルユーザーインターフェース(NUI)において、タッチ入力(たとえば、1本または複数の指をかざす)とスタイラス入力(たとえば、点を示すために2本の指を一緒にホールドする)とを区別するために、カメラの使用を通じて区別を実行することもできる。タッチ入力とスタイラス入力とを区別するための他の様々な例示的技術が考えられ、それらのさらなる説明は図24に関連して見つけられよう。
[0038]したがって、入力モジュール103のジェスチャーモジュール112は、スタイラス入力とタッチ入力との間の区分を認識および利用することによって、様々な異なるジェスチャー技術をサポートできる。たとえば、タッチはディスプレイデバイス108によって表示されるオブジェクトを操作するために使用されるのに対し、ジェスチャーモジュール112はスタイラスを書込みツールとして認識するように構成されうる。したがって、タッチ入力とスタイラス入力との組合せは、様々な異なるジェスチャーを示すための基礎としての機能を果たすことができる。たとえば、基本のタッチ(たとえば、タップ、ホールド、2本の指をホールドする、グラブ、クロス、ピンチ、手または指姿勢など)およびスタイラス(たとえば、タップ、ホールドおよびドラッグオフ、ドラッグイントゥ、クロス、ストローク)は、複数のジェスチャーを含む領域を作成するように構成されうる。タッチ入力とスタイラス入力とを区別することによって、これらのそれぞれの入力のみによって可能になるジェスチャーの数も増加する点に留意されたい。たとえば、タッチ入力かスタイラス入力かを使用して、動きは同じであっても異なるジェスチャー(または類似のコマンドに対する異なるパラメータ)を示すことができる。
[0039]ジェスチャーモジュール112は、様々な異なるジェスチャーをサポートできる。本明細書に記載のジェスチャーの例には、アクティブにするジェスチャー(activate gesture)114、塗りつぶすジェスチャー116、レベルジェスチャー118、ジャンプジェスチャー120、チェックマークジェスチャー122、取消し線ジェスチャー124、消去ジェスチャー126、丸を付けるジェスチャー128、優先順位を付けるジェスチャー130、およびアプリケーショントレイジェスチャー132がある。これらのそれぞれの異なるジェスチャーは、以下の記述における対応するセクションで説明する。異なるセクションが使用されているが、これらのジェスチャーの特徴は、さらなるジェスチャーをサポートするために結合および/または分離されうることが容易に明らかであろう。したがって、本記述はこれらの例に限定されない。
[0040]さらに、以下の記述はタッチ入力およびスタイラス入力の特定の例を説明するが、場合によっては、本発明の趣旨および範囲から逸脱することなしに、入力の種類を切り替えることもでき(たとえば、スタイラスと置換するためにタッチを使用でき、またその逆も可能である)、除去する(たとえば、タッチまたはスタイラスを使用して両方の入力が提供されうる)こともできる。さらに、場合によっては、以下の記述ではジェスチャーはタッチスクリーン機能を使用して入力されるものとして示されているが、ジェスチャーは様々な異なるデバイスによって様々な異なる技術を使用して入力でき、そのさらなる説明は以下の図面に関連して見つけられよう。
[0041]図2は、図1を参照して説明したコンピューティングデバイス102を含む例示的システム200を示す。例示的システム200によって、パーソナルコンピューター(PC)、テレビデバイス、および/またはモバイルデバイス上でアプリケーションを実行する際の、シームレスなユーザーエクスペリエンスのためのユビキタス環境が可能になる。アプリケーションを利用している間、ビデオゲームをしている間、ビデオを見ている間など、あるデバイスから次のデバイスに移行する際に、共通のユーザーエクスペリエンスのために、3つの全ての環境において、サービスおよびアプリケーションはほぼ同様に実行する。
[0042]例示的システム200では、中央コンピューティングデバイスを通じて複数のデバイスが相互接続されている。中央コンピューティングデバイスは複数のデバイスにとってローカルでもよく、複数のデバイスから遠隔に位置してもよい。一実施形態では、中央コンピューティングデバイスは、ネットワーク、インターネット、または他のデータ通信リンクを通じて複数のデバイスに接続された1つまたは複数のサーバコンピューターのクラウドでもよい。一実施形態では、この相互接続アーキテクチャーによって、複数のデバイスのユーザーに共通でシームレスなエクスペリエンスを提供するために、複数のデバイスにわたって機能を配信することが可能になる。それぞれの複数のデバイスは異なる物理的要件および機能を有してよく、中央コンピューティングデバイスはプラットフォームを使用して、デバイスに合わせて調整された、および全てのデバイスに共通である、両方のデバイスにエクスペリエンスを配信することを可能にする。一実施形態では、ターゲットデバイスのクラスが作成され、エクスペリエンスはデバイスの一般的クラスに合わせて調整される。デバイスのクラスは、物理的特徴、利用の種類、またはデバイスの他の共通の特徴によって定義されうる。
[0043]様々な実装形態では、クライアントデバイス102は、コンピューター202、モバイル204、およびテレビ206などを利用するための様々な異なる構成を仮定できる。これらのそれぞれの構成は、一般的に異なる構造および機能を有することができるデバイスを含むので、コンピューティングデバイス102は異なるデバイスクラスのうちの1つまたは複数によって構成されうる。たとえば、コンピューティングデバイス102は、パーソナルコンピューター、デスクトップコンピューター、マルチスクリーンコンピューター、ラップトップコンピューター、ネットブックなどを含むデバイスのコンピューター202クラスとして実装されうる。
[0044]コンピューティングデバイス102は、モバイル電話、ポータブル音楽プレイヤー、ポータブルゲームデバイス、タブレットコンピューター、マルチスクリーンコンピューターなどのモバイルデバイスを含むデバイスのモバイル202クラスとしても実装されうる。コンピューティングデバイス102は、日常的な閲覧環境における一般的により大きいスクリーンを有するか、それに接続されるデバイスを含むデバイスのテレビ206クラスとしても実装されうる。これらのデバイスは、テレビ、セットトップボックス、ゲーム機などを含む。本明細書に記載のジェスチャー技術は、クライアントデバイス102のこれらの様々な構成によってサポートでき、本明細書に記載のジェスチャー技術の特定の例に限定されない。
[0045]クラウド208は、コンテンツサービス212のためのプラットフォーム210を含むか、および/またはそれの代表である。プラットフォーム210は、クラウド208のハードウェア(たとえば、サーバ)およびソフトウェアリソースの基本的機能を抽出する。コンテンツサービス212は、クライアントデバイス102から離れたサーバ上でコンピューター処理が実行される間に利用されうるアプリケーションおよび/またはデータを含むことができる。コンテンツサービス212は、インターネットを介して、および/あるいはセルラーまたはWiFiネットワークなどの加入者ネットワークを通じて、サービスとして提供されうる。
[0046]プラットフォーム210は、コンピューティングデバイス102を他のコンピューティングデバイスに接続するためのリソースおよび機能を抽出できる。プラットフォーム210は、プラットフォーム210を介して実装されたコンテンツサービス212を求める、直面する需要に対応するスケールのレベルを提供するためにリソースのスケーリングを抽出するための機能を果たすこともできる。したがって、相互接続されたデバイス環境では、ジェスチャーモジュール112の機能の実装形態はシステム200を通じて分散されうる。たとえば、ジェスチャーモジュール112はコンピューティングデバイス102に部分的に実装することもでき、またクラウド208の機能を抽出するプラットフォーム210を介して実装することもできる。
[0047]一般的に、本明細書に記載の任意の機能は、ソフトウェア、ファームウェア、ハードウェア(たとえば、固定論理回路)、またはこれらの実装形態の組合せを使用して実装されうる。本明細書で使用される「モジュール」、「機能」、および「論理」という用語は、一般的にソフトウェア、ファームウェア、ハードウェア、またはそれらの組合せを表す。ソフトウェア実装形態の場合、モジュール、機能、または論理は、プロセッサ(たとえば1つまたは複数のCPU)上で実行されると特定のタスクを実行するプログラムコードを表す。プログラムコードは、1つまたは複数のコンピューター読み取り可能なメモリデバイスに格納されうる。以下で説明するジェスチャー技術の特徴はプラットフォーム非依存であることであり、本技術は様々なプロセッサを有する様々な商用コンピューティングプラットフォームに実装されうることを意味する。
アクティブにするジェスチャー
[0048]図3は、図1のアクティブにするジェスチャー(activate gesture)114の段階がコンピューティングデバイス102との対話を通じて入力されるものとして示されている例示的実装形態300を示す。アクティブにするジェスチャー114は、第1段階302および第2段階304を使用して図3に示されている。第1段階302に、コンピューティングデバイス102のディスプレイデバイス108によって画像306が表示されている。コントロール308は、ユーザーインターフェース内の画像306の下に表示されるボタンとして示されており、以下でさらに説明するように、この例では画像306を送信するように構成されている。
[0049]スタイラス110によってコントロール308を通じて少なくとも部分的に書かれるものとして、線310も示されている。たとえば、ユーザーはスタイラス110を握り、ディスプレイデバイス106上のコントロール308のディスプレイを横切って動かすことができる。コンピューティングデバイス102の機能(たとえば、ジェスチャーモジュール114)は、この動きを認識して、その動きのパスをなぞるように線310を表示できる。
[0050]第2段階304では、コンピューティングデバイス102は、第1段階302から認識された入力からアクティブにするジェスチャー114を識別した。この識別に応答して、コンピューティングデバイス102は、コントロール308に対応する実行されるべき動作、この例ではメニュー312の表示を開始できる。この例におけるメニュー312は、図示されるように「電子メール」、「MMS」、および「ソーシャルネットワーク」を含む画像306を送信するためのさらなるオプションの表示を含む。
[0051]さらに、ジェスチャーモジュール112は、第2段階で示されるようにジェスチャーを認識すると、線310の表示を除去するように構成でき、それによってディスプレイデバイス106上の認識されたクラッターを除去する。したがって、この例では、線310は対話を示すために「一時的インク」を使用して書かれうるが、一旦インクによって意図される対話(たとえば、この例ではアクティブにするジェスチャー114を通じてコントロールをアクティブにするための)がコンピューティングデバイス102によって認識されると除去される。しかし、たとえば線310の表示が継続する、定められた量の時間が経過した後で線310の表示を除去するなどの、他の非常に様々な実施形態も考えられることが容易に明らかであろう。したがって、この例では線を書くことは「基本的」コントロールをアクティブにするために使用されうる。アクティブにするジェスチャーのさらなる説明は、以下の図面に関連して見つけられよう。
[0052]図4は、1つまたは複数の実施形態による、アクティブにするジェスチャー114の例示的実装形態における手順400を示す流れ図である。手順の態様は、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せに実装されうる。この例では、手順は1つまたは複数のデバイスによって実行される動作を指定するブロックのセットとして示されており、それぞれのブロックによって動作を実行するために示された順序に必ずしも限定されない。
[0053]入力はコンピューティングデバイス102の機能を使用して検出される(ブロック402)。たとえば、タッチスクリーン機能は、ユーザーの手108の指、スタイラス110などからタッチ入力を検出するために使用されうる。他の例では、カメラを使用してジェスチャーをキャプチャすることを含むことができ、コンピューティングデバイス102と接触せずに実行できる、ナチュラルユーザーインターフェースが考えられる。他の様々な例も考えられる。
[0054]入力は、コンピューティングデバイスのディスプレイデバイスのユーザーインターフェースに表示されたコントロールの表示の少なくとも一部の上に書かれた線として認識される(ブロック404)。たとえば、ジェスチャーモジュール112は、線310と、上に線310が書かれたコントロール308とを認識できる。
[0055]次いで、コンピューティングデバイスは、認識された入力からアクティブジェスチャーを識別でき、アクティブにするジェスチャーは、コントロールをアクティブにするために、およびコントロールに関連付けられるコンピューティングデバイスによって動作を実行するために有効である(ブロック406)。次いで、アクティブにするジェスチャーの識別に応答して、コントロールがアクティブにされる(ブロック408)。図3に示されるように、たとえば、コントロール308についてのアクティブジェスチャーの識別によって、画像306を送信するための選択を含むメニュー312を出力させることができる。
[0056]さらに、書かれた線は、アクティブにするジェスチャーの識別に応答してユーザーインターフェース内のディスプレイから自動的に除去されうる(ブロック410)。前述の通り、この技術は「一時的インクディスプレイ」を提供できるので、コントロールをアクティブにするために使用される線は、取れずに残ってディスプレイを乱すようなことはない。この例は、ボタンとしてのコントロールの表示とともにアクティブにするジェスチャー114を説明しているが、スライダーコントロール上の値を設定する、ボックスを選択する、一部を塗りつぶす、などの他の様々なコントロールもこのジェスチャーを使用してアクティブにすることができ、それらのさらなる例は以下のジェスチャーに関連して見つけられよう。
塗りつぶすジェスチャー
[0057]図5は、図1の塗りつぶすジェスチャー116の段階がコンピューティングデバイス102との対話を通じて入力されるものとして示されている例示的実装形態500を示す。この例では、ユーザーインターフェースは、コンピューティングデバイス102のディスプレイデバイス106のディスプレイ設定を設定するためにメニュー502を含むものとして示されている。この例では、メニュー502は、ディスプレイデバイス106の輝度を設定するための輝度コントロール504、およびディスプレイデバイス106のコントラストを設定するためのコントラストコントロール506を含む。
[0058]輝度コントロール504は、コントロールについての値を設定するように構成されたセグメント508を含むものとしてさらに示されている。この例では、輝度コントロール504の値は、セグメント508の一部を塗りつぶすことによって設定される。セグメントの塗りつぶしは、スタイラス110でセグメント508内に1つまたは複数の線(たとえば、くねくねした線、直線などで)を書くことによって実行できるが、塗りつぶしは本発明の趣旨および範囲から逸脱することなしにタッチ入力によって指定される場合もある。
[0059]したがって、塗りつぶされた部分は、コントロールに関連付けられる動作を実行するために適用されるべき値を指定するために使用されうる。図示した例に示されるように、塗りつぶしは、ディスプレイデバイスによって使用されるべき輝度の量についての値を指定できる。たとえば、コントロールは複数のレベル(たとえば0乃至10)に関連付けることができ、入力は輝度が設定されるレベルのうちの特定の1つを示すために輝度コントロール504のセグメント508の一部の塗りつぶしとして識別されうる。塗りつぶされたセグメント508の割合に対応する値を設定するなどの、他の例も考えられる。
[0060]実装形態では、ジェスチャーモジュール112は、コンピューティングデバイス102によって入力が受信されると、塗りつぶすジェスチャー116をリアルタイムに適用できる。たとえば、スタイラス110は、輝度コントロール504のセグメント508を段階的に塗りつぶすために使用されうる。それに応答して、ジェスチャーモジュール112はディスプレイデバイス106の輝度をそれに応じて調整できる。このようにして、コンピューティングデバイス102は、塗りつぶすジェスチャー116が認識されると、その影響に関するフィードバックを提供でき、そのさらなる説明は以下の図面に関連して見つけられよう。
[0061]図6は、1つまたは複数の実施形態による、図1の塗りつぶすジェスチャー116の例示的実装形態における手順600を示す流れ図である。手順の態様は、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せに実装されうる。この例では、手順は1つまたは複数のデバイスによって実行される動作を指定するブロックのセットとして示されており、それぞれのブロックによって動作を実行するために示された順序に必ずしも限定されない。
[0062]入力はコンピューティングデバイスによって検出される(ブロック602)。前述の通り、入力はタッチスクリーン機能を使用することによって、またナチュラルユーザーインターフェース(NUI)におけるカメラによって、などの様々な方法で検出されうる。
[0063]入力は、コンピューティングデバイスのディスプレイデバイスによって、ユーザーインターフェースに表示されたコントロールの少なくとも一部の塗りつぶしとして認識される(ブロック604)。図5に示されるように、たとえば、スタイラス110によって書かれた線は、輝度コントロール504のセグメント508の一部の塗りつぶしとして認識されうる。図示されるように、「塗りつぶし」は、セグメント508の一部を完全に「着色する」ことなしに提供されうる点にも留意されたい。むしろ、様々な異なる技術を使用して、たとえば線が書かれたセグメント508の一部を測定することによって、線をセグメント508の一部の塗りつぶしとして認識できる。
[0064]塗りつぶすジェスチャーは認識された入力から識別され、塗りつぶすジェスチャーは、コントロールの塗りつぶされた部分を、コントロールに関連付けられる動作を実行するための基礎として使用するために有効である(ブロック606)。たとえば、入力は、コントロールに関連付けられる複数のレベルのうちの特定の1つを示すためのコントロールの一部の塗りつぶしとして識別されうる(ブロック608)。したがって、この例では塗りつぶしは特定の値、たとえば1乃至10の範囲内の「5」や、特定の文字などを指定するために使用されうる。他の例では、入力をコントロールの量の塗りつぶしとして識別でき、その量は、塗りつぶされたセグメント508の特定の割合、たとえばパーセンテージを指定することなどによって、コントロールに関連付けられる動作を実行するための基礎として使用される(ブロック610)。他の様々な例も考えられる。
[0065]実装形態では、コンピューティングデバイスによって入力がコントロールの一部の塗りつぶしとして認識されると、コンピューティングデバイスによってリアルタイムに動作が実行される(ブロック612)。前述の通り、たとえば、塗りつぶしは複数のレベルのうちの特定の1つを指定するために使用されうる。したがってユーザーは、たとえばディスプレイデバイス106の輝度を変更するためや、コントラストコントロール506を調整するために、セグメント508の塗りつぶしを継続して、対応する有効な出力をフィードバックとしてリアルタイムに有することができる。したがって、入力の効果は、非モーダル技術を使用して表示でき、入力の結果を見るためにユーザーが他のコントロール(たとえば「適用」)を選択することを含まなくてよい。モーダル技術を利用するなどの、他の様々な例も考えられる。
レベルジェスチャー
[0066]図7は、図1のレベルジェスチャー(level gesture)118の段階がコンピューティングデバイス102との対話を通じて入力されるものとして示されている例示的実装形態700を示す。レベルジェスチャー118は、第1段階702および第2段階704を使用して図7に示されている。第1段階702に、前述のように輝度コントロール708およびコントラストコントロール710を含むメニュー706が出力されている。しかしこの例では、コントロールは対応するコントロールについての値を設定するためのスライダーコントロールとして表示されている。たとえば、スタイラス110、ユーザーの手108の指などがコントロールの一部を選択して、線にそって動かしてコントロールについての値を設定でき、その例はコントラストコントロール710の丸の部分に関するユーザーの手108の指によって示されている。したがって、丸の部分は、値を設定するためと、現在コントロールが設定されている値を示すためとの両方のために使用されうる。
[0067]この例のコントロールは、レベルジェスチャー118の使用を通じて設定することもできる。たとえば、自由形式の線(freeform line)がスタイラス110によって書かれているものとして第1段階702に示されており、数字の「8」を示している。この入力に応答して、ジェスチャーモジュール112は、自由形式の線が少なくとも部分的に輝度コントロール708の表示上に書かれていると決定することなどによって、自由形式の線が輝度コントロール708に関連付けられていることを決定できる。
[0068]ジェスチャーモジュール112は、文字がある場合は何の文字が自由形式の線によって書かれているかを決定するためにインク分析エンジンを使用することなどによって、自由形式の線によって設定されるべき値も決定できる。次いで、この分析はコントロールを設定するための基礎としての機能を果たすこともでき、その例は次の段階に示されている。
[0069]第2段階704にレベルジェスチャーの結果が示されており、この場合は輝度コントロールを「8」に設定するためのものであり、スライダーコントロールの丸の部分によって示されている。レベルジェスチャー118は、レベルジェスチャー118を認識すると、前述の「一時的インク」技術を利用して自由形式の線の表示を除去することもできる。この例では、文字「8」の自由形式の線はコントロールの上に書かれているが、輝度コントロールが設定されるべき点には書かれていない点に留意されたい。したがってこの例では、レベルジェスチャーは、所望の値に対応するスライダーコントロールの一部の上に自由形式の線を書かずにスライダーコントロールの値を設定するために使用でき、そのさらなる説明は以下の手順に関連して見つけられよう。
[0070]図8は、1つまたは複数の実施形態による、図1のレベルジェスチャー118の例示的実装形態における手順800を示す流れ図である。手順の態様は、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せに実装されうる。この例では、手順は1つまたは複数のデバイスによって実行される動作を指定するブロックのセットとして示されており、それぞれのブロックによって動作を実行するために示された順序に必ずしも限定されない。
[0071]入力は、コンピューティングデバイスのディスプレイデバイスによってユーザーインターフェースに表示されたコントロールに関連して書かれた自由形式の線として認識され、コントロールは複数のレベルのうちのどれに現在コントロールが設定されているかを示す部分を有する(ブロック802)。図示されるようにスライダーコントロール上の特定の点を示すためや、字(たとえば、文字および/または数字)を書くために、様々な自由形式の線を書くことができる。したがって、自由形式の線によって様々な方法でレベルを示すことができる。
[0072]レベルジェスチャーは認識された入力から識別され、レベルジェスチャーは、入力の認識された自由形式の線を、コントロールを特定の前記レベルに設定するための基礎として使用するために有効である(ブロック804)。たとえば、ジェスチャーモジュール112は、自由形式の線が複数のコントロールのうちの特定の1つに対応すると決定でき、たとえば自由形式の線が主に輝度コントロール708の上に書かれているため、コントラストコントロール710ではなく輝度コントロール708に対応すると決定できる。
[0073]ジェスチャーモジュール112は、インク分析を利用して自由形式の線の可能性の高い意図を決定することもできる。たとえば、ジェスチャーモジュール112は、自由形式の線が特定の点の上に書かれていることによってスライダーコントロール上のその点を示すように構成されているかどうかを決定できる。他の例では、ジェスチャーモジュール112は、自由形式の線が、たとえば図7に示されるような0乃至10の複数のレベルのうちの特定のレベル(たとえば「8」)を示す1つまたは複数の文字を形成することを決定できる。
[0074]レベルジェスチャーの識別に応答して、コントロールが特定のレベルに設定される(ブロック806)。前述の例を継続すると、ジェスチャーモジュール112は、コントロールを自由形式の線がコントロールと交差するレベルや、異なるレベル(たとえば、自由形式の線が1つまたは複数の文字を指定する場合)などに設定できる。
[0075]また、レベルジェスチャーの識別に応答して、特定のレベルを示すためにユーザーインターフェース内にコントロールの一部が表示される(ブロック808)。図7に示されるように、その部分(たとえば、スライダーコントロールの丸)は、第1段階702から第2段階704における自由形式の線の指定されたレベルに動かすことができる。したがって、その部分はコントロールが設定されている現在のレベルを示すことができる。他の様々なコントロールも、本発明の趣旨および範囲から逸脱することなしにレベルジェスチャーを利用できる。
ジャンプジェスチャー
[0076]図9は、図1のジャンプジェスチャー120の段階がコンピューティングデバイス102との対話を通じて入力されるものとして示されている例示的実装形態900を示す。ジャンプジェスチャー120は、第1段階902、第2段階904、および第3段階906を使用して図9に示されている。第1段階902に、コンピューティングデバイス102のディスプレイデバイス106によってユーザーインターフェースが表示されている。ユーザーインターフェースは、列に配置された複数のリストを使用して、連絡先に関連する情報を出力するように構成されている。第1列は連絡先の名前を含むものとして示されており、第2列は名前を挙げられた連絡先の対応する住所を含むものとして示されている。
[0077]自由形式の線908はスタイラス110を使用して書かれるものとしても示されるが、ユーザーの手108の指からのタッチ入力などの他の様々な技術も線を描くために使用されうる。この入力に応答して、ジェスチャーモジュール112は自由形式の線からジャンプジェスチャー120を識別して(たとえば、自由形式の線908によって書かれた文字を識別することによって)、対応するリスト内のその文字を含む1つまたは複数の項目(たとえば、第1列)に「ジャンプ」できる。
[0078]第2段階904で、自由形式の線908で書かれた文字「J」の識別の結果が表示される。この場合、自由形式の線908は、ジェスチャーモジュール112によって連絡先リスト内に名前をリストアップする第1列に関連付けられる。前述の通り、この関連付けは、たとえば自由形式の線908の大部分がどのリスト上に書かれているかを検出するなどの、様々な方法で実行できる。
[0079]したがって、ジェスチャーモジュール112は、その文字を含む、この場合はその文字で始まる、連絡先リストの一部へのジャンプを生じさせる。したがって、第2段階904で、文字「J」で始まるエントリを含む名前のリストの一部が表示される。ユーザーインターフェースは名前のリスト内に6つのエントリのためのスペースを含み、そのうちの4つが文字「J」で始まるので、その部分からの文字「J」で始まらないさらなるエントリも表示されている。文字「J」を含むエントリを表示すること、文字「J」で始まるエントリだけを表示することなどの、他の実装形態も考えられる。
[0080]第2段階904で、自由形式の線は他の文字、図示した例では文字「e」を含むように継続される。したがって、入力が受信されると、ジェスチャーモジュール112はジャンプジェスチャー120の利用を継続して、リアルタイムにさらに結果を絞り込むことができる。たとえば、ジェスチャーモジュール112は、表示されたリストを、文字「J」と「e」との両方を含む項目を含むようにさらに絞り込み、それらの項目がまだ表示されていない場合はそれらを表示できる。しかし、ある実装形態では、それらの入力に対応する項目が既に表示されている場合、第3段階906でエントリ「ジャンヌ(Jeanne)」について示されているように、その項目はユーザーインターフェースにおいて項目を太字で表示することなどによって「焦点」を与えられる。このようにして、ジャンプジェスチャー120は、項目のリストを通じて直観的なナビゲーションを提供するために利用でき、そのさらなる説明は以下の手順に関連して見つけられよう。
[0081]図10は、1つまたは複数の実施形態による、図1のジャンプジェスチャー120の例示的実装形態における手順1000を示す流れ図である。手順の態様は、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せに実装されうる。この例では、手順は1つまたは複数のデバイスによって実行される動作を指定するブロックのセットとして示されており、それぞれのブロックによって動作を実行するために示された順序に必ずしも限定されない。
[0082]入力は、コンピューティングデバイスのディスプレイデバイスによってユーザーインターフェースに表示されたリストに関連して書かれた自由形式の線として認識される(ブロック1002)。たとえば、自由形式の線は、リスト内に含まれる1つまたは複数の項目の上に少なくとも部分的に書かれてよく、その例は図9の第1段階902に示されている。
[0083]ジャンプジェスチャーは認識された入力から識別され、ジャンプジェスチャーは、入力の認識された自由形式の線を、その入力に対応するリスト内の少なくとも1つの項目にジャンプするための基礎として使用するために有効である(ブロック1004)。自由形式の線は1つまたは複数の文字を記述できる。したがって、ジェスチャーモジュール112は、(たとえば、インク分析を通じて)文字を認識でき、また前述の通りそれらの文字はリストに関連して書かれたことを認識できる。したがって、これらの入力はジャンプジェスチャー120を識別するために使用されうる。
[0084]1つまたは複数の実装形態では、入力がコンピューティングデバイスによって認識および識別されると、コンピューティングデバイスによってリアルタイムにジャンプが実行される(ブロック1006)。たとえば、ジェスチャーモジュール112によって文字が自由形式の線で識別されると、ジャンプが実行されうる。
[0085]少なくとも1つの項目を含むリストの一部が表示される(ブロック1008)。たとえば、図9の第2段階904に示されるように、リストの一部は文字「J」を含むエントリを含んでよい。さらに、やはり第2段階904に示されるように、エントリ「マイク(Mike)」および「サラ(Sara)」などの入力に対応しないリストの一部が表示されうる(ブロック1010)。入力が受信されるとリスト内の項目に焦点を与える、その文字を含む項目を表示するが他の項目は表示しないなどの、他の様々な例も考えられる。
チェックマークジェスチャー
[0086]図11は、図1のチェックマークジェスチャー122の段階がコンピューティングデバイス102との対話を通じて入力されるものとして示されている例示的実装形態1100を示す。チェックマークジェスチャー122は、第1段階1102および第2段階1104を使用して図11に示されている。第1段階1102に、コンピューティングデバイス102のディスプレイデバイス106によってユーザーインターフェースが表示されている。前述の通り、この例のユーザーインターフェースは、列に配置された複数のリストを使用して、連絡先に関連する情報を出力するように構成されている。第1列は連絡先の名前を含むものとして示されており、第2列は名前を挙げられた連絡先の対応する住所を含むものとして示されている。
[0087]チェックマークは、スタイラス110を使用して自由形式の線として書かれるものとして示されているが、ユーザーの手108の指を使用してタッチ入力を通じて、ナチュラルユーザーインターフェース(NUI)におけるカメラを介してキャプチャして、などの他の様々な方法でも実行されうる。チェックマークの認識、およびチェックマークがユーザーインターフェースに表示された項目に関連付けられているという決定に応答して、ジェスチャーモジュール112はチェックマークジェスチャー122を識別できる。
[0088]チェックマークジェスチャー122の識別は、様々な異なる機能を提供するために、ジェスチャーモジュール112によって利用されうる。たとえば、チェックマークジェスチャー122は、ジェスチャーが関連付けられる項目を選択するために利用されうる。この例では、第2段階1104に示されるように、項目(たとえば、連絡先リスト内の「エリー(Ellie)」)を選択することによってエリーに連絡を取るためのオプションを含むメニュー1108の出力を生じさせることができ、その例は「エリーに電話を掛ける」、「エリーに携帯電話でメールを送る」、および「エリーに電子メールを送る」を含む。ボタンにチェックマークを適用してボタンを選択して、図3および4に関連して説明したアクティブにするジェスチャー114に類似する関連動作を実行させるなど、本発明の趣旨および範囲から逸脱することなしに、メニューの出力を含まない項目の選択に応答して他の様々な動作も開始できる。
[0089]図12は、1つまたは複数の実施形態による、図1のチェックマークジェスチャー122の例示的実装形態における手順1200を示す流れ図である。手順の態様は、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せに実装されうる。この例では、手順は1つまたは複数のデバイスによって実行される動作を指定するブロックのセットとして示されており、それぞれのブロックによって動作を実行するために示された順序に必ずしも限定されない。
[0090]入力は、コンピューティングデバイスのディスプレイデバイスによってユーザーインターフェースに表示された項目に関連付けられる自由形式の線として書かれたチェックマークとして認識される(ブロック1202)。たとえば、自由形式の線は、スタイラス110、およびユーザーの手108の指を使用して、あるいはナチュラルユーザーインターフェース(NUI)との対話を通じて書くことができる。さらに、チェックマークの自由形式の線は、項目の少なくとも一部の隣に、またはそこに重ねるなどして、項目の表示の上、またはその近くに書くことができる。
[0091]チェックマークジェスチャーは認識された入力から識別され、チェックマークジェスチャーは項目を選択するために有効である(ブロック1204)。複数の項目のうちのどれが入力に対応するかに関して決定が行われる(ブロック1206)。ジェスチャーモジュール112は、マーク付けから、ならびにそのマークが何の近くに書かれているか(たとえばリスト内の項目、コントロールなど)から、チェックマークジェスチャー122を識別できる。
[0092]項目の選択に応答して、選択された項目に関連付けられる動作の実行が開始される(ブロック1208)。たとえば、動作は、選択された項目に関連付けられるメニューの出力の開始(ブロック1210)、メニューの出力を含まない動作の実行(たとえば、表示されたコントロールに関連する動作を実行するため)などを含みうる。したがって、アクティブにするジェスチャー114のように、チェックマークジェスチャー122は項目を選択して動作を開始するために利用されうる。また、チェックマークジェスチャーは、チェックマークを受け取るように構成されたボックスなどの、項目に対応する表示されたセグメントに関連して提供されうる。他の様々な例も考えられる。
取消し線ジェスチャー
[0093]図13は、図1の取消し線ジェスチャー124の段階がコンピューティングデバイス102との対話を通じて入力されるものとして示されている例示的実装形態1300を示す。取消し線ジェスチャー124は、第1段階1302、第2段階1304、および第3段階1306を使用して図13に示されている。第1段階1302に、コンピューティングデバイス102のディスプレイデバイス106によってユーザーインターフェースが表示されている。前述の通り、この例のユーザーインターフェースは、列に配置された複数のリストを使用して、連絡先に関連する情報を出力するように構成されている。第1列は連絡先の名前を含むものとして示されており、第2列は名前を挙げられた連絡先の対応する住所を含むものとして示されている。
[0094]取消し線1308は、スタイラス110を使用して自由形式の線として書かれるものとして示されているが、ユーザーの手108の指を使用してタッチ入力を通じて、ナチュラルユーザーインターフェース(NUI)におけるカメラを介してキャプチャして、などの他の様々な方法でも実行されうる。図示された例では、取消し線は、連絡先リスト内の名前である項目の表示の「上」、および/またはそれを「貫いて」書かれている。取消し線の認識、および取消し線がユーザーインターフェースに表示された項目に関連付けられるという決定に応答して、ジェスチャーモジュール112は取消し線ジェスチャー124を識別できる。
[0095]この例では、取消し線ジェスチャー124は、ジェスチャーに関連付けられる項目を削除するように構成されている。たとえば、第2段階1304に示されるように、項目が削除されるべきであることを確認するために、識別に応答してメニュー1310が出力されうる。この例のメニュー1310は、項目を削除させるため(たとえば、「はい」のボタン)、または動作をキャンセルするため(たとえば、「いいえ」のボタン)に選択できる部分を含む。
[0096]さらに、この例では、削除されるべき項目は、ホールドを通じて焦点を有するものとして示されているが、影や、周辺の項目を明るくすることなどの、項目に焦点を適用するための他の技術も考えられる。さらに、取消し線ジェスチャーは、項目から取消し線を除去するために「一時的インク」表示の機能を組み込むものとしてさらに示されている。このようにして、障害なしに基本的項目を見ることができるが、焦点のさらなる形式として取消し線を維持することなどの他の実装形態も考えられる。
[0097]第3段階1306は、取消しジェスチャー124の例示的結果を示す。この例では、結果は、第2段階1304で太字にされた、および第1段階1302で取消し線を引かれた項目をリストから削除することを含む。次いで、リスト内の削除された項目の「下」に配置された項目が、リスト内の上方に移動する。ワードプロセッサ、表計算ソフト、テキストメッセージ送信、インスタントメッセージ送信などに関連するものなどの、取消し線ジェスチャーの使用の他の様々な例も考えられる。さらに、取消し線は様々な形式をとることができ、それらの他の例は以下の図面に関連して説明される。
[0098]図14は、図1の取消し線ジェスチャー124の段階がコンピューティングデバイス102との対話を通じて入力されるものとして示されている他の例示的実装形態1400を示す。取消し線ジェスチャー124は、第1段階1402および第2段階1404を使用して図14に示されている。第1段階1402に、リスト内の項目の取消し線として自由形式の線1406が再び示されている。しかし、この例では、自由形式の線1406は項目を「×で消す」として書かれている。前述の通り、この取消し線および関連項目はジェスチャーモジュール112によって取消し線ジェスチャー124として認識され、第2段階1404に示されるように関連項目を削除できる。本発明の趣旨および範囲から逸脱することなしに、様々な構成をとることができる自由形式の線を含む他の様々な取消し線も考えられる。
[0099]図15は、1つまたは複数の実施形態による、図1の取消し線ジェスチャー124の例示的実装形態における手順1500を示す流れ図である。手順の態様は、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せに実装されうる。この例では、手順は1つまたは複数のデバイスによって実行される動作を指定するブロックのセットとして示されており、それぞれのブロックによって動作を実行するために示された順序に必ずしも限定されない。
[00100]入力は、コンピューティングデバイスのディスプレイデバイスによってユーザーインターフェースに表示された項目に関連付けられる自由形式の線として書かれた取消し線として認識される(ブロック1502)。取消し線、図13に示されるような単一の自由形式の線、複数の自由形式の線(たとえば、図14に示されるような「×で消す」)、項目を実質的に覆う「くねくねした線」などの様々な形式をとることができる。さらに、自由形式の線は、たとえばスタイラス110、およびユーザーの手108の指を使用して、あるいはナチュラルユーザーインターフェース(NUI)との対話を通じて書くことができる。
[00101]取消し線ジェスチャーは認識された入力から識別され、取消し線ジェスチャーは項目を削除するために有効である(ブロック1504)。たとえば、ジェスチャーモジュール112は、ユーザーインターフェース内の線引き、および削除されうる対応する項目から取消し線ジェスチャー124を識別できる。
[00102]取消し線の識別に応答して、項目が削除されるべきであることを示すために、ユーザーインターフェースに表示された取消し線が除去されて、項目の表示が変更される(ブロック1506)。図13に示されるように、一旦取消し線ジェスチャーが削除されると、インクの表示を除去するために、たとえば「一時的インク」機能が使用されうる。さらに、図13の第2段階1304に示されるように、周辺ユーザーインターフェースに影を付けること、点滅させること、明るくすること、または暗くすることなどによって、削除されるべき特定の項目を確認するために項目は焦点を与えられうる。
[00103]動作が完了する前に、項目が削除されるべきであることを確定するためのメニュー1310などの、項目が削除されるべきであることを確認するために選択可能な部分を含む確認が出力される(ブロック1508)。前述の通り、ある実装形態では、本発明の趣旨および範囲から逸脱することなしに、確認せずに削除が実行されうる。
消去ジェスチャー
[00104]図16は、図1の消去ジェスチャー126の段階がコンピューティングデバイス102との対話を通じて入力されるものとして示されている例示的実装形態1600を示す。消去ジェスチャー126は、第1段階1702および第2段階1704を使用して図17に示されている。第1段階1702に、スタイラス110が示されている。この例では、ジェスチャーモジュール112は、スタイラス110の異なる端を認識して、それに応じて異なる機能を提供するように構成されている。たとえば、ジェスチャーモジュール112は、スタイラス110の第1の端1606は動作を書き込むために使用されるべきであり、スタイラスの第2の端1608は動作を消去するために使用されるべきであることを認識できる。したがって、ジェスチャーモジュール112は、スタイラス110の第2の端1608が、ディスプレイデバイス106によって表示された項目と対話するために使用されると、消去ジェスチャー126を識別できる。
[00105]たとえばユーザーは、図示された例における「ジャナ(Jana)」という名前などの項目の上でスタイラス110の第2の端1608をこすることができる。ジェスチャーモジュール112は、スタイラス110の第2の端1608が使用されており、広告の使用は名前を消去するために名前に関連付けられることを認識できる。消去動作は、消去ジェスチャー126を識別すると、第1段階1602に示されるように項目の一部を消去すること、または項目全体を消去することなどの、様々な方法で実行されうる。したがってユーザーは、第2段階1604における項目「ジャナ」の除去によって示されるように、直観的な方法でユーザーインターフェース内の項目を削除するために消去ジェスチャー126を利用できる。
[00106]この例ではスタイラス110の第2の端1608を「こすること」が説明されているが、消去ジェスチャー126は他の様々な方法で開始できる。たとえば、スタイラス110の第2の端1608は、項目の表示を「タップ」するために使用でき、動きはカメラなどを使用してナチュラルユーザーインターフェース(NUI)でキャプチャすることができ、そのさらなる説明は以下の図面に関連して見つけられよう。
[00107]図17は、1つまたは複数の実施形態による、図1の消去ジェスチャー126の例示的実装形態における手順1700を示す流れ図である。手順の態様は、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せに実装されうる。この例では、手順は1つまたは複数のデバイスによって実行される動作を指定するブロックのセットとして示されており、それぞれのブロックによって動作を実行するために示された順序に必ずしも限定されない。
[00108]入力は、消去動作に関連付けられるスタイラスの端によって項目とともに入力されているものとして認識され、その項目はコンピューティングデバイスのディスプレイデバイスによって表示されている(ブロック1702)。たとえば、項目は文字、文字の一部、単語、画像、アイコンなどでよい。項目を消去するために、図16に示されるように、消去されるべき項目の表示の上を第2の端1608でこすったり、項目の表示の上を第2の端1608でタップしたりするなど、消去ジェスチャー126を示すために消去動作に関連付けられるスタイラス110の第2の端1608を使用できる。
[00109]消去ジェスチャーは認識された入力から識別され、消去ジェスチャーはユーザーインターフェースから項目を削除するために有効である(ブロック1704)。前述の例を継続すると、ジェスチャーモジュール112は前述の入力から消去ジェスチャーを識別できる。それに応じて、ジェスチャーモジュール112は、図16の第1段階1602に示されるように文字の一部などの対応する項目を消去できる。さらに、項目は単語、画像、アイコンなどとして定義されうるので、項目の一部が消去されると(たとえば、第1段階1602に示されるように、文字「a」)、消去ジェスチャー126によって項目全体、たとえば「ジャナ」という名前全体が消去される。表示された項目を明るくするために消しゴムをまねるなどの、他の様々な例も考えられる。
丸を付けるジェスチャー
[00110]図18は、図1の丸を付けるジェスチャー128の段階がコンピューティングデバイス102との対話を通じて入力されるものとして示されている例示的実装形態1800を示す。丸を付けるジェスチャー128は、第1段階1802、第2段階1804、および第3段階1806を使用して図18に示されている。第1段階1802に、コンピューティングデバイス102のディスプレイデバイス106によってユーザーインターフェースが表示されている。前述の通り、この例のユーザーインターフェースは、名前の列および対応する住所の列を含む、列に配置された複数のリストを使用して、連絡先に関連する情報を出力するように構成されている。
[00111]丸1808は、スタイラス110を使用して自由形式の線として書かれるものとして示されているが、ユーザーの手108の指を使用してタッチ入力を通じて、ナチュラルユーザーインターフェース(NUI)におけるカメラを介してキャプチャして、などの他の様々な方法でも実行されうる。図示された例では、連絡先リスト内の「エリー」という名前である項目の表示の少なくとも一部の周りに丸が書かれている。閉じられた(すなわち完全な)丸が示されているが、自由形式の線の両端の間に隙間がある開いた丸が書かれてもよい。
[00112]丸の認識、およびその丸がユーザーインターフェースに表示された項目に関連付けられるという決定に応答して、ジェスチャーモジュール112は丸を付けるジェスチャー128を識別できる。次いで、丸を付けるジェスチャー128の識別を対応する項目を選択するために利用でき、第2段階1804に、連絡先の名前を編集するためにメニュー1810を出力させるように示されている。図示された実装形態では、ジェスチャーを識別すると自由形式の線1808を除去するために「一時的インク」機能が使用されているが、前述の通り他の実装形態も考えられる。
[00113]次いで、ユーザーはスタイラス110を使用してメニュー1810内に自由形式の線を書いて、この例における選択された項目を編集する、すなわち「エリー」から「エレノア(Eleanor)」に変更することができる。次いで、ジェスチャーモジュール112は、インク分析を使用して連絡先を変更でき、その結果は第3段階1806に示されており、名前リスト内のテキスト「エリー」が「エレノア」に置換されている。
[00114]丸を付けるジェスチャー128はリスト内の項目を選択するものとして示されているが、選択は様々な項目について実行されうる。たとえば、丸を付けるジェスチャー128は、ユーザーインターフェース内のボタン、アイコンなどを選択して、選択の結果として対応する動作を実行させるために利用されうる。丸を付けるジェスチャー128のさらなる説明は、以下の手順に関連して見つけられよう。
[00115]図19は、1つまたは複数の実施形態による、図1の丸を付けるジェスチャー128の例示的実装形態における手順1900を示す流れ図である。手順の態様は、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せに実装されうる。この例では、手順は1つまたは複数のデバイスによって実行される動作を指定するブロックのセットとして示されており、それぞれのブロックによって動作を実行するために示された順序に必ずしも限定されない。
[00116]入力は、項目の表示の少なくとも一部の周りに書かれた自由形式の線として認識され、その項目はコンピューティングデバイスのディスプレイデバイスのユーザーインターフェースに表示される(ブロック1902)。たとえば、自由形式の線はボタン、リスト内の項目などの周りに丸(完全な丸でも、両端が開いた丸でもよい)として書かれうる。
[00117]丸を付けるジェスチャーは認識された入力からコンピューティングデバイスによって識別され、丸を付けるジェスチャーは項目を選択するために有効である(ブロック1904)。前述の例を継続すると、ユーザーはスタイラス110、ユーザーの手108の指、NUIとの対話など使用して、選択されるべき項目に丸を付けるか、少なくとも部分的に囲むことができる。ジェスチャーモジュール112は、これらの入力を丸を付けるジェスチャー128として識別して、そのジェスチャーに関連付けられる項目、たとえばボタン、リスト上の項目、アイコンなどを選択できる。したがって、ジェスチャーモジュール112は、様々な入力を利用して項目を選択するように構成されうる。
優先順位を付けるジェスチャー
[00118]図20は、図1の優先順位を付けるジェスチャー130の段階がコンピューティングデバイス102との対話を通じて入力されるものとして示されている例示的実装形態1800を示す。優先順位を付けるジェスチャー130は、第1段階2002および第2段階2004を使用して図20に示されている。第1段階2002に、コンピューティングデバイス102のディスプレイデバイス106によってユーザーインターフェースが表示されている。この例では、ユーザーインターフェースは「やるべきことのリスト」、および実行するためにユーザーが記したいくつかの項目を表示している。
[00119]感嘆符2006は、スタイラス110を使用して自由形式の線として書かれるものとして示されているが、ユーザーの手108の指を使用してタッチ入力を通じて、ナチュラルユーザーインターフェース(NUI)におけるカメラを介してキャプチャして、などの他の様々な方法でも実行されうる。図示した例では、感嘆符2006はリスト内の「税金を納める(Finish Taxes)」という項目の隣に書かれている。
[00120]感嘆符2006の認識、および感嘆符2006がユーザーインターフェースに表示された項目(たとえば、「税金を納める」という項目)に関連付けられるという決定に応答して、ジェスチャーモジュール112は優先順位を付けるジェスチャー130を識別できる。次いで、優先順位を付けるジェスチャー130の識別は、そのジェスチャーに関連付けられる項目に優先順位を付けるために、この例では第2段階2004に示されるようにリストのトップに項目を表示するために利用されうる。
[00121]図示された実装形態では、ジェスチャーを識別すると、感嘆符2006を除去するために「一時的インク」機能が使用されるが、他の実装形態も考えられる。たとえば感嘆符は、項目のフォントに合うフォント(たとえば、「税金を納める!」)に変換して、その項目に残ってその項目にも優先順位が付けられたことを示すことができる。さらに、優先順位を付けられた項目のグループがリストの「トップ」に表示されるように、同様の方法で後続の項目に優先順位を付けることができる。さらに、優先順位のレベルを示すために、「!」、「!!」、「!!!」などのさらなる感嘆符が使用されうる。次いで、表示用に優先順位が付けられた項目をグループ化するために、これらのレベルが使用されうる。他の様々な例も考えられ、それらのさらなる説明は以下の手順に関連して見つけられよう。
[00122]図21は、1つまたは複数の実施形態による、図1の優先順位を付けるジェスチャー130の例示的実装形態における手順2100を示す流れ図である。手順の態様は、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せに実装されうる。この例では、手順は1つまたは複数のデバイスによって実行される動作を指定するブロックのセットとして示されており、それぞれのブロックによって動作を実行するために示された順序に必ずしも限定されない。
[00123]入力は、コンピューティングデバイスのディスプレイデバイスのユーザーインターフェースに表示された項目に関連付けられる自由形式の線として書かれた感嘆符として認識される(ブロック2102)。たとえば、自由形式の線はスタイラス110、ユーザーの手108の指などを使用して書かれうる。さらに、自由形式の線は、感嘆符がその項目に関連付けられ、他の項目には関連付けられないことを示すために、項目の隣および/またはその「上」に書かれうる。
[00124]優先順位を付けるジェスチャーは認識された入力からコンピューティングデバイスによって識別され、優先順位を付けるジェスチャーは項目に優先順位を付けるために有効である(ブロック2104)。たとえば、項目はリストの先頭に配置されるように優先順位を付けられうる(ブロック2106)。他の例では、たとえば重要なものとして項目にフラグが付けられうる(ブロック2108)。複数の項目のうちの1つまたは複数に優先順位を割り当てるために優先順位を付けるジェスチャー130が使用される、他の様々な例も考えられる。
アプリケーショントレイジェスチャー
[00125]図22は、図1のアプリケーショントレイジェスチャー132の段階がコンピューティングデバイス102との対話を通じて入力されるものとして示されている例示的実装形態2200を示す。アプリケーショントレイジェスチャー132は、第1段階2202、第2段階2204、および第3段階2206を使用して図22に示されている。第1段階2202に、ディスプレイデバイス106の端の近くに表示されるものとしてアプリケーショントレイ2208が示されている。また、アプリケーショントレイ2208は、コンピューティングデバイス上で現在実行されているアプリケーションの表示を含むものとして示されている。それらのアプリケーションの例には「電子メール」、「ブラウザ」、および「ゲーム」がある。
[00126]表示の選択は、たとえばユーザーの手108の指、スタイラス110などを使用して表示をタップすることによって、ユーザーインターフェースを対応するアプリケーションへナビゲートさせることができる。アプリケーショントレイ2208は、表示されたアプリケーション(たとえば、アイコン)の実行を開始するために選択できるアプリケーションの表示、コンピューティングデバイス102のフォルダおよび/またはコントロールパネルへナビゲートするための「スタート」メニューへのアクセス、日時表示、自動的に隠す機能を含むこと、などの他の様々な機能も含みうる。
[00127]ユーザーの手108は、アプリケーショントレイ2208を選択するものとして第1段階に示されており、この例ではタッチ入力を介して2点の接触を使用して実行される。コンピューティングデバイス102によって入力の検出に関するフィードバックを表示でき、この例ではユーザーの手108の指の接触点の周りの点線の丸を使用して示されている。したがって、この例では2点の接触は、たとえば表示されたアプリケーション(たとえば、電子メール)へナビゲートするために使用されるものなどの1点の接触と区別するために使用されうる。ユーザーの手108の1本の指を介する1点の接触、スタイラス110などを使用してアプリケーショントレイ2208を選択するなどの、他の例も考えられる。
[00128]第2段階2204で、続いてユーザーの手108が第1段階2302に示されたディスプレイデバイス106の端から動く。その結果、ジェスチャーモジュール112はアプリケーショントレイジェスチャー132を認識して、アプリケーショントレイ2208をディスプレイデバイス106の他の端に表示するために動かすことができる。この例では、アプリケーショントレイ2208の表示は、ユーザーの手108の後続の動きに続く。さらに、アプリケーショントレイ2208はそれが動いていることを示すように表示でき、たとえば、第2段階2304に極めて細い線の使用を通じて示されているように、アプリケーショントレイ2208を少なくとも部分的に透明にすることができる。
[00129]第3段階2206に、アプリケーショントレイ2208との接触を開放する結果が示されており、アプリケーショントレイ2208は後続の表示のためにディスプレイデバイス106の他の端に動かされる。たとえば、ユーザーの手108の指は、ディスプレイデバイス106の端の近くに動かして、次いでディスプレイデバイス106から離すことができる。ジェスチャーモジュール112はアプリケーショントレイジェスチャー132のこの部分を、アプリケーショントレイ2208を表示するために、ユーザーの手108の指に最も近いディスプレイデバイス106の端を選択するものとして解釈できる。
[00130]したがって、この例では、アプリケーショントレイ2208は、メニュー内をナビゲートせずにユーザーインターフェースのディスプレイデバイス106の端の間を移動できる。さらに、この例では、ユーザーインターフェースは基本的な項目の視覚性を維持するために移行され、たとえば図示した例では画像は「上方」に移動される。アプリケーショントレイジェスチャー132のさらなる説明は、以下の手順に関連して見つけられよう。
[00131]図23は、1つまたは複数の実施形態による、図1のアプリケーショントレイジェスチャー132の例示的実装形態における手順2300を示す流れ図である。手順の態様は、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せに実装されうる。この例では、手順は1つまたは複数のデバイスによって実行される動作を指定するブロックのセットとして示されており、それぞれのブロックによって動作を実行するために示された順序に必ずしも限定されない。
[00132]入力は、コンピューティングデバイスのディスプレイデバイスのユーザーインターフェースに表示されたアプリケーショントレイを選択するもの、およびディスプレイデバイスのある端からディスプレイデバイスの他の端に向かう後続の動きとして認識される(ブロック2302)。たとえば、入力はスタイラス110、ユーザーの手108の1本または複数の指、NUIにおける入力などを使用する、アプリケーショントレイ2208の選択を含みうる。たとえば、図22に示されるように、第1段階2202でアプリケーショントレイ2208を選択するために2点の接触が使用され、その2点の後続の動きがアプリケーショントレイ2208を表示するために移動するべき場所を示すために使用される。
[00133]アプリケーショントレイジェスチャーは認識された入力からコンピューティングデバイスによって識別され、アプリケーショントレイジェスチャーはディスプレイデバイスの他の端に表示するためにアプリケーショントレイを動かすために有効である(ブロック2304)。前述の例を継続すると、ジェスチャーモジュール112は、入力の選択および後続の動きを認識できる。ジェスチャーモジュール112は、入力のソースをディスプレイデバイス106から離すことによってアプリケーショントレイを「解放」することなどの、アプリケーショントレイジェスチャー132の完了も認識できる。したがってこの例では、アプリケーショントレイは、1つまたは複数のメニューを通じてナビゲートせずにアプリケーショントレイジェスチャー132の利用を通じて動かされうる。本発明の趣旨および範囲から逸脱することなしに、他の様々な例も考えられる。
例示的デバイス
[00134]図24は、本明細書に記載のジェスチャー技術の実施形態を実装するために、図1および2を参照して説明したような、任意の種類のポータブルおよび/またはコンピューターデバイスとして実装されうる例示的デバイス2400の様々なコンポーネントを示す。デバイス2400は、デバイスデータ2404(たとえば、受信したデータ、受信されているデータ、ブロードキャスト用にスケジュールされているデータ、データのデータパケットなど)の有線および/または無線通信ができるようにする通信デバイス2402を含む。デバイスデータ2404または他のデバイスコンテンツは、デバイスの構成設定、デバイスに格納されたメディアコンテンツ、および/またはデバイスのユーザーに関連付けられる情報を含むことができる。デバイス2400に格納されたメディアコンテンツは、任意の種類の音声、ビデオ、および/または画像データを含むことができる。デバイス2400は、1つまたは複数のデータ入力2406を含み、それを介して、ユーザー選択可能な入力、メッセージ、音楽、テレビメディアコンテンツ、録画されたビデオコンテンツ、ならびに任意のコンテンツおよび/またはデータソースから受信した他の任意の種類の音声、ビデオ、および/または画像データなどの、任意の種類のデータ、メディアコンテンツ、および/または入力を受信できる。
[00135]デバイス2400は、1つまたは複数のシリアルおよび/またはパラレルインターフェース、無線インターフェース、任意の種類のネットワークインターフェース、モデム、ならびに他の任意の種類の通信インターフェースとして実装されうる通信インターフェース2408も含む。通信インターフェース2408は、デバイス2400と通信ネットワークとの間の接続および/または通信リンクを提供し、それによって他の電子、コンピューティング、および通信デバイスがデバイス2400と通信する。
[00136]デバイス2400は1つまたは複数のプロセッサ2410(たとえば任意のマイクロプロセッサ、コントローラ、および同様のもの)を含み、それによって、デバイス2400の動作をコントロールするため、およびタッチプルインジェスチャー(touch pull−in gesture)の実施形態を実装するために、様々なコンピューター実行可能命令を処理する。あるいは、またはそれに加えて、デバイス2400は、一般に2412で識別される処理および制御回路とともに実装されるハードウェア、ファームウェア、または固定論理回路の任意の1つ、あるいはそれらの組合せに実装されうる。図示されていないが、デバイス2400は、デバイス内の様々なコンポーネントを結合するシステムバスまたはデータ転送システムを含みうる。システムバスは、メモリバスまたはメモリコントローラなどの異なるバス構造、周辺機器用バス、ユニバーサルシリアルバス、および/あるいは任意の様々なバスアーキテクチャーを利用するプロセッサまたはローカルバスの任意の1つまたはそれらの組合せを含みうる。
[00137]デバイス2400は、1つまたは複数のメモリコンポーネントなどのコンピューター読み取り可能な媒体2414も含み、その例にはランダムアクセスメモリ(RAM)、不揮発性メモリ(たとえば、読出し専用メモリ(ROM)、フラッシュメモリ、EPROM、EEPROMなどの任意の1つまたは複数)、およびディスクストレージデバイスがある。ディスクストレージデバイスは、ハードディスクドライブ、記録可能および/または書換え可能コンパクトディスク(CD)、任意の種類のデジタル多用途ディスク(DVD)、および同様のものなどの、任意の種類の磁気または光ストレージデバイスとして実装されうる。デバイス2400は大容量ストレージ媒体デバイス2416も含みうる。
[00138]コンピューター読み取り可能な媒体2414は、デバイスデータ2404を格納するためのデータストレージメカニズム、ならびに様々なデバイスアプリケーション2418、ならびにデバイス2400の動作態様に関連する他の任意の種類の情報および/またはデータを提供する。たとえば、オペレーティングシステム2420は、コンピューター読み取り可能な媒体2414を備えたコンピューターアプリケーションとして維持されて、プロセッサ2410上で実行されうる。デバイスアプリケーション2418は、デバイスマネージャ(たとえば、制御アプリケーション、ソフトウェアアプリケーション、信号処理および制御モジュール、特定のデバイスに固有のコード、特定のデバイスのためのハードウェア抽象化レイヤなど)を含みうる。デバイスアプリケーション2418は、本明細書に記載のジェスチャー技術の実施形態を実装するための、任意のシステムコンポーネントまたはモジュールも含む。この例では、デバイスアプリケーション2418は、ソフトウェアモジュールおよび/またはコンピューターアプリケーションとして示されている、インターフェースアプリケーション2422および入力モジュール2424(入力モジュール114と同じでもよく、異なるものでもよい)を含む。入力モジュール2424は、タッチスクリーン、トラックパッド、カメラなどの、入力をキャプチャするように構成されたデバイスをインターフェースに提供するために使用されるソフトウェアの代表である。あるいは、またはそれに加えて、インターフェースアプリケーション2422および入力モジュール2424は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せとして実装されうる。さらに、入力モジュール2424は、タッチ入力およびスタイラス入力をそれぞれプチャするための別々のデバイスなどの、複数の入力デバイスをサポートするように構成されうる。たとえば、デバイスは、1つはタッチ入力をキャプチャするように構成されており、もう1つはスタイラス入力をキャプチャするように構成されている、2重ディスプレイデバイスを含むように構成でされうる。
[00139]デバイス2400は、音声データを音声システム2428に、および/またはビデオデータをディスプレイシステム2430に提供する、音声および/またはビデオ入出力システム2426も含む。音声システム2428および/またはディスプレイシステム2430は、音声、ビデオ、および画像データを処理、表示、および/またはレンダリングする任意のデバイスを含みうる。ビデオ信号および音声信号は、RF(無線周波数)リンク、S−ビデオリンク、コンポジットビデオリンク、コンポーネントビデオリンク、DVI(デジタルビデオインターフェース)、アナログ音声接続、または他の類似の通信リンクを介して、デバイス2400から音声デバイスおよび/またはディスプレイデバイスに通信されうる。ある実装形態では、音声システム2428および/またはディスプレイシステム2430は、デバイス2400の外部コンポーネントとして実装される。あるいは、音声システム2428および/またはディスプレイシステム2430は、例示的デバイス2400の内蔵コンポーネントとして実装される。
結論
[00140]本発明を構造的特徴および/または方法論的行為(methodological act)に特有の言語で説明してきたが、添付の特許請求の範囲において定義された本発明は、記載した特定の特徴または行為に必ずしも限定されないことが理解されるべきである。むしろ、特定の特徴および行為は、特許請求の範囲に記載された発明を実装する形式の例として開示されるものである。

Claims (10)

  1. 入力を、コンピューティングデバイスのディスプレイデバイスによってユーザーインターフェースに表示されたリストに関連して書かれた自由形式の線として認識するステップと、
    前記認識された入力からジャンプジェスチャーを識別するステップであって、前記ジャンプジェスチャーが、前記入力の認識された自由形式の線を、前記入力に対応する前記リスト内の少なくとも1つの項目にジャンプするための基礎として使用するために有効である、ステップと
    を含む方法。
  2. 前記自由形式の線が少なくとも1つの文字に対応し、前記少なくとも1つの項目が前記少なくとも1つの文字を含む請求項1に記載の方法。
  3. 前記コンピューティングデバイスによって前記入力が認識および識別されると、前記コンピューティングデバイスによってリアルタイムに前記ジャンプを実行するステップをさらに含む請求項1に記載の方法。
  4. 前記入力が複数の文字を含み、それぞれの前記文字が受信されると前記ジャンプが実行される請求項1に記載の方法。
  5. 前記入力に対応する前記リスト内の前記少なくとも1つの項目への前記ジャンプが、前記少なくとも1つの項目を含む前記リストの一部の表示を含む請求項1に記載の方法。
  6. 前記ユーザーインターフェースが複数の前記リストを含み、前記識別するステップが、前記複数のリストのうちのどれが前記入力に対応するかを決定するステップを含む請求項1に記載の方法。
  7. 入力を、コンピューティングデバイスのディスプレイデバイスによってユーザーインターフェースに表示された項目に関連付けられる自由形式の線として書かれたチェックマークとして認識するステップと、
    前記認識された入力からからチェックマークジェスチャーを識別するステップであって、前記チェックマークジェスチャーが前記項目を選択するために有効であるステップと
    を含む方法。
  8. 前記項目が項目のリスト内に含まれる請求項7に記載の方法。
  9. 前記選択が、前記選択された項目に関連付けられる動作の実行を開始するために有効である請求項7に記載の方法。
  10. 前記ユーザーインターフェースが複数の前記項目を含み、前記識別するステップが、前記複数の項目のうちのどれが前記入力に対応するかを決定するステップを含む請求項7に記載の方法。
JP2013514209A 2010-06-08 2011-05-29 ジャンプ、チェックマーク、および取消し線のジェスチャー Pending JP2013528304A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/796,476 2010-06-08
US12/796,476 US8635555B2 (en) 2010-06-08 2010-06-08 Jump, checkmark, and strikethrough gestures
PCT/US2011/038475 WO2011156159A2 (en) 2010-06-08 2011-05-29 Jump, checkmark, and strikethrough gestures

Publications (2)

Publication Number Publication Date
JP2013528304A true JP2013528304A (ja) 2013-07-08
JP2013528304A5 JP2013528304A5 (ja) 2014-06-19

Family

ID=45065467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013514209A Pending JP2013528304A (ja) 2010-06-08 2011-05-29 ジャンプ、チェックマーク、および取消し線のジェスチャー

Country Status (6)

Country Link
US (1) US8635555B2 (ja)
EP (1) EP2580643B1 (ja)
JP (1) JP2013528304A (ja)
CN (2) CN102985904A (ja)
CA (1) CA2800108C (ja)
WO (1) WO2011156159A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11144196B2 (en) 2016-03-29 2021-10-12 Microsoft Technology Licensing, Llc Operating visual user interface controls with ink commands

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101696930B1 (ko) * 2010-07-21 2017-01-16 엘지전자 주식회사 이동 단말기에서 보호 모드 실행방법 및 그 방법을 이용한 이동 단말기
KR101802759B1 (ko) * 2011-05-30 2017-11-29 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
EP2640043B1 (en) * 2012-03-13 2017-08-16 BlackBerry Limited Device cover with drawing pad input device
US8866769B2 (en) 2012-03-13 2014-10-21 Blackberry Limited Device cover with drawing pad input device
JP2013196599A (ja) * 2012-03-22 2013-09-30 Sharp Corp タッチユーザインターフェイスを備える情報表示端末、当該情報表示端末を制御するための方法、および、当該情報表示端末を制御するためのプログラム
KR101413286B1 (ko) * 2012-05-02 2014-07-01 주식회사 팬택 전자 장치 및 이를 위한 잠금 해제 장치와 방법
US20140002376A1 (en) * 2012-06-29 2014-01-02 Immersion Corporation Method and apparatus for providing shortcut touch gestures with haptic feedback
CN102830904B (zh) * 2012-06-29 2016-08-10 鸿富锦精密工业(深圳)有限公司 电子设备及其图片插入方法
KR20140008985A (ko) * 2012-07-13 2014-01-22 삼성전자주식회사 사용자 단말에서 사용자 인터페이스 장치 및 방법
US9110587B2 (en) 2012-07-13 2015-08-18 Samsung Electronics Co., Ltd. Method for transmitting and receiving data between memo layer and application and electronic device using the same
KR20140014510A (ko) * 2012-07-24 2014-02-06 삼성전자주식회사 음성 인식에 의하여 형성된 문자의 편집 방법 및 그 단말
US20140059455A1 (en) * 2012-08-22 2014-02-27 Sap Ag System and method for efficiently selecting data entities represented in a graphical user interface
US8640046B1 (en) * 2012-10-23 2014-01-28 Google Inc. Jump scrolling
CN104423988B (zh) * 2013-09-02 2019-02-05 联想(北京)有限公司 一种信息处理方法及电子设备
CN104866213A (zh) * 2014-02-20 2015-08-26 联想(北京)有限公司 一种信息处理方法以及电子设备
CN105025331A (zh) * 2015-07-22 2015-11-04 无锡天脉聚源传媒科技有限公司 一种控制视频播出的方法及装置
US10210383B2 (en) 2015-09-03 2019-02-19 Microsoft Technology Licensing, Llc Interacting with an assistant component based on captured stroke information
US10387034B2 (en) * 2015-09-03 2019-08-20 Microsoft Technology Licensing, Llc Modifying captured stroke information into an actionable form
CN105718199A (zh) * 2016-01-20 2016-06-29 广东欧珀移动通信有限公司 应用程序的控制方法及移动终端
US20170255455A1 (en) * 2016-03-03 2017-09-07 International Business Machines Corporation Automated customization of software feature availability based on usage patterns and history
CN109831579B (zh) 2019-01-24 2021-01-08 维沃移动通信有限公司 一种内容删除方法、终端及计算机可读存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225663A (ja) * 1994-02-09 1995-08-22 Fujitsu Ltd 手書情報入力装置
JPH0869461A (ja) * 1994-05-13 1996-03-12 Apple Computer Inc コンピューターシステム用テキスト変換方法
JPH10105324A (ja) * 1996-09-09 1998-04-24 Motorola Inc 直感的なジェスチャ方式のグラフィカル・ユーザ・インタフェース
JP2002024246A (ja) * 2000-07-12 2002-01-25 Just Syst Corp ホームページ検索装置、ホームページ検索方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2003062975A1 (fr) * 2002-01-22 2003-07-31 Fujitsu Limited Dispositif et procede de selection d'un element de menu
JP2007188410A (ja) * 2006-01-16 2007-07-26 Sharp Corp 電子辞書装置、電子辞書検索方法、及び電子辞書プログラム
JP2009140287A (ja) * 2007-12-07 2009-06-25 Alpine Electronics Inc 検索結果表示装置
JP2009530708A (ja) * 2006-03-15 2009-08-27 マイクロソフト コーポレーション 検索絞り込みユーザ・インターフェース
WO2010010918A1 (ja) * 2008-07-25 2010-01-28 シャープ株式会社 情報処理装置および情報処理方法
WO2010027006A1 (ja) * 2008-09-03 2010-03-11 日本電気株式会社 ジェスチャー入力操作装置、方法、プログラム及び携帯デバイス

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0667567B1 (en) * 1993-12-30 2001-10-17 Xerox Corporation Apparatus and method for supporting the implicit structure of freeform lists, outlines, text, tables, and diagrams in a gesture-based input system and editing system
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
EP1717677B1 (en) * 1998-01-26 2015-06-17 Apple Inc. Method and apparatus for integrating manual input
US6337698B1 (en) * 1998-11-20 2002-01-08 Microsoft Corporation Pen-based interface for a notepad computer
US7093202B2 (en) * 2002-03-22 2006-08-15 Xerox Corporation Method and system for interpreting imprecise object selection paths
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
JP2006053678A (ja) * 2004-08-10 2006-02-23 Toshiba Corp ユニバーサルヒューマンインタフェースを有する電子機器
US7764837B2 (en) 2004-09-01 2010-07-27 Hewlett-Packard Development Company, L.P. System, method, and apparatus for continuous character recognition
US7701457B2 (en) * 2006-02-21 2010-04-20 Chrysler Group Llc Pen-based 3D drawing system with geometric-constraint based 3D cross curve drawing
GB2452644B (en) * 2006-10-10 2009-09-16 Promethean Ltd Automatic tool docking
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US7954067B2 (en) * 2007-03-16 2011-05-31 Apple Inc. Parameter setting superimposed upon an image
US8060841B2 (en) * 2007-03-19 2011-11-15 Navisense Method and device for touchless media searching
US7693842B2 (en) 2007-04-09 2010-04-06 Microsoft Corporation In situ search for active note taking
JP2009054133A (ja) * 2007-07-27 2009-03-12 Aisin Aw Co Ltd ナビゲーション装置及びナビゲーション用プログラム
US20100031202A1 (en) 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
TW201009650A (en) 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
US20100100854A1 (en) 2008-10-16 2010-04-22 Dell Products L.P. Gesture operation input system
US8446377B2 (en) * 2009-03-24 2013-05-21 Microsoft Corporation Dual screen portable touch sensitive computing system
US8519960B2 (en) * 2009-09-17 2013-08-27 Aten International Co., Ltd. Method and apparatus for switching of KVM switch ports using gestures on a touch panel

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225663A (ja) * 1994-02-09 1995-08-22 Fujitsu Ltd 手書情報入力装置
JPH0869461A (ja) * 1994-05-13 1996-03-12 Apple Computer Inc コンピューターシステム用テキスト変換方法
JPH10105324A (ja) * 1996-09-09 1998-04-24 Motorola Inc 直感的なジェスチャ方式のグラフィカル・ユーザ・インタフェース
JP2002024246A (ja) * 2000-07-12 2002-01-25 Just Syst Corp ホームページ検索装置、ホームページ検索方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2003062975A1 (fr) * 2002-01-22 2003-07-31 Fujitsu Limited Dispositif et procede de selection d'un element de menu
JP2007188410A (ja) * 2006-01-16 2007-07-26 Sharp Corp 電子辞書装置、電子辞書検索方法、及び電子辞書プログラム
JP2009530708A (ja) * 2006-03-15 2009-08-27 マイクロソフト コーポレーション 検索絞り込みユーザ・インターフェース
JP2009140287A (ja) * 2007-12-07 2009-06-25 Alpine Electronics Inc 検索結果表示装置
WO2010010918A1 (ja) * 2008-07-25 2010-01-28 シャープ株式会社 情報処理装置および情報処理方法
WO2010027006A1 (ja) * 2008-09-03 2010-03-11 日本電気株式会社 ジェスチャー入力操作装置、方法、プログラム及び携帯デバイス

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11144196B2 (en) 2016-03-29 2021-10-12 Microsoft Technology Licensing, Llc Operating visual user interface controls with ink commands

Also Published As

Publication number Publication date
EP2580643B1 (en) 2017-09-27
US20110302530A1 (en) 2011-12-08
US8635555B2 (en) 2014-01-21
CN109375865A (zh) 2019-02-22
WO2011156159A3 (en) 2012-04-05
CA2800108A1 (en) 2011-12-15
EP2580643A2 (en) 2013-04-17
CN102985904A (zh) 2013-03-20
WO2011156159A2 (en) 2011-12-15
EP2580643A4 (en) 2016-04-06
CA2800108C (en) 2018-03-06

Similar Documents

Publication Publication Date Title
JP2013528304A (ja) ジャンプ、チェックマーク、および取消し線のジェスチャー
US20110304556A1 (en) Activate, fill, and level gestures
JP7377319B2 (ja) タッチ感知式セカンダリディスプレイにおいてユーザインタフェースコントロールを動的に提供するシステム、デバイス、及び方法
US20170300221A1 (en) Erase, Circle, Prioritize and Application Tray Gestures
US11321041B2 (en) Systems, devices, and methods for dynamically providing user interface controls at a touch-sensitive secondary display
JP6151242B2 (ja) イマーシブアプリケーションとしてのデスクトップ
TWI601128B (zh) 用於上下文切換的語音辨識之電腦實施方法及系統
US20140237378A1 (en) Systems and method for implementing multiple personas on mobile technology platforms
EP2357556A1 (en) Automatically displaying and hiding an on-screen keyboard
RU2623885C2 (ru) Запись формулы для ограниченного устройства отображения
CN103649902B (zh) 沉浸式和桌面外壳的显示
US20130014053A1 (en) Menu Gestures
CN110851068A (zh) 用于管理用户界面的方法和电子设备
US10430071B2 (en) Operation of a computing device functionality based on a determination of input means
JP2023542666A (ja) 操作方法及び装置
US20130332872A1 (en) System and method for drag hover drop functionality
KR20210146629A (ko) 제스처 기반 기능 실행 방법 및 장치

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150406

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160225

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160303

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160408