JP2014531688A - 全方向ジェスチャー入力 - Google Patents

全方向ジェスチャー入力 Download PDF

Info

Publication number
JP2014531688A
JP2014531688A JP2014533452A JP2014533452A JP2014531688A JP 2014531688 A JP2014531688 A JP 2014531688A JP 2014533452 A JP2014533452 A JP 2014533452A JP 2014533452 A JP2014533452 A JP 2014533452A JP 2014531688 A JP2014531688 A JP 2014531688A
Authority
JP
Japan
Prior art keywords
sensor
input
axis
gesture
axis space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014533452A
Other languages
English (en)
Other versions
JP6046729B2 (ja
JP2014531688A5 (ja
Inventor
ホーヴィッツ,エリック
ヒンクリー,ケネス・ピー
ベンコ,フルヴォイェ
タン,デスニー・エス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014531688A publication Critical patent/JP2014531688A/ja
Publication of JP2014531688A5 publication Critical patent/JP2014531688A5/ja
Application granted granted Critical
Publication of JP6046729B2 publication Critical patent/JP6046729B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Abstract

本発明の実施形態は、ハンドヘルドデバイスのようなデバイスの拡張された相互作用空間内のユーザー入力を検出するためのシステム、方法、およびコンピューター記憶媒体に関する。方法およびシステムは、ユーザーの非デバイス接触ジェスチャーのような第1の入力を検出するために、デバイスの正のz軸空間内で感知するデバイスの第1のセンサーを利用することを可能にする。方法およびシステムは、また、第2の入力を検出するために、デバイスの負のz軸空間内で感知するデバイスの第2のセンサーを利用することを考える。加えて、方法およびシステムは、正のz軸空間内での第1のセンサーによる第1の入力の検出、および、負のz軸空間内での第2のセンサーによる第2の入力の検出に応答して、ディスプレイ上に提示されるユーザーインターフェースを更新することを考える。

Description

[0001]従来、ユーザーは、限られた空間の体積内で、通常はデバイスのディスプレイ表面上で、ハンドヘルドデバイスと相互作用する。例えば、接触感知ディスプレイを有するスマートフォンは、ユーザーが、表示画面に直接隣接する空間の体積内で、デバイスおよびユーザーインターフェースと相互作用することを可能にする。ユーザーインターフェースおよびユーザー間のほぼ平坦な領域にユーザー相互作用を限定することは、ユーザーに利用可能な相互作用のタイプを限定し、ユーザーインターフェースの閉塞のような、ユーザービリティの問題をもたらす可能性がある。したがって、比較的二次元の範囲にユーザー相互作用の領域を限定することは、ユーザーが、ユーザーインターフェースに提示されたオブジェクトを自然にかつ直感的に操作することを妨げる。
[0002]本発明の実施形態は、デバイスの周囲の空間内のユーザージェスチャーを検出するためのシステム、方法、およびコンピューター記憶媒体に関する。具体的には、態様は、ハンドヘルドデバイスの前方のユーザージェスチャーを、第1のセンサーで検出する工程と、また、ハンドヘルドデバイスの背後のユーザージェスチャーを、第2のセンサーで検出する工程とを含むことができる。非デバイス接触ジェスチャーであってよいジェスチャーの検出の結果として、ユーザーインターフェースは、ジェスチャーに基づいて、入力を反映するように更新されてよい。
[0003]この概要は、詳細な説明で以下にさらに説明される簡略化した形式で概念の選択を紹介するために提供される。この概要は、特許請求された主題の主要な特徴または本質的な特徴を示すことを意図されず、特許請求された主題の範囲を決定する助けとして使用されることも意図されない。
[0004]本発明の例示的な実施形態が、参照により本明細書に組み込まれる添付図面を参照して、以下に詳細に説明される。
[0005]本発明の実施形態を実施するのに適した例示的なコンピューティングシステムを示す図である。 [0006]本発明の実施形態による、デバイスに対する正のz軸空間と負のz軸空間の両方での入力を感知することができる例示的なデバイスを示す図である。 [0007]本発明の実施形態によるデバイスの正面斜視図を示す図である。 [0008]本発明の実施形態による、図2で論じたデバイスの背面斜視図である。 [0009]本発明の実施形態によるデバイスの側面形状を示す図である。 [0010]本発明の実施形態によるデバイスの様々な使用中の向きを示す図である。 本発明の実施形態によるデバイスの様々な使用中の向きを示す図である。 本発明の実施形態によるデバイスの様々な使用中の向きを示す図である。 本発明の実施形態によるデバイスの様々な使用中の向きを示す図である。 本発明の実施形態によるデバイスの様々な使用中の向きを示す図である。 [0011]本発明の実施形態による、デバイスの正のz軸空間と負のz軸空間の両方でのユーザー入力を検出するための方法を示すブロック図である。 [0012]本発明の実施形態による、デバイスの正のz軸空間と負のz軸空間の両方でのユーザー入力を検出するための追加の方法を示すブロック図である。
[0013]本発明の実施形態の主題は、法的要件を満たすために、本明細書に具体的に説明される。しかしながら、説明自体は、本発明の範囲を限定することを意図されない。むしろ、本発明者らは、特許請求された主題は、他の現在のまたは将来の技術と組み合わせた、本文書に記載されたものと同様の工程または工程の組み合わせを含む、他の方法で実施されてもよいと考えた。
[0014]本発明の実施形態は、デバイスを取り囲むが常には接触しない領域を含むように、物理的デバイスを超えた空間内のユーザージェスチャーを検出するためのシステム、方法、およびコンピューター記憶媒体に関する。例えば、態様は、ハンドヘルドデバイスの前方のユーザージェスチャーを第1のセンサーで検出する工程と、また、ハンドヘルドデバイスの背後のユーザージェスチャーを第2のセンサーで検出する工程とを含むことができる。非デバイス接触ジェスチャーであってよいジェスチャーの検出の結果として、ユーザーインターフェースは、ジェスチャーに基づいて、入力を反映するように更新されてよい。
[0015]したがって、一態様では、本発明は、プロセッサーおよびメモリーを利用するコンピューティング環境で、デバイスの正のz軸空間と負のz軸空間の両方でのユーザー入力を検出するための方法を提供する。方法は、第1の入力を検出するために、デバイスの正のz軸空間で感知するデバイスの第1のセンサーを利用する工程を含む。第1の入力は、非デバイス接触ジェスチャーである。方法は、また、第2の入力を検出するために、デバイスの負のz軸空間で感知するデバイスの第2のセンサーを利用する工程を含む。さらに、方法は、正のz軸空間での第1のセンサーによる第1の入力の検出、および、負のz軸空間での第2のセンサーによる第2の入力の検出に応答して、ディスプレイ上に提示されたユーザーインターフェースを更新する工程を含む。
[0016]別の態様では、本発明は、デバイスの正のz軸空間と負のz軸空間の両方でのユーザー入力を検出するためのデバイスを提供する。デバイスは、前側および反対の後側を有するデバイス本体で構成される。前側は、正のz軸空間の方に向けられ、後側は、負のz軸空間の方に向けられる。デバイスは、デバイス本体に結合された、デバイスの正のz軸空間内の非デバイス接触ユーザージェスチャーを検出するための第1のセンサーからも構成される。センサーの結合は、デバイスの1つまたは複数の部分(例えば、ディスプレイ)へのセンサーの組み込みを含むことができる。デバイスはさらに、デバイス本体に結合された、デバイスの負のz軸空間内の非デバイス接触ユーザージェスチャーを検出するための第2のセンサーで構成される。加えて、デバイスは、デバイス本体に結合された、デバイスの正のz軸空間内の非デバイス接触ユーザージェスチャーを感知する第1のセンサーからの第1の入力を処理し、デバイスの負のz軸空間内の非デバイス接触ユーザージェスチャーを感知する第2のセンサーからの第2の入力を処理するためのプロセッサーで構成される。プロセッサーは、デバイスの回路ボードまたは他の構成要素へ組み込まれることによって、プロセッサーが、デバイス本体に効果的に結合されるように、本体に間接的に結合されてよい。
[0017]本発明の第3の態様は、コンピューター実行可能命令が埋め込まれたコンピューター記憶媒体を提供し、コンピューター実行可能命令は、プロセッサーおよびメモリーを有するコンピューティングシステムによって実行されると、コンピューティングシステムに方法を実行させる。方法は、第1の光学系センサーを利用して、デバイスの正のz軸空間内の非デバイス接触ユーザージェスチャーを検出する工程で構成される。方法は、さらに、第2の光学系センサーを利用して、デバイスの負のz軸空間内の非デバイス接触ユーザージェスチャーを検出する工程で構成される。方法は、加えて、正のz軸空間内で第1のセンサーにより検出された非デバイス接触ユーザージェスチャー、および負のz軸空間内で第2のセンサーにより検出された非デバイス接触ユーザージェスチャーが第1の入力であることを、プロセッサーにより判定する工程で構成される。方法は、また、正のz軸空間内および負のz軸空間内の非デバイス接触ジェスチャーが、第1の入力であるということの判定に応答して、ディスプレイ上のユーザーインターフェースを調整する工程で構成される。
[0018]したがって、本発明の態様は、デバイスを取り囲む空間の体積内のユーザーの相互作用(例えば、非接触ジェスチャー)を検出することを考えた。例えば、デバイスから外側に延びる球状領域は、ユーザーがデバイスと相互作用することができるが、依然としてデバイスを越えて相互作用する空間を定義することができる。以下で論じられるように、デバイスを取り囲む空間は、デバイス内/上の点のような点から正と負の両方向に延びるように、少なくとも部分的に定義されてよい。このように、本明細書で提供されるいくつかの態様は、正の空間および負の空間(例えば、正のz軸および負のz軸)内の相互作用を感知することに言及し、これは、デバイスを取り囲む空間の体積内のデバイスとの相互作用を検出する概念を包含する。
[0019]本発明の実施形態の概要を簡単に説明し、本明細書の実施形態を実施するのに適した例示的な動作環境が、以下で説明される。
[0020]全体的に図面を、具体的には最初に図1を参照し、本発明の実施形態を実施するのに適した例示的な動作環境が、コンピューティングデバイス100として全体的に示され、指定される。コンピューティングデバイス100は、適切なコンピューティング環境の一例に過ぎず、本発明の使用または機能の範囲についていかなる限定を示唆することも意図されない。また、コンピューティングデバイス100は、図示されたモジュール/構成要素のいずれかまたは組み合わせに関するいかなる依存性または要件を有すると解釈されるべきではない。
[0021]実施形態は、パーソナルデーターアシスタントまたは他のハンドヘルドデバイスのようなコンピューターまたは他のマシンによって実行される、プログラムモジュールのようなコンピューター実行可能命令を含む、コンピューターコードまたは機械使用可能な命令の一般的な文脈で説明され得る。一般に、ルーチン、プログラム、オブジェクト、モジュール、データー構造、などを含むプログラムモジュールは、特定のタスクを実行する、または、特定の抽象データー型を実装するコードを指す。実施形態は、ハンドヘルドデバイス、民生用電子機器、汎用コンピューター、特殊コンピューティングデバイス、などを含む、様々なシステム構成で実施されてよい。実施形態は、通信ネットワークを介してリンクされるリモート処理デバイスによってタスクが実行される、分散コンピューティング環境で実施されてもよい。
[0022]引き続き図1を参照し、コンピューティングデバイス100は、以下のデバイス、すなわち、メモリー112、1つまたは複数のプロセッサー114、1つまたは複数のプレゼンテーションモジュール116、入力/出力(I/O)ポート118、I/Oモジュール120、および説明的な電源122を、直接または間接的に結合するバス110を含む。バス110は、(アドレスバス、データーバス、またはこれらの組み合わせのような)1つまたは複数のバスであってよいものを表す。図1の様々なブロックは、明瞭にする目的のため、線で示されるが、様々なモジュールの輪郭を描くことは、それほど明確ではなく、比喩的に、線は、より正確には、グレーでファジーである。例えば、表示装置のようなプレゼンテーションモジュールを、I/Oモジュールであるように考えることができる。また、プロセッサーは、メモリーを有する。本発明者らは、それが技術の性質であることを認識し、図1の図が、1つまたは複数の実施形態に関連して使用され得る例示的なコンピューティングデバイスの単なる例示であると、反復して述べる。すべては、図1の範囲内で、「コンピューター」または「コンピューティングデバイス」への参照と考えられるため、「ワークステーション」、「サーバー」、「ラップトップ」、「ハンドヘルドデバイス」、などのようなカテゴリ間で区別は行われない。
[0023]コンピューティングデバイス100は、典型的に、様々なコンピューター可読媒体を含む。例として、限定ではなく、コンピューター可読媒体は、ランダムアクセスメモリー(RAM)、読み取り専用メモリー(ROM)、電子的に消去可能な読み取り専用メモリー(EEPROM)、フラッシュメモリーもしくは他のメモリー技術、CDROM、デジタル多用途ディスク(DVD)もしくは他の光もしくはホログラフィック媒体、磁気カセット、磁気テープ、磁気ディスクストレージもしくは他の磁気記憶装置、または、所望の情報を符号化するために使用可能で、コンピューティングデバイス100によってアクセス可能な、任意の他の媒体を含むことができる。
[0024]メモリー112は、揮発性および/または不揮発性メモリーの形態の、非一時的コンピューター記憶媒体を含む。メモリーは、リムーバブル、非リムーバブル、またはこれらの組み合わせであってよい。例示的なハードウェアデバイスは、固体メモリー、ハードドライブ、光ディスクドライブ、などを含む。コンピューティングデバイス100は、メモリー112またはI/Oモジュール120のような様々な実体からデーターを読み取る1つまたは複数のプロセッサーを含む。プレゼンテーションモジュール(複数可)116は、ユーザーまたは他のデバイスにデーター表示を提示する。例示的なプレゼンテーションモジュールは、表示装置、スピーカ、印刷モジュール、振動モジュール、などを含む。I/Oポート118は、コンピューティングデバイス100が、そのいくつかが組み込まれてよいI/Oモジュール120を含む他のデバイスに論理的に結合されることを可能にする。例示的なモジュールは、マイクロホン、ジョイスティック、ゲームパッド、サテライトディッシュ、スキャナー、プリンター、無線デバイス、などを含む。
[0025]図2は、本発明の実施形態による、正のz軸空間と負のz軸空間の両方でデバイスの周囲の入力を感知することができる例示的なデバイス200を示す。デバイス200は、例示的な実施形態では、携帯電話、コントローラー、ゲームデバイス、および/または他の電子デバイスのようなハンドヘルドデバイスである。例えば、デバイス200は、少なくとも部分的に、無線通信ネットワーク(例えば、Wi−Fi、CDMA、GSM(登録商標)、PCS、およびUMTS)を利用して通信することができるモバイル通信デバイスであると考えられる。加えて、デバイス200は、例示的な実施形態では、1つまたは複数の追加のコンピューティングデバイス(例えば、ビデオゲームコンソール、パーソナルコンピューター、セットトップボックス、別のハンドヘルドデバイス)のための入力デバイスであると考えられる。したがって、デバイス200は、正のz軸空間内と負のz軸空間内の両方での検出可能な入力を利用することができる(図1に関連して上述したような)任意のコンピューティングデバイスであってよい。
[0026]図2のデバイス200は、デバイス200に対する空間の体積を定義するために使用可能な例示的なデカルト軸を示す。具体的には、x軸208、y軸210、およびz軸202が、デバイス200に対して示される。しかしながら、本明細書で説明されるように、軸(例えば、z軸)は、デバイスの周囲の任意の空間でジェスチャーの検出を可能にするために、デバイスに対して任意の場所および任意の向きで配置されてよいと考えられる。したがって、ジェスチャー入力は、任意の(および、すべての)面の360度で検出されてよく、結果として、デバイスの周囲の全方向ジェスチャー検出をもたらすと考えられる。図2に示すようなデバイス200は、y軸210と実質的に平行な垂直側面218を有する。また、図2に示すようなデバイス200は、x軸208と実質的に平行な水平上面216を有する。デバイス200は、また、前面212および背面214で構成される。前面212は、例示的な実施形態では、ディスプレイのようなユーザーインターフェース(「UI」)にアクセスするための面である。加えて、前面212は、(接触活性化型ディスプレイおよび/またはディスプレイとは独立した物理的ボタンとしてUIが組み込まれた)1つまたは複数のボタンで構成されてよい。さらにまた、前面212は、1つもしくは複数のオーディオ出力構成要素(例えば、スピーカ)、および/または、1つもしくは複数のオーディオ入力構成要素(例えば、マイクロホン)で構成されてよいと考えられる。
[0027]図2は、正のz軸204および負のz軸206を有するデバイス200を示す。正のz軸は、原点201から、デバイス200の前面212側でx軸208およびy軸210によって画定される平面に対して垂直に延びる。逆に、負のz軸は、原点201から、デバイス200の背面214上のx軸208およびy軸210によって画定される平面に対して垂直に延びる。正のz軸204方向に、x軸208およびy軸210によって画定される平面から外側に延びる空間の体積は、本明細書では、正のz軸空間と呼ばれる。同様に、負のz軸206方向に、x軸208およびy軸210によって画定される平面から外側に延びる空間の体積は、本明細書では、負のz軸空間と呼ばれる。結果として球状領域のような空間の体積は、ユーザーが(例えば、非接触ジェスチャーを使用して、および/または、接触ジェスチャーを使用して)デバイスと相互作用することができる領域を確定するように、デバイスから外向きに延びることができる。
[0028]一般に、z軸は、デバイス200に対して任意の向きおよび任意の場所で配向されてよい。例えば、前面212から延びるとのは対照的に、正のz軸空間は、代わりに、側面218または上面216から延びることができる。以下の一貫した議論を容易にするために、図2に示す様々な軸の全体的な向きは、維持されることになる。しかしながら、様々な軸の配向は、デバイス(例えば、デバイス200)に対する様々な場所および向きで考えられ、したがって、本発明の実施形態に適合することが理解される。結果として、z軸という用語が、本明細書で使用されるが、z軸は、デバイスの任意の軸を表すことができることが理解され、したがって、デバイスに対する特定の方向とは独立した、デバイスの周囲の任意の広げられた相互作用空間で、ジェスチャーを最終的に検出するために、デバイスの第1の側およびデバイスの第2の側でジェスチャーを検出することが考えられる。
[0029]図3は、本発明の実施形態によるデバイス300の正面斜視図を示す。デバイス300は、上述した図2のデバイス200と同様であってよい。デバイス300は、上端302、左側面304、右側面306、および下端308で構成されてよい。デバイス300は、実質的に矩形の幾何学的形状で示されるが、任意の幾何学的形状が実現されてよいことが理解される。例えば、デバイス300は、改善された人間的要素、感触、市場性、などのために、1つまたは複数の有機的幾何学的形状を組み込むことができる。例えば、ゲーミングコンピューターコンソールと通信するゲームコントローラーは、デバイスの予想される意図される使用シナリオ(例えば、可搬性、保管、ユーザーの一次的接触)に少なくとも部分的に基づいて、スマートフォンと異なる幾何学的形状を有することができる。
[0030]デバイス300は、さらに、ディスプレイ310で構成される。ディスプレイ310は、UIの1つまたは複数の要素を表示することができる。例えば、スマートフォンの例では、UIは、スマートフォンのオペレーティングシステムによって生成される1つまたは複数のグラフィカル要素を含むことができる。加えて、ディスプレイ310は、接触応答性スクリーンであることが考えられる。例えば、ディスプレイ310は、ユーザーの接触を登録するために、1つまたは複数の接触ベースの入力検出機構(または、スタイラスのような他の入力デバイス)を含むことができる。例は、容量性タッチスクリーン、抵抗性タッチスクリーン、および/または、スクリーンでユーザーが提供する入力を検出することができる同様のものを利用することを含むことができる。追加の例示的な実施形態では、ディスプレイ310は、単に、追加の機能的応答性なしに、情報の1つまたは複数の部分を提示することができる。
[0031]本発明の例示的な実施形態では、ディスプレイ310は、デバイス300の正のz軸空間(または、負のz軸空間)内の1つまたは複数のユーザージェスチャーを少なくとも部分的に検出するために機能すると考えられる。例えば、ディスプレイ310は、様々な技術を利用して、非接触ユーザージェスチャーを検出することができる。例示的な技術は、表示面(例えば、正のz軸空間内に漂うユーザの手)に提示されるような画像を、ディスプレイの1つまたは複数のエッジに転写する制御された屈折光学入力機構を含むことができる。この概念は、例示的な実施形態では、ワシントン州レドモンドのマイクロソフトコーポレーションによって展開される「ウェッジ(Wedge(登録商標))」を利用して達成されてよい。しかしながら、追加の技術が同様に考えられる(例えば、非接触ジェスチャーに対して感度がよい容量性スクリーン)。
[0032]デバイス300は、さらに、1つまたは複数のジェスチャーセンサーで構成される。ジェスチャーセンサーは、ユーザー入力としてジェスチャーを少なくとも部分的に検出することができる感知構成要素である。4つのジェスチャーセンサーが、図3のデバイス300の前面に示される。しかしながら、無しを含む任意の数が実装されてよいことが理解される。例えば、ジェスチャーセンサーは、既存の構成要素(例えば、ディスプレイ310、オーディオ入力デバイスおよびオーディオ出力デバイス、デバイス300の本体)に組み込まれてよい。ジェスチャーセンサー312、314、316、および318は、デバイス300の周縁部に隣接して配置されているように示される。しかしながら、ジェスチャーセンサーは、デバイス300の任意の場所に配置されてよいことが理解される。例示的な実施形態では、正のz軸空間内のユーザージェスチャーを検出するための単一のジェスチャーセンサーが、デバイス300に組み込まれてよい。この例では、ジェスチャーセンサーは、カメラのような光学デバイスであると考えられる。例えば、モバイル通信デバイスに慣例的であるように、静止画または動画を撮影することができるカメラが、さらにユーザージェスチャーを取り込むように適合されてよい。
[0033]加えて、ジェスチャーセンサーは、深さ情報の1つまたは複数の部分を取り込むことができると考えられる。例えば、深度カメラ(例えば、ワシントン州レドモンドのマイクロソフトコーポレーションから利用可能なキネクト(Kinect(登録商標))に関連して使用されるカメラ)が、意図された入力としてユーザージェスチャーを検出するために利用されてよい。さらにまた、ジェスチャーセンサーは、既存の感知技術(例えば、デバイスに内蔵されたカメラ)を利用することができる。例えば、カメラによって撮影され得る「画素」を、所望の空間(例えば、正の軸および/または負の軸方向にデバイスから外側に延びる半球状体積)を取り込むパターンに分散させるために、1つまたは複数の導波路が、デバイスに組み込まれてよいと考えられる。1つまたは複数の技術が、取り込まれる領域を、カメラの意図される範囲を越えて広げることができるため、所望の解像度を提供するために、画素を時間多重化することが利用されてよいと考えられる。
[0034]したがって、ジェスチャーセンサーは、光学ベースの技術(例えば、カメラ)、容量ベースの技術、抵抗ベースの技術、温度ベースの技術、超音波ベースの技術、圧力ベースの技術、などであってよい。技術(および、同様の技術)の様々な組み合わせが、組み合わせで実装されてよい。例えば、近接感知技術(例えば、容量性)が、z軸の第1の方向のジェスチャーのために使用されてよく、第2の技術(例えば、光学的)が、z軸の第2の方向で利用されてよいと考えられる。さらに、様々な感知技術が、意図された入力としてジェスチャーを検出するために、共通のz軸空間(例えば、正、負)で利用されてよいと考えられる。
[0035]図4は、本発明の実施形態によるデバイス300の背面斜視図を示す。負のz軸空間が、図4の背面斜視図の結果として示されてよい。複数のジェスチャーセンサーが、図4に示される。例えば、ジェスチャーセンサー402、404、406、408、および410が示される。図3に関連して上述したように、ジェスチャーセンサーの数、位置、および向きは、単に、本質的に例示であるように提供され、限定ではない。したがって、ジェスチャーセンサーは、デバイス300の負のz軸空間内のジェスチャーを感知するのに適した任意の場所でデバイス300に結合されてよいと考えられる。例えば、別のデバイスの独立したセンサー(例えば、リモートカメラ、リモートセンサー)のようなジェスチャーセンサーが、デバイス300にリモートで結合されてよい。加えて、図3に関連して説明したように、任意の組み合わせの任意のタイプのジェスチャーセンサーが、利用されてよいと考えられる。さらに、図3および4のジェスチャーセンサーは、カメラタイプのセンサーとして示されるが、ジェスチャーセンサーは、任意のサイズ、形状、および外観のものであってよいと考えられる。したがって、ジェスチャーセンサーは、視覚的に識別可能である別個の構成要素でさえなくてもよいが、代わりに、デバイスの1つまたは複数の構成要素(例えば、既存の構成要素、デバイス本体)に一体化されてもよい。
[0036]ジェスチャーセンサー(複数可)の場所は、予想されるユーザーモードに依存してよい。例えば、ユーザーが、右手でデバイスの正および負のz軸空間内でジェスチャーの大部分を実行すると予想される場合、ジェスチャーセンサーは、ジェスチャーに近いデバイスのエッジの方へのジェスチャー活動を検出することに有利な場所に配置されてよい。しかしながら、デバイスのジェスチャーセンサーの可能な場所を決定する際、デバイスの向き(例えば、縦、横)も、考慮されてよい。
[0037]ジェスチャーセンサーは、非接触ジェスチャー、接触ジェスチャーを検出することができるセンサー、および、デバイスの内部姿勢/向きを検出することができるセンサーを含むことができる。例えば、非接触ジェスチャーセンサーは、適合されたレンズを利用するカメラを含むことができる。例示的な態様では、適合されたレンズは、魚眼レンズのような、分散された角度の視野を提供することができる。
[0038]実装され得る追加の感知技術は、少なくとも部分的に、例えば、デバイスのエッジに沿って配置されてよい近接赤外線センサーを含む(近接IR感知技術は、その全体が参照により本明細書に組み込まれる米国特許出願第11/948,802号でさらに論じられる)。実装され得る追加の感知技術は、少なくとも部分的に、以下でより詳細に論じられる光導波路または光学くさびを含む。さらに、非接触ジェスチャーを検出することができる容量性センサーが実装されてよいと考えられる。さらに、1つまたは複数の構成要素(例えば、スピーカー、マイクロホン)を使用する、人間の耳によって聞くことができない音の感知は、様々な実施形態では、同様に、近接感知を提供することができると考えられる。
[0039]図5は、本発明の実施形態によるデバイス500の側面形状を示す。デバイス500は、上面502、底面504、前面506、および背面508で構成される。使用中、ユーザーは、典型的に、デバイス500のディスプレイを見るために、前面506と相互作用する。前面506は、前面510と一致し、平行である前額面(frontal plane)510を画定することができる。例示的なz軸が前額面510と交差する点は、正のz軸512および負のz軸514が互いから離れる基準原点を提供する。例えば、正のz軸空間は、この例では、背面508を通過することなく、デバイス500から離れて広がる。原点、ならびに、したがって、正および負のz軸が互いから離れる点は、z軸に沿った任意の点に配置されてよいと考えられる。
[0040]本発明の例示的な実施形態では、デバイス500は、正のz軸空間内のジェスチャーを感知する機能の第1のジェスチャーセンサーで構成される。加えて、本発明の例示的な実施形態では、デバイス500は、負のz軸空間内のジェスチャーを感知する機能の第2のジェスチャーセンサーで構成される。追加の例示的な実施形態では、第1のジェスチャーセンサーは、負のz軸空間内のジェスチャーを検出するための機能ではない。同様に、例示的な実施形態では、第2のジェスチャーセンサーは、正のz軸空間内のジェスチャーを検出するための機能ではない。言い換えれば、第1のジェスチャーセンサーおよび第2のジェスチャーセンサーは、この例示的な実施形態では、正のz軸と負のz軸の両空間でのジェスチャーを検出するために、組み合わせて使用されなければならない。
[0041]図6は、本発明の実施形態による、使用中の向き600でのデバイス601を示す。図6は、第1の手608(例えば、右手)および第2の手610(例えば、左手)でデバイス601を操作するユーザーを示す。第1の手608は、デバイス601のy軸604の周りを回転して表示される。例えば、回転方向インジケーター624は、y軸604の周りで第1の手608によって行われる回転運動を示すために示される。y軸604に垂直なx軸602も、デバイス601のディスプレイ606を横切って水平に示される。
[0042]第1の手608は、第1指612および親指614で構成される。第2の手は、第1指618および親指616で構成される。図6の例示的な向きに示されるように、第2の手610は、第1指618を使用して第1の点622で、および、親指616を使用して第2の点620で、第1の側に沿ってデバイス601と接触している。後述するように、デバイス601は、意図されるジェスチャー、デバイス601の向き、および/または、ジェスチャーの予想されるタイプを決定するのを助けるために、接触の場所を検出するための1つまたは複数の接触センサー(または、任意のタイプのセンサー)を含むことができる。第1の手608は、デバイス601の上方に配向され、第1指612および親指614は、互いに分離され、捻るタイプのジェスチャーでy軸604の周りを回転させるために動作可能である。
[0043]y軸604の周りの第1の手608の回転は、手の部分(例えば、第1指612、親指614)を、正のz軸空間から負のz軸空間に(または、その逆に)移行させる。例えば、第1の手608は、「蓋」の中心が、ほぼy軸に配置されるように、瓶の蓋を、締め付けるのと同様のジェスチャーを行うことができる。このジェスチャーを成し遂げるために、第1指612および親指614は、正のz軸空間および負のz軸空間内で蓋を「掴み」、物理的な蓋を掴むときに指/親指の組み合わせが進むことになる経路をまねるように、回転ジェスチャーを開始する。
[0044]代わりに、第2の手610が、y軸604の周りでデバイス601を回転させながら、第1の手608は、実質的に静止状態に保持されてよいと考えられる。1つまたは複数のジェスチャーセンサーは、デバイス601の移動または第1の手608の移動の間の違いを認識することができないが、他の感知技術が、差別化を助けることができる。例えば、デバイス601は、回転運動の見かけを生成するために、デバイス601が移動しているかどうか、または、第1の手608が移動しているかどうかを検出することができる1つまたは複数の加速度計を組み込むことができる。加えて、ジェスチャーセンサー自体が(プロセッサーとの組み合わせで)、デバイス601または第1の手608が動く物体であるかどうかを決定することもできる。例えば、ジェスチャーセンサーが光学的である場合、ジェスチャーが検出されている間、背景の風景が実質的に一定のままである場合、第1の手608が移動していることを示すことができるという推論が行われてよい。代わりに、背景の風景が、検出された動きと実質的に同様に動いているように見える場合、デバイス601は、操作されていることを示すことができる。
[0045]いずれかの手が、デバイス601を保持するために使用されてよく、別の手が、1つまたは複数のジェスチャーを提供するために利用されてよいと考えられる。同様に、追加のジェスチャーが、図示の例示的構成で考えられる。例えば、第1指612および親指614は、正と負の両方のz軸空間(デバイス601の前面と背面の両方)の空間を組み込む、挟むようなジェスチャー(例えば、第1指612および親指614間の距離を減少させる)を実行することができる。
[0046]前述のように、デバイス601は、1つまたは複数の追加のセンサーを組み込むことができる。例えば、感知技術は、接触入力を検出するために利用されてよい。接触ジェスチャーは、デバイスおよび入力機構(例えば、スタイラス、指)の物理的接触を結果としてもたらすジェスチャーである。非デバイス接触ジェスチャーは、入力/ジェスチャーを受信するデバイスに物理的に接触しないものである。例えば、非デバイス接触ジェスチャーは、例えば、デバイスの表面から1mmまたはさらに離れた距離で、ユーザーによって実行されてよい。他の距離(より大きいまたはより小さい)は、非デバイス接触ジェスチャーの定義の範囲内にあると考えられる。利用され得る追加のセンサーは、加速度計、磁力計、ジャイロセンサー、全地球測位システム(例えば、GPS)、電磁センサー、などを含むことができる。
[0047]接触入力を検出するための第3のセンサーを利用する例示的な態様に戻る。第3のセンサーは、上述した任意のタイプのセンサーであってよい。例えば、容量性タッチセンサーが、接触の場所が決定され得るように、デバイスの1つまたは複数の部分に組み込まれてよい。したがって、ユーザーが、デバイスを保持するために(または、入力を提供するために)デバイスに接触する場合、デバイスは、接触ジェスチャーが提供されたこと、および、それが提供された場所を決定することができてよい。
[0048]例えば、1つまたは複数のセンサーが、デバイスの周囲(または側面)に沿って(例えば、図6の近接点622および点620)、デバイスと結合されてよい。接触センサーは、次に、デバイスが、1つまたは複数のセンサーに対応するこれらの場所で接触されていることを識別することができる。したがって、ユーザーが、デバイスに対してどのように配向されるかについて、推論が行われてよい。例えば、接触が、点622と620の両方に登録される場合、同じ手の別の指が、反対側でデバイスと接触することができる場所と比較して、親指が、慣例的には側面に沿ってより低い点でデバイス601と接触することができるように、左手がデバイス601を掴んでいることの決定がなされてよい。加えて、特定のユーザーが、経時的にどのようにデバイスと相互作用するのかを学習するために、学習アルゴリズムが導入されてよいと考えられる。さらに、ユーザーがデバイスを保持/操作する特定の方法を識別するために、1つまたは複数の追加のセンサー(例えば、加速度計、深度カメラ、カメラ)が、単独または組み合わせて利用されてもよい。
[0049]したがって、ジェスチャーセンサーが、1つまたは複数の接触センサー(および、内部姿勢/配向センサーのような、デバイスの1つまたは複数の追加のセンサー)が組み合わされる場合、デバイスは、例示的な実施形態では、検出される非デバイス接触ジェスチャーが、意図される入力である場合を推論することができる。例えば、接触センサーは、ジェスチャーセンサーによって検出されるジェスチャーが、意図される入力であり、単に検出されたノイズではないという推論を活性化するような、モード選択機構であってよい。同様に、デバイスは、例示的な実施形態では、ジェスチャーセンサー(例えば、非デバイス接触ジェスチャーを検出するように機能するセンサー)および/またはデバイスの追加のセンサーによって感知される情報に基づいて、接触入力が、意図された入力である場合を推論する機能のものである。実際には、デバイスは、入力/ジェスチャーの意図について決定を行う場合、1つまたは複数のプロセッサーを利用する。
[0050]図7は、本発明の実施形態による、使用中の向き700でのデバイス701を示す。図7は、第1の手708(例えば、右手)および第2の手710(例えば、左手)でデバイス701を操作するユーザーを示す。第1の手708は、デバイス701のx軸702の周りを回転して示される。例えば、回転方向インジケーター724は、x軸702の周りで第1の手708によって行われる回転運動を示すために示される。x軸702に垂直なy軸704も、デバイス701のディスプレイ706を横切って垂直に示される。
[0051]第1の手708は、x軸702の周りの回転の非デバイス接触ジェスチャーを実行する過程にある親指714および指712で構成される。第1の手708(および、取り付けられた親指714および指712)の回転は、正のz軸空間(例えば、デバイスの前面側)と負のz軸空間(例えば、デバイスの背面側)の両方を横切る。したがって、デバイスの前面の慣例的な相互作用空間、ならびに、デバイスの背後の空間の両方を横切る3次元ジェスチャーが取り込まれることが可能であり、これは、以前には利用できない方法で、ユーザーがデバイスと相互作用する能力を提供する。
[0052]第2の手710は、この例では、親指716が、点720でデバイス701と接触しているように、デバイス701と接触している。加えて、指718は、点722でデバイス701と接触している。例示的な態様では、デバイス701は、点720での接触を検出するために機能するセンサー、および、点718での接触を検出するために機能するセンサーで構成される。前述したように、これらの点での接触の検出は、第2の手710が、デバイス701を保持しており、第1の手708が、1つまたは複数の非デバイス接触ジェスチャーを提供するために動作可能であることを推論するために使用可能であってよい。したがって、デバイス701は、一般的に手708によるもののような、検出されたジェスチャーが、デバイス701の1つまたは複数の態様(例えば、ディスプレイ706に提示されるUI)を操作するための意図された入力であることを推論することができる。
[0053]デバイス701、第1の手708、第2の手710、および/または他の部材(例えば、スタイラス、ポインター)の追加の向きが考慮される。さらに、追加のセンサー、センサーの場所、感知技術、および上記の組み合わせが、本発明の範囲内で考慮される。
[0054]上記で論じたように、本発明の態様は、向き、ジェスチャー、ならびに/または、デバイスおよび/もしくはユーザーの意図を識別するために、非接触センサー(例えば、深度カメラ、可視光カメラ、IRカメラ、容量、超音波、など)、接触センサー、および/または、デバイス姿勢/配向センサー(例えば、加速度計、磁力計、ジャイロ、GPS、電磁センサー、など)を、任意の組み合わせで使用することを考慮する。例えば、接触センサー、非接触センサー、および、内部姿勢/配向センサーは、ユーザーのどの手がデバイスを保持しているか、デバイスが移動しているかどうか、ユーザーがジェスチャーを提供しているかどうか、などを識別することができる。
[0055]図8は、本発明の実施形態による、使用中の向き800でのデバイス801を示す。図8は、第1の手810(例えば、右手)および第2の手812(例えば、左手)でデバイス801を操作するユーザーを示す。さらに、x軸は、デバイス801に沿って水平に横切っているように示される。z軸は、x軸802に対して垂直に垂直方向に延びるように示される。一般に、図8に示されるユーザーは、正のz軸空間806と負のz軸空間808の両方で様々なジェスチャーを提供している。様々なジェスチャーは、正および負のz軸空間内で移動する第1の手810および第2の手812の1つまたは複数の部分を含む。しかしながら、1つの非デバイス接触ジェスチャーのみが、正のz軸空間および負のz軸空間の各々で1つの手の1つの部分によって実行されると考えられる。しかし、本発明の実施形態は、デバイス801に対する様々な場所で生じる様々なジェスチャーを考える。
[0056]第1の手810は、親指814が、正のz軸空間内に配置され、指816が、負のz軸空間内に配置されるように配置される。同様に、第2の手812の親指820は、正のz軸空間806内に配置され、第2の手812の指822は、デバイス801の負のz軸空間808内に配置される。さらに、この例では、第1の手のひら部分818が、場所826でデバイス801と接触している。第2の手のひら部分824も、デバイス801と接触しているが、第2の手のひら部分824は、デバイス801上の場所828でデバイス801と接触している。この例では、親指814および820、ならびに指816および822によるジェスチャーは、デバイス801が、この例では、826および828に近い位置で接触を検出する場合、意図された入力として推測されてよい。場所826および828は、本質的に例示的であり、1つまたは複数の非デバイス接触ジェスチャーが意図されたジェスチャーであるという推論を提供するために、追加の接触領域が使用されてよい。
[0057]図8に示される例示的な使用中の向きを続けて、ユーザーは、正のz軸空間806と負のz軸空間808の一方または両方での非デバイス接触ジェスチャーで、1つまたは複数の手の1つまたは複数の部分を操作することができる。例えば、親指814および指816は、共通の時間に、共通の方向に移動することができると考えられる。逆に、親指814および指816は、共通の時間中に、異なる方向に移動することができると考えられる。例えば、親指814は、デバイス801の方に(すなわち、下向きに)移動することができ、指816は、同時に、デバイス801の方でもある反対方向に(すなわち、上向きに)移動すると考えられる。別の例は、親指814が、デバイス801のディスプレイ表面803によって画定される平面と実質的に平行な平面内で移動する間、z軸804と実質的に平行な方向に移動する指816を含むことができる。別の例は、仮想物体の一部が、負のz軸空間内に知覚され、仮想物体の別の部分が、正のz軸空間内に知覚されるように、x、y、および/またはz軸方向に仮想物体を移動させる意図で、仮想物体を親指814および指816間に挟むことを含む。手の任意の部分は、正および/または負のz軸空間の任意の部分内で、任意の時間に、任意の方向に移動することができると考えられる。
[0058]第1の手810と同様に、第2の手812は、任意の組み合わせで、任意の時間に、正および/または負のz軸空間の任意の部分を操作することができる。さらに、第1の手810および第2の手812は、調和して作業すると考えられる。例えば、負のz軸空間と正のz軸空間の両方の一部であるとしてユーザーによって知覚される仮想物体が、第1の手810および/または第2の手812の部分によって、摘まれ、引き伸ばされ、圧縮され、掴まれ、および別な方法で操作されてよい。
[0059]例示的な実施形態では、ディスプレイ803は、3次元UIとしてユーザーによって知覚されるUIを提供する機能のものであると考えられる。例えば、ディスプレイは、ディスプレイ803およびユーザーの目(複数可)間に配置される1つまたは複数のレンズと組み合わされてよい。ディスプレイおよびレンズの組み合わせは、当該技術分野で既知の3次元パースペクティブを提供することができる。3次元視覚的体験を提供するための他の技術(例えば、ホログラム、裸眼3次元ディスプレイ、3次元視野のための適合された視覚的出力を有するウェッジ)が考えられる。
[0060]前述のように、正のz軸空間806内で感知する少なくとも第1のジェスチャーセンサー、および、負のz軸空間808内で感知する少なくとも第2のジェスチャーセンサーと組み合わせて、追加のセンサーが使用されてよい。例えば、1つまたは複数の場所(例えば、場所826、場所828、およびディスプレイ803)での接触を検出するために、デバイス801に結合された1つまたは複数の接触センサー。非デバイス接触ジェスチャーを検出するため、および、検出されたジェスチャーの意図を決定する際に支援するために使用されてよい追加のセンサーは、ビデオカメラ、スチルカメラ、加速度計、などを含むことができる。
[0061]さらに、図8は、第1の手810および第2の手812間に縦方向の向きに配置されたデバイス801を示すが、デバイス801は、任意の代わりの向き(例えば、横方向)であってよいと考えられる。
[0062]図9は、本発明の実施形態による、使用中の側面形状の向き900でのデバイス901を示す。図9は、第1の手910(例えば、右手)および第2の手912(例えば、左手)でデバイス901を操作するユーザーを示す。図9は、z軸904に対して垂直なx軸902も示す。z軸904は、示された向きでデバイス901から上方に離れてx軸から延びる正のz軸空間906を画定する。同様に、z軸904は、示された向きでデバイス901から下方に離れてx軸から延びる負のz軸空間908を画定するために利用可能である。
[0063]第2の手912は、デバイス901と接触するように示され、第1の手910は、正のz軸空間906と負のz軸空間908の両方で1つまたは複数の非デバイス接触ジェスチャーを提供するように示される。再び、上述したように、デバイス901は、正のz軸空間906内の非デバイス接触ジェスチャーを感知する第1のセンサー、負のz軸空間908内の非デバイス接触ジェスチャーを感知する第2のセンサー、場所920でデバイス901と接触する指922を感知する第3のセンサーで構成されてよい。少なくとも、場所920(および、併せて追加の場所が考えられる)でデバイス901と接触する指922を感知することに基づいて、ユーザーがデバイス901をどのように操作(例えば、相互作用、保持)しているかについての推論が行われてよい。デバイス901がどのように操作されているかについての決定に基づいて、第1のセンサーおよび/または第2のセンサーによって検出されたジェスチャーが、入力として使用されるように意図されたジェスチャーであるかどうかについての推論が行われてよい。
[0064]親指914および指916の様々な運動が考えられる。例えば、上述したように、それらは、互いに協調して、または、協調せずに移動することができる。同様に、手の第2の部分が、UIの要素を操作しながら、手の第1の部分(例えば、親指、指)が、特定のジェスチャー、場所、またはジェスチャーの欠如に基づいて、モードセレクターとして機能することができると考えられる。
[0065]図10は、本発明の実施形態による、使用中の向き1000でのデバイス1001を示す。図10は、ディスプレイ1002を覆う第1の手1004(例えば、右手)、および、デバイス1001の背面に配置された第2の手1006(例えば、左手)でデバイス1001を操作するユーザーを示す。x軸1010、および、直交するy軸1008も示される。正のz軸空間は、第1の手1004の手のひら領域に向かってデバイス1001から外向きに延びる。負のz軸空間は、第2の手1006の手のひら領域に向かってデバイス1001から後向きに延びる。
[0066]図10の向きは、デバイス1001の周囲を、接触することなく、掴んでいる第1の手1004を示す例示的な状況である。例えば、デバイス1001の正のz軸空間内の非デバイス接触ジェスチャーを感知する第1のセンサーは、第1の手1004およびデバイス1001間のz軸距離を閉じる第1の手1004を取り込むことができる。結果として、デバイス1001は、第1の手1004の1つまたは複数の部分が、負のz軸空間を通過することを予想することができる。したがって、負のz軸空間内のジェスチャーを検出するために機能する第2の非デバイス接触センサーからの入力が、意図された入力として推測されてよい。さらに、正のz軸空間で検出された入力と、負のz軸空間で検出された入力の両方を利用することが、正または負の軸方向の一方からの入力のみを利用することに比較して、低い誤りの正の入力、および、低い誤りの負の入力を提供するために、組み合わせて用いられてよい。
[0067]図11は、本発明の実施形態による、デバイスの正のz軸空間と負のz軸空間の両方でのユーザー入力を検出するための方法1100を示すブロック図である。ブロック1102では、第1のセンサーが、正のz軸空間内の非デバイス接触ジェスチャーを感知するために利用される。例えば、デバイスの正のz軸空間内のジェスチャーを検出することができる1つまたは複数のセンサーが、一体型カメラのようなデバイスに結合されると考えられる。第1のセンサーによるジェスチャーの検出は、次に、デバイスのための入力として解釈されてよい。上述したように、非デバイス接触ジェスチャーは、手のジェスチャーが、入力を提供するために、実際のデバイスと接触しないように、デバイスを超える空間の体積内で行われる手のジェスチャーを含むことができる。
[0068]ブロック1104では、第2のセンサーが、デバイスの負のz軸空間内である第2の入力を検出するために利用される。例示的な実施形態では、第2の入力は、非デバイス接触ジェスチャーである。しかしながら、第2の入力は、第1の入力が、意図された入力であると推論するために、デバイスによって使用可能な接触ジェスチャーであってよい。さらに、第1の入力および第2の入力は、x軸またはy軸(または、正と負の両方のz軸空間での入力になる任意のライン)の周りの手の回転のような、連続的なジェスチャーから結果として生じると考えられる。第1の入力および第2の入力を生成する一様なジェスチャーの別の例は、上記で図6〜10に関連して説明したそれらのジェスチャーを含む。
[0069]例示的な実施形態では、第1のセンサーは、正のz軸空間内の入力を感知するためにのみ有効である。同様に、例示的な実施形態では、第2のセンサーは、負のz軸空間内の入力を感知するためにのみ有効である。例えば、カメラの開口部が、デバイスの前面と実質的に平行な平面内にあるようにデバイスに結合されたカメラは、上記構成を有するデバイスの裏側での入力を検出することができない可能性がある。したがって、負のz軸空間内で生じるジェスチャーを取り込むために、第2のセンサーが利用されてよい。
[0070]ブロック1106では、UIは、正のz軸空間内のジェスチャー/入力を感知/検出する第1のセンサーに応じて、および、負のz軸空間内のジェスチャー/入力を感知/検出する第2のセンサーに応じて更新される。例えば、UIの更新は、第1の入力および/または第2の入力に基づいて、1つまたは複数のオブジェクトの変化を反映するために、UIによって提示される画像をリフレッシュすることを含むことができる。UIの更新は、感知すべき正のz軸空間からの第1の入力と負のz軸空間からの第2の入力の両方が完了されることを必要とすることができる。
[0071]上述したように、方法1100の追加のステップは、第3の入力を検出することを含むことが考えられる。第3の入力は、第3のセンサーで検出されてよい。第3のセンサーは、(例えば、容量性技術ベースの)接触を感知するための機能であってよい。例えば、第3のセンサーは、デバイスを保持する第2の手を検出することができ、第1および第2のセンサーは、デバイスの正および負のz軸空間内で生じる非デバイス接触ジェスチャーを検出することができる。したがって、例示的な実施形態では、第3の入力を検出する第3のセンサーに基づいて、第1の入力および第2の入力が意図された入力であることを判定するために、プロセッサーが利用される。さらにまた、第3のセンサーは、マルチタッチディスプレイのように、複数の入力を検出することができることが考えられる。したがって、第3のセンサーは、他の手による接触のような、第4の入力を検出することができる。この例では、デバイスは、デバイスが1つまたは複数の手によって保持されていることを意味する接触入力である第3の入力および第4の入力を検出することができ、第1および第2の入力は、次に、3次元ジェスチャーからの意図的な入力として推論されてよい。
[0072]追加のステップが、方法1100に関連して実行されてよいと考えられる。加えて、(ブロックによって示されるが、図11に示されない)1つまたは複数のステップが、任意の順序およびシーケンスで実行されてよいことが考えられる。
[0073]図12は、本発明の実施形態による、デバイスの正のz軸空間と負のz軸空間の両方でのユーザー入力を検出するための例示的な方法1200のブロック図を示す。ブロック1202は、第1の光学ベースのセンサーを利用して、デバイスの正のz軸空間内の非デバイス接触ユーザージェスチャーを検出するステップを示す。例えば、深度カメラのようなカメラが、ディスプレイおよびユーザー間のような、デバイスの前面で生じるユーザーの手のジェスチャーを検出するために機能的であることが考えられる。
[0074]ブロック1204では、第2の光学ベースのセンサーで、デバイスの負のz軸空間内の同じ非デバイス接触ジェスチャーを検出するためのステップが示される。例えば、正と負の両方のz軸空間で実行される同じジェスチャーは、図6〜10に関連して上述したもの(例えば、つまむ、回転させる)のいずれかを含むことができる。例えば、ジェスチャーが、仮想物体を操作しているかのように、ユーザーの単一の手によって実行されるジェスチャーは、正のz軸空間と負のz軸空間の両方で生じる共通のジェスチャーの例である。
[0075]ブロック1206では、第1および第2の光学ベースのセンサーで検出された非デバイス接触ジェスチャーが、デバイスへの第1の入力であることを判定するためのステップが示される。例えば、正のz軸空間内の運動と共に負のz軸空間内の運動の組み合わせは、共通の(しかし、依然として潜在的に複合的な)入力として解されてよい。入力は、デバイスのディスプレイによって、またはさらに外部のディスプレイ(例えば、テレビジョン、モニター)によって提示されるオブジェクトを操作するために意図されてよい。さらに、第1のジェスチャーおよび第2のジェスチャーの組み合わせが、意図された入力である高い可能性を有することの判定が実行されると考えられる。このような判定は、学習プロセス、第3の入力の追加、などを介して行われてよい。
[0076]ブロック1208は、正のz軸空間および負のz軸空間内の非デバイス接触ジェスチャーが、第1の入力であることの判定に応じて、ディスプレイ上のUIを調整するためのステップを示す。例えば、デバイスは、外部ディスプレイによって表示される1つまたは複数のオブジェクトに影響を与えるために、ユーザーによって操作されるビデオゲームコンソールであってよい。第1の入力(例えば、回転、つまむ、引き伸ばすジェスチャー)に基づいて、UIのオブジェクトは、適切な変形(例えば、オブジェクトを回転させる、オブジェクトを圧縮する、オブジェクトを引き伸ばす)によって操作されてよい。追加の例示的な実施形態では、UIは、モバイル通信デバイス(例えば、携帯電話)を備えるなどのデバイス自体の一部として提供されてよいと考えられる。したがって、3次元非デバイス接触ジェスチャーでの提示されたオブジェクトの操作は、オブジェクトが、入力に応じて調整されることを可能にすることができる。
[0077]図示された様々な構成要素の多くの異なる配置、ならびに図示されない構成要素は、本発明の要旨および範囲から逸脱することなく、可能である。本発明の実施形態は、限定的ではなく例示的であることを意図して説明されている。その範囲から逸脱しない代わりの実施形態は、当業者には明らかになるであろう。当業者は、本発明の範囲から逸脱することなく、上記の改善を実現する代わりの手段を開発することができる。
[0078]特定の特徴および部分的組み合わせは、有用であり、他の特徴および部分的組み合わせへの参照なしに用いられてよく、特許請求の範囲内であると考えられることが理解されるであろう。様々な図面に記載されたすべてのステップが、記載された特定の順序で実行される必要はない。

Claims (10)

  1. プロセッサーおよびメモリーを利用するコンピューティング環境で、デバイスの正のz軸空間と負のz軸空間の両方でのユーザー入力を検出するための方法であって、
    非デバイス接触ジェスチャーである第1の入力を検出するために、前記デバイスの前記正のz軸空間内で感知する前記デバイスの第1のセンサーを利用する工程と、
    第2の入力を検出するために、前記デバイスの前記負のz軸空間内で感知する前記デバイスの第2のセンサーを利用する工程と、
    前記正のz軸空間内の前記第1のセンサーによる前記第1の入力の検出、および、前記負のz軸空間内の前記第2のセンサーによる前記第2の入力の検出に応答して、ディスプレイ上に提示されるユーザーインターフェースを更新する工程と
    を含む、方法。
  2. 前記第1の入力および前記第2の入力が、前記正のz軸空間と前記負のz軸空間の両方で提供される共通のジェスチャーである、請求項1に記載の方法。
  3. 前記第1の入力および前記第2の入力が、前記デバイスのy軸と実質的に平行な軸のほぼ周りの回転ジェスチャーから結果として生じる、請求項1に記載の方法。
  4. 前記第1の入力および前記第2の入力が、前記デバイスのx軸と実質的に平行な軸のほぼ周りの回転ジェスチャーから結果として生じる、請求項1に記載の方法。
  5. デバイスの正のz軸空間と負のz軸空間の両方でのユーザー入力を検出するためのデバイスであって、
    前面側および反対の背面側を有するデバイス本体であって、前記前面側が、前記正のz軸空間に向かって配向され、前記背面側が、前記負のz軸空間に向かって配向される、デバイス本体と、
    前記デバイス本体に結合された、前記デバイスの前記正のz軸空間内の非デバイス接触ユーザージェスチャーを感知するための第1のセンサーと、
    前記デバイス本体に結合された、前記デバイスの前記負のz軸空間内の前記非デバイス接触ユーザージェスチャーを感知するための第2のセンサーと、
    前記デバイス本体に結合された、前記デバイスの前記正のz軸空間内の前記非デバイス接触ユーザージェスチャーを感知する前記第1のセンサーからの第1の入力を処理し、前記デバイスの前記負のz軸空間内の前記非デバイス接触ユーザージェスチャーを感知する前記第2のセンサーからの第2の入力を処理するためのプロセッサーと
    を備える、デバイス。
  6. 前記第1のセンサーが、カメラで構成される、請求項5に記載のデバイス。
  7. 前記第1のセンサーが、近接センサーで構成される、請求項5に記載のデバイス。
  8. 前記第1のセンサーおよび前記第2のセンサーが、類似の感知技術を利用する、請求項5に記載のデバイス。
  9. ユーザーインターフェースを表示するためのディスプレイをさらに備え、前記ユーザーインターフェースが、前記第1のセンサーおよび前記第2のセンサーによる前記非デバイス接触ユーザージェスチャーの感知に応答して更新可能である、請求項5に記載のデバイス。
  10. コンピューター実行可能命令を具体化した1つまたは複数のコンピューター記憶媒体であって、前記コンピューター実行可能命令が、プロセッサーおよびメモリーを有するコンピューティングシステムによって実行されると、前記コンピューティングシステムに方法を実行させ、前記方法が、
    第1の光学ベースのセンサーを利用して、前記デバイスの正のz軸空間内の非デバイス接触ユーザージェスチャーを検出する工程と、
    第2の光学ベースのセンサーを利用して、前記デバイスの負のz軸空間内の前記非デバイス接触ユーザージェスチャーを検出する工程と、
    前記正のz軸空間内で前記第1のセンサーによって検出された前記非デバイス接触ユーザージェスチャー、および、前記負のz軸空間内で前記第2のセンサーによって検出された前記非デバイス接触ユーザージェスチャーが第1の入力であることを、プロセッサーを用いて判定する工程と、
    前記正のz軸空間および前記負のz軸空間内の前記非デバイス接触ジェスチャーが前記第1の入力であることの判定に応答して、ディスプレイ上のユーザーインターフェースを調整する工程と
    を含む、コンピューター記憶媒体。
JP2014533452A 2011-09-30 2012-09-30 全方向ジェスチャー入力 Expired - Fee Related JP6046729B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/250,532 US9423876B2 (en) 2011-09-30 2011-09-30 Omni-spatial gesture input
US13/250,532 2011-09-30
PCT/US2012/058167 WO2013049753A1 (en) 2011-09-30 2012-09-30 Omni-spatial gesture input

Publications (3)

Publication Number Publication Date
JP2014531688A true JP2014531688A (ja) 2014-11-27
JP2014531688A5 JP2014531688A5 (ja) 2015-12-10
JP6046729B2 JP6046729B2 (ja) 2016-12-21

Family

ID=47644213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014533452A Expired - Fee Related JP6046729B2 (ja) 2011-09-30 2012-09-30 全方向ジェスチャー入力

Country Status (6)

Country Link
US (1) US9423876B2 (ja)
EP (1) EP2761402A4 (ja)
JP (1) JP6046729B2 (ja)
KR (1) KR101981822B1 (ja)
CN (1) CN102929388B (ja)
WO (1) WO2013049753A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2619646B1 (en) * 2010-09-24 2018-11-07 BlackBerry Limited Portable electronic device and method of controlling same
DE112011103173T5 (de) 2010-09-24 2013-08-14 Qnx Software Systems Limited Übergangsansicht auf einer tragbaren elektronischen Vorrichtung
DE112011101209T5 (de) 2010-09-24 2013-01-17 Qnx Software Systems Ltd. Warnmeldungs-Anzeige auf einer tragbaren elektronischen Vorrichtung
US9176608B1 (en) 2011-06-27 2015-11-03 Amazon Technologies, Inc. Camera based sensor for motion detection
US10088924B1 (en) 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
US20130083074A1 (en) * 2011-10-03 2013-04-04 Nokia Corporation Methods, apparatuses and computer program products utilizing hovering, in part, to determine user interface orientation
KR20130051697A (ko) * 2011-11-10 2013-05-21 삼성전자주식회사 단말의 움직임에 따라 이미지 표시를 제어하기 위한 장치 및 방법
US9223415B1 (en) * 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
US9063574B1 (en) * 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
US10073541B1 (en) * 2012-06-22 2018-09-11 Amazon Technologies, Inc. Indicators for sensor occlusion
US20140043277A1 (en) * 2012-08-09 2014-02-13 Nokia Corporation Apparatus and associated methods
US20140118257A1 (en) * 2012-10-29 2014-05-01 Amazon Technologies, Inc. Gesture detection systems
US9958843B2 (en) * 2012-11-07 2018-05-01 Hitachi, Ltd. System and program for managing management target system
US9658695B2 (en) * 2012-11-08 2017-05-23 Cuesta Technology Holdings, Llc Systems and methods for alternative control of touch-based devices
US9671874B2 (en) 2012-11-08 2017-06-06 Cuesta Technology Holdings, Llc Systems and methods for extensions to alternative control of touch-based devices
US9465484B1 (en) * 2013-03-11 2016-10-11 Amazon Technologies, Inc. Forward and backward looking vision system
US9170676B2 (en) * 2013-03-15 2015-10-27 Qualcomm Incorporated Enhancing touch inputs with gestures
US9672627B1 (en) * 2013-05-09 2017-06-06 Amazon Technologies, Inc. Multiple camera based motion tracking
US9029780B2 (en) 2013-09-11 2015-05-12 Google Technology Holdings LLC Electronic device with gesture detection system and methods for using the gesture detection system
US9606506B2 (en) 2013-10-15 2017-03-28 Microsoft Technology Licensing, Llc Holographic interaction device
US10452099B2 (en) * 2014-03-26 2019-10-22 Intel Corporation Handling-noise based gesture control for electronic devices
KR102251541B1 (ko) * 2014-06-23 2021-05-14 엘지전자 주식회사 이동단말기 및 그것의 제어방법
US9840407B2 (en) * 2015-02-10 2017-12-12 Cornelius, Inc. Gesture interface for beverage dispenser
US9959658B2 (en) 2015-02-26 2018-05-01 Rovi Guides, Inc. Methods and systems for generating holographic animations
KR102422181B1 (ko) 2015-06-02 2022-07-18 삼성전자주식회사 전자 장치의 디스플레이 제어 방법 및 그 전자 장치
CN105573749A (zh) * 2015-12-13 2016-05-11 上海斐讯数据通信技术有限公司 输入界面的显示方法及装置
US10739927B2 (en) * 2016-10-11 2020-08-11 Huawei Technologies Co., Ltd. Operation detection method and apparatus, and mobile terminal
CN106569716B (zh) * 2016-10-25 2020-07-24 深圳奥比中光科技有限公司 单手操控方法及操控系统
CN108475064B (zh) * 2017-05-16 2021-11-05 深圳市大疆创新科技有限公司 用于设备控制的方法、设备和计算机可读存储介质
JP2019219904A (ja) * 2018-06-20 2019-12-26 ソニー株式会社 プログラム、認識装置、及び、認識方法
CN110045819B (zh) * 2019-03-01 2021-07-09 华为技术有限公司 一种手势处理方法及设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005047329A (ja) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd 車輌用入力装置
US20090315834A1 (en) * 2008-06-18 2009-12-24 Nokia Corporation Apparatus, method and computer program product for manipulating a device using dual side input devices
US20100020026A1 (en) * 2008-07-25 2010-01-28 Microsoft Corporation Touch Interaction with a Curved Display
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
WO2010064094A1 (en) * 2008-12-01 2010-06-10 Sony Ericsson Mobile Communications Ab Portable electronic device with split vision content sharing control and method
JP2010146506A (ja) * 2008-12-22 2010-07-01 Sharp Corp 入力装置、入力装置の制御方法、入力装置の制御プログラム、コンピュータ読取可能な記録媒体、および情報端末装置
US20100188353A1 (en) * 2009-01-23 2010-07-29 Samsung Electronics Co., Ltd. Mobile terminal having dual touch screen and method of controlling content therein
US20110199387A1 (en) * 2009-11-24 2011-08-18 John David Newton Activating Features on an Imaging Device Based on Manipulations
JP2011164676A (ja) * 2010-02-04 2011-08-25 Ntt Docomo Inc 表示装置及びプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7091926B2 (en) 2002-02-08 2006-08-15 Kulas Charles J Computer display system using multiple screens
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
BRPI0417656A (pt) 2003-12-19 2007-04-03 Speechgear Inc método, meio legìvel por computador, e, sistema
US7561146B1 (en) * 2004-08-25 2009-07-14 Apple Inc. Method and apparatus to reject accidental contact on a touchpad
US20060227129A1 (en) 2005-03-30 2006-10-12 Cheng Peng Mobile communication terminal and method
US20060277271A1 (en) 2005-06-07 2006-12-07 Yahoo! Inc. Prefetching content based on a mobile user profile
US7725547B2 (en) 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US8432372B2 (en) 2007-11-30 2013-04-30 Microsoft Corporation User input using proximity sensing
US20090256809A1 (en) * 2008-04-14 2009-10-15 Sony Ericsson Mobile Communications Ab Three-dimensional touch interface
US8269842B2 (en) 2008-06-11 2012-09-18 Nokia Corporation Camera gestures for user interface control
DE102008048825A1 (de) 2008-09-22 2010-03-25 Volkswagen Ag Anzeige- und Bediensystem in einem Kraftfahrzeug mit nutzerbeeinflussbarer Darstellung von Anzeigeobjekten sowie Verfahren zum Betreiben eines solchen Anzeige- und Bediensystems
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US20100109577A1 (en) 2008-11-05 2010-05-06 Loughrey James F Cascading addressable mastering protocol-based lighting system
US8704767B2 (en) 2009-01-29 2014-04-22 Microsoft Corporation Environmental gesture recognition
US20100277420A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Hand Held Electronic Device and Method of Performing a Dual Sided Gesture
US8269175B2 (en) 2009-05-22 2012-09-18 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting gestures of geometric shapes
US20110069021A1 (en) * 2009-06-12 2011-03-24 Hill Jared C Reducing false touchpad data by ignoring input when area gesture does not behave as predicted
KR101107422B1 (ko) * 2009-12-22 2012-01-19 성균관대학교산학협력단 전면부 및 후면부에 터치스크린 패널이 구비된 휴대형 정보단말기
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
CN102200830A (zh) 2010-03-25 2011-09-28 夏普株式会社 基于静态手势识别的非接触控制系统和控制方法
US20120242793A1 (en) * 2011-03-21 2012-09-27 Soungmin Im Display device and method of controlling the same

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005047329A (ja) * 2003-07-31 2005-02-24 Nissan Motor Co Ltd 車輌用入力装置
US20090315834A1 (en) * 2008-06-18 2009-12-24 Nokia Corporation Apparatus, method and computer program product for manipulating a device using dual side input devices
US20100020026A1 (en) * 2008-07-25 2010-01-28 Microsoft Corporation Touch Interaction with a Curved Display
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
WO2010064094A1 (en) * 2008-12-01 2010-06-10 Sony Ericsson Mobile Communications Ab Portable electronic device with split vision content sharing control and method
JP2010146506A (ja) * 2008-12-22 2010-07-01 Sharp Corp 入力装置、入力装置の制御方法、入力装置の制御プログラム、コンピュータ読取可能な記録媒体、および情報端末装置
US20100188353A1 (en) * 2009-01-23 2010-07-29 Samsung Electronics Co., Ltd. Mobile terminal having dual touch screen and method of controlling content therein
US20110199387A1 (en) * 2009-11-24 2011-08-18 John David Newton Activating Features on an Imaging Device Based on Manipulations
JP2011164676A (ja) * 2010-02-04 2011-08-25 Ntt Docomo Inc 表示装置及びプログラム

Also Published As

Publication number Publication date
KR101981822B1 (ko) 2019-05-23
CN102929388A (zh) 2013-02-13
US9423876B2 (en) 2016-08-23
EP2761402A1 (en) 2014-08-06
JP6046729B2 (ja) 2016-12-21
KR20140082760A (ko) 2014-07-02
EP2761402A4 (en) 2015-06-24
CN102929388B (zh) 2017-12-26
US20130082978A1 (en) 2013-04-04
WO2013049753A1 (en) 2013-04-04

Similar Documents

Publication Publication Date Title
JP6046729B2 (ja) 全方向ジェスチャー入力
US20190250714A1 (en) Systems and methods for triggering actions based on touch-free gesture detection
EP2307946B1 (en) Touch interaction with a curved display
US10359863B2 (en) Dragging virtual elements of an augmented and/or virtual reality environment
JP5205157B2 (ja) 携帯型画像表示装置、その制御方法、プログラム及び情報記憶媒体
US10198854B2 (en) Manipulation of 3-dimensional graphical objects for view in a multi-touch display
JP2022540315A (ja) 人工現実環境において周辺デバイスを使用する仮想ユーザインターフェース
CN108885533A (zh) 组合虚拟现实和增强现实
KR101340797B1 (ko) 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
JP5529700B2 (ja) 情報処理装置、その制御方法、及びプログラム
US20110221777A1 (en) Electronic device with motion sensing function and method for executing functions based on movement of electronic device
US20230325004A1 (en) Method of interacting with objects in an environment
US20100053151A1 (en) In-line mediation for manipulating three-dimensional content on a display device
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
US10649616B2 (en) Volumetric multi-selection interface for selecting multiple objects in 3D space
US11803233B2 (en) IMU for touch detection
US9471154B1 (en) Determining which hand is holding a device
US11620790B2 (en) Generating a 3D model of a fingertip for visual touch detection
JP6188377B2 (ja) 表示制御装置、その制御方法、および制御プログラム
US9898183B1 (en) Motions for object rendering and selection
US20200042157A1 (en) Tablet computing device with display dock
US11934584B2 (en) Finger orientation touch detection
WO2021020143A1 (ja) 画像処理装置、画像処理方法、及び記録媒体
US11641460B1 (en) Generating a volumetric representation of a capture region

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161117

R150 Certificate of patent or registration of utility model

Ref document number: 6046729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees