JP2017513093A - 注視の検出を介した遠隔デバイスの制御 - Google Patents
注視の検出を介した遠隔デバイスの制御 Download PDFInfo
- Publication number
- JP2017513093A JP2017513093A JP2016552519A JP2016552519A JP2017513093A JP 2017513093 A JP2017513093 A JP 2017513093A JP 2016552519 A JP2016552519 A JP 2016552519A JP 2016552519 A JP2016552519 A JP 2016552519A JP 2017513093 A JP2017513093 A JP 2017513093A
- Authority
- JP
- Japan
- Prior art keywords
- user
- controllable device
- display
- gaze
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000001514 detection method Methods 0.000 title description 9
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000003384 imaging method Methods 0.000 description 18
- 210000001747 pupil Anatomy 0.000 description 17
- 239000011159 matrix material Substances 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000007613 environmental effect Effects 0.000 description 9
- 238000005286 illumination Methods 0.000 description 8
- 238000013507 mapping Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000003491 array Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 4
- 210000004087 cornea Anatomy 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000011143 downstream manufacturing Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
- G08C17/02—Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C2201/00—Transmission systems of control signals via wireless link
- G08C2201/30—User interface
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C2201/00—Transmission systems of control signals via wireless link
- G08C2201/70—Device selection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Selective Calling Equipment (AREA)
- Position Input By Displaying (AREA)
Abstract
注視を利用した遠隔デバイスの制御に関する実施形態が開示される。例えば、開示される実施形態の1つは、コンピューティングデバイスにおいて、ユーザの注視の方向を検出するステップと、注視の方向に位置する遠隔制御可能デバイスを制御するための前記ユーザからのインジケーションを検出するステップと、遠隔制御可能デバイスをユーザが制御できるようにコントローラデバイスのユーザインターフェースを適合するステップとを含む方法を提供する。
Description
[0001] 技術の進歩に伴い、人々が日常的に使用する電子デバイスの数が増えてきている。例えば、人は、スマートフォン、ビデオゲーム機、家庭娯楽システム、および多数の他の電子デバイスと頻繁に対話することがある。そのようなデバイスを最大に活用するには、ユーザはデバイスを積極的に制御しなければならない。しかし、多数のデバイスを制御するには、ユーザがデバイス間を移動したり、デバイスごとに異なるユーザインターフェースを操作したり、数個の遠隔制御送信器を手元に置いておくことが必要となる場合がある。
[0002] 注視を利用した遠隔デバイスの制御に関する実施形態が開示される。例えば、開示される実施形態の1つは、コンピューティングデバイスにおいて、ユーザの注視の方向を検出するステップと、注視の方向に位置する遠隔制御可能デバイスを制御するためのユーザからのインジケーションを検出するステップと、遠隔制御可能デバイスをユーザが制御できるようにコントローラデバイスのユーザインターフェースを適合するステップとを含む方法を提供する。
[0003] この概要は、下記の詳細な説明でさらに説明する概念のいくつかを簡略化した形態で紹介するために提供される。この概要は、特許請求の主題の主要な特徴または必須の特徴を明らかにすることを意図せず、特許請求の主題の範囲を限定するために使用することも意図しない。さらに、特許請求の主題は、本開示の任意の箇所に記載される不都合点のいずれかまたはすべてを解決する実装に限定されない。
[0010] 本明細書に開示される実施形態は、ユーザが多数の電子デバイスを遠隔から直感的に制御することを可能にする。一手法では、ユーザは、制御しようとするデバイスを、単に注視することによって選択することができる。あるデバイスを制御することをユーザが意図しているとシステムが決定すると、システムは、そのデバイスに固有のユーザインターフェースを表示するか、またはそのデバイスの制御を可能にするように既存のユーザインターフェースを適合する。そして、そのユーザインターフェースを通じてユーザの入力が受け取られ、適切な制御信号が送信されて制御を実行する。
[0011] 図1は、個人の住居のリビングルームまたは居間の形態である例示的な環境10の態様を示す図である。ただし、本明細書に記載のシステムおよび方法は、小売り環境やサービス環境などの他の環境でも適用することができる。図1の環境は、ユーザ14が楽しむための家庭娯楽システム12を備えている。図1では、ユーザ14は立った姿勢で示しているが、他の状況ではユーザは座っているか、横になっている場合もある。
[0012] 家庭娯楽システム12は、大型ディスプレイ16およびスピーカ18を含み、これらはいずれも動作可能にコンピュータシステム20に結合されている。また、家庭娯楽システムは、オーディオビデオ(AV)受信機22およびケーブルボックス24も含む。図の家庭娯楽システムは例として提供されるものであり、開示される実施形態は他の適切なデバイス構成でも利用できることは理解されよう。構成によっては、例えば、ディスプレイ16が、ユーザに装着されるヘッドウェアやアイウェアに内蔵された接眼(near-eye)ディスプレイに置き換えられる場合もある。
[0013] 引き続き図1で、環境10は、家庭娯楽システム12の電子デバイス以外に、ユーザ14が制御できる各種の電子デバイスを含んでいる。そのようなデバイスには、例として、室内照明システム26およびサーモスタット28が含まれる。図の環境は、スマートフォンやタブレットコンピュータ等のモバイルコンピューティングデバイス30も含んでいる。
[0014] 環境10は、環境内にある他の電子デバイスを制御するように構成された1つまたは複数の電子デバイスも含む場合がある。図1では、例えば、ユーザ14が汎用リモコン送信機32を手に持っているのが示されている。汎用リモコン送信機は、環境内の遠隔制御可能デバイス、例えばとりわけ、ディスプレイ16、AV受信機22、ケーブルボックス24、室内照明システム26、サーモスタット28、スマートフォン30、および/またはコンピューティングデバイス20に適切な制御信号(赤外線、電波、Bluetooth(登録商標)等)を送信するように構成することができる。実施形態によっては、モバイルコンピューティングデバイス30などの他のデバイスがコントローラデバイスとして使用される場合もある。
[0015] 上記のように、本明細書に開示される実施形態では、ユーザ14は単に電子デバイスを注視するだけで、制御したい電子デバイスを選択することができる。そのために、コンピュータシステム20は、環境10内のどこに遠隔制御可能電子デバイスがあるかを定義するデータを備えている。実施形態によっては、このデータの少なくとも一部分が環境撮像システムを通じて取得される場合がある。他の実施形態では、このデータは、下記で説明するようにユーザ入力によって取得される場合もある。さらに、コンピュータシステム20は、ユーザがコントローラデバイスを介して遠隔制御可能デバイスを利便に制御できるように、そのコントローラデバイスのユーザインターフェースを適合するためのデータを備えることができる。図示する実施形態では、ユーザの注視がケーブルボックスにあることを検出するのに応答して、ケーブルボックス24用のユーザインターフェースが表示される。他の例では、リモコン32、スマートフォン30、または別の遠隔制御可能デバイスを制御するために使用できる他の適切なコントローラデバイスのユーザインターフェースを、コンピューティングデバイスが適合することができる。
[0016] 実施形態によっては、環境撮像システムが奥行きカメラまたはカラーカメラを備える場合がある。環境撮像システムは、例えば視覚システム38の撮影コンポーネント群を共用するか、および/または環境内に他の撮影デバイス(図示せず)を含むことができる。実施形態によっては、環境撮像システムは、ユーザが手に持って環境内を歩き回ることによって遠隔制御可能デバイスを撮像する場合もある。さらに他の実施形態では、環境撮像システムは、ユーザに装着されるアイウェアやヘッドウェアに内蔵される場合もある。位置追跡コンポーネント群で、環境撮像システムによって撮影された画像データを現実世界の座標にマッピングすることができる。下流で行われる画像データの分析を通じて様々な遠隔制御可能デバイスの場所を確定し、コンピュータシステム20で維持されるマップに記憶することができる。そのマップに注視追跡コンポーネント群がアクセスして、ユーザが遠隔制御可能デバイスのいずれかを注視しているかどうかを決定することができる。環境の撮像で得られる利点はあるものの、この機能は実施形態によっては省略してもよく、代替の方法を使用して環境内の遠隔制御可能デバイスの場所を確定することができる。
[0017] さらに、コンピュータシステム20の性質は、本開示の異なる実施形態ごとに異なる可能性がある。実施形態によっては、コンピュータシステムは、ビデオゲームシステム、ならびに/または音楽および/もしくは映像を再生するように構成されたマルチメディアシステムである場合もある。他の実施形態では、コンピュータシステムは、インターネットの閲覧や生産アプリケーションに使用される汎用コンピュータシステムである場合もある。コンピュータシステム20は、本開示の範囲から逸脱することなく、上記の目的のいずれかもしくはすべて、および/または他の該当する目的に合わせて構成することができる。
[0018] コンピュータシステム20は、1人または複数のユーザから各種形態のユーザ入力を受け付けるように構成される。そのため、キーボード、マウス、タッチ画面、ゲームパッド、またはジョイスティックコントローラ(図面には示さず)などのユーザ入力装置が、動作可能にコンピュータシステムに結合され、それを使用してデータを直接入力することができる。コンピュータシステム20は、1人または複数のユーザからいわゆる自然ユーザ入力(NUI)も受け付けるように構成される。NUIを仲介するために、NUIシステム36がコンピュータシステムに含まれる。NUIシステムは、NUIの各種側面を捉え、それに対応する、動作を行わせることが可能な入力をコンピュータシステムに提供するように構成される。そのために、NUIシステムは、周辺の感覚コンポーネントから低水準の入力を受け取り、そのようなコンポーネントには、種々の他のコンポーネント(例えば環境を撮像するように構成されたカメラ)の中でも特に、視覚システム38および聴覚システム40が含まれる。
[0019] 聴覚システム40は、ユーザ14から、また環境10内の鳴っている電話やストリーミングオーディオなどの他の音源から、発声や他の可聴入力を拾う1つまたは複数のマイクロフォンを含むことができ、1つまたは複数のマイクロフォンを備える場合がある。例によっては、聴覚システム40は、指向性のマイクロフォンアレイを備える場合がある。視覚システム38は、ユーザのジェスチャ、眼の場所、ならびに他の身体のジェスチャおよび/または姿勢の情報などの入力を、視覚システムによって取得された画像データを介して検出するように構成される。図の実施形態では、視覚システムと聴覚システムは共通の筐体を共有しているが、他の実施形態ではそれぞれ別個のコンポーネントである場合もある。さらに他の実施形態では、視覚システム、聴覚システム、およびNUIシステムがコンピュータシステムの中に組み込まれる場合もある。コンピュータシステムおよびその周辺の感覚コンポーネントは、図面に示すように有線の通信リンクを介して、または他の適切な方式で結合することができる。
[0020] 図2は、例示的な実施形態におけるコンピュータシステム20および周辺システムの態様を示す高水準模式図である。図のコンピュータシステムはオペレーティングシステム(OS)42を含み、これはソフトウェアおよび/またはファームウェアとして具現化することができる。コンピュータシステムは1つまたは複数のアプリケーション44も含み、これは、例えば、ビデオゲームアプリケーション、デジタルメディアプレーヤ、インターネットブラウザ、写真編集ソフト、ワードプロセッサ、および/または表計算アプリケーションなどである。コンピュータシステム20、視覚システム38、聴覚システム40、および環境撮像システム34(例えば、環境を別の視点から撮像する、視覚システム38の外部にあるカメラ)のいずれかまたはすべてが、各自の機能を支援するために必要に応じて適切なデータ記憶機構、命令記憶機構、および論理ハードウェアを含むことができる。
[0021] 図2の実施形態では、視覚システム38は、1つまたは複数の奥行きカメラ46、および1つまたは複数のカラーカメラ48を備える。各奥行きカメラは、ユーザ14および環境10の時間分解された連続した奥行きマップを取得するように構成することができる。本明細書で使用される用語「奥行きマップ」は、撮像された場面の対応する領域(Xi,Yi)に位置合わせされた画素の配列を意味し、奥行き値Ziが、画素ごとに、対応する領域の奥行きを示す。「奥行き」は、奥行きカメラの光軸に平行な座標と定義することができ、奥行きカメラからの距離が増すにつれて増大する。動作上、奥行きカメラは2次元画像データを取得するように構成され、そのデータから下流の処理を介して奥行きマップが得られる。
[0022] 一般に、奥行きカメラ46の性質は、本開示の様々な実施形態ごとに異なる可能性がある。一実施形態では、奥行きカメラ内部の立体的に配向された2つの撮像アレイから得られる輝度または色のデータを互いと位置合わせし、それを使用して奥行きマップを構築することができる。他の実施形態では、奥行きカメラは、多数の離散した特徴、例えば線や点からなる構造化赤外線(IR)照明パターンを被写体に投射するように構成される場合がある。奥行きカメラの撮像アレイは、被写体で反射されて戻ってくる構造化照明を撮像するように構成することができる。撮像された被写体の様々な領域内にある隣接する特徴間の間隔に基づいて、被写体の奥行きマップを構築することができる。さらに他の実施形態では、奥行きカメラが、パルス状の赤外線照明を被写体に向けて投影することができる。被写体で反射されて戻ってくるパルス状の照明を検出するように、奥行きカメラの撮像アレイの対を構成することができる。両アレイが、パルス状照明に同期された1つの電子シャッターを備えることができるが、それぞれのアレイの積分時間が異なる場合があり、それにより、照明源から被写体、そしてアレイへと移るパルス状照明の画素で分解した飛行時間を、2つのアレイの対応する素子で受光された光の相対量に基づいて判別することができる。
[0023] 各カラーカメラ48は、観察対象のシーンからの可視光を、例えば赤、緑、青等の複数のチャネルで撮像し、撮像された光を画素のアレイにマッピングすることができる。これに代えて、光をグレースケールで撮像する単色カメラが使用される場合もある。カメラ内で露光されたすべての画素に対応する色値または輝度値がまとまって1つのデジタルカラー画像を構築する。実施形態によっては、カラーカメラの画素が奥行きカメラの画素と位置合わせされる場合がある。そのようにすると、観察されたシーンの部位ごとに、色の情報と奥行きの情報の両方を評価することができる。
[0024] NUIシステム36は、視覚システム38、聴覚システム40、および環境撮像システム34からの低水準の入力(すなわち信号)を処理して、動作を行わせることが可能な高水準入力をコンピュータシステム20に提供する。例えば、NUIシステムは、聴覚システム40からのオーディオ信号に音または声認識を行うことができる。声認識で、対応するテキスト形式のコマンドまたは他の高水準コマンドを生成することができ、それがコンピュータシステムに受信される。図2に示す実施形態では、NUIシステムは、音声認識エンジン50、ジェスチャ認識エンジン52、顔認識エンジン54、注視検出エンジン56、および環境マッピングエンジン58を備える。
[0025] 音声認識エンジン50は、聴覚システム40からのオーディオデータを処理し、ユーザの音声中の特定の単語やフレーズを認識し、それに対応するコンピュータシステム20のOS42またはアプリケーション44への、動作を行わせることが可能な入力を生成するように構成される。ジェスチャ認識エンジン52は、少なくとも視覚システム38からの奥行きデータを処理して、奥行きデータから1つまたは複数の人間の被写体を識別し、識別された被写体の各種の骨格の特徴を算出し、その骨格の特徴から各種の姿勢またはジェスチャの情報を収集するように構成され、その情報がOSまたはアプリケーションに供給される。顔認識エンジン54は、視覚システムからの画像データを処理して、現在のユーザの顔の特徴を分析するように構成される。顔の特徴を分析することによって現在のユーザを識別することができ、例えばコンピュータシステムに記憶されているユーザプロフィールと照合することができる。顔認識エンジン54で許可を実施することもでき、それによって特定に基づいて様々なレベルの制御権をユーザに与えることができる。より具体的な例として、ユーザは、子どもにはサーモスタットや他の家庭内システムの制御装置を制御させないことを選択することができ、顔の認識および/または他の識別法を使用してその方針を実施することができる。そのような許可は他の適切な方式でも実装可能であることが理解されよう。
[0026] 環境マッピングエンジン58は、環境内の各種の遠隔制御可能電子デバイスの位置を含む環境10のマップを作成するように構成される。環境マッピングエンジンは、直接のユーザ入力を含む、そのような位置を定義する適切な形式の入力を受け取るように構成することができる。一例では、ユーザは、単に制御したいデバイスの方向を注視して、そこにあるデバイスを識別することができる。ユーザは、例えば、デバイスの識別を声に出して言う(例えば検出されたデバイスの一覧と、それらのデバイスに関連付けられた識別がユーザに表示される)ことにより、またはキーボード、キーパッド、ゲームコントローラ、もしくは他の入力装置を介して識別を入力することにより、または他の適切な方式で、デバイスを識別することができる。そのようにして、それぞれの遠隔制御可能デバイスが各自の位置に関連付けられる。さらに、このプロセス中に、例えば、遠隔制御したいデバイスのパスワードを入力するか、または他の適切なペアリング処理を行うことにより、遠隔制御可能デバイスとコンピューティングデバイスとのペアリングを実現することができる。場所とペアリングの情報はコンピュータシステムの不揮発性メモリに記憶され、後に、ユーザがどの遠隔制御可能デバイスを制御したいのかを決定するために使用され、また制御対象のデバイスに通信接続するためにも使用される場合がある。別の実施形態では、環境マッピングエンジンは、環境撮像システム34から入力を受け取ることができる。それに応じて、環境マッピングエンジンは、電子デバイスの画像の特性(例えば、大きさ、形状、色)に基づいて、またはバーコードやロゴなどの適切な識別マーカーに基づいて、または他の適切な方式で、各種の電子デバイスを認識するように構成することができる。
[0027] 他の実施形態では、環境マッピングエンジンは、複数の信号(例えば電波や他の適切な波長)受信機に動作可能に結合することができる。信号受信機は、環境10内の遠隔制御可能電子デバイスに取り付けられた送信ビーコンから識別信号を受信するように構成することができる。環境内に受信機が空間的に分散した状態では、環境マッピングエンジンは、それぞれの遠隔制御可能電子デバイスの場所を三角測量で求めることによってマップを作成するように構成することができる。
[0028] 引き続き図2で、注視検出エンジン56は、視覚システム38からのデータを処理して、ユーザの頭部の向きを識別し、および/またはユーザの1つもしくは複数の眼に関する特徴を識別するように構成される。そのような眼に関する特徴には、瞳孔の中心、瞳孔の輪郭、虹彩の中心、虹彩の輪郭、および/または、ユーザの眼の角膜で反射された既知の光源からの1つもしくは複数の鏡面反射(「グリント(glint)光源」からの「グリント」と呼ばれることがある)が含まれる。頭部の向きまたは眼の特徴の位置に基づいて、注視検出エンジンは、ユーザの注視ベクトルを推定し、ユーザの注視の方向を検出することができる。さらに、注視検出エンジンは、環境マッピングエンジン58で維持されている遠隔制御可能電子デバイスのマップにアクセスするように構成することができる。そのようにして、ユーザの注視ベクトルをマップ上に描画して、ユーザが注視している遠隔制御可能デバイスがあれば、いつでも決定することができる。
[0029] 図2で、コンピュータシステム20は、ハードウェアインターフェース60に動作可能に結合され、インターフェース60は、環境内にある各種遠隔制御可能デバイスの制御を提供する。そのために、ハードウェアインターフェースは、コンピュータシステムから送られた制御コマンドを、コンピュータシステムで受け取られたユーザ入力に従って変換し、対応する制御信号を遠隔制御可能デバイスに出力する。実施形態によっては、ハードウェアインターフェースは、遠隔制御可能デバイスが受信するように構成された制御信号の種類に対応する1つまたは複数の信号送信器、例えば赤外線や電波等を備える場合がある。他の実施形態では、ハードウェアインターフェースは、遠隔制御可能デバイスの少なくとも一部を有線で制御する場合がある。さらに他の実施形態では、ハードウェアインターフェースは、汎用リモコン送信機32などの周辺コントローラデバイスと通信し、制御するように構成される場合がある。その場合、ハードウェアインターフェースは、送信機が現在ペアリングされている遠隔制御可能デバイスを切り替えるコンピュータからの制御出力を変換することができる。
[0030] 多数の他の実施形態も企図されることから、上述の図面および記載は制限的な意味に解釈すべきでない。実施形態によっては、上記のディスプレイまたは感覚コンポーネント群は、ユーザに装着されるアイウェアまたはヘッドウェアに内蔵される場合がある。これに応じて、図3に、装着型の立体ディスプレイシステム62の態様を示す。図のディスプレイシステムは通常のアイウェアに似る。ディスプレイシステムは、耳にかけるフレーム64と、装着者の顔に配置される鼻ブリッジ66を含む。ディスプレイシステムは、右側表示窓68Rおよび左側表示窓68Lも備える。実施形態によっては、右側および左側の表示窓68は、装着者から見て全体または一部が透明であり、装着者は自身の周囲をはっきりと見ることができる。
[0031] 実施形態によっては、表示像は、実時間でコンピュータシステム20からディスプレイシステム62に送信される。ディスプレイシステム62のマイクロコントローラ70は、右側および左側の光学系72Rおよび72Lに動作可能に結合されている。図の実施形態では、マイクロコントローラは、左右の光学系と共にディスプレイシステムのフレームの内部に隠されている。マイクロコントローラは、コンピュータシステム20から表示像を受信できるようにする適切な入出力(IO)コンポーネント群を含むことができる。ディスプレイシステム62の動作中、マイクロコントローラ70は、右側光学系72Rに適切な制御信号を送信し、それにより右側光学系が右側表示窓68Rに右表示画像を形成する。同様に、マイクロコントローラは左側光学系72Lに適切な制御信号を送信し、それにより左側光学系が左側表示窓68Lに左表示画像を形成する。
[0032] 図4は、非制限的な一実施形態における右または左の光学系72およびそれに関連付けられた表示窓68の態様を示す。光学系は、バックライト74および液晶ディスプレイ(LCD)マトリクス76を含む。バックライトは、発光ダイオード(LED)、例えば白色LEDの集合や、分散された赤色、緑色、および青色LEDを含むことができる。バックライトは、バックライトの発光をLCDマトリクスを通じて誘導するように配置され、LCDマトリクスは、マイクロコントローラ70からの制御信号に基づいて表示画像を形成する。LCDマトリクスは、矩形のグリッドまたは他の形状に配置された、個々にアドレス指定可能な多数の画素を含むことができる。実施形態によっては、赤色光を発する画素が、マトリクス内で緑色光および青色光を発する画素と並べて置かれ、LCDマトリクスでカラー画像を形成することができる。LCDマトリクスとして、一実施形態では、LCOS(liquid-crystal-on-silicon)マトリクスを用いることができる。他の実施形態では、LCDマトリクスの代わりにデジタル微小鏡面(micromirror)アレイが使用されるか、または能動LCDマトリクスが代わりに使用される場合もある。さらに他の実施形態では、スキャンビーム技術を使用して左右の表示画像を形成することができる。
[0033] 引き続き図4で、光学系72は、ディスプレイシステム62の装着者の右眼もしくは左眼78の瞳孔の位置および/または虹彩の位置を感知するように構成された眼追跡コンポーネント群も含む。図4の実施形態では、眼追跡コンポーネント群は、装着者の眼で反射されたアイランプ80からの光を撮像する撮像システムの形態である。アイランプは、眼に光を当てるように構成された赤外線または近赤外線LEDを含むことができる。一実施形態では、アイランプは、比較的狭い角度の照明を提供して、眼の角膜84に鏡面グリント82を作り出すことができる。撮像システムは、アイランプの発光波長範囲内の光を撮像するように構成された少なくとも1つのカメラ86を含む。このカメラは、眼で反射されたアイランプの光を撮影するように配置されるか、または他の形で構成される。カメラからの画像データが、マイクロコントローラ70またはコンピュータシステム20内の関連付けられたロジックに伝達される。そのロジックで画像データが処理されて、瞳孔の中心88、瞳孔の輪郭90、および/または角膜からの1つもしくは複数の鏡面グリント82などの特徴を分解することができる。それに加えて、またはそれに代えて、虹彩の中心や虹彩の輪郭が分解される場合もある。画像データ中のそのような特徴の場所を、特徴点を眼の注視ベクトル92に関係付けるモデル、例えば多項モデルの入力パラメータとして使用することができる。
[0034] 場合によっては、LCDマトリクス76からの表示画像が、ディスプレイシステム62の装着者が直接見るには適さない場合がある。詳細には、表示画像が装着者の眼からずれていたり、望ましくないバージェンス(vergence)があったり、および/または非常に小さい射出瞳である場合がある。そのような問題を考慮して、LCDマトリクスからの表示画像は、装着者の眼に向かう途中にさらに調整される場合がある。図4の実施形態では、LCDマトリクス76からの表示画像が、レンズ96を通じて縦方向瞳拡大器94に受け取られる。縦方向瞳拡大器は、表示画像を下げて装着者の視野の中に入れ、その際に表示画像の射出瞳を「縦」方向に拡大する。縦方向瞳拡大器94から、表示画像は横方向瞳拡大器に受け取られる。横方向瞳拡大器は表示窓68の内部に結合するか、または表示窓68として実施することができる。他の実施形態では、横方向瞳拡大器は表示窓とは別個にすることができる。いずれの場合も、横方向瞳拡大器は、表示画像の射出瞳を「横」方向に拡大する。横方向瞳拡大器と縦方向瞳拡大器を通過することにより、表示画像は、ほぼ眼を覆うエリアに提示される。
[0035] 上記の構成は、注視を利用した遠隔デバイスの制御の各種方法を可能にする。次いで、そのような方法のいくつかを、引き続き上記の構成を参照して例として説明する。ただし、本明細書に記載される方法および本開示の範囲にある他の方法は、異なる構成でも可能にすることができることは理解されよう。
[0036] 図5は、注視を利用して1つまたは複数の遠隔制御可能デバイスを制御する例示的方法98を説明する図である。方法98の100で、1つまたは複数の遠隔制御可能デバイスの場所が、コンピュータシステム20のデータ記憶媒体内にマッピングされる。一実施形態では、遠隔制御可能デバイスの場所は、直接のユーザ入力を介してマッピングすることができる。言い換えると、ユーザが1つまたは複数のデバイスの座標を入力するか、注視しているデバイスを識別しながら一度に1つずつデバイスを注視することによって、各デバイスをそれがある場所に関連付けることができる。実施形態によっては、このプロセスの一部として、デバイスの対話式のペアリングを行うこともできる。他の実施形態では、遠隔制御可能デバイスの場所は、上記のように、環境撮像システムを通じて取得された画像データと、画像データからの遠隔制御可能デバイスの識別とに基づいてマッピングすることができる。さらに他の実施形態では、遠隔制御可能デバイスの場所は、コンピュータシステムに動作可能に結合された感覚コンポーネント群で受信される信号に基づいてマッピングされる。信号は、遠隔制御可能電子デバイスに位置する送信機から発信される可能性がある。
[0037] 102で、コンピュータシステムのユーザの注視の方向が検出される。注視の方向は、ユーザの方に向けられた視覚システムの1つまたは複数のカメラから得られる、ユーザの頭部、顔、および/または眼の画像を取得することによって検出することができる。一実施形態では、画像は、ユーザの顔の大まかな向きを定義する場合がある。他の実施形態では、画像はさらに、瞳孔の中心、瞳孔の輪郭、またはユーザの角膜からの鏡面グリントなど、ユーザの眼に関する特徴を定義する場合もある。そして、頭部、顔、および/または眼の画像を注視検出エンジン56で分析して、ユーザの注視ベクトルを算出する。ディスプレイ16を含む実施形態では、遠隔制御可能な物体を選択するための注視は、ディスプレイの表示可能な境界の外側にある箇所に向けられる可能性がある。
[0038] 104で、現在の注視の方向が、場所がすでにマッピングされている遠隔制御可能デバイスの1つの場所と一致すると決定される。そのような決定は、例えば、ユーザの注視ベクトルを、遠隔制御可能デバイスの場所がマッピングされている座標系と同じ座標系に描くことによって行うことができる。
[0039] 106で、任意選択により、ユーザの顔を顔認識エンジン54で認識することができる。実施形態および使用の事例によっては、下記で詳しく説明するように、遠隔デバイスの制御は、システムを利用する特定のユーザに応じて異なる形で進行する可能性がある。したがって、顔認識を使用してユーザを識別し、それにより下流の処理に通知を出すことができる。
[0040] 108で、注視の方向に配置されている遠隔制御可能デバイスを制御するためのユーザからのインジケーションが検出される。一実施形態では、遠隔制御可能デバイスを制御しようとする意思は、単にユーザの注視の休止によって示すことができる。言い換えると、ユーザはデバイスを2秒間や5秒間などの閾値時間にわたって注視して、そのデバイスを制御したい意思を示すことができる。
[0041] さらに他の実施形態では、遠隔制御可能デバイスを制御したい意思は、付帯インジケーションを通じて伝達される。この目的に適する付帯インジケーションの1つはユーザの音声であり、音声は聴覚システム40を介して受け取られ、音声認識エンジン50で認識することができる。例えば、ユーザは「電源オン」と言うことにより、注視しているデバイスの電源を入れることができる。他の適切な付帯インジケーションには、視覚システム38を介して受け取られ、ジェスチャ認識エンジン52で解釈される、ユーザの手または身体のジェスチャが含まれ得る。一例として、ユーザは遠隔制御可能デバイスを見ながら一方の手を挙げることにより、デバイスの電源を入れたいことを示すことができる。
[0042] 110で、ユーザの注視の方向にある遠隔制御可能デバイスをユーザが制御できるようにするために、コントローラデバイスのユーザインターフェースが適合される。本開示の種々の実施形態では、ユーザインターフェースの適合の性質は種々の形態を取る可能性がある。上記のように、各種のコントローラデバイスが本方法に対応可能である。実施形態によっては、コントローラデバイスは、ディスプレイ(例えばテレビ、コンピュータモニタ、専用ディスプレイ等)に動作可能に結合された娯楽システムやゲームシステムである場合もある。その場合、適合されたユーザインターフェースは、ディスプレイに提示された、選択された遠隔制御可能デバイスのユーザインターフェースを含むことができる。適合されたユーザインターフェースがディスプレイに提示される実施形態では、インターフェース表示の操作も可能にされる。操作の適切なモードには、これらに限定されないが、音声による操作、手のジェスチャによる操作、および注視の方向による操作が含まれる。ユーザインターフェースがユーザの注視の方向に基づいて操作される実施形態では、ユーザの注視はディスプレイ上の箇所に向けることができる。
[0043] 図6は、ユーザ14が注視の方向または手のジェスチャに基づいてディスプレイ16に提示されたUIを操作する使用事例を説明する図である。視覚システム38(または他の適切な注視検出システム、例えば頭部装着ディスプレイ)からの画像データに基づいて、注視検出エンジン56は、ユーザが注視している点に対応する表示画面の座標(X,Y)を算出するように構成することができる。同様に、ジェスチャ検出エンジン52は、ユーザの身体に固定された座標系112に対するユーザの手の位置に基づいて、同様の座標を算出するように構成することができる。そのようにして、ユーザは、遠隔制御可能デバイスを制御するために設けられた各種のUI要素を操作することができる。
[0044] 他の実施形態では、コントローラデバイスは、汎用リモコンなどの手持ち型のデバイスである場合もある。その場合、コントローラデバイスのユーザインターフェースを適合する動作は、デバイスの押しボタンまたは他のコントロールの効果を変える、また実施形態によっては、押しボタンまたは他のコントロールの外観を変えることを含む可能性がある。他の実施形態では、遠隔制御可能デバイスを制御するためのユーザインターフェースの適合は、視覚的な適合以外の適合を含む場合もある。さらに他の実施形態では、ユーザインターフェースは視覚を利用するものでない場合もある。そのようなユーザインターフェースは、全体または一部が、上記の視覚システムおよび/または聴覚システムを通じて受け取られる声やジェスチャなどの自然ユーザ入力に依拠する場合がある。
[0045] 次いで図5に戻ると、使用事例によっては、デバイスは、システムを利用している特定のユーザに応じて異なる形で制御されることがある。例えば、子どもがゲームシステムやケーブルボックスを制御できることは容認できるが、子どもがサーモスタットを調整できることは容認できない可能性がある。さらに、ユーザの中には、特定のデバイスでは単純なユーザインターフェースと対話することを好み、一方、他のユーザは、同じデバイスでもより複雑な制御を望む場合もある。したがって、110でコントローラデバイスのユーザインターフェースが適合される詳細な方式は、106における顔認識および/または他の適切な生体識別方法(例えば声の認識)で明らかになるユーザの特定に依存する可能性がある。例えば、ユーザの顔が子どもの顔と認識された場合、システムは、特定のデバイス用のUIの提示を抑制するか、単純化されたUIを提示することができる。
[0046] 114で、ユーザからの入力がコントローラデバイスで受信される。コントローラデバイスが汎用リモコンなどの適合可能な手持ち型デバイスである実施形態では、ユーザ入力は、ユーザによって駆動される押しボタンまたは他のコントロールを介して受信することができる。上記のように、そのようなコントロールの効果およびおそらくは外観は、110で、制御しようとする特定のデバイスに応じて適合することができる。例えば、それぞれのリモコンボタンに設けられた個別に制御可能な画面を制御して、そのボタンの現在の機能を表示することができる。他の非制限的な実施形態では、ユーザ入力は、手もしくは身体のジェスチャの形態、または注視の形態で受け取られる場合がある。例えば、ユーザインターフェースは110で、UI要素の集まりをディスプレイに提示するように適合される場合がある。その場合、ディスプレイの範囲内でのユーザの注視方向を使用して該当するUI要素をアクティブにして、要求される動作を行わせることができる。116で、受信された入力に基づいて、選択された遠隔制御可能デバイスに信号が送信されて、その結果その遠隔制御可能デバイスを制御する。
[0047] 事例によっては、同じトリガーに応答して2つ以上の遠隔制御可能デバイスが同時に制御される場合がある。例示的な事例の1つは、ユーザが映画をストリーミングしており、電話が鳴ったことでそれが中断される場合であり、電話機はユーザの環境内にあるが、ユーザの手元にはない。この出来事により、ユーザは鳴っている電話の方向を注視し、それにより電話機が制御する第1のデバイスとして選択される。ユーザが手を挙げるか、「電話に出る」と言うと、システムは、例えば電話機を室内のオーディオに接続したり、ディスプレイにUIを提示して音を消したり電話を切ることができるようにするなど、様々な方式で電話機を遠隔制御できるようにすることができる。118で、システムは、映画のストリーミングを自動的に一時停止して、第2の遠隔制御可能デバイス、例えばDVRやケーブルボックスの制御を実行することもできる。この例では、映画を一時停止する動作は、同時に第2のユーザインターフェースをディスプレイに提示することを伴う場合もある。第2のユーザインターフェースは、例えば、映像のストリーミングを停止または再開するオプションを提供することができる。
[0048] 上述の説明から明らかであるように、本明細書に記載の方法およびプロセスは、1つまたは複数の計算機からなるコンピュータシステムに結びつけることができる。そのような方法およびプロセスは、コンピュータアプリケーションプログラムもしくはサービス、アプリケーションプログラミングインターフェース(API)、ライブラリ、および/または他のコンピュータプログラム製品として実装される可能性がある。
[0049] 図2に簡略化した形態で示すのは、本明細書に記載の方法およびプロセスを支援するために使用されるコンピュータシステム20の非制限的な例である。コンピュータシステムは、論理機械120および命令記憶機械122を含む。コンピュータシステムは、ディスプレイ16、通信システム124、および図2には図示しない各種構成要素も含む。
[0050] それぞれの論理機械120は、命令を実行するように構成された1つまたは複数の物理装置を含む。例えば、論理機械は、1つまたは複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造、または他の論理構成体の一部である命令を実行するように構成される可能性がある。そのような命令を実装して、タスクを行う、データ型を実装する、1つもしくは複数の構成要素の状態を変化させる、技術的効果を実現する、または他の形で要求される結果を達成することができる。
[0051] 各論理機械120は、ソフトウェア命令を実行するように構成された1つまたは複数のプロセッサを含むことができる。それに加えて、またはそれに代えて、論理機械は、ハードウェア命令またはファームウェア命令を実行するように構成された1つまたは複数のハードウェアまたはファームウェアの論理機械を含む場合もある。論理機械のプロセッサは、シングルコアである場合も、マルチコアである場合もあり、プロセッサで実行される命令は、順次処理、並列処理、および/または分散処理されるように構成される可能性がある。論理機械の個々の構成要素は、任意選択により、2つ以上の別個の装置に分散することもでき、それぞれの装置は、遠隔に位置するか、および/または連携した処理を行うように構成される。論理機械の態様は、クラウドコンピューティング構成で構成された、遠隔からアクセス可能なネットワーク化されたコンピューティングデバイスによって仮想化し、実行することができる。
[0052] 各命令記憶機械122は、本明細書に記載される方法およびプロセスを実装するために関連付けられた論理機械120によって実行可能な命令を保持するように構成された、1つまたは複数の物理装置を含む。そのような方法およびプロセスが実装されると、命令記憶機械の状態は、例えば異なるデータを保持するなど、変化する場合がある。命令記憶機械には、取り外し可能装置および/または内蔵装置が含まれ、とりわけ、光学メモリ(例えば、CD、DVD、HD-DVD、Blu-Rayディスク等)、半導体メモリ(例えば、RAM、EPROM、EEPROM等)、および/または磁気メモリ(例えば、ハードディスクドライブ、フロッピーディスクドライブ、テープドライブ、MRAM等)が含まれる。命令記憶機械には、揮発性、不揮発性、動的、静的、読み書き両用、読出し専用、ランダムアクセス、順次アクセス、場所でアドレス指定可能、ファイルでアドレス指定可能、および/または内容でアドレス指定可能な装置が含まれる可能性がある。
[0053] 各命令記憶機械122は1つまたは複数の物理装置を含むことが認識されよう。ただし、本明細書に記載される命令の態様は、代わりに、物理装置によって有限の持続時間にわたって保持されるのでない通信媒体(例えば電磁気信号や光学信号等)で伝搬されることも可能である。
[0054] 論理機械および命令記憶機械の態様は、共に統合して1つまたは複数のハードウェア論理構成要素にすることができる。そのようなハードウェア論理構成要素には、例えば、利用者書き換え可能ゲートアレイ(FPGA)、特定プログラム用途および特定用途向け集積回路(PASIC/ASIC)、特定プログラム用途および特定用途向け標準製品(PSSP/ASSP)、システムオンチップ(SOC)、および複雑プログラム可能論理デバイス(CPLD)が含まれ得る。
[0055] 用語「モジュール」、「プログラム」、および「エンジン」は、特定の機能を行うために実装されるコンピュータシステムの態様を記述するために使用される場合がある。場合によっては、モジュール、プログラム、またはエンジンは、命令記憶機械に保持されている命令を実行する論理機械を介して具現化される場合がある。同じアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、関数等から異なるモジュール、プログラム、および/またはエンジンが具現化される場合があることは理解されよう。同様に、同じモジュール、プログラム、および/またはエンジンが、異なるアプリケーション、サービス、コードブロック、オブジェクト、ルーチン、API、関数等によって具現化される場合もある。用語「モジュール」、「プログラム」、および「エンジン」は、実行ファイル、データファイル、ライブラリ、ドライバ、スクリプト、データベースレコード等の個々または群を包含する。
[0056] 通信システム124は、コンピュータシステムを1つまたは複数の他の機械に通信的に結合するように構成することができる。通信システムは、1つまたは複数の異なる通信プロトコルと互換性のある有線および/または無線の通信装置を含む可能性がある。非制限的な例として、通信システムは、無線電話網、または有線もしくは無線のローカルエリアネットワークもしくはワイドエリアネットワークを介した通信を行うように構成することができる。実施形態によっては、通信システムは、計算機が、インターネットなどのネットワークを介して他の装置との間でメッセージを送信および/または受信できるようにすることができる。
[0057] 本明細書に開示される構成および/または手法は本質的に例示的なものであり、また多数の変形例が可能であることから、それらの具体的な実施形態や例は、制限的な意味に解釈すべきでないことは理解されよう。本明細書に記載される具体的なルーチンまたは方法は、任意数の処理手段の1つまたは複数を表す可能性がある。そのため、図示および/または記載される種々の動作は、図示および/もしくは記載される順序で行われる場合も、他の順序で行われる場合も、並行して行われる場合も、または省略される場合もある。同様に、上記のプロセスの順序は変更することができる。
[0058] 本開示の主題は、本明細書に開示される各種のプロセス、システムおよび構成、ならびに他の特徴、機能、動作、および/または特性の新規で非自明のすべての組み合わせおよびサブコンビネーション、ならびにそれらの均等物すべてを含む。
Claims (13)
- 注視方向検出器を備えたコンピューティングシステムで、注視を利用して遠隔デバイスを制御する方法であって、
前記注視方向検出器からのデータを介して、ユーザの注視の方向を検出するステップと、
前記注視の方向に位置する遠隔制御可能デバイスを制御するための前記ユーザからのインジケーションを検出するステップと、
前記遠隔制御可能デバイスをユーザが制御できるようにコントローラデバイスのユーザインターフェースを適合するステップと、
注視の方向を介して前記コントローラデバイスの前記ユーザインターフェースと対話している前記ユーザからの入力を受信するステップと、
前記受信された入力に基づいて、前記遠隔制御可能デバイスに信号を送信して前記遠隔制御可能デバイスを制御するステップと
を含む方法。 - 前記コントローラデバイスが、前記ユーザが見ることが可能なディスプレイを含み、前記適合されたユーザインターフェースが前記ディスプレイに提示される請求項1に記載の方法。
- 前記遠隔制御可能デバイスを制御するためのインジケーションが、前記注視の方向の休止を含む請求項1に記載の方法。
- 前記遠隔制御可能デバイスを制御するためのインジケーションが音声を含む請求項1に記載の方法。
- 前記遠隔制御可能デバイスを制御するためのインジケーションがジェスチャを含む請求項1に記載の方法。
- 前記ユーザの顔を認識するステップをさらに含み、前記コントローラデバイスの前記ユーザインターフェースが、認識された顔に基づいて異なる形で適合される請求項1に記載の方法。
- 前記コントローラデバイスが娯楽システムからなる請求項1に記載の方法。
- 前記コントローラデバイスが手持ち型デバイスからなる請求項1に記載の方法。
- 前記遠隔制御可能デバイスが第1の遠隔制御可能デバイスであり、前記方法は、1つまたは複数の他の遠隔制御可能デバイスを同時に制御するステップをさらに含む請求項1に記載の方法。
- 注視を利用して遠隔デバイスを制御するシステムであって、
動作可能に命令記憶機械に結合された論理機械を備え、前記命令記憶機械は、前記論理機械に、
注視方向検出器からのデータを介して、決定された注視の方向に配置されている遠隔制御可能デバイスを制御するためのユーザからのインジケーションを検出させ、
前記遠隔制御可能デバイスとは別個の表示装置を介して、前記遠隔制御可能デバイスをユーザが制御することができるユーザインターフェースを表示させ、
前記ユーザからの入力を受信させ、
前記受信された入力に基づいて、前記遠隔制御可能デバイスに信号を送信して前記遠隔制御可能デバイスを制御するための
命令を保持しているシステム。 - 前記命令を実行して、前記ディスプレイの外側の箇所に向けられた注視を検出することによって前記ユーザからの前記インジケーションを検出することができる請求項10に記載のシステム。
- 前記命令を実行して、前記ディスプレイ上の箇所に向けられた注視を介して前記ユーザからの前記入力を受信することができる請求項10に記載のシステム。
- 前記ディスプレイおよび注視方向検出器が、装着型デバイス内で前記記憶機械および論理機械と一体化されている請求項10に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/207,255 | 2014-03-12 | ||
US14/207,255 US20150261293A1 (en) | 2014-03-12 | 2014-03-12 | Remote device control via gaze detection |
PCT/US2015/019346 WO2015138271A1 (en) | 2014-03-12 | 2015-03-09 | Remote device control via gaze detection |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017513093A true JP2017513093A (ja) | 2017-05-25 |
JP2017513093A5 JP2017513093A5 (ja) | 2018-03-15 |
Family
ID=52727425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016552519A Withdrawn JP2017513093A (ja) | 2014-03-12 | 2015-03-09 | 注視の検出を介した遠隔デバイスの制御 |
Country Status (11)
Country | Link |
---|---|
US (1) | US20150261293A1 (ja) |
EP (1) | EP3117417B1 (ja) |
JP (1) | JP2017513093A (ja) |
KR (1) | KR20160135242A (ja) |
CN (1) | CN106104650A (ja) |
AU (1) | AU2015229755A1 (ja) |
CA (1) | CA2939532A1 (ja) |
MX (1) | MX2016011540A (ja) |
RU (1) | RU2016136371A (ja) |
TW (1) | TW201535155A (ja) |
WO (1) | WO2015138271A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL232391A0 (en) * | 2014-04-30 | 2014-08-31 | Pointgrab Ltd | A method and system for controlling accessories |
US20160027218A1 (en) * | 2014-07-25 | 2016-01-28 | Tom Salter | Multi-user gaze projection using head mounted display devices |
US10311638B2 (en) | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
US9766460B2 (en) | 2014-07-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Ground plane adjustment in a virtual reality environment |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
US9858720B2 (en) | 2014-07-25 | 2018-01-02 | Microsoft Technology Licensing, Llc | Three-dimensional mixed-reality viewport |
US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US9904055B2 (en) | 2014-07-25 | 2018-02-27 | Microsoft Technology Licensing, Llc | Smart placement of virtual objects to stay in the field of view of a head mounted display |
US9865089B2 (en) | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
US10921896B2 (en) | 2015-03-16 | 2021-02-16 | Facebook Technologies, Llc | Device interaction in augmented reality |
US11559365B2 (en) * | 2017-03-06 | 2023-01-24 | Intuitive Surgical Operations, Inc. | Systems and methods for entering and exiting a teleoperational state |
CN107097227B (zh) * | 2017-04-17 | 2019-12-06 | 北京航空航天大学 | 一种人机协作机器人系统 |
JP2020521217A (ja) * | 2017-05-19 | 2020-07-16 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード |
US11290518B2 (en) * | 2017-09-27 | 2022-03-29 | Qualcomm Incorporated | Wireless control of remote devices through intention codes over a wireless connection |
US10732826B2 (en) * | 2017-11-22 | 2020-08-04 | Microsoft Technology Licensing, Llc | Dynamic device interaction adaptation based on user engagement |
US10528817B2 (en) | 2017-12-12 | 2020-01-07 | International Business Machines Corporation | Smart display apparatus and control system |
KR102460665B1 (ko) | 2017-12-14 | 2022-10-31 | 삼성전자주식회사 | 응시 거리를 결정하는 방법 및 디바이스 |
US10559194B2 (en) * | 2018-02-23 | 2020-02-11 | Samsung Electronics Co., Ltd. | System and method for providing customized connected device functionality and for operating a connected device via an alternate object |
US10725176B2 (en) | 2018-03-14 | 2020-07-28 | Nathan J. DeVries | System and method of intrusion detection |
US12061680B1 (en) * | 2020-02-19 | 2024-08-13 | Apple Inc. | Electronic device system with ring devices |
US11994751B1 (en) | 2020-12-30 | 2024-05-28 | Snap Inc. | Dual system on a chip eyewear |
WO2022170366A1 (en) * | 2021-02-08 | 2022-08-11 | Virginia Tech Intellectual Properties Inc. | Personalized recommender system for informaton visualization |
US12093106B2 (en) * | 2021-05-19 | 2024-09-17 | International Business Machines Corporation | Augmented reality based power management |
US20230050526A1 (en) * | 2021-08-10 | 2023-02-16 | International Business Machines Corporation | Internet of things configuration using eye-based controls |
US11997249B2 (en) | 2021-10-14 | 2024-05-28 | Snap Inc. | Dual system on a chip eyewear |
US20230123344A1 (en) * | 2021-10-14 | 2023-04-20 | Jason Heger | Dual system on a chip eyewear |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69810557D1 (de) * | 1997-08-27 | 2003-02-13 | Canon Kk | Gerät und Verfahren zum Eingeben von Daten basierend auf visueller Erfassung |
CN1740951A (zh) * | 2004-08-25 | 2006-03-01 | 西门子公司 | 用于利用人眼进行设备控制的装置 |
US7183920B2 (en) * | 2004-08-31 | 2007-02-27 | Gtech Rhode Island Corporation | System and method for detecting access to an article or opening of a package |
CN101169897A (zh) * | 2006-10-25 | 2008-04-30 | 友立资讯股份有限公司 | 多媒体系统的脸部检测的遥控系统及其方法及多媒体系统 |
US8384718B2 (en) * | 2008-01-10 | 2013-02-26 | Sony Corporation | System and method for navigating a 3D graphical user interface |
WO2011043762A1 (en) * | 2009-10-05 | 2011-04-14 | Hewlett-Packard Development Company, L.P. | User interface |
WO2011158511A1 (ja) * | 2010-06-17 | 2011-12-22 | パナソニック株式会社 | 指示入力装置、指示入力方法、プログラム、記録媒体および集積回路 |
US8395655B2 (en) * | 2010-08-15 | 2013-03-12 | Hewlett-Packard Development Company, L.P. | System and method for enabling collaboration in a video conferencing system |
US9658687B2 (en) * | 2011-09-30 | 2017-05-23 | Microsoft Technology Licensing, Llc | Visual focus-based control of coupled displays |
US20130147686A1 (en) * | 2011-12-12 | 2013-06-13 | John Clavin | Connecting Head Mounted Displays To External Displays And Other Communication Networks |
US9773345B2 (en) * | 2012-02-15 | 2017-09-26 | Nokia Technologies Oy | Method and apparatus for generating a virtual environment for controlling one or more electronic devices |
US9122321B2 (en) * | 2012-05-04 | 2015-09-01 | Microsoft Technology Licensing, Llc | Collaboration environment using see through displays |
US8893164B1 (en) * | 2012-05-16 | 2014-11-18 | Google Inc. | Audio system |
US20140009395A1 (en) * | 2012-07-05 | 2014-01-09 | Asustek Computer Inc. | Method and system for controlling eye tracking |
KR20140011203A (ko) * | 2012-07-18 | 2014-01-28 | 삼성전자주식회사 | 복수의 디스플레이 장치와 연결된 제어 장치 및 그의 제어 방법, 그리고 디스플레이 장치 제어 시스템 |
KR101984590B1 (ko) * | 2012-11-14 | 2019-05-31 | 엘지전자 주식회사 | 디스플레이 디바이스 및 그 제어 방법 |
US11747895B2 (en) * | 2013-03-15 | 2023-09-05 | Intuitive Surgical Operations, Inc. | Robotic system providing user selectable actions associated with gaze tracking |
US20140368442A1 (en) * | 2013-06-13 | 2014-12-18 | Nokia Corporation | Apparatus and associated methods for touch user input |
CN103500061B (zh) * | 2013-09-26 | 2017-11-07 | 三星电子(中国)研发中心 | 控制显示器的方法及设备 |
-
2014
- 2014-03-12 US US14/207,255 patent/US20150261293A1/en not_active Abandoned
-
2015
- 2015-01-12 TW TW104100974A patent/TW201535155A/zh unknown
- 2015-03-09 WO PCT/US2015/019346 patent/WO2015138271A1/en active Application Filing
- 2015-03-09 CA CA2939532A patent/CA2939532A1/en not_active Abandoned
- 2015-03-09 CN CN201580013359.5A patent/CN106104650A/zh active Pending
- 2015-03-09 MX MX2016011540A patent/MX2016011540A/es unknown
- 2015-03-09 JP JP2016552519A patent/JP2017513093A/ja not_active Withdrawn
- 2015-03-09 KR KR1020167027942A patent/KR20160135242A/ko unknown
- 2015-03-09 RU RU2016136371A patent/RU2016136371A/ru not_active Application Discontinuation
- 2015-03-09 EP EP15711971.0A patent/EP3117417B1/en active Active
- 2015-03-09 AU AU2015229755A patent/AU2015229755A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
RU2016136371A3 (ja) | 2018-09-21 |
RU2016136371A (ru) | 2018-03-15 |
EP3117417A1 (en) | 2017-01-18 |
AU2015229755A1 (en) | 2016-09-08 |
EP3117417B1 (en) | 2017-12-20 |
CN106104650A (zh) | 2016-11-09 |
WO2015138271A1 (en) | 2015-09-17 |
MX2016011540A (es) | 2016-11-29 |
CA2939532A1 (en) | 2015-09-17 |
US20150261293A1 (en) | 2015-09-17 |
TW201535155A (zh) | 2015-09-16 |
KR20160135242A (ko) | 2016-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017513093A (ja) | 注視の検出を介した遠隔デバイスの制御 | |
US20210407203A1 (en) | Augmented reality experiences using speech and text captions | |
US10777016B2 (en) | System and method of enhancing user's immersion in mixed reality mode of display apparatus | |
CN111052043B (zh) | 使用现实界面控制外部设备 | |
CN109313911B (zh) | 沉浸式显示设备上的自动音频衰减 | |
TWI549505B (zh) | 用於擴展現實顯示的基於理解力和意圖的內容 | |
CN112114429B (zh) | 基于用户的上下文敏感全息图反应 | |
US9710130B2 (en) | User focus controlled directional user input | |
US9342610B2 (en) | Portals: registered objects as virtualized, personalized displays | |
US11429186B2 (en) | Location-based entity selection using gaze tracking | |
US9727132B2 (en) | Multi-visor: managing applications in augmented reality environments | |
US20130328925A1 (en) | Object focus in a mixed reality environment | |
US20130326364A1 (en) | Position relative hologram interactions | |
US20130342572A1 (en) | Control of displayed content in virtual environments | |
KR20160132411A (ko) | 제스처 파라미터 튜닝 | |
US10789912B2 (en) | Methods and apparatus to control rendering of different content for different view angles of a display | |
US11729573B2 (en) | Audio enhanced augmented reality | |
US11803234B2 (en) | Augmented reality with eyewear triggered IoT | |
US11863963B2 (en) | Augmented reality spatial audio experience |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180130 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180130 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20180926 |