JP6591411B2 - 空間的対話における追加モダリティのための顔追跡 - Google Patents
空間的対話における追加モダリティのための顔追跡 Download PDFInfo
- Publication number
- JP6591411B2 JP6591411B2 JP2016527260A JP2016527260A JP6591411B2 JP 6591411 B2 JP6591411 B2 JP 6591411B2 JP 2016527260 A JP2016527260 A JP 2016527260A JP 2016527260 A JP2016527260 A JP 2016527260A JP 6591411 B2 JP6591411 B2 JP 6591411B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- user device
- coordinate system
- face
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Description
本特許出願は、本出願の譲受人に譲渡され、参照により本明細書に明確に全体が組み込まれている、本出願と同じ発明者によって2013年11月8日に出願された、「SPATIAL INTERACTION USING FACE TRACKING」と題する仮出願第61/902,025号に対する優先権を主張する。
一般に、マジックレンズはスクリーンと整列されるので、従来のマジックレンズを使用する2つの自由度のみがある。いくつかの実装形態によると、座標内で1つまたは複数のモダリティを使用すると、マジックレンズはそれに従って動くことができる。たとえば、実世界スクリーン上に実際に示される、異なるレイヤが存在する場合がある。その結果、追加モダリティは、マジックレンズの内容を切り替え、マジックレンズを最大で6つの自由度で動かすことができるようにする。6つの自由度は、ユーザ102の注視またはユーザ102の視線を使用して可能にされる。
図示する顔検出器726、顔追跡器728、および瞬き検出器730は、どの適切な外見ベースの顔認識技法を使用しても実装することができる。適切な外見ベースの顔認識技法は、直接相関技法、固有顔技法などを含む。図示する顔検出器726および顔追跡器728は、センサなしで実装することができる。
図8は、1つまたは複数の実装形態による対話論理710のハイレベルブロック図を示す。図示する対話論理710は、ポーズ顔モジュール732、瞬きトリガモジュール734、ポーズデバイスモジュール742、および他の入力モダリティ802から入力を受信する。図示する対話論理710は、レンダラ712に出力を与える。1つまたは複数の実装形態において、対話論理710は、ユーザ102の顔の配向における位置、ユーザ102の顔の外見(たとえば、瞬きおよび笑み)、ならびにユーザデバイス702位置および配向の変化を、拡張現実環境(たとえば、拡張現実環境100および200)におけるアクションを与えるために解釈する。
図示するマッパー816は、顔ポーズ配向および変換(座標)、ならびにデバイス配向および変換(座標)が互いとマージされるように、連続的に同じときに(すなわち、同時に)稼動している顔追跡器728および画像追跡器738からのデータをマージする。マッパー816は、何がレンダリングされるべきであるか、および/または何がユーザデバイス702のスクリーンに表示されるべきであるかに関する判断を行うことができる。さらに、マッパー816は、ユーザデバイス702上で音が再生されるべきであるかどうかを判断することができる。
102 ユーザ
104 ユーザデバイス
106 ターゲット
112 ディスプレイ
114 座標系
116 座標系
118 座標系
200 拡張現実環境
202 オブジェクト
304 コーヒーカップ
502 中心点
602 バウンディングボリューム
700 拡張現実システム、システム
702 ユーザデバイス
704 慣性測定ユニット(IMU)
706 プロセッサ
708 メモリ
710 対話論理
712 レンダラ
714 合成器
716 グラフィック処理ユニット(GPU)
718 カメラ正面
720 カメラ背面
722 画像
724 画像
726 顔検出器
728 顔追跡器
730 瞬き検出器
732 ポーズ顔モジュール
734 瞬きトリガモジュール
736 画像ターゲット検出器
738 画像追跡器
740 センサ追跡器
742 ポーズデバイスモジュール、ポーズデバイス
802 他の入力モダリティ
804 配向および変換フィルタ
806 制約ソルバ
808 時間コヒーレンシモジュール
810 対話オブジェクトモジュール、対話オブジェクト
812 グローバル座標系モジュール
814 空間的対話モジュール
816 マッパー
Claims (35)
- ユーザとユーザデバイスの空間的対話を実施するための装置であって、
前記ユーザデバイスの少なくとも1つのプロセッサを含み、
前記少なくとも1つのプロセッサに、
画像追跡器に、第1の座標系において、前記ユーザデバイスに相対した前記ユーザの顔の位置および配向を検出および追跡させることと、
センサ追跡器に、第2の座標系において、ターゲットに相対した前記ユーザデバイスの位置および配向を検出および追跡させることと、
前記第1の座標系と前記第2の座標系をグローバル座標系にマッピングすることと、
前記ユーザの前記顔の前記検出された位置および配向と、前記ユーザデバイスの前記検出された位置および配向と、前記グローバル座標系とに基づいて、前記ユーザの前記顔を連続的に追跡することと、
前記ユーザの少なくとも注視を含む前記ユーザからの入力を受信することであって、前記ユーザの注視は、連続的に追跡されている前記ユーザの前記顔に少なくとも部分的に基づいて決定される、受信することと、
前記ユーザからの前記入力と前記ユーザデバイスの前記位置または配向とに基づいて、前記ユーザデバイスのユーザインターフェースに表示される前記ターゲットの表示を操作することであって、前記ターゲットの前記表示の前記操作は、前記ユーザの前記注視に基づいた前記ターゲットの前記表示の分解図の表示を含む、操作することと
を行わせるように構成される、装置。 - 前記センサ追跡器が、
前記ユーザデバイスの動きを検出すること、
前記ユーザデバイスの動きを追跡すること、
前記ターゲットを検出すること、または
前記ターゲットの動きを連続的に追跡すること
を行うように構成される、請求項1に記載の装置。 - 前記画像追跡器が、
前記ユーザの前記顔を検出すること、
前記ユーザの前記顔の動きを追跡すること、または
前記ユーザが瞬きしたかどうかを判断するように、および前記ユーザが瞬きしたことに基づいて前記ユーザデバイスをトリガすること
を行うように構成される、請求項1に記載の装置。 - 前記少なくとも1つのプロセッサが、前記ユーザデバイスの前の3つの自由度および前記ユーザデバイスの後ろの3つの自由度に対応する情報を使用するようにさらに構成される、請求項1に記載の装置。
- 前記第1の座標系が、前記ユーザデバイスの前の顔対デバイス座標系である、請求項1に記載の装置。
- 前記第2の座標系が、前記ユーザデバイスの後ろのデバイス対ターゲット座標系である、請求項1に記載の装置。
- 前記グローバル座標系が、実世界座標系を含む、請求項1に記載の装置。
- ユーザとユーザデバイスの空間的対話を実施するための方法であって、
前記ユーザデバイスに相対した前記ユーザの顔の位置および配向を、第1の座標系において検出および追跡するステップと、
ターゲットに相対した前記ユーザデバイスの位置および配向を、第2の座標系において検出および追跡するステップと、
前記第1の座標系と前記第2の座標系をグローバル座標系にマッピングするステップと、
前記ユーザの前記検出された顔、前記ユーザデバイスの前記検出された位置、および前記グローバル座標系に基づいて、前記ユーザの前記顔を連続的に追跡するステップと、
前記ユーザの少なくとも注視を含む前記ユーザからの入力を受信するステップであって、前記ユーザの注視は、連続的に追跡されている前記ユーザの前記顔に少なくとも部分的に基づいて決定される、ステップと、
前記ユーザからの前記入力と前記ユーザデバイスの前記位置または配向とに基づいて、前記ユーザデバイスのユーザインターフェースに表示される前記ターゲットの表示を操作するステップであって、前記ターゲットの前記表示の前記操作は、前記ユーザの前記注視に基づいた前記ターゲットの前記表示の分解図の表示を含む、ステップと
を含む方法。 - 前記ユーザデバイスの動きを検出するステップ、
前記ユーザデバイスの動きを追跡するステップ、
前記ターゲットを検出するステップ、または
前記ターゲットの動きを連続的に追跡するステップ
のうちの少なくとも1つをさらに含む、請求項8に記載の方法。 - 前記ユーザの前記顔を検出するステップ、
前記ユーザの前記顔の動きを追跡するステップ、または
前記ユーザが瞬きしたかどうかを判断し、前記ユーザが瞬きしたことに基づいて前記ユーザデバイスをトリガするステップ
のうちの少なくとも1つをさらに含む、請求項8に記載の方法。 - 前記ユーザデバイスの前の3つの自由度および前記ユーザデバイスの後ろの3つの自由度に対応する情報を使用するステップをさらに含む、請求項8に記載の方法。
- 前記第1の座標系が、前記ユーザデバイスの前の顔対デバイス座標系である、請求項8に記載の方法。
- 前記第2の座標系が、前記ユーザデバイスの後ろのデバイス対ターゲット座標系である、請求項8に記載の方法。
- 前記グローバル座標系が、実世界座標系を含む、請求項8に記載の方法。
- ユーザとユーザデバイスの空間的対話を実施するための装置であって、
第1の座標系において、前記ユーザデバイスに相対した前記ユーザの顔の位置および配向を検出および追跡するための手段と、
第2の座標系において、ターゲットに相対した前記ユーザデバイスの位置および配向を検出および追跡するための手段と、
前記第1の座標系と前記第2の座標系をグローバル座標系にマッピングするための手段と、
前記ユーザの前記検出された顔、前記ユーザデバイスの前記検出された位置、および前記グローバル座標系に基づいて、前記ユーザの前記顔を連続的に追跡するための手段と、
前記ユーザの少なくとも注視を含む前記ユーザからの入力を受信するための手段であって、前記ユーザの注視は、連続的に追跡されている前記ユーザの前記顔に少なくとも部分的に基づいて決定される、手段と、
前記ユーザからの前記入力と前記ユーザデバイスの前記位置または配向とに基づいて、前記ユーザデバイスのユーザインターフェースに表示される前記ターゲットの表示を操作するための手段であって、前記ターゲットの前記表示の前記操作は、前記ユーザの前記注視に基づいた前記ターゲットの前記表示の分解図の表示を含む、手段と
を備える装置。 - 前記ユーザデバイスの動きを検出するための手段、
前記ユーザデバイスの動きを追跡するための手段、
前記ターゲットを検出するための手段、または
前記ターゲットの動きを連続的に追跡するための手段
のうちの少なくとも1つをさらに備える、請求項15に記載の装置。 - 前記ユーザの前記顔を検出するための手段、
前記ユーザの前記顔の動きを追跡するための手段、または
前記ユーザが瞬きしたかどうかを判断し、前記ユーザが瞬きしたことに基づいて前記ユーザデバイスをトリガするための手段
のうちの少なくとも1つをさらに備える、請求項15に記載の装置。 - 前記ユーザデバイスの前の3つの自由度および前記ユーザデバイスの後ろの3つの自由度に対応する情報を使用するための手段をさらに備える、請求項15に記載の装置。
- 前記第1の座標系が、前記ユーザデバイスの前の顔対デバイス座標系である、請求項15に記載の装置。
- 前記第2の座標系が、前記ユーザデバイスの後ろのデバイス対ターゲット座標系である、請求項15に記載の装置。
- 前記グローバル座標系が、実世界座標系を含む、請求項15に記載の装置。
- 1つまたは複数の命令を記憶した非一時的コンピュータ可読記憶媒体であって、前記1つまたは複数の命令が、
ユーザデバイスに、第1の座標系において、前記ユーザデバイスに相対したユーザの顔の位置および配向を検出および追跡させる少なくとも1つの命令と、
前記ユーザデバイスに、第2の座標系において、ターゲットに相対した前記ユーザデバイスの位置および配向を検出および追跡させる少なくとも1つの命令と、
前記ユーザデバイスに、前記第1の座標系と前記第2の座標系をグローバル座標系にマッピングさせる少なくとも1つの命令と、
前記ユーザデバイスに、前記ユーザの前記顔の前記検出された位置および配向と、前記ユーザデバイスの前記検出された位置および配向と、前記グローバル座標系とに基づいて、前記ユーザの前記顔を連続的に追跡させる少なくとも1つの命令と、
前記ユーザデバイスに、前記ユーザの少なくとも注視を含む前記ユーザからの入力を受信させる少なくとも1つの命令であって、前記ユーザの注視は、連続的に追跡されている前記ユーザの前記顔に少なくとも部分的に基づいて決定される、少なくとも1つの命令と、
前記ユーザデバイスに、前記ユーザからの前記入力と前記ユーザデバイスの前記位置または配向とに基づいて、前記ユーザデバイスのユーザインターフェースに表示される前記ターゲットの表示を操作させる少なくとも1つの命令であって、前記ターゲットの前記表示の前記操作は、前記ユーザの前記注視に基づいた前記ターゲットの前記表示の分解図の表示を含む、少なくとも1つの命令と
を含む、非一時的コンピュータ可読記憶媒体。 - 前記ユーザデバイスに、前記ユーザデバイスの動きを検出させる少なくとも1つの命令、
前記ユーザデバイスに、前記ユーザデバイスの動きを追跡させる少なくとも1つの命令、
前記ユーザデバイスに、前記ターゲットを検出させる少なくとも1つの命令、または
前記ユーザデバイスに、前記ターゲットの動きを連続的に追跡させる少なくとも1つの命令
をさらに含む、請求項22に記載の非一時的コンピュータ可読記憶媒体。 - 前記ユーザデバイスに、前記ユーザの前記顔を検出させる少なくとも1つの命令、
前記ユーザデバイスに、前記ユーザの前記顔の動きを追跡させる少なくとも1つの命令、または
前記ユーザデバイスに、前記ユーザが瞬きしたかどうかを判断するように、および前記ユーザが瞬きしたことに基づいて前記ユーザデバイスをトリガさせる少なくとも1つの命令
をさらに含む、請求項22に記載の非一時的コンピュータ可読記憶媒体。 - 前記ユーザデバイスに、前記ユーザデバイスの前の3つの自由度および前記ユーザデバイスの後ろの3つの自由度に対応する情報を使用させる少なくとも1つの命令をさらに含む、請求項22に記載の非一時的コンピュータ可読記憶媒体。
- 前記第1の座標系が、前記ユーザデバイスの前の顔対デバイス座標系であり、
前記第2の座標系が、前記ユーザデバイスの後ろのデバイス対ターゲット座標系である、請求項22に記載の非一時的コンピュータ可読記憶媒体。 - 前記ユーザデバイスに、前記ユーザデバイスの前の3つの自由度に対応する情報を使用させる少なくとも1つの命令をさらに含む、請求項22に記載の非一時的コンピュータ可読記憶媒体。
- 前記ユーザデバイスに、前記ユーザデバイスの後ろの3つの自由度に対応する情報を使用させる少なくとも1つの命令をさらに含む、請求項22に記載の非一時的コンピュータ可読記憶媒体。
- 前記ユーザデバイスに、前記ユーザが前記ユーザデバイスに対して動いたと判断させる少なくとも1つの命令をさらに含む、請求項22に記載の非一時的コンピュータ可読記憶媒体。
- 前記ユーザデバイスに、前記ユーザデバイスが前記ターゲットに対して動いたと判断させる少なくとも1つの命令をさらに含む、請求項22に記載の非一時的コンピュータ可読記憶媒体。
- 前記画像追跡器が、前記少なくとも1つのプロセッサに結合されたハードウェアコンポーネント、前記少なくとも1つのプロセッサによって実行されるソフトウェアモジュール、ハードウェアとソフトウェアとの組み合わせを含み、
前記センサ追跡器が、前記少なくとも1つのプロセッサに結合されたハードウェアコンポーネント、前記少なくとも1つのプロセッサによって実行されるソフトウェアモジュール、ハードウェアとソフトウェアとの組み合わせを含む、請求項1に記載の装置。 - 操作することを行うように構成された前記少なくとも1つのプロセッサが、前記ユーザの前記注視に基づいて、前記ターゲットの前記表示のズームレベルの増加を表示するように構成された少なくとも1つのプロセッサを含む、請求項1に記載の装置。
- 操作することを行うように構成された前記少なくとも1つのプロセッサが、前記ターゲットの前記表示のx線ビューを表示するように構成された少なくとも1つのプロセッサを含む、請求項1に記載の装置。
- 操作することを行うように構成された前記少なくとも1つのプロセッサが、前記ユーザの前記注視の方向に基づいて、前記ターゲットの前記表示の詳細のレベルを変更するように構成された少なくとも1つのプロセッサを含む、請求項1に記載の装置。
- 前記ターゲットの前記表示の前記ズームレベルが、前記ユーザの前記注視の方向に基づいて増加される、請求項32に記載の装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361902025P | 2013-11-08 | 2013-11-08 | |
US61/902,025 | 2013-11-08 | ||
US14/535,132 | 2014-11-06 | ||
US14/535,132 US10146299B2 (en) | 2013-11-08 | 2014-11-06 | Face tracking for additional modalities in spatial interaction |
PCT/US2014/064625 WO2015070063A1 (en) | 2013-11-08 | 2014-11-07 | Face tracking for additional modalities in spatial interaction |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016536687A JP2016536687A (ja) | 2016-11-24 |
JP2016536687A5 JP2016536687A5 (ja) | 2017-11-30 |
JP6591411B2 true JP6591411B2 (ja) | 2019-10-16 |
Family
ID=52014350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016527260A Active JP6591411B2 (ja) | 2013-11-08 | 2014-11-07 | 空間的対話における追加モダリティのための顔追跡 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10146299B2 (ja) |
EP (1) | EP3066543B1 (ja) |
JP (1) | JP6591411B2 (ja) |
CN (2) | CN105683868B (ja) |
ES (1) | ES2897797T3 (ja) |
WO (1) | WO2015070063A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017136938A1 (en) * | 2016-02-10 | 2017-08-17 | Tandemlaunch Inc. | A quality adaptive multimodal affect recognition system for user-centric multimedia indexing |
US11056022B1 (en) * | 2016-11-29 | 2021-07-06 | Sproutel, Inc. | System, apparatus, and method for creating an interactive augmented reality experience to simulate medical procedures for pediatric disease education |
US10748450B1 (en) * | 2016-11-29 | 2020-08-18 | Sproutel, Inc. | System, apparatus, and method for creating an interactive augmented reality experience to simulate medical procedures for pediatric disease education |
DE102017108194A1 (de) * | 2017-04-18 | 2018-10-18 | Vorwerk & Co. Interholding Gmbh | Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Fahrzeugs |
CN108563327B (zh) * | 2018-03-26 | 2020-12-01 | Oppo广东移动通信有限公司 | 增强现实方法、装置、存储介质及电子设备 |
CN108932632A (zh) * | 2018-06-01 | 2018-12-04 | 北京市商汤科技开发有限公司 | 广告互动方法及装置、电子设备和存储介质 |
US11733824B2 (en) | 2018-06-22 | 2023-08-22 | Apple Inc. | User interaction interpreter |
Family Cites Families (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6317127B1 (en) * | 1996-10-16 | 2001-11-13 | Hughes Electronics Corporation | Multi-user real-time augmented reality system and method |
US6842175B1 (en) * | 1999-04-22 | 2005-01-11 | Fraunhofer Usa, Inc. | Tools for interacting with virtual environments |
JP2002157607A (ja) * | 2000-11-17 | 2002-05-31 | Canon Inc | 画像生成システム、画像生成方法および記憶媒体 |
JP3762309B2 (ja) * | 2002-02-18 | 2006-04-05 | キヤノン株式会社 | 位置方向測定装置および情報処理方法 |
US7737965B2 (en) * | 2005-06-09 | 2010-06-15 | Honeywell International Inc. | Handheld synthetic vision device |
US8730156B2 (en) * | 2010-03-05 | 2014-05-20 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
WO2009049282A2 (en) * | 2007-10-11 | 2009-04-16 | University Of Florida Research Foundation, Inc. | Mixed simulator and uses thereof |
US20090322671A1 (en) | 2008-06-04 | 2009-12-31 | Cybernet Systems Corporation | Touch screen augmented reality system and method |
US9092053B2 (en) | 2008-06-17 | 2015-07-28 | Apple Inc. | Systems and methods for adjusting a display based on the user's position |
WO2010030985A1 (en) | 2008-09-12 | 2010-03-18 | Gesturetek, Inc. | Orienting displayed elements relative to a user |
US8788977B2 (en) | 2008-11-20 | 2014-07-22 | Amazon Technologies, Inc. | Movement recognition as input mechanism |
CN101943982B (zh) * | 2009-07-10 | 2012-12-12 | 北京大学 | 基于被跟踪的眼睛运动的图像操作 |
US8762846B2 (en) * | 2009-11-16 | 2014-06-24 | Broadcom Corporation | Method and system for adaptive viewport for a mobile device based on viewing angle |
US9507418B2 (en) * | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
CN105843396B (zh) | 2010-03-05 | 2019-01-01 | 索尼电脑娱乐美国公司 | 在共享的稳定虚拟空间上维持多视图的方法 |
US9901828B2 (en) * | 2010-03-30 | 2018-02-27 | Sony Interactive Entertainment America Llc | Method for an augmented reality character to maintain and exhibit awareness of an observer |
US8581905B2 (en) * | 2010-04-08 | 2013-11-12 | Disney Enterprises, Inc. | Interactive three dimensional displays on handheld devices |
JP5651386B2 (ja) * | 2010-06-23 | 2015-01-14 | ソフトバンクモバイル株式会社 | 眼鏡型表示装置 |
WO2012031075A1 (en) * | 2010-09-01 | 2012-03-08 | Magnus Sorlander | Fail-safe switch for media insertion server in a broadcast stream |
KR101740231B1 (ko) | 2010-11-17 | 2017-05-26 | 삼성전자주식회사 | 3차원 얼굴 위치 추정 방법 및 장치 |
DE102010060942A1 (de) * | 2010-12-01 | 2012-06-06 | Sick Ag | Sensoranordnung zur Objekterkennung |
WO2012080363A1 (de) * | 2010-12-15 | 2012-06-21 | Carl Zeiss Ag | Automatisierte abbildung vorbestimmter bereiche in schnittserien |
US9354718B2 (en) * | 2010-12-22 | 2016-05-31 | Zspace, Inc. | Tightly coupled interactive stereo display |
US20120304059A1 (en) * | 2011-05-24 | 2012-11-29 | Microsoft Corporation | Interactive Build Instructions |
US20130063560A1 (en) * | 2011-09-12 | 2013-03-14 | Palo Alto Research Center Incorporated | Combined stereo camera and stereo display interaction |
US9974615B2 (en) * | 2011-09-28 | 2018-05-22 | Brainlab Ag | Determining a position of a medical device to be localized |
US20130121559A1 (en) | 2011-11-16 | 2013-05-16 | Sharp Laboratories Of America, Inc. | Mobile device with three dimensional augmented reality |
US20130137076A1 (en) * | 2011-11-30 | 2013-05-30 | Kathryn Stone Perez | Head-mounted display based education and instruction |
US20130159935A1 (en) * | 2011-12-16 | 2013-06-20 | Garrick EVANS | Gesture inputs for navigating in a 3d scene via a gui |
WO2013111119A1 (en) * | 2012-01-27 | 2013-08-01 | Saar Wilf | Simulating interaction with a three-dimensional environment |
US20140068526A1 (en) * | 2012-02-04 | 2014-03-06 | Three Bots Ltd | Method and apparatus for user interaction |
US9291697B2 (en) | 2012-04-13 | 2016-03-22 | Qualcomm Incorporated | Systems, methods, and apparatus for spatially directive filtering |
US20130286161A1 (en) | 2012-04-25 | 2013-10-31 | Futurewei Technologies, Inc. | Three-dimensional face recognition for mobile devices |
US20140092005A1 (en) * | 2012-09-28 | 2014-04-03 | Glen Anderson | Implementation of an augmented reality element |
TWI466062B (zh) * | 2012-10-04 | 2014-12-21 | Ind Tech Res Inst | 重建三維模型的方法與三維模型重建裝置 |
US8928695B2 (en) * | 2012-10-05 | 2015-01-06 | Elwha Llc | Formatting of one or more persistent augmentations in an augmented view in response to multiple input factors |
US20140168261A1 (en) * | 2012-12-13 | 2014-06-19 | Jeffrey N. Margolis | Direct interaction system mixed reality environments |
US9230326B1 (en) * | 2012-12-31 | 2016-01-05 | Cognex Corporation | System, method and calibration plate employing embedded 2D data codes as self-positioning fiducials |
US20140313103A1 (en) * | 2013-04-19 | 2014-10-23 | Qualcomm Incorporated | Coordinating a display function between a plurality of proximate client devices |
EP2800020B1 (en) * | 2013-04-30 | 2020-11-04 | Dassault Systèmes | A computer-implemented method for manipulating three-dimensional modeled objects of an assembly in a three-dimensional scene. |
US20150009238A1 (en) * | 2013-07-03 | 2015-01-08 | Nvidia Corporation | Method for zooming into and out of an image shown on a display |
US9615081B2 (en) * | 2013-10-28 | 2017-04-04 | Lateral Reality Kft. | Method and multi-camera portable device for producing stereo images |
-
2014
- 2014-11-06 US US14/535,132 patent/US10146299B2/en active Active
- 2014-11-07 CN CN201480057721.4A patent/CN105683868B/zh active Active
- 2014-11-07 ES ES14809163T patent/ES2897797T3/es active Active
- 2014-11-07 CN CN201910660380.4A patent/CN110488972B/zh active Active
- 2014-11-07 JP JP2016527260A patent/JP6591411B2/ja active Active
- 2014-11-07 WO PCT/US2014/064625 patent/WO2015070063A1/en active Application Filing
- 2014-11-07 EP EP14809163.0A patent/EP3066543B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
ES2897797T3 (es) | 2022-03-02 |
CN110488972B (zh) | 2023-06-09 |
CN105683868A (zh) | 2016-06-15 |
US20150130704A1 (en) | 2015-05-14 |
US10146299B2 (en) | 2018-12-04 |
EP3066543B1 (en) | 2021-10-27 |
WO2015070063A1 (en) | 2015-05-14 |
EP3066543A1 (en) | 2016-09-14 |
JP2016536687A (ja) | 2016-11-24 |
CN105683868B (zh) | 2019-07-30 |
CN110488972A (zh) | 2019-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6591411B2 (ja) | 空間的対話における追加モダリティのための顔追跡 | |
EP3218781B1 (en) | Spatial interaction in augmented reality | |
US11003307B1 (en) | Artificial reality systems with drawer simulation gesture for gating user interface elements | |
US10133342B2 (en) | Human-body-gesture-based region and volume selection for HMD | |
CN108469899B (zh) | 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法 | |
EP3908904A1 (en) | Holographic palm raycasting for targeting virtual objects | |
US20200387286A1 (en) | Arm gaze-driven user interface element gating for artificial reality systems | |
KR20180122637A (ko) | 물리적 환경의 시각 이미지들의 가상 현실에의 통합을 위한 공간 관계들 | |
US20110164032A1 (en) | Three-Dimensional User Interface | |
US11086475B1 (en) | Artificial reality systems with hand gesture-contained content window | |
US10921879B2 (en) | Artificial reality systems with personal assistant element for gating user interface elements | |
US11043192B2 (en) | Corner-identifiying gesture-driven user interface element gating for artificial reality systems | |
EP2558924B1 (en) | Apparatus, method and computer program for user input using a camera | |
KR20140040246A (ko) | 컴퓨터 비젼 애플리케이션들에서 상호작용 반경을 확대하기 위한 제스쳐-제어 기법 | |
US11023035B1 (en) | Virtual pinboard interaction using a peripheral device in artificial reality environments | |
US10976804B1 (en) | Pointer-based interaction with a virtual surface using a peripheral device in artificial reality environments | |
US10852839B1 (en) | Artificial reality systems with detachable personal assistant for gating user interface elements | |
US20190012060A1 (en) | Volumetric multi-selection interface for selecting multiple objects in 3d space | |
US20150277570A1 (en) | Providing Onscreen Visualizations of Gesture Movements | |
US11023036B1 (en) | Virtual drawing surface interaction using a peripheral device in artificial reality environments | |
Jain et al. | [POSTER] AirGestAR: Leveraging Deep Learning for Complex Hand Gestural Interaction with Frugal AR Devices | |
Clouth | Mobile augmented reality as a control mode for real-time music systems | |
US11816757B1 (en) | Device-side capture of data representative of an artificial reality environment | |
VanWaardhuizen et al. | Table top augmented reality system for conceptual design and prototyping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171020 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171020 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190819 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6591411 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |