JP2018133093A - 仮想現実環境におけるユーザインターフェースを提供するシステム、装置、および方法 - Google Patents

仮想現実環境におけるユーザインターフェースを提供するシステム、装置、および方法 Download PDF

Info

Publication number
JP2018133093A
JP2018133093A JP2018045063A JP2018045063A JP2018133093A JP 2018133093 A JP2018133093 A JP 2018133093A JP 2018045063 A JP2018045063 A JP 2018045063A JP 2018045063 A JP2018045063 A JP 2018045063A JP 2018133093 A JP2018133093 A JP 2018133093A
Authority
JP
Japan
Prior art keywords
portable computer
computer platform
preprocessed
user
illuminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018045063A
Other languages
English (en)
Other versions
JP6585213B2 (ja
Inventor
カミニッツ、コビ
Kaminitz Kobi
グロッシンガー、ナダブ
Grosinger Nadav
メヤセッド、モシェ
Meyassed Moshe
ロマーノ、ニタイ
Romano Nitay
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Inc
Original Assignee
Facebook Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Inc filed Critical Facebook Inc
Publication of JP2018133093A publication Critical patent/JP2018133093A/ja
Application granted granted Critical
Publication of JP6585213B2 publication Critical patent/JP6585213B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】 携帯型コンピュータプラットフォームに接続可能な装置を提供すること。【解決手段】 装置は、ヘッドセットまたはニアアイディスプレイを着用したユーザの近傍にパターン光を照明するように構成された照明器と、ユーザの近傍に位置する少なくとも1つの物体からのパターン光の反射を撮影するように構成されたIRカメラとを含み得る。プロセッサは、装置と携帯型コンピュータプラットフォームとニアアイディスプレイとの間のデータおよび電力接続を確立して、反射に基づいて物体の深さマップを生成するように構成されている。【選択図】 図4

Description

本発明は、概して仮想現実(VR)環境に関し、特に、身体的ジェスチャおよび/または姿勢を用いてVR環境との自然なインターフェースを可能にする装置および方法に関する。
本発明の背景技術の記載に先立って、以下で用いる用語の定義を記載する。
本明細書で使用する用語「仮想現実」(VR)は、現実世界または仮想世界のある場所における物理的存在をシミュレート可能なコンピュータシミュレーション環境として定義される。仮想現実は、仮想の味覚、視覚、嗅覚、聴覚、触覚などの感覚体験を再現可能である。多くの従来のVRシステムは三次元(3D)仮想環境を提示するニアアイ(near eye)ディスプレイを使用する。
本明細書で使用する用語「拡張現実」(AR)は、物理的な現実世界の環境の生の直接的または間接的な視野として定義され、この物理的現実世界の環境の要素は、音声、動画、画像、GPSデータなどのコンピュータにより生成された知覚入力によって拡張(補足)される。これは、より一般的な概念として、コンピュータにより現実の視野が修正(場合によっては拡張ではなく減少)される媒介現実(mediated reality)に関する。
本明細書で使用する用語「ニアアイディスプレイ」は、着用可能な投影ディスプレイを含む装置として定義され、通常は、3D視覚を生成するために僅かに異なる視野がそれぞれの目に提示されるという意味で立体視である。
用語「仮想現実ヘッドセット」は「ゴーグル」とも呼ばれ、コンピュータ出力を表示する湾曲型(wrap-around)ビジュアルインターフェースである。一般に、コンピュータディスプレイ情報は、現実世界環境の3次元表現として提示される。ゴーグルは、コンピュータディスプレイ(スマートフォンの形態を取り得る)を単に保持する構造のみに加えて光学系を含んでいても含んでいなくてもよい。
図1は、ユーザ10が、ユーザ10の各目に対してシーンの合成画像16を投影するヘッドマウント立体ディスプレイ12(例えば、Oculus Rift(商標))を着用した場合の従来のVRシステムを示す。VRでは通常、各目に対し僅かに異なる角度で合成画像16が入力されることで、ユーザの脳内に3D知覚が生成される(簡略化のために、立体視ペアは図示していない)。また、ユーザの視角または視線方向をリアルタイムで検出することができる加速度計またはジャイロスコープ(図示略)などのセンサがヘッドマウントディスプレイ12に備えられてもよい。これにより、VRシステムは、ユーザの新たな頭の向きに合うように画像16を調節することができる。このような調整がリアルタイムで実行されることにより、現実世界における頭の動きを模倣する仮想現実の錯覚が実現され得る。
上述のようにユーザの視点を追跡する以外にも、VRシステムは、ジョイスティック14(あるいは、マウス、タッチパッド、またはキーボード)などの入力装置を介して仮想世界とのさらなる相互作用を提供する。このような入力装置は、ユーザ10が種々の動作を行うことを可能にする。例えば、ユーザ10は、ジョイスティック14を介して、VRシーンの画像16に示されたカーソル18を制御することができる。必然的に、そのような従来の入力装置の使用は、ユーザによる全体的なVR体験を損なわせる。また、カーソル18の使用は、ユーザ体験を、パーソナルコンピュータで周知の標準的なコンピュータユーザインタフェースに制限する。
本発明のいくつかの実施形態によれば、ユーザは本発明の実施形態による装置が搭載、例えば機能拡張(アドオン)されたニアアイディスプレイを着用することができる。装置は、照明器(例えば、レーザ送信機)と撮像部(例えば、カメラ)とを含み得る。これらの視野は、ユーザの周辺を網羅するのに十分広い。動作時、ニアアイディスプレイは、ユーザの両目に合成シーンを投影するように構成されている。照明器は、ユーザおよび/またはユーザの近傍をパターン光で照明し得る。このパターン光の反射が撮像装置によって撮像されて、例えば、ニアアイディスプレイの一部であるスマートフォン内に位置し得るコンピュータプロセッサによって分析されることにより、リアルタイムで変化するユーザの手などの物体の位置および向きを示す3次元仮想表示を生成することができる。
他の実施形態において、装置は、手の画像やユーザによって制御される他のジェスチャ物体の画像を撮影するべく専用ソフトウェアによって構成され得るスマートフォンのカメラによる利点を有し得る。また、スマートフォンのプロセッサは、装置によって撮影されたデータに基づいて、同一の手またはジェスチャ物体の深さマップを計算するように構成されている。プロセッサはさらに、深さマップおよび視覚画像のデータを、仮想画像における対応する位置にインポート可能な手の3D画像に結合するように構成されている。このようにして、ユーザの実際の手の3D特性を維持しつつ、その実際の手がVRシーンにインポートされる。
本発明のこれらの、付加的な、および/または他の態様および/または実施形態の利点は以下の詳細な説明で説明され、それらは、以下の詳細な説明から推測可能であり、および/または本発明の実施形態の実施よって理解可能である。
従来技術による仮想現実システムおよびその環境を例示する図。 本発明のいくつかの実施形態による装置の環境を例示する概略図。 本発明のいくつかの実施形態による装置の非限定的な実施形態を例示する図。 本発明のいくつかの実施形態による装置を例示するブロック図。 本発明の実施形態による態様を例示する図。 本発明の実施形態による態様を例示する図。 本発明のいくつかの実施形態による装置の動作環境を例示する図。 本発明の実施形態による例示のパターン光発生器のブロック図。 本発明の実施形態による例示のパターン光発生器のブロック図。 本発明の実施形態による例示のパターン光発生器のブロック図。 本発明の実施形態によるパターン光の態様を例示する図。
本発明の実施形態をより良く理解し、どのように実施することができるかを示すために一例として添付図面を参照する。なお、図面において、同様の符号は対応する要素または部分を示す。
以下、図面を参照して詳細に説明するが、図示する詳細は単なる例示であり、本技術の好ましい実施形態の説明のみを目的としたものであり、本技術の原理および概念的側面の最も有用で容易に理解される説明として提供される。この点において、本技術の基本的な理解に必要なもの以外について本技術の構造的な詳細を示すことはしていない。図面とともに以下の説明を参照することにより、本発明の種々の形態を実際にどのように実施することができるかについて当業者に明らかとなる。
本技術の少なくとも1つの実施形態を詳細に説明するが、本発明はその適用において、以下に説明または図示する構成要素による詳細な構成および配置に限定されない。本技術は、他の実施形態に適用可能であるかまたは様々な方法で実施または実行される。また、本明細書で使用する表現および用語は、説明を目的としたものであり、限定とみなされるべきではない。
図2は、スマートフォン220などのモバイル装置とともに使用するように構成された仮想現実(VR)ヘッドセット240(ゴーグル)などの周辺環境200に取り付けられて一体化された本発明のいくつかの実施形態による装置210の斜視図である。装置210は、赤外線(IR)パターン照明器212などの照明器(例えば、レーザ送信機)と、IRカメラ214などのカメラとを含み得る。また、装置210は、初期画像処理を行うように構成されたプリプロセッサ(図示略)を含み得る。また、装置210は、VRヘッドセットをともに構成するスマートフォン220やニアアイディスプレイ240と物理的および電子的にインターフェースするように構成されている。このようなVRヘッドセット(ゴーグル)は、当該技術分野で知られているように、スマートフォンとともに使用するように構成することができ、通常は、スマートフォンのディスプレイ(図示しない反対側の面)と通信可能な光学機器と、カメラ222を含み得るスマートフォン220を収容するためのスリーブ250と、VRヘッドセット(ゴーグル)をユーザの頭部に固定するためのストラップ230とを含む。ただし、装置210は、Samsung Gear VR(商標)やOculus Rift(商標)などのニアアイディスプレイとインターフェースすることも可能である。
動作時に、装置210は、VRシーン内でユーザの手または他の身体部分の3D画像を見る能力を付加することによって、VRヘッドセットの機能を強化する手段として機能する。これは、ニアアイディスプレイに取り付けられる必要なハードウェアと、VRデバイスプロセッサ上で実行される必要なソフトウェアとを提供する装置210によって実現される。VRデバイスプロセッサは、装置210を制御し、その装置210によって取得されるデータを分析する。経済的な面において、本発明のいくつかの実施形態は、VR特定デバイスの必要性を排除し、コストをさらに節約する。
装置210は、パターン光照明器およびパターンの反射を撮影するためのカメラなどの最小限のハードウェアのみを提供することが有利である。スマートフォン220に接続されるインターフェースは、スマートフォン220に必要な電力を供給し、スマートフォン220に対して取得されたデータを転送する。そして、スマートフォン220の処理能力を利用して、全ての処理が実行される。したがって、本発明のいくつかの実施形態によれば、VRシステムをインストールすることにより、スマートフォンやゴーグルなどの市販のコンポーネントを使用できるようになり非常に容易となる。
図3は、本発明のいくつかの実施形態による装置の非限定的な実装例を示す機械的構成図である。斜視図は、構成要素が搭載されたプリント回路基板(PCB)301を示し、このPCB301はベース部305に物理的に取り付けられ得る。この実装例の主な構成要素は、レーザ駆動器320に接続されたレーザ送信機360である。レーザ駆動器320は、レーザ送信機360に十分な電力、例えば変調電力を供給するように構成されている。カメラ330、例えばVGAカメラは、パターン光の反射を受け取るように構成されている。一実施形態によれば、PCBは、カメラ330を覆うIRフィルタ350を含み得る。いくつかの実施形態において、カメラ330によって受信されたパターン光の反射に関するデータなどは、例えば信号プロセッサ310によって最初に処理され、次いで、例えばUSBポート340などのポートを介してサードパーティのプロセッサ(図示略)に伝送される。例えば、データはUSBプロトコルを介してスマートフォンのUSBポートに転送され、スマートフォンのプロセッサ上で実行されるアプリケーションと相互作用し得る。また、装置の電源は、USBポート340を介して提供され得る。追加のカメラのソケットや、初期画像プロセッサ(TIP)などの種々の集積回路(IC)もPCBに取り付けられ、図示されている。
いくつかの実施形態では、カメラ330が装置から省略されてもよく、代わりに外部の携帯型コンピュータプラットフォーム(スマートフォン)のカメラを使用することができる。本発明者らは、いくつかのプロトタイプの装置を試験し、カメラ330を備えた装置が1ワットの低い電力消費であることを測定した。また、カメラ330を備えない場合には550ミリワットのさらに低い電力消費であることが測定された。
図4は、本発明のいくつかの実施形態による上述した装置およびその周辺環境の構造を例示するブロック図である。装置400は、シーンをパターン光で照明するように構成されたIR照明器と、パターン光の反射を受信するように構成されたIRカメラ406と、IRカメラ406からのデータの初期処理を実行するように構成されたプリプロセッサとを含み得る。また、装置400は、スマートフォン410などの携帯型コンピュータプラットフォームとインターフェースするように構成されている。スマートフォン410は、プロセッサ414と、そのプロセッサ414によって実行され、装置400に関連付けられたソフトウェアモジュールとを含み得る。また、スマートフォン410は、ニアアイディスプレイ420に接続されている。ニアアイディスプレイ420は、合成シーンと、さらにはユーザの身体部分(例えば、手)の3D画像とをユーザに提示するように構成されている。なお、プラットフォームは、ラップトップパーソナルコンピュータ(PC)、タブレットPCなどであってもよい。
動作時、照明器402によって照明された反射IRパターンはIRカメラ406によって撮影され、プリプロセッサ404によって初期処理が行われた後、そのデータが、専用ソフトウェア416を備えたスマートフォン410のプロセッサ414に伝達される。プロセッサ414は、反射パターンに基づいて、ユーザの身体部分の深さマップを生成する。可視光カメラ412は、パターン光が照明されたユーザの同じ身体部分(例えば、手)の2Dカラー画像を取得するように構成され得る。したがって、プロセッサ414は、深さマップと身体部分の2Dカラー画像との両方を使用して、撮影された身体部分の3Dカラー画像を生成し得る。さらに、プロセッサ414は、撮影した身体部分の3Dカラー画像を合成VRシーンに重畳するように構成されており、これによりユーザは、ニアアイディスプレイ420を介して、VRシーンと、撮影されたユーザの身体部分(例えば、手)との両方を、実生活での位置および向きによる3Dカラー画像として見ることができる。
図5A及び図5Bは、本発明のいくつかの実施形態による態様を示す図である。ユーザ500は、本発明のいくつかの実施形態による装置510を着用している。なお、ここでは、簡略化のために装置のみが図示されており、ヘッドセットは図示されていない。図5Aは、装置510の照明器とIRカメラとの両方の視野を例示している。パターン光530Aによってカバーされる領域は、縦方向設定で示されているIRカメラ520Aによりカバーされる領域と実質的に重複している。図5Bは、横方向設定において同様に重複する視野を示しており、この場合は、IRカメラが90°回転され、照明器も同様に回転されている。あるいは、照明器のパターン発生面が延伸されることで実質的に横方向とされてもよい。横方向の向きの使用は、自然な姿勢やジェスチャの実行およびモニタを可能にする上で手の全範囲が重要となるVRアプリケーションにおいて有利である。実験では、本発明者らは、約43°の水平視野と約55°の垂直視野が、縦方向設定における本発明の実施形態に対して良好な結果をもたらすことを確認した。同様に、約55°の水平視野と約43°の水平視野が横方向設定に対して良好な結果をもたらす。なお、本発明の他の実施形態では、他の装置において他の視野も使用可能である。
図6は、本発明の実施形態による装置の動作環境を示す概略図である。ユーザ10は、例えば上述した拡張機能(アドオン)として装置600が搭載され得るニアアイディスプレイ630を着用している。装置600は、照明器(例えば、レーザ送信機)620と、撮像部(例えば、カメラ)610とを含み得る。これらは、上述のようにユーザの周辺を網羅するのに十分な視野を有する。
動作時、ニアアイディスプレイ630は、ユーザ10の両目に合成シーンを投影するように構成されている。照明器610は、ユーザ10の近傍をパターン光624で照明し得る。このパターン光の反射は、撮像装置610で撮影された後、例えば、ニアアイディスプレイ630に取り付けられたスマートフォン上に位置し得るコンピュータプロセッサ(ここでは図示せず)によって分析される。スマートフォンの可視光カメラ(または装置600の一部)は、ユーザの手またはユーザ10によって制御される他のジェスチャ物体の2D画像を撮影するように構成されている。また、スマートフォンのプロセッサは、そのユーザの手またはジェスチャ物体の深さマップを計算して、その深さマップおよび視覚画像のデータを、仮想画像660における対応する位置にインポート可能な手の3D画像662に結合するように構成されている。このようにして、ユーザの手の3D特性を維持しつつ、そのユーザの手がVRシーンに重畳される。
図7A〜図7Cは、照明器(パターン光の光源)をマルチラインパターン発生器の形態で実現する種々の実施形態を示す図である。このパターン発生器は、レーザ源と、レーザビームを複数のラインに変換する光学系とを含む。構造化された光がどのように実現され得るかについてのさらなる詳細を提供するために、例示の目的にて、米国特許出願第13/497,586号、国際公開第2013/088442、および米国仮特許出願第61/863,510号、61/894,471号、61/926,476号の全体が参照によって本明細書に組み込まれる。
図7Aは、本発明の第1実施形態によるパターン発生器システム700Aの構成を示す。このシステム700Aは、レーザダイオード光源710Aなどの光源と、単一の光学レンズ要素120とを含み得る。光学要素720Aは、a)ライン生成、b)増幅、c)コリメーションの3つの機能(この順序は特にない)を提供することにより、空間あるいは面または物体に対してマルチラインパターンなどのパターンを生成する。
本発明の第1実施形態によれば、少なくとも2つの面として、第1光学面725Aと第2光学面735Aとを含む単一レンズ光学要素720Aが提供される。第1光学面のY−Z断面などの第1断面において、レンズ要素120は正の光学的パワーを有する。この正の光学的パワーは、低発散区間のレーザ光をコリメートするために使用される。
レンズの第1面725Aまたは第2面735AのX−Z断面などの第2断面において、要素720Aはライン発生器を有する。ライン発生器は、非球面レンズ、シリンドリカルレンズ、回折素子、負の光学面、または結合された負/正面などの、正の光学的パワーの形態を取り得る。単一の光学素子700Aはさらに、第2面735AのY−Z断面などの第1断面内に形成されるビームスプリッタ要素を含む。
図7Bは、本発明の第2実施形態によるパターン発生器システム700Bの構成を示す。このシステム700Bは、レーザダイオード光源710Bなどの光源と、2つの光学レンズ要素としての第1レンズ要素720Bおよび第2レンズ要素740Bとを含み得る。第1レンズの第1面725BのY−Z断面などの少なくとも1つの断面(例えば、速軸または遅軸)において要素720Bは正の光学的パワーを有し、第1光学要素の他の断面(例えば、X−Z断面)において、第2面727Bには、レーザ源710Bによって供給されるビームを分割するための増幅機能が設けられている。
第1レンズ要素720Bに隣接してまたはその近傍には、ラインパターンなどのパターンを生成するように構成された第2レンズ要素740Bが設けられる。このラインパターンは、第2要素740Bの第1面745Bの第1断面、例えば、第1面745BのY−Z断面に供給され得る。
図7Cは、本発明の第3実施形態によるパターン発生器システム700Cの構成を示す。このシステム700Cは、レーザダイオード光源710Cなどの光源と、2つの光学レンズ要素としての第1レンズ要素720Cおよび第2レンズ要素730Cとを含み得る。第1レンズの第1面755BのY−Z断面などの少なくとも1つの断面において、要素745Cは正の光学的パワーを有する。
第1レンズ要素720Cに隣接してまたはその近傍には、1)ライン生成、および2)増幅の2つの機能をもたらすために第2レンズ要素740Cが設けられる。例えば、第1面の第1断面(即ち、Y−Z断面)にラインパターンなどのパターンが形成され、第2面755Cの他の断面(即ち、X−Z断面)に増幅機能が形成される。
本発明のいくつかの実施形態によれば、第1要素と第2要素は、当技術分野で知られている接着技術の溶接によって互いに結合され得る。
本発明の別の実施形態によれば、第2レンズ要素の回折面は、第1レンズ要素の表面に面して感度回折面を保護し、不要な外部要素と回折面との接触を防止する。
本発明のいくつかの実施形態によれば、ライン生成機能は、正の光学面、結合された負/正の面または回折面を使用して形成することができる。
例示的な実施形態によれば、手の動きの追跡は、親指や他の指の微動などの手の動きの検出を可能とするように設計された光パターンを使用して実行される。構造化された光の使用は、例えば、参照によりその全体が本明細書に組み込まれる、国際公開第2013/088442号に開示されている。
特に設計される光パターンは、3次元深さマップとは異なる二次元ビデオデータが身体の他の部分からの手の容易な分離を提供しない場合にも、動きの追跡を可能にする。
任意で、光パターンは、二次元ビデオデータ(例えば、通常のビデオカメラからストリーミングされたビデオ画像)で手の指の動きを追跡するように特別に設計されてもよい。具体的には、光パターンは、指によるパターンの歪みに応じて、二次元ビデオデータ内において指(即ち、親指や他の指)や手のひらの検出および追跡を可能にするように設計されてもよい。
任意で、光パターンは、第1方向(例えば、X軸)に連続的な特徴を有し、第1方向に対して実質的に垂直な方向(例えば、Y軸)に非連続的(例えば、周期的)な特徴を有する。このようなパターンの一例において、光パターンは、互いに平行(またはほぼ平行)に配置された、いくつかの縦縞を含む。
図8は、本発明の実施形態によるパターン光の態様を示す図である。以下では、ユーザによって行われたジェスチャを追跡するために、生成されたパターン光がどのように使用されるかについて詳細に説明する。例示的な実施形態によれば、センサ(図示略)は、或るY軸距離に、例えば手810および背景820(例えば、手が置かれたテーブルの表面や壁など)上に縦縞パターンを投影する送信器の近くに配置され得る。センサの位置は、カメラ、光プロジェクタ、およびユーザの手810および背景820から反射された光との間の三角測量効果を生成するように選択される。
三角測量効果は、光パターンで投影された物体で顕著な深さずれが存在するストリップに沿った箇所でパターンの不連続性を引き起こす。不連続部分は、ストリップを2つ以上のストリップセグメント、例えば、手に位置するセグメント831、手の左側に位置するセグメント832、および手の右側に位置するセグメント833に区分(即ち、分割)する。
このような深さずれが存在するストリップセグメントは、カメラとユーザの身体との間に位置するユーザの手のひらや指の輪郭上に位置し得る。即ち、ユーザの指または手のひらがストリップを2つ以上のストリップセグメントに分割する。このようなストリップセグメントが検出されると、ストリップセグメントの端部までストリップセグメントを追跡することは容易である。
従って、装置は、二次元ビデオデータを分析することで、ストリップセグメントの集合を生成し得る。例えば、装置は、光パターンにおいて、手の指による縦縞の区分によって生成された1つ以上のスリップセグメントの集合、例えば手の中央の指で反射された4つのセグメントの集合841を識別することができる。その結果、装置は、指による縦縞の区分によって作成されたストリップセグメントの集合を追跡することによって、またはその集合における少なくとも1つのセグメントを追跡することによって、指の動きを追跡する。
指による縦縞の区分(即ち、分割)によって生成されたストリップセグメントの集合は、X軸に重なりを有するストリップセグメントを含む。任意で、集合内のストリップセグメントは、同じ長さ(指の厚さから得られる)またはY軸座標における相対的な近接性を有する。
X軸上において、複数のセグメントが、直線的に位置する指との完全な重なりを有していてもよく、またはX−Y平面内で斜めに位置する指との部分的な重なりを有していてもよい。任意で、装置は、例えば、追跡された集合内のセグメントの数の変化を検出することによって、指の深さの動きをさらに識別する。例えば、ユーザがユーザの中央の指を伸ばすと、指と光プロジェクタとカメラ(X−Y平面)との間の角度が変化する。その結果、集合841内のセグメントの数は4から3に減少する。
任意で、装置は、光パターンにおいて、手のひらによる縦縞の区分によって生成された1つ以上のストリップセグメントの1つ以上の集合をさらに識別する。
手のひらによる縦縞の区分によって生成されたストリップセグメントの集合は、ユーザの手の指のストリップセグメント集合とX軸において重なる上部ストリップセグメント831を含む。上部ストリップセグメント831はX軸において4つの指集合に重なるが、4つの指集合の下部セグメントの最小および最大X値を超えない。
手のひらによる縦縞の区分によって生成されたストリップセグメントの集合は、セグメント831のすぐ下に、ストリップセグメント831と重複するいくつかのストリップセグメントをさらに含む。手のひらによる縦縞の区分によって生成されたストリップセグメントの集合はさらに、ユーザの親指のストリップセグメント集合851の根元まで延びるより長いストリップセグメントを含む。なお、指および手のひらの集合の向きは、特定の手の位置および回転によって異なるものとなる。
スマートフォンなどのように電源の電力が制限されている場合であっても、装置の電力消費が十分に低減されて中断されることなく連続動作が可能になることが有利である。上述のように、本発明のいくつかの実施形態は、エネルギー遮断を伴う従来技術の解決策とは対照的に、エネルギーが空間的に迂回される干渉に基づくパターン生成を利用する。干渉ベースパターン生成の使用は、より効率的なエネルギーとなる。上述したように、深さマップの生成は、計算負荷を低下させる部分パターン処理を可能にする反射のセグメントに基づく。これは全体的な消費電力の削減にも貢献する。いくつかの実施形態では、スマートフォンのオートフォーカス機能を使用して、パターンで投影されている物体の範囲に関する初期データを提供することができる。これも消費電力の低減に寄与する。上述した低消費電力機能はすべて、消費電力の観点から、スマートフォンや、VRヘッドセットとしてのニアアイディスプレイとのインターフェースをとることに大きく貢献する。
以上の説明において、一つの実施形態は本発明の一例または実現例であり、「一実施形態」や「実施形態」や「いくつかの実施形態」などの記載は、必ずしもすべてが同じ実施形態を指すとは限らない。
本発明の種々の特徴が単一の実施形態の文脈で説明されている場合でも、それらの特徴を別々にまたは任意の適切な組み合わせで提供することもできる。あるいは、明瞭化のために別々の実施形態の文脈で本発明が説明されている場合でも、本発明を単一の実施形態で実施することもできる。
本明細書において、「いくつかの実施形態」や「一実施形態」や「他の実施形態」などは、それらの実施形態に関連して説明されている特定の特徴、構造、または特性が少なくともいくつかの実施形態において含まれていることを意味し、必ずしも本発明のすべての実施形態に含まれていることを意味しない。
本明細書で使用する表現および用語は、限定として解釈されるべきでなく、説明のみを目的とする。
本発明の教示の原理および使用は、実施例や添付の図面を参照することによって、より良く理解され得る。
本明細書で説明する詳細は、本発明の適用に対する限定を意図しない。
また、本発明は種々の方法で実行または実施することができ、上述した説明以外の実施形態でも実施することができる。
用語「含む」、「備える」、「からなる」やその変形表現は、1つまたは複数の構成要素、特徴、ステップ、あるいは整数またはグループの追加を排除するものではなく、構成要素、特徴、ステップまたは整数を特定するものと解釈されるべきである。
明細書または特許請求の範囲が「追加」の要素を指す場合、その追加の要素が2つ以上存在することを排除しない。
明細書または特許請求の範囲が「一つ」の要素を参照する場合、そのような参照は、その要素が1つのみ存在すると解釈されるべきではない。
本明細書において、構成要素、特徴、構造、または特性が含まれ「得る」と述べる場合、その特定の構成要素、特徴、構造、または特性が含まれることが必須とされるわけではない。
適用可能な場合には、実施形態を説明するために状態図、フローチャート、またはその両方を使用する場合があるが、本発明はこれらの図または対応する説明に限定されるものではない。例えば、処理の流れは、それぞれ図示したボックスや状態を通じて行う必要はなく、また、図示し説明したものと全く同じ順序で行う必要はない。
本発明の方法は、手動で、自動で、またはそれらの組み合わせで、選択されたステップまたは処理を実行または完了することによって実施することができる。
特許請求の範囲および明細書に記載した説明、実施例、方法および材料は、限定として解釈されるべきでなく、単に例示として解釈されるべきである。
本明細書で使用する技術用語および科学用語の意味は、他に定義されない限り、本発明が属する技術分野の当業者によって一般的に理解される意味である。
本発明は、本明細書で説明するものと同等または類似の方法および材料を用いて試験または実施において実施することができる。
本発明を限定された数の実施形態に関して説明したが、これらは本発明の範囲を限定するものではなく、むしろ、好ましい実施形態のいくつかの例示として解釈されるべきである。他の可能な変形、変更、および適用もまた本発明の範囲内に含まれる。したがって、本発明の範囲は、上記説明したものによって限定されるべきではなく、添付の特許請求の範囲およびそれらの同等物によって限定されるべきである。

Claims (20)

  1. 携帯型コンピュータプラットフォームに接続可能な装置であって、
    構造化光によりシーンを照明するように構成された照明器と、
    前記シーン内の少なくとも1つの物体からの前記構造化光の反射を撮影するように構成されたカメラと、
    プリプロセッサであって、
    前記撮影された反射に関連するデータの前処理を行い、
    前記前処理されたデータを前記携帯型コンピュータプラットフォームのプロセッサに供給するように構成されたプリプロセッサと、
    を備え、前記前処理されたデータは、前記携帯型コンピュータプラットフォームが前記少なくとも1つの物体の深さマップを生成するのに十分なデータである、装置。
  2. 前記照明器と、フィルタで覆われた前記カメラとが赤外線(IR)領域で動作する、請求項1に記載の装置。
  3. 当該装置を前記携帯型コンピュータプラットフォームに接続し、前記携帯型コンピュータプラットフォームに電力を供給するインターフェースをさらに備える請求項1に記載の装置。
  4. 前記携帯型コンピュータプラットフォームは、スマートフォン、ラップトップパーソナルコンピュータ(PC)、およびタブレットPCを含む群から選択される、請求項1に記載の装置。
  5. 当該装置は、仮想現実(VR)シーンと、前記深さマップに基づいて得られる前記少なくとも1つの物体の少なくとも1つの3D画像とをユーザに提示するためのニアアイディスプレイにさらに接続されている、請求項1に記載の装置。
  6. 前記少なくとも1つの物体が、前記ユーザの少なくとも1つの身体部分を含む、請求項5に記載の装置。
  7. 前記少なくとも1つの物体の深さマップが、前記ユーザの少なくとも1つの身体部分に関連する1つまたは複数のジェスチャに関する情報を含む、請求項6に記載の装置。
  8. 前記カメラの視野が、前記ニアアイディスプレイのユーザ周辺のシーンを含む、請求項5に記載の装置。
  9. 当該装置がさらに、前記少なくとも1つの物体の少なくとも1つの2D画像を撮影するように構成された別のカメラを備え、
    前記プリプロセッサはさらに、
    前記撮影された少なくとも1つの2D画像に関連する情報の前処理を行い、
    前記前処理された情報を前記プロセッサに供給するように構成され、前記前処理された情報は、前記携帯型コンピュータプラットフォームが前記深さマップと前記前処理された情報とに基づいて前記少なくとも1つの物体の少なくとも1つの3D画像を生成するのに十分なデータである、請求項1に記載の装置。
  10. 前記照明器は、少なくとも1つの光学要素に結合された光源を含み、
    前記少なくとも1つの光学要素は、前記光源から照射された光を用いて前記構造化光を生成する、請求項1に記載の装置。
  11. 前記少なくとも1つの光学要素が、非球面レンズ、シリンドリカルレンズ、回折素子、ビームスプリッタ要素、正の光学面、および負の光学面のうちの少なくとも1つを含む、請求項10に記載の装置。
  12. 前記構造化光は、第1方向に連続的な特徴を有し、前記第1方向に対し垂直な第2方向に非連続的な特徴を有する光パターンを含む、請求項1に記載の装置。
  13. 前記照明器に対する前記カメラの位置は、前記撮影された前記構造化光の反射が、前記少なくとも1つの物体の少なくとも1つの深さずれに関連する前記連続的な特徴に沿った少なくとも1つの不連続部分を有するように選択される、請求項12に記載の装置。
  14. 前記プリプロセッサはさらに、
    前記連続的な特徴に沿った前記少なくとも1つの不連続部分を有する前記撮影された反射に関連する情報の前処理を行い、
    前記前処理された情報を前記プロセッサに供給するように構成され、前記前処理された情報は、前記携帯型コンピュータプラットフォームが前記少なくとも1つの物体に関連する1つまたは複数のジェスチャを追跡するのに十分である、請求項13に記載の装置。
  15. 方法であって、
    照明器とカメラとを備える装置を、携帯型コンピュータプラットフォームに接続すること、
    前記照明器から照射された構造化光によりシーンを照明すること、
    前記シーン内の少なくとも1つの物体からの前記構造化光の反射を前記カメラによって撮影すること、
    前記撮影された反射に関連するデータの前処理を行うこと、
    前記前処理されたデータを前記携帯型コンピュータプラットフォームのプロセッサに供給すること
    を備え、前記前処理されたデータは、前記携帯型コンピュータプラットフォームが前記少なくとも1つの物体の深さマップを生成するのに十分なデータである、方法。
  16. 前記装置を前記携帯型コンピュータプラットフォームに接続するインターフェースを介して、前記装置から前記携帯型コンピュータプラットフォームに電力を供給することをさらに備える請求項15に記載の方法。
  17. 前記少なくとも1つの物体の少なくとも1つの2D画像を撮影すること、
    前記撮影された少なくとも1つの2D画像に関連する情報の前処理を行うこと、
    前記前処理された情報を前記プロセッサに供給すること
    をさらに備え、前記前処理された情報は、前記携帯型コンピュータプラットフォームが前記深さマップと前記前処理された情報とに基づいて前記少なくとも1つの物体の少なくとも1つの3D画像を生成するのに十分なデータである、請求項15に記載の方法。
  18. 第1方向に連続的な特徴を有し、前記第1方向に対し垂直な第2方向に非連続的な特徴を有する前記構造化光を、前記照明器の少なくとも1つの光学要素を用いて生成することをさらに備え、前記少なくとも1つの光学要素が、前記照明器の非球面レンズ、シリンドリカルレンズ、回折素子、ビームスプリッタ要素、正の光学面、および負の光学面のうちの少なくとも1つを含む、請求項15に記載の方法。
  19. 前記連続的な特徴に沿った前記少なくとも1つの不連続部分を有する前記撮影された反射に関連する情報の前処理を行うこと、
    前記前処理された情報を前記プロセッサに供給すること
    をさらに備え、前記前処理された情報は、前記携帯型コンピュータプラットフォームが前記少なくとも1つの物体に関連する1つまたは複数のジェスチャを追跡するのに十分である、請求項18に記載の方法。
  20. 前記深さマップが、前記装置に接続されたニアアイディスプレイを着用しているユーザの少なくとも1つの身体部分に関連する1つまたは複数のジェスチャに関する情報を含む、請求項15に記載の方法。
JP2018045063A 2014-12-18 2018-03-13 仮想現実環境におけるユーザインターフェースを提供するシステム、装置、および方法 Active JP6585213B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201462093490P 2014-12-18 2014-12-18
US62/093,490 2014-12-18

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017532895A Division JP6309174B1 (ja) 2014-12-18 2015-12-18 仮想現実環境におけるユーザインターフェースを提供するシステム、装置、および方法

Publications (2)

Publication Number Publication Date
JP2018133093A true JP2018133093A (ja) 2018-08-23
JP6585213B2 JP6585213B2 (ja) 2019-10-02

Family

ID=56127744

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017532895A Active JP6309174B1 (ja) 2014-12-18 2015-12-18 仮想現実環境におけるユーザインターフェースを提供するシステム、装置、および方法
JP2018045063A Active JP6585213B2 (ja) 2014-12-18 2018-03-13 仮想現実環境におけるユーザインターフェースを提供するシステム、装置、および方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017532895A Active JP6309174B1 (ja) 2014-12-18 2015-12-18 仮想現実環境におけるユーザインターフェースを提供するシステム、装置、および方法

Country Status (6)

Country Link
US (2) US9858703B2 (ja)
EP (1) EP3234685B1 (ja)
JP (2) JP6309174B1 (ja)
KR (1) KR101908057B1 (ja)
CN (2) CN107209960B (ja)
WO (1) WO2016100933A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9507411B2 (en) * 2009-09-22 2016-11-29 Facebook, Inc. Hand tracker for device with display
US10684485B2 (en) * 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
KR20180104056A (ko) 2016-01-22 2018-09-19 코닝 인코포레이티드 와이드 필드 개인 디스플레이
US10225655B1 (en) 2016-07-29 2019-03-05 Relay Cars LLC Stereo user interface elements placed in 3D space for virtual reality applications in head mounted displays
EP3282285B1 (en) * 2016-08-09 2020-09-09 Facebook Technologies, LLC Multiple emitter illumination source for depth information determination
US10827163B2 (en) * 2016-08-09 2020-11-03 Facebook Technologies, Llc Multiple emitter illumination source for depth information determination
US10209360B2 (en) * 2017-02-01 2019-02-19 Microsoft Technology Licensing, Llc Reduced phase sampling for high speed depth sensing
US10620316B2 (en) * 2017-05-05 2020-04-14 Qualcomm Incorporated Systems and methods for generating a structured light depth map with a non-uniform codeword pattern
US10976551B2 (en) 2017-08-30 2021-04-13 Corning Incorporated Wide field personal display device
CN107390370B (zh) * 2017-09-21 2020-05-01 中新国际电子有限公司 一种vr头显
CN107782250B (zh) * 2017-09-30 2020-03-06 维沃移动通信有限公司 一种深度信息测量方法、装置和移动终端
CN108196679B (zh) * 2018-01-23 2021-10-08 河北中科恒运软件科技股份有限公司 基于视频流的手势捕捉和纹理融合方法及系统
US11156842B2 (en) * 2018-02-07 2021-10-26 Facebook Technologies, Llc Head-mounted-display system including three-dimensional knitted layer
US10528133B2 (en) * 2018-03-13 2020-01-07 Facebook Technologies, Llc Bracelet in a distributed artificial reality system
US10572002B2 (en) * 2018-03-13 2020-02-25 Facebook Technologies, Llc Distributed artificial reality system with contextualized hand tracking
CN108830891B (zh) * 2018-06-05 2022-01-18 成都精工华耀科技有限公司 一种钢轨鱼尾板紧固件松动检测方法
US10909373B1 (en) 2018-08-24 2021-02-02 Snap Inc. Augmented reality system using structured light
CN110072046B (zh) 2018-08-24 2020-07-31 北京微播视界科技有限公司 图像合成方法和装置
WO2020153946A1 (en) 2019-01-22 2020-07-30 Hewlett-Packard Development Company, L.P. Mixed reality presentation
WO2020257453A1 (en) 2019-06-20 2020-12-24 Dirtt Environmental Solutions Inc. Voice communication system within a mixed-reality environment
CN110827605A (zh) * 2019-11-27 2020-02-21 国网江苏省电力有限公司技能培训中心 一种基于虚拟现实的培训方法和装置
US11592907B2 (en) * 2020-10-20 2023-02-28 Google Llc Gesture-triggered augmented-reality
CN112416125A (zh) 2020-11-17 2021-02-26 青岛小鸟看看科技有限公司 Vr头戴式一体机
WO2023009755A1 (en) 2021-07-29 2023-02-02 Summer Robotics, Inc. Dynamic calibration of 3d acquisition systems
WO2023177692A1 (en) 2022-03-14 2023-09-21 Summer Robotics, Inc. Stage studio for immersive 3-d video capture
US20230316657A1 (en) * 2022-04-05 2023-10-05 Summer Robotics, Inc. Auxiliary device for augmented reality
CN114757829A (zh) * 2022-04-25 2022-07-15 歌尔股份有限公司 拍摄校准方法、系统、设备及存储介质
US11974055B1 (en) 2022-10-17 2024-04-30 Summer Robotics, Inc. Perceiving scene features using event sensors and image sensors

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002544510A (ja) * 1999-05-14 2002-12-24 3ディーメトリックス,インコーポレイテッド カラー構造化された光3d撮像システム
JP2008028552A (ja) * 2006-07-19 2008-02-07 Nikon Corp 表示装置
US20090245614A1 (en) * 2008-03-25 2009-10-01 Electro Scientific Industries, Inc. Method and apparatus for detecting defects using structured light
US20100079356A1 (en) * 2008-09-30 2010-04-01 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
US20120249416A1 (en) * 2011-03-29 2012-10-04 Giuliano Maciocci Modular mobile connected pico projectors for a local multi-user collaboration
JP2014522981A (ja) * 2011-07-13 2014-09-08 ファロ テクノロジーズ インコーポレーテッド 空間光変調器を用いて物体の三次元座標を求める装置および方法

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7440590B1 (en) * 2002-05-21 2008-10-21 University Of Kentucky Research Foundation System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns
CN1926497A (zh) * 2003-12-09 2007-03-07 雷阿卡特瑞克斯系统公司 自主交互式视频显示系统
US7659915B2 (en) * 2004-04-02 2010-02-09 K-Nfb Reading Technology, Inc. Portable reading device with mode processing
US8390821B2 (en) * 2005-10-11 2013-03-05 Primesense Ltd. Three-dimensional sensing using speckle patterns
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US8100539B2 (en) * 2007-04-10 2012-01-24 Tunable Optix Corporation 3D imaging system employing electronically tunable liquid crystal lens
US7885012B2 (en) * 2008-07-23 2011-02-08 Eastman Kodak Company Shearing radiation beam for imaging printing media
EP2408676A4 (en) * 2009-04-03 2013-12-18 Garmond Pty Ltd IMPROVED CONTAINERS
KR20190006088A (ko) 2009-09-28 2019-01-16 산에이겐 에후.에후. 아이. 가부시키가이샤 심황 색소 조성물 및 그 조제 방법
US8446492B2 (en) * 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
US20110213664A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US8396252B2 (en) * 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8485668B2 (en) 2010-05-28 2013-07-16 Microsoft Corporation 3D interaction for mobile device
JP5791131B2 (ja) * 2010-07-20 2015-10-07 アップル インコーポレイテッド 自然な相互作用のための相互作用的現実拡張
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
US9511291B2 (en) * 2010-11-15 2016-12-06 Bally Gaming, Inc. System and method for enhanced augmented reality tracking
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US9245307B2 (en) * 2011-06-01 2016-01-26 Empire Technology Development Llc Structured light projection for motion detection in augmented reality
US20120327116A1 (en) * 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
US9069164B2 (en) * 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
WO2013052781A1 (en) * 2011-10-07 2013-04-11 Massachusetts Institute Of Technology Method and apparatus to determine depth information for a scene of interest
WO2013088442A1 (en) 2011-12-15 2013-06-20 Pebbles Ltd. Controllable optical sensing
US8970960B2 (en) * 2011-12-22 2015-03-03 Mattel, Inc. Augmented reality head gear
US20130250087A1 (en) * 2012-03-23 2013-09-26 Peter A. Smith Pre-processor imaging system and method for remotely capturing iris images
CN106125308B (zh) * 2012-04-25 2019-10-25 罗克韦尔柯林斯公司 用于显示图像的装置和方法
WO2014010251A1 (en) * 2012-07-13 2014-01-16 Panasonic Corporation Hand and object tracking in three-dimensional space
US9332243B2 (en) * 2012-10-17 2016-05-03 DotProduct LLC Handheld portable optical scanner and method of using
US20140157209A1 (en) * 2012-12-03 2014-06-05 Google Inc. System and method for detecting gestures
US20140160162A1 (en) * 2012-12-12 2014-06-12 Dhanushan Balachandreswaran Surface projection device for augmented reality
CA2896985A1 (en) * 2013-01-03 2014-07-10 Meta Company Extramissive spatial imaging digital eye glass for virtual or augmediated vision
US10019843B2 (en) 2013-08-08 2018-07-10 Facebook, Inc. Controlling a near eye display
WO2015077455A1 (en) * 2013-11-25 2015-05-28 Digimarc Corporation Methods and systems for contextually processing imagery
US9523771B2 (en) 2014-01-13 2016-12-20 Facebook, Inc. Sub-resolution optical detection
US9377626B2 (en) * 2014-02-18 2016-06-28 Merge Labs, Inc. Remote control augmented motion data capture
US9749513B2 (en) * 2014-04-29 2017-08-29 Facebook, Inc. System and method for generating a light pattern for object illumination
US9785247B1 (en) * 2014-05-14 2017-10-10 Leap Motion, Inc. Systems and methods of tracking moving hands and recognizing gestural interactions
DE202014103729U1 (de) * 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
US9501810B2 (en) * 2014-09-12 2016-11-22 General Electric Company Creating a virtual environment for touchless interaction
KR101930657B1 (ko) * 2014-10-24 2018-12-18 유센스, 인코퍼레이티드 몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법
US9858459B2 (en) * 2014-10-29 2018-01-02 The Code Corporation Barcode-reading system
US9746921B2 (en) * 2014-12-31 2017-08-29 Sony Interactive Entertainment Inc. Signal generation and detector systems and methods for determining positions of fingers of a user
US20170059305A1 (en) * 2015-08-25 2017-03-02 Lytro, Inc. Active illumination for enhanced depth map generation
US9613423B2 (en) * 2015-06-12 2017-04-04 Google Inc. Using a depth map of a monitored scene to identify floors, walls, and ceilings

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002544510A (ja) * 1999-05-14 2002-12-24 3ディーメトリックス,インコーポレイテッド カラー構造化された光3d撮像システム
JP2008028552A (ja) * 2006-07-19 2008-02-07 Nikon Corp 表示装置
US20090245614A1 (en) * 2008-03-25 2009-10-01 Electro Scientific Industries, Inc. Method and apparatus for detecting defects using structured light
JP2011515703A (ja) * 2008-03-25 2011-05-19 エレクトロ サイエンティフィック インダストリーズ インコーポレーテッド 構造化光を用いる欠陥検出のための方法及び装置
US20100079356A1 (en) * 2008-09-30 2010-04-01 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
US20120249416A1 (en) * 2011-03-29 2012-10-04 Giuliano Maciocci Modular mobile connected pico projectors for a local multi-user collaboration
JP2014518596A (ja) * 2011-03-29 2014-07-31 クアルコム,インコーポレイテッド ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ
JP2014522981A (ja) * 2011-07-13 2014-09-08 ファロ テクノロジーズ インコーポレーテッド 空間光変調器を用いて物体の三次元座標を求める装置および方法

Also Published As

Publication number Publication date
CN112530025A (zh) 2021-03-19
KR20170095860A (ko) 2017-08-23
JP6585213B2 (ja) 2019-10-02
US9858703B2 (en) 2018-01-02
CN107209960B (zh) 2021-01-01
WO2016100933A1 (en) 2016-06-23
EP3234685A1 (en) 2017-10-25
KR101908057B1 (ko) 2018-10-15
US20160180574A1 (en) 2016-06-23
US10559113B2 (en) 2020-02-11
JP2018512095A (ja) 2018-05-10
JP6309174B1 (ja) 2018-04-11
EP3234685A4 (en) 2018-06-13
CN107209960A (zh) 2017-09-26
US20180068483A1 (en) 2018-03-08
EP3234685B1 (en) 2021-02-03

Similar Documents

Publication Publication Date Title
JP6585213B2 (ja) 仮想現実環境におけるユーザインターフェースを提供するシステム、装置、および方法
US9972136B2 (en) Method, system and device for navigating in a virtual reality environment
CN108475120B (zh) 用混合现实系统的远程设备进行对象运动跟踪的方法及混合现实系统
US9367136B2 (en) Holographic object feedback
KR102283747B1 (ko) 시선 추적을 갖는 타겟 위치결정
US10019843B2 (en) Controlling a near eye display
RU2643222C2 (ru) Устройство, способ и система обеспечения увеличенного дисплея с использованием шлема-дисплея
US20140168261A1 (en) Direct interaction system mixed reality environments
JP2022535315A (ja) 自己触覚型仮想キーボードを有する人工現実システム
KR20220120649A (ko) 인공 현실 콘텐츠의 가변 초점 디스플레이를 갖는 인공 현실 시스템
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
US20190012835A1 (en) Driving an Image Capture System to Serve Plural Image-Consuming Processes
US10026231B1 (en) System and method for providing views of virtual content in an augmented reality environment
KR20160000986A (ko) 혼합현실을 이용한 가상현실 시스템 및 그 구현방법
JP6800599B2 (ja) 情報処理装置、方法及びプログラム
JP2023525196A (ja) 滑りの影響を受けない視線追跡ユーザインターフェイス
Reddy et al. IIMR: A Framework for Intangible Mid-Air Interactions in a Mixed Reality Environment
WO2024064231A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190313

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190517

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190604

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190904

R150 Certificate of patent or registration of utility model

Ref document number: 6585213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250