JP6866365B2 - ステレオカメラと構造化光とを用いたヘッドマウントディスプレイを伴う奥行きマッピング - Google Patents

ステレオカメラと構造化光とを用いたヘッドマウントディスプレイを伴う奥行きマッピング Download PDF

Info

Publication number
JP6866365B2
JP6866365B2 JP2018521594A JP2018521594A JP6866365B2 JP 6866365 B2 JP6866365 B2 JP 6866365B2 JP 2018521594 A JP2018521594 A JP 2018521594A JP 2018521594 A JP2018521594 A JP 2018521594A JP 6866365 B2 JP6866365 B2 JP 6866365B2
Authority
JP
Japan
Prior art keywords
image
imaging device
additional
local area
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018521594A
Other languages
English (en)
Other versions
JP2019504522A (ja
Inventor
ダニエル トレイル、ニコラス
ダニエル トレイル、ニコラス
ジョーブ フィックス、アレクサンダー
ジョーブ フィックス、アレクサンダー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Facebook Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Technologies LLC filed Critical Facebook Technologies LLC
Publication of JP2019504522A publication Critical patent/JP2019504522A/ja
Application granted granted Critical
Publication of JP6866365B2 publication Critical patent/JP6866365B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/52Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels the 3D volume being constructed from a stack or sequence of 2D planes, e.g. depth sampling systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Analysis (AREA)

Description

本開示は、概して、拡張現実システムまたは仮想現実システムに関し、より具体的には、ローカルエリアの奥行き情報を取得する仮想または拡張現実システム用のヘッドセットに関する。
拡張現実(AR : augmented reality)システムを含み得る仮想現実(VR : virtual reality)システムは、三次元(3D)でのユーザを取り囲む環境の取得を利用することができる。しかし、従来の奥行きカメラ撮像アーキテクチャは、比較的、大きく、重く、かつ、大量の電力を消費する。例えば、飛行時間型(time of flight)(直接検出パルスおよび符号化波形の両方)、構造化光(SL : structured light)、および、ステレオビジョンは、シーンの3D情報を取得するための、一般的に使用されるカメラアーキテクチャである。SLアーキテクチャ内では、既知のベースライン距離を伴う単一カメラと単一SL源とを有する非対称カメラ構成は、3Dシーン情報を取得するための、一般的に使用されるフレームワークである。非対称カメラ構成では、シーンについての3D情報は、重複するカメラ視野への構造化光パターンのマッピングによって提供される。しかし、SL構成の測定結果は、撮像されるローカルエリアにおいて帯域内背景光レベル(in-band background light level)を有することによって影響を受ける。例えば、ローカルエリアの背景光の明るさが複数の桁にわたる(SL源の見かけの強度以上に明るい)場合、(関心対象の信号が最終的に背景光源の光子ノイズ限界で失われるので)SL解像度が劣化する。飛行時間型(ToF)アーキテクチャは、増大した周囲明るさの下で同様の性能低下を経験する。しかし、制御または非制御周囲源を介した少なくとも最小の背景明るさ無くしては、ステレオビジョンは、3Dシーン情報を取得することができない。
拡張現実(AR)システムにまたは仮想現実(VR)システムに含まれるヘッドセットは、様々なダイナミックレンジの周囲光条件における視覚情報の取得を可能にする、奥行きカメラアセンブリ(DCA : depth camera assembly)を含む。DCAは、DCAを取り囲むローカルエリア(「ローカルエリア」とも称される)の画像を撮像するように構成された複数の画像撮像デバイス(例えば、カメラ、ビデオカメラ)と、ローカルエリア上にSLパターンを放射するように構成された構造化光(SL)源とを含む。SLパターンは、対称的もしくは準ランダムグリッドまたは水平バーなどの指定パターンである。ローカルエリア内へと表面上に投影したときのSLパターンの変形に基づいて、ローカルエリアにおけるオブジェクトの奥行きおよび表面情報が決定される。画像撮像デバイスは、光の特定波長範囲(すなわち光の「帯域」)を取得および記録する。
DCAは、1つ以上の画像撮像デバイスを使用してローカルエリアの1つ以上の画像を撮像するように構成されている。DCA内の異なる画像撮像デバイスは、照明源によって投影されたSLパターンの部分(すなわち「SL要素」)を含む画像を撮像するように、または、異なる画像撮像デバイスの視野内のローカルエリアの表現を取得するように構成されている。いくつかの実施形態では、少なくとも撮像された画像のセットは、1つ以上のSL要素を含む。
DCAは、様々な撮像モードで動作する。これらのモードは、ローカルエリアの光条件に基づいて決定される。異なる撮像モードは、DCAの、SL照明器および様々な画像撮像デバイスの異なる動作に対応する。様々な実施形態では、DCAは、DCAの画像撮像デバイスによって撮像された1つ以上の画像の信号対雑音比(SNR : signal to noise ratio)を決定し、そのSNRを、DCAによって維持されるSNRの様々な範囲と比較する。SNRの各範囲は、異なる撮像モードに関連付けられる。DCAは、決定されたSNRを含むSNRの撮像モード範囲に基づいて、SL照明器の動作および1つ以上の画像撮像デバイスの動作を構成する。SNRに加えて、DCAはまた、1つまたはそれ以上の画像に関連付けられたコントラスト比を決定し得る。ある実施形態において、決定されたSNRおよびコントラスト比の両方を使用して、撮像モードが決定される。いくつかの実施形態では、決定されたSNRは、コントラスト比とSNRとの組合せである。さらに他の実施形態では、DCAはまた、DCAの画像撮像デバイスによって取得された1つ以上の画像の空間的分散を決定し、それぞれが撮像モードに関連付けられている空間的分散の維持範囲と、決定された空間的分散と、を比較する。DCAは、決定されたSNRを含むSNRの範囲に関連付けられた、かつ、決定された空間的分散を含む空間的分散の範囲に関連付けられた撮像モードに基づいて、SL照明器の動作および1つ以上の画像撮像デバイスの動作を構成する。
ある実施形態では、DCAは、閾値と、その閾値未満の追加の閾値と、を維持する。決定されたSNRが閾値以上である場合、DCAは、色空間における(例えば、赤、青、緑の色空間における)ローカルエリアの画像を撮像するように複数の画像撮像デバイスを構成し、SL照明器を非活性化する。両方のカメラからカラー画像またはローカル環境を撮像することにより、異なる画像撮像デバイスによって撮像された画像間の画素間相関に基づいてローカル環境の高解像度奥行き情報の決定が可能となる。
しかし、決定されたSNRが閾値未満であり、かつ、追加の閾値よりも大きい場合、DCAは、ローカルエリア上にSLパターンを投影するようにSL照明器を構成する。さらに、DCAは、(赤、青、緑などの)色空間におけるローカルエリアの画像を撮像するように画像撮像デバイスを構成し、SL照明器が投影する波長を含む波長範囲におけるローカルエリアの画像を撮像するように別のカメラを構成する。さらに、DCAは、画像撮像デバイスから、および、他の画像撮像デバイスから画像データを同期または非同期で取得して、画像撮像デバイスから取得された画像データをインターリーブし、ローカルエリアについての奥行き情報を取得する。異なる画像撮像デバイスから同時に、または、(動きに対する)時間または空間の閾値量内で画像データを取得することにより、異なる画像撮像デバイス間の分離に基づいて画像撮像デバイスにより撮像された画像データ内の画像データにおけるシャドウを埋めるための情報が提供される。
決定されたSNRが追加の閾値以下である場合、DCAは、ローカルエリア上にSLパターンを投影するようにSL照明器を構成する。さらに、DCAは、SL照明器によって投影された波長を含む波長範囲におけるローカルエリアの画像を撮像するように、画像撮像デバイスと追加の画像撮像デバイスとを構成する。例えば、ローカルエリアにおける周囲光が、決定されたSNRについて追加の閾値未満であるように十分に低い場合、DCAは、約750〜900ナノメートルの波長を取得するように、画像撮像デバイスと追加の画像撮像デバイスとを構成する。したがって、この構成では、DCAは、SL照明器により使用された波長におけるローカルエリアについての情報を撮像する。画像撮像デバイスから、および、追加の画像撮像デバイスから得られた、ローカルエリア上に投影されるSLパターンの画像データに基づいて、DCAは、ローカルエリアについての粗い奥行き情報を取得するために、粗いおよび細かいステレオマッチングを実行する。
一実施形態による、拡張現実システムを含むシステム環境のブロック図である。 一実施形態による、拡張現実ヘッドセットの図である。 一実施形態による、拡張現実ヘッドセットの前部剛体の断面図である。 一実施形態による、カメラにより撮像されたローカルエリアにより反射された光を伴う構造化光源によって照明された、ローカルエリアの例である。 一実施形態による、奥行きカメラアセンブリのブロック図である。 一実施形態による、シーンの奥行き情報を決定するための処理のフローチャートである。
図面は、例示目的のみのために、本開示の実施形態を示す。当業者は、本明細書に示す構造および方法の代替の実施形態を、本明細書に記載の開示の原理またはうたわれている利点から逸脱することなく採用し得ることを、以下の説明から容易に認識するであろう。
システムの概要
図1は、拡張現実(AR)コンソール110が動作するARシステム環境100の一実施形態のブロック図である。本明細書で使用する場合、ARシステム環境100はまた、ユーザが相互作用し得る仮想環境をユーザに提示する仮想現実システム環境も含み得る。図1により示すARシステム環境100は、ARコンソール110にそれぞれ結合されているARヘッドセット105およびAR入出力(I/O)インタフェース115を含む。図1は、1つのARヘッドセット105と1つのAR I/Oインタフェース115とを含む例示的なシステム100を示すが、他の実施形態では、任意の数のこれらの構成要素が、ARシステム環境100に含まれ得る。例えば、関連付けられたAR I/Oインタフェース115をそれぞれ有する複数のARヘッドセット105が存在し、各ARヘッドセット105およびAR I/Oインタフェース115は、ARコンソール110と通信する。代替の構成では、異なる構成要素および追加の構成要素の両方または一方が、ARシステム環境100に含まれ得る。さらに、図1に示す1つ以上の構成要素に関連して説明された機能は、いくつかの実施形態では、図1に関連して説明したものとは異なる方法で、構成要素間で分散され得る。例えば、ARコンソール110の機能の一部またはすべては、ARヘッドセット105によって提供される。
ARヘッドセット105は、コンピュータ生成要素(例えば、二次元(2D)または三次元(3D)画像、2Dまたは3D映像、音声等)を伴う物理的実世界環境の拡張ビューを含むコンテンツをユーザに提示する、ヘッドマウントディスプレイである。いくつかの実施形態では、提示コンテンツは、ARヘッドセット105、ARコンソール110またはその両方から音声情報を受信する外部デバイス(例えばスピーカおよびヘッドホンの両方または一方)を介して提示されるオーディオを含み、オーディオ情報に基づいて音声データを提示する。ARヘッドセット105の実施形態は、図2および図3に関連して以下でさらに説明される。ARヘッドセット105は、1つ以上の剛体(rigid body)を含み、該剛体は、剛性または非剛性で互いに結合され得る。剛体間の剛性結合により、結合された剛体が単一剛体エンティティとして作動する。対照的に、剛体間の非剛体結合により、剛体が互いに対して移動することが可能となる。
ARヘッドセット105は、奥行きカメラアセンブリ(DCA)120、電子ディスプレイ125、光学ブロック130、1つ以上の位置センサ135、および慣性測定ユニット(IMU : inertial measurement unit)140を含む。ARヘッドセット105のいくつかの実施形態は、図1に関連して説明されたものとは異なる構成要素を有する。さらに、図1に関連して説明された様々な構成要素によって提供される機能は、他の実施形態においては、ARヘッドセット105の構成要素間で、異なって分散され得る。
DCA120は、様々なダイナミックレンジを伴う周囲光条件における視覚情報の取得を可能にする。DCA120のいくつかの実施形態は、1つ以上の画像撮像デバイス(例えば、カメラ、ビデオカメラ)、および、構造化光(SL : structured light)パターンを放射するように構成されたSL源を含み得る。以下にさらに説明するように、構造化光は、対称的もしくは準ランダムグリッドまたは水平バーなどの指定パターンをシーン上に投影する。表面上に投影したときのパターンの変形に基づいて、シーン内のオブジェクトの奥行きおよび表面情報が決定される。したがって、例示の照明源は、ARヘッドセット105を取り囲む環境上にグリッドまたは一連の水平バーを放射する。画像撮像デバイスは、光の波長の特定範囲(すなわち、光の「帯域」)を撮像および記録する。画像撮像デバイスによって取得された光の帯域の例は、可視帯域(約380nm〜750nm)、赤外(IR)帯域(約750nm〜1500nm)、紫外帯域(10nm〜380nm)、電磁スペクトルの別の部分、または、それらの何らかの組合せを含む。1つ以上の画像撮像デバイスはまた、可視波長を有する光、および、IR波長または電磁スペクトルの他の部分における波長を有する光に対して高感度(sensitive)であり得る。例えば、画像撮像デバイスは、赤、緑、青、IR(RGBI)カメラである。いくつかの実施形態では、1つ以上の画像撮像デバイスは、電荷結合素子(CCD : charge coupled device)、相補型金属酸化膜半導体(CMOS : complementary metal-oxide-semiconductor)イメージャ(imager)、他の光感知デバイス、または、それらの何らかの組合せを含む。さらに、DCA120は、1つ以上の画像撮像デバイスにより撮像された画像の信号対雑音比を決定するための、または、任意の他の適切な測定値を決定するための1つ以上のセンサを含み得る。
DCA120は、DCA120に含まれる1つ以上の画像撮像デバイスを使用して、「ローカルエリア(local area)」とも称される、ARヘッドセット105に近接したエリアの1つ以上の画像を撮像するように構成されている。DCA120内の異なる画像撮像デバイスは、照明源(すなわち、「SL要素」)によって投影されたSLパターンの部分を含む画像を撮像するように、または、異なる画像撮像デバイスの視野におけるローカルエリアの表現を撮像するように構成されている。いくつかの実施形態では、少なくとも撮像画像のセットは、1つ以上のSL要素を含む。様々な実施形態では、図5および図6に関連してさらに説明するように、画像撮像デバイスによって撮像された画像は、DCA120の撮像モードを選択するための光強度情報を提供する。さらに、DCA120は、ローカルエリアの画像を撮像するための1つ以上の撮像パラメータ(例えば、焦点距離、フォーカス、フレームレート、ISO、センサ温度、シャッター速度、絞り等)を調整するために、ARコンソール110から1つ以上の入力を受信し得る。ある実施形態において、DCA120は、周囲光レベルと視覚ダイナミックレンジとに基づいて複数の撮像モードのうちの1つで動作するようにそれぞれ構成された、2つのRGBIカメラと1つのIRレーザとを含み、図5および図6に関連して以下にさらに説明するように、DCAは、1つ以上の閾値条件に基づいて撮像モードを修正することができる。
電子ディスプレイ125は、ARコンソール110から受信したデータに応じて、ユーザに2Dまたは3D画像を表示する。様々な実施形態において、電子ディスプレイ125は、単一の電子ディスプレイまたは複数の電子ディスプレイ(例えば、ユーザのそれぞれの眼についてのディスプレイ)を含む。電子ディスプレイ125の例は、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプレイ、アクティブマトリクス有機発光ダイオードディスプレイ(AMOLED : active-matrix organic light-emitting diode display)、いくつかの他のディスプレイ、または、それらの何らかの組合せを含む。
光学ブロック130は、電子ディスプレイ125から受信した画像光を拡大し、画像光に伴う光学誤差を補正し、ARヘッドセット105のユーザに、補正された画像光を提示する。様々な実施形態において、光学ブロック130は、1つ以上の光学素子を含む。光学ブロック130に含まれる例示の光学素子の例は、開口、フレネルレンズ、凸レンズ、凹レンズ、フィルタ、または、画像光に影響を与える任意の他の適切な光学素子を含む。また、光学ブロック130は、異なる光学素子の組合せを含み得る。いくつかの実施形態では、光学ブロック130内の1つ以上の光学素子は、反射防止コーティングなどの1つ以上のコーティングを有し得る。
光学ブロック130による画像光の拡大およびフォーカシング(focusing)により、電子ディスプレイ125を、より物理的に小さく、軽量化して、より大きなディスプレイよりも少ない電力消費とすることが可能となる。また、拡大により、電子ディスプレイ125によって提示されるコンテンツの視野が増大され得る。例えば、表示コンテンツの視野は、ユーザの視野のほぼすべて(例えば、斜め方向約110度)、また、いくつかのケースではすべて、を用いて表示コンテンツが提示されるようなものである。さらに、いくつかの実施形態では、光学素子を追加または除去することによって、拡大の量を調整し得る。
いくつかの実施形態では、光学ブロック130は、1つ以上の種類の光学誤差を補正するように設計され得る。光学誤差の例としては、バレル歪み(barrel distortions)、ピンクッション歪み(pincushion distortions)、軸上色収差、または、横色収差が挙げられる。他の種類の光学誤差はさらに、球面収差、コマ収差(comaticaberrations)、または、レンズ像面湾曲、非点収差、もしくは任意の他の種類の光学誤差に起因する誤差を含み得る。いくつかの実施形態では、表示用に電子ディスプレイ125に提供されるコンテンツは、予め歪まされ、光学ブロック130は、コンテンツに基づいて生成された電子ディスプレイ125からの画像光を光学ブロック130が受けたときに、歪みを補正する。
IMU140は、1つ以上の位置センサ135から受信した測定信号に基づいて、および、DCA120から受信した周囲光レベルから、ARヘッドセット105の位置を示すデータを生成する電子デバイスである。位置センサ135は、ARヘッドセット105の動きに応答して、1つ以上の測定信号を生成する。位置センサ135の例には、1つ以上の加速度計、1つ以上のジャイロスコープ、1つ以上の磁力計、動きを検出する他の適切な種類のセンサ、IMU140の誤差補正に使用されるある種のセンサ、または、それらの何らかの組合せが含まれる。位置センサ135は、IMU140の外部に、IMU140の内部に、または、それらの何らかの組合せで、配置され得る。
1つ以上の位置センサ135からの1つ以上の測定信号に基づいて、IMU140は、ARヘッドセット105の初期位置に対するARヘッドセット105の推定現在位置を示すデータを生成する。例えば、位置センサ135は、並進運動(前/後、上/下、左/右)を測定するための複数の加速度計、および、回転運動(例えば、ピッチ、ヨー、ロール)を測定するための複数のジャイロスコープを含む。いくつかの実施形態では、IMU140は、迅速に測定信号をサンプリングし、サンプリングされたデータからARヘッドセット105の推定現在位置を計算する。例えば、IMU140は、速度ベクトルを推定するために加速度計から経時的に受信した測定信号を積分し、ARヘッドセット105上の基準点の推定現在位置を決定するために経時的に速度ベクトルを積分する。あるいは、IMU140は、サンプリングされた測定信号をARコンソール110に提供し、ARコンソール110は誤差を低減するためにデータを解釈する。基準点は、ARヘッドセット105の位置を示すために使用し得る点である。基準点は一般的に、ARヘッドセット105の向きおよび位置に関連する、空間内の点、または位置として定義され得る。
IMU140は、ARコンソール110から1つ以上のパラメータを受信する。さらに後述するように、1つ以上のパラメータは、ARヘッドセット105の追跡を維持するために使用される。受信したパラメータに基づいて、IMU140は、1つ以上のIMUパラメータ(例えば、サンプルレート)を調整し得る。いくつかの実施形態では、特定のパラメータが、IMU140に、基準点の次の位置に対応するように基準点の初期位置を更新させる。基準点の次の較正位置として基準点の初期位置を更新することは、IMU140により推定された現在位置に伴う累積誤差を低減するのに役立つ。ドリフト誤差とも称される累積誤差により、基準点の推定位置が、基準点の実際の位置から経時的に「ドリフト」されてしまう。ARヘッドセット105のいくつかの実施形態では、IMU140は、専用のハードウェア構成要素であり得る。他の実施形態では、IMU140は、1つ以上のプロセッサに実装されたソフトウェア構成要素であり得る。
AR I/Oインタフェース115は、ユーザがアクション要求を送信し、かつ、ARコンソール110から応答を受信することを可能にするデバイスである。アクション要求は、特定のアクションを実行するための要求である。例えば、アクション要求は、画像もしくは映像データの取得を開始もしくは終了するための命令、または、アプリケーション内の特定のアクションを実行するための命令であり得る。AR I/Oインタフェース115は、1つ以上の入力デバイスを含み得る。例示の入力デバイスは、キーボード、マウス、ゲームコントローラ、または、アクション要求を受信してARコンソール110にアクション要求を通信するための任意の他の適切なデバイスを含む。AR I/Oインタフェース115によって受信されたアクション要求は、ARコンソール110に通信され、ARコンソール110は、アクション要求に対応するアクションを実行する。いくつかの実施形態では、AR I/Oインタフェース115は、IMU140を含み、IMU140は、上述のように、AR I/Oインタフェース115の初期位置に対するAR I/Oインタフェース115の推定位置を示す較正データを取得する。いくつかの実施形態では、AR I/Oインタフェース115は、ARコンソール110から受信した命令に応じてユーザに触覚フィードバックを提供し得る。例えば、アクション要求が受信されたときに、触覚フィードバックが提供され、または、ARコンソール110がアクションを実行したときに、ARコンソール110が命令をAR I/Oインタフェース115に通信してAR I/Oインタフェース115に触覚フィードバックを生成させる。
ARコンソール110は、DCA120、ARヘッドセット105およびAR I/Oインタフェース115のうちの1つ以上から受信した情報に応じて、処理用に、ARヘッドセット105にコンテンツを提供する。図1に示す例では、ARコンソール110は、アプリケーションストア150、追跡モジュール155およびARエンジン145を含む。ARコンソール110のいくつかの実施形態は、図1に関連して説明したものとは異なるモジュールまたは構成要素を有する。同様に、以下でさらに説明される機能は、図1に関連して説明したものとは異なる方法で、ARコンソール110の構成要素間で分散され得る。
アプリケーションストア150は、ARコンソール110による実行用の1つ以上のアプリケーションを格納する。アプリケーションは、プロセッサによって実行されたときにユーザに提示するためのコンテンツを生成する命令群である。アプリケーションによって生成されたコンテンツは、ユーザからARヘッドセット105またはAR I/Oインタフェース115の動きを介して受信した入力に応答し得る。アプリケーションの例には、ゲームアプリケーション、会議アプリケーション、ビデオ再生アプリケーション、または他の適切なアプリケーションが含まれる。
追跡モジュール155は、1つ以上の較正パラメータを使用してARシステム環境100を較正し、ARヘッドセット105またはAR I/Oインタフェース115の位置の決定における誤差を低減するために、1つ以上の較正パラメータを調整し得る。例えば、追跡モジュール155は、DCA120により取得されたSL要素の位置をより正確に決定するために、DCA120の焦点を調整するようDCA120に較正パラメータを通信する。追跡モジュール155によって実行される較正はまた、ARヘッドセット105内のIMU140およびAR I/Oインタフェース115に含まれるIMU140の両方または一方から受信した情報も考慮する。さらに、ARヘッドセット105の追跡が失われる(例えば、DCA120が、少なくとも閾値数のSL要素の視線(line of sight)を失う)と、追跡モジュール140は、ARシステム環境100の一部または全体を再較正し得る。
追跡モジュール155は、DCA120、1つ以上の位置センサ135、IMU140またはそれらの何らかの組合せからのセンサデータ情報を使用して、ARヘッドセット105またはAR I/Oインタフェース115の動きを追跡する。例えば、追跡モジュール155は、ARヘッドセット105からの情報に基づいてローカルエリアのマッピングにおけるARヘッドセット105の基準点の位置を決定する。追跡モジュール155はまた、IMU140からの、ARヘッドセット105の位置を示すデータを使用して、または、AR I/Oインタフェース115に含まれるIMU140からの、AR I/Oインタフェース115の位置を示すデータを使用して、それぞれ、ARヘッドセット105の基準点またはAR I/Oインタフェース115の基準点の位置を決定し得る。さらに、いくつかの実施形態では、追跡モジュール155は、IMU140からの、位置またはARヘッドセット105を示すデータの部分、および、DCA120からのローカルエリアの表現を使用して、ARヘッドセット105の将来位置を予測する。追跡モジュール155は、ARヘッドセット105またはAR I/Oインタフェース115の推定または予測将来位置を、ARエンジン145に提供する。
ARエンジン145は、ARヘッドセット105から受信された、投影した複数のSL要素の画像の立体情報または変形に基づいて、ローカルエリアの3Dマッピングを生成する。いくつかの実施形態において、ARエンジン145は、ARヘッドセット105のDCA120内の画像撮像デバイスによって撮像された立体画像に基づいて、ローカルエリアの3Dマッピング用の奥行き情報を決定する。追加的にまたは代替的に、ARエンジン145は、ARヘッドセット105のDCA120により撮像された、変形されたSL要素の画像に基づいて、ローカルエリアの3Dマッピング用の奥行き情報を決定する。DCA120から受信した情報からのローカルエリアの奥行きマッピングは、図5に関連して以下にさらに説明される。
ARエンジン145はまた、ARシステム環境100内でアプリケーションを実行し、ARヘッドセット105の、位置情報、加速度情報、速度情報、予測将来位置、または、それらの何らかの組合せを追跡モジュール155から受信する。受信した情報に基づいて、ARエンジン145は、ユーザに提示するためにARヘッドセット105に提供するコンテンツを決定する。例えば、ユーザが左を見たことを受信情報が示す場合、ARエンジン145は、仮想環境において、または、追加コンテンツでローカルエリアを拡張させる環境において、ユーザの動きをミラーリングする、ARヘッドセット105用のコンテンツを生成する。さらに、ARエンジン145は、AR I/Oインタフェース115から受信したアクション要求に応答して、ARコンソール110上で実行されるアプリケーション内のアクションを実行し、アクションが実行されたことのフィードバックをユーザに提供する。提供されるフィードバックは、ARヘッドセット105を介した視覚的または聴覚的フィードバックまたはAR I/Oインタフェース115を介した触覚フィードバックであり得る。
図2は、ARヘッドセット200の一実施形態の線図である。ARヘッドセット200は、ARヘッドセット105の実施形態であり、前部剛体205、バンド210、基準点215、左側220A、上側220B、右側220C、下側220D、および、前側220Eを含む。図2に示すARヘッドセット200はまた、図3および図4に関連して以下にさらに説明される、カメラ225と、追加のカメラ227と、構造化光(SL)照明器230とを含む奥行きカメラアセンブリ(DCA)120の実施形態も含む。前部剛体205は、電子ディスプレイ125(図示せず)のうちの1つ以上の電子ディスプレイ素子、IMU130、1つ以上の位置センサ135、および、基準点215を含む。
図2で示した実施形態では、ARヘッドセット200は、既知の距離だけ離れているとともに共通の視野を有するカメラ225と追加のカメラ227とを含むDCA120、ならびに、ローカルエリア上に既知パターン(例えば、グリッド、一連のライン、対称的または準ランダムに配向されたドットのパターン)を投影するように構成されたSL照明器230を含む。カメラ225と追加のカメラ227とが撮像したローカルエリアの画像は、図3〜図6に関連してさらに以下で説明されるように、ローカルエリアの奥行き画像を計算するために使用される。
図3は、図2に示すARヘッドセット200の前部剛体205の断面図である。図3に示すように、前部剛体205は、カメラ315およびSL照明器325を含む。前部剛体205は、光が前部剛体205を通って伝搬する経路に対応する光軸320を有する。図3の例では、カメラ315は、光軸320に沿って配置され、カメラ315の視野内で前部剛体205を取り囲む環境の一部であるローカルエリア305の画像を撮像する。さらに、前部剛体205は、図1に関連してさらに上述した電子ディスプレイ125と光学ブロック130とを含む。前部剛体205はまた、ユーザの眼340が配置される射出瞳335も含む。説明の目的のために、図3は、片方の眼340に係る前部剛体205の断面を示す。
ローカルエリア305は、入射した周囲光とSL照明器325によって投影された光とを反射する。図3に示すように、SL照明器325は、光軸320に平行な軸に沿って配置される一方、カメラ315は、光軸320に沿って配置される。図2および図3に示すように、SL照明器325は、(カメラ315を含む)光軸320に平行な面とは異なる、光軸320に平行な面内に配置されている。SL照明器325およびカメラ315は、図1のDCA120と関連してさらに上述されている。
図1に関連して上述したように、電子ディスプレイ素子125は、画像を形成する光を光学ブロック130に向けて放射し、光学ブロック130は、電子ディスプレイ素子125から受けた光を変化させる(alter)。光学ブロック130は、変化された画像光(image light)を射出瞳335に向け、射出瞳335は、ユーザの眼340が位置している前部剛体205の位置である。上述したように、図3は、ユーザの片方の眼340について前部剛体205の断面を示しており、別の電子ディスプレイ125と光学ブロック130とを含み、これらは、図3に示したものとは別個で前部剛体205に含まれ、ユーザの他方の眼にローカルエリア305の拡張表現または他のコンテンツを提示する。
図4は、DCA400を含むARヘッドセット105の実施形態によって撮像される画像の例である。図4の例では、DCA400は、特定の撮像モードで動作し、ARヘッドセット105を取り囲むローカルエリア410の画像を撮像する。図1および図3に関連してさらに上述したように、図4のDCA400は、構造化光(SL)照明器420、カメラ430および追加のカメラ435を含み、カメラ430および追加のカメラ435は、既知の距離で離間されているとともに、重複する視野を有している。SL照明器420は、カメラ430と追加のカメラ435とに含まれるレンズに垂直な面の中点、または、カメラ430と追加のカメラ435とに含まれるレンズに垂直な面内の別の場所などの、カメラ430と追加のカメラ435との間に配置される(これにより、SL照明器420をカメラ430または追加のカメラ435のより近くに配置することができる)。別の実施形態では、SL照明器420と、カメラ430と、追加のカメラ435とが略正三角形を形成して配置されるように、SL照明器420が配置される。SL照明器420と、カメラ430と、追加のカメラ435との間の正確な離間距離は、3D感度と視点オフセットからの三角測量による推定横画像シフトとを定義するのに役立つが、異なる実施形態においては様々な基準を最適化するように別の態様に修正され得る。
DCA400は、SL照明器420がローカルエリア410を照明していない場合に、カメラ430によって、または追加のカメラ435によって撮像された画像における信号対雑音比(SNR)などのパラメータに基づいて動作についての撮像モードを選択することにより、様々な撮像モードで動作し、SNRは、ローカルエリア410における周囲光レベルによって影響を受ける。図5および図6に関連してさらに以下に説明するように、DCA400は、カメラ430と追加のカメラ435とのうちの1つ以上によって撮像された画像のSNRを決定し、決定されたSNRに基づいて撮像モードを決定する。例えば、DCA400は、決定されたSNRを含む範囲を決定し、決定されたSNRを含む範囲に関連付けられている撮像モードを選択する。例えば、SL照明器420がローカルエリア410を照射していない場合にカメラ430によって撮像されたローカルエリア410の画像のSNRが閾値を超えた場合、DCA400は、カメラ430によっておよび追加のカメラ435によって撮像されたステレオマッチング画像(stereo matching images)によってローカルエリア410の奥行き情報を決定する。前述の例では、SNRが閾値未満であり、かつ、追加の閾値未満である場合、DCA400は、SL照明器420でローカルエリア410を照明し、SL照明器420によってローカルエリア410上に投影されたパターンの画像からローカルエリア410についての奥行き情報を決定する。さらに、ローカルエリア410にわたる変動する周囲光レベルに基づいて、DCA400は、ステレオおよび非対称SLについての撮像画像をインターリーブして、異種のデータセットをマージし得る。この例では、DCA400は、カメラ430と追加のカメラ435とを含むベースステレオペア(base stereo pair)、SL照明器420とカメラ430とを含む右のSLペア、SL照明器420と追加のカメラ435とを含む左のSLペア、または、カメラ430と追加のカメラ435とからのステレオデータを収集しつつSL照明器420を動作させるアシストされたステレオの組合せを動作させ得る。ローカルエリア410における空間周波数または放射輝度動的変動が、ステレオマッチング入力を一意に解決するほどには周囲照明下で十分にユニークではない場合に、アシストされたステレオの組合せを動作させ得る。しかし、DCA400は、図5および図6に関連して以下にさらに説明するように、様々な実施形態において任意の数の撮像モードから選択し得る。
図5は、DCA120の一実施形態のブロック図である。図5で示す例では、DCA120は、SL照明器510、カメラ520、追加のカメラ525、SNRモジュール530およびモード選択モジュール540を含む。他の実施形態では、DCA120は、図5に示されているものとは異なる構成要素および追加の構成要素の両方または一方を含み得る。図1および図4に関連してさらに上述したように、カメラ520および追加のカメラ525は、重複視野を有しており、既知の距離によって離間されている。カメラ520および追加のカメラ525はそれぞれ、カメラ520と追加のカメラ525との視野内にあるDCA120を含むARヘッドセット105を取り囲む環境のローカルエリアの画像を撮像する。構造化光(SL)照明器510は、擬似ランダムドットパターン、グリッドまたは水平バーなどのSLパターンを、ローカルエリア上に投影する。例えば、SLパターンは、既知の幅および高さの1つ以上の幾何学的要素を含み、これにより、ローカルエリアにおけるオブジェクトに関する情報を提供するためにSLのパターンがローカルエリア上に投影されるときに、様々な幾何学的要素の変形の計算が可能となる。
DCA120は、ローカルエリアの画像を異なって撮像する、異なる撮像モードで動作することが可能である。様々な実施形態では、DCA120が動作する撮像モードは、カメラ520と追加のカメラ525とのうちの1つ以上によって撮像された1つ以上の画像の信号対雑音比(SNR)に少なくとも部分的に基づいて決定される。DCA120はまた、カメラ520と追加のカメラ525とによって撮像されたローカルエリアの1つ以上の画像のうちの少なくとも1つに関連付けられたコントラスト比も決定し得る。例えば、SNRに加えて、DCA120はまた、ローカルエリアにおける最も暗い色(例えば、黒)に対する、最も明るい色(例えば、白)の輝度の比であるコントラスト比も決定する。一実施形態において、DCA120により決定されたSNRは、決定されたSNRと決定されたコントラスト比との組合せである。
いくつかの実施形態では、DCA120は、カメラ520と追加のカメラ525とによって撮像された1つ以上の画像のSNRならびに1つ以上の画像の空間的分散(spatial variance)の測定値に基づいて撮像モードを決定する。画像の空間的分散は、画像内の異なる位置における画素の大きさまたは強度の分散に基づいており、かつ、ローカルエリアの空間周波数成分に基づく。SNRは、ローカルエリアにおける周囲光条件に部分的に依存するので、DCA120は、ローカルエリアにおける周囲光に基づいて異なる撮像モードで動作する。撮像モードを選択するためにSNRおよび空間的分散を使用する場合、DCA120が動作する撮像モードは、ローカルエリアにおける周囲光と空間周波数成分との両方に基づく。様々な実施形態では、SNRモジュール530は、カメラ520によって、または、追加のカメラ525によって撮像された画像(例えば、SL照明器510がローカルエリアを照明していない間に撮像された画像)から画像データを受信し、受信した画像データからSNRを決定する。空間的分散はまた、様々な実施形態において、受信画像データからSNRモジュール530によっても決定され得る。代替的にまたは追加的に、SNRモジュール530は、1つ以上の光強度センサ(例えば、DCA120に含まれるか、ARヘッドセット105に含まれるか、または他の形でARシステム環境100内の構成要素へ情報を通信する、光強度センサ)からデータを受信し、光強度センサからのデータに基づいてSNRを決定する。いくつかの実施形態では、SNRモジュール530は、定期的な間隔でSNRを決定する。例えば、SNRモジュール530は、原画像を1つ以上の補正フィルタ(フィールドバランシング、パワー補正、ケラレ補正等)に通すこと、および、最小値よりも低い周囲輝度周波数成分(例えば、SL照明器よりも低い周波数成分)を画像から除去するためにローカル信号スロープ微分フィルタ(local signal slope derivative filters)を適用することによって、画像についてのSNRを決定する。最小値よりも低い周波数成分を除去した後、閾値以上の信号の測定値は、光強度データを撮像するデバイス(例えば、カメラ、追加のカメラ、光強度センサ)の最小値信号(暗)フロアと比較され、画像のSNRが決定される。画像についてのSNRおよび空間的分散の決定は、図6に関連してさらに以下に説明される。
モード選択モジュール540は、SNRモジュール530によって決定されるSNRに少なくとも部分的に基づいて、複数のモードから撮像モードを選択する。SNRモジュール530が空間的分散を決定する実施形態では、モード選択モジュール540はまた、空間的分散に少なくとも部分的に基づいて撮像モードを選択する。選択された撮像モードに基づいて、モード選択モジュール540は、カメラ520、追加のカメラ525およびSL照明器510のうちの1つ以上に命令を通信し、カメラ520、追加のカメラ525およびSL照明器510を構成する。いくつかの実施形態では、モード選択モジュール540は、閾値SNRと追加の閾値SNRとで境界決定された各範囲で、SNRの複数の範囲を維持する。異なる範囲は、異なる撮像モードに関連付けられ、モード選択モジュール540は、いくつかの実施形態において、決定されたSNRを含む範囲に関連付けられている撮像モードを選択する。モード選択モジュール540はまた、閾値分散と追加の閾値分散とにより境界決定されて撮像モードに関連付けられている各範囲で、空間的分散の複数の範囲を維持し、これにより、モード選択モジュール540は、SNRモジュール530によって決定されるSNRと空間的分散とを含むSNRの範囲と、空間的分散の範囲と、に対応する撮像モードを選択する。
一実施形態では、モード選択モジュール540は、各範囲に関連付けられた異なる撮像モードで、SNRの3つの範囲を特定するために、閾値と、閾値とは異なり閾値未満である追加の閾値とを維持する。SNRモジュール530からのSNRが閾値以上である場合、モード選択モジュール540は、カメラ520におよび追加のカメラ525に、色空間において(例えば、赤、青、緑の色空間において)ローカルエリアの画像をともに撮像するための命令を通信する。さらに、SNRモジュール530はまた、SNRモジュール530からのSNRが閾値以上である場合、SL照明器510を非活性化するための命令をSL照明器510に通信する。両方のカメラからカラー画像またはローカル環境を取得することにより、カメラ520によって、および、追加のカメラ525によって撮像された異なる画像間の画素間相関に基づいて、ローカル環境の高解像度奥行き情報の決定が可能となる。
しかし、SNRモジュール530からの受信SNRが閾値未満であり、かつ、追加の閾値よりも大きい場合、モード選択モジュール540は、SL照明器510に、ローカルエリア上にSLパターンを投影するための命令を通信する。さらに、モード選択モジュール540は、カメラ520に、(赤、青、緑などの)色空間におけるローカルエリアの画像を撮像するための命令を通信し、追加のカメラ525に、SL照明器510が投影する波長を含む波長の範囲におけるローカルエリアの画像を撮像するための命令を通信する。例えば、赤外光を介してSL照明器510がSLパターンを投影する場合、命令は、赤外波長を検出し、検出された赤外波長の画像を撮像するように、追加のカメラ525を構成する。さらに、DCA120は、カメラ520から、および、追加のカメラ525から同期または非同期で画像データを取得し、カメラ520から、および、追加のカメラ525から取得した画像データをインターリーブして、ローカルエリアについての奥行き情報を取得する。カメラ520から、および、追加のカメラ525から同時に、または、(動きに対する)時間もしくは空間における閾値量内で画像データを取得することにより、既知の距離でのカメラ520と追加のカメラ525との離間に基づいてカメラ520により撮像された画像データ内で画像データにおけるシャドウ(shadows)を埋めて、同様の重複視野を持たせるための情報が提供される。
SNRモジュール530から受信したSNRが追加の閾値以下である場合、モード選択モジュール540は、SL照明器510に、ローカルエリア上にSLパターンを投影するための命令を通信する。さらに、モード選択モジュール540は、カメラ520におよび追加のカメラ525に、SL照明器510が投影する波長を含む波長の範囲におけるローカルエリアの画像を撮像するための命令を通信する。例えば、SL照明器510が光の赤外波長を介してSLパターンを投影する場合、カメラ520と追加のカメラ525とに通信された命令により、カメラ520および追加のカメラ525が、赤外波長の画像を検出および撮像する。例えば、ローカルエリアにおける周囲光が、モード選択モジュール540がこの撮像モードを選択するのに十分低い場合、(カメラ520によってまたは追加のカメラ525によって使用され得るほとんどの赤、青、緑ベイヤーフィルタ(Bayer filters)により、ほぼ同量の赤外光を通過させることができるので)カメラ520および追加のカメラ525は、約750〜900ナノメートルの波長を取得する。したがって、この撮像モードは、周囲光条件が所定閾値未満であると通知されると、SL照明器510で赤外波長におけるローカルエリアについての情報を取得する。カメラ520からおよび追加のカメラ525から得られたローカルエリア上に投影されたSLパターンの画像データに基づいて、DCA120は、ローカルエリアについての粗い奥行き情報を得るために、粗いおよび細かいステレオマッチングを実行する。さらに、モード選択モジュール540は、SL照明器510、カメラ520および追加のカメラ525に、SL照明器510およびとカメラ520とに「右」データペアを形成するように動作させ得る一方、SL照明器510と追加のカメラ525とに「左」データペアを形成するように動作させ得る命令を通信し得る。SL照明器510とカメラ520との組合せ(pairing)と、SL照明器510と追加のカメラ525との組合せとは、非対称であり、これにより、三次元情報の抽出と、オーバーレイ比較(overlay comparisons)を介した画像データにおける位置欠落の補正とが可能となる。他の実施形態では、モード選択モジュール540は、任意の数の撮像モードから選択し、撮像モードを選択するために、任意の適切な基準を使用し得る。
他の実施形態では、モード選択モジュール540は、最小SNRおよび最小空間的分散を維持し、SNRモジュール530によって決定されたSNRと空間的分散とを、最小SNRおよび最小空間的分散と比較する。SNRモジュール530からのSNRが最小SNR以上であり、SNRモジュール530からの空間的分散が最小空間的分散を超える場合、モード選択モジュール540は、カメラ520におよび追加のカメラ525に、色空間における(例えば、赤、青、緑の色空間における)ローカルエリアの画像をともに撮像するための命令を通信する。さらに、SNRモジュール530は、SNRモジュール530からのSNRが最小SNR以上であり、SNRモジュール530からの空間的分散が最小空間的分散以上である場合、SL照明器510に、SL照明器510を非活性化するための命令を通信する。SNRモジュール530からのSNRが最小SNR未満であり、SNRモジュール530からの空間的分散が最小空間的分散以上である場合、モード選択モジュール540は、SL照明器510に、ローカルエリア上にSLパターンを投影するための命令を通信し、カメラ520にまたは追加のカメラ525に、SL照明器510とカメラ520との組合せ、およびSL照明器510と追加カメラ525との組合せからデータを取得するための命令を通信する。SNRモジュール530からのSNRが最小SNR以上であり、SNRモジュール530からの空間的分散が最小空間的分散未満である場合、モード選択モジュール540は、SL照明器510に、ローカルエリア上にSLパターンを投影するための命令を通信する。さらに、モード選択モジュール540は、カメラ520におよび追加のカメラ525に、SL照明器510が投影する波長を含む波長の範囲におけるローカルエリアの画像を撮像するための命令を通信する。
図6は、奥行きカメラアセンブリ120についての撮像モードを選択するための処理の一実施形態のフローチャートである。図6に関連して説明される機能は、いくつかの実施形態においてDCA120またはARヘッドセット105内の他の構成要素によって実行され得る。あるいは、図6に関連して説明される機能は、ARシステム環境100内の他の構成要素により実行され得る。さらに、いくつかの実施形態において、処理は、図6に関連して説明されたものとは異なるステップ、または追加のステップを含む。また、特定の実施形態は、図6に関連して説明される順序とは異なる順序で、図6に関連して説明されるステップを実行し得る。
DCA120は、DCA120における画像撮像デバイス(例えば、カメラ)の視野内でARヘッドセット105を取り囲む環境を含むローカルエリアにおける周囲光強度の測定値を取得する(610)。いくつかの実施形態では、DCA120は、DCA120に含まれるSL照明器によってローカルエリアが照明されていない間、画像撮像デバイスによって撮像された1つ以上の画像を分析することにより、周囲光強度の測定値を取得する(610)。いくつかの実施形態では、1つ以上の画像撮像デバイスにより撮像された画像は、複数の領域にセグメント化され、各領域は指定の寸法を有する。DCA120は、代替的にまたは追加的に、DCA120にまたはARシステム環境100の他の構成要素に含まれる1つ以上の光強度センサから周囲光強度の測定値を取得し得る(610)。
DCA120は、1つ以上の画像撮像デバイスにより撮像された画像の平均信号対雑音比(SNR)を計算する(620)。撮像された画像をDCA120が複数の領域にセグメント化する場合、DCA120は、撮像された画像の様々な領域についての平均SNRを計算する(620)。様々な実施形態では、DCA120は、撮像された画像をバランシング(balancing)または補正すること、および、バランシングまたは補正された画像に適応的平均値フィルタを適用することにより、撮像された画像の領域について平均SNRを計算する(620)。いくつかの実施形態では、DCA120は、領域内の画素をそれらのデジタルカウントに基づいてランク付けし、ランキング内の少なくとも閾値位置を有する画素の平均デジタルカウント、および、ランキング内の追加の閾値位置未満である画素の追加の平均デジタルカウントを決定する。DCA120は、平均デジタルカウントと追加の平均デジタルカウントとの比較に基づいて、領域についての平均SNRを計算する(620)。
図6に示す実施形態などのいくつかの実施形態では、DCA120はまた、画像のまたは画像の領域の空間的分散も計算する(630)。例えば、DCA120は、適応フィルタまたは他のフィルタを適用する前に、撮像された画像の空間的変換(例えば、フーリエ変換)を決定し、撮像された画像の空間的変換から周波数成分および分散を特定する。いくつかの実施形態では、DCA120は、撮像された画像の空間的変換から、特定の周波数成分および分散を特定する。DCA120は、SNRを計算し(620)、撮像された画像の空間的分散、または、いくつかの実施形態においては並列に撮像された画像の領域の空間的分散を計算し得る(630)。他の実施形態では、DCA120は、撮像された画像の空間的分散、または、撮像された画像の領域のSNRを計算する(620)前に、撮像された画像の空間的分散、または、撮像された画像の領域の空間的分散を計算し得る(630)。
いくつかの実施形態では、図5に関連してさらに上述したように、DCA120は、撮像された画像のSNR、または、撮像された画像の領域のSNRを、1つ以上の閾値と比較し(640)、比較に基づいて撮像モードを選択する(650)。あるいは、図5に関連してもさらに上述したように、DCA120は、撮像された画像のSNR、または、撮像された画像の領域のSNRを、最小SNRと比較し(640)、撮像された画像の空間的分散、または、撮像された画像の領域の空間的分散を比較する(640)。比較に基づいて、DCA120は、図5に関連してさらに上述したように、撮像モードを選択する(630)。選択された撮像モードを使用して、DCA120は、ローカルエリアの画像を撮像し、ローカルエリアについての奥行き情報を決定する。DCA120は、撮像された画像の様々な領域についての上述のステップを実行し得、定期的な間隔で、または、撮像モードを修正するための、および、より正確にローカルエリアについての奥行き情報を決定するための様々な条件が満たされた場合に、上述のステップを実行し得る。
実施形態の前述の説明は、例示の目的のために提示されており、網羅的であること、または、開示された正確な形態に特許権を限定することを意図するものではない。関連技術の当業者は、上記の開示に照らして多くの修正および変形が可能であることを理解することができる。
本明細書で使用される言語は、主として読みやすさおよび説明を目的として選択されており、本発明の主題を線引きまたは画定するように選択されていない可能性がある。したがって、特許権の範囲は、この詳細な説明によってではなく、むしろ、これに基づいて本願について発行される任意の特許請求の範囲によって限定されるものである。したがって、実施形態の開示は、特許権の範囲を例示することを意図しているが、特許権の範囲を限定するものではない。

Claims (18)

  1. ヘッドセットであって、該ヘッドセットは、
    ローカルエリア上に構造化光パターンを放射するように構成された構造化光照明器と、
    前記構造化光パターンによって照明された前記ローカルエリアの1組の画像を撮像するように構成された画像撮像デバイスと、
    既知の距離で前記画像撮像デバイスから離間され、前記画像撮像デバイスと共通の視野を有する追加の画像撮像デバイスであって、前記構造化光パターンによって照明された前記ローカルエリアの追加の1組の画像を撮像するように構成された前記追加の画像撮像デバイスと、
    前記画像撮像デバイスに結合され、かつ、前記追加の画像撮像デバイスに結合されたモード選択モジュールであって、前記画像撮像デバイスによって、または前記追加の画像撮像デバイスによって撮像された1つ以上の画像の信号対雑音比に基づいて、前記画像撮像デバイス、前記追加の画像撮像デバイス、および、前記構造化光照明器の撮像モードを決定するように構成され、前記画像撮像デバイス、前記追加の画像撮像デバイス、および、前記構造化光照明器のうちの1つ以上に、決定された前記撮像モードを構成するための命令を通信するように構成された前記モード選択モジュールと、を備え
    前記モード選択モジュールは、前記信号対雑音比の閾値と前記信号対雑音比の追加の閾値とを維持し、前記追加の閾値は、前記閾値とは異なっているとともに前記閾値未満であり、前記モード選択モジュールは、
    前記画像撮像デバイスによって、または、前記追加の画像撮像デバイスによって撮像された1つ以上の画像の前記信号対雑音比が前記閾値以上であるとの決定に応答して、前記画像撮像デバイスおよび前記追加の画像撮像デバイスがともに色空間における前記ローカルエリアの画像を撮像するとともに前記構造化光照明器が非活性化される撮像モードを決定し、
    前記画像撮像デバイスにおよび前記追加の画像撮像デバイスに、前記色空間における前記ローカルエリアの画像を撮像するための命令を通信し、
    前記構造化光照明器に、前記構造化光照明器を非活性化するための命令を通信するように構成されている、ヘッドセット。
  2. 前記モード選択モジュールは、複数の範囲の信号対雑音比を維持し、異なる範囲の信号対雑音比が、異なる撮像モードに関連付けられている、請求項1に記載のヘッドセット
  3. 前記モード選択モジュールは、前記画像撮像デバイスによって、および、前記追加の画像撮像デバイスによって撮像された1つ以上の画像の前記信号対雑音比を含む信号対雑音比の範囲に関連付けられている撮像モードとして、前記画像撮像デバイス、前記追加の画像撮像デバイス、および、前記構造化光照明器の前記撮像モードを決定するように構成されている、請求項2に記載のヘッドセット
  4. 前記モード選択モジュールは、
    前記画像撮像デバイスによって、または、前記追加の画像撮像デバイスによって撮像された1つ以上の画像の前記信号対雑音比が前記閾値未満であり、かつ、前記追加の閾値よりも大きいとの決定に応答して、前記画像撮像デバイスが前記色空間における前記ローカルエリアの画像を撮像し、前記追加の画像撮像デバイスが、前記構造化光照明器によって放射された波長を含む波長範囲で前記ローカルエリアの画像を撮像し、前記構造化光照明器が、前記ローカルエリア上に前記構造化光パターンを放射する代替の撮像モードを決定し、
    前記画像撮像デバイスに、前記色空間における前記ローカルエリアの画像を撮像するための命令を通信し、
    前記追加の画像撮像デバイスに、前記構造化光照明器によって放射された波長を含む前記波長範囲における前記ローカルエリアの画像を撮像するための命令を通信し、
    前記構造化光照明器に、前記ローカルエリア上に前記構造化光パターンを放射するための命令を通信するようにさらに構成されている、請求項に記載のヘッドセット
  5. 前記構造化光照明器が、赤外波長で前記構造化光パターンを放射し、前記追加の画像撮像デバイスが、赤外波長における前記ローカルエリアの画像を撮像する、請求項に記載のヘッドセット
  6. 前記ヘッドセットは、前記追加の画像撮像デバイスによって撮像された画像の取得から時間閾値量内で前記画像撮像デバイスによって撮像された画像を取得するように構成されている、請求項に記載のヘッドセット
  7. 前記モード選択モジュールは、
    前記画像撮像デバイスによって、または、前記追加の画像撮像デバイスによって撮像された1つ以上の画像の前記信号対雑音比が前記追加の閾値以下であるとの決定に応答して、前記画像撮像デバイスおよび前記追加の画像撮像デバイスが、前記構造化光照明器によって放射された波長を含む波長範囲における前記ローカルエリアの画像を撮像し、前記構造化光照明器が、前記ローカルエリア上に前記構造化光パターンを放射する追加の撮像モードを決定し、
    前記画像撮像デバイスに、前記構造化光照明器によって放射された波長を含む前記波長範囲における前記ローカルエリアの画像を撮像するための命令を通信し、
    前記追加の画像撮像デバイスに、前記構造化光照明器によって放射された波長を含む前記波長範囲における前記ローカルエリアの画像を撮像するための命令を通信し、
    前記構造化光照明器に、前記ローカルエリア上に前記構造化光パターンを放射するための命令を通信するようにさらに構成されている、請求項に記載のヘッドセット
  8. 前記構造化光照明器は、赤外波長で前記構造化光パターンを放射し、前記画像撮像デバイスおよび前記追加の画像撮像デバイスは、赤外波長における前記ローカルエリアの画像を撮像する、請求項に記載のヘッドセット
  9. 前記モード選択モジュールは、前記画像撮像デバイスによって、または、前記追加の画像撮像デバイスによって撮像された1つ以上の画像の前記信号対雑音比および空間的分散に基づいて、前記画像撮像デバイス、前記追加の画像撮像デバイス、および、前記構造化光照明器の撮像モードを決定するように構成されている、請求項1に記載のヘッドセット
  10. 前記画像撮像デバイスによって、または、前記追加の画像撮像デバイスによって撮像された1つ以上の画像の前記信号対雑音比および前記空間的分散に基づいて、前記画像撮像デバイス、前記追加の画像撮像デバイス、および、前記構造化光照明器の撮像モードを決定することは、
    前記画像撮像デバイスによって、または、前記追加の画像撮像デバイスによって撮像された1つ以上の画像の前記信号対雑音比が最小の信号対雑音比以上であることに応答して、および、前記空間的分散が最小の空間的分散以上であることに応答して、前記画像撮像デバイスおよび前記追加の画像撮像デバイスがともに色空間における前記ローカルエリアの画像を撮像するとともに前記構造化光照明器が非活性化される撮像モードを決定すること、
    前記信号対雑音比が前記最小の信号対雑音比未満であることに応答して、および、前記空間的分散が前記最小の空間的分散以上であることに応答して、前記構造化光照明器が、前記ローカルエリア上に前記構造化光パターンを放射し、前記画像撮像デバイスと前記構造化光照明器との組合せが、前記ローカルエリアの画像を撮像し、前記追加の画像撮像デバイスと前記構造化光照明器との組合せが、前記ローカルエリアの画像を撮像した代替の撮像モードを決定すること、
    前記信号対雑音比が前記最小の信号対雑音比以上であることに応答して、および、前記空間的分散が前記最小の空間的分散未満であることに応答して、前記画像撮像デバイスおよび前記追加の画像撮像デバイスが、前記構造化光照明器によって放射された波長を含む波長範囲における前記ローカルエリアの画像を撮像し、前記構造化光照明器が、前記ローカルエリア上に前記構造化光パターンを放射する追加の撮像モードを決定すること、を含む、請求項に記載のヘッドセット
  11. 方法であって、該方法は、
    構造化光照明器と、画像撮像デバイスと、追加の画像撮像デバイスとを含む奥行きカメラアセンブリを取り囲むローカルエリアにおける周囲光の強度の測定値を取得すること、
    前記周囲光の強度の測定値に基づいて、前記画像撮像デバイスによって、または、前記追加の画像撮像デバイスによって撮像された画像の信号対雑音比を計算すること、
    信号対雑音比の各範囲が、前記構造化光照明器、前記画像撮像デバイスおよび前記追加の画像撮像デバイスの動作を指定する前記画像撮像デバイスの異なる撮像モードに関連付けられた複数の範囲の信号対雑音比を維持すること、
    計算された信号対雑音比を含む信号対雑音比の範囲に関連付けられている撮像モードを決定すること、
    決定された撮像モードに基づいて、前記構造化光照明器、前記画像撮像デバイスおよび前記追加の画像撮像デバイスを構成すること、を備え
    前記計算された信号対雑音比を含む信号対雑音比の前記範囲に関連付けられている前記撮像モードを決定することは、
    前記計算された信号対雑音比が閾値以上であるとの決定に応答して、前記画像撮像デバイスおよび前記追加の画像撮像デバイスがともに色空間における前記ローカルエリアの画像を撮像するとともに前記構造化光照明器が非活性化される撮像モードを決定すること
    を含む、方法。
  12. 前記計算された信号対雑音比を含む信号対雑音比の前記範囲に関連付けられている前記撮像モードを決定することは、
    前記計算された信号対雑音比が前記閾値未満であり、かつ、前記追加の閾値よりも大きいとの決定に応答して、前記画像撮像デバイスが前記色空間における前記ローカルエリアの画像を撮像し、前記追加の画像撮像デバイスが、前記構造化光照明器によって放射された波長を含む波長範囲における前記ローカルエリアの画像を撮像し、前記構造化光照明器が、前記ローカルエリア上に構造化光パターンを放射する代替の撮像モードを決定すること、を含み、
    前記追加の閾値は、前記閾値未満であり、前記閾値とは異なっている、請求項11に記載の方法。
  13. 前記計算された信号対雑音比を含む信号対雑音比の前記範囲に関連付けられている前記撮像モードを決定することは、
    前記計算された信号対雑音比が前記追加の閾値以下であることに応答して、前記画像撮像デバイスおよび前記追加の画像撮像デバイスが、前記構造化光照明器によって放射された波長を含む波長範囲における前記ローカルエリアの画像を撮像し、前記構造化光照明器が、前記ローカルエリア上に前記構造化光パターンを放射する追加の撮像モードを決定すること、を含む、請求項12に記載の方法。
  14. 前記画像撮像デバイスによって、または、前記追加の画像撮像デバイスによって撮像された前記画像の前記信号対雑音比を計算することは、
    前記画像撮像デバイスによって、または、前記追加の画像撮像デバイスによって撮像された前記画像の前記信号対雑音比を計算すること、
    前記画像撮像デバイスによって、または、前記追加の画像撮像デバイスによって撮像された前記画像の空間的分散を計算すること、を含む、請求項11に記載の方法。
  15. 信号対雑音比の各範囲が異なる撮像モードに関連付けられた、複数の範囲の信号対雑音比を維持することは、
    信号対雑音比および空間的分散の各範囲が、前記構造化光照明器、前記画像撮像デバイスおよび前記追加の画像撮像デバイスの動作を指定する前記画像撮像デバイスの異なる撮像モードに関連付けられた、複数の範囲の信号対雑音比および空間的分散を維持すること
    を含む、請求項14に記載の方法。
  16. 前記計算された信号対雑音比を含む信号対雑音比の前記範囲に関連付けられている前記撮像モードを決定することは、
    算された空間的分散を含む空間的分散の範囲に関連付けられ、かつ前記計算された信号対雑音比を含む信号対雑音比の前記範囲に関連付けられている撮像モードを決定することを含む、請求項15に記載の方法。
  17. 前記奥行きカメラアセンブリを取り囲む前記ローカルエリアにおける周囲光の強度の前記測定値を取得することは、
    前記構造化光照明器が前記ローカルエリアを照明しない場合に、前記画像撮像デバイスによって、または、前記追加の画像撮像デバイスによって撮像された1つ以上の画像に基づいて、周囲光の強度の前記測定値を決定することを含む、請求項11に記載の方法。
  18. 周囲光の強度の前記測定値に基づいてコントラスト比を計算すること、
    コントラスト比の複数の範囲を維持することであって、コントラスト比の各範囲は、前記構造化光照明器、前記画像撮像デバイス、および、前記追加の画像撮像デバイスの動作を指定する前記画像撮像デバイスの異なる撮像モードに関連付けられている、前記コントラスト比の複数の範囲を維持すること、をさらに備え、
    信号対雑音比の前記範囲に関連付けられている前記撮像モードを決定することは、
    算されたコントラスト比を含む、請求項11に記載の方法。
JP2018521594A 2015-11-06 2016-11-03 ステレオカメラと構造化光とを用いたヘッドマウントディスプレイを伴う奥行きマッピング Active JP6866365B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562252279P 2015-11-06 2015-11-06
US62/252,279 2015-11-06
US15/342,036 US10440355B2 (en) 2015-11-06 2016-11-02 Depth mapping with a head mounted display using stereo cameras and structured light
US15/342,036 2016-11-02
PCT/US2016/060364 WO2017079458A1 (en) 2015-11-06 2016-11-03 Depth mapping with a head mounted display using stereo cameras and structured light

Publications (2)

Publication Number Publication Date
JP2019504522A JP2019504522A (ja) 2019-02-14
JP6866365B2 true JP6866365B2 (ja) 2021-04-28

Family

ID=58662720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018521594A Active JP6866365B2 (ja) 2015-11-06 2016-11-03 ステレオカメラと構造化光とを用いたヘッドマウントディスプレイを伴う奥行きマッピング

Country Status (6)

Country Link
US (2) US10440355B2 (ja)
EP (1) EP3371641B1 (ja)
JP (1) JP6866365B2 (ja)
KR (1) KR20180066116A (ja)
CN (1) CN108351523A (ja)
WO (1) WO2017079458A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US10440355B2 (en) * 2015-11-06 2019-10-08 Facebook Technologies, Llc Depth mapping with a head mounted display using stereo cameras and structured light
US10582169B2 (en) * 2016-12-23 2020-03-03 Lumileds Llc Compensating for vignetting
US10209360B2 (en) * 2017-02-01 2019-02-19 Microsoft Technology Licensing, Llc Reduced phase sampling for high speed depth sensing
US10726574B2 (en) 2017-04-11 2020-07-28 Dolby Laboratories Licensing Corporation Passive multi-wearable-devices tracking
US10061352B1 (en) * 2017-08-14 2018-08-28 Oculus Vr, Llc Distributed augmented reality system
CN107462994A (zh) * 2017-09-04 2017-12-12 浙江大学 沉浸式虚拟现实头戴显示装置和沉浸式虚拟现实显示方法
US10506217B2 (en) 2017-10-09 2019-12-10 Facebook Technologies, Llc Head-mounted display tracking system
US10491877B1 (en) * 2017-12-21 2019-11-26 Facebook Technologies, Llc Depth camera assembly using multiplexed sensor phase measurements to determine depth using fringe interferometry
US11094075B1 (en) * 2018-01-23 2021-08-17 Facebook Technologies, Llc Systems and methods utilizing a machine learning model for generating defocus blur effects
US11716548B2 (en) 2018-03-13 2023-08-01 Meta Platforms Technologies, Llc Timing of multiplexed sensor phase measurements in a depth camera assembly for depth determination using fringe interferometry
US10944957B2 (en) * 2018-03-22 2021-03-09 Microsoft Technology Licensing, Llc Active stereo matching for depth applications
US11182914B2 (en) 2018-05-21 2021-11-23 Facebook Technologies, Llc Dynamic structured light for depth sensing systems based on contrast in a local area
DE102018117274A1 (de) 2018-07-17 2020-01-23 Sick Ag Sichere Kamera und Verfahren zur sicheren Aufnahme und Auswertung von Bilddaten
TWI676781B (zh) * 2018-08-17 2019-11-11 鑑微科技股份有限公司 三維掃描系統
US11094079B2 (en) * 2018-08-28 2021-08-17 Facebook Technologies, Llc Determining a pose of an object from RGB-D images
WO2020068388A1 (en) * 2018-09-26 2020-04-02 Snap Inc. Depth sculpturing of three-dimensional depth image utilizing two-dimensional input selection
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11137520B2 (en) 2019-02-22 2021-10-05 Microsoft Technology Licensing, Llc Integrated depth sensor window lens and method
KR20200120466A (ko) * 2019-04-11 2020-10-21 삼성전자주식회사 헤드 마운트 디스플레이 장치 및 그 동작방법
CN117590582A (zh) 2019-04-11 2024-02-23 三星电子株式会社 头戴式显示设备及其操作方法
EP3726459B1 (en) * 2019-04-17 2022-02-16 Leica Instruments (Singapore) Pte. Ltd. Signal to noise ratio adjustment circuit, signal to noise ratio adjustment method and signal to noise ratio adjustment program
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11389252B2 (en) 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
WO2023076823A1 (en) * 2021-10-25 2023-05-04 Magic Leap, Inc. Mapping of environmental audio response on mixed reality device
US20230412928A1 (en) * 2022-06-21 2023-12-21 Snap Inc. Camera timestamp validation

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4860096A (en) * 1988-07-21 1989-08-22 Ball Corporation Motion analysis tool and method therefor
US5442462A (en) * 1992-06-10 1995-08-15 D.V.P. Technologies Ltd. Apparatus and method for smoothing images
JP2002300605A (ja) * 2001-03-29 2002-10-11 Minolta Co Ltd 3次元入力のための撮影装置
JP3996408B2 (ja) 2002-02-28 2007-10-24 ローム株式会社 半導体発光素子およびその製造方法
JP3855812B2 (ja) * 2002-03-15 2006-12-13 ソニー株式会社 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
US7440590B1 (en) 2002-05-21 2008-10-21 University Of Kentucky Research Foundation System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns
JP2004200902A (ja) * 2002-12-17 2004-07-15 Nikon Corp 画像処理装置、電子カメラ、及び画像処理プログラム
WO2004097947A2 (en) 2003-05-02 2004-11-11 University College Cork-National University Of Ireland, Cork Light emitting diodes and the manufacture thereof
JP3800217B2 (ja) * 2003-10-10 2006-07-26 コニカミノルタホールディングス株式会社 監視システム
US7742232B2 (en) * 2004-04-12 2010-06-22 Angstrom, Inc. Three-dimensional imaging system
US7598996B2 (en) * 2004-11-16 2009-10-06 Aptina Imaging Corporation System and method for focusing a digital camera
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
CN200976080Y (zh) 2006-04-07 2007-11-14 陈文雷 自适应变光摄像机
CN100533199C (zh) * 2006-05-02 2009-08-26 佳能株式会社 焦点检测装置、光学设备和摄像系统
US20110057930A1 (en) * 2006-07-26 2011-03-10 Inneroptic Technology Inc. System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy
JP5161024B2 (ja) * 2008-10-10 2013-03-13 富士フイルム株式会社 3次元形状計測用撮影装置および方法並びにプログラム
JP4748204B2 (ja) * 2008-11-05 2011-08-17 ソニー株式会社 撮像装置、撮像装置の表示制御方法
US20100182340A1 (en) 2009-01-19 2010-07-22 Bachelder Edward N Systems and methods for combining virtual and real-time physical environments
WO2012051216A1 (en) * 2010-10-11 2012-04-19 The Regents Of The University Of Colorado, A Body Corporate Direct echo particle image velocimetry flow vector mapping on ultrasound dicom images
EP2691936A1 (en) * 2011-03-29 2014-02-05 Qualcomm Incorporated Modular mobile connected pico projectors for a local multi-user collaboration
JP2014521114A (ja) * 2011-06-30 2014-08-25 ジーイー・ヘルスケア・バイオサイエンス・コーポレイション 生体イメージングの画像品質最適化
KR101566812B1 (ko) * 2011-11-04 2015-11-13 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 이미지의 적외선 신호 캡처
JP2013104784A (ja) * 2011-11-14 2013-05-30 Mitsubishi Electric Corp 光3次元カメラ
KR101289283B1 (ko) * 2012-03-13 2013-08-09 안양대학교 산학협력단 하이브리드 영상획득 장치 기반 홀로그래픽 영상 복원 방법
US9122321B2 (en) * 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
PT2909811T (pt) * 2012-10-17 2020-05-06 Cathx Res Ltd Melhoramentos em e relacionados com a recolha de informação de distância e dimensional em vistorias subaquáticas
US9066021B2 (en) * 2012-10-18 2015-06-23 Ortho-Clinical Diagnostics, Inc. Full resolution color imaging of an object
KR102086509B1 (ko) * 2012-11-23 2020-03-09 엘지전자 주식회사 3차원 영상 획득 방법 및 장치
CN103903002B (zh) * 2012-12-24 2018-08-10 联想(北京)有限公司 环境亮度检测方法和系统
US20140198185A1 (en) * 2013-01-17 2014-07-17 Cyberoptics Corporation Multi-camera sensor for three-dimensional imaging of a circuit board
US9398287B2 (en) * 2013-02-28 2016-07-19 Google Technology Holdings LLC Context-based depth sensor control
US9412189B2 (en) * 2013-05-13 2016-08-09 General Electric Company Method and system for detecting known measurable object features
US20140340424A1 (en) 2013-05-17 2014-11-20 Jeri J. Ellsworth System and method for reconfigurable projected augmented/virtual reality appliance
CN104603574B (zh) * 2013-07-01 2017-10-13 松下电器(美国)知识产权公司 具有多个光源的运动传感器装置
US9524580B2 (en) 2014-01-06 2016-12-20 Oculus Vr, Llc Calibration of virtual reality systems
JP6500355B2 (ja) * 2014-06-20 2019-04-17 富士通株式会社 表示装置、表示プログラム、および表示方法
US10222600B2 (en) * 2015-02-23 2019-03-05 The Research Foundation For The State University Of New York Method and apparatus for tiling light sheet selective plane illumination microscopy with real-time optimized light sheet
JP2016158108A (ja) * 2015-02-24 2016-09-01 株式会社リコー 頭部装着型表示装置、情報処理システム、および情報処理方法
US9553423B2 (en) * 2015-02-27 2017-01-24 Princeton Optronics Inc. Miniature structured light illuminator
CN107850782B (zh) * 2015-05-13 2019-10-25 脸谱科技有限责任公司 用反射率图表示增强深度图表示
US10326981B2 (en) * 2015-05-15 2019-06-18 Semyon Nisenzon Generating 3D images using multi-resolution camera set
GB2541970B (en) 2015-09-02 2020-08-19 Facebook Tech Llc Display manufacture
US10440355B2 (en) * 2015-11-06 2019-10-08 Facebook Technologies, Llc Depth mapping with a head mounted display using stereo cameras and structured light

Also Published As

Publication number Publication date
US10893260B2 (en) 2021-01-12
WO2017079458A1 (en) 2017-05-11
CN108351523A (zh) 2018-07-31
EP3371641A4 (en) 2019-06-12
EP3371641A1 (en) 2018-09-12
EP3371641B1 (en) 2022-02-16
KR20180066116A (ko) 2018-06-18
US20190387218A1 (en) 2019-12-19
US10440355B2 (en) 2019-10-08
JP2019504522A (ja) 2019-02-14
US20170134717A1 (en) 2017-05-11

Similar Documents

Publication Publication Date Title
JP6866365B2 (ja) ステレオカメラと構造化光とを用いたヘッドマウントディスプレイを伴う奥行きマッピング
US10228240B2 (en) Depth mapping using structured light and time of flight
JP7076368B2 (ja) レンジゲート式デプスカメラ部品
US11102467B2 (en) Array detector for depth mapping
CN109791605A (zh) 基于眼睛跟踪信息的图像区域中的自适应参数
US10733439B1 (en) Imaging retina in head-mounted displays
JP6555707B2 (ja) 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム
EP3288259A1 (en) Array detector for depth mapping
US11004222B1 (en) High speed computational tracking sensor

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190520

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210407

R150 Certificate of patent or registration of utility model

Ref document number: 6866365

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350