JP2021524021A - 深度検知システム用の動的構造化光 - Google Patents

深度検知システム用の動的構造化光 Download PDF

Info

Publication number
JP2021524021A
JP2021524021A JP2020558925A JP2020558925A JP2021524021A JP 2021524021 A JP2021524021 A JP 2021524021A JP 2020558925 A JP2020558925 A JP 2020558925A JP 2020558925 A JP2020558925 A JP 2020558925A JP 2021524021 A JP2021524021 A JP 2021524021A
Authority
JP
Japan
Prior art keywords
local area
interest
dca
region
contrast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020558925A
Other languages
English (en)
Other versions
JP7307093B2 (ja
Inventor
マイケル ホール,
マイケル ホール,
シンチャオ リュウ,
シンチャオ リュウ,
チャオミン チュー,
チャオミン チュー,
ラジェシュ ラクマンダス チャーブリア,
ラジェシュ ラクマンダス チャーブリア,
ホイシュアン タン,
ホイシュアン タン,
シュオチェン スー,
シュオチェン スー,
ジヘ カオ,
ジヘ カオ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Facebook Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Technologies LLC filed Critical Facebook Technologies LLC
Publication of JP2021524021A publication Critical patent/JP2021524021A/ja
Application granted granted Critical
Publication of JP7307093B2 publication Critical patent/JP7307093B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

深度カメラアセンブリ(DCA)は、深度情報を決定する。DCAは、動的構造化光パターンを局所エリアに投射し、動的構造化光パターンの一部分を含む画像を取り込む。DCAは、動的構造化光パターンを用いて関心領域に加えられるテクスチャの量を増減することが有益であり得る関心領域を決定する。たとえば、DCAは、コントラストアルゴリズムを用いて計算されたコントラスト値に基づいて、または局所エリアの仮想モデルを含むマッピングサーバから受け取ったパラメータに基づいて、関心領域を識別することができる。DCAは、動的構造化光パターンによって局所エリアの各部分に追加されるテクスチャの量を選択的に増減することができる。動的構造化光パターンの各部分を選択的に制御することによって、DCAは電力消費を低減させること、および/または深度検知測定の精度を高めることができる。【選択図】図1B

Description

関連出願の相互参照
本出願は、2018年5月21日出願の米国特許仮出願第62/674,430号、および2019年5月17日出願の米国特許出願第16/415,202号の利益を主張し、これらの特許文献は参照によりその全体が本明細書に組み込まれる。
本開示は、一般に深度カメラアセンブリに関し、詳細には深度カメラアセンブリ用の動的構造化光に関する。
非常に大まかには、構造化光検知とは、既知の構造化光パターン(たとえば、バー)を1つのシーン上に構造化光投射器を使用して投射する処理のことである。そのシーンの深度情報は、構造化光パターンによって照明されたシーンの画像を用いて計算することができる。構造化光パターンの有効性は、部分的にパターンフィーチャの密度に基づく。従来の構造化光投射器は通常、動的に調整されない固定パターンを有する。したがって、従来の構造化光投射器は通常、特別な範囲の距離またはコントラストに対しては最適化されるが、これらのパラメータの範囲を越えると、パターンは密になりすぎたり(たとえば、電力消費が不必要に高くなるように、かつ/またはフィーチャが互いに解像できないように)、疎になりすぎたりする(たとえば、解像度が非常に低くなる)。
深度カメラアセンブリ(DCA)は深度情報を決定する。本開示の実施形態は、深度情報を決定するための方法、コンピュータ可読媒体、および構造化光を供給する装置をサポートする。いくつかの実施形態では、動的構造化光パターンは、ネットワークを介してヘッドセットと接続されたマッピングサーバに記憶されている物理的ロケーションの仮想モデルに基づいて決定される。この仮想モデルは、複数の空間、およびこれらの空間の特性を記述し、仮想モデル内のロケーションは、ヘッドセットの物理的なロケーションに対応する。マッピングサーバは、ヘッドセットから受け取った局所エリアの少なくとも一部分について記述する情報に基づいて、ヘッドセットの仮想モデル内のロケーションを決定する。マッピングサーバは、仮想モデル内の決定されたロケーションと、決定されたロケーションに関連するいずれかのパラメータとに部分的に基づいて、ヘッドセットの物理的ロケーションに関連するパラメータの組を決定する。ヘッドセットは、マッピングサーバから受け取ったパラメータの組を用いて、動的構造化光パターンを生成する。
DCAは、動的構造化光パターンを用いて関心領域に加えられるテクスチャの量を増減することが有益であり得る関心領域を決定することができる。たとえば、DCAは、コントラストアルゴリズムを用いて計算されたコントラスト値に基づいて、またはマッピングサーバから受け取ったパラメータに基づいて、関心領域を識別することができる。DCAは、動的構造化光パターンによって局所エリアの各部分に追加されるテクスチャの量を選択的に増減することができる。動的構造化光パターンの各部分を選択的に制御することによって、DCAは電力消費を低減させること、および/または深度検知測定の精度を高めることができる。
いくつかの実施形態では、DCAは、構造化光(SL)投射器、カメラアセンブリ、およびコントローラを含む。SL投射器は、1つまたは複数のSLパターンを照明命令に従って局所エリアに投射するように構成される。カメラアセンブリは、1つまたは複数のSLパターンを含む局所エリアの一部分の画像を取り込むように構成される。コントローラは、取り込まれた画像に部分的に基づいて局所エリアのコントラスト量を決定するように構成される。コントローラはまた、局所エリア内の第1の関心領域、および局所エリア内の第2の関心領域を識別する。第1の関心領域は第1のコントラスト量を有し、第2の関心領域は第1の量よりも多い第2のコントラスト量を有する。コントローラは、第1の関心領域内の第1のコントラスト量と、第2の関心領域内の第2のコントラスト量とに部分的に基づいて照明命令を更新する。コントローラは、その更新された照明命令をSL投射器に与える。更新された照明命令により、SL投射器は、第1のSLパターンを第1の関心領域に投射し、第2のSLパターンを第2の関心領域に投射する。また、第2のSLパターンは第1のSLパターンとは異なる。
1つまたは複数の実施形態による、深度カメラアセンブリを含むヘッドセットの斜視図である。 1つまたは複数の実施形態による、図1AのヘッドセットのDCAの概略図である。 1つまたは複数の実施形態による、ユーザが部屋内でヘッドセットを装着している概略図である。 1つまたは複数の実施形態による、DCAのブロック図である。 1つまたは複数の実施形態による、マッピングサーバのブロック図である。 1つまたは複数の実施形態による、局所エリアと、局所エリアの構成について記述するパラメータとを記述する仮想モデルの一例である。 1つまたは複数の実施形態による、動的構造化光パターンを生成する処理を示すフローチャートである。 1つまたは複数の実施形態による、局所エリアのコントラスト量を決定する処理を示すフローチャートである。 1つまたは複数の実施形態による、対象物ロケーションに基づいて関心領域を識別する処理を示すフローチャートである。 1つまたは複数の実施形態による、ヘッドセットおよびマッピングサーバを含むシステム環境のブロック図である。
図は、本開示の諸実施形態を単に説明の目的で描写している。当業者には、以下の説明から、本明細書に示された構造および方法の代替実施形態が、本明細書に記載された開示の原理、または謳われている利益から逸脱することなく使用され得ることが容易に理解されよう。
深度カメラアセンブリ(DCA)は、深度情報を決定する。DCAは、動的構造化光パターンを局所エリアに投射し、動的構造化光パターンの一部分を含む画像を取り込む。局所エリア内の三次元対象物による動的構造化光パターンの歪により、DCAが三次元深度情報を計算することが可能になる。DCAは、動的構造化光パターンを用いて、ある量のテクスチャを局所エリア内の対象物に与えることができる。DCAは、動的構造化光パターンを用いて関心領域に加えられるテクスチャを変えることが有益であり得る関心領域を決定することができる。動的構造化光パターンを用いて加えられるテクスチャの量は、深度測定の精度に影響を及ぼし得る(たとえば、テクスチャが多いと精度が向上し得る)。テクスチャは、輝度、密度、パターン形状(たとえば、ドット、バー、グリッド)、偏光、点滅率などの動的構造化光パターンの特性の影響を受ける。動的構造化光パターンの1つの特性を変化させると、動的構造化光パターンによって局所エリアに追加されるテクスチャが変化し得る。たとえば、DCAは、コントラストアルゴリズムを用いて計算されたコントラスト値に基づいて、または局所エリアの仮想モデルを含むマッピングサーバから受け取ったパラメータに基づいて、関心領域を識別することができる。DCAは、動的構造化光パターンによって局所エリアの各部分に追加されるテクスチャの量を選択的に増減することができる。
DCAは、局所エリアの別々の部分の動的構造化光パターンを別個に変えることができる。たとえば、所与の瞬間における状態の変化に応答して、DCAは、第1の関心領域内の動的構造化光パターンの輝度を増大させることができ、またDCAは同時に、第2の関心領域内の動的構造化光パターンの輝度を低減させることができる。局所エリアのそれぞれの部分について、DCAは、輝度、密度、パターン形状(たとえば、ドット、バー、グリッド)、偏光、点滅率などの、動的構造化光パターンのいずれかの適切な特性を調整することができる。いくつかの実施形態では、動的構造化光パターンは、異なるパターンが異なる時間に異なる領域の上に投射されるように時分割することができる。
従来のシステムでは、深度情報を決定するために静的構造化光パターンを投射することができる。しかし、静的構造化光パターンは、局所エリアのいくつかの領域に必要以上のテクスチャを与えることがあり、これにより余分な電力を消費する。加えて、静的構造化光パターンは、低コントラスト領域などの局所エリアのいくつかの領域では、正確な深度情報を取得するための十分なテクスチャを与えることができない。対照的に、局所エリアについての情報をマッピングサーバから取得することによって、また動的構造化光パターンの各部分を選択的に制御することによって、DCAは電力消費を低減させること、および/または深度検知測定の精度を高めることができる。
本開示の諸実施形態は、人工現実システムを含むこと、または人工現実システムと併せて実施することができる。人工現実とは、ユーザに提示する前に何かの方法で調整された現実の一形態のことであり、これには、たとえば、仮想現実(VR)、拡張現実(AR)、複合現実(MR)、ハイブリッド現実、あるいはこれらのいくつかの組み合わせおよび/または派生物が含まれ得る。人工現実コンテンツには、完全に生成されたコンテンツ、または取り込まれた(たとえば、実世界)コンテンツと組み合わされた生成コンテンツが含まれ得る。人工現実コンテンツには、映像、音声、触覚フィードバック、またはこれらのどれかの組み合わせが含まれてもよく、これらのいずれも、単一のチャネルまたは複数のチャネル(視聴者に三次元効果をもたらす立体映像など)で提示することができる。加えて、いくつかの実施形態では、人工現実はまた、アプリケーション、製品、アクセサリ、サービス、またはこれらのいくつかの組み合わせと関連付けることができ、これらはたとえば、人工現実のコンテンツを作成するために使用され、かつ/または人工現実において(たとえば、諸活動を行うのに)別に使用される。人工現実コンテンツを提供する人工現実システムは、ヘッドセット、ホストコンピュータシステムに接続されたヘッドマウントディスプレイ(HMD)、独立型HMD、ニアアイディスプレイ(NED)、モバイルデバイスもしくはコンピューティングシステム、または他の、人工現実コンテンツを1人または複数の視聴者に提供できる任意の他のハードウェアプラットフォームを含む様々なプラットフォーム上で実施することができる。
ヘッドセットは、たとえば、NED、HMD、または何か別のタイプのヘッドセットでよい。ヘッドセットは、人工現実システムの一部でもよい。ヘッドセットはさらに、表示装置および光学アセンブリを含む。ヘッドセットの表示装置は、画像光を発するように構成される。ヘッドセットの光学アセンブリは、装着者の眼のロケーションに対応するヘッドセットのアイボックスまで画像光を導くように構成される。いくつかの実施形態では、画像光は、ヘッドセットを取り囲む局所エリアの深度情報を含み得る。
図1Aは、1つまたは複数の実施形態による、DCA 120を含むヘッドセットの斜視図である。いくつかの(図1Aに示すような)実施形態では、ヘッドセット100はニアアイディスプレイ(NED)として実施される。代替実施形態(図1Aに図示せず)では、ヘッドセット100はヘッドマウントディスプレイ(HMD)として実施される。一般にヘッドセット100は、ヘッドセット100の一方または両方のレンズ110を用いてコンテンツ(たとえば、メディアコンテンツ)が提示されるようにユーザの顔に装着することができる。しかし、ヘッドセット100はまた、メディアコンテンツがユーザに別の方法で提示されるように使用することもできる。ヘッドセット100によって提示されるメディアコンテンツの例には、1つまたは複数の画像、映像、音声、またはこれらのどれかの組み合わせが含まれる。ヘッドセット100は、いくつかある構成要素の中で特に、フレーム105、レンズ110、1つまたは複数のスピーカ115、深度カメラアセンブリ(DCA)120、および位置センサ125を含み得る。
DCA 120は、ヘッドセット100の一部または全部を取り囲む局所エリアについての視覚情報を取り込むための、ヘッドセット100に搭載された同時位置特定・マッピング(SLAM)センサの一部とすることができる。図1Aは、ヘッドセット100上の例示的なロケーションにおけるヘッドセット100の構成要素を示すが、これらの構成要素は、ヘッドセット100の上、ヘッドセット100と対をなす周辺デバイスの上、またはこれらのどれかの組み合わせの、どこか他のところに設置されてもよい。
ヘッドセット100は、ユーザの視覚を補正もしくは向上させることも、ユーザの眼を保護することも、ユーザに画像を提供することもできる。ヘッドセット100は、ユーザの視力の欠陥を補正するメガネとすることができる。ヘッドセット100は、太陽からユーザの眼を保護するサングラスとすることができる。ヘッドセット100は、ユーザの眼を衝撃から保護する安全メガネとすることができる。ヘッドセット100は、夜間にユーザの視覚を向上させる暗視デバイスまたは赤外線ゴーグルとすることができる。ヘッドセット100は、ユーザのために人工現実コンテンツをもたらすニアアイディスプレイとすることができる。
フレーム105は、ヘッドセット100の他の構成要素を保持する。フレーム105は、レンズ110と、ユーザの頭部に付着するための端部片とを保持する前部を含む。フレーム105の前部は、ユーザの鼻の最上部をまたぐ。端部片(たとえば、メガネのつる)は、ユーザのこめかみが付くフレーム105の各部分である。端部片の長さは、異なるユーザに合うように調整可能(たとえば、つるの長さが調整可能)とすることができる。端部片はまた、ユーザの耳の後ろで丸まる部分(たとえば、つる先端部、耳部片)を含むこともできる。
レンズ110は、ヘッドセット100を装着するユーザに光を供給(たとえば、生成および/または透過)する。レンズ110は、ユーザの視力の欠陥を補正する助けになる度付きレンズ(たとえば、単焦点、二焦点および三焦点、または累進焦点)とすることができる。度付きレンズは、ヘッドセット100を装着しているユーザまで周囲光を透過する。透過される周囲光は、度付きレンズによってユーザの視力の欠陥を補正するように修正することができる。レンズ110は、太陽からユーザの眼を保護するための偏光レンズまたは色付きレンズとすることができる。レンズ110は、画像光が導波路の端部または縁部を介してユーザの眼に結合される導波路表示装置の一部として、1つまたは複数の導波路とすることができる。レンズ110は、画像光を供給するための電子表示装置を含むことができ、また電子表示装置からの画像光を拡大するための光学ブロックを含むこともできる。
スピーカ115は、ユーザの耳に音をもたらす。スピーカ115はフレーム105の外部に示されているが、スピーカ115はフレーム105で囲むこともできる。いくつかの実施形態では、耳ごとの単独のスピーカの代わりに、ヘッドセット100は、提示される音声コンテンツの方向性を改善するために、たとえばフレーム105の端部片に内蔵されたスピーカアレイ(図1Aに図示せず)を含む。
DCA 120は、部屋などの、ヘッドセット100を取り囲む局所エリアについての深度情報を決定する。DCA 120は、光投射器(たとえば、構造化光投射器および/または飛行時間を得るための閃光照明)、撮像デバイス、およびコントローラ(図1Aに図示せず)を含む。構造化光投射器は、本明細書でさらに説明するように、様々な条件に応じて調整することができる動的構造化光パターンを局所エリアに生成することができる。
DCA 120は、光投射器から局所エリアに投射された光からなる、撮像デバイスによって取り込まれる画像などのデータを取り込むことができる。1つの実施形態では、DCA 120は、コントローラと、局所エリアの各部分を立体で取り込むために方向を合わせてある2つ以上の撮像デバイスとを含み得る。取り込まれたデータは、2つ以上の撮像デバイスによって取り込まれた、局所エリアの立体の画像であり得る。DCA 120のコントローラは、取り込まれたデータおよび深度決定技法(たとえば、構造化光、飛行時間、立体撮像など)を用いて、局所エリアの深度情報を計算する。この深度情報に基づいて、DCA 120のコントローラは、局所エリア内のヘッドセット100の絶対位置情報を決定する。DCA 120のコントローラはまた、局所エリアのモデルを生成することもできる。DCA 120は、ヘッドセット100と一体化することができ、あるいはヘッドセット100の外部の局所エリア内に配置することができる。
いくつかの実施形態では、DCA 120のカメラのうちの一部はまた、カラー(たとえば、RGB)画像データを生成する1つまたは複数の受動撮像デバイスを含む、受動カメラアセンブリ(PCA)として機能するように構成することもできる。受動撮像デバイスは、局所エリアの環境からの光を取り込んでカラー画像データを生成する。深度または撮像デバイスからの距離を定義するピクセル値ではなく、カラー画像データのピクセル値は、画像データに取り込まれた対象物の可視色を定義することができる。いくつかの実施形態では、受動撮像デバイスはコントローラによって制御され、コントローラは、受動撮像デバイスによって取り込まれた光に基づいてカラー画像データを生成する。
DCA 120は、IR構造化光パターンを含む画像フレーム内の周囲IR信号を補正することができる。周囲IR信号は、画像フレーム内の、IR構造化光パターンでは得られないあらゆるIR信号であり得る。DCA 120は、第1の画像の取り込み中に動的構造化光パターンを投射することができ、またDCAは、第2の画像の取り込み中に動的構造化光パターンを停止することができる。DCA 120は、第1の画像のピクセル値から第2の画像のピクセル値を減算することができ、これにより、画像から周囲IR信号を除去すること、および深度情報を計算するDCA 120の能力を向上させることができる。
位置センサ125は、ヘッドセット100の動きに応答して1つまたは複数の測定信号を生成することができる。位置センサ125は、ヘッドセット100のフレーム105の一部分に設置することができる。位置センサ125は、位置センサもしくは慣性測定ユニット(IMU)または両方を含むことができる。ヘッドセット100のいくつかの実施形態は、位置センサ125を含むことも含まないこともあり、あるいは複数の位置センサ125を含むことがある。位置センサ125がIMUを含む実施形態では、IMUは、位置センサ125からの測定信号に基づいてIMUデータを生成する。位置センサ125の例としては、1つまたは複数の加速度計、1つまたは複数のジャイロスコープ、1つまたは複数の磁力計、動きを検出する別の適切なタイプのセンサ、IMUの誤差補正に使用されるタイプのセンサ、またはこれらのどれかの組み合わせが含まれる。位置センサ125は、IMUの外部、IMUの内部、またはこれらのどれかの組み合わせに設置することができる。
1つまたは複数の測定信号に基づいて、位置センサ125は、ヘッドセット100の初期位置を基準としてヘッドセット100の現在の位置を推定する。この推定位置には、ヘッドセット100のロケーション、および/またはヘッドセット100もしくはヘッドセット100を装着しているユーザの頭の向き、またはこれらのどれかの組み合わせが含まれ得る。この向きは、基準点に対するそれぞれの耳の位置に対応し得る。いくつかの実施形態では、位置センサ125は、DCA 120からの深度情報および/または絶対位置情報を用いてヘッドセット100の現在の位置を推定する。位置センサ125は、並進運動(前後、上下、左右)を測定する多数の加速度計と、回転運動(たとえば、ピッチ、ヨー、ロール)を測定する多数のジャイロスコープとを含み得る。いくつかの実施形態では、IMUは、測定信号を高速でサンプリングし、サンプリングされたデータからヘッドセット100の推定位置を計算する。たとえば、IMUは、加速度計から受け取った測定信号を経時的に積分して速度ベクトルを推定し、その速度ベクトルを経時的に積分してヘッドセット100上の基準点の推定位置を決定する。基準点とは、ヘッドセット100の位置を記述するために使用できる点のことである。基準点は、一般には空間内の点として定義され得るが、実際には基準点は、ヘッドセット100の内部の点として定義される。
図1Bは、一実施形態による、光を局所エリア155に投射する図1Aのヘッドセット100のDCA 120の概略図150である。DCA 120のいくつかの実施形態には、ここで説明するものとは異なる構成要素がある。同様に、場合によっては、各機能が、ここで説明するのとは異なるようにして構成要素の間に分布し得る。
DCA 120は、構造化光投射器160、カメラアセンブリ165、およびコントローラ170を含む。構造化光投射器160は、局所エリア155を構造化光によって照明する。いくつかの実施形態では、構造化光投射器160は、光源、回折光学ユニット、および投射アセンブリを含む。光源は光を発する。回折光学ユニットは、複数の回折光学要素(DOE)を含む。DOEは、たとえば、1つまたは複数の回折格子、拡散器、空間光変調器、構造化光を形成する何か他の要素、またはこれらのどれかの組み合わせとすることができる。回折光学ユニットの各DOEは、光源からの光を構造化光パターンに変換する。構造化光パターンは、たとえば、ドットマトリックスパターン、ラインパターン、正弦波パターン、マルチ(空間)トーンパターンおよびグリッドパターン、(たとえば、飛行時間または能動的な立体深度決定のための)散乱光、深度情報を決定するために使用される何か他の光、またはこれらのどれかの組み合わせであり得る。動的光パターン投射は、光源、DOEもしくは投射アセンブリ、またはこれらを組み合わせたものを動的に制御することによって達成される。構造化光が散乱光である実施形態では、DOEを使用して、DCA 120の異なる視野を生成することができる。DCA 120は、DOEを選択してその視野を調整する。投射アセンブリは、構造化光パターンを局所エリア155に投射する。たとえば、投射アセンブリは、構造化光を集めて局所エリア155の一部または全部にその構造化光を投射する1つまたは複数の光学要素(たとえば、レンズ、偏光器、格子など)を含む。
カメラアセンブリ165は、局所エリア155の一部分の画像を取り込み、取り込み画像をコントローラ170へ出力する。カメラアセンブリ165は、1つまたは複数のカメラを含む。
いくつかの実施形態では、コントローラ170は、カメラアセンブリ165からの取り込み画像を用いて局所エリア155内の対象物の深度情報を決定するように構成される。コントローラ170はまた、構造化光投射器160が構造化光をどのように投射するか、さらにカメラアセンブリ165が画像光をどのように取り込むかを制御する。たとえば、コントローラ170は、構造化光投射器160に対し1つまたは複数のDOEを選択するように、かつ/または光源を制御するように指示し、またカメラアセンブリ165に対し画像を取り込むように指示する。いくつかの実施形態では、コントローラ170は、決定された深度情報をコンソールに(図1Bに図示せず)、および/またはヘッドセット100の適切なモジュール(たとえば、可変焦点モジュール、図1Bに図示せず)に与える。コンソールおよび/またはヘッドセット100は、その深度情報を利用して、たとえば提示用のコンテンツを生成することができる。DCA 120およびその構成要素に関するさらなる詳細については、後で図3に関して詳細に論じる。
図2は、1つまたは複数の実施形態による、ユーザ210が部屋220内でヘッドセット200を装着している概略図を示す。ヘッドセット200は、DCA(たとえば、DCA 120)を含む。ヘッドセット200は、ヘッドセット100の一実施形態とすることができる。ヘッドセット200は、部屋220の一部もしくは全部、および/または部屋220内の対象物について記述する深度情報を決定することができる。DCAの構造化光投射器は、動的構造化光パターンを部屋220に投射することができる。DCAのカメラアセンブリは、動的構造化光パターンを含む画像を取得することができ、この動的構造化光パターンの歪は、部屋220内の対象物に関する情報を提供し得る。
ヘッドセット200は、部屋220の少なくとも一部分について記述する視覚情報を決定し、その視覚情報をマッピングサーバ230に与えることができる。たとえば、ヘッドセット200は、部屋220の少なくとも一部分についての深度情報を生成する少なくとも1つのDCAを含み得る。ヘッドセット200上のDCAはさらに、部屋220の少なくとも一部分のカラー画像データを生成する少なくとも1つの受動カメラアセンブリ(PCA)を含み得る。いくつかの実施形態では、ヘッドセット200のDCAおよびPCAは、部屋220の視覚情報を決定するためにヘッドセット200に搭載された同時位置特定・マッピング(SLAM)センサの一部である。それゆえに、少なくとも1つのDCAによって取り込まれた深度情報、および/または少なくとも1つのPCAによって取り込まれたカラー画像データは、ヘッドセット200のSLAMセンサによって決定された視覚情報と呼ぶことができる。
ヘッドセット200は、部屋220についてのパラメータの組を決定するために、ネットワーク240を介して視覚情報をマッピングサーバ230へ伝達することができる。ネットワーク240は、無線および/または有線通信システムの両方を使用するローカルエリアネットワークおよび/または広域ネットワークの任意の組み合わせを含み得る。たとえば、ネットワーク240は、インターネットならびに携帯電話ネットワークを含み得る。1つの実施形態では、ネットワーク240は、標準的な通信技術および/またはプロトコルを使用する。この故に、ネットワーク240は、イーサネット、802.11、ワールドワイド・インターオペラビリティ・フォー・マイクロウェーブ・アクセス(WiMAX)、2G/3G/4G移動通信プロトコル、デジタル加入者線(DSL)、非同期転送モード(ATM)、インフィニバンド、PCIエキスプレスアドバンスドスイッチングなどの技術を用いるリンクを含み得る。同様に、ネットワーク240で使用されるネットワークプロトコルには、マルチプロトコルラベルスイッチング(MPLS)、伝送制御プロトコル/インターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、簡易メール転送プロトコル(SMTP)、ファイル転送プロトコル(FTP)などが含まれ得る。ネットワーク240を通じて交換されるデータは、二進形式の画像データ(たとえば、ポータブルネットワークグラフィックス(PNG))、ハイパーテキストマークアップ言語(HTML)、拡張マークアップ言語(XML)などを含む技術および/またはフォーマットを用いて表すことができる。加えて、リンクの全部または一部は、セキュアソケットレイヤ(SSL)、トランスポート層セキュリティ(TLS)、仮想私設ネットワーク(VPN)、インターネットプロトコルセキュリティ(IPsec)などの従来の暗号化技術を用いて暗号化することができる。ネットワーク240はまた、同一または別々の部屋に設置された多数のヘッドセットを同一のマッピングサーバ230に接続することもできる。
いくつかの実施形態では、ヘッドセット200は、そのロケーション情報(たとえば、部屋220の全地球測位システム(GPS)ロケーション)を、パラメータの組を決定するための視覚情報に加えてマッピングサーバ230へ提供する。いくつかの実施形態では、ヘッドセット200は、ロケーション情報をマッピングサーバ230へ、パラメータの組を決定するために提供する。パラメータの組を用いて、部屋220の深度マップを共に定義する部屋220内の、ある特別な構成の様々な特性を表すことができる。パラメータには、部屋のサイズ、部屋内の対象物の数、対象物ロケーション、各面の反射率、コントラスト値、明るさ、ライティング条件、仮想モデル内の様々なロケーションについて、部屋内のロケーションにテクスチャが追加されるべきかどうか、またどのタイプのテクスチャ(たとえば、SLパターンの密度、SLパターンのタイプ、SLパターンの明るさなど)が追加されるべきか、などが含まれ得る。
部屋220の構成および関連する条件が、たとえば、部屋220内のヘッドセット200のロケーションの変化、部屋220内の物理的または仮想の対象物のロケーションの変化、部屋220内の対象物の個数の増減、部屋内のライティングの変化、などのうちの少なくとも1つに基づいて変化し得る。ヘッドセット200は、ヘッドセットが利用できる情報に基づいて、動的構造化光パターンの全部または一部分を動的に変えることができる。動的構造化光パターンは、部屋220の一部分にそれぞれ投射される複数のセグメントまたはタイルから形成され、合わせて完全な動的構造化光パターンを形成することができる。いくつかの実施形態では、動的構造化光パターンの各セグメントは、別の構造化光パターンを含有することができ、個々に調整することができる。たとえば、所与の瞬間における部屋の状態の変化に応答して、ヘッドセット200は、第1のセグメントの動的構造化光パターンの輝度を増加させることができ、またヘッドセット200は同時に、第2のセグメントの動的構造化光パターンの輝度を低減させることができる。部屋220の各部分に対し、ヘッドセット200は、輝度、密度、パターン形状(たとえば、ドット、バー、グリッド)、偏光、点滅率などの、動的構造化光パターンのいずれかの適切な特性を調整することができる。いくつかの実施形態では、動的構造化光パターンは、異なるパターンが異なる時間に部屋220の異なる部分に投射されるように時分割することができる。
ヘッドセット200は、低コントラストエリア260の動的構造化光パターンを調整することができる。たとえば、ヘッドセットは、低コントラストエリア260にテクスチャを追加するために、低コントラストエリア260の方向の動的構造化光パターンの輝度、密度、および/または形状を変化させること(たとえば、バーからドットへ変化させること)ができる。いくつかの実施形態では、深度カメラアセンブリは低コントラストエリア260を検出することができ、さらに深度カメラアセンブリは、その領域の深度推定の特性を改善するために、低コントラストエリア260の方向の動的構造化光パターンを調整することができる。
マッピングサーバ230は、複数の空間を記述する仮想モデルを記憶しているデータベースを含み、仮想モデル内の1つのロケーションが部屋220の現在の構成に対応する。マッピングサーバ230は、ネットワーク240を介してヘッドセット200から、部屋220の少なくとも一部分について記述する視覚情報、および/または部屋220についてのロケーション情報を受け取る。マッピングサーバ230は、受け取った視覚情報および/またはロケーション情報に基づいて、部屋220の現在の構成と関連付けられている仮想モデル内のロケーションを決定する。マッピングサーバ230は、仮想モデル内の決定されたロケーションと、決定されたロケーションに関連するいずれかのパラメータとに部分的に基づいて、部屋220の現在の構成と関連付けられたパラメータの組を決定する(たとえば、検索する)。
マッピングサーバ230は、ヘッドセット200が構造化光投射器の適切な光パターンを決定するための、パラメータの組についての情報をヘッドセット200に提供することができる(たとえば、ネットワーク240を介して)。たとえば、マッピングサーバ230は、部屋220内の低コントラストエリア260のロケーションに関する情報をヘッドセット200へ送信することができる。あるいは、マッピングサーバ230は、構造化光パターンについて記述する情報を、パラメータの組を用いて生成すること、およびその情報をヘッドセット200に提供することができ、その後ヘッドセットは、その情報を用いて構造化光パターンを生成することができる。いくつかの実施形態では、マッピングサーバ230の構成要素のいくつかは、有線接続部(図2に図示せず)を介してヘッドセット200に接続された別のデバイス(たとえば、コンソール)と一体化することができる。
ヘッドセット200はユーザ210に、仮想対象物270または仮想対象物280などの、仮想対象物を表示することができる。図2に示されるように、仮想対象物280は、ヘッドセット200と物理的対象物290の間の視線に位置し得る。ヘッドセット200は、物理的対象物290のロケーションについて記述する情報をマッピングサーバ230または深度カメラアセンブリを介して取得することができる。
ヘッドセット200が、仮想対象物280によって遮られている物理的対象物についての深度情報を取得することは不必要なことがある。しかし、ヘッドセット200が、ヘッドセット200と仮想対象物280の間に位置し得るいずれかの対象物についての深度情報を取得することが望ましい場合がある。それゆえに、ヘッドセット200は、遮られた対象物を含有する関心領域内のテクスチャの量を、ヘッドセット200と仮想対象物280の間の深度情報を決定するにはテクスチャが十分なように、仮想対象物280の方向に投射される構造化光の輝度または密度を低下させることによって低減することができる。
同様に、ヘッドセット200が、物理的対象物290によって遮られている仮想対象物270のエリアの深度情報を取得することは不必要なことがある。それゆえに、十分なテクスチャを遠方の仮想対象物270に与える代わりに、ヘッドセット200は、仮想対象物270の方向に投射される構造化光の輝度または密度を低下させてもよい。
図3は、1つまたは複数の実施形態による、ヘッドセット用のDCA 300のブロック図である。いくつかの実施形態では、DCA 300は、図1Aおよび図1Bに関して説明したDCA 120でもよい。DCA 300のいくつかの実施形態には、ここで説明するものとは異なる構成要素がある。同様に、各機能は、ここで説明するのとは異なるようにして構成要素の間に分布し得る。いくつかの実施形態では、DCA 300の機能のいくつかは、別の構成要素の一部とすることができる(たとえば、いくつかはヘッドセットの一部でよく、いくつかはコンソールおよび/またはサーバの一部でもよい)。
DCA 300は、部屋などの局所エリアの深度情報を生成する。深度情報は、DCA 300からの距離を定義するピクセル値を含み、深度情報に取り込まれたロケーションの三次元マッピングなどの、深度情報に取り込まれたロケーションのマッピングを提供する。DCA 300は構造化光投射器310、カメラアセンブリ320、およびコントローラ330を含む。
構造化光投射器310は、構造化光を生成し、その構造化光を局所エリアに投射する。構造化光投射器310は、1つまたは複数の照明源、1つまたは複数のパターン板、および1つまたは複数の投射アセンブリを備える。照明源は、光を(たとえば、光ビームとして)発するように構成され、多数の波長の光を発することができる。照明源は、たとえば、可視帯域内(約380nm〜750nm)、赤外(IR)帯域内(約750nm〜約1,800nm)、紫外帯域内(約100nm〜380nm)、カメラアセンブリ320が検出するように構成されている電磁スペクトルのどれか他の部分、またはこれらのどれかの組み合わせ、の光を発することができる。照明源は、たとえば、レーザダイオード(たとえば、エッジエミッタ)、無機または有機LED、垂直共振器表面発光レーザ(VCSEL)、または何か他の光源とすることができる。いくつかの実施形態では、構造化光生成器内の単一の発光体または複数の発光体が、構造化光パターンを有する光を発することができる。いくつかの実施形態では、複数の発光体は単独で、またはブロック/セクション/グループごとにアドレス指定可能である。1つまたは複数の照明源から発した光は、たとえば、偏光させることができる(たとえば、直線、円など)。
1つまたは複数のパターン板は、1つまたは複数の照明源からの光を用いてSLパターンを生成する。パターン板は、たとえば、1つまたは複数の回折光学要素、マスク、コンピュータ生成ホログラム、音響光学デバイス(たとえば、動的解析格子として機能するように構成されている)、構造化光パターンを生成する何か他の要素、またはこれらのどれかの組み合わせとすることができる。
投射アセンブリは、構造化光を局所エリアに投射する。投射アセンブリは、構造化光パターンを局所エリアに向ける1つまたは複数の光学要素を備える。たとえば、投射アセンブリは複数のレンズを備え得る。いくつかの実施形態では、投射アセンブリは、1つまたは複数のパターン板によって回折された構造化光の断面、すなわち全体の輝度包絡線、を変化させるビーム成形要素を含む。SLパターンは、複数のSL要素を含む。各要素は、線またはドットなどの、SLパターンをなす個別の部分である。たとえば、照明されたパターン板によって投射されるSL要素のそれぞれは、パターン板上の特別なロケーションと関連付けられたドットである。たとえば、構造化光投射器310は、異なるタイプの複数のSL要素(たとえば、ライン、グリッド、ドット)を、ヘッドセットを取り囲む局所エリアの一部分に投射することができる。
構造化光投射器310は、コントローラ330からの命令に従って構造化光パターンを動的に変えることができる。いくつかの実施形態では、構造化光投射器310は、構造化光投射器310の全視野にわたって同じパターンを投射することができ、あるいは構造化光投射器310は、別々の構造化光パターンを視野の別々の部分に投射することができる。たとえば、動的構造化光パターンは、構造化光投射器310の視野の一部分にそれぞれ投射される複数のセグメントまたはタイルから形成し、一緒にして全体の動的構造化光パターンを形成することができる。いくつかの実施形態では、動的構造化光パターンの各セグメントは、別々の構造化光パターンを含有することができ、個々に調整され得る。たとえば、所与の瞬間の条件の変化に応答して、構造化光投射器310は、第1のセグメントの動的構造化光パターンの輝度を増加させることができ、また構造化光投射器310は同時に、第2のセグメントの動的構造化光パターンの輝度を低下させることができる。構造化光投射器310の視野の各部分に対し、構造化光投射器310は、輝度、密度、パターン形状(たとえば、ドット、バー、グリッド)、偏光、点滅率などの、動的構造化光パターンのいずれかの適切な特性を調整することができる。いくつかの実施形態では、動的構造化光パターンは、別々のパターンが別々の時間に視野の別々の部分に投射されるように時分割することができる。
構造化光投射器310は、別々の発光体を作動状態にすることによって、発光体の一部または全部を調整可能にすることによって、または別々の構造化光パターンを得るための別々のパターン板を有することによって、動的構造化光パターンを変えることができる。いくつかの実施形態では、動的構造化光パターンは、各発光体を個別に、またはサブセットもしくはセクションごとに制御するだけで達成され、その動的な特性は、パターン形状、輝度、偏光、時間変調、視野などに関して投射パターンに発現される。いくつかの実施形態では、レンズ、格子、または空間光変調器などの調整可能光学構成要素が、動的パターンを実現するために使用される。いくつかの実施形態では、アドレス指定可能光源と調整可能光学部品を使用することの組み合わせが、投射器のサイズ、重量、電力、コストなどを考慮した動的光パターン投射を実現するために採用され得る。
カメラアセンブリ320は、局所エリアの画像を取り込むように構成される。カメラアセンブリ320は、少なくとも光帯域のSLパターンの画像を取り込むことができる1つまたは複数の撮像デバイス(たとえば、カメラ)を含む。いくつかの実施形態では、これら1つまたは複数の撮像デバイスおよび/またはカメラアセンブリ320の他の撮像デバイスはまた、可視光帯域の光を取り込むこともできる。いくつかの実施形態では、局所エリアの取り込み画像の一部または全部は、(たとえば、局所エリア内の対象物によって反射された)SLパターンの一部または全部を含み得る。
コントローラ330は、DCA 300の構成要素を制御する。コントローラは、マッピングモジュール340、コントラストモジュール350、深度測定モジュール360、および照明モジュール370を備え得る。コントローラ330のいくつかの実施形態には、ここに記載のものとは異なる構成要素がある。同様に、各機能は、ここで説明するのとは異なるようにして構成要素の間に分布し得る。いくつかの実施形態では、コントローラ330の機能のいくつかは、別の構成要素の一部とすることができる(たとえば、いくつかはヘッドセットの一部でよく、いくつかはコンソールおよび/またはサーバの一部でもよい)。
マッピングモジュール340は、マッピングサーバ(たとえば、マッピングサーバ230)と通信するように構成することができる。マッピングモジュール340は、DCA 300のロケーションおよび/またはDCA 300によって取り込まれた画像を含めて、情報をマッピングサーバへ送信することができる。マッピングサーバはさらに、深度情報を図2のマッピングサーバ230に、またはどれか他の構成要素に提供することができる。
コントラストモジュール350は、カメラアセンブリ320によって取り込まれた画像に基づいて、局所エリアのコントラストを計算することができる。コントラストモジュール350は、ウェーバーコントラスト、マイケルソンコントラスト、2乗平均平方根(RMS)コントラストなどの様々なコントラストアルゴリズムを用いることができる。いくつかの実施形態では、コントラストモジュール350は、図7を参照してさらに説明するように、L2コントラストウィズスライディングマックス(L2 Contrast with Sliding Max)アルゴリズムを用いてコントラストを計算することができる。コントラストモジュール350は、局所エリア内の特定のエリアに対応して、センサのピクセルごとにコントラストを計算することができる。
照明モジュール370は、動的構造化光パターンを投射するための、光投射器310に与える照明命令を生成することができる。照明命令は、局所エリアに十分なテクスチャを与えて深度情報を計算しながら、光投射器310の電力消費を減らす(また場合により最小化する)ことができる。いくつかの実施形態では、照明モジュール370は、深度測定値の信頼レベルに基づいて、局所エリアが十分なテクスチャを含有していることを決定することができる(たとえば、深度測定値が、95%を超える、または50%を超える信頼レベルで計算されるならば、テクスチャは十分であり得る)。たとえば、コントラストモジュール350は、コントラスト値が比較的高い局所エリアの第1の関心領域を検出することができ、照明モジュール370は、光投射器310から与えられる追加のテクスチャがなくても深度測定モジュール360が関心領域の深度情報を十分に計算することが可能であり得るので、光投射器310によって第1の関心領域に与えられるテクスチャの量を低下させることができる。同様に、コントラストモジュール350は、コントラスト値が比較的低い局所エリアの第2の関心領域を検出することができ、照明モジュール370は、追加のテクスチャによって深度測定モジュール360が関心領域の深度情報をより適切に計算することが可能であり得るので、光投射器310によって第2の関心領域に与えられるテクスチャの量を増加させることができる。
いくつかの実施形態では、照明モジュール370は光投射器に、フレーム減算の一部としてカメラアセンブリ320によって取り込まれる画像と連係して作動する(たとえば、光を発する)ように、または作動しない(たとえば、光を発しない)ように指示することができる。たとえば、DCA 300は、IR構造化光パターンを含む画像フレーム内の周囲IR信号を補正することができる。周囲IR信号は、IR構造化光パターンによっては提供されていない、画像フレーム内のいずれかのIR信号であり得る。照明モジュール370は光投射器310に、カメラアセンブリ320による第1の画像の取り込み中に作動するように、また、カメラアセンブリ320による第2の画像の取り込み中に作動しないように指示することができる。
深度測定モジュール360は、カメラアセンブリ320によって取り込まれた画像に基づいて画像の各ピクセルについての深度情報を決定し、各ピクセルについてのその深度情報を、深度画像を生成するためにピクセルと関連付けて記憶する。深度測定モジュールは、動的構造化光パターンを含有する画像を分析する。局所エリア内の三次元対象物による動的構造化光パターンの歪により、DCAが三次元深度情報を計算することが可能になる。
いくつかの実施形態では、深度測定モジュール360は、照明モジュール370によって取り込まれた複数の画像フレームを用いてフレーム減算を行う。深度測定モジュール360は、構造化光パターンが不作動状態で取り込まれた第2の画像のピクセル値を、構造化光パターンが作動状態で取り込まれた第1の画像のピクセル値から減算することができ、この減算により、周囲IR信号を画像から除去すること、および深度情報を計算する深度測定モジュール360の能力を向上させることができる。いくつかの実施形態では、第1の画像および第2の画像の輝度は、これらの取り込み間の露光時間の差に基づいてスケール変更することができる。
様々な実施形態では、深度測定モジュール360は、「ステレオ」とも呼ばれる1つまたは複数の立体撮像処理を、共通時間にカメラアセンブリ320によって取り込まれた一対の画像に適用して深度情報を決定することなどによって、動的構造化光パターンを用いずに画像の深度情報を決定する。ステレオ処理の例としては、グローバルパッチマッチングおよびセミグローバルマッチングがある。深度測定モジュール360でセミグローバルマッチング処理を適用する場合、深度測定モジュール360は、カメラアセンブリ320の第1の撮像デバイスによって取り込まれた画像のサブセットと、共通時間に画像としてカメラアセンブリ320の第2の撮像デバイスによって取り込まれた追加画像のサブセットとに対して高密度パッチマッチングを行い、たとえば、深度測定モジュール360は、その画像および追加画像を修正し、修正画像と追加画像の間のエピポーラ線に沿って高密度パッチマッチングを行う。セミグローバルマッチング処理を適用する場合には、深度測定モジュール360はまた、あるピクセルの深度情報を他のピクセルへ、画像全体にわたって有限数の経路(たとえば、4本、8本、16本)に沿って伝える。しかし、他の実施形態では、深度測定モジュール360は、畳み込みニューラルネットワークなどを介して任意の適切なステレオ処理を実施する。いくつかの実施形態では、照明モジュール370は光投射器310に、構造化光パターンをシーンに投射してテクスチャをシーンに加えるように指示することができ、こうすることにより、事前較正された構造化光パターンを用いなくても深度測定の精度を高めることができる。
図4は、1つまたは複数の実施形態による、マッピングサーバ230のブロック図である。マッピングサーバ230は、図1Aのヘッドセット100などのヘッドセットが位置する物理的空間(部屋)のパラメータの組を決定する。パラメータには、部屋のサイズ、部屋内の対象物の数、対象物ロケーション、各面の反射率、コントラスト値、明るさ、ライティング条件、部屋内のロケーションにテクスチャが追加されるべきかどうか、またどのタイプのテクスチャが追加されるべきか、などが含まれ得る。決定されたパラメータの組は、局所エリアの構造化光パターンを生成するためにヘッドセット100で用いることができる。マッピングサーバ230は、仮想モデルデータベース410、通信モジュール420、マッピングモジュール430、および分析モジュール440を含む。他の実施形態では、マッピングサーバ230は、列記されたモジュールの任意の組み合わせを任意の追加のモジュールと共に有し得る。いくつかの他の実施形態では、マッピングサーバ230は、図4に示されたモジュールの機能を組み合わせた1つまたは複数のモジュールを含む。マッピングサーバ230のプロセッサ(図4に示されていない)は、仮想モデルデータベース410、通信モジュール420、マッピングモジュール430、分析モジュール440、1つもしくは複数の他のモジュール、または図4に示されたモジュールの機能を組み合わせたモジュールのうちの一部または全部を動作させることができる。
仮想モデルデータベース410は、複数の物理的空間と、これらの物理的空間の特性とを記述する仮想モデルを記憶する。仮想モデル内のそれぞれのロケーションは、特定の構成を有する局所エリア内のヘッドセットの物理的ロケーションに対応する。その状態は、パラメータの組で表された特性の組を有する局所エリアの状態を表す。仮想モデル内の特別なロケーションが、図2の部屋220内のヘッドセットの現在の物理的ロケーションに対応し得る。仮想モデル内のそれぞれのロケーションは、局所エリアの一構成である1つの対応する物理的空間のパラメータの組と関連付けられている。パラメータの組は、局所エリアのその1つの特別な構成の様々な特性を記述する。パラメータには、部屋のサイズ、部屋内の対象物の数、対象物ロケーション、各面の反射率、コントラスト値、明るさ、ライティング条件、仮想モデル内の様々なロケーションについての、部屋内のロケーションにテクスチャが追加されるべきかどうか、またどのタイプのテクスチャが追加されるべきか、などが含まれ得る。
通信モジュール420は、ネットワーク(たとえば、図2のネットワーク240)を介してヘッドセットと通信するモジュールである。通信モジュール420は、ヘッドセットから、部屋220の少なくとも一部分について記述する視覚情報を受け取る。1つまたは複数の実施形態では、視覚情報は、部屋220の少なくとも一部分についての画像データを含む。たとえば、通信モジュール420は、ヘッドセットのDCAによって取り込まれた深度情報を、部屋220の壁、床および天井の面などの、部屋220の面によって画定された部屋220の形状についての情報と共に受け取る。通信モジュール420はまた、ヘッドセットのPCAによって取り込まれたカラー画像データを受け取ることもできる。マッピングサーバ230は、そのカラー画像データを用いて、別々のロケーションおよびコントラスト値を部屋220の各面と関連付けることができる。通信モジュール420は、ヘッドセットから受け取った視覚情報(たとえば、深度情報およびカラー画像データ)をマッピングモジュール430に提供することができる。
マッピングモジュール430は、ヘッドセットから受け取った視覚情報を仮想モデルのロケーションにマッピングする。マッピングモジュール430は、ヘッドセットが位置する現在の物理的空間、すなわち局所エリアの現在の構成、に対応する仮想モデルのロケーションを決定する。マッピングモジュール430は、仮想モデルをくまなく探索して、(i)少なくとも、たとえば物理的空間の各面の幾何学的形状についての情報、およびその面のコントラスト値についての情報と、(ii)仮想モデル内の物理的空間の対応する構成との間のマッピングを見出す。マッピングは、受け取った視覚情報のうちの幾何学的形状および/またはコントラスト情報を、仮想モデル内の物理的空間の構成の一部として記憶されている幾何学的形状および/またはコントラスト情報と突き合わせることによって行われる。仮想モデル内の物理的空間の対応する構成は、ヘッドセットが現在位置している物理的空間のモデルに対応する。一致が見出されない場合、これは、物理的空間の現在の構成が仮想モデル内でまだモデル化されていないことを示すものになる。このような場合には、マッピングモジュール430は、一致が見出されないことを分析モジュール440に知らせ、分析モジュール440は、受け取った視覚情報に少なくとも部分的に基づいてパラメータの組を決定する。
分析モジュール440は、ヘッドセットの物理的ロケーションに関連付けられたパラメータの組を、マッピングモジュール430から取得された仮想モデル内の決定されたロケーションと、決定されたロケーションに関連付けられた仮想モデル内のいずれかのパラメータとに部分的に基づいて決定する。パラメータには、部屋のサイズ、部屋内の対象物の数、対象物ロケーション、各面の反射率、コントラスト値、明るさ、ライティング条件、部屋内のロケーションにテクスチャが追加されるべきかどうか、またどのタイプのテクスチャが追加されるべきか、などが含まれ得る。いくつかの実施形態では、分析モジュール440は、特定の空間構成に関連付けられている仮想モデル内の決定されたロケーションにパラメータの組が記憶されているので、パラメータの組を仮想モデルから検索する。いくつかの他の実施形態では、分析モジュール440はパラメータの組を、ヘッドセットから受け取った視覚情報に少なくとも部分的に基づいて、仮想モデル内の特定の空間構成について事前に決定されたパラメータの組を調整することによって決定する。たとえば、分析モジュール440は、受け取った視覚情報を用いてオフラインシミュレーションを行って、パラメータの組を決定することができる。
いくつかの実施形態では、分析モジュール440は、以前に生成されたパラメータがヘッドセットの現在の物理的ロケーションの状態とは一致しないことを決定する。不一致が検出されると、パラメータの新しい組の再生成をマッピングサーバ230においてトリガすることができる。再計算された後、このパラメータの新しい組は、以前のパラメータの組に代わるものとして、または同じ物理的空間の追加の状況として、マッピングサーバ230の仮想モデルに入力することができる。分析モジュール440は、導出されたパラメータの組を、マッピングサーバ230からヘッドセットへパラメータの組を伝達する通信モジュール420に提供し、このパラメータの組はヘッドセットによって、構造化光パターンを生成するために使用される。
いくつかの実施形態では、分析モジュール440によって決定された1つまたは複数のパラメータは、部屋220の現在の構成と部屋220の対応する状態とが仮想モデルによってモデル化されなかったので、仮想モデルの一部ではなかった新しいパラメータの組になる。このようの場合には、仮想モデルデータベース410は、部屋220の現在の状態をモデル化している部屋220の現在の構成と関連付けられた仮想モデル内の、1つのロケーションにおける新しいパラメータの組を記憶する。1つまたは複数のパラメータの一部または全部は、仮想モデル内に、そのパラメータと関連付けられた信頼度(重み)および絶対タイムスタンプと共に記憶することができ、これら信頼度および絶対タイムスタンプは、パラメータの一部を再計算するために使用することができる。
図5は、1つまたは複数の実施形態による、局所エリアと、局所エリアの構成について記述するパラメータとを記述する仮想モデル500の一例である。パラメータには、部屋のサイズ、部屋内の対象物の数、対象物ロケーション、各面の反射率、コントラスト値、明るさ、ライティング条件、部屋内のロケーションにテクスチャが追加されるべきかどうか、またどのタイプのテクスチャが追加されるべきか、などが含まれ得る。仮想モデル500は、マッピングサーバ230の仮想モデルデータベース410に記憶することができる。仮想モデル500は、1つまたは複数のヘッドセットを取り囲む様々な局所エリアについての地理的に結び付けられた三つ組みの情報(すなわち、局所エリア識別子(ID)510、局所エリア構成ID 520、パラメータの組530)を記憶する、仮想モデルデータベース410内の地理的情報記憶エリアを表し得る。
仮想モデル500は、それぞれが局所エリアID 510で識別された、実現可能な局所エリアS1、S2、...、Snのリストを含む。局所エリアID 510は、局所エリアの特別なタイプを識別する。たとえば、局所エリアID 510は、会議室、浴室、廊下、事務室、寝室、食堂、居間、何か他のタイプの物理的空間、またはこれらのどれかの組み合わせなどの、異なるタイプの部屋を識別する。それゆえに、それぞれの局所エリアID 510は、1つの特別なタイプの物理的空間に対応する。
それぞれの局所エリアID 510は、1つまたは複数の局所エリア構成ID 520と関連付けられる。それぞれの局所エリア構成ID 520は、局所エリアID 510によって識別される、特定の深度情報またはコントラスト情報を有する局所エリアの構成に対応する。局所エリア構成ID 520は、局所エリア内の対象物の数、局所エリア内の対象物の位置決め、識別情報、局所エリアの周囲ライティング、または局所エリア内の他の条件を識別する情報を含み得る。局所エリアの異なる構成は、局所エリアの異なる領域に対する深度情報、または局所エリアの異なる領域からのコントラスト情報に影響を及ぼす。それぞれの局所エリア識別子ID 520は、局所エリアID 510の構成を識別するコードID(たとえば、2進コード、英数字コード)として表すことができる。たとえば、図5に示されるように、局所エリアS1は、それぞれが局所エリアS1の異なる構成を表すp個の異なる空間構成S1C1、S1C2、...、S1Cpと関連付けることができ、局所エリアS2は、それぞれが局所エリアS1の異なる構成を表すq個の異なる構成S2C1、S2C2、...、S2Cqと関連付けることができ、局所エリアSnは、それぞれが局所エリアS1の異なる構成を表すr個の異なる構成SnC1、SnC2、...、SnCrと関連付けることができる。マッピングモジュール430は、ヘッドセットから受け取った局所エリアの視覚情報に基づいて、仮想モデル500を探索して適切な局所エリア構成ID 520を見出すことができる。
それぞれの局所エリアID 520は、仮想モデル500の対応するロケーションに記憶されたパラメータ530の特定の組と関連付けられている。図5に示されているように、同じ局所エリアS1のp個の異なる空間構成S1C1、S1C2、...、S1Cpが、p個の異なるパラメータ{P11}、{P12}、...、{P1p}の組と関連付けられている。同様に、図5にさらに示されているように、同じ局所エリアS2のq個の異なる空間構成S2C1、S2C2、...、S2Cqが、q個の異なるパラメータ{P21}、{P22}、...、{P2q}の組と関連付けられ、同じ局所エリアSnのr個の異なる空間構成SnC1、SnC2、...、SnCrが、r個の異なるパラメータ{Pn1}、{Pn2}、...、{Pnr}の組と関連付けられている。分析モジュール440は、ヘッドセットが位置している局所エリアの現在の構成に対応する局所エリア構成ID 520をマッピングモジュール430が見つけると、対応するパラメータの組530を仮想モデル500から検索することができる。このパラメータは、DCA(たとえば、DCA 300)で使用して動的構造化光パターンを生成することができる。
図6は、1つまたは複数の実施形態による、動的構造化光パターンを生成する処理600を示すフローチャートである。図6の処理600は、DCA(たとえば、DCA 300)の構成要素によって行うことができる。他の実施形態においては、他のエンティティ(たとえば、図2のマッピングサーバ230および/または図9に示された構成要素)が、処理のステップの一部または全部を行うことができる。同じように、諸実施形態で別の、および/または追加のステップを含むこと、あるいは別の順序でそのステップを行うことができる。
DCAは610で、局所エリアの少なくとも一部分について記述する情報に基づいて、局所エリア(たとえば、部屋220)内のヘッドセット(たとえば、ヘッドセット200)の仮想モデル内のロケーションを決定する。DCAは、情報をマッピングサーバへ送信することができる。たとえば、DCAは、ヘッドセットのロケーションを決定するために使用できるGPSロケーションや深度情報を送信することができ、あるいはDCAは、ヘッドセットによって取り込まれた画像を送信することができる。いくつかの実施形態では、DCAは、最初に構造化光パターンを投射し、画像を取り込んで深度情報を決定することができ、またDCAは、深度情報をマッピングサーバへ送信して、動的構造化光パターンを得るためのパラメータを生成することができる。マッピングサーバは、記憶された仮想モデル内のヘッドセットのロケーションを識別することができる。記憶された仮想モデルは、複数の空間およびこれらの空間の特性を記述し、仮想モデル内のロケーションは、図5に関して別に説明したように、局所エリア内のヘッドセットの物理的なロケーションに対応する。局所エリアの少なくとも一部分について記述する情報は、深度情報を、局所エリアの面(たとえば、壁、床および天井の面)によって画定された局所エリアの少なくとも一部分の形状と、局所エリア内の1つまたは複数の対象物(実および/または仮想)とについての情報と共に、含み得る。局所エリアの少なくとも一部分について記述する情報はさらに、相対的に高い、または低いコントラストのエリアを局所エリアの面と、1つまたは複数の対象物の面とに関連付けるためのコントラストデータを含み得る。いくつかの実施形態では、局所エリアの少なくとも一部分について記述する情報は、局所エリアのロケーション情報、たとえば、局所エリアのアドレス、局所エリアのGPSロケーション、局所エリアの緯度および経度についての情報など、を含み得る。いくつかの他の実施形態では、局所エリアの少なくとも一部分について記述する情報には、深度情報、カラー画像データ、音響データ、局所エリアのロケーション情報、何か他の情報、またはこれらの組み合わせが含まれる。いくつかの実施形態では、DCAは、局所エリアの一部分について記述する情報に部分的に基づいて、最初の構造化光パターンを生成することができる。
DCAは620で、局所エリアのコントラスト量を決定する。DCAは、構造化光を局所エリアに投射し、構造化光パターンを含む局所エリアの一部分の画像を取り込むことができる。取り込まれた画像に部分的に基づいて、ヘッドセットはコントラスト量を決定する。DCAは、局所エリアのそれぞれの部分のコントラスト値をピクセル値に応じて決定することができる。いくつかの実施形態では、DCAは、DCAの視野内にある局所エリア全体の平均コントラスト値を決定することができる。いくつかの実施形態では、DCAは、図7に関してさらに説明するように、コントラストアルゴリズムを用いて局所エリアのコントラスト量を決定する。いくつかの実施形態では、ヘッドセットは、マッピングサーバから受け取ったパラメータに基づいて局所エリアのコントラスト量を決定する。
DCAは630で、局所エリア内の第1の関心領域、および局所エリア内の第2の関心領域を決定する。第1の関心領域は第1のコントラスト量を有し、第2の関心領域は第2のコントラスト量を有する。いくつかの実施形態では、DCAは、コントラスト値が相対的に低い領域か高い領域かを識別するコントラストアルゴリズムに基づいて、関心領域を選択することができる。様々な実施形態では、ヘッドセットは、局所エリアについて記述する情報をマッピングサーバから受け取り、マッピングサーバから受け取ったその情報に基づいて局所エリア内の1つまたは複数の関心領域を選択する。たとえば、マッピングサーバからの情報により、以前に対象物を含んでいた局所エリア内の領域が識別される。ヘッドセットは、マッピングサーバからの情報によって以前に対象物を含んでいたものとして識別された領域に対応する、画像内の関心領域を選択する。別の例として、マッピングサーバから受け取った情報により、局所エリアの別々の領域について以前に決定されたコントラスト測定値が識別され、DCAは、マッピングサーバから受け取った情報による閾コントラスト測定値を少なくとも有する領域として、1つの関心領域を選択する。この故に、様々な実施形態では、DCAは関心領域を、マッピングサーバから受け取った情報に対応する、1つまたは複数の特定の特性を有する画像の領域として選択する。
DCAは640で照明命令を、局所エリアのコントラスト量に部分的に基づいて更新する。DCAはさらに照明命令を、仮想モデル内の決定されたロケーションと、決定されたロケーションに関連付けられたいずれかのパラメータとに基づいて更新することができる。更新された照明命令は、動的構造化光パターンに変化を生じさせることができる。動的構造化光パターンを変化させると、動的構造化光パターンによって局所エリアに追加されるテクスチャが増減し得る。局所エリア内でテクスチャを増加させると、DCAがDCAと対象物の間の距離を決定する助けになる。いくつかの実施形態では、マッピングサーバは、仮想モデルによるパラメータの組を、ヘッドセットが現在位置している空間構成と関連付けられた仮想モデル内の決定されたロケーションから検索する。いくつかの実施形態では、マッピングサーバは、以前に決定された仮想モデル内のパラメータの組を調整することによってパラメータの組を、DCAから受け取った局所エリアの少なくとも一部分について記述する情報に少なくとも部分的に基づいて決定する。マッピングサーバは、DCAから受け取った画像を分析して、既存のパラメータの組が(利用可能な場合に)画像分析と一致しているか、それとも再計算されるべきかを決定することができる。既存のパラメータが画像分析と一致しない場合には、マッピングサーバは、局所エリアの少なくとも一部分について記述する情報(たとえば、部屋の幾何学的形状、ライティング)を用いて、新しいパラメータの組を決定することができる。
DCAは、識別された関心領域に対する照明命令を更新することができる。たとえば、照明命令は、動的構造化光パターンの密度または輝度を第1の関心領域において増加させることができ、また照明命令は、動的構造化光パターンの密度または輝度を第2の関心領域において低下させることができる。いくつかの実施形態では、更新された照明命令は光投射器に、1つまたは複数の関心領域において構造化光パターンを作動させるように、または作動させないように指示することができる。
DCAは650で、更新された命令を構造化光投射器に与え、この更新された命令によりSL投射器は、第1のSLパターンを第1の関心領域に投射し、第2のSLパターンを第2の関心領域に投射し、この第2のSLパターンは第1のSLパターンとは異なる。それゆえに、DCAは、使用される構造化光パターンを、局所エリアの深度情報を取得するように適合させる。いくつかの実施形態では、処理600は、連続して繰り返すことができ、あるいは、局所エリア内のヘッドセットの移動または対象物の移動などのイベントに応答して繰り返すことができる。それゆえに、DCAは、追加のテクスチャが不必要なエリアに投射される構造化光の量を低減することによって、電池を節約して使うことができる。同様に、DCAは、追加のテクスチャが有益である関心領域のテクスチャを増加させることによって、深度測定精度を高めることができる。
図7は、1つまたは複数の実施形態による、局所エリアのコントラスト量を決定する処理700を示すフローチャートである。いくつかの実施形態では、処理700は、図6に関して説明したステップ620の全部または一部として行うことができる。処理700は、DCA(たとえば、DCA 300)の構成要素によって行うことができる。
DCAは710で、局所エリア内の1つまたは複数の画像を取り込む。DCAは、画像の全部または一部のコントラストを計算する。コントラストとは、ある対象物(または画像もしくは表示としてのその写像)を区別できるようにする、輝き、色、距離、または他の測定可能な量の差異のことである。画像のコントラストは、関心領域内の局所深度性能と相関関係にある。たとえば、画像が関心領域において高いコントラスト値を含有する場合、DCAは、その関心領域の深度測定値に高い信頼度の値を置くことができる。それゆえに、DCAは、動的構造化光パターンによって提供されるテクスチャの量を関心領域において低減することができ、これにより電池電力を節約することができる。対照的に、画像が関心領域において低いコントラスト値を含有する場合には、DCAは、動的構造化光パターンによって与えられるテクスチャの量を増加させて、深度測定値の精度を高めることができる。いくつかの実施形態では、コントラストは、画像中の局所ノイズレベルに対し正規化することができる。コントラストを計算するための、ウェーバーコントラスト、マイケルソンコントラスト、RMSコントラストなどの多くのアルゴリズムが当技術分野で知られている。DCAは、それぞれのピクセル(i,j)のコントラストを定義することができる。いくつかの実施形態では、DCAは、L2コントラストウィズスライディングマックスアルゴリズムを用いてコントラストを計算することができる。
L2コントラストウィズスライディングマックスアルゴリズムを行うために、DCAは第1に720で、ピクセルごとのコントラスを計算することができる。ピクセルごとのコントラストは、次式を用いて計算することができる。
Figure 2021524021
ここでIi,jは、センサピクセル(i,j)のデジタル数であり、iおよびjは、画像センサのピクセルのi番目の列およびj番目の行を表す整数値である。
第2に、DCAは730で、生コントラストのスライディングウィンドウ最大値を計算することができる。生コントラストのスライディングウィンドウ最大値は、次式を用いて計算することができる。
Figure 2021524021
ここでwは、スライディングウィンドウのサイズを制御する(ウィンドウサイズは、ピクセルで(2w+1)×(2w+1)である)。kおよびlは、スライディングウィンドウ内にあるピクセルのk番目の列およびl番目の行を表す整数値である。L2コントラストウィズスライディングマックスアルゴリズムは、深度性能との良好な相関関係を示した。それゆえに、DCAは、コントラストアルゴリズムの結果を用いて、高レベルまたは低レベルの照明が望ましいことがある領域を識別することができ、またDCAは、その結果を用いて、図6のステップ640に関して説明したように、照明命令を更新することができる。
図8は、1つまたは複数の実施形態による、対象物ロケーションに基づいて関心領域を識別する処理800を示すフローチャートである。いくつかの実施形態では、この処理は、図6に関して説明したステップ630の全部または一部とすることができる。
DCAは810で、局所エリア内の1つまたは複数の対象物を識別することができる。いくつかの実施形態では、DCAは、対象物のロケーションをマッピングサーバから受け取ることができる。しかし、いくつかの実施形態では、DCAは、対象物を局所深度信頼度測定基準に基づいて検出することができ、この局所深度はヘッドセットによって、接続デバイスを介して、またはクラウドを介して推定することができ、あるいはスタック化センサ論理に基づいて局所的に推定することができる。
DCAは820で、対象物の移動を検出することができる。いくつかの実施形態では、DCAは、その移動を局所エリアの一部分の深度情報の変化に基づいて検出することができる。いくつかの実施形態では、DCAを含有するヘッドセットは、可視光または赤外画像センサ、SLAMの入力部として使用される画像センサ、画像取り込み、テクスチャ取り込み、環境再構築に使用されるカラーRGBセンサ、音声センサ、テレプレゼンス、IMUセンサデータ、動的視覚センサなどの、シーン内で動いている対象物を検出するヘッドセット上の他のセンサを使用して、動きを検出することができる。対象物の移動がDCAに、対象物を含有する関心領域に投射されるテクスチャの量をDCAが増加すべきであることを示し得る。
DCAは830で、対象物が遮られたことを検出することができる。DCAは、2つ以上の対象物がDCAからの同一の視線に位置していることを決定することができる。たとえば、マッピングサーバから提供された情報、またはDCAによって決定された深度情報に基づいて、DCAは、2つ以上の対象物が同一の視線に位置していることを決定することができる。2つ以上の対象物についての深度情報に基づいて、DCAは、DCAに最も近い対象物が、同一の視線にDCAからもっと遠く位置しているいずれかの対象物を遮っていることを決定する。遮られた対象物は、ヘッドセットからの視線に対して、局所エリア内の別の対象物の背後に位置し得る。いくつかの実施形態では、仮想対象物がヘッドセットと物理的対象物の間に位置して物理的対象物を遮ることがある。いくつかの実施形態では、物理的対象物がヘッドセットと仮想対象物の間に位置して仮想対象物を遮ることがある。同様に、いくつかの実施形態では、物理的対象物が別の物理的対象物を遮ること、または仮想対象物が別の仮想対象物を遮ることがある。
DCAは840で、対象物の移動または遮られた対象物の検出に基づいて関心領域を識別することができる。たとえば、ある対象物の動きに応答して、DCAは、その対象物を関心領域内に位置しているとして識別することができる。DCAは、動いている対象物を含有する関心領域のテクスチャの量を増加させることを決定することができる。いくつかの実施形態では、対象物が遮られていることを検出することに応答して、DCAは、遮られた対象物を関心領域内に位置しているとして識別することができる。DCAは、遮られた対象物を含有する関心領域のテクスチャの量を減少させることを決定することができる。たとえば、遮られた対象物の距離において深度測定値を取得するのに十分なテクスチャを持つ構造化光を投射する代わりに、DCAは、遮られた対象物を遮っている対象物のもっと近くで測定値を取得するには十分なレベルまで、テクスチャの量を減少させることができる。識別された関心領域を用いて、図6のステップ640に関して説明したように、照明命令を更新することができる。
システム環境
図9は、1つまたは複数の実施形態による、ヘッドセット905のシステム環境900である。いくつかの実施形態では、ヘッドセット905は、図1Aのヘッドセット100であってもよい。システム900は、人工現実環境、たとえば仮想現実、拡張現実、複合現実環境、またはこれらのどれかの組み合わせにおいて動作することができる。図9で示されたシステム900は、ヘッドセット905、ネットワーク935、マッピングサーバ965、およびコンソール945に接続された入力/出力(I/O)インターフェース940を含む。図9は、1つのヘッドセット905および1つのI/Oインターフェース940を含む例示的なシステム900を示すが、別の実施形態では、任意の個数のこれら構成要素がシステム900に含まれ得る。たとえば、付随するI/Oインターフェース940をそれぞれが有する多数のヘッドセットがあり得、それぞれのヘッドセットおよびI/Oインターフェース940がコンソール945と通信する。代替構成では、別の、および/または追加の構成要素がシステム900に含まれ得る。加えて、図9に示された構成要素のうちの1つまたは複数と併せて説明される機能性は、いくつかの実施形態では、図9と併せて説明されるのとは異なるようにして構成要素の中に分布し得る。たとえば、コンソール945の機能性の一部または全部は、ヘッドセット905によって提供することができる。
ヘッドセット905は、表示アセンブリ910、光学ブロック915、1つまたは複数の位置センサ925、DCA 930、および慣性測定ユニット(IMU)920を含む。ヘッドセット905のいくつかの実施形態には、図9と併せて説明されたものとは異なる構成要素がある。加えて、図9と併せて説明される様々な構成要素によって提供される機能性は、他の実施形態では、ヘッドセット905の構成要素の中で異なって分布することがあり、あるいは、ヘッドセット905から遠く離れている分離したアセンブリに取り込まれることがある。
表示アセンブリ910は、コンソール945から受け取ったデータに応じて2Dまたは3D画像をユーザに表示する電子表示装置を含み得る。図1のレンズ110は、表示アセンブリ910の実施形態であり得る。様々な実施形態では、表示アセンブリ910は、単一の電子表示装置または多数の電子表示装置(たとえば、ユーザの眼ごとの表示装置)を備える。電子表示装置の例としては、液晶表示装置(LCD)、有機発光ダイオード(OLED)表示装置、アクティブマトリックス有機発光ダイオード表示装置(AMOLED)、何か他の表示装置、またはこれらのどれかの組み合わせがある。レンズ110は、表示アセンブリ910の一実施形態である。いくつかの実施形態では、レンズ110はまた、光学ブロック910の機能性の一部または全部を含み得ることに留意されたい。
光学ブロック915は、電子表示装置から受け取った画像光を拡大し、画像光に伴う光学エラーを補正し、補正された画像光をヘッドセット905のユーザに提示する。様々な実施形態では、光学ブロック915は、1つまたは複数の光学要素を含む。光学ブロック915に含まれる光学要素の例としては、アパーチャ、フレネルレンズ、凸レンズ、凹レンズ、フィルタ、反射面、または他の任意の適切な、画像光に影響を及ぼす光学要素がある。さらに、光学ブロック915は、異なる光学要素の組み合わせを含み得る。いくつかの実施形態では、光学ブロック915の光学要素のうちの1つまたは複数は、部分的に反射性のコーティングまたは反射防止のコーティングなどの、1つまたは複数のコーティングを有し得る。
光学ブロック915によって画像光を拡大または集束すると、電子表示装置を物理的に小さく軽量にすること、および消費する電力を大型の表示装置よりも少なくすることが可能になる。加えて、拡大することにより、電子表示装置によって提示されるコンテンツの視野を増大させることができる。たとえば、表示されるコンテンツの視野は、表示されるコンテンツがユーザの視野のほとんど全部(たとえば、約110度対角線)を用いて、また場合によっては全部を用いて提示されるようなものである。加えて、いくつかの実施形態では、拡大量は、光学要素を追加または除去することによって調整することができる。
いくつかの実施形態では、光学ブロック915は、1つまたは複数のタイプの光学エラーを補正するように設計することができる。光学エラーの例としては、樽形もしくは糸巻き形歪、軸上色収差、または横色収差がある。他のタイプの光学エラーにはさらに、球面収差、色収差、もしくはレンズ像面湾曲、非点収差、またはあらゆる他のタイプの光学エラーが含まれ得る。いくつかの実施形態では、表示のために電子表示装置に提供されるコンテンツはあらかじめ歪められており、光学ブロック915は、コンテンツに基づいて生成された電子表示装置からの画像光を受け取ったときに、その歪を補正する。
IMU 920は、ヘッドセット905の位置を示すデータを、1つまたは複数の位置センサ925から受け取った測定信号に基づいて生成する電子デバイスである。位置センサ925は、ヘッドセット905の動きに応じて1つまたは複数の測定信号を生成する。位置センサ925の例としては、1つまたは複数の加速度計、1つまたは複数のジャイロスコープ、1つまたは複数の磁力計、動きを検出する別の適切なタイプのセンサ、IMU 920の誤差補正に使用されるタイプのセンサ、またはこれらのどれかの組み合わせがある。位置センサ925は、IMU 920の外部、IMU 920の内部、またはこれらのどれかの組み合わせに設置することができる。
DCA 930は、部屋などの局所エリアの深度情報を生成する。DCA 930は、図3のDCA 300の一実施形態であり得る。深度情報は、撮像デバイスからの距離を定義するピクセル値を含み、それゆえに、深度情報に取り込まれたロケーションの(たとえば、3D)マッピングを提供する。DCA 930は、光投射器、1つまたは複数の撮像デバイス、およびコントローラを含む。光投射器は、局所エリア内の対象物から反射され、撮像デバイスによって取り込まれて深度情報を生成する、動的構造化光パターンまたは、他の光を投射することができる。
たとえば、光投射器は、異なるタイプの複数の構造化光(SL)要素(たとえば、ライン、グリッド、ドット)を、ヘッドセット905を取り囲む局所エリアの一部分に投射することができる。様々な実施形態では、光投射器は、照明源およびパターン板を備える。照明源は、パターン板を光(たとえば、赤外光)で照明するように構成された1つまたは複数の発光体を備え得る。照明されたパターン板は、複数のSL要素を含むSLパターンを局所エリアに投射する。たとえば、照明されたパターン板から投射されるSL要素のそれぞれは、パターン板上の特別なロケーションと関連付けられたドットである。
DCA 930から投射されるそれぞれのSL要素は、電磁スペクトルの赤外光部の光を含む。いくつかの実施形態では、照明源は、人間に見えないように赤外光でパターン板を照明するように構成されたレーザである。いくつかの実施形態では、照明源はパルス化することができる。いくつかの実施形態では、照明源は可視であり、光が眼に見えないようにパルス化することができる。
DCA 930によって局所エリアに投射されたSLパターンは、局所エリア内の様々な面および対象物に出会うと変形する。1つまたは複数の撮像デバイスはそれぞれ、局所エリアの1つまたは複数の画像を取り込むように構成される。取り込まれた1つまたは複数の画像のそれぞれは、光投射器から投射され局所エリア内の対象物によって反射された複数のSL要素(たとえば、ドット)を含み得る。1つまたは複数の撮像デバイスのそれぞれは、検出器アレイ、カメラ、またはビデオカメラであり得る。
DCA 930は、DCA 930によって取り込まれた光に基づいて深度情報を生成する。コントローラ930はさらに、深度情報をコンソール945、音声コントローラ、または何か他の構成要素に提供することができる。
DCAは、カラー(たとえば、RGB)画像データを生成する1つまたは複数の受動撮像デバイスを備えるPCAを含み得る。PCAは、局所エリアの環境からの光を取り込んで画像データを生成する。撮像デバイスからの深度または距離を定義するピクセル値ではなく、画像データのピクセル値は、撮像データに取り込まれた対象物の可視色を定義することができる。いくつかの実施形態では、PCAは、受動撮像デバイスによって取り込まれた光に基づいてカラー画像データを生成するコントローラを含む。いくつかの実施形態では、DCA 930とPCAは、共通のコントローラを共有する。たとえば、共通コントローラは、可視スペクトル(たとえば画像データ)および赤外スペクトル(たとえば、深度情報)として取り込まれた1つまたは複数の画像のそれぞれを互いにマッピングすることができる。1つまたは複数の実施形態では、共通コントローラは、付加的または代替的に、局所エリアの1つまたは複数の画像を音声コントローラまたはコンソール945に提供するように構成される。
I/Oインターフェース940は、ユーザがアクション要求を送出し、コンソール945から応答を受け取れるようにするデバイスである。アクション要求とは、ある特別な動作を行わせる要求のことである。たとえば、アクション要求は、画像または映像データの取り込みを開始もしくは終了する命令、またはアプリケーション中の特別な動作を行わせる命令であり得る。I/Oインターフェース940は、1つまたは複数の入力デバイスを含み得る。入力デバイスの例としては、キーボード、マウス、ゲームコントローラ、または他の任意の、アクション要求を受け取り、そのアクション要求をコンソール945へ伝達するための適切なデバイスがある。I/Oインターフェース940で受け取られたアクション要求がコンソール945に伝達され、コンソールは、アクション要求に対応する動作を行う。いくつかの実施形態では、I/Oインターフェース940は、別に上述したようにIMU 920を含み、IMUは、I/Oインターフェース940の初期位置に対するI/Oインターフェース940の推定位置を示す較正データを取り込む。いくつかの実施形態では、I/Oインターフェース940は、コンソール9454から受け取った命令に従って触覚フィードバックをユーザに与えることができる。たとえば、アクション要求が受け取られたときに触覚フィードバックが与えられ、あるいは、コンソール945がある動作を行ったときに、コンソール945は命令をI/Oインターフェース940へ伝達してI/Oインターフェース940が触覚フィードバックを生成する。
コンソール945は、DCA 930、ヘッドセット905、およびI/Oインターフェース940のうちの1つまたは複数から受け取った情報に従って処理するためのコンテンツをヘッドセット905に提供する。図9に示された例では、コンソール945は、アプリケーション記憶装置950、トラッキングモジュール955、およびエンジン960を含む。コンソール945のいくつかの実施形態には、図9と併せて説明されたものとは異なるモジュールまたは構成要素がある。同様に、以下でさらに説明される機能は、図9と併せて説明されたのとは異なるようにしてコンソール945の各構成要素の間で分布し得る。いくつかの実施形態では、コンソール945に関して本明細書で論じられた機能性は、ヘッドセット905、または遠隔システムにおいて実施することができる。
アプリケーション記憶装置950は、コンソール945による実行のための1つまたは複数のアプリケーションを記憶する。アプリケーションとは、プロセッサによって実行されたときに、ユーザに提示するためのコンテンツを生成する命令の群のことである。アプリケーションによって生成されるコンテンツは、ヘッドセット905の移動によって、またはI/Oインターフェース940によって、ユーザから受け取った入力に対応し得る。アプリケーションの例としては、ゲームアプリケーション、会議アプリケーション、ビデオ再生アプリケーション、または他の適切なアプリケーションがある。
トラッキングモジュール955は、1つまたは複数の較正パラメータを用いてシステム900の局所エリアを較正し、さらに、ヘッドセット905またはI/Oインターフェース940の位置の決定の際のエラーを低減するように1つまたは複数の較正パラメータを調整することができる。たとえば、トラッキングモジュール955は、較正パラメータをDCA 930へ伝達して、DCA 930によって取り込まれるSL要素の位置をより正確に決定するようにDCA 930の焦点を調整することができる。トラッキングモジュール955によって行われる較正によりまた、ヘッドセット905のIMU 920、および/またはI/Oインターフェース940に含まれるIMU 920から受け取った情報が明らかになる。加えて、ヘッドセット905が追跡されなくなった場合に(たとえば、DCA 930の、少なくとも閾値数の投射SL要素の視線がなくなる)、トラッキングモジュール955は、システム900の一部または全部を再較正することができる。
トラッキングモジュール955は、ヘッドセット905またはI/Oインターフェース940の移動を、DCA 930、1つまたは複数の位置センサ925、IMU 920、またはこれらのどれかの組み合わせからの情報を用いて追跡する。たとえば、トラッキングモジュール955は、局所エリアのマッピング中のヘッドセット905の基準点の位置をヘッドセット905からの情報に基づいて決定する。トラッキングモジュール955はまた、対象物または仮想対象物の位置を決定することもできる。加えて、いくつかの実施形態では、トラッキングモジュール955は、ヘッドセット905の位置を示すIMU 920からのデータの部分、ならびにDCA 930からの局所エリアの写像を用いて、ヘッドセット905の将来のロケーションを予測することができる。トラッキングモジュール955は、ヘッドセット905またはI/Oインターフェース940の予想または予測将来位置をエンジン960に提供することができる。
エンジン960は、アプリケーションを実行し、ヘッドセット905の位置情報、加速度情報、速度情報、予測将来位置、またはこれらのどれかの組み合わせをトラッキングモジュール955から受け取る。受け取った情報に基づいて、エンジン960は、ユーザに提示するためにヘッドセット905に提供するコンテンツを決定する。たとえば、受け取った情報が、ユーザが左を見たことを示す場合、エンジン960は、仮想局所エリアにおいて、または追加のコンテンツで局所エリアを増補している局所エリアにおいて、ユーザの移動をミラーリングするヘッドセット905のコンテンツを生成する。加えて、エンジン960は、I/Oインターフェース940から受け取ったアクション要求に応答してコンソール945上で実行するアプリケーション中の動作を行い、その動作が行われたというフィードバックをユーザに与える。与えられるフィードバックは、ヘッドセット905を介する可視または可聴フィードバックでも、I/Oインターフェース940を介する触覚フィードバックでもよい。
追加の構成情報
本発明による諸実施形態は特に、方法、装置、および記憶媒体を対象とする添付の特許請求の範囲に開示されており、1つの請求項カテゴリ(たとえば、方法)で述べられているいずれの特徴もまた、別の請求項カテゴリ(たとえば、装置、記憶媒体、システム、およびコンピュータプログラム製品)で特許請求され得る。添付の特許請求の範囲の従属事項または参照事項は、正式の理由だけで選ばれている。しかし、先行する請求項を意図的に参照することにより得られるいずれの主題(特に多数の従属事項)もまた特許請求することができ、それにより、請求項およびその特徴の任意の組み合わせが開示されることになり、添付の特許請求の範囲において選ばれている従属事項にかかわらず特許請求され得る。特許請求できる主題は、添付の特許請求の範囲に詳述された特徴の組み合わせだけでなく、特許請求の範囲の他の任意の特徴の組み合わせも含み、特許請求の範囲に述べられている各特徴を、特許請求の範囲の任意の他の特徴または他の特徴の組み合わせと組み合わせることができる。さらに、本明細書に説明または描写された実施形態および特徴のいずれも、別個の請求項として、および/または本明細書に説明または描写された任意の実施形態および特徴との、または添付の特許請求の範囲の特徴のいずれかとの任意の組み合わせとして、特許請求することができる。
一実施形態では、1つまたは複数のコンピュータ可読の非一時的記憶媒体が、上に述べた実施形態のいずれかによる方法を行うように実行されたときに、または実施形態のいずれかの中で実行されたときに動作可能であるソフトウェアを具現化することができる。
一実施形態では、システムが、1つまたは複数のプロセッサと、そのプロセッサに結合され、プロセッサによって実行可能な命令を含む少なくとも1つのメモリとを備え、プロセッサは、上に述べた実施形態のいずれかによる方法を行うように命令を実行しているときに、または実施形態のいずれかの中で命令を実行しているときに動作可能である。
一実施形態では、好ましくはコンピュータ可読の非一時的記憶媒体を備えるコンピュータプログラム製品が、上に述べた実施形態のいずれかによる方法を行うように実行されたときに、または実施形態のいずれかの中で実行されたときに動作可能であり得る。
本開示の実施形態についての以上の説明は例示の目的で提示されており、網羅的なものではなく、あるいは開示されたそのままの形に本開示を限定するものではない。当業者には、上記の開示に照らして多くの修正形態および変形形態が可能であることが理解できよう。
本明細書のいくつかの部分は、本開示の実施形態を情報の操作のアルゴリズムおよび記号表現に関して説明している。これらのアルゴリズムに関する説明および表現は、データ処理技術分野の当業者がその仕事の内容を他の当業者に効果的に伝えるために通常使用されている。これらの動作は、機能的、計算的、または論理的に説明されているが、コンピュータプログラムまたは同等の電気回路、マイクロコードなどによって実現されると理解される。さらに、これらの動作装置をモジュールと呼ぶことが場合により便利であることが、一般性を失うことなく判明している。説明された動作およびその関連するモジュールは、ソフトウェア、ファームウェア、ハードウェア、またはこれらの任意の組み合わせとして具現化することができる。
本明細書に記載のステップ、動作、または処理のいずれも、1つまたは複数のハードウェアまたはソフトウェアモジュールだけで、または他のデバイスとの組み合わせで行い、または実施することができる。1つの実施形態では、ソフトウェアモジュールが、コンピュータプログラムコードを含有するコンピュータ可読媒体を備えたコンピュータプログラム製品によって実施され、このコンピュータプログラムコードは、記載されたステップ、動作、または処理のいずれか、または全部を行うために、コンピュータプロセッサによって実行することができる。
本開示の実施形態はまた、本明細書の動作を行うための装置とも関連がある。この装置は、必要とされる目的のために特別に造ることができ、かつ/または、コンピュータに記憶されたコンピュータプログラムによって選択的に起動もしくは再構成される汎用計算デバイスを備えることができる。このようなコンピュータプログラムは、非一時的な有形のコンピュータ可読記憶媒体、または電子的命令を記憶するのに適している任意のタイプの媒体に記憶することができ、これらの媒体はコンピュータシステムバスに結合することができる。さらに、本明細書で言及されるいずれの計算システムも、単一のプロセッサを含むことができ、あるいは計算能力の増大のために多数のプロセッサ設計を使うアーキテクチャとすることができる。
本開示の実施形態はまた、本明細書に記載の計算処理によって製造される製品にも関連があり得る。このような製品は、計算処理から得られた情報を備えることができ、この情報は、非一時的な有形のコンピュータ可読記憶媒体に記憶され、本明細書に記載のコンピュータプログラム製品または他のデータ組み合わせの任意の実施形態を含み得る。
最後に、本明細書に使用される言葉は、主として読みやすさおよび教示の目的のために選ばれており、本発明の主題を詳細に叙述または範囲を定めるために選ばれてはいないことがある。したがって、本開示の範囲は、本明細書の「発明を実施するための形態」によってではなく、本明細書に基づいて出願時に出されるいずれかの特許請求の範囲によって限定されるものである。それゆえに、諸実施形態の開示は、添付の特許請求の範囲に明示されている本開示の範囲を限定するものではなく、例示するものである。

Claims (20)

  1. 照明命令に従って1つまたは複数の構造化光(SL)パターンを局所エリアに投射するように構成されたSL投射器と、
    前記1つまたは複数のSLパターンを含む前記局所エリアの一部分の画像を取り込むように構成されたカメラアセンブリと、
    コントローラであり、
    前記局所エリアのコントラスト量を、前記取り込まれた画像に部分的に基づいて決定し、
    前記局所エリア内の、第1のコントラスト量を有する第1の関心領域と、前記局所エリア内の、前記第1のコントラスト量よりも多い第2のコントラスト量を有する第2の関心領域とを識別し、
    前記第1の関心領域内の前記第1のコントラスト量と、前記第2の関心領域内の前記第2のコントラスト量とに部分的に基づいて前記照明命令を更新し、
    前記更新された照明命令を前記SL投射器に与えるように構成されたコントローラと
    を備える深度カメラアセンブリ(DCA)であって、前記更新された照明命令により前記SL投射器が第1のSLパターンを前記第1の関心領域に投射し、第2のSLパターンを前記第2の関心領域に投射する、深度カメラアセンブリ(DCA)。
  2. 前記コントローラがさらに、
    前記局所エリアについて記述する情報をマッピングサーバへ送信するように構成され、前記情報が前記局所エリアの少なくとも前記部分についての視覚情報を含む、請求項1に記載のDCA。
  3. 前記コントローラがさらに、
    前記局所エリアのコントラストをコントラストアルゴリズムを用いて計算するように構成される、請求項1に記載のDCA。
  4. 前記コントラストアルゴリズムが、ピクセルごとのコントラストのスライディングウィンドウ最大値を計算することを含む、請求項3に記載のDCA。
  5. 前記コントローラが、前記局所エリア内の前記第1の関心領域を、前記第1の関心領域内の対象物の移動を検出することに基づいて識別するように構成される、請求項1に記載のDCA。
  6. 前記コントローラが、
    前記局所エリア内の前記第1の関心領域を、前記第1の関心領域内の遮られた対象物を検出することに基づいて識別し、
    前記遮られた対象物を検出することに応答して前記第1の関心領域のテクスチャの量を減少させるように構成され、前記遮られた対象物が物理的対象物であり、前記物理的対象物が仮想対象物によって遮られる、請求項1に記載のDCA。
  7. 前記コントローラが、
    前記局所エリア内の仮想対象物の予想ロケーションを決定し、
    前記第1のSLパターンの電力レベルを前記仮想対象物の前記予想ロケーションに基づいて選択するように構成される、請求項1に記載のDCA。
  8. 前記第2のSLパターンが前記第1のSLパターンとは異なる、請求項1に記載のDCA。
  9. 前記コントローラが、前記局所エリアについて記述するパラメータをマッピングサーバから受け取るように構成される、請求項1に記載のDCA。
  10. 前記コントローラが、
    SLパターンを全く用いずに取り込まれた第1の画像を、前記SLパターンのうちの1つを含有する第2の画像から減算し、
    前記減算に基づいて、IR照明のバックグラウンドレベルを決定するように構成される、請求項1に記載のDCA。
  11. 局所エリアのコントラスト量を決定すること、
    前記局所エリア内の、第1のコントラスト量を有する第1の関心領域と、前記局所エリア内の、前記第1のコントラスト量よりも多い第2のコントラスト量を有する第2の関心領域とを識別すること、
    前記第1の関心領域内の前記第1のコントラスト量と、前記第2の関心領域内の前記第2のコントラスト量とに部分的に基づいて照明命令を更新すること、および
    前記更新された照明命令をSL投射器に与えることを含む方法であって、前記更新された照明命令により、前記SL投射器が第1のSLパターンを前記第1の関心領域に投射し、第2のSLパターンを前記第2の関心領域に投射する、方法。
  12. 前記局所エリアについて記述する情報をマッピングサーバへ送信することをさらに含み、前記情報が前記局所エリアの少なくとも一部分についての視覚情報を含む、請求項11に記載の方法。
  13. 前記局所エリアのコントラストをコントラストアルゴリズムを用いて計算することをさらに含む、請求項11に記載の方法。
  14. 前記コントラストアルゴリズムが、ピクセルごとのコントラストのスライディングウィンドウを計算することを含む、請求項13に記載の方法。
  15. 前記局所エリア内の前記第1の関心領域を、前記第1の関心領域内の対象物の移動を検出することに基づいて識別することをさらに含む、請求項11に記載の方法。
  16. 前記局所エリア内の前記第1の関心領域を、前記第1の関心領域内の遮られた対象物を検出することに基づいて識別することをさらに含む、請求項11に記載の方法。
  17. 前記遮られた対象物を検出することに応答して前記第1の関心領域のテクスチャの量を減少させることをさらに含む、請求項16に記載の方法。
  18. 前記遮られた対象物が物理的対象物であり、前記物理的対象物が仮想対象物によって遮られる、請求項17に記載の方法。
  19. 前記局所エリアについて記述するパラメータをマッピングサーバから受け取ることをさらに含む、請求項11に記載の方法。
  20. 符号化された命令であり、プロセッサによって実行されたときに、前記プロセッサが、
    局所エリアのコントラスト量を決定すること、
    前記局所エリア内の、第1のコントラスト量を有する第1の関心領域と、前記局所エリア内の、前記第1のコントラスト量よりも多い第2のコントラスト量を有する第2の関心領域とを識別すること、
    前記第1の関心領域内の前記第1のコントラスト量と、前記第2の関心領域内の前記第2のコントラスト量とに部分的に基づいて照明命令を更新すること、および
    前記更新された照明命令をSL投射器に与えること
    を含む動作を行う、符号化された命令を有する非一時的なコンピュータ可読記憶媒体であって、前記更新された照明命令により、前記SL投射器が第1のSLパターンを前記第1の関心領域に投射し、第2のSLパターンを前記第2の関心領域に投射する、非一時的なコンピュータ可読記憶媒体。
JP2020558925A 2018-05-21 2019-05-20 深度検知システム用の動的構造化光 Active JP7307093B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862674430P 2018-05-21 2018-05-21
US62/674,430 2018-05-21
US16/415,202 US11182914B2 (en) 2018-05-21 2019-05-17 Dynamic structured light for depth sensing systems based on contrast in a local area
US16/415,202 2019-05-17
PCT/US2019/033129 WO2019226552A1 (en) 2018-05-21 2019-05-20 Dynamic structured light for depth sensing systems

Publications (2)

Publication Number Publication Date
JP2021524021A true JP2021524021A (ja) 2021-09-09
JP7307093B2 JP7307093B2 (ja) 2023-07-11

Family

ID=68533883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020558925A Active JP7307093B2 (ja) 2018-05-21 2019-05-20 深度検知システム用の動的構造化光

Country Status (6)

Country Link
US (6) US11182914B2 (ja)
EP (1) EP3797316B1 (ja)
JP (1) JP7307093B2 (ja)
KR (1) KR20210013572A (ja)
CN (1) CN112154352B (ja)
WO (1) WO2019226552A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9132352B1 (en) 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
US11182914B2 (en) * 2018-05-21 2021-11-23 Facebook Technologies, Llc Dynamic structured light for depth sensing systems based on contrast in a local area
US10818028B2 (en) * 2018-12-17 2020-10-27 Microsoft Technology Licensing, Llc Detecting objects in crowds using geometric context
US11587247B1 (en) 2019-04-03 2023-02-21 Meta Platforms Technologies, Llc Synchronous event driven readout of pixels in a detector for direct time-of-flight depth sensing
US11386237B2 (en) * 2019-06-19 2022-07-12 Facebook Technologies, Llc Scalable encryption engine having partitionable data paths
CN114175629A (zh) * 2019-07-26 2022-03-11 惠普发展公司, 有限责任合伙企业 基于捕捉的图像内的被识别的点来修改投射的结构光
WO2021030034A1 (en) 2019-08-15 2021-02-18 Apple Inc. Depth mapping using spatial multiplexing of illumination phase
US10805549B1 (en) * 2019-08-20 2020-10-13 Himax Technologies Limited Method and apparatus of auto exposure control based on pattern detection in depth sensing system
US20210055419A1 (en) * 2019-08-20 2021-02-25 Apple Inc. Depth sensor with interlaced sampling structure
US20210156881A1 (en) * 2019-11-26 2021-05-27 Faro Technologies, Inc. Dynamic machine vision sensor (dmvs) that performs integrated 3d tracking
EP3832537A1 (en) * 2019-12-05 2021-06-09 Axis AB Thermal camera health monitoring
EP3832538B1 (en) 2019-12-05 2022-05-11 Axis AB Automatic malfunction detection in a thermal camera
WO2021113781A1 (en) * 2019-12-06 2021-06-10 Magic Leap, Inc. Environment acoustics persistence
CN111123386A (zh) * 2019-12-19 2020-05-08 中国空间技术研究院 一种基于动态视觉传感器的偏振成像探测装置及探测方法
US11340696B2 (en) * 2020-01-13 2022-05-24 Sony Interactive Entertainment Inc. Event driven sensor (EDS) tracking of light emitting diode (LED) array
US11763472B1 (en) 2020-04-02 2023-09-19 Apple Inc. Depth mapping with MPI mitigation using reference illumination pattern
WO2021252153A1 (en) 2020-06-11 2021-12-16 Apple Inc. Global-shutter image sensor with time-of-flight sensing capability
US11480684B2 (en) * 2020-06-18 2022-10-25 Meta Platforms Technologies, Llc Time of flight depth system including an illumination source with addressable illumination blocks
GB2597928B (en) * 2020-08-05 2024-09-25 Envisics Ltd Light detection and ranging
JP2022049269A (ja) * 2020-09-16 2022-03-29 セイコーエプソン株式会社 三次元形状計測方法および三次元形状計測装置
US11682130B2 (en) * 2021-06-22 2023-06-20 Microsoft Technology Licensing, Llc Device case including a projector
US11557054B1 (en) * 2021-06-24 2023-01-17 Himax Technologies Limited Method for performing region-of-interest-based depth detection with aid of pattern-adjustable projector, and associated apparatus
WO2023208372A1 (en) * 2022-04-29 2023-11-02 Huawei Technologies Co., Ltd. Camera system and method for determining depth information of an area
US12059609B2 (en) 2022-06-10 2024-08-13 Sony Interactive Entertainment Inc. Asynchronous dynamic vision sensor LED AI tracking system and method
US12064682B2 (en) * 2022-06-10 2024-08-20 Sony Interactive Entertainment Inc. Deployment of dynamic vision sensor hybrid element in method for tracking a controller and simultaneous body tracking, slam or safety shutter
US12029971B2 (en) 2022-06-10 2024-07-09 Sony Interactive Entertainment LLC Hybrid pixel dynamic vision sensor tracking using IR and ambient light (or depth sensor)
US11995226B2 (en) 2022-06-10 2024-05-28 Sony Interactive Entertainment Inc. Dynamic vision sensor tracking based on light source occlusion
WO2024081154A1 (en) * 2022-10-12 2024-04-18 Snap Inc. Energy-efficient adaptive 3d sensing
US12001024B2 (en) 2022-10-12 2024-06-04 Snap Inc. Energy-efficient adaptive 3D sensing
US20240169673A1 (en) * 2022-11-21 2024-05-23 Samsung Electronics Co., Ltd. Mesh transformation with efficient depth reconstruction and filtering in passthrough augmented reality (ar) systems
CN116721109B (zh) * 2023-08-11 2023-11-03 合肥图迅电子科技有限公司 一种双目视觉图像半全局匹配方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010091491A (ja) * 2008-10-10 2010-04-22 Fujifilm Corp 3次元形状計測用撮影装置および方法並びにプログラム
US20170195653A1 (en) * 2016-01-04 2017-07-06 Oculus Vr, Llc Dynamic control over structured illumination intensity
JP2017191083A (ja) * 2016-04-15 2017-10-19 株式会社イデアクエスト 輝点画像取得装置および輝点画像取得方法

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7728845B2 (en) 1996-02-26 2010-06-01 Rah Color Technologies Llc Color calibration of color image rendering devices
EP1220182A3 (en) 2000-12-25 2005-08-17 Matsushita Electric Industrial Co., Ltd. Image detection apparatus, program, and recording medium
JP4915737B2 (ja) 2007-03-13 2012-04-11 興和株式会社 画像解析システム、及び画像解析プログラム
JP4856612B2 (ja) 2007-10-29 2012-01-18 富士重工業株式会社 物体検出装置
US8351685B2 (en) 2007-11-16 2013-01-08 Gwangju Institute Of Science And Technology Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
US8294762B2 (en) 2008-10-10 2012-10-23 Fujifilm Corporation Three-dimensional shape measurement photographing apparatus, method, and program
JP5188430B2 (ja) 2009-03-24 2013-04-24 富士重工業株式会社 画像処理装置
EP2389004B1 (en) 2010-05-20 2013-07-24 Sony Computer Entertainment Europe Ltd. 3D camera and imaging method
KR101681538B1 (ko) 2010-10-20 2016-12-01 삼성전자주식회사 영상 처리 장치 및 방법
US9865083B2 (en) 2010-11-03 2018-01-09 Industrial Technology Research Institute Apparatus and method for inpainting three-dimensional stereoscopic image
EP2605506B1 (en) 2010-11-16 2019-04-10 Honda Motor Co., Ltd. Displacement magnitude detection device for vehicle-mounted camera
JP5979500B2 (ja) 2011-04-07 2016-08-24 パナソニックIpマネジメント株式会社 立体撮像装置
US9300946B2 (en) 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
TW201323262A (zh) 2011-12-02 2013-06-16 Hon Hai Prec Ind Co Ltd 車輛輔助系統及車輛輔助方法
EP2602588A1 (en) 2011-12-06 2013-06-12 Hexagon Technology Center GmbH Position and Orientation Determination in 6-DOF
US9478037B2 (en) 2011-12-08 2016-10-25 Intel Corporation Techniques for efficient stereo block matching for gesture recognition
JP5320524B1 (ja) 2012-01-20 2013-10-23 パナソニック株式会社 ステレオ撮影装置
US9361699B2 (en) 2012-06-27 2016-06-07 Imec Taiwan Co. Imaging system and method
JP2014009975A (ja) 2012-06-28 2014-01-20 Hitachi Automotive Systems Ltd ステレオカメラ
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
US20140139632A1 (en) * 2012-11-21 2014-05-22 Lsi Corporation Depth imaging method and apparatus with adaptive illumination of an object of interest
JP6407509B2 (ja) 2013-04-18 2018-10-17 シャープ株式会社 制御装置および表示装置
CA2917221A1 (en) 2013-07-02 2015-01-08 Lg Electronics Inc. Method and apparatus for processing 3-dimensional image including additional object in system providing multi-view image
US9595125B2 (en) 2013-08-30 2017-03-14 Qualcomm Incorporated Expanding a digital representation of a physical plane
CN113256730B (zh) 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的系统和方法
WO2016073699A1 (en) * 2014-11-05 2016-05-12 Trw Automotive U.S. Llc Augmented object detection using structured light
JP6566654B2 (ja) 2015-02-13 2019-08-28 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム、および記憶媒体
KR101954855B1 (ko) * 2015-02-25 2019-03-06 페이스북, 인크. 볼륨 내 물체의 심도 맵핑을 위한 광 패턴의 강도 변화의 사용
JP6233345B2 (ja) 2015-04-17 2017-11-22 トヨタ自動車株式会社 路面勾配検出装置
JP6121641B1 (ja) 2015-06-24 2017-04-26 京セラ株式会社 画像処理装置、ステレオカメラ装置、車両、及び画像処理方法
WO2017043258A1 (ja) 2015-09-09 2017-03-16 シャープ株式会社 計算装置および計算装置の制御方法
US10659766B2 (en) 2015-10-30 2020-05-19 Canon Kabushiki Kaisha Confidence generation apparatus, confidence generation method, and imaging apparatus
US10440355B2 (en) 2015-11-06 2019-10-08 Facebook Technologies, Llc Depth mapping with a head mounted display using stereo cameras and structured light
EP3373240B1 (en) 2015-11-30 2019-10-02 Huawei Technologies Co., Ltd. Image processing method and dual-camera system
US10708577B2 (en) 2015-12-16 2020-07-07 Facebook Technologies, Llc Range-gated depth camera assembly
JP2017129788A (ja) 2016-01-21 2017-07-27 キヤノン株式会社 焦点検出装置及び方法、及び撮像装置
JP6611660B2 (ja) 2016-04-13 2019-11-27 富士フイルム株式会社 画像位置合わせ装置および方法並びにプログラム
US10469722B2 (en) * 2016-08-29 2019-11-05 Facebook Technologies, Llc Spatially tiled structured light projector
JP2018036898A (ja) 2016-08-31 2018-03-08 キヤノン株式会社 画像処理装置及びその制御方法
US20180262744A1 (en) 2017-02-07 2018-09-13 Mindmaze Holding Sa Systems, methods and apparatuses for stereo vision
US11380005B2 (en) 2017-05-19 2022-07-05 Movidius Limited Methods, systems and apparatus to optimize pipeline execution
US10362296B2 (en) * 2017-08-17 2019-07-23 Microsoft Technology Licensing, Llc Localized depth map generation
CN109523555A (zh) 2017-09-18 2019-03-26 百度在线网络技术(北京)有限公司 用于无人驾驶车辆的前车刹车行为检测方法和装置
US10878574B2 (en) 2018-02-21 2020-12-29 Topcon Corporation 3D quantitative analysis of retinal layers with deep learning
US11182914B2 (en) 2018-05-21 2021-11-23 Facebook Technologies, Llc Dynamic structured light for depth sensing systems based on contrast in a local area
CN111337010B (zh) 2018-12-18 2022-05-03 北京地平线机器人技术研发有限公司 可移动设备的定位方法、定位装置及电子设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010091491A (ja) * 2008-10-10 2010-04-22 Fujifilm Corp 3次元形状計測用撮影装置および方法並びにプログラム
US20170195653A1 (en) * 2016-01-04 2017-07-06 Oculus Vr, Llc Dynamic control over structured illumination intensity
JP2017191083A (ja) * 2016-04-15 2017-10-19 株式会社イデアクエスト 輝点画像取得装置および輝点画像取得方法

Also Published As

Publication number Publication date
WO2019226552A1 (en) 2019-11-28
EP3797316B1 (en) 2023-09-13
CN112154352B (zh) 2024-08-06
US10972715B1 (en) 2021-04-06
US11010911B1 (en) 2021-05-18
US10929997B1 (en) 2021-02-23
EP3797316A1 (en) 2021-03-31
KR20210013572A (ko) 2021-02-04
US20220036571A1 (en) 2022-02-03
US11703323B2 (en) 2023-07-18
US20190355138A1 (en) 2019-11-21
US20220028103A1 (en) 2022-01-27
US11182914B2 (en) 2021-11-23
US11740075B2 (en) 2023-08-29
JP7307093B2 (ja) 2023-07-11
CN112154352A (zh) 2020-12-29

Similar Documents

Publication Publication Date Title
JP7307093B2 (ja) 深度検知システム用の動的構造化光
US10317680B1 (en) Optical aberration correction based on user eye position in head mounted displays
US11122385B2 (en) Determination of acoustic parameters for a headset using a mapping server
US10529113B1 (en) Generating graphical representation of facial expressions of a user wearing a head mounted display accounting for previously captured images of the user's facial expressions
US11112389B1 (en) Room acoustic characterization using sensors
US10897570B1 (en) Room acoustic matching using sensors on headset
US11218831B2 (en) Determination of an acoustic filter for incorporating local effects of room modes
US11605191B1 (en) Spatial audio and avatar control at headset using audio signals
US11644894B1 (en) Biologically-constrained drift correction of an inertial measurement unit
US10795436B2 (en) Determining fixation of a user's eyes from images of portions of the user's face enclosed by a head mounted display
US11195291B1 (en) Dynamic illumination control for depth determination
US10495882B1 (en) Positioning cameras in a head mounted display to capture images of portions of a face of a user
US20230085063A1 (en) Vcsel chip for generation of linear structured light patterns and flood illumination
WO2023039288A1 (en) Vcsel chip for generation of linear structured light patterns and flood illumination

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230629

R150 Certificate of patent or registration of utility model

Ref document number: 7307093

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150