JP2019533918A - 深度マッピング用のアレイ検出器 - Google Patents

深度マッピング用のアレイ検出器 Download PDF

Info

Publication number
JP2019533918A
JP2019533918A JP2019510907A JP2019510907A JP2019533918A JP 2019533918 A JP2019533918 A JP 2019533918A JP 2019510907 A JP2019510907 A JP 2019510907A JP 2019510907 A JP2019510907 A JP 2019510907A JP 2019533918 A JP2019533918 A JP 2019533918A
Authority
JP
Japan
Prior art keywords
dca
lens
pixels
detector
pixel group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2019510907A
Other languages
English (en)
Inventor
ダニエル トレイル、ニコラス
ダニエル トレイル、ニコラス
ナルディ、レンツォ デ
ナルディ、レンツォ デ
アンドリュー ニューコム、リチャード
アンドリュー ニューコム、リチャード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Facebook Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Technologies LLC filed Critical Facebook Technologies LLC
Publication of JP2019533918A publication Critical patent/JP2019533918A/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

深度カメラ部品(DCA)は、局所領域内の深度情報を記述するデータを捕捉する。DCAは、アレイ検出器、コントローラ、および照明源を含む。アレイ検出器は、レンズアレイと重なり合う検出器を含む。検出器は複数の画素を含み、複数の画素は複数の個別の画素群に分割される。レンズアレイは複数のレンズスタックを含み、各レンズスタックは個別の画素群と重なり合う。アレイ検出器は、照明源からの光で照明された局所領域の1つまたは複数の合成画像を捕捉する。コントローラは、1つまたは複数の合成画像を使用して局所領域内の物体に関する深度情報を決定する。

Description

本開示は、概して、仮想現実システムまたは拡張現実システムに関し、より詳細には、局所領域の深度情報を決定するために使用される情報を取得するアレイ検出器に関する。
仮想現実(VR:Virtual Reality)、拡張現実(AR:Augmented Reality)、および複合現実(MR:Mixed Reality)システムは、三次元(3D)でユーザを取り囲む環境の捕捉を活用することができる。しかしながら、従来の深度カメラ画像処理アーキテクチャは、サイズが比較的大きく、重量があり、かなりの量の電力を消費する。シーンの3D情報を取得するための例示的な深度カメラ撮像アーキテクチャは、例えば、ステレオビジョン、タイムオブフライト(ToF:Time−of−Flight)、および構造化光(SL:Structured Light)を含む。別々の深度カメラ撮像アーキテクチャは、別々の長所および短所を提供し、したがって、特定の深度カメラ撮像アーキテクチャは、別々の動作条件において他のものよりも優れた性能を提供し得る。例えば、ステレオビジョンアーキテクチャは、周囲照明で良好に動作するが、アクティブ照明源を有するToFアーキテクチャは、周囲照明からの信号対雑音比の制限によって正常に機能しない可能性がある。しかしながら、比較的大きいサイズの従来の深度カメラ撮像アーキテクチャのために、深度カメラを含む多くのシステムは、通常、特定の使用事例に対応するように構成された単一タイプの深度カメラ撮像アーキテクチャを使用している。ヘッドマウントシステムが様々な動作条件および環境においてより広範囲の機能を実行するために急速に使用されるにつれて、ヘッドマウントシステムおよびユーザを取り囲む領域の深度情報を得るために単一の深度カメラ撮像アーキテクチャを選択することは、ヘッドマウントシステムを用いたユーザエクスペリエンスを損なう可能性がある。さらに、HMDが屋内と屋外の両方で使用されるようになるにつれて、動作環境のダイナミクスは、捕捉されたデータ品質の高度な信頼性と弾力性の恩恵を受けることとなり得る。
深度カメラ部品(DCA)は、例えば、DCAを含むヘッドマウントディスプレイ(HMD)を取り囲む局所領域内の深度情報を記述するデータを捕捉する。DCAは、アレイ検出器、コントローラ、および照明源を含む。アレイ検出器は検出器を含み、検出器の一部はレンズアレイと重なっている。検出器は複数の画素を含み、複数の画素は複数の個別の画素群に分割されている。レンズアレイは複数のレンズスタックを含み、各レンズスタックは個別の画素群と重なり合う。アレイ検出器は、照明源からの光で照明された局所領域の1つまたは複数の合成画像を捕捉する。コントローラは、1つまたは複数の合成画像を使用して局所領域内の物体に関する深度情報を決定する。実施形態では、DCAがHMDの一部であり、電子ディスプレイ要素は、深度情報に部分的に基づいて仮想物体を表示する。そして、光学ブロックが電子ディスプレイ要素からの光をHMDの射出瞳に向ける。
レンズスタックは、局所領域からの光を活性領域の対応する部分に集束させる1つまたは複数の光学素子である。各レンズスタックは、レンズアレイ内の他のレンズスタックと同一でも異なっていてもよい。例えば、レンズスタックの1つまたは複数の光学素子は、焦点距離、F値、アパーチャ、透過波長、偏光などのうちの1つまたは複数が同じレンズアレイ内のレンズスタック間で異なるように変更され得る。各レンズスタックは、個々の画素群に対応する検出器の活性領域の別々の部分と重なってカメラユニットを形成する。したがって、単一の検出器および複数のレンズスタックは複数のカメラユニットを作り出す。検出器からの出力は、局所領域の合成画像を共に形成する各カメラユニットからの内容を含む。合成画像は、例えば、ステレオビジョン、フォトメトリックステレオ、構造化光(SL)、タイムオブフライト(ToF)、またはそれらのある組み合わせを含む様々な技術により局所領域に関する深度情報を決定するために、コントローラおよび/または仮想現実コンソールによって使用され得る。
本発明による実施形態は、特に、システムを対象とする添付の特許請求の範囲に開示されており、1つの請求項のカテゴリー、例えばシステムで言及される任意の特徴は別の特許請求の範囲の請求項のカテゴリー、例えば、方法で請求することができる。添付の特許請求の範囲に記載されている従属関係または参照は、形式的な理由からのみ選択されている。しかしながら、添付の特許請求の範囲で選択された従属関係にかかわらず、請求項およびその特徴の任意の組み合わせが、開示され、かつ請求することができるように、任意の前の請求項(特に、多数項従属)への意図的な参照から生じる任意の主題も請求することができる。特許請求することができる主題は、添付の特許請求の範囲に記載の特徴の組み合わせのみならず、特許請求の範囲における他のあらゆる特徴の組み合わせも含み、特許請求の範囲に記載の各特徴は他のあらゆる特徴または特許請求の範囲における他の特徴の組み合わせと組み合わせることができる。さらに、本明細書に記載または描写されている実施形態および特徴のいずれかは、別々の請求項において、および/または本明細書に記載もしくは描写されている任意の実施形態もしくは特徴と、または添付の請求項の特徴のいずれかとの任意の組み合わせで請求することができる。
本発明の一実施形態において、深度カメラ部品(DCA)は、
局所領域に光を投光するように構成された照明源と、
複数のレンズスタックを含むレンズアレイと重ね合わされる複数の画素を有する検出器を含むアレイ検出器と、複数の画素は別々の画素群に分割され、各レンズスタックは別々の画素群を覆い、アレイ検出器は、照明源からの光で照明された局所領域の1つまたは複数の合成画像を捕捉するように構成され、
1つまたは複数の合成画像を使用して局所領域内の物体に関する深度情報を決定するように構成されたコントローラとを含み得る。
DCAは、ヘッドマウントディスプレイ(HMD)の一部であり得、HMDは、
深度情報に部分的に基づいて仮想物体を表示するように構成された電子ディスプレイ要素と、
電子ディスプレイ要素からの光をHMDの射出瞳に向けるように構成された光学ブロックとを含む。
コントローラは、1つまたは複数の合成画像と、ステレオビジョン、タイムオブフライト、フォトメトリックステレオ、構造化光、またはそれらのある組み合わせからなる群から選択された深度測定技術とを使用して深度情報を決定するようにさらに構成され得る。
各画素群は同数の画素を含み得る。
少なくとも1つの画素群が、複数の画素の他の画素群とは異なる数の画素を有し得る。
レンズアレイは4つのレンズスタックを含み得、各対応する画素群は同数の画素を有し得る。
複数のレンズスタックのうちの1つのレンズスタックが、レンズ、回折素子、波長フィルタ、偏光子、アパーチャ、またはそれらのある組み合わせからなる群から選択された1つまたは複数の光学素子を含み得る。
レンズアレイ内の複数のレンズスタックのうちの少なくとも1つが、レンズアレイ内の他のレンズスタックとは別の少なくとも1つの光学素子を含み得る。
レンズアレイ内の各レンズスタックは、同じ1つまたは複数の光学素子を含み得る。
本発明の一実施形態において、深度カメラ部品(DCA)は、
局所領域に光を投光するように構成された照明源と、
複数のレンズスタックを含むレンズアレイと重ね合わされる複数の画素を有する検出器を含むアレイ検出器と、複数の画素は別々の画素群に分割され、各レンズスタックは別々の画素群を覆い、アレイ検出器は、照明源からの光で照明された局所領域の1つまたは複数の合成画像を捕捉するように構成され、
1つまたは複数の合成画像を仮想現実(VR)コンソールに提供するように構成されたコントローラとを備え得、VRコンソールは、1つまたは複数の合成画像に部分的に基づいて深度情報を決定し、深度情報に部分的に基づいて仮想物体を生成するように構成される。
各画素群は同数の画素を含み得る。
少なくとも1つの画素群が、複数の画素の他の画素群とは異なる数の画素を有し得る。
レンズアレイは4つのレンズスタックを含み得、各対応する画素群は同数の画素を有し得る。
複数のレンズスタックのうちの1つのレンズスタックが、回折素子、波長フィルタ、偏光子、アパーチャ、またはそれらのある組み合わせからなる群から選択された1つまたは複数の光学素子を含み得る。
レンズアレイ内の複数のレンズスタックのうちの少なくとも1つが、レンズアレイ内の他のレンズスタックとは別の少なくとも1つの光学素子を含み得る。
本発明の一実施形態において、深度カメラ部品(DCA)は、
局所領域に光を投光するように構成された照明源と、
複数のレンズスタックを含むレンズアレイと重ね合わされる複数の画素を有する検出器を含むアレイ検出器と、複数の画素は別々の画素群に分割され、各レンズスタックは別々の画素群を覆い、アレイ検出器は、照明源からの光で照明された局所領域の1つまたは複数の合成画像を捕捉するように構成され、
1つまたは複数の合成画像を使用して局所領域内の物体に関する深度情報を決定するように構成されたコントローラと、および/または
1つまたは複数の合成画像を仮想現実(VR)コンソールに提供するように構成されたコントローラとを備え得、VRコンソールは、1つまたは複数の合成画像に部分的に基づいて深度情報を決定し、深度情報に部分的に基づいて仮想物体を生成するように構成される。
本発明の一実施形態において、深度カメラ部品(DCA)は、
局所領域に光を投光するように構成された照明源と、
アレイ検出器であって、
第1の画素群を含む第1の検出器と、
第1の検出器に隣接して配置され、第2の画素群を含む第2の検出器と、
第1のレンズスタックと第2のレンズスタックとを含むレンズアレイとを含み、第1のレンズスタックは第1の画素群と重なり合い、第2のレンズスタックは第2の画素群と重なり合い、
特定の時間範囲に亘り第1の検出器によって捕捉された局所領域の画像と、特定の時間範囲に亘り第2の検出器によって捕捉された局所領域の画像とが共に合成画像を構成する、アレイ検出器と、
合成画像を使用して局所領域内の物体に関する深度情報を決定するように構成されたコントローラとを備え得る。
第1の画素群および第2の画素群は、同数の画素を含み得る。
第1の画素群は、第2の画素群とは異なる数の画素を有し得る。
第1のレンズスタックおよび第2のレンズスタックが、回折素子、波長フィルタ、偏光子、アパーチャ、またはそれらのある組み合わせからなる群から選択された1つまたは複数の光学素子を含み得る。
第1のレンズスタックが、第2のレンズスタックとは別の少なくとも1つの光学素子を含み得る。
コントローラは、合成画像と、ステレオビジョン、タイムオブフライト、フォトメトリックステレオ、構造化光、またはそれらのある組み合わせからなる群から選択された深度測定技術とを使用して深度情報を決定するようにさらに構成され得る。
一実施形態による仮想現実システムを含むシステム環境のブロック図である。 一実施形態によるヘッドマウントディスプレイの図である。 一実施形態による深度カメラ部品を含むヘッドマウントディスプレイの前側硬質本体の断面図である。 一実施形態による深度カメラ部品のアレイ検出器の上面図である。
図面は、例示のみを目的として本開示の実施形態を示す。当業者であれば、以下の説明から、本明細書で説明した構造および方法の代替の実施形態を、本明細書に記載の原理または利点から逸脱することなく用いることができることを容易に認識するであろう。
システムの概要
図1は、VRコンソール110が動作する仮想現実(VR)システム環境100の一実施形態のブロック図である。図1は例示の目的でVRシステム環境を示しているが、本明細書に記載のコンポーネントおよび機能は、様々な実施形態において拡張現実(AR)システムまたは複合現実(MR)システムにも含まれ得る。本明細書で使用されるように、VRシステム環境100は、ユーザが対話することができる仮想環境をユーザに提示する仮想現実システム環境を含み得る。図1に示すVRシステム環境100は、ヘッドマウントディスプレイ(HMD)105と、VRコンソール110に結合されたVR入出力(I/O)インタフェース115とを備える。図1は、1つのHMD105および1つのVR I/Oインタフェース115を含む例示的なシステム100を示しているが、他の実施形態では、任意の数のこれらのコンポーネントがVRシステム環境100に含まれてもよい。例えば、複数のHMD105が設けられ、各HMD105が関連のVR I/Oインタフェース115を有し、各HMD105およびVR I/Oインタフェース115がVRコンソール110と通信してもよい。代替の構成では、異なるおよび/または追加のコンポーネントをVRシステム環境100に含ませることができる。さらに、いくつかの実施形態において図1に示される1つまたは複数の構成要素と関連して説明される機能が、図1に関連して説明したのとは異なる方法で複数の構成要素に分配されてもよい。例えば、VRコンソール110の機能の一部または全部は、HMD105によって提供される。
HMD105は、コンピュータが生成した要素(例えば、2次元(2D)または3次元(3D)画像、2Dまたは3D動画、音声他)を用いて物理的な現実世界環境の拡張ビューを含むコンテンツをユーザに提示するヘッドマウントディスプレイである。いくつかの実施形態では、提示されるコンテンツは、HMD105、VRコンソール110、またはその両方からオーディオ情報を受信し、オーディオ情報に基づいてオーディオデータを提示する外部デバイス(例えば、スピーカおよび/またはヘッドフォン)を介して提示されるオーディオを含む。HMD105は、互いに強固にまたは非剛性に結合され得る1つまたは複数の硬質本体を備え得る。硬質本体間の堅固な結合は、結合された硬質本体を単一の硬質本体として機能させる。対照的に、硬質本体間の非剛性結合は、硬質本体が互いに対して移動することを可能にする。
HMD105は、深度カメラ部品(DCA:Depth Camera Assembly)120、電子ディスプレイ125、光学ブロック130、1つまたは複数の位置センサ135、および慣性測定ユニット(IMU:Inertial Measurement Unit)140を含む。HMD105のいくつかの実施形態は、図1に関連して説明されるものとは異なるコンポーネントを有する。さらに、図1に関連して説明した様々な構成要素によって提供される機能は、他の実施形態では、HMD105の構成要素において異なるようにして分散されるか、またはHMD105から遠隔の別個の部品において取り込まれてもよい。
DCA120は、HMD105の周囲の領域の深度情報を記述するデータを捕捉する。深度情報を記述するデータは、深度情報を決定するために使用される以下の技術、ステレオビジョン、フォトメトリックステレオ(photometric stereo)、構造化光(SL)、およびタイムオブフライト(ToF)のうちの1つまたはそれらのある組み合わせと関連付けされ得る。DCA120は、データを使用して深度情報を計算することができるか、あるいはDCA120は、DCA120からのデータを使用して深度情報を決定することができるVRコンソール110などの別のデバイスにこの情報を送信することができる。
一実施形態では、DCA120は、照明源、アレイ検出器、およびコントローラを含む。照明源は、HMDを取り囲む領域に光を放射する。アレイ検出器は、周囲光と、その領域内の物体から反射された照明源からの光とを捕捉する。アレイ検出器は、アレイ検出器の活性領域を複数の領域に分割するレンズアレイを含み(例えば、レンズアレイは4つの別々のレンズスタックを含み得る)、各領域は局所領域の別々の視点を提供する。アレイ検出器は、深度情報をより良く抽出するために局所領域の複数の視野に関するデータを提供するように構成される。コントローラは、照明源がどのように光を放射するか、およびアレイ検出器がどのように光を捕捉するかを調整する。DCA120の動作に関するさらなる詳細は、図3に関して以下に説明される。
電子ディスプレイ125は、VRコンソール110から受信したデータに従って2Dまたは3D画像をユーザに表示する。種々の実施形態において、電子ディスプレイ125は、単一の電子ディスプレイまたは複数の電子ディスプレイ(例えば、ユーザの各眼に対するディスプレイ)を含む。例示的な電子ディスプレイ125は、液晶ディスプレイ(LCD:liquid crystal display)、有機発光ダイオード(OLED:organic light emitting diode)ディスプレイ、アクティブマトリクス有機発光ダイオードディスプレイ(AMOLED:active−matrix organic light−emitting diode)、その他のディスプレイ、またはそれらの組み合わせを含む。
光学ブロック130は、電子ディスプレイ125から受け取った画像光を拡大し、画像光に関連する光学誤差を補正し、かつ補正された画像光をHMD105のユーザに提示する。様々な実施形態において、光学ブロック130は、1つまたは複数の光学素子を含む。光学ブロック130に含まれる例示的な光学素子は、アパーチャ、フレネルレンズ、凸レンズ、凹レンズ、フィルタ、反射面、または画像光に影響を与える他の任意の適切な光学素子を含む。さらに、光学ブロック130は、異なる光学素子の組み合わせを含み得る。いくつかの実施形態では、光学ブロック130内の1つまたは複数の光学素子は、部分反射コーティングまたは反射防止コーティングのような1つまたは複数のコーティングを有することができる。
光学ブロック130による画像光の拡大および集束は、より大きなディスプレイよりも電子ディスプレイ125を物理的に小さくし、重量を低減し、消費電力を低減することを可能にする。さらに、拡大は、電子ディスプレイ125によって提示されるコンテンツの視野を増加させる。例えば、表示されたコンテンツの視野は、表示されたコンテンツが、ユーザの視野のほぼすべて(例えば、約110度傾斜)、および場合によっては全部を使用して提示されるようになる。さらにいくつかの実施形態では、光学素子を追加または除去することによって拡大の量を調整することができる。
いくつかの実施形態では、光学ブロック130は、1つまたは複数のタイプの光学誤差を補正するように設計されてもよい。光学誤差の例には、バレル歪み、ピンクッション歪み、軸上色収差、または横方向色収差が含まれる。他のタイプの光学誤差は、球面収差、色収差またはレンズ像面湾曲による誤差、非点収差、または他のタイプの光学誤差をさらに含み得る。いくつかの実施形態では、表示のために電子ディスプレイ125に提供されるコンテンツは予歪状態であり、光学ブロック130は、コンテンツに基づいて生成された電子ディスプレイ125から画像光を受け取るときに歪みを補正する。
IMU140は、1つまたは複数の位置センサ135から受信した測定信号およびDCA120から受信した深度情報に基づいて、HMD105の位置を示すデータを生成する電子デバイスである。位置センサ135は、HMD105の動きに応答した1つまたは複数の測定信号を生成する。位置センサ135の例には、1つまたは複数の加速度計、1つまたは複数のジャイロスコープ、1つまたは複数の磁力計、動きを検出する別の適切なタイプのセンサ、IMU140の誤差訂正に使用されるあるタイプのセンサ、またはそれらの組み合わせが含まれる。位置センサ135は、IMU140の外部に、IMU140の内部に、またはそれらの位置の組み合わせに配置することができる。
IMU140は、1つまたは複数の位置センサ135からの1つまたは複数の測定信号に基づいて、HMD105の初期位置に対するHMD105の推定の現在位置を示すデータを生成する。例えば、センサ135は、並進運動(前後、上下、左右)を測定する複数の加速度計、および回転運動(例えば、ピッチ、ヨー、ロール)を測定する複数のジャイロスコープを含む。いくつかの実施形態では、IMU140は測定信号を迅速にサンプリングし、サンプリングされたデータからHMD105の推定の現在位置を計算する。例えば、IMU140は、加速度計から受信した測定信号を経時的に積分して速度ベクトルを推定し、速度ベクトルを経時的に積分して、HMD105上の基準点の推定の現在位置を決定する。代替的に、IMU140は、サンプリングされた測定信号をVRコンソール110に提供し、VRコンソール110がデータを解釈して誤差を低減する。基準点は、HMD105の位置を特徴付けるために使用され得る点である。基準点は、一般に、HMD105の向きおよび位置に関連する空間内の点または位置として定義され得る。
IMU140は、VRコンソール110から1つまたは複数のパラメータを受信する。以下でさらに説明するように、1つまたは複数のパラメータは、HMD105の追跡を維持するために使用される。受信したパラメータに基づいて、IMU140は、1つまたは複数のIMUパラメータ(例えば、サンプルレート)を調整することができる。いくつかの実施形態では、特定のパラメータによって、IMU140は、基準点の初期位置が基準点の次の位置に対応するように基準点の初期位置を更新する。基準点の次の較正された位置として基準点の初期位置を更新することは、IMU140の推定の現在の位置に関連する累積誤差を低減するのに役立つ。累積誤差は、ドリフト誤差とも呼ばれ、推定の基準点の位置を基準点の実際の位置から経時的に「離脱」させる。HMD105のいくつかの実施形態では、IMU140は、専用ハードウェアコンポーネントであってもよい。他の実施形態では、IMU140は、1つまたは複数のプロセッサに実装されたソフトウェアコンポーネントであってもよい。
VR I/Oインタフェース115は、ユーザがアクション要求を送信し、VRコンソール110から応答を受信することを可能にするデバイスである。アクション要求は、特定のアクションを実行するための要求である。例えば、アクション要求は、画像またはビデオデータの捕捉を開始または終了するための命令、またはアプリケーション内で特定のアクションを実行するための命令であってもよい。VR I/Oインタフェース115は、1つまたは複数の入力デバイスを含むことができる。例示的な入力デバイスには、キーボード、マウス、ゲームコントローラ、またはアクション要求を受け取り、VRコンソール110にアクション要求を伝達するための他の適切な装置が含まれる。VR I/Oインタフェース115によって受信されたアクション要求は、アクション要求に対応するアクションを実行するVRコンソール110に伝達される。いくつかの実施形態では、VR I/Oインタフェース115は、VR I/Oインタフェース115の初期位置に対するVR I/Oインタフェース115の推定の位置を示す較正データを取得する上述したようなIMU 140をさらに含む。いくつかの実施形態では、VR I/Oインタフェース115は、VRコンソール110から受信した指示に従ってユーザに触覚フィードバックを提供することができる。例えば、アクション要求が受信されたときに触覚フィードバックが提供されるか、またはVRコンソール110がアクションを実行するときにVRコンソール110がVR I/Oインタフェース115に命令を送り、VR I/Oインタフェース115に触覚フィードバックを生成させる。
VRコンソール110は、DCA120、HMD105、およびVR I/Oインタフェース115のうちの1つまたは複数から受信した情報に従って処理するためにHMD105にコンテンツを提供する。図1に示すように、VRコンソール110は、アプリケーションストア150、追跡モジュール155、およびVRエンジン145を含む。VRコンソール110のいくつかの実施形態は、図1に関連して説明したものとは異なるモジュールまたはコンポーネントを有する。同様に、以下でさらに説明される機能は、図1と関連して説明したものとは異なる方法で、VRコンソール110の複数のコンポーネントに分散されてもよい。
アプリケーションストア150は、VRコンソール110による実行のための1つまたは複数のアプリケーションを格納する。アプリケーションは、プロセッサによる実行時に、ユーザに提示するためのコンテンツを生成する1つのグループの命令である。アプリケーションによって生成されるコンテンツは、HMD105またはVR I/Oインタフェース115の動きによりユーザから受信した入力に応答したものであってもよい。アプリケーションの例には、ゲームアプリケーション、会議アプリケーション、ビデオ再生アプリケーション、または他の適切なアプリケーションが含まれる。
追跡モジュール155は、1つまたは複数の較正パラメータを使用してVRシステム環境100を較正するとともに、1つまたは複数の較正パラメータを調整して、HMD105またはVR I/Oインタフェース115の位置の決定における誤差を低減することができる。例えば、追跡モジュール155は、DCA120の焦点を調整してDCA120によって捕捉されるSL要素の位置をより正確に決定するために較正パラメータをDCA120に伝達する。追跡モジュール155によって実行される較正はまた、HMD105内のIMU140および/またはVR I/Oインタフェース115に含まれるIMU140から受信した情報を考慮する。さらに、HMD105の追跡を喪失した場合(例えば、DCA120が少なくとも閾値のSL要素の照準線を喪失する)、追跡モジュール140は、VRシステム環境100の一部または全部を再較正することができる。
追跡モジュール155は、DCA120、1つまたは複数の位置センサ135、IMU140またはそれらのいくつかの組み合わせからの情報を使用してHMD105またはVR I/Oインタフェース115の動きを追跡する。例えば、追跡モジュール155は、HMD105からの情報に基づいて局所領域のマッピングにおけるHMD105の基準点の位置を決定する。追跡モジュール155は、IMU140からのHMD105の位置を示すデータを使用して、またはVR I/Oインタフェース115に含まれるIMU140からのVR I/Oインタフェース115の位置を示すデータを使用して、HMD105の基準点の位置またはVR I/Oインタフェース115の基準点を決定する。さらに、いくつかの実施形態では、追跡モジュール155は、IMU140からのHMD105の位置を示すデータの一部ならびにDCA120からの局所領域の表現を使用してHMD105の将来の位置を予測することができる。追跡モジュール155は、HMD105またはVR I/Oインタフェース115の推定または予測した将来の位置をVRエンジン145に提供する。
VRエンジン145は、HMD105から受信した情報に基づいて、HMD105を取り囲む領域(即ち、「局所領域」)の3Dマッピングを生成する。いくつかの実施形態では、VRエンジン145は、深度を計算する際に使用される技法に関連するDCA120から受信した情報に基づいて、局所領域の3Dマッピングのための深度情報を決定する。VRエンジン145は、深度を計算する際に1つまたは複数の技法(たとえば、ステレオビジョン、フォトメトリックステレオ、SL、ToF、またはそれらの何らかの組み合わせ)を使用して深度情報を計算し得る。様々な実施形態では、VRエンジン145は、DCA120によって決定された異なるタイプの情報、またはDCA120によって決定された組み合わせのタイプの情報を使用する。
VRエンジン145はまた、VRシステム環境100内のアプリケーションを実行して、HMD105の位置情報、加速度情報、速度情報、予測した将来の位置、またはそれらのいくつかの組み合わせを追跡モジュール155から受信する。受信した情報に基づいて、VRエンジン145は、ユーザに提示するためにHMD105に提供するコンテンツを決定する。例えば、受信した情報が、ユーザが左方向を見たことを示している場合、VRエンジン145は、仮想環境または追加のコンテンツで局所領域を拡張する環境においてユーザの動きを反映するHMD105に対するコンテンツを生成する。さらに、VRエンジン145は、VR I/Oインタフェース115から受信したアクション要求に応答してVRコンソール110上で実行中のアプリケーション内でアクションを実行し、アクションが実行されたことをユーザにフィードバックする。提供されるフィードバックは、HMD105による視覚的または聴覚的なフィードバックまたはVR I/Oインタフェース115による触覚フィードバックであり得る。
図2は、一実施形態のHMD200の実体配線図である。HMD200は、HMD105の一実施形態であり、かつ前側硬質本体205、バンド210、基準点215、左面220A、上面220B、右面220C、下面220D、および前面220Eを含む。図2に示すHMD200はまた、一実施形態の深度カメラ部品(DCA)120を含み、撮像アパーチャ225および照明アパーチャ230を表している。いくつかの実施形態のDCA120は、アレイ検出器と照明源とを含む。照明源は照明アパーチャ230を介して光を放射する。アレイ検出器は、撮像アパーチャ225を介して照明源からの光および局所領域内の周囲光を捕捉する。前側硬質本体205は、電子ディスプレイ125の1つまたは複数の電子ディスプレイ要素(図示せず)、IMU130、1つまたは複数の位置センサ135、および基準点215を含む。
図3は、一実施形態によるHMD305の断面図300である。いくつかの実施形態では、HMD305は、HMD105の一実施形態である。他の実施形態では、HMD305は、いくつかの他のHMDの一部である。前側硬質本体307は、深度カメラ部品(DCA)120、電子ディスプレイ125、および光学ブロック130を含む。HMD305のいくつかの実施形態は、本明細書に記載のものとは異なるコンポーネントを有する。同様に、場合によっては、機能は、本明細書で説明されているのとは異なる方法でコンポーネント間に分散させることができる。前側硬質本体307はまた、ユーザの眼309が位置することとなる射出瞳308を含む。説明のために、図3は、単眼309による前側硬質本体307の断面図を示す。図3は、眼309の中央断面がDCA120と同じ平面内にあるように描かれているが、眼309の中央断面とDCA120は同じ平面内にある必要はない。さらに、図3に示すものとは別に、別の電子ディスプレイ125および光学ブロック130を前側硬質本体307に含むようにして、局所領域310の拡張表現または仮想コンテンツなどのコンテンツをユーザの他方の眼に提示することができる。
深度カメラ部品(DCA)120は、照明源320、アレイ検出器325、およびコントローラ330を含む。代替の実施形態では、DCA120は、照明源320を含まず、データに関して局所領域310上の周囲光に依存する。
照明源320は、局所領域310を光で照明する。照明源320は、局所領域310上に光を放射する1つまたは複数の放射体を含む。局所領域310は、HMD105を取り囲む領域であり、かつアレイ検出器325の視野内の物体を含む。照明源320の1つまたは複数の放射体は、同じスペクトルの光を放射してもよく、または各放射体は、異なるスペクトルまたは特定範囲の波長の光(すなわち光の「帯域」)を放射してもよい。照明源320によって放射される光の例示的な帯域は、可視帯域(380nm〜750nm)、赤外(IR)帯域(750nm〜2200nm)、紫外帯域(100nm〜380nm)、電磁スペクトルの別の部分、またはそれらのある組み合わせを含む。照明源320は、対称ドットパターンまたは擬似ランダムドットパターン、グリッド、または水平バーなどの特定のパターンでSLを放射することができる。複数の発光体を有する照明源およびそのHMDへの統合の実施形態は、2016年8月9日に出願された米国特許出願第15/232,073号にさらに記載されており、その全体が参照により本明細書に組み込まれる。
アレイ検出器325は、局所領域310の画像を捕捉する。アレイ検出器325は、検出器340とレンズスタック350とを含む。検出器340は、単一のセンサからなるが、代替実施形態では2つ以上のセンサからなる。いくつかの実施形態では、検出器340は、単一のセンサであり、システムは固有のリソグラフィおよび画素群間の半導体製造精度を活用することができる。さらに、検出器340は、ミリメートルのオーダーの全体寸法を有する一般的なモノリシックマウントに取り付けることができ、マウントはシステムを環境の影響(例えば、温度、振動、または衝撃による較正における誤差の導入)に対して減感させるのに役立つ。
検出器340は、特定の帯域の光または特定の偏光を捕捉して記録することができる。例えば、検出器340は、可視帯域および赤外帯域の光を含む画像を捕捉することができる。検出器340は、特定の偏光光(例えば、円偏光光、直線偏光光)を含む画像を捕捉することができる。
検出器340は、活性領域と不活性領域とからなる。検出器340の活性領域は、光に反応する複数の画素を含む検出器の領域である。検出器340の活性領域内の画素に入射する光は、検出器340によって測定された光に寄与し得る。検出器340の不活性領域は光に反応しない。検出器340の不活性領域に入射する光は、検出器340によって測定される光には寄与しない。例えば、検出器340は、検出器340によって測定された光に寄与しない、画素間の領域または複数の画素の周囲にある領域を含み得る。
一実施形態では、検出器340は、複数の画素からなる単一のセンサである。複数の画素は、2つ以上の別々の画素群に分割されている。各画素群は、同数の画素を有していても、異なる数の画素を有していてもよい。いくつかの実施形態では、画素群は同じサイズであり得る。例えば、検出器340は2000×2000画素を有し、それぞれ1000×1000画素である4つの別々の画素群に分割されてもよい。他の実施形態では、1つまたは複数の画素群は異なるサイズである(例えば、上記の例で続けると、検出器は、2つの1000×1000画素および8つの500×500画素を含み得る10の別々の画素群に分割され得る)。
レンズアレイ350は、複数のレンズスタックからなる。レンズスタックは、1つまたは複数の光学素子からなる。レンズスタックは、例えば、1つまたは複数のレンズ、反射面、回折素子、波長フィルタ、偏光子、アパーチャ、またはそれらのある組み合わせを含み得る。レンズスタックにおける光学素子は、レンズスタックの特定の焦点距離、F値、アパーチャ、透過波長、および透過偏光に対して構成することができる。例えば、レンズスタックは、特定の偏光に対して光をフィルタリングするための偏光フィルタ、特定の帯域の光に対して光をフィルタリングするためのバンドパスフィルタなどを含み得る。
レンズアレイ350におけるレンズスタックは、レンズアレイ350における他のレンズスタックと同じでも異なっていてもよい。各レンズスタックは、検出器340の画素群に対応する検出器340の活性領域の個々の部分を覆って、カメラユニットを形成する。レンズスタックの光学特性は、その光学部品によってある程度決まるため、対応するカメラユニットは、アレイ検出器325における他のカメラユニットとは異なる特性(焦点距離、F値、アパーチャ、波長、偏光状態など)を有することができる。アレイ検出器325の各カメラユニットは、局所領域310の画像を記録することができる。各カメラユニットは、複数の視野を有する視野の領域と、カバーされる全体の有用な視野を増大させる方法との両方を可能にするために、部分的に重なり合いかつ部分的に異なる視野範囲を有し得る。このように、1つまたは複数のカメラユニットと重なる視野の領域は、より高いデータ密度を可能にし、深度情報を取得するためのステレオ方法を利用することができ、各カメラユニットに固有の視野領域は、より低密度な(sparser)サンプリング手法を利用することができ、かつ/または深度を取得するための非対称カメラ技術(例えば、SLおよびToF)に依存することができる。このようにして、視野範囲全体をも考慮しながら、「優先順位がより高い」と見なされる視野の部分のデータ密度を高めることが可能である。局所領域310の1つまたは複数の合成画像は、個々のカメラユニットからの画像を使用して作成することができる。合成画像は、異なるカメラユニットからの情報を含む単一の画像である。
コントローラ330は、1つまたは複数の合成画像を使用して局所領域310内の物体に関する深度情報を決定するように構成される。コントローラ330は、照明源320からの光の放射方法およびアレイ検出器325による光の捕捉方法を制御する。例えば、コントローラ330は、照明源320内の1つまたは複数の放射体に光を放射するように指示することができる。このようにして、コントローラ330は照明源320のタイミングを制御することができる。コントローラ330はまた、アレイ検出器の1つまたは複数のカメラユニットにてデータが収集されるタイミングを制御することもできる。従って、コントローラ330は、アレイ検出器325の1つまたは複数のカメラユニットのデータの捕捉を、照明源320による光の放射に合わせて、または環境発生源(ambient sources)を介した光の放射に合わせて調整することができる。
コントローラ330は、深度情報を捕捉するために使用される技法に部分的に基づいて深度情報を捕捉するように構成される。例えば、深度情報は、ステレオビジョン、フォトメトリックステレオ、SL、およびToFの技術のうちの1つまたはそれらの組み合わせを使用することによって決定することができる。
コントローラはまた、ステレオビジョン技術を使用してDCA120に深度情報を捕捉させるようにし得る。一実施形態では、コントローラ330は、アレイ検出器325からの2つ以上のカメラユニットを制御して、局所領域310から反射された光を捕捉する。アレイ検出器325のカメラユニットは互いに一定の距離だけ離間して配置されているので、2つ以上のカメラユニットを使用して深度情報を抽出することができる。各カメラユニットは、局所領域310(例えば、局所領域310内の1つまたは複数の物体)から反射される光を収集する。代替実施形態では、コントローラ330は、照明源320からの光の放射をアレイ検出器325の2つ以上のカメラユニットからの光の収集に合わせて調整する。別々の好都合な位置(vantage points)からのデータを含む、コントローラ330によって収集されたデータは、深度情報を決定するために比較することができる。
コントローラ330は、フォトメトリックステレオ技術を用いてDCA120に深度情報を捕捉させるようにし得る。一実施形態では、コントローラ330は、照明源320の2つ以上の放射体からの光の放出をアレイ検出器325の1つまたは複数のカメラユニットからの光の収集に合わせて調整する。異なる照明条件を有するデータを含む、コントローラ330によって収集されたデータは、局所領域310内の物体の深度を決定するために使用することができる。
コントローラ330は、SL技術を使用してDCA120に深度情報を捕捉させるようにもし得る。一実施形態では、コントローラ330は、局所領域310上に特定のパターンを有するSLを放射するように照明源320を制御する。コントローラ330は、照明源320からのSLの放射をアレイ検出器325内の1つまたは複数のカメラユニットからの集光に合わせて調整する。SL情報を含む、コントローラ330によって収集されたデータは、局所領域310内の物体の深度を決定するために使用することができる。
コントローラ330は、ToF技術を使用してDCA120に深度情報を捕捉させるようにもし得る。一実施形態では、コントローラ330は、照明源320から光が放射されるタイミングを制御し、放射された光が局所領域310から反射されてアレイ検出器325の1つまたは複数のカメラによって検出されるのに要する時間(時間的位相)を測定する。ToF情報を含む、コントローラ330によって収集されたデータは、局所領域310内の物体の深度を決定するために使用することができる。
コントローラ330は、DCA120に、SL情報と同時にまたはほぼ同時にToF情報を捕捉させるようにもし得る。コントローラ330は、SL情報と同様にToF情報を捕捉するために、10MHzなどの特定の周波数を有する搬送波信号でSLを放射する照明源320を変調する。様々な実施形態において、コントローラ330は、互いに異なる時間にアレイ検出器325の別々のカメラユニットを作動させて、照明源320によって放射された搬送波信号によって変調されたSLの異なる時間的位相を捕捉する。例えば、隣接するカメラユニットが互いに約90度、180度、または270度の位相シフトを有する光を捕捉するように、カメラユニットは異なる時間に作動される。コントローラ330は、個々のカメラユニットからのデータを収集し、そのデータはToF情報に関する搬送波信号の位相を導出するために使用することができる。コントローラ330によって収集され、SL情報およびToF情報の両方を含むデータは、局所領域310内の物体の深度を決定するために使用することができる。
図4は、一実施形態による、図3のアレイ検出器325の上面図を示す。レンズスタック350は、4つのレンズスタック、具体的にはレンズスタック410、レンズスタック420、レンズスタック430、およびレンズスタック440の2×2アレイである。隣接するレンズスタックは、2ミリメートル〜20ミリメートルのオーダーの中心間間隔を有する。例えば、図4においてレンズスタック410およびレンズスタック420は、中心間間隔450を有する。この実施形態では、各レンズスタックは、検出器340のほぼ4分の1の領域を覆い、その領域は同数の画素A、B、C、およびDの2×2アレイの画素群に分割される。例えば、アレイ検出器325が2000×2000画素を有する場合、各画素群は1000×1000画素である。各画素群は関連するレンズスタックと重ね合わされる。例えば、画素群Aはレンズスタック410と重ね合わされ、画素群Bはレンズスタック420と重ね合わされ、画素群Cはレンズスタック430と重ね合わされ、そして画素群Dはレンズスタック440と重ね合わされる。
一実施形態では、画素群はほぼ同じ視野範囲を有するので、同じ局所領域の4つの視野を生成することが可能である。4つの視野は、2mm〜20mmのレンズスタック間隔によるベースラインのわずかなシフトから効果的に相関している。同じシーン、照明、および時間について複数の相関関係のある視野があるため、任意の単一の画像捕捉を改善することができる。
追加の構成情報
本開示の実施形態に関する前述の説明は、例示のために提示されたものであり、網羅的であること、または開示された正確な形態に本開示を限定することを意図するものではない。当業者であれば、上記の開示を参照して多くの変更および変形が可能であることを理解することができる。
この説明のいくつかの部分は、情報の処理のアルゴリズムおよび記号表現に関して本開示の実施形態を説明する。これらのアルゴリズムの説明および表現は、データ処理技術の当業者が仕事の内容を他の当業者に効果的に伝えるために一般的に使用するものである。これらの処理は、機能的に、計算的に、または論理的に記述されているが、コンピュータプログラムまたは同等の電気回路、マイクロコードなどによって実現されることが理解される。さらに、これらの処理の方法をモジュールとして参照することは、一般性を失うことなく、時には便利であることが実証されている。記載された処理およびそれらに関連するモジュールは、ソフトウェア、ファームウェア、ハードウェア、またはそれらの任意の組み合わせで具体化されてもよい。
本明細書に記載のステップ、動作、またはプロセスのいずれかは、単独で、または他のデバイスと組み合わせて、1つまたは複数のハードウェアまたはソフトウェアモジュールで実行または実施することができる。一実施形態では、ソフトウェアモジュールは、記述されたステップ、動作またはプロセスのいずれかまたはすべてを実行するコンピュータプロセッサによって実行されるコンピュータプログラムコードを含むコンピュータ可読媒体を含むコンピュータプログラム製品で実施される。
本開示の実施形態はまた、本明細書の動作を実行するための装置に関連してもよい。この装置は、必要な目的のために特別に構成することができ、かつ/またはコンピュータに格納されたコンピュータプログラムによって選択的に作動または再構成された汎用コンピューティング装置を含むことができる。そのようなコンピュータプログラムは、非一時的な有形のコンピュータ可読記憶媒体、またはコンピュータシステムバスに結合することができる電子命令を格納するのに適した任意のタイプの媒体に格納することができる。さらに、本明細書で言及される任意のコンピューティングシステムは、単一のプロセッサを含むか、またはコンピューティング能力が向上された複数のプロセッサ設計を採用するアーキテクチャであってもよい。
本開示の実施形態はまた、本明細書に記載のコンピューティングプロセスによって生成される製品に関連してもよい。そのような製品は、情報が非一時的な有形のコンピュータ可読記憶媒体に格納される計算プロセスから生じる情報を含むことができ、かつ本明細書に記載のコンピュータプログラム製品または他のデータの組み合わせの任意の実施形態を含むことができる。
最後に、本明細書で使用される用語は、主に、読みやすさおよび教示目的のために選択されたものであり、本発明の主題を画定または制限するために選択されていない。従って、本開示の範囲は、この詳細な説明ではなく、本明細書に基づいて出願時の任意の特許請求の範囲によって限定されることが意図される。従って、実施形態の開示は、以下の特許請求の範囲に記載されている本開示の範囲に限定するものではなく例示的なものとすることを意図する。

Claims (32)

  1. 深度カメラ部品(DCA)であって、
    局所領域に光を投光するように構成された照明源と、
    複数のレンズスタックを含むレンズアレイと重ね合わされる複数の画素を有する検出器を含むアレイ検出器と、前記複数の画素は別々の画素群に分割され、各レンズスタックは別々の画素群を覆い、前記アレイ検出器は、前記照明源からの光で照明された前記局所領域の1つまたは複数の合成画像を捕捉するように構成され、
    前記1つまたは複数の合成画像を使用して局所領域内の物体に関する深度情報を決定するように構成されたコントローラとを備える、DCA。
  2. 前記DCAは、ヘッドマウントディスプレイ(HMD)の一部であり、前記HMDは、
    前記深度情報に部分的に基づいて仮想物体を表示するように構成された電子ディスプレイ要素と、
    前記電子ディスプレイ要素からの光を前記HMDの射出瞳に向けるように構成された光学ブロックとを含む、請求項1に記載のDCA。
  3. 前記コントローラは、前記1つまたは複数の合成画像と、ステレオビジョン、タイムオブフライト、フォトメトリックステレオ、構造化光、またはそれらのある組み合わせからなる群から選択された深度測定技術とを使用して深度情報を決定するようにさらに構成される、請求項1に記載のDCA。
  4. 各画素群は同数の画素を含む、請求項1に記載のDCA。
  5. 少なくとも1つの画素群が、前記複数の画素の他の画素群とは異なる数の画素を有する、請求項1に記載のDCA。
  6. 前記レンズアレイは4つのレンズスタックを含み、各対応する画素群は同数の画素を有する、請求項1に記載のDCA。
  7. 前記複数のレンズスタックのうちの1つのレンズスタックが、レンズ、回折素子、波長フィルタ、偏光子、アパーチャ、またはそれらのある組み合わせからなる群から選択された1つまたは複数の光学素子を含む、請求項1に記載のDCA。
  8. 前記レンズアレイ内の前記複数のレンズスタックのうちの少なくとも1つが、前記レンズアレイ内の他のレンズスタックとは別の少なくとも1つの光学素子を含む、請求項7に記載のDCA。
  9. 前記レンズアレイ内の各レンズスタックは、同じ1つまたは複数の光学素子を含む、請求項8に記載のDCA。
  10. 深度カメラ部品(DCA)であって、
    局所領域に光を投光するように構成された照明源と、
    複数のレンズスタックを含むレンズアレイと重ね合わされる複数の画素を有する検出器を含むアレイ検出器と、前記複数の画素は別々の画素群に分割され、各レンズスタックは別々の画素群を覆い、前記アレイ検出器は、前記照明源からの光で照明された前記局所領域の1つまたは複数の合成画像を捕捉するように構成され、
    前記1つまたは複数の合成画像を仮想現実(VR)コンソールに提供するように構成されたコントローラとを備え、前記VRコンソールは、前記1つまたは複数の合成画像に部分的に基づいて深度情報を決定し、前記深度情報に部分的に基づいて仮想物体を生成するように構成される、DCA。
  11. 各画素群は同数の画素を含む、請求項10に記載のDCA。
  12. 少なくとも1つの画素群が、前記複数の画素の他の画素群とは異なる数の画素を有する、請求項10に記載のDCA。
  13. 前記レンズアレイは4つのレンズスタックを含み、各対応する画素群は同数の画素を有する、請求項10に記載のDCA。
  14. 前記複数のレンズスタックのうちの1つのレンズスタックが、回折素子、波長フィルタ、偏光子、アパーチャ、またはそれらのある組み合わせからなる群から選択された1つまたは複数の光学素子を含む、請求項10に記載のDCA。
  15. 前記レンズアレイ内の前記複数のレンズスタックのうちの少なくとも1つが、前記レンズアレイ内の他のレンズスタックとは別の少なくとも1つの光学素子を含む、請求項14に記載のDCA。
  16. 深度カメラ部品(DCA)であって、
    局所領域に光を投光するように構成された照明源と、
    アレイ検出器であって、
    第1の画素群を含む第1の検出器と、
    前記第1の検出器に隣接して配置され、第2の画素群を含む第2の検出器と、
    第1のレンズスタックと第2のレンズスタックとを含むレンズアレイとを含み、前記第1のレンズスタックは前記第1の画素群と重なり合い、前記第2のレンズスタックは前記第2の画素群と重なり合い、
    特定の時間範囲に亘り前記第1の検出器によって捕捉された前記局所領域の画像と、前記特定の時間範囲に亘り前記第2の検出器によって捕捉された前記局所領域の画像とが共に合成画像を構成する、前記アレイ検出器と、
    前記合成画像を使用して前記局所領域内の物体に関する深度情報を決定するように構成されたコントローラとを備えるDCA。
  17. 前記第1の画素群および前記第2の画素群は、同数の画素を含む、請求項16に記載のDCA。
  18. 前記第1の画素群は、前記第2の画素群とは異なる数の画素を有する、請求項16に記載のDCA。
  19. 前記第1のレンズスタックおよび前記第2のレンズスタックが、回折素子、波長フィルタ、偏光子、アパーチャ、またはそれらのある組み合わせからなる群から選択された1つまたは複数の光学素子を含む、請求項16に記載のDCA。
  20. 前記第1のレンズスタックが、前記第2のレンズスタックとは別の少なくとも1つの光学素子を含む、請求項19に記載のDCA。
  21. 前記コントローラは、前記合成画像と、ステレオビジョン、タイムオブフライト、フォトメトリックステレオ、構造化光、またはそれらのある組み合わせからなる群から選択された深度測定技術とを使用して深度情報を決定するようにさらに構成される、請求項16に記載のDCA。
  22. 深度カメラ部品(DCA)であって、
    局所領域に光を投光するように構成された照明源と、
    複数のレンズスタックを含むレンズアレイと重ね合わされる複数の画素を有する検出器を含むアレイ検出器と、前記複数の画素は別々の画素群に分割され、各レンズスタックは別々の画素群を覆い、前記アレイ検出器は、前記照明源からの光で照明された前記局所領域の1つまたは複数の合成画像を捕捉するように構成され、
    前記1つまたは複数の合成画像を使用して前記局所領域内の物体に関する深度情報を決定するように構成されたコントローラと、および/または
    前記1つまたは複数の合成画像を仮想現実(VR)コンソールに提供するように構成されたコントローラとを備え、前記VRコンソールは、前記1つまたは複数の合成画像に部分的に基づいて深度情報を決定し、前記深度情報に部分的に基づいて仮想物体を生成するように構成される、DCA。
  23. 前記DCAは、ヘッドマウントディスプレイ(HMD)の一部であり、前記HMDは、
    前記深度情報に部分的に基づいて仮想物体を表示するように構成された電子ディスプレイ要素と、
    前記電子ディスプレイ要素からの光を前記HMDの射出瞳に向けるように構成された光学ブロックとを含む、請求項22に記載のDCA。
  24. 前記コントローラは、前記1つまたは複数の合成画像と、ステレオビジョン、タイムオブフライト、フォトメトリックステレオ、構造化光、またはそれらのある組み合わせからなる群から選択された深度測定技術とを使用して深度情報を決定するようにさらに構成される、請求項22または23に記載のDCA。
  25. 各画素群は同数の画素を含む、請求項22乃至24のいずれか1項に記載のDCA。
  26. 少なくとも1つの画素群が、前記複数の画素の他の画素群とは異なる数の画素を有する、請求項22乃至24のいずれか1項に記載のDCA。
  27. 前記レンズアレイは4つのレンズスタックを含み、各対応する画素群は同数の画素を有する、請求項22乃至26のいずれか1項に記載のDCA。
  28. 前記複数のレンズスタックのうちの1つのレンズスタックが、レンズ、回折素子、波長フィルタ、偏光子、アパーチャ、またはそれらのある組み合わせからなる群から選択された1つまたは複数の光学素子を含み、
    任意選択的に、前記レンズアレイ内の前記複数のレンズスタックのうちの少なくとも1つが、前記レンズアレイ内の他のレンズスタックとは別の少なくとも1つの光学素子を含み、
    任意選択的に、前記レンズアレイ内の各レンズスタックは、同じ1つまたは複数の光学素子を含む、請求項22乃至27のいずれか1項に記載のDCA。
  29. 深度カメラ部品(DCA)であって、
    局所領域に光を投光するように構成された照明源と、
    アレイ検出器であって、
    第1の画素群を含む第1の検出器と、
    前記第1の検出器に隣接して配置され、第2の画素群を含む第2の検出器と、
    第1のレンズスタックと第2のレンズスタックとを含むレンズアレイとを含み、前記第1のレンズスタックは前記第1の画素群と重なり合い、前記第2のレンズスタックは前記第2の画素群と重なり合い、
    特定の時間範囲に亘り前記第1の検出器によって捕捉された前記局所領域の画像と、前記特定の時間範囲に亘り前記第2の検出器によって捕捉された前記局所領域の画像とが共に合成画像を構成する、前記アレイ検出器と、
    前記合成画像を使用して前記局所領域内の物体に対する深度情報を決定するように構成されたコントローラとを備えるDCA。
  30. 前記第1の画素群および前記第2の画素群は、同数の画素を含み、かつ/または
    前記第1の画素群が前記第2の画素群とは異なる数の画素を有する、請求項29に記載のDCA。
  31. 前記第1のレンズスタックおよび前記第2のレンズスタックは、回折素子、波長フィルタ、偏光子、アパーチャ、またはそれらのある組み合わせからなる群から選択された1つまたは複数の光学素子を含み、
    任意選択的に、前記第1のレンズスタックは前記第2のレンズスタックとは別の少なくとも1つの光学素子を含む、請求項29または30に記載のDCA。
  32. 前記コントローラは、前記合成画像と、ステレオビジョン、タイムオブフライト、フォトメトリックステレオ、構造化光、またはそれらのある組み合わせからなる群から選択された深度測定技術とを使用して深度情報を決定するようにさらに構成される、請求項29乃至31のいずれか1項に記載のDCA。
JP2019510907A 2016-08-25 2017-02-03 深度マッピング用のアレイ検出器 Ceased JP2019533918A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/247,727 US11102467B2 (en) 2016-08-25 2016-08-25 Array detector for depth mapping
US15/247,727 2016-08-25
PCT/US2017/016551 WO2018038763A1 (en) 2016-08-25 2017-02-03 Array detector for depth mapping

Publications (1)

Publication Number Publication Date
JP2019533918A true JP2019533918A (ja) 2019-11-21

Family

ID=61244140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019510907A Ceased JP2019533918A (ja) 2016-08-25 2017-02-03 深度マッピング用のアレイ検出器

Country Status (5)

Country Link
US (1) US11102467B2 (ja)
JP (1) JP2019533918A (ja)
KR (1) KR20190075045A (ja)
CN (1) CN109644264B (ja)
WO (1) WO2018038763A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016112826A1 (de) * 2016-07-13 2018-01-18 Jabil Optics Germany GmbH Detektionseinrichtung, HUD und Verfahren zum Betrieb eines HUD
US10192147B2 (en) * 2016-08-30 2019-01-29 Microsoft Technology Licensing, Llc Foreign substance detection in a depth sensing system
US10284836B2 (en) * 2017-02-08 2019-05-07 Microsoft Technology Licensing, Llc Depth camera light leakage avoidance
US10061352B1 (en) * 2017-08-14 2018-08-28 Oculus Vr, Llc Distributed augmented reality system
US10642048B2 (en) 2018-08-07 2020-05-05 Facebook Technologies, Llc Reflective circular polarizer for head-mounted display
US10495798B1 (en) 2018-08-07 2019-12-03 Facebook Technologies, Llc Switchable reflective circular polarizer in head-mounted display
CN109669268A (zh) * 2019-02-25 2019-04-23 京东方科技集团股份有限公司 虚拟现实镜筒组件和虚拟现实设备
EP3799123A4 (en) * 2019-07-30 2021-04-28 Shenzhen Goodix Technology Co., Ltd. IMAGE SENSOR AND METHOD OF MANUFACTURING THEREOF, CHIP AND HANDHELD DEVICE
US20210360778A1 (en) * 2019-08-05 2021-11-18 Lg Electronics Inc. Electronic device and method for manufacturing the same
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements
US11215712B2 (en) 2020-04-27 2022-01-04 Facebook Technologies, Llc Time-to-digital converter for depth sensing
US11656500B2 (en) 2020-06-10 2023-05-23 Meta Platforms Technologies, Llc Switchable multilayer cholesteric liquid crystal reflective polarizer
US11652653B1 (en) * 2022-08-11 2023-05-16 Sandipan Subir Chaudhuri Conferencing between remote participants

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009125577A1 (ja) * 2008-04-10 2009-10-15 パナソニック株式会社 撮像装置、撮像システムおよび撮像方法
US20140211193A1 (en) * 2012-09-24 2014-07-31 Alces Technology, Inc. Structured light and time of flight depth capture with a MEMS ribbon linear array spatial light modulator
WO2015097284A1 (en) * 2013-12-24 2015-07-02 Softkinetic Sensors Nv A time-of-flight camera system
JP2015125641A (ja) * 2013-12-26 2015-07-06 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006026354A2 (en) * 2004-08-25 2006-03-09 Newport Imaging Corporation Apparatus for multiple camera devices and method of operating same
WO2007035720A2 (en) * 2005-09-20 2007-03-29 Deltasphere, Inc. Methods, systems, and computer program products for acquiring three-dimensional range information
US8587681B2 (en) * 2008-11-21 2013-11-19 Omnivision Technologies, Inc. Extended depth of field for image sensor
EP2244484B1 (en) 2009-04-22 2012-03-28 Raytrix GmbH Digital imaging method for synthesizing an image using data recorded with a plenoptic camera
KR101590767B1 (ko) * 2009-06-09 2016-02-03 삼성전자주식회사 영상 처리 장치 및 방법
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US20130194389A1 (en) 2012-01-31 2013-08-01 Ben Vaught Head-mounted display device to measure attentiveness
US10848731B2 (en) * 2012-02-24 2020-11-24 Matterport, Inc. Capturing and aligning panoramic image and depth data
US20140152558A1 (en) 2012-11-30 2014-06-05 Tom Salter Direct hologram manipulation using imu
US9395543B2 (en) 2013-01-12 2016-07-19 Microsoft Technology Licensing, Llc Wearable behavior-based vision system
US9398287B2 (en) 2013-02-28 2016-07-19 Google Technology Holdings LLC Context-based depth sensor control
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
EP3066690A4 (en) 2013-11-07 2017-04-05 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
JP2015185947A (ja) * 2014-03-20 2015-10-22 株式会社東芝 撮像システム
US9754415B2 (en) 2014-03-27 2017-09-05 Microsoft Technology Licensing, Llc Display relative motion compensation
KR102204919B1 (ko) 2014-06-14 2021-01-18 매직 립, 인코포레이티드 가상 및 증강 현실을 생성하기 위한 방법들 및 시스템들
CN104469147B (zh) 2014-11-20 2018-09-04 北京智谷技术服务有限公司 光场采集控制方法和装置、光场采集设备
US9904054B2 (en) 2015-01-23 2018-02-27 Oculus Vr, Llc Headset with strain gauge expression recognition system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009125577A1 (ja) * 2008-04-10 2009-10-15 パナソニック株式会社 撮像装置、撮像システムおよび撮像方法
US20140211193A1 (en) * 2012-09-24 2014-07-31 Alces Technology, Inc. Structured light and time of flight depth capture with a MEMS ribbon linear array spatial light modulator
WO2015097284A1 (en) * 2013-12-24 2015-07-02 Softkinetic Sensors Nv A time-of-flight camera system
JP2015125641A (ja) * 2013-12-26 2015-07-06 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム

Also Published As

Publication number Publication date
US11102467B2 (en) 2021-08-24
WO2018038763A1 (en) 2018-03-01
CN109644264B (zh) 2022-06-21
KR20190075045A (ko) 2019-06-28
CN109644264A (zh) 2019-04-16
US20180063508A1 (en) 2018-03-01

Similar Documents

Publication Publication Date Title
JP2019533918A (ja) 深度マッピング用のアレイ検出器
US10848745B2 (en) Head-mounted display tracking system
US10073517B1 (en) Position tracking system that exploits arbitrary configurations to determine loop closure
US10198032B2 (en) Passive locators for a virtual reality headset
EP3371973B1 (en) Eye tracking using a diffraction pattern of coherent light on the surface of the eye
KR101949950B1 (ko) 구조화 조명 및 비행 시간을 사용한 깊이 맵핑
CN109565585B (zh) 用于深度信息确定的多发射器照明源
US10504243B2 (en) Calibration system for a head-mounted display tracking system
US10237481B2 (en) Event camera for generation of event-based images
US10962790B2 (en) Depth measurement using a pulsed structured light projector
US20190072771A1 (en) Depth measurement using multiple pulsed structured light projectors
US10789777B1 (en) Generating content for presentation by a head mounted display based on data captured by a light field camera positioned on the head mounted display
EP3282285B1 (en) Multiple emitter illumination source for depth information determination
US10574938B1 (en) Variable frame rate depth camera assembly
US10462451B1 (en) Asymmetric structured light source
US10521926B1 (en) Tileable non-planar structured light patterns for wide field-of-view depth sensing
EP3288259A1 (en) Array detector for depth mapping
US10685453B1 (en) Folded laser emitters for structured light applications
US10678048B1 (en) Head mounted display with tiled optical assembly
US10712572B1 (en) Angle sensitive pixel array including a liquid crystal layer

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210317

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220105

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220105

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220117

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220118

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220318

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220329

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220621

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230111

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20231128