JP2023535538A - 構造光を使用した深度マッピングのための赤外線・非赤外線チャネルブレンダ - Google Patents
構造光を使用した深度マッピングのための赤外線・非赤外線チャネルブレンダ Download PDFInfo
- Publication number
- JP2023535538A JP2023535538A JP2022574564A JP2022574564A JP2023535538A JP 2023535538 A JP2023535538 A JP 2023535538A JP 2022574564 A JP2022574564 A JP 2022574564A JP 2022574564 A JP2022574564 A JP 2022574564A JP 2023535538 A JP2023535538 A JP 2023535538A
- Authority
- JP
- Japan
- Prior art keywords
- image information
- infrared
- infrared image
- instructions
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013507 mapping Methods 0.000 title description 6
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000002156 mixing Methods 0.000 claims abstract description 13
- 238000003860 storage Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 description 50
- 238000013139 quantization Methods 0.000 description 35
- 230000003287 optical effect Effects 0.000 description 34
- 230000000875 corresponding effect Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 238000005286 illumination Methods 0.000 description 13
- 239000004065 semiconductor Substances 0.000 description 13
- 239000000758 substrate Substances 0.000 description 13
- 210000005252 bulbus oculi Anatomy 0.000 description 11
- 238000005259 measurement Methods 0.000 description 10
- 239000003990 capacitor Substances 0.000 description 8
- 210000001508 eye Anatomy 0.000 description 8
- 238000000926 separation method Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000002452 interceptive effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 230000000903 blocking effect Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 239000007788 liquid Substances 0.000 description 3
- 229920006395 saturated elastomer Polymers 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 230000004434 saccadic eye movement Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0081—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. enlarging, the entrance or exit pupil
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/131—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/133—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/135—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
- G02B2027/0174—Head mounted characterised by optical features holographic
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
電子デバイスは、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによる実行のための命令を記憶するメモリと、を含む。記憶された命令は、三次元エリアに関する赤外画像情報を受信するための命令と、同じ三次元エリアに関する非赤外画像情報を受信するための命令と、受信された赤外画像情報に対して非線形強度調節を実施するための命令と、受信された非赤外画像情報に対して非線形強度調節を実施するための命令と、強度調節された赤外画像情報および強度調節された非赤外画像情報をブレンドして、マージされた画像情報を取得するための命令と、深度マップを決定するため、マージされた画像情報を提供するための命令と、を含む。また、電子デバイスによって実施される、対応する方法、および電子デバイスの1つまたは複数のプロセッサによる実行のための命令を記憶する、コンピュータ可読ストレージ媒体が開示される。
【選択図】図7B
【選択図】図7B
Description
本出願は、一般に、画像処理デバイスに関し、より具体的には、深度マッピングのための画像処理デバイスに関する。
モバイルディスプレイデバイスは、視覚情報を収集しユーザに提供するのに広く使用されている。例えば、携帯電話は、写真を撮り、映像を記録するのに使用されている。ヘッドマウントディスプレイデバイスは、仮想現実および拡張現実情報を提供する能力によって人気を得るようになっている。
深度検知は、カメラ操作(例えば、写真の撮影および映像の記録)、拡張現実操作、およびセキュリティ用途(例えば、顔認証など)などの様々な用途にとって重要な技法である。
しかしながら、従来の深度検知技法は、著しい計算資源を必要とし、低テクスチャの、または低光量条件下の領域に関して深度を検出するのが困難である。
したがって、正確、軽量、コンパクトで、計算効率が良い、深度検知システムが必要とされている。
本出願において開示されるデバイスおよび方法は、赤外画像情報および非赤外画像情報をマージするブレンダを使用し、それによって深度マッピングに対する計算負荷を低減するとともに、深度マッピングの精度を改善する。
本開示の第1の態様によれば、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによる実行のための命令を記憶するメモリと、を備える、電子デバイスが提供され、記憶された命令は、三次元エリアに関する赤外画像情報を受信するための命令と、同じ三次元エリアに関する非赤外画像情報を受信するための命令と、受信された赤外画像情報に対して非線形強度調節を実施するための命令と、受信された非赤外画像情報に対して非線形強度調節を実施するための命令と、強度調節された赤外画像情報および強度調節された非赤外画像情報をブレンドして、マージされた画像情報を取得するための命令と、深度マップを決定するため、マージされた画像情報を提供するための命令と、を含む。
強度調節された赤外画像情報および強度調節された非赤外画像情報をブレンドすることは、強度調節された赤外画像情報および強度調節された非赤外画像情報の重み付き合計を取得することを含んでよい。
記憶された命令は、マージされた画像情報から深度マップを決定するための命令を含んでよい。
記憶された命令は、赤外画像情報をノイズ除去するための命令を含んでよい。
非赤外画像情報をノイズ除去することは、赤外画像情報に対してガウスぼかしを実施することを含んでよい。
記憶された命令は、マージされた画像情報を圧縮するための命令を含んでよい。
記憶された命令は、マージされた画像情報のクロップまたはスケーリングの少なくとも1つを実施するための命令を含んでよい。
記憶された命令は、マージされた画像情報を平坦化するための命令を含んでよい。
受信された赤外画像情報および受信された非赤外画像情報は、同じ数のピクセルに対応してよい。
デバイスは、1つまたは複数のカメラをさらに備えてよく、それぞれのカメラは複数のピクセルを含み、複数のピクセルのそれぞれのピクセルは、少なくとも1つの赤外光検出器と、少なくとも1つの赤外光検出器に隣接して位置付けられた少なくとも1つの非赤外光検出器とを含む。
それぞれのピクセルの少なくとも1つの赤外光検出器および少なくとも1つの非赤外光検出器は、共通のマイクロレンズと結合されてよい。
少なくとも1つの赤外光検出器は、赤外線フィルタと結合された光検出器を含んでよく、少なくとも1つの非赤外光検出器は、非赤外線フィルタと結合された光検出器を含んでよい。
本開示の第2の態様によれば、画像を処理するための方法が提供され、方法は、三次元エリアに関する赤外画像情報を受信することと、同じ三次元エリアに関する非赤外画像情報を受信することと、受信された赤外画像情報に対して非線形強度調節を実施することと、受信された非赤外画像情報に対して非線形強度調節を実施することと、強度調節された赤外画像情報および強度調節された非赤外画像情報をブレンドして、マージされた画像情報を取得することと、深度マップを決定するため、マージされた画像情報を提供することと、を含む。
強度調節された赤外画像情報および強度調節された非赤外画像情報をブレンドすることは、強度調節された赤外画像情報および強度調節された非赤外画像情報の重み付き合計を取得することを含んでよい。
方法は、マージされた画像情報から深度マップを決定することをさらに含んでよい。
方法は、赤外画像情報をノイズ除去することをさらに含んでよい。
非赤外画像情報をノイズ除去することは、赤外画像情報に対してガウスぼかしを実施することを含んでよい。
方法は、マージされた画像情報を圧縮することをさらに含んでよい。
受信された赤外画像情報および受信された非赤外画像情報は、同じ数のピクセルに対応してよい。
本開示の第3の態様によれば、命令を記憶するコンピュータ可読記憶媒体が提供され、命令は、電子デバイスの1つまたは複数のプロセッサによって実行されると、三次元エリアに関する赤外画像情報を受信することと、同じ三次元エリアに関する非赤外画像情報を受信することと、受信された赤外画像情報に対して非線形強度調節を実施することと、受信された非赤外画像情報に対して非線形強度調節を実施することと、強度調節された赤外画像情報および強度調節された非赤外画像情報をブレンドして、マージされた画像情報を取得することと、深度マップを決定するため、マージされた画像情報を提供することと、を電子デバイスに行わせる。
様々な記載される実施例をより良く理解するため、以下の発明を実施するための形態を以下の図面と併せて参照すべきである。図面全体を通して、同様の参照番号は対応する部分を指す。
図は、例証のためだけに本開示の例を描写する。本開示の原理、または勧められた利益から逸脱することなく、示した構造および方法の代替例が採用されてもよいということを、当業者は以下の説明から容易に認識するであろう。
添付の図では、類似の構成要素および/または特徴は、同じ参照ラベルを有することがある。さらに、同じタイプの様々な構成要素は、類似の構成要素の間で区別するダッシュおよび第2のラベルが参照ラベルに続くことによって区別することがある。第1の参照ラベルだけが本明細書で使用される場合、説明は、第2の参照ラベルに関係なく、同じ第1の参照ラベルを有する類似の構成要素のうちの任意の1つに適用することができる。
以下の説明では、説明のために、一定の発明の例を完全に理解するために、具体的詳細が示される。しかし、これらの具体的詳細がなくても、様々な例を実践できるということが明らかであろう。図および説明は、限定的であることを意図するものではない。
場合によっては、深度検知は、1つもしくは複数の画像から深度(または深度マップ)を決定することを伴う。画像は画像センサを使用して収集される。
典型的なイメージセンサはピクセルセルのアレイを含む。それぞれのピクセルセルは、光子を電荷(電子または正孔)に変換することによって入射光の強度を測定するためのフォトダイオードを含む。フォトダイオードによって生成される電荷は、浮遊ドレインノードを含むことができる電荷検知ユニットによって電圧に変換可能である。電圧は、アナログデジタルコンバータ(ADC)によってデジタル値に量子化可能である。デジタル値は、ピクセルセルが受光した光の強度を表すことができ、かつシーンのスポットから受光した光に対応し得るピクセルを形成できる。ピクセルのアレイを含む画像は、ピクセルセルのアレイのデジタル出力から得ることができる。
2D検知および3D検知など、画像化の異なるモードを実行するために、イメージセンサを使用することができる。2D検知および3D検知は、異なる波長範囲の光に基づいて行うことができる。例えば、可視波長範囲内の光は2D検知に使用可能であるのに対し、可視波長範囲外の光(例えば、赤外光)は3D検知に使用可能である。イメージセンサは、異なる可視波長範囲および色(例えば、赤、緑、青、単色など)の光が2D検知のために割り当てられたピクセルセルの第1のセットに達することを可能にし、かつ、不可視波長範囲の光が3D検知のために割り当てられたピクセルセルの第2のセットに達することを可能にするための光学フィルタアレイを含んでよい。
2D検知を行うために、ピクセルセルのフォトダイオードは、可視光成分(例えば、赤、緑、青、単色など)の強度に比例した割合で電荷を生成することができ、露光期間に蓄積された電荷の量は、可視光(または、可視光の一定の色成分)の強度を表すために使用可能である。電荷は、フォトダイオードに一時的に蓄え、次に、キャパシタ(例えば、浮遊拡散)に移動させて、電圧を生じることができる。電圧は、アナログデジタルコンバータ(ADC:analog-to-digital converter)でサンプリングして量子化し、可視光の強度に相当する出力を生成することができる。可視光の異なる色成分(例えば、赤色、緑色、および青色)を検知するように構成された複数のピクセルセルからの出力に基づいて、画像のピクセル値を生成することができる。
さらに、3D検知を実行するために、異なる波長範囲の光(例えば、赤外光)をオブジェクトに投射することができ、反射した光は、ピクセルセルによって検出することができる。光は、構造光、光パルス、等を含むことができる。ピクセルセルからの出力は、例えば、反射した構造光のパターンの検出、光パルスの飛行時間の測定、等に基づいて、深度検知動作を実行するために使用することができる。反射した構造光のパターンを検出するために、露光時間中にピクセルセルによって生成された電荷の量の分布を判定することができ、電荷の量に相当する電圧に基づいてピクセル値を生成することができる。飛行時間測定のために、ピクセルセルのフォトダイオードでの電荷の生成のタイミングは、反射した光パルスをピクセルセルで受光した時間を表すように決定することができる。光パルスをオブジェクトに投射した時間と、反射した光パルスをピクセルセルで受光した時間との間の時間差を、飛行時間測定を行うために使用することができる。
ピクセルセルアレイを使用して、シーンの情報を生成可能である。いくつかの例では、アレイ内のピクセルセルのサブセット(例えば、第1のセット)は、シーンの2D検知を行うために光の可視成分を検出でき、アレイ内のピクセルセルの別のサブセット(例えば、第2のセット)は、シーンの3D検知を行うために光の赤外線成分を検出できる。2D画像化データと3D画像化データの融合は、仮想現実(VR:virtual-reality)体験、拡張現実(AR:augmented-reality)体験、および/または複合現実(MR:mixed reality)体験をもたらす多くの用途に有用である。例えば、ウェアラブルVR/AR/MRシステムは、システムのユーザがいる環境のシーンを再現することができる。再現したシーンに基づいて、VR/AR/MRは、双方向体験をもたらすための表示効果を生成することができる。シーンを再現するために、ピクセルセルアレイ内のピクセルセルのサブセットは、3D検知を実行して、例えば、環境内の物理オブジェクトのセットを識別し、物理オブジェクトとユーザとの間の距離を判定することができる。ピクセルセルアレイ内のピクセルセルの別のサブセットは、2D検知を実行して、例えば、これらの物理オブジェクトのテクスチャ、色、および反射率を含む視覚属性をキャプチャすることができる。シーンの2D画像データおよび3D画像データは、次に、例えば、オブジェクトの視覚属性を含むシーンの3Dモデルを作成するためにマージすることができる。別の例として、ウェアラブルVR/AR/MRシステムは、2D画像データと3D画像データの融合に基づいて、頭部追跡動作も実行することができる。例えば、2D画像データに基づいて、VR/AR/ARシステムは、一定の画像特徴を抽出して、オブジェクトを識別することができる。3D画像データに基づいて、VR/AR/ARシステムは、ユーザが身に付けているウェアラブルデバイスに対する識別したオブジェクトの位置を追跡することができる。VR/AR/ARシステムは、例えば、ユーザの頭が動くときの、識別したオブジェクトのウェアラブルデバイスに対する位置の変化を追跡することに基づいて、頭の動きを追跡することができる。
2D画像データおよび3D画像データの相互関係を改善するために、ピクセルセルのアレイは、シーンのスポットからの入射光の異なる成分を並べて画像化できるように構成可能である。具体的には、それぞれのピクセルセルは、複数のフォトダイオード、および複数の対応する電荷検知ユニットを含むことができる。複数のフォトダイオードのそれぞれのフォトダイオードは、入射光の異なる光成分を電荷に変換するように構成される。フォトダイオードが入射光の種々の光成分を受けることができるように、フォトダイオードは、種々のフォトダイオードに対する入射光に種々の吸収距離を提供するスタックで形成可能である、または光学フィルタのアレイの下面に形成可能である。それぞれの電荷検知ユニットは、電荷を電圧に変換することによって対応するフォトダイオードの電荷を検知するための1つまたは複数のキャパシタを含み、この電圧は、それぞれのフォトダイオードによって変換された入射光成分の強度のデジタル表現を生成するためにADCによって量子化可能である。ADCは比較器を含む。量子化動作の一部として、比較器は、判定を出力するために電圧を基準値と比較することができる。比較器の出力は、メモリが自走カウンタからの値を記憶する時を制御することができる。この値は、電圧の量子化の結果を提供できる。
ダイナミックレンジ、電力、フレームレートなど、イメージセンサの様々な性能測定基準がある。ダイナミックレンジはイメージセンサによって測定可能な光強度の範囲を指すことができる。ダイナミックレンジについて、上限は、イメージセンサによって提供される光強度測定動作の直線性に基づいて定められ得るのに対し、下限は、光強度測定動作に影響するノイズ信号(例えば、暗電荷、熱雑音など)に基づいて定められ得る。他方では、様々な要因がフレームレートに影響する可能性がある。フレームレートは、イメージセンサが画像フレームを生成するのにかかる時間を指すことができる。該要因は、例えば、量子化動作の完了時間、量子化動作にもたらされる様々な遅延などを含んでよい。
光強度測定動作のダイナミックレンジを増大させるために、ADCは、種々の強度範囲に関連付けられる種々の量子化動作に基づいて電圧を量子化することができる。具体的には、それぞれのフォトダイオードは、露光期間内の、入射光強度を表す電荷の量を生成可能である。それぞれのフォトダイオードは、残留電荷として電荷の少なくとも一部を蓄えるための量子井戸も有する。量子井戸容量は、フォトダイオードと電荷検知ユニットとの間のスイッチ上のバイアス電圧に基づいて設定可能である。低い光強度範囲に対して、フォトダイオードは電荷全体を残留電荷として量子井戸に蓄えることができる。PD ADC量子化動作では、ADCは、低い光強度のデジタル表現を提供するために残留電荷の量を検知することから電荷検知ユニットによって生成される第1の電圧を量子化することができる。残留電荷は典型的には、フォトダイオードにおける暗電流の影響をはるかに受けにくいため、低い光強度測定のノイズフロアを低下させることができ、これによって、ダイナミックレンジの下限をさらに拡張させることができる。
さらに、中間の光強度範囲について、量子井戸は残留電荷によって飽和可能であり、フォトダイオードは、オーバーフロー電荷としての残留電荷を電荷検知ユニットに移動させることができ、電荷検知ユニットはオーバーフロー電荷の量を検知することから第2の電圧を生成可能である。FD ADC量子化動作では、ADCは中間の光強度のデジタル表現を提供するために第2の電圧を量子化できる。低い光強度および中間の光強度両方について、電荷検知ユニットにおける1つまたは複数のキャパシタはまだ飽和しておらず、第1の電圧および第2の電圧の大きさは光強度と相関する。それに応じて、低い光強度および中間の光強度両方について、ADCの比較器は、判定を生成するためにランプ電圧に対して第1の電圧または第2の電圧を比較することができる。この判定によって、残留電荷またはオーバーフロー電荷の量を表すことができるカウンタ値を記憶するようにメモリを制御することができる。
高い光強度範囲について、オーバーフロー電荷は電荷検知ユニットで1つまたは複数のキャパシタを飽和させることが可能である。結果として、第2の電圧の大きさはもはや光強度をたどらず、非直線性が光強度測定にもたらされ得る。キャパシタの飽和によって引き起こされた非直線性を低減させるために、ADCは、判定を生成するために第2の電圧を静的閾値と比較することによって飽和時間(TTS)測定動作を行うことができ、この判定によって、メモリでカウンタ値を記憶するように制御可能である。カウンタ値は、第2の電圧が飽和閾値に達する時間を表すことができる。飽和時間は、電荷検知ユニットが飽和する範囲の光の強度を表すことができ、第2の電圧の値はもはや光の強度を反映しない。このような配置で、ダイナミックレンジの上限は拡張可能である。
他方では、イメージセンサの動作速度は、上述されるように、特に、複数の量子化動作がダイナミックレンジを改善するためにフォトダイオードによって生成される電荷に対して行われる場合に、ピクセルセルのフォトダイオード全てに対する量子化動作の完了時間を総体的に低減するなど、様々な技法に基づいて改善可能である。量子化動作の完了時間を総体的に低減するための1つのやり方は、例えば、ピクセルセルのそれぞれのフォトダイオードが複数の量子化動作を行うためにこれ自体の専用の比較器を有するように、ピクセルセルにおけるそれぞれのフォトダイオードに比較器を提供することによってそれぞれのフォトダイオードに対する並列量子化動作を可能にすることである。
イメージセンサのそれぞれのピクセルセルにおける複数の比較器を含むことによって、それぞれのピクセルセルに対する量子化動作の完了時間を総体的に低減し、かつイメージセンサの動作速度を改善することができるが、このような配置によって実質的に、電力消費およびピクセルセルのサイズを増大させる可能性があり、これら両方共は、特にウェアラブルアプリケーションには望ましくない。具体的には、比較器は典型的には、多量の静電流を消費するアナログ回路(例えば、差動対、バイアス回路、出力段など)を含む。また、これらのアナログ回路は典型的には、デジタル回路と異なるプロセスノードのトランジスタデバイス、およびピクセルセルのフォトダイオードデバイスを使用し、かつデジタル回路およびフォトダイオードデバイスよりはるかに多くの空間を占有する。プロセス技術の進歩によってフォトダイオードのサイズはさらに縮小し、分解能を改善するためにより多くのフォトダイオードをイメージセンサに含ませることができるため、比較器が必要とする電力および空間は、特に、それぞれのフォトダイオードが専用の比較器を有することになる場合に、どれくらいのフォトダイオードをイメージセンサに含むことができるかを限定するような障害になり得る。
ピクセルセルにおけるそれぞれのフォトダイオードに対する量子化動作を並列化することに加えて、イメージセンサの動作速度を改善するための別のやり方は、量子化動作にもたらされる様々な遅延を低減することである。遅延の1つの原因は、イメージセンサからの量子化結果(例えば、ピクセルデータ)を、量子化結果を消費するアプリケーションのホストデバイスに移動させる時間である可能性がある。例えば、後続の量子化動作は、ホストデバイスに移動させる先の量子化動作の量子化結果を待つために保留される場合がある。イメージセンサの動作速度は、後続の量子化動作のホールド時間が低減または最小化可能である場合に改善できる。
本開示は、上記の問題の少なくともいくつかに対処することによって、並べて行う2Dおよび3D画像化動作を改善し、かつグローバルシャッター動作を改善可能であるイメージセンサに関する。具体的には、イメージセンサは、第1のフォトダイオード、第2のフォトダイオード、量子化器、第1のメモリバンク、第2のメモリバンク、およびコントローラを含んでよい。第1のフォトダイオードは、入射光に応答して第1の電荷を生成可能であるのに対し、第2のフォトダイオードは、入射光に応答して第2の電荷を生成可能である。量子化器は、第1のフォトダイオードと第2のフォトダイオードとの間で共有される比較器を含む。コントローラは、量子化器で、第1のデジタル出力および第2のデジタル出力をそれぞれ生成するために第1の電荷の第1の量子化動作および第2の量子化動作を行うように制御することであって、第1の量子化動作および第2の量子化動作は異なる強度範囲に関連付けられる、制御すること、および第1のデジタル出力または第2のデジタル出力のうちの1つを第1のメモリバンクに記憶することを行うことができる。さらに、コントローラは、量子化器で、第2の電荷の第3の量子化動作を行って第3のデジタル出力を生成するように制御し、かつ第3のデジタル出力を第2のメモリバンクに記憶することができる。第3の量子化動作は、第1の量子化動作または第2の量子化動作のうちの少なくとも1つと異なる強度範囲に関連付けられる。
1つの例では、イメージセンサは、第1のフォトダイオードと第2のフォトダイオードとの間で共有される電荷検知ユニットを含んでよく、量子化器は電荷検知ユニットの出力を量子化可能である。電荷検知ユニットは、第1の電荷および第2の電荷を、第1の電圧および第2の電圧にそれぞれ変換するためのキャパシタを含んでよく、これら電圧は量子化器によって量子化可能である。具体的には、露光時間内に、コントローラは、最初に、電荷検知ユニットを第1のフォトダイオードに接続して、第1の電荷の一部として第1のフォトダイオードから第1のオーバーフロー電荷を受け取ることができ、第1のフォトダイオードおよび第2のフォトダイオード15は、(第1の電荷の一部として)第1の残留電荷を、および(第2の電荷の一部として)第2の残留電荷をそれぞれ蓄積する。露光期間の間、キャパシタに蓄えられる第1のオーバーフロー電荷は、第1の電圧を生じさせてよく、量子化器は、第1のデジタル出力を生成するために第1の電圧においてTTS動作またはFD ADC動作のうちの少なくとも1つを行うことができる。
露光期間が終了した後、PD ADC動作は第1のフォトダイオードに対して行われ得る。この場合、第1のフォトダイオードで蓄積された第1の残留電荷は新しい第1の電圧を得るために電荷検知ユニットに移動させる。新しい第1の電圧は第2のデジタル出力を生成するために量子化器によって量子化可能である。電荷検知ユニットのキャパシタが第1のオーバーフロー電荷によって飽和するかどうか、および第1のフォトダイオードが第1の残留電荷によって飽和するかどうかに基づいて、(TTS動作またはFD ADC動作どちらかからの)第1のデジタル出力または(PD ADC動作からの)第2のデジタル出力のうちの1つは第1のメモリバンクに記憶され得る。第1のフォトダイオードに対するPD ADC動作が完了した後、コントローラは、第2のフォトダイオードが、第2の残留電荷を電荷検知ユニットに移動させて第2の電圧を生成するように制御し、かつ量子化器で、第2の電圧でPD ADC動作を行って第3のデジタル出力を生成するように制御することができる。第3のデジタル出力は第2のメモリバンクに記憶可能である。
第1のフォトダイオードおよび第2のフォトダイオードは、イメージセンサの同じピクセルセルまたは異なるピクセルセルの一部とすることができる。第1のフォトダイオードおよび第2のフォトダイオードは、入射光の異なる成分を検出するように構成可能である。1つの例では、第1のフォトダイオードは、入射光の可視成分を検出して2D画像化のためのピクセルデータを生成するように構成可能であるのに対して、第2のフォトダイオードは、入射光の赤外線成分を検出して3D画像化のためのピクセルデータを生成するように構成可能である。第1のメモリバンクは2D画像フレームを記憶するための第1のメモリの一部とすることができるのに対し、第2のメモリバンクは3D画像フレームを記憶するための第2のメモリの一部とすることができる。
上記の配置によって、イメージセンサの性能が改善され、かつサイズおよび電力が低減され得る。具体的には、完了済みの量子化動作から生成される2D画像フレームおよび3D画像フレームを記憶するためにさらなるメモリバンクを提供することによって、2D画像フレームおよび3D画像フレームはメモリから読み出され、かつホストデバイスに移動させることができる一方、次のフレームに対する後続の量子化動作は進行中である。単一のメモリバンクが複数のフォトダイオードによって共有され、かつ1つのフォトダイオードの出力の量子化が、メモリバンクに記憶された量子化結果が読み出されかつ消去可能になるまで保留される必要がある場合と比較して、上記の配置によって、量子化動作によってもたらされる遅延は低減可能であり、かつイメージセンサの動作速度は改善可能である。また、フォトダイオードの間で比較器を共有することによって、典型的には、比較器のアナログ回路によって独占されるイメージセンサの電力およびサイズが低減可能である。他方では、メモリバンクが典型的には比較器よりはるかに少ない空間を占有しかつはるかに少ない電力を消費するデジタル回路として実装されると仮定して、さらなるメモリバンクを含むことによって、典型的には、特に、メモリバンクが進歩したプロセス技術で製作されるとき、イメージセンサのサイズおよび電力消費の実質的な増加は生じない。
イメージセンサは、さらなる電荷検知ユニットおよびさらなるメモリバンクを含むことができ、フォトダイオードとメモリバンクとの間のマッピングは、種々の応用に基づいて変化し得る。1つの例では、イメージセンサは2つのピクセルセルを含んでよく、それぞれのピクセルセルは、フォトダイオードおよび電荷検知ユニットの対を含む。(2つのピクセルセルの)2つの電荷検知ユニットは比較器を共有できる。第1のフォトダイオードは第1のピクセルセルとすることができるのに対し、第2のフォトダイオードは第2のピクセルセルとすることができる。比較器は、最初に、第1のピクセルセルの電荷検知ユニットに接続されて、第1のフォトダイオードに対するTTS動作、FD ADC動作、およびPD ADC動作を行い、かつ該動作のうちの1つの出力を第1のメモリバンクに記憶することができる。比較器はさらにまた、第2のピクセルセルの電荷検知ユニットに接続されて、第2のフォトダイオードに対するFD ADC動作およびPD ADC動作を行い、かつ該動作のうちの1つの出力を第2のメモリバンクに記憶することができる。ピクセルセルにおける他のフォトダイオードに対して、PD ADC動作のみが行われ、PD ADC動作の結果は、第1のフォトダイオードおよび第2のフォトダイオードの出力が読み出された後に第1のメモリバンクおよび第2のメモリバンクに記憶可能である。
別の例として、イメージセンサのそれぞれのピクセルセルは、電荷検知ユニットを共有する4つのフォトダイオードを含んでよく、イメージセンサは4つのメモリバンクを含んでよい。いくつかの例では、メモリバンクは、第1のピクセルセルの出力を記憶するための2つのメモリバンク、および第2のピクセルセルの出力を記憶させるための他の2つのメモリバンクを有するなど、ピクセルセルの間で均等に分布させることができる。いくつかの例では、メモリバンクは、例えば、ピクセルセルが関心領域の一部であることに基づいてピクセルセルの出力を記憶するために優先的に割り当て可能であり、ピクセルセルの出力は、例えば、他のピクセルセルの露光時間を設定する、他のピクセルセルのある特定の量子化動作を有効/無効にするなど、他のピクセルセルの量子化動作を動的に変更するために、他のピクセルセルの前に読み出される必要がある。別の例として、複数のメモリバンクは、フォトダイオードの出力を記憶するために割り当て可能である。このような配置を使用して、残留電荷/オーバーフロー電荷の蓄積から生じる電荷検知ユニットにおける電圧の複数のサンプリングを可能にすることができ、これによって、量子化の分解能を改善することができる。このような例では、メモリバンクのそれぞれは、電圧のデジタルサンプルを記憶することができ、デジタルサンプルは、残留電荷/オーバーフロー電荷を表すデジタル出力を生成するために平均化して(あるいは後処理で)読み出し可能である。
開示された技法は、人工現実システムを含んでよい、またはこれと併せて実行可能である。人工現実は、ユーザに提示する前に何らかの方法で調節された現実の形であり、例えば、仮想現実(VR)、拡張現実(AR)、複合現実(MR)、ハイブリッドリアリティ、または、これらのいくつかの組合せおよび/もしくは派生物を含むことができる。人工現実のコンテンツは、完全に生成したコンテンツ、または、キャプチャした(例えば、現実世界の)コンテンツと組み合わせて生成したコンテンツを含むことができる。人工現実のコンテンツは、動画、音声、触感フィードバック、または、これらのいくつかの組合せを含むことができ、これらのいずれかは、単一のチャネルで、または、(視聴者に対して3次元効果を生み出すステレオ動画などの)複数のチャネルで提示することができる。さらに、いくつかの例では、アプリケーション、製品、アクセサリ、サービス、または、これらのいくつかの組合せに人工現実をさらに関連付けることができ、これらは、例えば、人工現実においてコンテンツを作成するために使用され、および/または、そうでなければ、人工現実において使用される(例えば、人工現実において活動を行う)。人工現実のコンテンツを提供する人工現実システムは、ホストコンピュータシステムに接続されたヘッドマウントディスプレイ(HMD)、スタンドアロンのHMD、モバイルデバイスもしくはコンピューティングシステム、または、他の任意のハードウェアプラットフォームを含む様々なプラットフォームで実現することができ、1人または複数の視聴者に人工現実のコンテンツを提供することができる。
図1Aは、ニアアイディスプレイ100の例の図である。ニアアイディスプレイ100は、ユーザに媒体を提示する。ニアアイディスプレイ100によって提示される媒体の例は、1つまたは複数の画像、動画、および/または音声を含む。いくつかの例では、音声は、ニアアイディスプレイ100、コンソール、または両方から音声情報を受け取り、音声情報に基づいて音声データを提示する外部デバイス(例えば、スピーカおよび/またはヘッドホン)を介して提示される。ニアアイディスプレイ100は、一般に、仮想現実(VR)ディスプレイとして動作するように構成される。いくつかの例では、ニアアイディスプレイ100は、拡張現実(AR)ディスプレイおよび/または複合現実(MR)ディスプレイとして動作するように変更される。
ニアアイディスプレイ100は、フレーム105およびディスプレイ110を含む。フレーム105は、1つまたは複数の光学素子に連結される。ディスプレイ110は、ニアアイディスプレイ100によって提示されたコンテンツをユーザが見えるように構成される。いくつかの例では、ディスプレイ110は、1つまたは複数の画像からの光をユーザの目に向けるための導波路ディスプレイアセンブリを備える。
ニアアイディスプレイ100は、イメージセンサ120a、120b、120c、および120dをさらに含む。イメージセンサ120a、120b、120c、および120dのそれぞれは、ピクセルのアレイを備え、異なる方向に沿った異なる視界に相当する画像データを生成するように構成されたピクセルアレイを含むことができる。例えば、センサ120aおよび120bは、Z軸に沿って方向Aに向いた2つの視界に相当する画像データを提供するように構成することができ、その一方で、センサ120cは、X軸に沿って方向Bに向いた視界に相当する画像データを提供するように構成することができ、センサ120dは、X軸に沿って方向Cに向いた視界に相当する画像データを提供するように構成することができる。
いくつかの例では、センサ120a~120dは、ニアアイディスプレイ100を着用したユーザに対話式VR/AR/MR体験を提供するために、ニアアイディスプレイ100の表示コンテンツを制御する、または影響を与えるための入力デバイスとして構成することができる。例えば、センサ120a~120dは、ユーザがいる実際の環境の実際の画像データを生成することができる。実際の画像データは、実際の環境におけるユーザの動きの位置および/または経路を追跡するための位置追跡システムに提供することができる。システムは、次に、双方向体験を提供するために、例えば、ユーザの位置および方向に基づいて、ディスプレイ110に提供された画像データを更新することができる。いくつかの例では、位置追跡システムは、SLAMアルゴリズムを動作させて、実際の環境の中をユーザが動くときの、実際の環境における、また、ユーザのフィールドのビュー内の、オブジェクトのセットを追跡することができる。位置追跡システムは、オブジェクトのセットに基づいて、実際の環境のマップを構築して更新し、マップ内のユーザの位置を追跡することができる。複数の視界に対応する画像データを提供することによって、センサ120a~120dは、実際の環境のより全体的な景色を位置追跡システムに提供することができ、マップの構築および更新時に、より多くのオブジェクトが含まれるようにすることができる。このような配置により、実際の環境内のユーザの位置の追跡の正確さおよび堅牢性を改善することができる。
いくつかの例では、ニアアイディスプレイ100は、実際の環境に光を投射するための1つまたは複数のアクティブ照射器130をさらに含むことができる。投射した光は、異なる周波数スペクトル(例えば、可視光、赤外光、紫外光など)に関連付けることができ、様々な目的を満たすことができる。例えば、照射器130は、例えば、ユーザの場所追跡を可能にするように、暗い環境内の異なるオブジェクトの画像をセンサ120a~120dがキャプチャするのを支援するために、暗い環境に(または、赤外光、紫外光などの低強度の環境に)光を投射することができる。照射器130は、場所追跡システムがマップ構成/更新のためにオブジェクトを識別するのを支援するために、環境内のオブジェクトにある特定のマーカを投射してよい。
いくつかの例では、照射器130は立体画像化を可能にすることもできる。例えば、センサ120aまたは120bの1つまたは複数は、可視光検知のための第1のピクセルアレイおよび赤外(IR)光検知のための第2のピクセルアレイ両方を含むことができる。第1のピクセルアレイは、色フィルタ(例えば、ベイヤーフィルタ)を被せることができ、第1のピクセルアレイのそれぞれのピクセルは特定の色(例えば、赤色、緑色、または青色のうちの1つ)に関連付けられる光の強度を測定するように構成される。(IR光検知のための)第2のピクセルアレイも、IR光のみを通すことを可能にするフィルタを被せることができ、第2のピクセルアレイのそれぞれのピクセルはIR光の強度を測定するように構成される。ピクセルアレイは、オブジェクトのRGB画像およびIR画像を生成可能であり、IR画像のそれぞれのピクセルは、RGB画像のそれぞれのピクセルにマッピングされる。照射器130は、オブジェクト上にIRマーカのセットを投射してよく、この画像はIRピクセルアレイによってキャプチャ可能である。画像に示されるようなオブジェクトのIRマーカの分布に基づいて、システムは、IRピクセルアレイからのオブジェクトの異なる部分の距離を推定し、かつ、この距離に基づいてオブジェクトの立体画像を生成することができる。オブジェクトの立体画像に基づいて、システムは、例えば、ユーザに対するオブジェクトの相対位置を決定することができ、かつ双方向体験を提供するために相対位置情報に基づいてディスプレイ100に提供される画像データを更新することができる。
上で論じられるように、ニアアイディスプレイ100は、光強度の非常に広い範囲に関連付けられた環境で動作させてよい。例えば、ニアアイディスプレイ100は、屋内環境もしくは屋外環境で、および/または1日のうち異なる回数で動作させてよい。ニアアイディスプレイ100はまた、アクティブ照射器130をオンにしてまたはオンにせずに動作させてよい。結果として、イメージセンサ120a~120dは、ニアアイディスプレイ100に対する異なる動作環境に関連付けられた光強度の非常に広い範囲にわたって正しく動作する(例えば、入射光の強度と相関する出力を生成する)ことができるように広いダイナミックレンジを有する必要がある場合がある。
図1Bは、ニアアイディスプレイ100の別の例の図である。図1Bは、ニアアイディスプレイ100を着用したユーザの眼球135に面したニアアイディスプレイ100の側面を示す。図1Bに示したように、ニアアイディスプレイ100は、複数の照射器140a、140b、140c、140d、140e、および140fをさらに含むことができる。ニアアイディスプレイ100は、複数のイメージセンサ150aおよび150bをさらに含む。照射器140a、140b、および140cは、(図1Aの方向Aとは逆の)方向Dに向けて一定の周波数範囲の光(例えば、NIR)を放つことができる。放った光は、一定のパターンに関連付けたものであってもよく、ユーザの左の眼球で反射させることができる。センサ150aは、反射した光を受光し、反射パターンの画像を生成するためのピクセルアレイを含むことができる。同様に、照射器140d、140e、および140fは、パターンを運ぶNIR光を放つことができる。NIR光は、ユーザの右の眼球で反射させることができ、センサ150bで受光することができる。センサ150bは、反射パターンの画像を生成するためのピクセルアレイをさらに含むことができる。センサ150aおよび150bからの反射パターンの画像に基づいて、システムは、ユーザの注視点を判定し、判定した注視点に基づいて、ディスプレイ100に提供された画像データを更新して、ユーザに双方向体験を提供することができる。
上で論じられるように、ユーザの眼球への損傷を回避するために、照射器140a、140b、140c、140d、140e、および140fは典型的には、非常に低い強度の光を出力するように構成される。イメージセンサ150aおよび150bが、図1Aのイメージセンサ10 120a~120dと同じセンサデバイスを含む場合、イメージセンサ120a~120dは、入射光の強度が非常に低いときに入射光の強度と相関する出力を生成できるようにする必要がある場合があり、これによって、イメージセンサのダイナミックレンジ要件がさらに増大する場合がある。
また、イメージセンサ120a~120dは、眼球の動きを追跡するために出力を高速で生成できるようにする必要があり得る。例えば、ユーザの眼球は、1つの眼球位置から別の眼球位置への急速な移行がある可能性がある非常に急速な動き(例えば、サッケード運動)を行うことができる。ユーザの眼球の急速な動きを追跡するために、イメージセンサ120a~120dは、眼球の画像を高速で生成する必要がある。例えば、イメージセンサが画像フレームを生成する速度(フレームレート)は、眼球の動きの速度に少なくとも一致する必要がある。高いフレームレートは、画像フレームを生成するのに関与したピクセルセルの全てに対して短い総露光時間を、および、画像生成のためにセンサ出力をデジタル値に変換するために高速を必要とする。また、上で論じられるように、イメージセンサは、低い光強度の環境で動作できるようにする必要もある。
図2は、図1Aおよび図1Bに示したニアアイディスプレイ100の横断面200の例である。ディスプレイ110は、少なくとも1つの導波路ディスプレイアセンブリ210を含む。射出瞳230は、ニアアイディスプレイ100をユーザが着用したとき、アイボックス領域にユーザの片方の眼球220がある位置である。例証のために、図2は、眼球220および単一の導波路ディスプレイアセンブリ210に関連付けられた横断面200を示すが、ユーザの第2の目のために、第2の導波路ディスプレイを使用する。
導波路ディスプレイアセンブリ210は、射出瞳230にあるアイボックスに、また、眼球220に、画像光を向けるように構成される。導波路ディスプレイアセンブリ210は、1つまたは複数の屈折率を有する1つまたは複数の材料(例えば、プラスチック、ガラスなど)から成ることができる。いくつかの例では、ニアアイディスプレイ100は、導波路ディスプレイアセンブリ210と眼球220との間に1つまたは複数の光学素子を含む。
いくつかの例では、導波路ディスプレイアセンブリ210は、1つまたは複数の導波路ディスプレイのスタックを含み、スタック型導波路ディスプレイ、可変焦点導波路ディスプレイ、等を含むがこれらに限定されない。スタック型導波路ディスプレイは、それぞれの単色源が異なる色のものである導波路ディスプレイをスタックすることによって作り出された多色ディスプレイ(例えば、赤-緑-青(RGB)ディスプレイ)である。また、スタック型導波路ディスプレイは、複数の平面に投射できる多色ディスプレイ(例えば、マルチプラナー着色ディスプレイ(multi-planar colored display))である。いくつかの構成では、スタック型導波路ディスプレイは、複数の平面に投射できる単色ディスプレイ(例えば、マルチプラナー単色ディスプレイ(multi-planar monochromatic display))である。可変焦点導波路ディスプレイは、導波路ディスプレイから放たれた画像光の焦点位置を調節できるディスプレイである。代替例では、導波路ディスプレイアセンブリ210は、スタック型導波路ディスプレイおよび可変焦点導波路ディスプレイを含むことができる。
図3は、導波路ディスプレイ300の例の等角図を示す。いくつかの例では、導波路ディスプレイ300は、ニアアイディスプレイ100の構成要素(例えば、導波路ディスプレイアセンブリ210)である。いくつかの例では、導波路ディスプレイ300は、他のいくつかのニアアイディスプレイ、または、画像光を特定の位置に向ける他のシステムの一部である。
導波路ディスプレイ300は、ソースアセンブリ310、出力導波路320、およびコントローラ330を含む。例証のために、図3は、片方の眼球220に関連付けられた導波路ディスプレイ300を示すが、いくつかの例では、導波路ディスプレイ300とは別個の、または部分的に別個の、別の導波路ディスプレイが、ユーザのもう一方の目に画像光を提供する。
ソースアセンブリ310は、画像光355を生成する。ソースアセンブリ310は、画像光355を生成し、出力導波路320の第1の側面370-1にある連結要素350に出力する。出力導波路320は、ユーザの眼球220に拡大した画像光340を出力する光導波路である。出力導波路320は、第1の側面370-1にある1つまたは複数の連結要素350で画像光355を受光し、受光した入力画像光355を配向要素(directing element)360に誘導する。いくつかの例では、連結要素350は、ソースアセンブリ310からの画像光355を出力導波路320に連結する。連結要素350は、例えば、回折格子、ホログラフィック格子、1つもしくは複数のカスケード型反射器、1つもしくは複数の角柱面要素、および/または、ホログラフィ反射器のアレイであってもよい。
配向要素360は、受光した入力画像光355の向きを分離要素365の方に変え、その結果、受光した入力画像光355は、分離要素365を介して出力導波路5 320から分離される。配向要素360は、出力導波路320の第1の側面370-1の一部である、または、第1の側面370-1に貼られる。分離要素365は、出力導波路320の第2の側面370-2の一部である、または、第2の側面370-2に貼られ、その結果、配向要素360は、分離要素365と向かい合う。配向要素360および/または分離要素365は、例えば、回折格子、ホログラフィック格子、1つもしくは複数のカスケード型反射器、1つもしくは複数の角柱面要素、および/または、ホログラフィ反射器のアレイであってもよい。
第2の側面370-2は、x次元およびy次元に沿った平面に相当する。出力導波路320は、画像光355の全内部反射を助長する1つまたは複数の材料から成ることができる。出力導波路320は、例えば、シリコン、プラスチック、ガラス、および/またはポリマーから成ることができる。出力導波路320は、比較的小さいフォームファクタを有する。例えば、出力導波路320は、およそ、x次元に沿って50mm広く、y次元に沿って30mm長く、また、z次元に沿って0.5mm~1mm厚くてもよい。
コントローラ330は、ソースアセンブリ310のスキャン動作を制御する。コントローラ330は、ソースアセンブリ310に対するスキャン命令を決定する。いくつかの例では、出力導波路320は、視界(FOV:field of view)が広いユーザの眼球220に、拡大した画像光340を出力する。例えば、拡大した画像光340は、(xおよびyにおける)対角線FOVが60度以上、および/または、150度以下のユーザの眼球220に提供される。出力導波路320は、長さ20mm以上および/もしくは50mm以下、ならびに/または、幅10mm以上および/または50mm以下のアイボックスを提供するように構成される。
さらに、コントローラ330は、イメージセンサ370によって提供された画像データに基づいて、ソースアセンブリ310によって生成された画像光355も制御する。イメージセンサ370は、第1の側面370-1にあってよく、例えば、(例えば、場所決定のために)ユーザの正面の物理的環境の画像データを生成するために図1Aのイメージセンサ120a~120dを含んでよい。イメージセンサ370は、第2の側面370-2にあってもよく、ユーザの(例えば、注視点判定のために)眼球220の画像データを生成するために図1Bのイメージセンサ150aおよび150bを含んでよい。イメージセンサ370は、導波路ディスプレイ300内にないリモートコンソールとインターフェース接続してよい。イメージセンサ370は、例えば、ユーザの場所、ユーザの注視点などを判定し、かつユーザに表示される画像のコンテンツを判定することができるリモートコンソールに画像データを提供してよい。リモートコンソールは、決定したコンテンツに関する命令をコントローラ330に伝送することができる。命令に基づいて、コントローラ330は、ソースアセンブリ310による画像光355の生成および出力を制御することができる。
図4は、導波路ディスプレイ300の横断面400の例を示す。横断面400は、ソースアセンブリ310、出力導波路320、およびイメージセンサ370を含む。図4の例では、イメージセンサ370は、ユーザの前にある実際の環境の画像を生成するための、第1の側面370-1にあるピクセルセル402のセットを含むことができる。いくつかの例では、ピクセルセル402のセットと実際の環境との間に介在する機械シャッター404が存在することができ、ピクセルセル402のセットの露光を制御することができる。いくつかの例では、機械シャッター404は、下記で論じるように、電子シャッターゲートで置き替えることができる。ピクセルセル402のそれぞれは、画像の1つのピクセルに対応させることができる。図4に示されていないが、ピクセルセル402のそれぞれは、ピクセルセルによって検知されることになる光の周波数範囲を制御するためにフィルタをさらに被せてもよいということがわかる。
リモートコンソールから命令を受け取った後、機械シャッター404が開き、露光期間内にピクセルセル402のセットを露光させることができる。露光期間中、イメージセンサ370は、ピクセルセル402のセットに入射した光のサンプルを取得し、ピクセルセル402のセットによって検出された入射光サンプルの強度分布に基づいて画像データを生成することができる。イメージセンサ370は、次に、リモートコンソールに画像データを送り、リモートコンソールは、表示コンテンツを決定し、表示コンテンツ情報をコントローラ330に送ることができる。コントローラ330は、次に、表示コンテンツ情報に基づいて画像光355を決定することができる。
ソースアセンブリ310は、コントローラ330からの命令に従って画像光355を生成する。ソースアセンブリ310は、発光源410および光学システム415を含む。発光源410は、干渉性の、または部分的に干渉性の、光を生成する光源である。発光源410は、例えば、レーザダイオード、垂直キャビティ面発光レーザ、および/または発光ダイオードであってもよい。
光学システム415は、発光源410からの光を調整する1つまたは複数の光学部品を含む。発光源410からの光を調整することは、例えば、コントローラ330からの命令に従って方向を拡大すること、コリメートすること、および/または調節することを含むことができる。1つまたは複数の光学部品は、1つまたは複数のレンズ、液体レンズ、ミラー、開口部、および/または回折格子を含むことができる。いくつかの例では、光学システム415は、スキャン角度の閾値で光のビームをスキャンして、液体レンズの外側の領域に光のビームをシフトさせることができる複数の電極を有する液体レンズを含む。光学システム415(および、さらにソースアセンブリ310)から放たれた光は、画像光355と呼ばれる。
出力導波路320は、画像光355を受光する。連結要素350は、ソースアセンブリ310からの画像光355を出力導波路320に連結する。連結要素350が回折格子である例では、出力導波路320内で全内部反射が発生し、(例えば、全内部反射によって)出力導波路320の内部で画像光355が分離要素365に向けて伝搬するように、回折格子のピッチを選ぶ。
配向要素360は、出力導波路320から分離させるために画像光355の向きを分離要素365の方に変える。配向要素360が回折格子である例では、分離要素365の表面に対する傾斜角で、入射した画像光355が出力導波路320を出るように、回折格子のピッチを選ぶ。
いくつかの例では、配向要素360および/または分離要素365は構造的に似ている。出力導波路320を出た拡大した画像光340は、1つまたは複数の次元に沿って拡大される(例えば、x次元に沿って延びてもよい)。いくつかの例では、導波路ディスプレイ300は、複数のソースアセンブリ310、および、複数の出力導波路320を含む。ソースアセンブリ310のそれぞれは、原色(例えば、赤、緑、または青)に対応する特定の波長帯域の単色画像光を放つ。出力導波路320のそれぞれは、多色の拡大した画像光340を出力するための分離距離で一緒にスタックすることができる。
図5Aは、ニアアイディスプレイ100を含むシステム500の例のブロック図である。システム500は、ニアアイディスプレイ100、画像化デバイス535、入出力インターフェース540、ならびにイメージセンサ120a~120dおよび150a~150bを備え、これらは、制御回路510にそれぞれ連結される。システム500は、ヘッドマウントデバイス、ウェアラブルデバイス、等として構成することができる。
ニアアイディスプレイ100は、ユーザに媒体を提示するディスプレイである。ニアアイディスプレイ100によって提示される媒体の例は、1つまたは複数の画像、動画、および/または音声を含む。いくつかの例では、音声は、ニアアイディスプレイ100および/または制御回路510から音声情報を受け取り、音声情報に基づく音声データをユーザに提示する外部デバイス(例えば、スピーカおよび/またはヘッドホン)を介して提示される。いくつかの例では、ニアアイディスプレイ100は、AR眼鏡(AR eyewear glass)としてさらに機能させることができる。いくつかの例では、ニアアイディスプレイ100は、コンピュータ生成要素(例えば、画像、動画、音など)で実際の現実世界環境の景色を拡大する。
ニアアイディスプレイ100は、導波路ディスプレイアセンブリ210、深度カメラアセンブリ(DCA)520、1つもしくは複数のポジションセンサ525、および/または慣性計測ユニット(IMU)530を含む。ニアアイディスプレイ100のいくつかの例は、図5Aに関して記載されるものとは異なる構成要素を有する。加えて、図5Aに関して記載される様々な構成要素によって提供される機能性は、他の例におけるニアアイディスプレイ100の構成要素の間では異なるように分配されてよい。
いくつかの例では、導波路ディスプレイアセンブリ210は、ソースアセンブリ310と、出力導波路320と、コントローラ330とを含む。
DCA120は、ニアアイディスプレイ100を取り囲むエリアの深度情報を説明するデータをキャプチャする。DCA120のいくつかの例は、1つまたは複数の画像化デバイス(例えば、カメラ、ビデオカメラ)と、構造光(SL)パターンを放つように構成された照明源とを含む。下記でさらに論じるように、構造光は、対称もしくは疑似ランダムドットパターン、グリッド、または水平バーなどの指定されたパターンをシーン上に投射する。例えば、照明源は、グリッドまたは一連の水平バーを、ニアアイディスプレイ100を取り囲む環境上に放つ。三角測量に基づいて、または表面上に投射されたときのパターンの知覚された変形に基づいて、シーン内のオブジェクトの深度および表面情報が決定される。
いくつかの例では、ニアアイディスプレイ100を取り囲むエリアの深度情報をより良くキャプチャするため、DCA120は、照明源から放たれた光がニアアイディスプレイ100を取り囲むエリア内のオブジェクトから反射されて、1つまたは複数の画像化デバイスに戻るまでの時間を説明する、飛行時間情報もキャプチャする。様々な実現例では、DCA120は、構造光情報と同時またはほぼ同時に飛行時間情報をキャプチャする。放たれた光が1つまたは複数の画像化デバイスによってキャプチャされる時間に基づいて、DCA120は、DCA120と、照明源からの光を反射するニアアイディスプレイ100を取り囲むエリア内のオブジェクトとの間の距離を決定する。飛行時間情報ならびに構造光情報をキャプチャするため、照明源は、放たれたSLパターンを、30MHzなどの特定の周波数を有するキャリア信号を用いて変調する(様々な例では、周波数は、5MHz~5GHzの周波数の範囲から選択されてよい)。
画像化デバイスは、光の波長(例えば、光の「帯域」)の特定の範囲をキャプチャし記録する。画像化デバイスによってキャプチャされる光の帯域の例は、可視帯域(約380nm~750nm)、赤外(IR)帯域(約750nm~2,200nm)、紫外帯域(100nm~380nm)、電磁スペクトルの別の部分、または前述の何らかの組合せを含む。いくつかの例では、画像化デバイスは、可視帯域および赤外帯域内の光を含む画像をキャプチャする。ニアアイディスプレイ100を取り囲むエリア内のオブジェクトから反射された構造光パターンからの光を共同でキャプチャし、照明源からのキャリア信号がエリア内のオブジェクトからDCA120へと反射される時間を決定するため、画像化デバイスは、ピクセル群のアレイを備える検出器を含む。各ピクセル群は1つまたは複数のピクセルを含み、異なるピクセル群は、キャリア信号の位相に対する異なる位相シフトと関連付けられる。様々な例では、異なるピクセル群は、照明源によって放たれたキャリア信号によって変調されたパターンの異なる時間位相をキャプチャするため、互いに対して異なる時間に活性化される。例えば、隣接するピクセル群が、互いに対して約90度、180度、または270度の位相シフトを有する光をキャプチャするように、ピクセル群は異なる時間に活性化される。DCA120は、DCA120からの深度と同等である、キャリア信号の位相を、異なるピクセル群によってキャプチャされた信号データから導き出す。キャプチャされたデータはまた、時間ドメインにわたる総ピクセル電荷の合計によって、またはキャリア位相信号に対する補正後に、空間パターンの画像フレームを生成する。
IMU530は、ポジションセンサ525の1つまたは複数から受け取った測定信号に基づいて、ニアアイディスプレイ100の最初の位置に対するニアアイディスプレイ100の推定位置を示す高速較正データを生成する電子デバイスである。
画像化デバイス535は、様々な用途のための画像データを生成することができる。例えば、画像化デバイス535は、制御回路510から受け取った較正パラメータに従って低速較正データを提供するための画像データを生成することができる。画像化デバイス535は、ユーザの位置追跡を実行するために、ユーザがいる実際の環境の画像データを生成するための、例えば、図1Aのイメージセンサ120a~120dを含むことができる。画像化デバイス535は、ユーザの関心のあるオブジェクトを識別するために、ユーザの注視点を決定するための画像データを生成するための、例えば、図1Bのイメージセンサ150a~150bをさらに含むことができる。
入出力インターフェース540は、制御回路510にアクション要求をユーザが送ることができるデバイスである。アクション要求は、特定のアクションを実行するための要求である。例えば、アクション要求は、アプリケーションを開始もしくは終了させること、または、アプリケーション内の特定のアクションを実行することであってもよい。
制御回路510は、画像化デバイス535、ニアアイディスプレイ100、および入出力インターフェース540の1つまたは複数から受け取った情報に従ってユーザに提示するために、ニアアイディスプレイ100に媒体を提供する。いくつかの例では、制御回路510は、ヘッドマウントデバイスとして構成されたシステム500内に収納することができる。いくつかの例では、制御回路510は、システム500の他の構成要素と通信連結されたスタンドアロンのコンソールデバイスであることが可能である。図5に示した例では、制御回路510は、アプリケーション記憶装置545、追跡モジュール550、およびエンジン555を含む。
アプリケーション記憶装置545は、制御回路510による実行のための1つまたは複数のアプリケーションを記憶する。アプリケーションは命令のグループであり、プロセッサによって実行されると、ユーザへの提示のためのコンテンツを生成する。アプリケーションの例は、ゲームアプリケーション、会議アプリケーション、動画再生アプリケーション、または他の適切なアプリケーションを含む。
追跡モジュール550は、1つまたは複数の較正パラメータを使用してシステム500を較正し、1つまたは複数の較正パラメータを調節して、ニアアイディスプレイ100の位置を決定する際の誤差を減らすことができる。
追跡モジュール550は、画像化デバイス535からの低速較正情報を使用して、ニアアイディスプレイ100の動きを追跡する。追跡モジュール550は、高速較正情報からの位置情報を使用して、ニアアイディスプレイ100の基準点の位置をさらに決定する。
エンジン555は、システム500内のアプリケーションを実行し、ニアアイディスプレイ100の位置情報、加速度情報、速度情報、および/または、将来の予測位置を、追跡モジュール550から受け取る。いくつかの例では、エンジン555によって受け取った情報は、導波路ディスプレイアセンブリ210への信号(例えば、表示命令)を生み出すために使用することができ、ユーザに提示されるコンテンツの種類を決定する。例えば、双方向体験を提供するために、エンジン555は、(例えば、追跡モジュール550によって提供された)ユーザの位置、または(例えば、画像化デバイス535によって提供された画像データに基づく)ユーザの注視点、(例えば、画像化デバイス535によって提供された画像データに基づく)オブジェクトとユーザとの間の距離に基づいて、ユーザに提示されることになるコンテンツを決定することができる。
図5Bは、1つまたは複数の画像化デバイス565(例えば、立体計測のための2つの画像化デバイス565)、およびDCA520の照明源560の配置例を示し、照明源560は、構造光パターン(空間パターンとも呼ばれる)をローカルエリア上に投射する。図5Bでは、空間パターン例は、照明源560の視野内に投射されるグリッドパターンを含む。散乱反射または直接反射を通して、空間パターンは画像化デバイス565によってキャプチャされる。いくつかの例では、キャプチャされた空間パターンはDCA520のメモリ570に記憶される。DCA520の1つまたは複数のプロセッサ575は、三角測量を通して、投射された構造光のキャプチャされた画像に基づいて、ローカルエリアの三次元レイアウトを決定する。
図6Aは、イメージセンサ600の例を示す。イメージセンサ600は、ニアアイディスプレイ100の一部であることが可能であり、ニアアイディスプレイ100の表示コンテンツを制御するために、図5の制御回路510に2D画像データおよび3D画像データを提供することができる。図6Aに示されるように、イメージセンサ600は、ピクセルセル602aを含むピクセルセル602のアレイを含んでよい。ピクセルセル602aは、例えば、フォトダイオード612a、612b、612c、および612dを含む複数のフォトダイオード612と、1つまたは複数の電荷検知ユニット614と、1つまたは複数のアナログデジタルコンバータ616とを含むことができる。複数のフォトダイオード612は、入射光の異なる成分を電荷に変換できる。例えば、フォトダイオード612a~612cは、異なる可視光チャネルに対応することができ、ここでフォトダイオード612aは、可視青色成分(例えば、450~490ナノメートル(nm)の波長範囲)を電荷に変換できる。フォトダイオード612bは、可視緑色成分(例えば、520~560nmの波長範囲)を電荷に変換できる。フォトダイオード612cは、可視赤色成分(例えば、635~700nmの波長範囲)を電荷に変換できる。また、フォトダイオード612dは、赤外線成分(例えば、700~1000nm)を電荷に変換できる。1つまたは複数の電荷検知ユニット614のそれぞれは、フォトダイオード612a~612dによって生成された電荷を電圧に変換するために電荷貯蔵デバイスおよびバッファを含むことができ、該電圧は1つまたは複数のADC616によってデジタル値に量子化可能である。フォトダイオード612a~612cから生成されたデジタル値は、ピクセルの異なる可視光成分を表すことができ、それぞれは、特定の可視光チャネルにおける2D検知に使用可能である。さらに、フォトダイオード612dから生成されたデジタル値は、同じピクセルの赤外光成分を表すことができ、かつ3D検知に使用可能である。図6Aはピクセルセル602aが4つのフォトダイオードを含むことを示すが、ピクセルセルが異なる数のフォトダイオード(例えば、2つ、3つなど)を含むことができることは理解されたい。
さらに、イメージセンサ600は、照射器622、光学フィルタ624、画像化モジュール628、および検知コントローラ640も含む。照射器622は、3D検知のために赤外光を投射することができる、レーザ、発光ダイオード(LED)などの赤外線照射器であってよい。投射した光は、例えば、構造光、光パルスなどを含むことができる。光学フィルタ624は、ピクセルセル606aを含むそれぞれのピクセルセルの複数のフォトダイオード612a~612dに被せられるフィルタエレメントのアレイを含んでよい。それぞれのフィルタエレメントは、ピクセルセル606aのそれぞれのフォトダイオードが受光した入射光の波長範囲を設定することができる。例えば、フォトダイオード612a上のフィルタエレメントは、可視青色光成分を伝送する一方、他の成分を遮断してよく、フォトダイオード612b上のフィルタエレメントは可視緑色光成分を伝送してよく、フォトダイオード612c上のフィルタエレメントは可視赤色光成分を伝送してよく、その一方で、フォトダイオード612d上のフィルタエレメントは赤外光成分を伝送してよい。
イメージセンサ600は画像化モジュール628およびメモリ630をさらに含む。画像化モジュール628は、2D画像化動作を行うための2D画像化モジュール632、および3D画像化動作を行うための3D画像化モジュール634をさらに含んでよい。これらの動作は、ADC616によって提供されるデジタル値に基づくことができる。例えば、フォトダイオード612a~612cのそれぞれからのデジタル値に基づいて、2D画像化モジュール632は、それぞれの可視カラーチャネルに対する入射光成分の強度を表すピクセル値のアレイを生成し、かつそれぞれの可視カラーチャネルに対する画像フレームを生成することができる。また、3D画像化モジュール634は、フォトダイオード612dからのデジタル値に基づいて3D画像を生成することができる。いくつかの例では、デジタル値に基づいて、3D画像化モジュール634は、オブジェクトの表面で反射した構造光のパターンを検出し、かつ検出したパターンを照射器622によって投射した構造光のパターンと比較して、ピクセルセルアレイに対する表面の種々のポイントの深度を決定することができる。反射した光のパターンの検出のために、3D画像化モジュール634は、ピクセルセルで受光した赤外光の強度に基づいてピクセル値を生成することができる。別の例として、3D画像化モジュール634は、照射器622によって伝送されかつオブジェクトで反射した赤外光の飛行時間に基づいてピクセル値を生成することができる。メモリ630は、2D画像化モジュール632および3D画像化モジュール634それぞれによって生成される2D画像および3D画像のピクセルデータの少なくとも一部を記憶できる。
イメージセンサ600は、イメージセンサ600の種々の構成要素を制御して、オブジェクトの2D画像化および3D画像化を実行するための検知コントローラ640をさらに含む。ここで、図7A~図7Cを参照し、2D画像化および3D画像化のためのイメージセンサ600の動作の例を示す。図7Aは、2D画像化のための動作の例を示す。2D画像化のために、ピクセルセルアレイ602は、オブジェクトで反射した可視光を含む、環境内の可視光を検出することができる。例えば、図7Aを参照すると、可視光源700(例えば、電球、太陽、または、周囲の可視光の他の発生源)は、可視光702をオブジェクト704に投射することができる。可視光706は、オブジェクト704のスポット708で反射させることができる。可視光706は、周囲の赤外光成分を含むこともできる。可視光706は、光学フィルタアレイ624でフィルタにかけて、波長範囲w0、w1、w2、およびw3の可視光706の異なる成分を、ピクセルセル602aのフォトダイオード612a、612b、612c、および612dにそれぞれ通すことができる。波長範囲w0、w1、w2、およびw3は、青、緑、赤、および赤外線にそれぞれ対応することができる。図7Aに示されるように、赤外線照射器622はオンにされないため、赤外線成分(w3)の強度は、環境赤外光によるものであり、非常に低い可能性がある。さらに、可視光706の異なる可視成分は異なる強度を有することもできる。電荷検知ユニット614は、フォトダイオードによって生成された電荷を電圧に変換でき、該電圧は、スポット708を表すピクセルの赤、青、および緑の成分を表すデジタル値にADC616により量子化可能である。図7Cを参照すると、デジタル値が生成された後、検知コントローラ640は2D画像化モジュール632が、デジタル値に基づいて、それぞれが、同じフレーム期間714でキャプチャされたシーンの赤色、青色、または緑色画像のうちの1つを表す、赤画像フレーム710a、青画像フレーム710b、および緑画像フレーム710cを含む画像のセット710を含む画像のセットを生成するように制御可能である。赤画像(例えば、ピクセル712a)、青画像(例えば、ピクセル712b)、および緑画像(例えば、ピクセル712c)からのそれぞれのピクセルは、シーンの同じスポット(例えば、スポット708)からの光の可視成分を表すことができる。異なる画像のセット720は、後続のフレーム期間724で2D画像化モジュール632によって生成可能である。赤画像710a、青画像710b、および緑画像710cのそれぞれは、特定のカラーチャネルにおけるシーンを表すことができ、かつ例えば、特定のカラーチャネルからの画像特徴を抽出するためのアプリケーションに提供可能である。それぞれの画像は同じシーンを表し、かつ画像のそれぞれの対応するピクセルはシーンの同じスポットからの光を表すため、異なるカラーチャネル間の画像の対応関係は改善可能である。
さらに、イメージセンサ600は、オブジェクト704の3D画像化をさらに実行することができる。図7Bを参照すると、検知コントローラ610は、オブジェクト704に赤外光732を投射するように照射器622を制御することができ、赤外光732は、光パルス、構造光、等を含むことができる。赤外光732は、700ナノメートル(nm)から1ミリメートル(mm)の波長範囲を有することができる。赤外光734は、オブジェクト704のスポット708に反射することができ、ピクセルセルアレイ602の方へ伝搬しかつ光学フィルタ624を通ることができ、これによって、(波長範囲w3の)赤外線成分をフォトダイオード612dに与えて電荷に変換することができる。電荷検知ユニット614は、電荷を電圧に変換でき、この電圧はADC616によってデジタル値に量子化可能である。図7Cを参照すると、デジタル値が生成された後、検知コントローラ640は、3D画像化モジュール634が、デジタル値に基づいて、露光期間714内にキャプチャされた画像710の一部としてシーンの赤外線画像710dを生成するように制御可能である。赤外線画像710dは赤外線チャネルにおいて同じシーンを表すことができ、かつ赤外線画像710dのピクセル(例えば、ピクセル712d)は画像710内の他の画像における他の対応するピクセル(ピクセル712a~712c)と同じシーンのスポットからの光を表すため、2D画像化と3D画像化との間の対応関係も改善可能である。
いくつかの例では、図6Bに示されるように、イメージセンサ600は、相互接続650を介して、アプリケーション654をホストするホストデバイス652に通信可能に連結可能である。イメージセンサ600およびホストデバイス652は、ウェアラブルVR/AR/MRシステムの一部とすることができるのに対し、アプリケーション654は、システムのユーザがイメージセンサ600によって提供される2Dおよび3D画像データに基づいて位置し、かつ、再現したシーンに基づいて双方向体験をもたらすための表示効果を生成することができる環境のシーン再現を行うことができる。いくつかの例では、相互接続650は、Mobile Industry Processor Interface(MIPI)のCamera Serial Interface(CSI)規格に準拠しているシリアル相互接続とすることができる。イメージセンサ600は、メモリ630からの2Dおよび/または3D画像データの読み出しを行い、かつ2Dおよび3D画像データを相互接続650を介してホストデバイス652に送信することができる。
図8A~図8Dは、ピクセルセルにおけるフォトダイオード612の配置の例を示す。図8Aに示されるように、ピクセルセル602aにおけるフォトダイオード612a~612dは、ピクセルセル602aがスポット804aから入射光802を受光する受光面800に垂直である軸に沿ってスタックを形成できる。例えば、フォトダイオード612a~612dは、受光面800がx軸およびy軸と平行であるときに垂直軸(例えば、z軸)に沿ってスタックを形成することができる。それぞれのフォトダイオードは受光面800から異なる距離を有することができ、この距離は、入射光802の成分が、それぞれのフォトダイオードによって吸収されかつ電荷に変換されるように設定可能である。例えば、フォトダイオード612aは、受光面800に最も近く、かつ青成分を吸収しかつ電荷に変換可能であり、これは他の成分の中で最も短い波長範囲を有する。光812は、光802の残りの成分(例えば、緑、赤、および赤外線)を含み、かつ緑成分を吸収しかつ変換できるフォトダイオード612bに伝搬可能である。光822は、光812の残りの成分(例えば、赤および赤外線)を含み、かつ、赤成分を吸収しかつ変換できるフォトダイオード612cに伝搬可能である。残りの赤外線成分832は、電荷に変換されるフォトダイオード612dに伝搬可能である。
フォトダイオード612a、612b、612c、および612dはそれぞれ、イメージセンサ600を形成するためにスタック可能である別個の半導体基板に設けられ得る。例えば、フォトダイオード612aは半導体基板840に設けられ得、フォトダイオード612bは半導体基板842に設けられ得、フォトダイオード612cは半導体基板844に設けられ得、その一方で、フォトダイオード612dは半導体基板846に設けられ得る。それぞれの半導体基板は、スポット804bから光を受光するためのピクセルセル602bなど、他のピクセルセルの他のフォトダイオードを含むことができる。イメージセンサ600は、例えば、電荷検知ユニット614、ADC616などを含むことができる、ピクセルセル処理回路849を含み得る別の半導体基板848を含むことができる。それぞれの半導体基板は、それぞれのフォトダイオードで生成された電荷を処理回路849に移動させるために、金属相互接続850、852、854、および856などの金属相互接続に接続可能である。
図8B~図8Dは、フォトダイオード612の他の配置例を示す。図8B~図8Dに示されるように、複数のフォトダイオード612は、受光面800と平行に横方向に配置可能である。図8Bの上段はピクセルセル602aの一例の側面図を示すのに対し、図8Bの下段はピクセルセル602aを含むピクセルアレイ602の上面図を示す。図8Bに示されるように、受光面800がx軸およびy軸と平行であることで、フォトダイオード612a、612b、612c、および612dは、半導体基板840においてまたx軸およびy軸に沿って互いに隣接して配置可能である。ピクセルセル602aは、フォトダイオードに被せられる光学フィルタアレイ860をさらに含む。光学フィルタアレイ860は光学フィルタ624の一部とすることができる。光学フィルタアレイ860は、対応するフォトダイオードが受光した入射光成分の波長範囲を設定するためにフォトダイオード612a、612b、612c、および612dのそれぞれに被せられるフィルタエレメントを含むことができる。例えば、フィルタエレメント860aは、フォトダイオード612aに被せられ、かつ可視青色光のみがフォトダイオード612aに入ることを可能にすることができる。また、フィルタエレメント860bは、フォトダイオード612bに被せられ、かつ可視緑色光のみがフォトダイオード612bに入ることを可能にすることができる。さらに、フィルタエレメント860cは、フォトダイオード612cに被せられ、かつ可視赤色光のみがフォトダイオード612cに入ることを可能にすることができる。フィルタエレメント860dは、フォトダイオード612dに被せられ、かつ赤外光のみがフォトダイオード612dに入ることを可能にすることができる。ピクセルセル602aは、光学フィルタアレイ860を介して受光面800の異なる横位置にシーンのスポット(例えば、スポット804a)から光864を投射することができる1つまたは複数のマイクロレンズ862をさらに含み、これによって、それぞれのフォトダイオードは、ピクセルセル602aのサブピクセルになることが可能になり、かつピクセルに対応する同じスポットから光の成分を受光することが可能になる。ピクセルセル602aは、フォトダイオードによって生成される電荷からデジタル値を生成するための回路849(例えば、電荷検知ユニット614、ADC616など)を含むことができる半導体基板848も含むことができる。半導体基板840および848は、スタックを形成可能であり、かつ相互接続856に接続可能である。
フォトダイオードが横方向に配置され、かつ光学フィルタアレイを使用してフォトダイオードが受光する光成分を制御する図8Bの配置は、多数の利点をもたらす可能性がある。例えば、スタックの数および半導体基板の数を減らすことができ、これによって、鉛直高さだけでなく、半導体基板の間の相互接続も減らすことができる。また、それぞれのフォトダイオードによって吸収される成分の波長範囲を設定するために光の伝搬距離ではなくフィルタエレメントに頼ることで、波長範囲を選択する際の柔軟性をもたらすことができる。図8Cの上段に示されるように、ピクセルセルアレイ602は異なるピクセルセルに対する異なる光学フィルタアレイ860を含むことができる。例えば、ピクセルセルアレイ602のそれぞれのピクセルセルは、フォトダイオード612aおよび612bに対する(「M」のラベルを付けた)380~740nmの波長範囲の単色チャネル、および、フォトダイオード612dに対する(「NIR」のラベルを付けた)700~1000nmの波長範囲の赤外線チャネルをもたらす光学フィルタアレイを有することができる。しかしながら、光学フィルタアレイは、異なるピクセルセルに対する異なる可視カラーチャネルももたらす場合がある。例えば、ピクセルセルアレイ602a、602b、602c、および602dに対する光学フィルタアレイ860は、(「G」のラベルを付けた)可視緑チャネル、(「R」のラベルを付けた)可視赤チャネル、(「B」のラベルを付けた)可視青チャネル、およびピクセルセルアレイのフォトダイオード612cに対する可視緑チャネルをそれぞれもたらすことができる。別の例として、図8Cの下段に示されるように、それぞれの光学フィルタアレイ860は、それぞれのピクセルセルアレイのフォトダイオード612bに対する380~1000nmの波長範囲に及ぶ(「M+NIR」のラベルを付けた)単色および赤外線チャネルをもたらすことができる。
図8Dは、図8Cに示されるチャネル例を提供するための光学フィルタアレイ860の例を示す。図8Dに示されるように、光学フィルタアレイ860は、ピクセルセルアレイ内のそれぞれのフォトダイオードが受光した光の波長範囲を選択するために光学フィルタのスタックを含むことができる。例えば、図8Dの上段を参照すると、光学フィルタ860aは、全通過エレメント(all-pass element)870(例えば、可視光および赤外光両方を通す透明ガラス)、およびフォトダイオード612aに単色チャネルをもたらすためにスタックを形成する赤外線遮断要素872を含むことができる。光学フィルタ860bも、さらにまたフォトダイオード612bに単色チャネルをもたらすために全通過エレメント874および赤外線遮断要素876を含むことができる。さらに、光学フィルタ860cは、フォトダイオード612cに緑チャネルをもたらすために、緑色可視光を通す(が他の可視光成分を阻止する)緑通過エレメント876、および赤外線遮断要素878を含むことができる。最後に、光学フィルタ860dは、フォトダイオード612dに赤外線チャネルをもたらすために、全通過エレメント880、および(可視光を遮断することができるが、赤外光を通過させることを可能にする)可視光遮断フィルタ882を含むことができる。別の例では、図8Dの下段に示されるように、光学フィルタ860bは、フォトダイオード612bに単色および赤外線チャネルをもたらすために全通過エレメント872のみを含むことができる。
図9は、画像処理装置900を示すブロック図である。いくつかの例では、画像処理装置900は、DCA520の1つまたは複数のプロセッサ575に含まれる。いくつかの例では、画像処理装置900は、専用回路(例えば、特定用途向け集積回路)またはデバイスとして実装される。いくつかの例では、画像処理装置900は、1つまたは複数のプロセッサおよびメモリを有するデバイスに実装される。
画像処理装置900は、三次元エリアに関する赤外画像情報(例えば、赤外線センサのアレイによって検出される赤外光の強度)を受信する、受信機902を含む。いくつかの例では、受信された赤外画像情報は、赤外画像センサのエリア全体に対応する。いくつかの例では、受信された赤外画像情報は、赤外画像センサのエリア全体の全てよりも少ないサブセットに対応する(例えば、赤外画像センサのエリア全体に対応する赤外画像情報は、等しいサイズの長方形など、同じサイズを有してよい複数の重なり合わないブロックに分割されてよく、受信された赤外画像は単一のブロックに対応する)。いくつかの例では、受信機902は8ビット~10ビットのエンコーダを含む。
画像処理装置900はまた、同じ三次元エリアに関する非赤外画像情報(例えば、非赤外線センサのアレイによって検出される非赤外光の強度であり、その場合、非赤外線センサは、赤、緑、もしくは青などの特定の色を検出するように構成され、または非赤外線センサは、単色センサを含むかもしくは単色センサである)を受信する受信機904を含む。いくつかの例では、受信された非赤外画像情報は、非赤外画像センサのエリア全体に対応する。いくつかの例では、受信された非赤外画像情報は、非赤外画像センサのエリア全体の全てよりも少ないサブセットに対応する(例えば、非赤外画像センサのエリア全体に対応する非赤外画像情報は、等しいサイズの長方形など、同じサイズを有してよい複数の重なり合わないブロックに分割されてよく、受信された非赤外画像は単一のブロックに対応する)。いくつかの例では、受信機904は8ビット~10ビットのエンコーダを含む。
いくつかの例では、画像処理装置900は、受信された画像情報(例えば、受信機902によって受信された赤外画像情報、または受信機904によって受信された非赤外画像情報)におけるノイズを低減する、デノイザ912を含む。いくつかの例では、画像処理装置900は、受信された画像情報のノイズを低減するため、受信された画像情報にぼかし(例えば、ガウスぼかし)を適用する。
画像処理装置900はまた、受信された赤外画像情報(もしくはノイズ除去された赤外画像情報)の強度を調節する強度調節器922、または受信された非赤外画像情報(もしくはノイズ除去された非赤外画像情報)の強度を調節する強度調節器924の少なくとも1つを含む。いくつかの例では、画像処理装置900は、強度調節器922および強度調節器924の両方を含む。いくつかの例では、強度調節器922および強度調節器924の少なくとも1つは、ガンマ補正などの非線形強度調節を実施する。
画像処理装置900は、赤外画像情報(例えば、強度調節された赤外画像情報)および非赤外画像情報(例えば、強度調節された非赤外画像情報)を組み合わせて、マージされた画像情報を取得する、ブレンダ930を含む。いくつかの例では、ブレンダ930は、赤外画像情報(例えば、強度調節された赤外画像情報)および非赤外画像情報(例えば、強度調節された非赤外画像情報)の合計(例えば、x×yピクセルの赤外画像およびx×yピクセルの非赤外画像の合計がx×yピクセルのマージされた画像を提供するような、ピクセルごとの合計)を決定する。いくつかの例では、ブレンダ930は、赤外画像情報(例えば、強度調節された赤外画像情報)および非赤外画像情報(例えば、強度調節された非赤外画像情報)の重み付き合計を決定して、マージされた画像情報を取得する。
いくつかの例では、画像処理装置900は、マージされた画像を圧縮する圧縮器940を含む。いくつかの例では、画像処理装置900は、単一のクロッパ/スケーラ950として実装されてよい、クロッパまたはスケーラの少なくとも1つを含む。クロッパ/スケーラ950は、マージされた画像をクロップしスケーリングする。いくつかの例では、画像処理装置900は、マージされた画像(またはクロップされスケーリングされた画像)を平坦化するフラットナ960を含む。図9は、画像処理装置900の構成を示すが、その際、圧縮器940、クロッパ/スケーラ950、およびフラットナ960は特定の順序で配置される。しかしながら、画像処理装置900の他の構成では、圧縮器940、クロッパ/スケーラ950、およびフラットナ960は異なる順序で配置されてよい。画像処理装置900のいくつかの構成では、圧縮器940、クロッパ/スケーラ950、およびフラットナ960の1つまたは複数が省略されてよい。
画像処理装置900は、深度検知のため、マージされた画像情報(圧縮、クロップ/スケーリング、または平坦化などのさらなる処理を含むもしくは含まない)を出力する。
図10は、画像を処理する方法1000を示すフロー図である。
方法1000は、(1010)三次元エリアに関する赤外画像情報を受信すること(例えば、受信機902による)と、(1020)同じ三次元エリアに関する非赤外画像情報を受信すること(例えば、受信機904による)と、を含む。
いくつかの例では、受信された赤外画像情報および受信された非赤外画像情報は同じ数のピクセルに対応する。いくつかの例では、受信された赤外画像情報は特定の数の赤外線センサから取得され、受信された非赤外画像情報は同じ特定の数の非赤外線センサから取得される。いくつかの例では、受信された赤外線情報は第1の数のピクセルに対応し、受信された非赤外線情報は、第1の数のピクセルとは異なる第2の数のピクセルに対応する。そのような場合、いくつかの例では、受信された赤外線情報および受信された非赤外線情報の少なくとも1つが、処理後に赤外線情報および非赤外線情報が同じ数のピクセルに対応するように、処理(例えば、クロップ、マージ、ビンなど)される。
いくつかの例では、受信された赤外画像情報は、三次元エリア上への構造化された赤外線照射に基づいたパターンを包含する。
いくつかの例では、方法1000は、(1012)赤外画像情報をノイズ除去すること(例えば、デノイザ912による)を含む。いくつかの例では、非赤外画像情報をノイズ除去することは、(1014)赤外画像情報に対してガウスぼかしを実施すること(例えば、デノイザ912による)を含む。例えば、3×3ピクセルまたは5×5ピクセルにわたるガウスぼかしが適用されてよい。
方法1000はまた、(1030)受信された赤外画像情報に対して非線形強度調節を実施すること(例えば、強度調節器922による)と、(1040)受信された非赤外画像情報に対して非線形強度調節を実施すること(例えば、強度調節器924による)と、を含む。いくつかの例では、非線形強度調節を実施することは、ガンマ補正を適用することを含む。
方法1000はさらに、(1050)強度調節された赤外画像情報および強度調節された非赤外画像情報をブレンドして、マージされた画像情報を取得すること(例えば、ブレンダ930による)を含む。
いくつかの例では、強度調節された赤外画像情報および強度調節された非赤外画像情報をブレンドすることは、(1052)強度調節された赤外画像情報および強度調節された非赤外画像情報の重み付き合計を取得すること(例えば、ブレンダ930による)を含む。
いくつかの例では、方法1000は、(1054)マージされた画像情報を圧縮すること(例えば、圧縮器940による)を含む。
いくつかの例では、方法1000は、(1056):マージされた画像情報のクロップまたはスケーリングの少なくとも1つを実施すること(例えば、クロッパ/スケーラ950による)を含む。
いくつかの例では、方法1000は、(1058)マージされた画像情報を平坦化すること(例えば、フラットナ960による)を含む。
方法1000は、(1060)深度マップを決定するため、マージされた画像情報を(例えば、画像処理装置900の出力として)提供すること(例えば、深度マッピング)を含む。マージされた画像情報を、別個の赤外画像情報および非赤外画像情報の代わりに利用することによって、深度検知をより高速でより効率良く完了することができる。加えて、構造化された赤外線照明は、正確な深度マップを取得できるように、深度検知の精度を改善する。
いくつかの例では、方法1000は、(1062)マージされた画像情報から深度マップを決定すること(例えば、DCA520の1つまたは複数のプロセッサ575による)を含む。例えば、図5Bに関して上述されるように、2つ以上の画像センサによって取得された立体画像に対して三角測量を適用することによって、深度検知を実施することができる。
本説明の部分の中には、情報に対する動作のアルゴリズムおよび記号表現の観点から本開示の例を説明するものもある。これらのアルゴリズム的説明および表現は、当業者の作業の実体を効果的に当業者に伝えるために、当業者によって全体的に使用される。これらの動作は、機能的に、演算的に、または論理的に説明するが、コンピュータプログラム、または、同等の電気回路、マイクロコード、もしくは同様のものによって実現されることがわかる。さらに、一般性を失うことなく、動作のこれらの配置をモジュールと呼ぶことが時に便利であることも証明されてきた。説明した動作、および、これらに関連するモジュールは、ソフトウェア、ファームウェア、および/またはハードウェアで具体化することができる。
説明したステップ、動作、または処理は、1つまたは複数のハードウェアまたはソフトウェアモジュール単独で、または、他のデバイスと組み合わせて実行すること、または実現することができる。いくつかの例では、ソフトウェアモジュールは、コンピュータプログラムコードを収めるコンピュータ可読媒体を備えるコンピュータプログラム製品で実現され、コンピュータプログラムコードは、説明したステップ、動作、または処理のいずれかまたは全てを実行するために、コンピュータプロセッサで実行することができる。
また、本開示の例は、説明した動作を実行するための装置に関するものであってもよい。装置は、必要な目的のために特に構築することができ、および/または、コンピュータに記憶されたコンピュータプログラムによって選択的にアクティブにされた、または再構成された汎用コンピューティングデバイスを備えることができる。このようなコンピュータプログラムは、非一時的な有形のコンピュータ可読ストレージ媒体、または、電子的な命令を記憶するのに適した任意のタイプの媒体に記憶することができ、これらの媒体は、コンピュータシステムバスに連結することができる。さらに、本明細書で引用したいずれかのコンピューティングシステムは、単一のプロセッサを含むことができ、または、計算能力を向上させるために複数のプロセッサ設計を採用したアーキテクチャであってもよい。
また、本開示の例は、本明細書で説明した計算処理によって生み出された製品に関するものであってもよい。このような製品は、計算処理から生じた情報を含むことができ、ここで、情報は、非一時的な有形のコンピュータ可読ストレージ媒体に記憶し、本明細書で説明したコンピュータプログラム製品、または、他のデータの組合せのいずれかの例を含むことができる。
本明細書で使用した言葉は、可読性および指示目的のために主に選択してきたが、発明の主題を正確に描写するため、または制限するために選択してこなかった可能性がある。したがって、本開示の範囲は、この「発明を実施するための形態」によってではなく、むしろ、本明細書に基づく用途に対して発行するいずれかの請求項によって限定されることを意図するものである。したがって、例の本開示は、本開示の範囲を例証するためのものであるが、限定するものではなく、以下の特許請求の範囲に示す。
Claims (15)
- 1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサによる実行のための命令を記憶するメモリと、を備える電子デバイスであって、記憶された前記命令が、
三次元エリアに関する赤外画像情報を受信するための命令と、
同じ三次元エリアに関する非赤外画像情報を受信するための命令と、
受信された前記赤外画像情報に対して非線形強度調節を実施するための命令と、
受信された前記非赤外画像情報に対して非線形強度調節を実施するための命令と、
強度調節された前記赤外画像情報および強度調節された前記非赤外画像情報をブレンドして、マージされた画像情報を取得するための命令と、
深度マップを決定するため、前記マージされた画像情報を提供するための命令と、を含む、電子デバイス。 - 前記強度調節された赤外画像情報および前記強度調節された非赤外画像情報をブレンドすることが、前記強度調節された赤外画像情報および前記強度調節された非赤外画像情報の重み付き合計を取得することを含む、請求項1に記載のデバイス。
- 前記記憶された命令が、
前記マージされた画像情報から深度マップを決定するための命令を含む、請求項1または2に記載のデバイス。 - 前記記憶された命令が、
前記赤外画像情報をノイズ除去するための命令を含み、
好ましくは、前記非赤外画像情報をノイズ除去することが、前記赤外画像情報に対してガウスぼかしを実施することを含む、請求項1から3のいずれか一項に記載のデバイス。 - 前記記憶された命令が、
前記マージされた画像情報を圧縮するための命令を含む、請求項1から4のいずれか一項に記載のデバイス。 - 前記記憶された命令が、
前記マージされた画像情報のクロップまたはスケーリングの少なくとも1つを実施するための命令を含む、請求項1から5のいずれか一項に記載のデバイス。 - 前記記憶された命令が、
前記マージされた画像情報を平坦化するための命令を含む、請求項1から6のいずれか一項に記載のデバイス。 - 前記受信された赤外画像情報および前記受信された非赤外画像情報が、同じ数のピクセルに対応する、請求項1から7のいずれか一項に記載のデバイス。
- 1つまたは複数のカメラをさらに備え、それぞれのカメラが複数のピクセルを含み、前記複数のピクセルのそれぞれのピクセルが、少なくとも1つの赤外光検出器と、前記少なくとも1つの赤外光検出器に隣接して位置付けられた少なくとも1つの非赤外光検出器とを含み、
好ましくは、
前記それぞれのピクセルの前記少なくとも1つの赤外光検出器および前記少なくとも1つの非赤外光検出器のいずれもが、共通のマイクロレンズと結合され、
さらに好ましくは、
前記少なくとも1つの赤外光検出器が、赤外線フィルタと結合された光検出器を含み、前記少なくとも1つの非赤外光検出器が、非赤外線フィルタと結合された光検出器を含む、請求項1から8のいずれか一項に記載のデバイス。 - 画像を処理するための方法であって、
三次元エリアに関する赤外画像情報を受信することと、
同じ三次元エリアに関する非赤外画像情報を受信することと、
受信された前記赤外画像情報に対して非線形強度調節を実施することと、
受信された前記非赤外画像情報に対して非線形強度調節を実施することと、
強度調節された前記赤外画像情報および強度調節された前記非赤外画像情報をブレンドして、マージされた画像情報を取得することと、
深度マップを決定するため、前記マージされた画像情報を提供することと、を含む、方法。 - 前記強度調節された赤外画像情報および前記強度調節された非赤外画像情報をブレンドすることが、前記強度調節された赤外画像情報および前記強度調節された非赤外画像情報の重み付き合計を取得することを含む、請求項10に記載の方法。
- 前記マージされた画像情報から深度マップを決定することをさらに含む、請求項10または11に記載の方法。
- 前記赤外画像情報をノイズ除去することをさらに含み、
好ましくは、前記非赤外画像情報をノイズ除去することが、前記赤外画像情報に対してガウスぼかしを実施することを含む、請求項10から12のいずれか一項に記載の方法。 - 前記マージされた画像情報を圧縮することをさらに含み、
好ましくは、前記受信された赤外画像情報および前記受信された非赤外画像情報が、同じ数のピクセルに対応する、請求項10から13のいずれか一項に記載の方法。 - 命令を記憶する非一時的コンピュータ可読記憶媒体であって、前記命令が、電子デバイスの1つまたは複数のプロセッサによって実行されると、
三次元エリアに関する赤外画像情報を受信することと、
同じ三次元エリアに関する非赤外画像情報を受信することと、
受信された前記赤外画像情報に対して非線形強度調節を実施することと、
受信された前記非赤外画像情報に対して非線形強度調節を実施することと、
強度調節された前記赤外画像情報および強度調節された前記非赤外画像情報をブレンドして、マージされた画像情報を取得することと、
深度マップを決定するため、前記マージされた画像情報を提供することと、を前記電子デバイスに行わせる、非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063057165P | 2020-07-27 | 2020-07-27 | |
US63/057,165 | 2020-07-27 | ||
US17/069,709 US11601607B2 (en) | 2020-07-27 | 2020-10-13 | Infrared and non-infrared channel blender for depth mapping using structured light |
US17/069,709 | 2020-10-13 | ||
PCT/US2021/043051 WO2022026334A1 (en) | 2020-07-27 | 2021-07-23 | Infrared and non-infrared channel blender for depth mapping using structured light |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023535538A true JP2023535538A (ja) | 2023-08-18 |
Family
ID=79688891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022574564A Pending JP2023535538A (ja) | 2020-07-27 | 2021-07-23 | 構造光を使用した深度マッピングのための赤外線・非赤外線チャネルブレンダ |
Country Status (5)
Country | Link |
---|---|
US (1) | US11601607B2 (ja) |
EP (1) | EP4189639A1 (ja) |
JP (1) | JP2023535538A (ja) |
CN (1) | CN116097298A (ja) |
WO (1) | WO2022026334A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230377251A1 (en) * | 2022-05-17 | 2023-11-23 | Nvidia Corporation | Performing spherical denoising |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10244190B2 (en) | 2009-03-02 | 2019-03-26 | Flir Systems, Inc. | Compact multi-spectrum imaging with fusion |
US9008457B2 (en) * | 2010-05-31 | 2015-04-14 | Pesonify, Inc. | Systems and methods for illumination correction of an image |
CN103430551B (zh) | 2011-01-14 | 2017-06-09 | 索尼公司 | 使用具有纵色像差的透镜单元的成像系统及其操作方法 |
US9407837B2 (en) * | 2013-02-28 | 2016-08-02 | Google Inc. | Depth sensor using modulated light projector and image sensor with color and IR sensing |
US9392262B2 (en) | 2014-03-07 | 2016-07-12 | Aquifi, Inc. | System and method for 3D reconstruction using multiple multi-channel cameras |
DE102014115292A1 (de) * | 2014-10-21 | 2016-04-21 | Connaught Electronics Ltd. | Verfahren zum Bereitstellen von Bilddateien von einem Kamerasystem, Kamerasystem und Kraftfahrzeug |
US20170230638A1 (en) | 2015-02-26 | 2017-08-10 | Dual Aperture International Co. Ltd. | Depth Measurement Techniques for a Multi-Aperture Imaging System |
US10275855B2 (en) | 2017-01-11 | 2019-04-30 | Microsoft Technology Licensing, Llc | Image demosaicing for hybrid optical sensor arrays |
US11212498B2 (en) * | 2018-12-11 | 2021-12-28 | Intel Corporation | Infrared crosstalk correction for hybrid RGB-IR sensors |
-
2020
- 2020-10-13 US US17/069,709 patent/US11601607B2/en active Active
-
2021
- 2021-07-23 JP JP2022574564A patent/JP2023535538A/ja active Pending
- 2021-07-23 EP EP21755646.3A patent/EP4189639A1/en not_active Withdrawn
- 2021-07-23 CN CN202180058463.1A patent/CN116097298A/zh active Pending
- 2021-07-23 WO PCT/US2021/043051 patent/WO2022026334A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20220030183A1 (en) | 2022-01-27 |
EP4189639A1 (en) | 2023-06-07 |
US11601607B2 (en) | 2023-03-07 |
WO2022026334A1 (en) | 2022-02-03 |
CN116097298A (zh) | 2023-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11863886B2 (en) | Pixel sensor having multiple photodiodes | |
TWI810304B (zh) | 用於產生影像圖框之設備及方法 | |
TWI825092B (zh) | 以多光二極體型像素單元量測入射光強度的設備和方法 | |
JP2021528838A (ja) | マルチフォトダイオードピクセルセル | |
US20200075652A1 (en) | Pixel cell with multiple photodiodes | |
JP2021534603A (ja) | 適応露光時間を有するピクセルセンサー | |
CN113412611A (zh) | 具有多个光电二极管的像素传感器 | |
US11877080B2 (en) | Pixel sensor having shared readout structure | |
US20220028102A1 (en) | Devices and methods for determining confidence in stereo matching using a classifier-based filter | |
JP2023535538A (ja) | 構造光を使用した深度マッピングのための赤外線・非赤外線チャネルブレンダ | |
US11676293B2 (en) | Methods for depth sensing using candidate images selected based on an epipolar line | |
US20220217295A1 (en) | Image sub-sampling with a color grid array | |
WO2023049334A1 (en) | Digital pixel sensor | |
WO2023059538A1 (en) | Noise-reduction circuit for an image sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240419 |