JP2018513967A - 深度フィールドイメージング装置、方法および応用 - Google Patents

深度フィールドイメージング装置、方法および応用 Download PDF

Info

Publication number
JP2018513967A
JP2018513967A JP2017548977A JP2017548977A JP2018513967A JP 2018513967 A JP2018513967 A JP 2018513967A JP 2017548977 A JP2017548977 A JP 2017548977A JP 2017548977 A JP2017548977 A JP 2017548977A JP 2018513967 A JP2018513967 A JP 2018513967A
Authority
JP
Japan
Prior art keywords
imaging
depth
depth field
tof
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017548977A
Other languages
English (en)
Other versions
JP6722194B2 (ja
Inventor
アリョーシャ・モルナル
スレン・ジャヤスリヤ
スリラム・シバラマクリシュナン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cornell University
Original Assignee
Cornell University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cornell University filed Critical Cornell University
Publication of JP2018513967A publication Critical patent/JP2018513967A/ja
Application granted granted Critical
Publication of JP6722194B2 publication Critical patent/JP6722194B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • G01S7/4914Circuits for detection, sampling, integration or read-out of detector arrays, e.g. charge-transfer gates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Abstract

深度フィールドイメージング装置は、単一のオンチップアーキテクチャで組み合わされた光フィールドイメージャおよび飛行時間型イメージャを含む。このハイブリッド装置は、物体シーンの光フィールドイメージおよび飛行時間型イメージの同時捕捉をすることができる。アルゴリズムは、光フィールドイメージおよび飛行時間型イメージの同時取得を可能にすることが記載される。関連するハイブリッドピクセル構造、装置アレイ(ハイブリッドイメージングシステム)、および装置用途が記載される。

Description

本発明の態様および実施形態は、一般に画像センシングの分野にある。より詳細には、態様および実施形態は、深度フィールドイメージング装置、構成要素、方法、およびその応用に関する。
関連出願データ
本出願は、その主題がその全体が参考として援用される2015年3月17に出願された米国仮出願62/134122号に対する優先権を主張する。
3D情報を捕捉する深度センシングの導入は、イメージングおよびカメラシステムにおけるユビキタス用途に繋がっており、コンピュータビジョンおよびグラフィックスにおける研究の主な焦点となっている。深度値は、順番に新しいコンピュータビジョンシステムおよび人間とコンピュータとのインタラクションを実現できるより簡単なシーンの理解およびモデリングを可能にする。多くの方法は、ステレオ、測光ステレオ、構造化照明、光フィールド(LF)、RGB−D、および飛行時間型(TOF)イメージングのような深度情報を捕捉するために提案された。しかしながら、深度カメラは、典型的にはそれらの堅牢性および柔軟性を制限する時間に1つだけの深度センシング技術をサポートする。
各イメージングモダリティは、オンチップ実装、コスト、深度解像度などのような属性に対する独自の利点および欠点を有する。それは表1にまとめられる。
本発明者らは、2つまたはより多くの深度センシング技術を利用するハイブリッド3Dイメージングシステムが、これらの個々の制限を克服する解決策を提供するであろうことを認識する。さらに、オンチップ実装とモダリティを組み合わせたシステムは、ユビキタス堅牢性深度センシングを費用対効果が高く大量生産可能にする。
光フィールド(LF)イメージングは、2つの空間座標および2つの角度座標によりパラメータ化されたプレノプティック関数の4D表現、または等価的にシーンにおける非閉塞光線の空間として捕捉する。光フィールドは、イメージベースのレンダリングおよびモデリングし、シーンから新しい視点を合成し、エピポーラ幾何から深度を推定するために使用される。カメラのコンテキストでは、光フィールドは、機械的ガントリまたは大きな稠密カメラアレイを使用することにより、またはマイクロレンズ、符号化開口、伝送マスク、または対称および非(奇数)対称位相格子を含む回折格子を含むシングルショット方法により捕捉される。光フィールドは、フィールドの深度を拡張し、後処理で異なる開口を合成するためにデジタルリフォーカスを使用することができる。したがって、写真が撮影された後にソフトウェア制御のレベルを可能にする。光フィールド(LF)イメージング装置および角度感受性ピクセル(ASP)を利用する方法を開示する特許文献1、特許文献2および特許文献3に開示された主題は、その全体が参照により本明細書に組み込まれる。特許文献4、特許文献5、特許文献6、特許文献7、特許文献8、および特許文献9の主題は、参照によりその全体が本明細書に組み込まれる。
米国特許第8,530,811号 米国特許第8,809,758号 米国特許第8,767,047号 米国特許第9,110,240号 米国特許出願公開第2015/0061065号 国際公開第2006/039486号 国際公開第2007/092581号 国際公開第2007/092545号 国際公開第2007/044725号
飛行時間型(TOF)イメージングは、振幅変調光により移動する光経路長を符号化することにより動作し、フォトゲートおよびフォトニックミキサ装置を含む様々な装置により回復される。詳細には、光源(通常赤外領域でのLED(約840−1000nm))は、特定の周波数で振幅変調される。この光はシーンを照明し、この振幅変調された光が物体に跳ね返り、イメージセンサに戻って到着した場合、その物体の深度に対応する位相遅延を取得する。この位相遅延を検出するために、ほとんどのセンサは、CMOSプロセスでp基板上にポリシリコンからなるフォトゲートとして知られるピクセルのタイプを使用する。これらのフォトゲートは、光源と同じ周波数で変調され、各ピクセルで収集する電荷の量は位相遅延に正比例する。したがって、フォトゲートのアレイは、イメージにおける各ピクセルが深度番号を有するイメージを取り込むことができる。高解像度の深度マップを生み出す一方で、単一周波数のTOFは、半透明の物体および散乱媒体により引き起こされる位相ラッピングの曖昧さおよびマルチパス干渉を含む制限を受ける。これらの制限を克服するために提案された技術は、マルチ周波数方法を有する位相アンラッピング、グローバル/直接照明分離、ブレ除去および超解像度、および後処理アルゴリズムを有するマルチパス干渉の軽減を含む。最近では、これらセンサのための新しい一時的な符号化パターンは、飛行中に光を見て、濁った媒体を介して見るのに有効な複数の光路を解決するのに役に立つ。カメラシステムは、TOF+ステレオ、TOF+測光ステレオ、およびTOF+偏光を一緒に融合することが提案されてきた。
深度マップおよび強度イメージの融合は、明示的な特徴検出による3D再構成を有効にするために使用されてきた。カメラトラッキングおよび3D再構成のためのリアルタイム相互作用は、KinectFusionを通じて実証されている。深度および強度のピクセル毎の値を取得することにより、深度フィールドと概念的に類似する一方で、これらの融合方法は、系統的に空間角度サンプリングを制御しない、または絞りと深度イメージングのためのフィールドの深度との間の伝統的な捕捉のトレードオフを超越しない。
発明者らは、単一オンチップ、ハイブリッドイメージングシステムに、光フィールド(LF)およびTOFイメージングを組み合わせることにより、達成できる利点および利益を認識している。そのようなシステムは、高解像度情報および符号化された信号を使用する軽減されたマルチパス干渉のTOFの利点を有する捕捉後のデジタルリフォーカスのような光フィールドの利点を承継する。さらに、LFとTOFイメージングの両方は、オンチップに実装され、1つは、オンチップでも両方のモダリティを組み合わせるために、ハイブリッドピクセル構造を設計することができる。各モダリティは、その相対的な欠点を有する。光フィールドからの深度は、テクスチャ面を必要とし、視差のため物体の距離に依存し、単一周波数TOFイメージングは、位相ラッピングに苦しみ、低いシャッター速度を有する小開口カメラに限られる。しかしながら、“深度フィールド”イメージング(装置および方法)と称される、具体化されたハイブリッドLF/TOFイメージング装置および方法は、これら制限の全てを軽減することができる。
本発明の態様は、深度フィールドイメージング装置である。一実施形態によれば、深度フィールドイメージング装置は、シーンのLFイメージを取得することができる光フィールド(LF)イメージングコンポーネント、シーンのTOFを取得することができる飛行時間型(TOF)イメージングコンポーネントを含み、LFイメージングコンポーネントは、TOFイメージングコンポーネントの上に配置され、両方が単一のオンチップアーキテクチャ、および深度フィールドイメージング装置によりLFイメージおよびTOFイメージの同時取得を可能にするアルゴリズムを実行するようにプログラムされた画像処理コンポーネントに実装される。様々な非限定的な実施形態では、深度フィールドイメージング装置は、さらに含んでもよく、または、さらに以下の特徴または制限、単独でまたは様々な非限定的な組み合わせにより特徴付けられてもよい。
−LFイメージングコンポーネントは、格子を含む。
−LFイメージングコンポーネントは、金属格子を含む。
−格子は、周期格子である。
−格子は、位相格子である。
−格子は、非(奇数)対称位相格子である。
−LFイメージングコンポーネントは、振幅マスクを含む。
−LFイメージングコンポーネントは、角度感受性ピクセル(ASP)である。
−TOFイメージングコンポーネントは、アクティブ(変調可能)光源を含む変調可能なフォトゲートを含む。
−TOFイメージングコンポーネントは、複数のインターリーブされたフォトゲートを含む。
−複数のインターリーブされたフォトゲートは、アクティブ光源の変調周波数で変調されることを特徴とする。
−深度フィールドイメージング装置の物体側に配置されたレンズをさらに含む。
−CMOSアーキテクチャで実装された深度フィールドイメージング装置。
一実施形態によれば、深度フィールドイメージング装置は、光フィールド(LF)イメージングコンポーネント、および飛行時間型(TOF)イメージングコンポーネントを含む。LFイメージングコンポーネントとTOFイメージングコンポーネントの両方は、単一のオンチップアーキテクチャで実施される。
本発明の態様は、深度フィールドピクセル構造である。一実施形態によれば、深度フィールドピクセル構造は、光フィールド(LF)イメージングコンポーネント、フォトゲート、およびフォトゲートに光学的に結合されたアクティブ光源を含む。LFイメージングコンポーネントは、フォトゲート上に配置され、ピクセル構造は、単一のオンチップアーキテクチャで実施される。
本発明の態様は、深度フィールドイメージングシステムである。一実施形態によれば、深度フィールドイメージングシステムは、各深度フィールドピクセル構造が光フィールド(LF)イメージングコンポーネント、フォトゲート、フォトゲートに光学的に結合されたアクティブ光源を含むフィールドピクセル構造の深度のアレイを含む。LFイメージングコンポーネントは、フォトゲート上に配置され、各ピクセル構造は、単一のオンチップアーキテクチャで実施される。様々な非限定的な実施形態では、深度フィールドイメージングシステムは、以下の特徴または制限、単独でまたは様々な非限定的な組み合わせにより、さらに含み、またはさらに特徴付けられてもよい。
−対象シーンとフィールドピクセル構造の深度のアレイとの間に配置されたレンズをさらに含む。
−グローバルシャッタをさらに含む。
本発明の態様は、イメージング方法である。一実施形態によれば、イメージング方法は、対象シーンのLFイメージを取得するステップと、対象シーンのTOFイメージを同時に取得するステップを含み、LFおよびTOFイメージは、単一オンチップ実装のハイブリッドイメージ感知デバイスにより、同時に取得され、取得されたLFおよびTOFイメージを処理し、対象シーンの深度フィールドイメージを形成する。様々な非限定的な実施形態では、イメージング方法は、以下のステップ、特徴または制限、単独でまたは様々な非限定的な組み合わせにより、さらに含みまたはさらに特徴付けられてもよい。
−単一露光でLFおよびTOFイメージを取得するステップをさらに含む。
−デジタルリフォーカス技術を使用して深度フィールドイメージを取得するステップをさらに含む。
−位相アンラップ技術を使用して深度フィールドイメージを取得するステップをさらに含む。
本明細書および特許請求の範囲で使用されるTOFコンポーネントは、アクティブ(変調可能)光源を含むと仮定される。
本発明の一実施形態に従って使用され当技術分野で知られているフォトゲートの概略断面図である。 本発明の一実施形態に係るCMOSアーキテクチャにおける深度フィールドピクセルの概略断面図である。 本発明の一実施形態に従って使用される2つのインターリーブされたフォトゲートの概略平面図である。 本発明の一実施形態に係る深度フィールドイメージングシステムアーキテクチャの概略ブロック図である。 本発明の例示的な実施形態に係る深度フィールドイメージングシステムの信号チェーンアーキテクチャの概略ブロック図である。 本発明の例示的な実施形態に係る深度フィールドイメージングシステムのオンチップ変調器アーキテクチャの概略ブロック図である。 深度フィールドを捕捉するための単一ショットカメラシステムのための3つの例示的ピクセル設計を示す。マイクロレンズ、振幅マスク、または回折格子は、同時に光フィールドおよびTOF情報を捕捉するためにフォトゲートの頂部上に配置される。 バイナリ奇数対称位相回折格子を示す。 本発明の例示的な実施形態の全てに係る、セグメントの幅が回折格子の中心からの距離とともに増加する非奇数対称位相回折格子を示す。 本発明の説明的な実施形態に係る、a)TOFカメラのアレイを使用して概念的に深度フィールドを捕捉すること、(b)(u,v,x,y)の4D関数のようなアルベド、(c)(u,v,x,y)の4D関数のようなTOF深度値に対応する位相、を示す。 本発明の説明的な実施形態に係る、a)捕捉されたシーン、b−e)シーンの深度マップのための異なる焦点面上のデジタルリフォーカス、深度フィールドイメージングが開口部と範囲イメージのためのフィールドの深度との間のトレードオフをいかに打破するかを示す。 本発明の説明的な実施形態に係る捕捉されたシーンを示す。 本発明の説明的な実施形態に係るシーンの深度マップのための異なる焦点面上のデジタルリフォーカス、深度フィールドイメージングが開口部と範囲イメージのためのフィールドの深度との間のトレードオフをいかに打破するかを示す。 本発明の説明的な実施形態に係るシーンの深度マップのための異なる焦点面上のデジタルリフォーカス、深度フィールドイメージングが開口部と範囲イメージのためのフィールドの深度との間のトレードオフをいかに打破するかを示す。 本発明の説明的な実施形態に係るシーンの深度マップのための異なる焦点面上のデジタルリフォーカス、深度フィールドイメージングが開口部と範囲イメージのためのフィールドの深度との間のトレードオフをいかに打破するかを示す。 本発明の説明的な実施形態に係るシーンの深度マップのための異なる焦点面上のデジタルリフォーカス、深度フィールドイメージングが開口部と範囲イメージのためのフィールドの深度との間のトレードオフをいかに打破するかを示す。 本発明の説明的な実施形態に係る、合成データに関する位相アンラップアルゴリズムの使用を示す。a)グランド真実深度値のボックスシーン、b)マークされた校正用の基準線の位相アンラップシーン、c)光フィールド対応アルゴリズムにより与えられる深度マップ、我々は、位相アンラップのためにこのシーンにおける同じ校正線を特定する。d)我々は、与えられた校正線のために対応する深度値にTOFラップ値をマップする。e)アンラップ深度マップ。 本発明の説明的な実施形態に係る、合成データに関する位相アンラップアルゴリズムの使用を示す。グランド真実深度値のボックスシーンを示す。 本発明の説明的な実施形態に係る、合成データに関する位相アンラップアルゴリズムの使用を示す。マークされた校正用の基準線の位相アンラップシーンを示す。 本発明の説明的な実施形態に係る、合成データに関する位相アンラップアルゴリズムの使用を示す。光フィールド対応アルゴリズムにより与えられる深度マップ、我々は、位相アンラップのためにこのシーンにおける同じ校正線を特定する。 本発明の説明的な実施形態に係る、合成データに関する位相アンラップアルゴリズムの使用を示す。我々は、与えられた校正線のために対応する深度値にTOFラップ値をマップする。 本発明の説明的な実施形態に係る、合成データに関する位相アンラップアルゴリズムの使用を示す。アンラップ深度マップを示す。
本発明の態様は、光フィールド(LF)イメージングコンポーネントおよび飛行時間型(TOF)イメージングコンポーネント、有利には、CMOSアーキテクチャにおいて、LF/TOFピクセル構造は、角度感受性フォトゲート(ASPG)と呼ばれ、単一の統合装置でLFおよびTOFイメージを同時に取得する方法を含む統合されたハイブリッドイメージングシステムを含む。LFとTOFイメージングコンポーネント/システムの両方は、当技術分野で知られており、これらのコンポーネントそのもののいずれも、本発明の発明的形態を形成する。
特許されたLFイメージングシステムおよび角度感受性ピクセル(ASP)を利用する方法は、共同発明および出願人により所有され、上記で参照されている。これらのLFイメージセンサ/方法は、フォトダイオード上に配置された回折格子を利用した。フォトダイオードは、典型的にはn/pシリコンの界面に起因する接合容量である。nドープ領域は、pシリコンに対して高電圧に保持され、その領域を光活性にし、それに当たる光子の量に比例した電流を発生させる。
フォトダイオードと区別して、フォトゲートは、薄いフィールド酸化物上のポリシリコンゲート(通常SiO)からなり、酸化物は、シリコン上にある。ゲートは、電圧により変調され、アクティブ光変調と組み合わされると、光の振幅の位相に比例する電流信号が生成される。
フォトゲートは、典型的なシーンイメージング(従来のカメラまたはLF/ASPイメージセンサのように)として使用されないので、ASP内のフォトダイオードの代わりにフォトゲートを使用することは予期できなかった。実際、フォトダイオードは変調を必要としないので、技術的阻害要因は、LFセンサでの使用から離れて教示された。
しかしながら、発明者らは、電圧変調フォトダイオードを使用してTOFイメージングを行う能力に加えて、フォトゲートは、ゲート電圧が一定に保たれたときにフォトダイオードのように作用することを認識した。このように、フォトゲートは、通常のイメージングとTOFイメージングの両方を行うことができ、回折格子が、これらの装置に組み込まれている場合、さらに、LFイメージングとTOFイメージングの両方を行うことができる。LFイメージングとTOFイメージングを同時に実行するには、TOFイメージングは、通常のイメージと深度イメージを回復するために数学的に反転させることができる。これは、以下に詳細に記載されている。
統合されたハイブリッドLF/TOFイメージングシステム、コンポーネント(ピクセル)、および方法(同時LFおよびTOFイメージング)は、“深度フィールド”イメージング(システム、ピクセル、方法)として本明細書で言及される。具体化された深度フィールドイメージングシステムは、高解像度深度情報および符号化された信号を使用する緩和されたマルチパス干渉のTOFの利点を有するポストキャプチャデジタルリフォーカスのようなLFシステムの利点を継承する。さらに、LFとTOFイメージングの両方は、オンチップ実装され、具体化されたハイブリッドピクセル構造は、両方のモダリティオンチップを組み合わせることが可能である。各モダリティは、光フィールドからの深度が、テクスチャ表面を必要とし、視差のための物体の距離に依存し、単一の周波数TOFイメージングが、位相アンラッピングを被り、低シャッタ速度を有する小開口カメラに限定され、その相対的な欠点を有しているが、具体化された深度フィールド装置および方法は、これらの制限の全てを緩和することができる。
図1は、具体化された深度フィールドシステム(イメージングシステムまたはピクセルコンポーネント)のTOFコンポーネントにおいて利用されるフォトゲート100を概略的に示す。フォトゲート100は、CMOSプロセスでシリコン(P基板)上のSiO上のポリシリコンゲート(PG)からなる。ゲートが電圧により変調される場合、同期アクティブ(すなわち、変調可能)光(照明)変調と組み合わせ、電流信号は、光の振幅の位相に比例して生成される。
図2は、本発明の一実施形態に係るCMOSアーキテクチャの深度フィールドピクセル(角度感受性フォトゲート‘ASPG’)の概略断面図である。ピクセル200は、代表的なフォトゲート203上のSiOに2つの周期的金属回折格子(M5,M3)201,201を含む。
図3は、本発明の一実施形態に係り使用される2つのインターリーブされたフォトゲート301,303の概略平面図である。同図において、PC=ポリシリコン、RX=拡散領域、PC+RX=そのチャネル上のMOSFETのゲート、RX単独=トランジスタ(P+またはN+領域のいずれか)のソース/ドレイン。デバイスの実装では、格子(ここでは図示せず)は、インターリーブフォトゲートと同じピッチで、水平方向にこのデバイスの上部に配置される。
図4は、本発明の一実施形態に係る深度フィールドイメージングシステムアーキテクチャ400の概略ブロック図を示す。システム400は、ASPGアレイ402、アレイに結合された行ドライバ403および列増幅器404、およびA/D変換器405を含む。ローリングシャッタとは対照的に、グローバルシャッタが、イメージセンサ全体を一度に露光し、次に行毎に読み取るように実装することができることは、当業者により高く評価される。
図5は、本発明の例示的な実施形態に係る深度フィールドイメージングシステム信号チェーンアーキテクチャ500の概略ブロック図を示す。例示的な態様では、アクティブ(変調可能)光源501(例えば、Asin[2πft]の形で、変調周波数fで正弦波(または方形波)により変調される出力振幅Aを有するレーザ)は、照明し、物体のシーンから跳ね返り、戻り光は位相遅延Asin[2πft−φ]、ここで、深度=cφ/4πfを取得する。fで変調されたインターリーブされたフォトゲート301,303は、差動電圧V0(およびf+90度に対して、V90)を生成する。最初のために、φ=atan(V90/V0)(ここで、最大範囲は、c/2fおよび解像度は、fに比例する。)
図6は、本発明の例示的な実施形態に係る深度フィールドイメージングシステムのオンチップ変調器アーキテクチャ600の概略ブロック図である。正弦およびランダムバイナリパターンを含むTOF変調を生成するために、TOF変調は、高速クロック604により駆動されるセレクタ回路603を使用してフォトゲート605を駆動するために、このメモリの迅速なアクセスを可能にするオンチップメモリ601にローカルに格納することができる。この設計は、TOFイメージングの深度感度を改善するTOF変調信号の高速周波数スイッチングを可能にする。
我々は、深度フィールドの概念にLFおよびTOFイメージングの数学的公式を以下に記述する。我々は、どのようにこれらフィールドを捕捉するか、およびどのようにフォワードモデルに変換し、アクティブ照明、および2D空間座標および2D角度座標の関数として深度に関して物体の反射率の値として定義される、光アルべドを回復するかを示す。
深度フィールドを捕捉するフォワードモデルを説明するために、我々は、LFおよびTOFイメージングのためのフォワードモデルを最初に議論する。
光フィールド
光フィールドは、(u,v)がレンズ平面で角度座標、および(x,y)がセンサ面の空間座標である2つの平面モデルl(u,v,x,y)により一般的にパラメータ化される。この関数の出力は、2つの平面との交差によりパラメータ化された光線の輝度を表している。光フィールド捕捉のためのフォワードモデルは、次のように文献でモデル化されている。
ここで、iLF(x,y)は、検出器により測定された強度であり、m(u,v,x,y)は、入来する光線を符号化する変調/多重化関数である。変調関数は、ピンホール(m(u,v,x,y)=δ(u,v,x,y))、フーリエマスク、ランダムコード/マスク、または変調関数がガボールウェールブレットである回折格子を含む光フィールドを感知するために使用することができる別の光学素子を表す。上記式を離散化すると、iLF=MIとなり、ここで、iLF、Iは、ベクトル化イメージおよび光フィールドであり、およびMは、変調行列、および線形の反転と非線形の反転との両方は、光フィールドを回復することができる。
飛行時間型イメージング
対照的に、TOFは、入来する光信号とセンサに送られる基準コードとの間のクロス相関を使用して典型的にモデル化される。入来する光が、l+αcos(ft+φ(x,y))、ここで、φは、光源から被写体までの光路に起因する累積された位相であり、α は、アルべドであるとすれば、センサ(積分時間に正規化)での強度は、以下で表される

ここで、τは、基準信号の位相シフトを制御するクロス相関パラメータである。fτ=0,π/2,π,3π/2のような異なるτを選択することにより、我々は、アルべドと直角位相反転を使用する各空間位置(x,y)で位相φとの両方を回復することができる。

d=cφ/4πfは、TOFイメージングのための位相φから深度dを直接回復できることに留意されたい。
深度フィールド
我々は、ここで、アルべドおよびすべて(u,v,x,y)の空間角座標、すなわち、α=α(u,v,x,y)、φ=φ(u,v,x,y)で発生する深度(位相で符号化された)(α,φ)の順序付きペアとして深度フィールドの概念を議論する。TOFが特定の固定された(u,v)でφおよびαをサンプルする、ピンホールカメラモデルを想定しているので、深度フィールドは、単独のTOF測定から回復不可能であることに留意されたい。
深度フィールドイメージングのフォワードモデルは、以下に記述される。
ここで、概略、
このモデルを反転するために、我々は、4回の測定値fτ=0,π/2,π,3π/2を取り、各空間位置におけるイメージi(0),i(90),i(180),i(270)を取得する。その後、我々は、これらイメージそれぞれについて光フィールド行列を反転させるM−1i(τ)を計算する(注、この逆は、いずれか低い空間解像度で行う、または解像度を保持するためにスパース事前確率またはモデリング仮定を使用することができる。)。したがって、我々は、アルベドおよびすべての(u,v,x,y)で一緒に混合された位相を回復する。
アルベドおよび位相を混合しないようにするために、我々は、以前のようにfτ=0,π/2,π,3π/2についてD’の直交変換をTOFで実行し、深度フィールドを回復することができる。
深度フィールドを捕捉する方法
我々は、深度フィールドのシングルショット捕捉の可能性について説明する(注、’シングルショット’は、4つの位相測定がショット毎に実行されるので、誤った名称であるが、このような機能は、ハードウェアに組み込んで1回の露光で作業することができる。)。ほとんどの光フィールドセンサと同様に、我々は、フォトゲート、フォトニックミキサ装置、横電界変調器、および当該技術分野で公知の他のもののようなCMOS TOFセンサ上のマイクロレンズを整列させることができる。そうすることで、センサ面で空間解像度を犠牲にして角度面をサンプリングすることができる。主レンズは、その開口部を広げることができ、マイクロレンズの下のサブアパーチャビューのそれぞれが大きな被写界深度を維持しながら、より多くの光伝送を可能にする。これは、既存のTOFカメラが、小さな開口および大きな被写界深度を維持するために露光時間を犠牲にするので、有利である。カメラ内の共役像平面におけるマイクロレンズの微細な光学的位置合わせに注意を払う必要がある。例えば、焦点距離fを有するレンズを使用する場合、深度フィールドセンサは、距離f+Δfの位置にすべきである(経験的に決定される、例えば、f=50mmに対して、Δf=0.5から2mm)。
他の実施形態の深度フィールドセンサは、入来角光線をフィルタリングするために、主レンズとフォトゲートのセンサ面との間に振幅マスクを利用することができる。マイクロレンズより少ない光伝送を可能にしながら、マスクは、深度フィールドの改善された再構成のために異なる符号化パターンを用いて設計することができ、固定された光学素子とは異なり、カメラ本体内で柔軟に交換することができる。
他の実施形態は、外部光学素子の位置合わせを必要としないが、上述のASP設計と同様のインターリーブされたフォトゲート上に集積回折格子を使用する、完全に集積されたCMOSピクセル設計である。このセンサは、下のフォトゲートにより撮像されたタルボパターンを形成するために、入来する光を回折することにより動作する。このASPGピクセルは、位相格子を用いてより良い光効率を達成し、コストおよび量産のためのCMOS集積の利点を維持しながら、インターリーブされたフォトゲートでピクセルサイズを縮小することができる。図7Aは、深度フィールドを捕捉するためのシングルショットカメラのための3つのピクセル概念設計を示す。マイクロレンズ、振幅マスク、または回折格子は、同時に光フィールドおよびTOF情報を補足するためにフォトゲートの頂部上に配置される。図7Bは、LFイメージャに使用することができるバイナリ奇対称位相格子を示す。図7Cは、セグメントの幅が格子の中心からの距離とともに増加する半径方向奇対称位相格子を示す。
図8a,図8b,および図8cは、深度フィールド捕捉の概念図を提供する。図8aは、TOFカメラのアレイを使用して概念的に深度フィールドを捕捉することを示し、図8bは、(u,v,x,y)の4D関数としてアルベドを示し、また、図8cは、(u,v,x,y)の4D関数としてTOF深度値に対応する位相を示す。
我々は、ここで深度フィールドのいくつかの新しい適用について説明する。
合成開口リフォーカス
TOFイメージングの主な欠点は、フィールドの深度が深いために正確な深度値を得るための小さな開口の必要性である。被写界深度を浅くするか、または開口を大きくすると、光学的ぼかしが発生し、TOFの深度値が損なわれる。しかしながら、小さな開口では、シャッタ速度が制限され、これらのシステムの取得時間が長くなる。対照的に、光フィールドイメージングは、合成開口リフォーカシングを使用することにより、被写界深度と開口サイズとの間のこのトレードオフを切り抜ける。ピクセル上のマイクロレンズを有するプレノプティックセンサは、開口を開いて、空間解像度の損失にもかかわらず、焦点にあるマイクロレンズの下のサブアパチャイメージを維持しながら、より多くの光伝送を可能にすることができる。捕捉後、デジタルでイメージをリフォーカスでき、したがって、4D光フィールドをシェアリングすることにより被写界深度を拡大し、(u,v)上を合計して、異なる焦点面を有する画像を合成することができる。
同様の技術は、深度フィールドに適用することができる。図9(a−e)は、同じ剪断変形を適用してから平均することにより、4Dのφ(u,v,x,y)情報のデジタルリフォーカスを示す。我々は、従来の深度マップでは表示されていなかったシーンの大きなバーチャル開口を使って捕捉を合成することができ、芸術的/写真的効果を高めるために広い開口光強度イメージと組み合わせることができる。さらに、マイクロレンズを有するTOFのようなシングルショット深度フィールドセンサは、開口を通してより多くの光を得ることを可能にすることができ、フィールドの同じ深度を維持しながら、露光を増加させることができることを確認する。これは、後処理アルゴリズムにおいて失われた空間解像度および被写界深度を計算的に回復する代わりに、TOFセンサの取得時間を短縮することを可能にする。
位相ラッピングの曖昧さ
単一周波数TOFの1つの主な制限は、位相が2πの周期性を有することであり、したがって、深度推定値は、変調波長の周りを包むことになる。数10MHzにおける変調周波数に対して、これは、複数の周波数または位相アンラッピングアルゴリズムを使用することによりさらに拡張することができる、数メートルの深度範囲に対応する。しかしながら、変調周波数が高くなるにつれて、位相アンラッピングはより厳しくなる。
我々は、単一変調周波数で深度フィールドを捕捉することも、異なる視点からの固有のエピポーラ幾何を利用することにより、位相周期性をアンラップすることを可能にすることを確認する。我々は、M.W.タオ、S.ハダップ、J.マリク、およびR.ラマムアティ、光フィールドカメラを使用してデフォーカスおよび対応を組み合わせる深度、IEEEコンピュータビジョン国際会議(ICCV)で報告された対応アルゴリズムから深度を使用し、粗で距離に依存するが、位相ラッピングを受けないので、TOFにより得られた深度測定値をアンラップすることができる。
図10(a−e)は、合成データに関する位相アンラッピングアルゴリズムを使用することを示す。図10aは、光線追跡装置ミツバを使用してシミュレートされたボックスシーンおよび捕捉された深度フィールドを示す。図10b,図10eでは、我々は、位相ラッピングをシミュレートし、対応から深度を計算する。位相アンラッピングを実行するために、我々は、イメージ内の連続する線(このシーンの側壁)を選択して、TOFイメージがシーン内でラップする回数を決定する。我々は、このマッピングを使用して、ラッピングされたTOF深度値を対応関係から深度値に一致させ、図10dに示すように、イメージ全体のアンラップされたTOF深度値につなげる。我々は、また、中央値フィルタを使用して、対応から深度を計算する際に、エッジの不連続性を緩和する。図10eは、シーンのアンラップされた深度マップを示す。
部分的閉塞によるリフォーカス
4D深度フィールドを捕捉することにより合成することができる大規模な合成開口は、前景の過去の部分的な閉塞イメージを可能にする。背景を明らかにするために前景をぼかすこの技術は、茂みや植物を通して見るために明るいフィールドに表示される。深度フィールドに同じ技術適用するとアルベドに対して正しく機能する(前景をぼかしている間に物体をはっきり見ることができる)が、位相に対して機能しないことに留意されたい。これは、視覚的には前景と背景の色が混在するのを知覚的に許容することができるが、この同じ混在は我々の位相測定を損なうため、不正確な深度値につながる。
光フィールドをリフォーカスするとき、この混在の問題を解決するために、研究者らは、シェアード光フィールドを平均化するときに、前景からの光線を単純に追加していない。それらのアルゴリズムの重要な仮定は、前景の物体の光線が連続な映像を撮影することにより、またはエピポーライメージを構成することにより、対応する深度を発見し、その後、背景に対する前景を分離することのいずれかにより識別されることである。これらのアルゴリズムは、閉塞する物体のピクセルを識別するのに計算的に高価である。対照的に、我々は、TOF測定を介して直接捕捉された深度を利用して、シーンにおいて観察された深度のヒストグラムを構築する。我々は、次に、K手段または他の計算的に効率的なクラスタリングアルゴリズムを使用して前景クラスタを単純に選択することができ、それは、エピポーライメージを構成し、ラインの傾きを推定し、そしてクラスタリングを行うためにヒストグラムを形成するよりも高速である。
過去の散乱媒体のリフォーカス
直上の議論は、特定の(u,v)視点の背景をブロックする部分的な閉塞に対処しながら、それらが単一のピクセルで一緒に異なる光路長に対応する複数の位相測定を混在するので、散乱媒体または半透明物体のような他の閉塞はより困難である。我々は、R.タダノ、A.ペディレルダ、およびA.ベララガハバン、深度選択カメラ、撮影における深度選択のためのダイレクト、オンチップ、プログラム可能な技術、IEEEコンピュータビジョン国際会議(ICCV)(受理)2015により報告された具体的な深度選択符号、符号化されたTOFを介して問題にアプローチする。符号化されたTOFは、過去の散乱媒体をイメージングにより深度フィールドカメラシステムの機能を拡張し、空間情報を使用してデジタルリフォーカスを実行することを可能にする。我々は、過去の散乱媒体の深度フィールドを得るために、後方散乱網を介してイメージした。我々は、強い後方散乱としてふるまうために、カメラの前に網を置き、散乱により深度値を著しく破損した。深度選択符号を使用して、我々は、過去の網をイメージし、異なる(u,v)視点で複数のショットを使用することができた。我々は、網を超えて深度フィールドを捕捉しデジタルリフォーカスを行うことができる。このように、我々は、深度フィールドイメージングが符号化TOF技術の利点をどのように活用できるかを示した。
深度フィールドは、時空間角度座標の単一の関数として、光フィールドの統一およびTOFイメージングを可能にし、様々な用途に有用である。2つのイメージングモダリティを追加する簡単な拡張に加えて、それらは互いに知らせることができ、特に、TOF情報を使用することにより、アルゴリズムを光フィールドのための様々な閉塞の問題を計算的により効率的かつ概念的により簡単に解決することに活用し、光フィールドの可能性を追加することにより、TOFカメラのための開口と被写界深度との間のトレードオフを切り抜ける。このような深度フィールド推定における改善は、深度フィールドカメラにも適用でき、深度解像度が向上することにつながる。
深度フィールドカメラに関する深刻な疑問は、ピクセルサイズであり、ピクセル多重化に問題が生じる可能性がある。TOFピクセルは、現在10μmに縮小されており、通常のピクセル(1μm)に比べてわずか10倍であり、積み重ねられたイメージセンサなどの技術的進歩は、これらの多重化の心配を緩和するのに役立つことに留意されたい。しかしながら、深度フィールドカメラの明確な利点は、空間解像度が制限要因でない適用である。これは、空間的なピクセルレイアウトが要因でない開口およびレンズレスイメージングにより制限されるイメージングシステムを含む。
いくつかの制限は、シングルショット深度フィールドカメラのための失われた空間解像度を回復するための長い計算アルゴリズムを含み、または深度フィールドを走査する機械式ガントリ上の大型TOFカメラアレイまたはTOFカメラの取得時間の増加を含む。多くの応用は、野生における深度センシングに部分的な堅牢性を提供するが、実際の自律システムでの展開を制限するモデリングの前提条件(前景と背景の分離、散乱媒体が物体に浸漬しない)に依存する。
いくつかの本発明の実施形態を本明細書に記載し説明してきたが、当業者は、機能を実行し、および/または結果を得るための様々な他の手段および/または構造、および/または記載された利点の1つまたは複数、およびそのような変形および/または修正の各々は、本明細書に記載される本発明の実施形態の範囲内にあるとみなされる。より一般的には、当業者は、本明細書に記載される全てのパラメータ、寸法、材料、および構成が例示的であることを意図し、実際のパラメータ、寸法、および/または構成は、本発明の教示が使用される特定の用途または用途に依存する。当業者は、定常的な実験を用いて確認することはできない、本明細書に記載の特定の本発明の実施形態に対する多くの均等物を認識する。したがって、前述の実施形態は、添付の請求の範囲およびその均等物の範囲内で、ほんの一例として、提示されることが理解されるべきである。本発明の実施形態は、具体的に説明した以外の方法で実施されクレームされてもよい。本開示の発明の実施形態は、本明細書に記載される個々の特徴、システム、物品、キット、および/または方法に向けられている。さらに、特徴、システム、物品、キット、および/または方法の2つ以上の任意の組み合わせが、相互に矛盾しない場合、そのような特徴、システム、物品、キット、および/または方法の2つ以上の任意の組み合わせは、本開示の発明の範囲内である。
本明細書で定義され使用されている全ての定義は、辞書定義、参照により組み込まれた文献の定義、および/または定義された用語の通常の意味を制御すると理解されるべきである。
本明細書および請求項で使用されるように、明らかに反対に示さない限り、不定冠詞の”a”および”an”は、”少なくとも1つ”を意味すると理解されるべきである。本明細書および請求の範囲において使用される”および/または”という語句は、そのように結合された要素の”一方または両方”、すなわち、場合によっては結合的に存在し、他方では離反的に存在すると理解すべきである。”および/または”で列挙された複数の要素は、同じように、すなわち、そのように結合された要素の”1つ以上”と解釈されるべきである。具体的に特定された要素と関連するかどうかにかかわらず、”および/または”の語句により具体的に特定される要素以外の他の要素が任意に存在してもよい。したがって、非限定的な例として、”含む”などの開放型言語と併せて使用される場合、”Aおよび/またはB”への言及は、一実施形態ではAのみ(必要に応じて、B以外の要素を含む)、別の実施形態では、Bのみ(必要に応じて、A以外の要素を含む)、さらに別の実施形態では、AおよびBの両方(必要に応じて、他の要素を含む)に結合する。等。
本明細書および請求の範囲で使用される”または”は、上で定義した”および/または”と同じ意味を有すると理解すべきである。例えば、リスト中の項目を分類する場合、”または”または”および/または”は包括的であると解釈されるべきであり、すなわち、少なくとも1つの要素を含むが、数の1つ以上を含み、複数の要素のリストを含み、オプションで追加の非項目リストを含む。請求の範囲において使用される場合、”1つだけ”または”正確に1つ”のように、逆に明示された用語”からなる”という用語のみが、数または要素のリストのうちの正確に1つの要素を含むことを示す。一般的に、本明細書で使用される”または”という用語は、”どちらか”、”1つ”、”1つだけ”、または”正確に1つ”などの排他的な条件により先行される場合、排他的な代替物(すなわち、”一方または他方であるが両方ではない”)を示すものとしてのみ解釈される。請求の範囲で使用される場合、”本質的にからなる”とは、特許法の分野で使用される通常の意味を有する。
本明細書および請求の範囲で使用されるように、1つまたは複数の要素のリストを参照して”少なくとも1つ”という語句は、その要素のうちの任意の1つまたは複数の要素から選択される少なくとも1つの要素を意味すると理解されるべきである。必ずしも要素のリスト内に特にリストされた各要素の少なくとも1つを含み、要素のリスト内の要素の任意の組み合わせを除外しない要素のリストを含むことができる。この定義は、また”少なくとも1つの”という語句は、具体的に特定された要素に関連するものであろうと関連しないものであろうと、指し示す要素のリスト内で具体的に特定される要素以外に、要素が任意に存在することを可能にする。したがって、非限定的な例として、”AおよびBの少なくとも1つ”(または同等に”AまたはBの少なくとも1つ”または同等に”Aおよび/またはBの少なくとも1つ”)は、一実施形態では、少なくとも1つ、必要に応じてないBの存在で、Aを1つ以上含む(および必要に応じてB以外の要素を含む)。別の実施形態では、少なくとも1つ、必要に応じてないAの存在で、Bを1つ以上含む(および必要に応じてA以外の要素を含む)。さらに別の実施形態では、少なくとも1つのBを任意に2つ以上含むことができる。さらに別の実施形態では、少なくとも1つ、必要に応じて1つ以上のA、および少なくとも1つ、必要に応じて1つ以上のBを含むことができる(および必要に応じて他の要素を含む)。等。
それとは逆に明確に示されていない限り、複数のステップまたは動作を含む本明細書で請求されたいずれの方法においても、方法のステップまたは動作の順序は、必ずしも方法のステップまたは動作が列挙される順序に限定されないことを理解されたい。
請求項において、また、上記明細書において、”含む”、”含む”、”有する”、”含む”、”含む”、”保持する”、”構成する”、”含む”などの全ての過渡的な語句は、限定するものではないが、含むことを意味すると理解すべきである。”からなる”および”本質的にからなる”とういう移行句のみが、米国特許商標庁の特許審査手続第2111.03節に記載されているように、それぞれ閉鎖または半閉鎖移行句であるものとする。

Claims (23)

  1. 深度フィールドイメージング装置であって、
    前記装置は、
    シーンのLFイメージを取得することができる光フィールド(LF)イメージングコンポーネントと、
    シーンのTOFイメージを取得することができる飛行時間型(TOF)イメージングコンポーネントと、
    深度フィールドイメージング装置により、LFイメージおよびTOFイメージの同時取得を可能にするアルゴリズムを操作上実行するようにプログラムされたイメージ処理コンポーネントとを含み、
    LFイメージングコンポーネントは、TOFイメージングコンポーネント上に配置され、両者は単一のオンチップアーキテクチャで実装される、
    ことを特徴とする深度フィールドイメージング装置。
  2. LFイメージングコンポーネントは、格子を含むことを特徴とする請求項1の深度フィールドイメージング装置。
  3. LFイメージングコンポーネントは、マイクロレンズを含むことを特徴とする請求項1の深度フィールドイメージング装置。
  4. LFイメージングコンポーネントは、金属格子を含むことを特徴とする請求項2の深度フィールドイメージング装置。
  5. LFイメージングコンポーネントは、振幅マスクを含むことを特徴とする請求項1の深度フィールドイメージング装置。
  6. 格子は、周期性格子であることを特徴とする請求項2の深度フィールドイメージング装置。
  7. 格子は、位相格子であることを特徴とする請求項2の深度フィールドイメージング装置。
  8. 位相格子は、非(奇)対称位相格子であることを特徴とする請求項7の深度フィールドイメージング装置。
  9. LFイメージングコンポーネントは、角度感受性ピクセル(ASP)であることを特徴とする請求項1の深度フィールドイメージング装置。
  10. TOFイメージングコンポーネントは、アクティブ(変調可能)光源を含む変調可能フォトゲートを含むことを特徴とする請求項1の深度フィールドイメージング装置。
  11. TOFイメージングコンポーネントは、複数のインターリーブされたフォトゲートを含むことを特徴とする請求項10の深度フィールドイメージング装置。
  12. 複数のインターリーブされたフォトゲートは、アクティブ光源の変調周波数で変調されることにより特徴付けられる請求項11の深度フィールドイメージング装置。
  13. 深度フィールドイメージング装置の物体側に配置されたレンズをさらに含むことを特徴とする請求項1のフィールドイメージング装置。
  14. CMOSアーキテクチャで実装されることを特徴とする請求項1の深度フィールドイメージング装置。
  15. 深度フィールドイメージング装置であって、
    前記装置は、
    光フィールド(LF)イメージングコンポーネントと、
    飛行時間型(TOF)イメージングコンポーネントを含み、
    LFイメージングコンポーネントとTOFイメージングコンポーネントの両方は、単一のオンチップアーキテクチャで実装されることを特徴とする深度フィールドイメージング装置。
  16. 深度フィールドピクセル構造であって、
    前記構造は、
    光フィールド(LF)イメージングコンポーネントと、
    フォトゲートと、
    フォトゲートに光学的に結合されたアクティブ光源とを含み、
    LFイメージングコンポーネントは、フォトゲート上に配置され、ピクセル構造は、単一のオンチップアーキテクチャで実装されることを特徴とする深度フィールドピクセル構造。
  17. イメージング方法であって、
    前記方法は、
    物体シーンのLFイメージを取得するステップと、
    物体シーンのTOFイメージを同時に取得するステップと、
    物体シーンの深度フィールドイメージから取得されたLFイメージとTOFイメージを処理するステップとを含み、
    LFイメージとTOFイメージは、単一のオンチップ実装されたハイブリッドイメージセンシング装置により、同時に取得される、
    ことを特徴とするイメージング方法。
  18. 単一の露光においてLFイメージとTOFイメージを取得するステップをさらに含むことを特徴とする請求項17のイメージング方法。
  19. デジタルリフォーカス技術を使用して深度フィールドイメージを取得するステップをさらに含むことを特徴とする請求項17のイメージング方法。
  20. 位相アンラッピング技術を使用して深度フィールドイメージを取得するステップをさらに含むことを特徴とする請求項17のイメージング方法。
  21. 深度フィールドイメージングシステムであって、
    前記システムは、
    フィールドピクセル構造の深度のアレイを含み、それぞれの深度フィールドピクセル構造は、光フィールド(LF)イメージングコンポーネントと、フォトゲートと、およびフォトゲートに光学的に結合されたアクティブ光源を含み、LFイメージングコンポーネントは、フォトゲート上に配置され、それぞれのピクセル構造は単一のオンチップアーキテクチャで実装されることを特徴とする深度フィールドイメージングシステム。
  22. 物体シーンとフィールドピクセル構造の深度のアレイとの間に配置されるレンズをさらに含むことを特徴とする請求項21の深度フィールドイメージングシステム。
  23. グローバルシャッタをさらに含むことを特徴とする請求項21の深度フィールドイメージングシステム。
JP2017548977A 2015-03-17 2016-03-17 深度フィールドイメージング装置、方法および応用 Active JP6722194B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562134122P 2015-03-17 2015-03-17
US62/134,122 2015-03-17
PCT/US2016/022741 WO2016149438A1 (en) 2015-03-17 2016-03-17 Depth field imaging apparatus, methods, and applications

Publications (2)

Publication Number Publication Date
JP2018513967A true JP2018513967A (ja) 2018-05-31
JP6722194B2 JP6722194B2 (ja) 2020-07-15

Family

ID=55642898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017548977A Active JP6722194B2 (ja) 2015-03-17 2016-03-17 深度フィールドイメージング装置、方法および応用

Country Status (7)

Country Link
US (2) US10605916B2 (ja)
EP (1) EP3271747B1 (ja)
JP (1) JP6722194B2 (ja)
KR (1) KR102456875B1 (ja)
CN (1) CN107533139B (ja)
CA (1) CA2979836C (ja)
WO (1) WO2016149438A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181096A1 (ja) * 2021-02-26 2022-09-01 ソニーセミコンダクタソリューションズ株式会社 情報処理装置および方法

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7120929B2 (ja) * 2016-06-07 2022-08-17 エアリー3ディー インコーポレイティド 深度取得及び3次元撮像のためのライトフィールド撮像デバイス及び方法
JP7140784B2 (ja) * 2017-03-01 2022-09-21 ポイントクラウド インコーポレイテッド モジュラー三次元光学検知システム
US10928489B2 (en) 2017-04-06 2021-02-23 Microsoft Technology Licensing, Llc Time of flight camera
US10215856B1 (en) 2017-11-27 2019-02-26 Microsoft Technology Licensing, Llc Time of flight camera
US10558844B2 (en) * 2017-12-18 2020-02-11 Datalogic Ip Tech S.R.L. Lightweight 3D vision camera with intelligent segmentation engine for machine vision and auto identification
US10901087B2 (en) * 2018-01-15 2021-01-26 Microsoft Technology Licensing, Llc Time of flight camera
CN108519588B (zh) * 2018-04-12 2023-04-21 视缘(上海)交通科技有限公司 一种多频相位解缠方法及装置
CN110418085B (zh) * 2018-04-28 2021-09-17 思特威(上海)电子科技股份有限公司 Tof像素电路及测距系统
CN112424639A (zh) * 2018-06-22 2021-02-26 ams有限公司 使用飞行时间和伪随机比特序列测量到物体的距离
US20210318443A1 (en) * 2018-07-17 2021-10-14 Sony Semiconductor Solutions Corporation Electronic device and method
US11609313B2 (en) * 2018-07-31 2023-03-21 Waymo Llc Hybrid time-of-flight and imager module
KR102596053B1 (ko) * 2018-08-27 2023-11-01 엘지이노텍 주식회사 영상 처리 장치 및 영상 처리 방법
CN112689776A (zh) 2018-09-16 2021-04-20 苹果公司 使用彩色图像数据校准深度感测阵列
US20210270969A1 (en) * 2018-09-25 2021-09-02 Apple Inc. Enhanced depth mapping using visual inertial odometry
US11176694B2 (en) 2018-10-19 2021-11-16 Samsung Electronics Co., Ltd Method and apparatus for active depth sensing and calibration method thereof
WO2020087485A1 (zh) 2018-11-02 2020-05-07 Oppo广东移动通信有限公司 深度图像获取方法、深度图像获取装置及电子装置
WO2021030034A1 (en) 2019-08-15 2021-02-18 Apple Inc. Depth mapping using spatial multiplexing of illumination phase
CN112449090A (zh) * 2019-09-03 2021-03-05 睿镞科技(北京)有限责任公司 用于生成深度图像的系统、方法和装置
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements
US11330246B2 (en) * 2019-11-21 2022-05-10 Microsoft Technology Licensing, Llc Imaging system configured to use time-of-flight imaging and stereo imaging
US11389124B2 (en) * 2020-02-12 2022-07-19 General Electric Company X-ray phase contrast detector
US11763472B1 (en) 2020-04-02 2023-09-19 Apple Inc. Depth mapping with MPI mitigation using reference illumination pattern
US11558569B2 (en) 2020-06-11 2023-01-17 Apple Inc. Global-shutter image sensor with time-of-flight sensing capability
CN112346076A (zh) * 2020-11-25 2021-02-09 Oppo(重庆)智能科技有限公司 电子装置的控制方法、电子装置及计算机可读存储介质
CN116829986A (zh) * 2020-12-15 2023-09-29 捷普光学德国有限公司 混合深度成像系统
CN113658089A (zh) * 2021-09-09 2021-11-16 南开大学 一种基于深度相机的双数据流融合物体识别方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000517427A (ja) * 1996-09-05 2000-12-26 ルドルフ シュヴァルト 電磁波の位相情報および/または振幅情報を調べるための方法と装置
JP2008191661A (ja) * 2007-02-06 2008-08-21 Mitsubishi Electric Research Laboratories Inc シーンの4dライトフィールドを取得する装置及び方法
JP2011164095A (ja) * 2010-02-04 2011-08-25 Samsung Electronics Co Ltd センサー、その動作方法、及びセンサーを含むデータ処理システム
JP2013520006A (ja) * 2010-02-12 2013-05-30 サムスン エレクトロニクス カンパニー リミテッド イメージセンサおよび動作方法
JP2013538342A (ja) * 2010-07-21 2013-10-10 マイクロソフト コーポレーション 階層的な飛行時間(tof)システムのディエリアシング方法およびシステム
US8809758B2 (en) * 2008-07-25 2014-08-19 Cornell University Light field image sensor with an angle-sensitive pixel (ASP) device
WO2014137922A1 (en) * 2013-03-05 2014-09-12 Rambus Inc. Phase gratings with odd symmetry for high-resoultion lensless optical sensing
JP2014176625A (ja) * 2014-01-27 2014-09-25 Sophia Co Ltd 遊技機
JP2014197824A (ja) * 2013-03-05 2014-10-16 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
WO2014198625A1 (en) * 2013-06-13 2014-12-18 Basf Se Optical detector and method for manufacturing the same
WO2015025497A1 (ja) * 2013-08-23 2015-02-26 パナソニックIpマネジメント株式会社 測距システム及び信号発生装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5296691A (en) * 1992-09-14 1994-03-22 Lazerdata Corporation Scanning device for reconstructing a complete code from scanned segments
DE19542490C1 (de) * 1995-11-15 1997-06-05 Leica Ag Elektro-optisches Meßgerät für absolute Distanzen
US6925455B2 (en) 2000-12-12 2005-08-02 Nec Corporation Creating audio-centric, image-centric, and integrated audio-visual summaries
WO2007092545A2 (en) 2006-02-07 2007-08-16 The Board Of Trustees Of The Leland Stanford Junior University Variable imaging arrangements and methods therefor
EP2398224B1 (en) 2004-10-01 2016-01-13 The Board of Trustees of The Leland Stanford Junior University Imaging arrangements and methods therefor
EP1941314A4 (en) 2005-10-07 2010-04-14 Univ Leland Stanford Junior ARRANGEMENTS AND APPROACHES FOR MICROSCOPY
EP3836215A1 (en) * 2008-07-25 2021-06-16 Cornell University Light field image sensor, method and applications
GB0916727D0 (en) * 2009-09-23 2009-11-04 Univ St Andrews Improvements in or relating to imaging
WO2012018887A2 (en) 2010-08-03 2012-02-09 Cornell University Angle sensitive pixel (asp)-based image processing system, method, and applications
CN103299166B (zh) 2010-10-27 2015-09-23 康奈尔大学 光场图像传感器、方法和应用
EP2815251B1 (en) * 2012-02-15 2017-03-22 Heptagon Micro Optics Pte. Ltd. Time of flight camera with stripe illumination
US9160900B2 (en) * 2012-02-29 2015-10-13 Canon Kabushiki Kaisha Systems and methods for compressive light sensing using multiple spatial light modulators
US8569700B2 (en) * 2012-03-06 2013-10-29 Omnivision Technologies, Inc. Image sensor for two-dimensional and three-dimensional image capture
WO2014122506A1 (en) 2013-02-07 2014-08-14 Nokia Corporation Image processing of sub -images of a plenoptic image
US9110240B2 (en) 2013-03-05 2015-08-18 Rambus Inc. Phase gratings with odd symmetry for high-resolution lensed and lensless optical sensing
CN103209307B (zh) * 2013-04-18 2016-05-25 清华大学 编码重聚焦计算摄像方法及装置
US9442186B2 (en) * 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
CN105637320B (zh) * 2013-08-19 2018-12-14 巴斯夫欧洲公司 光学检测器
US9515113B2 (en) * 2013-08-27 2016-12-06 Rambus Inc. Optical sensing of nearby scenes with tessellated phase anti-symmetric gratings
US10061028B2 (en) * 2013-09-05 2018-08-28 Texas Instruments Incorporated Time-of-flight (TOF) assisted structured light imaging
CN103472455B (zh) * 2013-09-13 2015-05-06 中国科学院空间科学与应用研究中心 稀疏孔径压缩计算关联飞行时间四维光谱成像系统及方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000517427A (ja) * 1996-09-05 2000-12-26 ルドルフ シュヴァルト 電磁波の位相情報および/または振幅情報を調べるための方法と装置
JP2008191661A (ja) * 2007-02-06 2008-08-21 Mitsubishi Electric Research Laboratories Inc シーンの4dライトフィールドを取得する装置及び方法
US8809758B2 (en) * 2008-07-25 2014-08-19 Cornell University Light field image sensor with an angle-sensitive pixel (ASP) device
JP2011164095A (ja) * 2010-02-04 2011-08-25 Samsung Electronics Co Ltd センサー、その動作方法、及びセンサーを含むデータ処理システム
JP2013520006A (ja) * 2010-02-12 2013-05-30 サムスン エレクトロニクス カンパニー リミテッド イメージセンサおよび動作方法
JP2013538342A (ja) * 2010-07-21 2013-10-10 マイクロソフト コーポレーション 階層的な飛行時間(tof)システムのディエリアシング方法およびシステム
WO2014137922A1 (en) * 2013-03-05 2014-09-12 Rambus Inc. Phase gratings with odd symmetry for high-resoultion lensless optical sensing
JP2014197824A (ja) * 2013-03-05 2014-10-16 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
WO2014198625A1 (en) * 2013-06-13 2014-12-18 Basf Se Optical detector and method for manufacturing the same
WO2015025497A1 (ja) * 2013-08-23 2015-02-26 パナソニックIpマネジメント株式会社 測距システム及び信号発生装置
JP2014176625A (ja) * 2014-01-27 2014-09-25 Sophia Co Ltd 遊技機

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181096A1 (ja) * 2021-02-26 2022-09-01 ソニーセミコンダクタソリューションズ株式会社 情報処理装置および方法

Also Published As

Publication number Publication date
CA2979836C (en) 2023-08-29
CN107533139A (zh) 2018-01-02
EP3271747A1 (en) 2018-01-24
US20200191967A1 (en) 2020-06-18
CA2979836A1 (en) 2016-09-22
US10605916B2 (en) 2020-03-31
KR20170134502A (ko) 2017-12-06
US10983216B2 (en) 2021-04-20
CN107533139B (zh) 2022-02-08
EP3271747B1 (en) 2022-05-25
WO2016149438A1 (en) 2016-09-22
JP6722194B2 (ja) 2020-07-15
US20190033448A1 (en) 2019-01-31
KR102456875B1 (ko) 2022-10-19

Similar Documents

Publication Publication Date Title
US10983216B2 (en) Depth field imaging apparatus, methods, and applications
EP3195042B1 (en) Linear mode computational sensing ladar
EP3516625B1 (en) A device and method for obtaining distance information from views
Chan et al. Long-range depth imaging using a single-photon detector array and non-local data fusion
Zhou et al. Computational cameras: convergence of optics and processing
US8982363B2 (en) Method and apparatus to determine depth information for a scene of interest
US9123114B2 (en) System and processor implemented method for improved image quality and enhancement based on quantum properties
EP3144880B1 (en) A method and an apparatus for generating data representative of a light field
Jayasuriya et al. Depth fields: Extending light field techniques to time-of-flight imaging
US11832008B2 (en) Image sensors and sensing methods to obtain time-of-flight and phase detection information
Štolc et al. Depth and all-in-focus imaging by a multi-line-scan light-field camera
Lee et al. Highly precise AMCW time-of-flight scanning sensor based on parallel-phase demodulation
Sheinin et al. Diffraction line imaging
KR101857977B1 (ko) 플래놉틱 카메라와 깊이 카메라를 결합한 영상 장치 및 영상 처리 방법
Agarwal et al. Three dimensional image reconstruction using interpolation of distance and image registration
Damghanian et al. Spatial resolution in a multi-focus plenoptic camera
Aßmann et al. Parallel block compressive LiDAR imaging
Varghese Angle sensitive imaging: A new paradigm for light field imaging
US20240103175A1 (en) Imaging system
Jayasuriya Plenoptic imaging and vision using angle sensitive pixels
Edeler et al. Uncertainty analysis for optical time-of-flight sensors based on four-phase-shift range calculation
Veeraraghavan et al. Computational photography
Kunnath et al. Depth from Defocus on a Transmissive Diffraction Mask-based Sensor
Krig et al. Image Capture and Representation
Lietz et al. Introduction to Fourier ptychographic imaging for 3D ToF cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200619

R150 Certificate of patent or registration of utility model

Ref document number: 6722194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250