JP6835879B2 - 自動被写体検出および視覚システムの照明不変画像センサの方法および装置 - Google Patents

自動被写体検出および視覚システムの照明不変画像センサの方法および装置 Download PDF

Info

Publication number
JP6835879B2
JP6835879B2 JP2018565248A JP2018565248A JP6835879B2 JP 6835879 B2 JP6835879 B2 JP 6835879B2 JP 2018565248 A JP2018565248 A JP 2018565248A JP 2018565248 A JP2018565248 A JP 2018565248A JP 6835879 B2 JP6835879 B2 JP 6835879B2
Authority
JP
Japan
Prior art keywords
image
array
detector
scene
duration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018565248A
Other languages
English (en)
Other versions
JP2019508717A5 (ja
JP2019508717A (ja
Inventor
イー. レッテラート、ジェームズ
イー. レッテラート、ジェームズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
4d Intellectual Properties LLC
Original Assignee
4d Intellectual Properties LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 4d Intellectual Properties LLC filed Critical 4d Intellectual Properties LLC
Publication of JP2019508717A publication Critical patent/JP2019508717A/ja
Publication of JP2019508717A5 publication Critical patent/JP2019508717A5/ja
Application granted granted Critical
Publication of JP6835879B2 publication Critical patent/JP6835879B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/23Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using wavelength separation, e.g. using anaglyph techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/1717Systems in which incident light is modified in accordance with the properties of the material investigated with a modulation of one or more physical properties of the sample during the optical investigation, e.g. electro-reflectance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1765Method using an image detector and processing of image signal
    • G01N2021/177Detector of the video camera type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

実施形態は一般に、シーンのある画像の複数の点までの距離の測定を提供するカメラに関する。さらに詳細には、実施形態は、シーンおよび被写体の画像が広範囲の周辺照明条件で取得され、各カメラ画素が色および距離の情報を提供する能動光源カメラに関する。
3次元(3D)カメラとも呼ばれる3次元光イメージングシステムは、シーン内の物理的被写体用の距離測定および光測定を提供できる。このような3Dカメラの用途は、工業的検査、選択的ロボットビジョン、3Dモデリング、測量および法医学的分析である。
3Dカメラは、種々の技術で実施することができるが、各種技術の組み合わせではカメラに広範な用途を与えられないある程度の限界がある。立体視3Dカメラは、固定された高度に較正された構成において2つ以上のイメージングアレイを実装し、撮像視野中で共通した複数の点の三角測量を利用して、共通した複数の点のそれぞれまでの距離を求める。立体視システムは、オクルージョンおよび視差のため画像距離の不正確さに悩まされる。さらに、画像アレイ間の基準距離が測定距離に比べて小さい場合、距離の不正確さが問題となる。最後に、立体3Dカメラは、複数の画像アレイの必要性と、画像アレイ間の基準オフセットのための高精度要件のゆえに高価である。
飛行時間(Time-Of-Flight : TOF)システムは、パルス化または変調されたレーザなどの光源がシーン内の被写体から反射された光の振幅およびタイミングを測定するための撮像システムに連動してシーンを照明する光パルスを提供するように光源を利用する。シーン内の点までの距離は、反射された信号のすべてについて既に分かっている光速を用いて決定される。TOFデバイス用のイメージングシステムは、典型的にはCCDまたはCMOS技術を使用して製造された光検出器アレイを有するカメラと、光検出素子のための収集時間を迅速にゲーティングする(gating)方法とを含む。反射された光は、特定のゲートサイクル中に光検出素子によって取り込まれる。
TOFシステムによっては、光パルスとゲート式光検出器(gated photodetectors)との間のタイミングのみを利用して3D被写体距離を決定する。TOFシステムによっては、ゲート式取り込みサイクル中の受光量を利用して被写体距離を求める。これらのシステムの精度は、入射光の均一性および光検出器用のゲート機構の速度に依存する。
ゲート式光検出器の利用は、シーン内の被写体までの距離を求める有効な方法である。入射光パルスとゲート式光検出器との間のタイミングを正確に制御することにより、ある距離バンド内における被写体までの距離を正確に決定することができる。他の距離バンドで被写体距離を求めるためには、その後の光およびゲート式光検出器サイクルが利用されるが、静止した被写体および静止したカメラは現在の構成および配向で維持される。シーン内のカメラおよび被写体の両方またはいずれかの移動により、互いに対して記録されない距離測定バンドが生じる。
特許文献1に記述された3Dカメラは、変調された光源(source)およびイメージングシステムを利用する。このシステムの好ましい実施形態は、CWレーザを使用し、入射信号と反射信号との間の位相差を利用して被写体までの距離を求める。
別の3Dカメラは、特許文献2に記述される。このシステムは、各光検出器素子に対し
て一対のゲート(gate)を利用する。被写体までの距離は、2つのゲートされた素子でサンプリングしたエネルギー間の差の比から決定される。
特許文献3および特許文献4はそれぞれ、変調された光度源および位相範囲を利用して、放射信号と検出信号との間の位相シフトを検出する。特許文献5の実施形態は、飛行時間決定のために変調された光度および位相シフトの検出を利用している。特許文献5の他の実施形態は、低分解能距離経路を有する高分解能色経路を利用して、検出器または検出器のグループの3D情報を決定する。
ヤハブ(Yahav)に付与された特許文献6は、チップ上の3Dビジョンについて記述しており、稼働時にゲートされる光検出器素子のアレイを利用して、シーン内の被写体距離を求める。光検出器サイトは、TOF距離測定または被写体の色の決定のいずれかのために利用される。ヤハブの実施形態は、さまざまな距離バンドを求めるために光検出素子のグループまたはバンドを利用することを記述している。ヤハブの他の実施形態は、取り込みサイクルのシーケンスを利用して求められた全シーン距離により、各取り込みサイクルについての単一の距離バンドについて記述している。ヤハブには規定されていないが、これらの実施形態の要件は、取り込みサイクルのシーケンス全体を通してカメラおよびシーン内の被写体の移動がないことである。
自律走行自動車ナビゲーション、モービルマッピング、農業、鉱業および監視などの現実世界の用途では、一連のイメージングサイクル中に3Dカメラとシーン内の被写体との間の相対移動がほとんどまたはまったくないことを要求するというのは現実的ではない。さらに、現実世界の状況の大部分は、周囲光条件が広く変化するシーンで生じる。被写体、カメラまたはその両方が動いている過渡的なシーンにおいて被写体を正確に測定するのに十分な速度で画像を取り込む3Dカメラを有することが望ましい。さらに、昼間および夜間のイメージングのための正確な距離および色を生成する能動光源3Dカメラを有することが望ましい。さらに、2次元カメラの視界を劇的に制限する大気条件を「見通す(see through)」ことができるカメラを有することが望ましい。
米国特許第4,935,616号明細書 米国特許第5,081,530号明細書 米国特許第7,362,419号明細書 米国特許第7,755,743号明細書 米国特許第8,159,598号明細書 米国特許第8,102,426号明細書
実施形態では、4次元(4D)カメラの光検出器アレイは、連続した光パルスと対応するゲート式検出器サイクルとの間の異なる相対的タイミングを用いる、素早い一連の能動光パルスおよびゲート式光検出器サイクルを利用して、シーンから反射した光を取り込む。
実施形態では、入射光は、約400ナノメートル〜700ナノメートルのエネルギー帯の全スペクトル可視光である。光検出器サイトは、この波長域の放射線に対して敏感である。実施形態では、光検出器は、所望のエネルギー帯外の放射線を低減または除去するために帯域フィルタを利用する。帯域フィルタは、IR除去フィルタの場合にはグローバルアレイフィルタとして適用することができ、アレイ内のRGB成分を確立するベイヤーパターンの場合には各光検出器の個別のフィルタとして適用することができる。
いくつかの実施形態では、光検出器素子は、光検出器積分素子に結合されたフォトダイオードを利用し、これにより、フォトダイオードからの電流が光検出器のゲートサイクル中に収集または積分される電荷を生成する。光検出器積分段は、積分した電荷をシステム内の次の処理素子に高速で転送することによって空にされ、これによって光検出器段が次の光検出器積分サイクルの積分を開始することを可能にする。
実施形態では、アレイ内の各光検出器サイトは専用の電荷転送段に接続され、K個の段はそれぞれ、光検出器サイトからの電荷の高速転送を可能にする。光検出器ごとのK個の電荷転送段を利用することにより、1回のイメージングサイクルあたり最大K回のゲート式放射体/検出器サイクルが可能になる。
実施形態では、検出器アレイおよび電荷転送サイトは、ゲート回路および電荷転送制御回路と共に焦点面アレイ上に一緒に製造される。光検出器サイトの数は十分に多く、下流のカメラ回路への焦点面アレイインタフェースは、高速電荷転送アレイのスループットレートよりも比較的低いスループットレートとなる。
実施形態では、検出器アレイは、ゲート回路と共に焦点面アレイ上に製造される。焦点面アレイの信号インタフェースは十分に高速であるため、電荷転送アレイを必要とすることなく、積分電荷を積分サイトから4Dフレームバッファに直接転送することができる。
いくつかの実施形態では、4Dカメラ光源は、所望の周波数範囲全体にわたって均一な強度を提供するLEDのような1つまたは複数の素子を備える。他の実施形態では、光源は、LEDのような光素子の組み合わせであり、別個の光素子における周波数応答を合成して、所望の周波数範囲全体にわたって均一な出力信号を形成する。
実施形態では、カメラは、放射信号および反射信号を減衰させる環境条件を検出し、環境信号および大気信号からの検出情報を利用して、非減衰信号強度、被写体距離および被写体の色を求める。
実施形態では、光度は周波数範囲全体にわたって不均一である。不均一な光は、画像の後処理の間に適用される色補正に使用するパラメータを求めるために特性評価される。実施形態では、光度は撮像視野全体にわたって空間的に不均一である。不均一な空間輝度は、画像の後処理の間にシーン輝度および色の調整を可能とするようにマッピングされる。
いくつかの実施形態では、光エネルギーは、650nm、905nm、または1550nmの共通のレーザ波長として放射され受信される。いくつかの実施形態では、光エネルギーは、紫外線(UV)(100〜400nm)、可視線(400〜700nm)、近赤外線(NIR)(700〜1400nm)、赤外線(IR)(1400〜8000nm)、長波長IR(LWIR)(8μm〜15μm)、遠IR(FIR)(15μm〜1000μm)、またはテラヘルツ(0.1mm〜1mm)の波長帯であり得る。
4Dカメラ構成の外観を示す。 システムの撮像視野を画定する4Dカメラの態様を示す。 システムの主な電気素子および光学素子の機能ブロック図を示す。 複数の4D画像の取り込みおよび処理サイクルを示す電気タイミング図を示す。 各光検出器画素が単一の光検出器、関連する積分段およびK個の電荷転送段からなる、検出器アレイの電気的機能ブロック図を示す。 単一の4Dフレームバッファ用に収集されたデータを構成する11段の放射体/検出器事象の電気的タイミング図を示す。 典型的な16段の検出器画素のTOF範囲を示し、すべての積分段についての関連する収集輝度値を示す。 光路を不明瞭にする霧を伴う被写体のイメージングを示す。 光路を不明瞭にする霧を伴ったイメージング用のTOF範囲および輝度値を示す。 単一の4Dフレームバッファ用の10段の検出器事象の電気的タイミング図を示し、最後の段は時間的に拡張されてより多くの色情報を積分する。 10段の検出器画素のTOF範囲を示し、すべての積分段についての関連する収集輝度値を示す。 50nSec放射体パルスの光タイミング図を示す。 同じ50nSec放射体パルスの累積輝度の光タイミング図を示す。 理想的な可視スペクトル放射体のスペクトル出力を示す。 典型的なLED放射体のスペクトル出力を示す。 白色LED放射体と共に赤色LED放射体および緑色LED放射体のスペクトル出力を示す。 白色LED、緑色LEDおよび赤色LEDで生成された合成信号の累積スペクトル出力を示す。 青色放射体、赤色放射体および緑色放射体のスペクトル出力を示す。 放射光が車両のヘッドランプによって生成され、検出器の光学部品および電気部品が放射体から離れて車両の内部に収容される自動車の構成を示す。 4Dカメラ回路がヘッドランプの制御を行う自動車の構成におけるヘッドランプ制御タイミングを示す。 被写体の角度輝度プロファイル解析に使用する画像データを収集するための環境を示す。 被写体を分類または識別するために角度輝度プロファイル解析を利用するアルゴリズムのフローチャートを示す。 カメラを使用して視界不良条件で情報を提供する自動車の構成を示す。
図1は、4Dカメラ10の機械的構成を示す。レンズ20は、撮像視野(Field Of View:FOV)からの光を検出器アレイ上に導き、焦点を合わせる1つまたは複数の透過性光学素子を備える。帯域フィルタは、典型的には、不要な周波数成分を除去するためにレンズ20のアセンブリの一部として備えられる。例えば、放射体(emitter)用に905nmのレーザを利用する4Dカメラ10は、可視スペクトルおよび他のIR周波数が検出器素子を作動させないように、905nmの狭帯域フィルタを備えることができる。複数の放射体(emitter)30は、検出器アレイおよび関連するレンズ10のFOVを含む領域全体に分配される入射光を提供する。複数の放射体30から生じる光は、「受動的(passive)」な周辺光とは区別できる「能動的(active)」な光である。個々の放射体30は、FOV全体に光を適切に分配するようにレンズが嵌められてもよい(lensed)。すべての放射体30は、互いに同じ周波数を生成することができ、または別個の放射体30は、デバイス10の異なる帯域の所望のスペクトル出力を生成することができる。放射体30のパルシング(Pulsing)は、4Dカメラ10に実装された電子機器によって正確に制御される。カメラ10用の機械的ハウジング40は、典型的には、カメラ10が取り付けられているデバイスまたは車両に対するカメラ10の正確な配向を可能にするデバイス取り付け特徴を有する。電力は、電力接続45を介して4Dカメラ10に供給される。情報は一体型電力/通信ケーブル45を介して、別個のI/Oケーブルを介して、または無線インタフェースを介してカメラ10へ/から転送される。
図2は、検出器アレイ50の一実施形態の光学的構成を示す。レンズ52または他の光学素子は、検出器アレイ50の撮像視野56を決定する。検出器アレイ50の撮像視野56のエッジは、デバイスの法線ベクトルからの角度範囲によって画定される。この同じ法線ベクトルは、検出された被写体に対するその後の角度測定のための基準ベクトルとしての機能を果たす。図示されている表面54は、アレイ50から一定の距離にある検出器アレイ50の撮像視野の描写である。さまざまな実施形態では、アレイ50内の各検出器素子58は、撮像視野56内での異なる角度60と関連し得る。個々の検出器58の撮像視野62は、検出器アレイ50の撮像視野56の一部分である。換言すると、検出器アレイ50の撮像視野56は、個々の撮像視野62のすべての合計である。
焦点レンズ52を備えた検出器アレイ50の場合、各検出器58に対応する個々の撮像視野62は、隣接する検出器の撮像視野と完璧に整列しているべきである。実際には、レンズ52の焦点が完璧に合うことはほぼない。したがって、レンズ付きシステムの各検出器58の撮像視野62は典型的には重なり合っていてもよいが、各検出器58の撮像視野は、検出器アレイ50内のどの他の検出器58の撮像視野とも異なる。検出器アレイ50は、半導体レイアウトの制限、基板の熱の考慮、電気的なクロストークの回避、または他のレイアウト、製造もしくは歩留まりの制約ゆえに、それらの構成において最適な密度を有していない可能性がある。このように、まばらな検出器アレイ50は、連続した検出器素子58間の未使用空間に接触する反射光子ゆえに、デバイスの撮像視野56内の光子検出器の効率損失を被る可能性がある。
レンズなしシステムの場合、各検出器58の撮像視野62は、回折格子、干渉計、導波管、2Dマスク、3Dマスク、または特定の撮像視野内の光を許容するように構成されたさまざまな他のアパーチャ構成によって決定され得る。これらの個々の検出器のアパーチャは、典型的には、デバイスの撮像視野56内に重なり合う撮像視野62を有する。
さまざまな実施形態の要素は、各検出器58のための角度60の決定である。図2は、単レンズ52を備えた検出器アレイ50を示す。別の実施形態は、各検出器素子58でマイクロレンズを利用し、個々のマイクロレンズは、デバイスの撮像視野56全体にわたってさまざまな角度で反射された光を透過させるように構成されている。別の実施形態は、デバイスの撮像視野全体にわたってさまざまな角度で導波管を備えた検出器素子58を利用する。他の実施形態は、干渉計、回折格子、2Dマスク、3Dマスク、または他のアパーチャ形成構造から作り出されたアパーチャを有する検出器素子を利用し、デバイスの撮像視野全体にわたってさまざまな角度で導波管特性を生み出す。集束光(in−focus light)をアレイ50に送るように構成されたレンズ52を備えた図2のような単レンズ52のシステムの場合、個々の撮像視野62は、アレイ50内で隣接する検出器58の撮像視野に本質的に隣接している。焦点外(out−of−focus)レンズ52は、個々の検出器58に対して重なり合った撮像視野62を生成する。導波管およびアパーチャ検出器は、個々の検出器58に対して重なり合った撮像視野62を生成する可能性が高い。マイクロレンズもまた、個々の検出器58に対して重なり合った撮像視野62を生成する可能性が高い。これらの重なり合った撮像視野の実施形態はすべて、本明細書の仕様に従って信頼できる結果を生み出す。これらの実施形態の光学検出システムの特徴は、複数の検出器素子がデバイスの撮像視野56を構成し、検出器アレイ内のすべての素子が、検出器58の撮像視野62を決定する角度60によって画定されることである。
4Dカメラで使用される検出器アレイ50の製造には変化が生じる。図2に示すような単レンズ(52)式検出器アレイデバイスでは、アレイ50とレンズ52との位置合わせのわずかな差異は、別個のデバイス間の検出器角度に差異を生じさせる可能性がある。デバイス間のわずかな製造およびアセンブリの違いのため、各デバイスは製造後の特性評価プロセスを受けてもよい。特性評価プロセスは、構築された各検出器素子の中心角60を
画定する。さまざまな実施形態では、このプロセスによる特性評価データは、不揮発性メモリまたはあらゆるデバイスの環境設定ファイルに記憶される。導波管、マイクロレンズおよびアパーチャデバイスは、各検出器素子に対する角度60を求めるために類似の特徴評価を必要とし得る。
光路の正確な決定が重要であることから、現場での較正は、さまざまな実施形態によるデバイスにとって望ましくなり得る。一例として、一実施形態による4Dカメラデバイスは、自律走行自動車のセンサとして使用されてもよい。デバイスを保護するために、乗用車内部においてバックミラー裏のフロントガラスに取り付けて設置することができる。デバイスは車両の前方を向いているため、放射光および反射光は、外部の被写体までまたそれからの間にフロントガラスを通過する。光の両方の成分は、反射、屈折および減衰のため、フロントガラスを通過する際に歪む。この自律走行自動車の4Dカメラの現場における較正は、所定の較正パターンを放射し、反射信号の輝度、位置および角度を測定するデバイスを含むことができる。デバイスの特性評価パラメータは、較正に基づいて、入射光および反射光の、または入射光もしくは反射光の修正された光路を考慮に入れるように更新される。
図3は、4Dカメラ70のための電気素子および光学素子を有する実施形態の機能ブロック図を示す。光検出器アレイ72は、特定の周波数で光子を感知し、光エネルギーを電気的情報に変換するM行×N列の素子の構成である。4Dカメラ70の画像取り込みサイクルは、高速シーケンスで生成されるK回の連続した放射体/検出器サイクルからなり、その相対的タイミングは、異なるTOF、ひいては取り込みサイクル用の異なる距離範囲バンドを考慮するようにK回の連続したサイクルのそれぞれに対して変化する。光検出器アレイ72からの情報は、4Dフレームバッファメモリ74に記憶される。4Dフレームバッファメモリ74にはK個のフレームバッファがあり、K個のフレームバッファはそれぞれ、各放射体/検出器サイクルのためのM×N個の検出器72に関して収集された検出器情報に対応する。光検出器72からの情報は、典型的には、アナログ信号形態で収集され統合される。A/D変換器76は、デジタル情報4Dフレームバッファ74に記憶する前に、検出器72の情報をデジタルフォーマットに変換する。K個の4Dフレームバッファ74はそれぞれ、M×N×L個のビットを有し、ここで、Mは検出器アレイ72内の行の数であり、Nは検出器アレイ72内の列の数であり、LはそれぞれのA/D変換器76によって生成される画素あたりのビット数である。実施形態中のA/D変換器素子76の数は、1〜M×Nの範囲であることができる。A/D変換器素子76が多いほど、光検出器アレイ72から4Dフレームバッファ74へのより高速での情報の転送を可能にする。
実施形態では、光検出器アレイ72は、電気的接続78を利用して他のカメラ70の回路と連動する焦点面アレイとして製造される。この電気的インタフェース78は、典型的には、複数の高速光検出素子72によって要求されるよりも低い帯域幅のものである。電荷転送アレイ80は、複数の光検出器素子72に後続の放射体/検出器事象を迅速に処理させるようにするのに十分な速度で光検出器アレイ72から情報を取り込む高速アナログ記憶素子の集合である。電荷転送アレイ80のサイズは、典型的にはM×N×K個のアナログ記憶素子であり、ここで、Mは検出器アレイ72内の行の数であり、Nは検出器アレイ72内の列の数であり、Kは単一の4Dカメラ70事象のための4D取り込みサイクルを構成する放射体/検出器サイクルの数である。
4Dフレームバッファ74からの情報は、色情報および距離情報のために別個に処理される。コントローラ82は、M×N個の画素それぞれのためのTOFアルゴリズムから距離値を計算し、その距離情報を深度マップ84メモリに記憶させる。実施形態では、光検出器アレイ72は、ベイヤーパターンまたは他の何らかの光の三原色(RGB)構成のようなカラーフィルタパターンを用いて製造される。検出器フィルタパターンによる各色は
、デバイス70のメモリにおいて対応するカラープレーン(color plane)86を必要とする。図3は、ベイヤーフィルタパターンを有する検出器アレイの例えば赤色プレーン、緑色プレーンおよび青色プレーンに対応するカラープレーン0〜2(86)を示す。カラープレーン86の数は、モノクロ、グレースケール、または単一周波数の用途のため、ならびにIRおよびNIRの用途のための数とすることができる。カラープレーン86の数はCで示され、検出器アレイ72の光路で利用される異なる帯域フィルタの数に対応するか、または単一の検出器でフィルタされるマルチ放射体波長構成で利用される別個の放射体周波数の数に対応する。C個のカラープレーン86はそれぞれ、M×N個の素子を含み、各素子はLビットの情報を有する。多色検出器フィルタを有する実施形態では、コントローラ82は、C個のカラープレーン86のそれぞれにデモザイク処理を実行して、検出器フィルタパターンによって生成されたスパースマップ(sparse map)から高密度カラーマップを作成することができる。
コントローラ82は、別個のカラープレーン86を出力画像フォーマットにアセンブルし(assemble)、その結果として得られたファイルをデバイスメモリ88に記憶させる。出力ファイルは、TIFF、JPEG、BMPもしくは任意の他の業界標準または他の独自仕様のフォーマットなどのフォーマットであってもよい。ある画像用の深度マップ84の情報は、画像ファイルに記憶されても、または画像ファイルに関連付けられた別個のファイルで生成されてもよい。出力ファイルの作成が完了した後、コントローラ82は、I/O90のインタフェースを介して上流のアプリケーションまたはデバイスに情報を送信する。コントローラ82は、放射体92用の制御情報の順序付け、光検出器72の積分、4Dフレームバッファ74の色86および深度84の情報への変換、ならびにデバイス70の他のデバイスとの通信のすべてを設定する。コントローラ82は、単一のCPU素子であってもよいし、またはデバイス70のためのさまざまな制御機能を実行するマイクロコントローラおよび/もしくはグラフィックス処理ユニット(Graphics Processing Unit:GPU)の集合であってもよい。
図4は、複数回の画像取り込みサイクルのための電気信号タイミングを示す。放射体駆動パルス100の第1のシーケンス中に、カメラの放射体(camera emitters)を作動させるK個のパルスが存在する。放射体駆動パルスの開始以降の選択された時間において、K回の検出器積分サイクル102が実行される。最後の検出器積分サイクル102が完了すると、情報は検出器アレイまたは電荷転送アレイから4Dフレームバッファ104に転送される。検出器アレイまたは電荷転送アレイから4DフレームバッファにM×N×K個の輝度値を転送する時間は、典型的には、放射体/検出器サイクル100、102の時間よりもはるかに長い。
4Dフレームバッファの充填が完了すると、カメラコントローラはM×N深度マップ106を作成し、カラープレーン108を作成する。カメラが検出器アレイにおいて複数のカラーフィルタによって生成された複数のカラープレーンを利用する実施形態では、コントローラは、スパースなカラープレーンのそれぞれにデモザイク処理を実行し、各カラープレーンにM×N個の明度を生成する。コントローラは、現在のカラー画像用の出力ファイルを作成し、上流のデバイスまたはアプリケーションへの送信のためにファイルをフォーマットする(110)。
4Dカメラのフレームレートは、典型的には、処理シーケンスにおける最も長い動作の関数である。図4の実施形態では、4Dフレームバッファ104の充填(filling)は、焦点面アレイアーキテクチャの典型的な帯域幅制約のため、最も長い動作である。4Dフレームバッファが空になると、新しい放射体/検出器サイクルを開始できる。第2の4Dカメラフレームサイクルのための放射体駆動パルス114および検出器積分サイクル116は、深度106およびカラープレーン108が前のカメラサイクルに対して作成されて
いる間に開始するサイクルとして示されている。この計算サイクルのパイプライン処理は、通常、一連の計算事象のシーケンスのスループットを増加させるために当該技術分野で知られている技術である。
図5は、検出器アレイ120の素子の機能的電気回路図を示す。検出器アレイ120は、M行とN列の素子からなる。単一の検出器素子122の機能は、図5の上部に示されている。光検出器124は、逆バイアス構成で示されている。光検出器124における入射光子126は、積分ゲート128がゲートON位置にあるときに電流を流す。このゲートスイッチは、ゲート128が閉じている間にのみ電流を積分段130に流すことができる。積分器段130に流れる電流は、増幅器134を介してコンデンサ132に電荷を集めることを可能にする。コンデンサ123は、光検出器124からの電流の流れにより電荷を収集する任意のデバイスまたは機能を表す機能素子であることに留意されたい。当業者は、実施形態の素子に一致しつつも同等の機能部品を有するゲートスイッチ128、積分器134、およびコンデンサ132の代替品を製造してもよい。
検出器122の積分サイクルの間、コンデンサ132で収集された電荷の強度は、積分器130のゲート時間中に存在する入射光子126の数に比例する。光検出器130の積分中、電荷転送スイッチ136は開位置にとどまる。積分サイクルが完了すると、積分スイッチ128が開き、収集された電荷は積分器130段にとどまる。電荷転送サイクルの開始時に、電荷転送段「0」(138)のゲートスイッチ136を閉じることによって、電荷は積分コンデンサ132から電荷転送段「0」(138)のコンデンサ140に移動される。電荷転送段「0」(138)からの出力線において、別のゲートスイッチ142は、段「0」(138)から段「1」(144)への電荷の転送を可能にする。段「0」に対する入力スイッチ136および出力スイッチ142は、同時に「オン」または閉位置にないため、電荷を次の電荷転送サイクルで段「1」に転送される前に段「0」(138)に転送し記憶する。電荷転送段「K−1」(144)は、K回の放射体/検出器サイクルの最後の電荷転送段を表す。電荷は、K−1出力スイッチ148が閉じているとき、段「K−1」(144)からデータバス146に転送され、4Dフレームバッファに導かれる。K回の検出器積分サイクルのそれぞれの終わりに、接地スイッチ149を閉じて、光検出器124で収集し得た過剰な電荷をすべて除去することができる。
図6は、K段を有する4Dカメラの放射体/検出器シーケンスの最初の11段の電気的タイミングを示すが、ここでKは16である。放射体および検出器の制御回路は、t152で始まる放射体クロック150に参照される。放射体駆動パルス154は、放射体サイクルごとに放射体クロック150の4つの期間にわたって放射体を起動する。検出器積分156の信号は、検出器アレイにおけるすべての積分段の積分時間を決定する。各検出器積分期間156は、本実施形態では6つの放射体クロック(150)期間に等しい。放射体駆動パルス154および検出器積分156の相対的な開始タイミングは、各放射体検出器サイクルがシーン内の被写体を検出する距離範囲を決定する。K段のうちの段「0」の場合、tの放射体開始時点とtの検出器積分の開始とのずれの結果、放射体クロック(150)の0周期の最小飛行時間(time of flight : TOF)および放射体クロック(150)の6周期の最大TOFが得られ、ここで、第1の放射体パルス158の開始時点および第1の検出器積分サイクル160の完了時点によって6周期が決定される。シーケンスの第2の放射体/検出器段については、検出器積分156の開始164は、第2の放射体駆動パルス154の開始(162)後から放射体クロック(150)の1周期であり、第2の検出器積分156の終了166は、放射体駆動パルス154の開始(162)後から放射体クロック(150)の7周期である。第2の放射体/検出器段のための放射体信号および検出器信号の相対的タイミングは、放射体クロック(150)の1〜7周期のTOF範囲に対応する。K段の各々に対する後続の検出器積分156の相対開始時間を増加させることによって、個々のTOF範囲が累積され、4Dカメラ取り込みシーケン
ス全体の範囲を定義する。
第1の検出器積分156の周期の完了時に(160)、積分電荷がM×N個の積分素子の各々からM×N個の電荷転送段「0」の各素子に転送される(168)。第2の検出器積分156の周期が終了した後、段「0」から段「1」へ電荷を転送し、積分段から電荷転送段「0」に電荷を転送する第2の電荷転送(170)動作が実行される。検出器入力172の信号は、電荷がM×N個の積分素子の積分段で収集される期間を示す。
図7は、図6のK段タイミングシーケンスに対応するデータ素子チャート180を示し、ここで、K=16であり、放射体クロック周波数は80MHzであり、放射体クロック周期は12.5nSecである。第1の列182は、16段の段番号を示す。各放射体サイクルは、それらを表す時点tにより示される開始時点184および終了時点186を有する4つの周期である。各検出器積分サイクルは、それらを表す時点tにより示される開始時点188および終了時点190を有する6つの周期である。最小時点192および最大時点194を定義するt期間の数で示されるTOF min(192)およびTOF max(194)の時点は、K段それぞれについてのTOF範囲を求めるために示される。12.5nSecの放射体クロック期間を使用して、TOF min(t)192期間をTOF min(nSec)196期間に変換し、TOF max(t)194期間をTOF max(nSec)198期間に変換する。TOFの式および光速を使用すると、各TOFに対応する距離は次のように決定することができる。
距離= (TOF * c) / 2 式1
(式中、TOF=飛行時間であり、c=媒体中の光速である。)
光速としてc=0.3m/nSecを使用して、最小距離(m)200および最大距離(m)202の値を、4Dカメラ取り込みシーケンスのK段のそれぞれで検出される範囲の上限値および下限値のために求める。輝度(Hex)204の列は、K段のそれぞれの積分輝度値のデジタル16進値を示す。検出器アレイ内のM×N個の素子のそれぞれは、K段の積分輝度に対応するK個の輝度値を有することに留意されたい。図7のタイミングパラメータおよびTOF値は、M×N個の素子すべてで同じであるが、輝度値は、M×N検出器アレイ内の素子m,nに対してのみ有効である。
輝度値204のレビューは0x28の最小値206と0xF0の最大値208を示す。これらの値は、Imin[m,n]=0x28およびImax[m,n]=0xF0と示される。取り込みシーケンスにおけるすべての検出器/放射体段に対して一定のパルス幅タイミングを利用する実施形態では、カラープレーンバッファに挿入される輝度値は、下記式によって決定される。
Icolor[m,n] = Imax[m,n] - Imin[m,n] 式2
カラープレーン輝度のための式2を利用することにより、周囲光の影響は、シーンまたは被写体上の周囲光に起因する輝度Imin[m,n]の光子成分を減算することによって除去される。式2は、光検出器積分応答が光検出器における入射光子の数に対して比例関係を有する場合、周辺光を除去するための有効な手法である。非線形の光子/電荷収集関係の場合、式2は、入射光子と積分電荷強度との間の2次またはN次の関係を考慮に入れるように修正されるであろう。
多色フィルタ素子を利用する実施形態における各光検出器m,nについて、Icolor[m,n]値は、フィルタの色に対応するカラープレーン内の位置m,nに記憶される。一例として、ベイヤーフィルタパターン(RGBG)を有する実施形態は、M×N/2個の緑色フィルタ検出器、M×N/4個の青色フィルタ検出器、およびM×N/4個の赤色フィルタ検出器を有する。K個の積分段、4Dフレームバッファの次の充填、およびM
×N個の明度の決定が完了すると、コントローラはM×N/4個のIred[m,n]値を赤色カラープレーンメモリの適切な位置に記憶する。次に、コントローラは、M×N/4個の青色値を決定して青色カラープレーンメモリの適切な位置に記憶し、M×N/2個の緑色値を決定して緑色カラープレーンメモリの適切な位置に記憶する。
再び図7を参照すると、最大値208は3つの連続する積分サイクルで生じ、これは、反射信号パルス全体が3つの連続する積分ウィンドウで取り込まれたことを示している。輝度が最大である段のうちの最後の最小距離を利用することによって、コントローラは、この画素m,nに関する被写体までの距離が30メートルであると判定する。30メートルに対応する値は、深度マップメモリ内の位置m,nに記憶される。実際には、最大輝度値は、単一の積分サイクルの間にのみ生じ得る。これらの場合、コントローラは、部分積分信号を利用して被写体距離を決定することができる。実施形態では、放射体パルス幅および検出器パルス幅は、全幅反射信号を含む少なくとも1つの全輝度積分サイクルが存在するように選択される。さらに、連続する放射体/検出器サイクルの開始時点の相対的なずれは、少なくとも1回の積分サイクルがリーディングエッジ切落し反射信号(leading-edge-clipped reflected signal)を含み、少なくとも1回の積分サイクルがトレーリングエッジ切落し反射信号を含むことを確実にする。リーディングエッジ切落し積分サイクルおよびトレーリングエッジ切落し積分サイクル(leading-edge-clipped and trailing-edge-clipped integration cycles)用のTOFは、次の式で決定される。
(式中、iは、リーディングエッジ切落し信号が検出される段であり、
jは、トレーリングエッジ切落し信号が検出される段であり、
I(i,m,n)は、段iにおける画素m,nの輝度値であり、
I(j,m,n)は、段jにおける画素m,nの輝度値であり、
min(m,n)は、現在の放射体/検出器シーケンスの最小輝度値であり、
max(m,n)は、現在の放射体/検出器シーケンスの最大輝度値であり、
TOFmin(i)は、検出器シーケンスの段iの最小TOFであり、
TOFmax(j)は、検出器シーケンスの段jの最大TOFである。)
図6および図7の実施形態は、3.075マイクロ秒の経過時間(246個の放射体クロック周期×12.5nSec/放射体クロック周期)を有する放射体および検出器パルスのKサイクルシーケンスを実施する。4D画像サイクルを構成するK回の放射体/検出器サイクルの経過時間は、移動中用途に重要なパラメータである。移動中イメージングのための実施形態の目的は、シーンと検出器との間の相対移動を、第1の放射体サイクルの開始から最後の検出器サイクルの終了まで0.05画素に制限することである。シーンの被写体と検出器画素との間の相対移動は、
・カメラ速度および方向、
・カメラ輸送速度および方向、
・被写体速度および方向、
・カメラの撮像視野、
・検出器アレイの分解能、
・4D測定値の最小範囲、
・4D測定値の最大範囲
が挙げられるがこれらに限定されないパラメータの関数である。
地上車両に搭載される用途および低高度飛行航空機に搭載される用途では、4Dイメージングサイクル時間は50マイクロ秒以下であるべきである。より高速の高高度飛行航空機での用途では、4Dイメージングサイクル時間は10マイクロ秒以下であるべきである。当業者は、シーンの被写体とカメラとの間の相対移動が0.05画素を超える実施形態を想定することができる。これらのより長時間のイメージングサイクルの実施形態は、サンプル間軌道(inter-sample trajectory)技術を利用して、検出器アレイグリッドの構造内に整列していない後続の放射体/検出器段からの情報を考慮する。
図6および図7で説明した実施形態は、相対的に妨害のない環境での均一なパルス幅に対する信号タイミングおよび積分輝度値を示す。センサは、理想的ではない検知条件を示す環境で動作することが多い。光センサの場合、入射信号または反射信号の減衰を引き起こす条件は、明度および輝度の値を決定するとき、および被写体距離を決定するときにさらなる考慮を必要とする。塵、雨、霧、みぞれおよび雪のような大気条件は、光子妨害ゆえに信号の減衰を引き起こす。
図8の実施形態は、図6および図7の信号タイミングを利用する。本実施形態は、図6および図7とは対照的に、各画素についてのRGB情報を利用する。RGB情報は、ベイヤーパターンもしくは検出器アレイにおける他の何らかのRGBマイクロフィルタ構成によって生成されてもよく、または赤色、緑色および青色の交互の照明を用いたモノクロまたは他のグレースケール検出器アレイによって生成される。図8は、霧302を含む大気条件の道路を横断する車両300を示す。カメラ306から被写体308までの光路304が、霧302を通って発射するものとして示されている。点線の弧は、放射体/検出器カメラ306のシーケンスにおいてK=16であるK段の最初の10段のそれぞれの最大距離の近似位置を示す。段「0」の最大距離310は、カメラ306に最も近い距離範囲であり、段「9」の最大距離312は、被写体308を含む範囲である。
図9は、K=16であり、放射体クロック周波数が80MHzであり、放射体クロック周期が12.5nSecであるK段のタイミングシーケンスに対応するデータ素子チャート314を示す。青色316、緑色318および赤色320の輝度について、各段の積分輝度値が示されている。カメラが信号を減衰させる環境にあるため、各色の最小輝度値は、検出された被写体を超える距離範囲からの輝度値を利用して決定される。段「15」からの輝度値を利用して、現在のシーケンスにImin,red(m,n)=0x26(322)、Imin,green(m,n)=0x27(324)、Imin,blue(m,n)=0x28(326)の値が割り当てられる。
本実施形態の放射体パルス幅および検出器パルス幅の選択に基づいて、制御アルゴリズムは、輝度値が段「6」の環境値から段「12」の大気値に推移することを確立させる。さらに、制御アルゴリズムは、1〜3段ならどこでも100%の被写体反射波形を含む積分信号を含むことを判定する。図9のデータより、アルゴリズムは、全期間の反射被写体波形を含む段として段「9」を確立する。段「11」のRGB輝度値(328)は、段「12〜15」の間に取り込まれた値よりも振幅が高い。高い振幅は、段「11」(328)の値が、大気信号と被写体からの反射信号との組み合わせであることを意味する。さらに、放射体パルス幅および検出器パルス幅の選択されたタイミングゆえに、反射輝度値は、トレーリングエッジ切落し戻り信号から生じる部分信号値である。段「7」(332)の値は、環境信号と被写体からの反射信号との組み合わせであり、環境信号は、検出された被写体とセンサとの間の環境からの戻り信号として定義される。放射体パルス幅および検出器パルス幅の選択されたタイミングゆえに、反射輝度値は、リーディングエッジ切落し戻り信号から生じる部分信号値である。選択信号タイミングおよび検知された輝度値を利用して、選択段に関して得られた値を利用して、被写体までの距離を求め、被写体の明度を決定する。
I(clr,m,n,s-3) = Ienv(clr,m,n) 式5
I(clr,m,n,s-2) = E0*Ienv(clr,m,n) + (1-E0)Iobj(clr,m,n) 式6
I(clr,m,n,s) = E1*Ienv(clr,m,n) + (1-E1-A1)Iobj(clr,m,n) + A1*Iamb(clr,m,n) 式7
I(clr,m,n,s+2) = A0*Iamb(clr,m,n) + (1-A0)Iobj(clr,m,n) 式8
I(clr,m,n,s+3) = Iamb(clr,m,n) 式9
E0= E1 + (2*t放射体クロックサイクル)/D 式10
A1 = A0 + (2*t放射体クロックサイクル)/D 式11
(式中、sは、反射信号が100%の検出器段の段番号識別子であり、
clrは、画素の色であり、
m,nは、アレイ内の画素の識別子であり、
env()は、環境信号が100%の段の検出輝度であり、
amb()は、大気信号が100%の段の検出輝度であり、
obj()は、被写体の計算輝度であり、
は、環境信号に起因する段s−2の輝度のパーセンテージであり、
は、環境信号に起因する段sの輝度のパーセンテージであり、
は、大気信号に起因する段sの輝度のパーセンテージであり、
は、大気信号に起因する段s+2の輝度のパーセンテージであり、
放射体クロックサイクルは、放射体クロックの周期であり、
Dは、シーケンスの段に対する放射体/検出器のデューティサイクルであり、放射体パルス幅を段の検出器パルス幅で除したものとして定義される。)
5つの未知数(Iobj()、E、E、AおよびA)を含んだ5つの式(式6、式7、式8、式10および式11)を利用して、制御アルゴリズムは、各色および各画素のIobj()を決定し、計算された輝度値をカラーフレームバッファ内の適切な位置に割り当てる。被写体までの距離は、式7に基づいて被写体までのTOFを計算することによって決定される。
TOF(clr,m,n) = TOFmin(clr,m,n,s) + E1*t検出器パルス幅(s) 式12
(式中、TOF()は、特定の画素の飛行時間であり、
TOFmin(s)は、段sの最小飛行時間であり、
は、環境信号に起因する段sの輝度のパーセンテージであり、
検出器パルス幅(s)は、段sの検出器パルスの幅である。)
式5〜式12に関する段sの識別は、各段の放射体パルス幅および各段の検出器パルス幅の知識に依存する。既知のパルス幅は、デューティサイクルを決定し、各画素に対する環境信号から大気信号への推移にどのくらい多くの段が関わるかを決定する。式5〜式12は、放射体パルスが検出器パルスよりも持続時間が短い実施形態に適用可能である。放射体パルスが検出器パルスよりも長い実施形態では、式7は、EまたはAのいずれかが0に等しくなるように計算する。結果として、さらに2つの未知数を有するさらに2つの式が、被写体の輝度値を導くために必要である。第1の追加式は、測定された段の輝度の関数として2つの新しい未知数(AおよびE)を説明し、第2の追加式は、段デューティサイクルの関数としてAおよびEを説明する。
さまざまな実施形態において、信号減衰を評価する技術の利用は、最低5回の放射体/
検出器サイクル(環境検出信号が決定される1サイクル、能動パルス式信号(active pulsed signal)のリーディングエッジ検出信号を含む1サイクル、能動パルス式信号の検出信号の1つの全放射体サイクルと、トレーリングエッジ検出信号を含む1サイクル、および大気検出信号を含む1サイクル)を利用できることが認識されるであろう。タイミング、視野、距離、大気条件および環境条件に依存して、これらの実施形態に関して説明した信号減衰を評価する技術を利用するのに必要な情報を得るために、追加の放射体/検出器サイクルが必要な場合がある。
均一な放射体パルスの場合、式3および式4は、各画素m,nのTOFに対して同じ値を生成する。信号ノイズおよび周辺光ゆえに、高い積分輝度値に基づくTOF値は、低い積分輝度値よりも高い精度の距離計算値を出す。実施形態では、コントローラは、式3または式4の値のうちの一方だけを利用して画素のTOFを求めるが、好ましいTOF値は、最大振幅の積分輝度値を利用する式から選択される。
4Dカメラから遠い被写体は、放射体からカメラに近い被写体よりも少ない光を受け取る。結果として、遠い被写体からの反射信号は、より近い被写体からの反射信号よりも低い輝度を有することになる。低輝度戻り信号を補償する1つの方法は、放射体パルス幅を増加させ、また検出器の積分時間を増加させることにより、所与の被写体距離に対する積分信号の輝度を増加させる方法である。図10は、放射体/検出器シーケンスにおいて10段を利用する実施形態の電気的タイミングを示す。すべての放射体パルスが一定の長さであり、すべての検出器積分サイクルが一定の長さであった前述の実施形態とは対照的に、本実施形態は、増加し続ける放射体パルス周期および検出器積分周期を利用する。
段「0」は、4周期の放射体サイクル210および6周期の検出器積分サイクル212を有する。段「1」は、5周期の放射体サイクル214を有し、7周期の検出器積分サイクル216を有する。段「9」は、非常に長い放射体パルス218およびこれに対応して長い検出器積分サイクル220を有する特別なサイクルである。この特別長い放射体/検出器サイクルは、距離測定には使用できないが、カメラの放射体の波長であまり再帰反射性が高くない被写体の正確な明度を求めるために使用される。
図11は、図10のタイミングシーケンスに対応するTOF範囲を有するデータテーブル230を示す。段「0」〜段「8」を使用して、M×N画素の各々に関する深度マップの値を決定する。段「9」は、別個のカラープレーンのIcolor[m,n]値を決定するために利用される。
前述の実施形態では、TOFを介して計算された被写体までの距離は、多周期検出器積分サイクルによって求められた距離範囲に依存していた。TOF距離測定のさらに高い精度を達成することが望ましい場合がある。図12aは、50nSecの放射体パルスに対する可能な輝度曲線240を示す。曲線240は、ターンオフ(244)時間(tOFF)よりもゆっくりとしたターンオン(242)時間(tON)を有し、最大値246を有する。積分された検出器値の最大輝度は、曲線下面積240に比例する。図12b(248)は、同じ放射体パルスに対する累積積分輝度対時間を示す。下記式13および式14のために、図12bによる情報はf(t)として表され、最大輝度値のパーセンテージとして表される累積輝度値は時間の関数である。累積輝度曲線を利用したK段シーケンスの部分輝度値については、リーディングエッジ切落し積分サイクルおよびトレーリングエッジ切落し積分サイクルのTOFが下記により決定される。
(式中、iは、リーディングエッジ切落し信号が検出される段であり、
jは、トレーリングエッジ切落し信号が検出される段であり、
I(i,m,n)は、段iにおける画素m,nの輝度値であり、
I(j,m,n)は、段jにおける画素m,nの輝度値であり、
min(m,n)は、現在の放射体/検出器シーケンスの最小輝度値であり、
max(m,n)は、現在の放射体/検出器シーケンスの最大輝度値であり、
TOFmin(i)は、検出器シーケンスの段iの最小TOFであり、
TOFmax(j)は、検出器シーケンスの段jの最大TOFであり、
−1(t)はf(t)の逆関数であり、累積輝度がリーディングエッジ信号の非積分部分に等しいか、または累積輝度がトレーリングエッジ信号の積分部分に等しい反射パルス積分中の時点を表す。)
実際には、f(t)は累積輝度と時間との間に非線形またはより高次の関係にある可能性が高い。このように、逆関数f−1(t)は、ルックアップテーブルまたは他の何らかの数値変換関数としての実施形態で実施することができる。
図13aは、理想的な白色(完全可視スペクトル)放射体のスペクトル出力250を示す。出力エネルギーは、400ナノメートルから700ナノメートルの範囲全体で最大輝度252となっている。図13bは、LEDベースの白色放射体のスペクトル出力254を示す。この曲線は430ナノメートル付近のピーク輝度256、520ナノメートル付近のやや低い輝度258、および660ナノメートル付近のかなり低い輝度260を示している。必要条件ではないが、実施形態では、4Dカメラ光源に対してより均一なスペクトル出力を有することが望ましい。図14aは、3つのLEDタイプのスペクトル出力262を示す。白色264、緑色266および赤色268の応答曲線が、それらの輝度値が互いに正規化されて示されている。3つの色成分LEDは、デバイスの所望のスペクトル範囲全体にわたってより均一な累積放射体応答を生成するように合成される。本明細書に記載されている「合成する(combining)」という行為は、同時にスイッチオンされたときに出力スペクトル応答に対して所望の累積効果を生じる放射体コンポーネントを放射体アレイに選択的に実装することを指す。図14bは、図14aに示す3つのLED放射体応答から合成した信号のスペクトル出力270を示す。
実施形態では、未フィルタリング検出器アレイと多色放射体の選択的な使用とによって、別個のカラープレーンに対する輝度の決定が行われる。図15は、RGB構成で利用されるLEDのスペクトル出力を示す。放射体/検出器サイクルが青色(272)LEDを利用するときは青色カラープレーンについての情報が生成され、放射体/検出器サイクル
が緑色(274)LEDを利用するときは緑色カラープレーンについての情報が生成され、放射体/検出器サイクルが赤色(276)LEDを利用するときは赤色カラープレーンについての情報が生成される。未フィルタリング検出器アレイまたは広帯域フィルタリングされたアレイおよび別の波長域による放射体を利用する実施形態は、単一波長放射体検出器段または多波長放射体/検出器段として放射体/検出器段を構成することができる。下表1の例は、K=12であるKサイクルシーケンスに対する複数の放射体/検出器段を示しており、各放射体波長はラウンドロビン方式で利用される。
下表2の例は、K=12のK段シーケンスに対する複数の放射体/検出器段を示し、各放射体波長はK/3の連続した段に利用される。
K=12のK段シーケンスを単一波長放射体に割り当てることもでき、下表3に示すように、後続のK段シーケンスをラウンドロビン方式で他の波長に割り当てることもできる。
個々の検出器フィルタを利用する実施形態は、多色検出信号を得るために別個の波長放射体を利用する実施形態と比べてある長所および短所を有する。下表4は、実施形態の相対的な利点を比較している。
図16は、車両ヘッドランプ282、284がカメラ280の照明機能を実行する実施形態を示す。放射体(ヘッドランプ)282、284および検出器制御部は、ヘッドランプ制御回路、カメラ280、電子制御モジュール(Electronic Control Module:ECM)、または放射体事象と検出器事象との間の制御可能なタイミングを保証できる別の車中位置にあることができる。
図17は、放射体照明のために車両用ヘッドランプを利用する分散型カメラシステムの電気タイミング素子を示す。ヘッドランプは、非イメージング期間中はECMによって、イメージング期間中はカメラによって制御される。ECM制御286信号は、ECMがヘッドランプのオン状態およびオフ状態を制御する時点を指定し、カメラ制御288信号は、カメラが放射体(ヘッドランプ)をいつ制御するかを指定する。放射体駆動パルス290および検出器積分292は、カメラ制御288がヘッドランプを担当している間にのみ起こるものとして示されている。ヘッドランプ出力294は、カメラ制御288中の複数回のオン/オフ状態、およびECM制御286中のオン状態のヘッドランプを示す。
移動中イメージング用途は、複数の視点、さらに重要なことには、複数の角度から被写体をイメージングするという利点がある。物理的被写体は、適切に検知されたときに、被写体を分類し、さらには被写体とその表面特徴を一意に識別するために利用され得る光反射特性を有する。図18は、カメラ342の撮像視野内に被写体344がある道路上における、カメラ342を有する車両340を示す。車両340の位置は、被写体344を含む第1の画像344が、カメラ342によって取り込まれるときの車両340の初期位置であるため、T0に指定される。車両340のその後の位置は、T1(346)、T2(348)およびT3(350)に示されている。被写体344は、他の被写体と区別可能な表面を有するため、被写体344の表面上の同じ点は、被写体344に対して異なる位置および向きから得られた画像において識別され、解析され得る。
図19は、環境内の被写体点に対するマルチアングル情報を取得するためのカメラ処理アルゴリズムにおけるステップのフローチャートを示す。処理され、解析される各被写体に対して、ループカウンタが利用される。ループカウンタ値nは、各被写体プロセスの開始時にn=0(360)を割り当てることによって初期化される。画像解析ソフトウェアは、角度輝度プロファイル解析を使用して被写体を識別する際の可能な用途について解析される被写体表面上の点P0を識別する(362)。点P0は被写体の表面上にあるため、アルゴリズムは、点P0における表面の法線ベクトルθ(n)を計算する(364)。法線ベクトルが求められると、処理アルゴリズムは、シーンの幾何形状を利用して、センサの光路と点P0における被写体に対する法線ベクトルとの間の相対角度であるθ(n)を計算する(366)。P0の角度輝度情報は、角度応答プロファイルメモリに、点P0に対するサンプルnの輝度、距離および相対角度を指定するIcolor(n)、d(n)、θ(n)の形式のデータ素子として記憶される(368)。検出器フィルタアレイおよび放射体アレイの両方またはいずれかに複数の色を使用する実施形態では、各サンプルnは、色ごとに別個の応答プロファイルメモリエントリを有する。
n=0の処理が完了すると、処理アルゴリズムはシーケンスで次の画像を取得する(370)。画像は、点P0が画像内に存在するかどうかを判定するために解析される(372)。P0が存在する場合、ループカウンタが増分され(374)、アルゴリズムは法線ベクトル決定ステップ364に進む。P0が存在しない場合、アルゴリズムは、角度輝度特性に基づいて被写体を識別するのに十分な点があるかどうかを確立する(376)。最小限の要件が満たされない場合、アルゴリズムは被写体を識別せずに終了する(384)。最小限の要件が満たされている場合、アルゴリズムは、n個の点すべてについて決定された輝度情報のための色ごとのプロットを3D空間378に作成する。アルゴリズムは、収集された角度輝度プロファイルをライブラリに記憶されている基準特徴プロファイルと比較することによって被写体を画定する。特徴プロファイルがライブラリから検索され(380)、相関が各特徴プロファイルおよびP0プロファイルについて決定される(382)。P0と最も相関の高い特徴プロファイルを使用して、P0で表される被写体の被写体タイプ、分類または特徴を決定する。
図19のアルゴリズムは、単一の点P0について論じる。リアルタイム被写体解析のために、アルゴリズムは、典型的には、画像ストリーム内の複数の点Pxに対して同時に実行される。特徴的な角度輝度プロファイル解析からの結果は、典型的には、さらなる処理および/もしくは解析のために上流のアプリケーションに渡されるか、または、別のデバイスもしくはアプリケーションに送信される画像もしくは深度マップ情報を有する出力データストリームにパッケージ化される。図19のアルゴリズムは、閾値テストを利用して、被写体を識別するのに十分な情報が収集されているかどうかを判定する。他のテストも利用可能であり、特徴プロファイル内の情報に基づいて利用される。例えば、欠落検査は、P0に対するθ(n)値の範囲を解析することができる。値の範囲が狭すぎる場合、アルゴリズムは、被写体を一意に特徴付けるには幅情報が不十分であるためP0を破棄することができる。他の場合には、P0に対するθ(n)の値は大きすぎる可能性があり、特徴プロファイルと相関しない。閾値チェックの一部としてθ(n)振幅チェックを含めることにより、アルゴリズムは、特徴プロファイル相関において信頼できる結果を生じないプロファイルを破棄することが可能になる。
実際には、特徴的な角度輝度プロファイルのライブラリには、数百または可能であれば数千のプロファイルが含まれる。すべてのプロファイルの相関をリアルタイムで実行することは、計算集約的な操作である。この課題をより扱いやすい規模にパースする方法として、デバイスの解析機能は、検出された被写体を分類するために画像解析を実行することができる。いったん分類されると、検出された被写体の角度輝度プロファイルは、識別された被写体分類に関連するライブラリプロファイルとだけ比較することができる。一例として、車載用途における画像解析機能は、着色、平坦度、移動方向に対する向きなどの特徴に基づいて道路を識別することができる。点P0に対するプロファイルが路面の点として分類されることが確立されると、アルゴリズムは、路面特徴として分類されたライブラリからの特徴プロファイルのみにアクセスすることができる。いくつかの路面特徴プロファイルとしては、
アスファルト−平滑度評点A
アスファルト−平滑度評点B
アスファルト−平滑度評点C
路面が湿ったアスファルト
路面が凍ったアスファルト
コンクリート−平滑度評点A
コンクリート−平滑度評点B
コンクリート−平滑度評点C
路面が湿ったコンクリート
路面が凍ったコンクリート
を挙げることができるが、これらに限定されない。
道路標識のような被写体は、プロファイルライブラリ内で別々であり得る別のプロファイル分類である。いくつかの道路標識の特徴プロファイルとしては、
ASTMタイプI
ASTMタイプIII
ASTMタイプIV−製造業者A
ASTMタイプIV−製造業者M
ASTMタイプIV−製造業者N
ASTMタイプVIII−製造業者A
ASTMタイプVIII−製造業者M
ASTMタイプIX−製造業者A
ASTMタイプIX−製造業者M
ASTMタイプXI−製造業者A
ASTMタイプXI−製造業者M
を挙げることができるが、これらに限定されない。
特徴プロファイルアルゴリズムは、特徴プロファイルを比較し、P0によって表される被写体を最も良く表す特徴プロファイルを選択する手段として相関を指定する。当業者は、P0によって表される被写体について収集され、解析された情報に基づいて、最も良く表す特徴プロファイルを選択する他の方法を考案または利用することができる。
図20は、車両400のパッセンジャーコンパートメント内部から見た図を示す。ハンドル402が示されているが、ハンドル402のない自律走行自動車に実施形態を利用することもできる。車両400の外部の環境条件414は、霧、雨、雪、みぞれ、塵のような現象ゆえに視界不良を生じる。代わりに、または加えて、フロントガラス404およびリアウィンドウ(図示せず)のようなシースルー要素は、車両400内部からの外部の状態414の観察を制限する表面の凸凹またはコーティングを有している場合がある。前方を向くカメラ406は、車両400の内部において、バックミラー408の近くのフロントガラス404の裏に取り付けられ、前方イメージング視野を提供する。前方を向くカメラ406の制御システムは、視界不良に対する環境条件を検出し、画像410をフロントガラス404または他の警告用ディスプレイ上に投影する(412)ことにより、視界不良の環境で被写体を遮ることなく見ることができる。
バックミラー408は、車両400の後部に設置されているか、またはリアウィンドウを通って突出するように車両400の内部に取り付けられた後方を向く配向にある、後ろ向きのカメラ(図示せず)から遮られていない視野を表示する。車両400側方の環境416妨害物は、サイドミラー418の特徴により解決される。後方斜角カメラ420は、妨害物のある環境条件416を検出し、車両400のオペレータが使用するために、妨害物のない画像422をミラーに投影する。代わりに、または加えて、妨害物のない画像422は、自律運転システムまたは半自律運転システムのために車両制御システムに送信される。サイドミラー上のインジケータ424は、ある空間内に被写体が存在することを示し、それによって車線変更のような操縦の際に車両400のオペレータを支援する。
他の実施形態では、処理システムは、それぞれが機能または機能のセットを自律的に実行するように構築、プログラム、設定、または別様に適応されるさまざまなエンジンを備えることができる。本明細書で使用される用語「エンジン」は、例えば特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)もしくはフィールドプログラマブルゲートアレイ(Field−Programmable Gate Array:FPGA)などのハードウェアを使用して
実装された実世界のデバイス、コンポーネント、もしくはコンポーネントの構成として、または(実行されている間に)マイクロプロセッサもしくはコントローラシステムを特殊用途のデバイスに変換する、特定の機能を実装するようにエンジンを適合させるマイクロプロセッサシステムおよびプログラム命令のセットなどのハードウェアおよびソフトウェアの組み合わせとして定義される。エンジンは、ハードウェアのみによって容易にされる特定の機能と、ハードウェアとソフトウェアの組み合わせによって容易にされる他の機能との2つの組み合わせとして実装することもできる。特定の実施態様では、マルチタスキング(multitasking)、マルチスレッディング(multithreading)、適切な場合には分散処理、または他のそのような技術を使用してエンジンを実装することも可能である一方で、エンジンの少なくとも一部、場合によってはすべてが、オペレーティングシステム、システムプログラム、および/またはアプリケーションプログラムを実行するハードウェアで構成される1つまたは複数のコンピューティングプラットフォームのプロセッサ上で実行され得る。
したがって、各処理システムは、種々の物理的に実現可能な構成で実現することができ、そのような制限が明示的に示されない限り、本明細書に例示される特定の実施態様に一般に限定されるべきではないことが理解される。さらに、処理システムそれ自体は、それぞれが独自の処理システムとみなすことができる複数のエンジン、サブエンジン、またはサブ処理システムで構成することができる。さらに、本明細書で説明する実施形態では、さまざまな処理システムの各々は、定義された自律機能に対応していてもよいが、しかしながら、他の考えられる実施形態では、各機能を2つ以上の処理システムに分散させられることを理解すべきである。同様に、他に考えられる実施形態では、複数の定義された機能は、場合によっては他の機能と並行して、または処理システムセットの間で本明細書の実施例に具体的に示されるものとは異なるように分散されたそれらの複数の機能を実行する単一の処理システムによって、実装されてもよい。
実施形態は、高速コンポーネントおよび回路を利用するため、デバイスおよびシーンの両方またはいずれかの相対移動が、検出器アレイ内の素子間の間隔よりも小さい移動として定義され得る。相対移動が小さい実施形態の場合、処理ソフトウェアは、3Dボリューム計算の軸がアレイ内の検出器素子に対して垂直であると仮定することができる。放射体サイクル期間中の検出器アレイ内の素子間間隔よりも大きい相対移動の場合、フレームバッファ解析ソフトウェアは、サンプリングされた波形の3D解析を実行する必要があり、それにより、その図示はアレイ内の検出器素子に対して非垂直な軸を有する。
実施形態の電気回路は、半導体の専門用語を利用して説明される。他の実施形態では、光コンピューティングを利用する回路および制御ロジック、量子コンピューティングまたは同様の小型スケーラブルコンピューティングプラットフォームを使用して、本明細書に記載のシステムの必要な高速ロジック、デジタルストレージおよびコンピューティング態様の一部またはすべてを実施することができる。光放射体素子は、製造された半導体LEDおよびレーザダイオードの専門用語を用いて説明される。他の実施形態では、本明細書に記載されたさまざまな技術の要件は、任意の制御可能な光子放射素子の使用によって達成され得るもので、放射される光子の出力周波数が既知であるかまたは特性評価が可能であり、論理素子で制御可能であり、十分なスイッチング速度を有する。
いくつかの実施形態では、光エネルギーまたは光パケットは、650nm、905nmまたは1550nmの共通のレーザ波長のような、ほぼコリメートされたコヒーレントな、または広角の電磁エネルギーとして放射および受信される。いくつかの実施形態では、光エネルギーは、紫外線(UV)(100〜400nm)、可視線(400〜700nm)、近赤外線(NIR)(700〜1400nm)、赤外線(IR)(1400〜8000nm)、長波長IR(LWIR)(8μm〜15μm)、遠IR(FIR)(15μm
〜1000μm)、またはテラヘルツ(0.1mm〜1mm)の波長帯であり得る。さまざまな実施形態は、これらのさまざまな波長において、デバイス分解能の向上、有効サンプリングレートの向上、およびデバイス範囲の拡大を提供することができる。
さまざまな実施形態で利用される検出器は、光エネルギーを電気エネルギーに変換する個別のデバイスまたはデバイスの焦点面アレイを指す。本明細書で定義される検出器は、PINフォトダイオード、アバランシェフォトダイオード、ガイガーモードバイアスでもしくはその近くで動作するフォトダイオード、または光エネルギーを電気エネルギーに変換する任意の他のデバイスの形態をとることができ、それにより、デバイスの電気出力は、その標的光子が検出器表面に衝突している速度に関する。
関連分野の当業者は、実施形態が上記の個々の実施形態に示されたものより少ない特徴を含むことができることを認識するであろう。本明細書に記載された実施形態は、それら実施形態のさまざまな特徴が組み合わされ得る方法の網羅的な提示を意味するものではない。したがって、実施形態は、相互に排他的な特徴の組み合わせではない。むしろ、実施形態は、当業者によって理解されるように、異なる個々の実施形態から選択された異なる個別の特徴の組み合わせを含むことができる。さらに、一実施形態に関して記載された要素は、別段の記載がない限り、そのような実施形態に記載されていない場合でも、他の実施形態で実装することができる。特許請求の範囲において、従属クレームは、1つまたは複数の他の請求項との特定の組み合わせを参照することができるが、他の実施形態は、従属クレームと互いに従属するクレームの主題との組み合わせ、または、1つもしくは複数の特徴と他の従属クレームもしくは独立クレームとの組み合わせを含み得る。特定の組み合わせが意図されていない限り、このような組み合わせが本明細書で提示される。さらに、たとえあるクレームが、直接的に他のいずれかの独立クレームの従属クレームになるものではないとしても、その独立クレームのうちの1つのクレームの特徴を含めることも意図されている。
上述の文献の参照による組み込みはいずれも、本明細書に明白に開示されたものに反する主題がいずれも組み込まれないように限定されている。上述の文献の参照による組み込みはいずれも、文献に含まれるクレームが、参照によって本明細書に組み込まれないようにさらに限定されている。上述の文献の参照による組み込みはいずれも、文献で与えられる定義がいずれも、本明細書に明示的に含まれない限り、参照によって本明細書に組み込まれないようにさらに限定されている。
クレームを解釈するために、特定の用語「〜する手段(means for)」または「〜するステップ(step for)」がクレームに記載されていない場合には、米国特許法112条第6パラグラフの規定は行使されないことが明白に意図される。

Claims (30)

  1. シーンの照明不変画像を生成するように構成された能動カメラシステムであって、
    シーンに向けて能動光パルスを放射するように構成された少なくとも1つの放射体と、
    シーンの少なくとも一部分を含む視野について光を受け取るように構成された検出器のアレイであって、前記検出器のアレイ内の各検出器は、入射光子の数に対して線形応答を生成するように構成される、前記検出器のアレイと、
    前記少なくとも1つの放射体および前記検出器のアレイに動作可能に結合され、データの連続する少なくとも2つのフレームを1つ以上のフレームバッファ内の複数のフレーム画素として記憶するように構成された制御回路であって、各フレーム画素は、前記検出器のアレイ内の対応する1つ以上の検出器からの線形応答に基づいており、前記検出器のアレイの取り込みサイクルの期間は、前記連続する少なくとも2つのフレームについて一定であり、各取り込みサイクルの間に放射される能動光パルスの強度は、連続する少なくとも2つのフレームについて異なる、前記制御回路と、
    前記制御回路および前記1つ以上のフレームバッファに動作可能に結合されてシーンの照明不変画像を生成する処理システムであって、前記連続する少なくとも2つのデータフレームを分析してシーンの周囲光による最小輝度値および複数のフレーム画素の最大輝度値を決定すること、前記照明不変画像が前記能動光パルスから生じるフレームデータの反射部分に基づくように、前記複数のフレーム画素の最小輝度値と最大輝度値との差に基づいて、前記照明不変画像を生成することを、実行するように構成される前記処理システムと、備える能動カメラシステム。
  2. 前記少なくとも1つの放射体は、1つ以上のLED、1つ以上のレーザ、または1つ以上のレーザダイオードを含む、請求項1に記載の能動カメラシステム。
  3. 前記少なくとも1つの放射体は、1つ以上の車両のヘッドランプを含む、請求項1に記載の能動カメラシステム。
  4. 前記制御回路は、前記連続する少なくとも2つのフレームのうちの少なくとも1つについて、放射光のパルスの期間と、前記検出器のアレイの画像取り込みサイクルの期間との間でタイミングの相対的な差が重ならないように構成される、請求項1に記載の能動カメラシステム。
  5. 前記制御回路は、前記連続する少なくとも2つのフレームのうちの少なくとも1つについて、放射光のパルスの期間と、前記検出器のアレイの画像取り込みサイクルの期間との間でタイミングの相対的な差が完全に重なるように構成される、請求項1に記載の能動カメラシステム。
  6. 前記制御回路は、
    前記連続する少なくとも2つのフレームのうちの少なくとも1つについて、放射光のパルスの期間と、前記検出器のアレイの画像取り込みサイクルの期間との間でタイミングの相対的な差が重ならないように、且つ前記連続する少なくとも2つのフレームのうちの他の少なくとも1つについて、放射光のパルスの期間と、前記検出器のアレイの画像取り込みサイクルの期間との間でタイミングの相対的な差が完全に重なるように構成される、請求項1に記載の能動カメラシステム。
  7. 前記検出器のアレイ内の各検出器は、入射光子の数に対して線形応答を有し、各画像画素の放射光のパルスの反射部分は、前記最大輝度値から前記最小輝度値を引いたものとして定義される、請求項1に記載の能動カメラシステム。
  8. 前記検出器のアレイ内の各検出器は、入射光子の数に対して非線形応答を有し、各画像画素の放射光のパルスの反射部分は、前記最大輝度値から前記最小輝度値を引いたものとして定義され、さらに前記画像画素に対応する前記検出器の非線形応答特性によって修正される、請求項1に記載の能動カメラシステム。
  9. 前記照明不変画像のモデルは、シーンの視野内の共通した複数の点に対応する複数の画像画素についての放射光のパルスの反射部分に基づいて決定される各画像についてのシーンの視野内の共通した複数の点の少なくとも一部分についての距離をさらに含む、請求項1に記載の能動カメラシステム。
  10. 放射される放射線は、100〜400nmの紫外線(UV)、400〜700nmの可視線、700〜1400nmの近赤外線(NIR)、1400〜8000nmの赤外線(IR)、8um〜15umの長波長赤外線(LWIR)、および15um〜1000umの遠赤外線(FIR)の波長範囲から選択される電磁エネルギーである、請求項1に記載の能動カメラシステム。
  11. 前記検出器のアレイは、各検出器に対して複数のマルチカラーフィルタ要素をさらに備え、前記制御回路は、前記複数のマルチカラーフィルタ要素の各々に対応するカラー画像フレームを取り込むように構成される、請求項1に記載の能動カメラシステム。
  12. 前記能動カメラシステムは、車両に取り付けられ、前記車両に対して動いているシーンの照明不変画像を生成するように構成されている、請求項1に記載の能動カメラシステム。
  13. 前記検出器のアレイ内の各検出器は、前記検出器のアレイの視野の異なる一部分である個別の視野を有する、請求項1に記載の能動カメラシステム。
  14. シーンの画像データの2つ以上のフレームから照明不変画像を生成する方法であって、
    少なくとも1つの放射体が、前記シーンの撮像視野全体にわたって所定の周波数範囲内で光を生成して放射すること、
    検出器のアレイが、前記検出器のアレイの視野について前記所定の周波数範囲内の光を受け取ることであって、前記シーンの視野は、前記検出器のアレイの視野によって定義される、前記受け取ること、
    シーンの画像データを統合する複数の画像画素のフレームに対応する前記検出器のアレイの画像取り込みサイクルの開始時刻および期間、前記放射体からの放射光のパルスの開始時刻、および放射光のパルスの開始時刻と前記検出器のアレイの画像取り込みサイクルの期間の開始時刻との間のタイミングの相対的な差を制御すること、
    前記開始時刻の間のタイミングの相対的な差および前記検出器のアレイの画像取り込みサイクルの期間のうちの少なくとも1つが異なる、複数の画像画素の連続した少なくとも2つのフレームを生成すること、
    処理システムが、前記複数の画像画素のフレームを分析して、シーン内の周囲光による最小輝度値と、シーンの視野内の共通した複数の点に対応する複数の画像画素の最大輝度値とを決定すること、
    前記照明不変画像が該画像の複数の画像画素によって取り込みされた放射光のパルスの反射部分を示すように、画像データの連続する少なくとも2つのフレームの複数の画像画素の最小輝度値および最大輝度値に基づいて前記照明不変画像を生成すること、を備える方法。
  15. 前記タイミングの相対的な差を制御することは、
    前記連続する少なくとも2つのフレームのうちの少なくとも1つについて、放射光のパルスの期間と、前記検出器のアレイの画像取り込みサイクルの期間との間で重ならないように実行される、請求項14に記載の方法。
  16. 前記タイミングの相対的な差を制御することは、
    前記連続する少なくとも2つのフレームのうちの少なくとも1つについて、放射光のパルスの期間と、前記検出器のアレイの画像取り込みサイクルの期間との間で完全に重なるように実行される、請求項14に記載の方法。
  17. 前記タイミングの相対的な差を制御することは、
    前記連続する少なくとも2つのフレームのうちの少なくとも1つについて、放射光のパルスの期間と、前記検出器のアレイの画像取り込みサイクルの期間との間で重ならないように、且つ
    前記連続する少なくとも2つのフレームのうちの他の少なくとも1つについて、前記放射光のパルスの期間と、前記検出器のアレイの画像取り込みサイクルの期間との間でタイミングの相対的な差が完全に重なるように実行される、請求項14に記載の方法。
  18. 前記検出器のアレイ内の各検出器は、入射光子の数に対して線形応答を有し、各画像画素の放射光のパルスの反射部分は、前記最大輝度値から前記最小輝度値を引いたものとして定義される、請求項14に記載の方法。
  19. 前記検出器のアレイ内の各検出器は、入射光子の数に対して非線形応答を有し、各画像画素の放射光のパルスの反射部分は、前記最大輝度値から前記最小輝度値を引いたものとして定義され、さらに前記画像画素に対応する前記検出器の非線形応答特性によって修正される、請求項14に記載の方法。
  20. 前記照明不変画像のモデルを生成することは、
    シーンの視野内の共通した複数の点に対応する複数の画像画素についての放射光のパルスの反射部分に基づいて、シーンの視野内の共通した複数の点の少なくとも一部分についての距離を決定することを含む、請求項14に記載の方法。
  21. 前記検出器のアレイは、各検出器に対して複数のマルチカラーフィルタ要素をさらに含み、
    前記シーンの複数の画像画素の2つ以上のフレームを生成することは、
    前記複数のマルチカラーフィルタ要素の各々に対応するカラー画像フレームを取り込むことを含む、請求項14に記載の方法。
  22. 車両に取り付けられ、該車両に対して動いているシーンの複数の照明不変画像を生成するように構成されている能動カメラシステムであって、
    前記シーンの撮像視野全体にわたって所定の周波数範囲内で光を生成して放射するように構成された少なくとも1つの放射体と、
    検出器のアレイの視野について前記所定の周波数範囲内の光を受け取るように構成された検出器のアレイであって、前記シーンの視野は、前記検出器のアレイの視野によって定義される、前記検出器のアレイと、
    前記少なくとも1つの放射体および前記検出器のアレイに動作可能に結合された制御回路であって、シーンの画像データを統合する複数の画像画素のフレームに対応する前記検出器のアレイの画像取り込みサイクルの開始時刻および期間、前記放射体からの放射光のパルスの開始時刻、および放射光のパルスの開始時刻と前記検出器のアレイの画像取り込みサイクルの期間の開始時刻との間のタイミングの相対的な差を制御すること、前記タイミングの相対的な差および前記検出器のアレイの画像取り込みサイクルの期間のうちの少なくとも1つが異なる、シーンの複数の画像画素の連続する少なくとも2つのフレームを生成すること、を実行するように構成された前記制御回路と、
    前記制御回路に動作可能に結合されてシーンの画像を生成するように処理システムであって、前記複数の画像画素の連続する少なくとも2つのフレームを分析して、シーン内の周囲光による最小輝度値と、シーンの視野内の共通した複数の点に対応する複数の画像画素の最大輝度値とを決定すること、前記画像データの連続する少なくとも2つのフレームについての前記複数の画像画素の最小輝度値および最大輝度値に基づいて、前記車両に対して動いているシーンの複数の照明不変画像の各々を生成すること、を実行するように構成された処理システムと、を備える能動カメラシステム。
  23. 前記制御回路は、前記タイミングの相対的な差を制御して、
    前記連続する2つ以上のフレームのうちの少なくとも1つについて、放射光のパルスの期間と、前記検出器のアレイの画像取り込みサイクルの期間との間で重ならないタイミングの相対的な差と、
    前記連続する2つ以上のフレームのうちの少なくとも1つについて、放射光のパルスの期間と、前記検出器のアレイの画像取り込みサイクルの期間との間で完全に重なるタイミングの相対的な差と、
    前記連続する2つ以上のフレームのうちの少なくとも1つについて、放射光のパルスの期間と、前記検出器のアレイの画像取り込みサイクルの期間との間で重ならないタイミングの相対的な差、および前記連続する2つ以上のフレームのうちの他の少なくとも1つについて、放射光のパルスの期間と、前記検出器のアレイの画像取り込みサイクルの期間との間で完全に重なるタイミングの相対的な差と、のうちの1つを達成する、請求項22に記載の能動カメラシステム。
  24. 前記複数の検出器のアレイ内の各検出器は、入射光子の数に対する線形応答および入射光子の数に対する非線形応答のうちの1つを有し、
    前記入射光子の数に対する線形応答については、各画像画素に対する放射光のパルスの反射部分は、最大輝度値から最小輝度値を引いたものとして定義され、前記入射光子の数に対する非線形応答については、各画像画素に対する放射光のパルスの反射部分は、前記最大輝度値から前記最小輝度値を引いたものとして定義され、さらに、該画像画素に対応する前記検出器の非線形応答特性によって修正される、請求項22に記載の能動カメラシステム。
  25. 前記処理システムは、前記シーンの複数の照明不変画像の各々を生成するように用いられる前記シーンの視野内の共通した複数の点に対応する複数の画像画素についての放射光のパルスの反射部分に基づいて、前記シーンの視野内の共通した複数の点の少なくとも一部分についての距離を決定するようにさらに構成される、請求項22に記載の能動カメラシステム。
  26. 前記検出器のアレイは、各検出器に対して複数のマルチカラーフィルタ要素をさらに備え、
    前記制御回路によって生成される前記シーンの複数の画像画素の2つ以上のフレームは、前記複数のマルチカラーフィルタ要素の各々に対応するカラー画像フレームを取り込むことを含む、請求項22に記載の能動カメラシステム。
  27. 車両に取り付けられ、該車両に対して動いているシーンの複数の照明不変画像を生成するように構成されている能動カメラシステムであって、
    前記シーンの撮像視野全体にわたって所定の周波数範囲内で能動光を放射するように構成された少なくとも1つの放射体と、
    検出器のアレイの視野について前記所定の周波数範囲内の光を受け取るように構成された前記検出器のアレイであって、前記シーンの視野は、前記検出器のアレイの視野によって定義される、前記検出器のアレイと、
    前記少なくとも1つの放射体および前記検出器のアレイに動作可能に結合された制御回路であって、シーンの画像データを統合する複数の画像画素のフレームに対応する前記検出器のアレイの画像取り込みサイクルの開始時刻および期間を制御すること、前記画像取り込みサイクルの期間に対応する期間全体において能動光を放射するように少なくとも1つの放射体を制御すること、前記検出器のアレイの画像取り込みサイクルの開始時刻または期間に相対的差がある、前記シーンの複数の画像画素の連続する少なくとも2つのフレームを生成すること、を実行するように構成された前記制御回路と、
    前記制御回路に動作可能に結合されてシーンの前記複数の照明不変画像を生成する処理システムであって、前記複数の画像画素の連続する少なくとも2つのフレームを分析して、シーン内の周囲光による最小輝度値と、シーンの視野内の共通した複数の点に対応する複数の画像画素の最大輝度値とを決定すること、前記画像データの連続する少なくとも2つのフレームについての前記複数の画像画素の最小輝度値および最大輝度値に基づいて、前記車両に対して動いているシーンの複数の照明不変画像の各々を生成すること、を実行するように構成された処理システムと、を備える能動カメラシステム。
  28. 前記少なくとも1つの放射体は、
    前記少なくとも1つの放射体が、前記画像取り込みサイクルの期間に対応する能動光のみを放射するように、
    前記少なくとも1つの放射体が、前記画像取り込みサイクルの期間の少なくとも一部分の間だけ能動光を放射するように、または
    前記少なくとも1つの放射体が、常に能動光を放射するように、能動光を放射するように構成される、請求項27に記載の能動カメラシステム。
  29. 前記複数の検出器のアレイ内の各検出器は、入射光子の数に対する線形応答および入射光子の数に対する非線形応答のうちの一つを有し、前記入射光子の数に対する線形応答については、各画像画素に対する放射光のパルスの反射部分は、最大輝度値から最小輝度値を引いたものとして定義され、前記入射光子の数に対する非線形応答については、各画像画素に対する放射光のパルスの反射部分は、前記最大輝度値から前記最小輝度値を引いたものとして定義され、さらに、該画像画素に対応する前記検出器の非線形応答特性によって修正される、請求項27に記載の能動カメラシステム。
  30. 前記処理システムは、前記シーンの複数の照明不変画像の各々を生成するように用いられる前記シーンの視野内の共通した複数の点に対応する複数の画像画素についての放射光のパルスの反射部分に基づいて、前記シーンの視野内の共通した複数の点の少なくとも一部分についての距離を決定するようにさらに構成される、請求項27に記載の能動カメラシステム。
JP2018565248A 2016-03-03 2017-02-28 自動被写体検出および視覚システムの照明不変画像センサの方法および装置 Active JP6835879B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/059,811 US9866816B2 (en) 2016-03-03 2016-03-03 Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
US15/059,811 2016-03-03
PCT/US2017/019852 WO2017151561A1 (en) 2016-03-03 2017-02-28 Methods and apparatus for an active pulsed 4d camera for image acquisition and analysis

Publications (3)

Publication Number Publication Date
JP2019508717A JP2019508717A (ja) 2019-03-28
JP2019508717A5 JP2019508717A5 (ja) 2020-04-09
JP6835879B2 true JP6835879B2 (ja) 2021-02-24

Family

ID=59722927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018565248A Active JP6835879B2 (ja) 2016-03-03 2017-02-28 自動被写体検出および視覚システムの照明不変画像センサの方法および装置

Country Status (6)

Country Link
US (9) US9866816B2 (ja)
JP (1) JP6835879B2 (ja)
KR (1) KR20190009276A (ja)
CN (1) CN109313345B (ja)
DE (1) DE112017001112T5 (ja)
WO (1) WO2017151561A1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10203399B2 (en) 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
US9360554B2 (en) 2014-04-11 2016-06-07 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array
US10036801B2 (en) 2015-03-05 2018-07-31 Big Sky Financial Corporation Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array
US9866816B2 (en) 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
US20180341009A1 (en) 2016-06-23 2018-11-29 Apple Inc. Multi-range time of flight sensing
EP3542184A1 (en) * 2016-11-16 2019-09-25 Innoviz Technologies Ltd. Lidar systems and methods
DE102017101945A1 (de) * 2017-02-01 2018-08-02 Osram Opto Semiconductors Gmbh Messanordnung mit einem optischen Sender und einem optischen Empfänger
EP3646057A1 (en) 2017-06-29 2020-05-06 Apple Inc. Time-of-flight depth mapping with parallax compensation
US10955552B2 (en) 2017-09-27 2021-03-23 Apple Inc. Waveform design for a LiDAR system with closely-spaced pulses
JP6960827B2 (ja) * 2017-11-08 2021-11-05 フォルシアクラリオン・エレクトロニクス株式会社 路面領域検出装置
KR102403544B1 (ko) 2017-12-18 2022-05-30 애플 인크. 방출기들의 어드레스가능 어레이를 사용하는 비행 시간 감지
KR20200110451A (ko) * 2018-02-13 2020-09-23 센스 포토닉스, 인크. 고분해능 장거리 플래시 lidar를 위한 방법들 및 시스템들
US11978754B2 (en) 2018-02-13 2024-05-07 Sense Photonics, Inc. High quantum efficiency Geiger-mode avalanche diodes including high sensitivity photon mixing structures and arrays thereof
US10958830B2 (en) 2018-05-24 2021-03-23 Magna Electronics Inc. Vehicle vision system with infrared LED synchronization
US10591601B2 (en) * 2018-07-10 2020-03-17 Luminar Technologies, Inc. Camera-gated lidar system
WO2020023489A1 (en) * 2018-07-24 2020-01-30 Sense Photonics, Inc. Phase noise and methods of correction in multi-frequency mode lidar
US11001979B2 (en) 2018-08-13 2021-05-11 Vergence Automation, Inc. Methods and apparatus for ultrawide entrance angle reflective articles for use with autonomous vehicle machine vision systems
JP2021534412A (ja) 2018-08-16 2021-12-09 センス・フォトニクス, インコーポレイテッドSense Photonics, Inc. 統合されたlidar画像センサデバイス及びシステム並びに関連した動作方法
EP3614174B1 (en) * 2018-08-21 2021-06-23 Omron Corporation Distance measuring device and distance measuring method
WO2020045770A1 (en) * 2018-08-31 2020-03-05 Samsung Electronics Co., Ltd. Method and device for obtaining 3d images
US11762133B1 (en) 2018-09-13 2023-09-19 Vergence Automation, Inc. Retroreflective materials and articles incorporating near-ideal total internal retroreflective elements
CN112654890A (zh) * 2018-09-20 2021-04-13 京瓷株式会社 电子设备、电子设备的控制方法以及电子设备的控制程序
US10732285B2 (en) 2018-09-26 2020-08-04 Qualcomm Incorporated Multi-phase active light depth system
US20210373164A1 (en) * 2018-10-04 2021-12-02 Iris-Gmbh Infrared & Intelligent Sensors Imaging sensor
CN113243016A (zh) * 2018-12-10 2021-08-10 株式会社小糸制作所 物体识别系统、运算处理装置、汽车、车辆用灯具、分类器的学习方法
CN118033607A (zh) * 2018-12-12 2024-05-14 美国亚德诺半导体公司 飞行时间深度成像系统的内置校准
US10955234B2 (en) 2019-02-11 2021-03-23 Apple Inc. Calibration of depth sensing using a sparse array of pulsed beams
US20210181547A1 (en) * 2019-02-12 2021-06-17 Sense Photonics, Inc. Methods and systems for thermal control of an optical source or optical filter in a light detection and ranging (lidar) apparatus
DE102019001336A1 (de) 2019-02-25 2019-07-25 Daimler Ag Vorrichtung zur Erfassung eines Fahrtzielbereichs
CN109982063B (zh) * 2019-03-20 2020-11-27 信利光电股份有限公司 一种tof深度相机的aa方法及装置
US20220180643A1 (en) * 2019-03-22 2022-06-09 Vergence Automation, Inc. Vectorization for object detection, recognition, and assessment for vehicle vision systems
US11500094B2 (en) 2019-06-10 2022-11-15 Apple Inc. Selection of pulse repetition intervals for sensing time of flight
US11612309B2 (en) 2019-06-20 2023-03-28 Cilag Gmbh International Hyperspectral videostroboscopy of vocal cords
US11555900B1 (en) 2019-07-17 2023-01-17 Apple Inc. LiDAR system with enhanced area coverage
CN114503543A (zh) * 2019-09-26 2022-05-13 株式会社小糸制作所 门控照相机、汽车、车辆用灯具、图像处理装置、图像处理方法
US12117569B2 (en) * 2019-10-15 2024-10-15 Cepton Technologies, Inc. Dynamic calibration of lidar sensors
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements
US11733359B2 (en) 2019-12-03 2023-08-22 Apple Inc. Configurable array of single-photon detectors
DE102020202823A1 (de) 2020-03-05 2021-09-09 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Optoelektronische vorrichtung und verfahren zur ermittlung der verteilung eines stoffs in einer probe
US20210303003A1 (en) * 2020-03-27 2021-09-30 Edgar Emilio Morales Delgado System and method for light-based guidance of autonomous vehicles
TWI759213B (zh) * 2020-07-10 2022-03-21 大陸商廣州印芯半導體技術有限公司 光感測器及其感測方法
KR20220010885A (ko) * 2020-07-20 2022-01-27 에스케이하이닉스 주식회사 ToF 센서를 이용한 모션 인식 장치 및 이의 동작 방법
US20220035035A1 (en) * 2020-07-31 2022-02-03 Beijing Voyager Technology Co., Ltd. Low cost range estimation techniques for saturation in lidar
US11528407B2 (en) * 2020-12-15 2022-12-13 Stmicroelectronics Sa Methods and devices to identify focal objects
US11681028B2 (en) 2021-07-18 2023-06-20 Apple Inc. Close-range measurement of time of flight using parallax shift
US11922606B2 (en) 2021-10-04 2024-03-05 Samsung Electronics Co., Ltd. Multipass interference correction and material recognition based on patterned illumination without frame rate loss
US12114084B2 (en) 2022-03-08 2024-10-08 Nec Corporation Of America Image based localization
US12067805B2 (en) 2022-03-08 2024-08-20 Nec Corporation Of America Facial gesture recognition in SWIR images
US20230290000A1 (en) * 2022-03-08 2023-09-14 Nec Corporation Of America Image analysis for controlling movement of an object
CN115578295B (zh) * 2022-11-17 2023-04-07 中国科学技术大学 一种视频去雨方法、系统、设备及存储介质

Family Cites Families (394)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1743835A (en) 1923-07-09 1930-01-14 Jonathan C Stimson Reflecting device
US5026156A (en) 1972-07-24 1991-06-25 Martin Marietta Corporation Method and system for pulse interval modulation
US3971065A (en) 1975-03-05 1976-07-20 Eastman Kodak Company Color imaging array
US4145112A (en) 1977-07-14 1979-03-20 Minnesota Mining And Manufacturing Company Low-profile raised retroreflective sheeting
US4185891A (en) 1977-11-30 1980-01-29 Grumman Aerospace Corporation Laser diode collimation optics
US4663756A (en) 1985-08-29 1987-05-05 Sperry Corporation Multiple-use priority network
US5122796A (en) 1986-02-19 1992-06-16 Auto-Sense, Limited Object detection method and apparatus emplying electro-optics
US4739398A (en) 1986-05-02 1988-04-19 Control Data Corporation Method, apparatus and system for recognizing broadcast segments
US5090245A (en) 1986-05-02 1992-02-25 Anderson Forrest L Three dimensional imaging device using filtered ellipsoidal backprojection
FR2677834B1 (fr) 1986-09-16 1993-12-31 Thomson Csf Systeme d'imagerie laser a barrette detectrice.
US5081530A (en) 1987-06-26 1992-01-14 Antonio Medina Three dimensional camera and range finder
JP2896782B2 (ja) 1988-12-30 1999-05-31 株式会社トプコン パルス方式の光波距離計
JPH0744313B2 (ja) 1989-02-24 1995-05-15 日本電信電話株式会社 半導体レーザ装置
US4935616A (en) 1989-08-14 1990-06-19 The United States Of America As Represented By The Department Of Energy Range imaging laser radar
US5006721A (en) 1990-03-23 1991-04-09 Perceptron, Inc. Lidar scanning system
US5354983A (en) 1990-04-10 1994-10-11 Auto-Sense, Limited Object detector utilizing a threshold detection distance and suppression means for detecting the presence of a motor vehicle
US5675326A (en) 1990-04-11 1997-10-07 Auto-Sense, Ltd. Method of determining optimal detection beam locations using reflective feature mapping
US5212706A (en) 1991-12-03 1993-05-18 University Of Connecticut Laser diode assembly with tunnel junctions and providing multiple beams
US5446529A (en) 1992-03-23 1995-08-29 Advanced Scientific Concepts, Inc. 3D imaging underwater laser radar
US9102220B2 (en) 1992-05-05 2015-08-11 American Vehicular Sciences Llc Vehicular crash notification system
US7983817B2 (en) 1995-06-07 2011-07-19 Automotive Technologies Internatinoal, Inc. Method and arrangement for obtaining information about vehicle occupants
US8604932B2 (en) 1992-05-05 2013-12-10 American Vehicular Sciences, LLC Driver fatigue monitoring system and method
US5497269A (en) 1992-06-25 1996-03-05 Lockheed Missiles And Space Company, Inc. Dispersive microlens
US5793491A (en) 1992-12-30 1998-08-11 Schwartz Electro-Optics, Inc. Intelligent vehicle highway system multi-lane sensor and method
US6133989A (en) 1993-02-09 2000-10-17 Advanced Scientific Concepts, Inc. 3D imaging laser radar
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US6396397B1 (en) 1993-02-26 2002-05-28 Donnelly Corporation Vehicle imaging system with stereo imaging
US5805275A (en) 1993-04-08 1998-09-08 Kollmorgen Corporation Scanning optical rangefinder
US5465142A (en) 1993-04-30 1995-11-07 Northrop Grumman Corporation Obstacle avoidance system for helicopters and other aircraft
US5420722A (en) 1993-10-25 1995-05-30 Creo Products Inc. Self-registering microlens for laser diodes
JP3120202B2 (ja) 1993-11-18 2000-12-25 株式会社トプコン パルス方式の光波距離計
US5400350A (en) 1994-03-31 1995-03-21 Imra America, Inc. Method and apparatus for generating high energy ultrashort pulses
DE4413886C1 (de) 1994-04-21 1995-04-06 Leica Ag System zur Erfassung von Verkehrsinformationen in Fahrzeugen
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US20070135982A1 (en) 1995-06-07 2007-06-14 Automotive Technologies International, Inc. Methods for Sensing Weight of an Occupying Item in a Vehicular Seat
US8054203B2 (en) 1995-06-07 2011-11-08 Automotive Technologies International, Inc. Apparatus and method for determining presence of objects in a vehicle
US7900736B2 (en) 1995-06-07 2011-03-08 Automotive Technologies International, Inc. Vehicular seats with fluid-containing weight sensing system
US8538636B2 (en) 1995-06-07 2013-09-17 American Vehicular Sciences, LLC System and method for controlling vehicle headlights
EP0835460B1 (en) 1995-06-22 2006-03-08 3DV Systems Ltd. Improved optical ranging camera
US20020014533A1 (en) 1995-12-18 2002-02-07 Xiaxun Zhu Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps
US5831719A (en) 1996-04-12 1998-11-03 Holometrics, Inc. Laser scanning system
US5892575A (en) 1996-05-10 1999-04-06 Massachusetts Institute Of Technology Method and apparatus for imaging a scene using a light detector operating in non-linear geiger-mode
EP1009984B1 (de) 1996-09-05 2003-11-19 SCHWARTE, Rudolf Verfahren und vorrichtung zur bestimmung der phasen- und/oder amplitudeninformation einer elektromagnetischen welle
DE19642967C1 (de) 1996-10-18 1998-06-10 Deutsch Zentr Luft & Raumfahrt Verfahren zum automatischen Bestimmen der Sichtweite mit einemn LIDAR-System
US6181463B1 (en) 1997-03-21 2001-01-30 Imra America, Inc. Quasi-phase-matched parametric chirped pulse amplification systems
US6774988B2 (en) 2002-07-30 2004-08-10 Gentex Corporation Light source detection and categorization system for automatic vehicle exterior light control and method of manufacturing
US6631316B2 (en) 2001-03-05 2003-10-07 Gentex Corporation Image processing system to control vehicle headlamps or other vehicle equipment
US6327090B1 (en) 1997-07-03 2001-12-04 Levelite Technology, Inc. Multiple laser beam generation
US6377167B1 (en) 1997-07-22 2002-04-23 Auto-Sense Llc Multi frequency photoelectric detection system
US7979173B2 (en) 1997-10-22 2011-07-12 Intelligent Technologies International, Inc. Autonomous vehicle travel control systems and methods
WO1999034235A1 (de) 1997-12-23 1999-07-08 Siemens Aktiengesellschaft Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes
US6150956A (en) 1998-05-01 2000-11-21 Zohar Lightomatic Ltd. Proximity warning system for vehicles
US6055490A (en) 1998-07-27 2000-04-25 Laser Technology, Inc. Apparatus and method for determining precision reflectivity of highway signs and other reflective objects utilizing an optical range finder instrument
JP2002526989A (ja) 1998-09-28 2002-08-20 スリーディーヴィー システムズ リミテッド カメラを用いた距離測定
JP3840341B2 (ja) 1998-10-15 2006-11-01 浜松ホトニクス株式会社 立体情報検出方法及び装置
US6266442B1 (en) 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
US6967053B1 (en) 1999-01-21 2005-11-22 Reflexite Corporation Durable, open-faced retroreflective prismatic construction
US6118518A (en) 1999-02-24 2000-09-12 International Business Machines Corporation Assembly comprising a pocket 3-D scanner
US6370291B1 (en) 1999-03-11 2002-04-09 Opto Power Corporation Printed circuit board waveguide
EP1166165B1 (de) 1999-03-31 2002-09-11 Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung E.V. Optische anordnung zur symmetrierung der strahlung von zweidimensionalen arrays von laserdioden
US6323942B1 (en) 1999-04-30 2001-11-27 Canesta, Inc. CMOS-compatible three-dimensional image sensor IC
AU776886B2 (en) * 1999-06-04 2004-09-23 Teraview Limited Three dimensional imaging
US6619406B1 (en) 1999-07-14 2003-09-16 Cyra Technologies, Inc. Advanced applications for 3-D autoscanning LIDAR system
WO2001018563A1 (en) 1999-09-08 2001-03-15 3Dv Systems, Ltd. 3d imaging system
US6054927A (en) * 1999-09-13 2000-04-25 Eaton Corporation Apparatus and method for sensing an object within a monitored zone
JP2001142166A (ja) 1999-09-15 2001-05-25 Sharp Corp 3dカメラ
US6448572B1 (en) 1999-09-29 2002-09-10 Innovative Technology Licensing, Llc Ranging three-dimensional laser imager and method
DE10004398A1 (de) 2000-02-02 2001-08-16 Infineon Technologies Ag VCSEL mit monolithisch integriertem Photodetektor
AU2001282850A1 (en) 2000-04-26 2001-11-07 Arete Associates Very fast time resolved imaging in multiparameter measurement space
JP3574607B2 (ja) 2000-05-02 2004-10-06 ペンタックス株式会社 3次元画像入力装置
US7630063B2 (en) 2000-08-02 2009-12-08 Honeywell International Inc. Miniaturized cytometer for detecting multiple species in a sample
US6654401B2 (en) 2000-08-08 2003-11-25 F & H Applied Science Associates, Inc. Multiple laser source, and systems for use thereof
US6535275B2 (en) 2000-08-09 2003-03-18 Dialog Semiconductor Gmbh High resolution 3-D imaging range finder
US6674878B2 (en) 2001-06-07 2004-01-06 Facet Technology Corp. System for automated determination of retroreflectivity of road signs and other reflective objects
WO2002015144A2 (en) 2000-08-12 2002-02-21 Facet Technology Corp. System for road sign sheeting classification
US6891960B2 (en) 2000-08-12 2005-05-10 Facet Technology System for road sign sheeting classification
KR100393057B1 (ko) 2000-10-20 2003-07-31 삼성전자주식회사 마이크로 렌즈 일체형 표면광 레이저
US6608360B2 (en) 2000-12-15 2003-08-19 University Of Houston One-chip micro-integrated optoelectronic sensor
AUPR301401A0 (en) 2001-02-09 2001-03-08 Commonwealth Scientific And Industrial Research Organisation Lidar system and method
US6480265B2 (en) 2001-03-26 2002-11-12 Deep Optic Ltd. Active target distance measurement
PT1373830E (pt) 2001-04-04 2006-09-29 Instro Prec Ltd Medicao do perfil de uma superficie
US6711280B2 (en) 2001-05-25 2004-03-23 Oscar M. Stafsudd Method and apparatus for intelligent ranging via image subtraction
US6646725B1 (en) 2001-07-11 2003-11-11 Iowa Research Foundation Multiple beam lidar system for wind measurement
DE10140096A1 (de) 2001-08-16 2003-02-27 Conti Temic Microelectronic Verfahren zum Betrieb eines aktiven Hinderniswarnsystem
US6542227B2 (en) 2001-09-04 2003-04-01 Rosemount Aerospace, Inc. System and method of measuring flow velocity in three axes
US7133022B2 (en) 2001-11-06 2006-11-07 Keyotee, Inc. Apparatus for image projection
JP3911575B2 (ja) 2001-12-18 2007-05-09 株式会社トプコン パルス方式の光波距離計
US6522396B1 (en) 2002-01-08 2003-02-18 Raytheon Company Dual mode adaptive threshold architecture for 3-D ladar FPA
DE60210010T2 (de) 2002-01-28 2006-10-12 Fujifilm Electronic Imaging Ltd., Hemel Hempstead Kollimationssystem für Laserdiode
US6843416B2 (en) 2002-01-29 2005-01-18 Symbol Technologies, Inc. Integrated scanner on a common substrate
US6730913B2 (en) * 2002-02-21 2004-05-04 Ford Global Technologies, Llc Active night vision system for vehicles employing short-pulse laser illumination and a gated camera for image capture
JP4537658B2 (ja) 2002-02-22 2010-09-01 株式会社リコー 面発光レーザ素子、該面発光レーザ素子を用いた面発光レーザアレイ、電子写真システム、面発光レーザモジュール、光通信システム、光インターコネクションシステム、および面発光レーザ素子の製造方法
EP1497160B2 (de) 2002-04-19 2010-07-21 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Sicherheitsvorrichtung für ein fahrzeug
US7830442B2 (en) 2002-04-30 2010-11-09 ARETé ASSOCIATES Compact economical lidar system
US6975251B2 (en) 2002-06-20 2005-12-13 Dakota Technologies, Inc. System for digitizing transient signals with waveform accumulator
US7643669B2 (en) 2002-07-10 2010-01-05 Harman Becker Automotive Systems Gmbh System for generating three-dimensional electronic models of objects
US6906302B2 (en) 2002-07-30 2005-06-14 Freescale Semiconductor, Inc. Photodetector circuit device and method thereof
US7253723B2 (en) 2003-05-19 2007-08-07 Donnelly Corporation Mirror assembly
US8442084B2 (en) 2002-10-03 2013-05-14 Laser Operations Llc High performance vertically emitting lasers
US7348919B2 (en) * 2002-11-18 2008-03-25 Lockheed Martin Corporation System and method for evaluating the performance of a scan strategy
US7236119B2 (en) * 2002-11-18 2007-06-26 Lockheed Martin Corporation System and method for selecting a receiver hardware configuration to detect emitter signals
GB2397957A (en) 2003-01-30 2004-08-04 Qinetiq Ltd Target detection
US7248342B1 (en) 2003-02-14 2007-07-24 United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Three-dimension imaging lidar
US7171037B2 (en) 2003-03-20 2007-01-30 Agilent Technologies, Inc. Optical inspection system and method for displaying imaged objects in greater than two dimensions
US7436494B1 (en) 2003-03-28 2008-10-14 Irvine Sensors Corp. Three-dimensional ladar module with alignment reference insert circuitry
US8198576B2 (en) 2003-03-28 2012-06-12 Aprolase Development Co., Llc Three-dimensional LADAR module with alignment reference insert circuitry comprising high density interconnect structure
US20040213463A1 (en) 2003-04-22 2004-10-28 Morrison Rick Lee Multiplexed, spatially encoded illumination system for determining imaging and range estimation
US8242428B2 (en) 2007-12-06 2012-08-14 The United States Of America As Represented By The Secretary Of The Army Method and system for lidar using spatial information from a light source in combination with nonspatial information influenced by the subject to derive an image
US7319805B2 (en) 2003-10-06 2008-01-15 Ford Motor Company Active night vision image intensity balancing system
US6967569B2 (en) 2003-10-27 2005-11-22 Ford Global Technologies Llc Active night vision with adaptive imaging
US7542499B2 (en) 2003-11-27 2009-06-02 Ricoh Company, Ltd. Surface-emission laser diode and surface-emission laser array, optical interconnection system, optical communication system, electrophotographic system, and optical disk system
JP4000376B2 (ja) * 2003-12-05 2007-10-31 独立行政法人産業技術総合研究所 物体位置検出装置、物体追尾装置および情報提供装置
US7148974B1 (en) 2004-01-13 2006-12-12 Sandia Corporation Method for tracking the location of mobile agents using stand-off detection technique
US7168815B2 (en) 2004-01-21 2007-01-30 3M Innovative Properties Company Retroreflective elements and articles
EP1751495A2 (en) 2004-01-28 2007-02-14 Canesta, Inc. Single chip red, green, blue, distance (rgb-z) sensor
WO2005082027A2 (en) 2004-02-26 2005-09-09 Bae Systems Information And Electronic Systems Integration, Inc. Improved active search sensor and a method of detection using non-specular reflections
US7026600B2 (en) 2004-02-26 2006-04-11 Rosemount Aerospace Inc. System and method of identifying an object in a laser beam illuminated scene based on material types
US7157685B2 (en) 2004-04-12 2007-01-02 Canesta, Inc. Method and system to enhance differential dynamic range and signal/noise in CMOS range finding systems using differential sensors
US7590310B2 (en) 2004-05-05 2009-09-15 Facet Technology Corp. Methods and apparatus for automated true object-based image analysis and retrieval
US7684458B2 (en) 2004-06-11 2010-03-23 Ricoh Company, Ltd. Surface-emission laser diode and fabrication process thereof
US7236235B2 (en) 2004-07-06 2007-06-26 Dimsdale Engineering, Llc System and method for determining range in 3D imaging systems
US7697748B2 (en) 2004-07-06 2010-04-13 Dimsdale Engineering, Llc Method and apparatus for high resolution 3D imaging as a function of camera position, camera trajectory and range
US8289390B2 (en) * 2004-07-28 2012-10-16 Sri International Method and apparatus for total situational awareness and monitoring
SI21525A (sl) 2004-08-25 2004-12-31 Feri Maribor Mikroleče na vrhu optičnih vlaken in postopek za njihovo izdelavo
ATE392628T1 (de) 2004-09-17 2008-05-15 Matsushita Electric Works Ltd Reichweitenbildsensor
JP3774225B2 (ja) 2004-10-15 2006-05-10 独立行政法人科学技術振興機構 三次元計測センサ
US7440084B2 (en) 2004-12-16 2008-10-21 Arete' Associates Micromechanical and related lidar apparatus and method, and fast light-routing components
US8085388B2 (en) 2005-02-01 2011-12-27 Laser Projection Technologies, Inc. Laser radar projection with object feature detection and ranging
US7324688B2 (en) * 2005-02-14 2008-01-29 Mitsubishi Electric Research Laboratories, Inc. Face relighting for normalization of directional lighting
US7521666B2 (en) 2005-02-17 2009-04-21 Capella Microsystems Inc. Multi-cavity Fabry-Perot ambient light filter apparatus
WO2006091968A2 (en) 2005-02-25 2006-08-31 Belfort Instrument Company Multiple-angle retroreflectometer
EP1703741A1 (en) * 2005-03-17 2006-09-20 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. 3-d imaging system
WO2006121986A2 (en) 2005-05-06 2006-11-16 Facet Technology Corp. Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
US7609373B2 (en) 2005-05-31 2009-10-27 Kla-Tencor Technologies Corporation Reducing variations in energy reflected from a sample due to thin film interference
US8451432B2 (en) 2005-06-09 2013-05-28 Analog-Modules, Inc. Laser spot tracking with off-axis angle detection
WO2007123555A2 (en) * 2005-07-14 2007-11-01 Chemimage Corporation Time and space resolved standoff hyperspectral ied explosives lidar detector
US20070055441A1 (en) 2005-08-12 2007-03-08 Facet Technology Corp. System for associating pre-recorded images with routing information in a navigation system
EP1764835B1 (en) 2005-09-19 2008-01-23 CRF Societa'Consortile per Azioni Multifunctional optical sensor comprising a matrix of photodetectors coupled microlenses
WO2007035720A2 (en) 2005-09-20 2007-03-29 Deltasphere, Inc. Methods, systems, and computer program products for acquiring three-dimensional range information
EP1777747B1 (en) 2005-10-19 2008-03-26 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for the demodulation of modulated electromagnetic wave fields
DE102005054135A1 (de) 2005-11-14 2007-05-16 Bosch Gmbh Robert Verfahren zur Umfelderfassung
DE102006050303A1 (de) 2005-12-05 2007-06-14 Cedes Ag Sensoranordnung sowie Sensorvorrichtung für eine Sensoranordnung
US7881355B2 (en) 2005-12-15 2011-02-01 Mind Melters, Inc. System and method for generating intense laser light from laser diode arrays
US8242476B2 (en) 2005-12-19 2012-08-14 Leddartech Inc. LED object detection system and method combining complete reflection traces from individual narrow field-of-view channels
US8355117B2 (en) * 2005-12-21 2013-01-15 Ecole Polytechnique Federale De Lausanne Method and arrangement for measuring the distance to an object
JP2007171851A (ja) 2005-12-26 2007-07-05 Sharp Corp レーザ走査光学系及び画像形成装置
CA2560800C (en) 2006-01-20 2014-08-26 Geo 3D Inc. Automated asset detection, location measurement and recognition
TWI268867B (en) 2006-01-27 2006-12-21 E Pin Optical Industry Co Ltd Multi-beam tandem laser scanning unit
US7544945B2 (en) 2006-02-06 2009-06-09 Avago Technologies General Ip (Singapore) Pte. Ltd. Vertical cavity surface emitting laser (VCSEL) array laser scanner
US7994465B1 (en) 2006-02-06 2011-08-09 Microsoft Corporation Methods and devices for improved charge management for three-dimensional and color sensing
EP1830443B1 (en) 2006-03-03 2016-06-08 Fraunhofer USA, Inc. High power diode laser having multiple emitters and method for its production
US7944548B2 (en) 2006-03-07 2011-05-17 Leica Geosystems Ag Increasing measurement rate in time of flight measurement apparatuses
EP2013952B1 (en) 2006-04-28 2021-02-24 Ricoh Company, Ltd. Surface-emission laser array, optical scanning apparatus and image forming apparatus
EP1860462A1 (de) 2006-05-23 2007-11-28 Leica Geosystems AG Distanzmessverfahren und Distanzmesser zur Erfassung der räumlichen Abmessung eines Zieles
US8493445B2 (en) * 2006-05-31 2013-07-23 Sigma Space Corp Scanner/optical system for three-dimensional lidar imaging and polarimetry
EP2041515A4 (en) 2006-07-13 2009-11-11 Velodyne Acoustics Inc HIGH DEFINITION LIDAR SYSTEM
US7579593B2 (en) * 2006-07-25 2009-08-25 Panasonic Corporation Night-vision imaging apparatus, control method of the same, and headlight module
EP1901093B1 (de) 2006-09-15 2018-11-14 Triple-IN Holding AG Aufnahme von Entfernungsbildern
EP1903299A1 (en) 2006-09-20 2008-03-26 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Method and system for acquiring a 3-D image of a scene
US7701558B2 (en) 2006-09-22 2010-04-20 Leica Geosystems Ag LIDAR system
EP1912078B1 (en) 2006-10-11 2013-07-24 Oerlikon Space AG Laser altimeter, method for range finding and space craft comprising such laser altimeter
KR100957084B1 (ko) 2006-10-18 2010-05-13 파나소닉 전공 주식회사 공간 정보 검출 장치
US7888159B2 (en) 2006-10-26 2011-02-15 Omnivision Technologies, Inc. Image sensor having curved micro-mirrors over the sensing photodiode and method for fabricating
CA2668064A1 (en) 2006-10-30 2008-05-08 Autonosys Inc. Scanning system for lidar
ATE466357T1 (de) 2006-11-14 2010-05-15 Instro Prec Ltd Detektionssystem für eindringlinge
US8045595B2 (en) 2006-11-15 2011-10-25 Cree, Inc. Self aligned diode fabrication method and self aligned laser diode
US8589033B2 (en) 2007-01-11 2013-11-19 Microsoft Corporation Contactless obstacle detection for power doors and the like
US8072581B1 (en) 2007-01-19 2011-12-06 Rockwell Collins, Inc. Laser range finding system using variable field of illumination flash lidar
US7792423B2 (en) * 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
DE102007010236B4 (de) 2007-03-02 2008-11-20 Toposys Topographische Systemdaten Gmbh Vorrichtung und Verfahren zur Entfernungsbestimmung mittels Lichtpulsen
FR2913774B1 (fr) 2007-03-16 2010-11-26 Thales Sa Dispositif et procede de localisation d'un mobile a l'approche d'une surface reflechissant les ondes electromagnetiques
CN102346284B (zh) 2007-03-19 2014-09-10 金定洙 一种利用自立式平行板分束器的激光二极管封装体结构
KR101476420B1 (ko) 2007-05-04 2014-12-26 서울반도체 주식회사 발광 소자
US8319949B2 (en) 2007-06-18 2012-11-27 Leddartech Inc. Method for detecting objects with visible light
WO2009001283A2 (en) 2007-06-27 2008-12-31 Koninklijke Philips Electronics N.V. Optical sensor module and its manufacture
DE102007029959A1 (de) 2007-06-28 2009-01-02 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erfassung einer Umgebung
DE102007030062A1 (de) 2007-06-29 2009-01-02 Osram Opto Semiconductors Gmbh Monolithisch integrierter Laserdiodenchip mit einem Aufbau als Mehrfachstrahl-Laserdiode
US8422148B2 (en) 2007-07-03 2013-04-16 Limo Patentverwaltung Gmbh & Co. Kg Apparatus for shaping of laser radiation
EP2626006B1 (en) 2007-08-14 2019-10-09 Koninklijke Philips N.V. Robotic instrument systems utilizing optical fiber sensors
JP5171158B2 (ja) 2007-08-22 2013-03-27 浜松ホトニクス株式会社 固体撮像装置及び距離画像測定装置
JP5212686B2 (ja) 2007-08-22 2013-06-19 ソニー株式会社 半導体レーザアレイの製造方法
ATE478455T1 (de) 2007-08-31 2010-09-15 Em Microelectronic Marin Sa Optoelektronischer schaltkreis mit einem photoempfänger und einer laserdiode und diesen umfassendes modul
US7945408B2 (en) 2007-09-20 2011-05-17 Voxis, Inc. Time delay estimation
US7663095B2 (en) 2007-09-20 2010-02-16 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Photodetector with embedded infrared filter
US7894725B2 (en) 2007-09-28 2011-02-22 Massachusetts Institute Of Technology Time-multiplexed optical waveform generation
US8446470B2 (en) 2007-10-04 2013-05-21 Magna Electronics, Inc. Combined RGB and IR imaging sensor
US8125620B2 (en) 2007-10-18 2012-02-28 PulsedLight, LLC Optical sensor device
US8027029B2 (en) 2007-11-07 2011-09-27 Magna Electronics Inc. Object detection and tracking system
JP5019117B2 (ja) * 2007-11-14 2012-09-05 スタンレー電気株式会社 距離画像生成装置
US8594455B2 (en) 2011-09-28 2013-11-26 The United States Of America As Represented By The Secretary Of The Army System and method for image enhancement and improvement
DE102007061358B4 (de) 2007-12-19 2012-02-16 Limo Patentverwaltung Gmbh & Co. Kg Vorrichtung zur Formung von Laserstrahlung
US8310655B2 (en) 2007-12-21 2012-11-13 Leddartech Inc. Detection and ranging methods and systems
EP2232462B1 (en) 2007-12-21 2015-12-16 Leddartech Inc. Parking management system and method using lighting system
US8692979B2 (en) 2008-01-16 2014-04-08 Koninklijke Philips N.V. Laser sensor system based on self-mixing interference
US8077294B1 (en) 2008-01-17 2011-12-13 Ball Aerospace & Technologies Corp. Optical autocovariance lidar
KR100914961B1 (ko) 2008-01-23 2009-09-02 성균관대학교산학협력단 구조광 기반 3차원 카메라의 최적 노출 결정방법 및 시스템
US20090232355A1 (en) * 2008-03-12 2009-09-17 Harris Corporation Registration of 3d point cloud data using eigenanalysis
US7733932B2 (en) 2008-03-28 2010-06-08 Victor Faybishenko Laser diode assemblies
EP2283383B1 (en) 2008-04-11 2013-07-17 École Polytechnique Fédérale de Lausanne (EPFL) Time-of-flight based imaging system using a display as illumination source
CA2720817C (en) 2008-04-22 2014-04-08 Riegl Laser Measurement Systems Gmbh Apparatus and method for measurement of the reception time of a pulse
US8301027B2 (en) 2008-05-02 2012-10-30 Massachusetts Institute Of Technology Agile-beam laser array transmitter
US20090299633A1 (en) 2008-05-29 2009-12-03 Delphi Technologies, Inc. Vehicle Pre-Impact Sensing System Having Terrain Normalization
DE102008031682A1 (de) 2008-07-04 2010-03-11 Eads Deutschland Gmbh Direktempfang-Doppler-LIDAR-Verfahren und Direktempfang-Doppler-LIDAR-Vorrichtung
WO2010006081A1 (en) 2008-07-08 2010-01-14 Chiaro Technologies, Inc. Multiple channel locating
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
US8809758B2 (en) * 2008-07-25 2014-08-19 Cornell University Light field image sensor with an angle-sensitive pixel (ASP) device
US7873091B2 (en) 2008-08-13 2011-01-18 Institut National D'optique Laser diode illuminator device and method for optically conditioning the light beam emitted by the same
JP5448617B2 (ja) 2008-08-19 2014-03-19 パナソニック株式会社 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
CN101373217B (zh) * 2008-08-28 2011-12-28 阮树成 毫米波船用调频多通道防撞雷达
US8368876B1 (en) 2008-10-17 2013-02-05 Odyssey Space Research, L.L.C. Calibration system and method for imaging flash LIDAR systems
JP4981780B2 (ja) 2008-10-20 2012-07-25 本田技研工業株式会社 測距システム及び測距方法
US8126642B2 (en) 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
US8364334B2 (en) 2008-10-30 2013-01-29 Honeywell International Inc. System and method for navigating an autonomous vehicle using laser detection and ranging
US8781790B2 (en) * 2008-11-05 2014-07-15 Neptec Design Group Ltd. Return pulse shape analysis for falling edge object discrimination of aerosol LIDAR
JP5485288B2 (ja) 2008-11-25 2014-05-07 テトラビュー, インコーポレイテッド 高解像度三次元撮像のシステムおよび方法
KR101742583B1 (ko) 2009-01-27 2017-06-01 엑스와이지 인터랙티브 테크놀로지스 아이엔씨. 단일 및/또는 다중 장치의 감지, 방위 및/또는 배치 범위를 위한 장치 및 방법
US8229663B2 (en) 2009-02-03 2012-07-24 GM Global Technology Operations LLC Combined vehicle-to-vehicle communication and object detection sensing
US8120754B2 (en) 2009-02-19 2012-02-21 Northrop Grumman Systems Corporation Light detection and ranging apparatus
US8699755B2 (en) 2009-02-20 2014-04-15 Navteq B.V. Determining travel path features based on retroreflectivity
US8380367B2 (en) 2009-03-26 2013-02-19 The University Of North Dakota Adaptive surveillance and guidance system for vehicle collision avoidance and interception
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US8797550B2 (en) 2009-04-21 2014-08-05 Michigan Aerospace Corporation Atmospheric measurement system
US8810796B2 (en) * 2009-04-21 2014-08-19 Michigan Aerospace Corporation Light processing system and method
US8097842B2 (en) 2009-05-31 2012-01-17 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. High resolution single track optical encoder
CN102460864B (zh) * 2009-06-30 2016-08-10 特林布尔公司 光脉冲发射机
RU2419934C2 (ru) 2009-07-17 2011-05-27 Василий Иванович Швейкин Диодный источник многолучевого когерентного лазерного излучения (варианты)
JP5439080B2 (ja) 2009-07-28 2014-03-12 株式会社日立製作所 光i/oアレイモジュール
JP2011035190A (ja) 2009-08-03 2011-02-17 Ricoh Co Ltd マルチビームレーザ光量制御回路および該マルチビームレーザ光量制御回路を具備する光走査装置
US8125367B2 (en) 2009-08-06 2012-02-28 Irvine Sensors Corp. AM chirp LADAR readout circuit and module
US8508721B2 (en) 2009-08-18 2013-08-13 The Boeing Company Multifunction aircraft LIDAR
DE102009029364A1 (de) 2009-09-11 2011-03-24 Robert Bosch Gmbh Messvorrichtung zur Messung einer Entfernung zwischen der Messvorrichtung und einem Zielobjekt mit Hilfe optischer Messstrahlung
DE102009029372A1 (de) 2009-09-11 2011-03-24 Robert Bosch Gmbh Messvorrichtung zur Messung einer Entfernung zwischen der Messvorrichtung und einem Zielobjekt mit Hilfe optischer Messstrahlung
US20110285981A1 (en) * 2010-05-18 2011-11-24 Irvine Sensors Corporation Sensor Element and System Comprising Wide Field-of-View 3-D Imaging LIDAR
JP5269735B2 (ja) 2009-10-08 2013-08-21 株式会社東芝 固体撮像装置
US8451871B2 (en) 2009-11-23 2013-05-28 Vladimir Yankov Method of manufacturing a laser diode with improved light-emitting characteristics
US8368005B2 (en) 2009-11-30 2013-02-05 Pixart Imaging Incorporation Optical detection method and optical MEMS detector, and method for making MEMS detector
JP2011119434A (ja) 2009-12-03 2011-06-16 Renesas Electronics Corp 半導体レーザ素子及びその製造方法
US20110131722A1 (en) 2009-12-04 2011-06-09 Spajacket International Inc. Spa side wall insulated jacket and method of use
WO2011071929A2 (en) 2009-12-07 2011-06-16 Photon-X, Inc. 3d visualization system
US8098969B2 (en) 2009-12-08 2012-01-17 Onechip Photonics Inc. Waveguide optically pre-amplified detector with passband wavelength filtering
US20130100249A1 (en) * 2010-01-06 2013-04-25 Konica Minolta Advanced Layers, Inc. Stereo camera device
US20130076861A1 (en) 2010-01-21 2013-03-28 Shmuel Sternklar Method and apparatus for probing an object, medium or optical path using noisy light
US8054464B2 (en) 2010-01-25 2011-11-08 Sigma Space Corp. Polarization switching lidar device and method
US8111452B2 (en) 2010-02-22 2012-02-07 Corning Incorporated Wavelength conversion device with microlens and optical package incorporating the same
CA2792050C (en) 2010-03-02 2017-08-15 Elbit Systems Ltd. Image gated camera for detecting objects in a marine environment
ATE551761T1 (de) 2010-03-03 2012-04-15 Axetris Ag Laserdiodenaufbau mit reduziertem rauschen
US8494687B2 (en) 2010-03-12 2013-07-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method for enhancing a three dimensional image from a plurality of frames of flash LIDAR data
US8655513B2 (en) 2010-03-12 2014-02-18 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Methods of real time image enhancement of flash LIDAR data and navigating a vehicle using flash LIDAR data
US8426797B2 (en) * 2010-03-23 2013-04-23 Massachusetts Institute Of Technology CMOS readout architecture and method for photon-counting arrays
US8363156B2 (en) 2010-04-09 2013-01-29 3Dv Co. Ltd Single-lens 2D/3D digital camera
JP5050076B2 (ja) 2010-04-13 2012-10-17 株式会社日立製作所 光通信モジュールおよび光通信装置
EP2561482B1 (en) * 2010-04-21 2020-10-14 National ICT Australia Limited Shape and photometric invariants recovery from polarisation images
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US8587637B1 (en) 2010-05-07 2013-11-19 Lockheed Martin Corporation Three dimensional ladar imaging and methods using voxels
US8259003B2 (en) 2010-05-14 2012-09-04 Massachusetts Institute Of Technology High duty cycle radar with near/far pulse compression interference mitigation
EP3901653A3 (en) 2010-05-17 2022-03-02 Velodyne Lidar USA, Inc. High definition lidar system
US8558993B2 (en) 2010-05-21 2013-10-15 The National Institute of Standards and Technology, as Presented by the Secretary of Commerce Optical frequency comb-based coherent LIDAR
US8605262B2 (en) 2010-06-23 2013-12-10 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Time shifted PN codes for CW LiDAR, radar, and sonar
US9787974B2 (en) 2010-06-30 2017-10-10 At&T Intellectual Property I, L.P. Method and apparatus for delivering media content
US8640182B2 (en) 2010-06-30 2014-01-28 At&T Intellectual Property I, L.P. Method for detecting a viewing apparatus
US8918831B2 (en) 2010-07-06 2014-12-23 At&T Intellectual Property I, Lp Method and apparatus for managing a presentation of media content
US9032470B2 (en) 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
JP5791131B2 (ja) 2010-07-20 2015-10-07 アップル インコーポレイテッド 自然な相互作用のための相互作用的現実拡張
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
US9560406B2 (en) 2010-07-20 2017-01-31 At&T Intellectual Property I, L.P. Method and apparatus for adapting a presentation of media content
LU91714B1 (en) 2010-07-29 2012-01-30 Iee Sarl Active illumination scanning imager
US8599367B2 (en) 2010-08-04 2013-12-03 Alliant Techsystems Inc. Apparatus and methods for obtaining multi-dimensional spatial and spectral data with LIDAR detection
WO2012020380A1 (en) 2010-08-11 2012-02-16 Primesense Ltd. Scanning projectors and image capture modules for 3d mapping
US8570406B2 (en) 2010-08-11 2013-10-29 Inview Technology Corporation Low-pass filtering of compressive imaging measurements to infer light level variation
US8736818B2 (en) 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR
KR101710514B1 (ko) 2010-09-03 2017-02-27 삼성전자주식회사 깊이 센서 및 이를 이용한 거리 추정 방법
US20130300740A1 (en) 2010-09-13 2013-11-14 Alt Software (Us) Llc System and Method for Displaying Data Having Spatial Coordinates
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US9194953B2 (en) 2010-10-21 2015-11-24 Sony Corporation 3D time-of-light camera and method
US9857469B2 (en) 2010-10-22 2018-01-02 Heptagon Micro Optics Pte. Ltd. System and method for multi TOF camera operation using phase hopping
KR101669412B1 (ko) 2010-11-01 2016-10-26 삼성전자주식회사 3d 카메라를 위한 깊이 정보 측정 방법 및 장치
US8692980B2 (en) 2010-11-01 2014-04-08 Advanced Scientific Concepts, Inc. Flash LADAR collision avoidance system
US10571571B2 (en) * 2010-11-12 2020-02-25 Texas Instruments Incorporated Method and apparatus for controlling time of flight confidence map based depth noise and depth coverage range
US8520713B2 (en) 2010-11-19 2013-08-27 Trilumina Corporation Optical pumping of solid-state laser material using addressable laser array
WO2012066501A1 (en) 2010-11-19 2012-05-24 Primesense Ltd. Depth mapping using time-coded illumination
US9131136B2 (en) 2010-12-06 2015-09-08 Apple Inc. Lens arrays for pattern projection and imaging
US8340151B2 (en) 2010-12-13 2012-12-25 Ut-Battelle, Llc V-shaped resonators for addition of broad-area laser diode arrays
US8633989B2 (en) 2010-12-16 2014-01-21 Sony Corporation 3D camera phone
US9823339B2 (en) * 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
EP2469301A1 (en) 2010-12-23 2012-06-27 André Borowski Methods and devices for generating a representation of a 3D scene at very high speed
EP2469295A1 (en) 2010-12-23 2012-06-27 André Borowski 3D landscape real-time imager and corresponding imaging methods
US8391336B2 (en) 2011-03-07 2013-03-05 A.P.M. Automation Solutions Ltd Variable length ranging and direction-finding signals constructed from bandlimited kernels and sparse spreading sequences
US9689667B2 (en) * 2011-03-17 2017-06-27 Universitat Politecnica De Catalunya System, method and computer program for receiving a light beam
US8599363B2 (en) * 2011-04-06 2013-12-03 GM Global Technology Operations LLC Method and apparatus for an object detection system using two modulated light sources
US8687172B2 (en) 2011-04-13 2014-04-01 Ivan Faul Optical digitizer with improved distance measurement capability
US8976340B2 (en) * 2011-04-15 2015-03-10 Advanced Scientific Concepts, Inc. Ladar sensor for landing, docking and approach
US8570372B2 (en) 2011-04-29 2013-10-29 Austin Russell Three-dimensional imager and projection device
US8885152B1 (en) 2011-04-29 2014-11-11 Bae Systems Information And Electronic Systems Integration Inc. Synchronized countermeasure system architecture
US8760499B2 (en) 2011-04-29 2014-06-24 Austin Russell Three-dimensional imager and projection device
US8908159B2 (en) 2011-05-11 2014-12-09 Leddartech Inc. Multiple-field-of-view scannerless optical rangefinder in high ambient background light
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
EP2772676B1 (de) 2011-05-18 2015-07-08 Sick Ag 3D-Kamera und Verfahren zur dreidimensionalen Überwachung eines Überwachungsbereichs
US8811720B2 (en) 2011-07-12 2014-08-19 Raytheon Company 3D visualization of light detection and ranging data
GB2492848A (en) * 2011-07-15 2013-01-16 Softkinetic Sensors Nv Optical distance measurement
US8928865B2 (en) 2011-08-16 2015-01-06 Telaris, Inc. Three-dimensional tomographic imaging camera
US8963956B2 (en) 2011-08-19 2015-02-24 Microsoft Technology Licensing, Llc Location based skins for mixed reality displays
GB2508564A (en) 2011-09-13 2014-06-04 Osi Optoelectronics Inc Improved laser rangefinder sensor
JP5454654B1 (ja) 2011-10-24 2014-03-26 株式会社デンソー 表示制御装置、及び、表示画像割当方法
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
WO2013081984A1 (en) 2011-11-28 2013-06-06 Magna Electronics, Inc. Vision system for vehicle
US10099614B2 (en) 2011-11-28 2018-10-16 Magna Electronics Inc. Vision system for vehicle
US8947647B2 (en) 2011-12-13 2015-02-03 Raytheon Company Range-resolved vibration using large time-bandwidth product LADAR waveforms
US9137511B1 (en) 2011-12-15 2015-09-15 Rawles Llc 3D modeling with depth camera and surface normals
TWI551113B (zh) 2011-12-27 2016-09-21 鴻海精密工業股份有限公司 3d成像模組及3d成像方法
US9325920B2 (en) 2012-01-10 2016-04-26 Softkinetics Sensors Nv Processing of time-of-flight signals
US8724671B2 (en) 2012-01-24 2014-05-13 Southwest Research Institute Multiple wavelength laser system
US9294754B2 (en) 2012-02-03 2016-03-22 Lumentum Operations Llc High dynamic range and depth of field depth camera
US9318877B2 (en) 2012-03-01 2016-04-19 Iee International Electronics & Engineering S.A. Compact laser source for active illumination for hybrid three-dimensional imagers
US9329269B2 (en) 2012-03-15 2016-05-03 GM Global Technology Operations LLC Method for registration of range images from multiple LiDARS
US8804101B2 (en) 2012-03-16 2014-08-12 Advanced Scientific Concepts, Inc. Personal LADAR sensor
US9109888B2 (en) 2012-03-21 2015-08-18 Honda Motor Co., Ltd. Distance measuring system
JP6346603B2 (ja) 2012-03-23 2018-06-20 ピコメトリクス、エルエルシー 異常物検出のためのシステム
US9723233B2 (en) * 2012-04-18 2017-08-01 Brightway Vision Ltd. Controllable gated sensor
JP6243402B2 (ja) 2012-04-18 2017-12-06 ブライトウェイ ビジョン リミテッド 読み出し毎の複数のゲーテッド画素
WO2013179280A1 (en) 2012-05-29 2013-12-05 Brightway Vision Ltd. Gated imaging using an adaptive depth of field
US8754829B2 (en) 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display
KR101664758B1 (ko) 2012-09-21 2016-10-10 노키아 테크놀로지스 오와이 비디오 코딩 방법 및 장치
US20140139632A1 (en) * 2012-11-21 2014-05-22 Lsi Corporation Depth imaging method and apparatus with adaptive illumination of an object of interest
US9204121B1 (en) 2012-11-26 2015-12-01 Amazon Technologies, Inc. Reflector-based depth mapping of a scene
US8879050B2 (en) 2012-12-04 2014-11-04 Texas Instruments Incorporated Method for dynamically adjusting the operating parameters of a TOF camera according to vehicle speed
US9046600B2 (en) * 2012-12-05 2015-06-02 Toyota Motor Engineering & Manufacturing North America, Inc. Method and apparatus for intensity calibration of multi-beam lidar sensors
US20160047901A1 (en) 2012-12-25 2016-02-18 Quanergy Systems, Inc. Robust lidar sensor for broad weather, shock and vibration conditions
CN103064087B (zh) 2012-12-25 2015-02-25 符建 基于多次积分的三维成像雷达系统及方法
US20140218473A1 (en) 2013-01-07 2014-08-07 Nokia Corporation Method and apparatus for video coding and decoding
KR102181537B1 (ko) 2013-01-08 2020-11-23 메사추세츠 인스티튜트 오브 테크놀로지 광학 위상 어레이들
US9277204B2 (en) 2013-01-23 2016-03-01 Advanced Scientific Concepts, Inc. Modular LADAR sensor
US20140211194A1 (en) 2013-01-27 2014-07-31 Quanergy Systems, Inc. Cost-effective lidar sensor for multi-signal detection, weak signal detection and signal disambiguation and method of using same
DE112014000934T5 (de) 2013-02-21 2016-01-07 Iee International Electronics & Engineering S.A. Bildgebungsgestütztes Insassenüberwachungssystem mit breit gefächerter Funktionsunterstützung
US8855849B1 (en) * 2013-02-25 2014-10-07 Google Inc. Object detection based on known structures of an environment of an autonomous vehicle
US20140240469A1 (en) 2013-02-28 2014-08-28 Motorola Mobility Llc Electronic Device with Multiview Image Capture and Depth Sensing
US9398287B2 (en) 2013-02-28 2016-07-19 Google Technology Holdings LLC Context-based depth sensor control
US9142019B2 (en) 2013-02-28 2015-09-22 Google Technology Holdings LLC System for 2D/3D spatial feature processing
US20150002734A1 (en) 2013-07-01 2015-01-01 Motorola Mobility Llc Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor
US9069060B1 (en) * 2013-03-13 2015-06-30 Google Inc. Circuit architecture for optical receiver with increased dynamic range
US9103715B1 (en) * 2013-03-15 2015-08-11 Joseph R. Demers Terahertz spectrometer phase modulator control using second harmonic nulling
US9069080B2 (en) 2013-05-24 2015-06-30 Advanced Scientific Concepts, Inc. Automotive auxiliary ladar sensor
US9274047B2 (en) 2013-05-24 2016-03-01 Massachusetts Institute Of Technology Methods and apparatus for imaging of occluded objects
US8742325B1 (en) 2013-07-31 2014-06-03 Google Inc. Photodetector array on curved substrate
US10126412B2 (en) 2013-08-19 2018-11-13 Quanergy Systems, Inc. Optical phased array lidar system and method of using same
US9094628B2 (en) 2013-10-27 2015-07-28 Raytheon Company Address mapped repartitioned digital pixel
US10203399B2 (en) * 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
WO2015075926A1 (ja) 2013-11-20 2015-05-28 パナソニックIpマネジメント株式会社 測距撮像システム
CN103616696B (zh) * 2013-11-27 2015-10-21 中国电子科技集团公司第三十八研究所 一种激光成像雷达装置及其测距的方法
US9182490B2 (en) 2013-11-27 2015-11-10 Semiconductor Components Industries, Llc Video and 3D time-of-flight image sensors
EP4016981A3 (en) 2013-12-24 2022-09-21 Sony Depthsensing Solutions A time-of-flight camera system
US20150192677A1 (en) 2014-01-03 2015-07-09 Quanergy Systems, Inc. Distributed lidar sensing system for wide field of view three dimensional mapping and method of using same
WO2015104451A1 (en) 2014-01-07 2015-07-16 Nokia Technologies Oy Method and apparatus for video coding and decoding
US10244223B2 (en) 2014-01-10 2019-03-26 Ostendo Technologies, Inc. Methods for full parallax compressed light field 3D imaging systems
CN103760567B (zh) * 2014-01-27 2016-06-15 中国科学院半导体研究所 一种具有测距功能的被动成像系统及其测距方法
US9756319B2 (en) * 2014-02-27 2017-09-05 Harman International Industries, Incorporated Virtual see-through instrument cluster with live video
DE102014103010A1 (de) 2014-03-06 2015-09-10 Skidata Ag Digitalkamera
KR102405110B1 (ko) 2014-03-14 2022-06-02 에이엠에스 센서스 싱가포르 피티이. 리미티드. 비행시간 센서를 포함하는 광학 이미징 모듈들 및 광학 검출 모듈들
GB2524478A (en) 2014-03-20 2015-09-30 Nokia Technologies Oy Method, apparatus and computer program product for filtering of media content
JP6481846B2 (ja) * 2014-03-27 2019-03-13 日本精機株式会社 車両用警報装置
US9360554B2 (en) * 2014-04-11 2016-06-07 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array
US9451141B2 (en) 2014-04-19 2016-09-20 Massachusetts Institute Of Technology Methods and apparatus for demultiplexing illumination
US9756312B2 (en) 2014-05-01 2017-09-05 Ecole polytechnique fédérale de Lausanne (EPFL) Hardware-oriented dynamically adaptive disparity estimation algorithm and its real-time hardware
US9921300B2 (en) * 2014-05-19 2018-03-20 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
GB201409625D0 (en) * 2014-05-30 2014-07-16 Isis Innovation Vehicle localisation
US9185391B1 (en) 2014-06-17 2015-11-10 Actality, Inc. Adjustable parallax distance, wide field of view, stereoscopic imaging system
IL233356A (en) 2014-06-24 2015-10-29 Brightway Vision Ltd Sensor-based imaging system with minimum wait time between sensor exposures
US9753351B2 (en) 2014-06-30 2017-09-05 Quanergy Systems, Inc. Planar beam forming and steering optical phased array chip and method of using same
US9575184B2 (en) 2014-07-03 2017-02-21 Continental Advanced Lidar Solutions Us, Inc. LADAR sensor for a dense environment
US10237534B2 (en) * 2014-07-07 2019-03-19 Infineon Technologies Ag Imaging device and a method for producing a three-dimensional image of an object
US9869753B2 (en) 2014-08-15 2018-01-16 Quanergy Systems, Inc. Three-dimensional-mapping two-dimensional-scanning lidar based on one-dimensional-steering optical phased arrays and method of using same
US9239264B1 (en) * 2014-09-18 2016-01-19 Joseph R. Demers Transceiver method and apparatus having phase modulation and common mode phase drift rejection
IL235359A0 (en) 2014-10-27 2015-11-30 Ofer David Wide-dynamic-range simulation of an environment with a high intensity radiating/reflecting source
US9218534B1 (en) * 2014-11-17 2015-12-22 Tandent Vision Science, Inc. Method and system for classifying painted road markings in an automotive driver-vehicle-assistance device
JP6397318B2 (ja) * 2014-11-26 2018-09-26 浜松ホトニクス株式会社 電場ベクトル検出方法及び電場ベクトル検出装置
US9635231B2 (en) 2014-12-22 2017-04-25 Google Inc. Time-of-flight camera system and method to improve measurement quality of weak field-of-view signal regions
US20180176483A1 (en) 2014-12-29 2018-06-21 Metaio Gmbh Method and sytem for generating at least one image of a real environment
US20170230638A1 (en) 2015-02-26 2017-08-10 Dual Aperture International Co. Ltd. Depth Measurement Techniques for a Multi-Aperture Imaging System
US10036801B2 (en) 2015-03-05 2018-07-31 Big Sky Financial Corporation Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array
US10000000B2 (en) 2015-03-10 2018-06-19 Raytheon Company Coherent LADAR using intra-pixel quadrature detection
CN104835145B (zh) * 2015-04-09 2017-09-12 电子科技大学 基于自适应Codebook背景模型的前景检测方法
EP3121620B1 (de) 2015-07-21 2017-12-20 HENSOLDT Sensors GmbH Verfahren zur segmentierung der daten eines 3d-sensors, erzeugt in gegenwart von aerosol-wolken, zur erhöhung des situationsbewusstseins und der lageerkennung von hindernissen
US9880267B2 (en) 2015-09-04 2018-01-30 Microvision, Inc. Hybrid data acquisition in scanned beam display
JP6129268B2 (ja) * 2015-10-08 2017-05-17 三菱電機株式会社 車両用運転支援システムおよび運転支援方法
EP3182162B1 (en) * 2015-12-18 2022-02-16 STMicroelectronics (Grenoble 2) SAS Multi-zone ranging and intensity mapping using spad based tof system
EP3423865B1 (en) 2016-03-01 2024-03-06 Brightway Vision Ltd. Gated imaging apparatus, system and method
US9866816B2 (en) 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
US10077007B2 (en) * 2016-03-14 2018-09-18 Uber Technologies, Inc. Sidepod stereo camera system for an autonomous vehicle
US10451740B2 (en) 2016-04-26 2019-10-22 Cepton Technologies, Inc. Scanning lidar systems for three-dimensional sensing
US10301041B2 (en) * 2016-06-09 2019-05-28 California Institute Of Technology Systems and methods for tracking moving objects
KR20180050823A (ko) * 2016-11-07 2018-05-16 삼성전자주식회사 3차원의 도로 모델을 생성하는 방법 및 장치
US10140690B2 (en) 2017-02-03 2018-11-27 Harman International Industries, Incorporated System and method for image presentation by a vehicle driver assist module
JP6580761B1 (ja) * 2018-07-11 2019-09-25 株式会社フォーディーアイズ 偏光ステレオカメラによる深度取得装置及びその方法
KR102176093B1 (ko) * 2018-12-28 2020-11-09 충북대학교 산학협력단 색공간 압축 기법을 이용한 조명 불변 이미지를 획득하는 방법 및 이를 위한 장치
CN115066634A (zh) * 2020-02-10 2022-09-16 上海禾赛科技有限公司 用于Lidar系统的自适应发射器和接收器

Also Published As

Publication number Publication date
US20190058867A1 (en) 2019-02-21
US20240147062A1 (en) 2024-05-02
US11838626B2 (en) 2023-12-05
CN109313345A (zh) 2019-02-05
US10623716B2 (en) 2020-04-14
US9866816B2 (en) 2018-01-09
US20180295344A1 (en) 2018-10-11
US12096121B2 (en) 2024-09-17
US11477363B2 (en) 2022-10-18
US20230336869A1 (en) 2023-10-19
JP2019508717A (ja) 2019-03-28
DE112017001112T5 (de) 2018-11-29
US10873738B2 (en) 2020-12-22
US10382742B2 (en) 2019-08-13
US20170257617A1 (en) 2017-09-07
US20240171857A1 (en) 2024-05-23
US10298908B2 (en) 2019-05-21
WO2017151561A1 (en) 2017-09-08
KR20190009276A (ko) 2019-01-28
US20200036958A1 (en) 2020-01-30
US20190364262A1 (en) 2019-11-28
US20210258497A1 (en) 2021-08-19
CN109313345B (zh) 2021-05-28

Similar Documents

Publication Publication Date Title
JP6835879B2 (ja) 自動被写体検出および視覚システムの照明不変画像センサの方法および装置
US10408940B2 (en) Remote lidar with coherent fiber optic image bundle
US10564266B2 (en) Distributed LIDAR with fiber optics and a field of view combiner
US10390004B2 (en) Stereo gated imaging system and method
US9964643B2 (en) Vehicle occupancy detection using time-of-flight sensor
CN114616489A (zh) Lidar图像处理
KR102559910B1 (ko) 차량 주변 환경을 특성화하기 위한 시스템
JP6333238B2 (ja) カメラ及び照明を用いたガラス面の雨滴検出
US9069075B2 (en) Coupled range and intensity imaging for motion estimation
WO2019012086A1 (en) SYSTEM AND METHOD FOR VISION FOR A VEHICLE
WO2019012085A1 (en) SYSTEM AND METHOD FOR VISION FOR A VEHICLE

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210204

R150 Certificate of patent or registration of utility model

Ref document number: 6835879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250