JP6644892B2 - Light detection distance measuring sensor - Google Patents
Light detection distance measuring sensor Download PDFInfo
- Publication number
- JP6644892B2 JP6644892B2 JP2018530709A JP2018530709A JP6644892B2 JP 6644892 B2 JP6644892 B2 JP 6644892B2 JP 2018530709 A JP2018530709 A JP 2018530709A JP 2018530709 A JP2018530709 A JP 2018530709A JP 6644892 B2 JP6644892 B2 JP 6644892B2
- Authority
- JP
- Japan
- Prior art keywords
- scan
- array
- beams
- sensing element
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title description 6
- 238000000034 method Methods 0.000 claims description 16
- 230000003287 optical effect Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000003213 activating effect Effects 0.000 claims 2
- 238000010408 sweeping Methods 0.000 claims 2
- 238000005286 illumination Methods 0.000 description 99
- 238000010586 diagram Methods 0.000 description 29
- 238000005259 measurement Methods 0.000 description 12
- 230000035945 sensitivity Effects 0.000 description 12
- 238000000926 separation method Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000009977 dual effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000010791 quenching Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000002800 charge carrier Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000383 hazardous chemical Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 235000012431 wafers Nutrition 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/4861—Circuits for detection, sampling, integration or read-out
- G01S7/4863—Detector arrays, e.g. charge-transfer gates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4817—Constructional features, e.g. arrangements of optical elements relating to scanning
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
本発明は全般的に、光電子装置に関し、特に光検出及び測距(ライダ)センサに関する。 The present invention relates generally to optoelectronic devices, and more particularly, to light detection and ranging (rider) sensors.
既存の消費者アプリケーション及び出現する消費者アプリケーションにおいては、実時間の3次元画像化に対する必要性がますます生じている。光検出及び測距(ライダ)センサとしても通常知られる、これらの撮像装置により、対象シーンを光ビームで照明し、反射された光信号を分析することによって、対象シーン上の各点の距離(多くの場合、強度)(いわゆる対象シーン深さ)を遠隔測定することができる。対象シーン上の各点までの距離を決定する一般的に使用される技法は、対象シーンに向けて光ビームを送り、ソースから対象シーンに移動し、ソースに隣接する検出器に戻る際に光ビームが要する往復時間、すなわち飛行時間(ToF)を測定することを含む。 In existing and emerging consumer applications, there is an increasing need for real-time three-dimensional imaging. These imaging devices, also commonly known as light detection and ranging (lider) sensors, illuminate the target scene with a light beam and analyze the reflected light signal to determine the distance between each point on the target scene ( In many cases, the intensity) (the so-called target scene depth) can be measured remotely. A commonly used technique for determining the distance to each point on a target scene is to send a beam of light toward the target scene, travel from the source to the target scene, and use the light as it returns to the detector adjacent to the source. Includes measuring the round trip time required by the beam, the time of flight (ToF).
ToFベースのライダに適した検出器はSPAD(single−photon avalanche diode:単一光子アバランシェダイオード)アレイによって提供される。SPADは、GAPD(Geiger−mode avalanche photodiode)としても知られており、数十ピコ秒オーダーの非常に高い到達時間解像度で個々の光子を捕捉することができる検出器である。これらは、専用半導体プロセス又は標準的なCMOS技術で作製することができる。単一のチップ上に作製されたSPADセンサのアレイは、3D撮像カメラにおいて実験的に使用されている。Charbon et al.は、本明細書に参照により組み込まれる、TOF Range−Imaging Cameras(Springer−Verlag,2013)に公開された「SPAD式センサ」のSPAD技術についての有用な論評を提供している。 A suitable detector for a ToF-based lidar is provided by a single-photon avalanche diode (SPAD) array. SPAD, also known as Geiger-mode avalanche photodiode (GAPD), is a detector that can capture individual photons with very high arrival time resolution on the order of tens of picoseconds. These can be made in dedicated semiconductor processes or standard CMOS technology. Arrays of SPAD sensors fabricated on a single chip have been used experimentally in 3D imaging cameras. Charbon et al. Provides a useful review of the SPAD technology of the "SPAD-based sensor" published in TOF Range-Imaging Cameras (Springer-Verlag, 2013), which is incorporated herein by reference.
SPADでは、pn接合は、その接合の降伏電圧を十分に超えたレベルで逆バイアスされている。このバイアスでは、空乏層内に注入された単一電荷キャリアが、入射光子によって自己維持アバランシェ(self-sustaining avalanche)をトリガできるほどかなり電界が高くなる。アバランシェ電流パルスの立ち上がりエッジは、検出された光子の到達時間を示す。バイアス電圧を降伏電圧以下に低下させることにより、アバランシェが消失するまで電流が継続する。この後者の機能は、クエンチ回路によって実行され、クエンチ回路はSPADと直列に高抵抗バラスト負荷を単に備えてもよいし、あるいは能動回路素子を備えてもよい。 In SPAD, the pn junction is reverse biased at a level well above the breakdown voltage of the junction. With this bias, the electric field is so high that a single charge carrier injected into the depletion layer can trigger a self-sustaining avalanche by incident photons. The rising edge of the avalanche current pulse indicates the arrival time of the detected photon. By lowering the bias voltage below the breakdown voltage, the current continues until the avalanche disappears. This latter function is performed by a quench circuit, which may simply include a high resistance ballast load in series with the SPAD, or may include active circuit elements.
以下に説明する本発明の実施形態は、改良されたライダセンサ及びそれらの使用方法を記載する。 The embodiments of the invention described below describe improved lidar sensors and methods of their use.
したがって、本発明の実施形態によれば、光パルスの少なくとも1つのビームを放射するように構成されたレーザ光源と、対象シーンにわたって少なくとも1つのビームを送信及び走査するように構成されたビームステアリング装置と、感知素子のアレイとを含む電気光学装置が提供される。各感知素子は、単一光子の感知素子への入射時間を示す信号を出力するように構成されている。集光光学系は、送信されたビームによって走査された対象シーンをアレイ上に結像するように構成されている。回路は、アレイの選択された領域内でのみ感知素子を作動させ、少なくとも1つのビームの走査に同期して、アレイの上の選択された領域を掃引するように結合される。 Thus, according to an embodiment of the present invention, a laser light source configured to emit at least one beam of light pulses, and a beam steering device configured to transmit and scan at least one beam over a scene of interest. And an array of sensing elements. Each sensing element is configured to output a signal indicating a time of incidence of a single photon on the sensing element. The collection optics is configured to image a target scene scanned by the transmitted beam onto the array. The circuitry is coupled to activate the sensing element only within a selected area of the array and to sweep a selected area on the array in synchronization with scanning of at least one beam.
一部の実施形態では、回路は、走査中の任意の瞬間に、選択された領域が、集光光学系が少なくとも1つのビームによって照明される対象シーンの区域を結像するアレイの一部分を含むよう領域を選択するように構成されている。選択された領域は、1つの感知素子を含んでもよいし、複数の感知素子を含んでもよい。 In some embodiments, the circuit includes, at any instant during the scan, the selected area includes a portion of an array in which the collection optics images an area of the scene of interest illuminated by the at least one beam. It is configured to select an area. The selected area may include one sensing element or may include a plurality of sensing elements.
開示される実施形態では、回路は、対象シーン内の点までのそれぞれの距離を決定するために、感知素子によって出力された信号を処理するように構成されている。典型的には、感知素子は、単一光子アバランシェダイオード(SPAD)などの単一光子検出器を含む。 In a disclosed embodiment, the circuit is configured to process the signal output by the sensing element to determine a respective distance to a point in the scene of interest. Typically, the sensing element includes a single photon detector such as a single photon avalanche diode (SPAD).
一部の実施形態では、レーザ光源は、異なる各ビーム軸に沿って少なくとも2つのビームを放射することで、走査中の任意の瞬間に、集光光学系が少なくとも2つのビームによって照明される対象シーンのそれぞれの区域を、感知素子の異なる各区域に結像するように構成されている。これらの実施形態のうち1つでは、ビームステアリング装置は、2次元走査で対象シーンにわたって少なくとも2つのビームを走査するように構成されており、回路は、2次元走査に対応する2次元パターンでアレイの上の選択された領域にわたり掃引するように構成されている。例えば、2次元走査は、ラスタパターンを形成してもよく、少なくとも2つのビームの各ビーム軸は、ラスタパターンの走査線方向に対して互いに横方向にオフセットされている。 In some embodiments, the laser light source emits at least two beams along each different beam axis such that at any instant during the scan, the collection optics is illuminated by the at least two beams. Each area of the scene is configured to be imaged on a different area of the sensing element. In one of these embodiments, the beam steering device is configured to scan at least two beams over the scene of interest in a two-dimensional scan, and the circuit is arrayed in a two-dimensional pattern corresponding to the two-dimensional scan. Is configured to sweep over a selected area above. For example, a two-dimensional scan may form a raster pattern, wherein each beam axis of the at least two beams is laterally offset from each other with respect to the scan line direction of the raster pattern.
あるいは、ビームステアリング装置は、対象シーンにわたって第1の方向に直線走査で少なくとも2つのビームを走査するように構成されており、少なくとも2つのビームは、第1の方向に垂直な第2の方向に列軸に沿って配列された複数のビームを含む。一実施形態では、複数のビームは、少なくとも2つの列に配列され、走査の第1の方向に直交し、互いにオフセットされている各列軸を有している。 Alternatively, the beam steering device is configured to scan at least two beams in a first direction in a linear scan over the scene of interest, wherein the at least two beams are in a second direction perpendicular to the first direction. Includes a plurality of beams arranged along a column axis. In one embodiment, the plurality of beams are arranged in at least two columns, with each column axis being orthogonal to the first direction of the scan and offset from one another.
本発明の実施形態によれば、光パルスの少なくとも1つのビームを放射することと、対象シーンにわたって、この少なくとも1つのビームを送信及び走査することを含む感知方法も提供される。感知素子のアレイが提供され、各感知素子は、感知素子への単一光子の入射時間を示す信号を出力するように構成されている。送信されたビームによって走査された対象シーンは、アレイ上に結像される。感知素子は、アレイの選択された領域内でのみ作動され、選択された領域は、少なくとも1つのビームの走査に同期してアレイにわたって掃引される。 According to an embodiment of the present invention, there is also provided a sensing method comprising emitting at least one beam of light pulses and transmitting and scanning the at least one beam over a scene of interest. An array of sensing elements is provided, wherein each sensing element is configured to output a signal indicative of a time of incidence of a single photon on the sensing element. The target scene scanned by the transmitted beam is imaged on the array. The sensing elements are activated only in selected areas of the array, and the selected areas are swept across the array in synchronization with the scanning of the at least one beam.
本発明は、下記の図面と併せて解釈される、以下の本発明の実施形態の詳細な説明からより完全に理解されよう。 The present invention will be more fully understood from the following detailed description of embodiments thereof, taken in conjunction with the following drawings.
概要
ライダを用いた対象シーン(対象シーン深さ)内の各点までの距離測定は、いくつかの環境、基本、及び製造の障害により、実用的な実施において品質が損なわれていることが多い。環境障害の一例は、典型的には1000W/m2の放射照度に達する、屋内外の用途の、周囲の太陽光などの相関のない背景光が存在することである。根本的な障害は、特に、対象シーンの反射率の低さ及び集光アパーチャの制限により、対象シーン表面からの反射の際の光信号によって引き起こされる損失、ならびに電子及び光子発射ノイズに関連する。これらの制限により、融通のきかないトレードオフ関係が生じることが多く、一般に、大きな光学アパーチャ、高い光パワー、狭い視野(FoV)、嵩高な機械的構成、低いフレームレート、及び制御された環境で動作するセンサの制限を伴う解決法に頼ることを設計者に押しつける。
Overview Measuring distances to points in a target scene (target scene depth) using lidar often impairs quality in practical implementation due to several environmental, basic, and manufacturing obstacles. . One example of environmental hazards typically reach irradiance 1000W / m 2, the indoor and outdoor applications, is that there is uncorrelated background light such as ambient sunlight. Fundamental obstacles are associated with losses caused by optical signals upon reflection from the target scene surface, as well as electron and photon emission noise, particularly due to the low reflectivity of the target scene and the limitation of the collection aperture. These limitations often result in inflexible trade-offs, typically with large optical apertures, high optical power, narrow field of view (FoV), bulky mechanical configurations, low frame rates, and controlled environments. Forces designers to rely on solutions that limit the working sensors.
本明細書で説明される本発明の実施形態は、上述の制限を解決することで、コンパクトで低コストのライダにより、制御されていない環境で動作可能な正確で高解像度の深さ撮像を実現することを可能にする。開示される実施形態は、ビームを放射する1つ以上のパルスレーザ源を使用して、放射されたビーム軸と対象シーンとの交点で、放射照度の高い照明スポットを生成する。ビーム、ひいては照明スポットは、対象シーンをわたって走査される。対象シーンから反射された照明は、高信号対ノイズ比のための飛行時間単一光子検出器アレイ上に集光光学系によって結像され、飛行時間単一光子検出器アレイによって検出され、対象シーンの各点までの距離がこの飛行時間データから導出される。 Embodiments of the invention described herein overcome the above limitations to provide accurate, high-resolution depth imaging that can operate in an uncontrolled environment with a compact, low-cost lidar. To be able to The disclosed embodiments use one or more pulsed laser sources that emit a beam to create a highly irradiating illumination spot at the intersection of the emitted beam axis and the scene of interest. The beam, and thus the illumination spot, is scanned across the scene of interest. Illumination reflected from the target scene is imaged by focusing optics on a time-of-flight single-photon detector array for a high signal-to-noise ratio, detected by the time-of-flight single-photon detector array, and Are derived from the time-of-flight data.
検出器アレイ上に対象シーンを結像することにより、当分野で既知の幾何学的光学によって画定された、対象シーン内の位置と検出器アレイ上の位置との間で1対1の対応が生成される。こうして、対象シーンの区域が検出器上の対応する画像区域上に結像され、画像中の直線状の長さは、対象シーンの区域内の対応する長さに、光学倍率M(ライダシステムについては典型的にはM<<1)を乗じることによって得られる。同様に、検出器アレイの感知素子は、拡大率1/Mで対象シーン上に結像されたものと考えることができるので、感知素子より「見える」対象シーンの位置及び区域が与えられる。 By imaging the object scene on the detector array, a one-to-one correspondence between positions in the object scene and positions on the detector array defined by geometric optics known in the art. Generated. Thus, an area of the target scene is imaged on the corresponding image area on the detector, and the linear length in the image is set to the corresponding length in the area of the target scene by the optical magnification M (for the lidar system). Is typically obtained by multiplying by M << 1). Similarly, the sensing elements of the detector array can be considered to have been imaged onto the target scene at a magnification factor of 1 / M, thus providing the location and area of the target scene that is "visible" to the sensing elements.
開示される実施形態では、検出器アレイは、単一光子アバランシェダイオード(SPAD)などの単一光子時間依存性(time-sensitive)感知素子の2次元アレイを含む。専用の制御回路を介して個別に各SPADに対処することで、各SPADのオン/オフ状態を含む感度が、その特定の逆pn接合高電圧によって制御される。一部の実施形態では、SPADは個々の感知素子として作用するが、他の実施形態では、いくつかのSPADがスーパーピクセルにグループ化される。走査中の任意の瞬間に、走査されるビームから反射される照明を受け取るように構成されたアレイの区域(単数又は複数)内の感知素子のみが作動される。このように感知素子は、それらの信号が有用な情報を提供する場合にのみ作動される。この手法は、信号対バックグラウンド比を低下させる背景信号を低減するとともに、検出器アレイの電力ニーズを低下させる。 In the disclosed embodiment, the detector array includes a two-dimensional array of single-photon time-sensitive sensing elements, such as a single-photon avalanche diode (SPAD). By addressing each SPAD individually via a dedicated control circuit, the sensitivity, including the on / off state of each SPAD, is controlled by its particular reverse pn junction high voltage. In some embodiments, SPADs act as individual sensing elements, while in other embodiments, some SPADs are grouped into superpixels. At any instant during the scan, only the sensing elements in the area (s) of the array configured to receive illumination reflected from the scanned beam are activated. In this way, the sensing elements are activated only if their signals provide useful information. This approach reduces the background signal, which lowers the signal-to-background ratio, and reduces the power needs of the detector array.
ライダは、有限平均化区域を各点に関連付けた離散点のセットについて対象シーンまでの距離を測定する。開示される実施形態では、測定パラメータ、ならびに感知素子の作動は、ライダの以下のシステムパラメータの影響を受ける。
1)照明スポットサイズ、
2)ビームステアリング装置の解像度(ステップの大きさ又は連続する距離測定間のビームステアリング装置の偏位)、
3)検出器アレイのスーパーピクセルのサイズ、すなわち、ToF測定において一緒にビニングされた感知素子の数(スーパーピクセルとして1つの感知素子が使用される場合を含む)。
The lidar measures the distance to the scene of interest for a set of discrete points that associate a finite averaged area with each point. In the disclosed embodiments, the measurement parameters, as well as the operation of the sensing elements, are affected by the following system parameters of the lidar.
1) lighting spot size,
2) resolution of the beam steering device (step size or deviation of the beam steering device between successive distance measurements);
3) The size of the superpixel in the detector array, i.e., the number of sensing elements binned together in the ToF measurement (including when one sensing element is used as a superpixel).
ライダシステムパラメータの効果は、2つの場合に分類することができる。
a)照明スポットがスーパーピクセルのサイズよりも小さい、小スポットの場合。
b)照明スポットがスーパーピクセルのサイズより大きい、大スポットの場合。
The effects of lidar system parameters can be classified into two cases.
a) Small spot where the illumination spot is smaller than the size of the superpixel.
b) Large spot where the illumination spot is larger than the size of the superpixel.
サイズ比較は、(対象シーン内又は検出器アレイ上のいずれかの)同じ光学平面内の照明スポットとスーパーピクセルの両方をながめることによって行われる。これら2つの場合を、以下のテーブルにまとめることができ、この場合は、図のコンテキストでさらに詳述されている。 Size comparison is performed by looking at both the illumination spot and the superpixel in the same optical plane (either in the scene of interest or on the detector array). These two cases can be summarized in the following table, which is described in more detail in the context of the figure.
本発明の一部の実施形態では、対象シーンは、1つのレーザビーム又は複数のビームのいずれかによって照明され走査される。複数のビームを利用する一部の実施形態では、これらのビームは、回折光学素子、プリズム、ビームスプリッタ、又は当分野で既知の他の光学素子を用いてレーザビームを分割することによって生成される。他の実施形態では、いくつかの別個のレーザ光源を用いて複数のビームが生成される。これらの実施形態のうちの一部では、複数のビームは、VCSEL又はVECSELのアレイなどのモノリシックレーザアレイを用いて生成される。 In some embodiments of the invention, the target scene is illuminated and scanned by either a single laser beam or multiple beams. In some embodiments utilizing multiple beams, these beams are generated by splitting the laser beam using diffractive optics, prisms, beam splitters, or other optics known in the art. . In other embodiments, multiple beams are generated using several separate laser light sources. In some of these embodiments, the plurality of beams are generated using a monolithic laser array, such as an array of VCSELs or VECSELs.
一部の実施形態では、走査ミラーなどのビームステアリング装置は、2次元ラスタ走査で単一の光ビームにより対象シーンを走査するように動作する。(ラスタ走査は一般的に、走査点をある走査線から次の走査線に移行させる短い移動とともに、長い略直線状の前後走査、いわゆる走査線を含む)。本明細書では一例としてラスタパターンを説明し、同様の原理を実施する代替走査パターンは本発明の範囲内であると考えられる。単一の光ビームを用いる場合には、ラスタ走査の走査線に垂直な方向の走査解像度は、順次の走査線間の離隔距離により与えられる。順次の走査線間の離隔距離を減らすことで走査解像度を上げることができるが、この種類の解像度の増加は、シーンをカバーするのにより多くの数の走査線を必要とするので、フレームレートを減少させるという犠牲を伴うことになる。あるいは、1フレーム当たりの走査線数を変えない場合には、視野の縮小を犠牲にして解像度を上げることができる。機械的制約によって、これらの効果を相殺するようにミラーの走査速度を増加させることができる範囲が制限される。 In some embodiments, a beam steering device, such as a scanning mirror, operates to scan the target scene with a single light beam in a two-dimensional raster scan. (Raster scanning generally includes a long, substantially linear back-and-forth scan, a so-called scan line, with a short movement that moves the scan point from one scan line to the next.) A raster pattern is described herein by way of example, and alternative scanning patterns that implement similar principles are considered to be within the scope of the present invention. When a single light beam is used, the scanning resolution in the direction perpendicular to the scanning line of the raster scanning is given by the separation between successive scanning lines. Scan resolution can be increased by reducing the separation between successive scan lines, but this type of increased resolution requires a higher number of scan lines to cover the scene, thus reducing the frame rate. At the expense of reducing it. Alternatively, if the number of scanning lines per frame is not changed, the resolution can be increased at the expense of reducing the field of view. Mechanical constraints limit the extent to which the mirror scan speed can be increased to offset these effects.
一実施形態では、走査線方向に対して横方向に、ならびに走査線方向に広がった複数の光ビームを用いて走査線に垂直な方向の走査解像度を増加させる。走査線に沿った光ビームの離隔距離は、各光ビームを個々に特定すべく、各光ビームが検出器アレイ上の別個のスーパーピクセルを照明するように構成されている。ここでは、走査線密度ではなく、光ビームの横方向離隔距離により走査解像度が決定される。開示される実施形態は、感知素子のサイズを縮小せずに、横方向解像度を増加させることによって検出器アレイの小型化要件を緩和することができる。 In one embodiment, a plurality of light beams spread transversely to the scan line direction and in the scan line direction are used to increase scan resolution in a direction perpendicular to the scan line. The separation of the light beams along the scan line is configured such that each light beam illuminates a separate superpixel on the detector array to individually identify each light beam. Here, the scanning resolution is determined not by the scanning line density but by the horizontal separation distance of the light beam. The disclosed embodiments can reduce the miniaturization requirements of the detector array by increasing the lateral resolution without reducing the size of the sensing elements.
別の実施形態では、複数の照明スポットが、直線走査で対象シーンにわたって走査される。(このコンテキストにおける直線走査は、走査線が、光学的又は機械的な欠陥により直線から歪んでいる単一の方向に沿った走査を含む。)1次元直線走査を使用すると、2次元走査よりも単純で安価なビームステアリング装置の使用が可能になるが、十分に高い解像度で対象シーンをカバーする光ビーム数は一般的に、2次元走査に必要な光ビーム数よりも多くなる。単一列走査は、走査線に垂直な列で構成されており、一列の照明スポットを生成する複数の光ビームで実施することができる。列軸方向の最も高い走査解像度は、各照明スポットが検出器アレイ内の別個の感知素子上に結像されるときに、達成される。 In another embodiment, the plurality of illumination spots are scanned over the target scene in a linear scan. (Linear scanning in this context includes scanning along a single direction in which the scanning lines are distorted from the line due to optical or mechanical defects.) Using a one-dimensional linear scan is less than a two-dimensional scan. Although it is possible to use a simple and inexpensive beam steering device, the number of light beams covering a target scene with sufficiently high resolution is generally larger than the number of light beams required for two-dimensional scanning. A single-row scan is made up of rows that are perpendicular to the scan lines and can be implemented with multiple light beams that produce a row of illumination spots. The highest scanning resolution in the column direction is achieved when each illumination spot is imaged on a separate sensing element in the detector array.
直線走査を利用した別の実施形態では、走査線に垂直で、列軸方向に互いにオフセットされた複数列の照明スポットを生成することにより、走査線に垂直な走査解像度を増大させる。また、複数の列は、各照明スポットに別個の感知素子を照明させるように、少なくとも1つの感知素子分、走査線方向に互いにオフセットされるので、各照明スポットを別々に特定することができる。本実施形態は、感知素子のサイズを縮小せずに、横方向解像度を増大させることで、検出器アレイの小型化要件を緩和することができる。 In another embodiment utilizing linear scanning, the scanning resolution perpendicular to the scan line is increased by generating multiple rows of illumination spots perpendicular to the scan line and offset from each other in the column axis direction. Also, the plurality of columns are offset from each other in the scan line direction by at least one sensing element so that each illumination spot illuminates a separate sensing element, so that each illumination spot can be identified separately. This embodiment can reduce the size requirements of the detector array by increasing the lateral resolution without reducing the size of the sensing element.
本発明の一部の実施形態は、広角視野(FoV)を有し、広い深さ範囲をカバーするライダシステムを提供する。高効率で広いFoV光学系を実装すると、構成要素が嵩高で高価になるので、これらの実施形態では、簡単な光学設計及び構成を維持しながら広い範囲のFoV及び距離にわたってシーン深さを測定するためにレーザ光源、検出器アレイ、電子機器及びアルゴリズムついての専用設計ならびに使用態様を適用する。 Some embodiments of the present invention provide a lidar system having a wide field of view (FoV) and covering a large depth range. Implementing high efficiency, wide FoV optics makes the components bulky and expensive, so these embodiments measure scene depth over a wide range of FoVs and distances while maintaining simple optical design and configuration. To this end, special designs and usage modes for laser light sources, detector arrays, electronics and algorithms are applied.
レーザ光源に対して配慮すべきことは、発光パワーに関するものである。対象シーン走査のために低発光パワーのレーザ光源のみを使用する場合、対象シーンの遠点から検出器アレイによって受信される信号は、ロバストで正確な測定には弱すぎる。一方、遠方の対象シーン点を計測可能な高発光パワーのレーザ光源のみを使用する場合には、近傍の対象シーン点に対して、不必要に高い発光パワーをライダで使用することになり、ライダの消費電力を増加させる。したがって、本発明の一部の実施形態では、レーザ光源の発光パワーは測定された距離に応じて調整される。 A consideration for the laser light source concerns emission power. If only a low emission power laser light source is used for scanning the scene of interest, the signal received by the detector array from a distant point of the scene of interest is too weak for a robust and accurate measurement. On the other hand, if only a laser light source with a high light emission power capable of measuring a distant target scene point is used, an unnecessary high light emission power will be used by the rider for a nearby target scene point. Increase power consumption. Therefore, in some embodiments of the present invention, the emission power of the laser light source is adjusted according to the measured distance.
システムの説明
図1は、本発明の実施形態に係るライダシステム18を模式的に示す。1つ以上のパルスレーザを含むレーザ光源20からのビーム(単数又は複数)は、デュアル軸ビームステアリング装置24によって対象シーン22に向けられ、対象シーンにわたって照明スポット26が形成し走査する。(本明細書では、用語「光」は、可視、赤外及び紫外の範囲の放射を含む任意の種類の光放射を参照するのに使用される。)ビームステアリング装置は、例えば、走査ミラー、又は当分野で既知の任意の他の適切なタイプの光偏向器もしくはスキャナを備えることができる。照明スポット26は、集光光学系27によって、SPADなどの単一光子、時間依存性感知素子を含む2次元検出器アレイ28上に結像される。
Description of System FIG. 1 schematically shows a
また、対象シーン22は、照明スポット26の他に、太陽などの周囲光源36によって照明される。高い信号対バックグラウンド比を達成するために、照明スポットの放射照度は、例えば、太陽からの放射照度により1000W/m2まで到達し得る周囲照明よりもはるかに高くなるように選択される。検出器アレイ28への周囲照明を更に低減するために、帯域通過フィルタ37が用いられる。
The
制御回路38は、レーザ光源20に接続されることで、パルス放射をタイミング制御し、それらの発光パワーを制御し、また、デュアル軸ビームステアリング装置24に接続されることで、照明スポット26の走査を制御する。また、制御回路38は、検出器アレイ28の各SPADの逆pn接合高電圧を動的に調整することにより、各SPADの作動及び感度を制御する。レーザ光源20からのパルスの既知のタイミングと、対象シーン22上の照明スポット26の位置を決定するデュアル軸ビームステアリング装置24の既知の状態とを利用して、制御回路38は、任意の瞬間に照明スポットが集光光学系27によって結像されるこれらのSPADのみを作動させる。さらにレーザ光源20及びビームステアリング装置24の上記知識、ならびに検出器アレイ28から読み出された信号を利用して、制御回路38は、レーザ光源から検出器アレイまでの測定された飛行時間を用いて、対象シーン22内の各走査点までの距離を決定する。
The
図2〜図4は、本発明の実施形態に係る検出器アレイ28のアーキテクチャ及び機能を模式的に図示している。これらの図面は、グローバル及びローカルのバイアス制御を組み合わせて用いて、アレイ内のSPAD式感知素子を選択して作動させるのに使用され得る1つの可能な方式を示している。あるいは、他の種類のバイアス及び作動方式、ならびに他の種類の単一光子感知素子が、これらの目的で使用されてもよい。
2 to 4 schematically illustrate the architecture and function of a
図2は、本発明の一実施形態に係る検出器アレイ28を模式的に図示するブロック図である。検出器アレイ28は、感知素子44を含み、それぞれは、更に後述するように、SPADと、関連するバイアス回路及び処理回路と、を含んでいる。グローバル高圧バイアス発生器46は、アレイ28内のすべての感知素子44にグローバルバイアス電圧を印加する。また、各感知素子44内のローカルバイアス回路48は、感知素子のグローバルバイアスと加算する過剰バイアスを印加する。感知素子バイアス制御回路50は、ローカルバイアス回路48が印加する過剰バイアス電圧を、異なる感知素子でそれぞれの値に設定する。グローバル高圧バイアス発生器46と感知素子バイアス制御回路50の両方は制御回路38に接続されている(図1)。
FIG. 2 is a block diagram schematically illustrating the
図3は、本発明の一実施形態に係る、アレイ28内の感知素子44のうち1つの構成要素を示すブロック図である。開示される実施形態では、アレイ28は、第1の半導体チップ52上に形成された2次元マトリクスの感知素子を備え、第2の2次元マトリクスのバイアス制御回路及び処理回路が第2の半導体チップ54上に形成されている。(2つのマトリックスのうちそれぞれの単一素子のみを示す)チップ52、54は、2つのマトリックスが1対1対応で相互に結合されることによって、チップ52上の各感知素子は、チップ54上の対応するバイアス制御素子及び処理素子と接している。
FIG. 3 is a block diagram illustrating one component of the
チップ52、54はともに、本明細書に記載の付随するバイアス制御回路及び処理回路とともに、当分野で既知のSPADセンサ設計に基づいて、周知のCMOS作製プロセスを用いて、シリコンウェーハから製造することができる。あるいは、本明細書で説明される検出の設計及び原理は、他の材料及びプロセスを用いて、必要な変形を加えて実装してもよい。例えば、図3に示す構成要素の全てを単一チップ上に形成してもよいし、チップ間の構成要素の分布は異なってもよい。このような代替的な実施形態はすべて本発明の範囲内であると考えられる。
Both
感知素子44はSPAD56を含み、それは当分野で既知のように、感光性pn接合を含んでいる。クエンチ回路58及びローカルバイアス回路48を含む周辺回路は典型的には、チップ54上に配置される。上述のように、SPAD56に印加される実バイアスは、バイアス発生器46(図2)が付与するグローバルバイアス電圧Vbiasとバイアス回路48が印加する過剰バイアスとの和である。感知素子バイアス制御回路50(図2)は、チップ54上のバイアスメモリ60内で対応するデジタル値を設定することにより、各感知素子に印加される過剰バイアスを設定する。
Sensing
捕捉されたそれぞれの光子に反応して、SPAD56はアバランシェパルスを出力し、それは、デジタル論理62と出力バッファ64として構成されたメモリとを含むチップ54上の処理回路によって受信される。これらの処理要素は、例えば、時間−デジタル変換器(TDC)として機能するように構成することができ、それは、基準時間に対するSPAD56による各パルス出力の遅延を測定し、その遅延に対応するデジタルデータ値を出力するものである。その代わりに、又はそれに加えて、論理62及びバッファ64は、(限定されないが)パルス遅延時間のヒストグラム、二値波形又は多値デジタル波形を含む、他の種類の値を測定し出力してもよい。チップ54からの出力は、制御回路38(図1)に接続される。
In response to each captured photon,
図4は、本発明の一実施形態に係る、感度の走査領域70を有するSPADアレイ28を模式的に図示するブロック図である。この場合、バイアス制御回路50は、領域70内の感知素子72のバイアス電圧を、残りの感知素子76よりも高い値に設定し、そのバイアス電圧は感知素子76がオフとなるように設定されている。しかし、バイアス制御回路50は、図中の矢印が図示するように、アレイにわたって領域70を掃引するように感知素子48のバイアス電圧を動的に調節する。回路50は、例えば、(以下の図面で示すように)アレイ28に結像される対象シーンにわたるレーザビームの走査に同期して、ラスタ走査で領域70を掃引することができる。
FIG. 4 is a block diagram schematically illustrating a
上記のように、本実施形態は、アレイ28の感応領域を照明光ビームの形状又は撮像される対象シーン内の関心区域の形状に適応させる際に有用であり、これによって、信号に寄与しないよう感知素子からのバックグラウンドノイズを低減しながら、電力消費に対するアレイ28の感度を最大化することができる。
As described above, this embodiment is useful in adapting the sensitive area of the
(例えば、図9に図示する)本発明の代替的な実施形態では、バイアス制御回路50は、領域70が直線形状を有し、その直線形状はアレイ28の1つ以上の列に沿って延在し、当該直線形状の照明ビーム又はビームのアレイに適合するようにローカルバイアス電圧を設定する。その後、回路50は、照明ビームに同期して、アレイ28にわたってこの直線領域70を掃引してもよい。あるいは、規則的な走査パターンと適応的な走査パターンの両方を含む他の走査パターンが実行されてもよい。
In an alternative embodiment of the present invention (eg, as shown in FIG. 9),
例示の走査パターンとスーパーピクセル
図5は、本発明の実施形態に係る、走査される円形照明スポット26(図1)の画像をアレイ上に重ね合わせた検出器アレイ28を示す概略図である。集光光学系27により検出器アレイ28上に作られた照明スポット26の動画像は、観測される連続する3つの時点t=ti-1、t=ti、及びt=ti+1で観察される。この連続した3つの時点の走査された照明スポット26の画像はそれぞれ、円84、86及び88で表され、それらの直径は、本例では、感知素子44のピッチの2倍である。矢印90は、走査された照明スポット26の画像の走査方向を示し、走査された照明スポットの画像の予定位置は、ビームステアリング装置24の状態についての知識から決定される。
Exemplary Scanning Pattern and Superpixel FIG. 5 is a schematic diagram illustrating a
各時点では、その時点における照明スポット26の画像の位置に最も適合するアレイ28の領域内の感知素子44が作動される。これらの作動された感知素子は「スーパーピクセル」としてみなすことができる。図5に示す実施形態では、各スーパーピクセルは2x2の感知素子のアレイを含むが、一部の実施形態では、スーパーピクセルのサイズは静的に、あるいは動的に他の値をとる。
At each point in time, the
時刻t=ti-1では、スーパーピクセル92が作動され(円84を取り囲む)、時刻t=tiでは、スーパーピクセル94が作動され(円86)、そして、時刻t=ti+1では、スーパーピクセル96が起動される(円88)。このように、図示された実施形態では、各感知素子44は、隣接する2つのスーパーピクセルに関連付けられている。アクティブなスーパーピクセル内のこれらの感知素子のみが所与の瞬間に作動され、残りの感知素子はバイアス電圧をアバランシェ増倍が持続できないレベルまで低下させることでオフにされる。この動作は、照明スポットに相関しない対象シーンの背景照明への露光を低減しながら、走査された照明スポット26の画像から光信号を最大限に収集することによって、アレイ28の信号対バックグラウンド比を増加させる。本発明の一部の実施形態では、走査スポット26の画像によって照明されていない感知素子の出力は、標準的な論理ゲートを用いてマスクされる。
At time t = t i−1 ,
走査方向における対象シーン22の横方向解像度は、(走査速度及びレーザパルス繰返し率によって決定される)走査の離散的なステップサイズによって決定され、本実施形態では、感知素子44の1つのピッチである。対象シーンの距離が平均化される区域は、(おおよそ)スーパーピクセルの区域である。
The lateral resolution of the
図6は、本発明の別の実施形態に係る、走査される円形照明スポット26(図1)の画像をアレイに重ね合わせた検出器アレイ28を示す概略図である。照明スポットの動画像が連続する3つの時点t=t1-i、t=ti、t=ti+1で観察される。走査される照明スポットの画像の直径と、連続する2つの時点の間の走査ステップの両方はともに、感知素子44のピッチの半分である。連続する3つの時点の走査される照明スポット26の画像はそれぞれ円100、102、104で表される。矢印105は走査方向を示し、ビームステアリング装置24の状態についての知識から判定された画像の予定位置が決定される。本実施形態では、単一の感知素子44のスーパーピクセルを使用し、スーパーピクセル106は、t=ti-1で作動され、またスーパーピクセル108は、t=ti及びt=t1+iの両方で作動される。走査方向における対象シーン22の画像の横方向解像度は感知素子44のピッチの半分であり、距離が平均化される対象シーンの区域は照明スポット26の区域である。
FIG. 6 is a schematic diagram illustrating a
図7A〜Cは、本発明の更に別の実施形態に係る、走査される楕円状の照明スポット26(図1)の画像をアレイ上に重ね合わせた検出器アレイ28を示す概略図である。楕円状の照明スポットは、例えば、発光接合断面が高アスペクト比の矩形である端面発光レーザダイオードから得られる。本実施形態では、アスペクト比が3対1の楕円照明スポット26が図示されるが、他の実施形態では他のアスペクト比を使用することができる。検出器アレイ28上の照明スポット26の楕円状の画像のいわゆる速軸(長寸法)の程度は、感知素子44のピッチのほぼ6倍であり、遅軸(短寸法)の程度は、ピッチの2倍である。図7A〜Cは、図5〜図6と同様に、連続する3つの時点t=ti-1、t=ti、t=ti+1での照明スポット26の動画像を模式的に示す。検出器アレイ28上の各走査ステップは、感知素子44の1つのピッチである。本実施形態では、2x2の感知素子のスーパーピクセルが使用される。
7A-C are schematic diagrams illustrating a
図7Aは、時刻t=ti-1における走査された照明スポット26の画像である、照明スポット110を模式的に示している。この時刻で作動されるスーパーピクセルは、照明スポット110の予定位置に基づいて、ピクセル112、114、116となる(照明スポットの最遠上下端は信号にほとんど寄与しないので、無視される)。矢印118は走査方向を示しており、照明スポット110の予定位置はビームステアリング装置24の状態についての知識から決定される。
FIG. 7A schematically shows an
図7Bは、時刻t=tiにおける走査された照明スポット26の画像である、照明スポット120を模式的に示している。この時刻で作動されるスーパーピクセルは、照明スポット120の予定位置に基づいて、112、114、116、122となる。ここでは、4つのスーパーピクセルが作動されるのは、照明スポット120の有意部分(楕円の上端)は依然としてピクセル112内にあり、別の有意部分(楕円の下端)はピクセル122に入っているからである。スーパーピクセル112、114、116は、信号対ノイズ比を改善するために、継続して信号を収集する。図7Aのように、矢印118は走査方向を示し、t=tiにおける照明スポット120の予定位置はビームステアリング装置24の状態についての知識から決定される。
FIG. 7B schematically shows the
図7Cは、時刻t=ti+1における走査された照明スポット26の画像である照明スポット124を模式的に示している。この時刻での作動されるスーパーピクセルは、照明スポット124の予定位置に基づいて、ここでは114、116、122となる。ここでは、3つのスーパーピクセルしか作動されず、ピクセル112(図7B)は照明スポット124のあらゆる有意部分によってもはや照明されなくなる。図7A〜Bのように、矢印118は走査方向を示し、t=ti+1における照明スポット124の予定位置はビームステアリング装置24の状態についての知識から決定される。図示された実施形態では、各スーパーピクセルは7つの走査ステップの間、照明スポット26の画像に露光され、それによって信号対ノイズ比が改善される。
FIG. 7C schematically shows an
楕円状の照明スポットの長さがスーパーピクセルよりはるかに長いことにより、走査方向の解像度はスーパーピクセルのサイズによって決定される。スーパーピクセルのサイズは楕円照明スポットの速(長)軸に沿った長さの1/3であるので、走査線方向に得られる解像度は、楕円照明スポットのみで得られる解像度の3倍(数値では1/3)である。距離測定のための平均化区域が、スーパーピクセルの区域である。 Because the length of the elliptical illumination spot is much longer than the superpixel, the resolution in the scanning direction is determined by the size of the superpixel. Since the size of the superpixel is one third of the length of the elliptical illumination spot along the speed (long) axis, the resolution obtained in the scanning line direction is three times the resolution obtained only with the elliptical illumination spot (in numerical terms). 1/3). The averaging area for the distance measurement is the area of the superpixel.
図5〜図7では、理想的な形状(円形又は楕円)が、検出器アレイ28上の照明スポット26の画像の形状として用いられている。本発明の一実施形態では、制御回路38は、検出器アレイ上の照明スポット画像の実際の形状を計算(又は参照)し、この計算結果は、走査内の各点で始動するセンサ素子を選択する際に使用される。この計算は、ビームステアリング装置24の設計、その走査移動特性、ビームステアリング装置の正確な状態、及びレーザ光源20からのビームとビームステアリング装置との間の角度を考慮しているのは、それらが照明スポット26の画像の形状、移動方向、及び向きに影響を及ぼすからである。さらに、ライダ装置と対象シーン22との間の距離に対する画像の依存性を考慮する。この効果は、特に、ビームステアリング装置24と集光光学系27との間の離間距離に比べて短い対象シーン範囲に対して重要である。上記の計算は、所望の縦横角度分解能を達成しながら、作動した感知素子26と検出器アレイ44上の照明スポット28の画像とを最適に重ね合わせるために実行され、それによって信号対バックグラウンド指数及び信号対ノイズ指数を最適化することができる。
5 to 7, the ideal shape (circular or elliptical) is used as the shape of the image of the
図8は、本発明の実施形態に係るラスタ走査ライダの解像度を向上させる技法を示す概略図である。ビームステアリング装置24は、検出器アレイ28上の照明スポット26(図1)の画像を、検出器アレイの一列では下に及び次列では上にラスタ走査パターン130で走査する。1つの照明スポットしか使用されなかった場合、ラスタ走査の走査線に垂直な横方向解像度は、感知素子44のピッチとなるであろう。しかし、本実施形態では、横方向解像度は、走査される2つの照明スポット26を用いることで倍になり、検出器アレイ28上のその画像は、走査線に沿って感知素子44のピッチに等しい距離だけ、また走査線に対して横方向にこのピッチの半分だけ離れている。ビームステアリング装置24及びレーザ光源20の繰返し率は、連続する照明スポットがラスタ走査の走査線方向に感知素子44のピッチの半分のステップだけ離れるように構成されている。各スーパーピクセルは、1つの感知素子44を含んでいる。
FIG. 8 is a schematic diagram illustrating a technique for improving the resolution of a raster scan lidar according to an embodiment of the present invention. The
図8は連続する2つの時点t=ti及びt=ti+1での2つの照明スポット26の画像を模式的に示す。時刻t=tiでは、照明スポットの画像は、スポット132とスポット134であり、スポット132はスーパーピクセル136内にあり、スポット134はスーパーピクセル138内にある。他のスーパーピクセルは全てオフにされている。時刻t=ti+1では、両スポットは、矢印140で示すように、スーパーピクセルの半分だけ下に、新たな位置142、144まで移動する。これらのスポットは依然としてt=tiのときと同じスーパーピクセル136及び138内にあるが、照明スポット142及び144の位置は、t=ti+1でのビームステアリング装置24の状態により決定される。2つのスポットが常に別個のスーパーピクセルに割り当てられていることにより、スポットは個別に識別可能であり、走査線に対して横方向のライダの解像度は、感知素子44のピッチではなく、その方向における2つの照明スポット26の画像の離間距離によって決定され、それによって、検出器アレイ28に対する小型化要求が緩和される。各照明スポット26によって測定される距離の平均化区域が、その照明スポットの区域である。
FIG. 8 schematically shows images of two
別の実施形態(図示せず)では、走査された照明スポット26の数が(図8と比較して)2個より多い数まで増加し、それらの照明スポットは、各照明スポットの画像が異なる感知素子44内に配置されるようにラスタ走査パターン130に沿って離れている。N個の照明スポット26の画像が全て検出器アレイ28の1つの列内にある実施形態では、ラスタ走査130に対して横方向の解像度は、感知素子44のピッチをN分割することにより与えられる。
In another embodiment (not shown), the number of scanned illumination spots 26 is increased to more than two (compared to FIG. 8), and the illumination spots differ in the image of each illumination spot. Along the
直線走査パターン
図9〜図11は、本発明の実施形態に係る、直線走査に基づいたライダを示す概略図である。直線(1次元)走査は、2次元走査に必要とされるよりも潜在的に小さく、より安価でより信頼性の高いビームステアリング装置の設計を用いるので有利である。直線走査方向の解像度は、ビームステアリング装置の解像度によって決定される。直線走査方向に対して横方向に走査が行われないので、直線走査方向の解像度は、対象シーン22にわたって配列された複数の照明スポット26を用いて達成される。
Linear Scanning Pattern FIGS. 9-11 are schematic diagrams illustrating a rider based on linear scanning, according to an embodiment of the present invention. Linear (one-dimensional) scanning is potentially smaller than required for two-dimensional scanning, and is advantageous because it uses a less expensive and more reliable beam steering device design. The resolution in the linear scanning direction is determined by the resolution of the beam steering device. Since scanning is not performed in the horizontal direction with respect to the linear scanning direction, the resolution in the linear scanning direction is achieved by using a plurality of
図9は、本発明の一実施形態に係る、検出器アレイ28上に結像された1次元走査を示す概略図である。円153がセンサアレイ28上の個々の照明スポットの画像の予定位置を表している、2つの千鳥列151、152を含む照明スポット26の画像のパターン150を用いることで、直線走査に垂直な方向のライダの解像度は感知素子44のピッチを超えて改善される。矢印154は走査方向を示す。
FIG. 9 is a schematic diagram illustrating a one-dimensional scan imaged on a
パターン150の各列151及び152では、円153が示すように、各列軸に沿った照明スポット26の画像の間隔は、感知素子44のピッチに等しい。2つの列151及び152は、列軸線方向に感知素子44のピッチの半分だけ互いにオフセットされている。列151及び152は、2つの列を別個の感知素子に割り当てるように走査方向に1ピッチだけ離間している。一部の実施形態(図示せず)では、直線走査に対して横方向の解像度は、列軸線方向における互いのオフセットを小さくした2列より多い照明スポット26を用いることにより、更に改善される。これにより、例えば、感知素子44の1/4のピッチだけ互いにオフセットした4列を用いることにより、4分の1のピッチの解像度を実現することができる。
In each
図10は、本発明の一実施形態に係る1次元走査に基づいたライダ159を示す概略図である。単一のパルスレーザ光源160からのビームを回折光学素子(DOE)162で分割し、2つの千鳥列複数のビームにする。これらのビームは、単一軸ビームステアリング装置166によって対象シーン22に向けられ、それにわたって走査され、対象シーン22上に2つの千鳥列の照明スポット168を形成する。この照明スポットは、集光光学系27によって検出器アレイ28上に結像され、図9に示すようにパターン150で2つの千鳥状列151、152を形成する。
FIG. 10 is a schematic diagram illustrating a
パターン150の照明スポット26の画像を含む感知素子44のみを走査中に任意の瞬間に作動させ、残りの感知素子をオフにすることで、背景光の不要な統合化を防止し、高い信号対バックグラウンド比を実現することができる。図1と同様に、制御回路38は、レーザ光源160、ビームステアリング装置166、及び検出器アレイ28に接続され、それらの機能を制御し、飛行時間データを用いて対象シーン22までの距離を決定するために、データを収集する。
Only the
図11は、本発明の別の実施形態に係る、1次元走査及び同軸光学アーキテクチャに基づいたライダ170を示す概略図である。単一のパルスレーザ光源160からのビームは、DOE162によって分割され、2つの千鳥状列の複数のビームになる。これらのビームは偏光ビームスプリッタ176を通過し、単軸ビームステアリング装置166によって対象シーン22に向けられ、それにわたって走査されることで、2つの千鳥列の照明スポット168を形成する。対象シーン22から反射された照明スポットは、ビームステアリング装置166、偏光ビームスプリッタ176、及び集光光学系27を通って検出器アレイ28上に結像され、図9に示すパターン150の2つの千鳥列151、152を形成する。
FIG. 11 is a schematic diagram illustrating a
光伝送と収集の同軸アーキテクチャにより、検出器アレイ28上のパターン150は、走査に対して(ほぼ)静止している。したがって、走査方向に垂直な軸に沿った検出器アレイ上のセンサ素子44の列の数は、走査方向に沿ったセンサ素子の行の数よりもかなり小さくてもよい。図1と同様に、制御回路38は、レーザ光源160、ビームステアリング装置166、及び検出器アレイ28に接続され、それらの機能を制御し、飛行時間データを用いて対象シーン22までの距離を決定するためにデータを収集する。
Due to the coaxial optical transmission and collection architecture, the
図10及び図11に示すいずれの実施形態でも、走査方向に垂直な横方向解像度は、感知素子44のピッチの半分であり、走査に沿った解像度は、ビームステアリング装置166の走査速度とレーザ光源160のパルス繰返し率により決定される。照明スポット168の各々は、そのスポットの区域にわたって距離測定を平均化する。
10 and 11, the lateral resolution perpendicular to the scan direction is half the pitch of the
本明細書では、パターン150内の列151及び152の垂直向きを一例として示し、同様の原理を実施する代替的な向きも本発明の範囲内であると考慮される。
The vertical orientation of
マルチレンジ感知
図12〜図13は、本発明の実施形態に係る、対象シーンの遠距離及び近距離に適応するライダを示す概略図である。
Multi-Range Sensing FIGS. 12-13 are schematic diagrams illustrating riders that adapt to long and short distances of a target scene, according to embodiments of the present invention.
図12は、本発明の実施形態に係る遠近両方の対象シーン点までの距離を測定するのに適合するライダ199を示す概略図である。パルスレーザ光源200のビームは、デュアル軸ビームステアリング装置24によって対象シーン22に向けられ、対象シーン上に照明スポット206を形成し、対象シーンにわたってスポットを走査する。照明スポット206が集光光学系27によって検出器アレイ28上に結像される。制御回路38は、レーザ光源200、ビームステアリング装置24及び検出器アレイ28に接続されている。
FIG. 12 is a schematic diagram illustrating a
レーザ光源200は、制御回路38からの信号制御下で、低発光パワー及び高発光パワーの2つのパワーレベルで発光する能力を有する。付随して、検出器アレイ28の感知素子44(図2参照)は、2つの別個のモード、すなわち近距離モードと遠距離モードで動作する能力を有する。特定の感知素子の所与の動作モードに対して、制御回路38はそのタイミング及び感度、ならびに、そのモードでの最適な性能のための信号処理アルゴリズムを調整する。典型的には、短距離モードでは、感知素子44は比較的低い感度(結果としてノイズも低くなる)にバイアスされ、短い飛行時間を感知するようにゲートされる。長距離モードでは、感知素子44が比較的高い感度にバイアスされ、より長い飛行時間を感知するようにゲートされるので、近距離反射のスプリアス検出の可能性が低減される。
The
対象シーン22の各区域に必要な動作モードを決定するために、まず、近距離検出に適した低発光パワーレベルでレーザ光源200を用いて、その区域を走査する。レーザ光源200からの光を受光する検出器アレイ28内の感知素子44は、そのタイミング、感度、及び近距離測定のために設定された関連する信号処理アルゴリズムで作動される。
In order to determine an operation mode required for each area of the
この短距離走査に続いて、制御回路38は、所定の基準に基づいて、この短距離、低電力走査により、十分にロバストな距離測定が得られなかった区域でのみ、ライダ199を制御して長距離走査を実行する。遠距離走査では、これらの区域からの反射光を受光するように作動される感知素子44のタイミング、感度、アルゴリズムを適宜変更して、高発光パワーレベルの光源200を用いて、これらの領域の測定を繰り返す。
Subsequent to the short distance scan, the
図13は、本発明の別の実施形態に係る、遠近両方の対象シーン点までの距離を測定するのに適合したライダ210を示す概略図である。2つのパルスレーザ光源218及び220のビームは、デュアル軸ビームステアリング装置24によって対象シーン22に向けられ、対象シーン22上に照明スポット226を形成し、対象シーン22にわたって照明スポットを走査する。(図13では、2つの別個の光源を示すために、レーザ光源218とレーザ光源220との間の離間距離は誇張されている)。以下に詳述するように、レーザ光源のうちの1つだけが所与のある時刻に発光している。照明スポット226は集光光学系27によって検出器アレイ28上に結像される。制御回路38は、レーザ光源218、220、ビームステアリング装置24、及び検出器アレイ28に接続されている。
FIG. 13 is a schematic diagram illustrating a
各レーザ光源218、220は、起動されると、低発光パワーレベルで発光するレーザ光源218と、高発光パワーレベルで発光するレーザ光源220を用いて、特定の発光パワーレベルで発光する。制御回路38は、図12に参照して上記に説明した種類の基準に基づいた走査において各点でいずれのレーザ光源を作動すべきかを選択する。同様に、検出器アレイ28の感知素子44(図2参照)は、2つの別個のモード、すなわち、近距離モードと遠距離モードで動作する能力を有する。特定の感知素子44の所与の動作モードに対して、制御回路38は、そのタイミング及び感度、ならびにそのモードでの最適な性能のための信号処理アルゴリズムを調整する。
When activated, each of the
対象シーン22の所与の区域において必要な動作モードを決定するために、まず低発光パワーのレーザ光源218を用いて、その区域を走査する。レーザ光源44からの光を受光する検出器アレイ28内のこれらの感知素子218は、近距離測定のために設定されたタイミング、感度、及び関連する信号処理アルゴリズムで作動される。先行する実施形態のように、制御回路38は、レーザ光源218を用いて所与の区域に対して、十分にロバストな距離測定を行うことができないと判定した場合には、レーザ光源220からの光を受光するように作動する感知素子44のタイミング、感度、アルゴリズムを適宜変更して、レーザ光源220を用いて、より高い発光パワーのレーザで、その区域に対する測定を繰り返す。
In order to determine the required mode of operation in a given area of the
上述の実施形態は例として挙げられており、本発明は、以上に具体的に図示され説明されたものに限定されないことが理解されるであろう。むしろ、本発明の範囲は、以上に説明した様々な特徴の組み合わせ及び部分的組み合わせの両方、ならびに当業者であれば前述の説明を読むことによって想到するであろう従来技術に開示されていないそれらの変型及び修正を含む。 It will be understood that the above-described embodiments have been given by way of example and that the invention is not limited to what has been particularly shown and described above. Rather, the scope of the present invention covers both combinations and subcombinations of the various features described above, as well as those not disclosed in the prior art, as would be apparent to one of skill in the art upon reading the foregoing description. Includes variants and corrections.
Claims (20)
対象シーンをわたって前記少なくとも1つのビームを送信及び走査するように構成されたビームステアリング装置と、
各感知素子が前記感知素子への単一光子の入射時間を示す信号を出力するように構成された感知素子のアレイと、
前記送信されたビームによって走査された前記対象シーンを前記アレイ上に結像するように構成された集光光学系であって、
前記ビームステアリング装置は、前記感知素子のピッチよりも小さいスポットサイズ及び走査解像度で、前記対象シーンをわたって前記少なくとも1つのビームを走査する、集光光学系と、
前記アレイの選択された領域内のみの前記感知素子を作動させ、前記少なくとも1つのビームの走査に同期して、前記アレイの上の前記選択された領域を掃引するように結合された回路と、を備える電気光学装置。 A laser light source configured to emit at least one beam of light pulses;
A beam steering device configured to transmit and scan the at least one beam across a subject scene;
An array of sensing elements, each sensing element configured to output a signal indicative of a time of incidence of a single photon on the sensing element;
A focusing optics configured to image the target scene scanned by the transmitted beam on the array,
A condensing optical system that scans the at least one beam across the target scene with a spot size and a scanning resolution smaller than the pitch of the sensing elements;
A circuit coupled to activate the sensing elements only in selected areas of the array and to sweep the selected areas on the array in synchronization with scanning of the at least one beam; An electro-optical device comprising:
対象シーンをわたって前記少なくとも1つのビームを送信及び走査することと、
各感知素子が前記感知素子への単一光子の入射時間を示す信号を出力するように構成された前記感知素子のアレイを提供することと、
前記送信されたビームによって走査された前記対象シーンを前記アレイに結像することであって、
前記少なくとも1つのビームは、前記感知素子のピッチよりも小さいスポットサイズ及び走査解像度で、前記対象シーンにわたって走査される、ことと、
前記アレイの選択された領域内でのみ前記感知素子を作動させ、前記少なくとも1つのビームの走査に同期して、前記アレイの上の前記選択された領域を掃引することと、を含む感知方法。 Emitting at least one beam of light pulses;
Transmitting and scanning the at least one beam across a scene of interest;
Providing an array of the sensing elements, each sensing element configured to output a signal indicative of a time of incidence of a single photon on the sensing element;
Imaging the object scene scanned by the transmitted beam onto the array,
The at least one beam is scanned over the target scene with a spot size and a scanning resolution less than the pitch of the sensing elements;
Actuating the sensing element only within a selected area of the array, and sweeping the selected area on the array in synchronization with scanning of the at least one beam.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020001203A JP6899005B2 (en) | 2015-12-20 | 2020-01-08 | Photodetection ranging sensor |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/975,790 US9997551B2 (en) | 2015-12-20 | 2015-12-20 | Spad array with pixel-level bias control |
US14/975,790 | 2015-12-20 | ||
US201662353588P | 2016-06-23 | 2016-06-23 | |
US62/353,588 | 2016-06-23 | ||
PCT/US2016/065472 WO2017112416A1 (en) | 2015-12-20 | 2016-12-08 | Light detection and ranging sensor |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020001203A Division JP6899005B2 (en) | 2015-12-20 | 2020-01-08 | Photodetection ranging sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018537680A JP2018537680A (en) | 2018-12-20 |
JP6644892B2 true JP6644892B2 (en) | 2020-02-12 |
Family
ID=57570664
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018530709A Active JP6644892B2 (en) | 2015-12-20 | 2016-12-08 | Light detection distance measuring sensor |
JP2020001203A Active JP6899005B2 (en) | 2015-12-20 | 2020-01-08 | Photodetection ranging sensor |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020001203A Active JP6899005B2 (en) | 2015-12-20 | 2020-01-08 | Photodetection ranging sensor |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3391076A1 (en) |
JP (2) | JP6644892B2 (en) |
CN (2) | CN108431626B (en) |
WO (1) | WO2017112416A1 (en) |
Families Citing this family (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9741754B2 (en) | 2013-03-06 | 2017-08-22 | Apple Inc. | Charge transfer circuit with storage nodes in image sensors |
US9686485B2 (en) | 2014-05-30 | 2017-06-20 | Apple Inc. | Pixel binning in an image sensor |
US10761195B2 (en) | 2016-04-22 | 2020-09-01 | OPSYS Tech Ltd. | Multi-wavelength LIDAR system |
US10438987B2 (en) | 2016-09-23 | 2019-10-08 | Apple Inc. | Stacked backside illuminated SPAD array |
US10917626B2 (en) | 2016-11-23 | 2021-02-09 | Microsoft Technology Licensing, Llc | Active illumination 3D imaging system |
US10605984B2 (en) | 2016-12-01 | 2020-03-31 | Waymo Llc | Array of waveguide diffusers for light detection using an aperture |
CN110235024B (en) | 2017-01-25 | 2022-10-28 | 苹果公司 | SPAD detector with modulation sensitivity |
US10656251B1 (en) | 2017-01-25 | 2020-05-19 | Apple Inc. | Signal acquisition in a SPAD detector |
US10962628B1 (en) | 2017-01-26 | 2021-03-30 | Apple Inc. | Spatial temporal weighting in a SPAD detector |
KR20240007686A (en) | 2017-03-13 | 2024-01-16 | 옵시스 테크 엘티디 | Eye-Safe Scanning LIDAR System |
CN113466882A (en) * | 2017-07-05 | 2021-10-01 | 奥斯特公司 | Optical distance measuring device |
EP3428574A1 (en) * | 2017-07-11 | 2019-01-16 | Fondazione Bruno Kessler | Device for measuring a distance and method for measuring said distance |
US10901073B2 (en) | 2017-07-11 | 2021-01-26 | Microsoft Technology Licensing, Llc | Illumination for zoned time-of-flight imaging |
US10430958B2 (en) * | 2017-07-11 | 2019-10-01 | Microsoft Technology Licensing, Llc | Active illumination 3D zonal imaging system |
US20190018119A1 (en) * | 2017-07-13 | 2019-01-17 | Apple Inc. | Early-late pulse counting for light emitting depth sensors |
US10622538B2 (en) | 2017-07-18 | 2020-04-14 | Apple Inc. | Techniques for providing a haptic output and sensing a haptic input using a piezoelectric body |
KR102218679B1 (en) | 2017-07-28 | 2021-02-23 | 옵시스 테크 엘티디 | VCSEL Array LIDAR Transmitter with Small Angle Divergence |
US10698088B2 (en) | 2017-08-01 | 2020-06-30 | Waymo Llc | LIDAR receiver using a waveguide and an aperture |
US10677899B2 (en) | 2017-08-07 | 2020-06-09 | Waymo Llc | Aggregating non-imaging SPAD architecture for full digital monolithic, frame averaging receivers |
EP3451021A1 (en) | 2017-08-30 | 2019-03-06 | Hexagon Technology Center GmbH | Measuring device with scan functionality and adjustable receiving areas of the receiver |
US10440301B2 (en) | 2017-09-08 | 2019-10-08 | Apple Inc. | Image capture device, pixel, and method providing improved phase detection auto-focus performance |
US10473923B2 (en) * | 2017-09-27 | 2019-11-12 | Apple Inc. | Focal region optical elements for high-performance optical scanners |
US11802943B2 (en) | 2017-11-15 | 2023-10-31 | OPSYS Tech Ltd. | Noise adaptive solid-state LIDAR system |
DE102018203534A1 (en) * | 2018-03-08 | 2019-09-12 | Ibeo Automotive Systems GmbH | Receiver arrangement for receiving light pulses, LiDAR module and method for receiving light pulses |
CN111919137A (en) | 2018-04-01 | 2020-11-10 | 欧普赛斯技术有限公司 | Noise adaptive solid state LIDAR system |
EP3775980B1 (en) * | 2018-04-09 | 2022-03-16 | Oulun yliopisto | Range imaging apparatus and method |
JP2019191126A (en) * | 2018-04-27 | 2019-10-31 | シャープ株式会社 | Optical radar device |
DE102018113848A1 (en) * | 2018-06-11 | 2019-12-12 | Sick Ag | Optoelectronic sensor and method for acquiring three-dimensional image data |
US11019294B2 (en) | 2018-07-18 | 2021-05-25 | Apple Inc. | Seamless readout mode transitions in image sensors |
US10848693B2 (en) | 2018-07-18 | 2020-11-24 | Apple Inc. | Image flare detection using asymmetric pixels |
EP3608688B1 (en) * | 2018-08-09 | 2021-01-27 | OMRON Corporation | Distance measuring device |
EP3620822A1 (en) * | 2018-09-06 | 2020-03-11 | STMicroelectronics (Research & Development) Limited | Non-contiguous layouts for photosensitive apparatus |
US11914078B2 (en) * | 2018-09-16 | 2024-02-27 | Apple Inc. | Calibration of a depth sensing array using color image data |
US20210270969A1 (en) * | 2018-09-25 | 2021-09-02 | Apple Inc. | Enhanced depth mapping using visual inertial odometry |
US11233966B1 (en) | 2018-11-29 | 2022-01-25 | Apple Inc. | Breakdown voltage monitoring for avalanche diodes |
WO2020121959A1 (en) * | 2018-12-14 | 2020-06-18 | 株式会社デンソー | Optical distance measurement device, laser light emission device, and method for manufacturing same |
JP7172963B2 (en) * | 2018-12-14 | 2022-11-16 | 株式会社デンソー | Optical distance measuring device, method for manufacturing laser light emitting device |
DE102018222777A1 (en) * | 2018-12-21 | 2020-06-25 | Robert Bosch Gmbh | Optoelectronic sensor and method for operating an optoelectronic sensor |
JP2020106339A (en) * | 2018-12-26 | 2020-07-09 | ソニーセミコンダクタソリューションズ株式会社 | Measuring device and distance measuring device |
CN113767301A (en) * | 2019-01-31 | 2021-12-07 | 感觉光子公司 | Gated window dependent illumination of a flash LIDAR |
KR102604902B1 (en) * | 2019-02-11 | 2023-11-21 | 애플 인크. | Depth sensing using sparse arrays of pulsed beams |
CN113795773A (en) * | 2019-03-08 | 2021-12-14 | 欧司朗股份有限公司 | Component for a LIDAR sensor system, LIDAR sensor device, method for a LIDAR sensor system and method for a LIDAR sensor device |
JP7337517B2 (en) * | 2019-03-14 | 2023-09-04 | 株式会社東芝 | Photodetector and distance measuring device |
US11796642B2 (en) | 2019-03-26 | 2023-10-24 | Infineon Technologies Ag | Oversamplng and transmitter shooting pattern for light detection and ranging (LIDAR) system |
EP3953727A4 (en) | 2019-04-09 | 2023-01-04 | Opsys Tech Ltd. | Solid-state lidar transmitter with laser control |
CN110109085B (en) * | 2019-04-15 | 2022-09-30 | 东南大学 | Low-power consumption wide-range array type photon timing reading circuit based on dual-mode switching |
US11320535B2 (en) | 2019-04-24 | 2022-05-03 | Analog Devices, Inc. | Optical system for determining interferer locus among two or more regions of a transmissive liquid crystal structure |
JP7259525B2 (en) * | 2019-04-26 | 2023-04-18 | 株式会社デンソー | Optical ranging device and method |
US11480685B2 (en) * | 2019-05-05 | 2022-10-25 | Apple Inc. | Compact optical packaging of LiDAR systems using diffractive structures behind angled interfaces |
CN110068808A (en) * | 2019-05-29 | 2019-07-30 | 南京芯视界微电子科技有限公司 | The receiver apparatus and laser radar of laser radar |
WO2020242834A1 (en) | 2019-05-30 | 2020-12-03 | OPSYS Tech Ltd. | Eye-safe long-range lidar system using actuator |
KR102637658B1 (en) | 2019-06-10 | 2024-02-20 | 옵시스 테크 엘티디 | Eye-safe long-range solid-state LIDAR system |
CN112114322A (en) * | 2019-06-21 | 2020-12-22 | 广州印芯半导体技术有限公司 | Time-of-flight distance measuring device and time-of-flight distance measuring method |
JP2021015095A (en) * | 2019-07-16 | 2021-02-12 | パイオニア株式会社 | Distance measuring device |
DE102019211739A1 (en) * | 2019-08-06 | 2021-02-11 | Ibeo Automotive Systems GmbH | Lidar measuring system with two lidar measuring devices |
JP2021039069A (en) * | 2019-09-05 | 2021-03-11 | 株式会社東芝 | Photodetector, electronic device, and photodetection method |
JP2021043131A (en) * | 2019-09-13 | 2021-03-18 | ソニーセミコンダクタソリューションズ株式会社 | Distance measuring device and method for adjusting deviation of distance measuring mechanism in said device |
CN110596721B (en) * | 2019-09-19 | 2022-06-14 | 深圳奥锐达科技有限公司 | Flight time distance measuring system and method of double-shared TDC circuit |
CN110596724B (en) * | 2019-09-19 | 2022-07-29 | 深圳奥锐达科技有限公司 | Method and system for measuring flight time distance during dynamic histogram drawing |
CN110780312B (en) * | 2019-10-15 | 2022-10-21 | 深圳奥锐达科技有限公司 | Adjustable distance measuring system and method |
CN110687541A (en) * | 2019-10-15 | 2020-01-14 | 深圳奥锐达科技有限公司 | Distance measuring system and method |
JP2021071458A (en) * | 2019-11-01 | 2021-05-06 | ソニーセミコンダクタソリューションズ株式会社 | Light receiving device, ranging device, and light receiving circuit |
CN111090104B (en) * | 2019-12-26 | 2022-11-11 | 维沃移动通信有限公司 | Imaging processing method and electronic device |
CN113126104A (en) * | 2019-12-27 | 2021-07-16 | 精准基因生物科技股份有限公司 | Time-of-flight polarization light sensing system and light emitter thereof |
JPWO2021161858A1 (en) * | 2020-02-14 | 2021-08-19 | ||
CN113359142A (en) * | 2020-03-06 | 2021-09-07 | 上海禾赛科技有限公司 | Laser radar and ranging method thereof |
JP7434002B2 (en) * | 2020-03-17 | 2024-02-20 | 株式会社東芝 | Photodetector and distance measuring device |
CN113447933A (en) * | 2020-03-24 | 2021-09-28 | 上海禾赛科技有限公司 | Detection unit of laser radar, laser radar and detection method thereof |
CN111352095A (en) * | 2020-04-17 | 2020-06-30 | 深圳市镭神智能系统有限公司 | Laser radar receiving system and laser radar |
CN111610534B (en) * | 2020-05-07 | 2022-12-02 | 广州立景创新科技有限公司 | Image forming apparatus and image forming method |
US11476372B1 (en) | 2020-05-13 | 2022-10-18 | Apple Inc. | SPAD-based photon detectors with multi-phase sampling TDCs |
CN113970757A (en) * | 2020-07-23 | 2022-01-25 | 华为技术有限公司 | Depth imaging method and depth imaging system |
CN114063043A (en) * | 2020-07-30 | 2022-02-18 | 北京一径科技有限公司 | Control method and device of photoelectric detection array, photoelectric power supply switching circuit and photoelectric detection array |
JP7476033B2 (en) | 2020-08-24 | 2024-04-30 | 株式会社東芝 | Light receiving device and electronic device |
JP7434115B2 (en) | 2020-09-07 | 2024-02-20 | 株式会社東芝 | Photodetector and distance measuring device |
JP7423485B2 (en) | 2020-09-18 | 2024-01-29 | 株式会社東芝 | distance measuring device |
CN112346075B (en) * | 2020-10-01 | 2023-04-11 | 奥比中光科技集团股份有限公司 | Collector and light spot position tracking method |
WO2022201501A1 (en) * | 2021-03-26 | 2022-09-29 | パイオニア株式会社 | Sensor device |
WO2022201502A1 (en) * | 2021-03-26 | 2022-09-29 | パイオニア株式会社 | Sensor device |
JP7443287B2 (en) | 2021-06-09 | 2024-03-05 | 株式会社東芝 | Photodetector and distance measuring device |
CN115980763A (en) * | 2021-10-15 | 2023-04-18 | 华为技术有限公司 | Detection method and device |
JP2023066231A (en) * | 2021-10-28 | 2023-05-15 | 株式会社デンソー | Control device, control method, and control program |
WO2023149242A1 (en) * | 2022-02-03 | 2023-08-10 | 株式会社小糸製作所 | Measurement device |
CN116184436B (en) * | 2023-03-07 | 2023-11-17 | 哈尔滨工业大学 | Array orbital angular momentum cloud penetration and fog penetration quantum detection imaging system |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02287113A (en) * | 1989-04-27 | 1990-11-27 | Asahi Optical Co Ltd | Distance measuring instrument |
JPH0567195A (en) * | 1991-09-05 | 1993-03-19 | Matsushita Electric Ind Co Ltd | Shape measuring instrument |
JPH10170637A (en) * | 1996-12-16 | 1998-06-26 | Omron Corp | Light scanner |
JPH1163920A (en) * | 1997-08-26 | 1999-03-05 | Matsushita Electric Works Ltd | Optically scanning system displacement measuring equipment |
JP3832101B2 (en) * | 1998-08-05 | 2006-10-11 | 株式会社デンソー | Distance measuring device |
EP2327954A1 (en) * | 2002-01-11 | 2011-06-01 | The General Hospital Corporation | Apparatus for OCT imaging with axial line focus for improved resolution and depth of field |
JP2007190566A (en) * | 2006-01-17 | 2007-08-02 | Miyachi Technos Corp | Fiber laser beam machining apparatus |
CN101401107B (en) * | 2006-04-11 | 2013-01-16 | 数据逻辑Adc公司 | Method for data reading using raster scanning |
GB2439962B (en) * | 2006-06-14 | 2008-09-24 | Exitech Ltd | Process and apparatus for laser scribing |
CN201054040Y (en) * | 2007-05-21 | 2008-04-30 | 一品光学工业股份有限公司 | Micro electromechanical swinged laser scanning device |
US8786682B2 (en) * | 2009-03-05 | 2014-07-22 | Primesense Ltd. | Reference image techniques for three-dimensional sensing |
EP2446301B1 (en) * | 2009-06-22 | 2018-08-01 | Toyota Motor Europe | Pulsed light optical rangefinder |
US8502926B2 (en) * | 2009-09-30 | 2013-08-06 | Apple Inc. | Display system having coherent and incoherent light sources |
JP2011089874A (en) * | 2009-10-22 | 2011-05-06 | Toyota Central R&D Labs Inc | Distance image data acquisition device |
LU91688B1 (en) * | 2010-05-17 | 2011-11-18 | Iee Sarl | Scanning 3D imager |
CN103649673A (en) * | 2011-04-15 | 2014-03-19 | 法罗技术股份有限公司 | Enhanced position detector in laser tracker |
US9557285B2 (en) * | 2011-08-25 | 2017-01-31 | Georgia Tech Research Corporation | Gas sensors and methods of preparation thereof |
JP2013113669A (en) * | 2011-11-28 | 2013-06-10 | Mitsubishi Electric Corp | Laser radar device |
KR102038533B1 (en) * | 2012-06-14 | 2019-10-31 | 한국전자통신연구원 | Laser Radar System and Method for Acquiring Target Image |
EP2708914A1 (en) * | 2012-09-18 | 2014-03-19 | Sick Ag | Optoelectronic sensor and method for recording a depth map |
CN105209869B (en) * | 2012-10-23 | 2019-12-13 | 苹果公司 | High precision imaging colorimeter with spectrometer assisted specially designed pattern closed loop calibration |
DE202013101039U1 (en) * | 2013-03-11 | 2014-03-12 | Sick Ag | Optoelectronic sensor for distance measurement |
KR101762525B1 (en) * | 2013-03-15 | 2017-07-27 | 애플 인크. | Apparatus and method for depth scanning with multiple emitters |
WO2015157341A1 (en) * | 2014-04-07 | 2015-10-15 | Samsung Electronics Co., Ltd. | High resolution, high frame rate, low power image sensor |
CN103983979B (en) * | 2014-05-27 | 2016-05-11 | 中国科学院上海光学精密机械研究所 | Based on M sequence phase coding and the multiplexing synthetic aperture laser imaging radar of cross-polarization |
-
2016
- 2016-12-08 WO PCT/US2016/065472 patent/WO2017112416A1/en active Application Filing
- 2016-12-08 CN CN201680074428.8A patent/CN108431626B/en active Active
- 2016-12-08 JP JP2018530709A patent/JP6644892B2/en active Active
- 2016-12-08 CN CN202010063812.6A patent/CN111239708B/en active Active
- 2016-12-08 EP EP16813340.3A patent/EP3391076A1/en not_active Ceased
-
2020
- 2020-01-08 JP JP2020001203A patent/JP6899005B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018537680A (en) | 2018-12-20 |
EP3391076A1 (en) | 2018-10-24 |
JP6899005B2 (en) | 2021-07-07 |
CN111239708B (en) | 2024-01-09 |
CN111239708A (en) | 2020-06-05 |
WO2017112416A1 (en) | 2017-06-29 |
JP2020073901A (en) | 2020-05-14 |
CN108431626B (en) | 2022-06-17 |
CN108431626A (en) | 2018-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6644892B2 (en) | Light detection distance measuring sensor | |
US10795001B2 (en) | Imaging system with synchronized scan and sensing | |
US10324171B2 (en) | Light detection and ranging sensor | |
US11681027B2 (en) | Time-of-flight depth mapping with parallax compensation | |
US10775507B2 (en) | Adaptive transmission power control for a LIDAR | |
KR102409952B1 (en) | High resolution, high frame rate, low power image sensor | |
US10908266B2 (en) | Time of flight distance sensor | |
JP2019215324A (en) | Photoelectric sensor and distance measurement method | |
KR20200075014A (en) | Noise-adaptive solid-state LIDAR system | |
KR20190055238A (en) | System and method for determining distance to an object | |
US20190094364A1 (en) | Waveform design for a LiDAR system with closely-spaced pulses | |
US20190310370A1 (en) | Optoelectronic sensor and method for detection and distance determination of objects | |
US20220221562A1 (en) | Methods and systems for spad optimizaiton | |
US11698447B2 (en) | Beam steering aware pixel clustering of segmented sensor area and implementing averaging algorithms for pixel processing | |
Ruokamo et al. | An $80\times25 $ Pixel CMOS Single-Photon Sensor With Flexible On-Chip Time Gating of 40 Subarrays for Solid-State 3-D Range Imaging | |
CN110780312B (en) | Adjustable distance measuring system and method | |
IL269455B2 (en) | Time of flight sensor | |
US20210181308A1 (en) | Optical distance measuring device | |
US20200103526A1 (en) | Time of flight sensor | |
JP7423485B2 (en) | distance measuring device | |
US20230075080A1 (en) | Systems and methods of calibration of low fill-factor sensor devices and object detection therewith | |
JP2020134313A (en) | Optical detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180612 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180612 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190610 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190708 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6644892 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |