JP6644892B2 - Light detection distance measuring sensor - Google Patents

Light detection distance measuring sensor Download PDF

Info

Publication number
JP6644892B2
JP6644892B2 JP2018530709A JP2018530709A JP6644892B2 JP 6644892 B2 JP6644892 B2 JP 6644892B2 JP 2018530709 A JP2018530709 A JP 2018530709A JP 2018530709 A JP2018530709 A JP 2018530709A JP 6644892 B2 JP6644892 B2 JP 6644892B2
Authority
JP
Japan
Prior art keywords
scan
array
beams
sensing element
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018530709A
Other languages
Japanese (ja)
Other versions
JP2018537680A (en
Inventor
クリスティアーノ エル ニクラス
クリスティアーノ エル ニクラス
アレクサンダー シュプント
アレクサンダー シュプント
ゲンナディー エイ アグラノフ
ゲンナディー エイ アグラノフ
マシュー シー ウォルドン
マシュー シー ウォルドン
ミナ エイ レツク
ミナ エイ レツク
ティエリー オジエ
ティエリー オジエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/975,790 external-priority patent/US9997551B2/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2018537680A publication Critical patent/JP2018537680A/en
Priority to JP2020001203A priority Critical patent/JP6899005B2/en
Application granted granted Critical
Publication of JP6644892B2 publication Critical patent/JP6644892B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は全般的に、光電子装置に関し、特に光検出及び測距(ライダ)センサに関する。   The present invention relates generally to optoelectronic devices, and more particularly, to light detection and ranging (rider) sensors.

既存の消費者アプリケーション及び出現する消費者アプリケーションにおいては、実時間の3次元画像化に対する必要性がますます生じている。光検出及び測距(ライダ)センサとしても通常知られる、これらの撮像装置により、対象シーンを光ビームで照明し、反射された光信号を分析することによって、対象シーン上の各点の距離(多くの場合、強度)(いわゆる対象シーン深さ)を遠隔測定することができる。対象シーン上の各点までの距離を決定する一般的に使用される技法は、対象シーンに向けて光ビームを送り、ソースから対象シーンに移動し、ソースに隣接する検出器に戻る際に光ビームが要する往復時間、すなわち飛行時間(ToF)を測定することを含む。   In existing and emerging consumer applications, there is an increasing need for real-time three-dimensional imaging. These imaging devices, also commonly known as light detection and ranging (lider) sensors, illuminate the target scene with a light beam and analyze the reflected light signal to determine the distance between each point on the target scene ( In many cases, the intensity) (the so-called target scene depth) can be measured remotely. A commonly used technique for determining the distance to each point on a target scene is to send a beam of light toward the target scene, travel from the source to the target scene, and use the light as it returns to the detector adjacent to the source. Includes measuring the round trip time required by the beam, the time of flight (ToF).

ToFベースのライダに適した検出器はSPAD(single−photon avalanche diode:単一光子アバランシェダイオード)アレイによって提供される。SPADは、GAPD(Geiger−mode avalanche photodiode)としても知られており、数十ピコ秒オーダーの非常に高い到達時間解像度で個々の光子を捕捉することができる検出器である。これらは、専用半導体プロセス又は標準的なCMOS技術で作製することができる。単一のチップ上に作製されたSPADセンサのアレイは、3D撮像カメラにおいて実験的に使用されている。Charbon et al.は、本明細書に参照により組み込まれる、TOF Range−Imaging Cameras(Springer−Verlag,2013)に公開された「SPAD式センサ」のSPAD技術についての有用な論評を提供している。   A suitable detector for a ToF-based lidar is provided by a single-photon avalanche diode (SPAD) array. SPAD, also known as Geiger-mode avalanche photodiode (GAPD), is a detector that can capture individual photons with very high arrival time resolution on the order of tens of picoseconds. These can be made in dedicated semiconductor processes or standard CMOS technology. Arrays of SPAD sensors fabricated on a single chip have been used experimentally in 3D imaging cameras. Charbon et al. Provides a useful review of the SPAD technology of the "SPAD-based sensor" published in TOF Range-Imaging Cameras (Springer-Verlag, 2013), which is incorporated herein by reference.

SPADでは、pn接合は、その接合の降伏電圧を十分に超えたレベルで逆バイアスされている。このバイアスでは、空乏層内に注入された単一電荷キャリアが、入射光子によって自己維持アバランシェ(self-sustaining avalanche)をトリガできるほどかなり電界が高くなる。アバランシェ電流パルスの立ち上がりエッジは、検出された光子の到達時間を示す。バイアス電圧を降伏電圧以下に低下させることにより、アバランシェが消失するまで電流が継続する。この後者の機能は、クエンチ回路によって実行され、クエンチ回路はSPADと直列に高抵抗バラスト負荷を単に備えてもよいし、あるいは能動回路素子を備えてもよい。   In SPAD, the pn junction is reverse biased at a level well above the breakdown voltage of the junction. With this bias, the electric field is so high that a single charge carrier injected into the depletion layer can trigger a self-sustaining avalanche by incident photons. The rising edge of the avalanche current pulse indicates the arrival time of the detected photon. By lowering the bias voltage below the breakdown voltage, the current continues until the avalanche disappears. This latter function is performed by a quench circuit, which may simply include a high resistance ballast load in series with the SPAD, or may include active circuit elements.

以下に説明する本発明の実施形態は、改良されたライダセンサ及びそれらの使用方法を記載する。   The embodiments of the invention described below describe improved lidar sensors and methods of their use.

したがって、本発明の実施形態によれば、光パルスの少なくとも1つのビームを放射するように構成されたレーザ光源と、対象シーンにわたって少なくとも1つのビームを送信及び走査するように構成されたビームステアリング装置と、感知素子のアレイとを含む電気光学装置が提供される。各感知素子は、単一光子の感知素子への入射時間を示す信号を出力するように構成されている。集光光学系は、送信されたビームによって走査された対象シーンをアレイ上に結像するように構成されている。回路は、アレイの選択された領域内でのみ感知素子を作動させ、少なくとも1つのビームの走査に同期して、アレイの上の選択された領域を掃引するように結合される。   Thus, according to an embodiment of the present invention, a laser light source configured to emit at least one beam of light pulses, and a beam steering device configured to transmit and scan at least one beam over a scene of interest. And an array of sensing elements. Each sensing element is configured to output a signal indicating a time of incidence of a single photon on the sensing element. The collection optics is configured to image a target scene scanned by the transmitted beam onto the array. The circuitry is coupled to activate the sensing element only within a selected area of the array and to sweep a selected area on the array in synchronization with scanning of at least one beam.

一部の実施形態では、回路は、走査中の任意の瞬間に、選択された領域が、集光光学系が少なくとも1つのビームによって照明される対象シーンの区域を結像するアレイの一部分を含むよう領域を選択するように構成されている。選択された領域は、1つの感知素子を含んでもよいし、複数の感知素子を含んでもよい。   In some embodiments, the circuit includes, at any instant during the scan, the selected area includes a portion of an array in which the collection optics images an area of the scene of interest illuminated by the at least one beam. It is configured to select an area. The selected area may include one sensing element or may include a plurality of sensing elements.

開示される実施形態では、回路は、対象シーン内の点までのそれぞれの距離を決定するために、感知素子によって出力された信号を処理するように構成されている。典型的には、感知素子は、単一光子アバランシェダイオード(SPAD)などの単一光子検出器を含む。   In a disclosed embodiment, the circuit is configured to process the signal output by the sensing element to determine a respective distance to a point in the scene of interest. Typically, the sensing element includes a single photon detector such as a single photon avalanche diode (SPAD).

一部の実施形態では、レーザ光源は、異なる各ビーム軸に沿って少なくとも2つのビームを放射することで、走査中の任意の瞬間に、集光光学系が少なくとも2つのビームによって照明される対象シーンのそれぞれの区域を、感知素子の異なる各区域に結像するように構成されている。これらの実施形態のうち1つでは、ビームステアリング装置は、2次元走査で対象シーンにわたって少なくとも2つのビームを走査するように構成されており、回路は、2次元走査に対応する2次元パターンでアレイの上の選択された領域にわたり掃引するように構成されている。例えば、2次元走査は、ラスタパターンを形成してもよく、少なくとも2つのビームの各ビーム軸は、ラスタパターンの走査線方向に対して互いに横方向にオフセットされている。   In some embodiments, the laser light source emits at least two beams along each different beam axis such that at any instant during the scan, the collection optics is illuminated by the at least two beams. Each area of the scene is configured to be imaged on a different area of the sensing element. In one of these embodiments, the beam steering device is configured to scan at least two beams over the scene of interest in a two-dimensional scan, and the circuit is arrayed in a two-dimensional pattern corresponding to the two-dimensional scan. Is configured to sweep over a selected area above. For example, a two-dimensional scan may form a raster pattern, wherein each beam axis of the at least two beams is laterally offset from each other with respect to the scan line direction of the raster pattern.

あるいは、ビームステアリング装置は、対象シーンにわたって第1の方向に直線走査で少なくとも2つのビームを走査するように構成されており、少なくとも2つのビームは、第1の方向に垂直な第2の方向に列軸に沿って配列された複数のビームを含む。一実施形態では、複数のビームは、少なくとも2つの列に配列され、走査の第1の方向に直交し、互いにオフセットされている各列軸を有している。   Alternatively, the beam steering device is configured to scan at least two beams in a first direction in a linear scan over the scene of interest, wherein the at least two beams are in a second direction perpendicular to the first direction. Includes a plurality of beams arranged along a column axis. In one embodiment, the plurality of beams are arranged in at least two columns, with each column axis being orthogonal to the first direction of the scan and offset from one another.

本発明の実施形態によれば、光パルスの少なくとも1つのビームを放射することと、対象シーンにわたって、この少なくとも1つのビームを送信及び走査することを含む感知方法も提供される。感知素子のアレイが提供され、各感知素子は、感知素子への単一光子の入射時間を示す信号を出力するように構成されている。送信されたビームによって走査された対象シーンは、アレイ上に結像される。感知素子は、アレイの選択された領域内でのみ作動され、選択された領域は、少なくとも1つのビームの走査に同期してアレイにわたって掃引される。   According to an embodiment of the present invention, there is also provided a sensing method comprising emitting at least one beam of light pulses and transmitting and scanning the at least one beam over a scene of interest. An array of sensing elements is provided, wherein each sensing element is configured to output a signal indicative of a time of incidence of a single photon on the sensing element. The target scene scanned by the transmitted beam is imaged on the array. The sensing elements are activated only in selected areas of the array, and the selected areas are swept across the array in synchronization with the scanning of the at least one beam.

本発明は、下記の図面と併せて解釈される、以下の本発明の実施形態の詳細な説明からより完全に理解されよう。   The present invention will be more fully understood from the following detailed description of embodiments thereof, taken in conjunction with the following drawings.

本発明の一実施形態に係るライダシステムの概略図である。It is a schematic diagram of a lidar system concerning one embodiment of the present invention. 本発明の一実施形態に係るSPAD式感知装置を模式的に図示するブロック図である。1 is a block diagram schematically illustrating a SPAD-type sensing device according to an embodiment of the present invention. 本発明の一実施形態に係る、SPADアレイ内の感知素子の構成要素を示すブロック図である。FIG. 4 is a block diagram illustrating components of a sensing element in a SPAD array according to one embodiment of the present invention. 本発明の実施形態に係る、走査される感度領域を有するSPADアレイを模式的に図示するブロック図である。FIG. 4 is a block diagram schematically illustrating a SPAD array having a scanned sensitivity region according to an embodiment of the present invention. 本発明の一実施形態に係る、走査される円形照明スポットを有する検出器アレイの概略図である。FIG. 2 is a schematic diagram of a detector array having a scanned circular illumination spot, according to one embodiment of the invention. 本発明の別の実施形態に係る、走査される円形照明スポットを有する検出器アレイの概略図である。FIG. 5 is a schematic diagram of a detector array having a scanned circular illumination spot, according to another embodiment of the present invention. 本発明の更に別の実施形態に係る、走査される楕円形照明スポットを有する検出器アレイの概略図である。FIG. 5 is a schematic diagram of a detector array having a scanned elliptical illumination spot according to yet another embodiment of the present invention. 本発明の更に別の実施形態に係る、走査される楕円形照明スポットを有する検出器アレイの概略図である。FIG. 5 is a schematic diagram of a detector array having a scanned elliptical illumination spot according to yet another embodiment of the present invention. 本発明の更に別の実施形態に係る、走査される楕円形照明スポットを有する検出器アレイの概略図である。FIG. 5 is a schematic diagram of a detector array having a scanned elliptical illumination spot according to yet another embodiment of the present invention. 本発明の実施形態に係る、2次元ラスタ走査で走査される2つの円形照明スポットを有する検出器アレイの概略図である。FIG. 3 is a schematic diagram of a detector array having two circular illumination spots scanned in a two-dimensional raster scan according to an embodiment of the present invention. 本発明の実施形態に係る、1次元走査で走査される照明スポットの千鳥状アレイを有する検出器アレイの概略図である。1 is a schematic diagram of a detector array having a staggered array of illumination spots scanned in a one-dimensional scan, according to an embodiment of the present invention. 本発明の一実施形態に係る1次元走査を実施するライダ装置の概略図である。FIG. 1 is a schematic diagram of a lidar device that performs one-dimensional scanning according to an embodiment of the present invention. 本発明の別の実施形態に係る、1次元走査を実施するライダ装置の概略図である。FIG. 4 is a schematic diagram of a lidar device that performs one-dimensional scanning according to another embodiment of the present invention. 本発明の実施形態に係る、発光パワーが調整可能なレーザ光源を用いたライダ装置の概略図である。1 is a schematic diagram of a lidar device using a laser light source whose emission power is adjustable according to an embodiment of the present invention. 本発明の実施形態に係る、発光パワーの異なる2つのレーザ光源を用いたライダ装置の概略図である。FIG. 2 is a schematic diagram of a lidar device using two laser light sources having different emission powers according to the embodiment of the present invention.

概要
ライダを用いた対象シーン(対象シーン深さ)内の各点までの距離測定は、いくつかの環境、基本、及び製造の障害により、実用的な実施において品質が損なわれていることが多い。環境障害の一例は、典型的には1000W/m2の放射照度に達する、屋内外の用途の、周囲の太陽光などの相関のない背景光が存在することである。根本的な障害は、特に、対象シーンの反射率の低さ及び集光アパーチャの制限により、対象シーン表面からの反射の際の光信号によって引き起こされる損失、ならびに電子及び光子発射ノイズに関連する。これらの制限により、融通のきかないトレードオフ関係が生じることが多く、一般に、大きな光学アパーチャ、高い光パワー、狭い視野(FoV)、嵩高な機械的構成、低いフレームレート、及び制御された環境で動作するセンサの制限を伴う解決法に頼ることを設計者に押しつける。
Overview Measuring distances to points in a target scene (target scene depth) using lidar often impairs quality in practical implementation due to several environmental, basic, and manufacturing obstacles. . One example of environmental hazards typically reach irradiance 1000W / m 2, the indoor and outdoor applications, is that there is uncorrelated background light such as ambient sunlight. Fundamental obstacles are associated with losses caused by optical signals upon reflection from the target scene surface, as well as electron and photon emission noise, particularly due to the low reflectivity of the target scene and the limitation of the collection aperture. These limitations often result in inflexible trade-offs, typically with large optical apertures, high optical power, narrow field of view (FoV), bulky mechanical configurations, low frame rates, and controlled environments. Forces designers to rely on solutions that limit the working sensors.

本明細書で説明される本発明の実施形態は、上述の制限を解決することで、コンパクトで低コストのライダにより、制御されていない環境で動作可能な正確で高解像度の深さ撮像を実現することを可能にする。開示される実施形態は、ビームを放射する1つ以上のパルスレーザ源を使用して、放射されたビーム軸と対象シーンとの交点で、放射照度の高い照明スポットを生成する。ビーム、ひいては照明スポットは、対象シーンをわたって走査される。対象シーンから反射された照明は、高信号対ノイズ比のための飛行時間単一光子検出器アレイ上に集光光学系によって結像され、飛行時間単一光子検出器アレイによって検出され、対象シーンの各点までの距離がこの飛行時間データから導出される。   Embodiments of the invention described herein overcome the above limitations to provide accurate, high-resolution depth imaging that can operate in an uncontrolled environment with a compact, low-cost lidar. To be able to The disclosed embodiments use one or more pulsed laser sources that emit a beam to create a highly irradiating illumination spot at the intersection of the emitted beam axis and the scene of interest. The beam, and thus the illumination spot, is scanned across the scene of interest. Illumination reflected from the target scene is imaged by focusing optics on a time-of-flight single-photon detector array for a high signal-to-noise ratio, detected by the time-of-flight single-photon detector array, and Are derived from the time-of-flight data.

検出器アレイ上に対象シーンを結像することにより、当分野で既知の幾何学的光学によって画定された、対象シーン内の位置と検出器アレイ上の位置との間で1対1の対応が生成される。こうして、対象シーンの区域が検出器上の対応する画像区域上に結像され、画像中の直線状の長さは、対象シーンの区域内の対応する長さに、光学倍率M(ライダシステムについては典型的にはM<<1)を乗じることによって得られる。同様に、検出器アレイの感知素子は、拡大率1/Mで対象シーン上に結像されたものと考えることができるので、感知素子より「見える」対象シーンの位置及び区域が与えられる。   By imaging the object scene on the detector array, a one-to-one correspondence between positions in the object scene and positions on the detector array defined by geometric optics known in the art. Generated. Thus, an area of the target scene is imaged on the corresponding image area on the detector, and the linear length in the image is set to the corresponding length in the area of the target scene by the optical magnification M (for the lidar system). Is typically obtained by multiplying by M << 1). Similarly, the sensing elements of the detector array can be considered to have been imaged onto the target scene at a magnification factor of 1 / M, thus providing the location and area of the target scene that is "visible" to the sensing elements.

開示される実施形態では、検出器アレイは、単一光子アバランシェダイオード(SPAD)などの単一光子時間依存性(time-sensitive)感知素子の2次元アレイを含む。専用の制御回路を介して個別に各SPADに対処することで、各SPADのオン/オフ状態を含む感度が、その特定の逆pn接合高電圧によって制御される。一部の実施形態では、SPADは個々の感知素子として作用するが、他の実施形態では、いくつかのSPADがスーパーピクセルにグループ化される。走査中の任意の瞬間に、走査されるビームから反射される照明を受け取るように構成されたアレイの区域(単数又は複数)内の感知素子のみが作動される。このように感知素子は、それらの信号が有用な情報を提供する場合にのみ作動される。この手法は、信号対バックグラウンド比を低下させる背景信号を低減するとともに、検出器アレイの電力ニーズを低下させる。   In the disclosed embodiment, the detector array includes a two-dimensional array of single-photon time-sensitive sensing elements, such as a single-photon avalanche diode (SPAD). By addressing each SPAD individually via a dedicated control circuit, the sensitivity, including the on / off state of each SPAD, is controlled by its particular reverse pn junction high voltage. In some embodiments, SPADs act as individual sensing elements, while in other embodiments, some SPADs are grouped into superpixels. At any instant during the scan, only the sensing elements in the area (s) of the array configured to receive illumination reflected from the scanned beam are activated. In this way, the sensing elements are activated only if their signals provide useful information. This approach reduces the background signal, which lowers the signal-to-background ratio, and reduces the power needs of the detector array.

ライダは、有限平均化区域を各点に関連付けた離散点のセットについて対象シーンまでの距離を測定する。開示される実施形態では、測定パラメータ、ならびに感知素子の作動は、ライダの以下のシステムパラメータの影響を受ける。
1)照明スポットサイズ、
2)ビームステアリング装置の解像度(ステップの大きさ又は連続する距離測定間のビームステアリング装置の偏位)、
3)検出器アレイのスーパーピクセルのサイズ、すなわち、ToF測定において一緒にビニングされた感知素子の数(スーパーピクセルとして1つの感知素子が使用される場合を含む)。
The lidar measures the distance to the scene of interest for a set of discrete points that associate a finite averaged area with each point. In the disclosed embodiments, the measurement parameters, as well as the operation of the sensing elements, are affected by the following system parameters of the lidar.
1) lighting spot size,
2) resolution of the beam steering device (step size or deviation of the beam steering device between successive distance measurements);
3) The size of the superpixel in the detector array, i.e., the number of sensing elements binned together in the ToF measurement (including when one sensing element is used as a superpixel).

ライダシステムパラメータの効果は、2つの場合に分類することができる。
a)照明スポットがスーパーピクセルのサイズよりも小さい、小スポットの場合。
b)照明スポットがスーパーピクセルのサイズより大きい、大スポットの場合。
The effects of lidar system parameters can be classified into two cases.
a) Small spot where the illumination spot is smaller than the size of the superpixel.
b) Large spot where the illumination spot is larger than the size of the superpixel.

サイズ比較は、(対象シーン内又は検出器アレイ上のいずれかの)同じ光学平面内の照明スポットとスーパーピクセルの両方をながめることによって行われる。これら2つの場合を、以下のテーブルにまとめることができ、この場合は、図のコンテキストでさらに詳述されている。   Size comparison is performed by looking at both the illumination spot and the superpixel in the same optical plane (either in the scene of interest or on the detector array). These two cases can be summarized in the following table, which is described in more detail in the context of the figure.

Figure 0006644892
Figure 0006644892

本発明の一部の実施形態では、対象シーンは、1つのレーザビーム又は複数のビームのいずれかによって照明され走査される。複数のビームを利用する一部の実施形態では、これらのビームは、回折光学素子、プリズム、ビームスプリッタ、又は当分野で既知の他の光学素子を用いてレーザビームを分割することによって生成される。他の実施形態では、いくつかの別個のレーザ光源を用いて複数のビームが生成される。これらの実施形態のうちの一部では、複数のビームは、VCSEL又はVECSELのアレイなどのモノリシックレーザアレイを用いて生成される。   In some embodiments of the invention, the target scene is illuminated and scanned by either a single laser beam or multiple beams. In some embodiments utilizing multiple beams, these beams are generated by splitting the laser beam using diffractive optics, prisms, beam splitters, or other optics known in the art. . In other embodiments, multiple beams are generated using several separate laser light sources. In some of these embodiments, the plurality of beams are generated using a monolithic laser array, such as an array of VCSELs or VECSELs.

一部の実施形態では、走査ミラーなどのビームステアリング装置は、2次元ラスタ走査で単一の光ビームにより対象シーンを走査するように動作する。(ラスタ走査は一般的に、走査点をある走査線から次の走査線に移行させる短い移動とともに、長い略直線状の前後走査、いわゆる走査線を含む)。本明細書では一例としてラスタパターンを説明し、同様の原理を実施する代替走査パターンは本発明の範囲内であると考えられる。単一の光ビームを用いる場合には、ラスタ走査の走査線に垂直な方向の走査解像度は、順次の走査線間の離隔距離により与えられる。順次の走査線間の離隔距離を減らすことで走査解像度を上げることができるが、この種類の解像度の増加は、シーンをカバーするのにより多くの数の走査線を必要とするので、フレームレートを減少させるという犠牲を伴うことになる。あるいは、1フレーム当たりの走査線数を変えない場合には、視野の縮小を犠牲にして解像度を上げることができる。機械的制約によって、これらの効果を相殺するようにミラーの走査速度を増加させることができる範囲が制限される。   In some embodiments, a beam steering device, such as a scanning mirror, operates to scan the target scene with a single light beam in a two-dimensional raster scan. (Raster scanning generally includes a long, substantially linear back-and-forth scan, a so-called scan line, with a short movement that moves the scan point from one scan line to the next.) A raster pattern is described herein by way of example, and alternative scanning patterns that implement similar principles are considered to be within the scope of the present invention. When a single light beam is used, the scanning resolution in the direction perpendicular to the scanning line of the raster scanning is given by the separation between successive scanning lines. Scan resolution can be increased by reducing the separation between successive scan lines, but this type of increased resolution requires a higher number of scan lines to cover the scene, thus reducing the frame rate. At the expense of reducing it. Alternatively, if the number of scanning lines per frame is not changed, the resolution can be increased at the expense of reducing the field of view. Mechanical constraints limit the extent to which the mirror scan speed can be increased to offset these effects.

一実施形態では、走査線方向に対して横方向に、ならびに走査線方向に広がった複数の光ビームを用いて走査線に垂直な方向の走査解像度を増加させる。走査線に沿った光ビームの離隔距離は、各光ビームを個々に特定すべく、各光ビームが検出器アレイ上の別個のスーパーピクセルを照明するように構成されている。ここでは、走査線密度ではなく、光ビームの横方向離隔距離により走査解像度が決定される。開示される実施形態は、感知素子のサイズを縮小せずに、横方向解像度を増加させることによって検出器アレイの小型化要件を緩和することができる。   In one embodiment, a plurality of light beams spread transversely to the scan line direction and in the scan line direction are used to increase scan resolution in a direction perpendicular to the scan line. The separation of the light beams along the scan line is configured such that each light beam illuminates a separate superpixel on the detector array to individually identify each light beam. Here, the scanning resolution is determined not by the scanning line density but by the horizontal separation distance of the light beam. The disclosed embodiments can reduce the miniaturization requirements of the detector array by increasing the lateral resolution without reducing the size of the sensing elements.

別の実施形態では、複数の照明スポットが、直線走査で対象シーンにわたって走査される。(このコンテキストにおける直線走査は、走査線が、光学的又は機械的な欠陥により直線から歪んでいる単一の方向に沿った走査を含む。)1次元直線走査を使用すると、2次元走査よりも単純で安価なビームステアリング装置の使用が可能になるが、十分に高い解像度で対象シーンをカバーする光ビーム数は一般的に、2次元走査に必要な光ビーム数よりも多くなる。単一列走査は、走査線に垂直な列で構成されており、一列の照明スポットを生成する複数の光ビームで実施することができる。列軸方向の最も高い走査解像度は、各照明スポットが検出器アレイ内の別個の感知素子上に結像されるときに、達成される。   In another embodiment, the plurality of illumination spots are scanned over the target scene in a linear scan. (Linear scanning in this context includes scanning along a single direction in which the scanning lines are distorted from the line due to optical or mechanical defects.) Using a one-dimensional linear scan is less than a two-dimensional scan. Although it is possible to use a simple and inexpensive beam steering device, the number of light beams covering a target scene with sufficiently high resolution is generally larger than the number of light beams required for two-dimensional scanning. A single-row scan is made up of rows that are perpendicular to the scan lines and can be implemented with multiple light beams that produce a row of illumination spots. The highest scanning resolution in the column direction is achieved when each illumination spot is imaged on a separate sensing element in the detector array.

直線走査を利用した別の実施形態では、走査線に垂直で、列軸方向に互いにオフセットされた複数列の照明スポットを生成することにより、走査線に垂直な走査解像度を増大させる。また、複数の列は、各照明スポットに別個の感知素子を照明させるように、少なくとも1つの感知素子分、走査線方向に互いにオフセットされるので、各照明スポットを別々に特定することができる。本実施形態は、感知素子のサイズを縮小せずに、横方向解像度を増大させることで、検出器アレイの小型化要件を緩和することができる。   In another embodiment utilizing linear scanning, the scanning resolution perpendicular to the scan line is increased by generating multiple rows of illumination spots perpendicular to the scan line and offset from each other in the column axis direction. Also, the plurality of columns are offset from each other in the scan line direction by at least one sensing element so that each illumination spot illuminates a separate sensing element, so that each illumination spot can be identified separately. This embodiment can reduce the size requirements of the detector array by increasing the lateral resolution without reducing the size of the sensing element.

本発明の一部の実施形態は、広角視野(FoV)を有し、広い深さ範囲をカバーするライダシステムを提供する。高効率で広いFoV光学系を実装すると、構成要素が嵩高で高価になるので、これらの実施形態では、簡単な光学設計及び構成を維持しながら広い範囲のFoV及び距離にわたってシーン深さを測定するためにレーザ光源、検出器アレイ、電子機器及びアルゴリズムついての専用設計ならびに使用態様を適用する。   Some embodiments of the present invention provide a lidar system having a wide field of view (FoV) and covering a large depth range. Implementing high efficiency, wide FoV optics makes the components bulky and expensive, so these embodiments measure scene depth over a wide range of FoVs and distances while maintaining simple optical design and configuration. To this end, special designs and usage modes for laser light sources, detector arrays, electronics and algorithms are applied.

レーザ光源に対して配慮すべきことは、発光パワーに関するものである。対象シーン走査のために低発光パワーのレーザ光源のみを使用する場合、対象シーンの遠点から検出器アレイによって受信される信号は、ロバストで正確な測定には弱すぎる。一方、遠方の対象シーン点を計測可能な高発光パワーのレーザ光源のみを使用する場合には、近傍の対象シーン点に対して、不必要に高い発光パワーをライダで使用することになり、ライダの消費電力を増加させる。したがって、本発明の一部の実施形態では、レーザ光源の発光パワーは測定された距離に応じて調整される。   A consideration for the laser light source concerns emission power. If only a low emission power laser light source is used for scanning the scene of interest, the signal received by the detector array from a distant point of the scene of interest is too weak for a robust and accurate measurement. On the other hand, if only a laser light source with a high light emission power capable of measuring a distant target scene point is used, an unnecessary high light emission power will be used by the rider for a nearby target scene point. Increase power consumption. Therefore, in some embodiments of the present invention, the emission power of the laser light source is adjusted according to the measured distance.

システムの説明
図1は、本発明の実施形態に係るライダシステム18を模式的に示す。1つ以上のパルスレーザを含むレーザ光源20からのビーム(単数又は複数)は、デュアル軸ビームステアリング装置24によって対象シーン22に向けられ、対象シーンにわたって照明スポット26が形成し走査する。(本明細書では、用語「光」は、可視、赤外及び紫外の範囲の放射を含む任意の種類の光放射を参照するのに使用される。)ビームステアリング装置は、例えば、走査ミラー、又は当分野で既知の任意の他の適切なタイプの光偏向器もしくはスキャナを備えることができる。照明スポット26は、集光光学系27によって、SPADなどの単一光子、時間依存性感知素子を含む2次元検出器アレイ28上に結像される。
Description of System FIG. 1 schematically shows a lidar system 18 according to an embodiment of the present invention. The beam (s) from the laser light source 20, including one or more pulsed lasers, are directed by the dual axis beam steering device 24 to the target scene 22, forming and scanning an illumination spot 26 over the target scene. (The term "light" is used herein to refer to any type of light radiation, including radiation in the visible, infrared, and ultraviolet ranges.) Beam steering devices include, for example, scanning mirrors, Or, any other suitable type of light deflector or scanner known in the art may be provided. The illumination spot 26 is imaged by a collection optics 27 onto a two-dimensional detector array 28 that includes a single photon, such as a SPAD, time-dependent sensing element.

また、対象シーン22は、照明スポット26の他に、太陽などの周囲光源36によって照明される。高い信号対バックグラウンド比を達成するために、照明スポットの放射照度は、例えば、太陽からの放射照度により1000W/m2まで到達し得る周囲照明よりもはるかに高くなるように選択される。検出器アレイ28への周囲照明を更に低減するために、帯域通過フィルタ37が用いられる。 The target scene 22 is illuminated by an ambient light source 36 such as the sun in addition to the illumination spot 26. In order to achieve a high signal-to-background ratio, the irradiance of the illumination spot is selected to be much higher than the ambient illumination, which can reach up to 1000 W / m 2 with irradiance from the sun, for example. To further reduce ambient illumination on the detector array 28, a bandpass filter 37 is used.

制御回路38は、レーザ光源20に接続されることで、パルス放射をタイミング制御し、それらの発光パワーを制御し、また、デュアル軸ビームステアリング装置24に接続されることで、照明スポット26の走査を制御する。また、制御回路38は、検出器アレイ28の各SPADの逆pn接合高電圧を動的に調整することにより、各SPADの作動及び感度を制御する。レーザ光源20からのパルスの既知のタイミングと、対象シーン22上の照明スポット26の位置を決定するデュアル軸ビームステアリング装置24の既知の状態とを利用して、制御回路38は、任意の瞬間に照明スポットが集光光学系27によって結像されるこれらのSPADのみを作動させる。さらにレーザ光源20及びビームステアリング装置24の上記知識、ならびに検出器アレイ28から読み出された信号を利用して、制御回路38は、レーザ光源から検出器アレイまでの測定された飛行時間を用いて、対象シーン22内の各走査点までの距離を決定する。   The control circuit 38 is connected to the laser light source 20 to control the timing of pulse emission, to control their emission power, and is connected to the dual-axis beam steering device 24 to scan the illumination spot 26. Control. Further, the control circuit 38 controls the operation and sensitivity of each SPAD by dynamically adjusting the reverse pn junction high voltage of each SPAD of the detector array 28. Using the known timing of the pulses from the laser light source 20 and the known state of the dual axis beam steering device 24 that determines the position of the illumination spot 26 on the scene of interest 22, the control circuit 38 Only those SPADs whose illumination spots are imaged by the focusing optics 27 are activated. Further, utilizing the above knowledge of the laser light source 20 and the beam steering device 24, and the signals read from the detector array 28, the control circuit 38 uses the measured time of flight from the laser light source to the detector array. , The distance to each scanning point in the target scene 22 is determined.

図2〜図4は、本発明の実施形態に係る検出器アレイ28のアーキテクチャ及び機能を模式的に図示している。これらの図面は、グローバル及びローカルのバイアス制御を組み合わせて用いて、アレイ内のSPAD式感知素子を選択して作動させるのに使用され得る1つの可能な方式を示している。あるいは、他の種類のバイアス及び作動方式、ならびに他の種類の単一光子感知素子が、これらの目的で使用されてもよい。   2 to 4 schematically illustrate the architecture and function of a detector array 28 according to an embodiment of the present invention. These figures illustrate one possible scheme that can be used to select and activate SPAD-type sensing elements in an array using a combination of global and local bias controls. Alternatively, other types of bias and actuation schemes, and other types of single photon sensing elements, may be used for these purposes.

図2は、本発明の一実施形態に係る検出器アレイ28を模式的に図示するブロック図である。検出器アレイ28は、感知素子44を含み、それぞれは、更に後述するように、SPADと、関連するバイアス回路及び処理回路と、を含んでいる。グローバル高圧バイアス発生器46は、アレイ28内のすべての感知素子44にグローバルバイアス電圧を印加する。また、各感知素子44内のローカルバイアス回路48は、感知素子のグローバルバイアスと加算する過剰バイアスを印加する。感知素子バイアス制御回路50は、ローカルバイアス回路48が印加する過剰バイアス電圧を、異なる感知素子でそれぞれの値に設定する。グローバル高圧バイアス発生器46と感知素子バイアス制御回路50の両方は制御回路38に接続されている(図1)。   FIG. 2 is a block diagram schematically illustrating the detector array 28 according to one embodiment of the present invention. Detector array 28 includes sensing elements 44, each including a SPAD and associated biasing and processing circuitry, as further described below. Global high voltage bias generator 46 applies a global bias voltage to all sensing elements 44 in array 28. Also, a local bias circuit 48 in each sensing element 44 applies an excess bias that adds to the global bias of the sensing element. The sensing element bias control circuit 50 sets the excess bias voltage applied by the local bias circuit 48 to different values for different sensing elements. Both global high voltage bias generator 46 and sensing element bias control circuit 50 are connected to control circuit 38 (FIG. 1).

図3は、本発明の一実施形態に係る、アレイ28内の感知素子44のうち1つの構成要素を示すブロック図である。開示される実施形態では、アレイ28は、第1の半導体チップ52上に形成された2次元マトリクスの感知素子を備え、第2の2次元マトリクスのバイアス制御回路及び処理回路が第2の半導体チップ54上に形成されている。(2つのマトリックスのうちそれぞれの単一素子のみを示す)チップ52、54は、2つのマトリックスが1対1対応で相互に結合されることによって、チップ52上の各感知素子は、チップ54上の対応するバイアス制御素子及び処理素子と接している。   FIG. 3 is a block diagram illustrating one component of the sensing element 44 in the array 28 according to one embodiment of the present invention. In the disclosed embodiment, the array 28 includes a two-dimensional matrix of sensing elements formed on the first semiconductor chip 52, and the second two-dimensional matrix of bias control and processing circuitry is on the second semiconductor chip. 54 are formed. Chips 52, 54 (showing only a single element of each of the two matrices) are such that each sensing element on chip 52 is on chip 54 by the two matrices being interconnected in a one-to-one correspondence. In contact with the corresponding bias control element and processing element.

チップ52、54はともに、本明細書に記載の付随するバイアス制御回路及び処理回路とともに、当分野で既知のSPADセンサ設計に基づいて、周知のCMOS作製プロセスを用いて、シリコンウェーハから製造することができる。あるいは、本明細書で説明される検出の設計及び原理は、他の材料及びプロセスを用いて、必要な変形を加えて実装してもよい。例えば、図3に示す構成要素の全てを単一チップ上に形成してもよいし、チップ間の構成要素の分布は異なってもよい。このような代替的な実施形態はすべて本発明の範囲内であると考えられる。   Both chips 52, 54 may be fabricated from silicon wafers using well-known CMOS fabrication processes, based on SPAD sensor designs known in the art, with the accompanying bias control and processing circuits described herein. Can be. Alternatively, the detection designs and principles described herein may be implemented using other materials and processes, mutatis mutandis. For example, all of the components shown in FIG. 3 may be formed on a single chip, or the distribution of components between chips may be different. All such alternative embodiments are considered to be within the scope of the present invention.

感知素子44はSPAD56を含み、それは当分野で既知のように、感光性pn接合を含んでいる。クエンチ回路58及びローカルバイアス回路48を含む周辺回路は典型的には、チップ54上に配置される。上述のように、SPAD56に印加される実バイアスは、バイアス発生器46(図2)が付与するグローバルバイアス電圧Vbiasとバイアス回路48が印加する過剰バイアスとの和である。感知素子バイアス制御回路50(図2)は、チップ54上のバイアスメモリ60内で対応するデジタル値を設定することにより、各感知素子に印加される過剰バイアスを設定する。 Sensing element 44 includes SPAD 56, which includes a photosensitive pn junction, as is known in the art. Peripheral circuits, including quench circuit 58 and local bias circuit 48, are typically located on chip 54. As described above, the actual bias applied to the SPAD 56 is the sum of the global bias voltage V bias applied by the bias generator 46 (FIG. 2) and the excess bias applied by the bias circuit 48. Sensing element bias control circuit 50 (FIG. 2) sets the excess bias applied to each sensing element by setting the corresponding digital value in bias memory 60 on chip 54.

捕捉されたそれぞれの光子に反応して、SPAD56はアバランシェパルスを出力し、それは、デジタル論理62と出力バッファ64として構成されたメモリとを含むチップ54上の処理回路によって受信される。これらの処理要素は、例えば、時間−デジタル変換器(TDC)として機能するように構成することができ、それは、基準時間に対するSPAD56による各パルス出力の遅延を測定し、その遅延に対応するデジタルデータ値を出力するものである。その代わりに、又はそれに加えて、論理62及びバッファ64は、(限定されないが)パルス遅延時間のヒストグラム、二値波形又は多値デジタル波形を含む、他の種類の値を測定し出力してもよい。チップ54からの出力は、制御回路38(図1)に接続される。   In response to each captured photon, SPAD 56 outputs an avalanche pulse, which is received by processing circuitry on chip 54 that includes digital logic 62 and memory configured as output buffer 64. These processing elements can be configured, for example, to function as a time-to-digital converter (TDC), which measures the delay of each pulse output by SPAD 56 with respect to a reference time and converts the digital data corresponding to that delay. Outputs the value. Alternatively or additionally, logic 62 and buffer 64 may measure and output other types of values, including (but not limited to) pulse delay histograms, binary or multi-level digital waveforms. Good. The output from chip 54 is connected to control circuit 38 (FIG. 1).

図4は、本発明の一実施形態に係る、感度の走査領域70を有するSPADアレイ28を模式的に図示するブロック図である。この場合、バイアス制御回路50は、領域70内の感知素子72のバイアス電圧を、残りの感知素子76よりも高い値に設定し、そのバイアス電圧は感知素子76がオフとなるように設定されている。しかし、バイアス制御回路50は、図中の矢印が図示するように、アレイにわたって領域70を掃引するように感知素子48のバイアス電圧を動的に調節する。回路50は、例えば、(以下の図面で示すように)アレイ28に結像される対象シーンにわたるレーザビームの走査に同期して、ラスタ走査で領域70を掃引することができる。   FIG. 4 is a block diagram schematically illustrating a SPAD array 28 having a sensitive scanning area 70 according to one embodiment of the present invention. In this case, the bias control circuit 50 sets the bias voltage of the sensing element 72 in the region 70 to a higher value than the remaining sensing elements 76, and the bias voltage is set so that the sensing element 76 is turned off. I have. However, the bias control circuit 50 dynamically adjusts the bias voltage of the sensing element 48 to sweep the region 70 across the array, as indicated by the arrows in the figure. The circuit 50 may sweep the region 70 with a raster scan, for example, in synchronization with the scanning of the laser beam over the scene of interest imaged on the array 28 (as shown in the figures below).

上記のように、本実施形態は、アレイ28の感応領域を照明光ビームの形状又は撮像される対象シーン内の関心区域の形状に適応させる際に有用であり、これによって、信号に寄与しないよう感知素子からのバックグラウンドノイズを低減しながら、電力消費に対するアレイ28の感度を最大化することができる。   As described above, this embodiment is useful in adapting the sensitive area of the array 28 to the shape of the illumination light beam or the shape of the area of interest in the imaged subject scene, so that it does not contribute to the signal. The sensitivity of the array 28 to power consumption can be maximized while reducing background noise from the sensing elements.

(例えば、図9に図示する)本発明の代替的な実施形態では、バイアス制御回路50は、領域70が直線形状を有し、その直線形状はアレイ28の1つ以上の列に沿って延在し、当該直線形状の照明ビーム又はビームのアレイに適合するようにローカルバイアス電圧を設定する。その後、回路50は、照明ビームに同期して、アレイ28にわたってこの直線領域70を掃引してもよい。あるいは、規則的な走査パターンと適応的な走査パターンの両方を含む他の走査パターンが実行されてもよい。   In an alternative embodiment of the present invention (eg, as shown in FIG. 9), bias control circuit 50 indicates that region 70 has a linear shape, which linear shape extends along one or more columns of array 28. In this case, the local bias voltage is set so as to match the linear illumination beam or the array of beams. Thereafter, circuit 50 may sweep this linear region 70 across array 28 in synchronization with the illumination beam. Alternatively, other scan patterns may be performed, including both regular and adaptive scan patterns.

例示の走査パターンとスーパーピクセル
図5は、本発明の実施形態に係る、走査される円形照明スポット26(図1)の画像をアレイ上に重ね合わせた検出器アレイ28を示す概略図である。集光光学系27により検出器アレイ28上に作られた照明スポット26の動画像は、観測される連続する3つの時点t=ti-1、t=ti、及びt=ti+1で観察される。この連続した3つの時点の走査された照明スポット26の画像はそれぞれ、円84、86及び88で表され、それらの直径は、本例では、感知素子44のピッチの2倍である。矢印90は、走査された照明スポット26の画像の走査方向を示し、走査された照明スポットの画像の予定位置は、ビームステアリング装置24の状態についての知識から決定される。
Exemplary Scanning Pattern and Superpixel FIG. 5 is a schematic diagram illustrating a detector array 28 with an image of the scanned circular illumination spot 26 (FIG. 1) superimposed on the array, according to an embodiment of the present invention. A moving image of the illuminated spot 26 created on the detector array 28 by the collection optics 27 comprises three consecutive observed instants t = t i−1 , t = t i , and t = t i + 1. Observed in. The images of the scanned illumination spot 26 at these three successive points in time are represented by circles 84, 86 and 88, respectively, whose diameter is twice the pitch of the sensing elements 44 in this example. Arrow 90 indicates the scanning direction of the scanned image of the illumination spot 26, and the expected position of the image of the scanned illumination spot is determined from knowledge of the state of the beam steering device 24.

各時点では、その時点における照明スポット26の画像の位置に最も適合するアレイ28の領域内の感知素子44が作動される。これらの作動された感知素子は「スーパーピクセル」としてみなすことができる。図5に示す実施形態では、各スーパーピクセルは2x2の感知素子のアレイを含むが、一部の実施形態では、スーパーピクセルのサイズは静的に、あるいは動的に他の値をとる。   At each point in time, the sensing element 44 in the area of the array 28 that best matches the position of the image of the illumination spot 26 at that point in time is activated. These actuated sensing elements can be considered as “superpixels”. In the embodiment shown in FIG. 5, each superpixel includes an array of 2 × 2 sensing elements, but in some embodiments, the size of the superpixel may take on other values, either statically or dynamically.

時刻t=ti-1では、スーパーピクセル92が作動され(円84を取り囲む)、時刻t=tiでは、スーパーピクセル94が作動され(円86)、そして、時刻t=ti+1では、スーパーピクセル96が起動される(円88)。このように、図示された実施形態では、各感知素子44は、隣接する2つのスーパーピクセルに関連付けられている。アクティブなスーパーピクセル内のこれらの感知素子のみが所与の瞬間に作動され、残りの感知素子はバイアス電圧をアバランシェ増倍が持続できないレベルまで低下させることでオフにされる。この動作は、照明スポットに相関しない対象シーンの背景照明への露光を低減しながら、走査された照明スポット26の画像から光信号を最大限に収集することによって、アレイ28の信号対バックグラウンド比を増加させる。本発明の一部の実施形態では、走査スポット26の画像によって照明されていない感知素子の出力は、標準的な論理ゲートを用いてマスクされる。 At time t = t i−1 , superpixel 92 is activated (circle circle 84), at time t = ti super pixel 94 is activated (circle 86), and at time t = t i + 1 , The super pixel 96 is activated (circle 88). Thus, in the illustrated embodiment, each sensing element 44 is associated with two adjacent superpixels. Only those sensing elements in the active superpixel are activated at a given moment and the remaining sensing elements are turned off by lowering the bias voltage to a level at which avalanche multiplication cannot be sustained. This operation increases the signal-to-background ratio of the array 28 by maximizing the collection of light signals from the scanned image of the illumination spot 26 while reducing exposure of the subject scene to background illumination that is not correlated to the illumination spot. Increase. In some embodiments of the present invention, the outputs of the sensing elements that are not illuminated by the image of scan spot 26 are masked using standard logic gates.

走査方向における対象シーン22の横方向解像度は、(走査速度及びレーザパルス繰返し率によって決定される)走査の離散的なステップサイズによって決定され、本実施形態では、感知素子44の1つのピッチである。対象シーンの距離が平均化される区域は、(おおよそ)スーパーピクセルの区域である。   The lateral resolution of the target scene 22 in the scanning direction is determined by the discrete step size of the scan (determined by the scan speed and the laser pulse repetition rate), and in this embodiment is one pitch of the sensing element 44. . The area where the distance of the target scene is averaged is (approximately) a superpixel area.

図6は、本発明の別の実施形態に係る、走査される円形照明スポット26(図1)の画像をアレイに重ね合わせた検出器アレイ28を示す概略図である。照明スポットの動画像が連続する3つの時点t=t1-i、t=ti、t=ti+1で観察される。走査される照明スポットの画像の直径と、連続する2つの時点の間の走査ステップの両方はともに、感知素子44のピッチの半分である。連続する3つの時点の走査される照明スポット26の画像はそれぞれ円100、102、104で表される。矢印105は走査方向を示し、ビームステアリング装置24の状態についての知識から判定された画像の予定位置が決定される。本実施形態では、単一の感知素子44のスーパーピクセルを使用し、スーパーピクセル106は、t=ti-1で作動され、またスーパーピクセル108は、t=ti及びt=t1+iの両方で作動される。走査方向における対象シーン22の画像の横方向解像度は感知素子44のピッチの半分であり、距離が平均化される対象シーンの区域は照明スポット26の区域である。 FIG. 6 is a schematic diagram illustrating a detector array 28 with an image of a scanned circular illumination spot 26 (FIG. 1) superimposed on the array, according to another embodiment of the present invention. A moving image of the illumination spot is observed at three successive time points t = t 1-i , t = t i , and t = t i + 1 . Both the diameter of the image of the illumination spot being scanned and the scanning step between two consecutive points in time are both half the pitch of the sensing element 44. The images of the scanned illumination spot 26 at three successive points in time are represented by circles 100, 102, 104, respectively. The arrow 105 indicates the scanning direction, and the expected position of the image determined from the knowledge of the state of the beam steering device 24 is determined. In this embodiment, a superpixel of a single sensing element 44 is used, superpixel 106 is activated at t = t i−1 , and superpixel 108 is t = t i and t = t 1 + i It is operated by both. The lateral resolution of the image of the target scene 22 in the scanning direction is half the pitch of the sensing elements 44, and the area of the target scene whose distance is averaged is the area of the illumination spot 26.

図7A〜Cは、本発明の更に別の実施形態に係る、走査される楕円状の照明スポット26(図1)の画像をアレイ上に重ね合わせた検出器アレイ28を示す概略図である。楕円状の照明スポットは、例えば、発光接合断面が高アスペクト比の矩形である端面発光レーザダイオードから得られる。本実施形態では、アスペクト比が3対1の楕円照明スポット26が図示されるが、他の実施形態では他のアスペクト比を使用することができる。検出器アレイ28上の照明スポット26の楕円状の画像のいわゆる速軸(長寸法)の程度は、感知素子44のピッチのほぼ6倍であり、遅軸(短寸法)の程度は、ピッチの2倍である。図7A〜Cは、図5〜図6と同様に、連続する3つの時点t=ti-1、t=ti、t=ti+1での照明スポット26の動画像を模式的に示す。検出器アレイ28上の各走査ステップは、感知素子44の1つのピッチである。本実施形態では、2x2の感知素子のスーパーピクセルが使用される。 7A-C are schematic diagrams illustrating a detector array 28 with an image of a scanned elliptical illumination spot 26 (FIG. 1) superimposed on the array, according to yet another embodiment of the present invention. The elliptical illumination spot is obtained, for example, from an edge emitting laser diode whose light emitting junction cross section is rectangular with a high aspect ratio. In this embodiment, an elliptical illumination spot 26 having an aspect ratio of 3 to 1 is shown, but other embodiments may use other aspect ratios. The so-called fast axis (long dimension) of the elliptical image of the illumination spot 26 on the detector array 28 is approximately six times the pitch of the sensing elements 44, and the slow axis (short dimension) is the magnitude of the pitch. It is twice. FIGS. 7A to 7C schematically show moving images of the illumination spot 26 at three consecutive time points t = t i−1 , t = t i , and t = t i + 1 , similarly to FIGS. Show. Each scanning step on the detector array 28 is one pitch of the sensing element 44. In this embodiment, a 2x2 sensing element superpixel is used.

図7Aは、時刻t=ti-1における走査された照明スポット26の画像である、照明スポット110を模式的に示している。この時刻で作動されるスーパーピクセルは、照明スポット110の予定位置に基づいて、ピクセル112、114、116となる(照明スポットの最遠上下端は信号にほとんど寄与しないので、無視される)。矢印118は走査方向を示しており、照明スポット110の予定位置はビームステアリング装置24の状態についての知識から決定される。 FIG. 7A schematically shows an illumination spot 110 which is an image of the scanned illumination spot 26 at time t = t i-1 . The superpixel activated at this time becomes pixels 112, 114, 116 based on the expected position of the illumination spot 110 (the farthest upper and lower edges of the illumination spot contribute little to the signal and are ignored). Arrow 118 indicates the scanning direction, and the expected position of illumination spot 110 is determined from knowledge of the state of beam steering device 24.

図7Bは、時刻t=tiにおける走査された照明スポット26の画像である、照明スポット120を模式的に示している。この時刻で作動されるスーパーピクセルは、照明スポット120の予定位置に基づいて、112、114、116、122となる。ここでは、4つのスーパーピクセルが作動されるのは、照明スポット120の有意部分(楕円の上端)は依然としてピクセル112内にあり、別の有意部分(楕円の下端)はピクセル122に入っているからである。スーパーピクセル112、114、116は、信号対ノイズ比を改善するために、継続して信号を収集する。図7Aのように、矢印118は走査方向を示し、t=tiにおける照明スポット120の予定位置はビームステアリング装置24の状態についての知識から決定される。 FIG. 7B schematically shows the illumination spot 120, which is an image of the scanned illumination spot 26 at the time t = t i . The superpixels activated at this time are 112, 114, 116, and 122 based on the expected position of the illumination spot 120. Here, four superpixels are activated because a significant portion of the illumination spot 120 (top of the ellipse) is still in pixel 112 and another significant portion (bottom of the ellipse) is in pixel 122. It is. The superpixels 112, 114, 116 continuously collect signals to improve the signal-to-noise ratio. As in FIG. 7A, arrow 118 indicates the scanning direction, and the expected position of illumination spot 120 at t = t i is determined from knowledge of the state of beam steering device 24.

図7Cは、時刻t=ti+1における走査された照明スポット26の画像である照明スポット124を模式的に示している。この時刻での作動されるスーパーピクセルは、照明スポット124の予定位置に基づいて、ここでは114、116、122となる。ここでは、3つのスーパーピクセルしか作動されず、ピクセル112(図7B)は照明スポット124のあらゆる有意部分によってもはや照明されなくなる。図7A〜Bのように、矢印118は走査方向を示し、t=ti+1における照明スポット124の予定位置はビームステアリング装置24の状態についての知識から決定される。図示された実施形態では、各スーパーピクセルは7つの走査ステップの間、照明スポット26の画像に露光され、それによって信号対ノイズ比が改善される。 FIG. 7C schematically shows an illumination spot 124 which is an image of the scanned illumination spot 26 at time t = t i + 1 . The activated superpixels at this time are 114, 116, 122 here based on the expected position of the illumination spot 124. Here, only three superpixels are activated and pixel 112 (FIG. 7B) is no longer illuminated by any significant portion of illumination spot 124. As in FIGS. 7A-B, arrow 118 indicates the scanning direction, and the expected position of illumination spot 124 at t = t i + 1 is determined from knowledge of the state of beam steering device 24. In the illustrated embodiment, each superpixel is exposed to the image of the illumination spot 26 during seven scanning steps, thereby improving the signal to noise ratio.

楕円状の照明スポットの長さがスーパーピクセルよりはるかに長いことにより、走査方向の解像度はスーパーピクセルのサイズによって決定される。スーパーピクセルのサイズは楕円照明スポットの速(長)軸に沿った長さの1/3であるので、走査線方向に得られる解像度は、楕円照明スポットのみで得られる解像度の3倍(数値では1/3)である。距離測定のための平均化区域が、スーパーピクセルの区域である。   Because the length of the elliptical illumination spot is much longer than the superpixel, the resolution in the scanning direction is determined by the size of the superpixel. Since the size of the superpixel is one third of the length of the elliptical illumination spot along the speed (long) axis, the resolution obtained in the scanning line direction is three times the resolution obtained only with the elliptical illumination spot (in numerical terms). 1/3). The averaging area for the distance measurement is the area of the superpixel.

図5〜図7では、理想的な形状(円形又は楕円)が、検出器アレイ28上の照明スポット26の画像の形状として用いられている。本発明の一実施形態では、制御回路38は、検出器アレイ上の照明スポット画像の実際の形状を計算(又は参照)し、この計算結果は、走査内の各点で始動するセンサ素子を選択する際に使用される。この計算は、ビームステアリング装置24の設計、その走査移動特性、ビームステアリング装置の正確な状態、及びレーザ光源20からのビームとビームステアリング装置との間の角度を考慮しているのは、それらが照明スポット26の画像の形状、移動方向、及び向きに影響を及ぼすからである。さらに、ライダ装置と対象シーン22との間の距離に対する画像の依存性を考慮する。この効果は、特に、ビームステアリング装置24と集光光学系27との間の離間距離に比べて短い対象シーン範囲に対して重要である。上記の計算は、所望の縦横角度分解能を達成しながら、作動した感知素子26と検出器アレイ44上の照明スポット28の画像とを最適に重ね合わせるために実行され、それによって信号対バックグラウンド指数及び信号対ノイズ指数を最適化することができる。   5 to 7, the ideal shape (circular or elliptical) is used as the shape of the image of the illumination spot 26 on the detector array 28. In one embodiment of the present invention, the control circuit 38 calculates (or references) the actual shape of the illuminated spot image on the detector array, the result of which selects the sensor elements that fire at each point in the scan. Used when doing. This calculation takes into account the design of the beam steering device 24, its scanning movement characteristics, the exact condition of the beam steering device, and the angle between the beam from the laser source 20 and the beam steering device, because This is because the shape, the moving direction, and the direction of the image of the illumination spot 26 are affected. Further, the dependence of the image on the distance between the rider device and the target scene 22 is considered. This effect is particularly important for a target scene range that is short compared to the separation distance between the beam steering device 24 and the condensing optical system 27. The above calculations are performed to optimally superimpose the activated sensing element 26 and the image of the illuminated spot 28 on the detector array 44 while achieving the desired vertical and horizontal angular resolution, thereby providing a signal to background index. And the signal-to-noise figure can be optimized.

図8は、本発明の実施形態に係るラスタ走査ライダの解像度を向上させる技法を示す概略図である。ビームステアリング装置24は、検出器アレイ28上の照明スポット26(図1)の画像を、検出器アレイの一列では下に及び次列では上にラスタ走査パターン130で走査する。1つの照明スポットしか使用されなかった場合、ラスタ走査の走査線に垂直な横方向解像度は、感知素子44のピッチとなるであろう。しかし、本実施形態では、横方向解像度は、走査される2つの照明スポット26を用いることで倍になり、検出器アレイ28上のその画像は、走査線に沿って感知素子44のピッチに等しい距離だけ、また走査線に対して横方向にこのピッチの半分だけ離れている。ビームステアリング装置24及びレーザ光源20の繰返し率は、連続する照明スポットがラスタ走査の走査線方向に感知素子44のピッチの半分のステップだけ離れるように構成されている。各スーパーピクセルは、1つの感知素子44を含んでいる。   FIG. 8 is a schematic diagram illustrating a technique for improving the resolution of a raster scan lidar according to an embodiment of the present invention. The beam steering device 24 scans the image of the illumination spot 26 (FIG. 1) on the detector array 28 with a raster scan pattern 130 down in one row of the detector array and up in the next row. If only one illumination spot was used, the lateral resolution perpendicular to the raster scan line would be the pitch of the sensing elements 44. However, in this embodiment, the lateral resolution is doubled by using two illuminated spots 26 that are scanned, and that image on detector array 28 is equal to the pitch of sensing elements 44 along the scan line. A distance and half the pitch laterally to the scan line. The repetition rate of the beam steering device 24 and the laser light source 20 is configured such that successive illumination spots are separated by half a step of the pitch of the sensing elements 44 in the scanning line direction of the raster scan. Each superpixel contains one sensing element 44.

図8は連続する2つの時点t=ti及びt=ti+1での2つの照明スポット26の画像を模式的に示す。時刻t=tiでは、照明スポットの画像は、スポット132とスポット134であり、スポット132はスーパーピクセル136内にあり、スポット134はスーパーピクセル138内にある。他のスーパーピクセルは全てオフにされている。時刻t=ti+1では、両スポットは、矢印140で示すように、スーパーピクセルの半分だけ下に、新たな位置142、144まで移動する。これらのスポットは依然としてt=tiのときと同じスーパーピクセル136及び138内にあるが、照明スポット142及び144の位置は、t=ti+1でのビームステアリング装置24の状態により決定される。2つのスポットが常に別個のスーパーピクセルに割り当てられていることにより、スポットは個別に識別可能であり、走査線に対して横方向のライダの解像度は、感知素子44のピッチではなく、その方向における2つの照明スポット26の画像の離間距離によって決定され、それによって、検出器アレイ28に対する小型化要求が緩和される。各照明スポット26によって測定される距離の平均化区域が、その照明スポットの区域である。 FIG. 8 schematically shows images of two illumination spots 26 at two successive times t = t i and t = t i + 1 . At time t = t i , the images of the illumination spots are spot 132 and spot 134, where spot 132 is within superpixel 136 and spot 134 is within superpixel 138. All other superpixels are turned off. At time t = t i + 1 , both spots move to new locations 142 and 144 by half a superpixel, as indicated by arrow 140. These spots are still within the same superpixels 136 and 138 as at t = t i , but the position of the illumination spots 142 and 144 is determined by the state of the beam steering device 24 at t = t i + 1. . Because the two spots are always assigned to separate superpixels, the spots are individually identifiable, and the resolution of the rider transverse to the scan line is not the pitch of the sensing elements 44 but in that direction. It is determined by the separation of the images of the two illumination spots 26, thereby alleviating the miniaturization demands on the detector array 28. The averaging area of the distance measured by each illumination spot 26 is the area of the illumination spot.

別の実施形態(図示せず)では、走査された照明スポット26の数が(図8と比較して)2個より多い数まで増加し、それらの照明スポットは、各照明スポットの画像が異なる感知素子44内に配置されるようにラスタ走査パターン130に沿って離れている。N個の照明スポット26の画像が全て検出器アレイ28の1つの列内にある実施形態では、ラスタ走査130に対して横方向の解像度は、感知素子44のピッチをN分割することにより与えられる。   In another embodiment (not shown), the number of scanned illumination spots 26 is increased to more than two (compared to FIG. 8), and the illumination spots differ in the image of each illumination spot. Along the raster scan pattern 130 to be located within the sensing element 44. In embodiments where the images of the N illumination spots 26 are all within one column of the detector array 28, the lateral resolution for the raster scan 130 is provided by dividing the pitch of the sensing elements 44 by N. .

直線走査パターン
図9〜図11は、本発明の実施形態に係る、直線走査に基づいたライダを示す概略図である。直線(1次元)走査は、2次元走査に必要とされるよりも潜在的に小さく、より安価でより信頼性の高いビームステアリング装置の設計を用いるので有利である。直線走査方向の解像度は、ビームステアリング装置の解像度によって決定される。直線走査方向に対して横方向に走査が行われないので、直線走査方向の解像度は、対象シーン22にわたって配列された複数の照明スポット26を用いて達成される。
Linear Scanning Pattern FIGS. 9-11 are schematic diagrams illustrating a rider based on linear scanning, according to an embodiment of the present invention. Linear (one-dimensional) scanning is potentially smaller than required for two-dimensional scanning, and is advantageous because it uses a less expensive and more reliable beam steering device design. The resolution in the linear scanning direction is determined by the resolution of the beam steering device. Since scanning is not performed in the horizontal direction with respect to the linear scanning direction, the resolution in the linear scanning direction is achieved by using a plurality of illumination spots 26 arranged over the target scene 22.

図9は、本発明の一実施形態に係る、検出器アレイ28上に結像された1次元走査を示す概略図である。円153がセンサアレイ28上の個々の照明スポットの画像の予定位置を表している、2つの千鳥列151、152を含む照明スポット26の画像のパターン150を用いることで、直線走査に垂直な方向のライダの解像度は感知素子44のピッチを超えて改善される。矢印154は走査方向を示す。   FIG. 9 is a schematic diagram illustrating a one-dimensional scan imaged on a detector array 28 according to one embodiment of the present invention. By using the pattern 150 of the image of the illumination spot 26 including the two staggered rows 151 and 152, where the circle 153 represents the expected position of the image of the individual illumination spot on the sensor array 28, the direction perpendicular to the linear scan is used. Is improved beyond the pitch of the sensing elements 44. Arrow 154 indicates the scanning direction.

パターン150の各列151及び152では、円153が示すように、各列軸に沿った照明スポット26の画像の間隔は、感知素子44のピッチに等しい。2つの列151及び152は、列軸線方向に感知素子44のピッチの半分だけ互いにオフセットされている。列151及び152は、2つの列を別個の感知素子に割り当てるように走査方向に1ピッチだけ離間している。一部の実施形態(図示せず)では、直線走査に対して横方向の解像度は、列軸線方向における互いのオフセットを小さくした2列より多い照明スポット26を用いることにより、更に改善される。これにより、例えば、感知素子44の1/4のピッチだけ互いにオフセットした4列を用いることにより、4分の1のピッチの解像度を実現することができる。   In each column 151 and 152 of the pattern 150, the spacing of the images of the illumination spots 26 along each column axis is equal to the pitch of the sensing elements 44, as indicated by the circle 153. The two rows 151 and 152 are offset from each other by half the pitch of the sensing elements 44 in the column axis direction. Rows 151 and 152 are separated by one pitch in the scan direction to assign the two rows to separate sensing elements. In some embodiments (not shown), the lateral resolution for linear scanning is further improved by using more than two rows of illumination spots 26 with a small offset from each other in the column axis direction. Thus, for example, by using four rows offset from each other by ピ ッ チ of the pitch of the sensing elements 44, a resolution of ピ ッ チ pitch can be realized.

図10は、本発明の一実施形態に係る1次元走査に基づいたライダ159を示す概略図である。単一のパルスレーザ光源160からのビームを回折光学素子(DOE)162で分割し、2つの千鳥列複数のビームにする。これらのビームは、単一軸ビームステアリング装置166によって対象シーン22に向けられ、それにわたって走査され、対象シーン22上に2つの千鳥列の照明スポット168を形成する。この照明スポットは、集光光学系27によって検出器アレイ28上に結像され、図9に示すようにパターン150で2つの千鳥状列151、152を形成する。   FIG. 10 is a schematic diagram illustrating a rider 159 based on one-dimensional scanning according to an embodiment of the present invention. A beam from a single pulsed laser light source 160 is split by a diffractive optical element (DOE) 162 to form two staggered beams. These beams are directed to and scanned over the target scene 22 by a single axis beam steering device 166 to form two staggered illumination spots 168 on the target scene 22. This illumination spot is imaged on the detector array 28 by the focusing optics 27, forming two staggered rows 151, 152 in a pattern 150 as shown in FIG.

パターン150の照明スポット26の画像を含む感知素子44のみを走査中に任意の瞬間に作動させ、残りの感知素子をオフにすることで、背景光の不要な統合化を防止し、高い信号対バックグラウンド比を実現することができる。図1と同様に、制御回路38は、レーザ光源160、ビームステアリング装置166、及び検出器アレイ28に接続され、それらの機能を制御し、飛行時間データを用いて対象シーン22までの距離を決定するために、データを収集する。   Only the sensing elements 44 containing the image of the illuminated spot 26 of the pattern 150 are activated at any moment during the scan and the remaining sensing elements are turned off, preventing unnecessary integration of the background light and increasing the signal A background ratio can be realized. As in FIG. 1, the control circuit 38 is connected to the laser light source 160, the beam steering device 166, and the detector array 28, controls their functions, and determines the distance to the target scene 22 using the time-of-flight data. To collect data in order to

図11は、本発明の別の実施形態に係る、1次元走査及び同軸光学アーキテクチャに基づいたライダ170を示す概略図である。単一のパルスレーザ光源160からのビームは、DOE162によって分割され、2つの千鳥状列の複数のビームになる。これらのビームは偏光ビームスプリッタ176を通過し、単軸ビームステアリング装置166によって対象シーン22に向けられ、それにわたって走査されることで、2つの千鳥列の照明スポット168を形成する。対象シーン22から反射された照明スポットは、ビームステアリング装置166、偏光ビームスプリッタ176、及び集光光学系27を通って検出器アレイ28上に結像され、図9に示すパターン150の2つの千鳥列151、152を形成する。   FIG. 11 is a schematic diagram illustrating a lidar 170 based on a one-dimensional scanning and coaxial optical architecture according to another embodiment of the present invention. The beam from a single pulsed laser source 160 is split by DOE 162 into two staggered beams. These beams pass through a polarizing beam splitter 176, are directed by a single-axis beam steering device 166 to the target scene 22, and are scanned over them to form two staggered illumination spots 168. The illumination spot reflected from the target scene 22 is imaged on the detector array 28 through the beam steering device 166, the polarization beam splitter 176, and the focusing optics 27, and the two staggered patterns 150 shown in FIG. Columns 151 and 152 are formed.

光伝送と収集の同軸アーキテクチャにより、検出器アレイ28上のパターン150は、走査に対して(ほぼ)静止している。したがって、走査方向に垂直な軸に沿った検出器アレイ上のセンサ素子44の列の数は、走査方向に沿ったセンサ素子の行の数よりもかなり小さくてもよい。図1と同様に、制御回路38は、レーザ光源160、ビームステアリング装置166、及び検出器アレイ28に接続され、それらの機能を制御し、飛行時間データを用いて対象シーン22までの距離を決定するためにデータを収集する。   Due to the coaxial optical transmission and collection architecture, the pattern 150 on the detector array 28 is (almost) stationary with respect to the scan. Thus, the number of columns of sensor elements 44 on the detector array along an axis perpendicular to the scanning direction may be significantly smaller than the number of rows of sensor elements along the scanning direction. As in FIG. 1, the control circuit 38 is connected to the laser light source 160, the beam steering device 166, and the detector array 28, controls their functions, and determines the distance to the target scene 22 using the time-of-flight data. Collect data to

図10及び図11に示すいずれの実施形態でも、走査方向に垂直な横方向解像度は、感知素子44のピッチの半分であり、走査に沿った解像度は、ビームステアリング装置166の走査速度とレーザ光源160のパルス繰返し率により決定される。照明スポット168の各々は、そのスポットの区域にわたって距離測定を平均化する。   10 and 11, the lateral resolution perpendicular to the scan direction is half the pitch of the sensing elements 44, and the resolution along the scan depends on the scanning speed of the beam steering device 166 and the laser light source. It is determined by a pulse repetition rate of 160. Each of the illumination spots 168 averages the distance measurements over the area of the spot.

本明細書では、パターン150内の列151及び152の垂直向きを一例として示し、同様の原理を実施する代替的な向きも本発明の範囲内であると考慮される。   The vertical orientation of columns 151 and 152 in pattern 150 is shown here by way of example, and alternative orientations that implement similar principles are also considered to be within the scope of the invention.

マルチレンジ感知
図12〜図13は、本発明の実施形態に係る、対象シーンの遠距離及び近距離に適応するライダを示す概略図である。
Multi-Range Sensing FIGS. 12-13 are schematic diagrams illustrating riders that adapt to long and short distances of a target scene, according to embodiments of the present invention.

図12は、本発明の実施形態に係る遠近両方の対象シーン点までの距離を測定するのに適合するライダ199を示す概略図である。パルスレーザ光源200のビームは、デュアル軸ビームステアリング装置24によって対象シーン22に向けられ、対象シーン上に照明スポット206を形成し、対象シーンにわたってスポットを走査する。照明スポット206が集光光学系27によって検出器アレイ28上に結像される。制御回路38は、レーザ光源200、ビームステアリング装置24及び検出器アレイ28に接続されている。   FIG. 12 is a schematic diagram illustrating a rider 199 adapted to measure distance to both near and far target scene points according to an embodiment of the present invention. The beam of the pulsed laser light source 200 is directed by the dual axis beam steering device 24 to the target scene 22, forming an illumination spot 206 on the target scene and scanning the spot over the target scene. An illumination spot 206 is imaged by the collection optics 27 on the detector array 28. The control circuit 38 is connected to the laser light source 200, the beam steering device 24, and the detector array 28.

レーザ光源200は、制御回路38からの信号制御下で、低発光パワー及び高発光パワーの2つのパワーレベルで発光する能力を有する。付随して、検出器アレイ28の感知素子44(図2参照)は、2つの別個のモード、すなわち近距離モードと遠距離モードで動作する能力を有する。特定の感知素子の所与の動作モードに対して、制御回路38はそのタイミング及び感度、ならびに、そのモードでの最適な性能のための信号処理アルゴリズムを調整する。典型的には、短距離モードでは、感知素子44は比較的低い感度(結果としてノイズも低くなる)にバイアスされ、短い飛行時間を感知するようにゲートされる。長距離モードでは、感知素子44が比較的高い感度にバイアスされ、より長い飛行時間を感知するようにゲートされるので、近距離反射のスプリアス検出の可能性が低減される。   The laser light source 200 has the ability to emit light at two power levels, low emission power and high emission power, under signal control from the control circuit 38. Accordingly, the sensing elements 44 of the detector array 28 (see FIG. 2) have the ability to operate in two distinct modes, a short-range mode and a long-range mode. For a given mode of operation of a particular sensing element, the control circuit 38 adjusts its timing and sensitivity, as well as signal processing algorithms for optimal performance in that mode. Typically, in the short range mode, the sensing element 44 is biased to a relatively low sensitivity (resulting in low noise) and gated to sense a short flight time. In long-range mode, the likelihood of short-range reflection spurious detection is reduced because the sensing element 44 is biased to a relatively high sensitivity and gated to sense longer flight times.

対象シーン22の各区域に必要な動作モードを決定するために、まず、近距離検出に適した低発光パワーレベルでレーザ光源200を用いて、その区域を走査する。レーザ光源200からの光を受光する検出器アレイ28内の感知素子44は、そのタイミング、感度、及び近距離測定のために設定された関連する信号処理アルゴリズムで作動される。   In order to determine an operation mode required for each area of the target scene 22, the area is first scanned using the laser light source 200 at a low emission power level suitable for short-range detection. The sensing elements 44 in the detector array 28 that receive light from the laser light source 200 are operated with their timing, sensitivity, and associated signal processing algorithms set for short-range measurements.

この短距離走査に続いて、制御回路38は、所定の基準に基づいて、この短距離、低電力走査により、十分にロバストな距離測定が得られなかった区域でのみ、ライダ199を制御して長距離走査を実行する。遠距離走査では、これらの区域からの反射光を受光するように作動される感知素子44のタイミング、感度、アルゴリズムを適宜変更して、高発光パワーレベルの光源200を用いて、これらの領域の測定を繰り返す。   Subsequent to the short distance scan, the control circuit 38 controls the rider 199 based on a predetermined criterion only in an area where a sufficiently robust distance measurement cannot be obtained by the short distance and low power scan. Perform long distance scanning. In long-distance scanning, the timing, sensitivity, and algorithm of the sensing elements 44, which are activated to receive reflected light from these areas, are modified as appropriate to use light sources 200 with high emission power levels to scan these areas. Repeat the measurement.

図13は、本発明の別の実施形態に係る、遠近両方の対象シーン点までの距離を測定するのに適合したライダ210を示す概略図である。2つのパルスレーザ光源218及び220のビームは、デュアル軸ビームステアリング装置24によって対象シーン22に向けられ、対象シーン22上に照明スポット226を形成し、対象シーン22にわたって照明スポットを走査する。(図13では、2つの別個の光源を示すために、レーザ光源218とレーザ光源220との間の離間距離は誇張されている)。以下に詳述するように、レーザ光源のうちの1つだけが所与のある時刻に発光している。照明スポット226は集光光学系27によって検出器アレイ28上に結像される。制御回路38は、レーザ光源218、220、ビームステアリング装置24、及び検出器アレイ28に接続されている。   FIG. 13 is a schematic diagram illustrating a rider 210 adapted to measure distances to both near and far target scene points according to another embodiment of the present invention. The beams of the two pulsed laser light sources 218 and 220 are directed by the dual axis beam steering device 24 to the target scene 22 to form an illumination spot 226 on the target scene 22 and scan the illumination spot across the target scene 22. (In FIG. 13, the separation between laser light source 218 and laser light source 220 is exaggerated to show two separate light sources.) As described in detail below, only one of the laser light sources is emitting light at a given time. The illumination spot 226 is imaged on the detector array 28 by the focusing optics 27. The control circuit 38 is connected to the laser light sources 218 and 220, the beam steering device 24, and the detector array 28.

各レーザ光源218、220は、起動されると、低発光パワーレベルで発光するレーザ光源218と、高発光パワーレベルで発光するレーザ光源220を用いて、特定の発光パワーレベルで発光する。制御回路38は、図12に参照して上記に説明した種類の基準に基づいた走査において各点でいずれのレーザ光源を作動すべきかを選択する。同様に、検出器アレイ28の感知素子44(図2参照)は、2つの別個のモード、すなわち、近距離モードと遠距離モードで動作する能力を有する。特定の感知素子44の所与の動作モードに対して、制御回路38は、そのタイミング及び感度、ならびにそのモードでの最適な性能のための信号処理アルゴリズムを調整する。   When activated, each of the laser light sources 218 and 220 emits light at a specific light emission power level using the laser light source 218 that emits light at a low light emission power level and the laser light source 220 that emits light at a high light emission power level. The control circuit 38 selects which laser light source to activate at each point in a scan based on the type of criteria described above with reference to FIG. Similarly, the sensing elements 44 of the detector array 28 (see FIG. 2) have the ability to operate in two distinct modes, short-range mode and long-range mode. For a given mode of operation of a particular sensing element 44, the control circuit 38 adjusts its timing and sensitivity, as well as signal processing algorithms for optimal performance in that mode.

対象シーン22の所与の区域において必要な動作モードを決定するために、まず低発光パワーのレーザ光源218を用いて、その区域を走査する。レーザ光源44からの光を受光する検出器アレイ28内のこれらの感知素子218は、近距離測定のために設定されたタイミング、感度、及び関連する信号処理アルゴリズムで作動される。先行する実施形態のように、制御回路38は、レーザ光源218を用いて所与の区域に対して、十分にロバストな距離測定を行うことができないと判定した場合には、レーザ光源220からの光を受光するように作動する感知素子44のタイミング、感度、アルゴリズムを適宜変更して、レーザ光源220を用いて、より高い発光パワーのレーザで、その区域に対する測定を繰り返す。   In order to determine the required mode of operation in a given area of the subject scene 22, the area is first scanned using a laser source 218 with low emission power. These sensing elements 218 in the detector array 28 that receive light from the laser light source 44 are operated with the timing, sensitivity, and associated signal processing algorithms set for short range measurements. As in the previous embodiment, if the control circuit 38 determines that a sufficiently robust distance measurement cannot be made for a given area using the laser light source 218, the control circuit 38 The timing, sensitivity, and algorithm of the sensing element 44, which operates to receive light, are changed as appropriate, and the laser light source 220 is used to repeat the measurement for that area with a laser of higher emission power.

上述の実施形態は例として挙げられており、本発明は、以上に具体的に図示され説明されたものに限定されないことが理解されるであろう。むしろ、本発明の範囲は、以上に説明した様々な特徴の組み合わせ及び部分的組み合わせの両方、ならびに当業者であれば前述の説明を読むことによって想到するであろう従来技術に開示されていないそれらの変型及び修正を含む。   It will be understood that the above-described embodiments have been given by way of example and that the invention is not limited to what has been particularly shown and described above. Rather, the scope of the present invention covers both combinations and subcombinations of the various features described above, as well as those not disclosed in the prior art, as would be apparent to one of skill in the art upon reading the foregoing description. Includes variants and corrections.

Claims (20)

光パルスの少なくとも1つのビームを放射するように構成されたレーザ光源と、
対象シーンをわたって前記少なくとも1つのビームを送信及び走査するように構成されたビームステアリング装置と、
各感知素子が前記感知素子への単一光子の入射時間を示す信号を出力するように構成された感知素子のアレイと、
前記送信されたビームによって走査された前記対象シーンを前記アレイ上に結像するように構成された集光光学系であって、
前記ビームステアリング装置は、前記感知素子のピッチよりも小さいスポットサイズ及び走査解像度で、前記対象シーンをわたって前記少なくとも1つのビームを走査する、集光光学系と、
前記アレイの選択された領域内のみの前記感知素子を作動させ、前記少なくとも1つのビームの走査に同期して、前記アレイの上の前記選択された領域を掃引するように結合された回路と、を備える電気光学装置。
A laser light source configured to emit at least one beam of light pulses;
A beam steering device configured to transmit and scan the at least one beam across a subject scene;
An array of sensing elements, each sensing element configured to output a signal indicative of a time of incidence of a single photon on the sensing element;
A focusing optics configured to image the target scene scanned by the transmitted beam on the array,
A condensing optical system that scans the at least one beam across the target scene with a spot size and a scanning resolution smaller than the pitch of the sensing elements;
A circuit coupled to activate the sensing elements only in selected areas of the array and to sweep the selected areas on the array in synchronization with scanning of the at least one beam; An electro-optical device comprising:
前記回路は、前記走査中の任意の瞬間に、前記選択された領域が、前記集光光学系が前記少なくとも1つのビームによって照明された前記対象シーンの区域を結像する前記アレイの一部を含むよう前記領域を選択するように構成されている、請求項1に記載の装置。   The circuit may include, at any instant during the scan, the selected area forming a portion of the array in which the collection optics image an area of the target scene illuminated by the at least one beam. The device of claim 1, wherein the device is configured to select the region to include. 前記選択された領域は1つの感知素子を含む、請求項2に記載の装置。   3. The apparatus of claim 2, wherein said selected area includes one sensing element. 前記選択された領域は複数の感知素子を含む、請求項2に記載の装置。   The apparatus of claim 2, wherein the selected area includes a plurality of sensing elements. 前記回路は、前記対象シーン内の各点までのそれぞれの距離を決定するために前記感知素子によって出力された信号を処理するように構成されている、請求項1に記載の装置。   The apparatus of claim 1, wherein the circuit is configured to process a signal output by the sensing element to determine a respective distance to each point in the scene of interest. 前記感知素子は単一光子検出器を含む、請求項1から5のいずれか一項に記載の装置。   The apparatus according to claim 1, wherein the sensing element comprises a single photon detector. 前記単一光子検出器は単一光子アバランシェダイオード(SPAD)である、請求項6に記載の装置。   The apparatus according to claim 6, wherein the single photon detector is a single photon avalanche diode (SPAD). 前記レーザ光源は、異なる各ビーム軸に沿って少なくとも2つのビームを放射することで、前記走査中の任意の瞬間に、前記集光光学系が前記少なくとも2つのビームによって照明された前記対象シーンのそれぞれの区域を、前記感知素子のうち異なるそれぞれに結像するように構成されている、請求項1から5のいずれか一項に記載の装置。   The laser light source emits at least two beams along each different beam axis, so that at any instant during the scan, the collection optics of the target scene is illuminated by the at least two beams. Apparatus according to any of the preceding claims, wherein each area is configured to image a different one of the sensing elements. 前記ビームステアリング装置は、2次元走査で前記対象シーンにわたって前記少なくとも2つのビームを走査するように構成されており、前記回路は、前記2次元走査に対応する2次元パターンで前記アレイの上の前記選択された領域を掃引するように構成されている、請求項8に記載の装置。   The beam steering device is configured to scan the at least two beams over the scene of interest in a two-dimensional scan, and wherein the circuit is configured to scan the beam on the array in a two-dimensional pattern corresponding to the two-dimensional scan. The apparatus of claim 8, wherein the apparatus is configured to sweep a selected area. 前記2次元走査はラスタパターンを形成し、前記少なくとも2つのビームの前記各ビーム軸が前記ラスタパターンの走査線方向に対して互いに横方向にオフセットされている、請求項9に記載の装置。   The apparatus of claim 9, wherein the two-dimensional scan forms a raster pattern, wherein the respective beam axes of the at least two beams are offset laterally from each other with respect to a scan line direction of the raster pattern. 前記ビームステアリング装置は第1の方向に直線走査で前記対象シーンにわたって前記少なくとも2つのビームを走査するように構成されており、前記少なくとも2つのビームは前記第1の方向に垂直な第2の方向に列軸に沿って配列される複数のビームを含む、請求項8に記載の装置。   The beam steering device is configured to scan the at least two beams over the subject scene in a linear scan in a first direction, the at least two beams being in a second direction perpendicular to the first direction. 9. The apparatus of claim 8, comprising a plurality of beams arranged along a column axis. 前記複数のビームは、少なくとも2つの列に配列され、各列軸は前記第1の方向の前記走査に直交し、互いにオフセットしている、請求項11に記載の装置。   The apparatus of claim 11, wherein the plurality of beams are arranged in at least two rows, each row axis being orthogonal to the scan in the first direction and offset from one another. 光パルスの少なくとも1つのビームを放射することと、
対象シーンをわたって前記少なくとも1つのビームを送信及び走査することと、
各感知素子が前記感知素子への単一光子の入射時間を示す信号を出力するように構成された前記感知素子のアレイを提供することと、
前記送信されたビームによって走査された前記対象シーンを前記アレイに結像することであって、
前記少なくとも1つのビームは、前記感知素子のピッチよりも小さいスポットサイズ及び走査解像度で、前記対象シーンにわたって走査される、ことと、
前記アレイの選択された領域内でのみ前記感知素子を作動させ、前記少なくとも1つのビームの走査に同期して、前記アレイの上の前記選択された領域を掃引することと、を含む感知方法。
Emitting at least one beam of light pulses;
Transmitting and scanning the at least one beam across a scene of interest;
Providing an array of the sensing elements, each sensing element configured to output a signal indicative of a time of incidence of a single photon on the sensing element;
Imaging the object scene scanned by the transmitted beam onto the array,
The at least one beam is scanned over the target scene with a spot size and a scanning resolution less than the pitch of the sensing elements;
Actuating the sensing element only within a selected area of the array, and sweeping the selected area on the array in synchronization with scanning of the at least one beam.
前記感知素子を作動させることは、前記走査中の任意の瞬間に、前記選択された領域が、集光光学系が前記少なくとも1つのビームによって照明される前記対象シーンの区域を結像する前記アレイの一部を含むよう前記領域を選択することを含む、請求項13に記載の方法。   Activating the sensing element may comprise, at any instant during the scan, the selected area imaging an area of the target scene where collection optics is illuminated by the at least one beam. 14. The method of claim 13, comprising selecting the region to include a portion of the region. 前記対象シーン内の各点までのそれぞれの距離を決定するために、前記感知素子によって出力された信号を処理することを含む、請求項13に記載の方法。   14. The method of claim 13, comprising processing a signal output by the sensing element to determine a respective distance to each point in the subject scene. 前記感知素子が単一光子検出器を含む、請求項13に記載の方法。   14. The method of claim 13, wherein said sensing element comprises a single photon detector. 少なくとも1つのビームを放射することは、異なる各ビーム軸に沿って少なくとも2つのビームを放射することで、前記走査中の任意の瞬間に、集光光学系が、前記少なくとも2つのビームによって照明された前記対象シーンのそれぞれの区域を、前記感知素子の異なるそれぞれに結像する、請求項13、14、16のうちのいずれか一項に記載の方法。 Emitting at least one beam includes emitting at least two beams along each different beam axis such that at any instant during the scan, a collection optic is illuminated by the at least two beams. wherein each of the areas of the scene are imaged on different respective of said sensing element, according to claim 13, 14, 16 the method according to any one of the. 前記少なくとも1つのビームを走査することは、2次元走査で前記対象シーンにわたって前記少なくとも2つのビームを走査することを含み、前記感知素子を作動させることは、前記2次元走査に対応する2次元パターンで前記アレイの上の前記選択された領域を掃引することを含む、請求項17に記載の方法。   Scanning the at least one beam comprises scanning the at least two beams over the object scene in a two-dimensional scan, and activating the sensing element comprises a two-dimensional pattern corresponding to the two-dimensional scan 18. The method of claim 17, comprising sweeping the selected area over the array at. 前記2次元走査がラスタパターンを形成し、前記少なくとも2つのビームの前記各ビーム軸が前記ラスタパターンの走査線方向に対して横方向に互いにオフセットされている、請求項18に記載の方法。   19. The method of claim 18, wherein the two-dimensional scan forms a raster pattern, and wherein each of the beam axes of the at least two beams are offset from one another in a direction transverse to a scan line direction of the raster pattern. 前記少なくとも1つのビームを走査することは、第1の方向に直線走査で前記対象シーンにわたって前記少なくとも2つのビームを走査することを含み、前記少なくとも2つのビームは、前記第1の方向に垂直な第2の方向に列軸に沿って配列された複数のビームを含む、請求項17に記載の方法。   Scanning the at least one beam includes scanning the at least two beams over the subject scene in a linear scan in a first direction, the at least two beams being perpendicular to the first direction. 18. The method of claim 17, comprising a plurality of beams arranged along a column axis in a second direction.
JP2018530709A 2015-12-20 2016-12-08 Light detection distance measuring sensor Active JP6644892B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020001203A JP6899005B2 (en) 2015-12-20 2020-01-08 Photodetection ranging sensor

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US14/975,790 US9997551B2 (en) 2015-12-20 2015-12-20 Spad array with pixel-level bias control
US14/975,790 2015-12-20
US201662353588P 2016-06-23 2016-06-23
US62/353,588 2016-06-23
PCT/US2016/065472 WO2017112416A1 (en) 2015-12-20 2016-12-08 Light detection and ranging sensor

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020001203A Division JP6899005B2 (en) 2015-12-20 2020-01-08 Photodetection ranging sensor

Publications (2)

Publication Number Publication Date
JP2018537680A JP2018537680A (en) 2018-12-20
JP6644892B2 true JP6644892B2 (en) 2020-02-12

Family

ID=57570664

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018530709A Active JP6644892B2 (en) 2015-12-20 2016-12-08 Light detection distance measuring sensor
JP2020001203A Active JP6899005B2 (en) 2015-12-20 2020-01-08 Photodetection ranging sensor

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020001203A Active JP6899005B2 (en) 2015-12-20 2020-01-08 Photodetection ranging sensor

Country Status (4)

Country Link
EP (1) EP3391076A1 (en)
JP (2) JP6644892B2 (en)
CN (2) CN108431626B (en)
WO (1) WO2017112416A1 (en)

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741754B2 (en) 2013-03-06 2017-08-22 Apple Inc. Charge transfer circuit with storage nodes in image sensors
US9686485B2 (en) 2014-05-30 2017-06-20 Apple Inc. Pixel binning in an image sensor
US10761195B2 (en) 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
US10438987B2 (en) 2016-09-23 2019-10-08 Apple Inc. Stacked backside illuminated SPAD array
US10917626B2 (en) 2016-11-23 2021-02-09 Microsoft Technology Licensing, Llc Active illumination 3D imaging system
US10605984B2 (en) 2016-12-01 2020-03-31 Waymo Llc Array of waveguide diffusers for light detection using an aperture
CN110235024B (en) 2017-01-25 2022-10-28 苹果公司 SPAD detector with modulation sensitivity
US10656251B1 (en) 2017-01-25 2020-05-19 Apple Inc. Signal acquisition in a SPAD detector
US10962628B1 (en) 2017-01-26 2021-03-30 Apple Inc. Spatial temporal weighting in a SPAD detector
KR20240007686A (en) 2017-03-13 2024-01-16 옵시스 테크 엘티디 Eye-Safe Scanning LIDAR System
CN113466882A (en) * 2017-07-05 2021-10-01 奥斯特公司 Optical distance measuring device
EP3428574A1 (en) * 2017-07-11 2019-01-16 Fondazione Bruno Kessler Device for measuring a distance and method for measuring said distance
US10901073B2 (en) 2017-07-11 2021-01-26 Microsoft Technology Licensing, Llc Illumination for zoned time-of-flight imaging
US10430958B2 (en) * 2017-07-11 2019-10-01 Microsoft Technology Licensing, Llc Active illumination 3D zonal imaging system
US20190018119A1 (en) * 2017-07-13 2019-01-17 Apple Inc. Early-late pulse counting for light emitting depth sensors
US10622538B2 (en) 2017-07-18 2020-04-14 Apple Inc. Techniques for providing a haptic output and sensing a haptic input using a piezoelectric body
KR102218679B1 (en) 2017-07-28 2021-02-23 옵시스 테크 엘티디 VCSEL Array LIDAR Transmitter with Small Angle Divergence
US10698088B2 (en) 2017-08-01 2020-06-30 Waymo Llc LIDAR receiver using a waveguide and an aperture
US10677899B2 (en) 2017-08-07 2020-06-09 Waymo Llc Aggregating non-imaging SPAD architecture for full digital monolithic, frame averaging receivers
EP3451021A1 (en) 2017-08-30 2019-03-06 Hexagon Technology Center GmbH Measuring device with scan functionality and adjustable receiving areas of the receiver
US10440301B2 (en) 2017-09-08 2019-10-08 Apple Inc. Image capture device, pixel, and method providing improved phase detection auto-focus performance
US10473923B2 (en) * 2017-09-27 2019-11-12 Apple Inc. Focal region optical elements for high-performance optical scanners
US11802943B2 (en) 2017-11-15 2023-10-31 OPSYS Tech Ltd. Noise adaptive solid-state LIDAR system
DE102018203534A1 (en) * 2018-03-08 2019-09-12 Ibeo Automotive Systems GmbH Receiver arrangement for receiving light pulses, LiDAR module and method for receiving light pulses
CN111919137A (en) 2018-04-01 2020-11-10 欧普赛斯技术有限公司 Noise adaptive solid state LIDAR system
EP3775980B1 (en) * 2018-04-09 2022-03-16 Oulun yliopisto Range imaging apparatus and method
JP2019191126A (en) * 2018-04-27 2019-10-31 シャープ株式会社 Optical radar device
DE102018113848A1 (en) * 2018-06-11 2019-12-12 Sick Ag Optoelectronic sensor and method for acquiring three-dimensional image data
US11019294B2 (en) 2018-07-18 2021-05-25 Apple Inc. Seamless readout mode transitions in image sensors
US10848693B2 (en) 2018-07-18 2020-11-24 Apple Inc. Image flare detection using asymmetric pixels
EP3608688B1 (en) * 2018-08-09 2021-01-27 OMRON Corporation Distance measuring device
EP3620822A1 (en) * 2018-09-06 2020-03-11 STMicroelectronics (Research & Development) Limited Non-contiguous layouts for photosensitive apparatus
US11914078B2 (en) * 2018-09-16 2024-02-27 Apple Inc. Calibration of a depth sensing array using color image data
US20210270969A1 (en) * 2018-09-25 2021-09-02 Apple Inc. Enhanced depth mapping using visual inertial odometry
US11233966B1 (en) 2018-11-29 2022-01-25 Apple Inc. Breakdown voltage monitoring for avalanche diodes
WO2020121959A1 (en) * 2018-12-14 2020-06-18 株式会社デンソー Optical distance measurement device, laser light emission device, and method for manufacturing same
JP7172963B2 (en) * 2018-12-14 2022-11-16 株式会社デンソー Optical distance measuring device, method for manufacturing laser light emitting device
DE102018222777A1 (en) * 2018-12-21 2020-06-25 Robert Bosch Gmbh Optoelectronic sensor and method for operating an optoelectronic sensor
JP2020106339A (en) * 2018-12-26 2020-07-09 ソニーセミコンダクタソリューションズ株式会社 Measuring device and distance measuring device
CN113767301A (en) * 2019-01-31 2021-12-07 感觉光子公司 Gated window dependent illumination of a flash LIDAR
KR102604902B1 (en) * 2019-02-11 2023-11-21 애플 인크. Depth sensing using sparse arrays of pulsed beams
CN113795773A (en) * 2019-03-08 2021-12-14 欧司朗股份有限公司 Component for a LIDAR sensor system, LIDAR sensor device, method for a LIDAR sensor system and method for a LIDAR sensor device
JP7337517B2 (en) * 2019-03-14 2023-09-04 株式会社東芝 Photodetector and distance measuring device
US11796642B2 (en) 2019-03-26 2023-10-24 Infineon Technologies Ag Oversamplng and transmitter shooting pattern for light detection and ranging (LIDAR) system
EP3953727A4 (en) 2019-04-09 2023-01-04 Opsys Tech Ltd. Solid-state lidar transmitter with laser control
CN110109085B (en) * 2019-04-15 2022-09-30 东南大学 Low-power consumption wide-range array type photon timing reading circuit based on dual-mode switching
US11320535B2 (en) 2019-04-24 2022-05-03 Analog Devices, Inc. Optical system for determining interferer locus among two or more regions of a transmissive liquid crystal structure
JP7259525B2 (en) * 2019-04-26 2023-04-18 株式会社デンソー Optical ranging device and method
US11480685B2 (en) * 2019-05-05 2022-10-25 Apple Inc. Compact optical packaging of LiDAR systems using diffractive structures behind angled interfaces
CN110068808A (en) * 2019-05-29 2019-07-30 南京芯视界微电子科技有限公司 The receiver apparatus and laser radar of laser radar
WO2020242834A1 (en) 2019-05-30 2020-12-03 OPSYS Tech Ltd. Eye-safe long-range lidar system using actuator
KR102637658B1 (en) 2019-06-10 2024-02-20 옵시스 테크 엘티디 Eye-safe long-range solid-state LIDAR system
CN112114322A (en) * 2019-06-21 2020-12-22 广州印芯半导体技术有限公司 Time-of-flight distance measuring device and time-of-flight distance measuring method
JP2021015095A (en) * 2019-07-16 2021-02-12 パイオニア株式会社 Distance measuring device
DE102019211739A1 (en) * 2019-08-06 2021-02-11 Ibeo Automotive Systems GmbH Lidar measuring system with two lidar measuring devices
JP2021039069A (en) * 2019-09-05 2021-03-11 株式会社東芝 Photodetector, electronic device, and photodetection method
JP2021043131A (en) * 2019-09-13 2021-03-18 ソニーセミコンダクタソリューションズ株式会社 Distance measuring device and method for adjusting deviation of distance measuring mechanism in said device
CN110596721B (en) * 2019-09-19 2022-06-14 深圳奥锐达科技有限公司 Flight time distance measuring system and method of double-shared TDC circuit
CN110596724B (en) * 2019-09-19 2022-07-29 深圳奥锐达科技有限公司 Method and system for measuring flight time distance during dynamic histogram drawing
CN110780312B (en) * 2019-10-15 2022-10-21 深圳奥锐达科技有限公司 Adjustable distance measuring system and method
CN110687541A (en) * 2019-10-15 2020-01-14 深圳奥锐达科技有限公司 Distance measuring system and method
JP2021071458A (en) * 2019-11-01 2021-05-06 ソニーセミコンダクタソリューションズ株式会社 Light receiving device, ranging device, and light receiving circuit
CN111090104B (en) * 2019-12-26 2022-11-11 维沃移动通信有限公司 Imaging processing method and electronic device
CN113126104A (en) * 2019-12-27 2021-07-16 精准基因生物科技股份有限公司 Time-of-flight polarization light sensing system and light emitter thereof
JPWO2021161858A1 (en) * 2020-02-14 2021-08-19
CN113359142A (en) * 2020-03-06 2021-09-07 上海禾赛科技有限公司 Laser radar and ranging method thereof
JP7434002B2 (en) * 2020-03-17 2024-02-20 株式会社東芝 Photodetector and distance measuring device
CN113447933A (en) * 2020-03-24 2021-09-28 上海禾赛科技有限公司 Detection unit of laser radar, laser radar and detection method thereof
CN111352095A (en) * 2020-04-17 2020-06-30 深圳市镭神智能系统有限公司 Laser radar receiving system and laser radar
CN111610534B (en) * 2020-05-07 2022-12-02 广州立景创新科技有限公司 Image forming apparatus and image forming method
US11476372B1 (en) 2020-05-13 2022-10-18 Apple Inc. SPAD-based photon detectors with multi-phase sampling TDCs
CN113970757A (en) * 2020-07-23 2022-01-25 华为技术有限公司 Depth imaging method and depth imaging system
CN114063043A (en) * 2020-07-30 2022-02-18 北京一径科技有限公司 Control method and device of photoelectric detection array, photoelectric power supply switching circuit and photoelectric detection array
JP7476033B2 (en) 2020-08-24 2024-04-30 株式会社東芝 Light receiving device and electronic device
JP7434115B2 (en) 2020-09-07 2024-02-20 株式会社東芝 Photodetector and distance measuring device
JP7423485B2 (en) 2020-09-18 2024-01-29 株式会社東芝 distance measuring device
CN112346075B (en) * 2020-10-01 2023-04-11 奥比中光科技集团股份有限公司 Collector and light spot position tracking method
WO2022201501A1 (en) * 2021-03-26 2022-09-29 パイオニア株式会社 Sensor device
WO2022201502A1 (en) * 2021-03-26 2022-09-29 パイオニア株式会社 Sensor device
JP7443287B2 (en) 2021-06-09 2024-03-05 株式会社東芝 Photodetector and distance measuring device
CN115980763A (en) * 2021-10-15 2023-04-18 华为技术有限公司 Detection method and device
JP2023066231A (en) * 2021-10-28 2023-05-15 株式会社デンソー Control device, control method, and control program
WO2023149242A1 (en) * 2022-02-03 2023-08-10 株式会社小糸製作所 Measurement device
CN116184436B (en) * 2023-03-07 2023-11-17 哈尔滨工业大学 Array orbital angular momentum cloud penetration and fog penetration quantum detection imaging system

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02287113A (en) * 1989-04-27 1990-11-27 Asahi Optical Co Ltd Distance measuring instrument
JPH0567195A (en) * 1991-09-05 1993-03-19 Matsushita Electric Ind Co Ltd Shape measuring instrument
JPH10170637A (en) * 1996-12-16 1998-06-26 Omron Corp Light scanner
JPH1163920A (en) * 1997-08-26 1999-03-05 Matsushita Electric Works Ltd Optically scanning system displacement measuring equipment
JP3832101B2 (en) * 1998-08-05 2006-10-11 株式会社デンソー Distance measuring device
EP2327954A1 (en) * 2002-01-11 2011-06-01 The General Hospital Corporation Apparatus for OCT imaging with axial line focus for improved resolution and depth of field
JP2007190566A (en) * 2006-01-17 2007-08-02 Miyachi Technos Corp Fiber laser beam machining apparatus
CN101401107B (en) * 2006-04-11 2013-01-16 数据逻辑Adc公司 Method for data reading using raster scanning
GB2439962B (en) * 2006-06-14 2008-09-24 Exitech Ltd Process and apparatus for laser scribing
CN201054040Y (en) * 2007-05-21 2008-04-30 一品光学工业股份有限公司 Micro electromechanical swinged laser scanning device
US8786682B2 (en) * 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
EP2446301B1 (en) * 2009-06-22 2018-08-01 Toyota Motor Europe Pulsed light optical rangefinder
US8502926B2 (en) * 2009-09-30 2013-08-06 Apple Inc. Display system having coherent and incoherent light sources
JP2011089874A (en) * 2009-10-22 2011-05-06 Toyota Central R&D Labs Inc Distance image data acquisition device
LU91688B1 (en) * 2010-05-17 2011-11-18 Iee Sarl Scanning 3D imager
CN103649673A (en) * 2011-04-15 2014-03-19 法罗技术股份有限公司 Enhanced position detector in laser tracker
US9557285B2 (en) * 2011-08-25 2017-01-31 Georgia Tech Research Corporation Gas sensors and methods of preparation thereof
JP2013113669A (en) * 2011-11-28 2013-06-10 Mitsubishi Electric Corp Laser radar device
KR102038533B1 (en) * 2012-06-14 2019-10-31 한국전자통신연구원 Laser Radar System and Method for Acquiring Target Image
EP2708914A1 (en) * 2012-09-18 2014-03-19 Sick Ag Optoelectronic sensor and method for recording a depth map
CN105209869B (en) * 2012-10-23 2019-12-13 苹果公司 High precision imaging colorimeter with spectrometer assisted specially designed pattern closed loop calibration
DE202013101039U1 (en) * 2013-03-11 2014-03-12 Sick Ag Optoelectronic sensor for distance measurement
KR101762525B1 (en) * 2013-03-15 2017-07-27 애플 인크. Apparatus and method for depth scanning with multiple emitters
WO2015157341A1 (en) * 2014-04-07 2015-10-15 Samsung Electronics Co., Ltd. High resolution, high frame rate, low power image sensor
CN103983979B (en) * 2014-05-27 2016-05-11 中国科学院上海光学精密机械研究所 Based on M sequence phase coding and the multiplexing synthetic aperture laser imaging radar of cross-polarization

Also Published As

Publication number Publication date
JP2018537680A (en) 2018-12-20
EP3391076A1 (en) 2018-10-24
JP6899005B2 (en) 2021-07-07
CN111239708B (en) 2024-01-09
CN111239708A (en) 2020-06-05
WO2017112416A1 (en) 2017-06-29
JP2020073901A (en) 2020-05-14
CN108431626B (en) 2022-06-17
CN108431626A (en) 2018-08-21

Similar Documents

Publication Publication Date Title
JP6644892B2 (en) Light detection distance measuring sensor
US10795001B2 (en) Imaging system with synchronized scan and sensing
US10324171B2 (en) Light detection and ranging sensor
US11681027B2 (en) Time-of-flight depth mapping with parallax compensation
US10775507B2 (en) Adaptive transmission power control for a LIDAR
KR102409952B1 (en) High resolution, high frame rate, low power image sensor
US10908266B2 (en) Time of flight distance sensor
JP2019215324A (en) Photoelectric sensor and distance measurement method
KR20200075014A (en) Noise-adaptive solid-state LIDAR system
KR20190055238A (en) System and method for determining distance to an object
US20190094364A1 (en) Waveform design for a LiDAR system with closely-spaced pulses
US20190310370A1 (en) Optoelectronic sensor and method for detection and distance determination of objects
US20220221562A1 (en) Methods and systems for spad optimizaiton
US11698447B2 (en) Beam steering aware pixel clustering of segmented sensor area and implementing averaging algorithms for pixel processing
Ruokamo et al. An $80\times25 $ Pixel CMOS Single-Photon Sensor With Flexible On-Chip Time Gating of 40 Subarrays for Solid-State 3-D Range Imaging
CN110780312B (en) Adjustable distance measuring system and method
IL269455B2 (en) Time of flight sensor
US20210181308A1 (en) Optical distance measuring device
US20200103526A1 (en) Time of flight sensor
JP7423485B2 (en) distance measuring device
US20230075080A1 (en) Systems and methods of calibration of low fill-factor sensor devices and object detection therewith
JP2020134313A (en) Optical detector

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200108

R150 Certificate of patent or registration of utility model

Ref document number: 6644892

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250