JP2022522665A - 光検出器の範囲キャリブレーション - Google Patents

光検出器の範囲キャリブレーション Download PDF

Info

Publication number
JP2022522665A
JP2022522665A JP2021549597A JP2021549597A JP2022522665A JP 2022522665 A JP2022522665 A JP 2022522665A JP 2021549597 A JP2021549597 A JP 2021549597A JP 2021549597 A JP2021549597 A JP 2021549597A JP 2022522665 A JP2022522665 A JP 2022522665A
Authority
JP
Japan
Prior art keywords
optical signal
intensity
lidar device
detector
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021549597A
Other languages
English (en)
Inventor
ワハター,ルーク
ドロズ,ピエール-イヴ
Original Assignee
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Publication of JP2022522665A publication Critical patent/JP2022522665A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93273Sensor installation details on the top of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Astronomy & Astrophysics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

例示的な実施形態は、光検出器の範囲キャリブレーションに関する。例示的な方法は、第1の光信号を第1の反射率を有するキャリブレーションターゲットの第1の領域に向けて放出することと、第1の光信号の反射を検出することと、を含む。第1の光信号の検出された反射は、第1の強度を有する。例示的な方法はさらに、第2の光信号を第2の反射率を有するキャリブレーションターゲットの第2の領域に向けて放出することと、キャリブレーションターゲットの第2の領域からの第2の光信号の反射を検出することと、を含む。第2の光信号の検出された反射は、第2の強度を有する。さらに、例示的な方法は、第1の光信号の検出された反射に基づいて、第1の見掛け範囲を判定することと、第2の光信号の検出された反射に基づいて、第2の見掛け範囲を判定することと、検出器に対するウォークエラーキャリブレーションデータを生成することと、を含む。【選択図】図7A

Description

関連出願の相互参照
本出願は、2019年6月19日に出願された米国特許出願第16/445,394号および2019年3月5日に出願された米国仮特許出願第62/814,042号の優先権を主張し、その内容は、全体が参照により本明細書に組み込まれる。
本明細書に別段の指示がない限り、本項に記載の資料は、本出願の特許請求の範囲に対する先行技術ではなく、本項に含めることよって先行技術であると認められるものではない。
光検出測距(LIDAR)デバイスは、所与の環境内の対象物までの距離を推定することができる。例えば、LIDARデバイスのエミッタサブシステムは、近赤外線光パルスを放射することができ、この光パルスは、デバイスの環境内のオブジェクトと相互作用し得る。光パルスのうちの少なくとも一部分は、LIDARに方向転換され、(例えば、反射または散乱に起因して)、検出器サブシステムによって検出され得る。従来の検出器サブシステムは、複数の検出器、および高い時間分解能(例えば、約400ps)を有する、それぞれの光パルスの到達時間を判定するように構成された、対応するコントローラを含み得る。LIDARデバイスと所与のオブジェクトとの間の距離は、所与のオブジェクトと相互作用する対応する光パルスの飛行時間に基づいて判定され得る。
本開示は、光検出器(例えば、LIDARデバイス内の光検出器)用の範囲キャリブレーションに関する。パルス分析法を使用して、LIDARデバイスで放出/検出された光信号の通過時間を判定すると、反射光信号の強度に基づいて判定されたオブジェクトまでの距離に誤差が生じ得る。これは、「ウォークエラー」と称されることもある。ウォークエラーをキャリブレーションするために、異なる反射率を有する様々な領域を有するキャリブレーションターゲットが使用され得る。LIDARデバイスは、一連の光信号をキャリブレーションターゲットの様々な領域に向けて送信し、次いで、キャリブレーションターゲットからの一連の反射を検出することができる。検出された信号の見掛け範囲、反射信号の強度、およびキャリブレーションターゲットまでの実際の範囲を使用して、それぞれの光検出器におけるウォークエラーを補償するために使用されるキャリブレーションデータが生成され得る。
一態様では、方法が提供される。本方法は、光検出および測距(LIDAR)デバイスの送信器から、第1の反射率を有するキャリブレーションターゲットの第1の領域に向けて第1の光信号を放出することを含む。本方法はまた、キャリブレーションターゲットの第1の領域からの第1の光信号の反射をLIDARデバイスの検出器によって検出することを含む。第1の光信号の検出された反射は、第1の強度を有する。さらに、本方法は、LIDARデバイスの送信器から第2の反射率を有するキャリブレーションターゲットの第2の領域に向けて第2の光信号を放出することを含む。加えて、本方法は、キャリブレーションターゲットの第2の領域からの第2の光信号の反射をLIDARデバイスの検出器によって検出することを含む。第2の光信号の検出された反射は、第2の強度を有する。第2の強度は第1の強度とは異なる。さらに、本方法は、第1の光信号の検出された反射に基づいて、LIDARデバイスとキャリブレーションターゲットとの間の第1の見掛け範囲を判定することを含む。加えて、本方法は、第2の光信号の検出された反射に基づいて、LIDARデバイスとキャリブレーションターゲットとの間の第2の見掛け範囲を判定することを含む。第2の見掛け範囲は、第1の見掛け範囲とは異なる。さらには、本方法は、第1の見掛け範囲、第2の見掛け範囲、第1の強度、第2の強度、およびLIDARデバイスとキャリブレーションターゲットとの間の実際の範囲に基づいて、検出器のためのウォークエラーキャリブレーションデータを生成することを含む。
別の態様では、光検出および測距(LIDAR)デバイスをキャリブレーションするためのキャリブレーションシステムが提供される。キャリブレーションシステムは、少なくとも6つの反射領域を備える表面を有するキャリブレーションターゲットを含む。各反射領域は、異なる既知の反射率を有し、10パーセント未満の少なくとも1つの反射率、および90パーセントを上回る少なくとも1つの反射率を含む反射率の範囲を提供する。キャリブレーションターゲットは、LIDARデバイスに対して位置付けられており、LIDARデバイスの送信器がそれぞれの光信号をキャリブレーションターゲットの各反射領域に向けて放射することができるように、かつ、LIDARデバイスの検出器がキャリブレーションターゲットの各それぞれの領域からの各それぞれの光信号を検出することができるようになっており、各検出された反射は、異なる強度を有しており、1つ以上の検出された反射は、LIDARデバイスとキャリブレーションターゲットとの間の実際の範囲とは異なる見掛け範囲を有している。
一追加的態様では、1つの方法が提供されている。本方法は、光検出および測距(LIDAR)デバイス内の複数の送信器および検出器の対の各々について、それぞれのウォークエラーキャリブレーションデータを生成することを含む。LIDARデバイス内の複数の送信器および検出器の対の各々について、それぞれのウォークエラーキャリブレーションデータを生成することは、送信器から第1の光信号を放出することを含む。LIDARデバイス内の複数の送信器および検出器の対の各々について、それぞれのウォークエラーキャリブレーションデータを生成することはまた、第1の反射率を有するキャリブレーションターゲットの第1の領域からの第1の光信号の反射を検出器によって検出することも含む。第1の光信号の検出された反射は、第1の強度を有する。さらに、LIDARデバイス内の複数の送信器および検出器の対の各々について、それぞれのウォークエラーキャリブレーションデータを生成することは、第1の光信号の検出された反射に基づいて、LIDARデバイスとキャリブレーションターゲットとの間の第1の見掛け範囲を判定することを含む。さらには、LIDARデバイス内の複数の送信器および検出器の対の各々について、それぞれのウォークエラーキャリブレーションデータを生成することは、送信器から第2の光信号を放出することを含む。加えて、LIDARデバイス内の複数の送信器および検出器の対の各々について、それぞれのウォークエラーキャリブレーションデータを生成することは、第2の反射率を有するキャリブレーションターゲットの第2の領域からの第2の光信号の反射を検出器によって検出することも含む。第2の光信号の検出された反射は、第2の強度を有する。第2の強度は第1の強度とは異なる。さらに、LIDARデバイス内の複数の送信器および検出器の対の各々について、それぞれのウォークエラーキャリブレーションデータを生成することは、第2の光信号の検出された反射に基づいて、LIDARデバイスとキャリブレーションターゲットとの間の第2の見掛け範囲を判定することを含む。第2の見掛け範囲は、第1の見掛け範囲とは異なる。さらに、LIDARデバイス内の複数の送信器および検出器の対の各々について、それぞれのウォークエラーキャリブレーションデータを生成することは、第1の見掛け範囲、第2の見掛け範囲、第1の強度、第2の強度、およびLIDARデバイスとキャリブレーションターゲットとの間の実際の範囲に基づいてウォークエラーキャリブレーションデータを生成することを含む。本方法はまた、複数の送信器および検出器の対の各々について、それぞれのウォークエラーキャリブレーションデータを調整することを含む。複数の送信器と検出器の対の各々について、それぞれのウォークエラーキャリブレーションデータを調整することは、LIDARデバイス内の各送信器から再キャリブレーション光信号を放出することを含む。再キャリブレーション光信号は各々、LIDARデバイスの環境内の単一オブジェクトに方向付けられている。複数の送信器と検出器の対の各々について、それぞれのウォークエラーキャリブレーションデータを調整することは、環境内の単一オブジェクトからの再キャリブレーション光信号の反射を各検出器によって検出することも含む。反射の各々は、それぞれの強度を有している。さらに、複数の送信器と検出器の対の各々について、それぞれのウォークエラーキャリブレーションデータを調整することはまた、各それぞれの送信器と検出器の対のウォークエラーキャリブレーションデータ、および再キャリブレーション光信号の検出された反射のそれぞれの強度に基づいて、送信器と検出器の対の各々の環境内の単一のオブジェクトに対するそれぞれの補償された範囲を判定することも含む。加えて、複数の送信器および検出器の対の各々について、それぞれのウォークエラーキャリブレーションデータを調整することはまた、補償された範囲およびウォークエラーキャリブレーションデータに基づいて、1つ以上のそれぞれのウォークエラーキャリブレーションデータを修正することも含む。
さらに別の態様では、方法が提供される。本方法は、発光素子から、第1の強度を有する第1の光信号を放出することを含む。本方法はまた、可変減衰器を使用して、第1の光信号を第2の強度に減衰させることを含む。さらに、本方法は、光検出および測距(LIDAR)デバイスの検出器によって、第2の強度で第1の光信号を検出することを含む。加えて、本方法は、第2の強度で検出された第1の光信号に基づいて、LIDARデバイスの検出器に関連付けられたアナログ-デジタル変換器(ADC)からの第1の出力をキャプチャすることを含む。さらに、本方法は、第1の強度を有する第2の光信号を発光素子から放出することを含む。加えて、本方法は、可変減衰器を使用して、第2の光信号を第3の強度に減衰させることを含む。第3の強度は第2の強度とは異なる。さらに、本方法は、LIDARデバイスの検出器によって、第3の強度にある第2の光信号を検出することを含む。さらに、本方法は、検出された第3の強度にある第2の光信号に基づいて、LIDARデバイスの検出器に関連付けられたADCからの第2の出力をキャプチャすることを含む。さらに、本方法は、第2の強度、ADCからの第1の出力、第3の強度、およびADCからの第2の出力に基づいて、検出器の強度キャリブレーションデータを生成することを含む。
これらのおよび他の態様、利点、および代替物は、当業者には、以下の詳細な説明を添付の図面を適宜参照して読み取ることにより明らかになるであろう。
例示的な実施形態による、車両を図解する機能ブロック図である。 例示的な実施形態による、車両の物理的構成の図示である。 例示的な実施形態による、車両の物理的構成の図である。 例示的な実施形態による、車両の物理的構成の図示である。 例示的な実施形態による、車両の物理的構成の図示である。 例示的な実施形態による、車両の物理的構成の図示である。 例示的な実施形態による、自律車両に関連する様々なコンピューティングシステム間の無線通信の概念図である。 例示的な実施形態による、パルス検出デバイスのブロック図である。 例示的な実施形態による、応答曲線の図示である。 例示的な実施形態による、強度キャリブレーションシステムのブロック図である。 例示的な実施形態による、時間に対する一連の反射信号の図示である。 例示的な実施形態による、一連の反射信号の時間微分の図示である。 例示的な実施形態による、キャリブレーションターゲットの図示である。 例示的な実施形態による、キャリブレーションシステムの図示である。 例示的な実施形態による、キャリブレーションシステムの図示である。 例示的な実施形態による、キャリブレーションシステムの図示である。 例示的な実施形態による、検出器からのピーク出力に対する距離誤差の図示である。 例示的な実施形態による、検出器からのピーク出力に対する距離誤差の図示である。 例示的な実施形態による、検出器からのピーク出力に対する距離誤差の図示である。 例示的な実施形態による、実行時確認キャリブレーションの図示である。 例示的な実施形態による、回帰分析の図示である。 例示的な実施形態による、ランタイム確認キャリブレーションの図示である。 例示的な実施形態による、回帰分析の図示である。 例示的な実施形態による、方法の図示である。 例示的な実施形態による、方法の図示である。 例示的な実施形態による、方法のサブエレメントの図示である。 例示的な実施形態による、方法のサブエレメントの図示である。 例示的な実施形態による、方法の図示である。
例示的な方法およびシステムが本明細書で企図されている。本明細書において記載された任意の例示的な実施形態または特徴は、必ずしも他の実施形態または特徴よりも好ましいまたは有利であると解釈されるものではない。本明細書において記載された例示的な実施形態は、限定的であることを意味するものではない。開示されるシステムおよび方法の特定の態様は、多種多様な異なる構成で配置し、組み合わせることができ、これらの構成のすべてが、本明細書において熟考されることは容易に理解できるであろう。
さらに、図に示されている特定の配置は、限定的であるとみなされるべきではない。他の実施形態は、所定の図に示される各要素をより多く、またはより少なく含むことができることを理解されるべきである。さらに、図示の構成要素のうちのいくつかの構成要素は、組み合わせることができるか、または省略することができる。またさらに、例示的な実施形態は、図に示されていない要素を含んでいてもよい。
I.概要
LIDARデバイスは、送信された光信号と検出された反射との間の飛行時間を判定することにより、周囲環境内の所与のオブジェクトまでの範囲を判定できる。送信される光信号は、(例えば、パルスレーザ源から放出された)光パルスを含み得る。対応する光パルスの飛行時間を判定することは、光パルスがLIDARデバイスから放出される時間と、オブジェクトによって反射された反射光パルスがLIDARデバイスによって受信される受信時間との間の時間差を判定することを含み得る。通常、反射光パルスは、最大値まで増加し、その後に立ち下がりエッジへと続く立ち上がりエッジを有している。場合によっては、受信時間は、反射光パルスの最大値が発生するピーク時間と見なされ得る。ピーク時間を見つけるために、反射パルスの時間微分が判定され得る。反射光パルスの微分でゼロクロッシングが発生する時間は、反射光パルスが最大値にある時間に対応している。実際には、ゼロクロッシングは、いつ時間微分がいくつかの小さな閾値を下回って低下したかに基づいて判定され得る(例えば、コンパレータによって判定されるように)。コンパレータ出力は、時間判定をトリガーすることができ、また、反射光パルスのピーク値のアナログ-デジタル(ADC)変換をトリガーすることもできる。このようにして、各反射光パルスについて、ピーク値が発生する時間に対応する受信時間と、ピーク値に対応するADC値が判定され得る。
ゼロクロッシングを判定するために時間微分において閾値を使用すると、ピーク値がいつ発生するかを判定する際に少量の誤差を付加することがある。具体的には、時間微分はゼロクロッシングが発生するわずか前に閾値を下回って低下し、それによって受信時間とその結果のオブジェクトまでの範囲を過小評価することになる。恐らくより大きな問題は、反射パルスの強度が減少するにつれて誤差の大きさが増加することである。反射パルスの強度は、次に、オブジェクトの反射率の関数であることがある。したがって、LIDARデバイスから同じ距離にあるが反射率が異なるオブジェクトは、反射率の高いオブジェクトは反射率の低いオブジェクトよりも遠くに見え、範囲が異なるように見えることがある。この強度に依存する範囲誤差は、多くの場合、「ウォークエラー」と称される。
ウォークエラーを補償するために、範囲誤差を反射パルス強度(例えば、ADCからの出力値)に関連付ける一連のキャリブレーションデータ(例えば、キャリブレーション曲線の形式)が、検出器に対して(かつ、潜在的に、LIDARデバイスの各検出器に対して)判定され得る。キャリブレーションデータは、反射率の異なる領域を含む特別に設計されたキャリブレーションターゲットを使用して判定され得る。いくつかの実施形態では、キャリブレーションターゲットは、全範囲の反射率をカバーし得る(例えば、キャリブレーションされている所与の検出器の検出可能な強度の最も広いダイナミックレンジをカバーするように、実用的な範囲で)。したがって、キャリブレーションターゲットは、ほぼ0%の反射率を有する1つ以上の領域、ほぼ100%の反射率を有する1つ以上の領域、および0%~100%の反射率の範囲をカバーする領域を含み得る。
キャリブレーションデータを生成するために、キャリブレーションターゲットがLIDARデバイスからある程度の距離(例えば、20メートル離れたところ)に配置されることができ、LIDARデバイスが、ターゲット全体をスキャンして全範囲の反射率をサンプリングするように操作され得る。非常に低い強度の反射光パルスを取得するために、ターゲットのエッジからのリターンを使用することも可能である。このようにして、LIDARデバイスは、さらに広い範囲の強度で反射光パルスをサンプリングできる。次に、様々な強度に対する範囲誤差が判定され、LIDARデバイスに対するキャリブレーションデータを生成することができる。キャリブレーションデータの生成はまた、内挿法、外挿法、および/または回帰法を使用して、キャリブレーション曲線を生成することを含み得る。複数の検出器を含むLIDARデバイスの場合、キャリブレーションターゲットは、各検出器を使用してスキャンされ、各検出器の個別のキャリブレーション曲線を生成することができる。さらに、LIDARデバイスは、ターゲットをスキャンするためにチップ/チルトステージに配置され得る。
しかし、キャリブレーションデータを判定した後、検出器の動作は、キャリブレーションデータによってキャプチャされた以前に(例えば、数時間後、数日後、数週間後、数か月後、または数年の使用後に)特徴付けられた動作からドリフトし得る。これを説明する1つの方法は、キャリブレーションターゲットを最初から使用して、検出器のキャリブレーションデータを単純に再判定することである。しかしながら、これは、特にLIDARデバイスが、元のキャリブレーションが実行されてから、より大型システムの構成要素として取り付け、組み立て、または付着されている場合(例えば、車両に装着されている場合)、常に実用的であり得ない。このような場合、単にLIDARデバイスを再キャリブレーションするために、このようなシステムの全部または一部を分解することは望ましくないことがある。
特定の検出器に対応する現在のウォークエラーを識別する代替的な方法は、その動作を、環境内の共通ターゲットに対する検出器のアンサンブル内の他の検出器の動作と比較することを含み得る。そのような技術は、代替的に、本明細書では代替的に、「チェックアップキャリブレーション」、「再キャリブレーション」、または「確認キャリブレーション」と称され得る。そのような再キャリブレーションは、例えば、複数の光信号を使用してシーンをスキャンするように構成されたLIDARデバイス(すなわち、マルチチャネルLIDAR)で実行され得る。再キャリブレーションは、別個の送信/受信チャネルを介して送信された光信号の反射を検出することによって、環境内のオブジェクトに向けて光信号を送信することを含み得る。動作中、このようなLIDARデバイスは、車両に装着され、車両が環境を通って移動するときに測定を行うことができる。
上述のような再キャリブレーションの例は、環境内の任意のターゲットを複数の距離からスキャンするとき(すなわち、車両が環境内を移動するとき)に、所与のチャネルのリターン信号強度を車両が移動するときに複数の距離から同じターゲットをスキャンする他のチャネルの戻り信号強度の平均と比較することによって、LIDARの所与のチャネルの強度-範囲キャリブレーションを検証および/または調整することを含み得る。
この配置により、複数の範囲に移動される特別に設計されたターゲットを使用せずに、所与のチャネル(つまり、送信器/検出器の対)の強度-範囲特性の実行時キャリブレーションを実行できる。特に、所与のチャネルの強度-範囲応答動作は、実質的に同様の条件下で環境の同一領域をスキャンした他のチャネルの平均と比較され得る。さらに、この配置により、システムは、初期キャリブレーション(すなわち、特別に設計されたキャリブレーションターゲットが使用された)中に特徴付けられた予想される動作から(LIDARデバイスの動作中に)所与のチャネルの検出、および/または特徴付けを行うことができる。
II.例示的なシステム
以下の説明および添付図面は、様々な例示的な実施形態の特徴を明らかにする。提供される実施形態は例としてのものであり、限定することを意図するものではない。したがって、図面の寸法は必ずしも縮尺通りではない。
ここで、本開示の範囲内の例示的なシステムは、より詳細に記載される。あるシステム例は、自動車に実装され得るか、または自動車の形態を採り得る。しかしながら、あるシステム例はまた、車、トラック、オートバイ、バス、ボート、飛行機、ヘリコプター、芝刈り機、ブルドーザー、ボート、スノーモービル、航空機、レクリエーション車両、遊園地車両、農機具、建設機械、トラム、ゴルフカート、電車、トロリー、ロボットデバイスなどの、他の車両に実装され得、または他の車両の形態を採り得る。他の車両も考えられ得る。さらに、いくつかの実施形態では、システム例は、車両を含まない場合がある。
ここで図を参照すると、図1は、自律モードで完全にまたは部分的に動作するように構成され得る、例示的な車両100を示す機能ブロック図である。より具体的には、車両100は、コンピューティングシステムから制御命令を受信することを通して、人間の相互作用なしに自律モードで動作し得る。自律モードでの動作の一部として、車両100は、センサを使用して、周囲環境のオブジェクトを検出し、場合によっては識別して、安全なナビゲーションを可能にし得る。いくつかの実施形態では、車両100は、運転者が車両100の動作を制御することを可能にするサブシステムも含み得る。
図1に示されるように、車両100は、推進システム102、センサシステム104、制御システム106、1つ以上の周辺機器108、電源110、コンピュータシステム112(コンピューティングシステムとも称され得る)、データ記憶域114、およびユーザインターフェース116などの様々なサブシステムを含み得る。他の例では、車両100は、各々が多数の要素を含み得る、サブシステムをより多くまたはより少なく含み得る。車両100のサブシステムおよび構成要素は、様々な方法で相互接続され得る。さらに、本明細書で説明する車両100の機能は、追加の機能的または物理的構成要素に分割するか、または実施形態内でより少ない機能的もしくは物理的構成要素に組み合わせることができる。例えば、制御システム106およびコンピュータシステム112は、様々な動作に従って車両100を操作する単一のシステムに組み合わされ得る。
推進システム102は、車両100に動力運動を提供するように動作可能な1つ以上の構成要素を含み得、他の可能な構成要素の中でも特に、エンジン/モータ118、エネルギー源119、トランスミッション120、および車輪/タイヤ121を含み得る。例えば、エンジン/モータ118は、エネルギー源119を機械的エネルギーに変換するように構成され得、他の可能な選択肢の中でも特に、内燃エンジン、電気モータ、蒸気エンジン、またはスターリングエンジンのうちの1つまたは組み合わせに対応し得る。例えば、いくつかの実施形態では、推進システム102は、ガソリンエンジンおよび電気モータなどの多数の種類のエンジンおよび/またはモータを含み得る。
エネルギー源119は、完全にまたは部分的に、車両100の1つ以上のシステム(例えば、エンジン/モータ118)に動力を供給し得るエネルギー源を表す。例えば、エネルギー源119は、ガソリン、ディーゼル、他の石油系燃料、プロパン、他の圧縮ガスベースの燃料、エタノール、ソーラパネル、電池、および/または他の電力源に対応することができる。いくつかの実施形態では、エネルギー源119は、燃料タンク、電池、コンデンサ、および/またはフライホイールの組み合わせを含み得る。
トランスミッション120は、エンジン/モータ118からの機械動力を、車輪/タイヤ121および/または車両100の他の可能なシステムに伝達し得る。したがって、トランスミッション120は、他の可能な構成要素の中でも特に、ギアボックス、クラッチ、ディファレンシャル、および駆動シャフトを含み得る。駆動シャフトは、1つ以上の車輪/タイヤ121に接続する車軸を含み得る。
車両100の車輪/タイヤ121は、例示的な実施形態内で様々な構成を有し得る。例えば、車両100は、他の可能な構成の中でも特に、一輪車、自転車/オートバイ、三輪車、または車/トラック四輪形式で存在し得る。したがって、車輪/タイヤ121は、様々な方法で車両100に接続することができ、金属およびゴムなどの異なる材料で存在し得る。
センサシステム104は、他の可能なセンサの中でも特に、全地球測位システム(GPS)122、慣性計測ユニット(IMU)124、レーダ126、レーザ距離計/LIDAR128、カメラ130、ステアリングセンサ123、およびスロットル/ブレーキセンサ125などの様々な種類のセンサを含むことができる。いくつかの実施形態では、センサシステム104は、車両100の内部システムをモニタするように構成されたセンサ(例えば、Oモニタ、燃料計、エンジンオイル温度、ブレーキ摩耗)を含み得る。
GPS122は、地球に対する車両100の位置に関する情報を提供するように動作可能なトランシーバを含み得る。IMU124は、1つ以上の加速度計および/またはジャイロスコープを使用する構成を有し得、慣性加速度に基づいて車両100の位置および向きの変化を感知し得る。例えば、IMU124は、車両100が静止しているかまたは動いている間に車両100のピッチおよび偏揺れを検出することができる。
レーダ126は、電波信号を使用して、車両100の局所環境内のオブジェクトを、オブジェクトの速さおよび進行方向を含めて感知するように構成された1つ以上のシステムを表し得る。したがって、レーダ126は、電波信号を送受信するように構成されたアンテナを含み得る。いくつかの実施形態では、レーダ126は、車両100の周囲環境の測定値を得るように構成された装着可能なレーダシステムに対応し得る。
レーザ距離計/LIDAR128は、他のシステム構成要素の中でも特に、1つ以上のレーザ源、レーザスキャナ、および1つ以上の検出器を含み得、コヒーレントモード(例えば、ヘテロダイン検出を使用)または非コヒーレント検出モードで動作し得る。いくつかの実施形態では、レーザ距離計/LIDAR128の1つ以上の検出器には、1つ以上の受光素子が含まれ得る。このような受光素子は、特に高感度検出器(例えば、アバランシェフォトダイオード(APD))であり得る。いくつかの例では、このような受光素子は、単一光子(例えば、単一光子アバランシェダイオード(SPAD))を検出することさえ可能であり得る。また、このような受光素子は、アレイの状態に配列され得る(例えば、シリコン光電子倍増管(SiPM)に見られるように)。
カメラ130は、車両100の環境の画像をキャプチャするように構成された1つ以上のデバイス(例えば、スチルカメラまたはビデオカメラ)を含み得る。
ステアリングセンサ123は、車両100のステアリング角度を感知し得、これは、ステアリングホイールの角度を測定すること、またはステアリングホイールの角度を表す電気信号を測定することを含み得る。いくつかの実施形態では、ステアリングセンサ123は、車両100の前方軸に対する車輪の角度を検出するなど、車両100の車輪の角度を測定し得る。ステアリングセンサ123はまた、ステアリングホイールの角度、ステアリングホイールの角度を表す電気信号、および車両100の車輪の角度の組み合わせ(またはサブセット)を測定するように構成され得る。
スロットル/ブレーキセンサ125は、車両100のスロットル位置またはブレーキ位置のいずれかの位置を検出し得る。例えば、スロットル/ブレーキセンサ125は、アクセルペダル(スロットル)およびブレーキペダルの両方の角度を測定してもよく、または、例えば、アクセルペダル(スロットル)の角度および/もしくはブレーキペダルの角度を表すことができる電気信号を測定してもよい。スロットル/ブレーキセンサ125はまた、エンジン/モータ118(例えば、バタフライバルブまたはキャブレタ)にエネルギー源119の変調を提供する物理的機構の一部を含み得る、車両100のスロットルボディの角度を測定してもよい。加えて、スロットル/ブレーキセンサ125は、車両100のロータにかかる1つ以上のブレーキパッドの圧力、またはアクセルペダル(スロットル)およびブレーキペダルの角度、アクセルペダル(スロットル)およびブレーキペダルの角度を表す電気信号、スロットルボディの角度、ならびに少なくとも1つのブレーキパッドが車両100のロータに加える圧力の組み合わせ(またはサブセット)、を測定し得る。他の実施形態では、スロットル/ブレーキセンサ125は、スロットルまたはブレーキペダルなどの車両のペダルに加えられた圧力を測定するように構成されてもよい。
制御システム106は、ステアリングユニット132、スロットル134、ブレーキユニット136、センサ融合アルゴリズム138、コンピュータビジョンシステム140、ナビゲーション/経路探索システム142、および障害物回避システム144など、車両100をナビゲートするのを助けるように構成された構成要素を含み得る。より具体的には、ステアリングユニット132は、車両100の進行方向を調整するように動作可能であり得、スロットル134は、エンジン/モータ118の動作速度を制御して、車両100の加速を制御し得る。ブレーキユニット136は、車両100を減速することができ、これは、摩擦を使用して車輪/タイヤ121を減速することを含み得る。いくつかの実施形態では、ブレーキユニット136は、車両100の1つ以上のシステムによるその後の使用のために、車輪/タイヤ121の運動エネルギーを電流に変換し得る。
センサ融合アルゴリズム138は、カルマンフィルタ、ベイジアンネットワーク、またはセンサシステム104からのデータを処理することができる他のアルゴリズムを含み得る。いくつかの実施形態では、センサ融合アルゴリズム138は、個々のオブジェクトおよび/もしくは特徴の評価、特定の状況の評価、ならびに/または所与の状況内の可能性のある影響の評価など、着信センサデータに基づくアセスメントを提供し得る。
コンピュータビジョンシステム140は、オブジェクト、環境オブジェクト(例えば、交通信号、車道境界など)、および障害物を決定しようとする際に画像を処理し、分析するように動作可能なハードウェアおよびソフトウェアを含み得る。したがって、コンピュータビジョンシステム140は、オブジェクト認識、Structure From Motion(SFM)、ビデオ追跡、および、例えば、オブジェクトを認識し、環境をマッピングし、オブジェクトを追跡し、オブジェクトのスピードを推定するためなどにコンピュータビジョンで使用される他のアルゴリズムを使用し得る。
ナビゲーション/経路探索システム142は、車両100の運転経路を決定することができ、これは、動作中にナビゲーションを動的に調整することを含み得る。したがって、ナビゲーション/経路探索システム142は、数ある情報源の中でも特に、センサ融合アルゴリズム138、GPS122、および地図からのデータを使用して、車両100をナビゲートし得る。障害物回避システム144は、センサデータに基づいて障害となり得るものを評価し、車両100のシステムに障害となり得るものを回避させるかまたは別の方法で切り抜けさせ得る。
図1に示されるように、車両100はまた、無線通信システム146、タッチスクリーン148、マイクロフォン150、および/またはスピーカ152などの周辺機器108を含み得る。周辺機器108は、ユーザがユーザインターフェース116と相互作用するための制御装置または他の要素を提供し得る。例えば、タッチスクリーン148は、車両100のユーザに情報を提供し得る。ユーザインターフェース116はまた、タッチスクリーン148を介してユーザからの入力を受け入れ得る。周辺機器108はまた、車両100が、他の車両のデバイスなどのデバイスと通信することを可能にし得る。
無線通信システム146は、1つ以上のデバイスと直接または通信ネットワークを介して無線で通信し得る。例えば、無線通信システム146では、符号分割多元接続(CDMA)、進化データ最適化(EVDO)、グローバル移動体通信システム(GSM)/汎用パケット無線サービス(GPRS)などの3Gセルラ通信、またはワールドワイド・インターオペラビリティ・フォー・マイクロウェーブ・アクセス(WiMAX)もしくはロングタームエボリューション(LTE)などの4Gセルラ通信を使用する可能性がある。代替的に、無線通信システム146は、WiFiまたは他の可能な接続を使用して無線ローカルエリアネットワーク(WLAN)と通信し得る。無線通信システム146はまた、例えば、赤外線リンク、Bluetooth、またはZigBeeを使用してデバイスと直接通信し得る。様々な車両通信システムなどの他の無線プロトコルが、本開示の文脈内で可能である。例えば、無線通信システム146は、車両および/または道路沿いの給油所間の公共および/または私的データ通信を含み得る1つ以上の専用狭域通信(DSRC)デバイスを含み得る。
車両100は、構成要素に電力を供給するための電源110を含み得る。電源110は、いくつかの実施形態では、再充電可能なリチウムイオンまたは鉛蓄電池を含み得る。例えば、電源110は、電力を提供するように構成された1つ以上の電池を含み得る。車両100はまた、他の種類の電源を使用してもよい。ある例示的な実施形態では、電源110とエネルギー源119とが、統合されて単一のエネルギー源になり得る。
車両100は、本明細書に記載の動作などの動作を行うためのコンピュータシステム112も含み得る。したがって、コンピュータシステム112は、データ記憶域114などの非一時的なコンピュータ可読媒体に格納された命令115を実行するように動作可能な少なくとも1つのプロセッサ113(少なくとも1つのマイクロプロセッサが含まれ得る)を含み得る。いくつかの実施形態では、コンピュータシステム112は、車両100の個々の構成要素またはサブシステムを分散的に制御するように機能し得る複数のコンピューティングデバイスを表し得る。
いくつかの実施形態では、データ記憶域114は、図1に関連して上述したものを含めて、車両100の様々な機能を実行するための、プロセッサ113によって実行可能な命令115(例えば、プログラム論理)を含み得る。データ記憶域114は、推進システム102、センサシステム104、制御システム106、および周辺機器108のうちの1つ以上にデータを送信する、それからデータを受信する、それと相互作用する、かつ/またはそれを制御するための命令を含む追加の命令も含み得る。
命令115に加えて、データストレージ114は、他の情報の中でもとりわけ、道路地図、経路情報などのデータを格納し得る。そのような情報は、自律モード、半自律モード、および/または手動モードでの車両100の動作中に、車両100およびコンピュータシステム112によって使用され得る。
車両100は、車両100のユーザに情報を提供するか、または車両100のユーザから入力を受信するためのユーザインターフェース116を含み得る。ユーザインターフェース116は、タッチスクリーン148上に表示され得るコンテンツおよび/もしくはインタラクティブ画像のレイアウトを制御することができるか、または制御を可能にし得る。さらに、ユーザインターフェース116は、無線通信システム146、タッチスクリーン148、マイクロフォン150、およびスピーカ152などの周辺機器108のセット内の1つ以上の入力/出力デバイスを含むことができる。
コンピュータシステム112は、様々なサブシステム(例えば、推進システム102、センサシステム104、および制御システム106)から、ならびにユーザインターフェース116から受信した入力に基づいて、車両100の機能を制御し得る。例えば、コンピュータシステム112は、推進システム102および制御システム106によって生成された出力を推定するために、センサシステム104からの入力を利用し得る。いくつかの実施形態では、コンピュータシステム112は、車両100およびそのサブシステムの多くの側面をモニタするように動作可能であり得る。いくつかの実施形態では、コンピュータシステム112は、センサシステム104から受信した信号に基づいて、車両100の一部またはすべての機能を無効にし得る。
車両100の構成要素は、それらのそれぞれのシステム内またはシステム外の他の構成要素と相互接続された方法で機能するように構成され得る。例えば、ある例示的な実施形態では、カメラ130は、自律モードで動作している車両100の環境の状態に関する情報を表すことができる複数の画像をキャプチャすることができる。環境の状態には、車両が動作している道路のパラメータが含まれ得る。例えば、コンピュータビジョンシステム140は、道路の複数の画像に基づいて、傾斜(勾配)または他の特徴を認識することができ得る。加えて、GPS122とコンピュータビジョンシステム140によって認識された特徴との組み合わせは、特定の道路パラメータを決定するために、データ記憶域114に格納された地図データとともに使用され得る。さらに、レーダ126がまた、車両の周囲に関する情報を提供し得る。
言い換えると、様々なセンサ(入力指標センサおよび出力指標センサと呼ぶことができる)とコンピュータシステム112との組み合わせが相互作用して、車両を制御するために提供される入力の指標または車両の周囲の指標を提供することができる。
いくつかの実施形態では、コンピュータシステム112は、無線システム以外のシステムによって提供されるデータに基づいて、様々なオブジェクトに関する判定を行い得る。例えば、車両100は、車両の視野内のオブジェクトを感知するように構成されたレーザまたは他の光学センサを有し得る。コンピュータシステム112は、様々なセンサからの出力を使用して、車両の視野内のオブジェクトに関する情報を判断し得、様々なオブジェクトまでの距離および方向情報を判断し得る。コンピュータシステム112はまた、様々なセンサからの出力に基づいて、オブジェクトが望ましいか、または望ましくないかを判定し得る。
図1は、車両100の様々な構成要素(すなわち、無線通信システム146、コンピュータシステム112、データ記憶域114、およびユーザインターフェース116)を車両100に統合されているものとして示しているが、これらの構成要素のうちの1つ以上は、車両100とは別個に装着するかまたは関連付けることができる。例えば、データ記憶域114が、部分的または完全に、車両100とは別個に存在していてもよい。したがって、車両100は、別個にまたは一緒に配置され得るデバイス要素の形態で提供され得る。車両100を構成するデバイス要素は、有線および/または無線方式で一緒に通信可能に結合され得る。
図2A~図2Eは、図1を参照して車両100に関連して説明された機能の一部またはすべてを含み得る例示的な車両200を示す。車両200は、説明の便宜上、バンとして図2A~2Eに示されているが、本開示は、そのように限定されるものではない。例えば、車両200は、トラック、乗用車、セミトレーラートラック、オートバイ、ゴルフカート、オフロード車、または農業用車両などを表し得る。
車両例200は、センサユニット202、第1のLIDARユニット204、第2のLIDARユニット206、第1のレーダユニット208、第2のレーダユニット210、第1のLIDAR/レーダユニット212、第2のLIDAR/レーダユニット214を含み、また車両200上で、レーダユニット、LIDARユニット、レーザ距離計ユニット、および/または他の種類の1つもしくは複数のセンサが位置し得る2つの追加の場所216、218も含む。第1のLIDAR/レーダユニット212および第2のLIDAR/レーダユニット214の各々は、LIDARユニット、レーダユニット、またはその両方の形態を採り得る。
さらに、例示的な車両200は、図1の車両100に関連して説明された構成要素のいずれかを含み得る。第1および第2のレーダユニット208、210ならびに/または第1および第2のLIDARユニット204、206は、障害となり得るものがないか、その周囲環境を能動的に走査することができ、車両100のレーダ126および/またはレーザ距離計/LIDAR128と同様のものであり得る。
センサユニット202は、車両200の上部に取り付けられ、車両200を取り囲む環境に関する情報を検出し、情報の表示を出力するように構成された1つ以上のセンサを含む。例えば、センサユニット202は、カメラ、レーダ、LIDAR、距離計、および音響センサの任意の組み合わせを含み得る。センサユニット202は、センサユニット202内の1つ以上のセンサの向きを調整するように動作可能であり得る1つ以上の可動マウントを含み得る。一実施形態では、可動マウントは、車両200の周囲の各方向から情報を得るようにセンサを走査することができる回転プラットフォームを含み得る。別の実施形態では、センサユニット202の可動マウントは、角度および/または方位の特定の範囲内で走査的に移動可能であり得る。センサユニット202は、例えば、自動車のルーフの上に取り付けられ得るが、他の取り付け位置も可能である。
加えて、センサユニット202のセンサは、様々な場所に分散されてもよく、1つの場所に併置される必要はない。いくつかの考えられ得るセンサタイプおよび取り付け場所には、2つの追加の場所216、218が含まれる。さらに、センサユニット202の各センサは、センサユニット202の他のセンサとは独立して移動または走査されるように構成され得る。
ある構成例では、1つ以上のレーダスキャナ(例えば、第1および第2のレーダユニット208、210)が、電波反射オブジェクトがあるかどうか、車両200の背面付近の環境を能動的に走査するように、車両200の後部付近に位置し得る。同様に、第1のLIDAR/レーダユニット212および第2のLIDAR/レーダユニット214が、車両200の正面付近の環境を能動的に走査するように、車両200の正面付近に取り付けられ得る。レーダスキャナは、例えば、車両200の他の特徴によって塞がれることなく、車両200の前進路を含む領域を照らすのに好適な場所に位置付けられ得る。例えば、レーダスキャナは、フロントバンパ、フロントヘッドライト、カウル、および/またはボンネットなどに埋め込まれ、かつ/またはそれかその近くに取り付けられ得る。また、1つ以上の追加のレーダ走査デバイスが、リアバンパ、サイドパネル、ロッカーパネル、および/または車台などに、またはその近くにこのようなデバイスを含むことなどによって、電波反射オブジェクトがあるかどうか、車両200の側面および/または後部を能動的に走査するように位置し得る。
図2A~2Eには示されていないが、車両200は、無線通信システムを含み得る。無線通信システムは、車両200の外部または内部のデバイスと通信するように構成され得る無線送信器および無線受信器を含み得る。具体的には、無線通信システムは、例えば、車両通信システムまたは道路ステーションにおいて、他の車両および/またはコンピューティングデバイスと通信するように構成されたトランシーバを含み得る。このような車両通信システムの例には、DSRC、無線周波数識別(RFID)、およびインテリジェントトランスポートシステム向けに提案された他の通信規格が含まれる。
車両200は、場合によっては、センサユニット202内側の場所にカメラを含み得る。カメラは、車両200の環境の複数の画像をキャプチャするように構成されている、スチルカメラ、ビデオカメラなどの感光性機器であり得る。この目的のために、カメラは、可視光を検出するように構成され得、追加的または代替的に、赤外光または紫外光などのスペクトルの他の部分からの光を検出するように構成され得る。カメラは、二次元検出器であり得、必要に応じて、感度の三次元空間範囲を有し得る。いくつかの実施形態では、カメラは、例えば、カメラから環境内のいくつかの点までの距離を示す二次元画像を生成するように構成された範囲検出器を含み得る。この目的のために、カメラは、1つ以上の範囲検出技法を使用し得る。例えば、カメラは、構造化光技法を使用することによって範囲情報を提供することができ、この構造化光技法では、車両200が、格子またはチェッカーボードパターンなどの所定の光パターンで環境内のオブジェクトを照らし、またカメラを使用して、環境周囲からの所定の光パターンの反射を検出する。反射光パターンの歪みに基づいて、車両200は、オブジェクト上の点までの距離を決定し得る。所定の光パターンは、赤外光、またはそのような測定に好適な他の波長の放射線で構成され得る。いくつかの例では、カメラは、車両200のフロントガラスの内側に取り付けられ得る。具体的には、カメラは、車両200の向きに対して前方視から画像をキャプチャするように位置付けられ得る。カメラの他の取り付け場所および視野角もまた、車両200の内側または外側のいずれかで使用され得る。また、カメラは、調整可能な視野を提供するように動作可能な関連する光学素子を有し得る。さらにまた、カメラは、パン/チルト機構を介してなど、カメラの指向角を変えるように、可動マウントを用いて車両200に取り付けられ得る。
車両200は、これら示されたものに加えて、またはその代わりに1つ以上の他の構成要素を含み得る。追加の構成要素は、電気的または機械的機能を含み得る。
車両200の制御システムは、複数の可能な制御戦略の中から制御戦略に従って車両200を制御するように構成され得る。制御システムは、車両200に結合されたセンサから情報(車両200のオンまたはオフ)を受信し、その情報に基づいて制御戦略(および関連する運転挙動)を修正し、修正された制御戦略に従って車両200を制御するように構成され得る。制御システムは、センサから受信した情報を監視し、運転状態を継続的に評価するようにさらに構成され得、また、運転状態の変化に基づいて、制御戦略および運転挙動を修正するように構成され得る。
図3は、例示的な実施形態による、自律車両に関連する様々なコンピューティングシステム間の無線通信の概念図である。特に、無線通信は、ネットワーク304を介して、リモートコンピューティングシステム302と車両200との間で発生し得る。無線通信は、サーバコンピューティングシステム306とリモートコンピューティングシステム302との間、またサーバコンピューティングシステム306と車両200との間でも行われ得る。
車両200は、場所間で乗客またはオブジェクトを輸送することができる様々な種類の車両に対応することができ、上で考察される車両のうちの任意の1つ以上の形態を採り得る。場合によっては、車両200は、制御システムがセンサ測定値を使用して目的地間で車両200を安全にナビゲートすることを可能にする自律モードで動作し得る。自律モードで動作しているとき、車両200は、乗客の有無にかかわらずナビゲートし得る。その結果、車両200は、所望の目的地間で乗客を拾い、降ろし得る。
リモートコンピューティングシステム302は、本明細書に記載のものを含むがこれに限定されない、リモートアシスタンス技法に関係する任意の種類のデバイスを表し得る。例の中で、リモートコンピューティングシステム302は、(i)車両200に関係する情報を受信し、(ii)それを通して、次に人間のオペレータが情報に気付き、情報に関係する応答を入力することができる、インターフェースを提供し、(iii)応答を車両200に、または他のデバイスに送信する、ように構成された任意の種類のデバイスを表し得る。リモートコンピューティングシステム302は、ワークステーション、デスクトップコンピュータ、ラップトップ、タブレット、携帯電話(例えば、スマートフォン)、および/またはサーバなどの、様々な形態を採り得る。いくつかの例では、リモートコンピューティングシステム302は、ネットワーク構成で一緒に動作する多数のコンピューティングデバイスを含み得る。
リモートコンピューティングシステム302は、車両200のサブシステムおよび構成要素と同様または同一の1つ以上のサブシステムおよび構成要素を含み得る。最低でも、リモートコンピューティングシステム302は、本明細書で説明される様々な動作を行うために構成されたプロセッサを含み得る。いくつかの実施形態では、リモートコンピューティングシステム302は、タッチスクリーンおよびスピーカなどの入力/出力デバイスを含むユーザインターフェースも含み得る。他の例も、同様に可能である。
ネットワーク304は、リモートコンピューティングシステム302と車両200との間の無線通信を可能にするインフラストラクチャを表す。ネットワーク304はまた、サーバコンピューティングシステム306とリモートコンピューティングシステム302との間、またサーバコンピューティングシステム306と車両200との間の無線通信を可能にする。
リモートコンピューティングシステム302の位置は、例の範囲内で変わることができる。例えば、リモートコンピューティングシステム302は、ネットワーク304を介した無線通信を有する車両200から遠隔位置を有し得る。別の例では、リモートコンピューティングシステム302は、車両200とは別個であるが、人間のオペレータが車両200の乗客または運転者と相互作用することができる車両200内のコンピューティングデバイスに対応し得る。いくつかの例では、リモートコンピューティングシステム302は、車両200の乗客によって操作可能なタッチスクリーンを備えるコンピューティングデバイスであってもよい。
いくつかの実施形態では、リモートコンピューティングシステム302によって行われる本明細書で説明される動作は、追加的または代替的に、車両200によって(すなわち、車両200の任意のシステムまたはサブシステムによって)行われ得る。言い換えれば、車両200は、車両の運転者または乗客が相互作用することができるリモートアシスタンス機構を提供するように構成され得る。
サーバコンピューティングシステム306は、ネットワーク304を介してリモートコンピューティングシステム302および車両200と(または、場合によっては、リモートコンピューティングシステム302および/もしくは車両200と直接)無線通信するように構成され得る。サーバコンピューティングシステム306は、車両200およびそのリモートアシスタンスに関する情報を受信し、格納し、判断し、かつ/または送信するように構成された任意のコンピューティングデバイスを表し得る。このように、サーバコンピューティングシステム306は、リモートコンピューティングシステム302および/または車両200によって行われるものとして本明細書で説明される任意の動作またはそのような動作の部分を行うように構成され得る。リモートアシスタンスに関連する無線通信の一部の実施形態では、サーバコンピューティングシステム306を利用することができるが、他の実施形態では利用することができない。
サーバコンピューティングシステム306は、本明細書に記載の様々な動作を行うように構成されたプロセッサ、ならびにリモートコンピューティングシステム302および車両200から情報を受信し、それらに情報を提供するための無線通信インターフェースなどの、リモートコンピューティングシステム302および/または車両200のサブシステムおよび構成要素と同様または同一の1つ以上のサブシステムおよび構成要素を含み得る。
上記の様々なシステムは、様々な動作を行い得る。ここで、これらの動作および関連する機能について説明する。
上の考察に沿えば、コンピューティングシステム(例えば、リモートコンピューティングシステム302、サーバコンピューティングシステム306、または車両200にローカルなコンピューティングシステム)は、カメラを使用して自律車両の環境の画像をキャプチャするように働くことができる。一般に、少なくとも1つのコンピューティングシステムが画像を分析することができ、場合によっては自律車両を制御する。
いくつかの実施形態では、自律動作を容易にするために、車両(例えば、車両200)は、車両が動作する環境内のオブジェクトを表すデータ(本明細書では「環境データ」とも称される)を様々な方法で受信し得る。車両のセンサシステムは、環境のオブジェクトを表す環境データを提供し得る。例えば、車両は、カメラ、レーダユニット、レーザ距離計、マイクロフォン、ラジオユニット、および他のセンサを含む様々なセンサを有し得る。これらのセンサの各々は、各それぞれのセンサが受信する情報に関する環境データを車両内のプロセッサに伝え得る。
一例では、カメラが、静止画像および/またはビデオをキャプチャするように構成され得る。いくつかの実施形態では、車両は、異なる向きに位置付けられた2つ以上のカメラを有する場合がある。また、いくつかの実施形態では、カメラは、異なる方向で画像および/またはビデオをキャプチャするために移動することができる場合がある。カメラは、車両の処理システムによる後の処理のために、キャプチャされた画像およびビデオをメモリに格納するように構成され得る。キャプチャされた画像および/またはビデオは、環境データである場合がある。さらに、カメラは、本明細書で説明されるような画像センサを含み得る。
別の例では、レーダユニットが、車両の近くの様々なオブジェクトによって反射される電磁信号を送信し、次いでオブジェクトから反射する電磁信号をキャプチャするように構成され得る。キャプチャされた反射電磁信号は、レーダシステム(または処理システム)が電磁信号を反射したオブジェクトについて様々な判定を行うことを可能にし得る。例えば、様々な反射オブジェクトまでの距離および位置が判定され得る。いくつかの実施形態では、車両は、異なる向きに2つ以上のレーダを有し得る。レーダシステムは、車両の処理システムによる後の処理のために、キャプチャされた情報をメモリに格納するように構成され得る。レーダシステムによってキャプチャされた情報は、環境データである場合がある。
別の例では、レーザ距離計が、車両近くの対象オブジェクトによって反射される電磁信号(例えば、気体もしくはダイオードレーザ、または他の可能な光源からのものなどの赤外光)を送信するように構成され得る。レーザ距離計は、反射された電磁(例えば、レーザ)信号をキャプチャすることができ得る。キャプチャされた反射電磁信号は、測距システム(または処理システム)が様々なオブジェクトまでの距離を判定することを可能にし得る。レーザザ距離計はまた、対象オブジェクトの速度またはスピードを判定することができ、それを環境データとして格納することができる。
加えて、一例では、マイクロフォンが、車両の周囲の環境のオーディオをキャプチャするように構成され得る。マイクロフォンでキャプチャされた音は、緊急車両のサイレンや他の車両の音を含み得る。例えば、マイクロフォンは、救急車、消防自動車、警察車両のサイレンの音をキャプチャし得る。処理システムは、キャプチャされたオーディオ信号が緊急車両を示していることを識別することができ得る。別の例では、マイクロフォンは、オートバイからの排気など、別の車両の排気の音をキャプチャし得る。処理システムは、キャプチャされたオーディオ信号がオートバイを示していることを識別することができ得る。マイクロフォンによってキャプチャされたデータは、環境データの一部分を形成し得る。
さらに別の例では、ラジオユニットが、Bluetooth信号、802.11信号、および/または他の無線技術信号の形態を採り得る電磁信号を送信するように構成され得る。第1の電磁放射信号は、ラジオユニットに配置された1つ以上のアンテナを介して送信され得る。さらに、第1の電磁放射信号は、多くの異なる無線信号モードのうちの1つで送信されてもよい。しかしながら、いくつかの実施形態では、自律車両の近くに配置されているデバイスからの応答を要求する信号モードで第1の電磁放射信号を送信することが望ましい。処理システムは、ラジオユニットに返信された応答に基づいて近くのデバイスを検出することができ得、この伝達された情報を環境データの一部分として使用し得る。
いくつかの実施形態では、処理システムは、車両の環境をさらに判定するために、様々なセンサからの情報を組み合わせることが可能であり得る。例えば、処理システムは、レーダ情報およびキャプチャされた画像の両方からのデータを組み合わせて、別の車両または歩行者が自律車両の前にいるかどうかを判定し得る。他の実施形態では、センサデータの他の組み合わせを処理システムが使用して、環境についての判定を行い得る。
自律モードで動作している間、車両はほとんどまたはまったく人間の入力なしでその動作を制御し得る。例えば、人間のオペレータが住所を車両に入力すると、車両は、人間からのさらなる入力なしに(例えば、人間がブレーキ/アクセルペダルを操縦したり触れたりする必要がなく)、指定された目的地まで運転することができ得る。さらに、車両が自律的に動作している間、センサシステムは環境データを受信していてもよい。車両の処理システムは、様々なセンサから受信した環境データに基づいて車両の制御を変更し得る。いくつかの例では、車両は、様々なセンサからの環境データに応答して、車両の速度を変え得る。車両は、障害物を回避し、交通法に従うなどのために速度を変え得る。車両での処理システムが車両の近くのオブジェクトを識別すると、車両は速度を変更するか、または別の方法で動きを変えることが可能であり得る。
車両がオブジェクトを検出したがオブジェクトの検出に十分自信がない場合、車両は、人間のオペレータ(またはより強力なコンピュータ)に、(i)オブジェクトが実際に環境内に存在するかどうかを確認する(例えば、実際に一時停止標識があるか、または実際に一時停止標識がないか)、(ii)車両のオブジェクトの識別が正しいかどうかを確認する、(iii)識別が正しくなかった場合、識別を修正する、および/または(iv)自律車両に対して補足的な命令を提供する(または現在の命令を変更する)などの、1つ以上のリモートアシスタンスタスクを行うよう要求することができる。リモートアシスタンスタスクにはまた、人間のオペレータが車両の動作を制御するための命令を提供する(例えば、人間のオペレータが、オブジェクトは一時停止標識であると判断した場合、一時停止標識で停止するよう車両に命令する)ことが含まれ得るが、場合によっては、オブジェクトの識別に関わる人間のオペレータのフィードバックに基づいて、車両自体が自らの動作を制御することがある。
これを容易にするために、車両は、環境のオブジェクトを表す環境データを分析して、閾値未満の検出信頼度を有する少なくとも1つのオブジェクトを決定し得る。車両のプロセッサは、様々なセンサからの環境データに基づいて環境の様々なオブジェクトを検出するように構成され得る。例えば、一実施形態では、プロセッサは、車両が認識するのに重要であり得るオブジェクトを検出するように構成され得る。このようなオブジェクトには、歩行者、道路標識、他の車両、他の車両のインジケータ信号、およびキャプチャされた環境データで検出された他の様々なオブジェクトが含まれ得る。
検出信頼度は、決定されたオブジェクトが環境内で正しく識別されている、または環境内に存在している可能性を示し得る。例えば、プロセッサは、受信した環境データにおける画像データ内のオブジェクトのオブジェクト検出を行い、閾値を超える検出信頼度を有するオブジェクトを識別することができないことに基づいて、少なくとも1つのオブジェクトが閾値を下回る検出信頼度を有すると判断し得る。オブジェクトのオブジェクト検出またはオブジェクト認識の結果が決定的でない場合、検出信頼度が低いか、または設定閾値を下回っている可能性がある。
車両は、環境データのソースに応じて、様々な方法で環境のオブジェクトを検出し得る。いくつかの実施形態では、環境データは、カメラから来て、画像またはビデオデータであり得る。他の実施形態では、環境データは、LIDARユニットから来る場合がある。車両は、キャプチャされた画像またはビデオデータを分析して、画像またはビデオデータ内のオブジェクトを識別し得る。方法および装置は、環境のオブジェクトがあるかどうか、画像および/またはビデオデータをモニタするように構成され得る。他の実施形態では、環境データは、レーダ、オーディオ、または他のデータであり得る。車両は、レーダ、オーディオ、または他のデータに基づいて環境のオブジェクトを識別するように構成され得る。
いくつかの実施形態では、オブジェクトを検出するために車両が使用する技術は、既知のデータのセットに基づいていてもよい。例えば、環境オブジェクトに関連するデータは、車両に配置されたメモリに格納されてもよい。車両は、受信したデータを格納されたデータと比較して、オブジェクトを判定し得る。他の実施形態では、車両は、データの文脈に基づいてオブジェクトを判定するように構成され得る。例えば、建設に関連する街路標識は、概してオレンジ色を有し得る。したがって、車両は、道路脇近くに配置されたオレンジ色のオブジェクトを、工事関連の街路標識として検出するように構成されてもよい。加えて、車両の処理システムは、キャプチャされたデータ内のオブジェクトを検出すると、それはまた各オブジェクトの信頼度を計算することができる。
さらに、車両はまた、信頼度閾値を有し得る。信頼度閾値は、検出されるオブジェクトの種類に応じて異なり得る。例えば、別の車両のブレーキライトなど、車両からの迅速な応答アクションを要求し得るオブジェクトについては、信頼度閾値が低くなり得る。しかしながら、他の実施形態では、検出されたすべてのオブジェクトについて、信頼度閾値が同じであってもよい。検出されたオブジェクトに関連付けられた信頼度が信頼度閾値より高い場合、車両は、オブジェクトが正しく認識されたと想定し、その想定に基づいて車両の制御を応答的に調整し得る。
検出されたオブジェクトに関連付けられた信頼度が信頼度閾値より低い場合、車両が取るアクションは変わり得る。いくつかの実施形態では、車両は、低い信頼度レベルにもかかわらず、検出されたオブジェクトが存在するかのように反応する場合がある。他の実施形態では、車両は、検出されたオブジェクトが存在しないかのように反応することがある。
車両は、環境のオブジェクトを検出すると、特定の検出されたオブジェクトに関連付けられた信頼度も計算することができる。信頼度は、実施形態に応じて様々な方法で計算され得る。一例では、環境のオブジェクトを検出するとき、車両は、環境データを既知のオブジェクトに関連する所定のデータと比較し得る。環境データと所定のデータとの一致が近いほど、信頼度はより高くなる。他の実施形態では、車両は、環境データの数学的分析を使用して、オブジェクトに関連付けられた信頼度を判定し得る。
オブジェクトが閾値を下回る検出信頼度を有するとの判定に応答して、車両は、リモートコンピューティングシステムに、オブジェクトの識別とともにリモートアシスタンスの要求を送信し得る。上で考察されるように、リモートコンピューティングシステムは、様々な形態を採り得る。例えば、リモートコンピューティングシステムは、車両とは別個の車両内のコンピューティングデバイス、リモートアシスタンス情報を表示するためのタッチスクリーンインターフェースなど、であってもよいが、それによって人間のオペレータが車両の乗客または運転者と相互作用することができる。追加的または代替的に、別の例として、リモートコンピューティングシステムは、車両の近くではない場所に配置されたリモートコンピュータ端末または他のデバイスであってもよい。
リモートアシスタンスの要求は、画像データ、オーディオデータなどの、オブジェクトを含む環境データを含み得る。車両は、ネットワーク(例えば、ネットワーク304)上で、いくつかの実施形態では、サーバ(例えば、サーバコンピューティングシステム306)を介してリモートコンピューティングシステムに環境データを送信し得る。リモートコンピューティングシステムの人間のオペレータは、次に、要求に応答するための基礎として環境データを使用し得る。
いくつかの実施形態では、オブジェクトが信頼度閾値を下回る信頼度を有するとして検出された場合、オブジェクトには予備識別が与えられてもよく、車両は、予備識別に応答して車両の動作を調整するように構成され得る。そのような動作の調整は、他の可能な調整の中でもとりわけ、車両を停止すること、車両を人間制御モードに切り替えること、車両の速度(例えば、スピードおよび/または方向)を変更することの形態を採り得る。
他の実施形態では、車両が閾値を満たす、または超える信頼度を有するオブジェクトを検出した場合でも、車両は検出されたオブジェクトに従って動作し得る(例えば、オブジェクトが一時停止標識として高い信頼度で識別された場合に停止する)が、車両が検出されたオブジェクトに従って動作するのと同時に(または後で)リモートアシスタンスを要求するように構成され得る。
図4Aは、例示的な実施形態による、パルス検出デバイス400の簡略化されたブロック図である。パルス検出デバイス400は、LIDARデバイス(例えば、図1に示されるLIDAR128)の一部であり得る。一例では、パルス検出デバイス400は、LIDARデバイスに関連付けられたコンピューティングデバイス(例えば、図1に示されるコンピュータシステム112、図3に示されるリモートコンピューティングシステム302、および/または図3に示されるサーバコンピューティングシステム306)に結合され得、かつ制御され得る。
図示されるように、パルス検出デバイス400は、入力部402、信号スプリッタ404、微分器406、コンパレータ408、フリップフロップ/ラッチ410、時間デジタル変換器(TDC)416、ディレイ412、ADC414、ならびにデジタル出力418および420を含む。一例では、入力部402は、先で考察されるように、反射光を表すアナログ入力信号を受信するように構成され得る。この例では、入力部402は、反射光を受信するように構成された光検出器の出力部に結合され得る。場合によっては、入力部402は、信号プロセッサを介して光検出器の出力部に結合され得、光検出器の出力は、改善された信号対ノイズ比を有するよりクリーンな入力信号を入力部402に提供するためにフィルタリングおよび増幅される。
信号スプリッタ404は、入力部402に結合され、入力信号の第1の部分を微分器406に方向付け、入力信号の第2の部分をディレイ412に方向付けるように構成されている。信号スプリッタ404は、例えば、受動回路構成要素、能動回路構成要素、または入力部402で受信されたアナログ信号の2つの実質的に同一の部分を出力することができる受動回路構成要素と能動回路構成要素の組み合わせであり得る。
次に、微分器406は、スプリッタ404からアナログ信号の第1の部分を受信し、それに応じて、微分信号(すなわち、同調に対して微分された信号)を提供することができる。一例では、微分器406は、入力コンデンサおよびフィードバック抵抗器に結合された高入力インピーダンス演算増幅器を含む回路であり得る。この例では、コンデンサを流れる電流は、コンデンサ両端の電圧の時間微分に比例し得、電圧の時間微分に比例する電圧出力は、フィードバック抵抗器を流れる電流から生成され得る。別の例では、微分器406は、入力抵抗器および出力抵抗器と直列のコンデンサを含む受動抵抗器-コンデンサ(RC)回路であり得る。微分器406のための他の回路設計も可能であり得る。
次に、コンパレータ408は、微分器406から微分信号を受信し、微分信号が正(入力信号が増加している)であるか、または負(入力信号が減少している)であるかどうかを示す出力を提供することができる。一例では、コンパレータ408は、一方の入力部が接地に結合され、他方の入力部が微分器406に結合されて微分信号を受信する演算増幅器を含み得る。動作中、次いでコンパレータ408は、微分信号が接地で0より大きい場合は1(「オン」)の出力を提供し、微分信号が0未満の場合は0(「オフ」)の出力を提供することができる。したがって、コンパレータ408の出力における1から0への、または0から1への移行は、微分信号のゼロクロッシングを示し得る。コンパレータ408の他の回路設計もまた、可能であり得る。
次に、コンパレータ408の出力は、フリップフロップ/ラッチ410に提供され得、このフリップフロップ/ラッチ410は、セットアンドリセットラッチ、ゲートラッチ、またはDフリップフロップなどのいくつかの異なるフリップフロップまたはラッチ回路のうちの1つであり得る。一例では、フリップフロップ/ラッチ410は、前の入力(または状態)を記憶し、前の入力および現在の入力の両方に基づいて出力を提供するように構成され得る。パルス検出デバイス400に適用可能であるように、フリップフロップ/ラッチ410は、フリップフロップ/ラッチ410への連続する入力が1から0に移行した場合に、1(「オン」)出力を提供し、それ以外の場合は0(「オフ」)出力を提供するように構成され得る。このように、フリップフロップ/ラッチ410は、ゼロクロッシング時に1を出力することができ、これは、アナログ入力信号のパルスのピークが検出されたことを示す。フリップフロップ/ラッチ410の他の回路構成もまた、可能になり得る。
図4Aに示されるように、フリップフロップ/ラッチ410からの出力は、TDC416およびADC414の両方への入力として提供され得る。一例では、TDC416は、フリップフロップ/ラッチ410からの出力に応答して時間を表すデジタル出力418を提供するように構成され得る。ある場合には、時間は、基準時間と、フリップフロップ/ラッチ410から1の出力が受信されるときとの間の持続時間であり得る。LIDARデバイスに適用可能であるように、基準時間は、周囲環境内のオブジェクトから反射された検出された光パルスに対応する生成された光パルスが、LIDARデバイスによって提供される時間であり得る。TDC416は、生成された光パルスが提供されたときに増分を開始し、1の出力がフリップフロップ/ラッチ410から受信されたときに時間測定値としてカウンタの値を出力するように構成され得る高周波カウンタを含み得る。場合によっては、TDC416は、カウンタの周波数が不十分である場合に、追加された精度で時間の表現を提供するための時間内挿入機能をさらに含み得る。TDC416の他の構成もまた可能であり得る。
フリップフロップ/ラッチ410からの出力を受信することに加えて、図4Aに示されるようなADC414はまた、ディレイ412からの出力を受信することができる。先で考察されるように、ディレイ412は、時間遅延アナログ信号の一点が、元のアナログ信号の同じ点から生じるフリップフロップ/ラッチ410の出力に対応するように、入力アナログ信号の時間遅延バージョンを提供するように構成され得る。図示されるように、ディレイ412は、入力部402から入力アナログ信号の第2の部分を受信し、それに応じて、時間遅延アナログ信号をADC414に提供することができる。一例では、ディレイ412は、アナログ入力信号を受信してから現在時間遅延されたアナログ信号を提供するまでの間に時間遅延を作成するための一連の信号バッファおよび/またはインバータを含み得る。別の例では、ディレイ412は、時間遅延アナログ信号を出力する前に、高周波カウンタが所定の遅延量まで増加する間、アナログ入力信号を保持する回路を含み得る。ディレイ412の他の構成もまた、可能であり得る。
ADC414は、次いで、フリップフロップ/ラッチ410からの1の出力に応答して時間遅延アナログ信号の測定を行い、デジタル出力420を提供するように構成され得る。ディレイ412が、入力アナログ信号の時間遅延バージョンを提供すると仮定すると、時間遅延アナログ信号内の点が元のアナログ信号内の同一の点から生じるフリップフロップ/ラッチ410の出力に対応するようになっており、時間遅延アナログ信号の測定は、検出されたパルスのピークでの大きさまたは値に対応することになる。一例では、ADC414は、時間遅延アナログ信号をサンプリングし、時間遅延アナログ信号の値の増分されたデジタル表現を出力するように構成されたコンパレータのアレイを含み得る。ADC414の他の実装もまた可能になり得る。
図4Aに示されるように、出力418は、TDC416からの時間測定出力に対応し、出力420は、ADC414からの時間遅延アナログ信号におけるパルスの規模測定に対応する。出力418および出力420は、次いで、さらなる処理のためにコンピューティングデバイス422に提供され得、アナログ入力信号で検出されたパルスが反射された環境内のオブジェクトに関する情報を判定する。コンピューティングデバイス422は、TDC416(出力418)から受信した時間測定値に基づいて、LIDARデバイスからのオブジェクトの距離などの情報を判定することができ、オブジェクトのテクスチャまたは反射率などの情報は、ADC414(出力420)から受信したパルスの測定値の大きさに基づいて判定され得る。
図4Aに示されるパルス検出デバイス400に関連して上で考察される例は、パルスピーク値の動的測定のためのいくつかの実施形態を提供し、当業者は、本出願の範囲内で、考察される実施形態のバリエーションがまた可能であることを理解するであろう。
例えば、パルスピーク値の測定に関連する時間は、必要になり得ない。このことは、LIDARデバイスの別の構成要素が、周囲の環境内のオブジェクトの距離を判定するように構成されているときに該当し得る。このように、TDC416は、パルス検出デバイス400から取り外され得る。同様に、別の場合において、LIDARデバイス内の別の構成要素がパルスピーク値を判定するように構成されているとき、ADC414は、パルス検出デバイス400から取り外され得る。この場合にはディレイ412もまた除去され得る。他のバリエーションもまた可能になっている。
いくつかの実施形態では、LIDARデバイスは、距離を判定するために反射信号の時間遅延だけでなく、反射信号の強度も測定するように構成され得る。反射信号の強度の測定値は、範囲に加えて、周囲の環境内のオブジェクトに関する情報を提供し得る。例えば、反射信号の強度は、周囲のシーンにおけるオブジェクトの表面の色、(例えば、オブジェクトの表面の反射率に基づいて)周囲のシーンにおけるオブジェクトの表面をコーティングする材料、周囲のシーン内のオブジェクトの向き、ならびに/もしくは、周囲のシーン内のオブジェクトおよび/またはLIDARデバイス内のイメージング光学系の1つに亀裂またはその他の表面欠陥があるかどうかに関する情報を提供し得る。これらの理由から、とりわけ、反射信号の時間遅延に加えて、反射信号の強度を測定することが有益であることがある。
場合によっては、反射信号の強度を有意義に評価するために、LIDARデバイスの検出器(例えば、パルス検出デバイス400)がキャリブレーションされ得、それにより、出力電気信号(例えば、ADC414からの出力420)と検出器に付与された(例えば、フォトダイオードまたはSiPMの表面における)光の強度との間の関係性が正確に推定され得る。この関係性は、強度キャリブレーションデータとして使用され得る。さらに、そのような関係性は、検出器の「応答」と称されることもあり、応答曲線(例えば、入力光の強度またはパワーに対する検出器からの出力電気信号)によって特徴付けられ得る。応答曲線の例を図4Bに示す。横軸は、検出器への入射光強度に対応し得、縦軸は、(例えば、ADC414からの)出力電気信号に対応し得る。多くの場合、図4Bに示すように、応答曲線は非線形であり得る(例えば、これは設計によるものか、検出器の固有のデバイス特性によるものであり得る)。さらに、半導体デバイスの物理的かつ製造上の許容範囲により、異なる検出器の応答曲線は(同じ施設で製造されたものや同じデバイス仕様を使用したものでも)互いに異なることがある。これらの理由から、各検出器の応答を(例えば、製造後および/またはLIDARデバイスへの設置後に)個別に特徴付けることが有益になり得る。応答曲線は、後に、出力電気信号に基づいて入射光信号の実際の強度を取り消すために実行時に使用され得る。
本明細書に記載のいくつかの実施形態は、図4Bに示される応答曲線を決定するために使用される技法を含む。そのような技法の1つは、強度キャリブレーションシステム450の使用を含む。図4Cは、例示的な実施形態による、例示的な強度キャリブレーションシステム450のブロック図である。強度キャリブレーションシステム450は、パルス光源452、可変減衰器454、および光パルス検出デバイス(例えば、図4Aに示されるパルス検出デバイス400)を含み得る。
パルス光源452は、十分に特徴付けられた光源であり得、これは、パルス光源452によって出力される光信号の特性が、正確かつ精密に事前に判定され得ることを意味する。例えば、出力波長、光パルスのピーク出力パワー、光パルスの周波数、光パルスのパルス形状などは、パルス光源452に対して事前判定され得る。パルス光源452は、1つ以上のパルスレーザ(例えば、Qスイッチレーザ)を含み得る。代替的な実施形態では、連続波(CW)光源が代わりに使用され得る。さらに、パルス光源452は、パルス検出デバイス400と同期され得る。例えば、パルス光源452およびパルス検出デバイス400は、共通のクロック信号を基準にすることができる。そのような同期は、パルス光源452からパルス検出デバイス400に到達する波形の正確なタイミングが、(例えば、可変減衰器454によって適用される減衰に関係なく)判定され得ることを確実にすることができる。
可変減衰器454は、十分に特徴付けられた減衰器であり得、十分に特徴付けられたパルス光源452と組み合わせて、可変減衰器454から出力されるキャリブレーション信号の強度を正確に判定することができるようになっている。強度キャリブレーションシステム450を使用してパルス検出デバイス400に対して生成された(例えば、図4Bに示されているような)応答曲線の品質を向上させるために、出力キャリブレーション信号の正確に判定された強度が使用され得る。いくつかの実施形態では、可変減衰器454は、例えば、1つ以上の可変中性濃度フィルタおよび/または光ファイバの損失長さを含み得る。
強度キャリブレーションシステム450を使用して図4Bの応答曲線を決定することは、十分に特徴付けられた光源(例えば、パルス光源452)を使用してキャリブレーション信号を発すること、キャリブレーション信号を可変減衰器454に通すこと、および試験中の検出器(例えば、パルス検出デバイス400)を使用してキャリブレーション信号を検出することを含み得る。キャリブレーション信号は、一連のパルスとして送信される所与の波長の光信号であり得る。さらに、可変減衰器は、一連のレベルでキャリブレーション信号を減衰させる(例えば、キャリブレーション信号の連続するパルスを減衰させる)ことができる。例えば、可変減衰器は、キャリブレーション信号の強度を0%、次に1%、次に2%、次に3%、次に4%など、最大100%まで減衰させることができる。代替の実施形態では、減衰パターンは、多かれ少なかれ粒状であり得る。追加的または代替的に、代替の実施形態では、減衰パターンは、代わりに、最大減衰(例えば、100%減衰)で開始し得、次いで減少し得る。一連の減衰により、パルス検出デバイス400によって検出されるキャリブレーション信号の強度は、強度の範囲にわたって変化することになる。この検出された強度のこの範囲に基づいて、応答曲線はパルス検出デバイス400によって生成され得る。応答曲線を最も正確に決定するために、パルス光源452およびパルス検出デバイス400は、時間的に同期され得る。さらに、パルス光源452とパルス検出デバイス400との間の位相差(もしあれば)は、キャリブレーション測定の間、安定を維持し得る(または、安定でない場合、それが説明できるように決定され得る)。
キャリブレーション信号に応答してパルス検出デバイス400によって測定された応答曲線(例えば、パルス検出デバイス400のアナログ-デジタル(ADC)変換器からの出力)は、記録され得る(例えば、非一時的な、コンピュータ可読媒体内に格納され得る)。この応答曲線は、パルス検出デバイス400から出力された値を、パルス光源452によって発されたキャリブレーション信号の強度に、可変減衰器454によって変調されたものとして関連付けることができる。上述のように、この応答曲線は非線形であり得る。いくつかの実施形態では、応答曲線を生成するために内挿および/または回帰が実行され得る。さらに、いくつかの実施形態では、光の一連の異なる波長に対して一連の応答曲線(例えば、赤色光に対する1つの応答曲線、緑色光に対する1つの応答曲線、および青色光に対する1つの応答曲線)が生成され得る。そのような一連の応答曲線は、対応する一連の光源を使用して、またはパルス光源452によって出力されたキャリブレーション信号を変調することによって生成され得る。
応答曲線は、(例えば、デジタル方式で)格納され、後に実行時(例えば、LIDARデバイスを取り囲む環境の測定値をキャプチャするとき)に、取り囲む環境内のオブジェクトによって反射された光信号の強度および/またはパワーを評価して、それぞれのオブジェクトの特性(例えば、表面品質)を判定するために使用され得る。反射信号の強度および/またはパワーを評価するために応答曲線を使用する場合、非線形応答曲線は、検出器の所与の動作パラメータでの検出器の小信号スロープに基づいて線形近似にマッピングされ得る。デバイスの仕様/半導体デバイスの物理的特性に基づいて、半導体検出器の小信号スロープが正確に特性化され得る。
ここで、ウォークエラーの考えられる原因の1つをより具体的に示すために、図5Aおよび5Bについて考察する。図5Aは、例示的な実施形態による、時間に対する一連の反射信号の図解である。第1の検出された反射信号502は、低いピーク強度を有する反射に対応し得、第2の検出された反射信号504は、中程度のピーク強度を有する反射に対応し得、第3の検出された反射信号506は、高いピーク強度を有する反射に対応し得る。検出された反射信号502、504、506の各々は、LIDARデバイスの光源によって送信され、LIDARデバイスを取り巻く環境内のオブジェクトから反射され、次いでパルス検出デバイス(例えば、図4Aのパルス検出装置400)によって検出された光パルスに対応し得る。プロットされたように、検出された反射信号502、504、506は、ADC(例えば、図4Aに示されるADC414)からの出力に対応し得る。
図5Aで光パルスが反射されるそれぞれのオブジェクトまでの距離は同じである。したがって、それぞれの検出された反射信号502、504、506がそれぞれの最大値に到達する時間508は同じである。それぞれの検出された反射信号502、504、506の間の唯一の違いは、検出されたパルスの強度である。言い換えれば、検出された反射信号502、504、506がLIDARデバイスから環境内のオブジェクトへ再び戻るまでの通過時間は同じであるが、反射強度は異なる。反射強度におけるこのような違いは、LIDAR送信器からのそれぞれの光信号の異なる放出強度に起因し得る。追加的または代替的に、反射強度の違いは、環境内のそれぞれのオブジェクトの異なる反射率によるか、または環境内の送信された/反射された信号の減衰の違い(例えば、霧、煙、ほこり、雨、雪、等による)により得る。
検出された反射信号502、504、506の3つのインスタンスにおけるオブジェクトまでの距離は同じであり、強度の最大値は同一の時間508で生じることから、信号の各々について、LIDARデバイスによって判定されるそれぞれのオブジェクトまでのいずれの範囲も理想的には同じである。オブジェクトまでの範囲を判定する1つの方法は、検出された反射信号502、504、506を時間に対して(例えば、図4Aに示される微分器406を使用して)微分し、次いで、(例えば、図4Aを参照して上記で説明したように)微分された信号のゼロクロッシングを判定することを含む。
図5Bは、例示的な実施形態による、一連の図5Aで検出された反射信号の時間微分を示している。例えば、第1の時間微分信号512は、第1の検出された反射信号502に対応し得、第2の時間微分信号514は、第2の検出された反射信号504に対応し得、第3の時間微分信号516は、第3の検出された反射信号506に対応し得る。時間微分信号512、514、516は、微分器(例えば、図4Aに示される微分器406)によって生成され得る。図5Bには、正の閾値522および負の閾値524も示されている。正の閾値522および負の閾値524は、閾値522、524と交差することが時間微分信号512、514、516の効果的なゼロクロッシングを判定するために使用され得るゼロに十分に近い時間微分の値に対応し得る(例えば、時間微分信号512、514、516が正の閾値522を下回るか、または負の閾値524を上回るとき)。閾値522、524は、(例えば、標準化された強度の光信号を使用する、および/または標準化された波形を有するゼロクロッシングのキャリブレーションに基づいて)事前に決定され得る。いくつかの実施形態では、ノイズによる誤検知から保護するために、ゼロの値ではなく、ゼロクロッシングを判定するために閾値522、524が使用され得る。実際のゼロクロッシングが使用された場合、強度の小さな振動による検出された反射信号502、504、506の局所的な極大値/最小値は、時間微分信号512、514、516のゼロクロッシングに基づいて最大強度点として不適切に検出され得る。
時間微分信号512、514、516における閾値522、524のクロッシングの判定は、コンパレータ(例えば、図4Aに示されるコンパレータ408)によって実行され得る。さらに、閾値522、524のクロッシングの判定は、時間微分信号512、514、516の立ち上がりエッジおよび立ち下がりエッジの一方または両方を使用して実行され得る。さらに、立ち上がりエッジと立ち下がりエッジの閾値522、524のクロッシングを互いに比較することが、検出された反射信号502、504、506のパルス幅を推定するために使用され得る。パルス幅は、他の計算/キャリブレーションで使用され得る(例えば、送信器が適切に機能していることを確認するために、判定されたパルス幅が、LIDARデバイスの送信器の動作仕様と比較され得る)。
しかしながら、時間微分信号512、514、516によるそれぞれの閾値522、524のクロッシングのために、ウォークエラーの1つの原因が存在する。検出された3つの反射信号502、504、506はすべて、(図5Aに示すように)同じ時点で最大強度に達し、したがって、時間微分信号512、514、516の各々は、(図5Bに示すように)時間における同一点においてゼロクロッシングを有する。しかしながら、検出された反射光信号502、504、506の波形は互いに異なることから、閾値クロッシングが生じる時間は同一でない。図5Bに示されるように、第1の時間微分信号512は、第1の時間532で正の閾値522を横切り、第2の時間微分信号514は、第2の時間534で正の閾値522を横切り、第3の時間微分信号516は、第3の時間536で正の閾値522を横切る。同様に、第3の時間微分信号516は、第4の時間546で負の閾値524を横切り、第2の時間微分信号514は、第5の時間544で負の閾値524を横切り、第1の時間微分信号512は、第6の時間542で負の閾値524を横切る。
第1の時間532、第2の時間534、および第3の時間536は同一でないことから、光信号の通過時間(例えば、LIDARシステムによって検出されたオブジェクトまでの距離)に基づいて行われる評価も同様に等しくない。さらに、信号の強度が低いほど、実際のゼロクロッシングと閾値のクロッシングとの間の不一致がより顕著になる(例えば、第1の検出された反射信号502は、第3の検出された反射信号506よりも低い強度を有し、それに対応して、第1の時間532は、第3の時間536よりも実際のゼロクロッシング時間から遠くなる)。この強度に依存する誤差は、前述のように「ウォークエラー」と称されることもある。ウォークエラーの他の原因もまたあり得る。このウォークエラーを補償するために、本明細書に記載のキャリブレーション技法が実行され得る。
図6は、例示的な実施形態による、キャリブレーションターゲット600の図である。キャリブレーションターゲット600は、LIDARデバイスの検出器をキャリブレーションするために使用され得る。例えば、キャリブレーションターゲット600は、LIDARデバイスから所定の距離に位置付けられることができ、一連の光信号は、LIDARデバイスの送信器によってキャリブレーションターゲット600に投影され得、キャリブレーションターゲット600から反射され得、そしてLIDARデバイスの検出器によって(例えば、図4Aに示されるパルス検出デバイス400を使用して)検出され得る。検出された反射光信号の波形を使用して、(例えば、図5Bに示される時間微分信号512、514、516と同様の)検出された反射信号の時間微分の閾値クロッシングに基づいて、LIDARデバイスとキャリブレーションターゲット600との間の所定の距離を、LIDARデバイスとキャリブレーションターゲット600との間の見掛け距離に比較することによって、キャリブレーション測定が実行され得る。
キャリブレーションターゲット600は、第1の反射領域602、第2の反射領域604、第3の反射領域606、第4の反射領域608、第5の反射領域610、第6の反射領域612、および1つ以上のエッジ614を含み得る。反射領域602、604、606、608、610、612の各々は、異なる反射率を有し得る。このようにして、単一の出力強度を有するLIDARデバイスからの送信器を使用して、キャリブレーションターゲット600の異なる領域で信号を送信することによって、反射強度の範囲を有する信号を生成することができる。例えば、反射信号の強度は、LIDARデバイスの送信器の出力強度の1%~99%にわたることがある。送信器/検出器の対の送信器と検出器との間の整列は反射信号の強度に影響を与えることがあるため、(例えば、キャリブレーション専用の別個の光源であるよりも)光源として対になった送信器を用いた検出器のキャリブレーションを実行することが有益となり得る。さらに、使用される特定の送信器は、固有の強度波形を有する光信号を放出することができ、その対の送信器を使用して検出器のキャリブレーションを実行することを改めて有益なものにしており、放出された光信号からの強度波形が、実行時にキャリブレーション中のものと同じであるようになっている。
第1の反射領域602は、図示するように、第2の反射領域604と第5の反射領域610との間にキャリブレーションターゲット600のセクションを含み得る。さらに、第1の反射領域602はまた、図示するように、キャリブレーションターゲット600の外周/境界を含み得る。他の実施形態では、第1の反射領域602は、キャリブレーションターゲット600の他のセクション(例えば、キャリブレーションターゲット600の追加的部分またはより少ない部分)を占有し得る。第1の反射領域602は、5%~10%の反射率を有し得る。例えば、第1の反射領域602は、色が黒色であることができ、主として吸収性であるようになっている。
第2の反射領域604は、図示するように、キャリブレーションターゲット600の左上部分を含み得る。他の実施形態では、第2の反射領域604は、キャリブレーションターゲット600の他のセクション(例えば、キャリブレーションターゲット600の追加的部分またはより少ない部分)を占有し得る。第2の反射領域604は、95%~100%の反射率を有し得る。例えば、第2の反射領域604は、1つ以上の再帰反射材料(例えば、コーナーリフレクタ)を含み得る。
第3の反射領域606は、図示するように、キャリブレーションターゲット600の左下部分を含み得る。他の実施形態では、第3の反射領域606は、キャリブレーションターゲット600の他のセクション(例えば、キャリブレーションターゲット600の追加的部分またはより少ない部分)を占有し得る。第3の反射領域606は、15%~20%の反射率を有し得る。例えば、第3の反射領域606は、色が灰色であることができ、主として吸収性であるようになっている。
第4の反射領域608は、図示するように、第3の反射領域606と第6の反射領域612との間にキャリブレーションターゲット600のセクションを含み得る。第4の反射領域608は、高反射部分が散在する低反射部分を含み得る。例えば、第4の反射領域608は、部分的に黒色テープ(例えば、黒色マスキングテープ)で覆われた再帰反射材料(例えば、第2の反射領域604と同じ再帰反射材料)を含み得る。露出した再帰反射領域の幅は、例えば、黒色テープ部分に対する第4の反射領域608の面積の1%、5%、10%、15%、20%、25%、30%、35%、40%、45%、50%、55%、60%、65%、70%、75%、80%、85%、90%、95%、または99%を構成し得る。他の割合もまた、可能である。
第5の反射領域610は、図示するように、キャリブレーションターゲット600の右上部分を含み得る。他の実施形態では、第5の反射領域610は、キャリブレーションターゲット600の他のセクション(例えば、キャリブレーションターゲット600の追加的部分またはより少ない部分)を占有し得る。第5の反射領域610は、主に透過性であり得る(例えば、領域に入射する光の大部分を、領域を通して通過させることができる)。したがって、第5の反射領域610は、低い反射率(例えば、1%~5%)を有し得る。例えば、第5の反射領域610は、光学窓を含み得る。いくつかの実施形態では、光学窓は、光学窓の反射率をさらに低下させるために、反射防止コーティング(例えば、LIDARデバイスの送信器によって放出される波長に対応する4分の1波長コーティング)でコーティングされ得る。
第6の反射領域612は、図示するように、キャリブレーションターゲット600の右下部分を含み得る。他の実施形態では、第6の反射領域612は、キャリブレーションターゲット600の他のセクション(例えば、キャリブレーションターゲット600の追加的部分またはより少ない部分)を占有し得る。いくつかの実施形態では、第6の反射領域612は、60%~80%の反射率を有し得る。例えば、第6の反射領域612は、1枚の白い紙を含み得る。
いくつかの実施形態では、キャリブレーションターゲットの1つ以上の反射領域は、キャリブレーションターゲットの周囲を画定するフレームに取り付けられたパネルであり得る。他の実施形態では、1つ以上の反射領域は、平坦な裏張りパネル(例えば、ガラスまたは他の透過性材料のスラブ)に装着されたオーバーレイであり得る。いくつかの実施形態では、キャリブレーションターゲットの1つ以上の反射領域および/または他の構成要素は、低反射性材料(例えば、黒いガッファーテープ)によって(例えば、それぞれの反射領域または構成要素の周囲の周りで)囲まれ得、(例えば、キャリブレーションに使用できる広範囲の反射率を維持するために)高強度のリターンが生成されることを防止する。このことは、装着場所(例えば、1つ以上の反射領域がキャリブレーションターゲットの金属フレームおよび/または裏張りパネルに接着されている場所)において特に有用になり得る。
いくつかの実施形態では、LIDARデバイスの送信器によって放出された1つ以上の光信号は、キャリブレーションターゲット600のエッジ614に向けて放出され得る。例えば、光信号は、キャリブレーションターゲット600のエッジ614に向けて放出され得、光信号の一部分のみがキャリブレーションターゲット600と交差し、交差しない部分がキャリブレーションターゲット600を超えて継続し、キャリブレーションターゲット600によって反射されないようになっている。このようにして、検出された反射信号の強度は、キャリブレーションターゲット600によって反射されないために入射強度の一部分が失われるので、さらに低減され得る。したがって、より広範囲の反射強度が、それぞれの反射領域の反射率にLIDARデバイスの送信器によって放出された光信号の入射強度を乗算したものを超えてアクセス可能になり得る。
代替的な実施形態では、反射領域602、604、606、608、610、612のうちの1つ以上は、図6に示されているものとは異なる形状またはサイズを有することがある。例えば、反射領域602、604、606、608、610、612のうちの1つ以上は、円形、三角形、五角形、六角形などであり得る。追加的または代替的に、いくつかの実施形態では、反射領域602、604、606、608、610、612のうち1つ以上は、他の反射領域602、604、606、608、610、612のうちの1つ以上とは異なるサイズまたは形状を有し得る。例えば、いくつかの実施形態では、第1の反射領域602は、第2の反射領域604とは異なるサイズまたは形状を有し得る。さらに、いくつかの実施形態では、6つより多いか、または少ない反射領域があってもよい。さらに、それぞれの反射領域の反射率は、上述のものよりも大きくても小さくてもよい(例えば、1つ以上の反射領域は、本明細書に記載されたものとは異なる1つ以上の材料で形成されていてもよい)。さらに、いくつかの実施形態では、キャリブレーションターゲットの反射領域602、604、606、608、610、612は、試験されるLIDARデバイスの送信器の1つ以上の特性に基づいて(例えば、LIDARデバイスの送信器の発光波長に基づいて)設計されてもよい。
さらに他の実施形態では、キャリブレーションターゲットは、代わりに、各々が異なる反射率値を有する離散数の反射領域ではなく、反射率値の連続値(例えば、0%~100%まで連続的に及ぶ)を含み得る。このような連続値は、様々な透過率を備えた1つ以上の中性濃度(ND)フィルタ(例えば、連続可変NDフィルタ)で覆われたほぼ100%反射性の材料を使用して製造できる。このような連続値は、キャリブレーションターゲットを使用して生成することができる検出された反射信号に対して可能な強度値の数を増やすことができる(すなわち、キャリブレーションされる検出器のフルダイナミックレンジにわたる強度の増強された分布を可能にすることができる)。
図7Aは、例示的な実施形態による、LIDARシステム700の図である。キャリブレーションシステム700は、キャリブレーションターゲット(例えば、図6に示されるキャリブレーションターゲット600)と、第1の検出器702および第1の送信器704の両方を含むLIDARデバイスと、を含み得る。キャリブレーションシステム700はまた、LIDARステージ706およびターゲットステージ716を含み得る。上述のように、LIDARデバイスは、所定の距離(例えば、5メートル、10メートル、15メートル、20メートル、25メートルなど)でキャリブレーションターゲット600から分離され得る。さらに、第1の検出器702は、1つ以上の光検出器(例えば、SiPM、APD、SPADなど)を含み得、第1の送信器704は、1つ以上のレーザ源を含み得る。
キャリブレーションシステム700は、第1の検出器702をキャリブレーションするために(例えば、第1の検出器702におけるウォークエラーを説明するために、キャリブレーション曲線などのキャリブレーションデータのセットを生成するために)使用され得る。第1の検出器702のキャリブレーションにおける1つのステップは、第1の送信器704からキャリブレーションターゲット600の第1の領域(例えば、第2の反射領域604)に向かって光信号を放出することを含み得る。キャリブレーションターゲット600のそれぞれの領域の反射率に基づく対応する強度で光信号がキャリブレーションターゲット600から反射された後、反射された光信号は、第1の検出器702によって検出され得る。次に、LIDARデバイス(例えば、第1の検出器702および第1の送信器704)とキャリブレーションターゲット600との間の見掛け距離は、検出された反射信号に基づいて(例えば、図5Bに示されている時間微分信号と同様の、検出された反射信号の時間微分の閾値クロッシングを使用して)判定され得る。キャリブレーションターゲット600とLIDARデバイス(例えば、第1の検出器702および第1の送信器704)との間の実際の距離、検出された反射信号の波形、検出された反射信号の最大強度、検出された反射の時間微分信号、および/またはLIDARデバイスとキャリブレーションターゲット600との間の見掛け距離は、実行時に(例えば、キャリブレーション曲線および/またはルックアップテーブルなどの、キャリブレーションデータの1セット内の点として)使用するために(例えば、非一時的な、コンピュータ可読媒体に)格納され得る。例えば、値の1対は、実行中に使用するためにルックアップテーブルに格納され得る。第1の値は、検出された反射信号の最大強度であり得、第2の値は、LIDARデバイスとキャリブレーションターゲット600との間の実際の距離と、(検出された反射信号の時間微分の閾値クロッシングによって判定されたような)LIDARデバイスとキャリブレーションターゲット600との間の見掛け距離との間の差であり得る。したがって、実行時(つまり、環境内のオブジェクトまでの未知の範囲を検出するためにLIDARデバイスが使用されているとき)、対応する時間微分信号と検出された反射信号の最大強度の閾値クロッシングに基づいて、判定された距離の誤差を説明することにより、オブジェクトまでの判定された範囲が補正され得る。
図7Bは、キャリブレーションシステム700を使用して行われた第2のキャリブレーション測定を示している。図7Aに示された測定と同様に、図7Bに示された測定は、LIDARデバイスの第1の送信器704からの光信号の放出を含み、この光信号は、キャリブレーションターゲット600から反射され、LIDARデバイスの第1の検出器702によって検出されている。しかしながら、図7Bでは、光信号は、図7Aとは異なるキャリブレーションターゲット600の反射領域に向けて放出され得る。例えば、光信号は、図6に示されるキャリブレーションターゲット600の第1の反射領域602に向けて放出され得る。このようにして、キャリブレーションターゲット600の異なる反射率が使用されることができ、それにより、異なる信号強度のキャリブレーションを可能にしている。
図7Aに示されるキャリブレーション測定と同様に、キャリブレーションターゲット600とLIDARデバイス(例えば、第1の検出器702および第1の送信器704)との間の実際の距離、検出された反射信号の波形、検出された反射信号の最大強度、検出された反射の時間微分信号、および/またはLIDARデバイスとキャリブレーションターゲット600との間の見掛け距離は、実行時に(例えば、キャリブレーション曲線および/またはルックアップテーブルなどの、キャリブレーションデータの1セット内の点として)使用するために(例えば、非一時的な、コンピュータ可読媒体に)格納され得る。
キャリブレーションターゲットのさらに別の反射領域(例えば、図6に示されるような第5の反射領域610)に向けて信号を放出することを含む第3のキャリブレーション測定が、図7Cに示されている。図7A~図7Cの各キャリブレーション測定から収集されたデータは、同じルックアップテーブルに格納され得る。追加的または代替的に、キャリブレーション測定から収集されたデータは、キャリブレーション曲線(例えば、ターゲットまでの判定された距離の誤差を検出された反射信号の最大強度に関連付ける内挿および/または回帰によって生成されたキャリブレーション曲線)に格納され得る。
光信号をキャリブレーションターゲット600の異なる領域に方向付けるために、LIDARデバイスは、キャリブレーション測定間(例えば、図7Aの測定と図7Bの測定との間)に回転され得る。そのような回転は、図7A~図7Cに示されるように、LIDARステージ706によって実行され得る。LIDARステージ706は、LIDARデバイスをヨー方向、ピッチ方向、またはロール方向に回転させるように構成された電動のチップ/チルトステージを含み得る。さらに、LIDARステージ706は、キャリブレーションターゲット600に対して(例えば、x、y、およびz方向で)LIDARデバイスを直線状に平行移動するように構成され得る。そのような直線状の平行移動は、例えば、LIDARデバイスとキャリブレーションターゲット600との間の異なるキャリブレーション距離の特徴付けを可能にし得る。さらに、LIDARステージ706は、コンピュータデバイス(例えば、モータコントローラ)によって制御され得る。
追加的または代替的に、ターゲットステージ716は、(例えば、電動のチップ/チルトステージを介して)キャリブレーションターゲット600をヨー方向、ピッチ方向、またはロール方向に回転させるように、および/またはキャリブレーションターゲット600をLIDARデバイスに対して(例えば、x、y、z方向で)直線状に平行移動させるように構成され得る。ターゲットステージ716は、同様に、コンピューティングデバイス(例えば、モータコントローラ)によって制御され得る。いくつかの実施形態では、異なる視点を特徴付けるためにキャリブレーションターゲット600に対してLIDARデバイスを平行移動および/または回転させるのではなく(またはそれに加えて)、キャリブレーションターゲット600が、LIDARデバイスに対して(例えば、ターゲットステージ716を使用して)平行移動および/または回転され得る。
キャリブレーション測定の間のLIDARデバイスの回転に基づいて、LIDARデバイスとキャリブレーションターゲット600との間の距離は、キャリブレーションターゲット600の異なる反射領域に対して異なり得る。いくつかの実施形態では、このことは、(例えば、第1の送信器704の平坦なキャリブレーションターゲット600に対する配向角度の差に基づいて実際の距離の差を三角測量で計算することによって)格納された実際の距離で説明することができる。代替的な実施形態では、適切な曲率半径を有する湾曲した(例えば、球形に湾曲したまたは円筒状に湾曲した)キャリブレーションターゲットが使用され得、LIDARデバイスの回転があっても、LIDARデバイスとキャリブレーションターゲットのそれぞれの反射領域の各々との間の距離が同一であるようになっている。
図7A~図7Cに示されているものに加えてキャリブレーション測定が実行され、LIDARデバイスの第1の検出器702のキャリブレーションデータを生成することができる。例えば、追加的信号は、第1の送信器704によって、(例えば、異なる強度波形を有する追加の検出された反射信号を特徴付けるために)キャリブレーションターゲット600の追加の反射領域に向かって放出され得る。追加的または代替的に、キャリブレーションターゲット600は、LIDARデバイスに対して移動され得、LIDARデバイスとキャリブレーションターゲット600との間の異なる距離で取得された追加のデータポイントがキャプチャされ得るようになっている。そのような追加のデータポイントは、キャリブレーションターゲット600が、LIDARデバイスおよび/またはキャリブレーションターゲット600の異なる反射領域に対して移動される前と同じキャリブレーションターゲット600の反射領域からの光信号を反射することによってキャプチャされ得る。
送信器によって送信された一連の信号に基づいて生成されたいくつかのキャリブレーション曲線の例が図8A~図8Cに示されている。キャリブレーション曲線は、距離誤差(例えば、キャリブレーションターゲットまでの実際距離と比較したときの時間微分信号内の閾値クロッシングに基づいて判定されたキャリブレーションターゲットまでの見掛け距離の誤差)を、(例えば、パルス検出装置400のADCからの出力として)検出された反射信号の最大強度に関連付けることができる。さらに、キャリブレーション曲線は、同じ変数を相関させる、実行中に使用するために格納された1つ以上のルックアップテーブルに対応し得る。
図8A~図8Cに示されているキャリブレーション曲線は、異なる送信器/検出器の対(例えば、単一のLIDARデバイスの異なる対、または異なるLIDARデバイスの異なる対)に各々対応し得る。いくつかの実施形態では、図9A~図9Dに関して以下に説明するように、いくつかのLIDARデバイスは、送信器/検出器の複数の対を含み得る。送信器/検出器の各対の動作は、(例えば、検出器の半導体デバイスの物理的性質に基づいて)少なくともわずかに異なる可能性があるため、LIDARデバイス内の送信器/検出器の各対に対して個別のキャリブレーション曲線が生成され得る。例えば、図8Aのキャリブレーション曲線は、LIDARデバイスの第1の送信器/第1の検出器のキャリブレーションに対応し得、図8Bのキャリブレーション曲線は、LIDARデバイスの第2の送信器/第2の検出器のキャリブレーションに対応し得、図8Cのキャリブレーション曲線は、LIDARデバイスの第3の送信器/第3の検出器のキャリブレーションに対応し得る。さらに、複数の送信器/検出器の対を含むLIDARデバイスの視野は、キャリブレーションターゲット600によって占有されるよりも広い領域にわたり得る。したがって、そのようなLIDARデバイスの視野全体のキャリブレーション曲線の完全なセットを取得するために、LIDARデバイスは、送信器/検出器の各対による送信/検出イベントの間で、(例えば、LIDARステージ706によって)平行移動および/または回転され得る。
キャリブレーション曲線が生成された後、キャリブレーション曲線が実行時に使用され得、特定の検出器内に存在する固有のウォークエラーを補償することができる。例えば、図8Aに示されるように、第1の出力802がLIDARデバイスのADCから検出されるとき、第1の距離誤差804が、キャリブレーション曲線に基づいて判定され得る。第1の出力802は、(例えば、図5Aおよび図5Bに示され、これらを参照して説明されるように)対応する時間微分信号の閾値クロッシングでの検出された反射信号の強度に対応し得る。第1の距離誤差804は、存在するLIDARデバイスの固有のウォークエラーで判定される見掛け範囲に加算または減算され得る。同様に、図8Bおよび8Cにそれぞれ示されるように、第2の距離誤差814および第3の距離誤差824は、異なる光検出器のADCからの第2の出力812および第3の出力822にそれぞれ対応し得る。さらに、図示されるように、第1の出力802、第2の出力812、および第3の出力822は、同じ数値を各々有し得るが、対応する第1の距離誤差804、第2の距離誤差814、および第3の距離誤差824は、第1、第2、および第3の送信器/検出器の対の間の本質的な違いにより、数値的に互いに異なり得る。
場合によっては(例えば、図8A~図8Cに示すキャリブレーションデータの生成を実行した後)、光検出器は、キャリブレーション中に特徴付けられた動作から離れてドリフトすることがある。そのため、時間の経過とともに、様々な波形のキャリブレーションデータが増減し得る。例えば、周囲温度が検出器の半導体デバイスの物理的特性に影響を与えることがあり、それにより、キャリブレーション中に特徴付けられたものとは異なるウォークエラーが発生することがある。パルス検出デバイス内のドリフトの他の原因もまた、可能である(例えば、コンパレータによって設定された閾値は、経時的に一定に保たれないことがある)。
時間の経過に伴う検出器の挙動の変化を説明するための1つの技術は、キャリブレーションシステム(例えば、図7A~図7Cに示されるキャリブレーションシステム700のような、送信器/検出器の対を最初にキャリブレーションするために使用される同じキャリブレーションシステム)を使用してキャリブレーションを再実行して新しいキャリブレーションデータを取得することである。しかしながら、このような手法は、一部の用途では実用的でないことがある。例えば、LIDARデバイスが初期キャリブレーション後に別のシステムに取り付けられている場合(例えば、オブジェクト検出用の自律車両)、システムからLIDARデバイスを取り外すことは、時間がかかり、費用がかかり、および/または実行不可能であり得る。さらに、自律車両は、自律車両と取り付けられたLIDARデバイスとの組み合わせがキャリブレーションシステムとともに使用することができないようなサイズであることがある(例えば、検出器がキャリブレーションシステム内に配置されていない場合、キャリブレーションターゲットは検出器の視野内にないことになり、または一旦、LIDARデバイスが自律車両に装着された後、検出器の全視野がキャリブレーションシステムを使用してキャリブレーションされない)。したがって、キャリブレーションシステムを使用してLIDARデバイスの検出器の全体のキャリブレーションを再度実行することは困難または望ましくなくなり得る。したがって、再キャリブレーションを実行する他の方法が本明細書に記載されている。
確認キャリブレーションは、実行時(例えば、LIDARデバイスが送信された光信号を使用して周囲環境をスキャンしてオブジェクト検出を実行しているとき)に実行され得る。例えば、確認キャリブレーションは、LIDARデバイスを使用する自律車両が道路をナビゲートしているときに実行されることがある。追加的または代替的に、確認キャリブレーションは、LIDARデバイスを使用する自律車両が、1つ以上のバッテリーを再充電し、燃料を補充し、および/または保管ガレージに駐車しているときに、いつでも発生することがある。
さらに、そのような確認キャリブレーションは、1つ以上のオンボードコンピューティングデバイス(例えば、図1に示されるコンピュータシステム112などのLIDARデバイスの、および/またはLIDARデバイスを使用するシステムの1つ以上のオンボードコントローラ)を使用して実行され得る。代替的に、確認キャリブレーションは、図3に示されるサーバコンピューティングシステム306またはリモートコンピューティングシステム302などのリモートコンピューティングデバイスによって実行され得る。さらに他の実施形態では、測定からのデータが、遠隔で(例えば、クラウドサーバーなどの非一時的なコンピュータ可読媒体に)格納されることができ、確認キャリブレーションが後に(例えば、1つ以上のオンボードコンピューティングデバイスおよび/または1つ以上のリモートコンピューティングデバイスによって)実行されることができる。後に確認キャリブレーションを実行することで、他のタスク(例えば、自律車両におけるオブジェクト検出および回避タスクの実行)のためにコンピューティングリソースを解放することができる。
本明細書で企図されるいくつかの確認キャリブレーションは、(例えば、上述のキャリブレーション技術を使用して)判定された範囲を以前にキャリブレーションされたいくつかの送信器/検出器の対にわたるシーン内の同じオブジェクトに比較することができる。例えば、LIDARデバイスの各送信器/検出器の対は、周囲シーン内のオブジェクトまでの距離を判定できる。それぞれの距離は、検出された反射信号の時間微分における閾値クロッシングに基づき得る。さらに、それぞれの距離は、それぞれの送信器/検出器の対に対して以前に判定されたキャリブレーションデータ(例えば、キャリブレーション曲線)に基づいて、判定された距離における任意のウォークエラーを説明することを試みることができる。その後、空間内のオブジェクトの最も可能性の高い場所を判定するために(例えば、それぞれの距離の各々が実際の距離から外れる集約誤差を最小化する空間内の局所化を選択することによる)回帰プロセスが実行され得る。次いで、判定されたオブジェクトの最も可能性の高い場所に基づいて、送信器/検出器の各対のキャリブレーションデータが更新され得る(例えば、ルックアップテーブル内の一点は、LIDARデバイスとオブジェクトの最も可能性の高い場所との間の距離に基づいて更新され得る)。追加的に、いくつかの実施形態では、確認キャリブレーションを実行するときに、オブジェクトまでの距離の違い、または異なる角度から見たときのオブジェクトの反射率の違いも考慮に入れることができる。さらに、LIDARデバイスの送信器/検出器の対の数が多いほど、そのような回帰プロセスが生成することができる結果はより正確になる。
図9Aは、例示的な実施形態による、実行時確認キャリブレーションの図である。実行時確認キャリブレーションは、一連の送信器と検出器の対を含むLIDARデバイス(例えば、図1に示すLIDAR128などの自律車両で使用されるLIDARデバイス)によって実行され得る。例えば、LIDARデバイスは、第1の検出器702、第1の送信器704、第2の検出器712、第2の送信器714、第3の検出器722、および第3の送信器724を含み得る。実行時確認キャリブレーションは、信号を送信し、LIDARデバイスを取り囲む環境内のオブジェクト902からそれらの信号の反射を受信するLIDARデバイスによって実行され得る。図9Aを含む図は、例示の目的で含まれていることが理解される。例えば、自律車両に対する図9Aの送信器および検出器の位置/配向は、必ずしも送信器/検出器の正確な位置/配向を反映しているわけではない。
上述のように、送信器/検出器の対の各々は、送信器/検出器の対とオブジェクト902との間の補償された距離を判定することができる。これらの補償された距離は、以下によって判定されることができ、初めに、送信器/検出器の対の送信器がオブジェクト902に向けて光信号を放出し、送信器/検出器の対の検出器がオブジェクト902からの反射された光信号を検出し、次いで、検出された反射信号に基づいて(例えば、対応する時間微分信号の閾値クロッシングに基づいて)生の距離を判定するために使用され得る通過時間が(例えば、送信器/検出器の対に関連付けられた、および/またはLIDARデバイス全体に関連付けられたコンピューティングデバイスによって)判定され得、最後に、補償された距離が、以前に取得したキャリブレーションデータおよび検出された反射信号(例えば、検出された反射信号の波形の最大強度)を使用してウォークエラー補正値を判定し、次いで、補償された距離を判定するためにウォークエラー補正値を見掛け距離に加算することによって判定され得る。
送信器/検出器の対の各々について補償された距離が判定されると、補償された距離は互いに比較され得る。さらに、補償された距離を比較するとき、1つ以上の送信器/検出器の対に対するキャリブレーションデータ(例えば、キャリブレーション曲線)が更新され得る。キャリブレーションデータの更新は、補償された距離を相互にプロットすることと、回帰分析を実行することと、を含み得る。
図9Bは、例示的な実施形態による、デバイスの図である。図9Bの縦軸は距離に対応し、横軸はLIDARデバイスの様々な送信器/検出器の対をプロットしている。図9Bでは、第1の補償距離952、第2の補償距離954、および第3の補償距離956が示されている。第1の補償距離952は、図9Aに示されるように、(例えば、光信号の飛行時間に基づいて判定された生の距離、および以前に判定されたキャリブレーションデータに基づく)第1の送信器704/第1の検出器702とオブジェクト902との間の補償距離であり得る。同様に、第2の補償距離954は、図9Aに示すように、(例えば、光信号の飛行時間に基づいて判定された生の距離、および以前に判定されたキャリブレーションデータに基づく)第2の送信器714/第2の検出器712とオブジェクト902との間の補償距離であり得る。さらに、第3の補償距離956は、図9Aに示すように、(例えば、光信号の飛行時間に基づいて判定された生の距離、および以前に判定されたキャリブレーションデータに基づく)第3の送信器724/検出器722とオブジェクト902との間の補償距離であり得る。
各送信器/検出器の対とオブジェクト902との間の真の距離が互いに同一であると仮定すると、送信器/検出器の対の各々が完全にキャリブレーションされた場合、補償距離952、954、956は、各々互いに等しくなければならず、オブジェクト902までの真の距離に等しくなる。各送信器/検出器の対とオブジェクト902との間の真の距離が同一でない場合、真の距離における差は、図9Cおよび9Dを参照して以下に記述するように説明できる。
補償された距離952、954、956の各々をプロットする際に、シーン内のオブジェクト902の真の位置を判定することを試みるために回帰技法が用いられ得る。例えば、線形回帰法(例えば、線形最小二乗回帰法)が実行され、補償された距離952、954、956の各々と回帰直線960との間の誤差を最小化することによって、オブジェクト902の真の位置を規定する回帰直線960を判定することができる。再び、各送信器/検出器の対とオブジェクト902との間の真の距離が同一であると仮定すると、回帰直線960は水平になる。他のタイプの回帰法(例えば、多項式回帰法または加重最小二乗回帰法)もまた可能である。回帰分析に基づいて判定された回帰直線960が、それぞれの補償距離と回帰直線960上の対応する点との間の比較(そのような比較が図9Bの破線で示されている)に基づいて、1つ以上の送信器/検出器の対に対するキャリブレーションデータを修正するために使用され得る。
回帰直線960の実際の距離値は、地上検証測定を正確に表し得ないが、補償された距離952、954、956のいずれか1つよりも、オブジェクト902の真の場所を正確に反映している可能性が高い。さらに、送信器/検出器の対の数が多いほど、回帰直線960の信頼性が高くなり得る。例えば、LIDARデバイスが3つを超える送信器/検出器の対(例えば、5、10、15、20、25、30、40、50、60、70、80、90、または100の送信器/検出器の対)を含む実施形態では、生成された回帰直線は、図9Bに示されている回帰直線960よりも地上検証測定に近くなり得る。
図9Cは、例示的な実施形態による、ランタイム確認キャリブレーションの図である。実行時確認キャリブレーションは、一連の送信器と検出器の対を含むLIDARデバイスによって実行できる。例えば、LIDARデバイスは、第1の検出器702、第1の送信器704、第2の検出器712、第2の送信器714、第3の検出器722、および第3の送信器724を含み得る。実行時確認キャリブレーションは、信号を送信し、LIDARデバイスを取り囲む環境内のオブジェクト902からそれらの信号の反射を受信するLIDARデバイスによって実行され得る。
上述のように、それぞれの送信器/検出器の対とシーン内のオブジェクト902との間の距離は同一でないことがある。このことは、それぞれの送信器/検出器の対がLIDARデバイス内のわずかに異なる位置に配置されているという事実による場合がある。追加的または代替的に、距離の差は、検出された反射信号が異なる時点でキャプチャされ、LIDARデバイスがその時間中にオブジェクト902に対して移動した可能性があるという事実による場合がある。そのようなものが、図9Cに示されたケースである。
図示されるように、LIDARデバイスは、車両(例えば、LIDARデバイスがオブジェクト検出のために使用される自律車両)に取り付けられ得る。確認キャリブレーションは、車両が環境内を移動しているときに実行され得る。第1の送信器704/第1の検出器702の対は、光信号を送信し、車両の第1の位置でオブジェクト902からの反射信号を検出することができる。その後、第2の送信器714/第2の検出器712の対は、光信号を送信し、車両の第2の位置でオブジェクト902からの反射信号を検出することができる。さらにその後、第3の送信器724/第3の検出器722の対は、光信号を送信し、車両の第3の位置にあるオブジェクト902からの反射信号を検出することができる。
送信器/検出器の対とオブジェクト902との間の実際の距離は、検出された反射信号の各々に対して同一ではないことから、検出された反射信号に基づいて判定された補償距離を適切に比較して、以前に特徴付けられたキャリブレーションからの偏差を評価するために、オブジェクト902までの実際の距離の差は、ベースラインとして判定され得る。オブジェクト902までの実際の距離の差を判定することは、異なる検出された反射信号間でLIDARデバイスがどれだけ移動したか、および送信器/検出器の対のLIDARデバイス内の任意の分離を説明することを含み得る。例えば、第1の検出された反射信号がキャプチャされたときの第1の送信器704/第1の検出器702の場所と、第2の検出された反射信号がキャプチャされたときの第2の送信器714/第2の検出器712の場所との間の第1の差962が図9Cに示されている。同様に、第2の検出された反射信号がキャプチャされたときの第2の送信器714/第2の検出器712の場所と、第3の検出された反射信号がキャプチャされたときの第3の送信器724/第3の検出器722の場所との間の第2の差964も図9Cに示されている。第1の差962および第2の差964は、例えば、検出された反射信号がキャプチャされたときのタイムスタンプ、ならびにタイムスタンプの間にある時間中に車両の制御システムによって監視された速度データに基づいて判定され得る。
第1の差962および第2の差964は、検出された反射信号とともに使用され、検出された反射信号の各々に基づいて、オブジェクト902までの補償された距離を比較することができる。さらに、オブジェクト902自体が、検出された反射信号のキャプチャ中に静止している場合(または、オブジェクト902が動いているが、オブジェクト902の動きが判定され得る場合であっても)、反射信号のキャプチャ間のオブジェクト902に対する角度が判定され得る。そのような角度は、図9Cに示されている(θおよびθで標示されている)。そのような角度はまた、異なる送信器/検出器の対によってキャプチャされた検出された反射信号を比較するときにも説明され得る。例えば、オブジェクト902の反射率および/または形状は、等方性ではないことがある(例えば、オブジェクト902は、1つ以上の方向に著しく伸長され得、これらの方向のうち1つの方向から見たときに、オブジェクト902までの距離がオブジェクト902を別の方向から見たときとは、著しく異なるようになっており、かつ/または、オブジェクト902は、側方から見たときに高反射性であり得、前方から見たときに最小的に反射性であり得、このことが検出された反射信号に影響を与える可能性があるようになっている)。
図9Bは、例示的な実施形態による、回帰分析の図である。図示されるように、第1の補償距離972(例えば、図9Cに示される第1の送信器704/第1の検出器702の対の検出された反射信号、および第1の送信器704/第1の検出器702の対の以前のキャリブレーションデータに基づいて判定された)、第2の補償距離974(例えば、図9Cに示される第2の送信器714/第2の検出器712の対の検出された反射信号、および第2の送信器714/第2の検出器712の対の以前のキャリブレーションデータに基づいて判定された)および第3の補償距離976(例えば、図9Cに示される第3の送信器724/第3の検出器722の対の検出された反射信号、および第3の送信器724/第3の検出器722の対の以前のキャリブレーションデータに基づいて判定された)がプロットされ得る。検出された反射信号がキャプチャされたときにLIDARデバイスは動いていたので、それぞれの送信器/検出器の対とオブジェクト902との間の実際の距離は異なる。したがって、補償された距離972、974、976は、たとえオブジェクト902までの実際の距離に正確に等しい場合でも、互いに等しくなることはない。
検出された反射信号がキャプチャされた時間間隔中のLIDARデバイスの相対運動に基づいて、距離は、(例えば、オブジェクト902までの補償距離を判定するために使用される信号が、車両の進行方向に正確に垂直に送信される時点において)最小に減少し得、LIDARデバイスが最小距離をもたらすポイントから離れるにつれて増加し得る。したがって、確認キャリブレーションを実行するために使用される回帰技法は、線形最小二乗回帰(例えば、多項式最小二乗回帰)以外のものであり得る。そのような回帰曲線980が、図9Dに示されている。図9Bに示される回帰直線960と同様に、回帰曲線980は、それぞれの補償された距離と回帰曲線980上の対応する点との間の比較(このような比較は、図9Dの破線の誤差で示されている)に基づいて、1つ以上の送信器/検出器の対のキャリブレーションデータを修正するために使用され得る。
図9A~図9Dに関して上述した確認キャリブレーションプロセスは、オブジェクト902が、LIDARデバイスの様々な検出器による様々な反射光信号の検出の間を移動していないという仮定を含み得る。代わりに、オブジェクト902が動いている場合、オブジェクト902の動きを判定し、その動きを確認キャリブレーションに組み込むために追加のステップが実行され得る。例えば、オブジェクト902の速度を判定するためにレーダまたはレーダスピードガンなどのLIDAR速度判定デバイスが使用され得、オブジェクト902の速度は、オブジェクト902がLIDARデバイスに対して移動した距離を判定するために、検出された反射信号間の時間と組み合わせられ得る。いくつかの実施形態では、オブジェクト902がLIDARデバイスに対して移動した距離は、回帰分析に因数分解され得る。
III.例示的なプロセス
図10は、例示的な実施形態による、方法1000のフローチャート図である。いくつかの実施形態では、図10のブロックのうちの1つ以上は、コンピューティングデバイス(例えば、図1に示されるコンピューティングシステム112)によって行われ得る。コンピューティングデバイスは、不揮発性メモリ(例えば、ハードドライブまたは読み取り専用メモリ(ROM))、揮発性メモリ(例えば、ダイナミックランダムアクセスメモリ(DRAM)またはスタティックランダムアスクスメモリ(SRAM)などのランダムアクセスメモリ(RAM))、ユーザ入力デバイス(例えば、マウスまたはキーボード)、ディスプレイ(例えば、発光ダイオード(LED)ディスプレイまたは液晶ディスプレイ(LCD))、および/またはネットワーク通信コントローラ(例えば、IEEE802.11規格に基づくWIFI(登録商標)コントローラ、またはEthernetコントローラ)などのコンピューティング構成要素を含み得る。コンピューティングデバイスは、例えば、非一時的コンピュータ可読媒体(例えば、ハードドライブ)に格納された命令を実行して、本明細書に記載の動作のうちの1つ以上を行うことができる。
ブロック1002において、方法1000は、光検出および測距(LIDAR)デバイスの送信器から、第1の反射率を有するキャリブレーションターゲットの第1の領域に向けて第1の光信号を放出することを含み得る。
ブロック1004において、方法1000は、キャリブレーションターゲットの第1の領域からの第1の光信号の反射をLIDARデバイスの検出器によって検出することを含み得る。第1の光信号の検出された反射は、第1の強度を有する。
ブロック1006において、方法1000は、LIDARデバイスの送信器から、第2の反射率を有するキャリブレーションターゲットの第2の領域に向けて第2の光信号を放出することを含み得る。
ブロック1008において、方法1000は、LIDARデバイスの検出器によって、キャリブレーションターゲットの第2の領域からの第2の光信号の反射を検出することを含み得る。第2の光信号の検出された反射は、第2の強度を有する。第2の強度は第1の強度とは異なる。
ブロック1010において、方法1000は、第1の光信号の検出された反射に基づいて、LIDARデバイスとキャリブレーションターゲットとの間の第1の見掛け範囲を判定することを含み得る。
ブロック1012において、方法1000は、第2の光信号の検出された反射に基づいて、LIDARデバイスとキャリブレーションターゲットとの間の第2の見掛け範囲を判定することを含み得る。第2の見掛け範囲は、第1の見掛け範囲とは異なる。
ブロック1014において、方法1000は、第1の見掛け範囲、第2の見掛け範囲、第1の強度、第2の強度、およびLIDARデバイスとキャリブレーションターゲットとの間の実際の範囲に基づいて、検出器のためのウォークエラーキャリブレーションデータを生成することを含み得る。
方法1000のいくつかの実施形態では、第1の反射率は、第2の反射率を上回り得る。さらに、キャリブレーションターゲットの第1の領域は、再帰反射材料を含み得る。加えて、キャリブレーションターゲットの第2の領域は、光学的に透明な材料を含み得る。「光学的に透明な」材料とは、可視波長の光を少なくとも95%反射しない材料のことである。
いくつかの実施形態では、方法1000は、LIDARデバイスの送信器から、キャリブレーションターゲットのエッジに向けて第3の光信号を放出することを含み得る。方法1000はまた、LIDARデバイスの検出器によって、キャリブレーションターゲットのエッジからの第3の光信号の部分反射を検出することを含み得る。第3の光信号の検出された部分反射は、第3の強度を有する。第3の強度は、第1の強度および第2の強度とは異なり得る。方法1000は、第3の光信号の検出された部分反射に基づいて、LIDARデバイスとキャリブレーションターゲットとの間の第3の見掛け範囲を判定することをさらに含み得る。第3の見掛け範囲は、第1の見掛け範囲および第2の見掛け範囲とは異なり得る。さらに、検出器のウォークエラーキャリブレーションデータを生成することは、第3の見掛け範囲および第3の強度にさらに基づいている。
方法1000のいくつかの実施形態では、第1の強度および第2の強度は、アナログ-デジタル変換器(ADC)の出力に基づいて判定され得る。
方法1000のいくつかの実施形態では、第1の光信号の検出された反射は、第1の波形を含み得、第1の見掛け範囲を判定することは、第1の波形の時間微分を判定することを含み得る。さらに、第2の光信号の検出された反射は、第2の波形を含み得、第2の見掛け範囲を判定することは、第2の波形の時間微分を判定することを含み得る。加えて、いくつかの実施形態では、第1の見掛け範囲を判定することは、第1の波形の時間微分がいつ閾値を下回って低下するかを判定することを含み得る。第2の見掛け範囲を判定することはまた、第2の波形の時間微分がいつ閾値を下回って低下するかを判定することを含み得る。
方法1000のいくつかの実施形態では、ウォークエラーキャリブレーションデータは、ルックアップテーブルを含み得る。方法1000はまた、LIDARデバイスを使用して、関心対象オブジェクトまでの見掛け距離を判定することを含み得る。さらに、方法1000は、関心対象オブジェクトまでの見掛け距離およびルックアップテーブルに基づいて、関心対象オブジェクトまでの実際の距離を判定することを含み得る。加えて、方法1000は、関心対象オブジェクトまでの実際の距離に基づいて車両の方向または速度を調整することを含み得る。
いくつかの実施形態では、方法1000はまた、第2の光信号がキャリブレーションターゲットの第2の領域に向けて放出されるように、LIDARデバイスを傾斜させること、回転させること、または平行移動させることを含み得る。
いくつかの実施形態では、方法1000は、LIDARデバイスの追加の送信器から、第1の反射率を有するキャリブレーションターゲットの第1の領域に向けて第3の光信号を放出することを含み得る。方法1000はまた、LIDARデバイスの追加の検出器によって、キャリブレーションターゲットの第1の領域からの第3の光信号の反射を検出することを含み得る。第3の光信号の検出された反射は、第3の強度を有する。さらに、方法1000は、LIDARデバイスの追加の送信器から、第2の反射率を有するキャリブレーションターゲットの第2の領域に向けて第4の光信号を放出することを含み得る。加えて、方法1000は、LIDARデバイスの追加の検出器によって、キャリブレーションターゲットの第2の領域からの第4の光信号の反射を検出することを含み得る。第4の光信号の検出された反射は第4の強度を有する。第4の強度は第3の強度とは異なる。さらに、方法1000は、第3の光信号の検出された反射に基づいて、LIDARデバイスとキャリブレーションターゲットとの間の第3の見掛け範囲を判定することを含み得る。さらに、方法1000は、第4の光信号の検出された反射に基づいて、LIDARデバイスとキャリブレーションターゲットとの間の第4の見掛け範囲を判定することを含み得る。第4の見掛け範囲は、第3の見掛け範囲とは異なり得る。加えて、方法1000は、第3の見掛け範囲、第4の見掛け範囲、第3の強度、第4の強度、およびLIDARデバイスとキャリブレーションターゲットとの間の実際の範囲に基づいて、追加の検出器のウォークエラーキャリブレーションデータを生成することを含み得る。いくつかの実施形態では、方法1000は、LIDARデバイスの送信器から、LIDARデバイスを取り囲む環境内のオブジェクトに向けて第5の光信号を放出することを含み得る。さらに、方法1000は、LIDARデバイスの検出器によって、LIDARデバイスを取り囲む環境内のオブジェクトからの第5の光信号の反射を検出することを含み得る。第5の光信号の検出された反射は第5の強度を有する。さらに、方法1000は、LIDARデバイスの追加の送信器から、LIDARデバイスを取り囲む環境内のオブジェクトに向けて第6の光信号を放出することを含み得る。さらに、方法1000は、LIDARデバイスの追加の検出器によって、LIDARデバイスを取り囲む環境内のオブジェクトからの第6の光信号の反射を検出することを含み得る。第6の光信号の検出された反射は第6の強度を有する。さらに、方法1000は、検出器のウォークエラーキャリブレーションデータおよび第5の強度に基づいて、LIDARデバイスとオブジェクトとの間の第1の補償範囲を判定することを含み得る。さらに、方法1000は、追加の検出器のウォークエラーキャリブレーションデータおよび第6の強度に基づいて、LIDARデバイスとオブジェクトとの間の第2の補償範囲を判定することを含み得る。さらに、方法1000は、第1の補償範囲と第2の補償範囲とを比較することを含み得る。さらに、方法1000は、第1の補償範囲と第2の補償範囲との間の比較に基づいて、検出器のウォークエラーキャリブレーションデータまたは追加の検出器のウォークエラーキャリブレーションデータを修正することを含み得る。方法1000のいくつかの実施形態では、LIDARデバイスは、車両に装着され得る。方法1000のいくつかの実施形態では、第1の補償範囲と第2の補償範囲とを比較することは、環境内のオブジェクトに対する検出器の位置と追加の検出器の位置の違いを説明することを含み得る。方法1000のいくつかの実施形態では、環境内のオブジェクトに対する検出器の位置および追加の検出器の位置の差を説明することは、環境内のオブジェクトに対する距離の差を説明することを含み得る。方法1000のいくつかの実施形態では、環境内のオブジェクトに対する検出器の位置および追加の検出器の位置の差を説明することはまた、オブジェクトに対する角度に基づいた環境内のオブジェクトの反射率の違いを説明することも含み得る。
図11Aは、例示的な実施形態による、方法1100のフローチャート図である。いくつかの実施形態では、図11Aのブロックのうちの1つ以上は、コンピューティングデバイス(例えば、図1に図示されるコンピュータシステム112)によって行われ得る。コンピューティングデバイスは、不揮発性メモリ(例えば、ハードドライブまたはROM)、揮発性メモリ(例えば、DRAMまたはSRAMなどのRAM)、ユーザ入力デバイス(例えば、マウスまたはキーボード)、ディスプレイ(例えば、LEDディスプレイまたはLCD)、および/またはネットワーク通信コントローラ(例えば、IEEE802.11規格に基づくWIFI(登録商標)コントローラ、またはEthernetコントローラ)などのコンピューティング構成要素を含み得る。コンピューティングデバイスは、例えば、非一時的コンピュータ可読媒体(例えば、ハードドライブ)に格納された命令を実行して、本明細書に記載の動作のうちの1つ以上を行うことができる。
ブロック1110において、方法1100は、光検出および測距(LIDAR)デバイス内の複数の送信器および検出器の対の各々に対してそれぞれのウォークエラーキャリブレーションデータを生成することを含み得る。
ブロック1150において、方法1100は、複数の送信器および検出器の対の各々に対してそれぞれのウォークエラーキャリブレーションデータを調整することを含み得る。
図11Bは、ブロック1110のサブ要素(例えば、光検出および測距(LIDAR)デバイスの複数の送信器および検出器の対の各々に対するそれぞれのウォークエラーキャリブレーションデータを生成するために実行されるブロック)のフローチャート図である。
サブ要素1112において、ブロック1110は、送信器から第1の光信号を放出することを含み得る。
サブ要素1114において、ブロック1110は、検出器によって、第1の反射率を有するキャリブレーションターゲットの第1の領域からの第1の光信号の反射を検出することを含み得る。第1の光信号の検出された反射は、第1の強度を有する。
サブ要素1116において、ブロック1110は、第1の光信号の検出された反射に基づいて、LIDARデバイスとキャリブレーションターゲットとの間の第1の見掛け範囲を判定することを含み得る。
サブ要素1118において、ブロック1110は、送信器から第2の光信号を放出することを含み得る。
サブ要素1120において、ブロック1110は、検出器によって、第2の反射率を有するキャリブレーションターゲットの第2の領域からの第2の光信号の反射を検出することを含み得る。第2の光信号の検出された反射は、第2の強度を有する。第2の強度は第1の強度とは異なる。
サブ要素1122において、ブロック1110は、第2の光信号の検出された反射に基づいて、LIDARデバイスとキャリブレーションターゲットとの間の第2の見掛け範囲を判定することを含み得る。第2の見掛け範囲は、第1の見掛け範囲とは異なる。
サブ要素1124において、ブロック1110は、第1の見掛け範囲、第2の見掛け範囲、第1の強度、第2の強度、およびLIDARデバイスとキャリブレーションターゲットとの間の実際の範囲に基づいてウォークエラーキャリブレーションデータを生成することを含み得る。
図11Cは、ブロック1150のサブ要素(例えば、複数の送信器および検出器の対の各々に対してそれぞれのウォークエラーキャリブレーションデータを調整するために実行されるブロック)のフローチャート図である。
サブ要素1152において、ブロック1150は、LIDARデバイス内の各送信器から再キャリブレーション光信号を放出することを含み得る。再キャリブレーション光信号は各々、LIDARデバイスの環境内の単一のオブジェクトに方向付けられている。
サブ要素1154において、ブロック1150は、各検出器によって、環境内の単一のオブジェクトからの再キャリブレーション光信号の反射を検出することを含み得る。反射の各々は、それぞれの強度を有している。
サブ要素1156において、ブロック1150は、各それぞれの送信器および検出器の対のウォークエラーキャリブレーションデータおよび再キャリブレーション光信号の検出された反射の各々のそれぞれの強度に基づいて、送信器と検出器の対の各々の環境内にある単一のオブジェクトに対するそれぞれの補償範囲を判定することを含み得る。
サブ要素1158において、ブロック1150は、補償された範囲およびウォークエラーキャリブレーションデータに基づいて、それぞれのウォークエラーキャリブレーションデータのうちの1つ以上を修正することを含み得る。
図12は、例示的な実施形態による、方法1200のフローチャート図である。いくつかの実施形態では、図12のブロックのうちの1つ以上は、コンピューティングデバイス(例えば、図1に示されるコンピューティングシステム112)によって行われ得る。コンピューティングデバイスは、不揮発性メモリ(例えば、ハードドライブまたはROM)、揮発性メモリ(例えば、DRAMまたはSRAMなどのRAM)、ユーザ入力デバイス(例えば、マウスまたはキーボード)、ディスプレイ(例えば、LEDディスプレイまたはLCD)、および/またはネットワーク通信コントローラ(例えば、IEEE802.11規格に基づくWIFI(登録商標)コントローラ、またはEthernetコントローラ)などのコンピューティング構成要素を含み得る。コンピューティングデバイスは、例えば、非一時的コンピュータ可読媒体(例えば、ハードドライブ)に格納された命令を実行して、本明細書に記載の動作のうちの1つ以上を行うことができる。さらに、いくつかの実施形態では、図12のブロックのうちの1つ以上は、強度キャリブレーションシステム(例えば、図4Bに示される強度キャリブレーションシステム450)によって実行され得る。
ブロック1202において、方法1200は、光エミッタから、第1の強度を有する第1の光信号を放出することを含み得る。
ブロック1204において、方法1200は、可変減衰器を使用して、第1の光信号を第2の強度に減衰させることを含み得る。
ブロック1206において、方法1200は、光検出および測距(LIDAR)デバイスの検出器によって、第2の強度で第1の光信号を検出することを含み得る。
ブロック1208において、方法1200は、第2の強度で検出された第1の光信号に基づいて、LIDARデバイスの検出器に関連付けられたアナログ-デジタル変換器(ADC)からの第1の出力をキャプチャすることを含み得る。
ブロック1210において、方法1200は、光エミッタから、第1の強度を有する第2の光信号を放出することを含み得る。
ブロック1212において、方法1200は、可変減衰器を使用して、第2の光信号を第3の強度に減衰させることを含み得る。第3の強度は、第2の強度とは異なり得る。
ブロック1214において、方法1200は、LIDARデバイスの検出器によって、第3の強度で第2の光信号を検出することを含み得る。
ブロック1216において、方法1200は、第3の強度で検出された第2の光信号に基づいて、LIDARデバイスの検出器に関連付けられたADCからの第2の出力をキャプチャすることを含み得る。
ブロック1218において、方法1200は、第2の強度、ADCからの第1の出力、第3の強度、およびADCからの第2の出力に基づいて、検出器の強度キャリブレーションデータを生成することを含み得る。
IV.結論
本開示は、本出願に記載の特定の実施形態に関して限定されるものではなく、特定の実施形態は、様々な態様の例証として意図される。当業者には明らかなことであるが、多くの変形および変更を本開示の趣旨および範囲から逸脱することなく行うことができる。本明細書において列挙される方法および装置に加えて、本開示の範囲内の機能的に同等の方法および装置は当業者には、これまでの説明から明らかであろう。このような変形および変更は、添付の特許請求の範囲内にあることが意図されている。
上記の詳細な説明は、添付の図面を参照して、開示されたシステム、デバイス、および方法の様々な特徴および機能を説明している。図では、特に文脈で記載しない限り、同様の記号は通常、同様の構成要素を指している。本明細書および図に記載の例示的な実施形態は、限定することを意図しているものではない。本明細書に提示される主題の範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を行うことができる。本明細書で概して説明され、かつ図に例証されている、本開示の態様は、多種多様な異なる構成で配置、置換、組み合わせ、分離、および設計されることができ、そのすべてが、本明細書において明示的に想定されていることが容易に理解されよう。
図における、また本明細書において考察されるメッセージフロー図、シナリオ、およびフローチャートのいずれかまたはすべてに関して、各ステップ、ブロック、動作、および/または通信は、例示的な実施形態に従った情報の処理および/または情報の送信を表し得る。代替的な実施形態は、これらの例示的な実施形態の範囲内に含まれる。これらの代替的な実施形態では、例えば、ステップ、ブロック、送信、通信、要求、応答、および/またはメッセージとして説明される動作は、関わる機能性に応じて、図示または考察されるものとは異なる順序で、実質的に同時に、または逆の順序で実行され得る。さらに、それより多いまたは少ないブロックおよび/または動作を、本明細書において考察されるメッセージフロー図、シナリオ、およびフローチャートのいずれかで使用することができ、これらのメッセージフロー図、シナリオ、およびフローチャートは、部分的にまたは全体として互いに組み合わせることができる。
情報の処理に相当するステップ、ブロック、または動作は、本明細書に記載の方法または技法の特定の論理機能を果たすように構成され得る回路網に対応し得る。代替的または追加的に、情報の処理に相当するステップまたはブロックは、モジュール、セグメント、またはプログラムコード(関連データを含む)の一部分に対応し得る。プログラムコードには、特定の論理演算または動作を方法または技法において実施するためのプロセッサにより実行可能な1つ以上の命令を含めることができる。プログラムコードおよび/または関連データは、RAM、ディスクドライブ、ソリッドステートドライブ、または別の記憶媒体を含む記憶デバイスなど、いずれの種類のコンピュータ可読媒体にも格納され得る。
さらに、1つ以上の情報送信に相当するステップ、ブロック、または動作は、同じ物理デバイスにおけるソフトウェアモジュールおよび/またはハードウェアモジュール間の情報送信に対応し得る。しかし、他の情報送信は、様々な物理デバイスにおけるソフトウェアモジュールおよび/またはハードウェアモジュール間の情報送信であり得る。
図に示す特定の配置は、限定としてみなされるべきではない。他の実施形態が、所与の図に示される各要素をそれより多く、またはそれより少なく含み得ることを理解されたい。さらに、図示の要素のうちのいくつかを組み合わせることも、または省略することもできる。またさらに、例示的な実施形態が、図に示されていない要素を含むこともできる。
様々な態様および実施形態が本明細書において開示されているが、当業者には、他の態様および実施形態が明らかとなるであろう。本明細書に開示される様々な態様および実施形態は、例証を目的とするものであり、限定することを意図するものではなく、真の範囲は、以下の特許請求の範囲によって示される。

Claims (21)

  1. 方法であって、
    光検出および測距(LIDAR)デバイスの送信器から、第1の反射率を有するキャリブレーションターゲットの第1の領域に向けて第1の光信号を放出することと、
    前記LIDARデバイスの検出器によって、前記キャリブレーションターゲットの前記第1の領域からの前記第1の光信号の反射を検出することであって、前記第1の光信号の前記検出された反射が、第1の強度を有する、検出することと、
    前記LIDARデバイスの前記送信器から第2の反射率を有する前記キャリブレーションターゲットの第2の領域に向けて第2の光信号を放出することと、
    前記LIDARデバイスの前記検出器によって、前記キャリブレーションターゲットの前記第2の領域からの前記第2の光信号の反射を検出することであって、
    前記第2の光信号の前記検出された反射が、第2の強度を有し、
    前記第2の強度が、前記第1の強度とは異なる、検出することと、
    前記第1の光信号の前記検出された反射に基づいて、前記LIDARデバイスと前記キャリブレーションターゲットとの間の第1の見掛け範囲を判定することと、
    前記第2の光信号の前記検出された反射に基づいて、前記LIDARデバイスと前記キャリブレーションターゲットとの間の第2の見掛け範囲を判定することであって、前記第2の見掛け範囲が、前記第1の見掛け範囲とは異なる、判定することと、
    前記第1の見掛け範囲、前記第2の見掛け範囲、前記第1の強度、前記第2の強度、および前記LIDARデバイスと前記キャリブレーションターゲットとの間の実際の範囲に基づいて、前記検出器のためのウォークエラーキャリブレーションデータを生成することと、を含む、方法。
  2. 前記第1の反射率が、前記第2の反射率よりも大きく、
    前記キャリブレーションターゲットの前記第1の領域が、再帰反射材料を含み、
    前記キャリブレーションターゲットの前記第2の領域が、光学的に透明な材料を含む、請求項1に記載の方法。
  3. 前記LIDARデバイスの前記発信器から前記キャリブレーションターゲットのエッジに向けて第3の光信号を放出することと、
    前記LIDARデバイスの前記検出器によって、前記キャリブレーションターゲットの前記エッジからの前記第3の光信号の部分反射を検出することであって、
    前記第3の光信号の前記検出された部分反射が、第3の強度を有し、
    前記第3の強度が、前記第1の強度および前記第2の強度とは異なる、検出することと、
    前記第3の光信号の前記検出された部分反射に基づいて、前記LIDARデバイスと前記キャリブレーションターゲットとの間の第3の見掛け範囲を判定することであって、
    前記第3の見掛け範囲が、前記第1の見掛け範囲および前記第2の見掛け範囲とは異なり、
    前記検出器のための前記ウォークエラーキャリブレーションデータを生成することが、前記第3の見掛け範囲および前記第3の強度にさらに基づく、判定することと、をさらに含む、請求項1に記載の方法。
  4. 前記第1の強度および前記第2の強度が、アナログ-デジタルコンバータ(ADC)の出力に基づいて判定される、請求項1に記載の方法。
  5. 前記第1の光信号の前記検出された反射が、第1の波形を含み、前記第1の見掛け範囲を判定することが、前記第1の波形の時間微分を判定することを含み、
    前記第2の光信号の前記検出された反射が、第2の波形を含み、前記第2の見掛け範囲を判定することが、前記第2の波形の時間微分を判定することを含む、請求項1に記載の方法。
  6. 前記第1の見掛け範囲を判定することが、前記第1の波形の前記時間微分が、いつ閾値を下回って低下するかを判定することをさらに含み、
    前記第2の見掛け範囲を判定することが、前記第2の波形の前記時間微分が、いつ閾値を下回って低下するかを判定することをさらに含む、請求項5に記載の方法。
  7. 前記ウォークエラーキャリブレーションデータが、ルックアップテーブルを含み、
    前記方法が、
    前記LIDARデバイスを使用して、関心対象のオブジェクトへの見掛け距離を判定することと、
    前記関心対象のオブジェクトまでの前記見掛け距離および前記ルックアップテーブルに基づいて、前記関心対象のオブジェクトまでの実際の距離を判定することと、
    前記関心対象のオブジェクトまでの実際の距離に基づいて、車両の方向または速度を調整することと、をさらに含む、請求項1に記載の方法。
  8. 前記第2の光信号が前記キャリブレーションターゲットの前記第2の領域に向けて放出されるように、前記LIDARデバイスを傾斜させること、回転させること、または平行移動させることをさらに含む、請求項1に記載の方法。
  9. 前記LIDARデバイスの追加の送信器から、前記第1の反射率を有する前記キャリブレーションターゲットの前記第1の領域に向けて第3の光信号を放出することと、
    前記LIDARデバイスの追加の検出器によって、前記キャリブレーションターゲットの前記第1の領域からの前記第3の光信号の反射を検出することであって、前記第3の光信号の前記検出された反射が、第3の強度を有する、検出することと、
    前記LIDARデバイスの前記追加の送信器から、前記第2の反射率を有する前記キャリブレーションターゲットの前記第2の領域に向けて第4の光信号を放出することと、
    前記LIDARデバイスの前記追加の送信器によって、前記キャリブレーションターゲットの前記第2の領域からの前記第4の光信号の反射を検出することであって、
    前記第4の光信号の前記検出された反射が、第4の強度を有し、
    前記第4の強度が、前記第3の強度とは異なる、検出することと、
    前記第3の光信号の前記検出された反射に基づいて、前記LIDARデバイスと前記キャリブレーションターゲットとの間の第3の見掛け範囲を判定することと、
    前記第4の光信号の前記検出された反射に基づいて、前記LIDARデバイスと前記キャリブレーションターゲットとの間の第4の見掛け範囲を判定することであって、前記第4の見掛け範囲が、前記第3の見掛け範囲とは異なる、判定することと、
    前記第3の見掛け範囲、前記第4の見掛け範囲、前記第3の強度、前記第4の強度、および前記LIDARデバイスと前記キャリブレーションターゲットとの間の前記実際の範囲に基づいて、前記追加の検出器のためのウォークエラーキャリブレーションデータを生成することと、をさらに含む、請求項1に記載の方法。
  10. 前記LIDARデバイスの前記発信器から、前記LIDARデバイスを取り囲む環境内のオブジェクトに向けて第5の光信号を放出することと、
    前記LIDARデバイスの検出器によって、前記LIDARデバイスを取り囲む前記環境内の前記オブジェクトからの前記第5の光信号の反射を検出することであって、前記第5の光信号の前記検出された反射が、第5の強度を有する、検出することと、
    前記LIDARデバイスの前記追加の送信器から前記LIDARデバイスを取り囲む前記環境内の前記オブジェクトに向けて第6の光信号を放出することと、
    前記LIDARデバイスの追加の検出器によって、前記LIDARデバイスを取り囲む前記環境内の前記オブジェクトからの前記第6の光信号の反射を検出することであって、前記第6の光信号の前記検出された反射が、第6の強度を有する、検出することと、
    前記検出器の前記ウォークエラーキャリブレーションデータおよび前記第5の強度に基づいて、前記LIDARデバイスと前記オブジェクトとの間の第1の補償された範囲を判定することと、
    前記追加の検出器の前記ウォークエラーキャリブレーションデータおよび前記第6の強度に基づいて、前記LIDARデバイスと前記オブジェクトとの間の第2の補償された範囲を判定することと、
    前記第1の補償された範囲と前記第2の補償された範囲とを比較することと、
    前記第1の補償された範囲と前記第2の補償された範囲との比較に基づいて、前記検出器の前記ウォークエラーキャリブレーションデータ、または前記追加の検出器の前記ウォークエラーキャリブレーションデータを修正することと、をさらに含む、請求項9に記載の方法。
  11. 前記LIDARデバイスが、車両に装着されている、請求項10に記載の方法。
  12. 前記第1の補償された範囲と前記第2の補償された範囲とを比較することが、前記環境内の前記オブジェクトに対する前記検出器の位置と前記追加の検出器の位置との差を説明することを含む、請求項10に記載の方法。
  13. 前記環境内の前記オブジェクトに対する前記検出器の位置と前記追加の検出器の位置との差を説明することが、
    前記環境内の前記オブジェクトに対する距離の差を説明すること、または、
    前記オブジェクトに対する角度に基づいて、前記環境内の前記オブジェクトの反射率の差を説明することを含む、請求項12に記載の方法。
  14. 光検出および測距(LIDAR)デバイスをキャリブレーションするためのキャリブレーションシステムであって、
    少なくとも6つの反射領域を有する表面を有するキャリブレーションターゲットを備え、
    各反射領域が、異なる、既知の反射率を有し、10パーセント未満の少なくとも1つの反射率、および90パーセント超の少なくとも1つの反射率を含む反射率の範囲を提供し、
    前記LIDARデバイスの送信器が、それぞれの光信号を前記キャリブレーションターゲットの各反射領域に向けて放出することができ、かつ前記LIDARデバイスの検出器が、前記キャリブレーションターゲットの各反射領域から各それぞれの光信号の反射を検出することができるように、前記キャリブレーションターゲットが、前記LIDARデバイスに対して位置付けられており、各検出された反射が、異なる強度を有し、1つ以上の検出された反射が、前記LIDARデバイスと前記キャリブレーションターゲットとの間の実際の範囲とは異なる見掛け範囲を有する、キャリブレーションシステム。
  15. 前記キャリブレーションターゲットの第1の領域が、第1の反射率を有する再帰反射材料を含み、
    前記キャリブレーションターゲットの第2の領域が、第2の反射率を有する光学的に透明な材料を含み、
    前記第2の反射率が、前記第1の反射率とは異なる、請求項14に記載のキャリブレーションシステム。
  16. 前記キャリブレーションターゲットの前記第1の領域が、前記キャリブレーションターゲットの前記第2の領域とは異なるサイズまたは形状を有する、請求項15に記載のキャリブレーションシステム。
  17. 前記キャリブレーションターゲットの第3の領域が、第3の反射率を有し、
    前記第3の反射率が、前記第1の反射率未満であり、かつ前記第2の反射率超である、請求項15に記載のキャリブレーションシステム。
  18. 前記LIDARデバイスを傾斜させるか、回転させるか、または平行移動させるように構成されたステージをさらに備える、請求項14に記載のキャリブレーションシステム。
  19. 前記キャリブレーションターゲットを傾斜させるか、回転させるか、または平行移動させるように構成されたステージをさらに備える、請求項14に記載のキャリブレーションシステム。
  20. 方法であって、
    光検出および測距(LIDAR)デバイス内の複数の送信器および検出器の対の各々について、それぞれのウォークエラーキャリブレーションデータを、
    前記送信器から第1の光信号を放出することと、
    前記検出器によって、第1の反射率を有するキャリブレーションターゲットの第1の領域からの前記第1の光信号の反射を検出することであって、前記第1の光信号の前記検出された反射が第1の強度を有する、検出することと、
    前記第1の光信号の前記検出された反射に基づいて前記LIDARデバイスと前記キャリブレーションターゲットとの間の第1の見掛け範囲を判定することと、
    前記送信器から第2の光信号を放出することと、
    検出器によって、第2の反射率を有する前記キャリブレーションターゲットの第2の領域からの前記第2の光信号の反射を検出することであって、
    前記第2の光信号の前記検出された反射が第2の強度を有し、
    前記第2の強度が第1の強度とは異なる、検出することと、
    前記第2の光信号の前記検出された反射に基づいて前記LIDARデバイスと前記キャリブレーションターゲットとの間の第2の見掛け範囲を判定することであって、前記第2の見掛け範囲が前記第1の見掛け範囲とは異なる、検出することと、
    前記第1の見掛け範囲、前記第2の見掛け範囲、前記第1の強度、前記第2の強度、および前記LIDARデバイスと前記キャリブレーションターゲットとの間の前記実際の範囲に基づいて、ウォークエラーキャリブレーションデータを生成することと、によって生成することと、
    複数の送信器および検出器の対の各々に対する前記それぞれのウォークエラーキャリブレーションデータを、
    前記LIDARデバイス内の各送信器から再キャリブレーション光信号を放出することであって、前記再キャリブレーション光信号が、各々、前記LIDARデバイスの環境内の単一オブジェクトに方向付けられている、放出することと、
    前記検出器の各々によって前記環境内の前記単一オブジェクトからの前記再キャリブレーション光信号の反射を検出することであって、前記反射の各々がそれぞれの強度を有する、検出することと、
    各それぞれの送信器および検出器の対に対する前記ウォークエラーキャリブレーションデータならびに前記再キャリブレーション光信号の前記検出された反射の各々に対する前記それぞれの強度に基づいて、前記送信器および検出器の対の各々に対する前記環境内の前記単一オブジェクトへのそれぞれの補償された範囲を判定することと、
    前記補償された範囲および前記ウォークエラーキャリブレーションデータに基づいて、それぞれのウォークエラーキャリブレーションデータの1つ以上を修正することと、によって調整することと、を含む、方法。
  21. 方法であって、
    光エミッタから、第1の強度を有する第1の光信号を放出することと、
    可変減衰器を使用して、前記第1の光信号を第2の強度に減衰させることと、
    光検出および測距(LIDAR)デバイスの検出器によって、前記第2の強度にある前記第1の光信号を検出することと、
    前記第2の強度にある前記検出された第1の光信号に基づいて、前記LIDARデバイスの前記検出器に関連付けられたアナログ-デジタル変換器(ADC)からの第1の出力をキャプチャすることと、
    前記光エミッタから前記第1の強度を有する第2の光信号を放出することと、
    前記可変減衰器を使用して前記第2の光信号を第3の強度に減衰させることであって、前記第3の強度が前記第2の強度と異なる、減衰させることと、
    前記LIDARデバイスの前記検出器によって、前記第3の強度にある前記第2の光信号を検出することと、
    前記検出された第3の強度にある第2の光信号に基づいて、前記LIDARデバイスの前記検出器に関連付けられた前記ADCからの第2の出力をキャプチャすることと、
    前記第2の強度、前記ADCからの前記第1の出力、前記第3の強度、および前記ADCからの前記第2の出力に基づいて、前記検出器の強度キャリブレーションデータを生成することと、を含む、方法。
JP2021549597A 2019-03-05 2020-02-21 光検出器の範囲キャリブレーション Pending JP2022522665A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962814042P 2019-03-05 2019-03-05
US62/814,042 2019-03-05
US16/445,394 US11681030B2 (en) 2019-03-05 2019-06-19 Range calibration of light detectors
US16/445,394 2019-06-19
PCT/US2020/019283 WO2020180503A1 (en) 2019-03-05 2020-02-21 Range calibration of light detectors

Publications (1)

Publication Number Publication Date
JP2022522665A true JP2022522665A (ja) 2022-04-20

Family

ID=72336324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021549597A Pending JP2022522665A (ja) 2019-03-05 2020-02-21 光検出器の範囲キャリブレーション

Country Status (6)

Country Link
US (2) US11681030B2 (ja)
EP (1) EP3914930A4 (ja)
JP (1) JP2022522665A (ja)
CN (1) CN113544534A (ja)
IL (1) IL285929A (ja)
WO (1) WO2020180503A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11681030B2 (en) * 2019-03-05 2023-06-20 Waymo Llc Range calibration of light detectors
US11747453B1 (en) 2019-11-04 2023-09-05 Waymo Llc Calibration system for light detection and ranging (lidar) devices
US11579272B2 (en) * 2019-12-23 2023-02-14 Toyota Motor Engineering & Manufacturing North America, Inc. Method and reflect array for alignment calibration of frequency modulated LiDAR systems
US11668794B2 (en) * 2020-01-07 2023-06-06 Ford Global Technologies, Llc Sensor calibration
US12105225B2 (en) * 2020-04-17 2024-10-01 Velodyne Lidar Usa, Inc. Systems and methods for calibrating a LiDAR device
US11527160B2 (en) * 2020-06-12 2022-12-13 Continental Automotive Systems, Inc. System and method for intelligent infrastructure calibration
KR20220010900A (ko) * 2020-07-20 2022-01-27 현대모비스 주식회사 차량용 레이더 장치 및 제어방법
US11119219B1 (en) * 2020-08-10 2021-09-14 Luminar, Llc Lidar system with input optical element
US11685378B2 (en) * 2020-10-08 2023-06-27 GM Global Technology Operations LLC Extrinsic characterization of detection capability to support automated lane change
US20220163675A1 (en) * 2020-11-24 2022-05-26 Waymo Llc Methods of Using Background Images from a Light Detection and Ranging (LIDAR) Device
CN113985420B (zh) * 2021-12-28 2022-05-03 四川吉埃智能科技有限公司 一种斜45°激光雷达扫描光路误差补偿方法
CN114578971B (zh) * 2022-03-29 2023-12-05 广东万和电气有限公司 红外感应检测系统和方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07128438A (ja) * 1993-11-01 1995-05-19 Stanley Electric Co Ltd レーダー測距装置の距離補正方法
JPH1020035A (ja) * 1996-02-27 1998-01-23 Sick Ag レーザ距離測定装置
JP2000509150A (ja) * 1996-04-24 2000-07-18 サイラ・テクノロジーズ・インク 三次元目的物をイメージ化しかつモデル化するための統合装置
US6310682B1 (en) * 1999-07-06 2001-10-30 Quarton, Inc. System and method for laser range finder
JP2006258690A (ja) * 2005-03-18 2006-09-28 Sanyo Electric Co Ltd 測定装置、移動体および信号処理回路
JP2007147333A (ja) * 2005-11-24 2007-06-14 Nippon Signal Co Ltd:The パルス信号の波高値検出回路
JP2007225342A (ja) * 2006-02-21 2007-09-06 Toyota Motor Corp 3次元測定装置及び3次元測定装置を搭載した自律移動装置
JP2009544023A (ja) * 2006-07-17 2009-12-10 ライカ ジオシステムズ アクチェンゲゼルシャフト 光学距離測定方法及びそれを用いた光学距離測定装置
JP2011514709A (ja) * 2008-02-01 2011-05-06 コミッサリア ア レネルジー アトミーク エ オ ゼネルジ ザルタナテイヴ 三次元アクティブ画像処理デバイス
JP2017032355A (ja) * 2015-07-30 2017-02-09 三菱電機株式会社 レーザレーダ装置
JP2018505427A (ja) * 2015-01-13 2018-02-22 ディーエスシージー ソルーションズ,インコーポレイテッド マルチビーム距離測定プロセス
CN108415003A (zh) * 2018-06-08 2018-08-17 武汉煜炜光学科技有限公司 一种激光测距校准装置及其校准方法
US20180284275A1 (en) * 2017-03-28 2018-10-04 Luminar Technologies, Inc. Lidar detector system having range walk compensation

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3158861A (en) * 1963-04-04 1964-11-24 Iribe Paul Method and apparatus for testing a radar tracking servo
US3897997A (en) * 1974-02-01 1975-08-05 Charles G Kalt Electrostatic display device with variable reflectivity
JPS5612106A (en) * 1979-07-11 1981-02-06 Morio Onoe Electric-reflectivity-variable radar reflector
US4621265A (en) * 1982-09-30 1986-11-04 The Boeing Company Millimeter wave passive/active simulator array and method of evaluating the tracking capability of an active/passive target seeker
US5282014A (en) 1992-12-11 1994-01-25 Hughes Aircraft Company Laser rangefinder testing system incorporationg range simulation
US5294935A (en) * 1993-02-23 1994-03-15 The United States Of America As Represented By The Secretary Of The Army Remote radar phase calibrator
US5606409A (en) 1994-12-27 1997-02-25 General Electric Company Laser ranging system calibration device
EP0938718A4 (en) 1996-11-08 2006-03-29 Ncs Pearson Inc OPTICAL SCANNING WITH PIXEL OUTPUT CALIBRATED
US6114985A (en) * 1997-11-21 2000-09-05 Raytheon Company Automotive forward looking sensor test station
JP3913878B2 (ja) 1998-01-14 2007-05-09 本田技研工業株式会社 車両用物体検知装置
US6542840B2 (en) 2000-01-27 2003-04-01 Matsushita Electric Industrial Co., Ltd. Calibration system, target apparatus and calibration method
US6596996B1 (en) 2001-07-24 2003-07-22 The Board Of Regents For Oklahoma State University Optical spectral reflectance sensor and controller
DE10246067B4 (de) * 2002-10-02 2008-01-03 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung eines Bildsensorsystems in einem Kraftfahrzeug
US7236235B2 (en) * 2004-07-06 2007-06-26 Dimsdale Engineering, Llc System and method for determining range in 3D imaging systems
JP4681856B2 (ja) 2004-11-24 2011-05-11 アイシン精機株式会社 カメラの校正方法及びカメラの校正装置
US8958057B2 (en) 2006-06-27 2015-02-17 Arete Associates Camera-style lidar setup
US7619746B2 (en) 2007-07-19 2009-11-17 Zygo Corporation Generating model signals for interferometry
CN101952688A (zh) 2008-02-04 2011-01-19 电子地图北美公司 用于与传感器检测到的对象进行地图匹配的方法
US8918302B2 (en) * 2008-09-19 2014-12-23 Caterpillar Inc. Machine sensor calibration system
US20100157280A1 (en) 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
US20100235129A1 (en) 2009-03-10 2010-09-16 Honeywell International Inc. Calibration of multi-sensor system
JP5461065B2 (ja) 2009-05-21 2014-04-02 クラリオン株式会社 現在位置特定装置とその現在位置特定方法
US8736818B2 (en) 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR
US20120069321A1 (en) * 2010-09-22 2012-03-22 Quilligan Gerard T Imaging device and circuit for same
DE102010062696A1 (de) 2010-12-09 2012-06-14 Robert Bosch Gmbh Verfahren und Vorrichtung zum Kalibrieren und Justieren eines Fahrzeug-Umfeldsensors.
US9075132B2 (en) * 2011-03-29 2015-07-07 Battelle Memorial Institute Development of a contrast phantom for active millimeter wave imaging systems
EP2742484B1 (en) 2011-07-25 2016-08-31 Universidade de Coimbra Method and apparatus for automatic camera calibration using one or more images of a checkerboard pattern
JP5807990B2 (ja) 2011-09-22 2015-11-10 アイトーン、インコーポレイテッド 自律移動ロボット用の監視、診断及び追跡ツール
US9046600B2 (en) 2012-12-05 2015-06-02 Toyota Motor Engineering & Manufacturing North America, Inc. Method and apparatus for intensity calibration of multi-beam lidar sensors
CN103064076B (zh) 2012-12-26 2014-06-25 南京理工大学 光子计数三维成像激光雷达距离行走误差校正系统及方法
US9874441B1 (en) 2013-01-16 2018-01-23 Opti-Logic Corporation Circuitry and method for reducing echo walk error in a time-of-flight laser distance device
US9343815B2 (en) * 2013-06-28 2016-05-17 Associated Universities, Inc. Randomized surface reflector
US8836922B1 (en) 2013-08-20 2014-09-16 Google Inc. Devices and methods for a rotating LIDAR platform with a shared transmit/receive path
US9212926B2 (en) 2013-11-22 2015-12-15 Ford Global Technologies, Llc In-vehicle path verification
US11340345B2 (en) 2015-07-17 2022-05-24 Origin Wireless, Inc. Method, apparatus, and system for wireless object tracking
US9977512B2 (en) 2014-10-24 2018-05-22 Intersil Americas LLC Open loop correction for optical proximity detectors
US10795005B2 (en) 2014-12-09 2020-10-06 Intersil Americas LLC Precision estimation for optical proximity detectors
CN204331026U (zh) 2014-12-26 2015-05-13 中国科学院光电研究院 用于三维成像载荷检校的可移动靶标系统
US9916703B2 (en) 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
US10042159B2 (en) 2016-02-18 2018-08-07 Aeye, Inc. Ladar transmitter with optical field splitter/inverter
US10306218B2 (en) 2016-03-22 2019-05-28 Light Labs Inc. Camera calibration apparatus and methods
EP3523604B1 (en) 2016-10-04 2020-05-13 Hunter Engineering Company Vehicle wheel alignment measurement system camera and adas calibration support structure
US10359507B2 (en) 2016-12-30 2019-07-23 Panosense Inc. Lidar sensor assembly calibration based on reference surface
US10296812B2 (en) 2017-01-04 2019-05-21 Qualcomm Incorporated Systems and methods for mapping based on multi-journey data
US10084967B1 (en) 2017-03-24 2018-09-25 Qualcomm Incorporated Systems and methods for regionally controlling exposure time in high dynamic range imaging
FR3064757A1 (fr) 2017-03-29 2018-10-05 Thales Dispositif de calibration d'un systeme d'imagerie et procede de calibration associe
EP3615955A4 (en) 2017-04-28 2020-05-13 SZ DJI Technology Co., Ltd. CALIBRATION OF LASER AND VISION SENSORS
US20180307245A1 (en) 2017-05-31 2018-10-25 Muhammad Zain Khawaja Autonomous Vehicle Corridor
CN107688185A (zh) 2017-06-05 2018-02-13 罗印龙 一种激光测距装置及其测距方法
US10176596B1 (en) 2017-07-06 2019-01-08 GM Global Technology Operations LLC Calibration verification methods for autonomous vehicle operations
US10254170B2 (en) * 2017-08-08 2019-04-09 The United States of America, as Represented by the Secretary of Homeland Security Contrast phantoms and uses thereof for active millimeter wave imaging systems
US10983199B2 (en) 2017-08-11 2021-04-20 Zoox, Inc. Vehicle sensor calibration and localization
US11175132B2 (en) 2017-08-11 2021-11-16 Zoox, Inc. Sensor perturbation
US10928490B2 (en) * 2017-09-07 2021-02-23 Ford Global Technologies, Llc Lidar calibration
EP4220230A1 (en) 2017-09-26 2023-08-02 Innoviz Technologies Ltd. Lidar systems and methods
US10432912B2 (en) 2017-09-29 2019-10-01 Waymo Llc Target, method, and system for camera calibration
CN111492403A (zh) 2017-10-19 2020-08-04 迪普迈普有限公司 用于生成高清晰度地图的激光雷达到相机校准
US11644834B2 (en) 2017-11-10 2023-05-09 Nvidia Corporation Systems and methods for safe and reliable autonomous vehicles
WO2019121396A1 (en) 2017-12-20 2019-06-27 Robert Bosch Gmbh Portable apparatus for vehicle sensor calibration
US11415683B2 (en) 2017-12-28 2022-08-16 Lyft, Inc. Mobile sensor calibration
US10852731B1 (en) 2017-12-28 2020-12-01 Waymo Llc Method and system for calibrating a plurality of detection systems in a vehicle
US11010639B2 (en) * 2018-02-19 2021-05-18 Raytheon Company In-scene multi-angle surface-specific signature generation and exploitation
US11624608B2 (en) 2018-04-30 2023-04-11 BPG Sales and Technology Investments, LLC Vehicular alignment for sensor calibration
EP3588001B1 (en) 2018-06-21 2023-03-15 MAHLE Aftermarket Italy S.r.l. System and method of calibrating an optical sensor mounted on board of a vehicle
CN109212544B (zh) * 2018-09-11 2021-06-22 深圳市前海腾际创新科技有限公司 一种目标距离探测方法、装置及系统
US11681030B2 (en) * 2019-03-05 2023-06-20 Waymo Llc Range calibration of light detectors

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07128438A (ja) * 1993-11-01 1995-05-19 Stanley Electric Co Ltd レーダー測距装置の距離補正方法
JPH1020035A (ja) * 1996-02-27 1998-01-23 Sick Ag レーザ距離測定装置
JP2000509150A (ja) * 1996-04-24 2000-07-18 サイラ・テクノロジーズ・インク 三次元目的物をイメージ化しかつモデル化するための統合装置
US6310682B1 (en) * 1999-07-06 2001-10-30 Quarton, Inc. System and method for laser range finder
JP2006258690A (ja) * 2005-03-18 2006-09-28 Sanyo Electric Co Ltd 測定装置、移動体および信号処理回路
JP2007147333A (ja) * 2005-11-24 2007-06-14 Nippon Signal Co Ltd:The パルス信号の波高値検出回路
JP2007225342A (ja) * 2006-02-21 2007-09-06 Toyota Motor Corp 3次元測定装置及び3次元測定装置を搭載した自律移動装置
JP2009544023A (ja) * 2006-07-17 2009-12-10 ライカ ジオシステムズ アクチェンゲゼルシャフト 光学距離測定方法及びそれを用いた光学距離測定装置
JP2011514709A (ja) * 2008-02-01 2011-05-06 コミッサリア ア レネルジー アトミーク エ オ ゼネルジ ザルタナテイヴ 三次元アクティブ画像処理デバイス
JP2018505427A (ja) * 2015-01-13 2018-02-22 ディーエスシージー ソルーションズ,インコーポレイテッド マルチビーム距離測定プロセス
JP2017032355A (ja) * 2015-07-30 2017-02-09 三菱電機株式会社 レーザレーダ装置
US20180284275A1 (en) * 2017-03-28 2018-10-04 Luminar Technologies, Inc. Lidar detector system having range walk compensation
CN108415003A (zh) * 2018-06-08 2018-08-17 武汉煜炜光学科技有限公司 一种激光测距校准装置及其校准方法

Also Published As

Publication number Publication date
US11681030B2 (en) 2023-06-20
WO2020180503A8 (en) 2021-09-23
WO2020180503A1 (en) 2020-09-10
US20200284887A1 (en) 2020-09-10
CN113544534A (zh) 2021-10-22
IL285929A (en) 2021-10-31
EP3914930A4 (en) 2022-11-02
US20230280452A1 (en) 2023-09-07
EP3914930A1 (en) 2021-12-01

Similar Documents

Publication Publication Date Title
JP2022522665A (ja) 光検出器の範囲キャリブレーション
CN112424046B (zh) 载具传感器检验和校准
US11945467B2 (en) Identification of proxy calibration targets for a fleet of vehicles
JP2023520998A (ja) 光検出及び測距(lidar)デバイスにおける干渉軽減のための発光器の選択的非アクティブ化
CN113544535B (zh) 用于检测降低的lidar范围测量准确性的方法和系统
US12032101B1 (en) Calibration system for light detection and ranging (lidar) devices
US11594037B1 (en) Vehicle sensor calibration and verification
US12066578B2 (en) Calibration and localization of a light detection and ranging (lidar) device using a previously calibrated and localized lidar device
JP7386899B2 (ja) 光検出および測距(lidar)デバイスに関連付けられたドロッププロセスの戦略を決定するための方法およびシステム
US20220163675A1 (en) Methods of Using Background Images from a Light Detection and Ranging (LIDAR) Device
US20240071093A1 (en) Time-Division Multiple Access Scanning for Crosstalk Mitigation in Light Detection and Ranging (Lidar) Devices
US12085678B1 (en) Methods for localizing light detection and ranging (lidar) calibration targets
US20240085343A1 (en) Temporally Modulated Light Emission for Defect Detection in Light Detection and Ranging (Lidar) Devices and Cameras
US20230358868A1 (en) Mitigating Crosstalk from High-Intensity Returns in a Light Detection and Ranging (Lidar) Device
US20240201391A1 (en) Differential Methods for Environment Estimation, Lidar Impairment Detection, and Filtering
JP7522169B2 (ja) 強い背景光からの飽和を回避し、方向制御を達成するために回転カメラ上のフレーム時間を能動的に調整する、制御ウィンドウカメラの方向付け
US20230184910A1 (en) Lower Power Linearization of Lidar Signals

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230621

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230905