JP2021518553A - センサー較正 - Google Patents

センサー較正 Download PDF

Info

Publication number
JP2021518553A
JP2021518553A JP2020550860A JP2020550860A JP2021518553A JP 2021518553 A JP2021518553 A JP 2021518553A JP 2020550860 A JP2020550860 A JP 2020550860A JP 2020550860 A JP2020550860 A JP 2020550860A JP 2021518553 A JP2021518553 A JP 2021518553A
Authority
JP
Japan
Prior art keywords
sensor
data
entropy
calibration
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020550860A
Other languages
English (en)
Other versions
JP7308855B2 (ja
JPWO2019182909A5 (ja
Inventor
ブラエス パトリック
ブラエス パトリック
ミラー ダニエル
ミラー ダニエル
Original Assignee
ズークス インコーポレイテッド
ズークス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ズークス インコーポレイテッド, ズークス インコーポレイテッド filed Critical ズークス インコーポレイテッド
Publication of JP2021518553A publication Critical patent/JP2021518553A/ja
Publication of JPWO2019182909A5 publication Critical patent/JPWO2019182909A5/ja
Application granted granted Critical
Publication of JP7308855B2 publication Critical patent/JP7308855B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/403Antenna boresight in azimuth, i.e. in the horizontal plane
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52004Means for monitoring or calibrating

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Navigation (AREA)

Abstract

本開示は、自律走行車のセンサーを較正することを対象としている。第1のセンサーデータおよび第2のセンサーデータは、環境を表現する1つまたは複数のセンサーによってキャプチャーすることが可能である。第1のセンサーデータおよび第2のセンサーデータは、複数の組み合わせにおいてグリッドに関連付けられることが可能であり、複数の投影されたデータを生成する。グリッドのセルを占める投影されたデータのデータポイントの数を合計することで、空間ヒストグラムを判断することが可能である。誤差の量(エントロピー値など)は、投影されたデータ毎に判断することができ、最小のエントロピー値に対応する投影されたデータを1つまたは複数のセンサーの較正された構成を表現するものとして選択することが可能である。最小のエントロピー値に関連付けられる較正データは、判断されることができ、1つまたは複数のセンサーをそれぞれ較正することに用いられることが可能である。

Description

本発明は、装置のセンサー較正に関する。
本特許出願は、2018年3月21日に提出された米国実用特許出願番号第15/927,291号の優先権を主張する。出願番号第15/927,291号は、参照により本明細書に完全に組み込まれる。
多くの車両は、ナビゲーション、ガイダンス、および障害物回避などのさまざまな機能のセンサーデータを利用する。車両の効果的な動作のために、それぞれのさまざまな機能が必要となる場合がある。そのため、車両コンピューティングシステムに正確な入力を提供するために、センサーを較正させることが重要である。現在の較正技術は、時間、および計算コストが高い場合があり、最適なソリューションに収束しないことがある。さらに、現在の多くの較正技術は、オフラインプロセスに限定されており、センサーが較正、またはアライメントから外れている場合、車両を使用しないようにする必要がある。さらに、現在の方法は、較正のために人間のオペレータを必要とし、プロセスをマニュアル化し、遅く、且つ潜在的に不正確なものにさせる。
詳細な説明は、添付の図面を参照して説明される。図面において、参照番号の最左端の桁は、最初に現れる参照番号の図面を特定する。異なる図面における同一の参照番号の使用は、類似、または同等のコンポーネント、または機能を示す。
本開示の実施形態によって、自律走行車上のセンサーを較正するための例示的なプロセスの図式フロー図を描写する。 本開示の実施形態によって、自律走行車上のセンサーを較正するための探索アルゴリズムの組み合わせを用いる例示的なプロセスの図式フロー図を描写する。 車両に取り付けられた複合的なセンサーアセンブリを有する例示的な車両の側面図を描写する。 車両に取り付けられた複合的なセンサーアセンブリを有する例示的な車両の上面図を描写する。 本明細書で説明される実施形態を実装するための例示的なシステムのブロック図を描写する。 本開示の実施形態によって、センサーデータをグリッドに投影させ、エントロピー値などの誤差を最小化させることによって、1つまたは複数のセンサーを較正する例示的なプロセスを描写する。 本開示の実施形態によって、少なくとも部分的に、較正されたセンサーデータに基づいて自律走行車を制御する例示的なプロセスを描写する。
本開示は、自律走行車用のセンサーを較正することを対象としている。ある例示において、自律走行車は、複合的なセンサー(同一、または異なる態様)を含むことができ、これらは、重なる視野を表現することが可能である。第1のセンサーは、環境の第1のデータをキャプチャーすることができ、第2のセンサーは、環境の第2のデータをキャプチャーすることが可能である。第1のセンサーおよび第2のセンサーが(互いに対して、車両および/または内部に対して)正しく較正された場合に、第1のセンサーおよび第2のセンサーからのセンサーデータは、環境のアライメントされた表現(例えば、「鮮明」な表現)を生成するよう組み合わされることが可能である。しかしながら、センサーが正しく較正されなかった場合に、組み合わされたセンサーデータは、環境の不正確な描写(例えば、「不鮮明な」表現)を表現する場合がある。このような不鮮明さは、例えば、センサーの相対的な位置および/または向きが正確ではないときに生じる場合がある。一例において、本明細書で説明される較正技術を用いることで、自律走行車に取り付けられたレーダーセンサーを較正することが可能である。ある例示において、較正技術は、第1のセンサーによってキャプチャーされた第1のセンサーデータを受信することと、第2のセンサーによってキャプチャーされた第2のセンサーを受信することと、第1のセンサーデータおよび第2のセンサーデータを2次元グリッドなどのグリッドに投影することとを含むことが可能である。第1のセンサーデータおよび第2のセンサーデータは、複合的な組み合わせでグリッドに投影され、複数の投射像を生成することが可能である。誤差の量(エントロピー値など)は、それぞれの投射像に対して判断することができ、最小のエントロピー値に対応する投射像を、較正された構成を表現するものとして選択することが可能である。最小のエントロピー値に関連付けられた較正データを判断し、第1のセンサーおよび第2のセンサーをそれぞれ較正することに用いることができる。
ある例示において、複数の投射像は、組み合わせ探索アルゴリズムを用いて生成することが可能である。つまり、ある例示において、複数の投射像は、1つまたは複数のセンサーの較正特性(例えば、較正角度)の徹底的な組み合わせを表現することが可能である。上述のように、センサーデータは、2次元グリッドなどのグリッドに投影することが可能である。グリッドのセルへと投影されたセンサーデータを合計することで、それぞれのセルに関連付けられたセンサーデータポイントの数をカウントすることが可能である。ある例示において、センサーデータをグリッドに投影すると、2次元空間ヒストグラムなどのヒストグラムを生成することが可能である。ある例示において、ヒストグラムを、正規化することによって、確率分布を生成することが可能である。確率分布は、シャノンエントロピー、またはレーニエントロピーなど、投射像に関連付けられたエントロピー値を判断することに用いられることが可能である。最小の低いエントロピー値に対応する投射像を選択することができ、1つまたは複数のセンサーを較正する較正データを判断するために用いることが可能である。ある例示において、組み合わせ探索アルゴリズムの代替で、最急降下アルゴリズムを用いることができ、これは、ある例示において、最適な投射像、および対応する較正データを判断するために用いることが可能である。
ある例示において、較正技術は、1つまたは複数の較正特性を判断することに用いることが可能であり、較正角度を判断することに限定されない。例えば、較正技術を、1つまたは複数のセンサーの1つまたは複数の内因性および/または外因性の特徴を判断することに用いることが可能である。例えば、第1のセンサーおよび第2のセンサーを、互いに対しておよび/または車両に対して較正することが可能である。ある例示において、第1のセンサーを、経時的に受信したセンサーデータを用いて、それ自体に対して較正することが可能である。ある例示において、任意の数の外因性の特徴(例えば、xの位置、yの位置、zの位置、ロール、ピッチ、およびヨーなどの6つの自由度)に対して較正を実行することが可能である一方で、ある例示において、単一の外因性の特徴(例えば、ヨー)に対して較正を実行することが可能である。内因性の特徴の例示は、レンズの歪み、伝送媒体などを含むが、これらに限定されない。さらなる較正の特徴は、(例えば、1つまたは複数のセンサーから受信したデータの)時間遅延、温度、圧縮などを含む場合があるが、これらに限定されない。
本明細書で説明される較正技術は、フレームワークを提供することによって、自律走行車のセンサーの最適な較正を判断し、コンピューティングデバイスの機能を改善することが可能である。ある例示において、組み合わせ探索アルゴリズムを潜在的な較正ソリューションを通じて徹底的に探索することに用いることができ、最適なソリューションでの収束を促進することが可能である。例えば、このような組み合わせ探索アルゴリズムを利用することは、最適なソリューションに対応しない場合がある(誤差を最小化した場合の)極小値での収束を回避することが可能である。本明細書で説明される較正技術を介して、1つまたは複数のセンサーを較正することによって、1つまたは複数のセンサーは、環境についての高度な正確性、および精度で環境を表現するデータを生成することが可能である。例えば、光検出および測距(LIDAR)センサー、レーダーセンサー、ソナーセンサーなど、この方法で較正されたセンサーは、セグメンテーション、分類、ルートプラニングなどのより正確なデータを提供することができ、最終的には運転している間のより高い安全性へとつなげることが可能である。さらに、センサーの改善された較正は、例えば、セグメンテーション、分類などの開始点として、より正確なデータを提供することによって、知覚システムにおける処理を改善することができる。コンピューティングデバイスの機能に対するこれら、および他の改善は、本明細書で説明される。
本明細書で説明される較正技術は、また、従来の較正技術に対する改善を表す。例えば、過去において、較正技術は、キャプチャーしたデータを手動によって、あるデータのセットを別のデータのセットにアライメントして調整することを有していた。この手動のアライメントは、時間がかかる場合があり、次善の較正となる場合がある。他の従来の較正技術は、較正動作において用いられる周知の位置によって再帰反射ターゲットを含む領域を越えることを含んでいる。さらにまた、従来の較正技術は、車両をターンテーブル上に取り付けることと、車両のセンサーによってキャプチャーされたデータを監視しながら車両を物理的に回転させることとを含んでいる。これらの従来の較正技術は、柔軟性が制限されていることから悩まされ、追加および/または特殊な較正機器を必要とすることが多く、および/またはセンサーの次善の較正という結果となる。したがって、本明細書で説明される技術は、従来の較正技術に対する重要な改善を表す。
本明細書で説明される方法、装置、およびシステムは、複数の方法で実装することが可能である。例示的な実装は、以下の図面を参照することで以下に提供される。自律走行車の状況で説明されているが、本明細書で説明される技術は、使用前および/または使用している間に、センサーの較正を必要とするさまざまなシステムに適用することが可能であり、自律走行車に限定されない。別の例示において、方法、装置、およびシステムは、航空、または航海の状況において、利用することができる。さらに、本明細書で説明される技術は、実データ(例えば、センサーを用いてキャプチャーされた)、模擬データ(例えば、シミュレーターによって生成された)、またはその2つの任意の組合せで用いることができる。
図1は、本開示の実施形態によって、自律走行車上に配置されたセンサーを較正する例示的なプロセスの図式フロー図を描写する。
動作102でプロセスは、環境のデータをキャプチャーすることを含むことが可能である。ある例示において、動作102は、自律走行車上に配置された1つまたは複数のレーダーセンサーからレーダーデータをキャプチャーすることを含むことが可能である。当然のことながら、プロセス100は、レーダーデータ、またはレーダーセンサーに限定されることなく、任意のタイプ、およびセンサーの数を本明細書で説明される較正技術と共に用いることが可能である。例示104は、環境における第1のポイント108および第2のポイント110のデータをキャプチャーする車両106を図示する。ある例示において、動作102でキャプチャーされたデータは、車両106の位置および/または速度に対するオブジェクトの位置および/または速度を含むことが可能である。
詳細図112は、車両106上の1つまたは複数のセンサーの物理的な向きを図示している。例えば、車両106は、車両106上に配置された第1のセンサー114(例えば、第1のレーダーセンサー)、と第2のセンサー116(例えば、第2のレーダーセンサー)とを含む。ある例示において、第1のセンサー114は、車両106に対して角度θ1118で取り付けられることができると同時に、第2のセンサー116は、車両106に対して角度θ2120で取り付けられることができる。図示されるように、第1のセンサー114は、環境におけるポイント108と、ポイント110とに関連付けられる第1のデータをキャプチャーすることが可能であると同時に、第2のセンサー116は、また、ポイント108と、ポイント110とに関連付けられる第2のデータをキャプチャーすることが可能である。
動作122で、プロセスは、1つまたは複数の較正角度に基づいて、データの一部をタスク空間(例えば、データを投影するための基準空間)に投影することを含むことができ、つまり、センサーから取得されたデータをセンサーの外因性の仮定に基づいて環境へと投影することが可能である。ある例示において、動作122は、ゼロ以外の速度に対応するデータを除去することを含むことが可能であることによって、動作122で投影されるデータの一部は、静止オブジェクトに対応するデータを表現する。ある例示において、動作122は、速度の閾値を超えない速度の値に関連付けられるデータを選択することを含むことが可能である。ある例示において、動作122は、関心のある領域を選択することを含むことができ、つまり、動作122は、本明細書で説明される較正動作で使用されるためのセンサーデータの一部を選択することを含むことが可能である。ある例示において、動作122は、移動距離、関心のある領域(例えば、回転の数、回転の半径、速度、開始および停止など)の間に実行される特定の操作などに対応するデータを選択することを含むことが可能である。
例示124は、1つまたは複数の初期較正角度(例えば、予想角度)に基づいてデータの投射像を図示する。詳細126に図示されるように、較正角度に基づいて予想される向きは、角度θ3128、および角度θ4130によって表現される。ある例示において、第1のセンサー114の較正角度128は、角度118(例えば、角度θ1118は、角度θ3128に事実上対応する)によって図示される第1のセンサー114の物理的向きに対応することができる。このような場合において、第1のセンサー114によってキャプチャーされ、動作122で投影されたデータは、環境の状態を正確に反映することができる。したがって、例示124における第1のセンサー114は、ポイント108、およびポイント110の位置を正確に示すセンサーデータを図示する。
しかしながら、詳細126に図示されるように、第2のセンサー116の較正角度130は、角度120(例えば、角度θ2120は、角度θ4130とは異なる場合がある)によって図示される第2のセンサー116の物理的向き(例えば、実際の向き)に対応していなくてよい。このような場合において、第2のセンサー116によってキャプチャーされ、動作122で投影されたデータは、環境の状態を正確に表現しない場合がある。図示されるように、第2のセンサー116によってキャプチャーされたデータは、データポイント132およびデータポイント134に対応するものとして不正確に解釈される場合がある。
理解することが可能であるように、ある例示において、動作122は、較正動作を省略することができ、誤って較正されたセンサー、または不正確に較正されたセンサーによって引き起こされる問題を図示するものとして理解されることが可能である。
動作136で、プロセスは、データの一部をグリッドに投影することを含むことができ、エントロピー値を最小化することが可能である。ある例示において、動作136は、組み合わせ探索アルゴリズムを用いて、センサー較正の組み合わせにわたる徹底的、または略徹底的な探索を表現する複数の投射像を生成し、最小のエントロピー値(それによって、最適な較正を表現する)を表現する投射像に到達することを含むことが可能である。ある例示において、データの一部をグリッドに投影し、エントロピー値を最小化することは、特定の投射像に関連付けられるエントロピー値(または誤差/コスト)を判断し、エントロピー値を基準エントロピー値と比較する反復プロセスを参照することが可能である。ある例示において、絶対最小のエントロピー値を判断することができ、ある例示において、最小のエントロピー値を利用される精度のレベル(例えば、本明細書で説明されるように、投影グリッドのサイズ、テストする較正角度のステップサイズなど)に基づいて判断することが可能である。
例示138、例示140、および例示142は、グリッド144に投影されたキャプチャーされたデータの投射像のさまざまな例示を図示する。ある例示において、グリッド144は、複数のセル146、セル148、セル150、およびセル152を含むことが可能である。
例示138は、詳細126で上述した初期(予想)較正角度に基づいて、第1のセンサーおよび第2のセンサーによってキャプチャーされたセンサーデータの投射像を表現する。つまり、例示138は、向き154(0,0)として表現されるセンサーデータのベースライン、または基準投射像を表現する。
例示140は、調整された向き156(0,−1)に基づいて、第1のセンサーおよび第2のセンサーによってキャプチャーされたセンサーデータの投射像を表現する。ある例示において、向き156は、第1のセンサーによってキャプチャーされたデータが変更されなかった(例えば、向き156で「0」と表現される)ことによって投射像を表現すると同時に、第2のセンサーによってキャプチャーされたデータは、反時計回りに1単位回転した(例えば、向き156で「−1」と表現される)。ある例示において、データを回転させる量は、調整可能もしくは選択可能なパラメーターとすることができ、または精度設定に基づくことが可能である。例えば、ある例示において、較正動作は、あらゆるレベルの「細かい」較正を実行した後で、「粗い」較正を実行し、最適なソリューションに到達することが可能である。
ある例示において、向き156は、センサーの向きが反時計回りに20度回転した第2のセンサー116によってキャプチャーされたデータを表現する。
ある例示において、向き158(0,1)は、時計回りに20度回転した(例えば、ヨー方向に)第2のセンサー116によってキャプチャーされたデータを表現する。簡略化するためにすべての可能となる組み合わせが図1に図示されているわけではない。しかしながら、組み合わせ探索アルゴリズムのさらなる詳細は、図2に関連して以下で説明される。以下で詳細に説明されるように、説明する目的のために図1に描写されているが、このような投射像は、1つの次元(ここでの「ヨー」)に限定されなくてよく、任意の数のセンサー間の任意の数の次元(例えば、x、y、z、ロール、ピッチ、ヨーなど)を含むことが可能であることが理解される。
例示138を参照すると、第1のセンサーおよび第2のセンサーデータによってキャプチャーされたセンサーデータのうちの少なくとも一部は、向き154に少なくとも部分的に基づいてグリッド144に投影されることが可能である。図示されるように、第2のセンサー116によってキャプチャーされた2つのポイントのデータは、セル150へと投影される。さらに、第1のセンサー114によってキャプチャーされたデータの第1のポイントは、セル146へと投影されると同時に、第1のセンサー116によってキャプチャーされたデータの第2のポイントは、セル152へと投影される。
データの一部がグリッドに投影された後で、エントロピー値は、複数の投射像のそれぞれの投射像に対して判断することが可能である。例えば、動作136は、それぞれのセルを占める複数の測定値を集計することを含むことができ、そこから、それぞれの投射像のヒストグラム(例えば、二次元空間ヒストグラム)を判断することが可能である。ある例示において、ヒストグラムは、少なくとも部分的に、投射像の向きに基づいて、正規化され、センサーデータが特定のセルへと投影された確率を表現する確率分布を生成することができる。エントロピー値は、確率分布に基づいて判断することが可能である。
理解することが可能であるように、エントロピー値は、複数の投射像のそれぞれの投射像に対して判断することができ、関連付けられることが可能である。したがって、組み合わせ探索アルゴリズムは、複数の投射像を判断することができ、エントロピー値をそれぞれの投射像に対して判断することが可能であることで、最小のエントロピー値に関連付けられる投射像を選択することによって、最適なソルーションを判断することが可能である。
ある例示において、動作136は、シャノンエントロピーを判断することを含むことが可能である。ある例示において、シャノンエントロピーは、以下の式によって判断することが可能である。
Figure 2021518553
ここで、Pijは、データの個々のデータポイントが空間座標(i,j)で観測された確率を表現する。
ある例示において、動作136は、レーニエントロピー、ハートレーエントロピー、衝突エントロピー、最小のエントロピーなどを判断することを含むことが可能である。
ある例示において、例示142は、例示138、例示140、および例示142に図示される3つの投射像の最小のエントロピー値を表現し、そのため、例示142は、最少のセル数における最大のポイント量を表現する。例えば、例示138、および例示140は、3つのセル(例えば、146、150、および152)における4つのポイント(例えば、108、110、132、および134)を表現すると同時に、例示142は、2つのセル(例えば、146および152)における4つのポイント(例えば、108、110、132、および134)を表現する。動作136は、それぞれのグリッドセルの領域を減少させること(例えば、セル数を増加させること)と同様に、ステップサイズを低減(例えば、20度から10度に)させることを繰り返し、センサーの推定位置および/または向きに対してより細かい、より細かな修正を生成することができる。
動作160で、プロセスは、少なくとも部分的に、エントロピー値に基づいて1つまたは複数の更新された較正角度を生成することを含むことが可能である。例えば、動作160は、動作136で判断された(例えば、例示142に対応する)最小のエントロピー値を判断することを含むことが可能である。ある例示において、動作160は、例えば、センサーの較正角度を表現するセンサーの向き158を判断することを含むことができ、第1のセンサーおよび第2のセンサーを最適に較正することが可能である。上述したように、向き158(0,1)は、第1のセンサーに関連付けられる初期較正角度(例えば、(0,1)の「0」)を表現し、第2のセンサーに関連付けられる更新された較正角度(例えば、(0,1)の「1」)を表現する。ある例示において、動作160は、組み合わせ探索アルゴリズムの精度を特定することを含むことが可能であり、この場合において、時計回りに20度の回転を表現する。
詳細162において、更新された較正角度に基づいて第1のセンサーおよび第2のセンサーの予想される向きが図示されている。例えば、第1のセンサー114は、更新された較正角度θ5164に関連付けられ、第2のセンサー116は、更新された較正角度θ6166に関連付けられている。したがって、更新された較正データ(例えば、更新された較正角度164、および更新された較正角度166)は、それぞれ第1のセンサー114および第2のセンサー116によって、キャプチャーされた任意のデータと共に送信することが可能であり、および/またはメモリの中に格納でき、第1のセンサー114と第2のセンサー116との間でデータをアライメントする任意のコンポーネントによってアクセスすることが可能である。
図2は、本開示の実施形態によって、自律走行車上のセンサーを較正する探索アルゴリズムの組み合わせを用いる例示的なプロセス200の図式フロー図を描写する。
動作202で、動作は、推定センサーの姿勢(例えば、位置、および向き)に基づいて、センサーデータの一部をグリッドに投影することを含むことが可能である。ある例示において、動作202は、動作202において投影されたデータから非ゼロ速度に関連付けられるデータを除去することを含むことが可能である。つまり、ある例示において、較正動作は、静止オブジェクトを表現するデータを用いて実行することが可能である。
例示204は、第1のセンサー114および第2のセンサー116によって、キャプチャーされたセンサーデータを向き154に基づいて、グリッド144に投影する車両106を図示する。図示されるように、第2のセンサーによってキャプチャーされたデータポイント132およびデータポイント134は、グリッド144のセル150へと投影される。第1のセンサーによってキャプチャーされたデータポイント108は、グリッド144のセル146へと投影され、第2のセンサーによってキャプチャーされたデータポイント110は、グリッド144のセル152へと投影される。
理解することが可能であるように、動作202において投影されるデータは、車両106によってキャプチャーされたデータの単一の例示、または「スナップショット」に限定されることはない。その代わりに、投影されるデータは、任意の期間、または距離にわたって車両106によってキャプチャーされたデータを表現することが可能であり、車線変更、左折、および右折などのいずれもが車両106の任意の操作を表現することができる。ある例示において、動作202において投影されるデータは、車両106によってキャプチャーされることができ、その後のプロセスのために車両106のログファイルの中に格納されることが可能である。このような例示において、車両についてのローカリゼーション情報(例えば、位置および/または向き)は、例えば、SLAMシステムなどによって判断および/または提供することができる。理解されることとなるように、ローカリゼーションシステムがより正確であるほど、本明細書で説明される技術によって実行することが可能となる較正の品質がより良いものとなる。さらに、このような複合的なセンサーは、実際には、経時的にデータを取得した単一のセンサー(例えば、それぞれの「センサー」は、異なる時間で同一の物理センサーを表現する場合がある)を表現する場合がある。このような例示において、また、較正は、車両自体に対して単一のセンサーの位置および/または向きを判断するであろう。
ある例示において、グリッド144は、任意のサイズの個別のセルを表現することが可能である。ある実装において、セル146は、10センチメートル×10センチメートルの位数の領域を表現することが可能である。ある例示において、グリッド144は、任意のサイズ、または形状のセルを含むことが可能であり、本明細書で説明される特定の例示に限定されることはない。グリッド144の全領域は、数十センチメートルから数千メートル、またはそれより広い範囲であってよい。
上述したように、例示204は、較正角度(例えば、向き154によって示される)に基づいてデータの投射像を表現する。ある例示において、コンベンション(0,0)は、例示204におけるデータの投射像がベースラインの較正角度(例えば、以前、または初期の較正データに対応することができる)を用いて実行することを示している。繰り返しとなるが、角度としてのみ(例えば、ヨー)の説明の目的のために描写され、このような較正は、xの位置、yの位置、またはzの位置、ヨー、ピッチロールなどのうちのいずれか1つまたは複数にわたってよい。
動作206で、プロセスは、組み合わせ探索のための精度を選択することを含むことが可能である。例えば、ある例示において、プロセス200は、「粗い」、「中間」、および「細かい」などの異なる精度で組み合わせ探索を実行することが可能であり、1つまたは複数のセンサーの較正を連続的に改良する。ある例示において、単精度は、調整可能(または選択可能)なパラメーターとなることが可能である。ある例示において、精度は、あるユーザ定義の閾値(例えば、動作220を超えないよう定義される閾値)を満たし、および/または超えるまで、連続的に(例えば、線形に、指数関数的に)改良することができる。例示の目的であり、限定されることなく、最初の精度は、20度の位数であってよいが、任意の値を用いてよい。20度を「粗い」精度の例示として用いることで、10度および1度の精度を「中間」および「細かい」精度に対してそれぞれ用いることができるが、任意の値を用いてよい。
動作208で、プロセスは、少なくとも部分的に、選択精度に基づいて組み合わせ探索を実行することを含むことが可能である。例示の目的であり、限定されることなく、例示210は、2つのセンサーを較正するための組み合わせ探索を表現する例示的なシーケンスを図示する。ある例示において、組み合わせ探索アルゴリズムは、センサーの向きのすべての組み合わせを徹底的、または略徹底的に探索し、それぞれの向きのグリッドにデータを投影し、それぞれの投射像のエントロピー値(または他の誤差値)を判断することが可能である。ある例示において、例示210は、1つまたは複数の次元における変換の組み合わせのセットを含む、第1のセンサーおよび第2のセンサーの複数の姿勢を表現する。
例示210において、第1のエントリ212は、向き154に対応する。つまり、組み合わせ探索アルゴリズムの第1のエントリ212は、以前、初期、または最新の較正情報に基づいて、第1のセンサーデータおよび第2のセンサーデータをグリッドに投影することを含むことが可能である。ある例示において、(0,0)の第1のエントリ212は、センサーの中立の向き(例えば、90度の角度118、および90度の角度120)に対応することが可能である。
例示210において、第2のエントリ214は、向き(−1,0)に対応する。探索精度が20度の例示において、第1のエントリ212は、中立の向き(例えば、車両106に対して、90度の第1のセンサーおよび第2のセンサー)に対応し、第2のエントリ214に対応する投射像の第1のセンサーの角度は、70度に対応することが可能である一方で、第2のセンサーの向きは、90度の角度に対応することが可能である。理解されることが可能であるように、動作208は、例示210のそれぞれのエントリの投射像を判断することを含むことが可能である。さらに、動作208は、複数の投射像のそれぞれの投射像のエントロピー値を判断することを含むことが可能である。
例示210に図示されるように、組み合わせ探索アルゴリズムは、任意の数のセンサーの向きを含むことが可能である。例示216は、「−2」に対応しているセンサーAの向きを図示し、これは、上述の例示に続き、第2のエントリ214に対応している投射像の第1のセンサーの角度は、50度(例えば、90度マイナス2*20度)に対応することが可能である。例示218は、任意の数のステップ(例えば、N、およびM)が、投射像を判断するために用いられること可能であることを図示する。
3つまたはそれより多くのセンサーが同時に較正された場合、組み合わせ探索アルゴリズムは、任意の数の追加のセンサーおよび/または寸法に対応するよう拡張することが可能である。つまり、本明細書で説明される較正技術は、1つのセンサー、2つのセンサー、または3つのセンサーを較正することに限定されることはなく、センサーの任意の数および/またはタイプ、および任意の数の寸法(位置および/または向き)に用いることができる。
動作220で、プロセスは、組み合わせ探索において判断された誤差値および/または探索の精度が閾値より低いかを判断することを含むことが可能である。例えば、組み合わせ探索は、複数の投射像のうちのそれぞれの投射像のエントロピー値を判断することができる。ある例示において、動作220は、(例えば、選択精度に基づいて)最良の較正を表現する最小のエントロピー値を判断することを含むことが可能である。誤差が閾値より低くない場合(例えば、最小のエントロピーおよび/または誤差の変化(動作220における「いいえ」として表現される以前の反復と比較して)、プロセスは、動作206に戻ることができ、ここで、更新された精度を選択することが可能である。例えば、プロセスの第1のパスは、第1の精度(例えば、「粗い」精度)で探索することが可能である一方で、連続するパスは、より細かい精度で探索することが可能である。ある例示において、基準の向き(例えば、(0,0))を更新し、投射像の最小のエントロピーに対応する位置および/または向きを反映することが可能である。
ある例示において、センサーに関連付けられる角度の大きさを参照して精度を変更することに加えて、またはそれを変更する代わりに、精度は、グリッドのサイズを参照することが可能である。例えば、グリッドのサイズは、最適な較正を判断するために連続するパスにわたって減少させることが可能である。
誤差が閾値より低い場合(例えば、動作220における「はい」)、プロセスは、動作222に継続することが可能であり、これは、1つまたは複数の較正角度を生成することを含むことができる。つまり、動作122は、少なくとも部分的に、動作220において判断された最小のエントロピー値に基づいて、投射像に対応する1つまたは複数の較正角度を判断することを含むことが可能である。例えば、データが対応する最小のエントロピーの中で投影される角度は、車両に対してセンサーの向きを表現することが可能である。したがって、較正角度は、センサーによってキャプチャーされたデータをアライメントすることに用いることができ、環境のアライメントされた表現を生成することが可能である。
図3Aは、車両に取り付けられた複合的なセンサーアセンブリを有する例示的な車両302の側面図300を描写する。ある例示において、センサーアセンブリは、1つまたは複数のLIDARセンサー、レーダーセンサー、画像センサー、ソナーセンサーなどを含むことができるが、これらに限定されることはない。さらなる例示は、本明細書(例えば、図4に関連する)で説明されている。
側面図300に図示されるように、車両302は、任意の組み合わせ、または構成で任意の数のセンサーを含むことができる。例えば、車両302は、少なくともセンサー304、センサー306、およびセンサー308を含む。ある例示において、センサー304は、θ1として図示される垂直視野を有するレーダーセンサーを含むことができる。センサー306は、車両の屋根に取り付けられたLIDARセンサーを含むことができ、センサー306は、θ2として図示される垂直視野を有する。ある例示において、センサー308は、車両302に取り付けられることができ、センサー308は、垂直視野θ3を有する。ある例示において、センサー308は、レーダーセンサー、LIDARセンサー、画像センサー、ソナーセンサーなどを表現する。当然のことながら、センサーの任意の数および/またはタイプは、車両302に取り付けるか、または設置することが可能である。
図3Bは、車両302に取り付けられた複合的なセンサーアセンブリを有する例示的な車両302の上面図310を描写する。例えば、センサー304、センサー306、およびセンサー308は、図3Bで図示され、同様に、追加のセンサー312、センサー314、センサー316、およびセンサー318も図示される。本開示の文脈において理解することができるように、車両302は、センサーの任意の数、および任意のタイプを含むことができる。図3Bに図示されるように、センサー304は、水平視野θ5を含むことができ、センサー306は、水平視野θ6を含むことができ、センサー308は、水平視野θ7を含むことができ、センサー310は、水平視野θ8を含むことができる。本開示の文脈において理解することができるように、取り付け位置、および視野は、外因性の特徴、および内因性の特徴にそれぞれ対応することができ、これは、本明細書で説明されるように較正することができる。さらに、本開示の文脈において理解することができるように、センサー304、センサー312、センサー314などのいくつかは、重複する視野(例えば、「共可視性」)を有する場合がある。
図4は、本明細書で説明される技術を実装するための例示的なシステム400のブロック図を描写する。少なくとも1つの例示において、システム400は、車両402を含むことができ、これは、図1および図3を参照し、上述で説明された車両106、または車両302と同一の車両であることが可能である。
車両402は、車両コンピューティングデバイス404と、1つまたは複数のセンサーシステム406と、1つまたは複数のエミッタ408と、1つまたは複数の通信接続410と、少なくとも1つの直接接続412と、1つまたは複数の駆動モジュール414とを含むことができる。
車両コンピューティングデバイス404は、1つまたは複数のプロセッサ416と、1つまたは複数のプロセッサ416と通信可能に結合されたメモリ418とを含むことが可能である。図示された例示において、車両402は、自律走行車であるが、車両402は、任意の他のタイプの車両であることが可能である。図示の例示において、車両コンピューティングデバイス404のメモリ418は、ローカリゼーションコンポーネント420、知覚コンポーネント422、プラニングコンポーネント424、1つまたは複数のシステムコントローラ426、および較正コンポーネント428を格納する。さらに、較正コンポーネント428は、定常データコンポーネント430と、較正データコンポーネント432と、投影コンポーネント434と、エントロピーコンポーネント436とを含むことが可能である。図4において描写されてはいるが、例示の目的でメモリ418において存在するように、較正コンポーネント428は、追加的に、または代替的に、車両402にアクセス可能である(例えば、遠隔に格納される)ことができると考えられる。
少なくとも1つの例示において、ローカリゼーションコンポーネント420は、センサーシステム406からデータを受信する機能を含むことができ、車両402の位置を判断することが可能である。例えば、ローカリゼーションコンポーネント420は、環境の3次元のマップを含み、要求することができ、および/または受信することができ、マップ内の自律走行車の位置を継続的に判断することが可能である。ある例示において、ローカリゼーションコンポーネント420は、SLAM(同時ローカリゼーション、およびマッピング)、またはCLAMS(同時に較正、ローカリゼーション、およびマッピング)を利用することが可能であり、画像データ、LIDARデータ、レーダーデータ、ソナーデータ、IMUデータ、GPSデータ、ホイールエンコーダーデータなどを受信し、自律走行車の位置を正確に判断する。ある例示において、本明細書で説明されるように、ローカリゼーションコンポーネント420は、車両402のさまざまなコンポーネントにデータを提供することが可能であり、候補軌道を生成するため、または較正動作に相互に関係をもたせるために自律車両の初期位置を判断することができる。
ある例示において、知覚コンポーネント422は、オブジェクトの検出、セグメンテーションおよび/または分類を実行する機能を含むことが可能である。ある例示において、知覚コンポーネント422は、車両402に近接するエンティティの存在および/またはエンティティのタイプ(例えば、自動車、歩行者、サイクリスト、動物、不明など)としてエンティティの存在を示す処理済みセンサーデータを提供することが可能である。追加および/または代替の例示において、知覚コンポーネント422は、検出されたエンティティおよび/またはエンティティが位置する環境に関連付けられる1つまたは複数の特徴を示す処理済みセンサーデータを提供することが可能である。ある例示において、エンティティに関連付けられる特徴は、xの位置(グローバルな位置)、yの位置(グローバルな位置)、zの位置(グローバルな位置)、向き、エンティティのタイプ(例えば、分類)、エンティティの速度、エンティティの範囲(例えば、サイズ)などを含むことが可能であるが、これらに限定されることはない。環境に関連付けられる特徴は、環境における別のエンティティの存在、環境における別のエンティティの状態、時刻、曜日、季節、気象条件、暗闇/光の指示などを含むことができるが、これらに限定されることない。
少なくとも1つの例示において、車両コンピューティングデバイス404は、1つまたは複数のシステムコントローラ426を含むことができ、これは、車両402のステアリング、推進、制動、安全性、エミッタ、通信、および他のシステムを制御するよう構成することが可能である。これらのシステムコントローラ426は、車両402の駆動モジュール414および/または他のコンポーネントの対応するシステムと通信および/または制御することが可能である。
一般に、プラニングコンポーネント424は、車両402が環境を通過するために進む経路を判断することが可能である。例えば、プラニングコンポーネント424は、さまざまなルートおよび軌道、ならびにさまざまな詳細レベルを判断することが可能である。例えば、プラニングコンポーネント424は、第1の位置(例えば、現在の位置)から第2の位置(例えば、目標の位置)に走行するルートを判断することが可能である。本説明の目的のために、ルートは、2つの位置の間を走行するための通過点のシーケンスとすることが可能である。非限定的な例示として、通過点は、道路、交差点、全地球測位システム(GPS)の座標などを含む。さらに、プラニングコンポーネント424は、第1の位置から第2の位置へのルートのうちの少なくとも一部に沿って自律走行車を誘導するための命令を生成することが可能である。少なくとも1つの例示において、プラニングコンポーネント424は、自律走行車を通過点のシーケンスにおける第1の通過点から通過点のシーケンスにおける第2の通過点までどのように誘導するかを判断することが可能である。ある例示において、命令は、軌道、または軌道の一部であることが可能である。ある例示において、後退ホライズン技術によって、多様な軌道を実質的に同時に(例えば、技術的な許容範囲内で)生成することが可能である。
一般に、較正コンポーネント428は、車両402に関連して動作する1つまたは複数のセンサーを較正する機能を含むことが可能である。例えば、較正コンポーネント428は、誤って較正されたセンサーを検出でき、較正ルーチンをスケジューリングでき、較正データを1つまたは複数のセンサーによって生成されるデータを利用する車両402の1つまたは複数の他のコンポーネントに送信することが可能である。
静止データコンポーネント430は、センサーシステム406の1つまたは複数のセンサーによって、キャプチャーされたセンサーデータを受信する機能を含むことが可能であり、静止オブジェクトを表現するデータを特定する。つまり、ある例示において、1つまたは複数のレーダーセンサーを較正する場合などに、センサーデータは、環境におけるオブジェクトの相対速度を示すことができる。したがって、静止データコンポーネント430は、車両402の速度に関連付けられるデータを(例えば、ホイールエンコーダー、GPSセンサーなどから)受信することが可能であり、センサーデータにおいて表現されるオブジェクトのデータに対する車両402の速度を判断することができる。ある例示において、定常データコンポーネント430は、ある速度を超えると、データを破棄(または較正の目的のために、省略、または無視)することができる速度を設定する閾値を含むことが可能である。ある例示において、閾値は、ゼロ速度であり、また、ある例示において、閾値は、非ゼロ値である(例えば、データは、閾値より低い速度に関連付けられる)ことが可能である。
ある例示において、静止データコンポーネント430は、建物、柱、木などの環境における静止オブジェクトを特定するマップ、または他のソースからデータを受信することが可能である。ある例示において、静止データコンポーネント430は、センサーデータを1つまたは複数の静止オブジェクトに関連付けて(マップデータに基づいて)、静止オブジェクトがセンサーデータにおける速度値を有するものとして表現されるかを判断することが可能である。このような場合において、較正コンポーネント428は、センサーが誤って較正されている場合があると判断することができ、較正が実行されるべきであるという指示を生成することが可能である。
較正データコンポーネント432は、車両402の1つまたは複数のセンサーに関連付けられる較正データを格納する機能を含むことが可能である。ある例示において、較正データコンポーネント432は、図1に対して上述で説明された角度118、角度120、角度128、角度130、角度164、および角度166などのセンサーに関連付けられる1つまたは複数の較正角度(または一般に、較正の特徴)を格納することが可能である。ある例示において、較正データは、較正角度、取り付け位置、高さ、方向、ヨー、傾斜、パン、タイミング情報、レンズの歪みパラメーター、伝送媒体パラメーターなどを含むが、これらに限定されないセンサーの取り付け角度および/または位置および/または1つまたは複数のセンサーに関連付けられる任意の外因性および/または内因性の情報を格納することが可能である。さらに、較正データコンポーネント432は、最新の較正から経過した時間など、実行された較正動作のいくつかまたはすべてのログを格納することが可能である。
投影コンポーネント434は、センサーデータをグリッドに投影する機能を含むことが可能であり、センサーシステム406の1つまたは複数のセンサーを較正する。ある例示において、投影コンポーネント434は、組み合わせ探索アルゴリズムを利用することが可能であり、センサーデータを複数の投射像として投影することができ、または最適なセンサー較正を徹底的、または略徹底的に探索することができる。ある例示において、投影コンポーネント434は、グリッドのサイズを選択することが可能である。上述したように、グリッドのサイズのある例示は、10センチメートル×10センチメートルであるが、任意の寸法を用いることができる。ある例示において、グリッドのサイズは、較正プロセスを通じて固定させることが可能であるが、一方で、ある例示において、グリッドのサイズは、変更(例えば、拡大、または縮小)することが可能であり、最適な較正ソリューションに収束する。
グリッドを判断した後で、投影コンポーネント434は、センサーデータをグリッドに投影することが可能である。ある例示において、投影コンポーネント434は、グリッドのそれぞれのセルにおいて表現されるデータポイントの数のカウントを表現するヒストグラム(例えば、2次元空間ヒストグラム)を生成することが可能である。ある例示において、投影コンポーネント434は、ヒストグラムを正規化することが可能であり、それぞれのセルにおけるデータポイントの確率分布を判断する。
エントロピーコンポーネント436は、投影コンポーネント434によって生成される確率分布を受け取る機能を含むことが可能であり、複数の投射像のうちのそれぞれの投射像のエントロピー値を判断する。例えば、エントロピー成分436は、シャノンエントロピー、レーニエントロピー、ハートレーエントロピー、衝突エントロピー、最小のエントロピーなどを判断することが可能である。
ある例示において、投影コンポーネント434および/またはエントロピーコンポーネント436は、動作を並行して実行することが可能である。例えば、個々の投射像(および/またはエントロピーの計算)は、GPUなどのプロセッサを用いて並行して判断することが可能であり、本明細書で説明される較正動作の処理時間を低減する。
ある例示において、組み合わせ探索アルゴリズムの代替として、較正コンポーネント428は、最急降下アルゴリズムを利用することができ、1つまたは複数の投射像に関連付けられるコストを評価して最適な較正を判断することが可能である。
ある例示において、本明細書で説明されるコンポーネントのうちのいくつかまたはすべての態様は、任意のモデル、アルゴリズムおよび/または機械学習アルゴリズムを含むことができる。例えば、ある例示において、メモリ418(および以下で説明されるメモリ444)の中のコンポーネントは、ニューラルネットワークとして実装することができる。
本明細書で説明されるように、例示的なニューラルネットワークは、入力データを連続して接続された層を通じて出力を生成する生物学的に着想を得たアルゴリズムである。ニューラルネットワークにおけるそれぞれの層は、別のニューラルネットワークを含む場合があり、または(畳み込みかどうかに関係なく)任意の数の層を含む場合がある。本開示の文脈において理解されるように、ニューラルネットワークは、機械学習を利用することができ、これは、学習したパラメーターに基づいて出力が生成されるこのようなアルゴリズムの広範囲のクラスを参照することができる。
ニューラルネットワークの文脈において説明されているが、任意のタイプの機械学習は、本開示と一致させて用いることができる。例えば、機械学習アルゴリズムは、回帰アルゴリズム(例えば、通常最小二乗回帰(OLSR)、線形回帰、ロジスティック回帰、段階的回帰、多変量適応回帰スプライン(MARS)、ローカル的推定スキャッタープロットの平滑化(LOESS)、例示に基づいたアルゴリズム(例えば、リッジ回帰、最小絶対収縮および選択演算子(LASSO)、弾力ネット、最小角度回帰(LARS)、決定木アルゴリズム(例えば、分類および回帰木(CART)、iterative dichotomiser 3(ID3)、カイ二乗自動相互作用検出(CHAID)、決定切り株、条件付き決定木)、ベイジアンアルゴリズム(例えば、ナイーブベイズ、ガウスナイーブベイズ、多項ナイーブベイズ、Average one-dependence estimators(AODE)、ベイジアンビリーフネットワーク(BNN)、ベイジアンネットワーク)、クラスタリングアルゴリズム(例えば、k平均、kメジアン、期待値の最大化(EM)、階層的クラスタリング)、相関ルール学習アルゴリズム(例えば、パーセプトロン、誤差逆伝搬、ホップフィールドネットワーク、動径基底関数ネットワーク(RBFN))、深層学習アルゴリズム(深層ボルツマンマシン(DBM)、深層ビリーフネットワーク(DBN)、畳み込みニューラルネットワーク(CNN)、積層オートエンコーダー)、次元縮小アルゴリズム(例えば、主成分分析(PCA)、主成分回帰(PCR)、部分最小二乗回帰(PLSR)、サモンマッピング、多次元尺度構成法(MDS)、射影追跡、線形判別分析(LDA)、混合判別分析(MDA)、二次判別分析(QDA)、柔軟判別分析(FDA))、アンサンブルアルゴリズム(例えば、ブースティング、ブートストラップアグリゲーション(バギング)、アダブースト、積層ジェネラリゼーション(ブレンディング)、勾配ブースティングマシン(GBM)、勾配ブースト回帰木(GBRT)、ランダム森)、SVM(サポートベクターマシン)、教師あり学習、教師なし学習、半教師あり学習などを含むことができるが、これらに限定されない。
さらなるアーキテクチャの例示は、ResNet50、ResNet101、VGG、DenseNet、PointNetなどのニューラルネットワークを含む。
少なくとも1つの例示において、センサーシステム406は、LIDARセンサー、レーダーセンサー、超音波トランスデューサー、ソナーセンサー、位置センサー(例えば、GPS、コンパスなど)、慣性センサー(例えば、慣性測定ユニット、加速度計、磁力計、ジャイロスコープなど)、カメラ(例えば、RGB、IR、強度、深度、飛行時間など)、マイク、ホイールエンコーダー、環境センサー(例えば、温度センサー、湿度センサー、光センサー、圧力センサーなど)などを含むことが可能である。センサーシステム406は、センサーのこれらのそれぞれ、または他のタイプの複数の例示を含むことが可能である。例えば、LIDARセンサー(および/またはレーダーセンサー)は、車両402の角、前部、後部、側面および/または上部に配置された個々のLIDARセンサー(またはレーダーセンサー)を含むことが可能である。別の例示として、カメラセンサーは、車両402の外部および/または内部のさまざまな位置に配置された複合的なカメラを含むことが可能である。センサーシステム406は、車両コンピューティングデバイス404に入力を提供することが可能である。追加的および/または代替的に、リアルタイムに近い時間などにおいて、センサーシステム406は、所定の期間が経過した後で、センサーデータを1つまたは複数のネットワーク438を介して、特定の周波数で1つまたは複数のコンピューティングデバイスに送信することが可能である。
また、車両402は、上述のように、光および/または音を発する1つまたは複数のエミッタ408を含むことが可能である。この例示におけるエミッタ408は、車両402の乗客と通信する内部オーディオおよびビジュアルエミッタを含む。例示の目的であり、限定ではなく、内部エミッタは、スピーカー、光、記号、ディスプレイ画面、タッチ画面、触覚エミッタ(例えば、振動および/または力フィードバック)、機械的アクチュエータ(例えば、シートベルトテンショナー、シートポジショナー、ヘッドレストポジショナーなど)などを含むことが可能である。また、この例示におけるエミッタ408は、外部エミッタを含む。例示の目的であり、限定ではなく、この例示における外部エミッタは、車両の動作の走行方向、または他のインジケータ(例えば、インジケータライト、記号、ライトアレイなど)の信号を送る光、および音波ビームステアリング技術を含む1つまたは複数の歩行者と、または他の近くの車両と音声による通信をするために、1つまたは複数のオーディオエミッタ(例えば、スピーカー、スピーカーアレイ、ホーンなど)を含む。
また、車両402は、車両402と1つもしく複数の他のローカルまたは遠隔のコンピューティングデバイスとの間の通信を可能とする1つまたは複数の通信接続410を含むことが可能である。例えば、通信接続410は、車両402および/または駆動モジュール414上の他のローカルコンピューティングデバイスとの通信を容易にすることが可能である。また、通信接続410は、車両が他の近くのコンピューティングデバイス(例えば、他の近くの車両、交通信号など)と通信することを可能とすることができる。また、通信接続410は、車両402が遠隔操作のコンピューティングデバイスと、または他の遠隔サービスと通信することを可能とする。
通信接続410は、車両コンピューティングデバイス404を別のコンピューティングデバイス、またはネットワーク438などのネットワークに接続する物理的および/または論理インターフェースを含むことが可能である。例えば、通信接続410は、IEEE802.11規格によって定義される周波数であり、ブルートゥースなどの短距離無線周波数、セルラー通信(例えば、2G、3G、4G、4G.LTE、5Gなど)などを介するWi−Fiに基づいた通信、またはそれぞれのコンピューティングデバイスが他のコンピューティングデバイスとインターフェースで接続することを可能とする任意の適切な有線、または無線通信プロトコルを可能とすることができる。
少なくとも1つの例示において、車両402は、1つまたは複数の駆動モジュール414を含むことが可能である。ある例示において、車両402は、単一の駆動モジュール414を有することが可能である。少なくとも1つの例示において、車両402が複数の駆動モジュール414を有する場合、個々の駆動モジュール414を車両402の両端(例えば、前部、および後部など)に配置することが可能である。少なくとも1つの例示において、駆動モジュール414は、1つまたは複数のセンサーシステムを含むことが可能であり、駆動モジュール414および/または車両402の周辺の状態を検出する。例示の目的であり、限定ではなく、センサーシステム406は、駆動モジュールのホイールの回転を感知する1つまたは複数のホイールエンコーダー(例えば、ロータリーエンコーダー)、駆動モジュールの向きおよび加速度を測定する慣性センサー(例えば、慣性測定ユニット、加速度計、ジャイロスコープ、磁力計など)、カメラまたはその他の画像センサー、駆動モジュールの周辺におけるオブジェクトを音声的に検出する超音波センサー、LIDARセンサー、レーダーセンサーなどを含むことが可能である。ホイールエンコーダーなどの一部のセンサーは、駆動モジュール414に特有のものとすることが可能である。ある場合において、駆動モジュール414上のセンサーシステムは、車両402の対応するシステム(例えば、センサーシステム406)と重複、または補完することが可能である。
駆動モジュール414は、高電圧バッテリー、車両402を推進するモーター、バッテリーからの直流電流を他の車両システムによって利用される交流電流へと変換するインバーター、ステアリングモーター、およびステアリングラック(電動であってよい)を含むステアリングシステム、油圧、または電気アクチュエータを含むブレーキシステム、油圧および/または空気圧コンポーネントを含むサスペンションシステム、トラクションの損失を軽減し、且つ制御を維持するために制動力の分散をするスタビリティー制御システム、HVACシステム、照明(例えば、車両の外部周辺を照らすヘッド/テールライトなどの照明)、および1つまたは複数の他のシステム(例えば、冷却システム、安全システム、車載充電システム、DC/DCコンバーター、高電圧ジャンクション、高電圧ケーブル、充電システム、充電ポートなどのその他の電装コンポーネントなど)を含む多くの車両システムを含むことが可能である。さらに、駆動モジュール414は、センサーシステムからデータを受信して前処理をすることができ、さまざまな車両システムの動作を制御する駆動モジュールコントローラを含むことが可能である。ある例示において、駆動モジュールコントローラは、1つまたは複数のプロセッサと、1つまたは複数のプロセッサと通信可能に結合されたメモリとを含むことが可能である。メモリは、1つまたは複数のモジュールを格納することが可能であり、駆動モジュール414のさまざまな機能を実行する。さらには、駆動モジュール414は、また、それぞれの駆動モジュールと1つまたは複数の他のローカルと、または遠隔のコンピューティングデバイスとによって、通信を可能とする1つまたは複数の通信接続を含む。
車両402のプロセッサ416は、データを処理して本明細書で説明されるような動作を実行する命令を実行することが可能となる任意の適切なプロセッサであってよい。例示の目的であり、限定ではなく、プロセッサ416は、1つまたは複数の中央処理装置(CPU)、グラフィック処理装置(GPU)、または電子データを処理してその電子データをレジスタおよび/またはメモリに格納することができる他の電子データへと変換する任意の他のデバイス、またはデバイスの一部を含むことが可能である。ある例示において、集積回路(例えば、ASICなど)、ゲートアレイ(例えば、FPGAなど)、および他のハードウェアデバイスは、また、それらが符号化された命令を実装するよう構成される限り、プロセッサとみなすことが可能である。
メモリ418は、非一時的なコンピュータ可読媒体の例示である。メモリ418は、オペレーティングシステム、および1つまたは複数のソフトウェアアプリケーションを格納することが可能である。メモリ418は、オペレーティングシステムおよび1つまたは複数のソフトウェアアプリケーション、命令、プログラムおよび/またはデータを格納することが可能であり、本明細書で説明される方法、およびさまざまなシステムに起因する機能を実施する。さまざまな実装において、メモリは、スタティックランダムアクセスメモリ(SRAM)、シンクロナスダイナミックRAM(SDRAM)、不揮発性/フラッシュタイプメモリ、または情報を格納することが可能であるその他の任意のタイプのメモリなど、適切なメモリ技術を用いて実装することが可能である。本明細書で説明されるアーキテクチャ、システム、および個々の要素は、他の多くの論理的、プログラム的、および物理的なコンポーネントを含むことが可能であり、それらが添付図面において図示されるものは、単に本明細書での説明に関連する例示にすぎない。
図4は、分散システムとして図示される一方で、代替の例示において、車両402のコンポーネントは、ネットワーク438を介してアクセス可能な遠隔のコンピューティングデバイスに関連付けることが可能である。
例えば、車両402は、ネットワーク438を介して、センサーデータを1つまたは複数のコンピューティングデバイス440に送信することが可能である。ある例示において、車両402は、生センサーデータをコンピューティングデバイス440に送信することが可能である。他の例示において、車両402は、処理済みセンサーデータおよび/またはセンサーデータの表現をコンピューティングデバイス440に送信することが可能である。ある例示において、車両402は、リアルタイムに近い時間などにおいて、所定の期間が経過した後で、センサーデータを特定の周波数でコンピューティングデバイス440に送信することが可能である。ある例示において、車両402は、センサーデータ(生、または処理済み)を1つまたは複数のログファイルとして、コンピューティングデバイス440に送信することが可能である。
コンピューティングデバイス440は、センサーデータ(生、または処理済み)を受信することができ、データに対して較正動作を実行することが可能である。少なくとも1つの例示において、コンピューティングデバイス440は、1つまたは複数のプロセッサ442、および1つまたは複数のプロセッサ442と通信可能に結合されたメモリ444を含むことが可能である。図示される例示において、コンピューティングデバイス440のメモリ444は、較正コンポーネント446を格納し、これは、較正コンポーネント428の文脈において、上述されたものと同様の動作を実行する機能を含むことが可能である。ある例示において、プロセッサ442およびメモリ444は、プロセッサ416およびメモリ418に対して、上述されたものと同様の機能および/または構造を含むことが可能である。
図1、図2、図3、図4、図5、および図6は、本開示の実施形態によって例示的なプロセスを図示する。これらのプロセスは、論理フローグラフとして図示され、このそれぞれの動作は、ハードウェア、ソフトウェア、またはそれらの組み合わせにおいて実装することが可能である動作のシーケンスを表現する。ソフトウェアの文脈において、動作は、1つまたは複数のプロセッサによって実行された場合に、列挙された動作を実行する1つまたは複数のコンピュータ可読記憶媒体に格納されるコンピュータ実行可能命令を表現する。一般に、コンピュータ実行可能命令は、特定の機能を実行するか、または特定の抽象的なデータタイプを実装する、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。動作が説明される順序は、制限として解釈されることを意図するものではなく、任意の数の説明された動作は、任意の順序で、および/または並行して組み合わせることが可能であり、プロセスを実装する。
図5は、本明細書で説明されるように、エントロピー値などの誤差を最小化するセンサーデータをグリッドに投影することによって、1つまたは複数のセンサーを較正する例示的なプロセス500を描写する。例えば、プロセス500の一部またはすべては、図4における1つまたは複数のコンポーネントによって実行することが可能である。例えば、プロセス500の一部またはすべては、較正コンポーネント428および/または較正コンポーネント446によって実行することが可能である。
動作502で、プロセスは、車両上に配置された1つまたは複数のセンサーによってキャプチャーされた第1のセンサーデータおよび第2のセンサーデータを受信することを含むことが可能である。単一のセンサーの文脈において、第1のセンサーデータおよび第2のセンサーデータは、センサーが環境を通じて移動したときに取得されるデータを表現することが可能である。ある例示において、このようなデータは、同じ環境を通じて車両の複合的なパスを表現する場合がある。例えば、第1のセンサーデータは、環境において1回目にキャプチャーされたデータを表現することができ、第2のセンサーデータは、環境において2回目にキャプチャーされたデータを表現することが可能である。
複数のセンサーの文脈において、動作502は、第1のセンサーおよび第2のセンサーから少なくとも第1のセンサーデータおよび第2のセンサーデータを受信することを含むことが可能である。ある例示において、第1のセンサーデータは、第2のセンサーデータ(例えば、技術的許容範囲内および/または本明細書で説明される較正技術に影響を及ぼさない時間内で)と実質的に同時にキャプチャーされることが可能である。ある例示において、第1のセンサーデータの少なくとも一部は、第2のセンサーデータの少なくとも一部と同一の環境を表現することが可能である。ある例示において、動作502は、例えば、車両の姿勢(例えば、位置および/または向き)についての情報を提供することができるローカリゼーション情報を受信することを含むことが可能である。ある例示において、ローカリゼーション情報は、CLAMS(較正、ローカリゼーション、およびマッピングを同時に)システムによって提供することができる。さらには、速度(線形および/または角度)、加速度(線形および/または角度)などは、また、1つまたは複数のシステムおよび/またはセンサーによって提供される。
動作504で、プロセスは、第1のセンサーデータおよび第2のセンサーデータをグリッド(例えば、2次元、または3次元グリッド)に投影することによって、複数の投射像を生成することを含むことが可能である。ある例示において、動作504は、組み合わせ探索アルゴリズムを選択することを含むことが可能であり、センサーデータの可能な投射像の徹底的、または略徹底的なセットを生成する。例えば、動作504は、(例えば、例示210において図示されるように)組み合わせ探索テーブルによって、第1のデータおよび第2のデータを投影することを含むことが可能である。ある例示において、複数の投射像は、互いに対しておよび/または車両に対して、1つまたは複数のセンサーの異なる位置および/または向き(例えば、姿勢)を表現することが可能である。
ある例示において、動作504は、複数の投射像のそれぞれの投射像のセンサーデータの投射像を表現する、二次元空間ヒストグラムなどのヒストグラムを判断することを含むことが可能である。ある例示において、ヒストグラムは、少なくとも部分的に、グリッドのそれぞれのセルへと投影された複数のデータポイントを表現することが可能である。ある例示において、動作504は、ヒストグラムを正規化することを含むことが可能であり、投射像にわたって確率分布を判断する。
動作506で、プロセスは、複数の投射像のそれぞれの投射像の誤差(例えば、エントロピー値)を判断することを含むことが可能である。ある例示において、動作506は、複数の投射像の個々の投射像に関連付けられるそれぞれの確率分布のエントロピー値を判断することを含むことが可能である。ある例示において、動作506は、シャノンエントロピー、レーニエントロピー、ハートレーエントロピー、衝突エントロピー、最小のエントロピーなどを判断することを含むことが可能である。ある例示において、動作506は、それぞれの投射像に関連付けられる誤差を判断する最急降下アルゴリズムを利用することを含むことが可能である。
動作508で、プロセスは、誤差(例えば、最小のエントロピー)および/または誤差の変化(以前の反復、または基準値と比較して)が閾値より低いかを判断することを含むことが可能である。ある例示において、動作508は、動作506において判断される複数のエントロピー値のうちの最小のエントロピー値を判断することを含むことが可能である(これは、ある場合において、1つまたは複数のセンサー、または探索アルゴリズムおよび/または探索精度に基づいて最良適合の最適な較正を表現することが可能である)。ある例示において、閾値は、センサーのタイプ、センサーの数、環境の状態、周囲温度、デバイス温度などに基づいて選択することが可能である。ある例示において、閾値は、以前の較正動作によって判断されたエントロピー値に部分的に基づくことが可能である。
誤差(または誤差の変化)が閾値より低くない場合(例えば、動作508における「いいえ」)、プロセスは、探索精度を更新することを含むことができる動作510を継続することが可能である。
ある例示において、動作510は、探索精度を更新すること(例えば、20度、15度、5度、1度などの角度での組み合わせ探索アルゴリズムを評価すること)および/またはグリッドのサイズ(例えば、10cm×10cm、5cm×5cm、1cm×1cmなどの寸法を有するセル)に基づくことを含むことが可能である。さらなる例示は、上述のように、図2に対して詳細に説明されている。当然のことながら、任意の値を用いることが可能であり、記載されている例示は、限定を意図したものではない。
動作510において、探索精度が更新された後で、プロセスは、動作504に戻ることが可能であり、センサーデータをグリッドに投影して複数の投射像を生成する。
誤差が閾値より低い場合(例えば、動作508において「はい」)、プロセスは、動作512に進む。
動作512で、プロセスは、複数の投射像のうちの最小の誤差(例えば、最小のエントロピー値)を表現する投射像を選択することを含むことが可能である。
動作514で、プロセスは、少なくとも部分的に投射像に基づいて、1つまたは複数のセンサーに関連付けられる較正データを判断することを含むことが可能である。例えば、図1に関連して上述したように、例示142は、複数の投射像の最小のエントロピー値を表現することができる。例示142は、最適な較正をもたらした基準の向きからの調整を表現する向き158に関連付けられている。ある例示において、動作514は、例えば、最適な較正データを判断する基準の角度からの調整角度を加算、または減算することによって、1つまたは複数の較正角度(または一般に、較正特徴)を判断することを含むことが可能である。
動作516で、プロセスは、少なくとも部分的に、較正データに基づいて1つまたは複数のセンサーを較正することを含むことが可能である。例えば、動作516は、較正データを1つまたは複数のローカリゼーションシステム(例えば、ローカリゼーションコンポーネント420)、知覚システム(例えば、知覚コンポーネント422)などに送信することを含むことが可能である。ある例示において、較正データは、車両の1つまたは複数のシステムによって用いられることが可能であり、アライメントをすることができるか、そうでなければ、1つまたは複数のセンサーによってキャプチャーされたデータを調整することによって、データが環境を正確な方法で表現することができる。
図6は、本明細書で説明されるように、少なくとも部分的に、較正されたセンサーデータに基づいて、自律走行車を制御する例示的なプロセス600を描写している。例えば、プロセス600の一部またはすべては、図4における1つまたは複数のコンポーネントによって実行することが可能である。例えば、プロセス600の一部またはすべては、ローカリゼーションコンポーネント420、知覚コンポーネント422、プラニングコンポーネント424および/または1つまたは複数のシステムコントローラ426によって実行することが可能である。
動作602で、プロセスは、更新された較正データを受信することを含むことが可能である。ある例示において、較正データは、本明細書で説明される較正技術を用いて判断することが可能である。
動作604で、プロセスは、少なくとも部分的に、更新された較正データに基づいて軌道を生成することを含むことが可能である。例えば、動作604において生成された軌道は、較正データを用いて較正された1つまたは複数のセンサーから受信したセンサーデータに、少なくとも部分的に基づくことができる。ある例示において、軌道は、環境における自律走行車の外部にあるオブジェクト、またはエージェントの存在に基づいている場合がある。
動作606で、プロセスは、軌道を進む自律走行車を制御することを含むことが可能である。ある例示において、動作606において生成された命令は、自律走行車に搭載されたコントローラに中継されることが可能であり、自律走行車に軌道を駆動するよう制御する。自律走行車の文脈で説明されているが、プロセス600、ならびに本明細書で説明される技術およびシステムは、マシンビジョンを利用するさまざまなシステムに適用することが可能である。
例示的な条項
A:システムは、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行可能な命令を格納する1つまたは複数のコンピュータ可読媒体とを備え、命令は、システムに、自律走行車上に配置された第1のレーダーセンサーによってキャプチャーされた第1のセンサーデータを受信することと、自律走行車上に配置された第2のレーダーセンサーによってキャプチャーされた第2のセンサーデータを受信することと、少なくとも部分的に、第1のレーダーセンサーおよび第2のレーダーセンサーの複数の向きに基づいて、第1のセンサーデータの第1の部分および第2のセンサーデータの第2の部分を複数の投影されたデータとして2次元グリッドで投影することと、少なくとも部分的に、複数の投影されたデータに基づいて、エントロピーを判断することと、少なくとも部分的に、エントロピーに基づいて、第1のセンサーに関連付けられる第1の較正角度を判断することと、少なくとも部分的に、エントロピーに基づいて、第2のセンサーに関連付けられる第2の較正角度を判断することと、少なくとも部分的に、第1の較正角度に基づいて、較正された第1のレーダーセンサーとして第1のレーダーセンサーを較正することと、少なくとも部分的に、第2の較正角度に基づいて、較正された第2のレーダーセンサーとして第2のレーダーセンサーを較正することと、少なくとも部分的に、較正された第1のレーダーセンサーおよび較正された第2のレーダーセンサーに基づいて、自律走行車を制御する軌道を生成することと、自律走行車に軌道を進むよう制御することとを含む動作を実行させる。
B:段落Aのシステムは、エントロピーを判断することは、少なくとも部分的に、複数の投影されたデータのサブセットに基づいて、複数の第1のエントロピー値を判断することと、複数の第1のエントロピー値の第1のエントロピー値が閾値を満たすか、または超えると判断することと、探索精度を低減することと、少なくとも部分的に、探索精度ならびに、第1のレーダーセンサーおよび第2のレーダーセンサーの複数の第2の向きに基づいて、第1のセンサーデータの第1の部分および第2のセンサーデータの第2の部分を第2の複数の投影されたデータとして2次元グリッドと関連付けることと、少なくとも部分的に、第2の複数の投影されたデータのサブセットに基づいて、複数の第2のエントロピー値を判断することと、複数の第2のエントロピー値の第2のエントロピー値をエントロピーとして判断することとを備える。
C:段落A、または段落Bのシステムの複数の向きは、時計回りの回転、反時計回りの回転、および中立の回転のそれぞれにおいて、第1のレーダーセンサーおよび第2のレーダーセンサーの向きの組み合わせのセットを含む。
D:段落A〜段落Cのいずれかのシステムの命令は、1つまたは複数のプロセッサによって実行された場合に、システムに、複数の投影されたデータに基づいて複数の確率分布を判断することを含む動作をさらに実行させ、エントロピーの判断は、少なくとも部分的に、複数の確率分布に基づいている。
E:段落A〜段落Dのいずれかのシステムの命令は、1つまたは複数のプロセッサによって実行された場合に、システムに、第1のセンサーデータの第1の部分が第1の定常データを表現することを判断することと、第2のセンサーデータの第2の部分が第2の定常データを表現することを判断することとを含む動作をさらに実行させる。
F:方法は、第1のセンサーによってキャプチャーされた第1のセンサーデータを受信するステップと、第2のセンサーによってキャプチャーされた第2のセンサーデータを受信するステップと、少なくとも部分的に、第1のセンサーおよび第2のセンサーの複数の姿勢に基づいて、第1のセンサーデータおよび第2のセンサーデータを複数の投影されたデータとしてグリッドに関連付けるステップと、少なくとも部分的に、複数の投影されたデータに基づいてエントロピーを判断するステップと、少なくとも部分的に、エントロピーに基づいて、第1のセンサーに関連付けられる第1の較正データを判断するステップと、少なくとも部分的に、エントロピーに基づいて、第2のセンサーに関連付けられる第2の較正データを判断するステップと、少なくとも部分的に、第1の較正データに基づいて第1のセンサーを較正するステップと、少なくとも部分的に、第2の較正データに基づいて、第2のセンサーを較正するステップとを備える。
G:段落Fの方法の複数の姿勢は、1つまたは複数の次元にわたる姿勢の変換の組み合わせのセットを含む。
H:段落Gの方法のグリッドは、2次元グリッドであり、姿勢の変換の組み合わせのセットは、ヨー回転を含み、第1のセンサーは、第1の視野を有する第1のレーダーセンサーであり、第2のセンサーは、第2の視野を有する第2のレーダーセンサーであり、第1の視野は、少なくとも部分的に、第2の視野と重複する。
I:段落Fから段落Hのうちのいずれかの方法の複数の投影されたデータは、少なくとも部分的に、第1の探索精度に基づく第1の複数の投影されたデータであり、エントロピーは、第1のエントロピー値であり、当該方法は、さらに、第1のエントロピー値が閾値のエントロピー値を満たすか、または超えるかを判断するステップと、第2のグリッドに関連付けられる第2の探索精度を選択するステップと、少なくとも部分的に、第2の探索精度ならびに、第1のセンサーおよび第2のセンサーの複数の第2の姿勢に基づいて、第1のセンサーデータおよび第2のセンサーデータを第2の複数の投影されたデータとして第2のグリッドに関連付けるステップと、エントロピーとして、第2の複数の投影されたデータに関連付けられる第2のエントロピー値を判断するステップとを含む。
J:段落Iの方法の第1の探索精度の第1のセルのサイズは、第2の探索精度の第2のセルのサイズと異なり、さらに、第1の複数の姿勢は、第2の複数の姿勢と異なる。
K:段落F〜段落Jのうちのいずれかの方法のエントロピーを判断するステップは、複数の投影されたデータのサブセットのシャノンエントロピーを判断するステップを含む。
L:段落F〜段落Kのうちのいずれかの方法の複数の投影されたデータは、実質的に同時に判断される。
M:段落F〜段落Lのうちのいずれかの方法は、さらに、少なくとも部分的に、第1の較正データに基づいて第1のセンサーによってキャプチャーされた第1の較正されたセンサーデータを受信するステップと、少なくとも部分的に、第2の較正データに基づいて、第2のセンサーによってキャプチャーされた第2の較正されたセンサーデータを受信するステップと、少なくとも部分的に、第1の較正されたセンサーデータおよび第2の較正されたセンサーデータに基づいて、自律走行車の進む軌道を生成するステップと、自律走行車に軌道を進めさせるステップとを備える。
N:段落F〜段落Mのうちのいずれかの方法の第1のセンサーおよび第2のセンサーは、単一の物理センサーに対応し、さらに、第1のセンサーデータは、1回目に単一の物理センサーから取得されたデータを含み、第2のセンサーデータは、2回目に単一の物理センサーから取得されたデータを含む。
O:段落F〜段落Nのうちのいずれかの方法の少なくとも第1のセンサーデータの一部および第2のセンサーデータの一部が環境の同一の部分に対応する。
P:非一時的なコンピュータ可読媒体は、命令が実行された場合に、1つまたは複数のプロセッサに、第1のセンサーによってキャプチャーされた第1のセンサーデータを受信することと、第2のセンサーによってキャプチャーされた第2のセンサーデータを受信することと、少なくとも部分的に、第1のセンサーおよび第2のセンサーの複数の姿勢に基づいて、第1のセンサーデータおよび第2のセンサーデータを複数の投影されたデータとしてグリッドに関連付けることと、少なくとも部分的に、複数の投影されたデータに基づいてエントロピーを判断することと、少なくとも部分的に、エントロピーに基づいて、第1のセンサーに関連付けられる第1の較正データを判断することと、少なくとも部分的に、エントロピーに基づいて、第2のセンサーに関連付けられる第2の較正データを判断することと、少なくとも部分的に、第1の較正データに基づいて第1のセンサーを較正することと、少なくとも部分的に、第2の較正データに基づいて、第2のセンサーを較正することとを含む動作を実行させる命令を格納する。
Q:段落Pの非一時的なコンピュータ可読媒体の複数の姿勢は、少なくとも1次元における姿勢の変換の組み合わせのセットを含む。
R:段落PまたはQの非一時的なコンピュータ可読媒体のグリッドは、複数のセルを含み、動作は、さらに、エントロピーが閾値を満たすか、または超えると判断することと、少なくとも探索精度に基づいて、第2の複数の姿勢を判断することと、少なくとも部分的に、第2の複数の姿勢に基づいて、第1のセンサーデータおよび第2のセンサーデータを第2の複数の投影されたデータとしてグリッドに関連付けることと、第2の複数の投影されたデータに関連付けられる複数の第2のエントロピー値を判断することと、エントロピーとして、複数の第2のエントロピー値の第2のエントロピー値を判断することとを含む。
S:段落P〜段落Rのうちのいずれかの非一時的なコンピュータ可読媒体の動作は、さらに、少なくとも部分的に、第1の較正データに基づいて第1のセンサーによってキャプチャーされた第1の較正されたセンサーデータを受信することと、少なくとも部分的に、第2の較正データに基づいて、第2のセンサーによってキャプチャーされた第2の較正されたセンサーデータを受信することと、少なくとも部分的に、第1の較正されたセンサーデータおよび第2の較正されたセンサーデータに基づいて、自律走行車の進む軌道を生成することと、自律走行車に軌道を進めさせることとを含む。
T:段落P〜段落Sのうちのいずれかの非一時的なコンピュータ可読媒体のエントロピーを判断することは、複数の投影されたデータのうちの少なくとも一部に関連付けられるシャノンエントロピーを判断することを含む。
上述の例示的な条項は、ある具体的な実装に対して説明されている一方で、本書類の文脈において、本例示的な条項の内容は、また、方法、デバイス、システムおよび/またはコンピュータ可読媒体を介して実装することが可能であることを理解されたい。
結論
本明細書で説明される技術の1つまたは複数の例示が説明されている一方で、さまざまな変更、追加、置換、およびそれらの均等物が本明細書で説明される技術の範囲内に含まれる。
例示の説明において、本明細書の一部を形成する添付の図面を参照し、これは例示として請求される主題の具体的な例示を図示する。他の例示を用いることができ、構造的変更などの変更、または代替を行うことが可能であることを理解されたい。このような例示、変更または代替は、意図される請求された主題に対する範囲から必ずしも逸脱するものではない。本明細書におけるステップは、特定の順序で提示することができる一方で、ある場合においては、順序を変更することが可能であることによって、説明されるシステム、および方法の機能を変更することなく、特定の入力が異なる時間、または異なる順序で提供される。また、開示された手順は、異なる順序で実行することができる。さらに、本明細書におけるさまざまな計算は、開示された順序で実行される必要はなく、計算の代替順序を用いる他の例示は、容易に実装することができる。並べ替えに加えて、計算は、また、サブ計算へと分解され、同一の結果を得ることができる。

Claims (15)

  1. 1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサによって実行可能な命令を格納する1つまたは複数のコンピュータ可読媒体とを備えるシステムであって、
    前記命令は、前記システムに、
    第1のレーダーセンサーによってキャプチャーされた第1のセンサーデータを受信することと、
    第2のレーダーセンサーによってキャプチャーされた第2のセンサーデータを受信することと、
    少なくとも部分的に、前記第1のレーダーセンサーおよび前記第2のレーダーセンサーの複数の向きに基づいて、前記第1のセンサーデータの第1の部分および前記第2のセンサーデータの第2の部分を複数の投影されたデータとして2次元グリッドで投影することと、
    少なくとも部分的に、前記複数の投影されたデータに基づいて、エントロピーを判断することと、
    少なくとも部分的に、前記エントロピーに基づいて、前記第1のセンサーに関連付けられる第1の較正角度を判断することと、
    少なくとも部分的に、前記エントロピーに基づいて、前記第2のセンサーに関連付けられる第2の較正角度を判断することと、
    少なくとも部分的に、前記第1の較正角度に基づいて、較正された第1のレーダーセンサーとして前記第1のレーダーセンサーを較正することと、
    少なくとも部分的に、前記第2の較正角度に基づいて、較正された第2のレーダーセンサーとして前記第2のレーダーセンサーを較正することとを含む動作を実行させる、
    システム。
  2. 前記エントロピーを判断することは、
    少なくとも部分的に、前記複数の投影されたデータのサブセットに基づいて、複数の第1のエントロピー値を判断することと、
    前記複数の第1のエントロピー値の第1のエントロピー値が閾値を満たすか、または超えると判断することと、
    探索精度を低減することと、
    少なくとも部分的に、前記探索精度ならびに、前記第1のレーダーセンサーおよび前記第2のレーダーセンサーの複数の第2の向きに基づいて、前記第1のセンサーデータの前記第1の部分および前記第2のセンサーデータの前記第2の部分を第2の複数の投影されたデータとして前記2次元グリッドと関連付けることと、
    少なくとも部分的に、前記第2の複数の投影されたデータのサブセットに基づいて、複数の第2のエントロピー値を判断することと、
    前記複数の第2のエントロピー値の第2のエントロピー値を前記エントロピーとして判断することとを含む、
    請求項1に記載のシステム。
  3. 前記複数の向きは、時計回りの回転、反時計回りの回転、および中立の回転のそれぞれにおける前記第1のレーダーセンサーおよび前記第2のレーダーセンサーの向きの組み合わせのセットを含む、
    請求項1または2に記載のシステム。
  4. 前記動作は、さらに、前記複数の投影されたデータに基づいて、複数の確率分布を判断することを含み、
    前記エントロピーを判断することは、少なくとも部分的に、前記複数の確率分布に基づく、
    請求項1または2に記載のシステム。
  5. 前記動作は、さらに、
    第1の定常データを表現する前記第1のセンサーデータの前記第1の部分を判断することと、
    第2の定常データを表現する前記第2のセンサーデータの前記第2の部分を判断することと、
    少なくとも部分的に、前記較正された第1のレーダーセンサーおよび前記較正された第2のレーダーセンサーに基づいて、自律走行車を制御する軌道を生成することと、
    前記自律走行車に前記軌道を進むよう制御することとを含む、
    請求項1または2に記載のシステム。
  6. 第1のセンサーによってキャプチャーされた第1のセンサーデータを受信するステップと、
    第2のセンサーによってキャプチャーされた第2のセンサーデータを受信するステップと、
    少なくとも部分的に、前記第1のセンサーおよび前記第2のセンサーの複数の姿勢に基づいて、前記第1のセンサーデータおよび前記第2のセンサーデータを複数の投影されたデータとしてグリッドに関連付けるステップと、
    少なくとも部分的に、前記複数の投影されたデータに基づいてエントロピーを判断するステップと、
    少なくとも部分的に、前記エントロピーに基づいて前記第1のセンサーに関連付けられる第1の較正データを判断するステップと、
    少なくとも部分的に、前記エントロピーに基づいて前記第2のセンサーに関連付けられる第2の較正データを判断するステップと、
    少なくとも部分的に、前記第1の較正データに基づいて前記第1のセンサーを較正するステップと、
    少なくとも部分的に、前記第2の較正データに基づいて前記第2のセンサーを較正するステップとを備える、
    方法。
  7. 前記複数の姿勢は、1つまたは複数の次元にわたる姿勢の変化の組み合わせのセットを含む、
    請求項6に記載の方法。
  8. 前記グリッドは、2次元グリッドであり、
    前記姿勢の変化の組み合わせのセットは、ヨー回転を含み、
    前記第1のセンサーは、第1の視野を有する第1のレーダーセンサーであり、
    前記第2のセンサーは、第2の視野を有する第2のレーダーセンサーであり、
    前記第1の視野は、少なくとも部分的に前記第2の視野と重複する、
    請求項7に記載の方法。
  9. 前記エントロピーを判断するステップは、前記複数の投影されたデータのサブセットのシャノンエントロピーを判断するステップを含む、
    請求項6ないし8のうちのいずれか一項に記載の方法。
  10. 前記第1のセンサーおよび前記第2のセンサーは、
    自律走行車上にあり、前記方法は、さらに、
    少なくとも部分的に、前記第1の較正データに基づいて前記第1のセンサーによってキャプチャーされた第1の較正されたセンサーデータを受信するステップと、
    少なくとも部分的に、前記第2の較正データに基づいて前記第2のセンサーによってキャプチャーされた第2の較正されたセンサーデータを受信するステップと、
    少なくとも部分的に、前記第1の較正されたセンサーデータおよび前記第2の較正されたセンサーデータに基づいて、前記自律走行車の進む軌道を生成するステップと、
    前記自律走行車に前記軌道を進めさせるステップとを備える、
    請求項6ないし8のうちのいずれか一項に記載の方法。
  11. 前記第1のセンサーおよび前記第2のセンサーは、単一の物理センサーに対応し、
    さらに、前記第1のセンサーデータは、1回目に前記単一の物理センサーから取得されたデータを含み、前記第2のセンサーデータは、2回目に前記単一の物理センサーから取得されたデータを含む、
    請求項6ないし8のうちのいずれか一項に記載の方法。
  12. 少なくとも前記第1のセンサーデータの一部および前記第2のセンサーデータの一部が環境の同一の部分に対応する、
    請求項6ないし8のいずれか一項に記載の方法。
  13. 前記複数の投影されたデータは、第1の複数の投影されたデータであり、前記方法は、さらに、
    前記エントロピーが閾値を満たすか、または超えるかを判断するステップと、
    探索精度を変更するステップと、
    少なくとも前記探索精度に基づいて、第2の複数の姿勢を判断するステップと、
    少なくとも部分的に、前記第2の複数の姿勢に基づいて、前記第1のセンサーデータおよび前記第2のセンサーデータを第2の複数の投影されたデータとして前記グリッドに関連付けるステップと、
    前記第2の複数の投影されたデータに関連付けられる複数の第2のエントロピー値を判断するステップと、
    前記エントロピーとして、前記複数の第2のエントロピー値の第2のエントロピー値を判断するステップとを備える、
    請求項6ないし8のいずれか一項に記載の方法。
  14. 前記第1の複数の投影されたデータは、第1の探索精度および第1のセルのサイズに関連付けられ、前記第2の複数の投影されたデータは、第2の探索精度および前記第1のセルのサイズとは異なる第2のセルのサイズに関連付けられ、そして前記第1の複数の姿勢は、前記第2の複数の姿勢とは異なる、
    請求項13に記載の方法。
  15. コンピュータ上で実行された場合に、請求項6ないし8のいずれか一項に記載の方法を実装する、
    コード化された命令を含むコンピュータプログラム製品。
JP2020550860A 2018-03-21 2019-03-15 センサー較正 Active JP7308855B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/927,291 2018-03-21
US15/927,291 US10830871B2 (en) 2018-03-21 2018-03-21 Sensor calibration
PCT/US2019/022561 WO2019182909A1 (en) 2018-03-21 2019-03-15 Sensor calibration

Publications (3)

Publication Number Publication Date
JP2021518553A true JP2021518553A (ja) 2021-08-02
JPWO2019182909A5 JPWO2019182909A5 (ja) 2022-03-17
JP7308855B2 JP7308855B2 (ja) 2023-07-14

Family

ID=65952213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020550860A Active JP7308855B2 (ja) 2018-03-21 2019-03-15 センサー較正

Country Status (5)

Country Link
US (2) US10830871B2 (ja)
EP (1) EP3769108A1 (ja)
JP (1) JP7308855B2 (ja)
CN (1) CN111936825B (ja)
WO (1) WO2019182909A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017210112A1 (de) * 2017-06-16 2018-12-20 Robert Bosch Gmbh Verfahren und System zur Durchführung einer Kalibrierung eines Sensors
US10830871B2 (en) 2018-03-21 2020-11-10 Zoox, Inc. Sensor calibration
DE102018205322A1 (de) * 2018-04-10 2019-10-10 Audi Ag Verfahren und Steuervorrichtung zum Erkennen einer Fehlfunktion zumindest eines Umfeldsensors eines Kraftfahrzeugs
US11885906B2 (en) 2018-06-28 2024-01-30 Plato Systems, Inc. Multimodal sensing, fusion for machine perception
USD922889S1 (en) * 2018-06-29 2021-06-22 Zoox, Inc. Sensor housing
US11391825B2 (en) * 2019-07-02 2022-07-19 Waymo Llc Sensor calibration parameter sensitivity analysis
US11393127B2 (en) * 2019-09-13 2022-07-19 Toyota Research Institute, Inc. 2D to 3D line-based registration with unknown associations
CN110967040B (zh) * 2019-12-17 2021-11-23 北京经纬恒润科技股份有限公司 一种传感器水平偏差角度的识别方法及系统
US11402468B2 (en) 2019-12-30 2022-08-02 Woven Planet North America, Inc. Systems and methods for blind online calibration of radar systems on a vehicle
US11360197B2 (en) * 2020-01-07 2022-06-14 Luminar, Llc Calibration of sensor systems
DE102020202679A1 (de) * 2020-03-03 2021-09-09 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Kalibrieren eines Sensorsystems eines beweglichen Objekts
US11619708B2 (en) 2020-07-28 2023-04-04 Trackman A/S System and method for inter-sensor calibration
CN112255621B (zh) * 2020-10-09 2022-08-30 中国第一汽车股份有限公司 一种车辆传感器的标定方法、装置、电子设备及存储介质
CN115248428B (zh) * 2021-04-28 2023-12-22 北京航迹科技有限公司 激光雷达的标定、扫描方法、装置、电子设备及存储介质
EP4116873A1 (en) * 2021-07-09 2023-01-11 Aptiv Technologies Limited Occupancy grid calibration
CN113837385B (zh) * 2021-09-06 2024-02-09 东软睿驰汽车技术(沈阳)有限公司 一种数据处理方法、装置、设备、介质及产品
US20230182754A1 (en) * 2021-12-13 2023-06-15 Gm Cruise Holdings Llc Determining an anomalous event from a scenario and an action of interest
CN114323104A (zh) * 2021-12-23 2022-04-12 沈阳环境科学研究院 一种车辆环境检测传感器在线校准系统
US20240098245A1 (en) * 2022-05-09 2024-03-21 Zoox, Inc. Sensor calibration validation
CN114881168B (zh) * 2022-05-25 2023-04-07 北京市生态环境监测中心 光离子化检测仪校准方法、系统、电子设备以及存储介质
US20240010223A1 (en) * 2022-07-07 2024-01-11 Gm Cruise Holdings Llc Multiple sensor calibration in autonomous vehicles performed in an undefined environment
US20240070915A1 (en) * 2022-08-23 2024-02-29 Motional Ad Llc Maintaining intrinsic calibration of cameras with in-body image stabilization systems
CN116576905B (zh) * 2023-07-13 2023-09-29 深圳天溯计量检测股份有限公司 一种温湿度传感器的批量自动校准装置

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210485A (ja) * 2008-03-05 2009-09-17 Honda Motor Co Ltd 車両用走行安全装置
US7966301B2 (en) * 2003-05-09 2011-06-21 Planeteye Company Ulc System and method for employing a grid index for location and precision encoding
CN102221688A (zh) * 2011-03-24 2011-10-19 中国船舶重工集团公司第七○九研究所 一种雷达系统误差估计方法
JP2014153211A (ja) * 2013-02-08 2014-08-25 Furukawa Electric Co Ltd:The 周辺監視システム及び周辺監視システムの軸ずれ検知方法
CN105738915A (zh) * 2016-01-07 2016-07-06 福州华鹰重工机械有限公司 三维雷达测量方法及装置
US20160291149A1 (en) * 2015-04-06 2016-10-06 GM Global Technology Operations LLC Fusion method for cross traffic application using radars and camera
CN106960468A (zh) * 2017-04-12 2017-07-18 武汉理工大学 一种三维激光扫描点云精度评价方法
WO2017149813A1 (ja) * 2016-02-29 2017-09-08 株式会社日立製作所 センサキャリブレーションシステム
US20170261594A1 (en) * 2014-12-18 2017-09-14 Innerspace Technology Inc. System for sensing interior spaces to auto-generate a navigational map
US20170269201A1 (en) * 2016-03-16 2017-09-21 Denso It Laboratory, Inc. Surrounding Environment Estimation Device and Surrounding Environment Estimating Method
JP2017198555A (ja) * 2016-04-27 2017-11-02 富士通株式会社 情報処理装置、キャリブレーション方法、およびキャリブレーションプログラム
US20170371329A1 (en) * 2014-12-19 2017-12-28 United Technologies Corporation Multi-modal sensor data fusion for perception systems
US20180089843A1 (en) * 2016-09-26 2018-03-29 Digitalglobe, Inc. Techniques for image co-registration
US20180172813A1 (en) * 2016-12-15 2018-06-21 Texas Instruments Incorporated Maximum Measurable Velocity in Frequency Modulated Continuous Wave (FMCW) Radar
US20180299533A1 (en) * 2017-04-17 2018-10-18 Magna Electronics Inc. Calibration system for vehicle radar system
US20190056491A1 (en) * 2017-08-18 2019-02-21 GM Global Technology Operations LLC Widely spaced radar nodes with unambiguous beam pattern

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9472097B2 (en) * 2010-11-15 2016-10-18 Image Sensing Systems, Inc. Roadway sensing systems
US8704887B2 (en) * 2010-12-02 2014-04-22 GM Global Technology Operations LLC Multi-object appearance-enhanced fusion of camera and range sensor data
GB201116961D0 (en) 2011-09-30 2011-11-16 Bae Systems Plc Fast calibration for lidars
US9157743B2 (en) 2012-07-18 2015-10-13 Honeywell International Inc. Systems and methods for correlating reduced evidence grids
EP3180636B1 (en) * 2014-08-15 2019-05-22 Robert Bosch GmbH Method and system for determining misalignment of a radar sensor unit
WO2016118499A1 (en) * 2015-01-19 2016-07-28 The Regents Of The University Of Michigan Visual localization within lidar maps
CN105678076B (zh) * 2016-01-07 2018-06-22 福州华鹰重工机械有限公司 点云测量数据质量评估优化的方法及装置
US10830871B2 (en) 2018-03-21 2020-11-10 Zoox, Inc. Sensor calibration

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7966301B2 (en) * 2003-05-09 2011-06-21 Planeteye Company Ulc System and method for employing a grid index for location and precision encoding
JP2009210485A (ja) * 2008-03-05 2009-09-17 Honda Motor Co Ltd 車両用走行安全装置
CN102221688A (zh) * 2011-03-24 2011-10-19 中国船舶重工集团公司第七○九研究所 一种雷达系统误差估计方法
JP2014153211A (ja) * 2013-02-08 2014-08-25 Furukawa Electric Co Ltd:The 周辺監視システム及び周辺監視システムの軸ずれ検知方法
US20170261594A1 (en) * 2014-12-18 2017-09-14 Innerspace Technology Inc. System for sensing interior spaces to auto-generate a navigational map
US20170371329A1 (en) * 2014-12-19 2017-12-28 United Technologies Corporation Multi-modal sensor data fusion for perception systems
US20160291149A1 (en) * 2015-04-06 2016-10-06 GM Global Technology Operations LLC Fusion method for cross traffic application using radars and camera
CN105738915A (zh) * 2016-01-07 2016-07-06 福州华鹰重工机械有限公司 三维雷达测量方法及装置
WO2017149813A1 (ja) * 2016-02-29 2017-09-08 株式会社日立製作所 センサキャリブレーションシステム
US20170269201A1 (en) * 2016-03-16 2017-09-21 Denso It Laboratory, Inc. Surrounding Environment Estimation Device and Surrounding Environment Estimating Method
JP2017198555A (ja) * 2016-04-27 2017-11-02 富士通株式会社 情報処理装置、キャリブレーション方法、およびキャリブレーションプログラム
US20180089843A1 (en) * 2016-09-26 2018-03-29 Digitalglobe, Inc. Techniques for image co-registration
US20180172813A1 (en) * 2016-12-15 2018-06-21 Texas Instruments Incorporated Maximum Measurable Velocity in Frequency Modulated Continuous Wave (FMCW) Radar
CN106960468A (zh) * 2017-04-12 2017-07-18 武汉理工大学 一种三维激光扫描点云精度评价方法
US20180299533A1 (en) * 2017-04-17 2018-10-18 Magna Electronics Inc. Calibration system for vehicle radar system
US20190056491A1 (en) * 2017-08-18 2019-02-21 GM Global Technology Operations LLC Widely spaced radar nodes with unambiguous beam pattern

Also Published As

Publication number Publication date
JP7308855B2 (ja) 2023-07-14
US10830871B2 (en) 2020-11-10
WO2019182909A1 (en) 2019-09-26
CN111936825A (zh) 2020-11-13
EP3769108A1 (en) 2021-01-27
CN111936825B (zh) 2023-09-08
US20210055380A1 (en) 2021-02-25
US11656329B2 (en) 2023-05-23
US20190293756A1 (en) 2019-09-26

Similar Documents

Publication Publication Date Title
JP7308855B2 (ja) センサー較正
US11748909B2 (en) Image-based depth data and localization
US10937178B1 (en) Image-based depth data and bounding boxes
US10916035B1 (en) Camera calibration using dense depth maps
US11898873B2 (en) Calibrating multiple inertial measurement units
US11010907B1 (en) Bounding box selection
US12101572B2 (en) Image scan line timestamping
US10936902B1 (en) Training bounding box selection
US11555903B1 (en) Sensor calibration using dense depth maps
US10984543B1 (en) Image-based depth data and relative depth data
US11460568B2 (en) Estimating in-plane velocity from an arbitrary radar return
US20200282929A1 (en) Sensor validation using semantic segmentation information
US11623494B1 (en) Sensor calibration and verification using induced motion
JP7427614B2 (ja) センサ較正
US11604465B2 (en) Correction of sensor data alignment and environment mapping
US11543263B1 (en) Map distortion determination
US11537819B1 (en) Learned state covariances
JP7422747B2 (ja) 画像スキャンラインのタイムスタンプ
US11897486B1 (en) Sensor consensus monitor
US12123720B1 (en) Data estimation in asynchronous systems
US20240098245A1 (en) Sensor calibration validation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230704

R150 Certificate of patent or registration of utility model

Ref document number: 7308855

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150