JP2022008790A - マルチセンサキャリブレーションシステム - Google Patents
マルチセンサキャリブレーションシステム Download PDFInfo
- Publication number
- JP2022008790A JP2022008790A JP2021105382A JP2021105382A JP2022008790A JP 2022008790 A JP2022008790 A JP 2022008790A JP 2021105382 A JP2021105382 A JP 2021105382A JP 2021105382 A JP2021105382 A JP 2021105382A JP 2022008790 A JP2022008790 A JP 2022008790A
- Authority
- JP
- Japan
- Prior art keywords
- lane marker
- world coordinates
- corner
- sensor
- previously stored
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000003550 marker Substances 0.000 claims abstract description 294
- 238000000034 method Methods 0.000 claims abstract description 67
- 238000006243 chemical reaction Methods 0.000 claims description 59
- 239000011159 matrix material Substances 0.000 claims description 59
- 238000005259 measurement Methods 0.000 claims description 31
- 230000009466 transformation Effects 0.000 claims description 26
- 230000001052 transient effect Effects 0.000 claims description 19
- 230000002596 correlated effect Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 description 60
- 238000012545 processing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
- G01S7/4972—Alignment of sensor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G06T3/14—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Abstract
【課題】マルチセンサキャリブレーションシステムの提供。
【解決手段】車両上でマルチセンサキャリブレーションを実施するための技術が説明される。方法は、車両上に位置している少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、各センサデータアイテムから、レーンマーカの場所情報を抽出することと、各センサデータアイテムからのレーンマーカの場所情報とレーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて少なくとも2つのセンサの外部パラメータを計算することとを含む。
【選択図】なし
【解決手段】車両上でマルチセンサキャリブレーションを実施するための技術が説明される。方法は、車両上に位置している少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、各センサデータアイテムから、レーンマーカの場所情報を抽出することと、各センサデータアイテムからのレーンマーカの場所情報とレーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて少なくとも2つのセンサの外部パラメータを計算することとを含む。
【選択図】なし
Description
(関連出願への相互参照)
本願は、2020年6月28日に出願された中国特許出願第202010598425.2号への米国特許法§119(a)およびパリ条約の下の優先権の利益を主張する。前述の特許出願の内容全体が、参照によって本明細書中に援用される。
本願は、2020年6月28日に出願された中国特許出願第202010598425.2号への米国特許法§119(a)およびパリ条約の下の優先権の利益を主張する。前述の特許出願の内容全体が、参照によって本明細書中に援用される。
(技術分野)
本文献は、所定のマーカおよび/または耐久性マーカによって車両内に位置するセンサのためのマルチセンサキャリブレーションを実施するための技術を説明する。
本文献は、所定のマーカおよび/または耐久性マーカによって車両内に位置するセンサのためのマルチセンサキャリブレーションを実施するための技術を説明する。
車両は、いくつかの目的のために、車両に取り付けられたカメラを含み得る。例えば、カメラは、安全性の目的のため、運転支援のため、または自律運転を促進するために車両の屋根に取り付けられ得る。車両上に載置されたカメラは、車両の周囲の1つ以上の領域の画像を取得することができる。これらの画像は、道路に関する情報または車両の周囲の物体に関する情報を取得するために処理されることができる。例えば、カメラによって取得された画像は、自律車両の周囲の物体の距離を決定するために分析されることができ、それによって、自律車両は、物体の周りで安全に操作されることができる。
車両上または車両内に位置している複数のセンサをキャリブレーションするための例示的マルチセンサキャリブレーション技術が説明される。ある例示的実施形態では、自律運転動作の方法は、車両上に位置している少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、各センサデータアイテムから、レーンマーカの場所情報を抽出することと、各センサデータアイテムからのレーンマーカの場所情報と、レーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて、少なくとも2つのセンサの外部パラメータを計算することとを含む。
いくつかの実施形態では、少なくとも2つのセンサの各々からセンサデータアイテムを取得し、および各センサデータアイテムからレーンマーカの場所情報を抽出することは、車両上に位置しているカメラから、レーンマーカを備える画像を受信することと、画像から、レーンマーカの角のピクセル場所を決定することと、車両上に位置している光検出および測距(LiDAR)センサから、レーンマーカを備える道路の領域の点群データ(PCD)を備えるフレームを受信することと、レーンマーカの角の3次元(3D)世界座標のセットを決定することとを含む。
いくつかの実施形態では、レーンマーカの角の3D世界座標のセットは、車両の場所に基づいて、レーンマーカの角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、レーンマーカの以前に記憶された場所情報は、レーンマーカの角の以前に記憶された3D世界座標の第2のセットを備える、ことと、レーンマーカの角の以前に記憶された3D世界座標の第2のセットをLiDARセンサの座標系に射影し、フレーム内のレーンマーカの角の3D世界座標のセットを取得することとによって決定される。
いくつかの実施形態では、少なくとも2つのセンサの外部パラメータは、レーンマーカの角ごとに、第1の損失関数を計算することであって、第1の損失関数は、レーンマーカの角のピクセル場所と、第2のセットから取得されたレーンマーカの角の以前に記憶された3D世界座標との間の距離を演算する、ことと、レーンマーカの角ごとに、第2の損失関数を計算することであって、第2の損失関数は、セットから取得されたレーンマーカの角の3D世界座標と、第2のセットから取得されたレーンマーカの角の以前に記憶された3D世界座標との間の距離を演算する、ことと、第1の損失関数に基づいてカメラについての外部パラメータを推定し、第2の損失関数に基づいてLiDARセンサについての外部パラメータを推定することとによって計算される。
いくつかの実施形態では、レーンマーカの角の以前に記憶された3D世界座標の第2のセットは、LiDARセンサから受信されたPCDを点群マップ基準の1つ以上の点に相関させることによって、変換された点群を取得することと、以前に取得されたPCDマップからサブマップを抽出することと、サブマップへの変換された点群の登録を実施し、変換された点群とサブマップとの間の変換を記述している第1の変換マトリクスを取得することであって、登録は、変換された点群をサブマップに相関させる、ことと、LiDARセンサの位置と、点群マップ基準の1つ以上の点と、車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述している追加変換マトリクスを決定することと、第1の変換マトリクスと、追加変換マトリクスと、レーンマーカの角の以前に記憶された3D世界座標の第2のセットとに基づいて、フレーム内のレーンマーカの角の3D世界座標のセットを計算することとによって、LiDARセンサの座標系に射影される。
いくつかの実施形態では、PCDは、IMU-GNSSセンサによって提供される測定値と以前に記憶されたLiDARからIMUへの外部パラメータとに基づいて、点群マップ基準に相関させられ、以前に記憶されたLiDARからIMUへの外部パラメータは、LiDARの位置および向きとIMU-GNSSセンサの位置および向きとの間の空間的関係を記述している。いくつかの実施形態では、サブマップは、PCDが受信されたときの車両の場所の所定の距離内の点の3D世界座標を備える。
ある例示的実施形態は、車両上または車両内の複数のセンサのキャリブレーションのためのシステムを開示し、システムは、プロセッサを備え、プロセッサは、車両上に位置している少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、各センサデータアイテムから、レーンマーカの場所情報を抽出することと、各センサデータアイテムからのレーンマーカの場所情報とレーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて、少なくとも2つのセンサの外部パラメータを計算することとを行うように構成されている。
いくつかの実施形態では、プロセッサは、車両上に位置しているカメラから、レーンマーカを備える画像を受信することと、画像から、レーンマーカの角の場所を決定することと、車両上に位置している光検出および測距(LiDAR)センサから、レーンマーカを備える領域の点群データ(PCD)を備えるフレームを受信することと、レーンマーカの角の3次元(3D)世界座標のセットを決定することとを行うように構成されていることによって、少なくとも2つのセンサの各々からセンサデータアイテムを取得し、各センサデータアイテムからレーンマーカの場所情報を抽出するように構成され、少なくとも2つのセンサは、カメラとLiDARセンサとを備える。
いくつかの実施形態では、レーンマーカの角の3D世界座標のセットは、車両の場所に基づいて、レーンマーカの角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、レーンマーカの以前に記憶された場所情報が、レーンマーカの角の以前に記憶された3D世界座標の第2のセットを含む、ことと、レーンマーカの角の以前に記憶された3D世界座標の第2のセットとLiDARセンサの座標系とを使用することによって、フレーム内のレーンマーカの角の3D世界座標のセットを取得することとを行うように構成されているプロセッサによって決定される。いくつかの実施形態では、カメラの外部パラメータは、レーンマーカの角について、損失関数を計算することであって、損失関数は、レーンマーカの角の場所と第2のセットから取得されたレーンマーカの角の以前に記憶された3D世界座標との間の距離を演算する、ことと、損失関数に基づいて、カメラについての外部パラメータを推定することとを行うように構成されているプロセッサによって計算される。
いくつかの実施形態では、LiDARセンサの外部パラメータは、レーンマーカの角について、損失関数を計算することであって、損失関数は、セットから取得されたレーンマーカの角の3D世界座標と、第2のセットから取得されたレーンマーカの角の以前に記憶された3D世界座標との間の距離を演算する、ことと、損失関数に基づいて、LiDARセンサについての外部パラメータを推定することとを行うように構成されているプロセッサによって計算される。いくつかの実施形態では、レーンマーカの角の以前に記憶された3D世界座標の第2のセットは、LiDARセンサから受信されたPCDを使用して、点群マップ基準の1つ以上の点を用いて、変換された点群を取得することであって、ことと、サブマップへの変換された点群の登録を実施し、変換された点群とサブマップとの間の変換を記述している第1の変換マトリクスを取得することであって、サブマップは、以前のPCDマップから取得される、ことと、LiDARセンサの位置と、点群マップ基準の1つ以上の点と、車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述している追加変換マトリクスを決定することと、第1の変換マトリクスと、追加変換マトリクスと、レーンマーカの角の以前に記憶された3D世界座標の第2のセットとに基づいて、フレーム内のレーンマーカの角の3D世界座標のセットを計算することとを行うように構成されているプロセッサによって、LiDARセンサの座標系と使用される。PCDは、点群マップ基準に相関させられる。
ある例示的実施形態は、非一過性のコンピュータ読み取り可能なストレージ媒体を開示し、非一過性のコンピュータ読み取り可能なストレージ媒体は、そこにコードを記憶しており、コードは、プロセッサによって実行されると、プロセッサに方法を実装させ、方法は、車両上に位置している少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、各センサデータアイテムから、レーンマーカの場所情報を抽出することと、各センサデータアイテムからのレーンマーカの場所情報と、レーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて、少なくとも2つのセンサの外部パラメータを計算することとを含む。
いくつかの実施形態では、少なくとも2つのセンサの各々からセンサデータアイテムを取得し、各センサデータアイテムからレーンマーカの場所情報を抽出することは、車両上に位置している第1のセンサから、レーンマーカを備える第1のセンサデータを受信することと、第1のセンサデータから、レーンマーカの角の場所を決定することと、車両上に位置している第2のセンサから、レーンマーカを備える道路の領域の第2のセンサデータを受信することと、レーンマーカの角の3次元(3D)世界座標のセットを決定することとを含む。
いくつかの実施形態では、レーンマーカの角の3D世界座標のセットは、車両の場所に基づいて、レーンマーカの角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、レーンマーカの以前に記憶された場所情報は、レーンマーカの角の以前に記憶された3D世界座標の第2のセットを備える、ことと、レーンマーカの角の以前に記憶された3D世界座標の第2のセットを第2のセンサの座標系に射影し、第2のセンサデータ内のレーンマーカの角の3D世界座標のセットを取得することとによって決定される。いくつかの実施形態では、少なくとも2つのセンサの外部パラメータは、レーンマーカの少なくとも2つの角の各々について、第1の損失関数を計算することであって、第1の損失関数は、レーンマーカの角の場所と第2のセットから取得されたレーンマーカの角の以前に記憶された3D世界座標との間の距離を演算する、ことと、レーンマーカの少なくとも2つの角の各々について、第2の損失関数を計算することであって、第2の損失関数は、セットから取得されたレーンマーカの角の3D世界座標と、第2のセットから取得されたレーンマーカの角の以前に記憶された3D世界座標との間の距離を演算する、ことと、第1の損失関数に基づいて、第1のセンサについての外部パラメータを推定し、第2の損失関数に基づいて第2のセンサについての外部パラメータを推定することとによって計算される。
いくつかの実施形態では、レーンマーカの角の以前に記憶された3D世界座標の第2のセットは、第2のセンサから受信された第2のセンサデータを点群マップ基準の1つ以上の点に相関させることによって、変換された点群を取得することと、以前に取得されたマップからサブマップを抽出することと、変換された点群をサブマップに相関させることによって、変換された点群とサブマップとの間の変換を記述している第1の変換マトリクスを取得することと、第2のセンサの位置と、点群マップ基準の1つ以上の点と、車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述している追加変換マトリクスを決定することと、第1の変換マトリクスと、追加変換マトリクスと、レーンマーカの角の以前に記憶された3D世界座標の第2のセットとに基づいて、第2のセンサデータ内のレーンマーカの角の3D世界座標のセットを計算することとによって、第2のセンサの座標系に射影される。いくつかの実施形態では、サブマップは、第2のセンサデータが受信されたときの車両の場所の所定の距離内の点の3D世界座標を備える。
別の例示的側面において、上で説明される方法は、プロセッサ実行可能なコードの形態で具現化され、コードは、非一過性のコンピュータ読み取り可能なストレージ媒体内に記憶されている。非一過性のコンピュータ読み取り可能なストレージが、コードを含み、コードは、プロセッサによって実行されると、実施形態において説明される方法をプロセッサに実装させる。
さらに別の例示的実施形態において、上で説明される方法を実施するように構成され、または動作可能であるデバイスが開示される。
上の側面および他の側面ならびにそれらの実装が、図面、説明、および請求項においてより詳細に説明される。
(項目1)
自律運転動作の方法であって、前記方法は、
車両上に位置する少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、
各センサデータアイテムから、前記レーンマーカの場所情報を抽出することと、
各センサデータアイテムからの前記レーンマーカの前記場所情報と、前記レーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて、前記少なくとも2つのセンサの外部パラメータを計算することと
を含む、方法。
(項目2)
前記少なくとも2つのセンサの各々からセンサデータアイテムを取得し、各センサデータアイテムから前記レーンマーカの前記場所情報を抽出することは、
前記車両上に位置しているカメラから、前記レーンマーカを備える画像を受信することと、
前記画像から、前記レーンマーカの角のピクセル場所を決定することと、
前記車両上に位置している光検出および測距(LiDAR)センサから、前記レーンマーカを備える前記道路の領域の点群データ(PCD)を備えるフレームを受信することと、
前記レーンマーカの前記角の3次元(3D)世界座標のセットを決定することと
を含む、上記項目に記載の方法。
(項目3)
前記レーンマーカの前記角の前記3D世界座標のセットは、
前記車両の場所に基づいて、前記レーンマーカの前記角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、前記レーンマーカの前記以前に記憶された場所情報は、レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを備える、ことと、
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを前記LiDARセンサの座標系に射影し、前記フレーム内の前記レーンマーカの前記角の前記3D世界座標のセットを取得することと
によって決定される、上記項目のいずれかに記載の方法。
(項目4)
前記少なくとも2つのセンサの前記外部パラメータは、
前記レーンマーカの角ごとに、第1の損失関数を計算することであって、前記第1の損失関数は、レーンマーカの角のピクセル場所と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記レーンマーカの角ごとに、第2の損失関数を計算することであって、前記第2の損失関数は、前記セットから取得された前記レーンマーカの前記角の3D世界座標と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記第1の損失関数に基づいて前記カメラについての前記外部パラメータを推定し、前記第2の損失関数に基づいて前記LiDARセンサについての前記外部パラメータを推定することと
によって計算される、上記項目のいずれかに記載の方法。
(項目5)
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットは、
前記LiDARセンサから受信された前記PCDを点群マップ基準の1つ以上の点に相関させることによって、変換された点群を取得することと、
以前に取得されたPCDマップからサブマップを抽出することと、
前記サブマップへの前記変換された点群の登録を実施し、前記変換された点群と前記サブマップとの間の変換を記述している第1の変換マトリクスを取得することであって、前記登録は、前記変換された点群を前記サブマップに相関させる、ことと、
前記LiDARセンサの位置と、前記点群マップ基準の前記1つ以上の点と、前記車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述している追加変換マトリクスを決定することと、
前記第1の変換マトリクスと、前記追加変換マトリクスと、前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットとに基づいて、前記フレーム内の前記レーンマーカの前記角の前記3D世界座標のセットを計算することと
によって、前記LiDARセンサの前記座標系に射影される、上記項目のいずれかに記載の方法。
(項目6)
前記PCDは、前記IMU-GNSSセンサによって提供される測定値と、以前に記憶されたLiDARからIMUへの外部パラメータとに基づいて、前記点群マップ基準に相関させられ、
前記以前に記憶されたLiDARからIMUへの外部パラメータは、前記LiDARの位置および向きと前記IMU-GNSSセンサの位置および向きとの間の空間的関係を記述している、上記項目のいずれかに記載の方法。
(項目7)
前記サブマップは、前記PCDが受信されたときの前記車両の前記場所の所定の距離内の点の3D世界座標を備える、上記項目のいずれかに記載の方法。
(項目8)
車両上または前記車両内の複数のセンサのキャリブレーションのためのシステムであって、前記システムは、プロセッサを備え、前記プロセッサは、
前記車両上に位置している少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、
各センサデータアイテムから、前記レーンマーカの場所情報を抽出することと、
各センサデータアイテムからの前記レーンマーカの前記場所情報と前記レーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて、前記少なくとも2つのセンサの外部パラメータを計算することと
を行うように構成されている、システム。
(項目9)
前記プロセッサは、
前記車両上に位置しているカメラから、前記レーンマーカを備える画像を受信することと、
前記画像から、前記レーンマーカの角の場所を決定することと、
前記車両上に位置している光検出および測距(LiDAR)センサから、前記レーンマーカを備える領域の点群データ(PCD)を備えるフレームを受信することと、
前記レーンマーカの前記角の3次元(3D)世界座標のセットを決定することと
を行うように構成されていることによって、前記少なくとも2つのセンサの各々からセンサデータアイテムを取得し、各センサデータアイテムから前記レーンマーカの前記場所情報を抽出することを行うように構成され、
前記少なくとも2つのセンサは、前記カメラと前記LiDARセンサとを備える、上記項目のいずれかに記載のシステム。
(項目10)
前記レーンマーカの前記角の前記3D世界座標のセットは、
前記車両の場所に基づいて、前記レーンマーカの前記角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、前記レーンマーカの前記以前に記憶された場所情報が、レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを含む、ことと、
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットと前記LiDARセンサの座標系とを使用することによって、前記フレーム内の前記レーンマーカの前記角の前記3D世界座標のセットを取得することと
を行うように構成されている前記プロセッサによって決定される、上記項目のいずれかに記載のシステム。
(項目11)
前記カメラの前記外部パラメータは、
前記レーンマーカの角について、損失関数を計算することであって、前記損失関数は、レーンマーカの前記角の場所と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記損失関数に基づいて、前記カメラについての前記外部パラメータを推定することと
を行うように構成されている前記プロセッサによって計算される、上記項目のいずれかに記載のシステム。
(項目12)
前記LiDARセンサの前記外部パラメータは、
前記レーンマーカの角について、損失関数を計算することであって、前記損失関数は、前記セットから取得された前記レーンマーカの前記角の3D世界座標と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記損失関数に基づいて、前記LiDARセンサについての前記外部パラメータを推定することと
を行うように構成されている前記プロセッサによって計算される、上記項目のいずれかに記載のシステム。
(項目13)
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットは、
前記LiDARセンサから受信された前記PCDを使用して、点群マップ基準の1つ以上の点を用いて、変換された点群を取得することと、
サブマップへの前記変換された点群の登録を実施し、前記変換された点群と前記サブマップとの間の変換を記述している第1の変換マトリクスを取得することであって、前記サブマップは、以前のPCDマップから取得される、ことと、
前記LiDARセンサの位置と、前記点群マップ基準の前記1つ以上の点と、前記車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述している追加変換マトリクスを決定することと、
前記第1の変換マトリクスと、前記追加変換マトリクスと、前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットとに基づいて、前記フレーム内の前記レーンマーカの前記角の前記3D世界座標のセットを計算することと
を行うように構成されている前記プロセッサによって、前記LiDARセンサの前記座標系とともに使用される、上記項目のいずれかに記載のシステム。
(項目14)
前記PCDは、前記点群マップ基準に相関させられる、上記項目のいずれかに記載のシステム。
(項目15)
非一過性コンピュータ可読ストレージ媒体であって、前記非一過性コンピュータ可読ストレージ媒体は、そこに記憶されたコードを有し、前記コードは、プロセッサによって実行されると、プロセッサに方法を実装させ、前記方法は、
車両上に位置している少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、
各センサデータアイテムから、前記レーンマーカの場所情報を抽出することと、
各センサデータアイテムからの前記レーンマーカの前記場所情報と、前記レーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて、前記少なくとも2つのセンサの外部パラメータを計算することと
を含む、非一過性コンピュータ可読ストレージ媒体。
(項目16)
前記少なくとも2つのセンサの各々からセンサデータアイテムを取得し、各センサデータアイテムから前記レーンマーカの前記場所情報を抽出することは、
前記車両上に位置している第1のセンサから、前記レーンマーカを備える第1のセンサデータを受信することと、
前記第1のセンサデータから、前記レーンマーカの角の場所を決定することと、
前記車両上に位置している第2のセンサから、前記レーンマーカを備える前記道路の領域の第2のセンサデータを受信することと、
前記レーンマーカの前記角の3次元(3D)世界座標のセットを決定することと
を含む、上記項目のいずれかに記載の非一過性コンピュータ可読ストレージ媒体。
(項目17)
前記レーンマーカの前記角の前記3D世界座標のセットは、
前記車両の場所に基づいて、前記レーンマーカの前記角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、前記レーンマーカの前記以前に記憶された場所情報は、レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを備える、ことと、
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを前記第2のセンサの座標系に射影し、前記第2のセンサデータ内の前記レーンマーカの前記角の前記3D世界座標のセットを取得することと
によって決定される、上記項目のいずれかに記載の非一過性コンピュータ可読ストレージ媒体。
(項目18)
前記少なくとも2つのセンサの前記外部パラメータは、
前記レーンマーカの少なくとも2つの角の各々について、第1の損失関数を計算することであって、前記第1の損失関数は、レーンマーカの角の場所と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記レーンマーカの少なくとも2つの角の各々について、第2の損失関数を計算することであって、前記第2の損失関数は、前記セットから取得された前記レーンマーカの前記角の3D世界座標と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記第1の損失関数に基づいて、前記第1のセンサについての前記外部パラメータを推定し、前記第2の損失関数に基づいて、前記第2のセンサについての前記外部パラメータを推定することと
によって計算される、上記項目のいずれかに記載の非一過性コンピュータ可読ストレージ媒体。
(項目19)
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットは、
前記第2のセンサから受信された第2のセンサデータを点群マップ基準の1つ以上の点に相関させることによって、変換された点群を取得することと、
以前に取得されたマップからサブマップを抽出することと、
前記変換された点群を前記サブマップに相関させることによって、前記変換された点群と前記サブマップとの間の変換を記述している第1の変換マトリクスを取得することと、
前記第2のセンサの位置と、前記点群マップ基準の前記1つ以上の点と、前記車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述している追加変換マトリクスを決定することと、
前記第1の変換マトリクスと、前記追加変換マトリクスと、前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットとに基づいて、前記第2のセンサデータ内の前記レーンマーカの前記角の前記3D世界座標のセットを計算することと
によって、前記第2のセンサの前記座標系に射影される、上記項目のいずれかに記載の非一過性コンピュータ可読ストレージ媒体。
(項目20)
前記サブマップは、前記第2のセンサデータが受信されたときの前記車両の前記場所の所定の距離内の点の3D世界座標を備える、上記項目のいずれかに記載の非一過性コンピュータ可読ストレージ媒体。
(摘要)
車両上でマルチセンサキャリブレーションを実施するための技術が説明される。方法は、車両上に位置している少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、各センサデータアイテムから、レーンマーカの場所情報を抽出することと、各センサデータアイテムからのレーンマーカの場所情報とレーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて少なくとも2つのセンサの外部パラメータを計算することとを含む。
(項目1)
自律運転動作の方法であって、前記方法は、
車両上に位置する少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、
各センサデータアイテムから、前記レーンマーカの場所情報を抽出することと、
各センサデータアイテムからの前記レーンマーカの前記場所情報と、前記レーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて、前記少なくとも2つのセンサの外部パラメータを計算することと
を含む、方法。
(項目2)
前記少なくとも2つのセンサの各々からセンサデータアイテムを取得し、各センサデータアイテムから前記レーンマーカの前記場所情報を抽出することは、
前記車両上に位置しているカメラから、前記レーンマーカを備える画像を受信することと、
前記画像から、前記レーンマーカの角のピクセル場所を決定することと、
前記車両上に位置している光検出および測距(LiDAR)センサから、前記レーンマーカを備える前記道路の領域の点群データ(PCD)を備えるフレームを受信することと、
前記レーンマーカの前記角の3次元(3D)世界座標のセットを決定することと
を含む、上記項目に記載の方法。
(項目3)
前記レーンマーカの前記角の前記3D世界座標のセットは、
前記車両の場所に基づいて、前記レーンマーカの前記角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、前記レーンマーカの前記以前に記憶された場所情報は、レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを備える、ことと、
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを前記LiDARセンサの座標系に射影し、前記フレーム内の前記レーンマーカの前記角の前記3D世界座標のセットを取得することと
によって決定される、上記項目のいずれかに記載の方法。
(項目4)
前記少なくとも2つのセンサの前記外部パラメータは、
前記レーンマーカの角ごとに、第1の損失関数を計算することであって、前記第1の損失関数は、レーンマーカの角のピクセル場所と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記レーンマーカの角ごとに、第2の損失関数を計算することであって、前記第2の損失関数は、前記セットから取得された前記レーンマーカの前記角の3D世界座標と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記第1の損失関数に基づいて前記カメラについての前記外部パラメータを推定し、前記第2の損失関数に基づいて前記LiDARセンサについての前記外部パラメータを推定することと
によって計算される、上記項目のいずれかに記載の方法。
(項目5)
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットは、
前記LiDARセンサから受信された前記PCDを点群マップ基準の1つ以上の点に相関させることによって、変換された点群を取得することと、
以前に取得されたPCDマップからサブマップを抽出することと、
前記サブマップへの前記変換された点群の登録を実施し、前記変換された点群と前記サブマップとの間の変換を記述している第1の変換マトリクスを取得することであって、前記登録は、前記変換された点群を前記サブマップに相関させる、ことと、
前記LiDARセンサの位置と、前記点群マップ基準の前記1つ以上の点と、前記車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述している追加変換マトリクスを決定することと、
前記第1の変換マトリクスと、前記追加変換マトリクスと、前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットとに基づいて、前記フレーム内の前記レーンマーカの前記角の前記3D世界座標のセットを計算することと
によって、前記LiDARセンサの前記座標系に射影される、上記項目のいずれかに記載の方法。
(項目6)
前記PCDは、前記IMU-GNSSセンサによって提供される測定値と、以前に記憶されたLiDARからIMUへの外部パラメータとに基づいて、前記点群マップ基準に相関させられ、
前記以前に記憶されたLiDARからIMUへの外部パラメータは、前記LiDARの位置および向きと前記IMU-GNSSセンサの位置および向きとの間の空間的関係を記述している、上記項目のいずれかに記載の方法。
(項目7)
前記サブマップは、前記PCDが受信されたときの前記車両の前記場所の所定の距離内の点の3D世界座標を備える、上記項目のいずれかに記載の方法。
(項目8)
車両上または前記車両内の複数のセンサのキャリブレーションのためのシステムであって、前記システムは、プロセッサを備え、前記プロセッサは、
前記車両上に位置している少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、
各センサデータアイテムから、前記レーンマーカの場所情報を抽出することと、
各センサデータアイテムからの前記レーンマーカの前記場所情報と前記レーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて、前記少なくとも2つのセンサの外部パラメータを計算することと
を行うように構成されている、システム。
(項目9)
前記プロセッサは、
前記車両上に位置しているカメラから、前記レーンマーカを備える画像を受信することと、
前記画像から、前記レーンマーカの角の場所を決定することと、
前記車両上に位置している光検出および測距(LiDAR)センサから、前記レーンマーカを備える領域の点群データ(PCD)を備えるフレームを受信することと、
前記レーンマーカの前記角の3次元(3D)世界座標のセットを決定することと
を行うように構成されていることによって、前記少なくとも2つのセンサの各々からセンサデータアイテムを取得し、各センサデータアイテムから前記レーンマーカの前記場所情報を抽出することを行うように構成され、
前記少なくとも2つのセンサは、前記カメラと前記LiDARセンサとを備える、上記項目のいずれかに記載のシステム。
(項目10)
前記レーンマーカの前記角の前記3D世界座標のセットは、
前記車両の場所に基づいて、前記レーンマーカの前記角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、前記レーンマーカの前記以前に記憶された場所情報が、レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを含む、ことと、
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットと前記LiDARセンサの座標系とを使用することによって、前記フレーム内の前記レーンマーカの前記角の前記3D世界座標のセットを取得することと
を行うように構成されている前記プロセッサによって決定される、上記項目のいずれかに記載のシステム。
(項目11)
前記カメラの前記外部パラメータは、
前記レーンマーカの角について、損失関数を計算することであって、前記損失関数は、レーンマーカの前記角の場所と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記損失関数に基づいて、前記カメラについての前記外部パラメータを推定することと
を行うように構成されている前記プロセッサによって計算される、上記項目のいずれかに記載のシステム。
(項目12)
前記LiDARセンサの前記外部パラメータは、
前記レーンマーカの角について、損失関数を計算することであって、前記損失関数は、前記セットから取得された前記レーンマーカの前記角の3D世界座標と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記損失関数に基づいて、前記LiDARセンサについての前記外部パラメータを推定することと
を行うように構成されている前記プロセッサによって計算される、上記項目のいずれかに記載のシステム。
(項目13)
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットは、
前記LiDARセンサから受信された前記PCDを使用して、点群マップ基準の1つ以上の点を用いて、変換された点群を取得することと、
サブマップへの前記変換された点群の登録を実施し、前記変換された点群と前記サブマップとの間の変換を記述している第1の変換マトリクスを取得することであって、前記サブマップは、以前のPCDマップから取得される、ことと、
前記LiDARセンサの位置と、前記点群マップ基準の前記1つ以上の点と、前記車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述している追加変換マトリクスを決定することと、
前記第1の変換マトリクスと、前記追加変換マトリクスと、前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットとに基づいて、前記フレーム内の前記レーンマーカの前記角の前記3D世界座標のセットを計算することと
を行うように構成されている前記プロセッサによって、前記LiDARセンサの前記座標系とともに使用される、上記項目のいずれかに記載のシステム。
(項目14)
前記PCDは、前記点群マップ基準に相関させられる、上記項目のいずれかに記載のシステム。
(項目15)
非一過性コンピュータ可読ストレージ媒体であって、前記非一過性コンピュータ可読ストレージ媒体は、そこに記憶されたコードを有し、前記コードは、プロセッサによって実行されると、プロセッサに方法を実装させ、前記方法は、
車両上に位置している少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、
各センサデータアイテムから、前記レーンマーカの場所情報を抽出することと、
各センサデータアイテムからの前記レーンマーカの前記場所情報と、前記レーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて、前記少なくとも2つのセンサの外部パラメータを計算することと
を含む、非一過性コンピュータ可読ストレージ媒体。
(項目16)
前記少なくとも2つのセンサの各々からセンサデータアイテムを取得し、各センサデータアイテムから前記レーンマーカの前記場所情報を抽出することは、
前記車両上に位置している第1のセンサから、前記レーンマーカを備える第1のセンサデータを受信することと、
前記第1のセンサデータから、前記レーンマーカの角の場所を決定することと、
前記車両上に位置している第2のセンサから、前記レーンマーカを備える前記道路の領域の第2のセンサデータを受信することと、
前記レーンマーカの前記角の3次元(3D)世界座標のセットを決定することと
を含む、上記項目のいずれかに記載の非一過性コンピュータ可読ストレージ媒体。
(項目17)
前記レーンマーカの前記角の前記3D世界座標のセットは、
前記車両の場所に基づいて、前記レーンマーカの前記角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、前記レーンマーカの前記以前に記憶された場所情報は、レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを備える、ことと、
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを前記第2のセンサの座標系に射影し、前記第2のセンサデータ内の前記レーンマーカの前記角の前記3D世界座標のセットを取得することと
によって決定される、上記項目のいずれかに記載の非一過性コンピュータ可読ストレージ媒体。
(項目18)
前記少なくとも2つのセンサの前記外部パラメータは、
前記レーンマーカの少なくとも2つの角の各々について、第1の損失関数を計算することであって、前記第1の損失関数は、レーンマーカの角の場所と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記レーンマーカの少なくとも2つの角の各々について、第2の損失関数を計算することであって、前記第2の損失関数は、前記セットから取得された前記レーンマーカの前記角の3D世界座標と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記第1の損失関数に基づいて、前記第1のセンサについての前記外部パラメータを推定し、前記第2の損失関数に基づいて、前記第2のセンサについての前記外部パラメータを推定することと
によって計算される、上記項目のいずれかに記載の非一過性コンピュータ可読ストレージ媒体。
(項目19)
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットは、
前記第2のセンサから受信された第2のセンサデータを点群マップ基準の1つ以上の点に相関させることによって、変換された点群を取得することと、
以前に取得されたマップからサブマップを抽出することと、
前記変換された点群を前記サブマップに相関させることによって、前記変換された点群と前記サブマップとの間の変換を記述している第1の変換マトリクスを取得することと、
前記第2のセンサの位置と、前記点群マップ基準の前記1つ以上の点と、前記車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述している追加変換マトリクスを決定することと、
前記第1の変換マトリクスと、前記追加変換マトリクスと、前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットとに基づいて、前記第2のセンサデータ内の前記レーンマーカの前記角の前記3D世界座標のセットを計算することと
によって、前記第2のセンサの前記座標系に射影される、上記項目のいずれかに記載の非一過性コンピュータ可読ストレージ媒体。
(項目20)
前記サブマップは、前記第2のセンサデータが受信されたときの前記車両の前記場所の所定の距離内の点の3D世界座標を備える、上記項目のいずれかに記載の非一過性コンピュータ可読ストレージ媒体。
(摘要)
車両上でマルチセンサキャリブレーションを実施するための技術が説明される。方法は、車両上に位置している少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、各センサデータアイテムから、レーンマーカの場所情報を抽出することと、各センサデータアイテムからのレーンマーカの場所情報とレーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて少なくとも2つのセンサの外部パラメータを計算することとを含む。
自律車両は、カメラおよび光検出および測距(LiDAR)センサを含み、カメラおよびLiDARセンサは、自律車両の周囲の1つ以上の領域のセンサデータアイテム(例えば、カメラからの画像、およびLiDARセンサからの点群マップ)を取得するように自律車両上に載置されている。これらのセンサデータアイテムは、道路もしくは自律車両の周囲の物体に関する距離または他の情報を取得するために、自律車両に搭載されたコンピュータによって分析されることができる。しかしながら、自律車両上のカメラおよびLiDARセンサは、自律車両に搭載されたコンピュータが精密にまたは正確に物体を検出してその距離を決定することができるようにキャリブレーションされる必要がある。関連キャリブレーションシステムにおいて、よく訓練された技術者が、データ収集のためにキャリブレーションボードを設定し、データでキャリブレーションを実行する。プロセス全体は、非常に時間が掛かり、動作させることが簡単ではないこともある。
自律運転のために、自律車両センサは、一緒に、冗長性を伴って360度の視野をカバーし、安全性を確保すべきである。異なる位置に特定の向きで車両上に載置されている複数のLiDARおよびカメラが存在する。加えて、関連キャリブレーション技術は、自律車両内の慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサに依拠しており、IMU-GNSSセンサは、製造者によって提供される精密、正確かつ動作容易なキャリブレーションを動作させることによって、自律車両本体フレームに位置合わせされる。IMU-GNSSはせいぜい移動中にしか機能しないので、自律車両は、キャリブレーションのプロセスを通して移動し続ける。キャリブレーションプロセスは、車体上に位置している所定の基準座標または基準センサ(例えば、IMU)に対する特定のセンサの相対的な並進および向きを推定する。関連キャリブレーションシステムにおいて、専門的なよく訓練されたチームが、そのような緻密なタスクを実施するために要求される。
図1Aは、車両上のカメラを用いて静的キャリブレーション動作を実施するための関連キャリブレーションシステム100を示している。関連キャリブレーションシステム100において、車両106は、まず、標的キャリブレーションボード102が位置している場所へ運転される。標的キャリブレーションボード102は、黒および白の正方形の所定のパターンを有する。さらに、標的キャリブレーションボード102は、車両106から固定距離に位置し、それによって、カメラ104およびLiDARセンサ108から標的キャリブレーションボード102への距離が固定されている。カメラ104は、標的キャリブレーションボード102の数枚の写真を撮影することができ、LiDARセンサ108は、標的キャリブレーションボード102を含む車両106の前方の領域を走査することができる。車両106に搭載されたコンピュータが、空間的幾何学的関係を使用して、標的キャリブレーションボード102とカメラ104との間の距離、および標的キャリブレーションボード102とLiDARセンサ108との間の距離を計算することができる。そのようなプロセスは、カメラおよびLiDARの各ペアについて繰り返し実施される必要があり、IMUを用いて複数のセンサのペアをキャリブレーションするために使用されることはできない。
しかしながら、図1Aにおいて説明される関連キャリブレーションシステム100のような関連キャリブレーションシステムは、車両の場所からの1つ以上の距離において適切に設定される(例えば、適切な位置、および適切な向き)必要がある1つ以上の標的キャリブレーションボードを有する必要がある。そのようなシステムは、設定しづらいことがあり、必要である場所に標的キャリブレーションボード(単数または複数)が位置しないまたは位置付けられない(例えば、角度付けられない)場合、不正確なキャリブレーションにつながりさえし得る。第2に、図1Aは、説明の容易さのために1つのカメラ104および1つのLiDARセンサ108を有する関連キャリブレーションシステムを示しているが、関連キャリブレーションシステムは、図1Bに示されるようなペア構成の態様でキャリブレーションされる複数のカメラおよびLiDARセンサを含む。関連キャリブレーションペア構成キャリブレーションにおいて、カメラ110Aは、カメラ110A-110Bによる画像捕捉を使用して別のカメラ110Bを用いてキャリブレーションされ、LiDAR112Aは、カメラ110Aによって捕捉された画像およびLiDAR112Aによって捕捉された点群データを使用してカメラ110Aを用いてキャリブレーションされ、以下同様である。実際には、カメラおよびLiDARの両方における標的キャリブレーションボード角検出の正確性は、完全ではなく、各キャリブレーションについて小さな誤差が存在し、その結果、それは、3つのセンサ間の循環的一貫性に対する数学的正確性を有しない。
図1Cは、車両内に位置し、例示的技術を使用してキャリブレーションされるセンサの機能ブロック図を示している。関連キャリブレーション技術は、第1のカメラ150および第1のLIDARセンサ152が、標的キャリブレーションボードを含む領域の第1のカメラ150および第1のLiDARセンサ152によって取得された第1の測定値のセットを使用して一緒にキャリブレーションされることができることと、第1のカメラ150および第2のカメラ154が、標的キャリブレーションボードを含む領域のカメラ150、154によって取得された第2の測定値のセットを使用してキャリブレーションされることができることと、第1のLiDARセンサ152および第2のLiDARセンサ156が、標的キャリブレーションボードを含む領域のLiDARセンサ152、156によって取得された第3の測定値のセットを使用してキャリブレーションされることができることと、第1のカメラセンサ150および慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサ158が、標的キャリブレーションボードを含む領域の第1のカメラセンサ150およびIMU-GNSSセンサ158によって取得された第4の測定値のセットを使用してキャリブレーションされることができることとを含むことができる。第1、第2、第3、および第4の測定値のセットは、キャリブレーションセッション中の別個の時点で取得される。したがって、そのようなペア構成キャリブレーション技術は、演算集約的であるのみならず、時間もかかり得る。本書において説明される技術は、上で議論する問題および他の問題を解決するために、いくつかの実施形態によって使用され得る。
キャリブレーションセッション中に複数のセンサから取得された同時の測定値を使用して複数のセンサをキャリブレーションすることができる例示的マルチセンサキャリブレーション技術が、説明される。取得された測定値は、カメラおよびLiDARセンサ等の複数のタイプのセンサをキャリブレーションするために使用されることができる。
図2は、道路208上の車両202を含む例示的マルチセンサキャリブレーションシステム200を示しており、車両202は、複数のカメラおよび複数のLiDARセンサを含む。図2では、説明の容易さのために、単一のカメラ204および単一のLiDARセンサ206が示されている。しかしながら、複数のカメラおよび複数のLiDARセンサが、キャリブレーション道路区分212のセンサデータアイテムを取得するように、車両202上に位置するまたは位置付けられることができ、車両202は、キャリブレーション道路区分212に向かって運転されることができる。本明細書において説明されるカメラ204およびLIDARセンサ206についてのキャリブレーション技術は、車両202上に位置しておりかつキャリブレーション道路区分212のセンサデータアイテムを取得することができる他のセンサ(例えば、他のカメラ、および他のLiDARセンサ)に適用されることができる。車両202は、自律車両であり得る。
道路208は、キャリブレーション道路区分212を含み、キャリブレーション道路区分212は、道路208の両側に貼付されることができるレーンマーカを有する。レーンマーカは、道路208の第1の側に位置している第1のレーンブロックのセット210aと、道路208の第1の側の反対にある第2の側に位置している第2のレーンブロックのセット210bとを含む。各レーンブロックのセットにおいて、1つのレーンブロックは、道路上に破線のセットを形成するように、別のレーンブロックから所定の距離だけ分離されることができる。レーンブロック210a、210bは、長方形の形状を有することができ、白色を有することができる。図2に示されるように、第1のレーンブロックのセット210aおよび第2のレーンブロックのセット210bは、車両202内に位置しているコンピュータがいくつかの実施形態において説明されるマルチセンサキャリブレーション技術を実施することを可能にするように、互いに平行であることができ、100メートル、150メートル、または200メートルの長さにわたって延在することができる。
道路208は、(図2に示されるように)真っ直ぐであることができ、車両202上に位置しているセンサがキャリブレーション道路区分212のセンサデータアイテムを容易に取得できるように平らな頂部表面を有することができる。いくつかの実施形態では、キャリブレーション道路区分212を有する道路208は、車両202が駐車される施設の外またはその中に私道として構築されることができ、それによって、車両202が電源を入れられて目的地へ運転するとき、車両202上の複数のセンサが、私道上でキャリブレーションされることができる。いくつかの他の実施形態では、道路208は、破線がない停止標識または信号機を有する領域をキャリブレーション道路区分212が除外する公道であることができる。道路208は、車両202がおよそ一定の速さでキャリブレーション道路区分212を横断して運転され、車両202上に位置するセンサが安定した速度でキャリブレーション道路区分212のセンサデータアイテムを取得することを可能にし得るように、選択されるまたは構築されることができる。
車両202内に位置するのは、高解像度(HD)マップを記憶しているコンピュータ(図10に「HDマップデータベース1015」として示される)である。HDマップデータベースは、各レーンブロックの各角212a-212dの3次元(3D)世界座標を含む。HDマップデータベースは、各レーンブロックの各レーン角の固有の識別子、レーンブロックごとの固有の識別子、および、地球基準において表されるキャリブレーション道路区分212のLiDAR点群マップも含む。
図3は、例示的マルチセンサキャリブレーション技術300のための信号処理および姿勢推定動作の概略を示す。車両は、センサ(例えば、カメラ、およびLiDARセンサ)を含み、センサは、各々、(図2で説明されるように)車両がキャリブレーション道路区分に向かって運転され、または、キャリブレーション道路区分に隣接し、キャリブレーション道路区分に面することができるとき、キャリブレーション道路区分のセンサ測定値302を取得することができる。例示的マルチセンサキャリブレーション技術300は、フロントエンド信号処理306においてセンサ測定値に関する信号処理を実施し、バックエンド最適化308において姿勢推定を実施することができる。いくつかの例示的実施形態においてさらに説明されるように、車両内に位置するコンピュータは、フロントエンド信号処理306とバックエンド最適化308とを実施し、HDマップデータベース304内のレーンブロックに関する情報に基づいて、センサ測定値302ごとのキャリブレーション結果310を取得することができる。フロントエンド信号処理306と関連付けられた動作は、カメラから取得された画像およびLiDARセンサから取得された点群からレーンブロックの角を抽出し、抽出された角を、HDマップデータベース304から取得されたそれらの角の3D世界座標と関連付ける。そのようなレーンブロックの角の関連付けが与えられると、バックエンド最適化308と関連付けられた動作が、複数のセンサ(例えば、カメラ、LiDARセンサ、およびIMU-GNSS)についての外部パラメータを推定するために実施されることができる。
以下の種々のセクションのための例示的見出しは、開示される主題の理解を促進するために使用され、請求される主題の範囲をいかようにも限定しない。よって、1つの例示的セクションの1つ以上の特徴は、別の例示的セクションの1つ以上の特徴と組み合わせられることができる。
I(a)カメラから取得された画像のためのフロントエンド信号処理
図4は、カメラから取得された画像の例を示し、画像は、道路の両側上の複数のレーンブロックを含む。車両内に位置しているコンピュータ内に含まれるカメラフロントエンドモジュール(図10に「1020」として示される)は、画像内で、2つの分割されたレーン402a、402bと、複数のレーンブロック404a~404bと、レーンブロックごとの複数のレーン角406a~406dとを検出することができる。ある例示的実装では、深層ニューラルネットワークが、2つの分割されたレーン402a、402bと、複数のレーンブロック404a~404bと、レーンブロックごとの複数のレーン角406a~406dとを検出するために使用されることができる。
図5は、カメラフロントエンドモジュールによって実施される動作の例示的フローダイアグラムを示す。動作502において、カメラフロントエンドモジュールは、次の画像がカメラから取得されたかどうかを決定する。カメラフロントエンドモジュールが、動作502において次の画像が取得されたことを決定する場合、カメラフロントエンドモジュールは、動作504~510を実施する。そして、カメラフロントエンドモジュールが、次の画像が取得されていないことを決定する場合、カメラフロントエンドモジュールは、動作512~516を実施する。
動作504において、カメラフロントエンドモジュールは、カメラによって捕捉された次の画像を取得する。動作506において、カメラフロントエンドモジュールは、レーンブロックを検出し、ブロックの角を抽出する。動作508において、カメラフロントエンドモジュールは、以前の画像フレームが存在する場合、そのような以前の画像フレームからレーンブロックを追跡する。動作510において、カメラフロントエンドモジュールは、新たに現れたレーンブロックごとに固有の識別子を割り当てる。動作510の後、カメラフロントエンドモジュールは、動作502を再び実施する。
動作512において、カメラフロントエンドモジュールは、HDマップから、角の点によって表されるレーンブロックを取ってくるまたは取得する。動作514において、カメラフロントエンドモジュールは、マップ-画像登録によって、1つの画像フレームから検出されたブロックと、HDマップから取得されたレーンブロックを関連付ける。動作516において、カメラフロントエンドモジュールは、トポロジカルオーダーによって、マップレーンブロックと、画像フレームからの全ての現れたレーンブロックを関連付けることができる。
ある例示的実装では、カメラフロントエンドモジュールは、画像内で検出されたレーンブロックを、分割されたレーンごとに下から上に順序付けることができる。カメラフロントエンドモジュールは、画像平面におけるレーンブロックの検出されたピクセル位置に従って、分割されたレーンごとに下から上にレーンブロックを順序付けることができる。カメラフロントエンドモジュールは、HDマップデータベースから取得された情報に基づいて、画像の最も下に位置している1つ以上のレーンブロックへの1つ以上の固有のレーンブロック識別子を決定するまたは割り当てることができる。カメラフロントエンドモジュールは、画像平面内のピクセル場所に従って、画像内の他のレーンブロック(例えば、画像の最も下に位置する1つ以上のレーンブロックの上にある)についての固有のレーンブロック識別子を推測することもできる。
いくつかの実施形態では、少なくとも、カメラ-IMU-GNSSの正確な外部パラメータは、マルチセンサキャリブレーション技術を実施する前に既知ではないことがあるので、カメラフロントエンドモジュールが、全ての画像からの検出されたレーンブロックとHDマップデータベースからの検出されたレーンブロックのレーンブロック識別子とを関連付けることは、演算集約的でありかつ困難であり得る。1つの画像から検出されたレーンブロックのセットを、HDマップからのそれらの対応するレーンブロックと関連付けることが、演算的により実行可能かつより容易であり得る。そのような実施形態では、カメラによって取得された第1の画像内に位置する1つ以上のレーンブロックのセットのために、手動での関連付けが形成され得る。例えば、キャリブレーションを実施する運転者または人は、車両内に位置するコンピュータを使用して、HDマップデータベースからの1つ以上のレーンブロック識別子と、1つ以上のレーンブロックの第1のセットを手動で関連付けることができる。
いくつかの実施形態では、カメラフロントエンドモジュールは、例えば、点の特徴を有するRANSACフレームワークによって連続するフレーム間のホモグラフィを推定することによって、カメラから取得された以前の画像において、カメラから取得された画像から識別された1つ以上のレーンブロックの存在を決定することができる。カメラフロントエンドモジュールがホモグラフィ動作を実施した後、カメラフロントエンドモジュールは、以前の画像フレームを現在の画像フレームに掛ける(wrap)ことができる。カメラフロントエンドモジュールが、現在の画像フレームからのレーンブロックと以前の画像フレームからの別のレーンブロックとの間のIoU(intersection―over―union)が高い(例えば、80%より高い)ことを決定した場合、以前の画像フレームと現在の画像フレームとにおける2つのレーンブロックは、同一であるとみなされることができる。
いくつかの実施形態では、2つ以上の画像フレーム間で追跡されることに成功したレーンブロックについては、カメラフロントエンドモジュールは、追跡されることに成功したレーンブロックのためのレーンブロック識別子を割り当てることができる。そのような実施形態において、レーンブロック識別子は、以前のフレーム内のレーンブロックに割り当てられた識別子と同一である。いくつかの他の実施形態では、以前の画像フレーム内に存在していない現在の画像フレーム内の追跡されていないレーンブロックまたは新たなレーンブロックについては、カメラフロントエンドモジュールは、追跡されたレーンブロックのレーンブロック識別子に従って、追跡されていないレーンブロックのためのレーンブロック識別子を割り当てることができる。
図6は、車両が(図2で説明されるような)キャリブレーション道路区分に向かって走行しているときにカメラから取得される複数の画像内の追跡されたレーンブロックおよび追跡されていないレーンブロックを識別するための例示的フロントエンド信号処理を示している。図6は、車両上に位置しているカメラから取得された4つの画像602a~602dを示している。図6に示されるように、各画像は、破線において割り当てられた複数のレーンブロックを含むことができる。カメラフロントエンドモジュールは、画像平面内のレーンブロックを検出し、それにアルファベット「a」を割り当てて索引付けすることができる。カメラフロントエンドモジュールは、数字を使用してHDマップデータベース604内のレーンブロックを索引付けすることができる。したがって、ある例示的実装では、カメラフロントエンドモジュールは、IMU-GNSSセンサから取得されることができる車両の場所(例えば、緯度、経度、および/または標高)および体勢(例えば、ピッチ、ヨー、および/またはロール)に基づいて、画像からのレーンブロック「a」をHDマップデータベース604内のレーンブロック「1」と関連付けることができる。
複数の画像602a~602dについて、カメラフロントエンドモジュールは、画像602a~602d内のレーンブロックとHDマップデータベース604内のレーンブロックとの間の関連付けのリストを生成することができる。例えば、カメラフロントエンドモジュールは、シンボル<a,1>を使用して、画像602a、602bとHDマップデータベース604との間のマッチングされたレーンブロックのペアを表すことができる。時刻tにおいて、カメラフロントエンドモジュールは、<a,1>を生成することができ、時刻t+1において、カメラフロントエンドモジュールは、画像602b内のレーンブロック「a」が画像602a内のレーンブロック「a」と同一であることを追跡または決定することができる。したがって、画像602bについて、時刻t+1において、レーンブロック「b」がレーンブロック「a」の上側隣にあり、かつ、レーンブロック「2」がHDマップデータベース604内でレーンブロック「1」の上側隣にあるので、カメラフロントエンドモジュールは、レーンブロック「b」のためのシンボルを<b,2>として生成することができる。時刻t+2において、カメラフロントエンドモジュールは、レーンブロック「a」および「b」が画像602c内で追跡されていることを決定することができ、レーンブロック「c」がレーンブロック「b」の上側隣にあり、かつ、レーンブロック「3」もHDマップデータベース604内でレーンブロック「2」の上側隣にあるので、カメラフロントエンドモジュールは、ブロック「c」のためのシンボルを<c,3>として生成することができ、以下同様である。
カメラフロントエンドモジュールは、カメラから取得された画像内でカメラフロントエンドモジュールによって検出された各レーンブロックのためのレーン角識別子を割り当てることができる。図6において、カメラフロントエンドモジュールが、画像602a内で識別されたレーンブロックを<a,1>と決定する場合、レーンブロック「a」の4つの角は、HDマップデータベース604内のレーンブロック「1」の角識別子と同一であるように、識別子を割り当てられることができる。
I.フロントエンド信号処理
I.(b)LiDARセンサから取得されたセンサデータアイテムのためのフロントエンド信号処理
LiDARセンサによって取得された点群測定値からレーン角を抽出することは、現在使用されている32-ラインまたは64-ラインLiDARセンサについての点群のスパース性に起因して困難であり得る。この問題を克服するために、複数のフレームの点群が、密な点群を取得するために取得されることができる。しかしながら、密な点群を蓄積するためには、フレームごとの正確なLiDAR姿勢が、既知であるはずである。LiDAR姿勢は、IMU+GNSSセンサ測定値およびLiDAR-IMU外部パラメータから導出されることができる。しかしながら、マルチセンサキャリブレーションを完了させるために、密な点群が蓄積される必要があるが、密な点群を蓄積するために、キャリブレーション技術は、正確なLiDAR-IMU外部パラメータを必要とし、正確なLiDAR-IMU外部パラメータは、密な点群を取得することによって解かれる必要があるパラメータである。
図7は、(図10に「1025」として示される)LiDARフロントエンドモジュールによって実施される動作の例示的フローチャートを示す。動作702において、LiDARフロントエンドモジュールは、車両がキャリブレーション道路区分に向かって運転されてまたはキャリブレーション道路区分に隣接してキャリブレーション道路区分に面することができるときに、LiDARセンサによって実施される測定から取得されたフレームの点群データ(PCD)を取得する。例として、車両上に位置しているLiDARセンサは、複数のフレームにおけるセンサ測定値において取得することができ、各フレームは、(図2で説明されるような)キャリブレーション道路区分の少なくとも一部のPCDを含む。
動作704において、LiDARフロントエンドモジュールは、ICP(Iterative Close Point)および/またはNDT(Normal Distribution Transform)等の十分発達した技術を使用して、動作702において取得された単一の点群を点群マップ基準に登録することによって、変換された単一の走査点群を取得する。点群マップ基準は、以前に取得された点群マップ基準であり得、以前に取得された点群マップは、キャリブレーション道路区分を含む道路を含む空間領域内において以前に取得された種々の点の3D世界座標を含み、3D世界座標は、LiDARによって取得されることができる。点群マップ基準は、点群マップ基準の3D世界座標がHDマップデータベースからLiDARフロントエンドモジュールによって取得されることができるように、HDマップデータベース内に記憶され得る。少なくとも、LiDARセンサおよびIMU+GNSSセンサは、車両の異なる領域内に位置し得、かつ、(動作706でさらに説明される)以前に取得された点群マップ基準は、車両上のIMU+GNSSセンサの場所または視点からのキャリブレーション道路区分を含む道路の3D点群情報を記述しているので、取得された単一の走査点群は、1つ以上の点群マップ基準点に変換される。
動作702において取得された単一の走査点群は、GNSS+IMUセンサによって提供される測定情報(例えば、車両の緯度、経度、標高、進行方向、ピッチ角度、および/またはヨー角度)および以前に記憶されたまたは粗いLiDARからIMUへの外部パラメータ
に基づいて、1つ以上の点群マップ基準点に変換されることができる。以前に記憶されたLiDARからIMUへの外部パラメータは、車両上または車両内に位置しているLiDARセンサおよびIMU-GNSSセンサの空間的関係(例えば、角度または位置)を記述することができるか、または、LiDARセンサおよびIMU-GNSSセンサの位置または向き間の関係を記述することができる。点群マップ基準の1つ以上の点の位置は、車両上のIMU-GNSSセンサの位置を参照して記述されるが、PCDは、LiDARセンサを参照して種々の点の位置を記述する。IMU-GNSSセンサおよびLiDARセンサは、車両上の異なる場所に位置し、異なる向きを有し得る。したがって、1つ以上の点群マップ基準点へのPCDの変換は、以前に取得された密な点群マップ基準にPCDを相関させるために実施される。
に基づいて、1つ以上の点群マップ基準点に変換されることができる。以前に記憶されたLiDARからIMUへの外部パラメータは、車両上または車両内に位置しているLiDARセンサおよびIMU-GNSSセンサの空間的関係(例えば、角度または位置)を記述することができるか、または、LiDARセンサおよびIMU-GNSSセンサの位置または向き間の関係を記述することができる。点群マップ基準の1つ以上の点の位置は、車両上のIMU-GNSSセンサの位置を参照して記述されるが、PCDは、LiDARセンサを参照して種々の点の位置を記述する。IMU-GNSSセンサおよびLiDARセンサは、車両上の異なる場所に位置し、異なる向きを有し得る。したがって、1つ以上の点群マップ基準点へのPCDの変換は、以前に取得された密な点群マップ基準にPCDを相関させるために実施される。
いくつかの実施形態では、PCDフレームは、単一の走査点群を参照し、変換されたPCDは、変換された単一の走査点群を参照し、点群マップおよび点群サブマップは、通常LiDARデータから生成される3D点群マップを参照する。
抽出動作706において、LiDARフロントエンドモジュールは、キャリブレーション道路区分を含む道路の密な点群を含む以前に取得された点群マップからサブマップを抽出することができ、LiDARフロントエンドモジュールは、GNSS+IMUセンサから取得されることができる車両の場所に基づいて、サブマップを抽出する。以前に取得された点群マップは、キャリブレーション道路区分を備える道路の以前に取得された種々の点の3D世界座標を含み、3D世界座標は、LiDARによって取得されることができる。以前に取得された点群マップは、HDマップデータベース内に記憶され得、それによって、以前に取得された点群マップの3D世界座標は、HDマップデータベースからLiDARフロントエンドモジュールによって取得され得る。したがって、LiDARデータから生成された以前に取得された点群マップは、車両の前方約150~200メートルの領域内の点群情報を提供することができる。サブマップは、単一の走査点群が動作702において取得されるときに、車両の場所の所定の距離内(例えば、車両の場所の前方50メートル内)の領域を識別するように抽出されることができる。少なくとも、サブマップを抽出することは、完全な点群マップのうちの一部を有する変換された点群マップを登録することによって演算量を低減させるので、サブマップを抽出することは、有益な技術的解決策である。サブマップは、動作704から取得された変換された単一の走査点群を登録するために、LiDARフロントエンドモジュールによって使用される。
動作708において、変換された単一の走査点群は、フィッティング動作を実施するために、3D点群サブマップに登録され、フィッティング動作において、変換された単一の走査点群からの情報が3D点群サブマップにフィッティングされるまたは3D点群サブマップに相関させられる。登録方法は、NDT(normal distribution transform)および/またはICP(iterative closest point )を含み得る。LiDARフロントエンドモジュールは、動作708において登録を実施することによって提供される変換マトリクスを、Trefineとして示すことができる。Trefineパラメータは、動作704における所定のLidar-Imu外部パラメータと比較するために使用される。
動作710において、LiDARフロントエンドモジュールは、LiDARセンサによって取得された単一の走査点群と3D点群マップの一部との間の変換を、式(1)における変換マトリクス(単数または複数)
について解くことによって、計算する。動作702~708は、一連の変換を構築し、LiDARフロントエンドモジュールは、それらの動作において説明する変換の構成を計算することができる。LiDARフロントエンドモジュールは、pmapを、マップ基準内の点の座標として示し、plidarをLiDAR基準内の点の座標として示すことができる。
ここで、
は、LiDARフレーム(またはLiDARの並進または向き)とIMU+GNSSフレーム(IMU+GNSSセンサの原点/基準点)との間の変換であり、その変換は、以前に記憶されたまたは粗いLiDARからIMUへの外部パラメータによって取得される。
は、IMU-GNSS基準と点群マップ基準(例えば、ENU(すなわち、east-north-up)基準)の1つ以上の点との間の変換である。
について解くことによって、計算する。動作702~708は、一連の変換を構築し、LiDARフロントエンドモジュールは、それらの動作において説明する変換の構成を計算することができる。LiDARフロントエンドモジュールは、pmapを、マップ基準内の点の座標として示し、plidarをLiDAR基準内の点の座標として示すことができる。
ここで、
は、LiDARフレーム(またはLiDARの並進または向き)とIMU+GNSSフレーム(IMU+GNSSセンサの原点/基準点)との間の変換であり、その変換は、以前に記憶されたまたは粗いLiDARからIMUへの外部パラメータによって取得される。
は、IMU-GNSS基準と点群マップ基準(例えば、ENU(すなわち、east-north-up)基準)の1つ以上の点との間の変換である。
動作712において、LiDARフロントエンドモジュールは、各レーンブロックのレーン角の3D世界座標を計算する。LiDARフロントエンドモジュールは、各レーン角の3D世界座標をHDマップデータベースから取得することができる。LiDARフロントエンドモジュールは、レーン角ごとに式(2)を解き、LiDARフレームにおける各レーン角の3D世界座標を取得することができる。式(2)において、HDマップデータベースから取得されるHDマップデータベースレーン角座標は、pmap内に含まれることができる。
上で説明される技術に基づいて、3D世界座標およびLiDAR基準内のレーン角識別子が、点群マップ基準内のレーン角を変換することによって取得されることができる。
II.バックエンド最適化における姿勢推定
(図3で説明されるような)バックエンド最適化動作は、全てのセンサの一貫性のある正確なキャリブレーションを可能にするために、(図10に「1030」として示される)バックエンドキャリブレーションモジュールによって実施されることができる。バックエンドキャリブレーションモジュールは、同時に複数のセンサをキャリブレーションして外部パラメータを最適化するための動作を実施することができる。図8は、マルチセンサキャリブレーション制約条件T1=(T2oT3)を示し、ここで、シンボル「o」は、T2とT3とを加算するいくつかの演算子を表しており、T1、T2およびT3は、別のセンサの外部パラメータに対する1つのセンサの外部パラメータを記述している。例えば、図8に示されるように、カメラとLiDARとの間の外部パラメータ(T1)は、IMU-GNSSからLiDARへの外部パラメータ(T2)に加算されたカメラからIMU-GNSSへの外部パラメータ(T3)に等しいことがあり得る。IMU外部パラメータは、以前にキャリブレーションされていることもあるので、これは、信頼できる局所的情報、およびHDマップからの信頼できる情報を提供することができる。
セクションIIにおいて説明される技術を使用して、バックエンドキャリブレーションモジュールは、各センサデータアイテム(例えば、カメラから取得された画像およびLiDARセンサから取得されたPCD)からのレーンマーカの場所情報と、レーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて、車両上に位置しているセンサ(例えば、カメラ、LiDAR)の外部パラメータを計算することができる。
4×4のマトリクスである外部マトリクスが、以下に示され、3自由度(DoF)の並進と、3×3回転マトリクスとしてリー代数で表されることができる3DoFの回転とから構成される。変数rは、3×3回転マトリクスの要素を示し、変数tは、1×3の並進ベクトルを示す。
1つのセンサから別のセンサへの各変換マトリクスは、回転および並進のマトリクスとして表されることができる。例えば、車両が3つのカメラと、2つのLiDARと、2つのIMUとを含む場合、バックエンドキャリブレーションモジュールが推定するための12の変換マトリクスが存在することができる。
II.(a)内部パラメータおよび外部パラメータ
内部パラメータおよび外部パラメータが、以下で説明されることができる。
II.(b)損失関数
セクションII.(a)において上で説明されるパラメータを推定するために、損失関数が以下のように説明されることができる。損失関数は、少なくとも2つの別種のセンサ(例えば、カメラおよびLiDARセンサ)からの異なる観測の最小二乗の合計であり得る。道路マーカは、IMUの観測となるHDマップから取ってこられることができ、かつ、いくつかの実施形態で説明されるいくつかの処理を伴ってカメラおよびLiDARセンサの両方によって観測されることができる。1つのレーンブロックの4つの角の点は、損失関数関連動作のために使用されることができる。そして、損失は、2Dまたは3Dのいずれかにおいて異なるセンサによって捕捉される各角の点のユークリッド距離の合計である。
バックエンドキャリブレーションモジュールは、上で説明される損失関数を最小化し、2つのセンサのための外部パラメータを取得することができる。いくつかの実施形態では、バックエンドキャリブレーションモジュールは、カメラによって提供される画像間、またはLiDARセンサによって提供されるフレームのPCDデータ間の制約条件を追加し、画像間およびフレームのPCDデータ間の循環的一貫性を提供することができる。制約条件は、重み付けを有する損失の形式で記述されることができ、それは、3つの変換マトリクスの乗算のフロベニウスノルムとして定義される。したがって、マルチセンサ一貫性を保証するために、以下の制約条件が追加され得る。
II.(c)消失点(VP)制約条件
VPも、回転マトリクスのための制約条件を提供することができる。HDマップ内のレーンの方向ベクトルをdとして、画像平面内のレーンVPの斉次座標をvとして、カメラのための内部パラメータマトリクスをKとして、世界フレームからカメラフレームへの回転マトリクスを
として示す。VP制約条件は、
によって定義されることができる。制約条件は、以下のとおりであり得る。
ここで、Πは、斉次座標から非斉次座標へ3D点を射影する射影関数であり、
は、画像平面内の検出されたVPである。
として示す。VP制約条件は、
によって定義されることができる。制約条件は、以下のとおりであり得る。
ここで、Πは、斉次座標から非斉次座標へ3D点を射影する射影関数であり、
は、画像平面内の検出されたVPである。
図9は、マルチセンサキャリブレーションを実施する例示的フロー図を示す。取得動作902において、車両上に位置している少なくとも2つのセンサの各々から、レーンマーカを含む道路のセンサデータアイテムを取得する。抽出動作904において、各センサデータアイテムから、レーンマーカの場所情報を抽出する。
いくつかの実施形態では、少なくとも2つのセンサの各々からセンサデータアイテムを取得し、各センサデータアイテムからレーンマーカの場所情報を取得することは、車両上に位置しているカメラからレーンマーカを含む画像を受信することと、画像から、レーンマーカの角のピクセル場所を決定することと、車両上に位置している光検出および測距(LiDAR)センサから、レーンマーカを含む道路の領域の点群データ(PCD)を含むフレームを受信することと、レーンマーカの角の3次元(3D)世界座標のセットを決定することとを含む。
いくつかの実施形態では、レーンマーカの角の3D世界座標のセットは、車両の場所に基づいて、レーンマーカの角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、レーンマーカの以前に記憶された場所情報が、レーンマーカの角の以前に記憶された3次元(3D)世界座標の第2のセットを含む、ことと、レーンマーカの角の以前に記憶された3D世界座標の第2のセットをLiDARセンサの座標系に射影し、フレーム内のレーンマーカの角の3D世界座標のセットを取得することとによって、決定される。
計算動作906において、各センサデータアイテムからのレーンマーカの場所情報と、レーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて、少なくとも2つのセンサの外部パラメータを計算する。
いくつかの実施形態では、少なくとも2つのセンサの外部パラメータは、レーンマーカの角ごとに第1の損失関数を計算することであって、第1の損失関数は、レーンマーカの角のピクセル場所と、第2のセットから取得されたレーンマーカの角の以前に記憶された3D世界座標との間の距離を演算する、ことと、レーンマーカの角ごとに第2の損失関数を計算することであって、第2の損失関数は、セットから取得されたレーンマーカの角の3D世界座標と、第2のセットから取得されたレーンマーカの角の以前に記憶された3D世界座標との間の距離を演算する、ことと、第1の損失関数に基づいて、カメラのための外部パラメータを推定し、第2の損失関数に基づいてLiDARセンサのための外部パラメータを推定することとによって、計算される。
いくつかの実施形態では、レーンマーカの角の以前に記憶された3D世界座標の第2のセットは、LiDARセンサから受信されたPCDを点群マップ基準の1つ以上の点に相関させることによって変換された点群を取得することと、以前に取得されたPCDマップからサブマップを抽出することと、サブマップへの変換された点群の登録を実施し、変換された点群とサブマップとの間の変換を記述している第1の変換マトリクスを取得することであって、登録は、変換された点群をサブマップに相関させる、ことと、LIDARセンサの位置と、点群マップ基準の1つ以上の点と、車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述している追加変換マトリクスを決定することと、第1の変換マトリクスと、追加変換マトリクスと、レーンマーカの角の以前に記憶された3D世界座標の第2のセットとに基づいて、フレーム内のレーンマーカの角の3D世界座標のセットを計算することとによって、LiDARセンサの座標系に射影される。
いくつかの実施形態では、PCDは、IMU-GNSSセンサによって提供される測定値と、以前に記憶されたLiDARからIMUへの外部パラメータとに基づいて、点群マップ基準に相関させられ、以前に記憶されたLiDARからIMUへの外部パラメータは、LiDARの位置および向きとIMU-GNSSセンサの位置および向きとの間の空間的関係を記述している。いくつかの実施形態では、サブマップは、PCDが受信されたときの車両の場所の所定の距離内の点の3D世界座標を含む。
いくつかの実施形態では、方法は、車両上に位置するカメラから、レーンマーカを含む画像を受信することと、画像から、レーンマーカの角の場所を決定することと、車両上に位置している光検出および測距(LiDAR)センサから、レーンマーカを備える領域の点群データ(PCD)を備えるフレームを受信することと、レーンマーカの角の3次元(3D)世界座標のセットを決定することとを含み、少なくとも2つのセンサは、カメラとLiDARセンサを含む。いくつかの実施形態では、レーンマーカの角の3D世界座標のセットは、車両の場所に基づいて、レーンマーカの角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、レーンマーカの以前に記憶された場所情報が、レーンマーカの角の以前に記憶された3D世界座標の第2のセットを含む、ことと、レーンマーカの角の以前に記憶された3D世界座標の第2のセットとLiDARセンサの座標系とを使用することによってフレーム内のレーンマーカの角の3D世界座標のセットを取得することとによって、決定される。
いくつかの実施形態では、カメラの外部パラメータは、レーンマーカの角について、損失関数を計算することであって、損失関数は、レーンマーカの角の場所と第2のセットから取得されたレーンマーカの角の以前に記憶された3D世界座標との間の距離を演算する、ことと、損失関数に基づいてカメラについての外部パラメータを推定することとによって、計算される。いくつかの実施形態では、LiDARセンサの外部パラメータは、レーンマーカの角について、損失関数を計算することであって、損失関数は、セットから取得されたレーンマーカの角の3D世界座標と、第2のセットから取得されたレーンマーカの角の以前に記憶された3D世界座標との間の距離を演算する、ことと、損失関数に基づいてLiDARセンサについての外部パラメータを推定することとによって、計算される。いくつかの実施形態では、レーンマーカの角の以前に記憶された3D世界座標の第2のセットは、LiDARセンサから受信されたPCDを使用して、点群マップ基準の1つ以上の点を用いて、変換された点群を取得することと、サブマップへの変換された点群の登録を実施し、変換された点群とサブマップとの間の変換を記述している第1の変換マトリクスを取得することであって、サブマップは、以前のPCDマップから取得される、ことと、LiDARセンサの位置と、点群マップ基準の1つ以上の点と、車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述している追加変換マトリクスを決定することと、第1の変換マトリクスと、追加変換マトリクスと、レーンマーカの角の以前に記憶された3D世界座標の第2のセットとに基づいて、フレーム内のレーンマーカの角の3D世界座標のセットを計算することとによって、LiDARセンサの座標系とともに使用される。いくつかの実施形態では、PCDは、点群マップ基準に相関させられる。
いくつかの実施形態では、少なくとも2つのセンサの各々からセンサデータアイテムを取得し、各センサデータアイテムからレーンマーカの場所情報を抽出することは、車両上に位置している第1のセンサから、レーンマーカを備える第1のセンサデータを受信することと、第1のセンサデータから、レーンマーカの角の場所を決定することと、車両上に位置している第2のセンサから、レーンマーカを備える道路の領域の第2のセンサデータを受信することと、レーンマーカの角の3次元(3D)世界座標のセットを決定することとを含む。いくつかの実施形態では、レーンマーカの角の3D世界座標のセットは、車両の場所に基づいて、レーンマーカの角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、レーンマーカの以前に記憶された場所情報は、レーンマーカの角の以前に記憶された3D世界座標の第2のセットを備える、ことと、第2のセンサの座標系にレーンマーカの角の以前に記憶された3D世界座標の第2のセットを射影し、第2のセンサデータ内のレーンマーカの角の3D世界座標のセットを取得することとによって、決定される。
いくつかの実施形態では、少なくとも2つのセンサの外部パラメータは、レーンマーカの少なくとも2つの角の各々について、第1の損失関数を計算することであって、第1の損失関数は、レーンマーカの角の場所と、第2のセットから取得されたレーンマーカの角の以前に記憶された3D世界座標との間の距離を演算する、ことと、レーンマーカの少なくとも2つの角の各々について、第2の損失関数を計算することであって、第2の損失関数は、セットから取得されたレーンマーカの角の3D世界座標と、第2のセットから取得されたレーンマーカの角の以前に記憶された3D世界座標との間の距離を演算する、ことと、第1の損失関数に基づいて、第1のセンサについての外部パラメータを推定し、第2の損失関数に基づいて、第2のセンサについての外部パラメータを推定することとによって、計算される。
いくつかの実施形態では、レーンマーカの角の以前に記憶された3D世界座標の第2のセットは、LiDARセンサから受信された第2のセンサデータを点群マップ基準の1つ以上の点に相関させることによって、変換された点群を取得することと、以前に取得されたマップからサブマップを抽出することと、変換された点群をサブマップに相関させることによって、変換された点群とサブマップとの間の変換を記述している第1の変換マトリクスを取得することと、第2のセンサの位置と、点群マップ基準の1つ以上の点と、車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述する追加変換マトリクスを決定することと、第1の変換マトリクスと、追加変換マトリクスと、レーンマーカの角の以前に記憶された3D世界座標の第2のセットとに基づいて、第2のセンサデータ内のレーンマーカの角の3D世界座標のセットを計算することとによって、第2のセンサの座標系に射影される。いくつかの実施形態では、サブマップは、第2のセンサデータが受信されたときの車両の場所の所定の距離内の点の3D世界座標を備える。
いくつかの実装では、種々の実施形態において説明される方法は、非一過性コンピュータ可読媒体に記憶されているコンピュータ可読プログラムにおいて具現化される。コンピュータ可読プログラムは、コードを含み、コードは、プロセッサによって実行されると、図9において説明される方法を含むいくつかの実施形態において説明される方法をプロセッサに実施させる。
図10は、いくつかの実施形態において説明されるマルチセンサキャリブレーション技術を実施するための車両内に位置するコンピュータの例示的ブロック図を示す。コンピュータ1000は、少なくとも1つのプロセッサ1010と、メモリ1005とを含み、メモリ1005は、そこに記憶されている命令を有する。命令は、プロセッサ1010による実行時、コンピュータ1000が、カメラ、LiDARセンサ、および図2~図9において説明される種々のモジュールに関して説明される動作、ならびに/または、種々の実施形態で説明される動作を実施するように構成している。
本書において、「例示的」という用語は、他の態様で言及されない限り、「の例」を意味し、理想的な実施形態または好ましい実施形態を意味しない。
本明細書中で説明される実施形態のうちのいくつかは、方法またはプロセスの概略的コンテキストにおいて説明されるが、それらは、1つの実施形態において、コンピュータ可読媒体において具現化されるコンピュータプログラム製品(プログラムコード等のコンピュータ実行可能命令を含み、ネットワーク環境においてコンピュータによって実行される)によって実装され得る。コンピュータ可読媒体は、除去可能なストレージデバイスおよび除去不可能なストレージデバイスを含み得、それらは、限定ではないが、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、コンパクトディスク(CD)、デジタルバーサタイルディスク(DVD)等を含む。したがって、コンピュータ可読媒体は、非一過性ストレージ媒体を含むことができる。概して、プログラムモジュールは、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造等を含み得、それらは、特定のタスクを実施するか、または特定の抽象的データタイプを実装する。コンピュータ実行可能命令またはプロセッサ実行可能命令、関連付けられたデータ構造、およびプログラムモジュールは、本明細書中で開示される方法のステップを実行するためのプログラムコードの例を表している。そのような実行可能命令または関連付けられたデータ構造の特定のシーケンスは、そのようなステップまたはプロセスで説明される機能を実装するための対応する作動の例を表している。
開示される実施形態のうちのいくつかは、ハードウェア回路、ソフトウェア、またはそれらの組み合わせを使用したデバイスまたはモジュールとして実装されることができる。例えば、ハードウェア回路実装は、(例えば、プリント回路基板の一部として組み込まれる)個別のアナログおよび/またはデジタルコンポーネントを含むことができる。代替的に、または、加えて、開示されるコンポーネントまたはモジュールは、特定用途向け集積回路(ASIC)および/またはフィールドプログラマブルゲートアレイ(FPGA)デバイスとして実装されることができる。加えて、または、代替的に、いくつかの実装は、デジタルシグナルプロセッサ(DSP)を含み、デジタルシグナルプロセッサは、本願の開示される機能性と関連付けられたデジタル信号処理の動作ニーズのために最適化されたアーキテクチャを有する専用マイクロプロセッサである。同様に、各モジュール内の種々のコンポーネントまたはサブコンポーネントは、ソフトウェア、ハードウェア、またはファームウェアとして実装され得る。モジュール間および/またはモジュール内のコンポーネント間の接続は、限定ではないが、適切なプロトコルを使用したインターネット、有線ネットワーク、または無線ネットワークを介した通信を含む当技術分野において公知である接続方法および接続媒体のうちの任意の1つを使用して提供され得る。
本書は、多くの詳細を含むが、これらは、請求される発明の範囲または請求され得るものの範囲についての限定と解されるべきではなく、むしろ、特定の発明に特有の特徴の説明として解されるべきである。別個の実施形態のコンテキストにおいて本書において説明されるある特徴は、単一の実施形態の組み合わせとしても実装されることができる。逆に、単一の実施形態のコンテキストにおいて説明される種々の特徴は、別個に複数の実施形態においてもまたは任意の適したサブコンビネーションにおいても実装され得る。そのうえ、特徴は、特定の組み合わせとして実行するように上で説明され、さらに初めにそのように請求され得るが、いくつかの実施形態では、請求される組み合わせからの1つ以上の特徴が、組み合わせから削除されることができ、請求される組み合わせは、サブコンビネーションまたはサブコンビネーションの変形を対象とし得る。同様に、動作が、特定の順序で図面において描写されているが、これは、所望の結果を達成するために、そのような動作が、示される特定の順序または連続した順序で実施されること、または、全ての例証される動作が実装されることを必要とするものとして理解されるべきではない。
少数の実装および例のみが説明され、他の実装、強化、および変形が、本開示において説明され例証されるものに基づいてなされることができる。
Claims (20)
- 自律運転動作の方法であって、前記方法は、
車両上に位置する少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、
各センサデータアイテムから、前記レーンマーカの場所情報を抽出することと、
各センサデータアイテムからの前記レーンマーカの前記場所情報と、前記レーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて、前記少なくとも2つのセンサの外部パラメータを計算することと
を含む、方法。 - 前記少なくとも2つのセンサの各々からセンサデータアイテムを取得し、各センサデータアイテムから前記レーンマーカの前記場所情報を抽出することは、
前記車両上に位置しているカメラから、前記レーンマーカを備える画像を受信することと、
前記画像から、前記レーンマーカの角のピクセル場所を決定することと、
前記車両上に位置している光検出および測距(LiDAR)センサから、前記レーンマーカを備える前記道路の領域の点群データ(PCD)を備えるフレームを受信することと、
前記レーンマーカの前記角の3次元(3D)世界座標のセットを決定することと
を含む、請求項1に記載の方法。 - 前記レーンマーカの前記角の前記3D世界座標のセットは、
前記車両の場所に基づいて、前記レーンマーカの前記角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、前記レーンマーカの前記以前に記憶された場所情報は、レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを備える、ことと、
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを前記LiDARセンサの座標系に射影し、前記フレーム内の前記レーンマーカの前記角の前記3D世界座標のセットを取得することと
によって決定される、請求項2に記載の方法。 - 前記少なくとも2つのセンサの前記外部パラメータは、
前記レーンマーカの角ごとに、第1の損失関数を計算することであって、前記第1の損失関数は、レーンマーカの角のピクセル場所と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記レーンマーカの角ごとに、第2の損失関数を計算することであって、前記第2の損失関数は、前記セットから取得された前記レーンマーカの前記角の3D世界座標と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記第1の損失関数に基づいて前記カメラについての前記外部パラメータを推定し、前記第2の損失関数に基づいて前記LiDARセンサについての前記外部パラメータを推定することと
によって計算される、請求項3に記載の方法。 - 前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットは、
前記LiDARセンサから受信された前記PCDを点群マップ基準の1つ以上の点に相関させることによって、変換された点群を取得することと、
以前に取得されたPCDマップからサブマップを抽出することと、
前記サブマップへの前記変換された点群の登録を実施し、前記変換された点群と前記サブマップとの間の変換を記述している第1の変換マトリクスを取得することであって、前記登録は、前記変換された点群を前記サブマップに相関させる、ことと、
前記LiDARセンサの位置と、前記点群マップ基準の前記1つ以上の点と、前記車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述している追加変換マトリクスを決定することと、
前記第1の変換マトリクスと、前記追加変換マトリクスと、前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットとに基づいて、前記フレーム内の前記レーンマーカの前記角の前記3D世界座標のセットを計算することと
によって、前記LiDARセンサの前記座標系に射影される、請求項3に記載の方法。 - 前記PCDは、前記IMU-GNSSセンサによって提供される測定値と、以前に記憶されたLiDARからIMUへの外部パラメータとに基づいて、前記点群マップ基準に相関させられ、
前記以前に記憶されたLiDARからIMUへの外部パラメータは、前記LiDARの位置および向きと前記IMU-GNSSセンサの位置および向きとの間の空間的関係を記述している、請求項5に記載の方法。 - 前記サブマップは、前記PCDが受信されたときの前記車両の前記場所の所定の距離内の点の3D世界座標を備える、請求項5に記載の方法。
- 車両上または前記車両内の複数のセンサのキャリブレーションのためのシステムであって、前記システムは、プロセッサを備え、前記プロセッサは、
前記車両上に位置している少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、
各センサデータアイテムから、前記レーンマーカの場所情報を抽出することと、
各センサデータアイテムからの前記レーンマーカの前記場所情報と前記レーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて、前記少なくとも2つのセンサの外部パラメータを計算することと
を行うように構成されている、システム。 - 前記プロセッサは、
前記車両上に位置しているカメラから、前記レーンマーカを備える画像を受信することと、
前記画像から、前記レーンマーカの角の場所を決定することと、
前記車両上に位置している光検出および測距(LiDAR)センサから、前記レーンマーカを備える領域の点群データ(PCD)を備えるフレームを受信することと、
前記レーンマーカの前記角の3次元(3D)世界座標のセットを決定することと
を行うように構成されていることによって、前記少なくとも2つのセンサの各々からセンサデータアイテムを取得し、各センサデータアイテムから前記レーンマーカの前記場所情報を抽出することを行うように構成され、
前記少なくとも2つのセンサは、前記カメラと前記LiDARセンサとを備える、請求項8に記載のシステム。 - 前記レーンマーカの前記角の前記3D世界座標のセットは、
前記車両の場所に基づいて、前記レーンマーカの前記角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、前記レーンマーカの前記以前に記憶された場所情報が、レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを含む、ことと、
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットと前記LiDARセンサの座標系とを使用することによって、前記フレーム内の前記レーンマーカの前記角の前記3D世界座標のセットを取得することと
を行うように構成されている前記プロセッサによって決定される、請求項9に記載のシステム。 - 前記カメラの前記外部パラメータは、
前記レーンマーカの角について、損失関数を計算することであって、前記損失関数は、レーンマーカの前記角の場所と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記損失関数に基づいて、前記カメラについての前記外部パラメータを推定することと
を行うように構成されている前記プロセッサによって計算される、請求項10に記載のシステム。 - 前記LiDARセンサの前記外部パラメータは、
前記レーンマーカの角について、損失関数を計算することであって、前記損失関数は、前記セットから取得された前記レーンマーカの前記角の3D世界座標と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記損失関数に基づいて、前記LiDARセンサについての前記外部パラメータを推定することと
を行うように構成されている前記プロセッサによって計算される、請求項10に記載のシステム。 - 前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットは、
前記LiDARセンサから受信された前記PCDを使用して、点群マップ基準の1つ以上の点を用いて、変換された点群を取得することと、
サブマップへの前記変換された点群の登録を実施し、前記変換された点群と前記サブマップとの間の変換を記述している第1の変換マトリクスを取得することであって、前記サブマップは、以前のPCDマップから取得される、ことと、
前記LiDARセンサの位置と、前記点群マップ基準の前記1つ以上の点と、前記車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述している追加変換マトリクスを決定することと、
前記第1の変換マトリクスと、前記追加変換マトリクスと、前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットとに基づいて、前記フレーム内の前記レーンマーカの前記角の前記3D世界座標のセットを計算することと
を行うように構成されている前記プロセッサによって、前記LiDARセンサの前記座標系とともに使用される、請求項10に記載のシステム。 - 前記PCDは、前記点群マップ基準に相関させられる、請求項13に記載のシステム。
- 非一過性コンピュータ可読ストレージ媒体であって、前記非一過性コンピュータ可読ストレージ媒体は、そこに記憶されたコードを有し、前記コードは、プロセッサによって実行されると、プロセッサに方法を実装させ、前記方法は、
車両上に位置している少なくとも2つのセンサの各々から、レーンマーカを備える道路のセンサデータアイテムを取得することと、
各センサデータアイテムから、前記レーンマーカの場所情報を抽出することと、
各センサデータアイテムからの前記レーンマーカの前記場所情報と、前記レーンマーカの以前に記憶された場所情報との間の差異を決定することに基づいて、前記少なくとも2つのセンサの外部パラメータを計算することと
を含む、非一過性コンピュータ可読ストレージ媒体。 - 前記少なくとも2つのセンサの各々からセンサデータアイテムを取得し、各センサデータアイテムから前記レーンマーカの前記場所情報を抽出することは、
前記車両上に位置している第1のセンサから、前記レーンマーカを備える第1のセンサデータを受信することと、
前記第1のセンサデータから、前記レーンマーカの角の場所を決定することと、
前記車両上に位置している第2のセンサから、前記レーンマーカを備える前記道路の領域の第2のセンサデータを受信することと、
前記レーンマーカの前記角の3次元(3D)世界座標のセットを決定することと
を含む、請求項15に記載の非一過性コンピュータ可読ストレージ媒体。 - 前記レーンマーカの前記角の前記3D世界座標のセットは、
前記車両の場所に基づいて、前記レーンマーカの前記角の以前に記憶された3次元(3D)世界座標の第2のセットを取得することであって、前記レーンマーカの前記以前に記憶された場所情報は、レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを備える、ことと、
前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットを前記第2のセンサの座標系に射影し、前記第2のセンサデータ内の前記レーンマーカの前記角の前記3D世界座標のセットを取得することと
によって決定される、請求項16に記載の非一過性コンピュータ可読ストレージ媒体。 - 前記少なくとも2つのセンサの前記外部パラメータは、
前記レーンマーカの少なくとも2つの角の各々について、第1の損失関数を計算することであって、前記第1の損失関数は、レーンマーカの角の場所と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記レーンマーカの少なくとも2つの角の各々について、第2の損失関数を計算することであって、前記第2の損失関数は、前記セットから取得された前記レーンマーカの前記角の3D世界座標と、前記第2のセットから取得された前記レーンマーカの前記角の前記以前に記憶された3D世界座標との間の距離を演算する、ことと、
前記第1の損失関数に基づいて、前記第1のセンサについての前記外部パラメータを推定し、前記第2の損失関数に基づいて、前記第2のセンサについての前記外部パラメータを推定することと
によって計算される、請求項17に記載の非一過性コンピュータ可読ストレージ媒体。 - 前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットは、
前記第2のセンサから受信された第2のセンサデータを点群マップ基準の1つ以上の点に相関させることによって、変換された点群を取得することと、
以前に取得されたマップからサブマップを抽出することと、
前記変換された点群を前記サブマップに相関させることによって、前記変換された点群と前記サブマップとの間の変換を記述している第1の変換マトリクスを取得することと、
前記第2のセンサの位置と、前記点群マップ基準の前記1つ以上の点と、前記車両内に位置している慣性測定ユニット-全地球航法衛星システム(IMU-GNSS)センサと関連付けられた基準点との間の変換を記述している追加変換マトリクスを決定することと、
前記第1の変換マトリクスと、前記追加変換マトリクスと、前記レーンマーカの前記角の前記以前に記憶された3D世界座標の第2のセットとに基づいて、前記第2のセンサデータ内の前記レーンマーカの前記角の前記3D世界座標のセットを計算することと
によって、前記第2のセンサの前記座標系に射影される、請求項17に記載の非一過性コンピュータ可読ストレージ媒体。 - 前記サブマップは、前記第2のセンサデータが受信されたときの前記車両の前記場所の所定の距離内の点の3D世界座標を備える、請求項19に記載の非一過性コンピュータ可読ストレージ媒体。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010598425.2 | 2020-06-28 | ||
CN202010598425.2A CN113847930A (zh) | 2020-06-28 | 2020-06-28 | 多传感器校准系统 |
US16/937,508 US11908163B2 (en) | 2020-06-28 | 2020-07-23 | Multi-sensor calibration system |
US16/937,508 | 2020-07-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022008790A true JP2022008790A (ja) | 2022-01-14 |
Family
ID=76601046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021105382A Pending JP2022008790A (ja) | 2020-06-28 | 2021-06-25 | マルチセンサキャリブレーションシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240095960A1 (ja) |
EP (1) | EP3929872A1 (ja) |
JP (1) | JP2022008790A (ja) |
AU (1) | AU2021204030A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102616437B1 (ko) * | 2023-06-20 | 2023-12-22 | 주식회사 모빌테크 | 라이다 및 관성측정장치의 캘리브레이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114578328B (zh) * | 2022-02-24 | 2023-03-17 | 苏州驾驶宝智能科技有限公司 | 一种多激光雷达和多相机传感器空间位置自动标定方法 |
CN115082572B (zh) * | 2022-07-22 | 2023-11-03 | 南京慧尔视智能科技有限公司 | 一种雷达和相机联合自动标定方法和系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9916703B2 (en) * | 2015-11-04 | 2018-03-13 | Zoox, Inc. | Calibration for autonomous vehicle operation |
US10816354B2 (en) * | 2017-08-22 | 2020-10-27 | Tusimple, Inc. | Verification module system and method for motion-based lane detection with multiple sensors |
-
2021
- 2021-06-17 AU AU2021204030A patent/AU2021204030A1/en active Pending
- 2021-06-24 EP EP21181384.5A patent/EP3929872A1/en active Pending
- 2021-06-25 JP JP2021105382A patent/JP2022008790A/ja active Pending
-
2023
- 2023-11-17 US US18/512,205 patent/US20240095960A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102616437B1 (ko) * | 2023-06-20 | 2023-12-22 | 주식회사 모빌테크 | 라이다 및 관성측정장치의 캘리브레이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
Also Published As
Publication number | Publication date |
---|---|
US20240095960A1 (en) | 2024-03-21 |
EP3929872A1 (en) | 2021-12-29 |
AU2021204030A1 (en) | 2022-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11908163B2 (en) | Multi-sensor calibration system | |
CN108694882B (zh) | 用于标注地图的方法、装置和设备 | |
JP6821712B2 (ja) | 自然光景中での統合センサの較正 | |
JP2022008790A (ja) | マルチセンサキャリブレーションシステム | |
JP4600357B2 (ja) | 測位装置 | |
JP7082545B2 (ja) | 情報処理方法、情報処理装置およびプログラム | |
JP2022000636A (ja) | オンボードセンサの外部パラメータを較正する方法及び装置、並びに関連する車両 | |
CN108692719B (zh) | 物体检测装置 | |
KR20200042760A (ko) | 차량 위치 결정 방법 및 차량 위치 결정 장치 | |
KR102054455B1 (ko) | 이종 센서 간의 캘리브레이션 장치 및 방법 | |
JP7404010B2 (ja) | 位置推定装置及び方法 | |
JP2012127896A (ja) | 移動体位置測定装置 | |
Fiala et al. | Visual odometry using 3-dimensional video input | |
JP2016099172A (ja) | 車両位置推定装置及びプログラム | |
KR102117313B1 (ko) | 그래디언트 추정 장치, 그래디언트 추정 방법, 컴퓨터 프로그램 및 제어 시스템 | |
US11702089B2 (en) | Multi-sensor sequential calibration system | |
Vu et al. | Traffic sign detection, state estimation, and identification using onboard sensors | |
JP2017181476A (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム | |
KR20230003803A (ko) | 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법 | |
CN112712563A (zh) | 相机取向估计 | |
US20230351687A1 (en) | Method for detecting and modeling of object on surface of road | |
KR102195040B1 (ko) | 이동식 도면화 시스템 및 모노카메라를 이용한 도로 표지 정보 수집 방법 | |
WO2021063756A1 (en) | Improved trajectory estimation based on ground truth | |
WO2022133986A1 (en) | Accuracy estimation method and system | |
JP2016142604A (ja) | 地図データ生成装置、地図データ生成方法及び地図データ生成用コンピュータプログラムならびに車両位置検出装置 |