CN112991454A - 照相机到LiDAR的标定和验证 - Google Patents
照相机到LiDAR的标定和验证 Download PDFInfo
- Publication number
- CN112991454A CN112991454A CN202011500649.1A CN202011500649A CN112991454A CN 112991454 A CN112991454 A CN 112991454A CN 202011500649 A CN202011500649 A CN 202011500649A CN 112991454 A CN112991454 A CN 112991454A
- Authority
- CN
- China
- Prior art keywords
- lidar
- camera
- points
- calibration
- verification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012795 verification Methods 0.000 title claims abstract description 62
- 238000000034 method Methods 0.000 claims abstract description 62
- 239000013598 vector Substances 0.000 claims abstract description 51
- 230000009466 transformation Effects 0.000 claims abstract description 45
- 238000013519 translation Methods 0.000 claims abstract description 26
- 230000015654 memory Effects 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 7
- 230000001747 exhibiting effect Effects 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 4
- 238000010200 validation analysis Methods 0.000 claims description 4
- 238000007670 refining Methods 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000004590 computer program Methods 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 21
- 238000000844 transformation Methods 0.000 abstract description 3
- 238000004891 communication Methods 0.000 description 37
- 230000014616 translation Effects 0.000 description 21
- 238000003860 storage Methods 0.000 description 19
- 239000011159 matrix material Substances 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 10
- 230000004927 fusion Effects 0.000 description 8
- 230000008447 perception Effects 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 7
- 238000013500 data storage Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- HOWHQWFXSLOJEF-MGZLOUMQSA-N systemin Chemical compound NCCCC[C@H](N)C(=O)N[C@@H](CCSC)C(=O)N[C@@H](CCC(N)=O)C(=O)N[C@@H]([C@@H](C)O)C(=O)N[C@@H](CC(O)=O)C(=O)OC(=O)[C@@H]1CCCN1C(=O)[C@H]1N(C(=O)[C@H](CC(O)=O)NC(=O)[C@H](CCCN=C(N)N)NC(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H]2N(CCC2)C(=O)[C@H]2N(CCC2)C(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H](CCC(N)=O)NC(=O)[C@@H](NC(=O)[C@H](C)N)C(C)C)CCC1 HOWHQWFXSLOJEF-MGZLOUMQSA-N 0.000 description 1
- 108010050014 systemin Proteins 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2323—Non-hierarchical techniques based on graph theory, e.g. minimum spanning trees [MST] or graph cuts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/7635—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks based on graphs, e.g. graph cuts or spectral clustering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Discrete Mathematics (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
公开了用以估计和评价照相机到LiDAR坐标变换的外部参数的精度的自动标定和验证管道。在实施例中,采用一种自动和无监督的标定过程:自动估计和验证所计算出的照相机到LiDAR坐标变换的旋转和平移参数(“外部参数”),并且设置与外部参数的精度有关的上限。该标定过程将三维(3D)平面、向量和点对应关系组合以确定外部参数,并且通过分析包括验证板的过滤点云在图像空间中的投影来验证如此得到的坐标变换。使用单个照相机图像和LiDAR扫描(“单步”)来标定和验证外部参数。除了仅要求单步之外,整个过程仅仅依赖于一个或多个平面标定板和简单的几何验证板。
Description
技术领域
本说明书通常涉及运载工具的操作,并且具体涉及照相机到LiDAR(光检测和测距)的标定和验证(calibration and validation)。
背景技术
许多机器人任务依赖于传感器融合来克服各个体传感器的缺点。自主运载工具例如通过融合从车载传感器获得的互补感觉信息来操作。在感知管道内,运载工具的照相机所感知到的密集二维颜色、外观和纹理信息与由运载工具的光检测和测距系统(LiDAR)提供的稀疏三维深度和结构信息相关联。这使得自主运载工具能够生成对周围环境的更深入了解。
多模态传感器数据的融合要求相对于共同的坐标系表示所有的传感器信息。因此,需要计算安装到机器人平台的各传感器的准确姿态(朝向和平移)。传感器支架的制造中的差异通常意味着不能从示意图推断出准确的传感器姿态。另外,由于外部标定值可能会因由急速移动引起的传感器的姿态的移位而随时间的经过发生漂移,因此可能需要重新标定传感器套件。
在该领域的研究已产生了精确地估计外部参数的许多解决方案。然而,许多所提出的解决方案仍需要人工干预,受到监督,因此不能很好地扩展到商业平台。另外,所提出的解决方案未能应对用于评价所估计的刚体变换的精度的挑战。为了证明传感器融合有效,外部标定必须极其精确。外部参数的小偏差可能会对融合产生不利影响。因此,必须保证和维持与诸如自主驾驶等的安全关键任务的精度有关的界限。
发明内容
提供了用于使用单个照相机图像和LiDAR扫描(以下也称为“单步(singleshot)”)的照相机到LiDAR变换的外部参数的自动和无监督标定和验证的技术。在实施例中,自动标定和验证管道估计和评价旋转和平移元素(“外部参数”)的精度。标定过程将三维(3D)平面、向量和点对应关系组合以估计照相机到LiDAR坐标变换的外部参数。
还提供了用于使用形状与相框共享相似度的简单验证板来验证标定的技术。通过将LiDAR点投影到照相机图像上并观察由两个传感器在照相机的整个视野中捕获到的验证板的共同特征,来定性地评价标定的精度。如果与特定共同验证板相对应的LiDAR点停留在照相机图像中的验证板上,则标定被分类为可接受的。
在实施例中,一种方法,包括:从运载工具的光检测和测距传感器即LiDAR传感器接收包括从一个或多个标定板(calibration target)所返回的第一组LiDAR点的第一点云;从所述运载工具的照相机传感器接收包括所述一个或多个标定板的第一照相机图像;使用所述运载工具的一个或多个处理器,从所述第一组LiDAR点和所述第一照相机图像中提取所述一个或多个标定板的特征;使用所述一个或多个处理器,将从所述第一组LiDAR点和所述第一照相机图像中所提取的特征相关联,以确定匹配的特征;使用所述一个或多个处理器,至少部分基于匹配的特征来估计从LiDAR坐标到照相机坐标或者从照相机坐标到LiDAR坐标的坐标变换的外部参数;从所述LiDAR传感器接收包括从一个或多个验证板(validation target)所返回的第二组LiDAR点的第二点云;从所述照相机传感器接收包括所述一个或多个验证板的第二照相机图像;使用所述坐标变换将所述第二组LiDAR点投影到所述第二照相机图像中的所述一个或多个验证板上;使用所述一个或多个处理器,估计与所估计的外部参数的精度有关的一个或多个上限;使用所述一个或多个处理器,根据所计算出的与精度有关的一个或多个上限,来确定所述第二组LiDAR点中的指定数量或百分比的LiDAR点是否位于所述第二照相机图像中所包括的所述一个或多个验证板上或内;以及根据在与精度有关的上限内、来自所述第二组LiDAR点的指定数量或百分比的LiDAR点位于所述第二照相机图像中的所述一个或多个验证板上或内,将所述坐标变换的所估计的外部参数视为有效。
在实施例中,所提取的特征包括用于对所述一个或多个标定板的平面进行定义的向量的量,并且通过将LiDAR坐标中的向量的量与照相机坐标中的对应向量的量对齐来估计所述外部参数,以及其中,在向量的量在与向量的量的旋转和平移有关的所定义的约束内相对应的情况下,向量的量匹配。
在实施例中,估计与精度有关的一个或多个上限考虑了与手动测量的平移参数相关联的不确定性、以及所述一个或多个验证板的尺寸和位置。
在实施例中,使用两个验证板,第一验证板与照相机相距第一距离,并且第二验证板与照相机相距比所述第一距离远的第二距离,以及其中,所述第一验证板用于估计与所估计的外部参数中所包括的所估计的平移参数的精度有关的第一上限,并且所述第二验证板用于估计与所估计的外部参数中所包括的所估计的旋转参数有关的第二上限。
在实施例中,与所估计的外部参数的估计侧倾角有关的上限是从两个验证板中的较大验证板的长度和厚度导出的。
在实施例中,使用所述运载工具的一个或多个处理器来从所述第一组LiDAR点中提取所述一个或多个标定板的特征还包括:将所述第一组LiDAR点聚类为LiDAR点的空间簇;针对各簇,过滤该簇内的LiDAR点以检测离群LiDAR点;通过从该簇中去除任何检测到的离群LiDAR点来细化该簇;通过该簇的凸包(convex hull)过滤该簇,其中所述凸包形成已知尺寸的矩形;检测该簇中的边缘点;将所述边缘点投影到该簇的平面上;将二维矩形即2D矩形拟合到所述边缘点;通过对约束优化问题进行公式化和求解,确定所拟合的2D矩形是否定义了标定板,所述约束优化问题包含与所述2D矩形的几何形状和尺寸有关的先验;以及根据所拟合的2D矩形定义了标定板,导出所述2D矩形的平面向量、边界向量和质心作为所述标定板的特征。
在实施例中,检测簇中的边缘点包括:针对表现出大于阈值的深度连续性的点来对点云进行过滤;在如下的波束上识别过滤点,所述波束的深度值低于同一波束上的两个最近邻LiDAR点至少之一的深度值;计算所检测到的边缘点之间的交点;以及将各边缘点链接至包含该边缘点的簇。
在实施例中,使用所述运载工具的一个或多个处理器来从所述第一照相机图像中提取所述一个或多个标定板的特征还包括:使用计算机视觉处理来检测所述第一照相机图像中的所述一个或多个标定板;以及通过针对各标定板求解透视n点问题即PnP问题,来从所检测到的标定板中提取三个标定板向量,其中各标定板的各角的全局坐标和像素坐标之间的PnP问题的解是从照相机坐标到标定板坐标的变换,从而将该角从标定板坐标系变换到照相机坐标系,以及其中,所述变换的列向量相当于相对于所述照相机坐标系的三个标定板向量,其中标定板的各质心是通过相对于所述照相机坐标系表示各标定板的所有角点所导出的,以及其中,所述质心相当于所述照相机坐标系中的所有角的平均姿态。
在实施例中,针对表现出大于阈值的深度连续性的点来对点云进行过滤。
在实施例中,所述一个或多个标定板是平面棋盘格。
在实施例中,一种系统或设备,包括:一个或多个处理器;以及存储有指令的存储器,所述指令在由所述一个或多个处理器执行时,使得所述一个或多个处理器进行上述方法中的任一方法。
在实施例中,一种非暂时性计算机可读介质,用于存储指令,所述指令在由一个或多个处理器执行时,使得所述一个或多个处理器进行上述方法中的任一方法。
所公开的实施例中的一个或多个提供了以下优点中的一个或多个。使用单步来在考虑到平移和旋转误差的与精度有关的上限内标定和验证照相机到LiDAR坐标变换的精度。除了仅要求单步之外,整个过程仅仅依赖于一个或多个平面标定板(例如,棋盘格)以及一个或多个简单的几何验证板(例如,矩形板框)。所公开的实施例可扩展到诸如必须确保和维持高标定标准的自主运载工具等的商业应用。
这些和其它方面、特征和实现可被表示为方法、设备、系统、组件、程序产品、用于进行功能的方法或步骤以及其它方式。
从以下的包括权利要求书的说明书,这些和其它方面、特征和实现将变得明显。
附图说明
图1示出根据一个或多个实施例的具有自主能力的自主运载工具(AV)的示例。
图2例示根据一个或多个实施例的示例“云”计算环境。
图3例示根据一个或多个实施例的计算机系统。
图4示出根据一个或多个实施例的AV的示例架构。
图5示出根据一个或多个实施例的感知模块可以使用的输入和输出的示例。
图6示出根据一个或多个实施例的LiDAR系统的示例。
图7示出根据一个或多个实施例的操作中的LiDAR系统。
图8示出根据一个或多个实施例的LiDAR系统的操作的附加细节。
图9示出根据一个或多个实施例的规划模块的输入和输出之间的关系的框图。
图10示出根据一个或多个实施例的路径规划中所使用的有向图。
图11示出根据一个或多个实施例的控制模块的输入和输出的框图。
图12示出根据一个或多个实施例的控制器的输入、输出和组件的框图。
图13A和13B示出根据一个或多个实施例的离线传感器标定系统。
图14示出根据一个或多个实施例的使用棋盘格板来导出LiDAR到照相机变换。
图15是根据一个或多个实施例的外部标定和验证系统的框图。
图16示出根据一个或多个实施例的如何从LiDAR点云和照相机图像中的第i个棋盘格姿态提取信息以得到棋盘格的第i个单位法向量、第i个单位边界向量和第i个质心。
图17示出根据一个或多个实施例的将簇的边缘点投影到簇的平面上并拟合到二维(2D)矩形的LiDAR特征提取。
图18A示出根据一个或多个实施例的从LiDAR特征分割/提取得到的所识别的簇。
图18B示出根据一个或多个实施例的从LiDAR特征分割/提取得到的过滤后的簇。
图18C示出根据一个或多个实施例的从LiDAR特征分割/提取得到的所检测到的边缘点。
图18D示出根据一个或多个实施例的从LiDAR特征分割/提取得到的所提取的棋盘格特征。
图19A示出根据一个或多个实施例的在验证过程中使用的框尺寸。
图19B示出根据一个或多个实施例的在验证过程中使用的框放置。
图20A示出根据一个或多个实施例的与图19A的框相对应的LiDAR点。
图20B示出根据一个或多个实施例的如由照相机观察到的框的图像。
图20C示出根据一个或多个实施例的具有可接受的外部标定参数的LiDAR点在照相机图像上的投影。
图21A和21B示出根据一个或多个实施例的由增加了使所有的LiDAR框点移位到框本身上所需的横摆量的框给出的初始误差界限。
图22A和22B是根据一个或多个实施例的用于标定和验证在从照相机到LiDAR的坐标变换中使用的外部参数的处理的流程图。
具体实施方式
在以下描述中,为了解释的目的,阐述了许多具体细节,以便提供对本发明的透彻理解。然而,显而易见的是,本发明可以在没有这些具体细节的情况下实施。在其它实例中,众所周知的构造和装置是以框图形式示出的,以避免不必要地使本发明模糊。
在附图中,为了便于描述,显示了示意要素的具体安排或次序,例如表示设备、模块、指令块和数据要素的那些要素。然而,本领域技术人员应当理解,附图中示意要素的具体排序或安排并不意味着要求特定的处理顺序或序列、或处理过程的分离。此外,在附图中包含示意性要素并不意味着在所有实施例中都需要这种要素,也不意味着由这种要素表示的特征不能包括在一些实施例中或不能在一些实施例中与其它要素结合。
此外,在附图中,连接要素、例如实线或虚线或箭头用于说明两个或两个以上其它示意要素之间的连接、关系或关联,没有任何此类连接要素并不意味着不能存在连接、关系或关联。换句话说,一些要素之间的连接、关系或关联未在附图中显示,以便不掩盖本发明。此外,为了便于说明,使用单个连接要素来表示要素之间的多个连接、关系或关联。例如,如果连接元件代表信号、数据或指令的通信,本领域技术人员应理解,该元件代表影响通信可能需要的一个或多个信号路径(例如,总线)。
现在将详细参考实施例,其示例在附图中示出。在下面的详细描述中,阐述了许多具体细节,以便提供对所描述的各种实施例的透彻理解。然而,对于本领域的普通技术人员来说明显的是,可以在没有这些具体细节的情况下实施所描述的各种实施例。在其它情况下,没有详细描述众所周知的方法、程序、组件、电路和网络,以便不会不必要地掩盖实施例的方面。
下面描述的若干特征可以彼此独立地使用,也可以与其它特征的任何组合一起使用。但是,任何个别特征可能不能解决上述任何问题,或者只能解决上述问题之一。上文讨论的一些问题可能不能通过本文所述的任何一个特征得到充分解决。虽然提供了标题,但在本说明的其它地方也可以找到与某一标题有关但在该标题部分未找到的信息。本文根据以下概要描述实施例:
1.总体概述
2.系统概述
3.自主运载工具架构
4.自主运载工具输入
5.自主运载工具规划
6.自主运载工具控制
7.离线照相机到LiDAR标定
8.离线照相机到LiDAR验证
总体概述
所公开的用于照相机到LiDAR标定的实施例依赖于照相机和LiDAR这两者都可见的至少一个标定板(例如,棋盘格)。标定过程所用的输入包括来自照相机和LiDAR的(一个或多个)标定板的单步(single shot)、照相机的内部参数、照相机矩阵和畸变系数、可见标定板的数量、标定板的尺寸、以及标定板的角之间的间距。所公开的实施例自动检测各标定板所跨越的平面、标定板的边界向量的方向、以及标定板在照相机图像和LiDAR点云这两者中的质心。通过对透视n点(PnP)问题求解,针对照相机图像中的各标定板获得标定所需的信息。在LiDAR点云中,将矩形拟合到各所检测到的标定板簇,并且通过对齐所识别的特征来估计照相机到LiDAR变换的外部参数。
所公开的用于验证标定的实施例使用形状与相框共享相似度的简单验证板。通过使用照相机到LiDAR坐标变换将包含验证板的LiDAR点投影到照相机图像上、并观察由两个传感器在照相机的整个视野中捕获到的验证板的共同特征,来定性地评价标定的精度。如果与特定共同验证板相对应的LiDAR点停留在照相机图像中的相同验证板上,则标定被分类为可接受的。
系统概述
图1示出具有自主能力的自主运载工具100的示例。
如本文所使用的,术语“自主能力”是指一种功能、特征或设施,该功能、特征或设施使运载工具能够部分地或完全地运行,而无需实时的人类干预,包括但不限于完全自主运载工具、高度自主运载工具和有条件自主运载工具。
如本文所使用的,自主运载工具(AV)是一种具有自主能力的运载工具。
如本文所使用的,“运载工具”包括货物或人员的运输方式。例如,小汽车、公共汽车、火车、飞机、无人机、卡车、船只、舰艇、潜水器、飞船等。无人驾驶的小汽车是运载工具的示例。
如本文所使用的,“轨迹”是指将AV从第一时空地点操作到第二时空地点的路径或路线。在实施例中,第一时空地点被称为初始地点或起始地点,第二时空地点被称为目的地、最终地点、目标、目标位置或目标地点。在一些示例中,轨迹由一个或多个路段(例如,道路的数段)组成,并且各路段由一个或多个块(例如,车道或交叉口的一部分)组成。在实施例中,时空地点对应于真实世界地点。例如,时空地点是上车或下车地点,以使人员或货物上车或下车。
如本文所使用的,“(一个或多个)传感器”包括一个或多个硬件组件,用于检测与传感器周围环境有关的信息。一些硬件组件可包括感测组件(例如,图像传感器、生物测量传感器)、发送和/或接收组件(例如,激光或射频波发射器和接收器)、电子组件(例如,模数转换器)、数据存储装置(例如,RAM和/或非易失性存储器)、软件或固件组件和数据处理组件(例如,专用集成电路)、微处理器和/或微控制器。
如本文所使用的,“场景描述”是一种数据结构(例如,列表)或数据流,其包括由AV运载工具上的一个或多个传感器检测到的一个或多个分类或标记的对象,或由AV外部的源提供的一个或多个分类或标记的对象。
如本文所使用的,“道路”是一个可以被运载工具穿过的物理区域,并且可以对应于已命名的通道(例如,城市街道、州际高速公路等)或可对应于未命名的通道(例如,房屋或办公楼内的行车道、停车场的一段、空置停车场的一段、乡村地区的污物通道等)。因为有些运载工具(如四轮驱动的小卡车、越野车(SUV)等)能够穿越各种不特别适合运载工具行驶的物理区域,因此“道路”可以是任何市政当局或其它政府或行政机构没有正式界定为一条通道的物理区域。
如本文所使用的,“车道”是道路的可被运载工具穿过的部分,并且可对应于车道标记之间的大部分或全部空间,或仅对应于车道标记之间的部分空间(例如,小于50%)。例如,具有相距很远的车道标记的道路可能容纳两个或两个以上的运载工具,使得一个运载工具可以在不穿过车道标记的情况下超过另一个运载工具,因此可被解释为车道比车道标记之间的空间窄,或车道之间有两个车道。在没有车道标记的情况下,也可以对车道进行解释。例如,可以基于环境的物理特征(例如,农村地区的岩石和沿着大道的树木)来定义车道。
“一个或多个”包括由一个要素执行的功能,由多个要素执行的功能、例如以分布式的方式,由一个要素执行的几个功能,由几个要素执行的几个功能,或上述的任意组合。
还将理解的是,尽管在某些情况下,术语“第一”、“第二”等是用来描述各种要素的,但这些要素不应受到这些术语的限制。这些术语仅用于区分一个要素与另一个要素。例如,在未背离各种所述实施例的范围的情况下,第一触点可被称为第二触点,并且同样,第二触点可被称为第一触点。第一触点和第二触点都是触点,但这两者不是相同触点。
此处描述的各种实施例的描述中使用的术语仅用于描述特定实施例,而不是意在限制。正如在所描述的各种实施例和所附权利要求书的描述中所使用的,单数形式“a”、“an”和“the”也意在包括复数形式,除非上下文另有明确说明。还应理解,本文所用的"和/或"一词是指并且包括一个或多个相关清单项目的任何和所有可能的组合。还应理解的是,在本说明中使用的术语“包括”、“包含”、“具备”和/或“具有”具体说明存在所述的特征、整数、步骤、操作、要素和/或组成部分,但并不排除存在或添加一个或多个其它特征、整数、步骤、操作、要素、组成部分、和/或上述的组。
如本文所使用的,“如果”一词可选择地理解为在该情况下、在当时、或者响应于检测到、或响应于确定为,视上下文而定。同样,“如果已确定”或“如果[所述条件或事件]已被检测到”这一短语,视情境而定,可以理解为“在确定时”或“响应于确定为“或”在检测到[所述条件或事件]时”或“响应于检测到[所述条件或事件]”。
如本文所使用的,AV系统是指AV以及实时生成的支持AV操作的硬件、软件、存储的数据和实时生成的支持AV运作的数据。在实施例中,AV系统并入在AV内。在实施例中,AV系统跨多个地点分布。例如,AV系统的一些软件是在类似于下面结合图3描述的云计算环境300的云计算环境中实现的。
一般而言,本文件描述了适用于任何具有一种或多种自主能力的运载工具的技术,包括完全自主运载工具、高度自主运载工具和有条件自主运载工具,如所谓的第5级、第4级和第3级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶系统相关术语的分类和定义,通过引用将其全部内容纳入本说明,以了解运载工具自主权等级的更多详细信息)。本说明所述技术也适用于部分自主运载工具和驾驶员辅助运载工具,如所谓的2级和1级运载工具(见SAE国际标准J3016:道路上机动车自动驾驶系统相关术语的分类和定义)。在实施例中,一个或多个1级、2级、3级、4级和5级运载工具系统可根据对传感器输入的处理,在某些操作条件下自动执行某些运载工具操作(例如,转向、制动和使用地图)。本文件中所述的技术可以使从完全自主运载工具到人类操作的运载工具的各级运载工具受益。
参考图1,AV系统120使AV 100沿着轨迹198运行,穿过环境190至目的地199(有时称为最终地点),同时避开对象(例如,自然障碍物191、运载工具193、行人192、骑车者和其它障碍物)和遵守道路规则(例如,操作规则或驾驶偏好)。
在实施例中,AV系统120包括用于从计算机处理器146接收操作命令并对其进行操作的装置101。在实施例中,计算处理器146与下面参考图3描述的处理器304相似。装置101的示例包括转向控制器102、制动器103、挡位、加速踏板或其它加速控制机构、挡风玻璃雨刮器、侧门锁、窗控器和转向指示器。
在实施例中,AV系统120包括用于测量或推断AV 100的状态或条件的属性的传感器121,这些属性例如是AV的位置、线速度和加速度及角速度和加速度、以及航向(例如,AV100的前端的方向)。传感器121的示例是GNSS、以及测量运载工具线性加速度和角速率的惯性测量单元(IMU)、用于测量或估计车轮滑移率的车轮速率传感器、车轮制动压力或制动扭矩传感器、引擎扭矩或车轮扭矩传感器以及转向角度和角速率传感器。
在实施例中,传感器121还包括用于感测或测量AV的环境的属性的传感器。例如,可见光、红外或热(或两者兼有)光谱的单目或立体摄像机122、LiDAR 123、RADAR、超声波传感器、飞行时间(TOF)深度传感器、速率传感器、温度传感器、湿度传感器和降水传感器。
在实施例中,AV系统120包括数据存储单元142和存储器144,用于存储与计算机处理器146或由传感器121收集的数据相关的机器指令。在实施例中,数据存储单元142与以下结合图3描述的ROM 308或存储装置310类似。在实施例中,存储器144与下面描述的主存储器306类似。在实施例中,数据存储单元142和存储器144存储有关环境190的历史、实时和/或预测性信息。在实施例中,存储的信息包括地图、驾驶性能、交通拥堵更新或天气条件。在实施例中,与环境190有关的数据通过来自远程数据库134的通信通道传输到AV 100。
在实施例中,AV系统120包括通信装置140,用于将对其它运载工具的状态和条件(诸如位置、线性和角速度、线性和角加速度以及线性和角航向等)的测量到或推断的属性传送到AV 100。这些装置包括运载工具到运载工具(V2V)和运载工具到基础设施(V2I)通信装置以及用于通过点对点或自组织(ad hoc)网络或两者兼而有之进行无线通信的装置。在实施例中,通信装置140跨电磁频谱(包括无线电和光通信)或其它介质(例如,空气和声学介质)进行通信。运载工具对运载工具(V2V)、运载工具对基础设施(V2I)通信(以及在一些实施例中为一种或多种其它类型的通信)的组合有时被称为运载工具对所有事物(V2X)通信。V2X通信通常符合一个或多个通信标准,用于与自主运载工具进行的和在自主运载工具之间的通信。
在实施例中,通信装置140包括通信接口。例如,有线、无线、WiMAX、Wi-Fi、蓝牙、卫星、蜂窝、光、近场、红外或无线电接口。通信接口将数据从远程数据库134传输到AV系统120。在实施例中,远程数据库134嵌入云计算环境200中,如图2中所述。通信接口140将从传感器121收集的数据或与AV 100操作有关的其它数据传输到远程数据库134。在实施例中,通信接口140向AV 100传输与远程操作有关的信息。在一些实施例中,AV 100与其它远程(例如,“云”)服务器136通信。
在实施例中,远程数据库134还存储和传输数字数据(例如,存储道路和街道地点等的数据)。这些数据存储在AV 100上的存储器144中,或者通过通信通道从远程数据库134传输到AV 100。
在实施例中,远程数据库134存储和传输与以前在一天中类似时间沿着轨迹198行驶的运载工具的驾驶属性有关的历史信息(例如,速率和加速率分布)。在一个实现中,这种数据可以存储在AV 100上的存储器144中,或者通过通信通道从远程数据库134传输到AV100。
位于AV 100上的计算装置146基于实时传感器数据和先验信息以算法方式生成控制动作,使得AV系统120能够执行其自主驾驶能力。
在实施例中,AV系统120包括连接到计算装置146的计算机外围设备132,用于向AV100的用户(例如,乘员或远程用户)提供信息和提醒并接收来自该用户的输入。在实施例中,外围设备132类似于下面参考图3讨论的显示器312、输入装置314和光标控制器316。连接是无线的或有线的。任意两个或更多的接口设备可以集成到单个设备中。
示例云计算环境
图2例示示例“云”计算环境。云计算是一种服务交付模式,可以方便、按需地在网络上访问共享的可配置计算资源池(例如网络、网络带宽、服务器、处理、内存、存储、应用程序、虚拟机和服务)。在典型的云计算系统中,一个或多个大型云数据中心容纳用于递送云所提供的服务的机器。现在参考图2,云计算环境200包括通过云202互连的云数据中心204a、204b和204c。数据中心204a、204b和204c为连接到云202的计算机系统206a、206b、206c、206d、206e和206f提供云计算服务。
云计算环境200包括一个或多个云数据中心。通常,云数据中心(例如图2中所示的云数据中心204a)是指构成云(例如图2中所示的云202或云的特定部分)的服务器的物理排列。例如,服务器在云数据中心中物理排列成房间、组、行和机架。云数据中心有一个或多个区域,其中包括一个或多个服务器房间。每个房间有一行或多行服务器,每行都包括一个或多个机架。每个机架包括一个或多个单独的服务器节点。在一些实现中,区域、房间、机架和/或行中的服务器根据数据中心设施的物理基础设施要求(包括电力、能源、热力、热源和/或其它要求)分为若干组。在实施例中,服务器节点类似于图3中描述的计算机系统。数据中心204a具有许多分布在多个机架上的计算系统。
云202包括云数据中心204a、204b和204c以及用于连接云数据中心204a、204b和204c并有助于促进计算系统206a-f对云计算服务的访问的网络和网络资源(例如,网络设备、节点、路由器、交换机和网络电缆)。在实施例中,该网络表示一个或多个本地网络、广域网或通过使用地面或卫星连接部署的有线或无线链路连接的网际网络的任意组合。通过网络交换的数据采用多种网络层协议(如Internet协议(IP)、多协议标签交换(MPLS)、异步传输模式(ATM)、帧中继(FrameRelay)等)进行传输。此外,在网络代表多个子网络的组合的实施例中,在每个底层子网络上使用不同的网络层协议。在一些实施例中,网络代表一个或多个互连网际网络(例如公共互联网等)。
计算系统206a-f或云计算服务消费者通过网络链路和网络适配器连接到云202。在实施例中,计算系统206a-f被实现为各种计算装置,例如服务器、台式机、膝上型计算机、平板电脑、智能手机、物联网(IoT)设备、自主运载工具(包括小汽车、无人机、航天飞机、火车、公共汽车等)和消费电子产品。在实施例中,计算系统206a-f在其它系统中实现或作为其它系统的一部分实现。
计算机系统
图3例示计算机系统300。在实现中,计算机系统300是一种专用计算装置。专用计算装置被硬连线以执行这些技术,或包括诸如一个或多个专用集成电路(ASIC)或现场可编程门阵列(FPGA)等的被持久编程为进行上述技术的数字电子装置,或可包括一个或多个通用硬件处理器,这些硬件处理器经编程以根据固件、存储器、其它存储器、或者组合中的程序指令执行这些技术。这种专用的计算装置还可以将定制的硬线逻辑、ASIC或FPGA与定制的编程相结合来完成这些技术。在各种实施例中,专用计算装置是台式计算机系统、便携式计算机系统、手持设备、网络设备或包含硬线和/或程序逻辑以实现这些技术的任何其它设备。
在实施例中,计算机系统300包括总线302或用于通信信息的其它通信机制、以及与总线302连接以处理信息的硬件处理器304。硬件处理器304是例如通用微处理器。计算机系统300还包括主存储器306,例如随机存取存储器(RAM)或其它动态存储装置,连接到总线302以存储信息和指令,该信息和指令由处理器304执行。在一个实现中,主存储器306用于在执行要由处理器304执行的指令期间存储临时变量或其它中间信息。当这些指令存储在处理器304可访问的非暂时性存储介质中时,使计算机系统300变成一个专用机器,该机器被定制以执行指令中指定的操作。
在实施例中,计算机系统300还包括只读存储器(ROM)308或连接到总线302的其它静态存储装置,用于存储处理器304的静态信息和指令。提供诸如磁盘、光盘、固态驱动器或三维交叉点存储器等的存储装置310,并连接到总线302以存储信息和指令。
在实施例中,计算机系统300通过总线302连接到诸如阴极射线管(CRT)、液晶显示器(LCD)、等离子体显示器、发光二极管(LED)显示器或用于向计算机用户显示信息的有机发光二极管(OLED)显示器等的显示器312。包括字母数字键和其它键的输入装置314连接到总线302,用于向处理器304传送信息和命令选择。另一种类型的用户输入装置是光标控制器316,例如鼠标、轨迹球、触控显示器或光标方向键,用于将方向信息和命令选择传送到处理器304,并用于控制光标在显示器312上的移动。这种输入装置通常具有两个轴线上的两个自由度,第一轴线(例如,x轴)和第二轴线(例如,y轴),这两个轴线允许装置指定平面上的位置。
根据一个实施例,这里的技术由计算机系统300执行,以响应处理器304执行主存储器306中包含的一个或多个指令的一个或多个序列。这些指令从诸如存储装置310等的另一存储介质读入主存储器306。执行主存储器306中包含的指令序列使处理器304执行本文所述的处理步骤。在替代实施例中,使用硬连线电路代替或与软件指令结合使用。
此处使用的术语“存储介质”是指存储数据和/或指令的任何非暂时性介质,这些数据和/或指令使机器以特定方式运行。这种存储介质包括非易失性介质和/或易失性介质。非易失性介质例如包括诸如存储装置310等的光盘、磁盘、固态驱动器或三维交叉点存储器。易失性介质包括动态存储器,诸如主存储器306等。存储介质的常见形式包括例如软盘、软盘、硬盘、固态驱动器、磁带或任何其它磁数据存储介质、CD-ROM、任何其它光数据存储介质、任何具有孔型的物理介质、RAM、PROM和EPROM、FLASH-EPROM、NV-RAM、或任何其它存储芯片或存储盒。
存储介质有别于传输介质,但可以与传输介质相结合使用。传输介质参与存储介质之间的信息传输。例如,传输介质包括同轴电缆、铜线和光纤,其包括具备总线302的电线。传输介质也可以采取声波或光波的形式,如在无线电波和红外数据通信过程中产生的声波或光波。
在实施例中,各种形式的介质涉及向处理器304携带一个或多个指令序列以供执行。例如,这些指令最初是在远程计算机的磁盘或固态驱动器上执行的。远程计算机将指令加载到其动态存储器中,并使用调制解调器通过电话线路发送指令。计算机系统300的本地调制解调器接收电话线路上的数据,并使用红外发射机将数据转换为红外信号。红外检测器接收红外信号中携带的数据,并且适当的电路将数据放置在总线302上。总线302将数据承载到主存储器306,处理器304从主存储器306检索并执行指令。主存储器306接收的指令可以任选地在处理器304执行之前或之后存储在存储装置310上。
计算机系统300还包括连接到总线302的通信接口318。通信接口318提供耦合到连接至本地网络322的网络链路320多双向数据通信。例如,通信接口318是综合业务数字网(ISDN)卡、电缆调制解调器、卫星调制解调器或用以提供与相应类型电话线路的数据通信连接的调制解调器。作为另一示例,通信接口318是局域网(LAN)卡,用于提供与兼容LAN的数据通信连接。在一些实现中,无线链路也被实现。在任何这种实现中,通信接口318发送和接收承载代表各种信息的数字数据流的电、电磁或光信号。
网络链路320通常通过一个或多个网络向其它数据装置提供数据通信。例如,网络链路320通过本地网络322提供与主计算机324或与由因特网服务提供商(ISP)326运营的云数据中心或设备的连接。ISP 326又通过现在通常称为“因特网”的世界范围分组数据通信网络来提供数据通信服务。本地网络322和因特网328都使用携带数字数据流的电、电磁或光信号。通过各种网络的信号以及网络链路320上并通过通信接口318的信号是传输介质的示例形式,其中通信接口318承载了进出计算机系统300的数字数据。在实施例中,网络320包含上述云202或云202的一部分。
计算机系统300通过(一个或多个)网络、网络链路320和通信接口318发送消息和接收包括程序代码的数据。在实施例中,计算机系统300接收用于处理的代码。接收到的代码在接收到时由处理器304执行,和/或存储在存储装置310中,或存储在其它非易失性存储装置中以便以后执行。
自主运载工具架构
图4示出用于自主运载工具(例如,图1所示的AV 100)的示例架构400。架构400包括感知模块402(有时称为感知电路)、规划模块404(有时称为规划电路)、控制模块406(有时称为控制电路)、定位模块408(有时称为定位电路)和数据库模块410(有时称为数据库电路)。各模块在AV 100的操作中发挥作用。共同地,模块402、404、406、408和410可以是图1所示的AV系统120的一部分。在一些实施例中,模块402、404、406、408和410中的任何模块是计算机软件(例如,计算机可读介质上所存储的可执行代码)和计算机硬件(例如,一个或多个微处理器、微控制器、专用集成电路[ASIC]、硬件存储器装置、其它类型的集成电路、其它类型的计算机硬件、或者这些硬件中的任何或所有的组合)的组合。
在使用中,规划模块404接收表示目的地412的数据,并且确定表示AV 100为了到达(例如,抵达)目的地412而可以行驶的轨迹414(有时称为路线)的数据。为了使规划模块404确定表示轨迹414的数据,规划模块404从感知模块402、定位模块408和数据库模块410接收数据。
感知模块402使用例如也如图1所示的一个或多个传感器121来识别附近的物理对象。将对象分类(例如,分组成诸如行人、自行车、汽车、交通标志等的类型),并且将包括经分类的对象416的场景描述提供至规划模块404。
规划模块404还从定位模块408接收表示AV位置418的数据。定位模块408通过使用来自传感器121的数据和来自数据库模块410的数据(例如,地理数据)以计算位置来确定AV位置。例如,定位模块408使用来自GNSS(全球操作卫星系统)传感器的数据和地理数据来计算AV的经度和纬度。在实施例中,定位模块408所使用的数据包括具有行车道几何属性的高精度地图、描述道路网络连接属性的地图、描述行车道物理属性(诸如交通速率、交通量、运载工具和自行车车道的数量、车道宽度、车道交通方向、或车道标记类型和地点,或者它们的组合)的地图、以及描述道路特征(诸如十字路口、交通标志或各种类型的其它行驶信号等)的空间地点的地图。
控制模块406接收表示轨迹414的数据和表示AV位置418的数据,并且以将使得AV100行驶轨迹414到达目的地412的方式来操作AV的控制功能420a~420c(例如,转向、油门、制动、点火)。例如,如果轨迹414包括左转,则控制模块406将以如下方式操作控制功能420a~420c:转向功能的转向角度将使得AV 100左转,并且油门和制动将使得AV 100在进行转弯之前暂停并等待经过的行人或运载工具。
自主运载工具输入
图5示出感知模块402(图4)所使用的输入502a-502d(例如,图1中所示的传感器121)和输出504a-504d(例如,传感器数据)的示例。一个输入502a是LiDAR(光检测和测距)系统(例如,图1所示的LiDAR 123)。LiDAR是使用光(例如,诸如红外光等的一道光)来获得与其视线中的物理对象有关的数据的技术。LiDAR系统产生LiDAR数据作为输出504a。例如,LiDAR数据是用于构造环境190的表现的3D或2D点(也称为点云)的集合。
另一输入502b是RADAR(雷达)系统。RADAR是使用无线电波来获得与附近的物理对象有关的数据的技术。RADAR可以获得与不在LiDAR系统的视线内的对象有关的数据。RADAR系统502b产生RADAR数据作为输出504b。例如,RADAR数据是用于构造环境190的表现的一个或多个射频电磁信号。
另一输入502c是照相机系统。照相机系统使用一个或多个照相机(例如,使用诸如电荷耦合器件[CCD]等的光传感器的数字照相机)来获取与附近的物理对象有关的信息。照相机系统产生照相机数据作为输出504c。照相机数据通常采用图像数据的形式(例如,诸如RAW、JPEG、PNG等的图像数据格式的数据)。在一些示例中,照相机系统具有例如为了立体影像(立体视觉)的目的的多个独立照相机,这使得照相机系统能够感知深度。尽管照相机系统所感知的对象在这里被描述为“附近”,但这是相对于AV而言的。在使用中,照相机系统可被配置为“看见”远处的(例如,AV前方的远至1公里以上的)对象。因此,照相机系统可以具有为了感知遥远的对象而优化的诸如传感器和透镜等的特征。
另一输入502d是交通灯检测(TLD)系统。TLD系统使用一个或多个照相机来获得与交通灯、街道标志和提供视觉操作信息的其它物理对象有关的信息。TLD系统产生TLD数据作为输出504d。TLD数据经常采用图像数据的形式(例如,诸如RAW、JPEG、PNG等的图像数据格式的数据)。TLD系统与包含照相机的系统的不同之处在于:TLD系统使用具有宽视场(例如,使用广角镜头或鱼眼镜头)的照相机,以获得与尽可能多的提供视觉操作信息的物理对象有关的信息,使得AV 100有权访问这些对象所提供的所有相关操作信息。例如,TLD系统的视角可以为约120度以上。
在一些实施例中,使用传感器融合技术来组合输出504a-504d。因而,将个体输出504a-504d提供至AV 100的其它系统(例如,提供至如图4所示的规划模块404),或者采用相同类型(例如,使用相同组合技术或组合相同输出或者这两者)或不同类型(例如,使用不同的各个组合技术或组合不同的各个输出或者这两者)的单个组合输出或多个组合输出的形式,可以将组合输出提供至其它系统。在一些实施例中,使用早期融合技术。早期融合技术的特征在于:将输出组合,之后将一个或多个数据处理步骤应用到组合输出。在一些实施例中,使用后期融合技术。后期融合技术的特征在于:在将一个或多个数据处理步骤应用到个体输出之后,将输出组合。
图6示出LiDAR系统602的示例(例如,图5所示的输入502a)。LiDAR系统602从发光器606(例如,激光发射器)发射光604a-604c。LiDAR系统所发射的光通常不在可见光谱中;例如,经常使用红外光。所发射的光604b中的一些光遇到物理对象608(例如,运载工具)并且反射回到LiDAR系统602。(从LiDAR系统发射的光通常不会穿透物理对象,例如,实心形式的物理对象。)LiDAR系统602还具有用于检测反射光的一个或多个光检测器610。在实施例中,与LiDAR系统相关联的一个或多个数据处理系统生成表示LiDAR系统的视场614的图像612。图像612包括表示物理对象608的边界616的信息。这样,图像612用于确定AV附近的一个或多个物理对象的边界616。
图7示出操作中的LiDAR系统602。在该图所示的情境中,AV 100接收采用图像702的形式的照相机系统输出504c和采用LiDAR数据点704的形式的LiDAR系统输出504a。在使用中,AV 100的数据处理系统将图像702与数据点704进行比较。特别地,在数据点704中也识别出在图像702中识别出的物理对象706。这样,AV 100基于数据点704的轮廓和密度来感知物理对象的边界。
图8示出LiDAR系统602的操作的附加细节。如上所述,AV 100基于LiDAR系统602所检测到的数据点的特性来检测物理对象的边界。如图8所示,诸如地面802等的平坦对象将以一致的方式反射从LiDAR系统602发射的光804a-804d。换句话说,由于LiDAR系统602使用一致的间隔发射光,因此地面802将以相同的一致间隔将光反射回到LiDAR系统602。在AV100在地面802上行驶时,在没有东西阻挡道路的情况下,LiDAR系统602将继续检测到由下一个有效地面点806反射的光。然而,如果对象808阻挡道路,则LiDAR系统602所发射的光804e-804f将以不符合预期一致方式的方式从点810a-810b反射。根据该信息,AV 100可以确定为存在对象808。
路径规划
图9示出(例如,如图4所示的)规划模块404的输入和输出之间的关系的框图900。通常,规划模块404的输出是从起点904(例如,源地点或初始地点)到终点906(例如,目的地或最终地点)的路线902。路线902通常由一个或多个路段定义。例如,路段是指要行驶经过街道、道路、公路、行车道或适合汽车行驶的其它物理区域的至少一部分的距离。在一些示例中,例如,如果AV 100是诸如四轮驱动(4WD)或全轮驱动(AWD)小汽车、SUV或小型卡车等的越野运载工具,则路线902包括诸如未铺面道路或开阔田野等的“越野”路段。
除路线902之外,规划模块还输出车道级路线规划数据908。车道级路线规划数据908用于在特定时间基于路线902的路段的条件来驶过这些路段。例如,如果路线902包括多车道公路,则车道级路线规划数据908包括轨迹规划数据910,其中AV 100可以使用该轨迹规划数据910以例如基于出口是否临近、多个车道中的一个以上的车道是否存在其它运载工具、或者在几分钟或更少时间的过程中变化的其它因素,来从这多个车道中选择某车道。同样地,在一些实现中,车道级路线规划数据908包括路线902的某路段特有的速率约束912。例如,如果该路段包括行人或非预期交通,则速率约束912可以将AV 100限制到比预期速率慢的行驶速率,例如基于该路段的限速数据的速率。
在实施例中,向规划模块404的输入包括(例如,来自图4所示的数据库模块410的)数据库数据914、当前地点数据916(例如,图4所示的AV位置418)、(例如,用于图4所示的目的地412的)目的地数据918和对象数据920(例如,如图4所示的感知模块402所感知的经分类的对象416)。在一些实施例中,数据库数据914包括规划时所使用的规则。规则是使用形式语言(例如,使用布尔逻辑)指定的。在AV 100所遇到的任何给定情形中,这些规则中的至少一些规则将适用于该情形。如果规则具有基于AV 100可用的信息(例如,与周围环境有关的信息)所满足的条件,则该规则适用于给定情形。规则可以具有优先级。例如,“如果公路是高速公路,则移动到最左侧车道”这一规则与“如果出口在一英里内临近,则移动到最右侧车道”相比可以具有更低的优先级。
图10示出在路径规划中(例如,由规划模块404(图4))使用的有向图1000。通常,如图10所示的有向图那样的有向图1000用于确定任何起点1002和终点1004之间的路径。在现实世界中,分隔起点1002和终点1004的距离可能相对较大(例如,在两个不同的都市区域中),或者可能相对较小(例如,毗邻城市街区的两个十字路口或多车道道路的两条车道)。
在实施例中,有向图1000具有表示起点1002和终点1004之间的AV 100可能占用的不同地点的节点1006a-1006d。在一些示例中,例如,在起点1002和终点1004表示不同的都市区域时,节点1006a-1006d表示道路的路段。在一些示例中,例如,在起点1002和终点1004表示相同道路上的不同地点时,节点1006a-1006d表示该道路上的不同位置。这样,有向图1000包括不同粒度级别的信息。在实施例中,具有高粒度的有向图也是具有更大规模的另一有向图的子图。例如,起点1002和终点1004相距远(例如,相距许多英里)的有向图的大部分信息处于低粒度,并且该有向图是基于所存储的数据,但该有向图还包括供该有向图中的表示AV 100的视场中的物理地点的一部分用的一些高粒度信息。
节点1006a-1006d不同于无法与节点重叠的对象1008a-1008b。在实施例中,在粒度低时,对象1008a-1008b表示汽车不能驶过的地区,例如无街道或道路的区域。在粒度高时,对象1008a-1008b表示AV 100的视场中的物理对象,例如其它汽车、行人、或AV 100不能与之共用物理空间的其它实体。在实施例中,对象1008a-1008b的一部分或全部是静态对象(例如,不改变位置的对象,诸如街灯或电线杆等)或动态对象(例如,能够改变位置的对象,诸如行人或其它小汽车等)。
节点1006a-1006d通过边缘1010a-1010c连接。如果两个节点1006a-1006b通过边缘1010a连接,则AV 100可以在一个节点1006a和另一节点1006b之间行驶,例如,而不必在到达另一节点1006b之前行驶到中间节点。(当提到AV 100在节点之间行驶时,意味着AV100在由相应节点表示的两个物理位置之间行驶。)边缘1010a-1010c通常是双向的,从某种意义上,AV 100从第一节点行驶到第二节点,或者从第二节点行驶到第一节点。在实施例中,边缘1010a-1010c是单向的,从某种意义上,AV 100可以从第一节点行驶到第二节点,然而AV 100不能从第二节点行驶到第一节点。在边缘1010a-1010c表示例如单向街道、街道、道路或公路的单独车道、或者由于法律或物理约束因而仅能沿一个方向驶过的其它特征的情况下,边缘1010a-1010c是单向的。
在实施例中,规划模块404使用有向图1000来识别由起点1002和终点1004之间的节点和边缘组成的路径1012。
边缘1010a-1010c具有关联成本1014a-1014b。成本1014a-1014b是表示在AV 100选择该边缘的情况下将花费的资源的值。典型的资源是时间。例如,如果一个边缘1010a所表示的物理距离是另一边缘1010b所表示的物理距离的两倍,则第一边缘1010a的关联成本1014a可以是第二边缘1010b的关联成本1014b的两倍。影响时间的其它因素包括预期交通、十字路口的数量、限速等。另一典型的资源是燃料经济性。两个边缘1010a-1010b可以表示相同的物理距离,但例如由于道路条件、预期天气等,因此一个边缘1010a与另一边缘1010b相比需要更多的燃料。
在规划模块404识别起点1002和终点1004之间的路径1012时,规划模块404通常选择针对成本优化的路径,例如,在将边缘的各个成本相加到一起时具有最小总成本的路径。
自主运载工具控制
图11示出(例如,如图4所示的)控制模块406的输入和输出的框图1100。控制模块根据控制器1102而工作,该控制器1102例如包括:与处理器304类似的一个或多个处理器(例如,诸如微处理器或微控制器或这两者等的一个或多个计算机处理器);与主存储器306、ROM 308和存储装置310类似的短期和/或长期数据存储装置(例如,存储器随机存取存储器或闪速存储器或这两者);以及存储器中所存储的指令,这些指令在(例如,由一个或多个处理器)执行时执行控制器1102的操作。
在实施例中,控制器1102接收表示期望输出1104的数据。期望输出1104通常包括速度,例如速率和航向。期望输出1104例如可以基于从(例如,如图4所示的)规划模块404接收到的数据。根据期望输出1104,控制器1102产生可用作油门输入1106和转向输入1108的数据。油门输入1106表示例如通过接合转向踏板或接合另一油门控件来接合AV 100的油门(例如,加速控制)以实现期望输出1104的大小。在一些示例中,油门输入1106还包括可用于接合AV 100的制动器(例如,减速控制)的数据。转向输入1108表示转向角度,例如AV的转向控制(例如,方向盘、转向角致动器或用于控制转向角度的其它功能)应被定位成实现期望输出1104的角度。
在实施例中,控制器1102接收在调整提供至油门和转向的输入时使用的反馈。例如,如果AV 100遇到诸如山丘等的干扰1110,则AV 100的测量速率1112降至低于期望输出速率。在实施例中,任何测量输出1114均被提供至控制器1102,使得例如基于测量速率和期望输出之间的差分1113来进行所需的调整。测量输出1114包括测量位置1116、测量速度1118(包括速率和航向)、测量加速度1120和AV 100的传感器可测量的其它输出。
在实施例中,例如通过诸如照相机或LiDAR传感器等的传感器预先检测与干扰1110有关的信息,并且该信息被提供至预测性反馈模块1122。然后,预测性反馈模块1122将控制器1102可用于相应地调整的信息提供至控制器1102。例如,如果AV 100的传感器检测到(“看见”)山丘,则控制器1102可以使用该信息来准备在适当时间接合油门,以避免显著减速。
图12示出控制器1102的输入、输出和组件的框图1200。控制器1102具有影响油门/制动器控制器1204的操作的速率分析器1202。例如,速率分析器1202根据例如由控制器1102接收到并由速率分析器1202处理后的反馈,来指示油门/制动器控制器1204使用油门/制动器1206进行加速或进行减速。
控制器1102还具有影响方向盘控制器1210的操作的横向跟踪控制器1208。例如,横向跟踪控制器1208根据例如由控制器1102接收到并由横向跟踪控制器1208处理后的反馈,来指示方向盘控制器1210调整转向角致动器1212的位置。
控制器1102接收用于确定如何控制油门/制动器1206和转向角致动器1212的多个输入。规划模块404提供控制器1102例如选择AV 100开始操作时的航向并确定在AV 100到达十字交叉路口时驶过哪个道路路段所使用的信息。定位模块408例如将描述AV 100的当前地点的信息提供至控制器1102,使得控制器1102可以确定AV 100是否处于基于正控制油门/制动器1206和转向角致动器1212的方式而预期所处的地点。在实施例中,控制器1102接收来自其它输入1214的信息,例如从数据库、计算机网络等接收到的信息。
离线照相机到LiDAR标定
图13A和13B示出根据一个或多个实施例的离线传感器标定系统1300。参考图13A,系统1300包括安装在转盘1302上的运载工具1301以及多个标定板1305a...1305d。运载工具1301例如可以是AV。在运载工具1301的顶部安装有3D LiDAR传感器1303和前视照相机传感器1304。尽管在该示例中示出两个传感器,但运载工具1301可以具有任何数量和类型的传感器。例如,在运载工具1301上可以安装有一个或多个背向和/或侧向照相机传感器。如本文中将说明的,将通过旋转转盘1302使得这些附加照相机传感器的瞄准线正面向标定板1305a...1305d来标定和验证这些照相机传感器。在实施例中,系统300可以容纳在用于AV的维护站中和/或包括在AV制造设施中。
尽管在该示例中示出与运载工具1301的距离不同且具有不同姿态的四个标定板,但可以使用且可以以任何期望的姿态角度和距离放置任何数量的标定板,只要这些标定板可以由照相机和LiDAR同时检测到即可。在以下的示例中,如图13B所示,标定板1305a...1305d是棋盘格。然而,本领域普通技术人员将理解,可以使用其它的平面标定板。例如,除棋盘格图案之外,还可以使用圆形网格或具有不同标度的许多特征的类噪声图案作为平面标定板。
由于棋盘格提供许多几何约束并且容易被各种照相机和LiDAR距离传感器检测到,因此棋盘格通常用于进行这两种传感器的外部标定。传统上,在照相机和LiDAR数据这两者中估计棋盘格平面参数。通过在各传感器所观察到的棋盘格之间建立平面到平面对应关系,导出LiDAR和照相机之间的坐标变换。由于各姿态通过两自由度(2-DOF)来约束变换,因此该导出要求以至少三个不同的姿态捕获棋盘格。通常,将变换矩阵的计算解耦为旋转矩阵/向量和平移向量的初始导出。在针对旋转矩阵和平移向量分别求解之后,通过联合地优化照相机和LiDAR框之间的点到平面距离来对变换进行细化。在实施例中,可以使用四元数来表示旋转。
上述方法没有利用由单个棋盘格提供的所有信息。除了估计棋盘格的平面参数之外,还可以在照相机图像和LiDAR点云这两者中导出棋盘格的正交边界向量。这些边界向量通过2-DOF来约束外部变换。此外,两个传感器模态之间的棋盘格质心的三维(3D)点对应关系生成三个进一步的约束。以下所述的所提出的标定过程利用所有提到的约束,因而单个棋盘格对于外部变换矩阵的计算而言就足够了。
图14示出根据一个或多个实施例的使用棋盘格来导出照相机到LiDAR坐标变换。如图所示,标定过程使用三个右手坐标系:以运载工具1301上的LiDAR位置为中心的LiDAR坐标系、以运载工具1301上的照相机位置为中心的照相机坐标系和以棋盘格上的期望位置为中心的棋盘格坐标系。该期望坐标变换是通过确定从LiDAR坐标到照相机坐标的变换所导出的。如方程[1]所示,可以使用矩阵乘法根据从LiDAR到棋盘格的变换和从棋盘格到照相机的变换来计算从LiDAR到照相机的变换。
图15是根据一个或多个实施例的外部标定和验证系统1500的框图。系统1500包括LiDAR传感器1502、照相机传感器1503、特征提取模块1504、外部标定模块1505和验证模块1506。现在将参考标定和验证系统1500来说明离线照相机到LiDAR标定和验证。
A.问题公式化
外部标定的基本目标是估计图14所示的描述两个传感器之间的相对位置和相对旋转的6-DOF刚体变换通过应用该变换可以将照相机坐标系中的点pC变换到LiDAR坐标系中。通过使用特征提取模块1504在两个传感器模态中提取共同特征(平面棋盘格)来计算该变换。
从在照相机坐标系C和LiDAR坐标系L这两者中观察到的处于第i个姿态的给定棋盘格,推导棋盘格的平面向量、其边界向量和其质心。在图16中使这些几何特征可视化。在照相机参照系中,设:表示第i个棋盘格的单位法向量,表示该棋盘格的单位边界向量,并且表示该棋盘格的质心。与照相机表示法类似,设:表示棋盘格的单位法向量,表示棋盘格的单位边界向量,并且表示在LiDAR坐标系中观察到的棋盘格的质心。
B.LiDAR特征提取
考虑到N个棋盘格,分割算法自动检测点云内的先前引入的几何特征。通过依赖于所观察到的棋盘格在空间上彼此分离并且与棋盘格相对应的点紧密地打包在一起这一假设,通过应用众所周知的聚类算法DBSCAN或任何其它合适的聚类算法来将点云聚类成组。然后在DBSCAN簇内对这些点进行过滤。描述单个棋盘格的所有点都应位于三维平面上。因此,使用众所周知的RANSAC算法来将平面拟合到各个簇。然后细化簇中的点,从而删除被识别为异常值的所有点。
接着,通过空间簇的凸包对空间簇进行过滤,以恢复包含棋盘格本身的簇。棋盘格簇的凸包形成已知尺寸的矩形。假定各簇的单形通过由显著深度不连续性标记的LiDAR回波形成。将这些点称为“边缘”点。如果点的深度值明显低于该点的两个最近邻至少之一的深度值,则该点被分类为边缘点。在针对边缘点进行评价时,独立地考虑各波束,因此仅考虑同一波束上的最近邻。可以针对表现出大于10厘米的深度不连续性的所有点来对原始点云进行过滤。在方程[2]中示出点p的深度不连续性值:
xp=max(ρp-1-ρp,ρp+1-ρp,0) [2]。
在方程[2]中,ρ是指径向距离(x和y分量的L2范数)。计算出所检测到的边缘点之间的交点。各边缘点链接到包含边缘点本身的簇。
在最后一个步骤中,将簇的边缘点投影到簇的平面上并拟合到2D矩形。为了将拟合问题简化为二维,应用旋转以使z轴与平面向量对齐。在LiDAR边缘点受噪声影响时,将约束优化问题公式化,该约束优化问题包含与矩形的几何形状及其尺寸有关的先验。然后,如图17所示,将处理后的边缘点分组成四个集合:Pi,i∈{1,2,...,p}、Qj,j∈{1,2,...,q}、Rk,k∈{1,2,...,r}、Sl,l∈{1,2,...,s},其中P、Q、R、S对应于矩形的四个边。由于矩形的边平行或垂直,因此根据方程[3a]-[3d],针对边界上的各点,必须满足以下的四个方程:
P:CP+n1xPi+n2yPi=0 [3a]
Q:cQ+n2xQj-n1yQj=0 [3b]
R:cR+n1xRk+n2yRk=0 [3c]
S:cS+n2xSl-n1yPSl=0 [3d]
该方程组受到[n1,n2]T的矩形的长度、宽度和大小的约束:
设x=[cP,cQ,cR,cS,n1,n2]T是以下的受到约束的非线性最小二乘问题的解:
通过采用序列二次规划法来获得方程[5]的最优解。‖r‖2的大小低于阈值0.1的所有簇被视为包含棋盘格的簇,而所有其它簇都被忽略。该处理足以将非棋盘格簇与棋盘格簇分开。
从所识别的棋盘格簇导出棋盘格平面向量该棋盘格平面向量相当于先前拟合的平面。通过将所拟合的矩形参数[n1,n2]T重新投影到LiDAR坐标系中来计算棋盘格边界向量质心被定义为所拟合的矩形的角点的平均值。
参考图18A-18D,按照如下总结示例LiDAR特征提取处理。首先对点云进行聚类,然后针对由3D平面描述的点对簇进行过滤,并且最终通过分析由簇的边缘点形成的凸包来恢复棋盘格簇。图18A示出从DBSCAN得到的所识别的簇,图18B示出过滤之后的簇,图18C示出所检测到的边缘点,并且图18D示出所提取的棋盘格特征。
C.照相机特征提取
通过使用在公开可用的OpenCV库内定义的已知计算机视觉算法来在照相机图像中自动检测棋盘格。通过针对各棋盘格求解透视n点(PnP)问题来提取与各棋盘格相关联的三个向量,其中求解PnP问题包括考虑到全局坐标中的一组3D点及其在图像中的相应2D投影来估计照相机的姿态。照相机姿态由6-DOF组成,该6-DOF由照相机相对于全局坐标的旋转(侧倾、俯仰和横摆)和3D平移组成。
各棋盘格角的全局坐标和像素坐标之间的PnP问题的解是对棋盘格的角进行变换的变换矩阵:
该变换矩阵从棋盘格的坐标系变换棋盘格的角点。因此,的列向量相当于相对于照相机坐标系的三个棋盘格向量。棋盘格的质心是通过相对于照相机坐标系表示所有的棋盘格角点所导出的。然后质心相当于照相机坐标系中的所有棋盘格角的平均姿态。
D.外部标定算法
再次参考图15,通过标定模块1505来实现外部标定算法。变换是通过将LiDAR坐标系中的先前引入的棋盘格向量的量与其在照相机坐标系中的对应部分对齐来定义的。考虑和之间的向量对应关系,获得以下的与旋转矩阵有关的约束:
该优化问题具有闭式解。为了用公式表示闭式解,定义以下的列向量矩阵:
假定ML(Mc)T=USVT的奇异值分解(SVD),则由此可见该闭式解可以具有不是适当旋转矩阵的退化解。为了校正退化解并由此确保所有导出的旋转矩阵都是引入了校正矩阵C=diag(1.0,1.0,1-sign(det(VUT))。因而,该解变为
在前面的部分中,通过分别处理平移和旋转来计算初始变换估计。现在,通过联合地最小化以下的N个棋盘格质量中心的点到点距离来细化变换的该估计:
在实施例中,方程[10]是使用Levenberg-Marquardt方法或任何其它合适的非线性求解器来求解的非线性最小二乘问题。
照相机到LiDAR验证
A.问题公式化
为了估计这些上限,验证过程采用与手动测量的平移参数(例如,+/-10cm)相关联的不确定性、以及验证板的尺寸和位置作为输入。在实施例中,利用分别在图19A和19B中描述了形状和位置的两个验证板V1和V2。将更近的板表示为V1,其具有尺寸h1、l1、w1,并且在离照相机的原点的距离d1处。类似地,更远的板V2的尺寸由h2、l2、w2来表示,并且其位于离照相机的d2处。
B.验证条件
如方程[12]所示,导出与标定的精度有关的上限:
其中:K是照相机矩阵,是外部变换,PL={(x,y,z)}是来自验证板的LiDAR回波,并且IC={(u,v)}是验证板的像素。一系列参数满足方程[12],其中如图20A-20C所示,各参数将LiDAR点PL投影到图像空间中的照相机图像IC的板像素上,其中:图20A示出与框相对应的LiDAR点PL,图20B示出如由照相机观察到的框的图像IC,并且图20C示出LiDAR点以可接受的外部标定参数在照相机图像IC上的投影。该范围随着板的尺寸和位置而改变。
在图21A和21B中使满足方程[12]的标定可视化,其中“+”符号是投影LiDAR点。由框给出的初始误差界限(例如,横摆时的±0.18度)增加了使所有的LiDAR框点移位到框本身上所需的横摆量(例如,需要0.74度的横摆移位,因此给定标定精确到±0.92度)。
C.精度界限
考虑到针对位于从传感器套件起的不同范围处的两个验证板V1和V2满足方程[12]的标定,利用更近的板V1来限制所估计的平移参数,同时从远的板V2恢复与旋转参数有关的界限。从定义旋转界限而开始,然后进入平移界限。针对V2满足方程[12]的外部变换仍可能与地面真值偏离了至少与w2的大小相对应的误差。除了w2的误差之外,还可能存在由平移向量的不正确估计引起的平移误差。为了恢复与旋转参数有关的上限,考虑误差的两个源。针对i∈{x,y}如此得到的上限是:
现在对于近框V1,再次考虑可能的最坏情景:存在大小w1的误差和角度偏移。角度偏移相当于在方程[13]中示出的先前建立的界限。然后可以断言,x方向和y方向上的平移精确到:
通过迭代地求解方程[13]和[14],进一步缩小了与所估计的标定参数相关联的误差上限的大小。
最后,从较大验证板的长度和厚度导出与标定侧倾θz的精度有关的界限:
假定第二框F2是平面的、并且忽略了透视投影的影响(框的平面与照相机的图像平面大致平行),则通过将真实框尺寸与在照相机图像中测量到的由L表示的尺寸进行比较,来计算平移tz的精度的界限:
D.实现
通过自动地从点云中提取PL并从照相机图像中提取IC,验证过程是自动的。在通过对LiDAR数据中的边缘点进行聚类并且在不存在与矩形尺寸有关的约束的情况下使用矩形拟合算法针对可对应于矩形的簇进行过滤来检索PL期间,通过诸如对比度增强和边缘检测等的经典计算机视觉算法来检测IC。
示例处理
图22A和22B是根据一个或多个实施例的用于标定和验证在照相机到LiDAR坐标变换中使用的外部参数的处理2200的流程图。处理2200可以例如使用图3所示的计算机系统来实现。在实施例中,使用空间神经网络来预测标定参数。
在实施例中,处理2200从以下操作开始:从运载工具的光检测和测距(LiDAR)传感器接收包括从一个或多个平面标定板返回的第一组LiDAR点的第一点云(2201),并且从运载工具的照相机传感器接收包括一个或多个标定板的第一照相机图像(2202)。标定板可以是棋盘格板或任何其它合适的平面板。
处理2200继续以下操作:使用运载工具的一个或多个处理器来从第一组LiDAR点和第一照相机图像中提取一个或多个标定板的特征(2203),将从第一组LiDAR点和第一照相机图像中提取的特征相关联以确定匹配的特征(2204),并且至少部分基于这些匹配的特征来估计从LiDAR坐标到照相机坐标或从照相机坐标到LiDAR坐标的坐标变换的外部参数(2205)。例如,如参考图15-18D所述,从LiDAR点云和照相机图像中提取特征。
处理2200继续以下操作:从LiDAR传感器接收包括从一个或多个验证板返回的第二组LiDAR点的第二点云(2206),并且从照相机传感器接收包括一个或多个验证板的第二照相机图像(2207)。例如,使用第二LiDAR扫描和照相机图像来验证从照相机坐标到LiDAR坐标的坐标变换的所估计的外部参数。
处理2200继续以下操作:使用坐标变换将第二组LiDAR点投影到第二照相机图像中的一个或多个验证板上(2208);计算与所估计的外部参数的精度有关的一个或多个上限(2209);根据所计算出的与精度有关的一个或多个上限,确定第二组LiDAR点中的指定数量或百分比的LiDAR点是否位于第二照相机图像中所包括的一个或多个验证板上或内(2210)。根据在与精度有关的上限内、来自第二组LiDAR点的指定数量或百分比的LiDAR点位于第二照相机图像中的一个或多个验证板上或内,坐标变换的所估计的外部参数被视为有效(2211)。例如,参考图19A-21B说明了用于验证所估计的外部参数的步骤。
在先前描述中,已经参考许多具体细节描述了各种实施例,这些具体细节可因实现而不同。因此,说明书和附图应被视为说明性的,而非限制性意义的。本发明范围的唯一且排他的指示、以及申请人期望是本发明范围的内容是以发布权利要求书的具体形式从本申请发布的权利要求书的字面和等同范围,包括任何后续修正。本文中明确阐述的用于被包括在此类权利要求中的术语的任何定义应当以此类术语如在权利要求书中所使用的意义为准。另外,当在先前的说明书或所附权利要求书使用术语“还包括”时,该短语的下文可以是附加的步骤或实体、或先前所述的步骤或实体的子步骤/子实体。
相关申请的交叉引用
本发明要求2019年12月18日提交的标题为“CAMERA-TO-LIDAR CALIBRATION ANDVALIDATION”的美国临时专利申请序列号62/950,076的优先权,其全部内容通过引用而被包含于此。
Claims (12)
1.一种方法,包括:
从运载工具的光检测和测距传感器即LiDAR传感器接收包括从一个或多个标定板所返回的第一组LiDAR点的第一点云;
从所述运载工具的照相机传感器接收包括所述一个或多个标定板的第一照相机图像;
使用所述运载工具的一个或多个处理器,从所述第一组LiDAR点和所述第一照相机图像中提取所述一个或多个标定板的特征;
使用所述一个或多个处理器,将从所述第一组LiDAR点和所述第一照相机图像中所提取的特征相关联,以确定匹配的特征;
使用所述一个或多个处理器,至少部分基于匹配的特征来估计从LiDAR坐标到照相机坐标或者从照相机坐标到LiDAR坐标的坐标变换的外部参数;
从所述LiDAR传感器接收包括从一个或多个验证板所返回的第二组LiDAR点的第二点云;
从所述照相机传感器接收包括所述一个或多个验证板的第二照相机图像;
使用所述坐标变换将所述第二组LiDAR点投影到所述第二照相机图像中的所述一个或多个验证板上;
使用所述一个或多个处理器,估计与所估计的外部参数的精度有关的一个或多个上限;
使用所述一个或多个处理器,根据所计算出的与精度有关的一个或多个上限,来确定所述第二组LiDAR点中的指定数量或百分比的LiDAR点是否位于所述第二照相机图像中所包括的所述一个或多个验证板上或内;以及
根据在与精度有关的上限内、来自所述第二组LiDAR点的指定数量或百分比的LiDAR点位于所述第二照相机图像中的所述一个或多个验证板上或内,将所述坐标变换的所估计的外部参数视为有效。
2.根据权利要求1所述的方法,其中,所提取的特征包括用于对所述一个或多个标定板的平面进行定义的向量的量,并且通过将LiDAR坐标中的向量的量与照相机坐标中的对应向量的量对齐来估计所述外部参数,以及其中,在向量的量在与向量的量的旋转和平移有关的所定义的约束内相对应的情况下,向量的量匹配。
3.根据权利要求1或2所述的方法,其中,估计与精度有关的一个或多个上限考虑了与手动测量的平移参数相关联的不确定性、以及所述一个或多个验证板的尺寸和位置。
4.根据权利要求1至3中任一项所述的方法,其中,使用两个验证板,第一验证板与照相机相距第一距离,并且第二验证板与照相机相距比所述第一距离远的第二距离,以及其中,所述第一验证板用于估计与所估计的外部参数中所包括的所估计的平移参数的精度有关的第一上限,并且所述第二验证板用于估计与所估计的外部参数中所包括的所估计的旋转参数有关的第二上限。
5.根据权利要求3所述的方法,其中,与所估计的外部参数的估计侧倾角有关的上限是从两个验证板中的较大验证板的长度和厚度导出的。
6.根据权利要求1至5中任一项所述的方法,其中,使用所述运载工具的一个或多个处理器来从所述第一组LiDAR点中提取所述一个或多个标定板的特征还包括:
将所述第一组LiDAR点聚类为LiDAR点的空间簇;
针对各簇,
过滤该簇内的LiDAR点以检测离群LiDAR点;
通过从该簇中去除任何检测到的离群LiDAR点来细化该簇;
通过该簇的凸包过滤该簇,其中所述凸包形成已知尺寸的矩形;
检测该簇中的边缘点;
将所述边缘点投影到该簇的平面上;
将二维矩形即2D矩形拟合到所述边缘点;
通过对约束优化问题进行公式化和求解,确定所拟合的2D矩形是否定义了标定板,所述约束优化问题包含与所述2D矩形的几何形状和尺寸有关的先验;以及
根据所拟合的2D矩形定义了标定板,导出所述2D矩形的平面向量、边界向量和质心作为所述标定板的特征。
7.根据权利要求6所述的方法,其中,检测簇中的边缘点包括:针对表现出大于阈值的深度连续性的点来对点云进行过滤;在如下的波束上识别过滤点,所述波束的深度值低于同一波束上的两个最近邻LiDAR点至少之一的深度值;计算所检测到的边缘点之间的交点;以及将各边缘点链接至包含该边缘点的簇。
8.根据权利要求1至7中任一项所述的方法,其中,使用所述运载工具的一个或多个处理器来从所述第一照相机图像中提取所述一个或多个标定板的特征还包括:
使用计算机视觉处理来检测所述第一照相机图像中的所述一个或多个标定板;以及
通过针对各标定板求解透视n点问题即PnP问题,来从所检测到的标定板中提取三个标定板向量,其中各标定板的各角的全局坐标和像素坐标之间的PnP问题的解是从照相机坐标到标定板坐标的变换,从而将该角从标定板坐标系变换到照相机坐标系,以及其中,所述变换的列向量相当于相对于所述照相机坐标系的三个标定板向量,其中标定板的各质心是通过相对于所述照相机坐标系表示各标定板的所有角点所导出的,以及其中,所述质心相当于所述照相机坐标系中的所有角的平均姿态。
9.根据权利要求8所述的方法,还包括:针对表现出大于阈值的深度连续性的点来对点云进行过滤。
10.根据权利要求1至9中任一项所述的方法,其中,所述一个或多个标定板是平面棋盘格。
11.一种系统,包括:
一个或多个处理器;以及
存储有指令的存储器,所述指令在由所述一个或多个处理器执行时,使得所述一个或多个处理器进行根据权利要求1至10中任一项所述的方法。
12.一种存储有指令的非暂时性计算机程序产品,所述指令在由至少一个可编程处理器执行时,使得所述至少一个可编程处理器进行根据权利要求1至10中任一项所述的方法中的操作。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962950076P | 2019-12-18 | 2019-12-18 | |
US62/950,076 | 2019-12-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112991454A true CN112991454A (zh) | 2021-06-18 |
Family
ID=74046579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011500649.1A Pending CN112991454A (zh) | 2019-12-18 | 2020-12-18 | 照相机到LiDAR的标定和验证 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11940539B2 (zh) |
KR (1) | KR102623269B1 (zh) |
CN (1) | CN112991454A (zh) |
DE (1) | DE102020131323A1 (zh) |
GB (2) | GB2594111B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113436233A (zh) * | 2021-06-29 | 2021-09-24 | 阿波罗智能技术(北京)有限公司 | 自动驾驶车辆的配准方法、装置、电子设备和车辆 |
CN113858217A (zh) * | 2021-12-01 | 2021-12-31 | 常州唯实智能物联创新中心有限公司 | 多机器人交互的三维视觉位姿感知方法及系统 |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7191671B2 (ja) * | 2018-12-19 | 2022-12-19 | フォルシアクラリオン・エレクトロニクス株式会社 | キャリブレーション装置、キャリブレーション方法 |
US11726189B2 (en) | 2019-12-09 | 2023-08-15 | Nio Technology (Anhui) Co., Ltd. | Real-time online calibration of coherent doppler lidar systems on vehicles |
US11520024B2 (en) * | 2019-12-24 | 2022-12-06 | Nio Technology (Anhui) Co., Ltd. | Automatic autonomous vehicle and robot LiDAR-camera extrinsic calibration |
US11892560B2 (en) | 2020-02-03 | 2024-02-06 | Nio Technology (Anhui) Co., Ltd | High precision multi-sensor extrinsic calibration via production line and mobile station |
TWI736235B (zh) * | 2020-04-27 | 2021-08-11 | 大陸商光寶電子(廣州)有限公司 | 可移動式電子裝置及其操作方法 |
TWI755765B (zh) * | 2020-06-22 | 2022-02-21 | 中強光電股份有限公司 | 視覺與深度座標系的校正系統、校正方法及校正裝置 |
CN113847930A (zh) * | 2020-06-28 | 2021-12-28 | 图森有限公司 | 多传感器校准系统 |
US11420647B2 (en) * | 2020-08-13 | 2022-08-23 | Argo AI, LLC | Enhanced static object classification using lidar |
US11995920B2 (en) * | 2020-10-23 | 2024-05-28 | Argo AI, LLC | Enhanced sensor health and regression testing for vehicles |
US11960276B2 (en) | 2020-11-19 | 2024-04-16 | Tusimple, Inc. | Multi-sensor collaborative calibration system |
CN112946609B (zh) * | 2021-02-02 | 2022-03-15 | 中国汽车技术研究中心有限公司 | 激光雷达与相机的标定方法、装置、设备及可读存储介质 |
CN113567964B (zh) * | 2021-06-29 | 2023-07-25 | 苏州一径科技有限公司 | 激光雷达自动测试方法及装置、系统 |
KR102490521B1 (ko) * | 2021-06-30 | 2023-01-26 | 주식회사 모빌테크 | 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법 |
KR102603467B1 (ko) * | 2021-07-12 | 2023-11-17 | 클레이웍스 주식회사 | 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 측위 오차 보정 시스템 및 그 방법 |
US20230034492A1 (en) * | 2021-07-20 | 2023-02-02 | Locus Robotics Corp. | Calibration of a Lidar Sensor |
CN113830083B (zh) * | 2021-07-26 | 2024-02-23 | 武汉理工大学 | 基于交通路锥识别的车辆安全引导方法 |
US20230145561A1 (en) * | 2021-08-23 | 2023-05-11 | Argo AI, LLC | Systems and methods for validating camera calibration in real-time |
US20230085898A1 (en) * | 2021-09-22 | 2023-03-23 | Qualcomm Incorporated | Automatic cross-sensor calibration using object detections |
KR102621599B1 (ko) * | 2021-10-01 | 2024-01-05 | 주식회사 앤트랩 | 다중 센서 장치를 위한 캘리브레이션 방법 및 캘리브레이션 시스템 |
CN116071431A (zh) * | 2021-11-03 | 2023-05-05 | 北京三快在线科技有限公司 | 一种标定方法、装置、存储介质及电子设备 |
US20230177724A1 (en) * | 2021-12-07 | 2023-06-08 | Adasky, Ltd. | Vehicle to infrastructure extrinsic calibration system and method |
DE102021133091A1 (de) | 2021-12-14 | 2023-06-15 | Cariad Se | Verfahren zur Ermittlung einer Ausrichtung einer Kameraeinheit einer Erfassungseinrichtung, Erfassungseinrichtung und Fahrzeug |
DE102021134371A1 (de) * | 2021-12-22 | 2023-06-22 | Jungheinrich Aktiengesellschaft | Verfahren zum Bestimmen einer relativen Anbauposition einer ersten Sensoreinheit in Bezug auf eine zweite Sensoreinheit an einem Flurförderzeug |
CN114460940A (zh) * | 2022-01-29 | 2022-05-10 | 北京三快在线科技有限公司 | 一种无人设备控制方法、装置、存储介质及电子设备 |
CN115267746B (zh) * | 2022-06-13 | 2024-06-28 | 广州文远知行科技有限公司 | 激光雷达点云投影错误的定位方法及相关设备 |
KR20230172834A (ko) | 2022-06-16 | 2023-12-26 | 엘아이지넥스원 주식회사 | 다중 교통 표지를 사용한 센서 캘리브레이션 장치 및 방법 |
CN115267751A (zh) * | 2022-08-19 | 2022-11-01 | 广州小鹏自动驾驶科技有限公司 | 传感器标定方法、装置、车辆及存储介质 |
US20240273741A1 (en) * | 2023-02-14 | 2024-08-15 | GM Global Technology Operations LLC | Camera to vehicle alignment with multiple camera adjustment |
KR102643538B1 (ko) * | 2023-08-25 | 2024-03-06 | 주식회사 라이드플럭스 | 자율주행 환경에서 이종 센서 데이터 간 오토 캘리브레이션 방법, 장치 및 컴퓨터프로그램 |
CN117456146B (zh) * | 2023-12-21 | 2024-04-12 | 绘见科技(深圳)有限公司 | 激光点云拼接方法、装置、介质和设备 |
CN117784160B (zh) * | 2023-12-21 | 2024-07-19 | 中国核工业华兴建设有限公司 | 一种基于深度学习的预埋件位置检查方法及检查设备 |
CN117911539A (zh) * | 2024-03-15 | 2024-04-19 | 西南科技大学 | 基于线性交叉点引导的雷达与相机联合自标定方法及系统 |
CN118298033B (zh) * | 2024-06-06 | 2024-09-27 | 江苏魔视智能科技有限公司 | 双目相机的参数标定方法、装置、设备及存储介质 |
CN118310435B (zh) * | 2024-06-07 | 2024-08-16 | 四川公路工程咨询监理有限公司 | 一种边坡支护变形监测系统及方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201219850D0 (en) * | 2012-11-05 | 2012-12-19 | Univ Oxford | Extrinsic calibration of imaging sensing devices and 2D lidars mounted on transportable apparatus |
CN105551039A (zh) * | 2015-12-14 | 2016-05-04 | 深圳先进技术研究院 | 结构光三维扫描系统的标定方法及装置 |
CN106228537A (zh) * | 2016-07-12 | 2016-12-14 | 北京理工大学 | 一种三维激光雷达与单目摄像机的联合标定方法 |
US20180356526A1 (en) * | 2017-06-13 | 2018-12-13 | TuSimple | Sensor calibration and time method for ground truth static scene sparse flow generation |
CN109300162A (zh) * | 2018-08-17 | 2019-02-01 | 浙江工业大学 | 一种基于精细化雷达扫描边缘点的多线激光雷达和相机联合标定方法 |
CN109636837A (zh) * | 2018-12-21 | 2019-04-16 | 浙江大学 | 一种单目相机与毫米波雷达外参标定准确性的评价方法 |
US20190116354A1 (en) * | 2017-10-12 | 2019-04-18 | Intel Corporation | Camera calibration |
CN109754426A (zh) * | 2017-11-01 | 2019-05-14 | 虹软科技股份有限公司 | 一种用于验证的方法和装置 |
CN109813335A (zh) * | 2017-11-21 | 2019-05-28 | 武汉四维图新科技有限公司 | 数据采集系统的标定方法、装置、系统及存储介质 |
CN109949371A (zh) * | 2019-03-18 | 2019-06-28 | 北京智行者科技有限公司 | 一种用于激光雷达和相机数据的标定方法 |
CN110175576A (zh) * | 2019-05-29 | 2019-08-27 | 电子科技大学 | 一种结合激光点云数据的行驶车辆视觉检测方法 |
CN110298891A (zh) * | 2019-06-25 | 2019-10-01 | 北京智行者科技有限公司 | 相机外参精度自动评估的方法及装置 |
Family Cites Families (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19962997B4 (de) | 1999-12-24 | 2010-06-02 | Robert Bosch Gmbh | Verfahren zur Kalibrierung eines Sensorsystems |
US20100157280A1 (en) * | 2008-12-19 | 2010-06-24 | Ambercore Software Inc. | Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions |
US9734419B1 (en) * | 2008-12-30 | 2017-08-15 | Cognex Corporation | System and method for validating camera calibration in a vision system |
US11699247B2 (en) * | 2009-12-24 | 2023-07-11 | Cognex Corporation | System and method for runtime determination of camera miscalibration |
US9834153B2 (en) | 2011-04-25 | 2017-12-05 | Magna Electronics Inc. | Method and system for dynamically calibrating vehicular cameras |
WO2013086249A2 (en) | 2011-12-09 | 2013-06-13 | Magna Electronics, Inc. | Vehicle vision system with customized display |
US9719801B1 (en) | 2013-07-23 | 2017-08-01 | Waymo Llc | Methods and systems for calibrating sensors using road map data |
US10018711B1 (en) * | 2014-01-28 | 2018-07-10 | StereoVision Imaging, Inc | System and method for field calibrating video and lidar subsystems using independent measurements |
US9804594B2 (en) | 2014-11-07 | 2017-10-31 | Clearpath Robotics, Inc. | Self-calibrating sensors and actuators for unmanned vehicles |
CN118816923A (zh) * | 2015-02-10 | 2024-10-22 | 御眼视觉技术有限公司 | 用于自主车辆导航的稀疏地图 |
WO2016153224A1 (ko) | 2015-03-20 | 2016-09-29 | 엘지전자 주식회사 | 차량용 자율 캘리브레이션 장치 및 이를 구비한 차량 |
CN107850436B (zh) * | 2015-05-23 | 2021-03-05 | 深圳市大疆创新科技有限公司 | 使用惯性传感器和图像传感器的传感器融合 |
US10578713B2 (en) | 2015-06-24 | 2020-03-03 | Panasonic Corporation | Radar axis displacement amount calculation device and radar axis displacement calculation method |
DE102016204011A1 (de) | 2016-03-11 | 2017-09-14 | Robert Bosch Gmbh | Vorrichtung zur Ermittlung einer Dejustage einer an einem Fahrzeug befestigten Detektionseinrichtung |
CA2961921C (en) * | 2016-03-29 | 2020-05-12 | Institut National D'optique | Camera calibration method using a calibration target |
US11646808B2 (en) * | 2016-05-09 | 2023-05-09 | Strong Force Iot Portfolio 2016, Llc | Methods and systems for adaption of data storage and communication in an internet of things downstream oil and gas environment |
US10145945B2 (en) | 2017-01-11 | 2018-12-04 | Toyota Research Institute, Inc. | Systems and methods for automatically calibrating a LIDAR using information from a secondary vehicle |
JP7283680B2 (ja) | 2017-01-12 | 2023-05-30 | モービルアイ ビジョン テクノロジーズ リミテッド | 車両の活動に基づくナビゲーション |
WO2018138584A1 (en) | 2017-01-26 | 2018-08-02 | Mobileye Vision Technologies Ltd. | Vehicle navigation based on aligned image and lidar information |
US10445928B2 (en) * | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
CN107167826B (zh) * | 2017-03-31 | 2020-02-04 | 武汉光庭科技有限公司 | 一种自动驾驶中基于可变网格的图像特征检测的车辆纵向定位系统及方法 |
DE102017205727A1 (de) | 2017-04-04 | 2018-10-04 | Siemens Aktiengesellschaft | Verfahren zum Kalibrieren eines Sensorsystems |
US10677897B2 (en) | 2017-04-14 | 2020-06-09 | Luminar Technologies, Inc. | Combining lidar and camera data |
WO2018196001A1 (en) | 2017-04-28 | 2018-11-01 | SZ DJI Technology Co., Ltd. | Sensing assembly for autonomous driving |
US10176596B1 (en) * | 2017-07-06 | 2019-01-08 | GM Global Technology Operations LLC | Calibration verification methods for autonomous vehicle operations |
EP3656138A4 (en) * | 2017-07-17 | 2021-05-12 | Kaarta, Inc. | ALIGNMENT OF MEASURED SIGNAL DATA WITH SLAM LOCATION DATA AND ASSOCIATED USES |
EP3438776B1 (en) | 2017-08-04 | 2022-09-07 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus and computer program for a vehicle |
EP3438777B1 (en) * | 2017-08-04 | 2022-05-11 | Bayerische Motoren Werke Aktiengesellschaft | Method, apparatus and computer program for a vehicle |
US20190052851A1 (en) | 2017-08-11 | 2019-02-14 | Hilti Aktiengesellschaft | System and Method for Recalibrating a Projector System |
US10565457B2 (en) * | 2017-08-23 | 2020-02-18 | Tusimple, Inc. | Feature matching and correspondence refinement and 3D submap position refinement system and method for centimeter precision localization using camera-based submap and LiDAR-based global map |
CN118050012A (zh) | 2017-09-29 | 2024-05-17 | 松下电器(美国)知识产权公司 | 客户端装置以及由客户端装置执行的方法 |
CN111492403A (zh) | 2017-10-19 | 2020-08-04 | 迪普迈普有限公司 | 用于生成高清晰度地图的激光雷达到相机校准 |
US11415683B2 (en) | 2017-12-28 | 2022-08-16 | Lyft, Inc. | Mobile sensor calibration |
US11906625B2 (en) * | 2018-01-08 | 2024-02-20 | The Regents Of The University Of California | Surround vehicle tracking and motion prediction |
US11392131B2 (en) | 2018-02-27 | 2022-07-19 | Nauto, Inc. | Method for determining driving policy |
US10705194B2 (en) | 2018-03-21 | 2020-07-07 | Zoox, Inc. | Automated detection of sensor miscalibration |
US10269141B1 (en) * | 2018-06-04 | 2019-04-23 | Waymo Llc | Multistage camera calibration |
EP3815045A1 (en) | 2018-06-29 | 2021-05-05 | Zoox, Inc. | Sensor calibration |
US10733761B2 (en) | 2018-06-29 | 2020-08-04 | Zoox, Inc. | Sensor calibration |
US11428817B2 (en) * | 2018-10-11 | 2022-08-30 | Baidu Usa Llc | Automatic LIDAR calibration based on cross validation for autonomous driving |
US11609574B2 (en) * | 2018-11-13 | 2023-03-21 | FLIR Belgium BVBA | Extrinsic sensor calibration systems and methods |
US11105905B2 (en) * | 2018-11-30 | 2021-08-31 | Lyft, Inc. | LiDAR and camera rotational position calibration using multiple point cloud comparisons |
DK180555B1 (en) | 2018-12-10 | 2021-06-17 | Motional Ad Llc | Systems and methods for validating and calibrating sensors |
US10970878B2 (en) * | 2018-12-13 | 2021-04-06 | Lyft, Inc. | Camera calibration using reference map |
US11458912B2 (en) * | 2019-03-08 | 2022-10-04 | Zoox, Inc. | Sensor validation using semantic segmentation information |
US10937178B1 (en) * | 2019-05-09 | 2021-03-02 | Zoox, Inc. | Image-based depth data and bounding boxes |
US11144754B2 (en) * | 2019-08-19 | 2021-10-12 | Nvidia Corporation | Gaze detection using one or more neural networks |
US10726579B1 (en) * | 2019-11-13 | 2020-07-28 | Honda Motor Co., Ltd. | LiDAR-camera calibration |
US10838049B1 (en) * | 2019-12-17 | 2020-11-17 | The Boeing Company | Calibration procedure for establishing an extrinsic relationship between lidar and camera sensors |
-
2020
- 2020-11-17 GB GB2018035.2A patent/GB2594111B/en active Active
- 2020-11-17 GB GBGB2305331.7A patent/GB202305331D0/en not_active Ceased
- 2020-11-26 DE DE102020131323.3A patent/DE102020131323A1/de active Pending
- 2020-12-16 US US17/124,468 patent/US11940539B2/en active Active
- 2020-12-18 KR KR1020200178967A patent/KR102623269B1/ko active IP Right Grant
- 2020-12-18 CN CN202011500649.1A patent/CN112991454A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201219850D0 (en) * | 2012-11-05 | 2012-12-19 | Univ Oxford | Extrinsic calibration of imaging sensing devices and 2D lidars mounted on transportable apparatus |
CN105551039A (zh) * | 2015-12-14 | 2016-05-04 | 深圳先进技术研究院 | 结构光三维扫描系统的标定方法及装置 |
CN106228537A (zh) * | 2016-07-12 | 2016-12-14 | 北京理工大学 | 一种三维激光雷达与单目摄像机的联合标定方法 |
US20180356526A1 (en) * | 2017-06-13 | 2018-12-13 | TuSimple | Sensor calibration and time method for ground truth static scene sparse flow generation |
US20190116354A1 (en) * | 2017-10-12 | 2019-04-18 | Intel Corporation | Camera calibration |
CN109754426A (zh) * | 2017-11-01 | 2019-05-14 | 虹软科技股份有限公司 | 一种用于验证的方法和装置 |
CN109813335A (zh) * | 2017-11-21 | 2019-05-28 | 武汉四维图新科技有限公司 | 数据采集系统的标定方法、装置、系统及存储介质 |
CN109300162A (zh) * | 2018-08-17 | 2019-02-01 | 浙江工业大学 | 一种基于精细化雷达扫描边缘点的多线激光雷达和相机联合标定方法 |
CN109636837A (zh) * | 2018-12-21 | 2019-04-16 | 浙江大学 | 一种单目相机与毫米波雷达外参标定准确性的评价方法 |
CN109949371A (zh) * | 2019-03-18 | 2019-06-28 | 北京智行者科技有限公司 | 一种用于激光雷达和相机数据的标定方法 |
CN110175576A (zh) * | 2019-05-29 | 2019-08-27 | 电子科技大学 | 一种结合激光点云数据的行驶车辆视觉检测方法 |
CN110298891A (zh) * | 2019-06-25 | 2019-10-01 | 北京智行者科技有限公司 | 相机外参精度自动评估的方法及装置 |
Non-Patent Citations (3)
Title |
---|
LIPU ZHOU ET AL.: "《A New Minimal Solution for the Extrinsic Calibration of a 2D LIDAR and a Camera Using Three Plane-Line Correspondences》", 《IEEE SENSORS JOURNAL》 * |
SURABHI VERMA ET AL.: "《Automatic extrinsic calibration between a camera and a 3D Lidar using 3D point and plane correspondences》", 《ARXIV.ORG/PDF/1904.12433.PDF》, pages 1 - 7 * |
薛连杰 等: "《基于3 维点云欧氏聚类和RANSAC 边界拟合的目标物体尺寸和方位识别》", 《机械设计与研究》, vol. 34, no. 5 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113436233A (zh) * | 2021-06-29 | 2021-09-24 | 阿波罗智能技术(北京)有限公司 | 自动驾驶车辆的配准方法、装置、电子设备和车辆 |
CN113858217A (zh) * | 2021-12-01 | 2021-12-31 | 常州唯实智能物联创新中心有限公司 | 多机器人交互的三维视觉位姿感知方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
KR20210078439A (ko) | 2021-06-28 |
US11940539B2 (en) | 2024-03-26 |
GB2594111B (en) | 2023-06-07 |
GB202305331D0 (en) | 2023-05-24 |
KR102623269B1 (ko) | 2024-01-09 |
DE102020131323A1 (de) | 2021-06-24 |
US20210192788A1 (en) | 2021-06-24 |
GB2594111A (en) | 2021-10-20 |
GB202018035D0 (en) | 2020-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102623269B1 (ko) | 카메라 대 lidar 교정 및 검증 | |
CN112801124B (zh) | 用于运载工具的方法和系统 | |
CN111104849B (zh) | 运载工具的导航期间的、地图中的环境特征的自动注释 | |
US12061266B2 (en) | Deep learning for object detection using pillars | |
CN113012187B (zh) | 用于运载工具的方法和前景提取系统以及存储介质 | |
CN111102986B (zh) | 用于运载工具导航的尺寸缩小的地图的自动生成以及时空定位 | |
US11940804B2 (en) | Automated object annotation using fused camera/LiDAR data points | |
CN112505680A (zh) | 使用雷达的扩展对象跟踪 | |
CN113196291A (zh) | 自动选择用于注释的数据样本 | |
CN113196011A (zh) | 运动图构建和车道级路线规划 | |
CN114556139A (zh) | 用于传感器校准的系统和方法 | |
CN113156935A (zh) | 用于交通灯检测的系统和方法 | |
CN113126612A (zh) | 支持自主运载工具导航的对象跟踪 | |
CN114419331A (zh) | 用于运载工具的方法和系统以及运载工具 | |
CN113970924A (zh) | 用于运载工具的方法和系统 | |
CN115079687A (zh) | 用于自主运载工具的系统、方法和存储介质 | |
CN114387322A (zh) | 用于运载工具的方法、运载工具和存储介质 | |
CN112394384A (zh) | 基于环境的预定义特征的定位 | |
CN112486163A (zh) | 基于导航信息的可用性的自主运载工具的操作 | |
CN113176584A (zh) | 解决传感器回波中的距变率模糊 | |
CN114514515A (zh) | 区块链账本验证和服务 | |
CN115220439A (zh) | 用于运载工具的系统和方法以及存储介质 | |
CN113056715B (zh) | 用于操作运载工具的方法、运载工具和存储介质 | |
CN116229407A (zh) | 用于运载工具的方法、运载工具和存储介质 | |
CN115861402A (zh) | 用于运载工具的方法和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210618 |