CN117078767A - 激光雷达与相机标定方法、装置、电子设备及存储介质 - Google Patents
激光雷达与相机标定方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN117078767A CN117078767A CN202310925171.4A CN202310925171A CN117078767A CN 117078767 A CN117078767 A CN 117078767A CN 202310925171 A CN202310925171 A CN 202310925171A CN 117078767 A CN117078767 A CN 117078767A
- Authority
- CN
- China
- Prior art keywords
- point
- dimensional
- calibration
- target
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 230000004927 fusion Effects 0.000 claims abstract description 87
- 239000011159 matrix material Substances 0.000 claims abstract description 76
- 238000013519 translation Methods 0.000 claims abstract description 37
- 230000004044 response Effects 0.000 claims abstract description 24
- 238000004590 computer program Methods 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 10
- 230000003287 optical effect Effects 0.000 claims description 8
- 238000004040 coloring Methods 0.000 claims description 4
- 230000003416 augmentation Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开了一种激光雷达与相机标定方法、装置、电子设备及存储介质。该方法包括:显示融合结果至标定界面;响应于在标定界面中基于融合结果的点对选择操作,确定点对选择操作所选择的超过设定数量的候选点对,候选点对由投射至图像的点云中的第一二维点和图像中的第二二维点形成;基于点云数据确定各候选点对对应的目标点对,目标点对由第一二维点在点云数据中对应的目标三维点和第二二维点形成;响应于标定界面中的标定结果获取操作,基于所确定的目标点对确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵。该方法通过选取二维点和二维点组成的点对,确定用于标定的三维点和二维点组成的点对,更便捷地实现了激光雷达与相机的联合标定。
Description
技术领域
本发明实施例涉及智能汽车技术领域,尤其涉及一种激光雷达与相机标定方法、装置、电子设备及存储介质。
背景技术
在智能汽车技术领域中,单一传感器不可避免的存在局限性,为了提高系统的稳健性,多采取多传感器融合的方案。在多传感器融合的方案中,激光雷达与相机的融合在其特性高度互补的前提下得到了快速发展和广泛应用。
激光雷达与相机的联合标定属于不同传感器的空间同步范畴,联合标定可以理解为需要确定激光雷达到相机的空间转换关系,即确定激光雷达相对于相机的旋转矩阵和平移矩阵,为后续的激光雷达和相机的数据融合做准备。
现有技术中,可以通过基于标定板标定的方法实现激光雷达与相机的联合标定,但该方法需要在有标定板的场景下才能实现联合标定;还可以基于自然场景中的道路特征进行自动标定,但该方法所需采用的算法较为复杂。故,如何更便捷地实现激光雷达与相机的联合标定是当前亟待解决的技术问题。
发明内容
本发明提供了一种激光雷达与相机标定方法、装置、电子设备及存储介质,可以更便捷地实现激光雷达与相机的联合标定。
第一方面,本发明实施例提供了一种激光雷达与相机标定方法,其特征在于,包括:
显示融合结果至标定界面,所述融合结果指示将激光雷达采集的点云数据所对应点云投射至相机采集的图像得到的结果,所述点云数据和所述图像基于所述激光雷达和所述相机的共视区域采集得到;
响应于在所述标定界面中基于所述融合结果的点对选择操作,确定所述点对选择操作所选择的超过设定数量的候选点对,所述候选点对由投射至所述图像的点云中的第一二维点和所述图像中的第二二维点形成;
基于所述点云数据确定各所述候选点对对应的目标点对,所述目标点对由所述第一二维点在所述点云数据中对应的目标三维点和所述第二二维点形成;
响应于所述标定界面中的标定结果获取操作,基于所确定的目标点对确定所述激光雷达相对于所述相机的目标旋转矩阵和目标平移矩阵。
第二方面,本发明实施例提供了一种激光雷达与相机标定装置,其特征在于,包括:
显示模块,用于显示融合结果至标定界面,所述融合结果指示将激光雷达采集的点云数据所对应点云投射至相机采集的图像得到的结果,所述点云数据和所述图像基于所述激光雷达和所述相机的共视区域采集得到;
候选点对确定模块,用于响应于在所述标定界面中基于所述融合结果的点对选择操作,确定所述点对选择操作所选择的超过设定数量的候选点对,所述候选点对由投射至所述图像的点云中的第一二维点和所述图像中的第二二维点形成;
目标点对确定模块,用于基于所述点云数据确定各所述候选点对对应的目标点对,所述目标点对由所述第一二维点在所述点云数据中对应的目标三维点和所述第二二维点形成;
标定结果确定模块,用于响应于所述标定界面中的标定结果获取操作,基于所确定的目标点对确定所述激光雷达相对于所述相机的目标旋转矩阵和目标平移矩阵。
第三方面,本发明实施例提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如第一方面所述的方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面所述的方法。
本发明实施例的技术方案,通过响应于标定界面中基于融合结果的点对选择操作确定候选点对,通过点云数据确定各候选点对对应的目标点对,再通过响应于标定界面中的标定结果获取操作,基于所确定的目标点对确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵。上述技术方案,通过响应于标定界面的点对选择操作,选取第一二维点和第二二维点组成的点对,基于所选取的第一二维点在点云数据中确定对应的目标三维点,进而确定目标三维点和第二二维点组成的点对,即通过选取二维点和二维点组成的点对,即可确定用于标定的三维点和二维点组成的点对,可以更便捷地实现激光雷达与相机的联合标定。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例一提供的一种激光雷达与相机标定方法的流程图;
图2是根据本发明实施例二提供的一种激光雷达与相机标定方法的流程图;
图3是根据本发明实施例三提供的一种激光雷达与相机标定方法的流程图;
图4是根据本发明实施例三提供的另一种激光雷达与相机标定方法的流程图;
图5是根据本发明实施例四提供的一种激光雷达与相机标定装置的结构示意图;
图6示出了可以用来实施本发明的实施例的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
可以理解的是,在使用本发明各实施例公开的技术方案之前,均应当依据相关法律法规通过恰当的方式对本公开所涉及个人信息的类型、使用范围以及使用场景等告知用户并获得用户的授权。
实施例一
图1是根据本发明实施例一提供的一种激光雷达与相机标定方法的流程图,本实施例可适用于对激光雷达与相机进行联合标定的情况,该方法可以由激光雷达与相机标定装置来执行,该装置可以采用软件和/或硬件的形式实现,并集成在电子设备中。进一步的,电子设备包括但不限定于:计算机、笔记本电脑、智能手机、服务器等。如图1所示,该方法包括:
S110、显示融合结果至标定界面,融合结果指示将激光雷达采集的点云数据所对应点云投射至相机采集的图像得到的结果,点云数据和图像基于激光雷达和相机的共视区域采集得到。
在进行激光雷达与相机的联合标定前,需要通过激光雷达采集点云数据,通过相机采集图像,再将激光雷达采集的点云数据所对应点云投射至相机采集的图像,得到融合结果,进而可以基于得到的融合结果进行激光雷达与相机的联合标定。
其中,点云数据可以是指激光雷达所探测到的点云中的点对应的数据,如点云中各点对应的三维坐标和各点对应的反射强度,具体不作限定。点云数据和图像基于激光雷达和相机的共视区域采集得到,共视区域可以是指激光雷达所能采集到的区域与相机所能采集到的区域的交集,在共视区域内激光雷达采集点云数据,相机采集图像。
融合结果可以是指将激光雷达采集的点云数据所对应点云投射至相机采集的图像得到的结果,具体的,可以根据将点云数据对应的点云投射至图像所需的信息,对点云数据所包括的每个点的三维坐标进行坐标转换,确定该点在相机对应的像素坐标系下的像素坐标,进而通过该像素坐标将该点投射至相机采集的图像。其中,对将点云数据对应的点云投射至图像所需的信息不作限定,具体可以根据实际需要确定。
标定界面可以是用于激光雷达与相机联合标定的人机交互界面,用户可以用过人机交互装置(如触摸屏、键盘或按键等)在标定界面中实现点对选择操作或标定结果获取操作等,以通过标定界面实现激光雷达与相机的联合标定。
显示融合结果至标定界面的方式不作限定,如可以预先根据实际应用需要确定融合结果并保存在电子设备中,在需要进行标定时通过电子设备本地获取预先确定的融合结果并显示至标定界面;又如,在需要进行标定时通过标定配置文件将点云投射至图像得到融合结果,并将融合结果显示至标定界面。其中,标定配置文件指示点云数据的存储路径、图像的存储路径和将点云数据对应的点云投射至图像所需的信息,标定配置文件可以是预先根据实际需要设定的,具体不作限定。
S120、响应于在标定界面中基于融合结果的点对选择操作,确定点对选择操作所选择的超过设定数量的候选点对,候选点对由投射至图像的点云中的第一二维点和图像中的第二二维点形成。
其中,融合结果指示将激光雷达采集的点云数据所对应点云投射至相机采集的图像得到的结果,可以将融合结果理解为点云与图像叠加的结果,因此在标定界面中可以显示有投射至图像的点云,还显示有图像。
点对选择操作可以是指选择候选点对的操作,候选点对由投射至图像的点云中的第一二维点和图像中的第二二维点形成,具体的,候选点对可以是由第一二维点在像素坐标系下的像素坐标和第二二维点在像素坐标系下的像素坐标所形成的点对。其中,第一二维点为融合结果中的点云中的点,第二二维点为融合结果中的图像中的点,通过点对选择操作可以选择第一二维点和第二二维点,进而形成候选点对。对点对选择操作不作限定,如点对选择操作可以是在标定界面中的点击操作。
响应于在标定界面中基于融合结果的点对选择操作,确定点对选择操作所选择的超过设定数量的候选点对的方式不作限定,如可以将选择一个第一二维点和一个第二二维点的操作确定为一次点对选择操作,重复选择多次直至所选择的候选点对的数量超过设定数量,其中,一次点对选择操作可以理解为,响应于用户在标定界面中对融合结果中点云中点的点击操作,将点击操作触发的点确定为第一二维点,再响应于用户在标定界面中对融合结果中图像中点的点击操作,将点击操作触发的点确定为第二二维点,以此完成一个候选点对的选择。其中,设定数量可以根据实际需要选取,如设定数量为4。
需要说明的是,在通过点对选择操作选择候选点对时,选择候选点对的依据可以根据实际需要确定,如在第一二维点选择完毕后,可以通过所选择的第一二维点与图像中的点进行区域强度、深度或轮廓等比对,进而在图像中选择与第一二维点较为接近的第二二维点。
S130、基于点云数据确定各候选点对对应的目标点对,目标点对由第一二维点在点云数据中对应的目标三维点和第二二维点形成。
其中,点云数据包括点云中各点对应的三维坐标,在将点云中的任一点投射至图像时,是通过对该点的三维坐标进行透视变换,使其变为能够投射至图像的像素坐标,但在坐标变换的过程中,该点对应的点标识不会改变。
因此,对于每个第一二维点,可以通过第一二维点的点标识,在点云数据中查找与该点标识具有相同标识的点,该点即为第一二维点对应的目标三维点,即目标三维点的三维坐标通过透视变换得到第一二维点的像素坐标,在这个过程中,目标三维点的点标识与第一二维点的点标识一致。
对于每个候选点对,通过上述方式确定该候选点对中的第一二维点对应的目标三维点,将该目标三维点的三维坐标与该候选点对中第二二维点的像素坐标所形成的点对,确定为该候选点对对应的目标点对。
S140、响应于标定界面中的标定结果获取操作,基于所确定的目标点对确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵。
标定结果获取操作可以是基于所确定的目标点对获取标定结果的操作,对标定结果获取操作不作限定,如可以在标定界面中显示标定控件,标定结果获取操作即为对标定控件的点击操作。其中,标定结果可以是指激光雷达相对于相机的目标旋转矩阵和目标平移矩阵,通过目标旋转矩阵和目标平移矩阵可以确定激光雷达相对于相机的空间转换关系,为后续的激光雷达和相机的数据融合做准备。
响应于标定界面中的标定结果获取操作,基于所确定的目标点对确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵的方式不作限定,如响应于标定界面中对标定控件的点击操作,基于所确定的目标点对,通过三维到二维点对运动方法,确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵。
其中,三维到二维点对运动方法,即求解3D到2D点对运动的方法(Perspective-n-Point,PnP),通过三维到二维点对运动方法,在已知n个目标三维点的三维坐标以及对应的第二二维点的像素坐标时,可以确定世界坐标系到相机坐标系的旋转矩阵和平移向量,即确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵。其中,n的取值可以根据实际应用需要确定,如n可以为4。
本发明实施例的技术方案,通过响应于标定界面中基于融合结果的点对选择操作确定候选点对,通过点云数据确定各候选点对对应的目标点对,再通过响应于标定界面中的标定结果获取操作,基于所确定的目标点对确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵。上述技术方案,通过响应于标定界面的点对选择操作,选取第一二维点和第二二维点组成的点对,基于所选取的第一二维点在点云数据中确定对应的目标三维点,进而确定目标三维点和第二二维点组成的点对,即通过选取二维点和二维点组成的点对,即可确定用于标定的三维点和二维点组成的点对,可以更便捷地实现激光雷达与相机的联合标定。
实施例二
图2是根据本发明实施例二提供的一种激光雷达与相机标定方法的流程图,本实施例是在上述实施例一的基础上,对响应于在标定界面中基于融合结果的点对选择操作,确定点对选择操作所选择的超过设定数量的候选点对的进一步细化,以及对基于点云数据确定各候选点对对应的目标点对的进一步细化,以及对响应于标定界面中的标定结果获取操作,基于所确定的目标点对确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵的进一步细化,如图2所示,该方法包括:
S110、显示融合结果至标定界面。
S121、响应于针对标定界面中点云的第一二维点选择操作,确定第一二维点选择操作所选择的第一二维点。
S122、响应于针对标定界面中图像的第二二维点选择操作,确定第二二维点选择操作所选择的第二二维点。
S123、将第一二维点在像素坐标系下的第一像素坐标,和第二二维点在像素坐标系下的第二像素坐标,确定为一个候选点对。
S124、继续执行确定第一二维点、确定第二二维点以及确定候选点对的操作,直至所选取的候选点对的数量超过设定数量。
其中,对于一个候选点对的点对选择操作,包括第一二维点选择操作和第二二维点选择操作。第一二维点选择操作可以是指在融合结果中对点云中第一二维点的选择操作,如第一二维点选择操作可以是用户在标定界面中对融合结果中点云中点的点击操作;第二二维点选择操作可以是指在融合结果中对图像中第二二维点的选择操作,如第二二维点选择操作可以是用户在标定界面中对融合结果中图像中点的点击操作。
响应于针对标定界面中点云的第一二维点选择操作,确定第一二维点选择操作所选择的第一二维点,可以理解为,响应于针对标定界面中对融合结果中点云中点的点击操作,将该点击操作触发的点确定为第一二维点。
响应于针对标定界面中图像的第二二维点选择操作,确定第二二维点选择操作所选择的第二二维点,可以理解为,响应于针对标定界面中对融合结果中图像中点的点击操作,将该点击操作触发的点确定为第二二维点。
将第一二维点在像素坐标系下的第一像素坐标,和第二二维点在像素坐标系下的第二像素坐标,确定为一个候选点对。其中,像素坐标是像素在图像中的位置,以图像的左上角为原点可以建立以像素为单位的像素坐标系,像素的横坐标u与纵坐标v分别是在其图像数组中所在的列数与所在行数。因此,当将点云投射至图像并选取第一二维点时,所选取的第一二维点即为在图像的像素坐标系下的点,因此可以确定第一二维点在像素坐标系下的第一像素坐标;当选取图像中的第二二维点时,所选取的第二二维点为在图像的像素坐标系下的点,因此可以确定第二二维点在像素坐标系下的第二像素坐标;将第一二维点在像素坐标系下的第一像素坐标,和第二二维点在像素坐标系下的第二像素坐标,确定为一个候选点对,以便通过候选点对中的像素坐标确定候选点对中的点在像素坐标系下的位置。
继续执行确定第一二维点、确定第二二维点以及确定候选点对的操作,直至所选取的候选点对的数量超过设定数量,即通过第一二维点选择操作选择第一二维点,通过第二二维点选择操作选择第二二维点,再将第一二维点在像素坐标系下的第一像素坐标,和第二二维点在像素坐标系下的第二像素坐标,确定为一个候选点对,重复上述操作选取多个候选点对,直至所选取的候选点对的数量超过设定数量,以便后续通过所选取的候选点对确定对应的目标点对,并基于目标点对实现激光雷达与相机的联合标定。
S131、对于每个候选点对,确定候选点对中第一二维点的第一像素坐标对应的点标识。
S132、基于点标识、点云数据和候选点对中第二二维点的第二像素坐标,确定候选点对对应的目标点对。
对于每个候选点对,该候选点对中的第一二维点是通过点云数据中对应的目标三维点经透视变换得到的,而点云数据中的每个点均可以有与之唯一对应的点标识,且该点标识在变换的过程中不会改变,因此可以确定第一二维点的第一像素坐标对应的点标识,并通过该点标识在点云数据中确定与第一二维点对应的目标三维点,进而可以将目标三维点的三维坐标,和第二二维点的第二像素坐标,确定为候选点对对应的目标点对。
进一步的,基于点标识、点云数据和候选点对中第二二维点的第二像素坐标,确定候选点对对应的目标点对,包括:
从点云数据中选取与点标识具有相同标识的点,作为第一二维点在点云数据中对应的目标三维点;
将目标三维点在世界坐标系下的三维坐标,和第二二维点的第二像素坐标,确定为候选点对对应的目标点对。
在一个实施例中,候选点对中第一二维点的第一像素坐标可以表示为Puv_i,i为第一二维点的第一像素坐标对应的点标识,从点云数据所包括的多个点的三维坐标中,查找与点标识i具有相同标识的点,该点即为第一二维点在点云数据中对应的目标三维点Pw_i,将目标三维点在世界坐标系下的三维坐标Pw_i,和第二二维点的第二像素坐标Luv_i,确定为候选点对对应的目标点对。
S141、响应于标定界面中标定控件的标定结果获取操作,基于所确定的目标点对,通过三维到二维点对运动方法,确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵。
其中,标定控件可以是指在标定界面中显示的用于触发获取标定结果的控件,相应的,标定结果获取操作可以是在标定界面中对标定控件的触发操作。
响应于标定界面中对标定控件的触发操作,通过三维到二维点对运动方法,基于所确定的目标点对所包括的目标三维点的三维坐标以及对应的第二二维点的第二像素坐标,确定世界坐标系到相机坐标系的旋转矩阵和平移向量,即确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵。其中,对三维到二维点对运动方法不作限定,如可以是随机抽样一致性算法(RANdom SAmple Consensus,RANSAC)。
本发明实施例的技术方案,通过响应于标定界面中点云的第一二维点选择操作确定第一二维点,通过响应于标定界面中图像的第二二维点选择操作确定第二二维点,将第一二维点的第一像素坐标和第二二维点的第二像素坐标确定为一个候选点对,再确定候选点对对应的目标点对,进而可以通过标定控件的标定结果获取操作确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵。该技术方案通过选取二维点和二维点组成的点对,即可确定用于标定的三维点和二维点组成的点对,使用一般的图像程序界面库即可实现与用户交互的标定界面或软件的开发,在更加便捷地实现联合标定的同时,可以降低联合标定的成本。
实施例三
图3是根据本发明实施例三提供的一种激光雷达与相机标定方法的流程图,本实施例是在上述实施例一的基础上,对显示融合结果至标定界面之前的情况进行进一步细化,如图3所示,该方法包括:
S301、获取标定配置文件,标定配置文件指示点云数据的存储路径、图像的存储路径和将点云数据对应的点云投射至图像所需的投射信息。
标定配置文件可以是指能够实现激光雷达和相机的联合标定的配置文件,标定配置文件中可以存储有点云数据的存储路径、图像的存储路径以及将点云数据对应的点云投射至图像所需的投射信息。其中,投射信息可以是指将点云投射至图像所需的信息,具体可以根据实际应用需要确定。
标定配置文件的获取方式不作限定,如可以是预先根据实际应用需要设定标定配置文件,并将标定配置文件存储在电子设备本地,在需要进行联合标定时,通过电子设备本地获取标定配置文件。
S302、通过标定配置文件将点云投射至图像得到融合结果。
通过标定配置文件将点云投射至图像得到融合结果的方式不作限定,如通过标定配置文件所包括的点云数据的存储路径获取点云数据;通过标定配置文件所包括的图像的存储路径获取图像;通过标定配置文件所包括的投射信息,对点云数据所包括的每个点的三维坐标进行坐标转换,确定该点在相机对应的像素坐标系下的像素坐标,进而通过该像素坐标将该点投射至相机采集的图像得到融合结果。
S303、显示融合结果至标定界面。
S304、响应于在标定界面中基于融合结果的点对选择操作,确定点对选择操作所选择的超过设定数量的候选点对,候选点对由投射至图像的点云中的第一二维点和图像中的第二二维点形成。
S305、基于点云数据确定各候选点对对应的目标点对,目标点对由第一二维点在点云数据中对应的目标三维点和第二二维点形成。
S306、响应于标定界面中的标定结果获取操作,基于所确定的目标点对确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵。
本发明实施例的技术方案,获取标定配置文件,并通过标定配置文件将点云投射至图像得到融合结果,再将融合结果显示至标定界面,可以通过响应于标定界面中的点对选择操作和标定结果获取操作实现激光雷达和相机的联合标定。上述技术方案,通过标定配置文件实现点云与图像的融合,使点云与图像的融合更加便捷,且通过响应于可视化的界面中的操作,即可实现激光雷达与相机的联合标定,可以提高实现激光雷达与相机的联合标定的便捷性。
进一步的,通过标定配置文件将点云投射至图像得到融合结果,包括:
获取标定配置文件所指示的点云数据、图像和投射信息;
基于投射信息所包括的相机对应的相机畸变参数,对图像进行去畸变处理,将去畸变处理后的图像确定为校正图像;
根据投射信息将点云数据对应的点云投射至校正图像,得到融合结果。
获取标定配置文件所指示的点云数据、图像和投射信息;基于投射信息所包括的相机对应的相机畸变参数,根据实际需要选取相机模型对图像进行去畸变处理,得到校正后的校正图像;根据投射信息将点云数据对应的点云所包括的每个点的三维坐标进行坐标转换,确定该点在相机对应的像素坐标系下的像素坐标,进而通过该像素坐标将该点投射至校正图像,得到融合结果。其中,相机畸变参数根据实际需要确定,本发明对此不作限定。
进一步的,根据投射信息将点云数据对应的点云投射至校正图像,得到融合结果,包括:
对于点云中的每个待处理点,在点云数据中确定待处理点在世界坐标系下的三维坐标和待处理点对应的反射强度;
基于待处理点对应的三维坐标和投射信息,确定待处理点在像素坐标系下的像素坐标;
以各待处理点对应的像素坐标,作为待处理点在校正图像中的像素坐标,将各待处理点投射至校正图像;
根据各待处理点对应的反射强度和待处理点在相机坐标系下的相机光轴方向的坐标值,对投射至校正图像的各待处理点进行着色,得到融合结果。
对于点云中的每个待处理点,点云数据中存储有待处理点在世界坐标系下的三维坐标和该待处理点对应的反射强度;根据投射信息将待处理点的三维坐标,转换为待处理点在像素坐标系下的像素坐标;将待处理点对应的像素坐标作为待处理点在校正图像中的像素坐标,将待处理点投射至校正图像;根据待处理点对应的反射强度和待处理点在相机坐标系下的相机光轴方向的坐标值,对投射至校正图像的各待处理点进行着色,使各待处理点具有相应的外观特征和距离特征,进而得到融合结果。
在一个实施例中,在将各待处理点投射到像素坐标系得到Puv即待处理点在校正图像上的坐标时,由于校正图像具有固定的尺寸区域(如校正图像的宽和高分别为w和h),则需要移除在校正图像的区域之外的点云,如u<0,v<0,u>w,v>h等4种点云。其中,对校正图像的宽和高不作限定。
进一步的,基于待处理点对应的三维坐标和投射信息,确定待处理点在像素坐标系下的像素坐标,包括:
确定投射信息所包括的相机内参、投射信息所包括的初始旋转矩阵和初始平移矩阵对应的增广矩阵以及待处理点对应的三维坐标的乘积;
基于乘积与待处理点对应的坐标值的比值,确定待处理点在像素坐标系下的像素坐标;
其中,初始旋转矩阵和初始平移矩阵基于激光雷达的安装位置和相机的安装位置确定。
在实际应用中,可以将激光雷达安装在车辆顶部的位置,将相机安装在车辆的后视镜的位置,以车辆后轮的中心为世界坐标系的原点,确定激光雷达的安装位置对应的坐标,确定相机的安装位置对应的坐标,进而可以通过两个坐标确定初始旋转矩阵和初始平移矩阵,初始旋转矩阵和初始平移矩阵即为初始确定的激光雷达对应的世界坐标系到相机对应的相机坐标系的空间转换关系。
其中,投射信息所包括的相机内参可以根据实际需要确定,如根据采集图像所使用的相机的不同确定相机内参。
基于乘积与待处理点对应的坐标值的比值,确定待处理点在像素坐标系下的像素坐标,可以通过以下公式实现:
其中,zc为待处理点对应的坐标值,即待处理点在相机坐标系下的相机光轴方向的坐标值;K为相机内参对应的矩阵;R为初始旋转矩阵;t为初始平移矩阵;xw、yw和zw为待处理点对应的三维坐标;u和v即为所需确定的待处理点在像素坐标系下的像素坐标。
在一个实施例中,图4是根据本发明实施例三提供的另一种激光雷达与相机标定方法的流程图,图4是对上述激光雷达与相机标定方法的示例性说明。如图4所示,具体包括以下步骤:
(1)根据激光雷达和相机的共视区域采集点云数据Pw和图像L,点云数据由4个维度组成,即点云中各点的三维坐标和反射强度。
(2)基于点云数据,通过相机内参、相机畸变系数和外参Rt(即初始旋转矩阵和初始平移矩阵),将点云中的点透视投射至图像得到融合结果,并将融合结果显示至标定界面。
(3)在标定界面中,通过响应于第一二维点选择操作确定第一二维点,即特征点A。投射至图像的点云Puv中的特征点A具有两种坐标,一种是像素坐标Puv_i,另一种是点云坐标Pw_i,此时的Puv_i是3D点经过透视变换到2D点上的结果,因此无法直接得到点云坐标Pw_i。此时,可以通过像素坐标Puv_i在Puv中的索引值i也就等于Pw_i在Pw中的索引,进而得到对应的3D坐标Pw_i(即目标三维点的三维坐标)。
(4)在标定界面中,结合点云和图像的区域比对,通过响应于第二二维点选择操作确定第二二维点的第二像素坐标Luv_i。
(5)通过步骤(3)确定的3D坐标Pw_i和通过步骤(4)确定的2D坐标Luv_i即为一个目标点对,重复选取多个目标点对,直至目标点对的数量超过设定数量。其中,设定数量至少为4,在一定程度上,选取的目标点对的数量越多越鲁棒。
(6)响应于标定界面中的标定结果获取操作(即PnP求解),基于所确定的目标点对确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵。
图4所提供的一种激光雷达与相机标定方法,首先在融合结果中选取3D点的2D投影点(即第一二维点),根据索引得到3D点(即目标三维点),然后图像上再次选取2D点(即第二二维点)作为匹配点,得到目标点对,基于多个目标点对,通过PnP算法确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵,提高了激光雷达和相机的标定效率。
实施例四
图5是根据本发明实施例四提供的一种激光雷达与相机标定装置的结构示意图,本实施例可适用于对激光雷达与相机进行联合标定的情况。如图5所示,该装置的具体结构包括:
显示模块21,用于显示融合结果至标定界面,融合结果指示将激光雷达采集的点云数据所对应点云投射至相机采集的图像得到的结果,点云数据和图像基于激光雷达和相机的共视区域采集得到;
候选点对确定模块22,用于响应于在标定界面中基于融合结果的点对选择操作,确定点对选择操作所选择的超过设定数量的候选点对,候选点对由投射至图像的点云中的第一二维点和图像中的第二二维点形成;
目标点对确定模块23,用于基于点云数据确定各候选点对对应的目标点对,目标点对由第一二维点在点云数据中对应的目标三维点和第二二维点形成;
标定结果确定模块24,用于响应于标定界面中的标定结果获取操作,基于所确定的目标点对确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵。
本实施例提供的激光雷达与相机标定装置,首先通过显示模块显示融合结果至标定界面,融合结果指示将激光雷达采集的点云数据所对应点云投射至相机采集的图像得到的结果,点云数据和图像基于激光雷达和相机的共视区域采集得到;然后通过候选点对确定模块响应于在标定界面中基于融合结果的点对选择操作,确定点对选择操作所选择的超过设定数量的候选点对,候选点对由投射至图像的点云中的第一二维点和图像中的第二二维点形成;然后通过目标点对确定模块基于点云数据确定各候选点对对应的目标点对,目标点对由第一二维点在点云数据中对应的目标三维点和第二二维点形成;最后通过标定结果确定模块响应于标定界面中的标定结果获取操作,基于所确定的目标点对确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵。
进一步的,候选点对确定模块22,具体用于:
响应于针对标定界面中点云的第一二维点选择操作,确定第一二维点选择操作所选择的第一二维点;
响应于针对标定界面中图像的第二二维点选择操作,确定第二二维点选择操作所选择的第二二维点;
将第一二维点在像素坐标系下的第一像素坐标,和第二二维点在像素坐标系下的第二像素坐标,确定为一个候选点对;
继续执行确定第一二维点、确定第二二维点以及确定候选点对的操作,直至所选取的候选点对的数量超过设定数量;
其中,对于一个候选点对的点对选择操作,包括第一二维点选择操作和第二二维点选择操作。
进一步的,目标点对确定模块23,具体用于:
对于每个候选点对,确定候选点对中第一二维点的第一像素坐标对应的点标识;
基于点标识、点云数据和候选点对中第二二维点的第二像素坐标,确定候选点对对应的目标点对。
进一步的,目标点对确定模块23,具体用于:
从点云数据中选取与点标识具有相同标识的点,作为第一二维点在点云数据中对应的目标三维点;
将目标三维点在世界坐标系下的三维坐标,和第二二维点的第二像素坐标,确定为候选点对对应的目标点对。
进一步的,标定结果确定模块24,具体用于:
响应于标定界面中标定控件的标定结果获取操作,基于所确定的目标点对,通过三维到二维点对运动方法,确定激光雷达相对于相机的目标旋转矩阵和目标平移矩阵。
进一步的,该装置还包括:
配置文件获取模块,用于在显示融合结果至标定界面之前,获取标定配置文件,标定配置文件指示点云数据的存储路径、图像的存储路径和将点云数据对应的点云投射至图像所需的投射信息;
融合模块,用于通过标定配置文件将点云投射至图像得到融合结果。
进一步的,融合模块,具体用于:
获取标定配置文件所指示的点云数据、图像和投射信息;
基于投射信息所包括的相机对应的相机畸变参数,对图像进行去畸变处理,将去畸变处理后的图像确定为校正图像;
根据投射信息将点云数据对应的点云投射至校正图像,得到融合结果。
进一步的,融合模块,具体用于:
对于点云中的每个待处理点,在点云数据中确定待处理点在世界坐标系下的三维坐标和待处理点对应的反射强度;
基于待处理点对应的三维坐标和投射信息,确定待处理点在像素坐标系下的像素坐标;
以各待处理点对应的像素坐标,作为待处理点在校正图像中的像素坐标,将各待处理点投射至校正图像;
根据各待处理点对应的反射强度和待处理点在相机坐标系下的相机光轴方向的坐标值,对投射至校正图像的各待处理点进行着色,得到融合结果。
进一步的,融合模块,具体用于:
确定投射信息所包括的相机内参、投射信息所包括的初始旋转矩阵和初始平移矩阵对应的增广矩阵以及待处理点对应的三维坐标的乘积;
基于乘积与待处理点对应的坐标值的比值,确定待处理点在像素坐标系下的像素坐标;
其中,初始旋转矩阵和初始平移矩阵基于激光雷达的安装位置和相机的安装位置确定。
本发明实施例所提供的激光雷达与相机标定装置可执行本发明任意实施例所提供的激光雷达与相机标定方法,具备执行方法相应的功能模块和有益效果。
实施例五
图6示出了可以用来实施本发明的实施例的电子设备的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图6所示,电子设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储电子设备10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。输入/输出(I/O)接口15也连接至总线14。
电子设备10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许电子设备10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,例如激光雷达与相机标定方法。
在一些实施例中,激光雷达与相机标定方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到电子设备10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的激光雷达与相机标定方法的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行激光雷达与相机标定方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (12)
1.一种激光雷达与相机标定方法,其特征在于,包括:
显示融合结果至标定界面,所述融合结果指示将激光雷达采集的点云数据所对应点云投射至相机采集的图像得到的结果,所述点云数据和所述图像基于所述激光雷达和所述相机的共视区域采集得到;
响应于在所述标定界面中基于所述融合结果的点对选择操作,确定所述点对选择操作所选择的超过设定数量的候选点对,所述候选点对由投射至所述图像的点云中的第一二维点和所述图像中的第二二维点形成;
基于所述点云数据确定各所述候选点对对应的目标点对,所述目标点对由所述第一二维点在所述点云数据中对应的目标三维点和所述第二二维点形成;
响应于所述标定界面中的标定结果获取操作,基于所确定的目标点对确定所述激光雷达相对于所述相机的目标旋转矩阵和目标平移矩阵。
2.根据权利要求1所述的方法,其特征在于,响应于在所述标定界面中基于所述融合结果的点对选择操作,确定所述点对选择操作所选择的超过设定数量的候选点对,包括:
响应于针对所述标定界面中点云的第一二维点选择操作,确定所述第一二维点选择操作所选择的第一二维点;
响应于针对所述标定界面中图像的第二二维点选择操作,确定所述第二二维点选择操作所选择的第二二维点;
将所述第一二维点在像素坐标系下的第一像素坐标,和所述第二二维点在像素坐标系下的第二像素坐标,确定为一个候选点对;
继续执行确定所述第一二维点、确定所述第二二维点以及确定所述候选点对的操作,直至所选取的候选点对的数量超过设定数量;
其中,对于一个所述候选点对的点对选择操作,包括所述第一二维点选择操作和所述第二二维点选择操作。
3.根据权利要求1所述的方法,其特征在于,基于所述点云数据确定各所述候选点对对应的目标点对,包括:
对于每个所述候选点对,确定所述候选点对中所述第一二维点的第一像素坐标对应的点标识;
基于所述点标识、所述点云数据和所述候选点对中所述第二二维点的第二像素坐标,确定所述候选点对对应的目标点对。
4.根据权利要求3所述的方法,其特征在于,基于所述点标识、所述点云数据和所述候选点对中所述第二二维点的第二像素坐标,确定所述候选点对对应的目标点对,包括:
从所述点云数据中选取与所述点标识具有相同标识的点,作为所述第一二维点在所述点云数据中对应的目标三维点;
将所述目标三维点在世界坐标系下的三维坐标,和所述第二二维点的第二像素坐标,确定为所述候选点对对应的目标点对。
5.根据权利要求1所述的方法,其特征在于,响应于所述标定界面中的标定结果获取操作,基于所确定的目标点对确定所述激光雷达相对于所述相机的目标旋转矩阵和目标平移矩阵,包括:
响应于所述标定界面中标定控件的标定结果获取操作,基于所确定的目标点对,通过三维到二维点对运动方法,确定所述激光雷达相对于所述相机的目标旋转矩阵和目标平移矩阵。
6.根据权利要求1所述的方法,其特征在于,在所述显示融合结果至标定界面之前,还包括:
获取标定配置文件,所述标定配置文件指示所述点云数据的存储路径、所述图像的存储路径和将所述点云数据对应的点云投射至所述图像所需的投射信息;
通过所述标定配置文件将所述点云投射至所述图像得到融合结果。
7.根据权利要求6所述的方法,其特征在于,通过所述标定配置文件将所述点云投射至所述图像得到融合结果,包括:
获取所述标定配置文件所指示的所述点云数据、所述图像和所述投射信息;
基于所述投射信息所包括的所述相机对应的相机畸变参数,对所述图像进行去畸变处理,将去畸变处理后的图像确定为校正图像;
根据所述投射信息将所述点云数据对应的点云投射至所述校正图像,得到融合结果。
8.根据权利要求7所述的方法,其特征在于,根据所述投射信息将所述点云数据对应的点云投射至所述校正图像,得到融合结果,包括:
对于所述点云中的每个待处理点,在所述点云数据中确定所述待处理点在世界坐标系下的三维坐标和所述待处理点对应的反射强度;
基于所述待处理点对应的三维坐标和所述投射信息,确定所述待处理点在像素坐标系下的像素坐标;
以各所述待处理点对应的像素坐标,作为所述待处理点在所述校正图像中的像素坐标,将各所述待处理点投射至所述校正图像;
根据各所述待处理点对应的反射强度和所述待处理点在相机坐标系下的相机光轴方向的坐标值,对投射至所述校正图像的各所述待处理点进行着色,得到所述融合结果。
9.根据权利要求8所述的方法,其特征在于,基于所述待处理点对应的三维坐标和所述投射信息,确定所述待处理点在像素坐标系下的像素坐标,包括:
确定所述投射信息所包括的相机内参、所述投射信息所包括的初始旋转矩阵和初始平移矩阵对应的增广矩阵以及所述待处理点对应的三维坐标的乘积;
基于所述乘积与所述待处理点对应的坐标值的比值,确定所述待处理点在像素坐标系下的像素坐标;
其中,所述初始旋转矩阵和所述初始平移矩阵基于激光雷达的安装位置和相机的安装位置确定。
10.一种激光雷达与相机标定装置,其特征在于,包括:
显示模块,用于显示融合结果至标定界面,所述融合结果指示将激光雷达采集的点云数据所对应点云投射至相机采集的图像得到的结果,所述点云数据和所述图像基于所述激光雷达和所述相机的共视区域采集得到;
候选点对确定模块,用于响应于在所述标定界面中基于所述融合结果的点对选择操作,确定所述点对选择操作所选择的超过设定数量的候选点对,所述候选点对由投射至所述图像的点云中的第一二维点和所述图像中的第二二维点形成;
目标点对确定模块,用于基于所述点云数据确定各所述候选点对对应的目标点对,所述目标点对由所述第一二维点在所述点云数据中对应的目标三维点和所述第二二维点形成;
标定结果确定模块,用于响应于所述标定界面中的标定结果获取操作,基于所确定的目标点对确定所述激光雷达相对于所述相机的目标旋转矩阵和目标平移矩阵。
11.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-9中任一所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-9中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310925171.4A CN117078767A (zh) | 2023-07-26 | 2023-07-26 | 激光雷达与相机标定方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310925171.4A CN117078767A (zh) | 2023-07-26 | 2023-07-26 | 激光雷达与相机标定方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117078767A true CN117078767A (zh) | 2023-11-17 |
Family
ID=88717721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310925171.4A Pending CN117078767A (zh) | 2023-07-26 | 2023-07-26 | 激光雷达与相机标定方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117078767A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117388831A (zh) * | 2023-12-13 | 2024-01-12 | 中科视语(北京)科技有限公司 | 相机和激光雷达联合标定方法、装置、电子设备及介质 |
-
2023
- 2023-07-26 CN CN202310925171.4A patent/CN117078767A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117388831A (zh) * | 2023-12-13 | 2024-01-12 | 中科视语(北京)科技有限公司 | 相机和激光雷达联合标定方法、装置、电子设备及介质 |
CN117388831B (zh) * | 2023-12-13 | 2024-03-15 | 中科视语(北京)科技有限公司 | 相机和激光雷达联合标定方法、装置、电子设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210312209A1 (en) | Vehicle information detection method, electronic device and storage medium | |
KR102581429B1 (ko) | 장애물을 탐지하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
CN113012210B (zh) | 深度图的生成方法、装置、电子设备和存储介质 | |
CN109683699B (zh) | 基于深度学习实现增强现实的方法、装置及移动终端 | |
US20210272306A1 (en) | Method for training image depth estimation model and method for processing image depth information | |
CN113361365B (zh) | 定位方法和装置、设备及存储介质 | |
WO2023155387A1 (zh) | 多传感器目标检测方法、装置、电子设备以及存储介质 | |
CN115578433B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN115578515B (zh) | 三维重建模型的训练方法、三维场景渲染方法及装置 | |
CN117078767A (zh) | 激光雷达与相机标定方法、装置、电子设备及存储介质 | |
CN113325388A (zh) | 一种自动驾驶中激光雷达泛光噪点的过滤方法和装置 | |
CN109785444A (zh) | 图像中现实平面的识别方法、装置及移动终端 | |
CN116664648A (zh) | 点云帧及深度图生成方法、装置、电子设备和存储介质 | |
CN117745845A (zh) | 一种外参信息确定方法、装置、设备和存储介质 | |
CN117152270A (zh) | 激光雷达与相机的联合标定方法、装置、设备及介质 | |
CN115578432B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN117372607A (zh) | 一种三维模型的生成方法、装置及电子设备 | |
CN113065521B (zh) | 物体识别方法、装置、设备及介质 | |
CN115375740A (zh) | 位姿确定方法和三维模型的生成方法、装置、设备、介质 | |
CN115131243A (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN115049810A (zh) | 固态激光雷达点云的上色方法、装置、设备及存储介质 | |
US20200167005A1 (en) | Recognition device and recognition method | |
CN117351450B (zh) | 一种单目3d检测方法、装置、电子设备及存储介质 | |
CN114495042B (zh) | 目标检测方法和装置 | |
CN117968624A (zh) | 一种双目相机测距方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |