CN111047652B - 一种快速的多tof相机外参标定方法和装置 - Google Patents
一种快速的多tof相机外参标定方法和装置 Download PDFInfo
- Publication number
- CN111047652B CN111047652B CN202010173119.4A CN202010173119A CN111047652B CN 111047652 B CN111047652 B CN 111047652B CN 202010173119 A CN202010173119 A CN 202010173119A CN 111047652 B CN111047652 B CN 111047652B
- Authority
- CN
- China
- Prior art keywords
- tof camera
- point cloud
- tof
- cloud data
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种快速的多TOF相机外参标定方法和装置,包括:通过2D激光雷达获取点云数据,将所述点云数据沿Z轴正负方向进行拉伸,生成TOF相机匹配用的3D点云数据,作为匹配模板;采集多个TOF相机的点云数据,将每个TOF相机的点云数据与匹配模板进行ICP匹配,获得每个TOF相机之间的相对位姿;根据手眼标定法,利用激光数据和TOF相机相对位姿数据进行标定。本发明通过2D激光雷达对TOF相机进行标定,实现了TOF相机外参快速、准确的标定。该方法克服了传统标定方案中需借助额外器械辅助的弊端,尤其在机器人使用现场,能够随标随用,大大方便了现场对拆装TOF相机后带来的外参问题进行处理。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种快速的多TOF相机外参标定方法和装置。
背景技术
TOF相机是机器人在自主定位中使用的重要传感器,机器人通过获取准确的TOF相机数据,计算自己在地图中的位姿,因此标定好相机的内外参尤其重要。值得注意的是,TOF相机相对于激光雷达,其自身视野一般较小,获取到的数据有限,为标定带来一定困难,同时,工程上往往安装多个TOF相机以拓展检测的范围,多个TOF相机之间相对位姿的标定很容易带来累积误差,进一步增大了相机标定的难度。
目前TOF相机主要侧重于内参的标定,外参标定一般采用传统手眼标定的方式,需要特定的装置,结构复杂,标定也非常耗时。而在机器人使用过程中,安装在机器人上的相机,内参通常不会发生变化,但外参在拆卸过程中很容易改变,因此需要一种快速的TOF相机外参标定方法,满足快速、准确标定TOF相机外参的要求。
发明内容
本发明的目的是提供一种快速的多TOF相机外参标定方法和装置,用以解决相关技术中TOF相机外参在现场标定困难的问题。
为了达到上述目的,本发明所采用的技术方案如下:
第一方面,根据本发明的实施例,提供一种快速的多TOF相机外参标定方法,包括:
通过2D激光雷达获取点云数据,将所述点云数据沿Z轴正负方向进行拉伸,生成TOF相机匹配用的3D点云数据,作为匹配模板;
采集多个TOF相机的点云数据,将每个TOF相机的点云数据与匹配模板进行ICP匹配,获得每个TOF相机之间的相对位姿;
根据手眼标定法,利用激光数据和TOF相机相对位姿数据进行标定
进一步地,将每个TOF相机的点云数据与匹配模板进行ICP匹配,得到每个TOF相机与2D激光雷达之间的位姿关系,进而获得每个TOF相机之间的相对位姿。
进一步地,通过利用激光数据和TOF相机相对位姿数据进行标定,包括:
通过机器人运动前后采集得到的激光数据以及TOF相机相对位姿数据,推导出手眼标定方程AX = XB,其中A表示根据激光数据计算出的机器人在运动前后的位姿变换,B表示的是TOF相机在同样运动前后的位姿变换;
求解该方程,直接标定出TOF相机与机器人之间的位姿关系X。
进一步地,所述机器人上搭载有2D激光雷达和多TOF相机。
第二方面,根据本发明的实施例,还提供一种快速的多TOF相机外参标定装置,包括:
点云模板生成模块,用于生成TOF相机匹配用的3D点云数据,作为匹配模板;
多TOF互相标定模块,用于采集多个TOF相机的点云数据,将每个TOF相机的点云数据与匹配模板进行ICP匹配,获得每个TOF相机之间的相对位姿;
TOF相机整体标定模块,用于通过利用激光数据和TOF相机相对位姿数据进行标定。
第三方面,根据本发明的实施例,还提供一种设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的方法。
第四方面,根据本发明的实施例,还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面所述的方法。
根据本发明实施例,本发明通过2D激光雷达对TOF相机进行标定,实现了TOF相机外参快速、准确的标定。该方法克服了传统标定方案中需借助额外器械辅助的弊端,尤其在机器人使用现场,能够随标随用,大大方便了现场对拆装TOF相机后带来的外参问题进行处理。同时,将经典手眼标定方式应用于机器人多传感器标定领域,使其实用性进一步拓展。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种快速的多TOF相机外参标定方法的流程图;
图2是根据本发明实施例的一种快速的多TOF相机外参标定装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例,提供了一种基于3D视觉鞋底涂胶路径规划方法,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1是根据本发明实施例的一种快速的多TOF相机外参标定方法,如图1所示,该方法包括如下步骤:
步骤S101,通过2D激光雷达获取点云数据,将所述点云数据沿Z轴正负方向进行拉伸,生成TOF相机匹配用的3D点云数据,作为匹配模板;
步骤S102,采集多个TOF相机的点云数据,将每个TOF相机的点云数据与匹配模板进行ICP匹配,获得每个TOF相机之间的相对位姿;
步骤S103,根据手眼标定法,利用激光数据和TOF相机相对位姿数据进行标定。
根据本发明实施例,本发明通过2D激光雷达对TOF相机进行标定,实现了TOF相机外参快速、准确的标定。该方法克服了传统标定方案中需借助额外器械辅助的弊端,尤其在机器人使用现场,能够随标随用,大大方便了现场对拆装TOF相机后带来的外参问题进行处理。同时,将经典手眼标定方式应用于机器人多传感器标定领域,使其实用性进一步拓展。
根据本发明的实施例,将每个TOF相机的点云数据与匹配模板进行ICP匹配,得到每个TOF相机与2D激光雷达之间的位姿关系,进而获得每个TOF相机之间的相对位姿。因为使用了ICP进行匹配的方式,匹配精度非常高,不会带来累计误差的影响。
根据本发明的实施例,通过利用激光数据和TOF相机相对位姿数据进行标定,包括:
通过机器人运动前后采集得到的激光数据以及TOF相机相对位姿数据,推导出手眼标定方程AX = XB,其中A表示根据激光数据计算出的机器人在运动前后的位姿变换,B表示的是TOF相机在同样运动前后的位姿变换;
求解该方程,直接标定出TOF相机与机器人之间的位姿关系X。
下面通过实施例的形式对以上方法做进一步的解释说明。
步骤S1:将搭载有2D激光雷达和多TOF相机的机器人置于场景中比较规则的区域,例如长方体立柱或者墙角的直角转角。利用该位置较为规则的特性,能够比较方便地生成匹配所需要的模板。
步骤S2:启动2D激光雷达采集二维点云数据,并将此二维点云数据沿Z轴正负方向拉伸,生成三维点云数据,作为下面TOF相机匹配的模板。
步骤S3, 调整机器人位姿,使得单个TOF对准所选直角特征物,采集单个TOF的点云数据,与之前生成的模板进行ICP匹配,将TOF相机的机械安装位置作为ICP的初始位姿,则ICP算法会很快收敛。因为单个TOF相机的视野较小,而2D激光雷达的视野很大,所以在标定过程中,需要调整机器人位姿,使得所标定的TOF传感器,能够和激光同时看到同一个标记物。
步骤S4,将其余TOF相机重复S3步骤,即可得到每个TOF相机与激光之间的位姿关系,从而得到每个相机之间的相对位姿。
步骤S5:通过机器人运动后采集得到的激光数据以及TOF相机相对位姿数据,可以推导出经典手眼标定方程AX = XB,其中A表示根据激光数据计算出的机器人在运动前后的位姿变换,基于激光数据可以根据全局匹配或者激光里程计的方式很容易地获得机器人的坐标,从而计算出的机器人在运动前后的位姿变换;B表示的是TOF相机在同样运动前后的位姿变换。根据以上信息,推导经典手眼标定方程AX = XB,具体如下:
联合(1)(2)两式,可以推出式(3)
式(3)即为经典手眼标定方程AX = XB。求解该方程,可直接标定出TOF相机与机器人底座之间的位姿关系X。因为此时将TOF相机作为了一个整体进行标定,比单个TOF相机扩大了视野,使得标定更加简单容易。
图2为本发明实施例提供的一种快速的多TOF相机外参标定装置的结构示意图,该装置可以执行任意本发明任意实施例所提供的一种快速的多TOF相机外参标定方法,具备执行该方法相应的功能模块和有益效果。如图2所示,该装置包括:
点云模板生成模块91,用于生成TOF相机匹配用的3D点云数据,作为匹配模板;
多TOF互相标定模块92,用于采集多个TOF相机的点云数据,将每个TOF相机的点云数据与匹配模板进行ICP匹配,获得每个TOF相机之间的相对位姿;
TOF相机整体标定模块93,用于通过利用激光数据和TOF相机相对位姿数据进行标定。
根据本发明的实施例,还提供一种设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的方法。
根据本发明的实施例,还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面所述的方法。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (6)
1.一种快速的多TOF相机外参标定方法,其特征在于,包括:
将2D激光雷达和多个TOF相机置于场景中规则的区域;
通过2D激光雷达获取点云数据,将所述点云数据沿Z轴正负方向进行拉伸,生成TOF相机匹配用的3D点云数据,作为匹配模板;
采集多个TOF相机的3D点云数据,将每个TOF相机的点云数据与匹配模板进行ICP匹配,获得每个TOF相机之间的相对位姿;
通过运动前后采集得到的激光数据以及TOF相机相对位姿数据,推导出手眼标定方程AX = XB,直接标定出TOF相机外参,其中A表示根据激光数据计算出的机器人在运动前后的位姿变换,B表示的是TOF相机在同样运动前后的位姿变换,X表示TOF相机与机器人之间的位姿关系。
2.根据权利要求1所述的一种快速的多TOF相机外参标定方法,其特征在于,将每个TOF相机的点云数据与匹配模板进行ICP匹配,得到每个TOF相机与2D激光雷达之间的位姿关系,进而获得每个TOF相机之间的相对位姿。
3.根据权利要求1所述的一种快速的多TOF相机外参标定方法,其特征在于,所述2D激光雷达和多TOF相机搭载在机器人上。
4.一种快速的多TOF相机外参标定装置,其特征在于,包括:
点云模板生成模块,用于通过2D激光雷达获取点云数据,将所述点云数据沿Z轴正负方向进行拉伸,生成TOF相机匹配用的3D点云数据,作为匹配模板;其中2D激光雷达位于场景中规则的区域;
多TOF互相标定模块,用于采集多个TOF相机的3D点云数据,将每个TOF相机的点云数据与匹配模板进行ICP匹配,获得每个TOF相机之间的相对位姿,其中多个TOF相机位于场景中规则的区域;
TOF相机整体标定模块,用于通过运动前后采集得到的激光数据以及TOF相机相对位姿数据,推导出手眼标定方程AX = XB,直接标定出TOF相机外参,其中A表示根据激光数据计算出的机器人在运动前后的位姿变换,B表示的是TOF相机在同样运动前后的位姿变换,X表示TOF相机与机器人之间的位姿关系。
5.一种相机外参标定设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-3任一项所述的方法。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-3中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010173119.4A CN111047652B (zh) | 2020-03-13 | 2020-03-13 | 一种快速的多tof相机外参标定方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010173119.4A CN111047652B (zh) | 2020-03-13 | 2020-03-13 | 一种快速的多tof相机外参标定方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111047652A CN111047652A (zh) | 2020-04-21 |
CN111047652B true CN111047652B (zh) | 2020-06-30 |
Family
ID=70231110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010173119.4A Active CN111047652B (zh) | 2020-03-13 | 2020-03-13 | 一种快速的多tof相机外参标定方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111047652B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112729344B (zh) * | 2020-12-30 | 2022-09-13 | 珠海市岭南大数据研究院 | 无需参照物的传感器外参标定方法 |
CN113205560B (zh) * | 2021-05-06 | 2024-02-23 | Oppo广东移动通信有限公司 | 多深度相机的标定方法、装置、设备及存储介质 |
CN113625288A (zh) * | 2021-06-15 | 2021-11-09 | 中国科学院自动化研究所 | 基于点云配准的相机与激光雷达位姿标定方法和装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110161485A (zh) * | 2019-06-13 | 2019-08-23 | 同济大学 | 一种激光雷达与视觉相机的外参标定装置及标定方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101826711B1 (ko) * | 2016-10-27 | 2018-02-08 | 광주과학기술원 | ToF 카메라의 깊이맵 보정 방법 |
EP3508874A1 (de) * | 2018-01-03 | 2019-07-10 | Espros Photonics AG | Kalibriervorrichtung für eine tof-kameravorrichtung |
CN109632033B (zh) * | 2019-02-22 | 2024-04-26 | 浙江大学滨海产业技术研究院 | 一种体积测量的设备与方法 |
CN109949371A (zh) * | 2019-03-18 | 2019-06-28 | 北京智行者科技有限公司 | 一种用于激光雷达和相机数据的标定方法 |
-
2020
- 2020-03-13 CN CN202010173119.4A patent/CN111047652B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110161485A (zh) * | 2019-06-13 | 2019-08-23 | 同济大学 | 一种激光雷达与视觉相机的外参标定装置及标定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111047652A (zh) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111047652B (zh) | 一种快速的多tof相机外参标定方法和装置 | |
US10109104B2 (en) | Generation of 3D models of an environment | |
CN105758426B (zh) | 移动机器人的多传感器的联合标定方法 | |
KR101666959B1 (ko) | 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법 | |
CN106803271B (zh) | 一种视觉导航无人机的摄像机标定方法及装置 | |
KR101532864B1 (ko) | 모바일 디바이스들에 대한 평면 맵핑 및 트래킹 | |
CN111750820B (zh) | 影像定位方法及其系统 | |
KR101585521B1 (ko) | 장면 구조-기반 자가-포즈 추정 | |
EP2116975B1 (en) | Method and apparatus for vision based motion determination | |
CN111199564A (zh) | 智能移动终端的室内定位方法、装置与电子设备 | |
CN102072706B (zh) | 一种多相机定位与跟踪方法及系统 | |
CN111862180B (zh) | 一种相机组位姿获取方法、装置、存储介质及电子设备 | |
CN113048980B (zh) | 位姿优化方法、装置、电子设备及存储介质 | |
CN110470333B (zh) | 传感器参数的标定方法及装置、存储介质和电子装置 | |
US11045953B2 (en) | Relocalization method and robot using the same | |
CN116255992A (zh) | 一种同时定位与建图的方法和装置 | |
JP2011085971A (ja) | 画像処理装置、画像処理方法、画像処理プログラム、記録媒体及び画像処理システム | |
CN111161179A (zh) | 一种基于法向量的点云平滑光顺滤波方法 | |
Zhou et al. | A new algorithm for the extrinsic calibration of a 2D LIDAR and a camera | |
KR20010055957A (ko) | 증강현실 기반의 3차원 트래커와 컴퓨터 비젼을 이용한영상 정합 방법 | |
Siddique et al. | 3d object localization using 2d estimates for computer vision applications | |
CN113030960B (zh) | 一种基于单目视觉slam的车辆定位方法 | |
CN113223163A (zh) | 点云地图构建方法及装置、设备、存储介质 | |
He et al. | Research on Object Location Detection based on ROS Machine Vision | |
Howarth et al. | Novel robotic 3D surface mapping using range and vision fusion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |