CN111121818B - 一种无人车中相机与二维码的标定方法 - Google Patents
一种无人车中相机与二维码的标定方法 Download PDFInfo
- Publication number
- CN111121818B CN111121818B CN201911267976.4A CN201911267976A CN111121818B CN 111121818 B CN111121818 B CN 111121818B CN 201911267976 A CN201911267976 A CN 201911267976A CN 111121818 B CN111121818 B CN 111121818B
- Authority
- CN
- China
- Prior art keywords
- camera
- coordinate system
- unmanned vehicle
- dimensional code
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K17/00—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
- G06K17/0022—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device
- G06K17/0025—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device the arrangement consisting of a wireless interrogation device in combination with a device for optically marking the record carrier
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Manufacturing & Machinery (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及一种无人车中相机与二维码的标定方法。S1.构建无人车,并搭载相机和二维码,在相机和二维码周围安装多个optitrack捕捉系统专用的标记点;S2.使用optitrack捕捉系统得到无人车中二维码周围多个标记点构造的刚体在场景中的位姿以及无人车中相机周围的多个标记点构造的刚体的位姿;S3.通过场景中的相机识别出无人车中的二维码,并得到其在该场景相机的坐标系下的位姿;S4.通过无人车中的相机得到场景中二维码中心位置在该相机坐标系下的位姿;S5.计算出无人车中二维码与其周围的多个标记点构造的刚体之间的相对位姿和相机与其周围的多个标记点构造的刚体之间的相对位姿;S6.使用现有数据计算出无人车中相机与二维码之间的相对位姿,得到标定结果。本发明提供较高精度的标定结果。
Description
技术领域
本发明属于机器人技术领域,更具体地,涉及一种无人车中相机与二维码的标定方法。
背景技术
同步定位与地图构建(SLAM)是机器人领域的重要问题,经过近三十年来的飞速发展,已经日渐成熟。目前SLAM技术有单移动机器人SLAM和多机器人协同SLAM技术,单移动机器人仅针对单一任务,在传感器形式、体积、重量、续航等方面都有诸多限制,因而在大规模环境探索中稳定性与鲁棒性不佳等问题;而多机器人协同SLAM以单机器人SLAM为基础,能够通过获取不同形式机器人和不同类型传感器进行信息融合,修正自身定位误差,解决单个移动机器人功能单一、效率低下等问题。但是多机器人的协同SLAM也存在下面几个问题需要解决:相对位姿估计、相对位姿不确定性估计、地图更新与位姿更新、视线内观测、回环检测等,其中相对位姿估计是协同SLAM的基础,具有较大的挑战性。
对于多无人车之间的相对位姿估计问题,目前多个无人车之间的相对位姿估计往往需要依赖于视觉信息,通过一个无人车对另一个无人车所携带的二维码进行识别并得到两个无人车之间的相对位姿。该过程中需要对同一无人车中相机与二维码进行标定,以得到两个无人车body坐标系下的相对位姿。但目前无人车中相机与二维码之间的标定方法较少,有直接使用手眼标定的方法进行标定,存在着较大的误差,造成无人车之间相对位姿估计不准确。
发明内容
本发明为克服上述现有技术中的缺陷,提供一种无人车中相机与二维码的标定方法,提供较高精度的标定结果,解决了多无人车协同SLAM中相对位姿估计不准确的问题。
为解决上述技术问题,本发明采用的技术方案是:一种无人车中相机与二维码的标定方法,包括以下步骤:
S1.构建无人车,在该无人车平台上搭载相机和二维码,并分别在相机和二维码周围安装多个optitrack高速运动捕捉系统专用的标记点;
S2.使用optitrack高速运动捕捉系统得到无人车中二维码周围多个标记点构造的刚体在场景中的位姿;
S3.通过场景中optitrack高速运动捕捉系统得到无人车中相机周围的多个标记点构造的刚体的位姿;
S4.通过场景中的相机识别出无人车中的二维码,并得到其在该场景相机坐标系下的位姿;
S5.通过无人车中的相机得到场景中二维码中心位置在该相机坐标系下的位姿;
S6.移动无人车,重复步骤S2至步骤S5,进行多次测量,得到上述位姿的多组数据;
S7.计算出无人车中二维码与其周围的多个标记点构造的刚体之间的相对位姿和相机与其周围的多个标记点构造的刚体之间的相对位姿;
S8.使用现有数据计算出无人车中相机与二维码之间的相对位姿,得到标定结果。
在本发明中,首先构建无人车平台,在该无人车平台上搭载相机和二维码,并分别在相机和二维码上安装多个optitrack高速运动捕捉系统专用的标记点,可在具有optitrack的场景中分别得到相机和二维码周围的标记点构造的刚体的位姿;在具有optitrack高速运动捕捉系统的场景中放置一个二维码,可使无人车平台上的相机观测到该二维码,得到其在相机中的位姿;在该场景中放置一个相机,可使其观测到无人车上的二维码,得到二维码的位姿。移动无人车,可得到上述多组位姿,分别通过手眼标定技术构造解算方程,得到无人车平台上二维码与其周围的标记点构造的刚体之间的相对位姿和相机与其周围的标记点构造的刚体之间的相对位姿,再通过变换关系得到相机与二维码之间的标定结果。
进一步的,所述的S7步骤具体包括:
S71.将场景中固定的相机坐标系命名为B系;将场景中二维码坐标系命名为W系;将optitrack默认坐标系命名为O系;将无人车平台中相机坐标系命名为C系,并将该相机周围的标记点构造的刚体坐标系命名为M系;将无人车中二维码的坐标系命名为Q系,并将该二维码周围的标记点构造的刚体坐标系命名为N系;
S72.将无人车平台在场景中进行移动,通过下面的方式计算场景中optitrack默认坐标系O到相机坐标系B的变换:
式中,是第i次测量中无人车的二维码坐标系Q到场景中相机坐标系B的变换矩阵;是第i次测量中无人车中二维码周围标记点构造的刚体坐标系N到无人车中二维码坐标系Q的变换矩阵;是第i次测量中optitrack默认坐标系O到无人车中二维码周围标记点构造的刚体坐标系N的变换矩阵;式中j表示第j次测量;
上述方程能写成下式:
AijX-XBij=0
其中:
S74.通过下面的方式计算场景中二维码坐标系W到optitrack默认坐标系O的变换:
式中,是第i次测量无人车中相机坐标系周围的标记点构造的刚体坐标系M到optitrack默认坐标系O的变换矩阵;是第i次测量无人车中相机坐标系C到其周围的标记点构造的刚体坐标系Q的变换矩阵;是第i次测量场景中二维码坐标系W到无人车中相机坐标系C的变换矩阵;式中j表示第j次测量;
上式可写成:
AijX-XBij=0
其中:
上式可化为:
进一步的,所述的S8步骤具体包括:
通过下式计算无人车中相机与二维码之间的变换矩阵,得到相机与二维码的标定结果:
与现有技术相比,有益效果是:本发明提供的一种无人车中相机与二维码的标定方法,在无人车的相机和二维码周围使用多个标记点构造出刚体,再使用optitrack高速运动捕捉系统测得刚体的高精度位姿,得到计算所需的高精度的中间量,最终得到高精度的标定结果,解决了多无人车协同SLAM中相对位姿估计不准确的问题。
附图说明
图1是本发明整体方法流程示意图。
图2是本发明构造的无人车平台示意图。
图3是本发明原理示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本发明的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本发明的限制。
实施例1:
如图2所示,一种无人车中相机与二维码的标定方法,首先构造无人车平台,无人车以全向轮驱动,配置RealSense ZR300相机,Inter-NUC机载计算平台,Velodyne-VLP16激光雷达,25cm*25cm二维码(Aruco码),电源等配件。
如图3所示,将无人车平台放入带有optitrack高速运动捕捉系统的场景中,在场景中放置一个RealSenseZ300相机和一块二维码,使无人车平台的相机能观测到场景中的二维码并使场景中的相机能观测到无人车平台的二维码,固定场景中的相机和二维码,在无人车平台的二维码和相机周围分别固定4个optitrack专用的标记点。
如图1所示,一种无人车中相机与二维码的标定方法,包括以下步骤:
步骤1.构建无人车,在该无人车平台上搭载相机和二维码,并分别在相机和二维码周围安装多个optitrack高速运动捕捉系统专用的标记点;
步骤2.使用optitrack高速运动捕捉系统得到无人车中二维码周围多个标记点构造的刚体在场景中的位姿;
步骤3.通过场景中optitrack高速运动捕捉系统得到无人车中相机周围的多个标记点构造的刚体的位姿;
步骤4.通过场景中的相机识别出无人车中的二维码,并得到其在该场景相机坐标系下的位姿;
步骤5.通过无人车中的相机得到场景中二维码中心位置在该相机坐标系下的位姿;
步骤6.移动无人车,重复步骤S2至步骤S5,进行多次测量,得到上述位姿的多组数据;
步骤7.计算出无人车中二维码与其周围的多个标记点构造的刚体之间的相对位姿和相机与其周围的多个标记点构造的刚体之间的相对位姿;
具体的,所述的S7步骤具体包括:
S71.将场景中固定的相机坐标系命名为B系;将场景中二维码坐标系命名为W系;将optitrack默认坐标系命名为O系;将无人车平台中相机坐标系命名为C系,并将该相机周围的标记点构造的刚体坐标系命名为M系;将无人车中二维码的坐标系命名为Q系,并将该二维码周围的标记点构造的刚体坐标系命名为N系;
S72.将无人车平台在场景中进行移动,通过下面的方式计算场景中optitrack默认坐标系O到相机坐标系B的变换:
式中,是第i次测量中无人车的二维码坐标系Q到场景中相机坐标系B的变换矩阵;是第i次测量中无人车中二维码周围标记点构造的刚体坐标系N到无人车中二维码坐标系Q的变换矩阵;是第i次测量中optitrack默认坐标系O到无人车中二维码周围标记点构造的刚体坐标系N的变换矩阵;式中j表示第j次测量;
上述方程能写成下式:
AijX-XBij=0
其中:
S74.通过下面的方式计算场景中二维码坐标系W到optitrack默认坐标系O的变换:
式中,是第i次测量无人车中相机坐标系周围的标记点构造的刚体坐标系M到optitrack默认坐标系O的变换矩阵;是第i次测量无人车中相机坐标系C到其周围的标记点构造的刚体坐标系Q的变换矩阵;是第i次测量场景中二维码坐标系W到无人车中相机坐标系C的变换矩阵;式中j表示第j次测量;
上式可写成:
AijX-XBij=0
其中:
上式可化为:
步骤8.使用现有数据计算出无人车中相机与二维码之间的相对位姿,得到标定结果。所述的S8步骤具体包括:
通过下式计算无人车中相机与二维码之间的变换矩阵,得到相机与二维码的标定结果:
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (1)
1.一种无人车中相机与二维码的标定方法,其特征在于,包括以下步骤:
S1.构建无人车,在该无人车平台上搭载相机和二维码,并分别在相机和二维码周围安装多个optitrack高速运动捕捉系统专用的标记点;
S2.使用optitrack高速运动捕捉系统得到无人车中二维码周围多个标记点构造的刚体在场景中的位姿;
S3.通过场景中optitrack高速运动捕捉系统得到无人车中相机周围的多个标记点构造的刚体的位姿;
S4.通过场景中的相机识别出无人车中的二维码,并得到其在该场景相机坐标系下的位姿;
S5.通过无人车中的相机得到场景中二维码中心位置在该相机坐标系下的位姿;
S6.移动无人车,重复步骤S2至步骤S5,进行多次测量,得到上述位姿的多组数据;
S7.计算出无人车中二维码与其周围的多个标记点构造的刚体之间的相对位姿和相机与其周围的多个标记点构造的刚体之间的相对位姿;所述的S7步骤具体包括:
S71.将场景中固定的相机坐标系命名为B系;将场景中二维码坐标系命名为W系;将optitrack默认坐标系命名为O系;将无人车平台中相机坐标系命名为C系,并将该相机周围的标记点构造的刚体坐标系命名为M系;将无人车中二维码的坐标系命名为Q系,并将该二维码周围的标记点构造的刚体坐标系命名为N系;
S72.将无人车平台在场景中进行移动,通过下面的方式计算场景中optitrack默认坐标系O到相机坐标系B的变换:
式中,是第i次测量中无人车的二维码坐标系Q到场景中相机坐标系B的变换矩阵;是第i次测量中无人车中二维码周围标记点构造的刚体坐标系N到无人车中二维码坐标系Q的变换矩阵;是第i次测量中optitrack默认坐标系O到无人车中二维码周围标记点构造的刚体坐标系N的变换矩阵;式中j表示第j次测量;
上述方程能写成下式:
AijX-XBij=0
其中:
S74.通过下面的方式计算场景中二维码坐标系W到optitrack默认坐标系O的变换:
式中,是第i次测量无人车中相机坐标系周围的标记点构造的刚体坐标系M到optitrack默认坐标系O的变换矩阵;是第i次测量无人车中相机坐标系C到其周围的标记点构造的刚体坐标系Q的变换矩阵;是第i次测量场景中二维码坐标系W到无人车中相机坐标系C的变换矩阵;式中j表示第j次测量;
上式可写成:
AijX-XBij=0
其中:
上式可化为:
S8.使用现有数据计算出无人车中相机与二维码之间的相对位姿,得到标定结果;通过下式计算无人车中相机与二维码之间的变换矩阵,得到相机与二维码的标定结果:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911267976.4A CN111121818B (zh) | 2019-12-11 | 2019-12-11 | 一种无人车中相机与二维码的标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911267976.4A CN111121818B (zh) | 2019-12-11 | 2019-12-11 | 一种无人车中相机与二维码的标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111121818A CN111121818A (zh) | 2020-05-08 |
CN111121818B true CN111121818B (zh) | 2021-10-26 |
Family
ID=70498737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911267976.4A Active CN111121818B (zh) | 2019-12-11 | 2019-12-11 | 一种无人车中相机与二维码的标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111121818B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111710002B (zh) * | 2020-05-27 | 2022-09-16 | 华中科技大学 | 一种基于Optitrack系统的相机外参标定方法 |
CN112734944A (zh) * | 2021-01-29 | 2021-04-30 | 中国人民解放军国防科技大学 | 无人驾驶汽车调试方法、系统、存储介质、计算机设备 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3906194B2 (ja) * | 2002-11-29 | 2007-04-18 | 株式会社東芝 | キャリブレーション方法、キャリブレーション支援装置、キャリブレーション装置およびカメラシステムの製造方法 |
US10531073B2 (en) * | 2016-03-17 | 2020-01-07 | Samsung Electronics Co., Ltd. | Method and apparatus for automatic calibration of RGBZ sensors utilizing epipolar geometry and scanning beam projector |
CN106125908A (zh) * | 2016-06-14 | 2016-11-16 | 上海锡月科技有限公司 | 一种动作捕捉校准系统 |
CN107314778B (zh) * | 2017-08-04 | 2023-02-10 | 广东工业大学 | 一种相对姿态的标定方法、装置及系统 |
CN108748146A (zh) * | 2018-05-30 | 2018-11-06 | 武汉库柏特科技有限公司 | 一种机器人手眼标定方法及系统 |
CN109726666A (zh) * | 2018-12-25 | 2019-05-07 | 鸿视线科技(北京)有限公司 | 基于标定的动作捕捉方法、系统以及计算机可读存储介质 |
CN110262283B (zh) * | 2019-06-11 | 2022-08-23 | 远形时空科技(北京)有限公司 | 一种多场景的视觉机器人仿真平台及方法 |
CN110276808B (zh) * | 2019-06-11 | 2022-10-18 | 合肥工业大学 | 一种单相机结合二维码测量玻璃板不平度的方法 |
CN110443853B (zh) * | 2019-07-19 | 2022-01-28 | 广东虚拟现实科技有限公司 | 基于双目摄像头的标定方法、装置、终端设备及存储介质 |
-
2019
- 2019-12-11 CN CN201911267976.4A patent/CN111121818B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111121818A (zh) | 2020-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Filion et al. | Robot calibration using a portable photogrammetry system | |
CN110596683B (zh) | 一种多组激光雷达外参标定系统及其方法 | |
CN107862719B (zh) | 相机外参的标定方法、装置、计算机设备和存储介质 | |
WO2021139590A1 (zh) | 基于蓝牙与slam的室内定位导航装置及其方法 | |
CN111536967B (zh) | 一种基于ekf的多传感器融合温室巡检机器人跟踪方法 | |
CN107941217B (zh) | 一种机器人定位方法、电子设备、存储介质、装置 | |
CN107665503A (zh) | 一种构建多楼层三维地图的方法 | |
CN111795686A (zh) | 一种移动机器人定位与建图的方法 | |
CN111121818B (zh) | 一种无人车中相机与二维码的标定方法 | |
CN110223386A (zh) | 一种基于多源无人机遥感数据融合的数字地形建模方法 | |
CN112254729A (zh) | 一种基于多传感器融合的移动机器人定位方法 | |
CN114623823B (zh) | 一种融合里程计的uwb多模态定位系统、方法及装置 | |
CN110686684B (zh) | 一种小天体环绕探测器光学协同定轨方法 | |
CN115371665A (zh) | 一种基于深度相机和惯性融合的移动机器人定位方法 | |
CN108225371B (zh) | 一种惯导/相机安装误差标定方法 | |
CN111811502A (zh) | 一种运动载体多源信息融合导航方法及系统 | |
Taylor | An analysis of observability-constrained Kalman filtering for vision-aided navigation | |
CN107463871A (zh) | 一种基于角特征加权的点云匹配方法 | |
CN113129377B (zh) | 一种三维激光雷达快速鲁棒slam方法和装置 | |
CN113093759A (zh) | 基于多传感器信息融合的机器人编队构造方法及系统 | |
CN111145267B (zh) | 基于imu辅助的360度全景视图多相机标定方法 | |
CN114397642A (zh) | 一种基于图优化的三维激光雷达与imu外参标定方法 | |
CN117128953A (zh) | 管道爬壁机器人航位推算方法、设备及存储介质 | |
CN210742498U (zh) | 一种用于玻璃幕墙清洗作业的无人机相对位姿测量系统 | |
CN110618696B (zh) | 一种陆空一体化测绘无人机 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |