CN116774195B - 多传感器联合标定的激励判断与参数自调节方法及系统 - Google Patents
多传感器联合标定的激励判断与参数自调节方法及系统 Download PDFInfo
- Publication number
- CN116774195B CN116774195B CN202311054667.5A CN202311054667A CN116774195B CN 116774195 B CN116774195 B CN 116774195B CN 202311054667 A CN202311054667 A CN 202311054667A CN 116774195 B CN116774195 B CN 116774195B
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- excitation
- imu
- camera
- laser radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005284 excitation Effects 0.000 title claims abstract description 113
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000008859 change Effects 0.000 claims abstract description 82
- 238000011156 evaluation Methods 0.000 claims abstract description 67
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 22
- 239000011159 matrix material Substances 0.000 claims description 49
- 238000013519 translation Methods 0.000 claims description 28
- 238000001914 filtration Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 8
- 230000004927 fusion Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 101000686031 Homo sapiens Proto-oncogene tyrosine-protein kinase ROS Proteins 0.000 description 2
- 102100023347 Proto-oncogene tyrosine-protein kinase ROS Human genes 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000004382 potting Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000271566 Aves Species 0.000 description 1
- 235000011299 Brassica oleracea var botrytis Nutrition 0.000 description 1
- 235000017647 Brassica oleracea var italica Nutrition 0.000 description 1
- 240000003259 Brassica oleracea var. botrytis Species 0.000 description 1
- 241000288673 Chiroptera Species 0.000 description 1
- 244000000626 Daucus carota Species 0.000 description 1
- 235000002767 Daucus carota Nutrition 0.000 description 1
- 241000283070 Equus zebra Species 0.000 description 1
- 241000282818 Giraffidae Species 0.000 description 1
- 244000141359 Malus pumila Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 240000008790 Musa x paradisiaca Species 0.000 description 1
- 241000283080 Proboscidea <mammal> Species 0.000 description 1
- 241000282458 Ursus sp. Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 235000021016 apples Nutrition 0.000 description 1
- 235000021015 bananas Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- IIBYAHWJQTYFKB-UHFFFAOYSA-N bezafibrate Chemical compound C1=CC(OC(C)(C)C(O)=O)=CC=C1CCNC(=O)C1=CC=C(Cl)C=C1 IIBYAHWJQTYFKB-UHFFFAOYSA-N 0.000 description 1
- 235000012970 cakes Nutrition 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000012489 doughnuts Nutrition 0.000 description 1
- 235000019692 hotdogs Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 235000013550 pizza Nutrition 0.000 description 1
- 235000011890 sandwich Nutrition 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明属于自动驾驶技术领域,公开一种多传感器联合标定的激励判断与参数自调节方法及系统,其中方法包括:通过场景识别模型确定采集的场景类型;根据IMU坐标系某一轴姿态角变化确定是否开启标定数据采集;通过奇异值分解和IMU坐标系某一轴姿态欧拉角变化值进行旋转激励评估,计算激光雷达‑IMU‑相机系统里程计信息;基于激光雷达‑IMU‑相机系统里程计信息和采集场景类型,进行平移激励评估,平移激励完成后结束标定数据采集;在标定数据采集时,根据场景类型确定对点云进行降采样时的体素参数和进行点云配准的网格体素分辨率参数。本发明可以客观准确地评价激励程度,提高标定算法的成功率,避免无效的标定数据采集。
Description
技术领域
本发明属于自动驾驶技术领域,特别涉及一种多传感器联合标定的激励判断与参数自调节方法及系统。
背景技术
随着自动驾驶技术的发展,多传感器融合技术在自动驾驶领域中变的非常重要。自动驾驶需要精准、实时地感知周围环境并做出决策,而多传感器融合可以提供丰富、多样化的信息来支持这一任务。多传感器融合技术中常用的传感器有激光雷达、IMU(惯性传感器,Inertial Measurement Unit)与相机,通过融合激光雷达观测到的几何信息、相机观测到的图像信息、IMU观测到的运动信息,可以利用不同传感器的优势克服其他传感器的缺陷来提高状态估计算法在不同场景中的适用性。传感器标定在多传感器融合中扮演着非常重要的角色,它可以提高数据融合的精度和可靠性,为多传感器融合应用提供更加准确的测量结果。
但目前不依赖于标定板的多传感器标定技术依靠人为判断旋转和平移激励是否充分,启动与结束标定数据采集,如果采集数据的过程没有充分激励传感器的各自由度,会极大地影响最终的标定结果。现有的一些激光雷达与IMU的标定方法使用PCL库中的VoxelGrid对点云进行体素化,使用正态分布变换(NDT)进行点云配准,需要人为根据标定场景设置VoxelGrid降采样时的体素大小,点云配准时的网格体素分辨率大小,影响标定算法的便捷性与效率。
发明内容
针对上述问题,本发明提供一种多传感器联合标定的激励判断与参数自调节方法及系统,采用以下技术方案:
一种多传感器联合标定的激励判断与参数自调节方法,包括以下步骤:
通过场景识别模型确定采集的场景类型;
根据IMU坐标系某一轴姿态角变化确定是否开启标定数据采集;
开始标定数据采集后,通过奇异值分解和IMU坐标系某一轴姿态欧拉角变化值进行旋转激励评估,旋转激励评估完成后,计算激光雷达-IMU-相机系统里程计信息;
基于激光雷达-IMU-相机系统里程计信息和采集场景类型,进行平移激励评估,平移激励完成后结束标定数据采集;
在标定数据采集时,根据场景类型确定对点云进行降采样时的体素参数和进行点云配准的网格体素分辨率参数。
进一步的,通过场景识别模型确定采集的场景类型,包括以下步骤:
获取室内目标数据集和室外目标数据集;
建立YOLOv8场景识别模型,并通过室内目标数据集和室外目标数据集对YOLOv8识别模型进行训练;
已训练的YOLOv8识别模型根据识别的每一帧图像中的室内室外目标个数确定采集的场景类型。
进一步的,根据IMU坐标系某一轴姿态角变化确定是否开启标定数据采集,包括以下步骤:
获取IMU坐标系某一轴上电运行时刻的姿态欧拉角和当前时刻的姿态欧拉角;
确定IMU坐标系某一轴当前时刻相对于上电运行时刻的姿态欧拉角变化值;
对IMU坐标系某一轴姿态欧拉角变化值进行滤波处理,确定IMU某一轴最终姿态欧拉角变化值,若最终姿态欧拉角变化值大于设定值,则启动标定数据采集。
进一步的,通过奇异值分解进行旋转激励评估,包括以下步骤:
获取激光雷达和相机运动信息,其中,激光雷达和相机运动信息包括相机与激光雷达之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵和相机在两帧激光数据之间的旋转矩阵;
根据相机与激光之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵和相机在两帧激光数据之间的旋转矩阵建立两帧激光数据的超定方程式;
通过两帧激光数据的超定方程式求解出激光雷达和相机间旋转外参的初值,完成奇异值分解评估。
进一步的,奇异值分解评估完成后,通过IMU坐标系某一轴姿态欧拉角变化值进行旋转激励评估,包括以下步骤:
根据采集场景类型确定姿态欧拉角变化阈值α;
根据IMU坐标系某一轴最终姿态欧拉角变化值和姿态欧拉角变化阈值α确定IMU坐标系某一轴激励是否充分,确定IMU三轴均激励充分后,完成旋转激励评估。
进一步的,基于激光雷达-IMU-相机系统里程计信息和采集场景类型,进行平移激励评估,包括以下步骤:
根据激光雷达-IMU-相机系统里程计信息,确定根据激光雷达坐标系、IMU坐标系和相机坐标系中各轴的移动距离;
基于采集场景类型,根据激光雷达坐标系、IMU坐标系和相机坐标系中各轴的移动距离以及与地面的位置关系,进行平移激励评估。
进一步的,在标定数据采集时,根据场景类型确定对点云进行降采样时的体素参数和进行点云配准的网格体素分辨率参数,包括以下步骤:
确定标定数据采集场景属于室外场景,将对点云进行降采样时的体素参数设置为0.5m×0.5m×0.5m,将进行点云配准的网格体素分辨率参数设置为1.0m;如果标定数据采集场景属于室内场景,对点云进行降采样时的体素参数设置为0.2m×0.2m×0.2m,将进行点云配准的网格体素分辨率参数设置为0.5m。
进一步的,已训练的YOLOv8识别模型根据识别的每一帧图像中的室内室外目标个数确定采集的场景类型,包括以下步骤:
开始识别时设置室内室外识别结果标志变量;
通过已训练的YOLOv8识别模型每一帧图像中的室内室外目标个数,根据每一帧图像中的室内室外目标个数,确定当前时刻室内室外识别结果标志变量;
如果当前时刻室内室外识别结果标志变量>0,则当前采集的场景属于室外,否则属于室内。
进一步的,对IMU坐标系某一轴姿态欧拉角变化值进行滤波处理,确定IMU某一轴最终姿态欧拉角变化值,若最终姿态欧拉角变化值大于设定值,则启动标定数据采集,包括以下步骤:
如果当前时刻某一轴的姿态角变化相比上一时刻的姿态角变化小于设定值a,记当前时刻的姿态欧拉角变化为0°,否则确定当前时刻的姿态欧拉角为最终姿态欧拉角变化值;
若任一个最终姿态欧拉角变化值大于设定值b,则启动标定数据采集。
进一步的,根据相机与激光之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵和相机在两帧激光数据之间的旋转矩阵建立两帧激光数据的超定方程式,包括以下步骤:
建立相机与激光雷达之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵和相机在两帧激光数据之间的旋转矩阵之间的第一关系式;
将第一关系式转化为四元数形式的第二关系式;
将第二关系式中的激光雷达在两帧激光数据之间的旋转矩阵转换为四元数左乘矩阵,将第二关系式中的相机在两帧激光数据之间的旋转矩阵转化为四元数右乘矩阵,获得第三关系式;
根据第三关系式构建两帧激光数据的超定方程式。
进一步的,基于采集场景类型,根据激光雷达坐标系、IMU坐标系和相机坐标系中各轴的移动距离以及与地面的位置关系,进行平移激励评估,包括以下步骤:
在激光雷达坐标系、IMU坐标系和相机坐标系中,当与地面垂直的轴平移的距离大于阈值c,或小于-c的次数达到设定次数时,确认该轴平移激励充分;
当识别到采集场景为室内时,当两个与地面平行的轴平移的距离大于阈值d,或小于-d的次数达到设定次数时,则确定两个与地面平行的轴平移激励充分;
当识别到采集场景为室外时,当两个与地面平行的轴平移的距离大于阈值e,或小于阈值-e的次数达到设定次数时,则确定两个与地面平行的轴平移激励充分。
进一步的,阈值e>阈值d>阈值c。
进一步的,通过两帧激光数据的超定方程式求解出激光雷达和相机间旋转外参的初值,包括以下步骤:
当两帧激光数据的超定方程式中的矩阵行数大于设定值时,开始对每一时刻的超定方程式进行奇异值分解,最小奇异值对应的右奇异向量为超定方程式的最优解,最小奇异值对应的右奇异向量为激光雷达和相机间旋转外参的初值。
本发明还提供一种多传感器联合标定的激励判断与参数自调节系统,包括:
场景识别模块,用于通过场景识别模型确定采集的场景类型;
计算模块,用于根据IMU坐标系某一轴姿态角变化确定是否开启标定数据采集;
第一评估模块,用于开始标定数据采集后,通过奇异值分解和IMU坐标系某一轴姿态欧拉角变化值进行旋转激励评估,旋转激励评估完成后,计算激光雷达-IMU-相机系统里程计信息;
第二评估模块,用于基于激光雷达-IMU-相机系统里程计信息和采集场景类型,进行平移激励评估,平移激励完成后结束标定数据采集;
数据调节模块,用于在标定数据采集时,根据场景类型确定对点云进行降采样时的体素参数和进行点云配准的网格体素分辨率参数。
进一步的,计算模块具体用于:
获取IMU坐标系某一轴上电运行时刻的姿态欧拉角和当前时刻的姿态欧拉角;
确定IMU坐标系某一轴当前时刻相对于上电运行时刻的姿态欧拉角变化值;
对IMU坐标系某一轴姿态欧拉角变化值进行滤波处理,确定IMU某一轴最终姿态欧拉角变化值,若最终姿态欧拉角变化值大于设定值,则启动标定数据采集。
进一步的,第一评估模块具体用于:
获取激光雷达和相机运动信息,其中,激光雷达和相机运动信息包括相机与激光雷达之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵和相机在两帧激光数据之间的旋转矩阵;
根据相机与激光之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵和相机在两帧激光数据之间的旋转矩阵建立两帧激光数据的超定方程式;
通过两帧激光数据的超定方程式求解出激光雷达和相机间旋转外参的初值,完成奇异值分解评估。
进一步的,第一评估模块还具体用于:
根据采集场景类型确定姿态欧拉角变化阈值α;
根据IMU坐标系某一轴最终姿态欧拉角变化值和姿态欧拉角变化阈值α确定IMU坐标系某一轴激励是否充分,确定IMU三轴均激励充分后,完成旋转激励评估。
本发明的有益效果:
1、本发明与人为判断激励是否充分的方法相比,不需要人主观地去判断坐标轴的旋转平移激励是否充分,可以客观准确地评价激励程度,进而提高标定算法的成功率,避免无效的标定数据采集。
2、本发明同时借助IMU姿态角的变化,检测传感器是否开始运动,从而自动启动数据采集,通过激励程度的判断自动结束数据采集,减少人在数据采集时的工作量,降低不同人的激励手法对标定效果的影响。
3、本发明基于YOLOv8实现室内室外场景识别,更加合理地评估平移激励,同时借助识别结果自动调节相应参数,配置简单,可以很方便地应用于一些开源标定方法,提高联合标定的成功率与效率。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书以及附图中所指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据本发明实施例的一种多传感器联合标定的激励判断与参数自调节方法流程示意图;
图2示出了根据本发明实施例的一种多传感器联合标定的激励判断与参数自调节系统的结构示意图。
图中:1、场景识别模块;2、计算模块;3、第一评估模块;4、第二评估模块;5、数据调节模块。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地说明,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本申请中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
本发明实施例提供一种多传感器联合标定的激励判断与参数自调节方法及系统,判断标定数据采集过程的激励程度,可以智能地启动与结束数据采集,通过识别标定场景调节相关参数,可以与现有标定方法结合从而提高多传感器联合标定的效率与便捷性,同时也确保了传感器各自由度被充分激励。
如图1所示,一种多传感器联合标定的激励判断与参数自调节方法,包括以下步骤:
S1、激光雷达-IMU-相机数据发布,包括:搭建三维激光雷达-IMU-相机系统,建立3维激光雷达坐标系、IMU坐标系和相机坐标系,基于ROS1发布ROS标准数据类型的激光雷达点云话题,IMU数据话题和相机图像话题。
S2、确定室内室外场景识别策略,即通过场景识别模型确定采集的场景类型,包括以下步骤:
S21、获取室内目标数据集和室外目标数据集,依据可能出现在室内室外的概率大小,选取COCO数据集中的典型室内目标和室外目标。
例如,室内目标包括:瓶子、酒杯、杯子、叉子、刀、勺子、碗、香蕉、苹果、三明治、橙子、西兰花、胡萝卜、热狗、披萨、甜甜圈、蛋糕、椅子、沙发、盆栽、床,餐桌、电视、笔记本电脑、鼠标、遥控器、键盘、手机、微波炉、盆栽、冰箱、书、时钟、花瓶、剪刀、吹风机、牙刷等。
例如,室外目标:自行车、汽车、摩托车、飞机、公共汽车、火车、卡车、船、红绿灯、消防栓、停车标志、长凳、鸟、大象、熊、斑马、长颈鹿、滑雪板、风筝、棒球棒、滑板、冲浪板、网球拍等。
S22、建立YOLOv8场景识别模型,并通过室内目标数据集和室外目标数据集对YOLOv8识别模型进行训练。
基于YOLOv8网络训练上述所有目标的场景识别模型,由于上述分类依据概率大小,所有目标都有可能出现在室内或者室外,因此设计室内室外场景识别策略。
S23、已训练的YOLOv8识别模型根据识别的每一帧图像中的室内室外目标个数确定采集的场景类型,包括以下步骤:
S231、开始识别时设置室内室外识别结果标志变量flag为0。
S232、通过已训练的YOLOv8识别模型每一帧图像中的室内室外目标个数,室内目标个数计为indoor,室外目标个数记为outdoor;根据每一帧图像中的室内室外目标个数,确定当前时刻室内室外识别结果标志变量,其中,接收一帧图像识别结果标志变量flag的计算公式为:
flag=flag+outdoor-indoor
S233、如果当前时刻室内室外识别结果标志变量flag>0,则当前采集的场景属于室外,否则属于室内。
S3、根据IMU坐标系某一轴姿态角变化确定是否开启标定数据采集,包括以下步骤:
S31、获取IMU坐标系某一轴上电运行时刻的姿态欧拉角和当前时刻的姿态欧拉角。
其中,直接输出姿态欧拉角的IMU直接使用其输出的姿态欧拉角,对于不能直接输出姿态欧拉角的IMU通过基于卡尔曼滤波器的姿态解算算法解算姿态欧拉角。
S32、确定IMU坐标系某一轴当前时刻相对于上电运行时刻的姿态欧拉角变化值。
例如,IMU上电运行时刻的姿态欧拉角初值记为,当前时刻姿态欧拉角记为/>,当前时刻相对于上电运行时刻的姿态欧拉角变化值记为,具体如下:
S33、对IMU坐标系某一轴姿态欧拉角变化值进行滤波处理,确定IMU某一轴最终姿态欧拉角变化值,若最终姿态欧拉角变化值大于设定值,则启动标定数据采集。
需要说明的是,由于IMU静止时的姿态欧拉角会有累积误差,且累积误差会一直增大,因此对得到的姿态欧拉角变化进行滤波。
其中,S33具体包括以下步骤:
S331、IMU坐标系某一轴当前时刻的上一时刻姿态欧拉角变化记为,如果当前时刻某一轴的姿态角变化相比上一时刻的姿态角变化小于设定值a,记当前时刻的姿态欧拉角变化为0°,否则确定当前时刻的姿态欧拉角为最终姿态欧拉角变化值。
例如,设定值a可以为0.1°,不同型号IMU的偏置不同,设置为0.1°可消除大多数型号IMU偏置的影响。
S332、若任一个最终姿态欧拉角变化值大于设定值b,则启动标定数据采集。
例如,设定值b可以为5°,可确定不是由于IMU误差,零飘等引起的姿态角变化,程序自动启动标定数据采集。
S4、开始标定数据采集后,通过奇异值分解和IMU坐标系某一轴姿态欧拉角变化值进行旋转激励评估,旋转激励评估完成后,计算激光雷达-IMU-相机系统里程计信息。
其中,通过奇异值分解进行旋转激励评估,包括以下步骤:
S41、获取激光雷达和相机运动信息,其中,激光雷达和相机运动信息包括相机与激光雷达之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵和相机在两帧激光数据之间的旋转矩阵。
例如,对于机械扫描式激光雷达,通过Loam 3D激光SLAM获取激光雷达运动信息;对于固态激光雷达,通过Loam Livox获取激光雷达运动信息,通过ORB-SLAM获取相机运动信息。相机与激光雷达之间坐标系相对旋转量为,通过激光SLAM获取激光雷达在两帧激光数据之间的旋转矩阵为/>;通过视觉SLAM获取相机在两帧激光数据之间的旋转矩阵为/>。
S42、根据相机与激光之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵和相机在两帧激光数据之间的旋转矩阵建立两帧激光数据的超定方程式,包括以下步骤:
S421、建立相机与激光雷达之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵/>和相机在两帧激光数据之间的旋转矩阵/>之间的第一关系式,具体如下:
式中,t表示当前时刻,t+1为上一时刻。
S422、将第一关系式转化为四元数形式的第二关系式,具体如下:
式中,、/>分别为/>、/>的四元数形式表示,/>表示两个四元数相乘。
S423、将第二关系式中的激光雷达在两帧激光数据之间的旋转矩阵转换为四元数左乘矩阵,将第二关系式中的相机在两帧激光数据之间的旋转矩阵转化为四元数右乘矩阵,获得第三关系式,具体如下:
式中,表示/>转化为左乘矩阵与/>相乘,即,/>表示/>转化为右乘矩阵与/>相乘,即。
S423、根据第三关系式构建两帧激光数据的超定方程式,两帧激光数据可以得到一个方程,每个方程构成一个约束,可构建以下超定方程,并且随着数据采集累积,超定方程约束越来越多。
其中,两帧激光数据的超定方程式,具体如下:
式中,表示不同时刻依据第三关系式构建的方程。
S43、通过两帧激光数据的超定方程式求解出激光雷达和相机间旋转外参的初值,完成奇异值分解评估。
当Q n矩阵行数大于设定值(例如,10行)时,开始对每一时刻的超定方程式进行奇异值分解,最小奇异值对应的右奇异向量为超定方程式的最优解,最小奇异值对应的右奇异向量为激光雷达和相机间旋转外参的初值。
例如,将奇异值从大到小排列,其倒数三个奇异值为,通过对倒数第二小奇异值/>与倒数第三小奇异值/>大小进行判断来限定最小奇异值大小,因此可间接通过倒数第二小与倒数第三小的奇异值来评估激励程度,当/>并且时,可通过该超定方程式求解出相对精确的激光相机间旋转外参的初值,奇异值分解评估完成。
奇异值分解评估完成后,通过采集的数据构建超定方程已足够求解旋转参数初值,但某些轴仍可能存在退化运动,因此进一步通过IMU实现旋转激励评估,判断标定过程IMU各个自由度的激励程度,具体如下:
S44、根据采集场景类型确定姿态欧拉角变化阈值α。
例如,根据场景设置角度变化阈值α,α设置范围可以为45°-90°;在使用手持设备采集数据时,设备旋转90°以内时数据采集者可以以相对舒服的姿态进行旋转操作,由于室内场景是一个相对封闭的几何体,因此每个轴都存在约束,角度变化阈值α设置为90°;而室外场景比较空旷,由于非封闭结构,即与地面垂直的轴某一方向为天空,视觉和激光无法提取到有效特征,因此角度变化阈值α设置为45°,通过基于YOLOv8的室内室外场景识别自适应调节该阈值。
S45、根据IMU坐标系某一轴最终姿态欧拉角变化值和姿态欧拉角变化阈值α确定IMU坐标系某一轴激励是否充分,确定IMU三轴均激励充分后,完成旋转激励评估。
例如,IMU坐标系某一轴最终姿态欧拉角变化值中任意一个值变化大于阈值α,或小于-α各4次,认为该轴旋转激励充分。
其中,旋转激励评估完成后,计算激光雷达-IMU-相机系统的里程计信息包括以下步骤:完成旋转激励评估后,此时VINS-mono已经完成初始化,开始使用VINS-mono算法发布里程计信息,可输出相对于激光雷达-IMU-相机系统初始时的位置[X,Y,Z]。
S5、基于激光雷达-IMU-相机系统里程计信息和采集场景类型,进行平移激励评估,平移激励完成后结束标定数据采集,包括以下步骤:
根据激光雷达-IMU-相机系统里程计信息,确定根据激光雷达坐标系、IMU坐标系和相机坐标系中各轴的移动距离,基于采集场景类型,根据激光雷达坐标系、IMU坐标系和相机坐标系中各轴的移动距离以及与地面的位置关系,进行平移激励评估,具体如下:
S51、在激光雷达坐标系、IMU坐标系和相机坐标系中,对于与地面垂直的轴,由于进行大范围平移运动难度较大,设置阈值c,根据激光雷达-IMU-相机系统里程计信息确定与地面垂直的轴平移的距离,当与地面垂直的轴平移的距离大于阈值c,或小于-c的次数达到设定次数时(例如,3次),确认该轴平移激励充分,例如,阈值c为0.5m,大于阈值0.5m,小于-0.5m各3次,则认为该轴平移激励充分。
S52、在激光雷达坐标系、IMU坐标系和相机坐标系中,对于另外两个与地面平行的轴,根据激光雷达-IMU-相机系统里程计信息确定两个与地面平行的轴平移的距离,当识别到采集场景为室内时,由于大多数室内房间空间有限,设置阈值d为4m可满足大多数室内空间运动范围限制,当两个与地面平行的轴平移的距离大于阈值d,或小于-d的次数达到设定次数时(例如,3次),则确定两个与地面平行的轴平移激励充分;当识别到采集场景为属于室外时,设置阈值e为10m,同样地,当两个与地面平行的轴平移的距离大于阈值e,或小于阈值-e的次数达到设定次数时(例如,3次),则确定两个与地面平行的轴平移激励充分。
本发明可以判断标定数据采集过程的激励程度,可以智能地启动与结束数据采集,通过识别标定场景调节相关参数,可以与现有标定方法结合从而提高激光-IMU-相机联合标定的效率与便捷性,同时也确保了传感器各自由度被充分激励。
S6、在标定数据采集时,根据场景类型确定对点云进行降采样时的体素参数和进行点云配准的网格体素分辨率参数,具体如下:
如果在标定数据采集时,确定标定数据采集场景属于室外场景,使用PCL库中的VoxelGrid对点云进行降采样时的体素参数设置为0.5m×0.5m×0.5m,使用正态分布变换(NDT)进行点云配准的网格体素分辨率参数设置为1.0m;如果标定数据采集场景属于室内场景,对点云进行降采样时的体素参数设置为0.2m×0.2m×0.2m,进行点云配准的网格体素分辨率参数设置为0.5m。
基于上述多传感器联合标定的激励判断与参数自调节方法,如图2所示,本发明实施例还提供一种多传感器联合标定的激励判断与参数自调节系统,包括:场景识别模块1、计算模块2、第一评估模块3、第二评估模块4和数据调节模块5。
其中,场景识别模块1,用于通过场景识别模型确定采集的场景类型;计算模块2,用于根据IMU坐标系某一轴姿态角变化确定是否开启标定数据采集;第一评估模块3,用于开始标定数据采集后,通过奇异值分解和IMU坐标系某一轴姿态欧拉角变化值进行旋转激励评估,旋转激励评估完成后,计算激光雷达-IMU-相机系统里程计信息;第二评估模块4,用于基于激光雷达-IMU-相机系统里程计信息和采集场景类型,进行平移激励评估,平移激励完成后结束标定数据采集;数据调节模块5,用于在标定数据采集时,根据场景类型确定对点云进行降采样时的体素参数和进行点云配准的网格体素分辨率参数。
本发明与人为判断激励是否充分的方法相比,不需要人主观地去判断绕3个坐标轴的旋转平移激励是否充分,系统可以客观准确地评价激励程度,进而提高标定算法的成功率,避免无效的标定数据采集。同时借助IMU姿态角的变化,检测传感器是否开始运动,从而自动启动数据采集,通过激励程度的判断自动结束数据采集,减少人在数据采集时的工作量,降低不同人的激励手法对标定效果的影响。基于YOLOv8实现室内室外场景识别,更加合理地评估平移激励,同时借助识别结果自动调节相应参数。该方法配置简单,可以很方便地应用于一些开源标定方法,提高联合标定的成功率与效率。
尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (15)
1.一种多传感器联合标定的激励判断与参数自调节方法,其特征在于,包括以下步骤:
通过场景识别模型确定采集的场景类型;
根据IMU坐标系某一轴姿态角变化确定是否开启标定数据采集;
开始标定数据采集后,通过奇异值分解和IMU坐标系某一轴姿态欧拉角变化值进行旋转激励评估,旋转激励评估完成后,计算激光雷达-IMU-相机系统里程计信息;
基于激光雷达-IMU-相机系统里程计信息和采集场景类型,进行平移激励评估包括:根据激光雷达-IMU-相机系统里程计信息,确定根据激光雷达坐标系、IMU坐标系和相机坐标系中各轴的移动距离;基于采集场景类型,根据激光雷达坐标系、IMU坐标系和相机坐标系中各轴的移动距离以及与地面的位置关系,进行平移激励评估;平移激励完成后结束标定数据采集;
其中,基于采集场景类型,根据激光雷达坐标系、IMU坐标系和相机坐标系中各轴的移动距离以及与地面的位置关系,进行平移激励评估,包括以下步骤:在激光雷达坐标系、IMU坐标系和相机坐标系中,当与地面垂直的轴平移的距离大于阈值c,或小于-c的次数达到设定次数时,确认该轴平移激励充分;当识别到采集场景为室内时,当两个与地面平行的轴平移的距离大于阈值d,或小于-d的次数达到设定次数时,则确定两个与地面平行的轴平移激励充分;当识别到采集场景为室外时,当两个与地面平行的轴平移的距离大于阈值e,或小于阈值-e的次数达到设定次数时,则确定两个与地面平行的轴平移激励充分;
在标定数据采集时,根据场景类型确定对点云进行降采样时的体素参数和进行点云配准的网格体素分辨率参数。
2.根据权利要求1所述的多传感器联合标定的激励判断与参数自调节方法,其特征在于,通过场景识别模型确定采集的场景类型,包括以下步骤:
获取室内目标数据集和室外目标数据集;
建立YOLOv8场景识别模型,并通过室内目标数据集和室外目标数据集对YOLOv8识别模型进行训练;
已训练的YOLOv8识别模型根据识别的每一帧图像中的室内室外目标个数确定采集的场景类型。
3.根据权利要求1所述的多传感器联合标定的激励判断与参数自调节方法,其特征在于,根据IMU坐标系某一轴姿态角变化确定是否开启标定数据采集,包括以下步骤:
获取IMU坐标系某一轴上电运行时刻的姿态欧拉角和当前时刻的姿态欧拉角;
确定IMU坐标系某一轴当前时刻相对于上电运行时刻的姿态欧拉角变化值;
对IMU坐标系某一轴姿态欧拉角变化值进行滤波处理,确定IMU某一轴最终姿态欧拉角变化值,若最终姿态欧拉角变化值大于设定值,则启动标定数据采集。
4.根据权利要求1所述的多传感器联合标定的激励判断与参数自调节方法,其特征在于,通过奇异值分解进行旋转激励评估,包括以下步骤:
获取激光雷达和相机运动信息,其中,激光雷达和相机运动信息包括相机与激光雷达之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵和相机在两帧激光数据之间的旋转矩阵;
根据相机与激光之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵和相机在两帧激光数据之间的旋转矩阵建立两帧激光数据的超定方程式;
通过两帧激光数据的超定方程式求解出激光雷达和相机间旋转外参的初值,完成奇异值分解评估。
5.根据权利要求1所述的多传感器联合标定的激励判断与参数自调节方法,其特征在于,奇异值分解评估完成后,通过IMU坐标系某一轴姿态欧拉角变化值进行旋转激励评估,包括以下步骤:
根据采集场景类型确定姿态欧拉角变化阈值α;
根据IMU坐标系某一轴最终姿态欧拉角变化值和姿态欧拉角变化阈值α确定IMU坐标系某一轴激励是否充分,确定IMU三轴均激励充分后,完成旋转激励评估。
6.根据权利要求1-5任一所述的多传感器联合标定的激励判断与参数自调节方法,其特征在于,在标定数据采集时,根据场景类型确定对点云进行降采样时的体素参数和进行点云配准的网格体素分辨率参数,包括以下步骤:
确定标定数据采集场景属于室外场景,将对点云进行降采样时的体素参数设置为0.5m×0.5m×0.5m,将进行点云配准的网格体素分辨率参数设置为1.0m;如果标定数据采集场景属于室内场景,对点云进行降采样时的体素参数设置为0.2m×0.2m×0.2m,将进行点云配准的网格体素分辨率参数设置为0.5m。
7.根据权利要求2所述的多传感器联合标定的激励判断与参数自调节方法,其特征在于,已训练的YOLOv8识别模型根据识别的每一帧图像中的室内室外目标个数确定采集的场景类型,包括以下步骤:
开始识别时设置室内室外识别结果标志变量;
通过已训练的YOLOv8识别模型每一帧图像中的室内室外目标个数,根据每一帧图像中的室内室外目标个数,确定当前时刻室内室外识别结果标志变量;
如果当前时刻室内室外识别结果标志变量>0,则当前采集的场景属于室外,否则属于室内。
8.根据权利要求3所述的多传感器联合标定的激励判断与参数自调节方法,其特征在于,对IMU坐标系某一轴姿态欧拉角变化值进行滤波处理,确定IMU某一轴最终姿态欧拉角变化值,若最终姿态欧拉角变化值大于设定值,则启动标定数据采集,包括以下步骤:
如果当前时刻某一轴的姿态角变化相比上一时刻的姿态角变化小于设定值a,记当前时刻的姿态欧拉角变化为0°,否则确定当前时刻的姿态欧拉角为最终姿态欧拉角变化值;
若任一个最终姿态欧拉角变化值大于设定值b,则启动标定数据采集。
9.根据权利要求4所述的多传感器联合标定的激励判断与参数自调节方法,其特征在于,根据相机与激光之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵和相机在两帧激光数据之间的旋转矩阵建立两帧激光数据的超定方程式,包括以下步骤:
建立相机与激光雷达之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵和相机在两帧激光数据之间的旋转矩阵之间的第一关系式;
将第一关系式转化为四元数形式的第二关系式;
将第二关系式中的激光雷达在两帧激光数据之间的旋转矩阵转换为四元数左乘矩阵,将第二关系式中的相机在两帧激光数据之间的旋转矩阵转化为四元数右乘矩阵,获得第三关系式;
根据第三关系式构建两帧激光数据的超定方程式。
10.根据权利要求1所述的多传感器联合标定的激励判断与参数自调节方法,其特征在于,阈值e>阈值d>阈值c。
11.根据权利要求4或9所述的多传感器联合标定的激励判断与参数自调节方法,其特征在于,通过两帧激光数据的超定方程式求解出激光雷达和相机间旋转外参的初值,包括以下步骤:
当两帧激光数据的超定方程式中的矩阵行数大于设定值时,开始对每一时刻的超定方程式进行奇异值分解,最小奇异值对应的右奇异向量为超定方程式的最优解,最小奇异值对应的右奇异向量为激光雷达和相机间旋转外参的初值。
12.一种多传感器联合标定的激励判断与参数自调节系统,其特征在于,包括:
场景识别模块,用于通过场景识别模型确定采集的场景类型;
计算模块,用于根据IMU坐标系某一轴姿态角变化确定是否开启标定数据采集;
第一评估模块,用于开始标定数据采集后,通过奇异值分解和IMU坐标系某一轴姿态欧拉角变化值进行旋转激励评估,旋转激励评估完成后,计算激光雷达-IMU-相机系统里程计信息;
第二评估模块,用于基于激光雷达-IMU-相机系统里程计信息和采集场景类型,进行平移激励评估包括:根据激光雷达-IMU-相机系统里程计信息,确定根据激光雷达坐标系、IMU坐标系和相机坐标系中各轴的移动距离;基于采集场景类型,根据激光雷达坐标系、IMU坐标系和相机坐标系中各轴的移动距离以及与地面的位置关系,进行平移激励评估;平移激励完成后结束标定数据采集;
其中,基于采集场景类型,根据激光雷达坐标系、IMU坐标系和相机坐标系中各轴的移动距离以及与地面的位置关系,进行平移激励评估,包括以下步骤:在激光雷达坐标系、IMU坐标系和相机坐标系中,当与地面垂直的轴平移的距离大于阈值c,或小于-c的次数达到设定次数时,确认该轴平移激励充分;当识别到采集场景为室内时,当两个与地面平行的轴平移的距离大于阈值d,或小于-d的次数达到设定次数时,则确定两个与地面平行的轴平移激励充分;当识别到采集场景为室外时,当两个与地面平行的轴平移的距离大于阈值e,或小于阈值-e的次数达到设定次数时,则确定两个与地面平行的轴平移激励充分;
数据调节模块,用于在标定数据采集时,根据场景类型确定对点云进行降采样时的体素参数和进行点云配准的网格体素分辨率参数。
13.根据权利要求12所述的多传感器联合标定的激励判断与参数自调节系统,其特征在于,计算模块具体用于:
获取IMU坐标系某一轴上电运行时刻的姿态欧拉角和当前时刻的姿态欧拉角;
确定IMU坐标系某一轴当前时刻相对于上电运行时刻的姿态欧拉角变化值;
对IMU坐标系某一轴姿态欧拉角变化值进行滤波处理,确定IMU某一轴最终姿态欧拉角变化值,若最终姿态欧拉角变化值大于设定值,则启动标定数据采集。
14.根据权利要求12所述的多传感器联合标定的激励判断与参数自调节系统,其特征在于,第一评估模块具体用于:
获取激光雷达和相机运动信息,其中,激光雷达和相机运动信息包括相机与激光雷达之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵和相机在两帧激光数据之间的旋转矩阵;
根据相机与激光之间坐标系相对旋转量、激光雷达在两帧激光数据之间的旋转矩阵和相机在两帧激光数据之间的旋转矩阵建立两帧激光数据的超定方程式;
通过两帧激光数据的超定方程式求解出激光雷达和相机间旋转外参的初值,完成奇异值分解评估。
15.根据权利要求12所述的多传感器联合标定的激励判断与参数自调节系统,其特征在于,第一评估模块还具体用于:
根据采集场景类型确定姿态欧拉角变化阈值α;
根据IMU坐标系某一轴最终姿态欧拉角变化值和姿态欧拉角变化阈值α确定IMU坐标系某一轴激励是否充分,确定IMU三轴均激励充分后,完成旋转激励评估。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311054667.5A CN116774195B (zh) | 2023-08-22 | 2023-08-22 | 多传感器联合标定的激励判断与参数自调节方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311054667.5A CN116774195B (zh) | 2023-08-22 | 2023-08-22 | 多传感器联合标定的激励判断与参数自调节方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116774195A CN116774195A (zh) | 2023-09-19 |
CN116774195B true CN116774195B (zh) | 2023-12-08 |
Family
ID=88008415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311054667.5A Active CN116774195B (zh) | 2023-08-22 | 2023-08-22 | 多传感器联合标定的激励判断与参数自调节方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116774195B (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6127970A (en) * | 1998-09-25 | 2000-10-03 | Lin; Ching-Fang | Coupled real time emulation method for positioning and location system |
CN110044354A (zh) * | 2019-03-28 | 2019-07-23 | 东南大学 | 一种双目视觉室内定位与建图方法及装置 |
CN110223297A (zh) * | 2019-04-16 | 2019-09-10 | 广东康云科技有限公司 | 基于扫描点云数据的分割与识别方法、系统及存储介质 |
CN110428467A (zh) * | 2019-07-30 | 2019-11-08 | 四川大学 | 一种相机、imu和激光雷达联合的机器人定位方法 |
CN110514225A (zh) * | 2019-08-29 | 2019-11-29 | 中国矿业大学 | 一种矿井下多传感器融合的外部参数标定及精准定位方法 |
CN111597921A (zh) * | 2020-04-28 | 2020-08-28 | 深圳市人工智能与机器人研究院 | 场景识别方法、装置、计算机设备和存储介质 |
CN111657798A (zh) * | 2020-06-02 | 2020-09-15 | 深圳市杉川机器人有限公司 | 基于场景信息的清扫机器人控制方法、装置和清扫机器人 |
CN113945206A (zh) * | 2020-07-16 | 2022-01-18 | 北京图森未来科技有限公司 | 一种基于多传感器融合的定位方法及装置 |
CN114638909A (zh) * | 2022-03-24 | 2022-06-17 | 杭州电子科技大学 | 基于激光slam和视觉融合的变电站语义地图构建方法 |
CN114782797A (zh) * | 2022-06-21 | 2022-07-22 | 深圳市万物云科技有限公司 | 房屋场景分类方法、装置、设备及可读存储介质 |
CN115655305A (zh) * | 2022-09-13 | 2023-01-31 | 驭势科技(北京)有限公司 | 外参标定方法、装置、计算设备、存储介质和车辆 |
CN116071813A (zh) * | 2021-11-01 | 2023-05-05 | 浙江宇视科技有限公司 | 一种场景检测方法、装置、介质及设备 |
CN116385538A (zh) * | 2023-04-04 | 2023-07-04 | 北京信息科技大学 | 一种面向动态场景的视觉slam方法、系统及存储介质 |
CN116433762A (zh) * | 2023-03-14 | 2023-07-14 | 东南大学 | 激光雷达与相机标定状态检测方法、校正方法、装置及存储介质 |
-
2023
- 2023-08-22 CN CN202311054667.5A patent/CN116774195B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6127970A (en) * | 1998-09-25 | 2000-10-03 | Lin; Ching-Fang | Coupled real time emulation method for positioning and location system |
CN110044354A (zh) * | 2019-03-28 | 2019-07-23 | 东南大学 | 一种双目视觉室内定位与建图方法及装置 |
CN110223297A (zh) * | 2019-04-16 | 2019-09-10 | 广东康云科技有限公司 | 基于扫描点云数据的分割与识别方法、系统及存储介质 |
CN110428467A (zh) * | 2019-07-30 | 2019-11-08 | 四川大学 | 一种相机、imu和激光雷达联合的机器人定位方法 |
CN110514225A (zh) * | 2019-08-29 | 2019-11-29 | 中国矿业大学 | 一种矿井下多传感器融合的外部参数标定及精准定位方法 |
CN111597921A (zh) * | 2020-04-28 | 2020-08-28 | 深圳市人工智能与机器人研究院 | 场景识别方法、装置、计算机设备和存储介质 |
CN111657798A (zh) * | 2020-06-02 | 2020-09-15 | 深圳市杉川机器人有限公司 | 基于场景信息的清扫机器人控制方法、装置和清扫机器人 |
CN113945206A (zh) * | 2020-07-16 | 2022-01-18 | 北京图森未来科技有限公司 | 一种基于多传感器融合的定位方法及装置 |
CN116071813A (zh) * | 2021-11-01 | 2023-05-05 | 浙江宇视科技有限公司 | 一种场景检测方法、装置、介质及设备 |
CN114638909A (zh) * | 2022-03-24 | 2022-06-17 | 杭州电子科技大学 | 基于激光slam和视觉融合的变电站语义地图构建方法 |
CN114782797A (zh) * | 2022-06-21 | 2022-07-22 | 深圳市万物云科技有限公司 | 房屋场景分类方法、装置、设备及可读存储介质 |
CN115655305A (zh) * | 2022-09-13 | 2023-01-31 | 驭势科技(北京)有限公司 | 外参标定方法、装置、计算设备、存储介质和车辆 |
CN116433762A (zh) * | 2023-03-14 | 2023-07-14 | 东南大学 | 激光雷达与相机标定状态检测方法、校正方法、装置及存储介质 |
CN116385538A (zh) * | 2023-04-04 | 2023-07-04 | 北京信息科技大学 | 一种面向动态场景的视觉slam方法、系统及存储介质 |
Non-Patent Citations (1)
Title |
---|
"目标-场景"语境关联的生成图模型分析;谢昭;李姗琦;高隽;;中国图象图形学报(第07期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116774195A (zh) | 2023-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107665506B (zh) | 实现增强现实的方法及系统 | |
CN105783913A (zh) | 一种融合车载多传感器的slam装置及其控制方法 | |
CN103886107B (zh) | 基于天花板图像信息的机器人定位与地图构建系统 | |
CN107292907B (zh) | 一种对跟随目标进行定位的方法以及跟随设备 | |
CN102591533B (zh) | 基于计算机视觉技术的多点触摸屏系统实现方法 | |
CN112461210B (zh) | 一种空地协同建筑测绘机器人系统及其测绘方法 | |
CN110555408B (zh) | 一种基于自适应映射关系的单摄像头实时三维人体姿态检测方法 | |
JP2013537618A (ja) | オブジェクト追跡及び認識方法及び装置 | |
CN102982340A (zh) | 基于半监督学习和随机蕨类分类器的目标跟踪方法 | |
CN107665508B (zh) | 实现增强现实的方法及系统 | |
CN110390685B (zh) | 一种基于事件相机的特征点跟踪方法 | |
CN107665507B (zh) | 基于平面检测实现增强现实的方法及装置 | |
CN109087394A (zh) | 一种基于低成本rgb-d传感器的实时室内三维重建方法 | |
WO2019075948A1 (zh) | 移动机器人的位姿估计方法 | |
CN105241377A (zh) | 基于云镜摄系统参数和视频帧的植物三维测量方法和系统 | |
CN108171728B (zh) | 基于混合相机系统的无标记运动物体姿态恢复方法及装置 | |
CN103994765A (zh) | 一种惯性传感器的定位方法 | |
CN111489392B (zh) | 多人环境下单个目标人体运动姿态捕捉方法及系统 | |
JPWO2019021569A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN111366153A (zh) | 一种激光雷达与imu紧耦合的定位方法 | |
CN113946216A (zh) | 人机交互方法、智能设备、存储介质及程序产品 | |
CN105354863A (zh) | 基于特征滤波和快速运动检测模板预测的自适应尺度图像序列目标跟踪方法 | |
CN113447014A (zh) | 室内移动机器人、建图方法、定位方法以及建图定位装置 | |
CN104951753B (zh) | 一种有标识物6自由度视觉跟踪系统及其实现方法 | |
CN113781525B (zh) | 一种基于原始cad模型的三维目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |