CN117523362A - 一种基于混合目标特征基准点的多传感器目标跟踪融合方法 - Google Patents
一种基于混合目标特征基准点的多传感器目标跟踪融合方法 Download PDFInfo
- Publication number
- CN117523362A CN117523362A CN202311467493.5A CN202311467493A CN117523362A CN 117523362 A CN117523362 A CN 117523362A CN 202311467493 A CN202311467493 A CN 202311467493A CN 117523362 A CN117523362 A CN 117523362A
- Authority
- CN
- China
- Prior art keywords
- center
- target
- track
- nearest
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 13
- 238000001514 detection method Methods 0.000 claims abstract description 47
- 238000005259 measurement Methods 0.000 claims abstract description 45
- 230000004927 fusion Effects 0.000 claims abstract description 23
- 238000000034 method Methods 0.000 claims abstract description 14
- 238000001914 filtration Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000001133 acceleration Effects 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 230000000630 rising effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D21/00—Measuring or testing not otherwise provided for
- G01D21/02—Measuring two or more variables by means not covered by a single other subclass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/86—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using syntactic or structural representations of the image or video pattern, e.g. symbolic string recognition; using graph matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了基于混合目标特征基准点的多传感器目标跟踪融合方法,具体包括以下步骤,步骤S1,计算量测和航迹的最近角点的编号;步骤S2,根据最近角点编号判断量测和航迹的最近焦点是否一致,若是则进行步骤S3和S4,若否则进行步骤S3和S5;步骤S3,设置测量噪声、观测值和航迹的状态值;步骤S4,根据最近角点进行更新。本发明的方法能够更好的利用传感器检测的精确信息,提升多传感器融合输出目标位置速度等的准确性以及稳定性;可以有效的避免因传感器的探测不全带来的目标漏检,目标位置偏差大的问题,跟踪更加稳定,使用目标的多特征点进行跟踪,可以有效避免单特征点带来的跟踪不确定性问题,提高跟踪的准确率。
Description
技术领域
本发明涉及多传感器多目标跟踪领域,具体地说,本发明涉及一种基于混合目标特征基准点的多传感器目标跟踪融合方法。
背景技术
自动驾驶多传感器融合,主要基于各个传感器给出的相关信息,实现对检测范围的扩展以及信息的补全。多传感器融合检测系统,可以更好的提高系统的鲁棒性,对于单传感器误检、漏检以及故障的情况,可以有效的进行冗余弥补。现在多传感器融合大多的是基于各个传感器给出的检测目标结果,通常包含目标的位置、速度、加速度、尺寸、朝向、类型以及相应的协方差等信息,融合端基于传感器给出的检测结果信息进行融合,其中对于目标的位置、速度、加速度等位姿信息以及形状等信息,通常为了方便数据传输和处理,会将各传感器的接口进行统一;传感器对于目标的检测,一般给出的是目标的检测框信息,其中按照各自厂家的需求,分为2D和3D检测框,其中3D相比于2D会增加高度维的信息,检测框一般采用矩形或者长方体进行表示,检测框的中心点一般作为位姿信息的基准点,后续融合端进行融合的对象也同样基于中心点进行。
但是对于传感器而言,由于探测的视野的局限性,对于目标检测通常只能检测部分特征,一般是正对传感器的FOV并且距离传感器最近的面或者边,而最终体现为检测框的某条边或者某个角点;对于未检测到的部分特征,通常采用滤波或者其他深度学习手段进行补全,所以传感器对于其特征检测,对于检测部分是准确的,而补全的部分是存在误差的,最终根据检测框反推到中心点的位姿之后,就会带有一定的偏差;如果融合端单纯采用中心点的跟踪,就会引入误差导致最终结果的不稳定,譬如位置速度的抖动等。
发明内容
本发明提供一种基于混合目标特征基准点的多传感器目标跟踪融合方法,能够更好的利用传感器检测的精确信息,提升多传感器融合输出目标位置速度等的准确性以及稳定性。
为了实现上述目的,本发明采取的技术方案为:一种基于混合目标特征基准点的多传感器目标跟踪融合方法,具体包括以下步骤,
步骤S1,计算量测和航迹的最近角点的编号;
步骤S2,根据最近角点编号判断量测和航迹的最近焦点是否一致,若是则进行步骤S3和S4,若否则进行步骤S3和S5;
步骤S3,设置测量噪声、观测值和航迹的状态值;
步骤S4,根据最近角点进行更新;
步骤S5,根据中心点进行更新;
所述对于传感器给出的目标的位置、速度、加速度以及形状等信息,通常均基于自车坐标系下,其中自车坐标系的规定如下:以车辆的后轴中心为自车坐标系的原点,按照右手定则,车头方向为x轴正轴。
优选的,所述步骤S1,计算量测和航迹的最近角点的编号,具体计算方法为:
融合端在接收到传感器的目标量测数据之后,通过多目标关联完成目标的航迹和各传感器量测目标的关联,在获得航迹与之关联的量测目标之后,根据传感器给出的量测目标中心点的位置center以及朝向信息,计算2D检测框的四个角点cornerpoint1,cornerpoint2,cornerpoint3,cornerpoint4,其中数学计算按照如下步骤进行,其中中心点的位置center以及四个角点均包含x和y两个维度的信息,均为一个二维向量;
根据2D检测的朝向信息theta,获得旋转矩阵R,根据2D检测框的长宽信息(如下公式中分别对应length和width),获得长宽方向的平移矩阵Tx,Ty,然后按照如下步骤进行计算即可。
cornerpoint1(0)=(RT*center)(0)+Tx
cornerpoint1(1)=(RT*center)(1)+Ty
cornerpoint2(0)=(RT*center)(0)+Tx
cornerpoint2(1)=(RT*center)(1)-Ty
cornerpoint3(0)=(RT*center)(0)-Tx
cornerpoint3(1)=(RT*center)(1)-Ty
cornerpoint4(0)=(RT*center)(0)-Tx
cornerpoint4(1)=(RT*center)(1)+Ty
在获得2D检测框的4个角点cornerpoint1,cornerpoint2,cornerpoint3,cornerpoint4之后,按照角点与自车后轴中心的欧氏距离,获取四个角点中,欧氏距离最近的一个角点,同时获得其编号Mn;为确保编号的一致性,2D检测框的角点模型进行统一编号,基于2D检测框的最近角点模型,其中theta∈,四个角点的命名顺序按照heading方向的左侧角点为起始,按照顺时针命名;同样,对于上个融合周期中保存下来的融合结果航迹目标也进行最近角点的计算,获得其编号Tn。
优选的,所述步骤S2,根据最近角点编号判断量测和航迹的最近焦点是否一致,具体操作为:
在获得传感器的量测目标的最近角点编号Mn以及融合结果航迹目标的最近角点编号Tn之后,通过判别Mn与Tn是否相等,来判定量测目标和航迹目标的最近角点是否为同一个角点,如果相同,那么通过该最近角点进行跟踪,如果不相同,那么代表此时传感器给出的量测目标与之前给出的结果差别较大,量测可能存在较大偏差,此时通过中心点进行跟踪。
优选的,所述进行步骤S3和S4的具体操作为:
首先设置根据不同的传感器类型,进行量测噪声的设置;然后根据最近角点的编号,将此时量测的状态值设置为最近角点的状态值,并且将航迹的全局状态值从中心点转换到最近角点的状态值,注意此时的转换,均基于2D检测框的角点模型,结合2D检测框的长宽以及朝向属性进行数学换算的;最后将量测最近角点与航迹最近角点的状态残差作为卡尔曼滤波更新的依据,输入到标注卡尔曼滤波方程中,最终完成航迹状态的更新。
优选的,所述进行步骤S3和S5的具体操作为:
首先设置根据不同的传感器类型,进行量测噪声的设置;观测值的设置,采用的是量测的中心点的状态值mcenter;同样航迹状态值的设置,采用的也是其经过预测的中心点的状态值tcenter,将量测中心点与航迹中心点的状态残差mcenter-tcenter作为卡尔曼滤波更新的残差输入,输入到标注卡尔曼滤波方程中,最终完成航迹状态的更新。
优选的,所述在进行量测噪声设置的时候,基于传感器的检测特性,原则上基于最近角点的噪声是小于基于中心点的噪声的;在设置量测状态值时,基于目标是刚体的假设,认为角点和中心点的速度加速度是一致的,所以状态值转换的时候,只需要转换位置。
采用以上技术方案的有益效果是:
1、本发明的方法能够更好的利用传感器检测的精确信息,提升多传感器融合输出目标位置速度等的准确性以及稳定性。
2、本发明使用目标的多特征点进行跟踪,可以有效避免单特征点带来的跟踪不确定性问题,提高跟踪的准确率。
3、本发明可以有效的避免因传感器的探测不全带来的目标漏检,目标位置偏差大的问题,跟踪更加稳定。
附图说明
图1为本发明算法流程图;
图2为本发明自车坐标系定义图;
图3为本发明2D检测框角点模型图;
图4为本发明卡尔曼滤波方程图;
具体实施方式
下面对照附图,通过对实施例的描述,对本发明的具体实施方式作进一步详细的说明,目的是帮助本领域的技术人员对本发明的构思、技术方案有更完整、准确和深入的理解,并有助于其实施。
如图1至图4所示,本发明是一种基于混合目标特征基准点的多传感器目标跟踪融合方法,能够更好的利用传感器检测的精确信息,提升多传感器融合输出目标位置速度等的准确性以及稳定性。
具体的说,如图1至图4所示,具体包括以下步骤,
步骤S1,计算量测和航迹的最近角点的编号;
步骤S2,根据最近角点编号判断量测和航迹的最近焦点是否一致,若是则进行步骤S3和S4,若否则进行步骤S3和S5;
步骤S3,设置测量噪声、观测值和航迹的状态值;
步骤S4,根据最近角点进行更新;
步骤S5,根据中心点进行更新;
所述对于传感器给出的目标的位置、速度、加速度以及形状等信息,通常均基于自车坐标系下,其中自车坐标系的规定如下:以车辆的后轴中心为自车坐标系的原点,按照右手定则,车头方向为x轴正轴。
所述步骤S1,计算量测和航迹的最近角点的编号,具体计算方法为:
融合端在接收到传感器的目标量测数据之后,通过多目标关联完成目标的航迹和各传感器量测目标的关联,在获得航迹与之关联的量测目标之后,根据传感器给出的量测目标中心点的位置center以及朝向信息,计算2D检测框的四个角点cornerpoint1,cornerpoint2,cornerpoint3,cornerpoint4,其中数学计算按照如下步骤进行,其中中心点的位置center以及四个角点均包含x和y两个维度的信息,均为一个二维向量;
根据2D检测的朝向信息theta,获得旋转矩阵R,根据2D检测框的长宽信息(如下公式中分别对应length和width),获得长宽方向的平移矩阵Tx,Ty,然后按照如下步骤进行计算即可。
cornerpoint1(0)=(RT*center)(0)+Tx
cornerpoint1(1)=(RT*center)(1)+Ty
cornerpoint2(0)=(RT*center)(0)+Tx
cornerpoint2(1)=(RT*center)(1)-Ty
cornerpoint3(0)=(RT*center)(0)-Tx
cornerpoint3(1)=(RT*center)(1)-Ty
cornerpoint4(0)=(RT*center)(0)-Tx
cornerpoint4(1)=(RT*center)(1)+Ty
在获得2D检测框的4个角点cornerpoint1,cornerpoint2,cornerpoint3,cornerpoint4之后,按照角点与自车后轴中心的欧氏距离,获取四个角点中,欧氏距离最近的一个角点,同时获得其编号Mn;为确保编号的一致性,2D检测框的角点模型进行统一编号,基于2D检测框的最近角点模型,其中theta∈,四个角点的命名顺序按照heading方向的左侧角点为起始,按照顺时针命名;同样,对于上个融合周期中保存下来的融合结果航迹目标也进行最近角点的计算,获得其编号Tn。
所述步骤S2,根据最近角点编号判断量测和航迹的最近焦点是否一致,具体操作为:在获得传感器的量测目标的最近角点编号Mn以及融合结果航迹目标的最近角点编号Tn之后,通过判别Mn与Tn是否相等,来判定量测目标和航迹目标的最近角点是否为同一个角点,如果相同,那么通过该最近角点进行跟踪,如果不相同,那么代表此时传感器给出的量测目标与之前给出的结果差别较大,量测可能存在较大偏差,此时通过中心点进行跟踪。
所述进行步骤S3和S4的具体操作为:首先设置根据不同的传感器类型,进行量测噪声的设置;然后根据最近角点的编号,将此时量测的状态值设置为最近角点的状态值,并且将航迹的全局状态值从中心点转换到最近角点的状态值,注意此时的转换,均基于2D检测框的角点模型,结合2D检测框的长宽以及朝向属性进行数学换算的;最后将量测最近角点与航迹最近角点的状态残差作为卡尔曼滤波更新的依据,输入到标注卡尔曼滤波方程中,最终完成航迹状态的更新。
所述进行步骤S3和S5的具体操作为:首先设置根据不同的传感器类型,进行量测噪声的设置;观测值的设置,采用的是量测的中心点的状态值mcenter;同样航迹状态值的设置,采用的也是其经过预测的中心点的状态值tcenter,将量测中心点与航迹中心点的状态残差mcenter-tcenter作为卡尔曼滤波更新的残差输入,输入到标注卡尔曼滤波方程中,最终完成航迹状态的更新。
所述在进行量测噪声设置的时候,基于传感器的检测特性,原则上基于最近角点的噪声是小于基于中心点的噪声的;在设置量测状态值时,基于目标是刚体的假设,认为角点和中心点的速度加速度是一致的,所以状态值转换的时候,只需要转换位置。
以上结合附图对本发明进行了示例性描述,显然,本发明具体实现并不受上述方式的限制,只要是采用了本发明的方法构思和技术方案进行的各种非实质性的改进;或未经改进,将本发明的上述构思和技术方案直接应用于其它场合的,均在本发明的保护范围之内。
Claims (6)
1.一种基于混合目标特征基准点的多传感器目标跟踪融合方法,其特征在于:具体包括以下步骤,
步骤S1,计算量测和航迹的最近角点的编号;
步骤S2,根据最近角点编号判断量测和航迹的最近焦点是否一致,若是则进行步骤S3和S4,若否则进行步骤S3和S5;
步骤S3,设置测量噪声、观测值和航迹的状态值;
步骤S4,根据最近角点进行更新;
步骤S5,根据中心点进行更新;
所述对于传感器给出的目标的位置、速度、加速度以及形状等信息,通常均基于自车坐标系下,其中自车坐标系的规定如下:以车辆的后轴中心为自车坐标系的原点,按照右手定则,车头方向为x轴正轴。
2.根据权利要求1所述的一种基于混合目标特征基准点的多传感器目标跟踪融合方法,其特征在于:所述步骤S1,计算量测和航迹的最近角点的编号,具体计算方法为:
融合端在接收到传感器的目标量测数据之后,通过多目标关联完成目标的航迹和各传感器量测目标的关联,在获得航迹与之关联的量测目标之后,根据传感器给出的量测目标中心点的位置center以及朝向信息theta,计算2D检测框的四个角点cornerpoint1,cornerpoint2,cornerpoint3,cornerpoint4,其中数学计算按照如下步骤进行,其中中心点的位置center以及四个角点均包含x和y两个维度的信息,均为一个二维向量;
根据2D检测的朝向信息theta,获得旋转矩阵R,根据2D检测框的长宽信息(如下公式中分别对应length和width),获得长宽方向的平移矩阵Tx,Ty,然后按照如下步骤进行计算即可。
cornerpoint1(0)=(RT*center)(0)+Tx
cornerpoint1(1)=(RT*center)(1)+Ty
cornerpoint2(0)=(RT*center)(0)+Tx
cornerpoint2(1)=(RT*center)(1)-Ty
cornerpoint3(0)=(RT*center)(0)-Tx
cornerpoint3(1)=(RT*center)(1)-Ty
cornerpoint4(0)=(RT*center)(0)-Tx
cornerpoint4(1)=(RT*center)(1)+Ty
在获得2D检测框的4个角点cornerpoint1,cornerpoint2,cornerpoint3,cornerpoint4之后,按照角点与自车后轴中心的欧氏距离,获取四个角点中,欧氏距离最近的一个角点,同时获得其编号Mn;为确保编号的一致性,2D检测框的角点模型进行统一编号,基于2D检测框的最近角点模型,其中theta∈,四个角点的命名顺序按照heading方向的左侧角点为起始,按照顺时针命名;同样,对于上个融合周期中保存下来的融合结果航迹目标也进行最近角点的计算,获得其编号Tn。
3.根据权利要求1所述的一种基于混合目标特征基准点的多传感器目标跟踪融合方法,其特征在于:所述步骤S2,根据最近角点编号判断量测和航迹的最近焦点是否一致,具体操作为:
在获得传感器的量测目标的最近角点编号Mn以及融合结果航迹目标的最近角点编号Tn之后,通过判别Mn与Tn是否相等,来判定量测目标和航迹目标的最近角点是否为同一个角点,如果相同,那么通过该最近角点进行跟踪,如果不相同,那么代表此时传感器给出的量测目标与之前给出的结果差别较大,量测可能存在较大偏差,此时通过中心点进行跟踪。
4.根据权利要求1所述的一种基于混合目标特征基准点的多传感器目标跟踪融合方法,其特征在于:所述进行步骤S3和S4的具体操作为:
首先设置根据不同的传感器类型,进行量测噪声的设置;然后根据最近角点的编号,将此时量测的状态值设置为最近角点的状态值,并且将航迹的全局状态值从中心点转换到最近角点的状态值,注意此时的转换,均基于2D检测框的角点模型,结合2D检测框的长宽以及朝向属性进行数学换算的;最后将量测最近角点与航迹最近角点的状态残差作为卡尔曼滤波更新的依据,输入到标注卡尔曼滤波方程中,最终完成航迹状态的更新。
5.根据权利要求1所述的一种基于混合目标特征基准点的多传感器目标跟踪融合方法,其特征在于:所述进行步骤S3和S5的具体操作为:
首先设置根据不同的传感器类型,进行量测噪声的设置;观测值的设置,采用的是量测的中心点的状态值mcenter;同样航迹状态值的设置,采用的也是其经过预测的中心点的状态值tcenter,将量测中心点与航迹中心点的状态残差mcenter-tcenter作为卡尔曼滤波更新的残差输入,输入到标注卡尔曼滤波方程中,最终完成航迹状态的更新;
mcenter此值代表量测的中心点属性,该属性为从传感器直接接收;
tcenter此值代表航迹的中心点属性,该属性为融合根据从传感器接收的结果滤波得到。
6.根据权利要求1所述的一种基于混合目标特征基准点的多传感器目标跟踪融合方法,其特征在于:所述在进行量测噪声设置的时候,基于传感器的检测特性,原则上基于最近角点的噪声是小于基于中心点的噪声的;在设置量测状态值时,基于目标是刚体的假设,认为角点和中心点的速度加速度是一致的,所以状态值转换的时候,只需要转换位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311467493.5A CN117523362A (zh) | 2023-11-07 | 2023-11-07 | 一种基于混合目标特征基准点的多传感器目标跟踪融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311467493.5A CN117523362A (zh) | 2023-11-07 | 2023-11-07 | 一种基于混合目标特征基准点的多传感器目标跟踪融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117523362A true CN117523362A (zh) | 2024-02-06 |
Family
ID=89741130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311467493.5A Pending CN117523362A (zh) | 2023-11-07 | 2023-11-07 | 一种基于混合目标特征基准点的多传感器目标跟踪融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117523362A (zh) |
-
2023
- 2023-11-07 CN CN202311467493.5A patent/CN117523362A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112985416B (zh) | 激光与视觉信息融合的鲁棒定位和建图方法及系统 | |
CN112230242B (zh) | 位姿估计系统和方法 | |
CN111476106B (zh) | 基于单目相机的直道相对坡度实时预测方法、系统及装置 | |
CN113748357A (zh) | 激光雷达的姿态校正方法、装置和系统 | |
CN110986968B (zh) | 三维重建中实时全局优化和错误回环判断的方法及装置 | |
CN112747750B (zh) | 一种基于单目视觉里程计和imu融合的定位方法 | |
JP5434608B2 (ja) | 測位装置及び測位方法 | |
CN112285676A (zh) | 激光雷达与imu外参标定方法及装置 | |
CN111915675B (zh) | 基于粒子漂移的粒子滤波点云定位方法及其装置和系统 | |
CN113137968B (zh) | 基于多传感器融合的重定位方法、重定位装置和电子设备 | |
US10554951B2 (en) | Method and apparatus for the autocalibration of a vehicle camera system | |
CN113012197A (zh) | 一种适用于动态交通场景的双目视觉里程计定位方法 | |
CN115015956A (zh) | 一种室内无人车的激光与视觉slam系统 | |
CN115546315A (zh) | 自动驾驶车辆的传感器在线标定方法、装置及存储介质 | |
CN113538699A (zh) | 基于三维点云的定位方法、装置、设备及存储介质 | |
JP2019082328A (ja) | 位置推定装置 | |
CN117523362A (zh) | 一种基于混合目标特征基准点的多传感器目标跟踪融合方法 | |
Eising et al. | 2.5 D vehicle odometry estimation | |
CN107990893B (zh) | 二维激光雷达slam中探测环境发生突变的检测方法 | |
CN116380087A (zh) | 基于多因子图的汽车定位方法、装置、设备及存储介质 | |
CN116047480A (zh) | 一种激光雷达到姿态传感器的外参标定方法 | |
CN115993132A (zh) | 视觉惯性里程计初始化方法、装置及飞行汽车 | |
CN113203424B (zh) | 多传感器的数据融合方法、装置及相关设备 | |
CN112506190B (zh) | 一种机器人定位方法、机器人定位装置及机器人 | |
JP7308141B2 (ja) | 自己位置推定方法及び自己位置推定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |