CN112180396B - 一种激光雷达定位及地图创建方法 - Google Patents
一种激光雷达定位及地图创建方法 Download PDFInfo
- Publication number
- CN112180396B CN112180396B CN202011134579.2A CN202011134579A CN112180396B CN 112180396 B CN112180396 B CN 112180396B CN 202011134579 A CN202011134579 A CN 202011134579A CN 112180396 B CN112180396 B CN 112180396B
- Authority
- CN
- China
- Prior art keywords
- map
- laser radar
- positioning
- optimization
- likelihood domain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
针对现有技术的不足,本公开涉及一种激光雷达定位及地图创建方法,通过基于栅格地图的激光雷达匹配技术,在发生颠簸时通过里程计和激光雷达匹配计算克服颠簸带来的误差,确保定位的快速和准确。为实现以上目的,本公开通过以下技术方案予以实现:一种激光雷达定位及地图创建方法,应用于无人机动平台,基于里程计和激光雷达匹配的联合优化定位,获取全路径后验状态,剔除错误激光雷达匹配信息后进行再估计,从而适应颠簸的环境。本公开通过这样的技术方案,在对于无人机动平台无需额外添置设备的前提下在经过颠簸环境时能快速准确的完成定位,避免了由于颠簸导致的误差。
Description
技术领域
本公开涉及测量与控制技术领域,尤其是涉及一种激光雷达定位及地图创建方法。
背景技术
随着技术进步,各种自动无人机动平台在公共安全、灾害救援、反恐处突等领域大显身手。特别是作为排爆机器人、消防机器人、管道检测机器人等应用已经得到了用户的认可和广泛使用。作为无人机动平台,必须具备定位、导航、规划和避障的能力,以完成无人监管的相关任务。现有技术中通常采用单线激光雷达匹配定位技术进行这些操作,但是这样的方法容易受到环境颠簸的影响,定位实时性差。因此,为了使机器人能够适应复杂室外环境,现有技术中公开号为CN108663681A的发明专利申请《基于双目摄像头与二维激光雷达的移动机器人导航方法》中就公开了一种能够在已知环境二维栅格地图环境下,使用双目摄像头探测环境中高于和低于二维激光雷达平面的障碍物,并且将障碍物映射到环境地图中,通过最短路径算法与启发式搜索优化,得到避开障碍物的导航路径线。
这样的方法能够有效避开较大的障碍,但是需要配置专用的设备,并且对于一些颠簸的地面例如室外崎岖不平的土地,或者室内完整的一条减速带时,并没有良好的解决方案。而这些地形造成的颠簸确实会导致激光雷达测量受到影响,降低了定位实时性。对于一些对实时控制精度要求高的场景甚至可能导致无人机动平台受到不必要的损害。
发明内容
本公开涉及一种激光雷达定位及地图创建方法,通过基于栅格地图的激光雷达匹配技术,在发生颠簸时通过里程计和激光雷达匹配计算克服颠簸带来的误差,确保定位的快速和准确。
为实现以上目的,本公开采用以下技术方案:
一种激光雷达定位及地图创建方法,应用于无人机动平台,基于里程计和激光雷达匹配的联合优化定位,获取全路径后验状态,剔除错误激光雷达匹配信息后进行再估计,从而适应高度小于小范围颠簸的环境。
优选的,具体步骤包括:
步骤1:建立激光雷达似然域模型;
步骤2:对步骤1所生成的似然域模型进行简化;
步骤3:对似然域模型中的似然域地图进行曲面拟合;
步骤4:通过负对数联合后验概率密度的方法,将最大后验概率转换为具有最小二乘形式的优化,从而生成联合优化的目标函数;
步骤5:选择优化算法用于解出目标函数的最优值。该最优值为使得联合后验概率密度达到最大值的机器人状态,即机器人的位置和航向信息的估计值。
优选的,所述步骤2中采用高斯核函数对栅格地图进行局部卷积代替似然域模型。
优选的,在似然域模型进行简化的过程中忽略测量失效噪声以及无法解释的随机测量噪声。
优选的,似然域地图进行曲面拟合时选择双线性插值算法和双三次卷积插值算法其中的一种。
双线性插值,又称双线性内插,是线性插值在双变量函数的扩展。已知函数f在点Q11(x1,y1)、Q12(x1,y2)、Q21(x2,y1)、Q22(x2,y2)的值,则函数f在点P(x,y)的值为:
相比双线性插值,双三次卷积插值基于16个点进行插值,插值曲线更加光滑。已知f(i+row,j+col)的值,其中(-1≤row,col≤2),则待拟合值:
其中S(x)为采样函数,当a=-0.5时,为三次样条曲线插值函数。
进一步的,选择采用双三次卷积插值算法对似然域地图进行曲面拟合,使其为优化算法提供准确的导数信息。
优选的,所述步骤4中将最大后验概率转换为具有最小二乘形式的优化后得到:
L≤x≤U
其中F(x)为残差函数,x是待估计状态,即机器人在各时刻的位置和航向。L、U为优化是状态的边界。F(x)包括基于激光雷达的测量残差函数F(x)z和基于里程计的控制残差函数F(x)u。
优选的,基于激光雷达的测量残差函数可以通过拟合后的似然域地图得到:
优选的,当无人机动平台控制方式为前轮转向后轮驱动时,控制残差函数表示为:
||F(x)u||2=(xt-f(xt-1,u))TΩ-1(xt-f(xt-1,u))
观测为由后轮提供的速度信息vi,k和由前轮提供的角度θi,k,统称为速度观测u。
优选的,所述步骤5中所选的优化算法为高斯-牛顿迭代法、莱温伯格马格纳特迭代法其中之一。
高斯牛顿迭代法采用泰勒展开的方式对目标函数进行线性化,用牛顿迭代的方式进行求解。令H(x)=||F(x)||2作为目标函数,J(x0)为雅可比矩阵。对目标函数进行泰勒展开有:
目标函数的最小值在一阶导数为0处取得有:
J(x0)TJ(x0)Δx=-J(x0)TF(x0)
多次迭代求解直到Δx足够小。得到位姿估计x=x0+Δx。
莱温伯格马格纳特方法在高斯牛顿方法的基础上对Δx添加了信赖域,保证Δx在信赖域中可以得到更加稳定的优化结果,迭代方程变为下式:
(J(x0)TJ(x0)+λI)Δx=-J(x0)TF(x0)
本公开通过这样的技术方案,在对于无人机动平台无需额外添置设备的前提下在经过小范围颠簸环境时能快速准确的完成定位,避免了由于颠簸导致的误差。此处的小范围颠簸环境在实验环境中指障碍物高度小于±15cm,直径小于50cm,障碍物之间的距离大于1m的环境。而在现实应用中通常针对减速带、马路边沿和小碎石等环境。
附图说明
附图示出了本公开的示例性实施方式,并与其说明一起用于解释本公开的原理,其中包括了这些附图以提供对本公开的进一步理解,并且附图包括在本说明书中并构成本说明书的一部分。
图1是本公开一种激光雷达定位及地图创建方法的流程示意图。
具体实施方式
下面结合附图和实施方式对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施方式仅用于解释相关内容,而非对本公开的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本公开相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施方式及实施方式中的特征可以相互组合。下面将参考附图并结合实施方式来详细说明本公开。
本公开用于前轮转向后轮驱动的轮式无人平台,在200m×200m的园区环境下进行部署实施。平台前轮配有多圈绝对值编码器,可以获取前轮转角信息θi,k,后轮装有增量式编码器,可以获取后轮的速度信息vi,k,车体前端装有单线激光雷达,量程40m,角分辨率0.25度,可以获取激光雷达观测信息实施中,里程计以50Hz的频率获取θi,k和vi,k,激光雷达的数据基于距离获取,机器人每移动超过10cm获取一次激光雷达数据,然后按照图1所示的算法,得到机器人位姿的最优估计。具体步骤如图1所示:/>
本公开的技术方案实际也是基于栅格地图的激光雷达匹配技术。栅格地图的激光雷达匹配技术通常包括基于波束模型的匹配算法,基于似然域模型的匹配算法、基于地图相关性模型的匹配算法和基于点云特征的匹配算法。基于波束模型的匹配算法与几何学和物理学联系紧密,建模更为精确,但该模型表现出缺乏光滑性,测量模型在特定位姿状态处高度不连续,不仅容易错过最优估计,而且由于容易陷入局部最小值,求解效果较差,不适合用于优化算法,因此不考虑采用。基于相关性模型的匹配算法主要优点是清晰的考虑了两个地图边界的自由空间而不是只有扫描的终点,缺点是没有合理的物理模型解释,计算量相比与似然域大很多,实时性较差,固不采用。基于似然域模型的主要优点是其光滑性,不容易陷入局部最小值,用于优化算法可以取得很好结果。综合合考虑性能和实时性,本公开选择基于似然域模型的匹配算法,步骤1:建立激光雷达似然域模型。
步骤2:对步骤1所生成的似然域模型进行简化:
似然域与波束模型类似,保留了测量噪声、测量失效噪声以及无法解释的随机测量噪声。测量噪声是指由测量引起的随机噪声,该噪声用零均值高斯白噪声进行建模。在x-y空间,他涉及地图上最近的障碍物,令dist表示测量坐标(xz,yz)到地图上最近物体之间的欧式距离,激光雷达t时刻第k个观测数据,xt为t时刻的状态,表示机器人的xy位置坐标和航向,εhit为高斯分布函数,m为占用栅格地图信息。为那么测量概率可以由一个以0为中心的高斯函数给出,该高斯具有传感器噪声:
上述公式中,hit表示激光正常反射得到的观测信息,rand表示激光发生多次反射的随机观测,Max表示超出了激光的最大量程的观测,z表示观测,p表示相应的概率。在本公开中通过激光雷达预处理的方式简化zmax,将该测量数据直接丢弃,减小其影响,同时假设镜面反射发生的概率很低,激光射线强度足够,在室外环境下该假设通常是合理的,那么发生无法测量的随机噪声的概率很低,将其忽略。得到简化后的测量噪声:
同时,最近点在优化迭代的过程中往往会不断的改变,不利于似然域拟合,本公开不采用最近点假设,由于观测与地图物体的一致性未知,本公开假设在局部范围内,一致性概率是均匀分布的。在此假设下,可以简单的对地图进行高斯卷积操作,高效的得到基于似然域模型的测量概率。
步骤3:对似然域模型中的似然域地图进行曲面拟合:
由于栅格地图是离散的,近似处理后的似然域模型同样是离散的,因此对似然域地图进行曲面拟合,以便将其用于优化算法。栅格地图的拟合算法和图像处理的图像插值算法需求相同,包括最邻近插值、线性插值、双线性插值和双三次卷积插值算法等等,线性插值只能无误差重建一次多项式,最近邻插值只能重建常数图像。双三次卷积插值算法能够完美重建二次多项式,而且增加插值的采样数据点,还能把精度提高到到重建三次多项式。在频率响应方面,由于双三次插值本质上是卷积过程,因此可以计算其频响曲线,从而分析其高频丢失以及走样情况。最近邻插值会在高频出现走样,线性插值在中低频部分相对有较大的频响损失。而双三次卷积插值的频响最接近理想响应曲线,插值效果较为稳定。在计算效率方面,双三次插值的计算复杂度虽然相对较高,但对于激光雷达匹配算法而已,复杂度可以满足要求,并且配合联合优化算法,算法整体的实时性可以显著提高。因此本公开采用双三次卷积插值算法对栅格地图进行曲面拟合。如下式为其插值公式。激光雷达得到一次测量后,根据机器人的当前位姿得到激光雷达hit点在栅格地图中的全局坐标(i+u,j+v),其中(i,j)是距离hit点最近的栅格坐标,栅格地图中每个栅格都概率值f(i,j),则hit点处的概率值可以由下式得到。其中S(x)为采样函数,a取-0.5。
步骤4:通过负对数联合后验概率密度的方法,可以将基于联合后验最大概率估计(MAP)问题转换为具有最小二乘形式的优化问题:
L≤x≤U
F(x)为残差函数。在本公开中包含两类残差函数,基于激光雷达的测量残差函F(x)z数和基于里程计的控制残差函数F(x)u。测量残差函数可以通过拟合后的似然域地图得到:
||F(x)u||2=(xt-f(xt-1,u))TΩ-1(xt-f(xt-1,u))
联合优化的目标函数可以表示为:
步骤5:选择优化算法用于解出目标函数的最优值。
优化算法求解最优值可以明显提高状态估计的效率,包括高斯-牛顿迭代法和莱温伯格马格纳特迭代法等等。高斯牛顿迭代法属于梯度下降法,该方法迭代速度快,但是对于非线性严重的问题需要较好估计初值,否则容易陷入局部最小值,莱温伯格马格纳特迭代法属于信赖域方法,算法复杂度较高,但通过信赖域的控制,迭代过程更加稳定,由于基于似然域地图的优化算法非线性程度较高,尤其对于航向而言,所以优化方法采用莱温伯格马格纳特法。如下式,式中F(x)由步骤4得出,J(x)为雅可比矩阵。
(J(x0)TJ(x0)+λI)Δx=-J(x0)TF(x0)
现有技术中只利用传统的单线激光雷达匹配技术进行位姿估计时,由于过分依赖激光雷达测量信息,当环境中有明显的颠簸起伏时,激光雷达非常容易失效,从而引起不可恢复的建图错误,在室外200m×200m的结构化园区环境下,建图成功率仅有73%,本公开提出的组合导航方案,利用里程计信息可以减轻机器人对激光雷达的依赖,不可恢复性错误明显减小,建图成功率达到82%,建图精度提高了11%,同时对优化模型进行了简化和拟合,建图定位的实时性可达20Hz。
在本说明书的描述中,参考术语“一个实施例/方式”、“一些实施例/方式”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例/方式或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例/方式或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例/方式或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例/方式或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例/方式或示例以及不同实施例/方式或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
本领域的技术人员应当理解,上述实施方式仅仅是为了清楚地说明本公开,而并非是对本公开的范围进行限定。对于所属领域的技术人员而言,在上述公开的基础上还可以做出其它变化或变型,并且这些变化或变型仍处于本公开的范围内。
Claims (7)
1.一种激光雷达定位及地图创建方法,其特征在于:基于里程计和激光雷达匹配的联合优化定位,获取全路径后验状态,剔除错误激光雷达匹配信息后进行再估计,从而适应颠簸的环境;具体步骤包括:
步骤1:建立激光雷达似然域模型;
步骤2:对步骤1所生成的似然域模型进行简化;
步骤3:对似然域模型中的似然域地图进行曲面拟合;
步骤4:通过负对数联合后验概率密度的方法,将最大后验概率转换为具有最小二乘形式的优化,从而生成联合优化的目标函数;
步骤5:选择优化算法用于解出目标函数的最优值;
所述步骤4中将联合后验概率最大似然估计转换为具有最小二乘形式的优化后得到:
L≤x≤U
F(x)为残差函数,包括基于激光雷达的测量残差函数F(x)z和基于里程计的控制残差函数F(x)u,x是待估计状态,L、U为优化是状态的边界;
基于激光雷达的测量残差函数可以通过拟合后的似然域地图得到:
联合优化的目标函数为:
2.如权利要求1所述的一种激光雷达定位及地图创建方法,其特征在于:所述步骤2中采用高斯核函数对栅格地图进行局部卷积代替似然域模型。
3.如权利要求2所述的一种激光雷达定位及地图创建方法,其特征在于:在似然域模型进行简化的过程中忽略测量失效噪声以及无法解释的随机测量噪声。
4.如权利要求1所述的一种激光雷达定位及地图创建方法,其特征在于:似然域地图进行曲面拟合时选择双线性插值算法和双三次卷积插值算法其中的任一种。
5.如权利要求4所述的一种激光雷达定位及地图创建方法,其特征在于:选择采用双三次卷积插值算法对似然域地图进行曲面拟合,使其为优化算法提供准确的导数信息。
6.如权利要求1所述的一种激光雷达定位及地图创建方法,其特征在于:当无人机动平台控制方式为前轮转向后轮驱动时,控制残差函数表示为:||F(x)u||2=(xt-f(xt-1,u))TΩ-1(xt-f(xt-1,u))
其中观测为由后轮提供的速度信息vi,k和由前轮提供的角度θi,k,统称为速度观测u。
7.如权利要求1所述的一种激光雷达定位及地图创建方法,其特征在于:所述步骤5中所选的优化算法为高斯-牛顿迭代法、莱温伯格马格纳特迭代法其中之一。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011134579.2A CN112180396B (zh) | 2020-10-21 | 2020-10-21 | 一种激光雷达定位及地图创建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011134579.2A CN112180396B (zh) | 2020-10-21 | 2020-10-21 | 一种激光雷达定位及地图创建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112180396A CN112180396A (zh) | 2021-01-05 |
CN112180396B true CN112180396B (zh) | 2023-05-23 |
Family
ID=73923102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011134579.2A Active CN112180396B (zh) | 2020-10-21 | 2020-10-21 | 一种激光雷达定位及地图创建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112180396B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113064133B (zh) * | 2021-03-29 | 2022-06-28 | 南京信息工程大学 | 一种基于时频域深度网络的海面小目标特征检测方法 |
CN113447949B (zh) * | 2021-06-11 | 2022-12-09 | 天津大学 | 一种基于激光雷达和先验地图的实时定位系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104729500A (zh) * | 2015-02-15 | 2015-06-24 | 南京航空航天大学 | 一种激光导航agv的全局定位方法 |
CN105573318A (zh) * | 2015-12-15 | 2016-05-11 | 中国北方车辆研究所 | 基于概率分析的环境构建方法 |
CN107564061A (zh) * | 2017-08-11 | 2018-01-09 | 浙江大学 | 一种基于图像梯度联合优化的双目视觉里程计算方法 |
CN109358340A (zh) * | 2018-08-27 | 2019-02-19 | 广州大学 | 一种基于激光雷达的agv室内地图构建方法及系统 |
CN109579849A (zh) * | 2019-01-14 | 2019-04-05 | 浙江大华技术股份有限公司 | 机器人定位方法、装置和机器人及计算机存储介质 |
-
2020
- 2020-10-21 CN CN202011134579.2A patent/CN112180396B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104729500A (zh) * | 2015-02-15 | 2015-06-24 | 南京航空航天大学 | 一种激光导航agv的全局定位方法 |
CN105573318A (zh) * | 2015-12-15 | 2016-05-11 | 中国北方车辆研究所 | 基于概率分析的环境构建方法 |
CN107564061A (zh) * | 2017-08-11 | 2018-01-09 | 浙江大学 | 一种基于图像梯度联合优化的双目视觉里程计算方法 |
CN109358340A (zh) * | 2018-08-27 | 2019-02-19 | 广州大学 | 一种基于激光雷达的agv室内地图构建方法及系统 |
CN109579849A (zh) * | 2019-01-14 | 2019-04-05 | 浙江大华技术股份有限公司 | 机器人定位方法、装置和机器人及计算机存储介质 |
Non-Patent Citations (3)
Title |
---|
一种基于多传感融合的室内建图和定位算法;纪嘉文等;《成都信息工程大学学报》;20180815(第04期);全文 * |
两种基于激光雷达的SLAM算法最优参数分析;高文研等;《传感器与微系统》;20180419(第04期);全文 * |
基于激光信息的移动机器人SLAM研究;柳俊城等;《自动化与仪表》;20180615(第06期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112180396A (zh) | 2021-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110927740B (zh) | 一种移动机器人定位方法 | |
JP5991952B2 (ja) | 周囲状況に対するカメラの姿勢を求めるための方法 | |
US11308314B2 (en) | Systems, devices, and methods for generating a pose estimate of an object | |
CN112180396B (zh) | 一种激光雷达定位及地图创建方法 | |
CN111650598A (zh) | 一种车载激光扫描系统外参标定方法和装置 | |
Jessup et al. | Robust and efficient multirobot 3-d mapping merging with octree-based occupancy grids | |
CN111521195B (zh) | 一种智能机器人 | |
JP2008059569A (ja) | 接触時間算出装置及び接触時間算出方法 | |
WO2022179094A1 (zh) | 车载激光雷达外参数联合标定方法、系统、介质及设备 | |
CN113515128B (zh) | 一种无人车实时路径规划方法及存储介质 | |
Wen et al. | Object-detection-aided GNSS and its integration with lidar in highly urbanized areas | |
CN112197773B (zh) | 基于平面信息的视觉和激光定位建图方法 | |
CN116929338A (zh) | 地图构建方法、设备及存储介质 | |
Fasiolo et al. | Comparing LiDAR and IMU-based SLAM approaches for 3D robotic mapping | |
CN116681733A (zh) | 一种空间非合作目标近距离实时位姿跟踪方法 | |
Cho et al. | Real-time 3D reconstruction method using massive multi-sensor data analysis and fusion | |
Adams et al. | Velocimeter LIDAR-Based Bulk Velocity Estimation for Terrain Relative Navigation Applications | |
Xue et al. | Real-time 3D grid map building for autonomous driving in dynamic environment | |
Sulistijono et al. | Aerial drone mapping and trajectories generator for agricultural ground robots | |
Liu et al. | The first attempt of SAR visual-inertial odometry | |
Liu et al. | Statistical terrain model with geometric feature detection based on GPU using LiDAR on vehicles | |
CN113960614A (zh) | 一种基于帧-地图匹配的高程图构建方法 | |
Mardiati et al. | The derivation of matrix transformation from pixel coordinates to real-world coordinates for vehicle trajectory tracking | |
Escourrou et al. | Ndt localization with 2d vector maps and filtered lidar scans | |
CN113447026A (zh) | 适应动态环境变化的amcl定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |