CN108868268B - 基于点到面距离和互相关熵配准的无人车位姿估计方法 - Google Patents
基于点到面距离和互相关熵配准的无人车位姿估计方法 Download PDFInfo
- Publication number
- CN108868268B CN108868268B CN201810570046.5A CN201810570046A CN108868268B CN 108868268 B CN108868268 B CN 108868268B CN 201810570046 A CN201810570046 A CN 201810570046A CN 108868268 B CN108868268 B CN 108868268B
- Authority
- CN
- China
- Prior art keywords
- point
- data
- laser radar
- registration
- dimensional laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000009466 transformation Effects 0.000 claims abstract description 26
- 238000006243 chemical reaction Methods 0.000 claims abstract description 14
- 238000005070 sampling Methods 0.000 claims abstract description 12
- 238000013519 translation Methods 0.000 claims abstract description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000009434 installation Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 5
- 238000000513 principal component analysis Methods 0.000 claims description 4
- 230000002159 abnormal effect Effects 0.000 abstract description 3
- 230000007613 environmental effect Effects 0.000 abstract description 3
- 238000005286 illumination Methods 0.000 abstract description 3
- 238000011156 evaluation Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 3
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- E—FIXED CONSTRUCTIONS
- E04—BUILDING
- E04H—BUILDINGS OR LIKE STRUCTURES FOR PARTICULAR PURPOSES; SWIMMING OR SPLASH BATHS OR POOLS; MASTS; FENCING; TENTS OR CANOPIES, IN GENERAL
- E04H6/00—Buildings for parking cars, rolling-stock, aircraft, vessels or like vehicles, e.g. garages
- E04H6/42—Devices or arrangements peculiar to garages, not covered elsewhere, e.g. securing devices, safety devices, monitoring and operating schemes; centering devices
- E04H6/422—Automatically operated car-parks
- E04H6/424—Positioning devices
Landscapes
- Engineering & Computer Science (AREA)
- Architecture (AREA)
- Civil Engineering (AREA)
- Structural Engineering (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于点到面距离和互相关熵配准的无人车位姿估计方法,首先标定三维激光雷达,然后将采集到的三维激光雷达数据进行坐标转换;然后将降采样后的数据与已有的地图数据进行点云配准得到刚体的旋转平移变换;进而根据该旋转平移变换得到自主运动体的位置和姿态。本发明利用三维激光雷达作为数据来源,通过坐标系转换、数据降采样、点集配准等步骤,完成无人车位姿估计的功能。本发明能够很好的克服天气、光照等环境因素的影响。另外,使用基于点到面距离和互相关熵的误差评价函数针对场景与地图描述部分不匹配、动态障碍物等噪声和异常点等具有良好的抵抗能力,因此可以实现无人驾驶汽车鲁棒而精准的位姿估计的功能。
Description
技术领域
本发明属于无人驾驶汽车技术中的定位与导航领域,具体涉及一种基于点到面距离和互相关熵配准的无人车位姿估计方法。
背景技术
近年来随着汽车产业的高速发展,交通事故已经成为全球性的问题,全世界每年交通事故的死伤人数估计超过50多万人,因此集自动控制、人工智能、模式识别等技术于一体的无人驾驶应用而生。无人车定位技术是无人驾驶技术中关键组成部分之一。为了实时得到无人驾驶汽车的当前位置,无人驾驶汽车上装备了各种主动传感器与被动传感器,包括相机、激光雷达、GPS和IMU等。在早期的研究中,使用GPS进行定位的方法得到了大量的应用。但是,GPS的使用受周围环境因素的影响巨大。当周围环境出现GPS信号遮挡甚至屏蔽时,其定位结果就会十分不可靠,甚至消失。以IMU为代表的惯性器件则不会出现此问题,然而,利用惯性器件进行定位和导航时,定位结果会极大的受到累计误差的影响,当系统较长时间工作时,惯性定位系统的定位误差极大,失去利用价值。随着技术的发展,很多的研究人员开始研究视觉技术在定位中的应用,其有信息含量大、成本低、运行功率低、扫描时间短等特点。但是,视觉技术一个最主要的不足就是对于外界环境的要求比较严格。对于环境中出现阴影、驾驶环境较为复杂、路边标记(或标志)丢失、光照不佳、能见度低或天气恶劣等情况,视觉技术(摄像机)获取的图像信息往往信噪比很低,给定位算法精度都带来极大的挑战,不能保证系统的定位精度。
发明内容
本发明的目的在于克服上述现有技术的缺点,提供一种高效、实时、鲁棒的基于点到面距离和互相关熵配准的无人车位姿估计方法。
为达到上述目的,本发明采用以下技术方案予以实现:
基于点到面距离和互相关熵配准的无人车位姿估计方法,首先标定三维激光雷达,然后将采集到的三维激光雷达数据进行降采样;然后将降采样后的数据与已有的三维地图数据进行点云配准得到刚体的旋转平移变换;进而根据该旋转平移变换得到自主运动体的位置和姿态。
本发明进一步的改进在于:
具体包括以下步骤:
1)首先确定三维激光雷达安装的高度,然后将采集到的三维激光雷达数据从三维极坐标系转化到局部三维直角坐标系;
2)使用随机降采样的标准,将三维激光雷达数据降采样到原来的10%-20%,获得的当前场景描述点云数据;
4)根据无人驾驶汽车的初始位置和初始姿态,得到无人车当前的位置和姿态。
步骤1)的具体方法如下:
1.1)以三维激光雷达安装位置为参考点定义局部三维直角坐标系,然后测量三维激光雷达距离水平面的安装高度H;
1.2)建立三维激光雷达扫描极坐标到局部三维直角坐标系中坐标的转换关系,根据转换关系获得三维激光雷达数据点Pi对应的三维直角坐标值,每一个三维激光雷达扫描极坐标数据点包括发射所在激光线束的垂直角度αn,发射时的三维激光旋转角度βi与扫描距离di三个参数,即Pi=(αi,βi,di),则Pi=(αi,βi,di)对应局部三维直角坐标系的坐标值为Pi=(xi,yi,zi),转化方程如下:
xi=di·sin(αi)·sin(βi)
yi=di·sin(αi)·cos(βi)
zi=H-di·cos(αi)。
步骤3)的具体方法如下:
3.3)经过步骤3.2)后,利用3.2)求得的对应关系,最大化下述的使用点到面距离和互相关熵定义的目标函数,求取刚体变换:
其中,σ是一个自由变量;
3.4)判断当前的配准误差是否已经符合要求,若已符合要求,则输出刚体变换和若尚未符合要求,则继续判断当前迭代次数k是否已经达到预设的迭代最大值,若已经达到,则输出刚体变换R和若尚未达到,则返回到步骤3.2),继续迭代计算刚体变换。
步骤4)得到无人车当前的位置和姿态的具体方法如下:
根据无人驾驶汽车的初始位置(x0,y0,z0)T和初始姿态(α0,β0,γ0)T,得到无人车当前的位置和姿态,其计算方法如下:
与现有技术相比,本发明具有以下有益效果:
本发明利用三维激光雷达扫描无人车周围场景,获取当前场景的点云描述;然后将数据降采样到合适水平;随后使用迭代的配准算法把扫描的场景数据与地图数据进行精确配准,得到当前帧点云数据的刚体变换;最后利用该刚体变换得到无人车在三维点云地图内的位置和当前车体姿态。
本发明利用三维激光雷达作为数据来源,通过坐标系转换、数据降采样、点集配准等步骤,完成无人车位姿估计的功能。由于三维激光雷达的工作原理与相机等不同,能够很好的克服天气、光照等环境因素的影响。另外,使用步骤3.3)中基于点到面距离和互相关熵的误差评价函数针对场景与地图描述部分不匹配、动态障碍物等噪声和异常点等具有良好的抵抗能力,因此可以实现无人驾驶汽车鲁棒而精准的位姿估计的功能。
附图说明
图1为基于三维激光雷达的无人车定位总体框图;
图2为三维激光扫描模型;
图3为基于互相关熵和点到面距离的点云配准框图;
图4为无人车在地下车库定位的实例图。
具体实施方式
下面结合附图对本发明做进一步详细描述:
参见图1-3,本发明基于点到面距离和互相关熵配准的无人车位姿估计方法,首先标定三维激光雷达,然后将采集到的三维激光雷达数据进行坐标转换;然后将降采样后的数据与已有的地图数据进行点云配准得到刚体的旋转平移变换;进而根据该旋转平移变换得到自主运动体的位置和姿态。本发明具体按以下步骤进行:
步骤1)为了完成对于无人车位置和姿态的计算和描述,首先确定三维激光雷达在车辆上安装的高度,同时计算出三维激光雷达向下倾斜的角度,然后将采集到的三维激光雷达数据从极坐标系转化到局部三维直角坐标系;
步骤1.1)为了实现使用三维激光雷达进行定位的功能,需要将三维激光雷达水平安装在车顶上方,保证其能够扫描到车身360°范围内的场景。
步骤1.2)由于激光雷达是扫描式的主动传感器,其数据是以激光雷达的激光发射点为极点,正前方或是其他特定方向为极轴的极坐标系的距离和角度,而后面的计算全部是基于直角坐标系来实现的,所以需要建立激光雷达扫描数据极坐标系到局部空间直角坐标系坐标的转换关系,获得激光点对应的直角坐标值。
三维激光雷达由多组激光发射器构成,以64线三维激光为例,其一共有64个激光发射器,每个发射器呈不同的角度向斜下方进行扫描。
此时定义如图2所示局部空间直角坐标系,测量激光雷达距离局部空间直角坐标系水平面(X-Y,其中Y向为车头正前方所指的方向)的安装高度H,确定激光雷达安装位置在局部空间直角坐标系的位置。
每一个激光数据点包括发射所在激光线束的垂直角度αn,发射时的三维激光旋转角度βi与扫描距离di三个参数,即Pi=(αi,βi,di),而局部空间直角坐标系则需要xi,yi,zi三个坐标值,即Pi=(xi,yi,zi)。根据图2所示的激光雷达安装位置在局部空间直角坐标系中的位置,可以通过三角函数完成极坐标到直角坐标的转换,转换等式如下所示:
xi=di·sin(αi)·sin(βi)
yi=di·sin(αi)·cos(βi)
zi=H-di·cos(αi)
步骤2)三维激光雷达数据降采样:由于激光点过于密集,会给系统带来极大的计算量;而把数据点进行降采样后,依旧能够对当前环境有明确的描述。在本步骤中使用随机降采样的标准,将三维激光雷达数据降采样到原来的10%-20%;
步骤2.1)三维激光雷达每扫描一圈周围场景都将产生大量的点云数据,并且其特点为近处的点云稠密而远处的点云稀疏。过于稠密的点集会给计算带来极大的冗余性,因此在本步骤中需要对点云进行降采样操作。
步骤2.2)假设每一帧三维激光点云中都有n个点,其对应的数据索引为1到n。降采样的方式为根据确定的降采样比例p(0<p<1),随机在1到n中选出n×p个值(向下取整),然后取出这些索引值对应的数据点,这些点即为降采样后的数据。
步骤3)将步骤2)获得的当前场景描述点云数据与已有的占据栅格点云地图数据进行精确刚体配准,其中地图点云作为目标点集,在配准过程中其物理位置保持不变,当前点云作为模型点集,通过后文描述的迭代算法,不断的调整该点云的物理位置,最终得到两帧数据间的刚体旋转平移变换R和
步骤3.1)无人车当前扫描的场景与地图场景存在部分对应关系,即当前场景描述是地图描述的一部分。因此如何准确寻找确切的对应关系就成为了无人驾驶汽车定位的关键。本发明中使用基于互相关熵和点到面距离的迭代最近点(Iterative Closest Point,ICP)算法将当前场景描述点云数据与已有的地图点云数据进行精确刚体配准,其中地图点云作为目标点集,在配准过程中其物理位置保持不变,当前点云作为模型点集,从而得到无人驾驶汽车的当前位置。不失一般性的,假设三维激光当前扫描得到的点云为地图点云为
步骤3.3)给定刚体变换初值。由于ICP算法及其改进算法大多为局部收敛算法,在某一给定的初值条件下,算法能够自动地收敛于局部极值,如果初值条件给的不好,则算法很有可能配准失败,特别是在部分配准和噪声、异常点较多的情况下。因此,一个良好的配准初值能够有效地防止算法陷入局部极值。
在算法的使用过程中,第一次配准的初值可由GPS位置作为初值,也可以使用特征匹配的方法获得初值。如果在实际问题中,有GPS作为辅助传感器输入,那么可以将GPS位置变换为配准所需要的变换初值。比如在城市道路中,虽有建筑物、树木等遮挡,单纯凭借GPS的定位不足以满足无人驾驶汽车的需求,但是GPS依旧可以为本算法提供配准初值;再比如在地下车库等场景的定位问题中,可以使用进入车库前的GPS位置作为初值,等等。如果GPS位置信息获取受限,则可以抽取当前帧点云和地图点云的三维特征(比如RoPs,3DSurf等),然后使用特征匹配的方式得出配准初值。但这种方法一般而言计算复杂度较高,耗时较长。
配准算法的后续迭代过程中,则可以使用上一帧的配准结果作为初值。由于三维激光采集数据频率较高,依据型号和设置的不同,大约在10Hz到20Hz不等,两帧之间的旋转和平移变换不大,因此,可以用上一帧的配准结果作为本帧配准的初值。
步骤3.4)设定迭代求解的最大次数M,并设定好配准收敛条件,循环进行步骤3.5)和步骤3.6),直到循环次数达到最大值M或者满足了收敛条件:
其中,
r11=cosγcosβ
r12=sinγcosα+cosγsinβsinα
r13=sinγsinα+cosγsinβcosα
r21=sinγcosβ
r22=cosγcosα+sinγsinβsinα
r23=-cosγsinα+sinγsinβcosα
r31=-sinβ
r32=cosβsinα
r33=cosβcosα
步骤4)根据无人驾驶汽车的初始位置和初始姿态,得到无人车当前的位置和姿态。假设无人驾驶汽车的初始位置为(x0,y0,z0)T,初始姿态为(α0,β0,γ0)T,那么根据步骤3)得到的旋转平移变换,无人车当前的位置(x,y,z)T和姿态(α,β,γ)T为:
(α,β,γ)T=R(α0,β0,γ0)T
经过上面的处理,从三维激光点云和已有的地图点云中即可得到车体的位置和姿态信息。一个无人车在地下车库定位的例子参见图4,图中给出了无人车在某地下车库中使用本发明方法进行定位的实验结果,其中用直线连起来的圆圈代表无人车的行驶轨迹。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。
Claims (3)
1.基于点到面距离和互相关熵配准的无人车位姿估计方法,其特征在于,首先标定三维激光雷达,然后将采集到的三维激光雷达数据进行降采样;然后将降采样后的数据与已有的三维地图数据进行点云配准得到刚体的旋转平移变换;进而根据该旋转平移变换得到自主运动体的位置和姿态;具体包括以下步骤:
1)首先确定三维激光雷达安装的高度,然后将采集到的三维激光雷达数据从三维极坐标系转化到局部三维直角坐标系;
2)使用随机降采样的标准,将三维激光雷达数据降采样到原来的10%-20%,获得的当前场景描述点云数据;
3.3)经过步骤3.2)后,利用3.2)求得的对应关系,最大化下述的使用点到面距离和互相关熵定义的目标函数,求取刚体变换:
其中,σ是一个自由变量;
3.4)判断当前的配准误差是否已经符合要求,若已符合要求,则输出刚体变换R和若尚未符合要求,则继续判断当前迭代次数k是否已经达到预设的迭代最大值,若已经达到,则输出刚体变换R和若尚未达到,则返回到步骤3.2),继续迭代计算刚体变换;
4)根据无人驾驶汽车的初始位置和初始姿态,得到无人车当前的位置和姿态。
2.根据权利要求1所述基于点到面距离和互相关熵配准的无人车位姿估计方法,其特征在于,步骤1)的具体方法如下:
1.1)以三维激光雷达安装位置为参考点定义局部三维直角坐标系,然后测量三维激光雷达距离水平面的安装高度H;
1.2)建立三维激光雷达扫描极坐标到局部三维直角坐标系中坐标的转换关系,根据转换关系获得三维激光雷达数据点Pi对应的三维直角坐标值,每一个三维激光雷达扫描极坐标数据点包括发射所在激光线束的垂直角度αn,发射时的三维激光旋转角度βi与扫描距离di三个参数,即Pi=(αi,βi,di),则Pi=(αi,βi,di)对应局部三维直角坐标系的坐标值为Pi=(xi,yi,zi),转化方程如下:
xi=di·sin(αi)·sin(bi)
yi=di·sin(αi)·cos(βi)
zi=H-di·cos(αi)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810570046.5A CN108868268B (zh) | 2018-06-05 | 2018-06-05 | 基于点到面距离和互相关熵配准的无人车位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810570046.5A CN108868268B (zh) | 2018-06-05 | 2018-06-05 | 基于点到面距离和互相关熵配准的无人车位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108868268A CN108868268A (zh) | 2018-11-23 |
CN108868268B true CN108868268B (zh) | 2020-08-18 |
Family
ID=64336613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810570046.5A Expired - Fee Related CN108868268B (zh) | 2018-06-05 | 2018-06-05 | 基于点到面距离和互相关熵配准的无人车位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108868268B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109887028B (zh) * | 2019-01-09 | 2023-02-03 | 天津大学 | 一种基于点云数据配准的无人车辅助定位方法 |
KR102335389B1 (ko) * | 2019-01-30 | 2021-12-03 | 바이두닷컴 타임즈 테크놀로지(베이징) 컴퍼니 리미티드 | 자율 주행 차량의 lidar 위치 추정을 위한 심층 학습 기반 특징 추출 |
CN110197461B (zh) * | 2019-06-06 | 2022-12-30 | 上海木木聚枞机器人科技有限公司 | 一种坐标转换关系确定方法、装置、设备和存储介质 |
CN110344621B (zh) * | 2019-06-13 | 2020-05-26 | 武汉大学 | 一种面向智能车库的车轮点云检测方法 |
CN110363800B (zh) * | 2019-06-19 | 2021-08-13 | 西安交通大学 | 一种基于点集数据与特征信息相融合的精确刚体配准方法 |
CN110264701A (zh) * | 2019-07-22 | 2019-09-20 | 北京首汽智行科技有限公司 | 一种共享汽车运营场站定点自动取车方法及系统 |
CN112219206B (zh) * | 2019-07-25 | 2024-09-06 | 北京航迹科技有限公司 | 用于确定位姿的系统和方法 |
CN110853037A (zh) * | 2019-09-26 | 2020-02-28 | 西安交通大学 | 一种基于球面投影的轻量化彩色点云分割方法 |
JP7230787B2 (ja) * | 2019-11-29 | 2023-03-01 | 株式会社豊田自動織機 | 障害物検出装置 |
CN111366813B (zh) * | 2020-03-17 | 2022-03-11 | 重庆邮电大学 | 一种脉冲噪声环境下的电缆故障定位方法、装置及系统 |
CN111751852A (zh) * | 2020-06-17 | 2020-10-09 | 北京联合大学 | 基于点云配准的无人车gnss定位可靠性评价方法 |
CN112764347B (zh) * | 2021-01-07 | 2023-08-22 | 成都信息工程大学 | 一种基于最大相关熵准则的智能车辆路径跟踪方法 |
CN112949782A (zh) * | 2021-04-27 | 2021-06-11 | 上海芯物科技有限公司 | 一种目标检测方法、装置、设备及存储介质 |
CN113295142B (zh) * | 2021-05-14 | 2023-02-21 | 上海大学 | 一种基于faro扫描仪和点云的地形扫描分析方法和装置 |
CN114820749A (zh) * | 2022-04-27 | 2022-07-29 | 西安优迈智慧矿山研究院有限公司 | 无人车井下定位方法、系统、设备及介质 |
CN116147525B (zh) * | 2023-04-17 | 2023-07-04 | 南京理工大学 | 一种基于改进icp算法的受电弓轮廓检测方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103760569A (zh) * | 2013-12-31 | 2014-04-30 | 西安交通大学 | 一种基于激光雷达的可行驶区域检测方法 |
RU2608792C2 (ru) * | 2015-07-16 | 2017-01-24 | федеральное государственное бюджетное образовательное учреждение высшего образования "Алтайский государственный технический университет им. И.И. Ползунова" (АлтГТУ) | Способ определения положения мобильной машины на плоскости |
CN106406338A (zh) * | 2016-04-14 | 2017-02-15 | 中山大学 | 一种基于激光测距仪的全向移动机器人的自主导航装置及其方法 |
DE102016002704A1 (de) * | 2016-03-08 | 2017-09-14 | Audi Ag | Steuervorrichtung und Verfahren zum Ermitteln einer Eigenposition eines Kraftfahrzeugs |
CN104764457B (zh) * | 2015-04-21 | 2017-11-17 | 北京理工大学 | 一种用于无人车的城市环境构图方法 |
-
2018
- 2018-06-05 CN CN201810570046.5A patent/CN108868268B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103760569A (zh) * | 2013-12-31 | 2014-04-30 | 西安交通大学 | 一种基于激光雷达的可行驶区域检测方法 |
CN104764457B (zh) * | 2015-04-21 | 2017-11-17 | 北京理工大学 | 一种用于无人车的城市环境构图方法 |
RU2608792C2 (ru) * | 2015-07-16 | 2017-01-24 | федеральное государственное бюджетное образовательное учреждение высшего образования "Алтайский государственный технический университет им. И.И. Ползунова" (АлтГТУ) | Способ определения положения мобильной машины на плоскости |
DE102016002704A1 (de) * | 2016-03-08 | 2017-09-14 | Audi Ag | Steuervorrichtung und Verfahren zum Ermitteln einer Eigenposition eines Kraftfahrzeugs |
CN106406338A (zh) * | 2016-04-14 | 2017-02-15 | 中山大学 | 一种基于激光测距仪的全向移动机器人的自主导航装置及其方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108868268A (zh) | 2018-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108868268B (zh) | 基于点到面距离和互相关熵配准的无人车位姿估计方法 | |
CN111882612B (zh) | 一种基于三维激光检测车道线的车辆多尺度定位方法 | |
CN110148185B (zh) | 确定成像设备坐标系转换参数的方法、装置和电子设备 | |
CA3028653C (en) | Methods and systems for color point cloud generation | |
US10860871B2 (en) | Integrated sensor calibration in natural scenes | |
CN106651990B (zh) | 一种室内地图构建方法及基于室内地图的室内定位方法 | |
CN113359097B (zh) | 一种毫米波雷达和相机联合标定的方法 | |
CN107451593B (zh) | 一种基于图像特征点的高精度gps定位方法 | |
CN104268935A (zh) | 一种基于特征的机载激光点云与影像数据融合系统及方法 | |
US10996337B2 (en) | Systems and methods for constructing a high-definition map based on landmarks | |
CN112731371B (zh) | 一种激光雷达与视觉融合的集成化目标跟踪系统及方法 | |
CN110132284B (zh) | 一种基于深度信息的全局定位方法 | |
CN101975951A (zh) | 一种融合距离和图像信息的野外环境障碍检测方法 | |
Nagy et al. | Online targetless end-to-end camera-LiDAR self-calibration | |
CN113532499B (zh) | 无人系统的传感器安全性检测方法、设备及存储介质 | |
CN114485654A (zh) | 一种基于高精地图的多传感器融合定位方法及装置 | |
Chellappa et al. | On the positioning of multisensor imagery for exploitation and target recognition | |
WO2020113425A1 (en) | Systems and methods for constructing high-definition map | |
CN113296120B (zh) | 一种障碍物检测方法及终端 | |
CN113496163A (zh) | 障碍物识别方法和装置 | |
CN113792645A (zh) | 一种融合图像和激光雷达的ai眼球 | |
Wu et al. | Vision-aided navigation for aircrafts based on road junction detection | |
Park et al. | Localization of an unmanned ground vehicle based on hybrid 3D registration of 360 degree range data and DSM | |
TWI748678B (zh) | 基於地面資訊優化的車輛自主定位系統 | |
CN113029166B (zh) | 定位方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200818 |