CN109945858B - 用于低速泊车驾驶场景的多传感融合定位方法 - Google Patents
用于低速泊车驾驶场景的多传感融合定位方法 Download PDFInfo
- Publication number
- CN109945858B CN109945858B CN201910213302.XA CN201910213302A CN109945858B CN 109945858 B CN109945858 B CN 109945858B CN 201910213302 A CN201910213302 A CN 201910213302A CN 109945858 B CN109945858 B CN 109945858B
- Authority
- CN
- China
- Prior art keywords
- positioning
- semantic
- information
- vehicle
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 21
- 230000000875 corresponding Effects 0.000 claims abstract description 20
- 230000000007 visual effect Effects 0.000 claims abstract description 14
- 230000004438 eyesight Effects 0.000 claims abstract description 10
- 238000001914 filtration Methods 0.000 claims abstract description 7
- 238000001514 detection method Methods 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 13
- 230000003287 optical Effects 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 7
- 230000001131 transforming Effects 0.000 claims description 7
- 230000001537 neural Effects 0.000 claims description 6
- 230000016776 visual perception Effects 0.000 claims description 6
- 230000001133 acceleration Effects 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 239000002245 particle Substances 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000001276 controlling effect Effects 0.000 abstract description 2
- 230000004807 localization Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006011 modification reaction Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
Images
Abstract
本发明公开了一种用于低速泊车驾驶场景的多传感融合定位方法,包括如下步骤:1.语义地图定义:针对泊车应用场景,基于定位算法能力与接口,定义离线地图数据格式,主要包括全局路由所需的道路数据以及定位所需的路标数据;2.多感知融合里程计:主要包括视觉以及轮速计或惯性导航传感器数据融合,基于运动学卡尔曼滤波的车辆行驶里程估算;3.视觉路标检测与匹配:主要包括提取离线语义地图所包含的先验路标信息,构造相应的场景语义描述,以匹配地图语义信息;4.定位修正:根据视觉路标匹配信息,进行定位里程修正,形成里程与定位信息的闭环修正。本发明具有能够控制系统成本,提升系统可行性和定位精确度高的特点。
Description
技术领域
本发明涉及车载电子技术领域,尤其是涉及一种能够控制系统成本,提升系统可行性和定位精确度高的用于低速泊车驾驶场景的多传感融合定位方法。
背景技术
目前,自动驾驶技术与系统的研究与开发大多基于高速公路与泊车两种应用场景,其系统组成通常包括感知、定位、规划以及决策控制等子模块。相较于辅助驾驶系统,定位是高等级自动驾驶系统中不可或缺的组成模块,也是区别二者的主要壁垒。根据自动驾驶应用的不同需求,定位模块所采用的方法与装置也不完全相同。现有车载系统定位方式较单一,多基于GPS信号,鲜有符合自动驾驶场景应用需求的定位方案。已有方案定位精度较低,仅适用于车载导航应用,且在隧道、地下车库等场景无法使用,无法满足自动驾驶典型场景应用需求。
因此,设计一种能够解决自动泊车或代客泊车应用场景下的系统定位问题以及能够控制系统成本,提升系统可行性和定位精确度高的车载系统定位方法,就显得十分必要。
发明内容
本发明是为了克服现有技术中,现有车载系统定位方式单一,精度较低,仅适用于车载导航应用,且在隧道、地下车库等场景无法使用,无法满足自动驾驶典型场景应用需求的问题,提供了一种能够控制系统成本,提升系统可行性和定位精确度高的用于低速泊车驾驶场景的多传感融合定位方法。
为实现上述目的,本发明采用以下技术方案:
一种用于低速泊车驾驶场景的多传感融合定位方法,包括如下步骤:
(1-1)语义地图定义:
针对泊车应用场景,基于定位算法能力与接口,定义离线地图数据格式,主要包括全局路由所需的道路数据以及定位所需的路标数据;
(1-2)多感知融合里程计:
主要包括视觉以及轮速计或惯性导航传感器数据融合,基于运动学卡尔曼滤波的车辆行驶里程估算;
(1-3)视觉路标检测与匹配:
主要包括提取离线语义地图所包含的先验路标信息,构造相应的场景语义描述,以匹配地图语义信息;
(1-4)定位修正:
根据视觉路标匹配信息,进行定位里程修正,形成里程与定位信息的闭环修正。
本发明提出了一种基于视觉系统与其他车载传感器(轮速计/惯性导航)的融合定位方案,用于解决自动泊车或代客泊车应用场景下的系统定位问题。本发明旨在基于已有辅助驾驶系统车载传感器硬件架构,通过视觉里程计与其他车载传感器融合更新车辆位置与姿态,利用视觉系统进行场景关键语义路标检测与匹配实现定位闭环修正,从而实现室内或室外泊车应用场景自动驾驶系统定位。本发明具有能够控制系统成本,提升系统可行性和定位精确度高的特点。
作为优选,在上述步骤(1-3)中,还包括如下步骤:
(1-3-1)场景定位路标提取:
主干特征与视觉感知模块复用,输入为3通道RGB图像,输出为场景语义信息mask;训练采用softmax loss损失函数;
(1-3-2)场景定位路标聚类与识别:
主干特征与视觉感知模块复用,输入为3通道RGB图像,输出为关联语义信息聚类mask;训练采用hinge loss损失函数;设置聚类容差阈值,提取待分类语义目标ROI,通过深度卷积神经网络场景描述进行定位语义标识分类,输出为该ROI对应的语义类别信息,包括英文字母(A-Z)、数字(0-9)以及其他;
(1-3-3)定位路标相对位置估算:
主要包括路面语义定位标识相对位置估算和空间定位标识相对位置估算。
作为优选,步骤(1-3-3)定位路标相对位置估算,还包括如下步骤:
(1-3-3-1)路面语义定位标识相对位置估算:
对于路面语义定位信息,基于离线标定相机参数,即焦距、光心、分辨率、高度以及俯仰角等,与先验路面模型假设可得路面区域逆透视变换矩阵H,通过图像坐标系下定位路标基点位置[u,v,1]T可计算出该定位路标与自身车辆的相对位置信息[X,Y,1]T,即
[X,Y,1]T=H[u,v,1]T
路面定位基点主要包含两类:1.类为定位点,包括泊车位id,泊车位角点,可用于二维位置修正,即纵向与侧向修正;2.类为定位边界,包括泊车位边界,道路截止边界以及车道边界,可用于一维位置修正,即纵向或侧向修正;
(1-3-3-2)空间语义定位标识相对位置估算:
对于空间语义定位信息,可根据语义分类结果在离线地图中搜索相应匹配的语义路标结构化数据,即尺寸信息(W,H)。按如下公式计算相应空间路标相对位置:
其中,h为图像坐标系下空间标识高度,f为相机焦距,y0为图像侧向光心,y为图像坐标系下空间标识中心侧向坐标,空间标识相对位置可用于修正车辆自身纵向与侧向位置。
作为优选,步骤(1-2)多感知融合里程计还包括如下步骤:
(1-2-1)基于车辆运动学模型的航位估算:
通过轮速计以及惯性导航等获取不同时刻下对应的车辆速度和加速度信息,然后利用粒子滤波或卡尔曼滤波等方法融合不同传感器信号,处理冗余信息减小噪声干扰,结合车辆运动学模型估算车辆航位;
选取全局坐标系下车辆后轴中心(x,y)、车速v、航向角θ和航向角变化率ω为车辆状态信息,则任意时刻t对应的车辆状态为:
St=[xt,yt,θt,v,ω]
则对应不同时刻间的坐标变换关系如下:
xt=xt-l+vΔtcos(θt-1+ωΔt/2)
yt=yt-1+vΔtsin(θt-1+ωΔt/2)
θt=θt-1+ωΔt
其中,△t为时间间隔,其他分别对应t-1和t时刻对应的车辆状态信息;
(1-2-2)基于视觉的航位估算:
可通过基于图像特征点匹配的传统方法实现,亦可通过基于图像语义信息的深度学习方法实现。
作为优选,步骤(1-2-2)基于视觉的航位估算还包括如下步骤:
(1-2-2-1)基于图像特征点匹配的方法:
利用SIFT、SURF、BRIEF或ORB等特征提取与描述算法提取图像中的特征点信息,再运用KLT或光流跟踪算法跟踪特征点到下一帧图像中,通过随机抽样一致性算法估算两张图像的本质矩阵E,最后结合尺度信息分解本质矩阵求得旋转矩阵R和平移矩阵t。
作为优选,步骤(1-4)定位修正还包括如下步骤:
(1-4-1)基于先验地图语义匹配的航位修正:
通过车辆运动学模型或视觉系统获取航位推算结果后,结合步骤(1-3-3)中基于先验地图语义信息估算的定位路标结果,对车辆航位信息进行修正,形成闭环,减小航位推算的累计误差,提高定位精度。
因此,本发明具有如下有益效果:(1)本发明系统方案适用于室内以及室外泊车场景;(2)系统成本可控,适合车载场景应用批量实现;(3)所采用的深度神经网络特征描述架构可以与其他感知模块公用部分图像特征图谱,运算效率高;(4)泊车场景语义提取可复用于泊车位寻找等其他泊车算法模块;(5)能提高泊车定位精确度。
附图说明
图1是本发明的一种流程图;
图2是本发明中的一种场景语义提取深度卷积网络架构示意图;
图3是本发明中的一种图像估计相机位姿的流程图。
具体实施方式
下面结合附图与具体实施方式对本发明做进一步的描述:
实施例:如图1所示的一种用于低速泊车驾驶场景的多传感融合定位方法,包括如下步骤:
(1-1)语义地图定义:
定义所示的停车场语义结构化数据如图2所示,主要包括车位信息,车道信息以及定位路标信息,可由停车场设计图抽象所得。其中,车位信息主要包括但不限于车位id、长宽、朝向以及所属车道等属性;车道信息主要包括但不限于车道id、长度、曲率、边界类型、前后关联车道以及所属楼层等属性;定位路标信息主要包括但不限于车位id、路面引导标识以及空中悬挂引导标识等;各类信息由车道信息为起点自上而下存储,全局路径播发可由车位信息为起点自下而上搜索所得;
(1-2)多感知融合里程计:
(1-2-1)基于车辆运动学模型的航位估算:
通过轮速计以及惯性导航等获取不同时刻下对应的车辆速度和加速度信息,然后利用粒子滤波或卡尔曼滤波等方法融合不同传感器信号,处理冗余信息减小噪声干扰,结合车辆运动学模型估算车辆航位;
选取全局坐标系下车辆后轴中心(x,y)、车速v、航向角θ和航向角变化率ω为车辆状态信息,则任意时刻t对应的车辆状态为:
St=[xt,yt,θt,v,ω]
则对应不同时刻间的坐标变换关系如下:
xt=xt-1+vΔtcos(θt-1+ωΔt/2)
yt=yt-1+vΔtsin(θt-1+ωΔt/2)
θt=θt-1+ωΔt
其中,△t为时间间隔,其他分别对应t-1和t时刻对应的车辆状态信息;
(1-2-2)基于视觉的航位估算:
(1-2-2-1)基于图像特征点匹配的方法:
如图3所示,利用SIFT、SURF、BRIEF或ORB等特征提取与描述算法提取图像中的特征点信息,再运用KLT或光流跟踪算法跟踪特征点到下一帧图像中,通过随机抽样一致性算法估算两张图像的本质矩阵E,最后结合尺度信息分解本质矩阵求得旋转矩阵R和平移矩阵t。
此外,除基于图像特征点匹配的方法外,还可利用基于深度卷积特征的方法以及基于端对端神经网络的方法;
基于深度卷积特征的方法:与图3中的算法基线类似,利用FAST或Harris等快速角点提取方法提取图像中特征点位置,利用感知模块所提取的深度卷积特征,利用PCA等降维方法对特征点进行特征描述,后参考步骤(1-2-2-1)中的方法计算运动相机外参,即相机安装位置处的车辆自身运动;
基于端对端神经网络的方法:与图3中的算法基线不同,利用共享卷积特征,构造自身运动估计输出解码层(6维输出,即车辆6自由度运动),采集高精度组合惯导信号作为训练参考标签,利用监督学习方法离线训练输出解码曾参数;
(1-3)视觉路标检测与匹配:
(1-3-1)场景定位路标提取:
如图2场景语义分支所示,主干特征与视觉感知模块复用,输入为3通道RGB图像,输出为场景语义信息mask;训练采用softmax loss损失函数;
(1-3-2)场景定位路标聚类与识别:
如图2场景语义分支所示,主干特征与视觉感知模块复用,输入为3通道RGB图像,输出为关联语义信息聚类mask;训练采用hinge loss损失函数;设置聚类容差阈值,提取待分类语义目标ROI,通过深度卷积神经网络场景描述进行定位语义标识分类,输出为该ROI对应的语义类别信息,包括英文字母(A-Z)、数字(0-9)以及其他;
(1-3-3)定位路标相对位置估算:
(1-3-3-1)路面语义定位标识相对位置估算:
对于路面语义定位信息,基于离线标定相机参数,即焦距、光心、分辨率、高度以及俯仰角等,与先验路面模型假设可得路面区域逆透视变换矩阵H,通过图像坐标系下定位路标基点位置[u,v,1]T可计算出该定位路标与自身车辆的相对位置信息[X,Y,1]T,即
[X,Y,1]T=H[u,v,1]T
路面定位基点主要包含两类:1.类为定位点,包括泊车位id,泊车位角点,可用于二维位置修正,即纵向与侧向修正;2.类为定位边界,包括泊车位边界,道路截止边界以及车道边界,可用于一维位置修正,即纵向或侧向修正;
(1-3-3-2)空间语义定位标识相对位置估算:
对于空间语义定位信息,可根据语义分类结果在离线地图中搜索相应匹配的语义路标结构化数据,即尺寸信息(W,H)。按如下公式计算相应空间路标相对位置:
其中,h为图像坐标系下空间标识高度,f为相机焦距,y0为图像侧向光心,y为图像坐标系下空间标识中心侧向坐标,空间标识相对位置可用于修正车辆自身纵向与侧向位置。
(1-4)定位修正:
(1-4-1)基于先验地图语义匹配的航位修正:
通过车辆运动学模型或视觉系统获取航位推算结果后,结合步骤(1-3-3)中基于先验地图语义信息估算的定位路标结果,对车辆航位信息进行修正,形成闭环,减小航位推算的累计误差,提高定位精度;
具体做法为:将步骤(1-3-3)中计算的目标自身位置作为观测更新添加入步骤(1-2-1)的观测空间方程,利用坐标变换在符合定位修正的条件下进行系统观测更新。
应理解,本实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
Claims (5)
1.一种用于低速泊车驾驶场景的多传感融合定位方法,其特征是,包括如下步骤:
(1-1)语义地图定义:
针对泊车应用场景,基于定位算法能力与接口,定义离线地图数据格式,包括全局路由所需的道路数据以及定位所需的路标数据;
(1-2)多感知融合里程计:
包括视觉以及轮速计或惯性导航传感器数据融合,基于运动学卡尔曼滤波的车辆行驶里程估算;
(1-3)视觉路标检测与匹配:
包括提取离线语义地图所包含的先验路标信息,构造相应的场景语义描述,以匹配地图语义信息;
(1-4)定位修正:
根据视觉路标匹配信息,进行定位里程修正,形成里程与定位信息的闭环修正;
所述步骤(1-3)还包括如下步骤:
(1-3-1)视觉路标提取:
主干特征与视觉感知模块复用,输入为3通道RGB图像,输出为场景语义信息mask;训练采用softmax loss损失函数;
(1-3-2)视觉路标聚类与识别:
主干特征与视觉感知模块复用,输入为3通道RGB图像,输出为关联语义信息聚类mask;训练采用hinge loss损失函数;设置聚类容差阈值,提取待分类语义目标ROI,通过深度卷积神经网络场景描述进行定位语义标识分类,输出为该ROI对应的语义类别信息;
(1-3-3)视觉路标相对位置估算:
包括路面语义定位标识相对位置估算和空间语义定位标识相对位置估算。
2.根据权利要求1所述的用于低速泊车驾驶场景的多传感融合定位方法,其特征是,步骤(1-3-3)还包括如下步骤:
(1-3-3-1)路面语义定位标识相对位置估算:
对于路面语义定位信息,基于离线标定相机参数,即焦距、光心、分辨率、高度以及俯仰角,与先验路面模型假设得到路面区域逆透视变换矩阵H,通过图像坐标系下路面语义定位标识基点位置[u,v,1]T计算出该路面语义定位标识与自身车辆的相对位置信息[X,Y,1]T,即
[X,Y,1]T=H[u,v,1]T
路面定位基点包含两类:第一类为定位点,包括泊车位id,泊车位角点,用于二维位置修正,即纵向与侧向修正;第二类为定位边界,包括泊车位边界,道路截止边界以及车道边界,用于一维位置修正,即纵向或侧向修正;
(1-3-3-2)空间语义定位标识相对位置估算:
对于空间语义定位信息,根据语义分类结果在离线地图中搜索相应匹配的语义路标结构化数据;按如下公式计算相应空间语义定位标识相对位置:
其中,h为图像坐标系下空间语义定位标识高度,f为相机焦距,y0为图像侧向光心,y为图像坐标系下空间语义定位标识中心侧向坐标,空间语义定位标识相对位置用于修正车辆自身纵向与侧向位置。
3.根据权利要求1所述的用于低速泊车驾驶场景的多传感融合定位方法,其特征是,步骤(1-2)还包括如下步骤:
(1-2-1)基于车辆运动学模型的航位估算:
通过轮速计以及惯性导航获取不同时刻下对应的车辆速度和加速度信息,然后利用粒子滤波或卡尔曼滤波法融合不同传感器信号,处理冗余信息减小噪声干扰,结合车辆运动学模型估算车辆航位;
选取全局坐标系下车辆后轴中心(x,y)、车速v、航向角θ和航向角变化率ω为车辆状态信息,则任意t时刻对应的车辆状态为:
St=[xt,yt,θt,v,ω]
则对应不同时刻间的坐标变换关系如下:
xt=xt-1+vΔt cos(θt-1+ωΔt/2)
yt=yt-1+vΔt sin(θt-1+ωΔt/2)
θt=θt-1+ωΔt
其中,Δt为时间间隔;
(1-2-2)基于视觉的航位估算:
通过基于图像特征点匹配的传统方法实现,或者通过基于图像语义信息的深度学习方法实现。
4.根据权利要求3所述的用于低速泊车驾驶场景的多传感融合定位方法,其特征是,步骤(1-2-2)还包括如下步骤:
(1-2-2-1)基于图像特征点匹配的方法:
利用SIFT、SURF、BRIEF或ORB特征提取与描述算法提取图像中的特征点信息,再运用KLT或光流跟踪算法跟踪特征点到下一帧图像中,通过随机抽样一致性算法估算两张图像的本质矩阵E,最后结合尺度信息分解本质矩阵求得旋转矩阵和平移矩阵。
5.根据权利要求2所述的用于低速泊车驾驶场景的多传感融合定位方法,其特征是,步骤(1-4)还包括如下步骤:
(1-4-1)基于先验地图语义匹配的航位修正:
通过车辆运动学模型或视觉系统获取航位推算结果后,结合步骤(1-3-3)中基于先验地图语义信息估算的视觉路标定位结果,对车辆航位信息进行修正,形成闭环,减小航位推算的累计误差,提高定位精度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910213302.XA CN109945858B (zh) | 2019-03-20 | 2019-03-20 | 用于低速泊车驾驶场景的多传感融合定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910213302.XA CN109945858B (zh) | 2019-03-20 | 2019-03-20 | 用于低速泊车驾驶场景的多传感融合定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109945858A CN109945858A (zh) | 2019-06-28 |
CN109945858B true CN109945858B (zh) | 2021-04-13 |
Family
ID=67010384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910213302.XA Active CN109945858B (zh) | 2019-03-20 | 2019-03-20 | 用于低速泊车驾驶场景的多传感融合定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109945858B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112212873B (zh) * | 2019-07-09 | 2022-12-02 | 北京地平线机器人技术研发有限公司 | 一种高精地图的构建方法及装置 |
CN110458887B (zh) * | 2019-07-15 | 2022-12-06 | 天津大学 | 一种基于pca的加权融合室内定位方法 |
CN110426035B (zh) * | 2019-08-13 | 2023-01-24 | 哈尔滨理工大学 | 一种基于单目视觉和惯导信息融合的定位及建图方法 |
CN110595466B (zh) * | 2019-09-18 | 2020-11-03 | 电子科技大学 | 轻量级的基于深度学习的惯性辅助视觉里程计实现方法 |
CN110967018A (zh) * | 2019-11-25 | 2020-04-07 | 斑马网络技术有限公司 | 停车场定位方法、装置、电子设备及计算机可读介质 |
CN111174781B (zh) * | 2019-12-31 | 2022-03-04 | 同济大学 | 一种基于可穿戴设备联合目标检测的惯导定位方法 |
CN111693042A (zh) * | 2020-05-06 | 2020-09-22 | 上海燧方智能科技有限公司 | 一种自动驾驶装置精准定位的方法及系统 |
CN111619553A (zh) * | 2020-05-26 | 2020-09-04 | 三一专用汽车有限责任公司 | 工程车辆和工程车辆的泊车控制方法 |
CN111521186A (zh) * | 2020-05-27 | 2020-08-11 | 广州小鹏车联网科技有限公司 | 一种车辆定位方法及装置、车辆、存储介质 |
CN112150550B (zh) * | 2020-09-23 | 2021-07-27 | 华人运通(上海)自动驾驶科技有限公司 | 一种融合定位方法及装置 |
CN112747744B (zh) * | 2020-12-22 | 2022-11-18 | 浙江大学 | 一种结合航位推算和多车道路网地图的车辆定位方法 |
CN114407877A (zh) * | 2022-02-25 | 2022-04-29 | 北京流马锐驰科技有限公司 | 一种基于轮速脉冲和imu的自动泊车定位方法 |
CN115187667B (zh) * | 2022-09-08 | 2022-12-20 | 中国科学院合肥物质科学研究院 | 一种基于认知理解的大场景精准定位方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103292804A (zh) * | 2013-05-27 | 2013-09-11 | 浙江大学 | 一种单目自然视觉路标辅助的移动机器人定位方法 |
CN103472459A (zh) * | 2013-08-29 | 2013-12-25 | 镇江青思网络科技有限公司 | 一种基于gps伪距差分的车辆协作定位方法 |
CN107246868A (zh) * | 2017-07-26 | 2017-10-13 | 上海舵敏智能科技有限公司 | 一种协同导航定位系统及导航定位方法 |
JP2018199399A (ja) * | 2017-05-26 | 2018-12-20 | アルパイン株式会社 | 運転支援装置および運転支援方法 |
CN109186586A (zh) * | 2018-08-23 | 2019-01-11 | 北京理工大学 | 一种面向动态泊车环境的同时定位及混合地图构建方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102608641A (zh) * | 2012-03-30 | 2012-07-25 | 江苏物联网研究发展中心 | 单轴陀螺仪和单轴加速度计的车载组合导航系统及方法 |
CN106384080A (zh) * | 2016-08-31 | 2017-02-08 | 广州精点计算机科技有限公司 | 一种基于卷积神经网络的表观年龄估计方法及装置 |
-
2019
- 2019-03-20 CN CN201910213302.XA patent/CN109945858B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103292804A (zh) * | 2013-05-27 | 2013-09-11 | 浙江大学 | 一种单目自然视觉路标辅助的移动机器人定位方法 |
CN103472459A (zh) * | 2013-08-29 | 2013-12-25 | 镇江青思网络科技有限公司 | 一种基于gps伪距差分的车辆协作定位方法 |
JP2018199399A (ja) * | 2017-05-26 | 2018-12-20 | アルパイン株式会社 | 運転支援装置および運転支援方法 |
CN107246868A (zh) * | 2017-07-26 | 2017-10-13 | 上海舵敏智能科技有限公司 | 一种协同导航定位系统及导航定位方法 |
CN109186586A (zh) * | 2018-08-23 | 2019-01-11 | 北京理工大学 | 一种面向动态泊车环境的同时定位及混合地图构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109945858A (zh) | 2019-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109945858B (zh) | 用于低速泊车驾驶场景的多传感融合定位方法 | |
Alonso et al. | Accurate global localization using visual odometry and digital maps on urban environments | |
CN110160542B (zh) | 车道线的定位方法和装置、存储介质、电子装置 | |
CN107229063A (zh) | 一种基于gnss和视觉里程计融合的无人驾驶汽车导航定位精度矫正方法 | |
CN111801711A (zh) | 图像标注 | |
US11024055B2 (en) | Vehicle, vehicle positioning system, and vehicle positioning method | |
US20190392228A1 (en) | Integrated sensor calibration in natural scenes | |
Parra et al. | Robust visual odometry for vehicle localization in urban environments | |
CN109446973B (zh) | 一种基于深度神经网络图像识别的车辆定位方法 | |
CN111862672A (zh) | 基于顶视图的停车场车辆自定位及地图构建方法 | |
CN111426320B (zh) | 一种基于图像匹配/惯导/里程计的车辆自主导航方法 | |
Li et al. | Integration of vision and topological self-localization for intelligent vehicles | |
US11430199B2 (en) | Feature recognition assisted super-resolution method | |
CN114184200A (zh) | 一种结合动态建图的多源融合导航方法 | |
Zhou et al. | Developing and testing robust autonomy: The University of Sydney campus data set | |
Hara et al. | Vehicle localization based on the detection of line segments from multi-camera images | |
Kruber et al. | Vehicle position estimation with aerial imagery from unmanned aerial vehicles | |
CN113252051A (zh) | 一种地图构建方法及装置 | |
CN114325634A (zh) | 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法 | |
CN113903011A (zh) | 一种适用于室内停车场的语义地图构建及定位方法 | |
CN113554705A (zh) | 一种变化场景下的激光雷达鲁棒定位方法 | |
CN112945233A (zh) | 一种全局无漂移的自主机器人同时定位与地图构建方法 | |
Gökçe et al. | Recognition of dynamic objects from UGVs using Interconnected Neuralnetwork-based Computer Vision system | |
CN111006655A (zh) | 机场巡检机器人多场景自主导航定位方法 | |
Yang et al. | Analysis of Model Optimization Strategies for a Low-Resolution Camera-Lidar Fusion Based Road Detection Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder | ||
CP01 | Change in the name or title of a patent holder |
Address after: 310051 1st and 6th floors, no.451 Internet of things street, Binjiang District, Hangzhou City, Zhejiang Province Patentee after: Zhejiang Zero run Technology Co.,Ltd. Address before: 310051 1st and 6th floors, no.451 Internet of things street, Binjiang District, Hangzhou City, Zhejiang Province Patentee before: ZHEJIANG LEAPMOTOR TECHNOLOGY Co.,Ltd. |