CN110865403B - 一种基于神经网络预学习和轮式里程计融合的定位方法 - Google Patents
一种基于神经网络预学习和轮式里程计融合的定位方法 Download PDFInfo
- Publication number
- CN110865403B CN110865403B CN201910993970.9A CN201910993970A CN110865403B CN 110865403 B CN110865403 B CN 110865403B CN 201910993970 A CN201910993970 A CN 201910993970A CN 110865403 B CN110865403 B CN 110865403B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- sampling time
- gps
- current sampling
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 22
- 230000004927 fusion Effects 0.000 title claims abstract description 12
- 238000003062 neural network model Methods 0.000 claims abstract description 22
- 238000001914 filtration Methods 0.000 claims abstract description 19
- 238000005070 sampling Methods 0.000 claims description 152
- 239000013598 vector Substances 0.000 claims description 90
- 239000011159 matrix material Substances 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 18
- 230000009466 transformation Effects 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 125000003275 alpha amino acid group Chemical group 0.000 claims description 2
- 150000001875 compounds Chemical class 0.000 claims description 2
- 230000007547 defect Effects 0.000 abstract description 3
- 230000000007 visual effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/43—Determining position using carrier phase measurements, e.g. kinematic positioning; using long or short baseline interferometry
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本发明公开了一种基于神经网络预学习和轮式里程计融合的定位方法,该方法首先对神经网络模型进行训练,然后采用训练后的神经网络模型对车辆位置进行预测,最后通过无迹卡尔曼滤波算法得到车辆最终位置数据;优点是采用神经网络预学习和轮式里程计相融合实现定位,在具有较低成本的基础上,使神经网络具有较强的泛化能力,克服轮式里程计误差较大的缺陷,最终实现较高的定位精度和较高的鲁棒性。
Description
技术领域
本发明涉及一种定位方法,尤其是涉及一种基于神经网络预学习和轮式里程计融合的定位方法。
背景技术
实现车辆厘米级定位要求是无人驾驶车辆自主导航的关键,现有车辆定位方法主要有基于轮式里程计的定位方法、基于视觉SLAM的定位方法、基于激光SLAM的定位方法和基于高精度差分GPS的定位方法。基于视觉SLAM的定位方法和基于激光SLAM的定位方法受环境动态目标的影响较大,鲁棒性较差,成本较高。基于高精度差分GPS的定位方法成本较高,主要用于无人驾驶车辆的离线地图制作。基于轮式里程计的定位方法通过车辆上现有的速度传感器和转角传感器即可实现车辆的位姿推算,价格低廉,但由于轮式里程计依赖于平面运动假设以及忽略了车辆悬架和轮胎的非线性特性,随时间的累积误差较大,无法长时间有效工作。
深度神经网络是目前在机器学习领域应用最为广泛的算法之一,可以求解非线性问题,目前有使用神经网络进行车辆参数估计的应用,但完全依赖神经网络进行车辆定位还存在较大问题,泛化能力较差。
发明内容
本发明所要解决的技术问题是提供一种基于神经网络预学习和轮式里程计融合的定位方法。该定位方法采用神经网络预学习和轮式里程计相融合实现定位,在具有较低成本的基础上,使神经网络具有较强的泛化能力,克服轮式里程计误差较大的缺陷,最终实现较高的定位精度和较高的鲁棒性。
本发明解决上述技术问题所采用的技术方案为:一种基于神经网络预学习和轮式里程计融合的定位方法,包括以下步骤:
(1)获取一个标准的由输入层、激活层和全连接层构成的神经网络模型,其中激活层采用RELU激活函数实现,将该神经网络模型记为Mtrain,将全连接层的连接权重记为W,对该神经网络模型Mtrain进行训练确定全连接层的连接权重W,具体训练过程为:
A.通过差分GPS模块采集车辆移动过程中某个时刻所处位置的GPS经纬度数据后经过坐标变换,得到该时刻车辆坐标系下的车辆位置坐标和航向角,通过车辆CAN报文解析模块同步获取该时刻的车速和方向盘转角;将该时刻作为第1个时刻,采集连续的U个时刻车辆所处位置的GPS经纬度数据、车速和方向盘转角,U的取值为大于等于10000整数,将U个时刻车辆所处位置的GPS经纬度数据分别转换为车辆位置坐标和航向角,采用每个时刻的车速、方向盘转角、车辆位置坐标和航向角构成该时刻的数据组,得到U个数据组,将U个数据组中,第δ次得到的数据组中车辆坐标系下的车辆位置坐标记为(xgps-δ,ygps-δ),航向角记为θgps-δ,速度记为vδ,方向盘转角记为αδ,δ=1,2,…,U,其中xgps-δ表示第δ次得到的车辆坐标系下的车辆位置的横坐标,ygps-δ表示第δ次得到的车辆坐标系下的车辆位置的纵坐标;
B.将第δ次得到的车辆坐标系下的车辆位置的横坐标的变化量记为△xgps-δ,车辆位置的纵坐标的变化量记为△ygps-δ,航向角的变化量记为△θgps-δ,△xgps-δ、△ygps-δ和△ygps-δ分别采用式(1)、式(2)和式(3)表示为:
△xgps-δ=xgps-δ-xgps-(δ-1) (1)
△ygps-δ=ygps-δ-ygps-(δ-1) (2)
△θgps-δ=θgps-δ-θgps-(δ-1) (3)
其中,△xgps-0=0,△ygps-0=0,△θgps-0=0;
C.采用获取的αδ、vδ以及车辆CAN报文解析模块采样周期△t构建输入训练数据向量,将构建的输入训练数据向量记为dataLδ,dataLδ采用式(4)表示为:
采用△xgps-δ、△ygps-δ和△θgps-δ构建输入训练数据向量dataLδ对应的输出训练数据向量,将输出训练数据向量记为labelLδ,labelLδ采用式(5)表示为:
由此得到U组训练数据向量对(dataL1,labelL1)~(dataLU,labelLU);
D.采用U组训练数据向量对(dataL1,labelL1)~(dataLU,labelLU)对神经网络模型Mtrain进行训练,得到全连接层的连接权重W,将得到全连接层的连接权重W代入神经网络模型Mtrain中,得到训练后的神经网络模型Mtrain;
(2)设定当前采样时刻变量t;对t进行初始化赋值,令t=1;
(3)对当前采样时刻t车辆的位置进行确定,具体过程为:
3.1通过车辆CAN报文解析模块获取当前采样时刻t的车速vt和方向盘转角αt;
3.2将车辆坐标系下,当前采样时刻t车辆位置的预测坐标记为(nnxt,nnyt),车辆位置的航向角预测值记为nnθt,其中nnxt为当前采样时刻t车辆位置的横坐标预测值,nnyt为当前采样时刻t车辆位置的纵坐标预测值,按照以下方法确定nnxt、nnyt和nnθt:
3.2.1采用当前采样时刻t车速数据vt、方向盘转角数据αt和△t构建三维向量,该三维向量表示为将三维向量/>作为训练后的神经网络模型Mtrain的输入向量数据进行神经网络推理后得到输出向量数据,将该输出向量数据记为/>其中,△xt表示车辆位置的横坐标预测值在当前采样时刻t相对于前一采样时刻t-1的变化量,△yt表示车辆位置的纵坐标预测值在当前采样时刻t相对于前一采样时刻t-1的变化量,△θt表示车辆位置的航向角预测值在当前采样时刻t相对于前一采样时刻t-1的变化量;
3.2.2采用公式(6)分别计算得到nnxt、nnyt和nnθt:
式(6)中,nnxt-1表示前一采样时刻t-1车辆位置的横坐标预测值,nnyt-1表示前一采样时刻t-1车辆位置的纵坐标预测值,nnθt-1表示前一采样时刻t-1车辆位置的航向角预测值,在t=1时的初始采样时刻,nnx0=0,nny0=,0,nnθ0=0;
3.3通过车辆运动学航迹推测算法得到车辆运动学生成的运动轨迹,即当前采样时刻t车辆位置的估计坐标和航向角估计值/>表示当前采样时刻t车辆坐标系下的车辆位置的横坐标估计值,/>表示当前采样时刻t车辆坐标系下的车辆位置的纵坐标估计值;其中车辆运动学航迹推测算法公式如下所示:
dst=vt-1·dt (8)
δft=αt·η (10)
其中,表示车辆坐标系下前一采样时刻t-1车辆位置的横坐标估计值,/>表示车辆坐标系下前一采样时刻t-1车辆位置的纵坐标估计值,/>表示前一采样时刻t-1车辆位置的航向角估计值,dst表示从前一采样时刻t-1到当前采样时刻t车辆行驶的距离,dθt表示当前采样时刻t相对于前一采样时刻t-1车辆位置的航向角变化量,vt-1为前一采样时刻t-1车辆的车速,dt为整车CAN解析模块的采样周期,L为车辆轴距,δft为当前采样时刻t车辆前轮转角,η为车辆的角传动比,“·”为乘运算符号,当t=1时,/> vt-1=0,sin表示正弦函数,cos表示余弦函数,tan表示正切函数。
3.4通过无迹卡尔曼滤波算法对当前采样时刻t的数据:车速vt、方向盘转角αt、
nnxt、nnyt和nnθt进行数据融合,得到车辆当前采样时刻t的位置,具体过程如下:
a.采用和/>构建当前采样时刻t的状态向量,将该状态向量记为At,采用以下公式对At进行初始化赋值:
其中,在t=1时的初始时刻,
b.采用vt-1和δft构建当前采样时刻t的控制输入向量,将该控制输入向量记为Bt:
其中,vt-1=0;
c.生成7个当前采样时刻t的无迹卡尔曼滤波的sigma点向量,将当前采样时刻t的无迹卡尔曼滤波的第i个sigma点向量记为采用公式(13)计算得到
式(13)中,Ct表示当前采样时刻t的参考矩阵,[Ct]i表示选取参考矩阵Ct的第i列,[Ct]i-3表示选取参考矩阵Ct的第i-3列,Ct采用公式(14)计算得到:
式(14)中,λ=3α2-3,α=0.1,P为当前采样时刻t状态传播前的协方差矩阵,其取值为当前最新值,当t=1时,即初始时刻,P初始化为维度为3×3的单位矩阵,即:
d.将当前采样时刻t的无迹卡尔曼滤波的第i个sigma点向量的均值权重记为协方差权重记为/>分别采用公式(16)和公式(17)生成当前采样时刻t的无迹卡尔曼滤波的每个sigma点向量的均值权重和协方差权重:
式(17)中,β=2;
e.通过带噪声的车辆运动学状态传播方程对sigma点进行状态传播,将当前采样时刻t的无迹卡尔曼滤波的第i个sigma点向量进行状态传播后得到的向量记为Fi t,Fi t采用式(18)表示为:
其中,表示/>第1行的元素,/>表示/>第2行的元素,/>表示/>第3行的元素,N(·)为高斯白噪声生成函数,N(0,Q)表示当前采用时刻t采用高斯白噪声生成函数生成的维度为3×1的高斯白噪声向量,其中,0为高斯白噪声生成函数的均值,Q为高斯白噪声生成函数的状态传播过程协方差矩阵,状态传播过程协方差矩阵Q采用随机函数生成,生成后为固定值,其维度为3×3;
f.对状态向量At进行无迹变换,得到状态向量At的预测值以及协方差矩阵,将状态向量At的预测值记为状态向量At的协方差矩阵记为/> 采用式(19)表示为:
采用式(20)表示为:
式(20)中,上标T表示矩阵的转置;
g.建立当前采样时刻t的观测模型,将该观测模型记为zt,zt采用式(21)表示为:
式(21)中,N(·)为高斯白噪声生成函数,N(0,R)表示采用高斯白噪声生成函数生成的高斯白噪声向量,N(0,R)的维度为3×1,其中,0为高斯白噪声生成函数的均值,R为观测协方差矩阵,观测协方差矩阵R的维度为3×3,观测协方差矩阵R为固定值,取值为:
h.构建当前采样时刻t的观测矩阵Ht,采用观测矩阵Ht对Fi t进行观测变换,得到观测变换后的sigma点向量Ht和/>分别采用式(23)和式(14)表示为:
j.对进行无迹变换,得到观测变换后的sigma点的均值/>及协方差矩阵/> 和/>分别采用式(25)和式(26)表示为:
k.将当前采样时刻t的观测模型的观测残差记为yt,yt采用式(27)表示为:
l.将当前采样时刻t的卡尔曼增益记为Kt,采用式(28)计算得到Kt:
m.采用式(29)和(30)分别对状态向量At和状态协方差矩阵P进行更新:
n、将(xt',yt')作为当前采样时刻t车辆最终位置坐标,将θt'作为当前时刻t车辆最终航向角,采用当前时刻t车辆最终位置坐标(xt',yt')和当前采样时刻t车辆最终航向角θt'构成当前采样时刻t车辆最终的位置,实现当前采样时刻t车辆的定位;
(4)采用t的当前值加1的值更新t,返回步骤(3)进行下一时刻的车辆定位。
与现有技术相比,本发明的优点在于通过采用神经网络预学习和轮式里程计相融合实现定位,可以采用车辆现有的速度传感器、转角传感器,实时性好,在具有较低成本的基础上,使神经网络具有较强的泛化能力,克服轮式里程计误差较大的缺陷,最终实现较高的定位精度和较高的鲁棒性。
具体实施方式
以下结合实施例对本发明作进一步详细描述。
实施例:一种基于神经网络预学习和轮式里程计融合的定位方法,包括以下步骤:
(1)获取一个标准的由输入层、激活层和全连接层构成的神经网络模型,其中激活层采用RELU激活函数实现,将该神经网络模型记为Mtrain,将全连接层的连接权重记为W,对该神经网络模型Mtrain进行训练确定全连接层的连接权重W,具体训练过程为:
A.通过差分GPS模块采集车辆移动过程中某个时刻所处位置的GPS经纬度数据后经过坐标变换,得到该时刻车辆坐标系下的车辆位置坐标和航向角,通过车辆CAN报文解析模块同步获取该时刻的车速和方向盘转角;将该时刻作为第1个时刻,采集连续的U个时刻车辆所处位置的GPS经纬度数据、车速和方向盘转角,U的取值为大于等于10000整数,将U个时刻车辆所处位置的GPS经纬度数据分别转换为车辆位置坐标和航向角,采用每个时刻的车速、方向盘转角、车辆位置坐标和航向角构成该时刻的数据组,得到U个数据组,将U个数据组中,第δ次得到的数据组中车辆坐标系下的车辆位置坐标记为(xgps-δ,ygps-δ),航向角记为θgps-δ,速度记为vδ,方向盘转角记为αδ,δ=1,2,…,U,其中xgps-δ表示第δ次得到的车辆坐标系下的车辆位置的横坐标,ygps-δ表示第δ次得到的车辆坐标系下的车辆位置的纵坐标;
B.将第δ次得到的车辆坐标系下的车辆位置的横坐标的变化量记为△xgps-δ,车辆位置的纵坐标的变化量记为△ygps-δ,航向角的变化量记为△θgps-δ,△xgps-δ、△ygps-δ和△ygps-δ分别采用式(1)、式(2)和式(3)表示为:
△xgps-δ=xgps-δ-xgps-(δ-1) (1)
△ygps-δ=ygps-δ-ygps-(δ-1) (2)
△θgps-δ=θgps-δ-θgps-(δ-1) (3)
其中,△xgps-0=0,△ygps-0=0,△θgps-0=0;
C.采用获取的αδ、vδ以及车辆CAN报文解析模块采样周期△t构建输入训练数据向量,将构建的输入训练数据向量记为dataLδ,dataLδ采用式(4)表示为:
采用△xgps-δ、△ygps-δ和△θgps-δ构建输入训练数据向量dataLδ对应的输出训练数据向量,将输出训练数据向量记为labelLδ,labelLδ采用式(5)表示为:
由此得到U组训练数据向量对(dataL1,labelL1)~(dataLU,labelLU);
D.采用U组训练数据向量对(dataL1,labelL1)~(dataLU,labelLU)对神经网络模型Mtrain进行训练,得到全连接层的连接权重W,将得到全连接层的连接权重W代入神经网络模型Mtrain中,得到训练后的神经网络模型Mtrain;
(2)设定当前采样时刻变量t;对t进行初始化赋值,令t=1;
(3)对当前采样时刻t车辆的位置进行确定,具体过程为:
3.1通过车辆CAN报文解析模块获取当前采样时刻t的车速vt和方向盘转角αt;
3.2将车辆坐标系下,当前采样时刻t车辆位置的预测坐标记为(nnxt,nnyt),车辆位置的航向角预测值记为nnθt,其中nnxt为当前采样时刻t车辆位置的横坐标预测值,nnyt为当前采样时刻t车辆位置的纵坐标预测值,按照以下方法确定nnxt、nnyt和nnθt:
3.2.1采用当前采样时刻t车速数据vt、方向盘转角数据αt和△t构建三维向量,该三维向量表示为将三维向量/>作为训练后的神经网络模型Mtrain的输入向量数据进行神经网络推理后得到输出向量数据,将该输出向量数据记为/>其中,△xt表示车辆位置的横坐标预测值在当前采样时刻t相对于前一采样时刻t-1的变化量,△yt表示车辆位置的纵坐标预测值在当前采样时刻t相对于前一采样时刻t-1的变化量,△θt表示车辆位置的航向角预测值在当前采样时刻t相对于前一采样时刻t-1的变化量;
3.2.2采用公式(6)分别计算得到nnxt、nnyt和nnθt:
式(6)中,nnxt-1表示前一采样时刻t-1车辆位置的横坐标预测值,nnyt-1表示前一采样时刻t-1车辆位置的纵坐标预测值,nnθt-1表示前一采样时刻t-1车辆位置的航向角预测值,在t=1时的初始采样时刻,nnx0=0,nny0=,0,nnθ0=0;
3.3通过车辆运动学航迹推测算法得到车辆运动学生成的运动轨迹,即当前采样时刻t车辆位置的估计坐标和航向角估计值/>表示当前采样时刻t车辆坐标系下的车辆位置的横坐标估计值,/>表示当前采样时刻t车辆坐标系下的车辆位置的纵坐标估计值;其中车辆运动学航迹推测算法公式如下所示:
dst=vt-1·dt (8)
δft=αt·η (10)
其中,表示车辆坐标系下前一采样时刻t-1车辆位置的横坐标估计值,/>表示车辆坐标系下前一采样时刻t-1车辆位置的纵坐标估计值,/>表示前一采样时刻t-1车辆位置的航向角估计值,dst表示从前一采样时刻t-1到当前采样时刻t车辆行驶的距离,dθt表示当前采样时刻t相对于前一采样时刻t-1车辆位置的航向角变化量,vt-1为前一采样时刻t-1车辆的车速,dt为整车CAN解析模块的采样周期,L为车辆轴距,δft为当前采样时刻t车辆前轮转角,η为车辆的角传动比,“·”为乘运算符号,当t=1时,/> vt-1=0,sin表示正弦函数,cos表示余弦函数,tan表示正切函数。
3.4通过无迹卡尔曼滤波算法对当前采样时刻t的数据:车速vt、方向盘转角αt、
nnxt、nnyt和nnθt进行数据融合,得到车辆当前采样时刻t的位置,具体过程如下:
a.采用和/>构建当前采样时刻t的状态向量,将该状态向量记为At,采用以下公式对At进行初始化赋值:
其中,在t=1时的初始时刻,
b.采用vt-1和δft构建当前采样时刻t的控制输入向量,将该控制输入向量记为Bt:
其中,vt-1=0;
c.生成7个当前采样时刻t的无迹卡尔曼滤波的sigma点向量,将当前采样时刻t的无迹卡尔曼滤波的第i个sigma点向量记为采用公式(13)计算得到
式(13)中,Ct表示当前采样时刻t的参考矩阵,[Ct]i表示选取参考矩阵Ct的第i列,[Ct]i-3表示选取参考矩阵Ct的第i-3列,Ct采用公式(14)计算得到:
式(14)中,λ=3α2-3,α=0.1,P为当前采样时刻t状态传播前的协方差矩阵,其取值为当前最新值,当t=1时,即初始时刻,P初始化为维度为3×3的单位矩阵,即:
d.将当前采样时刻t的无迹卡尔曼滤波的第i个sigma点向量的均值权重记为协方差权重记为/>分别采用公式(16)和公式(17)生成当前采样时刻t的无迹卡尔曼滤波的每个sigma点向量的均值权重和协方差权重:
式(17)中,β=2;
e.通过带噪声的车辆运动学状态传播方程对sigma点进行状态传播,将当前采样时刻t的无迹卡尔曼滤波的第i个sigma点向量进行状态传播后得到的向量记为Fi t,Fi t采用式(18)表示为:
其中,表示/>第1行的元素,/>表示/>第2行的元素,/>表示/>第3行的元素,N(·)为高斯白噪声生成函数,N(0,Q)表示当前采用时刻t采用高斯白噪声生成函数生成的维度为3×1的高斯白噪声向量,其中,0为高斯白噪声生成函数的均值,Q为高斯白噪声生成函数的状态传播过程协方差矩阵,状态传播过程协方差矩阵Q采用随机函数生成,生成后即为固定值,其维度为3×3;
f.对状态向量At进行无迹变换,得到状态向量At的预测值以及协方差矩阵,将状态向量At的预测值记为状态向量At的协方差矩阵记为/> 采用式(19)表示为:
采用式(20)表示为:
式(20)中,上标T表示矩阵的转置;
g.建立当前采样时刻t的观测模型,将该观测模型记为zt,zt采用式(21)表示为:
式(21)中,N(·)为高斯白噪声生成函数,N(0,R)表示采用高斯白噪声生成函数生成的高斯白噪声向量,N(0,R)的维度为3×1,其中,0为高斯白噪声生成函数的均值,R为观测协方差矩阵,观测协方差矩阵R的维度为3×3,观测协方差矩阵R为固定值,取值为:
h.构建当前采样时刻t的观测矩阵Ht,采用观测矩阵Ht对Fi t进行观测变换,得到观测变换后的sigma点向量Ht和/>分别采用式(23)和式(14)表示为:/>
j.对进行无迹变换,得到观测变换后的sigma点的均值/>及协方差矩阵/> 和/>分别采用式(25)和式(26)表示为:
k.将当前采样时刻t的观测模型的观测残差记为yt,yt采用式(27)表示为:
l.将当前采样时刻t的卡尔曼增益记为Kt,采用式(28)计算得到Kt:
m.采用式(29)和(30)分别对状态向量At和状态协方差矩阵P进行更新:
n、将(xt',yt')作为当前采样时刻t车辆最终位置坐标,将θt'作为当前时刻t车辆最终航向角,采用当前时刻t车辆最终位置坐标(xt',yt')和当前采样时刻t车辆最终航向角θt'构成当前采样时刻t车辆最终的位置,实现当前采样时刻t车辆的定位;
(4)采用t的当前值加1的值更新t,返回步骤(3)进行下一时刻的车辆定位。
Claims (1)
1.一种基于神经网络预学习和轮式里程计融合的定位方法,其特征在于包括以下步骤:
(1)获取一个标准的由输入层、激活层和全连接层构成的神经网络模型,其中激活层采用RELU激活函数实现,将该神经网络模型记为Mtrain,将全连接层的连接权重记为W,对该神经网络模型Mtrain进行训练确定全连接层的连接权重W,具体训练过程为:
A.通过差分GPS模块采集车辆移动过程中某个时刻所处位置的GPS经纬度数据后经过坐标变换,得到该时刻车辆坐标系下的车辆位置坐标和航向角,通过车辆CAN报文解析模块同步获取该时刻的车速和方向盘转角;将该时刻作为第1个时刻,采集连续的U个时刻车辆所处位置的GPS经纬度数据、车速和方向盘转角,U的取值为大于等于10000整数,将U个时刻车辆所处位置的GPS经纬度数据分别转换为车辆位置坐标和航向角,采用每个时刻的车速、方向盘转角、车辆位置坐标和航向角构成该时刻的数据组,得到U个数据组,将U个数据组中,第δ次得到的数据组中车辆坐标系下的车辆位置坐标记为(xgps-δ,ygps-δ),航向角记为θgps-δ,速度记为vδ,方向盘转角记为αδ,δ=1,2,…,U,其中xgps-δ表示第δ次得到的车辆坐标系下的车辆位置的横坐标,ygps-δ表示第δ次得到的车辆坐标系下的车辆位置的纵坐标;
B.将第δ次得到的车辆坐标系下的车辆位置的横坐标的变化量记为△xgps-δ,车辆位置的纵坐标的变化量记为△ygps-δ,航向角的变化量记为△θgps-δ,△xgps-δ、△ygps-δ和△ygps-δ分别采用式(1)、式(2)和式(3)表示为:
△xgps-δ=xgps-δ-xgps-(δ-1) (1)
△ygps-δ=ygps-δ-ygps-(δ-1) (2)
△θgps-δ=θgps-δ-θgps-(δ-1) (3)
其中,△xgps-0=0,△ygps-0=0,△θgps-0=0;
C.采用获取的αδ、vδ以及车辆CAN报文解析模块采样周期△t构建输入训练数据向量,将构建的输入训练数据向量记为dataLδ,dataLδ采用式(4)表示为:
采用△xgps-δ、△ygps-δ和△θgps-δ构建输入训练数据向量dataLδ对应的输出训练数据向量,将输出训练数据向量记为labelLδ,labelLδ采用式(5)表示为:
由此得到U组训练数据向量对(dataL1,labelL1)~(dataLU,labelLU);
D.采用U组训练数据向量对(dataL1,labelL1)~(dataLU,labelLU)对神经网络模型Mtrain进行训练,得到全连接层的连接权重W,将得到全连接层的连接权重W代入神经网络模型Mtrain中,得到训练后的神经网络模型Mtrain;
(2)设定当前采样时刻变量t;对t进行初始化赋值,令t=1;
(3)对当前采样时刻t车辆的位置进行确定,具体过程为:
3.1通过车辆CAN报文解析模块获取当前采样时刻t的车速vt和方向盘转角αt;
3.2将车辆坐标系下,当前采样时刻t车辆位置的预测坐标记为(nnxt,nnyt),车辆位置的航向角预测值记为nnθt,其中nnxt为当前采样时刻t车辆位置的横坐标预测值,nnyt为当前采样时刻t车辆位置的纵坐标预测值,按照以下方法确定nnxt、nnyt和nnθt:
3.2.1采用当前采样时刻t车速数据vt、方向盘转角数据αt和△t构建三维向量,该三维向量表示为将三维向量/>作为训练后的神经网络模型Mtrain的输入向量数据进行神经网络推理后得到输出向量数据,将该输出向量数据记为/>其中,△xt表示车辆位置的横坐标预测值在当前采样时刻t相对于前一采样时刻t-1的变化量,△yt表示车辆位置的纵坐标预测值在当前采样时刻t相对于前一采样时刻t-1的变化量,△θt表示车辆位置的航向角预测值在当前采样时刻t相对于前一采样时刻t-1的变化量;
3.2.2采用公式(6)分别计算得到nnxt、nnyt和nnθt:
式(6)中,nnxt-1表示前一采样时刻t-1车辆位置的横坐标预测值,nnyt-1表示前一采样时刻t-1车辆位置的纵坐标预测值,nnθt-1表示前一采样时刻t-1车辆位置的航向角预测值,在t=1时的初始采样时刻,nnx0=0,nny0=,0,nnθ0=0;
3.3通过车辆运动学航迹推测算法得到车辆运动学生成的运动轨迹,即当前采样时刻t车辆位置的估计坐标和航向角估计值/> 表示当前采样时刻t车辆坐标系下的车辆位置的横坐标估计值,/>表示当前采样时刻t车辆坐标系下的车辆位置的纵坐标估计值;其中车辆运动学航迹推测算法公式如下所示:
dst=vt-1·dt (8)
δft=αt·η (10)
其中,表示车辆坐标系下前一采样时刻t-1车辆位置的横坐标估计值,/>表示车辆坐标系下前一采样时刻t-1车辆位置的纵坐标估计值,/>表示前一采样时刻t-1车辆位置的航向角估计值,dst表示从前一采样时刻t-1到当前采样时刻t车辆行驶的距离,dθt表示当前采样时刻t相对于前一采样时刻t-1车辆位置的航向角变化量,vt-1为前一采样时刻t-1车辆的车速,dt为整车CAN解析模块的采样周期,L为车辆轴距,δft为当前采样时刻t车辆前轮转角,η为车辆的角传动比,“·”为乘运算符号,当t=1时,/> vt-1=0,sin表示正弦函数,cos表示余弦函数,tan表示正切函数;
3.4通过无迹卡尔曼滤波算法对当前采样时刻t的数据:车速vt、方向盘转角αt、nnxt、nnyt和nnθt进行数据融合,得到车辆当前采样时刻t的位置,具体过程如下:
a.采用和/>构建当前采样时刻t的状态向量,将该状态向量记为At,采用以下公式对At进行初始化赋值:
其中,在t=1时的初始时刻,
b.采用vt-1和δft构建当前采样时刻t的控制输入向量,将该控制输入向量记为Bt:
其中,vt-1=0;
c.生成7个当前采样时刻t的无迹卡尔曼滤波的sigma点向量,将当前采样时刻t的无迹卡尔曼滤波的第i个sigma点向量记为采用公式(13)计算得到/>
式(13)中,Ct表示当前采样时刻t的参考矩阵,[Ct]i表示选取参考矩阵Ct的第i列,[Ct]i-3表示选取参考矩阵Ct的第i-3列,Ct采用公式(14)计算得到:
式(14)中,λ=3α2-3,α=0.1,P为当前采样时刻t状态传播前的协方差矩阵,其取值为当前最新值,当t=1时,即初始时刻,P初始化为维度为3×3的单位矩阵,即:
d.将当前采样时刻t的无迹卡尔曼滤波的第i个sigma点向量的均值权重记为/>协方差权重记为/>分别采用公式(16)和公式(17)生成当前采样时刻t的无迹卡尔曼滤波的每个sigma点向量的均值权重和协方差权重:
式(17)中,β=2;
e.通过带噪声的车辆运动学状态传播方程对sigma点进行状态传播,将当前采样时刻t的无迹卡尔曼滤波的第i个sigma点向量进行状态传播后得到的向量记为Fi t,Fi t采用式(18)表示为:
其中,表示/>第1行的元素,/>表示/>第2行的元素,/>表示/>第3行的元素,N(·)为高斯白噪声生成函数,N(0,Q)表示当前采用时刻t采用高斯白噪声生成函数生成的维度为3×1的高斯白噪声向量,其中,0为高斯白噪声生成函数的均值,Q为高斯白噪声生成函数的状态传播过程协方差矩阵,状态传播过程协方差矩阵Q采用随机函数生成,生成后为固定值,其维度为3×3;
f.对状态向量At进行无迹变换,得到状态向量At的预测值以及协方差矩阵,将状态向量At的预测值记为状态向量At的协方差矩阵记为/> 采用式(19)表示为:
采用式(20)表示为:
式(20)中,上标T表示矩阵的转置;
g.建立当前采样时刻t的观测模型,将该观测模型记为zt,zt采用式(21)表示为:
式(21)中,N(·)为高斯白噪声生成函数,N(0,R)表示采用高斯白噪声生成函数生成的高斯白噪声向量,N(0,R)的维度为3×1,其中,0为高斯白噪声生成函数的均值,R为观测协方差矩阵,观测协方差矩阵R的维度为3×3,观测协方差矩阵R为固定值,取值为:
h.构建当前采样时刻t的观测矩阵Ht,采用观测矩阵Ht对Fi t进行观测变换,得到观测变换后的sigma点向量Ht和/>分别采用式(23)和式(14)表示为:
j.对进行无迹变换,得到观测变换后的sigma点的均值/>及协方差矩阵/> 和分别采用式(25)和式(26)表示为:
k.将当前采样时刻t的观测模型的观测残差记为yt,yt采用式(27)表示为:
l.将当前采样时刻t的卡尔曼增益记为Kt,采用式(28)计算得到Kt:
m.采用式(29)和(30)分别对状态向量At和状态协方差矩阵P进行更新:
n、将(x′t,y′t)作为当前采样时刻t车辆最终位置坐标,将θ′t作为当前时刻t车辆最终航向角,采用当前时刻t车辆最终位置坐标(x′t,y′t)和当前采样时刻t车辆最终航向角θ′t构成当前采样时刻t车辆最终的位置,实现当前采样时刻t车辆的定位;
(4)采用t的当前值加1的值更新t,返回步骤(3)进行下一时刻的车辆定位。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910993970.9A CN110865403B (zh) | 2019-10-18 | 2019-10-18 | 一种基于神经网络预学习和轮式里程计融合的定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910993970.9A CN110865403B (zh) | 2019-10-18 | 2019-10-18 | 一种基于神经网络预学习和轮式里程计融合的定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110865403A CN110865403A (zh) | 2020-03-06 |
CN110865403B true CN110865403B (zh) | 2024-03-05 |
Family
ID=69652310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910993970.9A Active CN110865403B (zh) | 2019-10-18 | 2019-10-18 | 一种基于神经网络预学习和轮式里程计融合的定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110865403B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114322978B (zh) * | 2020-10-10 | 2024-03-15 | 广州汽车集团股份有限公司 | 一种车辆定位方法、计算机设备、计算机可读存储介质 |
CN112985426B (zh) * | 2021-03-31 | 2022-09-13 | 天津大学 | 一种用于二轮车的定位方法 |
CN113483769B (zh) * | 2021-08-17 | 2024-03-29 | 清华大学 | 基于粒子滤波器的车辆自定位方法、系统、设备和介质 |
CN114093194B (zh) * | 2021-11-12 | 2023-01-24 | 湖南人文科技学院 | 一种轮胎定位的室内诱导泊车方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105700000A (zh) * | 2016-04-13 | 2016-06-22 | 武汉大学 | 一种北斗导航接收机实时动态精密定位方法 |
DE102015210881A1 (de) * | 2015-06-15 | 2016-12-15 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zur Bestimmung von Position und/oder Orientierung eines Fahrzeugs |
CN108648216A (zh) * | 2018-04-19 | 2018-10-12 | 长沙学院 | 一种基于光流与深度学习的视觉里程计实现方法和系统 |
CN109459040A (zh) * | 2019-01-14 | 2019-03-12 | 哈尔滨工程大学 | 基于rbf神经网络辅助容积卡尔曼滤波的多auv协同定位方法 |
CN109521454A (zh) * | 2018-12-06 | 2019-03-26 | 中北大学 | 一种基于自学习容积卡尔曼滤波的gps/ins组合导航方法 |
CN109934868A (zh) * | 2019-03-18 | 2019-06-25 | 北京理工大学 | 一种基于三维点云与卫星图匹配的车辆定位方法 |
CN109946727A (zh) * | 2019-03-21 | 2019-06-28 | 武汉大学 | 一种低轨导航星座增强的网络rtk方法 |
CN110174104A (zh) * | 2019-05-30 | 2019-08-27 | 北京邮电大学 | 一种组合导航方法、装置、电子设备及可读存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11688160B2 (en) * | 2018-01-17 | 2023-06-27 | Huawei Technologies Co., Ltd. | Method of generating training data for training a neural network, method of training a neural network and using neural network for autonomous operations |
-
2019
- 2019-10-18 CN CN201910993970.9A patent/CN110865403B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015210881A1 (de) * | 2015-06-15 | 2016-12-15 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zur Bestimmung von Position und/oder Orientierung eines Fahrzeugs |
CN105700000A (zh) * | 2016-04-13 | 2016-06-22 | 武汉大学 | 一种北斗导航接收机实时动态精密定位方法 |
CN108648216A (zh) * | 2018-04-19 | 2018-10-12 | 长沙学院 | 一种基于光流与深度学习的视觉里程计实现方法和系统 |
CN109521454A (zh) * | 2018-12-06 | 2019-03-26 | 中北大学 | 一种基于自学习容积卡尔曼滤波的gps/ins组合导航方法 |
CN109459040A (zh) * | 2019-01-14 | 2019-03-12 | 哈尔滨工程大学 | 基于rbf神经网络辅助容积卡尔曼滤波的多auv协同定位方法 |
CN109934868A (zh) * | 2019-03-18 | 2019-06-25 | 北京理工大学 | 一种基于三维点云与卫星图匹配的车辆定位方法 |
CN109946727A (zh) * | 2019-03-21 | 2019-06-28 | 武汉大学 | 一种低轨导航星座增强的网络rtk方法 |
CN110174104A (zh) * | 2019-05-30 | 2019-08-27 | 北京邮电大学 | 一种组合导航方法、装置、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110865403A (zh) | 2020-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110865403B (zh) | 一种基于神经网络预学习和轮式里程计融合的定位方法 | |
CN106840179B (zh) | 一种基于多传感器信息融合的智能车定位方法 | |
CN109459040B (zh) | 基于rbf神经网络辅助容积卡尔曼滤波的多auv协同定位方法 | |
CN104061899B (zh) | 一种基于卡尔曼滤波的车辆侧倾角与俯仰角估计方法 | |
CN108362288B (zh) | 一种基于无迹卡尔曼滤波的偏振光slam方法 | |
CN108387236B (zh) | 一种基于扩展卡尔曼滤波的偏振光slam方法 | |
Hasberg et al. | Simultaneous localization and mapping for path-constrained motion | |
Mu et al. | End-to-end navigation for autonomous underwater vehicle with hybrid recurrent neural networks | |
CN104180818A (zh) | 一种单目视觉里程计算装置 | |
CN110850455B (zh) | 一种基于差分gps和车辆运动学模型的轨迹录制方法 | |
Zhang et al. | Learning visual semantic map-matching for loosely multi-sensor fusion localization of autonomous vehicles | |
CN103776453A (zh) | 一种多模型水下航行器组合导航滤波方法 | |
CN101846734A (zh) | 农用机械导航定位方法、系统及农用机械工控机 | |
CN112631305B (zh) | 一种多无人船编队防碰撞抗干扰控制系统 | |
CN110542429A (zh) | 一种全向移动机器人误差补偿方法 | |
CN109739088B (zh) | 一种无人船有限时间收敛状态观测器及其设计方法 | |
CN113189613B (zh) | 一种基于粒子滤波的机器人定位方法 | |
CN110906933A (zh) | 一种基于深度神经网络的auv辅助导航方法 | |
CN111189454A (zh) | 基于秩卡尔曼滤波的无人车slam导航方法 | |
CN112572436A (zh) | 一种车辆跟车控制方法及系统 | |
CN111025229B (zh) | 一种水下机器人纯方位目标估计方法 | |
Escoriza et al. | Data-driven Kalman-based velocity estimation for autonomous racing | |
CN109387198A (zh) | 一种基于序贯检测的惯性/视觉里程计组合导航方法 | |
Zhang et al. | Learning end-to-end inertial-wheel odometry for vehicle ego-motion estimation | |
CN105513091A (zh) | 一种基于双贝叶斯估计的水下运动体运动状态估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230905 Address after: 315191 East 1st Road, Science Park, Jiangshan Town, Yinzhou District, Ningbo City, Zhejiang Province Applicant after: Shangyuan Zhixing (Ningbo) Technology Co.,Ltd. Address before: 315191 East 1st Road, Science Park, Jiangshan Town, Yinzhou District, Ningbo City, Zhejiang Province Applicant before: Zhejiang tianshangyuan Technology Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |