CN112925000A - 基于可见光通信和惯性导航的隧道环境下车辆定位方法 - Google Patents
基于可见光通信和惯性导航的隧道环境下车辆定位方法 Download PDFInfo
- Publication number
- CN112925000A CN112925000A CN202110097829.8A CN202110097829A CN112925000A CN 112925000 A CN112925000 A CN 112925000A CN 202110097829 A CN202110097829 A CN 202110097829A CN 112925000 A CN112925000 A CN 112925000A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- led lamp
- visible light
- coordinate system
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/49—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B10/00—Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
- H04B10/11—Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
- H04B10/114—Indoor or close-range type systems
- H04B10/116—Visible light communication
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种基于可见光通信和惯性导航的隧道环境下车辆定位方法,通过VLC技术解决GPS因信号遮挡而无法在隧道环境下实现连续可靠定位的问题。通过在隧道顶端布置LED灯具,将车载的光电探测器接收LED灯具发射的入射信号强度与信号到达时间作为径向基神经网络的输入信号来准确估计出LED灯具与车辆的距离,并结合车载惯性传感器的观测信息,通过因子图算法来实时准确地估计出车辆的位置信息。具有成本低、精度高、实时性好的优点。
Description
技术领域
本发明属于组合导航与信息融合领域,具体涉及一种基于可见光通信与惯性导航的车辆隧道环境下定位方法。
背景技术
随着经济社会的快速发展,汽车的保有量也在迅速增长,汽车在方便人类生活的同时也给城市交通带来了巨大的压力。为解决此类问题,发展智能交通系统已在全世界范围内得到了高度重视。而对于大部分智能交通系统来说,获取一个精确、稳定和连续的车辆位置信息是其功能发挥的前提。
目前,车辆导航定位领域中应用最多的是GPS(GlobalPositioningSystem,全球定位系统)技术。在无遮挡环境下,GPS能为车辆实时全天候地提供三维位置、速度、方位等信息,因而得到了广泛的应用。但随着立体交通的飞速发展,越来越多的地下隧道投入使用,在密闭的隧道环境中,由于非视距与多径效应的影响,GPS存在长期失效的缺陷,尤其在离隧道内往往会导致几分钟甚至十几分钟的失效,无法实现连续可靠的定位。
针对GPS定位技术的不足,国内外许多学者针对多传感器融合的车辆组合导航定位技术进行了深入的研究。GPS/INS(Inertial Navigation System,惯性导航)与GPS/DR(Deadreckoning,航位推算)的组合是应用最为广泛的车载定位技术,在GPS失效时利用单一INS或DR对车辆进行定位。INS和DR通过解算车辆的位置、速度和姿态信息得到近似连续的定位信息,自主性强且不受外界干扰,但是定位误差会随着工作时间和距离而累积,在长距离隧道内定位误差会显著增大。
近年来,随着无线定位技术的快速发展,UWB、RFID、WLAN、蓝牙等设备都已应用于室内定位场景中,相关的定位算法和定位技术都已得到了较大进展。但是该类技术的应用需在相应环境中额外布置大量的基站等定位设备,成本较高,难以大范围推广。而随着可见光通信(Visible Light Communication,VLC)技术的发展,有学者提出了基于可见光通信技术的定位方法,该定位方法利用半导体发光二极管发射的可见光作为定位信号来实现定位,但多用于室内环境中,仅有少量应用于隧道等交通环境中但均未考虑可见光信号因多径效应造成的测距误差。基于LED可见光通信技术的方法兼具了定位和照明的功能,无需额外搭建复杂的通讯设备,具有能耗低、可靠性好等多重优点。现有的基于可见光通信的算法中采用最多的是基于入射信号强度(ReceivedSignal Strength,RSS)与信号达到时间(Time of Arrival,TOA)的方法。入射信号强度法由光电探测器根据接收到的RSS计算出距离,该方法成本较低、受多径效应影响较小,但往往需要建立精确的数学模型。信号到达时间法通过测量LED灯具与光电探测器间可见光信号的传播时间来测距,算法简单高效,但易受多径效应影响。
针对上述隧道环境下车辆定位问题的不足之处,本发明提出了一种精度更高、可靠性更好的隧道环境下车辆定位方法。
发明内容
为弥补在隧道环境下GPS因卫星信号受遮挡而无法实现对车辆位置的准确可靠定位的问题,本发明提出了一种基于径向基函数神经网络与因子图相结合的车辆定位方法。本方法在GPS信号受到遮挡而无法实现连续可靠定位的隧道环境内,通过在隧道顶端布置LED灯具,将车载的光电探测器接收LED灯具的可见光信号强度RSS与信号到达时间TOA作为输入量,采用径向基函数神经网络算法来准确估计出光电探测器与LED灯具之间的距离,有效克服了隧道环境下可见光信号易受多径效应影响以及难以建立精确的数学模型来估计距离信息的不足。并结合车载低成本惯性测量单元(InertialMeasurement Unit,IMU)输出的车辆运动信息作为观测量;进而采用因子图作为定位算法,充分利用LED灯具与IMU的历史观测信息,并实现车辆在隧道环境下行驶时LED灯具的“即插即用”,具有输出频率高、精度好、成本低等显著优点。具体步骤如下:
步骤1:布置光电探测器与LED灯具
对于通常的隧道环境,隧道空间可以看成是长宽一定的大范围室内空间。本发明在隧道顶端无遮挡区域每隔5-10m等间距的布置LED灯具,各LED灯发射可见光信号,信号的发射范围为半径为R的球体。以正东方向为OX,正北方向为OY,地球表面一个固定点为原点建立坐标系。各LED灯具在坐标系下的位置可通过提前标定获取。将光电探测器安装在行驶车辆的顶端,由于光电探测器已经事先安装在车顶且高度值已知,故可将光电探测器和LED灯具近似看成处于同一平面上。
步骤2:获取所需定位信息
根据步骤1中的布局,对于每个时间序列k(k=1,2,3...),光电探测器均能稳定地接收到距离其最近的s个LED灯具发射的可见光信号。为保证定位精度,本发明中取s≥4。光电探测器所能接收到的信息包括LED灯具发出的可见光入射信号强度RSSi(k)(i=1,2,…,s)、可见光信号从发送至接收所花的时间TOAi(k)(i=1,2,…,s)、LED灯具的ID号l1,l2,...,ls、LED灯具在地理坐标系下的坐标值(Xi(k),Yi(k))(i=1,2,…,s)。
步骤3:基于径向基函数神经网络(RadicalBasisFunction,RBF)的距离估计
本发明通过建立一个RBF神经网络来确定光电探测器与LED灯具之间的距离,通过将LED灯具i(i=1,2,…,s)在k时刻发出的LED可见光的入射信号强度RSSi(k)和可见光信号在LED灯具与光电探测器之间的到达时间TOAi(k)作为RBF神经网络的输入量,输出量为k时刻LED灯具i与光电探测器之间的距离。为了确保训练的RBF神经网络模型的准确性和有效性,训练数据均通过实验采集自不同环境,且训练与实际应用的光电探测器与LED灯具保持一致。利用RBF神经网络建立输入信号与距离之间的步骤如下:
其中wij,i=1,...,h;j=1,...,N为隐含层和输出层之间的神经元连接权值,h为隐含层神经元个数;为第i个隐含层的径向基函数;xp,p=1,2,为神经网络的两个输入信号;ci为第i个基函数的中心点。常用的径向基函数有高斯函数、多二次函数、薄板样条函数等,本发明中的径向基函数采用高斯函数,即:
训练一个RBF神经网络需让映射函数经过学习从而确定基函数的中心ci,宽度σ和权值wij,完成从输入到输出的映射。RBF中心的选取对神经网络的学习有重要影响,所以大部分学习算法都是针对中心进行选择的。本发明采用最常见的有监督学习的方法选取RBF中心,定义目标函数为:
其中ej为误差信号,由下式定义:
输出层线性权wi:
隐含层RBF中心ti:
隐含层RBF网络的扩展R-1:
Qji=[xj-ti(n)][xj-ti(n)]' (10)
步骤4:构建组合导航系统的因子图模型
假设S表示车辆的导航状态,包括位置p、速度v和姿态ψ信息;C表示IMU的校正参数,包括加速度计和陀螺仪的零偏。定义车辆进入隧道为初始时刻,则初始时刻到当前时刻tk的全部导航状态和校正参数为:
Λk为到当前时刻tk的所有变量组:Λk={Xk,Ck},则联合概率分布函数可表示为:
p(Λk|Zk) (13)
其中Zk为初始时刻到当前时刻tk接收到的所有观测值。
则待估计参数的最大后验估计可表示为:
联合概率分布式(11)可以因式分解为一个先验信息和独立过程及测量模型:
上式中P(Λ0)表示所有可用的先验信息;表示Λi中与测量模型相关的变量;表示IMU的测量值,包含比力和角速率;表示IMU的后验概率密度;P(ci|ci-1)表示零偏的后验概率密度;表示非IMU测量的后验概率密度的乘积。
上述的因式分解可以表示为因子图模型,因子图是一种二分图模型,包含了因子节点fi(·)和状态节点vi∈Λk。图中的每个因子节点都可以表示为式(13)中的一个独立项,并且每个因子fi(·)表示一个应当最小化的误差函数,假设这个误差函数为则因子fi(·)可定义为:
其中d(·)表示代价函数。假设各传感器误差均服从高斯分布,则因子fi(·)满足如下形式:
式中,h(·)为非线性测量函数,zi为传感器的实际测量值。因此式(12)的最大后验估计问题就变成了最小化下列非线性最小二乘函数的问题:
子步骤1:IMU等效因子建立
由于本发明采用的IMU是三轴产品,能提供三个方向的加速度、角速度和角度的测量值,因此IMU在载体坐标系下的测量值可表示为:
RLB表示将加速度测量值由载体坐标系转换为局部坐标系的转换矩阵,RGL表示将加速度测量值由局部坐标系转换为ECEF坐标系的转换矩阵。矩阵RGL表示为:
式中θlon和θlat表示ECEF坐标系下车辆状态的经纬度。因此,IMU加速度测量误差可表示为:
式中,Δt代表相邻两个状态之间的时间间隔。同样,陀螺仪的误差函数可表示为:
IMU同时也能提供载体在局部坐标系下的方位角,误差函数可表示为:
因此,IMU因子的误差函数可表示为如下方程:
子步骤2:LED可见光等效因子建立
在离散时刻k,光电探测器能够接收到s(s≥4)个LED灯具发出的可见光信号。由步骤3可以估计出光电探测器与LED灯具间的距离r1(k),r2(k),...,rs(k),则可见光等效因子可表示为:
其中ri(k)为k时刻LSSVM输出的第i个(i=1,2,…,s)LED灯具与光电探测器之间的距离;(Xi,Yi)为已知的第i个LED灯具的坐标;(pe(k),pn(k))为待估计的车辆二维坐标;为观测噪声向量。
建立好的因子图模型,通过最小化各等效因子,即可求出每一时刻的车辆位置,实现隧道环境下车辆的实时定位。
本发明的显著效果是:
(1)本发明提出了一种径向基神经网络与因子图相结合的车辆定位方法,将可见光通信技术与车辆自身惯性传感器相结合,应用于隧道环境下的车辆的定位,具有精度高、成本低和可靠性好等优点;
(2)本发明采用径向基神经网络来进行测距方法,将LED灯具的信号强度与到达时间作为网络的输入量,有效克服了单一输入量数学模型复杂、易受多径效应影响等的缺点,运算复杂性低,测距精度高;
(3)本发明的定位方法采用因子图算法,能够充分利用历史观测信息,有效解决室内定位中常用的多点定位方法误差较大的不足,并实现车辆在隧道环境下行驶时LED灯具的“即插即用”。
附图说明
图1是本发明的技术路线图;
图2是LED灯具与光电探测器的布局;
图3是可见光通信与惯性传感器的因子图融合模型。
具体实施方式
随着经济社会的快速发展,汽车的保有量也在迅速增长,汽车在方便人类生活的同时也给城市交通带来了巨大的压力。为解决此类问题,发展智能交通系统已在全世界范围内得到了高度重视。而对于大部分智能交通系统来说,获取一个精确、稳定和连续的车辆位置信息是其功能发挥的前提。
目前,车辆导航定位领域中应用最多的是GPS(GlobalPositioningSystem,全球定位系统)技术。在无遮挡环境下,GPS能为车辆实时全天候地提供三维位置、速度、方位等信息,因而得到了广泛的应用。但随着立体交通的飞速发展,越来越多的地下隧道投入使用,在密闭的隧道环境中,由于非视距与多径效应的影响,GPS存在长期失效的缺陷,尤其在离隧道内往往会导致几分钟甚至十几分钟的失效,无法实现连续可靠的定位。
针对GPS定位技术的不足,国内外许多学者针对多传感器融合的车辆组合导航定位技术进行了深入的研究。GPS/INS(Inertial Navigation System,惯性导航)与GPS/DR(Deadreckoning,航位推算)的组合是应用最为广泛的车载定位技术,在GPS失效时利用单一INS或DR对车辆进行定位。INS和DR通过解算车辆的位置、速度和姿态信息得到近似连续的定位信息,自主性强且不受外界干扰,但是定位误差会随着工作时间和距离而累积,在长距离隧道内定位误差会显著增大。
近年来,随着无线定位技术的快速发展,UWB、RFID、WLAN、蓝牙等设备都已应用于室内定位场景中,相关的定位算法和定位技术都已得到了较大进展。但是该类技术的应用需在相应环境中额外布置大量的基站等定位设备,成本较高,难以大范围推广。而随着可见光通信(Visible Light Communication,VLC)技术的发展,有学者提出了基于可见光通信技术的定位方法,该定位方法利用半导体发光二极管发射的可见光作为定位信号来实现定位,但多用于室内环境中,仅有少量应用于隧道等交通环境中但均未考虑可见光信号因多径效应造成的测距误差。基于LED可见光通信技术的方法兼具了定位和照明的功能,无需额外搭建复杂的通讯设备,具有能耗低、可靠性好等多重优点。现有的基于可见光通信的算法中采用最多的是基于入射信号强度(ReceivedSignal Strength,RSS)与信号达到时间(Time of Arrival,TOA)的方法。入射信号强度法由光电探测器根据接收到的RSS计算出距离,该方法成本较低、受多径效应影响较小,但往往需要建立精确的数学模型。信号到达时间法通过测量LED灯具与光电探测器间可见光信号的传播时间来测距,算法简单高效,但往往易受多径效应影响。
为弥补在隧道环境下GPS因卫星信号受遮挡而无法实现对车辆位置的准确可靠定位的问题,本发明提出了一种基于径向基函数神经网络与因子图相结合的车辆定位方法。本方法利用LED灯具的可见光信号强度RSS与信号到达时间TOA作为输入量,采用径向基函数神经网络来准确估计出光电探测器与LED灯具之间的距离,有效克服了隧道环境下可见光信号易受多径效应影响以及难以建立精确的数学模型来估计距离信息的不足。并结合车载低成本惯性测量单元(InertialMeasurement Unit,IMU)输出的车辆运动信息作为观测量;进而采用因子图作为定位算法,充分利用LED灯具与IMU的历史观测信息,并实现车辆在隧道环境下行驶时LED灯具的“即插即用”,具有输出频率高、精度好、成本低等显著优点。
步骤一:光电探测器与LED灯具的布置
对于通常的隧道环境,隧道空间可以看成是长宽一定的大范围室内空间。本发明采用如图2所示的布局方案,考虑到LED灯具的信号发射范围以及硬件成本,在隧道顶端无遮挡区域每隔5-10m等间距的布置LED灯具,各LED灯发射可见光信号,信号的发射范围为半径为R的球体。以正东方向为OX,正北方向为OY,地球表面一个固定点为原点建立坐标系。各LED灯具在坐标系下的位置可通过提前标定获取。将光电探测器安装在行驶车辆的顶端,当车辆行驶至LED灯具探照范围时,光电探测器将接收LED灯具的位置坐标及发射信号强度。由于光电探测器已经事先安装在车顶且高度值已知,故可将光电探测器和LED灯具近似看成处于同一平面上。
步骤二:获取定位所需信息
根据步骤一中的布局,对于每个时间序列k(k=1,2,3...),光电探测器均能稳定地接收到距离其最近的s个LED灯具发射的可见光信号,为保证定位精度,本发明中取s≥4。,光电探测器所能接收到的信息包括LED灯具发出的可见光入射信号强度RSSi(k)(i=1,2,…,s)、可见光信号从发送至接收所花的时间TOAi(k)(i=1,2,…,s)、LED灯具的ID号l1,l2,...,ls、LED灯具在地理坐标系下的坐标值(Xi(k),Yi(k))(i=1,2,…,s)。
步骤三:基于径向基函数神经网络(RadicalBasisFunction,RBF)的距离估计
本发明通过径向基函数(RadicalBasisFunction)神经网络算法来估计光电探测器与LED灯具i(i=1,2,…,s)之间的距离。目前在非线性动态系统中最常用的神经网络为多层BP神经网络和RBF神经网络。BP神经网络具有较强的容错能力和泛化能力,但在函数逼近方面存在收敛速度慢、易陷入局部最小点的缺点。因此在使用BP神经网络进行大容量训练样本建模问题时,容易导致训练时间过长。针对该问题,Mody和Darken提出了一种新颖的神经网络——径向基函数神经网络,该网络具有收敛速度快、拓扑结构简单、泛化能力强的优点,且对非线性连续函数具有一致的逼近性能。
RBF神经网络能通过离线训练不同环境下采集的大量实验数据来对非线性连续函数进行拟合。本发明通过建立一个RBF神经网络来确定光电探测器与LED灯具之间的距离,通过将LED灯具i(i=1,2,…,s)在k时刻发出的LED可见光的入射信号强度RSSi(k)和可见光信号在LED灯具与光电探测器之间的到达时间TOAi(k)作为RBF神经网络的输入量,输出量为k时刻LED灯具i与光电探测器之间的距离。为了确保训练的RBF神经网络模型的准确性和有效性,训练数据均通过实验采集自不同环境,且训练与实际应用的光电探测器与LED灯具保持一致。利用RBF神经网络建立输入信号与距离之间的步骤如下:
其中wij,i=1,...,h;j=1,...,N为隐含层和输出层之间的神经元连接权值,h为隐含层神经元个数;为第i个隐含层的径向基函数;xp,p=1,2,为神经网络的两个输入信号;ci为第i个基函数的中心点。常用的径向基函数有高斯函数、多二次函数、薄板样条函数等,本发明中的径向基函数采用高斯函数,即:
训练一个RBF神经网络需让映射函数经过学习从而确定基函数的中心ci,宽度σ和权值wij,完成从输入到输出的映射。RBF中心的选取对神经网络的学习有重要影响,所以大部分学习算法都是针对中心进行选择的。本发明采用最常见的有监督学习的方法选取RBF中心,定义目标函数为:
其中ej为误差信号,由下式定义:
输出层线性权wi:
隐含层RBF中心ti:
隐含层RBF网络的扩展R-1:
Qji=[xj-ti(n)][xj-ti(n)]' (10)
步骤四:构建组合导航系统的因子图模型
因子图作为一种概率图模型,最早出现在编码领域,目前在人工智能、神经网络、机器人等领域也开始逐渐流行。因子图为导航定位领域的信息融合提供了新的思路,它可以将各传感器测量信息抽象为相应的因子节点,根据非线性优化理论对状态变量进行递推更新,实现各个传感器的非等间隔融合,满足不同类型传感器的即插即用。本发明中,假设S表示车辆的导航状态,包括位置p、速度v和姿态ψ信息;C表示IMU的校正参数,包括加速度计和陀螺仪的零偏。定义车辆进入隧道为初始时刻,则初始时刻到当前时刻tk的全部导航状态和校正参数为:
Λk为到当前时刻tk的所有变量组:Λk={Xk,Ck},则联合概率分布函数可表示为:
p(Λk|Zk) (13)
其中Zk为初始时刻到当前时刻tk接收到的所有观测值。
则待估计参数的最大后验估计可表示为:
联合概率分布式(11)可以因式分解为一个先验信息和独立过程及测量模型:
上式中P(Λ0)表示所有可用的先验信息;表示Λi中与测量模型相关的变量;表示IMU的测量值,包含比力和角速率;表示IMU的后验概率密度;P(ci|ci-1)表示零偏的后验概率密度;表示非IMU测量的后验概率密度的乘积。
上述的因式分解可以表示为因子图模型,如图所示。因子图是一种二分图模型,包含了因子节点fi(·)和状态节点vi∈Λk。图中的每个因子节点都可以表示为式(13)中的一个独立项,并且每个因子fi(·)表示一个应当最小化的误差函数,假设这个误差函数为则因子fi(·)可定义为:
其中d(·)表示代价函数。假设各传感器误差均服从高斯分布,则因子fi(·)满足如下形式:
式中,h(·)为非线性测量函数,zi为传感器的实际测量值。因此式(12)的最大后验估计问题就变成了最小化下列非线性最小二乘函数的问题:
子步骤1:IMU传感器等效因子的建立
由于本发明采用的IMU是三轴产品,能提供三个方向的加速度、角速度和角度的测量值,因此IMU在载体坐标系下的测量值可表示为:
RLB表示将加速度测量值由载体坐标系转换为局部坐标系的转换矩阵,RGL表示将加速度测量值由局部坐标系转换为ECEF坐标系的转换矩阵。矩阵RGL表示为:
式中θlon和θlat表示ECEF坐标系下车辆状态的经纬度。因此,IMU加速度测量误差可表示为:
式中,Δt代表相邻两个状态之间的时间间隔。同样,陀螺仪的误差函数可表示为:
IMU同时也能提供载体在局部坐标系下的方位角,误差函数可表示为:
因此,IMU因子的误差函数可表示为如下方程:
子步骤2:LED可见光传感器等效因子的建立
在离散时刻k,光电探测器能够接收到s(s≥4)个LED灯具发出的可见光信号。由步骤3可以估计出光电探测器与LED灯具间的距离r1(k),r2(k),...,rs(k),则可见光等效因子可表示为:
其中ri(k)为k时刻RBF输出的第i个(i=1,2,…,s)LED灯具与光电探测器之间的距离;(Xi,Yi)为已知的第i个LED灯具的坐标;(pe(k),pn(k))为待估计的车辆二维坐标;为观测噪声向量。
建立好的因子图模型如图3所示,通过最小化各等效因子,即可求出每一时刻的车辆位置,实现隧道环境下车辆的实时定位。
Claims (1)
1.一种基于可见光通信和惯性导航的隧道环境下车辆定位方法,其特征在于:在GPS信号受到遮挡而无法实现连续可靠定位的隧道环境内,通过在隧道顶端布置LED灯具,将车载的光电探测器接收LED灯具发射的入射信号强度与信号到达时间作为径向基神经网络的输入信号来准确估计出LED灯具与车辆的距离,并结合车载惯性传感器的观测信息,通过因子图算法来实时准确地估计出车辆的位置信息,具体步骤如下:
步骤一:分别在隧道环境和车顶上布置LED灯具和光电探测器
在隧道顶端无遮挡区域每隔5-10m等间距的布置LED灯具,各LED灯发射可见光信号,信号的发射范围为半径为R的球体,以正东方向为OX,正北方向为OY,地球表面一固定点为原点建立坐标系,各LED灯具在坐标系下的位置可通过提前标定获取,将光电探测器安装在行驶车辆的顶端,由于光电探测器已经事先安装在车顶且高度值已知,故可将光电探测器和LED灯具近似看成处于同一平面上;
步骤二:获取定位所需信息
根据步骤一中的布局,对于每个时间序列k,其中k=1,2,3...,光电探测器均能稳定地接收到距离其最近的s个LED灯具发射的可见光信号,为保证定位精度,取s≥4,光电探测器所能接收到的信息包括LED灯具发出的可见光入射信号强度RSSi(k),其中i=1,2,…,s;可见光信号从发送至接收所花的时间TOAi(k),其中i=1,2,…,s;LED灯具的ID号l1,l2,...,ls;LED灯具在地理坐标系下的坐标值(Xi(k),Yi(k)),其中i=1,2,…,s;
步骤三:基于径向基函数神经网络的距离估计
建立一个RBF神经网络来确定光电探测器与LED灯具之间的距离,通过将LED灯具i,其中i=1,2,…,s,在k时刻发出的LED可见光的入射信号强度RSSi(k)和可见光信号在LED灯具与光电探测器之间的到达时间TOAi(k)作为RBF神经网络的输入量,输出量为k时刻LED灯具i与光电探测器之间的距离;
利用RBF神经网络建立输入信号与距离之间的步骤如下:
对于给定的训练数据集其中m=1,2,…,N,N为样本总数,其中为输入信号强度向量,为到达时间向量,ym为输出的光电探测器与LED灯具间的距离向量;其中ym均为一维向量空间,则RBF神经网络的输出可表示为以下形式:
其中wij,i=1,...,h;j=1,...,N为隐含层和输出层之间的神经元连接权值,h为隐含层神经元个数;为第i个隐含层的径向基函数;xp,p=1,2,为神经网络的两个输入信号;ci为第i个基函数的中心点;
径向基函数采用高斯函数,即:
训练一个RBF神经网络需让映射函数经过学习从而确定基函数的中心ci,宽度σ和权值wij,完成从输入到输出的映射;
采用有监督学习的方法选取RBF中心,定义目标函数为:
其中ej为误差信号,由下式定义:
输出层线性权wi:
隐含层RBF中心ti:
隐含层RBF网络的扩展R-1:
Qji=[xj-ti(n)][xj-ti(n)]' (10)
步骤四:构建组合导航系统的因子图模型
假设S表示车辆的导航状态,包括位置p、速度v和姿态ψ信息;C表示IMU的校正参数,包括加速度计和陀螺仪的零偏;定义车辆进入隧道为初始时刻,则初始时刻到当前时刻tk的全部导航状态和校正参数为:
Λk为到当前时刻tk的所有变量组:Λk={Xk,Ck},则联合概率分布函数可表示为:
p(Λk|Zk) (13)
其中Zk为初始时刻到当前时刻tk接收到的所有观测值;
则待估计参数的最大后验估计可表示为:
联合概率分布式(11)可以因式分解为一个先验信息和独立过程及测量模型:
上式中P(Λ0)表示所有可用的先验信息;表示Λi中与测量模型相关的变量;表示IMU的测量值,包含比力和角速率;表示IMU的后验概率密度;P(ci|ci-1)表示零偏的后验概率密度;表示非IMU测量的后验概率密度的乘积;
上述的因式分解可以表示为因子图模型,因子图是一种二分图模型,包含了因子节点fi(·)和状态节点vi∈Λk;每个因子节点都可以表示为式(13)中的一个独立项,并且每个因子fi(·)表示一个应当最小化的误差函数,假设这个误差函数为则因子fi(·)可定义为:
其中d(·)表示代价函数;假设各传感器误差均服从高斯分布,则因子fi(·)满足如下形式:
式中,h(·)为非线性测量函数,zi为传感器的实际测量值;因此式(12)的最大后验估计问题就变成了最小化下列非线性最小二乘函数的问题:
子步骤1:IMU等效因子建立
由于采用的IMU是三轴产品,能提供三个方向的加速度、角速度和角度的测量值,因此IMU在载体坐标系下的测量值可表示为:
RLB表示将加速度测量值由载体坐标系转换为局部坐标系的转换矩阵,RGL表示将加速度测量值由局部坐标系转换为ECEF坐标系的转换矩阵;矩阵RGL表示为:
式中,Δt代表相邻两个状态之间的时间间隔;同样,陀螺仪的误差函数可表示为:
IMU同时也能提供载体在局部坐标系下的方位角,误差函数可表示为:
因此,IMU因子的误差函数可表示为如下方程:
子步骤2:LED可见光等效因子建立
在离散时刻k,光电探测器能够接收到s个LED灯具发出的可见光信号,其中s≥4;由步骤3可以估计出光电探测器与LED灯具间的距离r1(k),r2(k),...,rs(k),则可见光等效因子可表示为:
其中ri(k)为k时刻LSSVM输出的第i个LED灯具与光电探测器之间的距离,其中i=1,2,…,s;(Xi,Yi)为已知的第i个LED灯具的坐标;(pe(k),pn(k))为待估计的车辆二维坐标;为观测噪声向量;
建立好的因子图模型,通过最小化各等效因子,即可求出每一时刻的车辆位置,实现隧道环境下车辆的实时定位。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110097829.8A CN112925000B (zh) | 2021-01-25 | 2021-01-25 | 基于可见光通信和惯性导航的隧道环境下车辆定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110097829.8A CN112925000B (zh) | 2021-01-25 | 2021-01-25 | 基于可见光通信和惯性导航的隧道环境下车辆定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112925000A true CN112925000A (zh) | 2021-06-08 |
CN112925000B CN112925000B (zh) | 2022-05-17 |
Family
ID=76167218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110097829.8A Active CN112925000B (zh) | 2021-01-25 | 2021-01-25 | 基于可见光通信和惯性导航的隧道环境下车辆定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112925000B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114111767A (zh) * | 2021-10-28 | 2022-03-01 | 北京自动化控制设备研究所 | 基于多信息融合对线路设计线型进行优化的方法 |
CN114838732A (zh) * | 2022-05-18 | 2022-08-02 | 北京航空航天大学 | 一种基于图优化的通信受限环境下协同导航方法 |
CN117269887A (zh) * | 2023-11-21 | 2023-12-22 | 荣耀终端有限公司 | 一种定位方法、电子设备和可读存储介质 |
WO2024036607A1 (zh) * | 2022-08-19 | 2024-02-22 | 华为技术有限公司 | 定位方法、装置以及智能驾驶设备 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110075371A (ko) * | 2009-12-28 | 2011-07-06 | 전자부품연구원 | 차량용 가시광 통신장치, 가시광 통신을 이용한 터널 내 차량통신시스템 및 방법 |
US20150142311A1 (en) * | 2013-11-18 | 2015-05-21 | General Motors Llc | Vehicular GPS/DR Navigation with Environmental-Adaptive Kalman Filter Gain |
CN106845359A (zh) * | 2016-12-26 | 2017-06-13 | 四川农业大学 | 基于红外发射的隧道入口行车提示装置及方法 |
CN109641538A (zh) * | 2016-07-21 | 2019-04-16 | 国际智能技术公司 | 使用车辆创建,更新地图的系统和方法 |
CN110618434A (zh) * | 2019-10-30 | 2019-12-27 | 北京航空航天大学 | 一种基于激光雷达的隧道内定位系统及其定位方法 |
CN111174781A (zh) * | 2019-12-31 | 2020-05-19 | 同济大学 | 一种基于可穿戴设备联合目标检测的惯导定位方法 |
CN111553945A (zh) * | 2020-04-13 | 2020-08-18 | 东风柳州汽车有限公司 | 一种车辆定位方法 |
CN111751785A (zh) * | 2020-07-03 | 2020-10-09 | 南京晓庄学院 | 一种隧道环境下车辆可见光定位方法 |
CN111780755A (zh) * | 2020-06-30 | 2020-10-16 | 南京理工大学 | 一种基于因子图和可观测度分析的多源融合导航方法 |
US20200340816A1 (en) * | 2019-04-26 | 2020-10-29 | Mediatek Inc. | Hybrid positioning system with scene detection |
-
2021
- 2021-01-25 CN CN202110097829.8A patent/CN112925000B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110075371A (ko) * | 2009-12-28 | 2011-07-06 | 전자부품연구원 | 차량용 가시광 통신장치, 가시광 통신을 이용한 터널 내 차량통신시스템 및 방법 |
US20150142311A1 (en) * | 2013-11-18 | 2015-05-21 | General Motors Llc | Vehicular GPS/DR Navigation with Environmental-Adaptive Kalman Filter Gain |
CN109641538A (zh) * | 2016-07-21 | 2019-04-16 | 国际智能技术公司 | 使用车辆创建,更新地图的系统和方法 |
CN106845359A (zh) * | 2016-12-26 | 2017-06-13 | 四川农业大学 | 基于红外发射的隧道入口行车提示装置及方法 |
US20200340816A1 (en) * | 2019-04-26 | 2020-10-29 | Mediatek Inc. | Hybrid positioning system with scene detection |
CN110618434A (zh) * | 2019-10-30 | 2019-12-27 | 北京航空航天大学 | 一种基于激光雷达的隧道内定位系统及其定位方法 |
CN111174781A (zh) * | 2019-12-31 | 2020-05-19 | 同济大学 | 一种基于可穿戴设备联合目标检测的惯导定位方法 |
CN111553945A (zh) * | 2020-04-13 | 2020-08-18 | 东风柳州汽车有限公司 | 一种车辆定位方法 |
CN111780755A (zh) * | 2020-06-30 | 2020-10-16 | 南京理工大学 | 一种基于因子图和可观测度分析的多源融合导航方法 |
CN111751785A (zh) * | 2020-07-03 | 2020-10-09 | 南京晓庄学院 | 一种隧道环境下车辆可见光定位方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114111767A (zh) * | 2021-10-28 | 2022-03-01 | 北京自动化控制设备研究所 | 基于多信息融合对线路设计线型进行优化的方法 |
CN114111767B (zh) * | 2021-10-28 | 2023-11-03 | 北京自动化控制设备研究所 | 基于多信息融合对线路设计线型进行优化的方法 |
CN114838732A (zh) * | 2022-05-18 | 2022-08-02 | 北京航空航天大学 | 一种基于图优化的通信受限环境下协同导航方法 |
CN114838732B (zh) * | 2022-05-18 | 2024-04-09 | 北京航空航天大学 | 一种基于图优化的通信受限环境下协同导航方法 |
WO2024036607A1 (zh) * | 2022-08-19 | 2024-02-22 | 华为技术有限公司 | 定位方法、装置以及智能驾驶设备 |
CN117269887A (zh) * | 2023-11-21 | 2023-12-22 | 荣耀终端有限公司 | 一种定位方法、电子设备和可读存储介质 |
CN117269887B (zh) * | 2023-11-21 | 2024-05-14 | 荣耀终端有限公司 | 一种定位方法、电子设备和可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112925000B (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112925000B (zh) | 基于可见光通信和惯性导航的隧道环境下车辆定位方法 | |
Li et al. | Toward location-enabled IoT (LE-IoT): IoT positioning techniques, error sources, and error mitigation | |
Prasad et al. | Map matching algorithm: real time location tracking for smart security application | |
CN104729506B (zh) | 一种视觉信息辅助的无人机自主导航定位方法 | |
CN109682375B (zh) | 一种基于容错决策树的uwb辅助惯性定位方法 | |
CN108225302A (zh) | 一种石化工厂巡检机器人定位系统和方法 | |
CN107014375B (zh) | 超低部署的室内定位系统及方法 | |
CN109946731A (zh) | 一种基于模糊自适应无迹卡尔曼滤波的车辆高可靠融合定位方法 | |
Zhao et al. | Learning-based bias correction for time difference of arrival ultra-wideband localization of resource-constrained mobile robots | |
CN111751785B (zh) | 一种隧道环境下车辆可见光定位方法 | |
CN111595348B (zh) | 一种自主水下航行器组合导航系统的主从式协同定位方法 | |
CN111273298B (zh) | 基于波浪滑翔器组网技术的水下声学目标定位与跟踪方法 | |
CN110187372B (zh) | 一种低速无人车园区内组合导航方法及系统 | |
CN109240279B (zh) | 一种基于视觉感知和空间认知神经机制的机器人导航方法 | |
Pfaff et al. | Towards mapping of cities | |
CN113390411B (zh) | 基于变构型感知装置的足式机器人导航及定位方法 | |
CN112923931A (zh) | 一种基于固定路线下的特征地图匹配与gps定位信息融合方法 | |
CN114442621A (zh) | 一种基于四足机器人的自主探索和建图系统 | |
CN108801267B (zh) | 一种融合多传感器的室内无锚点定位方法 | |
Tang et al. | OdoNet: Untethered speed aiding for vehicle navigation without hardware wheeled odometer | |
CN111928851A (zh) | 基于tma技术的多自主水下机器人集群协同导航方法 | |
CN115951369A (zh) | 面向复杂港口环境的多传感器融合定位方法 | |
CN109798893A (zh) | 室内复杂环境下的路径导航方法 | |
Wang et al. | Research on mobile robot localization and mapping method for underground long-narrow tunnels | |
US20200379062A1 (en) | Method and system of magnetic positioning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |