CN104848867A - 基于视觉筛选的无人驾驶汽车组合导航方法 - Google Patents

基于视觉筛选的无人驾驶汽车组合导航方法 Download PDF

Info

Publication number
CN104848867A
CN104848867A CN201510243231.XA CN201510243231A CN104848867A CN 104848867 A CN104848867 A CN 104848867A CN 201510243231 A CN201510243231 A CN 201510243231A CN 104848867 A CN104848867 A CN 104848867A
Authority
CN
China
Prior art keywords
point
gps
coordinate system
satellite
buildings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510243231.XA
Other languages
English (en)
Other versions
CN104848867B (zh
Inventor
段建民
石慧
战宇辰
刘丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201510243231.XA priority Critical patent/CN104848867B/zh
Publication of CN104848867A publication Critical patent/CN104848867A/zh
Application granted granted Critical
Publication of CN104848867B publication Critical patent/CN104848867B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

基于视觉筛选的无人驾驶汽车组合导航方法,该方法包括以下步骤:坐标系换算;建筑物遮挡角度识别;非视距环境下卫星信号可用性判断;改进的自适应平方根容积卡尔曼滤波算法;提出了以视觉信息为筛选条件的组合导航算法,引入了“剔除非视距传播卫星数据”的概念并给出判断方法,用来剔除由于建筑物遮挡而造成精度下降的GPS卫星数据信息;本发明区别于传统组合方法采用视觉导航用以实时并行处理数据,而是采用视觉信息对GPS数据有针对性的筛选,避免了传统采用视觉导航而造成的维数灾难;提出了改进的自适应平方根容积卡尔曼滤波算法,并考虑到无人驾驶智能车行驶在城市路况中导航数据强非线性的问题。

Description

基于视觉筛选的无人驾驶汽车组合导航方法
技术领域
本发明涉及一种基于视觉筛选的无人驾驶汽车组合导航方法,属于组合导航相关领域。
技术背景
驾驶员的主观因素是导致许多交通事故的根本原因,约90%的交通事故源自驾驶员的错误。为提供交通安全性和运输效率,自主驾驶智能车辆的研究受到许多国家的重视,并成为研究的重要内容。继2012年谷歌公司发布第一款无人驾驶智能车后,2015年4月,由汽车配件商德尔福研发的一辆无人驾驶汽车完成了横跨美国之旅,再次说明近年来无人驾驶智能车技术的飞速发展。2009年我国国家自然科学基金委员会创办“中国智能车未来挑战赛”,并受到各大高校、科研院所及企业的重视。智能车辆实现无人驾驶控制的前提是其配备的导航系统能够实时、准确地提供车辆的状态信息。为了避免发生碰撞,需要自主导航车辆达到足够的定位精度。
现阶段导航系统不再局限于单一的传感器所提供的地理位置信息,在一台无人驾驶汽车上甚至装配二十余台传感设备,根据车载导航传感器所提供的状态信息形式的不同,可将车载传感器分为提供绝对信息的传感器包括惯性导航(INS)、全球定位系统(GPS),与提供相对信息的传感器如视觉导航(VISION)、引导磁钉或电缆。其中INS,GPS信息更为丰富完备。不同的车载导航传感器各有优劣,且车辆运行环境复杂,依靠单一的传感器无法保证在复杂工况下的可靠导航。因此车载导航系统多采用多传感器进行组合导航,常见组合形式有INS/GPS组合导航:通过将GPS观测的姿态信息引入组合导航滤波模型中,提高组合导航系统的估计精度,但该方式并没顾及在GPS信号丢失的情况下如何确保导航精度,GPS信号易受电子干扰,在城市化道路中易受建筑群遮挡,造成信号丢失或跳变。另一种组合形式为INS/GPS/视觉的组合方式,该方法存在高程方向上的累积误差较大,且矩阵维数较高,计算时间较长,易出现数值不稳定。
基于视觉筛选的无人驾驶汽车组合导航方法首先通过摄像头采集的视觉信息对GPS接收的卫星信息进行筛选后再进行GPS/INS组合导航,并将导航数据通过改进的滤波算法进行滤波,最终为无人驾驶智能车控制模块提供稳定,精准的导航信息。
发明内容
针对无人驾驶智能车在城市道路环境中,全球定位系统(GPS)信号以非视距(NLOS)传播而造成伪距估计偏差,导致定位不准确的问题,提出了一种以视觉信息为筛选条件的组合导航方法。采用该方法的导航系统能有效控制无人驾驶智能车城市道路环境中GPS信号偏差,提高了导航信息的可靠性、准确性。
一种基于视觉筛选的无人驾驶汽车组合导航方法,包括以下步骤:
步骤1,坐标系换算。
步骤1.1:大地坐标系换算到视觉坐标系。
摄像头成像变换涉及不同坐标系之间的转换,包括大地坐标系、摄像机坐标系、成像平面坐标系和图像平面坐标系。在无人驾驶智能车导航系统的视觉系统中,需首先将摄像头在大地坐标系中的位置换算到视觉坐标系。
步骤1.2:换算视觉坐标系相对车体坐标系。
步骤1.3:将视觉、车体、大地坐标系进行统一。
GPS输出数据为ECEF坐标系统下的经度、纬度、高度,并不适合于平面运动的车辆导航。采用通用横轴墨卡托坐标系(Universal Transverse Mercator,UTM)将经纬度转化到平面坐标系并转换到“东北天”大地坐标系下,以此坐标系为主坐标系,并统一其他坐标系。
步骤2,建筑物遮挡角度识别。
步骤2.1:图像预处理。
通过摄像头采集的周围图像信息,首先提取出导航基准线,确定导航路径中的特征点。主要流程包括灰度变换、图像分割、图像去噪、提取候选点、直线拟合、确定已知点。
步骤2.2:道路识别。
步骤2.3:建筑物识别。
通过计算熵值,进行填充处理,分离出天空与遮挡建筑物。
步骤2.3:计算建筑物俯仰角
确定建筑物上隅角、下隅角坐标值,并分别与车体中心点即图像底边中心点连线,同时找到过建筑物上隅角下隅角坐标的直线段,沿直线段分别向水平中线,垂直中线做垂线。分别计算各点连线距离,并换算出建筑物俯仰角余弦值即为建筑物遮挡角度余弦值。
步骤3,非视距环境下卫星信号可用性判断。
步骤3.1:计算卫星高度与车体所在位置水平切线的夹角余弦值。
步骤3.2:判断接收的卫星信号是否被建筑物遮挡。
比较卫星夹角余弦值与建筑物遮挡角度余弦值,判断接收的卫星信号是否被建筑物遮挡,若遮挡,则将此卫星提供的GPS数据剔除。
步骤4,改进的自适应平方根容积卡尔曼滤波算法。
步骤4.1:计算容积点及权重。
步骤4.2:初始化。
步骤4.3:时间更新。
步骤4.4:测量更新。
与现有方法相比,本发明具有以下优点:
(1)提出了以视觉信息为筛选条件的组合导航算法,引入了“剔除非视距传播卫星数据”的概念并给出判断方法,用来剔除由于建筑物遮挡而造成精度下降的GPS卫星数据信息;
(2)本发明区别于传统组合方法采用视觉导航用以实时并行处理数据,而是采用视觉信息对GPS数据有针对性的筛选,方法新颖,避免了传统采用视觉导航而造成的维数灾难;
(3)提出了改进的自适应平方根容积卡尔曼滤波算法,考虑到无人驾驶智能车行驶在城市路况中导航数据强非线性的问题;
附图说明
图1为组合导航系统框架示意图;
图2为本发明所涉及的方法流程图;
图3为视觉/车体/GPS坐标系换算到大地坐标系示意图;
图4为视觉模块所识别的周围建筑物遮挡角度示意图;
图5为非视距传输条件下建筑物遮挡角度与GPS卫星俯仰角度关系示意图;
图6为采用基于视觉筛选的组合导航方法与未采用此方法的导航路径对比图。
具体实施方式
下面结合附图和实施例对本发明做进一步说明。
基于视觉筛选的无人驾驶汽车组合导航系统架构示意图如图1所示。本发明所述方法的流程图如图2所示,包括以下步骤:
步骤1,坐标系换算。
步骤1.1:大地坐标系换算到视觉坐标系。
摄像头成像变换涉及不同坐标系之间的转换,包括大地坐标系、摄像机坐标系、成像平面坐标系和图像平面坐标系。
在智能车视觉系统中,需将大地坐标系换算成摄像头坐标系大地坐标系原点Ow在车体重心正下方地面上,zv轴垂直向上,xv轴平行地面指向车体前进方向,yv轴在图中垂直纸面向外。Oc为摄像机坐标系原点,与Ow点的水平距离为l1,与地面的垂直距离为l2。α,β,γ分别为摄像头绕x,y,z旋转角度,本文摄像头只绕yc轴旋转,该轴与水平面倾斜角为α,旋转角度β、γ为零。如图2所示,(xc yc zc)T为摄像头坐标系,大地坐标系中点(xw yw zw)T换算到(xc yc zc)T为摄像头坐标系采用(1)式方法。
x c y c z c = R ( α , β , γ ) · x w y w z w + t x t y t z - - - ( 1 )
R = 1 0 0 0 cos α sin α 0 - sin α cos α - - - ( 2 )
其中(tx ty tz)T为平移向量,R为旋转矩阵。根据图像处理的需要摄像机内部会将摄像机坐标系转换到平面坐标系,同时成像平面坐标系再转换到平面坐标系。
步骤1.2:换算视觉坐标系相对车体坐标系。
根据步骤1.1将已经换算好的视觉坐标系与车体坐标系再次转换
步骤1.3:将视觉、车体、大地坐标系进行统一。
GPS输出数据为ECEF坐标系统下的经度、纬度、高度,并不适合于平面运动的车辆导航。采用通用横轴墨卡托坐标系(Universal Transverse Mercator,UTM)将经纬度转化到平面坐标系并转换到“东北天”大地坐标系下,以此坐标系为主坐标系,并统一其他坐标系,见附图说明,图3视觉/车体/GPS坐标系换算到大地坐标系示意图。具体转换方法为:
定义视觉坐标系的原点为摄像机光心在地面上的投影点,其中X轴的正方向为行驶方向的负方向,Y轴的正方向垂直于X轴,水平向右。图3中的特征点即为图像处理算法得到的建筑物群中的特征点,可以将视觉坐标系转换到以车为主的视觉坐标系下,其在视觉坐标系中的坐标定义为(xpvision,ypvision)。摄像头在大地坐标系中的位置是由GPS实时获得的,其坐标为(xv,yv),通过此坐标和智能车的航向角可以将视觉坐标系转换到大地坐标系下,从而求出目标点在大地坐标系下的坐标(xp,yp)。因此,建筑物特征点在大地坐标中的坐标与视觉坐标系中的坐标可表示为:
其中,为车辆行驶航向角,由GPS提供
步骤2,建筑物遮挡角度识别。
步骤2.1:图像预处理。
通过摄像头采集的周围图像信息,首先提取出导航基准线,确定导航路径中的特征点。主要流程包括灰度变换、图像分割、图像去噪、提取候选点、直线拟合、确定已知点。对城市环境道路图像进行处理分析时,选择适宜的彩色特征模型有利于问题的顺利解决。综合分析道路周围建筑物群的特点,发现2G-R-B特征增强建筑物与背景的对比度,因此本方法应用此特征对图像进行灰度变换。得到灰度图像后,需要对图像进行分割,综合考虑了处理时间和处理效果等因素,选择最大类间方差(OTSU)分割算法对灰度图像进行分割,将建筑物群设定为目标像素,即白像素。分割后的图像中,目标像素群中存在许多噪声点,因此选用形态学的膨胀和腐蚀算法对图像进行去噪,膨胀选用1×3模版,腐蚀选用3×1模版。
步骤2.2:道路识别。
图像预处理完毕后,需要在图像中提取出代表建筑物特征的候选点,本方法选用基于移动窗口的垂直投影法进行候选点的选取,基本方法为:设定一个1×20的模板,将此模板从图像底层开始由左向右移动,计算模版中目标像素的灰度值,扫描一行结束后,计算各列灰度值的平均值和标准差并设定其和为灰度阈值,图像中灰度值大于阈值的部分即为目标区域,由于提取的部分为道路的边界,在边界周围灰度值存在跳跃,因此可以通过计算前后两点间的灰度差提取出边界候选点,按照此方法将模版依次向上移动一个像素,直到距离顶部20个像素为止。根据提取出的候选点,运用基于已知点的Hough变换方法进行直线拟合,已知点取所有候选点的分布中心。在得到建筑物群之后,选择其中的一个点作为代表路径的特征点,记录其在图像坐标系中的位置。该方法中对图像的处理并未强调车道线的显像效果,因组合导航系统中已结合MapX控件,通过GPS/INS组合可实现将车辆本体置于车道中的目的。
步骤2.3:建筑物识别。
进行车道划分后,通过改进的二维熵阈值法方法对周围环境进行熵值估计,将熵值大的区域填充,目的在于分离天空与周围建筑物。
步骤2.3:计算建筑物俯仰角
进行填充后,首先,找到分割区域中垂直线段,中央水平线做垂线,并记录交点坐标,同理,将水平线段,向中央水平线做垂线,并记录交点,同时在填充区域内找到已分割区域中水平垂直线交点并记录坐标值。然后,分别计算各交点到车体点(图像处理中专业名词)的距离。最后,将处于同一垂直线上的点(大于一个的)到车体点的距离余弦值,附图4为视觉模块所识别的周围建筑物遮挡角度示意图。
建筑物的俯仰角换算方法定义如下:
其中,表示车体位置到前方第n个建筑物下隅角的向量,表示车体位置到前方第n个建筑物下隅角的向量。
步骤3,非视距环境下卫星信号可用性检测
采用视觉模块来判定GPS卫星传输信息的可用性,主要由于GPS基于无线电定位技术,无线电定位技术是通过检测与观察者之间的距离的特征参数估计出来目标位置。其中视距传播(Line of Sight,LOS)是无线电定位技术中准确测量定位参数的必要条件。GPS定位系统在日广野地区定位精度高的主要原因是满足视距传播LOS的条件。但配备了GPS的智能车辆行驶在城市道路上,因受到信号衰退和阴影效应的影响,接收机接收到的信号,可能不包含视距传播信号或者视距传播信号微弱,即为非视距传播(Not Line of Sight,NLOS)。以视距传播信号的有无和所占的地位为标准,移动终端与基站间的无线信号传播分成三种情况:直射信号占支配地位(Dominant Direct Path,DDP)、直射信号不占支配地位(Non Dominant DirectPath,NDDP)、和接收不到直射信号(Undetected Direct Path,DDP)。根据GPS工作原理可知在DDP的情况下,GPS系统定位精度可达到最高,而在UDP的情况下定位估计的精度低。在城市道路情况下,智能车辆对导航系统定位精度要求较高,但由于建筑物群的遮挡,GPS移动端与基站之间视距传播的情况非常少,无线信号只能通过反射,散射和衍射方式到达接收端,大多数为非视距传播(NLOS)。此时的无线信号通过多种途径被接收,而多径效应会带来时延不同步、信号衰减、极化改变、链路不稳定等一系列问题。
步骤3.1:计算卫星高度与车体所在位置水平切线的夹角余弦值
采用一种改进的NLOS识别方法,主要原理为将GPS的数据信息主要为卫星位置信息与视觉模块得到的楼宇遮挡角度信息融合,进而判断车体周围的建筑物是否遮挡了GPS所提供的卫星信号。接收机从每个卫星接收海拔和方位角信号与摄像头采集的前方建筑物上隅角与高度信息进行融合,原理如图5非视距传输条件下建筑物遮挡角度与GPS卫星俯仰角度关系示意图。
其中,a,b分别表示被建筑物遮挡而进行非视距传播的卫星与未被遮挡直接进行视距传播的卫星。如果卫星与的高度Ea,Eb以及与航向角夹角Aa,Ab属于建筑物Bn遮挡区域,此卫星被定义为NLOS情况。卫星高度与车体所在位置水平切线的夹角定义为
cos ( E a ) = cos ( L e ) cos ( L s ) cos ( L si - l e ) + sin ( L e ) sin ( L s ) 1 + ( r e r s ) 2 - 2 · ( r e r s ) · cos ( L e ) cos ( L s ) cos ( L si - l e ) + sin ( L e ) sin ( L s ) - - - ( 5 )
其中,rs为卫星轨道半径,re为地球半Ls为卫星所处纬度,Le为参照点所处纬度,ls卫星所处经度,le参考点的经度。
步骤3.2:比较卫星夹角余弦值与建筑物遮挡角度余弦值,判断接受的卫星信号是否被建筑物遮挡,若遮挡,则将此卫星提供的GPS数据剔除。
具体方法为:若cos(Ea)<cos(Ebn),则说明卫星Sa俯仰角度大于前方建筑物Bn的俯仰角度,接收机接收到的Sa卫星传输数据属于视距传播,精确度度高。若cos(Ea)≥cos(Ebn)则说明卫星Sa俯仰角度小于前方建筑物Bn的俯仰角度,接收机接收到的Sa卫星传输数据属于NLOS传播方式,精确度相对较低,此颗卫星提供的数据信息不予以考虑。由于采用双目摄像头可以直接采集车体到前方建筑物距离信息,因此采用此方法计算量小,实时性好,能很好的满足实际工程需求。
步骤4,改进的自适应平方根容积卡尔曼滤波算法。
步骤4.1:计算容积点及权重。
首先需要确定系统方程,经过视觉筛选后的GPS数据与INS采用松组合模式,状态变量X取为15维,包括3个相对平面坐标系的位置及速度误差,姿态角误差、加速度计偏差,陀螺漂移。
X · = FX + u - - - ( 6 )
X=[δr δv δψ ▽ ε]T  (7)
F为系统状态转移矩阵;u为状态过程噪声向量。
然后确定观测模型,组合导航数据融合采用松耦合方式,取经过视觉筛选后的GPS、
INS输出的位置和速度之差作为观测值,构造观测量:
Z r ( t ) = r GPS ( t ) - r INS ( t ) = r GPS ( t ) - ( r INS ( 0 ) + ∫ 0 t v INS ( 0 ) dt + t ∫ 0 ∫ 0 t a ( t ) dt ) - - - ( 8 )
Z v ( t ) = v GPS ( t ) - v INS ( t ) = v GPS ( t ) - ( v INS ( 0 ) + ∫ 0 t a ( t ) dt ) - - - ( 9 )
式中,Zr(t)是位置观测量;Zv(t)是速度观测量;rGPS(t)是GPS的位置观测值;rINS(t)是INS的位置计算值;vGPS(t)是GPS的速度观测值;vINS(t)是INS的速度计算值;rINS(0)、vINS(0)是INS的初始位置和速度;a(t)是INS所测得的加速度。则SRCKF-KF的量测方程为
z k + 1 gps = h k + 1 gps ( x k + 1 , u k + 1 ) + v k + 1 gps - - - ( 10 )
其中, h k + 1 gps = [ h k + 1 , e gps , 0,0 , h k + 1 , n gps ] 代表GPS测量矩阵 h k + 1 , n gps = [ 1,0,0 ; 0,1,0 ]
确定以上基本构架后,计算容积点及权重。算法选取2n个容积点,n表示状态维数,
ζ i = 2 n 2 [ 1 ] i
ω i = 1 2 n - - - ( 11 )
i=1,2,…,2n
ξi表示第i个容积点,ωi为相应容积点权重.容积点2n表示容积点总是状态维数的二倍,[1]i表示完整对称点集。
步骤4.2:初始化。
x ^ 0 = E [ x 0 ] - - - ( 12 )
S 0 = chol { [ ( x 0 - x ^ 0 ) ( x 0 - x ^ 0 ) T ] } - - - ( 13 )
其中chol{·}表示Cholesky分解,并产生容积点ξi及权重。
步骤4.3:时间更新。
求容积点值
通过非线性状态方程进行容积点传播
X i , k * = f ( x i , k - 1 ) - - - ( 15 )
状态预测
x ^ k = φ k , k - 1 x ^ k - 1 - - - ( 16 )
计算估计预测误差协方差矩阵的平方根
S k - = tria ( λ k * S Q k - 1 ) - - - ( 17 )
其中tria(·)代表上三角分解,S为下三角分解矩阵.表示Qk-1平方根分解式.
计算估计预测误差协方差矩阵的平方根
λ k * 1 2 n X 1 , k * - x ^ k - X 2 , k * - x ^ k - . . . X 2 n , k * - x ^ k - - - - ( 18 )
步骤4.4:测量更新。
计算容积点
传播容积点
Z i , k = h ( X i , k - ) - - - ( 20 )
计算两个估计值
z ^ k = Σ i = 1 2 n ω i Z i , k - - - ( 21 )
平方根Cholesky因式分解
S zz , k = tria ( λ k S R k ) - - - ( 22 )
新息协方差矩阵平方根
P XZ , K | k - 1 = 1 α k γ k λ k T - - - ( 23 )
其中
λ k = 1 2 n Z 1 , k * - z ^ k Z 2 , k * - z ^ k . . . Z 2 n , k * - z ^ k - - - ( 24 )
γ k = 1 2 n X 1 , k - - x k - X 2 , k - - x k - . . . X 2 n , k - - x k - - - - ( 25 )
&alpha; k = &lambda; 0 , k , &lambda; 0 , k < 1,0 < &alpha; k &le; 1 1 , &lambda; 0 , k &GreaterEqual; 1 - - - ( 26 )
&lambda; 0 , k = tr ( y ~ k y ~ k T ) tr ( &Sigma; i = 1 2 n &omega; i ( c ) ( &chi; i , ( k , k - 1 ) - Z ^ k , k - 1 ) ( &chi; i , ( k , k - 1 ) - Z ^ k , k - 1 ) T ) - - - ( 27 )
αk为自适应渐消因子,用来能够平衡状态方程、预测信息与观测信息权重,最终达到控制状态模型扰动异常对滤波解的影响。
计算ASRCKF滤波增益
W k = ( P xz , k | k - 1 / S zz , k T ) / S zz , k - - - ( 28 )
计算状态估计值
x ^ k = x k - + W k ( z k - z ^ k ) - - - ( 29 )
计算状态估计误差协方差矩阵
S k = tria ( &gamma; k - W k &lambda; k W k S R k ) - - - ( 30 )
经滤波后导航系统将精确的定位信息传送至上位机进行决策,并进行底层控制。采用此方法的车辆位置估计对比见图6采用基于视觉筛选的组合导航方法与未采用此方法的导航路径对比图。

Claims (5)

1.一种基于视觉筛选的无人驾驶汽车组合导航方法,其特征在于:该方法包括以下步骤,
步骤1,坐标系换算;
步骤1.1:大地坐标系换算到视觉坐标系;
摄像头成像变换涉及不同坐标系之间的转换,包括大地坐标系、摄像机坐标系、成像平面坐标系和图像平面坐标系;在无人驾驶智能车导航系统的视觉系统中,需首先将摄像头在大地坐标系中的位置换算到视觉坐标系;
步骤1.2:换算视觉坐标系相对车体坐标系;
步骤1.3:将视觉、车体、大地坐标系进行统一;
GPS输出数据为ECEF坐标系统下的经度、纬度、高度,并不适合于平面运动的车辆导航;采用通用横轴墨卡托坐标系将经纬度转化到平面坐标系并转换到“东北天”大地坐标系下,以此坐标系为主坐标系,并统一其他坐标系;
步骤2,建筑物遮挡角度识别;
步骤2.1:图像预处理;
通过摄像头采集的周围图像信息,首先提取出导航基准线,确定导航路径中的特征点;主要流程包括灰度变换、图像分割、图像去噪、提取候选点、直线拟合、确定已知点;
步骤2.2:道路识别;
步骤2.3:建筑物识别;
通过计算熵值,进行填充处理,分离出天空与遮挡建筑物;
步骤2.3:计算建筑物俯仰角
确定建筑物上隅角、下隅角坐标值,并分别与车体中心点即图像底边中心点连线,同时找到过建筑物上隅角下隅角坐标的直线段,沿直线段分别向水平中线,垂直中线做垂线;分别计算各点连线距离,并换算出建筑物俯仰角余弦值即为建筑物遮挡角度余弦值;
步骤3,非视距环境下卫星信号可用性判断;
步骤3.1:计算卫星高度与车体所在位置水平切线的夹角余弦值;
步骤3.2:判断接收的卫星信号是否被建筑物遮挡;
比较卫星夹角余弦值与建筑物遮挡角度余弦值,判断接收的卫星信号是否被建筑物遮挡,若遮挡,则将此卫星提供的GPS数据剔除;
步骤4,改进的自适应平方根容积卡尔曼滤波算法;
步骤4.1:计算容积点及权重;
步骤4.2:初始化;
步骤4.3:时间更新;
步骤4.4:测量更新。
2.根据权利要求1所述的一种基于视觉筛选的无人驾驶汽车组合导航方法,其特征在于:所述方法的流程包括以下步骤,
步骤1,坐标系换算;
步骤1.1:大地坐标系换算到视觉坐标系;
摄像头成像变换涉及不同坐标系之间的转换,包括大地坐标系、摄像机坐标系、成像平面坐标系和图像平面坐标系;
在智能车视觉系统中,需将大地坐标系换算成摄像头坐标系大地坐标系原点Ow在车体重心正下方地面上,zv轴垂直向上,xv轴平行地面指向车体前进方向,yv轴在图中垂直纸面向外;Oc为摄像机坐标系原点,与Ow点的水平距离为l1,与地面的垂直距离为l2;α,β,γ分别为摄像头绕x,y,z旋转角度,本文摄像头只绕yc轴旋转,该轴与水平面倾斜角为α,旋转角度β、γ为零;(xc yc zc)T为摄像头坐标系,大地坐标系中点(xw yw zw)T换算到(xc yc zc)T为摄像头坐标系采用(1)式方法;
x c y c z c = R ( &alpha; , &beta; , &gamma; ) &CenterDot; x w y w z w + t x t y t z - - - ( 1 )
R = 1 0 0 0 cos &alpha; sin &alpha; 0 - sin &alpha; cos &alpha; - - - ( 2 )
其中(tx ty tz)T为平移向量,R为旋转矩阵为平移向量,R为旋转矩阵;根据图像处理的需要摄像机内部会将摄像机坐标系转换到平面坐标系,同时成像平面坐标系再转换到平面坐标系;
步骤1.2:换算视觉坐标系相对车体坐标系;
根据步骤1.1将已经换算好的视觉坐标系与车体坐标系再次转换
步骤1.3:将视觉、车体、大地坐标系进行统一;
GPS输出数据为ECEF坐标系统下的经度、纬度、高度,并不适合于平面运动的车辆导航;采用通用横轴墨卡托坐标系将经纬度转化到平面坐标系并转换到“东北天”大地坐标系下,以此坐标系为主坐标系,并统一其他坐标系;具体转换方法为:
定义视觉坐标系的原点为摄像机光心在地面上的投影点,其中X轴的正方向为行驶方向的负方向,Y轴的正方向垂直于X轴,水平向右;将视觉坐标系转换到以车为主的视觉坐标系下,其在视觉坐标系中的坐标定义为(xpvision,ypvision);摄像头在大地坐标系中的位置是由GPS实时获得的,其坐标为(xv,yv),通过此坐标和智能车的航向角可以将视觉坐标系转换到大地坐标系下,从而求出目标点在大地坐标系下的坐标(xp,yp);因此,建筑物特征点在大地坐标中的坐标与视觉坐标系中的坐标可表示为:
轴的正方向为行驶方向的负方向,Y轴的正方向垂直于X轴,水平向右;特征点即为图像处理算法得到的建筑物群中的特征点,将视觉坐标系转换到以车为主的视觉坐标系下,其在视觉坐标系中的坐标定义为(xpvision,ypvision);摄像头在大地坐标系中的位置是由GPS实时获得的,其坐标为(xv,yv),通过此坐标和智能车的航向角可以将视觉坐标系转换到大地坐标系下,从而求出目标点在大地坐标系下的坐标(xp,yp);因此,建筑物特征点在大地坐标中的坐标与视觉坐标系中的坐标可表示为:
其中,为车辆行驶航向角,由GPS提供。
3.根据权利要求1所述的一种基于视觉筛选的无人驾驶汽车组合导航方法,其特征在于:步骤2,建筑物遮挡角度识别;
步骤2.1:图像预处理;
通过摄像头采集的周围图像信息,首先提取出导航基准线,确定导航路径中的特征点;主要流程包括灰度变换、图像分割、图像去噪、提取候选点、直线拟合、确定已知点;对城市环境道路图像进行处理分析时,选择适宜的彩色特征模型有利于问题的顺利解决;综合分析道路周围建筑物群的特点,发现2G-R-B特征增强建筑物与背景的对比度,因此本方法应用此特征对图像进行灰度变换;得到灰度图像后,需要对图像进行分割,综合考虑了处理时间和处理效果等因素,选择最大类间方差(OTSU)分割算法对灰度图像进行分割,将建筑物群设定为目标像素,即白像素;分割后的图像中,目标像素群中存在许多噪声点,因此选用形态学的膨胀和腐蚀算法对图像进行去噪,膨胀选用1×3模版,腐蚀选用3×1模版;
步骤2.2:道路识别;
图像预处理完毕后,需要在图像中提取出代表建筑物特征的候选点,本方法选用基于移动窗口的垂直投影法进行候选点的选取,基本方法为:设定一个1×20的模板,将此模板从图像底层开始由左向右移动,计算模版中目标像素的灰度值,扫描一行结束后,计算各列灰度值的平均值和标准差并设定其和为灰度阈值,图像中灰度值大于阈值的部分即为目标区域,由于提取的部分为道路的边界,在边界周围灰度值存在跳跃,因此可以通过计算前后两点间的灰度差提取出边界候选点,按照此方法将模版依次向上移动一个像素,直到距离顶部20个像素为止;根据提取出的候选点,运用基于已知点的Hough变换方法进行直线拟合,已知点取所有候选点的分布中心;在得到建筑物群之后,选择其中的一个点作为代表路径的特征点,记录其在图像坐标系中的位置;该方法中对图像的处理并未强调车道线的显像效果,因组合导航系统中已结合MapX控件,通过GPS/INS组合可实现将车辆本体置于车道中的目的;
步骤2.3:建筑物识别;
进行车道划分后,通过改进的二维熵阈值法方法对周围环境进行熵值估计,将熵值大的区域填充,目的在于分离天空与周围建筑物;
步骤2.3:计算建筑物俯仰角
进行填充后,首先,找到分割区域中垂直线段,中央水平线做垂线,并记录交点坐标,同理,将水平线段,向中央水平线做垂线,并记录交点,同时在填充区域内找到已分割区域中水平垂直线交点并记录坐标值;然后,分别计算各交点到车体点的距离;最后,将处于同一垂直线上的点到车体点的距离余弦值;
建筑物的俯仰角换算方法定义如下:
其中,表示车体位置到前方第n个建筑物下隅角的向量,表示车体位置到前方第n个建筑物下隅角的向量。
4.根据权利要求1所述的一种基于视觉筛选的无人驾驶汽车组合导航方法,其特征在于:步骤3,非视距环境下卫星信号可用性检测
采用视觉模块来判定GPS卫星传输信息的可用性,由于GPS基于无线电定位,无线电定位是通过检测与观察者之间的距离的特征参数估计出来目标位置;其中视距传播是无线电定位技术中准确测量定位参数的必要条件;GPS定位系统在日广野地区定位精度高的原因是满足视距传播LOS的条件;但配备了GPS的智能车辆行驶在城市道路上,因受到信号衰退和阴影效应的影响,接收机接收到的信号,可能不包含视距传播信号或者视距传播信号微弱,即为非视距传播;以视距传播信号的有无和所占的地位为标准,移动终端与基站间的无线信号传播分成三种情况:直射信号占支配地位、直射信号不占支配地位和接收不到直射信号;根据GPS工作原理可知在DDP的情况下,GPS系统定位精度可达到最高,而在UDP的情况下定位估计的精度低;在城市道路情况下,智能车辆对导航系统定位精度要求较高,但由于建筑物群的遮挡,GPS移动端与基站之间视距传播的情况非常少,无线信号只能通过反射,散射和衍射方式到达接收端,大多数为非视距传播;
步骤3.1:计算卫星高度与车体所在位置水平切线的夹角余弦值
采用一种改进的NLOS识别方法,将GPS的数据信息主要为卫星位置信息与视觉模块得到的楼宇遮挡角度信息融合,进而判断车体周围的建筑物是否遮挡了GPS所提供的卫星信号;接收机从每个卫星接收海拔和方位角信号与摄像头采集的前方建筑物上隅角与高度信息进行融合;
其中,a,b分别表示被建筑物遮挡而进行非视距传播的卫星与未被遮挡直接进行视距传播的卫星;如果卫星与的高度Ea,Eb以及与航向角夹角Aa,Ab属于建筑物Bn遮挡区域,此卫星被定义为NLOS情况;卫星高度与车体所在位置水平切线的夹角定义为
cos ( E a ) = cos ( L e ) cos ( L s ) cos ( L si - l e ) + sin ( L e ) sin ( L s ) 1 + ( r e r s ) 2 - 2 &CenterDot; ( r e r s ) &CenterDot; cos ( L e ) cos ( L s ) cos ( L si - l e ) + sin ( L e ) sin ( L s ) - - - ( 5 )
其中,rs为卫星轨道半径,re为地球半Ls为卫星所处纬度,Le为参照点所处纬度,ls卫星所处经度,le参考点的经度;
步骤3.2:比较卫星夹角余弦值与建筑物遮挡角度余弦值,判断接受的卫星信号是否被建筑物遮挡,若遮挡,则将此卫星提供的GPS数据剔除;
具体方法为:若cos(Ea)<cos(Ebn),则说明卫星Sa俯仰角度大于前方建筑物Bn的俯仰角度,接收机接收到的Sa卫星传输数据属于视距传播,精确度度高;若cos(Ea)≥cos(Ebn)则说明卫星Sa俯仰角度小于前方建筑物Bn的俯仰角度,接收机接收到的Sa卫星传输数据属于NLOS传播方式,精确度相对较低,此颗卫星提供的数据信息不予以考虑。
5.根据权利要求1所述的一种基于视觉筛选的无人驾驶汽车组合导航方法,其特征在于:步骤4,改进的自适应平方根容积卡尔曼滤波算法;
步骤4.1:计算容积点及权重;
首先需要确定系统方程,经过视觉筛选后的GPS数据与INS采用松组合模式,状态变量X取为15维,包括3个相对平面坐标系的位置及速度误差,姿态角误差、加速度计偏差,陀螺漂移;
X &CenterDot; = FX + u - - - ( 6 )
X=[δr δv δψ ▽ ε]T  (7)
F为系统状态转移矩阵;u为状态过程噪声向量;
然后确定观测模型,组合导航数据融合采用松耦合方式,取经过视觉筛选后的GPS、INS输出的位置和速度之差作为观测值,构造观测量:
Z r ( t ) = r GPS ( t ) - r INS ( t ) = r GPS ( t ) - ( r INS ( 0 ) + &Integral; 0 t v INS ( 0 ) dt + t &Integral; 0 &Integral; 0 t a ( t ) dt ) - - - ( 8 )
Z v ( t ) = v GPS ( t ) - v INS ( t ) = v GPS ( t ) - ( v INS ( 0 ) + &Integral; 0 t a ( t ) dt ) - - - ( 9 )
式中,Zr(t)是位置观测量;Zv(t)是速度观测量;rGPS(t)是GPS的位置观测值;rINS(t)是INS的位置计算值;vGPS(t)是GPS的速度观测值;vINS(t)是INS的速度计算值;rINS(0)、vINS(0)是INS的初始位置和速度;a(t)是INS所测得的加速度;则SRCKF-KF的量测方程为
z k + 1 gps = h k + 1 gps ( x k + 1 , u k + 1 ) + v k + 1 gps - - - ( 10 )
其中, h k + 1 gps = [ h k + 1 , e gps , 0,0 , h k + 1 , n gps ] 代表GPS测量矩阵 h k + 1 , n gps = [ 1,0,0 ; 0,1,0 ]
确定以上基本构架后,计算容积点及权重;算法选取2n个容积点,n表示状态维数,
&zeta; i = 2 n 2 [ 1 ] i
&omega; i = 1 2 n - - - ( 11 )
i=1,2,…,2n
ξi表示第i个容积点,ωi为相应容积点权重.容积点2n表示容积点总是状态维数的二倍,[1]i表示完整对称点集;
步骤4.2:初始化;
x ^ 0 = E [ x 0 ] - - - ( 12 )
S 0 = chol { [ ( x 0 - x ^ 0 ) ( x 0 - x ^ 0 ) T ] } - - - ( 13 )
其中chol{·}表示Cholesky分解,并产生容积点ξi及权重;
步骤4.3:时间更新;
求容积点值
通过非线性状态方程进行容积点传播
X i , k * = f ( x i , k - 1 ) - - - ( 15 )
状态预测
x ^ k = &phi; k , k - 1 x ^ k - 1 - - - ( 16 )
计算估计预测误差协方差矩阵的平方根
S k - = tria &lambda; k * S Q k - 1 - - - ( 17 )
其中tria(·)代表上三角分解,S为下三角分解阵,表示Qk-1平方根分解式;
计算估计预测误差协方差矩阵的平方根
&lambda; k * = 1 2 n X 1 , k * - x ^ k - X 2 , k * - x ^ k - . . . X 2 n , k * - x ^ k - - - - ( 18 )
步骤4.4:测量更新;
计算容积点
传播容积点
Z i , k = h ( X i , k - ) - - - ( 20 )
计算两个估计值
z ^ k = &Sigma; i = 1 2 n &omega; i Z i , k - - - ( 21 )
平方根Cholesky因式分解
S zz , k = tria &lambda; k S R k - - - ( 22 )
新息协方差矩阵平方根
P XZ , K | k - 1 = 1 &alpha; k &gamma; k &lambda; k T - - - ( 23 )
其中
&lambda; k = 1 2 n Z 1 , k * - z ^ k Z 2 , k * - z ^ k . . . Z 2 n , k * - z ^ k - - - ( 24 )
&gamma; k = 1 2 n X 1 , k - - x k - X 2 , k - - x k - . . . X 2 n , k - - x k - - - - ( 25 )
&alpha; k = &lambda; 0 , k , &lambda; 0 , k < 1,0 < &alpha; k &le; 1 1 , &lambda; 0 , k &GreaterEqual; 1 - - - ( 26 )
&lambda; 0 , k = tr ( y ~ k y ~ k T ) tr ( &Sigma; i = 1 2 n &omega; i ( c ) ( &chi; i , ( k , k - 1 ) - Z ^ k , k - 1 ) ( &chi; i , ( k , k - 1 ) - Z ^ k , - k 1 ) T ) - - - ( 27 )
αk为自适应渐消因子,用来能够平衡状态方程、预测信息与观测信息权重,最终达到控制状态模型扰动异常对滤波解的影响;
计算ASRCKF滤波增益
W k = ( P xz , k | k - 1 / S zz , k T ) / S zz , k - - - ( 28 )
计算状态估计值
x ^ k = x k - + W k ( z k - z ^ k ) - - - ( 29 )
计算状态估计误差协方差矩阵
S k = tria &gamma; k - W k &lambda; k W k S R k - - - ( 30 )
经滤波后导航系统将精确的定位信息传送至上位机进行决策,并进行底层控制。
CN201510243231.XA 2015-05-13 2015-05-13 基于视觉筛选的无人驾驶汽车组合导航方法 Expired - Fee Related CN104848867B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510243231.XA CN104848867B (zh) 2015-05-13 2015-05-13 基于视觉筛选的无人驾驶汽车组合导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510243231.XA CN104848867B (zh) 2015-05-13 2015-05-13 基于视觉筛选的无人驾驶汽车组合导航方法

Publications (2)

Publication Number Publication Date
CN104848867A true CN104848867A (zh) 2015-08-19
CN104848867B CN104848867B (zh) 2017-12-08

Family

ID=53848692

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510243231.XA Expired - Fee Related CN104848867B (zh) 2015-05-13 2015-05-13 基于视觉筛选的无人驾驶汽车组合导航方法

Country Status (1)

Country Link
CN (1) CN104848867B (zh)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105676253A (zh) * 2016-01-15 2016-06-15 武汉光庭科技有限公司 一种自动驾驶中基于城市道路标线地图的纵向定位系统及其方法
CN106651825A (zh) * 2015-11-03 2017-05-10 中国科学院沈阳计算技术研究所有限公司 一种基于图像分割的工件定位与识别的方法
CN106856061A (zh) * 2015-12-08 2017-06-16 现代自动车株式会社 用于在车对车通信期间使用路径历史数据分类目标的方法
CN107478220A (zh) * 2017-07-26 2017-12-15 中国科学院深圳先进技术研究院 无人机室内导航方法、装置、无人机及存储介质
CN107577227A (zh) * 2016-07-05 2018-01-12 百度(美国)有限责任公司 操作无人驾驶车辆的方法、装置和数据处理系统
CN107797093A (zh) * 2017-10-24 2018-03-13 常州工学院 基于容积卡尔曼滤波的无线电定位方法
CN107977968A (zh) * 2017-12-22 2018-05-01 长江勘测规划设计研究有限责任公司 基于建筑物阴影信息挖掘的建筑物分层检测方法
CN108496096A (zh) * 2016-02-02 2018-09-04 高通股份有限公司 可视化惯性里程计参考系与卫星定位系统参考系的对准
CN109151759A (zh) * 2018-10-09 2019-01-04 中国人民解放军海军航空大学 传感器网络分布式信息加权一致性状态滤波方法
CN109541656A (zh) * 2018-11-16 2019-03-29 和芯星通科技(北京)有限公司 一种定位方法及装置
CN110178099A (zh) * 2017-05-26 2019-08-27 广州极飞科技有限公司 无人机航向确定方法和无人机
CN110603463A (zh) * 2017-05-19 2019-12-20 高通股份有限公司 使用摄像头在车辆处进行非视距(NLoS)卫星检测
CN110926474A (zh) * 2019-11-28 2020-03-27 南京航空航天大学 卫星/视觉/激光组合的城市峡谷环境uav定位导航方法
CN111405345A (zh) * 2020-03-19 2020-07-10 展讯通信(上海)有限公司 图像处理方法、装置、显示设备及可读存储介质
WO2020154911A1 (en) * 2019-01-29 2020-08-06 SZ DJI Technology Co., Ltd. Sky determination in environment detection for mobile platforms, and associated systems and methods
CN112525205A (zh) * 2020-11-17 2021-03-19 上海电机学院 一种最小误差熵准则下的车联网相对组合导航定位方法
CN113075709A (zh) * 2021-03-24 2021-07-06 刘成 车载卫星导航方法、装置、存储介质及处理器
CN113366334A (zh) * 2019-01-31 2021-09-07 株式会社电装 车辆用位置推断系统
CN116608851A (zh) * 2023-07-19 2023-08-18 中山大学 地下管道双机器人步进式协同导航方法、系统及服务器
CN111971938B (zh) * 2018-03-20 2023-10-27 法国国家太空研究中心 从卫星接收gnss信号的gnss接收机及其llr的计算方法
CN117668575A (zh) * 2024-01-31 2024-03-08 利亚德智慧科技集团有限公司 光影秀的数据模型构建方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103207634A (zh) * 2013-03-20 2013-07-17 北京工业大学 一种智能车辆中差分gps与惯性导航数据融合的系统和方法
US8792182B2 (en) * 2012-02-09 2014-07-29 Canon Kabushiki Kaisha Zoom lens and image pickup apparatus having zoom lens
CN104035115A (zh) * 2014-06-06 2014-09-10 中国科学院光电研究院 一种视觉辅助的卫星导航定位方法及定位机
CN104154918A (zh) * 2014-07-14 2014-11-19 南京航空航天大学 单目视觉导航特征点丢失故障处理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8792182B2 (en) * 2012-02-09 2014-07-29 Canon Kabushiki Kaisha Zoom lens and image pickup apparatus having zoom lens
CN103207634A (zh) * 2013-03-20 2013-07-17 北京工业大学 一种智能车辆中差分gps与惯性导航数据融合的系统和方法
CN104035115A (zh) * 2014-06-06 2014-09-10 中国科学院光电研究院 一种视觉辅助的卫星导航定位方法及定位机
CN104154918A (zh) * 2014-07-14 2014-11-19 南京航空航天大学 单目视觉导航特征点丢失故障处理方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JAY A F 等: "Real-time differential carrier phase GPS-aided INS", 《IEEE TRANSACTION ON CONTRAL SYSTEMS TECHNOLOGY》 *
吴凤柱 等: "GPS/SINS紧组合导航系统信息融合技术研究", 《电子技术应用》 *
赵其杰 等: "基于Kalman滤波的视觉预测目标跟踪及其应用", 《光学精密工程》 *

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651825A (zh) * 2015-11-03 2017-05-10 中国科学院沈阳计算技术研究所有限公司 一种基于图像分割的工件定位与识别的方法
CN106856061A (zh) * 2015-12-08 2017-06-16 现代自动车株式会社 用于在车对车通信期间使用路径历史数据分类目标的方法
CN105676253A (zh) * 2016-01-15 2016-06-15 武汉光庭科技有限公司 一种自动驾驶中基于城市道路标线地图的纵向定位系统及其方法
CN105676253B (zh) * 2016-01-15 2019-01-01 武汉光庭科技有限公司 一种自动驾驶中基于城市道路标线地图的纵向定位系统及其方法
CN108496096A (zh) * 2016-02-02 2018-09-04 高通股份有限公司 可视化惯性里程计参考系与卫星定位系统参考系的对准
CN107577227B (zh) * 2016-07-05 2021-07-30 百度(美国)有限责任公司 操作无人驾驶车辆的方法、装置和数据处理系统
CN107577227A (zh) * 2016-07-05 2018-01-12 百度(美国)有限责任公司 操作无人驾驶车辆的方法、装置和数据处理系统
CN110603463A (zh) * 2017-05-19 2019-12-20 高通股份有限公司 使用摄像头在车辆处进行非视距(NLoS)卫星检测
CN110178099A (zh) * 2017-05-26 2019-08-27 广州极飞科技有限公司 无人机航向确定方法和无人机
CN110178099B (zh) * 2017-05-26 2022-05-10 广州极飞科技股份有限公司 无人机航向确定方法和无人机
CN107478220B (zh) * 2017-07-26 2021-01-15 中国科学院深圳先进技术研究院 无人机室内导航方法、装置、无人机及存储介质
CN107478220A (zh) * 2017-07-26 2017-12-15 中国科学院深圳先进技术研究院 无人机室内导航方法、装置、无人机及存储介质
CN107797093A (zh) * 2017-10-24 2018-03-13 常州工学院 基于容积卡尔曼滤波的无线电定位方法
CN107977968A (zh) * 2017-12-22 2018-05-01 长江勘测规划设计研究有限责任公司 基于建筑物阴影信息挖掘的建筑物分层检测方法
CN111971938B (zh) * 2018-03-20 2023-10-27 法国国家太空研究中心 从卫星接收gnss信号的gnss接收机及其llr的计算方法
CN109151759A (zh) * 2018-10-09 2019-01-04 中国人民解放军海军航空大学 传感器网络分布式信息加权一致性状态滤波方法
CN109151759B (zh) * 2018-10-09 2021-06-29 中国人民解放军海军航空大学 传感器网络分布式信息加权一致性状态滤波方法
CN109541656A (zh) * 2018-11-16 2019-03-29 和芯星通科技(北京)有限公司 一种定位方法及装置
CN109541656B (zh) * 2018-11-16 2020-07-07 和芯星通科技(北京)有限公司 一种信息融合定位方法及装置
WO2020154911A1 (en) * 2019-01-29 2020-08-06 SZ DJI Technology Co., Ltd. Sky determination in environment detection for mobile platforms, and associated systems and methods
CN113366334A (zh) * 2019-01-31 2021-09-07 株式会社电装 车辆用位置推断系统
CN110926474A (zh) * 2019-11-28 2020-03-27 南京航空航天大学 卫星/视觉/激光组合的城市峡谷环境uav定位导航方法
CN110926474B (zh) * 2019-11-28 2021-09-03 南京航空航天大学 卫星/视觉/激光组合的城市峡谷环境uav定位导航方法
CN111405345B (zh) * 2020-03-19 2022-03-01 展讯通信(上海)有限公司 图像处理方法、装置、显示设备及可读存储介质
CN111405345A (zh) * 2020-03-19 2020-07-10 展讯通信(上海)有限公司 图像处理方法、装置、显示设备及可读存储介质
CN112525205A (zh) * 2020-11-17 2021-03-19 上海电机学院 一种最小误差熵准则下的车联网相对组合导航定位方法
CN113075709A (zh) * 2021-03-24 2021-07-06 刘成 车载卫星导航方法、装置、存储介质及处理器
CN116608851A (zh) * 2023-07-19 2023-08-18 中山大学 地下管道双机器人步进式协同导航方法、系统及服务器
CN116608851B (zh) * 2023-07-19 2023-09-26 中山大学 地下管道双机器人步进式协同导航方法、系统及服务器
CN117668575A (zh) * 2024-01-31 2024-03-08 利亚德智慧科技集团有限公司 光影秀的数据模型构建方法、装置、设备及存储介质
CN117668575B (zh) * 2024-01-31 2024-05-28 利亚德智慧科技集团有限公司 光影秀的数据模型构建方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN104848867B (zh) 2017-12-08

Similar Documents

Publication Publication Date Title
CN104848867B (zh) 基于视觉筛选的无人驾驶汽车组合导航方法
KR101454153B1 (ko) 가상차선과 센서 융합을 통한 무인 자율주행 자동차의 항법시스템
Borenstein et al. Mobile robot positioning: Sensors and techniques
Brenner Extraction of features from mobile laser scanning data for future driver assistance systems
CN110208842A (zh) 一种车联网环境下车辆高精度定位方法
EP3617749B1 (en) Method and arrangement for sourcing of location information, generating and updating maps representing the location
CN108885106A (zh) 使用地图的车辆部件控制
CN111426320B (zh) 一种基于图像匹配/惯导/里程计的车辆自主导航方法
CN112904395B (zh) 一种矿用车辆定位系统及方法
CN106461402A (zh) 用于确定相对于数字地图的位置的方法及系统
CN111006655A (zh) 机场巡检机器人多场景自主导航定位方法
CN101975951A (zh) 一种融合距离和图像信息的野外环境障碍检测方法
EP4016115A1 (en) Vehicle localization based on radar detections
WO2018154579A1 (en) Method of navigating an unmanned vehicle and system thereof
WO2023283987A1 (zh) 无人系统的传感器安全性检测方法、设备及存储介质
JP7209367B2 (ja) ゴルフ場自動運転車のナビゲーション切り替え設備
Jiménez et al. Improving the lane reference detection for autonomous road vehicle control
CN115540858A (zh) 高精度的井下车辆定位方法及其系统
CN114111811A (zh) 一种自动驾驶公交客车的导航控制系统和方法
CN115855045A (zh) 一种应用于矿井巷道的多模态融合建图与定位方法
Xu Mapping and localization for extraterrestrial robotic explorations
Adams et al. Autonomous navigation: Achievements in complex environments
Jiménez et al. LiDAR-based SLAM algorithm for indoor scenarios
EP4160153A1 (en) Methods and systems for estimating lanes for a vehicle
EP4160154A1 (en) Methods and systems for estimating lanes for a vehicle

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171208

Termination date: 20200513

CF01 Termination of patent right due to non-payment of annual fee