CN114999228A - 一种自动驾驶车在恶劣天气防碰撞方法 - Google Patents

一种自动驾驶车在恶劣天气防碰撞方法 Download PDF

Info

Publication number
CN114999228A
CN114999228A CN202210618778.3A CN202210618778A CN114999228A CN 114999228 A CN114999228 A CN 114999228A CN 202210618778 A CN202210618778 A CN 202210618778A CN 114999228 A CN114999228 A CN 114999228A
Authority
CN
China
Prior art keywords
vehicle
rtk
information
time
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210618778.3A
Other languages
English (en)
Other versions
CN114999228B (zh
Inventor
孙文昭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Yihang Yuanzhi Technology Co Ltd
Original Assignee
Beijing Yihang Yuanzhi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Yihang Yuanzhi Technology Co Ltd filed Critical Beijing Yihang Yuanzhi Technology Co Ltd
Priority to CN202210618778.3A priority Critical patent/CN114999228B/zh
Publication of CN114999228A publication Critical patent/CN114999228A/zh
Application granted granted Critical
Publication of CN114999228B publication Critical patent/CN114999228B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/048Detecting movement of traffic to be counted or controlled with provision for compensation of environmental or other condition, e.g. snow, vehicle stopped at detector
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Abstract

本发明公开了了一种自动驾驶车在恶劣天气的防碰撞方法,通过RTK和IMU+轮速组成的高精组合惯导,实现基于混合路段时间空间对齐的自车车辆定位;通过对外部传感器采集数据的动态置信度判定进行他车车辆的定位;将置信度最高的传感器感知结果作为聚类中心;将云端粗粒度预测轨迹和自车细粒度预测轨迹两种优势相结合,实现自动驾驶车的精准防碰撞。本发明解决了在恶劣天气下,由于各类传感器的类型、分辨率、数量、自车周围障碍物的距离、天气可见度、干扰物的不同,对传感器的效果产生影响的问题;解决了云端向车端下发的预测轨迹不准确的问题;解决了云端对于车端下发的预测轨迹对于车端只是一个粗粒度防碰撞的效果,达不到精准防碰撞的效果的问题。

Description

一种自动驾驶车在恶劣天气防碰撞方法
技术领域
本发明涉及车辆预防碰撞领域,具体涉及一种自动驾驶车在恶劣天气防碰撞方法。
背景技术
自动驾驶车利用车载传感器实时进行车辆行驶环境分析、并进行车辆轨迹预测,从而实现自动驾驶。但在恶劣天气情况下和遇到信号不稳定路段的情况下,自动驾驶车所依赖的车载传感器往往会不同程度地降低灵敏度甚至失效,给自动驾驶车防碰撞带来很大困难。
恶劣天气自动驾驶车防碰撞的难点之一:恶劣天气对各类传感器采集数据的准确有着更高的要求,但恶劣天气随着各类传感器的类型、分辨率、数量、自车周围障碍物的距离、天气可见度、干扰物的不同,都会对传感器的感知效果产生影响。各类传感器包括用于自车定位的传感器,如RTK系统、IMU、轮速仪,以及用于自车观测他车的外部传感器,如相机、雷达、毫米波雷达;所述恶劣天气对传感器感知效果产生影响,如RTK系统会受到电离层的影响,台风或雷会产生压力波向上激发引起电离层扰动;RTK系统对行驶在高架桥下或隧道中的车辆也会产生信号不稳定的影响;恶劣天气还会对外部传感器的感知效果产生影响,例如雾、雨、雪或极端光照条件下,包括低光照或低反射物体,多模式传感器配置可能会不对称地失效。例如,传统的RGB相机在弱光场景区域中会产生不可靠的嘈杂测量,而扫描激光雷达传感器在雨雪中,小颗粒同样会通过反向散射影响激光雷达深度估计。在有雾或雪的天气下,由于反向散射,最新的脉冲激光雷达系统被限制在小于20m的范围内。
恶劣天气自动驾驶车防碰撞的难点之二:在恶劣天气下,由于自车的观测范围较平时更为局限,如大雾天气伸手不见五指,自车传感器对周围障碍物观测不清,因此更为依赖云端实时路况进行安全的自动驾驶,而云端的实时路况来自于自车实时上传的各类传感器的感知数据,由于自车在上传感知数据时,并未根据传感器的类型、分辨率、数量、自车周围障碍物的距离、天气可见度、干扰物向云端提供每类传感器当时的置信度分数,云端也并未根据每类传感器当时的置信度分数筛选预测轨迹的每个轨迹点,导致云端向车端下发的针对自车周围障碍物(他车)的预测轨迹是不准确的。
恶劣天气自动驾驶车防碰撞的难点之三:第一,云端向自车下发的m秒内的预测轨迹,其轨迹上的每个点只代表车辆m秒内各个几何中心点的位置、不能代表车辆的宽和长或车辆的大和小,当自车和他车车体较长或较宽时,虽然云端给出的当前时刻自车和他车的轨迹还没有相交,但是由于两辆车辆尺寸比较大,可能此时已经发生了蹭车或碰撞的危险。第二、云端能够提供m秒内多条预测轨迹、但不能提供自车接到云端预测轨迹时自车在轨迹上的位置,云端下发预测轨迹的时刻是t0时刻,而自车接到云端轨迹的时刻是t1时刻,从t0到t1自车又行驶了一段距离,如果让云端把自车未来接到预测轨迹那一时刻的位置也计算出来,则云端的运算量就会很大,导致云端向自车的响应时间就会延长。总之,云端对于车端下发的预测轨迹对于车端只是一个粗粒度防碰撞的效果,达不到精准防碰撞的效果。
发明内容
本发明针对现有技术的不足,提出一种自动驾驶车在恶劣天气防碰撞方法,第一目的在于解决在恶劣天气下,由于各类传感器的类型、分辨率、数量、自车周围障碍物的距离、天气可见度、干扰物的不同,都会对传感器的效果产生影响的问题;第二目的在于解决云端对传感器感知结果没有进行置信度的分析和基于置信度的融合,导致云端向车端下发的的预测轨迹是不准确的问题;第三目的在于解决云端对于车端下发的预测轨迹对于车端只是一个粗粒度防碰撞的效果,达不到精准防碰撞的效果的问题。
本发明为解决其技术问题提出以下技术方案。
本发明设计了一种自动驾驶车在恶劣天气防碰撞方法,包括以下步骤:
步骤一、自车数据采集与融合,通过自车的车载传感器进行自车位姿信息与其他车辆信息采集,对所有外部传感器进行置信度判定,将同种传感器数据进行时间空间对齐后上传至云端;
步骤二、云端数据融合,对于多车辆上传的数据进行聚类,对聚类为同一辆车的数据进行时间空间对齐;
步骤三、路况融合预测,界定预测范围和优先级,并传达范围内的预测结果;
步骤四、风险规避,判断自车和其他车的运动轨迹是否存在碰撞危险,存在危险时利用TTC紧急制动模型采取警告或制动措施;
其特点是:
所述步骤一的自车位姿信息采集,通过RTK和IMU+轮速组成的高精组合惯导,实现基于混合路段时间空间对齐的自车车辆定位;所述步骤一的其他车辆信息采集,通过对外部传感器采集数据的动态置信度判定进行他车车辆的定位;所述外部传感器包括安装在自车上的相机、毫米波雷达、激光雷达;所述混合路段包括信号正常的路段和信号不稳定的路段;
所述步骤二的云端数据融合,将置信度最高的传感器感知结果作为聚类中心;
所述步骤四的风险规避,将云端粗粒度预测轨迹和自车细粒度预测轨迹两种优势相结合,实现自动驾驶车的精准防碰撞。
进一步地,所述步骤一的自车位姿信息采集,通过RTK和IMU+轮速组成的高精组合惯导,实现基于混合路段时间空间对齐的自车车辆定位,具体过程如下:
1)在信号正常的道路中行驶时,使用RTK进行车辆定位;
2)在车辆通过高架桥底信号不稳定的路段或由于雨雪雷电等恶劣天气导致信号不稳定时,在信号不稳定前的原有RTK数据基础上使用IMU+轮速持续进行车辆定位。
进一步地,所述步骤一的过程2)的具体步骤如下:
①设定IMU的坐标系与车体坐标系一致,所述车体坐标系为:以车辆后轴中心为原点,车辆前进方向为正前方,x轴指向正前方,y轴指向正左方,z轴指向正上方;
②进行RTK数据
Figure BDA0003675479050000041
与IMU+轮速数据间的时间、空间对齐,RTK采集的数据
Figure BDA0003675479050000042
位于世界坐标系下,右上角角标W代表世界坐标系;所述进行RTK数据与IMU+轮速数据间的时间、空间对齐,即为求得IMU在tRTK时刻的车体坐标系下的位姿
Figure BDA0003675479050000043
B代表车体坐标系。
进一步地,所述过程②的时间空间对齐方法,具体如下:
a.取信号不稳或信号消失前的最后一个采集的RTK数据,将其对应的时间记为tRTK,找到最接近且早于tRTK时刻的第一个IMU数据作为起点tstart,最接近且刚好晚于tRTK时刻的IMU数据时间作为终点tend
b.在tRTK时刻基于世界坐标系的RTK位姿为
Figure BDA0003675479050000051
tstart与tend时刻基于IMU坐标系的IMU位姿为
Figure BDA0003675479050000052
B代表Body,即车体坐标系;借助IMU数据
Figure BDA0003675479050000053
使用线性插值法获取tRTK时刻的IMU在tRTK时刻的位姿数据
Figure BDA0003675479050000054
该线性插值法即,
Figure BDA0003675479050000055
其中,tRTK=0.01;tstart=0;tend为0.01_0.011;IMU在车体坐标系下的位资
Figure BDA0003675479050000056
为已知,根据上述已知条件可求出IMU在RTK时刻的车体坐标系下的位姿
Figure BDA0003675479050000057
由此实现IMU和RTK的时间对齐;
c.借助
Figure BDA0003675479050000058
其中
Figure BDA0003675479050000059
为已知,获取tRTK时刻的RTK与IMU的位姿转换关系
Figure BDA00036754790500000510
WB代表从世界坐标系转到车体坐标系;
d.获得车辆在tRTK到tend时间段内的位姿变换ΔTR-e具体为:所述借助轮速获得车辆在tRTK到tend时间段内沿x轴方向的平移量Δx;借助IMU使用线性插值法获得车辆在tRTK到tend时间段内的在x、y、z不同方向上的旋转角度Δyaw、Δpitch和Δroll,通过旋转角差Δyaw、Δpitch、Δroll与平移量Δx积分获得车辆在tRTK到tend时间段内沿y轴和z轴方向上的平移量Δy、Δz,即可获得车辆在tRTK到tend时间段内的位姿变换ΔTR-e
根据
Figure BDA00036754790500000511
获取从tRTK到tend时刻的RTK与IMU的位姿转换关系
Figure BDA00036754790500000512
上述公式等号左边
Figure BDA00036754790500000516
为已知,ΔTR-e为已知,因此可求出
Figure BDA00036754790500000513
求出此后的信号不稳定的每个时刻timu,从tRTK到timu时刻的RTK与IMU的
位姿转换关系
Figure BDA00036754790500000514
即用timu替换tend时刻,timu时刻不一定是最接近且刚好晚于tRTK时刻的IMU数据采集时间;
借助
Figure BDA00036754790500000515
可以获取IMU采集数据在世界坐标系下的坐标。
进一步地,所述步骤一的其他车辆信息采集,通过对外部传感器采集数据的动态置信度判定,进行他车车辆的定位,具体过程如下:
1)根据相机分辨率不同对相机进行动态置信度判断;
2)根据传感器类型和观测距离不同对传感器进行动态置信度判断;
3)根据天气情况动态调整相机传感器、及激光雷达传感器的置信度权重ω;
4)当存在不止一个相机传感器、或雷达传感器、或毫米波雷达检测到object,需要将各个传感器的置信度进行平均来计算信息的可信度,以相机置信度模型为例,相机置信度最终模型表示为:
Figure BDA0003675479050000061
相机置信度模型包括但不限于自身等级vision_ranki、与观测物体的距离vision_disV_object_obser,i,其他外部传感器同理,激光雷达传感器最终置信度表示为lidarV_object_obser;毫米波雷达传感器最终置信度表示为radarV_object_obser;毫米波雷达传感器不受天气影响,其对应的ω=1;RTK也具有相应的权重ω,受高架桥隧道等道路状况与雷雨台风等天气状况的影响,不受观测距离的影响。
进一步地,所述步骤一的其他车辆信息采集的过程1)根据相机分辨率不同对相机进行动态置信度判断,以视觉传感器为例,相应的模型如下所示:
Figure BDA0003675479050000062
当相机分辨率(vision)为30万像素(rank1)、50万像素(rank2)、80万像素(rank3)、130万像素(rank4)时,分数分别为:0.4a、0.6a、0.8a、a,a为正常置信分数;
所述步骤一的其他车辆信息采集的过程2)根据传感器类型和观测距离不同对传感器进行动态置信度判断,具体如下:
当传感器类型为Lidar、Radar、Vision、RTK时,根据观测距离的远近,置信分数不同:
Lidar:观测距离为0-80时,置信分数为1.2;观测距离为>80时;置信分数为
Figure BDA0003675479050000071
雷达的基础分数为1.2,随着距离S的增加,当S大于80米,雷达的置信度分数在基础分数基础上下降;
Radar:观测距离为0-80时,置信分数为1.0;观测距离为>80时;置信分数为
Figure BDA0003675479050000072
毫米波雷达的基础分数为1,随着距离S的增加,当S大于80米,雷达的置信度分数在基础分数基础上下降;
Vision:观测距离为0-100时,置信分数为0.8;观测距离为>100时;置信分数为
Figure BDA0003675479050000073
相机的基础分数为0.8,随着距离S的增加,当S大于100米,相机的置信度分数在基础分数基础上下降;
RTK:RTK系统置信分数不受观测距离影响,置信分数均为1;但当自车行驶在高架桥下或隧道中,RTK系统的置信分数小于1,遇到台风天气电离层发生波动,RTK系统的置信分数小于1;
进一步地,所述步骤一的其他车辆信息采集的过程3)的根据天气情况动态调整相机传感器、及激光雷达传感器的置信度权重ω,具体为:
a.相机传感器或激光雷达传感器置信度的最终权重ω=ωd·ωv
其中,权重ω主要受干扰物ωd与可见度ωv的影响;
b.可见度通过光线强弱等因素对相机、激光雷达进行干扰的权重判定:
当光照度L分别为<300lux、≥300lux时,可见度权重ωv分别为L/300、1;
c.干扰物通过附着在传感器摄像头等屏幕上、在空气中形成大团可被认定为障碍物的水汽等的方式来对相机、激光雷达传感器进行干扰的权重判定:
当雨刷频率分别为>50次/min、35-50次/min、<35次/min时,干扰物权重ωd分别为:0.2、0.5、0.8;在雨刷未开启时,受环境中存在的固、液态小颗粒的影响,当天气分别为扬沙或雾霾、阴天、晴天时,干扰物权重ωd分别为0.6、0.9、1,扬沙或雾霾、阴天、晴天通过联网获取当前天气预报来判定。
进一步地,所述步骤二的云端数据融合,将置信度最高的传感器感知结果作为聚类中心,具体过程如下:
1)建立云中针对某一目标车辆objecti的所有与其融合相关信息的整体模型,整体模型中包括目标车objecti的状态、位置信息,以及其他车辆Vj对objecti的观测信息:
Figure BDA0003675479050000081
objecti_status:objecti车自身向云端上传自车车位信息、以及自车的外部传感器观测Vj车的信息,该外部传感器包括视觉传感器、激光雷达、毫米波雷达;Vj_objecti_obser:vj车对objecti车的观测信息;
Figure BDA0003675479050000082
RTK系统提供的信息,包含时间戳与位置信息;该RTK系统提供的信息包括自车处于信号正常路段、以及信号不稳定路段的信息,当处于信号正常路段时,只提供RTK提供的自车的位置信息而无需提供IMU和轮速的信息,当处于信号不稳定路段时,RTK系统提供的信息是IMU和RTK进行时间和空间对齐以后的IMU和轮速提供的自车的位置信息;
Figure BDA0003675479050000083
Vj车上传的对于objecti车的视觉传感器信息;
Figure BDA0003675479050000084
Vj车上传的对于objecti车的激光雷达信息;
Figure BDA0003675479050000085
Vj车上传的对于objecti车的毫米波雷达信息
2)遍历云端所有的objecti,并进行多传感器间的时间对齐,对多车上传的数据进行基于时间戳的时间空间对齐;所述时间戳对齐到北京时间每0.01s的整点,按四舍五入进行时间戳的同步;
3)以相机传感器、激光雷达传感器、毫米波雷达传感器、RTK四种传感器中置信度最高的传感器的感知结果作为聚类中心;当选取RTK采集的信息作为聚类中心时,将其采集中心点由几何中心转换到后轴中心,并将其后轴中心作为聚类中心;
4)将同一聚类结果内的数据,判定为同一车辆objecti在某一时刻的所有相关数据,并对所有相关数据进行下一步的融合:
Figure BDA0003675479050000091
objecti的置信度分数越高则代表融合后的感知结果可信度越高。
进一步地,所述步骤三的路况融合预测,具体过程如下:
1)设定跟踪n秒内的历史轨迹结合上传的车辆目的地,在云端进行m秒范围内的轨迹预测;所述跟踪的n秒是因为要预测m秒的轨迹需要长达n秒范围内的数据做支撑才会比较准确,实时性问题是借助m秒的预测解决的,车辆的处理传输速度是毫秒级的,所述s是要保证整个过程的时间该过程包括:采集融合->云端处理->自车申请预测数据与范围界定->云端传输预测结果->自车轨迹实时对齐->风险碰撞->紧急制动预留时间;所述的n秒包括5秒,所述的m秒包括15秒;
2)根据各个车辆的无障碍情况下的规划路线,该规划路线为以目的地为导向的路线,基于车辆上传至云端的IMU、轮速、PTK等位置与速度信息,结合车辆n秒内的历史轨迹,使用LSTM对云端所有车辆m秒内的轨迹进行预测;并随车辆上传的轮速等速度信息的改变,不断的进行预测路径的调整。
所述步骤三的界定预测范围和优先级,并传达范围内的预测结果,具体过程如下:
1)确定自车所需预测信息的范围,并确定优先级;所述确定自车所需预测信息的范围,包括横向范围、纵向范围;所述确定优先级:对有高精地图的区域确立优先级,云端系统仅发送具有优先级的范围内的数据;对于无高精地图的区域,云端系统发送自车以纵向数据采集范围为半径的圆内的所有预测信息,该范围内所有数据具有同一优先级;对于同一优先级的结果,根据障碍物车辆与自车的直线距离先后进行风险判定;
2)云端系统按照优先级顺序向申请车辆发送界定范围内的所有轨迹预测信息;所述云端系统按照优先级顺序向申请车辆发送界定范围内的所有轨迹预测信息,该轨迹信息是由m*0.01得到m*0.01个点的连线,其中,m包括15秒,0.01是RTK的频率。
进一步地,所述步骤四的风险规避,将云端粗粒度预测轨迹和自车细粒度预测轨迹两种优势相结合,实现自动驾驶车的精准防碰撞,具体步骤如下:
1)从云端获取申请范围内当前时刻前n秒、以及当前时刻的后m秒的多条轨迹;该多条轨迹包含自车的预测轨迹与其他车辆的预测轨迹;
2)判断自车的预测轨迹是否会与其他车辆的预测轨迹发生重合;
3)若自车的预测轨迹与其他车辆的预测轨迹间存在碰撞风险,则启动自动紧急制动,自动紧急制动系统分级制动模型根据碰撞时间TTC大小分为三级,包括预警、一级制动、二级制动;
所述预警:当实时TTC的值小于预警阈值时,触发预警装置,提示前方有碰撞危险,预警装置由视觉、听觉、触觉传感器组成;
所述一级制动:当实时TTC的值小于一级制动阈值时,触发第一级制动,制动变速幅度较小;
所述二级制动:当实时TTC的值小于二级制动阈值时,触发第二级制动,制动变速幅度较大。
所述2)判断自车的预测轨迹是否会与其他车辆的预测轨迹发生重合,具体步骤如下:
1)设云端发出轨迹的时间为t0;
2)设自车接到云端轨迹时刻已走过的轨迹时间为t1;
3)计算t1时刻自车和他车当前轨迹上所在的点;
4)将自车和他车当前轨迹点两点连线为L;
5)L与自车行驶方向的夹角为θ1,L与他车行驶方向的夹角为θ2
6)获取车辆后几何中心到车前端或车后端的长度b1、b2
7)借助|b1/2cosθ1/2|获取平行于连线L的a1/2
8)若θ1、θ2同时大于或小于90°时,当两车连线L位于车体外部部分的长度大于a1+a2时,则不会发生碰撞;两车间是否有碰撞风险主要受车宽影响,设min=a1+a2+c1/sinθ1+c2/sinθ2与两车间连线L的实际长度进行比较若L>min,则无碰撞风险,否则有碰撞风险;
9)当θ1、θ2不同时大于或小于90°时,两车间是否有碰撞风险主要受车长影响,本发明使用min=a1+a2与两车间连线L的实际长度进行比较,若L>min,则无碰撞风险,否则有碰撞风险。
进一步地,所述横向范围,包括以下几点:
1)有高精地图的判断
若当前行驶道路有高精地图,采用高精地图与定位系统相结合的方式:
A、基于高精地图的车道信息确定横向范围:通过定位系统确定车辆的实时位置,基于高精地图可以确定行驶车辆在哪条车道上,缩小搜索范围,提高系统的运算速度与准确性;
B、基于高精地图的物理隔栏信息确定横向范围:道路上的车辆分为与自车同向行驶的车辆和与自车反向行驶的车辆。在封闭道路中有物理隔离时,如隔离带或围栏,隔离带和围栏会降低发生事故的概率,则只考虑与自车行驶方向相同的车辆的行驶状态;在城区道路中时道路情况比较复杂,无法确定是否有物理隔离时,出于保证驾驶安全的需求,需要考虑与自车行驶方向相同和相反的车辆的行驶状态;
C、优先级的判断
第一危险优先级:与自车行驶车道为同一条车道的前后车辆信息;
第二危险优先级:与自车行驶车道相邻的车道的车辆信息;
第三危险优先级:与自车行驶方向相同但是不相邻的车道的车辆信息
第四危险优先级:与自车行驶方向相反但相邻车道的车辆信息;
2)没有高精地图的判断
若当前行驶道路不存在云端高精地图,则取以自车车辆后轴中心为中点、垂直车辆前进方向的10米范围为横向界定范围,取范围内所有的车辆预测轨迹进行判断,以确保行车安全。
进一步地,所述纵向范围,包括以下几点:
1)根据车速确定纵向范围
当车速为0-30、30-60、60-90、90-120以上时,采集范围为前后30m、前后70m、前后130m、前后200m、前后230m;
2)当自车预计15s内的采集范围为直线道路范围时
不论当前云端存在或不存在当前道路的高精地图,均根据车辆实时位置沿车辆前进方向进行纵向范围内信息采集;
3)当自车预计15s内的采集范围为非直线道路范围时
A、若云端存在当前道路的高精地图,则借助高精地图,准确获取道路信息,如转弯时道路的转弯半径、曲率、转弯中心点等,借此划定出与行驶道路相近的采集范围,但需要将直线的长度转化为弯曲弧线的长度;
B、若云端不存在当前道路的高精地图,无法根据转弯半径、曲率、转弯中心点等信息进行准确的与行驶道路相近形状的采集范围的划定,则在弯道路上进行信息的采集,基于车速获取纵向采集长度。
C、优先级的判断
根据不同车辆距离自车的距离设定相应优先级,所述距离为两车的车辆后轴中心的距离,距离自车距离近的车辆需要设定较高的优先级。
本发明的优点效果
1、本发明通过基于混合路段时间空间对齐的自车车辆定位、和基于动态置信度判定的外部传感器感知结果,解决了恶劣天气随着各类传感器的类型、分辨率、数量、自车周围障碍物的距离、天气可见度、干扰物的不同,都会对传感器的感知效果产生影响,导致恶劣天气传感器采集数据准确度差的问题;本发明通过云端将置信度最高的传感器感知结果作为聚类中心、从而向车端传送置信度最高的预测轨迹,解决了云端向车端下发的针对自车周围障碍物(他车)的预测轨迹不准确的问题;本发明将云端粗粒度预测轨迹和车端细粒度预测轨迹两种优势相结合,优势互补,解决了云端对于车端下发的预测轨迹对于车端只是一个粗粒度防碰撞的效果,达不到精准防碰撞的效果的问题。
2、本发明采用“融合”的方法,解决了本领域长期以来自动驾驶车在恶劣天气容易发生碰撞的疑难问题,所述“融合”就是将多种元素组合一起产生了组合以后的效果:包括基于时间空间对齐的混合路段传感器的融合,基于云端粗粒度预测轨迹和车端细粒度预测轨迹算法的融合,基于RTK系统、相机、雷达、毫米波雷达在不同天气、不同距离、不同信号路段下,传感器感知结果置信度的融合,基于轨迹预测时将历史前n秒数据和未来后m秒被采集数据的融合,基于自车确定所需预测信息范围时自车定位信息和高精地图车道信息相结合的融合。通过多种融合方法解决了恶劣天气下正常信号路段和不正常信号路段传感器感知结果差别很大的难题;不同天气、不同距离、不同传感器类型、等级对感知效果差别很大的难题;自车在恶劣天气更加依赖于云端的预测轨迹,而云端只能给出粗粒度预测轨迹的难题。
附图说明
图1为本发明一种自动驾驶车在恶劣天气防碰撞方法流程图;
图2为本发明tRTK时刻的RTK与IMU的位姿转换关系
Figure BDA0003675479050000141
示意图;
图3为本发明完成最终的IMU位置转换示意图;
图4为本发明以相机传感器为例的传感器不同等级的置信度打分;
图5为本发明根据传感器类型和距离进行置信度打分;
图6为本发明根据天气情况调整相机与激光雷达传感器置信度的权重ω;
图7为本发明云端中所有与其融合相关信息的整体模型示意图;
图8为本发明自车向云端申请获取预测信息的横向范围示意图;
图9为本发明自车向云端申请获取预测信息的纵向范围示意图;
图10为本发明云端向车端下发的未来m秒的自车和他车预测轨迹;
图10-1为本发明判断θ1、θ2同时大于或小于90°时轨迹是否重合示意图;
图10-2为本发明判断θ1、θ2不同时大于或小于90°时轨迹是否重合示意图。
具体实施方式
本发明设计原理:
1、动态传感器置信度设计原理。动态传感器置信度,就是自动驾驶车在行驶过程中,通过实时判断当前天气、实时判断自车和障碍物的距离、实时判断当前干扰物的级别和能见度的级别,对外部传感器此时此刻采集数据的置信度给予动态评分。
当天气晴朗时,激光雷达比较毫米波雷达而言具有探测精度高、探测范围广及稳定性强等优点,毫米波雷达虽然不受天气影响,但是采集的数据比较模糊,所以天气正常的时候主要用激光雷达和相机,激光雷达置信度分数最高、相机次之、毫米波置信度最低;激光雷达有个基础分数1.2,当距离小于等于80米,分数为1.2,当距离大于80米,分数会随着距离S的增大而减小。而RTK不受距离远近的影响,在天气正常时,置信度始终为1,当天气晴朗且距离大于96米时,激光雷达的置信度分数小于1,此时RTK的置信度最高;相机和毫米波雷达相比,当天气晴朗时,同等距离下相机分数高于毫米波雷达分数,但因为相机的分辨率不同,低分辨率的相机置信度又可能低于毫米波置信度度,30万像素和130万像素的相机相比,前者在相同距离内的置信度要低于毫米波雷达的置信度。
当天气恶劣时,相机传感器与激光雷达传感器受恶劣天气影响较大,而毫米波雷达则不受恶劣天气影响。因此,天气恶劣时,毫米波雷达的置信度分值最高,而相机和激光雷达的置信度要按照相机传感器或激光雷达传感器置信度的最终权重ω=ωd·ωv打折扣,最终权重ω主要受干扰物ωd与可见度ωv的影响。当干扰物ωd严重,可见度ωv很低时,最终权重ω的百分数值越小,例如当扬沙和雾霾、阴天、晴天三种天气相比,干扰物权重ωd分别为0.6、0.9、1,当光照度L<300lux、≥300lux时,可见度权重ωv分别为L/300、1,可见,当扬沙和雾霾且当光照度L<300lux时,最终权重ω=ωd·ωv百分数越小,则此时相机或雷达的置信分数也最小。该置信分数=权重ω*基础分数。
干扰物指雨雪等天气的水汽等颗粒,它们主要是通过附着在传感器摄像头屏幕上、在空气中形成大团可被认定为障碍物的水汽等的方式来对相机、激光雷达传感器进行干扰;可见度主要是通过光线强弱等因素对相机、激光雷达传感器进行干扰,传感器对于物体的识别能力(尤其是对颜色相近的物体的识别能力)会随可见度的减少而降低。自车的干扰物可以借助雨刷频率、联网获取的实时天气状况等来对干扰物权重ωd进行衡量;自车可以借助当前光照感知情况等来可见度权重ωy进行衡量。此外,RTK也具有相应的权重ω,受高架桥隧道等道路状况与雷雨台风等天气状况的影响,不受观测距离的影响。
2、基于置信度的云端数据融合设计原理。云端数据融合的中心任务就是从众多传感器上传的感知结果中找出某一时刻观测objecti位姿的最为准确的点作为聚类中心,该聚类中心用于构成预测轨迹上的每个点。简单来说即以四种传感器(相机传感器、激光雷达传感器、毫米波雷达传感器、RTK)中置信度最高的传感器的感知结果作为聚类中心。
1)列举云端在四种天气情况下,选取置信度最大值对应的objecti位姿作为聚类中心。云端取外部传感器某一时刻对于objecti的观测置信度
Figure BDA0003675479050000161
中的最大值与同一时刻objecti自车上传的RTK置信度
Figure BDA0003675479050000162
做比较,取置信度最大值对应的objecti位姿信息作为聚类中心。
当天气晴朗、且观测距离不大于80米时,雷达的观测置信度
Figure BDA0003675479050000163
最高,取雷达观测objecti位姿信息作为聚类中心;
当天气晴朗、且观测距离远大于80米时,雷达的观测置信度
Figure BDA0003675479050000171
小于1,此时objecti自车上传的
Figure BDA0003675479050000173
置信度最高,RTK置信度一直为1,取自车上传的RTK位姿信息作为聚类中心;
当雨雪天气,相机传感器与激光雷达传感器受恶劣天气影响较大,需要根据天气情况调整相机传感器与激光雷达传感器置信度的最终权重ω。该最终权重ω主要受干扰物ωd与可见度ωv的影响:ω=ωd·ωv
Figure BDA0003675479050000174
由于作为公式系数的最终权重ω小于1,所以,相机置信度分数visionV_object_obser〈1,而毫米波雷达则不受恶劣天气影响,ω为1,此时毫米波雷达的置信度
Figure BDA0003675479050000176
最高,取毫米波雷达观测的objecti位姿信息作为聚类中心;
当晴朗天气,观测距离大于80米但雷达
Figure BDA0003675479050000177
的置信度不小于1时,由于自动驾驶车行驶在高架桥等上方有遮挡物的地段,或者行驶在隧道中时,此时RTK信号不稳定,RTK置信度小于1,此时雷达
Figure BDA0003675479050000178
的置信度虽然降为1但仍然是最高的,取雷达观测对应的objecti位姿信息作为聚类中心;
2)当选取相机、激光雷达、毫米波雷达三种传感器采集的信息作为聚类中心时,中心点所在位置为被采集车辆的后轴中心,当选取RTK采集的信息作为聚类中心时,将其采集中心点由几何中心转换到后轴中心,并将其后轴中心作为聚类中心;
3、云端和车端粗细结合预测轨迹的设计原理。云端是粗粒度的轨迹预测,车端是细粒度的轨迹预测,由于粗粒度预测轨迹只代表车辆几何中心点的预测轨迹,车辆的长宽等尺寸信息无法在粗粒度轨迹上表示,因此车端细粒度预测轨迹的作用在于把车宽、车长的因素也考虑进去,当两车相蹭时,虽然两条轨迹各自的轨迹点还没有相交,但因为车宽或车长的原因两车已经相蹭了。
车端计算两车轨迹重合有几个条件,第一,获得当前时刻车辆行驶方向,方法为:对于某一时刻来说,获取自车当前时刻与下一时刻(0.01s后)预测点间的连线,获取他车当前时刻与下一时刻(0.01s后)预测点间的连线,连线的方向即为车辆行驶的方向;第二,获取两车已经走过的轨迹或当前自车和他车所在轨迹的点,如图9,该自车和他车走过的轨迹为两条轨迹分别从出发点到t1时刻的两条实线;第三,将自车和他车在t1时刻的两点连接为L,两点分别和车体前进方向作垂线c1、c2,获取车辆后几何中心到车前端或车后端的长度b1、b2,L和b1的夹角为θ1,L和b2的夹角为θ2,通过b1和θ1计算出a1,通过b2和θ2计算出a2,若θ1/2<90°,两车连线位于车体外部部分的长度L大于a1+a2时,则不会发生碰撞;对于θ1、θ2同时大于或小于90°时,两车间是否有碰撞风险主要受车宽影响,本发明使用min=a1+a2+c1/sinθ1+c2/sinθ2与两车间连线L的实际长度进行比较(c1/2代表车辆后轴中心到车长边一侧的距离,即车宽的一半),若L>min,则无碰撞风险,否则有碰撞风险;当θ1、θ2不同时大于或小于90°时,两车间是否有碰撞风险主要受车长影响,本发明使用min=a1+a2与两车间连线L的实际长度进行比较,若L>min,则无碰撞风险,否则有碰撞风险。
基于以上原理,本发明设计了一种自动驾驶车在恶劣天气防碰撞方法,该方法如图1所示,包括以下步骤:
步骤一、自车数据采集与融合,通过自车的车载传感器进行自车位姿信息与其他车辆信息采集,对所有外部传感器进行置信度判定,将同种传感器数据进行时间空间对齐后上传至云端;
步骤二、云端数据融合,对于多车辆上传的数据进行聚类,对聚类为同一辆车的数据进行时间空间对齐;
步骤三、路况融合预测,界定预测范围和优先级,并传达范围内的预测结果;
步骤四、风险规避,判断自车和其他车的运动轨迹是否存在碰撞危险,存在危险时利用TTC紧急制动模型采取警告或制动措施;
其特点是:
所述步骤一的自车位姿信息采集,通过RTK和IMU+轮速组成的高精组合惯导,实现基于混合路段时间空间对齐的自车车辆定位;所述步骤一的其他车辆信息采集,通过对外部传感器采集数据的动态置信度判定进行他车车辆的定位;所述外部传感器包括安装在自车上的相机、毫米波雷达、激光雷达;所述混合路段包括信号正常的路段和信号不稳定的路段;
所述步骤二的云端数据融合,将置信度最高的传感器感知结果作为聚类中心;
所述步骤四的风险规避,将云端粗粒度预测轨迹和自车细粒度预测轨迹两种优势相结合,实现自动驾驶车的精准防碰撞。
进一步地,所述步骤一的自车位姿信息采集,通过RTK和IMU+轮速组成的高精组合惯导,实现基于混合路段时间空间对齐的自车车辆定位,具体过程如下:
1)在信号正常的道路中行驶时,使用RTK进行车辆定位;
2)在车辆通过高架桥底信号不稳定的路段或由于雨雪雷电等恶劣天气导致信号不稳定时,在信号不稳定前的原有RTK数据基础上使用IMU+轮速持续进行车辆定位。
补充说明1
本发明主要着力于解决雨雪等恶劣天气下,车辆相机传感器、激光雷达传感器因能见度不高、环境整体色调不明朗等原因;以及车辆采集周围信息的某个或某些传感器故障等原因,导致的无法精确有效的进行周围信息采集的情况。
在车辆自身定位方面,车辆主要是通过RTK和IMU+轮速组成的高精组合惯导来进行车辆定位。由于IMU+轮速的特点(累计误差),因此在信号正常的道路中行驶时,主要使用RTK进行车辆定位;而在车辆通过高架桥底等信号不稳定的路段或由于雨雪雷电等恶劣天气导致信号不稳定时,在信号不稳定前的原有RTK数据基础上使用IMU+轮速持续进行车辆定位。
由于车辆RTK的定位数据是基于世界坐标系的数据,而IMU+轮速采集的数据是基于IMU自身坐标系的数据,且RTK与IMU的采集频率也不相同,因此在信号不稳定需要同时借助RTK与IMU+轮速进行车辆定位的时候,需要先进行RTK数据与IMU+轮速数据间的时间空间对齐。
进一步地,所述步骤一的过程2)的具体步骤如下:
①设定IMU的坐标系与车体坐标系一致,所述车体坐标系为:以车辆后轴中心为原点,车辆前进方向为正前方,x轴指向正前方,y轴指向正左方,z轴指向正上方;
②进行RTK数据
Figure BDA0003675479050000201
与IMU+轮速数据间的时间、空间对齐,RTK采集的数据
Figure BDA0003675479050000202
位于世界坐标系下,右上角角标W代表世界坐标系;所述进行RTK数据与IMU+轮速数据间的时间、空间对齐,即为求得IMU在tRTK时刻的车体坐标系下的位姿
Figure BDA0003675479050000203
B代表车体坐标系。
进一步地,所述过程②的时间空间对齐方法如图2、图3所示,具体如下:
a.取信号不稳或信号消失前的最后一个采集的RTK数据,将其对应的时间记为tRTK,找到最接近且早于tRTK时刻的第一个IMU数据作为起点tstart,最接近且刚好晚于tRTK时刻的IMU数据时间作为终点tend
b.在tRTK时刻基于世界坐标系的RTK位姿为
Figure BDA0003675479050000211
tstart与tend时刻基于IMU坐标系的IMU位姿为
Figure BDA0003675479050000212
B代表Body,即车体坐标系;借助IMU数据
Figure BDA0003675479050000213
使用线性插值法获取tRTK时刻的IMU在tRTK时刻的位姿数据
Figure BDA0003675479050000214
该线性插值法即,
Figure BDA0003675479050000215
其中,tRTK=0.01;tstart=0;tend为0.01_0.011;IMU在车体坐标系下的位姿
Figure BDA0003675479050000216
为已知,根据上述已知条件可求出IMU在RTK时刻的车体坐标系下的位姿
Figure BDA0003675479050000217
由此实现IMU和RTK的时间对齐;
c.借助
Figure BDA0003675479050000218
其中
Figure BDA0003675479050000219
为已知,获取tRTK时刻的RTK与IMU的位姿转换关系
Figure BDA00036754790500002110
WB代表从世界坐标系转到车体坐标系;
d.获得车辆在tRTK到tend时间段内的位姿变换ΔTR-e具体为:
所述借助轮速获得车辆在
tRTK到tend时间段内沿x轴方向的平移量Δx;借助IMU使用线性插值法获得车辆在tRTK到tend时间段内的在x、y、z不同方向上的旋转角度Δyaw、Δpitch和Δroll,通过旋转角差Δyaw、Δpitch、Δroll与平移量Δx积分获得车辆在tRTK到tend时间段内沿y轴和z轴方向上的平移量Δy、Δz,即可获得车辆在tRTK到tend时间段内的位姿变换ΔTR-e
根据
Figure BDA00036754790500002111
获取从tRTK到tend时刻的RTK与IMU的位姿转换关系
Figure BDA00036754790500002112
上述公式等号左边
Figure BDA00036754790500002113
为已知,ΔTR-e为已知,因此可求出
Figure BDA00036754790500002114
求出此后的信号不稳定的每个时刻timu,从tRTK到timu时刻的RTK与IMU的
位姿转换关系
Figure BDA00036754790500002115
即用timu替换tend时刻,timu时刻不一定是最接近且刚好晚于tRTK时刻的IMU数据采集时间;
借助
Figure BDA0003675479050000221
可以获取IMU采集数据在世界坐标系下的坐标。
进一步地,所述步骤一的其他车辆信息采集,通过对外部传感器采集数据的动态置信度判定,进行他车车辆的定位,具体过程如下:
1)根据相机分辨率不同对相机进行动态置信度判断;
2)根据传感器类型和观测距离不同对传感器进行动态置信度判断;
3)根据天气情况动态调整相机传感器、及激光雷达传感器的置信度权重ω;
4)当存在不止一个相机传感器、或雷达传感器、或毫米波雷达检测到object,需要将各个传感器的置信度进行平均来计算信息的可信度,以相机置信度模型为例,相机置信度最终模型表示为:
Figure BDA0003675479050000222
相机置信度模型包括但不限于自身等级vision_ranki、与观测物体的距离vision_disV_object_obser,i,其他外部传感器同理,激光雷达传感器最终置信度表示为lidarV_object_obser;毫米波雷达传感器最终置信度表示为radarV_object_obser;毫米波雷达传感器不受天气影响,其对应的ω=1;RTK也具有相应的权重ω,受高架桥隧道等道路状况与雷雨台风等天气状况的影响,不受观测距离的影响。进一步地,所述步骤一的其他车辆信息采集的过程1)根据相机分辨率不同对相机进行动态置信度判断,以视觉传感器为例,相应的模型如下所示:
Figure BDA0003675479050000223
如图4所示,当相机分辨率(vision)为30万像素(rank1)、50万像素(rank2)、80万像素(rank3)、130万像素(rank4)时,分数分别为:0.4a、0.6a、0.8a、a,a为正常置信分数;
如图5所示,所述步骤一的其他车辆信息采集的过程2)根据传感器类型和观测距离不同对传感器进行动态置信度判断,具体如下:
当传感器类型为Lidar、Radar、Vision、RTK时,根据观测距离的远近,置信分数不同:
Lidar:观测距离为0-80时,置信分数为1.2;观测距离为>80时;置信分数为
Figure BDA0003675479050000231
雷达的基础分数为1.2,随着距离S的增加,当S大于80米,雷达的置信度分数在基础分数基础上下降;
Radar:观测距离为0-80时,置信分数为1.0;观测距离为>80时;置信分数为
Figure BDA0003675479050000232
毫米波雷达的基础分数为1,随着距离S的增加,当S大于80米,雷达的置信度分数在基础分数基础上下降;
Vision:观测距离为0-100时,置信分数为0.8;观测距离为>100时;置信分数为
Figure BDA0003675479050000233
相机的基础分数为0.8,随着距离S的增加,当S大于100米,相机的置信度分数在基础分数基础上下降;
RTK:RTK系统置信分数不受观测距离影响,置信分数均为1;但当自车行驶在高架桥下或隧道中,RTK系统的置信分数小于1,遇到台风天气电离层发生波动,RTK系统的置信分数小于1;
补充说明2:
最重要的是,相机传感器与激光雷达传感器受恶劣天气影响较大,而毫米波雷达则不受恶劣天气影响。因此需要根据天气情况调整相机传感器与激光雷达传感器置信度的权重ω。
(注,本文借助雨刷频率、实时天气状况来展示干扰物权重ωd的衡量情况,借助光照感知情况来展示可见度权重ωv的衡量情况,并不代表干扰物权重、可见度权重仅能用这三项进行衡量,其他可对干扰物权重、可见度权重进行衡量的因素,如高动态范围、量化位数等均在本专利的保护范围内)
进一步地,所述步骤一的其他车辆信息采集的过程3)的根据天气情况动态调整相机传感器、及激光雷达传感器的置信度权重ω,具体为:
a.相机传感器或激光雷达传感器置信度的最终权重ω=ωd·ωv
其中,权重ω主要受干扰物ωd与可见度ωv的影响;
b.可见度通过光线强弱等因素对相机、激光雷达进行干扰的权重判定:
如图6所示,当光照度L分别为<300lux、≥300lux时,可见度权重ωv分别为L/300、1;
c.干扰物通过附着在传感器摄像头等屏幕上、在空气中形成大团可被认定为障碍物的水汽等的方式来对相机、激光雷达传感器进行干扰的权重判定:
当雨刷频率分别为>50次/min、35-50次/min、<35次/min时,干扰物权重ωd分别为:0.2、0.5、0.8;在雨刷未开启时,受环境中存在的固、液态小颗粒的影响,当天气分别为扬沙或雾霾、阴天、晴天时,干扰物权重ωd分别为0.6、0.9、1,扬沙或雾霾、阴天、晴天通过联网获取当前天气预报来判定。
补充说明3
对于自车V,由于采集车辆周围信息的某种传感器存在不止一个,且一种传感器虽然有相同的采集频率,但每次采集的时间不一定相同,因此在完成某种传感器的数据采集后,需要将初始数据进行时间空间对齐(这里借助RTK进行多传感器的时间空间对齐。以毫米波雷达为例,对于需要使用IMU+轮速的情况,因需先通过上方已述步骤将其数据转换到RTK所在的世界坐标系下,因此在后续与毫米波雷达进行融合时等同于毫米波雷达仅与RTK融合):
1)本发明的汽车中搭载了5颗毫米波雷达,其中1颗正向雷达、4颗角雷达,均为长距离雷达(LRR),具有相同的采集频率,但5颗雷达采集开始的时间不一定相同。由于采集频率问题,RTK的采集时间不一定与毫米波雷达的时间相同,这里认为采集时间均未重合(若重合直接取对应的RTK位姿信息作为毫米波雷达的位姿信息即可)。
2)针对于某一时刻tn的毫米波雷达采集样本(n=1,2,3,4,5,分别代表5个毫米波雷达,其中n=1时代表正向雷达,n=2,3,4,5时代表角雷达),取早于且最接近tn时刻的基于世界坐标系的RTK位姿
Figure BDA0003675479050000251
与其对应时刻tn,RQ;取晚于且最接近tn时刻的基于世界坐标系的RTK位姿
Figure BDA0003675479050000252
与其对应时刻tn,RH。根据线性插值法求在tn时刻车辆位姿
Figure BDA0003675479050000253
3)用基于正向雷达在t1时刻所对应的位姿
Figure BDA0003675479050000254
和角雷达在tn时刻所对应的位姿
Figure BDA0003675479050000255
(此处,n=2,3,4,5,且n不同时tn不一定相同,但对于每一次采集,两两数据间的采集时间间隔相同,如各雷达第1次采集时t1与t2间的时间间隔与第2次采集时t1与t2间的时间间隔相同)通过公式
Figure BDA0003675479050000256
可求同次采集在Δt时间内基于世界坐标系下的正向雷达与角雷达的位姿差ΔTΔt
4)将所有毫米波雷达采集的数据,通过PB=TBR·PR空间变换到车体坐标系上(根据雷达与车体的内外参获取车体与雷达间的位姿变换矩阵TBR,其中R代表毫米波雷达自身坐标系;PB\R指毫米波雷达采集的基于车体坐标系\毫米波雷达坐标系的车辆位置);通过
Figure BDA0003675479050000257
即可将所有角雷达在tn时刻采集的车辆位置信息
Figure BDA0003675479050000258
对齐到正向雷达t1时刻,
Figure BDA0003675479050000259
代表对齐到t1时刻后的所有角雷达采集的车辆位置信息,从而完成毫米波雷达之间的时间空间对齐,将不同视角不同时间的某一次采集的雷达数据合成同一时刻360°范围的车辆周围信息数据。
将上述基于车体的毫米波雷达数据,转换到基于世界坐标系的下的数据:借助上述以求得的在t1时刻的世界坐标系下的位姿
Figure BDA0003675479050000261
结合t1时刻基于车体坐标系下的位姿
Figure BDA0003675479050000262
通过
Figure BDA0003675479050000263
获得t1时刻世界坐标系与车体坐标系的转换关系
Figure BDA0003675479050000264
借助转换关系,获取t1时刻车辆在世界坐标下的位置
Figure BDA0003675479050000265
其中,
Figure BDA0003675479050000266
代表t1时刻车辆在车体坐标系下的位置。
将相机、激光雷达、毫米波雷达传感器均按照上述方式完成同种类内部的融合,从而完成自车数据的采集与融合,将传感器置信度附加到融合后的数据中,所得的数据即为自车车辆对周围环境的感知结果。
进一步地,所述步骤二的云端数据融合,将置信度最高的传感器感知结果作为聚类中心,具体过程如下:
1)建立云中针对某一目标车辆objecti的所有与其融合相关信息的整体模型,整体模型中包括目标车objecti的状态、位置信息,以及其他车辆Vj对objecti的观测信息:
Figure BDA0003675479050000267
如图7所示,objecti_status:objecti车自身向云端上传自车车位信息、以及自车的外部传感器观测Vj车的信息,该外部传感器包括视觉传感器、激光雷达、毫米波雷达;
Vj_objecti_obser:vj车对objecti车的观测信息;
Figure BDA0003675479050000268
RTK系统提供的信息,包含时间戳与位置信息;该RTK系统提供的信息包括自车处于信号正常路段、以及信号不稳定路段的信息,当处于信号正常路段时,只提供RTK提供的自车的位置信息而无需提供IMU和轮速的信息,当处于信号不稳定路段时,RTK系统提供的信息是IMU和RTK进行时间和空间对齐以后的IMU和轮速提供的自车的位置信息;
Figure BDA0003675479050000271
Vj车上传的对于
Figure BDA0003675479050000272
车的视觉传感器信息;
Figure BDA0003675479050000273
Vj车上传的对于
Figure BDA0003675479050000274
车的激光雷达信息;
Figure BDA0003675479050000275
Vj车上传的对于
Figure BDA0003675479050000276
车的毫米波雷达信息;
补充说明4
自车将获取的数据进行自车多种传感器内部融合后,将处理完成的数据通过无线网络上传至云端系统,上传至云端的数据为车辆端融合好的某一时刻的道路信息数据,上传频率为车辆RTK采集频率,数据内容包括,对齐后的某种传感器采集的周围障碍物数据(含置信度、时间信息、障碍物位置信息、障碍物粗略长宽大小信息),自车的RTK\IMU等位置及其对应的时间相关信息、轮速等速度相关信息,以及自车基于目的地的导航路径。云端系统是以世界坐标系原点为原点的高精地图系统,支持对各个车辆上传数据进行融合。
2)遍历云端所有的objecti,并进行多传感器间的时间对齐,即对多车上传的数据(包括,objecti车自身的RTK信息
Figure BDA0003675479050000277
其他车Vj对objecti车的观测信息
Figure BDA0003675479050000278
)进行基于时间戳的时间空间对齐;所述时间戳对齐到北京时间每0.01s的整点,按四舍五入进行时间戳的同步;
补充说明:5
假设对某辆车objecti,有其他两辆车V1和V2,在某日中午1点左右向云端上传了其对objecti的观测信息。以中午1:00:00.00到1:00:00.03时间段为例(后续用00.03代替1:00:00.03进行描述),objecti在时间段内上传的时间为00.002、00.012、00.022;V1在时间段内上传的时间为00.004、00.014、00.024;V2在时间段内上传的时间为00.006、00.016、00.026。
在按四舍五入进行时间戳的同步时,将objecti中时间戳为00.002秒的数据、V1中时间戳为00.004秒的数据基于00.OOs进行时间空间同步;将objeoti中时间戳为00.012秒的数据、V1中时间戳为00.014秒的数据、V2中时间戳为00.006秒的数据基于00.01s进行时间空间同步,以此类推。
补充说明6
遍历云端所有的objecti,并进行多传感器间的时间对齐(时间戳对齐到北京时间每0.01s的整点,按四舍五入进行时间戳的同步),对多车上传的数据进行基于时间戳的时间空间对齐:
1)针对于某一时间戳时刻t范围内[t-0.005s,t+0.005s)包含的所有采集的n个样本,样本对应的时刻为tn,获取其与时间戳t时刻间的时间差Δtn,n=1,2,3,…;
2)取时间段最短的包含tn与时刻t的RTK位姿
Figure BDA0003675479050000281
根据线性插值法求样本n在tn时刻的RTK位姿
Figure BDA0003675479050000282
与样本在t时刻的位姿
Figure BDA0003675479050000283
并借助
Figure BDA0003675479050000284
求在Δtn时间内基于世界坐标系下的样本n产生的位姿变换
Figure BDA0003675479050000285
3)通过
Figure BDA0003675479050000286
对时间范围内的所有传感器数据采集的所有样本n,进行基于t时刻的时间空间对齐。
补充说明7:
P是一个代表车辆位置的点,
Figure BDA0003675479050000287
代表t时刻样本n所对应的车辆在世界坐标系中的位置;
Figure BDA0003675479050000288
代表tn时刻样本n所对应的车辆在世界坐标系中的位置。该位置不具有车辆的长宽等尺寸属性,是车辆上同类传感器内部对齐到的位置,对RTK来说该位置位于车辆几何中心,对于外部传感器来说该位置位于车辆后轴中心。
对对齐后的数据做基于密度的聚类操作,具体操作步骤在权利要求书中体现。
3)以相机传感器、激光雷达传感器、毫米波雷达传感器、RTK四种传感器中置信度最高的传感器的感知结果作为聚类中心;当选取RTK采集的信息作为聚类中心时,将其采集中心点由几何中心转换到后轴中心,并将其后轴中心作为聚类中心;
4)将同一聚类结果内的数据,判定为同一车辆objecti在某一时刻的所有相关数据,并对所有相关数据进行下一步的融合:
Figure BDA0003675479050000291
objecti的置信度分数越高则代表融合后的感知结果可信度越高。
补充说明:8:
当目标获得的分数objecti小于1时,本方案认为其准确性过小,存在一定的误差,将会放低之后对其轨迹预测的优先级。借助道路上所有车辆上传的周围信息数据,获得以0.01s为更新频率的云端高精地图系统。
进一步地,所述步骤三的路况融合预测,具体过程如下:
1)设定跟踪n秒内的历史轨迹结合上传的车辆目的地,在云端进行m秒范围内的轨迹预测;所述跟踪的n秒是因为要预测m秒的轨迹需要长达n秒范围内的数据做支撑才会比较准确,实时性问题是借助m秒的预测解决的,车辆的处理传输速度是毫秒级的,所述s是要保证整个过程的时间该过程包括:采集融合—>云端处理—>自车申请预测数据与范围界定—>云端传输预测结果—>自车轨迹实时对齐—>风险碰撞—>紧急制动预留时间;所述的n秒包括5秒,所述的m秒包括15秒;
补充说明9:
在恶劣天气下,由于自车的观测范围较平时更为局限,因此更为依赖云端实时路况进行安全的自动驾驶。由于从众车辆采集数据上传到云端,到自车从云端获取数据有一定的时间差,因此云端向车辆传输的数据需要有一定的前瞻性。本发明通过跟踪5s内的历史轨迹结合车辆目的地,在云端进行15s范围内的轨迹预测,来解决数据传输处理需要时间从而导致的车辆从云端获取的数据实时性不高的问题。
根据各个车辆的无障碍情况下的规划路线(以目的地为导向的路线),基于车辆上传至云端的IMU、轮速、PTK等位置与速度信息,结合车辆5s内的历史轨迹,使用LSTM对云端所有车辆15s内的轨迹进行预测。并随车辆上传的轮速等速度信息的改变,不断的进行预测路径的调整。
自车在需要借助云端系统进行风险规避时,从云端系统申请自己需要范围内的预测信息,来进行风险规避。
2)根据各个车辆的无障碍情况下的规划路线,该规划路线为以目的地为导向的路线,基于车辆上传至云端的IMU、轮速、PTK等位置与速度信息,结合车辆n秒内的历史轨迹,使用LSTM对云端所有车辆m秒内的轨迹进行预测;并随车辆上传的轮速等速度信息的改变,不断的进行预测路径的调整。
所述步骤三的界定预测范围和优先级,并传达范围内的预测结果,具体过程如下:
1)确定自车所需预测信息的范围,并确定优先级;所述确定自车所需预测信息的范围,包括横向范围、纵向范围;所述确定优先级:对有高精地图的区域确立优先级,云端系统仅发送具有优先级的范围内的数据;对于无高精地图的区域,云端系统发送自车以纵向数据采集范围为半径的圆内的所有预测信息,该范围内所有数据具有同一优先级;对于同一优先级的结果,根据障碍物车辆与自车的直线距离先后进行风险判定;
进一步地,如图8所示,所述横向范围,包括以下几点:
1)有高精地图的判断
若当前行驶道路有高精地图,采用高精地图与定位系统相结合的方式:
A、基于高精地图的车道信息确定横向范围:通过定位系统确定车辆的实时位置,基于高精地图可以确定行驶车辆在哪条车道上,缩小搜索范围,提高系统的运算速度与准确性;
B、基于高精地图的物理隔栏信息确定横向范围:道路上的车辆分为与自车同向行驶的车辆和与自车反向行驶的车辆,在封闭道路中有物理隔离时,如隔离带或围栏,隔离带和围栏会降低发生事故的概率,则只考虑与自车行驶方向相同的车辆的行驶状态;在城区道路中时道路情况比较复杂,无法确定是否有物理隔离时,出于保证驾驶安全的需求,需要考虑与自车行驶方向相同和相反的车辆的行驶状态;
C、优先级的判断
第一危险优先级:与自车行驶车道为同一条车道的前后车辆信息;
第二危险优先级:与自车行驶车道相邻的车道的车辆信息;
第三危险优先级:与自车行驶方向相同但是不相邻的车道的车辆信息
第四危险优先级:与自车行驶方向相反但相邻车道的车辆信息;
2)没有高精地图的判断
若当前行驶道路不存在云端高精地图,则取以自车车辆后轴中心为中点、垂直车辆前进方向的10米范围为横向界定范围,取范围内所有的车辆预测轨迹进行判断,以确保行车安全。
进一步地,所述纵向范围如图9所示,包括以下几点:
1)根据车速确定纵向范围
当车速为0-30、30-60、60-90、90-120以上时,采集范围为前后30m、前后70m、前后130m、前后200m、前后230m;
2)当自车预计15s内的采集范围为直线道路范围时
不论当前云端存在或不存在当前道路的高精地图,均根据车辆实时位置沿车辆前进方向进行纵向范围内信息采集;
3)当自车预计15s内的采集范围为非直线道路范围时
A、若云端存在当前道路的高精地图,则借助高精地图,准确获取道路信息,如转弯时道路的转弯半径、曲率、转弯中心点等,借此划定出与行驶道路相近的采集范围,但需要将直线的长度转化为弯曲弧线的长度;
B、若云端不存在当前道路的高精地图,无法根据转弯半径、曲率、转弯中心点等信息进行准确的与行驶道路相近形状的采集范围的划定,则在弯道路上进行信息的采集,基于车速获取纵向采集长度。
C、优先级的判断
根据不同车辆距离自车的距离设定相应优先级,所述距离为两车的车辆后轴中心的距离,距离自车距离近的车辆需要设定较高的优先级。
补充说明10:
值得注意的是,车辆向云端上传数据的频率为100Hz,同时云端也以100Hz的频率向车辆传递预测信息,因此纵向范围的方向会随车辆行驶方向的改变而改变,变化频率为100Hz。
在云端进行搜索时,根据与本车的车道关系与距离关系两个方面的因素(无高精地图时,仅考虑距离关系)对自车范围内的车辆进行选择,通过选择,本方案可以有效地利用运算系统的计算能力,根据信息提供的优先级选择周边的车辆,先采集与自车距离较近的、发生碰撞危险性大的车辆的信息,之后采集危险性低的,以此提高车辆行驶的安全性。
2)云端系统按照优先级顺序向申请车辆发送界定范围内的所有轨迹预测信息;所述云端系统按照优先级顺序向申请车辆发送界定范围内的所有轨迹预测信息,该轨迹信息是由m*0.01得到m*0.01个点的连线,其中,m包括15秒,0.01是RTK的频率。
进一步地,所述步骤四的风险规避,将云端粗粒度预测轨迹和自车细粒度预测轨迹两种优势相结合,实现自动驾驶车的精准防碰撞,具体步骤如下:
1)从云端获取申请范围内当前时刻前n秒、以及当前时刻的后m秒的多条轨迹;该多条轨迹包含自车的预测轨迹与其他车辆的预测轨迹;
2)判断自车的预测轨迹是否会与其他车辆的预测轨迹发生重合;
补充说明11:
若自车的预测轨迹与其他车辆的预测轨迹并不存在碰撞风险,则按当前的行驶方式继续行驶;若自车的预测轨迹与其他车辆的预测轨迹间存在碰撞风险,则进入风险规避。
对于云端系统向自车发送界定范围内的所有轨迹预测信息,由于信息的传输具有一定的延时性,因此需先利用时间戳将自车预测轨迹时间戳对齐到当前实际时间戳。设自车当前的实时时间为tn,获取的预测信息中的时间戳为tp,将预测的所有轨迹位置从tp调整到tn时刻对应的位置。完成自车时间戳跟轨迹预测时间戳的对齐。
对齐后建立TTC自动紧急制动模型,根据实验确定出TTC模型的阈值(该阈值有固定规范,跟车辆速度、车辆间的距离等多种因素相关),当判断出两车的预测运动轨迹将相撞且达到TTC阈值时,启动自动紧急制动系统,来保证行驶的安全性。
自动紧急制动系统由获取轨迹预测信息模块、自动紧急制动控制器、车身电子稳定系统控制器和制动执行机构模块组成。
自动紧急制动控制器是自动紧急制动系统中的关键部分,对于与自车预计轨迹有所重合的障碍物车辆,若自车实时位置相对靠前,则自车以当前110%的速度加速运行(变速所需时间由TTC值决定,但若需自车加速,则自车加速最高不超过当前道路允许的最高时速。在自车速度加速到最高时速后仍有碰撞风险的情况比较少见,主要集中在后车突然加速或预计变道插入本车后方,因此当本车加速到最高时速后仍有碰撞风险时,剩下的避障过程由与本车有碰撞风险的其他车辆减速完成);若自车实时位置相对靠后,则自车90%的速度减速运行。值得注意的是,加速减速之后若出现新的轨迹预计重合点,则仍使用该方法进行自车车速调整。
3)若自车的预测轨迹与其他车辆的预测轨迹间存在碰撞风险,则启动自动紧急制动,自动紧急制动系统分级制动模型根据碰撞时间TTC大小分为三级,包括预警、一级制动、二级制动;
所述预警:当实时TTC的值小于预警阈值时,触发预警装置,提示前方有碰撞危险,预警装置由视觉、听觉、触觉传感器组成;
所述一级制动:当实时TTC的值小于一级制动阈值时,触发第一级制动,制动变速幅度较小;
所述二级制动:当实时TTC的值小于二级制动阈值时,触发第二级制动,制动变速幅度较大。
补充说明12:
在本发明实施例中,为保证车辆行驶安全的同时,提高驾驶员驾驶的舒适性,自动紧急制动系统分级制动模型根据碰撞时间TTC大小分为二级,包括预警、一级制动、二级制动。具体的过程如图10所示:
根据驶过轨迹对自车和他车的未来轨迹进行预测,以自车当前的实时时间为t1,判断出轨迹相交点并确定其时间t2,得出轨迹相交点与自车实时时间的时间差△t,将△t与设定的TTC预警阈值进行比较,进行判断预警系统是否工作。
自动紧急制动系统分级制动模型保证在施加制动之前给驾驶员充分的反映时间。该模型逐级施加制动变速幅度,保证在制动过程中有平滑的加速度,不会出现急刹的情况,保证安全的同时提高驾驶员驾驶的舒适性。
所述步骤四的过程2)判断自车的预测轨迹是否会与其他车辆的预测轨迹发生重合如图10-1、10-2所示,具体步骤如下:
1)设云端发出轨迹的时间为t0;
2)设自车接到云端轨迹时刻已走过的轨迹时间为t1;
3)计算t1时刻自车和他车当前轨迹上所在的点;
4)将自车和他车当前轨迹点两点连线为L;
5)L与自车行驶方向的夹角为θ1,L与他车行驶方向的夹角为θ2
6)获取车辆后几何中心到车前端或车后端的长度b1、b2
7)借助|b1/2cosθ1/2|获取平行于连线L的a1/2
8)若θ1、θ2同时大于或小于90°时,当两车连线L位于车体外部部分的长度大于a1+a2时,则不会发生碰撞;两车间是否有碰撞风险主要受车宽影响,设min=a1+a2+c1/sinθ1+c2/sinθ2与两车间连线L的实际长度进行比较若L>min,则无碰撞风险,否则有碰撞风险;
9)当θ1、θ2不同时大于或小于90°时,两车间是否有碰撞风险主要受车长影响,本发明使用min=a1+a2与两车间连线L的实际长度进行比较,若L>min,则无碰撞风险,否则有碰撞风险。
需要强调的是,上述具体实施例仅仅是对本发明的解释,其并不是对本发明的限制,本领域技术人员在阅读完本说明书后可以根据需要对上述实施例做出没有创造性贡献的修改,但只要在本发明的权利要求范围内都受到专利法的保护。

Claims (12)

1.一种自动驾驶车在恶劣天气的防碰撞方法,包括以下步骤:
步骤一、自车数据采集与融合,通过自车的车载传感器进行自车位姿信息与其他车辆信息采集,对所有外部传感器进行置信度判定,将同种传感器数据进行时间空间对齐后上传至云端;
步骤二、云端数据融合,对于多车辆上传的数据进行聚类,对聚类为同一辆车的数据进行时间空间对齐;
步骤三、路况融合预测,界定预测范围和优先级,并传达范围内的预测结果;
步骤四、风险规避,判断自车和其他车的运动轨迹是否存在碰撞危险,存在危险时利用TTC紧急制动模型采取警告或制动措施;
其特征在于:
所述步骤一的自车位姿信息采集,通过RTK和IMU+轮速组成的高精组合惯导,实现基于混合路段时间空间对齐的自车车辆定位;所述步骤一的其他车辆信息采集,通过对外部传感器采集数据的动态置信度判定进行他车车辆的定位;所述外部传感器包括安装在自车上的相机、毫米波雷达、激光雷达;所述混合路段包括信号正常的路段和信号不稳定的路段;
所述步骤二的云端数据融合,将置信度最高的传感器感知结果作为聚类中心;
所述步骤四的风险规避,将云端粗粒度预测轨迹和自车细粒度预测轨迹两种优势相结合,实现自动驾驶车的精准防碰撞。
2.根据权利要求1所述一种自动驾驶车在恶劣天气的防碰撞方法,其特征在于:所述步骤一的自车位姿信息采集,通过RTK和IMU+轮速组成的高精组合惯导,实现基于混合路段时间空间对齐的自车车辆定位,具体过程如下:
1)在信号正常的道路中行驶时,使用RTK进行车辆定位;
2)在车辆通过高架桥底信号不稳定的路段或由于雨雪雷电等恶劣天气导致信号不稳定时,在信号不稳定前的原有RTK数据基础上使用IMU+轮速持续进行车辆定位。
3.根据权利要求2所述一种自动驾驶车在恶劣天气的防碰撞方法,其特征在于:所述步骤一的过程2)的具体步骤如下:
①设定IMU的坐标系与车体坐标系一致,所述车体坐标系为:以车辆后轴中心为原点,车辆前进方向为正前方,x轴指向正前方,y轴指向正左方,z轴指向正上方;
②进行RTK数据
Figure FDA0003675479040000021
与IMU+轮速数据间的时间、空间对齐,RTK采集的数据
Figure FDA0003675479040000022
位于世界坐标系下,右上角角标W代表世界坐标系;所述进行RTK数据与IMU+轮速数据间的时间、空间对齐,即为求得IMU在tRTK时刻的车体坐标系下的位姿
Figure FDA0003675479040000023
B代表车体坐标系。
4.根据权利要求3所述一种自动驾驶车在恶劣天气的防碰撞方法,其特征在于:
所述过程②的时间空间对齐方法,具体如下:
a.取信号不稳或信号消失前的最后一个采集的RTK数据,将其对应的时间记为tRTK,找到最接近且早于tRTK时刻的第一个IMU数据作为起点tstart,最接近且刚好晚于tRTK时刻的IMU数据时间作为终点tend
b.在tRTK时刻基于世界坐标系的RTK位姿为
Figure FDA0003675479040000024
tstart与tend时刻基于IMU坐标系的IMU位姿为
Figure FDA0003675479040000025
B代表Body,即车体坐标系;借助IMU数据
Figure FDA0003675479040000026
Figure FDA0003675479040000031
使用线性插值法获取tRTK时刻的IMU在tRTK时刻的位姿数据
Figure FDA0003675479040000032
该线性插值法即,
Figure FDA0003675479040000033
其中,tRTK=0.01;tstart=0;tend为0.01_0.011;IMU在车体坐标系下的位姿
Figure FDA0003675479040000034
为已知,根据上述已知条件可求出IMU在RTK时刻的车体坐标系下的位姿
Figure FDA0003675479040000035
由此实现IMU和RTK的时间对齐;
c.借助
Figure FDA0003675479040000036
其中
Figure FDA0003675479040000037
为已知,获取tRTK时刻的RTK与IMU的位姿转换关系
Figure FDA0003675479040000038
WB代表从世界坐标系转到车体坐标系;
d.获得车辆在tRTK到tend时间段内的位姿变换ΔTR-e具体为:所述借助轮速获得车辆在tRTK到tend时间段内沿x轴方向的平移量Δx;借助IMU使用线性插值法获得车辆在tRTK到tend时间段内的在x、y、z不同方向上的旋转角度Δyaw、Δpitch和Δroll,通过旋转角差Δyaw、Δpitch、Δroll与平移量Δx积分获得车辆在tRTK到tend时间段内沿y轴和z轴方向上的平移量Δy、Δz,即可获得车辆在tRTK到tend时间段内的位姿变换ΔTR-e
根据
Figure FDA0003675479040000039
获取从tRTK到tend时刻的RTK与IMU的位姿转换关系
Figure FDA00036754790400000310
上述公式等号左边
Figure FDA00036754790400000311
为已知,ΔTR-e为已知,因此可求出
Figure FDA00036754790400000312
求出此后的信号不稳定的每个时刻timu,从tRTK到timu时刻的RTK与IMU的位姿转换关系
Figure FDA00036754790400000313
即用timu替换tend时刻,timu时刻不一定是最接近且刚好晚于tRTK时刻的IMU数据采集时间;
借助
Figure FDA0003675479040000041
可以获取IMU采集数据在世界坐标系下的坐标。
5.根据权利要求1所述一种自动驾驶车在恶劣天气的防碰撞方法,其特征在于:所述步骤一的其他车辆信息采集,通过对外部传感器采集数据的动态置信度判定,进行他车车辆的定位,具体过程如下:
1)根据相机分辨率不同对相机进行动态置信度判断;
2)根据传感器类型和观测距离不同对传感器进行动态置信度判断;
3)根据天气情况动态调整相机传感器、及激光雷达传感器的置信度权重ω;
4)当存在不止一个相机传感器、或雷达传感器、或毫米波雷达检测到object,需要将各个传感器的置信度进行平均来计算信息的可信度,以相机置信度模型为例,相机置信度最终模型表示为:
Figure FDA0003675479040000042
相机置信度模型包括但不限于自身等级vision_ranki、与观测物体的距离vision_disVobject_obser,i,其他外部传感器同理,激光雷达传感器最终置信度表示为lidarV_object_obser;毫米波雷达传感器最终置信度表示为radarV_object_obser;毫米波雷达传感器不受天气影响,其对应的ω=1;RTK也具有相应的权重ω,受高架桥隧道等道路状况与雷雨台风等天气状况的影响,不受观测距离的影响。
6.根据权利要求5所述一种自动驾驶车在恶劣天气的防碰撞方法,其特征在于:所述步骤一的其他车辆信息采集的过程1)根据相机分辨率不同对相机进行动态置信度判断,以视觉传感器为例,相应的模型如下所示:
Figure FDA0003675479040000043
当相机分辨率(vision)为30万像素(rank1)、50万像素(rank2)、80万像素(rank3)、130万像素(rank4)时,分数分别为:0.4a、0.6a、0.8a、a,a为正常置信分数;
所述步骤一的其他车辆信息采集的过程2)根据传感器类型和观测距离不同对传感器进行动态置信度判断,具体如下:
当传感器类型为Lidar、Radar、Vision、RTK时,根据观测距离的远近,置信分数不同:
Lidar:观测距离为0-80时,置信分数为1.2;观测距离为>80时;置信分数为
Figure FDA0003675479040000051
雷达的基础分数为1.2,随着距离S的增加,当S大于80米,雷达的置信度分数在基础分数基础上下降;
Radar:观测距离为0-80时,置信分数为1.0;观测距离为>80时;置信分数为
Figure FDA0003675479040000052
毫米波雷达的基础分数为1,随着距离S的增加,当S大于80米,雷达的置信度分数在基础分数基础上下降;
Vision:观测距离为0-100时,置信分数为0.8;观测距离为>100时;置信分数为
Figure FDA0003675479040000053
相机的基础分数为0.8,随着距离S的增加,当S大于100米,相机的置信度分数在基础分数基础上下降;
RTK:RTK系统置信分数不受观测距离影响,置信分数均为1;但当自车行驶在高架桥下或隧道中,RTK系统的置信分数小于1,遇到台风天气电离层发生波动,RTK系统的置信分数小于1;
所述步骤一的其他车辆信息采集的过程3)的根据天气情况动态调整相机传感器、及激光雷达传感器的置信度权重ω,具体为:
a.相机传感器或激光雷达传感器置信度的最终权重ω=ωd·ωv
其中,权重ω主要受干扰物ωd与可见度ωv的影响;
b.可见度通过光线强弱等因素对相机、激光雷达进行干扰的权重判定:
当光照度L分别为<300lux、≥300lux时,可见度权重ωv分别为L/300、1;
c.干扰物通过附着在传感器摄像头等屏幕上、在空气中形成大团可被认定为障碍物的水汽等的方式来对相机、激光雷达传感器进行干扰的权重判定:
当雨刷频率分别为>50次/min、35-50次/min、<35次/min时,干扰物权重ωd分别为:0.2、0.5、0.8;在雨刷未开启时,受环境中存在的固、液态小颗粒的影响,当天气分别为扬沙或雾霾、阴天、晴天时,干扰物权重ωd分别为0.6、0.9、1,扬沙或雾霾、阴天、晴天通过联网获取当前天气预报来判定。
7.根据权利要求1所述一种自动驾驶车在恶劣天气的防碰撞方法,其特征在于:所述步骤二的云端数据融合,将置信度最高的传感器感知结果作为聚类中心,具体过程如下:
1)建立云中针对某一目标车辆objecti的所有与其融合相关信息的整体模型,整体模型中包括目标车objecti的状态、位置信息,以及其他车辆Vj对objecti的观测信息:
Figure FDA0003675479040000061
objecti_status:objecti车自身向云端上传自车车位信息、以及自车的外部传感器观测Vj车的信息,该外部传感器包括视觉传感器、激光雷达、毫米波雷达;
Vj_objecti_obser:Vj车对objecti车的观测信息;
Figure FDA0003675479040000062
RTK系统提供的信息,包含时间戳与位置信息;该RTK系统提供的信息包括自车处于信号正常路段、以及信号不稳定路段的信息,当处于信号正常路段时,只提供RTK提供的自车的位置信息而无需提供IMU和轮速的信息,当处于信号不稳定路段时,RTK系统提供的信息是IMU和RTK进行时间和空间对齐以后的IMU和轮速提供的自车的位置信息;
Figure FDA0003675479040000071
Vj车上传的对于objecti车的视觉传感器信息;
Figure FDA0003675479040000072
Vj车上传的对于objecti车的激光雷达信息;
Figure FDA0003675479040000073
Vj车上传的对于objecti车的毫米波雷达信息
2)遍历云端所有的objecti,并进行多传感器间的时间对齐,对多车上传的数据进行基于时间戳的时间空间对齐;所述时间戳对齐到北京时间每0.01s的整点,按四舍五入进行时间戳的同步;
3)以相机传感器、激光雷达传感器、毫米波雷达传感器、RTK四种传感器中置信度最高的传感器的感知结果作为聚类中心;当选取RTK采集的信息作为聚类中心时,将其采集中心点由几何中心转换到后轴中心,并将其后轴中心作为聚类中心;
4)将同一聚类结果内的数据,判定为同一车辆objecti在某一时刻的所有相关数据,并对所有相关数据进行下一步的融合:
Figure FDA0003675479040000074
objecti的置信度分数越高则代表融合后的感知结果可信度越高。
8.根据权利要求1所述一种自动驾驶车在恶劣天气的防碰撞方法,其特征在于:所述步骤三的路况融合预测,具体过程如下:
1)设定跟踪n秒内的历史轨迹结合上传的车辆目的地,在云端进行m秒范围内的轨迹预测;所述跟踪的n秒是因为要预测m秒的轨迹需要长达n秒范围内的数据做支撑才会比较准确,实时性问题是借助m秒的预测解决的,车辆的处理传输速度是毫秒级的,所述s是要保证整个过程的时间该过程包括:采集融合—>云端处理—>自车申请预测数据与范围界定—>云端传输预测结果—>自车轨迹实时对齐—>风险碰撞—>紧急制动预留时间;所述的n秒包括5秒,所述的m秒包括15秒;
2)根据各个车辆的无障碍情况下的规划路线,该规划路线为以目的地为导向的路线,基于车辆上传至云端的IMU、轮速、PTK等位置与速度信息,结合车辆n秒内的历史轨迹,使用LSTM对云端所有车辆m秒内的轨迹进行预测;并随车辆上传的轮速等速度信息的改变,不断的进行预测路径的调整。
9.根据权利要求1所述一种自动驾驶车在恶劣天气的防碰撞方法,其特征在于:所述步骤三的界定预测范围和优先级,并传达范围内的预测结果,具体过程如下:
1)确定自车所需预测信息的范围,并确定优先级;所述确定自车所需预测信息的范围,包括横向范围、纵向范围;所述确定优先级:对有高精地图的区域确立优先级,云端系统仅发送具有优先级的范围内的数据;对于无高精地图的区域,云端系统发送自车以纵向数据采集范围为半径的圆内的所有预测信息,该范围内所有数据具有同一优先级;对于同一优先级的结果,根据障碍物车辆与自车的直线距离先后进行风险判定;
2)云端系统按照优先级顺序向申请车辆发送界定范围内的所有轨迹预测信息;所述云端系统按照优先级顺序向申请车辆发送界定范围内的所有轨迹预测信息,该轨迹信息是由m*0.01得到m*0.01个点的连线,其中,m包括15秒,0.01是RTK的频率。
10.根据权利要求1所述一种自动驾驶车在恶劣天气的防碰撞方法,其特征在于:所述步骤四的风险规避,将云端粗粒度预测轨迹和自车细粒度预测轨迹两种优势相结合,实现自动驾驶车的精准防碰撞,具体步骤如下:
1)从云端获取申请范围内当前时刻前n秒、以及当前时刻的后m秒的多条轨迹;该多条轨迹包含自车的预测轨迹与其他车辆的预测轨迹;
2)判断自车的预测轨迹是否会与其他车辆的预测轨迹发生重合;
3)若自车的预测轨迹与其他车辆的预测轨迹间存在碰撞风险,则启动自动紧急制动,自动紧急制动系统分级制动模型根据碰撞时间TTC大小分为三级,包括预警、一级制动、二级制动;
所述预警:当实时TTC的值小于预警阈值时,触发预警装置,提示前方有碰撞危险,预警装置由视觉、听觉、触觉传感器组成;
所述一级制动:当实时TTC的值小于一级制动阈值时,触发第一级制动,制动变速幅度较小;
所述二级制动:当实时TTC的值小于二级制动阈值时,触发第二级制动,制动变速幅度较大;
所述步骤四的过程2)判断自车的预测轨迹是否会与其他车辆的预测轨迹发生重合,具体步骤如下:
1)设云端发出轨迹的时间为t0;
2)设自车接到云端轨迹时刻已走过的轨迹时间为t1;
3)计算t1时刻自车和他车当前轨迹上所在的点;
4)将自车和他车当前轨迹点两点连线为L;
5)L与自车行驶方向的夹角为θ1,L与他车行驶方向的夹角为θ2
6)获取车辆后几何中心到车前端或车后端的长度b1、b2
7)借助|b1/2cosθ1/2|获取平行于连线L的a1/2
8)若θ1、θ2同时大于或小于90°时,当两车连线L位于车体外部部分的长度大于a1+a2时,则不会发生碰撞;两车间是否有碰撞风险主要受车宽影响,设min=a1+a2+c1/sinθ1+c2/sinθ2与两车间连线L的实际长度进行比较若L>min,则无碰撞风险,否则有碰撞风险;
9)当θ1、θ2不同时大于或小于90°时,两车间是否有碰撞风险主要受车长影响,本发明使用min=a1+a2与两车间连线L的实际长度进行比较,若L>min,则无碰撞风险,否则有碰撞风险。
11.根据权利要求9所述一种自动驾驶车在恶劣天气的防碰撞方法,其特征在于:所述横向范围,包括以下几点:
1)有高精地图的判断
若当前行驶道路有高精地图,采用高精地图与定位系统相结合的方式:
A、基于高精地图的车道信息确定横向范围:通过定位系统确定车辆的实时位置,基于高精地图可以确定行驶车辆在哪条车道上,缩小搜索范围,提高系统的运算速度与准确性;
B、基于高精地图的物理隔栏信息确定横向范围:道路上的车辆分为与自车同向行驶的车辆和与自车反向行驶的车辆,在封闭道路中有物理隔离时,如隔离带或围栏,隔离带和围栏会降低发生事故的概率,则只考虑与自车行驶方向相同的车辆的行驶状态;在城区道路中时道路情况比较复杂,无法确定是否有物理隔离时,出于保证驾驶安全的需求,需要考虑与自车行驶方向相同和相反的车辆的行驶状态;
C、优先级的判断
第一危险优先级:与自车行驶车道为同一条车道的前后车辆信息;
第二危险优先级:与自车行驶车道相邻的车道的车辆信息;
第三危险优先级:与自车行驶方向相同但是不相邻的车道的车辆信息
第四危险优先级:与自车行驶方向相反但相邻车道的车辆信息;
2)没有高精地图的判断
若当前行驶道路不存在云端高精地图,则取以自车车辆后轴中心为中点、垂直车辆前进方向的10米范围为横向界定范围,取范围内所有的车辆预测轨迹进行判断,以确保行车安全。
12.根据权利要求9所述一种自动驾驶车在恶劣天气的防碰撞方法,其特征在于:所述纵向范围,包括以下几点:
1)根据车速确定纵向范围
当车速为0-30、30-60、60-90、90-120以上时,采集范围为前后30m、前后70m、前后130m、前后200m、前后230m;
2)当自车预计15s内的采集范围为直线道路范围时
不论当前云端存在或不存在当前道路的高精地图,均根据车辆实时位置沿车辆前进方向进行纵向范围内信息采集;
3)当自车预计15s内的采集范围为非直线道路范围时
A、若云端存在当前道路的高精地图,则借助高精地图,准确获取道路信息,如转弯时道路的转弯半径、曲率、转弯中心点等,借此划定出与行驶道路相近的采集范围,但需要将直线的长度转化为弯曲弧线的长度;
B、若云端不存在当前道路的高精地图,无法根据转弯半径、曲率、转弯中心点等信息进行准确的与行驶道路相近形状的采集范围的划定,则在弯道路上进行信息的采集,基于车速获取纵向采集长度;
C、优先级的判断
根据不同车辆距离自车的距离设定相应优先级,所述距离为两车的车辆后轴中心的距离,距离自车距离近的车辆需要设定较高的优先级。
CN202210618778.3A 2022-06-01 2022-06-01 一种自动驾驶车在恶劣天气防碰撞方法 Active CN114999228B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210618778.3A CN114999228B (zh) 2022-06-01 2022-06-01 一种自动驾驶车在恶劣天气防碰撞方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210618778.3A CN114999228B (zh) 2022-06-01 2022-06-01 一种自动驾驶车在恶劣天气防碰撞方法

Publications (2)

Publication Number Publication Date
CN114999228A true CN114999228A (zh) 2022-09-02
CN114999228B CN114999228B (zh) 2022-12-16

Family

ID=83031116

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210618778.3A Active CN114999228B (zh) 2022-06-01 2022-06-01 一种自动驾驶车在恶劣天气防碰撞方法

Country Status (1)

Country Link
CN (1) CN114999228B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115675454A (zh) * 2022-12-27 2023-02-03 天津所托瑞安汽车科技有限公司 车辆碰撞识别方法、车载终端、车辆及存储介质
CN116448115A (zh) * 2023-04-07 2023-07-18 连云港杰瑞科创园管理有限公司 基于导航雷达和光电的无人艇概率距离地图构建方法
CN117454316A (zh) * 2023-12-25 2024-01-26 安徽蔚来智驾科技有限公司 多传感器的数据融合方法、存储介质及智能设备
CN117636270A (zh) * 2024-01-23 2024-03-01 南京理工大学 基于单目摄像头的车辆抢道事件识别方法及设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110018737A1 (en) * 2009-07-24 2011-01-27 Automotive Research & Testing Center Vehicle Collision Avoidance System and Method
CN110304054A (zh) * 2019-07-03 2019-10-08 国唐汽车有限公司 一种基于多传感器融合的自动紧急制动方法
CN111824138A (zh) * 2019-04-15 2020-10-27 北京京东尚科信息技术有限公司 车辆防碰撞方法、装置和计算机可读存储介质
CN111949037A (zh) * 2020-08-26 2020-11-17 北京享云智汇科技有限公司 一种网联车自动驾驶系统及方法
CN112285714A (zh) * 2020-09-08 2021-01-29 苏州挚途科技有限公司 一种基于多传感器的障碍物速度融合方法和装置
CN114475660A (zh) * 2022-02-28 2022-05-13 苏州挚途科技有限公司 自动驾驶车辆防碰撞的方法、装置及电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110018737A1 (en) * 2009-07-24 2011-01-27 Automotive Research & Testing Center Vehicle Collision Avoidance System and Method
CN111824138A (zh) * 2019-04-15 2020-10-27 北京京东尚科信息技术有限公司 车辆防碰撞方法、装置和计算机可读存储介质
CN110304054A (zh) * 2019-07-03 2019-10-08 国唐汽车有限公司 一种基于多传感器融合的自动紧急制动方法
CN111949037A (zh) * 2020-08-26 2020-11-17 北京享云智汇科技有限公司 一种网联车自动驾驶系统及方法
CN112285714A (zh) * 2020-09-08 2021-01-29 苏州挚途科技有限公司 一种基于多传感器的障碍物速度融合方法和装置
CN114475660A (zh) * 2022-02-28 2022-05-13 苏州挚途科技有限公司 自动驾驶车辆防碰撞的方法、装置及电子设备

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115675454A (zh) * 2022-12-27 2023-02-03 天津所托瑞安汽车科技有限公司 车辆碰撞识别方法、车载终端、车辆及存储介质
CN116448115A (zh) * 2023-04-07 2023-07-18 连云港杰瑞科创园管理有限公司 基于导航雷达和光电的无人艇概率距离地图构建方法
CN116448115B (zh) * 2023-04-07 2024-03-19 连云港杰瑞科创园管理有限公司 基于导航雷达和光电的无人艇概率距离地图构建方法
CN117454316A (zh) * 2023-12-25 2024-01-26 安徽蔚来智驾科技有限公司 多传感器的数据融合方法、存储介质及智能设备
CN117454316B (zh) * 2023-12-25 2024-04-26 安徽蔚来智驾科技有限公司 多传感器的数据融合方法、存储介质及智能设备
CN117636270A (zh) * 2024-01-23 2024-03-01 南京理工大学 基于单目摄像头的车辆抢道事件识别方法及设备
CN117636270B (zh) * 2024-01-23 2024-04-09 南京理工大学 基于单目摄像头的车辆抢道事件识别方法及设备

Also Published As

Publication number Publication date
CN114999228B (zh) 2022-12-16

Similar Documents

Publication Publication Date Title
CN114999228B (zh) 一种自动驾驶车在恶劣天气防碰撞方法
CN110411462B (zh) 一种gnss/惯导/车道线约束/里程计多源融合方法
Tao et al. Lane marking aided vehicle localization
JP2022535351A (ja) 車両ナビゲーションのためのシステム及び方法
CN110276988A (zh) 一种基于碰撞预警算法的辅助驾驶系统
CN114402377A (zh) 用于监测交通车道拥塞的系统和方法
CN110208842A (zh) 一种车联网环境下车辆高精度定位方法
WO2018122807A1 (zh) 一种基于舒适度的自动驾驶车速控制方法
CN115824194A (zh) 一种用于为车辆规划路线的系统和方法
US20050225477A1 (en) Road curvature estimation system
CN113819914A (zh) 一种地图构建方法及装置
CN104835353A (zh) Vanet中基于ins和gnss伪距双差的协作相对定位方法
CN103909930A (zh) 跟随前车行驶的辅助控制方法
CN112147651B (zh) 一种异步多车协同目标状态鲁棒估计方法
CN112346103A (zh) 基于v2x的智能网联汽车动态协同定位方法与装置
CN111619589B (zh) 一种复杂环境的自动驾驶控制方法
US20230148097A1 (en) Adverse environment determination device and adverse environment determination method
CN111623786B (zh) 预判车辆行驶轨迹的方法
CN116670610A (zh) 用于公共速度映射和导航的系统和方法
CN114475573A (zh) 基于v2x与视觉融合的起伏路况识别及车辆控制方法
CN113227831B (zh) 基于多传感器数据融合的护栏估计方法和车载设备
WO2021164006A1 (zh) 一种车辆行驶速度、加速度的测量方法、装置及存储介质
CN115424474B (zh) 一种基于v2x和rsu的左转辅助预警方法
CN110187374B (zh) 一种智能驾驶性能检测多目标协同定位系统及方法
CN112230216A (zh) 面向云控智能底盘的车载毫米波雷达多目标探测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant