CN111311945B - 一种融合视觉和传感器信息的驾驶决策系统及方法 - Google Patents

一种融合视觉和传感器信息的驾驶决策系统及方法 Download PDF

Info

Publication number
CN111311945B
CN111311945B CN202010106154.4A CN202010106154A CN111311945B CN 111311945 B CN111311945 B CN 111311945B CN 202010106154 A CN202010106154 A CN 202010106154A CN 111311945 B CN111311945 B CN 111311945B
Authority
CN
China
Prior art keywords
decision
network
vehicle
strategy
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010106154.4A
Other languages
English (en)
Other versions
CN111311945A (zh
Inventor
李琳
赵万忠
程青云
徐灿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202010106154.4A priority Critical patent/CN111311945B/zh
Publication of CN111311945A publication Critical patent/CN111311945A/zh
Application granted granted Critical
Publication of CN111311945B publication Critical patent/CN111311945B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种融合视觉和传感器信息的驾驶决策系统及方法,包括传感器模块,视觉和传感器数据融合模块,决策模块和控制模块;传感器模块,采集当前驾驶车辆周边的道路,车道线和其他车辆的图像信息,当前驾驶车辆位置和速度信息;视觉和传感器数据融合模块,从图像信息中分离并提取车道线、道路结构、其他道路使用者和空间特征,从GPS和车速传感器数据中提取当前车辆的运动特征;决策模块,通过决策模型获取当前车辆的决策量;控制模块,驱动自动驾驶车辆的转向电机,踏板和制动系统,控制车辆完成驾驶任务,更新车辆的位置和速度状态。本发明提高了泛化能力,能够处理样本中未出现的异常情况,实现智能车辆更安全,稳定和高效地自主行驶。

Description

一种融合视觉和传感器信息的驾驶决策系统及方法
技术领域
本发明属于智能驾驶技术领域,具体涉及一种融合视觉和传感器信息的驾驶决策系统及方法。
背景技术
随着汽车保有量的日益增加,道路交通逐渐趋于密集化和复杂化,进而导致驾驶压力的增大,使得驾驶员在正常交通场景下的驾驶能力下降,大大增加了交通事故的发生几率。其中,换道行为是导致交通事故和交通拥堵的重要致因之一,尤其在城市区域,车流密度大,极易发生换道碰撞事故,甚至导致连环追尾碰撞。相对于人类驾驶,智能驾驶系统具有反应时间短、感知精度高等优点,因此研究智能驾驶技术对于减少因人为因素导致的交通事故具有十分重要的意义。
目前在智能驾驶的决策领域,在决策信息感知方面,主要有基于视觉和传感器数据的方式这两大类。得益于近年来卷积神经网络和深度神经网络的发展,基于视觉信息的感知方法利于实现端到端的驾驶决策设计,面对交通环境的复杂性和图像信息数据过于庞大,系统如何得到可靠性的决策是一大难题;基于传感器数据的方法,数据处理较为简单,这也会使得系统难以深刻理解当前所处的交通环境。而在模型的学习方法方面,主要依靠历史数据的学习,但缺乏好的泛化能力,无法应对未知的输入。
发明内容
针对于上述现有技术的不足,本发明的目的在于提供一种融合视觉和传感器信息的驾驶决策系统及方法,以解决现有技术中决策模型不能完全理解环境输入和对未知情况泛化能力差的问题;本发明提高了智能车决策的可靠性。
为达到上述目的,本发明采用的技术方案如下:
本发明的一种融合视觉和传感器信息的驾驶决策系统,包括传感器模块,视觉和传感器数据融合模块,决策模块和控制模块;
所述传感器模块,包括:摄像头,GPS和车速传感器;所述摄像头用于采集当前驾驶车辆周边的道路,车道线和其他车辆的图像信息;所述GPS和车速传感器用于采集当前驾驶车辆的位置和速度信息;
所述视觉和传感器数据融合模块,获取上述传感器模块采集到的信息,进行特征提取和编码处理,从图像信息中分离并提取车道线、道路结构、其他道路使用者和空间特征,从GPS和车速传感器数据中提取当前车辆的运动特征;并采用的融合方式通过注意力机制来分配对不同特征的权重后,生成一个新的特征向量。
所述决策模块,将上述融合后的特征信息作为决策模型的输入,通过决策模型获取当前车辆的决策量:方向盘转角和加速度。
所述控制模块,接收决策模块输出的方向盘转角和加速度信号,来驱动自动驾驶车辆的转向电机,踏板和制动系统,控制车辆完成驾驶任务,从而更新车辆的位置和速度状态。
进一步地,所述摄像头为环视摄像头,分布在整车的四周,提供360度无死角的环视视野。
进一步地,所述图像特征提取是基于ResNet50卷积神经网络,GPS和车速传感器数据特征提取是基于全连接神经网络。
进一步地,所述决策模型是基于异策略学习方法,采用AC(Actor-CriticAlgorithm)学习框架。
进一步地,所述异策略学习方法中包括两个同等地位的元素,一个元素是Actor,即行动策略;另一个元素是Critic策略,即评估;异策略是指行动策略和评估策略不是同一个策略,行动策略是随机策略,以保证对最优策略的充足探索;Critic策略这里是指利用函数逼近方法估计值函数,为确定性策略。
本发明一种融合视觉和传感器信息的驾驶决策方法,包括步骤:
步骤1:获取当前交通环境图像It、GPS的位置(xt,yt)、车速信息vt;xt,yt分别为横、纵方向的位置坐标,传感器数据信息Xt记为Xt=[xt,yt,vt],并用St=[It,Xt]来表示两者联合的环境输入;
步骤2:每一时刻t采集的交通环境图像It,通过图像语义分割提取不同目标,包括车道线lt,道路结构rt,其他道路使用者ot和空间st,并基于ResNet50卷积网络分别进行特征编码,得到车道线特征向量E1,t,道路结构特征向量E2,t,其他道路使用者特征向量E3,t,和空间特征向量E4,t;其过程用公式表示如下:
E1,t=ResNet50(lt;W1)
E2,t=ResNet50(rt;W2)
E3,t=ResNet50(ot;W3)
E4,t=ResNet50(st;W4)
其中,ResNet50表示卷积网络对应的函数关系,W1,W2,W3,W4分别为对应网络的全部参数;
步骤3:采用一个两层全连接神经网络对相同时刻t的传感器数据信息Xt进行特征提取和编码,生成自车运动特征向量E5,t
E5,t=FC(Xt;WFC2)
其中,FC表示全连接层的函数关系,WFC2表示两层全连接神经网络的所有参数;
步骤4:将上述步骤2,3中生成的特征向量和上一时刻生成的决策输出通过注意力机制,分配当前时刻对不同特征量的注意权重αi,t,依据下式生成融合特征向量Ft
Figure BDA0002388154030000031
Figure BDA0002388154030000032
Figure BDA0002388154030000033
其中,tanh为hyperbolic tangent函数,
Figure BDA0002388154030000034
为上一刻决策模型的输出值,Watt,Uatt为注意力模型的参数;
步骤5:定义动作决策的集合A,包括方向盘转角δ和加速度a;
步骤6:定义回报函数R,具体公式如下:
Figure BDA0002388154030000035
其中,vt为当前车辆速度,vd为驾驶员的期望速度,xt,yt是当前车辆的纵向和横向位移,
Figure BDA0002388154030000036
为当前车辆所在车道和左右相邻车道的前后车辆;wv,wla,wlo分别为速度,纵向位移和横向位移的权重调节系数;
步骤7:建立行为策略网络,通过访问上述步骤4中的决策特征向量Ft,其中,t的取值范围为历史时域[t-Tobs,t],基于Bi-LSTM神经网络建立时序决策模型,连接三层全连接层,最终连接混合密度输出层,得到二维决策量at=(δt,at)的二元概率分布Pπ,μ,σ(at|S),并计算出输出结果的置信因子,具体过程用公式表示如下:
Figure BDA0002388154030000037
Figure BDA0002388154030000038
at=(δt,at)
Figure BDA0002388154030000041
Figure BDA0002388154030000042
Figure BDA0002388154030000043
其中,Bi-LSTM为双向长短时记忆网络的函数关系,
Figure BDA0002388154030000044
表示时域[t-Tobs,t]内的所有融合特征向量的集合,WLSTM为Bi-LSTM网络的参数,WFC3为三层全连接网络的参数;πk为混合密度网络中的分配系数;Φ为二元高斯函数;μk为均值;Σk为协方差矩阵;σk为标准差;ρk为相关系数;k为第k个高斯函数混合;
上述随机策略简记为:
πθ(a|S)=P[a|S;θ]=ξ(S;θ);
步骤8:基于深度神经网络建立评估策略,用来评估基于定义的回报函数下,在环境特征的输入S,由行为策略输出的行为a所得到的累计回报值函数,记为Q(S,a;w),通过更新参数w来逼近行为值函数Qπ(S,a);
步骤9:基于深度确定性策略搜索算法(DDPG)学习上述步骤2-8所涉及到的模型的参数,输出最优的动作决策策略a*。
进一步地,所述深度确定性策略搜索算法具体包括:
1)随机初始化评估策略网络Q(S,a;w)和行为策略网络ξ(S;θ)的参数w和θ;
2)用计算所得的参数w'和θ'来得到更新后的目标网络Q'和ξ';
3)初始化回报函数R;
4)对每个进程重复以下操作:
5)初始化环境信息输入S;
6)对每一时刻t重复一下操作:
7)根据行为策略网络和噪声ηt在环境信息St输入下选择动作at=ξ(S;θ)+ηt
8)执行动作at,观察回报Rt和下一时刻的环境信息输入St+1
9)将经验转换(St,at,Rt,St+1)储存在空间D中;
10)从D中随机小批量采样N组经验转化(Si,ai,Ri,Si+1);
11)赋值yi=Ri+γQ'(Si+1,ξ'(Si+1;θ');w');
12)依据下式计算损失L,评估策略网络通过最小化L:
Figure BDA0002388154030000051
13)行为策略基于采样梯度,采样梯度计算公式如下:
Figure BDA0002388154030000052
14)依据下式迭代更新参数,得到目标网络:
w’←τw+(1-τ)w’
θ’←τθ+(1-τ)θ’;
15)结束。
本发明的有益效果:
1)本发明在现有决策模型的基础上,将视觉信息经语义分割后和传感器数据信息的特征分别提取和编码后通过注意力机制融合,该方法可使得决策系统同时处理多源信息,并对不同的特征分配不同的权重;
2)采用AC(Actor-Critic Algorithm)学习框架来建立决策模型,并基于深度确定性策略搜索算法(DDPG)来求解最优策略,强化学习通过与环境的交互和回报函数的引导,来优化系统的决策输出,较之现有学习算法,有更好的泛化能力,适应多变复杂的交通环境,而异策略学习方法,结合了确定性和随机性策略,在保证策略优化的同时,大大提高了策略搜索效率。
附图说明
图1为本发明决策系统的框图;
图2为本发明决策方法中的视觉和传感器数据模块的算法流程图;
图3为本发明所采用的决策方法的行为-评估模型图。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
参照图1所示,本发明的一种融合视觉和传感器信息的驾驶决策系统,包括传感器模块,视觉和传感器数据融合模块,决策模块和控制模块;
所述传感器模块,包括:摄像头,GPS和车速传感器;所述摄像头用于采集当前驾驶车辆周边的道路,车道线和其他车辆的图像信息;所述GPS和车速传感器用于采集当前驾驶车辆的位置和速度信息;所述摄像头为环视摄像头,分布在整车的四周,提供360度无死角的环视视野。
所述视觉和传感器数据融合模块,获取上述传感器模块采集到的信息,进行特征提取和编码处理,从图像信息中分离并提取车道线、道路结构、其他道路使用者和空间特征,从GPS和车速传感器数据中提取当前车辆的运动特征;并采用的融合方式通过注意力机制来分配对不同特征的权重后,生成一个新的特征向量。所述图像特征提取是基于ResNet50卷积神经网络,GPS和车速传感器数据特征提取是基于全连接神经网络。
所述决策模块,将上述融合后的特征信息作为决策模型的输入,通过决策模型获取当前车辆的决策量:方向盘转角和加速度。
其中,所述决策模型是基于异策略学习方法,采用AC(Actor-Critic Algorithm)学习框架。
所述异策略学习方法中包括两个同等地位的元素,一个元素是Actor,即行动策略;另一个元素是Critic策略,即评估;异策略是指行动策略和评估策略不是同一个策略,行动策略是随机策略,以保证对最优策略的充足探索;Critic策略这里是指利用函数逼近方法估计值函数,为确定性策略。
所述控制模块,接收决策模块输出的方向盘转角和加速度信号,来驱动自动驾驶车辆的转向电机,踏板和制动系统,控制车辆完成驾驶任务,从而更新车辆的位置和速度状态。
参照图2、图3所示,本发明一种融合视觉和传感器信息的驾驶决策方法,包括步骤:
步骤1:获取当前交通环境图像It、GPS的位置(xt,yt)、车速信息vt;xt,yt分别为横、纵方向的位置坐标,传感器数据信息Xt记为Xt=[xt,yt,vt],并用St=[It,Xt]来表示两者联合的环境输入;
步骤2:每一时刻t采集的交通环境图像It,通过图像语义分割提取不同目标,包括车道线lt,道路结构rt,其他道路使用者ot和空间st,并基于ResNet50卷积网络分别进行特征编码,得到车道线特征向量E1,t,道路结构特征向量E2,t,其他道路使用者特征向量E3,t,和空间特征向量E4,t;其过程用公式表示如下:
E1,t=ResNet50(lt;W1)
E2,t=ResNet50(rt;W2)
E3,t=ResNet50(ot;W3)
E4,t=ResNet50(st;W4)
其中,ResNet50表示卷积网络对应的函数关系,W1,W2,W3,W4分别为对应网络的全部参数;
步骤3:采用一个两层全连接神经网络对相同时刻t的传感器数据信息Xt进行特征提取和编码,生成自车运动特征向量E5,t
E5,t=FC(Xt;WFC2)
其中,FC表示全连接层的函数关系,WFC2表示两层全连接神经网络的所有参数;
步骤4:将上述步骤2,3中生成的特征向量和上一时刻生成的决策输出通过注意力机制,分配当前时刻对不同特征量的注意权重αi,t,依据下式生成融合特征向量Ft
Figure BDA0002388154030000071
Figure BDA0002388154030000072
Figure BDA0002388154030000073
其中,tanh为hyperbolic tangent函数,
Figure BDA0002388154030000074
为上一刻决策模型的输出值,Watt,Uatt为注意力模型的参数;
步骤5:定义动作决策的集合A,包括方向盘转角δ和加速度a;
步骤6:定义回报函数R,具体公式如下:
Figure BDA0002388154030000075
其中,vt为当前车辆速度,vd为驾驶员的期望速度,xt,yt是当前车辆的纵向和横向位移,
Figure BDA0002388154030000076
为当前车辆所在车道和左右相邻车道的前后车辆;wv,wla,wlo分别为速度,纵向位移和横向位移的权重调节系数;
步骤7:建立行为策略网络,通过访问上述步骤4中的决策特征向量Ft,其中,t的取值范围为历史时域[t-Tobs,t],基于Bi-LSTM神经网络建立时序决策模型,连接三层全连接层,最终连接混合密度输出层,得到二维决策量at=(δt,at)的二元概率分布Pπ,μ,σ(at|S),并计算出输出结果的置信因子,具体过程用公式表示如下:
Figure BDA0002388154030000077
Figure BDA0002388154030000081
at=(δt,at)
Figure BDA0002388154030000082
Figure BDA0002388154030000083
Figure BDA0002388154030000084
其中,Bi-LSTM为双向长短时记忆网络的函数关系,
Figure BDA0002388154030000085
表示时域[t-Tobs,t]内的所有融合特征向量的集合,WLSTM为Bi-LSTM网络的参数,WFC3为三层全连接网络的参数;πk为混合密度网络中的分配系数;Φ为二元高斯函数;μk为均值;Σk为协方差矩阵;σk为标准差;ρk为相关系数;k为第k个高斯函数混合;
上述随机策略简记为:
πθ(a|S)=P[a|S;θ]=ξ(S;θ);
步骤8:基于深度神经网络建立评估策略,用来评估基于定义的回报函数下,在环境特征的输入S,由行为策略输出的行为a所得到的累计回报值函数,记为Q(S,a;w),通过更新参数w来逼近行为值函数Qπ(S,a);
步骤9:基于深度确定性策略搜索算法(DDPG)学习上述步骤2-8所涉及到的模型的参数,输出最优的动作决策策略a*。
进一步地,所述深度确定性策略搜索算法具体包括:
1)随机初始化评估策略网络Q(S,a;w)和行为策略网络ξ(S;θ)的参数w和θ;
2)用计算所得的参数w'和θ'来得到更新后的目标网络Q'和ξ';
3)初始化回报函数R;
4)对每个进程重复以下操作:
5)初始化环境信息输入S;
6)对每一时刻t重复一下操作:
7)根据行为策略网络和噪声ηt在环境信息St输入下选择动作at=ξ(S;θ)+ηt
8)执行动作at,观察回报Rt和下一时刻的环境信息输入St+1
9)将经验转换(St,at,Rt,St+1)储存在空间D中;
10)从D中随机小批量采样N组经验转化(Si,ai,Ri,Si+1);
11)赋值yi=Ri+γQ'(Si+1,ξ'(Si+1;θ');w');
12)依据下式计算损失L,评估策略网络通过最小化L:
Figure BDA0002388154030000091
13)行为策略基于采样梯度,采样梯度计算公式如下:
Figure BDA0002388154030000092
14)依据下式迭代更新参数,得到目标网络:
w’←τw+(1-τ)w’
θ’←τθ+(1-τ)θ’;
15)结束。
本发明具体应用途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。

Claims (2)

1.一种融合视觉和传感器信息的驾驶决策方法,其特征在于,包括步骤:
步骤1:获取当前交通环境图像It、GPS的位置(xt,yt)、车速信息vt;xt,yt分别为横、纵方向的位置坐标,传感器数据信息Xt记为Xt=[xt,yt,vt],并用St=[It,Xt]来表示两者联合的环境输入;
步骤2:每一时刻t采集的交通环境图像It,通过图像语义分割提取不同目标,包括车道线lt,道路结构rt,其他道路使用者ot和空间st,并基于ResNet50卷积网络分别进行特征编码,得到车道线特征向量E1,t,道路结构特征向量E2,t,其他道路使用者特征向量E3,t,和空间特征向量E4,t;其过程用公式表示如下:
E1,t=ResNet50(lt;W1)
E2,t=ResNet50(rt;W2)
E3,t=ResNet50(ot;W3)
E4,t=ResNet50(st;W4)
其中,ResNet50表示卷积网络对应的函数关系,W1,W2,W3,W4分别为对应网络的全部参数;
步骤3:采用一个两层全连接神经网络对相同时刻t的传感器数据信息Xt进行特征提取和编码,生成自车运动特征向量E5,t
E5,t=FC(Xt;WFC2)
其中,FC表示全连接层的函数关系,WFC2表示两层全连接神经网络的所有参数;
步骤4:将上述步骤2,3中生成的特征向量和上一时刻生成的决策输出通过注意力机制,分配当前时刻对不同特征量的注意权重αi,t,依据下式生成融合特征向量Ft
Figure FDA0002966195210000011
Figure FDA0002966195210000012
Figure FDA0002966195210000013
其中,tanh为hyperbolic tangent函数,
Figure FDA0002966195210000014
为上一刻决策模型的输出值,Watt,Uatt为注意力模型的参数;
步骤5:定义动作决策的集合A,包括方向盘转角δ和加速度a;
步骤6:定义回报函数R,具体公式如下:
Figure FDA0002966195210000021
其中,vt为当前车辆速度,vd为驾驶员的期望速度,xt,yt是当前车辆的纵向和横向位移,
Figure FDA0002966195210000022
为当前车辆所在车道和左右相邻车道的前后车辆;wv,wla,wlo分别为速度,纵向位移和横向位移的权重调节系数;
步骤7:建立行为策略网络,通过访问上述步骤4中的决策特征向量Ft,其中,t的取值范围为历史时域[t-Tobs,t],基于Bi-LSTM神经网络建立时序决策模型,连接三层全连接层,最终连接混合密度输出层,得到二维决策量at=(δt,at)的二元概率分布Pπ,μ,σ(at|S),并计算出输出结果的置信因子,具体过程用公式表示如下:
Figure FDA0002966195210000023
Figure FDA0002966195210000024
at=(δt,at)
Figure FDA0002966195210000025
Figure FDA0002966195210000026
Figure FDA0002966195210000027
其中,Bi-LSTM为双向长短时记忆网络的函数关系,
Figure FDA0002966195210000028
表示时域[t-Tobs,t]内的所有融合特征向量的集合,WLSTM为Bi-LSTM网络的参数,WFC3为三层全连接网络的参数;πk为混合密度网络中的分配系数;Φ为二元高斯函数;μk为均值;Σk为协方差矩阵;σk为标准差;ρk为相关系数;k为第k个高斯函数混合;
随机策略简记为:
πθ(a|S)=P[a|S;θ]=ξ(S;θ);
步骤8:基于深度神经网络建立评估策略,用来评估基于定义的回报函数下,在环境特征的输入S,由行为策略输出的行为a所得到的累计回报值函数,记为Q(S,a;w),通过更新参数w来逼近行为值函数Qπ(S,a);
步骤9:基于深度确定性策略搜索算法学习上述步骤2-8所涉及到的模型的参数,输出最优的动作决策策略a*。
2.根据权利要求1所述的融合视觉和传感器信息的驾驶决策方法,其特征在于,所述深度确定性策略搜索算法具体包括:
1)随机初始化评估策略网络Q(S,a;w)和行为策略网络ξ(S;θ)的参数w和θ;
2)用计算所得的参数w'和θ'来得到更新后的目标网络Q'和ξ';
3)初始化回报函数R;
4)对每个进程重复以下操作:
5)初始化环境信息输入S;
6)对每一时刻t重复一下操作:
7)根据行为策略网络和噪声ηt在环境信息St下选择动作at=ξ(S;θ)+ηt
8)执行动作at,观察回报Rt和下一时刻的环境信息输入St+1
9)将经验转换(St,at,Rt,St+1)储存在空间D中;
10)从D中随机小批量采样N组经验转化(Si,ai,Ri,Si+1);
11)赋值yi=Ri+γQ'(Si+1,ξ'(Si+1;θ');w');
12)依据下式计算损失L,评估策略网络通过最小化L:
Figure FDA0002966195210000031
13)行为策略基于采样梯度,采样梯度计算公式如下:
Figure FDA0002966195210000032
14)依据下式迭代更新参数,得到目标网络:
w’←τw+(1-τ)w’
θ’←τθ+(1-τ)θ’;
15)结束。
CN202010106154.4A 2020-02-20 2020-02-20 一种融合视觉和传感器信息的驾驶决策系统及方法 Active CN111311945B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010106154.4A CN111311945B (zh) 2020-02-20 2020-02-20 一种融合视觉和传感器信息的驾驶决策系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010106154.4A CN111311945B (zh) 2020-02-20 2020-02-20 一种融合视觉和传感器信息的驾驶决策系统及方法

Publications (2)

Publication Number Publication Date
CN111311945A CN111311945A (zh) 2020-06-19
CN111311945B true CN111311945B (zh) 2021-07-09

Family

ID=71162141

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010106154.4A Active CN111311945B (zh) 2020-02-20 2020-02-20 一种融合视觉和传感器信息的驾驶决策系统及方法

Country Status (1)

Country Link
CN (1) CN111311945B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111582399B (zh) * 2020-05-15 2023-07-18 吉林省森祥科技有限公司 一种面向杀菌机器人的多传感器信息融合方法
CN111833482A (zh) * 2020-06-29 2020-10-27 湘潭大学 基于机车线路可见的多源信息融合预见定位定时控制方法
CN112158189A (zh) * 2020-09-30 2021-01-01 东南大学 基于机器视觉和深度学习的混合动力汽车能量管理方法
CN112382115B (zh) * 2020-10-29 2021-09-14 杭州电子科技大学 基于视觉感知的驾驶风险预警装置及方法
CN112418237A (zh) * 2020-12-07 2021-02-26 苏州挚途科技有限公司 车辆驾驶决策方法、装置及电子设备
CN112614343B (zh) * 2020-12-11 2022-08-19 多伦科技股份有限公司 基于随机策略梯度的交通信号控制方法、系统及电子设备
CN112580148B (zh) * 2020-12-20 2022-11-18 东南大学 基于深度强化学习的重型营运车辆防侧翻驾驶决策方法
CN112698660B (zh) * 2020-12-31 2022-05-27 杭州电子科技大学 基于9轴传感器的驾驶行为视觉感知装置及方法
CN112965499B (zh) * 2021-03-08 2022-11-01 哈尔滨工业大学(深圳) 基于注意力模型和深度强化学习的无人车行驶决策方法
CN113071509B (zh) * 2021-03-22 2022-05-03 南京航空航天大学 一种智能车车轮转角传感器故障检测方法
CN113160562B (zh) * 2021-03-30 2022-04-22 南京大学 基于粒子注意力深度q学习的部分观测路口自主并道方法
CN113743469B (zh) * 2021-08-04 2024-05-28 北京理工大学 一种融合多源数据及综合多维指标的自动驾驶决策方法
CN113741464B (zh) * 2021-09-07 2022-10-21 电子科技大学 一种基于时空数据强化学习的自动驾驶速度控制框架
CN114228709A (zh) * 2021-12-06 2022-03-25 首都经济贸易大学 一种高速自动驾驶预警系统及其预警方法
CN114399659B (zh) * 2021-12-28 2023-04-07 禾多科技(北京)有限公司 车辆控制信息生成方法、装置、设备和计算机可读介质
CN115604319B (zh) * 2022-11-21 2023-03-10 青岛大学威海创新研究院 基于多维度传感器的智慧社区管理平台
CN116580559A (zh) * 2023-05-18 2023-08-11 中国公路工程咨询集团有限公司 一种基于人工智能技术的交通数据处理方法
CN116991077A (zh) * 2023-09-27 2023-11-03 毫末智行科技有限公司 车辆自动驾驶决策方法、装置、设备及介质
CN117391181A (zh) * 2023-10-18 2024-01-12 清华大学 智能体的控制方法、装置、计算机设备和存储介质
CN118194969B (zh) * 2024-05-14 2024-07-19 广东工业大学 一种用于自动驾驶汽车的道路场景理解方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105109485B (zh) * 2015-08-24 2018-02-16 奇瑞汽车股份有限公司 一种驾驶方法及系统
CN106980657A (zh) * 2017-03-15 2017-07-25 北京理工大学 一种基于信息融合的车道级电子地图构建方法
CN109213148B (zh) * 2018-08-03 2021-05-28 东南大学 一种基于深度强化学习的车辆低速跟驰决策方法
CN109829386B (zh) * 2019-01-04 2020-12-11 清华大学 基于多源信息融合的智能车辆可通行区域检测方法
CN109624986B (zh) * 2019-03-01 2021-01-15 吉林大学 一种基于模式切换的驾驶风格的学习巡航控制系统及方法
CN110007675B (zh) * 2019-04-12 2021-01-15 北京航空航天大学 一种基于行车态势图的车辆自动驾驶决策系统及基于无人机的训练集制备方法
CN110281949B (zh) * 2019-06-28 2020-12-18 清华大学 一种自动驾驶统一分层决策方法
CN110415266A (zh) * 2019-07-19 2019-11-05 东南大学 一种基于本车周围车辆轨迹预测安全行驶的方法
CN110400015B (zh) * 2019-07-25 2023-05-23 腾讯科技(深圳)有限公司 一种时间估计方法及其装置、设备
CN110764507A (zh) * 2019-11-07 2020-02-07 舒子宸 一种强化学习与信息融合的人工智能自动驾驶系统

Also Published As

Publication number Publication date
CN111311945A (zh) 2020-06-19

Similar Documents

Publication Publication Date Title
CN111311945B (zh) 一种融合视觉和传感器信息的驾驶决策系统及方法
CN112215337B (zh) 一种基于环境注意力神经网络模型的车辆轨迹预测方法
US11423563B2 (en) Depth estimation for autonomous devices
US11475351B2 (en) Systems and methods for object detection, tracking, and motion prediction
CN108909624B (zh) 一种基于单目视觉的实时障碍物检测和定位方法
CN112965499B (zh) 基于注意力模型和深度强化学习的无人车行驶决策方法
JP7105305B2 (ja) 多段画像ベースの物体検出および認識
US20190145765A1 (en) Three Dimensional Object Detection
CN110356412B (zh) 用于自主驾驶的自动规则学习的方法和设备
US20220261601A1 (en) Multiple Stage Image Based Object Detection and Recognition
CN112930554A (zh) 用于确定车辆环境的语义网格的电子设备、系统和方法
CN113911129A (zh) 一种基于驾驶行为生成机制的交通车意图识别方法
CN113895464B (zh) 融合个性化驾驶风格的智能车驾驶地图生成方法及系统
CN112487954A (zh) 一种面向平面交叉口的行人过街行为预测方法
CN116348938A (zh) 用于预测动态对象行为的方法和系统
US11887324B2 (en) Cross-modality active learning for object detection
CN112258841A (zh) 一种基于它车辆轨迹预测的智能车辆风险评估方法
CN114926823B (zh) 基于wgcn的车辆驾驶行为预测方法
CN113920484A (zh) 基于单目rgb-d特征和强化学习的端到端自动驾驶决策方法
CN115451987A (zh) 一种自动驾驶汽车的路径规划学习方法
CN113435356B (zh) 一种克服观察噪声与感知不确定性的轨迹预测方法
CA3134772A1 (en) Perception and motion prediction for autonomous devices
CN117372991A (zh) 基于多视角多模态融合的自动驾驶方法及系统
CN117115690A (zh) 一种基于深度学习和浅层特征增强的无人机交通目标检测方法及系统
CN114708568B (zh) 基于改进RTFNet的纯视觉自动驾驶控制系统、方法、介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant