CN113449589B - 一种无人驾驶汽车在城市交通场景中驾驶策略计算方法 - Google Patents

一种无人驾驶汽车在城市交通场景中驾驶策略计算方法 Download PDF

Info

Publication number
CN113449589B
CN113449589B CN202110531088.XA CN202110531088A CN113449589B CN 113449589 B CN113449589 B CN 113449589B CN 202110531088 A CN202110531088 A CN 202110531088A CN 113449589 B CN113449589 B CN 113449589B
Authority
CN
China
Prior art keywords
driving strategy
traffic scene
calculating
scene
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110531088.XA
Other languages
English (en)
Other versions
CN113449589A (zh
Inventor
古天龙
朱恩新
李龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202110531088.XA priority Critical patent/CN113449589B/zh
Publication of CN113449589A publication Critical patent/CN113449589A/zh
Application granted granted Critical
Publication of CN113449589B publication Critical patent/CN113449589B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及机器学习领域,公开了一种无人驾驶汽车在城市交通场景中驾驶策略计算方法,包括:收集数据样本,并对数据样本进行预处理,得到数据集;基于数据集构建并训练多尺度预测卷积神经网络;将摄像机获取的图像输入多尺度预测卷积精神网络,获取场景中目标类别以及置信度;根据目标类别识别交通场景;基于交通场景计算驾驶策略风险度和道德强度,生成驾驶策略。本发明提高了目标对象的识别精度和整体效率,在识别图像中目标类别的同时还计算出识别目标的精度。

Description

一种无人驾驶汽车在城市交通场景中驾驶策略计算方法
技术领域
本发明涉及机器学习领域,尤其涉及一种无人驾驶汽车在城市交通场景中驾驶策略计算方法。
背景技术
随着人工智能技术的快速发展以及深度学习算法的不断完善,自动驾驶技术正逐步走向实际应用的轨道。目前国内某些城市已经允许自动驾驶网约车上路,与此同时,为了让无人驾驶汽车更好的适应复杂的城市交通场景,并在伦理困境中做出符合伦理道德的驾驶策略,需要对城市交通场景以及场景中的交通元素进行更具针对性的检测。传统的基于卷积神经网络的场景分类方法都在追求高精度的分类方法,没有从实际应用出发,更加具体的从交通元素出发对交通场景展开分类,并展示出最终识别出对象的类别以及对应的置信度,更没有对处于伦理困境中的无人驾驶汽车的驾驶策略展开研究。
发明内容
本发明的目的在于提供一种无人驾驶汽车在城市交通场景中驾驶策略计算方法,旨在提高目标对象的识别精度和整体效率,在识别图像中目标类别的同时还计算出识别目标的精度,最终在系统界面上显示场景类别以及场景中各个元素的置信度。
为实现上述目的,本发明提供了一种无人驾驶汽车在城市交通场景中驾驶策略计算方法,包括:收集数据样,并对数据样本进行预处理,得到数据集;基于数据集构建并训练多尺度预测卷积神经网络;将摄像机获取的图像输入多尺度预测卷积精神网络,获取场景中目标类别以及置信度;根据目标类别识别交通场景;基于交通场景计算驾驶策略风险度和道德强度,生成驾驶策略。
其中,所述收集数据样本,并对数据样本进行预处理,得到数据集的具体步骤是:获取数据源;数据源按比例6:2:2分成训练集、测试集和验证集;提取属性标签;基于属性标签使用LabelImg工具对数据源中的目标对象进行标注生成数据集。
其中,所述基于属性标签使用LabelImg工具对数据源中的目标对象进行标注生成数据集之后,所述步骤还包括:使用K-means聚类算法生成了六种不同尺寸的先验框。
其中,所述属性标签包括行人、骑手和车辆,行人包括性别和年龄,骑手包括戴头盔和不带头盔;车辆包括安全等级,载客数量、特殊用途和危险物品。
其中,所述将摄像机获取的图像输入多尺度预测卷积精神网络,获取场景中目标类别以及置信度的具体步骤为:采用逻辑回归的方法预测目标对象的类别;采用非极大值抑制算法计算预测对象的置信度。
其中,所述根据目标类别识别交通场景的具体步骤是:基于数据集设定多种交通场景;结合图像中的所有目标类别与交通场景进行匹配以识别当前交通场景;将当前交通场景进行显示。
其中,所述基于交通场景计算驾驶策略风险度和道德强度,生成驾驶策略的具体步骤为:计算驾驶策略风险度;基于社会影响、潜在伤害和危害大小计算道德强度;基于驾驶策略风险度和道德强度获取驾驶策略。
其中,所述驾驶策略风险度的具体步骤是:基于行人年龄和性别加权计算行人风险值;基于骑手是否佩戴头盔加权计算骑手风险值;基于车辆类别计算车辆风险值;结合行人风险值、骑手风险值和车辆风险值计算驾驶策略风险度。
本发明的一种无人驾驶汽车在城市交通场景中驾驶策略计算方法,包括:收集数据样本,并对数据样本进行预处理,得到数据集;基于数据集构建并训练多尺度预测卷积神经网络;将摄像机获取的图像输入多尺度预测卷积精神网络,获取场景中目标类别以及置信度;根据目标类别识别交通场景;基于交通场景计算驾驶策略风险度和道德强度,生成驾驶策略。
本发明具有如下优势:
1、本发明不再使用传统数据集的样本标签,而是面向无人驾驶的伦理问题,提炼出与交通元素相关的伦理属性,并定义了与交通元素相关的22类伦理属性标签。
2、本发明最大的优势在于使用驾驶策略风险度和道德强度两个量化指标,为处于伦理困境中的无人驾驶汽车提供了一个符合伦理道德的驾驶策略的计算方法。
3、本发明将检测到的交通场景以及场景中具有伦理属性标签的交通元素及与之对应的置信度在系统界面中展示出来,目的是让无人驾驶汽车中的乘客可以在中控显示屏上看到目前车辆行驶的环境,这样做的有益效果是在发生事故时,更清晰的了解整个事故的过程,便于责任划分。
4、本发明取消了传统卷积神经网络的池化层和全连接层,采用全卷积的网络结构,该模型结构在精度、计算效率和运行速度上都有显著的提升。采用三种不同尺度的预测框,将网络结构中的池化层与上一图层连接进一步保留了细粒度特征,大大提升了图像中较小目标对象的识别精度。
5、本发明将传统算法中的softmax分类函数替换成逻辑回归函数,实现对多个目标进行类别预测。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的一种无人驾驶汽车在城市交通场景中驾驶策略计算方法的流程图;
图2是本发明的收集数据样本,并对数据样本进行预处理,得到数据集的流程图;
图3是本发明的将摄像机获取的图像输入多尺度预测卷积精神网络,获取场景中目标类别以及置信度的流程图;
图4是本发明的根据目标类别识别交通场景的流程图;
图5是本发明的基于交通场景计算驾驶策略风险度和道德强度,生成驾驶策略的流程图;
图6是本发明的计算驾驶策略风险度的流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
请参阅图1~图6,本发明提供一种无人驾驶汽车在城市交通场景中驾驶策略计算方法,包括:
S101收集数据样本,并对数据样本进行预处理,得到数据集;
具体步骤是:
S201获取数据源;
本发明计算驾驶策略风险度和道德强度的变量为道路上不同类别的交通元素,为了能得到一个符合伦理道德的驾驶策略,给交通元素定义了如表1的伦理属性。定义伦理属性的依据来自于“道德机器(Moral Machine)”实验设置道路场景中伦理问题时考虑的与交通元素有关的因素以及其他对无人驾驶伦理问题研究中涉及到的相关因素。
本发明是基于计算机视觉技术研究无人驾驶汽车在城市道路场景中的伦理问题,所以需要选取包含城市道路场景数据且样本是RGB格式的图像数据集。Cityscapes数据集的样本包含了德国50个城市的街道场景数据且样本是RGB格式的图片,满足本发明的研究需要,故选用该数据集作为数据源构建新的数据集。
S202数据源按比例6:2:2分成训练集、测试集和验证集;
S203提取属性标签;
所述属性标签包括行人、骑手和车辆,行人包括性别和年龄,骑手包括戴头盔和不带头盔;车辆包括安全等级,载客数量、特殊用途和危险物品。
为了满足计算驾驶策略风险度和道德强度的需求,本发明基于“道德机器(MoralMachine)”实验以及其他研究(以调研方式为主)中设置伦理问题时考虑到的与交通元素相关的因素,为交通元素提炼出如表1所示的伦理属性。
Figure GDA0003239686080000041
Figure GDA0003239686080000051
表1交通元素的伦理属性
S204基于属性标签使用LabelImg工具对数据源中的目标对象进行标注生成数据集。
并根据表2所示的伦理属性标签使用LabelImg工具对样本中的目标对象重新进行标注,因为是有监督的训练过程,通过对数据集中的目标对象进行标注,可以让模型学到每个目标对象的权重,后面在测试的时候直接用训练得到的权重检测出输入图片中的对象类别。
Figure GDA0003239686080000052
Figure GDA0003239686080000061
表2伦理属性标签
S205使用K-means聚类算法生成了六种不同尺寸的先验框。
本发明采用K-means聚类的方法生成与三种不同尺寸特征图相对应的预测框,为每种尺寸的特征图设定2种预测框,一共聚类出6种不同尺寸的预测框,其中大尺寸预测框对应高倍数下采样生成的特征图,中等尺寸预测框对应中等倍数下采样生成的特征图,小尺寸预测框对应低倍数下采样生成的特征图。不仅提高了匹配度,还提高了模型的计算速度和识别效率。
S102基于数据集构建并训练多尺度预测卷积神经网络;
构建多尺度预测的卷积神经网络模型。该模型借用了残差网络的思想,在网络中加入了残差模块,解决了深层次网络的梯度问题,并用卷积层代替网络中的池化层和全连接层。用新构建的数据集对多尺度预测卷积神经网络进行预训练,用于模型训练的数据集的样本标签如表3所示。经过预训练的模型会得到三种损失值分别是置信度损失、类别损失和定位损失。这三种损失值可以直接用于实时检测系统中。整个网络结构包含了53个卷积层,卷积层之间的残差网络采用跳层连接,采用这种方式可以更完整的提取输入图像的特征信息,提高目标对象的分类和检测精度。该网络结构大大减少了每次卷积的通道数量,使得模型中参数的数量大大降低,减少了计算量,提高了整体的计算速度。
Figure GDA0003239686080000062
表3样本标签
本发明采用三种不同尺寸的特征图来进行对象检测。卷积过程中,每个特征图只有一个卷积核与之对应并与之进行卷积运算,前一层特征图通过一个可训练卷积核进行卷积,其结果再通过一个激活函数形成下一层特征图;池化过程中,池化层中的每个特征图都分别和卷积层中的特征图一一对应,通过感受野对卷积层进行抽样,选取局部感受野中值最大的点。首先通过32倍下采样生成一个n1×n1的特征图,该下采样是高倍数的下采样,生成特征图的感受野较大,适合用来检测样本图像中尺寸较大的对象;然后通过16倍下采样生成的n2×n2特征图来实现细粒度的检测,n2×n2的特征图具有中等尺度的感受野,用来检测样本图像中中等尺寸的对象;最后得到相对输入图像8倍下采样的n3×n3的特征图,n3×n3特征图的感受野最小,用其来检测样本图像中小尺寸的对象。
设F1,F2…,FN分别代表不同尺度卷积神经网络经过卷积、池化后的特征图,其中,F1,的大小为原始图像的大小。其公式如下:
fs(Xss)=WLHL-1 s=1,2,…,N (1)
H1=pool(Relu(WlHl-1+b1))l=1,2,…,L (2)
其中,fs是卷积层数为s的卷积神经网络,Xs是卷积神经网络的输入图像,θs是卷积层数为s的卷积神经网络模型参数,N为多尺度卷积神经网络总的尺度数量,L为卷积神经网络的总层数,l表示积神经网络的第l层,WL为最后一层第L层的Toeplitz矩阵,HL-1为第L-1层的特征图,Wl为第l层Toeplitz矩阵,Hl为第l层的特征图,pool为池化操作,relu为激活函数,b1为偏置。
由于采用三种不同尺寸的特征图来检测对象,那么随着输出特征图的数量和尺寸的变化,预测框的尺寸也要进行相对应的调整。本发明采用K-means聚类的方法生成与三种不同尺寸特征图相对应的预测框,为每种尺寸的特征图设定2种预测框,一共聚类出6种不同尺寸的预测框,其中大尺寸预测框对应高倍数下采样生成的特征图,中等尺寸预测框对应中等倍数下采样生成的特征图,小尺寸预测框对应低倍数下采样生成的特征图。
对卷积池化后与F1不同尺度的特征图F2,F3,…,FN进行上采样,使不同尺度上卷积池化后的特征图像大小变为与F1具有相同尺寸的上采样操作输出特征图,形成包含不同尺度上有效信息且尺度相同的特征图集合F。其公式如下:
F=[F1,U(F2),…,U(FN)] (3)
其中,F为N个尺度上采样操作后的特征图集合,Fs为多尺度卷积神经网络经卷积池化后尺度为s的未进行上采样操作的特征图,尺度s的取值范围为s=1,2,…,N,U为上采样函数。
S103将摄像机获取的图像输入多尺度预测卷积精神网络,获取场景中目标类别以及置信度;
具体步骤是:
S301采用逻辑回归的方法预测目标对象的类别;
传统的卷积神经络大多使用softmax分类函数,但是该函数只适合用单个目标的分类,本发明采用逻辑回归函数来替代传统的分类函数,主要是由于本发明需要对多标签对象进行分类,而逻辑回归函数刚好满足这一要求。
目标类别损失Lcla(O,C)采用的是二值交叉熵损失函数,采用该损失函数的原因是,同一目标可同时归为多类,比如猫可归为猫类以及动物类,这样能够应对更加复杂的场景。目标类别损失函数如下式:
Figure GDA0003239686080000081
其中Oij∈{o,1},表示预测目标边界框i中是否真实存在第j类目标,0表示不存在,1表示存在。
Figure GDA0003239686080000082
表示网络预测目标边界框i内存在第j类目标的Sigmoid概率(将预测值通过sigmoid函数得到)。
S302采用非极大值抑制算法计算预测对象的置信度。
置信度为预测对象类别的可信程度,表示预测框中对象属于某一类别的概率。
目标置信度为预测目标矩形框内存在目标的概率,是每个边界框输出的一个重要参数,包括两部分:一是代表当前预测边框是否有对象的概率,用Pr(Object)表示;二是表示当前预测边框中有检测对象时,预测边框与真实边框位置坐标的比值,用
Figure GDA0003239686080000083
表示。用
Figure GDA0003239686080000084
表示第i个网格中的第j个边框的置信度:
Figure GDA0003239686080000085
目标置信度损失Lconf(O,C)同样采用二值交叉熵损失损失函数,置信度损失函数如下式:
Figure GDA0003239686080000086
其中Oi∈{0,1},表示预测目标边界框i中是否真实存在目标,0表示不存在,1表示存在。
Figure GDA0003239686080000091
表示表示预测目标矩形框i内是否存在目标的Sigmoid概率(预测值
Figure GDA0003239686080000092
由Sigmoid函数得到)。
S104根据目标类别识别交通场景;
具体步骤是:
S401基于数据集设定多种交通场景;
机动车场景:该场景中,自动驾驶汽车周围只有机动车,例如轿车、公交车、校车、卡车、巴士等。
非机动车场景:该场景中,道路中只有非机动车,例如自行车。
单行人场景:该场景中,自动驾驶汽车周围只有行人且有且只有一个行人。
多行人场景:该场景中,道路上有多个行人。
人车共存场景:该场景中,自动驾驶汽车前方目标包括行人和各种类型的车辆,例如单行人和非机动车、单行人和机动车或者是多行人和非机动车、多行人和机动车。
S402结合图像中的所有目标类别与交通场景进行匹配以识别当前交通场景;
对于输入的每张图片,最后输出的是图片中每个对象的类别及其置信度,根据最后输出的对象类别,结合设定好的交通场景包含的元素,判断输入图片代表哪种交通场景。
S403将当前交通场景进行显示。
最后将其在系统界面中显示出来。
S105基于交通场景计算驾驶策略风险度和道德强度,生成驾驶策略。
具体步骤是:
S501计算驾驶策略风险度;
具体步骤是:
S601基于行人年龄和性别加权计算行人风险值;
S602基于骑手是否佩戴头盔加权计算骑手风险值;
S603基于车辆类别计算车辆风险值;
S604结合行人风险值、骑手风险值和车辆风险值计算驾驶策略风险度。
检测到无人驾驶汽车行驶的交通场景的同时也识别出了场景中存在的交通元素,伦理困境的出现与道路场景中的交通元素密切相关,本发明将具有伦理性的交通元素作为计算驾驶策略风险度的变量,具体计算公式如下:
β=βpeopleridervehicle (8)
其中,β为驾驶策略风险度;βpeople表示道路上行人带来的驾驶策略风险;βrider表示道路上骑手带来的驾驶策略风险,包括自行车骑手和摩托车骑手;βvehicle表示不同类型的车辆带来的驾驶策略风险。
不同年龄段的行人带来的驾驶策略风险程度不同,本发明将以婴儿β1、儿童β2、成年男性β3、成年女性β4、老年男性β5和老年女性β6为具体的量化指标计算行人带来的驾驶策略风险。计算公式如下:
Figure GDA0003239686080000101
其中,
Figure GDA0003239686080000102
表示个量化指标的权重系数。
Figure GDA0003239686080000103
值由“道德机器”实验结论——拯救幼小生命的强烈意愿以及发生碰撞后不同年龄段人死亡的概率决定,不同年龄段人的死亡概率计算公式如下所示:
Figure GDA0003239686080000104
Figure GDA0003239686080000105
Figure GDA0003239686080000106
其中,v表示发生碰撞时,无人驾驶车的行驶速度。假设无人驾驶汽车在城市道路上的行驶速度为40km/h,则
children,φadults,φelderly]=[0.98,0.36,0.84]
可以发现相同速度下,发生碰撞事故时儿童的死亡概率最大,其次是老年人,成年人的死亡概率最低。本发明结合上述依据,赋予权重系数的值为
Figure GDA0003239686080000107
故βpeople的实际计算公式如下:
βpeople=0.98β1+0.88β2+0.36β3+0.56β4+0.64β5+0.84β6 (13)
骑手是否佩戴头盔同样会影响无人驾驶汽车的驾驶策略,没有佩戴头盔的骑手会增加驾驶策略风险,具体的量化计算公式如下:
βrider=μ1R12R2 (14)
其中,μ同样为骑手的权重系数,R1表示骑手佩戴头盔,R2表示骑手未佩戴头盔。发生碰撞时,头盔对骑手具有一定的保护作用,故没有佩戴头盔的骑手会增加驾驶策略的风险,本发明赋予骑手的权重值为μ=[0.4,0.6],则βrider的实际计算公式如下:
βrider=0.4R1+0.6R2 (15)
不同类型的车辆同样影响着驾驶策略,为了更具体的计算以车辆为指标的驾驶策略风险度,本发明为车辆赋予了四种伦理属性,βvehicle则由这四种伦理属性来衡量。计算公式如下:
βvehicle=ω1V12V23V34V4 (16)
其中,ω表示车辆指标的权重系数;V1表示车辆安全等级对驾驶策略的影响,安全等级越低,会增加驾驶策略的风险;V2表示大型载客车辆对驾驶策略的影响,搭载乘客数量越多会增加驾驶策略的风险;V3表示特殊用途车辆对驾驶策略的影响,消防车、救护车等特殊用途车辆会增加驾驶策略的风险;V4表示运输危险物品的车辆对驾驶策略的影响,油罐车会增加驾驶策略的风险。考虑到这四种伦理属性指标带来的综合影响,赋予的权重值为ω=[0.2,0.4,0.6,0.8]。本发明参考美国公路安全保险协会(Insurance Institute ForHighway Safety)公布的不同类型车辆发生事故时车中乘客的死亡人数,按安全等级由低到高将车辆分成Car、SUV和Pickup,并将其分成如表3所示的类别。V1的计算公式如下:
V1=λ1C12C21S12S21P12P2 (17)
其中,λ表示轿车的权重系数,C1、C2分别为Small Car和Large Car对驾驶策略的影响,Small Car会增加驾驶策略的风险,λ=[0.8,0.6];γ表示SUV的权重系数,S1、S2分别为Small SUV和Large SUV对驾驶策略的影响,Small SUV会增加驾驶策略的风险,γ=[0.7,0.5];σ表示卡车的权重系数,P1、P2分别为Small Pickup和Large Pickup对驾驶策略的影响,σ=[0.4,0.2]。
S502基于社会影响、潜在伤害和危害大小计算道德强度;
本发明将从社会影响M1、潜在伤害M2和危害大小M3三个方面来对道德强度进行量化计算。计算公式如下:
M=M1+M2+M3 (18)
其中,M表示道德强度。M1表示驾驶策略对社会的影响或社会对驾驶策略的评论程度,发生事故时撞上救护车会增加驾驶策略对社会的影响;M2表示驾驶策略除造成碰撞对象损伤外,还可能带来其他伤害,撞上油罐车,除了可能造成油罐车驾驶员受伤,还可能产生爆炸,造成更大的伤害;M3表示驾驶策略直接造成的伤害集中度,撞上大型载客车辆,例如公交车,可能会造成更多人受伤,会增加伤害集中度。综上,本文对驾驶策略风险度和道德强度的计算,需要根据检测到的交通场景中包含的交通元素进行具体计算,具有不同伦理属性标签的交通元素,与之对应的量化值也是不同的。
S503基于驾驶策略风险度和道德强度获取驾驶策略。
最终生成的驾驶策略D由β和M共同决定,计算公式如下:
D=β+M (19)
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。

Claims (6)

1.一种无人驾驶汽车在城市交通场景中驾驶策略计算方法,其特征在于,
包括:收集数据样本,并对数据样本进行预处理,得到数据集;
基于数据集构建并训练多尺度预测卷积神经网络;
将摄像机获取的图像输入多尺度预测卷积精神网络,获取场景中目标类别以及置信度;
根据目标类别识别交通场景;
基于交通场景计算驾驶策略风险度和道德强度,生成驾驶策略,具体步骤是:基于行人年龄和性别加权计算行人风险值;基于骑手是否佩戴头盔加权计算骑手风险值;基于车辆类别计算车辆风险值;结合行人风险值、骑手风险值和车辆风险值计算驾驶策略风险度;基于社会影响、潜在伤害和危害大小计算道德强度;基于驾驶策略风险度和道德强度获取驾驶策略。
2.如权利要求1所述的一种无人驾驶汽车在城市交通场景中驾驶策略计算方法,其特征在于,
所述收集数据样本,并对数据样本进行预处理,得到数据集的具体步骤是:
获取数据源;
数据源按比例6:2:2分成训练集、测试集和验证集;
提取属性标签;
基于属性标签使用LabelImg工具对数据源中的目标对象进行标注生成数据集。
3.如权利要求2所述的一种无人驾驶汽车在城市交通场景中驾驶策略计算方法,其特征在于,
所述基于属性标签使用LabelImg工具对数据源中的目标对象进行标注生成数据集之后,所述步骤还包括:
使用K-means聚类算法生成了六种不同尺寸的先验框。
4.如权利要求3所述的一种无人驾驶汽车在城市交通场景中驾驶策略计算方法,其特征在于,
所述属性标签包括行人、骑手和车辆,行人包括性别和年龄,骑手包括戴头盔和不带头盔;车辆包括安全等级,载客数量、特殊用途和危险物品。
5.如权利要求1所述的一种无人驾驶汽车在城市交通场景中驾驶策略计算方法,其特征在于,
所述将摄像机获取的图像输入多尺度预测卷积精神网络,获取场景中目标类别以及置信度的具体步骤为:
采用逻辑回归的方法预测目标对象的类别;
采用非极大值抑制算法计算预测对象的置信度。
6.如权利要求1所述的一种无人驾驶汽车在城市交通场景中驾驶策略计算方法,其特征在于,
所述根据目标类别识别交通场景的具体步骤是:
基于数据集设定多种交通场景;
结合图像中的所有目标类别与交通场景进行匹配以识别当前交通场景;
将当前交通场景进行显示。
CN202110531088.XA 2021-05-16 2021-05-16 一种无人驾驶汽车在城市交通场景中驾驶策略计算方法 Active CN113449589B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110531088.XA CN113449589B (zh) 2021-05-16 2021-05-16 一种无人驾驶汽车在城市交通场景中驾驶策略计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110531088.XA CN113449589B (zh) 2021-05-16 2021-05-16 一种无人驾驶汽车在城市交通场景中驾驶策略计算方法

Publications (2)

Publication Number Publication Date
CN113449589A CN113449589A (zh) 2021-09-28
CN113449589B true CN113449589B (zh) 2022-11-15

Family

ID=77809816

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110531088.XA Active CN113449589B (zh) 2021-05-16 2021-05-16 一种无人驾驶汽车在城市交通场景中驾驶策略计算方法

Country Status (1)

Country Link
CN (1) CN113449589B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105956532A (zh) * 2016-04-25 2016-09-21 大连理工大学 一种基于多尺度卷积神经网络的交通场景分类方法
CN106347359A (zh) * 2016-09-14 2017-01-25 北京百度网讯科技有限公司 用于操作自动驾驶车辆的方法和装置
EP3217332A1 (en) * 2016-03-11 2017-09-13 Panasonic Intellectual Property Corporation of America Risk prediction method
JP2017162456A (ja) * 2016-03-11 2017-09-14 株式会社東芝 道路シーンのセマンティックセグメンテーションのための制約付きデコンボリューションネットワークのトレーニング
CN107609602A (zh) * 2017-09-28 2018-01-19 吉林大学 一种基于卷积神经网络的驾驶场景分类方法
WO2018171875A1 (en) * 2017-03-21 2018-09-27 Toyota Motor Europe Nv/Sa Control device, system and method for determining the perceptual load of a visual and dynamic driving scene
CN108791308A (zh) * 2018-06-25 2018-11-13 大连大学 基于驾驶环境构建驾驶策略的系统
CN108875595A (zh) * 2018-05-29 2018-11-23 重庆大学 一种基于深度学习和多层特征融合的驾驶场景目标检测方法
CN109241856A (zh) * 2018-08-13 2019-01-18 浙江零跑科技有限公司 一种单目车载视觉系统立体目标检测方法
CN109255298A (zh) * 2018-08-07 2019-01-22 南京工业大学 一种动态背景中的安全帽检测方法与系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104966066A (zh) * 2015-06-26 2015-10-07 武汉大学 一种面向交通卡口监控的车内人脸检测方法及系统
US10755115B2 (en) * 2017-12-29 2020-08-25 Here Global B.V. Method, apparatus, and system for generating synthetic image data for machine learning
CN109334563B (zh) * 2018-08-31 2021-06-22 江苏大学 一种基于道路前方行人和骑行者的防碰撞预警方法
CN109993082B (zh) * 2019-03-20 2021-11-05 上海理工大学 卷积神经网络道路场景分类与道路分割方法
CN111803065B (zh) * 2020-06-23 2023-12-26 北方工业大学 一种基于脑电数据的危险交通场景辨识方法及系统

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3217332A1 (en) * 2016-03-11 2017-09-13 Panasonic Intellectual Property Corporation of America Risk prediction method
JP2017162456A (ja) * 2016-03-11 2017-09-14 株式会社東芝 道路シーンのセマンティックセグメンテーションのための制約付きデコンボリューションネットワークのトレーニング
CN105956532A (zh) * 2016-04-25 2016-09-21 大连理工大学 一种基于多尺度卷积神经网络的交通场景分类方法
CN106347359A (zh) * 2016-09-14 2017-01-25 北京百度网讯科技有限公司 用于操作自动驾驶车辆的方法和装置
WO2018171875A1 (en) * 2017-03-21 2018-09-27 Toyota Motor Europe Nv/Sa Control device, system and method for determining the perceptual load of a visual and dynamic driving scene
CN107609602A (zh) * 2017-09-28 2018-01-19 吉林大学 一种基于卷积神经网络的驾驶场景分类方法
CN108875595A (zh) * 2018-05-29 2018-11-23 重庆大学 一种基于深度学习和多层特征融合的驾驶场景目标检测方法
CN108791308A (zh) * 2018-06-25 2018-11-13 大连大学 基于驾驶环境构建驾驶策略的系统
CN109255298A (zh) * 2018-08-07 2019-01-22 南京工业大学 一种动态背景中的安全帽检测方法与系统
CN109241856A (zh) * 2018-08-13 2019-01-18 浙江零跑科技有限公司 一种单目车载视觉系统立体目标检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Research on Automatic Driving System based on the Integration of Vision and Satellite Convolutional Neural Network;Mengyao Li;《2018 3rd International Conference on Mechanical, Control and Computer Engineering (ICMCCE)》;20181231;第130-135页 *
基于全卷积神经网络的道路场景语义分割算法研究;吴甜甜;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20210115;C034-959 *
智能车队的运行环境驾驶行为认知与协同控制优化方法;陈俊杰;《中国博士学位论文全文数据库 工程科技Ⅱ辑》;20210315;C034-30 *

Also Published As

Publication number Publication date
CN113449589A (zh) 2021-09-28

Similar Documents

Publication Publication Date Title
AU2019101142A4 (en) A pedestrian detection method with lightweight backbone based on yolov3 network
Alkinani et al. Detecting human driver inattentive and aggressive driving behavior using deep learning: Recent advances, requirements and open challenges
CN107886073B (zh) 一种基于卷积神经网络的细粒度车辆多属性识别方法
Peng et al. Uncertainty evaluation of object detection algorithms for autonomous vehicles
US10402670B2 (en) Parallel scene primitive detection using a surround camera system
Qin et al. Distracted driver detection based on a CNN with decreasing filter size
Li et al. Driving style classification based on driving operational pictures
US20230351775A1 (en) Inferring intent using computer vision
Vasconez et al. A fuzzy-based driver assistance system using human cognitive parameters and driving style information
Chu et al. A review of driving style recognition methods from short-term and long-term perspectives
Saravanarajan et al. Car crash detection using ensemble deep learning
CN113449589B (zh) 一种无人驾驶汽车在城市交通场景中驾驶策略计算方法
CN114120246B (zh) 一种基于复杂环境的前方车辆检测算法
CN116935361A (zh) 一种基于深度学习的驾驶员分心行为检测方法
Xu et al. Roadside estimation of a vehicle’s center of gravity height based on an improved single-stage detection algorithm and regression prediction technology
Rahim et al. A Novel Spatio–Temporal Deep Learning Vehicle Turns Detection Scheme Using GPS-Only Data
Yang et al. Learning spatio-temporal representations with a dual-stream 3-D residual network for nondriving activity recognition
Barshooi et al. Nighttime Driver Behavior Prediction Using Taillight Signal Recognition via CNN-SVM Classifier
CN113147781A (zh) 一种汽车智能驾驶信息展示系统
Li et al. A Deep Multichannel Network Model for Driving Behavior Risk Classification
Park et al. Denoising recurrent neural networks for classifying crash-related events
Hovorushchenko et al. Road Accident Prevention System
Dong et al. Applications of Computer Vision in Autonomous Vehicles: Methods, Challenges and Future Directions
CN116541715B (zh) 目标检测方法、模型的训练方法、目标检测系统及装置
Withanawasam et al. Top-down, Spatio-Temporal Attentional Guidance for On-road Object Detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant