CN111091020A - 自动驾驶状态判别方法和装置 - Google Patents

自动驾驶状态判别方法和装置 Download PDF

Info

Publication number
CN111091020A
CN111091020A CN201811228611.6A CN201811228611A CN111091020A CN 111091020 A CN111091020 A CN 111091020A CN 201811228611 A CN201811228611 A CN 201811228611A CN 111091020 A CN111091020 A CN 111091020A
Authority
CN
China
Prior art keywords
network
dimensional data
data
automatic driving
triple
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811228611.6A
Other languages
English (en)
Inventor
张俊飞
罗盾
王静
毛继明
董芳芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201811228611.6A priority Critical patent/CN111091020A/zh
Publication of CN111091020A publication Critical patent/CN111091020A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提出一种自动驾驶状态判别方法和装置。该方法包括:将自动驾驶仿真结果包括的N维数据输入三元组深度网络;利用三元组深度网络对所述N维数据进行降维处理,输出M维数据;其中N大于M,且M和N为正整数;将所述M维数据输入分类网络;利用所述分类网络对所述M维数据进行判别,输出所述自动驾驶仿真结果对应的驾驶状态。本发明实施例利用三元组深度网络和分类网络对自动驾驶仿真结果进行判别,能够准确地判别自动驾驶仿真的状态,从而能够反馈调整仿真策略。

Description

自动驾驶状态判别方法和装置
技术领域
本发明涉及自动驾驶技术领域,尤其涉及一种自动驾驶状态判别方法和装置。
背景技术
现有一般基于硬规则判别无人车在仿真场景的运行效果。例如:无人车有没有违反交通规则,有没有压实线,超车有没有保留足够安全距离,加速减速太频繁使得的体感不适等。
基于硬规则来评估无人车的驾驶行为,虽然可以对硬边界实现精准的判别,但是无法让无人车有效理解一个全局场景。
与人类优秀的驾驶员相比,对场景的理解深度不够,可能导致无人车作出的决策太过笨拙而保守。例如,无人车在路口遇到行人会减速停车,即使行人停下让行,无人车也不会做出正常行驶的决策,而是一直等待行人走过才开始行驶。
发明内容
本发明实施例提供一种自动驾驶状态判别方法和装置,以解决现有技术中的一个或多个技术问题。
第一方面,本发明实施例提供了一种自动驾驶状态判别方法,包括:
将自动驾驶仿真结果包括的N维数据输入三元组深度网络;
利用三元组深度网络对所述N维数据进行降维处理,输出M维数据;其中N大于M,且M和N为正整数;
将所述M维数据输入分类网络;
利用所述分类网络对所述M维数据进行判别,输出所述自动驾驶仿真结果对应的驾驶状态。
在一种实施方式中,所述三元组深度网络是通过如下方式训练的:
获取各自动驾驶场景包括的正类数据、负类数据和专家数据;
利用正类数据、负类数据和专家数据,训练得到所述三元组深度网络,确定所述三元组深度网络的每一层的权值矩阵,所述三元组深度网络的损失函数为余弦损失函数。
在一种实施方式中,所述分类网络是通过如下方式训练的:
获取各类别对应的训练样本,所述训练样本中包括类别标签;
利用各类别对应的训练样本,训练得到softMax多分类网络,确定所述softMax多分类网络的每一层的权值矩阵,所述softMax多分类网络的损失函数为交叉熵损失函数。
在一种实施方式中,利用三元组深度网络对所述N维数据进行降维处理,输出M维数据,包括:
利用三元组深度网络的权值矩阵对所述N维数据进行降维处理,输出M维数据。
在一种实施方式中,利用所述分类网络对所述M维数据进行判别,输出所述自动驾驶仿真结果对应的驾驶状态,包括:
利用所述分类网络的权值矩阵对所述M维数据进行判别,输出所述M维数据的类别标签,根据所述M维数据的类别标签得到所述自动驾驶仿真结果对应的驾驶状态。
在一种实施方式中,所述驾驶状态包括变道状态、变速状态、体感状态、超车状态中的至少一项。
第二方面,本发明实施例提供了一种自动驾驶状态判别装置,包括:
第一网络输入模块,用于将自动驾驶仿真结果包括的N维数据输入三元组深度网络;
第一网络输出模块,用于利用三元组深度网络对所述N维数据进行降维处理,输出M维数据;其中N大于M,且M和N为正整数;
第二网络输入模块,用于将所述M维数据输入分类网络;
第二网络输出模块,用于利用所述分类网络对所述M维数据进行判别,输出所述自动驾驶仿真结果对应的驾驶状态。
在一种实施方式中,所述三元组深度网络是通过如下模块训练的:
第一获取模块,用于获取各自动驾驶场景包括的正类数据、负类数据和专家数据;
第一训练模块,用于利用正类数据、负类数据和专家数据,训练得到所述三元组深度网络,确定所述三元组深度网络的每一层的权值矩阵,所述三元组深度网络的损失函数为余弦损失函数。
在一种实施方式中,所述分类网络是通过如下模块训练的:
第二获取模块,用于获取各类别对应的训练样本,所述训练样本中包括类别标签;
第二训练模块,用于利用各类别对应训练样本,训练得到softMax多分类网络,确定所述softMax多分类网络的每一层的权值矩阵,所述softMax多分类网络的损失函数为交叉熵损失函数。
在一种实施方式中,所述第一网络输出模块还用于利用三元组深度网络的权值矩阵对所述N维数据进行降维处理,输出M维数据。
在一种实施方式中,所述第二网络输出模块还用于利用所述分类网络的权值矩阵对所述M维数据进行判别,输出所述M维数据的类别标签,根据所述M维数据的类别标签得到所述自动驾驶仿真结果对应的驾驶状态。
在一种实施方式中,所述驾驶状态包括变道状态、变速状态、体感状态、超车状态中的至少一项。
第三方面,本发明实施例提供了一种自动驾驶状态判别装置,所述装置的功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。
在一个可能的设计中,所述装置的结构中包括处理器和存储器,所述存储器用于存储支持所述装置执行上述自动驾驶状态判别方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。所述装置还可以包括通信接口,用于与其他设备或通信网络通信。
第四方面,本发明实施例提供了一种计算机可读存储介质,用于存储自动驾驶状态判别装置所用的计算机软件指令,其包括用于执行上述自动驾驶状态判别方法所涉及的程序。
上述技术方案中的一个技术方案具有如下优点或有益效果:利用三元组深度网络和分类网络对自动驾驶仿真结果进行判别,能够准确地判别自动驾驶仿真的状态,从而能够反馈调整仿真策略。
上述技术方案中的另一个技术方案具有如下优点或有益效果:在三元组深度网络训练时,利用真实人类的专家数据进行训练,使得三元组深度网络的输出更加符合人类真实的驾驶习惯,后续分类网络的判别结果也更加接近人类的真实的驾驶习惯。因此,判别结果更准确,有利于反馈调整仿真策略。
上述概述仅仅是为了说明书的目的,并不意图以任何方式进行限制。除上述描述的示意性的方面、实施方式和特征之外,通过参考附图和以下的详细描述,本发明进一步的方面、实施方式和特征将会是容易明白的。
附图说明
在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本发明公开的一些实施方式,而不应将其视为是对本发明范围的限制。
图1示出根据本发明实施例的自动驾驶状态判别方法的流程图。
图2示出根据本发明实施例的自动驾驶状态判别方法的流程图。
图3示出根据本发明实施例的自动驾驶状态判别方法的流程图。
图4示出根据本发明实施例的自动驾驶状态判别方法中三元组深度网络的训练过程的示意图。
图5示出根据本发明实施例的自动驾驶状态判别方法中分类网络的训练过程的示意图。
图6示出根据本发明实施例的自动驾驶状态判别方法中判别过程的示意图。
图7示出根据本发明实施例的自动驾驶状态判别装置的结构框图。
图8示出根据本发明实施例的自动驾驶状态判别装置的结构框图。
图9示出根据本发明实施例的自动驾驶状态判别装置的结构框图。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本发明的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
图1示出根据本发明实施例的自动驾驶状态判别方法的流程图。如图1所示,该自动驾驶状态判别方法可以包括判定过程,具体可以包括:
步骤S11、将自动驾驶仿真结果包括的N维数据输入三元组深度网络。
步骤S12、利用三元组深度网络对所述N维数据进行降维处理,输出M维数据;其中N大于M,且M和N为正整数。
步骤S13、将所述M维数据输入分类网络。
步骤S14、利用所述分类网络对所述M维数据进行判别,输出所述自动驾驶仿真结果对应的驾驶状态。
在本发明实施例中,自动驾驶仿真结果中可以包括planning(决策数据)。将N维的决策数据输入Triplet(三元组)深度网络可以得到降维的M维数据。在训练过程中,可以得到三元组深度网络每一层的权值矩阵,在判别过程中利用这些权值矩阵可以对输入的数据进行降维处理。Triplet深度网络可以将同类样本的距离缩小,不同类样本的距离拉大,从而增强对决策数据中各特征的判别性能。然后,将M维数据输入分类网络例如softMax多分类网络,得到类别标签,进而判别本次自动驾驶仿真结果对应的驾驶状态。
在一种实施方式中,所述驾驶状态包括变道状态、变速状态、体感状态、超车状态中的至少一项。判别结果可以包括变道是否频繁,变速是否频繁,超车是否适当,体感是否舒适等。
下面介绍按照网络的训练过程和判别过程分别进行说明。
训练过程包括训练三元组深度网络的过程和训练分类网络的过程。
在一种实施方式中,如图2所示,所述三元组深度网络是通过如下方式训练的:
步骤S21、获取各自动驾驶场景包括的正类数据、负类数据和专家数据。其中,正类数据可以包括驾驶状态相对较好的样本集合,负类数据可以包括驾驶状态相对较差的样本集合,专家数据可以包括真实人类驾驶的非常好的样本集合。
步骤S22、利用正类数据、负类数据和专家数据,训练得到所述三元组深度网络,确定所述三元组深度网络的每一层的权值矩阵,所述三元组深度网络的损失函数为余弦损失函数。
采用正类数据、负类数据和专家数据构造N维数据,作为三元组深度网络的输入数据,进行多轮训练,得到三元组深度网络的权值矩阵。三元组深度网络可能包括多层,可以训练得到每一层的稳定的权值矩阵。其中,输入的N维数据中可以包括类别标签。
在一种实施方式中,如图3所示,所述分类网络是通过如下方式训练的:
步骤S31、获取各类别对应的训练样本,所述训练样本中包括类别标签。
步骤S32、利用各类别对应的训练样本,训练得到softMax多分类网络,确定所述softMax多分类网络的每一层的权值矩阵,所述softMax多分类网络的损失函数为交叉熵损失函数。
在本发明实施例中,可以预先设置多个类别,每个类别表示一种驾驶状态。例如,设置变道频繁、变速频繁、超车不适当、体感不适等多个类别。分别收集每个类别对应的训练样本,构成该类别的训练矩阵。每个训练样本中具有对应的类别标签。利用这些训练矩阵包括的训练样本,训练得到的softMax多分类网络,可以识别出自动驾驶的状态。在训练过程中,可以利用三元组深度网络训练过程中的输出的M维数据作为分类网络的训练样本,构建训练矩阵。作为训练样本的M维数据的类别标签,从输入三元组深度网络的N维数据中直接获取。
在判别过程中,可以先利用三元组深度网络进行降维,再利用分类网络判别驾驶状态。
具体而言,步骤S12利用三元组深度网络对所述N维数据进行降维处理,输出M维数据,包括:利用三元组深度网络的权值矩阵对所述N维数据进行降维处理,输出M维数据。
进一步地,步骤S14利用所述分类网络对所述M维数据进行判别,输出所述自动驾驶仿真结果对应的驾驶状态,包括:利用所述分类网络的权值矩阵对所述M维数据进行判别,输出所述M维数据的类别标签,根据所述M维数据的类别标签得到所述自动驾驶仿真结果对应的驾驶状态。
本发明实施例利用三元组深度网络和分类网络对自动驾驶仿真结果进行判别,能够准确地判别自动驾驶仿真的状态,从而能够反馈调整仿真策略。
进一步地,在三元组深度网络训练时,利用真实人类的专家数据进行训练,使得三元组深度网络的输出更加符合人类真实的驾驶习惯,后续分类网络的判别结果也更加接近人类的真实的驾驶习惯。因此,判别结果更准确,有利于反馈调整仿真策略。
在一种应用示例中,自动驾驶状态判别方法包括训练过程和判别过程。
(一)训练过程
采用两个网络结构,通过两阶段训练得到启发式的智能评估系统。
第一阶段:引入一个Triplet(三元组)深度网络(第一个网络),该网络共享权重。网络的输入数据有3种:同一场景的专家数据(真实人类开的非常好的数据,Driver),相对较好的planning(决策数据)、即正类数据,以及相对较差的planning(决策数据)即、负类数据。例如,决策数据可以包括无人车仿真之后的录像。
如图4所示,Triplet深度网络的输入是N维数据,包括N维矢量特征,输出是M维数据,包括M维矢量特征,M小于N。
(1)各特征可以包括但不限于交通信息流(红绿灯),地图信息(几个车道,十字路口,车道限速等信息),障碍车交互信息(相对距离,相对速度等),主车信息(体感,加速度,速度等)。
(2)Triplet深度网络的损失函数可采用cos损失函数。Triplet深度网络训练过程中遵循以下规则:专家数据的损失函数最小,专家数据与正类数据尽可能接近,与负类数据尽可能远离。
在训练过程中,将N维特征输入Triplet深度网络后,可以输出M维特征的权值矩阵W。一般经过很多轮训练后,得到稳定的权值矩阵。
第二阶段:训练softMax多分类网络(第二个网络),对低维矢量进行分类。
如图5所示,首先,构造训练矩阵。可以预先为判别结果设置多个分类,例如A(变道频繁),B(超车不好),C(体感不适),D(变速频繁)等。收集每一类对应的训练样本。例如:planning1,标签为A类;planning2,标签为B类。每一类的多个训练样本组成训练矩阵。利用每一类的训练矩阵进行训练,得到softMax多分类网络。
其中在训练过程中,softMax多分类网络的输入可以采用第一阶段输出的低维矢量M。loss函数可以采用交叉熵损失。
(二)判别过程
如图6所示,利用训练之后的网络进行判别的过程可以包括:获取仿真结果中包括的高维的决策数据。将高维的决策数据输入训练好的Triplet深度网络,Triplet深度网络的各层的权值矩阵用W1表示。经过Triplet深度网络降维处理后得到低维数据。
将低维数据输入softMax多分类网络,softMax多分类网络中关于各层的权值矩阵用W2表示。经过softMax多分类网络判别后得到类别标签。然后,利用类别标签得到自动驾驶状态的判别结果。例如:如果将Triplet深度网络输出的低维数据输入softMax多分类网络后,判别出类别{A,B,C,D}对应权值为{0.5,0.1,0.2,0.2}。由于A类对应的权值为0.5,表明属于该类别的概率最大,因此,可以判定该planning为A类,自动驾驶状态为变道频繁。
在Triplet深度网络训练时,利用真实人类的专家数据进行训练,使得Triplet深度网络的输出更加符合人类真实的驾驶习惯,后续softMax多分类网络的判别结果也更加接近人类的真实的驾驶习惯。因此,采用本发明实施例的自动驾驶状态判别方法,判别结果更准确,有利于反馈调整仿真策略。例如,如果判定某次仿真结果的自动驾驶状态为变道频繁,可以在仿真策略中,限制变道次数或延长变道时间间隔等。
图7示出根据本发明实施例的自动驾驶状态判别装置的结构框图。如图7所示,该装置可以包括:
第一网络输入模块71,用于将自动驾驶仿真结果包括的N维数据输入三元组深度网络;
第一网络输出模块72,用于利用三元组深度网络对所述N维数据进行降维处理,输出M维数据;其中N大于M,且M和N为正整数;
第二网络输入模块73,用于将所述M维数据输入分类网络;
第二网络输出模块74,用于利用所述分类网络对所述M维数据进行判别,输出所述自动驾驶仿真结果对应的驾驶状态。
在一种实施方式中,如图8所示,所述三元组深度网络是通过如下模块训练的:
第一获取模块81,用于获取各自动驾驶场景包括的正类数据、负类数据和专家数据;
第一训练模块82,用于利用正类数据、负类数据和专家数据,训练得到所述三元组深度网络,确定所述三元组深度网络的每一层的权值矩阵,所述三元组深度网络的损失函数为余弦损失函数。
在一种实施方式中,所述分类网络是通过如下模块训练的:
第二获取模块83,用于获取各类别对应的训练样本,所述训练样本中包括类别标签;
第二训练模块84,用于利用各类别对应训练样本,训练得到softMax多分类网络,确定所述softMax多分类网络的每一层的权值矩阵,所述softMax多分类网络的损失函数为交叉熵损失函数。
在一种实施方式中,所述第一网络输出模块72还用于利用三元组深度网络的权值矩阵对所述N维数据进行降维处理,输出M维数据。
在一种实施方式中,所述第二网络输出模块74还用于利用所述分类网络的权值矩阵对所述M维数据进行判别,输出所述M维数据的类别标签,根据所述M维数据的类别标签得到所述自动驾驶仿真结果对应的驾驶状态。
在一种实施方式中,所述驾驶状态包括变道状态、变速状态、体感状态、超车状态中的至少一项。
本发明实施例各装置中的各模块的功能可以参见上述方法中的对应描述,在此不再赘述。
图9示出根据本发明实施例的自动驾驶状态判别装置的结构框图。如图9所示,该装置包括:存储器910和处理器920,存储器910内存储有可在处理器920上运行的计算机程序。所述处理器920执行所述计算机程序时实现上述实施例中的事务提交方法。所述存储器910和处理器920的数量可以为一个或多个。
该装置还包括:
通信接口930,用于与外界设备进行通信,进行数据交互传输。
存储器910可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
如果存储器910、处理器920和通信接口930独立实现,则存储器910、处理器920和通信接口930可以通过总线相互连接并完成相互间的通信。所述总线可以是工业标准体系结构(ISA,Industry Standard Architecture)总线、外部设备互连(PCI,PeripheralComponent)总线或扩展工业标准体系结构(EISA,Extended Industry StandardComponent)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图9中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器910、处理器920及通信接口930集成在一块芯片上,则存储器910、处理器920及通信接口930可以通过内部接口完成相互间的通信。
本发明实施例提供了一种计算机可读存储介质,其存储有计算机程序,该程序被处理器执行时实现上述实施例中任一所述的方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中。所述存储介质可以是只读存储器,磁盘或光盘等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (14)

1.一种自动驾驶状态判别方法,其特征在于,包括:
将自动驾驶仿真结果包括的N维数据输入三元组深度网络;
利用三元组深度网络对所述N维数据进行降维处理,输出M维数据;其中N大于M,且M和N为正整数;
将所述M维数据输入分类网络;
利用所述分类网络对所述M维数据进行判别,输出所述自动驾驶仿真结果对应的驾驶状态。
2.根据权利要求1所述的方法,其特征在于,所述三元组深度网络是通过如下方式训练的:
获取各自动驾驶场景包括的正类数据、负类数据和专家数据;
利用正类数据、负类数据和专家数据,训练得到所述三元组深度网络,确定所述三元组深度网络的每一层的权值矩阵,所述三元组深度网络的损失函数为余弦损失函数。
3.根据权利要求1所述的方法,其特征在于,所述分类网络是通过如下方式训练的:
获取各类别对应的训练样本,所述训练样本中包括类别标签;
利用各类别对应的训练样本,训练得到softMax多分类网络,确定所述softMax多分类网络的每一层的权值矩阵,所述softMax多分类网络的损失函数为交叉熵损失函数。
4.根据权利要求2所述的方法,其特征在于,利用三元组深度网络对所述N维数据进行降维处理,输出M维数据,包括:
利用三元组深度网络的权值矩阵对所述N维数据进行降维处理,输出M维数据。
5.根据权利要求3所述的方法,其特征在于,利用所述分类网络对所述M维数据进行判别,输出所述自动驾驶仿真结果对应的驾驶状态,包括:
利用所述分类网络的权值矩阵对所述M维数据进行判别,输出所述M维数据的类别标签,根据所述M维数据的类别标签得到所述自动驾驶仿真结果对应的驾驶状态。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述驾驶状态包括变道状态、变速状态、体感状态、超车状态中的至少一项。
7.一种自动驾驶状态判别装置,其特征在于,包括:
第一网络输入模块,用于将自动驾驶仿真结果包括的N维数据输入三元组深度网络;
第一网络输出模块,用于利用三元组深度网络对所述N维数据进行降维处理,输出M维数据;其中N大于M,且M和N为正整数;
第二网络输入模块,用于将所述M维数据输入分类网络;
第二网络输出模块,用于利用所述分类网络对所述M维数据进行判别,输出所述自动驾驶仿真结果对应的驾驶状态。
8.根据权利要求7所述的装置,其特征在于,所述三元组深度网络是通过如下模块训练的:
第一获取模块,用于获取各自动驾驶场景包括的正类数据、负类数据和专家数据;
第一训练模块,用于利用正类数据、负类数据和专家数据,训练得到所述三元组深度网络,确定所述三元组深度网络的每一层的权值矩阵,所述三元组深度网络的损失函数为余弦损失函数。
9.根据权利要求8所述的装置,其特征在于,所述分类网络是通过如下模块训练的:
第二获取模块,用于获取各类别对应的训练样本,所述训练样本中包括类别标签;
第二训练模块,用于利用各类别的对应训练样本,训练得到softMax多分类网络,确定所述softMax多分类网络的每一层的权值矩阵,所述softMax多分类网络的损失函数为交叉熵损失函数。
10.根据权利要求8所述的装置,其特征在于,所述第一网络输出模块还用于利用三元组深度网络的权值矩阵对所述N维数据进行降维处理,输出M维数据。
11.根据权利要求9所述的装置,其特征在于,所述第二网络输出模块还用于利用所述分类网络的权值矩阵对所述M维数据进行判别,输出所述M维数据的类别标签,根据所述M维数据的类别标签得到所述自动驾驶仿真结果对应的驾驶状态。
12.根据权利要求7至11中任一项所述的装置,其特征在于,所述驾驶状态包括变道状态、变速状态、体感状态、超车状态中的至少一项。
13.一种自动驾驶状态判别装置,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至6中任一项所述的方法。
14.一种计算机可读存储介质,其存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至6中任一项所述的方法。
CN201811228611.6A 2018-10-22 2018-10-22 自动驾驶状态判别方法和装置 Pending CN111091020A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811228611.6A CN111091020A (zh) 2018-10-22 2018-10-22 自动驾驶状态判别方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811228611.6A CN111091020A (zh) 2018-10-22 2018-10-22 自动驾驶状态判别方法和装置

Publications (1)

Publication Number Publication Date
CN111091020A true CN111091020A (zh) 2020-05-01

Family

ID=70391274

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811228611.6A Pending CN111091020A (zh) 2018-10-22 2018-10-22 自动驾驶状态判别方法和装置

Country Status (1)

Country Link
CN (1) CN111091020A (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1731470A (zh) * 2005-06-17 2006-02-08 安徽三联事故预防研究所 驾驶员个性化培训驾驶模拟设备和方法
CN102208034A (zh) * 2011-07-16 2011-10-05 西安电子科技大学 基于半监督维数约减的高光谱图像分类方法
CN106202543A (zh) * 2016-07-27 2016-12-07 苏州家佳宝妇幼医疗科技有限公司 基于机器学习的本体匹配方法和系统
CN106372581A (zh) * 2016-08-25 2017-02-01 中国传媒大学 构建及训练人脸识别特征提取网络的方法
CN106778527A (zh) * 2016-11-28 2017-05-31 中通服公众信息产业股份有限公司 一种基于三重损失的改进的神经网络行人再识别方法
CN106909946A (zh) * 2017-03-02 2017-06-30 深圳明创自控技术有限公司 一种多模态融合的商品分类系统
CN106951627A (zh) * 2017-03-15 2017-07-14 北京百度网讯科技有限公司 车辆自动驾驶的仿真测试方法、装置、设备及计算机可读存储介质
CN107169567A (zh) * 2017-03-30 2017-09-15 深圳先进技术研究院 一种用于车辆自动驾驶的决策网络模型的生成方法及装置
US9824692B1 (en) * 2016-09-12 2017-11-21 Pindrop Security, Inc. End-to-end speaker recognition using deep neural network
CN107832672A (zh) * 2017-10-12 2018-03-23 北京航空航天大学 一种利用姿态信息设计多损失函数的行人重识别方法
CN108171136A (zh) * 2017-12-21 2018-06-15 浙江银江研究院有限公司 一种多任务卡口车辆以图搜图的系统及方法
WO2018174873A1 (en) * 2017-03-22 2018-09-27 Visa International Service Association Privacy-preserving machine learning

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1731470A (zh) * 2005-06-17 2006-02-08 安徽三联事故预防研究所 驾驶员个性化培训驾驶模拟设备和方法
CN102208034A (zh) * 2011-07-16 2011-10-05 西安电子科技大学 基于半监督维数约减的高光谱图像分类方法
CN106202543A (zh) * 2016-07-27 2016-12-07 苏州家佳宝妇幼医疗科技有限公司 基于机器学习的本体匹配方法和系统
CN106372581A (zh) * 2016-08-25 2017-02-01 中国传媒大学 构建及训练人脸识别特征提取网络的方法
US9824692B1 (en) * 2016-09-12 2017-11-21 Pindrop Security, Inc. End-to-end speaker recognition using deep neural network
CN106778527A (zh) * 2016-11-28 2017-05-31 中通服公众信息产业股份有限公司 一种基于三重损失的改进的神经网络行人再识别方法
CN106909946A (zh) * 2017-03-02 2017-06-30 深圳明创自控技术有限公司 一种多模态融合的商品分类系统
CN106951627A (zh) * 2017-03-15 2017-07-14 北京百度网讯科技有限公司 车辆自动驾驶的仿真测试方法、装置、设备及计算机可读存储介质
WO2018174873A1 (en) * 2017-03-22 2018-09-27 Visa International Service Association Privacy-preserving machine learning
CN107169567A (zh) * 2017-03-30 2017-09-15 深圳先进技术研究院 一种用于车辆自动驾驶的决策网络模型的生成方法及装置
CN107832672A (zh) * 2017-10-12 2018-03-23 北京航空航天大学 一种利用姿态信息设计多损失函数的行人重识别方法
CN108171136A (zh) * 2017-12-21 2018-06-15 浙江银江研究院有限公司 一种多任务卡口车辆以图搜图的系统及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
盛译萱: "基于BP神经网络的驾驶员状态识别及行为分析", 《燕山大学学报》 *
范宇航: "基于深度学习的服装检索与搭配技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Similar Documents

Publication Publication Date Title
US10474151B2 (en) Method for guiding a vehicle system in a fully automated manner, and motor vehicle
JP6820030B2 (ja) 異なるラベルセットを有する複数のラベリングされたデータベースを用いて学習する方法及び装置、そしてこれを利用したテスト方法及び装置{learning method and learning device using multiple labeled databases with different label sets and testing method and testing device using the same}
CN107169567B (zh) 一种用于车辆自动驾驶的决策网络模型的生成方法及装置
CN102693432B (zh) 使用可靠局部模型更新来调节畅通路径检测
KR20180036709A (ko) 미디어 분류
CN112703459A (zh) 对抗场景的迭代生成
KR20180034395A (ko) 뉴럴 네트워크들에서의 러닝 트랜스퍼
KR20170140214A (ko) 신경망을 위한 훈련 기준으로서의 필터 특이성
CN107229973A (zh) 一种用于车辆自动驾驶的策略网络模型的生成方法及装置
CN111488879B (zh) 利用双嵌入构成的用于提高分割性能的方法及装置
CN102076531A (zh) 车辆畅通路径检测
WO2019011268A1 (zh) 基于博弈论的驾驶员辅助系统决策方法、系统及其他
CN111199087B (zh) 场景识别方法和装置
CN105930771A (zh) 一种驾驶行为评分方法及装置
CN111874007B (zh) 基于知识与数据驱动的无人车分层决策方法、系统、装置
JP2019156171A (ja) 走行制御装置、車両、走行制御システム、走行制御方法およびプログラム
CN112874519B (zh) 自适应巡航的控制方法、系统、存储介质及电子设备
CN109255181A (zh) 一种基于多模型的障碍物分布仿真方法、装置以及终端
CN116245183B (zh) 基于图神经网络的交通场景泛化理解方法及装置
CN110263836A (zh) 一种基于多特征卷积神经网络的不良驾驶状态识别方法
CN110696828B (zh) 前向目标选择方法、装置及车载设备
CN113826114A (zh) 用于评估神经网络的特定于功能的鲁棒性的方法
CN111091020A (zh) 自动驾驶状态判别方法和装置
CN115544232A (zh) 车载智能问答和信息推荐方法及装置
JP7013722B2 (ja) 運転支援装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200501