CN111666307A - 根据场景观察进行直觉推断的无人驾驶安全判断系统 - Google Patents

根据场景观察进行直觉推断的无人驾驶安全判断系统 Download PDF

Info

Publication number
CN111666307A
CN111666307A CN201911217026.0A CN201911217026A CN111666307A CN 111666307 A CN111666307 A CN 111666307A CN 201911217026 A CN201911217026 A CN 201911217026A CN 111666307 A CN111666307 A CN 111666307A
Authority
CN
China
Prior art keywords
scene
accident
vector
matrix
experience
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911217026.0A
Other languages
English (en)
Inventor
邱少波
张少军
李骏
程洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201911217026.0A priority Critical patent/CN111666307A/zh
Publication of CN111666307A publication Critical patent/CN111666307A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

一种根据场景观察进行直觉推断的无人驾驶安全判断系统,属于智能驾驶技术领域。本发明的目的是比照人类驾驶和自动驾驶系统,依靠常识和经验,人类司机可以调整自己的行为,避免进入自己无法应付复杂驾驶环境的根据场景观察进行直觉推断的无人驾驶安全判断系统。本发明包括经验常识记忆库、场景观察器和直觉推断引擎三大要素。本发明有效将人类直觉判断与自动驾驶技术结合,通过人为因素和机判因素综合性考虑交通环境的各种因素组合,应用到自动驾驶驾驶技术中,更加能够精确的预判出各种因素或行为,从而增加自动驾驶技术的安全性。

Description

根据场景观察进行直觉推断的无人驾驶安全判断系统
技术领域
本发明属于智能驾驶技术领域。
背景技术
自动驾驶安全的保证手段目前主要有道路车辆功能安全(ISO 26262,2011)、预期功能安全(ISO 21448,2019)、系统运行设计范围状态监控(SAEJ3016)、人机交互等四方面的性能要求。
其中,系统功能安全性能要求自动驾驶系统能够根据外界感知输入按照预设的功能 规定做出正确响应。功能安全标准强调在产品设计阶段怎样从设计环节上保证产品的功能安 全,该标准制订的假设是,在系统过于复杂以后,很难通过预测的方式来全面估计失效的环 节和失效的模式,因此设计预防就显得非常重要。
在复杂的运行环境中,即使所有的安全系统都如ISO 26262所要求的那样完美实现 预设功能,但是由于使用环境的复杂程度超出了系统的能力极限,或者出于操作者的滥用或 者误用等原因,整车实际运行时仍然有可能发生安全事故。例如,自动驾驶系统是根据某些 特定运行环境开发的,如果自动车辆在实际驾驶中遇到了开发过程中从未遇到过的陌生环境, 自动驾驶系统就会出现判断困惑,从而导致事故发生。ISO 21448将这种安全性称为“预期 功能安全(SOTIF)”,标准的目的是尽可能多地暴露使用环境变量,进一步提高系统的适应性 设计。
为了保证自动驾驶系统的合理使用环境,SAEJ3016定义了“系统运行设计范围”(ODD) 的概念。ODD是保证所设计系统可以正常运行的条件,规定自动驾驶系统必须自己能够监控 ODD的边界,超出ODD边界以后就要采取后备安全方案。
尽管有上述周密的设计保障措施,无人驾驶系统仍然潜在的安全隐患,主要原因是, 无论系统设计考虑的多么周全,也不可能覆盖实际运行场景的无限可能性。也就是说,自动 驾驶系统不具备人脑那种根据场景观察和局势的理解对驾驶安全进行直觉推断的能力。
发明内容
本发明的目的是比照人类驾驶和自动驾驶系统,依靠常识和经验,人类司机可以调 整自己的行为,避免进入自己无法应付复杂驾驶环境的根据场景观察进行直觉推断的无人驾 驶安全判断系统。
本发明包括经验常识记忆库、场景观察器和直觉推断引擎三大要素;
(1)经验常识记忆库:包括事故和场景要素,场景要素包括车辆要素、行驶状态要素、自然 环境要素、道路特性要素、人为要素;每个事故可以表达为场景要素空间里的一个向量,所 有的事故一起形成一个事故常识记忆矩阵A;一个事故对应的一个场景要素组合就是一个场 景向量,经验常识库结构如表1所示:
表1事故经验常识库结构
Figure RE-GDA0002400785550000021
其中:
C1~Cm为事故特征代码,由11位数字与字母组成,
①事故特征代码C
事故类别包括发生事故时的五种事故要素,分别为事故形式特征、碰撞主体分类、碰撞受体 分类、冲突方式分类和伤害程度分类;事故要素及水平定义见表2,
表2事故要素及水平定义
Figure RE-GDA0002400785550000022
其中,机动车分类按照GB/T 15089 2001执行,总共分为L类、M类、N类、O类和G类,其 中L分为L1~L5,M类分为M1、M2、M3;M2和M3类中继续细分为A级、B级、Ⅰ级、Ⅱ级、 Ⅲ级,共计19种;本申请用三位分类编号表达车辆分类,L、M1类第三位为0,M2和M3类 车辆的第三位为级别代码A,B,I,II,III,N、O、G类车辆的第二、三位编号均为0;
②场景向量S要素水平定义方法
Si为场景向量:Si=(si1,...,sin)
24个场景元素所构成的场景向量由表3所列举出,
表3场景向量S的要素构成
Figure RE-GDA0002400785550000031
根据上表,历史交通事故记录数据库里的每一次事故环境的记录,表达成一个上述24维的经 验场景向量S,也就是说,
S=(s1,s2,……,s24)
所有场景经验向量组成的事故矩阵就是人工智能机器所能读懂的驾驶常识经验库, A为事故矩阵:
A=[C1 C2 … Cm]T
③根据历史上实际发生过的交通事故记录,将每一次事故都根据表1和表3描述成规范化的 事故类型-场景向量对应关系;事故由表1所规定的代码表达,场景由表3所规定的维数向量 描述,这种描述经验事故的场景向量成为经验场景向量;
④经验常识记忆库矩阵即事故矩阵A的生成
经验常识记忆库可以表达为一个m×n事故矩阵A,其中m是事故类别数量,n是场景向量维数,
Figure RE-GDA0002400785550000041
(2)场景观察器
场景观察器的作用是根据车辆感知的信息生成一个现实场景向量X,以便于用来和驾驶常识 经验库里的经验场景向量S相比较;
现实场景向量X的元素与维数定义必须与经验场景向量S定义相同,现实场景向量元素的感 知有三个渠道来源:车载传感、通讯传感和驾驶员输入,见表4
表4现实场景向量的生成
Figure RE-GDA0002400785550000051
Figure RE-GDA0002400785550000061
根据表4生成24维现实场景向量X:
X=(x1,x2,...,x24)
现实场景向量X是一个n维向量:
X=(x1,x2,...,xn)
(3)直觉推断引擎
根据步骤(2)感知到的现实场景向量X,利用经验比照算法,找到常识经验记忆库里与此最 相近的经验场景向量S,然后在事故矩阵A中观察在与现实环境相类似的场景中是否发生过 事故,进而推断出最可能发生的事故类别与概率。
本发明直觉推断引擎采用SVD方法进行近似运算
SVD算法能够使任何一个事故矩阵A都可以分解成为一个正交矩阵U,一个对角矩阵Σ,和 一个正交矩阵VT的乘积,使得
A=U∑VT
Σ里面的奇异值从大往小排列,最大值对应于在U和V里对原始事故矩阵最显著的向量; 保留事故矩阵A里最主要的k个分量,k根据实际运算速度和运算精度的要求综合权衡确定, 得到一个较小的矩阵Ukk,和
Figure BDA0002299778570000062
表达为
Figure BDA0002299778570000063
在事故经验常识库里,如果记录有m个事故,n个场景要素,则m×n事故矩阵就可以分解为:
Uk:m×k正交矩阵
Σk:k×k单一值对角矩阵
Vk:n×k正交矩阵;
Ak就是实际运行相似性对比运算的降维空间;根据计算结果,直觉推断引擎输出的是事故类 型。
本发明基于直觉推断引擎获得的预警系统,即直觉预测引擎:
根据贝叶斯定理:
Figure BDA0002299778570000071
式中,条件概率P(X/S):感知到了S场景(现实),求S场景下发生X类事故的概率;
先验概率P(X):X类事故发生的概率,根据各种交通事故统计数据库获取;
似然性P(S|X):已知X发生后S的条件概率,也由于得自X的取值而被称作S的后验概率;
也表述为:事故统计数据库里面与场景现实S一模一样的概率有多大;
场景发生概率P(S):S场景出现的概率;
忽略P(S)这个固定量,上式可以转换为一下表达形式:条件概率∝先验概率x似然性,即
P(X/S)∝P(S/X)P(X)
为了计算似然性P(S/X),需要构建场景S的抽象层,定义s1,s2,…,sn为场景S包含的 n个场景元素;
所以P(S|X)=P(s1,s2,..,sn|X),
可扩展为P(s1|X)*P(s2|s1,X)*P(s3|s2,s1,X)*..
利用朴素贝叶斯原理:si和si-1是完全条件无关,所以上式可进一步简化为:
P(s1|X)*P(s2|X)*P(s3|X)*..
因此,只需要统计场景元素分量si在这个事故模式X里出现的概率,然后相乘就行了;
si在X类型事故里出现的概率可以由历史交通事故记录统计而得;根据计算结果,预测引擎 输出事故的发生概率。
本发明有效将人类直觉判断与自动驾驶技术结合,通过人为因素和机判因素综合性 考虑交通环境的各种因素组合,应用到自动驾驶驾驶技术中,更加能够精确的预判出各种因 素或行为,从而增加自动驾驶技术的安全性。
附图说明
图1是驾驶安全直觉推断系统的三大要素构成图;
图2是驾驶安全直觉推断系统工作流程图;
图3是十种冲突方式图例;
图4是由11位代码表达事故经验库里的事故类别;
图5是直觉判断计算流程图;
图6是本系统驱动人机介面HMI对驾驶者提出行驶状态修正建议或者警示形式图;
图7是本系统场景判断系统将与现有的自动驾驶驾驶规划与决策控制器联合工作,对自动驾 驶系统的执行机构进行干预控制流程图;
图8是本系统与环境的关系量观察(场景印象)直接对自动驾驶过程进行控制图。
具体实施方式
本发明将人类驾驶和自动驾驶系统,二者的差别主要是智能驾驶系统对场景缺乏直 观理解能力。依靠常识和经验,人类司机可以调整自己的行为,避免进入自己无法应付的复 杂驾驶环境,比如在冰雪环境需要降低车速并拉大与前车距离,还可以理解路边的行人会不 会突然横穿马路,或者其他车辆是否在给自己让行。人类也可以依靠常识、直觉对情景进行 提前推演,比如在视野遮挡的条件下,一个足球滚入车道以后,很有可能有一个孩子会不顾 车辆突然冲出来追球。虽然自动驾驶系统在物理量测量和动作精准性上远超人类,但是在快 速局势判断、场景直觉判断能力上与人类相比相差还很远。人大脑的直觉判断过程使用了一 种与逻辑思维不同的方法,即模式类比法。
常识的获取与表达
要想将事故数据库或者驾驶手册转换成自动驾驶系统的经验知识,首先需要将经验知识表达 成一个机器能够理解的语言,设计出常识之间的互相索引架构。
机器常识的表达目前有三种主要的方式,即基于逻辑的表达、自然语言表达基于矢 量的嵌入空间表达。
驾驶经验常识的内容可以应用上述理论通过对历史事故数据库的总结和抽象来获取。 驾驶经验手册和主观安全常识也是智能驾驶经验常识的数据来源。总体来讲可以抽象成事故、 和引发事故的环境因素两个层面。
一个具体的事故可以看成是由一系列环境因素(比如车速、路面摩擦等级、时段、季节、道路几何、车辆分布形态......)的组合构成的向量。一个环境要素在不同的事故向量里可以有不同的权重系数。这个权重系数是通过对经验数据库的学习获取的,并在积累新 数据的同时不断得到更新修正。
除了这种元素之间的联结学派表述方式,事故、场景、环境因素之间还可以借助符号学派的属性关联来表达,所以机器常识库里可以利用自然语言的形式对内容进行叙述,这 样智能机器就可以利用现有的NLP(自然语言处理)工具进行场景推断演绎。
自然语言是一种很好的机器知识载体。首先,语言本身就是一个人类思想逻辑的外 在表现形式,本身就包含了很多逻辑运算关系,是非常好的推理和关联工具。其次,目前有 很多很成熟的NLP工具可以用来做关联和推理运算。
智能机器经验知识的表达形式需要满足以下几方面要求:
-能够完整转换人类现有的驾驶经验知识库
-经验常识库的结构易于利用现有人工智能算法进行运算处理
-场景元素应当易于快速感知
对环境场景的观察方法 目前自动驾驶系统对环境的感知方式是以观察对象的物理状态参数(动力学参数、运动学参 数、几何参数)计算为基础,随后进行对象运动趋势的逻辑推理运算。直觉大脑感知世界的 方式与自动驾驶的逻辑控制器有所不同,直觉判断的输入信息必须具有高效的可获取性。直 觉大脑感知的内容应当和我们人眼看外部环境的第一印象相类似,尽量采用具有物理显著性 的易感知量,而不是采用间接换算量。由易感知量构成的环境描述在本专利中称之为“场景 传感”。
对现实环境描述的元素出了满足上述易感知、易获取要求以外,同时还要必须与知 识经验库里的知识表达形式相一致。也就是说,经验常识表达的基本元素必须具有可观测行, 同时场景感知的要素必须覆盖所有经验常识数据库的基本元素。
场景传感系统的输入渠道包括:车载传感器信息,通讯传感信息(GPS、地图、天气预报等),输入设置(车型、驾驶员性别、年龄、车型年型、轮胎状态等)。
目前能满足上述“场景感知”的传感系统还很少。
相似度类比分析计算方法
人类依靠物理直觉、心理直觉在世界上生活。与智能机器不同,直觉判断是人类大脑新皮质 最擅长的思维方式。直觉判断的速度要比逻辑判断的速度快得多,主要方式是依靠模式对比, 将类似经验当做当前问题的近似解;如果找不到与当前问题足够匹配的近似经验解,那么就 对最接近当前问题的经验模型稍加修正,作为当前问题的近似解。经验知识以“模式”形式 存在于记忆当中。
智能驾驶直觉推断的过程就是把经验知识库当作“模式”来储存和调用,同时把场景当成“模式”来感知,然后再将二者进行对比,计算出二者的接近程度,依此确定即将发生某种事故的可能性概率。直觉判断的输出结果可以表达为:可能发生哪种类型的事故;发生这种事故的概率有多大。
类比分析计算方法是直觉判断目前可用的理论方法。类比分析是人脑直觉思维的计 算模式。数据相似性或相异性有很多不同的存在形式,比如配对评估、对象的排序、关联共 同性、替换误差以及事件相关性等等。
驾驶安全直觉推断系统由经验常识记忆库、场景观察器和直觉推断引擎三大构件组 成(见图1)。系统工作过程如图2。
4.1经验常识记忆库
经验常识记忆库的作用是将人类驾驶的历史交通事故数据、安全驾驶经验和人们对物理环境 的的直觉感受,用智能机器所能理解的语言、所能检索的方式表达城“安全驾驶常识数据库”。
经验常识库由“事故”和“场景要素”构成。在历史事故记录里,事故是和某些场 景要素密切关联的,反过来,某些场景要素不同水平的组合就意味着极有可能会出现某种类型的事故。
场景要素包括车辆要素、行驶状态要素、自然环境要素、道路特性要素、人为要素等等。
每个事故可以表达为场景要素空间里的一个向量,所有的事故一起形成一个事故常 识记忆矩阵(事故矩阵)A。一个事故对应的一个场景要素组合就是一个场景向量。经验常识 库结构如表1所示。
表1事故经验常识库结构
Figure BDA0002299778570000091
其中:
C1~Cm为事故特征代码,由11位数字与字母组成,定义见4.1.1。
场景要素sij,i∈[1,m],m代表事故编号的最大值;j∈[1,n],n代表场景要素编 号的最大值。有不同的水平,水平定义见4.1.2。
Si为场景向量:
Si=(si1,...,sin)
A为事故矩阵:
Figure BDA0002299778570000092
Figure BDA0002299778570000101
4.1.1事故特征代码C
事故类别由发生事故时的5种(但不限于)事故要素组成,分别为事故形式特征、碰撞主体 分类、碰撞受体分类、冲突方式分类和伤害程度分类。任何一个事故都可以用这五个基本要 素不同水平的组合来描述。事故要素及水平定义见(但不限于)表2。
表2
Figure BDA0002299778570000102
其中,机动车分类按照GB/T 15089 2001执行,总共分为L类、M类、N类、O类和G类,其 中L分为L1~L5,M类分为M1、M2、M3。M2和M3类中继续细分为A级、B级、Ⅰ级、Ⅱ级、 Ⅲ级,共计19种。本专利用三位分类编号表达车辆分类。L、M1类第三位为0。M2和M3类 车辆的第三位为级别代码(A,B,I,II,III)。N、O、G类车辆的第二、三位编号均为0。
冲突方式用代码数值描述,共计10种。(见图3)。
伤害等级参照AAAM(Associationfor the Advanced Automotive Medicine)和AMA (AmericanMedicalAssociation)定义的AIS(AbbreviatedInjuryScale)系统,按严重程 度分为0~6级。
事故经验库里的“事故类别”将唯一性地由11位代码表达(见图4),书写格式为“a形式数 值+b主体代码+c受体代码+d冲突方式数值+e伤害程度数值”。
举例:
M2A类机动车与横行的自行车相撞导致发生AIS4级伤害事故,事故类别代码C为:C=01M2A001064。
N2类货车发生侧翻事故导致驾驶员受到AIS1级伤害,事故类别代码C为:C=02N20000002。 根据表1,图4的内容组合方式一共有(但不限于)82,992种,也就是可将事故定义成(但 不限于)82,992类。
4.1.2场景向量S要素水平定义方法
每个事故都与特定的场景相关联,每个事故可以表达为场景要素空间里的一个场景向量。反 过来,一定的场景组合通常也意味着会诱发某种事故。场景向量由表3所列举出的(但不限 于)24个场景元素所构成。历史上的事故数据、现实的驾驶环境都和一定的场景向量相对应。
表3场景向量S的要素构成
Figure BDA0002299778570000111
根据上表,历史交通事故记录数据库里的每一次事故环境的记录,都可以表达成一个上述24 维(但不限于24维)的“经验场景”向量S,也就是说,
S=(S1,S2,…,s24)
所有场景经验向量组成的事故矩阵就是人工智能机器所能读懂的驾驶常识经验库。
场景经验向量的维数可根据实际情况进行增减。
根据历史上实际发生过的交通事故记录,将每一次事故都根据表1和表2描述成规范化的“事故类型-场景向量”对应关系。事故由表1所规定的11位代码表达,场景由表3 所规定的24维(但不限于24维)向量描述。这种描述经验事故的场景向量成为“经验场景 向量”。
4.1.3经验常识记忆库矩阵(事故矩阵)A的生成
历史上所有的事故都可以表达成一个24维(但不限于24维)的经验场景向量,所有事故都 可以规范为表1所列举的82,992种类别中的一种,也就是事故分类一共有82,992种标注。
如果把每次事故的经验场景向量当成一行,那么m次事故记录的数据就会构成一个 m×24矩阵,按照目前的事故定义,其中m的最大值为82,992。
更一般地,经验常识记忆库可以表达为一个m╳n事故矩阵A,其中m是事故类别 数量,n是场景向量维数。
Figure BDA0002299778570000121
4.2场景观察器
场景观察器的作用是根据车辆感知的信息生成一个“现实场景”向量X,以便于用来和驾驶 常识经验库里的“经验场景”向量S相比较。在经验常识记忆库A矩阵里找到了与现实场景 X向量最相近的经验场景向量S以后,就能根据S调出与之相对应的历史事故记录,进而判 断此刻重演事故的可能性。
现实场景向量X的元素与维数定义必须与经验场景向量S定义(表2)相同,。现实场景向量元素的感知有三个渠道来源:车载传感、通讯传感和驾驶员输入,见表4。
表4现实场景向量的生成
Figure RE-GDA0002400785550000122
Figure RE-GDA0002400785550000131
Figure RE-GDA0002400785550000141
根据上表可生成现实场景向量X:
X=(x1,x2,…,x24)
一般性地,现实场景向量X是一个n维向量:
X=(x1,x2,…,xn)。
4.3直觉推断引擎
直觉推断引擎的作用是,根据4.2感知到的现实场景向量X,利用经验比照算法,找到常识 经验记忆库里与此最相近的经验场景向量S,然后在事故矩阵A中观察在与现实环境相类似 的场景中是否发生过事故,进而推断出最可能发生的事故类别与概率。
经验比照算法是指,需要在事故矩阵A里,用现实场景向量X与每一行经验场景向量Si相比,看与事故矩阵中的哪一行最接近。比照算法有很多,比如,可以使用SVM(支持 向量机)的分类算法等。本专利采用(但不限于)截断奇异值分解(SVD)方法进行近似的直 觉推断运算。
理论上讲,相似性是对向量的线性运算。现实场景向量X和经验场景向量Si之间的相似度可以用二者的点积来度量。当两个场景相同或相近的时候点积的数值会增加;二者之 间的要素互相否定的时候点积值会减小。利用现实场景向量X与事故矩阵A的每一行Si之间 逐行执行点积运算,结果数值最大者所对应的经验场景向量就代表了与目前场景最接近的历 史场景,然后,本系统会推知当前场景是否存在危险隐患。
在实际运算中,当事故经验数据量很大的时候,事故矩阵A的维度会随之剧增,执行上述逐行点积运算需要很大的运算成本,有可能不满足实时系统对判断速度的要求,尤其 是,本系统的经验判断运算速度应当比传统的自动驾驶规划决策系统快一个数量级。为此, 本专利采用SVD方法进行近似运算。同时,SVD的另一个作用是“平滑”原始数据库中的噪声数据,与其他描述关联度不好的事故类型会被丢弃掉,同时强调而许多事故类型之间的 大规模的相似性。个体事故案例不要求与其完整的场景要素列表相关联,相反,可以与相近 的事故类型进行模糊化近似对比。
截断奇异值分解SVD计算将事故类型从高维度的经验事故空间投影到更低维度的空 间,同时它还将事故空间中经验场景要素也投影到相同的降维空间中,SVD可以在这个新的、 更紧凑的事故/场景空间中进行相似性运算,运算过程如下:
SVD算法能够使任何一个事故矩阵A都可以分解成为一个正交矩阵U,一个对角矩阵Σ,和 一个正交矩阵VT的乘积,使得
A=UΣVT
Σ里面的奇异值从大往小排列,最大值对应于在U和V里对原始事故矩阵最显著的向量。
我们只保留事故矩阵A里最主要的k个分量(k根据实际运算速度和运算精度的要求综合权衡确定,比如可试取50,100等数值),得到一个较小的矩阵Ukk,和
Figure BDA0002299778570000151
被丢弃的其余分量对数据影响较弱,主分量是对原始事故数据的一个近似表达,称之为截断 SVD,表达为
Figure BDA0002299778570000152
在事故经验常识库里,如果记录有m个事故,n个场景要素,则m×n事故矩阵就 可以分解为:
-Uk:m×k正交矩阵
k:k×k单一值对角矩阵
-Vk:n×k正交矩阵
Ak就是实际运行相似性对比运算的降维空间。由于降维空间是原始事故与场景空间的正交变 换,所以降维空间中的点积也近似等于原始事故空间的点积。这个特性可以用来在降维空间 中计算现实场景与经验场景之间的相似性。
根据计算结果,直觉推断引擎输出的是事故类型。
4.4直觉预测引擎
推断出可能发生的事故类型(X)以后,本专利预警系统利将用贝叶斯原理对发生该事故的发 生概率进行计算。
根据贝叶斯定理:
Figure BDA0002299778570000153
式中,
条件概率P(X/S):感知到了S场景(现实),求S场景下发生X类事故的概率 先验概率P(X):X类事故发生的概率。可以根据各种交通事故统计数据库获取 似然性P(S|X):已知X发生后S的条件概率,也由于得自X的取值而被称作S的后验概率。 也可以表述为:事故统计数据库里面与场景现实S一模一样的概率有多大。
场景发生概率P(S):S场景出现的概率
进一步,忽略P(S)这个固定量,上式可以转换为一下表达形式:
条件概率∝先验概率x似然性
P(X/S)∝P(S/X)P(X)
在求解条件概率P(X/S)的过程中,P(S/X)的计算是关键,也是难点,因为面临着数据稀疏问题,因为几乎可以肯定,不管场景库总结得多么丰富,也不可能和现在场景完全一样。
为了计算似然性P(S/X),需要构建场景S的抽象层,定义s1,s2,…,sn为场景S 包含的n个场景元素(比如速度、道路曲率、天气、时段、车辆密度……),所以
P(S|X)=P(s1,s2,..,sn|X),可扩展为
P(s1|X)*P(s2|s1,X)*P(s3|s2,s1,X)*..
利用朴素贝叶斯原理:si和si-1是完全条件无关,所以上式可进一步简化为:
P(s1|X)*P(s2|X)*P(s3|X)*..
因此,只需要统计场景元素分量si在这个事故模式X里出现的概率,然后相乘就行了。
si在X类型事故里出现的概率可以由历史交通事故记录统计而得。
根据计算结果,预测引擎输出事故的发生概率。
4.5直觉判断计算过程
综合上述直觉判断计算过程如图5所示。
发明的效果:
本发明所述技术与系统,可以向人类所习惯的驾驶思维方式学习,及发挥右脑的直觉判断功 能,对现有的自动驾驶左脑控制模式进行补充。
人类驾驶的直觉判断主要运用于两方面的直觉判断:物理直觉判断和行为直觉的判 断。“物理直觉”是指根据环境要素、环境要素的组合对本人下一个即将采取的行动的安全性 后果所作的场景推断;“行为直觉”是指根据车辆、摩托车、自行车、行人所表现出的行为特 征而对其他交通者的下一步行动意图所作的推断。本专利技术可应用于自动驾驶控制系统的 物理直觉和行为直觉两方面判断。
与谷歌AlphaGoZERO算法的“棋感”类似,自动驾驶系统缺乏的是“路感”和“驾 驶直觉”。本发明技术用物理和行为两方面的直觉给自动驾驶系统提供驾驶路感。本系统不关心驾驶动作怎样完成,而只关心完成这个动作任务的后果是否安全。如果通过本专利所述系 统对驾驶场景完成安全性评估以后再进入动作执行环节,自动驾驶的安全性就会得到很大的 提高。
本发明所述场景安全评估系统的作用是:
1)在陌生的驾驶环境下,物理直觉判断系统根据以往的事故经验,判断目前的人类驾驶状态 (速度、跟车距离、车道占用等)是否存在潜在的危险,哪种危险,危险的概率有多大
2)如果危险类型明确,且出现概率超出限定阈值,则物理直觉判断系统为人类驾驶提供驾驶 状态更改建议
3)对自动驾驶系统规划出的下一个即将执行的任务,物理判断系统评估其执行后果,根据驾 驶环境考察本是否具备安全完成本任务的条件(比如,在大曲率弯道和路滑、不良视野的条 件下,是否仍应当执行一个规划好的换道超车任务),或者,评估侧任务执行以后对交通环境 是否存在不良干扰和影响。如果不良后果的出现概率超出一定阈值则对任务计划进行更改; 如果没有不良后果,则对任务计划给予批准,自动驾驶系统进入动作执行的逻辑运算控制程 序。
本申请一共有三种应用实施模式。
1)利用人机界面(HMI)直接对司机发出预警或提示
本系统驱动人机介面HMI,用音频、视频、震动、自然语言等方式对驾驶者提出行驶状态修 正建议或者警示(见图6)。
2)与规划与决策控制器联合对自动驾驶过程进行控制
本专利场景判断系统将与现有的自动驾驶驾驶规划与决策控制器联合工作,对自动驾驶系统 的执行机构进行干预控制(见图7)。
工作过程是:
-在规划与决策控制器执行当前任务的过程中,场景判断系统不断对场景进行动态的安 全性评估,必要时修正本车驾驶状态
-如果规划决策控制器按照行驶计划生成了新的自动驾驶任务,场景判断系统则对新任 务进行评估,决定该任务是否可以执行,执行后是否有负面后果
-如果潜在危险超出预期规定,则对新的任务规划进行否决,或者生成新的任务目标
3)独立对自动驾驶过程进行控制
本系统利用本车与环境的关系量观察(场景印象)直接对自动驾驶过程进行控制(见图8)。 和人类驾驶一样,用定性的模式量反馈直接对自动驾驶系统进行干预,将车辆从不安全的场 景调整到安全的场景。

Claims (3)

1.一种根据场景观察进行直觉推断的无人驾驶安全判断系统,其特征在于:包括经验常识记忆库、场景观察器和直觉推断引擎三大要素;
(1)经验常识记忆库:包括事故和场景要素,场景要素包括车辆要素、行驶状态要素、自然环境要素、道路特性要素、人为要素;每个事故可以表达为场景要素空间里的一个向量,所有的事故一起形成一个事故常识记忆矩阵A;一个事故对应的一个场景要素组合就是一个场景向量,经验常识库结构如表1所示:
表1事故经验常识库结构
Figure RE-928768DEST_PATH_IMAGE001
其中:
C1~Cm为事故特征代码,由11位数字与字母组成,
①事故特征代码C
事故类别包括发生事故时的五种事故要素,分别为事故形式特征、碰撞主体分类、碰撞受体分类、冲突方式分类和伤害程度分类;事故要素及水平定义见表2,
表2事故要素及水平定义
Figure RE-580330DEST_PATH_IMAGE002
其中,机动车分类按照GB/T 15089 2001执行,总共分为L类、M类、N类、O类和G类,其中L分为L1~L5,M类分为M1、M2、M3;M2和M3类中继续细分为A级、B级、Ⅰ级、Ⅱ级、Ⅲ级,共计19种;本申请用三位分类编号表达车辆分类,L、M1类第三位为0,M2和M3类车辆的第三位为级别代码A,B,I,II,III,N、O、G类车辆的第二、三位编号均为0;
②场景向量S要素水平定义方法
Si为场景向量:Si =(si1,..., sin
24个场景元素所构成的场景向量由表3所列举出,
表3场景向量S的要素构成
Figure RE-891225DEST_PATH_IMAGE003
根据上表,历史交通事故记录数据库里的每一次事故环境的记录,表达成一个上述24维的经验场景向量S,也就是说,
S =(s1,s2,……,s24
所有场景经验向量组成的事故矩阵就是人工智能机器所能读懂的驾驶常识经验库,
A为事故矩阵:
Figure RE-817593DEST_PATH_IMAGE004
③根据历史上实际发生过的交通事故记录,将每一次事故都根据表1和表3描述成规范化的事故类型-场景向量对应关系;事故由表1所规定的代码表达,场景由表3所规定的维数向量描述,这种描述经验事故的场景向量成为经验场景向量;
④经验常识记忆库矩阵即事故矩阵A的生成
经验常识记忆库可以表达为一个
Figure RE-428703DEST_PATH_IMAGE005
事故矩阵A,其中 m是事故类别数量,n是场景向量维数,
Figure RE-782324DEST_PATH_IMAGE006
(2)场景观察器
场景观察器的作用是根据车辆感知的信息生成一个现实场景向量X,以便于用来和驾驶常识经验库里的经验场景向量S相比较;
现实场景向量X的元素与维数定义必须与经验场景向量S定义相同,现实场景向量元素的感知有三个渠道来源:车载传感、通讯传感和驾驶员输入,见表4
表4 现实场景向量的生成
Figure RE-580515DEST_PATH_IMAGE007
Figure RE-310574DEST_PATH_IMAGE008
根据表4生成24维现实场景向量X:
Figure RE-510611DEST_PATH_IMAGE009
现实场景向量X是一个n维向量:
Figure RE-35133DEST_PATH_IMAGE010
(3)直觉推断引擎
根据步骤(2)感知到的现实场景向量X,利用经验比照算法,找到常识经验记忆库里与此最相近的经验场景向量S,然后在事故矩阵A中观察在与现实环境相类似的场景中是否发生过事故,进而推断出最可能发生的事故类别与概率。
2.根据权利要求1所述的根据场景观察进行直觉推断的无人驾驶安全判断系统,其特征在于:直觉推断引擎采用SVD方法进行近似运算
SVD算法能够使任何一个事故矩阵A 都可以分解成为一个正交矩阵U, 一个对角矩阵Σ, 和一个正交矩阵 VT的乘积, 使得
Figure 262470DEST_PATH_IMAGE011
Σ里面的奇异值从大往小排列,最大值对应于在U 和 V里对原始事故矩阵最显著的向量;
保留事故矩阵A里最主要的k个分量,k根据实际运算速度和运算精度的要求综合权衡确定,得到一个较小的矩阵Uk , Σk , 和
Figure 530640DEST_PATH_IMAGE012
,表达为
Figure 319605DEST_PATH_IMAGE013
在事故经验常识库里,如果记录有m个事故,n个场景要素,则m × n 事故矩阵就可以分解为:
Uk:m × k正交矩阵
Σk:k × k 单一值对角矩阵
Vk:n × k正交矩阵;
Ak就是实际运行相似性对比运算的降维空间;根据计算结果,直觉推断引擎输出的是事故类型。
3.根据权利要求1所述的根据场景观察进行直觉推断的无人驾驶安全判断系统,其特征在于:基于直觉推断引擎获得的预警系统,即直觉预测引擎:
根据贝叶斯定理:
Figure 31340DEST_PATH_IMAGE014
式中,条件概率 P(X/S):感知到了S场景(现实),求S场景下发生X类事故的概率;
先验概率 P(X):X类事故发生的概率,根据各种交通事故统计数据库获取;
似然性P(S|X):已知X发生后S的条件概率,也由于得自X的取值而被称作S的后验概率;也表述为:事故统计数据库里面与场景现实 S 一模一样的概率有多大;
场景发生概率P(S):S场景出现的概率;
忽略P(S)这个固定量,上式可以转换为一下表达形式:条件概率
Figure 538545DEST_PATH_IMAGE015
先验概率x似然性,即
Figure DEST_PATH_IMAGE016
为了计算似然性 P(S/X),需要构建场景S的抽象层,定义s1,s2,…,sn为场景 S 包含的n个场景元素;
所以P(S|X) = P(s1,s2,..,sn|X) ,
可扩展为P(s1|X) * P(s2|s1, X) * P(s3|s2,s1, X) * ..
利用朴素贝叶斯原理:si和 si-1是完全条件无关,所以上式可进一步简化为:
P(s1|X) * P(s2|X) * P(s3|X) * ..
因此,只需要统计场景元素分量si在这个事故模式X里出现的概率,然后相乘就行了;
si在X类型事故里出现的概率可以由历史交通事故记录统计而得;根据计算结果,预测引擎输出事故的发生概率。
CN201911217026.0A 2019-12-03 2019-12-03 根据场景观察进行直觉推断的无人驾驶安全判断系统 Pending CN111666307A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911217026.0A CN111666307A (zh) 2019-12-03 2019-12-03 根据场景观察进行直觉推断的无人驾驶安全判断系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911217026.0A CN111666307A (zh) 2019-12-03 2019-12-03 根据场景观察进行直觉推断的无人驾驶安全判断系统

Publications (1)

Publication Number Publication Date
CN111666307A true CN111666307A (zh) 2020-09-15

Family

ID=72381594

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911217026.0A Pending CN111666307A (zh) 2019-12-03 2019-12-03 根据场景观察进行直觉推断的无人驾驶安全判断系统

Country Status (1)

Country Link
CN (1) CN111666307A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111474932A (zh) * 2020-04-23 2020-07-31 大连理工大学 一种集成情景经验的移动机器人建图与导航方法
CN112612288A (zh) * 2020-12-29 2021-04-06 清华大学苏州汽车研究院(相城) 一种用于自动驾驶车辆误/漏识别的预期功能安全风险评估方法
CN113468670A (zh) * 2021-07-20 2021-10-01 合肥工业大学 一种自动驾驶车辆整车级别的性能评价方法
CN113479213A (zh) * 2021-09-08 2021-10-08 中国汽车技术研究中心有限公司 基于odd的预期功能安全分析方法、设备和介质
CN116523384A (zh) * 2023-04-11 2023-08-01 中国人民解放军陆军工程大学 基于独立否决和联合否决的无人机效能确定方法及系统
CN116704747A (zh) * 2022-12-29 2023-09-05 摩斯智联科技有限公司 一种基于边缘计算判定车辆事故并风控的系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282873A (ja) * 2008-05-26 2009-12-03 Hitachi Ltd ベイジアンネットワークを用いた事故警告通知システム
CN107609502A (zh) * 2017-09-05 2018-01-19 百度在线网络技术(北京)有限公司 用于控制无人驾驶车辆的方法和装置
CN108137015A (zh) * 2016-09-28 2018-06-08 百度(美国)有限责任公司 用于自动驾驶车辆的侧滑补偿控制方法
CN108765235A (zh) * 2018-05-09 2018-11-06 公安部交通管理科学研究所 基于交通事故案例解构的自动驾驶车辆测试场景构建方法和测试方法
JP2018190026A (ja) * 2017-04-28 2018-11-29 株式会社デンソー 自動運転車両の制御システムおよび制御方法
CN109544725A (zh) * 2018-12-03 2019-03-29 济南浪潮高新科技投资发展有限公司 一种基于事件驱动的自动驾驶事故智能处理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282873A (ja) * 2008-05-26 2009-12-03 Hitachi Ltd ベイジアンネットワークを用いた事故警告通知システム
CN108137015A (zh) * 2016-09-28 2018-06-08 百度(美国)有限责任公司 用于自动驾驶车辆的侧滑补偿控制方法
JP2018190026A (ja) * 2017-04-28 2018-11-29 株式会社デンソー 自動運転車両の制御システムおよび制御方法
CN107609502A (zh) * 2017-09-05 2018-01-19 百度在线网络技术(北京)有限公司 用于控制无人驾驶车辆的方法和装置
CN108765235A (zh) * 2018-05-09 2018-11-06 公安部交通管理科学研究所 基于交通事故案例解构的自动驾驶车辆测试场景构建方法和测试方法
CN109544725A (zh) * 2018-12-03 2019-03-29 济南浪潮高新科技投资发展有限公司 一种基于事件驱动的自动驾驶事故智能处理方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111474932A (zh) * 2020-04-23 2020-07-31 大连理工大学 一种集成情景经验的移动机器人建图与导航方法
CN111474932B (zh) * 2020-04-23 2021-05-11 大连理工大学 一种集成情景经验的移动机器人建图与导航方法
CN112612288A (zh) * 2020-12-29 2021-04-06 清华大学苏州汽车研究院(相城) 一种用于自动驾驶车辆误/漏识别的预期功能安全风险评估方法
CN112612288B (zh) * 2020-12-29 2022-05-31 清华大学苏州汽车研究院(相城) 一种用于自动驾驶车辆误/漏识别的预期功能安全风险评估方法
CN113468670A (zh) * 2021-07-20 2021-10-01 合肥工业大学 一种自动驾驶车辆整车级别的性能评价方法
CN113468670B (zh) * 2021-07-20 2023-11-03 合肥工业大学 一种自动驾驶车辆整车级别的性能评价方法
CN113479213A (zh) * 2021-09-08 2021-10-08 中国汽车技术研究中心有限公司 基于odd的预期功能安全分析方法、设备和介质
CN113479213B (zh) * 2021-09-08 2021-12-07 中国汽车技术研究中心有限公司 基于odd的预期功能安全分析方法、设备和介质
CN116704747A (zh) * 2022-12-29 2023-09-05 摩斯智联科技有限公司 一种基于边缘计算判定车辆事故并风控的系统
CN116523384A (zh) * 2023-04-11 2023-08-01 中国人民解放军陆军工程大学 基于独立否决和联合否决的无人机效能确定方法及系统
CN116523384B (zh) * 2023-04-11 2024-05-14 中国人民解放军陆军工程大学 基于独立否决和联合否决的无人机效能确定方法及系统

Similar Documents

Publication Publication Date Title
CN111666307A (zh) 根据场景观察进行直觉推断的无人驾驶安全判断系统
Gu et al. A novel lane-changing decision model for autonomous vehicles based on deep autoencoder network and XGBoost
Althoff et al. Model-based probabilistic collision detection in autonomous driving
CN108469806B (zh) 交替式人机共驾中驾驶权转移方法
Deng et al. Prediction performance of lane changing behaviors: a study of combining environmental and eye-tracking data in a driving simulator
Ryan et al. End-to-end autonomous driving risk analysis: A behavioural anomaly detection approach
Brown et al. A taxonomy and review of algorithms for modeling and predicting human driver behavior
Yan et al. Driving posture recognition by joint application of motion history image and pyramid histogram of oriented gradients
CN104540701A (zh) 用于确定驾驶员的操作状态的方法
CN111915159A (zh) 一种基于动态时间预算的个性化接管预警方法和系统
Wang et al. SafeDrive: A new model for driving risk analysis based on crash avoidance
Halim et al. Deep neural network-based identification of driving risk utilizing driver dependent vehicle driving features: A scheme for critical infrastructure protection
Vasconez et al. A fuzzy-based driver assistance system using human cognitive parameters and driving style information
Bao et al. Data-driven risk-sensitive control for personalized lane change maneuvers
Chu et al. A review of driving style recognition methods from short-term and long-term perspectives
Dubey et al. Autonomous braking and throttle system: A deep reinforcement learning approach for naturalistic driving
Woo et al. Dynamic state estimation of driving style based on driving risk feature
CN115771506B (zh) 基于乘员风险认知的车辆行驶策略的确定方法和装置
Islam et al. Enhancing Longitudinal Velocity Control With Attention Mechanism-Based Deep Deterministic Policy Gradient (DDPG) for Safety and Comfort
CN118119540A (zh) 用于预测驾驶事件的机器学习模型
Wallner et al. Predictive modeling for vehicle time-series data
Barosan CarESP: an emotion vehicle with stress, personality and embodiment of emotions
Talebloo et al. Dynamic and Systematic Survey of Deep Learning Approaches for Driving Behavior Analysis
CN114056425B (zh) 车辆转向控制方法、装置、车辆及存储介质
Huang et al. Hazards Prioritization With Cognitive Attention Maps for Supporting Driving Decision-Making

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination