CN117033562B - 基于场景要素匹配的危险预测方法以及系统 - Google Patents

基于场景要素匹配的危险预测方法以及系统 Download PDF

Info

Publication number
CN117033562B
CN117033562B CN202311293568.2A CN202311293568A CN117033562B CN 117033562 B CN117033562 B CN 117033562B CN 202311293568 A CN202311293568 A CN 202311293568A CN 117033562 B CN117033562 B CN 117033562B
Authority
CN
China
Prior art keywords
vehicle
scene
accident
conflict
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311293568.2A
Other languages
English (en)
Other versions
CN117033562A (zh
Inventor
林淼
王学平
王文霞
王鹏
代兵
王旭东
李晓虎
辛宁
徐超
张甄
范宇坤
曲金伟
刘喆
张怡
李烨
陈旭东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sinotruk Data Co ltd
Beijing Zhongji Vehicle Judicial Appraisal Center
China Automotive Technology and Research Center Co Ltd
Original Assignee
Sinotruk Data Co ltd
Beijing Zhongji Vehicle Judicial Appraisal Center
China Automotive Technology and Research Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sinotruk Data Co ltd, Beijing Zhongji Vehicle Judicial Appraisal Center, China Automotive Technology and Research Center Co Ltd filed Critical Sinotruk Data Co ltd
Priority to CN202311293568.2A priority Critical patent/CN117033562B/zh
Publication of CN117033562A publication Critical patent/CN117033562A/zh
Application granted granted Critical
Publication of CN117033562B publication Critical patent/CN117033562B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了基于场景要素匹配的危险预测方法以及系统,属于自动驾驶技术领域。危险预测方法包括:获取当前场景要素信息和事故数据库中的对应于不同事故场景的事故场景要素信息,并通过自然语言模型,得到对应于各类场景要素信息的关键字;将对应于当前场景和各事故场景中各要素信息的关键字进行匹配,计算得到各事故场景的匹配总分,确定目标匹配场景;基于目标匹配场景中冲突车的事故场景要素信息,确认所有冲突车;根据所有冲突车中各冲突车及当前车辆的车辆参数信息,计算出当前场景下的危险区域;本发明扩展了自动驾驶安全感知功能的能力,提升了自动驾驶汽车的安全性能,促进了在已有的事故场景数据的基础上对自动驾驶危险预测系统的开发。

Description

基于场景要素匹配的危险预测方法以及系统
技术领域
本发明一般涉及自动驾驶技术领域,具体涉及基于场景要素匹配的危险预测方法以及系统。
背景技术
自动驾驶技术包含环境感知、决策规划、控制执行三个主要的方面,经过日积月累的发展,自动驾驶技术的发展也日趋成熟,自动驾驶的功能也在不断地完善,在解放驾驶员双手和提升车辆智能化程度的同时,自动驾驶感知危险的能力也一直是我们研究关注的重点。
感知系统是以多种传感器的数据与高精度地图的信息作为输入,经过一系列的计算及处理,对自动驾驶车的周围环境精确感知的系统。随着自动驾驶中人为干预度的不断减小,感知系统获取环境信息的全面性、准确性和高效性要求越来越高,同时感知系统还是自动驾驶的重要一环,是车辆和环境交互的纽带,是无人汽车的“眼睛”,贯穿着升级的核心部分。自动驾驶感知技术是实现自动驾驶的核心技术之一,对于提高交通安全、减少交通拥堵、提高出行效率等方面具有重要意义。然而,对于自动驾驶提前预测、感知可能出现的危险车辆以及其所可能出现的危险区域的技术研究较少,目前往往集中于如何规避道路上已感知到的车辆带来的危险,所以,为解决上述问题,本发明提出一种基于场景要素匹配的危险预测方法以及系统。
发明内容
鉴于现有技术中的上述缺陷或不足,期望提供一种用于预测危险区域、危险车辆、提高自动驾驶安全性的基于场景要素匹配的危险预测方法以及系统。
第一方面,本发明提供一种基于场景要素匹配的危险预测方法,包括:
获取当前场景要素信息和事故数据库中的对应于不同事故场景的文本信息;所述当前场景要素信息包括:当前外部环境要素信息以及当前车辆自身要素信息;所述文本信息分为:交通参与者信息、气象信息、以及场景中的动态环境信息、静态环境信息;
对不同事故场景下的文本信息进行预处理,得到每个事故场景下各类文本信息所对应的事故场景要素信息,并将当前场景要素信息以及所有事故场景要素信息输入至自然语言模型,得到对应于各类场景要素信息的关键字;
将用于表征当前场景要素信息的各个关键字与每个事故场景下用于表征事故场景要素信息的关键字进行匹配,计算得到所述事故数据库中每个事故场景与当前场景之间对应的匹配总分;
根据匹配总分,将所述事故数据库中所述匹配总分最高的事故场景标记为目标匹配场景;
获取所述目标匹配场景的道路类型和冲突车的驾驶意图,并提取所述事故数据库中与所述目标匹配场景的道路类型和冲突车的驾驶意图均一致的所有冲突车的车辆参数信息;
根据所有冲突车中各冲突车以及当前车辆的车辆参数信息,计算出当前场景下冲突车出现的危险区域;所述车辆参数信息至少包括:车辆尺寸、速度、行驶轨迹路程、以及冲突车和当前车辆的位置参数。
根据本发明提供的技术方案,所述将用于表征当前场景要素信息的各个关键字与每个事故场景下用于表征事故场景要素信息的关键字进行匹配,计算得到所述事故数据库中每个事故场景与当前场景之间对应的匹配总分,具体包括:
基于事故数据库构建贝叶斯网络,由所述贝叶斯网络计算出对应于不同事故场景下各类事故场景要素信息对于事故严重程度的影响因子;所述事故严重程度根据人员损伤严重程度情况划分;
以计算出的所述影响因子作为计算所述目标匹配场景时的匹配得分;
获取每个事故场景下与当前场景要素信息各个关键字相匹配的事故场景要素信息的关键字;
根据所述相匹配的事故场景要素信息的关键字对应的匹配得分,计算得到每个事故场景与当前场景之间对应的匹配总分。
根据本发明提供的技术方案,所述根据所有冲突车中各冲突车以及当前车辆的车辆参数信息,计算出当前场景下冲突车出现的危险区域,具体包括:
获取各冲突车以及当前车辆的行驶轨迹路程,以冲突车与当前车辆行驶过程中扫过的重叠区域为冲突区域;
获取各冲突车与当前车辆的车辆尺寸、速度、以及两车距离所述冲突区域的行驶距离,计算得到各冲突车与当前车辆到达所述冲突区域的时间;
将所有冲突车中与当前车辆到达所述冲突区域的时间相同的冲突车,记为目标冲突车;
将所有目标冲突车在当前场景中的位置参数所覆盖的范围规划为所述危险区域。
根据本发明提供的技术方案,所述根据所有冲突车中各冲突车以及当前车辆的车辆参数信息,计算出当前场景下冲突车出现的危险区域之后,还包括:
将所得的危险区域上传至车联网系统,并映射到当前场景的道路中,获取进入危险区域的现实车辆的车辆参数信息;
根据现实车辆的和对应于该危险区域内的所有冲突车的车辆参数信息,将每一辆现实车辆和所有冲突车一一转化为坐标点;
计算每一辆现实车辆的坐标点与所有冲突车的坐标点之间的平均欧式距离;
选取平均欧式距离数值最小的现实车辆,将其定义为当前场景下该危险区域内的危险车辆。
根据本发明提供的技术方案,所述选取平均欧式距离数值最小的现实车辆,将其定义为当前场景下该危险区域内的危险车辆之后,还包括:
将危险车辆导入车联网系统中,在当前车辆的探测范围内,对危险车辆进行实时监控和预警;
当危险车辆满足监控结束条件后,停止对危险车辆进行监控与预警;
所述监控结束条件至少包括:
危险车辆与当前车辆驶离危险区域后,通过测距碰撞算法计算得到的两车间的碰撞时间大于预设碰撞时间阈值。
根据本发明提供的技术方案,所述危险预测方法还包括:
当所述危险区域确认后,通过改变当前车辆内的激光雷达、摄像头、毫米波雷达等传感器的角度使车载设备的所述探测范围的中心线位于车载设备与危险区域的几何中心的连线上,从而重点监测当前场景下道路中的危险区域。
根据本发明提供的技术方案,所述对不同事故场景下的文本信息进行预处理,具体包括:
对文本信息中的语言进行语句修正,所述语句修正包括:删除冗余重复的词句、删除拼写错误的词语、删除非必要的描述段落、更正语义模糊的词句、以及补充段落中空缺的内容;
对文本信息中的语法错误使用进行语法修正,所述语法修正至少包括:更正混乱的语序、还原文本信息中因缩写而导致的语义曲解的词干词形;
将文本信息中的数据信息进行归一化处理。
第二方面,本发明提供一种基于场景要素匹配的危险预测系统,包括:
感知监控模块,所述感知监控模块配置用于获取当前场景要素信息和事故数据库中的对应于不同事故场景的文本信息;
自然语言处理模块,所述自然语言处理模块配置用于对不同事故场景下的文本信息进行预处理,得到每个事故场景下各类文本信息所对应的事故场景要素信息,并将当前场景要素信息以及所有事故场景要素信息输入至自然语言模型,得到对应于各类场景要素信息的关键字;
匹配场景搜索模块,所述匹配场景搜索模块用于将用于表征当前场景要素信息的各个关键字与每个事故场景下用于表征事故场景要素信息的关键字进行匹配,计算得到所述事故数据库中每个事故场景与当前场景之间对应的匹配总分以及将所述事故数据库中所述匹配总分最高的事故场景标记为目标匹配场景;
危险区域计算模块,所述危险区域计算模块用于获取所述目标匹配场景的道路类型和冲突车的驾驶意图,并提取所述事故数据库中与所述目标匹配场景的道路类型和冲突车的驾驶意图均一致的所有冲突车的车辆参数信息;根据所有冲突车中各冲突车以及当前车辆的车辆参数信息,计算出当前场景下冲突车出现的危险区域。
根据本发明提供的技术方案,所述危险预测系统还包括:危险车辆搜索模块;
所述危险车辆搜索模块用于根据危险区域内各现实车辆与所有冲突车的车辆参数信息,计算出每一辆车现实车辆与所有冲突车的平均欧式距离,得到平均欧式距离中最小数值所对应的现实车辆,并将其定义为该危险区域下的危险车辆。
综上所述,本技术方案具体地公开了一种基于场景要素匹配的危险预测方法以及系统,其中,危险预测方法包括:获取当前场景要素信息和事故数据库中的对应于不同事故场景的文本信息;对不同事故场景下的文本信息进行预处理,得到每个事故场景下各类文本信息所对应的事故场景要素信息,并将当前场景要素信息以及所有事故场景要素信息输入至自然语言模型,得到对应于各类场景要素信息的关键字;将用于表征当前场景要素信息的各个关键字与每个事故场景下用于表征事故场景要素信息的关键字进行匹配,计算得到所述事故数据库中每个事故场景与当前场景之间对应的匹配总分;根据匹配总分,将所述事故数据库中所述匹配总分最高的事故场景标记为目标匹配场景;获取所述目标匹配场景的道路类型和冲突车的驾驶意图,并提取所述事故数据库中与所述目标匹配场景的道路类型和冲突车的驾驶意图均一致的所有冲突车的车辆参数信息;根据所有冲突车中各冲突车以及当前车辆的车辆参数信息,计算出当前场景下冲突车出现的危险区域。
目前针对于自动驾驶提前预测、感知可能出现的危险车辆以及其所可能出现的危险区域的的研究较少,大多都是针对于对道路障碍物的识别与感知,进而约束车辆驾驶行为。本发明通过结合事故数据库和当前场景下的信息对当前车辆所处场景下的危险区域进行了合理预测,预测的过程中基于事故数据库的获取得到了大量冲突车,随后在根据大量冲突车的车辆参数信息对进行危险区域进行锁定,使得危险区域的确定更加精确,同时此方式还扩展了自动驾驶安全感知功能的能力以及自动驾驶汽车的安全性能,也进一步地促进了在已有的事故场景数据的基础上对自动驾驶危险预测系统的开发。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为一种基于场景要素匹配的危险预测方法的应用场景示意图。
图2为一种基于场景要素匹配的危险预测方法的流程示意图。
图3为一种基于场景要素匹配的危险预测方法中确定目标匹配场景的流程示意图。
图4为一种基于场景要素匹配的危险预测方法中确定危险区域的流程示意图。
图5为一种基于场景要素匹配的危险预测方法中危险区域确定的场景示意图。
图6为一种基于场景要素匹配的危险预测系统的结构示意图。
图中标号:100、危险预测系统;101、感知监控模块;102、自然语言处理模块;103、匹配场景搜索模块;104、危险区域计算模块;105、危险车辆搜索模块。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与发明相关的部分。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
实施例1
请参考图1所示的本实施例提供的基于场景要素匹配的危险预测方法的应用场景示意图以及图2所示的危险预测方法的流程示意图,该方法可由车辆来执行,也可以由电子控制单元(ECU,Electronic Control Unit)、车辆感知系统以及车联网平台等协同执行。具体地,该方法包括:
S100:获取当前场景要素信息和事故数据库中的对应于不同事故场景的文本信息;所述当前场景要素信息包括:当前外部环境要素信息以及当前车辆自身要素信息;所述文本信息分为:交通参与者信息、气象信息、以及场景中的动态环境信息、静态环境信息;
其中,当前车辆也可以通俗地理解为正在执行该方法的车辆本身,为便于理解也可称之为“本车”;事故数据库包括了:多起历史事故场景,以及对应于各事故场景下的文本信息;当前场景要素信息和事故数据库中的对应于不同事故场景的文本信息均可以通过本车感知系统和车联网系统进行获取。
S200:对不同事故场景下的文本信息进行预处理,得到每个事故场景下各类文本信息所对应的事故场景要素信息,并将当前场景要素信息以及所有事故场景要素信息输入至自然语言模型,得到对应于各类场景要素信息的关键字;其中,各类场景要素信息包括了当前场景要素信息以及事故场景要素信息。
本实施例中,对于事故数据库中的文本信息而言,内容太过繁杂,容易抓不住重点,用于得到目标匹配场景只需要提取文本信息其部分关键信息。在将复杂冗余的事故调查的文本信息使用自然语言技术处理前,需要对事故文本信息进行预处理,得到各类文本信息所对应的事故场景要素信息。
具体地,对于文本信息的静态环境信息、动态环境信息、天气信息和交通参与者信息等事故场景要素的提取具体步骤包括:
首先,对文本信息中的语言进行语句修正。例如,将文本中冗余重复的词句、拼写错误的词语以及非必要/无意义的描述段落进行删除,删除一些对后续提取关键信息没用作用的内容,如:日期、地点、城市、乱码和没用实际意义的一些标点符号等;还包括:对表达不清晰、语义模糊的词句进行修改更正,并将段落中空缺的内容补充完整,以便提升自然语言处理技术的效率和准确性。
对文本信息中的语法错误使用进行语法修正。例如,将文本中的语法使用错误进行修正,把其中混乱的语序进行更正,将因为文本缩写而导致的语义曲解的词干词形进行还原,保证本文中的语句通顺,逻辑清晰。
将文本中的数据信息进行归一化处理,方便后续使用自然语言处理技术(例如为利用自然语言模型)更好的进行关键信息提取。
具体地,在实际应用过程中,可以预定义一个含有表征场景要素信息关键字的词库,其中包含了丰富的关键字,如:天气信息(阴天、雨天、晴天等)、冲突车的相对位置信息(对向来车、同向来车、左侧来车等)、道路类型(十字路口、T型路口、环形交叉路口等)、车道类型(单车道、双车道、三车道等)、障碍物类型(无、路障等)等关键词表征场景中的具体要素信息。
通过已训练好的自然语言模型与事故数据库中每一项要素信息(交通参与者要素信息、气象要素信息、动态环境要素信息、以及静态环境要素信息)进行比对,判断用于描述场景的各要素信息的话语与模型自身词库中关键字的相似度,当相似度达到阈值时,判定可以用某个关键词来表征某个场景要素中的某一项具体的要素信息;相应地,获取得到的当前场景的外部环境要素信息和车辆自身要素信息的关键字表征步骤同上。
结合图3,步骤S300:将用于表征当前场景要素信息的各个关键字与每个事故场景下用于表征事故场景要素信息的关键字进行匹配,计算得到所述事故数据库中每个事故场景与当前场景之间对应的匹配总分,具体包括:
S301:基于事故数据库构建贝叶斯网络,由所述贝叶斯网络计算出对应于不同事故场景下各类事故场景要素信息对于事故严重程度的影响因子;所述事故严重程度根据人员损伤严重程度情况划分;
示例性地,贝叶斯网络的构建具体包括:
(1)收集整理事故场景要素信息,事故场景要素信息例如以下内容:
事故严重程度:根据人员损伤严重程度情况分类,可分为AIS1、AIS2、AIS3、AIS4、AIS5、AIS6六个等级;
静态环境要素包括:道路类型、车道类型、障碍物等;
动态环境要素包括:可变交通标志、交通信号灯、交通流量信息等;
气象要素包括:天气状况、能见度、降雨量等;
交通参与者要素包括:历史事故中的车辆参数信息(车辆尺寸、速度、行驶的轨迹路程、以及冲突车)、冲突车的相对位置等。
(2)对每一个节点的状态进行定义,节点例如:气象要素节点可以分为晴天、雨天、雪天等状态。以事故严重程度为子节点,其他事故场景要素信息为父节点,接下来需要确定父节点(变量)之间的关系,包括因果关系、相关关系和独立性关系等。
(3)确定贝叶斯网络的结构,基于搜索的贝叶斯网络结构学习算法核心主要包含两块:一是确定评分函数,用以评价网络结构的好坏。二是确定搜索策略以找到最好的结果。
a. 首先,根据已有的事故数据集通过专家知识确定一个初始的贝叶斯网络节点顺序。
b. 确定评分函数,选择评分最高的贝叶斯网络结构;
具体地,评分函数可选为:
其中,表示为第i个变量的父节点集合结构的评分;/>表示为变量节点/>的父节点的取值数目;i表示为常数,/>表示为/>父节点的集合;j表示为变量节点/>的父节点的第j个取值;/>表示为/>的取值数目;/>表示为包含变量节点/>的所有取值,并且的父节点的第j个取值时,对应的事故案例记录数目;/>表示为变量节点/>的第/>个取值;/>表示为/>取值为/>,且变量节点/>的父节点为第j个取值时的事故案例记录数目。
c. 使用贪婪思想来寻找最优结构,根据初定的节点顺序搜索父节点集合使评分函数最大,当评分函数无法增大时,停止循环搜索。但是根据节点的搜索顺序是有限的,如果变量节点在变量节点/>之前,那么就不能存在由/>指向/>的边,同时,设定每个变量节点的父节点最多为U个。该方法得出了每个节点的最大评分函数的父节点,这样就得出了整体的贝叶斯网络结构。
(4)贝叶斯网络参数学习;
a.确定概率分布类型:对于每个节点,需要确定其概率分布类型,如高斯分布、伯努利分布等。
b.选择参数估计方法:根据节点的概率分布类型,选择相应的参数估计方法,如最大似然估计、贝叶斯估计等,以此来确定贝叶斯网络中各节点的概率分布。
c.进行参数估计:利用所选的参数估计方法,对每个节点的概率分布进行估计,得到每个节点的参数值。模型评估:对于得到的贝叶斯网络模型,需要进行评估,以确定其预测能力和可靠性。可以使用交叉验证、ROC曲线等方法进行模型评估。
(5)对于每个变量节点,计算其对结果节点Y的条件概率/>,其中,/>表示为变量节点/>的父节点,/>表示结果节点Y的边缘概率。计算变量节点对结果节点Y的影响度/>,公式如下:
公式(一)
S302:以计算出的所述影响因子作为计算所述目标匹配场景时的匹配得分;
结合上述内容可知,不同的事故场景(事故案例)即便具有相同事故场景要素,那么由于该事故场景要素在不同的事故场景下所起到的影响不同,对应的影响因子(影响因子对应于上述影响度)也会不同,根据计算得到的影响因子的数据作为每个事故场景中事故场景要素信息的权重,使得目标匹配场景的选取更加客观准确。
S303:获取每个事故场景下与当前场景要素信息各个关键字相匹配的事故场景要素信息的关键字;
示例性地,当前场景要素信息中的关键字例如包括:雾天、T型路口、双车道、左转;
事故数据库中包括有:事故场景1和事故场景2;
事故场景1的事故场景要素信息对应的关键字包含:AIS1、雾天、T型路口、双车道、右转;根据贝叶斯网络计算得到关于每个事故场景要素信息的影响因子例如为:雾天-0.5、T型路口-0.1、双车道-0.1、右转-0.5;
事故场景2的事故场景要素信息对应的关键字包含:AIS5、雾天、十字型路口、双车道、左转;根据贝叶斯网络计算得到关于每个事故场景要素信息例如为:雾天-0.8、十字型路口-0.4、双车道-0.1、左转-0.2;
基于上述场景的建立,此时当前场景与事故场景1相匹配的关键字包括:雾天、T型路口、双车道;当前场景与事故场景1相匹配的关键字包括:雾天、双车道、左转。
S304:根据所述相匹配的事故场景要素信息的关键字对应的匹配得分,计算得到每个事故场景与当前场景之间对应的匹配总分。
同样是以上述场景为例,通过对所有相匹配的关键字对应的匹配得分进行累加计算便可得到每个事故场景与当前场景间的匹配总分,此时事故场景1与当前场景的匹配总分为0.7;事故场景2与当前场景的匹配总分为1.1。
具体地,匹配总分可根据如下公式(二)和公式(三)计算得到:
,/>公式(二)
公式(三)
表示为第m个事故场景与当前场景的匹配总分;/>表示为在第m个事故场景中的第i个事故场景要素的匹配得分;/>表示为总事故场景中匹配总分的最大值,其对应的事故场景即为目标匹配场景;/>表示为第m个事故场景下的事故场景要素的总个数;M表示为常数。
需要注意的是,本发明中默认事故数据库中的每一个事故场景都经过PC-Crash12.0软件进行还原,能通过还原的事故得到场景中交通参与者的行驶轨迹、速度和初始位置等信息;同时为了提升匹配场景的有效性,可以根据本车的驾驶意图和道路类型优先对事故数据库中的所有事故场景进行分类,通过贝叶斯网络确定的每一项事故场景要素信息的影响因子后,以当前场景要素信息对应的关键字为匹配目标,在分类后的事故数据库中筛选相关的事故场景中的事故场景要素,随后再进行匹配总分的计算。
当事故数据库中各个事故场景的匹配总分通过上述公式(二)和公式(三)计算得到后,进入步骤S400:根据匹配总分,将所述事故数据库中所述匹配总分最高的事故场景标记为目标匹配场景,即可得到目标匹配场景。
S500:获取所述目标匹配场景的道路类型和冲突车的驾驶意图,并提取所述事故数据库中与所述目标匹配场景的道路类型和冲突车的驾驶意图均一致的所有冲突车的车辆参数信息;
具体地,冲突车可定义为可能干扰当前车辆行驶的车辆,冲突车的数据可以通过事故数据库获取得到;
驾驶意图可定义为车辆的行驶意图,例如为在十字路口左转或者右转,都可称之为驾驶意图,驾驶意图可以通过由出发点到目的地的规划路线获取得到。
需要注意的是,所有冲突车的确认是根据在事故数据库中得到的目标匹配场景中的冲突车驾驶意图,进而返回事故数据库中寻找与其驾驶意图相同且场景道路类型(十字路口、T字路口等)相同的事故案例,提取出这些冲突车辆(非本车)的运动参数作为假想的危险车辆可能存在的状态,进而进行后续的模拟计算。
S600:根据所有冲突车中各冲突车以及当前车辆的车辆参数信息,计算出当前场景下冲突车出现的危险区域;所述车辆参数信息至少包括:车辆尺寸、速度、行驶的轨迹路程、以及冲突车和当前车辆的位置参数;其中,当前车辆的车辆参数信息可以根据其自身要素信息获取得到。
具体地,结合图4,步骤S600包括如下步骤:
S601:获取各冲突车以及当前车辆的行驶的轨迹路程,以冲突车与当前车辆行驶过程中扫过的重叠区域为冲突区域;
以图5为例,在十字路口下,本车(当前车辆)直行,冲突车从本车的左方直行通过十字路口,以冲突车与本车行驶过程中扫过的重叠区域为冲突区域,参见图5中的阴影区域;而图5中的虚线区域表示为车辆的交互区域。
S602:获取各冲突车与当前车辆的车辆尺寸、速度、以及两车距离所述冲突区域的行驶距离,计算得到各冲突车与当前车辆到达所述冲突区域的时间;
具体地,到达所述冲突区域的时间计算公式如下:
≤/>公式(四)
或者≥/>公式(五)
其中,表示为本车从初始位置到冲突区域的行驶距离,/>表示为冲突车从初始位置到冲突区域的行驶距离;/>表示为本车的驾驶速度,/>表示为冲突车的驾驶速度;/>表示为本车的长度;/>表示为冲突车的长度;/>表示为本车的宽度;/>表示为冲突车的宽度;T表示为真实场景中因为数据传递和模块计算需损耗的时间而预设的一个安全阈值。
S603:将所有冲突车中与当前车辆到达所述冲突区域的时间相同的冲突车,记为目标冲突车;
若经过计算得出冲突车和当前车辆会在同一时间处于冲突区域内,则判断两车会发生冲突,这类冲突车记为目标冲突车;若未同时出现在冲突区域内,则判定两车相对安全。
S604:将所有目标冲突车在当前场景中的位置参数所覆盖的范围规划为所述危险区域。
具体地,在通过步骤S603计算出所有满足冲突条件的目标冲突车之后,根据所有目标冲突车在当前场景道路中所共同覆盖的一个范围规划为所要寻找的危险区域。需要注意的是,冲突车以及目标冲突车均是假想车辆,真实道路中可能并不存在这些车,危险区域的定义便可以理解为是在行车电脑中计算模拟出的一个虚拟的范围随后投影到真实道路中,用于保证自动驾驶的安全性。
进一步地,在计算出当前场景下冲突车出现的危险区域之后还包括:
步骤一、将所得的危险区域上传至车联网系统,并映射到当前场景的道路中,获取进入危险区域下的现实车辆的车辆参数信息;
危险区域上传至车联网系统时便可成功将危险区域映射到当前的真实道路中,随后通过改变当前车辆的激光雷达、摄像头、毫米波雷达等传感器的角度使车载设备的探测范围的中心线位于车载设备与危险区域的几何中心的连线上进而达到重点监测当前道路下危险区域的目的。
步骤二、根据现实车辆的和对应于该危险区域内的所有冲突车的车辆参数信息,将每一辆现实车辆和所有冲突车一一转化为坐标点;
通过车联网系统在当前道路中映射出的危险区域内搜索与计算所得的目标冲突车参数相近的现实车辆,使用车联网系统获取在危险区域内现实车辆的参数信息,包括:驾驶意图、速度、位置、车型尺寸等,并将它们表示成诸多个坐标点,坐标点信息例如为;其中,/>表示为速度;/>表示为横向位置;/>表示为纵向位置;/>表示为车辆的宽度尺寸;/>表示为车辆的长度尺寸。
步骤三、计算每一辆现实车辆的坐标点与所有冲突车的坐标点之间的平均欧式距离;
步骤四、选取平均欧式距离数值最小的现实车辆,将其定义为当前场景下该危险区域内的危险车辆。
结合步骤三与步骤的内容可知,通过使用欧式距离分别计算出每一辆现实车辆坐标点和所有目标冲突车之间的距离,将所有距离之和的平均值表示为每一辆真实车对于区域内所有冲突车的离散程度(所谓离散程度,即观测变量各个取值之间的差异程度),离散值越大则表明相似度越小,选取其中离散值最小的车辆将其定义为当前场景道路下危险区域内相似度最高的危险车辆。
具体地,离散程度可以根据如下公式(六)计算得到:
公式(六)
其中,表示为现实车辆与目标冲突车的差异程度;/>表示为经过计算得到的目标冲突车的数量;/>和/>分别表示为当下场景下目标冲突车与现实车辆的速度;/>和/>分别表示为目标冲突车与现实车辆的横向位置;/>和/>分别表示为目标冲突车与现实车辆的纵向位置;/>和/>分别表示为目标冲突车与现实车辆的宽度尺寸;/>和/>分别表示为目标冲突车与现实车辆的长度尺寸。
进一步地,在步骤四、所述选取平均欧式距离数值最小的现实车辆,将其定义为当前场景下该危险区域内的危险车辆之后,还包括以下步骤:
将危险车辆导入车联网系统中,并在当前车辆的探测范围内,对危险车辆进行实时监控和预警;
具体地,参见图1所示,利用车联网的交互能力以及车载设备,如:激光雷达、摄像头、毫米波雷达等传感器,持续采集危险车辆的数据信息,其中包括:驾驶意图、位置、速度、方向、加速度、转向等信息,随后,根据前述步骤得出的危险区域及危险车辆的信息通过当前车辆的感知系统对危险车辆进行实时动态监控;
需要注意的是,危险区域及区域内的行驶车辆都在不停运动和变化,所以,以上述步骤中对于动态监测的危险区域认为其不是单一不变化的,而是根据区域内现实车辆的车辆参数信息的实时变化而不断调整的一块动态危险区域,具体根据每辆现实车辆在每个时刻的位置以及速度变化,动态调整危险区域的大小范围,将不断变化的危险区域位置信息通过ECU把传感器所需要调整的探测范围和角度的指令传递给相应的车载设备,设备将会根据得到的指令执行相应的命令,使预测的危险区域和区域内的危险车辆在当前场景下一直处于当前车辆的感知范围内。
同时,本实施案例需要对监测任务设定终止条件,如若监测系统持续对预测得到的初始场景中的危险区域和危险车辆进行跟踪和监测将会过度浪费驾驶资源,所以,为了让监测系统对于是否可以结束对当前场景的任务进行及时的判断,当危险车辆满足监控结束条件后,停止对危险车辆进行监控与预警;
所述监控结束条件至少包括:危险车辆与当前车辆驶离危险区域后,通过测距碰撞算法计算得到的两车间的碰撞时间(TTC,Time-To-Collision)大于预设碰撞时间阈值。
此外,监控结束条件还可以是所有冲突车与本车已驶出当前的场景范围。(当前的场景范围可依据不同冲突类型、路段类型、车辆轨迹或当前场景的交通拥堵情况等来决定);
或者是,冲突车的驾驶意图在与本车交互之前发生改变并不会与本车的驾驶轨迹发生干涉,如:在十字路口处,冲突车在驶入交汇路口之前改变驾驶意图,且行驶路径不会干涉本车的预行驶路径。
本实施例中介绍了三个结束条件,当满足以下三个结束条件中任意一个时,车辆的感知系统不再探测当前危险区域和危险车辆,车联网系统结束对危险车辆的实时跟踪,系统开始进行预测当前车辆在一下场景中的危险区域和危险车辆的任务。
综上所述,本发明一方面为自动驾驶预测感知危险提供了一种新的基于事故数据库的方法,扩展了自动驾驶安全感知功能的能力,提升了自动驾驶汽车的安全性能,促进了在已有的事故场景数据的基础上对自动驾驶危险预测系统的开发。第二方面,本发明所述的基于当前场景要素匹配已有事故数据库中的危险场景的方法,通过基于事故数据库搭建贝叶斯网络考虑每一项事故场景要素对于事故严重程度的影响,并以此确定各事故场景要素的匹配得分,所以本发明所筛选出的目标匹配场景比通过人为经验到的匹配场景更具有科学性和客观性。第三方面,在提取出目标匹配场景中的冲突车后,通过事故数据库筛选出与当前场景道路类型、冲突车驾驶意图相同的历史事故中的冲突车的车辆参数信息并通过与当前车辆的车辆参数信息进行计算得出冲突车可能出现的危险区域,并通过匹配筛选出的目标冲突车的车辆参数信息得出当场景的危险区域下的危险车辆,使当前车辆持续动态感知危险区域和危险车辆,减少最可能发生的事故带来的危险,提升了自动驾驶汽车的对危险的预测能力,能降低未知危险发生的概率。
实施例2
如图6所示,本实施例提供一种基于场景要素匹配的危险预测系统,应用有实施例1所述的基于场景要素匹配的危险预测方法,危险预测系统100具体包括:
感知监控模块101,所述感知监控模块101配置用于获取当前场景要素信息和事故数据库中的对应于不同事故场景的文本信息;
自然语言处理模块102,所述自然语言处理模块102配置用于对不同事故场景下的文本信息进行预处理,得到每个事故场景下各类文本信息所对应的事故场景要素信息,并将当前场景要素信息以及所有事故场景要素信息输入至自然语言模型,得到对应于各类场景要素信息的关键字;
匹配场景搜索模块103,所述匹配场景搜索模块103用于将用于表征当前场景要素信息的各个关键字与每个事故场景下用于表征事故场景要素信息的关键字进行匹配,计算得到所述事故数据库中每个事故场景与当前场景之间对应的匹配总分以及将所述事故数据库中所述匹配总分最高的事故场景标记为目标匹配场景;
危险区域计算模块104,危险区域计算模块104用于获取所述目标匹配场景的道路类型和冲突车的驾驶意图,并提取所述事故数据库中与所述目标匹配场景的道路类型和冲突车的驾驶意图均一致的所有冲突车;根据所有冲突车中各冲突车以及当前车辆的车辆参数信息,计算出当前场景下冲突车出现的危险区域。
此外,还包括:危险车辆搜索模块105;
在当前场景道路中的危险区域下,危险车辆搜索模块105用于根据危险区域内的每一辆现实车辆与所有冲突车的车辆参数信息(速度、位置、车辆尺寸参数等),计算出每一辆现实车辆与所有冲突车之间的平均欧式距离,随后根据计算得到的对应于每一辆现实车辆的平均欧式距离,选取最小平均欧式距离所对应的现实车辆,将其定义为该危险区域中的危险车辆。
具体地,在本实施例中,感知监控模块101具体用于通过车联网系统或车载设备对周围的动、静态环境、交通参与者、气象状况进行数据信息的获取,随后将相关数据信息传输至自然语言处理模块102进行数据处理;所述危险车辆搜索模块105和所述危险区域计算模块104中分析出的危险区域和危险车辆通过车载数据传输系统和车联网系统分别传输到车辆感知系统和车联网系统平台中,进而对危险区域和危险车辆进行持续动态监控和跟踪,并在达到设定的监控结束条件时,停止当前场景下的监控任务。
匹配场景搜索模块103,所述匹配场景搜索模块103具体用于将事故数据库中按照当前车辆的驾驶意图和道路类型进行分类,再通过已搭建好的贝叶斯网络分析出不同事故中各事故场景要素信息的影响因子,并计算出事故数据库中同类别下的事故场景与当前场景之间各匹配要素信息的匹配总分,取其中匹配总分最大值的事故场景为目标匹配场景。
危险区域计算模块104,所述危险区域计算模块104用于获取所述目标匹配场景的道路类型和冲突车的驾驶意图,同时将已有的与当前道路类型和冲突车驾驶意图相同的历史事故场景中的冲突车轨迹路程、速度和位置提取出来与当前车辆的对应参数进行计算,判断出会发生干涉的目标冲突车,并提取出所有目标冲突车的参数并在当前场景的道路中标记出危险区域。
以上描述仅为本发明的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本发明中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本发明中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (7)

1.基于场景要素匹配的危险预测方法,其特征在于,包括:
获取当前场景要素信息和事故数据库中的对应于不同事故场景的文本信息;所述当前场景要素信息包括:当前外部环境要素信息以及当前车辆自身要素信息;所述文本信息分为:交通参与者信息、气象信息、以及场景中的动态环境信息、静态环境信息;
对不同事故场景下的文本信息进行预处理,得到每个事故场景下各类文本信息所对应的事故场景要素信息,并将当前场景要素信息以及所有事故场景要素信息输入至自然语言模型,得到对应于各类场景要素信息的关键字;
将用于表征当前场景要素信息的各个关键字与每个事故场景下用于表征事故场景要素信息的关键字进行匹配,计算得到所述事故数据库中每个事故场景与当前场景之间对应的匹配总分;
根据匹配总分,将所述事故数据库中所述匹配总分最高的事故场景标记为目标匹配场景;
获取所述目标匹配场景的道路类型和冲突车的驾驶意图,并提取所述事故数据库中与所述目标匹配场景的道路类型和冲突车的驾驶意图均一致的所有冲突车的车辆参数信息;
根据所有冲突车中各冲突车以及当前车辆的车辆参数信息,计算出当前场景下冲突车出现的危险区域;所述车辆参数信息至少包括:车辆尺寸、速度、行驶轨迹路程、以及冲突车和当前车辆的位置参数;
所述将用于表征当前场景要素信息的各个关键字与每个事故场景下用于表征事故场景要素信息的关键字进行匹配,计算得到所述事故数据库中每个事故场景与当前场景之间对应的匹配总分,具体包括:
基于事故数据库构建贝叶斯网络,由所述贝叶斯网络计算出对应于不同事故场景下各类事故场景要素信息对于事故严重程度的影响因子;所述事故严重程度根据人员损伤严重程度情况划分;
以计算出的所述影响因子作为计算所述目标匹配场景时的匹配得分;
获取每个事故场景下与当前场景要素信息各个关键字相匹配的事故场景要素信息的关键字;
根据所述相匹配的事故场景要素信息的关键字对应的匹配得分,计算得到每个事故场景与当前场景之间对应的匹配总分;
所述根据所有冲突车中各冲突车以及当前车辆的车辆参数信息,计算出当前场景下冲突车出现的危险区域,具体包括:
获取各冲突车以及当前车辆的行驶轨迹路程,以冲突车与当前车辆行驶过程中扫过的重叠区域为冲突区域;
获取各冲突车与当前车辆的车辆尺寸、速度、以及两车距离所述冲突区域的行驶距离,计算得到各冲突车与当前车辆到达所述冲突区域的时间;
将所有冲突车中与当前车辆到达所述冲突区域的时间相同的冲突车,记为目标冲突车;
将所有目标冲突车在当前场景中的位置参数所覆盖的范围规划为所述危险区域。
2.根据权利要求1所述的基于场景要素匹配的危险预测方法,其特征在于,
所述根据所有冲突车中各冲突车以及当前车辆的车辆参数信息,计算出当前场景下冲突车出现的危险区域之后,还包括:
将所得的危险区域上传至车联网系统,并映射到当前场景的道路中,获取进入危险区域的现实车辆的车辆参数信息;
根据现实车辆的和对应于该危险区域内的所有冲突车的车辆参数信息,将每一辆现实车辆和所有冲突车一一转化为坐标点;
计算每一辆现实车辆的坐标点与所有冲突车的坐标点之间的平均欧式距离;
选取平均欧式距离数值最小的现实车辆,将其定义为当前场景下该危险区域内的危险车辆。
3.根据权利要求2所述的基于场景要素匹配的危险预测方法,其特征在于,
所述选取平均欧式距离数值最小的现实车辆,将其定义为当前场景下该危险区域内的危险车辆之后,还包括:
将危险车辆导入车联网系统中,在当前车辆的探测范围内,对危险车辆进行实时监控和预警;
当危险车辆满足监控结束条件后,停止对危险车辆进行监控与预警;
所述监控结束条件至少包括:
危险车辆与当前车辆驶离危险区域后,通过测距碰撞算法计算得到的两车间的碰撞时间大于预设碰撞时间阈值。
4.根据权利要求3所述的基于场景要素匹配的危险预测方法,其特征在于,所述危险预测方法还包括:
当所述危险区域确认后,通过改变当前车辆内的激光雷达、摄像头、毫米波雷达的角度使车载设备的所述探测范围的中心线位于车载设备与危险区域的几何中心的连线上,从而重点监测当前场景下道路中的危险区域。
5.根据权利要求1所述的基于场景要素匹配的危险预测方法,其特征在于,
所述对不同事故场景下的文本信息进行预处理,具体包括:
对文本信息中的语言进行语句修正,所述语句修正包括:删除冗余重复的词句、删除拼写错误的词语、删除非必要的描述段落、更正语义模糊的词句、以及补充段落中空缺的内容;
对文本信息中的语法错误使用进行语法修正,所述语法修正至少包括:更正混乱的语序、还原文本信息中因缩写而导致的语义曲解的词干词形;
将文本信息中的数据信息进行归一化处理。
6.一种基于场景要素匹配的危险预测系统,其特征在于,包括:
感知监控模块,所述感知监控模块配置用于获取当前场景要素信息和事故数据库中的对应于不同事故场景的文本信息;
自然语言处理模块,所述自然语言处理模块配置用于对不同事故场景下的文本信息进行预处理,得到每个事故场景下各类文本信息所对应的事故场景要素信息,并将当前场景要素信息以及所有事故场景要素信息输入至自然语言模型,得到对应于各类场景要素信息的关键字;
匹配场景搜索模块,所述匹配场景搜索模块用于将用于表征当前场景要素信息的各个关键字与每个事故场景下用于表征事故场景要素信息的关键字进行匹配,计算得到所述事故数据库中每个事故场景与当前场景之间对应的匹配总分以及将所述事故数据库中所述匹配总分最高的事故场景标记为目标匹配场景;所述将用于表征当前场景要素信息的各个关键字与每个事故场景下用于表征事故场景要素信息的关键字进行匹配,计算得到所述事故数据库中每个事故场景与当前场景之间对应的匹配总分,具体包括:
基于事故数据库构建贝叶斯网络,由所述贝叶斯网络计算出对应于不同事故场景下各类事故场景要素信息对于事故严重程度的影响因子;所述事故严重程度根据人员损伤严重程度情况划分;
以计算出的所述影响因子作为计算所述目标匹配场景时的匹配得分;
获取每个事故场景下与当前场景要素信息各个关键字相匹配的事故场景要素信息的关键字;
根据所述相匹配的事故场景要素信息的关键字对应的匹配得分,计算得到每个事故场景与当前场景之间对应的匹配总分;
危险区域计算模块,所述危险区域计算模块用于获取所述目标匹配场景的道路类型和冲突车的驾驶意图,并提取所述事故数据库中与所述目标匹配场景的道路类型和冲突车的驾驶意图均一致的所有冲突车的车辆参数信息;根据所有冲突车中各冲突车以及当前车辆的车辆参数信息,计算出当前场景下冲突车出现的危险区域;所述根据所有冲突车中各冲突车以及当前车辆的车辆参数信息,计算出当前场景下冲突车出现的危险区域,具体包括:
获取各冲突车以及当前车辆的行驶轨迹路程,以冲突车与当前车辆行驶过程中扫过的重叠区域为冲突区域;
获取各冲突车与当前车辆的车辆尺寸、速度、以及两车距离所述冲突区域的行驶距离,计算得到各冲突车与当前车辆到达所述冲突区域的时间;
将所有冲突车中与当前车辆到达所述冲突区域的时间相同的冲突车,记为目标冲突车;
将所有目标冲突车在当前场景中的位置参数所覆盖的范围规划为所述危险区域。
7.根据权利要求6所述的基于场景要素匹配的危险预测系统,其特征在于,所述危险预测系统还包括:危险车辆搜索模块;
所述危险车辆搜索模块用于根据危险区域内各现实车辆与所有冲突车的车辆参数信息,计算出每一辆现实车辆与所有冲突车的平均欧式距离,得到平均欧式距离中最小数值所对应的现实车辆,并将其定义为该危险区域下的危险车辆。
CN202311293568.2A 2023-10-09 2023-10-09 基于场景要素匹配的危险预测方法以及系统 Active CN117033562B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311293568.2A CN117033562B (zh) 2023-10-09 2023-10-09 基于场景要素匹配的危险预测方法以及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311293568.2A CN117033562B (zh) 2023-10-09 2023-10-09 基于场景要素匹配的危险预测方法以及系统

Publications (2)

Publication Number Publication Date
CN117033562A CN117033562A (zh) 2023-11-10
CN117033562B true CN117033562B (zh) 2024-02-23

Family

ID=88632258

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311293568.2A Active CN117033562B (zh) 2023-10-09 2023-10-09 基于场景要素匹配的危险预测方法以及系统

Country Status (1)

Country Link
CN (1) CN117033562B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117808437B (zh) * 2024-02-28 2024-05-17 山东金宇信息科技集团有限公司 一种基于虚拟仿真技术的交通管理方法、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102246462B1 (ko) * 2020-06-15 2021-04-30 주식회사 스칼라웍스 지능형 엣지 기반 도로교통 상황인지 방법
CN113561974A (zh) * 2021-08-25 2021-10-29 清华大学 基于车辆行为交互与道路结构耦合的碰撞风险预测方法
CN114722569A (zh) * 2022-03-08 2022-07-08 上海纭帆科技有限公司 一种基于事故数据的仿真危险场景的构建方法
CN115935642A (zh) * 2022-12-05 2023-04-07 长沙理工大学 基于事故信息的智能车极端测试场景自动生成方法与系统
CN116597690A (zh) * 2023-07-18 2023-08-15 山东高速信息集团有限公司 智能网联汽车的高速公路测试场景生成方法、设备及介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220414377A1 (en) * 2021-06-23 2022-12-29 Motorola Solutions, Inc. System and method for presenting statements captured at an incident scene

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102246462B1 (ko) * 2020-06-15 2021-04-30 주식회사 스칼라웍스 지능형 엣지 기반 도로교통 상황인지 방법
CN113561974A (zh) * 2021-08-25 2021-10-29 清华大学 基于车辆行为交互与道路结构耦合的碰撞风险预测方法
CN114722569A (zh) * 2022-03-08 2022-07-08 上海纭帆科技有限公司 一种基于事故数据的仿真危险场景的构建方法
CN115935642A (zh) * 2022-12-05 2023-04-07 长沙理工大学 基于事故信息的智能车极端测试场景自动生成方法与系统
CN116597690A (zh) * 2023-07-18 2023-08-15 山东高速信息集团有限公司 智能网联汽车的高速公路测试场景生成方法、设备及介质

Also Published As

Publication number Publication date
CN117033562A (zh) 2023-11-10

Similar Documents

Publication Publication Date Title
JP7338052B2 (ja) 軌跡予測方法、装置、機器及び記憶媒体リソース
US11726477B2 (en) Methods and systems for trajectory forecasting with recurrent neural networks using inertial behavioral rollout
US9527384B2 (en) Driving context generation system for generating driving behavior description information
Huval et al. An empirical evaluation of deep learning on highway driving
US9904855B2 (en) Atomic scenes for scalable traffic scene recognition in monocular videos
US11430224B2 (en) Systems and methods for camera-LiDAR fused object detection with segment filtering
CN117033562B (zh) 基于场景要素匹配的危险预测方法以及系统
Jeong et al. Bidirectional long shot-term memory-based interactive motion prediction of cut-in vehicles in urban environments
CN113511204B (zh) 一种车辆换道行为识别方法及相关设备
CN114005280A (zh) 一种基于不确定性估计的车辆轨迹预测方法
CN115195748A (zh) 基于数据驱动的智能汽车拟人化决策规划系统及方法
CN112614373A (zh) 一种基于BiLSTM周车换道意图预测方法
Li et al. Attention-based lane change and crash risk prediction model in highways
CN116261649A (zh) 一种车辆行驶意图预测方法、装置、终端及存储介质
Guo et al. Humanlike behavior generation in urban environment based on learning-based potentials with a low-cost lane graph
Azadani et al. Toward driver intention prediction for intelligent vehicles: A deep learning approach
Gao et al. Discretionary cut-in driving behavior risk assessment based on naturalistic driving data
Zhang et al. Dynamic driving intention recognition of vehicles with different driving styles of surrounding vehicles
CN117217314A (zh) 一种基于元数据驱动与因果分析理论的驾驶情境推理方法
US11436504B1 (en) Unified scene graphs
US20220172606A1 (en) Systems and Methods for Extracting Data From Autonomous Vehicles
CN115107806A (zh) 一种自动驾驶系统中面向突发事件场景的车辆轨迹预测方法
Aymen et al. Leveraging GPS data for vehicle maneuver detection
CN114274980A (zh) 轨迹控制方法、装置、车辆及存储介质
CN114722931A (zh) 车载数据处理方法、装置、数据采集设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant