CN115272994A - 自动驾驶预测模型训练方法、装置、终端及介质 - Google Patents
自动驾驶预测模型训练方法、装置、终端及介质 Download PDFInfo
- Publication number
- CN115272994A CN115272994A CN202111155017.0A CN202111155017A CN115272994A CN 115272994 A CN115272994 A CN 115272994A CN 202111155017 A CN202111155017 A CN 202111155017A CN 115272994 A CN115272994 A CN 115272994A
- Authority
- CN
- China
- Prior art keywords
- scene
- data
- automatic driving
- candidate
- prediction model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Traffic Control Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
公开了自动驾驶预测模型训练方法、装置、终端及介质,该方法包括:接收自动驾驶数据;基于候选场景的场景规则和自动驾驶数据的特征,确定自动驾驶数据对应的场景;针对对应的场景进行数据构造,得到构造数据;混合自动驾驶数据和构造数据,并对混合后的数据进行数据标注;基于标注后的数据调整对应的场景的场景规则和该场景下的预测模型。本公开提供了一种完整的针对多场景自动标注训练调整的流水线系统,可使用相同的方式对所有自动驾驶数据进行自动化流水线处理,还提供了一种完整的多场景划分方式,能够快速的响应场景划分,并对场景进行添加和完善,结合结合流水线和末端的模型自动调优,在较少人力下实现决策能力的快速迭代和进化。
Description
技术领域
本公开的实施方式涉及自动驾驶技术领域,更具体地,本公开的实施方式涉及自动驾驶预测模型训练方法、装置、终端及介质。
背景技术
本部分旨在为权利要求书中陈述的本公开的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
自动驾驶技术作为一种能够提升道路交通智能化水平、推动交通运输行业转型升级的重要途径,是当前非常重要的研究领域。
在自动驾驶系统中,自动驾驶车辆需要基于特定场景的预测模型、结合当前自动驾驶数据来进行决策,但现有技术中,场景划分单一、划分粒度过粗,使得预测结果不够准确,且预测模型进化缓慢,进而影响决策正确性。
发明内容
有鉴于此,本公开实施例提供如下的自动驾驶预测模型训练方法、装置、终端及介质,以实现自动驾驶场景的细粒度划分。
根据本公开实施例的第一方面,提供一种自动驾驶预测模型训练方法,该方法包括:
接收自动驾驶数据;
基于候选场景的场景规则和所述自动驾驶数据的特征,确定所述自动驾驶数据对应的场景;
针对所述对应的场景进行数据构造,得到构造数据;
混合所述自动驾驶数据和所述构造数据,并对混合后的数据进行数据标注;
基于标注后的数据调整所述对应的场景的场景规则和该场景下的预测模型。
在一些实施例中,在确定所述自动驾驶数据对应的场景时:
如果所述自动驾驶数据的特征与所述候选场景中一者的场景规则匹配,则确定具有匹配的场景规则的候选场景为所述自动驾驶数据对应的场景。
在一些实施例中,所述候选场景被设置为层级结构,其中,确定具有匹配的场景规则的候选场景为所述自动驾驶数据对应的场景还包括:
根据所述自动驾驶数据的特征,确定所述对应的场景属于当前层级中的对应分支。
在一些实施例中,确定具有匹配的场景规则的候选场景为所述自动驾驶数据对应的场景还包括:
综合所述自动驾驶数据的多个特征,遍历至少一个候选场景,从中选择具有与所述多个特征匹配的场景规则的候选场景。
在一些实施例中,在确定所述自动驾驶数据对应的场景时:
如果所述自动驾驶数据的特征与所述候选场景的场景规则均不匹配,则建立新场景,使得所述新场景的场景规则与所述自动驾驶数据的特征相匹配;
将所述新场景添加到候选场景中,并确定所述新场景为所述自动驾驶数据对应的场景。
在一些实施例中,所述方法还包括:在建立所述新场景时:
收集多组未识别数据,所述未识别数据指特征与所述候选场景的场景规则均不匹配的自动驾驶数据;
对所收集的未识别数据进行聚类,并基于经聚类得到的类别建立新场景;
基于聚类结果,确定每组未识别数据对应的新场景。
在一些实施例中,进行数据构造包括下列中的一者或两者:
将其他候选场景中的交通参与者的轨迹数据搬运到所述对应的场景中;
根据构造规则创建虚拟交通参与者,随机生成虚拟交通参与者在预定时间段内的轨迹数据,对生成的轨迹数据进行筛选,以及将筛选出的虚拟交通参与者的轨迹数据搬运到所述对应的场景中。
在一些实施例中,对混合后的数据进行数据标注包括:
从混合后的数据中标注出第一时段数据和第二时段数据,所述第一时段数据包括在第一时段内所述对应的场景中交通参与者的位置、速度以及与障碍物的距离,所述第二时段数据包括在第二时段内所述对应的场景中交通参与者的位置、速度以及与障碍物的距离,在时间上所述第二时段位于所述第一时段之后。
在一些实施例中,基于标注后的数据调整所述对应的场景的场景规则和该场景下的预测模型包括:
基于所述第一时段数据,采用所述对应的场景当前的场景规则和预测模型进行预测,得到所述第二时段的预测数据;
对比所述第二时段数据和所述第二时段的预测数据,调整所述场景规则和预测模型。
在一些实施例中,调整所述场景规则包括在当前场景规则的基础上增加新的条目,或对当前场景规则的条目进行修改。
根据本公开实施例的第二方面,提供一种自动驾驶预测模型训练装置,所述装置包括:
数据接收单元,用于接收自动驾驶数据;
场景划分单元,用于基于候选场景的场景规则和所述自动驾驶数据的特征,确定所述自动驾驶数据对应的场景;
数据构造单元,用于针对所述对应的场景进行数据构造,得到构造数据;
数据标注单元,用于混合所述自动驾驶数据和所述构造数据,并对混合后的数据进行数据标注;
模型训练单元,用于基于标注后的数据调整所述对应的场景的场景规则和该场景下的预测模型。
根据本公开实施例的第三方面,提供一种终端,所述终端包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现如上所述的自动驾驶预测模型训练方法所执行的操作。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,所述计算机可读存储介质上存储有程序,所述程序被处理器执行如上所述的自动驾驶预测模型训练方法所执行的操作。
根据本说明书实施例的第五方面,提供一种计算机程序产品,包括计算机程序,所述程序被处理器执行时实现上述自动驾驶预测模型训练方法所执行的操作。
本公开的实施例提供的技术方案可以包括以下有益效果:
1.提供了一种完整的针对多场景自动标注训练调整的流水线系统,方便所有的自动驾驶数据数据进来都可以使用相同的方式进行自动化流水线处理;
2.提供了一种完整的多场景划分方式,能够快速的响应场景划分,并对场景进行添加和完善;
3.结合流水线和末端的模型自动调优,在较少人力下实现决策能力的快速迭代和进化。
附图说明
通过参考附图阅读下文的详细描述,本公开示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本公开的若干实施方式,其中:
图1示意性地示出了根据本公开实施方式提出的自动驾驶预测模型训练方法的流程图;
图2示意性地示出了根据本公开实施方式提出的候选场景划分层级示意图;
图3示意性地示出了根据本公开实施方式提出的场景划分的流程示意图;
图4示意性地示出了根据本公开实施方式提出的对预测规则和预测模型进行评估和调整的示意图;
图5示意性地示出了根据本公开实施方式提出的自动驾驶预测模型训练装置的结构示意框图;
图6示意性地示出了根据本公开实施方式提出的终端的结构示意图。
在附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参考若干示例性实施方式来描述本公开的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本公开,而并非以任何方式限制本公开的范围。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
本领域技术人员知道,本公开的实施方式可以实现为一种系统、装置、设备、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。
在本文中,需要理解的是,附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。
下面参考本公开的若干代表性实施方式,详细阐释本公开的原理和精神。
自动驾驶系统中,决策模块需要根据接收到的自动驾驶车辆周边的车辆、行人等对象的动静态信息以及该自动驾驶车辆与其他交通参与者间的交互信息(例如距离等),对这些动静态的交通参与者进行意图识别、轨迹预测等,并与规划控制模块进行交互,从而实现该自动驾驶车辆在复杂行驶环境中平稳、安全的自动行驶。
通常通过人工的规则设定、数据统计以及机器学习等方式,建立用于决策模块的预测模型,以对这些动静态交通参与者进行意图识别、轨迹预测等。
现有技术中,决策模块多以特定的场景为基础进行预测,然后针对这些场景进行规则构建或者模型训练。特定的场景主要指出现频繁且交规明确的场景,比如换道超车、通过红绿灯控制的路口、无红绿灯控制的无保护左转、右转等、在高速公路上行驶等,这些场景相对容易处理。
现有技术的主要缺点有:
一、场景单一、划分过粗,影响预测准确度;
二、场景不够丰富,难以对长尾特殊场景进行特殊覆盖处理,从而无法恰当应对特殊情况。长尾场景主要指种类繁多、发生概率较低或者突发的场景,比如闯红灯的车辆,横穿马路的行人,红绿灯损坏的路口,路边违章停靠的车辆等。这些场景不按常理出牌,样式繁多,处理难度大,但却是自动驾驶难以落地的关键之一;
三、在训练预测模型的过程中,需要大量人工介入,没有形成高效地自动处理机制。
因此,本公开实施例提出了一种自动驾驶预测模型训练方法,可以以流水线管道方式进行流程组织,方便从前到后一步步以相同方式自动执行对自动驾驶数据的分析处理、场景划分以及场景规则和预测模型的训练,并且通过场景规则和预测模型的自动化学习来低成本实现场景细粒度划分,从而使决策模块更快更好地进化,实现在与场景更为匹配的准确预测,进而显著提高自动驾驶的安全性。
图1示意性地示出了根据本公开实施方式提出的自动驾驶预测模型训练方法的流程图。如图1所示,该方法包括步骤102至步骤110。
步骤102,接收自动驾驶数据。
在一些实施方式中,上述自动驾驶数据可以是对交通参与者提供的原始信息进行预处理后得到的标准化数据。
在一些实施方式中,可以搜集交通参与者的原始数据。这些原始数据可以包括通过雷达(注入激光雷达、毫米波雷达等)和/或摄像头等车载感知模块获取的数据,可以包括v2x(Vehicle-to-everything的缩写,即车辆与外界的信息交换)提供的交通信号灯数据,还可以包括由其他用户提供上传的离线地图等数据,通过全面多方位的数据搜集,确保流水线管道后续处理的可靠性。
在一些实施方式中,可对原始数据进行预处理,以实现数据规范化、噪音去处等,得到符合要求的自动驾驶数据,便于流水线后续模块对来自不同时间、不同地点、不同场景的自动驾驶数据按照统一的处理方式进行处理。数据预处理操作方式包括但不限于缺失数据处理、不一致数据处理、数据清洗、数据规范化、数据变换等本领域技术人员认为适用的数据处理手段。
步骤104,基于候选场景的场景规则和所述自动驾驶数据的特征,确定所述自动驾驶数据对应的场景。
确定自动驾驶数据对应的场景,也可看作将自动驾驶数据划分到对应的场景中。
场景的规则可以包括已设置的与该场景相关的被认为有必要的各类规则,例如地图规则、交通参与者分布规则等。自动驾驶数据特征可以指自动驾驶数据中包含的相应信息。
在一些实施例中,如果所述自动驾驶数据的特征与候选场景中一者的场景规则匹配,则确定具有匹配的场景规则的候选场景为所述自动驾驶数据对应的场景。
在一些示例中,候选场景可被设置为层级结构,在确定场景时,可根据自动驾驶数据的特征,确定所述对应的场景属于当前层级中的对应分支,以逐级找到匹配的场景。
图2示意性地示出了根据本公开实施方式提出的候选场景的示例性层级结构示意图。如图所示,在第一层级,可根据当前自动驾驶数据的地图属性特征划分为开放道路、园区道路等多个分支,在第二层级,以开放道路分支为例,可进一步根据自动驾驶数据的车道属性特征划分为普通机动车道、十字路口机动车道、完全非机动车道、行人道路等等多个分支。例如,可先判断当前接收的自动驾驶数据的道路属性特征为开放道路,则划分该自动驾驶数据至开放道路这一分支;接着,根据该自动驾驶数据的车道属性特征为普通机动车道,则继续划分至普通机动车道分支,直至找到具有与自动驾驶数据的特征匹配的场景规则的候选场景。
在进行场景划分时,还可按照周围障碍物类别特征划分为机动车辆交互、非机动车辆交互、行人交互等,可按照天气特征划分为下雨天、晴天、雾天等,可按照道路速度属性特征划分为高速车道、普通车道等、可按照特殊时段特征划分为高峰时段、非高峰时段等等。
在一些示例中,可综合所述自动驾驶数据的多个特征,遍历至少一个候选场景,从中选择具有与所述多个特征匹配的场景规则的候选场景。例如,当候选场景被设置为层级结构时,被选中的候选场景可能不是某个或某些具体的场景,而是对应的场景分支。在对应的场景分支中,再根据自动驾驶数据的其他特征进一步寻找匹配的候选场景。
例如,可根据附近特殊区域特征和特殊时段特征,从至少一个候选场景中找到高峰时段学校附近的自动驾驶数据对应的候选场景。
上述两个示例中的场景确定方法均可单独使用,也可结合使用,本申请对此不做限制。
在一些实施方式中,在确定所述自动驾驶数据对应的场景时,如果所述自动驾驶数据的特征与所述候选场景的场景规则均不匹配,则建立新场景,使得所述新场景的场景规则与所述自动驾驶数据的特征相匹配,并将所述新场景添加到候选场景中,以及确定所述新场景为所述自动驾驶数据对应的场景。
通过上述实施方式,可以通过流水线管道处理方式,自动生成新场景,极大的丰富了候选场景,而场景与自动驾驶数据吻合度越高,后续的预测就越准确,尤其对于提高长尾场景下的决策可靠性具有极大帮助,从而使得自动驾驶决策模块可以更好地适应和处理交通参与者的预测交互。
回到图1,步骤106,针对所述对应的场景进行数据构造,得到构造数据。
在一些实施方式中,进行数据构造可以包括:将其他候选场景中的交通参与者的轨迹数据搬运到所述对应的场景中。例如,可以将其他一个或多个候选场景中适用的某个或某些交通参与者搬运到所述对应的场景中,例如,将其他候选场景中的若干车辆和/或若干行人搬运到所述对应的场景中。在搬运中,可排除明显异常的情况。例如,在高速公路上构造交通参与者时,可考虑搬运其他候选场景中满足一定行驶速度的车辆,而不考虑搬运其他候选场景中人行道上的行人。
在一些实施方式中,进行数据构造可以包括:根据构造规则创建虚拟交通参与者,随机生成虚拟交通参与者在预定时间段内的轨迹数据,对生成的轨迹数据进行筛选,以及将筛选出的虚拟交通参与者轨迹数据搬运到所述对应的场景中。在示例中,可以根据具体的场景确定该场景的构造规则,选择合适的虚拟交通参与者,并随机生成他们的预定时间段内的轨迹。同样地,这里的构造规则可预先排除明显异常的情况,比如在高速路上出现自行车等。然后针对创建的虚拟交通参与者构造一定数量的轨迹集合,比如选定一定数量的起点和终点,并生成对应的轨迹曲线。之后,可对生成的轨迹数据进行筛选,筛除不满足物理规则的轨迹,保留正常且合理的轨迹。
在进行数据构造时,可同时采用上述两种构造方法,也可使用其中一种,本公开对此不做限定。
可根据需要针对所述对应的场景进行数据构造。比如场景是下雨天高峰时段的十字路口,接收的自动驾驶数据表明具有10个交通参与者,则还可根据需要构造数据以分别形成具有5个交通参与者、有15个交通参与者、有20个交通参与者等的情形,以及每个交通参与者具有各自身份(例如车辆或行人等)的情形、每个交通参与者分布在各自位置的情形、各个交通参与者具有各自行为(例如直行或转弯等)的情形等等,通过构造多种情况下的数据,使得后续训练出的场景规则和预测模型具有更好的健壮性和稳定性,从而有利于显著提高自动驾驶中依据该场景规则和预测模型得到的决策的可靠性。
步骤108,混合所述自动驾驶数据和所述构造数据,并对混合后的数据进行数据标注。
在一些实施方式中,可以从混合后的数据中标注出第一时段数据和第二时段数据,所述第一时段数据包括在第一时段内所述对应的场景中交通参与者的位置、速度以及与障碍物的距离,所述第二时段数据包括在第二时段内所述对应的场景中交通参与者的位置、速度以及与障碍物的距离,在时间上所述第二时段位于所述第一时段之后。此处的障碍物可以包括其他交通参与者,也可以包括马路护栏等。
例如,针对一段5秒时长的自动驾驶数据,可将其前2秒标注为第一时段数据,将后3秒标注为第二时段数据。
可根据时间戳自动进行数据标注。
步骤110,基于标注后的数据调整所述对应的场景的场景规则和该场景下的预测模型。
在一些可能的实施方式中,可以基于标注出的第一时段数据,采用当前场景规则和预测模型进行预测,得到所述第二时段的预测数据;
对比第二时段数据和第二时段的预测数据,调整所述场景规则和预测模型。
例如,对于一段前3秒被标注为第一时段数据、后2秒被标注为第二时段数据的混合数据,可基于前3秒数据和相应规则,例如车辆转弯时的速度变化规则、车辆是否采用匀速直线规则、车辆是否停等的规则、行人是否横穿人行道的规则等,预测后2秒交通参与者的行为,并将预测数据与混合数据中标注的第二时段数据进行对比,来评估场景规则。如果评估结果不令人满意,则可调整场景规则。混合数据中来自自动驾驶数据的部分和来自构造数据的部分,均可被视为真实数据。
例如,在一个示例中,在调整时,可在当前场景规则的基础上增加新的条目,使得候选场景进一步细化。例如,可在场景规则中增加路口为4路口或8路口的条目,以自动细化候选场景,有助于后续实现更准确的预测。
例如,在一个示例中,在调整时,可对当前的场景规则的条目进行修改,以进一步提高场景规则的合理性。例如,某条目设置斑马线为行人过马路区域,经评估将其完善为斑马线以及斑马线向两头延伸的非机动车道区域均为行人过马路区域。
无论通过增加规则条目来细化候选场景划分,还是修改规则条目以提高场景规则的合理性,都有利于进一步提高自动驾驶的预测准确性。
所述预测模型可以是本领域技术人员认为适用的机器学习模型。在一个示例中,该预测模型可以是传统的机器学习模型,比如通过分类的方式预测车辆应该驶入哪个车道、通过回归预测车辆几秒内与某个对象间的距离等。在另一个示例中,该预测模型可以是深度学习模型,比如通过LSTM(长短记忆深度网络模型的缩写)直接预测车辆未来轨迹、将车辆位置结合地图信息转换为图片并使用CNN(卷积神经网络的缩写)学习车辆的意图等。在机器学习中,可以通过配置合适的模型评估条件和停止条件,以及通过多个参数的排列组合、贝叶斯概率寻优的方式等,来得到最优预测模型。
上述实施方式中,通过流水线管道方式对自动驾驶数据进行场景划分、自动数据标注和场景规则和预测模型的训练,实现了自动化地数据标注和场景细粒度划分,使得场景规则和预测模型能够更好更快地进化,提高了自动驾驶的决策可靠性。
图3示意性地示出了根据本公开实施方式提出的场景划分的流程示意图。
在步骤302,确定是否有候选场景的场景规则与自动驾驶数据的特征相匹配。
如果有,则进入步骤304,确定具有匹配的场景规则的候选场景为所述自动驾驶数据对应的场景。
如果没有,则进入步骤306,收集多组未识别数据,所述未识别数据指特征与所述候选场景的场景规则均不匹配的自动驾驶数据。
然后进入步骤308,对所收集的未识别数据进行聚类,并基于聚类得到的类别建立新场景。特别地,可采用无监督的聚类学习。可以通过模型训练的方法聚类,也可以结合模型训练和人工辅助的方法进行聚类,采用何种方式由本领域技术人员根据具体需要确定,本公开对此不做限定。在一个示例中,可以先通过人工方式对未识别数据进行分类得到多个类别,然后通过无监督聚类的方式将人工未覆盖的未识别数据训练到不同类别下,可查看分类结果以进一步提升分类合理性。每个类别可被视为一种新场景,可提取该类别的特征作为新场景的场景规则。
例如,可收集10000组未识别数据,先进行人工粗筛,从中挑选出人工易于识别和分类的未识别数据,例如粗筛得到1000组人工可识别数据,可对这1000组进行类别划分和规则提取。然后通过模型训练对其余9000组难以识别的数据进行无监督聚类,得到若干类别,并对其进行规则提取。然后可查看人工得到的类别和模型训练得到的类别,如有必要可对其进行合并、删除等操作,可将最终得到的类别作为新场景,将提取的规则作为该场景的场景规则。
步骤310,将新场景添加到候选场景中,以便于后续新进入的相应数据可通过流水线管道的方式被划分到该场景。
步骤312,基于聚类结果,确定每组未识别数据对应的新场景。在上述示例中,10000组未识别数据被归入各个类别,则可将被归入的类别对应的新场景视为未识别数据对应的新场景。
在一些实施方式中,上述自动驾驶预测模型训练方法还包括:对调整后的场景规则和预测模型进行评估,如果符合预设评估标准,则认为场景规则和预测模型可用于自动驾驶的在线决策;否则,继续接收新的自动驾驶数据进行预测规则和预测模型的训练。
图4示意性地示出了根据本公开实施方式提出的对预测规则和预测模型进行评估和调整的示意图。402混合标注数据,表示上游自动标注后传递过来的混合数据,包括接收的被划入特定场景的自动驾驶数据以及构造的数据,构造的数据可以包括从其他场景搬移过来的交通参与者的轨迹数据,还可以包括构造的虚拟交通参与者的轨迹数据等。这些数据均被标注为相似的格式,例如第一时段数据和第二时段数据等。
模块404,对混合标注数据进行特征提取。例如,对于第一时段数据,可提取其历史特征、地图特征、交互特征等。历史特征指其自身特征,如轨迹距离、速度变化等,或者通过深度学习捕获的不同时间跨度内的距离,例如10秒内的距离、30秒内的距离和1分钟内的距离等。地图特征表示该交通参与者在地图上的特征,比如是否在车道内、车道类型(直行/右转)等和地图相关的特征。交互特征为多个交通参与者彼此间关系的特征,比如彼此间的距离远近、是否在同一车道上等,或者采用深度学习方式捕获的其他隐性交互特征等。
模块406,基于混合标注数据的特征对场景规则和预测模型进行训练。采用的预测模型可以是人工构造的传统分类、回归模型,也可以是传入深度神经网络隐含学习特征的分类、回归模型等,后者可以通过给定的一组超参数学习该超参数下模型的预测结果,其中超参数包括分类意图的类别种类,预测时间的长度、神经网络的层次数量等。在训练中,可以通过参数笛卡尔组合的方式,或者在组合参数过多的时候采用贝叶斯概率评估等启发式方式对一组参数集合进行寻优,选择最优模型和对应的参数。
模块408,采用评估函数对模块406训练得到的场景规则和预测模型进行评估,在模块410根据评估结果判断是否可以用于在线决策。如果可用,则进入模块412,用于在线决策。如果不可用,则回到402,继续接收新的自动驾驶数据进行预测规则和预测模型的训练。
为了实现本公开任一实施例的检索方法,本公开实施例还提供了一种自动驾驶预测模型训练装置。图5示意性地示出了根据本公开一实施例的自动驾驶预测模型训练装置500的结构示意图,例如,该装置可以应用于各种类型的车辆。如下的描述中,将简单描述该装置的各个模块的功能,其详细的处理可以结合参见前述的本公开任一实施例的自动驾驶预测模型训练方法的描述。
如图5所示,自动驾驶预测模型训练装置500包括数据接收单元502、场景划分单元504、数据构造单元506、数据标注单元508和模型训练单元510。
数据接收单元502用于接收自动驾驶数据。
场景划分单元504用于基于候选场景的场景规则和所述自动驾驶数据的特征,确定所述自动驾驶数据对应的场景。
数据构造单元506用于针对所述对应的场景进行数据构造,得到构造数据。
数据标注单元508用于混合所述自动驾驶数据和所述构造数据,并对混合后的数据进行数据标注。
模型训练单元510用于基于标注后的数据调整所述对应的场景的场景规则和该场景下的预测模型。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本说明书方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本说明书还提供了一种终端,参见图6,图6是本说明书根据一示例性实施例示出的一种终端的结构示意图。如图6所示,终端包括处理器610、存储器620和网络接口630,存储器620用于存储可在处理器610上运行的计算机指令,处理器610用于在执行所述计算机指令时实现本申请任一实施例所提供的自动驾驶数据预测模型训练方法,网络接口630用于实现输入输出功能。在更多可能的实现方式中,终端还可以包括其他硬件,本申请对此不做限定。
本说明书还提供了一种计算机可读存储介质,计算机可读存储介质可以是多种形式,比如,在不同的例子中,所述计算机可读存储介质可以是:RAM(Radom Access Memory,随机存取存储器)、易失存储器、非易失性存储器、闪存、存储驱动器(如硬盘驱动器)、固态硬盘、任何类型的存储盘(如光盘、DVD等),或者类似的存储介质,或者它们的组合。特殊的,所述的计算机可读介质还可以是纸张或者其他合适的能够打印程序的介质。计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现本申请任一实施例所提供的自动驾驶数据预测模型训练方法。
本说明书还提供了一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时实现本申请任一实施例所提供的自动驾驶数据预测模型训练方法。
本领域技术人员应明白,本说明书一个或多个实施例可提供为方法、装置、终端、计算机可读存储介质或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于终端所对应的实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中描述的主题及功能操作的实施例可以在以下中实现:数字电子电路、有形体现的计算机软件或固件、包括本说明书中公开的结构及其结构性等同物的计算机硬件、或者它们中的一个或多个的组合。本说明书中描述的主题的实施例可以实现为一个或多个计算机程序,即编码在有形非暂时性程序载体上以被数据处理装置执行或控制数据处理装置的操作的计算机程序指令中的一个或多个模块。可替代地或附加地,程序指令可以被编码在人工生成的传播信号上,例如机器生成的电、光或电磁信号,该信号被生成以将信息编码并传输到合适的接收机装置以由数据处理装置执行。计算机存储介质可以是机器可读存储设备、机器可读存储基板、随机或串行存取存储器设备、或它们中的一个或多个的组合。
本说明书中描述的处理及逻辑流程可以由执行一个或多个计算机程序的一个或多个可编程计算机执行,以通过根据输入数据进行操作并生成输出来执行相应的功能。所述处理及逻辑流程还可以由专用逻辑电路—例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)来执行,并且装置也可以实现为专用逻辑电路。
适合用于执行计算机程序的计算机包括,例如通用和/或专用微处理器,或任何其他类型的中央处理单元。通常,中央处理单元将从只读存储器和/或随机存取存储器接收指令和数据。计算机的基本组件包括用于实施或执行指令的中央处理单元以及用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括用于存储数据的一个或多个大容量存储设备,例如磁盘、磁光盘或光盘等,或者计算机将可操作地与此大容量存储设备耦接以从其接收数据或向其传送数据,抑或两种情况兼而有之。然而,计算机不是必须具有这样的设备。此外,计算机可以嵌入在另一设备中,例如移动电话、个人数字助理(PDA)、移动音频或视频播放器、游戏操纵台、全球定位系统(GPS)接收机、或例如通用串行总线(USB)闪存驱动器的便携式存储设备,仅举几例。
适合于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、媒介和存储器设备,例如包括半导体存储器设备(例如EPROM、EEPROM和闪存设备)、磁盘(例如内部硬盘或可移动盘)、磁光盘以及CD ROM和DVD-ROM盘。处理器和存储器可由专用逻辑电路补充或并入专用逻辑电路中。
虽然本说明书包含许多具体实施细节,但是这些不应被解释为限制任何发明的范围或所要求保护的范围,而是主要用于描述特定发明的具体实施例的特征。本说明书内在多个实施例中描述的某些特征也可以在单个实施例中被组合实施。另一方面,在单个实施例中描述的各种特征也可以在多个实施例中分开实施或以任何合适的子组合来实施。此外,虽然特征可以如上所述在某些组合中起作用并且甚至最初如此要求保护,但是来自所要求保护的组合中的一个或多个特征在一些情况下可以从该组合中去除,并且所要求保护的组合可以指向子组合或子组合的变型。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应被理解为要求这些操作以所示的特定顺序执行或顺次执行、或者要求所有例示的操作被执行,以实现期望的结果。在某些情况下,多任务和并行处理可能是有利的。此外,上述实施例中的各种系统模块和组件的分离不应被理解为在所有实施例中均需要这样的分离,并且应当理解,所描述的程序组件和系统通常可以一起集成在单个软件产品中,或者封装成多个软件产品。
由此,主题的特定实施例已被描述。其他实施例在所附权利要求书的范围以内。在某些情况下,权利要求书中记载的动作可以以不同的顺序执行并且仍实现期望的结果。此外,附图中描绘的处理并非必需所示的特定顺序或顺次顺序,以实现期望的结果。在某些实现中,多任务和并行处理可能是有利的。
本领域技术人员在考虑说明书及实践这里申请的发明后,将容易想到本说明书的其它实施方案。本说明书旨在涵盖本说明书的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本说明书的一般性原理并包括本说明书未申请的本技术领域中的公知常识或惯用技术手段。也即是,本说明书并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。
以上所述仅为本说明书的可选实施例而已,并不用以限制本说明书,凡在本说明书的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本说明书保护的范围之内。
Claims (13)
1.一种自动驾驶预测模型训练方法,其特征在于,所述方法包括:
接收自动驾驶数据;
基于候选场景的场景规则和所述自动驾驶数据的特征,确定所述自动驾驶数据对应的场景;
针对所述对应的场景进行数据构造,得到构造数据;
混合所述自动驾驶数据和所述构造数据,并对混合后的数据进行数据标注;
基于标注后的数据调整所述对应的场景的场景规则和该场景下的预测模型。
2.根据权利要求1所述的方法,其特征在于,在确定所述自动驾驶数据对应的场景时:
如果所述自动驾驶数据的特征与所述候选场景中一者的场景规则匹配,则确定具有匹配的场景规则的候选场景为所述自动驾驶数据对应的场景。
3.根据权利要求2所述的方法,其特征在于,所述候选场景被设置为层级结构,其中,确定具有匹配的场景规则的候选场景为所述自动驾驶数据对应的场景还包括:
根据所述自动驾驶数据的特征,确定所述对应的场景属于当前层级中的对应分支。
4.根据权利要求2或3所述的方法,其特征在于,确定具有匹配的场景规则的候选场景为所述自动驾驶数据对应的场景还包括:
综合所述自动驾驶数据的多个特征,遍历至少一个候选场景,从中选择具有与所述多个特征匹配的场景规则的候选场景。
5.根据权利要求1所述的方法,其特征在于,在确定所述自动驾驶数据对应的场景时:
如果所述自动驾驶数据的特征与所述候选场景的场景规则均不匹配,则建立新场景,使得所述新场景的场景规则与所述自动驾驶数据的特征相匹配;
将所述新场景添加到候选场景中,并确定所述新场景为所述自动驾驶数据对应的场景。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:在建立所述新场景时:
收集多组未识别数据,所述未识别数据指特征与所述候选场景的场景规则均不匹配的自动驾驶数据;
对所收集的未识别数据进行聚类,并基于经聚类得到的类别建立新场景;
基于聚类结果,确定每组未识别数据对应的新场景。
7.根据权利要求1所述的方法,其特征在于,进行数据构造包括下列中的一者或两者:
将其他候选场景中的交通参与者的轨迹数据搬运到所述对应的场景中;
根据构造规则创建虚拟交通参与者,随机生成虚拟交通参与者在预定时间段内的轨迹数据,对生成的轨迹数据进行筛选,以及将筛选出的虚拟交通参与者的轨迹数据搬运到所述对应的场景中。
8.根据权利要求1所述的方法,其特征在于,对混合后的数据进行数据标注包括:
从混合后的数据中标注出第一时段数据和第二时段数据,所述第一时段数据包括在第一时段内所述对应的场景中交通参与者的位置、速度以及与障碍物的距离,所述第二时段数据包括在第二时段内所述对应的场景中交通参与者的位置、速度以及与障碍物的距离,在时间上所述第二时段位于所述第一时段之后。
9.根据权利要求8所述的方法,其特征在于,基于标注后的数据调整所述对应的场景的场景规则和该场景下的预测模型包括:
基于所述第一时段数据,采用所述对应的场景当前的场景规则和预测模型进行预测,得到所述第二时段的预测数据;
对比所述第二时段数据和所述第二时段的预测数据,调整所述场景规则和预测模型。
10.根据权利要求1或9所述的方法,其特征在于,调整所述场景规则包括在当前场景规则的基础上增加新的条目,或对当前场景规则的条目进行修改。
11.一种自动驾驶预测模型训练装置,其特征在于,所述装置包括:
数据接收单元,用于接收自动驾驶数据;
场景划分单元,用于基于候选场景的场景规则和所述自动驾驶数据的特征,确定所述自动驾驶数据对应的场景;
数据构造单元,用于针对所述对应的场景进行数据构造,得到构造数据;
数据标注单元,用于混合所述自动驾驶数据和所述构造数据,并对混合后的数据进行数据标注;
模型训练单元,用于基于标注后的数据调整所述对应的场景的场景规则和该场景下的预测模型。
12.一种终端,其特征在于,所述终端包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现如权利要求1至10中任一项所述的自动驾驶预测模型训练方法所执行的操作。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有程序,所述程序被处理器执行如权利要求1至10中任一项所述的自动驾驶预测模型训练方法所执行的操作。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111155017.0A CN115272994B (zh) | 2021-09-29 | 2021-09-29 | 自动驾驶预测模型训练方法、装置、终端及介质 |
PCT/CN2022/071037 WO2023050645A1 (zh) | 2021-09-29 | 2022-01-10 | 自动驾驶预测模型训练的方法、装置、终端及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111155017.0A CN115272994B (zh) | 2021-09-29 | 2021-09-29 | 自动驾驶预测模型训练方法、装置、终端及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115272994A true CN115272994A (zh) | 2022-11-01 |
CN115272994B CN115272994B (zh) | 2023-07-25 |
Family
ID=83758409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111155017.0A Active CN115272994B (zh) | 2021-09-29 | 2021-09-29 | 自动驾驶预测模型训练方法、装置、终端及介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115272994B (zh) |
WO (1) | WO2023050645A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117681892B (zh) * | 2024-02-02 | 2024-05-14 | 中国科学院自动化研究所 | 面向矿区场景的自动驾驶数据选择方法和装置 |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108921200A (zh) * | 2018-06-11 | 2018-11-30 | 百度在线网络技术(北京)有限公司 | 用于对驾驶场景数据进行分类的方法、装置、设备和介质 |
CN109597317A (zh) * | 2018-12-26 | 2019-04-09 | 广州小鹏汽车科技有限公司 | 一种基于自学习的车辆自动驾驶方法、系统及电子设备 |
CN110096059A (zh) * | 2019-04-25 | 2019-08-06 | 杭州飞步科技有限公司 | 自动驾驶方法、装置、设备及存储介质 |
CN110196593A (zh) * | 2019-05-16 | 2019-09-03 | 济南浪潮高新科技投资发展有限公司 | 一种自动驾驶多场景环境检测及决策系统及方法 |
US20200074230A1 (en) * | 2018-09-04 | 2020-03-05 | Luminar Technologies, Inc. | Automatically generating training data for a lidar using simulated vehicles in virtual space |
CN110901637A (zh) * | 2018-09-14 | 2020-03-24 | 现代自动车株式会社 | 车辆的驾驶控制装置和方法 |
CN111178454A (zh) * | 2020-01-03 | 2020-05-19 | 北京汽车集团有限公司 | 自动驾驶数据的标注方法、云端控制平台及存储介质 |
WO2020119372A1 (zh) * | 2018-12-14 | 2020-06-18 | 中兴通讯股份有限公司 | 场强预测方法、装置、设备及存储介质 |
CN111694973A (zh) * | 2020-06-09 | 2020-09-22 | 北京百度网讯科技有限公司 | 自动驾驶场景的模型训练方法、装置、电子设备 |
CN111831570A (zh) * | 2020-07-23 | 2020-10-27 | 深圳慕智科技有限公司 | 一种面向自动驾驶图像数据的测试用例生成方法 |
US20200353943A1 (en) * | 2019-05-07 | 2020-11-12 | Foresight Ai Inc. | Driving scenario machine learning network and driving environment simulation |
US20200363814A1 (en) * | 2019-05-15 | 2020-11-19 | Baidu Usa Llc | Offline agent using reinforcement learning to speedup trajectory planning for autonomous vehicles |
US20210009156A1 (en) * | 2018-09-12 | 2021-01-14 | Huawei Technologies Co., Ltd. | Intelligent Driving Method and Intelligent Driving System |
US20210073626A1 (en) * | 2019-09-06 | 2021-03-11 | Volkswagen Aktiengesellschaft | System, method, and apparatus for a neural network model for a vehicle |
CN112703459A (zh) * | 2018-09-14 | 2021-04-23 | 华为技术有限公司 | 对抗场景的迭代生成 |
CN112805199A (zh) * | 2020-06-09 | 2021-05-14 | 华为技术有限公司 | 自动驾驶系统的自学习方法、装置、设备及存储介质 |
CN113076897A (zh) * | 2021-04-09 | 2021-07-06 | 广州机械科学研究院有限公司 | 智能网联汽车的博弈动态行驶安全测控方法及调控终端 |
CN113343461A (zh) * | 2021-06-07 | 2021-09-03 | 芜湖雄狮汽车科技有限公司 | 自动驾驶车辆的仿真方法、装置、电子设备及存储介质 |
US20210286924A1 (en) * | 2020-03-11 | 2021-09-16 | Aurora Innovation, Inc. | Generating autonomous vehicle simulation data from logged data |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190286151A1 (en) * | 2018-03-14 | 2019-09-19 | GM Global Technology Operations LLC | Automated driving systems and control logic for cloud-based scenario planning of autonomous vehicles |
US11816790B2 (en) * | 2020-03-06 | 2023-11-14 | Nvidia Corporation | Unsupervised learning of scene structure for synthetic data generation |
-
2021
- 2021-09-29 CN CN202111155017.0A patent/CN115272994B/zh active Active
-
2022
- 2022-01-10 WO PCT/CN2022/071037 patent/WO2023050645A1/zh unknown
Patent Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190378035A1 (en) * | 2018-06-11 | 2019-12-12 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, apparatus, device and medium for classifying driving scenario data |
CN108921200A (zh) * | 2018-06-11 | 2018-11-30 | 百度在线网络技术(北京)有限公司 | 用于对驾驶场景数据进行分类的方法、装置、设备和介质 |
US20200074230A1 (en) * | 2018-09-04 | 2020-03-05 | Luminar Technologies, Inc. | Automatically generating training data for a lidar using simulated vehicles in virtual space |
US20210009156A1 (en) * | 2018-09-12 | 2021-01-14 | Huawei Technologies Co., Ltd. | Intelligent Driving Method and Intelligent Driving System |
CN112703459A (zh) * | 2018-09-14 | 2021-04-23 | 华为技术有限公司 | 对抗场景的迭代生成 |
CN110901637A (zh) * | 2018-09-14 | 2020-03-24 | 现代自动车株式会社 | 车辆的驾驶控制装置和方法 |
WO2020119372A1 (zh) * | 2018-12-14 | 2020-06-18 | 中兴通讯股份有限公司 | 场强预测方法、装置、设备及存储介质 |
CN109597317A (zh) * | 2018-12-26 | 2019-04-09 | 广州小鹏汽车科技有限公司 | 一种基于自学习的车辆自动驾驶方法、系统及电子设备 |
CN110096059A (zh) * | 2019-04-25 | 2019-08-06 | 杭州飞步科技有限公司 | 自动驾驶方法、装置、设备及存储介质 |
US20200353943A1 (en) * | 2019-05-07 | 2020-11-12 | Foresight Ai Inc. | Driving scenario machine learning network and driving environment simulation |
US20200363814A1 (en) * | 2019-05-15 | 2020-11-19 | Baidu Usa Llc | Offline agent using reinforcement learning to speedup trajectory planning for autonomous vehicles |
CN110196593A (zh) * | 2019-05-16 | 2019-09-03 | 济南浪潮高新科技投资发展有限公司 | 一种自动驾驶多场景环境检测及决策系统及方法 |
US20210073626A1 (en) * | 2019-09-06 | 2021-03-11 | Volkswagen Aktiengesellschaft | System, method, and apparatus for a neural network model for a vehicle |
CN111178454A (zh) * | 2020-01-03 | 2020-05-19 | 北京汽车集团有限公司 | 自动驾驶数据的标注方法、云端控制平台及存储介质 |
US20210286924A1 (en) * | 2020-03-11 | 2021-09-16 | Aurora Innovation, Inc. | Generating autonomous vehicle simulation data from logged data |
CN111694973A (zh) * | 2020-06-09 | 2020-09-22 | 北京百度网讯科技有限公司 | 自动驾驶场景的模型训练方法、装置、电子设备 |
CN112805199A (zh) * | 2020-06-09 | 2021-05-14 | 华为技术有限公司 | 自动驾驶系统的自学习方法、装置、设备及存储介质 |
CN111831570A (zh) * | 2020-07-23 | 2020-10-27 | 深圳慕智科技有限公司 | 一种面向自动驾驶图像数据的测试用例生成方法 |
CN113076897A (zh) * | 2021-04-09 | 2021-07-06 | 广州机械科学研究院有限公司 | 智能网联汽车的博弈动态行驶安全测控方法及调控终端 |
CN113343461A (zh) * | 2021-06-07 | 2021-09-03 | 芜湖雄狮汽车科技有限公司 | 自动驾驶车辆的仿真方法、装置、电子设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
陈君毅;冯天悦;刘力豪;吴旭阳;: "面向决策规划系统测试的具体场景自动化生成方法", 汽车技术, no. 10, pages 45 - 50 * |
Also Published As
Publication number | Publication date |
---|---|
WO2023050645A1 (zh) | 2023-04-06 |
CN115272994B (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220081005A1 (en) | DETECTING A ROAD CLOSURE BY A LEAD AUTONOMOUS VEHICLE (AV) AND UPDATING ROUTING PLANS FOR FOLLOWING AVs | |
CN112543427B (zh) | 基于信令轨迹及大数据分析识别城市交通走廊的方法与系统 | |
CN112512890B (zh) | 一种异常驾驶行为识别方法 | |
US20190004517A1 (en) | Method and apparatus for generating automatic driving strategy | |
CN109902899B (zh) | 信息生成方法和装置 | |
CN110751847B (zh) | 一种自动驾驶车辆行为决策方法及系统 | |
CN106114507A (zh) | 用于智能车辆的局部轨迹规划方法和装置 | |
CN108848460B (zh) | 基于rfid和gps数据的人车关联方法 | |
CN110562258A (zh) | 一种车辆自动换道决策的方法、车载设备和存储介质 | |
Mandal et al. | Lyft 3D object detection for autonomous vehicles | |
CN112249009A (zh) | 车速控制方法、装置、系统及电子设备 | |
US11987261B2 (en) | Detecting a road structure change by a lead autonomous vehicle (AV) and updating routing plans for the lead AV and following AVs | |
US20220081004A1 (en) | DETECTING AN UNKNOWN OBJECT BY A LEAD AUTONOMOUS VEHICLE (AV) AND UPDATING ROUTING PLANS FOR FOLLOWING AVs | |
CN110765224A (zh) | 电子地图的处理方法、车辆视觉重定位的方法和车载设备 | |
CN114964272A (zh) | 一种融合车载图像语义的车辆轨迹地图匹配方法 | |
Kim et al. | Toward explainable and advisable model for self‐driving cars | |
CN110174116A (zh) | 生成导航播报内容的方法、装置、设备和计算机存储介质 | |
CN115272994B (zh) | 自动驾驶预测模型训练方法、装置、终端及介质 | |
CN110175218B (zh) | 生成导航播报内容的方法、装置、设备和计算机存储介质 | |
CN113511204A (zh) | 一种车辆换道行为识别方法及相关设备 | |
CN112906209B (zh) | 一种面向封闭场地的车路协同测试场景可信度评估方法 | |
US20220081003A1 (en) | DETECTING A CONSTRUCTION ZONE BY A LEAD AUTONOMOUS VEHICLE (AV) AND UPDATING ROUTING PLANS FOR FOLLOWING AVs | |
Shiomi et al. | Modeling traffic flow dominated by motorcycles based on discrete choice approach | |
Shen et al. | Analysis of Driving Behavior in Unprotected Left Turns for Autonomous Vehicles using Ensemble Deep Clustering | |
CN113033527A (zh) | 一种场景识别方法、装置、存储介质及无人设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |