CN108921200A - 用于对驾驶场景数据进行分类的方法、装置、设备和介质 - Google Patents
用于对驾驶场景数据进行分类的方法、装置、设备和介质 Download PDFInfo
- Publication number
- CN108921200A CN108921200A CN201810597956.2A CN201810597956A CN108921200A CN 108921200 A CN108921200 A CN 108921200A CN 201810597956 A CN201810597956 A CN 201810597956A CN 108921200 A CN108921200 A CN 108921200A
- Authority
- CN
- China
- Prior art keywords
- driving scene
- scene data
- driving
- rule
- acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 89
- 238000012549 training Methods 0.000 claims description 43
- 230000006870 function Effects 0.000 claims description 36
- 230000006399 behavior Effects 0.000 claims description 22
- 238000010801 machine learning Methods 0.000 claims description 14
- 238000013145 classification model Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 9
- 238000012986 modification Methods 0.000 claims description 6
- 230000004048 modification Effects 0.000 claims description 6
- 230000008901 benefit Effects 0.000 claims description 5
- 238000013481 data capture Methods 0.000 claims description 2
- 230000008859 change Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 230000004888 barrier function Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000013480 data collection Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/285—Clustering or classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/945—User interactive design; Environments; Toolboxes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开的实施例提供了用于对驾驶场景数据进行分类的方法、装置、设备和计算机可读存储介质。一种用于确定驾驶场景分类模型的方法包括从众包平台获取第一驾驶场景数据集。第一驾驶场景数据集中的驾驶场景数据已被分类。该方法还包括至少基于第一驾驶场景数据集来生成驾驶场景分类模型,以用于对由采集实体采集的驾驶场景数据进行分类。该方法还包括获取用于对驾驶场景数据进行分类的规则。该规则基于利用驾驶场景分类模型对由采集实体采集的驾驶场景数据进行分类的结果而被生成。此外,该方法还包括至少基于该规则来更新驾驶场景分类模型。以此方式,本公开的实施例能够有效挖掘驾驶场景数据中存在的丰富信息,从而实现对驾驶场景数据的准确分类。
Description
技术领域
本公开的实施例总体涉及数据处理领域,并且更具体地,涉及用于对驾驶场景数据进行分类的方法、装置、设备和计算机可读存储介质。
背景技术
自动驾驶仿真技术是指在软件中模拟真实驾驶环境,通过使得承载自动驾驶算法的交通工具与模拟驾驶环境进行交互来评估自动驾驶算法的性能。为了能够实现对自动驾驶算法性能的全面评估,模拟驾驶环境应当尽可能地覆盖实际驾驶过程中的各种场景。
通常可以利用诸如采集车之类的采集实体来采集驾驶场景数据。所采集的驾驶场景数据可以被提供给自动驾驶仿真系统,以用于模拟真实驾驶环境。由于采集实体所采集的驾驶场景数据通常是海量的,因此在向自动驾驶仿真系统提供这些数据之前期望对所采集的驾驶场景数据进行分类,以使得所提供的驾驶场景数据能够覆盖实际驾驶过程中的各种场景,或者能够向自动驾驶仿真系统提供某一类特定驾驶场景。
发明内容
根据本公开的示例实施例,提供了用于对驾驶场景数据进行分类的方案。
在本公开的第一方面中,提供了一种用于确定驾驶场景分类模型的方法。该方法包括从众包平台获取第一驾驶场景数据集。第一驾驶场景数据集中的驾驶场景数据已被分类。该方法还包括至少基于第一驾驶场景数据集来生成驾驶场景分类模型,以用于对由采集实体采集的驾驶场景数据进行分类。该方法还包括获取用于对驾驶场景数据进行分类的规则。该规则基于利用驾驶场景分类模型对由采集实体采集的驾驶场景数据进行分类的结果而被生成。此外,该方法还包括至少基于该规则来更新驾驶场景分类模型。
在本公开的第二方面中,提供了一种用于对驾驶场景数据进行分类的方法。该方法包括获取由采集实体采集的第一驾驶场景数据。该方法还包括利用驾驶场景分类模型来对第一驾驶场景数据进行分类。该驾驶分类模型是基于来自众包平台的第一驾驶场景数据集而生成的。此外,该方法还包括向用户提供对第一驾驶场景数据进行分类的结果,使得用户基于该结果来生成用于对驾驶场景数据进行分类的规则,其中该规则至少被用于更新驾驶场景分类模型。
在本公开的第三方面中,提供了一种用于确定驾驶场景分类模型的装置。该装置包括:数据获取模块,被配置为从众包平台获取第一驾驶场景数据集,第一驾驶场景数据集中的驾驶场景数据已被分类;模型生成模块,被配置为至少基于第一驾驶场景数据集来生成驾驶场景分类模型,以用于对由采集实体采集的驾驶场景数据进行分类;规则获取模块,被配置为获取用于对驾驶场景数据进行分类的规则,该规则基于利用驾驶场景分类模型对由采集实体采集的驾驶场景数据进行分类的结果而被生成;以及模型更新模块,被配置为至少基于该规则来更新驾驶场景分类模型。
在本公开的第四方面中,提供了一种用于对驾驶场景数据进行分类的装置。该装置包括:第一场景获取模块,被配置为获取由采集实体采集的第一驾驶场景数据;第一场景分类模块,被配置为利用驾驶场景分类模型来对第一驾驶场景数据进行分类,该驾驶分类模型是基于来自众包平台的第一驾驶场景数据集而生成的;以及结果提供模块,被配置为向用户提供对第一驾驶场景数据进行分类的结果,使得用户基于该结果来生成用于对驾驶场景数据进行分类的规则,其中该规则至少被用于更新驾驶场景分类模型。
在本公开的第五方面中,提供了一种电子设备,包括一个或多个处理器和存储装置。存储装置用于存储一个或多个程序。当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器执行根据本公开的第一方面的方法。
在本公开的第六方面中,提供了一种电子设备,包括一个或多个处理器和存储装置。存储装置用于存储一个或多个程序。当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器执行根据本公开的第二方面的方法。
在本公开的第七方面中,提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序在被处理器执行时实现根据本公开的第一方面的方法。
在本公开的第八方面中,提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序在被处理器执行时实现根据本公开的第二方面的方法。
应当理解,发明内容部分中所描述的内容并非旨在限定本公开的实施例的关键或重要特征,亦非用于限制本公开的范围。本公开的其它特征将通过以下的描述变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素,其中:
图1示出了本公开的实施例能够在其中实现的示例环境的示意图;
图2示出了根据本公开的实施例的用于确定驾驶场景分类模型的示例方法的流程图;
图3示出了根据本公开的实施例的用于生成驾驶场景分类模型的示例方法的流程图;
图4示出了根据本公开的实施例的用于对驾驶场景数据进行分类的示例规则的示意图;
图5示出了根据本公开的实施例的用于更新驾驶场景分类模型的示例方法的流程图;
图6示出了根据本公开的实施例的用于对驾驶场景数据进行分类的示例方法的流程图;
图7示出了根据本公开的实施例的用于对驾驶场景数据进行分类的示例方法的流程图;
图8示出了根据本公开实施例的用于确定驾驶场景分类模型的装置的示意性框图;
图9示出了根据本公开实施例的用于对驾驶场景数据进行分类的装置的示意性框图;以及
图10示出了能够实施本公开的多个实施例的计算设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
在本公开的实施例的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实施例”或“该实施例”应当理解为“至少一个实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如以上提及的,期望对由采集实体采集的驾驶场景数据进行分类,从而能够向自动驾驶仿真系统提供能够覆盖实际驾驶过程中的各种场景的驾驶场景数据,或者能够向自动驾驶仿真系统提供某一类特定驾驶场景。
在一些传统方案中,可以从驾驶行为、地理元素等维度来对场景数据进行简单的分类,然而这种分类通常不够精细。例如,当场景数据中包括多个维度的信息时,这种方案通常难以实现对场景数据的准确分类。在另一些传统方案中,可以利用机器学习方法来训练场景分类模型,以实现对场景数据的分类。然而,由于难以提供完备的训练样本,场景类别的总体分布将随着训练样本数量的增加而不断变化,从而导致所训练的模型的泛化性能较差(例如,在训练样本上表现良好,但是在实际应用中表现较差)。
根据本公开的实施例,提出了一种用于对驾驶场景数据进行分类的方案。该方案涉及通过众包平台来对场景数据的类别进行标注,并且从中选择具有代表性地场景数据作为训练场景分类模型的训练样本。该方案还涉及利用所训练的场景分类模型来对由采集实体采集的场景数据进行分类,并且将分类的结果提供给用户,使得用户能够基于分类结果来创建用于对场景数据进行分类的规则。所创建的规则转而被应用于众包平台,以提高训练样本的标注质量。此外,所创建的规则还将被应用于模型训练过程,以提高场景分类模型的训练质量。
根据本公开的实施例的方案通过结合众包、用户创建的规则和机器学习技术能够解决传统场景分类方案中所存在的上述问题或其他潜在问题。因此,该方案能够被广泛地应用于各种驾驶仿真和/或驾驶训练系统中,从而实现对自动驾驶算法的有效评估。
以下将参照附图来具体描述本公开的实施例。在本文中,术语“模型”可以从训练数据中学习到相应的输入与输出之间的关联,从而在训练完成后可以针对给定的输入,生成对应的输出。应当理解,“模型”也可以被称为“神经网络”、“学习模型”或“学习网络”。此外,术语“驾驶场景”可以包括但不限于车辆驾驶场景、飞机驾驶场景、轮船驾驶场景或者任何其他交通工具的驾驶场景,其可以由一定时间段内的与驾驶场景有关的信息(本文中也被称为“驾驶场景数据”)来表示。在下文中,将以车辆驾驶场景为例来讨论本公开的实施例。然而应当理解,这仅仅出于示例的目的,而无意于限制本公开的范围。本公开的实施例也可以被类似地应用于其他交通工具的驾驶场景。
图1示出了本公开的实施例能够在其中实现的示例环境100的示意图。环境100总体上可以包括众包平台120、模型确定装置130和模型应用装置140。应当理解,仅出于示例性的目的描述环境100的结构和功能,而不暗示对于本公开的范围的任何限制。本公开的实施例还可以被应用到具有不同的结构和/或功能的环境中。
如图1所示,由一个或多个采集实体110采集的大量驾驶场景数据101可以被提供给众包平台120以进行分类。
在此所述的“采集实体”可以指代用于采集驾驶场景数据的任何交通工具或其他实体,例如但不限于用于采集数据的车辆、轮船、飞行器等等。仅仅出于示例的目的,在本文中,以车辆作为采集实体的示例。然而,应当理解,本公开的实施例也可以适用于其他采集实体。在此所述的“众包平台”指代用于将工作任务(例如,对大量驾驶场景数据进行类别标注)通过诸如互联网进行发布以将该工作任务交由大量非特定个体来完成的平台。
在一些实施例中,由采集实体110所采集的驾驶场景数据101可以包括在采集时间段期间由采集实体110收集到的所有信息,包括但不限于与道路有关的信息(诸如,与道路类型、道路标识、道路中的障碍物等有关的信息)、与交通信号(诸如,交通信号灯、各种交通标志、交警的指挥等)有关的信息、与采集实体110的行为(诸如,跟车、超车、并道等)有关的信息、以及有采集实体110上安装的各种传感器(诸如,摄像头、加速计、陀螺仪等)采集的信息(例如,与周围实体有关的信息)等。在一些实施例中,在众包平台120处,驾驶场景数据101可以按其相关联的地理元素、交通信号和/或驾驶行为来被分类,诸如十字路口场景、红灯场景、超车场景、变道场景等等。此外,可以从经分类的驾驶场景数据中选择具有代表性的一组驾驶场景数据作为用于训练驾驶场景分类模型的训练样本102。
如图1所示,训练样本102可以被提供给模型确定装置130,以用于训练驾驶场景分类模型103。例如,可以利用机器学习方法基于训练样本102来训练驾驶场景分类模型103。所训练的驾驶场景分类模型103可以被提供给模型应用装置140,以用于对由采集实体110采集的驾驶场景数据104进行分类。
尽管图1中将驾驶场景数据101和驾驶场景数据104示出为由同一采集实体110采集,然而应当理解,这仅仅出于示例和简化的目的。在一些实施例中,驾驶场景数据101和驾驶场景数据104可以分别由不同的采集实体采集。例如,在一些实施例中,可以将由一个采集实体采集的驾驶场景数据提供给众包平台120进行类别标注,并且利用经标注的驾驶场景数据集来训练驾驶场景分类模型103。所训练的驾驶场景分类模型103可以被用于对另一采集实体所采集的驾驶场景数据进行分类。
如图1所示,通过利用驾驶场景分类模型103来对驾驶场景数据104进行分类,模型应用装置140可以生成分类结果105。分类结果105可以指示驾驶场景数据104所属的类别。例如,驾驶场景数据104所属的类别可以是与地理元素、交通信号和/或驾驶行为有关的类别,诸如十字路口场景、红灯场景、超车场景、变道场景等等。模型应用装置140可以进一步将分类结果105提供给用户150。
用户150可以对分类结果105进行评价。例如,用户150可以根据其经验来确定分类结果105是否准确。用户150可以进一步基于对分类结果105的评价来制定用于对场景数据进行分类的规则106。例如,用户150可以针对分类结果105中所存在的分类不准确的场景制定更具体的分类规则,以使得分类结果更加符合用户150的期望。
在一些实施例中,如图1所示,评价分类结果105和制定规则106可以由相同的用户来完成。备选地,在另一些实施例中,评价分类结果105和制定规则106也可以由不同的用户来完成。例如,驾驶场景分类结果105可以被提供给将要使用经分类的驾驶场景数据来进行自动驾驶仿真的用户。该用户可以对驾驶场景分类结果105进行评价并将评价提供给业内专家。业内专家可以基于来不同用户的评价来统一制定规则106。在一些实施例中,规则106可以指示针对某些驾驶场景(例如,驾驶场景分类模型对其进行分类的结果与用户期望的结果不一致)应当如何对其进行分类。以下还将结合图4对规则106进行进一步的详细描述。
如图1所示,规则106可以被提供并应用于众包平台120。例如,在众包平台120处,可以基于规则106来对后续接收的驾驶场景数据进行分类和标注,并生成相应的训练样本。以此方式,能够生成更加符合用户150的期望的训练样本。基于规则106而生成的训练样本可以被进一步用于更新先前生成的驾驶场景分类模型103。
此外,规则106还可以被提供并应用于模型确定装置130。例如,模型确定装置130可以基于规则106来进行后续的模型训练和模型更新。特别地,模型确定装置130可以基于来自众包平台120的基于规则106而被生成的训练样本和规则106两者来更新先前生成的驾驶场景分类模型103。以此方式,能够提高生成的驾驶场景分类模型103的泛化性能,从而实现对驾驶场景数据的更准确的分类。
以下将进一步结合附图来详细描述图1所示的模型确定装置130和模型应用装置140的工作原理。
图2示出了根据本公开的实施例的用于确定驾驶场景分类模型的示例方法200的流程图。例如,方法200可以由如图1所示的模型确定装置130来执行。以下将结合图1来详细描述方法200的各个动作。应当理解,方法200还可以包括未示出的附加动作和/或可以省略所示出的动作。本公开的范围在此方面不受限制。
在框210,模型确定装置130从众包平台120获取第一驾驶场景数据集(例如,如图1所示的训练样本102)。例如,第一驾驶场景数据集中的驾驶场景数据已在众包平台120处被分类。
在一些实施例中,第一驾驶场景数据集中的驾驶场景数据可以被分类为以下至少一项:与地理元素有关的第一类别、与交通信号有关的第二类别、以及与驾驶行为有关的第三类别等。例如,第一类别例如可以指示驾驶场景数据所针对的道路类型、道路标识、道路是否存在障碍物以及障碍物位置等等。第二类别例如可以指示驾驶场景数据所针对的交通交通信号灯状态、交通标志、交警指挥类型等等。第三类别例如可以指示驾驶场景数据所针对的驾驶行为,例如跟车、超车或者并道等等。例如,第一驾驶场景数据集中的驾驶场景数据可以被分类为十字路口场景、T型路口场景、红灯场景、绿灯场景、跟车场景、超车场景、并道场景等等。附加地或者备选地,在一些实施例中,第一驾驶场景数据集中的驾驶场景数据的类别可以是上述第一类别、第二类别和/或第三类别的某种组合。例如,第一驾驶场景数据集中的某个驾驶场景数据的类别可以被标注为“变道+十字路口+障碍物在车的正后方且为相同车道”。
应当理解,以上所示出的仅是驾驶场景数据的类别的一些示例。在其他实施例中,也可以基于其他维度来对驾驶场景数据进行分类。本公开的实施例在此方面不受限制。
在框220,模型确定装置130至少基于第一驾驶场景数据集来生成驾驶场景分类模型103。在一些实施例中,模型确定装置130可以利用机器学习方法来生成驾驶场景分类模型103。
图3示出了根据本公开的实施例的用于生成驾驶场景分类模型的方法300的流程图。例如,方法300可以被视为如图2所示的方法200中的框220的一种示例实现。应当理解,方法300还可以包括未示出的附加动作和/或可以省略所示出的动作。本公开的范围在此方面不受限制。
如图3所示,在框310,模型确定装置130可以确定用于训练驾驶场景分类模型的第一目标函数。第一目标函数可以是能够用于训练驾驶场景分类模型的任何已知或者将要开发的损失函数、代价函数和/或目标函数等。在框320,模型确定装置130可以基于第一目标函数和第一驾驶场景数据集来训练驾驶场景分类模型。例如,模型确定装置130可以基于第一目标函数和第一驾驶场景数据集通过利用机器学习方法来训练驾驶场景分类模型,从而确定驾驶场景分类模型的模型参数。
在一些实施例中,由模型确定装置130生成的驾驶场景分类模型103可以被提供给模型应用装置140,以用于对由采集实体110所采集的驾驶场景数据104进行分类。
返回图2,方法200进行至框230,模型确定装置130获取用于对驾驶场景数据进行分类的规则(例如,如图1所示的规则106)。在一些实施例中,模型确定装置130可以从制定规则106的用户(例如,如图1所示的用户150或图1中未示出的业内专家)获得规则106。
在一些实施例中,规则106可以是基于利用驾驶场景分类模型103对由采集实体110采集的驾驶场景数据104进行分类的结果105而被生成的。例如,如图1所示的模型应用装置140可以利用由模型确定装置130生成的驾驶场景分类模型103来对由采集实体110所采集的驾驶场景数据104进行分类,并且将分类结果105提供给用户150。用户150可以对分类结果105进行评价。例如,用户150可以根据其经验来确定分类结果105是否准确。
用户150可以进一步基于对分类结果105的评价来制定用于对场景数据进行分类的规则106。例如,用户150可以针对分类结果105中所存在的分类不准确的场景制定更具体的分类规则,以使得分类结果更加符合用户150的期望。在一些实施例中,如图1所示,评价分类结果105和制定规则106可以由相同的用户来完成。备选地,在另一些实施例中,评价分类结果105和制定规则106也可以由不同的用户来完成。例如,驾驶场景分类结果105可以被提供给将要使用经分类的驾驶场景数据来进行自动驾驶仿真的用户。该用户可以对驾驶场景分类结果105进行评价并将其反馈提供给业内专家。业内专家可以基于来不同用户的评价来统一制定规则106。例如,规则106可以指示针对某些驾驶场景(例如,驾驶场景分类模型对其进行分类的结果与用户期望的结果不一致)应当如何对其进行分类。
图4示出了根据本公开的实施例的用于对驾驶场景数据进行分类的示例规则400的示意图。例如,规则400可以被视为如图1所示的规则106的一个示例。在图4所示的示例中,假设场景分类模型103将由采集实体110在采集时间段期间采集到的某驾驶场景数据104分类为类别A(例如,变道场景),而用户150认为这样的分类不够准确,并且认为其应当被分类为类别B(例如,十字路口场景)。在此情况下,用户150或者图1中未示出的业内专家可以针对这类驾驶场景数据创建特定分类规则400。
在一些实施例中,示例规则400可以根据与类别A相关联的第一交互指数和与类别B相关联的第二交互指数的比值来确定驾驶场景数据104应当被分类为类别A还是类别B。
例如,第一交互指数可以根据采集实体110在变道行为发生期间在一定视线范围(例如,50米)内观察到的活动或静止的其他实体(本文中也称为“故障实体”)的数量、故障实体的类型、相对于采集实体110的速度和/或距离等信息来确定。第二交互指数可以根据采集实体110在十字路口附近(例如,阈值距离内)期间在一定视线范围(例如,50米)内观察到的活动或静止的故障实体的数量、类型、相对于采集实体110的速度和/或距离等信息来确定。用于确定第一交互指数和第二交互指数的信息可以被包括在场景驾驶数据104中(场景驾驶数据104可以包括在采集时间段期间由采集实体110采集到的所有信息)。
如图4所示,如果该比值处于第一预定范围内(例如,<1/3),则场景驾驶数据104可以被分类为类别A(即,十字路口场景)。如果该比值处于第二预定范围内(例如,>3),则场景驾驶数据104可以被分类为类别B(即,变道场景)。如果该比值处于第一预定范围和第二预定范围之间的第三预定范围内(例如,[1/3,3]),在一些实施例中,示例规则400可以进一步根据与类别A相关联的第一环境复杂度和与类别B相关联的第二环境复杂度的比值来确定驾驶场景数据104应当被分类为类别A还是类别B。
例如,第一环境复杂度可以根据采集实体110在变道行为发生期间采集到的与道路和/或交通信号有关的信息来确定,这样的信息诸如车道数量、可供变道的车道数量、车道信息(例如,潮汐车道或者限速限时车道)、红绿灯信息(例如,是否包含左转向灯)等。第二环境复杂度可以根据采集实体110在十字路口附近(例如,阈值距离内)期间采集到的与道路和/或交通信号有关的信息来确定,这样的信息诸如车道数量、可供变道的车道数量、车道信息(例如,潮汐车道或者限速限时车道)、红绿灯信息(例如,是否包含左转向灯)等。用于确定第一环境复杂度和第二环境复杂度的信息可以被包括在场景驾驶数据104中(场景驾驶数据104可以包括在采集时间段期间由采集实体110采集到的所有信息)。
如图4所示,如果该比值处于第四预定范围内(例如,<=1),则场景驾驶数据104可以被分类为类别A(即,十字路口场景)。否则,场景驾驶数据104可以被分类为类别B(即,变道场景)。
以上仅示出了根据本公开的实施例的基于用户反馈而生成的用于对场景数据进行分类的规则的一个示例。应当理解,其他规则也是可能的。这样的规则有助于使得驾驶场景分类结果更加符合用户的意图,从而提高驾驶场景分类的精度。
返回到图2,方法200进行至框240,其中模型确定装置130至少基于规则106来更新驾驶场景分类模型103。
图5示出了根据本公开的实施例的用于更新驾驶场景分类模型的方法500的流程图。例如,方法500可以被视为如图2所示的方法200中的框240的一种示例实现。应当理解,方法500还可以包括未示出的附加动作和/或可以省略所示出的动作。本公开的范围在此方面不受限制。
如图5所示,在框510,模型确定装置130可以从众包平台120获取第二驾驶场景数据集。例如,第二驾驶场景数据集中的驾驶场景数据已在众包平台120处被分类。在一些实施例中,第二驾驶场景数据集与上述第一驾驶场景数据集相同。备选地,在另一些实施例中,第二驾驶场景数据集也可以与上述第一驾驶场景数据集不同。例如,第二驾驶场景数据集可以是在第一驾驶场景数据集之后在众包平台120处被分类地。特别地,在一些实施例中,第二驾驶场景数据集可以是至少基于规则106而在众包平台120处被分类的。也即,第二驾驶场景数据集可以是更加符合用户150的期望的训练样本。
在框520,模型确定装置130可以基于第一目标函数和所获得的规则(例如,规则106)来确定用于训练驾驶场景分类模型的第二目标函数。例如,模型确定装置130可以基于规则106来确定要向第一目标函数附加的惩罚项,并且通过向第一目标函数附加该惩罚项来生成第二目标函数。以此方式,第二目标函数能够用于训练更加符合用户150的期望的驾驶场景分类模型。
在框530,模型确定装置130可以基于第二目标函数和第二驾驶场景数据集通过利用机器学习方法来更新驾驶场景分类模型103的模型参数,由此得到经更新的驾驶场景分类模型。
以此方式,本公开的实施例通过结合众包、用户创建的规则和机器学习技术,能够有效提高所确定的驾驶场景分类模型的泛化性能。
以上描述了根据本公开的实施例的用于确定驾驶场景分类模型的方案。一旦驾驶场景分类模型被确定,其可以被用于对由采集实体110采集的驾驶场景数据进行分类。
图6示出了根据本公开的实施例的用于对驾驶场景数据进行分类的示例方法600的流程图。例如,方法600可以由如图1所示的模型应用装置140来执行。以下将结合图1来详细描述方法600的各个动作。应当理解,方法600还可以包括未示出的附加动作和/或可以省略所示出的动作。本公开的范围在此方面不受限制。
在框610,模型应用装置140获取由采集实体110采集的第一驾驶场景数据(例如,如图1所示的驾驶场景数据104)。在一些实施例中,第一驾驶场景数据可以包括在与第一驾驶场景数据相对应的采集时间段期间由采集实体110收集到的所有信息,例如但不限于与道路有关的信息(诸如,与道路类型、道路标识、道路中的障碍物等有关的信息)、与交通信号(诸如,交通信号灯、各种交通标志、交警的指挥等)有关的信息、与采集实体110的行为(诸如,跟车、超车、并道等)有关的信息、以及有采集实体110上安装的各种传感器(诸如,摄像头、加速计、陀螺仪等)采集的信息(例如,与周围实体有关的信息)等。
在框620,模型应用装置140利用驾驶场景分类模型103对第一驾驶场景数据进行分类。如以上所描述的,驾驶场景分类模型103可以是基于来自众包平台的经分类的第一驾驶场景数据集而生成的。
在框630,模型应用装置140可以向用户150提供对第一驾驶场景数据进行分类的结果(例如,如图1所示的分类结果105)。例如,该分类结果可以指示第一驾驶场景数据所属的类别,诸如十字路口场景、红灯场景、超车场景、变道场景等等。如以上所描述的,用户150可以基于结果105来生成用于对驾驶场景数据进行分类的规则106,并且规则105可以至少被用于更新驾驶场景分类模型103。
以此方式,可以基于驾驶场景分类模型对驾驶场景数据进行分类的结果来生成用于对驾驶场景数据进行分类的规则。通过基于这样的规则来更新驾驶场景分类模型,能够使得后续的驾驶场景分类结果更加符合用户的意图,从而提高驾驶场景分类的精度。
图7示出了根据本公开的实施例的用于对驾驶场景数据进行分类的示例方法700的流程图。例如,方法700可以由如图1所示的模型应用装置140在方法600被执行之后来被执行。以下将结合图1来详细描述方法700的各个动作。应当理解,方法700还可以包括未示出的附加动作和/或可以省略所示出的动作。本公开的范围在此方面不受限制。
在框710,模型应用装置140获取由采集实体110采集的第二驾驶场景数据。例如,第二驾驶场景数据可以在如上所述的第一驾驶场景数据之后被采集实体110采集。在一些实施例中,第二驾驶场景数据可以包括在与第二驾驶场景数据相对应的采集时间段期间由采集实体110收集到的所有信息,例如但不限于与道路有关的信息(诸如,与道路类型、道路标识、道路中的障碍物等有关的信息)、与交通信号(诸如,交通信号灯、各种交通标志、交警的指挥等)有关的信息、与采集实体110的行为(诸如,跟车、超车、并道等)有关的信息、以及有采集实体110上安装的各种传感器(诸如,摄像头、加速计、陀螺仪等)采集的信息(例如,与周围实体有关的信息)等。
在框720,模型应用装置140利用至少基于规则106而被更新的驾驶场景分类模型103来对第二驾驶场景数据进行分类。在一些实施例中,模型应用装置140可以利用基于来自众包平台120的第二驾驶数据集和规则106而被更新的驾驶场景分类模型103来对第二驾驶场景数据进行分类。如以上所描述的,在一些实施例中,第二驾驶场景数据集可以与上述第一驾驶场景数据集相同。备选地,在另一些实施例中,第二驾驶场景数据集也可以与上述第一驾驶场景数据集不同。例如,第二驾驶场景数据集可以是在第一驾驶场景数据集之后在众包平台120处被分类地。特别地,在一些实施例中,第二驾驶场景数据集可以是至少基于规则106而在众包平台120处被分类的。也即,第二驾驶场景数据集可以是更加符合用户150的期望的训练样本。
以此方式,本公开的实施例通过应用结合众包、用户创建的规则和机器学习技术而确定的驾驶场景分类模型来对驾驶场景数据进行分类,能够有效地提高驾驶场景数据分类的精度。
图8示出了根据本公开实施例的用于确定驾驶场景分类模型的装置800的示意性框图。如图8所示,装置800可以包括数据获取模块810,其被配置为从众包平台获取第一驾驶场景数据集,其中第一驾驶场景数据集中的驾驶场景数据已被分类。装置800还可以包括模型生成模块820,其被配置为至少基于所述第一驾驶场景数据集来生成驾驶场景分类模型,以用于对由采集实体采集的驾驶场景数据进行分类。装置800还可以包括规则获取模块830,其被配置为获取用于对驾驶场景数据进行分类的规则,该规则基于利用驾驶场景分类模型对由采集实体采集的驾驶场景数据进行分类的结果而被生成。此外,装置800还可以包括模型更新模块840,其被配置为至少基于规则来更新驾驶场景分类模型。
在一些实施例中,第一驾驶场景数据集中的驾驶场景数据被分类为以下至少一项:与地理元素有关的第一类别;与交通信号有关的第二类别;以及与驾驶行为有关的第三类别。
在一些实施例中,由采集实体采集的驾驶场景数据包括以下至少一项:与道路有关的信息;与交通信号有关的信息;与采集实体的行为有关的信息;以及由采集实体上安装的传感器采集的信息。
在一些实施例中,模型生成模块820包括:第一目标函数确定单元,被配置为确定用于训练驾驶场景分类模型的第一目标函数;以及第一模型训练单元,被配置为基于第一目标函数和第一驾驶场景数据集,利用机器学习方法来训练驾驶场景分类模型。
在一些实施例中,模型更新模块840包括:数据获取单元,被配置为从众包平台获取第二驾驶场景数据集,第二驾驶场景数据集中的驾驶场景数据已被分类;第二目标函数确定单元,被配置为基于第一目标函数和规则来确定用于训练驾驶场景分类模型的第二目标函数;以及第二模型训练单元,被配置为基于第二目标函数和第二驾驶场景数据集,利用机器学习方法来更新驾驶场景分类模型。
在一些实施例中,第二驾驶场景数据集中的驾驶场景数据至少基于规则而在众包平台处被分类。
图9示出了根据本公开实施例的用于对驾驶场景数据进行分类的装置900的示意性框图。如图9所示,装置900可以包括第一场景获取模块910,其被配置为获取由采集实体采集的第一驾驶场景数据。装置900还可以包括第一场景分类模块920,其被配置为利用驾驶场景分类模型来对第一驾驶场景数据进行分类,驾驶分类模型是基于来自众包平台的第一驾驶场景数据集而生成的。此外,装置900还可以包括结果提供模块930,其被配置为向用户提供对第一驾驶场景数据进行分类的结果,使得用户基于该结果来生成用于对驾驶场景数据进行分类的规则,其中该规则至少被用于更新驾驶场景分类模型。
在一些实施例中,第一驾驶场景数据包括以下至少一项:与道路有关的信息;与交通信号有关的信息;与所述采集实体的行为有关的信息;以及由所述采集实体上安装的传感器采集的信息。
在一些实施例中,驾驶场景数据集中的驾驶场景数据被分类为以下至少一项:与地理元素有关的第一类别;与交通信号有关的第二类别;以及与驾驶行为有关的第三类别。
在一些实施例中,装置900还包括:第二场景获取模块,被配置为获取由采集实体采集的第二驾驶场景数据;以及第二场景分类模块,被配置为利用至少基于规则而被更新的驾驶场景分类模型来对第二驾驶场景数据进行分类。
在一些实施例中,驾驶场景分类模型基于来自众包平台的第二驾驶场景数据集和规则而被更新。
在一些实施例中,第二驾驶场景数据集中的驾驶场景数据至少基于规则而在众包平台处被分类。
在一些实施例中,经分类的第一驾驶场景数据和经分类的第二驾驶场景数据中的至少一项被用于训练交通工具(例如,无人车、无人机等等)。
图10示出了可以用来实施本公开的实施例的示例设备1000的示意性框图。设备1000可以用于实现如图1所述的模型确定装置130和/或模型应用装置140。如图所示,设备1000包括中央处理单元(CPU)1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序指令或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序指令,来执行各种适当的动作和处理。在RAM 1003中,还可存储设备1000操作所需的各种程序和数据。CPU 1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理单元1001执行上文所描述的各个方法和处理,例如方法200、300、500、600和/或700。例如,在一些实施例中,方法200、300、500、600和/或700可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM 1003并由CPU 1001执行时,可以执行上文描述的方法200、300、500、600和/或700的一个或多个步骤。备选地,在其他实施例中,CPU 1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法200、300、500、600和/或700。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)等等。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各操作,但是这应当理解为要求这样操作以所示出的特定次序或以顺序次序执行,或者要求所有图示的操作应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (30)
1.一种用于确定驾驶场景分类模型的方法,包括:
从众包平台获取第一驾驶场景数据集,所述第一驾驶场景数据集中的驾驶场景数据已被分类;
至少基于所述第一驾驶场景数据集来生成驾驶场景分类模型,以用于对由采集实体采集的驾驶场景数据进行分类;
获取用于对驾驶场景数据进行分类的规则,所述规则基于利用所述驾驶场景分类模型对由所述采集实体采集的驾驶场景数据进行分类的结果而被生成;以及
至少基于所述规则来更新所述驾驶场景分类模型。
2.根据权利要求1所述的方法,其中所述第一驾驶场景数据集中的驾驶场景数据被分类为以下至少一项:
与地理元素有关的第一类别;
与交通信号有关的第二类别;以及
与驾驶行为有关的第三类别。
3.根据权利要求1所述的方法,其中由所述采集实体采集的驾驶场景数据包括以下至少一项:
与道路有关的信息;
与交通信号有关的信息;
与所述采集实体的行为有关的信息;以及
由所述采集实体上安装的传感器采集的信息。
4.根据权利要求1所述的方法,其中生成所述驾驶场景分类模型包括:
确定用于训练所述驾驶场景分类模型的第一目标函数;以及
基于所述第一目标函数和所述第一驾驶场景数据集,利用机器学习方法来训练所述驾驶场景分类模型。
5.根据权利要求4所述的方法,其中更新所述驾驶场景分类模型包括:
从所述众包平台获取第二驾驶场景数据集,所述第二驾驶场景数据集中的驾驶场景数据已被分类;
基于所述第一目标函数和所述规则来确定用于训练所述驾驶场景分类模型的第二目标函数;以及
基于所述第二目标函数和所述第二驾驶场景数据集,利用机器学习方法来更新所述驾驶场景分类模型。
6.根据权利要求5所述的方法,其中所述第二驾驶场景数据集中的驾驶场景数据至少基于所述规则而在所述众包平台处被分类。
7.一种用于对驾驶场景数据进行分类的方法,包括:
获取由采集实体采集的第一驾驶场景数据;
利用驾驶场景分类模型来对所述第一驾驶场景数据进行分类,所述驾驶分类模型是基于来自众包平台的第一驾驶场景数据集而生成的;以及
向用户提供对所述第一驾驶场景数据进行分类的结果,使得所述用户基于所述结果来生成用于对驾驶场景数据进行分类的规则,其中所述规则至少被用于更新所述驾驶场景分类模型。
8.根据权利要求7所述的方法,其中所述第一驾驶场景数据包括以下至少一项:
与道路有关的信息;
与交通信号有关的信息;
与所述采集实体的行为有关的信息;以及
由所述采集实体上安装的传感器采集的信息。
9.根据权利要求7所述的方法,其中所述驾驶场景数据集中的驾驶场景数据被分类为以下至少一项:
与地理元素有关的第一类别;
与交通信号有关的第二类别;以及
与驾驶行为有关的第三类别。
10.根据权利要求7所述的方法,还包括:
获取由所述采集实体采集的第二驾驶场景数据;以及
利用至少基于所述规则而被更新的所述驾驶场景分类模型来对所述第二驾驶场景数据进行分类。
11.根据权利要求10所述的方法,其中所述驾驶场景分类模型基于来自所述众包平台的第二驾驶场景数据集和所述规则而被更新。
12.根据权利要求11所述的方法,其中所述第二驾驶场景数据集中的驾驶场景数据至少基于所述规则而在所述众包平台处被分类。
13.根据权利要求10所述的方法,其中经分类的所述第一驾驶场景数据和经分类的所述第二驾驶场景数据中的至少一项被用于训练交通工具。
14.一种用于确定驾驶场景分类模型的装置,包括:
数据获取模块,被配置为从众包平台获取第一驾驶场景数据集,所述第一驾驶场景数据集中的驾驶场景数据已被分类;
模型生成模块,被配置为至少基于所述第一驾驶场景数据集来生成驾驶场景分类模型,以用于对由采集实体采集的驾驶场景数据进行分类;
规则获取模块,被配置为获取用于对驾驶场景数据进行分类的规则,所述规则基于利用所述驾驶场景分类模型对由所述采集实体采集的驾驶场景数据进行分类的结果而被生成;以及
模型更新模块,被配置为至少基于所述规则来更新所述驾驶场景分类模型。
15.根据权利要求14所述的装置,其中所述第一驾驶场景数据集中的驾驶场景数据被分类为以下至少一项:
与地理元素有关的第一类别;
与交通信号有关的第二类别;以及
与驾驶行为有关的第三类别。
16.根据权利要求14所述的装置,其中由所述采集实体采集的驾驶场景数据包括以下至少一项:
与道路有关的信息;
与交通信号有关的信息;
与所述采集实体的行为有关的信息;以及
由所述采集实体上安装的传感器采集的信息。
17.根据权利要求14所述的装置,其中所述模型生成模块包括:
第一目标函数确定单元,被配置为确定用于训练所述驾驶场景分类模型的第一目标函数;以及
第一模型训练单元,被配置为基于所述第一目标函数和所述第一驾驶场景数据集,利用机器学习方法来训练所述驾驶场景分类模型。
18.根据权利要求17所述的装置,其中所述模型更新模块包括:
数据获取单元,被配置为从所述众包平台获取第二驾驶场景数据集,所述第二驾驶场景数据集中的驾驶场景数据已被分类;
第二目标函数确定单元,被配置为基于所述第一目标函数和所述规则来确定用于训练所述驾驶场景分类模型的第二目标函数;以及
第二模型训练单元,被配置为基于所述第二目标函数和所述第二驾驶场景数据集,利用机器学习方法来更新所述驾驶场景分类模型。
19.根据权利要求18所述的装置,其中所述第二驾驶场景数据集中的驾驶场景数据至少基于所述规则而在所述众包平台处被分类。
20.一种用于对驾驶场景数据进行分类的装置,包括:
第一场景获取模块,被配置为获取由采集实体采集的第一驾驶场景数据;
第一场景分类模块,被配置为利用驾驶场景分类模型来对所述第一驾驶场景数据进行分类,所述驾驶分类模型是基于来自众包平台的第一驾驶场景数据集而生成的;以及
结果提供模块,被配置为向用户提供对所述第一驾驶场景数据进行分类的结果,使得所述用户基于所述结果来生成用于对驾驶场景数据进行分类的规则,其中所述规则至少被用于更新所述驾驶场景分类模型。
21.根据权利要求20所述的装置,其中所述第一驾驶场景数据包括以下至少一项:
与道路有关的信息;
与交通信号有关的信息;
与所述采集实体的行为有关的信息;以及
由所述采集实体上安装的传感器采集的信息。
22.根据权利要求20所述的装置,其中所述驾驶场景数据集中的驾驶场景数据被分类为以下至少一项:
与地理元素有关的第一类别;
与交通信号有关的第二类别;以及
与驾驶行为有关的第三类别。
23.根据权利要求20所述的装置,还包括:
第二场景获取模块,被配置为获取由所述采集实体采集的第二驾驶场景数据;以及
第二场景分类模块,被配置为利用至少基于所述规则而被更新的所述驾驶场景分类模型来对所述第二驾驶场景数据进行分类。
24.根据权利要求23所述的装置,其中所述驾驶场景分类模型基于来自所述众包平台的第二驾驶场景数据集和所述规则而被更新。
25.根据权利要求24所述的装置,其中所述第二驾驶场景数据集中的驾驶场景数据至少基于所述规则而在所述众包平台处被分类。
26.根据权利要求23所述的装置,其中经分类的所述第一驾驶场景数据和经分类的所述第二驾驶场景数据中的至少一项被用于训练交通工具。
27.一种电子设备,包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现根据权利要求1-6中任一项所述的方法。
28.一种电子设备,包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现根据权利要求7-13中任一项所述的方法。
29.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-6中任一项所述的方法。
30.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序在被处理器执行时实现根据权利要求7-13中任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110919712.3A CN113642633B (zh) | 2018-06-11 | 2018-06-11 | 用于对驾驶场景数据进行分类的方法、装置、设备和介质 |
CN201810597956.2A CN108921200B (zh) | 2018-06-11 | 2018-06-11 | 用于对驾驶场景数据进行分类的方法、装置、设备和介质 |
US16/353,878 US11783590B2 (en) | 2018-06-11 | 2019-03-14 | Method, apparatus, device and medium for classifying driving scenario data |
JP2019047118A JP7075366B2 (ja) | 2018-06-11 | 2019-03-14 | 運転場面データを分類するための方法、装置、機器及び媒体 |
EP19162937.7A EP3582146A1 (en) | 2018-06-11 | 2019-03-14 | Method, apparatus, device and medium for classifying driving scenario data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810597956.2A CN108921200B (zh) | 2018-06-11 | 2018-06-11 | 用于对驾驶场景数据进行分类的方法、装置、设备和介质 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110919712.3A Division CN113642633B (zh) | 2018-06-11 | 2018-06-11 | 用于对驾驶场景数据进行分类的方法、装置、设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108921200A true CN108921200A (zh) | 2018-11-30 |
CN108921200B CN108921200B (zh) | 2021-07-30 |
Family
ID=64418873
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110919712.3A Active CN113642633B (zh) | 2018-06-11 | 2018-06-11 | 用于对驾驶场景数据进行分类的方法、装置、设备和介质 |
CN201810597956.2A Active CN108921200B (zh) | 2018-06-11 | 2018-06-11 | 用于对驾驶场景数据进行分类的方法、装置、设备和介质 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110919712.3A Active CN113642633B (zh) | 2018-06-11 | 2018-06-11 | 用于对驾驶场景数据进行分类的方法、装置、设备和介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11783590B2 (zh) |
EP (1) | EP3582146A1 (zh) |
JP (1) | JP7075366B2 (zh) |
CN (2) | CN113642633B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110126846A (zh) * | 2019-05-24 | 2019-08-16 | 北京百度网讯科技有限公司 | 驾驶场景的表示方法、装置、系统和存储介质 |
CN110232335A (zh) * | 2019-05-24 | 2019-09-13 | 国汽(北京)智能网联汽车研究院有限公司 | 驾驶场景分类方法及电子设备 |
CN110579359A (zh) * | 2019-09-10 | 2019-12-17 | 武汉光庭信息技术股份有限公司 | 自动驾驶失效场景库的优化方法及系统、服务器及介质 |
CN110717475A (zh) * | 2019-10-18 | 2020-01-21 | 北京汽车集团有限公司 | 自动驾驶场景分类方法及系统 |
CN110750311A (zh) * | 2019-10-18 | 2020-02-04 | 北京汽车研究总院有限公司 | 数据分类方法、装置和设备 |
CN110763483A (zh) * | 2019-09-26 | 2020-02-07 | 泰牛汽车技术(苏州)有限公司 | 一种安全等级测试场景库的自动生成方法及装置 |
CN110955159A (zh) * | 2019-11-28 | 2020-04-03 | 安徽江淮汽车集团股份有限公司 | 自动驾驶仿真例编制方法、装置、电子设备及存储介质 |
CN111599183A (zh) * | 2020-07-22 | 2020-08-28 | 中汽院汽车技术有限公司 | 一种自动驾驶场景分类识别系统及方法 |
CN111625927A (zh) * | 2020-04-27 | 2020-09-04 | 腾讯科技(深圳)有限公司 | 仿真车辆的控制方法及相关设备 |
CN111652153A (zh) * | 2020-06-04 | 2020-09-11 | 北京百度网讯科技有限公司 | 场景自动识别方法、装置、无人车及存储介质 |
CN111666714A (zh) * | 2020-06-05 | 2020-09-15 | 北京百度网讯科技有限公司 | 自动驾驶仿真场景识别的方法及装置 |
CN111694973A (zh) * | 2020-06-09 | 2020-09-22 | 北京百度网讯科技有限公司 | 自动驾驶场景的模型训练方法、装置、电子设备 |
CN112182962A (zh) * | 2020-09-24 | 2021-01-05 | 青岛大学 | 一种混合动力汽车行驶车速预测方法 |
CN113420952A (zh) * | 2021-05-17 | 2021-09-21 | 同济大学 | 一种基于模拟驾驶的汽车人机交互测试与评估系统 |
CN113495555A (zh) * | 2020-03-20 | 2021-10-12 | 际络科技(上海)有限公司 | 驾驶规则提取装置和方法、制定装置和方法以及存储介质 |
CN114550121A (zh) * | 2022-02-28 | 2022-05-27 | 重庆长安汽车股份有限公司 | 一种基于聚类的自动驾驶换道场景分类方法及识别方法 |
CN114708726A (zh) * | 2022-03-18 | 2022-07-05 | 北京百度网讯科技有限公司 | 交通限制的处理方法、装置、设备以及存储介质 |
WO2022174838A1 (zh) * | 2021-02-22 | 2022-08-25 | 华为技术有限公司 | 一种驾驶场景识别方法及其系统 |
CN115272994A (zh) * | 2021-09-29 | 2022-11-01 | 上海仙途智能科技有限公司 | 自动驾驶预测模型训练方法、装置、终端及介质 |
CN115617880A (zh) * | 2022-12-19 | 2023-01-17 | 北京百度网讯科技有限公司 | 自动驾驶场景的挖掘方法、装置、设备以及存储介质 |
CN116129647A (zh) * | 2023-02-28 | 2023-05-16 | 禾多科技(北京)有限公司 | 一种基于危险点的全闭环场景重构方法 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339231B (zh) * | 2020-02-25 | 2024-04-09 | 合肥四维图新科技有限公司 | 众包更新结果的处理方法及装置 |
CN111858927B (zh) * | 2020-06-09 | 2023-11-24 | 阿波罗智能技术(北京)有限公司 | 数据测试方法、装置、电子设备及存储介质 |
CN114676844A (zh) * | 2020-12-24 | 2022-06-28 | 北京百度网讯科技有限公司 | 用于自动驾驶的方法、装置、设备、计算机可读存储介质 |
CN113110526B (zh) * | 2021-06-15 | 2021-09-24 | 北京三快在线科技有限公司 | 一种模型训练的方法、无人驾驶设备的控制方法及装置 |
CN113706870B (zh) * | 2021-08-30 | 2022-06-10 | 广州文远知行科技有限公司 | 一种拥堵场景下主车换道数据的收集方法及相关设备 |
MA54726A1 (fr) * | 2021-10-26 | 2023-04-28 | Univ Int Rabat | Méthode pour l’analyse de l’impact de la présence d’un mécanisme de contrôle sur le comportement des conducteurs de véhicules |
CN114596470B (zh) * | 2022-03-31 | 2024-06-25 | 广州文远知行科技有限公司 | 一种并道危险场景分类系统、方法、设备和介质 |
CN115440028B (zh) * | 2022-07-22 | 2024-01-30 | 中智行(苏州)科技有限公司 | 一种基于标签化交通道路场景分类方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102169631A (zh) * | 2011-04-21 | 2011-08-31 | 福州大学 | 基于流形学习的交通拥堵事件协同检测方法 |
CN103247291A (zh) * | 2013-05-07 | 2013-08-14 | 华为终端有限公司 | 一种语音识别设备的更新方法、装置及系统 |
CN106682681A (zh) * | 2016-08-19 | 2017-05-17 | 江苏电力信息技术有限公司 | 一种基于相关反馈的识别算法自动改进方法 |
CN107247972A (zh) * | 2017-06-29 | 2017-10-13 | 哈尔滨工程大学 | 一种基于众包技术的分类模型训练方法 |
CN107609602A (zh) * | 2017-09-28 | 2018-01-19 | 吉林大学 | 一种基于卷积神经网络的驾驶场景分类方法 |
CN107622281A (zh) * | 2017-09-20 | 2018-01-23 | 广东欧珀移动通信有限公司 | 图像分类方法、装置、存储介质及移动终端 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011123552A (ja) | 2009-12-08 | 2011-06-23 | Toyota Central R&D Labs Inc | 類似運転時画像検索装置及びプログラム |
CN103247186B (zh) * | 2013-04-26 | 2015-04-29 | 广州通易科技有限公司 | 一种基于场景的辅助驾驶系统实现方法 |
CN104185225A (zh) * | 2014-09-11 | 2014-12-03 | 南京大学 | 一种基于场景分类的室内外无缝定位切换方法 |
JP2018510373A (ja) * | 2015-02-10 | 2018-04-12 | モービルアイ ビジョン テクノロジーズ リミテッド | 自律車両ナビゲーションのための疎な地図 |
CN104680193B (zh) * | 2015-02-11 | 2018-05-04 | 上海交通大学 | 基于快速相似性网络融合算法的在线目标分类方法与系统 |
CN105933080B (zh) * | 2016-01-20 | 2020-11-03 | 北京大学 | 一种跌倒检测方法和系统 |
EP3465532A1 (en) * | 2016-06-07 | 2019-04-10 | Toyota Motor Europe | Control device, system and method for determining the perceptual load of a visual and dynamic driving scene |
CN106845478B (zh) * | 2016-12-30 | 2019-09-10 | 同观科技(深圳)有限公司 | 一种字符置信度的二次车牌识别方法及装置 |
US10543853B2 (en) * | 2017-07-05 | 2020-01-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for providing collaborative control of a vehicle |
CN107564031A (zh) * | 2017-08-28 | 2018-01-09 | 西安文理学院 | 基于反馈背景提取的城市交通场景前景目标检测方法 |
CN107679557B (zh) * | 2017-09-19 | 2020-11-27 | 平安科技(深圳)有限公司 | 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质 |
-
2018
- 2018-06-11 CN CN202110919712.3A patent/CN113642633B/zh active Active
- 2018-06-11 CN CN201810597956.2A patent/CN108921200B/zh active Active
-
2019
- 2019-03-14 JP JP2019047118A patent/JP7075366B2/ja active Active
- 2019-03-14 EP EP19162937.7A patent/EP3582146A1/en active Pending
- 2019-03-14 US US16/353,878 patent/US11783590B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102169631A (zh) * | 2011-04-21 | 2011-08-31 | 福州大学 | 基于流形学习的交通拥堵事件协同检测方法 |
CN103247291A (zh) * | 2013-05-07 | 2013-08-14 | 华为终端有限公司 | 一种语音识别设备的更新方法、装置及系统 |
CN106682681A (zh) * | 2016-08-19 | 2017-05-17 | 江苏电力信息技术有限公司 | 一种基于相关反馈的识别算法自动改进方法 |
CN107247972A (zh) * | 2017-06-29 | 2017-10-13 | 哈尔滨工程大学 | 一种基于众包技术的分类模型训练方法 |
CN107622281A (zh) * | 2017-09-20 | 2018-01-23 | 广东欧珀移动通信有限公司 | 图像分类方法、装置、存储介质及移动终端 |
CN107609602A (zh) * | 2017-09-28 | 2018-01-19 | 吉林大学 | 一种基于卷积神经网络的驾驶场景分类方法 |
Non-Patent Citations (2)
Title |
---|
朱向雷,等.: "驾驶场景研究及其发展应用概述", 《时代汽车》 * |
韩昕辉: "基于深度学习的无人驾驶场景识别", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 * |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110232335A (zh) * | 2019-05-24 | 2019-09-13 | 国汽(北京)智能网联汽车研究院有限公司 | 驾驶场景分类方法及电子设备 |
CN110126846A (zh) * | 2019-05-24 | 2019-08-16 | 北京百度网讯科技有限公司 | 驾驶场景的表示方法、装置、系统和存储介质 |
CN110579359A (zh) * | 2019-09-10 | 2019-12-17 | 武汉光庭信息技术股份有限公司 | 自动驾驶失效场景库的优化方法及系统、服务器及介质 |
CN110763483A (zh) * | 2019-09-26 | 2020-02-07 | 泰牛汽车技术(苏州)有限公司 | 一种安全等级测试场景库的自动生成方法及装置 |
CN110717475A (zh) * | 2019-10-18 | 2020-01-21 | 北京汽车集团有限公司 | 自动驾驶场景分类方法及系统 |
CN110750311A (zh) * | 2019-10-18 | 2020-02-04 | 北京汽车研究总院有限公司 | 数据分类方法、装置和设备 |
CN110955159B (zh) * | 2019-11-28 | 2021-05-11 | 安徽江淮汽车集团股份有限公司 | 自动驾驶仿真例编制方法、装置、电子设备及存储介质 |
CN110955159A (zh) * | 2019-11-28 | 2020-04-03 | 安徽江淮汽车集团股份有限公司 | 自动驾驶仿真例编制方法、装置、电子设备及存储介质 |
CN113495555A (zh) * | 2020-03-20 | 2021-10-12 | 际络科技(上海)有限公司 | 驾驶规则提取装置和方法、制定装置和方法以及存储介质 |
CN111625927A (zh) * | 2020-04-27 | 2020-09-04 | 腾讯科技(深圳)有限公司 | 仿真车辆的控制方法及相关设备 |
CN111625927B (zh) * | 2020-04-27 | 2023-05-12 | 腾讯科技(深圳)有限公司 | 仿真车辆的控制方法及相关设备 |
CN111652153B (zh) * | 2020-06-04 | 2023-12-22 | 北京百度网讯科技有限公司 | 场景自动识别方法、装置、无人车及存储介质 |
CN111652153A (zh) * | 2020-06-04 | 2020-09-11 | 北京百度网讯科技有限公司 | 场景自动识别方法、装置、无人车及存储介质 |
CN111666714A (zh) * | 2020-06-05 | 2020-09-15 | 北京百度网讯科技有限公司 | 自动驾驶仿真场景识别的方法及装置 |
CN111666714B (zh) * | 2020-06-05 | 2023-07-28 | 北京百度网讯科技有限公司 | 自动驾驶仿真场景识别的方法及装置 |
CN111694973A (zh) * | 2020-06-09 | 2020-09-22 | 北京百度网讯科技有限公司 | 自动驾驶场景的模型训练方法、装置、电子设备 |
CN111694973B (zh) * | 2020-06-09 | 2023-10-13 | 阿波罗智能技术(北京)有限公司 | 自动驾驶场景的模型训练方法、装置、电子设备 |
CN111599183A (zh) * | 2020-07-22 | 2020-08-28 | 中汽院汽车技术有限公司 | 一种自动驾驶场景分类识别系统及方法 |
CN111599183B (zh) * | 2020-07-22 | 2020-10-27 | 中汽院汽车技术有限公司 | 一种自动驾驶场景分类识别系统及方法 |
CN112182962A (zh) * | 2020-09-24 | 2021-01-05 | 青岛大学 | 一种混合动力汽车行驶车速预测方法 |
WO2022174838A1 (zh) * | 2021-02-22 | 2022-08-25 | 华为技术有限公司 | 一种驾驶场景识别方法及其系统 |
CN113420952A (zh) * | 2021-05-17 | 2021-09-21 | 同济大学 | 一种基于模拟驾驶的汽车人机交互测试与评估系统 |
CN115272994A (zh) * | 2021-09-29 | 2022-11-01 | 上海仙途智能科技有限公司 | 自动驾驶预测模型训练方法、装置、终端及介质 |
CN115272994B (zh) * | 2021-09-29 | 2023-07-25 | 上海仙途智能科技有限公司 | 自动驾驶预测模型训练方法、装置、终端及介质 |
CN114550121A (zh) * | 2022-02-28 | 2022-05-27 | 重庆长安汽车股份有限公司 | 一种基于聚类的自动驾驶换道场景分类方法及识别方法 |
CN114708726A (zh) * | 2022-03-18 | 2022-07-05 | 北京百度网讯科技有限公司 | 交通限制的处理方法、装置、设备以及存储介质 |
CN114708726B (zh) * | 2022-03-18 | 2023-12-01 | 北京百度网讯科技有限公司 | 交通限制的处理方法、装置、设备以及存储介质 |
CN115617880A (zh) * | 2022-12-19 | 2023-01-17 | 北京百度网讯科技有限公司 | 自动驾驶场景的挖掘方法、装置、设备以及存储介质 |
CN116129647A (zh) * | 2023-02-28 | 2023-05-16 | 禾多科技(北京)有限公司 | 一种基于危险点的全闭环场景重构方法 |
CN116129647B (zh) * | 2023-02-28 | 2023-09-05 | 禾多科技(北京)有限公司 | 一种基于危险点的全闭环场景重构方法 |
Also Published As
Publication number | Publication date |
---|---|
US20190378035A1 (en) | 2019-12-12 |
CN113642633B (zh) | 2023-06-20 |
JP2019215849A (ja) | 2019-12-19 |
EP3582146A1 (en) | 2019-12-18 |
JP7075366B2 (ja) | 2022-05-25 |
CN113642633A (zh) | 2021-11-12 |
CN108921200B (zh) | 2021-07-30 |
US11783590B2 (en) | 2023-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921200A (zh) | 用于对驾驶场景数据进行分类的方法、装置、设备和介质 | |
Li et al. | Humanlike driving: Empirical decision-making system for autonomous vehicles | |
Ding et al. | A survey on safety-critical driving scenario generation—A methodological perspective | |
Zhang et al. | Parallel vision for intelligent transportation systems in metaverse: Challenges, solutions, and potential applications | |
Ishihara et al. | Multi-task learning with attention for end-to-end autonomous driving | |
US11132211B1 (en) | Neural finite state machines | |
CN106198049A (zh) | 真实车辆在环测试系统和方法 | |
Xu et al. | The OpenCDA open-source ecosystem for cooperative driving automation research | |
CN108319249A (zh) | 基于驾驶模拟器的无人驾驶算法综合测评系统及方法 | |
DK201770681A1 (en) | A method for (re-) training a machine learning component | |
CN106203296A (zh) | 一种属性辅助的视频动作识别方法 | |
CN110930811B (zh) | 一种适用于无人驾驶决策学习和训练的系统 | |
Esaid et al. | Machine learning-based eco-approach and departure: Real-time trajectory optimization at connected signalized intersections | |
Li et al. | Choose your simulator wisely: A review on open-source simulators for autonomous driving | |
van Orden et al. | End-to-end imitation learning for autonomous vehicle steering on a single-camera stream | |
CN116805444A (zh) | 分布式命名导航行人行车预警方法、系统和装置 | |
CN115202479A (zh) | 人在回路的人机共驾仿真系统及其应用 | |
CN114987495A (zh) | 一种面向高度自动驾驶的人机混合决策方法 | |
Meng | The “Here and Now” of HD Mapping for Connected Autonomous Driving | |
Li et al. | A Simulation System for Human-in-the-Loop Driving | |
Jakovljevic et al. | Implementing multiscale traffic simulators using agents | |
CN109948656A (zh) | 一种信息处理方法、装置及存储介质 | |
Sreedhar et al. | Deep Learning for Hardware-Constrained Driverless Cars | |
CN117151246B (zh) | 智能体决策方法、控制方法、电子设备及存储介质 | |
Huang et al. | Driving safety prediction and safe route mapping using in-vehicle and roadside data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |