CN111652153B - 场景自动识别方法、装置、无人车及存储介质 - Google Patents

场景自动识别方法、装置、无人车及存储介质 Download PDF

Info

Publication number
CN111652153B
CN111652153B CN202010499713.2A CN202010499713A CN111652153B CN 111652153 B CN111652153 B CN 111652153B CN 202010499713 A CN202010499713 A CN 202010499713A CN 111652153 B CN111652153 B CN 111652153B
Authority
CN
China
Prior art keywords
scene
data
classification
unmanned vehicle
granularity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010499713.2A
Other languages
English (en)
Other versions
CN111652153A (zh
Inventor
罗盾
王静
周东毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010499713.2A priority Critical patent/CN111652153B/zh
Publication of CN111652153A publication Critical patent/CN111652153A/zh
Application granted granted Critical
Publication of CN111652153B publication Critical patent/CN111652153B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Abstract

本申请公开了场景自动识别方法、装置、无人车及存储介质,涉及自动驾驶技术领域。本申请中的方法的具体实现方案为:获取无人车的自动驾驶数据;根据预设的识别粒度,对所述自动驾驶数据进行划分,得到场景片段数据;通过场景分类模型对所述场景片段数据进行自动识别,得到场景片段的分类结果;根据所述场景片段的分类结果,进行驾驶控制。本申请可以对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。

Description

场景自动识别方法、装置、无人车及存储介质
技术领域
本申请涉及数据处理技术领域中的自动驾驶技术,尤其涉及一种场景自动识别方法、装置、无人车及存储介质。
背景技术
在无人车行驶过程中,需要根据高精度地图以及感知传感器采集到的自动驾驶数据,进行相应的驾驶控制,以确保无人车的安全驾驶。在无人车出厂之前,需要对无人车的各个功能模块进行测试,而自动驾驶仿真系统是无人车进行测试的重要工具。
现有技术中,当对无人车的碰撞风险进行评估时,需要将包含有人工标记场景分类的自动驾驶数据输入到驾驶仿真系统中,用以预估无人车的碰撞风险。因此,在对无人车进行仿真时,需要使用数量级较大的场景标记数据。
但是,采用人工方式标记场景分类,需要耗费大量的时间,且标记场景分类的数据粒度较粗。这会导致无人车很难根据场景分类结果做出精准的驾驶控制。
发明内容
本申请提供一种场景自动识别方法、装置、无人车及存储介质,可以对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。
第一方面,本申请实施例提供一种场景自动识别方法,所述方法包括:
获取无人车的自动驾驶数据;
根据预设的识别粒度,对所述自动驾驶数据进行划分,得到场景片段数据;
通过场景分类模型对所述场景片段数据进行自动识别,得到场景片段的分类结果;
根据所述场景片段的分类结果,进行驾驶控制。
本实施例中,可以对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。
第二方面,本申请实施例提供一种场景自动识别装置,所述装置包括:
获取模块,用于获取无人车的自动驾驶数据;
划分模块,用于根据预设的识别粒度,对所述自动驾驶数据进行划分,得到场景片段数据;
识别模块,用于通过场景分类模型对所述场景片段数据进行自动识别,得到场景片段的分类结果;
控制模块,用于根据所述场景片段的分类结果,进行驾驶控制。
本实施例中,可以对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。
第三方面,本申请提供一种无人车,包括:处理器和存储器;存储器中存储有所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行如第一方面中任一项所述的场景自动识别方法。
第四方面,本申请提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面中任一项所述的场景自动识别方法。
第五方面,本申请实施例提供一种程序产品,所述程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,服务器的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得服务器执行第一方面中任一所述的场景自动识别方法。
第六方面,本申请提供一种场景自动识别方法,所述方法包括:
获取无人车的自动驾驶数据;
根据预设的识别粒度,对所述自动驾驶数据进行划分,得到场景片段数据;
通过场景分类模型对所述场景片段数据进行自动识别,得到场景片段的分类结果。
本实施例中,可以对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是可以实现本申请实施例的场景自动识别方法的原理示意图;
图2是根据本申请第一实施例的示意图;
图3是根据本申请第二实施例的示意图;
图4是根据本申请第三实施例的示意图;
图5是根据本申请第四实施例的示意图;
图6是用来实现本申请实施例的无人车的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面以具体地实施例对本申请的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
在无人车行驶过程中,需要根据高精度地图以及感知传感器采集到的自动驾驶数据,进行相应的驾驶控制,以确保无人车的安全驾驶。在无人车出厂之前,需要对无人车的各个功能模块进行测试,而自动驾驶仿真系统是无人车进行测试的重要工具。现有技术中,当对无人车的碰撞风险进行评估时,需要将包含有人工标记场景分类的自动驾驶数据输入到驾驶仿真系统中,用以预估无人车的碰撞风险。因此,在对无人车进行仿真时,需要使用数量级较大的场景标记数据。但是,采用人工方式标记场景分类,需要耗费大量的时间,且标记场景分类的数据粒度较粗。这会导致无人车很难根据场景分类结果做出精准的驾驶控制。
针对上述技术问题,本申请旨在提供一种场景自动识别方法、装置、无人车及存储介质,可以对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。本申请提供的方法可以应用于安装有驾驶仿真系统的无人车等。
图1是可以实现本申请实施例的场景自动识别方法的原理示意图,如图1所示,为实现无人车的场景自动识别,首先需要获取无人车本身的状态数据以及环境数据。无人车本身的状态数据包括车辆的位置信息、朝向信息、姿态信息,例如车速等等。环境数据包括通过摄像头拍摄的周围障碍物信息,例如其他车辆的位置等。自动驾驶数据还包括高精度地图中获取到的车道信息、道路信息等等。自动驾驶数据之间可以相互验证,自动驾驶数据越丰富,其对应的分类结果也能够越准确。
然后,可以根据预设的识别粒度,对自动驾驶数据进行划分,得到场景片段数据。例如,若预设识别粒度为0.1秒,则将自动驾驶数据按照0.1秒时长,划分为多个时间片段对应的数据。当自动驾驶数据有10秒时长,则划分为100个场景片段数据,相当进行100次识别。可以建立多个场景分类模型,例如左转识别模型、变道识别模型、右转识别模型。将场景片段数据依次输入到场景分类模型中,输出各个场景片段数据对应的分类结果。这些分类结果用于对无人车的碰撞风险进行评估,得到碰撞风险评估结果。最后,可以根据碰撞风险评估结果,生成驾驶控制决策,进行自动驾驶控制。
应用上述方法克服了采用人工方式标记场景分类,需要耗费大量的时间,且标记场景分类的数据粒度较粗的技术问题,可以对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。
图2是根据本申请第一实施例的示意图,如图2所示,本实施例中的方法可以包括:
S101、获取无人车的自动驾驶数据。
S102、根据预设的识别粒度,对自动驾驶数据进行划分,得到场景片段数据。
S103、通过场景分类模型对场景片段数据进行自动识别,得到场景片段的分类结果。
S104、根据场景片段的分类结果,进行驾驶控制。
本实施例中的方法可以应用在需要大量场景分类数据的领域,例如模型训练,无人车风险碰撞评估,自动驾驶控制等等。首先可以通过无人车上安装的传感器和/或云端获取到的自动驾驶数据,然后根据预设的识别粒度对自动驾驶数据进行划分,得到场景片段数据,最后通过场景分类模型自动对场景片段数据进行识别,得到场景片段数据的分类结果。相较于现有的人工方式标记场景分类,本实施例中的方法可以对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。
上述申请中的一个实施例具有如下优点或有益效果:可以对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。因为采用获取无人车的自动驾驶数据;根据预设的识别粒度,对所述自动驾驶数据进行划分,得到场景片段数据;通过场景分类模型对所述场景片段数据进行自动识别,得到场景片段的分类结果;根据所述场景片段的分类结果,进行驾驶控制的技术手段,所以克服了采用人工方式标记场景分类,需要耗费大量的时间,且标记场景分类的数据粒度较粗的技术问题,通过对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,达到使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制的技术效果。上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
本实施例中,可以根据预设的识别粒度,对自动驾驶数据进行划分,得到场景片段数据。例如,若预设识别粒度为0.1秒,则将自动驾驶数据按照0.1秒时长,划分为多个时间片段对应的数据。当自动驾驶数据有10秒时长,则划分为100个场景片段数据,相当进行100次识别。
示例性的,首先获取无人车的自动驾驶数据,这些自动驾驶数据可以是预先录制的数据,也可以是无人车实时采集到的数据。无人车的自动驾驶数据包括:无人车在高精度地图上的位置信息、无人车的朝向信息、无人车的姿态信息,以及无人车周围的障碍物信息。
在一个实施例中,为实现无人车的场景自动识别,需要获取无人车本身的状态数据以及环境数据。无人车本身的状态数据包括车辆的位置信息、朝向信息、姿态信息,例如车速等等。环境数据包括通过摄像头拍摄的周围障碍物信息,例如其他车辆的位置等。自动驾驶数据还包括高精度地图中获取到的车道信息、道路信息等等。自动驾驶数据之间可以相互验证,自动驾驶数据越丰富,其对应的分类结果也能够越准确。
需要说明的是,本实施例不限定自动驾驶数据的来源,可以通过无人车自身的传感器采集自动驾驶数据,也可以是预先录制好的自动驾驶数据。
示例性的,在根据预设的识别粒度,对自动驾驶数据进行划分,得到场景片段数据之前,还包括:根据无人车的车速,调整预设的识别粒度;识别粒度包括:划分的场景片段数据的时长。
在一个实施例中,在相同时间段内,车辆行驶里程与车速密切相关,即在不同车速情况下场景的切换速度也不同。因此,可以根据车速的不同,设置不同的识别粒度,并根据识别粒度;将自动驾驶数据划分为场景片段数据。例如在限速80km/h的道路,和限速40km/h的道路上行驶时,车速的也不同。在车速为80km/h时,预设识别粒度为0.1秒;在车速为40km/h时,预设识别粒度为0.2秒。从而可以在保证数据粒度的前提下,降低数据的处理量。
在一种可选的实施方式中,可以将场景片段数据依次输入到场景分类模型中,输出各个场景片段数据对应的分类结果。其中,场景分类模型包括:左转识别模型、变道识别模型、右转识别模型;左转识别模型包括:左转被切小弯识别模型、左转遇对向直行车辆识别模型。
具体地,可以建立多个场景分类模型,例如左转识别模型、变道识别模型、右转识别模型,进一步地,还可以细化左转识别模型,例如左转被切小弯(主车在左转时,主车的左侧车道又有车辆同时在左转)识别模型、左转遇对向直行车辆识别模型等等,从而可以使得场景的分类结果更加准确。
在另一种可选的实施方式中,可以分别获取历史时刻的场景片段数据、当前时刻的场景片段数据,以及未来时刻的场景片段数据;将历史时刻的场景片段数据、当前时刻的场景片段数据,以及未来时刻的场景片段数据输入场景分类模型中,输出当前时刻的场景分类结果。
具体地,输入场景分类模型的场景片段数据可以是预先采集或者录制的数据,假设当前时刻为t,历史时刻为t-1,未来时刻为t+1;可以结合历史时刻为t-1,未来时刻为t+1无人车在高精度地图上的位置,以及t时刻的位置,辅助判断t时刻的场景,也可以结合历史时刻为t-1,未来时刻为t+1无人车的场景分类来辅助判断无人车在t时刻的场景分类。从而可以借助历史时刻的场景片段数据和未来时刻的场景片段数据来辅助判断当前时刻的场景分类,使得场景分类的结果更加准确。
示例性的,本实施例的方法可以应用在碰撞风险评估领域。具体地,可以根据场景片段的分类结果,对无人车的碰撞风险进行评估,得到碰撞风险评估结果;根据碰撞风险评估结果,生成驾驶控制决策;基于驾驶控制决策,进行驾驶控制。
本实施例中,通过多个场景分类模型能够对无人车的场景片段数据进行更细粒度的分类,得到精细地场景分类结果。在此基础上,无人车能够对碰撞风险进行精准的评估,从而生成更加有效的驾驶控制决策。对无人车的碰撞风险评估并生成驾驶控制策略是现有技术,此处不再赘述。通过这种方式,可以在风险评估时能够更加准确地预估出无人车的碰撞风险,提高无人车的驾驶安全。
本实施例,通过获取无人车的自动驾驶数据;根据预设的识别粒度,对自动驾驶数据进行划分,得到场景片段数据;通过场景分类模型对场景片段数据进行自动识别,得到场景片段的分类结果;根据场景片段的分类结果,进行驾驶控制。从而克服了采用人工方式标记场景分类,需要耗费大量的时间,且标记场景分类的数据粒度较粗的技术问题,可以对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。
图3是根据本申请第二实施例的示意图,如图3所示,本实施例中的方法可以包括:
S201、构建样本数据集和学习模型,并通过迭代训练得到场景分类模型。
本实施例中,可以根据自动驾驶过程中无人车的驾驶行为,确定场景类别;场景类别包括:左转、变道、右转;构建各个场景类别的样本数据集;其中,样本数据集中包括:已经标注场景分类结果的场景片段数据;基于样本数据集迭代训练学习模型,得到场景分类模型。
具体地,可以根据自动驾驶过程中可能出现的场景,设置对应的场景类别,例如左转、变道、右转等等。对场景类别划分更细,可以通过更加精细的样本数据对学习模型进行训练,使得最终的场景分类模型能够针对特定场景进行更加精准的识别。这种方式,可以灵活细致地建立分类的粒度,提高分类结果的准确性,实现对场景类别的细化。
S202、获取无人车的自动驾驶数据。
S203、根据预设的识别粒度,对自动驾驶数据进行划分,得到场景片段数据。
S204、通过场景分类模型对场景片段数据进行自动识别,得到场景片段的分类结果。
S205、根据场景片段的分类结果,进行驾驶控制。
本实施例中,步骤S202~步骤S205的具体实现过程和技术原理请参见图2所示的方法中步骤S101~步骤S104中的相关描述,此处不再赘述。
本实施例,通过获取无人车的自动驾驶数据;根据预设的识别粒度,对自动驾驶数据进行划分,得到场景片段数据;通过场景分类模型对场景片段数据进行自动识别,得到场景片段的分类结果;根据场景片段的分类结果,进行驾驶控制。从而克服了采用人工方式标记场景分类,需要耗费大量的时间,且标记场景分类的数据粒度较粗的技术问题,可以对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。
另外,本实施例还可以根据自动驾驶过程中无人车的驾驶行为,确定场景类别;场景类别包括:左转、变道、右转;构建各个场景类别的样本数据集;其中,样本数据集中包括:已经标注场景分类结果的场景片段数据;基于样本数据集迭代训练学习模型,得到场景分类模型。从而对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。
图4是根据本申请第三实施例的示意图;如图4所示,本实施例中的装置可以包括:
获取模块31,用于获取无人车的自动驾驶数据;
划分模块32,用于根据预设的识别粒度,对自动驾驶数据进行划分,得到场景片段数据;
识别模块33,用于通过场景分类模型对场景片段数据进行自动识别,得到场景片段的分类结果;
控制模块34,用于根据场景片段的分类结果,进行驾驶控制。
本实施例中,可以对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。
在一种可能的设计中,自动驾驶数据,包括:获取无人车在高精度地图上的位置信息、无人车的朝向信息、无人车的姿态信息,以及无人车周围的障碍物信息。
本实施例中,可以通过无人车自身的传感器采集自动驾驶数据,也可以是预先录制好的自动驾驶数据。自动驾驶数据越丰富,其对应的分类结果也能够越准确。
在一种可能的设计中,识别模块33,具体用于:
将场景片段数据依次输入到场景分类模型中,输出各个场景片段数据对应的分类结果;其中,场景分类模型包括:左转识别模型、变道识别模型、右转识别模型;左转识别模型包括:左转被切小弯识别模型、左转遇对向直行车辆识别模型。
本实施例中,可以建立多个场景分类模型,例如左转识别模型、变道识别模型、右转识别模型,进一步地,还可以细化左转识别模型,例如左转被切小弯识别模型、左转遇对向直行车辆识别模型等等,从而可以使得场景的分类结果更加准确。
在一种可能的设计中,识别模块33,具体用于:
分别获取历史时刻的场景片段数据、当前时刻的场景片段数据,以及未来时刻的场景片段数据;
将历史时刻的场景片段数据、当前时刻的场景片段数据,以及未来时刻的场景片段数据输入场景分类模型中,输出当前时刻的场景分类结果。
本实施例中,输入场景分类模型的场景片段数据是预先采集或者录制的数据,假设当前时刻为t,历史时刻为t-1,未来时刻为t+1;可以结合历史时刻为t-1,未来时刻为t+1无人车在高精度地图上的位置,以及t时刻的位置,辅助判断t时刻的场景,也可以结合历史时刻为t-1,未来时刻为t+1无人车的场景分类来辅助判断无人车在t时刻的场景分类。从而可以借助历史时刻的场景片段数据和未来时刻的场景片段数据来辅助判断当前时刻的场景分类,使得场景分类的结果更加准确。
在一种可能的设计中,控制模块34,具体用于:
根据场景片段的分类结果,对无人车的碰撞风险进行评估,得到碰撞风险评估结果;
根据碰撞风险评估结果,生成驾驶控制决策;
基于驾驶控制决策,进行驾驶控制。
本实施例中,可以对无人车的场景片段数据进行更细粒度的分类,得到精细地场景分类结果,从而使得风险评估时,能够更加准确地预估出无人车的碰撞风险,提高无人车的驾驶安全。
本实施例的场景自动识别装置,可以执行图2所示方法中的技术方案,其具体实现过程和技术原理参见图2所示方法中的相关描述,此处不再赘述。
本实施例,通过获取无人车的自动驾驶数据;根据预设的识别粒度,对自动驾驶数据进行划分,得到场景片段数据;通过场景分类模型对场景片段数据进行自动识别,得到场景片段的分类结果;根据场景片段的分类结果,进行驾驶控制。从而克服了采用人工方式标记场景分类,需要耗费大量的时间,且标记场景分类的数据粒度较粗的技术问题,可以对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。
图5是根据本申请第四实施例的示意图;如图5所示,本实施例中的装置在图4所示装置的基础上,还可以包括:
调整模块35,用于:
根据无人车的车速,调整预设的识别粒度;识别粒度包括:划分的场景片段数据的时长。
本实施例中,可以根据车速的不同,设置不同的识别粒度,并根据识别粒度;将自动驾驶数据划分为场景片段数据。例如在限速80km/h的道路,和限速40km/h的道路上行驶时,设置不同的时间粒度。从而可以在保证数据粒度的前提下,降低数据的处理量。
在一种可能的设计中,还包括:确定模块36,用于:
根据自动驾驶过程中无人车的驾驶行为,确定场景类别;场景类别包括:左转、变道、右转;
构建各个场景类别的样本数据集;其中,样本数据集中包括:已经标注场景分类结果的场景片段数据;
基于样本数据集迭代训练学习模型,得到场景分类模型。
本实施例中,可以根据自动驾驶过程中可能出现的场景,设置对应的场景类别,例如左转、变道、右转等等。从而可以灵活细致地建立分类的粒度,提高分类结果的准确性,实现对场景类别的细化。
本实施例的场景自动识别装置,可以执行图2、图3所示方法中的技术方案,其具体实现过程和技术原理参见图2、图3所示方法中的相关描述,此处不再赘述。
本实施例,通过获取无人车的自动驾驶数据;根据预设的识别粒度,对自动驾驶数据进行划分,得到场景片段数据;通过场景分类模型对场景片段数据进行自动识别,得到场景片段的分类结果;根据场景片段的分类结果,进行驾驶控制。从而克服了采用人工方式标记场景分类,需要耗费大量的时间,且标记场景分类的数据粒度较粗的技术问题,可以对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。
另外,本实施例还可以根据自动驾驶过程中无人车的驾驶行为,确定场景类别;场景类别包括:左转、变道、右转;构建各个场景类别的样本数据集;其中,样本数据集中包括:已经标注场景分类结果的场景片段数据;基于样本数据集迭代训练学习模型,得到场景分类模型。从而对自动驾驶数据进行更细粒度的分类,提高分类的效率和准确性,进而使得无人车能够基于场景片段的分类结果,做出更加精准的驾驶控制。
图6是用来实现本申请实施例的无人车的框图;如图6所示,是根据本申请实施例的图6无人车的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该无人车包括:一个或多个处理器501、存储器502,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器501为例。
存储器502即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的图6无人车的场景自动识别方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的图6场景自动识别方法。
存储器502作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的图6场景自动识别方法对应的程序指令/模块。处理器501通过运行存储在存储器502中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的图6场景自动识别方法。
存储器502可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据图6无人车的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器502可选包括相对于处理器501远程设置的存储器,这些远程存储器可以通过网络连接至图6无人车。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
图6无人车还可以包括:输入装置503和输出装置504。处理器501、存储器502、输入装置503和输出装置504可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置503可接收输入的数字或字符信息,以及产生与图6无人车的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置504可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、GPU(图形处理器)、FPGA(现场可编程门阵列)设备、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (10)

1.一种场景自动识别方法,其特征在于,所述方法包括:
获取无人车的自动驾驶数据;
根据预设的识别粒度,对所述自动驾驶数据进行划分,得到场景片段数据;
通过场景分类模型对所述场景片段数据进行自动识别,得到场景片段的分类结果,所述场景分类模型包括不同粒度下的多个识别模型;
根据所述场景片段的分类结果,进行驾驶控制;
在根据预设的识别粒度,对所述自动驾驶数据进行划分,得到场景片段数据之前,还包括:
根据无人车的车速,调整所述预设的识别粒度;所述识别粒度包括:划分的场景片段数据的时长。
2.根据权利要求1所述的方法,其特征在于,在通过场景分类模型对所述场景片段数据进行自动识别,得到场景片段的分类结果之前,还包括:
根据自动驾驶过程中无人车的驾驶行为,确定场景类别;所述场景类别包括:左转、变道、右转;
构建各个场景类别的样本数据集;其中,所述样本数据集中包括:已经标注场景分类结果的场景片段数据;
基于所述样本数据集迭代训练学习模型,得到所述场景分类模型。
3.根据权利要求1所述的方法,其特征在于,所述自动驾驶数据,包括:获取无人车在高精度地图上的位置信息、无人车的朝向信息、无人车的姿态信息,以及无人车周围的障碍物信息。
4.根据权利要求1-3中任一项所述的方法,其特征在于,所述通过场景分类模型对所述场景片段数据进行自动识别,得到场景片段的分类结果,包括:
将所述场景片段数据依次输入到所述场景分类模型中,输出各个所述场景片段数据对应的分类结果;其中,所述场景分类模型包括:左转识别模型、变道识别模型、右转识别模型;所述左转识别模型包括:左转被切小弯识别模型、左转遇对向直行车辆识别模型。
5.根据权利要求1-3中任一项所述的方法,其特征在于,所述通过场景分类模型对所述场景片段数据进行自动识别,得到场景片段的分类结果,包括:
分别获取历史时刻的场景片段数据、当前时刻的场景片段数据,以及未来时刻的场景片段数据;
将所述历史时刻的场景片段数据、所述当前时刻的场景片段数据,以及所述未来时刻的场景片段数据输入所述场景分类模型中,输出所述当前时刻的场景分类结果。
6.根据权利要求1-3中任一项所述的方法,其特征在于,所述根据所述场景片段的分类结果,进行驾驶控制,包括:
根据所述场景片段的分类结果,对所述无人车的碰撞风险进行评估,得到碰撞风险评估结果;
根据所述碰撞风险评估结果,生成驾驶控制决策;
基于所述驾驶控制决策,进行驾驶控制。
7.一种场景自动识别装置,其特征在于,所述装置包括:
获取模块,用于获取无人车的自动驾驶数据;
划分模块,用于根据预设的识别粒度,对所述自动驾驶数据进行划分,得到场景片段数据;
识别模块,用于通过场景分类模型对所述场景片段数据进行自动识别,得到场景片段的分类结果,所述场景分类模型包括不同粒度下的多个识别模型;
控制模块,用于根据所述场景片段的分类结果,进行驾驶控制;
所述装置还包括:调整模块,
所述调整模块,用于根据无人车的车速,调整预设的识别粒度;识别粒度包括:划分的场景片段数据的时长。
8.一种无人车,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的方法。
9.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的方法。
10.一种场景自动识别方法,其特征在于,所述方法包括:
获取无人车的自动驾驶数据;
根据预设的识别粒度,对所述自动驾驶数据进行划分,得到场景片段数据;
通过场景分类模型对所述场景片段数据进行自动识别,得到场景片段的分类结果,所述场景分类模型包括不同粒度下的多个识别模型;
在根据预设的识别粒度,对所述自动驾驶数据进行划分,得到场景片段数据之前,还包括:
根据无人车的车速,调整所述预设的识别粒度;所述识别粒度包括:划分的场景片段数据的时长。
CN202010499713.2A 2020-06-04 2020-06-04 场景自动识别方法、装置、无人车及存储介质 Active CN111652153B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010499713.2A CN111652153B (zh) 2020-06-04 2020-06-04 场景自动识别方法、装置、无人车及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010499713.2A CN111652153B (zh) 2020-06-04 2020-06-04 场景自动识别方法、装置、无人车及存储介质

Publications (2)

Publication Number Publication Date
CN111652153A CN111652153A (zh) 2020-09-11
CN111652153B true CN111652153B (zh) 2023-12-22

Family

ID=72344673

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010499713.2A Active CN111652153B (zh) 2020-06-04 2020-06-04 场景自动识别方法、装置、无人车及存储介质

Country Status (1)

Country Link
CN (1) CN111652153B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112396093B (zh) * 2020-10-29 2022-10-14 中国汽车技术研究中心有限公司 驾驶场景分类方法、装置、设备及可读存储介质
CN113119999B (zh) * 2021-04-16 2024-03-12 阿波罗智联(北京)科技有限公司 自动驾驶特征的确定方法、装置、设备、介质及程序产品
CN114771576A (zh) * 2022-05-19 2022-07-22 北京百度网讯科技有限公司 行为数据处理方法、自动驾驶车辆的控制方法及自动驾驶车辆
CN114997748A (zh) * 2022-08-01 2022-09-02 中通客车股份有限公司 基于模型融合的新能源汽车运行安全风险预测方法及系统

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103256939A (zh) * 2013-04-15 2013-08-21 李德毅 智能车辆利用变粒度路权雷达图进行信息融合的方法
CN108447291A (zh) * 2018-04-03 2018-08-24 南京锦和佳鑫信息科技有限公司 一种智能道路设施系统及控制方法
CN108921200A (zh) * 2018-06-11 2018-11-30 百度在线网络技术(北京)有限公司 用于对驾驶场景数据进行分类的方法、装置、设备和介质
CN109429507A (zh) * 2017-06-19 2019-03-05 北京嘀嘀无限科技发展有限公司 用于在地图上显示车辆运动的系统和方法
CN109520744A (zh) * 2018-11-12 2019-03-26 百度在线网络技术(北京)有限公司 自动驾驶车辆的驾驶性能测试方法和装置
CN109782754A (zh) * 2018-12-25 2019-05-21 东软睿驰汽车技术(沈阳)有限公司 一种车辆控制方法及装置
CN110084137A (zh) * 2019-04-04 2019-08-02 百度在线网络技术(北京)有限公司 基于驾驶场景的数据处理方法、装置和计算机设备
CN110083110A (zh) * 2019-01-23 2019-08-02 艾肯特公司 基于自然智能的端到端控制方法和控制系统
CN110378483A (zh) * 2018-04-12 2019-10-25 百度(美国)有限责任公司 部署在模拟平台上的用于训练机器学习模型的系统和方法
CN110392336A (zh) * 2018-04-20 2019-10-29 丰田自动车株式会社 用于协同感知的多级混合车辆到一切通信
CN110579216A (zh) * 2019-09-12 2019-12-17 百度在线网络技术(北京)有限公司 测试场景库构建方法、装置、电子设备和介质
CN110689642A (zh) * 2019-09-18 2020-01-14 山东大学 基于车载obd数据及概率统计的异常驾驶判别方法及系统
CN110738856A (zh) * 2019-11-12 2020-01-31 中南大学 一种基于移动聚类的城市交通拥堵精细识别方法
CN110843794A (zh) * 2020-01-15 2020-02-28 北京三快在线科技有限公司 驾驶场景理解方法、装置和轨迹规划方法、装置
CN111122175A (zh) * 2020-01-02 2020-05-08 北京百度网讯科技有限公司 测试自动驾驶系统的方法以及装置
CN111133398A (zh) * 2017-09-22 2020-05-08 伟摩有限责任公司 使用雷达技术检测自动驾驶车辆的运动
CN111161555A (zh) * 2018-11-07 2020-05-15 北京嘀嘀无限科技发展有限公司 一种信息搜集方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPS123702A0 (en) * 2002-03-22 2002-04-18 Nahla, Ibrahim S. Mr The train navigtion and control system (TNCS) for multiple tracks
US10347122B2 (en) * 2016-07-12 2019-07-09 Denson Corporation Road condition monitoring system
KR20190104016A (ko) * 2019-08-16 2019-09-05 엘지전자 주식회사 무인 항공 시스템에서 무인 항공 로봇의 움직임을 제어한 촬영 방법 및 이를 지원하기 위한 장치
KR20200003355A (ko) * 2019-12-16 2020-01-09 엘지전자 주식회사 전자 장치 및 그의 동작 방법

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103256939A (zh) * 2013-04-15 2013-08-21 李德毅 智能车辆利用变粒度路权雷达图进行信息融合的方法
CN109429507A (zh) * 2017-06-19 2019-03-05 北京嘀嘀无限科技发展有限公司 用于在地图上显示车辆运动的系统和方法
CN111133398A (zh) * 2017-09-22 2020-05-08 伟摩有限责任公司 使用雷达技术检测自动驾驶车辆的运动
CN108447291A (zh) * 2018-04-03 2018-08-24 南京锦和佳鑫信息科技有限公司 一种智能道路设施系统及控制方法
CN110378483A (zh) * 2018-04-12 2019-10-25 百度(美国)有限责任公司 部署在模拟平台上的用于训练机器学习模型的系统和方法
CN110392336A (zh) * 2018-04-20 2019-10-29 丰田自动车株式会社 用于协同感知的多级混合车辆到一切通信
CN108921200A (zh) * 2018-06-11 2018-11-30 百度在线网络技术(北京)有限公司 用于对驾驶场景数据进行分类的方法、装置、设备和介质
CN111161555A (zh) * 2018-11-07 2020-05-15 北京嘀嘀无限科技发展有限公司 一种信息搜集方法及系统
CN109520744A (zh) * 2018-11-12 2019-03-26 百度在线网络技术(北京)有限公司 自动驾驶车辆的驾驶性能测试方法和装置
CN109782754A (zh) * 2018-12-25 2019-05-21 东软睿驰汽车技术(沈阳)有限公司 一种车辆控制方法及装置
CN110083110A (zh) * 2019-01-23 2019-08-02 艾肯特公司 基于自然智能的端到端控制方法和控制系统
CN110084137A (zh) * 2019-04-04 2019-08-02 百度在线网络技术(北京)有限公司 基于驾驶场景的数据处理方法、装置和计算机设备
CN110579216A (zh) * 2019-09-12 2019-12-17 百度在线网络技术(北京)有限公司 测试场景库构建方法、装置、电子设备和介质
CN110689642A (zh) * 2019-09-18 2020-01-14 山东大学 基于车载obd数据及概率统计的异常驾驶判别方法及系统
CN110738856A (zh) * 2019-11-12 2020-01-31 中南大学 一种基于移动聚类的城市交通拥堵精细识别方法
CN111122175A (zh) * 2020-01-02 2020-05-08 北京百度网讯科技有限公司 测试自动驾驶系统的方法以及装置
CN110843794A (zh) * 2020-01-15 2020-02-28 北京三快在线科技有限公司 驾驶场景理解方法、装置和轨迹规划方法、装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Detecting Driver Drowsiness in Real Time Through Deep Learning Based Object Detection;Muhammad Faique Shakeel 等;《Advances in Computational Intelligence 》;283-296 *
城市道路交通状态预测系统设计与实现;宓恬;《中国公共安全》;155-161 *
基于VANETs与智能感知的交通信息系统关键技术研究;刘帮;《中国博士论文全文数据库 工程科技II辑》;C034-14 *
基于云模型的智能驾驶车辆变粒度测评研究;高洪波 等;《电子学报》;第42卷(第02期);365-373 *
基于自然语言理解的车辆行驶指令抽取;袁树明;《中国优秀硕士学位论文全文数据库 信息科技辑》;I138-1009 *
面向智能终端的交通模式识别技术研究与实现;李少雄;《中国优秀硕士学位论文全文数据库 工程科技II辑》;C034-1057 *

Also Published As

Publication number Publication date
CN111652153A (zh) 2020-09-11

Similar Documents

Publication Publication Date Title
CN111652153B (zh) 场景自动识别方法、装置、无人车及存储介质
CN108921200B (zh) 用于对驾驶场景数据进行分类的方法、装置、设备和介质
CN111273268B (zh) 自动驾驶障碍物类型的识别方法、装置及电子设备
CN111854771B (zh) 地图质量的检测处理方法、装置、电子设备和存储介质
US11529971B2 (en) Method and apparatus for autonomous driving control, electronic device, and storage medium
CN111324945B (zh) 传感器方案确定方法、装置、设备及存储介质
US20210237717A1 (en) Method for controlling vehicle, and vehicle
CN114415628A (zh) 自动驾驶测试方法及装置、电子设备和存储介质
CN110717933B (zh) 针对运动物体漏检的后处理方法、装置、设备和介质
CN112507949A (zh) 目标跟踪方法、装置、路侧设备以及云控平台
CN111402326B (zh) 障碍物的检测方法、装置、无人车及存储介质
CN113091757B (zh) 地图生成方法和装置
CN113591573A (zh) 多任务学习深度网络模型的训练及目标检测方法、装置
CN111523515A (zh) 自动驾驶车辆环境认知能力评价方法、设备及存储介质
CN110866504B (zh) 标注数据的获取方法、装置和设备
CN112147632A (zh) 车载激光雷达感知算法的测试方法、装置、设备和介质
CN111539347B (zh) 用于检测目标的方法和装置
CN112749701B (zh) 车牌污损分类模型的生成方法和车牌污损分类方法
CN116894317A (zh) 数据处理方法、装置、电子设备和介质
CN111597987B (zh) 用于生成信息的方法、装置、设备和存储介质
CN111553283B (zh) 用于生成模型的方法及装置
CN111563046B (zh) 用于生成信息的方法和装置
CN113221602B (zh) 道路路面状况确定方法、装置、设备和介质
CN112965917A (zh) 用于自动驾驶的测试方法、装置、设备和存储介质
CN111753960A (zh) 模型训练及图像处理方法、装置、电子设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant