CN110796007A - 场景识别的方法与计算设备 - Google Patents
场景识别的方法与计算设备 Download PDFInfo
- Publication number
- CN110796007A CN110796007A CN201910927376.XA CN201910927376A CN110796007A CN 110796007 A CN110796007 A CN 110796007A CN 201910927376 A CN201910927376 A CN 201910927376A CN 110796007 A CN110796007 A CN 110796007A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- state
- determining
- subsequence
- state sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Abstract
本申请提供了一种场景识别的方法,使用根据目标场景确定的识别规则检测由车辆的行驶数据确定的状态序列,从而根据检测结果,确定行驶数据对应的驾驶场景中是否包括目标场景,为根据车辆的行驶数据自动识别驾驶场景提供了一种解决方案。
Description
技术领域
本申请涉及自动驾驶领域,并且更具体地,涉及场景识别的方法与计算设备。
背景技术
随着社会对驾驶的智能性、经济性、安全性等各方面需求的提升,自动驾驶技术成为汽车工业的重点发展方向之一,越来越受到互联网公司的重视。
目前,业界通常采用仿真测试方法来验证自动驾驶系统的功能,通过采用仿真软件,将真实交通环境以仿真的形式在仿真软件中生成或复现,从而测试自动驾驶系统能否正确地识别周边环境,以及能否针对周边环境做出及时准确的反映并采取恰当的驾驶行为。
在仿真软件中搭建仿真场景所需的数据由高精度地图数据以及仿真交通流数据构成,其中,高精度地图数据提供道路、静态交通信息(例如,红绿灯、路标等)、静态物体模型(例如,建筑物、树木)等信息,仿真交通流数据提供动态交通流(例如,车辆、行人等交通参与者)信息。仿真软件通过加载运行这些信息,实现真实世界投影到虚拟世界的功能,把自动驾驶中的真实场景复制到仿真软件中。
真实的车辆的行驶数据以及车辆的行驶数据相关的道路信息是搭建仿真场景所需的数据的主要来源之一,通过将车辆的行驶数据相关的道路信息(例如,车道线信息、交通标志信息、红路灯信息、静态物体信息)还原成高精度地图数据,将车辆的行驶数据还原成仿真交通流数据,从而将车辆的行驶数据、车辆的行驶数据相关的道路信息还原成搭建仿真场景所需的数据。在此之前,首先需要进行驾驶场景的识别。
发明内容
本申请提供一种场景识别的方法、计算设备,能够根据车辆的行驶数据自动识别驾驶场景。
第一方面,提供了一种场景识别的方法,包括:根据车辆的行驶数据,确定第一状态序列,所述第一状态序列表示所述车辆在不同时刻的第一状态;使用识别规则检测所述第一状态序列,所述识别规则是根据目标场景确定的;根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景。
基于上述技术方案,通过在车辆的行驶数据中获取第一状态序列,并使用根据待识别的目标场景确定的识别规则检测该第一状态序列,最终根据检测结果,确定行驶数据对应的驾驶场景中是否包括目标场景,从而实现根据车辆的行驶数据自动识别驾驶场景的目的。
在一种可能的实现方式中,所述根据车辆的行驶数据,确定第一状态序列,包括:根据车辆的行驶数据与所述目标场景,确定所述第一状态序列。
基于上述技术方案,通过根据车辆的行驶数据与待识别的目标场景这两个因素确定第一状态序列,使得确定的第一状态序列能够与目标场景更加匹配,从而提高根据第一状态序列识别目标场景的效率。
在一种可能的实现方式中,所述根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景,包括:如果所述第一状态序列中包括第一子序列,则确定所述行驶数据对应的驾驶场景中包括所述目标场景,所述第一子序列为满足所述识别规则的子序列;或,如果所述第一状态序列中不包括第一子序列,则确定所述行驶数据对应的驾驶场景中不包括所述目标场景,所述第一子序列为满足所述识别规则的子序列。
基于上述技术方案,通过根据识别规则确定第一子序列,从而通过检测第一状态序列中是否包括第一子序列来确定第一状态序列是否满足识别规则,从而确定行驶数据对应的驾驶场景中是否包括目标场景,进而实现根据车辆的行驶数据自动识别驾驶场景。
在一种可能的实现方式中,所述根据车辆的行驶数据与所述目标场景,确定所述第一状态序列,包括:根据所述车辆的行驶数据与所述目标场景,确定第二状态序列与第三状态序列,所述第二状态序列表示所述车辆在不同时刻的第二状态,所述第三状态序列表示所述车辆在不同时刻的第三状态;根据所述第二状态序列与所述第三状态序列,生成所述第一状态序列。
基于上述技术方案,对于某些较复杂目标场景,可以首先确定至少两个状态序列(例如,第二状态序列与第三状态序列),再根据该至少两个状态序列生成第一状态序列,即,通过根据至少两个状态序列生成第一状态序列,对第一状态序列使用识别规则进行检测,以确定行驶数据对应的驾驶场景中是否包括目标场景,从而实现对较复杂目标场景的识别。
应理解,在具体实现时,第二状态序列与第三状态序列可以是描述不同信息的状态序列,例如,目标场景为红绿灯路口左转场景,第二状态序列可以描述车辆在不同时刻是否在红绿灯路口内,第三状态序列可以描述车辆在不同时刻的转向状态。
在一种可能的实现方式中,所述第一状态序列为m×n大小的矩阵,所述矩阵中第i行第j列的元素表示索引为i的车辆在时刻j的第一状态,m为大于或等于1的整数,n为大于或等于2的整数,i为大于或等于1,且小于m的整数,j为大于或等于1,且小于n的整数。
在一种可能的实现方式中,所述行驶数据对应的驾驶场景中包括所述目标场景,所述方法还包括:根据所述第一子序列对应的时刻,在第四状态序列中确定第二子序列,所述第四状态序列表示所述车辆的关联状态,所述第四状态序列是根据所述车辆的行驶数据确定的;根据所述第二子序列,确定所述目标场景的复杂度。
在一种可能的实现方式中,所述根据所述第二子序列,确定所述目标场景的复杂度,包括:根据所述第二子序列,确定所述车辆的关联状态的复杂度;对所述车辆的关联状态的复杂度进行加权运算,确定所述目标场景的复杂度。
在一种可能的实现方式中,所述方法还包括:根据所述第一子序列对应的时刻,在第五状态序列中确定第三子序列,所述第五状态序列表示所述车辆在不同时刻的位置信息,所述第五状态序列是根据所述车辆的行驶数据确定的;所述根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景,包括:根据所述检测结果与所述第三子序列,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景。
基于上述技术方案,为了进一步提高场景识别的准确程度,可以获取车辆在不同时刻的位置信息(即,第三子序列的一例),根据车辆在不同时刻的位置信息以及路网拓扑信息,确定车辆在不同时刻所处的道路,车道以及交叉路口中的至少一项,最终根据前面得到的检测结果与车辆在不同时刻所处的道路,车道以及交叉路口中的至少一项综合确定行驶数据对应的驾驶场景中是否包括目标场景,从而提高场景识别的准确程度。
第二方面,本申请提供一种计算设备,包括:确定模块,用于根据车辆的行驶数据,确定第一状态序列,所述第一状态序列表示所述车辆在不同时刻的第一状态;处理模块,用于使用识别规则检测所述第一状态序列,所述识别规则是根据目标场景确定的;所述确定模块,还用于根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景。
在一种可能的实现方式中,当根据车辆的行驶数据,确定第一状态序列时,所述确定模块具体用于:根据车辆的行驶数据与所述目标场景,确定所述第一状态序列。
在一种可能的实现方式中,当根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景时,所述确定模块具体用于:如果所述第一状态序列中包括第一子序列,则确定所述行驶数据对应的驾驶场景中包括所述目标场景,所述第一子序列为满足所述识别规则的子序列;或,如果所述第一状态序列中不包括第一子序列,则确定所述行驶数据对应的驾驶场景中不包括所述目标场景,所述第一子序列为满足所述识别规则的子序列。
在一种可能的实现方式中,当根据车辆的行驶数据与所述目标场景,确定所述第一状态序列时,所述确定模块具体用于:根据所述车辆的行驶数据与所述目标场景,确定第二状态序列与第三状态序列,所述第二状态序列表示所述车辆在不同时刻的第二状态,所述第三状态序列表示所述车辆在不同时刻的第三状态;根据所述第二状态序列与所述第三状态序列,生成所述第一状态序列。
在一种可能的实现方式中,所述第一状态序列为m×n大小的矩阵,所述矩阵中第i行第j列的元素表示索引为i的车辆在时刻j的第一状态,m为大于或等于1的整数,n为大于或等于2的整数,i为大于或等于1,且小于m的整数,j为大于或等于1,且小于n的整数。
在一种可能的实现方式中,当所述行驶数据对应的驾驶场景中包括所述目标场景时,所述确定模块还用于:根据所述第一子序列对应的时刻,在第四状态序列中确定第二子序列,所述第四状态序列表示所述车辆的关联状态,所述第四状态序列是根据所述车辆的行驶数据确定的;根据所述第二子序列,确定所述目标场景的复杂度。
在一种可能的实现方式中,当根据所述第二子序列,确定所述目标场景的复杂度时,所述确定模块具体用于:根据所述第二子序列,确定所述车辆的关联状态的复杂度;对所述车辆的关联状态的复杂度进行加权运算,确定所述目标场景的复杂度。
在一种可能的实现方式中,所述确定模块还用于:根据所述第一子序列对应的时刻,在第五状态序列中确定第三子序列,所述第五状态序列表示所述车辆在不同时刻的位置信息,所述第五状态序列是根据所述车辆的行驶数据确定的;当根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景时,所述确定模块具体用于:根据所述检测结果与所述第三子序列,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景。
第三方面,提供了一种计算设备,所述计算设备包括处理器和存储器,所述存储器用于存储计算机执行指令,所述计算设备运行时,所述处理器执行所述存储器中的计算机执行指令以通过计算设备执行如第一方面及第一方面中任一种可能的实现方式中的方法步骤。
第四方面,提供了一种非瞬态的可读存储介质,包括程序指令,当所述程序指令被计算设备运行时,所述计算设备执行如第一方面及第一方面中任一种可能的实现方式中的方法。
第五方面,提供了一种计算机程序产品,包括程序指令,当所述程序指令被计算设备运行时,所述计算设备执行如第一方面及第一方面中任一种可能的实现方式中的方法。
本申请在上述各方面提供的实现方式的基础上,还可以进行进一步组合以提供更多实现方式。
附图说明
图1是本申请实施例提供的场景识别系统的示意性框图;
图2是本申请实施例提供的场景识别的方法的示意性流程图;
图3是场景#2中车辆的形式路线示意图;
图4是场景#4中车辆的形式路线示意图;
图5是本申请实施例提供的一种计算设备500的结构性示意图;
图6是本申请实施例提供的一种计算设备600的结构性示意图。
具体实施方式
下面将结合附图,对本申请中的技术方案进行描述。
目前,业界通常采用仿真测试方法来验证自动驾驶系统的功能,通过采用仿真软件,将真实交通环境以仿真的形式在仿真软件中生成或复现,从而测试自动驾驶系统能否正确地识别周边环境,以及能否针对周边环境做出及时准确的反映并采取恰当的驾驶行为。
在仿真软件中搭建仿真场景所需的数据由高精度地图数据以及仿真交通流数据构成,其中,高精度地图数据提供道路、静态交通信息(例如,红绿灯、路标等)、静态物体模型(例如,建筑物、树木)等信息,仿真交通流数据提供动态交通流(例如,车辆、行人等交通参与者)信息。仿真软件通过加载运行这些信息,实现真实世界投影到虚拟世界的功能,把自动驾驶中的真实场景复制到仿真软件中。
真实的车辆的行驶数据以及车辆的行驶数据相关的道路信息是搭建仿真场景所需的数据的主要来源之一,通过将车辆的行驶数据相关的道路信息(例如,车道线信息、交通标志信息、红路灯信息、静态物体信息)还原成高精度地图数据,将车辆的行驶数据还原成仿真交通流数据,从而将车辆的行驶数据、车辆的行驶数据相关的道路信息还原成搭建仿真场景所需的数据。
由于自动驾驶系统的功能与驾驶场景是对应的,在验证自动驾驶系统的功能时需要使用对应的驾驶场景,例如,自动驾驶系统提供了自动制动系统(Autonomous EmergencyBraking,AEB)功能,在对该功能进行验证时,则需要在AEB场景下验证该功能。因此,可以看出,在将车辆的行驶数据、车辆的行驶数据相关的道路信息还原成搭建仿真场景所需的数据之前,首先需要进行驾驶场景的识别,以便根据与识别出的驾驶场景相关联的车辆的行驶数据、车辆的行驶数据相关的道路信息搭建仿真场景,从而在仿真软件中对该仿真场景下的自动驾驶系统的功能进行验证。
目前,已知一种场景识别的方法,该方法通过采集路采数据,对采集到的数据进行分析,采用半自动标注的方式识别场景。例如,大部分场景需要人工观察视频数据才能被识别,无法全自动化地实现驾驶场景的识别。此处以及下文中出现的视频数据可以是指车辆上安装的摄像头在车辆行驶过程中获取的视频数据。
因此,本申请提供了一种场景识别的方法,能够根据车辆的行驶数据自动识别驾驶场景。下面结合图1至图4,对本申请提供的场景识别的方法进行详细描述。
图1是本申请提供的场景识别系统100的示意性框图。系统100可以包括采集设备101与计算设备102。
采集设备101主要负责采集功能,在具体实现时,采集设备101可以为车辆或者城市交通监控设备,此处的车辆可以是搭载有自动驾驶系统的车辆。以下将车辆行驶过程中获取到的数据称为路采数据,将城市交通监控设备获取到的道路交通数据称为城市交通流监控数据。
其中,车辆上可以安装各式各样的传感器。本申请对安装在车辆上的传感器不作具体限定,可以包括但不限于:若干个摄像头、至少一个雷达(radar)、至少一个定位系统、至少一个惯性测量单元(inertial measurement unit,IMU)。
其中,若干个摄像头可以分别部署在车辆的四周,并对车辆周围的环境参数进行采集。例如,车辆的前后保险杠、侧视镜、挡风玻璃上可以分别安装至少一个摄像头。
雷达可以包括超声波雷达、激光雷达与毫米波雷达中的至少一种,雷达可以测量出车辆的距离和速度等参数信息。雷达还可以利用无线电信号来感测车辆的周边环境内的物体。可选的,在一些实施例中,除了感测物体以外,雷达还可用于感测物体的前进方向。
定位系统可以是全球定位系统(global positioning system,GPS)、北斗系统或者其他定位系统,用于接收卫星信号,并对车辆当前的位置进行定位。
IMU可以基于惯性加速度来感测车辆的位置和朝向变化。可选的,在一个实施例中,IMU可以是加速度计和陀螺仪的组合,用于测量车辆的角速度、加速度。
采集设备101与计算设备102之间可以通过网络或者存储介质进行通信,例如,采集设备101可以通过网络或者存储介质等传输方式将路采数据和/或城市交通流监控数据传输至计算设备102,计算设备102根据路采数据和/或城市交通流监控数据,对驾驶场景进行识别。
其中,路采数据可以包括但不限于:摄像头、毫米波雷达、激光雷达、超声波雷达、GPS、IMU等传感器数据、高精度地图数据、算法输出数据、车与任何事物通信(vehicle-to-everything,V2X)数据与车控数据等所有可以采集到的数据;城市交通流监控数据可以包括但不限于:交通流中的车辆轨迹信息与车辆信息等。
图2是本申请提供的一种场景识别的方法的示意性流程图,该方法包括步骤210-230,下面对步骤210-230进行详细描述。
步骤210,根据车辆的行驶数据,确定状态序列#1(即,第一状态序列的一例),状态序列#1表示车辆在不同时刻的状态#1(即,第一状态的一例)。此处的车辆的行驶数据可以为路采数据和/或城市交通流监控数据。
计算设备102获取到车辆的行驶数据后,可以根据车辆的行驶数据,确定车辆在不同时刻的状态#1,例如,状态#1可以是车辆的行驶速度,车辆在不同时刻的行驶速度构成了状态序列#1。其中,车辆的行驶数据可以包括车辆上的定位系统获取的车辆的定位信息,计算设备102可以根据车辆的定位信息,计算得到车辆的行驶速度。
步骤220,使用识别规则检测状态序列#1,识别规则是根据目标场景确定的。
计算设备102可以根据要识别的目标场景,确定识别规则,并利用识别规则检测状态序列#1。
步骤230,根据检测结果,确定行驶数据对应的驾驶场景中是否包括目标场景。
计算设备102可以根据使用识别规则检测状态序列#1后获得的检测结果,确定行驶数据对应的驾驶场景中是否包括目标场景。
可选的,步骤210还可以替换为:根据车辆的行驶数据与目标场景,确定状态序列#1。
计算设备102在获取车辆在不同时刻的状态#1时,可以结合目标场景进行获取,例如,目标场景可以为左前方车辆切入场景,此时,计算设备可以根据该目标场景,从其他车辆的行驶数据与本车辆的行驶数据中获取其他车辆相对于本车辆的位置,将获取到的其他车辆相对于本车辆的位置作为其他车辆在不同时刻的状态#1,并根据其他车辆在不同时刻的状态#1,确定状态序列#1。
可选的,步骤230具体可以通过以下方式实现:
例如,如果状态序列#1中包括子序列#1(即,第一子序列的一例),则确定行驶数据对应的驾驶场景中包括目标场景;或者,如果状态序列#1中不包括子序列#1,则确定行驶数据对应的驾驶场景中不包括目标场景。其中,子序列#1为满足识别规则的子序列。
例如,目标场景为车辆的行驶速度大于或等于30km/h的场景,状态序列#1中记录的是同一车辆在不同时刻的行驶速度,则该目标场景对应的识别规则可以为状态序列#1中包括连续出现的大于或等于30km/h的行驶速度,即子序列#1中包括连续出现的大于或等于30km/h的行驶速度。如果计算设备101在状态序列#1中能够检测出连续出现的大于或等于30km/h的行驶速度,则可以确定行驶数据对应的驾驶场景中包括目标场景;否则,则确定行驶数据对应的驾驶场景中不包括目标场景。
此外,还可以通过标识来表示车辆在不同时刻的行驶速度,例如,通过“1”表示车辆在某一时刻的行驶速度大于或等于30km/h,通过“0”表示其他情况,例如,“0”表示车辆在某一时刻的行驶速度小于30km/h或者车辆在某一时刻处于停车状态。此时,状态序列#1中记录的是能够反映同一车辆在不同时刻的行驶速度的标识,则该目标场景对应的识别规则可以为状态序列#1中包括连续出现的“1”,即子序列#1可以为连续出现的“1”。如果计算设备101在状态序列#1中能够检测出连续出现的1,则可以确定行驶数据对应的驾驶场景中包括目标场景;否则,则确定行驶数据对应的驾驶场景中不包括目标场景。
在本申请中,状态序列可以以矩阵的形式存储(以下简称为“状态矩阵”),例如,状态序列可以保存为m行n列(即,m×n)的状态矩阵,其中,第i行的第j列的元素可以表示索引为i的车辆(以下表示为“车辆#i”)在j时刻的状态,m为大于或等于1的整数,n为大于或等于2的整数,i为大于或等于1,且小于或等于m的整数,j为大于或等于1,且小于或等于n的整数。
下文中以状态矩阵为例,结合几个具体场景对本申请提供的场景识别的方法进行举例说明。
场景#1本车辆以大于或等于50km/h的行驶速度行驶的场景。
为了对该场景#1进行识别,首先可以获取本车辆的行驶速度,例如,计算设备102可以根据本车辆上的定位系统获取的车辆的定位信息,计算得到本车辆的行驶速度。
此时,状态矩阵#1(与状态序列#1对应)可以为1×n大小的矩阵,n代表状态矩阵#1中针对本车辆总共记录的时长。状态矩阵#1的元素e1,j代表本车辆在j时刻的行驶速度。例如,“1”表示本车辆在某一时刻的行驶速度大于或等于50km/h,“0”表示其他情况,则e1j的取值可以表示如下:
上述其他情况可以表示本车辆在j时刻的行驶速度小于50km/h或者本车辆在某一时刻处于停车状态。
计算设备102针对场景#1确定相应的识别规则为:在状态矩阵#1中识别出所有连续出现的“1”,进而计算设备102使用该识别规则检测状态矩阵#1。例如,状态矩阵#1可以为:
00001111111111100111111111111111111111111000111100
从状态矩阵#1中可以看出,本车辆在时刻#5-时刻#15,时刻#18-时刻#40,时刻#44-时刻#47的行驶速度均大于或等于50km/h。因此,计算设备102可以从状态矩阵#1中识别出3个场景#1,其中,每个场景#1对应的时刻分别为:时刻#5-时刻#15,时刻#18-时刻#40,时刻#44-时刻#47,计算设备102可以将时刻#5-时刻#15,时刻#18-时刻#40,时刻#44-时刻#47对应的本车辆的行驶数据与场景#1进行关联,从而在仿真软件中利用时刻#5-时刻#15,时刻#18-时刻#40,时刻#44-时刻#47对应的本车辆的行驶数据以及本车辆的行驶数据相关的道路信息搭建场景#1,从而在仿真软件中对场景#1下本车辆的自动驾驶系统的功能进行验证。
场景#2左前方车辆切入场景。
为了对场景#2进行识别,计算设备102需要确定本车辆的位置与其他车辆的位置,从而确定其他车辆相对于本车辆的位置,例如,本车辆的位置可以根据本车辆上的定位系统或者IMU获取的车辆的定位信息得到,其他车辆的位置可以根据视频数据得到,或者,还可以从雷达的扫描信息中得到。
计算设备102可以根据各个时刻本车辆的位置与其他车辆的位置计算出各个时刻其他车辆相对于本车辆的位置,根据各个时刻其他车辆相对于本车辆的位置,生成大小为m×n的状态矩阵#1,m代表状态矩阵#1中总共记录的其他车辆的数量,n代表状态矩阵#1中针对每个车辆总共记录的时长。
状态矩阵#1的元素pi,j代表车辆#i(即,其他车辆的一例)在j时刻相对于本车辆的相对位置。例如,“1”表示车辆#i在j时刻位于本车辆的左前方向,“2”表示车辆#i在j时刻位于本车辆的正前方向,“3”表示车辆#i在j时刻位于本车辆的右前方向。为了简洁,此处不再一一列举,则pi,j的取值可以表示如下:
计算设备102针对场景#2确定的识别规则为:状态矩阵#1的元素由“1”变为“2”,进而计算设备102使用该识别规则检测状态矩阵#1。例如,状态矩阵#1可以为:
从状态矩阵#1中可以看出,车辆#2在时刻#6-时刻#7从本车辆的左前方切入,因此,计算设备102可以从状态矩阵#1中识别出场景#2,计算设备102可以将时刻#6-时刻#7对应的本车辆以及其他车辆的行驶数据与场景#2进行关联,从而在仿真软件中利用时刻#6-时刻#7对应的本车辆的行驶数据、本车辆的行驶数据相关的道路信息、其他车辆的行驶数据以及其他车辆的行驶数据相关的道路信息搭建场景#2,从而在仿真软件中对场景#2下本车辆的自动驾驶系统的功能(例如,减速功能)进行验证。
场景#3红绿灯路口左转场景。
为了对场景#3进行识别,计算设备102可以首先确定本车辆在不同时刻是否在红路路口内(即,第二状态的一例),并确定同一车辆在不同时刻的转向状态(即,第三状态的一例)。计算设备102可以根据本车辆在不同时刻是否在红绿灯路口内的多个状态,生成状态序列#2(即,第二状态序列的一例),根据同一车辆在不同时刻的多个转向状态,生成状态序列#3(即,第三状态序列的一例),根据状态序列#2与状态序列#3,生成状态序列#1。其中,状态序列#2与状态序列#3均以矩阵的形式存储,即状态序列#2与状态矩阵#2对应,状态序列#3与状态矩阵#3对应。
计算设备102根据本车辆在不同时刻是否在红绿灯路口内的多个状态,生成大小为m×n的状态矩阵#2,m代表状态矩阵#2中总共记录的车辆的数量,n代表状态矩阵#2中针对每个车辆总共记录的时长。
状态矩阵#2的元素ri,j表示车辆#i(即,本车辆的一例)在j时刻是否在红绿灯路口内。例如,“1”表示车辆#i在j时刻在红绿灯路口内,“0”表示车辆#i在j时刻处于其他状态的情况。则ri,j的取值可以表示如下:
计算设备102根据本车辆在不同时刻的多个转向状态,生成大小为m×n的状态矩阵#3,m代表状态矩阵#3中总共记录的车辆的数量,n代表状态矩阵#3中针对每个车辆总共记录的时长。
状态矩阵#3的元素si,j表示车辆#i在j时刻的转向状态。例如,“1”表示车辆#i在j时刻处于左转状态,“2”表示车辆#i在j时刻处于右转状态,“0”表示车辆#i在j时刻处于其他状态的情况,例如,表示车辆#i在j时刻没有做转向操作。则si,j的取值可以表示如下:
计算设备102可以根据状态矩阵#2与状态矩阵#3,生成状态矩阵#1,状态矩阵#1中的元素ti,j表示车辆#i在j时刻在红绿灯路口的转向状态。例如,“1”表示车辆#i在j时刻在红绿灯路口左转,“2”表示车辆#i在j时刻在红绿灯路口右转,“0”表示车辆#i在j时刻处于其他状态的情况。则ti,j的取值可以表示如下:
当计算设备102针对场景#3确定的识别规则为:识别状态矩阵#1中是否包括1,当状态矩阵#1中包括1时,则计算设备102可以从状态矩阵中识别出场景#3,计算设备102可以将元素1对应的时刻的本车辆的行驶数据与场景#3进行关联,从而在仿真软件中利用元素1对应的时刻的本车辆的行驶数据与本车辆的行驶数据相关的道路信息搭建场景#3,从而在仿真软件中对场景#3下本车辆的自动驾驶系统的功能进行验证。
应理解,上述仅以状态序列以矩阵的形式存储为例,对场景#1至场景#3进行示例性介绍,但本申请并不限定于此。状态序列还可以以其他形式进行存储,例如,可以以列表的形式存储,不仅如此,其他任何能够反映车辆在不同时刻的状态的存储形式均应落入本申请的保护范围之内。
本申请中的识别规则还可以通过正则表达式来描述,例如,场景#1中的识别规则可以通过正则表达式“1+”来描述,“1+”表示连续的1,场景#2中的识别规则可以通过正则表达式“12”来描述,“12”表示由“1”变为“2”。
上述对计算设备102如何识别场景作了具体说明,在本申请中,还可以对识别出的场景确定场景的复杂度,下面进行详细说明。
此时,方法200还可以包括:计算设备102根据车辆的行驶数据,确定状态序列#4(即,第四状态序列的一例),状态序列#4可以表示本车辆的关联状态。例如,本车辆的关联状态可以包括道路环境状态、本车辆的状态与其他车辆的状态中的至少一种,因此,状态序列#4可以包括道路环境状态序列、本车辆的状态序列与其他车辆的状态序列中的至少一个。计算设备102根据子序列#1对应的时刻,在状态序列#4中确定子序列#2(即,第二子序列的一例),根据子序列#2,确定目标场景的复杂度。
道路环境状态序列可以描述不同时刻车辆所处的道路环境,例如,道路环境状态序列可以描述本车辆在上一时刻在弯路上行驶,在下一时刻在直路上行驶,本车辆的状态序列可以描述本车辆在不同时刻的行驶速度,其他车辆的状态序列可以描述其他车辆在不同时刻与本车辆之间的距离。
计算设备102在确定目标场景的复杂度时,可以根据该目标场景的子序列#1在状态矩阵#1中对应的时刻,将状态矩阵#4(与状态序列#4相对应)中的相同时刻的元素确定为子序列#2,根据子序列#2,确定目标场景的复杂度。
例如,在上述场景#1中,本车辆在时刻#44-时刻#47的行驶速度均大于或等于50km/h。计算设备102在确定场景#1的复杂度时,可以将状态序列#4中的时刻#44-时刻#47对应的元素确定为子序列#2。
例如,状态序列#4包括道路环境状态序列、本车辆的状态序列与其他车辆的状态序列,计算设备120可以将本车辆对应的道路环境状态序列中的时刻#44-时刻#47对应的元素确定为道路环境状态序列对应的子序列#2,将本车辆的状态序列中的时刻#44-时刻#47对应的元素确定为本车辆的状态序列对应的子序列#2,将其他车辆的状态序列中的时刻#44-时刻#47对应的元素确定为其他车辆的状态序列对应的子序列#2。
计算设备102可以根据道路环境状态序列对应的子序列#2、本车辆的状态序列对应的子序列#2与其他车辆的状态序列对应的子序列#2中的至少一个,确定本车辆的关联状态的复杂度,并根据本车辆的关联状态的复杂度,确定场景#1的复杂度。其中,本车辆的关联状态的复杂度包括道路环境复杂度、本车辆复杂度与其他车辆复杂度中的至少一个。
例如,计算设备102可以根据道路环境状态序列对应的子序列#2,确定道路环境复杂度,根据本车辆的状态序列对应的子序列#2,确定本车辆复杂度,根据其他车辆的状态序列对应的子序列#2,确定其他车辆复杂度。
计算设备102可以对道路环境复杂度、本车辆复杂度与其他车辆复杂度中的至少一个进行加权运算,从而确定场景#1的复杂度。
例如,对于场景#1与场景#2,计算设备102分别对场景#1与场景#2对应的道路环境复杂度、本车辆复杂度与其他车辆复杂度进行加权运算,最终得到的场景#1与场景#2的复杂度如下表所示:
表1
场景 | 道路环境复杂度 | 其他车辆复杂度 | 本车辆复杂度 | 场景复杂度 |
1 | 0.13 | 0.00 | 0.05 | 0.02 |
2 | 0.13 | 0.30 | 0.05 | 0.18 |
应理解,上述仅以对道路环境复杂度、本车辆复杂度与其他车辆复杂度中的至少一个进行加权运算确定场景的复杂度的方法作为示例性说明,但这并不对本申请构成特别限定,其他根据道路环境复杂度、本车辆复杂度与其他车辆复杂度中的至少一个确定场景的复杂度的方法均应落入本申请的保护范围之内。
在本申请实施例中,为了进一步提高场景识别的准确程度,计算设备102可以获取地图信息,并根据地图信息确定多条道路(road),多个车道(lane)以及多个交叉路口(junction)的位置信息,并且可以根据多条道路、多个车道以及多个交叉路口的位置信息,构建出路网拓扑信息,路网拓扑信息可以用于判断车辆所处的road或junction位于哪条lane上,以及各个road,lane,junction之间的空间关系。其中,多条道路、多个车道以及多个交叉路口的位置信息可以是多条道路,多个车道以及多个交叉路口在地图信息中的坐标。
计算设备102获取到车辆的行驶数据后,可以根据车辆的行驶数据,确定车辆在不同时刻的位置信息,根据车辆在不同时刻的位置信息,并且结合路网拓扑信息,可以确定车辆所处的道路、车道与交叉路口中的至少一项。
在确定行驶数据对应的驾驶场景中是否包括目标场景时,根据上文中的检测结果与车辆所处的道路、车道与交叉路口中的至少一项进行综合判断,从而提高场景识别的准确程度。
此时,方法200还可以包括:
根据子序列#1对应的时刻,在状态序列#5(即,第五状态序列的一例)中确定子序列#3(即,第三子序列的一例),状态序列#5表示车辆在不同时刻的位置信息,状态序列#5是根据车辆的行驶数据确定的。步骤230可以替换为:
根据检测结果与子序列#3(即,第三子序列的一例),确定行驶数据对应的驾驶场景中是否包括目标场景。
下面结合该方法对上文中的场景#2~场景#3作进一步地说明。
在场景#2中,当计算设备102识别出车辆#2在时刻#6-时刻#7由本车辆的左前方向移动到本车辆的正前方向时,还可以从状态序列#5中确定车辆#2在时刻#6-时刻#7的位置信息(即,子序列#3的一例),并根据车辆#2在时刻#6-时刻#7的位置信息与路网拓扑信息,确定车辆#2在时刻#6-时刻#7所处的车道,状态序列#5中包括车辆#2在不同时刻的位置信息,其中,车辆#2在不同时刻的位置信息可以是车辆#2在不同时刻的位置在地图信息中的坐标。
例如,如图3所示,计算设备102根据车辆#2在时刻#6-时刻#7的位置信息与路网拓扑信息,确定车辆#2在时刻#6-时刻#7有原车道变为原车道的右侧车道,则计算设备102可以根据车辆#2在时刻#6-时刻#7由本车辆的左前方向移动到本车辆的正前方向、车辆#2在时刻#6-时刻#7由原车道变为原车道的右侧车道这两个检测结果,确定车辆#2在时刻#6-时刻#7从本车辆的左前方切入,从而更加准确地完成对场景#2的识别。
在场景#3中,当计算设备102识别出车辆#i在j时刻在红绿灯路口左转时,还可以从状态序列#5中确定车辆#i在j时刻的位置信息(即,子序列#3的另一例),并根据车辆#i在j时刻的位置信息与路网拓扑信息,确定车辆#i在j时刻位于交叉路口内,则计算设备102可以根据车辆#i在j时刻在红绿灯路口左转、车辆#i在j时刻位于交叉路口内这两个检测结果,确定车辆#i在j时刻在红绿灯路口左转,从而更加准确地完成对场景#3的识别。状态序列#5中包括车辆#i在不同时刻的位置信息,其中,车辆#i在不同时刻的位置信息可以是车辆#i在不同时刻的位置在地图信息中的坐标。下面结合本申请实施例提供的场景#4进行详细说明。
场景#4红绿灯路口本车辆直行,目标车辆(即,其他车辆的一例)右转场景。
为了对场景#4进行识别,计算设备102可以首先根据场景#3中描述的方法,确定本车辆在时刻#t1~时刻#t2在红绿灯路口直行,进一步可以从状态序列#5中确定本车辆在时刻#t1~时刻#t2的位置信息(即,子序列#3的另一例),并根据本车辆在时刻#t1~时刻#t2的位置信息与路网拓扑信息,确定本车辆在时刻#t1~时刻#t2所处的道路,状态序列#5中包括本车辆在不同时刻的位置信息,其中,本车辆在不同时刻的位置信息可以是本车辆在不同时刻的位置在地图信息中的坐标。
例如,如图4所示,计算设备102根据本车辆在时刻#t1~时刻#t2的位置信息与路网拓扑信息,确定本车辆在时刻#t1~时刻#t2由道路#1经过红路灯路口到达道路#3。
计算设备102可以根据场景#3中描述的方法,确定目标车辆在时刻#t1~时刻#t2在红绿灯路口右转,之后,计算设备102可以从状态序列#5中确定目标车辆在时刻#t1~时刻#t2的位置信息(即,子序列#3的另一例),并根据目标车辆在时刻#t1~时刻#t2的位置信息与路网拓扑信息,确定目标车辆在时刻#t1~时刻#t2所处的道路,状态序列#5中包括目标车辆在不同时刻的位置信息,其中,目标车辆在不同时刻的位置信息可以是目标车辆在不同时刻的位置在地图信息中的坐标。
例如,计算设备102根据目标车辆在时刻#t1~时刻#t2的位置信息与路网拓扑信息,确定目标车辆在时刻#t1~时刻#t2由道路#2经过红路灯路口到达道路#3。
则计算设备102可以根据本车辆在时刻#t1~时刻#t2在红绿灯路口直行、目标车辆在时刻#t1~时刻#t2在红绿灯路口右转以及目标车辆在时刻#t1~时刻#t2由道路#2经过红路灯路口到达道路#3这三个检测结果,确定本车辆在时刻#t1~时刻#t2在红绿灯路口直行,目标车辆在时刻#t1~时刻#t2在红绿灯路口右转,从而更加准确地完成对场景#4的识别。
应理解,在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
上文结合图1至图4,详细描述了本申请实施例提供的一种场景识别的方法,下面结合图5至图6详细描述本申请的装置的实施例。应理解,方法实施例的描述与装置实施例的描述相互对应,因此,未详细描述的部分可以参见前面方法实施例。
图5是本申请实施例提供的一种控制设备500的结构性示意性图。该控制设备500包括:
确定模块510,用于根据车辆的行驶数据,确定第一状态序列,所述第一状态序列表示所述车辆在不同时刻的第一状态;
处理模块520,用于使用识别规则检测所述第一状态序列,所述识别规则是根据目标场景确定的;
确定模块510,还用于根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景。
应理解的是,本申请实施例提供的计算设备500可以通过专用集成电路(application-specific integrated circuit,ASIC)实现,或可编程逻辑器件(programmable logic device,PLD)实现,上述PLD可以是复杂程序逻辑器件(complexprogrammable logical device,CPLD),现场可编程门阵列(field-programmable gatearray,FPGA),通用阵列逻辑(generic array logic,GAL)或其任意组合。也可以通过软件实现图2所示的场景识别的方法时,计算设备500各个模块也可以为软件模块。
可选的,在一些实施例中,当根据车辆的行驶数据,确定第一状态序列时,所述确定模块510具体用于:根据车辆的行驶数据与所述目标场景,确定所述第一状态序列。
可选的,在一些实施例中,当根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景时,所述确定模块510具体用于:
如果所述第一状态序列中包括第一子序列,则确定所述行驶数据对应的驾驶场景中包括所述目标场景,所述第一子序列为满足所述识别规则的子序列;或,
如果所述第一状态序列中不包括第一子序列,则确定所述行驶数据对应的驾驶场景中不包括所述目标场景,所述第一子序列为满足所述识别规则的子序列。
可选的,在一些实施例中,当根据车辆的行驶数据与所述目标场景,确定所述第一状态序列时,所述确定模块510具体用于:
根据所述车辆的行驶数据与所述目标场景,确定第二状态序列与第三状态序列,所述第二状态序列表示所述车辆在不同时刻的第二状态,所述第三状态序列表示所述车辆在不同时刻的第三状态;
根据所述第二状态序列与所述第三状态序列,生成所述第一状态序列。
可选的,在一些实施例中,所述第一状态序列为m×n大小的矩阵,所述矩阵中第i行第j列的元素表示索引为i的车辆在时刻j的第一状态,m为大于或等于1的整数,n为大于或等于2的整数,i为大于或等于1,且小于m的整数,j为大于或等于1,且小于n的整数。
可选的,在一些实施例中,当所述行驶数据对应的驾驶场景中包括所述目标场景时,所述确定模块510还用于:
根据所述第一子序列对应的时刻,在第四状态序列中确定第二子序列,所述第四状态序列表示所述车辆的关联状态,所述第四状态序列是根据所述车辆的行驶数据确定的;
根据所述第二子序列,确定所述目标场景的复杂度。
可选的,在一些实施例中,当根据所述第二子序列,确定所述目标场景的复杂度时,所述确定模块510具体用于:
根据所述第二子序列,确定所述车辆的关联状态的复杂度;
对所述车辆的关联状态的复杂度进行加权运算,确定所述目标场景的复杂度。
可选的,在一些实施例中,所述确定模块510还用于:
根据所述第一子序列对应的时刻,在第五状态序列中确定第三子序列,所述第五状态序列表示所述车辆在不同时刻的位置信息,所述第五状态序列是根据所述车辆的行驶数据确定的;
当根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景时,所述确定模块具体用于:
根据所述检测结果与所述第三子序列,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景。
根据本申请实施例的计算设备500可对应于执行本申请实施例中描述的方法,并且计算设备500中的各个单元的上述和其它操作和/或功能分别为了实现图2中的方法的相应流程,为了简洁,在此不再赘述。
图6是本申请实施例提供的一种计算设备600的结构性示意性图。该计算设备600包括:处理器610、存储器620、通信接口630、总线650。
应理解,图6所示的计算设备600中的处理器610可以对应于图5中计算设备500的确定模块510、处理模块520,计算设备600中的通信接口630可以用于与其他设备之间进行通信。
其中,该处理器610可以与存储器620连接。该存储器620可以用于存储该程序代码和数据。因此,该存储器620可以是处理器610内部的存储单元,也可以是与处理器610独立的外部存储单元,还可以是包括处理器610内部的存储单元和与处理器610独立的外部存储单元的部件。
可选的,计算设备600还可以包括总线650。其中,存储器620、通信接口630可以通过总线650与处理器610连接。总线650可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。所述总线650可以分为地址总线、数据总线、控制总线等。为便于表示,图6中仅用一条线表示,但并不表示仅有一根总线或一种类型的总线。
应理解,在本申请实施例中,该处理器610可以采用中央处理单元(centralprocessing unit,CPU)。该处理器还可以是其它通用处理器、数字信号处理器(digitalsignal processor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现成可编程门阵列(field programmable gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。或者该处理器610采用一个或多个集成电路,用于执行相关程序,以实现本申请实施例所提供的技术方案。
该存储器620可以包括只读存储器和随机存取存储器,并向处理器610提供指令和数据。处理器610的一部分还可以包括非易失性随机存取存储器。例如,处理器610还可以存储设备类型的信息。
在计算设备600运行时,所述处理器610执行所述存储器620中的计算机执行指令执行上述方法的操作步骤。
应理解,根据本申请实施例的计算设备600可以对应于执行根据本申请实施例的图2所示方法中的相应主体,并且计算设备600中的各个模块的上述和其它操作和/或功能分别为了实现图2中的方法的相应流程,为了简洁,在此不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (17)
1.一种场景识别的方法,其特征在于,包括:
根据车辆的行驶数据,确定第一状态序列,所述第一状态序列表示所述车辆在不同时刻的第一状态;
使用识别规则检测所述第一状态序列,所述识别规则是根据目标场景确定的;
根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景。
2.根据权利要求1所述的方法,其特征在于,所述根据车辆的行驶数据,确定第一状态序列,包括:
根据车辆的行驶数据与所述目标场景,确定所述第一状态序列。
3.根据权利要求1或2所述的方法,其特征在于,所述根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景,包括:
如果所述第一状态序列中包括第一子序列,则确定所述行驶数据对应的驾驶场景中包括所述目标场景,所述第一子序列为满足所述识别规则的子序列;或,
如果所述第一状态序列中不包括第一子序列,则确定所述行驶数据对应的驾驶场景中不包括所述目标场景,所述第一子序列为满足所述识别规则的子序列。
4.根据权利要求2或3所述的方法,其特征在于,所述根据车辆的行驶数据与所述目标场景,确定所述第一状态序列,包括:
根据所述车辆的行驶数据与所述目标场景,确定第二状态序列与第三状态序列,所述第二状态序列表示所述车辆在不同时刻的第二状态,所述第三状态序列表示所述车辆在不同时刻的第三状态;
根据所述第二状态序列与所述第三状态序列,生成所述第一状态序列。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述第一状态序列为m×n大小的矩阵,所述矩阵中第i行第j列的元素表示索引为i的车辆在时刻j的第一状态,m为大于或等于1的整数,n为大于或等于2的整数,i为大于或等于1,且小于m的整数,j为大于或等于1,且小于n的整数。
6.根据权利要求3至5中任一项所述的方法,其特征在于,所述行驶数据对应的驾驶场景中包括所述目标场景,所述方法还包括:
根据所述第一子序列对应的时刻,在第四状态序列中确定第二子序列,所述第四状态序列表示所述车辆的关联状态,所述第四状态序列是根据所述车辆的行驶数据确定的;
根据所述第二子序列,确定所述目标场景的复杂度。
7.根据权利要求6所述的方法,其特征在于,所述根据所述第二子序列,确定所述目标场景的复杂度,包括:
根据所述第二子序列,确定所述车辆的关联状态的复杂度;
对所述车辆的关联状态的复杂度进行加权运算,确定所述目标场景的复杂度。
8.根据权利要求3至7中任一项所述的方法,其特征在于,所述方法还包括:
根据所述第一子序列对应的时刻,在第五状态序列中确定第三子序列,所述第五状态序列表示所述车辆在不同时刻的位置信息,所述第五状态序列是根据所述车辆的行驶数据确定的;
所述根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景,包括:
根据所述检测结果与所述第三子序列,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景。
9.一种计算设备,其特征在于,包括:
确定模块,用于根据车辆的行驶数据,确定第一状态序列,所述第一状态序列表示所述车辆在不同时刻的第一状态;
处理模块,用于使用识别规则检测所述第一状态序列,所述识别规则是根据目标场景确定的;
所述确定模块,还用于根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景。
10.根据权利要求9所述的计算设备,其特征在于,当根据车辆的行驶数据,确定第一状态序列时,所述确定模块具体用于:
根据车辆的行驶数据与所述目标场景,确定所述第一状态序列。
11.根据权利要求9或10所述的计算设备,其特征在于,当根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景时,所述确定模块具体用于:
如果所述第一状态序列中包括第一子序列,则确定所述行驶数据对应的驾驶场景中包括所述目标场景,所述第一子序列为满足所述识别规则的子序列;或,
如果所述第一状态序列中不包括第一子序列,则确定所述行驶数据对应的驾驶场景中不包括所述目标场景,所述第一子序列为满足所述识别规则的子序列。
12.根据权利要求10或11所述的计算设备,其特征在于,当根据车辆的行驶数据与所述目标场景,确定所述第一状态序列时,所述确定模块具体用于:
根据所述车辆的行驶数据与所述目标场景,确定第二状态序列与第三状态序列,所述第二状态序列表示所述车辆在不同时刻的第二状态,所述第三状态序列表示所述车辆在不同时刻的第三状态;
根据所述第二状态序列与所述第三状态序列,生成所述第一状态序列。
13.根据权利要求9至12中任一项所述的计算设备,其特征在于,所述第一状态序列为m×n大小的矩阵,所述矩阵中第i行第j列的元素表示索引为i的车辆在时刻j的第一状态,m为大于或等于1的整数,n为大于或等于2的整数,i为大于或等于1,且小于m的整数,j为大于或等于1,且小于n的整数。
14.根据权利要求11至13中任一项所述的计算设备,其特征在于,当所述行驶数据对应的驾驶场景中包括所述目标场景时,所述确定模块还用于:
根据所述第一子序列对应的时刻,在第四状态序列中确定第二子序列,所述第四状态序列表示所述车辆的关联状态,所述第四状态序列是根据所述车辆的行驶数据确定的;
根据所述第二子序列,确定所述目标场景的复杂度。
15.根据权利要求14所述的计算设备,其特征在于,当根据所述第二子序列,确定所述目标场景的复杂度时,所述确定模块具体用于:
根据所述第二子序列,确定所述车辆的关联状态的复杂度;
对所述车辆的关联状态的复杂度进行加权运算,确定所述目标场景的复杂度。
16.根据权利要求11至15中任一项所述的计算设备,其特征在于,所述确定模块还用于:
根据所述第一子序列对应的时刻,在第五状态序列中确定第三子序列,所述第五状态序列表示所述车辆在不同时刻的位置信息,所述第五状态序列是根据所述车辆的行驶数据确定的;
当根据检测结果,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景时,所述确定模块具体用于:
根据所述检测结果与所述第三子序列,确定所述行驶数据对应的驾驶场景中是否包括所述目标场景。
17.一种计算设备,所述计算设备包括处理器和存储器,所述存储器用于存储计算机执行指令,所述计算设备运行时,所述处理器执行所述存储器中的计算机执行指令以通过所述计算设备执行权利要求1至8中任一项所述的方法中的操作步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910927376.XA CN110796007B (zh) | 2019-09-27 | 2019-09-27 | 场景识别的方法与计算设备 |
PCT/CN2020/097886 WO2021057134A1 (zh) | 2019-09-27 | 2020-06-24 | 场景识别的方法与计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910927376.XA CN110796007B (zh) | 2019-09-27 | 2019-09-27 | 场景识别的方法与计算设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110796007A true CN110796007A (zh) | 2020-02-14 |
CN110796007B CN110796007B (zh) | 2023-03-03 |
Family
ID=69438671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910927376.XA Active CN110796007B (zh) | 2019-09-27 | 2019-09-27 | 场景识别的方法与计算设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110796007B (zh) |
WO (1) | WO2021057134A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111582018A (zh) * | 2020-03-24 | 2020-08-25 | 北京掌行通信息技术有限公司 | 无人车动态交互场景的判定方法、系统、判定终端及存储介质 |
CN112017438A (zh) * | 2020-10-16 | 2020-12-01 | 宁波均联智行科技有限公司 | 一种行车决策生成方法及系统 |
CN112380137A (zh) * | 2020-12-04 | 2021-02-19 | 清华大学苏州汽车研究院(吴江) | 一种自动驾驶场景的确定方法、装置、设备及存储介质 |
CN112565468A (zh) * | 2021-02-22 | 2021-03-26 | 华为技术有限公司 | 一种驾驶场景识别方法及其系统 |
WO2021057134A1 (zh) * | 2019-09-27 | 2021-04-01 | 华为技术有限公司 | 场景识别的方法与计算设备 |
CN114724370A (zh) * | 2022-03-31 | 2022-07-08 | 阿波罗智联(北京)科技有限公司 | 交通数据处理方法、装置、电子设备和介质 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113859264B (zh) * | 2021-09-17 | 2023-12-22 | 阿波罗智联(北京)科技有限公司 | 车辆控制方法、装置、电子设备及存储介质 |
CN113838358A (zh) * | 2021-10-29 | 2021-12-24 | 郑州信大捷安信息技术股份有限公司 | 智慧交通沙盘的实现方法及系统 |
CN114348001B (zh) * | 2022-01-06 | 2024-04-26 | 腾讯科技(深圳)有限公司 | 一种交通仿真方法、装置、设备以及存储介质 |
CN117422808B (zh) * | 2023-12-19 | 2024-03-19 | 中北数科(河北)科技有限公司 | 一种三维场景数据的加载方法及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105954040A (zh) * | 2016-04-22 | 2016-09-21 | 百度在线网络技术(北京)有限公司 | 应用于无人驾驶汽车的测试方法和装置 |
JP2018018204A (ja) * | 2016-07-26 | 2018-02-01 | 株式会社デンソー | 能力評価システム |
CN108139756A (zh) * | 2016-08-29 | 2018-06-08 | 百度(美国)有限责任公司 | 为自动驾驶车辆构建周围环境以制定驾驶决策的方法和系统 |
CN108334055A (zh) * | 2018-01-30 | 2018-07-27 | 赵兴华 | 车辆自动驾驶算法的检验方法、装置、设备及存储介质 |
CN109211575A (zh) * | 2017-07-05 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 无人驾驶汽车及其场地测试方法、装置及可读介质 |
CN109278758A (zh) * | 2018-08-28 | 2019-01-29 | 武汉理工大学 | 一种基于智能手机的智能车个性化驾驶学习系统 |
CN109520744A (zh) * | 2018-11-12 | 2019-03-26 | 百度在线网络技术(北京)有限公司 | 自动驾驶车辆的驾驶性能测试方法和装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9152490B2 (en) * | 2013-04-02 | 2015-10-06 | Western Digital Technologies, Inc. | Detection of user behavior using time series modeling |
US11157014B2 (en) * | 2016-12-29 | 2021-10-26 | Tesla, Inc. | Multi-channel sensor simulation for autonomous control systems |
CN110187639B (zh) * | 2019-06-27 | 2021-05-11 | 吉林大学 | 一种基于参数决策框架的轨迹规划控制方法 |
CN110796007B (zh) * | 2019-09-27 | 2023-03-03 | 华为技术有限公司 | 场景识别的方法与计算设备 |
-
2019
- 2019-09-27 CN CN201910927376.XA patent/CN110796007B/zh active Active
-
2020
- 2020-06-24 WO PCT/CN2020/097886 patent/WO2021057134A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105954040A (zh) * | 2016-04-22 | 2016-09-21 | 百度在线网络技术(北京)有限公司 | 应用于无人驾驶汽车的测试方法和装置 |
JP2018018204A (ja) * | 2016-07-26 | 2018-02-01 | 株式会社デンソー | 能力評価システム |
CN108139756A (zh) * | 2016-08-29 | 2018-06-08 | 百度(美国)有限责任公司 | 为自动驾驶车辆构建周围环境以制定驾驶决策的方法和系统 |
CN109211575A (zh) * | 2017-07-05 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 无人驾驶汽车及其场地测试方法、装置及可读介质 |
CN108334055A (zh) * | 2018-01-30 | 2018-07-27 | 赵兴华 | 车辆自动驾驶算法的检验方法、装置、设备及存储介质 |
CN109278758A (zh) * | 2018-08-28 | 2019-01-29 | 武汉理工大学 | 一种基于智能手机的智能车个性化驾驶学习系统 |
CN109520744A (zh) * | 2018-11-12 | 2019-03-26 | 百度在线网络技术(北京)有限公司 | 自动驾驶车辆的驾驶性能测试方法和装置 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021057134A1 (zh) * | 2019-09-27 | 2021-04-01 | 华为技术有限公司 | 场景识别的方法与计算设备 |
CN111582018A (zh) * | 2020-03-24 | 2020-08-25 | 北京掌行通信息技术有限公司 | 无人车动态交互场景的判定方法、系统、判定终端及存储介质 |
CN111582018B (zh) * | 2020-03-24 | 2024-02-09 | 北京掌行通信息技术有限公司 | 无人车动态交互场景的判定方法、系统、判定终端及存储介质 |
CN112017438A (zh) * | 2020-10-16 | 2020-12-01 | 宁波均联智行科技有限公司 | 一种行车决策生成方法及系统 |
CN112017438B (zh) * | 2020-10-16 | 2021-08-27 | 宁波均联智行科技股份有限公司 | 一种行车决策生成方法及系统 |
CN112380137A (zh) * | 2020-12-04 | 2021-02-19 | 清华大学苏州汽车研究院(吴江) | 一种自动驾驶场景的确定方法、装置、设备及存储介质 |
CN112565468A (zh) * | 2021-02-22 | 2021-03-26 | 华为技术有限公司 | 一种驾驶场景识别方法及其系统 |
WO2022174838A1 (zh) * | 2021-02-22 | 2022-08-25 | 华为技术有限公司 | 一种驾驶场景识别方法及其系统 |
CN114724370A (zh) * | 2022-03-31 | 2022-07-08 | 阿波罗智联(北京)科技有限公司 | 交通数据处理方法、装置、电子设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110796007B (zh) | 2023-03-03 |
WO2021057134A1 (zh) | 2021-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110796007B (zh) | 场景识别的方法与计算设备 | |
US10816984B2 (en) | Automatic data labelling for autonomous driving vehicles | |
Suhr et al. | Sensor fusion-based low-cost vehicle localization system for complex urban environments | |
US11248925B2 (en) | Augmented road line detection and display system | |
CN108508881B (zh) | 自动驾驶控制策略调整方法、装置、设备及存储介质 | |
CN111046709B (zh) | 车辆车道级定位方法、系统、车辆及存储介质 | |
CN109426256A (zh) | 自动驾驶车辆的基于驾驶员意图的车道辅助系统 | |
WO2021096935A2 (en) | Systems and methods for determining road safety | |
US11091161B2 (en) | Apparatus for controlling lane change of autonomous vehicle and method thereof | |
GB2559250A (en) | Parking-lot-navigation system and method | |
CN111582189B (zh) | 交通信号灯识别方法、装置、车载控制终端及机动车 | |
JP7220169B2 (ja) | 情報処理方法、装置、記憶媒体、及びプログラム | |
US20200096360A1 (en) | Method for planning trajectory of vehicle | |
CN114764876A (zh) | 用于感知融合算法的评价方法以及评价装置 | |
US20220410900A1 (en) | Assertive vehicle detection model generation | |
WO2021116752A1 (en) | Systems and methods for selectively decelerating a vehicle | |
CN114639085A (zh) | 交通信号灯识别方法、装置、计算机设备和存储介质 | |
CN117056153A (zh) | 校准和验证驾驶员辅助系统和/或自动驾驶系统的方法、系统和计算机程序产品 | |
US11694544B2 (en) | Traffic safety control method and vehicle-mounted device | |
CN110784680B (zh) | 一种车辆定位方法、装置、车辆和存储介质 | |
CN117079238A (zh) | 道路边沿检测方法、装置、设备及存储介质 | |
US20220129683A1 (en) | Selecting data for deep learning | |
TWI762887B (zh) | 交通安全管控方法、車載裝置及可讀儲存介質 | |
CN111661054B (zh) | 车辆控制方法、装置、电子设备及存储介质 | |
CN113280822A (zh) | 一种车辆定位方法及定位装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |