CN111582018A - 无人车动态交互场景的判定方法、系统、判定终端及存储介质 - Google Patents
无人车动态交互场景的判定方法、系统、判定终端及存储介质 Download PDFInfo
- Publication number
- CN111582018A CN111582018A CN202010214301.XA CN202010214301A CN111582018A CN 111582018 A CN111582018 A CN 111582018A CN 202010214301 A CN202010214301 A CN 202010214301A CN 111582018 A CN111582018 A CN 111582018A
- Authority
- CN
- China
- Prior art keywords
- unmanned vehicle
- vehicle
- background
- scene
- entity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000008846 dynamic interplay Effects 0.000 title claims abstract description 42
- 230000002452 interceptive effect Effects 0.000 claims abstract description 58
- 230000008859 change Effects 0.000 claims description 27
- 230000003993 interaction Effects 0.000 claims description 24
- 230000001133 acceleration Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000003068 static effect Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 abstract description 25
- 238000012360 testing method Methods 0.000 abstract description 25
- 238000010586 diagram Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000010219 correlation analysis Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
- G07C5/085—Registering performance data using electronic data carriers
- G07C5/0866—Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请实施例中提供了一种无人车动态交互场景的判定方法、系统、判定终端及存储介质。采用本申请实施例中的无人车动态交互场景的判定方法,首先采集无人车行驶数据以及背景实体数据;然后,根据无人车行驶数据以及背景实体数据计算多项判定指标数据;再根据多项判定指标数据得到给定时间段内的多项判定指标数据序列;最后,根据至少一项判定指标数据序列判定给定时间段内的交互场景。本发明实施例实现了动态交互场景的判定,解决了无人车测试过程中动态交互场景准确判定的问题。
Description
技术领域
本申请属于智能交通技术领域,具体地,涉及一种无人车动态交互场景的判定方法、系统、判定终端及存储介质。
背景技术
无人驾驶技术作为学术界和产业界重要的研究方向,对于汽车行业乃至交通运输业均有深远的影响。无人驾驶汽车能够解放人类的双手,降低交通事故发生的概率,保障人们的安全。随着人工智能、传感检测等核心技术的不断发展,无人驾驶技术必将更加智能化,并加快实现产业化。
驾驶场景是对无人车行驶过程中遇到的行驶环境的类型概括和表达,基于场景对无人车行驶能力评估是发现无人车平台漏洞的一个必要手段。因此,准确完备的场景判定,是对无人车进行能力评估的一个重要前提条件。
在无人驾驶的背景下,中国专利号为201811496440.5的专利“无人驾驶汽车测试方法、装置、电子设备及介质”给出了基于场景对无人车在封闭测试场内行驶过程进行量化描述和指标统计的方法体系。其基于封闭测试场内典型化的道路类型,定义对应的道路测试场景,并在电子地图上进行标注;将无人车的行驶过程定义为对场景的途经过程。通过采集无人车在行驶过程中的GPS定位数据和CAN总线数据,与经过良好标注的测试场电子地图场景、背景实体进行时空关联分析,最终完成对无人车行驶过程的量化统计和评估。
在无人车测试过程中,动态交互场景的判定是一个难题,场景的时空发生位置以及交互个体的行为耦合等,都会对场景的判定产生影响。现有技术虽然给出了无人车行驶过程进行量化描述和指标统计的通用方法体系,但更适用于静态场景的判定,对动态交互场景未给出具体判定方法,不能有效地进行支持和应用。因此,目前亟待一种无人驾驶汽车测试方法解决无人车测试过程中动态交互场景,例如避障、跟车、会车、超车等场景下的判定问题。在交互场景准确判定的基础上,可以对无人车发生交互行为的时间和空间范围进行界定,并进一步评估其在交互过程中的能力表现,有助于发现无人车在交互场景中存在的问题。
发明内容
本发明提出了一种无人车动态交互场景的判定方法、系统、判定终端及存储介质,旨在解决无人车测试过程中动态交互场景准确判定的问题。
根据本申请实施例的第一个方面,提供了一种无人车动态交互场景的判定方法,包括以下步骤:
采集无人车行驶数据,采集背景实体数据;
根据无人车行驶数据以及背景实体数据计算多项判定指标数据;
根据多项判定指标数据得到给定时间段内的多项判定指标数据序列;
根据至少一项判定指标数据序列判定所述给定时间段内的交互场景。
可选地,无人车行驶数据包括无人车GPS定位数据和CAN总线数据;背景实体数据包括背景动态实体的位置数据以及背景静态实体的属性数据。
可选地,根据至少一项判定指标数据序列判定所述给定时间段内的交互场景类型,具体包括:
设定交互场景的判定条件集,判定条件集包括至少一项判定指标数据序列;
设定判定条件集内每一项判定指标数据序列的判定条件;
根据判定条件集判定给定时间段内交互场景类型或者交互量化表现。
可选地,判定指标具体包括:背景实体运动方向角与无人车车头方向角的夹角、无人车与背景实体向量角与无人车自身车头方向的夹角、背景实体运动速度、无人车速度、背景实体加速度、无人车加速度、无人车与背景实体的向量距离以及无人车与背景实体之间的路径距离。
可选地,根据至少一项判定指标数据序列判定给定时间段内的交互场景,具体包括:
根据无人车与背景实体之间的路径距离的数据序列得到基于给定时间段内的车头路径距离曲线;
遍历车头路径距离曲线;
若车头路径距离曲线存在相变点使无人车与背景实体之间的路径距离为零,则判定无人车在给定时间段内的交互场景包括超车、会车或者避障;
若车头路径距离曲线不存在相变点使无人车与背景实体之间的路径距离为零,且车头路径距离保持在设定范围内,则判定无人车在给定时间段内的交互场景包括跟车。
可选地,若车头路径距离曲线存在相变点使无人车与背景实体之间的路径距离为零,则判定无人车在给定时间段内的交互场景包括超车、会车或者避障,具体包括:
若车头路径距离曲线存在相变点使无人车与背景实体之间的路径距离为零,且背景实体运动方向角与无人车车头方向角的夹角在0度数值上下浮动,且背景实体为背景车辆,则判定无人车在给定时间段内的交互场景为超车;
若车头路径距离曲线存在相变点使无人车与背景实体之间的路径距离为零,且背景实体运动方向角与无人车车头方向角的夹角在180度数值上下浮动,且背景实体为背景车辆,则判定无人车在给定时间段内的交互场景为会车;
若车头路径距离曲线存在相变点使无人车与背景实体之间的路径距离为零,且背景实体静止,则判定无人车在给定时间段内的交互场景为避障。
可选地,若车头路径距离曲线不存在相变点使无人车与背景实体之间的路径距离为零,且车头路径距离保持在设定范围内,则判定无人车在给定时间段内的交互场景包括跟车,具体包括:
若车头路径距离曲线不存在相变点使无人车与背景实体之间的路径距离为零,车头距离保持在设定范围内,且背景实体运动方向角与无人车车头方向角的夹角在一固定数值上下浮动,且背景实体为背景车辆,则判定无人车在给定时间段内的交互场景为跟车。
根据本申请实施例的第二个方面,提供了一种无人车动态交互场景的判定系统,具体包括:
数据采集模块,用于采集无人车行驶数据和背景实体数据;
判定指标计算模块,用于根据无人车行驶数据以及背景实体数据计算多项判定指标数据;
判定指标序列生成模块,用于根据多项判定指标数据得到给定时间段内的多项判定指标数据序列;
交互场景判定模块,用于根据至少一项判定指标数据序列判定所述给定时间段内的交互场景。
根据本申请实施例的第三个方面,提供了一种判定终端,包括:处理器和存储器;其中,存储器存储有计算机程序,计算机程序适于由处理器加载并执行无人车车道级场景的判定方法。
根据本申请实施例的第四个方面,提供了一种计算机可读存储介质,其上存储有计算机程序;计算机程序被处理器执行以实现无人车动态交互场景的判定方法。
采用本申请实施例中的无人车动态交互场景的判定方法、系统、判定终端及存储介质,首先采集无人车行驶数据以及背景实体数据;然后,根据无人车行驶数据以及背景实体数据计算多项判定指标数据;再根据多项判定指标数据得到一段时间内的多项判定指标数据序列;最后,根据至少一项判定指标数据序列判定在给定时间段内的交互场景,从而解决了无人车测试过程中动态交互场景准确判定的问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1中示出了根据本申请实施例的一种无人车动态交互场景的判定方法的步骤流程图;
图2中示出了根据本申请实施例中背景车辆和无人车行驶在测试路网上示意图及夹角α(t)和夹角γ(t)的示意图;
图3中示出了根据本申请实施例中背景车与无人车在测试路网的超车示意图以及无人车与背景车之间的路径距离τ(t)的曲线变化图;
图4示出了根据本申请实施例的一种无人车动态交互场景的判定系统的结构示意图;
图5示出了根据本申请实施例的一种判定终端的结构示意图。
具体实施方式
本申请实施例中提供了一种无人车动态交互场景的判定方法、系统、判定终端及存储介质,首先采集无人车行驶数据以及背景实体数据;然后,根据无人车行驶数据以及背景实体数据计算多项判定指标数据;再根据多项判定指标数据得到一段时间内的多项判定指标数据序列;最后,根据至少一项判定指标数据序列判定给定时间段内的交互场景,从而实现了无人车动态交互场景的判定。
无人车动态交互场景的判定方法以背景实体为基准,通过一系列指标描述无人车相对背景实体的运动属性,这些运动属性包括车头夹角、车头距离、速度、加速度以及无人车与背景实体相对路径距离等。上述指标以时间维度做横坐标进行组织,可以绘制成多条指标曲线。本申请将无人车动态场景判定问题转化为对上述指标曲线的协同过滤问题,即在给定的时间段内,如果多条指标曲线均满足某一种交互场景定义,则判定在该时段内发生了该种的动态场景交互行为。
为了使本申请实施例中的技术方案及优点更加清楚明白,以下结合附图对本申请的示例性实施例进行进一步详细的说明,显然,所描述的实施例仅是本申请的一部分实施例,而不是所有实施例的穷举。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
实施例1
图1中示出了根据本申请实施例的一种无人车动态交互场景的判定方法的步骤流程图。
如图1所示,本实施例的无人车动态交互场景的判定方法,具体包括以下步骤:
S101:采集无人车行驶数据,采集背景实体数据;
S102:根据无人车行驶数据以及背景实体数据计算多项判定指标数据;
S103:根据多项判定指标数据得到给定时间段内的多项判定指标数据序列;
S104:根据至少一项判定指标数据序列判定给定时间段内的交互场景。
具体的,S101中,无人车行驶数据包括无人车GPS定位数据和CAN总线数据;背景实体数据包括背景动态实体的位置数据以及背景静态实体的属性数据。
S102与S103中,判定指标具体包括:背景实体运动方向角与无人车车头方向角的夹角、无人车与背景实体向量角与无人车自身车头方向的夹角、背景实体运动速度、无人车速度、背景实体加速度、无人车加速度、无人车与背景实体的向量距离以及无人车与背景实体之间的路径距离。
S104中,根据至少一项判定指标数据序列判定所述给定时间段内的交互场景类型,具体包括:
设定交互场景的判定条件集,判定条件集包括至少一项判定指标数据序列;
设定判定条件集内每一项判定指标数据序列的判定条件;
根据判定条件集判定给定时间段内交互场景类型或者交互量化表现。
进一步的,在无人车的动态交互场景测试中,无人车与道路上同一时空范围内的其它背景实体产生了交互,例如通过信号灯控制路口,与信号灯发生交互;通过有行人的人行横道,与行人发生交互;在跟车、会车、超车等场景中,与背景车辆发生交互。
在动态交互测试场景中,无人车和背景实体的空间位置、属性状态等随时间发生变化,为了方便对无人车和背景实体进行时空关联分析,本申请提出以背景实体为基准,计算无人车与背景实体的相对位置属性。
首先进行S101,计算无人车的相对位置属性时需要采集无人车行驶数据以及采集背景实体数据。
关于无人车数据采集,基于目前的采集技术,获得无人车上传的数据包括GPS定位数据和CAN总线数据。
无人车行驶数据GPS_CAN定义如下:
GPS_CAN={g|g=<t,(x,y),v,θ,mode,Θ(light),Θ(turn),…>};
其中,t是GPS采集的时刻,(x,y)是GPS的经纬度信息,v和θ是车辆行驶的速度和方向角;CAN-BUS数据记录了车辆行驶的状态信息;mode为t时刻人工加入状态或者自动驾驶状态,Θ(light)为车辆灯光的实时状态,Θ(Turn)为车辆方向盘的实时转角。
背景实体的数据采集包括背景动态实体的位置和背景静态实体的属性数据属性数据。
背景实体数据ENT_INFO定义如下:
ENT_INFO={p|p=<t,(x,y),v,θ,Θ(info),…>};
其中,t是数据采集的时刻,(x,y)是实体的经纬度信息,v和θ是实体的运动速度和方向角,Θ(info)为实体在t时刻的属性信息,以信号灯为例,其属性包括红灯、黄灯或绿灯的状态。
进一步的,S102中根据无人车行驶数据以及背景实体数据计算多项判定指标数据;即计算无人车相对位置属性。本实施例中,假设背景实体为运动的,静止视为位置不变的一类特殊运动情况,判断原理与动态背景实体相似,本发明不再赘述。
图2中示出了根据本申请实施例中背景实体和无人车行驶在测试路网上示意图。
如图2所示,背景实体以车辆举例(本实施例记为背景车),背景车和无人车行驶在测试路网上,定义测试路网G=<N,L>,其中N={n1,n2,…np}是路网中点(node)的集合, L={l1,l2,…,lq}是路网中路段(link)的集合。
设在某一时刻t,背景车处于路网的l1路段上,无人车处于路网的l2路段上。得到时刻t 无人车数据g(t)∈GPS_CAN和背景车p(t)∈ENT_INFO,以背景车为基准,定义无人车的相对位置属性即判定指标具体如下:
1、背景车车头方向角与无人车车头方向角的夹角,简称车头夹角α(t),如图2所示车头夹角α(t)的示意图,车头夹角α(t)的计算公式为:
α(t)=IncAngle(g(t).θ,p(t).θ));
其中,IncAngle(,)是向量夹角计算函数。
2、无人车当前时刻位置指向背景车当前时刻位置的向量的角度,简称车头向量角β(t),如图2所示车头向量角β(t)的示意图,车头向量角β(t)的计算公式为:
β(t)=VecAngle(g(t).(x,y),p(t).(x,y));
其中,VecAngle(a,b)是在二维空间中点a到点b的一个向量夹角。
3、无人车与背景车向量角与无人车自身车头方向的夹角,简称车头向量夹角γ(t),如图2所示车头向量夹角γ(t)示意图,车头向量夹角γ(t)的计算公式为:
γ(t)=IncAngle(g(t).θ,β(t));
其中,在直线道路上,如果γ(t)≤90,说明背景车在无人车前方,否则,说明背景车在无人车后方。
4、背景车速度ρ(t),即背景车当前时刻的速度大小。背景车速度ρ(t)计算公式为:
ρ(t)=p(t).v。
5、无人车速度δ(t),即无人车当前时刻的速度大小。无人车速度δ(t)计算公式为:
δ(t)=g(t).v。
6、背景车加速度φ(t),即背景车当前时刻的加速度大小。背景车加速度φ(t)计算公式为:
其中,t-1为上一时刻。
其中,t-1为上一时刻。
8、车头直线距离κ(t),即无人车当前时刻与背景车的向量距离,车头直线距离κ(t)计算公式为:
κ(t)=VecDis(g(t).(x,y),p(t).(x,y));
其中,VecDis(a,b)是在二维空间中点a到点b的一个向量距离;
在定义κ(t)的时候需要结合无人车与背景车的方位关系,如果背景车在无人车前方,则定义κ(t)为正值;如果背景车在无人车后方,则定义κ(t)为负值。
9、车头路径距离τ(t),即无人车与背景车之间的路径距离。
如图2所示,无人车处在路段l2上,背景车处在路段l1上,在测试路网G上分别执行从l2到l1和从l1到l2的最短路径算法ShortPath(),设结果分别为ShortPath(l2→l1)和ShortPath(l1→l2)。
PathLen()函数通过累加路径中路段的长度,计算两条路径的长度。因此,两条路径的长度分别为len1=PathLen(ShortPath(l1→l2)),len2=PathLen(ShortPath(l2→l1))。
其中,若τ(t)=len2,说明无人车到背景车的最短路径更短,无人车在背景车之后;否则,说明无人车在背景车之前。
最后得到,车头路径距离计算公式为:
τ(t)=min(len1,len2)。
其中,在定义τ(t)的时候,需要结合无人车与背景车的方位关系,若背景车在无人车前方,则定义τ(t)为正值;如果背景车在无人车后方,则定义τ(t)为负值。
车头直线距离κ(t)是车头路径距离τ(t)在直线路径下的特殊情况,不失一般性,本申请实施例只考虑τ(t)的情况。
进一步的,S103中根据多项判定指标数据得到一段时间内的多项判定指标数据序列。
本实施例中,给定无人车测试时段Tbgn至Tend,根据S101获取背景车和无人车的数据组成基于测试时段Tbgn至Tend的无人车数据序列g(Tbgn)以及背景车数据序列p(Tbgn)。具体表示如下:
g(Tbgn)→g(Tbgn+1)→…→g(Tend-1)→g(Tend);
以及p(Tbgn)→p(Tbgn+1)→…→p(Tend-1)→p(Tend)。
根据无人车数据序列g(Tbgn)以及背景车数据序列p(Tbgn)进而可以得到基于测试时段 Tbgn至Tend内的无人车相对位置的各个指标数据序列,列举如下:
车头夹角α(t)指标数据序列:
α(Tbgn,Tend)=α(Tbgn)→α(Tbgn+1)→…→α(Tend-1)→α(Tend);
车头向量角β(t)指标数据序列:
β(Tbgn,Tend)=β(Tbgn)→β(Tbgn+1)→…→β(Tend-1)→β(Tend);
车头向量夹角γ(t)指标数据序列:
γ(Tbgn,Tend)=γ(Tbgn)→γ(Tbgn+1)→…→γ(Tend-1)→γ(Tend);
背景车速度ρ(t)指标数据序列:
ρ(Tbgn,Tend)=ρ(Tbgn)→ρ(Tbgn+1)→…→ρ(Tend-1)→ρ(Tend);
无人车速度δ(t)指标数据序列:
δ(Tbgn,Tend)=δ(Tbgn)→δ(Tbgn+1)→…→δ(Tend-1)→δ(Tend);
背景车加速度φ(t)指标数据序列:
φ(Tbgn,Tend)=φ(Tbgn)→φ(Tbgn+1)→…→φ(Tend-1)→φ(Tend);
车头直线距离κ(t)指标数据序列:
κ(Tbgn,Tend)=κ(Tbgn)→κ(Tbgn+1)→…→κ(Tend-1)→κ(Tend);
车头路径距离τ(t)指标数据序列:
τ(Tbgn,Tend)=τ(Tbgn)→τ(Tbgn+1)→…→τ(Tend-1)→τ(Tend)。
通过对上述指标序列的协同过滤实现无人车与背景车的交互场景的判定,具体的,S104 中根据至少一项判定指标数据序列判定给定时间段内的交互场景。
对于一个给定的场景sk首先设定判定条件集Ω(sk),公式为:
其中,αk是场景sk对车头夹角α(t)指标序列的判定条件;βk是场景sk对车头向量角β(t)指标序列的判定条件;γk是场景sk对车头向量夹角γ(t)指标序列的判定条件;δk是场景sk对无人车速度δ(t)指标序列的判定条件;φk是场景sk对背景车加速度φ(t)指标序列的判定条件;是场景sk对无人车加速度指标序列的判定条件;κk是场景sk对车头直线距离κ(t)指标序列的判定条件;τk是场景sk对车头路径距离τ(t)指标序列的判定条件。
无人车动态场景判定问题可以抽象为如下命题:设定时间段序列若αk(α(ti,tj))=True、βk(α(ti,tj))=True、……、τk(α(ti,tj))=True,则说明时间序列[ti,tj]里,无人车与背景车完成一次交互场景sk。
采用本申请实施例中的无人车动态交互场景的判定方法,首先采集无人车行驶数据以及背景实体数据;然后,根据无人车行驶数据以及背景实体数据计算多项判定指标数据;再根据多项判定指标数据得到一段时间内的多项判定指标数据序列;最后,根据至少一项判定指标数据序列判定在给定时间段内的交互场景,从而解决了无人车测试过程中动态交互场景准确判定的问题。
实施例2
本实施例2是在实施例1基础上更为具体的交互场景判定方法。
在动态交互场景中,无论是避障、超车、会车等,无人车和背景实体都有一个由远及近、再由近及远的过程。无人车与背景车之间的路径距离即车头路径距离τ(t)是一个重要的表征指标,可以来定位交互发生的过程。
根据实施例1中的S104,根据至少一项判定指标数据序列判定给定时间段内的交互场景,具体实施步骤展开如下:
首先,如图3所示,根据无人车与背景实体之间的路径距离的数据序列得到基于给定时间段内的车头路径距离曲线τ(t)。
然后,遍历车头路径距离曲线τ(t),寻找曲线τ(t)的相变点,相变点处无人车与背景实体之间的路径距离为零。
遍历曲线τ(t)时,若车头路径距离曲线存在相变点,即存在使无人车与背景实体之间的路径距离为零的时刻,则判定无人车在给定时间段内的交互场景包括超车、会车或避障。
具体的,若车头路径距离曲线存在相变点使无人车与背景实体之间的路径距离为零,且背景实体运动方向角与无人车车头方向角的夹角在0度数值上下浮动,且背景实体为背景车辆,则判定无人车在给定时间段内的交互场景为超车;
若车头路径距离曲线存在相变点使无人车与背景实体之间的路径距离为零,且背景实体运动方向角与无人车车头方向角的夹角在180度数值上下浮动,且背景实体为背景车辆,则判定无人车在给定时间段内的交互场景为会车;
若车头路径距离曲线存在相变点使无人车与背景实体之间的路径距离为零,且背景实体静止,则判定无人车在给定时间段内的交互场景为避障,例如信号灯为避障场景的一类特定情况。
根据以上判定方法,具体实施判定交互场景的过程如下:
如图3所示的车头路径距离曲线τ(t),在ti时刻,无人车在背景车之后,车头路径距离τ(ti)结果为正;在tc时刻,车辆位置互换,车头路径距离τ(tc)=0,此时τ(t)曲线发生相变;之后τ(t)曲线保持负值,直到tj时刻过程结束。
因此,在遍历τ(t)曲线时,可以寻找到曲线τ(t)的相变点tc,进而向前向后寻找过程的开始点ti和结束点tj,实现计算过程的加速。
进一步判定的,当车头夹角α(t)指标在某一段时间内维持在0度附近,则无人车在这段时间内出现超车交互场景;当车头夹角α(t)指标在某一段时间内维持在180度附近,则无人车在这段时间内出现会车交互场景。
遍历曲线τ(t)时,若车头路径距离曲线不存在相变点,即不存在使无人车与背景实体之间的路径距离为零的时刻,且车头路径距离保持在设定范围内,则判定无人车在给定时间段内的交互场景包括跟车。
具体的,若车头路径距离曲线不存在相变点使无人车与背景实体之间的路径距离为零,且背景实体运动方向角与无人车车头方向角的夹角在一固定数值上下浮动,即τ(t)在时间序列[ti,tj]中,维持在一个相对稳定的值,且背景实体为背景车辆,则判定无人车在给定时间段内的交互场景为跟车。
其它实施方式中,在判定过程中,还可以通过判定车辆在交互过程中的速度曲线、加速度曲线等其它判定指标,实现进一步对无人车交互能力的量化评估。
实施例3
图4示出了根据本申请实施例的一种无人车动态交互场景的判定系统的结构示意图。
如图4所示,本实施例提供的一种无人车动态交互场景的判定系统,具体包括:
数据采集模块10,用于采集无人车行驶数据和背景实体数据;
判定指标计算模块20,用于根据无人车行驶数据以及背景实体数据计算多项判定指标数据;
判定指标序列生成模块30,用于根据多项判定指标数据得到给定时间段内的多项判定指标数据序列;
交互场景判定模块40,用于根据至少一项判定指标数据序列判定给定时间段内的交互场景。
具体的,数据采集模块10,无人车行驶数据包括无人车GPS定位数据和CAN总线数据;背景实体数据包括背景动态实体的位置数据以及背景静态实体的属性数据。
其中,判定指标计算模块20中的判定指标具体包括:背景实体运动方向角与无人车车头方向角的夹角、无人车与背景实体向量角与无人车自身车头方向的夹角、背景实体运动速度、无人车速度、背景实体加速度、无人车加速度、无人车与背景实体的向量距离以及无人车与背景实体之间的路径距离。
交互场景判定模块40中,根据至少一项判定指标数据序列判定给定时间段内的交互场景具体包括:首先,设定交互场景的判定条件集,判定条件集包括至少一项判定指标数据序列;其次,设定判定条件集内每一项判定指标数据序列的判定条件;最后,根据判定条件集判定给定时间段内交互场景类型或者交互量化表现。
本申请实施例给出了无人车测试过程中动态交互场景,例如跟车、会车、避障以及超车等的判定方法,在准确判定的基础上,可以对无人车发生交互行为的时间和空间范围进行界定,并进一步评估其在交互过程中的能力表现,有助于发现无人车在交互场景中存在的问题。
采用本申请实施例中的无人车动态交互场景的判定系统,首先采集无人车行驶数据以及背景实体数据;然后,根据无人车行驶数据以及背景实体数据计算多项判定指标数据;再根据多项判定指标数据得到一段时间内的多项判定指标数据序列;最后,根据至少一项判定指标数据序列判定在给定时间段内的交互场景,从而解决了无人车测试过程中动态交互场景准确判定的问题。
实施例4
图5为本申请实施例提供的判定终端的结构示意图。如图5所示,本实施例提供的判定终端包括:存储器301、处理器302、以及计算机程序,其中,该计算机程序存储在存储器301中,并被配置为由处理器302执行以实现如上任一内容所提供的无人车动态交互场景的判定方法。
实施例5
本实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行以实现如上任一内容所提供的无人车动态交互场景的判定方法。
基于同一发明构思,本申请实施例中还提供了一种计算机程序产品,由于该计算机程序产品解决问题的原理与本申请实施例一所提供的方法相似,因此该计算机程序产品的实施可以参见方法的实施,重复之处不再赘述。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和 /或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (10)
1.一种无人车动态交互场景的判定方法,其特征在于,包括以下步骤:
采集无人车行驶数据,采集背景实体数据;
根据所述无人车行驶数据以及背景实体数据计算多项判定指标数据;
根据多项判定指标数据得到给定时间段内的多项判定指标数据序列;
根据至少一项所述判定指标数据序列判定所述给定时间段内的交互场景。
2.根据权利要求1所述的无人车动态交互场景的判定方法,其特征在于,所述无人车行驶数据包括无人车GPS定位数据和CAN总线数据;所述背景实体数据包括背景动态实体的位置数据以及背景静态实体的属性数据。
3.根据权利要求1所述的无人车动态交互场景的判定方法,其特征在于,所述根据至少一项所述判定指标数据序列判定所述给定时间段内的交互场景,具体包括:
设定交互场景的判定条件集,所述判定条件集包括至少一项所述判定指标数据序列;
设定判定条件集内每一项判定指标数据序列的判定条件;
根据所述判定条件集判定给定时间段内交互场景类型或者交互量化表现。
4.根据权利要求1所述的无人车动态交互场景的判定方法,其特征在于,所述判定指标具体包括:背景实体运动方向角与无人车车头方向角的夹角、无人车与背景实体向量角与无人车自身车头方向的夹角、背景实体运动速度、无人车速度、背景实体加速度、无人车加速度、无人车与背景实体的向量距离以及无人车与背景实体之间的路径距离。
5.根据权利要求4所述的无人车动态交互场景的判定方法,其特征在于,所述根据至少一项所述判定指标数据序列判定所述给定时间段内的交互场景,具体包括:
根据所述无人车与背景实体之间的路径距离的数据序列得到基于所述给定时间段内的车头路径距离曲线;
遍历所述车头路径距离曲线;
若车头路径距离曲线存在相变点使无人车与背景实体之间的路径距离为零,则判定无人车在所述给定时间段内的交互场景包括超车、会车和避障;
若车头路径距离曲线不存在相变点使无人车与背景实体之间的路径距离为零,且车头路径距离保持在设定范围内,则判定无人车在所述给定时间段内的交互场景包括跟车。
6.根据权利要求5所述的无人车动态交互场景的判定方法,其特征在于,所述若车头路径距离曲线存在相变点使无人车与背景实体之间的路径距离为零,则判定无人车在所述给定时间段内的交互场景包括超车、会车和避障,具体包括:
若车头路径距离曲线存在相变点使无人车与背景实体之间的路径距离为零,且所述背景实体运动方向角与无人车车头方向角的夹角在0度数值上下浮动,且所述背景实体为背景车辆,则判定无人车在所述给定时间段内的交互场景为超车;
若车头路径距离曲线存在相变点使无人车与背景实体之间的路径距离为零,且所述背景实体运动方向角与无人车车头方向角的夹角在180度数值上下浮动,且所述背景实体为背景车辆,则判定无人车在所述给定时间段内的交互场景为会车;
若车头路径距离曲线存在相变点使无人车与背景实体之间的路径距离为零,且背景实体静止,则判定无人车在所述给定时间段内的交互场景为避障。
7.根据权利要求5所述的无人车动态交互场景的判定方法,其特征在于,所述若车头路径距离曲线不存在相变点使无人车与背景实体之间的路径距离为零,且车头路径距离保持在设定范围内,则判定无人车在所述给定时间段内的交互场景包括跟车,具体包括:
若车头路径距离曲线不存在相变点使无人车与背景实体之间的路径距离为零,且所述背景实体运动方向角与无人车车头方向角的夹角在一固定数值上下浮动,且所述背景实体为背景车辆,则判定无人车在所述给定时间段内的交互场景为跟车。
8.一种无人车动态交互场景的判定系统,其特征在于,包括:
数据采集模块,用于采集无人车行驶数据,用于采集背景实体数据;
判定指标计算模块,用于根据所述无人车行驶数据以及背景实体数据计算多项判定指标数据;
判定指标序列生成模块,用于根据多项判定指标数据得到给定时间段内的多项判定指标数据序列;
交互场景判定模块,用于根据至少一项所述判定指标数据序列判定所述给定时间段内的交互场景。
9.一种判定终端,其特征在于,包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行如权利要求1-8任意一项的无人车动态交互场景的判定方法。
10.一种计算机可读存储介质,其特征在于,其上存储有计算机程序;所述计算机程序被处理器执行以实现如权利要求1-8任一项所述的无人车动态交互场景的判定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010214301.XA CN111582018B (zh) | 2020-03-24 | 2020-03-24 | 无人车动态交互场景的判定方法、系统、判定终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010214301.XA CN111582018B (zh) | 2020-03-24 | 2020-03-24 | 无人车动态交互场景的判定方法、系统、判定终端及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111582018A true CN111582018A (zh) | 2020-08-25 |
CN111582018B CN111582018B (zh) | 2024-02-09 |
Family
ID=72111379
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010214301.XA Active CN111582018B (zh) | 2020-03-24 | 2020-03-24 | 无人车动态交互场景的判定方法、系统、判定终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111582018B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106802954A (zh) * | 2017-01-18 | 2017-06-06 | 中国科学院合肥物质科学研究院 | 无人车语义地图模型构建方法及其在无人车上的应用方法 |
CN109324620A (zh) * | 2018-09-25 | 2019-02-12 | 北京主线科技有限公司 | 基于车道线平行偏移进行避障及超车的动态轨迹规划方法 |
CN109472884A (zh) * | 2018-10-29 | 2019-03-15 | 百度在线网络技术(北京)有限公司 | 无人车数据存储方法、装置、设备及存储介质 |
CN109934954A (zh) * | 2019-02-01 | 2019-06-25 | 北京百度网讯科技有限公司 | 无人车运行场景确定方法及设备 |
CN110111566A (zh) * | 2019-04-19 | 2019-08-09 | 腾讯科技(深圳)有限公司 | 轨迹预测方法、装置和存储介质 |
CN110796007A (zh) * | 2019-09-27 | 2020-02-14 | 华为技术有限公司 | 场景识别的方法与计算设备 |
WO2020053170A1 (de) * | 2018-09-10 | 2020-03-19 | Volkswagen Aktiengesellschaft | Verfahren zum erzeugen einer informationssammlung zu fahrszenarien wenigstens eines fahrzeugs, sowie fahrzeug, anordnung und daraus bestehendes system |
-
2020
- 2020-03-24 CN CN202010214301.XA patent/CN111582018B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106802954A (zh) * | 2017-01-18 | 2017-06-06 | 中国科学院合肥物质科学研究院 | 无人车语义地图模型构建方法及其在无人车上的应用方法 |
WO2020053170A1 (de) * | 2018-09-10 | 2020-03-19 | Volkswagen Aktiengesellschaft | Verfahren zum erzeugen einer informationssammlung zu fahrszenarien wenigstens eines fahrzeugs, sowie fahrzeug, anordnung und daraus bestehendes system |
CN109324620A (zh) * | 2018-09-25 | 2019-02-12 | 北京主线科技有限公司 | 基于车道线平行偏移进行避障及超车的动态轨迹规划方法 |
CN109472884A (zh) * | 2018-10-29 | 2019-03-15 | 百度在线网络技术(北京)有限公司 | 无人车数据存储方法、装置、设备及存储介质 |
CN109934954A (zh) * | 2019-02-01 | 2019-06-25 | 北京百度网讯科技有限公司 | 无人车运行场景确定方法及设备 |
CN110111566A (zh) * | 2019-04-19 | 2019-08-09 | 腾讯科技(深圳)有限公司 | 轨迹预测方法、装置和存储介质 |
CN110796007A (zh) * | 2019-09-27 | 2020-02-14 | 华为技术有限公司 | 场景识别的方法与计算设备 |
Non-Patent Citations (2)
Title |
---|
TAO ZHANG等: "A novel platform for simulation and evaluation of intelligent behavior of driverless vehicle" * |
李凤娇: "无人驾驶车辆综合避障行为研究与评价" * |
Also Published As
Publication number | Publication date |
---|---|
CN111582018B (zh) | 2024-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111626208B (zh) | 用于检测小目标的方法和装置 | |
US11475677B2 (en) | Method, apparatus, and system for generating synthetic image data for machine learning | |
Naphade et al. | The 2018 nvidia ai city challenge | |
WO2022206942A1 (zh) | 一种基于行车安全风险场的激光雷达点云动态分割及融合方法 | |
CN102792316B (zh) | 交通信号的映射和检测 | |
CN111860227A (zh) | 训练轨迹规划模型的方法、装置和计算机存储介质 | |
CN107310550A (zh) | 道路交通工具行驶控制方法和装置 | |
CN113052159B (zh) | 一种图像识别方法、装置、设备及计算机存储介质 | |
CN109711009B (zh) | 无人驾驶汽车性能评价方法、装置、电子设备及介质 | |
CN104875740B (zh) | 用于管理跟随空间的方法、主车辆以及跟随空间管理单元 | |
CN112990065A (zh) | 一种基于优化的YOLOv5模型的车辆分类检测方法 | |
US20210326699A1 (en) | Travel speed prediction | |
CN112683285B (zh) | 一种基于边缘计算的高精度地图数据交互方法 | |
Guo et al. | A fusion estimation of the peak tire–road friction coefficient based on road images and dynamic information | |
CN115470884A (zh) | 用于自动驾驶系统的感知系统开发的平台 | |
Aditya et al. | Collision detection: An improved deep learning approach using SENet and ResNext | |
Tian et al. | RSG-GCN: predicting semantic relationships in urban traffic scene with map geometric prior | |
Chamola et al. | Overtaking mechanisms based on augmented intelligence for autonomous driving: Datasets, methods, and challenges | |
CN117237612A (zh) | 一种基于yolox模型的复杂道路场景目标检测方法 | |
CN111582018A (zh) | 无人车动态交互场景的判定方法、系统、判定终端及存储介质 | |
Jiang et al. | A review of traffic behaviour and intelligent driving at roundabouts based on a microscopic perspective | |
Ye et al. | Neural network‐based semantic segmentation model for robot perception of driverless vision | |
US20240042993A1 (en) | Trajectory generation utilizing diverse trajectories | |
Hamzah et al. | Parking Violation Detection on The Roadside of Toll Roads with Intelligent Transportation System Using Faster R-CNN Algorithm | |
CN113778102B (zh) | Avp全局路径规划系统、方法、车辆及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |