CN111582019B - 无人车车道级场景的判定方法、系统、终端及存储介质 - Google Patents

无人车车道级场景的判定方法、系统、终端及存储介质 Download PDF

Info

Publication number
CN111582019B
CN111582019B CN202010215273.3A CN202010215273A CN111582019B CN 111582019 B CN111582019 B CN 111582019B CN 202010215273 A CN202010215273 A CN 202010215273A CN 111582019 B CN111582019 B CN 111582019B
Authority
CN
China
Prior art keywords
lane
level
unmanned vehicle
scene
road section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010215273.3A
Other languages
English (en)
Other versions
CN111582019A (zh
Inventor
郭胜敏
张瑞龙
左鹏
马红岩
梁长乐
夏曙东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Palmgo Information Technology Co ltd
Original Assignee
Beijing Palmgo Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Palmgo Information Technology Co ltd filed Critical Beijing Palmgo Information Technology Co ltd
Priority to CN202010215273.3A priority Critical patent/CN111582019B/zh
Publication of CN111582019A publication Critical patent/CN111582019A/zh
Application granted granted Critical
Publication of CN111582019B publication Critical patent/CN111582019B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请实施例中提供了一种无人车车道级场景的判定方法、系统、终端及存储介质。通过对导航电子地图的路段进行车道级标注,得到车道级电子地图;然后,基于车道级电子地图,对无人车定位数据进行地图匹配,得到无人车车道级定位结果;最后,将无人车车道级定位结果与车道级电子地图的车道级场景标注进行映射,判定无人车经过的车道级场景。实现了基于现有导航电子地图,解决无人车测试过程中车道级场景不能准确判定的问题。

Description

无人车车道级场景的判定方法、系统、终端及存储介质
技术领域
本申请属于智能交通技术领域,具体地,涉及一种无人车车道级场景的判定方法、系统、终端及存储介质。
背景技术
无人驾驶技术作为学术界和产业界重要的研究方向,对于汽车行业乃至交通运输业均有深远的影响。无人驾驶汽车能够解放人类的双手,降低交通事故发生的概率,保障人们的安全。随着人工智能、传感检测等核心技术的不断发展,无人驾驶技术必将更加智能化,并加快实现产业化。
驾驶场景是对无人车行驶过程中遇到的行驶环境的类型概括和表达,基于场景对无人车行驶能力评估是发现无人车平台漏洞的一个必要手段。因此,准确完备的场景判定,是对无人车进行能力评估的一个重要前提条件。在无人车测试场景中,有一类场景与车辆行驶车道的判定密切相关,如逆行、潮汐车道行驶、停车入位的判定等等。在上述场景下,需要实现无人车车道级的定位,以及基于场景定义实现无人车的行为能力评估。
在无人驾驶的背景下,中国专利号201811496440.5的专利公开的“无人驾驶汽车测试方法、装置、电子设备及介质”的技术方案,给出了基于场景对无人车在封闭测试场内行驶过程进行量化描述和指标统计的方法体系。其基于封闭测试场内典型化的道路类型,定义对应的道路测试场景,并在电子地图上进行标注;将无人车的行驶过程定义为对场景关联标注的路段的途经过程。通过采集无人车在行驶过程中的数据,与经过良好标注的测试场电子地图路段进行时空关联分析,最终完成对无人车行驶过程的量化统计和评估。
以上技术给出了基于路段级场景对无人车行驶过程进行量化描述和指标统计的通用方法体系,但一些无人车非常重要的测试场景,如车辆压实线、限行路段、车辆逆行、公交车道、潮汐车道等,需要对无人车进行车道级定位,而车道级定位一般需要高精地图的支持,其采集和应用的成本较高。因此,需要一种基于现有导航电子地图,对无人车进行车道级场景判定,并进一步评估能力的方法。
发明内容
本发明提出了一种无人车车道级场景的判定方法、系统、存储介质及终端,旨在解决无人车测试过程中进行车道级场景准确判定的问题。
根据本申请实施例的第一个方面,提供了一种无人车车道级场景的判定方法,包括以下步骤:
对导航电子地图中的路段进行车道级标注,得到车道级电子地图;
基于车道级电子地图,对无人车定位数据进行地图匹配,得到无人车车道级定位结果;
将无人车车道级定位结果与车道级电子地图的车道级场景标注进行映射,判定无人车经过的车道级场景。
可选地,对导航电子地图的路段进行车道级标注,得到车道级电子地图,具体包括:
通过由n+1条车道线将导航电子地图的一个路段从左至右划分为n个车道;
计算路段线型到各个车道线型的Hausdroff距离;
路段的每一个车道采用三元组描述进行标记,描述公式为:
lane=<id,lefth,righth〉,
其中,id是对车道的唯一标志,lefth定义了路段线型到车道左车道线型的Hausdroff距离,righth定义了路段线型到车道右车道线型的Hausdroff距离。其中,若车道线型位于路段线型左侧,Hausdroff距离标为负。
可选地,计算路段线型到各个车道线型的Hausdroff距离,Hausdroff距离H(l,k)计算公式为:
H(l,k)=max(h(l,k),h(k,l)),
其中,l为路段线型,k为其中一个车道线型,
其中,h(l,k)=max(n∈l){min(n′∈k)||n-n′||},
其中,n和n′分别是l和k上的任意点,||*||是n和n′的距离范式,指欧几里得距离。
可选地,对导航电子地图的路段进行车道级标注,得到车道级电子地图,还包括:
对车道方向流段定义,UpLanes字段定义路段同向车道信息;DownLanes字段定义逆向车道信息。
可选地,基于车道级电子地图,对无人车定位数据进行地图匹配,得到无人车车道级定位结果,具体包括:
输入无人车的GPS定位数据,与导航电子地图的路段线型进行地图匹配操作,得到无人车当前位置的映射路段,以及无人车相对映射路段之间的映射距离;
通过无人车的包络矩形得到无人车左、右边界相对无人车GPS定位点的距离;
根据无人车相对映射路段之间的映射距离以及无人车左、右边界相对无人车GPS定位点的距离,得到无人车左、右边界相对映射路段之间的映射距离,分别记为左边界映射距离以及右边界映射距离;
将无人车左、右边界相对映射路段之间的映射距离分别与车道级电子地图中每一个车道的左、右车道线相对于映射路段的距离进行比较,得到无人车所处的车道。
可选地,将无人车车道级定位结果与车道级电子地图的车道级场景标注进行映射,判定无人车经过的车道级场景,具体包括:
将车道级场景scenelane采用五元组描述进行定义,定义公式为:
scenelane=〈scene_id,link_id,{lane_ids},(tbgn,tend),scene_label〉
其中,scene_id为一个车道级场景的唯一标识;link_id为无人车所处的路段,{lane_ids}为无人车车道级定位的无人车所处的车道集合,(tbgn,tend)为车道级场景生效的起止时刻,scene_label为对车道级场景的类型描述。
根据本申请实施例的第二个方面,提供了一种无人车车道级场景的判定系统,具体包括:
车道级地图标注模块,用于对导航电子地图的路段进行车道级标注,得到车道级电子地图;
车道级地图匹配模块,用于基于车道级电子地图,对无人车定位数据进行地图匹配,得到无人车车道级定位结果;
车道级场景判定模块,用于将无人车车道级定位结果与车道级电子地图的车道级场景标注进行映射,判定无人车经过的车道级场景。
根据本申请实施例的第三个方面,提供了一种计算机可读存储介质,其上存储有计算机程序;计算机程序被处理器执行以实现无人车车道级场景的判定方法。
根据本申请实施例的第四个方面,提供了一种终端,包括:处理器和存储器;其中,存储器存储有计算机程序,计算机程序适于由处理器加载并执行无人车车道级场景的判定方法。
采用本申请实施例中的无人车车道级场景的判定方法、系统、存储介质及终端,通过对导航电子地图的路段进行车道级标注,得到车道级电子地图;然后,基于车道级电子地图,对无人车定位数据进行地图匹配,得到无人车车道级定位结果;最后,将无人车车道级定位结果与车道级电子地图的车道级场景标注进行映射,判定无人车经过的车道级场景。本申请基于现有导航电子地图,解决了无人车测试过程中车道级场景不能准确判定的问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1中示出了根据本申请实施例的一种无人车车道级场景的判定方法的步骤流程图;
图2中示出了根据本申请实施例中无人车辆定位设备安装及描述方法示意图;
图3中示出了根据本申请实施例中根据导航电子地图得到车道级电子地图的示意图;
图4中示出了根据本申请实施例的无人车定位数据进行地图匹配的示意图;
图5示出了根据本申请实施例的一种无人车车道级场景的判定系统的结构示意图。
图6示出了根据本申请实施例的一种终端的结构示意图。
具体实施方式
在实现本申请的过程中,发明人发现一些无人车非常重要的测试场景,如车辆压实线、限行路段、车辆逆行、公交车道、潮汐车道等,需要对无人车进行车道级定位和场景判定。现有技术虽然给出了基于场景对无人车行驶过程进行量化描述和指标统计的通用方法体系,但没有给出无人车车道级场景的判定方法。因此,需要一种基于现有导航电子地图,对无人车测试过程中车道级场景进行准确判定,并进一步评估无人车行驶性能的方法。
针对上述问题,本申请实施例中提供了一种无人车车道级场景的判定方法、系统、存储介质及终端,通过对导航电子地图的路段进行车道级标注,得到车道级电子地图;然后,基于所述车道级电子地图,对无人车定位数据进行地图匹配,得到无人车车道级定位结果;最后,将所述无人车车道级定位结果与所述车道级电子地图的车道级场景标注进行映射,判定无人车经过的车道级场景。基于上述方法,实现了无人车测试过程中车道级场景的准确判定。
一般而言,车道级定位需要高精地图的支持,但目前高精地图的采集和应用成本均比较高,本发明还解决了如何在无法获取高清地图的情况下,对现有导航级电子地图进行车道级标注,以支撑对无人车进行车道级定位。
因此,本申请还实现了无人车的车道级定位功能。
本申请首先通过对电子地图进行车道级标注,将车道级测试场景的路段改造成高精地图路段,与无人车的高精度定位设备相结合,实现车道级的无人车定位;同时,将车道级场景通过属性标注的方法进行定义,将无人车的车道级定位结果与车道级场景标注进行时空关联分析,最终解决无人车车道级场景的判定和能力评估问题。
具体的,本申请给出了在导航电子地图精度情况下,通过车道级标注方法,将导航级电子地图路段改造成高精地图路段的方法。基于改造好的高精电子地图,实现了无人车车道级定位;基于改造好的高精电子地图,给出了车道级测试场景的定义方法,以及无人车经过车道级场景的量化能力评估方法。
基于本申请的无人车车道级场景的判定方法,在车道级测试场景中,既可以对无人车的测试过程进行科学量化评价,也有助于发现测试过程中无人车的问题。
为了使本申请实施例中的技术方案及优点更加清楚明白,以下结合附图对本申请的示例性实施例进行进一步详细的说明,显然,所描述的实施例仅是本申请的一部分实施例,而不是所有实施例的穷举。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
实施例1
图1中示出了根据本申请实施例的一种无人车车道级场景的判定方法的步骤流程图。
如图1所示,本实施例的无人车车道级场景的判定方法,具体包括以下步骤:
S101:对导航电子地图中车道级场景涉及的路段进行车道级标注,得到车道级电子地图。
S101中对导航电子地图中车道级场景涉及的路段进行车道级标注得到车道级电子地图,具体包括:
通过由n+1条车道线将导航电子地图的一个路段从左至右划分为n个车道;
计算路段线型到各个车道线型的Hausdroff距离;
路段的每一个车道采用三元组描述进行标记,描述公式为:
lane=〈id,lefth,righth〉,
其中,id是对车道的唯一标志,lefth定义了路段线型到车道左车道线型的Hausdroff距离,righth定义了路段线型到车道右车道线型的Hausdroff距离。其中,若车道线型位于路段线型左侧,Hausdroff距离标为负。
其中,计算路段线型到各个车道线型的Hausdroff距离,Hausdroff距离H(l,k)计算公式为:
H(l,k)=max(h(l,k),h(k,l)),
其中,l为路段线型,k为其中一个车道线型,
其中,h(l,k)=max(n∈l){min(n′∈k)||n-n′||},
其中,n和n′分别是l和k上的任意点,||*||是n和n′的距离范式,指欧几里得距离。
S102:基于车道级电子地图,对无人车定位数据进行地图匹配,得到无人车车道级定位结果。
S102中,对无人车定位数据进行地图匹配,得到无人车车道级定位结果。具体包括:
首先,输入无人车的GPS定位数据,然后将GPS定位数据与导航电子地图的路段线型进行地图匹配操作,得到无人车当前位置的映射路段,通过得到的映射路段,可以计算出无人车相对映射路段之间的映射距离。
然后,采用包络矩形描述无人车的车身边界,通过无人车的包络矩形的边界描述无人车左、右边界,进而计算出无人车左、右边界相对无人车GPS定位点的距离,无人车GPS定位点即GPS采集装置安装于车身的位置。
通过以上步骤得到的无人车相对映射路段之间的映射距离,以及无人车左、右边界相对无人车GPS定位点的距离,最后可以得到无人车左、右边界相对映射路段之间的映射距离,分别记为左边界映射距离以及右边界映射距离。
最后,将上一步骤得到的无人车左、右边界相对映射路段之间的映射距离分别与车道级电子地图中每一个车道的左、右车道线相对于映射路段的距离进行比较,根据比较结果即可判断得到无人车所处的车道。
通过S102的步骤最后得到无人车车道级定位结果,在实际应用中,对无人车所处的车道进行判定时,鉴于进行映射的计算代价相对进行比较的计算代价要大很多,本申请采用先与导航电子地图进行一次映射,得到车辆与路段线型的距离,然后再进一步与车道线型位置相关关系进行多次比较的方法。
S103:将无人车车道级定位结果与车道级电子地图的车道级场景标注进行映射,判定无人车经过的车道级场景。
进一步的,在S103中得到不同时间段内无人车的多个车道级场景之后,还包括计算给定时间段内车道级场景的判定步骤:
具体的,将车道级场景scenelane采用五元组描述进行定义,定义公式为:
scenelane=<scene_id,link_id,{lane_ids},(tbgn,tend),scene_label>
其中,scene_id为一个车道级场景的唯一标识;link_id为无人车所处的路段,{lane_ids}为无人车车道级定位的无人车所处的车道集合,(tbgn,tend)为车道级场景生效的起止时刻,scene_label为对车道级场景的类型描述。
实施例2
实施例2在实施例1基础上进行更具体的列举说明。
图2中示出了根据本申请实施例中无人车辆GPS定位设备安装及描述方法示意图。
如图2所示,图2(a)为本申请中测试无人车车身的上视图,其中矩形框Rect是车辆的包络矩形,定义了车辆的车身在路面上的覆盖范围。o点是车辆高精度GPS定位设备的安装位置;图2(b)是对图2(a)的一个抽象表达,定义o点是车辆GPS设备安装位置,其距离车辆包络矩形上下左右四条边的距离,分别定义为df、db、dl和dr
高精度定位设备虽然定位精度较高,但其仍旧具有一定的圆概率误差,假设圆概率误差为r,如图2(c)所示,将车身包络矩形Rect向外延展r的距离,定义生成的矩形为Rect+r;同时,将车身包络矩形Rect向内侧收拢r的距离,定义生成的矩形为Rect-r
可知,车身实际的包络矩形被限制在由Rect+r和Rect-r之间的区域范围内,即车身在道路上的投影范围严格覆盖Rect-r,且绝不会超出Rect+r。因此,在一些误检率要求严格的场景中,我们可以用Rect-r来替代Rect来降低误检率;在一些漏检率要求严格的场景中,我们可以用Rect+r代替Rect来降低漏检率。
S101中,对导航电子地图中车道级场景涉及的路段进行车道级标注,得到车道级电子地图。图3中示出了根据本申请实施例中根据导航电子地图得到车道级电子地图的示意图。
首先,给定一个路网G=<N,L>,其中N={n1,n2,...,np}是路网中点(node)的集合,L={l1,l2,...,lq}是路网中路段(link)的集合。
如图3所示,本申请实施例的测试路段为一个双向四车道的路段,车道线从左至右分别为k0~k5,其中k2k3构成分割上下行车流的双实线。上述车道线将路面分割成双向的4个车道,分别记做A0~A3
现有导航电子地图,在采集过程中,用矢量线段来标识道路。我们以从下到上的交通流方向为例,A2和A3两个车道均由电子地图路段l2来表达,一般的导航电子地图标志方式损失了车道信息的描述。本申请为了实现车道级定位,利用现有技术对导航电子地图进行高精度改造。基于高精度定位设备沿车道线采集轨迹,从而在电子地图中绘制出车道线,抑或基于遥感地图为背景绘制车道线,进而计算路段到车道线的距离。
其次,进行车道级标注得到车道级电子地图,如图3所示,以电子地图矢量路段l2为例。
首先,计算l2到各车道线k0~k5的Hausdroff距离。
Hausdroff距离的计算方法是:
以k0为例,设n和n′分别是l2和k0上的任意两个点,l2和k0的Hausdroff距离为H(l2,k0)=max(h(l2,k0),h(k0,l2)),其中,h(l2,k0)=max(n∈l2){min(n′∈k0)||n-n′||},h(k0,l2)=max(n′∈k0){min(n∈l2)||n′-n||},||*||是n和n′的距离范式,本申请指欧几里得距离。
同时,在路段的属性描述中,增加车道字段定义,UpLanes字段定义路段同向车道信息;DownLanes字段定义逆向车道信息。
其中,单个车道信息用三元组描述:lane=<id,lefth,righth>,其中id是对车道的唯一标志,lefth定义了路段到车道左车道线的Hausdroff距离;righth定义了路段到车道右车道线的Hausdroff距离。
具体的,本申请在计算Hausdroff距离的时候需要区分车道线与路段的相对位置,例如图2中k4和k5分列于l2的左右两侧,为了便于区分,如果车道线位于道路左侧,Hausdroff距离为负。
进而,可得到四个车道A0~A3的标注为:
l2.UpLanes={<A2,-c,-b>,<A3,-b,a>},l2.DownLanes={<A0,-f,-e>,<A1,-e,-d>}。
进一步需要指出的是,在本发明中,对于逆向车道而言,其左右车道线的判定应以路段的交通流方向为基准。例如,就车道A1自身的交通流而言,其车道左线为k2,车道右线为k1。但在计算路段l2的逆向车道信息时,车道A1以l2为基准的交通流方向时,以k1为车道左线,k2为车道右线。这样设置的原因是,在逆行、潮汐车道等场景中,当车辆行驶在对向车道时,车辆的行驶方向与车道本身的交通流方向是相反的,因此车道线的左右应以对向交通流为基准。
无人车在测试过程中,GPS数据记录了车辆的定位信息,其定义如下:
GPS={g|g=<t,(x,y),v,θ>},其中t是GPS采集的时刻,(x,y)是GPS的经纬度信息,v和θ是车辆行驶的速度和方向角。
S102:基于车道级电子地图,对无人车定位数据进行地图匹配,得到无人车车道级定位结果。图4中示出了根据本申请实施例的无人车定位数据进行地图匹配的示意图。
如图4所示,g点是某一时刻无人车采集的定位信息。以g点为输入,对电子地图G执行地图匹配(Map Matching)操作,设其可以映射到路段l2上,投影映射距离为x。
本申请中,地图匹配操作需要区分点与路段的方位关系,如果点在路段的左侧,则置映射距离为负。因此,在图3中,我们得到的映射距离为-x。点与线段的相对方位关系判断方法较为简单,本申请不再赘述。
根据前面讲到的车的包络矩形定义,我们可以得到车此时的左右边界相对于路段l2的位置分别为Lpos(g,l2)=-x-dl和Rpos(g,l2)=-x+dr
对于l2正向或逆向的任意一条车道0≤k≤3,将Lpos(g,l2)和Rpos(g,l2)分别于/>和/>进行比较,如果/>和/>同时成立,说明车辆在车道Ak内,返回车道级定位结果{Ak}。
同理,对于l2正向或逆向的任意一条车道0≤k≤2,将Lpos(g,l2)和Rpos(g,l2)分别于/>进行比较,如果/> 和/>同时成立,则说明车辆跨越Ak和Ak+1两个车道,返回车道级定位结果{Ak,Ak+1}。
对于l2正向最外侧车道k=3,将Lpos(g,l2)与/>进行比较,如果/>成立,说明车辆在右侧车道的外侧,此时返回车道级定位结果{φ}。
在一般的场景中,车道判定只考虑车辆距左右边界的距离dl和dr,在停车入位等场景判定中,还需要考虑df和db两个指标的限定,因判定方法与dl和dr相似,本申请不再赘述。
S103:将无人车车道级定位结果与车道级电子地图的车道级场景标注进行映射,判定无人车经过的车道级场景。
车道级场景定义为一个五元组:
scenelane=<scene_id,link_id,{lane_ids},(tbgn,tend),scene_label>;
其中,scene_id唯一标识一个车道级场景;link_id为所处的路段。
其中,{lane_ids}定义了车辆所处的车道集合,一般而言,车辆在某一时刻只处在同一车道内,此时{lane_ids}集合内的元素为1;但当车道级定位返回的结果表明,车辆处于跨越车道的位置,则{lane_ids}的集合内元素为2。如图4所示,当{lane_ids}={A2、A3}时,说明此时车辆跨越双虚线k4,不构成违规;但当{lane_ids}={A0、A1}时,说明车辆跨越的是双实线,此时车辆违规行驶。
其中,(tbgn,tend)定义了场景生效的起止时刻,例如潮汐车道、公交车道等场景均有明确的生效时间。scene_label则定义了场景的类型描述。
具体实施的,以潮汐车道为例对车道级场景的判定过程进行说明。
如图4所示,设t0~t1时刻,将车道A1设置为潮汐车道,t2(t2>t1)为其他时刻,则可定义如下四个子场景scene1、scene2、scene3以及scene4分别为:
将车辆所处的时刻、车道级定位的结果与潮汐车道场景定义进行条件匹配,则可以得出不同子场景的判定结果。
其他车道级场景如:逆行车道、车道切换、公交车道、靠边停车等场景也可以用相同的方法进行判定,本申请不再赘述。
在具体测试时,通过无人车车道级场景的判定方法判定无人车经过的车道级场景时:
1)采集无人车的高精度定位序列g1→g2→…→gn
2)对每一个定位数据gi(1≤i≤n),执行车道级定位操作,返回定位结果{Ai},并加入到车道级定位结果序列Ω中;
3)基于车道级结果定位序列Ω={A1}→{A2}→…{An},以及无人车定位序列g1→g2→…→gn,与定义的车道级场景进行映射,即进行车道和时间合法性判定,最后返回车道级场景的判定和统计结果。
基于以上给出的无人车车道级场景的判定方法得到无人车在测试时间段内经过的车道级场景数量以及类型,可进一步的,对无人车能力进行评估。
基于无人车经过的车道级场景判定结果进行无人车性能评估时,可以首先将每一个车道级场景标记为不同的正评分或者负评分,然后将无人车在测定时间段内经过的所有的车道级场景评分进行累加得到总评分;然后,将总评分与设定的不同评分阈值相比较得到不同的无人性能评估结果。
采用本申请实施例中的无人车车道级场景的判定方法,通过对导航电子地图的路段进行车道级标注,得到车道级电子地图;然后,基于车道级电子地图,对无人车定位数据进行地图匹配,得到无人车车道级定位结果;最后,将无人车车道级定位结果与车道级电子地图的车道级场景标注进行映射,判定无人车经过的车道级场景。最后实现了基于现有导航电子地图,解决无人车测试过程中车道级场景不能准确判定的问题。
实施例3
本实施例提供了一种无人车车道级场景的判定系统,对于本实施例的判定系统中未披露的细节,请参照其它实施例中的无人车车道级场景的判定方法。
图5示出了根据本申请实施例的一种无人车车道级场景的判定系统的结构示意图。无人车车道级场景的判定系统包括车道级地图标注模块10、车道级地图匹配模块20以及车道级场景判定模块30。
如图5所示,具体描述如下:
车道级地图标注模块10,用于对导航电子地图的路段进行车道级标注,得到车道级电子地图。
车道级地图匹配模块20,用于基于车道级电子地图,对无人车定位数据进行地图匹配,得到无人车车道级定位结果。
车道级场景判定模块30,用于将无人车车道级定位结果与车道级电子地图的车道级场景标注进行映射,判定无人车经过的车道级场景。
车道级电子地图模块10中,对导航电子地图中车道级场景涉及的路段进行车道级标注,得到车道级电子地图,具体为:
给定一个路网G=<N,L>,其中,N={n1,n2,...,np}是路网中点的集合,L={l1,l2,...,lq}是路网中路段的集合;
通过由n+1条车道线将导航电子地图的一个路段从左至右划分为n个车道;
计算路段线型到各个车道线型的Hausdroff距离;
路段的每一个车道采用三元组描述进行标记,描述公式为:
lane=<id,lefth,righth>,
其中,id是对车道的唯一标志,lefth定义了路段线型到车道左车道线型的Hausdroff距离,righth定义了路段线型到车道右车道线型的Hausdroff距离。其中,若车道线型位于路段线型左侧,Hausdroff距离标为负。
进一步的,无人车车道级场景的判定系统还包括:
定位数据采集单元,用于采集无人车给定时间段内的定位数据序列;
车道级地图匹配单元,基于车道级电子地图,对给定时段内无人车定位数据序列进行地图匹配,得到给定时段内无人车的车道级定位结果序列;
车道级场景判定单元,基于给定时段内无人车车道级定位结果序列,与车道级场景的路段和车道设置进行映射,判定无人车在该时段内经过了哪些车道级场景。
需要说明的是,本实施例提供的无人车车道级场景的判定系统在执行无人车车道级场景的判定方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
采用本申请实施例中的无人车车道级场景的判定系统,通过对导航电子地图的路段进行车道级标注,得到车道级电子地图;然后,基于车道级电子地图,对无人车定位数据进行地图匹配,得到无人车车道级定位结果;最后,将无人车车道级定位结果与车道级电子地图的车道级场景标注进行映射,判定无人车经过的车道级场景。实现了基于现有导航电子地图,解决无人车测试过程中车道级场景不能准确判定的问题。
实施例4
本实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行以实现如上任一内容所提供的无人车车道级场景的判定方法。
采用本申请实施例中的无人车车道级场景的判定方法、系统及存储介质,通过对导航电子地图进行车道级标注得到车道级电子地图;然后,根据车道级电子地图进行定位得到无人车车道级定位;最后,根据无人车车道级定位以及车道级电子地图得到不同时间段内无人车的多个车道级场景,从而解决了无人车测试过程中车道级场景准确判定的问题。
车道级定位需要高精地图的支持。但目前高精地图的采集成本和技术门槛均比较高,本发明还解决了如何在无法获取高清地图的前提下,基于现有导航级电子地图,本申请还实现了车道级的定位功能问题。
实施例5
图6为本申请实施例提供的终端的结构示意图。如图6所示,本实施例提供的终端包括:存储器301、处理器302、以及计算机程序,其中,该计算机程序存储在存储器301中,并被配置为由处理器302执行以实现如上任一内容所提供的无人车车道级场景的判定方法。
基于同一发明构思,本申请实施例中还提供了一种计算机程序产品,由于该计算机程序产品解决问题的原理与本申请实施例一所提供的方法相似,因此该计算机程序产品的实施可以参见方法的实施,重复之处不再赘述。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (8)

1.一种无人车车道级场景的判定方法,其特征在于,包括以下步骤:
对导航电子地图的路段进行车道级标注,得到车道级电子地图;
基于所述车道级电子地图,对无人车定位数据进行地图匹配,得到无人车车道级定位结果;
将所述无人车车道级定位结果与所述车道级电子地图的车道级场景标注进行映射,判定无人车经过的车道级场景,具体包括:
将车道级场景scenelane采用五元组描述进行定义,定义公式为:
scenelane=<scene_id,link_id,{lane_ids},(tbgn,tend),scene_label>
其中,scene_id为一个车道级场景的唯一标识;link_id为无人车所处的路段,{lane_ids}为无人车车道级定位的无人车所处的车道集合,(tbgn,tend)为车道级场景生效的起止时刻,scene_label为对车道级场景的类型描述。
2.根据权利要求1所述的无人车车道级场景的判定方法,其特征在于,所述对导航电子地图的路段进行车道级标注,得到车道级电子地图,具体包括:
通过由n+1条车道线将导航电子地图的一个路段从左至右划分为n个车道;
计算路段线型到各个车道线型的Hausdroff距离;
路段的每一个车道采用三元组描述进行标记,描述公式为:
lane=<id,lefth,righth>,
其中,id是对车道的唯一标志,lefth定义了路段线型到车道左车道线型的Hausdroff距离,righth定义了路段线型到车道右车道线型的Hausdroff距离;其中,若车道线型位于路段线型左侧,Hausdroff距离标为负。
3.根据权利要求2所述的无人车车道级场景的判定方法,其特征在于,所述计算路段线型到各个车道线型的Hausdroff距离,所述Hausdroff距离H(l,k)计算公式为:
H(l,k)=max(h(l,k),h(k,l)),
其中,l为路段线型,k为其中一个车道线型,
其中,h(l,k)=max(n∈l){min(n′∈k)||n-n′||},
其中,n和n′分别是l和k上的任意点,||*||是n和n′的距离范式,指欧几里得距离。
4.根据权利要求3所述的无人车车道级场景的判定方法,其特征在于,所述对导航电子地图的路段进行车道级标注,得到车道级电子地图,还包括:
对车道方向流段定义,UpLanes字段定义路段同向车道信息;DownLanes字段定义逆向车道信息。
5.根据权利要求1所述的无人车车道级场景的判定方法,其特征在于,所述基于所述车道级电子地图,对无人车定位数据进行地图匹配,得到无人车车道级定位结果,具体包括:
根据无人车的GPS定位数据,与导航电子地图的路段线型进行地图匹配操作,得到无人车当前位置的映射路段,以及无人车相对所述映射路段之间的映射距离;
通过无人车的包络矩形得到无人车左、右边界相对无人车GPS定位点的距离;
根据所述无人车相对所述映射路段之间的映射距离以及所述无人车左、右边界相对无人车GPS定位点的距离,得到无人车左、右边界相对所述映射路段之间的映射距离,分别记为左边界映射距离以及右边界映射距离;
将所述无人车左、右边界相对所述映射路段之间的映射距离分别与车道级电子地图中每一个车道的左、右交通线相对于所述映射路段的距离进行比较,得到无人车所处的车道。
6.一种无人车车道级场景的判定系统,其特征在于,具体包括:
车道级地图标注模块,用于对导航电子地图的路段进行车道级标注,得到车道级电子地图;
车道级地图匹配模块,用于基于所述车道级电子地图,对无人车定位数据进行地图匹配,得到无人车车道级定位结果;
车道级场景判定模块,用于将所述无人车车道级定位结果与所述车道级电子地图的车道级场景标注进行映射,判定无人车经过的车道级场景,具体包括:
将车道级场景scenelane采用五元组描述进行定义,定义公式为:
scenelane=<scene_id,link_id,{lane_ids},(tbgn,tend),scene_label>
其中,scene_id为一个车道级场景的唯一标识;link_id为无人车所处的路段,{lane_ids}为无人车车道级定位的无人车所处的车道集合,(tbgn,tend)为车道级场景生效的起止时刻,scene_label为对车道级场景的类型描述。
7.一种计算机可读存储介质,其特征在于,其上存储有计算机程序;所述计算机程序被处理器执行以实现如权利要求1-5任一项所述的无人车车道级场景的判定方法。
8.一种判定终端,其特征在于,包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行如权利要求1-5任意一项的方法。
CN202010215273.3A 2020-03-24 2020-03-24 无人车车道级场景的判定方法、系统、终端及存储介质 Active CN111582019B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010215273.3A CN111582019B (zh) 2020-03-24 2020-03-24 无人车车道级场景的判定方法、系统、终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010215273.3A CN111582019B (zh) 2020-03-24 2020-03-24 无人车车道级场景的判定方法、系统、终端及存储介质

Publications (2)

Publication Number Publication Date
CN111582019A CN111582019A (zh) 2020-08-25
CN111582019B true CN111582019B (zh) 2023-10-03

Family

ID=72124176

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010215273.3A Active CN111582019B (zh) 2020-03-24 2020-03-24 无人车车道级场景的判定方法、系统、终端及存储介质

Country Status (1)

Country Link
CN (1) CN111582019B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114913503B (zh) * 2022-04-14 2023-12-29 北京集度科技有限公司 提示点的确定方法、装置、服务器、车辆和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106441319A (zh) * 2016-09-23 2017-02-22 中国科学院合肥物质科学研究院 一种无人驾驶车辆车道级导航地图的生成系统及方法
CN106980657A (zh) * 2017-03-15 2017-07-25 北京理工大学 一种基于信息融合的车道级电子地图构建方法
CN109459047A (zh) * 2018-12-24 2019-03-12 武汉大学 车辆高精度定位数据与导航地图精确匹配及变道行为探测方法
CN109764881A (zh) * 2018-12-07 2019-05-17 北京掌行通信息技术有限公司 无人驾驶汽车测试方法、装置、电子设备及介质
CN109870689A (zh) * 2019-01-08 2019-06-11 武汉中海庭数据技术有限公司 毫米波雷达与高精矢量地图匹配的车道级定位方法与系统
CN110174113A (zh) * 2019-04-28 2019-08-27 福瑞泰克智能系统有限公司 一种车辆行驶车道的定位方法、装置及终端
CN110648529A (zh) * 2019-09-16 2020-01-03 腾讯大地通途(北京)科技有限公司 一种车辆行驶轨迹的渲染方法、装置、设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9792821B1 (en) * 2016-03-25 2017-10-17 Toyota Jidosha Kabushiki Kaisha Understanding road scene situation and semantic representation of road scene situation for reliable sharing

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106441319A (zh) * 2016-09-23 2017-02-22 中国科学院合肥物质科学研究院 一种无人驾驶车辆车道级导航地图的生成系统及方法
CN106980657A (zh) * 2017-03-15 2017-07-25 北京理工大学 一种基于信息融合的车道级电子地图构建方法
CN109764881A (zh) * 2018-12-07 2019-05-17 北京掌行通信息技术有限公司 无人驾驶汽车测试方法、装置、电子设备及介质
CN109459047A (zh) * 2018-12-24 2019-03-12 武汉大学 车辆高精度定位数据与导航地图精确匹配及变道行为探测方法
CN109870689A (zh) * 2019-01-08 2019-06-11 武汉中海庭数据技术有限公司 毫米波雷达与高精矢量地图匹配的车道级定位方法与系统
CN110174113A (zh) * 2019-04-28 2019-08-27 福瑞泰克智能系统有限公司 一种车辆行驶车道的定位方法、装置及终端
CN110648529A (zh) * 2019-09-16 2020-01-03 腾讯大地通途(北京)科技有限公司 一种车辆行驶轨迹的渲染方法、装置、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
The driverless car based on the online learning platform realizes the red light recognition and lane line recognition;Fengpeng Guo等;2019 34rd Youth Academic Annual Conference of Chinese Association of Automation(YAC);第58-61页 *
基于多传感器的道路交通标线识别和车道级定位方法研究;赵翔;中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑;第四章 *

Also Published As

Publication number Publication date
CN111582019A (zh) 2020-08-25

Similar Documents

Publication Publication Date Title
US11651244B2 (en) Method and apparatus for predicting sensor error
JP6658088B2 (ja) 情報処理装置、プログラム、及び地図データ更新システム
US10262213B2 (en) Learning lanes from vehicle probes
CN102800207B (zh) 交通信号检测系统和方法
CN107310550B (zh) 道路交通工具行驶控制方法和装置
CN112017447B (zh) 一种基于gps位置信息判定车辆逆行违规的方法及系统
CN109764881B (zh) 无人驾驶汽车测试方法、装置、电子设备及介质
CN111582189B (zh) 交通信号灯识别方法、装置、车载控制终端及机动车
CN106855415A (zh) 地图匹配方法和系统
CN113570864B (zh) 一种电动自行车行驶路径匹配方法、设备及存储介质
CN113553482B (zh) 停留点识别和出行链构建系统、算法、设备及存储介质
US11756417B2 (en) Method, apparatus, and system for detecting road incidents
CN108806258A (zh) 一种基于浮动车数据的城市道路交叉口运行评价指标体系
CN106463050A (zh) 用于处理车辆的测量数据以用于确定开始寻找停车位的方法和计算机程序产品
CN114518122A (zh) 行车导航方法、装置、计算机设备、存储介质和计算机程序产品
CN108734008A (zh) 基于停车记录对车辆匿名的移动轨迹数据去匿名的方法
CN112162304A (zh) 路网匹配方法、装置、电子设备及介质
CN111582019B (zh) 无人车车道级场景的判定方法、系统、终端及存储介质
CN114754778A (zh) 一种车辆定位方法以及装置、电子设备、存储介质
Trogh et al. Map matching and lane detection based on Markovian behavior, GIS, and IMU data
Neuhold et al. Generating a lane-specific transportation network based on floating-car data
US20220299341A1 (en) Method, apparatus, and system for providing route-identification for unordered line data
Kumar et al. Citywide reconstruction of traffic flow using the vehicle-mounted moving camera in the carla driving simulator
Hardjono et al. Virtual Detection Zone in smart phone, with CCTV, and Twitter as part of an Integrated ITS
CN106323318A (zh) 导航路径的通行时间的处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant