CN114485700A - 高精度动态地图生成方法及装置 - Google Patents
高精度动态地图生成方法及装置 Download PDFInfo
- Publication number
- CN114485700A CN114485700A CN202111640606.8A CN202111640606A CN114485700A CN 114485700 A CN114485700 A CN 114485700A CN 202111640606 A CN202111640606 A CN 202111640606A CN 114485700 A CN114485700 A CN 114485700A
- Authority
- CN
- China
- Prior art keywords
- target
- map
- dynamic
- information
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 230000008447 perception Effects 0.000 claims abstract description 20
- 230000003068 static effect Effects 0.000 claims description 46
- 238000012549 training Methods 0.000 claims description 22
- 230000004927 fusion Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 15
- 238000001914 filtration Methods 0.000 claims description 11
- 238000003860 storage Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 8
- 238000003062 neural network model Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000006855 networking Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 230000011664 signaling Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 241000274965 Cyrestis thyodamas Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000037410 cognitive enhancement Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
- G01C21/343—Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3446—Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供一种高精度动态地图生成方法及装置,该方法包括:向远程终端发送请求信息,接收远程终端反馈的目标路段的点云地图;将采集的路侧感知信息输入至动态目标识别模型中,获取动态目标识别结果,并在动态目标识别结果为目标地物的情况下,提取目标地物的第一目标信息;接收目标地物发送的第二目标信息;基于第一目标信息、第二目标信息和目标路段的点云地图,获取局部动态地图。本发明提供的高精度动态地图生成方法及装置,能够形成局部动态的全息高精度地图,提高地图的精确度和实时性。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种高精度动态地图生成方法及装置。
背景技术
当前,随着自动驾驶技术的快速发展,高精度地图重要性日益凸显,已成为实现无人驾驶和智能交通不可或缺的重要一环。现有导航地图精度一般为道路级别地图,是对实际交通环境的大幅度简化,能提供的信息内容少,精确度低。普通地图导航精度只能达到米量级,高精度地图可精确到10cm级别,不仅增加了车道属性相关数据,还增加了高架物体、防护栏、障碍物、道路边缘类型、路边地标等多种类型数据。多元异构的海量地图数据需要占用大量存储空间,单图层的高精度地图无法满足实时更新的需求。
目前高精度地图的生产大多由专业的工作人员重新采集所有的道路信息,并计划采集完成后周期性地对大部分区域重新更新。但是现有的高精度地图相比传统电子地图精度更高,但是数据处理效率较低,地图数据采集到实现地图更新的周期长,数据实时性差。另外,采集到的数据是稠密的点云,数据密度极大,消耗大量的计算资源和通信资源。所以,现有技术的高精度动态地图无法同时兼顾精度和实时性。
发明内容
本发明提供一种高精度动态地图生成方法及装置,用以解决现有技术中的高精度动态地图无法同时兼顾精度和实时性的缺陷,实现将感知到的动态物体的运动信息,实时传输到局部静态地图上,可形成局部动态的全息高精度地图,提高地图的精确度和实时性。
本发明提供一种高精度动态地图生成方法,包括:
向远程终端发送请求信息,接收所述远程终端反馈的目标路段的点云地图;
将采集的路侧感知信息输入至动态目标识别模型中,获取动态目标识别结果,并在所述动态目标识别结果为目标地物的情况下,提取所述目标地物的第一目标信息;
接收所述目标地物发送的第二目标信息;
基于所述第一目标信息、所述第二目标信息和所述目标路段的点云地图,获取局部动态地图;
其中,所述目标地物包括行人、机动车和非机动车中的一种或者多种,所述动态目标识别模型是基于训练样本以及预先确定的目标地物的标签进行训练后得到。
根据本发明提供的一种高精度动态地图生成方法,在所述获取局部动态地图之后,还包括:将所述局部动态地图发送至目标终端,以使得所述目标终端根据所述局部动态地图进行实时显示;
其中,所述目标终端包括所述远程终端和/或用户终端。
根据本发明提供的一种高精度动态地图生成方法,所述基于所述第一目标信息、所述第二目标信息和所述目标路段的点云地图,获取局部动态地图,包括:
基于所述第一目标信息和所述第二目标信息,生成动态融合信息;
基于所述动态融合信息和所述目标路段的点云地图,获取局部动态地图。
根据本发明提供的一种高精度动态地图生成方法,所述动态目标识别模型为基于PointNet++构建的深度神经网络模型。
本发明还提供一种高精度动态地图生成方法,包括:
接收来自路侧单元的请求信息;
响应于所述请求信息,从静态全局地图中分割出目标路段的点云地图,并反馈至所述路侧单元;
接收来自所述路侧单元的局部动态地图,并根据所述局部动态地图进行实时显示。
根据本发明提供的一种高精度动态地图生成方法,在所述接收请求信息之前,还包括:
基于各路段的离线数据,进行拼接,获取全局点云地图;
基于所述全局点云地图进行下采样,并根据路面信息进行过滤,获取所述静态全局地图。
本发明还提供一种高精度动态地图生成装置,包括:
第一地图获取模块,用于向远程终端发送请求信息,接收所述远程终端反馈的目标路段的点云地图;
动态目标识别模块,用于将采集的路侧感知信息输入至动态目标识别模型中,获取动态目标识别结果,并在所述动态目标识别结果为目标地物的情况下,提取所述目标地物的第一目标信息;
第一接收模块,用于接收所述目标地物发送的第二目标信息;
第二地图获取模块,用于基于所述第一目标信息、所述第二目标信息和所述目标路段的点云地图,获取局部动态地图;
其中,所述目标地物包括行人、机动车和非机动车中的一种或者多种,所述动态目标识别模型是基于训练样本以及预先确定的目标地物的标签进行训练后得到。
本发明还提供一种高精度动态地图生成装置,包括:
第二接收模块,用于接收来自路侧单元的请求信息;
反馈模块,用于响应于所述请求信息,从静态全局地图中分割出目标路段的点云地图,并反馈至所述路侧单元;
第三接收模块,用于接收来自所述路侧单元的局部动态地图,并根据所述局部动态地图进行实时显示。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述高精度动态地图生成方法的步骤。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述高精度动态地图生成方法的步骤。
本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述高精度动态地图生成方法的步骤。
本发明提供的高精度动态地图生成方法及装置,基于获取目标路段的点云地图后,通过目标识别模型识别目标地物并提取目标地物的第一目标信息,以及接收目标地物的第二目标信息进行融合,获取局部动态地图。能够将感知到的行人、机动车、非机动车等动态物体的运动信息,实时传输到局部静态地图上,可形成局部动态的全息高精度地图,提高地图的精确度和实时性。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的高精度动态地图生成方法的流程示意图之一;
图2是本发明提供的高精度动态地图生成方法的流程示意图之二;
图3是本发明提供的全局点云地图生成方法的流程示意图;
图4是本发明提供的高精度动态地图生成方法的总流程示意图;
图5是本发明提供的高精度动态地图生成装置的结构示意图之一;
图6是本发明提供的高精度动态地图生成装置的结构示意图之二;
图7是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。
应当理解,在本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
图1是本发明提供的高精度动态地图生成方法的流程示意图之一。如图1所示,本发明实施例提供的高精度动态地图生成方法,包括:步骤101、向远程终端发送请求信息,接收远程终端反馈的目标路段的点云地图。
需要说明的是,本发明实施例提供的高精度动态地图生成方法的执行主体可以为路侧单元,或者设置在路侧单元中的高精度动态地图生成装置。
本发明实施例提供的高精度动态地图生成方法的应用情景为路侧单元分管其所处区域的道路,利用局部的高精度动态地图实时反映该道路的交通情况,并将局部的高精度动态地图下发至用户进行指导,以及上传至远程终端进行统筹。
远程终端,可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,非移动电子设备可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本发明不作具体限定。
路侧单元(Road Side Unit,RSU),是指进行路端感知的电子单元。示例性地,路侧单元可以是设置有摄像头、激光雷达等传感器的路灯、信号灯以及路标杆等,本发明实施例对此不做具体限定。
由路侧单元、远程终端以及路面中的地物之间互相通信,可以形成一个组网。本发明实施例对组网的布局方式不作具体限定。
优选地,该组网采用分布式布局。其中:
远程终端,作为组网中的中心节点,一方面用于构建全局的高精度静态地图,将局部的高精度静态地图以及计算能力下沉至一个或者多个路段的路侧单元。另一方面也用于接收一个或者多个路段的路侧单元计算出的局部的高精度动态地图,进行集中处理,生成全局的高精度动态地图。
路侧单元,作为组网中的边缘节点,相较于传统的边缘节点更贴近用户,可以直接在网络边缘侧对采集的传感数据和局部的高精度静态地图进行处理,减少请求响应时间、提升电池续航能力、减少网络带宽同时保证数据的安全性和私密性。
目标路段,是指设置有高精度动态地图生成装置的路侧单元所处的道路区域。
请求消息,是由路侧单元向远程终端发送的通信消息,该通信消息至少包括路侧单元所处区域的地理位置信息。以使得远程终端根据该请求信息中包含的地理位置信息,提取出目标路段的点云地图并作为请求信息的反馈,发送至路侧单元。
具体地,在步骤101中,设置在路侧单元的高精度动态地图生成装置将携带有地理位置信息的请求信息,发送至远程终端,并接收远程终端基于请求信息反馈的目标路段的点云地图。
目标路段的点云地图,是指目标路段地理范围内的三维坐标系中各静态点的数据集合。目标路段的点云地图中多个静态点的数据可以表征目标路段的关于静态结构的三维场景。本发明实施例对静态点数据构成和对应的点云地图不作具体限定。
示例性地,每个静态点不仅包含道路属性相关数据,还可以包括防护栏、障碍物、道路边缘类型、路边地标等多种类型数据。对应目标路段的点云地图为通过每个静态点的数据,以点、线、面的形式模拟出路线(route)、车道线(lane)、路径点(waypoints)等等实际环境的静态信息。
步骤102、将采集的路侧感知信息输入至动态目标识别模型中,获取动态目标识别结果,并动态目标识别结果为目标地物的情况下,提取目标地物的第一目标信息。
其中,目标地物包括行人、机动车和非机动车中的一种或者多种,动态目标识别模型是基于训练样本以及预先确定的目标地物的标签进行训练后得到。
需要说明的是,在步骤102之前,路侧单元中的传感器实时采集路侧感知信息,并传输至设置在路侧单元中的高精度动态地图生成装置。
路侧感知信息,是指目标地物在目标路段上的运动信息。
本发明实施例对传感器和路侧感知信息不作具体限定。
优选地,路侧单元中的传感器可以为激光雷达、摄像头、毫米波雷达等传感器。对应采集的路侧感知信息可以为各目标地物距离路侧单元的激光雷达距离信息、包含目标地物的目标路段的街景图像、各目标地物距离路侧单元的毫米波雷达距离信息等。
目标地物,是指在实际路面上发生运动的地物。本发明实施例对此不作具体限定。示例性地,根据路面发生运动的对象不同,将目标地物划分三大类:行人、机动车和非机动车。进一步地,还可以对行人分类、机动车分类和非机动车分类分别划分子类。例如,可以将行人按照性别进行细化分类,将机动车和非机动车按照量级进行细化分类。
动态目标识别模型可以是一种人工智能模型,本发明实施例对模型类型不作具体限定。
优选地,动态目标识别模型是一种基于监督学习的模型,从训练数据集合中训练模型,再对测试据进行预测。
例如,训练数据为任意街景图像作为样本,并在街景图像中对不同目标地物设置的对应标签。测试数据为路侧单元的传感器所采集的目标路段的街景图像。通过训练,让机器可以找到样本和标签之间的联系,在面对测试数据时,可以判断出是否存在目标地物。
具体地,在步骤102中,高精度动态地图生成装置通过预先训练好的动态目标识别模型,对实时采集的路侧感知信息中的动态目标进行识别,可以得到与该路侧感知信息对应的多个动态目标识别结果,并根据每个动态目标识别结果与目标地物进行匹配,其匹配结果包括匹配成功和匹配失败,其中:
匹配成功,是指动态目标识别结果为行人、机动车或者非机动车,即认为当前时刻的路侧感知信息包括处于动态的目标地物,则根据当前时刻的路侧感知信息提取出目标地物的第一目标信息。
第一目标信息,是指目标地物在感知层的运动信息。第一目标信息包括但不限于目标地物在传感器实时采集的路侧感知信息中的点云位置、速度、朝向等信息。本发明实施例对此不作具体限定。
匹配失败,是指动态目标识别结果不为行人、机动车和非机动车,即认为当前时刻的路侧感知信息不包括处于动态的目标地物,则无需进行第一目标信息的提取。
可以理解的是,动态目标识别结果可以是一个概率值或者标签结果,本发明实施例对动态目标识别结果的形式不作具体限定。
可选地,动态目标识别结果可以是一个概率值,则通过概率值说明路侧感知信息中的识别对象为目标地物的概率。
可选地,动态目标识别结果可以是一个标签结果,则通过模型获取一个中间数值结果,将数值结果符合预先设置的目标条件,则为该数值结果对应的路侧感知信息中的识别对象分配对应的标签结果。
例如,通过动态目标识别模型获取一个中间数值结果,用于表征路侧感知信息中的识别对象为目标地物的概率。根据预先设置的目标条件,当该概率大于预设阈值,则生产用于表达该识别对象为目标地物的标签,并将该标签赋予该路侧感知信息。
步骤103、接收目标地物发送的第二目标信息。
具体地,在步骤103中,高精度动态地图生成装置,根据建立的通信连接,接收由目标地物发送的第二目标信息。
第二目标信息,是指目标地物在用户层的运动信息。第二目标信息包括但不限于目标地物的实际地理位置、速度、朝向等信息。本发明实施例对此不作具体限定。
本发明实施例对目标地物与高精度动态地图生成装置的通信方式包括但不限于WIFI无线蜂窝信号(2G、3G、4G、5G)、蓝牙、Zigbee无线组网等。本发明实施例对此不作具体限定。
优选地,在目标地物为行人的情况下,行人通过携带的移动终端,将行人在实际地理坐标系中的第二目标信息,发送至高精度动态地图生成装置。
在目标地物为机动车或者非机动车的情况下,通过车载电子标签(On boardUnit,OBU)或者驾驶员携带的移动终端,将车辆在实际地理坐标系中的第二目标信息发送至高精度动态地图生成装置。
步骤104、基于第一目标信息、第二目标信息和目标路段的点云地图,获取局部动态地图。
具体地,在步骤104中,高精度动态地图生成装置利用第一目标信息和第二目标信息,对目标地物的地理坐标进行统一后,在目标路段的点云地图中融合目标地物的动态信息,生成局部动态地图。
局部动态地图,包含目标路段中静态结构的空间模拟信息,以及在该路段实时识别出的动态目标的空间运动信息。局部动态地图用于在局部的高精度静态地图的基础上,实时动态显示行人、机动车和非机动车的动态信息。
本发明实施例基于获取目标路段的点云地图后,通过目标识别模型识别目标地物并提取目标地物的第一目标信息,以及接收目标地物的第二目标信息进行融合,获取局部动态地图。能够将感知到的行人、机动车、非机动车等动态物体的运动信息,实时传输到局部静态地图上,可形成局部动态的全息高精度地图,提高地图的精确度和实时性。
在上述任一实施例的基础上,在获取局部动态地图之后,还包括:将局部动态地图发送至目标终端,以使得目标终端根据局部动态地图进行实时显示。
其中,目标终端包括远程终端和/或用户终端。
具体地,在步骤104之后,高精度动态地图生成装置根据与目标终端建立的通信连接,向目标终端发送的局部动态地图。
高精度动态地图生成装置与目标终端建立的通信连接包括但不限于WIFI无线蜂窝信号(2G、3G、4G、5G)、蓝牙、Zigbee无线组网等。本发明实施例对此不作具体限定。
优选地,高精度动态地图生成装置,采用B5G网络与目标终端进行无线通信。
需要说明的是,超5代移动通信系统(Beyond Fifth Generation,B5G)继续提高通信速率,拓展通信空间,完善通信智慧,演进为泛在融合信息网络。
B5G使用更高的频段作为信号载体,数据速率达到太比特每秒量级。伴随网络性能的增强,B5G的适用空间拓展至陆海空天。与以往移动通信系统不同,人工智能(AI)成为B5G性能提升的强劲引擎。基于AI的干扰管理、深度学习智能信号处理以及太赫兹技术成为物理层关键技术。基于极化码的中继、多天线、多址技术是传输层关键技术。基于AI的移动网络架构、面向人机物泛在融合的全析网络架构以及认知增强与决策推演的智能定义网络架构等方式的新架构被应用于网络层。
目标终端,是指与路侧单元进行通信交互的终端设备。本发明实施例对目标终端不作具体限定。
可选地,目标终端为远程终端。通过B5G网络接收边缘节点的路侧单元处理好的局部动态地图,在作为中心节点的目标终端构建全局动态地图,并实时显示全局动态可视化交通路网环境。远程终端可以为依托云计算进行数据处理的电子设备。本发明实施例对此不作具体限定。
可选地,目标终端为用户终端。在用户层的用户终端每次途径目标路段时,通过B5G网络接收边缘节点的路侧单元处理好的局部动态地图,实时的高精度动态地图可以局部动态可视化交通路网环境,并引导其在目标路段内的路面活动。
本发明实施例基于将局部动态地图发送至目标终端进行实时显示。能够将感知到的行人、机动车、非机动车等动态物体的运动信息,实时传输到局部静态地图上,可形成局部动态的全息高精度地图,提高地图的精确度和实时性,进而,实现信令传输效率的提高。
在上述任一实施例的基础上,基于第一目标信息、第二目标信息和目标路段的点云地图,获取局部动态地图,包括:基于第一目标信息和第二目标信息,生成动态融合信息。
具体地,在步骤104中,高精度动态地图生成装置将路侧单元RSU记录感知到的第一目标信息,以及从车载OBU接收到的第二目标信息,进行配准融合,使其纳入统一的空间地理框架,得到动态融合信息。
基于动态融合信息和目标路段的点云地图,获取局部动态地图。
具体地,高精度动态地图生成装置根据动态融合信息,在目标路段的点云地图中加载目标地物的运动模型,生成局部动态地图。
示例性地,高精度动态地图生成装置根据动态融合信息,在局部静态地图中的对应位置加载行人、机动车、非机动车等模型,并赋予该模型速度大小和方向,以在生成的局部动态地图实时反映行人、机动车、非机动车在目标路段中的运动环境。
可以理解的是,由于B5G网络具有低时延、高带宽的特点,因此,远程终端和用户终端可以实时动态加载显示动态物体信息。
本发明实施例基于第一目标信息和第二目标信息统一地理信息框架,获取动态融合信息,通过动态融合信息与目标路段的点云地图生成局部动态地图。能够将感知到的行人、机动车、非机动车等动态物体的运动信息,实时传输到局部静态地图上,可形成局部动态的全息高精度地图,提高地图的精确度和实时性。
在上述任一实施例的基础上,动态目标识别模型为基于PointNet++构建的深度神经网络模型。
具体地,高精度动态地图生成装置将路侧感知信息作为输入,经由动态目标识别模型提取出特征提取,进行目标地物的识别和分类,并将识别分类结果进行输出。
优选地,动态目标识别模型为基于PointNet++构建的深度神经网络(Deep NeuralNetworks,DNN)。
PointNet++,设计一种反向插值的方法来实现上采样的decoder结构,通过反向插值和skip connection来获得判别点特征(point-wise feature)。本发明实施例对此过程不作具体限定。
示例性地,对训练样本在PointNet++神经网络中,通过反向插值的方式用较少的点把更多的点的特征插出来,实现特征的上采样回传。但是回传得到的point-wisefeature是从decoder的上一层得到的,属于global级别的信息,故利用skip connection将之前encoder对应层的表征直接拼接过来,在一定程度上实现生成local级别的信息,可以获取得到判别特征(discriminative feature),应用于分割任务。进而,通过损失函数不断优化神经网络模型参数,提升神经网络的泛化能力。
本发明实施例基于将动态目标识别模型设置为基于PointNet++构建的深度神经网络模型,可以对路侧感知信息中包含的多个目标地物进行分割并识别。能够提高识别动态的目标的准确度和效率,进而将感知到的行人、机动车、非机动车等动态物体的运动信息,实时传输到局部静态地图上,可形成局部动态的全息高精度地图,提高地图的精确度和实时性。
图2是本发明提供的高精度动态地图生成方法的流程示意图之二。如图2所示,本发明实施例提供的高精度动态地图生成方法,包括:步骤201、接收来自路侧单元的请求信息。
需要说明的是,本发明实施例提供的高精度动态地图生成方法的执行主体可以为远程终端,或者设置在远程终端中的高精度动态地图生成装置。
本发明实施例提供的高精度动态地图生成方法的应用情景为远程终端将多个路侧单元的局部动态地图集中在智能网联云控平台,并实时发布全局动态可视化交通路网环境。
具体地,在步骤201中,在远程终端设置的高精度动态地图生成装置接收路侧单元发送的请求信息。
步骤202、响应于请求信息,从静态全局地图中分割出目标路段的点云地图,并反馈至路侧单元。
具体地,在步骤202中,在远程终端设置的高精度动态地图生成装置根据该请求信息中包含的地理位置信息作为标识,从静态全局地图提取出目标路段的点云地图并作为请求信息的反馈,发送至路侧单元。
步骤203、接收来自路侧单元的局部动态地图,并根据局部动态地图进行实时显示。
具体地,在步骤203中,高精度动态地图生成装置与路侧单元进行无线通信,接收边缘节点的路侧单元处理好的局部动态地图,在作为中心节点的目标终端构建全局动态地图,并实时显示全局动态可视化交通路网环境。
高精度动态地图生成装置与路侧单元之间的无线通信方式包括但不限于WIFI无线蜂窝信号(2G、3G、4G、5G)、蓝牙、Zigbee无线组网等。本发明实施例对此不作具体限定。
优选地,高精度动态地图生成装置,采用B5G网络与路侧单元建立通信连接,以实现通信传输。
本发明实施例基于接收并响应于请求信息,向路侧单元下发目标路段的点云地图,通过接收局部动态地图,并进行实时显示。能够将计算能力下沉至各边缘感知节点,并接收各边缘感知节点处理好的局部动态地图,可形成全局动态的全息高精度地图,提高地图的精确度和实时性的同时,还节约信令传输资源。
在上述任一实施例的基础上,在接收请求信息之前,还包括:基于各路段的离线数据,进行拼接,获取全局点云地图。
需要说明的是,在步骤201之前,远程终端需要获取关于各路段的离线数据。示例性地,离线数据可以包括离线数据采集装置的位置和姿态,以及路侧单元采集的点云数据。
其中,离线数据采集装置的位置和姿态包括但不限于车辆上的惯性测量单元(Inertial Measurement Unit,IMU)、实时差分定位模块(Real-time kinematic,RTK)以及全球定位系统模块(Global Positioning System,GPS)中的一种或者多种采集的车辆的位置和姿态。
路侧单元的激光雷达所采集的LIDAR点云数据,该点云数据至少包括各点的三维坐标信息。
具体地,在步骤201之前,远程终端中的高精度动态地图生成装置将每一帧离线数据进行配准与拼接,生成全局点云地图。
本发明实施例中对离线数据进行处理的算法包括但不限于采样一致性初始配准算法(Sample Consensus Initial Aligment,SAC-IA)、迭代最近点算法(IterativeCloest Point,ICP)或者ICP改进算法等。
优选地,高精度动态地图生成装置采用RTK-NDT-Mapping方法,生成原始的全局点云地图。其具体实施过程如下:
远程终端预先将每一帧离线数据按照其绝对位置信息进行匹配,并对匹配的每一帧离线数据进行基于RTK的粗拼接,将粗拼接的各帧离线数据进行正态分布变换(NormalDistributions Transform,NDT),以变换后待拼接的两帧离线数据所有匹配点的欧氏距离最小化平方和为依据,计算出相邻两帧点云数据的转移矩阵,并根据该转移矩阵对点云数据进行匹配和细拼接,形成一幅完整的全局点云地图。
基于全局点云地图进行下采样,并根据路面信息进行过滤,获取静态全局地图。
需要说明的是,路面信息是指道路高程以及道路坡度等相关信息。路面信息用于过滤掉超出道路高程以及道路坡度以外的点云数据。
具体地,远程终端中的地图生成装置对全局点云地图,采用降采样的方法,减少点云地图中部分不必要的点云数据。同时,针对点云地图上存在的部分动态物体(如行人,机动车,非机动车等),基于数学形态学的方法,依据GPS/IMU采集的道路高程以及道路坡度等相关信息,对点云数据中的动态目标和脱离路面的信息进行滤除,生成静态全局地图。
静态全局地图,是指大面积地理范围内的三维坐标系中各静态点的数据集合。其中多个静态点的数据可以表征大区域的关于静态结构的三维场景。
示例性地,每个静态点不仅包含道路属性相关数据,还可以包括防护栏、障碍物、道路边缘类型、路边地标等多种类型数据。对应目标路段的点云地图为通过每个静态点的数据,以点、线、面的形式模拟出路线(route)、车道线(lane)、路径点(waypoints)等等实际环境的静态信息。
本发明实施例对全局点云地图的构建过程不作具体限定。
图3是本发明提供的全局点云地图生成方法的流程示意图。示例性地,全局点云地图的构建过程如下:
(1)基于RTK/GPS/IMU提供的位置信息(X,Y,Z)和姿态信息(Yaw,Pitch,Roll)以及IMU与激光雷达之间的相对位置关系,得到每一帧点云数据中各点的绝对位置信息,该绝对位置信息的几何精度为1-3厘米左右;
(2)对点云数据进行粗拼接:将每一帧点云数据按照其绝对位置信息进行匹配,并对匹配的每一帧点云数据进行拼接,即基于RTK的点云数据拼接,其几何精度为RTK的定位精度,约1-3cm。因此,对于各帧点云数据的边缘处,可能会有拼接接缝;
(3)对点云数据进行精拼接:将RTK拼接的各帧点云数据进行正态分布变换(NDT),以变换后待拼接的两帧点云数据所有匹配点的欧氏距离最小化平方和为依据,计算出相邻两帧点云数据的转移矩阵,并根据该转移矩阵对点云数据进行匹配拼接;
(4)在离线环境下,从第一帧点云影像起,依次对采集的各帧点云数据进行粗拼接和精拼接,最终形成一幅完整的拼接点云地图。
本发明实施例对地图生成方法的交互过程不作具体限定。图4是本发明提供的高精度动态地图生成方法的总流程示意图。示例性地,高精度动态地图的生成过程如下:
一、离线阶段:
(1)利用原始的点云数据,进行基于RTK的点云粗拼接。
(2)再进行基于NDT的点云细拼接。
(3)根据点云特征匹配中特征点数目的需要以及地图数据量和数据质量的要求,构建合适的三维体素立方体网格,提取立方体网格的近似质心,作为降采样的值,对点云数据进行降采样;
(4)采用数学形态学的方法对点云地图的路面信息进行滤波。首先根据点云地图数据建立规则格网,以落入到该格网内GPS/IMU输出的高程和坡度信息作为该格网的高程和坡度,以此为基础,使用已知的一段区域内的道路高程及坡度平均值作为依据,通过膨胀操作,内插出道路范围内所有格网的高程参数,参考点云密度等信息,自适应的设置高差阈值,并根据高差阈值对各网格的点云地图进行滤波,过滤掉道路中高于路面部分的点云,以此形成降采样及道路滤波后的静态全局地图。
二、在线阶段:
(1)基于DNN模型对道路目标进行感知,识别道路目标中的人车物等动态目标,提取出动态目标的点云位置、速度、朝向等信息。
(2)利用车载5G网络实时传输车辆的地理位置、速度、朝向等信息到路侧单元,在路侧服务器上进行数据融合,得到感知融合后的人、车、非机动车等相关信息(位置、速度、朝向等)。
(3)通过感知融合后得到的人、车、非机动车等相关信息,再离线阶段的目标路段的点云地图,实时动态显示人、车、非机动车等相关信息。并将多个目标路段的点云地图集中统一显示在统一的地理坐标体系中,形成交通路网实时动态高精度全息地图。
本发明实施例基于各路段的离线数据,采用RTK-NDT-mapping算法,拼接成全局点云地图,通过全局点云地图进行过滤,获取静态全局地图。进而,通过请求信息从静态全局地图分割出目标路段的点云地图。能够对大规模的离线地图数据,有效降低数据量,兼顾静态全局地图的精度及效率处理。
图5是本发明提供的高精度动态地图生成装置的结构示意图之一。如图5所示,本发明实施例提供的地图生成装置,包括:第一地图获取模块510、动态目标识别模块520、第一接收模块530和第二地图获取模块540,其中:
第一地图获取模块510,用于向远程终端发送请求信息,接收远程终端反馈的目标路段的点云地图。
动态目标识别模块520,用于将采集的路侧感知信息输入至动态目标识别模型中,获取动态目标识别结果,并在动态目标识别结果为目标地物的情况下,提取目标地物的第一目标信息。
第一接收模块530,用于接收目标地物发送的第二目标信息。
第二地图获取模块540,用于基于第一目标信息、第二目标信息和目标路段的点云地图,获取局部动态地图。
其中,目标地物包括行人、机动车和非机动车中的一种或者多种,动态目标识别模型是基于训练样本以及预先确定的目标地物的标签进行训练后得到。
具体地,第一地图获取模块510、动态目标识别模块520、第一接收模块530和第二地图获取模块540顺次电连接。
第一地图获取模块510将携带有地理位置信息的请求信息,发送至远程终端,并接收远程终端基于请求信息反馈的目标路段的点云地图。
目标路段的点云地图,是指目标路段地理范围内的三维坐标系中各静态点的数据集合。
动态目标识别模块520通过预先训练好的动态目标识别模型,对实时采集的路侧感知信息中的动态目标进行识别,可以得到与该路侧感知信息对应的多个动态目标识别结果,并根据每个动态目标识别结果与目标地物进行匹配,其匹配结果包括匹配成功和匹配失败,其中:
匹配成功,是指动态目标识别结果为行人、机动车或者非机动车,即认为当前时刻的路侧感知信息包括处于动态的目标地物,则根据当前时刻的路侧感知信息提取出目标地物的第一目标信息。
第一目标信息,是指目标地物在感知层的运动信息。第一目标信息包括但不限于目标地物的点云位置、速度、朝向等信息。
第一接收模块530根据建立的通信连接,接收由目标地物发送的第二目标信息。
第二目标信息,是指目标地物在用户层的运动信息。第一目标信息包括但不限于目标地物的实际地理位置、速度、朝向等信息。
第二地图获取模块540利用第一目标信息和第二目标信息,对目标地物的地理坐标进行统一后,在目标路段的点云地图中融合目标地物的动态信息,生成局部动态地图。
局部动态地图,包含目标路段中静态结构的空间模拟信息,以及在该路段实时识别出的动态目标的空间运动信息。
可选地,高精度动态地图生成装置还包括发送模块,其中:
发送模块,用于将局部动态地图发送至目标终端,以使得目标终端根据局部动态地图进行实时显示。
其中,目标终端包括远程终端和/或用户终端。
可选地,第二地图获取模块540包括融合单元和地图获取单元,其中:
融合单元,用于基于第一目标信息和第二目标信息,生成动态融合信息。
地图获取单元,用于基于动态融合信息和目标路段的点云地图,获取局部动态地图。
可选地,动态目标识别模型为基于PointNet++构建的深度神经网络模型。
本发明实施例提供的高精度动态地图生成装置,用于执行本发明上述高精度动态地图生成方法,其实施方式与本发明提供的高精度动态地图生成方法的实施方式一致,且可以达到相同的有益效果,此处不再赘述。
本发明实施例基于获取目标路段的点云地图后,通过目标识别模型识别目标地物并提取目标地物的第一目标信息,以及接收目标地物的第二目标信息进行融合,获取局部动态地图。能够将感知到的行人、机动车、非机动车等动态物体的运动信息,实时传输到局部静态地图上,可形成局部动态的全息高精度地图,提高地图的精确度和实时性。
图6是本发明提供的高精度动态地图生成装置的结构示意图之二。如图6所示,本发明实施例提供的地图生成装置,包括第二接收模块610、反馈模块620和第三接收模块630,其中:
第二接收模块610,用于接收来自路侧单元的请求信息。
反馈模块620,用于响应于请求信息,从静态全局地图中分割出目标路段的点云地图,并反馈至路侧单元。
第三接收模块630,用于接收来自路侧单元的局部动态地图,并根据局部动态地图进行实时显示。
具体地,第二接收模块610、反馈模块620和第三接收模块630顺次电连接。
第二接收模块610接收路侧单元发送的请求信息。
反馈模块620根据该请求信息中包含的地理位置信息作为标识,从静态全局地图提取出目标路段的点云地图并作为请求信息的反馈,发送至路侧单元。
第三接收模块630与路侧单元进行无线通信,接收边缘节点的路侧单元处理好的局部动态地图,在作为中心节点的目标终端构建全局动态地图,并实时显示全局动态可视化交通路网环境。
可选地,该装置还包括离线拼接模块和离线过滤模块,其中:
离线拼接模块,用于基于各路段的离线数据,采用RTK-NDT-mapping算法,进行拼接,获取全局点云地图。
离线过滤模块,用于基于全局点云地图进行下采样,并根据路面信息进行过滤,获取静态全局地图。
本发明实施例提供的高精度动态地图生成装置,用于执行本发明上述高精度动态地图生成方法,其实施方式与本发明提供的高精度动态地图生成方法的实施方式一致,且可以达到相同的有益效果,此处不再赘述。
本发明实施例基于接收并响应于请求信息,向路侧单元下发目标路段的点云地图,通过接收局部动态地图,并进行实时显示。能够将计算能力下沉至各边缘感知节点,并接收各边缘感知节点处理好的局部动态地图,可形成全局动态的全息高精度地图,提高地图的精确度和实时性的同时,还节约信令传输资源。
图7示例了一种电子设备的实体结构示意图,如图7所示,该电子设备可以包括:处理器(processor)710、通信接口(Communications Interface)720、存储器(memory)730和通信总线740,其中,处理器710,通信接口720,存储器730通过通信总线740完成相互间的通信。处理器710可以调用存储器730中的逻辑指令,以执行高精度动态地图生成方法,该方法包括:向远程终端发送请求信息,接收远程终端反馈的目标路段的点云地图;将采集的路侧感知信息输入至动态目标识别模型中,获取动态目标识别结果,并在动态目标识别结果为目标地物的情况下,提取目标地物的第一目标信息;接收目标地物发送的第二目标信息;基于第一目标信息、第二目标信息和目标路段的点云地图,获取局部动态地图;其中,目标地物包括行人、机动车和非机动车中的一种或者多种,动态目标识别模型是基于训练样本以及预先确定的目标地物的标签进行训练后得到。
此外,上述的存储器730中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的高精度动态地图生成方法,该方法包括:向远程终端发送请求信息,接收远程终端反馈的目标路段的点云地图;将采集的路侧感知信息输入至动态目标识别模型中,获取动态目标识别结果,并在动态目标识别结果为目标地物的情况下,提取目标地物的第一目标信息;接收目标地物发送的第二目标信息;基于第一目标信息、第二目标信息和目标路段的点云地图,获取局部动态地图;其中,目标地物包括行人、机动车和非机动车中的一种或者多种,动态目标识别模型是基于训练样本以及预先确定的目标地物的标签进行训练后得到。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的高精度动态地图生成方法,该方法包括:向远程终端发送请求信息,接收远程终端反馈的目标路段的点云地图;将采集的路侧感知信息输入至动态目标识别模型中,获取动态目标识别结果,并在动态目标识别结果为目标地物的情况下,提取目标地物的第一目标信息;接收目标地物发送的第二目标信息;基于第一目标信息、第二目标信息和目标路段的点云地图,获取局部动态地图;其中,目标地物包括行人、机动车和非机动车中的一种或者多种,动态目标识别模型是基于训练样本以及预先确定的目标地物的标签进行训练后得到。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (11)
1.一种高精度动态地图生成方法,其特征在于,包括:
向远程终端发送请求信息,接收所述远程终端反馈的目标路段的点云地图;
将采集的路侧感知信息输入至动态目标识别模型中,获取动态目标识别结果,并在所述动态目标识别结果为目标地物的情况下,提取所述目标地物的第一目标信息;
接收所述目标地物发送的第二目标信息;
基于所述第一目标信息、所述第二目标信息和所述目标路段的点云地图,获取局部动态地图;
其中,所述目标地物包括行人、机动车和非机动车中的一种或者多种,所述动态目标识别模型是基于训练样本以及预先确定的目标地物的标签进行训练后得到。
2.根据权利要求1所述的高精度动态地图生成方法,其特征在于,在所述获取局部动态地图之后,还包括:将所述局部动态地图发送至目标终端,以使得所述目标终端根据所述局部动态地图进行实时显示;
其中,所述目标终端包括所述远程终端和/或用户终端。
3.根据权利要求1或2所述的高精度动态地图生成方法,其特征在于,所述基于所述第一目标信息、所述第二目标信息和所述目标路段的点云地图,获取局部动态地图,包括:
基于所述第一目标信息和所述第二目标信息,生成动态融合信息;
基于所述动态融合信息和所述目标路段的点云地图,获取局部动态地图。
4.根据权利要求1或2所述的高精度动态地图生成方法,其特征在于,所述动态目标识别模型为基于PointNet++构建的深度神经网络模型。
5.一种高精度动态地图生成方法,其特征在于,包括:
接收来自路侧单元的请求信息;
响应于所述请求信息,从静态全局地图中分割出目标路段的点云地图,并反馈至所述路侧单元;
接收来自所述路侧单元的局部动态地图,并根据所述局部动态地图进行实时显示。
6.根据权利要求5所述的高精度动态地图生成方法,其特征在于,在所述接收请求信息之前,还包括:
基于各路段的离线数据,进行拼接,获取全局点云地图;
基于所述全局点云地图进行下采样,并根据路面信息进行过滤,获取所述静态全局地图。
7.一种高精度动态地图生成装置,其特征在于,包括:
第一地图获取模块,用于向远程终端发送请求信息,接收所述远程终端反馈的目标路段的点云地图;
动态目标识别模块,用于将采集的路侧感知信息输入至动态目标识别模型中,获取动态目标识别结果,并在所述动态目标识别结果为目标地物的情况下,提取所述目标地物的第一目标信息;
第一接收模块,用于接收所述目标地物发送的第二目标信息;
第二地图获取模块,用于基于所述第一目标信息、所述第二目标信息和所述目标路段的点云地图,获取局部动态地图;
其中,所述目标地物包括行人、机动车和非机动车中的一种或者多种,所述动态目标识别模型是基于训练样本以及预先确定的目标地物的标签进行训练后得到。
8.一种高精度动态地图生成装置,其特征在于,包括:
第二接收模块,用于接收来自路侧单元的请求信息;
反馈模块,用于响应于所述请求信息,从静态全局地图中分割出目标路段的点云地图,并反馈至所述路侧单元;
第三接收模块,用于接收来自所述路侧单元的局部动态地图,并根据所述局部动态地图进行实时显示。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6任一项所述高精度动态地图生成方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述高精度动态地图生成方法的步骤。
11.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述高精度动态地图生成方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111640606.8A CN114485700A (zh) | 2021-12-29 | 2021-12-29 | 高精度动态地图生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111640606.8A CN114485700A (zh) | 2021-12-29 | 2021-12-29 | 高精度动态地图生成方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114485700A true CN114485700A (zh) | 2022-05-13 |
Family
ID=81508646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111640606.8A Pending CN114485700A (zh) | 2021-12-29 | 2021-12-29 | 高精度动态地图生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114485700A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115144869A (zh) * | 2022-09-05 | 2022-10-04 | 北京理工大学 | 基于太赫兹雷达的曲面物体检测方法及装置 |
CN116010725A (zh) * | 2023-03-23 | 2023-04-25 | 北京白龙马云行科技有限公司 | 地图点位集合动态展示方法、装置、计算机设备及介质 |
CN116363159A (zh) * | 2023-04-19 | 2023-06-30 | 济南大学 | 一种基于多窗口差分阈值滤波法的点云道路边界提取方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108990010A (zh) * | 2017-06-01 | 2018-12-11 | 松下电器(美国)知识产权公司 | 通信方法、路侧机以及通信系统 |
JP2018206359A (ja) * | 2017-06-01 | 2018-12-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 通信方法、路側機および通信システム |
CN110470311A (zh) * | 2019-07-08 | 2019-11-19 | 浙江吉利汽车研究院有限公司 | 一种地图生成方法、装置及计算机存储介质 |
CN111516690A (zh) * | 2020-03-27 | 2020-08-11 | 奇瑞汽车股份有限公司 | 智能汽车的控制方法、装置及存储介质 |
CN111626314A (zh) * | 2019-02-28 | 2020-09-04 | 深圳市速腾聚创科技有限公司 | 点云数据的分类方法、装置、计算机设备和存储介质 |
-
2021
- 2021-12-29 CN CN202111640606.8A patent/CN114485700A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108990010A (zh) * | 2017-06-01 | 2018-12-11 | 松下电器(美国)知识产权公司 | 通信方法、路侧机以及通信系统 |
JP2018206359A (ja) * | 2017-06-01 | 2018-12-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 通信方法、路側機および通信システム |
CN111626314A (zh) * | 2019-02-28 | 2020-09-04 | 深圳市速腾聚创科技有限公司 | 点云数据的分类方法、装置、计算机设备和存储介质 |
CN110470311A (zh) * | 2019-07-08 | 2019-11-19 | 浙江吉利汽车研究院有限公司 | 一种地图生成方法、装置及计算机存储介质 |
CN111516690A (zh) * | 2020-03-27 | 2020-08-11 | 奇瑞汽车股份有限公司 | 智能汽车的控制方法、装置及存储介质 |
Non-Patent Citations (1)
Title |
---|
李骥驰等: "推进智能汽车创新发展:局部动态地图的构建与应用", 《汽车与配件》, no. 11, 15 June 2021 (2021-06-15), pages 34 - 36 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115144869A (zh) * | 2022-09-05 | 2022-10-04 | 北京理工大学 | 基于太赫兹雷达的曲面物体检测方法及装置 |
CN115144869B (zh) * | 2022-09-05 | 2022-11-29 | 北京理工大学 | 基于太赫兹雷达的曲面物体检测方法及装置 |
CN116010725A (zh) * | 2023-03-23 | 2023-04-25 | 北京白龙马云行科技有限公司 | 地图点位集合动态展示方法、装置、计算机设备及介质 |
CN116010725B (zh) * | 2023-03-23 | 2023-10-13 | 北京白龙马云行科技有限公司 | 地图点位集合动态展示方法、装置、计算机设备及介质 |
CN116363159A (zh) * | 2023-04-19 | 2023-06-30 | 济南大学 | 一种基于多窗口差分阈值滤波法的点云道路边界提取方法 |
CN116363159B (zh) * | 2023-04-19 | 2024-05-03 | 济南大学 | 一种基于多窗口差分阈值滤波法的点云道路边界提取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12032067B2 (en) | System and method for identifying travel way features for autonomous vehicle motion control | |
US11475675B2 (en) | Systems and methods for identifying unknown instances | |
CN113748315B (zh) | 用于自动车道标记的系统 | |
US12103554B2 (en) | Systems and methods for autonomous vehicle systems simulation | |
US11760385B2 (en) | Systems and methods for vehicle-to-vehicle communications for improved autonomous vehicle operations | |
Jebamikyous et al. | Autonomous vehicles perception (avp) using deep learning: Modeling, assessment, and challenges | |
US11686848B2 (en) | Systems and methods for training object detection models using adversarial examples | |
CN114485700A (zh) | 高精度动态地图生成方法及装置 | |
WO2020139357A1 (en) | Using image pre-processing to generate a machine learning model | |
CA3199370A1 (en) | Systems and methods for video object segmentation | |
JP7420734B2 (ja) | データ配信システム、センサデバイス及びサーバ | |
US11620838B2 (en) | Systems and methods for answering region specific questions | |
US20220146277A1 (en) | Architecture for map change detection in autonomous vehicles | |
Wei et al. | Survey of connected automated vehicle perception mode: from autonomy to interaction | |
Duggal et al. | Infrastructure, mobility and safety 4.0: Modernization in road transportation | |
CN113887376A (zh) | 目标检测方法、装置、介质及设备 | |
WO2020139356A1 (en) | Image pre-processing in a lane marking determination system | |
Bai et al. | Cyber mobility mirror: A deep learning-based real-world object perception platform using roadside LiDAR | |
CN116740127A (zh) | 障碍物轨迹预测方法、装置、计算机设备和存储介质 | |
Dave et al. | Dashcam-Eye: Federated Learning Based Smart Dashcam Based System for Automotives | |
Chamola et al. | Overtaking mechanisms based on augmented intelligence for autonomous driving: Datasets, methods, and challenges | |
Huang et al. | An Overview about Emerging Technologies of Autonomous Driving | |
CN115713738A (zh) | 使用神经网络模型的凝视和意识预测 | |
CN118545046B (zh) | 基于数字孪生和预测风险场的车辆行车风险辨识方法 | |
Talkhani et al. | Deep learning for vehicle safety |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |