CN116129066A - 基于数字孪生的自动驾驶高精度地图模型及高精度静态地图制作方法 - Google Patents
基于数字孪生的自动驾驶高精度地图模型及高精度静态地图制作方法 Download PDFInfo
- Publication number
- CN116129066A CN116129066A CN202211655201.6A CN202211655201A CN116129066A CN 116129066 A CN116129066 A CN 116129066A CN 202211655201 A CN202211655201 A CN 202211655201A CN 116129066 A CN116129066 A CN 116129066A
- Authority
- CN
- China
- Prior art keywords
- map
- layer
- information
- road
- lane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003068 static effect Effects 0.000 title claims abstract description 68
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 23
- 238000000034 method Methods 0.000 claims abstract description 35
- 230000004927 fusion Effects 0.000 claims abstract description 23
- 238000001514 detection method Methods 0.000 claims abstract description 15
- 230000011218 segmentation Effects 0.000 claims abstract description 12
- 238000013135 deep learning Methods 0.000 claims abstract description 8
- 239000013598 vector Substances 0.000 claims description 44
- 238000005516 engineering process Methods 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 19
- 238000012512 characterization method Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000008447 perception Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 7
- 230000006399 behavior Effects 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 4
- 206010039203 Road traffic accident Diseases 0.000 claims description 3
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000007405 data analysis Methods 0.000 claims description 3
- 238000007418 data mining Methods 0.000 claims description 3
- 230000010365 information processing Effects 0.000 claims description 3
- 238000012805 post-processing Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000005265 energy consumption Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 238000005192 partition Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 101100182248 Caenorhabditis elegans lat-2 gene Proteins 0.000 description 1
- 101001093748 Homo sapiens Phosphatidylinositol N-acetylglucosaminyltransferase subunit P Proteins 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Geometry (AREA)
- Biomedical Technology (AREA)
- Computer Graphics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Remote Sensing (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于数字孪生的自动驾驶高精度地图模型及高精度静态地图制作方法。所述自动驾驶高精度地图模型由静态地图、动态地图和云服务地图组成,该地图模型既包含静态、动态场景元素又能为不同使用者提供相应的服务;云服务地图包括全局云服务模块和边缘云服务模块,保证了全部场景和局部场景下的交通效率和车辆的行驶安全。本发明地图制作方法中采用了三维重建、多传感融合的SLAM、基于深度学习的目标检测、语义分割,极大的减少人工制图工作量,能够有效提升建图效率,减少制图成本。另多传感的数据融合有效提升了地图数据的精度。
Description
技术领域
本发明涉及自动驾驶技术领域,具体涉及一种基于数字孪生的自动驾驶高精度地图模型及高精度静态地图制作方法。
背景技术
近年来随着人工智能、计算机等技术的高速发展,自动驾驶也获得了极大的进步,成为汽车产业新的发展方向。在自动驾驶领域,高精度地图的能力无疑是至关重要的一环,是多个自动驾驶阶段必不可少的基础数据库和知识苦,包括辅助驾驶阶段、有条件自动驾驶阶段和高级别自动驾驶阶段。它既有的高精准度、高新鲜度、高丰富度的特征,可以提供其他传感器无法替代的先验知识,包括道路信息、环境信息和实时动态信息等。高精地图数据是帮助自动驾驶阶段车辆实现自动驾驶操控功能的必备要素,其他传感器、车路协同等在此过程中只是作为数据辅助验证、修正手段,以降低对车辆传感器数据采集的需求,同时降低车端的运算和处理工作,从而提高车辆运行效率。
当前高精度地图在地图模型、制图成本方面面临着不同程度的挑战。首先是地图模型,目前国内外对自动驾驶地图模型的描述大致有以下三种。宝马汽车公司提出了两层结构的高精度地图:一层道路语义和几何特征层,以及一层定位层。国外Poggenhans etal.等人提出的Lanelets2将高精度地图分为三个层,拓扑层、关系层、物理层三个层。武汉大学提出的智能高精度地图模型,包括静态地图层、实时数据层、动态目标层和用户模型层。清华大学提出了一种七层结构的高精度地图模型,包含道路层、交通信息层、道路连接层、车道层、地图特征层、动态目标层和智能决策层。上述高精度地图有的只考虑了静态元素,而没有自动驾驶车辆行驶场景中的动态元素。有的即使考虑了动态元素,但只考虑服务于单辆自动驾驶车辆,未考虑服务于全局的交通网络。为此,需要提出一种既包含静态、动态场景元素又能面向多个服务对象的地图模型。
其次是在制图成本方面,当前高精度制图过程中人工参与较多。手动或半自动构建大规模高精度地图时,往往需要数百人甚至数千人数月甚至数年的时间,其中许多手工工作是重复性的、乏味的。它们不仅耗费时间和相应成本,而且容易出错,因为在创建高精度地图时需要保持持久的注意力。另外,用于绘制高精度地图的数据量很庞大(例如一公里的64线激光雷达数据达到10GB),而且维度高。为此需要借助人工智能方法,提升制图自动化程度,以便降低昂贵的制图成本。
发明内容
鉴于上述不足,本发明提供了一种基于数字孪生的自动驾驶高精度地图模型及高精度静态地图制作方法。基于数字孪生的高精度地图模型首先从信息角度为自动驾驶车辆提供一个安全、有序、高效的数字行驶环境。其次掌控了整个区域内交通要素的实时信息,从而既能从局部角度调度管控每辆车的行驶行为,减少单车自动驾驶的自主性,彻底解决单车博弈困局,又能从全局角度分配道路行驶权力,确保交通网络运行在最佳状态。本发明的地图制作过程中,借助三维重建、多传感融合的SLAM、基于深度学习的目标检测、语义分割,极大地减少人工制图工作量,有效了提升建图效率,减少制图成本。
本发明首先提供了一种基于数字孪生的自动驾驶高精度地图模型,所述自动驾驶高精度地图模型由静态地图、动态地图和云服务地图组成;
所述静态地图组包括静态表征层、精准定位层和道路矢量层;静态表征层是自动驾驶高精度地图中的基础层,静态表征层对场景中的三维物体建立适合计算机表示和处理的表征模型,用以描述场景元素的几何形状、位置和纹理信息;精准定位层用于帮助自动驾驶车辆实现高精度定位,道路矢量层是对道路及车道属性进行矢量化描述;
所述动态地图组由实时感知信息层、交通信息层、驾驶知识层组成;
所述云服务地图包括全局云服务模块和边缘云服务模块;
所述全局云服务模块又包括车端云服务单元和区域云服务单元;车端云服务单元是云服务地图提供面向车端的调度服务,通过向单辆自动驾驶车辆发送一系列行驶指令来控制自动驾驶车辆;区域云服务单元是云服务地图向整个区域交通网络内的路口信号设备发送调度指令,控制信号灯的时间周期,目的是保障交通网络高效运行;
所述边缘云服务模块是云服务地图通过边缘计算的方式为所有接入到边缘云服务的自动驾驶车辆提供低延迟的云控调度服务,根据计算结果向进入某一局部范围的所有自动驾驶车辆发送车道路权分配指令。
作为本发明的优选方案,静态表征层作为场景数字化自动驾驶高精度地图中的基础层,是指对场景中的三维物体建立适合计算机表示和处理的表征模型,用以描述场景元素的几何形状、位置和纹理等信息。因其构建了客观世界和虚拟现实之间的映射关系,于是可以用来开发和验证自动驾驶的感知定位算法、决策规划功能、预期功能安全等模块,例如感知算法中的目标检测模块,语义分割模块。
进一步的,所述精准定位图层中记录的信息有两种,第一种是用于提供高精度定位的点云地图信息,主要来源于激光雷达传感器采集到的点云信息;另外一种是来自相机图像采集的且具备独特性的目标或特征,称为Landmark,如交通标志、地面标志、灯杆等,记录的内容包括绝对坐标、属性、几何轮廓,可在点云信息缺少时用来和车辆传感器感知到的结果匹配,从而推算车辆位置。
进一步的,所述道路矢量层对道路网络、车道网络进行矢量化描述,辅助自动驾驶车辆进行全局的路径规划和局部的行为决策;
道路网络包含路段路网、路口、路段路网与路口之间的拓扑关系;车道网络包括车道中心线网络、车道级路口、车道中心线网络与车道级路口之间的拓扑关系;道路网络用来快速找到一条可行的行驶路级,车道网络用来进行车道级的行驶路径规划、变道规划。
进一步的,所述实时感知信息层的实时数据由区域内的车辆终端和交通信号终端获得;区域内实时的车辆数据和交通信号数据由车辆终端和交通信号终端自行传输到云端,例如车辆自身的位置速度信息、信号设备的状态信息。
交通信息层的数据通过部署在路侧的感知计算设备将观测到的交通事件和车辆流量信息处理后得到;进一步的,所述交通事件包括交通事故信息、道路障碍物信息、道路施工信息、交通管制信息,所述车辆流量信息是指每条车道上的实时交通流量信息与未来一段时间内预测交通流信息。
驾驶知识层存储的是通过对海量人工驾驶记录数据进行多维时空大数据挖掘、分析与处理后形成的先验驾驶经验数据,例如转弯通过某一路口时需要的转向角度和行驶速度。
本发明还提供了一种基于所述地图模型的高精度静态地图制作方法,所述静态高精度地图制作是依据高精度地图模型具体实现静态地图的各部分内容;静态地图层存储场景内各元素详细的静态信息,动态地图层存储详细的动态事件信息;二者之间通过双向索引结构关联,即通过动态地图信息索引所在位置相关的静态地图元素数据,同时也通过地图元素索引与该元素相关联的动态信息,其中,动态地图信息在场景运行时才会产生;
所述静态地图制作包括静态表征层制作、精准定位层制作和道路矢量层制作;
其中,所述静态表征层制作具体为:利用三维重建技术创建静态表征层,三维重建是指用相机拍摄真实世界的物体、场景,再通过计算机视觉技术后期处理得到物体的三维模型;
所述精准定位层制作具体为:采用多传感融合技术创建精准定位层,所述多传感融合技术是指利用计算机技术将来自多个传感器的信息和数据,在一定的准则下加以自动分析和综合,以完成所需要的决策和估计而进行的信息处理过程;
精准定位层中的点云地图通过同时定位与建图(SLAM)技术获得的;精准定位层中的Landmark通过基于点云和图像数据融合的目标检测技术和语义分割技术获取的;
所述道路矢量层制作具体为:采用多传感融合技术创建道路矢量层;其中,道路矢量层中的道路网络直接使用现有商业地图中的道路网络信息;道路矢量层中的车道网络用来进行车道级的规划服务,车道以其中心线的几何形式表示为曲线,曲线存储为折线,其上有足够数量的控制点来重建曲率;车道重建的目标是生成这些车道线的控制点;利用基于传感融合的深度学习方法提取车道网络。
根据本发明的优选方案,所述的道路矢量层的制作具体包括如下步骤:
将点云数据和图像数据都转换到俯瞰视角(BEV)下,再利用训练好的深度模型处理融合后的数据得到单帧的车道中心线特征;
利用每帧点云之间的位姿关系以及激光雷达传感器外参,将每一帧的车道中心线特征变换到全局坐标系下,再把它们拼接在一起就得到了全局的车道网络;每帧点云之间的位姿关系通过前述SLAM技术计算获得;
最后再将车道网络和相应的道路网络连接起来就建立起道路矢量层地图。
数字孪生技术是将物理世界中的元素映射到虚拟空间,建立物理世界和虚拟世界之间的联系。由于车辆行驶空间时刻处于变化之中,车辆仅靠静态空间信息运行存在效率低、安全隐患大问题。因此本发明通过精准定位层、道路矢量层、实时感知信息层和交通信息层,构建出一个实时孪生的交通数字空间,为后续云服务地图提供计算基础。借助云地图服务,对交通数字空间中的自动驾驶车辆按照既定目标进行超前计算、模拟、仿真,完成对路权的精准实时分配调度,保障每辆自动驾驶车辆的行驶安全和整个交通网络的运行效率。
本发明的车端云服务是云服务地图提供面向车端的调度服务,通过向单辆自动驾驶车辆发送一系列行驶指令来控制自动驾驶车辆,包括但不限于加速指令、减速指令、匀速指令、转弯指令、停车指令,以及全局的行驶轨迹参考线。区域云服务是云服务地图向整个区域交通网络内的路口信号设备发送调度指令,控制信号灯的时间周期,目的是保障交通网络高效运行。边缘云服务是云服务地图通过边缘计算的方式为所有接入到边缘云服务的自动驾驶车辆提供低延迟的云控调度服务,根据计算结果向进入某一局部范围的所有自动驾驶车辆发送车道路权分配指令,包括但不限于停车等待指令、直行指令、转弯指令、换道指令。
本发明的精准定位层和道路矢量层都是采用多传感融合技术进行创建。多传感器采集的数据包括但不限于,激光雷达的点云数据、摄像头的图像数据、RTK设备的导航数据、惯性测量单元(IMU)的位姿数据。精准定位层中的点云地图通过同时定位与建图(SLAM)技术获得的。为了提升点云地图的精度,建图时融合了导航数据、IMU数据,同时还使用了回环检测方法。通常建好的一个区域点云地图所需的存储空间非常大,例如面积为500平方公里的城市级点云地图所占空间将超过100TB。为了减少自动驾驶车辆的存储压力,也为了便于点云地图使用、维护和更新,我们将根据道路矢量层中的道路网络进行存储管理地图。
精准定位层中的Landmark是通过基于点云和图像数据融合的目标检测技术和语义分割技术获取的。目标检测是获取Landmark的几何位置信息,语义分割是获取Landmark的类别属性信息。在建立点云地图时已经获取到了每帧点云之间的位姿关系,利用此位姿关系以及激光雷达传感器外参,先将每帧点云转换到全局坐标系下,再去与摄像头采集的图像数据进行融合,这样获得的Landmark就是全局坐标系下的Landmark。
道路矢量层中的道路网络仅用来快速找到一条可行的行驶路级,其对定位精度要求不高,可以直接使用现有商业地图中的道路网络信息。道路矢量层中的车道网络用来进行车道级的规划服务,对精度要求很高。车道以其中心线的几何形式表示为曲线,曲线存储为折线,其上有足够数量的控制点来重建曲率。车道重建的目标就是生成这些车道线的控制点。为此,本发明利用基于传感融合的深度学习方法提取车道网络。首先将点云数据和图像数据都转换到俯瞰视角(BEV)下,再利用训练好的深度模型处理融合后的数据即可得到单帧的车道中心线特征。利用前述的每帧点云之间的位姿关系以及激光雷达传感器外参,将每一帧的车道中心线特征变换到全局坐标系下,再把它们拼接在一起就得到了全局的车道网络。最后再将它们和相应的道路网络连接起来就建立起道路矢量层地图。
与现有技术相比,本发明提供了一种基于数字孪生的自动驾驶高精度地图模型及其制作方法,具有以下有益技术效果:
(1)本发明提出了一个基于数字孪生的高精度地图模型。该地图模型既包含静态、动态场景元素又能为不同使用者提供相应的服务。其中的静态表征层可以用来验证自动驾驶相关算法和策略,缩短自动驾驶开发周期;精准定位层能够给自动驾驶车辆提供精准的定位;精准定位层、道路矢量层、实时感知信息层、交通信息层,构建出一个实时孪生的交通数字空间,为后续云服务地图提供计算基础。
(2)本发明的高精度地图模型包含云服务地图。其中全局云服务根据交通网络运行指标和自动驾驶车辆的任务需求,为每辆自动驾驶车辆生成一系列控制指令及其全局行驶轨迹参考线,为路口信号设备生成控制指令,这样就避免了传统自动驾驶车辆因为抢夺道路行使权而出现的急加速、急减速、急转弯等驾驶行为,既确保自动驾驶车辆行车时的安全、平稳、舒适,又保证了全交通网络的有序、畅通、高效。边缘云服务通过边缘计算的方式为所有接入到边缘云服务的自动驾驶车辆提供调度服务,保证了局部场景下的交通效率和车辆的行驶安全。
(3)本发明高精度静态地图制作方法中采用了三维重建、多传感融合的SLAM、基于深度学习的目标检测、语义分割,极大的减少人工制图工作量,能够有效提升建图效率,减少制图成本。另多传感的数据融合有效提升了地图数据的精度。
附图说明
图1地图横向分区示意图;
图2基于数字孪生的自动驾驶高精度地图数据组织示意图;
图3静态地图的组成示意图;
图4静态表征层三维重建过程示意图;
图5点云地图创建流程;
图6三种点云数据结果对比显示;
图7Landmark提取结果示意图;
图8道路拓扑和车道拓扑示意图;
图9基于传感融合方法自动生成车道中心线示意图;
图10路口处车道中心线之间的拓扑关系构建示意图。
图11动态地图的组成示意图;
图12车辆实时信息和信号调度设备实时信息示意图;
图13人工驾驶车辆数据驱动的驾驶知识沉淀示意图;
图14云服务地图生成指令调度交通示意图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明技术方案进行详细说明。
本发明的基于数字孪生的自动驾驶高精度地图模型由静态地图、动态地图和云服务地图组成。为了便于地图的更新与维护,本发明的静态地图和动态地图均采用横向分区、内容分层的数据组织方法来描述。根据经纬度将一个完整区域的地图分成若干子区域,每个区域都赋予一个特定的ID,并存储这个子区域的四个顶点的经纬度值。横向分区的示意图如图1所示,某一个区域的ID值为10010010,四个顶点经纬度值分别为(lng0,lat0),(lng1,lat1),(lng2,lat2),(lng3,lat3)。
基于数字孪生的自动驾驶高精度地图的数据逻辑组织如图2所示。一幅完整的地图可以分为若干区域。每个区域又由静态地图组和动态地图组组成。静态地图组包含若干静态信息图层,每一层静态信息图层包含若干描述对象。由此,静态地图的数据可以按照“地图-区域-静态地图组-静态信息图层-描述对象”的方式进行组织。动态地图组包含若干动态信息图层,每一层动态信息图层包含若干动态事件。由此,动态地图的数据可以按照“地图-区域-动态地图组-动态信息图层-动态事件”的方式进行组织。其中静态地图1~n组成每个区域下的静态地图,动态地图1~n组成每个区域下的动态地图。每个区域下的静态地图的具体组成如图3所示,由静态表征层、精准定位层和道路矢量层组成。
其中静态表征层是利用现有的三维重建技术进行创建。三维重建是指用相机拍摄真实世界的物体、场景,并通过计算机视觉技术进行处理,从而得到物体的三维模型。具体来讲,如图4所示,本发明利用无人机拍摄场景获得场景的多视角图像作为输入,经过特征提取、稀疏重建、稠密重建、点云模型化等核心步骤后,输出三维模型。
稀疏重建算法基本是在完成所有相机位姿初始化计算的问题,其一般步骤都是先进行特征点检测,然后匹配不同图像之间的特征点、并去除误配点;基于上述特征点与配对信息,我们就可以完成相机位姿初始化;最后再通过BA(Bundle Adjustment)优化实现相机位姿、相机参数以及场景结构重建。
由于SfM方法只能得到稀疏的三维点,得到的稀疏模型无法直接应用与自动驾驶场景中,因此,在通过稀疏重建得到相机内外参数以及稀疏点云的情况下,我们还需要利用MVS算法使重构场景中的点更加稠密,以更好地应用于自动驾驶场景。稠密重建,即多视图立体几何,其任务是在相机的位姿、内参都已知的情况下,逐像素的计算图像中每一个像素点对应的三维点,得到场景物体表面密集的三维点云。MVS的基本思路是寻找空间中具有图像一致性Photo-consistency的点。
点云模型化由点云网格建模、三维语义建模和三维矢量建模组成:
●点云网格建模以稠密点云和相机位姿为输入,输出三角网格。点云的网格化为结构化存储点云数据提供了重要手段,为后续三维语义建模、三维矢量建模提供了鲁棒的输入。点云网格建模一般先对获得的点云数据进行下采样,并去除离群点,然后对点云进行平滑,并计算点云的法向量,最后生成网格(Mesh)。
●三维语义重建将网格/点云模型提升至三维语义模型,为每一个三角面片或三维点赋予细粒度语义类别属性。因此,三维语义建模的任务是对于输入的网格或点云、以及多视角图像,经过语义信息的处理,输出网格或点云的语义分割模型。
●三维矢量建模以单体部件网格和多视角图像为输入,输出矢量三维模型,其目的是以高度压缩的矢量化几何基元(直线、曲线、平面、曲面、柱面等)表达复杂场景中的基本语义部件。三维矢量化模型是智能机器人、无人驾驶、智慧城市等应用领域所需的最终三维表达方式。
精准定位层中记录的信息有两种,第一种是用于提供高精度定位的点云地图信息,一般通过多传感融合建图而成,如图5所示。采集的激光点云数据经过数据处理、前端匹配、提取关键帧、后端优化、拼接地图处理后即可得到点云地图。数据处理包括点云数据运动畸变矫正、噪声处理和时间戳对齐。其中时间戳对其是将所有传感器采集的数据在时间上进行对齐处理,包括点云数据、惯性测量单元(IMU)数据、组合导航数据。通过前端匹配获得关键帧以及关键帧之间的位姿关系。由于前端匹配仅仅利用点云自身的信息,随着时间的累积所创建的地图误差会越来越大。为了减小这种累计误差,本发明在后端优化过程中融合了来自多个传感器的位姿约束信息,包括前端匹配过程中找到的关键帧之间的相对位姿约束,回环检测方法提供的相对位姿约束,组合导航提供的绝对位姿约束,IMU提供的相对位姿约束。利用多传感信息,可以将建图误差控制在接受范围。最后根据关键帧之间的位姿关系,将它们拼接起来就获得一个完整的点云地图。原始点云地图数据量较大,根据使用需要,可以对其进行栅格化、降采样处理,图5显示的就是三种点云结果。
精准定位层中记录的另外一种信息是来自相机图像采集的且具备独特性的目标或特征,称为Landmark,一般通过计算机视觉技术获取,例如目标检测、语义分割。如图7所示,上横排是原始图像,下横排是通过计算机视觉技术处理后的数据可视化显示。通常Landmark包括交通标志、地面标志、灯杆等,记录的内容包括绝对坐标、属性、几何轮廓等,可在点云信息缺少时用来和其他车辆传感器感知结果匹配,推算车辆位置。为了规范数据表示,本发明将Landmark分为线特征定位数据和面特征定位数据。线特征定位数据包括路面交通线特征、路侧防护设施和路侧杆状设施。面特征定位数据包括路面交通标记,路侧交通标志牌。线特征的属性包括类型、线型、颜色、长度。面特征的属性包括类型、颜色、形状。
道路矢量层的主要内容是含有交通语义规则信息的几何路网,包括道路拓扑、车道拓扑。道路网络仅用来快速找到一条可行的行驶路级,其对定位精度要求不高,可以直接使用现有商业地图中的道路网络信息。道路矢量层中的车道网络用来进行车道级的规划服务,对精度要求很高。车道以其中心线的几何形式表示为曲线,曲线存储为折线,其上有足够数量的控制点来重建曲率。车道重建的目标就是生成这些车道线的控制点。如图7所示,一个路段被表示成道路拓扑和车道拓扑,其中Ri,i=1,…,n表示道路i,Ni,i=1,…,m表示连接两条道路的节点i,Lanei,i=1,…,p表示车道i,LNi,i=1,…,q表示连接两条车道的节点i。图8中,车道拓扑各个车道上的小黑点就是车道中心线的控制点。为了提升建图效率,本发明利用基于传感融合的深度学习方法提取车道网络,具体流程如图9所示。在图8中,多张图像经过CNN卷积和透视逆变换(IPM)后被变换到俯瞰视角(BEV)空间,激光点云经过PointPillar编码后也变换到BEV空间,二者融合后被送入到车道元素检测模块,获得车道元素的关键点。进一步,将车道元素关键点送入车道中心线生成模块后就可得到车道中心线的控制点。路口处车道与车道的关系通过半自动方式获取,即人工选定两个需要连接的车道端点,由软件通过插值算法自动生成,如图10所示。当人工选定A点和B点后,插值算法自动生成A点和B点之间的连线,插值算法选用公开的方法即可。
动态地图的数据按照“地图-区域-动态地图组-动态信息图层-动态事件”进行组织。每个区域下的动态地图的具体组成如图11所示,由实时感知信息层、交通信息层、驾驶知识层组成。
实时感知信息层是由区域内的车辆终端和交通信号终端自行将实时数据发送到云端,例如车辆自身的位置速度信息、信号设备的状态信息。如图12左侧所示,某一路口区域内所有车辆将自己的位置信息上传到数字孪生地图,这样其他车就知道自身周围有多少车辆了,不需要依靠感知设备去感知周围车辆情况,可以极大地减少自动驾驶车辆对感知设备的依赖。图12右侧显示某一路口的信号调度设备将自己运行时的状态信息上传到地图,这样云控自动驾驶系统可以根据信号调度设备当前的信息进一步对路口的路权分配做进一步优化,保障自动驾驶车辆可以安全、高效通过路口。
交通信息层是通过部署在路侧的感知计算设备,将观测到的交通事件和交通流量信息处理后再发送至云端,感知计算设备由摄像头、计算平台、通信设备组成。其中交通事件包括但不限于交通事故信息、道路障碍物信息、道路施工信息、交通管制信息,交通流量信息是指每条车道上的实时交通流量信息与未来一段时间内预测交通流信息。
驾驶知识层存储的是通过对海量人工驾驶记录数据进行多维时空大数据挖掘、分析与处理后形成的先验驾驶经验数据,例如转弯通过某一路口时需要的转向角度和行驶速度。根据驾驶习惯,将驾驶知识层分为三种模式,分别是经济驾驶层、正常驾驶层和动力驾驶层。经济驾驶表示当前驾驶行为能耗最小但车辆动力性受限,动力驾驶表示当前驾驶行为动力性最大但能耗较高,正常驾驶综合考虑经济驾驶和动力驾驶。图13为以人工驾驶车辆数据驱动的驾驶知识沉淀过程示意图,采用三阶段方法实现基于轨迹数据的自动驾驶公交运行状态追踪评价,流程如下:1)数据预处理。对原始车辆数据进行预处理,补全缺失的数据,消除数据波动。2)驾驶状态识别。构建长短期记忆网络二分类器模型组实现对车辆驾驶状态与异常事件的识别,利用人工标定好的训练样本和验证样本将其训练成可用的模型组。3)驾驶知识获取。将实时采集、处理的待测样本输入训练好的模型组进行驾驶状态与异常事件识别,并将识别结果进行分类统计计算,得到经济驾驶、动力驾驶和正常驾驶下的车辆控制参数。这些参数可以被用来指导自动驾驶车辆控制车辆,为用户提供多样化的驾驶体验。
云服务地图由全局云服务和边缘云服务。全局云服务又包括车端云服务和区域云服务。如图14所示,云服务地图依托由静态表征层、精准定位层、道路矢量层和实时信息层构建的实时孪生数字交通空间,实现对场景内的交通要素进行全过程管控。云服务地图根据提前制定的交通网络运行指标,例如自动驾驶车辆的平均行驶速度不低于40km/h,路口平均等待时间不大于10s,平均能耗不得高于0.2kWh/km,对当前路网内自动驾驶车辆行驶轨迹、行使权和道路的路权进行优化调度,再将调度指令传送给各个云服务应用,由其完成对车辆的管控指挥。其中车辆的行使权包括但不限于加减速指令、匀速指令、转弯指令、停车指令,道路的路权具体到某一具体的车道,包括但不限于允许直行,允许左转,允许右转,禁止通行,禁止变道。同时,车辆和信号设备也会将自身的状态信息及时反馈到实时孪生的交通数字空间和交通网络运行管理系统,如此形成一个闭环,确保交通网络和自动驾驶车辆都在安全、有序和高效的状态下运行。
车端云服务是云服务地图提供面向车端的调度服务,通过向单辆自动驾驶车辆发送一系列行驶指令来控制自动驾驶车辆,包括但不限于加速指令、减速指令、匀速指令、转弯指令、停车指令,以及全局的行驶轨迹参考线。行驶轨迹参考线上关联有道路信息、车道信息、目标速度、目标方向、转弯半径以及坐标位置等信息。自动驾驶车辆利用循迹算法,跟随行驶轨迹参考下即可完成一次自动驾驶任务。需要注意的是,行驶轨迹参考线并不是一成不变,会随着车端云服务的调度而变化。区域云服务是云服务地图向整个区域交通网络内的路口信号设备发送调度指令,控制信号灯的时间周期,目的是保障交通网络高效运行。由于车端云服务和区域云服务是全局性的,调度指令的更新频率依赖于云服务地图的计算能力。例如对于计算能力较弱的云服务地图,调度指令可以是5~10分钟更新一次,对于计算能力很强的云服务地图,调度指令可以是1~30s更新一次。
边缘云服务是云服务地图通过边缘计算的方式为所有接入到边缘云服务的自动驾驶车辆提供低延迟的云控调度服务,根据计算结果向进入某一局部范围的所有自动驾驶车辆发送车道路权分配指令,包括但不限于停车等待指令、直行指令、转弯指令、换道指令。边缘计算系统由物理设备、通讯接入网络、边缘计算平台、边缘计算软件系统与调度模型组成。物理设备主要包括由路侧交通设施,例如信号机、电子交通标识等,路侧感知设备主要包括摄像头、雷达等各类传感器。自动驾驶车辆通过专用短程通信技术(DSRC)或5G等方式高速、低延时地与边缘计算系统链接,接受边缘计算系统的信息引导和控制。边缘计算平台和软件系统提供基础的连接管理,数据存储等功能。调度模型用来计算具体的调度指令。最后边缘计算系统将调度模型输出的调度指令直接传输给接入到边缘云服务的自动驾驶车辆,从而减少数据流不必要的传输,提高服务的实时性。边缘计算系统的调度指令是实时的,调度频率为1hz~10hz。本发明的边缘云服务的服务空间范围有限,一般部署在容易产生交通资源冲突的区域。例如“十字路口”,T型路口。
本发明基于前述地图模型的高精度地图制作方法是依据高精度地图模型具体实现地图的各部分内容。静态地图层存储场景内各元素详细的静态信息,动态地图层存储详细的动态事件信息。二者之间通过双向索引结构关联,即通过动态地图信息索引所在位置相关的静态地图元素数据,同时也可通过地图元素索引与该元素相关联的动态信息。动态地图信息要在场景运行时才会产生,且依靠对应位置的静态地图信息才能发挥最大作用。离开了静态地图,单独谈地图的动态信息也就没有实际意义,可以说静态地图是高精度地图最重要的基石。通常高精度地图制作也主要是指静态地图的制作。本发明的静态地图制作包括静态表征层制作、精准定位层制作和道路矢量层制作。
静态表征层是利用现有的三维重建技术进行创建。三维重建是指用相机拍摄真实世界的物体、场景,再通过计算机视觉技术后期处理得到物体的三维模型。
精准定位层和道路矢量层都是采用多传感融合技术进行创建。多传感器采集的数据包括但不限于,激光雷达的点云数据、摄像头的图像数据、RTK设备的导航数据、惯性测量单元(IMU)的位姿数据。精准定位层中的点云地图通过同时定位与建图(SLAM)技术获得的。为了提升点云地图的精度,建图时融合了导航数据、IMU数据,同时还使用了回环检测方法。通常建好的一个区域点云地图所需的存储空间非常大,例如面积为500平方公里的城市级点云地图所占空间将超过100TB。为了减少自动驾驶车辆的存储压力,也为了便于点云地图使用、维护和更新,我们将根据道路矢量层中的道路网络进行存储管理地图。
精准定位层中的Landmark是通过基于点云和图像数据融合的目标检测技术和语义分割技术获取的。目标检测是获取Landmark的几何位置信息,语义分割是获取Landmark的类别属性信息。在建立点云地图时已经获取到了每帧点云之间的位姿关系,利用此位姿关系以及激光雷达传感器外参,先将每帧点云转换到全局坐标系下,再去与摄像头采集的图像数据进行融合,这样获得的Landmark就是全局坐标系下的Landmark。
道路矢量层中的道路网络仅用来快速找到一条可行的行驶路级,其对定位精度要求不高,可以直接使用现有商业地图中的道路网络信息。道路矢量层中的车道网络用来进行车道级的规划服务,对精度要求很高。车道以其中心线的几何形式表示为曲线,曲线存储为折线,其上有足够数量的控制点来重建曲率。车道重建的目标就是生成这些车道线的控制点。为此,本发明利用基于传感融合的深度学习方法提取车道网络。首先将点云数据和图像数据都转换到俯瞰视角(BEV)下,再利用训练好的深度模型处理融合后的数据即可得到单帧的车道中心线特征。利用前述的每帧点云之间的位姿关系以及激光雷达传感器外参,将每一帧的车道中心线特征变换到全局坐标系下,再把它们拼接在一起就得到了全局的车道网络。最后再将它们和相应的道路网络连接起来就建立起道路矢量层地图。
上述对实施例的描述是为便于本技术领域的普通技术人员能理解和应用本发明。熟悉本领域技术的人员显然可以容易地对上述实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。
Claims (7)
1.一种基于数字孪生的自动驾驶高精度地图模型,其特征在于,所述自动驾驶高精度地图模型由静态地图、动态地图和云服务地图组成;
所述静态地图组包括静态表征层、精准定位层和道路矢量层;静态表征层是自动驾驶高精度地图中的基础层,静态表征层对场景中的三维物体建立适合计算机表示和处理的表征模型,用以描述场景元素的几何形状、位置和纹理信息;精准定位层用于帮助自动驾驶车辆实现高精度定位,道路矢量层是对道路及车道属性进行矢量化描述;
所述动态地图组由实时感知信息层、交通信息层、驾驶知识层组成;
所述云服务地图包括全局云服务模块和边缘云服务模块;
所述全局云服务模块又包括车端云服务单元和区域云服务单元;车端云服务单元是云服务地图提供面向车端的调度服务,通过向单辆自动驾驶车辆发送一系列行驶指令来控制自动驾驶车辆;区域云服务单元是云服务地图向整个区域交通网络内的路口信号设备发送调度指令,控制信号灯的时间周期,目的是保障交通网络高效运行;
所述边缘云服务模块是云服务地图通过边缘计算的方式为所有接入到边缘云服务的自动驾驶车辆提供低延迟的云控调度服务,根据计算结果向进入某一局部范围的所有自动驾驶车辆发送车道路权分配指令。
2.根据权利要求1所述的基于数字孪生的自动驾驶高精度地图模型,其特征在于,所述精准定位图层中记录的信息有两种,第一种是用于提供高精度定位的点云地图信息,主要来源于激光雷达传感器采集到的点云信息;另外一种是来自相机图像采集的且具备独特性的目标或特征,称为Landmark,记录的内容包括绝对坐标、属性、几何轮廓,可在点云信息缺少时用来和车辆传感器感知到的结果匹配,从而推算车辆位置。
3.根据权利要求1所述的基于数字孪生的自动驾驶高精度地图模型,其特征在于,所述道路矢量层对道路网络、车道网络进行矢量化描述,辅助自动驾驶车辆进行全局的路径规划和局部的行为决策;
道路网络包含路段路网、路口、路段路网与路口之间的拓扑关系;车道网络包括车道中心线网络、车道级路口、车道中心线网络与车道级路口之间的拓扑关系;道路网络用来快速找到一条可行的行驶路级,车道网络用来进行车道级的行驶路径规划、变道规划。
4.根据权利要求1所述的基于数字孪生的自动驾驶高精度地图模型,其特征在于,所述实时感知信息层的实时数据由区域内的车辆终端和交通信号终端获得;
交通信息层的数据通过部署在路侧的感知计算设备将观测到的交通事件和车辆流量信息处理后得到;
驾驶知识层存储的是通过对海量人工驾驶记录数据进行多维时空大数据挖掘、分析与处理后形成的先验驾驶经验数据。
5.根据权利要求4所述的基于数字孪生的自动驾驶高精度地图模型,其特征在于,所述交通事件包括交通事故信息、道路障碍物信息、道路施工信息、交通管制信息,所述车辆流量信息是指每条车道上的实时交通流量信息与未来一段时间内预测交通流信息。
6.一种基于权利要求1所述地图模型的高精度静态地图制作方法,其特征在于,所述静态高精度地图制作是依据高精度地图模型具体实现静态地图的各部分内容;静态地图层存储场景内各元素详细的静态信息,动态地图层存储详细的动态事件信息;二者之间通过双向索引结构关联,即通过动态地图信息索引所在位置相关的静态地图元素数据,同时也通过地图元素索引与该元素相关联的动态信息,其中,动态地图信息在场景运行时才会产生;
所述静态地图制作包括静态表征层制作、精准定位层制作和道路矢量层制作;
其中,所述静态表征层制作具体为:利用三维重建技术创建静态表征层,三维重建是指用相机拍摄真实世界的物体、场景,再通过计算机视觉技术后期处理得到物体的三维模型;
所述精准定位层制作具体为:采用多传感融合技术创建精准定位层,所述多传感融合技术是指利用计算机技术将来自多个传感器的信息和数据,在一定的准则下加以自动分析和综合,以完成所需要的决策和估计而进行的信息处理过程;
精准定位层中的点云地图通过同时定位与建图(SLAM)技术获得的;精准定位层中的Landmark通过基于点云和图像数据融合的目标检测技术和语义分割技术获取的;
所述道路矢量层制作具体为:采用多传感融合技术创建道路矢量层;其中,道路矢量层中的道路网络直接使用现有商业地图中的道路网络信息;道路矢量层中的车道网络用来进行车道级的规划服务,车道以其中心线的几何形式表示为曲线,曲线存储为折线,其上有足够数量的控制点来重建曲率;车道重建的目标是生成这些车道线的控制点;利用基于传感融合的深度学习方法提取车道网络。
7.一种权利要求6所述地图模型的高精度地图制作方法,其特征在于,所述的道路矢量层的制作具体包括如下步骤:
将点云数据和图像数据都转换到俯瞰视角(BEV)下,再利用训练好的深度模型处理融合后的数据得到单帧的车道中心线特征;
利用每帧点云之间的位姿关系以及激光雷达传感器外参,将每一帧的车道中心线特征变换到全局坐标系下,再把它们拼接在一起就得到了全局的车道网络;每帧点云之间的位姿关系通过前述SLAM技术计算获得;
最后再将车道网络和相应的道路网络连接起来就建立起道路矢量层地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211655201.6A CN116129066A (zh) | 2022-12-21 | 2022-12-21 | 基于数字孪生的自动驾驶高精度地图模型及高精度静态地图制作方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211655201.6A CN116129066A (zh) | 2022-12-21 | 2022-12-21 | 基于数字孪生的自动驾驶高精度地图模型及高精度静态地图制作方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116129066A true CN116129066A (zh) | 2023-05-16 |
Family
ID=86305653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211655201.6A Pending CN116129066A (zh) | 2022-12-21 | 2022-12-21 | 基于数字孪生的自动驾驶高精度地图模型及高精度静态地图制作方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116129066A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116811884A (zh) * | 2023-08-25 | 2023-09-29 | 格陆博科技有限公司 | 一种智能驾驶环境感知分析方法及系统 |
CN116878487A (zh) * | 2023-09-07 | 2023-10-13 | 河北全道科技有限公司 | 一种用于建立自动驾驶地图的方法、装置、车辆和服务器 |
CN117636270A (zh) * | 2024-01-23 | 2024-03-01 | 南京理工大学 | 基于单目摄像头的车辆抢道事件识别方法及设备 |
CN117872803A (zh) * | 2024-01-08 | 2024-04-12 | 深圳技术大学 | 一种数字孪生现实场景的智能网联仿真测试系统 |
CN118379902A (zh) * | 2024-06-21 | 2024-07-23 | 中电建物业管理有限公司 | 一种基于多目标智能识别的停车场管理方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111367292A (zh) * | 2020-03-20 | 2020-07-03 | 特路(北京)科技有限公司 | 自动驾驶汽车智能道路系统 |
CN112907986A (zh) * | 2021-01-12 | 2021-06-04 | 浙江大学 | 一种基于数字孪生场景和边缘云的动态时间窗路口调度方法 |
CN113581211A (zh) * | 2021-08-30 | 2021-11-02 | 深圳清航智行科技有限公司 | 一种车辆行驶控制方法、系统、装置及可读存储介质 |
CN114076956A (zh) * | 2021-11-12 | 2022-02-22 | 北京斯年智驾科技有限公司 | 一种基于激光雷达点云辅助的车道线标定方法 |
CN115127564A (zh) * | 2022-06-29 | 2022-09-30 | 吉林大学 | 一种面向多层级自动驾驶导航系统的分层地图模型 |
CN115451977A (zh) * | 2022-09-06 | 2022-12-09 | 安徽蔚来智驾科技有限公司 | 车道标注数据的获取方法、计算机设备及存储介质 |
-
2022
- 2022-12-21 CN CN202211655201.6A patent/CN116129066A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111367292A (zh) * | 2020-03-20 | 2020-07-03 | 特路(北京)科技有限公司 | 自动驾驶汽车智能道路系统 |
CN112907986A (zh) * | 2021-01-12 | 2021-06-04 | 浙江大学 | 一种基于数字孪生场景和边缘云的动态时间窗路口调度方法 |
CN113581211A (zh) * | 2021-08-30 | 2021-11-02 | 深圳清航智行科技有限公司 | 一种车辆行驶控制方法、系统、装置及可读存储介质 |
CN114076956A (zh) * | 2021-11-12 | 2022-02-22 | 北京斯年智驾科技有限公司 | 一种基于激光雷达点云辅助的车道线标定方法 |
CN115127564A (zh) * | 2022-06-29 | 2022-09-30 | 吉林大学 | 一种面向多层级自动驾驶导航系统的分层地图模型 |
CN115451977A (zh) * | 2022-09-06 | 2022-12-09 | 安徽蔚来智驾科技有限公司 | 车道标注数据的获取方法、计算机设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
SHANDING YE等: "Creation of high definition map for autonomous driving within specific scene", PROCEEDINGS OF SPIE, vol. 12050, pages 1205056, XP060147976, DOI: 10.1117/12.2613716 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116811884A (zh) * | 2023-08-25 | 2023-09-29 | 格陆博科技有限公司 | 一种智能驾驶环境感知分析方法及系统 |
CN116811884B (zh) * | 2023-08-25 | 2023-11-28 | 格陆博科技有限公司 | 一种智能驾驶环境感知分析方法及系统 |
CN116878487A (zh) * | 2023-09-07 | 2023-10-13 | 河北全道科技有限公司 | 一种用于建立自动驾驶地图的方法、装置、车辆和服务器 |
CN116878487B (zh) * | 2023-09-07 | 2024-01-19 | 河北全道科技有限公司 | 一种用于建立自动驾驶地图的方法、装置、车辆和服务器 |
CN117872803A (zh) * | 2024-01-08 | 2024-04-12 | 深圳技术大学 | 一种数字孪生现实场景的智能网联仿真测试系统 |
CN117636270A (zh) * | 2024-01-23 | 2024-03-01 | 南京理工大学 | 基于单目摄像头的车辆抢道事件识别方法及设备 |
CN117636270B (zh) * | 2024-01-23 | 2024-04-09 | 南京理工大学 | 基于单目摄像头的车辆抢道事件识别方法及设备 |
CN118379902A (zh) * | 2024-06-21 | 2024-07-23 | 中电建物业管理有限公司 | 一种基于多目标智能识别的停车场管理方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111542860B (zh) | 用于自主车辆的高清地图的标志和车道创建 | |
CN116129066A (zh) | 基于数字孪生的自动驾驶高精度地图模型及高精度静态地图制作方法 | |
US20190145765A1 (en) | Three Dimensional Object Detection | |
CN110715671B (zh) | 三维地图生成方法、装置、车辆导航设备和无人驾驶车辆 | |
US12037027B2 (en) | Systems and methods for generating synthetic motion predictions | |
US20200401816A1 (en) | Identifying dynamic objects in a point cloud | |
CN113705636B (zh) | 一种自动驾驶车辆轨迹预测方法、装置及电子设备 | |
US20220036579A1 (en) | Systems and Methods for Simulating Dynamic Objects Based on Real World Data | |
US11580851B2 (en) | Systems and methods for simulating traffic scenes | |
US20220146277A1 (en) | Architecture for map change detection in autonomous vehicles | |
Li et al. | Pre-deployment testing of low speed, Urban Road Autonomous Driving in a Simulated Environment | |
US20230121226A1 (en) | Determining weights of points of a point cloud based on geometric features | |
CN117576652B (zh) | 道路对象的识别方法、装置和存储介质及电子设备 | |
CN115840404B (zh) | 一种基于自动驾驶专用路网和数字孪生地图的云控自动驾驶系统 | |
US11645775B1 (en) | Methods and apparatus for depth estimation on a non-flat road with stereo-assisted monocular camera in a vehicle | |
CN116518960A (zh) | 路网更新方法、装置、电子设备和存储介质 | |
Wang et al. | Construction and application of artificial intelligence crowdsourcing map based on multi-track GPS data | |
CN117521389A (zh) | 一种基于车路协同感知仿真平台的车辆感知测试方法 | |
CN117115766A (zh) | 一种道路拓扑检测方法及相关装置 | |
Bai et al. | Cyber mobility mirror for enabling cooperative driving automation: A co-simulation platform | |
Di Stefano et al. | Point cloud classification of an urban environment using a semi-automatic approach | |
Kim et al. | Cloud Update of Geodetic Normal Distribution Map Based on Crowd‐Sourcing Detection against Road Environment Changes | |
Ren et al. | SLAM in Autonomous Driving | |
Zhuy et al. | On the Ecosystem of High-Definition (HD) Maps | |
Tian et al. | High-Definition Mapping for Autonomous Driving in Surface Mines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20230516 |
|
RJ01 | Rejection of invention patent application after publication |