CN115131669A - 多源数据协同的人车路网一体化构建方法 - Google Patents
多源数据协同的人车路网一体化构建方法 Download PDFInfo
- Publication number
- CN115131669A CN115131669A CN202210909277.0A CN202210909277A CN115131669A CN 115131669 A CN115131669 A CN 115131669A CN 202210909277 A CN202210909277 A CN 202210909277A CN 115131669 A CN115131669 A CN 115131669A
- Authority
- CN
- China
- Prior art keywords
- data
- road
- road network
- track
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/182—Network patterns, e.g. roads or rivers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/387—Organisation of map data, e.g. version management or database structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/38—Outdoor scenes
- G06V20/39—Urban scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种多源数据协同的人车路网一体化构建方法,包括:获取开放街景地图数据、车辆轨迹数据、遥感影像数据、街景图像数据;提取现有道路拓扑数据并作为模板;利用车辆轨迹数据采用层次化建模策略生成道路网络数据;利用高分辨率遥感影像数据提取道路网络数据,与基于车辆轨迹数据提取的道路网络数据形成互补;利用街景图像数据提取道路语义信息;构成包含几何、拓扑、语义等全信息的道路网拓扑数据;匹配生成更新后的道路拓扑数据。本发明为城市级高精度导航道路网拓扑数据的获取与更新提供了有利的技术与方法支撑,在自动驾驶、智能交通系统、电子地图导航等应用中具有明显的应用前景和实用价值。
Description
技术领域
本发明涉及自动驾驶技术领域,特别涉及一种多源数据协同的人车路网一体化构建方法。
背景技术
近年来,城市化进程的加快推进,城市道路基础设施建设日益完善,城市路网规模越来越大,并且伴随着一系列如自动驾驶、智能交通系统等新兴技术产业的蓬勃发展,路网更新的速度已经无法满足城市发展的需要。道路网络拓扑数据是一项重要的基础地理信息数据,道路网作为当前交通系统的骨架线,已成为电子导航、交通控制、出行规划的核心数据之一。传统的构建道路网络的方法多为外业测绘,这种方式构建的路网精度较高,但却存在着数据获取成本高、更新周期长等问题,已不能满足新型社会发展对现势性道路的需求。
而随着大数据、人工智能、移动定位技术、传感器、对地观测卫星等的发展,泛在化、可实时感知的车辆轨迹数据以及各种不同分辨率的遥感影像数据为道路网络拓扑数据的生成和实时增量更新提供了新思路和方法。根据数据类型的不同,目前关于道路网的提取方法主要可以分为两类,一类是基于车辆轨迹数据的道路网拓扑数据提取,车辆轨迹是人类出行在道路网络上的体现,约束于道路网络,可以实时反映道路网络的状态,然而对于轨迹稀疏的区域,无法较好的对区域路网进行提取;另一类是基于遥感影像的路网数据识别与提取,遥感影像中含有了丰富的道路网信息,尤其对于偏远地区轨迹无法覆盖的地方,遥感影像可以较好的反映路网信息。
通过将上述两种方式提取的路网数据进行融合可以得到较为完整的城市级导航道路网络拓扑数据。另外,目前大部分车辆均装有摄像工具,积累了大量的车载影像数据,车载影像数据中包含了重要的道路目标数据,如道路标线、道路标牌、红绿灯等,通过多视影像匹配定位并提取这些道路标线、标牌信息,与车辆轨迹数据和遥感影像数据提取并且融合的道路信息进行关联与融合,可细化道路拓扑数据、丰富道路语义信息。然而,由于采样视角差异、目标遮挡等问题,轨迹与车载影像数据蕴含的道路信息融合仍是一个难点。
总体而言,目前包含几何、拓扑、语义等全信息的高精路网的研究与生成仍有较大的缺失,主要体现在:现有路网生成方法多采用单一数据源,提取的路网数据精度相对较低,含有的信息不全面,达不到城市级道路导航的需求;多源数据融合提取道路数据的研究中,基于街图像数据的道路目标信息(语义)与路网数据的融合仍存在一定的困难;缺少统一的多源大数据的路网全信息提取与构建框架。
应该注意,上面对技术背景的介绍只是为了方便对本申请的技术方案进行清楚、完整的说明,并方便本领域技术人员的理解而阐述的。不能仅仅因为这些方案在本申请的背景技术部分进行了阐述而认为上述技术方案为本领域技术人员所公知。
发明内容
本发明的目的是:针对上述背景技术中存在的不足,提供一种融合多源大数据的高精路网提取与构建方法,以为城市级高精度导航道路网拓扑数据的获取与更新提供有利的技术与方法支撑,在自动驾驶、智能交通系统、电子地图导航等应用中产生巨大的应用前景和实用价值。
为了达到上述目的,本发明提供了一种多源数据协同的人车路网一体化构建方法,其特征在于,包括如下步骤:
S1,获取开放街景地图数据、车辆轨迹数据、遥感影像数据、街景图像数据;
S2,提取现有道路拓扑数据并作为模板;
S3,利用车辆轨迹数据采用层次化建模策略生成道路网络数据;
S4,在轨迹数据分布稀疏的地域,利用高分辨率遥感影像数据提取道路网络数据,与基于车辆轨迹数据提取的道路网络数据形成互补;
S5,利用街景图像数据提取道路语义信息;
S6,结合通过车辆轨迹数据提取的道路网络数据、通过遥感影像数据提取的道路信息、以及街景图像数据提取道路语义信息,构成包含几何、拓扑、语义等全信息的道路网拓扑数据;
S7,将道路拓扑数据与S2得到的道路拓扑数据模板进行匹配,生成更新后的道路拓扑数据。
进一步地,S2中从开放街景地图数据上获取研究区域的矢量道路网络数据,对数据进行预处理,包括一致性和完整性检查、拓扑关系检查和处理、数据简化删除;对数据进行抽象表达并提取道路网络拓扑数据信息。
进一步地,S3具体包括如下子步骤:
S31,数据预处理,包括异常轨迹数据剔除、重复轨迹数据剔除、以及轨迹数据简化;
S32,对交叉口的几何形态和拓扑连通性进行局部精细化拓扑重构;构建深度学习神经识别交叉口位置和范围;对交叉口内部拓扑连通性与转向规则提取,构建轨迹聚类算法提取同一车道轨迹数据,通过主曲线拟合算法提取车道中心线拓扑数据,并结合聚类轨迹统计不同车道的转向限制信息;
S33,对连接道路交叉口的路段进行拓扑和几何重建,提取连接各交叉口的轨迹数据,根据距离邻近、方向相似特征进行轨迹聚类,生成路段中心线;
S34,根据延续性、方向特征,对提取的路段中心线与交叉口拓扑数据进行一致性整合,生成整体道路网拓扑数据;针对生成的道路数拓扑数据,进行路网拓扑修剪,去除冗余的路网数据。
进一步地,S32中采用ResNeXt-Unet深度神经网络对道路交叉口的位置和范围进行识别,将经过数据清洗的轨迹数据进行轨迹数据分块,将分块的轨迹数据进行栅格化,将栅格化的分块轨迹数据输入训练好的ResNeXt-Unet深度神经网络进行道路交叉口位置和范围识别。
进一步地,S33中采用高斯混合模型进行轨迹聚类,以轨迹间的距离邻近性、方向相似特征为度量指标,生成路段的中心线。
进一步地,S4具体包括如下子步骤:
S41,数据预处理,包括遥感影像辐射定标、大气校正、几何校正以及地理校准;
S42,训练集构建,得到目标样本训练库;
S43,基于U-Net深度学习神经网络提取遥感图像中的道路数据。
进一步地,S43中利用训练好的U-net深度学习神经网络对道路信息进行提取,获得分割后的道路图像,对道路图像数据再次进行二值化,对经过二值化的道路图像数据进行矢量化处理,得到能够进行融合的道路矢量数据;
进一步地,S5具体包括如下子步骤:
S51,进行数据预处理,包括图像去噪、几何校正、图像增强以及图像地理配准;
S52,以PSPNet网络为基础,构建基于深度学习网络的多视车载影像道路目标识别方法,以街景数据集为基础,人工标注增加道路目标类别,构建道路目标训练数据;
S53,基于PSPNet网络进行图像语义分割与道路目标识别,并通过多视图像匹配,解算道路目标的空间位置。
进一步地,基于PSPNet深度神经网络模型识别并提取街景图像中的道路目标,对连续两张含有同一道路目标的图像,通过双目定位方法解算得到该道路目标的空间位置。
进一步地,S6中针对两种路网数据分别建立缓冲区,然后对缓冲区重叠的部分进行缓冲区合并,对合并后的路网数据进行二值化转化为图片,进行腐蚀膨胀操作,之后提取路网的骨架线数据,对骨架线进行平滑处理,并转化为矢量化数据。
进一步地,S7中根据位置邻近和语义相似约束,利用模糊推理和基于隐马尔可夫模型的地图皮匹配算法检测道路网几何形态、连通性关系的不一致区域作为待更新区域;构建变化区域内增量道路与已有道路的缓冲区,生成道路图像,基于数学形态学算子提取道路图像中心线与各路段,依据轨迹数据重构相互连通的路段间的拓扑关系,生成更新后的道路拓扑数据。
本发明的上述方案有如下的有益效果:
本发明提供的多源数据协同的人车路网一体化构建方法构建了多源大数据(车辆轨迹数据、高分辨率遥感影像数据、街景图像数据)生成高精路网与路网增量更新的统一框架,对车辆轨迹数据和遥感影像数据在提取路网信息时的各自优势进行互补融合,得到较为完整的城市级导航道路,同时关联利用街景图像数据提取的道路目标数据,丰富了道路的语义信息,实现城市道路变化自动检测与增量更新,突破了现有依赖于单一数据源的道路信息提取方法难以对道路几何、拓扑、语义信息进行全方位感知的瓶颈问题,为城市级高精度导航道路网拓扑数据的获取与更新提供了有利的技术与方法支撑,在自动驾驶、智能交通系统、电子地图导航等应用中具有明显的应用前景和实用价值;
本发明的其它有益效果将在随后的具体实施方式部分予以详细说明。
附图说明
图1为本发明的步骤流程示意图;
图2为本发明的流程技术细节示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
在本发明的描述中,为了简单说明,该方法或规则作为一系列操作来描绘或描述,其目的既不是对实验操作进行穷举,也不是对实验操作的次序加以限制。例如,实验操作可以各种次序进行和/或同时进行,并包括其他再次没有描述的实验操作。此外,所述的步骤不都是在此描述的方法和算法所必备的。本领域技术人员可以认识和理解,这些方法和算法可通过状态图或项目表示为一系列不相关的状态。
本发明涉及自动驾驶技术领域,目前包含几何、拓扑、语义等全信息的高精路网的研究与生成仍有较大的缺失,主要体现在以下几个方面:现有路网生成方法多采用单一数据源,提取的路网数据精度相对较低,含有的信息不全面,达不到城市级道路导航的需求;多源数据融合提取道路数据的研究中,基于街图像数据的道路目标信息(语义)与路网数据的融合仍存在一定的困难;缺少统一的多源大数据的路网全信息提取与构建框架。基于此,本发明的实施例提供了一种多源数据协同的人车路网一体化构建方法,旨在解决上述问题。
具体如图1、图2所示,本发明的实施例提供了一种多源数据协同的人车路网一体化构建方法,包括如下步骤:
S1,获取开放街景地图(Open Street Map,OSM)数据、车辆轨迹数据、高分辨率遥感影像数据、街景图像数据(腾讯街景地图和百度街景地图等)。
S2,提取现有道路拓扑数据,作为后续步骤地图匹配的模板数据。
具体地,从OSM上下载研究区域的矢量道路网络数据,由于该数据未经过严格的质量控制,存在数据重复、不完整、错误等问题,所以需要对路网的属性数据的完整性和一致性进行筛查,利用ArcGIS中提供的拓扑工具对其进行拓扑检查,对路网数据进行合适的删除、合并等操作;然后基于网络模型和图结构对路网数据进行提取、存储,道路的交叉口表达为网络的节点,道路的边表达为网络的边,一条边对应着两个节点。
其中,路网数据的一致性和完整性检查主要包括对道路的名称、编码、车道、类型等专题属性信息的检查;抽取的道路拓扑数据以图结构的形式进行存储,其中路段表达为图的边,道路交叉口与路段的连接处表达为图的节点。
S3,利用车辆轨迹数据采用层次化建模策略生成道路网络数据。定义轨迹数据集为S={T1,T2,…,Tn},其中Tj表示第j条车辆轨迹,n为输入的轨迹总条数,轨迹Tj={P1,P2,…,Pm},其中Pi表示轨迹Tj中的第i个轨迹点,m为轨迹Tj中轨迹点的总个数,Pi具体表示为Pi=(xi,yi,ti,ai,vi)。
S31,轨迹数据预处理,包括异常轨迹数据剔除(速度异常、位置异常、距离异常、形态异常等)、重复轨迹数据剔除以及轨迹数据简化,采用Douglas-Peuker(DP)算法对轨迹数据进行简化以去除轨迹中的冗余点数据。
具体地,包括以下子步骤:
1)打断采样时间间隔大于三倍的平均采样间隔出的轨迹点,分为两条新的轨;
2)打断轨迹中存在相邻采样点之间的距离大于500m的轨迹点,分为两条新的轨迹;
3)删除轨迹中存在轨迹点的速度大于100km/h的轨迹;
4)删除轨迹总长度小于200的轨迹;
5)删除采样点个数小于50个轨迹;
6)对经过上述预处理操作的轨迹数据利用Douglas-Peuker(DP)算法进行简化去除冗余的轨迹点数据。
S32,道路交叉口精细化建模,包括交叉口的位置与范围识别以及拓扑规则提取。
具体地,利用深度学习神经网络识别道路交叉口,首先对车辆轨迹数据进行数据分块,对分块的轨迹数据进行栅格化,借助相关标注软件对栅格化后的交叉口数据进行人工半自动标注构建道路交叉口训练库,利用该训练集数据对道路交叉口识别深度学习神经网络进行训练,利用训练良好的深度学习神经网络对未经标注的轨迹数据进行预测,识别轨迹数据中的交叉口与范围。接着,对识别的交叉口数据内部的拓扑连通性与转向规则进行提取,利用DBSCAN算法对轨迹数据进行聚类,以将交叉口内大概的转向模式提取出来并剔除偏移道路的噪声轨迹,再用基于高斯混合模型(GMM)的轨迹出入点聚类方法对交叉口出入口进行更加精细和完整的定位。
其中DBSCAN聚类算法使用Hausdorff距离衡量轨迹间的相似性,给定欧氏空间中的两轨迹段A={a1,a2,…},B={b1,b2,…},Hausdorff距离的定义如下:
S33,在S32基础上进一步对连接道路交叉口的路段进行拓扑和几何重建,生成道路骨架线。
具体地,首先将原始轨迹在有较大转弯的位置处进行分段,对每一段采用k段主曲线拟合提取道路中心线再连接起来,以避免k段主曲线拟合算法在弯道处偏离数据中心的问题;然后利用K-Means聚类的曲线优化方法对中心线进行优化,通过提取连接各交叉口的轨迹数据,根据距离邻近、方向相似特征进行轨迹聚类,生成路段中心线。
S34,根据延续性、方向特征,对提取的路段中心线与交叉口拓扑数据进行一致性整合,生成整体道路网拓扑数据;针对生成的道路数拓扑数据,进行路网拓扑修剪以去除冗余的路网数据。
S4,在轨迹数据分布稀疏的地域,基于车辆轨迹数据提取的路网有所缺失,利用高分辨率遥感影像数据提取道路网络数据,与基于车辆轨迹数据提取的路网数据形成互补,该步骤主要包含以下子步骤:
S41,数据预处理,包括遥感影像辐射定标、大气校正、几何校正以及地理校准。具体地,利用ENVI软件对遥感影像数据进行相应处理。
S42,遥感影像提取路网训练集样本数据构建。首先对获取的遥感影像数据进行区域分块,之后借助相关标注软件对样本数据集进行人工半自动标注;接着将上述经过标注的数据进行批量处理,得到格式统一、尺寸相同的文件数据。
为了扩充可使用的数据量,基于MATLAB将上述数据通过左右对称,上下对称处理,得到三倍于原数据数量的图片数据;最后,对上述遥感数据进行二值化,将遥感图像数据转换为灰度图像数据以得到目标样本训练库。
S43,基于U-Net深度学习神经网络提取遥感图像中的道路信息。首先构建基于U-Net深度学习神经网络,设置网络的相关参数,以所构建的目标样本训练库作为网络的输入,反复训练测试,得到一个稳定的能够识别提取道路信息的深度学习神经网络模型,结合数学形态学算法,提取遥感影像中的道路几何线。
利用训练好的U-net深度学习神经网络对道路信息进行提取,得到分割后的道路图像,为了能够更为准确的提取道路骨架线,对道路图像数据再次进行二值化,对经过二值化的道路图像数据进行矢量化处理得到可以进行融合的道路矢量数据。
S5,利用街景图像数据提取更加丰富的道路语义信息。首先进行数据预处理,包括图像去噪(还原真实图像)、几何校正、图像增强以及图像地理配准;然后以PSPNet网络为基础,构建基于深度学习网络的多视车载影像道路目标识别方法,以百度街景图像数据集为基础,人工标注增加道路目标类别,构建道路目标训练数据,进而基于PSPnet网络进行图像语义分割与道路目标(如道路标线、转向限制、交通标志牌等)识别,并通过多视图像匹配,解算道路目标的空间位置。
优选地,对连续两张含有同一道路目标的图像,设计一种简单的双目定位算法,解算得到该道路目标的空间位置。
S6,以通过车辆轨迹数据提取的道路网数据为基础,与通过遥感影像数据提取的道路信息进行匹配融合;在此基础上,通过空间位置邻近和道路目标语义相似约束进行道路目标(如交通标志牌)与路网信息关联整合,构成包含几何、拓扑、语义等全信息的道路网拓扑数据;
利用轨迹数据和遥感影像数据分别提取的路网数据的具体融合方法为:针对两种路网数据分别建立缓冲区,然后对缓冲区重叠的部分进行缓冲区合并,对合并后的路网数据进行二值化转化为图片,进行腐蚀膨胀操作,之后提取路网的骨架线数据,对骨架线进行平滑处理,并将其转化为矢量化数据。
S7,将整合后的道路拓扑数据与S2得到的道路网拓扑模板数据进行匹配,根据位置邻近和语义相似约束,利用模糊推理和基于隐马尔可夫模型的地图皮匹配算法检测道路网几何形态、连通性关系的不一致区域(即变化区域)作为待更新区域;接着构建变化区域内增量道路与已有道路的缓冲区,生成道路图像,进而基于数学形态学算子提取道路图像中心线与各路段,最后依据轨迹数据重构相互连通的路段间的拓扑关系,生成更新后的道路拓扑数据。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种多源数据协同的人车路网一体化构建方法,其特征在于,包括如下步骤:
S1,获取开放街景地图数据、车辆轨迹数据、遥感影像数据、街景图像数据;
S2,提取现有道路拓扑数据并作为模板;
S3,利用车辆轨迹数据采用层次化建模策略生成道路网络数据;
S4,在轨迹数据分布稀疏的地域,利用高分辨率遥感影像数据提取道路网络数据,与基于车辆轨迹数据提取的道路网络数据形成互补;
S5,利用街景图像数据提取道路语义信息;
S6,结合通过车辆轨迹数据提取的道路网络数据、通过遥感影像数据提取的道路信息、以及街景图像数据提取道路语义信息,构成包含几何、拓扑、语义等全信息的道路网拓扑数据;
S7,将道路拓扑数据与S2得到的道路拓扑数据模板进行匹配,生成更新后的道路拓扑数据。
2.根据权利要求1所述的多源数据协同的人车路网一体化构建方法,其特征在于,S2中从开放街景地图数据上获取研究区域的矢量道路网络数据,对数据进行预处理,包括一致性和完整性检查、拓扑关系检查和处理、数据简化删除;对数据进行抽象表达并提取道路网络拓扑数据信息。
3.根据权利要求2所述的多源数据协同的人车路网一体化构建方法,其特征在于,S3具体包括如下子步骤:
S31,数据预处理,包括异常轨迹数据剔除、重复轨迹数据剔除、以及轨迹数据简化;
S32,对交叉口的几何形态和拓扑连通性进行局部精细化拓扑重构;构建深度学习神经网络模型识别交叉口位置和范围;对交叉口内部拓扑连通性与转向规则提取,构建轨迹聚类算法提取同一车道轨迹数据,通过主曲线拟合算法提取车道中心线拓扑数据,并结合聚类轨迹统计不同车道的转向限制信息;
S33,对连接道路交叉口的路段进行拓扑和几何重建,提取连接各交叉口的轨迹数据,根据距离邻近、方向相似特征进行轨迹聚类,生成路段中心线;
S34,根据延续性、方向特征,对提取的路段中心线与交叉口拓扑数据进行一致性整合,生成整体道路网拓扑数据;针对生成的道路数拓扑数据,进行路网拓扑修剪,去除冗余的路网数据。
4.根据权利要求3所述的多源数据协同的人车路网一体化构建方法,其特征在于,S32中采用ResNeXt-Unet深度神经网络对道路交叉口的位置和范围进行识别,将经过数据清洗的轨迹数据进行轨迹数据分块,将分块的轨迹数据进行栅格化,将栅格化的分块轨迹数据输入训练好的ResNeXt-Unet深度神经网络进行道路交叉口位置和范围识别;
S33中采用高斯混合模型进行轨迹聚类,以轨迹间的距离邻近性、方向相似特征为度量指标,生成路段的中心线。
5.根据权利要求3所述的多源数据协同的人车路网一体化构建方法,其特征在于,S4具体包括如下子步骤:
S41,数据预处理,包括遥感影像辐射定标、大气校正、几何校正以及地理校准;
S42,训练集构建,得到目标样本训练库;
S43,基于U-Net深度学习神经网络提取遥感图像中的道路数据。
6.根据权利要求5所述的多源数据协同的人车路网一体化构建方法,其特征在于,S43中利用训练好的U-net深度学习神经网络对道路信息进行提取,获得分割后的道路图像,对道路图像数据再次进行二值化,对经过二值化的道路图像数据进行矢量化处理,得到能够进行融合的道路矢量数据。
7.根据权利要求1所述的多源数据协同的人车路网一体化构建方法,其特征在于,S5具体包括如下子步骤:
S51,进行数据预处理,包括图像去噪、几何校正、图像增强以及图像地理配准;
S52,以PSPNet网络为基础,构建基于深度学习网络的多视车载影像道路目标识别方法,以街景数据集为基础,人工标注增加道路目标类别,构建道路目标训练数据;
S53,基于PSPNet网络进行图像语义分割与道路目标识别,并通过多视图像匹配,解算道路目标的空间位置。
8.根据权利要求7所述的多源数据协同的人车路网一体化构建方法,其特征在于,基于PSPNet深度神经网络模型识别并提取街景图像中的道路目标,对连续两张含有同一道路目标的图像,通过双目定位方法解算得到该道路目标的空间位置。
9.根据权利要求1所述的多源数据协同的人车路网一体化构建方法,其特征在于,S6中针对两种路网数据分别建立缓冲区,然后对缓冲区重叠的部分进行缓冲区合并,对合并后的路网数据进行二值化转化为图片,进行腐蚀膨胀操作,之后提取路网的骨架线数据,对骨架线进行平滑处理,并转化为矢量化数据。
10.根据权利要求1所述的多源数据协同的人车路网一体化构建方法,其特征在于,S7中根据位置邻近和语义相似约束,利用模糊推理和基于隐马尔可夫模型的地图皮匹配算法检测道路网几何形态、连通性关系的不一致区域作为待更新区域;构建变化区域内增量道路与已有道路的缓冲区,生成道路图像,基于数学形态学算子提取道路图像中心线与各路段,依据轨迹数据重构相互连通的路段间的拓扑关系,生成更新后的道路拓扑数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210909277.0A CN115131669A (zh) | 2022-07-29 | 2022-07-29 | 多源数据协同的人车路网一体化构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210909277.0A CN115131669A (zh) | 2022-07-29 | 2022-07-29 | 多源数据协同的人车路网一体化构建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115131669A true CN115131669A (zh) | 2022-09-30 |
Family
ID=83386599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210909277.0A Pending CN115131669A (zh) | 2022-07-29 | 2022-07-29 | 多源数据协同的人车路网一体化构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115131669A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115878737A (zh) * | 2022-10-26 | 2023-03-31 | 中国电子科技集团公司第五十四研究所 | 一种基于路网数据的交叉口提取及拓扑结构描述方法 |
CN116758744A (zh) * | 2023-06-21 | 2023-09-15 | 山东宜鑫致远信息科技有限公司 | 基于人工智能的智慧城市运维管理方法、系统及存储介质 |
CN116975561A (zh) * | 2023-07-19 | 2023-10-31 | 深圳市快速直接工业科技有限公司 | 一种基于step格式的车床工艺识别方法 |
CN117191004A (zh) * | 2023-11-06 | 2023-12-08 | 中南大学 | 融合众源轨迹数据的户外三维步行导航路网地图生成方法 |
-
2022
- 2022-07-29 CN CN202210909277.0A patent/CN115131669A/zh active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115878737A (zh) * | 2022-10-26 | 2023-03-31 | 中国电子科技集团公司第五十四研究所 | 一种基于路网数据的交叉口提取及拓扑结构描述方法 |
CN115878737B (zh) * | 2022-10-26 | 2023-09-01 | 中国电子科技集团公司第五十四研究所 | 一种基于路网数据的交叉口提取及拓扑结构描述方法 |
CN116758744A (zh) * | 2023-06-21 | 2023-09-15 | 山东宜鑫致远信息科技有限公司 | 基于人工智能的智慧城市运维管理方法、系统及存储介质 |
CN116758744B (zh) * | 2023-06-21 | 2024-06-11 | 丁璐 | 基于人工智能的智慧城市运维管理方法、系统及存储介质 |
CN116975561A (zh) * | 2023-07-19 | 2023-10-31 | 深圳市快速直接工业科技有限公司 | 一种基于step格式的车床工艺识别方法 |
CN116975561B (zh) * | 2023-07-19 | 2024-04-05 | 快速直接(深圳)精密制造有限公司 | 一种基于step格式的车床工艺识别方法 |
CN117191004A (zh) * | 2023-11-06 | 2023-12-08 | 中南大学 | 融合众源轨迹数据的户外三维步行导航路网地图生成方法 |
CN117191004B (zh) * | 2023-11-06 | 2024-03-19 | 中南大学 | 融合众源轨迹数据的户外三维步行导航路网地图生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hinz et al. | Automatic extraction of urban road networks from multi-view aerial imagery | |
CN115131669A (zh) | 多源数据协同的人车路网一体化构建方法 | |
CN109241069B (zh) | 一种基于轨迹自适应聚类的路网快速更新的方法及系统 | |
Zai et al. | 3-D road boundary extraction from mobile laser scanning data via supervoxels and graph cuts | |
Serna et al. | Detection, segmentation and classification of 3D urban objects using mathematical morphology and supervised learning | |
CN109190481B (zh) | 一种遥感影像道路材质提取方法和系统 | |
CN108286979B (zh) | 一种获取高精度导航路径数据的方法和装置以及导航系统、驾驶系统 | |
Rastiveis et al. | Automated extraction of lane markings from mobile LiDAR point clouds based on fuzzy inference | |
CN105788274A (zh) | 基于时空轨迹大数据的城市交叉口车道级结构提取方法 | |
CN108428254A (zh) | 三维地图的构建方法及装置 | |
Ding et al. | Towards generating network of bikeways from Mapillary data | |
CN113358125B (zh) | 一种基于环境目标检测和环境目标地图的导航方法及系统 | |
Ezzat et al. | Building road segments and detecting turns from gps tracks | |
CN115294293B (zh) | 基于低空航摄成果自动化编译高精地图道路参考线的方法 | |
Li et al. | Fusing taxi trajectories and RS images to build road map via DCNN | |
Qiu et al. | Automatic extraction of road networks from GPS traces | |
Dai et al. | Automatic method for extraction of complex road intersection points from high-resolution remote sensing images based on fuzzy inference | |
CN115081505A (zh) | 一种基于步行轨迹数据的行人路网增量式生成方法 | |
Wen et al. | Recovery of urban 3D road boundary via multi-source data | |
CN114116933A (zh) | 一种基于单目图像的语义拓扑联合建图方法 | |
CN115309846B (zh) | 一种基于平行系数的道路网结构识别方法 | |
CN117036733A (zh) | 一种城市道路场景特征线提取的方法 | |
Eftelioglu et al. | Ring-net: road inference from gps trajectories using a deep segmentation network | |
CN115423841A (zh) | 一种面向大宗物流的运输终点校准方法及系统 | |
Zou et al. | Inertia mutation energy model to extract roads by crowdsourcing trajectories |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |