CN115272599A - 一种面向城市信息模型的三维语义地图构建方法 - Google Patents

一种面向城市信息模型的三维语义地图构建方法 Download PDF

Info

Publication number
CN115272599A
CN115272599A CN202210884356.0A CN202210884356A CN115272599A CN 115272599 A CN115272599 A CN 115272599A CN 202210884356 A CN202210884356 A CN 202210884356A CN 115272599 A CN115272599 A CN 115272599A
Authority
CN
China
Prior art keywords
map
semantic
dimensional
semantic map
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210884356.0A
Other languages
English (en)
Inventor
刘成菊
周逊
陈启军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN202210884356.0A priority Critical patent/CN115272599A/zh
Publication of CN115272599A publication Critical patent/CN115272599A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Biophysics (AREA)
  • Computer Graphics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Remote Sensing (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种面向城市信息模型的三维语义地图构建方法,包括:S1、设计和训练深度神经网络,同时提取输入图像的语义分割信息和SLAM特征;S2、将语义分割信息和SLAM特征输入至改进双目ORB‑SLAM3框架,进行相机位姿估计,并持续增量更新稀疏点云语义地图;S3、对S2中生成的稀疏点云语义地图,结合语义分割信息进行空间‑语义地图点聚类;S4、根据空间‑语义地图点聚类结果,重建超二次曲面物体形式的物体模型,并对物体模型持续增量优化;S5、基于重建的超二次曲面物体模型以及相机位姿估计,构建物体级三维语义地图;S6、基于双目立体匹配,获取RGB‑D图像,结合相机位姿估计和语义分割信息,构建稠密点云级三维语义地图。与现有技术相比,本发明的方法精度与鲁棒性更高、环境表征能力更强。

Description

一种面向城市信息模型的三维语义地图构建方法
技术领域
本发明涉及数字孪生与SLAM技术领域,尤其是涉及一种面向城市信息模型的三维语义地图构建方法。
背景技术
数字孪生是指充分利用物理模型、传感器、运行历史等数据,集成多学科、多物理量、多尺度、多概率的仿真过程,在虚拟信息空间中对物理实体进行镜像映射,反映物理实体行为、状态或活动的全生命周期过程的技术。越复杂的系统建立数字孪生体后管理效率提升越高,收益越大,而城市就是最为复杂而庞大的系统,数字孪生城市应运而生,《国民经济和社会发展第十四个五年规划纲要和2035年远景目标》就明确提出“探索建设数字孪生城市”,要“以数字化助推城乡发展和治理模式创新,全面提高运行效率和宜居度”。
城市信息模型(CIM)是数字孪生城市技术中基础设施端的重要内容,包括山峰河流等自然地貌、道路桥梁等基础设施和各类建筑物等在虚拟空间中的模型及各类属性信息。城市发展日新月异,城市信息模型也要不断更新,使用配备多种传感器的信息采集车通过城市环境巡游构建三维语义地图,是建立城市信息模型的重要手段。
SLAM(同时定位与地图构建)是车辆自主建立城市三维地图的基本方式。双目相机能够采集信息量丰富的彩色图像,通过立体匹配能够恢复出深度图,成本又远低于激光雷达,适合城市级别的SLAM用作主要传感器。ORB-SLAM3是目前综合性能最好的开源视觉SLAM方案,且支持双目图像输入,本发明选择它作为算法的基础框架。但是ORB-SLAM3只能建立稀疏点云级别的几何地图,构建语义地图需要作进一步完善
目前,关于通过SLAM构建语义地图,已经有了一些研究,但仍然存在一些问题。
语义地图可以分为点云级别的和物体级别的。点云级别的语义地图研究出现较早,其只需要为每个地图点赋予一个类别标签,构建方法相对简单,但这样的地图包含的语义信息层次太低,不足以生成实用的城市信息模型。物体级别的语义地图,包含了环境中的物体及其类别、轮廓、位姿等参数,更接近人类的环境感知方式,能够有效支撑城市信息模型的生成,不过物体级地图也不便表征道路等不可数的背景事物。
语义地图的构建首先需要语义提取器,现有的物体级语义SLAM一般采用YOLO系列等目标检测网络作为语义提取器,能够给出若干个矩形的物体检测框,由这些检测框能够以相对简明的方式恢复出物体尺寸和姿态等参数。但是矩形检测框无法表征物体的准确边界,因此难以恢复出物体的形状参数。
现有的物体级语义SLAM,采用的物体模型多为立方体(cube)和二次曲面(quadric)。这是两种比较规整、参数较少的物体模型,搭配前述目标检测网络给出的检测框,参数生成与优化的计算效率较高。但是真实城市环境中的物体普遍形状比较复杂,上述模型难以有效表征不规则的物体,影响了语义地图构建方法的通用性。
目前,一种能够充分表征尽可能多不同种类的环境物体的,能够建立多层次城市地图的,精度、鲁棒性与实时性平衡的语义SLAM算法,亟待研究。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供了一种精度与鲁棒性更高的、环境表征能力更强面向城市信息模型的三维语义地图构建方法,该方法将超二次曲面作为环境物体模型,从语义分割构建包括物体级地图在内的多层次语义地图。
本发明的目的可以通过以下技术方案来实现:
本发明提供了一种面向城市信息模型的三维语义地图构建方法,其特征在于,该方法包括以下步骤:
步骤S1、设计和训练深度神经网络,同时提取输入图像中的语义分割信息和SLAM特征;
步骤S2、将步骤S1得到的语义分割信息以及SLAM特征输入至改进双目ORB-SLAM3框架,进行相机位姿估计,并持续增量更新稀疏点云语义地图;
步骤S3、对步骤S2中生成的稀疏点云语义地图,结合步骤S1的语义分割信息进行空间-语义地图点聚类;
步骤S4、根据空间-语义地图点聚类结果,重建超二次曲面物体形式的物体模型,并对物体模型持续增量优化;
步骤S5、基于重建的超二次曲面物体模型以及相机位姿估计,构建物体级三维语义地图;
步骤S6、基于双目立体匹配,获取RGB-D图像,结合相机位姿估计和语义分割信息,构建稠密点云级三维语义地图。
优选地,所述稀疏点云语义地图、物体级三维语义地图、稠密点云级三维语义地图的构建过程为三个并行进程。
优选地,所述步骤S1中的深度神经网络的架构具体为:在用于语义分割的HRNetV2网络的末端增设一网络分支,输出定位建图所需的关键点和描述子,形成一多分支网络,即语义分割分支和SLAM特征提取分支;
所述语义分割分支的训练采用交叉熵损失函数;所述SLAM特征分支的训练采用基于Superpoint的关键点真值构造方式和损失函数。
优选地,所述步骤S2中改进双目ORB-SLAM3框架,具体结构为:在ORB-SLAM3框架结构基础上,将其中的特征提取器替换为所述步骤S1中的深度神经网络。
优选地,所述步骤S3中空间-语义地图点聚类采用的距离度量由地图点空间距离和地图点间语义属性的概率分布差异组成,具体表达式:
Figure BDA0003763222980000031
式中,mi,mj是由ORB-SLAM3模型构建的稀疏地图点,
Figure BDA0003763222980000032
是地图点mi,mj在世界坐标系下的三维坐标,
Figure BDA0003763222980000033
代表地图点mi,mj的语义类别标签的概率分布,KL(·||·)代表Kullback-Leibler散度,η12为权重超参数。
优选地,所述步骤S4中超二次曲面形式的物体模型,具体表达式为:
超二次曲面的向量表现形式为:
Figure BDA0003763222980000034
式中,a=[ax,ay,az]T为三个维度上的尺寸参数,ε=[ε12]T为形状参数;-π/2≤η≤π/2,-π≤ω≤π为迭代变量;
超二次曲面的约束表达式为:
Figure BDA0003763222980000041
式中,a=[ax,ay,az]T为尺寸参数,ε=[ε12]T为形状参数;
所述超二次曲面物体模型的物体参数还包括位姿参数
Figure BDA0003763222980000042
优选地,所述步骤S4包括以下子步骤:
步骤S41、对初始地图点的聚类结果作主成分分析PCA,初始化超二次曲面形式下的物体参数
Figure BDA0003763222980000043
其中,a为三个维度上的尺寸参数,ε为形状参数;
Figure BDA0003763222980000044
为物体位姿;
步骤S42、以最小化当前帧物体图像区域与地图中对应物体在当前帧的投影为目标,优化物体参数;
步骤S43、以最小化当前帧物体地图点与物体表面距离为目标,优化物体参数。
优选地,所述步骤S41和步骤S42的优化过程均采用分阶段优化方式,具体为:首先固定尺寸参数优化其他参数,然后固定其他参数优化尺寸参数,最后联合优化所有物体参数。
优选地,所述步骤S5还包括:对语义分割输出的所有可能的物体类别均训练相应字典,基于词袋模型完成物体数据关联,包括以下子步骤:
1)依据聚类中心位置在已知地图里的物体中确定候选关联物体;
2)使用词袋匹配方法,根据该地图点簇所属物体类别的字典,完成当前帧地图点簇与已知地图中物体的关联;
3)在由地图点簇重建出物体后,完成物体数据关联。
优选地,所述步骤S6具体为:
1)对于每个关键帧,通过LEAStereo算法进行双目立体匹配,得到RGB图对应的深度图;
2)结合语义分割标签图,得到关键帧对应的稠密语义点云;对于地图点的类别标签采用递归贝叶斯算法进行更新;
3)对各关键帧的稠密语义点云按相机位姿估计进行拼接,得到稠密点云级语义地图;其中,每个关键帧的相机位姿由ORB-SLAM3模型计算得出。
与现有技术相比,本发明具有以下优点:
1)本发明使用超二次曲面作为语义地图中的物体模型,并设计了相应的生成与优化算法,能够有效表征更多尺寸与形状复杂的物体,提升语义地图通用性,使数字孪生城市信息模型更贴近复杂的真实城市环境;
2)本发明从语义分割,而非以往方案常用的目标检测来重建物体,能够得到更精确的物体轮廓,提升语义地图精度,使数字孪生城市信息模型更贴近复杂的真实城市环境;
3)本发明用同一个深度神经网络同时输出SLAM特征和语义分割结果,相比以往的语义SLAM方案,算法更简洁,运行效率更高;
4)本发明使用改进的词袋模型进行物体数据关联,在精度与效率上达到了良好的平衡,使语义地图在大规模环境下也能保证精度和鲁棒性,从而使数字孪生城市信息模型能够用于面积更大的城市;
5)本发明建立多层次的几何-语义地图,满足不同需求的城市信息模型使用。
附图说明
图1为本发明的系统框架图;
图2是为本发明进行语义分割和SLAM特征提取的深度神经网络结构图;
图3是本发明用作物体模型的超二次曲面示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
实施例
如图1所示,本实施例提供了一种面向城市信息模型的三维语义地图构建方法,该方法具体包括以下步骤:
步骤S1、训练高性能深度神经网络,从输入图像中同时提取语义分割信息与定位和稀疏几何建图所需特征;
如图2所示,本发明采用的深度神经网络是在HRNetV2网络基础上开发的。HRNetV2是一种高性能的语义分割网络,原本将网络的四种不同分辨率的输出中的低分辨率输出进行双线性上采样到高分辨率(即输入图像分辨率)输出的尺寸,并将这四种高分辨率输出经1x1卷积连接起来,经过一次卷积作为语义分割的类别概率输出。
本发明则将组合后的高分辨率输出分别输入三个卷积层,对应输出语义分割结果(包括单层的语义分割标签图和多层的类别概率分布图),关键点和对应的描述子。
训练集为Cityscapes数据集,该数据集有像素语义标签的真值。与Superpoint类似,本发明采用MagicPoint关键点检测器和对数据集进行关键点真值自标注;同时,使用自适应单应变换对数据集进行增强,其中,变换强度参数取HN=100,相应地,对语义分割真值图也要做同样的单应变换。
故最终使用的数据集包括:Cityscapes原始图像、经过随机单应变换的图像、语义分割真值和关键点真值。采用标准的交叉熵损失函数训练网络的语义分割分支;采用与Superpoint相同的损失函数训练网络的SLAM特征提取分支。
输出的语义分割结果包括:1层的语义分割标签图和19层的语义分割类别概率分布图,输出的SLAM特征包括关键点和相应的128维的描述子。
步骤S2、将步骤S1得到的语义分割信息以及SLAM特征输入至改进双目ORB-SLAM3框架,进行相机位姿估计,并持续增量更新稀疏点云语义地图,具体过程为:
本发明的改进双目ORB-SLAM3模型的架构为:在ORB-SLAM3模型结构基础上,将其中的特征提取器替换为所述步骤S1中的深度神经网络。
SLAM框架在ORB-SLAM3的基础上开发,输入双目图像及相机参数(包括相机内参矩阵和双目相机基线),左目图像输入深度神经网络,输出语义分割结果和SLAM所需特征,该特征替代了ORB特征输入ORB-SLAM3,输出每帧图像的相机位姿(左目相机6-DoF位姿轨迹),持续增量更新稀疏几何点云地图。
步骤S3、对步骤S2中生成的稀疏点云语义地图,结合步骤S1的语义分割信息进行空间-语义地图点聚类;
改造双目ORB-SLAM3输出的地图点具有三维坐标和语义标签,依据这两种属性对地图点进行聚类,将可能属于同一物体的地图点汇聚为簇(cluster)。
对于任意两个地图点mi,mj,聚类所需的距离度量为:
Figure BDA0003763222980000071
其中,η12为权重超参数,
Figure BDA0003763222980000072
是地图点mi,mj在世界坐标系下的三维坐标,
Figure BDA0003763222980000073
即度量两个地图点在空间中的欧式距离,
Figure BDA0003763222980000074
代表地图点mi,mj的语义类别标签的概率分布,KL(·||·)代表Kullback-Leibler散度,
Figure BDA0003763222980000075
即可以称为两个地图点的“语义距离”,具体计算方法为:
Figure BDA0003763222980000076
进一步地,由于稀疏三维地图点与关键帧上的图像特征点存在对应关系,故对地图点的语义-空间聚类同时也意味着对图像上的特征点进行聚类,再对相应的语义分割结果图作连通域分析,即可在图像上得到若干个对应空间中不同物体的语义掩模(mask)。
物体级语义地图的构建为一个新的线程。每个关键帧生成的稀疏几何地图点均是与图像上特征点对应的,由此为地图点分配相应的语义类别标签。通过OpenCV对该帧的语义分割结果图进行连通域分析,抛弃天空、路面等不可数或难以表征的物体类别,抛弃面积小于图像大小0.05%的连通域,剩余的连通域个数即为预设的聚类个数,每个连通域即为物体对应的语义掩模。然后对地图点进行空间-语义聚类,聚类方法选择OPTICS,距离度量中超参数取值为η1=1.0,η2=1.7。聚类得到对应一系列不同物体的地图点簇。
步骤S4、从空间-语义地图点聚类结果重建超二次曲面形式的物体模型;
对于步骤S3生成的每一个地图点簇,依据该帧的相机位姿,通过类PCA的方式初始化超二次曲面模型下的物体参数,随着地图点簇的增量更新与一系列观测到该物体图像及其相机位姿,对物体参数进行持续优化。超二次曲面示例如图3。
超二次曲面是对标准二次曲面(quadric)的扩展,增加了描述形状参数,可以表征更多不同形状的物体。超二次曲面表面上的一个点SQr=[rx,ry,rz]的基本参数表达式为:
Figure BDA0003763222980000077
其中,a=[ax,ay,az]T为三个维度上的尺寸参数,ε=[ε12]T为形状参数,-π/2≤η≤π/2,-π≤ω≤π为迭代变量。
超二次曲面的约束式表达为:
Figure BDA0003763222980000081
将物体坐标系下任意一点rq代入上式,若F(rq)=1,则该点位于超二次曲面表面;若F(ro)>1,则该点位于超二次曲面外部;若F(ro)<1,则该点位于超二次曲面内部。
三维空间内的超二次曲面还有世界坐标系下的位姿参数
Figure BDA0003763222980000082
同时也定义了一个从世界坐标系到物体坐标系的变换
Figure BDA0003763222980000083
故一个由超二次曲面表征的空间中物体,参数为
Figure BDA0003763222980000084
物体模型参数的计算优化过程具体为:
步骤S41、对初始地图点的聚类结果作主成分分析,以初始化物体模型各参数
Figure BDA0003763222980000085
对于聚类得到的每个地图点簇
Figure BDA0003763222980000086
进行点云去中心化后记为矩阵
Figure BDA0003763222980000087
然后以如下方法得出超二次曲面参数的初始值:
Figure BDA0003763222980000088
Figure BDA0003763222980000089
ε=[1,1]T
此外,对于物体位姿
Figure BDA00037632229800000810
的初始化,位置ξp初始值取物体对应的图像上语义掩模区域的中心点在世界坐标系下的位置,由ORB-SLAM3给出;姿态ξr取V转换为欧拉角的结果。这就完成了物体参数的初始化。
步骤S42、以最小化当前帧物体图像区域与地图中对应物体在当前帧的投影为目标,优化物体参数;
物体参数
Figure BDA00037632229800000811
的优化定义为:
Figure BDA00037632229800000812
ε.∈(0,2],a·∈[0.1,+∞)
其中,
Figure BDA00037632229800000813
为图像序列{Ii}i=1,...,N对应的相机位姿,sqi为图像Ii上对应物体q的语义掩模区域,函数RE(·)是将空间中的物体q重投影到相机位姿为
Figure BDA00037632229800000814
的图像Ii上,与sqi计算重投影误差;对ε,a的约束是为了保证物体形状是凸的,尺寸不过小,保证优化效果。
步骤S43、以最小化当前帧物体地图点与物体表面距离为目标,优化物体参数;
物体参数
Figure BDA0003763222980000091
的优化定义为:
Figure BDA0003763222980000092
其中,
Figure BDA0003763222980000093
为对应物体q的地图点簇,并转换到物体坐标系下,
Figure BDA0003763222980000094
为地图点
Figure BDA0003763222980000095
到物体q表面的距离度量,系数1+μax·ay·az是为了选择候选物体参数中尺寸最小的一组。
在步骤S4中,优化物体参数采取多阶段的方式,首先固定形状参数ε=1,优化其他参数;然后固定其他参数,优化形状参数ε;最后同时优化所有物体参数。优化过程具体为:优化中先以步骤S42的方法,考虑所有已知位姿的关键帧进行优化,其中函数RE的计算方法为:从超二次曲面表面随机采样100个点投影至图像上,通过OpenCV计算出其边界,再与该物体的语义掩模计算交并比,作为物体重投影误差;再以步骤S43的方式,考虑该物体对应的所有地图点进行优化,超参数取值μ=0.3。
步骤S5、结合物体重建与相机位姿构建物体级三维语义地图;
在步骤S4,在步骤S5,需要在实际运行之前,使用S1的深度神经网络,对KITTI视觉里程计数据集进行语义分割和特征提取,再用与ORB-SLAM3类似的DBoW库对语义分割可能输出的每个类别均计算特征字典。在算法运行中,借助这些词典,使用进行物体数据关联。对于当前帧聚类的每个地图点簇,能够包含聚类中心位置的所有物体均为候选关联物体,再用词袋模型在候选关联物体中筛选出最终的关联物体,更新该物体对应的地图点,并进行物体参数优化
步骤S6、从输入双目图像生成RGB-D图像,结合相机位姿和语义分割构建点云级三维语义地图;
稠密点云级语义地图的构建为一个新的线程。对于每个关键帧,通过LEAStereo算法进行双目立体匹配,从而得到RGB图对应的深度图,再结合语义分割标签图,即可得到该帧对应的稠密语义点云。每个关键帧的相机位姿由ORB-SLAM3计算得出,对各帧的稠密语义点云按位姿进行拼接,即可得到稠密点云级语义地图。地图点的类别标签按递归贝叶斯方式更新。
地图点mi的类别标签li为:
Figure BDA0003763222980000101
其中,
Figure BDA0003763222980000102
是当前帧下地图点mi的类别标签的概率分布,
Figure BDA0003763222980000103
是截至前一帧地图点mi的类别标签的概率分布,Z为归一化参数。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种面向城市信息模型的三维语义地图构建方法,其特征在于,该方法包括以下步骤:
步骤S1、设计和训练深度神经网络,同时提取输入图像中的语义分割信息和SLAM特征;
步骤S2、将步骤S1得到的语义分割信息以及SLAM特征输入至改进双目ORB-SLAM3框架,进行相机位姿估计,并持续增量更新稀疏点云语义地图;
步骤S3、对步骤S2中生成的稀疏点云语义地图,结合步骤S1的语义分割信息进行空间-语义地图点聚类;
步骤S4、根据空间-语义地图点聚类结果,重建超二次曲面物体形式的物体模型,并对物体模型持续增量优化;
步骤S5、基于重建的超二次曲面物体模型以及相机位姿估计,构建物体级三维语义地图;
步骤S6、基于双目立体匹配,获取RGB-D图像,结合相机位姿估计和语义分割信息,构建稠密点云级三维语义地图。
2.根据权利要求1所述的一种面向城市信息模型的三维语义地图构建方法,其特征在于,所述稀疏点云语义地图、物体级三维语义地图、稠密点云级三维语义地图的构建过程为三个并行进程。
3.根据权利要求1所述的一种面向城市信息模型的三维语义地图构建方法,其特征在于,所述步骤S1中的深度神经网络的架构具体为:在用于语义分割的HRNetV2网络的末端增设一网络分支,输出定位建图所需的关键点和描述子,形成一多分支网络,即语义分割分支和SLAM特征提取分支;
所述语义分割分支的训练采用交叉熵损失函数;所述SLAM特征分支的训练采用基于Superpoint的关键点真值构造方式和损失函数。
4.根据权利要求1所述的一种面向城市信息模型的三维语义地图构建方法,其特征在于,所述步骤S2中改进双目ORB-SLAM3框架,具体结构为:在ORB-SLAM3框架结构基础上,将其中的特征提取器替换为所述步骤S1中的深度神经网络。
5.根据权利要求1所述的一种面向城市信息模型的三维语义地图构建方法,其特征在于,所述步骤S3中空间-语义地图点聚类采用的距离度量由地图点空间距离和地图点间语义属性的概率分布差异组成,具体表达式:
Figure FDA0003763222970000021
式中,mi,mj是由ORB-SLAM3模型构建的稀疏地图点,
Figure FDA0003763222970000022
是地图点mi,mj在世界坐标系下的三维坐标,
Figure FDA0003763222970000023
代表地图点mi,mj的语义类别标签的概率分布,KL(·||·)代表Kullback-Leibler散度,η12为权重超参数。
6.根据权利要求1所述的一种面向城市信息模型的三维语义地图构建方法,其特征在于,所述步骤S4中超二次曲面形式的物体模型,具体表达式为:
超二次曲面的向量表现形式为:
Figure FDA0003763222970000024
式中,a=[ax,ay,az]T为三个维度上的尺寸参数,ε=[ε12]T为形状参数;-π/2≤η≤π/2,-π≤ω≤π为迭代变量;
超二次曲面的约束表达式为:
Figure FDA0003763222970000025
式中,a=[ax,ay,az]T为尺寸参数,ε=[ε12]T为形状参数;
所述超二次曲面物体模型的物体参数还包括位姿参数
Figure FDA0003763222970000026
7.根据权利要求1所述的一种面向城市信息模型的三维语义地图构建方法,其特征在于,所述步骤S4包括以下子步骤:
步骤S41、对初始地图点的聚类结果作主成分分析PCA,初始化超二次曲面形式下的物体参数
Figure FDA0003763222970000027
其中,a为三个维度上的尺寸参数,ε为形状参数;
Figure FDA0003763222970000028
为物体位姿;
步骤S42、以最小化当前帧物体图像区域与地图中对应物体在当前帧的投影为目标,优化物体参数;
步骤S43、以最小化当前帧物体地图点与物体表面距离为目标,优化物体参数。
8.根据权利要求7所述的一种面向城市信息模型的三维语义地图构建方法,其特征在于,所述步骤S41和步骤S42的优化过程均采用分阶段优化方式,具体为:首先固定尺寸参数优化其他参数,然后固定其他参数优化尺寸参数,最后联合优化所有物体参数。
9.根据权利要求1所述的一种面向城市信息模型的三维语义地图构建方法,其特征在于,所述步骤S5还包括:对语义分割输出的所有可能的物体类别均训练相应字典,基于词袋模型完成物体数据关联,包括以下子步骤:
1)依据聚类中心位置在已知地图里的物体中确定候选关联物体;
2)使用词袋匹配方法,根据该地图点簇所属物体类别的字典,完成当前帧地图点簇与已知地图中物体的关联;
3)在由地图点簇重建出物体后,完成物体数据关联。
10.根据权利要求1所述的一种面向城市信息模型的三维语义地图构建方法,其特征在于,所述步骤S6具体为:
1)对于每个关键帧,通过LEAStereo算法进行双目立体匹配,得到RGB图对应的深度图;
2)结合语义分割标签图,得到关键帧对应的稠密语义点云;对于地图点的类别标签采用递归贝叶斯算法进行更新;
3)对各关键帧的稠密语义点云按相机位姿估计进行拼接,得到稠密点云级语义地图;其中,每个关键帧的相机位姿由ORB-SLAM3模型计算得出。
CN202210884356.0A 2022-07-25 2022-07-25 一种面向城市信息模型的三维语义地图构建方法 Pending CN115272599A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210884356.0A CN115272599A (zh) 2022-07-25 2022-07-25 一种面向城市信息模型的三维语义地图构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210884356.0A CN115272599A (zh) 2022-07-25 2022-07-25 一种面向城市信息模型的三维语义地图构建方法

Publications (1)

Publication Number Publication Date
CN115272599A true CN115272599A (zh) 2022-11-01

Family

ID=83769245

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210884356.0A Pending CN115272599A (zh) 2022-07-25 2022-07-25 一种面向城市信息模型的三维语义地图构建方法

Country Status (1)

Country Link
CN (1) CN115272599A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116358573A (zh) * 2023-05-31 2023-06-30 小米汽车科技有限公司 地图建立方法、装置、存储介质以及车辆
CN117237559A (zh) * 2023-11-10 2023-12-15 陕西天润科技股份有限公司 面向数字孪生城市的三维模型数据智能分析方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116358573A (zh) * 2023-05-31 2023-06-30 小米汽车科技有限公司 地图建立方法、装置、存储介质以及车辆
CN116358573B (zh) * 2023-05-31 2023-08-29 小米汽车科技有限公司 地图建立方法、装置、存储介质以及车辆
CN117237559A (zh) * 2023-11-10 2023-12-15 陕西天润科技股份有限公司 面向数字孪生城市的三维模型数据智能分析方法及系统
CN117237559B (zh) * 2023-11-10 2024-02-27 陕西天润科技股份有限公司 面向数字孪生城市的三维模型数据智能分析方法及系统

Similar Documents

Publication Publication Date Title
Li et al. Deep learning for lidar point clouds in autonomous driving: A review
Zhang et al. A review of deep learning-based semantic segmentation for point cloud
Yin et al. Virtual normal: Enforcing geometric constraints for accurate and robust depth prediction
CN111627065B (zh) 一种视觉定位方法及装置、存储介质
CN110852182B (zh) 一种基于三维空间时序建模的深度视频人体行为识别方法
Hu et al. Structure‐aware 3D reconstruction for cable‐stayed bridges: A learning‐based method
Yuniarti et al. A review of deep learning techniques for 3D reconstruction of 2D images
CN115272599A (zh) 一种面向城市信息模型的三维语义地图构建方法
CN110992366A (zh) 一种图像语义分割方法、装置及存储介质
Yang et al. Visual SLAM based on semantic segmentation and geometric constraints for dynamic indoor environments
CN104463962B (zh) 基于gps信息视频的三维场景重建方法
CN117456136A (zh) 一种基于多模态视觉识别的数字孪生场景智能生成方法
CN116310098A (zh) 一种基于注意力机制与可变卷积深度网络的多视图三维重建方法
CN117115359B (zh) 一种基于深度图融合的多视图电网三维空间数据重建方法
Lei et al. Automatic identification of street trees with improved RandLA-Net and accurate calculation of shading area with density-based iterative α-shape
Zhang et al. Exploring semantic information extraction from different data forms in 3D point cloud semantic segmentation
Lyu et al. 3DOPFormer: 3D occupancy perception from multi-camera images with directional and distance enhancement
CN113487741B (zh) 稠密三维地图更新方法及装置
CN111414802B (zh) 蛋白质数据特征提取方法
An et al. PointTr: Low-Overlap Point Cloud Registration with Transformer
CN114187404A (zh) 一种用于近海域高分辨率的三维重建方法和系统
Wang et al. State of the art in dense image matching cost computation for high-resolution satellite stereo
Xiao et al. Multi-dimensional graph interactional network for progressive point cloud completion
Luo et al. End-to-End Edge-Guided Multi-Scale Matching Network for Optical Satellite Stereo Image Pairs
Zheng et al. An Efficient and Fast Image Mosaic Approach for Highway Panoramic UAV Images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination