CN112070054A - 基于图结构与注意力机制的车载激光点云标线分类方法 - Google Patents

基于图结构与注意力机制的车载激光点云标线分类方法 Download PDF

Info

Publication number
CN112070054A
CN112070054A CN202010980094.9A CN202010980094A CN112070054A CN 112070054 A CN112070054 A CN 112070054A CN 202010980094 A CN202010980094 A CN 202010980094A CN 112070054 A CN112070054 A CN 112070054A
Authority
CN
China
Prior art keywords
marking
node
graph structure
marked
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010980094.9A
Other languages
English (en)
Other versions
CN112070054B (zh
Inventor
方莉娜
王爽
赵志远
陈崇成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202010980094.9A priority Critical patent/CN112070054B/zh
Publication of CN112070054A publication Critical patent/CN112070054A/zh
Application granted granted Critical
Publication of CN112070054B publication Critical patent/CN112070054B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于图结构与注意力机制的车载激光点云标线分类方法,包括以下步骤:步骤A:基于强度校正进行标线分割,得到独立标线对象;步骤B:基于分割后的独立标线对象,利用EdgeConv进行特征提取与嵌入;步骤C:在设定邻域范围内进行标线间最短距离重采样,对每个标线构建重采样的标线图结构;步骤D:通过构建多头注意力机制,更新图结构节点特征;步骤E:将图结构和注意力机制嵌入深度神经网络,构建深度图模型GAT_SCNet,然后基于构建的深度图模型GAT_SCNet进行标线类别预测,输出独立标线的类别标签。该方法有利于提高车载激光点云标线分类的精度。

Description

基于图结构与注意力机制的车载激光点云标线分类方法
技术领域
本发明属于车载激光扫描点云数据处理领域,具体涉及一种基于图结构与注意力机制的车载激光点云标线分类方法。
背景技术
交通标线作为路面重要的特征标志,高精度的几何与语义信息如形状、位置、拓扑和结构关系信息的快速获取与更新对保障交通安全具有重要作用。车载激光扫描系统能够高效、精确地获取道路场景的三维空间信息和回波强度信息,为大范围道路标线的识别和更新提供一种新的数据源。由于交通标线类别多样,行人和车辆等大范围遮挡和干扰会影响了标线几何和纹理特征分布的连续性。如何从分割后的标线识别其类别,特别是相似标线的识别是标线分类难点问题。
目前,有学者通过联合标线形状特征、空间分布特征(方向、排列)、以及道路场景语义特征,利用决策树、SVM、模板匹配等分类器实现区分相似标线的,如根据相邻对象的平行关系将斑马线与虚线型标线进行精细区分或利用模板匹配精细区分不同箭头标志。这些方法在一些较为规则的道路场景中取得较好的标线分类效果,但特征选择和参数设置需要较强的先验知识,在复杂场景中自动化程度和鲁棒性较差。
近年来,利用深度学习理论,自动提取不同类型标线的高层次特征实现精细分类,也成为目前的发展趋势。如有学者采用深度玻尔兹曼机(Deep BoltzmannMachine model,DBM)、卷积神经网络(ConvolutionalNeural Networks,CNN)等深度模型实现标线分类。目前这些深度模型在预先分离实线型标线的基础上,对小尺寸标线分类取得一些突破性成果,但仍然需要人工定义语义规则区分形状相似标线,缺乏场景先验知识指导,降低了标线提取的完备性和可靠性。
专利号为CN111160328A,发明名称为“一种基于语义分割技术的交通标线自动提取的方法”的专利将深度学习语义分割DeepLabV3+网络应用于地面点云生成的图像,并结合图像模板匹配的方式实现交通标线的分类。该方法通过图像掩膜增强提高了标线提取的精度,但不能解决相似对象的精细分类问题。
专利号为CN110502973A,发明名称为“一种基于车载激光点云的道路标线自动化提取和识别方法”的专利基于积分图的自适应阈值分割算法提取道路标线点云,对提取的道路标线点云进行欧式聚类,根据聚类获得的点云聚落的宏观特征实现对道路标线的识别。但该方法也仅适用于区分实线型和虚线型标线,难以做到全类型标线精细分类。
专利号为CN104197897A,发明名称为“一种基于车载激光扫描点云的城区道路标线自动分类方法”的专利针对不同道路标线采用不同语义特征描述,结合形状特征、标线与轨迹线或路坎的相对位置实现大尺寸标线分类,通过标线二值图像对应的向量构建形状描述子,采用DBM进行小目标识别。该方法对不同类型的标线构建不同的分类模型,未形成适用于多类别标线的统一特征描述子。
专利号为CN106503678A,发明名称为“基于移动激光扫描点云的道路标线自动检测和分类方法”的专利针对多种道路标线类别,利用近似宽度、最小包围矩形的长度和宽度、以及与轨迹线的夹角构建决策树,实现道路标线的分类。该方法依赖标线形状特征较好识别菱形、多向转向箭头等具有显著形状差异的标线,对于虚线、斑马线等形状相似标线的识别精度较低,同时构建的单一空间方位关系依赖辅助数据。
发明内容
本发明的目的在于提供一种基于图结构与注意力机制的车载激光点云标线分类方法,该方法有利于提高车载激光点云标线分类的精度。
为实现上述目的,本发明采用的技术方案是:一种基于图结构与注意力机制的车载激光点云标线分类方法,包括以下步骤:
步骤A:基于强度校正进行标线分割,得到独立标线对象;
步骤B:基于分割后的独立标线对象,利用EdgeConv进行特征提取与嵌入;
步骤C:在设定邻域范围内进行标线间最短距离重采样,对每个标线构建重采样的标线图结构;
步骤D:通过构建多头注意力机制,更新图结构节点特征;
步骤E:将图结构和注意力机制嵌入深度神经网络,构建深度图模型GAT_SCNet(Graph attention network with spatial context information),然后基于构建的深度图模型GAT_SCNet进行标线类别预测,输出独立标线的类别标签。
进一步地,所述步骤A具体包括以下步骤:
步骤A1:基于强度增强后的路面点云数据,采用K均值聚类从路面点云中提取标线点云;
步骤A2:基于步骤A1的点云分割结果,通过连通分支聚类获得独立的标线对象。
进一步地,所述步骤B具体包括以下步骤:
步骤B1:逐点构建独立标线对象内部点的k近邻有向图结构G=(V,E),其中顶点V={xp,y1,...,yq},q∈k,由点xp与距离其最邻近的k个点构成,边E定义为E={ep1,ep2,...,epq};
步骤B2:对图G的边特征E采用EdgeConv模块提取与更新中心点xp的特征;
步骤B3:堆叠两个EdgeConv模块,提取标线点更大视野域中的特征,将聚合特征通过多层感知机提取全局特征,作为独立标线的全局特征g;
步骤B4:提取标线的重心点位置pos,与全局特征g进行拼接,然后作为标线的初始特征嵌入深度图模型GAT_SCNet中,作为其节点特征x;
x=[pos||g]
式中,||表示向量拼接。
进一步地,所述步骤C具体包括以下步骤:
步骤C1:以中心标线对象重心点为邻域原点,划定半径为r的邻域范围,只要邻域标线对象有点落入该范围内,则将该邻域标线对象包含在
Figure BDA0002687215820000031
邻居标线集中;
步骤C2:基于步骤C1的邻居标线集
Figure BDA0002687215820000032
在该集合内逐对象遍历与中心对象的最短距离,重采样中心标线υi的K个近邻标线
Figure BDA0002687215820000033
建立标线i重采样的图结构
Figure BDA0002687215820000034
Figure BDA0002687215820000035
其中
Figure BDA0002687215820000036
为图的节点,
Figure BDA0002687215820000037
为中心υi与邻居节点uj之间的边,υi为中心节点,uj为其邻域
Figure BDA0002687215820000038
中重采样邻居节点,x为节点特征。
进一步地,所述步骤D具体包括以下步骤:
步骤D1:定义节点自注意力特征FNod为:
Figure BDA0002687215820000039
式中,αij为邻居节点注意力系数,g′j为邻居节点全局特征gj进行编码映射的更高层次特征,f(·)为非线性聚合函数;
步骤D2:考虑标线自身的信息和与邻居标线的联结强度关系,采用自注意力和领域注意力来计算中心节点υi和边缘特征∈ij形成的邻接节点纹理特征FGap,定义为:
Figure BDA0002687215820000041
式中,βij为纹理注意力系数,∈′ij为边缘特征∈ij进行编码映射的更高层次特征,边缘特征∈ij=gi-gj定义为节点间全局特征之间的差异,f(·)为非线性聚合函数;
步骤D3:道路标线具有规范的邻域空间分布特性,为获取标线之间空间分布关系,在步骤C标线图结构的基础上,将邻居标线与中心标线间的空间几何结构按照正交基
Figure BDA0002687215820000042
方向分解,根据节点向量与基向量之间的几何关系,形成空间语义注意力特征FCon,定义为:
Figure BDA0002687215820000043
式中,dij为中心节点与邻居节点之间的距离权重,ξij为邻居节点的节点语义特征:
Figure BDA0002687215820000044
式中,
Figure BDA0002687215820000045
为节点向量进行正交基分解相对应的夹角,
Figure BDA0002687215820000046
为正交分解特征变换矩阵;
步骤D4:采用多头注意力机制,将三种注意力特征与中心点vi进行特征拼接,并经过特征更新函数ζ(·)得到输出特征hv,进行整个图神经网络的节点特征更新,将更新后的节点特征作为下一次循环的输入:
Figure BDA0002687215820000047
式中,
Figure BDA0002687215820000048
为第l-1层中心节点特征,
Figure BDA0002687215820000049
为第l层中心节点新特征。
进一步地,所述步骤E具体包括以下步骤:
步骤E1:在图深度模型GAT_SCNet的目标损失函数Loss引入中值频率平衡策略来加权每个类的损失,对标线分类中不同样本数量的类别分别赋予不同的权重:
Figure BDA00026872158200000410
式中,N是min-batch中的标线个数,C是所有类别集合,
Figure BDA00026872158200000411
是类c中的第n个标线的Softmax层输出,
Figure BDA00026872158200000412
是其one-hot编码的对应标签,wc是c类的损失加权:
Figure BDA0002687215820000051
式中,Nc为总样本N中的某一标线类c的数量;
步骤E2:深度图模型GAT_SCNet以道路场景中所有独立标线作为网络数据,每个独立标线包含n个点,基于步骤B、C、D聚合周围标线特征形成中心节点特征hv的基础上,利用多层感知机和Softmax层组成的分类器对更新后节点特征hv进行标线类别预测,最终输出为独立标线的类别标签c。
相较于现有技术,本发明具有以下有益效果:本发明打破了传统方法对车载激光点云交通标线精细分类需预先分离实线型标线,并对形状相似标线的识别需人工定义语义规则的局限,直接面向车载激光点云分割后的独立标线对象,根据独立对象与其周围标线的拓扑和语义位置关系,利用重采样的标线图结构描述这种固定结构和模式,将标线的精细分类问题转化为图结构中节点分类学习问题,通过融合多种注意力机制建立图结构中节点和边的聚合和更新机制,将图结构和注意力机制嵌入到深度神经网络,动态、自适应学习图结构以适应不同标线结构,实现车载激光点云中全类型标线的高精度分类。因此,本发明具有很强的实用性和广阔的应用前景。
附图说明
图1是本发明实施例的方法实现流程图。
图2是本发明实施例中基于EdgeConv的节点特征提取示意图。
图3是本发明实施例中重采样标线图结构示意图。
图4是本发明实施例中节点注意力特征模块示意图。
图5是本发明实施例中纹理注意力系数生成示意图。
图6是本发明实施例中基于空间方向的边特征分解示意图。
图7是本发明实施例中深度图模型GAT_SCNet示意图。
图8是本发明实施例中典型场景标线精细分类结果示意图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步的详细说明。
本发明提供了一种基于图结构与注意力机制的车载激光点云标线分类方法,通过基于固定邻域范围内标线间最短距离重采样的标线图结构来抽象表示标线间的几何、拓扑、语义关系,将标线精细分类问题转化为图结构中节点分类学习问题,融合多种注意力机制建立图结构中节点和边的聚合和更新机制,将图结构和注意力机制嵌入到深度神经网络,动态、自适应学习图结构以适应不同标线结构,实现车载激光点云中全类型标线的高精度分类。
请参阅图1,本发明基于图结构与注意力机制的车载激光点云标线分类方法,具体包括以下步骤:
步骤A:基于强度校正进行标线分割,得到独立标线对象。具体包括以下步骤:
步骤A1:基于强度增强后的路面点云数据,采用K均值聚类从路面点云中提取标线点云。基于最近邻准则和强度相似性将点云划分到与其强度差值最小的聚类中心作为该点对应的类别,将路面点云分割成标线点云和非标线点云两类。
步骤A2:基于步骤A1点云K均值聚类结果,本发明通过连通分支聚类获得独立的标线对象,作为本发明的研究对象。
步骤B:基于分割后的独立标线对象,利用EdgeConv进行特征提取与嵌入。具体包括以下步骤:
步骤B1:对于每个独立标线,假设其包含n个点
Figure BDA0002687215820000061
F为离散点坐标(x,y,z)。逐点xp构建独立标线对象内部点的基于k近邻(Knn)的有向图结构G=(V,E),如图2Graph Knn模块所示,其中顶点V={xp,y1,...,yq},q∈k,由点xp与距离其最邻近的k个点构成,边E定义为E={ep1,ep2,...,epq}:
epq=γ((xp,yq-xp),Θ)
式中,epq为点云间的边缘特征,γ(·)为共享边缘函数,Θ为其参数,选用激活函数为ReLU的感知机进行函数学习,邻近点个数k设置为10。
步骤B2:对于Knn图结构G的边特征E,EdgeConv模块采用对称聚合函数ReLU融合点云全局信息特征与局部几何特征,并用最大池化max函数进行边特征聚合来更新中心点xp的特征。
Figure BDA0002687215820000062
步骤B3:为了提取更为全局的特征,如图2所示,本发明堆叠两个EdgeConv模块,提取标线点更大视野域中的特征,然后将聚合特征通过多层感知机提取其1024维全局特征作为独立标线全局特征g:
Figure BDA0002687215820000071
式中,
Figure BDA0002687215820000072
为第一个EdgeConv模块提取的特征,
Figure BDA0002687215820000073
为第二个EdgeConv模块提取的特征。
步骤B4:同时本发明提取标线的重心点位置pos,与全局特征进行拼接作为标线的初始特征嵌入深度图模型GAT_SCNet中作为其节点特征x:
Figure BDA0002687215820000074
式中,||表示向量拼接。
步骤C:在设定邻域范围内进行标线间最短距离重采样,对每个标线构建重采样的标线图结构。具体包括以下步骤:
步骤C1:对每个独立标线,一般选择其K近邻标线作为邻居节点建立Knn图结构,若以标线间重心点距离进行Knn搜索时,一些更利于中心标线识别的邻居标线由于重心点间距离较大而被忽略。如图3(a),对于中心停止线,本发明以其重心点为邻域原点,划定半径为r的邻域范围,只要邻域标线对象有点落入该范围内,该邻域对象则包含在
Figure BDA0002687215820000075
邻居标线集中的规定,与停止线重心距离较远但具有邻接关系的实线型标线得以保留。
步骤C2:基于步骤C1的邻居标线集
Figure BDA0002687215820000076
在该集合内逐对象遍历与中心对象的最短距离,根据最短距离本发明重采样与中心标线υi最近邻的K个近邻标线
Figure BDA0002687215820000077
(如图3(b)),在这里K设置为8。
步骤C3:基于步骤C2的重采样邻域标线,建立标线υi重采样的图结构
Figure BDA0002687215820000078
其中
Figure BDA0002687215820000079
为图的节点,
Figure BDA00026872158200000710
为中心υi与邻居节点uj之间的边,υi为中心节点,uj为其邻域
Figure BDA00026872158200000711
中重采样邻居节点,x为节点特征(如图3(c))。
步骤D:通过构建多头注意力机制,更新图结构节点特征。具体包括以下步骤:
步骤D1:在重采样标线图结构中,与中心节点具有相似全局特征的邻居节点更利于节点的识别,因此本发明首先提取节点自注意力特征FNod(如图4)。该步骤具体通过以下分步骤实现:
步骤D1-1:首先本发明将节点全局特征g进行编码映射为更高层次特征g′。
g′=h(g,θ)
式中,h(·)为非线性参数函数,选用激活函数为ReLU单层感知机MLP{128}进行函数学习,θ为网络参数。
步骤D1-2:然后选用激活函数为LeakyReLU的单层感知机MLP{1}学习邻居节点uj对中心节点υi的注意力分数δij
δij=LeakyReLU(aT[g′i||g′j])
式中,g′i和g′j为节点υi,uj高层次特征,aT为一个可训练的节点级的注意力向量,||表示向量拼接。
步骤D1-3:之后使用遮罩注意力(MaskedAttention)机制将节点间结构信息注入图结构中,使用softmax函数计算归一化的节点注意力系数αij
Figure BDA0002687215820000081
步骤D1-4:基于步骤D1-3的邻居节点注意力系数αij,本发明对邻居节点特征加权聚合作为中心节点的节点注意力特征FNod
Figure BDA0002687215820000082
式中,f(·)为非线性聚合函数。
步骤D2:考虑标线自身的信息和与邻居标线的联结强度关系,本发明采用自注意力和领域注意力来计算中心节点υi和边缘特征∈ij形成的邻接节点纹理特征,作为标线子图结构纹理注意力特征FGap(如图5)。该步骤具体通过以下分步骤实现:
步骤D2-1:首先本发明定义边缘特征∈ij为节点间全局特征之间的差异,并利用步骤D1-1中共享参数θ的MLP层将边缘特征∈ij映射为更高层次特征∈′ij
∈′ij=h(∈ij,θ)=h((gi-gj),θ)
步骤D2-2:然后融合中心节点自注意力和边缘特征∈′ij构成的领域注意力计算不同邻接节点的纹理注意力得分,用softmax函数归一化后作为纹理注意力系数βij
Figure BDA0002687215820000091
步骤D2-3:基于步骤D2-2所得纹理注意力系数βij,本发明加权聚合边缘特征作为中心节点纹理注意力特征FGap
Figure BDA0002687215820000092
式中,f(·)采用与步骤D1-4相同非线性聚合函数。
步骤D3:道路标线具有规范的邻域空间分布特性(如排列、方向、距离),为获取标线之间空间分布关系,在步骤B2构建的标线图结构的基础上,构建以中心标线的重心点为原点,主方向为X方向,法方向为Y方向局部坐标体系,将邻居标线与中心标线间的空间几何结构分解到此坐标系两个正交基
Figure BDA0002687215820000093
方向上,根据节点向量与基向量之间的几何关系聚合节点特征形成空间语义注意力特征FCon。该步骤具体通过以下分步骤实现:
步骤D3-1:首先,本发明依据正交基
Figure BDA0002687215820000094
的正负方向定义了4个子正交基B,依据邻居节点所处象限位置,将节点向量
Figure BDA0002687215820000095
分解到相应正交基方向
Figure BDA0002687215820000096
上,并计算两者方向夹角
Figure BDA0002687215820000097
(如图6(b)):
Figure BDA0002687215820000098
式中,节点向量
Figure BDA0002687215820000099
为中心标线重心点指向邻居标线重心点向量:
Figure BDA00026872158200000910
步骤D3-2:然后以步骤D3-1所求夹角作为方向相关的权重聚合每个正交基方向上的邻居节点边缘特征∈′ij形成当前邻居节点的节点语义特征ξij(如图6(c)):
Figure BDA00026872158200000911
式中,
Figure BDA00026872158200000912
为将边缘∈′ij特征按夹角
Figure BDA00026872158200000913
分解到两个正交坐标基上转换矩阵,通过MLP学习。
步骤D3-3:最后本发明根据标线间距离对步骤D3-2提取的节点语义特征ξij加权聚合,从而得到中心节点υi的空间语义注意力特征FCon
Figure BDA0002687215820000101
式中,dij为中心节点与邻居节点之间的距离权重:
dij=(r-||posi-posj||2)
步骤D4:对每个标线节点计算节点注意力特征、纹理注意力特征和语义注意力特征后,本发明采用多头注意力机制,将三种注意力特征与中心点vi进行特征拼接,并经过特征更新函数ζ(·)得到输出特征hv进行整个图神经网络的节点特征更新,将更新后的节点特征作为下一次循环的输入:
Figure BDA0002687215820000102
式中,
Figure BDA0002687215820000103
为第l-1层中心节点特征,
Figure BDA0002687215820000104
为第l层中心节点新特征,函数ζ(·)采用激活函数为ReLU的单层感知机MLP{512}进行函数学习。
步骤E:将图结构和注意力机制嵌入深度神经网络,构建深度图模型GAT_SCNet,然后基于构建的深度图模型GAT_SCNet进行标线类别预测,输出独立标线的类别标签。具体包括以下步骤:
步骤E1:在城市道路场景的中,虚线、斑马线数量占较大比例,而箭头、文字标志等数量较少。采用标准的交叉熵损失函数来训练标线分类模型GAT_SCNet,容易导致严重的类别不平衡问题,数量较少标线(箭头、文字标志)的损失将无法精确计算。为了克服类别数量差异较大对标线分类精度的影响,在图深度模型GAT_SCNet的目标损失函数Loss引入中值频率平衡策略来加权每个类的损失,对标线分类中不同样本数量的类别分别赋予不同的权重:
Figure BDA0002687215820000105
式中,N是min-batch中的标线个数,C是所有类别集合,
Figure BDA0002687215820000106
是类c中的第n个标线的Softmax层输出,
Figure BDA0002687215820000107
是其one-hot编码的对应标签,wc是c类的损失加权:
Figure BDA0002687215820000108
式中,Nc为总样本N中的某一标线类c的数量。
步骤E2:本发明以DGCNN网络为骨架网络,在聚合周围标线特征形成中心节点特征hv的基础上,利用多层感知机(MLP{512,256})和Softmax层组成的分类器对更新后节点特征hv进行标线类别预测,网络结构如图7。深度图模型GAT_SCNet的输入为道路场景中所有独立标线,其中N为道路场景中分割后独立标线个数,n为每个独立标线包含点云个数,输出为独立标线的类别标签c。
如图8典型场景标线分类精细结果所示,本发明构建的深度图模型GAT_SCNet能够准确识别绝大多数道路标线,不仅能够有效区分形状差异较大的菱形、箭头、符号,同时对形状相似度高的虚线型标线、斑马线、停止线、实线段能够进行精细分类,能较好的克服大尺度实线型标线对小尺度标线影响,具有较强鲁棒性。对于因磨损、遮挡导致缺失的标线或因过分割导致同一目标存在多个部分的箭头标线,深度图模型GAT_SCNet能够准确的将这些缺失标线分类,能够克服原始数据质量及分割结果对标线形状、结构的影响。
本发明方法直接面向三维激光点云对象通过构建一个适用于全尺寸标线分类的统一深度学习框架,克服实线型标线对非实线型标线分类的影响,实现全类型标线精细分类;同时将标线间几何和依存关系利用重采样标线图结构进行统一描述,提高形状相似标线的分类精度,解决复杂道路环境中因残缺、磨损、遮挡等导致的结构缺失标线的识别问题,为车载激光点云交通标线精细分类提取提供了一种新的研究方法。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (6)

1.一种基于图结构与注意力机制的车载激光点云标线分类方法,其特征在于,包括以下步骤:
步骤A:基于强度校正进行标线分割,得到独立标线对象;
步骤B:基于分割后的独立标线对象,利用EdgeConv进行特征提取与嵌入;
步骤C:在设定邻域范围内进行标线间最短距离重采样,对每个标线构建重采样的标线图结构;
步骤D:通过构建多头注意力机制,更新图结构节点特征;
步骤E:将图结构和注意力机制嵌入深度神经网络,构建深度图模型GAT_SCNet,然后基于构建的深度图模型GAT_SCNet进行标线类别预测,输出独立标线的类别标签。
2.根据权利要求1所述的一种基于图结构与注意力机制的车载激光点云标线分类方法,其特征在于,所述步骤A具体包括以下步骤:
步骤A1:基于强度增强后的路面点云数据,采用K均值聚类从路面点云中提取标线点云;
步骤A2:基于步骤A1的点云分割结果,通过连通分支聚类获得独立的标线对象。
3.根据权利要求2所述的一种基于图结构与注意力机制的车载激光点云标线分类方法,其特征在于,所述步骤B具体包括以下步骤:
步骤B1:逐点构建独立标线对象内部点的k近邻有向图结构G=(V,E),其中顶点V={xp,y1,…,yq},q∈k,由点xp与距离其最邻近的k个点构成,边E定义为E={ep1,ep2,…,epq};
步骤B2:对图G的边特征E采用EdgeConv模块提取与更新中心点xp的特征;
步骤B3:堆叠两个EdgeConv模块,提取标线点更大视野域中的特征,将聚合特征通过多层感知机提取全局特征,作为独立标线的全局特征g;
步骤B4:提取标线的重心点位置pos,与全局特征g进行拼接,然后作为标线的初始特征嵌入深度图模型GAT_SCNet中,作为其节点特征x;
x=[pos||g]
式中,||表示向量拼接。
4.根据权利要求3所述的一种基于图结构与注意力机制的车载激光点云标线分类方法,其特征在于,所述步骤C具体包括以下步骤:
步骤C1:以中心标线对象重心点为邻域原点,划定半径为r的邻域范围,只要邻域标线对象有点落入该范围内,则将该邻域标线对象包含在
Figure FDA0002687215810000021
邻居标线集中;
步骤C2:基于步骤C1的邻居标线集
Figure FDA0002687215810000022
在该集合内逐对象遍历与中心对象的最短距离,重采样中心标线υi的K个近邻标线
Figure FDA0002687215810000023
建立标线i重采样的图结构
Figure FDA0002687215810000024
Figure FDA0002687215810000025
其中
Figure FDA0002687215810000026
为图的节点,
Figure FDA0002687215810000027
为中心υi与邻居节点uj之间的边,υi为中心节点,uj为其邻域
Figure FDA0002687215810000028
中重采样邻居节点,x为节点特征。
5.根据权利要求4所述的一种基于图结构与注意力机制的车载激光点云标线分类方法,其特征在于,所述步骤D具体包括以下步骤:
步骤D1:定义节点自注意力特征FNod为:
Figure FDA0002687215810000029
式中,αij为邻居节点注意力系数,g′j为邻居节点全局特征gj进行编码映射的更高层次特征,f(·)为非线性聚合函数;
步骤D2:考虑标线自身的信息和与邻居标线的联结强度关系,采用自注意力和领域注意力来计算中心节点υi和边缘特征∈ij形成的邻接节点纹理特征FGap,定义为:
Figure FDA00026872158100000210
式中,βij为纹理注意力系数,∈′ij为边缘特征∈ij进行编码映射的更高层次特征,边缘特征∈ij=gi-gj定义为节点间全局特征之间的差异,f(·)为非线性聚合函数;
步骤D3:道路标线具有规范的邻域空间分布特性,为获取标线之间空间分布关系,在步骤C标线图结构的基础上,将邻居标线与中心标线间的空间几何结构按照正交基
Figure FDA00026872158100000211
方向分解,根据节点向量与基向量之间的几何关系,形成空间语义注意力特征FCon,定义为:
Figure FDA00026872158100000212
式中,dij为中心节点与邻居节点之间的距离权重,ξij为邻居节点的节点语义特征:
Figure FDA0002687215810000031
式中,
Figure FDA0002687215810000032
为节点向量进行正交基分解相对应的夹角,
Figure FDA0002687215810000033
为正交分解特征变换矩阵;
步骤D4:采用多头注意力机制,将三种注意力特征与中心点vi进行特征拼接,并经过特征更新函数ζ(·)得到输出特征hv,进行整个图神经网络的节点特征更新,将更新后的节点特征作为下一次循环的输入:
Figure FDA0002687215810000034
式中,
Figure FDA0002687215810000035
为第l-1层中心节点特征,
Figure FDA0002687215810000036
为第l层中心节点新特征。
6.根据权利要求5所述的一种基于图结构与注意力机制的车载激光点云标线分类方法,其特征在于,所述步骤E具体包括以下步骤:
步骤E1:在图深度模型GAT_SCNet的目标损失函数Loss引入中值频率平衡策略来加权每个类的损失,对标线分类中不同样本数量的类别分别赋予不同的权重:
Figure FDA0002687215810000037
式中,N是min-batch中的标线个数,C是所有类别集合,
Figure FDA0002687215810000038
是类c中的第n个标线的Softmax层输出,
Figure FDA0002687215810000039
是其one-hot编码的对应标签,wc是c类的损失加权:
Figure FDA00026872158100000310
式中,Nc为总样本N中的某一标线类c的数量;
步骤E2:深度图模型GAT_SCNet以道路场景中所有独立标线作为网络数据,每个独立标线包含n个点,基于步骤B、C、D聚合周围标线特征形成中心节点特征hv的基础上,利用多层感知机和Softmax层组成的分类器对更新后节点特征hv进行标线类别预测,最终输出为独立标线的类别标签c。
CN202010980094.9A 2020-09-17 2020-09-17 基于图结构与注意力机制的车载激光点云标线分类方法 Active CN112070054B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010980094.9A CN112070054B (zh) 2020-09-17 2020-09-17 基于图结构与注意力机制的车载激光点云标线分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010980094.9A CN112070054B (zh) 2020-09-17 2020-09-17 基于图结构与注意力机制的车载激光点云标线分类方法

Publications (2)

Publication Number Publication Date
CN112070054A true CN112070054A (zh) 2020-12-11
CN112070054B CN112070054B (zh) 2022-07-29

Family

ID=73681672

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010980094.9A Active CN112070054B (zh) 2020-09-17 2020-09-17 基于图结构与注意力机制的车载激光点云标线分类方法

Country Status (1)

Country Link
CN (1) CN112070054B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112465844A (zh) * 2020-12-29 2021-03-09 华北电力大学 一种用于图像语义分割的多类别损失函数及其设计方法
CN112508112A (zh) * 2020-12-12 2021-03-16 武汉中海庭数据技术有限公司 基于停止线相对位置的斑马线融合方法及系统
CN112633376A (zh) * 2020-12-24 2021-04-09 南京信息工程大学 基于深度学习的点云数据地物分类方法、系统与存储介质
CN112766376A (zh) * 2021-01-20 2021-05-07 重庆邮电大学 一种基于gacnn的多标签眼底图像识别方法
CN112785526A (zh) * 2021-01-28 2021-05-11 南京大学 一种用于图形处理的三维点云修复方法
CN112800942A (zh) * 2021-01-26 2021-05-14 泉州装备制造研究所 一种基于自校准卷积网络的行人检测方法
CN112819080A (zh) * 2021-02-05 2021-05-18 四川大学 一种高精度通用的三维点云识别方法
CN113033669A (zh) * 2021-03-29 2021-06-25 东北大学 一种基于可学习的特征图过滤与图注意力网络的视觉场景识别方法
CN113344997A (zh) * 2021-06-11 2021-09-03 山西方天圣华数字科技有限公司 快速获取只含有目标对象的高清前景图的方法及系统
CN113449736A (zh) * 2021-01-14 2021-09-28 浙江工业大学 一种基于深度学习的摄影测量点云语义分割方法
CN115546768A (zh) * 2022-12-01 2022-12-30 四川蜀道新能源科技发展有限公司 基于多尺度机制和注意力机制的路面标线识别方法及系统
CN117763485A (zh) * 2024-02-22 2024-03-26 福建理工大学 一种基于谱图分解的社交网络异常检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104197897A (zh) * 2014-04-25 2014-12-10 厦门大学 一种基于车载激光扫描点云的城区道路标线自动分类方法
CN107679458A (zh) * 2017-09-07 2018-02-09 中国地质大学(武汉) 一种基于K‑Means的道路彩色激光点云中道路标线的提取方法
CN110502973A (zh) * 2019-07-05 2019-11-26 同济大学 一种基于车载激光点云的道路标线自动化提取和识别方法
US10650278B1 (en) * 2017-07-21 2020-05-12 Apple Inc. Semantic labeling of point clouds using images
CN111160328A (zh) * 2020-04-03 2020-05-15 速度时空信息科技股份有限公司 一种基于语义分割技术的交通标线自动提取的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104197897A (zh) * 2014-04-25 2014-12-10 厦门大学 一种基于车载激光扫描点云的城区道路标线自动分类方法
US10650278B1 (en) * 2017-07-21 2020-05-12 Apple Inc. Semantic labeling of point clouds using images
CN107679458A (zh) * 2017-09-07 2018-02-09 中国地质大学(武汉) 一种基于K‑Means的道路彩色激光点云中道路标线的提取方法
CN110502973A (zh) * 2019-07-05 2019-11-26 同济大学 一种基于车载激光点云的道路标线自动化提取和识别方法
CN111160328A (zh) * 2020-04-03 2020-05-15 速度时空信息科技股份有限公司 一种基于语义分割技术的交通标线自动提取的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LEI WANG ET AL.: "Graph Attention Convolution for Point Cloud Semantic Segmentation", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
方莉娜 等: "车载激光扫描数据中实线型交通标线提取", 《测绘学报》 *
方莉娜 等: "车载激光点云中交通标线自动分类与矢量化", 《测绘学报》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112508112A (zh) * 2020-12-12 2021-03-16 武汉中海庭数据技术有限公司 基于停止线相对位置的斑马线融合方法及系统
CN112633376A (zh) * 2020-12-24 2021-04-09 南京信息工程大学 基于深度学习的点云数据地物分类方法、系统与存储介质
CN112465844A (zh) * 2020-12-29 2021-03-09 华北电力大学 一种用于图像语义分割的多类别损失函数及其设计方法
CN113449736A (zh) * 2021-01-14 2021-09-28 浙江工业大学 一种基于深度学习的摄影测量点云语义分割方法
CN113449736B (zh) * 2021-01-14 2022-09-23 浙江工业大学 一种基于深度学习的摄影测量点云语义分割方法
CN112766376A (zh) * 2021-01-20 2021-05-07 重庆邮电大学 一种基于gacnn的多标签眼底图像识别方法
CN112800942B (zh) * 2021-01-26 2024-02-13 泉州装备制造研究所 一种基于自校准卷积网络的行人检测方法
CN112800942A (zh) * 2021-01-26 2021-05-14 泉州装备制造研究所 一种基于自校准卷积网络的行人检测方法
CN112785526B (zh) * 2021-01-28 2023-12-05 南京大学 一种用于图形处理的三维点云修复方法
CN112785526A (zh) * 2021-01-28 2021-05-11 南京大学 一种用于图形处理的三维点云修复方法
CN112819080A (zh) * 2021-02-05 2021-05-18 四川大学 一种高精度通用的三维点云识别方法
CN113033669A (zh) * 2021-03-29 2021-06-25 东北大学 一种基于可学习的特征图过滤与图注意力网络的视觉场景识别方法
CN113033669B (zh) * 2021-03-29 2024-05-14 东北大学 一种基于可学习的特征图过滤与图注意力网络的视觉场景识别方法
CN113344997A (zh) * 2021-06-11 2021-09-03 山西方天圣华数字科技有限公司 快速获取只含有目标对象的高清前景图的方法及系统
CN115546768A (zh) * 2022-12-01 2022-12-30 四川蜀道新能源科技发展有限公司 基于多尺度机制和注意力机制的路面标线识别方法及系统
CN117763485A (zh) * 2024-02-22 2024-03-26 福建理工大学 一种基于谱图分解的社交网络异常检测方法

Also Published As

Publication number Publication date
CN112070054B (zh) 2022-07-29

Similar Documents

Publication Publication Date Title
CN112070054B (zh) 基于图结构与注意力机制的车载激光点云标线分类方法
WO2021022970A1 (zh) 一种基于多层随机森林的零部件识别方法及系统
Varghese et al. Power infrastructure monitoring and damage detection using drone captured images
CN104915636B (zh) 基于多级框架显著性特征的遥感影像道路识别方法
CN111310773B (zh) 一种高效的卷积神经网络的车牌定位方法
CN112257637B (zh) 一种融合点云和多视图的车载激光点云多目标识别方法
CN106845487A (zh) 一种端到端的车牌识别方法
CN110210415B (zh) 基于图结构的车载激光点云道路标线识别方法
CN110096981A (zh) 一种基于深度学习的视频大数据交通场景分析方法
CN109993803A (zh) 城市色调的智能分析与评价方法
Fleyeh Traffic and road sign recognition
CN111259796A (zh) 一种基于图像几何特征的车道线检测方法
CN112990282A (zh) 一种细粒度小样本图像的分类方法及装置
CN115482380A (zh) 一种基于深度学习的多等级公路三维点云目标分割方法
Li et al. Semantic segmentation of urban street scene based on convolutional neural network
Bastani et al. Inferring and improving street maps with data-driven automation
CN116486238B (zh) 联合点集表示与图分类的目标细粒度识别方法
Luo et al. Traffic sign detection and recognition for intelligent transportation systems: A survey
Cheng et al. A novel approach for license plate slant correction, character segmentation and Chinese character recognition
Han et al. Segmentation Is Not the End of Road Extraction: An All-Visible Denoising Autoencoder for Connected and Smooth Road Reconstruction
Joshi et al. Automatic rooftop detection using a two-stage classification
Zhao et al. Weather classification based on convolutional neural networks
Moussa et al. Manmade objects classification from satellite/aerial imagery using neural networks
Hou et al. Forest: A lightweight semantic image descriptor for robust visual place recognition
Ma et al. Unsupervised semantic segmentation of high-resolution UAV imagery for road scene parsing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant