CN114638964A - 基于深度学习的跨域三维点云分割方法、存储介质 - Google Patents

基于深度学习的跨域三维点云分割方法、存储介质 Download PDF

Info

Publication number
CN114638964A
CN114638964A CN202210216065.4A CN202210216065A CN114638964A CN 114638964 A CN114638964 A CN 114638964A CN 202210216065 A CN202210216065 A CN 202210216065A CN 114638964 A CN114638964 A CN 114638964A
Authority
CN
China
Prior art keywords
domain
data
segmentation
fusion
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210216065.4A
Other languages
English (en)
Inventor
程明
袁直敏
刘伟权
苏燕飞
王程
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN202210216065.4A priority Critical patent/CN114638964A/zh
Publication of CN114638964A publication Critical patent/CN114638964A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于深度学习的跨域三维点云分割方法、存储介质,方法包括:获取训练数据;构建高效域迁移对抗分割框架;使用训练数据中的源域数据对框架中的条件域融合分割网络模型进行监督训练,得到预训练条件域融合分割网络模型并更新至框架中,再使用训练数据继续训练更新后的分割网络模型得到跨域三维点云条件域融合分割网络模型;输入目标域数据至跨域三维点云条件域融合分割网络模型后,先分别通过其中的主分支Ev和辅助分支Ep提取基于体素的特征和基于点的特征,再通过注意力融合模块融合这两个特征,再通过分类器对融合特征和基于体素的特征进行逐点分类,得到各点的预测标签。本发明能够极大地提升跨域分割的准确率和性能。

Description

基于深度学习的跨域三维点云分割方法、存储介质
技术领域
本发明涉及深度学习技术领域,特别涉及一种基于深度学习的跨域三维点云分割方法、存储介质。
背景技术
自动驾驶汽车要想在复杂的户外环境下有效地运行,必须对户外场景进行分析和理解。因此,对户外大规模3D点云进行语义分割是一项重要的前提任务。尽管现今一些监督学习方法在许多公开数据集上已经取得了非常出色的分割性能。然而,由于训练数据集和真实场景存在较大差异,这些方法在实际应用中依然无法取得出色分割效果。此外,这些方法极度依赖于大量手工标注的数据,然而手工标注大规模数据集不仅耗时而且人工成本非常昂贵。
现有技术中的一种经济替代方法是通过无监督域适应(Unsupervised DomainAdaptation,UDA)方法,利用已经标注好的数据来标记新域数据。在图像领域,UDA已经取得了长足的发展,但在三维点云领域的研究和应用仍处于起步阶段。现有的针对三维点云的UDA方法主要分为两类:1)基于投影的方法,此类方法主要是将三维点云投影到二维图像上以生成深度图像(rangeimage),再使用成熟的二维图像成熟的UDA方法进行域迁移分割任务。然而,这种方法损失了三维点云丰富的空间几何信息,并产生了严重的遮挡问题,因而很难得到高质量的域不变特征,迁移效果较差;2)基于补全的方法,此类方法先将不同域的三维点云进行补全,生成一个标准域,然后在这个生成的标准域上进行分割任务。这种方法的性能严重受限于补全的效果,因而限制了后续分割方法的性能。此外,现有方法并未考虑到迁移过程中不同类之间的可迁移性差异。因此,上述方法的性能还远远达不到令人满意的效果。
近年来,随着自动驾驶技术的蓬勃发展,三维点云凭借可以完全排除光线的干扰,并轻易取得三维空间几何信息等优势在工业界和科研领域得到了广泛应用,并使得获取大量三维点云数据成为可能。如何利用这些数据,在不需要人工进行标注的情况下,对这些数据进行精准的分割,从而帮助自动驾驶汽车在复杂的户外环境下进行高效的场景理解和分析成为了一项紧迫任务。
发明内容
本发明旨在至少在一定程度上解决上述技术中的技术问题之一。为此,本发明的一个目的在于提出一种基于深度学习的跨域三维点云分割方法,极大地提升了跨域分割的准确率和性能。
本发明的第二个目的在于提出一种计算机可读存储介质,能够实现基于深度学习的跨域三维点云分割方法,极大地提升跨域分割的准确率和性能。
为达到上述目的,本发明第一方面实施例提出了一种基于深度学习的跨域三维点云分割方法,包括以下步骤:
获取训练数据,训练数据包括带标签的源域数据和无标签的目标域数据;
构建一高效域迁移对抗分割框架,所述高效域迁移对抗分割框架包括条件域融合分割网络和判别网络;其中,所述条件域融合分割网络包括基于体素的主分支Ev、基于点的辅助分支Ep、注意力融合模块和分类器;
使用所述训练数据中的源域数据对所述条件域融合分割网络进行监督训练,得到预训练条件域融合分割网络模型;
将所述预训练条件域融合分割网络模型加载至所述高效域迁移对抗分割框架中的条件域融合分割网络;
使用所述训练数据对高效域迁移对抗分割框架中的条件域融合分割网络络模型继续进行对抗训练,得到跨域三维点云条件域融合分割网络模型;
输入目标域数据至所述跨域三维点云条件域融合分割网络模型后,先分别通过其中的主分支Ev和辅助分支Ep提取基于体素的特征和基于点的特征,再通过注意力融合模块融合所提取的两个特征,得到融合特征,最后通过分类器对所述融合特征和所述基于体素的特征进行逐点分类,得到输入的目标域数据各点的预测标签。
根据本发明实施例的基于深度学习的跨域三维点云分割方法,能够准确地对新域数据进行标注,大大降低人工标注的时间和就此所需花费的劳动成本,为3D点云的标注提供了新的方式;方法所使用的条件域融合分割网络具有强大而健壮的特点,能够促进领域不变的学习,从而实现良好的领域自适应性能,提升跨域分割的准确率;能够有效利用从体素视角和点视角生成的语义预测,使跨域三维点云条件域融合分割网络模型较好地保持目标域数据中对齐良好点的语义一致性,并自适应地将更高的权重附加到目标域数据中难对齐的点以加快对其速度。
另外,根据本发明上述实施例提出的一种基于深度学习的跨域三维点云分割方法还可以具有如下附加的技术特征:
可选地,所述辅助分支Ep包括多尺度条件域特征抽取模块;
所述目标域数据通过辅助分支Ep提取基于点的特征,具体包括:
所述目标域数据通过辅助分支Ep中的多尺度条件域特征抽取模块从点视角提取其多尺度特征和域特定特征。
可选地,所述使用所述训练数据对高效域迁移对抗分割框架中的条件域融合分割网络络模型继续进行对抗训练,得到跨域三维点云条件域融合分割网络模型,包括:
使用源域数据进行训练的第一子流程:
输入一给定的源域数据至高效域迁移对抗分割框架下的条件域融合分割网络络模型中,输出所述一给定的源域数据的每个点的预测结果;
依据所述一给定的源域数据及其每个点的预测结果和标签,计算交叉熵损失;
依据所述交叉熵损失对所述条件域融合分割网络络模型进行更新;
以及使用目标域数据进行训练的第二子流程:
输入一给定的目标域数据至更新后的条件域融合分割网络络模型中,输出所述一给定的目标域数据每个点的预测结果;
将所述一给定的目标域数据的预测结果输入至所述判别网络中,获取每个点的域预测结果;
依据所述一给定的目标域数据的域预测结果和域标签,计算对抗损失;
以及依据所述条件域融合分割网络络模型的两个分类器对所述目标域数据的分类结果,计算得到差异图的第三子流程;
以及依据所述差异图对所述对抗损失进行逐点加权,得到加权后的对抗损失,并依据所述加权后的对抗损失对所述条件域融合分割网络络模型进行更新,得到跨域三维点云条件域融合分割网络模型的第四子流程;
将所述一给定的源域数据的预测结果和所述一给定的目标域数据的预测结果输入至高效域迁移对抗分割框架下的判别网络中进行训练并更新判别网络,返回继续执行第一子流程,直至达到预设迭代次数,得到跨域三维点云条件域融合分割网络模型的第五子流程。
优选地,所述第四子流程,之后,还包括:
将源域数据扩充到目标域数据中;
依据所述训练的反馈信息调整跨域三维点云条件域融合分割网络模型的超参数。
优选地,所述扩充目标域数据包括:
通过所述高效域迁移对抗分割框架下的预训练条件域融合分割网络模型对训练数据中目标域数据的各点进行预测,得到目标域数据各点的伪标签这一预测结果;
分别依据源域数据各点的标签在对应的源域数据中提取一个中心点属于地面类别的第一区域;
分别依据目标域数据各点的伪标签在对应的目标域数据中提取一个中心点属于地面类别的第二区域;
使用所述第一区域替换所述目标域数据中的所述第二区域;
对替换后的所述目标域数据进行随机采样。
为达到上述目的,本发明第二方面实施例提出了一种计算机可读存储介质,其上存储有计算机程序,所述程序在被处理器执行时,能够实现上述一种基于深度学习的跨域三维点云分割方法。
根据本发明实施例的一种计算机可读存储介质,能够用于实现一种基于深度学习的跨域三维点云分割方法,从而实现准确地对新域数据进行标注,大大降低人工标注的时间和就此所需花费的劳动成本,为3D点云的标注提供了新的方式;方法所使用的条件域融合分割网络具有强大而健壮的特点,能够促进领域不变的学习,从而实现良好的领域自适应性能,提升跨域分割的准确率;能够实现有效利用从体素视角和点视角生成的语义预测,使跨域三维点云分割模型较好地保持目标域数据中对齐良好点的语义一致性,并自适应地将更高的权重附加到目标域数据中难对齐的点以加快对其速度。
附图说明
图1为根据本发明实施例的一种基于深度学习的跨域三维点云分割方法的流程示意图;
图2为根据本发明实施例的一种基于深度学习的跨域三维点云分割方法中不同域数据的视觉对比;
图3为根据本发明实施例的一种基于深度学习的跨域三维点云分割方法所使用的高效域迁移对抗分割框架的结构示意图;
图4为根据本发明实施例的一种基于深度学习的跨域三维点云分割方法中的多尺度条件域特征抽取模块的工作原理示意图;
图5为根据本发明实施例中的使用训练数据进行对抗训练的一具体实施方式的流程示意图;
图6为根据本发明实施例的一种基于深度学习的跨域三维点云分割方法中的数据扩充结果示意图;
图7为根据本发明实施例的一种基于深度学习的跨域三维点云分割方法中的跨域分割结果对比示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
本发明提供的一种基于深度学习的跨域三维点云分割方法利用强大而健壮的条件域融合分割网络分别从体素角度和点角度提取特征,再将二者融合,对融合特征和基于体素的特征逐点分类,得到预测标签,从而显著提升跨域分割的准确率和性能。
为了更好的理解上述技术方案,下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
如图1所示,本发明实施例的一种基于深度学习的跨域三维点云分割方法,其能有效地提升在新域数据上的分割性能和分割准确率。
所述基于深度学习的跨域三维点云分割方法可以包括以下步骤:
S1:获取训练数据;
所述训练数据包括带有丰富标签的源域数据和没有标签的目标域数据。
在一具体实施方式中,源域数据由Velodyne HDL-32E激光雷达传感器所收集,并由人工对每个点进行标注;目标域数据由Velodyne HDL-64E激光雷达传感器所收集,不经过任何人工处理。图2展示了由上述两种不同传感器所收集的数据的差异。
S2:构建一高效域迁移对抗分割框架;
所述高效域迁移对抗分割框架基于深度学习,如图3所示,域迁移对抗分割框架包括条件域融合分割网络G(DCF-Net)和判别网络D;所述条件域融合分割网络主要用来输出每个点的标签;所述判别网络主要用来通过对抗性训练来减少域和域之间的差异。当判别网络判别不出分割网络的输出来自源域还是目标域时,则表明分割网络的输出结果已经具有域不变性。
其中,所述分割网络G(DCF-Net)包括基于体素的主分支Ev、基于点的辅助分支Ep、注意力融合模块和两个分类器(图3中的Cv和Cf);所述主分支Ev用于基于体素的网络提取域数据的特征ev;所述辅助分支Ep用于基于点的网络提取域数据的特征ep;所述注意力融合模块用于使用注意力机制对两个分支所提取的特征进行融合,得到融合特征ef;所述分类器Cv用于对主分支Ev提取的特征ev进行逐点分类,得到每个点的预测标签;所述分类器Cf用于对融合特征ef进行逐点分类,得到每个点的预测标签。所述判别网络采用下采样的基于体素的网络。
所构建的条件域融合分割网络的目标是使用强大而健壮的高效域迁移对抗分割框架来促进领域不变特征的学习,从而实现良好的领域自适应性能。
在一具体实施方式中,分割网络G(DCF-Net)的构建过程可以包括以下步骤:
S21:利用三维点云的多种处理(表征)方式,搭建一个双分支分割网络DCF-Net,所述DCF-Net的特征提取器包括一个基于体素的主分支Ev和一个基于点的辅助分支Ep
S22:为辅助分支Ep设计两个相同的多尺度条件域特征抽取模块(MSDC Block),以对不同域数据进行多尺度特征的提取。这么做不但能够提取到域不变特征,而且极大地提高特征的区别性;进一步地,还能使得网络显式的提取域特定知识,从而提升网络性能。
作为一具体示例,如图4所示,对于输入至辅助分支Ep的每一个点,每个点将根据欧几里德距离收集Ks和Kb个最近邻点,从而构建两个邻域;它们并行输入到两个域共享的局部空间编码单元中,以提取具有多个感受野的特征。如图中4灰色虚线所示,多线激光雷达(High-beam)的大感受野Kb与少线激光雷达(low-beam)的小感受野Ks相似,这是多尺度条件域特征抽取模块MSDC Block消除域差异的关键思想。然后,通过注意力池化单元进行多尺度融合,同时聚合所有邻居的特征。特别的,在此使用两个注意力池化单元来强制源域数据和目标域数据使用不同的注意力池化单元融合特征。具体来说,给定源输入特征fs和目标输入特征和ft通过学习条件域注意力权重AWs和AWt来聚合每个域的邻居特征:
Figure BDA0003534734330000061
其中
Figure BDA0003534734330000062
Figure BDA0003534734330000063
是经过聚合后的特征。可知,借助上述设计原理,多尺度条件域特征抽取模块MSDC Block可以利用每个域所独有的注意力权重来聚合各领域的多尺度特征。
S23:设计使用主分支Ev和辅助分支Ep分别使用基于体素的网络和基于点的网络对同一样本提取特征;
具体而言,请参阅图3,图中的Targetdata为目标域数据,Sourcedata为源域数据,不管是哪一个域数据,都将分别经过主分支Ev和辅助分支Ep;主分支Ev和辅助分支Ep将分别独立地从体素视角和点视角提取一个域数据样本的特征(如图3,经辅助分支Ep提取得到特征ep;经主分支Ev提取得到特征ev)。因为每个分支都可以弥补另一个分支的不足,已经得到的特征ev和ep将在后续经注意力融合模块Fusion进一步融合成ef(融合特征);然后再将特征ev和融合特征ef输入两个不同的分类器Cv和Cf以生成不同的预测Pv和Pf
S24:设计一个分别连接主分支Ev和辅助分支Ep输出的注意力融合模块,以使用注意力机制对两个分支所提取的特征进行融合,得到融合特征;
请参阅图3,主分支的输出ev和辅助分支的输出ep不仅是针对同一样本具有不同特性的两个特征,其中的ep还包含了体素分支体素化过程中丢失的信息。如若简单地结合这些特征(例如拼接或加法)会将有用的信息淹没在大量无用的信息中。因此,在本实施例中,将借助注意力机制自适应地过滤掉无效的特征并充分利用这两个视角的相关性。具体来说,ev和ep均是具有N个点和C个通道的特征图,即ev,ep∈RN×C;注意力权重图
Figure BDA0003534734330000071
由注意力融合模块获得,该模块由MLP、Dropout、MLP和Softmax层组成,具体如下:
Figure BDA0003534734330000072
Figure BDA0003534734330000073
Figure BDA0003534734330000074
其中,“·”和
Figure BDA0003534734330000075
分别代表点积和拼接操作。
S25:设计两个分类器,分别连接所述注意力融合模块和所述主分支的输出,以分别对融合特征和主分支提取的特征进行逐点分类,得到每个点的预测标签。
S3:使用所述训练数据中的源域数据对所述条件域融合分割网络(DCF-Net)进行监督训练,得到预训练条件域融合分割网络模型。
在一些具体实施方式中,训练的过程包括:
输入一给定的源域数据至条件域融合分割网络中,输出所述一给定的源域数据的每个点的预测结果;
依据所述一给定的源域数据及其每个点的预测结果和标签,计算交叉熵损失;
依据所述交叉熵损失对所述条件域融合分割网络进行更新。
S4:将所述预训练条件域融合分割网络模型加载至所述高效域迁移对抗分割框架中的条件域融合分割网络。也可以理解为:S2的框架中的条件域融合分割网络加载了预训练条件域融合分割网络模型的参数。
通过更新,使高效域迁移对抗分割框架中的条件域融合分割网络不进行随机初始化,而是加载预训练分割网络模型的参数,即直接使用预训练分割网络模型的参数。
一般网络的训练都是随机初始化,而基于背景技术的描述可知,我们的目的是利用已经标注好的数据(源域)来标记新域(目标域)数据。而源域有标签,目标域没有标签。所以在此,我们采用先通过有标签的源域数据对分割网络进行训练,得到预训练模型;在下一步对抗训练时,不让网络随机初始化,而是加载这个预训练模型的参数,再进行对抗训练。相较于随机初始化而言,通过加载预训练条件域融合分割网络模型的参数,使条件域融合分割网络模型在对抗训练初始阶段就具有较优的特征抽取能力。
S5:使用所述训练数据对高效域迁移对抗分割框架中的条件域融合分割网络络模型继续进行对抗训练,得到跨域三维点云条件域融合分割网络模型;
在一具体实施方式中,请参阅图5,继续对抗训练得到跨域三维点云条件域融合分割网络模型的过程可以包括以下步骤:
S51(即第一子流程):使用源域数据进行训练;
训练时,每次给定一个源域数据样本,将其输入到预训练后的条件域融合分割网络(即高效域迁移对抗分割框架中更新了参数过后的条件域融合分割网络模型)中,然后根据输出结果计算得到的监督损失对分割网络进行更新。
具体而言,对源域数据进行训练时,将源域样本xs输入到分割网络DCF-Net,DCF-Net输出每个点的预测结果ps,并与对应的标签ys计算交叉熵损失
Figure BDA0003534734330000081
计算公式具体如下:
Figure BDA0003534734330000082
其中,xs和ys分别为一个源域样本的原始三维点云坐标和其对应的groundtruth,即标签,ps为DCF-Net输出的预测结果。
S52(即第二子流程):使用目标域数据进行训练;
训练时,每次给定一个目标域数据样本,将其输入到高效域迁移对抗分割框架下的条件域融合分割网络络模型,然后将输出的预测结果再输入到判别网络中,以判断每个点来自源域还是目标域,即获取每个点的域预测结果再计算每个点的对抗损失(对应图3中通往
Figure BDA0003534734330000083
的箭头)。
具体而言,对目标域数据进行训练时,将目标域样本xt输入到更新了参数后的分割网络DCF-Net,DCF-Net输出每个点的预测结果pt。由于目标域数据没有对应的标签,pt将被输入到判别网络中进行逐点判断,判断每个点来自于源域还是目标域,再依据域预测结果和域标签计算对抗损失,对抗损失的计算公式具体如下:
Figure BDA0003534734330000084
由于目标域没有标签,但是依据域预测结果可知它是来自源域还是目标域;通过设置源域域标签为0,目标域域标签为1,然后用每个点的域预测结果和域标签计算对抗损失。
因此,该框架的总损失为:
Figure BDA0003534734330000085
其中,
Figure BDA0003534734330000086
是对抗损失;λadv是一个权衡
Figure BDA0003534734330000087
Figure BDA0003534734330000088
的一个超参数。
S53(即第三子流程):依据条件域融合分割网络络模型的两个分类器对所述目标域数据和源域数据的分类结果,计算得到差异图(DiscrepancyMap,对应图3中的“M”),以用来反映每个点的对齐程度;
由于分割网络DCF-Net是一个双分支网络,同时判别网络有两个具有不同输入特征的分类器Cv和Cf。因此,Cv和Cf的预测结果Pv和Pf提供了一个输入样本在两个不同视角下的语义预测。可以使用Pv和Pf之间的预测一致性来评估每个目标点在语义上的对齐程度。如果Pv和Pf中某个点的预测结果一致,则该点更有可能已经在语义上对齐,应该减少对抗性损失的影响,并鼓励分割网络保持一致的预测。相反,一个点的不一致预测表明它远未正确对齐,应该增强其对抗损失以加快对齐速度。差异图
Figure BDA0003534734330000091
可以直接通过计算Pv和Pf的余弦距离得到,具体如下:
Figure BDA0003534734330000092
S54(即第四子流程):依据所述差异图对所述对抗损失进行逐点加权(加权即图3的
Figure BDA0003534734330000093
),得到加权后的对抗损失(对应图3中
Figure BDA0003534734330000094
的输出),并依据所述加权后的对抗损失对条件域融合分割网络络模型分割网络进行更新;
该步骤能够隐式的将类别信息融入到对抗损失中,分割网络根据加权后的对抗损失进行更新。
具体而言,通过使用差异度
Figure BDA0003534734330000095
对对抗损失
Figure BDA0003534734330000096
进行逐点加权,分割网络DCF-Net的预测结果Pv和Pf被隐式的融合进了对抗损失中,加权后的对抗损失
Figure BDA0003534734330000097
可以重新写成:
Figure BDA0003534734330000098
其中,λlocal是一个超参数,用于控制对抗损失的自适应权重,ε是一个用于稳定训练的小数;作为本实施例的一具体示例,λlocal和ε分别设置为80和0.4;
加权后的对抗损失将会被用来更新条件域融合分割网络络模型。
在一优选实施例中,训练得到跨域三维点云条件域融合分割网络模型之后,还将通过以下步骤进一步提升模型的分割精度和性能。
S541:将源域数据扩充到目标域数据中;
该步骤的目的是减少域差,并提升模型的分割性能,融合后的样本示例如图6所示。
作为一具体实施方式,该步骤具体可以包括以下步骤:
H1:使用所述跨域三维点云条件域融合分割网络模型对训练数据中的目标域数据进行逐点预测,得到目标域数据每个点的预测结果,即目标域数据各点的伪标签;
H2:根据源域数据各点的标签在对应源域数据样本中提取一个中心点属于地面类别的区域,标记为第一区域;
H3:根据目标域数据各点的伪标签在对应目标域数据样本中提取一个中心点属于地面类别的区域,标记为第二区域;
H4:使用源域样本中提取的第一区域替换目标域样本中的提取的第二区域,以达到数据扩充的目的;
H5:对替换后的所述目标域数据进行随机采样,以保证网络输入点数相同。
作为上述H2-H5步骤的一个具体示例,将根据源域数据的标签和目标域数据的伪标签分别在源域数据的一个样本Xs和目标域数据的一个样本Xt中各选择一个属于地面类别的点Ct和Cs;对源域的样本Xs,以Cs为中心,r为半径进行计算,得到一块区域Ms,即第一区域;对目标域的样本Xt,以Ct为中心使用KNN算法得到预先设定近邻点数目的一块区域Mt,即第二区域,并计算Mt中最远点到Ct的距离r;然后,用Ms替换Xt中的Mt,得到新的扩充后目标域样本
Figure BDA0003534734330000101
以达到数据扩充的目的;最后再对替换后的目标域样本
Figure BDA0003534734330000102
进行随机采样。
S542:根据网络的训练、测试反馈信息调整模型的超参数。
在本实施例中,在第四子流程之后,还包括第五子流程:
S55(即第五子流程):分别将训练数据中的源域数据和目标域数据输入至判别网络中进行训练并更新判别网络,返回继续执行第一子流程,直至达到预设迭代次数,得到跨域三维点云分割框架;
上述第一子流程至第五子流程将循环迭代,直至达到预先设定的最大迭代次数。作为本实施例的一优选示例,该最大迭代次数设置为150000。
作为一具体示例,所有实验完全使用PyTorch实现,采用的优化器是Adam,分割网络DCF-Net,分类器c和判别器D的初始学习率分别设置为2.5e-4、2.5e-3和10e-4;学习率使用多项式衰减策略逐渐减小,当前学习率等于初始学习率乘以
Figure BDA0003534734330000103
其中power=0.9;体素分辨率为0.05m,S15中所述的近邻点数Ks和Kb分别设置为8和16;λadv、λlocal和ε分别设置为0.001、80和0.4。
在本实施例中,训练得到跨域三维点云条件域融合分割网络模型之后,将通过该模型对输入的目标域数据进行逐点预测,得到目标域最终的准确分割结果。
S6:如图3所示,输入跨域三维点云分割模型的目标域数据,将先分别通过分割网络的主分支Ev和辅助分支Ep提取基于体素的特征和基于点的特征,再通过注意力融合模块融合所提取的两个特征,得到融合特征,最后通过分类器对所述融合特征和主分支Ev输出的基于体素的特征进行逐点分类,得到所输入的目标域数据各点的预测标签。
作为一具体示例,模型训练结束后,使用最优的模型对由Velodyne HDL-64E激光雷达传感器所收集的目标域数据进行逐点预测,得到每个点的预测结果。图7展示了本方法与其他方法的预测结果,明显展示了本实施例的优势。
本实施例相较于现有技术,至少具有如下优点:
1.本实施例提出的跨域三维点云分割方法能够准确的对新域数据进行标注,大大降低了人工标注数据的时间和劳动成本,为3D点云的标注提供了新的方式;
2.本实施例提出的分割网络DCF-Net是一个强大而健壮的网络架构,它不仅促进了领域不变特征的学习,还实现了良好的领域自适应性能。此外,通过显式的对域特定知识进行提取,极大的提升了跨域分割准确率;
3.本实施例通过有效利用分别从体素视角和点视角生成的两个语义预测,使分割模型可以较好地保持目标域数据中对齐良好点的语义一致性,并自适应地将更高的权重附加到目标域数据中难对齐的点以加快对齐速度;
4.本实施例提出的方法是直观的,充分利用了当前容易获取的三维点云数据。在新的环境下只需收集原始三维点云数据,不需要任何人工参与即可得到较为精准的新域数据语义标签。
作为本发明的另一实施例,提供一种计算机可读存储介质,其上存储有计算机程序,所述程序在被处理器执行时,能够实现上述实施例所述的一种基于深度学习的跨域三维点云分割方法。方法所包含的具体流程在此不进行复述,详情请参阅上述记载。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
应当注意的是,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的单词“一”或“一个”不排除存在多个这样的部件。本发明可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
在本发明的描述中,需要理解的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不应理解为必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (6)

1.一种基于深度学习的跨域三维点云分割方法,其特征在于,包括以下步骤:
获取训练数据,训练数据包括带标签的源域数据和无标签的目标域数据;
构建一高效域迁移对抗分割框架,所述高效域迁移对抗分割框架包括条件域融合分割网络和判别网络;其中,所述条件域融合分割网络包括基于体素的主分支Ev、基于点的辅助分支Ep、注意力融合模块和分类器;
使用所述训练数据中的源域数据对所述条件域融合分割网络进行监督训练,得到预训练条件域融合分割网络模型;
将所述预训练条件域融合分割网络模型加载至所述高效域迁移对抗分割框架中的条件域融合分割网络;
使用所述训练数据对高效域迁移对抗分割框架中的条件域融合分割网络络模型继续进行对抗训练,得到跨域三维点云条件域融合分割网络模型;
输入目标域数据至所述跨域三维点云条件域融合分割网络模型后,先分别通过其中的主分支Ev和辅助分支Ep提取基于体素的特征和基于点的特征,再通过注意力融合模块融合所提取的两个特征,得到融合特征,最后通过分类器对所述融合特征和所述基于体素的特征进行逐点分类,得到输入的目标域数据各点的预测标签。
2.如权利要求1所述的一种基于深度学习的跨域三维点云分割方法,其特征在于,所述辅助分支Ep包括多尺度条件域特征抽取模块;
所述目标域数据通过辅助分支Ep提取基于点的特征,具体包括:
所述目标域数据通过辅助分支Ep中的多尺度条件域特征抽取模块从点视角提取其多尺度特征和域特定特征。
3.如权利要求1所述的一种基于深度学习的跨域三维点云分割方法,其特征在于,所述使用所述训练数据对高效域迁移对抗分割框架中的条件域融合分割网络络模型继续进行对抗训练,得到跨域三维点云条件域融合分割网络模型,包括:
使用源域数据进行训练的第一子流程:
输入一给定的源域数据至高效域迁移对抗分割框架下的条件域融合分割网络络模型中,输出所述一给定的源域数据的每个点的预测结果;
依据所述一给定的源域数据及其每个点的预测结果和标签,计算交叉熵损失;
依据所述交叉熵损失对所述条件域融合分割网络络模型进行更新;
以及使用目标域数据进行训练的第二子流程:
输入一给定的目标域数据至更新后的条件域融合分割网络络模型中,输出所述一给定的目标域数据每个点的预测结果;
将所述一给定的目标域数据的预测结果输入至所述判别网络中,获取每个点的域预测结果;
依据所述一给定的目标域数据的域预测结果和域标签,计算对抗损失;
以及依据所述条件域融合分割网络络模型的两个分类器对所述目标域数据的分类结果,计算得到差异图的第三子流程;
以及依据所述差异图对所述对抗损失进行逐点加权,得到加权后的对抗损失,并依据所述加权后的对抗损失对所述条件域融合分割网络络模型进行更新的第四子流程;
将所述一给定的源域数据的预测结果和所述一给定的目标域数据的预测结果输入至高效域迁移对抗分割框架下的判别网络中进行训练并更新判别网络,返回继续执行第一子流程,直至达到预设迭代次数,得到跨域三维点云条件域融合分割网络模型的第五子流程。
4.如权利要求3所述的一种基于深度学习的跨域三维点云分割方法,其特征在于,所述第四子流程,之后,还包括:
将源域数据扩充到目标域数据中;
依据所述训练的反馈信息调整跨域三维点云条件域融合分割网络模型的超参数。
5.如权利要求4所述的一种基于深度学习的跨域三维点云分割方法,其特征在于,所述扩充目标域数据包括:
通过所述高效域迁移对抗分割框架下的预训练条件域融合分割网络模型对训练数据中目标域数据的各点进行预测,得到目标域数据各点的伪标签这一预测结果;
分别依据源域数据各点的标签在对应的源域数据中提取一个中心点属于地面类别的第一区域;
分别依据目标域数据各点的伪标签在对应的目标域数据中提取一个中心点属于地面类别的第二区域;
使用所述第一区域替换所述目标域数据中的所述第二区域;
对替换后的所述目标域数据进行随机采样。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序在被处理器执行时,能够实现上述权利要求1-5任意一项所述的一种基于深度学习的跨域三维点云分割方法。
CN202210216065.4A 2022-03-07 2022-03-07 基于深度学习的跨域三维点云分割方法、存储介质 Pending CN114638964A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210216065.4A CN114638964A (zh) 2022-03-07 2022-03-07 基于深度学习的跨域三维点云分割方法、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210216065.4A CN114638964A (zh) 2022-03-07 2022-03-07 基于深度学习的跨域三维点云分割方法、存储介质

Publications (1)

Publication Number Publication Date
CN114638964A true CN114638964A (zh) 2022-06-17

Family

ID=81947607

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210216065.4A Pending CN114638964A (zh) 2022-03-07 2022-03-07 基于深度学习的跨域三维点云分割方法、存储介质

Country Status (1)

Country Link
CN (1) CN114638964A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140247977A1 (en) * 2013-03-01 2014-09-04 Impac Medical Systems, Inc. Method and Apparatus for Learning-Enhanced Atlas-Based Auto-Segmentation
CN110443813A (zh) * 2019-07-29 2019-11-12 腾讯医疗健康(深圳)有限公司 血管、眼底图像的分割方法、装置、设备及可读存储介质
CN111402257A (zh) * 2020-03-11 2020-07-10 华侨大学 一种基于多任务协同跨域迁移的医学图像自动分割方法
CN112036322A (zh) * 2020-09-01 2020-12-04 清华大学 多任务网络跨域行人重识别模型构建方法、系统及装置
AU2020103905A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Unsupervised cross-domain self-adaptive medical image segmentation method based on deep adversarial learning
CN112446423A (zh) * 2020-11-12 2021-03-05 昆明理工大学 一种基于迁移学习的快速混合高阶注意力域对抗网络的方法
CN113469186A (zh) * 2021-06-30 2021-10-01 华侨大学 一种基于少量点标注的跨域迁移图像分割方法
CN113469094A (zh) * 2021-07-13 2021-10-01 上海中科辰新卫星技术有限公司 一种基于多模态遥感数据深度融合的地表覆盖分类方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140247977A1 (en) * 2013-03-01 2014-09-04 Impac Medical Systems, Inc. Method and Apparatus for Learning-Enhanced Atlas-Based Auto-Segmentation
CN110443813A (zh) * 2019-07-29 2019-11-12 腾讯医疗健康(深圳)有限公司 血管、眼底图像的分割方法、装置、设备及可读存储介质
CN111402257A (zh) * 2020-03-11 2020-07-10 华侨大学 一种基于多任务协同跨域迁移的医学图像自动分割方法
CN112036322A (zh) * 2020-09-01 2020-12-04 清华大学 多任务网络跨域行人重识别模型构建方法、系统及装置
CN112446423A (zh) * 2020-11-12 2021-03-05 昆明理工大学 一种基于迁移学习的快速混合高阶注意力域对抗网络的方法
AU2020103905A4 (en) * 2020-12-04 2021-02-11 Chongqing Normal University Unsupervised cross-domain self-adaptive medical image segmentation method based on deep adversarial learning
CN113469186A (zh) * 2021-06-30 2021-10-01 华侨大学 一种基于少量点标注的跨域迁移图像分割方法
CN113469094A (zh) * 2021-07-13 2021-10-01 上海中科辰新卫星技术有限公司 一种基于多模态遥感数据深度融合的地表覆盖分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ZHIMING YUAN等: "Category-Level Adversaries for Outdoor LiDAR Point Clouds Cross-Domain Semantic Segmentation", IEEE TRANSCTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, 10 November 2022 (2022-11-10), pages 1982 - 1993 *
戴蓉;: "一种基于条件生成对抗网络的面部表情识别技术", 计算机应用与软件, no. 08, 12 August 2020 (2020-08-12) *
闫美阳;李原;: "多源域混淆的双流深度迁移学习", 中国图象图形学报, no. 12, 16 December 2019 (2019-12-16) *

Similar Documents

Publication Publication Date Title
CN109614985B (zh) 一种基于密集连接特征金字塔网络的目标检测方法
He et al. Dyco3d: Robust instance segmentation of 3d point clouds through dynamic convolution
CN107194336B (zh) 基于半监督深度距离度量网络的极化sar图像分类方法
CN112348849A (zh) 一种孪生网络视频目标跟踪方法及装置
CN110543872A (zh) 一种基于全卷积神经网络的无人机影像建筑物屋顶提取方法
CN112052818A (zh) 无监督域适应的行人检测方法、系统及存储介质
CN104156943A (zh) 基于非支配邻域免疫算法的多目标模糊聚类图像变化检测方法
Hamad An assessment of artificial neural networks, support vector machines and decision trees for land cover classification using sentinel-2A data
Zeng et al. Steel sheet defect detection based on deep learning method
Jemilda et al. Moving object detection and tracking using genetic algorithm enabled extreme learning machine
Luciano et al. Deep similarity network fusion for 3D shape classification
CN107529647B (zh) 一种基于多层无监督稀疏学习网络的云图云量计算方法
Wang et al. Small vehicle classification in the wild using generative adversarial network
CN109272036B (zh) 一种基于深度残差网络的随机蕨目标跟踪方法
CN113657414A (zh) 一种物体识别方法
CN116861262B (zh) 一种感知模型训练方法、装置及电子设备和存储介质
Mansour et al. Hierarchical SVM for Semantic Segmentation of 3D Point Clouds for Infrastructure Scenes
CN110766696A (zh) 一种基于改进的粗糙集聚类算法的卫星图像分割方法
CN114638964A (zh) 基于深度学习的跨域三维点云分割方法、存储介质
Li et al. Detection of Imaged Objects with Estimated Scales.
CN113920311A (zh) 一种基于边缘辅助信息的遥感图像分割方法及系统
Udendhran et al. Enhancing representational learning for cloud robotic vision through explainable fuzzy convolutional autoencoder framework
Chen et al. A Framework of Reconstructing Piping Systems on Classimbalanced 3D Point Cloud Data from Construction Sites
Liu et al. Peaks Fusion assisted Early-stopping Strategy for Overhead Imagery Segmentation with Noisy Labels
Li et al. Research on efficient detection network method for remote sensing images based on self attention mechanism

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination