CN115240024A - 一种联合自监督学习和半监督学习的地外图片分割方法和系统 - Google Patents

一种联合自监督学习和半监督学习的地外图片分割方法和系统 Download PDF

Info

Publication number
CN115240024A
CN115240024A CN202210687676.7A CN202210687676A CN115240024A CN 115240024 A CN115240024 A CN 115240024A CN 202210687676 A CN202210687676 A CN 202210687676A CN 115240024 A CN115240024 A CN 115240024A
Authority
CN
China
Prior art keywords
picture
training
extraterrestrial
semi
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210687676.7A
Other languages
English (en)
Inventor
刘家瑛
张佳航
林里浪
樊泽嘉
汪文靖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN202210687676.7A priority Critical patent/CN115240024A/zh
Publication of CN115240024A publication Critical patent/CN115240024A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种联合自监督学习和半监督学习的地外图片分割方法和系统。该方法对于地外图片通过掩码图片建模的方式进行自监督预训练,使得模型学习到多样鲁棒的特征空间表示,然后通过半监督方式来微调模型,充分利用地外数据中未标注部分的信息,使得模型在下游任务即语义分割上能有更好的表现。本发明通过自监督学习预训练使得网络可以在无标签数据中学习到良好的特征表示,并且提高了半监督方式下微调阶段的伪标签预测质量,同时微调阶段通过产生伪标签来利用未标注区域的监督信息,使得模型输出的预测结果更准确。本发明能够显著提升图片分割性能。

Description

一种联合自监督学习和半监督学习的地外图片分割方法和 系统
技术领域
本发明属于图片分割领域和自监督学习及半监督学习领域,具体涉及一种联合自监督学习和半监督学习的地外图片分割方法和系统。
背景技术
图像分割旨在把图像分成若干个特定的、具有单独语义信息的区域,对输入图片的每一个像素点进行分类,确定每一个像素的类别,从而进行区域划分,提取出感兴趣的部分。图像分割是目前人工智能领域的一个重要分支。
现有的图像分割方法可以整体上分为如下两类。第一类是传统图像分割算法,包括:阈值法,简单地根据图像的像素值和设定的阈值的大小关系分成两类实现前景和背景的分离;像素聚类法,假设图像中有K个类别,采用迭代聚类的方式如K-means聚类算法,将图像每个像素点分类;边缘分割法,根据图像边缘检测的结果,将图像中的不同区域分割出来;图切割算法,通过构建图片像素之间的赋权图,将图像分割与图的最小割问题关联等。这些算法使用传统的构造或迭代算法来进行图像分割。第二类是基于深度学习的图像分割算法,通过前馈网络为每一个像素点输出一个分类结果,典型的网络结构包括全卷积、扩张卷积等。
但是,上述方法中传统算法无法充分利用现有的数据集资源,且并不能取得很好的效果,在复杂场景的分割中精度往往不能满足要求;而已有的基于前传的深度学习方法一方面过于依赖大量标注数据的监督训练,而目前的地外图片分割数据集(例如火星图片分割数据集)无法满足实现高性能的纯监督训练下的数据需求;另一方面目前方法未充分考虑地外数据的特点,如稀疏标注、相似图片数据较多等,分割结果仍具有较大的提升空间,整体上性能无法满足实际应用的需求。
发明内容
针对上述技术问题,本发明提出了一种联合自监督学习和半监督学习的地外图片分割方法,减轻对大量标注数据的依赖,同时结合地外图片特性约束模型学习到的特征空间。
本发明采用的技术方案如下:
一种联合自监督学习和半监督学习的地外图片分割方法,包括以下步骤:
收集地外图片训练数据;
在自监督预训练阶段,利用地外图片训练数据进行自监督预训练,以学习图片掩码区域的颜色特征和纹理特征,得到自监督预训练阶段的神经网络模型;
在半监督微调阶段,利用地外图片中未标注部分的信息对自监督预训练阶段的神经网络模型进行微调和训练,得到半监督微调阶段的图片分割神经网络模型;
将待分割图片输入训练完成的半监督微调阶段的图片分割神经网络模型,得到语义分割结果。
进一步地,所述收集地外图片训练数据,是收集大量地外图片及其对应的分割标签组成训练数据集。
进一步地,所述自监督预训练阶段的神经网络模型包括特征提取网络Bseg、输出模块HRGB、输出模块HLBP;将地外图片数据进行随机掩码,输入所述特征提取网络Bseg,所述特征提取网络Bseg将网络的深层特征和浅层特征汇合得到图片的特征表示,该特征表示分别输入输出模块HRGB、输出模块HLBP,对原图片掩码区域的颜色特征和纹理特征进行预测,即分别在RGB色彩空间和局部二进制模式特征空间下进行预测。
进一步地,所述自监督预训练阶段采用以下损失函数进行端到端地联合优化:
Lrgb=||g(f(x⊙M)))-x||2
Llbp=||h(f(x⊙M)))-s||2
Lpre-train=λ1Lrgb2Llbp
式中,Lrgb为RGB色彩预测的损失函数项,Llbp为局部二进制模式特征预测的损失函数项,x为输入样本图片,s为x掩码前计算得到的局部二进制模式直方图,g、h分别代表输出模块HRGB和输出模块HLBP,f代表特征提取网络;M表示随机产生的掩码,其中1表示该区域有效;⊙表示元素积的运算,Lpre-train为总损失函数项,λ1与λ2为权重值。
进一步地,所述半监督微调阶段的图片分割神经网络模型包括特征提取网络f、输出模块Hseg、判别器d;所述判别器通过学习图片中每个像素的标注不确定性来预测每个像素是否被标注,通过设定阈值将置信度高的区域选择出来作为伪标签;将伪标签与原数据已标注区域的真实标签进行融合,利用融合得到的标签对网络的语义分割预测结果进行约束,进行端到端的训练。
进一步地,所述半监督微调阶段的训练过程分为两步:
第一步即训练前期的总函数损失项为:
L=λceLcediceLdice
其中,Lce为分割预测交叉熵损失函数项,Ldice为优化判别器二分类预测的损失函数项,λce和λdice为权重值;
第二步即训练后期加入Lpseudo损失,即总函数损失项为:
L=λceLcediceLdicepseudoLpseudo
其中,Lpseudo为基于伪标签的未标注区域预测交叉熵损失函数项,λpseudo为权重值。
一种联合自监督学习和半监督学习的地外图片分割系统,其包括:
训练数据收集模块,用于收集地外图片训练数据;
自监督预训练模块,用于利用地外图片训练数据进行自监督预训练,以学习图片掩码区域的颜色特征和纹理特征,得到自监督预训练阶段的神经网络模型;
半监督微调模块,用于利用地外图片中未标注部分的信息对自监督预训练阶段的神经网络模型进行微调和训练,得到半监督微调阶段的图片分割神经网络模型;
语义分割模块,用于将待分割图片输入训练完成的半监督微调阶段的图片分割神经网络模型,得到语义分割结果。
本发明通过自监督学习预训练使得网络可以在无标签数据中学习到良好的特征表示,并且提高了半监督方式下微调阶段的伪标签预测质量,同时微调阶段通过产生伪标签来利用未标注区域的监督信息,使得模型输出的预测结果更准确。与现有技术相比,本发明显著提升了地外图片(包括火星图片等)分割性能。在AI4MARS大规模火星图片分割基准测试集上,本发明将频权交并比(Frequency Weighted Intersection over Union)指标从83.23%提升到了88.82%,均交并比(Mean Intersection over Union)指标从68.73%提升到了70.64%;在S5Mars火星图片分割基准测试集上,本发明将频权交并比指标从76.47%提升到了87.18%,均交并比指标从76.38%提升到了77.20%。
附图说明
图1为本发明实施例所使用的图片分割神经网络框架的结构图,上半部分为自监督预训练流程,下半部分为半监督微调流程。
图2A、图2B分别为本发明实施例的输入图片和模型预测分割结果图。
具体实施方式
为使本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合所附图作详细说明如下。需说明的是,以下实施例所给出的具体层数、模块数、函数数量以及对某些层的设置等都仅是一种较佳的实施方式,而不用于限制,本领域技术人员可以根据实际需要来选取数量和设置某些层,应可理解。
本发明的一种联合自监督学习和半监督学习的地外图片分割方法,在对于给定地外地表图片的输入下,通过掩码图片建模的方式进行自监督预训练,使得模型学习到多样鲁棒的特征空间表示,接下来通过半监督方式来微调模型,充分利用地外数据中未标注部分的信息,使得模型在下游任务即语义分割上能有更好的表现。该方法包括以下步骤:
1)收集地外图片训练数据。
2)首先进行自监督预训练阶段,将地外图片数据进行随机掩码,并输入特征提取网络(基线模型)中,将网络的深层特征和浅层特征汇合得到图片的特征表示;
3)将上一步得到的特征表示分别输入两个输出模块,以对原图片掩码区域的颜色特征和纹理特征进行预测,即分别在RGB色彩空间和局部二进制模式(Local binarypattern,LBP)特征空间下进行预测。
4)自监督预训练结束后,使用得到的模型中特征提取网络的权重参数信息初始化一个标准分割模型,并以半监督方式开始在下游任务上对模型进行微调。
5)输入地外图片数据,标准分割模型输出得到预测的语义分割结果。同时训练一个判别器,由于图片本身存在已标注区域和未标注区域,表示该区域的标注不确定性,该判别器通过学习这种不确定性来预测每个像素是否被标注。
6)完成步骤5)后,每一次输入训练数据,可以得到整张图片对应的语义分割结果(包括已标注区域和未标注区域),以及图片中每个像素的标注不确定性,判别器通过设定一个阈值来将置信度较高的区域选择出来,作为待选伪标签,与原数据已标注区域的真实标签进行融合,得到更多的监督信息。
7)利用融合得到的标签对网络的语义分割预测结果进行约束,进行端到端的训练。
8)将待分割的地外图片输入训练完成的图片分割模型,得到语义分割结果。
本发明的一个实施例公开一种联合自监督学习和半监督学习的地外图片分割方法,具体说明如下:
步骤1:搜集并搭建大量地外图片及其对应的分割标签组成训练数据集。
步骤2:进行自监督预训练阶段,搭建图片分割的神经网络模型。
自监督预训练阶段的网络结构如附图1所示,模型由特征提取网络Bseg、输出模块HRGB、输出模块HLBP三个子网络构成。
特征提取网络整体上采用了类似ResNet-101的骨干网络部分,包括连续的34个卷积层,每个卷积层后跟随一个线性整流函数(ReLU),第一个卷积层后跟随一个步长为2的3x3的最大池化进行下采样,该网络最终的输出特征为输入图片对应的特征图,尺寸为原输入尺寸下采样16倍的结果。其中特征提取网络将原ResNet模型的第2-4个卷积层、第32-34个卷积层的步长改为1,同时输出特征为第4层卷积层输出和最后一层卷积层输出内容的汇合。
输出模块HRGB和输出模块HLBP均采用DeepLabV3+网络的Head部分,包括:一个投射模块,由一层卷积跟随批归一化(Batch Normalization)和一个线性整流函数构成;一个多尺寸聚合池化层,输入由4个不同扩张率(dilation rate)的扩张卷积层和一个平均池化层+卷积层处理后,将它们输出的特征进行汇合,并输入到一个投射模块中得到最后输出,该投射模块包括一层卷积跟随批归一化和一个线性整流函数,同时应用随机失活(Dropout)进行正则化;最后由一个卷积层组成的分类器输出最终的预测结果或者特征图。其中输出模块HRGB将所有的卷积层换成了门控卷积(Gated Convolution Layer)。输出模块HRGB最终输出网络对于输入图片掩码区域的RGB色彩预测结果;输出模块HLBP最终输出输入图片掩码区域的局部二进制模式特征的预测结果。局部二进制模式特征通过图像不同划分块的局部二进制模式的统计直方图给出,直方图维度为25。
步骤3:自监督学习阶段预训练图片分割神经网络模型。
共有两个损失函数,进行端到端地联合优化:
Lrgb=||g(f(x⊙M)))-x||2
Llbp=||h(f(x⊙M)))-s||2
Lpre-train=λ1Lrgb2Llbp
式中,Lrgb为RGB色彩预测的损失函数项,Llbp为局部二进制模式特征预测的损失函数项,x为输入样本图片,s为x掩码前计算得到的局部二进制模式直方图,g,h分别代表输出模块HRGB和输出模块HLBP,f代表特征提取网络,M表示随机产生的掩码,其中1表示该区域有效,⊙表示元素积的运算,Lpre-train为总损失函数项。通常权重λ1与λ2设置为0.5,0.5。
步骤4:提取出步骤3中的特征提取网络,以半监督方式对模型在语义分割任务上进行微调。首先搭建半监督微调阶段的网络模型。
半监督微调阶段的网络结构如图1所示。整个网络由特征提取网络f,输出模块Hseg,判别器d组成。
半监督微调阶段的特征提取网络结构与步骤3中相同;输出模块Hseg、判别器d均与步骤3中输出模块HLBP相同。
步骤5:半监督微调阶段对模型进行训练。
该阶段训练过程中分为两步:
第一步训练前期的总函数损失项为:
L=λceLcediceLdice
Lce为分割预测交叉熵损失函数项,Ldice为优化判别器二分类预测的损失函数项,λce和λdice为权重值。
Figure BDA0003698563790000061
式中
Figure BDA0003698563790000064
表示网络对位于(h,w)位置的像素的预测概率中属于类别cj的概率,ci为该位置的像素的真实标签,Ex表示所有训练样本图片的像素的均值,Eh,w表示一张训练样本图片的所有像素的均值(在这里严格来说Lce是只对已标注区域的像素计算,而后文的Lpseudo是只对未标注区域的像素计算),C表示数据集定义的标签中不同类别的数量。
Figure BDA0003698563790000062
式中ph,w为判别器d输出的位于(h,w)处的像素的确定性,q为关于整张图像的不确定性标签,qh,w为位于(h,w)处的像素的标签值,若该像素被标注则为1,否则为0。
第二步训练后期在原来的基础上加入Lpseudo损失:
L=λceLcediceLdicepseudoLpseudo
Lpseudo为基于伪标签的未标注区域预测交叉熵损失函数项:
Figure BDA0003698563790000063
式中
Figure BDA0003698563790000065
表示网络对位于(h,w)位置的像素的预测概率中属于类别cj的概率,
Figure BDA0003698563790000067
为该位置像素的预测伪标签,
Figure BDA0003698563790000066
表示网络对位于(h,w)位置的像素的预测概率中属于类别
Figure BDA0003698563790000068
的概率,λpseudo为权重值。
整个网络进行端到端地联合优化。
步骤6:推理阶段,利用训练完成的半监督微调阶段的特征提取网络f和输出模块Hseg,输入参考待测试地外图片(见图2A所示的火星图片),最终输出对应的语义分割结果(见图2B)。
基于同一发明构思,本发明的另一实施例一种联合自监督学习和半监督学习的地外图片分割系统,其包括:
训练数据收集模块,用于收集地外图片训练数据;
自监督预训练模块,用于利用地外图片训练数据进行自监督预训练,以学习图片掩码区域的颜色特征和纹理特征,得到自监督预训练阶段的神经网络模型;
半监督微调模块,用于利用地外图片中未标注部分的信息对自监督预训练阶段的神经网络模型进行微调和训练,得到半监督微调阶段的图片分割神经网络模型;
语义分割模块,用于将待分割图片输入训练完成的半监督微调阶段的图片分割神经网络模型,得到语义分割结果。
其中各模块的具体实施过程参见前文对本发明方法的描述。
基于同一发明构思,本发明的另一实施例提供一种电子装置(计算机、服务器、智能手机等),其包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行本发明方法中各步骤的指令。
基于同一发明构思,本发明的另一实施例提供一种计算机可读存储介质(如ROM/RAM、磁盘、光盘),所述计算机可读存储介质存储计算机程序,所述计算机程序被计算机执行时,实现本发明方法的各个步骤。
本发明中的地外图片可以是火星图片或其他地外探测领域的图片,主要集中在地外的地形分割任务,与地外地形分割任务类似的场景均可使用本发明进行图片分割。
以上实施例仅用以说明本发明的技术方案而非对其进行限制,本领域的普通技术人员可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明的精神和范围,本发明的保护范围应以权利要求书所述为准。

Claims (10)

1.一种联合自监督学习和半监督学习的地外图片分割方法,其特征在于,包括以下步骤:
收集地外图片训练数据;
在自监督预训练阶段,利用地外图片训练数据进行自监督预训练,以学习图片掩码区域的颜色特征和纹理特征,得到自监督预训练阶段的神经网络模型;
在半监督微调阶段,利用地外图片中未标注部分的信息对自监督预训练阶段的神经网络模型进行微调和训练,得到半监督微调阶段的图片分割神经网络模型;
将待分割图片输入训练完成的半监督微调阶段的图片分割神经网络模型,得到语义分割结果。
2.根据权利要求1所述的方法,其特征在于,所述收集地外图片训练数据,是收集大量地外图片及其对应的分割标签组成训练数据集。
3.根据权利要求1所述的方法,其特征在于,所述自监督预训练阶段的神经网络模型包括特征提取网络Bseg、输出模块HRGB、输出模块HLBP;将地外图片数据进行随机掩码,输入所述特征提取网络Bseg,所述特征提取网络Bseg将网络的深层特征和浅层特征汇合得到图片的特征表示,该特征表示分别输入输出模块HRGB、输出模块HLBP,对原图片掩码区域的颜色特征和纹理特征进行预测,即分别在RGB色彩空间和局部二进制模式特征空间下进行预测。
4.根据权利要求3所述的方法,其特征在于,所述自监督预训练阶段采用以下损失函数进行端到端地联合优化:
Lrgb=||g(f(x⊙M)))-x||2
Llbp=||h(f(x⊙M)))-s||2
Lpre-train=λ1Lrgb2Llbp
其中,Lrgb为RGB色彩预测的损失函数项,Llbp为局部二进制模式特征预测的损失函数项,x为输入样本图片,s为x掩码前计算得到的局部二进制模式直方图,g、h分别代表输出模块HRGB和输出模块HLBP,f代表特征提取网络;M表示随机产生的掩码,其中1表示该区域有效;⊙表示元素积的运算,Lpre-train为总损失函数项,λ1与λ2为权重值。
5.根据权利要求1所述的方法,其特征在于,所述半监督微调阶段的图片分割神经网络模型包括特征提取网络f、输出模块Hseg、判别器d;所述判别器通过学习图片中每个像素的标注不确定性来预测每个像素是否被标注,通过设定阈值将置信度高的区域选择出来作为伪标签;将伪标签与原数据已标注区域的真实标签进行融合,利用融合得到的标签对网络的语义分割预测结果进行约束,进行端到端的训练。
6.根据权利要求5所述的方法,其特征在于,所述半监督微调阶段的训练过程分为两步:
第一步即训练前期的总函数损失项为:
L=λceLcediceLdice
其中,Lce为分割预测交叉熵损失函数项,Ldice为优化判别器二分类预测的损失函数项,λce和λdice为权重值;
Figure FDA0003698563780000021
其中,
Figure FDA0003698563780000028
表示网络对位于(h,w)位置的像素的预测概率中属于类别cj的概率,ci为该位置的像素的真实标签,Ex表示所有训练样本图片的像素的均值,Eh,w表示一张训练样本图片的所有像素的均值,C表示数据集定义的标签中不同类别的数量;
Figure FDA0003698563780000022
其中,ph,w为判别器d输出的位于(h,w)处的像素的确定性,q为关于整张图像的不确定性标签,qh,w为位于(h,w)处的像素的标签值,若该像素被标注则为1,否则为0;
第二步即训练后期加入Lpseudo损失,即总函数损失项为:
L=λceLcediceLdicepseudoLpseudo
其中,Lpseudo为基于伪标签的未标注区域预测交叉熵损失函数项,λpseudo为权重值。
7.根据权利要求6所述的方法,其特征在于,所述Lpseudo损失为:
Figure FDA0003698563780000023
其中,
Figure FDA0003698563780000024
表示网络对位于(h,w)位置的像素的预测概率中属于类别cj的概率,
Figure FDA0003698563780000025
表示网络对位于(h,w)位置的像素的预测概率中属于类别
Figure FDA0003698563780000026
的概率,
Figure FDA0003698563780000027
为该位置像素的预测伪标签。
8.一种联合自监督学习和半监督学习的地外图片分割系统,其特征在于,包括:
训练数据收集模块,用于收集地外图片训练数据;
自监督预训练模块,用于利用地外图片训练数据进行自监督预训练,以学习图片掩码区域的颜色特征和纹理特征,得到自监督预训练阶段的神经网络模型;
半监督微调模块,用于利用地外图片中未标注部分的信息对自监督预训练阶段的神经网络模型进行微调和训练,得到半监督微调阶段的图片分割神经网络模型;
语义分割模块,用于将待分割图片输入训练完成的半监督微调阶段的图片分割神经网络模型,得到语义分割结果。
9.一种电子装置,其特征在于,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序被配置为由所述处理器执行,所述计算机程序包括用于执行权利要求1~7中任一项所述方法的指令。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储计算机程序,所述计算机程序被计算机执行时,实现权利要求1~7中任一项所述的方法。
CN202210687676.7A 2022-06-16 2022-06-16 一种联合自监督学习和半监督学习的地外图片分割方法和系统 Pending CN115240024A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210687676.7A CN115240024A (zh) 2022-06-16 2022-06-16 一种联合自监督学习和半监督学习的地外图片分割方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210687676.7A CN115240024A (zh) 2022-06-16 2022-06-16 一种联合自监督学习和半监督学习的地外图片分割方法和系统

Publications (1)

Publication Number Publication Date
CN115240024A true CN115240024A (zh) 2022-10-25

Family

ID=83670431

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210687676.7A Pending CN115240024A (zh) 2022-06-16 2022-06-16 一种联合自监督学习和半监督学习的地外图片分割方法和系统

Country Status (1)

Country Link
CN (1) CN115240024A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115471662A (zh) * 2022-11-03 2022-12-13 深圳比特微电子科技有限公司 语义分割模型的训练方法、识别方法、装置和存储介质
CN115690100A (zh) * 2022-12-28 2023-02-03 珠海横琴圣澳云智科技有限公司 半监督信号点检测模型训练方法、信号点检测方法和装置
CN117110217A (zh) * 2023-10-23 2023-11-24 安徽农业大学 一种立体化水质监测方法及系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115471662A (zh) * 2022-11-03 2022-12-13 深圳比特微电子科技有限公司 语义分割模型的训练方法、识别方法、装置和存储介质
CN115471662B (zh) * 2022-11-03 2023-05-02 深圳比特微电子科技有限公司 语义分割模型的训练方法、识别方法、装置和存储介质
CN115690100A (zh) * 2022-12-28 2023-02-03 珠海横琴圣澳云智科技有限公司 半监督信号点检测模型训练方法、信号点检测方法和装置
CN117110217A (zh) * 2023-10-23 2023-11-24 安徽农业大学 一种立体化水质监测方法及系统
CN117110217B (zh) * 2023-10-23 2024-01-12 安徽农业大学 一种立体化水质监测方法及系统

Similar Documents

Publication Publication Date Title
Gao et al. Cnn-based density estimation and crowd counting: A survey
CN110334705B (zh) 一种结合全局和局部信息的场景文本图像的语种识别方法
WO2022000426A1 (zh) 基于孪生深度神经网络的动目标分割方法及系统
CN109543695B (zh) 基于多尺度深度学习的泛密度人群计数方法
US9852344B2 (en) Systems and methods for semantically classifying and normalizing shots in video
Farabet et al. Scene parsing with multiscale feature learning, purity trees, and optimal covers
CN110717526B (zh) 一种基于图卷积网络的无监督迁移学习方法
Endres et al. Category-independent object proposals with diverse ranking
CN107247956B (zh) 一种基于网格判断的快速目标检测方法
CN115240024A (zh) 一种联合自监督学习和半监督学习的地外图片分割方法和系统
CN112883839B (zh) 基于自适应样本集构造与深度学习的遥感影像解译方法
Chen et al. Corse-to-fine road extraction based on local Dirichlet mixture models and multiscale-high-order deep learning
CN113297972B (zh) 一种基于数据融合深度学习的变电站设备缺陷智能分析方法
CN112699953A (zh) 基于多信息路径聚合的特征金字塔神经网络架构搜索方法
CN114693924A (zh) 一种基于多模型融合的道路场景语义分割方法
CN110929099A (zh) 一种基于多任务学习的短视频帧语义提取方法及系统
CN112183464A (zh) 基于深度神经网络和图卷积网络的视频行人识别方法
CN116129286A (zh) 基于知识图谱的图神经网络遥感图像分类方法
Sun et al. Exploiting deeply supervised inception networks for automatically detecting traffic congestion on freeway in China using ultra-low frame rate videos
Qin et al. Application of video scene semantic recognition technology in smart video
Saffar et al. Semantic video segmentation: A review on recent approaches
Ates et al. Multi-hypothesis contextual modeling for semantic segmentation
Alsaedi et al. Design and Simulation of Smart Parking System Using Image Segmentation and CNN
CN115410131A (zh) 一种用于短视频智能分类的方法
Shi et al. Fuzzy support tensor product adaptive image classification for the internet of things

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination