CN116051840A - 一种基于生成对抗学习的半监督水下图像语义分割方法 - Google Patents

一种基于生成对抗学习的半监督水下图像语义分割方法 Download PDF

Info

Publication number
CN116051840A
CN116051840A CN202310059786.3A CN202310059786A CN116051840A CN 116051840 A CN116051840 A CN 116051840A CN 202310059786 A CN202310059786 A CN 202310059786A CN 116051840 A CN116051840 A CN 116051840A
Authority
CN
China
Prior art keywords
network
semi
training
image
supervised
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310059786.3A
Other languages
English (en)
Inventor
刘彦呈
郭筠
刘厶源
朱鹏莅
陈瀚
王帅
马匡旗
马欢
张勤进
郭昊昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Maritime University
Original Assignee
Dalian Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Maritime University filed Critical Dalian Maritime University
Priority to CN202310059786.3A priority Critical patent/CN116051840A/zh
Publication of CN116051840A publication Critical patent/CN116051840A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7753Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/05Underwater scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于生成对抗学习的半监督水下图像语义分割方法,包括:获取水下图像并划分为训练集、验证集和测试集,并对水下图像进行预处理;设计兼具Transformer全局自注意力机制和卷积神经网络底层细节和定位优势的混合编码分割器;构建半监督语义分割的生成对抗网络;利用半监督语义分割的生成对抗网络对训练集和验证集上进行训练,得到预测模型,并采用测试集对预测模型进行评估。本发明能够以较低的计算成本实现准确的图像分割,能更好的应用于水下图像语义分割任务,对水下航行器光视觉智能感知系统的发展具有重要的指导意义和应用价值。

Description

一种基于生成对抗学习的半监督水下图像语义分割方法
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于生成对抗学习的半监督水下图像语义分割方法。
背景技术
水下环境感知,特别是光学视觉感知,是水下航行器自主导航与作业的重要环节。图像语义分割作为水下环境感知的关键技术之一,其快速性、准确性和清晰性直接决定了环境感知的整体性能,高效、准确的水下图像语义分割算法,对水下航行器光视觉智能感知系统的发展具有重要的现实意义和应用价值。
基于深度学习的水下图像语义分割方法大多需要大量有标注的训练数据,且语义分割要求对每个训练图像进行精确的逐像素标注,再加上复杂水下环境中的目标具有难辨识性,使得图像手工标注需要高昂的人工和时间成本,加剧了获取大量标注数据的挑战性。面对这些问题,基于半监督学习的语义分割方法应运而生,即在缺乏大量手工标注的情况下,通过显式或隐式地注入某种形式的先验知识,减少对高质量数据的依赖,从而高效地进行语义分割任务。近几年,研究学者针对半监督语义分割展开广泛研究,提出了许多相关的半监督的语义分割算法,包括基于图滤波方法,多扩张卷积定位算法,以及交叉一致性训练算法。这些算法都可以从不同的角度实现半监督的语义分割,也取得了一定的发展,但分割精度仍无法满足水下作业任务的需求。因此,水下目标语义分割任务如何在图像数据量不足和图像质量较低的情况下,精确、快速、稳定地识别水下目标物体是亟待解决的问题。
发明内容
根据现有技术存在的问题,本发明公开了一种基于生成对抗学习的半监督水下图像语义分割方法,具体包括如下步骤:
获取水下图像并划分为训练集、验证集和测试集,并对水下图像进行预处理;
设计兼具Transformer全局自注意力机制和卷积神经网络底层细节和定位优势的混合编码分割器;
构建半监督语义分割的生成对抗网络;
利用半监督语义分割的生成对抗网络对训练集和验证集上进行训练,得到预测模型,并采用测试集对预测模型进行评估。
所述对水下图像进行预处理时:在两个已公开的水下数据集DUT和SUIM上进行划分,将两个数据集的有标注数据按照8:1:1的比例分为训练集、验证集和测试集,采用随机裁剪、随机镜像数据增广以及归一化方式对图像进行预处理。
所述混合编码分割器包括编码器和解码器,在编码器部分:将预处理后的图像输入CNN,通过三次下采样提取低纬度特征信息,经过线性映射将特征图分成多个序列化的块、并加上位置编码,输入重复堆叠的Transformer编码器来获取全局特征信息;在解码器部分,先将编码器输出的特征序列进行数据结构变形,将一维向量重塑为多维特征结构,采用卷积运算将通道数变换为512,再使用转置卷积操作进行上采样将图像尺寸变换为原来的2倍,每次上采样后都与编码器部分CNN获取的同级特征信息进行融合并降低特征维度,经过多次特征融合后,再经过一次上采样,数据恢复至和输入图像相同尺寸,最后通过特征分类层得到分割预测结果。
所述半监督语义分割的生成对抗网络包括分割网络和鉴别网络,采用重视全局信息的Transformer结构和底层图像特征的CNN的混合编码网络作为分割网络;经过训练的鉴别网络识别分割网络的预测结果并生成置信度图,将该置信度图作为监督信号,用于推断与真实标签分布足够接近的区域,设置一个阈值对这个置信度图进行二值化处理从而突出显示可信区域,将可信区域作为伪标签用于模型的自训练,通过对当前网络和前次迭代网络的性能进行比较获得当前最优模型。
采用半监督语义分割的生成对抗网络对训练集和验证集上进行训练,得到预测模型,并采用测试集对预测模型进行评估具体方式为:
设:分割网络S(·)输入尺寸H×W×3的彩色训练图像X,输出尺寸H×W×C的类别概率图S(X),而基于全卷积网络鉴别网络D(·),以分割网络输出的类别概率图或输入图像对应的真实标签作为输入,输出大小为H×W×1的置信度图;
在半监督设置下,同时使用有标注数据和无标注数据对网络进行训练,有标签数据通过最小化多分类标准交叉熵损失来训练语义分割网络,设计相应的半监督多分类交叉熵损失Lsemi,定义如下:
Figure BDA0004061057100000031
其中,I(·)是指示函数,用于高置信度的像素分类,Tsemi是控制自训练灵敏度的阈值,对置信度图进行二值化,用于权衡生成伪标签的可信度和数据量,如果
Figure BDA0004061057100000032
Figure BDA0004061057100000033
否则,
Figure BDA0004061057100000034
鉴别网络的训练贯穿整个半监督学习过程,且只使用有标注数据并应用二分类的对抗损失Ladv对鉴别网络进行全监督训练,定义如下:
Figure BDA0004061057100000035
其中,如果样本输入来自分割网络,则y=0;如果样本来自真实的标签,则y=1,D(S(X))(h,w)是训练数据X经过分割网络和鉴别网络后,在位置(h,w)处得到的置信度图,并且D(Ygt)(h,w)表示对应的真实标签Ygt经鉴别网络得到的在(h,w)处的置信度图。
由于采用了上述技术方案,本发明提供的一种基于生成对抗学习的半监督水下图像语义分割方法,该方法具有如下优点:将高性能的CNN-Transformer混合编码的分割网络引入生成对抗框架,充分利用CNN特征中的详细高分辨率空间信息和Transformer的全局相关性信息,能够显著提高水下图像分割的准确性;采取动态自训练学习策略,使用无标注数据进行半监督学习,可以有效降低水下数据集标注成本;本发明能够以较低的计算成本实现准确的图像分割,能更好的应用于水下图像语义分割任务,对水下航行器光视觉智能感知系统的发展具有重要的指导意义和应用价值。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明方法的生成网络整体框架图;
图2为本发明中的分割网络结构图;
图3为本发明的训练流程图;
图4为本发明在DUT数据集上的分割性能对比图。
图5为本发明在SUIM数据集上的分割性能对比图。
具体实施方式
为使本发明的技术方案和优点更加清楚,下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚完整的描述:
如图1所示的一种基于生成对抗学习的半监督水下图像语义分割方法,具体包括如下步骤:
S1、使用公开的水下数据集获取训练集、验证集和测试集,并进行预处理;
S2、设计兼具Transformer全局自注意力机制和卷积神经网络底层细节和定位优势的混合编码分割器;
S3、构建半监督语义分割的生成对抗网络;
S4、利用半监督语义分割的生成对抗网络在训练集和验证集上进行训练,得到预测模型,并在测试集上对模型进行评估。
进一步的,所述的使用公开的水下数据集获取训练集、验证集和测试集,并进行预处理,包括:
在两个已公开的水下数据集DUT和SUIM上进行划分时,将两个数据集的有标注数据都按照8:1:1的比例,分为训练集、验证集和测试集。在训练过程中的预处理方法,采用随机裁剪,再采用随机镜像数据增广操作,后将翻转后的图像进行归一化。
进一步的,所述的设计兼具Transformer全局自注意力机制和卷积神经网络底层细节和定位优势的混合编码分割器,如图2所示,包括:
分割网络结构分为编码器和解码器结构。在编码器部分,首先将原图输入CNN,通过三次下采样提取低纬度特征信息,经过线性映射将特征图分成16×16个序列化的块,并加上位置编码,然后输入重复堆叠12次的Transformer编码器来获取全局特征信息。在解码器部分,先将编码器输出的特征序列进行数据结构变形,将一维向量重塑为多维特征结构。然后使用1×1卷积将通道数变换为512,再使用转置卷积操作进行上采样将图像尺寸变换为原来的2倍,每次上采样后都与编码器部分CNN获取的同级特征信息进行融合并降低特征维度。经过3次特征融合后,再经过一次上采样,数据恢复至和输入图像相同尺寸。最后通过特征分类层,得到分割预测结果。
进一步的,所述的构建半监督语义分割的生成对抗网络,包括:
(1)分割网络:采用重视全局信息的Transformer结构和底层图像特征的CNN的混合编码网络作为分割网络,无需预训练。
(2)鉴别网络:
鉴别网络由5个卷积层组成,卷积核大小设置为4×4,通道数分别设置为64、128、256、512、1,跨步卷积设置步幅为2。除最后一层外,每个卷积层之后的非线性激活层都使用GeLU激活函数。在模型的最后一层添加上采样层,使用双线性插值法,输出维度为H×W×1的置信度图。
(3)自训练学习策略,如图3:经过训练的鉴别网络可以较好的识别分割网络的预测结果并生成置信度图。该置信度图可作为监督信号,用于推断与真实标签分布足够接近的区域。然后,设置一个阈值对这个置信度图进行二值化处理以突出显示可信区域。将这些可信区域作为伪标签用于模型的自训练,通过对当前模型和前次迭代模型的性能进行比较获得当前最优模型。
进一步的,所述的利用半监督语义分割的生成对抗网络在训练集和验证集上进行训练,得到预测模型,并在测试集上对模型进行评估,包括:
分割网络S(·)输入尺寸H×W×3的彩色训练图像X,输出尺寸H×W×C的类别概率图S(X)。而基于全卷积网络鉴别网络D(·),以分割网络输出的类别概率图或输入图像对应的真实标签作为输入,输出大小为H×W×1的置信度图。
分割网络训练:在半监督设置下,可以同时使用标记的和未标记的图像,通过最小化多分类损失函数Lseg来训练语义分割网络:
Lseg=LcepreLpresemiLsemi                             (1)
其中,Lce、Lpre和Lsemi分别表示多分类交叉熵损失、预测损失和半监督多分类交叉熵损失,λpre和λsemi是用于调节各项权重的两个超参数。
当使用标记的图像时,分割网络同时受到图像真实标签的标准交叉熵损失函数和预测损失Lpre的监督;
Figure BDA0004061057100000051
预测损失为:
Figure BDA0004061057100000061
当使用未标记的图像时,使用提出的半监督方法训练分割网络;在获得未标记图像的原始的分割预测值之后,把分割预测值输入鉴别网络以获取置信图;使用自训练学习策略把该置信图当作监督信号,迭代训练带有标记的交叉熵损失函数的分割网络。
半监督多分类交叉熵损失Lsemi的定义如下:
Figure BDA0004061057100000062
在全监督训练完成后,分割网络已经具备初步的分割能力,鉴别网络也获得了更好的判别性能。随后,同时使用有标注数据和无标注数据进行训练,由于无标注的数据没有真实的标签信息,故不使用交叉熵损失Lce,但是预测损失Lpre仍然适用,只是要选择一个比有标注数据更小的合适的λpre
进一步地,所述的鉴别网络训练,最小化关于两个类别的交叉熵损失函数;鉴别网络把一个控制通路的概率图像作为其输入;为了把带有离散标签值的实况标签图像转换成为控制通路的概率图像,在实况标签图像上采用独热编码程序;如果
Figure BDA0004061057100000063
Figure BDA0004061057100000064
否则,
Figure BDA0004061057100000065
Figure BDA0004061057100000066
其中,如果样本输入是来自分割网络,则y=0;如果样本来自真实的标签,则y=1。此外,D(S(X))(h,w)是训练数据X经过分割网络和鉴别网络后,在位置(h,w)处得到的置信度图,并且D(Ygt)(h,w)表示训练数据X对应的经过独热编码后的标签Ygt,经由鉴别网络得到的在(h,w)处的置信度图。
使用通用的语义分割评价指标平均交并比(Mean Intersection over Union,mIoU)来对图像的分割准确度进行性能定量分析以及定性比较。DUT数据集和SUIM数据集的定量对比结果分别如表1、表2所示,对应的定性对比结果分别如图4、5所示,图4中第一列为原始图像,第二列是手工标注的标签图像,FCN、DeeplabV3、LR ASPP和TransUNet是现有全监督方法的分割结果,SUISS为本发明方法的分割结果。图5中第一列为原始图像,第二列是手工标注的标签图像,FCN、DeeplabV3、LR ASPP和TransUNet是现有全监督方法的分割结果,SUISS为本发明方法的分割结果。
本发明方法得到的最终分割结果精度比现有的方法得到的分割结果具有较大提升。
表1DUT数据集实验结果对比
Figure BDA0004061057100000071
表2SUIM数据集实验结果对比
Figure BDA0004061057100000072
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (5)

1.一种基于生成对抗学习的半监督水下图像语义分割方法,其特征在于包括:
获取水下图像并划分为训练集、验证集和测试集,并对水下图像进行预处理;
设计兼具Transformer全局自注意力机制和卷积神经网络底层细节和定位优势的混合编码分割器;
构建半监督语义分割的生成对抗网络;
利用半监督语义分割的生成对抗网络对训练集和验证集上进行训练,得到预测模型,并采用测试集对预测模型进行评估。
2.根据权利要求1所述的一种基于生成对抗学习的半监督水下图像语义分割方法,其特征在于:所述对水下图像进行预处理时:在两个已公开的水下数据集DUT和SUIM上进行划分,将两个数据集的有标注数据按照8:1:1的比例分为训练集、验证集和测试集,采用随机裁剪、随机镜像数据增广以及归一化方式对图像进行预处理。
3.根据权利要求1所述的一种基于生成对抗学习的半监督水下图像语义分割方法,其特征在于:所述混合编码分割器包括编码器和解码器,在编码器部分:将预处理后的图像输入CNN,通过三次下采样提取低纬度特征信息,经过线性映射将特征图分成多个序列化的块、并加上位置编码,输入重复堆叠的Transformer编码器来获取全局特征信息;在解码器部分,先将编码器输出的特征序列进行数据结构变形,将一维向量重塑为多维特征结构,采用卷积运算将通道数变换为512,再使用转置卷积操作进行上采样将图像尺寸变换为原来的2倍,每次上采样后都与编码器部分CNN获取的同级特征信息进行融合并降低特征维度,经过多次特征融合后,再经过一次上采样,数据恢复至和输入图像相同尺寸,最后通过特征分类层得到分割预测结果。
4.根据权利要求1所述的一种基于生成对抗学习的半监督水下图像语义分割方法,其特征在于:所述半监督语义分割的生成对抗网络包括分割网络和鉴别网络,采用重视全局信息的Transformer结构和底层图像特征的CNN的混合编码网络作为分割网络;经过训练的鉴别网络识别分割网络的预测结果并生成置信度图,将该置信度图作为监督信号,用于推断与真实标签分布足够接近的区域,设置一个阈值对这个置信度图进行二值化处理从而突出显示可信区域,将可信区域作为伪标签用于模型的自训练,通过对当前网络和前次迭代网络的性能进行比较获得当前最优模型。
5.根据权利要求1所述的一种基于生成对抗学习的半监督水下图像语义分割方法,其特征在于:采用半监督语义分割的生成对抗网络对训练集和验证集上进行训练,得到预测模型,并采用测试集对预测模型进行评估具体方式为:
设:分割网络S(·)输入尺寸H×W×3的彩色训练图像X,输出尺寸H×W×C的类别概率图S(X),而基于全卷积网络鉴别网络D(·),以分割网络输出的类别概率图或输入图像对应的真实标签作为输入,输出大小为H×W×1的置信度图;
在半监督设置下,同时使用有标注数据和无标注数据对网络进行训练,有标签数据通过最小化多分类标准交叉熵损失来训练语义分割网络,设计相应的半监督多分类交叉熵损失Lsemi,定义如下:
Figure FDA0004061057090000021
其中,I(·)是指示函数,用于高置信度的像素分类,Tsemi是控制自训练灵敏度的阈值,对置信度图进行二值化,用于权衡生成伪标签的可信度和数据量,如果
Figure FDA0004061057090000022
Figure FDA0004061057090000023
否则,
Figure FDA0004061057090000024
鉴别网络的训练贯穿整个半监督学习过程,且只使用有标注数据并应用二分类的对抗损失Ladv对鉴别网络进行全监督训练,定义如下:
Figure FDA0004061057090000025
其中,如果样本输入来自分割网络,则y=0;如果样本来自真实的标签,则y=1,D(S(X))(h,w)是训练数据X经过分割网络和鉴别网络后,在位置(h,w)处得到的置信度图,并且D(Ygt)(h,w)表示对应的真实标签Ygt经鉴别网络得到的在(h,w)处的置信度图。
CN202310059786.3A 2023-01-17 2023-01-17 一种基于生成对抗学习的半监督水下图像语义分割方法 Pending CN116051840A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310059786.3A CN116051840A (zh) 2023-01-17 2023-01-17 一种基于生成对抗学习的半监督水下图像语义分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310059786.3A CN116051840A (zh) 2023-01-17 2023-01-17 一种基于生成对抗学习的半监督水下图像语义分割方法

Publications (1)

Publication Number Publication Date
CN116051840A true CN116051840A (zh) 2023-05-02

Family

ID=86121716

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310059786.3A Pending CN116051840A (zh) 2023-01-17 2023-01-17 一种基于生成对抗学习的半监督水下图像语义分割方法

Country Status (1)

Country Link
CN (1) CN116051840A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116402838A (zh) * 2023-06-08 2023-07-07 吉林大学 一种用于颅内出血的半监督图像分割方法及系统
CN116664846A (zh) * 2023-07-31 2023-08-29 华东交通大学 基于语义分割实现3d打印桥面施工质量监测方法及系统
CN116824146A (zh) * 2023-07-05 2023-09-29 深圳技术大学 一种小样本ct图像分割方法、系统、终端及存储介质
CN116912699A (zh) * 2023-09-06 2023-10-20 交通运输部天津水运工程科学研究所 一种基于图像处理的港口溢油扩散趋势预测方法及系统
CN117115448A (zh) * 2023-10-23 2023-11-24 临沂大学 基于深度神经网络的图像语义分割方法、装置及设备
CN117110250A (zh) * 2023-10-25 2023-11-24 南昌大学 一种深度学习辅助的物质定量分析方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116402838A (zh) * 2023-06-08 2023-07-07 吉林大学 一种用于颅内出血的半监督图像分割方法及系统
CN116402838B (zh) * 2023-06-08 2023-09-15 吉林大学 一种用于颅内出血的半监督图像分割方法及系统
CN116824146A (zh) * 2023-07-05 2023-09-29 深圳技术大学 一种小样本ct图像分割方法、系统、终端及存储介质
CN116824146B (zh) * 2023-07-05 2024-06-07 深圳技术大学 一种小样本ct图像分割方法、系统、终端及存储介质
CN116664846A (zh) * 2023-07-31 2023-08-29 华东交通大学 基于语义分割实现3d打印桥面施工质量监测方法及系统
CN116664846B (zh) * 2023-07-31 2023-10-13 华东交通大学 基于语义分割实现3d打印桥面施工质量监测方法及系统
CN116912699A (zh) * 2023-09-06 2023-10-20 交通运输部天津水运工程科学研究所 一种基于图像处理的港口溢油扩散趋势预测方法及系统
CN116912699B (zh) * 2023-09-06 2023-12-05 交通运输部天津水运工程科学研究所 一种基于图像处理的港口溢油扩散趋势预测方法及系统
CN117115448A (zh) * 2023-10-23 2023-11-24 临沂大学 基于深度神经网络的图像语义分割方法、装置及设备
CN117115448B (zh) * 2023-10-23 2024-01-30 临沂大学 基于深度神经网络的图像语义分割方法、装置及设备
CN117110250A (zh) * 2023-10-25 2023-11-24 南昌大学 一种深度学习辅助的物质定量分析方法
CN117110250B (zh) * 2023-10-25 2024-02-09 南昌大学 一种深度学习辅助的物质定量分析方法

Similar Documents

Publication Publication Date Title
CN116051840A (zh) 一种基于生成对抗学习的半监督水下图像语义分割方法
Rani et al. Object detection and recognition using contour based edge detection and fast R-CNN
CN111738363B (zh) 基于改进的3d cnn网络的阿尔茨海默病分类方法
CN111160311A (zh) 基于多注意力机制双流融合网络的黄河冰凌语义分割方法
CN114926746A (zh) 基于多尺度差分特征注意力机制的sar图像变化检测方法
CN116665176B (zh) 一种面向车辆自动驾驶的多任务网络道路目标检测方法
CN103714148B (zh) 基于稀疏编码分类的sar图像检索方法
CN113450313B (zh) 一种基于区域对比学习的图像显著性可视化方法
CN116563680B (zh) 基于高斯混合模型的遥感图像特征融合方法、电子设备
CN118097340B (zh) 一种车道图像分割模型的训练方法、系统、设备及介质
CN114743109A (zh) 多模型协同优化高分遥感图像半监督变化检测方法及系统
CN117011616B (zh) 一种图像内容审核方法、装置、存储介质和电子设备
CN115131313A (zh) 基于Transformer的高光谱图像变化检测方法及装置
CN115147601A (zh) 基于自注意力全局特征增强的城市街道点云语义分割方法
CN117635628B (zh) 一种基于上下文注意力和边界感知引导的海陆分割方法
Triess et al. A realism metric for generated lidar point clouds
Huang et al. Ship detection based on YOLO algorithm for visible images
Rajagopal et al. A hybrid Cycle GAN-based lightweight road perception pipeline for road dataset generation for Urban mobility
CN117829243A (zh) 模型训练方法、目标检测方法、装置、电子设备及介质
CN114187569B (zh) 一种皮尔森系数矩阵与注意力融合的实时目标检测方法
Parekhji et al. Comparing GANs for translating satellite images to maps
CN118314353B (zh) 一种基于双分支多尺度特征融合的遥感图像分割方法
CN118071742B (zh) 一种基于标签引导扩散模型的特征级虚拟多模态融合方法
CN118314148B (zh) 文本引导的图像检测方法、系统、设备、介质和程序产品
CN118365651B (zh) 光伏板热斑缺陷的识别方法、装置、电子设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination