CN114998360A - 一种基于SUnet算法的脂肪细胞祖细胞分割方法 - Google Patents
一种基于SUnet算法的脂肪细胞祖细胞分割方法 Download PDFInfo
- Publication number
- CN114998360A CN114998360A CN202210635362.2A CN202210635362A CN114998360A CN 114998360 A CN114998360 A CN 114998360A CN 202210635362 A CN202210635362 A CN 202210635362A CN 114998360 A CN114998360 A CN 114998360A
- Authority
- CN
- China
- Prior art keywords
- layer
- patch
- swin
- layers
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于SUnet算法的脂肪细胞祖细胞分割方法,包括以下步骤,获取各个生长阶段未染色脂肪细胞祖细胞的明场图像,作为训练数据集;对训练数据集进行数据增强,原始实验数据为训练集:验证集=4:1。通过翻转、旋转、镜像等一系列数据增强方法对数据增强了3倍;构建分割模型;训练模型;利用训练好的图像分割模型和图像分割模型对待检测图像进行预测,从而有效解决脂肪细胞祖细胞分割问题。
Description
技术领域
本发明是一种图像处理、分割领域的技术,具体是一种基于深度学习模型对脂肪细胞祖细胞进行分割计数的方法。
背景技术
依靠传统畜牧业的肉类生产手段与资源环境之间的矛盾越来越突出,传统畜牧业生产方式消耗资源多,污染气体排放量大。细胞培养肉技术是近二十年来兴起的一项肉类生产的重大创新技术,此项技术可部分取代一些传统的畜牧业生产肉类,它是一种未来食品生产的潜在代替技术。脂肪作为培养肉核心材料对产品能否替代传统肉起到非常重要的作用。脂肪细胞祖细胞为研究脂肪细胞增殖分化提供了非常有用的体外细胞模型。皮下脂肪组织(SAT)和内脏脂肪组织(VAT)中的白色和米色脂肪细胞通过脂肪祖细胞(APC)的增殖和分化来维持。
在培养脂肪细胞祖细胞的过程中,依靠传统的细胞染色计数方法是一种耗时耗力的行为,有些细胞染色剂甚至会损伤细胞。因此,在细胞培养肉中急需一种高通量的脂肪祖细胞计数方法。此外,由于脂肪细胞祖细胞形态差异较大且在生长过程中存在细胞粘连的现象,这使得计数准确率与效率大大下降。
深度学习是近年来热门的研究方向,它在计算机视觉与自然语言处理等领域都有很多的应用案例。兴起的计算机视觉和机器学习的最新进展为一系列算法奠定了基础,这些高效率的算法具有强劲的图像解读能力。各种新型的深度学习算法正在被应用于生物图像处理,并且正在改变着成像数据的解释。在之前的众多研究中,卷积神经网络(CNN)在计算机视觉领域取得了里程碑式的进展,并且凭借着优异的性能在多种医学图像处理任务中获得了优秀的成绩。但是,因为卷积操作的局限性所限,它无法学习全局信息,完成非近端的信息交互。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于SUnet模型对脂肪细胞祖细胞进行分割的方法,分割后的图像可采用现有软件实现计数,明显减少了脂肪细胞祖细胞人工计数的耗时,增大了细胞计数的效率。除此之外,分割后的细胞形态分析可用于潜在高分泌蛋白细胞的筛选以及细胞生长状态的定量分析。它的分割方法如下:首先对细胞图片和标注图片进行预处理,将进行预处理后的细胞图片及其对应的标注图片分为训练集、验证集和测试集;利用训练集训练网络,用验证集对训练后的网络模型进行评估并保存最好的模型;将测试集的图片输入至评估结果最好的模型进行分割得到预测图片,最后对分割的效果进行评价。
技术方案:为了实现上述发明目的,本发明提供了一种基于SUnet算法的脂肪细胞祖细胞分割方法,包括以下步骤:
步骤一:获取各个生长阶段未染色脂肪细胞祖细胞的明场图像,作为训练数据集。数据集的制备由labelme软件标注而成;
步骤二:对训练数据集进行数据增强,原始实验数据为训练集:验证集=4:1。本文通过翻转、旋转、镜像等一系列数据增强方法对数据增强了3倍;
步骤三,构建分割模型;
步骤四,训练模型;
步骤五,利用训练好的图像分割模型和图像分割模型对待检测图像进行分割得到二值化分类图像。
进一步的,构建数据预处理模块,此模块的输入为原始图像,图像大小为H*W*3;此模块的输出是一个大小为H/4*W/4*96的特征图。
进一步的,上述数据增强包括对原始输入图像进行等比例的缩放,使原图等比例缩放到固定尺寸;也包括对原始输入图像进行旋转、翻转和镜像。
进一步的,在本发明中:所述细胞图像分割模型是基于SUnet网络模型构建的,整个SUnet网络框架可以分为以下部分:Encoder(左侧部分),Decoder(右侧部分),Bottleneck(中间底部)以及SkipConnection(中间横线部分)。
进一步的,SUnet的基本单元是Swin Transformer模块。对于Encoder模块,为了将输入转换为序列嵌入,将输入图像分割成大小为4×4的Patch。通过这种划分方法,每个patch的特征维数变为4×4×3=48。投影的特征维度应用线性嵌入层,转换后的patch经过Swin Transformer块和Patch Merging层生成分层特征表示。其中,Patch Merging层下采样和增加维度,Swin Transformer块进行特征学习。此外,含有一种基于对称Transformer的Decoder模块。该模块由Swin Transformer块和Patch Expanding层组成。Encoder模块提取的上下文特征通过Skip Connection与Decoder的多尺度特征融合,弥补降采样造成的空间信息丢失。Patch Expanding层被设计用于执行上采样。Patch Expanding层通过2×上采样分辨率将相邻维度的特征地图重塑为一个大的特征地图。最后,利用最后一个PatchExpanding层进行4×上采样,将特征映射的分辨率恢复到输入分辨率(H×W)。
进一步的,上述网络模型的训练选择以交叉熵和dice-loss构成的损失函数作为模型的评价指标,当损失函数收敛并趋于稳定时停止训练。将上述输出结果经过SoftMax层,对结果进行二值化处理,最终得到仅含有背景和预测分割结果的图像。与现有技术相比,本发明的有益效果为:一、通过U-Net网络模型与Swin Transformer网络模型实现脂肪细胞祖细胞的自动分割,能够提高准确性;二、能够准确、有效地分割粘连细胞,便于快速操作,稳定性高。
附图说明
为了易于说明,本发明由下述的具体实施及附图作以详细描述。
图1是本发明的流程框图;
图2是本发明的SUnet网络架构模型;
图3是本发明的SwinBlock模块的流程图;
图4是本发明实际预测效果图。
具体实施方式
下面结合附图和实施例方式对本发明进行说明:
本发明主要根据Swin Transformer模型与U-net网络模型结合而提出一种脂肪细胞祖细胞分割方法。本发明中,将Swin Transformer模型与U-net网络模型结合,得到一种可学习全局信息同时适用于小样本数据集的脂肪细胞祖细胞分割网络模型。
将输入的医学图像分割成不重叠的图像patch。每个patch都被视为一个token,并被输入到基于Transformer的Encoder中,以学习深度特征表示。提取的上下文特征由PatchExpanding层的Decoder上采样,通过Skip Connection与Encoder层之间的多尺度特征融合,恢复特征图的空间分辨率,进一步进行分割预测得出二值化处理后的分割图像。
本发明的方法,利用上述的网络框架,结合图1,按照以下步骤具体实施:
步骤1,获取不同培养阶段的脂肪细胞祖细胞明场图像,成像设备为ImageXpressMicro4;其中,获取到图像为RGB三通道图像。将所述训练集的原始图像经labelme标注后获得与原图像一一对应的标注图像。图像中与目标区域无关且干扰训练的区域除去,以此避免图像训练网络导致过拟合的问题。
步骤2,对训练数据集进行数据增强;
具体的,具体就是将原始图像及其手工标注结果进行水平,垂直翻折与旋转的变换。将原图像分别按照垂直和水平方向进行翻折。从而将每张图像都扩充成了3张图像,进而重新形成了训练数据集。每张图像所对应的真实标签也进行相同的变换,与数据集中的图像数据一一对应。进行数据增强后再训练可以提高模型的泛化能力。
步骤3,构建图像分割模型;
SUnet是基于Transformer的U-Net形态的图像分割网络,与传统的U-Net结构不同的是,它是用于小样本数据集图像分割的形似U-net的Transformer。本发明图像分割模型基于Swin Transformer网络构建,结合图2,该模型利用Swin Transformer构建Encoder模块、Bottleneck模块和Decoder模块,经标记化的图像块则通过跳跃连接被送到基于SwinTransformer的U形Encoder-Decoder模块中,来进行局部以及全局的特征信息学习。
Encoder由输入层、Patch Embedding层、3个Swin Block层和与3个Patch Merging层连接组成,其中,SwinBlock层和Patch Merging层交替连接,Patch Embedding层采用卷积核大小为4、步长为4、padding为0的卷积与SwinBlock层相连接,Swin Block层采用自注意力模块和Patch Merging层连接,Patch Merging层采用MLP层和LayerNorm操作与SwinBlock层相连,Encoder的最后一个Patch Merging层与Bottleneck层连接。
如图3所示,Bottleneck层由2个SwinBlock层依次连接组成,每一个Swin Block模块包含一个LN层、一个MSA模块、使用残差连接、然后在经过一次LayerNorm和2层的MLP,激活函数使用的是GELU。SW-MAS:Swin block中连续的block会依次交替的使用W-MSA和SW-MAS,SW-MSA和W-MSA的不同之处在于会将window进行shift,这样可以让相邻的window之间产生交互以获得邻近和全局信息。
Decoder是由3个间隔连接的Patch Expanding层、3个间隔连接的Swin Block层、Patch Projection层以及输出层相连接组成,Decoder的第一个Patch Expanding层与Bottleneck层的第二个Swin Block层连接,其中,Patch Expanding层和Swin Block层交替相连,Patch Expanding层利用MLP层和LayerNorm操作与Swin Block层相连,Swin Block层利用自注意力层与Patch Projection层连接,Patch Projection层利用卷积核为1、步长为1、填充为0的卷积与输出层相连;
Encoder的3个Swin Block层与Decoder的3个Swin Block层一一对应连接。SwinBlock层由LayerNorm层、W-MSA层、SW-MSA层、MLP层组成,LayerNorm层是通道归一化操作,W-MSA层和SW-MSA层都由2个MLP层组成,并在MLP层后加入了激活函数SoftMax,SW-MSA在激活函数SoftMax后加入了移位和切片操作,在2个MLP层间加入了激活函数GELU,按照以下方式连接:输入特征zl-1先经过LayerNorm层,再经过W-MSA层,接着经过相加操作得到,接着经过LayerNorm层、MLP层和相加操作得到zl,然后再经过LN层、SW-MSA层和相加操作得到最后经过LayerNorm层、MLP层和相加操作得到输出特征zl+1,过程如式(1)(2)(3):
其中,LN(g)对应层归一化网络层;MLP(g)表示包含有激活函数GELU的多层感知机;和Zl分别表示SW-MSA模块和第l块的MLP模块的输出,W1、W2表示权重系数,b1、b2为偏置系数,表示MLP模块输入的特征值,XMLP表示MLP输出的特征值。
下式(2)为层归一化LN的计算公式:
其中,μ、δ为特征的均值与标准差;⊙是点乘操作;γ、β为可学习变换参数;H是同一序列数据的隐藏神经元数。
窗口多头自注意力层和移位窗口多头自注意力层是在每个窗口中计算自注意力Attention(Q,K,V),如式(3):
式中,Q,K,V分别表示查询矩阵、键矩阵、值矩阵,d表示矩阵的维度,B表示偏置矩阵,SoftMax为激活函数。
基于具有h×w个patch tokens的图像窗口的MSA模块和基于非重叠局部窗口的W-MSA模块的计算复杂度分别是:
其中,h、w分别为patchtoken的高和宽,M为局部窗口的大小,C为通道数大小。
经上采样,通过Skip Connection与Encoder的多尺度特征融合,恢复特征图的空间分辨率,进一步进行分割预测并进行二值化处理,本发明采用阈值为0.5:
式中,p为二值化图像的像素值,T为图像自适应阈值,ε为方差的系数。
步骤4,利用训练数据集对图像分割模型进行训练;
本发明网络模型在进行训练时的一些参数设置如下:batchsize为24,初始学习率为0.001。为保证整个网络在整个训练过程中能够迅速且稳定的收敛,随着训练迭代的进行,学习率以指数的形式进行衰减,衰减的公式为式(6)所示:
式中:iter_num为当前迭代数;max_iterations为总的迭代次数。
本发明中采用交叉熵和diceloss结合的损失函数,具体的如下式(7)所示:
本发明采用如下指标评估所述网络模型分割效果:
其中,TP代表正确识别目标像素的个数;TN代表正确识别背景物像素的个数;分子为两者之和;FP代表错误识别目标像素的个数;FN代表错误识别的背景像素的个数;分母为所有像素个数。
本次实施例采用的硬件系统为Ubuntu18.04,处理器为Intel(R)Xeon(R)Silver4210RCPU,机带RAM为32.0GB,上述软件编译环境为Pycharm,所用编程语言为python3.8,采用Pytorch深度学习框架。
本发明采用Swin Transformer和U-net网络模型结合的思想实现对脂肪细胞祖细胞进行分割,所述SUnet网络模型可以快速高效的在小样本数据集上学习图像的局部和全局信息,实现高准确率的对脂肪细胞祖细胞进行分割。
步骤5,输入待预测图像后,输出结果为只有预测脂肪细胞祖细胞的二值化图像,结果如图4所示。分割后的图像可采用现有软件实现计数。经验证,本发明可使时间成本可以大幅度减少。除此之外,分割后的细胞形态分析可用于高分泌蛋白细胞的筛选以及细胞生长状态的定量分析。
附专有名词中英文对照表:
Skip Connection:跳跃连接
SUnet:一种基于Swin Transformer和U-net的网络架构
Swin Transformer:Shifted WindowsTransformer
Encoder:编码器
Bottleneck:瓶颈层
Decoder:解码器
Swin Block:Swin Transformer模块
W-MSA:窗口多头自注意力
SW-MAS:移动窗口多头自注意力
LN:归一化层
MLP:多层感知机
patch tokens:补丁标记
应说明的是,以上所述实施例仅表达了本发明的部分实施方式,其描述并不能理解为对本发明专利范围的限制。应当指出的是,对于本技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干改进,这些均应落入本发明的保护范围。
Claims (8)
1.一种基于SUnet算法的脂肪细胞祖细胞分割方法,其特征在于,包括以下步骤:
步骤一:获取各个生长阶段未染色脂肪细胞祖细胞的明场图像,作为训练数据集;
步骤二:对训练数据集进行数据增强以扩充训练数据集;
步骤三,构建分割模型;
步骤四,训练模型;
步骤五,利用训练好的图像分割模型对待检测图像进行预测,获得二值化分类图像。
2.如权利要求1所述的基于SUnet算法的脂肪细胞祖细胞分割方法,其特征在于:
步骤一中,获取各个生长阶段未染色脂肪细胞祖细胞的明场图像,作为训练数据集;数据集中的所有图像均整理成特定大小的分辨率,图像格式均为.png。
3.如权利要求1所述的基于SUnet算法的脂肪细胞祖细胞分割方法,其特征在于:
步骤二中,数据增强具体就是将原始图像及其手工标注结果进行水平,垂直翻折与旋转的变换;将原图像分别按照垂直和水平方向进行翻折;从而将每张图像都扩充成了3张图像,进而重新形成了训练数据集。
4.如权利要求1所述的基于SUnet算法的脂肪细胞祖细胞分割方法,其特征在于:
步骤三中,分割模型基于Swin Transformer网络构建,该模型利用Swin Transformer构建Encoder模块、Bottleneck模块、Decoder模块和Swin Block层,经标记化的图像块则通过跳跃连接被送到基于Swin Transformer的U形Encoder-Decoder模块中,来进行局部以及全局的特征信息学习。
5.如权利要求4所述的基于SUnet算法的脂肪细胞祖细胞分割方法,其特征在于:
Encoder模块由输入层、Patch Embedding层、3个Swin Block层和与3个Patch Merging层连接组成,其中:SwinBlock层和Patch Merging层交替连接,Patch Embedding层采用卷积核大小为4、步长为4、padding为0的卷积与SwinBlock层相连接,Swin Block层采用自注意力模块和Patch Merging层连接,Patch Merging层采用MLP层和LayerNorm操作与SwinBlock层相连,Encoder的最后一个Patch Merging层与Bottleneck层连接;
Bottleneck层由2个SwinBlock层依次连接组成,每一个Swin Block模块包含一个LN层、一个MSA模块、使用残差连接、然后在经过一次LayerNorm和2层的MLP,激活函数使用的是GELU;Swin block中的模块会依次交替的使用窗口多头自注意力W-MSA和移位窗口多头自注意力SW-MAS;
Decoder模块是由3个间隔连接的Patch Expanding层、3个间隔连接的Swin Block层、Patch Projection层以及输出层相连接组成,Decoder的第一个Patch Expanding层与Bottleneck层的第二个Swin Block层连接,其中,Patch Expanding层和Swin Block层交替相连,Patch Expanding层利用MLP层和LayerNorm操作与Swin Block层相连,Swin Block层利用自注意力层与Patch Projection层连接,Patch Projection层利用卷积核为1、步长为1、填充为0的卷积与输出层相连;
Swin Block层由LayerNorm层、W-MSA层、SW-MSA层、MLP层组成。
6.如权利要求5所述的基于SUnet算法的脂肪细胞祖细胞分割方法,其特征在于:SwinBlock层执行以下操作:
其中,LN(g)对应层归一化网络层;MLP(g)表示包含有激活函数GELU的多层感知机;和Zl分别表示SW-MSA模块和第l块的MLP模块的输出;W1、W2表示权重系数,b1、b2为偏置系数,表示MLP模块输入的特征值,XMLP表示MLP模块输出的特征值;
下式为层归一化LN的计算公式:
其中,μ、δ为特征的均值与标准差;⊙是点乘操作;γ、β为可学习变换参数;H是同一序列数据的隐藏神经元数;
窗口多头自注意力W-MSA层和移位窗口多头自注意力SW-MAS层是在每个窗口中计算自注意力Attention(Q,K,V),如下式:
式中,Q,K,V分别表示查询矩阵、键矩阵、值矩阵,d表示矩阵的维度,B表示偏置矩阵,SoftMax为激活函数;
所述的基于具有h×w个patch tokens的图像窗口的MSA模块和基于非重叠局部窗口的W-MSA 模块的计算复杂度分别是:
Ω(MSA)=4hwC2+2(hw)2C
Ω(W-MSA)=4hwC2+2M2hwC
其中,h、w分别为patchtoken的高和宽,M为局部窗口的大小,C为通道数大小。
7.如权利要求1所述的基于SUnet算法的脂肪细胞祖细胞分割方法,其特征在于:
步骤四中,分割模型在进行训练时的参数设置如下:batchsize为24,初始学习率为0.001;为保证整个网络在整个训练过程中能够迅速且稳定的收敛,随着训练迭代的进行,学习率lr以指数的形式进行衰减,衰减的公式为下式所示:
式中:iter_num为当前迭代数;max_iterations为总的迭代次数;
损失函数L为采用交叉熵和diceloss结合的损失函数,具体的如下式所示:
8.如权利要求1所述的基于SUnet算法的脂肪细胞祖细胞分割方法,其特征为:
输入待预测图像后,输出结果为只有预测脂肪细胞祖细胞的二值化图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210635362.2A CN114998360A (zh) | 2022-06-07 | 2022-06-07 | 一种基于SUnet算法的脂肪细胞祖细胞分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210635362.2A CN114998360A (zh) | 2022-06-07 | 2022-06-07 | 一种基于SUnet算法的脂肪细胞祖细胞分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114998360A true CN114998360A (zh) | 2022-09-02 |
Family
ID=83033229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210635362.2A Pending CN114998360A (zh) | 2022-06-07 | 2022-06-07 | 一种基于SUnet算法的脂肪细胞祖细胞分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114998360A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115775226A (zh) * | 2022-10-08 | 2023-03-10 | 广州锟元方青医疗科技有限公司 | 基于Transformer的医学图像分类方法 |
CN116703885A (zh) * | 2023-06-30 | 2023-09-05 | 南京邮电大学 | 一种基于Swin Transformer的表面缺陷检测方法及系统 |
-
2022
- 2022-06-07 CN CN202210635362.2A patent/CN114998360A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115775226A (zh) * | 2022-10-08 | 2023-03-10 | 广州锟元方青医疗科技有限公司 | 基于Transformer的医学图像分类方法 |
CN115775226B (zh) * | 2022-10-08 | 2023-09-26 | 广州锟元方青医疗科技有限公司 | 基于Transformer的医学图像分类方法 |
CN116703885A (zh) * | 2023-06-30 | 2023-09-05 | 南京邮电大学 | 一种基于Swin Transformer的表面缺陷检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114120102A (zh) | 边界优化的遥感图像语义分割方法、装置、设备及介质 | |
CN114998360A (zh) | 一种基于SUnet算法的脂肪细胞祖细胞分割方法 | |
CN110648310A (zh) | 基于注意力机制的弱监督铸件缺陷识别方法 | |
Li et al. | A review of deep learning methods for pixel-level crack detection | |
CN111582506A (zh) | 基于全局和局部标记关系的偏多标记学习方法 | |
CN114299324B (zh) | 一种基于多尺度域对抗网络的病理图像分类方法及系统 | |
CN114821022A (zh) | 融合主观逻辑和不确定性分布建模的可信目标检测方法 | |
CN117540779A (zh) | 一种基于双源知识蒸馏的轻量化金属表面缺陷检测方法 | |
CN112884721A (zh) | 一种异常检测方法、系统及计算机可读存储介质 | |
Ha et al. | TensorMoG: A tensor-driven gaussian mixture model with dynamic scene adaptation for background modelling | |
CN115239613A (zh) | 基于集成深度学习的全视野数字切片图像分类建模方法及装置 | |
CN118279320A (zh) | 基于自动提示学习的目标实例分割模型建立方法及其应用 | |
CN118072965A (zh) | 一种基于自监督学习的病理大模型的构建方法 | |
CN116644193A (zh) | 信创环境下基于机器学习实现数据资产知识图谱构建的方法、装置、处理器及其存储介质 | |
Zhao et al. | Recognition and Classification of Concrete Cracks under Strong Interference Based on Convolutional Neural Network. | |
CN116486193A (zh) | 基于内容感知及自蒸馏结构的自监督算法训练方法和装置 | |
Elmezain et al. | Forward hand gesture spotting and prediction using HMM-DNN model | |
CN115861713A (zh) | 一种基于多任务学习的颈动脉斑块超声图像处理方法 | |
CN117011219A (zh) | 物品质量检测方法、装置、设备、存储介质和程序产品 | |
CN113837062A (zh) | 一种分类方法、装置、存储介质及电子设备 | |
CN113205149A (zh) | 图片处理方法及装置 | |
Torr et al. | DeepSplit: Segmentation of Microscopy Images Using Multi-Task Convolutional Networks | |
Coelho et al. | Fractional Calculus Meets Neural Networks For Computer Vision: A Survey | |
Olimov et al. | Unsupervised deep learning-based end-to-end network for anomaly detection and localization | |
CN116912623B (zh) | 用于医学图像数据集的对比学习方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |