CN117765252A - 一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法 - Google Patents

一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法 Download PDF

Info

Publication number
CN117765252A
CN117765252A CN202311668278.1A CN202311668278A CN117765252A CN 117765252 A CN117765252 A CN 117765252A CN 202311668278 A CN202311668278 A CN 202311668278A CN 117765252 A CN117765252 A CN 117765252A
Authority
CN
China
Prior art keywords
swin
image
breast cancer
transducer
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311668278.1A
Other languages
English (en)
Inventor
李小松
徐宇燊
王晓磐
谭海曙
程晓琦
陈健伸
易鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foshan University
Original Assignee
Foshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foshan University filed Critical Foshan University
Priority to CN202311668278.1A priority Critical patent/CN117765252A/zh
Publication of CN117765252A publication Critical patent/CN117765252A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明公开了一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法,属于乳腺癌识别系统技术领域,获取乳腺癌X光图像数据,将图像裁剪成为224x224的三通道图像,得到裁剪后的乳腺癌X光图像数据,搭建Swin Transformer网络,引入SwinCLR框架,使用Simclr框架对于Swin Transformer模型进行没有标签数据集的预训练后,使用有标签的数据集对Swin Transformer模型进行监督学习的训练,输出对于输入的X光片,乳腺癌的患病概率数据,该方法将SimCLR算法和Swin Transformer的优点进行了独特的混合,专门为乳腺癌的有效检测进行了优化,SwinCLR模型不仅充分利用了未标记数据,还显著提高了乳腺癌识别的准确性和效率。

Description

一种基于Swin Transformer和对比学习的乳腺癌识别系统及 方法
技术领域
本发明涉及一种乳腺癌识别系统,特别是涉及一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法,属于乳腺癌识别系统技术领域。
背景技术
乳腺癌作为全球女性死亡率极高的癌症类型之一,对女性健康构成了巨大的威胁,乳房X光摄影虽然在一定程度上有助于早期发现乳腺癌,但其准确性和效率仍有待提高,近些年,Transformer模型因其在处理序列数据方面的卓越性能,逐渐受到医学影像领域的广泛关注,Swin Transformer,作为一种新型的视觉Transformer模型,通过采用非重叠移位窗口,已证实在各种视觉检测任务中表现出色,然而由于标记的乳腺癌X光数据稀缺,现有的深度学习模型在乳腺癌识别任务上的准确性和效率仍然受到限制,为此设计一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法来解决现有技术中存在的问题。
发明内容
本发明的主要目的是为了提供一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法。
本发明的目的可以通过采用如下技术方案达到:
一种基于Swin Transformer和对比学习的乳腺癌识别方法,包括如下步骤:
步骤一:获取乳腺癌X光图像数据;
步骤二:将图像裁剪成为224x224的三通道图像,得到裁剪后的乳腺癌X光图像数据;
步骤三:搭建Swin Transformer网络;
步骤四:引入SwinCLR框架,使用Simclr框架对于Swin Transformer模型进行没有标签数据集的预训练后,使用有标签的数据集对Swin Transformer模型进行监督学习的训练;
步骤五:输出对于输入的X光片,乳腺癌的患病概率数据。
优选的,步骤三中具体搭建Swin Transformer网络采用如下步骤:
步骤S11:将大小为224×224×3的RGB图像分割为初始大小为4×4的小块,且每个图像块的尺寸为4×4×3=48;
步骤S12:将线性嵌入层应用于大小为48的原始特征张量,将其投影到任意特征维度C;
步骤S13:在这些大小为C的块线性嵌入层上,部署增强自注意力机制的SwinTransformer块,保持token数量等于H/4×W/4;
步骤S14:在线性嵌入层上再加上Swin Transformer块,共同构成了SwinTransformer架构的第一阶段;
步骤S15:为实现分层表示从Swin Transformer架构的第二阶段开始,通过补丁合并层减少补丁的数量;
步骤S16:在第二阶段的块合并层中,将每组2×2相邻块的特征连接起来,并对连接起来的4C维特征应用一个线性层;
步骤S17:将patch的数量减少4倍,并且线性层的输出深度设置为2C,对这些特征应用Swin Transformer块进行特征变换,使第二阶段的输出token数量保持H/8×W/8;
步骤S18:在第三阶段和第四阶段重复两次,输出分辨率分别为H/16×W/16和H/32×W/32。
优选的,在Swin Transformer的实现中,采用移位窗口划分过程,并通过公式(1)-(4)计算连续的Swin Transformer块;
zl=WMSA(LN(zl-1))+zl-1 (1);
其中,zl分别表示第l个块中的窗口多头自注意力和多层感知器模块的输出特征;
和zl+1表示第(l+1)个块中的WMSA和MLP的输出;
其中,在每个Swin Transformer块中,在多头自注意力和MLP模块之前执行层归一化操作。
优选的,在步骤四中引入的SwinCLR框架具体包括如下步骤:
步骤S21:通过采用随机裁剪和调整尺寸到原始维度、随机颜色失真和随机高斯模糊增强方法,创建同一样本的两个相关视图;
步骤S22:使用基于Swin Transformer模型将输入图像映射到特征空间,创建图像的特征表示;
步骤S23:使用对比损失函数对目标数据集进行网络优化;
步骤S24:通过比较相同图像的不同视图的特征表示,最小化相同图像的不同表示之间的距离,同时最大化不同图像表示之间的距离;
步骤S25:采用具有单个隐藏层的多层感知器将图像的特征表示投影到低维空间;
步骤S26:该空间作为图像的最终表示,并被输入到对混合损失函数中。
优选的,在步骤26中采用的混合损失函数具体为焦点损失与对比损失相结合,构成混合损失函数,且具体公式如下所示:
对比损失公式为:
LSwinCLR=αLSimCLR+βLFocal
焦点损失公式为:
FL(pt)=-αt(1-pt)γlog(pt);
Pt为真实类别概率,αt为平衡因子,γ为聚焦参数;
混合损失公式:
LSwubCLR=αLSimCLR+βLFocal
一种基于Swin Transformer和对比学习的乳腺癌识别系统,包括模型训练模块和模型推理模块;
模型训练模块,用于获取病人乳腺癌X光图像将图像裁剪成大小为224×224的三通道图像,通过随机数据增强模块输入至具有Swin Transformer特征提取器的Simclr框架中进行第一阶段的自监督对比学习训练,然后将图像和标签输入至Swin Transformer图像分类模型中进行第二阶段的有监督学习训练;
模型推理模块,采用训练后的SWINCLR模型对未经观察的数据集进行处理和分析,以确定乳腺X射线成像中是否存在癌变组织。
优选的,在模型训练模块中采用的随机数据增强模块具体包括随机裁剪和随机翻转。
优选的,模型推理模块通过采用所学习的特征表征以及经过优化的模型结构执行预测功能,实现对乳腺癌的早期检测与精准定位;
模型推理模块结合对比学习机制和Swin Transformer的分层特性。
优选的,随机裁剪过程包括以下步骤:
确定裁剪尺寸:首先设定裁剪区域的大小,如宽度和高度;
选择裁剪位置:在原始图像中随机选取一个点作为裁剪区域的起始点;
执行裁剪:从选定的起始点按照设定的大小裁剪图像,裁剪区域会包含从起始点开始到达指定宽度和高度的图像部分。
优选的,随机翻转包括水平翻转和垂直翻转两种类型:
其中水平翻转包括如下步骤:
决定是否翻转:根据预设的概率决定是否对图像进行翻转。这意味着每次处理图像时,都有一定几率进行翻转,也有一定几率保持原样;
执行翻转:如果决定翻转图像,那么图像将沿着中心垂直轴线被翻转,即左右颠倒;
其中垂直翻转包括如下步骤:
决定是否翻转:同样基于一个预设的概率来决定是否执行翻转;
执行翻转:在决定翻转的情况下,图像将沿着中心水平轴线被翻转,即上下颠倒。
本发明的有益技术效果:
本发明提供的一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法,该方法将SimCLR算法和Swin Transformer的优点进行了独特的混合,专门为乳腺癌的有效检测进行了优化,SwinCLR模型不仅充分利用了未标记数据,还显著提高了乳腺癌识别的准确性和效率,为了最大化对比学习的好处并解决类不平衡问题,我们引入了SwinCLR损失,这是NT-xent损失和Focal Loss的融合,为具体任务进行了定制。
此外,SwinCLR展示了其卓越的性能和在各种任务中的通用性,验证了其在实际应用中的灵活性和有效性,为了解决医疗数据集中明显的类不平衡问题,SwinCLR采取了主动管理策略,确保了特征提取的平衡和代表性,从而提高了模型在乳腺癌检测任务上的性能,通过这些创新点,SwinCLR不仅解决了数据稀缺的问题,还为乳腺癌的早期诊断和治疗提供了一种新的、有效的工具。
附图说明
图1为按照本发明的一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法的一优选实施例的Simclr框架图。
图2为按照本发明的一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法的一优选实施例的Swin Transformer流程图。
图3为按照本发明的一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法的一优选实施例的Swin Transformer模块图。
具体实施方式
为使本领域技术人员更加清楚和明确本发明的技术方案,下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
如图1-图3所示,本实施例提供的一种基于Swin Transformer和对比学习的乳腺癌识别方法,包括如下步骤:
步骤一:获取乳腺癌X光图像数据;
步骤二:将图像裁剪成为224x224的三通道图像,得到裁剪后的乳腺癌X光图像数据;
步骤三:搭建Swin Transformer网络;
步骤四:引入SwinCLR框架,使用Simclr框架对于Swin Transformer模型进行没有标签数据集的预训练后,使用有标签的数据集对Swin Transformer模型进行监督学习的训练;
步骤五:输出对于输入的X光片,乳腺癌的患病概率数据。
在本实施例中,步骤三中具体搭建Swin Transformer网络采用如下步骤:
步骤S11:将大小为224×224×3的RGB图像分割为初始大小为4×4的小块,且每个图像块的尺寸为4×4×3=48;
步骤S12:将线性嵌入层应用于大小为48的原始特征张量,将其投影到任意特征维度C;
步骤S13:在这些大小为C的块线性嵌入层上,部署增强自注意力机制的SwinTransformer块,保持token数量等于H/4×W/4;
步骤S14:在线性嵌入层上再加上Swin Transformer块,共同构成了SwinTransformer架构的第一阶段;
步骤S15:为实现分层表示从Swin Transformer架构的第二阶段开始,通过补丁合并层减少补丁的数量;
步骤S16:在第二阶段的块合并层中,将每组2×2相邻块的特征连接起来,并对连接起来的4C维特征应用一个线性层;
步骤S17:将patch的数量减少4倍,并且线性层的输出深度设置为2C,对这些特征应用Swin Transformer块进行特征变换,使第二阶段的输出token数量保持H/8×W/8;
步骤S18:在第三阶段和第四阶段重复两次,输出分辨率分别为H/16×W/16和H/32×W/32。
在本实施例中,在Swin Transformer的实现中,采用移位窗口划分过程,并通过公式(1)-(4)计算连续的Swin Transformer块;
zl=WMSA(LN(zl-1))+zl-1 (1);
其中,zl分别表示第l个块中的窗口多头自注意力和多层感知器模块的输出特征;
和zl+1表示第(l+1)个块中的WMSA和MLP的输出;
其中,在每个Swin Transformer块中,在多头自注意力和MLP模块之前执行层归一化操作。
在本实施例中,在步骤四中引入的SwinCLR框架具体包括如下步骤:
步骤S21:通过采用随机裁剪和调整尺寸到原始维度、随机颜色失真和随机高斯模糊增强方法,创建同一样本的两个相关视图;
步骤S22:使用基于Swin Transformer模型将输入图像映射到特征空间,创建图像的特征表示;
步骤S23:使用对比损失函数对目标数据集进行网络微调;
步骤S24:通过比较相同图像的不同视图的特征表示,最小化相同图像的不同表示之间的距离,同时最大化不同图像表示之间的距离;
步骤S25:采用具有单个隐藏层的多层感知器将图像的特征表示投影到低维空间;
步骤S26:该空间作为图像的最终表示,并被输入到对混合损失函数中。
在本实施例中,在步骤26中采用的混合损失函数具体为焦点损失与对比损失相结合,构成混合损失函数,且具体公式如下所示:
对比损失公式为:
LSwinCLR=αLSimCLR+βLFocal
焦点损失公式为:
FL(pt)=-αt(1-pt)γlog(pt);
Pt为真实类别概率,αt为平衡因子,γ为聚焦参数;
混合损失公式:
LSinCLR=αLSimCLR+βLFocal
一种基于Swin Transformer和对比学习的乳腺癌识别系统,包括模型训练模块和模型推理模块;
模型训练模块,用于获取病人乳腺癌X光图像将图像裁剪成大小为224×224的三通道图像,通过随机数据增强模块输入至具有Swin Transformer特征提取器的Simclr框架中进行第一阶段的自监督对比学习训练,然后将图像和标签输入至Swin Transformer图像分类模型中进行第二阶段的有监督学习训练;
模型推理模块,采用训练后的SWINCLR模型对未经观察的数据集进行处理和分析,以确定乳腺X射线成像中是否存在癌变组织。
在本实施例中,在模型训练模块中采用的随机数据增强模块具体包括随机裁剪和随机翻转。
在本实施例中,模型推理模块通过采用所学习的特征表征以及经过优化的模型结构执行预测功能,实现对乳腺癌的早期检测与精准定位;
模型推理模块结合对比学习机制和Swin Transformer的分层特性。
在本实施例中,随机裁剪过程包括以下步骤:
确定裁剪尺寸:首先设定裁剪区域的大小,如宽度和高度;
选择裁剪位置:在原始图像中随机选取一个点作为裁剪区域的起始点;
执行裁剪:从选定的起始点按照设定的大小裁剪图像,裁剪区域会包含从起始点开始到达指定宽度和高度的图像部分。
在本实施例中,随机翻转包括水平翻转和垂直翻转两种类型:
其中水平翻转包括如下步骤:
决定是否翻转:根据预设的概率决定是否对图像进行翻转。这意味着每次处理图像时,都有一定几率进行翻转,也有一定几率保持原样;
执行翻转:如果决定翻转图像,那么图像将沿着中心垂直轴线被翻转,即左右颠倒;
其中垂直翻转包括如下步骤:
决定是否翻转:同样基于一个预设的概率来决定是否执行翻转;
执行翻转:在决定翻转的情况下,图像将沿着中心水平轴线被翻转,即上下颠倒。
为了全面展示本发明的优越性和实际应用效果,我们进行了一系列详尽的对比实验,将我们的模型与市场上五种主流的卷积神经网络算法进行了深入的比较和分析;
这些算法包括:VGG19、ResNet-18、ResNet-50、DenseNet-201和ViT-L/32以及Swin-B。每种算法都在相同的实验条件下运行,确保了比较的公正性和准确性;
实验结果汇总在下表中,其中包括了各个模型在准确率(Accuracy)、F1分数、Balanced Accuracy(BA)和Matthews Correlation Coefficient(MCC)四个关键性能指标上的表现。
Model Accurac F1 BA MCC
VGG19 75.35 0.74 75.07 0.51
ResNet-18 81.67 0.80 81.35 0.63
ResNe-50 82.45 0.81 82.13 0.65
DenseNet-201 83.03 0.82 82.71 0.66
ViT-L/32 87.47 0.86 87.18 0.75
Swin-B 88.56 0.88 88.29 0.77
本发明 90.38 0.90 90.19 0.81
从表中可以看出,本发明在所有评价指标上都超过了其他模型,显示出了卓越的性能。具体来说,本发明在准确率上比最优的Swin-B模型高出近2个百分点,F1分数也有明显提升,达到了0.90。这验证了我们的模型不仅在整体准确性上优越,而且在平衡正负样本识别上也表现出色。
以上,仅为本发明进一步的实施例,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明所公开的范围内,根据本发明的技术方案及其构思加以等同替换或改变,都属于本发明的保护范围。

Claims (10)

1.一种基于Swin Transformer和对比学习的乳腺癌识别方法,其特征在于:包括如下步骤:
步骤一:获取乳腺癌X光图像数据;
步骤二:将图像裁剪成为224x224的三通道图像,得到裁剪后的乳腺癌X光图像数据;
步骤三:搭建Swin Transformer网络;
步骤四:引入SwinCLR框架,使用Simclr框架对于Swin Transformer模型进行没有标签数据集的预训练后,使用有标签的数据集对Swin Transformer模型进行监督学习的训练;
步骤五:输出对于输入的X光片,乳腺癌的患病概率数据。
2.根据权利要求1所述的一种基于Swin Transformer和对比学习的乳腺癌识别方法,其特征在于:步骤三中具体搭建Swin Transformer网络采用如下步骤:
步骤S11:将大小为224×224×3的RGB图像分割为初始大小为4×4的小块,且每个图像块的尺寸为4×4×3=48;
步骤S12:将线性嵌入层应用于大小为48的原始特征张量,将其投影到任意特征维度C;
步骤S13:在这些大小为C的块线性嵌入层上,部署增强自注意力机制的SwinTransformer块,保持token数量等于H/4×W/4;
步骤S14:在线性嵌入层上再加上Swin Transformer块,共同构成了Swin Transformer架构的第一阶段;
步骤S15:为实现分层表示从Swin Transformer架构的第二阶段开始,通过补丁合并层减少补丁的数量;
步骤S16:在第二阶段的块合并层中,将每组2×2相邻块的特征连接起来,并对连接起来的4C维特征应用一个线性层;
步骤S17:将patch的数量减少4倍,并且线性层的输出深度设置为2C,对这些特征应用Swin Transformer块进行特征变换,使第二阶段的输出token数量保持H/8×W/8;
步骤S18:在第三阶段和第四阶段重复两次,输出分辨率分别为H/16×W/16和H/32×W/32。
3.根据权利要求2所述的一种基于Swin Transformer和对比学习的乳腺癌识别方法,其特征在于:在Swin Transformer的实现中,采用移位窗口划分过程,并通过公式(1)-(4)计算连续的Swin Transformer块;
zl=WMSA(LN(zl-1))+zl-1 (1);
其中,zl分别表示第l个块中的窗口多头自注意力和多层感知器模块的输出特征;
和zl+1表示第(l+1)个块中的WMSA和MLP的输出;
其中,在每个Swin Transformer块中,在多头自注意力和MLP模块之前执行层归一化操作。
4.根据权利要求3所述的一种基于Swin Transformer和对比学习的乳腺癌识别方法,其特征在于:在步骤四中引入的SwinCLR框架具体包括如下步骤:
步骤S21:通过采用随机裁剪和调整尺寸到原始维度、随机颜色失真和随机高斯模糊增强方法,创建同一样本的两个相关视图;
步骤S22:使用基于Swin Transformer模型将输入图像映射到特征空间,创建图像的特征表示;
步骤S23:使用对比损失函数对目标数据集进行网络微调;
步骤S24:通过比较相同图像的不同视图的特征表示,最小化相同图像的不同表示之间的距离,同时最大化不同图像表示之间的距离;
步骤S25:采用具有单个隐藏层的多层感知器将图像的特征表示投影到低维空间;
步骤S26:该空间作为图像的最终表示,并被输入到对混合损失函数中。
5.根据权利要求4所述的一种基于Swin Transformer和对比学习的乳腺癌识别方法,其特征在于:在步骤26中采用的混合损失函数具体为焦点损失与对比损失相结合,构成混合损失函数,且具体公式如下所示:
对比损失公式为:
焦点损失公式为:
FL(pt)=-αt(1-pt)γlog(pt);
Pt为真实类别概率,αt为平衡因子,γ为聚焦参数;
混合损失公式:
LSwinCLR=αLSimCLR+βLFocal
6.根据权利要求1-5任意一项所述的一种基于Swin Transformer和对比学习的乳腺癌识别系统,其特征在于:包括模型训练模块和模型推理模块;
模型训练模块,用于获取病人乳腺癌X光图像将图像裁剪成大小为224×224的三通道图像,通过随机数据增强模块输入至具有Swin Transformer特征提取器的Simclr框架中进行第一阶段的自监督对比学习训练,然后将图像和标签输入至Swin Transformer图像分类模型中进行第二阶段的有监督学习训练;
模型推理模块,采用训练后的SwinCLR模型对未经观察的数据集进行处理和分析,以确定乳腺X射线成像中是否存在癌变组织。
7.根据权利要求6所述的一种基于Swin Transformer和对比学习的乳腺癌识别系统,其特征在于:在模型训练模块中采用的随机数据增强模块具体包括随机裁剪和随机翻转。
8.根据权利要求6所述的一种基于Swin Transformer和对比学习的乳腺癌识别系统,其特征在于:模型推理模块通过采用所学习的特征表征以及经过优化的模型结构执行预测功能,实现对乳腺癌的早期检测与精准定位;
模型推理模块结合对比学习机制和Swin Transformer的分层特性。
9.根据权利要求7所述的一种基于Swin Transformer和对比学习的乳腺癌识别系统,其特征在于:
随机裁剪过程包括以下步骤:
确定裁剪尺寸:首先设定裁剪区域的大小,如宽度和高度;
选择裁剪位置:在原始图像中随机选取一个点作为裁剪区域的起始点;
执行裁剪:从选定的起始点按照设定的大小裁剪图像,裁剪区域会包含从起始点开始到达指定宽度和高度的图像部分。
10.根据权利要求7所述的一种基于Swin Transformer和对比学习的乳腺癌识别系统,其特征在于:
随机翻转包括水平翻转和垂直翻转两种类型:
其中水平翻转包括如下步骤:
决定是否翻转:根据预设的概率决定是否对图像进行翻转。这意味着每次处理图像时,都有一定几率进行翻转,也有一定几率保持原样;
执行翻转:如果决定翻转图像,那么图像将沿着中心垂直轴线被翻转,即左右颠倒;
其中垂直翻转包括如下步骤:
决定是否翻转:同样基于一个预设的概率来决定是否执行翻转;
执行翻转:在决定翻转的情况下,图像将沿着中心水平轴线被翻转,即上下颠倒。
CN202311668278.1A 2023-12-07 2023-12-07 一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法 Pending CN117765252A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311668278.1A CN117765252A (zh) 2023-12-07 2023-12-07 一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311668278.1A CN117765252A (zh) 2023-12-07 2023-12-07 一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法

Publications (1)

Publication Number Publication Date
CN117765252A true CN117765252A (zh) 2024-03-26

Family

ID=90313679

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311668278.1A Pending CN117765252A (zh) 2023-12-07 2023-12-07 一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法

Country Status (1)

Country Link
CN (1) CN117765252A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117953351A (zh) * 2024-03-27 2024-04-30 之江实验室 一种基于模型强化学习的决策方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117953351A (zh) * 2024-03-27 2024-04-30 之江实验室 一种基于模型强化学习的决策方法

Similar Documents

Publication Publication Date Title
CN110378381B (zh) 物体检测方法、装置和计算机存储介质
Ahmed et al. Images data practices for semantic segmentation of breast cancer using deep neural network
Alyoubi et al. Diabetic retinopathy fundus image classification and lesions localization system using deep learning
Mohiyuddin et al. [Retracted] Breast Tumor Detection and Classification in Mammogram Images Using Modified YOLOv5 Network
CN110889853B (zh) 基于残差-注意力深度神经网络的肿瘤分割方法
CN110889852B (zh) 基于残差-注意力深度神经网络的肝脏分割方法
JP2022551683A (ja) 人工知能(ai)モデルを使用した非侵襲的遺伝子検査を行う方法及びシステム
JP2023505899A (ja) 画像データ検出方法及び装置並びにコンピュータ装置及びプログラム
CN112862849B (zh) 一种基于图像分割和全卷积神经网络的田间稻穗计数方法
CN117765252A (zh) 一种基于Swin Transformer和对比学习的乳腺癌识别系统及方法
CN111415728A (zh) 基于cnn和gan的ct图像数据自动分类方法及设备
Ali et al. Classification of glaucoma based on elephant-herding optimization algorithm and deep belief network
CN113191390A (zh) 一种图像分类模型的构建方法、图像分类方法及存储介质
Rehman et al. Architectural distortion-based digital mammograms classification using depth wise convolutional neural network
Raut et al. Gastrointestinal tract disease segmentation and classification in wireless capsule endoscopy using intelligent deep learning model
Arif et al. Application of Genetic Algorithm and U‐Net in Brain Tumor Segmentation and Classification: A Deep Learning Approach
Khan et al. A computer-aided diagnostic system to identify diabetic retinopathy, utilizing a modified compact convolutional transformer and low-resolution images to reduce computation time
CN111724345A (zh) 可自适应调节感受野大小的肺炎图片检定装置与方法
Wang et al. SERR‐U‐Net: Squeeze‐and‐Excitation Residual and Recurrent Block‐Based U‐Net for Automatic Vessel Segmentation in Retinal Image
Zhao et al. Pulmonary nodule detection based on multiscale feature fusion
Iqbal et al. Ldmres-Net: a lightweight neural network for efficient medical image segmentation on iot and edge devices
CN115423806B (zh) 一种基于多尺度跨路径特征融合的乳腺肿块检测方法
CN114842029B (zh) 一种融合通道和空间注意力的卷积神经网络息肉分割方法
Salama et al. Enhancing Medical Image Quality using Neutrosophic Fuzzy Domain and Multi-Level Enhancement Transforms: A Comparative Study for Leukemia Detection and Classification
CN115311491A (zh) 一种基于课程学习及空间注意力的骨折假阳性筛除方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination