CN115601330A - 一种基于多尺度空间反向注意力机制的结肠息肉分割方法 - Google Patents

一种基于多尺度空间反向注意力机制的结肠息肉分割方法 Download PDF

Info

Publication number
CN115601330A
CN115601330A CN202211283725.7A CN202211283725A CN115601330A CN 115601330 A CN115601330 A CN 115601330A CN 202211283725 A CN202211283725 A CN 202211283725A CN 115601330 A CN115601330 A CN 115601330A
Authority
CN
China
Prior art keywords
attention mechanism
scale
segmentation
colon polyp
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211283725.7A
Other languages
English (en)
Inventor
吴聪
龙成
李仕军
刘肖
陈鼎盛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei University of Technology
Original Assignee
Hubei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei University of Technology filed Critical Hubei University of Technology
Priority to CN202211283725.7A priority Critical patent/CN115601330A/zh
Publication of CN115601330A publication Critical patent/CN115601330A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于多尺度空间反向注意力机制的结肠镜息肉分割方法,首先在网络上收集公开的结肠息肉分割数据集,并进行数据增强处理,划分训练集、测试集与验证集;然后将结肠息肉数据输入设计的金字塔式的Swin Transformer编码器提取四个不同阶段的特征,并通过多尺度通道注意力模块提取多尺度特征信息,得到初步聚合预分割结果;最后将预分割结果输入到空间反向注意机制模块,以逐步补充息肉区域的边缘结构和细节信息,实现自动分割结肠息肉的目的。本发明使用方便,准确高效,分割结肠镜息肉的效果良好,具有优异的泛化性能。

Description

一种基于多尺度空间反向注意力机制的结肠息肉分割方法
技术领域
本发明属于大数据深度学习技术领域,具体涉及一种基于多尺度空间反向注意力机制的结肠息肉分割方法。
背景技术
结直肠癌分为结肠癌和直肠癌,是一种常见的恶性肿瘤。为了及时切除结肠息肉并防止其癌变,早期筛查就显得非常重要。医学图像分割是筛查和诊断中的一项重要任务,语义分割的结果有助于识别和评估结肠息肉的病变区域,降低漏诊风险。
结肠镜息肉图像的手动分割需要经验丰富的专家相互协作,这非常耗时,且不同的专家可能对同一病变区域是否被归类为癌变有不同的意见,导致手动分割和评估病变区域效率低下,无法保证质量。计算机辅助自动医学图像分割方法提供了更高效、准确和高质量的医学图像分割方案,并减少了诊断过程中的资源和人力消耗。
发明内容
本发明针对现有技术的不足,提供一种基于多尺度空间反向注意力机制的结肠息肉分割方法,包括以下步骤:
步骤1,准备结肠息肉图像数据集用于训练和测试;
步骤2,构建基于多尺度空间反向注意力机制的结肠息肉分割网络;
步骤3,使用训练集图像对基于多尺度空间反向注意力机制的结肠息肉分割网络模型进行训练;
步骤4,使用步骤3训练好的网络模型对测试集图像进行分割,得到图像语义分割结果。
而且,所述步骤1中收集公开的结肠息肉数据集,并对收集的结肠息肉数据进行随机旋转、随机水平翻转和随机垂直翻转的数据增强处理,然后将收集到的结肠息肉数据划分为训练集、验证集和测试集,训练集数据用于对构建的结肠息肉分割网络进行训练,验证集用于测试网络模型的训练效果,改进超参数设置,测试集用于验证网络模型的学习能力和泛化性能。
而且,所述步骤2中首先将输入图像通过四个不同阶段的Swin Transformer编码器得到四个特征图,接着将四个特征图分别送入多尺度通道注意力机制学习不同尺度下的特征,并聚合生成预分割结果,最后经过多级空间反向注意力机制逐步修补息肉的边界信息。
将Swin Transformer编码器每个阶段的结果都输出,构成金字塔式SwinTransformer编码器。Swin Transformer的滑动窗口和像素块大小保持不变,每个阶段的Swin Transformer编码器对当前输入的特征图中不同像素块之间的权重相关信息进行建模,并降低输入特征图的分辨率,四个输出特征图具有不同尺度的全局特征信息和长程相关权重,丰富了空间维度上像素之间的相关信息,提高了模型识别不同大小、类型和颜色的息肉的能力,并增强了模型的泛化能力。
多尺度通道注意模块首先通过不同卷积核大小的卷积从Swin Transformer提取的多级特征图中提取多尺度特征信息,接着利用可训练的权重参数对特征信息进行融合,以此抑制由不同卷积核和不同感受野引起的信息差距,然后使用通道注意机制对不同感受野获得的特征图重新分配权重,并获得具有多尺度特征信息和通道注意权重信息的特征模块,最后对提取的多尺度通道注意力特征图进行特征融合,并与输入特征图进行残差连接。多尺度通道注意模块不仅可以学习分割对象在不同感受野下的特征,而且可以在一定程度上保留Swin Transformer编码器提取的像素块之间的相关性,还可以有效地防止随着网络的深化而出现梯度退化问题。
空间反向注意机制由空间注意机制模块和反向注意机制模块组成,聚合生成的预分割结果先通过反向注意机制模块获得分割目标的边界信息,接着再通过空间注意机制获得分割目标的位置信息,然后与Swin Transformer4个阶段的输出特征相乘得到融合了边界信息的息肉特征矩阵,最后经过回环残差卷积输出修补了边界信息的息肉分割结果;通过多级特征聚合获得的全局特征图缺乏边界细节,使用反向注意机制可以消除预测的分割区域,学习分割目标边界的细节;空间注意机制可以提取预分割特征图中的位置信息,当模型在特征图中定位息肉边界区域时,息肉区域和其他区域的极端二值化处理容易丢失边缘细节,通过空间注意机制在空间方向上赋予初始定位的非息肉区域更大的权重,并减少息肉区域方向的权重,能够在所有特征层次上学习边界区域特征时,有更丰富的空间信息。
而且,所述步骤3中将数据集的尺寸统一设置为N×N像素,优化器设置为AdamW优化器,学习速率设置为1×e-4,学习速率衰减周期为40,衰减速率设置为0.1,batchsize大小设置为16,训练80个周期。
与现有技术相比,本发明具有如下优点:
1)Swin Transformer编码器可以根据需要调整解码器的大小和个别参数,以构建不同大小的模型,还可以针对不同类型的数据集进行进一步研究和优化,以满足更多医学分割任务的应用和需求。
2)提出了多尺度通道注意模块,不仅可以学习分割对象在不同感受野下的特征,而且可以在一定程度上保留Swin Transformer编码器提取的像素块之间的相关性,还可以有效地防止随着网络的深化而出现梯度退化问题,具有良好的多尺度信息处理能力和通道信息提取能力,可灵活应用于其他计算机视觉任务。
3)提出了空间反向注意机制,包括空间注意机制和反向注意机制,使用反向注意机制可以消除预测的分割区域,学习分割目标边界的细节;通过空间注意机制在空间方向上赋予初始定位的非息肉区域更大的权重,并减少息肉区域方向的权重,能够在所有特征层次上学习边界区域特征时,有更丰富的空间信息,辅助分割网络模型修补结肠息肉边界信息。
4)改进并堆叠回环残差卷积块,加强卷积网络的特征学习能力,有效防止梯度消失问题。
附图说明
图1为本发明实施例的流程图。
图2为本发明实施例的结肠息肉图像数据。
图3为本发明实施例结肠息肉分割网络的整体结构图。
图4为本发明实施例多尺度通道注意力机制的结构图。
图5为本发明实施例空间反向注意力机制的结构图。
图6为本发明实施例回环残差卷积块的结构图。
具体实施方式
本发明提供一种基于多尺度空间反向注意力机制的结肠息肉分割方法,下面结合附图和实施例对本发明的技术方案作进一步说明。
如图1所示,本发明实施例的流程包括以下步骤:
步骤1,准备结肠息肉图像数据集用于训练和测试。
收集公开的结肠息肉数据集:Kvasir,CVC-ClinicDB,CVC-ColonDB,ETIS,Endoscene-CVC-T,并对收集的结肠息肉数据进行随机旋转、随机水平翻转和随机垂直翻转的数据增强处理,然后将收集到的结肠息肉数据按8:1:1划分为训练集、验证集和测试集。训练集数据用于对构建的结肠息肉分割网络进行训练,验证集用于测试网络模型的训练效果,改进超参数设置,测试集用于验证网络模型的学习能力和泛化性能。
步骤2,构建基于多尺度空间反向注意力机制的结肠息肉分割网络。
结肠息肉分割网络的整体结构如图3所示,输入图像首先通过四个不同阶段的Swin Transformer编码器得到四个特征图,接着将4个特征图分别送入多尺度通道注意力机制学习不同尺度下的特征,并聚合生成预分割结果,最后将预分割结果与SwinTransformer4个阶段的输出特征输入到空间反向注意力机制中,逐级修补息肉边界的特征信息。
将Swin Transformer编码器每个阶段的结果都输出构成金字塔式SwinTransformer编码器,并且Swin Transformer的滑动窗口和像素块大小保持不变,每个阶段的Swin Transformer编码器对当前输入的特征图中不同像素块之间的权重相关信息进行建模,并降低输入特征图的分辨率。四个输出特征图具有不同尺度的全局特征信息和长程相关权重,丰富了空间维度上像素之间的相关信息,提高了模型识别不同大小、类型和颜色的息肉的能力,并增强了模型的泛化能力。
多尺度通道注意模块结构如图4所示,首先通过不同卷积核大小的卷积从SwinTransformer提取的多级特征图中提取多尺度特征信息,接着利用可训练的权重参数对特征信息进行融合,以此抑制由不同卷积核和不同感受野引起的信息差距,然后使用通道注意机制对不同感受野获得的特征图重新分配权重,并获得具有多尺度特征信息和通道注意权重信息的特征模块,最后对提取的多尺度通道注意力特征图进行特征融合,并与输入特征图进行残差连接。多尺度通道注意模块不仅可以学习分割对象在不同感受野下的特征,而且可以在一定程度上保留Swin Transformer编码器提取的像素块之间的相关性,还可以有效地防止随着网络的深化而出现梯度退化问题。
如图5所示,空间反向注意机制由空间注意机制模块和反向注意机制模块组成,聚合生成的预分割结果先通过反向注意机制模块获得分割目标的边界信息,接着再通过空间注意机制获得分割目标的位置信息,然后与Swin Transformer4个阶段的输出特征相乘得到融合了边界信息的息肉特征矩阵,最后经过回环残差卷积输出修补了边界信息的息肉分割结果。通过多级特征聚合获得的全局特征图缺乏边界细节,使用反向注意机制可以消除预测的分割区域,学习分割目标边界的细节。空间注意机制可以提取预分割特征图中的位置信息。当模型在特征图中定位息肉边界区域时,息肉区域和其他区域的极端二值化处理容易丢失边缘细节,通过空间注意机制在空间方向上赋予初始定位的非息肉区域更大的权重,并减少息肉区域方向的权重,能够在所有特征层次上学习边界区域特征时,有更丰富的空间信息。回环残差卷积结构如图6所示,改进后的回环残差卷积块加强了卷积网络的特征学习能力,能有效防止梯度消失问题。
步骤3,使用训练集图像对基于多尺度空间反向注意力机制的结肠息肉分割网络模型进行训练。
本实施例中数据集的尺寸统一设置为352×352像素,优化器设置为AdamW优化器,学习速率设置为1×e-4,学习速率衰减周期为40,衰减速率设置为0.1,batchsize大小设置为16,训练80个周期。
步骤4,使用步骤3训练好的网络模型对测试集图像进行分割,得到图像语义分割结果。
具体实施时,以上流程可采用计算机软件技术实现自动运行流程。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (6)

1.一种基于多尺度空间反向注意力机制的结肠息肉分割方法,其特征在于,包括如下步骤:
步骤1,准备结肠息肉图像数据集用于训练和测试;
步骤2,构建基于多尺度空间反向注意力机制的结肠息肉分割网络;
首先将输入图像通过四个不同阶段的Swin Transformer编码器得到四个特征图,接着将四个特征图分别送入多尺度通道注意力机制学习不同尺度下的特征,并聚合生成预分割结果,最后经过多级空间反向注意力机制逐步修补息肉的边界信息;
步骤3,使用训练集图像对基于多尺度空间反向注意力机制的结肠息肉分割网络模型进行训练;
步骤4,使用步骤3训练好的网络模型对测试集图像进行分割,得到图像语义分割结果。
2.如权利要求1所述的一种基于多尺度空间反向注意力机制的结肠息肉分割方法,其特征在于:步骤1收集公开的结肠息肉数据集,并对收集的结肠息肉数据进行随机旋转、随机水平翻转和随机垂直翻转的数据增强处理,然后将收集到的结肠息肉数据划分为训练集、验证集和测试集,训练集数据用于对构建的结肠息肉分割网络进行训练,验证集用于测试网络模型的训练效果,改进超参数设置,测试集用于验证网络模型的学习能力和泛化性能。
3.如权利要求1所述的一种基于多尺度空间反向注意力机制的结肠息肉分割方法,其特征在于:步骤2中将Swin Transformer编码器每个阶段的结果都输出,构成金字塔式SwinTransformer编码器;Swin Transformer的滑动窗口和像素块大小保持不变,每个阶段的Swin Transformer编码器对当前输入的特征图中不同像素块之间的权重相关信息进行建模,并降低输入特征图的分辨率,四个输出特征图具有不同尺度的全局特征信息和长程相关权重。
4.如权利要求1所述的一种基于多尺度空间反向注意力机制的结肠息肉分割方法,其特征在于:步骤2中多尺度通道注意模块首先通过不同卷积核大小的卷积从SwinTransformer提取的多级特征图中提取多尺度特征信息,接着利用可训练的权重参数对特征信息进行融合,以此抑制由不同卷积核和不同感受野引起的信息差距,然后使用通道注意机制对不同感受野获得的特征图重新分配权重,并获得具有多尺度特征信息和通道注意权重信息的特征模块,最后对提取的多尺度通道注意力特征图进行特征融合,并与输入特征图进行残差连接。
5.如权利要求1所述的一种基于多尺度空间反向注意力机制的结肠息肉分割方法,其特征在于:步骤2中空间反向注意机制由空间注意机制模块和反向注意机制模块组成,聚合生成的预分割结果先通过反向注意机制模块获得分割目标的边界信息,接着再通过空间注意机制获得分割目标的位置信息,然后与Swin Transformer4个阶段的输出特征相乘得到融合了边界信息的息肉特征矩阵,最后经过回环残差卷积输出修补了边界信息的息肉分割结果。
6.如权利要求1所述的一种基于多尺度空间反向注意力机制的结肠息肉分割方法,其特征在于:步骤3中将数据集的尺寸统一设置为N×N像素,优化器设置为AdamW优化器,学习速率设置为1×e-4,学习速率衰减周期为40,衰减速率设置为0.1,batchsize大小设置为16,训练80个周期。
CN202211283725.7A 2022-10-20 2022-10-20 一种基于多尺度空间反向注意力机制的结肠息肉分割方法 Pending CN115601330A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211283725.7A CN115601330A (zh) 2022-10-20 2022-10-20 一种基于多尺度空间反向注意力机制的结肠息肉分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211283725.7A CN115601330A (zh) 2022-10-20 2022-10-20 一种基于多尺度空间反向注意力机制的结肠息肉分割方法

Publications (1)

Publication Number Publication Date
CN115601330A true CN115601330A (zh) 2023-01-13

Family

ID=84849434

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211283725.7A Pending CN115601330A (zh) 2022-10-20 2022-10-20 一种基于多尺度空间反向注意力机制的结肠息肉分割方法

Country Status (1)

Country Link
CN (1) CN115601330A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116958535A (zh) * 2023-04-14 2023-10-27 三峡大学 一种基于多尺度残差推理的息肉分割系统及方法
CN117132774A (zh) * 2023-08-29 2023-11-28 河北师范大学 一种基于pvt的多尺度息肉分割方法及系统
CN117975011A (zh) * 2024-02-07 2024-05-03 安徽大学 一种基于细节增强反向注意力网络的膀胱肿瘤图像分割方法及系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116958535A (zh) * 2023-04-14 2023-10-27 三峡大学 一种基于多尺度残差推理的息肉分割系统及方法
CN116958535B (zh) * 2023-04-14 2024-04-16 三峡大学 一种基于多尺度残差推理的息肉分割系统及方法
CN117132774A (zh) * 2023-08-29 2023-11-28 河北师范大学 一种基于pvt的多尺度息肉分割方法及系统
CN117132774B (zh) * 2023-08-29 2024-03-01 河北师范大学 一种基于pvt的多尺度息肉分割方法及系统
CN117975011A (zh) * 2024-02-07 2024-05-03 安徽大学 一种基于细节增强反向注意力网络的膀胱肿瘤图像分割方法及系统

Similar Documents

Publication Publication Date Title
CN109886986B (zh) 一种基于多分支卷积神经网络的皮肤镜图像分割方法
CN110428432B (zh) 结肠腺体图像自动分割的深度神经网络算法
CN108898175B (zh) 基于深度学习胃癌病理切片的计算机辅助模型构建方法
Tang et al. A multi-stage framework with context information fusion structure for skin lesion segmentation
CN115601330A (zh) 一种基于多尺度空间反向注意力机制的结肠息肉分割方法
CN112116605A (zh) 一种基于集成深度卷积神经网络的胰腺ct图像分割方法
CN112712528B (zh) 一种多尺度u型残差编码器与整体反向注意机制结合的肠道病灶分割方法
CN106408001A (zh) 基于深度核哈希的感兴趣区域快速检测方法
Pan et al. Mitosis detection techniques in H&E stained breast cancer pathological images: A comprehensive review
CN109102498B (zh) 一种宫颈涂片图像中簇型细胞核分割的方法
CN112446892A (zh) 一种基于注意力学习的细胞核分割方法
CN111415352B (zh) 一种基于深度级联网络的癌转移全景病理切片分析方法
CN113344933B (zh) 一种基于多层次特征融合网络的腺体细胞分割方法
CN114648806A (zh) 一种多机制自适应的眼底图像分割方法
CN114897782B (zh) 基于生成式对抗网络的胃癌病理切片图像分割预测方法
CN111047559A (zh) 一种数字病理切片异常区域快速检测的方法
CN113628297A (zh) 一种基于注意力机制和迁移学习的covid-19深度学习诊断系统
CN115409832A (zh) 一种超声影像及组学大数据的三阴性乳腺癌分类方法
CN113706562A (zh) 图像分割方法、装置、系统及细胞分割方法
CN112508860B (zh) 一种免疫组化图像核阳性的人工智能判读方法及系统
CN113177554B (zh) 甲状腺结节识别与分割方法、系统、存储介质及设备
CN110827963A (zh) 针对病理图像的语义分割方法和电子设备
CN113436115A (zh) 一种基于深度无监督学习的图像阴影检测方法
CN113222903A (zh) 一种全切片组织病理图像分析方法及系统
CN117437423A (zh) 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination