CN116681883A - 基于Swin Transformer改进的乳腺影像病灶检测方法 - Google Patents

基于Swin Transformer改进的乳腺影像病灶检测方法 Download PDF

Info

Publication number
CN116681883A
CN116681883A CN202310637421.4A CN202310637421A CN116681883A CN 116681883 A CN116681883 A CN 116681883A CN 202310637421 A CN202310637421 A CN 202310637421A CN 116681883 A CN116681883 A CN 116681883A
Authority
CN
China
Prior art keywords
swin
transducer
breast
training
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310637421.4A
Other languages
English (en)
Inventor
杨哲
宋博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Normal University
Original Assignee
Jiangsu Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Normal University filed Critical Jiangsu Normal University
Priority to CN202310637421.4A priority Critical patent/CN116681883A/zh
Publication of CN116681883A publication Critical patent/CN116681883A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于Swin Transformer改进的乳腺影像病灶检测方法,包括以下步骤:收集乳腺影像数据;将数据集划分为训练集和测试集,并对图像进行预处理及标注;构建以Swin Transformer为主干,Mask RCNN为目标检测算法的病灶检测模型,并借鉴堆叠和级联的思想加以改进;将处理后的图像输入模型进行训练,选用最优配置参数完成模型,进行乳腺影像的病灶检测。本发明选用Swin Transformer作为主干网络进行特征提取,并利用其层次化结构与BiFPN结合进行特征融合,兼顾了各特征层级的语义信息,最后通过级联结构的Mask RCNN同时完成乳腺病灶的分类、定位和分割工作,较之前的方法准确度大幅提升。

Description

基于Swin Transformer改进的乳腺影像病灶检测方法
技术领域
本发明属于深度学习医学影像检测领域,具体涉及一种基于Swin Transformer改进的乳腺影像病灶检测方法。
背景技术
计算机辅助检测(computer aided detection,CADe)系统正逐渐应用到医学影像检测任务中,协助医生进行快速诊断。早诊断、早治疗能够提高乳腺癌患者生存率,乳腺病灶的准确检测便是至关重要的一步,不仅可以标记影像中的病灶区域,有效减轻医生的工作负担,提升医疗服务质量,还可以为后续的乳腺癌分子分型、预后评估等提供数据基础。此外,CADe系统还可以对经验不足的医生起到提示参考的作用,在一定程度上能解决偏远地区医疗资源匮乏的问题。
传统乳腺癌检测方法主要包括阈值法、区域生长法、活动轮廓模型、聚类法、概率图模型以及其他机器学习方法等,侧重于人工设计与乳腺癌最相关的特征,其优势是不需要大量数据进行训练就能实现快速准确的检测,结合临床先验知识,结果可解释性强,运行过程明确。但又有以下缺点:使用数据量过少,导致模型的鲁棒性较差,泛化能力弱;人工设计的特征对边界清晰、与周围组织灰度对比明显的病灶具有很好的检测效果,但是对边界模糊不规则的病灶检测效果较差,具有一定的局限性;小体积肿瘤难以被检测,主要原因是小体积肿瘤携带的信息较少,由此导致特征表达能力偏弱。
近年来,深度学习技术飞速发展,不仅在图像分类任务中表现优秀,在目标检测和分割任务中也发挥出强大的性能。而在基于深度学习的乳腺影像病灶检测领域,检测和分割任务几乎融为了一体,是近年来研究的重点之一。目前广泛应用于医疗图像分割领域的方法主要是基于U-Net网络的图像分割方法,其相关的改进算法有很多,也取得了较好的分割精度,但在目标定位的精度上稍有欠缺。而当前主流的医学影像目标检测往往以ResNet系列等网络为主干,结合二阶段检测算法如Fast RCNN、提出区域建议网络(RegionProposal Network,RPN)的Faster RCNN、通过全卷积网络对目标进行分割的Mask RCNN等,其中只有Mask RCNN既能完成定位,也能完成分割任务。
发明内容
为了解决现有技术存在的不足,本发明提供了一种基于Swin Transformer改进的乳腺影像病灶检测方法,针对现有医学影像检测和分割网络存在对小物体预测不准、准确度低以及局部信息丢失等问题,本发明以Swin Transformer为主干网络提取特征,并利用其层次化结构与BiFPN结合进行特征融合,兼顾了各特征层级的语义信息,最后通过级联结构的Mask RCNN同时完成乳腺病灶的分类、定位和分割工作,较之前的方法准确度大幅提升。
为了实现上述发明目的,本发明提供了一种基于Swin Transformer改进的乳腺影像病灶检测方法,包括如下步骤:
步骤一,制作乳腺影像数据集,对图像进行预处理及标注,并通过数据集预处理程序,调整参数,划分出不同比例的训练集、测试集和验证集;
步骤二,构建以Swin Transformer为主干,Mask RCNN为目标检测算法的病灶检测模型,并借鉴堆叠和级联的思想加以改进;用步骤一中划分得到的训练集对网络模型进行训练,所述划分获得的训练集、测试集以及验证集的比例为8:1:1。将resize后统一大小的乳腺影像输入,首先利用Swin Transformer提取特征,得到不同层级的语义特征,借鉴堆叠的思想引入BiFPN结构,其为一种加权的双向特征金字塔网络,旨在追求更高效的多尺度信息融合,允许堆叠多次,具体次数可依据数据和任务类型选择。
步骤三,将RPN所生成候选框映射到中间几层特征层,经RoIAlign后分别输入class、box分支和mask分支,并将其视作一个stage;当前stage会接受RPN(第一个stage)或者上一个stage的box分支输出作为输入,然后预测新的box和mask。
步骤四,使用训练阶段得到的权重参数文件对验证集进行验证,依据其评估结果调整超参数,最后用测试集进行测试并对结果进行评估。
优选的,步骤一中,可以使用现有的公开医学影像数据集,比如BreastUltrasound Images Dataset数据集、Digital Database for Screening Mammography(DDSM)数据集等;也可以和医疗机构进行合作,获取尽可能多的高像素乳腺影像,并通过专业的医生或专家进行手动分割标注,再通过数据处理程序制作成数据集。
优选的,步骤二中,借鉴堆叠的思想将BiFPN进行堆叠,旨在追求更高效的多尺度信息融合,依照经验堆叠次数通常取2或3。但需要注意的是对于某些不注重浅层信息的任务,这未必是有益的。此外,在构建BiFPN结构时,往往不选择过浅的特征层,并且如果一个节点只有一个输入边且没有进行特征融合,那么它将对旨在融合不同特征的特征网络贡献较小,建议去除。如果原始输入和输出节点处于同一层级,则在原始输入和输出节点之间额外添加一条跳跃连接,以便在不增加成本的情况下融合更多特征。
优选的,步骤三中,使用到的级联结构依照经验阶段数选择3效果最优,其IoU依次取高,如0.5、0.6、0.7。
与现有技术相比,本发明的有益技术效果:
本发明设计了一种基于Swin Transformer改进的乳腺影像病灶检测方法,将此算法可直接应用于医学影像检测领域,实现了乳腺影像的分类、定位和分割任务,提高了精确度和正确率。在辅助专业医生进行诊断时提供了便捷性和可靠度,减少误诊漏诊概率,提高诊断效率,在医疗领域具有良好的发展前景。
附图说明
图1为本发明的流程图;
图2为本发明的整体网络结构的示意图;
图3为本发明的级联目标检测算法示意图;
图4为本发明的识别结果的示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。实施本发明的过程、条件、实验方法等,除以下专门提及的内容之外,均为本领域的普遍知识和公知常识,本发明没有特别限制内容。
基于Swin Transformer改进的乳腺影像病灶检测方法流程分为:准备COCO格式的分割数据集、将图像进行特征提取、定位分割出目标部分、对模型进行训练及评估(图1)。
本发明的方法为基于神经网络的目标检测方法,通过基于Swin Transformer改进的检测算法对于乳腺影像中的病灶进行定位和分割,将图片输入到Swin Transformer主干网络,利用其层次化结构与BiFPN结合进行特征融合,兼顾了各特征层级的特征信息,最后通过级联结构的Mask RCNN同时完成乳腺病灶的分类、定位和分割工作(图2)。
本发明的方法为一种基于Swin Transformer改进的乳腺影像病灶检测方法,包括如下步骤:
步骤一,准备乳腺超声影像数据集,选用公开医疗数据集(Breast UltrasoundImages Dataset数据集)或者与医疗机构合作获取乳腺超声影像。结合专业医学知识,经过Labelme(一种深度学习标注工具)标注乳腺病灶部位,将原始图像和标签放入指定位置,接着通过预处理程序,把图像进行预处理;将数据集划分后转换为COCO数据集格式;
步骤二,将处理好的数据输入到改进后的模型中,根据所需分割的种类设定类别数num_classes,这里设定为3;可以根据电脑配置自行设定冻结阶段和解冻阶段的训练参数,比如:迭代次数Epoch、batch_size、学习率lr等;
步骤三,开始训练模型,输入经Swin Transformer特征提取后,得到四个特征层级,并由P3下采样2倍得到P4。由P0~P4构建BiFPN结构,堆叠两次得到新特征层P20~P24。依据公式(1)将RPN在新特征层P20~P24上生成的候选框映射到P1~P4特征层。随后经RoIAlign后分别输入class、box分支和mask分支,并将其视作一个stage;当前stage会接受RPN(第一个stage)或者上一个stage的box分支输出作为输入,然后预测新的box和mask,这里进行3次级联。
其中,w和h分别是RoI映射到原图的宽和高,k0是目标层级。
步骤四,根据训练结果找到最合适的参数,优化调整参数,并且将训练好的模型权重保存到指定位置,用于预测程序以及模型评估程序。
通过测试,相比于原始的Swin Transformer与Mask RCNN相结合的方法,本发明实例在Breast Ultrasound Images Dataset数据集上有很好的乳腺超声影像病灶检测效果(图4),如表1所示,具体分析来看,在Mask RCNN部分引入级联,可以使检测和分割任务的精度得到更为明显的提升,而在主干网络Swin Transformer提取特征后,引入BiFPN相较传统FPN提升幅度则不明显。这其实是有原因的,结合在大型自然图像数据集的训练和测试情况分析,尽管主干部分选取swin-tiny模型,相较Swin Transformer网络系列而言参数量较小,但对于Breast Ultrasound Images Dataset数据集来说还是较大,并且随着堆叠结构和级联结构的引入,参数量进一步增大,这增加了模型过拟合的风险。此外该数据集中小目标较少,而本发明所提出的方法对于小目标检测的精度提升更加明显。这就使得本发明的改进方法相较在大型自然图像数据集的训练和测试中,mAP的提升幅度没有那么大,但依旧提升显著。也就是说,只要找到更合适的乳腺影像数据集,该方法的优越性将得到进一步体现。
表1
结合Mask RCNN bbox_mAP segm_mAP Params
FPN 0.5580 0.5440 48M
Cascade+FPN 0.5780 0.5690 85M
Cascade+BiFPN 0.5810 0.5700 92M
本发明设计了一种基于Swin Transformer改进的乳腺影像病灶检测方法,选用Swin Transformer作为主干网络进行特征提取,并利用其层次化结构与BiFPN结合进行特征融合,兼顾了各特征层级的语义信息,最后通过级联结构的Mask RCNN同时完成乳腺病灶的分类、定位和分割工作,较之前的方法准确度大幅提升。

Claims (7)

1.基于Swin Transformer改进的乳腺影像病灶检测方法,采用Mask RCNN为目标检测算法,并借鉴堆叠和级联的思想加以改进,其特征在于,包括以下步骤:
步骤一,制作乳腺影像数据集,对图像进行预处理及标注,并通过数据集预处理程序,调整参数,划分出不同比例的训练集、测试集和验证集;
步骤二,构建以Swin Transformer为主干,Mask RCNN为目标检测算法的病灶检测模型,并借鉴堆叠和级联的思想加以改进;用步骤一中划分得到的训练集对网络模型进行训练,乳腺影像输入首先利用Swin Transformer提取特征,得到不同层级的特征信息,借鉴堆叠的思想引入BiFPN结构,将不同层级之间的特征信息进行融合;
步骤三,进行信息融合之后的各级特征层,将由RPN生成的候选框投影获得相应的特征矩阵,再借鉴级联的思想依次经RoIAlign后分别输入class、box分支和Mask分支以完成乳腺影像的检测结果;
步骤四,使用训练阶段得到的权重参数文件对验证集进行验证,依据其评估结果调整超参数,最后用测试集进行测试并对结果进行评估。
2.根据权利要求1所述的基于Swin Transformer改进的乳腺影像病灶检测方法,其特征在于,所述步骤二包括:用所述步骤一中划分得到的训练集对网络模型进行训练,将大小不同的乳腺影像resize为大小相同的图片,并进行随机翻转和裁剪;随后输入到一种具有层次化结构的Transformer网络进行特征提取,得到不同层级的特征信息。
3.根据权利要求1所述的基于Swin Transformer改进的乳腺影像病灶检测方法,其特征在于,所述步骤二包括:借鉴堆叠的思想引入BiFPN结构,其为一种加权的双向特征金字塔网络,旨在追求更高效的多尺度信息融合,允许堆叠多次,具体次数可依据数据和任务类型选择。
4.根据权利要求1所述的基于Swin Transformer改进的乳腺影像病灶检测方法,其特征在于,所述步骤三包括:将RPN所生成候选框映射到中间几层特征层,经RoIAlign后分别输入class、box分支和mask分支,并将其视作一个stage;当前stage会接受RPN或者上一个stage的box分支输出作为输入,然后预测新的box和mask。
5.根据权利要求1所述的基于Swin Transformer改进的乳腺影像病灶检测方法,其特征在于,所述数据包括Breast Ultrasound Images Dataset数据集,所述BreastUltrasound Images Dataset数据集中包含原影像的Mask图,需进一步借助LabelMe进行标注,并转换为COCO数据集格式。
6.根据权利要求1所述的基于Swin Transformer改进的乳腺影像病灶检测方法,其特征在于,所述划分获得的训练集、测试集以及验证集的比例为8:1:1。
7.根据权利要求2所述的基于Swin Transformer改进的乳腺影像病灶检测方法,其特征在于,特征提取使用Swin Transformer作为主干网络,分为四个阶段,其中SwinTransformer Block的数量分别为2、2、6、2,从第二阶段开始实现了类似卷积神经网络中的层次化构建方法,分别对输入图像下采样4倍、8倍、16倍、32倍。
CN202310637421.4A 2023-06-01 2023-06-01 基于Swin Transformer改进的乳腺影像病灶检测方法 Pending CN116681883A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310637421.4A CN116681883A (zh) 2023-06-01 2023-06-01 基于Swin Transformer改进的乳腺影像病灶检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310637421.4A CN116681883A (zh) 2023-06-01 2023-06-01 基于Swin Transformer改进的乳腺影像病灶检测方法

Publications (1)

Publication Number Publication Date
CN116681883A true CN116681883A (zh) 2023-09-01

Family

ID=87783034

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310637421.4A Pending CN116681883A (zh) 2023-06-01 2023-06-01 基于Swin Transformer改进的乳腺影像病灶检测方法

Country Status (1)

Country Link
CN (1) CN116681883A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118493594A (zh) * 2024-07-16 2024-08-16 石家庄铁道大学 一种混凝土梁智能养护系统及养护方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118493594A (zh) * 2024-07-16 2024-08-16 石家庄铁道大学 一种混凝土梁智能养护系统及养护方法

Similar Documents

Publication Publication Date Title
CN111985536B (zh) 一种基于弱监督学习的胃镜病理图像分类方法
KR102108050B1 (ko) 증강 컨볼루션 네트워크를 통한 유방암 조직학 이미지 분류 방법 및 그 장치
CN108257135A (zh) 基于深度学习方法解读医学图像特征的辅助诊断系统
CN110060235A (zh) 一种基于深度学习的甲状腺结节超声图像分割方法
CN109389584A (zh) 基于cnn的多尺度鼻咽肿瘤分割方法
CN101103924A (zh) 基于乳腺x线摄片的乳腺癌计算机辅助诊断方法及其系统
CN112001218A (zh) 一种基于卷积神经网络的三维颗粒类别检测方法及系统
CN112862808A (zh) 一种基于深度学习的乳腺癌超声图像的可解释性识别方法
CN109447998A (zh) 基于PCANet深度学习模型下的自动分割方法
CN113537357A (zh) 一种基于深度残差网络的甲状腺癌ct影像分类系统
CN115100467A (zh) 一种基于核注意力网络的病理全切片图像分类方法
CN115471512A (zh) 一种基于自监督对比学习的医学影像分割方法
CN111899259A (zh) 一种基于卷积神经网络的前列腺癌组织微阵列分级方法
CN116681883A (zh) 基于Swin Transformer改进的乳腺影像病灶检测方法
CN112862783A (zh) 一种基于神经网络的甲状腺ct图像结节自动诊断系统
CN115471701A (zh) 基于深度学习和迁移学习的肺腺癌组织学亚型分类方法
CN114494215A (zh) 基于Transformer的甲状腺结节检测方法
CN115205520A (zh) 胃镜图像智能目标检测方法、系统、电子设备及存储介质
CN115775226A (zh) 基于Transformer的医学图像分类方法
CN114581474A (zh) 一种基于宫颈癌ct影像的临床靶区自动勾画方法
CN114565601A (zh) 基于DeepLabV3+改进的肝脏CT图像分割算法
CN109948706B (zh) 结合深度学习与特征多尺度融合的微钙化簇检测方法
CN116597218A (zh) 一种病理切片图像病变分级分类检测方法
CN116778250A (zh) 基于迁移学习和cbam的冠脉病变分类方法
CN114565626A (zh) 基于PSPNet改进的肺部CT图像分割算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication