CN114972192A - 一种基于深度学习的乳腺钼靶胸大肌区域分割方法 - Google Patents

一种基于深度学习的乳腺钼靶胸大肌区域分割方法 Download PDF

Info

Publication number
CN114972192A
CN114972192A CN202210449075.2A CN202210449075A CN114972192A CN 114972192 A CN114972192 A CN 114972192A CN 202210449075 A CN202210449075 A CN 202210449075A CN 114972192 A CN114972192 A CN 114972192A
Authority
CN
China
Prior art keywords
image
molybdenum target
pectoralis major
breast molybdenum
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210449075.2A
Other languages
English (en)
Other versions
CN114972192B (zh
Inventor
陈丰农
章梦达
刘元振
张娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202210449075.2A priority Critical patent/CN114972192B/zh
Publication of CN114972192A publication Critical patent/CN114972192A/zh
Application granted granted Critical
Publication of CN114972192B publication Critical patent/CN114972192B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的乳腺钼靶胸大肌区域分割方法,包括:获取原始乳腺钼靶图像并预处理:依次进行格式转换、去除标签、Gamma校正、勾画胸大肌并转为掩膜图像;将对应的去除拍摄信息标签后的图像和掩膜图像进行扩充,获得数据集;建立DeepLabV3模型并训练;将待识别图像依次进行格式转换、去除拍摄信息标签和Gamma校正,获得第一乳腺钼靶图像;采用训练好的模型对第一乳腺钼靶图像进行预测,输出预测特征图并重构尺寸;将经过格式转换后的待识别图像和重构后的预测特征图相乘,获得目标乳腺钼靶图像。该方法可提高钼靶影像去除胸肌部分的效率及腺体含量计算精准度,为患者患乳腺癌风险的预测提供更好的依据。

Description

一种基于深度学习的乳腺钼靶胸大肌区域分割方法
技术领域
本发明属于图像处理技术领域,具体涉及一种基于深度学习的乳腺钼靶胸大肌区域分割方法。
背景技术
乳腺癌是女性恶性肿瘤之首,当前数字乳腺X线(钼靶)是筛查早期乳腺癌的主要检查手段,早在1976年就有学者提出钼靶影像中的腺体密度可以作为乳腺癌的独立风险因素之一,在后续的研究中相继有学者提出原发及复发性乳腺癌都与患者的腺体密度有着强相关性。精准的提取出钼靶影像中的腺体部分对后续的诊断有着极大的帮助,但是由于胸大肌区域与腺体区域的灰阶度较为相似,通过计算机技术对钼靶影像腺体部分提取时,胸大肌部分对其精度有着较大的影像。正确的分割钼靶影像中胸大肌部分对乳腺腺体含量估计以及患者患乳腺癌风险的预测有着重要意义。
现阶段去除钼靶图像中胸大肌区域较为常见的有以下两种方法:一种是基于传统图像特征提取的方法,通过灰度变化、边缘检测、灰度共生矩阵等方法提取出胸肌和脂肪间隙两者之间的特征,通过两者特征之间的差异找出胸肌边界;另一种方法则是使用机器学习的方法结合钼靶图像中像素点特征构建机器学习模型,从而进行模型的预测得到胸肌区域,如K均值聚类、支持向量机(SVM)和模糊K均值聚类法。但这两类方法存在如下缺陷:由于钼靶图像分辨率较高,无效信息含量较多的特点,机器学习进行目标预测时,在精度达标的同时,其计算机资源消耗较高,且速度较慢;由于不同种类乳腺含量不同,脂肪间隙常包含部分腺体、不同钼靶机及医生拍摄时造成的差异。在这些特殊情况下,传统图像算法耗时较慢,且最终处理的效果不太理想。
发明内容
本发明的目的在于针对上述问题,提出一种基于深度学习的乳腺钼靶胸大肌区域分割方法,可提高钼靶影像去除胸肌部分的效率及腺体含量计算精准度,为患者患乳腺癌风险的预测提供更好的依据。
为实现上述目的,本发明所采取的技术方案为:
本发明提出的一种基于深度学习的乳腺钼靶胸大肌区域分割方法,包括如下步骤:
S1、获取原始乳腺钼靶图像并进行预处理,预处理具体如下:
S11、将原始乳腺钼靶图像进行格式转换;
S12、基于最大轮廓检测算法对格式转换后的图像进行拍摄信息标签去除;
S13、基于Gamma校正对去除拍摄信息标签后的图像进行胸大肌区域特征增强;
S14、利用Labelme软件勾画Gamma校正后的图像的胸大肌区域生成Json文件;
S15、将Json文件转换为掩膜图像,标记胸大肌区域像素值为1,其余区域像素值为0;
S2、利用数据增强算法将对应的去除拍摄信息标签后的图像和掩膜图像分别进行扩充,将扩充后的图像归为数据集;
S3、建立DeepLabV3模型并利用数据集进行模型训练;
S4、将待识别乳腺钼靶图像依次进行格式转换、去除拍摄信息标签和Gamma校正,获得第一乳腺钼靶图像;
S5、采用训练好的DeepLabV3模型对第一乳腺钼靶图像中胸大肌区域进行预测,输出预测特征图,并将预测特征图重构尺寸为经过格式转换后的待识别乳腺钼靶图像的尺寸;
S6、将经过格式转换后的待识别乳腺钼靶图像和重构后的预测特征图进行相乘操作,获得去除胸大肌后的目标乳腺钼靶图像。
优选地,格式转换为将DICOM格式转换为PNG格式,掩膜图像为PNG格式。
优选地,利用数据增强算法将对应的去除拍摄信息标签后的图像和掩膜图像分别进行扩充,具体如下:
S21、将对应的去除拍摄信息标签后的图像和掩膜图像分别进行N种Gamma值的Gamma校正;
S22、将校正前后的图像均进行水平翻转,获得扩充后的图像,扩充后的图像包括校正前后的图像和水平翻转后的图像。
优选地,步骤S21中,N=4,Gama值分别为0.43、0.51、0.55和0.68。
优选地,将扩充后的图像归为数据集前还将扩充后的图像重构为相同尺寸。
优选地,利用数据集进行模型训练采用Cross Entropy Loss和Dice Loss作为总损失函数。
与现有技术相比,本发明的有益效果为:
1)该方法采用深度学习DeepLabV3语义分割模型,并使用Cross Entropy Loss和Dice Loss作为总损失函数,与传统的语义分割模型常用的Entropy Loss或Softmax Loss相比,Dice Loss计算了人工勾画与模型预测掩膜图像的相似度,使语义分割模型的Loss函数计算更加严谨准确;
2)该方法与传统图像和机器学习去除胸大肌区域的算法相比,在算法中省去了复杂的特征提取部分,而且通过本申请所提出的图像,经过预处理工作后所训练的模型适用于不同种类和各种特殊情况下的胸肌区域分割,同时本申请分割钼靶胸肌区域所使用的时间是传统算法的1/7倍,是机器学习算法的1/25倍,解决了背景技术中所提到的效率问题和现实当中特殊情况下的钼靶图像中胸肌区域分割的问题,进一步提高了钼靶影像去除胸肌部分的效率及腺体含量计算时的精准度,为患者患乳腺癌风险的预测提供更好的依据。
附图说明
图1为本发明基于深度学习的乳腺钼靶胸大肌区域分割方法流程图;
图2为本发明步骤S12中去除拍摄信息标签前后的对比图;
图3为本发明步骤S21中Gamma校正前后的对比图;
图4为本发明步骤S2中数据增强扩充结果图;
图5为本发明步骤S3中模型第一次训练及模型超参数调优后使用迁移学习的批次和损失结果图;
图6为本发明步骤S6中目标乳腺钼靶图像结果图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是在于限制本申请。
如图1-6所示,一种基于深度学习的乳腺钼靶胸大肌区域分割方法,包括如下步骤:
S1、获取原始乳腺钼靶图像并进行预处理,预处理具体如下:
S11、将原始乳腺钼靶图像进行格式转换;
S12、基于最大轮廓检测算法对格式转换后的图像进行拍摄信息标签去除;
S13、基于Gamma校正对去除拍摄信息标签后的图像进行胸大肌区域特征增强;
S14、利用Labelme软件勾画Gamma校正后的图像的胸大肌区域生成Json文件;
S15、将Json文件转换为掩膜图像,标记胸大肌区域像素值为1,其余区域像素值为0。
在一实施例中,格式转换为将DICOM格式转换为PNG格式,掩膜图像为PNG格式。
其中,预处理包括依次将原始乳腺钼靶图像进行格式转换、最大轮廓算法、Gamma校正(伽马校正)、胸肌区域勾画和掩膜图像转换。格式转换为将DICOM格式转换为PNG格式(像素值区域为0~255),获得原始PNG钼靶图像。在PNG图像中使用最大轮廓检测算法寻找最大轮廓区域(乳房),将最大轮廓区域与PNG图像相乘,去除图像上的拍摄信息标签(如医院、时间等信息)。使用伽马校正对不同种类腺体的钼靶图像进行胸肌区域特征增强,即增强胸肌边界及脂肪间隙之间的特征。医生使用Labelme软件对胸大肌区域进行精准勾画,得到胸大肌区域Json文件;通过Json转换算法将Json文件转换为胸大肌区域掩膜图像(胸大肌区域像素值为1,其余为背景区域,像素值为0)。通过预处理去除原始乳腺钼靶图像中的干扰部分、增强数据特征以及勾画胸大肌影部分,为DeepLabV3模型训练提供了有效、精准的数据。
S2、利用数据增强算法将对应的去除拍摄信息标签后的图像和掩膜图像分别进行扩充,将扩充后的图像归为数据集。
在一实施例中,利用数据增强算法将对应的去除拍摄信息标签后的图像和掩膜图像分别进行扩充,具体如下:
S21、将对应的去除拍摄信息标签后的图像和掩膜图像分别进行N种Gamma值的Gamma校正;
S22、将校正前后的图像均进行水平翻转,获得扩充后的图像,扩充后的图像包括校正前后的图像和水平翻转后的图像。
在一实施例中,步骤S21中,N=4,Gama值分别为0.43、0.51、0.55和0.68。
在一实施例中,将扩充后的图像归为数据集前还将扩充后的图像重构为相同尺寸。
其中,由于乳腺钼靶侧斜位中胸大肌的位置及角度也作为一种特征,所以根据其胸大肌位置特点,将数据集只进行左右翻转操作进行数据扩充。如图3所示,为使用四种Gamma值0.43、0.51、0.55和0.68分别对四种去除拍摄信息标签后的图像(ACR-a、ACR-b、ACR-c、ACR-d)进行胸大肌区域增强,弱化脂肪间隙区域。如图4所示,为对同一去除拍摄信息标签后的图像进行胸大肌区域增强,根据钼靶胸大肌区域特征,对去除拍摄信息标签后的图像(记为原始数据)进行Gamma校正(如使用四种Gamma值0.43、0.51、0.55和0.68分别校正)、水平翻转,根据乳腺腺体进行Gamma矫正的4个矫正值,对上述水平翻转后的数据进行4次数据扩充,并对去除拍摄信息标签后的图像也进行水平翻转扩充,将数据扩充至原始数据量的10倍,其所对应的掩膜图像可进行相同处理进行数据扩充,扩充数据集可为DeepLabV3模型训练提供了有效、精准、大量的数据。将扩充后的图像重构至图像大小为512x512的单通道图像,将图像统一尺寸并进行压缩,便于输入后续所构建的DeepLabV3深度学习模型中进行训练。
S3、建立DeepLabV3模型并利用数据集进行模型训练。
在一实施例中,利用数据集进行模型训练采用Cross Entropy Loss和Dice Loss作为总损失函数。
其中,将扩充后的图像形成的数据集按照8:1:1的比例划分为训练集(Train)、验证集(Validation)和测试集(Test)进行模型训练,模型训练采用Cross Entropy Loss和Dice Loss作为总损失函数,保存每一轮训练的权重文件,每训练一个批次结束后,使用验证集对该批次的模型泛化性能进行验证,根据训练的总损失以及验证集上的损失值进行学习率的调整,待所有批次训练完成后使用测试集验证模型最终的泛化性能;训练完成后根据模型和数据的特点对模型的超参数调整,最终保存总损失及验证集损失最小批次的权重文件作为最终模型权重参数。
具体地,使用Pytorch深度学习框架构建DeepLabV3语义分割模型,添加CrossEntropy Loss和Dice Loss两种损失作为损失函数,使用Adam优化器对模型进行优化,其初始学习率为0.0005,并设置在训练中,若本次的总损失大于等于前一次的总损失,则自动下降学习率,反之则不变;将图像送入所构建的DeepLabV3深度学习模型中进行训练400个epochs,设置Batch Size为32,设置保存每一轮训练后得到的模型参数,并命名为训练批次_TotalLoss_总损失值_ValLoss_验证集损失值,同时设置早停机制,若验证集上的准确率在10次连续训练的过程中不再变化,则停止训练默认模型找到最优解。如首先使用扩充后的数据让模型训练200个epochs,其中添加早停机制(若验证集上的准确率在10次连续训练的过程中不再变化,则停止训练默认模型找到最优解);使用迁移学习将第一次训练的权重参数对模型进行初始化,并添加学习率自动衰减机制(若本次的总损失大于等于前一次的总损失,则自动下降学习率,反之则不变)对调优后得模型进行二次训练。由图5可知,通过超参数及模型调整后的模型训练集和验证集损失值将至0.01以下,模型泛化性能达到最优,完成训练。
S4、将待识别乳腺钼靶图像依次进行格式转换、去除拍摄信息标签和Gamma校正,获得第一乳腺钼靶图像。
其中,将待识别乳腺钼靶图像进行处理,如格式转换为将DICOM格式转换为PNG格式(像素值区域为0~255)。在PNG图像中使用最大轮廓检测算法寻找最大轮廓区域(乳房),去除图像上的拍摄信息标签(如医院、时间等信息)。使用伽马校正对不同种类腺体的钼靶图像进行胸肌区域特征增强,即增强胸肌边界及脂肪间隙之间的特征,获得第一乳腺钼靶图像。再将第一乳腺钼靶图像的尺寸重构为512x512的单通道图像后,送入DeepLabV3模型进行预测。
S5、采用训练好的DeepLabV3模型对第一乳腺钼靶图像中胸大肌区域进行预测,输出预测特征图,并将预测特征图重构尺寸为经过格式转换后的待识别乳腺钼靶图像的尺寸。
其中,DeepLabV3模型在预测过程中按照概率值对图像各像素点进行上色,如采用二分类,存在两种概率,如使用Numpy科学工具包的argmax()函数提取出所对应的区域并上色,以概率大的位置为胸大肌区域,上色为255,概率小的位置为背景区域,上色为0,获得预测特征图,即分割后的胸大肌掩膜图像。
S6、将经过格式转换后的待识别乳腺钼靶图像和重构后的预测特征图进行相乘操作,获得去除胸大肌后的目标乳腺钼靶图像。如图6所示,左侧上图为待识别原始PNG钼靶图像(即经过格式转换后的待识别乳腺钼靶图像,为PNG格式),左侧下图为对应的重构后的预测特征图,右图为进行相乘操作后获得的目标乳腺钼靶图像,图中灰色底色仅用便于区分各图像边界,避免图像白色区域与图纸白色背景混合,或还可采用虚线区分图像边界。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请描述较为具体和详细的实施例,但并不能因此而理解为对申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (6)

1.一种基于深度学习的乳腺钼靶胸大肌区域分割方法,其特征在于:所述基于深度学习的乳腺钼靶胸大肌区域分割方法包括如下步骤:
S1、获取原始乳腺钼靶图像并进行预处理,所述预处理具体如下:
S11、将原始乳腺钼靶图像进行格式转换;
S12、基于最大轮廓检测算法对格式转换后的图像进行拍摄信息标签去除;
S13、基于Gamma校正对去除拍摄信息标签后的图像进行胸大肌区域特征增强;
S14、利用Labelme软件勾画Gamma校正后的图像的胸大肌区域生成Json文件;
S15、将Json文件转换为掩膜图像,标记胸大肌区域像素值为1,其余区域像素值为0;
S2、利用数据增强算法将对应的去除拍摄信息标签后的图像和掩膜图像分别进行扩充,将扩充后的图像归为数据集;
S3、建立DeepLabV3模型并利用数据集进行模型训练;
S4、将待识别乳腺钼靶图像依次进行格式转换、去除拍摄信息标签和Gamma校正,获得第一乳腺钼靶图像;
S5、采用训练好的DeepLabV3模型对第一乳腺钼靶图像中胸大肌区域进行预测,输出预测特征图,并将预测特征图重构尺寸为经过格式转换后的待识别乳腺钼靶图像的尺寸;
S6、将经过格式转换后的待识别乳腺钼靶图像和重构后的预测特征图进行相乘操作,获得去除胸大肌后的目标乳腺钼靶图像。
2.如权利要求1所述的基于深度学习的乳腺钼靶胸大肌区域分割方法,其特征在于:所述格式转换为将DICOM格式转换为PNG格式,所述掩膜图像为PNG格式。
3.如权利要求1所述的基于深度学习的乳腺钼靶胸大肌区域分割方法,其特征在于:所述利用数据增强算法将对应的去除拍摄信息标签后的图像和掩膜图像分别进行扩充,具体如下:
S21、将对应的去除拍摄信息标签后的图像和掩膜图像分别进行N种Gamma值的Gamma校正;
S22、将校正前后的图像均进行水平翻转,获得扩充后的图像,所述扩充后的图像包括校正前后的图像和水平翻转后的图像。
4.如权利要求3所述的基于深度学习的乳腺钼靶胸大肌区域分割方法,其特征在于:步骤S21中,N=4,Gama值分别为0.43、0.51、0.55和0.68。
5.如权利要求1所述的基于深度学习的乳腺钼靶胸大肌区域分割方法,其特征在于:所述将扩充后的图像归为数据集前还将扩充后的图像重构为相同尺寸。
6.如权利要求1所述的基于深度学习的乳腺钼靶胸大肌区域分割方法,其特征在于:所述利用数据集进行模型训练采用Cross Entropy Loss和Dice Loss作为总损失函数。
CN202210449075.2A 2022-04-26 2022-04-26 一种基于深度学习的乳腺钼靶胸大肌区域分割方法 Active CN114972192B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210449075.2A CN114972192B (zh) 2022-04-26 2022-04-26 一种基于深度学习的乳腺钼靶胸大肌区域分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210449075.2A CN114972192B (zh) 2022-04-26 2022-04-26 一种基于深度学习的乳腺钼靶胸大肌区域分割方法

Publications (2)

Publication Number Publication Date
CN114972192A true CN114972192A (zh) 2022-08-30
CN114972192B CN114972192B (zh) 2024-02-20

Family

ID=82978871

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210449075.2A Active CN114972192B (zh) 2022-04-26 2022-04-26 一种基于深度学习的乳腺钼靶胸大肌区域分割方法

Country Status (1)

Country Link
CN (1) CN114972192B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200815A (zh) * 2020-10-12 2021-01-08 徐州医科大学附属医院 基于语义分割网络PSPNet的甲状腺结节超声图像的分割方法
CN112967285A (zh) * 2021-05-18 2021-06-15 中国医学科学院皮肤病医院(中国医学科学院皮肤病研究所) 一种基于深度学习的黄褐斑图像识别方法、系统和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200815A (zh) * 2020-10-12 2021-01-08 徐州医科大学附属医院 基于语义分割网络PSPNet的甲状腺结节超声图像的分割方法
CN112967285A (zh) * 2021-05-18 2021-06-15 中国医学科学院皮肤病医院(中国医学科学院皮肤病研究所) 一种基于深度学习的黄褐斑图像识别方法、系统和装置

Also Published As

Publication number Publication date
CN114972192B (zh) 2024-02-20

Similar Documents

Publication Publication Date Title
CN110930416B (zh) 一种基于u型网络的mri图像前列腺分割方法
Xian et al. Automatic breast ultrasound image segmentation: A survey
CN108596882A (zh) 病理图片的识别方法及装置
WO2021136368A1 (zh) 钼靶图像中胸大肌区域自动检测方法及装置
WO2019184851A1 (zh) 图像处理方法和装置及神经网络模型的训练方法
WO2022095258A1 (zh) 图像目标分类方法、装置、设备、存储介质及程序
CN111325750A (zh) 一种基于多尺度融合u型链神经网络的医学图像分割方法
CN111583201B (zh) 一种用于构建超分辨率病理显微镜的迁移学习方法
CN112767411B (zh) 一种肺部多器官同步分割方法
CN112820399A (zh) 自动诊断甲状腺结节良恶性的方法及装置
CN115601330A (zh) 一种基于多尺度空间反向注意力机制的结肠息肉分割方法
CN111062953A (zh) 一种超声图像中甲状旁腺增生的识别方法
CN114897782A (zh) 基于生成式对抗网络的胃癌病理切片图像分割预测方法
CN114581474A (zh) 一种基于宫颈癌ct影像的临床靶区自动勾画方法
CN112132841B (zh) 医疗图像切割方法及装置
CN111462084B (zh) 基于随机森林的图像矢量化印刷出血点预测系统和方法
CN117437423A (zh) 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置
CN113140309A (zh) 中医面色诊断方法及装置
CN116542924A (zh) 一种前列腺病灶区域检测方法、装置及存储介质
CN114972192A (zh) 一种基于深度学习的乳腺钼靶胸大肌区域分割方法
CN111062909A (zh) 乳腺肿块良恶性判断方法及设备
CN116129417A (zh) 一种基于低质量图像的数字仪表读数检测方法
CN115937083A (zh) 一种融合先验信息的前列腺磁共振图像区域分割方法
CN115578400A (zh) 图像处理方法、图像分割网络的训练方法及装置
CN109948706B (zh) 结合深度学习与特征多尺度融合的微钙化簇检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant