CN116188352A - 一种基于增强边缘特征的肺结节分割方法 - Google Patents

一种基于增强边缘特征的肺结节分割方法 Download PDF

Info

Publication number
CN116188352A
CN116188352A CN202210903408.4A CN202210903408A CN116188352A CN 116188352 A CN116188352 A CN 116188352A CN 202210903408 A CN202210903408 A CN 202210903408A CN 116188352 A CN116188352 A CN 116188352A
Authority
CN
China
Prior art keywords
edge
image
nodule
network
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210903408.4A
Other languages
English (en)
Inventor
李阳
程照雪
朱晓燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Technology
Original Assignee
Changchun University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Technology filed Critical Changchun University of Technology
Priority to CN202210903408.4A priority Critical patent/CN116188352A/zh
Publication of CN116188352A publication Critical patent/CN116188352A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • G06T2207/30064Lung nodule
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

本发明针对在肺结节分割过程中结节边缘像素点模糊导致模型分割精度低的问题,提供了一种用于增强边缘特征的对称双分支结构分割方法。利用Gabor卷积对纹理特征的提取能力和U‑Net网络的完全对称结构与跳跃连接,模型主干分支通过利用U‑Net提取结节全局信息,由于U‑Net结构固定,不能提取不同尺度和方向上的特征,处理边缘纹理能力有限。因此提供了Gabor卷积模块作用于边缘分支来弥补U‑Net这一缺点,为充分提取结节边缘特征进行网络预测,分析并制作了边缘标签。并且通过跳跃连接对主干分支与边缘分支编码器提取到的特征进行融合,在模型训练过程中,网络中存在图像正负类样本不平衡的现象,为此提出了一种混合损失函数。

Description

一种基于增强边缘特征的肺结节分割方法
技术领域
本发明属于医学图像分割技术领域,具体涉及到一种增强边缘特征的肺结节分割方法。
背景技术
肺癌是世界上最致命的癌症之一,患者在五年内生存率仅为19%。肺癌生存率与首次确诊时的疾病阶段密切相关,由于早期肺癌通常无症状,多数患者到中晚期才被诊断,只有21%的患者在早期被确诊。如能做到早期筛查,则患者五年内生存率将达到70%-90%,因此患者的早诊早治至关重要。目前,临床上以CT作为筛查肺癌的常规手段。
肺癌在CT上的早期表现通常为肺结节,是圆形或类圆形的致密影。肺结节分割是肺癌早期诊断的关键步骤,能够辅助放射科医生评估结节直径和形态。然而肺结节边界模糊、大小形态各异、纹理不均匀以及与肺实质中血管等组织相似,会对医生的判断产生干扰。因此,开发肺结节自动分割技术,可以提高肺癌临床诊断过程的效率,对后续诊疗具有重要意义。
近年来,许多深度学习方法被提出,并被应用于肺结节分割。深度学习模型利用结节切片进行训练,对于输入图像数据能够自动地学习并提取其特征,完成肺结节的分割任务。 U-Net具有灵活、简单的优点,并且在少量样本下依旧能获得良好的分割效果,引起很多学者对其结构进行进一步研究。尽管很多模型在肺结节整体分割方面取得了较好效果,但在一定程度上忽略了结节模糊边缘纹理特征对分割结果的影响,致使模型分割精度不高。
发明内容
本发明的目的在于提供一种增强边缘特征的肺结节分割方法,使用该方法训练数据,解决现有的研究方法无法有效处理图像边缘纹理特征的问题。本发明提供的肺结节分割网络模型包括主干分支和边缘分支两个部分。其中,通过提供主干分支利用U-Net提取结节全局信息,实现结节特征提取;通过提供Gabor卷积模块作用于边缘分支,为充分提取结节边缘特征进行网络预测,解决U-Net处理结节边缘纹理能力有限的问题。
本发明提供了一种增强边缘特征的肺结节分割方法,包括如下步骤:
步骤1:获取肺结节数据集,并对其进行数据预处理,构造出网络所需数据集,包括构造了肺结节原始数据集Iimage、医生标注好的结节标签Imask、边缘分支所需要的边缘标签Iedge
步骤2:对步骤1所获取的数据集Iimage、Imask和Iedge分别进行划分以获得各自的训练集、验证集和测试集,对训练集和验证集进行数据扩充;
步骤3:提供一种用于肺结节分割任务的增强边缘特征双分支网络;
步骤4:使用步骤2中提供的训练集和验证集对提供的边缘特征增强网络进行训练;
步骤5:使用步骤4中训练好的网络对结节图像进行预测,并输出结节预测图像。
进一步地,所述步骤1中的肺结节数据集来自LIDC-IDRI,根据标注文件中提供的结节位置中心点将原始图像与标签图像尺寸裁剪为96×96像素大小构造出Iimage和Imask,所述边缘标签Iedge制作步骤具体如下:
步骤1.1:将结节标签记为F(x,y),使用Sobel算子获取图像梯度信息记为I(x,y),可由式(1)来表达:
Figure BDA0003766396050000021
其中Ix代表Sobel在x方向的算子与原图像F进行相关操作的结果,Iy代表Sobel在y方向的算子与原图像F进行相关操作的结果,I(x,y)代表图像在点(x,y)处梯度的幅值。
步骤1.2:对提取到的梯度值进行非极大值抑制;
步骤1.3:用双阈值算法检测和连接边缘,得到完整的边缘图像记作I′(x,y);.
步骤1.4:遍历I′(x,y)得到边缘坐标信息,分别对检测到的每个边缘点扩展至三个像素点,即每个边缘点向左右两端延展一个单位像素,得到更加清晰的结节边缘标签图像Iedge
进一步地,所述步骤2中数据集的划分是将Iimage、Imask和Iedge分别按照8:1:1 的比例划分训练集、验证集和测试集;数据扩充操作包括将Iimage和Imask中的图像进行随机裁剪、随机水平翻转、随机旋转。
进一步地,所述步骤3中提供的一种用于肺结节分割任务的增强边缘特征双分支网络包括主干网络和分支网络两个部分。
步骤3.1:提供具有U-Net结构的主干分支。编码阶段由两个连续的3×3卷积来提取结节特征,并将ReLU激活函数替换为Swish激活函数,将一个步长为2的2×2的最大池化层用于下采样,重复四次来降低图像尺寸获得结节浅层特征。解码阶段由一个2×2的反卷积和两个连续的3×3卷积组成,共经历四次来恢复图像尺寸并获取结节深层特征。在最后阶段,应用1×1卷积将图像的特征映射减少到所需通道数,生成分割图像。采用跳跃连接的方法,将编码器中提取到的结节特征拼接到解码器中对应的层加以结合获取更多结节信息。
步骤3.2:提供了具有编码-解码结构的边缘分支。编码部分使用Gabor卷积模块,通过Gabor卷积模块构成的编码器后,生成的特征图尺寸将减半,编码器共经历四次下采样获得所需特征图;解码器经历四次上采样将Gabor卷积模块提取到的特征还原至输入尺寸。在边缘分支进行编码过程中采用跳跃连接的方式将提取到的纹理信息拼接到主干分支中进行整合,得到更为精细的分割结果。
进一步地,所述步骤3.2中的Gabor卷积模块具体过程如下:
Gabor卷积模块由两个卷积层、一个激活层、一个池化层以及一个通道注意力机制组成。Gabor卷积模块通过一个3×3的卷积进行结节特征提取获取信息,随后使用一个Gabor 卷积层增强网络对结节边缘特征的提取能力。利用最大池化层来降低图像分辨率,从而减少参数。进一步使用通道注意力机制来增强边缘纹理特征的响应,以增强边缘纹理特征的提取能力。
进一步地,所述步骤4中的对步骤2中提供的训练集、验证集对提供的边缘特征增强网络进行训练具体过程如下:
步骤4.1:提供网络训练参数,参数训练使用Adam优化算法,批量大小设置为16,训练迭代100次,动量因子为0.9,初始学习率为0.05;
步骤4.2:提供混合损失函数L,由于网络模型是一种双分支结构,使用交叉熵损失函数来学习肺结节整体区域,Focal Loss作用于边缘分支以缓解样本极不平衡的情况,可以由式(2)来表达:
Figure BDA0003766396050000031
其中,α代表权重因子,N代表样本像素点个数,yi代表像素点i的类别,正样本为1,负样本为0,γ代表动态缩放系数,pi代表像素点预测为正的概率。
进一步地,所述步骤5中使用步骤4中训练好的网络对结节图像进行预测是将图像输入至网络中,最后通过1×1卷积得到结节预测图像。
与现有技术相比,本发明有益效果如下:
1.本发明提供了一种对称双分支结构分割网络,主干分支通过利用U-Net提取结节全局信息,由于U-Net结构固定,不能提取不同尺度和方向上的特征,处理边缘纹理能力有限,故提供了Gabor卷积模块作用于边缘分支来弥补U-Net的缺点;
2.为充分提取结节边缘特征进行网络预测,本发明分析并制作了边缘标签;
3.在网络进行训练的过程中,网络中存在图像正负类样本不平衡的现象,为此本发明提供了一种混合损失函数,通过交叉熵作用于主干分支以及Focal Loss作用于边缘分支,将二者进行加权融合作为整个网络的损失来充分训练模型,进一步优化模型。
附图说明
为更加清楚地介绍本发明中的技术方案,下面对实施案例中所需要的附图做简单介绍。显而易见地,本发明包括但不仅限于下述实施例,对于本领域的研究人员,可以通过对本发明的复现实现肺结节分割问题的应用。
图1是本发明方法的流程示意图;
图2是本发明提供的一种用于肺结节分割任务的增强边缘特征双分支网络结构图;
图3是本发明提供的肺结节数据预处理流程示意图;
图4是本发明提供的Gabor卷积模块示意图;
图5是本发明提供的Gabor卷积层调制过程示意图;
图6是本发明提供的实施例中肺部CT图像预测结果图。
具体实施方式
为使本发明上述目的和优点更加明显易懂,下面将结合附图和具体实施案例对本发明提供的技术方案进行详细说明。需要注意的是,本发明包括但不仅限于下述实施例,在未做出创新工作下所获得的其他所有实施例,均属于本发明的保护范畴。
实施例
如图1所示,一种增强边缘特征的肺结节分割方法包括以下步骤:
步骤1:获取肺结节数据集,并对其进行数据预处理,构造出网络所需数据集,包括构造了肺结节原始数据集Iimage、医生标注好的结节标签Imask、边缘分支所需要的边缘标签Iedge
步骤2:对步骤1所获取的数据集Iimage、Imask和Iedge分别进行划分以获得各自的训练集、验证集和测试集,对训练集和验证集进行数据扩充;
步骤3:提供一种用于肺结节分割任务的增强边缘特征双分支网络;
步骤4:使用步骤2中提供的训练集和验证集对提供的边缘特征增强网络进行训练;
步骤5:使用步骤4中训练好的网络对结节图像进行预测,并输出结节预测图像。
本发明提供的一种用于肺结节分割任务的增强边缘特征双分支网络结构如图2所示,包括U-Net主干分支和具有编码-解码结构的边缘分支。
主干分支编码阶段由两个连续的3×3卷积来提取结节特征,并将ReLU激活函数替换为Swish激活函数,将一个步长为2的2×2的最大池化层用于下采样,重复四次来降低图像尺寸获得结节浅层特征。主干分支解码阶段由一个2×2的反卷积和两个连续的3×3卷积组成,共经历四次来恢复图像尺寸并获取结节深层特征。在最后阶段,应用1×1卷积将图像的特征映射减少到所需通道数,生成分割图像。采用跳跃连接的方法,将编码器中提取到的结节特征拼接到解码器中对应的层加以结合获取更多结节信息。
边缘分支编码部分使用Gabor卷积模块,通过Gabor卷积模块构成的编码器后,生成的特征图尺寸将减半,编码器共经历四次下采样获得所需特征图;解码器经历四次上采样将Gabor卷积模块提取到的特征还原至输入尺寸。在边缘分支进行编码过程中采用跳跃连接的方式将提取到的纹理信息拼接到主干分支中进行整合,得到更为精细的分割结果。
本发明提供的肺结节数据预处理过程如图3所示,本实施例中,肺部CT图像数据集来自LIDC-IDRI,共获取4115张图像。根据标注文件中提供的结节位置中心点将原始图像与标签图像尺寸裁剪为96×96像素大小构造出Iimage和Imask,所述边缘标签Iedge制作步骤具体如下:
步骤1.1:将结节标签记为F(x,y),使用Sobel算子获取图像梯度信息记为I(x,y),可由式(1)来表达:
Figure BDA0003766396050000051
其中Ix代表Sobel在x方向的算子与原图像F进行相关操作的结果,Iy代表Sobel在y方向的算子与原图像F进行相关操作的结果,I(x,y)代表图像F在点(x,y)处梯度的幅值。
步骤1.2:对提取到的梯度值进行非极大值抑制;
步骤1.3:用双阈值算法检测和连接边缘,得到完整的边缘图像记作I′(x,y);.
步骤1.4:遍历I′(x,y)得到边缘坐标信息,分别对检测到的每个边缘点扩展至三个像素点,即每个边缘点向左右两端延展一个单位像素,得到更加清晰的结节边缘标签图像Iedge
本发明提供的Gabor卷积模块结构如图4所示,Gabor卷积模块由两个卷积层、一个激活层、一个池化层以及一个通道注意力机制组成。Gabor卷积模块通过一个3×3的卷积进行结节特征提取获取信息,随后使用一个Gabor卷积层增强网络对结节边缘特征的提取能力。利用最大池化层来降低图像分辨率,从而减少参数。进一步使用通道注意力机制来增强边缘纹理特征的响应,以增强边缘纹理特征的提取能力。
本发明提供的Gabor卷积层调制过程如图5所示,将Gabor滤波器应用在卷积神经网络之后,在每个卷积层中,卷积滤波器与不同方向和尺度的Gabor滤波器进行西格玛乘积实现调制,形成了Gabor方向滤波器,相应地,卷积特征得到的结节特征被增强。与标准的卷积层输出特征不同,经过Gabor卷积层输出的特征图对于图像尺度和方向变化具有更强的鲁棒性,有利于网络对结节边缘特征进行学习。
本实施例中对肺结节CT图像预测结果如图6所示,从图像中可以看出肺结节边缘轮廓更加清晰,分割结果比较接近医生标注好的结节标签。

Claims (5)

1.一种基于增强边缘特征的肺结节分割方法,其特征在于,包括如下步骤:
步骤1:获取肺结节数据集,并对其进行数据预处理,构造出网络所需数据集,包括构造了肺结节原始数据集Iimage、医生标注好的结节标签Imask、边缘分支所需要的边缘标签Iedge
步骤2:对步骤1所获取的数据集Iimage、Imask、Iedge分别进行划分以获得各自的训练集、验证集和测试集,对训练集和验证集进行数据扩充;
步骤3:提供一种用于肺结节分割任务的增强边缘特征双分支网络;
步骤4:使用步骤2中提供的训练集、验证集对提供的边缘特征增强网络进行训练;
步骤5:使用步骤4中训练好的网络对结节图像进行预测,并输出结节预测图像。
2.根据权利要求1所述的一种基于增强边缘特征的肺结节分割方法,其特征在于,所述步骤1中提供的边缘标签Iedge制作过程具体如下:
步骤1.1:将结节标签记为F(x,y),使用Sobel算子获取图像梯度信息记为I(x,y),可由式(1)来表达:
Figure FDA0003766396040000011
其中Ix代表Sobel在x方向的算子与原图像F进行相关操作的结果,Iy代表Sobel在y方向的算子与原图像F进行相关操作的结果,I(x,y)代表图像F在点(x,y)处梯度的幅值。
步骤1.2:对提取到的梯度值进行非极大值抑制;
步骤1.3:用双阈值算法检测和连接边缘,得到完整的边缘图像记作I′(x,y);.
步骤1.4:遍历I′(x,y)得到边缘坐标信息,分别对检测到的每个边缘点扩展至三个像素点,即每个边缘点向左右两端延展一个单位像素,得到更加清晰的结节边缘标签图像Iedge
3.根据权利要求1所述的一种基于增强边缘特征的肺结节分割方法,其特征在于,所述步骤3中提供的一种基于增强边缘特征的双分支网络结构具体如下:
步骤3.1:模型主干分支通过U-Net提取结节全局信息;
步骤3.2:提供了具有编码-解码结构的边缘分支。编码部分使用Gabor卷积模块,通过Gabor卷积模块构成的编码器后,生成的特征图尺寸将减半,编码器共经历四次下采样获得所需特征图;解码器经历四次上采样将Gabor卷积模块提取到的特征还原至输入尺寸。在边缘分支进行编码过程中采用跳跃连接的方式将提取到的纹理信息拼接到主干分支中进行整合,得到更为精细的分割结果。
4.根据权利要求3所述的一种基于增强边缘特征的肺结节分割方法,其特征在于,所述步骤3.2中的Gabor卷积模块具体过程如下:
Gabor卷积模块由两个卷积层、一个激活层、一个池化层以及一个通道注意力机制组成。Gabor卷积模块通过一个3×3的卷积进行结节特征提取获取信息,随后使用一个Gabor卷积层增强网络对结节边缘特征的提取能力。利用最大池化层来降低图像分辨率,从而减少参数。进一步使用通道注意力机制来增强边缘纹理特征的响应,以增强边缘纹理特征的提取能力。
5.根据权利要求1所述的一种基于增强边缘特征的肺结节分割方法,其特征在于,所述步骤4中的具体训练过程如下:
步骤4.1:提供网络训练参数,参数训练使用Adam优化算法,批量大小设置为16,训练迭代100次,动量因子为0.9,初始学习率为0.05;
步骤4.2:提供混合损失函数L,由于网络模型是一种双分支结构,使用交叉熵损失函数来学习肺结节整体区域,Focal Loss作用于边缘分支以缓解样本极不平衡的情况,可以由式(2)来表达:
Figure FDA0003766396040000021
其中,α代表权重因子,N代表样本像素点个数,yi代表像素点i的类别,正样本为1,负样本为0,γ代表动态缩放系数,pi代表像素点预测为正的概率。
CN202210903408.4A 2022-07-26 2022-07-26 一种基于增强边缘特征的肺结节分割方法 Pending CN116188352A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210903408.4A CN116188352A (zh) 2022-07-26 2022-07-26 一种基于增强边缘特征的肺结节分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210903408.4A CN116188352A (zh) 2022-07-26 2022-07-26 一种基于增强边缘特征的肺结节分割方法

Publications (1)

Publication Number Publication Date
CN116188352A true CN116188352A (zh) 2023-05-30

Family

ID=86431288

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210903408.4A Pending CN116188352A (zh) 2022-07-26 2022-07-26 一种基于增强边缘特征的肺结节分割方法

Country Status (1)

Country Link
CN (1) CN116188352A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116543167A (zh) * 2023-07-04 2023-08-04 真健康(北京)医疗科技有限公司 Ct图像分割方法及设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116543167A (zh) * 2023-07-04 2023-08-04 真健康(北京)医疗科技有限公司 Ct图像分割方法及设备
CN116543167B (zh) * 2023-07-04 2023-09-05 真健康(北京)医疗科技有限公司 Ct图像分割方法及设备

Similar Documents

Publication Publication Date Title
CN106940816B (zh) 基于3d全卷积神经网络的ct图像肺结节检测系统
CN111047551B (zh) 一种基于U-net改进算法的遥感影像变化检测方法及系统
CN111369565B (zh) 一种基于图卷积网络的数字病理图像的分割与分类方法
WO2022100495A1 (zh) 一种磨玻璃样肺结节自动分割方法及计算机设备
CN112258488A (zh) 一种医疗影像病灶分割方法
CN112712528B (zh) 一种多尺度u型残差编码器与整体反向注意机制结合的肠道病灶分割方法
CN112489061A (zh) 一种基于多尺度信息与并行注意力机制的深度学习肠道息肉分割方法
CN113674253A (zh) 基于U-Transformer的直肠癌CT影像自动分割方法
CN114266794B (zh) 基于全卷积神经网络的病理切片图像癌症区域分割系统
CN112734755A (zh) 基于3d全卷积神经网络与多任务学习的肺叶分割方法
CN111275686B (zh) 用于人工神经网络训练的医学图像数据的生成方法及装置
CN112884788B (zh) 基于丰富上下文网络的视杯视盘分割方法及成像方法
CN113034505A (zh) 一种基于边缘感知网络的腺体细胞图像分割方法及装置
CN113066025B (zh) 一种基于增量学习与特征、注意力传递的图像去雾方法
CN112927237A (zh) 基于改进SCB-Unet网络的蜂窝肺病灶分割方法
CN116228792A (zh) 一种医学图像分割方法、系统及电子装置
CN115375711A (zh) 基于多尺度融合的全局上下文关注网络的图像分割方法
CN113870286A (zh) 一种基于多级特征和掩码融合的前景分割方法
CN112785581A (zh) 基于深度学习的提取训练大血管cta成像的培训方法和装置
CN116188352A (zh) 一种基于增强边缘特征的肺结节分割方法
CN113344933B (zh) 一种基于多层次特征融合网络的腺体细胞分割方法
CN112330662B (zh) 一种基于多层级神经网络的医学图像分割系统及方法
WO2024104035A1 (zh) 基于长短期记忆自注意力模型的三维医学图像分割方法及系统
CN117934824A (zh) 一种超声影像的目标区域分割方法、系统及电子设备
CN111667488B (zh) 一种基于多角度U-Net的医学图像分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination