CN112132813B - 基于改进的UNet网络模型的皮肤超声影像分割方法 - Google Patents

基于改进的UNet网络模型的皮肤超声影像分割方法 Download PDF

Info

Publication number
CN112132813B
CN112132813B CN202011018821.XA CN202011018821A CN112132813B CN 112132813 B CN112132813 B CN 112132813B CN 202011018821 A CN202011018821 A CN 202011018821A CN 112132813 B CN112132813 B CN 112132813B
Authority
CN
China
Prior art keywords
layer
multiplied
convolution
size
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN202011018821.XA
Other languages
English (en)
Other versions
CN112132813A (zh
Inventor
杨军
邢恩铭
王文赛
王令宵
周盛
王晓春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Biomedical Engineering of CAMS and PUMC
Original Assignee
Institute of Biomedical Engineering of CAMS and PUMC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Biomedical Engineering of CAMS and PUMC filed Critical Institute of Biomedical Engineering of CAMS and PUMC
Priority to CN202011018821.XA priority Critical patent/CN112132813B/zh
Publication of CN112132813A publication Critical patent/CN112132813A/zh
Application granted granted Critical
Publication of CN112132813B publication Critical patent/CN112132813B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)

Abstract

一种基于改进的UNet网络模型的皮肤超声影像分割方法,包括:使用50MHz皮肤超声生物显微镜采集人体皮肤的二维超声图像,并将图片按照1:1:8的比例分为验证集、测试集和训练集;分别对验证集、测试集和训练集进行手工标注,标注出真皮层和表皮层;对手工标注后的验证集和训练集通过灰度变换、左右翻转的操作进行数据增强;将数据增强的验证集和训练集输入改进后的UNet模型中进行训练;将训练得到的模型参数作为预测模型,将测试集输入所述的预测模型进行图像分割,得到分割结果。本发明使网络变得更宽更深的同时还可以捕获更高层次的特征,提高分割精度。

Description

基于改进的UNet网络模型的皮肤超声影像分割方法
技术领域
本发明涉及一种皮肤超声影像分割方法。特别是涉及一种基于改进的UNet网络模型的皮肤超声影像分割方法。
背景技术
皮肤是人体与外界环境直接接触的器官,在人体皮肤中,表皮层位于最外层,覆盖全身,起到保护作用,真皮层位于表皮层之下,内部含有网状纤维、弹力纤维、胶原纤维三种纤维结缔组织。人体表皮层和真皮层的厚度及其变化是皮肤特征的一个重要评价指标,系统性硬化(Systemic sclerosis,SSC)早期症状就是皮肤厚度增加、回声降低,对于局限性皮肤系统性硬化(limited cutaneous SSc,lcSSc)患者,监测皮肤厚度可以判断其病变程度以及是否会演变为弥散性系统性硬化患者(diffusecutaneous SSc,dcSSc),并且皮肤厚度也与性别、年龄、体质指数(Body Mass Index,BMI)呈正相关。因此对皮肤真皮层与表皮层进行监测可以实时了解人体皮肤的健康状态。
图像分割是机器视觉技术中对于图像理解的重要一环,也是实现完全场景理解的重要方式之一。目前,不同领域的研究者对于计算机辅助分割技术进行了大量研究,目前主要包括手工提取特征法、传统机器学习方法以及基于深度学习的图像分割法。手工提取特征的方法包括阈值法、边缘法、区域法等,其中每种方法都有其优缺点。阈值分割的方法由于直接利用图像的灰度特性,所以计算便捷、运算效率高,但是分割图像中会出现纹路和噪声,对灰度值相差较小的目标和背景分割效率低下;基于区域的分割对于具有区域结构的图分割较好,但容易造成图像的过度分割;边缘分割方法可以快速搜索图像中的边缘信息,但不能得到较好的区域结构,精度的提高会造成抗噪性下降。传统机器学习技术只能进行浅层学习,比如支持向量机(Support Vector Machines,SVM)、SIFT特征提取算法、决策树等方法,将输入数据变换到一两个连续的空间,无法得到复杂问题所需要的精确表示,对于特征工程的设计也给科研人员造成了很大的麻烦。与前两种方法相比较,基于深度学习的方法对于特征工程这一步骤完全自动化,可以一次性学习所有特征。
近几年,随着深度学习的发展,在分割任务中出现了许多优秀的网络:FCN、SegNet、GoogleNet、Deeplab等,这些基于深度学习的分割方法在图像识别、面部识别等领域甚至已经超过了人类的表现。2015年,Olaf Ronneberger基于FCN(Fully ConvolutionalNetworks)提出了U-Net网络,在医学图像分割领域取得了较好的效果,U-Net通过连续的池化操作和卷积操作降低特征分辨率,来学习越来越抽象的特征表示,有利于分类或目标检测任务,但对于语义分割任务,往往需要比较详细的空间信息,需要维护高分辨率特征映射,网络的分割性能有待提高。
UNet网络是一种图像分割网络,最初应用于医学图像分割,他进行4次下采样和4次上采样,并在上采样时进行多尺度融合,得到的分割结果较为精确,UNet网络通过连续的池化操作和卷积操作降低特征分辨率,但是在语义分割任务中,往往需要比较详细的空间信息,需要维护高分辨率特征映射,提高分割性能。
发明内容
本发明所要解决的技术问题是,提供一种能够提高分割精度的基于改进的UNet网络模型的皮肤超声影像分割方法。
本发明所采用的技术方案是:基于改进的UNet网络模型的皮肤超声影像分割方法,包括如下步骤:
1)使用50MHz皮肤超声生物显微镜采集人体皮肤的二维超声图像,并将图片按照1:1:8的比例分为验证集、测试集和训练集;
2)分别对验证集、测试集和训练集进行手工标注,标注出真皮层和表皮层;
3)对手工标注后的验证集和训练集通过灰度变换、左右翻转的操作进行数据增强;
4)将数据增强的验证集和训练集输入改进后的UNet模型中进行训练;
5)将训练得到的模型参数作为预测模型,将测试集输入所述的预测模型进行图像分割,得到分割结果。
本发明的基于改进的UNet网络模型的皮肤超声影像分割方法,利用UNet模型的多尺度融合预测特性,可以得到边缘信息更为精确的分割结果,改进后的模型加深了UNet模型的深度,并融入了空洞卷积模块以及一种新的密集残差模块和一种新的残差空间金字塔池化模块。空洞卷积层在提高特征空间分辨率的同时增大了感受野;提出的密集残差模块用来编码高层语义的特征映射,使网络变得更宽更深的同时还可以捕获更高层次的特征,提高分割精度;残差空间金字塔模块可以对图片进行多尺度的特征映射,通过多个大小不同的接受域进一步提取全局上下文信息。
附图说明
图1是本发明中改进后的UNet模型结构示意图;
图2是图1中卷积层的结构示意图;
图3是图1中空洞卷积层的结构示意图;
图4是图1中密集残差模块的结构示意图;
图5是图1中残差空间金字塔池化模块的结构示意图;
图6是原始待分割图像的效果图;
图7是手工标注图叠加到原始待分割图像的效果图;
图8是原始U-Net网络模型的预测图叠加到原始待分割图像的效果图;
图9是本发明改进后的UNet模型的预测图叠加到原始待分割图像的效果图。
具体实施方式
下面结合实施例和附图对本发明的基于改进的UNet网络模型的皮肤超声影像分割方法做出详细说明。显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。
本发明的基于改进的UNet网络模型的皮肤超声影像分割方法,包括如下步骤:
1)使用50MHz皮肤超声生物显微镜采集人体皮肤的二维超声图像,采集到的二维超声图像尺寸为576×768,并将图片按照1:1:8的比例分为验证集、测试集和训练集;
2)分别对验证集、测试集和训练集进行手工标注,标注出真皮层和表皮层;
3)对手工标注后的验证集和训练集通过灰度变换、左右翻转的操作进行数据增强;
4)将数据增强的验证集和训练集输入改进后的UNet模型中进行训练;所述训练的训练次数为100,学习率采用1e-6,采用交叉熵损失函数,输出结果的大小与手工标注的图大小相同,为576×768。
所述的改进后的UNet模型,如图1所示,包含依次串联的12层,其中:
第一层是由两个卷积层和一个池化层依次串联组成的模块,卷积层中卷积核尺寸为3×3,步长为1,池化层中核尺寸为2×2,所述第一层输入的图片为576×768,输出的特征映射为288×384×32;
第二、三层都是由两个空洞卷积层和一个池化层依次串联组成的模块,第一个空洞卷积层中卷积核尺寸为3×3,步长为3,第二个空洞卷积层中卷积核尺寸为3×3,步长为2,池化层核尺寸为2×2,第二、三层输入的特征映射分别是288×384×32、144×192×64,输出的特征映射分别是144×192×64、72×96×256;
第四层为两个卷积层和一个池化层依次串联组成的模块,每个卷积层中卷积核尺寸为3×3,步长为1,池化层中核尺寸为2×2,第四层输入的特征映射为72×96×256,输出的特征映射为36×48×512;
第五层由密集残差模块、Dropout层、最大池化层依次串联组成的模块,第五层输入的特征映射为36×48×512,输出的特征映射为18×24×2304,如图4所示,所述的密集残差模块内部含有并联设置的四个用于卷积操作的级联分支,通过四个级联分支的卷积操作来提取特征映射,其中,第一个级联分支由卷积核尺寸为3×3,步长为1的卷积模块构成;第二个级联分支由卷积核尺寸为3×3、步长为1的卷积模块和卷积核尺寸为1×1、步长为1的卷积模块组成;第三个级联分支由卷积核尺寸为5×5、步长为1的卷积模块和卷积核尺寸为1×1、步长为1的卷积模块组成;第四个级联分支由卷积核尺寸为5×5、步长为1的卷积模块和卷积核尺寸为3×3、步长为1的卷积模块以及卷积核尺寸为1×1、步长为1的卷积模块组成,最后通过残差连接将四个级联分支的输出和第五层输入的特征映射进行融合后,再输出至Dropout层,Dropout层中Dropout系数设置为0.5,最大池化层中核尺寸为2×2;
第六层由两个卷积层串联组成,每个卷积层的卷积核尺寸为3×3,步长为1,第六层的输入的特征映射大小为18×24×2304,输出的特征映射为18×24×1024;
如图5所示,第七层为残差空间金字塔池化模块,该层输入的特征映射尺寸为18×24×1024,输出的特征映射尺寸为18×24×1027,所述残差空间金字塔池化模块通过不同接收域的三个最大池化层进一步提取全局上下文信息,所述三个最大池化层分别使用1×1、2×2、3×3三个不同大小的核进行最大池化操作,得到的每个特征映射通过1×1卷积降低维数并减少计算量,再通过上采样得到特征映射大小与所接收的特征映射大小一致的特征映射,最后将上采样得到的特征映射与第七层所接收的特征映射进行融合并输出;
第八、九、十、十一层每层都由一个上采样层和两个卷积层依次串联组成,所述第八、九、十、十一层输入的特征映射尺寸分别为18×24×1027、36×48×512、72×96×256、144×192×128,输出的特征映射尺寸分别为36×48×512、72×96×256、144×192×128、288×384×64,每个卷积层中卷积核尺寸为3×3,步长为1,第八、九、十、十一层上采样后的输出与第二、三、四、五层中大小相同的输出进行拼接后,再进行卷积操作;
所述的第八、九、十、十一层上采样后的输出与第二、三、四、五层中大小相同的输出进行拼接,是指:第八层上采样后的输出与第五层的输出进行拼接后,再进行卷积操作;第九层上采样后的输出与第四层的输出进行拼接后,再进行卷积操作;第十层上采样后的输出与第三层的输出进行拼接后,再进行卷积操作;第十一层上采样后的输出与第二层的输出进行拼接后,再进行卷积操作。
第十二层由一个上采样层、两个卷积核尺寸为3×3的卷积层、一个卷积核尺寸为1×1的卷积层以及一个softmax层依次串联构成,第十二层输入的特征映射尺寸为288×384×64,输出的特征映射尺寸为576×768,与手工标注的图大小相同,其中,第十二层上采样后的输出与第一层的输出进行拼接后,再进行卷积操作。
如图2所示,上述每层中的卷积层均是由依次连接的第一普通卷积模块、第一批量归一化ReLu激活函数模块、第二普通卷积模块以及第二批量归一化ReLu激活函数模块构成。
如图3所示,上述第二、三层中所述的空洞卷积层是由依次连接的第一空洞卷积模块、第三批量归一化ReLu激活函数模块、第二空洞卷积模块以及第四批量归一化ReLu激活函数模块构成。
5)将训练得到的模型参数作为预测模型,将测试集输入所述的预测模型进行图像分割,得到分割结果。
对比实验应用本发明方法和原UNet方法,分别对同一幅图像进行分割实验,得到图6、图7、图8、图9,并对分割结果从精确度(Precesion,PRE)、灵敏度(Sensitivity,SE)、平均交并比(Mean Intersection over Union,MIOU)、相似性系数(Dice similaritycoefficient,DSC)四个方面进行评估,得到表1如下:
表1
Figure BDA0002700001670000041
可以看出相比于UNet模型,本发明本发明改进后的UNet模型提高了分割精度,对于细节信息的保留比较清晰准确,且边界光滑连续,边缘清晰细节信息完整。
通常在附图中的描述和所示的本发明实施例的组件可以通过各种不同的配置来布置和设计,本领域技术人员可以理解附图只是一个优选实施例的示意图,上述发明实施例序号仅仅为了描述,不代表实施例的优劣,以上所述仅为本发明较佳实施例,并不用以限制本发明,凡在本发明的精神和原则以内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于改进的UNet网络模型的皮肤超声影像分割方法,其特征在于,包括如下步骤:
1)使用50MHz皮肤超声生物显微镜采集人体皮肤的二维超声图像,并将图片按照1:1:8的比例分为验证集、测试集和训练集;
2)分别对验证集、测试集和训练集进行手工标注,标注出真皮层和表皮层;
3)对手工标注后的验证集和训练集通过灰度变换、左右翻转的操作进行数据增强;
4)将数据增强的验证集和训练集输入改进后的UNet模型中进行训练;
所述的改进后的UNet模型包含依次串联的12层,其中:
第一层是由两个卷积层和一个池化层依次串联组成的模块,卷积层中卷积核尺寸为3×3,步长为1,池化层中核尺寸为2×2,所述第一层输入的图片为576×768,输出的特征映射为288×384×32;
第二、三层都是由两个空洞卷积层和一个池化层依次串联组成的模块,第一个空洞卷积层中卷积核尺寸为3×3,步长为3,第二个空洞卷积层中卷积核尺寸为3×3,步长为2,池化层核尺寸为2×2,第二、三层输入的特征映射分别是288×384×32、144×192×64,输出的特征映射分别是144×192×64、72×96×256;
第四层为两个卷积层和一个池化层依次串联组成的模块,每个卷积层中卷积核尺寸为3×3,步长为1,池化层中核尺寸为2×2,第四层输入的特征映射为72×96×256,输出的特征映射为36×48×512;
第五层由密集残差模块、Dropout层、最大池化层依次串联组成的模块,第五层输入的特征映射为36×48×512,输出的特征映射为18×24×2304,所述的密集残差模块内部含有并联设置的四个用于卷积操作的级联分支,通过四个级联分支的卷积操作来提取特征映射,其中,第一个级联分支由卷积核尺寸为3×3,步长为1的卷积模块构成;第二个级联分支由卷积核尺寸为3×3、步长为1的卷积模块和卷积核尺寸为1×1、步长为1的卷积模块组成;第三个级联分支由卷积核尺寸为5×5、步长为1的卷积模块和卷积核尺寸为1×1、步长为1的卷积模块组成;第四个级联分支由卷积核尺寸为5×5、步长为1的卷积模块和卷积核尺寸为3×3、步长为1的卷积模块以及卷积核尺寸为1×1、步长为1的卷积模块组成,最后通过残差连接将四个级联分支的输出和第五层输入的特征映射进行融合后,再输出至Dropout层,Dropout层中Dropout系数设置为0.5,最大池化层中核尺寸为2×2;
第六层由两个卷积层串联组成,每个卷积层的卷积核尺寸为3×3,步长为1,第六层的输入的特征映射大小为18×24×2304,输出的特征映射为18×24×1024;
第七层为残差空间金字塔池化模块,该层输入的特征映射尺寸为18×24×1024,输出的特征映射尺寸为18×24×1027,所述残差空间金字塔池化模块通过不同接收域的三个最大池化层进一步提取全局上下文信息,所述三个最大池化层分别使用1×1、2×2、3×3三个不同大小的核进行最大池化操作,得到的每个特征映射通过1×1卷积降低维数并减少计算量,再通过上采样得到特征映射大小与所接收的特征映射大小一致的特征映射,最后将上采样得到的特征映射与第七层所接收的特征映射进行融合并输出;
第八、九、十、十一层每层都由一个上采样层和两个卷积层依次串联组成,所述第八、九、十、十一层输入的特征映射尺寸分别为18×24×1027、36×48×512、72×96×256、144×192×128,输出的特征映射尺寸分别为36×48×512、72×96×256、144×192×128、288×384×64,每个卷积层中卷积核尺寸为3×3,步长为1,第八、九、十、十一层上采样后的输出与第二、三、四、五层中大小相同的输出进行拼接后,再进行卷积操作;
第十二层由一个上采样层、两个卷积核尺寸为3×3的卷积层、一个卷积核尺寸为1×1的卷积层以及一个softmax层依次串联构成,第十二层输入的特征映射尺寸为288×384×64,输出的特征映射尺寸为576×768,与手工标注的图大小相同,其中,第十二层上采样后的输出与第一层的输出进行拼接后,再进行卷积操作
5)将训练得到的模型参数作为预测模型,将测试集输入所述的预测模型进行图像分割,得到分割结果。
2.根据权利要求1所述的基于改进的UNet网络模型的皮肤超声影像分割方法,其特征在于,步骤1)采集到的二维超声图像尺寸为576×768。
3.根据权利要求1所述的基于改进的UNet网络模型的皮肤超声影像分割方法,其特征在于,每层中所述的卷积层均是由依次连接的第一普通卷积模块、第一批量归一化ReLu激活函数模块、第二普通卷积模块以及第二批量归一化ReLu激活函数模块构成。
4.根据权利要求1所述的基于改进的UNet网络模型的皮肤超声影像分割方法,其特征在于,第二、三层中所述的空洞卷积层是由依次连接的第一空洞卷积模块、第三批量归一化ReLu激活函数模块、第二空洞卷积模块以及第四批量归一化ReLu激活函数模块构成。
5.根据权利要求1所述的基于改进的UNet网络模型的皮肤超声影像分割方法,其特征在于,所述的第八、九、十、十一层上采样后的输出与第二、三、四、五层中大小相同的输出进行拼接,是指:第八层上采样后的输出与第五层的输出进行拼接后,再进行卷积操作;第九层上采样后的输出与第四层的输出进行拼接后,再进行卷积操作;第十层上采样后的输出与第三层的输出进行拼接后,再进行卷积操作;第十一层上采样后的输出与第二层的输出进行拼接后,再进行卷积操作。
6.根据权利要求1所述的基于改进的UNet网络模型的皮肤超声影像分割方法,其特征在于,步骤4)所述训练的训练次数为100,学习率采用1e-6,采用交叉熵损失函数,输出结果的大小与手工标注的图大小相同,为576×768。
CN202011018821.XA 2020-09-24 2020-09-24 基于改进的UNet网络模型的皮肤超声影像分割方法 Expired - Fee Related CN112132813B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011018821.XA CN112132813B (zh) 2020-09-24 2020-09-24 基于改进的UNet网络模型的皮肤超声影像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011018821.XA CN112132813B (zh) 2020-09-24 2020-09-24 基于改进的UNet网络模型的皮肤超声影像分割方法

Publications (2)

Publication Number Publication Date
CN112132813A CN112132813A (zh) 2020-12-25
CN112132813B true CN112132813B (zh) 2022-08-05

Family

ID=73841042

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011018821.XA Expired - Fee Related CN112132813B (zh) 2020-09-24 2020-09-24 基于改进的UNet网络模型的皮肤超声影像分割方法

Country Status (1)

Country Link
CN (1) CN112132813B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112765353B (zh) * 2021-01-22 2022-11-04 重庆邮电大学 一种基于科研文本的生物医学学科分类方法及装置
CN112801909B (zh) * 2021-02-05 2022-06-14 福州大学 基于U-Net和金字塔模块的图像融合去噪方法及系统
CN112785617B (zh) * 2021-02-23 2022-04-15 青岛科技大学 残差UNet直肠癌肿瘤磁共振图像自动分割方法
CN112801929A (zh) * 2021-04-09 2021-05-14 宝略科技(浙江)有限公司 一种用于建筑物变化检测的局部背景语义信息增强方法
CN113554668B (zh) * 2021-07-27 2022-02-22 深圳大学 一种皮肤镜图像黑色素瘤分割方法、装置及相关组件
CN116484172B (zh) * 2023-01-19 2024-01-30 南京林业大学 一种基于强鲁棒性多尺度网络的机械故障诊断方法和系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111369563A (zh) * 2020-02-21 2020-07-03 华南理工大学 一种基于金字塔空洞卷积网络的语义分割方法
CN111429452A (zh) * 2020-04-15 2020-07-17 深圳市嘉骏实业有限公司 基于UNet卷积神经网络的膀胱超声图像分割方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10373312B2 (en) * 2016-11-06 2019-08-06 International Business Machines Corporation Automated skin lesion segmentation using deep side layers
WO2020133354A1 (en) * 2018-12-29 2020-07-02 Shenzhen Malong Technologies Co., Ltd. 3d segmentation network and 3d refinement module
CN110399916A (zh) * 2019-07-24 2019-11-01 淮阴工学院 一种基于图像增强和Inception网络的皮肤癌图像分类方法
CN110689083B (zh) * 2019-09-30 2022-04-12 苏州大学 一种上下文金字塔融合网络及图像分割方法
CN111681252B (zh) * 2020-05-30 2022-05-03 重庆邮电大学 一种基于多路径注意力融合的医学图像自动分割方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111369563A (zh) * 2020-02-21 2020-07-03 华南理工大学 一种基于金字塔空洞卷积网络的语义分割方法
CN111429452A (zh) * 2020-04-15 2020-07-17 深圳市嘉骏实业有限公司 基于UNet卷积神经网络的膀胱超声图像分割方法及装置

Also Published As

Publication number Publication date
CN112132813A (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
CN112132813B (zh) 基于改进的UNet网络模型的皮肤超声影像分割方法
JP7143008B2 (ja) 深層学習に基づく医用画像検出方法及び装置、電子機器及びコンピュータプログラム
CN108510482B (zh) 一种基于阴道镜图像的宫颈癌检测装置
CN107748900B (zh) 基于区分性卷积神经网络的乳腺肿瘤分类装置和存储介质
CN109685768B (zh) 基于肺部ct序列的肺结节自动检测方法及系统
WO2020133636A1 (zh) 前列腺手术中外包膜智能检测和预警方法及系统
CN110689543A (zh) 基于注意机制的改进卷积神经网络脑肿瘤图像分割方法
CN109389585B (zh) 一种基于全卷积神经网络的脑组织提取方法
WO2024104035A1 (zh) 基于长短期记忆自注意力模型的三维医学图像分割方法及系统
CN111429460A (zh) 图像分割方法、图像分割模型训练方法、装置和存储介质
Zhang et al. A survey of wound image analysis using deep learning: Classification, detection, and segmentation
CN113421240B (zh) 一种基于超声自动乳腺全容积成像的乳腺分类方法及装置
CN114066884B (zh) 视网膜血管分割方法及装置、电子设备和存储介质
CN115345886B (zh) 一种基于多模态融合的脑部胶质瘤分割方法
Wang et al. Multiscale feature fusion for skin lesion classification
CN117218129B (zh) 食道癌图像识别分类方法、系统、设备及介质
Xu et al. Application of artificial intelligence technology in medical imaging
CN117911772A (zh) 一种基于分割的多特征信息的甲状腺结节良恶性分类方法
CN117809339A (zh) 一种基于可变形卷积编码网络和特征区域关注的人体姿态估计方法
CN117633558A (zh) 基于视觉语言模型的多激励融合零样本病变检测方法
CN117634483A (zh) 一种面向中文的多粒度图文跨模态关联方法
Koyun et al. Adversarial nuclei segmentation on H&E stained histopathology images
CN116823868A (zh) 一种黑色素肿瘤图像分割方法
CN115810106A (zh) 一种复杂环境下茶叶嫩梢品级精准识别方法
CN117036658A (zh) 一种图像处理方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220805

CF01 Termination of patent right due to non-payment of annual fee