CN113077471A - 一种基于u型网络的医学图像分割方法 - Google Patents
一种基于u型网络的医学图像分割方法 Download PDFInfo
- Publication number
- CN113077471A CN113077471A CN202110325496.XA CN202110325496A CN113077471A CN 113077471 A CN113077471 A CN 113077471A CN 202110325496 A CN202110325496 A CN 202110325496A CN 113077471 A CN113077471 A CN 113077471A
- Authority
- CN
- China
- Prior art keywords
- segmentation
- network
- image
- data set
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000003709 image segmentation Methods 0.000 title claims abstract description 27
- 230000011218 segmentation Effects 0.000 claims abstract description 161
- 238000012549 training Methods 0.000 claims abstract description 53
- 230000004927 fusion Effects 0.000 claims abstract description 38
- 230000008569 process Effects 0.000 claims description 13
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 8
- 238000011478 gradient descent method Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 239000002131 composite material Substances 0.000 claims description 4
- 238000005315 distribution function Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- 230000009191 jumping Effects 0.000 claims 1
- 230000017105 transposition Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 36
- 210000004204 blood vessel Anatomy 0.000 description 14
- 230000003042 antagnostic effect Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000002238 attenuated effect Effects 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioethics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于U型网络的医学图像分割方法,首先将真实分割图及原图送入生成对抗网络中做数据增强,产生带有标签的合成图片;然后将合成图片放进原有数据集得到扩充后的数据集,将扩充后的数据集送入改进的多特征融合的分割网络中训练。本发明在分割网络浅层与深层特征跳跃连接间加入一个获取不同大小感受野的膨胀卷积模块,增强细节信息与深层语义的融合,提升对分割目标大小的适应性,同时提高医学图像分割的精确度。本发明通过使用生成对抗网络扩充数据集的方式缓解了训练分割网络时出现的过拟合问题,从多尺度特征连接的角度弥补了传统U型网络捕捉细节信息能力丢失、深浅层信息特征捕捉不完整的问题,改善了最终的分割结果。
Description
技术领域
本发明涉及一种基于U型网络的医学图像分割方法,属于图像处理技术领域。
背景技术
医学图像分割技术的发展,是从手工分割到人机式的半自动分割,再逐步发展到全自动分割的过程。手工分割指的是由具有丰富经验的临床医生在原始胶片上直接勾勒出组织的边界或者感兴趣的区域,手工分割对人的先验知识有很高的要求,且标注时间长、成本较高。随着深度学习在计算机视觉领域的发展出现了半自动分割技术,该分割技术是将计算机的数据存储和计算功能以及医学专家的经验和知识结合起来,运用人机交互的方法来完成图像的分割。全自动分割则是计算机根据事先编好的算法运行独立自动完成图像的分割全过程。但大部分全自动分割算法的实现复杂,分割结果不理想,且分割的速度和性能也需要提高,目前临床医学上,研究实用的全自动分割方法来取代繁琐的人工分割或者半自动分割一直是人们追求的目标,全自动分割方法是近年来医学图像的研究重点和关键技术。为使机器自动分割医学图像,减少人工繁琐工作,为之后的肿瘤识别和病理判断打下坚实基础,研究如何使得分割边缘结果更精确至关重要。
目前图像分割方法可以分为传统的图像分割方法及基于深度学习的图像分割两种,传统的图像分割方法包括基于阈值的分割方法、基于区域的分割方法和基于边界的分割方法。传统的图像分割方法主要利用边缘及算法特性进行分割,易忽略图像深层的语义类别信息等。近年来,深度学习在计算机视觉领域取得很大进展,有些逐渐逼近人为判断,因此使用深度学习方法做图像分割逐渐成为主流,该方法没有先验知识的限制,在网络训练好的情况下可以取得较好的效果。自全卷积网络提出使用1x 1卷积代替全连接层后,医学图像分割在U型网络中表现出了较好的性能,此后对分割网络的改进大多基于编码-解码-跳跃连接的结构。为减少在编码下采样过程中的信息丢失,DeepLab系列提出了空洞空间金字塔池化(ASPP),并使用条件随机场来优化分割结果。对于3D分割,较好的网络有V-net、H-dense Net等。为使得分割过程中能够充分融合不同层次和不同尺度的特征信息,各种分割模型依然层出不穷。
但在目前的医学分割领域,由于病人隐私保护等问题,数据集依旧获取困难,图片数量较少,在训练分割模型时很容易出现过拟合问题,即在训练集上分割效果较好而在测试集上效果不佳,导致模型应用型不强,因此如何获得有效数据集也是目前研究医学图像分割的一大难点,使用生成对抗网络来产生合成图像扩充数据集是目前的一大发展趋势。另外,由于神经网络中不断的“卷积-池化”操作丢失了许多浅层的空间及细节信息,易导致小病灶或器官边缘的分割效果不好,在所需分割的目标(器官或病灶)大小差异较大时总体分割效果不佳,如何融合不同尺度分割目标的特征也是目前学者正在努力的方向,其中对U型网络的提升优化是在医学图像分割领域的研究热点。
发明内容
本发明所要解决的技术问题是克服现有技术医学图像数据量较少且人工标注较为困难的缺陷,提供一种基于U型网络的医学图像分割方法,在原始的分割网络之前增加生成对抗网络以完成数据的扩充,减轻在训练分割模型过程中由于训练数据较少而产生的过拟合现象;本发明提出一种多尺度特征融合的分割方法,改善U型网络浅层及深层网络连接时可能产生的语义差距以及最大池化下采样过程中的浅层信息丢失问题,充分捕捉到大小不一的目标区域,提升不同尺度分割目标的分割准确度。
为达到上述目的,本发明提供一种基于U型网络的医学图像分割方法,包括以下步骤:
步骤1,从现有医学图像数据库中选择一种医学图像数据集;
步骤2,从医学图像数据集中获取成对的原始图片及原始图片中目标区域的真实分割图,真实分割图基于生成器G生成合成图像;
将合成图像送入判别器D进行判别,判别器D判断该合成图像是否来自于医学图像数据集,输出合成图像来自于医学图像数据集的概率;
式中,x为原始图片的真实分割图,y为原始图片,z为随机噪声,E[*]表示分布函数期望值,D(x,y)为输入为x和y时判别器D的输出概率值,G(x,z)为合成图像;
增加L1距离损失,用来约束合成图像和原始图片之间的差异,减少模糊:
步骤4,使用步骤3中训练过的生成器模型生成合成图像,与原始图片一起作为多特征融合分割网络的输入数据集,将该输入数据集分为训练集和测试集;
步骤5,利用步骤4中输入数据集对多特征融合分割网络进行训练得到分割网络模型,该多特征融合分割网络在解码过程中,每个解码器层都与来自编码器的较浅和相同层级的特征映射通过一个膨胀卷积模块相连接;
步骤6,将待分割的原始图片输入到训练好的分割网络模型中进行分割,得到真实分割图。优先地,步骤3中,所述生成对抗网络的训练包括生成器G的训练与判别器D的训练,利用神经网络的前向传播和神经网络的后向传播,使用梯度下降法交替训练判别器D与生成器G,直至经判别器D鉴定生成器G生成的合成图像是真图像的概率为0.5时,训练结束,得到生成器模型和判别器模型。
优先地,步骤5中,所述多特征融合分割网络包括特征提取和增大分辨率,特征提取包括5个卷积块和四个下采样,卷积块之间通过下采样连接;增大分辨率包括4个通过上采样连接的四个卷积块。
优先地,步骤5,包括以下步骤:
在所述多特征融合分割网络中,设置损失函数为集合相似度度量函数,具体公式为
其中,|A∩B|表示集合A和集合B之间的共同元素,|A|表示A中元素的个数,|B|表示B中元素的个数,集合A为输入数据集经过多特征融合分割网络分割得到的分割图像,集合B中元素为原始图片中目标区域的真实分割图;
为了计算预测的真实分割图的集合相似度度量函数,将|A∩B|近似为实际分割得到的图像和真实分割图像之间的点乘,并将点乘的结果中每个元素值相加;当损失函数最小时停止训练,得到训练好的分割网络模型。
优先地,生成器G为一个编解码结构,其中相同层级的残差块以类似U-net方式跳跃连接,生成器G包括9个残差块、2个步幅为2的下采样卷积层和两个转置卷积;
在所有非残差块之后,执行batch normalization函数和Relu函数;判别器D使用与patchGAN相同的马尔可夫鉴别器模型。
优先地,卷积块内具体连接顺序为3x 3卷积层、批量标准化层、Relu激活函数、3x3卷积层、批量标准化层和Relu激活函数,每次下采样使用步幅为2的最大池化,使经过卷积层的原始图片的特征图大小变为下采样之前原始图片的特征图大小的一半,原始图片的特征图通道数变为下采样之前原始图片的特征图通道数的两倍,上采样采用双线性插值的方法将原始图片的特征图的分辨率加倍。
所有的卷积层中,第一层卷积层和最后一层卷积层均使用7x 7的卷积核,其他卷积层都使用3x 3的卷积核,其中7x 7的卷积核使用可分离卷积降低分割网络模型的参数和分割网络模型的计算量。
优先地,当损失函数最小时停止训练,得到训练好的分割网络模型,包括以下步骤:
基于Adam优化器对每一阶段多特征融合分割网络的权重参数进行初始化,使用平均值为0的高斯分布随机初始化权重参数;
对每个输入分割网络模型的训练集中的样本图片,样本图片包括合成图像和原始图片,先利用前向传播求出真实的分割图像与原始图片中目标区域的真实分割图间的总误差,再利用神经网络的后向传播求出各个权重参数的偏导数,最后根据梯度下降法对权重参数进行更新;重复上述步骤直至损失函数达到最小,得到训练好的分割网络模型。
优先地,与原始图片一起作为多特征融合分割网络的输入数据集,按7:3比例将该输入数据集分为训练集和测试集。
本发明所达到的有益效果:
第一、现实生活中为保护病人隐私,数据集难以获得,本发明首先将真实分割图及原图送入生成对抗网络中做数据增强,产生带有标签的合成图片;然后将合成图片放进原有数据集得到扩充后的数据集,将扩充后的数据集送入改进的多特征融合的分割网络中训练。本发明在分割网络浅层与深层特征跳跃连接间加入一个获取不同大小感受野的膨胀卷积模块,增强细节信息与深层语义的融合,能够提升对分割目标大小的适应性,同时提高医学图像分割的精确度。本发明通过使用生成对抗网络扩充数据集的方式缓解了训练分割网络时出现的过拟合问题,从多尺度特征连接的角度弥补了传统U型网络捕捉细节信息能力丢失、深浅层信息特征捕捉不完整的问题,提升了对不同分割任务的适应性,改善了最终分割结果。本发明在图像分割之前,使用训练好的生成器生成合成的眼底血管图像,扩增了送入分割网络的数据集,很好地改善了普通分割网络由于数据过少导致的对训练数据过拟合、对所需分割任务效果不佳的问题。
第二、本发明所使用的多尺度特征融合的分割网络中,将浅层空间特征与深层语义通过多尺度的膨胀卷积块连接起来,改善了原始U-net网络中直接相连造成的semanticgap问题,增强了对细节信息的提取,改善了不同层级特征图的融合效果。
第三、使用不同膨胀率的卷积核,改善使用小卷积核感受野较小、对图片特征提取不充分的问题,融合了不同感受野下的特征映射,增强了对各个尺度分割目标的提取,利用不同尺度信息改善了分割的准确性。
附图说明
图1为本发明方法中生成对抗网络的示意图;
图2为本发明方法中生成对抗网络中生成器的示意图;
图3为本发明方法中分割网络结构的示意图;
图4为本发明中多特征融合的膨胀卷积模块示意图。
具体实施方式
以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
本发明提供一种基于U型网络的医学图像分割方法,包括以下步骤:
步骤1,从现有医学图像数据库中选择一种医学图像数据集;
步骤2,从医学图像数据集中获取成对的原始图片及原始图片中目标区域的真实分割图,真实分割图基于生成器G生成合成图像;
将合成图像送入判别器D进行判别,判别器D判断该合成图像是否来自于医学图像数据集,输出合成图像来自于医学图像数据集的概率;
式中,x为原始图片的真实分割图,y为原始图片,z为随机噪声,E[*]表示分布函数期望值,D(x,y)为输入为x和y时判别器D的输出概率值,G(x,z)为合成图像;
增加L1距离损失,用来约束合成图像和原始图片之间的差异,减少模糊:
步骤4,使用步骤3中训练过的生成器模型生成合成图像,与原始图片一起作为多特征融合分割网络的输入数据集,将该输入数据集分为训练集和测试集;
步骤5,利用步骤4中输入数据集对多特征融合分割网络进行训练得到分割网络模型,该多特征融合分割网络在解码过程中,每个解码器层都与来自编码器的较浅和相同层级的特征映射通过一个膨胀卷积模块相连接;
步骤6,将待分割的原始图片输入到训练好的分割网络模型中进行分割,得到真实分割图。进一步的,本实施例中步骤3中,所述生成对抗网络的训练包括生成器G的训练与判别器D的训练,利用神经网络的前向传播和神经网络的后向传播,使用梯度下降法交替训练判别器D与生成器G,直至经判别器D鉴定生成器G生成的合成图像是真图像的概率为0.5时,训练结束,得到生成器模型和判别器模型。
进一步的,本实施例中步骤5中,所述多特征融合分割网络包括特征提取和增大分辨率,特征提取包括5个卷积块和四个下采样,卷积块之间通过下采样连接;增大分辨率包括4个通过上采样连接的四个卷积块。
进一步的,本实施例中步骤5,包括以下步骤:
在所述多特征融合分割网络中,设置损失函数为集合相似度度量函数,具体公式为
其中,|A∩B|表示集合A和集合B之间的共同元素,|A|表示A中元素的个数,|B|表示B中元素的个数,集合A为输入数据集经过多特征融合分割网络分割得到的分割图像,集合B中元素为原始图片中目标区域的真实分割图;
为了计算预测的真实分割图的集合相似度度量函数,将|A∩B|近似为实际分割得到的图像和真实分割图像之间的点乘,并将点乘的结果中每个元素值相加;当损失函数最小时停止训练,得到训练好的分割网络模型。
进一步的,本实施例中生成器G为一个编解码结构,其中相同层级的残差块以类似U-net方式跳跃连接,生成器G包括9个残差块、2个步幅为2的下采样卷积层和两个转置卷积;在所有非残差块之后,执行batch normalization函数和Relu函数;判别器D使用与patchGAN相同的马尔可夫鉴别器模型。
进一步的,本实施例中卷积块内具体连接顺序为3x 3卷积层、批量标准化层、Relu激活函数、3x 3卷积层、批量标准化层和Relu激活函数,每次下采样使用步幅为2的最大池化,使经过卷积层的原始图片的特征图大小变为下采样之前原始图片的特征图大小的一半,原始图片的特征图通道数变为下采样之前原始图片的特征图通道数的两倍,上采样采用双线性插值的方法将原始图片的特征图的分辨率加倍。
所有的卷积层中,第一层卷积层和最后一层卷积层均使用7x 7的卷积核,其他卷积层都使用3x 3的卷积核,其中7x 7的卷积核使用可分离卷积降低分割网络模型的参数和分割网络模型的计算量。
进一步的,本实施例中当损失函数最小时停止训练,得到训练好的分割网络模型,包括以下步骤:
基于Adam优化器对每一阶段多特征融合分割网络的权重参数进行初始化,使用平均值为0的高斯分布随机初始化权重参数;
对每个输入分割网络模型的训练集中的样本图片,样本图片包括合成图像和原始图片,先利用前向传播求出真实的分割图像与原始图片中目标区域的真实分割图间的总误差,再利用神经网络的后向传播求出各个权重参数的偏导数,最后根据梯度下降法对权重参数进行更新;重复上述步骤直至损失函数达到最小,得到训练好的分割网络模型。
进一步的,本实施例中与原始图片一起作为多特征融合分割网络的输入数据集,按7:3比例将该输入数据集分为训练集和测试集。
步骤1,获取医学图像数据集,本实施例中医学图像数据集为DRIVE眼底血管数据集;
医学图像数据集是从现有医学图像数据库中下载调用的,网站地址为https://aistudio.baidu.com/aistudio/projectdetail/462184。
从医学图像数据集中获取成对的眼底血管原始图片及眼底血管原始图片中目标区域的真实分割图,真实分割图基于生成器G生成合成图像;
将合成图像送入判别器D进行判别,判别器D判断该合成图像是否来自于医学图像数据集,输出合成图像来自于医学图像数据集的概率,该步骤在现有技术中可采用的方法很多,本实施理工不一一举例;
步骤2,从DRIVE眼底血管数据集中取出成对的眼底血管原图及眼底血管原始图片中目标区域的真实分割图,并输入生成对抗网络中。
生成对抗网络采用pix2pix算法,将真实的分割label图像x作为生成器G的输入,得到生成图像G(x),然后将G(x)和x基于通道维度合并在一起,最后作为判别器D的输入,得到一个预测概率值,该预测概率值表示输入是否是一对真实图像,概率值越接近1表示判别器D越肯定输入是一对真实图像。另外真实图像y和x也基于通道维度合并在一起,作为判别器D的输入得到概率预测值。
步骤3,构建损失函数。生成器和判别器的联合损失函数为
式中,x为原始图片的真实分割图,y为原始图片,z为随机噪声,E[*]表示分布函数期望值,D(x,y)为输入为x和y时判别器D的输出概率值,G(x,z)为合成图像;
增加L1距离损失,用来约束生成图像和真实图像之间的差异,减少模糊。
其中,x为分割标签,y为真实眼底血管图像,z为随机噪声,本发明采用dropout产生随机噪声。
步骤4,训练生成对抗网络。所述生成对抗网络采用pix2pix算法,包含一个生成器G及一个判别器D。其中生成器G为一个编解码结构,如图2所示,以类似U-net方式跳跃连接,由9个残差块、2个步幅为2的下采样卷积层及两个转置卷积组成,其中9个残差块依次连接,在所有非残差块之后,执行batch normalization和Relu函数。判别器D使用与patchGAN相同的马尔可夫鉴别器模型。批量标准化层英文为Batch Normalization,缩写为BN。
所有的卷积层除了第一层和最后一层使用7x 7的卷积核之外都使用3x 3的卷积核,其中7x 7的卷积核使用可分离卷积降低模型参数和计算量。
训练生成对抗网络的生成器生成对抗网络生成器的输入为有标签数据集的图像,输出为合成眼底血管图,开始训练生成对抗网络生成器,迭代M次,M为至少400的正整数,前次的学习率为α,α的取值为0<α<0.01,后次的学习率线性衰减;
训练生成对抗网络的判别器将生成对抗网络生成器输出的合成眼底血管图与相对应的标签作为生成对抗网络判别器的输入,判别器鉴别生成器输出的假图像是否为真实图像,训练生成对抗网络的判别器,迭代N次,N为至少300的偶数,前次的学习率为β,β的取值为0<β<0.001,后次的学习率线性衰减;
交替训练判别器与生成器交替训练判别器与生成器,直至经判别器鉴定生成器产生的假图像是真图像的概率为0.5时,训练结束,得到生成对抗网络生成器的模型和判别器的模型;
步骤5,利用步骤4中输入数据集对多特征融合分割网络进行训练,所述多特征融合分割网络包括特征提取和增大分辨率,该多特征融合分割网络在解码过程中,每个解码器层都与来自编码器的较浅和相同层级的特征映射通过一个膨胀卷积模块(DilatedConvolution Module)相连接,以获取不同感受野的浅层细节信息,并与深层语义相结合以提高不同大小分割目标的分割精度。使用训练好的生成器生成带有输入标签的合成眼底血管图像,加入原始数据集,以7:3比例将扩充后的数据集分为测试集与验证集两部分,输入本发明所述分割网络(如图2所示)。
卷积块具体连接顺序为3x 3卷积层、BN层、Relu激活函数、3x 3卷积层、BN层和Relu激活函数,每次下采样使用步幅为2的max-pooling使特征图大小变为原来的一半,通道数变为原来的两倍以补偿信息的丢失。上采样采用双线性插值的方法将图的大小加倍,即分辨率加倍;
所述膨胀卷积模块由多个不同大小的膨胀卷积核并联提取特征,使用1x 1卷积控制各尺度特征映射通道数,实现跨通道的交叉和信息整合,不同特征拼接后的特征映射保证与输入模块的特征映射维度相同。
在解码过程中,每个解码器层都与来自编码器的较浅和相同层级的特征映射通过一个膨胀卷积模块(Dilated Convolution Module)相连接,以获取不同感受野的浅层细节信息,并与深层语义相结合以提高不同大小分割目标的分割精度。
在原有的U-net基础网络上,在编码部分每个卷积块之后增加一个膨胀卷积模块,膨胀卷积模块具体连接如图3所示,使用不同膨胀率的3x 3卷积核并联连接,每个分支捕捉不同感受野的特征图,再用1x 1卷积调整通道数,使该模块的输入输出特征映射有相同的维度,以保证在融合时与解码部分特征映射相同。
增加解码部分层级与编码部分低级及平级之间的连接,用以将深层信息与浅层信息相融合,恢复原始图像。
所述分割网络包括特征提取和增大分辨率,目的是减少语义差距以及融合深浅层语义特征。当损失函数达到最小时训练停止。
步骤5具体实施如下,设置多特征融合的分割网络损失函数。
分割网络部分设置Loss函数为医学中常用的dice coefficient,具体公式为
其中,|A∩B|表示集合A和集合B之间的共同元素,|A|表示A中的元素的个数,|B|表示B中的元素的个数,集合A中元素为真实的分割图像,输入数据集对多特征融合分割网络分割得到真实的分割图像,集合B中元素为原始图片中目标区域的真实分割图;
为了计算预测的真实分割图的集合相似度度量函数,将|A|+|B|近似为实际分割得到的图像和真实分割图像之间的点乘,并将集合A和集合B中每个像素点的值相加;当损失函数最小时停止训练,得到训练好的分割网络模型为了计算预测的分割图的dicecoefficient,将|A|+|B|近似为预测图和label之间的点乘,并将集合A和集合B中的元素相加。
步骤7训练分割网络;
为使步骤5中的损失函数最小,使用Adam优化器,先对每一阶段网络的权重参数进行初始化,使用平均值为0的高斯分布随机初始化权重参数。
对每个样本图片x,先利用前向传播求出总误差,再利用反向传播求出各个权重参数的偏导数,最后根据梯度下降法对权重参数进行更新。重复此步骤直至损失函数达到最小,得到训练好的分割网络模型。
步骤8将待分割的眼底血管图像输入本发明所述分割网络,得到分割好的眼底血管图像。
在对眼底血管数据集进行分割时,本发明方法采用生成对抗网络对DRIVE数据集进行扩充,通过训练一个能够产生类眼底血管图像的生成器,缓解了由于医学图像数据集较小在训练过程中产生过拟合导致分割不准确的问题。同时,在使用分割标签生成假图像的过程中,保持着标签与图像一对一的关系,为最后的评估提供了条件。本发明通过改进原始U型网络结构,改善了浅层细节信息在下采样过程中丢失的问题,增加的多尺度的膨胀卷积模块提升了深、浅层语义的融合,减少了语义差距,对不同尺度的分割目标进行了有效提取,提升了医学图像前景和背景的分割准确性。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (8)
1.一种基于U型网络的医学图像分割方法,其特征在于,包括以下步骤:
步骤1,从现有医学图像数据库中选择一种医学图像数据集;
步骤2,从医学图像数据集中获取成对的原始图片及原始图片中目标区域的真实分割图,真实分割图基于生成器G生成合成图像;
将合成图像送入判别器D进行判别,判别器D判断该合成图像是否来自于医学图像数据集,输出合成图像来自于医学图像数据集的概率;
步骤3,将成对的原始图片和原始图片中目标区域的真实分割图导入生成对抗网络中训练生成对抗网络,得到生成器模型,所述生成对抗网络的生成对抗联合损失函数为
式中,x为原始图片的真实分割图,y为原始图片,z为随机噪声,E[*]表示分布函数期望值,D(x,y)为输入为x和y时判别器D的输出概率值,G(x,z)为合成图像;
增加L1距离损失,用来约束合成图像和原始图片之间的差异,减少模糊:
步骤4,使用步骤3中训练过的生成器模型生成合成图像,与原始图片一起作为多特征融合分割网络的输入数据集,将该输入数据集分为训练集和测试集;
步骤5,利用步骤4中输入数据集对多特征融合分割网络进行训练得到分割网络模型,该多特征融合分割网络在解码过程中,每个解码器层都与来自编码器的较浅和相同层级的特征映射通过一个膨胀卷积模块相连接;
步骤6,将待分割的原始图片输入到训练好的分割网络模型中进行分割,得到真实分割图。
2.根据权利要求1所述的一种基于U型网络的医学图像分割方法,其特征在于,
步骤3中,所述生成对抗网络的训练包括生成器G的训练与判别器D的训练,利用神经网络的前向传播和神经网络的后向传播,使用梯度下降法交替训练判别器D与生成器G,直至经判别器D鉴定生成器G生成的合成图像是真图像的概率为0.5时,训练结束,得到生成器模型和判别器模型。
3.根据权利要求1所述的一种基于U型网络的医学图像分割方法,其特征在于,
步骤5中,所述多特征融合分割网络包括特征提取和增大分辨率,特征提取包括5个卷积块和四个下采样,卷积块之间通过下采样连接;增大分辨率包括4个通过上采样连接的四个卷积块。
5.根据权利要求3所述的一种基于U型网络的医学图像分割方法,其特征在于,
生成器G为一个编解码结构,其中相同层级的残差块以类似U-net方式跳跃连接,生成器G包括9个残差块、2个步幅为2的下采样卷积层和两个转置卷积;
在所有非残差块之后,执行batch normalization函数和Relu函数;判别器D使用与patchGAN相同的马尔可夫鉴别器模型。
6.根据权利要求3所述的一种基于U型网络的医学图像分割方法,其特征在于,
卷积块内具体连接顺序为3x3卷积层、批量标准化层、Relu激活函数、3x3卷积层、批量标准化层和Relu激活函数,每次下采样使用步幅为2的最大池化,使经过卷积层的原始图片的特征图大小变为下采样之前原始图片的特征图大小的一半,原始图片的特征图通道数变为下采样之前原始图片的特征图通道数的两倍,上采样采用双线性插值的方法将原始图片的特征图的分辨率加倍。
所有的卷积层中,第一层卷积层和最后一层卷积层均使用7x7的卷积核,其他卷积层都使用3x3的卷积核,其中7x7的卷积核使用可分离卷积降低分割网络模型的参数和分割网络模型的计算量。
7.根据权利要求2所述的一种基于U型网络的医学图像分割方法,其特征在于,
当损失函数最小时停止训练,得到训练好的分割网络模型,包括以下步骤:
基于Adam优化器对每一阶段多特征融合分割网络的权重参数进行初始化,使用平均值为0的高斯分布随机初始化权重参数;
对每个输入分割网络模型的训练集中的样本图片,样本图片包括合成图像和原始图片,先利用前向传播求出真实的分割图像与原始图片中目标区域的真实分割图间的总误差,再利用神经网络的后向传播求出各个权重参数的偏导数,最后根据梯度下降法对权重参数进行更新;
重复上述步骤直至损失函数达到最小,得到训练好的分割网络模型。
8.根据权利要求1所述的一种基于U型网络的医学图像分割方法,其特征在于,与原始图片一起作为多特征融合分割网络的输入数据集,按7:3比例将该输入数据集分为训练集和测试集。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110325496.XA CN113077471B (zh) | 2021-03-26 | 2021-03-26 | 一种基于u型网络的医学图像分割方法 |
PCT/CN2021/137909 WO2022199143A1 (zh) | 2021-03-26 | 2021-12-14 | 一种基于u型网络的医学图像分割方法 |
US17/568,938 US11580646B2 (en) | 2021-03-26 | 2022-01-05 | Medical image segmentation method based on U-Net |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110325496.XA CN113077471B (zh) | 2021-03-26 | 2021-03-26 | 一种基于u型网络的医学图像分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113077471A true CN113077471A (zh) | 2021-07-06 |
CN113077471B CN113077471B (zh) | 2022-10-14 |
Family
ID=76610474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110325496.XA Active CN113077471B (zh) | 2021-03-26 | 2021-03-26 | 一种基于u型网络的医学图像分割方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113077471B (zh) |
WO (1) | WO2022199143A1 (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113393469A (zh) * | 2021-07-09 | 2021-09-14 | 浙江工业大学 | 基于循环残差卷积神经网络的医学图像分割方法和装置 |
CN113706379A (zh) * | 2021-07-29 | 2021-11-26 | 山东财经大学 | 一种基于医学图像处理的层间插值方法及系统 |
CN113723470A (zh) * | 2021-08-09 | 2021-11-30 | 北京工业大学 | 融合多层信息的花粉图像合成方法、装置及电子设备 |
CN113781410A (zh) * | 2021-08-25 | 2021-12-10 | 南京邮电大学 | 一种基于MEDU-Net+网络的医学图像分割方法和系统 |
CN113781377A (zh) * | 2021-11-03 | 2021-12-10 | 南京理工大学 | 基于对抗性语义引导与感知的红外和可见光图像融合方法 |
CN113936006A (zh) * | 2021-10-29 | 2022-01-14 | 天津大学 | 一种处理高噪低质医学图像的分割方法及装置 |
CN114169363A (zh) * | 2021-11-16 | 2022-03-11 | 西安石油大学 | 一种地震勘探数据处理方法、装置及可存储介质 |
CN114240951A (zh) * | 2021-12-13 | 2022-03-25 | 电子科技大学 | 一种基于查询的医学图像分割神经网络的黑盒攻击方法 |
CN114399519A (zh) * | 2021-11-30 | 2022-04-26 | 西安交通大学 | 一种基于多模态融合的mr图像3d语义分割方法及系统 |
CN114558251A (zh) * | 2022-01-27 | 2022-05-31 | 苏州雷泰医疗科技有限公司 | 一种基于深度学习的自动摆位方法、装置及放射治疗设备 |
CN114648724A (zh) * | 2022-05-18 | 2022-06-21 | 成都航空职业技术学院 | 一种基于生成对抗网络的轻量化高效目标分割与计数方法 |
CN115115540A (zh) * | 2022-06-08 | 2022-09-27 | 大连海事大学 | 基于光照信息引导的无监督低光图像增强方法及装置 |
WO2022199143A1 (zh) * | 2021-03-26 | 2022-09-29 | 南京邮电大学 | 一种基于u型网络的医学图像分割方法 |
CN115345970A (zh) * | 2022-08-15 | 2022-11-15 | 哈尔滨工业大学(深圳) | 基于生成对抗网络的多模态输入视频条件生成方法 |
CN115359881A (zh) * | 2022-10-19 | 2022-11-18 | 成都理工大学 | 一种基于深度学习的鼻咽癌肿瘤自动勾画方法 |
US11580646B2 (en) | 2021-03-26 | 2023-02-14 | Nanjing University Of Posts And Telecommunications | Medical image segmentation method based on U-Net |
CN116543267A (zh) * | 2023-07-04 | 2023-08-04 | 宁德时代新能源科技股份有限公司 | 图像集处理方法、图像分割方法、装置、设备和存储介质 |
CN117078692A (zh) * | 2023-10-13 | 2023-11-17 | 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) | 一种基于自适应特征融合的医疗超声图像分割方法及系统 |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116188816B (zh) * | 2022-12-29 | 2024-05-28 | 广东省新黄埔中医药联合创新研究院 | 一种基于循环一致性变形图像匹配网络的穴位定位方法 |
CN116363060B (zh) * | 2023-02-14 | 2024-08-16 | 长春理工大学 | 一种基于残差u型网络的混合注意力视网膜血管分割方法 |
CN116310863B (zh) * | 2023-02-18 | 2024-06-14 | 广东技术师范大学 | 一种多尺度差分特征增强的遥感图像变化检测方法和装置 |
CN116958556B (zh) * | 2023-08-01 | 2024-03-19 | 东莞理工学院 | 用于椎体和椎间盘分割的双通道互补脊柱图像分割方法 |
CN117218512A (zh) * | 2023-09-11 | 2023-12-12 | 电子科技大学重庆微电子产业技术研究院 | 一种红外低小慢目标检测方法、计算机设备及存储介质 |
CN117274294B (zh) * | 2023-09-18 | 2024-06-04 | 笑纳科技(苏州)有限公司 | 一种同源染色体分割方法 |
CN117332268A (zh) * | 2023-10-08 | 2024-01-02 | 上海交通大学 | 一种改进gan的gis局放数据增强方法及系统 |
CN117332179B (zh) * | 2023-12-01 | 2024-02-06 | 北京金恒博远科技股份有限公司 | 一种超大量数据曲线的网页展示方法 |
CN117558054A (zh) * | 2023-12-12 | 2024-02-13 | 华南理工大学 | 一种混沌变换类mlp网络的多输入体质识别方法 |
CN117392392B (zh) * | 2023-12-13 | 2024-02-13 | 河南科技学院 | 一种割胶线识别与生成方法 |
CN117474044A (zh) * | 2023-12-28 | 2024-01-30 | 感跃医疗科技(成都)有限公司 | 一种基于Flowformer和门控注意力的牙齿CBCT图像分割网络 |
CN117893763B (zh) * | 2024-01-22 | 2024-09-10 | 内蒙古工业大学 | 一种基于ResCo-UNet的荞麦籽粒图像分割方法 |
CN117612221B (zh) * | 2024-01-24 | 2024-04-26 | 齐鲁工业大学(山东省科学院) | 结合注意力shift的OCTA图像血管提取方法 |
CN117649609B (zh) * | 2024-01-30 | 2024-04-30 | 中国人民解放军海军航空大学 | 面向跨时空尺度域的遥感图像建筑物信息提取方法 |
CN117911908B (zh) * | 2024-03-20 | 2024-05-28 | 湖北经济学院 | 一种无人机航拍图像的增强处理方法及系统 |
CN117933345B (zh) * | 2024-03-22 | 2024-06-11 | 长春理工大学 | 一种医学图像分割模型的训练方法 |
CN117952993B (zh) * | 2024-03-27 | 2024-06-18 | 中国海洋大学 | 基于图像文本协同约束的半监督医学图像分割方法 |
CN118230075B (zh) * | 2024-05-23 | 2024-08-13 | 齐鲁工业大学(山东省科学院) | 基于多重损失优化的数字图像可逆信息隐藏误差预测方法 |
CN118229717B (zh) * | 2024-05-27 | 2024-09-17 | 常熟理工学院 | 一种似圆轮廓图像分割方法、系统和介质 |
CN118485882A (zh) * | 2024-07-16 | 2024-08-13 | 云途信息科技(杭州)有限公司 | 基于环境特征融合的井盖产权判断方法、系统及计算机设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108268870A (zh) * | 2018-01-29 | 2018-07-10 | 重庆理工大学 | 基于对抗学习的多尺度特征融合超声图像语义分割方法 |
CN111833352A (zh) * | 2020-06-28 | 2020-10-27 | 杭州电子科技大学 | 一种基于八度卷积改进U-net网络的图像分割方法 |
CN112446890A (zh) * | 2020-10-14 | 2021-03-05 | 浙江工业大学 | 基于空洞卷积和多尺度融合的黑色素瘤分割方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596915A (zh) * | 2018-04-13 | 2018-09-28 | 深圳市未来媒体技术研究院 | 一种基于无标注数据的医疗图像分割方法 |
US11823800B2 (en) * | 2018-10-12 | 2023-11-21 | The Medical College Of Wisconsin, Inc. | Medical image segmentation using deep learning models trained with random dropout and/or standardized inputs |
EP3660785A1 (en) * | 2018-11-30 | 2020-06-03 | Laralab UG | Method and system for providing an at least 3-dimensional medical image segmentation of a structure of an internal organ |
CN110490880A (zh) * | 2019-08-16 | 2019-11-22 | 重庆邮电大学 | 一种基于局部视觉线索的髋关节x光图像分割方法及系统 |
CN110570431A (zh) * | 2019-09-18 | 2019-12-13 | 东北大学 | 一种基于改进的卷积神经网络的医学图像分割方法 |
CN111968138B (zh) * | 2020-07-15 | 2022-03-18 | 复旦大学 | 基于3d动态边缘不敏感性损失函数的医学图像分割方法 |
CN112950639B (zh) * | 2020-12-31 | 2024-05-10 | 山西三友和智慧信息技术股份有限公司 | 一种基于SA-Net的MRI医学图像分割方法 |
CN113077471B (zh) * | 2021-03-26 | 2022-10-14 | 南京邮电大学 | 一种基于u型网络的医学图像分割方法 |
-
2021
- 2021-03-26 CN CN202110325496.XA patent/CN113077471B/zh active Active
- 2021-12-14 WO PCT/CN2021/137909 patent/WO2022199143A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108268870A (zh) * | 2018-01-29 | 2018-07-10 | 重庆理工大学 | 基于对抗学习的多尺度特征融合超声图像语义分割方法 |
CN111833352A (zh) * | 2020-06-28 | 2020-10-27 | 杭州电子科技大学 | 一种基于八度卷积改进U-net网络的图像分割方法 |
CN112446890A (zh) * | 2020-10-14 | 2021-03-05 | 浙江工业大学 | 基于空洞卷积和多尺度融合的黑色素瘤分割方法 |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11580646B2 (en) | 2021-03-26 | 2023-02-14 | Nanjing University Of Posts And Telecommunications | Medical image segmentation method based on U-Net |
WO2022199143A1 (zh) * | 2021-03-26 | 2022-09-29 | 南京邮电大学 | 一种基于u型网络的医学图像分割方法 |
CN113393469A (zh) * | 2021-07-09 | 2021-09-14 | 浙江工业大学 | 基于循环残差卷积神经网络的医学图像分割方法和装置 |
CN113706379A (zh) * | 2021-07-29 | 2021-11-26 | 山东财经大学 | 一种基于医学图像处理的层间插值方法及系统 |
CN113706379B (zh) * | 2021-07-29 | 2023-05-26 | 山东财经大学 | 一种基于医学图像处理的层间插值方法及系统 |
CN113723470A (zh) * | 2021-08-09 | 2021-11-30 | 北京工业大学 | 融合多层信息的花粉图像合成方法、装置及电子设备 |
CN113781410A (zh) * | 2021-08-25 | 2021-12-10 | 南京邮电大学 | 一种基于MEDU-Net+网络的医学图像分割方法和系统 |
CN113781410B (zh) * | 2021-08-25 | 2023-10-13 | 南京邮电大学 | 一种基于MEDU-Net+网络的医学图像分割方法和系统 |
CN113936006A (zh) * | 2021-10-29 | 2022-01-14 | 天津大学 | 一种处理高噪低质医学图像的分割方法及装置 |
CN113781377A (zh) * | 2021-11-03 | 2021-12-10 | 南京理工大学 | 基于对抗性语义引导与感知的红外和可见光图像融合方法 |
CN114169363A (zh) * | 2021-11-16 | 2022-03-11 | 西安石油大学 | 一种地震勘探数据处理方法、装置及可存储介质 |
CN114399519A (zh) * | 2021-11-30 | 2022-04-26 | 西安交通大学 | 一种基于多模态融合的mr图像3d语义分割方法及系统 |
CN114399519B (zh) * | 2021-11-30 | 2023-08-22 | 西安交通大学 | 一种基于多模态融合的mr图像3d语义分割方法及系统 |
CN114240951A (zh) * | 2021-12-13 | 2022-03-25 | 电子科技大学 | 一种基于查询的医学图像分割神经网络的黑盒攻击方法 |
CN114558251A (zh) * | 2022-01-27 | 2022-05-31 | 苏州雷泰医疗科技有限公司 | 一种基于深度学习的自动摆位方法、装置及放射治疗设备 |
CN114648724A (zh) * | 2022-05-18 | 2022-06-21 | 成都航空职业技术学院 | 一种基于生成对抗网络的轻量化高效目标分割与计数方法 |
CN114648724B (zh) * | 2022-05-18 | 2022-08-12 | 成都航空职业技术学院 | 一种基于生成对抗网络的轻量化高效目标分割与计数方法 |
CN115115540A (zh) * | 2022-06-08 | 2022-09-27 | 大连海事大学 | 基于光照信息引导的无监督低光图像增强方法及装置 |
CN115345970A (zh) * | 2022-08-15 | 2022-11-15 | 哈尔滨工业大学(深圳) | 基于生成对抗网络的多模态输入视频条件生成方法 |
CN115359881A (zh) * | 2022-10-19 | 2022-11-18 | 成都理工大学 | 一种基于深度学习的鼻咽癌肿瘤自动勾画方法 |
CN116543267A (zh) * | 2023-07-04 | 2023-08-04 | 宁德时代新能源科技股份有限公司 | 图像集处理方法、图像分割方法、装置、设备和存储介质 |
CN116543267B (zh) * | 2023-07-04 | 2023-10-13 | 宁德时代新能源科技股份有限公司 | 图像集处理方法、图像分割方法、装置、设备和存储介质 |
CN117078692A (zh) * | 2023-10-13 | 2023-11-17 | 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) | 一种基于自适应特征融合的医疗超声图像分割方法及系统 |
CN117078692B (zh) * | 2023-10-13 | 2024-02-06 | 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) | 一种基于自适应特征融合的医疗超声图像分割方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113077471B (zh) | 2022-10-14 |
WO2022199143A1 (zh) | 2022-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113077471B (zh) | 一种基于u型网络的医学图像分割方法 | |
US11580646B2 (en) | Medical image segmentation method based on U-Net | |
CN110930397B (zh) | 一种磁共振图像分割方法、装置、终端设备及存储介质 | |
CN111798462B (zh) | 一种基于ct图像的鼻咽癌放疗靶区自动勾画方法 | |
CN113240691B (zh) | 一种基于u型网络的医学图像分割方法 | |
CN111429460B (zh) | 图像分割方法、图像分割模型训练方法、装置和存储介质 | |
CN111627019A (zh) | 一种基于卷积神经网络的肝脏肿瘤分割方法及系统 | |
CN114119638A (zh) | 一种融合多尺度特征和注意力机制的医学图像分割方法 | |
WO2024104035A1 (zh) | 基于长短期记忆自注意力模型的三维医学图像分割方法及系统 | |
CN111325750B (zh) | 一种基于多尺度融合u型链神经网络的医学图像分割方法 | |
CN111612008A (zh) | 基于卷积网络的图像分割方法 | |
CN114494296A (zh) | 一种基于Unet和Transformer相融合的脑部胶质瘤分割方法与系统 | |
CN104077742B (zh) | 基于Gabor特征的人脸素描合成方法及系统 | |
CN114399510B (zh) | 结合图像和临床元数据的皮肤病灶分割和分类方法及系统 | |
CN113838067B (zh) | 肺结节的分割方法和装置、计算设备、可存储介质 | |
CN114663440A (zh) | 一种基于深度学习的眼底图像病灶分割方法 | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN115496720A (zh) | 基于ViT机制模型的胃肠癌病理图像分割方法及相关设备 | |
CN117333497A (zh) | 一种基于掩码监督策略的高效建模的三维医学影像分割方法 | |
CN117934824A (zh) | 一种超声影像的目标区域分割方法、系统及电子设备 | |
CN115661165A (zh) | 基于增强注意力的编解码网络胶质瘤融合分割系统及方法 | |
Wang et al. | Accurate lung nodule segmentation with detailed representation transfer and soft mask supervision | |
CN113538363A (zh) | 一种基于改进U-Net的肺部医学影像分割方法及装置 | |
CN117593275A (zh) | 一种医学图像分割系统 | |
CN113269754A (zh) | 用于运动估计的神经网络系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |