CN112767416B - 一种基于空间和通道双重注意力机制的眼底血管分割方法 - Google Patents
一种基于空间和通道双重注意力机制的眼底血管分割方法 Download PDFInfo
- Publication number
- CN112767416B CN112767416B CN202110066944.9A CN202110066944A CN112767416B CN 112767416 B CN112767416 B CN 112767416B CN 202110066944 A CN202110066944 A CN 202110066944A CN 112767416 B CN112767416 B CN 112767416B
- Authority
- CN
- China
- Prior art keywords
- network
- blood vessel
- segmentation
- fundus
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 92
- 210000004204 blood vessel Anatomy 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000009977 dual effect Effects 0.000 title claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 18
- 230000003321 amplification Effects 0.000 claims abstract description 13
- 238000003199 nucleic acid amplification method Methods 0.000 claims abstract description 13
- 238000007781 pre-processing Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 5
- 238000012360 testing method Methods 0.000 claims abstract description 5
- 238000010586 diagram Methods 0.000 claims description 23
- 239000011159 matrix material Substances 0.000 claims description 23
- 238000001914 filtration Methods 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 6
- 230000003213 activating effect Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 4
- 230000007786 learning performance Effects 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 210000000416 exudates and transudate Anatomy 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明涉及一种基于空间和通道双重注意力机制的眼底血管分割方法,包括如下步骤:步骤1、对原始眼底图像进行数据预处理;步骤2、对预处理后的眼底图像进行数据扩增;步骤3、构建融合空间和通道双重注意力机制的分割网络DAU‑net,将扩增后的图像送入到DAU‑net中进行网络训练,利用网络分割结果与对应的人工标注血管分割图之间的损失指导网络训练,获得训练后的眼底血管分割模型;步骤4、将待分割的测试眼底图输入眼底血管分割模型进行分割处理,获得眼底血管分割结果。
Description
技术领域
本发明涉及深度学习和医学图像处理领域,尤其是一种基于空间和通道双重注意力机制的眼底血管分割方法。
背景技术
眼底血管分割方法可整体上归纳为非监督方法和监督方法。其中,非监督方法不依赖人工标注的血管真值图作为指导信号,主要利用图像处理方法进行血管分割。此类方法主要利用人工设计特征,需要依赖特征设计者的丰富的先验知识,以达到较好的眼底血管分割效果。监督方法中,基于卷积神经网络的血管分割方法取得优秀的分割效果。文献首先对眼底图像进行预处理,然后将预处理后的眼底图像送入卷积神经网络,进而获得眼底血管分割结果。U-net神经网络框架是专门为医学图像处理提出的深度学习框架,并得到广泛应用。Daniele等人第一次将U-net网络应用到眼底血管分割任务中,并有效提高了眼底血管的分割效果,该方法在临床中得到广泛应用。近几年,研究人员基于U-net网络,提出多种眼底血管分割的优化方案,进一步提升眼底血管分割的精确率。但随着优化方案的网络模型的增大,眼底血管分割的效率下降。现有方案无法发同时具有较高的眼底血管分割精确率和较高的分割效率。
发明内容
针对现有技术无法发同时具有较高的眼底血管分割精确率和较高的分割效率的问题,本发明提出一种基于空间和通道双重注意力机制的眼底血管分割方案。在经典Unet网络的基础上,引入空间和通道双重注意力机制增强网络的分割能力,提升眼底血管分割的精确率,同时通过减少网络的通道数以提升网络的分割效率。
本发明的技术方案:一种基于空间和通道双重注意力机制的眼底血管分割方法,包括如下步骤:
步骤1、对原始眼底图像进行数据预处理;
步骤2、对预处理后的眼底图像进行数据扩增;
步骤3、构建融合空间和通道双重注意力机制的分割网络DAU-net,将扩增后的图像送入到DAU-net中进行网络训练,利用网络分割结果与对应的人工标注血管分割图之间的损失指导网络训练,获得训练后的眼底血管分割模型;
步骤4、将待分割的测试眼底图输入眼底血管分割模型进行分割处理,获得眼底血管分割结果。
进一步的,所述步骤1包括:
首先对原始输入图像进行直方图均衡,以减少光照变化对眼底图的影响;其次进行高斯滤波,增强眼底视盘和渗出物与图像其他区域之间的对比。
进一步的,所述步骤2包括:
利用高斯滤波后的图像进行数据扩增,对图像随机进行旋转或尺寸变化,达到数据扩增的目的。
进一步的,所述步骤3包括:
步骤A.构建空间和通道双重注意力机制的眼底血管分割网络
在眼底血管分割网络U-net基础上,首先将所有卷积层(conv)的输出通道减半,以降低网络模型的复杂度,提高血管分割的效率;其次,在网络中添加空间注意力模块和通道注意力模块以提升网络分割的精确率。编码部分,在每次下采样(max pooling)操作之前添加空间注意力模块和通道注意力模块;解码部分,在每次上采样(upsampling)之前添加空间注意力模块和通道注意力模块;注意力模块能够使网络关注到眼底图像血管区域,提升网络的分割精确率。将U-net网络通道减半和添加两种注意力模块,得到所述的眼底血管分割网络DAU-net。
步骤B.网络模型训练
首先选择眼底血管分割的公开数据集,或者收集并标注一批眼底血管分割数据;其次,将原始眼底图进行预处理,并与标注结果一起进行数据扩增;最后送入到DAU-net网络中进行模型训练,利用网络分割结果与标注分割结果之间的损失对网络学习进行指导,获得最终稳定的血管分割图。
有益效果:
本发明首先在U-net网络的基础上,融合空间注意力机制和通道注意力机制,学习了深度学习网络中不同通道的重要性,以及特征图上不同区域的重要性,并将重要性转化成权重融入到网络的学习中,有效提升了分割网络的精确率,最终在DIRVE数据集上分割的正确率为97.01%,特异性为0.9835,灵敏度为0.8309,dice为0.8292。此外,通过对网络的通道数减半获得了轻量级网络,提升网络的分割效率,提出的DAU-net网络模型参数仅为Unet的1/3。
本发明在提升眼底血管分割精准率的同时降低了模型的复杂度,大幅减少模型参数,提高模型的分割效率。
附图说明
图1为血管分割流程图;
图2为数据预处理流程图;
图3为U-net网络结构图;
图4为DAU-net的网络结构图;
图5为通道注意力模块的结构图;
图6为空间注意力模块的结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅为本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域的普通技术人员在不付出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。
本发明的方法整体流程图如图1所示,整个流程分为训练结果和测试阶段两个部分。
(1)训练阶段:
如图1所示,首先将训练图像进行数据预处理,然后与血管分割真值图一起进行数据扩增,将扩增后的数据送入到DAU-net中,进行网络模型的训练,最终输出训练好的眼底图血管分割模型。具体如下:
A、数据预处理
如图2所示,是数据预处理流程图。首先对原始输入图像进行直方图均衡,以减少光照变化对眼底图的影响;其次进行高斯滤波,增强眼底视盘和渗出物与图像其他区域之间的对比。
B、数据扩增
利用高斯滤波后的图像进行数据扩增,对图像随机进行旋转或尺寸变化,达到数据扩增的目的。
C、网络构建
本发明提出的融合空间和通道双重注意力机制的深度学习分割网络DAU-net,是在U-net的基础上改进得到的。图3所示是U-net网络结构图,图4是DAU-net的网络结构图。与U-net相比,DAU-net网络具有两点重要创新,其一是对网络中所有卷积层的输出通道数都进行减半处理,例如U-net网络的第一卷积层的输出通道数为64,而DAU-net相同位置处的输出通道数为32,同理其他各层。通过减少网络的通道数达到降低模型复杂度、提升模型分割效率的目的。其二是在U-net网络的基础上融合空间注意力模块和通道注意力模块,提升了网络的分割精确率。DAU-net的详细网络结构及参数由表1给出。与经典U-net网络相比,本发明首先对所有卷积层的输出通道数减半,其次在网络每次下采样与上采样之前,添加空间注意力模块和通道注意力模块。
通道注意力模块使网络对通道的重要性进行编码,获得不同通道的权重值,进而将网络的学习聚焦在重要的通道上,以提升网络学习的性能。通道注意力模块的网络结构如图5所示,首先,上一层输出的特征图矩阵(c×h×w)作为通道注意力模块的输入,经过平均池化,获得每个通道上的均值矩阵(1×1×c);其次,将均值通过两个卷积层获得权重矩阵(1×1×c),权重矩阵的每个权值代表相应通道的重要程度;最后,将获得的权重矩阵经过S形函数激活,再与特征图矩阵相乘,获得加权后特征图矩阵作为通道注意力模块的输出。
空间注意力模块使网络对特征图上空间区域的重要性进行编码,获得不同区域的权重值,进而将网络的学习聚焦在重要的空间区域上,以提升网络学习的性能。空间注意力模块的网络结构如图6所示,首先上一层输出的特征图矩阵(c×h×w)作为空间注意力模块的输入,沿着通道维度计算均值,得到均值特征图矩阵(1×h×w)特征图矩阵上每个值代表所在位置像素的重要程度;然后将均值特征图经过S形函数激活,再与输入的特征图矩阵相乘,获得加权后的特征图均值作为空间注意力模块的输出。
D、网络模型训练
将预处理并扩增后的图像,送入到所述构建的血管分割网络DAU-net中进行网络训练,并利用网络分割结果与人工标注的分割结果(血管分割真值图)之间的损失指导网络的训练,待损失减小到满足要求或达到预设的迭代次数,停止网络训练,获得性能优异的眼底血管分割模型。
(2)测试阶段:
将待分割眼底图像直接送入训练好的血管分割网络DAU-net模型中,获得最终的眼底血管分割结果。最终在DIRVE数据集上分割的正确率为97.01%,特异性为0.9835,灵敏度为0.8309,dice为0.8292。表2为本发明方法与U-net网络的分割效果对比,从表2的对比可知,本发明提出的方法在多个评价指标上均优于U-net网络。
本发明通过对网络的通道数减半获得了轻量级网络,提升网络的分割效率。本发明提出的DAU-net网络模型参数是U-net的1/3。表3为DAU-net与U-net的网络参数量对比。
表1:DAU-net的网络结构及参数
表2:DAU-net与U-net的分割性能比较
U-net | DAU-net | |
正确率(ACC) | 0.9614 | 0.9701 |
灵敏度(Se) | 0.8162 | 0.8309 |
特异性(Sp) | 0.9783 | 0.9835 |
Dice | 0.8152 | 0.8292 |
表3:DAU-net与U-net的网络参数量对比
U-net | DAU-net | |
参数量 | 43,926,401 | 11,859,265 |
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,且应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (3)
1.一种基于空间和通道双重注意力机制的眼底血管分割方法,其特征在于,包括如下步骤:
步骤1、对原始眼底图像进行数据预处理,所述预处理包括对原始图像进行直方图均衡;
步骤2、对预处理后的眼底图像进行数据扩增;
步骤3、构建融合空间和通道双重注意力机制的分割网络DAU-net,将扩增后的图像送入到DAU-net中进行网络训练,利用网络分割结果与对应的人工标注血管分割图之间的损失指导网络训练,获得训练后的眼底血管分割模型;具体包括:
步骤A.构建空间和通道双重注意力机制的眼底血管分割网络DAU-net
在眼底血管分割网络U-net基础上,首先将所有卷积层(conv)的输出通道减半,以降低网络模型的复杂度,提高血管分割的效率;其次,在网络中添加空间注意力模块和通道注意力模块以提升网络分割的精确率;编码部分,在每次下采样(max pooling)操作之前添加空间注意力模块和通道注意力模块;解码部分,在每次上采样(upsampling)之前添加空间注意力模块和通道注意力模块;注意力模块能够使网络关注到眼底图像血管区域,提升网络的分割精确率,将U-net网络通道减半和添加两种注意力模块,得到所述眼底血管分割网络DAU-net;
通道注意力模块使网络对通道的重要性进行编码,获得不同通道的权重值,进而将网络的学习聚焦在重要的通道上,以提升网络学习的性能,通道注意力模块的网络结构首先,上一层输出的特征图矩阵(c×h×w)作为通道注意力模块的输入,经过平均池化,获得每个通道上的均值矩阵(1×1×c);其次,将均值通过两个卷积层获得权重矩阵(1×1×c),权重矩阵的每个权值代表相应通道的重要程度;最后,将获得的权重矩阵经过S形函数激活,再与特征图矩阵相乘,获得加权后特征图矩阵作为通道注意力模块的输出;
空间注意力模块使网络对特征图上空间区域的重要性进行编码,获得不同区域的权重值,进而将网络的学习聚焦在重要的空间区域上,以提升网络学习的性能,空间注意力模块的网络结构,首先上一层输出的特征图矩阵(c×h×w)作为空间注意力模块的输入,沿着通道维度计算均值,得到均值特征图矩阵(1×h×w)特征图矩阵上每个值代表所在位置像素的重要程度;然后将均值特征图经过S形函数激活,再与输入的特征图矩阵相乘,获得加权后的特征图均值作为空间注意力模块的输出;
步骤B.网络模型训练
首先选择眼底血管分割的公开数据集,或者收集并标注一批眼底血管分割数据;其次,将原始眼底图进行预处理,并与标注结果一起进行数据扩增;最后送入到DAU-net网络中进行模型训练,利用网络分割结果与标注分割结果之间的损失对网络学习进行指导,获得最终稳定的血管分割图;
步骤4、将待分割的测试眼底图输入眼底血管分割模型进行分割处理,获得眼底血管分割结果。
2.根据权利要求1所述的一种基于空间和通道双重注意力机制的眼底血管分割方法,其特征在于,所述步骤1包括:
首先对原始输入图像进行直方图均衡,以减少光照变化对眼底图的影响;
其次进行高斯滤波,增强眼底视盘和渗出物与图像其他区域之间的对比。
3.根据权利要求1所述的一种基于空间和通道双重注意力机制的眼底血管分割方法,其特征在于,所述步骤2包括:
利用高斯滤波后的图像进行数据扩增,对图像随机进行旋转或尺寸变化,达到数据扩增的目的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110066944.9A CN112767416B (zh) | 2021-01-19 | 2021-01-19 | 一种基于空间和通道双重注意力机制的眼底血管分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110066944.9A CN112767416B (zh) | 2021-01-19 | 2021-01-19 | 一种基于空间和通道双重注意力机制的眼底血管分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112767416A CN112767416A (zh) | 2021-05-07 |
CN112767416B true CN112767416B (zh) | 2023-03-24 |
Family
ID=75702985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110066944.9A Active CN112767416B (zh) | 2021-01-19 | 2021-01-19 | 一种基于空间和通道双重注意力机制的眼底血管分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112767416B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113205538A (zh) * | 2021-05-17 | 2021-08-03 | 广州大学 | 基于CRDNet的血管图像分割方法及装置 |
CN113408457B (zh) * | 2021-06-29 | 2022-10-21 | 西南交通大学 | 一种联合高分影像和视频图像的道路信息智能提取方法 |
CN114022487A (zh) * | 2021-11-10 | 2022-02-08 | 哈尔滨理工大学 | 宫颈细胞核的分割方法及装置、电子设备和存储介质 |
CN114511636B (zh) * | 2022-04-20 | 2022-07-12 | 科大天工智能装备技术(天津)有限公司 | 一种基于双滤注意力模块的果实计数方法及系统 |
CN115587967B (zh) * | 2022-09-06 | 2023-10-10 | 杭州电子科技大学 | 一种基于HA-UNet网络的眼底图像视盘检测方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132817A (zh) * | 2020-09-29 | 2020-12-25 | 汕头大学 | 一种混合注意力机制的眼底图像视网膜血管分割方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10482603B1 (en) * | 2019-06-25 | 2019-11-19 | Artificial Intelligence, Ltd. | Medical image segmentation using an integrated edge guidance module and object segmentation network |
CN110675406A (zh) * | 2019-09-16 | 2020-01-10 | 南京信息工程大学 | 基于残差双注意力深度网络的ct图像肾脏分割算法 |
CN111259982B (zh) * | 2020-02-13 | 2023-05-12 | 苏州大学 | 一种基于注意力机制的早产儿视网膜图像分类方法和装置 |
CN111667489B (zh) * | 2020-04-30 | 2022-04-05 | 华东师范大学 | 基于双分支注意力深度学习的癌症高光谱图像分割方法及系统 |
CN111862056A (zh) * | 2020-07-23 | 2020-10-30 | 东莞理工学院 | 一种基于深度学习的视网膜血管图像分割方法 |
-
2021
- 2021-01-19 CN CN202110066944.9A patent/CN112767416B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132817A (zh) * | 2020-09-29 | 2020-12-25 | 汕头大学 | 一种混合注意力机制的眼底图像视网膜血管分割方法 |
Non-Patent Citations (1)
Title |
---|
基于密集注意力网络的视网膜血管图像分割;梅旭璋等;《计算机工程》;20200315(第03期);第267-272页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112767416A (zh) | 2021-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112767416B (zh) | 一种基于空间和通道双重注意力机制的眼底血管分割方法 | |
CN111325751B (zh) | 基于注意力卷积神经网络的ct图像分割系统 | |
CN107977932B (zh) | 一种基于可鉴别属性约束生成对抗网络的人脸图像超分辨率重建方法 | |
CN111369563B (zh) | 一种基于金字塔空洞卷积网络的语义分割方法 | |
CN111738301B (zh) | 一种基于双通道学习的长尾分布图像数据识别方法 | |
CN111028146B (zh) | 基于双判别器的生成对抗网络的图像超分辨率方法 | |
CN112508864B (zh) | 基于改进UNet++的视网膜血管图像分割方法 | |
CN112446891B (zh) | 基于U-Net网络脑胶质瘤的医学图像分割方法 | |
CN110287777B (zh) | 一种自然场景下的金丝猴躯体分割算法 | |
CN110751636B (zh) | 一种基于改进型编解码网络的眼底图像视网膜动脉硬化检测方法 | |
CN113361623B (zh) | 一种轻量级cnn结合迁移学习的医学图像分类方法 | |
CN111984817B (zh) | 一种基于自注意力机制加权的细粒度图像检索方法 | |
CN110223304A (zh) | 一种基于多路径聚合的图像分割方法、装置和计算机可读存储介质 | |
CN110533591B (zh) | 基于编解码器结构的超分辨图像重建方法 | |
CN116563204A (zh) | 一种融合多尺度残差注意力的医学图像分割方法 | |
CN112465842B (zh) | 基于U-net网络的多通道视网膜血管图像分割方法 | |
CN112288749A (zh) | 一种基于深度迭代融合深度学习模型的颅骨图像分割方法 | |
CN111523483B (zh) | 中餐菜品图像识别方法及装置 | |
CN114331911A (zh) | 一种基于卷积神经网络的傅里叶叠层显微图像去噪方法 | |
CN112884788A (zh) | 基于丰富上下文网络的视杯视盘分割方法及成像方法 | |
CN111242949B (zh) | 基于全卷积神经网络多尺度特征的眼底图像血管分割方法 | |
CN113344933B (zh) | 一种基于多层次特征融合网络的腺体细胞分割方法 | |
CN114441173A (zh) | 基于改进深度残差收缩网络的滚动轴承故障诊断方法 | |
CN110992309B (zh) | 基于深层信息传递网络的眼底图像分割方法 | |
CN116523877A (zh) | 一种基于卷积神经网络的脑mri图像肿瘤块分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |