CN112233135A - 眼底图像中视网膜血管分割方法及计算机可读存储介质 - Google Patents
眼底图像中视网膜血管分割方法及计算机可读存储介质 Download PDFInfo
- Publication number
- CN112233135A CN112233135A CN202011253627.XA CN202011253627A CN112233135A CN 112233135 A CN112233135 A CN 112233135A CN 202011253627 A CN202011253627 A CN 202011253627A CN 112233135 A CN112233135 A CN 112233135A
- Authority
- CN
- China
- Prior art keywords
- feature
- network
- fundus image
- residual non
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000011218 segmentation Effects 0.000 title claims abstract description 43
- 210000001210 retinal vessel Anatomy 0.000 title claims abstract description 33
- 238000011176 pooling Methods 0.000 claims abstract description 23
- 238000012549 training Methods 0.000 claims abstract description 22
- 238000002790 cross-validation Methods 0.000 claims abstract description 15
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000003044 adaptive effect Effects 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000007774 longterm Effects 0.000 claims description 3
- 238000002156 mixing Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000012360 testing method Methods 0.000 description 12
- 238000004422 calculation algorithm Methods 0.000 description 9
- 230000001360 synchronised effect Effects 0.000 description 8
- 210000004204 blood vessel Anatomy 0.000 description 5
- 230000008034 disappearance Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000003313 weakening effect Effects 0.000 description 4
- 206010012689 Diabetic retinopathy Diseases 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000002207 retinal effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002792 vascular Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010034960 Photophobia Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000023077 detection of light stimulus Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 208000013469 light sensitivity Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 238000002759 z-score normalization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种眼底图像中视网膜血管分割方法及计算机可读存储介质,方法包括:对公开数据集的眼底图像进行预处理;对预处理后的眼底图像进行裁剪扩充并分为训练集和交叉验证集;搭建残差非局部注意力网络,残差非局部注意力网络包括:采用具有跳跃连接的编码网络‑解码网络架构作为基础模型,嵌入残差非局部注意模块来捕获输入特征的不同区域之间的非局部上下文依赖关系;在编码网络最后添加了金字塔池化模块以捕获多尺度特征;采用训练集训练残差非局部注意力网络;并通过交叉验证集确定残差非局部注意力网络的模型参数;采用训练好的残差非局部注意力网络对待处理的眼底图像进行分割,得到视网膜血管分割图。具有更好的分割性能。
Description
技术领域
本发明涉及医学图像处理技术领域,尤其涉及一种眼底图像中视网膜血管分割方法及计算机可读存储介质。
背景技术
视网膜血管的分析可提供有关眼睛状况和人体健康的丰富信息,其中,获得清晰的血管分布图是至关重要的一步。
最近,视网膜血管分割方法常采用卷积神经网络(CNN)作为基础模型算法,且该模型算法在分割任务中显示了出色的特征提取能力。然而,固定的感受野使网络无法适应视网膜血管的尺度变化。因为视网膜血管结构是复杂的,纠缠的和多尺度的。此外,局部感受野无法捕获整个特征图不同区域之间的全局信息和上下文依赖关系,这会影响模型的鲁棒性。对于诸如摄影条件引起的照明不均匀和图像分辨率低等全局问题,该模型无法从眼底图像中自适应地分割目标对象。
现有技术中缺乏一种性能和自适应性理想的眼底图像中视网膜血管分割方法。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
本发明为了解决现有的问题,提供一种眼底图像中视网膜血管分割方法及计算机可读存储介质。
为了解决上述问题,本发明采用的技术方案如下所述:
一种眼底图像中视网膜血管分割方法,包括如下步骤:S1:对公开数据集的眼底图像进行预处理;S2:对预处理后的眼底图像进行裁剪扩充并分为训练集和交叉验证集;S3:搭建残差非局部注意力网络,所述残差非局部注意力网络包括:采用具有跳跃连接的编码网络-解码网络架构作为基础模型,在所述基础模型上嵌入残差非局部注意模块来捕获输入特征的不同区域之间的非局部上下文依赖关系;在所述编码网络最后添加了金字塔池化模块以捕获多尺度特征;S4:采用所述训练集的眼底图像作为输入特征输入所述残差非局部注意力网络,训练所述残差非局部注意力网络;并通过所述交叉验证集确定所述残差非局部注意力网络的模型参数;S5:采用训练好并确定好模型参数的所述残差非局部注意力网络对待处理的眼底图像进行分割,得到视网膜血管分割图。
优选地,对所述公开数据集的眼底图像进行预处理包括:对所述眼底图像进行对图像进行灰度转换、标准化操作、对比度受限自适应直方图均衡、伽马校正。
优选地,对预处理后的眼底图像进行裁剪扩充包括:从每个所述预处理后的眼底图像中随机裁剪出多个大小相等的图像块以预先设置的比例组成所述训练集和所述交叉验证集。
优选地,所述编码网络通过最大池化操作实现下采样,通过反卷积实现上采样。
优选地,所述残差非局部注意模块包括卷积分支和特征注意力分支,经过残差连接;所述卷积分支,用于使用两个卷积神经网络模块从作为输入特征的所述眼底图像中提取信息;所述特征注意分支,用于计算一个非局部注意力掩码以捕获作为输入特征的所述眼底图像中不同特征区域之间的长期依赖关系。
优选地,每个所述卷积神经网络模块卷积模块包含内核尺寸3×3步幅为1的卷积运算,批量归一化层和ReLU激活层。
优选地,所述特征注意分支有两个输入矩阵,分别为所述残差非局部注意力网络的原始输入特征和所述卷积分支提取出的特征两个输入特征输入1×1卷积层以分别生成两个新的特征图A和B,其中将这两个特征图矩阵维度变换为其中N=H×W代表像素数目;对A的转置和B执行矩阵乘法并应用softmax层来计算特征注意力掩膜表现形式为:
其中,Mij用来衡量第i个位置对第j个位置的贡献;
对输入特征X和D进行残差连接,即执行逐元素求和运算,得到了在特征注意力掩码下的特征输出Y,表现形式为:
最后,在所述特征注意力分支的末尾添加卷积层进行特征混合。
优选地,所述金字塔池化模块使用四个不同尺寸的最大池化内核来匹配多尺度对象,即1×1、2×2、3×3和6×6;每个池化操作后都跟随一个1x1卷积层以减少通道数;通过双线性插值将1x1卷积后的特征图上采样到与所述原始输入特征相同的空间大小;将所述原始特征特征与上采样特征图级联起来得到所述金字塔池化模块的输出。
优选地,选择所述交叉验证集上具有损失函数最小值的所述残差非局部注意力网络的模型参数。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上任一所述方法的步骤。
本发明的有益效果为:提供一种眼底图像中视网膜血管分割方法及计算机可读存储介质,通过增加跳跃连接可以补充在特征提取过程即编码过程中损失的细节信息,方便后续精准分割定位视网膜血管;在基础模型上嵌入残差非局部注意模块来捕获输入特征的不同区域之间的非局部上下文依赖关系,可以着重特征区域忽略无关区域;在编码路径的末尾添加了金字塔池化模块,以多种尺度检测对象特征;可以适应视网膜血管的尺度变化,捕获到非局部信息和分割目标的多尺度特征,并获得更好的分割性能。
附图说明
图1是本发明实施例中一种眼底图像中视网膜血管分割方法的示意图。
图2是本发明实施例中残差非局部注意力网络的示意图。
图3是本发明实施例中残差非局部注意力模块的示意图。
图4是本发明实施例中金字塔池化模块结构的示意图。
图5是本发明实施例中的一种试验结果对比图。
具体实施方式
为了使本发明实施例所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明的是,当元件被称为“固定于”或“设置于”另一个元件,它可以直接在另一个元件上或者间接在该另一个元件上。当一个元件被称为是“连接于”另一个元件,它可以是直接连接到另一个元件或间接连接至该另一个元件上。另外,连接既可以是用于固定作用也可以是用于电路连通作用。
需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明实施例和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多该特征。在本发明实施例的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
如图1所示,本发明提供一种眼底图像中视网膜血管分割方法,包括如下步骤:
S1:对公开数据集的眼底图像进行预处理;
S2:对预处理后的眼底图像进行裁剪扩充并分为训练集和交叉验证集;
S3:搭建残差非局部注意力网络,所述残差非局部注意力网络包括:采用具有跳跃连接的编码网络-解码网络架构作为基础模型,在所述基础模型上嵌入残差非局部注意模块来捕获输入特征的不同区域之间的非局部上下文依赖关系;在所述编码网络最后添加了金字塔池化模块以捕获多尺度特征;
S4:采用所述训练集的眼底图像作为输入特征输入所述残差非局部注意力网络,训练所述残差非局部注意力网络;并通过所述交叉验证集确定所述残差非局部注意力网络的模型参数;
S5:采用训练好并确定好模型参数的所述残差非局部注意力网络对待分割的眼底图像进行分割,得到视网膜血管分割图。
在本发明中通过残差非局部注意力网络对眼底图像进行视网膜血管分割,通过增加跳跃连接可以补充在特征提取过程即编码过程中损失的细节信息,方便后续精准分割定位视网膜血管;在基础模型上嵌入残差非局部注意模块来捕获输入特征的不同区域之间的非局部上下文依赖关系,可以着重特征区域忽略无关区域;在编码路径的末尾添加了金字塔池化模块,以多种尺度检测对象特征;可以适应视网膜血管的尺度变化,捕获到非局部信息和分割目标的多尺度特征,并获得更好的分割性能。
本发明的残差非局部注意模块(RNA模块)可以捕获到非局部上下文信息,而丰富的非局部信息对分割准确性的提高至关重要。经过残差非局部注意模块训练的网络将学会抑制输入特征的无关区域,同时突出显示有助于视觉任务的区域。此外,RNA模块可以轻松集成到标准CNN体系结构中,例如FCN和U-Net,以提高网络性能。
自注意力机制倾向于根据不同像素之间的相似性来调整关注权重,而不是被视觉功能或任务驱关注与分割目标更相关的区域。而且,由于重复执行点乘操作和堆叠注意力模块会导致性能明显下降。为了解决上述问题,本发明所述步骤S3中设计了RNA模块,与自注意力机制相比,RNA模块更加关注与分割目标相关的区域。同时,RNA模块采用残差学习两个分支的结构来解决由于堆叠注意力模块而导致的梯度消失和特征减弱的问题。RNA模块通过使用残差连接可以解决由于堆叠注意力模块而导致的梯度消失和特征减弱的问题,从而可以加深网络,提高网络训练的稳定性。
在本发明的一种实施例中,对公开数据集的眼底图像进行预处理包括:
对所述眼底图像进行对图像进行灰度转换、标准化操作、对比度受限自适应直方图均衡、伽马校正。
在本发明的一种实施例中使用公开数据集DRIVE和STARE眼底图像进行预处理,方便后续分割;对眼底图像进行预处理具体为:对图像进行灰度转换、标准化操作、对比度受限自适应直方图均衡、伽马校正四方面处理:
灰度转换是指将彩色图像转换为灰度图像的过程,由于彩色图中每一个像素点的色彩均是由R、G、B三个分量组成,而每一个分量的取值可以为0~255,因此,每一个像素点占用了大量的空间。将彩色图像转换为灰度图像,不仅会使得图像的计算量大大减少,可以有效的减少计算的复杂度,有助于对图像后续的处理。且由于后期要对图像进行直方图均衡操作,而对彩色分量RGB分别做均衡化,会产生奇异的点,图像不和谐,所以先对彩色图像进行灰度转换。考虑到血管的颜色主要为红色即R通道,后期实验可以通过调整RGB三个通道的权重生成灰度图像,来增加目标与背景的对比度。
标准化操作采用z-score方法。在对图像数据进行操作之前,要对数据进行正规化,将数据映射到[0,1]之间,但由于最大值与最小值非常容易受异常点影响,所以这种方法鲁棒性较差,只适合传统精确小数据场景。常用的方法是z-score标准化,经过处理后的数据均值为0,标准差为1。它可以通过现有样本进行估计。在已有样本足够多的情况下比较稳定,适合现代嘈杂大数据场景。
本方法采用对比度受限自适应直方图均衡来增加目标与背景的对比度。直方图均衡技术通常用来增强许多图像的全局对比度,尤其是当图像的有用数据的对比度相当接近的时候。通过这种方法,亮度可以更好地在直方图上分布。这样就可以用于增强局部的对比度而不影响整体的对比度。这种方法对于背景和前景都太亮或者太暗的图像非常有用,尤其是可以带来X光图像中更好的骨骼结构显示以及曝光过度或者曝光不足照片中更好的细节。当图像中像素值的分布相似时很有效。然而,当图像包含比大多数图像明显更亮或更暗的区域时,这些区域中的对比度将不会充分增强。自适应直方图均衡技术(AHE)与普通直方图均衡的不同之处在于自适应方法计算几个直方图,每个直方图对应于图像的不同部分,并使用它们来重新分配图像的亮度值。因此,它适合于改善局部对比度并增强图像的每个区域中的边缘的定义。然而,AHE倾向于过度简化图像的相对均匀区域中的噪声。自适应直方图均衡的变体称为对比度受限自适应直方图均衡(CLAHE)通过限制放大来防止这种情况。
为图像进行伽马编码的目的是用来对人类视觉的特性进行补偿。人眼对外界光源的感光值与输入光强不是呈线性关系而是指数型关系的。在低像素值情况下,人眼更容易分辨出亮度的变化,而随着照度的增加,人眼不易分辨出亮度的变化。根据人类对光线或者黑白的感知,最大化地利用表示黑白的数据位或带宽。在通常的照明(既不是漆黑一片,也不是令人目眩的明亮)的情况下,人类的视觉大体有伽马或者是幂函数的性质。如果不将图像进行伽马编码,那么数据位或者带宽的利用就会分布不均匀—会有过多的数据位或者带宽用来表示人类根本无法察觉到的差异,而用于表示人类非常敏感的视觉感知范围的数据位或者带宽又会不足。
然后,对预处理后的眼底图像进行裁剪扩充包括:
从每个所述预处理后的眼底图像中随机裁剪出多个大小相等的图像块以预先设置的比例组成所述训练集和所述交叉验证集。
在一种具体的实施例中,从每个眼底图像中,随机裁剪9500张48*48大小的图像块以19:1的比例组成训练集和交叉验证集。
如图2所示,在本发明的一种实施例中,残差非局部注意力网络主要有两条路径:编码路径和解码路径,它们之间具有跳跃以帮助精确定位。在此基础上,设计了残差非局部注意力(RNA)模块,以便将重点放在特征区域上,而忽略无关区域。具体来说,RNA模块包含两个分支:(1)卷积分支,用于使用两个卷积神经网络模块从作为输入特征的所述眼底图像中提取信息;(2)特征注意分支,用于计算一个非局部注意力掩码以捕获作为输入特征的所述眼底图像中不同特征区域之间的长期依赖关系。通过使用残差连接,RNA模块还可以解决由于堆叠注意力模块而导致的梯度消失和特征减弱的问题。因此,可以用RNA模块代替卷积运算,以从输入特征中接收更有助于视觉任务的特征细节。此外,在最后一个编码步骤后添加了金字塔池化模块(PPM),以更好地捕获多尺度特征。
如图3所示,残差非局部注意力(RNA)模块分为两个分支:卷积分支和特征注意力分支。经过残差连接,将两个分支提取出的特征最大程度保留,同时特征注意力分支也采取了残差连接操作,将会最大程度保留原始特征,这会有助于特征提取的学习,稳定网络训练,解决梯度消失或爆炸等问题。
其中,RNA模块的卷积分支:参考U-Net的编码过程,使用两个CNN卷积模块从输入特征中提取信息。每个CNN卷积模块包含内核尺寸3×3步幅为1的卷积运算,批量归一化层和ReLU激活层。
其中,Mij用来衡量第i个位置对第j个位置的贡献;两个位置的特征表示越相似,它们之间的相关性就越高。
对输入特征X和D进行残差连接,即执行逐元素求和运算,得到了在特征注意力掩码下的特征输出Y,表现形式为:
最后,在所述特征注意力分支的末尾添加卷积层进行特征混合。
从公式(2)可以看出,每个位置的特征输出与整个图片中的特征加权总和有关。因此,它具有全局感受野,并根据特征注意力掩码有选择地聚合上下文信息。因此,使用RNA模块训练的网络将学会在全局范围内突出显示有助于分割任务的区域,同时抑制图像中特征不相关的区域。
综上所述,RNA模块将引导网络抑制图像中与分割目标不相关的区域,同时突出有助于分割任务的区域。同时,为了解决梯度消失和特征弱化的问题,采用两个分支的残差学习,即该模块可以在克服传统自注意力机制存在的问题基础上,捕获到丰富的非局部信息,提高网络分割性能。
在本发明的任务中,视网膜动静脉和末端分支的尺寸变化很大,这增加了分割难度。为了更好地捕捉到视网膜血管的天然形态特征,基于PSPNet,在步骤S3中采用金字塔池化模块在多个尺度上检测对象特征。
由图4所示,步骤S3中所提出的金字塔池化模块使用四个不同尺寸的最大池化内核来匹配多尺度对象,即1×1、2×2、3×3和6×6。这有助于适应视网膜血管尺度变化,同时对于诸如摄影条件引起的照明不均匀和图像分辨率低等全局问题,该模型可以自适应地从眼底图像中分割目标对象。为了降低计算复杂度,每个池化操作后都跟随一个1x1卷积层以减少通道数。为了便于随后的级联,通过双线性插值将1x1卷积后的特征图上采样到与原始输入特征相同的空间大小。最后,将原始输入特征与上采样特征图级联起来得到模块输出。由此,可以通过金字塔池化模块捕获到多尺度的对象特征。
其中,所述步骤S4中将预处理裁剪后的眼底图像作为输入特征输入RNA-Net算法模型,训练算法模型。模型算法经过训练直到收敛,选择交叉验证集上具有损失函数最小值的模型参数进行保存。
其中,所述步骤S5中,采用训练好的RNA-Net算法模型对测试样本图像进行分割,得到测试视网膜血管分割图。测试时,将测试图像裁剪成48*48的图像块输入算法模型,输出后拼接成最终视网膜血管分割图像。为了克服图像块边缘由于裁剪可能造成的边缘对齐问题,实验中以固定步长顺序裁剪图像块,使裁剪的图像块有重叠部分。在后续拼接操作中,重叠部分取均值操作。
在公共数据集DRIVE和STARE上评估模型的性能。DRIVE数据来自荷兰的糖尿病性视网膜病变筛查计划。该数据集由40张图像组成,其中33张未显示任何糖尿病性视网膜病变的征兆,而7张显示了轻度早期糖尿病性视网膜病变的征兆。每个图像的空间分辨率为565×584。40张图像分为20张用于训练和20张用于测试。对于训练图像,该数据集提供了一个专家标注,对于测试图像,提供了两个专家标注,选择第一个专家标注作为算法性能评估的标准。STARE数据集中的图像来自加利福尼亚大学圣地亚哥分校STARE项目。每个图像的空间分辨率为700×605。数据集中有20张图像,将20张图像分为10张图像进行训练和10张图像进行测试。对于所有20张图像,该数据集都提供了一位专家标注结果。
所述步骤S5中网络测试时,将测试图像裁剪成48*48的图像块输入算法模型,输出后拼接成最终视网膜血管分割图像。为了克服图像块边缘由于裁剪可能造成的边缘对齐问题,实验中以固定步长顺序裁剪图像块,使裁剪的图像块有重叠部分。在后续拼接操作中,重叠部分取均值操作。
下面结合具体实施例来对本方法的分割效果和性能提升进行说明。
在两个基准数据集上将该方法与其他方法进行比较。为了公平比较,仅列出近几年深度学习方法的已发布结果。使用AUC,F1-score,准确率,敏感性和特异性来更好地评估本发明方法性能的各个方面。DRIVE数据集实验结果如表1所示:
表1 DRIVE数据集实验结果
STARE数据集实验结果如表2所示:
表2 STARE数据集实验结果
从表1、表2中可以看出,本发明的方法的F1-score和AUC分别保持稳定在0.82和0.985左右。此外,该方法首次实现了约0.97的准确率,与其他方法相比,将精度提高了近1-2%,由上可以看出,本发明的方法实现了最优的性能。
如图5所示,在DRIVE数据集的两个示例图像上将本发明方法得到的分割效果与U-Net进行了比较。在第一个测试图像中,与本发明方法相比,U-Net在放大的框中突出显示了许多漏检的情况。在第二张测试图像中,U-Net产生了假阳性预测的嘈杂结果,如放大框中突出显示的那样。但是,在本发明方法的效果图中,血管结构是光滑且保留良好的,几乎没有噪音。可以认为,本发明方法产生的结果显示出更高的质量。
本申请实施例还提供一种控制装置,包括处理器和用于存储计算机程序的存储介质;其中,处理器用于执行所述计算机程序时至少执行如上所述的方法。
本申请实施例还提供一种存储介质,用于存储计算机程序,该计算机程序被执行时至少执行如上所述的方法。
本申请实施例还提供一种处理器,所述处理器执行计算机程序,至少执行如上所述的方法。
所述存储介质可以由任何类型的易失性或非易失性存储设备、或者它们的组合来实现。其中,非易失性存储器可以是只读存储器(ROM,Read Only Memory)、可编程只读存储器(PROM,Programmable Read-Only Memory)、可擦除可编程只读存储器(EPROM,ErasableProgrammable Read-Only Memory)、电可擦除可编程只读存储器(EEPROM,ElectricallyErasable Programmable Read-Only Memory)、磁性随机存取存储器(FRAM,FerromagneticRandom Access Memory)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(CD-ROM,Compact Disc Read-Only Memory);磁表面存储器可以是磁盘存储器或磁带存储器。易失性存储器可以是随机存取存储器(RAM,Random Access Memory),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(SRAM,Static Random Access Memory)、同步静态随机存取存储器(SSRAM,SynchronousStatic Random Access Memory)、动态随机存取存储器(DRAM,DynamicRandom AccessMemory)、同步动态随机存取存储器(SDRAM,Synchronous Dynamic RandomAccessMemory)、双倍数据速率同步动态随机存取存储器(DDRSDRAM,Double DataRateSynchronous Dynamic Random Access Memory)、增强型同步动态随机存取存储器(ESDRAM,Enhanced Synchronous Dynamic Random Access Memory)、同步连接动态随机存取存储器(SLDRAM,SyncLink Dynamic Random Access Memory)、直接内存总线随机存取存储器(DRRAM,Direct Rambus Random Access Memory)。本发明实施例描述的存储介质旨在包括但不限于这些和任意其它适合类型的存储器。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
本申请所提供的几个方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的几个产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
本申请所提供的几个方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
以上内容是结合具体的优选实施方式对本发明所做的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。
Claims (10)
1.一种眼底图像中视网膜血管分割方法,其特征在于,包括如下步骤:
S1:对公开数据集的眼底图像进行预处理;
S2:对预处理后的眼底图像进行裁剪扩充并分为训练集和交叉验证集;
S3:搭建残差非局部注意力网络,所述残差非局部注意力网络包括:采用具有跳跃连接的编码网络-解码网络架构作为基础模型,在所述基础模型上嵌入残差非局部注意模块来捕获输入特征的不同区域之间的非局部上下文依赖关系;在所述编码网络最后添加了金字塔池化模块以捕获多尺度特征;
S4:采用所述训练集的眼底图像作为输入特征输入所述残差非局部注意力网络,训练所述残差非局部注意力网络;并通过所述交叉验证集确定所述残差非局部注意力网络的模型参数;
S5:采用训练好并确定好模型参数的所述残差非局部注意力网络对待处理的眼底图像进行分割,得到视网膜血管分割图。
2.如权利要求1所述的眼底图像中视网膜血管分割方法,其特征在于,对所述公开数据集的眼底图像进行预处理包括:
对所述眼底图像进行对图像进行灰度转换、标准化操作、对比度受限自适应直方图均衡、伽马校正。
3.如权利要求2所述的眼底图像中视网膜血管分割方法,其特征在于,对预处理后的眼底图像进行裁剪扩充包括:
从每个所述预处理后的眼底图像中随机裁剪出多个大小相等的图像块以预先设置的比例组成所述训练集和所述交叉验证集。
4.如权利要求3所述的眼底图像中视网膜血管分割方法,其特征在于,所述编码网络通过最大池化操作实现下采样,通过反卷积实现上采样。
5.如权利要求4所述的眼底图像中视网膜血管分割方法,其特征在于,所述残差非局部注意模块包括卷积分支和特征注意力分支,经过残差连接;
所述卷积分支,用于使用两个卷积神经网络模块从作为输入特征的所述眼底图像中提取信息;
所述特征注意分支,用于计算一个非局部注意力掩码以捕获作为输入特征的所述眼底图像中不同特征区域之间的长期依赖关系。
6.如权利要求5所述的眼底图像中视网膜血管分割方法,其特征在于,每个所述卷积神经网络模块卷积模块包含内核尺寸3×3步幅为1的卷积运算,批量归一化层和ReLU激活层。
其中,Mij用来衡量第i个位置对第j个位置的贡献;
对输入特征X和D进行残差连接,即执行逐元素求和运算,得到了在特征注意力掩码下的特征输出Y,表现形式为:
最后,在所述特征注意力分支的末尾添加卷积层进行特征混合。
8.如权利要求7所述的眼底图像中视网膜血管分割方法,其特征在于,所述金字塔池化模块使用四个不同尺寸的最大池化内核来匹配多尺度对象,即1×1、2×2、3×3和6×6;每个池化操作后都跟随一个1x1卷积层以减少通道数;通过双线性插值将1x1卷积后的特征图上采样到与所述原始输入特征相同的空间大小;将所述原始特征特征与上采样特征图级联起来得到所述金字塔池化模块的输出。
9.如权利要求8所述的眼底图像中视网膜血管分割方法,其特征在于,选择所述交叉验证集上具有损失函数最小值的所述残差非局部注意力网络的模型参数。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-9任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011253627.XA CN112233135A (zh) | 2020-11-11 | 2020-11-11 | 眼底图像中视网膜血管分割方法及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011253627.XA CN112233135A (zh) | 2020-11-11 | 2020-11-11 | 眼底图像中视网膜血管分割方法及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112233135A true CN112233135A (zh) | 2021-01-15 |
Family
ID=74122822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011253627.XA Withdrawn CN112233135A (zh) | 2020-11-11 | 2020-11-11 | 眼底图像中视网膜血管分割方法及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112233135A (zh) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112494063A (zh) * | 2021-02-08 | 2021-03-16 | 四川大学 | 一种基于注意力机制神经网络的腹部淋巴结分区方法 |
CN112712520A (zh) * | 2021-01-18 | 2021-04-27 | 佛山科学技术学院 | 一种基于ARU-Net脉络膜层分割方法 |
CN113012168A (zh) * | 2021-03-24 | 2021-06-22 | 哈尔滨理工大学 | 一种基于卷积神经网络的脑胶质瘤mri图像分割方法 |
CN113012163A (zh) * | 2021-03-11 | 2021-06-22 | 山东大学 | 一种基于多尺度注意力网络的视网膜血管分割方法、设备及存储介质 |
CN113034444A (zh) * | 2021-03-08 | 2021-06-25 | 安徽建筑大学 | 一种基于MobileNet-PSPNet神经网络模型的路面裂缝检测方法 |
CN113205534A (zh) * | 2021-05-17 | 2021-08-03 | 广州大学 | 基于U-Net++的视网膜血管分割方法和装置 |
CN113223008A (zh) * | 2021-04-16 | 2021-08-06 | 山东师范大学 | 基于多尺度引导注意网络的眼底图像分割方法及系统 |
CN113256526A (zh) * | 2021-05-25 | 2021-08-13 | 烟台艾睿光电科技有限公司 | 一种红外图像增强方法、装置、设备及存储介质 |
CN113379770A (zh) * | 2021-06-30 | 2021-09-10 | 华南理工大学 | 鼻咽癌mr图像分割网络的构建方法、图像分割方法及装置 |
CN113592843A (zh) * | 2021-08-09 | 2021-11-02 | 北京联合大学 | 基于改进的U-Net眼底视网膜血管图像分割方法及装置 |
CN113793348A (zh) * | 2021-09-24 | 2021-12-14 | 河北大学 | 一种视网膜血管分割方法和装置 |
CN113902692A (zh) * | 2021-09-26 | 2022-01-07 | 北京医准智能科技有限公司 | 一种血管分割的方法、装置及计算机可读介质 |
CN114119627A (zh) * | 2021-10-19 | 2022-03-01 | 北京科技大学 | 基于深度学习的高温合金微观组织图像分割方法及装置 |
CN114663421A (zh) * | 2022-04-08 | 2022-06-24 | 皖南医学院第一附属医院(皖南医学院弋矶山医院) | 基于信息迁移和有序分类的视网膜图像智能分析系统及方法 |
JP2022132072A (ja) * | 2021-02-26 | 2022-09-07 | 南方科技大学 | 画像処理方法、装置、電子デバイス及び記憶媒体 |
CN115082500A (zh) * | 2022-05-31 | 2022-09-20 | 苏州大学 | 基于多尺度与局部特征引导网络的角膜神经纤维分割方法 |
CN115100222A (zh) * | 2022-08-24 | 2022-09-23 | 首都医科大学附属北京朝阳医院 | 分离动静脉血管的图像处理方法、装置、存储介质及终端 |
WO2022242131A1 (zh) * | 2021-05-21 | 2022-11-24 | 中国科学院深圳先进技术研究院 | 图像分割方法、装置、设备及存储介质 |
CN116152285A (zh) * | 2023-02-15 | 2023-05-23 | 哈尔滨工业大学 | 基于深度学习和灰度信息的图像分割系统 |
CN116188492A (zh) * | 2023-02-21 | 2023-05-30 | 北京长木谷医疗科技有限公司 | 髋关节分割方法、装置、电子设备及计算机可读存储介质 |
CN116563313A (zh) * | 2023-07-11 | 2023-08-08 | 安徽大学 | 基于门控融合注意力的遥感影像大豆种植区域分割方法 |
CN116596950A (zh) * | 2023-05-31 | 2023-08-15 | 东北林业大学 | 特征加权聚类的视网膜眼底血管追踪方法 |
CN117152552A (zh) * | 2023-07-27 | 2023-12-01 | 至本医疗科技(上海)有限公司 | 用于训练模型的方法、设备和介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110197493A (zh) * | 2019-05-24 | 2019-09-03 | 清华大学深圳研究生院 | 眼底图像血管分割方法 |
CN111862056A (zh) * | 2020-07-23 | 2020-10-30 | 东莞理工学院 | 一种基于深度学习的视网膜血管图像分割方法 |
-
2020
- 2020-11-11 CN CN202011253627.XA patent/CN112233135A/zh not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110197493A (zh) * | 2019-05-24 | 2019-09-03 | 清华大学深圳研究生院 | 眼底图像血管分割方法 |
CN111862056A (zh) * | 2020-07-23 | 2020-10-30 | 东莞理工学院 | 一种基于深度学习的视网膜血管图像分割方法 |
Non-Patent Citations (2)
Title |
---|
YIXUAN CHEN ET AL: "RNA-Net: Residual Nonlocal Attention Network for Retinal Vessel Segmentation" * |
YULUN ZHANG ET AL: "RESIDUAL NON-LOCAL ATTENTION NETWORKS FOR IMAGE RESTORATION" * |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112712520A (zh) * | 2021-01-18 | 2021-04-27 | 佛山科学技术学院 | 一种基于ARU-Net脉络膜层分割方法 |
CN112494063B (zh) * | 2021-02-08 | 2021-06-01 | 四川大学 | 一种基于注意力机制神经网络的腹部淋巴结分区方法 |
CN112494063A (zh) * | 2021-02-08 | 2021-03-16 | 四川大学 | 一种基于注意力机制神经网络的腹部淋巴结分区方法 |
JP2022132072A (ja) * | 2021-02-26 | 2022-09-07 | 南方科技大学 | 画像処理方法、装置、電子デバイス及び記憶媒体 |
JP7257645B2 (ja) | 2021-02-26 | 2023-04-14 | 南方科技大学 | 画像処理方法、装置、電子デバイス及び記憶媒体 |
CN113034444A (zh) * | 2021-03-08 | 2021-06-25 | 安徽建筑大学 | 一种基于MobileNet-PSPNet神经网络模型的路面裂缝检测方法 |
CN113012163A (zh) * | 2021-03-11 | 2021-06-22 | 山东大学 | 一种基于多尺度注意力网络的视网膜血管分割方法、设备及存储介质 |
CN113012168A (zh) * | 2021-03-24 | 2021-06-22 | 哈尔滨理工大学 | 一种基于卷积神经网络的脑胶质瘤mri图像分割方法 |
CN113223008A (zh) * | 2021-04-16 | 2021-08-06 | 山东师范大学 | 基于多尺度引导注意网络的眼底图像分割方法及系统 |
CN113205534A (zh) * | 2021-05-17 | 2021-08-03 | 广州大学 | 基于U-Net++的视网膜血管分割方法和装置 |
WO2022242131A1 (zh) * | 2021-05-21 | 2022-11-24 | 中国科学院深圳先进技术研究院 | 图像分割方法、装置、设备及存储介质 |
CN113256526A (zh) * | 2021-05-25 | 2021-08-13 | 烟台艾睿光电科技有限公司 | 一种红外图像增强方法、装置、设备及存储介质 |
CN113379770A (zh) * | 2021-06-30 | 2021-09-10 | 华南理工大学 | 鼻咽癌mr图像分割网络的构建方法、图像分割方法及装置 |
CN113379770B (zh) * | 2021-06-30 | 2023-04-07 | 华南理工大学 | 鼻咽癌mr图像分割网络的构建方法、图像分割方法及装置 |
CN113592843A (zh) * | 2021-08-09 | 2021-11-02 | 北京联合大学 | 基于改进的U-Net眼底视网膜血管图像分割方法及装置 |
CN113592843B (zh) * | 2021-08-09 | 2023-06-23 | 北京联合大学 | 基于改进的U-Net眼底视网膜血管图像分割方法及装置 |
CN113793348B (zh) * | 2021-09-24 | 2023-08-11 | 河北大学 | 一种视网膜血管分割方法和装置 |
CN113793348A (zh) * | 2021-09-24 | 2021-12-14 | 河北大学 | 一种视网膜血管分割方法和装置 |
CN113902692A (zh) * | 2021-09-26 | 2022-01-07 | 北京医准智能科技有限公司 | 一种血管分割的方法、装置及计算机可读介质 |
CN114119627A (zh) * | 2021-10-19 | 2022-03-01 | 北京科技大学 | 基于深度学习的高温合金微观组织图像分割方法及装置 |
CN114663421B (zh) * | 2022-04-08 | 2023-04-28 | 皖南医学院第一附属医院(皖南医学院弋矶山医院) | 基于信息迁移和有序分类的视网膜图像分析系统及方法 |
CN114663421A (zh) * | 2022-04-08 | 2022-06-24 | 皖南医学院第一附属医院(皖南医学院弋矶山医院) | 基于信息迁移和有序分类的视网膜图像智能分析系统及方法 |
CN115082500A (zh) * | 2022-05-31 | 2022-09-20 | 苏州大学 | 基于多尺度与局部特征引导网络的角膜神经纤维分割方法 |
CN115100222B (zh) * | 2022-08-24 | 2022-12-09 | 首都医科大学附属北京朝阳医院 | 分离动静脉血管的图像处理方法、装置、存储介质及终端 |
CN115100222A (zh) * | 2022-08-24 | 2022-09-23 | 首都医科大学附属北京朝阳医院 | 分离动静脉血管的图像处理方法、装置、存储介质及终端 |
CN116152285A (zh) * | 2023-02-15 | 2023-05-23 | 哈尔滨工业大学 | 基于深度学习和灰度信息的图像分割系统 |
CN116152285B (zh) * | 2023-02-15 | 2023-08-18 | 哈尔滨工业大学 | 基于深度学习和灰度信息的图像分割系统 |
CN116188492A (zh) * | 2023-02-21 | 2023-05-30 | 北京长木谷医疗科技有限公司 | 髋关节分割方法、装置、电子设备及计算机可读存储介质 |
CN116188492B (zh) * | 2023-02-21 | 2024-04-26 | 北京长木谷医疗科技股份有限公司 | 髋关节分割方法、装置、电子设备及计算机可读存储介质 |
CN116596950A (zh) * | 2023-05-31 | 2023-08-15 | 东北林业大学 | 特征加权聚类的视网膜眼底血管追踪方法 |
CN116596950B (zh) * | 2023-05-31 | 2023-11-17 | 东北林业大学 | 特征加权聚类的视网膜眼底血管追踪方法 |
CN116563313A (zh) * | 2023-07-11 | 2023-08-08 | 安徽大学 | 基于门控融合注意力的遥感影像大豆种植区域分割方法 |
CN116563313B (zh) * | 2023-07-11 | 2023-09-19 | 安徽大学 | 基于门控融合注意力的遥感影像大豆种植区域分割方法 |
CN117152552A (zh) * | 2023-07-27 | 2023-12-01 | 至本医疗科技(上海)有限公司 | 用于训练模型的方法、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112233135A (zh) | 眼底图像中视网膜血管分割方法及计算机可读存储介质 | |
US11037278B2 (en) | Systems and methods for transforming raw sensor data captured in low-light conditions to well-exposed images using neural network architectures | |
CN113454981B (zh) | 用于基于卷积神经网络的多个图像帧的多曝光融合及用于对多个图像帧去模糊的技术 | |
Zhou et al. | Underwater image enhancement method via multi-feature prior fusion | |
CN107679525B (zh) | 图像分类方法、装置及计算机可读存储介质 | |
CN110399929B (zh) | 眼底图像分类方法、装置以及计算机可读存储介质 | |
Al Sobbahi et al. | Comparing deep learning models for low-light natural scene image enhancement and their impact on object detection and classification: Overview, empirical evaluation, and challenges | |
US20230080693A1 (en) | Image processing method, electronic device and readable storage medium | |
Yang et al. | An adaptive method for image dynamic range adjustment | |
Liu et al. | Survey of natural image enhancement techniques: Classification, evaluation, challenges, and perspectives | |
CN108364270B (zh) | 偏色图像颜色还原方法及装置 | |
CN113450290B (zh) | 基于图像修补技术的低照度图像增强方法及系统 | |
CN113674191B (zh) | 一种基于条件对抗网络的弱光图像增强方法和装置 | |
CN117408890A (zh) | 一种视频图像传输质量增强方法及系统 | |
CN113344773B (zh) | 基于多级对偶反馈的单张图片重构hdr方法 | |
CN113781468B (zh) | 一种基于轻量级卷积神经网络的舌图像分割方法 | |
CN113129236A (zh) | 基于Retinex和卷积神经网络的单张低光照图像增强方法及系统 | |
CN115471470A (zh) | 一种食管癌ct图像分割方法 | |
CN113781488A (zh) | 舌象图像的分割方法、装置及介质 | |
CN112102175B (zh) | 图像对比度的增强方法、装置、存储介质及电子设备 | |
Bhandari et al. | Gamma corrected reflectance for low contrast image enhancement using guided filter | |
CN117649694A (zh) | 一种基于图像增强的人脸检测方法、系统及装置 | |
CN114663421B (zh) | 基于信息迁移和有序分类的视网膜图像分析系统及方法 | |
CN116258643A (zh) | 图像阴影消除方法、装置、设备及存储介质 | |
CN111754412A (zh) | 构建数据对的方法、装置及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210115 |
|
WW01 | Invention patent application withdrawn after publication |