CN117612221A - 结合注意力shift的OCTA图像血管提取方法 - Google Patents
结合注意力shift的OCTA图像血管提取方法 Download PDFInfo
- Publication number
- CN117612221A CN117612221A CN202410094585.1A CN202410094585A CN117612221A CN 117612221 A CN117612221 A CN 117612221A CN 202410094585 A CN202410094585 A CN 202410094585A CN 117612221 A CN117612221 A CN 117612221A
- Authority
- CN
- China
- Prior art keywords
- map
- feature map
- input
- output
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000004204 blood vessel Anatomy 0.000 title claims abstract description 45
- FCKYPQBAHLOOJQ-UHFFFAOYSA-N Cyclohexane-1,2-diaminetetraacetic acid Chemical compound OC(=O)CN(CC(O)=O)C1CCCCC1N(CC(O)=O)CC(O)=O FCKYPQBAHLOOJQ-UHFFFAOYSA-N 0.000 title claims abstract description 28
- 238000000605 extraction Methods 0.000 title claims abstract description 26
- 238000004364 calculation method Methods 0.000 claims abstract description 22
- 238000010606 normalization Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 15
- 238000011156 evaluation Methods 0.000 claims abstract description 14
- 230000002708 enhancing effect Effects 0.000 claims abstract description 4
- 238000010586 diagram Methods 0.000 claims description 38
- 238000000034 method Methods 0.000 claims description 33
- 238000011176 pooling Methods 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 14
- 230000001186 cumulative effect Effects 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 9
- 238000005315 distribution function Methods 0.000 claims description 9
- 238000012795 verification Methods 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- WYTGDNHDOZPMIW-RCBQFDQVSA-N alstonine Natural products C1=CC2=C3C=CC=CC3=NC2=C2N1C[C@H]1[C@H](C)OC=C(C(=O)OC)[C@H]1C2 WYTGDNHDOZPMIW-RCBQFDQVSA-N 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 4
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 230000010354 integration Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims 1
- 230000004438 eyesight Effects 0.000 abstract description 2
- 238000003384 imaging method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 206010012689 Diabetic retinopathy Diseases 0.000 description 3
- 238000012014 optical coherence tomography Methods 0.000 description 3
- 230000002207 retinal effect Effects 0.000 description 3
- 239000000243 solution Substances 0.000 description 3
- 230000002792 vascular Effects 0.000 description 3
- 206010038923 Retinopathy Diseases 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000013534 fluorescein angiography Methods 0.000 description 2
- 206010060965 Arterial stenosis Diseases 0.000 description 1
- 206010020772 Hypertension Diseases 0.000 description 1
- 208000022873 Ocular disease Diseases 0.000 description 1
- 201000001949 Retinal Vasculitis Diseases 0.000 description 1
- 208000017442 Retinal disease Diseases 0.000 description 1
- 206010048671 Venous stenosis Diseases 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 230000003143 atherosclerotic effect Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- GNBHRKFJIUUOQI-UHFFFAOYSA-N fluorescein Chemical compound O1C(=O)C2=CC=CC=C2C21C1=CC=C(O)C=C1OC1=CC(O)=CC=C21 GNBHRKFJIUUOQI-UHFFFAOYSA-N 0.000 description 1
- 208000027866 inflammatory disease Diseases 0.000 description 1
- 238000010253 intravenous injection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004660 morphological change Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 210000001210 retinal vessel Anatomy 0.000 description 1
- 230000009885 systemic effect Effects 0.000 description 1
- 230000006496 vascular abnormality Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Vascular Medicine (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及计算机视觉与医学图像处理领域,具体涉及一种结合注意力shift的OCTA图像血管提取方法,包括以下步骤:构建数据集;增强数据集并将其划分,对训练集处理得到处理数据集;将处理数据集输入到网络结构结构进行训练得到训练特征图;通过归一化操作、卷积操作和计算得到最终概率图,与设置的阈值比较得到提取结果图;计算损失对网络结构的各个参数的梯度,并进行优化;读取评价指标最优的参数,将其加载到网络结构中对待处理OCTA图像进行血管的提取得到目标血管,保存最终处理结果。本发明通过训练流程以及网络结构的改进,提高了血管提取的准确度,更好地实现了自动化的OCTA图像血管提取的处理任务。
Description
技术领域
本发明涉及计算机视觉与医学图像处理技术领域,尤其涉及一种结合注意力shift的OCTA图像血管提取方法。
背景技术
视网膜拥有丰富的血管,很多眼部疾病可以通过视网膜血管变化反映出来。比如糖尿病、高血压、炎症性疾病等全身性疾病都可能导致视网膜血管异常。另外,许多早期眼科疾病,如糖尿病性视网膜病变(DR)和视网膜血管炎,在视觉功能方面无症状,但在血管的形态变化上可以观察得出来。如果视网膜病变进展不受控制,造成的损害可能无法恢复。因此,视网膜成像的开发对于早期诊断和治疗评估至关重要。临床观察表明,不同的视网膜病变对动脉和静脉的影响不同。例如,在DR眼中可以观察到动脉狭窄,而在动脉粥样硬化患者中可以观察到动静脉切口部位的静脉狭窄。
有各种各样的成像方式来显示血管变化。传统的眼底摄影是一种简单、无创的检查方法,但分辨率有限,无法捕捉毛细血管变化。荧光素血管造影(FA)是一种通过静脉注射荧光素来观察眼部血管的一种检查方法,是一种侵入性检查方法。光学相干断层扫描(OCT)是一种非侵入性成像方式,可以提供横断面成像。OCTA是OCT模式的功能延伸,可对视网膜血管进行高分辨率成像。
对于OCTA图像的血管提取任务主要有传统的方法与深度学习的方法,深度学习的方法凭借其优秀的通用性以及表现在OCTA图像的血管提取任务上大放异彩,然而还是存在图像质量差、提取精度不够、细小血管提取不出来等问题。
因此,本发明提出了一种结合注意力shift的OCTA图像血管提取方法来解决上述问题。
发明内容
本发明针对现有技术的不足,研制一种结合注意力shift的OCTA图像血管提取方法,能够清楚、准确地提取血管信息。
本发明解决技术问题的技术方案为:
一种结合注意力shift的OCTA图像血管提取方法包括以下步骤:
S1.选用公开的数据集中的投影图像作为数据集S;
S2.通过算法对数据集/>进行增强得到增强数据集/>,将增强数据集/>按6:2:2的比例划分为训练集/>、验证集/>、测试集/>,将训练集/>中的数据进行随机裁剪、翻转、旋转操作得到处理数据集/>,/>表示处理数据集/>中第/>张图像,/>表示处理数据集/>中第/>张图像;
S3.将处理数据集输入到网络结构进行训练得到训练特征图,网络结构包括编码器部分、特征增强部分、特征融合与解码器部分;
S4.对归一化操作后图像的FAZ标签进行运算得到特征图/>,将特征图/>经过卷积操作得到单通道图,再将单通道图通过/>函数得到最终概率图,然后设定阈值与像素坐标的像素点比较来判断像素点的所属来源,保存判断后的结果图并计算其损失;
S5.通过损失函数计算网络结构的各个参数的梯度,使用优化器,以最小化损失和最优化验证集评价指标为目标对各个参数进行优化;
S6.从步骤S5中读取保存的评价指标最优的参数,将其加载到网络结构中对待处理OCTA图像进行血管的提取得到目标血管,保存最终处理结果。
进一步地,算法的具体流程为:将输入的数据集中的投影图像分成重叠的小块,小块大小为8×8像素或16×16 像素,计算每个小块像素值的直方图,再计算表示小块中每个像素值累积概率的累积分布函数,设置截断的阈值,再通过将每个小块中的累积分布函数进行截断来限制对比度的增加,然后对每个小块中的每个像素使用双向性插值,并根据截断后的累积分布函数将每个小块中的每个像素映射为新的像素值,最后将经过插值处理的小块重新组合成最终的CLAHE增强图像。
进一步地,所述编码器部分依次设置第一CTB、第一下采样模块、第二CTB、第二下采样模块、第三CTB、第三下采样模块、第四CTB、第四下采样模块;
CTB为CASU and Transfomer Block的简称,包括CASU与Transfomer模块,CTB由两个分支组成,两个分支的连接方式为:将特征图分别到输入两个分支,将两个分支的结果加和得到输出,第一个分支为卷积核大小为3×3普通卷积、批量归一化、/>激活函数的串行,第二个分支为CASU与Restormer中的Transfomer Block的串行,CTB的计算公式为:
,
其中,表示/>批量归一化与/>激活函数的连续操作,/>表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作,/>表示第/>张图片的输入特征图,/>表示CTB的输出特征图,/>表示 Restormer中的Transfomer Block,/>表示CASU,CASU为Convolutional and Attention Shift Unit的简称,是卷积与AttentionShift单元,CASU的计算公式为:
,
其中,表示CASU,/>表示/>批量归一化与/>激活函数的连续操作,/> 表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作,/>表示第/>张图片的输入特征图,/> 、/>均表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的深度可分离卷积操作,/> 、/>均表示卷积核大小为3×3、步幅为1、填充为4的动态蛇形卷积操作,/> 、/>均表示/>,/>表示/>操作。
进一步地,的操作为:将/>的到的特征图记作/>,其通道数记作/>,将过程中得到的通道注意力系数记作/>,其中,/>表示特征图/>在通道/>的注意力系数,将/>中注意力系数最低的三分之一的数据向下取整后拿出整合到/>的子集/>中,然后对特征图/>属于/>的通道进行随机/>操作;下采样模块采用最大池化策略;
特征提取过程为:
(1)将数据集中的第/>张图像/>输入到第一CTB,输出得到特征图/>;
(2)将特征图输入到第一下采样模块,输出得到特征图/>;
(3)将特征图输入到第二CTB,输出得到特征图/>;
(4)将特征图输入到第二下采样模块,输出得到特征图/>;
(5)将特征图输入到第三CTB,输出得到特征图/>;
(6)将特征图输入到第三下采样模块,输出得到特征图/>;
(7)将特征图输入到第四CTB,输出得到特征图/>;
(8)将特征图输入到第四下采样模块,输出得到特征图/>。
进一步地,特征增强部分依次设置第一CCB、第二CCB;
CCB为CASU and CSAM Block的简称,包括CASU与CSAM模块,CCB由两个分支组成,两个分支的连接方式为:将特征图分别到输入两个分支,将两个分支的结果加和得到输出,第一个分支为卷积核大小为3×3普通卷积、批量归一化、/>激活函数的串行,第二个分支为CASU与CS-Net中的CSAM的串行,CCB的计算公式为:
,
其中,表示/>批量归一化与/>激活函数的连续操作,/>表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作,/>表示第/>张图片的输入特征图,/>表示CCB的输出特征图,/>表示 CS-Net中的CSAM,/>表示CASU;
特征增强过程为:将特征图输入到第一CCB,输出得到特征图/>,再将特征图/>输入到第二CCB,输出得到特征图/>。
进一步地,特征融合与解码器部分一次设置第一上采样模块、第一FFFB、第五CTB、第二上采样模块、第二FFFB、第六CTB、第三上采样模块、第三FFFB、第七CTB、第四上采样模块、第四FFFB、第八CTB,其中,上采样模块采取双线性差值策略;
FFFB为Full-scale feature fusion module的简称,表示全尺度特征融合模块,FFFB由MCU、Attention Gate、SE Block、Concat拼接操作组成,FFFB的计算公式为:
,
其中, 表示卷积核大小为1×1、步幅为1、填充为0、膨胀率为1的卷积操作,表示/>、/>表示/>、/>为/>操作、/>表示第/>张图片的输入特征图1,/>表示第/>张图片的输入特征图2,/>表示第/>张图片的输入特征图3,/>表示第/>张图片的输入特征图4,/>表示第/>张图片的输入特征图5,/>表示FFFB的输出特征图,/>表示MCU,MCU为Multiple Convolutional Units的简称,表示多卷积单元,MCU的计算公式为:
,
,
其中,表示MCU, />表示MCU计算过程中的中间变量, /> 表示卷积核大小为1×1、步幅为1、填充为0、膨胀率为1的卷积操作,/> 表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作,/> 表示卷积核大小为3×3、步幅为1、填充为3、膨胀率为3的卷积操作,/> 表示卷积核大小为3×3、步幅为1、填充为5、膨胀率为5的卷积操作,/>表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的深度可分离卷积操作,/>表示卷积核大小为3×3、步幅为1、填充为4的动态蛇形卷积操作,/>为/>操作,/>表示第/>张图片的输入特征图2,/>表示第/>张图片的输入特征图3,/>表示第/>张图片的输入特征图4,/>表示第/>张图片的输入特征图5。
进一步地,特征融合与解码的具体过程为:
a. 将特征图输入到第一上采样模块,输出得到特征图/>;
b.将特征图作为/>、特征图/>经过最大池化的策略下采样三次后作为/>、特征图经过最大池化的策略下采样二次后作为/>、特征图/>经过最大池化的策略下采样一次后作为/>、特征图/>作为/>输入到第一FFFB,输出得到特征图/>;
c.将特征图输入到第五CTB,输出得到特征图/>;
d.将特征图输入到第二上采样模块,输出得到特征图/>;
e.将特征图作为/>、特征图/>经过最大池化的策略下采样二次后作为/>、特征图经过最大池化的策略下采样一次后作为/>、特征图/>作为/>、特征图/>经过双线性插值策略上采样一次后作为/>输入到第二FFFB,输出得到特征图/>;
f.将特征图输入到第六CTB,输出得到特征图/>;
g.将特征图输入到第三上采样模块,输出得到特征图/>;
h.将特征图作为/>、特征图/>经过最大池化的策略下采样二次后作为/>、特征图经过最大池化的策略下采样一次后作为/>、特征图/>作为/>、特征图/>经过双线性插值策略上采样一次后作为/>输入到第二FFFB,输出得到特征图/>;
i.将特征图输入到第七CTB,输出得到特征图/>;
j.将特征图输入到第四上采样模块,输出得到特征图/>;
k.将特征图作为/>、特征图/>经过最大池化的策略下采样二次后作为/>、特征图经过最大池化的策略下采样一次后作为/>、特征图/>作为/>、特征图/>经过双线性插值策略上采样一次后作为/>输入到第二FFFB,输出得到特征图/>;
l.将特征图输入到第八CTB,输出得到特征图/>。
进一步地,将图像的FAZ标签除以255以归一化,然后将其作为注意力系数与特征图/>进行逐点相乘操作得到特征图/>,将特征图/>经过卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作得到单通道图,再将单通道图输入到/>函数计算得到最终概率图,设定阈值,将像素坐标的像素点与阈值进行比较,判断像素点的所属来源,判断出属于血管的像素点从而完成目标血管的提取,再将网络结构处理的结果图与其对应的血管标签输入到损失函数中计算损失,损失函数的计算公式为/>,其中,/>为交叉熵损失,/>为Dice损失,/>为手动设置的权重值。
进一步地,进行反向传播,通过链式法则计算损失函数对S3中网络参数的梯度,利用AdamW优化器,使用梯度信息以减小损失为方向来更新每个参数,AdamW的参数更新公式为:
,
,
,
,
,
,
其中,表示时间步,/>表示/>时刻的梯度,/>表示/>时刻所有参数的权重值,/>表示学习率衰减策略得到的学习率,/>、/>、/>、/>、/>均为常数,/>、/>分别为/>、的t次方,最终保存在验证集上评价指标最优的参数。
本发明还提供了一种电子设备,包括存储器及处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器实现结合注意力shift的OCTA图像血管提取方法。
发明内容中提供的效果仅仅是实施例的效果,而不是发明所有的全部效果,上述技术方案具有如下优点或有益效果:
在训练过程方面,本发明在网络输入前运用算法进行数据增强以增加图片的对比度,方便后续的训练,在网络输出后,利用FAZ标签作为注意力系数与输出相乘,可以避免将中央无血管区域的像素点误判断为血管,从而提升提取结果的IOU、Dice等评价指标;
在网络结构方面,本发明的网络结构设计了CTB、CCB以及FFFB三大模块,其中CTB作为基本的特征提取模块、CCB作为特征增强模块、FFFB作为全尺度特征融合模块;CTB与CCB设计了结合注意力系数的shift操作,可以更好地使注意力系数低的通道融合注意力系数高的通道的信息;FFFB融合了全尺度的信息,提高了网络结构对于数据的全局理解和局部细节的把握能力,有助于提高网络结构的鲁棒性;所有模块均设计多卷积并行的卷积结构,有助于融合各并行结构卷积提取的有效信息,同时对不同的模块设计了不同的空间以及通道注意力以提高网络结构对图像的全局结构和局部特征的关注度,从而增强网络结构的性能;
且在数据集OCTA-500上的实验果表明,本发明的网络可以更好地适应各种质量的OCTA投影图像、更精确地提取出OCTA投影图像的血管。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
图1为本发明的训练流程示意图。
图2为本发明的网络模型示意图。
图3为本发明的CTB结构示意图。
图4为本发明的CCB结构示意图。
图5为本发明的CASU结构示意图。
图6为本发明的FFFB结构示意图。
图7为本发明的MCU结构示意图。
具体实施方式
为了能清楚说明本方案的技术特点,下面通过具体实施方式,并结合其附图,对本发明进行详细阐述。
实施例一:一种结合注意力shift的OCTA图像血管提取方法包括以下步骤:
S1.选用公开的数据集中的投影图像作为数据集S;
S2.通过算法对数据集/>进行增强得到增强数据集/>,将增强数据集/>按6:2:2的比例划分为训练集/>、验证集/>、测试集/>,将训练集/>中的数据进行随机裁剪、翻转、旋转操作得到处理数据集/>,/>表示处理数据集/>中第/>张图像,/>表示处理数据集/>中第/>张图像;
S3.将处理数据集输入到网络结构进行训练得到训练特征图,网络结构包括编码器部分、特征增强部分、特征融合与解码器部分;
S4.对归一化操作后图像的FAZ标签进行运算得到特征图/>,将特征图/>经过卷积操作得到单通道图,再将单通道图通过/>函数得到最终概率图,然后设定阈值与像素坐标的像素点比较来判断像素点的所属来源,保存判断后的结果图并计算其损失;
S5.通过损失函数计算网络结构的各个参数的梯度,使用优化器,以最小化损失和最优化验证集评价指标为目标对各个参数进行优化;
S6.从步骤S5中读取保存的评价指标最优的参数,将其加载到网络结构中对待处理OCTA图像进行血管的提取得到目标血管,保存最终处理结果。
进一步地,算法的具体流程为:将输入的数据集中的投影图像分成重叠的小块,小块大小为8×8像素或16×16 像素,计算每个小块像素值的直方图,再计算表示小块中每个像素值累积概率的累积分布函数,设置截断的阈值,再通过将每个小块中的累积分布函数进行截断来限制对比度的增加,然后对每个小块中的每个像素使用双向性插值,并根据截断后的累积分布函数将每个小块中的每个像素映射为新的像素值,最后将经过插值处理的小块重新组合成最终的CLAHE增强图像。
进一步地,所述编码器部分依次设置第一CTB、第一下采样模块、第二CTB、第二下采样模块、第三CTB、第三下采样模块、第四CTB、第四下采样模块;
CTB为CASU and Transfomer Block的简称,包括CASU与Transfomer模块,CTB由两个分支组成,两个分支的连接方式为:将特征图分别到输入两个分支,将两个分支的结果加和得到输出,第一个分支为卷积核大小为3×3普通卷积、批量归一化、/>激活函数的串行,第二个分支为CASU与Restormer中的Transfomer Block的串行,CTB的计算公式为:
,
其中,表示/>批量归一化与/>激活函数的连续操作,/>表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作,/>表示第/>张图片的输入特征图,/>表示CTB的输出特征图,/>表示 Restormer中的Transfomer Block,/>表示CASU,CASU为Convolutional and Attention Shift Unit的简称,是卷积与AttentionShift单元,CASU的计算公式为:
,
其中,表示CASU,/>表示/>批量归一化与/>激活函数的连续操作,/> 表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作,/>表示第/>张图片的输入特征图,/> 、/>均表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的深度可分离卷积操作,/> 、/>均表示卷积核大小为3×3、步幅为1、填充为4的动态蛇形卷积操作,/> 、/>均表示/>,/>表示/>操作。
进一步地,的操作为:将/>的到的特征图记作/>,其通道数记作/>,将过程中得到的通道注意力系数记作/>,其中,/>表示特征图/>在通道/>的注意力系数,将/>中注意力系数最低的三分之一的数据向下取整后拿出整合到/>的子集/>中,然后对特征图/>属于/>的通道进行随机/>操作;下采样模块采用最大池化策略;
特征提取过程为:
(1)将数据集中的第/>张图像/>输入到第一CTB,输出得到特征图/>;
(2)将特征图输入到第一下采样模块,输出得到特征图/>;
(3)将特征图输入到第二CTB,输出得到特征图/>;
(4)将特征图输入到第二下采样模块,输出得到特征图/>;
(5)将特征图输入到第三CTB,输出得到特征图/>;
(6)将特征图输入到第三下采样模块,输出得到特征图/>;
(7)将特征图输入到第四CTB,输出得到特征图/>;
(8)将特征图输入到第四下采样模块,输出得到特征图/>。
进一步地,特征增强部分依次设置第一CCB、第二CCB;
CCB为CASU and CSAM Block的简称,包括CASU与CSAM模块,CCB由两个分支组成,两个分支的连接方式为:将特征图分别到输入两个分支,将两个分支的结果加和得到输出,第一个分支为卷积核大小为3×3普通卷积、批量归一化、/>激活函数的串行,第二个分支为CASU与CS-Net中的CSAM的串行,CCB的计算公式为:
,
其中,表示/>批量归一化与/>激活函数的连续操作,/>表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作,/>表示第/>张图片的输入特征图,/>表示CCB的输出特征图,/>表示 CS-Net中的CSAM,/>表示CASU;
特征增强过程为:将特征图输入到第一CCB,输出得到特征图/>,再将特征图/>输入到第二CCB,输出得到特征图/>。
进一步地,特征融合与解码器部分一次设置第一上采样模块、第一FFFB、第五CTB、第二上采样模块、第二FFFB、第六CTB、第三上采样模块、第三FFFB、第七CTB、第四上采样模块、第四FFFB、第八CTB,其中,上采样模块采取双线性差值策略;
FFFB为Full-scale feature fusion module的简称,表示全尺度特征融合模块,FFFB由MCU、Attention Gate、SE Block、Concat拼接操作组成,FFFB的计算公式为:
,
其中, 表示卷积核大小为1×1、步幅为1、填充为0、膨胀率为1的卷积操作,表示/>、/>表示/>、/>为/>操作、/>表示第/>张图片的输入特征图1,/>表示第/>张图片的输入特征图2,/>表示第/>张图片的输入特征图3,/>表示第/>张图片的输入特征图4,/>表示第/>张图片的输入特征图5,/>表示FFFB的输出特征图,/>表示MCU,MCU为Multiple Convolutional Units的简称,表示多卷积单元,MCU的计算公式为:
,
,
其中,表示MCU, />表示MCU计算过程中的中间变量, /> 表示卷积核大小为1×1、步幅为1、填充为0、膨胀率为1的卷积操作,/> 表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作,/> 表示卷积核大小为3×3、步幅为1、填充为3、膨胀率为3的卷积操作,/> 表示卷积核大小为3×3、步幅为1、填充为5、膨胀率为5的卷积操作,/>表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的深度可分离卷积操作,/>表示卷积核大小为3×3、步幅为1、填充为4的动态蛇形卷积操作,/>为/>操作,/>表示第/>张图片的输入特征图2,/>表示第/>张图片的输入特征图3,/>表示第/>张图片的输入特征图4,/>表示第/>张图片的输入特征图5。
进一步地,特征融合与解码的具体过程为:
a. 将特征图输入到第一上采样模块,输出得到特征图/>;
b.将特征图作为/>、特征图/>经过最大池化的策略下采样三次后作为/>、特征图经过最大池化的策略下采样二次后作为/>、特征图/>经过最大池化的策略下采样一次后作为/>、特征图/>作为/>输入到第一FFFB,输出得到特征图/>;
c.将特征图输入到第五CTB,输出得到特征图/>;
d.将特征图输入到第二上采样模块,输出得到特征图/>;
e.将特征图作为/>、特征图/>经过最大池化的策略下采样二次后作为/>、特征图经过最大池化的策略下采样一次后作为/>、特征图/>作为/>、特征图/>经过双线性插值策略上采样一次后作为/>输入到第二FFFB,输出得到特征图/>;
f.将特征图输入到第六CTB,输出得到特征图/>;
g.将特征图输入到第三上采样模块,输出得到特征图/>;
h.将特征图作为/>、特征图/>经过最大池化的策略下采样二次后作为/>、特征图经过最大池化的策略下采样一次后作为/>、特征图/>作为/>、特征图/>经过双线性插值策略上采样一次后作为/>输入到第二FFFB,输出得到特征图/>;
i.将特征图输入到第七CTB,输出得到特征图/>;
j.将特征图输入到第四上采样模块,输出得到特征图/>;
k.将特征图作为/>、特征图/>经过最大池化的策略下采样二次后作为/>、特征图经过最大池化的策略下采样一次后作为/>、特征图/>作为/>、特征图/>经过双线性插值策略上采样一次后作为/>输入到第二FFFB,输出得到特征图/>;
l.将特征图输入到第八CTB,输出得到特征图/>。
进一步地,将图像的FAZ标签除以255以归一化,然后将其作为注意力系数与特征图/>进行逐点相乘操作得到特征图/>,将特征图/>经过卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作得到单通道图,再将单通道图输入到/>函数计算得到最终概率图,设定阈值,将像素坐标的像素点与阈值进行比较,判断像素点的所属来源,判断出属于血管的像素点从而完成目标血管的提取,再将网络结构处理的结果图与其对应的血管标签输入到损失函数中计算损失,损失函数的计算公式为/>,其中,/>为交叉熵损失,/>为Dice损失,/>为手动设置的权重值。
进一步地,进行反向传播,通过链式法则计算损失函数对S3中网络参数的梯度,利用AdamW优化器,使用梯度信息以减小损失为方向来更新每个参数,AdamW的参数更新公式为:
,
,
,
,
,
,
其中,表示时间步,/>表示/>时刻的梯度,/>表示/>时刻所有参数的权重值,/>表示学习率衰减策略得到的学习率,/>、/>、/>、/>、/>均为常数,/>、/>分别为/>、/>的t次方,最终保存在验证集上评价指标最优的参数。
如表1所示,将数据集OCTA-500中投影图的20%用于测试,以动脉血管为提取目标,本发明在IOU评价指标、Dice评价指标、ACC评价指标上分别达到了75.25%、85.78%、94.75%的结果,相比于U-Net、AttentionU-Net、UNet++模型,本发明的网络可以更好地适应各种质量的OCTA投影图像、更精确地提取出OCTA投影图像的血管。
表1 本申请与其他模型的结果对比
。
实施例二:一种电子设备,包括存储器及处理器,所述存储器中存储有计算机程序,其特征在于,所述计算机程序被所述处理器执行时,使得所述处理器实现本发明所述的方法。
上述虽然结合附图对发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (10)
1.一种结合注意力shift的OCTA图像血管提取方法,其特征是,包括以下步骤:
S1.选用公开的数据集中的投影图像作为数据集S;
S2.通过算法对数据集/>进行增强得到增强数据集/>,将增强数据集/>按6:2:2的比例划分为训练集/>、验证集/>、测试集/>,将训练集/>中的数据进行随机裁剪、翻转、旋转操作得到处理数据集/>,/>表示处理数据集/>中第/>张图像,/>表示处理数据集/>中第/>张图像;
S3.将处理数据集输入到网络结构进行训练得到训练特征图,网络结构包括编码器部分、特征增强部分、特征融合与解码器部分;
S4.对归一化操作后图像的FAZ标签进行运算得到特征图/>,将特征图/>经过卷积操作得到单通道图,再将单通道图通过/>函数得到最终概率图,然后设定阈值与像素坐标的像素点比较来判断像素点的所属来源,保存判断后的结果图并计算其损失;
S5.通过损失函数计算网络结构的各个参数的梯度,使用优化器,以最小化损失和最优化验证集评价指标为目标对各个参数进行优化;
S6.从步骤S5中读取保存的评价指标最优的参数,将其加载到网络结构中对待处理OCTA图像进行血管的提取得到目标血管,保存最终处理结果。
2. 根据权利要求1所述的结合注意力shift的OCTA图像血管提取方法,其特征是,算法的具体流程为:将输入的数据集中的投影图像分成重叠的小块,小块大小为8×8像素或16×16 像素,计算每个小块像素值的直方图,再计算表示小块中每个像素值累积概率的累积分布函数,设置截断的阈值,再通过将每个小块中的累积分布函数进行截断来限制对比度的增加,然后对每个小块中的每个像素使用双向性插值,并根据截断后的累积分布函数将每个小块中的每个像素映射为新的像素值,最后将经过插值处理的小块重新组合成最终的CLAHE增强图像。
3.根据权利要求2所述的结合注意力shift的OCTA图像血管提取方法,其特征是,所述编码器部分依次设置第一CTB、第一下采样模块、第二CTB、第二下采样模块、第三CTB、第三下采样模块、第四CTB、第四下采样模块;
CTB为CASU and Transfomer Block的简称,包括CASU与Transfomer模块,CTB由两个分支组成,两个分支的连接方式为:将特征图分别到输入两个分支,将两个分支的结果加和得到输出,第一个分支为卷积核大小为3×3普通卷积、批量归一化、/>激活函数的串行,第二个分支为CASU与Restormer中的Transfomer Block的串行,CTB的计算公式为:
,
其中,表示/>批量归一化与/>激活函数的连续操作,/> 表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作,/>表示第/>张图片的输入特征图,/>表示CTB的输出特征图,/>表示 Restormer中的Transfomer Block,/>表示CASU,CASU为Convolutional and Attention Shift Unit的简称,是卷积与Attention Shift单元,CASU的计算公式为:
,
其中,表示CASU,/>表示/>批量归一化与/>激活函数的连续操作,/> 表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作,/>表示第/>张图片的输入特征图,/> 、/>均表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的深度可分离卷积操作,/> 、/>均表示卷积核大小为3×3、步幅为1、填充为4的动态蛇形卷积操作,/> 、/>均表示/>,/>表示/>操作。
4.根据权利要求3所述的结合注意力shift的OCTA图像血管提取方法,其特征是,的操作为:将/>的到的特征图记作/>,其通道数记作/>,将/>过程中得到的通道注意力系数记作/>,其中,/>表示特征图/>在通道/>的注意力系数,将/>中注意力系数最低的三分之一的数据向下取整后拿出整合到/>的子集/>中,然后对特征图/>属于/>的通道进行随机/>操作;下采样模块采用最大池化策略;
特征提取过程为:
(1)将数据集中的第/>张图像/>输入到第一CTB,输出得到特征图/>;
(2)将特征图输入到第一下采样模块,输出得到特征图/>;
(3)将特征图输入到第二CTB,输出得到特征图/>;
(4)将特征图输入到第二下采样模块,输出得到特征图/>;
(5)将特征图输入到第三CTB,输出得到特征图/>;
(6)将特征图输入到第三下采样模块,输出得到特征图/>;
(7)将特征图输入到第四CTB,输出得到特征图/>;
(8)将特征图输入到第四下采样模块,输出得到特征图/>。
5.根据权利要求4所述的结合注意力shift的OCTA图像血管提取方法,其特征是,特征增强部分依次设置第一CCB、第二CCB;
CCB为CASU and CSAM Block的简称,包括CASU与CSAM模块,CCB由两个分支组成,两个分支的连接方式为:将特征图分别到输入两个分支,将两个分支的结果加和得到输出,第一个分支为卷积核大小为3×3普通卷积、批量归一化、/>激活函数的串行,第二个分支为CASU与CS-Net中的CSAM的串行,CCB的计算公式为:
,
其中,表示/>批量归一化与/>激活函数的连续操作,/> 表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作,/>表示第/>张图片的输入特征图,/>表示CCB的输出特征图,/>表示 CS-Net中的CSAM,/>表示CASU;
特征增强过程为:将特征图输入到第一CCB,输出得到特征图/>,再将特征图/>输入到第二CCB,输出得到特征图/>。
6.根据权利要求5所述的结合注意力shift的OCTA图像血管提取方法,其特征是,特征融合与解码器部分一次设置第一上采样模块、第一FFFB、第五CTB、第二上采样模块、第二FFFB、第六CTB、第三上采样模块、第三FFFB、第七CTB、第四上采样模块、第四FFFB、第八CTB,其中,上采样模块采取双线性差值策略;
FFFB为Full-scale feature fusion module的简称,表示全尺度特征融合模块,FFFB由MCU、Attention Gate、SE Block、Concat拼接操作组成,FFFB的计算公式为:
,
其中, 表示卷积核大小为1×1、步幅为1、填充为0、膨胀率为1的卷积操作,/>表示/>、/>表示/>、/>为/>操作、/>表示第/>张图片的输入特征图1,/>表示第/>张图片的输入特征图2,/>表示第/>张图片的输入特征图3,/>表示第/>张图片的输入特征图4,/>表示第/>张图片的输入特征图5,/>表示FFFB的输出特征图,/>表示MCU,MCU为Multiple Convolutional Units的简称,表示多卷积单元,MCU的计算公式为:
,
,
其中,表示MCU, />表示MCU计算过程中的中间变量, /> 表示卷积核大小为1×1、步幅为1、填充为0、膨胀率为1的卷积操作,/> 表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作,/> 表示卷积核大小为3×3、步幅为1、填充为3、膨胀率为3的卷积操作,/> 表示卷积核大小为3×3、步幅为1、填充为5、膨胀率为5的卷积操作,表示卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的深度可分离卷积操作,/>表示卷积核大小为3×3、步幅为1、填充为4的动态蛇形卷积操作,/>为/>操作。
7.根据权利要求6所述的结合注意力shift的OCTA图像血管提取方法,其特征是,特征融合与解码的具体过程为:
a. 将特征图输入到第一上采样模块,输出得到特征图/>;
b.将特征图作为/>、特征图/>经过最大池化的策略下采样三次后作为/>、特征图/>经过最大池化的策略下采样二次后作为/>、特征图/>经过最大池化的策略下采样一次后作为、特征图/>作为/>输入到第一FFFB,输出得到特征图/>;
c.将特征图输入到第五CTB,输出得到特征图/>;
d.将特征图输入到第二上采样模块,输出得到特征图/>;
e.将特征图作为/>、特征图/>经过最大池化的策略下采样二次后作为/>、特征图/>经过最大池化的策略下采样一次后作为/>、特征图/>作为/>、特征图/>经过双线性插值策略上采样一次后作为/>输入到第二FFFB,输出得到特征图/>;
f.将特征图输入到第六CTB,输出得到特征图/>;
g.将特征图输入到第三上采样模块,输出得到特征图/>;
h.将特征图作为/>、特征图/>经过最大池化的策略下采样二次后作为/>、特征图/>经过最大池化的策略下采样一次后作为/>、特征图/>作为/>、特征图/>经过双线性插值策略上采样一次后作为/>输入到第二FFFB,输出得到特征图/>;
i.将特征图输入到第七CTB,输出得到特征图/>;
j.将特征图输入到第四上采样模块,输出得到特征图/>;
k.将特征图作为/>、特征图/>经过最大池化的策略下采样二次后作为/>、特征图/>经过最大池化的策略下采样一次后作为/>、特征图/>作为/>、特征图/>经过双线性插值策略上采样一次后作为/>输入到第二FFFB,输出得到特征图/>;
l.将特征图输入到第八CTB,输出得到特征图/>。
8.根据权利要求7所述的结合注意力shift的OCTA图像血管提取方法,其特征是,将图像的FAZ标签除以255以归一化,然后将其作为注意力系数与特征图/>进行逐点相乘操作得到特征图/>,将特征图/>经过卷积核大小为3×3、步幅为1、填充为1、膨胀率为1的卷积操作得到单通道图,再将单通道图输入到/>函数计算得到最终概率图,设定阈值,将像素坐标的像素点与阈值进行比较,判断像素点的所属来源,判断出属于血管的像素点从而完成目标血管的提取,再将网络结构处理的结果图与其对应的血管标签输入到损失函数中计算损失,损失函数的计算公式为/>,其中,/>为交叉熵损失,/>为Dice损失,/>为手动设置的权重值。
9.根据权利要求8所述的结合注意力shift的OCTA图像血管提取方法,其特征是,进行反向传播,通过链式法则计算损失函数对S3中网络参数的梯度,利用AdamW优化器,使用梯度信息以减小损失为方向来更新每个参数,AdamW的参数更新公式为:
,
,
,
,
,
,
其中,表示时间步,/>表示/>时刻的梯度,/>表示/>时刻所有参数的权重值,/>表示学习率衰减策略得到的学习率,/>、/>、/>、/>、/>均为常数,/>、/>分别为/>、/>的t次方,最终保存在验证集上评价指标最优的参数。
10.一种电子设备,包括存储器及处理器,所述存储器中存储有计算机程序,其特征在于,所述计算机程序被所述处理器执行时,使得所述处理器实现如权利要求1~9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410094585.1A CN117612221B (zh) | 2024-01-24 | 2024-01-24 | 结合注意力shift的OCTA图像血管提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410094585.1A CN117612221B (zh) | 2024-01-24 | 2024-01-24 | 结合注意力shift的OCTA图像血管提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117612221A true CN117612221A (zh) | 2024-02-27 |
CN117612221B CN117612221B (zh) | 2024-04-26 |
Family
ID=89958354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410094585.1A Active CN117612221B (zh) | 2024-01-24 | 2024-01-24 | 结合注意力shift的OCTA图像血管提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117612221B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118037728A (zh) * | 2024-04-12 | 2024-05-14 | 齐鲁工业大学(山东省科学院) | 基于多尺度信息融合和注意力的威利斯环血管提取方法 |
CN118279296A (zh) * | 2024-05-31 | 2024-07-02 | 齐鲁工业大学(山东省科学院) | 基于辅助学习网络的颈动脉血管提取方法、系统及设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113793348A (zh) * | 2021-09-24 | 2021-12-14 | 河北大学 | 一种视网膜血管分割方法和装置 |
WO2022199143A1 (zh) * | 2021-03-26 | 2022-09-29 | 南京邮电大学 | 一种基于u型网络的医学图像分割方法 |
CN115496720A (zh) * | 2022-09-19 | 2022-12-20 | 上海健康医学院 | 基于ViT机制模型的胃肠癌病理图像分割方法及相关设备 |
CN115731242A (zh) * | 2022-11-21 | 2023-03-03 | 电子科技大学 | 基于混合注意力机制和非对称卷积的视网膜血管分割方法 |
WO2023105294A1 (en) * | 2021-12-10 | 2023-06-15 | Newsouth Innovations Pty Limited | Methods, systems, devices and neural networks for forecasting a time series |
CN117409030A (zh) * | 2023-12-14 | 2024-01-16 | 齐鲁工业大学(山东省科学院) | 基于动态管状卷积的octa图像血管分割方法及其系统 |
-
2024
- 2024-01-24 CN CN202410094585.1A patent/CN117612221B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022199143A1 (zh) * | 2021-03-26 | 2022-09-29 | 南京邮电大学 | 一种基于u型网络的医学图像分割方法 |
CN113793348A (zh) * | 2021-09-24 | 2021-12-14 | 河北大学 | 一种视网膜血管分割方法和装置 |
WO2023105294A1 (en) * | 2021-12-10 | 2023-06-15 | Newsouth Innovations Pty Limited | Methods, systems, devices and neural networks for forecasting a time series |
CN115496720A (zh) * | 2022-09-19 | 2022-12-20 | 上海健康医学院 | 基于ViT机制模型的胃肠癌病理图像分割方法及相关设备 |
CN115731242A (zh) * | 2022-11-21 | 2023-03-03 | 电子科技大学 | 基于混合注意力机制和非对称卷积的视网膜血管分割方法 |
CN117409030A (zh) * | 2023-12-14 | 2024-01-16 | 齐鲁工业大学(山东省科学院) | 基于动态管状卷积的octa图像血管分割方法及其系统 |
Non-Patent Citations (1)
Title |
---|
梅旭璋;江红;孙军;: "基于密集注意力网络的视网膜血管图像分割", 计算机工程, no. 03, 15 March 2020 (2020-03-15) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118037728A (zh) * | 2024-04-12 | 2024-05-14 | 齐鲁工业大学(山东省科学院) | 基于多尺度信息融合和注意力的威利斯环血管提取方法 |
CN118279296A (zh) * | 2024-05-31 | 2024-07-02 | 齐鲁工业大学(山东省科学院) | 基于辅助学习网络的颈动脉血管提取方法、系统及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN117612221B (zh) | 2024-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110689083B (zh) | 一种上下文金字塔融合网络及图像分割方法 | |
CN117612221B (zh) | 结合注意力shift的OCTA图像血管提取方法 | |
CN109509178B (zh) | 一种基于改进的U-net网络的OCT图像脉络膜分割方法 | |
US20210000343A1 (en) | Diagnosis support device, learning device, diagnosis support method, learning method, and program | |
US11830193B2 (en) | Recognition method of intracranial vascular lesions based on transfer learning | |
CN113160226A (zh) | 基于双向引导网络的amd病变oct图像的分类分割方法及系统 | |
CN117058676B (zh) | 一种基于眼底检查影像的血管分割方法、装置和系统 | |
Mao et al. | Deep learning with skip connection attention for choroid layer segmentation in oct images | |
Chen et al. | Early glaucoma detection by using style transfer to predict retinal nerve fiber layer thickness distribution on the fundus photograph | |
CN112381012A (zh) | 眼部图像中目标区域的识别方法、装置及电子设备 | |
CN116309346A (zh) | 医学图像的检测方法、装置、设备、存储介质及程序产品 | |
CN116228781A (zh) | 冠脉血管分割方法、装置、电子设备及存储介质 | |
CN115908888A (zh) | 一种介入手术机器人基于Unet的DSA图像序列的血管介入器械跟踪方法 | |
CN114627091A (zh) | 视网膜年龄识别方法和装置 | |
CN114881968B (zh) | 基于深度卷积神经网络的octa图像血管分割方法、设备及介质 | |
CN118229713B (zh) | Oct和octa图像融合的视网膜血管图像分割方法 | |
CN117710373B (zh) | 一种抗干扰的octa视网膜血管提取方法和装置 | |
Xue et al. | Retinal Fluid Segmentation from OCT B-Scan Using Swin-Unet | |
CN117936079B (zh) | 基于流形学习的糖尿病视网膜病变识别方法、介质及系统 | |
CN115880310B (zh) | 一种视网膜oct断层分割方法、装置及设备 | |
US20240104731A1 (en) | System for Integrated Analysis of Multi-Spectral Imaging and Optical Coherence Tomography Imaging | |
Yeh et al. | Deep-learning based automated segmentation of Diabetic Retinopathy symptoms | |
CN118628506A (zh) | 一种眼底组织三维分割方法 | |
CN114287879A (zh) | 病灶分割的方法、设备及介质 | |
CN114881968A (zh) | 基于深度卷积神经网络的octa图像血管分割方法、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |