CN114782394A - 一种基于多模态融合网络的白内障术后视力预测系统 - Google Patents
一种基于多模态融合网络的白内障术后视力预测系统 Download PDFInfo
- Publication number
- CN114782394A CN114782394A CN202210491704.8A CN202210491704A CN114782394A CN 114782394 A CN114782394 A CN 114782394A CN 202210491704 A CN202210491704 A CN 202210491704A CN 114782394 A CN114782394 A CN 114782394A
- Authority
- CN
- China
- Prior art keywords
- vision
- image
- model
- network
- cataract
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/102—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10101—Optical tomography; Optical coherence tomography [OCT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Radiology & Medical Imaging (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Evolutionary Biology (AREA)
- Quality & Reliability (AREA)
- Ophthalmology & Optometry (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Image Processing (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多模态融合网络的白内障术后视力预测系统,包括训练好的白内障术后视力预测模型,模型以卷积神经网络作为主干网络,用于接收输入数据中的图像数据,分别对横扫图像和纵扫图像进行特征提取;再将学习到的特征进行序列化后输入到多模态交叉注意力网络;输入了两种视图图像特征的多模态交叉注意力网络分别和术前视力编码后的视力块、随机生成的回归块和交叉块合并,通过Transformer层进行视图特征范围内的深层特征提取和信息融合;将两种视图的回归块拼接进入全连接层,输出预测的术后视力。本发明能够自动提取图像模态特征,并和术前视力模态特征融合,学习潜在的模态间关系,以较小的计算成本实现准确预测。
Description
技术领域
本发明属于医疗图像处理领域,尤其是涉及一种基于多模态融合网络的白内障术后视力预测系统。
背景技术
白内障是影响老年人视力的最常见的致盲性眼病,临床表现为视力下降。针对这一公共卫生问题,白内障手术是唯一治疗的手段。而在临床中,病人可能伴随其他一些眼病,这些疾病共同导致了视力的下降,从而使得白内障手术对于视力的恢复并不是绝对有效的。因此在术前预测病人的术后视力能否有效恢复有利于医生评估手术的必要性。
在临床中,医生主要基于OCT图像观察眼底状态来评估病人患有哪些眼疾,是否会影响白内障手术的效果来预测术后的视力能否恢复。但由于眼底状态复杂,这项形态学任务对于医生来说费时费力,判断也不一定准确。为了帮助医生进行诊断,计算机算法可以提供辅助分析。随着深度学习的发展,其强大的表征学习能力被广泛应用与医学图像场景。通过建立深度学习模型,无需人工挑选固定统计学特征,模型可以高效、自动提取图像的特征信息,进而做出形态学诊断。该深度学习方法可以有效降低临床诊断成本,让医生省时省力。
然而在医学应用场景下,数据通常具有多个模态,例如图像、病例、临床信息等,不同模态的信息包含的信息各不相同,模态间存在潜在的依赖关系,因此如何设计多模态融合模型使其需要能够有效的融合多模态信息是一大关键问题。多模态融合在深度学习中同时也是一个重要的研究方向,目前现有的方法大多是基于暴力向量化的拼接,通过全连接层对多模态数据进行加权求和,建立线性关系,该方法易于实现但缺乏深度融合。Transformer是目前开始兴起的主流框架,可以不依赖输入的模态和维度,通过序列化将模态统一维度,即将模态信息作为一个个块进行拼接,通过自注意力机制,即生成科学系三个矩阵分别为Query,Key和Value,不仅加入了随机性,同时也能通过块与块之间的注意力融合来学习模态间依赖关系,因此基于Transformer的网络框架相比于暴力拼接可以更加有效地深层次地融合信息。另一方面,融合效果的好坏一定程度还取决于融合的具体方式,包括早期融合、中期融合、晚期融合等等。
较多的研究证明中期融合是最有效的一种方式,但是目前基于Transformer的融合无论是什么融合方式都会存在计算冗余的问题,即融合过程会产生非常多的矩阵计算导致较大的计算成本,目前很少有研究关注并解决这个问题。
发明内容
本发明公开了一种基于多模态融合网络的白内障术后视力预测系统,能够自动提取图像模态特征,并和术前视力模态特征融合,学习潜在的模态间关系,以较小的计算成本实现白内障术后视力的准确预测。
一种基于多模态融合网络的白内障术后视力预测系统,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,所述计算机存储器中存有训练好的白内障术后视力预测模型,所述的白内障术后视力预测模型以卷积神经网络作为主干网络,用于接收输入数据中的图像数据,分别对横扫图像和纵扫图像进行特征提取;再将学习到的特征进行序列化后输入到多模态交叉注意力网络;
输入了两种视图图像特征的多模态交叉注意力网络分别和术前视力编码后的视力块、随机生成的回归块和交叉块合并,通过Transformer层进行视图特征范围内的深层特征提取和信息融合;将两种视图的回归块拼接进入全连接层,输出预测的术后视力;
所述计算机处理器执行所述计算机程序时实现以下步骤:
获取病人术前OCT图像和术前视力数据,其中,OCT图像包括横扫和纵扫两种视图;
将病人术前OCT图像和术前视力数据输入到训练好的白内障术后视力预测模型进行特征提取和预测,最终输出病人白内障术后的视力值。
本发明的系统,通过Transformer架构有效融合多模态信息,可以准确预测白内障术后视力,为医生评估白内障手术的必要性提供辅助,同时通过交叉块的交换避免了冗余的注意力计算,降低了计算成本以及落地成本。
进一步地,所述的卷积神经网络包括4个卷积层和3个池化层,经过每个卷积层后图像被压缩一半的分辨率,经过最终的卷积层提取到图像的特征图,通过全连接层映射到统一维度的块,然后进行拼接得到特征序列。
进一步地,所述的多模态交叉注意力网络的输入包括横扫和纵扫两种视图,将每种视图的图像特征序列视为图像块,与术前视力编码后的视力块、随机生成的回归块和交叉块拼接输入到多模态交叉注意力网络,该网络包括12层Transformer层,在前6层通过注意力融合视图内的各个模态特征,在后6层通过交叉块的交换使得视图间的信息得到交互,从而融合视图间的特征,最终通过两个视图的回归块进行平均操作,然后用一个全连接层预测术后视力。
进一步地,所述的Transofrmer层由2层归一层、1层注意力层和1层前馈神经网络层组成。
进一步地,所述白内障术后视力预测模型的训练过程如下:
(1)获取病人横扫和纵扫图像作为样本数据,经过图像筛选后,获取术后一个月回访的视力标注,标注后的样本数据按比例分成训练集、验证集和测试集;
(2)搭建白内障术后视力预测模型CTT-Net,输入一组样本,对该组样本图像进行特征提取,与术前视力一起进行特征融合和术后视力预测;预测值范围为0-3.0。
(3)将输出的预测结果与实际术后视力标注进行对比,运用MAE函数作为当前模型的损失,并回传到模型中,对模型中的参数进行更新,直至模型收敛;
(4)当达到设定的MAE阈值或者达到指定迭代次数时,模型停止更新,训练完毕,输出结果。
步骤(1)中,图像筛选的规则为:根据有无缺失值以及图像是否清晰,剔除严重失真导致临床医生也无法预估的样本以及缺少图像、术前视力或是术后视力其中一项的样本。
步骤(3)中,利用反向传播法则计算模型的梯度,使用随机梯度下降法进行模型参数更新。
模型训练过程中,每经过一定迭代次数进行验证集的指标计算,指标包括均方误差MSE、平均绝对误差MAE、正确率ACC,通过验证集的评估效果调整模型的超参数;模型训练完毕后,从众多迭代保存的模型参数依据评估效果进行择优,将挑选后的模型参数加载并在测试集上进行测试,指标与验证集相同,获得最终模型的评估结果。
与现有技术相比,本发明具有以下有益效果:
1、不同于现有的白内障术后预测技术只通过图像进行术后视力预测,本发明引入术前视力作为额外信息监督,促进对图像特征的提取和模态间特征融合,实现高精度的白内障术后视力预测。
2、不同于现有的通过全连接层或者通过Transformer进行全注意力特征融合技术,本发明引入交叉注意力机制,基于单一的交叉块进行视图内特征融合,通过在视图间交换实现视图间特征的融合,同时避免了冗余的注意力,减少计算成本。
附图说明
图1为本发明实施例中白内障术后视力预测模型的训练流程图;
图2为本发明实施例中卷积神经网络的网络结构图;
图3为本发明实施例中多模态交叉注意力网络的网络结构图;
图4为本发明实施例中交叉块交换的多模态交叉注意力机制图。
具体实施方式
下面结合附图和实施例对本发明做进一步详细描述,需要指出的是,以下所述实施例旨在便于对本发明的理解,而对其不起任何限定作用。
步骤一:OCT图像筛选
OCT图像的来源包括海德堡、科林和蔡司三种机器,其中海德堡的图像分辨率大小为768*496(pixel),扫描深度为9600*2000(um);蔡司的图像分辨率大小为938*625(pixel),扫描深度为6000*2000(um);科林的图像分辨率大小为1020*960(pixel),扫描深度为10000*2000(um)。由于部分病人的OCT图像质量较低,或是缺少术前视力术后视力之一,剔除这部分样本。
步骤二:数据划分
将横扫OCT图像、纵扫OCT图像以及术前视力视为样本对,将所有样本对划分为训练集、验证集、测试集,比例为6:2:2。
步骤三:多模态白内障术后视力预测模型的训练
本发明的多模态白内障术后视力预测模型的每组样本对输入为术前的OCT图像(包括横扫和纵扫)以及术前视力。
整体训练流程如图1所示。将多组(一般为一个batch=16)样本对输入到多模态白内障术后视力预测模型中得到最后的预测的术后视力。多模态白内障术后视力预测模型包括卷积神经网络(特征提取网络)和多模态交叉注意力网络。
OCT图像先通过卷积神经网络Resnet-18提取特征,该网络结构如图2所示,包括4个卷积层3个池化层,每个卷积层后图像会被压缩一半的分辨率,经过最终的卷积层提取到图像的特征图,特征图包括浓缩提取的图像特征,通过编码,即通过全连接层映射到统一维度(设置为128维)的块然后进行拼接得到特征序列,将特征序列输入到多模态交叉注意力网络,如图3所示,图像特征块与术前视力编码块、回归块和交叉块拼接得到横扫图像特征序列和纵扫图像特征序列。其中,术前视力编码块提供额外模态信息,回归块用于提取全局信息进行最终视力预测,交叉块则是用于融合不同模态和视图的信息。
横扫图像特征和纵扫图像特征通过Transformer在早期先进行视图内融合,即在前6层Transformer编码器中,交叉块保持不动,以便交叉块充分提取视图内信息。后6层通过交叉块在两种视图内的交换进行视图间信息融合,融合步骤如图4所示,即循环往复的交换通过将两种视图特征序列中的交叉块位置,每经过一层交换一次,通过交叉块的交换视图间的信息得到了补充和融合,以实现多模态交叉注意力机制,最后将两种视图的回归块进行提取融合最终得到预测的术后视力。
训练模型时,使得术后视力预测结果尽可能实际的术后视力相近,通过损失函数产生模型的预测结果和真实结果的损失,通过梯度回传算法更新模型参数;然后再将下一组样本输入到分割模型中,继续上述步骤的训练;最后直到模型收敛,即损失函数不再下降时,终止训练。
步骤四:多模态白内障术后视力预测模型的验证和测试
每训练一定步数还会将模型在验证集上进行验证,即将验证集中的数据输入到已经训练过的模型中,观察损失值、准确率、召回率、精确率等指标调整学习率等超参数,使得模型的泛化性能更好。
测试即为模拟真实落地时的场景,即将测试集中的数据输入到已经训练过的模型中,挑选在验证集上表现最后的模型参数并加载,观察最终的准确率、召回率、精确率等指标确定模型性能和实际效果。
以上所述的实施例对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的具体实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于多模态融合网络的白内障术后视力预测系统,包括计算机存储器、计算机处理器以及存储在所述计算机存储器中并可在所述计算机处理器上执行的计算机程序,其特征在于:
所述计算机存储器中存有训练好的白内障术后视力预测模型,所述的白内障术后视力预测模型以卷积神经网络作为主干网络,用于接收输入数据中的图像数据,分别对横扫图像和纵扫图像进行特征提取;再将学习到的特征进行序列化后输入到多模态交叉注意力网络;
输入了两种视图图像特征的多模态交叉注意力网络分别和术前视力编码后的视力块、随机生成的回归块和交叉块合并,通过Transformer层进行视图特征范围内的深层特征提取和信息融合;将两种视图的回归块拼接进入全连接层,输出预测的术后视力;
所述计算机处理器执行所述计算机程序时实现以下步骤:
获取病人术前OCT图像和术前视力数据,其中,OCT图像包括横扫和纵扫两种视图;
将病人术前OCT图像和术前视力数据输入到训练好的白内障术后视力预测模型进行特征提取和预测,最终输出病人白内障术后的视力值。
2.根据权利要求1所述的基于多模态融合网络的白内障术后视力预测系统,其特征在于,所述的卷积神经网络包括4个卷积层和3个池化层,经过每个卷积层后图像被压缩一半的分辨率,经过最终的卷积层提取到图像的特征图,通过全连接层映射到统一维度的块,然后进行拼接得到特征序列。
3.根据权利要求1所述的基于多模态融合网络的白内障术后视力预测系统,其特征在于,所述的多模态交叉注意力网络的输入包括横扫和纵扫两种视图,将每种视图的图像特征序列视为图像块,与术前视力编码后的视力块、随机生成的回归块和交叉块拼接输入到多模态交叉注意力网络,该网络包括12层Transformer层,在前6层通过注意力融合视图内的各个模态特征,在后6层通过交叉块的交换使得视图间的信息得到交互,从而融合视图间的特征,最终通过两个视图的回归块进行平均操作,然后用一个全连接层预测术后视力。
4.根据权利要求3所述的基于多模态融合网络的白内障术后视力预测系统,其特征在于,所述的Transofrmer层由2层归一层、1层注意力层和1层前馈神经网络层组成。
5.根据权利要求1所述的基于多模态融合网络的白内障术后视力预测系统,其特征在于,所述白内障术后视力预测模型的训练过程如下:
(1)获取病人横扫和纵扫图像作为样本数据,经过图像筛选后,获取术后一个月回访的视力标注,标注后的样本数据按比例分成训练集、验证集和测试集;
(2)搭建白内障术后视力预测模型CTT-Net,输入一组样本,对该组样本图像进行特征提取,与术前视力一起进行特征融合和术后视力预测;预测值范围为0-3.0。
(3)将输出的预测结果与实际术后视力标注进行对比,运用MAE函数作为当前模型的损失,并回传到模型中,对模型中的参数进行更新,直至模型收敛;
(4)当达到设定的MAE阈值或者达到指定迭代次数时,模型停止更新,训练完毕,输出结果。
6.根据权利要求5所述的基于多模态融合网络的白内障术后视力预测系统,其特征在于,步骤(1)中,图像筛选的规则为:根据有无缺失值以及图像是否清晰,剔除严重失真导致临床医生也无法预估的样本以及缺少图像、术前视力或是术后视力其中一项的样本。
7.根据权利要求5所述的基于多模态融合网络的白内障术后视力预测系统,其特征在于,步骤(3)中,利用反向传播法则计算模型的梯度,使用随机梯度下降法进行模型参数更新。
8.根据权利要求5所述的基于多模态融合网络的白内障术后视力预测系统,其特征在于,模型训练过程中,每经过一定迭代次数进行验证集的指标计算,指标包括均方误差MSE、平均绝对误差MAE、正确率ACC,通过验证集的评估效果调整模型的超参数;模型训练完毕后,从众多迭代保存的模型参数依据评估效果进行择优,将挑选后的模型参数加载并在测试集上进行测试,指标与验证集相同,获得最终模型的评估结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210491704.8A CN114782394A (zh) | 2022-05-07 | 2022-05-07 | 一种基于多模态融合网络的白内障术后视力预测系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210491704.8A CN114782394A (zh) | 2022-05-07 | 2022-05-07 | 一种基于多模态融合网络的白内障术后视力预测系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114782394A true CN114782394A (zh) | 2022-07-22 |
Family
ID=82435331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210491704.8A Pending CN114782394A (zh) | 2022-05-07 | 2022-05-07 | 一种基于多模态融合网络的白内障术后视力预测系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114782394A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117058148A (zh) * | 2023-10-12 | 2023-11-14 | 超目科技(北京)有限公司 | 一种眼球震颤患者成像质量检测方法、装置及设备 |
CN117153407A (zh) * | 2023-11-01 | 2023-12-01 | 福建瞳视力科技有限公司 | 一种用于视力矫正的青少年近视预测方法及系统 |
CN117422704A (zh) * | 2023-11-23 | 2024-01-19 | 南华大学附属第一医院 | 一种基于多模态数据的癌症预测方法、系统及设备 |
-
2022
- 2022-05-07 CN CN202210491704.8A patent/CN114782394A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117058148A (zh) * | 2023-10-12 | 2023-11-14 | 超目科技(北京)有限公司 | 一种眼球震颤患者成像质量检测方法、装置及设备 |
CN117058148B (zh) * | 2023-10-12 | 2024-02-02 | 超目科技(北京)有限公司 | 一种眼球震颤患者成像质量检测方法、装置及设备 |
CN117153407A (zh) * | 2023-11-01 | 2023-12-01 | 福建瞳视力科技有限公司 | 一种用于视力矫正的青少年近视预测方法及系统 |
CN117153407B (zh) * | 2023-11-01 | 2023-12-26 | 福建瞳视力科技有限公司 | 一种用于视力矫正的青少年近视预测方法及系统 |
CN117422704A (zh) * | 2023-11-23 | 2024-01-19 | 南华大学附属第一医院 | 一种基于多模态数据的癌症预测方法、系统及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110060263B (zh) | 医学图像的分割方法、分割装置、分割系统及计算机可读介质 | |
US11748889B2 (en) | Brain image segmentation method and apparatus, network device, and storage medium | |
CN114782394A (zh) | 一种基于多模态融合网络的白内障术后视力预测系统 | |
CN111862020B (zh) | 一种眼前节生理年龄预测方法、装置、服务器及存储介质 | |
CN110859624A (zh) | 一种基于结构磁共振影像的大脑年龄深度学习预测系统 | |
CN109003270A (zh) | 一种图像处理方法及电子设备 | |
CN112037171B (zh) | 基于多模态特征融合的多任务mri脑瘤图像分割方法 | |
CN114881968A (zh) | 基于深度卷积神经网络的octa图像血管分割方法、设备及介质 | |
CN111461233A (zh) | 一种基于MDCLSTM-LDenseNet网络的核磁共振图像自动分类方法及装置 | |
CN113724185B (zh) | 用于图像分类的模型处理方法、装置及存储介质 | |
WO2024087858A1 (zh) | 图像处理模型的训练方法、装置、电子设备、计算机程序产品及计算机存储介质 | |
CN112869697A (zh) | 同时识别糖尿病视网膜病变的分期和病变特征的判断方法 | |
CN110503636B (zh) | 参数调整方法、病灶预测方法、参数调整装置及电子设备 | |
Baskar et al. | An Accurate Prediction and Diagnosis of Alzheimer’s Disease using Deep Learning | |
CN112750110A (zh) | 基于神经网络对肺部病灶区进行评估的评估系统和相关产品 | |
CN116188420A (zh) | 一种基于卷积Transformer的多模态医学图像分割方法 | |
CN116958539A (zh) | 用于血管树分割的模型训练和图像处理方法、装置及设备 | |
CN113792798B (zh) | 基于多源数据的模型训练方法、装置及计算机设备 | |
CN115115900A (zh) | 图像重建模型的训练方法、装置、设备、介质及程序产品 | |
CN113643263A (zh) | 一种上肢骨定位与前臂骨融合畸形的识别方法及系统 | |
Sheikh | Diabetic reinopathy classification using deep learning | |
Sharma et al. | Cracking Light on Cataract Detection by Implementing VGG16 Transfer Learning-Based Model on Fundus Images | |
CN113517057B (zh) | 基于数据表示和神经网络的医疗图像信息识别存储方法 | |
CN118230978B (zh) | 一种疾病风险预测方法、系统、电子设备、介质 | |
CN116759079B (zh) | 基于多特征融合的出血转化判定方法、装置、介质及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |