CN115496719A - 基于深度学习的腹主动脉瘤识别方法及装置、存储介质、电子装置 - Google Patents
基于深度学习的腹主动脉瘤识别方法及装置、存储介质、电子装置 Download PDFInfo
- Publication number
- CN115496719A CN115496719A CN202211147064.5A CN202211147064A CN115496719A CN 115496719 A CN115496719 A CN 115496719A CN 202211147064 A CN202211147064 A CN 202211147064A CN 115496719 A CN115496719 A CN 115496719A
- Authority
- CN
- China
- Prior art keywords
- aortic aneurysm
- abdominal aortic
- abdominal
- data
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种基于深度学习的腹主动脉瘤识别方法及装置、存储介质、电子装置,其中所述方法包括获取CT或者CTA图像,裁剪提取得到图像补丁,所述CT或者CTA图像中包括腹主动脉瘤数据;输入所述图像补丁到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果,所述预设图像分类模型为使用多组数据通过卷积神经网络训练得出的,多组数据中的每组数据均包括:腹主动脉瘤数据以及所述腹主动脉瘤数据对应的病灶区域标签;以及对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果。通过本申请实现了自动化、准确识别腹主动脉瘤,提高了诊断效率。
Description
技术领域
本申请涉及计算机视觉、医疗技术领域,具体而言,涉及一种基于深度学习的腹主动脉瘤识别方法及装置、存储介质、电子装置。
背景技术
腹主动脉瘤是一种心血管疾病,其主要表现形式为发生在肾动脉和髂动脉之间的主动脉局部变形(肿胀或增大)。主动脉的正常直径约为20mm,当肾下主动脉直径比正常直径增加50%时,通常被认为是动脉瘤。腹主动脉瘤在发生破裂前都是一种无症状的疾病,但如果腹主动脉瘤破裂,其死亡率将会高达50%以上。腹主动脉瘤是老年群体中最常见的疾病之一,尤其是男性,在65岁以上的男性中,大约1.3%的死亡是由腹主动脉瘤破裂引起的。
较小的腹主动脉瘤一般可以在CT中与其他疾病共同识别出来,但由于对其他临床问题的关注,以及详细分析腹主动脉瘤的耗时性质,可能会导致腹主动脉瘤的漏报和延迟诊断。因此,患者可能在未发现早期腹主动脉瘤的情况下就出院,导致治疗的延迟。如果能对较大的腹主动脉瘤进行手术或介入治疗,自发性破裂是可以预防的。所以,对于腹主动脉瘤的分割和识别方法显得尤为重要。
相关技术中,放射科医生会使用CT或CTA图像来分割腹主动脉瘤,以诊断疾病的严重程度,并准确测量主动脉直径。然而,腹主动脉瘤三维(3D)可视化是一项耗时耗力的工作,因为它需要逐片去完成,在诊断中也可能出现人为错误。如今,腹主动脉瘤的整体诊断率较低,十年间仅为6.3%。因此,提出一种全自动的腹主动脉瘤分割、识别并测量其直径的方法将是非常有益的。
近年来,研究人员提出了多种方法对腹主动脉瘤进行分割和诊断,大致可分为半自动(人工参与诊断)和全自动(完全由计算机完成)两类。一般来说,腹主动脉瘤分割技术有几个类别,如机器学习技术、可变形模型、概率图形模型和基于知识的方法。已有的对腹主动脉瘤进行检测和诊断的研究方法中,大多都是半自动方法,人工干预是不可避免的,耗时耗力,且容易出现人为错误;而个别虽然采用了全自动方法,但缺乏精确度,错误率在10%到20%之间。因此,发明一个更加精确的全自动方法是非常必要的。
针对相关技术中腹主动脉瘤识别的精确度不高问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种基于深度学习的腹主动脉瘤识别方法及装置、存储介质、电子装置,以解决腹主动脉瘤识别的精确度不高的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种基于深度学习的腹主动脉瘤识别方法。
根据所述基于深度学习的腹主动脉瘤识别方法,包括
获取CT或者CTA图像,裁剪提取得到图像补丁,所述CT或者CTA图像中包括腹主动脉瘤数据;
输入所述图像补丁到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果,所述预设图像分类模型为使用多组数据通过卷积神经网络训练得出的,多组数据中的每组数据均包括:腹主动脉瘤数据以及所述腹主动脉瘤数据对应的病灶区域标签;以及
对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果。
进一步地,所述预设图像分类模型包括:卷积神经网络结构,所述卷积神经网络结构至少包括:
一个数据层作为输入,三个卷积层用于特征提取,五个RELU层作为激活函数层,一个池化层用于降低网络参数,两个全连接层,一个舍弃层,一个精度层用于计算训练和验证数据集精度,以及一个损失层以计算训练阶段的数据丢失。
进一步地,所述预设图像分类模型还包括:3DResNet卷积神经网络,用于对所述图像补丁进行不同腹部区域三维分类,
对于三维分类数据训练集,将每次扫描结果分为无腹主动脉瘤级或者腹主动脉瘤级;
在每次扫描中,都以主动脉的颅内左肾动脉开端的轴向位置为定位点,之后在训练中使用该定位点自动提取标准化大小的亚体积;
或者,
对于三维分类数据训练集,使用分层的五倍交叉验证法。
进一步地,所述输入所述图像补丁到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果,包括:
采用五个指标来评估腹主动脉区域预测分类的质量,其中,所述预测分类包括:真阳性TP代表被正确识别为腹主动脉瘤的样本,真阴性TN代表被正确分类的非腹主动脉瘤样本,假阳性FP代表被错误分类为非腹主动脉瘤的腹主动脉瘤样本,假阴性FN代表被错误分类为腹主动脉瘤的非腹主动脉瘤样本;
评估所述腹主动脉对网络决策相关区域与预先确定的主动脉位置之间的一致性,其中,所述腹主动脉对网络决策的影响评分包括:1-主动脉无相关性、2-主动脉低相关性、3-主动脉中相关性、4-主动脉高相关性、5-主动脉非常高相关性。
进一步地,所述对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果,包括:
基于OpenCV库的霍夫圆检测算法,对所述腹主动脉区域的分类结果进行分割处理,
测量分割处理结果,得到腹主动脉直径测量值。
进一步地,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果之后,还包括
如果测量得到的直径小于24像素,输出以毫米为单位的准确直径以及第一腹主动脉瘤风险评估结果;
如果测量得到的直径大于24像素而小于40像素,输出以毫米为单位的准确直径以及第二腹主动脉瘤风险评估结果;
如果测量得到的直径超过40像素,输出以毫米为单位的准确直径以及第三腹主动脉瘤风险评估结果。
进一步地,获取CT或者CTA图像,并裁剪提取得到图像补丁,所述CT或者CTA图像中包括腹主动脉瘤数据,包括:
获取所述CT或者CTA图像的并调整为预设大小的图像;
通过预设大小的窗口对所述CT或者CTA图像进行扫描,从图像中裁剪得到图像补丁;
提取所述图像补丁之后,将所述图像补丁划分至少包括如下之一的区域:腹部内区、主动脉、身体边界、骨骼。
为了实现上述目的,根据本申请的另一个方面,提供了一种基于深度学习的腹主动脉瘤识别装置。
根据所述基于深度学习的腹主动脉瘤识别装置,包括:
获取模块,用于获取CT或者CTA图像,裁剪提取得到图像补丁,所述CT或者CTA图像中包括腹主动脉瘤数据;
分类模块,用于输入所述图像补丁到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果,所述预设图像分类模型为使用多组数据通过卷积神经网络训练得出的,多组数据中的每组数据均包括:腹主动脉瘤数据以及所述腹主动脉瘤数据对应的病灶区域标签;以及
分割测量模块,用于对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果。
为了实现上述目的,根据本申请的又一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述方法。
为了实现上述目的,根据本申请的再一方面,提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行所述的方法。
在本申请实施例中基于深度学习的腹主动脉瘤识别方法及装置、存储介质、电子装置,采用获取CT或者CTA图像,裁剪提取得到图像补丁的方式,通过输入所述图像补丁到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果,达到了对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果的目的,从而实现了准确识别腹主动脉瘤、提高诊断效率的技术效果,进而解决了腹主动脉瘤识别的精确度不高的技术问题。
本申请实施例中的方法,是一种易于训练的全自动深度学习三维腹主动脉瘤分割和识别算法,该方法可以作为临床工作流程的背景程序运行,具有鲁棒性、可靠性、高精确度、全自动化的特性。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的基于深度学习的腹主动脉瘤识别方法的硬件结构示意图;
图2是根据本申请实施例的基于深度学习的腹主动脉瘤识别方法流程示意图;
图3是根据本申请实施例的基于深度学习的腹主动脉瘤识别装置结构示意图;
图4是根据优选本申请实施例的基于深度学习的腹主动脉瘤识别方法流程示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请中,术语“上”、“下”、“左”、“右”、“前”、“后”、“顶”、“底”、“内”、“外”、“中”、“竖直”、“水平”、“横向”、“纵向”等指示的方位或位置关系为基于附图所示的方位或位置关系。这些术语主要是为了更好地描述本申请及其实施例,并非用于限定所指示的装置、元件或组成部分必须具有特定方位,或以特定方位进行构造和操作。
并且,上述部分术语除了可以用于表示方位或位置关系以外,还可能用于表示其他含义,例如术语“上”在某些情况下也可能用于表示某种依附关系或连接关系。对于本领域普通技术人员而言,可以根据具体情况理解这些术语在本申请中的具体含义。
此外,术语“安装”、“设置”、“设有”、“连接”、“相连”、“套接”应做广义理解。例如,可以是固定连接,可拆卸连接,或整体式构造;可以是机械连接,或电连接;可以是直接相连,或者是通过中间媒介间接相连,又或者是两个装置、元件或组成部分之间内部的连通。对于本领域普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
发明人研究时发现,深度学习能够对图像数据进行快速和高度准确的分析,因此,非常适用于对腹主动脉瘤的管理。随着深度学习被引入到医学的各种应用场景中,一个为医生提供技术支持和指导的新时代正在出现。在已有研究中,基于CTA扫描的腹主动脉瘤生长预测算法及其在检测主动脉夹层和监测血管内动脉瘤修复治疗并发症方面的潜力已被证实。
相关技术中,基于图像强度特征和判别性随机森林(RF)分类器,被用于腹主动脉瘤区域的分割。然而在这种方法中,需要对大量数据集的程序参数进行微调,并对模型进行预训练。
相关技术中,基于能量最小化的区域水平集方法将贝叶斯风险引入到水平集中,能够应对分割过程中出现的分类错误。但该方法是半自动的,仍要求使用者在腹主动脉瘤区域周围选择或绘制多边形,从而进行初始轮廓绘制,容易出现人为错误。
相关技术中,深度信念网络(DBN)分类器是目前已有的全自动方法,然而,该算法会受到主动脉大小的影响,在一个批量大小为160的训练网络中,会遗漏含有大腹主动脉瘤的补丁;在批量大小为100的网络中,会遗漏腹部其他区域的补丁。错误率在10%~20%之间,精确度欠佳。
针对上述不足,本申请实施例中的基于深度学习的腹主动脉瘤识别方法,不需要对分类器进行微调和预训练,且在此之前就已经通过一个大数据集完成早期的模型构建。同时,本申请实施例中的方法为全自动算法,与半自动算法相比,主动脉边界的确定将通过霍夫圆检测算法来完成,减少了人工干预。
进一步地,本申请实施例中的基于深度学习的腹主动脉瘤识别方法基于卷积神经网络的分类器,其结果与现有的全自动算法相比,在主动脉检测中有更好的准确性(98.62%),且不会受主动脉大小和提取补丁的旋转程度的影响。
如图1所示,该方法包括如下的步骤S101至步骤S103:
步骤S101,获取CT或者CTA图像,裁剪提取得到图像补丁,所述CT或者CTA图像中包括腹主动脉瘤数据。
首先需要训练一个预设图像分类模型,并且在识别时需要获取CT或者CTA图像。
具体而言,在训练时输入CT或CTA图像,获取腹主动脉瘤数据,并将其调整为384×384大小的图像。用64×64大小的窗口,对CT或CTA图像进行扫描,以可调整的步率从图像中裁剪补丁。
步骤S102,输入所述图像补丁到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果,所述预设图像分类模型为使用多组数据通过卷积神经网络训练得出的,多组数据中的每组数据均包括:腹主动脉瘤数据以及所述腹主动脉瘤数据对应的病灶区域标签。
可以理解,卷积神经网络(CNN)是一种著名的深度学习架构,其灵感来源于生物的自然视觉感知机制。一个基本的卷积神经网络由三种类型的层组成,即卷积层、池化层和全连接层。卷积神经网络是最重要的深度学习算法之一,它的多层结构可以用一种强大的方法进行训练。由于卷积神经网络具有很强的特征提取能力,因此其多用于图像处理项目中。卷积神经网络需要通过两个步骤来训练:(1)前馈(Feed Forward),(2)反向传播(Backpropagation)。首先,网络通过卷积的过程来学习特征,并利用损失函数计算网络误差;其次,借助反向传播算法中的链式法则,使得到的误差最小化。重复这两个步骤,直到网络误差达到最小。
通过将所述图像补丁输入到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果。
所述预设图像分类模型即通过多组数据通过卷积神经网络训练得出的。
还包括对多组数据中的每组数据作为训练集进行训练,所述每组数据中包括腹主动脉瘤数据以及所述腹主动脉瘤数据对应的病灶区域标签,即包括腹主动脉瘤数据(区域)以及对应区域的标签。
步骤S103,对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果。
霍夫变换(The Hough transform)是一种通过利用曲线上的点和该曲线上的参数之间的二元性来检测曲线的方法。霍夫圆检测算法和广义霍夫变换可以用于检测图像中的任意形状。
通过上述方式对对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值,并可根据腹主动脉直径测量值进一步判断识别出严重程度。
从以上的描述中,可以看出,本申请实现了如下技术效果:
采用获取CT或者CTA图像,裁剪提取得到图像补丁的方式,通过输入所述图像补丁到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果,达到了对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果的目的,从而实现了准确识别腹主动脉瘤、提高诊断效率的技术效果,进而解决了腹主动脉瘤识别的精确度不高的技术问题。
本申请实施例中通过采用卷积神经网络作为分类器检测主动脉区域,并采用霍夫圆检测算法测量主动脉直径。并且使用固定的学习策略同时减少层数和学习率,并且各指标拥有了最先进的结果,提高了检测的准确性。通过利用目前最先进的检测结果,成功地对腹主动脉瘤进行了检测和分类,可以用于临床,提高诊断效率。
作为本实施例中的优选,所述预设图像分类模型包括:卷积神经网络结构,所述卷积神经网络结构至少包括:一个数据层作为输入,三个卷积层用于特征提取,五个RELU层作为激活函数层,一个池化层用于降低网络参数,两个全连接层,一个舍弃层,一个精度层用于计算训练和验证数据集精度,以及一个损失层以计算训练阶段的数据丢失。
如图2所示,具体实施时,为了构建用于腹主动脉瘤补丁检测和腹部区域分类的分类器,在内存为6GB的Nvidia Geoforce 1060显卡上进行卷积神经网络的设计和训练。之所以选择卷积神经网络来解决腹主动脉瘤图像分割的问题,是因为认为可以利用这种深度架构的优势来有效地解决问题。虽然卷积神经网络需要庞大的数据集,但它们非常强大,而且它们也能提供最先进的结果。每个卷积神经网络都由数据层、卷积层、RELU层、池化层、全连接层、舍弃层等几层组成。
基于上述,提出了卷积神经网络分类器。
卷积神经网络层以多种方式排列,层的参数也变化频繁。每次设计的网络都通过训练数据集进行训练,并通过验证数据集进行验证。最后,得到的最佳设计如图2所示。
该结构包括一个数据层作为输入,三个卷积层用于特征提取,五个RELU层作为激活函数层,一个池化层用于降低网络参数,两个全连接层,一个比例为0.1的舍弃层,一个精度层以计算训练和验证数据集精度,以及一个损失层以计算训练阶段的数据丢失。
卷积层(Conv1,Conv2,Conv3),卷积层使用不同的内核大小,利用前一层的输出进行特征提取。
ReLU层(ReLU1,ReLU2,ReLU3,ReLU4),整流函数f(x)=Max(0,x)是一个激活函数,用于给网络增加非线性,只能计算线性函数。
池化层(Pooling 1),池化层对网络参数进行降采样,减少参数,便于网络计算。
全连接层(Fully Connected layers,FC1,FC2),卷积神经网络大都是在全连接层进行输出。这些全连接层与上一层的所有神经元相连接,通常在数据中提取高级别的特征并输出。
舍弃层(Drop out 1),该层随机减少网络参数,防止网络被过度拟合。
准确率层,该层用来计算在数据集内正确预测的百分比。
损失层,这一层通常被用作卷积神经网络的最后一层,用来定义网络在训练和测试阶段的损耗。
在这个网络中,通过使用SoftMax(公式1)与损失(即归一化指数函数或SoftMax回归),它能在给定模型预测的情况下得出每个目标类的概率,并计算多项逻辑损失,进行输出。
其中,yi是网络输出,k是输出的数量。
在一些实施例中,需要设置求解器参数。
训练一个设计好的卷积神经网络需要修改一些超参数。在Caffe框架中,这些参数被修改为一个solver.prtotxt文件,该文件规定了学习算法。Adam是一种基于梯度的随机目标函数优化算法。由于Adam算法的收敛速度非常快,而且很容易,所以选择Adam求解器作为求解器类型。
具体实施时,虽然大多数设计的卷积神经网络都有很多层,但在这个分类器中,减少了层数。为了弥补层数减少的影响,使用固定的学习策略将学习率降低到0.0001(没有进一步降低),效果很好。求解器文件的参数修改如下:
类型:Adam,测试迭代:15,测试间隔:200,学习率(Lr-base):0.0001,最大迭代次数:4000,学习策略:固定。
在一些实施例中,采用五倍交叉验证法,在第一轮训练后,为了估算该分类器的稳定性,进行了五次交叉验证。每一次,当镜像转换在训练阶段为真时,其中一个折叠被排除在外(作为验证数据集),并使用其他数据进行训练。
作为本实施例中的优选,所述预设图像分类模型还包括:3DResNet卷积神经网络,用于对所述图像补丁进行不同腹部区域三维分类,对于三维分类数据训练集,将每次扫描结果分为无腹主动脉瘤级或者腹主动脉瘤级;在每次扫描中,都以主动脉的颅内左肾动脉开端的轴向位置为定位点,之后在训练中使用该定位点自动提取标准化大小的亚体积。
经实验验证,本申请实施例中的3D ResNet实现了与2D筛查算法相同的高TPR和AUC值,而对整个三维体积进行分类的任务比对选定的二维补丁进行分类更为复杂,这也是三维卷积神经网络在CT腹主动脉瘤筛查中应用的首次提出。三维筛查与二维相比,对于腹主动脉瘤的诊断更加全面和准确,辅助临床诊断的效益更高。
具体实施时,通过两种方式对训练数据集进行注释。首先,每次CT扫描分为两类(0:无腹主动脉瘤级,1:腹主动脉瘤级)。其次,在每次扫描中,都以主动脉的颅内左肾动脉开端的轴向位置为定位点,随后在训练中使用该定位点自动提取标准化大小的亚体积。
或者,对于三维分类数据训练集,使用分层的五倍交叉验证法。
具体实施时,对初始训练数据集使用分层的五倍交叉验证法。数据被分成五个不相交的测试集,对于每个折叠,使用其中一个测试集,并从非测试数据中选择6个案例进行验证,其余的非测试案例就用于训练。从CT集中提取320×384×224的三维补丁。这减少了对内存的需求,并删除了图像中涉及空气和扫描床的部分。为了进行预测,补丁以锚点切片的中心为中心。将CT图像的密度窗口化,范围在[-200HU,400HU],从而覆盖了扩展的软组织范围,然后映射到区间[-1,1]。所有图像都被重新采样到0.9×0.9×1.5mm的间距,这等于数据集的中值分辨率。
在训练过程中,锚点切片沿着颅尾轴移动多达10个体素,补丁中心在切片上被随机定位。此外,通过角α∈[-12.6°,12.6°]围绕颅尾轴旋转来进行数据增强,以模拟可能的患者体位,并缩放10%来模拟可能的患者尺寸。此外,还应用了高达±3HU的密度抖动。
本申请实施例中的方法被设计为可在最小注释的数据上进行训练。定位点的设置通过启发式方法实现对验证数据的全自动筛选,也可以通过解剖标记检测实现。这种自动化为将来在更大的数据集上进行训练和验证提供了机会。
本申请实施例中的高鲁棒性和可靠性使人们对人工智能系统建立起必要的信任,是实现临床使用的关键因素。层级相关性传播(LRP)分析能够生成图像中网络决策相关区域的图形分析,医学影像系统(PACS)输出这些结果可以显著提高其临床接受度。
在一些实施例中,需要考虑层级相关性传播。层级相关性传播(LRP)可以用来计算卷积神经网络决策的体素分解,因此,它可以用来为卷积神经网络提供可解释性。相关性从网络输出端逐层向后传播,直至到达输入层。其结果相当于一个相关性映射,它为每个输入值在输出类上提供一个相关性值。在我们的映射中,正相关值表示与腹主动脉瘤类别的相关性,而负相关值表示与腹主动脉瘤类别无相关性。我们通过它们的总和,对映射进行标准化处理。
在一些实施例中,实现了全自动化筛选,为了实现筛选算法的全自动应用,采用了一种腹部图像区域的自动提取方法。基本算法首先分析在软组织HU值范围内沿z轴的HU分布,以确定腹部的上下边界。然后根据高HU值的分布来确定腹部中心,对应于髋骨顶部和下肋骨之间的区域。然后在腹部中心提取一个子集,并将其输入网络进行分类。
在设计和训练了卷积神经网络后,对设计的网络进行测试,获得了97.93%的总准确率。本申请提出的分类器的总灵敏度、精度和准确率分别为97.93%、97.94%和97.93%,所获得的主动脉区域检测准确率为98.62%,且不受主动脉大小的影响。
通过网络比较、LRP图、最佳网络的重复训练、对附加数据集的验证等实验,证明3DResNet在腹部CT扫描的全自动腹主动脉瘤检测中表现出高性能和鲁棒性。该网络在验证数据集上的AUC为0.971,准确率为0.953。这些结果显示,3D ResNet适合用于临床筛选。
金属干扰已被证明会对卷积神经网络的性能产生负面影响,但在本方法中,即使存在这些伪影,该算法的精度仍然很高,这很可能是因为在训练数据集中包含了这些伪影,以及在训练过程中对数据增强的改进。
此外,尽管只使用了一个小数据集,但本算法可以在不同构造的、没有见过的第二数据集上实现更高的精度。
对于腹部外部和内部CT扫描混合数据集的额外验证,一方面引入了在不完全反映临床现实的数据集上进行验证的风险。外部数据包含较少的金属伪影,且腹主动脉瘤案例往往是比较简单的案例。
另一方面,纳入这些额外病例也增加了来自国际组群和不同制造商硬件的CT数据的可变性。这有助于理解算法在不同临床条件下的潜在性能,以及所提出的方法的可推广性,证明了该算法具有足够的鲁棒性,能够在由多个来源的异构数据组成的验证数据集上获得可靠的结果。
作为本实施例中的优选,所述输入所述图像补丁到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果,包括:采用五个指标来评估腹主动脉区域预测分类的质量,其中,所述预测分类包括:真阳性TP代表被正确识别为腹主动脉瘤的样本,真阴性TN代表被正确分类的非腹主动脉瘤样本,假阳性FP代表被错误分类为非腹主动脉瘤的腹主动脉瘤样本,假阴性FN代表被错误分类为腹主动脉瘤的非腹主动脉瘤样本。
具体实施时,采用五个指标来评估预测分类的质量。我们对四个二进制指标都使用0.5的鉴别阈值(DT)。它们有四个结果:真阳性(TP)代表被正确识别为腹主动脉瘤的样本,真阴性(TN)代表被正确分类的非腹主动脉瘤样本,假阳性(FP)代表被错误分类为非腹主动脉瘤的腹主动脉瘤样本,假阴性(FN)代表被错误分类为腹主动脉瘤的非腹主动脉瘤样本。
由此,计算出准确率(A)、精确度(P)、真阳性率(TPR)、假阳性率(FPR)和F1评分(F1)。将这些计算结果与网络上对于标签的预测进行比较。当二元分类器的区分阈值变化时,受试者工作特征(ROC)曲线绘制了TP和FP决策之间的比率,它基于网络和标签的预测概率来评估性能。曲线下面积(AUC)为分类器的性能提供了一个度量标准。
进一步地,对于评估所述腹主动脉对网络决策相关区域与预先确定的主动脉位置之间的一致性,其中,所述腹主动脉对网络决策的影响评分包括:1-主动脉无相关性、2-主动脉低相关性、3-主动脉中相关性、4-主动脉高相关性、5-主动脉非常高相关性。
具体实施时,为了评估相关性映射与主动脉的对应关系,我们使用李克特5分量表,该量表用于衡量算法的决策相关区域与人类放射学家确定的主动脉位置之间的一致性。在评估中,正相关值和负相关值是平等的。主动脉对网络决策的影响评分为:1(主动脉无相关性)、2(主动脉低相关性)、3(主动脉中相关性)、4(主动脉高相关性)、5(主动脉非常高相关性)。
作为本实施例中的优选,所述对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果,包括:
基于OpenCV库的霍夫圆检测算法,对所述腹主动脉区域的分类结果进行分割处理,测量分割处理结果,得到腹主动脉直径测量值。
作为本实施例中的优选,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果之后,还包括如果测量得到的直径小于24像素,输出以毫米为单位的准确直径以及第一腹主动脉瘤风险评估结果;如果测量得到的直径大于24像素而小于40像素,输出以毫米为单位的准确直径以及第二腹主动脉瘤风险评估结果;如果测量得到的直径超过40像素,输出以毫米为单位的准确直径以及第三腹主动脉瘤风险评估结果。
具体实施时,测量完主动脉直径后,将其分为以下几类:
如测量到的直径小于24像素,输出以毫米为单位的准确直径,并显示“无腹主动脉瘤风险”。
如测量的直径大于24像素而小于40像素,输出以毫米为单位的准确直径,并显示“有中度腹主动脉瘤危险”。
如测量的直径超过40像素,输出以毫米为单位的准确直径,并显示“有高腹主动脉瘤风险”。
采用霍夫圆检测算法在检测主动脉边缘和测量主动脉直径方面具有较高的灵敏度、精度和准确性(分别为98.41%、98.33%和98.41%)。
作为本实施例中的优选,获取CT或者CTA图像,并裁剪提取得到图像补丁,所述CT或者CTA图像中包括腹主动脉瘤数据,包括:获取所述CT或者CTA图像的并调整为预设大小的图像;通过预设大小的窗口对所述CT或者CTA图像进行扫描,从图像中裁剪得到图像补丁;提取所述图像补丁之后,将所述图像补丁划分至少包括如下之一的区域:腹部内区、主动脉、身体边界、骨骼。
具体实施时,从Marco Imaging diVision Lite软件中提取的补丁为jpg格式,大小为512×512,其捕获的视野(FOV)值为480。由于考虑到网络输入的大小为64×64,因此,提取的图像首先要将大小调整为384×384像素,使补丁构成更大的视野,然后通过扫描64×64窗口的CT或CTA图像,利用MATLAB代码从原始图像中裁剪,提取补丁。
提取补丁后,将其分为腹部内区、主动脉、身体边界、骨骼四类。为了提高数据集的质量,对所有补丁都使用MATLAB的中值滤波代码进行去噪。由于该训练方法为有监督的训练,将所有补丁都按照其对应的相关类别进行标记。标签0、1、2、3分别代表腹部内区、主动脉、身体边界、骨骼。
此外,为了避免对某一特定类别的过度训练,所有类别的补丁数量是相同的。在创建基本的LMDB文件(Caffe框架所需的数据集格式)之前,所有类别的补丁都被打乱了。有更多的数据集,就能有一个更好的训练网络,因此在训练阶段,使用镜像变换,训练数据集的数量就增加了一倍。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
根据本申请实施例,还提供了一种基于深度学习的腹主动脉瘤识别装置,如图3所示,该装置300包括:
获取模块310,用于获取CT或者CTA图像,裁剪提取得到图像补丁,所述CT或者CTA图像中包括腹主动脉瘤数据;
分类模块320,用于输入所述图像补丁到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果,所述预设图像分类模型为使用多组数据通过卷积神经网络训练得出的,多组数据中的每组数据均包括:腹主动脉瘤数据以及所述腹主动脉瘤数据对应的病灶区域标签;以及
分割测量模块330,用于对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果。
本申请实施例的所述获取模块310中首先需要训练一个预设图像分类模型,并且在识别时需要获取CT或者CTA图像。
具体而言,在训练时输入CT或CTA图像,获取腹主动脉瘤数据,并将其调整为384×384大小的图像。用64×64大小的窗口,对CT或CTA图像进行扫描,以可调整的步率从图像中裁剪补丁。
本申请实施例的所述分类模块320中可以理解,卷积神经网络(CNN)是一种著名的深度学习架构,其灵感来源于生物的自然视觉感知机制。一个基本的卷积神经网络由三种类型的层组成,即卷积层、池化层和全连接层。卷积神经网络是最重要的深度学习算法之一,它的多层结构可以用一种强大的方法进行训练。由于卷积神经网络具有很强的特征提取能力,因此其多用于图像处理项目中。卷积神经网络需要通过两个步骤来训练:(1)前馈(Feed Forward),(2)反向传播(Backpropagation)。首先,网络通过卷积的过程来学习特征,并利用损失函数计算网络误差;其次,借助反向传播算法中的链式法则,使得到的误差最小化。重复这两个步骤,直到网络误差达到最小。
通过将所述图像补丁输入到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果。
所述预设图像分类模型即通过多组数据通过卷积神经网络训练得出的。
还包括对多组数据中的每组数据作为训练集进行训练,所述每组数据中包括腹主动脉瘤数据以及所述腹主动脉瘤数据对应的病灶区域标签,即包括腹主动脉瘤数据(区域)以及对应区域的标签。
本申请实施例的所述分割测量模块330中对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果。
霍夫变换(The Hough transform)是一种通过利用曲线上的点和该曲线上的参数之间的二元性来检测曲线的方法。霍夫圆检测算法和广义霍夫变换可以用于检测图像中的任意形状。
通过上述方式对对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值,并可根据腹主动脉直径测量值进一步判断识别出严重程度。
在一种具体实施方式中,可以理解,需要满足的前置条件是指所述第一注册用户为主叫用户端,所述第二注册用户为被叫用户端。
在一种优选实施方式中,所述第一注册用户通过所述第一终端预先安装所述即时通讯类社交应用程序,所第二注册用户通过所述第二终端预先安装所述即时通讯类社交应用程序。才能够保证被叫用户端与主叫用户端之间的通信前提。
显然,本领域的技术人员应该明白,上述的本申请的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本申请不限制于任何特定的硬件和软件结合。
为了更好的理解上述基于深度学习的腹主动脉瘤识别方法流程,以下结合优选实施例对上述技术方案进行解释说明,但不用于限定本发明实施例的技术方案。
本申请实施例中的基于深度学习的腹主动脉瘤识别方法,采用卷积神经网络作为分类器检测主动脉区域,并采用霍夫圆检测算法测量主动脉直径。用固定的学习策略同时减少层数和学习率,并且各指标拥有了最先进的结果,提高了检测的准确性。算法利用目前最先进的检测结果,成功地对腹主动脉瘤进行了检测和分类,可以用于临床,提高诊断效率。
此外,高精确度的全自动算法,减少人工误差,避免误诊,大大缩短诊断时间,提高了诊断准确度。将这种对腹主动脉瘤的深度学习筛查整合到日常工作流程中,可以优化患者监测、早期诊断,改善患者治疗,并可能降低破裂风险。
如图4所示,是本申请实施例中基于深度学习的腹主动脉瘤识别方法的流程示意图,实现的具体过程包括如下步骤:
步骤S410,输入CT或CTA图像,对CT或CTA图像进行扫描,以可调整的步率从图像中裁剪补丁。
输入CT或CTA图像,获取腹主动脉瘤数据,并将其调整为384×384大小的图像。用64×64大小的窗口,对CT或CTA图像进行扫描,以可调整的步率从图像中裁剪补丁。提取补丁后,将其分为腹部内区、主动脉、身体边界、骨骼四类。
步骤S420,使用卷积神经网络分类器对提取的补丁进行分类,并确定主动脉区域。
通过设计卷积神经网络、并确定采用3D ResNet卷积神经网络进行训练,实现对提取的补丁进行分类,并确定主动脉区域。
步骤S430,通过霍夫圆检测算法,对主动脉进行分割,并测量其直径。
使用了OpenCV库的霍夫圆检测算法,该算法是在BSD许可下开发的,通过对算法参数进行一些修改,来精准确定主动脉边界,并测量其直径。
步骤S440,根据主动脉直径,确定疾病的严重程度。
如果测量得到的直径小于24像素,输出以毫米为单位的准确直径以及第一腹主动脉瘤风险评估结果;
如果测量得到的直径大于24像素而小于40像素,输出以毫米为单位的准确直径以及第二腹主动脉瘤风险评估结果;
如果测量得到的直径超过40像素,输出以毫米为单位的准确直径以及第三腹主动脉瘤风险评估结果。
本申请实施例中的方法是一种易于训练的全自动深度学习三维腹主动脉瘤分割和识别算法,该算法可以作为临床工作流程的背景程序运行,具有鲁棒性、可靠性、高精确度、全自动化的特性。
本申请的实施例还提供了一种存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取CT或者CTA图像,裁剪提取得到图像补丁,所述CT或者CTA图像中包括腹主动脉瘤数据;
S2,输入所述图像补丁到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果,所述预设图像分类模型为使用多组数据通过卷积神经网络训练得出的,多组数据中的每组数据均包括:腹主动脉瘤数据以及所述腹主动脉瘤数据对应的病灶区域标签;以及
S3,对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果。
可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
本申请的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
可选地,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,获取CT或者CTA图像,裁剪提取得到图像补丁,所述CT或者CTA图像中包括腹主动脉瘤数据;
S2,输入所述图像补丁到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果,所述预设图像分类模型为使用多组数据通过卷积神经网络训练得出的,多组数据中的每组数据均包括:腹主动脉瘤数据以及所述腹主动脉瘤数据对应的病灶区域标签;以及
S3,对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果。
可选地,本实施例中的具体示例可以参考上述实施例及可选实施方式中所描述的示例,本实施例在此不再赘述。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种基于深度学习的腹主动脉瘤识别方法,其特征在于,所述方法包括:
获取CT或者CTA图像,裁剪提取得到图像补丁,所述CT或者CTA图像中包括腹主动脉瘤数据;
输入所述图像补丁到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果,所述预设图像分类模型为使用多组数据通过卷积神经网络训练得出的,多组数据中的每组数据均包括:腹主动脉瘤数据以及所述腹主动脉瘤数据对应的病灶区域标签;以及
对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果。
2.根据权利要求1所述方法,其特征在于,所述预设图像分类模型包括:卷积神经网络结构,所述卷积神经网络结构至少包括:
一个数据层作为输入,三个卷积层用于特征提取,五个RELU层作为激活函数层,一个池化层用于降低网络参数,两个全连接层,一个舍弃层,一个精度层用于计算训练和验证数据集精度,以及一个损失层以计算训练阶段的数据丢失。
3.根据权利要求2所述方法,其特征在于,所述预设图像分类模型还包括:3DResNet卷积神经网络,用于对所述图像补丁进行不同腹部区域三维分类,
对于三维分类数据训练集,将每次扫描结果分为无腹主动脉瘤级或者腹主动脉瘤级;
在每次扫描中,都以主动脉的颅内左肾动脉开端的轴向位置为定位点,之后在训练中使用该定位点自动提取标准化大小的亚体积;
或者,
对于三维分类数据训练集,使用分层的五倍交叉验证法。
4.根据权利要求2所述方法,其特征在于,所述输入所述图像补丁到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果,包括:
采用五个指标来评估腹主动脉区域预测分类的质量,其中,所述预测分类包括:真阳性TP代表被正确识别为腹主动脉瘤的样本,真阴性TN代表被正确分类的非腹主动脉瘤样本,假阳性FP代表被错误分类为非腹主动脉瘤的腹主动脉瘤样本,假阴性FN代表被错误分类为腹主动脉瘤的非腹主动脉瘤样本;
评估所述腹主动脉对网络决策相关区域与预先确定的主动脉位置之间的一致性,其中,所述腹主动脉对网络决策的影响评分包括:1-主动脉无相关性、2-主动脉低相关性、3-主动脉中相关性、4-主动脉高相关性、5-主动脉非常高相关性。
5.根据权利要求1所述方法,其特征在于,所述对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果,包括:
基于OpenCV库的霍夫圆检测算法,对所述腹主动脉区域的分类结果进行分割处理,
测量分割处理结果,得到腹主动脉直径测量值。
6.根据权利要求5所述方法,其特征在于,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果之后,还包括
如果测量得到的直径小于24像素,输出以毫米为单位的准确直径以及第一腹主动脉瘤风险评估结果;
如果测量得到的直径大于24像素而小于40像素,输出以毫米为单位的准确直径以及第二腹主动脉瘤风险评估结果;
如果测量得到的直径超过40像素,输出以毫米为单位的准确直径以及第三腹主动脉瘤风险评估结果。
7.根据权利要求1所述方法,其特征在于,获取CT或者CTA图像,并裁剪提取得到图像补丁,所述CT或者CTA图像中包括腹主动脉瘤数据,包括:
获取所述CT或者CTA图像的并调整为预设大小的图像;
通过预设大小的窗口对所述CT或者CTA图像进行扫描,从图像中裁剪得到图像补丁;
提取所述图像补丁之后,将所述图像补丁划分至少包括如下之一的区域:腹部内区、主动脉、身体边界、骨骼。
8.一种基于深度学习的腹主动脉瘤识别装置,其特征在于,所述装置包括:
获取模块,用于获取CT或者CTA图像,裁剪提取得到图像补丁,所述CT或者CTA图像中包括腹主动脉瘤数据;
分类模块,用于输入所述图像补丁到预设图像分类模型,得到所述图像补丁中腹主动脉区域的分类结果,所述预设图像分类模型为使用多组数据通过卷积神经网络训练得出的,多组数据中的每组数据均包括:腹主动脉瘤数据以及所述腹主动脉瘤数据对应的病灶区域标签;以及
分割测量模块,用于对所述腹主动脉区域的分类结果进行分割处理,得到腹主动脉直径测量值以作为腹主动脉瘤识别结果。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至7任一项所述的方法。
10.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行所述权利要求1至7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211147064.5A CN115496719A (zh) | 2022-09-20 | 2022-09-20 | 基于深度学习的腹主动脉瘤识别方法及装置、存储介质、电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211147064.5A CN115496719A (zh) | 2022-09-20 | 2022-09-20 | 基于深度学习的腹主动脉瘤识别方法及装置、存储介质、电子装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115496719A true CN115496719A (zh) | 2022-12-20 |
Family
ID=84469639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211147064.5A Pending CN115496719A (zh) | 2022-09-20 | 2022-09-20 | 基于深度学习的腹主动脉瘤识别方法及装置、存储介质、电子装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115496719A (zh) |
-
2022
- 2022-09-20 CN CN202211147064.5A patent/CN115496719A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108573490B (zh) | 一种针对肿瘤影像数据的智能读片系统 | |
CN110197493B (zh) | 眼底图像血管分割方法 | |
US20220284584A1 (en) | Computerised tomography image processing | |
Xu et al. | DeepLN: a framework for automatic lung nodule detection using multi-resolution CT screening images | |
US11521318B2 (en) | Method, apparatus and computer-readable medium for providing urinary stone information | |
CN113066061B (zh) | 一种基于mra的动脉瘤检测方法、系统、终端及介质 | |
CN110796613A (zh) | 一种图像伪影的自动识别方法及装置 | |
CN112052896B (zh) | 图像处理方法及装置,分类模型的训练方法及装置 | |
CN109919254B (zh) | 乳腺密度分类方法、系统、可读存储介质和计算机设备 | |
CN110838114B (zh) | 肺结节检测方法、装置及计算机存储介质 | |
CN116681958B (zh) | 基于机器学习的胎儿肺脏超声影像成熟度预测方法 | |
CN112614133B (zh) | 一种无锚点框的三维肺结节检测模型训练方法及装置 | |
WO2022110525A1 (zh) | 一种癌变区域综合检测装置及方法 | |
WO2023186133A1 (zh) | 一种用于穿刺路径规划的系统及方法 | |
Maiora et al. | Abdominal CTA image analisys through active learning and decision random forests: Aplication to AAA segmentation | |
CN112862756A (zh) | 识别甲状腺肿瘤病理图像中病变类型及基因突变的方法 | |
EP4118617A1 (en) | Automated detection of tumors based on image processing | |
Kolli et al. | Efficient development of supervised learning algorithm for kidney stone prediction | |
US20240127433A1 (en) | Methods and related aspects for classifying lesions in medical images | |
Sha et al. | The improved faster-RCNN for spinal fracture lesions detection | |
CN115496719A (zh) | 基于深度学习的腹主动脉瘤识别方法及装置、存储介质、电子装置 | |
CN115546123A (zh) | 基于机器学习的腹主动脉瘤破裂风险的预测系统 | |
CN112862786B (zh) | Cta影像数据处理方法、装置及存储介质 | |
CN112862785B (zh) | Cta影像数据识别方法、装置及存储介质 | |
Hicham et al. | Assessing the Performance of Deep Learning Models for Colon Polyp Classification using Computed Tomography Scans |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |