CN116863257A - 基于深度学习的ct图像上纵膈病灶的检测方法及系统 - Google Patents
基于深度学习的ct图像上纵膈病灶的检测方法及系统 Download PDFInfo
- Publication number
- CN116863257A CN116863257A CN202310966999.4A CN202310966999A CN116863257A CN 116863257 A CN116863257 A CN 116863257A CN 202310966999 A CN202310966999 A CN 202310966999A CN 116863257 A CN116863257 A CN 116863257A
- Authority
- CN
- China
- Prior art keywords
- deep learning
- training
- self
- model
- attention mechanism
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 77
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000012549 training Methods 0.000 claims abstract description 107
- 238000012795 verification Methods 0.000 claims abstract description 35
- 238000007781 pre-processing Methods 0.000 claims abstract description 20
- 238000010200 validation analysis Methods 0.000 claims abstract description 10
- 230000007246 mechanism Effects 0.000 claims description 54
- 230000003902 lesion Effects 0.000 claims description 45
- 238000001514 detection method Methods 0.000 claims description 22
- 238000011156 evaluation Methods 0.000 claims description 10
- 230000035945 sensitivity Effects 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 230000002401 inhibitory effect Effects 0.000 claims description 3
- 238000002203 pretreatment Methods 0.000 claims 1
- 210000001370 mediastinum Anatomy 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 4
- 230000001613 neoplastic effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013526 transfer learning Methods 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 210000000038 chest Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000002685 pulmonary effect Effects 0.000 description 2
- 206010025323 Lymphomas Diseases 0.000 description 1
- 208000003898 Mediastinal Emphysema Diseases 0.000 description 1
- 206010033963 Parathyroid tumour Diseases 0.000 description 1
- 206010050184 Pneumomediastinum Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003238 esophagus Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 210000002216 heart Anatomy 0.000 description 1
- 230000002757 inflammatory effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 230000003211 malignant effect Effects 0.000 description 1
- 206010061289 metastatic neoplasm Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001272 neurogenic effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 210000003281 pleural cavity Anatomy 0.000 description 1
- 201000003144 pneumothorax Diseases 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 208000037920 primary disease Diseases 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 210000001562 sternum Anatomy 0.000 description 1
- 210000000115 thoracic cavity Anatomy 0.000 description 1
- 208000008732 thymoma Diseases 0.000 description 1
- 210000001541 thymus gland Anatomy 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 210000003437 trachea Anatomy 0.000 description 1
- 201000008827 tuberculosis Diseases 0.000 description 1
- 208000017997 tumor of parathyroid gland Diseases 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度学习的CT图像上纵膈病灶的检测方法及系统,涉及医疗影像智能识别领域。方法包括以下步骤:S1、数据获取及预处理步骤;S2、模型构建步骤;S3、模型训练步骤;S4、模型验证步骤;通过应用DeepLesion数据集进行模型预训练及应用MICCAI2022MELA Challenge数据集进行模型训练和验证。本发明为CT图像上的纵膈病灶检测提供了一种有效的算法,有望大幅减少放射科医生的工作量,提高放射科医生的表现,并缩短报告时间。
Description
技术领域
本发明属于医疗影像智能识别技术领域,具体涉及一种基于深度学习的CT图像上纵膈病灶的检测方法及系统。
背景技术
纵膈位于两侧胸膜腔与肺之间的胸腔内,前方为胸骨,后方为脊柱,由胸廓入口向下延伸至横膈膜,包含许多重要的解剖结构。纵膈病灶是指发生在纵膈区域的各种良恶性肿瘤或炎性病变,它们在CT图像上的检测对于临床诊断和治疗具有重要意义。纵膈病变的诊断对所有肺科医生、放射科医生和病理科医生来说都是一项具有挑战性的任务,因为众多非肿瘤性和肿瘤性、良性和恶性、原发性和转移性疾病都可能在这个部位出现肿块病变。巨大的工作负担阻碍了及时诊断,干扰了临床工作流程,增加了误诊率。近年来,人工智能(Artificial Intelligence,AI)技术已被广泛应用于胸片解读。许多人工智能算法在特定任务的分析中表现出良好的性能,包括检测肺部结节/肿块、气胸和肺结核。这些算法可以提高放射科医生的诊断效率,减少放射科医生的工作负担,促进及时诊断。但是到目前为止,基于人工智能的纵膈病灶检测算法仍然缺乏。纵膈病灶在CT图像上的检测是一项具有挑战性的任务,主要有以下几个困难:(1)纵膈区域的解剖结构复杂,包括了多个器官和组织,如气管、食管、心脏、大血管、胸腺等,这些结构在CT图像上的形态和密度与病灶相似或重叠,导致难以区分。(2)纵膈病灶的形态和大小多样,有些病灶呈圆形或椭圆形,有些呈分叶状或不规则形,有些病灶较大,占据了整个纵膈空间,有些病灶较小,仅占据了一小部分空间。(3)纵膈病灶的类型多种多样,包括了肿瘤性和非肿瘤性的病变,如淋巴瘤、胸腺瘤、神经源性肿瘤、甲状旁腺肿瘤、结核性纵隔淋巴结肿大、纵隔气肿等,这些类型的病变在CT图像上的表现有时相似,有时不同。
因此,提出一种基于深度学习的CT图像上纵膈病灶的检测方法及系统,来解决现有技术存在的困难,是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明为了解决这些困难,提出了一种基于自注意力机制的深度学习算法,用于检测CT图像上的纵膈病灶可以让模型学习到不同位置之间的依赖关系,从而提取出更丰富和更具辨别力的特征,同时考虑了全局和局部的上下文信息,通过将不同层次和不同分辨率的特征进行融合,可以提高模型对于不同大小和形态的病灶的适应性。
为了实现上述目的,本发明采用如下技术方案:
S1、数据获取及预处理步骤:获取多个CT图像,将多个CT图像划分为预训练数据集、训练集和验证集,并对预训练数据集、训练集和验证集进行预处理得到预处理后的预训练数据集、预处理后的训练集和预处理后的验证集;
S2、模型构建步骤:构建基于自注意力机制的深度学习网络模型;
S3、模型训练步骤:将S1中预处理后的预训练数据集输入至S2中构建的基于自注意力机制的深度学习网络模型中进行预训练,得到预训练后的基于自注意力机制的深度学习网络模型,进而将预处理后的训练集输入至预训练后的于自注意力机制的深度学习网络模型中进行训练,得到训练好的基于自注意力机制的深度学习网络模型;
S4、模型验证步骤:将S1中预处理后的验证集输入至S3中训练好的基于自注意力机制的深度学习网络模型,根据模型评价指标对训练好的基于自注意力机制的深度学习网络模型进行验证,得到最优基于自注意力机制的深度学习网络模型。
上述的方法,可选的,S1中来自NIH DeepLesion数据集的CT图像作为预训练数据集;来自MICCAI 2022 MELA Challenge数据集的CT图像作为训练集和验证集,其中按照8:2的比例划分训练集和测试集。
上述的方法,可选的,S1中预处理的方式包括:在原始图像和相应的标签boundingbox中分别采用三线法和最近采样法将其统一为2毫米;进行缩放和归一化;进行数据增强,包括但不限于水平和垂直翻转方式。
上述的方法,可选的,S2基于自注意力机制的深度学习网络模型由依次连接的特征融合模块、注意力模块、检测头模块。
上述的方法,可选的,特征融合模块:对前3层特征图进行下采样,其中第一层为输入数据,设置步长为2对每层特征图进行卷积操作,后两层特征图为上一层特征图的上采样与其浅层对应特征图1x1卷积后的和。
上述的方法,可选的,注意力模块:捕捉全局的像素,在主干网络的聚合特征中获得指示信息,通过特征图对具有相同权重的像素点进行聚集,对具有不同归属的像素点进行抑制;将输入特征图Z生成三个向量Q、K和V,其中,Q、K、V分别代表高度、宽度和通道特征;
A=softma(Q′×K′) (1)
Y=Z+Conv1×1(V′×A) (3)
式中,pmn为每个像素在空间相似矩阵中的值,hm为高度特征向量,wn为宽度特征向量,Y为最后的输出特征图,A为注意力分数矩阵。
上述的方法,可选的,检测头模块:将多个boxes通过PGN(Proposals GenerationNetwork)网络得出每个boxes的得分,按照得分从高到低进行排序,经过ROI feature网络进行特征处理,后经过分类头和回过头计算出分类得分和回归得分。
上述的方法,可选的,S3中训练终止判断条件:
式中t为训练迭代轮次,DSCt为第t轮迭代模型在验证集的DSC值。
上述的方法,可选的,S4中模型评价指标包括:平均精度、置信度分数、灵敏度和假阳性。
一种基于深度学习的CT图像上纵膈病灶的检测系统,应用上述任一项的基于深度学习的CT图像上纵膈病灶的检测方法,包括依次连接的数据获取及预处理单元、模型构建单元、模型训练单元、模型验证单元;
数据获取及预处理单元,获取多个CT图像,将多个CT图像划分为预训练数据集、训练集和验证集,并对预训练数据集、训练集和验证集进行预处理得到预处理后的预训练数据集、预处理后的训练集和预处理后的验证集;
模型构建单元,用于构建基于自注意力机制的深度学习网络模型;
模型训练单元,将数据获取及预处理单元中预处理后的预训练数据集输入至模型构建单元中构建的基于自注意力机制的深度学习网络模型中进行预训练,得到预训练后的基于自注意力机制的深度学习网络模型,进而将预处理后的训练集输入至预训练后的于自注意力机制的深度学习网络模型中进行训练,得到训练好的基于自注意力机制的深度学习网络模型;
模型验证单元,将数据获取及预处理单元中预处理后的验证集输入至模型训练单元中训练好的基于自注意力机制的深度学习网络模型,根据模型评价指标对训练好的基于自注意力机制的深度学习网络模型进行验证,得到最优基于自注意力机制的深度学习网络模型。
经由上述的技术方案可知,与现有技术相比,本发明提供了一种基于深度学习的CT图像上纵膈病灶的检测方法及系统,具有以下有益效果:
该算法在平均精度、置信度分数、灵敏度和假阳性方面都表现出了较高的水平,能够准确地检测出不同大小和形态的纵膈病灶,并且能够区分出不同类型的病灶,提高模型对于不同大小和形态的病灶的适应性;有望大幅减少放射科医生的工作量,提高放射科医生的表现,并缩短报告时间。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其它的附图。
图1为本发明公开的基于深度学习的CT图像上纵膈病灶的检测方法流程图;
图2为本发明公开的后两层特征图卷积后求和的计算方法图;
图3(A)为本发明公开的DeepLesion数据集上预训练阶段损失值与平均精确率变化曲线图;
图3(B)为MICCAI 2022MELA challenge数据集训练阶段损失值与平均精确率变化曲线图;
图4为本发明公开的CT影像的检测结果与真实标签图,其中,4A为真阳性预测图像,4B为假阳性预测图像;
图5为本发明公开的基于深度学习的CT图像上纵膈病灶的检测方法的网络模型图;
图6为本发明公开的基于深度学习的CT图像上纵膈病灶的检测系统的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在本申请中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序,术语“包括”、“包含”或者其任何其它变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且包括没有明确列出的其它要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本发明使用了PyTorch框架来实现所提出的算法,并在两台配备了GeForce RTX2080Ti GPU显卡的服务器上进行训练和测试。本发明首先在DeepLesion数据集上开发了预训练模型,然后在训练集上通过迁移学习的方式对模型进行微调。在训练过程中,模型的学习率初始设置为0.001,每20个周期衰减0.1,小批量大小为16,损失函数为DSC。在训练过程中使用了早停法和模型保存法来防止过拟合和选择最佳模型。
参照图1所示,本发明公开了一种基于深度学习的CT图像上纵膈病灶的检测方法,包括以下步骤:
S1、数据获取及预处理步骤:获取多个CT图像,将多个CT图像划分为预训练数据集、训练集和验证集,并对预训练数据集、训练集和验证集进行预处理得到预处理后的预训练数据集、预处理后的训练集和预处理后的验证集;
S2、模型构建步骤:构建基于自注意力机制的深度学习网络模型;
S3、模型训练步骤:将S1中预处理后的预训练数据集输入至S2中构建的基于自注意力机制的深度学习网络模型中进行预训练,得到预训练后的基于自注意力机制的深度学习网络模型,进而将预处理后的训练集输入至预训练后的于自注意力机制的深度学习网络模型中进行训练,得到训练好的基于自注意力机制的深度学习网络模型;
S4、模型验证步骤:将S1中预处理后的验证集输入至S3中训练好的基于自注意力机制的深度学习网络模型,根据模型评价指标对训练好的基于自注意力机制的深度学习网络模型进行验证,得到最优基于自注意力机制的深度学习网络模型。
进一步的,S1中来自NIH DeepLesion数据集的CT图像作为预训练数据集;来自MICCAI 2022MELA Challenge数据集的CT图像作为训练集和验证集,其中按照8:2的比例划分训练集和测试集。
具体的,本研究收集了两个单独的大规模开放数据集,分别是NIH DeepLesion数据集作为预训练模型的数据,和MICCAI 2022MELA Challenge数据集作为训练和验证阶段的数据。NIH DeepLesion数据集包含了来自4,427名患者的10,594张异常CT图像,这些图像是在近二十年内在美国国立卫生研究院临床中心的影像存档和通信系统(PictureArchiving and Communication Systems,PACS)系统中拍摄的。其中只有921张包含纵隔病灶的异常CT图像被纳入预训练集。对于训练和验证,本研究从MICCAI Challenge数据集中收集了880张异常CT图像,这些图像是在2009年至2020年间在一家三甲级综合医院(上海市肺科医院)拍摄的。
进一步的,可选的,S1中预处理的方式包括:在原始图像和相应的标签boundingbox中分别采用三线法和最近采样法将其统一为2毫米;进行缩放和归一化;进行数据增强,包括但不限于水平和垂直翻转方式。
具体的,考虑到内存限制和上下文信息之间的权衡,神经网络接收的三维图像只包括关键切片和Z轴上向前和向后方向的一个扩展切片,以构建固定尺寸为3×512×512图像。此外,每张三维图像都通过min-max方法进行归一化以加快收敛速度。
进一步的,S2中基于自注意力机制的深度学习网络模型由依次连接的特征融合模块、注意力模块、检测头模块。
进一步的,特征融合模块:如图2所示,前3层特征图,第一层为输入数据,进行下采样,设置步长为2对每层特征图进行卷积操作,后两层特征图为上一层特征图的上采样与其浅层对应特征图1x1卷积后的和。
具体的,通过上采样可以保证下一层进行特征图相加时的矩阵尺寸一致。上采样的方式采用最近邻值插值法,具体可以理解为特征图中的每个点都在长宽反向都x2,即一个像素点变成值相同的4个像素点。这种方式可以在上采样的过程中最大程度地保留特征图的语义信息。侧边连接用于将浅层特征引入深层特征,使深层特征图同样包含浅层的语音信息并提高收敛速度和网络性能。
进一步的,注意力模块:捕捉全局的像素,在主干网络的聚合特征中获得指示信息,通过特征图对具有相同权重的像素点进行聚集,对具有不同归属的像素点进行抑制;将输入特征图Z生成三个向量Q、K和V,其中,Q、K、V分别代表高度、宽度和通道特征;
A=softma(Q′×K) (1)
Y=Z+Conv1×1(′V×A) (3)
式中,pmn为每个像素在空间相似矩阵中的值,hm为高度特征向量,wn为宽度特征向量,Y为最后的输出特征图,A为注意力分数矩阵。
进一步的,检测头模块:将多个boxes通过PGN(Proposals Generation Network)网络得出每个boxes的得分,按照得分从高到低进行排序,经过ROI feature网络进行特征处理,后经过分类头和回过头计算出分类得分和回归得分。
具体的,分类和回归头分别预测检测到的病变的得分(即置信度得分)和位置,由网络中最后一层(即全连接层)计算,并进一步使用Softmax函数对置信度得分进行归一化处理,如下所示
式中,zf是全连接层的输出值,C是类别数。
具体的,以特征图上这个点为中心,设定15个锚,锚的大小和比例被设定为(16,24,32,48,96)和(1:2,1:1,2:1)。对应特征图上的每个点,为在这个点上生成的15个boxes(所有anchorboxes的中心点坐标是一样的)。一个m*n的特征图就有m*n*k个boxes。取前c个boxes作为候选boxes,也称作ROI(Region ofinterest)传入ROI pooling中,ROIPooling的处理过程是将一个个大小不同的box矩形框,都映射成大小为固定大小的矩形框。
上述的方法,可选的,S3中训练终止判断条件:
式中t为训练迭代轮次,DSCt为第t轮迭代模型在验证集的DSC值。
本发明采用水平和垂直翻转的方式进行数据增强,实现具有更好性能的网络,首先在DeepLesion数据集上开发了预训练模型,然后在训练集上使用迁移学习对其进行微调。训练时,模型的学习率最初设定为0.001,每20轮迭代的衰减率为0.1,批次大小(batchsize)为16,迭代次数500次。模型训练过程的评价指标是Dice值(DSC),其计算方法如下:
DSC(A,B)=2|A∩B|/(|A|+|B|) (6)
式中A为原始分割图像,B为模型预测的分割图像。|A∩B|的计算方式为两个图像的点乘,|A|和|B|的计算即为元素相加求和。
因此,病灶检测的损失函数定义如下:
Loss=1-DSC(A,B) (7)
上述的方法,可选的,S4中模型评价指标包括:平均精度、置信度分数、灵敏度和假阳性。
具体的,本发明使用了MICCAI 2022MELA Challenge数据集的验证集来评估模型的性能,精确度作为目标检测的标准指标也被应用在本文中:
Precision=TP/(TP+FP) (8)
式中TP为真阳性,FP为假阳性,TP和FP分别代表正确预测的阳性和不正确预测的阳性。为了定量地对每张图像的多个病灶进行评估,定义了由不同阈值计算的几个假阳性(FP)的平均灵敏度(average sensitivity,AS)。在本研究中,我们只评估了六个FP值的AS:0.25、0.5、1、2、3、4,考虑到有一个病变的图像占数据的大部分的情况。灵敏度的定义如下:
Sensitivity=TP/(TP+FN) (9)
式中FN为假阴性,表示不正确预测的阴性。
在DeepLesion数据集的预训练阶段,当迭代到大约250个epochs时,模型处于理想的训练状态,在纵膈病灶检测中取得了82.2%的平均精确度(AP)分数,之后逐渐进入过拟合阶段。在MICCAI 2022MELA挑战数据集的训练阶段,该模型收敛速度快,效果好,只用了约100个epochs,训练和验证损失较少,而且所提出的模型在纵膈病灶检测中取得了89.3%的AP分数。图3(A)所示为DeepLesion数据集上预训练阶段损失值与平均精确率变化曲线图,蓝色曲线为训练集损失值变化曲线,红色曲线为测试集损失值变化曲线,绿色曲线为测试集平均精确率变化曲线。图3(B)所示为MICCAI 2022MELA challenge数据集训练阶段损失值与平均精确率变化曲线图,蓝色曲线为训练集损失值变化曲线,红色曲线为测试集损失值变化曲线,绿色曲线为测试集平均精确率变化曲线。
如图4所示,如图4A所示为真阳性预测图像(第一行是DeepLesion数据集的结果,第二行是MICCAI 2022MELA数据集的结果)。绿框和红框分别对应真实标签和真阳性预测结果,红色的数字是病灶检测的置信分数。如图4B所示为假阳性预测图像(第一行是DeepLesion数据集的结果,第二行是MICCAI 2022MELA数据集的结果)。绿色和红色方框分别对应真实标签和真阳性预测结果,黄色方框对应假阳性结果。此外,交并比(intersection-over-union,IoU)的阈值被设定为0.5,这意味着预测区域和相应的GTs之间的重叠面积>0.5被视为TPs,使TPs的面积尽可能大。相比之下,有些病变很难被正确发现,要么是受与GTs相似的形状、位置和纹理的正常区域影响,要么是其面积极小,如图4B所示。
与图1所述的方法相对应,本发明实施例还提供了一种基于深度学习的CT图像上纵膈病灶的检测系统,用于对图1中方法的具体实现,本发明实施例提供的一种基于深度学习的CT图像上纵膈病灶的检测系统可以应用计算机终端或各种移动设备中,其结构示意图如图5所示,具体包括:依次连接的数据获取及预处理单元、模型构建单元、模型训练单元、模型验证单元;
数据获取及预处理单元,获取多个CT图像,将多个CT图像划分为预训练数据集、训练集和验证集,并对预训练数据集、训练集和验证集进行预处理得到预处理后的预训练数据集、预处理后的训练集和预处理后的验证集;
模型构建单元,用于构建基于自注意力机制的深度学习网络模型;
模型训练单元,将数据获取及预处理单元中预处理后的预训练数据集输入至模型构建单元中构建的基于自注意力机制的深度学习网络模型中进行预训练,得到预训练后的基于自注意力机制的深度学习网络模型,进而将预处理后的训练集输入至预训练后的于自注意力机制的深度学习网络模型中进行训练,得到训练好的基于自注意力机制的深度学习网络模型;
模型验证单元,将数据获取及预处理单元中预处理后的验证集输入至模型训练单元中训练好的基于自注意力机制的深度学习网络模型,根据模型评价指标对训练好的基于自注意力机制的深度学习网络模型进行验证,得到最优基于自注意力机制的深度学习网络模型。
本发明提出的基于自注意力机制的CT影像纵膈病灶检测方法在纵膈病变检测中取得了良好的性能(89.3%的精确度,>0.8的置信度)。具有两个关键优势:一是该模型先用DeepLesion数据集进行了预训练,然后用MICCAI 2022MELA挑战数据集通过迁移学习的方式进行了模型微调,这种方式可以有效的提升模型的性能;另一个优势是模型采用了通道感知注意力模块,有利于高精度地定位纵膈病灶。
本方法在检测大尺寸病灶方面取得了较高的置信度,大多数检测到的候选病灶具有相对强烈的对比度和清晰的边界。然而,本方法仍然出现了假阳性,这通常是由不规则和不明确的边界或相对较小的病灶引起的。在这种情况下,一个合适的阈值设置对于平衡敏感性和假阳性是很重要的。总之,本文提出基于自注意力机制的CT影像纵膈病灶检测方法在检测CT图像上的纵膈病变方面表现出优异的性能,有望在现实世界中大幅减少放射科医生的工作量。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其它实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.基于深度学习的CT图像上纵膈病灶的检测方法,其特征在于,包括以下步骤:
S1、数据获取及预处理步骤:获取多个CT图像,将多个CT图像划分为预训练数据集、训练集和验证集,并对预训练数据集、训练集和验证集进行预处理得到预处理后的预训练数据集、预处理后的训练集和预处理后的验证集;
S2、模型构建步骤:构建基于自注意力机制的深度学习网络模型;
S3、模型训练步骤:将S1中预处理后的预训练数据集输入至S2中构建的基于自注意力机制的深度学习网络模型中进行预训练,得到预训练后的基于自注意力机制的深度学习网络模型,进而将预处理后的训练集输入至预训练后的于自注意力机制的深度学习网络模型中进行训练,得到训练好的基于自注意力机制的深度学习网络模型;
S4、模型验证步骤:将S1中预处理后的验证集输入至S3中训练好的基于自注意力机制的深度学习网络模型,根据模型评价指标对训练好的基于自注意力机制的深度学习网络模型进行验证,得到最优基于自注意力机制的深度学习网络模型。
2.根据权利要求1所述的基于深度学习的CT图像上纵膈病灶的检测方法,其特征在于,
S1中来自NIH DeepLesion数据集的CT图像作为预训练数据集;来自MICCAI 2022MELAChallenge数据集的CT图像作为训练集和验证集,其中按照8:2的比例划分训练集和测试集。
3.根据权利要求1所述的基于深度学习的CT图像上纵膈病灶的检测方法,其特征在于,
S1中预处理的方式包括:在原始图像和相应的标签bounding box中分别采用三线法和最近采样法将其统一为2毫米;进行缩放和归一化;进行数据增强,包括但不限于水平和垂直翻转方式。
4.根据权利要求1所述的基于深度学习的CT图像上纵膈病灶的检测方法,其特征在于,
S2中基于自注意力机制的深度学习网络模型由依次连接的特征融合模块、注意力模块、检测头模块。
5.根据权利要求4所述的基于深度学习的CT图像上纵膈病灶的检测方法,其特征在于,
特征融合模块:对前3层特征图进行下采样,其中第一层为输入数据,设置步长为2对每层特征图进行卷积操作,后两层特征图为上一层特征图的上采样与其浅层对应特征图1x1卷积后的和。
6.根据权利要求4所述的基于深度学习的CT图像上纵膈病灶的检测方法,其特征在于,
注意力模块:捕捉全局的像素,在主干网络的聚合特征中获得指示信息,通过特征图对具有相同权重的像素点进行聚集,对具有不同归属的像素点进行抑制;将输入特征图Z生成三个向量Q、K和V,其中,Q、K、V分别代表高度、宽度和通道特征;
A=softma(Q′×K′) (1)
Y=Z+Conv1×1(V′×A) (3)
式中,pmn为每个像素在空间相似矩阵中的值,hm为高度特征向量,wn为宽度特征向量,Y为最后的输出特征图,A为注意力分数矩阵。
7.根据权利要求4所述的基于深度学习的CT图像上纵膈病灶的检测方法,其特征在于,
检测头模块:将多个boxes通过PGN网络得出每个boxes的得分,按照得分从高到低进行排序,经过ROI feature网络进行特征处理,后经过分类头和回过头计算出分类得分和回归得分。
8.根据权利要求1所述的基于深度学习的CT图像上纵膈病灶的检测方法,其特征在于,
S3中训练终止判断条件:
式中t为训练迭代轮次,DSCt为第t轮迭代模型在验证集的DSC值。
9.根据权利要求1所述的基于深度学习的CT图像上纵膈病灶的检测方法,其特征在于,
S4中模型评价指标包括但不限于平均精度、置信度分数、灵敏度和假阳性。
10.基于深度学习的CT图像上纵膈病灶的检测系统,其特征在于,执行权利要求1-9任一项所述的基于深度学习的CT图像上纵膈病灶的检测方法,包括依次连接的数据获取及预处理单元、模型构建单元、模型训练单元、模型验证单元;
数据获取及预处理单元,获取多个CT图像,将多个CT图像划分为预训练数据集、训练集和验证集,并对预训练数据集、训练集和验证集进行预处理得到预处理后的预训练数据集、预处理后的训练集和预处理后的验证集;
模型构建单元,用于构建基于自注意力机制的深度学习网络模型;
模型训练单元,将数据获取及预处理单元中预处理后的预训练数据集输入至模型构建单元中构建的基于自注意力机制的深度学习网络模型中进行预训练,得到预训练后的基于自注意力机制的深度学习网络模型,进而将预处理后的训练集输入至预训练后的于自注意力机制的深度学习网络模型中进行训练,得到训练好的基于自注意力机制的深度学习网络模型;
模型验证单元,将数据获取及预处理单元中预处理后的验证集输入至模型训练单元中训练好的基于自注意力机制的深度学习网络模型,根据模型评价指标对训练好的基于自注意力机制的深度学习网络模型进行验证,得到最优基于自注意力机制的深度学习网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310966999.4A CN116863257A (zh) | 2023-08-02 | 2023-08-02 | 基于深度学习的ct图像上纵膈病灶的检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310966999.4A CN116863257A (zh) | 2023-08-02 | 2023-08-02 | 基于深度学习的ct图像上纵膈病灶的检测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116863257A true CN116863257A (zh) | 2023-10-10 |
Family
ID=88223541
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310966999.4A Pending CN116863257A (zh) | 2023-08-02 | 2023-08-02 | 基于深度学习的ct图像上纵膈病灶的检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116863257A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458249A (zh) * | 2019-10-10 | 2019-11-15 | 点内(上海)生物科技有限公司 | 一种基于深度学习与概率影像组学的病灶分类系统 |
US20230076809A1 (en) * | 2021-08-20 | 2023-03-09 | University Of Iowa Research Foundation | Context-aware volumetric style transfer for estimating single volume surrogates of lung function |
CN116128819A (zh) * | 2022-12-22 | 2023-05-16 | 推想医疗科技股份有限公司 | 图像处理方法、模型训练方法和装置及电子设备 |
US20230177678A1 (en) * | 2021-11-03 | 2023-06-08 | Tata Consultancy Services Limited | Method and system for domain knowledge augmented multi-head attention based robust universal lesion detection |
CN116523840A (zh) * | 2023-03-30 | 2023-08-01 | 苏州大学 | 一种基于深度学习的肺部ct图像检测系统以及方法 |
-
2023
- 2023-08-02 CN CN202310966999.4A patent/CN116863257A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458249A (zh) * | 2019-10-10 | 2019-11-15 | 点内(上海)生物科技有限公司 | 一种基于深度学习与概率影像组学的病灶分类系统 |
US20230076809A1 (en) * | 2021-08-20 | 2023-03-09 | University Of Iowa Research Foundation | Context-aware volumetric style transfer for estimating single volume surrogates of lung function |
US20230177678A1 (en) * | 2021-11-03 | 2023-06-08 | Tata Consultancy Services Limited | Method and system for domain knowledge augmented multi-head attention based robust universal lesion detection |
CN116128819A (zh) * | 2022-12-22 | 2023-05-16 | 推想医疗科技股份有限公司 | 图像处理方法、模型训练方法和装置及电子设备 |
CN116523840A (zh) * | 2023-03-30 | 2023-08-01 | 苏州大学 | 一种基于深度学习的肺部ct图像检测系统以及方法 |
Non-Patent Citations (3)
Title |
---|
朱秀昌等: "《数字图像处理与图像通信 第3版》", 30 June 2014, 《北京邮电大学出版社》, pages: 161 - 164 * |
王日海: "《智能系统与技术丛书 深度学习嵌入式应用开发 基于RK3399Pro和RK3588》", 30 November 2022, 《机械工业出版社》, pages: 66 - 70 * |
黄潭玉等: "纵膈内淋巴瘤的CT诊断与鉴别研究", 《中国CT和MRI杂质》, 30 April 2017 (2017-04-30), pages 1 - 3 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109977955B (zh) | 一种基于深度学习的宫颈癌前病变识别的方法 | |
US11514579B2 (en) | Deformable capsules for object detection | |
US20230005140A1 (en) | Automated detection of tumors based on image processing | |
CN100566655C (zh) | 用于处理图像以确定图像特性或分析候补的方法 | |
Ashwin et al. | Efficient and reliable lung nodule detection using a neural network based computer aided diagnosis system | |
CN101111865A (zh) | 用于在心脏图像中分割左心室的系统和方法 | |
CN116681958B (zh) | 基于机器学习的胎儿肺脏超声影像成熟度预测方法 | |
US20210233240A1 (en) | Device and method for detecting clinically important objects in medical images with distance-based decision stratification | |
Zhao et al. | DSU-Net: Distraction-Sensitive U-Net for 3D lung tumor segmentation | |
Zhao et al. | D2a u-net: Automatic segmentation of covid-19 lesions from ct slices with dilated convolution and dual attention mechanism | |
CN112820399A (zh) | 自动诊断甲状腺结节良恶性的方法及装置 | |
Banerjee et al. | A CADe system for gliomas in brain MRI using convolutional neural networks | |
Yong et al. | Automatic ventricular nuclear magnetic resonance image processing with deep learning | |
Li et al. | Multi-view unet for automated gi tract segmentation | |
Kumari et al. | Data efficient deep learning for medical image analysis: A survey | |
CN116777893B (zh) | 一种基于乳腺超声横纵切面特征结节的分割与识别方法 | |
Yao et al. | PointNu-Net: Keypoint-Assisted Convolutional Neural Network for Simultaneous Multi-Tissue Histology Nuclei Segmentation and Classification | |
You et al. | A cGAN-based tumor segmentation method for breast ultrasound images | |
Liu et al. | 3D ARCNN: An asymmetric residual CNN for decreasing false positive rate of lung nodules detection | |
CN113139627B (zh) | 纵隔肿物识别方法、系统及装置 | |
CN113486930B (zh) | 基于改进RetinaNet的小肠淋巴瘤分割模型建立、分割方法及装置 | |
Zheng et al. | Improvement of grayscale image segmentation based on pso algorithm | |
CN116863257A (zh) | 基于深度学习的ct图像上纵膈病灶的检测方法及系统 | |
Ma et al. | Transformer dense center network for liver tumor detection | |
Wasi et al. | Kidney Tumor Recognition from Abdominal CT Images using Transfer Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |