CN110992338B - 一种原发灶转移辅助诊断系统 - Google Patents
一种原发灶转移辅助诊断系统 Download PDFInfo
- Publication number
- CN110992338B CN110992338B CN201911218598.0A CN201911218598A CN110992338B CN 110992338 B CN110992338 B CN 110992338B CN 201911218598 A CN201911218598 A CN 201911218598A CN 110992338 B CN110992338 B CN 110992338B
- Authority
- CN
- China
- Prior art keywords
- image
- primary focus
- lesion
- patient
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10104—Positron emission tomography [PET]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种原发灶转移辅助诊断系统,属于深度学习医学影像领域。包括:图像预处理模块,用于对病人的每张病变部位CT图像和对应PET图像进行融合,得到PET/CT融合图像序列;2D病变部位原发灶分割模块,用于基于训练好的2D VGG‑Unet检测模型,对每张待识别病人的PET/CT融合图像进行分割,得到2D病变部位原发灶分割图像序列;3D候选原发灶构建模块,用于根据待识别病人的2D病变部位原发灶分割图像序列,确定3D候选原发灶的3D重心坐标,根据该坐标从待识别病人的PET/CT融合图像序列上截取3D候选病变部位原发灶;3D病变部位原发灶转移分类模块,用于基于训练好的3D CNN分类模型,对待识别病人的3D候选病变部位原发灶进行二分类,得到病变部位原发灶是否转移的诊断结果。
Description
技术领域
本发明属于深度学习医学影像领域,更具体地,涉及一种原发灶转移辅助诊断系统。
背景技术
近年来,人工智能应用到医疗临床检测与诊断的各个环节中,特别在医学图像方面。但是,可公开获取的医学图像数据是非常有限的。人们对医学图像分析中应用深度卷积神经网络(CNN)有强烈的兴趣,但CNN要求大量有标注的训练样本。和普通图像的标注不一样,医学图像的标注需要有专业知识和技能的人来做,因此有标注的医学图像数据更难以获取。深度迁移学习技术可用于解决深度学习中医学图像标注数据少的问题。
IEEE TMI特刊“Guest editorial deep learning in medical imaging:Overview and future promise of an exciting new technique”指出:在医学图像处理领域中深度学习被证明是最为有效的手段。迁移学习是机器学习的一个分支,它可以学习到领域无关的特征表达,将其与深度学习结合,能充分利用神经网络的表达能力,学习域不变特征。尽管自然图像与医学图像之间的领域相似性较低,但最近的研究表明自然图像与医学图像之间的知识迁移是可能的。Shin等人2016年的“Deep ConvolutionalNeuralNetworks for Computer-Aided Detection:CNN Architectures,DatasetCharacteristicsand TransferLearning”研究了不同的CNN架构、医学数据集与迁移学习的关系。2016年,Tajbakhsh等人的“Convolutional neural networks for medicalimageanalysis:Full training or fine tuning”系统地研究了几种医学成像应用中迁移学习的能力。Zhou等人2017年提出了“Fine-Tuning ConvolutionalNeural Networks forBiomedical Image Analysis:Actively and Incrementally”,该方法将持续性迁移学习与主动学习相结合,显著减少了医学图像标注工作量,这在医学图像处理领域有非常大的价值。
目前,对于医学领域的图像处理,医学图像数据集大都是图像级标签,当感兴趣区域(ROI)在图像上占比较小时,需要像素级别的分类。一些医学应用需要结合多模态图像信息做判断,而基于不同模态分别建立模型耗时较长。医学图像大都为3D图像,大部分深度卷积神经网络模型基于2D卷积,没有充分利用图像的3D信息。
发明内容
针对现有技术有标注的图像数据量少且未充分利用3D图像空间信息而识别病变部位原发灶转移的精度低,多模态图像分类建立模型时间长的技术问题,本发明提供了一种原发灶转移辅助诊断系统,其目的在于利用迁移学习、结合多模态以及2D/3D多维度的深度卷积神经网络的方法,用于在PET/CT医学图像中识别病变部位原发灶转移,能够有效地为医生提供术前无创的原发灶信息,提供辅助诊断,具有重要的应用价值。
为实现上述目的,按照本发明的一个方面,提供了一种原发灶转移辅助诊断系统,该系统包括:
数据存储模块,用于存储病人的病变部位CT图像序列和对应的PET图像序列;
图像预处理模块,用于对病人的每张病变部位CT图像和对应的PET图像进行融合,得到病人的PET/CT融合图像序列;
2D病变部位原发灶分割模块,用于基于训练好的2D VGG-Unet检测模型,对每张待识别病人的PET/CT融合图像进行分割,得到待识别病人的2D病变部位原发灶分割图像序列;
3D候选原发灶构建模块,用于根据待识别病人的2D病变部位原发灶分割图像序列,确定待识别病人的3D候选原发灶的3D重心坐标,根据该坐标从待识别病人的PET/CT融合图像序列上截取3D候选病变部位原发灶;
3D病变部位原发灶转移分类模块,用于基于训练好的3D CNN分类模型,对待识别病人的3D候选病变部位原发灶进行二分类,得到待识别病人的病变部位原发灶是否转移的诊断结果。
优选地,所述图像预处理模块包括:
HU值转换模块,用于对病人的每张病变部位CT图像和对应的PET图像进行HU值转换,转换为8位灰度值;
图像融合模块,用于对病人的HU值转换后每张病变部位CT图像和对应的PET图像进行基于小波变换的图像融合,得到PET/CT融合图像;
2D图像尺寸统一模块,用于对经过图像融合模块输出的每个PET/CT融合图像缩放至2D VGG-Unet检测模型要求的输入尺寸。
优选地,2D图像尺寸统一模块,还用于对每个训练样本的对应标签图像缩放至2DVGG-Unet检测模型要求的输入尺寸,该系统还包括:
像素归一化模块,用于对每个训练样本的原始CT图像、PET图像、原始标签图像的像素间距分别归一化为1mm*1mm*1mm;
3D图像尺寸统一模块,用于统一各训练样本的病变部位原发灶3D尺寸,对每个训练样本对应的PET/CT融合图像序列,截取该3D尺寸的3D病变部位原发灶,得到适合于3DCNN分类模型输入的数据集。
优选地,所述3D图像尺寸统一模块通过统计训练样本集中每个训练样本的所有标签图像中病变部位原发灶的面积和直径,确定适用于整个训练样本集的病变部位原发灶3D尺寸。
优选地,所述2D VGG-Unet检测模型包括依次串联的:
编码器,其以VGG16网络为基础,保留其输入层和全部卷积层,去除最后三个全连接层,其包含由池化层分割的5层编码层,每层编码层对输入的图像进行特征提取,前4层的编码层的权重由ImageNet预训练的VGG16模型迁移得到;
解码器,包含5层解码层,每层解码层与编码层一一对应,用于对该编码层输出的图像进行还原,每层解码层由1个3*3卷积层、1个4*4反卷积层串联构成,每层解码层实现一次上采样,上采样的输出再与对应编码器部分通道数相同的输出进行拼接;
分割模块,包含2个3*3的卷积层,用于完成整个图像的还原,输出一张分割结果图像。
优选地,所述3D候选原发灶构建模块包括:
ROI增强模块,用于对待识别病人的2D病变部位原发灶分割图像序列进行腐蚀操作,得到若干个3D连通区域;
合并模块,用于计算每个3D连通区域的3D重心坐标,合并3D欧式距离小于2cm的所有3D连通区域,作为待识别病人的3D候选原发灶,并确定该区域的3D重心坐标;
截取模块,用于根据该3D重心坐标和训练过程确定的病变部位原发灶3D尺寸,在待识别病人的PET/CT融合图像序列上截取3D候选病变部位原发灶。
优选地,所述3D CNN分类模型包括依次串联的1个5*5*5的卷积层、4个连续的11*11*11的卷积层、1个池化层、1个3*3*3的卷积层,1个2*2*1的卷积层、1个5*5*2的卷积层、1个池化层、4个连续的3*3*3的卷积层、2个连续的全连接层,每个卷积层后接Relu函数。
优选地,该系统还包括:数据集离线扩增模块,用于将2D PET/CT融合图像和标签图像通过旋转、翻转、网格变换方式扩增,将3D病变部位原发灶图像通过3D旋转、翻转、缩放的方式扩增。
优选地,训练2D VGG-Unet检测模型时,采用的损失函数计算公式如下:
Loss=(1-jdweight)*BCEloss-jdweight*Jaccard
其中,jdweight表示Jaccard在损失Loss中所占权重,BCEloss表示病变部位图像中原发灶和非原发灶的二值交叉熵损失,Jaccard表示预测的病变部位原发灶和真实的病变部位原发灶的交并比。
优选地,训练2D VGG-Unet检测模型时,迁移权重层使用较小的学习率,其他层的学习率为迁移权重层的学习率的10倍;同时,两部分的学习率每隔100个训练周期都将衰减10倍。
总体而言,通过本发明所构思的以上技术方案,能够取得以下有益效果:
(1)本发明构建了2D检测、3D分类的级联网络结构,结合2D局部信息和3D空间信息,提供了更具有代表性的特征,更好地提升了病变部位原发灶转移识别的准确性。
(2)本发明中2D VGG-Unet检测模型以VGG网络模型为基础,构建类似Unet的U型网络,在网络的编码器中逐层迁移ImageNet预训练的权重,从而迁移了预训练的VGG16模型的图像低层特征,在有限的训练数据集上,提供更准确的病变部位原发灶分割结果。
(3)本发明中3D分类模块利用一个16层的3D CNN,能够捕获病变部位原发灶潜在的体素特征,充分利用全局信息实现对候选原发灶的转移分类。
(4)本发明使用PET/CT融合图像对2D VGG-Unet模型进行全局重新拟合,能够对病变部位原发灶进行分割,输出一张被标记好的图像,实现初步检测。PET图像和CT图像的图像融合,充分利用了结构影像和功能影像的信息,这些信息互相结合提升了模型的预测能力,对辅助医生诊治有着重要的应用价值。
附图说明
图1为本发明实施例提供的一种原发灶转移辅助诊断系统结构示意图;
图2为本发明实施例提供的数据预处理流程图;
图3为本发明实施例提供的2D VGG-Unet检测模型网络结构示意图;
图4为本发明实施例提供的3D CNN分类模型网络结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,本发明提供了一种原发灶转移辅助诊断系统,该系统包括:
数据存储模块,用于存储病人的肺癌CT图像序列和对应的PET图像序列。
图像预处理模块,用于对病人的每张肺癌CT图像和对应的PET图像进行融合,得到病人的PET/CT融合图像序列。
2D肺癌原发灶分割模块,用于基于训练好的2D VGG-Unet检测模型,对每张待识别病人的PET/CT融合图像进行分割,得到待识别病人的2D肺癌原发灶分割图像序列。
3D候选原发灶构建模块,用于根据待识别病人的2D肺癌原发灶分割图像序列,确定待识别病人的3D候选原发灶的3D重心坐标,根据该坐标从待识别病人的PET/CT融合图像序列上截取3D候选肺癌原发灶。
3D肺癌原发灶转移分类模块,用于基于训练好的3D CNN分类模型,对待识别病人的3D候选肺癌原发灶进行二分类,得到待识别病人的肺癌原发灶是否转移的诊断结果。
为了排除设备导致的样本差异性,增加训练模型的可靠性,通过像素归一化、HU值转换、图像融合、图像尺寸处理预处理原始PET和CT图像和原始标签图像,构建2D和3D图像数据集。本发明实施例针对肺癌原发灶,具体所用的医学图像数据为肺部PET功能图像和CT结构图像。
具体地,如图2所示,所述图像预处理模块包括:
HU值转换模块,用于对病人的每张肺癌CT图像和对应的PET图像进行HU值转换,转换为8位灰度值。
CT图像和PET图像从16位灰度值转换为8位灰度值,即像素值限制在0到255之间,以便于与迁移的源领域ImageNet保持位数一致,降低ImageNet图像数据集与肺癌原发灶图像数据集信号强度不一致程度,更利于迁移特征的提取。
图像融合模块,用于对病人的HU值转换后的每张肺癌CT图像和对应的PET图像进行基于小波变换的图像融合,得到PET/CT融合图像序列。
对每一张2D CT图像和PET图像进行基于小波变换的图像融合,使用haar小波对CT图像和PET图像分别进行2层的小波分解,分解得到的低频部分使用加权平均进行融合处理,高频部分使用局部方差准则进行融合处理,通过小波逆变换得到重构图像即为PET/CT融合图像。
2D图像尺寸统一模块,用于对经过图像融合模块输出的每个PET/CT融合图像缩放至2D VGG-Unet检测模型要求的输入尺寸。
2D尺寸处理是为满足迁移模型输入尺寸要求,将256*256*D2大小的3D PET/CT融合图像中含标签的2D图像提取出来,全部缩放为224*224(预训练模型固定的输入尺寸)。
具体地,如图2所示,2D图像尺寸统一模块,还用于对每个训练样本的对应标签图像缩放至2D VGG-Unet检测模型要求的输入尺寸,由224*224大小的2D PET/CT融合图像和标签图像共同构成2D图像数据集;该系统还包括:
像素归一化模块,用于对每个训练样本的原始CT图像、PET图像、原始标签图像的像素间距分别归一化为1mm*1mm*1mm。
将各图像的像素间距归一化为1mm*1mm*1mm,即X、Y、Z维度为1像素=1mm,其中,*表示乘法。载入大小为512*512*D1的DICOM格式的原始CT图像和原始PET图像以及BMP格式的原始标签图像,将原始CT图像和原始PET图像通过三次插值算法统一像素间距,获得256*256*D2大小的CT图像和PET图像,将原始标签图像通过最近邻算法统一像素间距,获得256*256大小的标签图像。
3D图像尺寸统一模块,用于统一各训练样本的肺癌原发灶3D尺寸,对每个训练样本对应的PET/CT融合图像序列,截取该3D尺寸的3D肺癌原发灶,得到适合于3D CNN分类模型输入的3D数据集。
具体地,所述3D图像尺寸统一模块通过OpenCV库来统计训练样本集中每个训练样本的所有标签图像中肺癌原发灶的面积和直径,确定适用于整个训练样本集的肺癌原发灶3D尺寸。
具体地,如图3所示,所述2D VGG-Unet检测模型包括依次串联的:
编码器,其以VGG16网络为基础,保留其输入层和全部卷积层,去除最后三个全连接层,其包含由池化层分割的5层编码层,每层编码层对输入的图像进行特征提取,前4层的编码层的权重由ImageNet预训练的VGG16模型迁移得到。
具体地,权重迁移是将预训练权重按对应结构迁移到2D VGG-Unet模型前4层的编码层,模型其余部分进行MSRA初始化。如图3所示,从输入图像开始出现的灰色卷积层图块代表了从VGG16迁移的权重,这些参数是VGG16模型在源领域ImageNet通过大量图像数据所获取的特征,本发明重用这些特征,减少了训练时间,降低了小数据带来的障碍。
解码器,包含5层解码层,每层解码层与编码层一一对应,用于对该编码层输出的图像进行还原,每层解码层由1个3*3卷积层、1个4*4反卷积层串联构成,每层解码层实现一次上采样,上采样的输出再与对应编码器部分通道数相同的输出进行拼接。
分割模块,包含2个3*3的卷积层,用于充分挖掘和利用图像的全局特征信息,提取更加充分的特征,完成整个图像的还原,输出一张分割结果图像。
训练此模型时,先设定模型的超参数,超参数包括:学习率、迭代周期数、jaccard相似度权重参数等。然后读取2D图像数据集中的训练集和验证集目录,小批量读入数据。通过在GPU上不断地迭代训练2D VGG-Unet模型,观察训练集和验证集损失Loss,当Loss趋于稳定不变且分割精度高于指定阈值时,保存并导出模型结构及权重参数,否则,调整超参数重新开始训练。
具体地,所述3D候选原发灶构建模块包括:
ROI增强模块,用于对待识别病人的2D肺癌原发灶分割图像序列进行腐蚀操作,得到若干个3D连通区域。
合并模块,用于计算每个3D连通区域的3D重心坐标,合并3D欧式距离小于2cm的所有3D连通区域,作为待识别病人的3D候选原发灶,并确定该区域的3D重心坐标。
截取模块,用于根据该3D重心坐标和训练过程确定的肺癌原发灶3D尺寸,在待识别病人的PET/CT融合图像序列上截取3D候选肺癌原发灶。
在完成肺癌原发灶初步检测后,通过3D CNN分类模型,提取肺癌原发灶的空间特征,进一步对转移分类。具体地,如图4所示,所述3D CNN分类模型包括依次串联的1个5*5*5的卷积层、4个连续的11*11*11的卷积层、1个池化层、1个3*3*3的卷积层、1个2*2*1的卷积层、1和5*5*2的卷积层、1个池化层、4个连续的3*3*3的卷积层、2个连续的全连接层,每个卷积层后接Relu函数,共16层。
模型接收48px*48px*48px的3D图像块输入,其中,px代表像素,然后通过1个卷积核为5*5*5的卷积层,接着通过4个连续的卷积核为11*11*11的卷积层,再接着是第1个池化层,本网络中的池化层均采用最大池化,它能更多的提取更具有强烈的语义信息的特征,作为下一层的输入,然后是3个不同卷积核大小的卷积层,再接一个最大池化层,使得输出尺寸减半,再到4个连续的卷积核为3*3*3的卷积层,最后两个全连接层进行二分类(转移或未转移)。3D CNN能够更加充分地提取肺癌原发灶的空间上下文信息,可以学习到肺癌原发灶潜在的特征,这些特征有助于提高分类性能。此外,模型还加入dropout策略来增强模型的泛化能力,以防止模型过拟合。
训练此3D CNN模型时,先设定模型的超参数,超参数包括学习率、迭代周期数、优化器参数等。然后读取3D图像训练集和验证集目录,小批量读入数据,在GPU上不断迭代训练3D CNN分类模型,观察训练集和验证集的分类准确率,若训练和验证分类准确率不断上升且趋于稳定时,停止训练,然后将测试样本输入模型获得转移分类结果,计算测试分类准确率,若测试分类准确率高于特定阈值,则保存模型,否则,调整模型的超参数重新开始训练。
具体地,该系统还包括:数据集离线扩增模块,用于将2D PET/CT融合图像和标签图像通过旋转、翻转、网格变换方式扩增,将3D肺癌原发灶图像通过3D旋转、翻转、缩放的方式扩增。
2D肺癌原发灶图像数量有限,所述2D数据集扩增是便于后面的2D VGG-Unet模型学习到更具有判别性的特征,对2D图像数据集进行扩增。扩增方式通过-10℃到+10℃的小角度旋转、90℃,180℃,270℃旋转、翻转、网格变换以及它们的随机概率组合的变换,将2D图像数据集扩增5倍。
通常情况下,转移的肺癌原发灶图像的数据量相比于未转移的肺癌原发灶图像少得多,类别不均衡会导致模型过拟合,为了防止这样的现象发生,需要对转移的肺癌原发灶图像进行扩增处理。所述3D数据集扩增就是将3D图像数据集中转移的肺癌原发灶图像通过3D旋转、翻转、缩放的方式扩增至与未转移的肺癌原发灶图像数量持平,再将整个3D图像数据集在(x,y,z)三个方向进行[-1,1]的平移,然后根据肺癌原发灶的重心坐标对其进行[90℃,180℃,270℃]三个角度的旋转扩增5倍。
扩增后,对2D和3D图像数据集进行划分,用于后面模型的训练与验证。所述数据集划分都按照3:1:1的比例划分训练集、验证集、测试集,同时,要保证每个划分中类别的比例与原始比例保持一致,这样的分层划分能够让3类数据集合保持相同的数据分布,避免因数据划分过程中引入额外的偏差而对最终结果产生影响。
具体地,训练2D VGG-Unet检测模型时,采用的损失函数计算公式如下:
Loss=(1-jdweight)*BCEloss-jdweight*Jaccard
其中,jdweight表示Jaccard在损失Loss中所占权重,BCEloss表示肺癌图像中原发灶和非原发灶的二值交叉熵损失,Jaccard表示预测的肺癌原发灶和真实的肺癌原发灶的交并比。
具体地,训练2D VGG-Unet检测模型时,迁移权重层使用较小的学习率,其他层的学习率为迁移权重层的学习率的10倍;同时,两部分的学习率每隔100个训练周期都将衰减10倍。这样周期性的更新学习率,能加速网络收敛。
具体地,使用训练好的3D CNN分类模型对候选肺癌原发灶分类时,为了获得更为鲁棒性的预测结果,通过在截取候选肺癌原发灶时,以重心坐标为中心,进行多次平移截取同一个候选肺癌原发灶的多个增强样本,将所有增强样本均进行预测,计算所有预测结果的算术平均值,作为此肺癌原发灶的预测结果。这种方法增强结果的可信度,实践性高。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种原发灶转移辅助诊断系统,其特征在于,该系统包括:
数据存储模块,用于存储病人的病变部位CT图像序列和对应的PET图像序列;
图像预处理模块,用于对病人的每张病变部位CT图像和对应的PET图像进行融合,得到病人的PET/CT融合图像序列;所述图像预处理模块包括:
像素归一化模块,用于对每个训练样本的原始CT图像、PET图像、原始标签图像的像素间距分别归一化为1mm*1mm*1mm;
HU值转换模块,用于对病人的每张病变部位CT图像和对应的PET图像进行HU值转换,转换为8位灰度值;
图像融合模块,用于对病人的HU值转换后每张病变部位CT图像和对应的PET图像进行基于小波变换的图像融合,得到PET/CT融合图像;
2D图像尺寸统一模块,用于对经过图像融合模块输出的每个PET/CT融合图像缩放至2DVGG-Unet检测模型要求的输入尺寸;对每个训练样本的对应标签图像缩放至2D VGG-Unet检测模型要求的输入尺寸,由2D PET/CT融合图像和标签图像共同构成2D图像数据集;
3D图像尺寸统一模块,用于统一各训练样本的病变部位原发灶3D尺寸,对每个训练样本对应的PET/CT融合图像序列,截取该3D尺寸的3D病变部位原发灶,得到适合于3D CNN分类模型输入的数据集;
2D病变部位原发灶分割模块,用于基于训练好的2D VGG-Unet检测模型,对每张待识别病人的2D PET/CT融合图像进行分割,得到待识别病人的2D病变部位原发灶分割图像序列;
3D候选原发灶构建模块,用于根据待识别病人的2D病变部位原发灶分割图像序列,确定待识别病人的3D候选原发灶的3D重心坐标,根据该坐标从待识别病人的3D PET/CT融合图像序列上截取3D候选病变部位原发灶;所述3D候选原发灶构建模块包括:
ROI增强模块,用于对待识别病人的2D病变部位原发灶分割图像序列进行腐蚀操作,得到若干个3D连通区域;
合并模块,用于计算每个3D连通区域的3D重心坐标,合并3D欧式距离小于2cm的所有3D连通区域,作为待识别病人的3D候选原发灶,并确定该区域的3D重心坐标;
截取模块,用于根据该3D重心坐标和训练过程确定的病变部位原发灶3D尺寸,在待识别病人的3D PET/CT融合图像序列上截取3D候选病变部位原发灶;
3D病变部位原发灶转移分类模块,用于基于训练好的3D CNN分类模型,对待识别病人的3D候选病变部位原发灶进行二分类,得到待识别病人的病变部位原发灶是否转移的诊断结果。
2.如权利要求1所述的系统,其特征在于,所述3D图像尺寸统一模块通过统计训练样本集中每个训练样本的所有标签图像中病变部位原发灶的面积和直径,确定适用于整个训练样本集的病变部位原发灶3D尺寸。
3.如权利要求1所述的系统,其特征在于,所述2D VGG-Unet检测模型包括依次串联的:
编码器,其以VGG16网络为基础,保留其输入层和全部卷积层,去除最后三个全连接层,其包含由池化层分割的5层编码层,每层编码层对输入的图像进行特征提取,前4层的编码层的权重由ImageNet预训练的VGG16模型迁移得到;
解码器,包含5层解码层,每层解码层与编码层一一对应,用于对该编码层输出的图像进行还原,每层解码层由1个3*3卷积层、1个4*4反卷积层串联构成,每层解码层实现一次上采样,上采样的输出再与对应编码器部分通道数相同的输出进行拼接;
分割模块,包含2个3*3的卷积层,用于完成整个图像的还原,输出一张分割结果图像。
4.如权利要求1所述的系统,其特征在于,所述3D CNN分类模型包括依次串联的1个5*5*5的卷积层、4个连续的11*11*11的卷积层、1个池化层、1个3*3*3的卷积层,1个2*2*1的卷积层、1个5*5*2的卷积层、1个池化层、4个连续的3*3*3的卷积层、2个连续的全连接层,每个卷积层后接Relu函数。
5.如权利要求1所述的系统,其特征在于,该系统还包括:数据集离线扩增模块,用于将2D PET/CT融合图像和标签图像通过旋转、翻转、网格变换方式扩增,将3D病变部位原发灶图像通过3D旋转、翻转、缩放的方式扩增。
6.如权利要求1所述的系统,其特征在于,训练2D VGG-Unet检测模型时,采用的损失函数计算公式如下:
Loss=(1-jdweight)*BCEloss-jdweight*Jaccard
其中,jdweight表示Jaccard在损失Loss中所占权重,BCEloss表示病变部位图像中原发灶和非原发灶的二值交叉熵损失,Jaccard表示预测的病变部位原发灶和真实的病变部位原发灶的交并比。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911218598.0A CN110992338B (zh) | 2019-11-28 | 2019-11-28 | 一种原发灶转移辅助诊断系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911218598.0A CN110992338B (zh) | 2019-11-28 | 2019-11-28 | 一种原发灶转移辅助诊断系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110992338A CN110992338A (zh) | 2020-04-10 |
CN110992338B true CN110992338B (zh) | 2022-04-01 |
Family
ID=70089511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911218598.0A Active CN110992338B (zh) | 2019-11-28 | 2019-11-28 | 一种原发灶转移辅助诊断系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110992338B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111653355B (zh) * | 2020-04-16 | 2023-12-26 | 中山大学附属第六医院 | 肠癌腹膜转移人工智能预测模型及该模型的构建方法 |
CN111915556B (zh) * | 2020-06-22 | 2024-05-14 | 杭州深睿博联科技有限公司 | 一种基于双分支网络的ct图像病变检测方法、系统、终端及存储介质 |
CN112102251B (zh) * | 2020-08-20 | 2023-10-31 | 上海壁仞智能科技有限公司 | 一种分割影像的方法及装置、电子设备和存储介质 |
CN112132784A (zh) * | 2020-08-22 | 2020-12-25 | 安徽大学 | 一种基于小样本深度卷积神经网络用于工业磁瓦缺陷图像分类和分割的方法 |
CN111950714A (zh) * | 2020-08-24 | 2020-11-17 | 重庆市云迈科技有限公司 | 一种基于3d全卷积神经网络的能谱ct图像域材料识别方法 |
CN112149722B (zh) * | 2020-09-11 | 2024-01-16 | 南京大学 | 一种基于无监督域适应的图像自动标注方法 |
CN112529911B (zh) * | 2020-12-07 | 2024-02-09 | 重庆大学 | 一种胰腺图像分割模型的训练方法、图像分割方法和装置 |
CN112786188A (zh) * | 2021-02-05 | 2021-05-11 | 北京致医健康信息技术有限公司 | 辅助诊断系统的离线工作方法、装置、终端设备及介质 |
CN112861994B (zh) * | 2021-03-12 | 2023-04-28 | 中国科学院自动化研究所 | 基于Unet迁移学习的胃印戒细胞癌图像智能分类系统 |
CN112949541A (zh) * | 2021-03-17 | 2021-06-11 | 华东师范大学 | 一种基于Unet+ConvGRU混合模型的车道线检测方法 |
CN113223014B (zh) * | 2021-05-08 | 2023-04-28 | 中国科学院自动化研究所 | 基于数据增强的脑部图像分析系统、方法及设备 |
CN114332947A (zh) * | 2021-12-31 | 2022-04-12 | 深圳市儿童医院 | 一种图像分类系统及终端设备 |
CN117830795A (zh) * | 2023-12-04 | 2024-04-05 | 康骨微创医疗器械科技(无锡)有限公司 | 一种用于脊椎图像分割的立体式深度学习模型 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780460A (zh) * | 2016-12-13 | 2017-05-31 | 杭州健培科技有限公司 | 一种用于胸部ct影像的肺结节自动检测系统 |
CN108257135A (zh) * | 2018-02-01 | 2018-07-06 | 浙江德尚韵兴图像科技有限公司 | 基于深度学习方法解读医学图像特征的辅助诊断系统 |
CN108961274A (zh) * | 2018-07-05 | 2018-12-07 | 四川大学 | 一种mri图像中自动头颈肿瘤分割方法 |
CN109741343A (zh) * | 2018-12-28 | 2019-05-10 | 浙江工业大学 | 一种基于3D-Unet和图论分割的T1WI-fMRI图像肿瘤协同分割方法 |
CN109816657A (zh) * | 2019-03-03 | 2019-05-28 | 哈尔滨理工大学 | 一种基于深度学习的脑瘤医学图像分割方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102042202B1 (ko) * | 2013-02-25 | 2019-11-08 | 삼성전자주식회사 | 의료영상에서 병변을 분할하는 장치 및 방법 |
US20180060719A1 (en) * | 2016-08-29 | 2018-03-01 | International Business Machines Corporation | Scale-space label fusion using two-stage deep neural net |
-
2019
- 2019-11-28 CN CN201911218598.0A patent/CN110992338B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106780460A (zh) * | 2016-12-13 | 2017-05-31 | 杭州健培科技有限公司 | 一种用于胸部ct影像的肺结节自动检测系统 |
CN108257135A (zh) * | 2018-02-01 | 2018-07-06 | 浙江德尚韵兴图像科技有限公司 | 基于深度学习方法解读医学图像特征的辅助诊断系统 |
CN108961274A (zh) * | 2018-07-05 | 2018-12-07 | 四川大学 | 一种mri图像中自动头颈肿瘤分割方法 |
CN109741343A (zh) * | 2018-12-28 | 2019-05-10 | 浙江工业大学 | 一种基于3D-Unet和图论分割的T1WI-fMRI图像肿瘤协同分割方法 |
CN109816657A (zh) * | 2019-03-03 | 2019-05-28 | 哈尔滨理工大学 | 一种基于深度学习的脑瘤医学图像分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110992338A (zh) | 2020-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110992338B (zh) | 一种原发灶转移辅助诊断系统 | |
Aggarwal et al. | COVID-19 image classification using deep learning: Advances, challenges and opportunities | |
CN110930421B (zh) | 一种用于cbct牙齿图像的分割方法 | |
CN111091589B (zh) | 基于多尺度监督学习的超声和核磁图像配准方法及装置 | |
Wang et al. | Ssd-kd: A self-supervised diverse knowledge distillation method for lightweight skin lesion classification using dermoscopic images | |
CN113947609B (zh) | 深度学习网络结构及多标签主动脉夹层ct图像分割方法 | |
Jin et al. | Domain adaptation based self-correction model for COVID-19 infection segmentation in CT images | |
Han et al. | Automated pathogenesis-based diagnosis of lumbar neural foraminal stenosis via deep multiscale multitask learning | |
CN114170232B (zh) | 基于Transformer的X线胸片自动诊断与新冠感染区分割方法 | |
Hong et al. | MMCL-Net: spinal disease diagnosis in global mode using progressive multi-task joint learning | |
Sheremet et al. | Diagnosis of lung disease based on medical images using artificial neural networks | |
Zhang et al. | LungSeek: 3D Selective Kernel residual network for pulmonary nodule diagnosis | |
Chen et al. | HADCNet: Automatic segmentation of COVID-19 infection based on a hybrid attention dense connected network with dilated convolution | |
Hassan et al. | Promising deep semantic nuclei segmentation models for multi-institutional histopathology images of different organs | |
Yang et al. | A dense R‐CNN multi‐target instance segmentation model and its application in medical image processing | |
Wang et al. | GSAL: Geometric structure adversarial learning for robust medical image segmentation | |
Murmu et al. | Deep learning model-based segmentation of medical diseases from MRI and CT images | |
Tang et al. | Lumen contour segmentation in IVOCT based on N-type CNN | |
CN113764101A (zh) | 基于cnn的乳腺癌新辅助化疗多模态超声诊断系统 | |
CN112785581A (zh) | 基于深度学习的提取训练大血管cta成像的培训方法和装置 | |
Li et al. | wUnet: A new network used for ultrasonic tongue contour extraction | |
Daza et al. | Cerberus: A multi-headed network for brain tumor segmentation | |
Tao et al. | Tooth CT Image Segmentation Method Based on the U‐Net Network and Attention Module | |
Chillapalli et al. | A Review of Diagnostic Strategies for Pulmonary Embolism Prediction in Computed Tomography Pulmonary Angiograms | |
CN115100306A (zh) | 针对胰腺区域的四维锥束ct成像方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |