CN114863165A - 一种基于影像组学与深度学习特征融合的椎体骨密度分类方法 - Google Patents
一种基于影像组学与深度学习特征融合的椎体骨密度分类方法 Download PDFInfo
- Publication number
- CN114863165A CN114863165A CN202210378696.6A CN202210378696A CN114863165A CN 114863165 A CN114863165 A CN 114863165A CN 202210378696 A CN202210378696 A CN 202210378696A CN 114863165 A CN114863165 A CN 114863165A
- Authority
- CN
- China
- Prior art keywords
- features
- feature
- vertebral body
- fusion
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000004927 fusion Effects 0.000 title claims abstract description 45
- 238000013135 deep learning Methods 0.000 title claims abstract description 30
- 230000037182 bone density Effects 0.000 title claims abstract description 23
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 35
- 230000011218 segmentation Effects 0.000 claims abstract description 24
- 210000000988 bone and bone Anatomy 0.000 claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 20
- 208000001132 Osteoporosis Diseases 0.000 claims abstract description 16
- 238000012216 screening Methods 0.000 claims abstract description 12
- 238000013528 artificial neural network Methods 0.000 claims abstract description 11
- 238000003384 imaging method Methods 0.000 claims abstract description 11
- 239000013598 vector Substances 0.000 claims description 56
- 239000011159 matrix material Substances 0.000 claims description 38
- 230000006870 function Effects 0.000 claims description 35
- 238000009826 distribution Methods 0.000 claims description 28
- 238000012549 training Methods 0.000 claims description 25
- 238000010606 normalization Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 20
- 230000014509 gene expression Effects 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 230000006978 adaptation Effects 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 230000002829 reductive effect Effects 0.000 claims description 5
- 230000001054 cortical effect Effects 0.000 claims description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims description 2
- 230000005284 excitation Effects 0.000 claims description 2
- 230000002401 inhibitory effect Effects 0.000 claims description 2
- 238000002156 mixing Methods 0.000 claims description 2
- 230000004044 response Effects 0.000 claims description 2
- 210000001519 tissue Anatomy 0.000 claims description 2
- 238000003709 image segmentation Methods 0.000 abstract description 2
- 229910052500 inorganic mineral Inorganic materials 0.000 abstract description 2
- 239000011707 mineral Substances 0.000 abstract description 2
- 230000003993 interaction Effects 0.000 description 9
- 230000035772 mutation Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 208000029725 Metabolic bone disease Diseases 0.000 description 3
- 206010049088 Osteopenia Diseases 0.000 description 3
- 238000009795 derivation Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 230000002860 competitive effect Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 241000549546 Fraxinus spaethiana Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000000326 densiometry Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012502 risk assessment Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000009885 systemic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/033—Recognition of patterns in medical or anatomical images of skeletal patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Radiology & Medical Imaging (AREA)
- Molecular Biology (AREA)
- Quality & Reliability (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及医学图像分割与图像分类技术领域,具体涉及一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,将CT图像下椎体分为骨质疏松、低骨量与正常组,包括S1:建立基于CRF和注意力引导的椎体分割网络,获取L1、L2椎体松质骨掩膜;S2:通过GCAM‑Net对L1和L2融合后的特征图进行深度学习特征提取,并利用L1和L2的CT图像及掩膜进行影像组学特征提取;S3:运用差分进化算法在深度学习特征中提取最优特征集,并将提取后影像组学特征通过SVM‑RFE法进行特征筛选,最后将影像组学特征和深度学习特征通过最大相关性融合算法进行特征融合,并利用神经网络分类。本发明技术方案结合深度学习特征和影像组学特征,有效提高骨密度分类的准确性。
Description
技术领域
本发明涉及医学图像分割与图像分类技术领域,具体涉及一种基于影像组学与深度学习特征融合的椎体骨密度分类方法。
背景技术
骨质疏松症是一种骨量减少、骨组织微结构破坏、骨骼脆性增加和易发生骨折的全身性疾病,其发病率随着年龄的增长而明显上升,骨量减少是导致骨质疏松的直接原因,对骨量的检测是预防和治疗骨质疏松的关键,腰椎因其骨质含量大且分布均匀多被选为测量部位,多个椎体的综合骨密度值被用做最终的评价标准,通常为L1、L2椎体。
目前临床上用于评估骨质疏松的常用方法包括,双能X线骨密度测量法(DXA),定量CT测量法(QCT)以及定量核磁共振成像(QMRI)等方法。使用DXA对骨密度进行测量,速度快且X射线的辐射剂量低,但是该方法的扫描区域无法将皮质骨和松质骨区分开。QMRI的方法可以对椎体中的骨小梁结构进行研究和评估,这种方法受限于成像速度缓慢,成像价格昂贵,受众面不高。QCT应用已知密度的体模和对应的测量分析软件对骨密度进行测量,准确性高,但是其辐射剂量大,操作复杂,价格也相对昂贵。
人工智能技术与医学影像的结合是目前研究的一大热点,研究人员尝试挖掘影学图像的内在特征作为分类标准,如CT值,虽然有实验证明使用CT值作为判断的准确度可以达到82%,但是CT值受管电压影响极大使得模型稳定性差。为了在低辐射剂量下获取高精度与高时效的骨密度分类方法,在过去的十年中,研究人员寻求一种不受辐射剂量影响的骨密度分类方法,并取得一定结果。章轶立等人依据组学特征,如灰度共生矩阵、灰度大小区域矩阵、灰度运行长度矩阵、相邻灰度差矩阵、灰度依赖矩阵等,建立了基于Group Lasso的Logistic回归的骨质疏松症风险评估;SHioji等验证了多种CNN算法模型,通过评估矿物质密度,判断骨量减少,更准确的预测了骨质疏松,结果显示CNN模型优于Logistic回归分析,为骨质疏松症的早判断,早干预提供理论依据;Mehta等利用最优随机森林和支持向量机算法模型,训练模型对于骨质疏松判断的准确率、敏感度和特异度,分别达到了98.0%、77.8%和100.0%,结果显示CNN模型可用于对偶发性骨质疏松诊断的辅助工具。
目前对于骨质疏松预测模型的建立主要从两个方面出发,一是通过影像组学特征建立机器学习模型,二是通过CT图像建立深度学习模型。影像组学特征需要手动分割,耗费大量时间,深度学习模型构建缺乏标准的公共数据集,所用的数据集规模较小;放射组学特征可以很好的对骨小粱的内部微观结构进行解码,而深度学习特征可以更好的识别骨小梁的边缘特征,保证机器学习的质量和效率。此外,现有的骨密度分类方法回避了综合使用多个椎体进行评估的标准,将单张椎体的预测结果作为最终结果,缺乏合理性,所提取的全部特征用于分类导致模型难以优化。
发明内容
针对以上问题,本发明提供了一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,通过结合深度学习特征和影像组学特征,有效提高骨密度分类的准确性。
为了实现上述目的,本发明采用的技术方案如下:
一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,将CT图像下椎体分为骨质疏松、低骨量与正常组,包括以下步骤:
S1:建立基于CRF和注意力引导的椎体分割网络,获取L1椎体、L2椎体的松质骨分割掩膜;
S2:通过GCAM-Net对L1椎体和L2椎体融合后的特征图进行深度学习特征提取,并利用L1椎体和L2椎体的CT图像及掩膜进行影像组学特征提取;
S3:运用差分进化算法在深度学习特征中提取最优特征集,并将提取后影像组学特征通过SVM-RFE法进行特征筛选,最后将影像组学特征和深度学习特征进行最大相关性融合算法进行特征融合,并利用神经网络分类。
优选地,在S1中,所述CRF和注意力引导的椎体分割网络包括:
特征提取模块,将图形特征嵌入到卷积神经网络中,用于学习卷积特征和图形特征;
通道特征融合模块,用于抑制背景中噪音、伪影对分割的干扰;
特征推理模块,用于划分皮质骨与松质骨区域,细化松质骨分割边界,填充分割掩膜内部的孔洞。
优选地,所述特征提取模块利用2D残差块和图卷积进行特征提取,使用注意门控制来自不同特征提取器中的信息流。
优选地,所述特征推理模块利用条件随机场建立椎体像素邻域间的关系,将分割问题转化为能量成本最小化问题,用平均场更新来近似代替复杂的后验概率分布,利用KL散度表示使用理论分布Q拟合真实分布P时产生的信息损耗,引入最小化自由能函数来优化KL散度的求解,求解公式如下所示:
式中DKL(Q||P)为分布P与分布Q之间的KL散度,Q(h)为使用平均场拟合分布P的后验概率分布,lnZ为常数项,E(h)为分割时的能量函数,其中为自由能,自由能的第一项为标记每个体素的成本,第二项表示分布Q的熵,h为隐变量,利用卷积操作代替随机场中的平均场更新,定义使用图卷积网络提取的特征XG,卷积提取特征XR,注意门的权重矩阵AGR,图中以及卷积中待推理的特征分别为HG以及HR具体的操作步骤为:
(3)HG的平均场更新:HG=rGR*HG,*表示卷积操作,XG为图卷积网络提取的特征,等式左边的HG为更新后的HG,rGR为一个3×3的卷积核;
优选地,所述通道特征融合模块,聚合来自编码层的低级信息以及解码层中的高级特征,通过挤压和激发操作校准通道特征响应,得到的权重向量与低层特征相乘,并将重新加权的低层特征与高层特征相加得到最终结果,抑制背景中噪音、以及相似组织对分割的干扰。
优选地,在S2中,所述GCAM用于椎体特征提取卷积神经网络包括:
特征融合模块,通过对L1椎体和L2椎体的图像在进行卷积神经网络特征提取前,先一步进行特征融合,特征融合最后采用特征的通道数相融合的方式将L1椎体图像和L2椎体图像进行特征融合;
门控通道注意力模块,用于建模通道之间的关系,在归一化之前嵌入全局上下文并控制每个通道的权重,以及一个门控适应算子,根据归一化的输出逐通道地调整输入特征。
其中,GCAM采用一种标准化方法来创建渠道之间的竞争或合作关系。值得注意的是,规范化操作是无参数的。为了使GCAM可学习,设计了一个全局上下文嵌入算子,它在归一化之前嵌入全局上下文并控制每个通道的权重,以及一个门控适应算子,它根据归一化的输出逐通道地调整输入特征。按信道可训练的参数是轻量且有效的,并且使得GCAM便于广泛部署,同时占用少量的参数。此外,门控适应算子的参数对于解释GCAM的行为是容易和直观的。总之,精心设计了高度轻量级的,可解释的,但有效的GCAM架构,该架构基于建模渠道关系的规范化操作。假设作为卷积网络得激活特征,其中得H和W作为图像得高度和宽度,C为图像的通道数,一般来说,GCAM执行以下变换:
其中的α,β和γ都是可训练的参数,嵌入权重α主要负责调整嵌入输出、门控权重γ和偏置权重β负责调整门控的激活,表示第c个通道的特征图,表示变换后的特征,F表示函数变换,x表示原特征。它们决定了GCAM在每个通道中的行为。相对于通道注意力模块SE的时间复杂度O(C2),GCAM模块的时间复杂度只有O(C)。
其中,大感受野信息可以避免小感受野信息(例如,卷积层)引起的局部模糊,因此,首先设计了一个全局上下文嵌入模块来聚合每个通道中的全局上下文信息、该模块可以利用卷积层的小感受域之外的全局上下文信息。给定嵌入权重α=[α1,α2,...αc],模块Sc的定义为:
其中的∈是一个小常数,主要用来避免零点的求导问题,Sc为小感受域模块,α表示嵌入权重集,c表示通道数,|| ||2表示2范数,H表示图像高度,W表示图像宽度,∑表示求和,xc表示通道特征。相对于SE来说,GCAM不使用全局平均池化层来汇总通道的环境。此外,GCAM使用可训练的参数αc来控制每个通道的权重,因为不同的通道应该具有不同的重要性,特别是αc接近0时,通道C将不参与通道归一化,总之,门控权重α使得GCAM能够学习一个通道对于其他通道是独立的情况。
其中,归一化方法可以在神经元(或通道)之间建立竞争关系,具有轻量级计算资源和稳定的训练性能。类似于LRN,使用l2归一化来跨信道操作,即信道归一化。S=[S1,S2,...Sc]通道归一化的公式为:
其中,采用门控机制来适应原始特征,通过引入门控机制,GCAM可以在训练过程中促进竞争和合作。设选通权重γ=[γ1,γ2,...γc]和门控偏置β,设计以下门控函数:
其中,为门控函数,γc为通道偏差,每个原始通道xc的标度将由其对应的门来适配,即由于通道归一化是无参数的,设计了可训练的权重和偏差γ和β,用于学习以通道方式控制门的激活。LRN只受益于神经元之间的竞争。然而,通过结合标准化方法和门控机制,GCAM能够对不同渠道之间的更多类型的关系(即竞争和合作)建模。当一个通道的选通权重(γc)被积极激活时,GCAM促进该通道与其他通道竞争,如在LRN。当门控权重被负面激活时,GCAM鼓励通道与其他通道合作。
此外,当选通权重和偏差为零时,该选通函数允许原始特征传递到下一层,即
其中,表示传递后的特征,F表示函数变换,x表示原始特征。对身份映射进行建模的能力可以有效地提高深度网络中退化问题的鲁棒性。ResNet也从这个想法中受益。因此,建议在初始化GCAM层时将γ和β初始化为0。这样做,训练过程的初始步骤会更稳定,GCAM的最终表现会更好。
优选地,在S3中,利用差分进化算法、SVM-RFE算法和最大相关性计算对特征进行优化;
差分进化算法:将差分进化算法模块嵌入到神经网络提取特征的池化层后,全连接层前,对特征进行优化;
SVM-RFE算法:将SVM-RFE算法嵌入影像组学特征提取后,对批提取特征进行递归特征筛选,去除冗余信息;
最大相关性计算:将差分进化算法后的特征和SVM-RFE后的特征进行最大相关度计算,进一步对特征进行优化。
其中,为了对卷积神经网络提取到的特征进行特征优化,并且消除后续模型训练中过拟合的问题,使用差分进化算法进行特征选择。
其中,所述差分进化算法从某一随机产生的初始群体开始,利用从种群中随机选取的两个个体的差向量作为第三个个体的随机变化源,将差向量加权后按照一定的规则与第三个个体求和而产生变异个体,该操作称为变异;然后,变异个体与某个预先决定的目标个体进行参数混合,生成试验个体,这一过程称之为交叉;如果试验个体的适应度值优于目标个体的适应度值,则在下一代中试验个体取代目标个体,否则目标个体仍保存下来,该操作称为选择;在每一代的进化过程中,每一个体矢量作为目标个体一次,算法通过不断地迭代计算,保留优良个体,淘汰劣质个体,引导搜索过程向全局最优解逼近。
具体的流程如下:输入:分割后的特征向量,输出:优化后的特征向量,对种群进行初始化其中表示第j维的下界,表示第j维的上界,NP表示向量数,D表示向量维度。然后通过以下表达式进行计算边界:其中rand(0,1)表示区间[0,1]上的随机数,表示第j维的下界,表示第j维的上界,xi,j(0)表示边界计算;使用精细的KNN算法计算适应度函数;执行变异,变异的表达式如下:vi(n+1)=λr1(n)+F(λr2(n)-λr3(n)),其中F代表范围为(0,2)的缩放变异因子,n表示第n代,vi(n+1)表示经过变异得种群,λr1(n)表示未经过变异得种群,源向量是从总体中随机选择的λr1、λr2、λr3,并且λr1、λr2、λr3要互不相同;执行交叉,设置交叉比例,如果交叉比例大于0到1之间的随机数,那么Ci,j(n+1)=vi,j(n+1),其他情况下,Ci,j(n+1)=λi,j(n+1),其中Ci,j(n+1)表示交叉后得种群,vi,j(n+1)表示经过变异得种群,λi,j(n+1)表示未经过变异得种群。最后进行选择,在差分进化算法中使用贪婪选择的策略,就是选择较优的个体作为新的个体。对于每一个个体来说,得到地解要好于或者持平于个体通过变异、交叉、选择达到全部最优。
选择的公式如下:
其中,Xi(n+1)为选择后的个体,f表示当前种群适应度平均值,Xi(n)表示原始种群,Ci(n+1)表示交叉变异后的种群,n表示第n代。
优选地,为了去除影像组学提取地特征中的冗余特征,提取到关键信息,使用SVM-RFE方法对影像组学进行特征选择,筛选步骤如下:
步骤2:输入特征集合S={1,2,3...D}并初始化,设置特征排序集R=[ ],其中D为特征集合子集合;
步骤3:生成个样本,并且在训练的样本中找出不同类别的两两组合得到最后的训练样本;vi=1时,yi=1,vi=j+1时,yi=-1;…………vi=l-1时,yi=1,vi=l时,yi=-1;其中vi为类别数集合,xi为样本,N为样本数,xj为组合后训练样本。
步骤4:循环以下过程直至S=[],其中S为特征集合:
获得l个用于训练的子样本xj(j=1,2,...l(l-1)/2),其中l为个数,xj为样本;
并用此样本xj训练SVM,分别得到wj(j=1,2...l),其中wj为特征权重,其中l为个数;
计算排序准则总分ck=∑jwjk 2(k=1,2...,|S|),其中wjk为第k个子集第j个特征的特征权重,∑表示求和,ck表示第k个子集所有特征的总分,|S|表示特征集合中子集合的个数;
更新特征集R={p}∪R,其中R为特征排序集,p表示排序准则分数最小特征,∪表示两个集合的并集;
在S中去除此特征S=S/p,其中S为特征集合,p表示排序准则分数最小特征。
优选地,为了获得最优的融合特征向量,对经过优化的深度学习特征和影像组学特征进行最大相关度计算,最大相关性计算为,通过最大相关系数对R1和R2两个特征向量进行计算,计算地表达式如下:
其中的ρ(R1,R2)的值始终介于(-1,1)之间,表示相关性,1表示两个特征之间的强相关性,-1表示两个特征间的弱相关性,COV表示协方差,Var表示变量,R1和R2是两个特征向量。由于感兴趣的是最大相关性,因此通过下列表达式实现两个向量的最大相关:
CC(R1,R2)=T(ρ(g1(R1),g2(R2)))
其中R1和R2是两个特征向量,g1和g2是Borel函数,T表示取Borel函数g1和g2的最小上界,位于(0,1),CC(R1,R2)表示两个向量的最大相关性,ρ(g1(R1),g2(R2))的值始终介于(-1,1)之间,表示相关性;融合的步骤为:输入两个最佳特征向量R1和R2,执行均值填充使得两个向量维度之间相同,计算两个向量的最大相关性,如果两个向量的最大相关性接近1,则在融合向量中加入这两个特征,如果相关性接近0,那么丢弃这两个特征,最后输出一个融合的特征向量。
本发明有益效果:
本发明以CT图像为基础,引入条件随机场特征推理模块,建立椎体与背景像素邻域关系模型,优化对皮质骨边界的区分能力。利用差分进化对卷积神经网络提取的深度学习特征进行特征优化,并利用支持向量机对影像组学特征进行递归筛选,对深度学习筛选特征和影像组学筛选特征进行最大相关度计算,建立骨质疏松分类模型,有效提高骨密度分类的准确性。
附图说明
图1为本发明的整体流程图;
图2为本发明中分割网络的示意图;
图3为本发明中椎体L1和椎体L2的特征融合的示意图;
图4为本发明中GCAM-Net分类网络的示意图;
图5为本发明中GCAM模块示意图;
图6为本发明中分割网络的可视化效果图;
图7为本发明中分类效果ROC曲线图。
具体实施方式
下面结合附图将对本发明实施例中的技术方案进行清楚、完整地描述,以使本领域的技术人员能够更好的理解本发明的优点和特征,从而对本发明的保护范围做出更为清楚的界定。本发明所描述的实施例仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1-7,一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,将CT图像下椎体分为骨质疏松、低骨量与正常组,包括以下步骤:
1、特征提取模块
在使用图卷积神经网络提取特征的过程中,通过G={V,G,A}构建特征交互空间,其中V是交互图中的节点集合,G是节点之间边的集合,A是邻接矩阵,将原始输入的特征图投影到特征交互空间得到新的投影特征其中新的交互节点数为K,新的边集为E,C'为交互空间的维度,通常新特征中节点之间通过线性组合进行连接,不同切片之间的血管形态差异较大,缺乏自适应的采样能力,模型难以优化,采用自适应采样策略,运用三线性插值采样器,使用随机梯度下降的方法为每个原始特征学习移动距离,从而对给定的V个节点的图中,对特征节点Xm及其周围的位移特征节点进行采样。对投影后得到的新特征,遵循图卷积神经网络的卷积操作,定义新的邻接矩阵为AG,权重矩阵为WG,则图卷积网络的运算公式为XG=σ(AGXPROWG),在网络模型的实际操作中,首先应用拉普拉斯平滑和更新邻接矩阵从而将节点特征传播到整个图中,I是输入的一组SMA序列。在实际操作中采用了梯度流最大的剩余连接代替,1×1卷积实现和WG,推理完成后再将特征从交互空间投影回坐标空间。
2、通道特征融合模块
为了抑制背景噪音干扰,没有直接将拼接后的特征直接传送到上采样阶段,而是将来自跳跃连接层中的低层特征图与解码层中上采样的高级特征在通道维度进行拼接,基于挤压和激发(SE)操作来指导特征层之间的融合。将低阶特征与高阶特征在通道维度上进行拼接得到C,H,W分别代表通道式,图像的高度和宽度。接着通过挤压和激励(SE)操作建模通道之间的相关性,通过计算一个权重向量对低层特征进行重新加权并抑制无关背景噪声的干扰。拼接后的特征Fconcat送入一个1×1的卷积层中实现降维,紧着利用全局平均池化(GAP)得到加权向量将Sigmoid函数生成的权重向量与低层特征相乘,然后将重新加权的低层特征与高层特征相加得到最终结果:
式中F(c)为当前层的融合特征,为该层上层的融合特征,σ表示sigmoid函数,C1×1代表1×1的卷积操作,c代表模型的层数,FL为低阶特征,FH为高阶特征,GAP为全局平均池化操作,和分别表示元素相加与元素相乘,采用无参数双线性上采样策略,在保持分割性能的同时减少了参数量。
3、特征推导模块
为了避免以最大化概率来分配分割标签时,由于相邻体素共享特征表达相似而导致不正确的边界分割,在预重建网络中引入条件随机场特征推理模块,使用不同特征提取器——图卷积神经网络(图卷积神经网络)与卷积神经网络(CNN)提取椎体特征,按照所提特征对最终结果的贡献程度,通过注意门调节来自双方的信息流并将该特征输入条件随机场进行推理,对每个像素点进行精准分类,具体位置放置在网络下采样过程中的第4层以及第5层中。
卷积神经网络下采样提取的卷积特征XR安置在每层2D残差块后,注意门AGR控制两种潜在特征的信息流,接着使用条件随机场完成推理过程,全连接条件随机场是一种概率图模型,将图像中每个像素点都看作一个节点,像素与像素之间的关系看作连接节点的边,由此构成条件随机场。使用条件随机场的最终目标是实现能量函数的最小化,在本发明中用图卷积提取的特征和使用条件随机场推理的图卷积中的潜在特征以及卷积提取特征和使用条件随机场推理的卷积中潜在特征之间的关系看作一元势(两个一元势),将使用条件随机场融合的最终特征与注意门之间关系看作二元势,使用高斯函数将推测所得的潜在特征H表征到观测特征X上,本发明中的可观测特为最终图卷积和卷积的融合特征XF,一元势,二元势以及和能量函数的公式如下所示:
式中φ(H,X)指代一元势,hn为隐藏特征,xn为可观测特征;
式中E(HR,HG,XF|I)为使用概率图模型分割时的能量函数,I是输入的一组SMA序列,φG(HG,XG)为隐藏图卷积HG与可观测性图卷积特征XG之间的一元势,φR(HR,XR)为为隐藏卷积HR与可观测性卷积特征XR之间的一元势,ψGR(HG,HR,AGR)为隐藏卷积特征,隐藏图卷积特征与注意门权重矩阵之间的二元势,本实施例利用高斯函数将预测的隐藏特征H驱动到可观测特征X,右上角的角标表示特征来源,表示成对势。
条件随机场中,图像的分割问题被转化为能量函数最小化问题,采用平均场更新来近似代替复杂的后验概率分布,使用具有拟合参数的Q作为后验代理,形成隐藏变量的后验分布:
式中P(HR,HG,XF,|I)用于描述可观测的图像分布,Q(HR,HG,XF)为拟合P的后验概率分布,隐藏变量以及注意门权重矩阵间是相互独立的且可分解的,qn为可因数分解表达式,H为潜在特征,右上角的角标表示特征来源,HR,HG分别表示隐藏卷积特征和图特征,X为可观测特征,XF为融合隐藏卷积特征和图形特征的最终可观测特征;
式中DKL(Q||P)为分布P与分布Q之间的KL散度,Q(h)为使用平均场拟合分布P的后验概率分布,lnZ为常数项,E(h)为分割时的能量函数,其中为自由能,自由能的第一项为标记每个体素的成本,第二项表示分布Q的熵,h为隐变量。将能量函数表达式代入KL散度的求解方程中,对隐变量求导并令导数为零有:
与同理,式中表示注意门权重矩阵的更新,表示分布Q对各隐变量的期望,为注意门权重矩阵,为卷积的潜在特征表达,为图卷积的隐藏特征表达,为对求导后的二元势表达式,为对求导后的可观测卷积特征与隐藏特征之间的一元势,描述可观测卷积特征;
式中为隐藏图卷积特征的更新,描述可观测图卷积特征,描述可观测卷积特征,是与隐藏特征映射相关联的内核势,为参与交互的隐藏卷积特征,是与隐藏特征映射相关联的内核势,表示按照不同信息流的权重矩阵,将卷积特征归算到图卷积特征中;
在实际的操作过程中,将条件随机场的平均场更新替换为卷积操作,以适应任何卷积网络的端对端的训练。定义使用图卷积网络提取的特征XG,卷积提取特征XR,注意门的权重矩阵AGR,图中以及卷积中待推理的特征分别为HG以及HR具体的操作步骤为:
(3)HG的平均场更新:HG=rGR*HG,*表示卷积操作,XG为图卷积网络提取的特征,等式左边的HG为更新后的HG,rGR为一个3×3的卷积核;
4、门控通道注意模块
门控通道注意力模块,用于建模通道之间的关系,在归一化之前嵌入全局上下文并控制每个通道的权重,以及一个门控适应算子,根据归一化的输出逐通道地调整输入特征。
其中,GCAM采用一种标准化方法来创建渠道之间的竞争或合作关系。值得注意的是,规范化操作是无参数的。为了使GCAM可学习,设计了一个全局上下文嵌入算子,它在归一化之前嵌入全局上下文并控制每个通道的权重,以及一个门控适应算子,它根据归一化的输出逐通道地调整输入特征。按信道可训练的参数是轻量且有效的,并且使得GCAM便于广泛部署,同时占用少量的参数。此外,门控适应算子的参数对于解释GCAM的行为是容易和直观的。总之,精心设计了高度轻量级的,可解释的,但有效的GCAM架构,该架构基于建模渠道关系的规范化操作。假设作为卷积网络得激活特征,其中得H和W作为图像得高度和宽度,C为图像的通道数,一般来说,GCAM执行以下变换:
其中的α,β和γ都是可训练的参数,嵌入权重α主要负责调整嵌入输出、门控权重γ和偏置权重β负责调整门控的激活,表示第c个通道的特征图,表示变换后的特征,F表示函数变换,x表示原特征。它们决定了GCAM在每个通道中的行为。相对于通道注意力模块SE的时间复杂度O(C2),GCAM模块的时间复杂度只有O(C)。
其中,大感受野信息可以避免小感受野信息(例如,卷积层)引起的局部模糊,因此,首先设计了一个全局上下文嵌入模块来聚合每个通道中的全局上下文信息、该模块可以利用卷积层的小感受域之外的全局上下文信息。给定嵌入权重α=[α1,α2,…αc],模块Sc的定义为:
其中的∈是一个小常数,主要用来避免零点的求导问题,Sc为小感受域模块,α表示嵌入权重集,c表示通道数,|| ||2表示2范数,H表示图像高度,W表示图像宽度,∑表示求和,xc表示通道特征。相对于SE来说,GCAM不使用全局平均池化层来汇总通道的环境。此外,GCAM使用可训练的参数αc来控制每个通道的权重,因为不同的通道应该具有不同的重要性,特别是αc接近0时,通道C将不参与通道归一化,总之,门控权重α使得GCAM能够学习一个通道对于其他通道是独立的情况。
其中,归一化方法可以在神经元(或通道)之间建立竞争关系,具有轻量级计算资源和稳定的训练性能。类似于LRN,使用l2归一化来跨信道操作,即信道归一化。S=[S1,S2,...Sc]通道归一化的公式为:
其中,采用门控机制来适应原始特征,通过引入门控机制,GCAM可以在训练过程中促进竞争和合作。设选通权重γ=[γ1,γ2,...γc]和门控偏置β,设计以下门控函数:
其中,为门控函数,每个原始通道xc的标度将由其对应的门来适配,即由于通道归一化是无参数的,设计了可训练的权重和偏差γ和β,用于学习以通道方式控制门的激活。LRN只受益于神经元之间的竞争。然而,通过结合标准化方法和门控机制,GCAM能够对不同渠道之间的更多类型的关系(即竞争和合作)建模。当一个通道的选通权重(γc)被积极激活时,GCAM促进该通道与其他通道竞争,如在LRN,当门控权重被负面激活时,GCAM鼓励通道与其他通道合作。
此外,当选通权重和偏差为零时,该选通函数允许原始特征传递到下一层,即
其中,表示传递后的特征,F表示函数变换,x表示原特征。对身份映射进行建模的能力可以有效地提高深度网络中退化问题的鲁棒性。ResNet也从这个想法中受益。因此,建议在初始化GCAM层时将γ和β初始化为0。这样做,训练过程的初始步骤会更稳定,GCAM的最终表现会更好。
5、差分进化特征优化模块
为了对卷积神经网络提取到的特征进行特征优化,并且消除后续模型训练中过拟合的问题。使用差分进化算法进行特征选择。差分进化算法作为一种全局搜索优化问题的进化算法,首先它在搜索空间中产生一些初始值,然后对输入数据进行变异和交叉,接着选择过程成中产生的新的种群。具体的流程如下:输入:分割后的特征向量,输出:优化后的特征向量,对种群进行初始化其中表示第j维的下界,表示第j维的上界,NP表示向量数,D表示向量维度。然后通过以下表达式进行计算边界:其中rand(0,1)表示区间[0,1]上的随机数,表示第j维的下界,表示第j维的上界,xi,j(0)表示边界计算;使用精细的KNN算法计算适应度函数;执行变异,变异的表达式如下:vi(n+1)=λr1(n)+F(λr2(n)-λr3(n)),其中F代表范围为(0,2)的缩放变异因子,n表示第n代,vi(n+1)表示经过变异得种群,λr1(n)表示未经过变异得种群,源向量是从总体中随机选择的λr1、λr2、λr3,并且λr1、λr2、λr3要互不相同;执行交叉,设置交叉比例,如果交叉比例大于0到1之间的随机数,那么Ci,j(n+1)=vi,j(n+1),其他情况下,Ci,j(n+1)=λi,j(n+1),其中Ci,j(n+1)表示交叉后得种群,vi,j(n+1)表示经过变异得种群,λi,j(n+1)表示未经过变异得种群。最后进行选择,在差分进化算法中使用贪婪选择的策略,就是选择较优的个体作为新的个体。对于每一个个体来说,得到地解要好于或者持平于个体通过变异、交叉、选择达到全部最优。
选择的公式如下:
其中,Xi(n+1)为选择后的个体,f表示当前种群适应度平均值,Xi(n)表示原始种群,Ci(n+1)表示交叉变异后的种群,n表示第n代。
6、SVM-RFE特征筛选模块
为了去除影像组学提取地特征中的冗余特征,提取到关键信息,使用SVM-RFE方法对影像组学进行特征选择,筛选步骤如下:
步骤2:输入特征集合S={1,2,3...D}并初始化,设置特征排序集R=[],其中D为特征集合子集合;
步骤3:生成个样本,并且在训练的样本中找出不同类别的两两组合得到最后的训练样本;vi=1时,yi=1,vi=j+1时,yi=-1;…………vi=l-1时,yi=1,vi=l时,yi=-1;其中vi为类别数集合,xi为样本,N为样本数,xj为组合后训练样本。
步骤4:循环以下过程直至S=[ ],其中S为特征集合:
获得l个用于训练的子样本xj(j=1,2,...l(l-1)/2);
并用此样本xj训练SVM,分别得到wj(j=1,2...l),其中wj为特征权重;
计算排序准则总分ck=∑jwjk 2(k=1,2...,|S|),其中wjk为第k个子集第j个特征的特征权重,∑表示求和,ck表示第k个子集所有特征的总分,|S|表示特征集合中子集合的个数;
更新特征集R={p}∪R,其中R为特征排序集,p表示排序准则分数最小特征,∪表示两个集合的并集;
在S中去除此特征S=S/p,其中S为特征集合,p表示排序准则分数最小特征。
6、最大相关度计算模块
最大相关性计算为,通过最大相关系数对R1和R2两个特征向量进行计算,计算地表达式如下:
其中的ρ(R1,R2)的值始终介于(-1,1)之间,表示相关性,1表示两个特征之间的强相关性,-1表示两个特征间的弱相关性,COV表示协方差,Var表示变量,R1和R2是两个特征向量。由于感兴趣的是最大相关性,因此通过下列表达式实现两个向量的最大相关:
CC(R1,R2)=T(ρ(g1(R1),g2(R2)))
其中R1和R2是两个特征向量,g1和g2是Borel函数,T表示取Borel函数g1和g2的最小上界,位于(0,1),CC(R1,R2)表示两个向量的最大相关性,ρ(g1(R1),g2(R2))的值始终介于(-1,1)之间,表示相关性;融合的步骤为:输入两个最佳特征向量R1和R2,执行均值填充使得两个向量维度之间相同,计算两个向量的最大相关性,如果两个向量的最大相关性接近1,则在融合向量中加入这两个特征,如果相关性接近0,那么丢弃这两个特征,最后输出一个融合的特征向量。
以上对本发明的实施例进行了详细说明,但所述内容仅为本发明的较佳实施例,不能被认为用于限定本发明的实施范围。凡依本发明申请范围所作的均等变化与改进等,均应仍归属于本发明的专利涵盖范围之内。
Claims (10)
1.一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,将CT图像下椎体分为骨质疏松、低骨量与正常组,其特征在于,包括以下步骤:
S1:建立基于CRF和注意力引导的椎体分割网络,获取L1椎体、L2椎体的松质骨分割掩膜;
S2:通过GCAM-Net对L1椎体和L2椎体融合后的特征图进行深度学习特征提取,并利用L1椎体和L2椎体的CT图像及掩膜进行影像组学特征提取;
S3:运用差分进化算法在深度学习特征中提取最优特征集,并将提取后影像组学特征通过SVM-RFE法进行特征筛选,最后将影像组学特征和深度学习特征进行最大相关性融合算法进行特征融合,并利用神经网络分类。
2.根据权利要求1所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,在S1中,所述CRF和注意力引导的椎体分割网络包括:
特征提取模块,将图形特征嵌入到卷积神经网络中,用于学习卷积特征和图形特征;
通道特征融合模块,用于抑制背景中噪音、伪影对分割的干扰;
特征推理模块,用于划分皮质骨与松质骨区域,细化松质骨分割边界,填充分割掩膜内部的孔洞。
3.根据权利要求2所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,所述特征提取模块利用2D残差块和图卷积进行特征提取,使用注意门控制来自不同特征提取器中的信息流。
4.根据权利要求2所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,所述特征推理模块利用条件随机场建立椎体像素邻域间的关系,将分割问题转化为能量成本最小化问题,用平均场更新来近似代替复杂的后验概率分布,利用KL散度表示使用理论分布Q拟合真实分布P时产生的信息损耗,引入最小化自由能函数来优化KL散度的求解,求解公式如下所示:
式中,DKL(Q||P)为分布P与分布Q之间的KL散度,Q(h)为使用平均场拟合分布P的后验概率分布,lnZ为常数项,E(h)为分割时的能量函数,h为隐变量,其中为自由能,自由能的第一项为标记每个体素的成本,第二项表示分布Q的熵,利用卷积操作代替随机场中的平均场更新,定义使用图卷积网络提取的特征XG,卷积提取特征XC,注意门的权重矩阵AGR,卷积中待推理的特征分别为HG以及HR具体的操作步骤为:
(3)HG的平均场更新:HG=rGR*HG,*表示卷积操作,XG为图卷积网络提取的特征,等式左边的HG为更新后的HG,rGR为一个3×3的卷积核;
5.根据权利要求2所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,所述通道特征融合模块,聚合来自编码层的低级信息以及解码层中的高级特征,通过挤压和激发操作校准通道特征响应,得到的权重向量与低层特征相乘,并将重新加权的低层特征与高层特征相加得到最终结果,抑制背景中噪音、以及相似组织对分割的干扰。
6.根据权利要求1所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,在S2中,所述GCAM用于椎体特征提取卷积神经网络包括:
特征融合模块,通过对L1椎体和L2椎体的图像在进行卷积神经网络特征提取前,先一步进行特征融合,特征融合最后采用特征的通道数相融合的方式将L1椎体图像和L2椎体图像进行特征融合;
门控通道注意力模块,用于建模通道之间的关系,在归一化之前嵌入全局上下文并控制每个通道的权重,以及一个门控适应算子,根据归一化的输出逐通道地调整输入特征。
7.根据权利要求1所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,在S3中,利用差分进化算法、SVM-RFE算法和最大相关性计算对特征进行优化;
差分进化算法:将差分进化算法模块嵌入到神经网络提取特征的池化层后,全连接层前,对特征进行优化;
SVM-RFE算法:将SVM-RFE算法嵌入影像组学特征提取后,对批提取特征进行递归特征筛选,去除冗余信息;
最大相关性计算:将差分进化算法后的特征和SVM-RFE后的特征进行最大相关度计算,进一步对特征进行优化。
8.根据权利要求7所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,所述差分进化算法从某一随机产生的初始群体开始,利用从种群中随机选取的两个个体的差向量作为第三个个体的随机变化源,将差向量加权后按照一定的规则与第三个个体求和而产生变异个体,该操作称为变异;然后,变异个体与某个预先决定的目标个体进行参数混合,生成试验个体,这一过程称之为交叉;如果试验个体的适应度值优于目标个体的适应度值,则在下一代中试验个体取代目标个体,否则目标个体仍保存下来,该操作称为选择;在每一代的进化过程中,每一个体矢量作为目标个体一次,算法通过不断地迭代计算,保留优良个体,淘汰劣质个体,引导搜索过程向全局最优解逼近。
9.根据权利要求7所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,所述SVM-RFE算法对影像组学特征进行筛选的步骤为:
步骤2:输入特征集合S={1,2,3...D}并初始化,设置特征排序集R=[],其中D为特征集合子集合;
步骤3:生成个样本,并且在训练的样本中找出不同类别的两两组合得到最后的训练样本;vi=1时,yi=1,vi=j+1时,yi=-1;…………vi=l-1时,yi=1,vi=l时,yi=-1;其中vi为类别数集合,xi为样本,N为样本数,xj为组合后训练样本;
步骤4:循环以下过程直至S=[],其中S为特征集合:
获得l个用于训练的子样本xj(j=1,2,...l(l-1)/2),其中l为个数,xj为样本;
并用此样本xj训练SVM,分别得到wj(j=1,2...l),其中wj为特征权重,l为个数;
计算排序准则总分ck=∑jwjk 2(k=1,2...,|S|),其中wjk为第k个子集第j个特征的特征权重,∑表示求和,ck表示第k个子集所有特征的总分,|S|表示特征集合中子集合的个数;
更新特征集R={p}∪R,其中R为特征排序集,p表示排序准则分数最小特征,∪表示两个集合的并集;
在S中去除此特征S=S/p,其中S为特征集合,p表示排序准则分数最小特征。
10.根据权利要求7所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,所述最大相关性计算为,通过最大相关系数对R1和R2两个特征向量进行计算,计算地表达式如下:
其中的ρ(R1,R2)的值始终介于(-1,1)之间,表示相关性,1表示两个特征之间的强相关性,-1表示两个特征间的弱相关性,COV表示协方差,Var表示变量,R1和R2是两个特征向量。由于感兴趣的是最大相关性,因此通过下列表达式实现两个向量的最大相关:
CC(R1,R2)=T(ρ(g1(R1),g2(R2)))
其中R1和R2是两个特征向量,g1和g2是Borel函数,T表示取Borel函数g1和g2的最小上界,位于(0,1),CC(R1,R2)表示两个向量的最大相关性,ρ(g1(R1),g2(R2))的值始终介于(-1,1)之间,表示相关性;融合的步骤为:输入两个最佳特征向量R1和R1,执行均值填充使得两个向量维度之间相同,计算两个向量的最大相关性,如果两个向量的最大相关性接近1,则在融合向量中加入这两个特征,如果相关性接近0,那么丢弃这两个特征,最后输出一个融合的特征向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210378696.6A CN114863165B (zh) | 2022-04-12 | 2022-04-12 | 一种基于影像组学与深度学习特征融合的椎体骨密度分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210378696.6A CN114863165B (zh) | 2022-04-12 | 2022-04-12 | 一种基于影像组学与深度学习特征融合的椎体骨密度分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114863165A true CN114863165A (zh) | 2022-08-05 |
CN114863165B CN114863165B (zh) | 2023-06-16 |
Family
ID=82628794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210378696.6A Active CN114863165B (zh) | 2022-04-12 | 2022-04-12 | 一种基于影像组学与深度学习特征融合的椎体骨密度分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114863165B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115311302A (zh) * | 2022-10-12 | 2022-11-08 | 四川大学华西医院 | 股骨头缺血坏死分期特征构建方法、诊断系统和存储介质 |
CN116128957A (zh) * | 2023-04-20 | 2023-05-16 | 博志生物科技(深圳)有限公司 | 一种椎体骨空洞分析方法、装置、设备及存储介质 |
CN116152505A (zh) * | 2023-04-20 | 2023-05-23 | 深圳市亿康医疗技术有限公司 | 基于x光数据的骨骼目标识别分割方法 |
CN116630679A (zh) * | 2023-03-29 | 2023-08-22 | 南通大学 | 一种基于ct图像和域不变特征的骨质疏松识别方法 |
CN117197651A (zh) * | 2023-07-24 | 2023-12-08 | 移动广播与信息服务产业创新研究院(武汉)有限公司 | 一种结合边缘检测与语义分割的田块提取方法及系统 |
CN118429334A (zh) * | 2024-07-02 | 2024-08-02 | 西安市第三医院 | 一种端到端的骨密度测量方法及设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160015347A1 (en) * | 2014-07-21 | 2016-01-21 | Zebra Medical Vision Ltd. | Systems and methods for emulating dexa scores based on ct images |
CN110796636A (zh) * | 2019-09-25 | 2020-02-14 | 中国人民解放军战略支援部队信息工程大学 | 基于卷积神经网络的ct图像骨质状况检测方法及装置 |
CN112365604A (zh) * | 2020-11-05 | 2021-02-12 | 深圳市中科先见医疗科技有限公司 | 基于语义分割和slam的ar设备景深信息应用方法 |
CN112489723A (zh) * | 2020-12-01 | 2021-03-12 | 南京理工大学 | 基于局部进化信息的dna结合蛋白预测方法 |
CN112686902A (zh) * | 2019-10-17 | 2021-04-20 | 西安邮电大学 | 核磁共振影像中脑胶质瘤识别与分割的两阶段计算方法 |
CN112861722A (zh) * | 2021-02-09 | 2021-05-28 | 中国科学院地理科学与资源研究所 | 一种半监督深度图卷积的遥感土地利用语义分割方法 |
CN113223699A (zh) * | 2021-04-01 | 2021-08-06 | 复旦大学附属华山医院 | 构建腰椎骨量减少和骨质疏松筛查模型的方法和系统 |
WO2021244621A1 (zh) * | 2020-06-04 | 2021-12-09 | 华为技术有限公司 | 基于全局引导选择性上下文网络的场景语义解析方法 |
CN114049314A (zh) * | 2021-10-28 | 2022-02-15 | 杭州电子科技大学 | 一种基于特征重排和门控轴向注意力的医学图像分割方法 |
-
2022
- 2022-04-12 CN CN202210378696.6A patent/CN114863165B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160015347A1 (en) * | 2014-07-21 | 2016-01-21 | Zebra Medical Vision Ltd. | Systems and methods for emulating dexa scores based on ct images |
CN110796636A (zh) * | 2019-09-25 | 2020-02-14 | 中国人民解放军战略支援部队信息工程大学 | 基于卷积神经网络的ct图像骨质状况检测方法及装置 |
CN112686902A (zh) * | 2019-10-17 | 2021-04-20 | 西安邮电大学 | 核磁共振影像中脑胶质瘤识别与分割的两阶段计算方法 |
WO2021244621A1 (zh) * | 2020-06-04 | 2021-12-09 | 华为技术有限公司 | 基于全局引导选择性上下文网络的场景语义解析方法 |
CN112365604A (zh) * | 2020-11-05 | 2021-02-12 | 深圳市中科先见医疗科技有限公司 | 基于语义分割和slam的ar设备景深信息应用方法 |
CN112489723A (zh) * | 2020-12-01 | 2021-03-12 | 南京理工大学 | 基于局部进化信息的dna结合蛋白预测方法 |
CN112861722A (zh) * | 2021-02-09 | 2021-05-28 | 中国科学院地理科学与资源研究所 | 一种半监督深度图卷积的遥感土地利用语义分割方法 |
CN113223699A (zh) * | 2021-04-01 | 2021-08-06 | 复旦大学附属华山医院 | 构建腰椎骨量减少和骨质疏松筛查模型的方法和系统 |
CN114049314A (zh) * | 2021-10-28 | 2022-02-15 | 杭州电子科技大学 | 一种基于特征重排和门控轴向注意力的医学图像分割方法 |
Non-Patent Citations (4)
Title |
---|
BHARGAV J. BHATKALKAR ET AL.: "Improving the Performance of Convolutional Neural Network for the Segmentation of Optic Disc in Fundus Images Using Attention Gates and Conditional Random Fields", 《DIGITAL OBJECT IDENTIFIER》 * |
BHARGAV J. BHATKALKAR ET AL.: "Improving the Performance of Convolutional Neural Network for the Segmentation of Optic Disc in Fundus Images Using Attention Gates and Conditional Random Fields", 《DIGITAL OBJECT IDENTIFIER》, 18 February 2020 (2020-02-18) * |
王瑛等: "超声影像组学标签对乳腺癌HER-2状态的预测价值", 《中国循证医学杂志》 * |
王瑛等: "超声影像组学标签对乳腺癌HER-2状态的预测价值", 《中国循证医学杂志》, vol. 21, no. 3, 31 March 2021 (2021-03-31) * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115311302A (zh) * | 2022-10-12 | 2022-11-08 | 四川大学华西医院 | 股骨头缺血坏死分期特征构建方法、诊断系统和存储介质 |
CN116630679A (zh) * | 2023-03-29 | 2023-08-22 | 南通大学 | 一种基于ct图像和域不变特征的骨质疏松识别方法 |
CN116630679B (zh) * | 2023-03-29 | 2024-06-04 | 南通大学 | 一种基于ct图像和域不变特征的骨质疏松识别方法 |
CN116128957A (zh) * | 2023-04-20 | 2023-05-16 | 博志生物科技(深圳)有限公司 | 一种椎体骨空洞分析方法、装置、设备及存储介质 |
CN116152505A (zh) * | 2023-04-20 | 2023-05-23 | 深圳市亿康医疗技术有限公司 | 基于x光数据的骨骼目标识别分割方法 |
CN116152505B (zh) * | 2023-04-20 | 2023-06-20 | 深圳市亿康医疗技术有限公司 | 基于x光数据的骨骼目标识别分割方法 |
CN117197651A (zh) * | 2023-07-24 | 2023-12-08 | 移动广播与信息服务产业创新研究院(武汉)有限公司 | 一种结合边缘检测与语义分割的田块提取方法及系统 |
CN117197651B (zh) * | 2023-07-24 | 2024-03-29 | 移动广播与信息服务产业创新研究院(武汉)有限公司 | 一种结合边缘检测与语义分割的田块提取方法及系统 |
CN118429334A (zh) * | 2024-07-02 | 2024-08-02 | 西安市第三医院 | 一种端到端的骨密度测量方法及设备 |
CN118429334B (zh) * | 2024-07-02 | 2024-08-30 | 西安市第三医院 | 一种端到端的骨密度测量方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114863165B (zh) | 2023-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114863165B (zh) | 一种基于影像组学与深度学习特征融合的椎体骨密度分类方法 | |
Lueckmann et al. | Likelihood-free inference with emulator networks | |
CN108268870B (zh) | 基于对抗学习的多尺度特征融合超声图像语义分割方法 | |
Ypsilantis et al. | Recurrent convolutional networks for pulmonary nodule detection in CT imaging | |
WO2021138092A1 (en) | Artificial neural network architectures based on synaptic connectivity graphs | |
Abualigah et al. | Multilevel thresholding image segmentation using meta-heuristic optimization algorithms: Comparative analysis, open challenges and new trends | |
WO2021138082A1 (en) | Training artificial neural networks based on synaptic connectivity graphs | |
WO2021138085A1 (en) | Predicting neuron types based on synaptic connectivity graphs | |
Saad et al. | A survey on training challenges in generative adversarial networks for biomedical image analysis | |
Murugesan et al. | Calibrating segmentation networks with margin-based label smoothing | |
CN114445356A (zh) | 基于多分辨率的全视野病理切片图像肿瘤快速定位方法 | |
CN115457020A (zh) | 一种融合残差图像信息的2d医学图像配准方法 | |
CN113989551A (zh) | 一种基于改进ResNet网络的阿尔茨海默病分类方法 | |
US20220383504A1 (en) | Probablistic segmentation | |
Mowlani et al. | Segmentation and classification of brain tumors using fuzzy 3D highlighting and machine learning | |
Melo et al. | OCT Image Synthesis through Deep Generative Models | |
US12106549B2 (en) | Self-supervised learning for artificial intelligence-based systems for medical imaging analysis | |
CN114565762B (zh) | 基于roi和分裂融合策略的弱监督肝脏肿瘤分割方法 | |
Bhattacharjya et al. | A genetic algorithm for intelligent imaging from quantum-limited data | |
US11580390B2 (en) | Data processing apparatus and method | |
Li et al. | Model Inversion Attacks Through Target-Specific Conditional Diffusion Models | |
US20240046453A1 (en) | Semi-supervised learning leveraging cross-domain data for medical imaging analysis | |
US20240338813A1 (en) | Domain adaption for prostate cancer detection | |
EP4432166A1 (en) | Invariance preserving knowledge distillation of foundational models for medical imaging analysis | |
US20240177458A1 (en) | Cross domain segmentation with uncertainty-guided curriculum learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |