CN114863165A - 一种基于影像组学与深度学习特征融合的椎体骨密度分类方法 - Google Patents

一种基于影像组学与深度学习特征融合的椎体骨密度分类方法 Download PDF

Info

Publication number
CN114863165A
CN114863165A CN202210378696.6A CN202210378696A CN114863165A CN 114863165 A CN114863165 A CN 114863165A CN 202210378696 A CN202210378696 A CN 202210378696A CN 114863165 A CN114863165 A CN 114863165A
Authority
CN
China
Prior art keywords
features
feature
vertebral body
fusion
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210378696.6A
Other languages
English (en)
Other versions
CN114863165B (zh
Inventor
张堃
林鹏程
徐沛霞
王林
潘晶
刘志诚
韩宇
涂鑫涛
刘纪元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong University
Original Assignee
Nantong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong University filed Critical Nantong University
Priority to CN202210378696.6A priority Critical patent/CN114863165B/zh
Publication of CN114863165A publication Critical patent/CN114863165A/zh
Application granted granted Critical
Publication of CN114863165B publication Critical patent/CN114863165B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及医学图像分割与图像分类技术领域,具体涉及一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,将CT图像下椎体分为骨质疏松、低骨量与正常组,包括S1:建立基于CRF和注意力引导的椎体分割网络,获取L1、L2椎体松质骨掩膜;S2:通过GCAM‑Net对L1和L2融合后的特征图进行深度学习特征提取,并利用L1和L2的CT图像及掩膜进行影像组学特征提取;S3:运用差分进化算法在深度学习特征中提取最优特征集,并将提取后影像组学特征通过SVM‑RFE法进行特征筛选,最后将影像组学特征和深度学习特征通过最大相关性融合算法进行特征融合,并利用神经网络分类。本发明技术方案结合深度学习特征和影像组学特征,有效提高骨密度分类的准确性。

Description

一种基于影像组学与深度学习特征融合的椎体骨密度分类 方法
技术领域
本发明涉及医学图像分割与图像分类技术领域,具体涉及一种基于影像组学与深度学习特征融合的椎体骨密度分类方法。
背景技术
骨质疏松症是一种骨量减少、骨组织微结构破坏、骨骼脆性增加和易发生骨折的全身性疾病,其发病率随着年龄的增长而明显上升,骨量减少是导致骨质疏松的直接原因,对骨量的检测是预防和治疗骨质疏松的关键,腰椎因其骨质含量大且分布均匀多被选为测量部位,多个椎体的综合骨密度值被用做最终的评价标准,通常为L1、L2椎体。
目前临床上用于评估骨质疏松的常用方法包括,双能X线骨密度测量法(DXA),定量CT测量法(QCT)以及定量核磁共振成像(QMRI)等方法。使用DXA对骨密度进行测量,速度快且X射线的辐射剂量低,但是该方法的扫描区域无法将皮质骨和松质骨区分开。QMRI的方法可以对椎体中的骨小梁结构进行研究和评估,这种方法受限于成像速度缓慢,成像价格昂贵,受众面不高。QCT应用已知密度的体模和对应的测量分析软件对骨密度进行测量,准确性高,但是其辐射剂量大,操作复杂,价格也相对昂贵。
人工智能技术与医学影像的结合是目前研究的一大热点,研究人员尝试挖掘影学图像的内在特征作为分类标准,如CT值,虽然有实验证明使用CT值作为判断的准确度可以达到82%,但是CT值受管电压影响极大使得模型稳定性差。为了在低辐射剂量下获取高精度与高时效的骨密度分类方法,在过去的十年中,研究人员寻求一种不受辐射剂量影响的骨密度分类方法,并取得一定结果。章轶立等人依据组学特征,如灰度共生矩阵、灰度大小区域矩阵、灰度运行长度矩阵、相邻灰度差矩阵、灰度依赖矩阵等,建立了基于Group Lasso的Logistic回归的骨质疏松症风险评估;SHioji等验证了多种CNN算法模型,通过评估矿物质密度,判断骨量减少,更准确的预测了骨质疏松,结果显示CNN模型优于Logistic回归分析,为骨质疏松症的早判断,早干预提供理论依据;Mehta等利用最优随机森林和支持向量机算法模型,训练模型对于骨质疏松判断的准确率、敏感度和特异度,分别达到了98.0%、77.8%和100.0%,结果显示CNN模型可用于对偶发性骨质疏松诊断的辅助工具。
目前对于骨质疏松预测模型的建立主要从两个方面出发,一是通过影像组学特征建立机器学习模型,二是通过CT图像建立深度学习模型。影像组学特征需要手动分割,耗费大量时间,深度学习模型构建缺乏标准的公共数据集,所用的数据集规模较小;放射组学特征可以很好的对骨小粱的内部微观结构进行解码,而深度学习特征可以更好的识别骨小梁的边缘特征,保证机器学习的质量和效率。此外,现有的骨密度分类方法回避了综合使用多个椎体进行评估的标准,将单张椎体的预测结果作为最终结果,缺乏合理性,所提取的全部特征用于分类导致模型难以优化。
发明内容
针对以上问题,本发明提供了一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,通过结合深度学习特征和影像组学特征,有效提高骨密度分类的准确性。
为了实现上述目的,本发明采用的技术方案如下:
一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,将CT图像下椎体分为骨质疏松、低骨量与正常组,包括以下步骤:
S1:建立基于CRF和注意力引导的椎体分割网络,获取L1椎体、L2椎体的松质骨分割掩膜;
S2:通过GCAM-Net对L1椎体和L2椎体融合后的特征图进行深度学习特征提取,并利用L1椎体和L2椎体的CT图像及掩膜进行影像组学特征提取;
S3:运用差分进化算法在深度学习特征中提取最优特征集,并将提取后影像组学特征通过SVM-RFE法进行特征筛选,最后将影像组学特征和深度学习特征进行最大相关性融合算法进行特征融合,并利用神经网络分类。
优选地,在S1中,所述CRF和注意力引导的椎体分割网络包括:
特征提取模块,将图形特征嵌入到卷积神经网络中,用于学习卷积特征和图形特征;
通道特征融合模块,用于抑制背景中噪音、伪影对分割的干扰;
特征推理模块,用于划分皮质骨与松质骨区域,细化松质骨分割边界,填充分割掩膜内部的孔洞。
优选地,所述特征提取模块利用2D残差块和图卷积进行特征提取,使用注意门控制来自不同特征提取器中的信息流。
优选地,所述特征推理模块利用条件随机场建立椎体像素邻域间的关系,将分割问题转化为能量成本最小化问题,用平均场更新来近似代替复杂的后验概率分布,利用KL散度表示使用理论分布Q拟合真实分布P时产生的信息损耗,引入最小化自由能函数来优化KL散度的求解,求解公式如下所示:
Figure BDA0003591336410000021
式中DKL(Q||P)为分布P与分布Q之间的KL散度,Q(h)为使用平均场拟合分布P的后验概率分布,lnZ为常数项,E(h)为分割时的能量函数,其中
Figure BDA0003591336410000022
为自由能,自由能的第一项为标记每个体素的成本,第二项表示分布Q的熵,h为隐变量,利用卷积操作代替随机场中的平均场更新,定义使用图卷积网络提取的特征XG,卷积提取特征XR,注意门的权重矩阵AGR,图中以及卷积中待推理的特征分别为HG以及HR具体的操作步骤为:
(1)计算注意门权重矩阵的更新矩阵:
Figure BDA0003591336410000023
为AGR的更新矩阵,rGR为一个3×3的卷积核,XG为使用图卷积网络提取的特征,XR为卷积提取特征;
(2)使用sigmoid函数σ对更新矩阵做归一化处理:
Figure BDA0003591336410000024
式中的
Figure BDA0003591336410000025
为归一化后注意门权重矩阵的更新,σ为sigmoid函数;
(3)HG的平均场更新:HG=rGR*HG,*表示卷积操作,XG为图卷积网络提取的特征,等式左边的HG为更新后的HG,rGR为一个3×3的卷积核;
(4)
Figure BDA0003591336410000031
⊙表示元素相乘,
Figure BDA0003591336410000032
为卷积的隐藏特征HG的更新,
Figure BDA0003591336410000033
为归一化后注意门权重矩阵的更新,XG为使用图卷积网络提取的特征;
(5)通过使用剩余连接添加一元势来更新HR:
Figure BDA0003591336410000034
表示元素相加,
Figure BDA0003591336410000035
为卷积的隐藏特征HG的更新,为了便于迭代更新,HG的贡献归算在HR中。
优选地,所述通道特征融合模块,聚合来自编码层的低级信息以及解码层中的高级特征,通过挤压和激发操作校准通道特征响应,得到的权重向量与低层特征相乘,并将重新加权的低层特征与高层特征相加得到最终结果,抑制背景中噪音、以及相似组织对分割的干扰。
优选地,在S2中,所述GCAM用于椎体特征提取卷积神经网络包括:
特征融合模块,通过对L1椎体和L2椎体的图像在进行卷积神经网络特征提取前,先一步进行特征融合,特征融合最后采用特征的通道数相融合的方式将L1椎体图像和L2椎体图像进行特征融合;
门控通道注意力模块,用于建模通道之间的关系,在归一化之前嵌入全局上下文并控制每个通道的权重,以及一个门控适应算子,根据归一化的输出逐通道地调整输入特征。
其中,GCAM采用一种标准化方法来创建渠道之间的竞争或合作关系。值得注意的是,规范化操作是无参数的。为了使GCAM可学习,设计了一个全局上下文嵌入算子,它在归一化之前嵌入全局上下文并控制每个通道的权重,以及一个门控适应算子,它根据归一化的输出逐通道地调整输入特征。按信道可训练的参数是轻量且有效的,并且使得GCAM便于广泛部署,同时占用少量的参数。此外,门控适应算子的参数对于解释GCAM的行为是容易和直观的。总之,精心设计了高度轻量级的,可解释的,但有效的GCAM架构,该架构基于建模渠道关系的规范化操作。假设
Figure BDA0003591336410000036
作为卷积网络得激活特征,其中得H和W作为图像得高度和宽度,C为图像的通道数,一般来说,GCAM执行以下变换:
Figure BDA0003591336410000037
其中的α,β和γ都是可训练的参数,嵌入权重α主要负责调整嵌入输出、门控权重γ和偏置权重β负责调整门控的激活,
Figure BDA0003591336410000038
表示第c个通道的特征图,
Figure BDA0003591336410000039
表示变换后的特征,F表示函数变换,x表示原特征。它们决定了GCAM在每个通道中的行为。相对于通道注意力模块SE的时间复杂度O(C2),GCAM模块的时间复杂度只有O(C)。
其中,大感受野信息可以避免小感受野信息(例如,卷积层)引起的局部模糊,因此,首先设计了一个全局上下文嵌入模块来聚合每个通道中的全局上下文信息、该模块可以利用卷积层的小感受域之外的全局上下文信息。给定嵌入权重α=[α12,...αc],模块Sc的定义为:
Figure BDA00035913364100000310
其中的∈是一个小常数,主要用来避免零点的求导问题,Sc为小感受域模块,α表示嵌入权重集,c表示通道数,|| ||2表示2范数,H表示图像高度,W表示图像宽度,∑表示求和,xc表示通道特征。相对于SE来说,GCAM不使用全局平均池化层来汇总通道的环境。此外,GCAM使用可训练的参数αc来控制每个通道的权重,因为不同的通道应该具有不同的重要性,特别是αc接近0时,通道C将不参与通道归一化,总之,门控权重α使得GCAM能够学习一个通道对于其他通道是独立的情况。
其中,归一化方法可以在神经元(或通道)之间建立竞争关系,具有轻量级计算资源和稳定的训练性能。类似于LRN,使用l2归一化来跨信道操作,即信道归一化。S=[S1,S2,...Sc]通道归一化的公式为:
Figure BDA0003591336410000041
其中c是一个小常数,标量
Figure BDA0003591336410000042
用于归一化SC的比例,为了避免c太大的时候SC的规模太小,∑表示求和,|| ||2表示2范数,Sc为小感受域模块,
Figure BDA0003591336410000043
为通道归一化。
其中,采用门控机制来适应原始特征,通过引入门控机制,GCAM可以在训练过程中促进竞争和合作。设选通权重γ=[γ12,...γc]和门控偏置β,设计以下门控函数:
Figure BDA0003591336410000044
其中,
Figure BDA0003591336410000045
为门控函数,γc为通道偏差,每个原始通道xc的标度将由其对应的门来适配,即
Figure BDA0003591336410000046
由于通道归一化是无参数的,设计了可训练的权重和偏差γ和β,用于学习以通道方式控制门的激活。LRN只受益于神经元之间的竞争。然而,通过结合标准化方法和门控机制,GCAM能够对不同渠道之间的更多类型的关系(即竞争和合作)建模。当一个通道的选通权重(γc)被积极激活时,GCAM促进该通道与其他通道竞争,如在LRN。当门控权重被负面激活时,GCAM鼓励通道与其他通道合作。
此外,当选通权重和偏差为零时,该选通函数允许原始特征传递到下一层,即
Figure BDA0003591336410000047
其中,
Figure BDA0003591336410000048
表示传递后的特征,F表示函数变换,x表示原始特征。对身份映射进行建模的能力可以有效地提高深度网络中退化问题的鲁棒性。ResNet也从这个想法中受益。因此,建议在初始化GCAM层时将γ和β初始化为0。这样做,训练过程的初始步骤会更稳定,GCAM的最终表现会更好。
优选地,在S3中,利用差分进化算法、SVM-RFE算法和最大相关性计算对特征进行优化;
差分进化算法:将差分进化算法模块嵌入到神经网络提取特征的池化层后,全连接层前,对特征进行优化;
SVM-RFE算法:将SVM-RFE算法嵌入影像组学特征提取后,对批提取特征进行递归特征筛选,去除冗余信息;
最大相关性计算:将差分进化算法后的特征和SVM-RFE后的特征进行最大相关度计算,进一步对特征进行优化。
其中,为了对卷积神经网络提取到的特征进行特征优化,并且消除后续模型训练中过拟合的问题,使用差分进化算法进行特征选择。
其中,所述差分进化算法从某一随机产生的初始群体开始,利用从种群中随机选取的两个个体的差向量作为第三个个体的随机变化源,将差向量加权后按照一定的规则与第三个个体求和而产生变异个体,该操作称为变异;然后,变异个体与某个预先决定的目标个体进行参数混合,生成试验个体,这一过程称之为交叉;如果试验个体的适应度值优于目标个体的适应度值,则在下一代中试验个体取代目标个体,否则目标个体仍保存下来,该操作称为选择;在每一代的进化过程中,每一个体矢量作为目标个体一次,算法通过不断地迭代计算,保留优良个体,淘汰劣质个体,引导搜索过程向全局最优解逼近。
具体的流程如下:输入:分割后的特征向量,输出:优化后的特征向量,对种群进行初始化
Figure BDA0003591336410000051
其中
Figure BDA0003591336410000052
表示第j维的下界,
Figure BDA0003591336410000053
表示第j维的上界,NP表示向量数,D表示向量维度。然后通过以下表达式进行计算边界:
Figure BDA0003591336410000054
其中rand(0,1)表示区间[0,1]上的随机数,
Figure BDA0003591336410000055
表示第j维的下界,
Figure BDA0003591336410000056
表示第j维的上界,xi,j(0)表示边界计算;使用精细的KNN算法计算适应度函数;执行变异,变异的表达式如下:vi(n+1)=λr1(n)+F(λr2(n)-λr3(n)),其中F代表范围为(0,2)的缩放变异因子,n表示第n代,vi(n+1)表示经过变异得种群,λr1(n)表示未经过变异得种群,源向量是从总体中随机选择的λr1、λr2、λr3,并且λr1、λr2、λr3要互不相同;执行交叉,设置交叉比例,如果交叉比例大于0到1之间的随机数,那么Ci,j(n+1)=vi,j(n+1),其他情况下,Ci,j(n+1)=λi,j(n+1),其中Ci,j(n+1)表示交叉后得种群,vi,j(n+1)表示经过变异得种群,λi,j(n+1)表示未经过变异得种群。最后进行选择,在差分进化算法中使用贪婪选择的策略,就是选择较优的个体作为新的个体。对于每一个个体来说,得到地解要好于或者持平于个体通过变异、交叉、选择达到全部最优。
选择的公式如下:
Figure BDA0003591336410000057
其中,Xi(n+1)为选择后的个体,f表示当前种群适应度平均值,Xi(n)表示原始种群,Ci(n+1)表示交叉变异后的种群,n表示第n代。
优选地,为了去除影像组学提取地特征中的冗余特征,提取到关键信息,使用SVM-RFE方法对影像组学进行特征选择,筛选步骤如下:
步骤1:输入需要的数据样本集
Figure BDA0003591336410000058
vi∈{1,2,...,l},其中,l为类别数,vi为类别数集合,N为总样本数,xi为样本。并对数据进行标准化处理
Figure BDA0003591336410000059
μ为均值,σ为标准差,xi为样本;
步骤2:输入特征集合S={1,2,3...D}并初始化,设置特征排序集R=[ ],其中D为特征集合子集合;
步骤3:生成
Figure BDA0003591336410000061
个样本,并且在训练的样本
Figure BDA0003591336410000062
中找出不同类别的两两组合得到最后的训练样本;
Figure BDA0003591336410000063
vi=1时,yi=1,vi=j+1时,yi=-1;…………
Figure BDA0003591336410000064
vi=l-1时,yi=1,vi=l时,yi=-1;其中vi为类别数集合,xi为样本,N为样本数,xj为组合后训练样本。
步骤4:循环以下过程直至S=[],其中S为特征集合:
获得l个用于训练的子样本xj(j=1,2,...l(l-1)/2),其中l为个数,xj为样本;
并用此样本xj训练SVM,分别得到wj(j=1,2...l),其中wj为特征权重,其中l为个数;
计算排序准则总分ck=∑jwjk 2(k=1,2...,|S|),其中wjk为第k个子集第j个特征的特征权重,∑表示求和,ck表示第k个子集所有特征的总分,|S|表示特征集合中子集合的个数;
找出排序准则分数最小的特征
Figure BDA0003591336410000065
其中p表示排序准则分数最小特征,arg min为最小值时的变量的取值,ck表示第k个子集所有特征的总分;
更新特征集R={p}∪R,其中R为特征排序集,p表示排序准则分数最小特征,∪表示两个集合的并集;
在S中去除此特征S=S/p,其中S为特征集合,p表示排序准则分数最小特征。
优选地,为了获得最优的融合特征向量,对经过优化的深度学习特征和影像组学特征进行最大相关度计算,最大相关性计算为,通过最大相关系数对R1和R2两个特征向量进行计算,计算地表达式如下:
Figure BDA0003591336410000066
其中的ρ(R1,R2)的值始终介于(-1,1)之间,表示相关性,1表示两个特征之间的强相关性,-1表示两个特征间的弱相关性,COV表示协方差,Var表示变量,R1和R2是两个特征向量。由于感兴趣的是最大相关性,因此通过下列表达式实现两个向量的最大相关:
CC(R1,R2)=T(ρ(g1(R1),g2(R2)))
其中R1和R2是两个特征向量,g1和g2是Borel函数,T表示取Borel函数g1和g2的最小上界,位于(0,1),CC(R1,R2)表示两个向量的最大相关性,ρ(g1(R1),g2(R2))的值始终介于(-1,1)之间,表示相关性;融合的步骤为:输入两个最佳特征向量R1和R2,执行均值填充使得两个向量维度之间相同,计算两个向量的最大相关性,如果两个向量的最大相关性接近1,则在融合向量中加入这两个特征,如果相关性接近0,那么丢弃这两个特征,最后输出一个融合的特征向量。
本发明有益效果:
本发明以CT图像为基础,引入条件随机场特征推理模块,建立椎体与背景像素邻域关系模型,优化对皮质骨边界的区分能力。利用差分进化对卷积神经网络提取的深度学习特征进行特征优化,并利用支持向量机对影像组学特征进行递归筛选,对深度学习筛选特征和影像组学筛选特征进行最大相关度计算,建立骨质疏松分类模型,有效提高骨密度分类的准确性。
附图说明
图1为本发明的整体流程图;
图2为本发明中分割网络的示意图;
图3为本发明中椎体L1和椎体L2的特征融合的示意图;
图4为本发明中GCAM-Net分类网络的示意图;
图5为本发明中GCAM模块示意图;
图6为本发明中分割网络的可视化效果图;
图7为本发明中分类效果ROC曲线图。
具体实施方式
下面结合附图将对本发明实施例中的技术方案进行清楚、完整地描述,以使本领域的技术人员能够更好的理解本发明的优点和特征,从而对本发明的保护范围做出更为清楚的界定。本发明所描述的实施例仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1-7,一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,将CT图像下椎体分为骨质疏松、低骨量与正常组,包括以下步骤:
1、特征提取模块
在使用图卷积神经网络提取特征的过程中,通过G={V,G,A}构建特征交互空间,其中V是交互图中的节点集合,G是节点之间边的集合,A是邻接矩阵,将原始输入的特征图投影到特征交互空间得到新的投影特征
Figure BDA0003591336410000071
其中新的交互节点数为K,新的边集为E,C'为交互空间的维度,通常新特征中节点之间通过线性组合进行连接,不同切片之间的血管形态差异较大,缺乏自适应的采样能力,模型难以优化,采用自适应采样策略,运用三线性插值采样器,使用随机梯度下降的方法为每个原始特征学习移动距离,从而对给定的V个节点的图中,对特征节点Xm及其周围的位移特征节点进行采样。对投影后得到的新特征,遵循图卷积神经网络的卷积操作,定义新的邻接矩阵为AG,权重矩阵为WG,则图卷积网络的运算公式为XG=σ(AGXPROWG),在网络模型的实际操作中,首先应用拉普拉斯平滑和更新邻接矩阵
Figure BDA00035913364100000811
从而将节点特征传播到整个图中,I是输入的一组SMA序列。在实际操作中采用了梯度流最大的剩余连接代替,1×1卷积实现
Figure BDA0003591336410000081
和WG,推理完成后再将特征从交互空间投影回坐标空间。
2、通道特征融合模块
为了抑制背景噪音干扰,没有直接将拼接后的特征直接传送到上采样阶段,而是将来自跳跃连接层中的低层特征图与解码层中上采样的高级特征在通道维度进行拼接,基于挤压和激发(SE)操作来指导特征层之间的融合。将低阶特征
Figure BDA0003591336410000082
与高阶特征
Figure BDA0003591336410000083
在通道维度上进行拼接得到
Figure BDA0003591336410000084
C,H,W分别代表通道式,图像的高度和宽度。接着通过挤压和激励(SE)操作建模通道之间的相关性,通过计算一个权重向量对低层特征进行重新加权并抑制无关背景噪声的干扰。拼接后的特征Fconcat送入一个1×1的卷积层中实现降维,紧着利用全局平均池化(GAP)得到加权向量
Figure BDA0003591336410000085
将Sigmoid函数生成的权重向量与低层特征相乘,然后将重新加权的低层特征与高层特征相加得到最终结果:
Figure BDA0003591336410000086
式中F(c)为当前层的融合特征,
Figure BDA0003591336410000087
为该层上层的融合特征,σ表示sigmoid函数,C1×1代表1×1的卷积操作,c代表模型的层数,FL为低阶特征,FH为高阶特征,GAP为全局平均池化操作,
Figure BDA0003591336410000088
Figure BDA0003591336410000089
分别表示元素相加与元素相乘,采用无参数双线性上采样策略,在保持分割性能的同时减少了参数量。
3、特征推导模块
为了避免以最大化概率来分配分割标签时,由于相邻体素共享特征表达相似而导致不正确的边界分割,在预重建网络中引入条件随机场特征推理模块,使用不同特征提取器——图卷积神经网络(图卷积神经网络)与卷积神经网络(CNN)提取椎体特征,按照所提特征对最终结果的贡献程度,通过注意门调节来自双方的信息流并将该特征输入条件随机场进行推理,对每个像素点进行精准分类,具体位置放置在网络下采样过程中的第4层以及第5层中。
卷积神经网络下采样提取的卷积特征XR安置在每层2D残差块后,注意门AGR控制两种潜在特征的信息流,接着使用条件随机场完成推理过程,全连接条件随机场是一种概率图模型,将图像中每个像素点都看作一个节点,像素与像素之间的关系看作连接节点的边,由此构成条件随机场。使用条件随机场的最终目标是实现能量函数的最小化,在本发明中用图卷积提取的特征和使用条件随机场推理的图卷积中的潜在特征以及卷积提取特征和使用条件随机场推理的卷积中潜在特征之间的关系看作一元势(两个一元势),将使用条件随机场融合的最终特征与注意门之间关系看作二元势,使用高斯函数将推测所得的潜在特征H表征到观测特征X上,本发明中的可观测特为最终图卷积和卷积的融合特征XF,一元势,二元势以及和能量函数的公式如下所示:
Figure BDA00035913364100000810
式中φ(H,X)指代一元势,hn为隐藏特征,xn为可观测特征;
Figure BDA0003591336410000091
式中
Figure BDA0003591336410000092
指代二元势,hm g为参与交互的隐藏图卷积特征,hn r为隐藏卷积特征,
Figure BDA0003591336410000093
为注意门权重矩阵,
Figure BDA0003591336410000094
是与隐藏特征映射相关联的内核势;
Figure BDA0003591336410000095
式中E(HR,HG,XF|I)为使用概率图模型分割时的能量函数,I是输入的一组SMA序列,φG(HG,XG)为隐藏图卷积HG与可观测性图卷积特征XG之间的一元势,φR(HR,XR)为为隐藏卷积HR与可观测性卷积特征XR之间的一元势,ψGR(HG,HR,AGR)为隐藏卷积特征,隐藏图卷积特征与注意门权重矩阵之间的二元势,本实施例利用高斯函数将预测的隐藏特征H驱动到可观测特征X,右上角的角标表示特征来源,表示成对势。
条件随机场中,图像的分割问题被转化为能量函数最小化问题,采用平均场更新来近似代替复杂的后验概率分布,使用具有拟合参数的Q作为后验代理,形成隐藏变量的后验分布:
Figure BDA0003591336410000096
式中P(HR,HG,XF,|I)用于描述可观测的图像分布,Q(HR,HG,XF)为拟合P的后验概率分布,隐藏变量
Figure BDA0003591336410000097
以及注意门权重矩阵
Figure BDA0003591336410000098
间是相互独立的且可分解的,qn为可因数分解表达式,H为潜在特征,右上角的角标表示特征来源,HR,HG分别表示隐藏卷积特征和图特征,X为可观测特征,XF为融合隐藏卷积特征和图形特征的最终可观测特征;
引入KL散度表示使用理论分布Q拟合真实分布P时产生的信息损耗,
Figure BDA0003591336410000099
由于包含式P(h|x),KL散度依旧难以求解,参考马尔科夫随机场,引入最小化自由能函数来优化KL散度的求解,求解公式如下所示:
Figure BDA00035913364100000910
式中DKL(Q||P)为分布P与分布Q之间的KL散度,Q(h)为使用平均场拟合分布P的后验概率分布,lnZ为常数项,E(h)为分割时的能量函数,其中
Figure BDA00035913364100000911
为自由能,自由能的第一项为标记每个体素的成本,第二项表示分布Q的熵,h为隐变量。将能量函数表达式代入KL散度的求解方程中,对隐变量求导并令导数为零有:
Figure BDA0003591336410000101
Figure BDA0003591336410000102
Figure BDA0003591336410000103
Figure BDA0003591336410000104
同理,式中
Figure BDA0003591336410000105
表示注意门权重矩阵
Figure BDA0003591336410000106
的更新,
Figure BDA0003591336410000107
表示分布Q对各隐变量的期望,
Figure BDA0003591336410000108
为注意门权重矩阵,
Figure BDA0003591336410000109
为卷积的潜在特征表达,
Figure BDA00035913364100001010
为图卷积的隐藏特征表达,
Figure BDA00035913364100001011
为对
Figure BDA00035913364100001012
求导后的二元势表达式,
Figure BDA00035913364100001013
为对
Figure BDA00035913364100001014
求导后的可观测卷积特征与隐藏特征之间的一元势,
Figure BDA00035913364100001015
描述可观测卷积特征;
利用相邻体素之间潜在特征表达的重新加权学习体素之间的共生关系,体素n的潜在卷积和图形特征之间的注意力平衡允许重新加权来自体素n的领域间的成对潜在信息。定义
Figure BDA00035913364100001016
Figure BDA00035913364100001017
代入上述公式中有特征更新如下:
Figure BDA00035913364100001018
式中
Figure BDA00035913364100001019
为隐藏图卷积特征的更新,
Figure BDA00035913364100001020
描述可观测图卷积特征,
Figure BDA00035913364100001021
描述可观测卷积特征,
Figure BDA00035913364100001022
是与隐藏特征映射相关联的内核势,
Figure BDA00035913364100001023
为参与交互的隐藏卷积特征,
Figure BDA00035913364100001024
是与隐藏特征映射相关联的内核势,
Figure BDA00035913364100001025
表示按照不同信息流的权重矩阵,将卷积特征归算到图卷积特征中;
Figure BDA00035913364100001026
式中
Figure BDA00035913364100001027
为隐藏卷积特征的更新,
Figure BDA00035913364100001028
描述可观测卷积特征,
Figure BDA00035913364100001029
是与隐藏特征映射相关联的内核势,
Figure BDA00035913364100001030
为参与特征交互的图卷积特征,
Figure BDA00035913364100001031
将参与交互的图卷积特征按照注意门权重归算到卷积特中;
权重矩阵
Figure BDA00035913364100001032
可以使用sigmoid函数对其进行更新:
Figure BDA00035913364100001033
式中,
Figure BDA00035913364100001034
为更新后的
Figure BDA00035913364100001035
为参与交互的注意门权重矩阵,
Figure BDA00035913364100001036
是与隐藏特征映射相关联的内核势,
Figure BDA00035913364100001037
为参与交互的隐藏图卷积特征;
在实际的操作过程中,将条件随机场的平均场更新替换为卷积操作,以适应任何卷积网络的端对端的训练。定义使用图卷积网络提取的特征XG,卷积提取特征XR,注意门的权重矩阵AGR,图中以及卷积中待推理的特征分别为HG以及HR具体的操作步骤为:
(1)计算注意门权重矩阵的更新矩阵:
Figure BDA0003591336410000111
为AGR的更新矩阵,rGR为一个3×3的卷积核,
Figure BDA0003591336410000112
为使用图卷积网络提取的特征,XR为卷积提取特征;
(2)使用sigmoid函数σ对更新矩阵做归一化处理:
Figure BDA0003591336410000113
式中的
Figure BDA0003591336410000114
为归一化后注意门权重矩阵的更新;
(3)HG的平均场更新:HG=rGR*HG,*表示卷积操作,XG为图卷积网络提取的特征,等式左边的HG为更新后的HG,rGR为一个3×3的卷积核;
(4)
Figure BDA0003591336410000115
⊙表示元素相乘,
Figure BDA0003591336410000116
为卷积的隐藏特征HG的更新,
Figure BDA0003591336410000117
为归一化后注意门权重矩阵的更新,XG为使用图卷积网络提取的特征;
(5)通过使用剩余连接添加一元势来更新HR:
Figure BDA0003591336410000118
表示元素相加,
Figure BDA0003591336410000119
为卷积的隐藏特征HG的更新,为了便于迭代更新,HG的贡献归算在HR中。
4、门控通道注意模块
门控通道注意力模块,用于建模通道之间的关系,在归一化之前嵌入全局上下文并控制每个通道的权重,以及一个门控适应算子,根据归一化的输出逐通道地调整输入特征。
其中,GCAM采用一种标准化方法来创建渠道之间的竞争或合作关系。值得注意的是,规范化操作是无参数的。为了使GCAM可学习,设计了一个全局上下文嵌入算子,它在归一化之前嵌入全局上下文并控制每个通道的权重,以及一个门控适应算子,它根据归一化的输出逐通道地调整输入特征。按信道可训练的参数是轻量且有效的,并且使得GCAM便于广泛部署,同时占用少量的参数。此外,门控适应算子的参数对于解释GCAM的行为是容易和直观的。总之,精心设计了高度轻量级的,可解释的,但有效的GCAM架构,该架构基于建模渠道关系的规范化操作。假设
Figure BDA00035913364100001110
作为卷积网络得激活特征,其中得H和W作为图像得高度和宽度,C为图像的通道数,一般来说,GCAM执行以下变换:
Figure BDA00035913364100001111
其中的α,β和γ都是可训练的参数,嵌入权重α主要负责调整嵌入输出、门控权重γ和偏置权重β负责调整门控的激活,
Figure BDA00035913364100001112
表示第c个通道的特征图,
Figure BDA00035913364100001113
表示变换后的特征,F表示函数变换,x表示原特征。它们决定了GCAM在每个通道中的行为。相对于通道注意力模块SE的时间复杂度O(C2),GCAM模块的时间复杂度只有O(C)。
其中,大感受野信息可以避免小感受野信息(例如,卷积层)引起的局部模糊,因此,首先设计了一个全局上下文嵌入模块来聚合每个通道中的全局上下文信息、该模块可以利用卷积层的小感受域之外的全局上下文信息。给定嵌入权重α=[α12,…αc],模块Sc的定义为:
Figure BDA0003591336410000121
其中的∈是一个小常数,主要用来避免零点的求导问题,Sc为小感受域模块,α表示嵌入权重集,c表示通道数,|| ||2表示2范数,H表示图像高度,W表示图像宽度,∑表示求和,xc表示通道特征。相对于SE来说,GCAM不使用全局平均池化层来汇总通道的环境。此外,GCAM使用可训练的参数αc来控制每个通道的权重,因为不同的通道应该具有不同的重要性,特别是αc接近0时,通道C将不参与通道归一化,总之,门控权重α使得GCAM能够学习一个通道对于其他通道是独立的情况。
其中,归一化方法可以在神经元(或通道)之间建立竞争关系,具有轻量级计算资源和稳定的训练性能。类似于LRN,使用l2归一化来跨信道操作,即信道归一化。S=[S1,S2,...Sc]通道归一化的公式为:
Figure BDA0003591336410000122
其中c是一个小常数,标量
Figure BDA0003591336410000123
用于归一化SC的比例,为了避免c太大的时候SC的规模太小,∑表示求和,|| ||2表示2范数,Sc为小感受域模块,
Figure BDA0003591336410000124
为通道归一化。
其中,采用门控机制来适应原始特征,通过引入门控机制,GCAM可以在训练过程中促进竞争和合作。设选通权重γ=[γ12,...γc]和门控偏置β,设计以下门控函数:
Figure BDA0003591336410000125
其中,
Figure BDA0003591336410000126
为门控函数,每个原始通道xc的标度将由其对应的门来适配,即
Figure BDA0003591336410000127
由于通道归一化是无参数的,设计了可训练的权重和偏差γ和β,用于学习以通道方式控制门的激活。LRN只受益于神经元之间的竞争。然而,通过结合标准化方法和门控机制,GCAM能够对不同渠道之间的更多类型的关系(即竞争和合作)建模。当一个通道的选通权重(γc)被积极激活时,GCAM促进该通道与其他通道竞争,如在LRN,当门控权重被负面激活时,GCAM鼓励通道与其他通道合作。
此外,当选通权重和偏差为零时,该选通函数允许原始特征传递到下一层,即
Figure BDA0003591336410000128
其中,
Figure BDA0003591336410000129
表示传递后的特征,F表示函数变换,x表示原特征。对身份映射进行建模的能力可以有效地提高深度网络中退化问题的鲁棒性。ResNet也从这个想法中受益。因此,建议在初始化GCAM层时将γ和β初始化为0。这样做,训练过程的初始步骤会更稳定,GCAM的最终表现会更好。
5、差分进化特征优化模块
为了对卷积神经网络提取到的特征进行特征优化,并且消除后续模型训练中过拟合的问题。使用差分进化算法进行特征选择。差分进化算法作为一种全局搜索优化问题的进化算法,首先它在搜索空间中产生一些初始值,然后对输入数据进行变异和交叉,接着选择过程成中产生的新的种群。具体的流程如下:输入:分割后的特征向量,输出:优化后的特征向量,对种群进行初始化
Figure BDA0003591336410000131
其中
Figure BDA0003591336410000132
表示第j维的下界,
Figure BDA0003591336410000133
表示第j维的上界,NP表示向量数,D表示向量维度。然后通过以下表达式进行计算边界:
Figure BDA0003591336410000134
其中rand(0,1)表示区间[0,1]上的随机数,
Figure BDA0003591336410000135
表示第j维的下界,
Figure BDA0003591336410000136
表示第j维的上界,xi,j(0)表示边界计算;使用精细的KNN算法计算适应度函数;执行变异,变异的表达式如下:vi(n+1)=λr1(n)+F(λr2(n)-λr3(n)),其中F代表范围为(0,2)的缩放变异因子,n表示第n代,vi(n+1)表示经过变异得种群,λr1(n)表示未经过变异得种群,源向量是从总体中随机选择的λr1、λr2、λr3,并且λr1、λr2、λr3要互不相同;执行交叉,设置交叉比例,如果交叉比例大于0到1之间的随机数,那么Ci,j(n+1)=vi,j(n+1),其他情况下,Ci,j(n+1)=λi,j(n+1),其中Ci,j(n+1)表示交叉后得种群,vi,j(n+1)表示经过变异得种群,λi,j(n+1)表示未经过变异得种群。最后进行选择,在差分进化算法中使用贪婪选择的策略,就是选择较优的个体作为新的个体。对于每一个个体来说,得到地解要好于或者持平于个体通过变异、交叉、选择达到全部最优。
选择的公式如下:
Figure BDA0003591336410000137
其中,Xi(n+1)为选择后的个体,f表示当前种群适应度平均值,Xi(n)表示原始种群,Ci(n+1)表示交叉变异后的种群,n表示第n代。
6、SVM-RFE特征筛选模块
为了去除影像组学提取地特征中的冗余特征,提取到关键信息,使用SVM-RFE方法对影像组学进行特征选择,筛选步骤如下:
步骤1:输入需要的数据样本集
Figure BDA0003591336410000138
vi∈{1,2,...,l},其中,l为类别数,vi为类别数集合,N为总样本数,xi为样本。并对数据进行标准化处理
Figure BDA0003591336410000139
μ为均值,σ为标准差,xi为样本;
步骤2:输入特征集合S={1,2,3...D}并初始化,设置特征排序集R=[],其中D为特征集合子集合;
步骤3:生成
Figure BDA00035913364100001310
个样本,并且在训练的样本
Figure BDA00035913364100001311
中找出不同类别的两两组合得到最后的训练样本;
Figure BDA00035913364100001312
vi=1时,yi=1,vi=j+1时,yi=-1;…………
Figure BDA0003591336410000141
vi=l-1时,yi=1,vi=l时,yi=-1;其中vi为类别数集合,xi为样本,N为样本数,xj为组合后训练样本。
步骤4:循环以下过程直至S=[ ],其中S为特征集合:
获得l个用于训练的子样本xj(j=1,2,...l(l-1)/2);
并用此样本xj训练SVM,分别得到wj(j=1,2...l),其中wj为特征权重;
计算排序准则总分ck=∑jwjk 2(k=1,2...,|S|),其中wjk为第k个子集第j个特征的特征权重,∑表示求和,ck表示第k个子集所有特征的总分,|S|表示特征集合中子集合的个数;
找出排序准则分数最小的特征
Figure BDA0003591336410000142
其中p表示排序准则分数最小特征,arg min为最小值时的变量的取值,ck表示第k个子集所有特征的总分;
更新特征集R={p}∪R,其中R为特征排序集,p表示排序准则分数最小特征,∪表示两个集合的并集;
在S中去除此特征S=S/p,其中S为特征集合,p表示排序准则分数最小特征。
6、最大相关度计算模块
最大相关性计算为,通过最大相关系数对R1和R2两个特征向量进行计算,计算地表达式如下:
Figure BDA0003591336410000143
其中的ρ(R1,R2)的值始终介于(-1,1)之间,表示相关性,1表示两个特征之间的强相关性,-1表示两个特征间的弱相关性,COV表示协方差,Var表示变量,R1和R2是两个特征向量。由于感兴趣的是最大相关性,因此通过下列表达式实现两个向量的最大相关:
CC(R1,R2)=T(ρ(g1(R1),g2(R2)))
其中R1和R2是两个特征向量,g1和g2是Borel函数,T表示取Borel函数g1和g2的最小上界,位于(0,1),CC(R1,R2)表示两个向量的最大相关性,ρ(g1(R1),g2(R2))的值始终介于(-1,1)之间,表示相关性;融合的步骤为:输入两个最佳特征向量R1和R2,执行均值填充使得两个向量维度之间相同,计算两个向量的最大相关性,如果两个向量的最大相关性接近1,则在融合向量中加入这两个特征,如果相关性接近0,那么丢弃这两个特征,最后输出一个融合的特征向量。
以上对本发明的实施例进行了详细说明,但所述内容仅为本发明的较佳实施例,不能被认为用于限定本发明的实施范围。凡依本发明申请范围所作的均等变化与改进等,均应仍归属于本发明的专利涵盖范围之内。

Claims (10)

1.一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,将CT图像下椎体分为骨质疏松、低骨量与正常组,其特征在于,包括以下步骤:
S1:建立基于CRF和注意力引导的椎体分割网络,获取L1椎体、L2椎体的松质骨分割掩膜;
S2:通过GCAM-Net对L1椎体和L2椎体融合后的特征图进行深度学习特征提取,并利用L1椎体和L2椎体的CT图像及掩膜进行影像组学特征提取;
S3:运用差分进化算法在深度学习特征中提取最优特征集,并将提取后影像组学特征通过SVM-RFE法进行特征筛选,最后将影像组学特征和深度学习特征进行最大相关性融合算法进行特征融合,并利用神经网络分类。
2.根据权利要求1所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,在S1中,所述CRF和注意力引导的椎体分割网络包括:
特征提取模块,将图形特征嵌入到卷积神经网络中,用于学习卷积特征和图形特征;
通道特征融合模块,用于抑制背景中噪音、伪影对分割的干扰;
特征推理模块,用于划分皮质骨与松质骨区域,细化松质骨分割边界,填充分割掩膜内部的孔洞。
3.根据权利要求2所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,所述特征提取模块利用2D残差块和图卷积进行特征提取,使用注意门控制来自不同特征提取器中的信息流。
4.根据权利要求2所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,所述特征推理模块利用条件随机场建立椎体像素邻域间的关系,将分割问题转化为能量成本最小化问题,用平均场更新来近似代替复杂的后验概率分布,利用KL散度表示使用理论分布Q拟合真实分布P时产生的信息损耗,引入最小化自由能函数来优化KL散度的求解,求解公式如下所示:
Figure FDA0003591336400000011
式中,DKL(Q||P)为分布P与分布Q之间的KL散度,Q(h)为使用平均场拟合分布P的后验概率分布,lnZ为常数项,E(h)为分割时的能量函数,h为隐变量,其中
Figure FDA0003591336400000012
为自由能,自由能的第一项为标记每个体素的成本,第二项表示分布Q的熵,利用卷积操作代替随机场中的平均场更新,定义使用图卷积网络提取的特征XG,卷积提取特征XC,注意门的权重矩阵AGR,卷积中待推理的特征分别为HG以及HR具体的操作步骤为:
(1)计算注意门权重矩阵的更新矩阵:
Figure FDA0003591336400000013
Figure FDA0003591336400000014
为AGR的更新矩阵,rGR为一个3×3的卷积核,XG为使用图卷积网络提取的特征,XR为卷积提取特征;
(2)使用sigmoid函数σ对更新矩阵做归一化处理:
Figure FDA0003591336400000021
式中的
Figure FDA0003591336400000022
为归一化后注意门权重矩阵的更新;
(3)HG的平均场更新:HG=rGR*HG,*表示卷积操作,XG为图卷积网络提取的特征,等式左边的HG为更新后的HG,rGR为一个3×3的卷积核;
(4)
Figure FDA0003591336400000023
⊙表示元素相乘,
Figure FDA0003591336400000024
为卷积的隐藏特征HG的更新,
Figure FDA0003591336400000025
为归一化后注意门权重矩阵的更新,XG为使用图卷积网络提取的特征;
(5)通过使用剩余连接添加一元势来更新
Figure FDA0003591336400000026
Figure FDA0003591336400000027
表示元素相加,
Figure FDA0003591336400000028
为卷积的隐藏特征HG的更新,为了便于迭代更新,HG的贡献归算在HR中。
5.根据权利要求2所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,所述通道特征融合模块,聚合来自编码层的低级信息以及解码层中的高级特征,通过挤压和激发操作校准通道特征响应,得到的权重向量与低层特征相乘,并将重新加权的低层特征与高层特征相加得到最终结果,抑制背景中噪音、以及相似组织对分割的干扰。
6.根据权利要求1所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,在S2中,所述GCAM用于椎体特征提取卷积神经网络包括:
特征融合模块,通过对L1椎体和L2椎体的图像在进行卷积神经网络特征提取前,先一步进行特征融合,特征融合最后采用特征的通道数相融合的方式将L1椎体图像和L2椎体图像进行特征融合;
门控通道注意力模块,用于建模通道之间的关系,在归一化之前嵌入全局上下文并控制每个通道的权重,以及一个门控适应算子,根据归一化的输出逐通道地调整输入特征。
7.根据权利要求1所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,在S3中,利用差分进化算法、SVM-RFE算法和最大相关性计算对特征进行优化;
差分进化算法:将差分进化算法模块嵌入到神经网络提取特征的池化层后,全连接层前,对特征进行优化;
SVM-RFE算法:将SVM-RFE算法嵌入影像组学特征提取后,对批提取特征进行递归特征筛选,去除冗余信息;
最大相关性计算:将差分进化算法后的特征和SVM-RFE后的特征进行最大相关度计算,进一步对特征进行优化。
8.根据权利要求7所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,所述差分进化算法从某一随机产生的初始群体开始,利用从种群中随机选取的两个个体的差向量作为第三个个体的随机变化源,将差向量加权后按照一定的规则与第三个个体求和而产生变异个体,该操作称为变异;然后,变异个体与某个预先决定的目标个体进行参数混合,生成试验个体,这一过程称之为交叉;如果试验个体的适应度值优于目标个体的适应度值,则在下一代中试验个体取代目标个体,否则目标个体仍保存下来,该操作称为选择;在每一代的进化过程中,每一个体矢量作为目标个体一次,算法通过不断地迭代计算,保留优良个体,淘汰劣质个体,引导搜索过程向全局最优解逼近。
9.根据权利要求7所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,所述SVM-RFE算法对影像组学特征进行筛选的步骤为:
步骤1:输入需要的数据样本集
Figure FDA0003591336400000029
其中,l为类别数,vi为类别数集合,N为总样本数,xi为样本;并对数据进行标准化处理
Figure FDA00035913364000000210
μ为均值,σ为标准差,xi为样本;
步骤2:输入特征集合S={1,2,3...D}并初始化,设置特征排序集R=[],其中D为特征集合子集合;
步骤3:生成
Figure FDA0003591336400000031
个样本,并且在训练的样本
Figure FDA0003591336400000032
中找出不同类别的两两组合得到最后的训练样本;
Figure FDA0003591336400000033
vi=1时,yi=1,vi=j+1时,yi=-1;…………
Figure FDA0003591336400000034
vi=l-1时,yi=1,vi=l时,yi=-1;其中vi为类别数集合,xi为样本,N为样本数,xj为组合后训练样本;
步骤4:循环以下过程直至S=[],其中S为特征集合:
获得l个用于训练的子样本xj(j=1,2,...l(l-1)/2),其中l为个数,xj为样本;
并用此样本xj训练SVM,分别得到wj(j=1,2...l),其中wj为特征权重,l为个数;
计算排序准则总分ck=∑jwjk 2(k=1,2...,|S|),其中wjk为第k个子集第j个特征的特征权重,∑表示求和,ck表示第k个子集所有特征的总分,|S|表示特征集合中子集合的个数;
找出排序准则分数最小的特征
Figure FDA0003591336400000035
其中p表示排序准则分数最小特征,argmin为最小值时的变量的取值,ck表示第k个子集所有特征的总分;
更新特征集R={p}∪R,其中R为特征排序集,p表示排序准则分数最小特征,∪表示两个集合的并集;
在S中去除此特征S=S/p,其中S为特征集合,p表示排序准则分数最小特征。
10.根据权利要求7所述的一种基于影像组学与深度学习特征融合的椎体骨密度分类方法,其特征在于,所述最大相关性计算为,通过最大相关系数对R1和R2两个特征向量进行计算,计算地表达式如下:
Figure FDA0003591336400000036
其中的ρ(R1,R2)的值始终介于(-1,1)之间,表示相关性,1表示两个特征之间的强相关性,-1表示两个特征间的弱相关性,COV表示协方差,Var表示变量,R1和R2是两个特征向量。由于感兴趣的是最大相关性,因此通过下列表达式实现两个向量的最大相关:
CC(R1,R2)=T(ρ(g1(R1),g2(R2)))
其中R1和R2是两个特征向量,g1和g2是Borel函数,T表示取Borel函数g1和g2的最小上界,位于(0,1),CC(R1,R2)表示两个向量的最大相关性,ρ(g1(R1),g2(R2))的值始终介于(-1,1)之间,表示相关性;融合的步骤为:输入两个最佳特征向量R1和R1,执行均值填充使得两个向量维度之间相同,计算两个向量的最大相关性,如果两个向量的最大相关性接近1,则在融合向量中加入这两个特征,如果相关性接近0,那么丢弃这两个特征,最后输出一个融合的特征向量。
CN202210378696.6A 2022-04-12 2022-04-12 一种基于影像组学与深度学习特征融合的椎体骨密度分类方法 Active CN114863165B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210378696.6A CN114863165B (zh) 2022-04-12 2022-04-12 一种基于影像组学与深度学习特征融合的椎体骨密度分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210378696.6A CN114863165B (zh) 2022-04-12 2022-04-12 一种基于影像组学与深度学习特征融合的椎体骨密度分类方法

Publications (2)

Publication Number Publication Date
CN114863165A true CN114863165A (zh) 2022-08-05
CN114863165B CN114863165B (zh) 2023-06-16

Family

ID=82628794

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210378696.6A Active CN114863165B (zh) 2022-04-12 2022-04-12 一种基于影像组学与深度学习特征融合的椎体骨密度分类方法

Country Status (1)

Country Link
CN (1) CN114863165B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115311302A (zh) * 2022-10-12 2022-11-08 四川大学华西医院 股骨头缺血坏死分期特征构建方法、诊断系统和存储介质
CN116128957A (zh) * 2023-04-20 2023-05-16 博志生物科技(深圳)有限公司 一种椎体骨空洞分析方法、装置、设备及存储介质
CN116152505A (zh) * 2023-04-20 2023-05-23 深圳市亿康医疗技术有限公司 基于x光数据的骨骼目标识别分割方法
CN116630679A (zh) * 2023-03-29 2023-08-22 南通大学 一种基于ct图像和域不变特征的骨质疏松识别方法
CN117197651A (zh) * 2023-07-24 2023-12-08 移动广播与信息服务产业创新研究院(武汉)有限公司 一种结合边缘检测与语义分割的田块提取方法及系统
CN118429334A (zh) * 2024-07-02 2024-08-02 西安市第三医院 一种端到端的骨密度测量方法及设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160015347A1 (en) * 2014-07-21 2016-01-21 Zebra Medical Vision Ltd. Systems and methods for emulating dexa scores based on ct images
CN110796636A (zh) * 2019-09-25 2020-02-14 中国人民解放军战略支援部队信息工程大学 基于卷积神经网络的ct图像骨质状况检测方法及装置
CN112365604A (zh) * 2020-11-05 2021-02-12 深圳市中科先见医疗科技有限公司 基于语义分割和slam的ar设备景深信息应用方法
CN112489723A (zh) * 2020-12-01 2021-03-12 南京理工大学 基于局部进化信息的dna结合蛋白预测方法
CN112686902A (zh) * 2019-10-17 2021-04-20 西安邮电大学 核磁共振影像中脑胶质瘤识别与分割的两阶段计算方法
CN112861722A (zh) * 2021-02-09 2021-05-28 中国科学院地理科学与资源研究所 一种半监督深度图卷积的遥感土地利用语义分割方法
CN113223699A (zh) * 2021-04-01 2021-08-06 复旦大学附属华山医院 构建腰椎骨量减少和骨质疏松筛查模型的方法和系统
WO2021244621A1 (zh) * 2020-06-04 2021-12-09 华为技术有限公司 基于全局引导选择性上下文网络的场景语义解析方法
CN114049314A (zh) * 2021-10-28 2022-02-15 杭州电子科技大学 一种基于特征重排和门控轴向注意力的医学图像分割方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160015347A1 (en) * 2014-07-21 2016-01-21 Zebra Medical Vision Ltd. Systems and methods for emulating dexa scores based on ct images
CN110796636A (zh) * 2019-09-25 2020-02-14 中国人民解放军战略支援部队信息工程大学 基于卷积神经网络的ct图像骨质状况检测方法及装置
CN112686902A (zh) * 2019-10-17 2021-04-20 西安邮电大学 核磁共振影像中脑胶质瘤识别与分割的两阶段计算方法
WO2021244621A1 (zh) * 2020-06-04 2021-12-09 华为技术有限公司 基于全局引导选择性上下文网络的场景语义解析方法
CN112365604A (zh) * 2020-11-05 2021-02-12 深圳市中科先见医疗科技有限公司 基于语义分割和slam的ar设备景深信息应用方法
CN112489723A (zh) * 2020-12-01 2021-03-12 南京理工大学 基于局部进化信息的dna结合蛋白预测方法
CN112861722A (zh) * 2021-02-09 2021-05-28 中国科学院地理科学与资源研究所 一种半监督深度图卷积的遥感土地利用语义分割方法
CN113223699A (zh) * 2021-04-01 2021-08-06 复旦大学附属华山医院 构建腰椎骨量减少和骨质疏松筛查模型的方法和系统
CN114049314A (zh) * 2021-10-28 2022-02-15 杭州电子科技大学 一种基于特征重排和门控轴向注意力的医学图像分割方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BHARGAV J. BHATKALKAR ET AL.: "Improving the Performance of Convolutional Neural Network for the Segmentation of Optic Disc in Fundus Images Using Attention Gates and Conditional Random Fields", 《DIGITAL OBJECT IDENTIFIER》 *
BHARGAV J. BHATKALKAR ET AL.: "Improving the Performance of Convolutional Neural Network for the Segmentation of Optic Disc in Fundus Images Using Attention Gates and Conditional Random Fields", 《DIGITAL OBJECT IDENTIFIER》, 18 February 2020 (2020-02-18) *
王瑛等: "超声影像组学标签对乳腺癌HER-2状态的预测价值", 《中国循证医学杂志》 *
王瑛等: "超声影像组学标签对乳腺癌HER-2状态的预测价值", 《中国循证医学杂志》, vol. 21, no. 3, 31 March 2021 (2021-03-31) *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115311302A (zh) * 2022-10-12 2022-11-08 四川大学华西医院 股骨头缺血坏死分期特征构建方法、诊断系统和存储介质
CN116630679A (zh) * 2023-03-29 2023-08-22 南通大学 一种基于ct图像和域不变特征的骨质疏松识别方法
CN116630679B (zh) * 2023-03-29 2024-06-04 南通大学 一种基于ct图像和域不变特征的骨质疏松识别方法
CN116128957A (zh) * 2023-04-20 2023-05-16 博志生物科技(深圳)有限公司 一种椎体骨空洞分析方法、装置、设备及存储介质
CN116152505A (zh) * 2023-04-20 2023-05-23 深圳市亿康医疗技术有限公司 基于x光数据的骨骼目标识别分割方法
CN116152505B (zh) * 2023-04-20 2023-06-20 深圳市亿康医疗技术有限公司 基于x光数据的骨骼目标识别分割方法
CN117197651A (zh) * 2023-07-24 2023-12-08 移动广播与信息服务产业创新研究院(武汉)有限公司 一种结合边缘检测与语义分割的田块提取方法及系统
CN117197651B (zh) * 2023-07-24 2024-03-29 移动广播与信息服务产业创新研究院(武汉)有限公司 一种结合边缘检测与语义分割的田块提取方法及系统
CN118429334A (zh) * 2024-07-02 2024-08-02 西安市第三医院 一种端到端的骨密度测量方法及设备
CN118429334B (zh) * 2024-07-02 2024-08-30 西安市第三医院 一种端到端的骨密度测量方法及设备

Also Published As

Publication number Publication date
CN114863165B (zh) 2023-06-16

Similar Documents

Publication Publication Date Title
CN114863165B (zh) 一种基于影像组学与深度学习特征融合的椎体骨密度分类方法
Lueckmann et al. Likelihood-free inference with emulator networks
CN108268870B (zh) 基于对抗学习的多尺度特征融合超声图像语义分割方法
Ypsilantis et al. Recurrent convolutional networks for pulmonary nodule detection in CT imaging
WO2021138092A1 (en) Artificial neural network architectures based on synaptic connectivity graphs
Abualigah et al. Multilevel thresholding image segmentation using meta-heuristic optimization algorithms: Comparative analysis, open challenges and new trends
WO2021138082A1 (en) Training artificial neural networks based on synaptic connectivity graphs
WO2021138085A1 (en) Predicting neuron types based on synaptic connectivity graphs
Saad et al. A survey on training challenges in generative adversarial networks for biomedical image analysis
Murugesan et al. Calibrating segmentation networks with margin-based label smoothing
CN114445356A (zh) 基于多分辨率的全视野病理切片图像肿瘤快速定位方法
CN115457020A (zh) 一种融合残差图像信息的2d医学图像配准方法
CN113989551A (zh) 一种基于改进ResNet网络的阿尔茨海默病分类方法
US20220383504A1 (en) Probablistic segmentation
Mowlani et al. Segmentation and classification of brain tumors using fuzzy 3D highlighting and machine learning
Melo et al. OCT Image Synthesis through Deep Generative Models
US12106549B2 (en) Self-supervised learning for artificial intelligence-based systems for medical imaging analysis
CN114565762B (zh) 基于roi和分裂融合策略的弱监督肝脏肿瘤分割方法
Bhattacharjya et al. A genetic algorithm for intelligent imaging from quantum-limited data
US11580390B2 (en) Data processing apparatus and method
Li et al. Model Inversion Attacks Through Target-Specific Conditional Diffusion Models
US20240046453A1 (en) Semi-supervised learning leveraging cross-domain data for medical imaging analysis
US20240338813A1 (en) Domain adaption for prostate cancer detection
EP4432166A1 (en) Invariance preserving knowledge distillation of foundational models for medical imaging analysis
US20240177458A1 (en) Cross domain segmentation with uncertainty-guided curriculum learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant