CN114494192B - 一种基于深度学习的胸腰椎骨折识别分割与检测定位方法 - Google Patents
一种基于深度学习的胸腰椎骨折识别分割与检测定位方法 Download PDFInfo
- Publication number
- CN114494192B CN114494192B CN202210092665.4A CN202210092665A CN114494192B CN 114494192 B CN114494192 B CN 114494192B CN 202210092665 A CN202210092665 A CN 202210092665A CN 114494192 B CN114494192 B CN 114494192B
- Authority
- CN
- China
- Prior art keywords
- thoracolumbar
- fracture
- image
- representing
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
- G06T2207/30012—Spine; Backbone
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Software Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Epidemiology (AREA)
- Probability & Statistics with Applications (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明公开了一种基于深度学习的胸腰椎骨折识别分割与检测定位方法,包括以下步骤:S1:采集CT图像,并利用U‑Net神经网络进行胸腰椎识别分割,得到存在骨折的胸腰椎骨目标区域;S2:在存在骨折的胸腰椎骨目标区域中,利用Faster‑Rcnn深度学习网络进行胸腰椎骨折检测,并定位。本发明需首先从CT图像中定位可能存在骨折的胸腰椎骨目标区域,以供后续深入分析椎骨状态。由此,运用Faster‑Rcnn深度学习网络来检测胸腰椎骨骨折,探索关注目标在影像场景空间中的相对位置关联关系,定位骨折位置是属于胸椎还是腰椎并在其各自第几节,形成胸腰椎各类骨折的检测分割和定位方法,其定位准确。
Description
技术领域
本发明属于医学类深度学习图像处理技术领域,具体涉及一种基于深度学习的胸腰椎骨折识别分割与检测定位方法。
背景技术
脊柱骨折是骨科最常见的疾病之一,是由外力引起的脊柱椎体骨质发生的连续性破坏。脊柱骨折其损伤机制复杂、骨折表现多样,不同临床医师对同一个患者的诊断分型存在较大差异。智能化、精准化和微创化是骨科医疗的发展方向,面向提高骨科骨折诊断准确度和效率、减少误诊、提升骨科诊断的智能化水平等方面的重大需求,本发明以胸腰椎骨为对象,研究基于机器视觉的影像(以CT影像为例)中骨折病症的机器自主检测与识别定位技术,形成针对性的影像中骨折病症智能诊断模型与方法。
发明内容
本发明为了解决上述问题,提出了一种基于深度学习的胸腰椎骨折识别分割与检测定位方法。
本发明的技术方案是:一种基于深度学习的胸腰椎骨折识别分割与检测定位方法包括以下步骤:
S1:采集CT图像,并利用U-Net神经网络进行胸腰椎识别分割,得到存在骨折的胸腰椎骨目标区域;
S2:在存在骨折的胸腰椎骨目标区域中,利用Faster-Rcnn深度学习网络进行胸腰椎骨折检测,并定位。
进一步地,步骤S1包括以下子步骤:
S11:采集CT图像,对CT图像进行预处理,并对预处理后的CT图像进行分类和标注,得到用于U-Net神经网络的训练集和验证集;
S12:将预处理后的CT图像的尺寸裁剪为572×572,利用跳跃连接卷积神经网络对裁剪后的训练集中的CT图像进行卷积和下采样,获取浅层级特征,利用跳跃连接卷积神经网络对裁剪后的训练集中的CT图像进行反卷积和上采样,获取高层级特征;
S13:利用跳跃连接卷积神经网络将浅层级特征和高层级特征进行融合,得到CT图像中骨折与正常骨头的特征映射图;
S14:利用U-Net神经网络对训练集的CT图像进行像素分类,完成对U-Net神经网络的训练;
S15:利用训练集对训练完成的U-Net神经网络进行测试,得到存在骨折的胸腰椎骨目标区域。
进一步地,步骤S14中,利用pixel-wise softmax分类器进行像素分类,得到各个像素点的概率pk(x),其计算公式为:
其中,ak(x)表示在位置x处的像素在特征图中的第k层的激活值;K表示像素点的类别总数;ak′(x)表示在位置x处的像素在特征图中的第k′层的激活值。
进一步地,步骤S2包括以下子步骤:
S21:对CT图像进行预处理,并对预处理后的CT图像进行分类和标注,得到用于深度学习网络的训练集和验证集;
S22:对训练集的CT图像进行缩放,并将缩放后的CT图像输入至深度学习网络,得到CT图像的特征图;
S23:将特征图经过3×3的卷积后,分别输入至RPN网络的分类结构和回归结构中,得到CT图像中存在骨折的胸腰椎骨目标区域的具体位置;
S24:根据目标区域的具体位置,利用RPN网络中全连接层和softmax层确定存在骨折的胸腰椎骨类别,利用回归结构获取每个目标区域的位置偏移量,并利用位置偏移量确定目标检测框;其中,胸腰椎骨类别包括骨折部位、骨缝和尾椎;
S25:设定胸腰椎骨头名称L,根据胸腰椎骨类别和目标检测框确定目标预测框的内容信息;
S26:根据胸腰椎类型,从目标预测框的内容信息中提取尾椎的中心点最小纵坐标和骨折部位的中心点最小纵坐标,并判断尾椎的中心点最小纵坐标和骨折部位的中心点最小纵坐标是否同时存在,若是则进入步骤S27,否则剔除该CT图像;
S27:将所有中心点最小纵坐标进行降序排列,得到序列Y,并将序列Y与目标预测框的内容信息的中心点最小纵坐标进行逐一对比,得到相同数据对应的索引LL;
S28:将索引LL进行升序排列,并骨折部位的索引对应胸腰椎骨头名称L中,得到骨折部位骨头的名称,完成骨折定位。
进一步地,步骤S22中,对训练集的CT图像进行缩放的具体方法为:若CT图像短边小于600像素,则将短边乘以相应的倍率放大至600像素,并将长边乘以同样倍率;若CT图像长边大于1000像素,则长边乘以相应的倍率缩小至1000像素,并将短边乘以同样倍率,以使保证CT图像短边大于600像素,长边小于1000像素。
进一步地,步骤S23中,RPN网络中分类结构和回归结构组成的损失函数L({pi},{ti})的表达式为:
其中,i表示锚框索引,pi表示第i个锚框的预测分类概率,p* i代表其对应的标注预测的概率,Ncls表示每次调整参数前所选取的样本数量,ti表示第i个锚框预测的边界框的参数化坐标,Lcls(·)表示两个类别的对数损失,λ表示权重平衡参数,Lreg(·)表示回归损失;
步骤S25中,目标检测框的内容信息的表达式为(xmin,ymin,xmax,ymax),其计算公式为:
其中,xmin表示目标预测框的左上角横坐标,ymin表示目标预测框的左上角纵坐标,xmax表示目标预测框的右下角横坐标,ymax表示目标预测框的右下角纵坐标,x表示目标预测框的中心点横坐标,w表示目标预测框的长,y表示目标预测框的中心点纵坐标,h表示目标预测框的宽;
步骤S25中,胸腰椎骨头名称L的表达式为:
L=['L5','L4','L3','L2','L1','T12','T11','T10','T9','T8','T6','T5','T4','T3','T2','T1']
其中,L5,…,L1表示第五腰椎到第一腰椎,T12,…,T1表示第十二胸椎到第一胸椎。
本发明的有益效果是:本发明主要针对病人个体差异巨大、人体组织复杂和影像场景元素不定的特点,为从场景观测图像中获取多类型关注目标的位置和姿态等多元信息,运用U-Net神经网络对脊柱CT图像进行分割检测;为发现和识别骨折,需首先从CT图像中定位可能存在骨折的胸腰椎骨目标区域,以供后续深入分析椎骨状态。由此,运用Faster-Rcnn深度学习网络来检测胸腰椎骨骨折,探索关注目标在影像场景空间中的相对位置关联关系,定位骨折位置是属于胸椎还是腰椎并在其各自第几节,形成胸腰椎各类骨折的检测分割和定位方法,其定位准确。
附图说明
图1为胸腰椎骨折识别分割与检测定位方法的流程图;
图2为U-net网络的结构图;
图3为分割结果示意图;
图4为定位结果示意图。
具体实施方式
下面结合附图对本发明的实施例作进一步的说明。
如图1所示,本发明提供了一种基于深度学习的胸腰椎骨折识别分割与检测定位方法,包括以下步骤:
S1:采集CT图像,并利用U-Net神经网络进行胸腰椎识别分割,得到存在骨折的胸腰椎骨目标区域;
S2:在存在骨折的胸腰椎骨目标区域中,利用Faster-Rcnn深度学习网络进行胸腰椎骨折检测,并定位。
在本发明实施例中,步骤S1包括以下子步骤:
S11:采集CT图像,对CT图像进行预处理,并对预处理后的CT图像进行分类和标注,得到用于U-Net神经网络的训练集和验证集;
样本选择:为了适合U-Net网络的输入首先对CT图像进行预处理,选择线条清晰、大小合适、处于能够观察到骨折角度的图片作为样本数据;排除阴影遮挡严重、隐匿骨折的特殊样本;
样本处理:基于数据选择后,应用影像labelme系统对CT图像进行分类确认并标注,建立用于深度学习网络的训练集和验证集;
S12:将预处理后的CT图像的尺寸裁剪为572×572,利用跳跃连接卷积神经网络对裁剪后的训练集中的CT图像进行卷积和下采样,获取浅层级特征,利用跳跃连接卷积神经网络对裁剪后的训练集中的CT图像进行反卷积和上采样,获取高层级特征;
图像输入:对于数据集中的图像样本大小尺寸没有要求,但对于U-Net神经网络的输入而言,所有图像样本被处理为统一尺寸572×572;
跳跃连接卷积神经网络:由4层valid卷积,批量归一化,激活函数以及最大池化操作构成,并将从输入到最后一层操作进行一低层一高层的跳跃连接;valid卷积(即仅使用每个卷积的有效部分,不填充)是3x3大小的卷积操作,并且步长为1;2x2池化操作的padding策略也是vaild;跳跃连接卷积神经网络中的可形变卷积及池化等操作对输入图像进行骨折与正常骨头的特征提取,并利用跳跃连接对浅层级特征与高层级特征进行融合,得到骨折与正常骨头的特征映射图;
S13:利用跳跃连接卷积神经网络将浅层级特征和高层级特征进行融合,得到CT图像中骨折与正常骨头的特征映射图;
由4层双线性插值和反卷积操作进行上采样,将图像恢复到原来的尺寸以便进行进一步的计算;最后一层使用1X1大小的卷积核,将通道数降低至特定的数量(如像素点的类别数量);
S14:利用U-Net神经网络对训练集的CT图像进行像素分类,完成对U-Net神经网络的训练;
模型的最后通过逐个像素地求其在这两张图像中该像素位置的最大数值描述(概率)作为该像素的分类,因此产生了一张已经分割好的图片,实现端到端。这个概率的求法是:首先是用了pixel-wise softmax分类器,就是每个像素对应的输出单独做softmax。
选择加权Loss算法对训练模型过程中的损失进行监测,加权Loss为:
其中,l:Ω→{1,…,K}是每个像素的真实标签,ω(x)是权重,由此可以得出每次迭代学习的损失率以便监测模型的学习过程。
S15:利用训练集对训练完成的U-Net神经网络进行测试,得到存在骨折的胸腰椎骨目标区域。
在本发明实施例中,考虑到医学图像语义较为简单,结构较为固定,而且脊椎骨骼本身结构固定和语义信息不是特别丰富,所以高级语义信息和低级特征都显得很重要,并且相比于普通图像,医学影像灰度范围大,边界不清晰和获取比较困难数据量较少的特点。U-Net结合了下采样时的低分辨率信息(提供物体类别识别依据)和上采样时的高分辨率信息(提供精准分割定位依据),此外还可以通过跳层连接填补底层信息以提高分割精度。并且因为数据量少,如果模型的参数过多,很容易导致过拟合,而U-Net模型大小较小,参数较少,因此比较适合,U-Net神经网络结构如图2所示。
U-net包括两部分:(1)特征提取部分,每经过一个池化层就一个尺度,包括原图尺度一共有5个尺度。(2)上采样部分,每上采样一次,就和特征提取部分对应的通道数相同尺度融合(拼接),但是融合之前要将其裁剪。
U-Net下采样4次,一共下采样16倍,对称地,也相应上采样4次,将下采样得到的特征图恢复到原图片的分辨率。U-Net进行4次上采样的同时,在每一级使用了跳跃连接,而不是直接在高级语义特征上进行监督和损失反传,这样就保证了最后恢复出来的特征图融合了更多的低层的特征,也使得不同规模的特征得到了的融合,从而可以进行多尺度预测和深度监督。4次上采样也使得分割图恢复边缘等信息更加精细。
U-Net进行逐级上采样的过程中,原始输入图像中的空间信息与图像中的边缘信息会被逐渐恢复,由此,低分辨率的特征图最终会被映射为像素级的分割结果图。而为了进一步弥下采样丢失的信息,U-Net算法利用拼接层来融合两个过程中对应位置上的特征图,使得进行上采样时能够获取到更多的高分辨率信息,进而更完善地恢复原始图像中的细节信息,提高分割精度。而跳跃连接结构,对浅层级特征与高层级特征进行融合,因为在卷积神经网络不断进行特征学习的过程中,浅层特征具有丰富的细节和定位信息,高层特征具有丰富的语义信息,从低层级到高层级,细节信息不断的减少,而语义信息不断的增加,为了将细节信息与语义信息互补,故跳跃连接是将卷积过程中的最低层与最高层、次低层与次高层,以此类推进行连接,并利用Concatenate将两层级的特征图进行拼接融合,得到更加丰富的骨头特征。
在本发明实施例中,步骤S14中,利用pixel-wise softmax分类器进行像素分类,得到各个像素点的概率pk(x),也就是类k的对像素点x的分类结果,其计算公式为:
其中,ak(x)表示在位置x处的像素在特征图中的第k层的激活值,也就是表示每一像素点(x)对应特征通道(k)的得分;K表示像素点的类别总数;ak′(x)表示在位置x处的像素在特征图中的第k′层的激活值。
分割结果展示如图3所示:由图3(a)(b)(c)三图可以看出利用U-Net网络对胸腰椎骨可以进行较好的分割并同时识别分割出骨折部位。
在本发明实施例中,步骤S2包括以下子步骤:
S21:对CT图像进行预处理,并对预处理后的CT图像进行分类和标注,得到用于深度学习网络的训练集和验证集;
数据集构建:为了适合Faster RCNN网络的输入,首先对CT图像进行预处理,使图像标准化,包括对图像灰度化等。使用Python中自带的PIL库处理图片的大小和分辨率,使其符合迭代学习网络的输入条件;
数据标注:基于数据预处理后,应用影像labelImg系统对CT图像进行分类确认并标注,建立用于深度学习网络的训练集和验证集。考虑到医学影像数据量少,神经网络不能很好区分骨折部分与未骨折部分,所以不能定位,为了能准确定位,对数据标注时进行三种分类:骨折、骨缝和骶骨;
S22:对训练集的CT图像进行缩放,并将缩放后的CT图像输入至深度学习网络,得到CT图像的特征图;
经过VGG16神经网络的卷积层(卷积层中包含了13个卷积层+13个激活+4个池化层)得到图像的特征图;上述的卷积层是卷积核为3,补偿和步长都为1的3×3卷积它使得输入和输出长宽不改变,池化层是卷积核为2步长也为2的卷积,它使输出长宽都变为输入的1/2;
S23:将特征图经过3×3的卷积后,分别输入至RPN网络的分类结构和回归结构中,得到CT图像中存在骨折的胸腰椎骨目标区域的具体位置;
将得到的特征图经过3x3的卷积送入RPN网络,RPN网络分为2条路径,一条通过softmax分类anchor box中的内容为背景(负向)还是检测目标(正向),另一条用于计算对于anchor box的边界框回归偏移量,以获得含有检测目标的区域;
S24:根据目标区域的具体位置,利用RPN网络中全连接层和softmax层确定存在骨折的胸腰椎骨类别,利用回归结构获取每个目标区域的位置偏移量,并利用位置偏移量确定目标检测框;其中,胸腰椎骨类别包括骨折部位、骨缝和尾椎;
两条路线汇合经过Proposal层则负责综合正向的anchor box和对应边界框回归偏移量含有与检测目标类似的感兴趣区域,同时剔除太小和超出边界的区域以获得精确的anchor box的坐标;
S25:设定胸腰椎骨头名称L,根据胸腰椎骨类别和目标检测框确定目标预测框的内容信息;
分类部分利用已经获得的含有与检测目标类似的感兴趣区域的特征图,通过全连接层与softmax计算每个区域具体属于哪个类别(骨折部位、骨缝和尾椎等),输出它们相应的概率向量;同时再次利用边界框回归获得每个感兴趣区域的位置偏移量,用于回归更加精确的目标检测框;
S26:根据胸腰椎类型,从目标预测框的内容信息中提取尾椎的中心点最小纵坐标和骨折部位的中心点最小纵坐标,并判断尾椎的中心点最小纵坐标和骨折部位的中心点最小纵坐标是否同时存在,若是则进入步骤S27,否则剔除该CT图像;
S27:将所有中心点最小纵坐标进行降序排列,得到序列Y,并将序列Y与目标预测框的内容信息的中心点最小纵坐标进行逐一对比,得到相同数据对应的索引LL;
S28:将索引LL进行升序排列,并骨折部位的索引对应胸腰椎骨头名称L中,得到骨折部位骨头的名称,完成骨折定位。
在本发明实施例中,Faster RCNN可以分为4个主要内容:卷积层,作为一种CNN网络目标检测方法,Faster RCNN首先使用一组基础的卷积+激活+池化层提取图像的特征图,该特征图被共享用于后续RPN层和全连接层;Region Proposal Networks,RPN网络用于生成区域提议,该层通过softmax判断anchors属于positive或者negative,再利用边界框回归修正anchors获得精确的proposals;Roi Pooling,该层收集输入的特征图和proposals,综合这些信息后提取proposal feature maps,送入后续全连接层判定目标类别;分类层,利用proposal feature maps计算proposal的类别,同时再次边界框回归获得检测框最终的精确位置。
骨折定位算法:其目的在于对骨折进行框选后,根据空间关系判断骨折框出的骨折属于哪个部位,是胸椎骨折或者是腰椎骨折并计算出它是胸椎或者腰椎的第几节骨头骨折,方便医生后续诊断。
考虑医学影像数据获取困难数据量小的特点,机器识别在样本量较小的情况下无法准确区分出骨折与未骨折骨头从而无法进行定位,所以本方法提出通过检测骨折部位与两块骨头之间的骨缝以及尾椎通过三者之间的关系,再对骨折部位进行定位。
根据检测得到的骨折部位、骨缝和尾椎的位置结合预测框坐标(x,y,w,h),(x,y)为预测框的中心点坐标,w和h分别为预测框的长和宽,经过变化得到预测框的内容信息(xmin,ymin,xmax,ymax),再根据他们之间生理上的相对位置,选择y坐标对骨折部位进行定位,如果检测到尾椎和骨折部位则能够开始定位,根据尾椎、骨缝和骨折部位之间的数量关系对骨折部位进行定位并显示定位。
在本发明实施例中,步骤S22中,对训练集的CT图像进行缩放的具体方法为:若CT图像短边小于600像素,则将短边乘以相应的倍率放大至600像素,并将长边乘以同样倍率;若CT图像长边大于1000像素,则长边乘以相应的倍率缩小至1000像素,并将短边乘以同样倍率,以使保证CT图像短边大于600像素,长边小于1000像素。
在本发明实施例中,步骤S23中,RPN网络中分类结构和回归结构组成的损失函数L({pi},{ti})的表达式为:
其中,i表示anchors index(锚框索引),pi表示第i个锚框的预测分类概率,p* i代表其对应的标注预测的概率,即当第i个anchor与标注之间IoU>0.7,认为是该anchor是正向的,p* i=1;反之IoU<0.3时,认为是该anchor是负向的,p* i=0;至于那些0.3<IoU<0.7的anchor则不参与训练,Ncls表示每次调整参数前所选取的样本数量,ti表示第i个锚框预测的边界框的参数化坐标,Lcls(·)表示两个类别的对数损失,λ表示权重平衡参数,Lreg(·)表示回归损失;
整个Loss分为2部分:(1)分类损失,即RPN层计算的softmax loss,是分类anchors为检测目标与背景的损失;(2)回归损失,即RPN层计算的soomth L1 loss,用于边界框回归网络训练。
为使总的Loss计算过程中能够均匀考虑2种Loss。Lreg(ti,t* i)使用的smoothL1Loss,计算公式如下:
步骤S25中,目标检测框的内容信息的表达式为(xmin,ymin,xmax,ymax),其计算公式为:
其中,xmin表示目标预测框的左上角横坐标,ymin表示目标预测框的左上角纵坐标,xmax表示目标预测框的右下角横坐标,ymax表示目标预测框的右下角纵坐标,x表示目标预测框的中心点横坐标,w表示目标预测框的长,y表示目标预测框的中心点纵坐标,h表示目标预测框的宽;
步骤S25中,胸腰椎骨头名称L的表达式为:
L=['L5','L4','L3','L2','L1','T12','T11','T10','T9','T8','T6','T5','T4','T3','T2','T1']
其中,L5,…,L1表示第五腰椎到第一腰椎,T12,…,T1表示第十二胸椎到第一胸椎。
由图4可以看出,图4(a)中腰椎第二节(L2)处骨折的概率为99.7%,图4(b)中腰椎第四节(L4)处骨折的概率为99.8%,图4(c)中胸椎十二节(T12)处骨折的概率为99.7%,图4(d)中腰椎第二节、第三节和第四节(L2、L3和L4)处骨折的概率分别为99.8%、100%和99.8%。
本发明的有益效果为:本发明主要针对病人个体差异巨大、人体组织复杂和影像场景元素不定的特点,为从场景观测图像中获取多类型关注目标的位置和姿态等多元信息,运用U-Net神经网络对脊柱CT图像进行分割检测;为发现和识别骨折,需首先从CT图像中定位可能存在骨折的胸腰椎骨目标区域,以供后续深入分析椎骨状态。由此,运用Faster-Rcnn深度学习网络来检测胸腰椎骨骨折,探索关注目标在影像场景空间中的相对位置关联关系,定位骨折位置是属于胸椎还是腰椎并在其各自第几节,形成胸腰椎各类骨折的检测分割和定位方法,其定位准确。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (5)
1.一种基于深度学习的胸腰椎骨折识别分割与检测定位方法,其特征在于,包括以下步骤:
S1:采集CT图像,并利用U-Net神经网络进行胸腰椎识别分割,得到存在骨折的胸腰椎骨目标区域;
S2:在存在骨折的胸腰椎骨目标区域中,利用Faster-Rcnn深度学习网络进行胸腰椎骨折检测,并定位;
所述步骤S2包括以下子步骤:
S21:对CT图像进行预处理,并对预处理后的CT图像进行分类和标注,得到用于深度学习网络的训练集和验证集;
S22:对训练集的CT图像进行缩放,并将缩放后的CT图像输入至深度学习网络,得到CT图像的特征图;
S23:将特征图经过3×3的卷积后,分别输入至RPN网络的分类结构和回归结构中,得到CT图像中存在骨折的胸腰椎骨目标区域的具体位置;
S24:根据目标区域的具体位置,利用RPN网络中全连接层和softmax层确定存在骨折的胸腰椎骨类别,利用回归结构获取每个目标区域的位置偏移量,并利用位置偏移量确定目标检测框;其中,胸腰椎骨类别包括骨折部位、骨缝和尾椎;
S25:设定胸腰椎骨头名称L,根据胸腰椎骨类别和目标检测框确定目标预测框的内容信息;
S26:根据胸腰椎类型,从目标预测框的内容信息中提取尾椎的中心点最小纵坐标和骨折部位的中心点最小纵坐标,并判断尾椎的中心点最小纵坐标和骨折部位的中心点最小纵坐标是否同时存在,若是则进入步骤S27,否则剔除该CT图像;
S27:将所有中心点最小纵坐标进行降序排列,得到序列Y,并将序列Y与目标预测框的内容信息的中心点最小纵坐标进行逐一对比,得到相同数据对应的索引LL;
S28:将索引LL进行升序排列,并将骨折部位的索引对应胸腰椎骨头名称L中,得到骨折部位骨头的名称,完成骨折定位。
2.根据权利要求1所述的基于深度学习的胸腰椎骨折识别分割与检测定位方法,其特征在于,所述步骤S1包括以下子步骤:
S11:采集CT图像,对CT图像进行预处理,并对预处理后的CT图像进行分类和标注,得到用于U-Net神经网络的训练集和验证集;
S12:将预处理后的CT图像的尺寸裁剪为572×572,利用跳跃连接卷积神经网络对裁剪后的训练集中的CT图像进行卷积和下采样,获取浅层级特征,利用跳跃连接卷积神经网络对裁剪后的训练集中的CT图像进行反卷积和上采样,获取高层级特征;
S13:利用跳跃连接卷积神经网络将浅层级特征和高层级特征进行融合,得到CT图像中骨折与正常骨头的特征映射图;
S14:利用U-Net神经网络对训练集的CT图像进行像素分类,完成对U-Net神经网络的训练;
S15:利用训练集对训练完成的U-Net神经网络进行测试,得到存在骨折的胸腰椎骨目标区域。
4.根据权利要求3所述的基于深度学习的胸腰椎骨折识别分割与检测定位方法,其特征在于,所述步骤S22中,对训练集的CT图像进行缩放的具体方法为:若CT图像短边小于600像素,则将短边乘以相应的倍率放大至600像素,并将长边乘以同样倍率;若CT图像长边大于1000像素,则长边乘以相应的倍率缩小至1000像素,并将短边乘以同样倍率,以使保证CT图像短边大于600像素,长边小于1000像素。
5.根据权利要求4所述的基于深度学习的胸腰椎骨折识别分割与检测定位方法,其特征在于,所述步骤S23中,RPN网络中分类结构和回归结构组成的损失函数L({pi},{ti})的表达式为:
其中,i表示锚框索引,pi表示第i个锚框的预测分类概率,p* i代表其对应的标注预测的概率,Ncls表示每次调整参数前所选取的样本数量,ti表示第i个锚框预测的边界框的参数化坐标,Lcls(·)表示两个类别的对数损失,λ表示权重平衡参数,Lreg(·)表示回归损失;
所述步骤S25中,目标检测框的内容信息的表达式为(xmin,ymin,xmax,ymax),其计算公式为:
其中,xmin表示目标预测框的左上角横坐标,ymin表示目标预测框的左上角纵坐标,xmax表示目标预测框的右下角横坐标,ymax表示目标预测框的右下角纵坐标,x表示目标预测框的中心点横坐标,w表示目标预测框的长,y表示目标预测框的中心点纵坐标,h表示目标预测框的宽;
所述步骤S25中,胸腰椎骨头名称L的表达式为:
L=['L5','L4','L3','L2','L1','T12','T11','T10','T9','T8','T6','T5','T4','T3','T2','T1']
其中,L5,…,L1表示第五腰椎到第一腰椎,T12,…,T1表示第十二胸椎到第一胸椎。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210092665.4A CN114494192B (zh) | 2022-01-26 | 2022-01-26 | 一种基于深度学习的胸腰椎骨折识别分割与检测定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210092665.4A CN114494192B (zh) | 2022-01-26 | 2022-01-26 | 一种基于深度学习的胸腰椎骨折识别分割与检测定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114494192A CN114494192A (zh) | 2022-05-13 |
CN114494192B true CN114494192B (zh) | 2023-04-25 |
Family
ID=81474709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210092665.4A Active CN114494192B (zh) | 2022-01-26 | 2022-01-26 | 一种基于深度学习的胸腰椎骨折识别分割与检测定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114494192B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114913160A (zh) * | 2022-05-24 | 2022-08-16 | 北京航空航天大学 | 一种基于人工神经网络的腰椎ct图像空间定位方法 |
CN114937502A (zh) * | 2022-07-07 | 2022-08-23 | 西安交通大学 | 基于深度学习的骨质疏松性椎体压缩性骨折评估方法及系统 |
CN115187540B (zh) * | 2022-07-07 | 2023-08-18 | 西安交通大学 | 一种人体三维椎体松质骨图像的自动分割方法及系统 |
CN115439453B (zh) * | 2022-09-13 | 2023-05-26 | 北京医准智能科技有限公司 | 一种脊椎椎体定位方法、装置、电子设备及存储介质 |
CN115661138B (zh) * | 2022-12-13 | 2023-03-21 | 北京大学第三医院(北京大学第三临床医学院) | 基于dr影像的人体骨骼轮廓检测方法 |
CN116758087B (zh) * | 2023-08-22 | 2023-10-31 | 邦世科技(南京)有限公司 | 一种腰椎ct骨窗侧隐窝间隙检测方法及装置 |
CN117274772B (zh) * | 2023-09-18 | 2024-02-20 | 北京大学第三医院(北京大学第三临床医学院) | 一种椎骨旋转估计模型的训练方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111667457A (zh) * | 2020-04-29 | 2020-09-15 | 杭州深睿博联科技有限公司 | 一种基于医学影像的脊椎椎体信息自动识别方法、系统、终端及存储介质 |
CN112102282A (zh) * | 2020-09-11 | 2020-12-18 | 中北大学 | 一种基于Mask RCNN的医学图像中不同节数腰椎的自动识别方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10366491B2 (en) * | 2017-03-08 | 2019-07-30 | Siemens Healthcare Gmbh | Deep image-to-image recurrent network with shape basis for automatic vertebra labeling in large-scale 3D CT volumes |
CN111881705B (zh) * | 2019-09-29 | 2023-12-12 | 深圳数字生命研究院 | 数据处理、训练、识别方法、装置和存储介质 |
CN111008974A (zh) * | 2019-11-22 | 2020-04-14 | 浙江飞图影像科技有限公司 | 多模型融合的股骨颈骨折区域定位和分割方法及系统 |
TWI743969B (zh) * | 2020-04-15 | 2021-10-21 | 臺北榮民總醫院 | 偵測胸部及腰部脊椎骨折之系統及方法 |
CN111888056B (zh) * | 2020-08-05 | 2022-05-24 | 四川大学华西医院 | 椎体x形切除减压椎体成形椎间融合固定器 |
CN112184617B (zh) * | 2020-08-17 | 2022-09-16 | 浙江大学 | 一种基于深度学习的脊椎mri影像关键点检测方法 |
CN112308822B (zh) * | 2020-10-10 | 2024-07-09 | 杭州电子科技大学 | 基于深度卷积神经网络的椎间盘ct图像检测方法 |
CN112381762A (zh) * | 2020-10-19 | 2021-02-19 | 深圳视见医疗科技有限公司 | 一种基于深度学习算法的ct肋骨骨折辅助诊断系统 |
CN112244956B (zh) * | 2020-10-21 | 2022-03-11 | 西安点云生物科技有限公司 | 一种骶神经穿刺导板及其构建方法 |
CN112699869A (zh) * | 2020-12-17 | 2021-04-23 | 深圳视见医疗科技有限公司 | 基于深度学习的肋骨骨折辅助检测方法及图像识别方法 |
-
2022
- 2022-01-26 CN CN202210092665.4A patent/CN114494192B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111667457A (zh) * | 2020-04-29 | 2020-09-15 | 杭州深睿博联科技有限公司 | 一种基于医学影像的脊椎椎体信息自动识别方法、系统、终端及存储介质 |
CN112102282A (zh) * | 2020-09-11 | 2020-12-18 | 中北大学 | 一种基于Mask RCNN的医学图像中不同节数腰椎的自动识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114494192A (zh) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114494192B (zh) | 一种基于深度学习的胸腰椎骨折识别分割与检测定位方法 | |
US11049240B2 (en) | Method and system for assessing bone age using deep neural network | |
US11887311B2 (en) | Method and apparatus for segmenting a medical image, and storage medium | |
CN111931684B (zh) | 一种基于视频卫星数据鉴别特征的弱小目标检测方法 | |
CN111047572B (zh) | 一种基于Mask RCNN的医学图像中脊柱自动定位方法 | |
CN108492271B (zh) | 一种融合多尺度信息的自动图像增强系统及方法 | |
CN112184617B (zh) | 一种基于深度学习的脊椎mri影像关键点检测方法 | |
CN112734757B (zh) | 一种脊柱X光图像cobb角测量方法 | |
CN111862044B (zh) | 超声图像处理方法、装置、计算机设备和存储介质 | |
CN112308822B (zh) | 基于深度卷积神经网络的椎间盘ct图像检测方法 | |
CN112233117A (zh) | 一种新冠肺炎ct检测识别定位系统及计算设备 | |
CN111008974A (zh) | 多模型融合的股骨颈骨折区域定位和分割方法及系统 | |
CN110974306B (zh) | 一种超声内镜下识别和定位胰腺神经内分泌肿瘤的系统 | |
CN112802019B (zh) | 一种基于脊柱AIS影像的lenke分型方法 | |
CN112257728A (zh) | 图像处理方法、装置、计算机设备以及存储介质 | |
CN112102282A (zh) | 一种基于Mask RCNN的医学图像中不同节数腰椎的自动识别方法 | |
CN111524188A (zh) | 腰椎定位点获取方法、设备及介质 | |
CN114897760A (zh) | 一种基于深度学习的肋骨ct影像骨折检测分割辅助阅片方法及系统 | |
CN114638800A (zh) | 一种基于改进Faster-RCNN的头影标记点定位方法 | |
US20220028088A1 (en) | Multi-scale segmentation system | |
Qin et al. | Residual block-based multi-label classification and localization network with integral regression for vertebrae labeling | |
CN112924037A (zh) | 基于图像配准的红外体温检测系统及检测方法 | |
KR102605501B1 (ko) | 인공신경망 기반의 척추 전방위증 진단 장치 및 그 정보 제공 방법 | |
CN113469942B (zh) | 一种ct图像病变检测方法 | |
CN114332858A (zh) | 病灶检测方法及装置、病灶检测模型获取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |