CN110310292A - 一种手腕部参照骨分割方法 - Google Patents

一种手腕部参照骨分割方法 Download PDF

Info

Publication number
CN110310292A
CN110310292A CN201910574535.2A CN201910574535A CN110310292A CN 110310292 A CN110310292 A CN 110310292A CN 201910574535 A CN201910574535 A CN 201910574535A CN 110310292 A CN110310292 A CN 110310292A
Authority
CN
China
Prior art keywords
bone
referring
image
characteristic pattern
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910574535.2A
Other languages
English (en)
Other versions
CN110310292B (zh
Inventor
毛科技
周贤年
杨志凯
汪敏豪
华子雯
徐瑞吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Anzhikang Biotechnology Co ltd
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201910574535.2A priority Critical patent/CN110310292B/zh
Publication of CN110310292A publication Critical patent/CN110310292A/zh
Application granted granted Critical
Publication of CN110310292B publication Critical patent/CN110310292B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

一种手腕部参照分割方法,包括:步骤1参照骨兴趣区域图像提取及预处理,步骤2参照骨兴趣区域图像分割,步骤3参照骨兴趣区域后处理。计分法通过评估参照骨组合的成熟指征来计算骨龄,通过该方法计算出的骨龄偏差小。由于参照骨的形状不规则、参照骨与软组织对比度低、参照骨的位置毗邻等因素的影响,为专家准确评估参照骨的成熟指征增大了难度。本发明在保证参照骨分割准确的同时,还保证其具有较强的普适性。首先,采用Faster R‑CNN将参照骨ROI图像提取出来;然后,将预处理后的参照骨ROI图像输入到ARU‑Net中进行分割,ARU‑Net在传统U‑Net基础上添加残差映射和注意力机制,在提高了特征的使用率的同时,也提高了参照骨分割的准确率;最后,采用漫水填充算法和腐蚀与膨胀运算消除预测结果中出现的边缘锯齿、孔洞等现象。

Description

一种手腕部参照骨分割方法
技术领域
本发明涉及手腕部参照骨分割方法。
背景技术
计分法通过评估参照骨组合的成熟指征来计算骨龄,通过该方法计算出的骨龄偏差小。由于参照骨的形状不规则、参照骨与软组织对比度低、参照骨的位置毗邻等因素的影响,为专家准确评估参照骨的成熟指征增大了难度,如何准确地从手腕中分割出参照骨是一个挑战。
目前常见的参照骨分割方法大多是基于阈值、区域和边缘来实现的。当参照骨间的间隔较大时,这些算法可以准确地分割出参照骨,但是当参照骨间的间隔较小甚至融合时,这些算法的提取准确率会急剧下降。
发明内容
本发明要克服现有技术的上述缺点,提供一种手腕部参照骨分割方法。
本发明解决技术问题采用如下技术方案:
一种手腕部参照骨分割方法,包括以下步骤:
步骤1:采用Faster R-CNN进行参照骨的兴趣区域(Region of Interest,ROI)提取,并且采用各向异性扩散滤波对参照骨ROI图像进行预处理;
步骤2:将预处理后的参照骨ROI图像输入到ARU-Net进行分割;
步骤3:对分割后的参照骨ROI图像进行后处理操作,后处理操作依次为漫水填充算法和腐蚀与膨胀。
步骤1具体包括:
1)使用LabelImg工具标注800张手腕部X光片图像作为训练集,标注出参照骨在X光图像中的左上角坐标、宽度和高度。将训练集放入Faster R-CNN中进行训练,一次性输入到网络中的图像为1张,迭代20次,基础学习率为0.001,每隔5次迭代基础学习率下降10倍。每次迭代结束,都会保存一个模型,采用第20次迭代结束的模型作为提取参照骨ROI的Faster R-CNN模型。
2)将待测X光片图像输入到Faster R-CNN网络中,并且加载(1)中训练的模型,进行参照骨ROI的提取。首先,将手腕X光片图像输入到VGG16模型中得到共享卷积特征图;然后,采用RPN网络生成建议窗口,选取其中前景目标类得分最高的300个建议窗口,并将其映射到卷积特征图上;最后,RoI池化层将每个候选区域生成固定尺寸的特征图,对候选区域进行分类,计算候选框的回归偏移量,提取出参照骨ROI图像。
3)对于提取出来的参照骨ROI图像,采用各向异性扩散滤波进行图像预处理,公式为:
其中I为参照骨ROI图像,t为迭代次数,设置为2,I2为预处理后的图像,λ为平滑系数,设置为0.14,x为参照骨ROI图像的横坐标,y为参照骨ROI图像的纵坐标,分别为四个方向(东南西北)的梯度,公式如(2-2)所示,cE、cS、cW和cN分别为四个方向的扩散系数,公式如(2-3)所示。
其中k为热传导系数,k的值设置为30。
步骤2具体包括:
1)在使用LabelImg工具标注出训练集中参照骨的位置信息后,根据参照骨在X光片图像中的左上角坐标、宽度和高度,可以截取出参照骨ROI图像。采用LabelMe工具在参照骨ROI图像上标注出参照骨的轮廓作为ARU-Net的训练集。
2)构建ARU-Net神经网络,本发明构建的ARU-Net采用3次下采样、3次上采样,并且保留U-Net的特征层拼接方法。在下采样或者上采样之前,需要通过残差注意力模块进行特征的提取。
3)构建残差注意力模块,input作为图像的输入或者上一个模块的输出,经过两个卷积核大小为3的卷积层,在每个卷积层后面都会进入批量归一化层和ReLU激活函数,计算得到的特征图temp,公式如(2-4)所示。
temp=conv3(conv3(input)) (2-4)
其中conv3为与3×3卷积核进行卷积运算、批量归一化和ReLU激活函数的串行计算。
在计算出经过两个卷积层的特征图temp后,首先,temp被分别输入到空间注意力模块和通道注意力模块中;然后,两个模块计算出的权重特征图与temp进行相乘得到通道注意力特征图和空间注意力特征图,由于input与注意力特征图的通道数目不同,所以需要将input的通道数目调整成与注意力特征图的通道数目一致;最后,将注意力的特征图与处理后的input进行相加,得到最后的输出,公式如(2-5)所示。
其中Fc为经过通道注意力模块后的处理操作,Fs为经过空间注意力模块后的处理操作,为逐元素乘法,conv1为与1×1卷积核进行卷积运算、批量归一化和ReLU激活函数的串行计算。
4)构建通道注意力模块。首先,将维度为h×w×c的temp分别输入到全局平均池化层和全局最大池化层中,得到两个维度为1×1×c的特征图;然后,将这两个特征图输入到共享卷积神经网络中,该卷积神经网络包含三个卷积层,其卷积核大小分别为1×1、3×3和1×1,其卷积核个数分别为c/16、c/16和c,最后计算出的结果为1×1×c的特征图;最后,两个特征图进行相加并且sigmoid函数运算后,即得到最后的通道权重特征图,其公式如(2-6)所示。
其中average为经过平均池化层后的处理操作,max为经过最大池化层后的处理操作,s为sigmoid函数。
5)构建空间注意力模块。首先,将维度为h×w×c的temp分别输入到全局平均池化层和全局最大池化层中,得到两个维度为h×w×1的特征图;然后,将这两个特征图拼接起来,得到一个维度为h×w×2的特征图;最后,将该特征图输入到卷积层中,该卷积层的卷积核为3×3,卷积核个数为1,得到的特征图进行sigmoid函数运算后得到一个维度h×w×1的特征图,该特征图为空间权重特征图,其公式如(2-7)所示。
Fs(temp)=s(conv3(cat(average(temp),max(temp)))) (2-7)
其中cat为拼接两个特征图的操作。
6)构建损失函数。采用的损失函数为二进制交叉熵损失函数(binary crossentropy loss,BCE Loss),其公式如(2-8)所示。
loss=-[truth lg pre+(1-truth)lg(1-pre)] (2-8)
其中truth为真值,pre为预测值。
7)训练ARU-Net神经网络模型,一共迭代20次,基础学习率为0.1,每隔5次学习率下降10倍,每次迭代结束保存一次模型,选择最后一次迭代的模型作为本发明的ARU-Net模型。
8)将步骤1处理后的参照骨ROI图像I2输入到ARU-Net网络中,并且加载(7)中训练的模型,进行参照骨的分割,得到分割后的图像I3
步骤3具体包括:
1)针对分割后的图像I3,首先采用漫水填充算法将I3的背景由黑色填充成白色,其种子点设置为(0,0),填充的颜色设置为白色,得到洞孔图像,然后将洞孔图像取反与原始钩骨ROI图像相加,得到孔洞填充后的图像I4,公式为:
I4=floodFill(I3)+I3 (2-9)
其中floodFill为漫水填充算法函数。
2)对孔洞填充后的图像I4依次进行腐蚀和膨胀运算,内核设置均为5×5矩阵,得到最终的参照骨分割图像I5,公式为:
I5=dilate(erode(I4)) (2-10)
其中erode为腐蚀运算,dilate为膨胀运算。
本发明具有如下有益效果:
(1)准确地分割出手腕中的参照骨。
(2)可以减弱参照骨间的间隔对参照骨分割准确率的影响,具有普适性。
附图说明
图1是本发明的总体流程图。
图2是本发明使用的ARU-Net神经网络的结构图。
图3a~图3c是本发明方法分割的参照骨结果图(以钩骨为例),其中图3a是钩骨ROI图像,图3b是钩骨ROI图像的掩模图,图3c是本发明分割的钩骨结果图。
具体实施方式
下面结合附图对本发明的技术方案作进一步阐述。
一种手腕部参照骨分割方法,包括如下步骤:
步骤1:采用Faster R-CNN进行参照骨的兴趣区域(Region of Interest,ROI)提取,并且采用各向异性扩散滤波对参照骨ROI图像进行预处理;
步骤2:将预处理后的参照骨ROI图像输入到ARU-Net进行分割;
步骤3:对分割后的参照骨ROI图像进行后处理操作,后处理操作依次为漫水填充算法和腐蚀与膨胀。
步骤1具体包括:
1)使用LabelImg工具标注800张手腕部X光片图像作为训练集,标注出参照骨在X光图像中的左上角坐标、宽度和高度。将训练集放入Faster R-CNN中进行训练,一次性输入到网络中的图像为1张,迭代20次,基础学习率为0.001,每隔5次迭代基础学习率下降10倍。每次迭代结束,都会保存一个模型,采用第20次迭代结束的模型作为提取参照骨ROI的Faster R-CNN模型。
2)将待测X光片图像输入到Faster R-CNN网络中,并且加载(1)中训练的模型,进行参照骨ROI的提取。首先,将手腕X光片图像输入到VGG16模型中得到共享卷积特征图;然后,采用RPN网络生成建议窗口,选取其中前景目标类得分最高的300个建议窗口,并将其映射到卷积特征图上;最后,RoI池化层将每个候选区域生成固定尺寸的特征图,对候选区域进行分类,计算候选框的回归偏移量,提取出参照骨ROI图像。
3)对于提取出来的参照骨ROI图像,采用各向异性扩散滤波进行图像预处理,公式为:
其中I为参照骨ROI图像,t为迭代次数,设置为2,I2为预处理后的图像,λ为平滑系数,设置为0.14,x为参照骨ROI图像的横坐标,y为参照骨ROI图像的纵坐标,分别为四个方向(东南西北)的梯度,公式如(2-2)所示,cE、cS、cW和cN分别为四个方向的扩散系数,公式如(2-3)所示。
其中k为热传导系数,k的值设置为30。
步骤2具体包括:
1)在使用LabelImg工具标注出训练集中参照骨的位置信息后,根据参照骨在X光片图像中的左上角坐标、宽度和高度,可以截取出参照骨ROI图像。采用LabelMe工具在参照骨ROI图像上标注出参照骨的轮廓作为ARU-Net的训练集。
2)构建ARU-Net神经网络,本发明构建的ARU-Net采用3次下采样、3次上采样,并且保留U-Net的特征层拼接方法。在下采样或者上采样之前,需要通过残差注意力模块进行特征的提取。
3)构建残差注意力模块,input作为图像的输入或者上一个模块的输出,经过两个卷积核大小为3的卷积层,在每个卷积层后面都会进入批量归一化层和ReLU激活函数,计算得到的特征图temp,公式如(2-4)所示。
temp=conv3(conv3(input)) (2-4)
其中conv3为与3×3卷积核进行卷积运算、批量归一化和ReLU激活函数的串行计算。
在计算出经过两个卷积层的特征图temp后,首先,temp被分别输入到空间注意力模块和通道注意力模块中;然后,两个模块计算出的权重特征图与temp进行相乘得到通道注意力特征图和空间注意力特征图,由于input与注意力特征图的通道数目不同,所以需要将input的通道数目调整成与注意力特征图的通道数目一致;最后,将注意力的特征图与处理后的input进行相加,得到最后的输出,公式如(2-5)所示。
其中Fc为经过通道注意力模块后的处理操作,Fs为经过空间注意力模块后的处理操作,为逐元素乘法,conv1为与1×1卷积核进行卷积运算、批量归一化和ReLU激活函数的串行计算。
4)构建通道注意力模块。首先,将维度为h×w×c的temp分别输入到全局平均池化层和全局最大池化层中,得到两个维度为1×1×c的特征图;然后,将这两个特征图输入到共享卷积神经网络中,该卷积神经网络包含三个卷积层,其卷积核大小分别为1×1、3×3和1×1,其卷积核个数分别为c/16、c/16和c,最后计算出的结果为1×1×c的特征图;最后,两个特征图进行相加并且sigmoid函数运算后,即得到最后的通道权重特征图,其公式如(2-6)所示。
其中average为经过平均池化层后的处理操作,max为经过最大池化层后的处理操作,s为sigmoid函数。
5)构建空间注意力模块。首先,将维度为h×w×c的temp分别输入到全局平均池化层和全局最大池化层中,得到两个维度为h×w×1的特征图;然后,将这两个特征图拼接起来,得到一个维度为h×w×2的特征图;最后,将该特征图输入到卷积层中,该卷积层的卷积核为3×3,卷积核个数为1,得到的特征图进行sigmoid函数运算后得到一个维度h×w×1的特征图,该特征图为空间权重特征图,其公式如(2-7)所示。
Fs(temp)=s(conv3(cat(average(temp),max(temp)))) (2-7)
其中cat为拼接两个特征图的操作。
6)构建损失函数。采用的损失函数为二进制交叉熵损失函数(binary crossentropy loss,BCE Loss),其公式如(2-8)所示。
loss=-[truth lg pre+(1-truth)lg(1-pre)] (2-8)
其中truth为真值,pre为预测值。
7)训练ARU-Net神经网络模型,一共迭代20次,基础学习率为0.1,每隔5次学习率下降10倍,每次迭代结束保存一次模型,选择最后一次迭代的模型作为本发明的ARU-Net模型。
8)将步骤1处理后的参照骨ROI图像I2输入到ARU-Net网络中,并且加载(7)中训练的模型,进行参照骨的分割,得到分割后的图像I3
步骤3具体包括:
1)针对分割后的图像I3,首先采用漫水填充算法将I3的背景由黑色填充成白色,其种子点设置为(0,0),填充的颜色设置为白色,得到洞孔图像,然后将洞孔图像取反与原始钩骨ROI图像相加,得到孔洞填充后的图像I4,公式为:
I4=floodFill(I3)+I3 (2-9)
其中floodFill为漫水填充算法函数。
2)对孔洞填充后的图像I4依次进行腐蚀和膨胀运算,内核设置均为5×5矩阵,得到最终的参照骨分割图像I5,公式为:
I5=dilate(erode(I4)) (2-10)
其中erode为腐蚀运算,dilate为膨胀运算。
最后应说明的是:以上实施方式仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施方式对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施方式技术方案的精神和范围。

Claims (1)

1.一种手腕部参照骨分割方法,其包括以下步骤:
步骤1:采用Faster R-CNN进行参照骨的兴趣区域(Region ofInterest,ROI)提取,并且采用各向异性扩散滤波对参照骨ROI图像进行预处理,具体包括:
11)使用LabelImg工具标注800张手腕部X光片图像作为训练集,标注出参照骨在X光图像中的左上角坐标、宽度和高度;将训练集放入Faster R-CNN中进行训练,一次性输入到网络中的图像为1张,迭代20次,基础学习率为0.001,每隔5次迭代基础学习率下降10倍;每次迭代结束,都会保存一个模型,采用第20次迭代结束的模型作为提取参照骨ROI的FasterR-CNN模型;
12)将待测X光片图像输入到Faster R-CNN网络中,并且加载(11)中训练的模型,进行参照骨ROI的提取;首先,将手腕X光片图像输入到VGG16模型中得到共享卷积特征图;然后,采用RPN网络生成建议窗口,选取其中前景目标类得分最高的300个建议窗口,并将其映射到卷积特征图上;最后,RoI池化层将每个候选区域生成固定尺寸的特征图,对候选区域进行分类,计算候选框的回归偏移量,提取出参照骨ROI图像;
13)对于提取出来的参照骨ROI图像,采用各向异性扩散滤波进行图像预处理,公式为:
其中I为参照骨ROI图像,t为迭代次数,设置为2,I2为预处理后的图像,λ为平滑系数,设置为0.14,x为参照骨ROI图像的横坐标,y为参照骨ROI图像的纵坐标,分别为四个方向(东南西北)的梯度,公式如(2-2)所示,cE、cS、cW和cN分别为四个方向的扩散系数,公式如(2-3)所示;
其中k为热传导系数,k的值设置为30;
步骤2:将预处理后的参照骨ROI图像输入到ARU-Net进行分割,具体包括:
21)在使用LabelImg工具标注出训练集中参照骨的位置信息后,根据参照骨在X光片图像中的左上角坐标、宽度和高度,截取出参照骨ROI图像;采用LabelMe工具在参照骨ROI图像上标注出参照骨的轮廓作为ARU-Net的训练集;
22)构建ARU-Net神经网络,采用3次下采样、3次上采样,并且保留U-Net的特征层拼接方法;在下采样或者上采样之前,需要通过残差注意力模块进行特征的提取;
23)构建残差注意力模块,input作为图像的输入或者上一个模块的输出,经过两个卷积核大小为3的卷积层,在每个卷积层后面都会进入批量归一化层和ReLU激活函数,计算得到的特征图temp,公式如(2-4)所示;
temp=conv3(conv3(input)) (2-4)
其中conv3为与3×3卷积核进行卷积运算、批量归一化和ReLU激活函数的串行计算;
在计算出经过两个卷积层的特征图temp后,首先,temp被分别输入到空间注意力模块和通道注意力模块中;然后,两个模块计算出的权重特征图与temp进行相乘得到通道注意力特征图和空间注意力特征图,由于input与注意力特征图的通道数目不同,所以需要将input的通道数目调整成与注意力特征图的通道数目一致;最后,将注意力的特征图与处理后的input进行相加,得到最后的输出,公式如(2-5)所示;
其中Fc为经过通道注意力模块后的处理操作,Fs为经过空间注意力模块后的处理操作,为逐元素乘法,conv1为与1×1卷积核进行卷积运算、批量归一化和ReLU激活函数的串行计算;
24)构建通道注意力模块;首先,将维度为h×w×c的temp分别输入到全局平均池化层和全局最大池化层中,得到两个维度为1×1×c的特征图;然后,将这两个特征图输入到共享卷积神经网络中,该卷积神经网络包含三个卷积层,其卷积核大小分别为1×1、3×3和1×1,其卷积核个数分别为c/16、c/16和c,最后计算出的结果为1×1×c的特征图;最后,两个特征图进行相加并且sigmoid函数运算后,即得到最后的通道权重特征图,其公式如(2-6)所示;
其中average为经过平均池化层后的处理操作,max为经过最大池化层后的处理操作,s为sigmoid函数;
25)构建空间注意力模块;首先,将维度为h×w×c的temp分别输入到全局平均池化层和全局最大池化层中,得到两个维度为h×w×1的特征图;然后,将这两个特征图拼接起来,得到一个维度为h×w×2的特征图;最后,将该特征图输入到卷积层中,该卷积层的卷积核为3×3,卷积核个数为1,得到的特征图进行sigmoid函数运算后得到一个维度h×w×1的特征图,该特征图为空间权重特征图,其公式如(2-7)所示;
Fs(temp)=s(conv3(cat(average(temp),max(temp)))) (2-7)
其中cat为拼接两个特征图的操作;
26)构建损失函数;采用的损失函数为二进制交叉熵损失函数(binary cross entropyloss,BCE Loss),其公式如(2-8)所示;
loss=-[truthlgpre+(1-truth)lg(1-pre)] (2-8)
其中truth为真值,pre为预测值;
27)训练ARU-Net神经网络模型,一共迭代20次,基础学习率为0.1,每隔5次学习率下降10倍,每次迭代结束保存一次模型,选择最后一次迭代的模型作为本发明的ARU-Net模型;
28)将步骤1处理后的参照骨ROI图像I2输入到ARU-Net网络中,并且加载(27)中训练的模型,进行参照骨的分割,得到分割后的图像I3
步骤3:对分割后的参照骨ROI图像进行后处理操作,后处理操作依次为漫水填充算法和腐蚀与膨胀,具体包括:
31)针对分割后的图像I3,首先采用漫水填充算法将I3的背景由黑色填充成白色,其种子点设置为(0,0),填充的颜色设置为白色,得到洞孔图像,然后将洞孔图像取反与原始钩骨ROI图像相加,得到孔洞填充后的图像I4,公式为:
I4=floodFill(I3)+I3 (2-9)
其中floodFill为漫水填充算法函数;
32)对孔洞填充后的图像I4依次进行腐蚀和膨胀运算,内核设置均为5×5矩阵,得到最终的参照骨分割图像I5,公式为:
I5=dilate(erode(I4)) (2-10)
其中erode为腐蚀运算,dilate为膨胀运算。
CN201910574535.2A 2019-06-28 2019-06-28 一种手腕部参照骨分割方法 Active CN110310292B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910574535.2A CN110310292B (zh) 2019-06-28 2019-06-28 一种手腕部参照骨分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910574535.2A CN110310292B (zh) 2019-06-28 2019-06-28 一种手腕部参照骨分割方法

Publications (2)

Publication Number Publication Date
CN110310292A true CN110310292A (zh) 2019-10-08
CN110310292B CN110310292B (zh) 2021-02-02

Family

ID=68078588

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910574535.2A Active CN110310292B (zh) 2019-06-28 2019-06-28 一种手腕部参照骨分割方法

Country Status (1)

Country Link
CN (1) CN110310292B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111008974A (zh) * 2019-11-22 2020-04-14 浙江飞图影像科技有限公司 多模型融合的股骨颈骨折区域定位和分割方法及系统
CN111027571A (zh) * 2019-11-29 2020-04-17 浙江工业大学 一种手腕部参照骨特征区域自适应提取方法
CN111160311A (zh) * 2020-01-02 2020-05-15 西北工业大学 基于多注意力机制双流融合网络的黄河冰凌语义分割方法
CN111325161A (zh) * 2020-02-25 2020-06-23 四川翼飞视科技有限公司 一种基于注意力机制的人脸检测神经网络的构建方法
CN111582215A (zh) * 2020-05-17 2020-08-25 华中科技大学同济医学院附属协和医院 一种胆胰系统正常解剖结构的扫查识别系统和方法
CN112168211A (zh) * 2020-03-26 2021-01-05 成都思多科医疗科技有限公司 一种腹部超声图像的脂肪厚度和肌肉厚度测量方法及系统
CN113116384A (zh) * 2019-12-31 2021-07-16 无锡祥生医疗科技股份有限公司 超声扫查引导方法、超声设备及存储介质
CN113570577A (zh) * 2021-07-28 2021-10-29 成都玻尔兹曼智贝科技有限公司 一种颈椎骨龄的判断方法
US20210407081A1 (en) * 2020-06-29 2021-12-30 Vuno Inc. Method and apparatus for bone age assessment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107945168A (zh) * 2017-11-30 2018-04-20 上海联影医疗科技有限公司 一种医学图像的处理方法及医学图像处理系统
US20180374209A1 (en) * 2017-06-27 2018-12-27 General Electric Company Material segmentation in image volumes
WO2019127619A1 (zh) * 2017-12-29 2019-07-04 中国科学院深圳先进技术研究院 一种手腕骨的分割识别方法及系统、终端及可读存储介质
CN110211117A (zh) * 2019-05-31 2019-09-06 广东世纪晟科技有限公司 医学影像中识别线管状物的处理系统及优化分割的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180374209A1 (en) * 2017-06-27 2018-12-27 General Electric Company Material segmentation in image volumes
CN107945168A (zh) * 2017-11-30 2018-04-20 上海联影医疗科技有限公司 一种医学图像的处理方法及医学图像处理系统
WO2019127619A1 (zh) * 2017-12-29 2019-07-04 中国科学院深圳先进技术研究院 一种手腕骨的分割识别方法及系统、终端及可读存储介质
CN110211117A (zh) * 2019-05-31 2019-09-06 广东世纪晟科技有限公司 医学影像中识别线管状物的处理系统及优化分割的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
REUBEN VARGHESE 等: "Transforming Auto-Encoder and Decoder Network for Pediatric Bone Image Segmentation using a State-of-the-art Semantic Segmentation network on Bone Radiographs", 《 2018 INTERNATIONAL CONFERENCE ON INTELLIGENT INFORMATICS AND BIOMEDICAL SCIENCES (ICIIBMS)》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111008974A (zh) * 2019-11-22 2020-04-14 浙江飞图影像科技有限公司 多模型融合的股骨颈骨折区域定位和分割方法及系统
CN111027571A (zh) * 2019-11-29 2020-04-17 浙江工业大学 一种手腕部参照骨特征区域自适应提取方法
CN111027571B (zh) * 2019-11-29 2022-03-01 浙江工业大学 一种手腕部参照骨特征区域自适应提取方法
CN113116384A (zh) * 2019-12-31 2021-07-16 无锡祥生医疗科技股份有限公司 超声扫查引导方法、超声设备及存储介质
CN111160311A (zh) * 2020-01-02 2020-05-15 西北工业大学 基于多注意力机制双流融合网络的黄河冰凌语义分割方法
CN111160311B (zh) * 2020-01-02 2022-05-17 西北工业大学 基于多注意力机制双流融合网络的黄河冰凌语义分割方法
CN111325161A (zh) * 2020-02-25 2020-06-23 四川翼飞视科技有限公司 一种基于注意力机制的人脸检测神经网络的构建方法
CN112168211A (zh) * 2020-03-26 2021-01-05 成都思多科医疗科技有限公司 一种腹部超声图像的脂肪厚度和肌肉厚度测量方法及系统
CN111582215A (zh) * 2020-05-17 2020-08-25 华中科技大学同济医学院附属协和医院 一种胆胰系统正常解剖结构的扫查识别系统和方法
US20210407081A1 (en) * 2020-06-29 2021-12-30 Vuno Inc. Method and apparatus for bone age assessment
US12014493B2 (en) * 2020-06-29 2024-06-18 Vuno Inc. Method and apparatus for bone age assessment
CN113570577A (zh) * 2021-07-28 2021-10-29 成都玻尔兹曼智贝科技有限公司 一种颈椎骨龄的判断方法
CN113570577B (zh) * 2021-07-28 2023-11-14 成都玻尔兹曼智贝科技有限公司 一种颈椎骨龄的判断方法

Also Published As

Publication number Publication date
CN110310292B (zh) 2021-02-02

Similar Documents

Publication Publication Date Title
CN110310292A (zh) 一种手腕部参照骨分割方法
CN108776969B (zh) 基于全卷积网络的乳腺超声图像肿瘤分割方法
Moradi et al. MFP-Unet: A novel deep learning based approach for left ventricle segmentation in echocardiography
WO2022199143A1 (zh) 一种基于u型网络的医学图像分割方法
US11556797B2 (en) Systems and methods for polygon object annotation and a method of training an object annotation system
WO2021012752A1 (zh) 一种基于脉冲神经网络的短程跟踪方法及系统
US10679351B2 (en) System and method for semantic segmentation of images
CN111798462B (zh) 一种基于ct图像的鼻咽癌放疗靶区自动勾画方法
CN111627019A (zh) 一种基于卷积神经网络的肝脏肿瘤分割方法及系统
CN109033945B (zh) 一种基于深度学习的人体轮廓提取方法
CN106204587A (zh) 基于深度卷积神经网络和区域竞争模型的多器官分割方法
CN107203989A (zh) 基于全卷积神经网络的端对端胸部ct图像分割方法
CN110135325A (zh) 基于尺度自适应网络的人群人数计数方法及系统
CN111833237B (zh) 基于卷积神经网络和局部单应性变换的图像配准方法
CN107146228A (zh) 一种基于先验知识的大脑磁共振图像超体素生成方法
CN105427308A (zh) 一种稀疏和稠密特征匹配结合的图像配准方法
Bi et al. Semi-automatic skin lesion segmentation via fully convolutional networks
CN104545999B (zh) 一种超声图像膀胱容积测量方法及装置
CN110148150A (zh) 稠密连接非对称层次网络训练方法及心脏运动场估计方法
CN115239716B (zh) 一种基于形状先验U-Net的医学图像分割方法
CN104867151B (zh) 一种基于延展性主动轮廓模型的眼底图像血管分割方法
Zhang et al. A sparse annotation strategy based on attention-guided active learning for 3D medical image segmentation
Qu et al. Visual cross-image fusion using deep neural networks for image edge detection
Banerjee et al. A CADe system for gliomas in brain MRI using convolutional neural networks
Golts et al. Deep energy: task driven training of deep neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230105

Address after: 310000 room 3a01-2, building 3, No. 371, Xingxing Road, economic and Technological Development Zone, Xiaoshan District, Hangzhou City, Zhejiang Province

Patentee after: Hangzhou anzhikang Biotechnology Co.,Ltd.

Address before: 310014 No. 18 Chao Wang Road, Xiacheng District, Zhejiang, Hangzhou

Patentee before: JIANG University OF TECHNOLOGY

TR01 Transfer of patent right