CN109961044B - 基于形状信息和卷积神经网络的chn法兴趣区域提取方法 - Google Patents

基于形状信息和卷积神经网络的chn法兴趣区域提取方法 Download PDF

Info

Publication number
CN109961044B
CN109961044B CN201910222145.9A CN201910222145A CN109961044B CN 109961044 B CN109961044 B CN 109961044B CN 201910222145 A CN201910222145 A CN 201910222145A CN 109961044 B CN109961044 B CN 109961044B
Authority
CN
China
Prior art keywords
sequence
shape information
bone
width
formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910222145.9A
Other languages
English (en)
Other versions
CN109961044A (zh
Inventor
毛科技
周贤年
杨志凯
汪敏豪
华子雯
徐瑞吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201910222145.9A priority Critical patent/CN109961044B/zh
Publication of CN109961044A publication Critical patent/CN109961044A/zh
Application granted granted Critical
Publication of CN109961044B publication Critical patent/CN109961044B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

基于形状信息和卷积神经网络的CHN法兴趣区域提取方法,包括:步骤1参照骨边界框大小确定,步骤2参照骨关键点定位。CHN法通过评估14块参照骨的成熟指征来计算骨龄,该方法符合中国当代青少年的生长发育规律。本发明在保证参照骨兴趣区域提取准确的同时,还保证其具有较强的普适性。参照骨边框大小主要是根据手腕部的形状信息来确定手指及手腕的宽度,根据不同的权重得到14块参照骨的边界框大小;参照骨关键点定位主要是通过一个自建的卷积神经网络模型进行回归预测,得到14块参照骨的关键点坐标。在获取到参照骨边框大小及其坐标以后,就可以将参照骨的兴趣区域提取出来。

Description

基于形状信息和卷积神经网络的CHN法兴趣区域提取方法
技术领域
本发明涉及CHN法兴趣区域提取方法。
背景技术
CHN法通过评估14块参照骨的成熟指征来计算骨龄,该方法符合中国当代青少年的生长发育规律。CHN法的14块参照骨为掌骨1、掌骨3、掌骨5、近节指骨1、近节指骨3、近节指骨5、中节指骨3、中节指骨5、远节指骨1、远节指骨3、远节指骨5、钩骨、头状骨和桡骨。
目前兴趣区域提取方法大多是基于边缘检测和角点检测来实现的,这些方法实现简单,可以准确地提取出参照骨的兴趣区域,但是它们于手腕部的摆放方式、摆放位置及图像质量等因素敏感,没有普适性。本发明在保证参照骨兴趣区域提取准确的同时,还保证其具有较强的普适性。
发明内容
本发明要克服现有技术的上述缺点,提供一种基于形状信息和卷积神经网络的CHN法兴趣区域提取方法。
本发明解决技术问题采用如下技术方案:
基于形状信息和卷积神经网络的CHN法兴趣区域提取方法,包括以下步骤:
步骤1:根据手腕部的形状信息来确定手指及手腕的宽度,针对不同的参照骨,手指或手腕的宽度乘以相应的权重获取参照骨的边框大小;
步骤2:通过对一个自建的卷积神经网络进行训练,得到关键点预测模型。
步骤3:将步骤1和步骤2结合,提取出14块参照骨的兴趣区域。
步骤1具体包括:
1)手腕部X光片图像进行二值化处理,通过阈值将手腕与背景区分出来,阈值计算的公式为:
Figure GDA0002780002350000021
其中,w为X光片图像的宽度,h为X光片图像的高度,(xi,yj)为X光图像中的像素点坐标,gray(xi,yj)为在坐标(xi,yj)上的灰度值。通过公式(1-1)计算出的阈值将手腕和背景区分出来,手腕部分使用白色像素点填充,背景部分使用黑色像素点填充,得到二值化后的图像,二值化的公式为:
Figure GDA0002780002350000022
其中,0代表黑色像素填充,255代表白色像素点填充,通过公式(1-2)得到二值化后的图像;
2)从上往下,每隔10像素点对二值化图片从左向右进行扫描,找到形状信息序列B[m],其公式为:
Figure GDA0002780002350000023
其中m为图像的纵坐标,其值从0以10步长递增,达到图像的宽度w为止,Fmi为在m行中第i个最大连续横坐标序列[xstart,xstart+1,...,xend]的宽度,n为最大连续横坐标序列的个数,最大连续横坐标序列应满足公式(1-4),通过公式(1-5)计算得出。
gary(xi,ym)=255,i∈[start,end] (1-4)
Fmi=xend-xstart,xstart<xend (1-5)
3)根据n将形状信息序列B[m]分成包含一个最大连续横坐标序列宽度的
Figure GDA0002780002350000024
形状信息序列B1[m]、包含两个最大连续横坐标序列宽度
Figure GDA0002780002350000025
的形状信息序列B2[m]和包含四个最大连续横坐标序列宽度
Figure GDA0002780002350000026
的形状信息序列B4[m]。
4)对于形状信息序列B1[m],计算相邻形状信息序列中最大连续横坐标序列宽度的偏差,如果偏差大于8时,则当前最大连续横坐标序列宽度为手腕的宽度wristWidth,公式为:
Figure GDA0002780002350000027
5)对于形状信息序列B2[m],计算所有形状信息序列中宽度最大的第二个最大连续横坐标序列,该最大连续横坐标序列宽度为第一指骨的宽度firstWidth,公式为:
Figure GDA0002780002350000031
6)对于形状信息序列B4[m],计算所有形状信息序列中宽度最大的第一个最大连续横坐标序列,该最大连续横坐标序列宽度为第五指骨的宽度fifthWidth,公式为:
Figure GDA0002780002350000032
7)对于形状信息序列B4[m],计算所有形状信息序列中宽度最大的第三个最大连续横坐标序列,该最大连续横坐标序列宽度为第三指骨的宽度thirdWidth,公式为:
Figure GDA0002780002350000033
8)在得到wristWidth、firstWidth、thirdWidth和fifthWidth后,根据各块参照骨的形状特征乘以不同的权重就可以得到各块参照骨的边界框大小,公式为:
Figure GDA0002780002350000034
其中boneSize(t)为参照骨边框大小值,t为参照骨的类型的序号,其值从1开始到14结束,分别代表远节指骨5、中节指骨5、近节指骨5、掌骨5、远节指骨3、中节指骨3、近节指骨3、掌骨3、远节指骨1、近节指骨1、掌骨1、钩骨、头状骨和桡骨,根据不同的参照骨选取不同的权重,通过公式(1-10)计算得到参照骨的边界框大小。
步骤2具体包括:
1)在手腕部X光片上标定14块参照骨的关键点坐标,构建参照骨关键点数据集,一共标定8000张,其中6000张用于训练,2000张用于测试。
2)构建卷积神经网络模型,本发明构建的卷积神经网络模型为一个7层的网络模型,包含4个卷积层和3个全连接层,第一个卷积层的卷积核大小为5*5,填充为2,其余卷积层的卷积核大小为3*3,填充为1,卷积核数目分别为96、192、384和384,步长均为2;前两个全连接层的神经元个数为4096,最后一个全连接层的神经元个数为28;池化层的核为2*2,步长为2。
3)训练卷积神经网络模型,一共迭代20次,基础学习率为0.001,每隔5次学习率下降10倍,每次迭代结束保存一次模型,选择最后一次迭代的模型作为本发明的关键点预测模型。关键点预测模型输出一个长度为14的序列[(pre_x1,pre_y1),(pre_x2,pre_y2),...,(pre_xt pre_yt),...,(pre_x14 pre_y14)],(pre_xt pre_yt)代表第t块参照骨的关键点的横坐标和纵坐标预测值。
步骤3具体包括:
1)对于第t块参照骨来说,其边框大小为sizeBone(t),关键点坐标为(pre_xtpre_yt),计算参照骨兴趣区域的左上坐标和右下坐标,公式为:
Figure GDA0002780002350000041
其中xleft(t)为第t块参照骨的左上坐标的横坐标,ytop(t)为第t块参照骨的左上坐标的纵坐标,xright(t)为第t块参照骨的右下坐标的横坐标,ybottom(t)为第t块参照骨的右下坐标的纵坐标。
2)通过参照骨的左上坐标和右下坐标,将参照骨的兴趣区域提取出来,公式为:
ROI(t)=img[xleft(t):xright(t)][ytop(t):ybottom(t)] (3-2)
其中ROI(t)为第t块参照骨兴趣区域的二维序列,img为手腕部X光片图像的二维序列。
本发明具有如下有益效果:
(1)准确地提取出CHN法所需的14块参照骨兴趣区域。
(2)对于手腕部的摆放方式、摆放位置及图像质量等因素不敏感,具有普适性。
附图说明
图1a~图1c是本发明方法的基于手腕部形状信息的扫描流程图,其中图1a是需要扫描的区域图,图1b是扫描的过程图,图1c是扫描后最大连续横坐标序列结果图。
图2a~图2d是本发明的14块参照骨的提取结果图,其中图2a是手腕左偏的参照骨提取结果图,图2b是标准手腕的参照骨提取结果图,图2c是偏小手腕的参照骨提取结果图,图2d是第五指骨弯曲的手腕的参照骨提取结果图。
图3是本发明的总体流程图。
具体实施方式
下面结合附图对本发明的技术方案作进一步阐述。
基于形状信息和卷积神经网络的CHN法兴趣区域提取方法,包括如下步骤:
步骤1:根据手腕部的形状信息来确定手指及手腕的宽度,针对不同的参照骨,手指或手腕的宽度乘以相应的权重获取参照骨的边框大小;
步骤2:通过对一个自建的卷积神经网络进行训练,得到关键点预测模型。
步骤3:将步骤1和步骤2结合,提取出14块参照骨的兴趣区域。
步骤1具体包括:
1)手腕部X光片图像进行二值化处理,通过阈值将手腕与背景区分出来,阈值计算的公式为:
Figure GDA0002780002350000051
其中,w为X光片图像的宽度,h为X光片图像的高度,(xi,yj)为X光图像中的像素点坐标,gray(xi,yj)为在坐标(xi,yj)上的灰度值。通过公式(1-1)计算出的阈值将手腕和背景区分出来,手腕部分使用白色像素点填充,背景部分使用黑色像素点填充,得到二值化后的图像,二值化的公式为:
Figure GDA0002780002350000052
其中,0代表黑色像素填充,255代表白色像素点填充,通过公式(1-2)得到二值化后的图像;
2)从上往下,每隔10像素点对二值化图片从左向右进行扫描,找到形状信息序列B[m],其公式为:
Figure GDA0002780002350000061
其中m为图像的纵坐标,其值从0以10步长递增,达到图像的宽度w为止,Fmi为在m行中第i个最大连续横坐标序列[xstart,xstart+1,...,xend]的宽度,n为最大连续横坐标序列的个数,最大连续横坐标序列应满足公式(1-4),通过公式(1-5)计算得出。
gary(xi,ym)=255,i∈[start,end] (1-4)
Fmi=xend-xstart,xstart<xend (1-5)
3)根据n将形状信息序列B[m]分成包含一个最大连续横坐标序列宽度的
Figure GDA0002780002350000062
形状信息序列B1[m]、包含两个最大连续横坐标序列宽度
Figure GDA0002780002350000063
的形状信息序列B2[m]和包含四个最大连续横坐标序列宽度
Figure GDA0002780002350000064
的形状信息序列B4[m]。
4)对于形状信息序列B1[m],计算相邻形状信息序列中最大连续横坐标序列宽度的偏差,如果偏差大于8时,则当前最大连续横坐标序列宽度为手腕的宽度wristWidth,公式为:
Figure GDA0002780002350000065
5)对于形状信息序列B2[m],计算所有形状信息序列中宽度最大的第二个最大连续横坐标序列,该最大连续横坐标序列宽度为第一指骨的宽度firstWidth,公式为:
Figure GDA0002780002350000066
6)对于形状信息序列B4[m],计算所有形状信息序列中宽度最大的第一个最大连续横坐标序列,该最大连续横坐标序列宽度为第五指骨的宽度fifthWidth,公式为:
Figure GDA0002780002350000067
7)对于形状信息序列B4[m],计算所有形状信息序列中宽度最大的第三个最大连续横坐标序列,该最大连续横坐标序列宽度为第三指骨的宽度thirdWidth,公式为:
Figure GDA0002780002350000071
8)在得到wristWidth、firstWidth、thirdWidth和fifthWidth后,根据各块参照骨的形状特征乘以不同的权重就可以得到各块参照骨的边界框大小,公式为:
Figure GDA0002780002350000072
其中boneSize(t)为参照骨边框大小值,t为参照骨的类型的序号,其值从1开始到14结束,分别代表远节指骨5、中节指骨5、近节指骨5、掌骨5、远节指骨3、中节指骨3、近节指骨3、掌骨3、远节指骨1、近节指骨1、掌骨1、钩骨、头状骨和桡骨,根据不同的参照骨选取不同的权重,通过公式(1-10)计算得到参照骨的边界框大小。
步骤2具体包括:
1)在手腕部X光片上标定14块参照骨的关键点坐标,构建参照骨关键点数据集,一共标定8000张,其中6000张用于训练,2000张用于测试。
2)构建卷积神经网络模型,本发明构建的卷积神经网络模型为一个7层的网络模型,包含4个卷积层和3个全连接层,第一个卷积层的卷积核大小为5*5,填充为2,其余卷积层的卷积核大小为3*3,填充为1,卷积核数目分别为96、192、384和384,步长均为2;前两个全连接层的神经元个数为4096,最后一个全连接层的神经元个数为28;池化层的核为2*2,步长为2。
3)训练卷积神经网络模型,一共迭代20次,基础学习率为0.001,每隔5次学习率下降10倍,每次迭代结束保存一次模型,选择最后一次迭代的模型作为本发明的关键点预测模型。关键点预测模型输出一个长度为14的序列[(pre_x1,pre_y1),(pre_x2,pre_y2),...,(pre_xt pre_yt),...,(pre_x14 pre_y14)],(pre_xt pre_yt)代表第t块参照骨的关键点的横坐标和纵坐标预测值。
步骤3具体包括:
1)对于第t块参照骨来说,其边框大小为sizeBone(t),关键点坐标为(pre_xtpre_yt),计算参照骨兴趣区域的左上坐标和右下坐标,公式为:
Figure GDA0002780002350000081
其中xleft(t)为第t块参照骨的左上坐标的横坐标,ytop(t)为第t块参照骨的左上坐标的纵坐标,xright(t)为第t块参照骨的右下坐标的横坐标,ybottom(t)为第t块参照骨的右下坐标的纵坐标。
2)通过参照骨的左上坐标和右下坐标,将参照骨的兴趣区域提取出来,公式为:
ROI(t)=img[xleft(t):xright(t)][ytop(t):ybottom(t)] (3-2)
其中ROI(t)为第t块参照骨兴趣区域的二维序列,img为手腕部X光片图像的二维序列。
最后应说明的是:以上实施方式仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施方式对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施方式技术方案的精神和范围。

Claims (1)

1.基于形状信息和卷积神经网络的CHN法兴趣区域提取方法,其包括以下步骤:
步骤1:根据手腕部的形状信息来确定手指及手腕的宽度,针对不同的参照骨,手指或手腕的宽度乘以相应的权重获取参照骨的边框大小;具体包括:
11)手腕部X光片图像进行二值化处理,通过阈值将手腕与背景区分出来,阈值计算的公式为:
Figure FDA0002796498240000011
其中,w为X光片图像的宽度,h为X光片图像的高度,(xi,yj)为X光图像中的像素点坐标,gray(xi,yj)为在坐标(xi,yj)上的灰度值;通过公式(1-1)计算出的阈值将手腕和背景区分出来,手腕部分使用白色像素点填充,背景部分使用黑色像素点填充,得到二值化后的图像,二值化的公式为:
Figure FDA0002796498240000012
其中,0代表黑色像素填充,255代表白色像素点填充,通过公式(1-2)得到二值化后的图像;
12)从上往下,每隔10像素点对二值化图片从左向右进行扫描,找到形状信息序列B[m],其公式为:
Figure FDA0002796498240000013
其中m为图像的纵坐标,其值从0以10步长递增,达到图像的宽度w为止,Fmi为在m行中第i个最大连续横坐标序列[xstart,xstart+1,...,xend]的宽度,n为最大连续横坐标序列的个数,最大连续横坐标序列应满足公式(1-4),其宽度通过公式(1-5)计算得出;
gary(xi,ym)=255,i∈[start,end] (1-4)
Fmi=xend-xstart,xstart<xend (1-5)
13)根据n将形状信息序列B[m]分成包含一个最大连续横坐标序列宽度的
Figure FDA0002796498240000021
形状信息序列B1[m]、包含两个最大连续横坐标序列宽度
Figure FDA0002796498240000022
的形状信息序列B2[m]和包含四个最大连续横坐标序列宽度
Figure FDA0002796498240000023
的形状信息序列B4[m];
14)对于形状信息序列B1[m],计算相邻形状信息序列中最大连续横坐标序列宽度的偏差,如果偏差大于8时,则当前最大连续横坐标序列宽度为手腕的宽度wristWidth,公式为:
Figure FDA0002796498240000024
15)对于形状信息序列B2[m],计算所有形状信息序列中宽度最大的第二个最大连续横坐标序列,该最大连续横坐标序列宽度为第一指骨的宽度firstWidth,公式为:
Figure FDA0002796498240000025
16)对于形状信息序列B4[m],计算所有形状信息序列中宽度最大的第一个最大连续横坐标序列,该最大连续横坐标序列宽度为第五指骨的宽度fifthWidth,公式为:
Figure FDA0002796498240000026
17)对于形状信息序列B4[m],计算所有形状信息序列中宽度最大的第三个最大连续横坐标序列,该最大连续横坐标序列宽度为第三指骨的宽度thirdWidth,公式为:
Figure FDA0002796498240000027
18)在得到wristWidth、firstWidth、thirdWidth和fifthWidth后,根据各块参照骨的形状特征乘以不同的权重就可以得到各块参照骨的边界框大小,公式为:
Figure FDA0002796498240000028
其中boneSize(t)为参照骨边框大小值,t为参照骨的类型的序号,其值从1开始到14结束,分别代表远节指骨5、中节指骨5、近节指骨5、掌骨5、远节指骨3、中节指骨3、近节指骨3、掌骨3、远节指骨1、近节指骨1、掌骨1、钩骨、头状骨和桡骨,根据不同的参照骨选取不同的权重,通过公式(1-10)计算得到参照骨的边界框大小;
步骤2:通过对一个自建的卷积神经网络进行训练,得到关键点预测模型;具体包括:
21)在手腕部X光片上标定14块参照骨的关键点坐标,构建参照骨关键点数据集,一共标定8000张,其中6000张用于训练,2000张用于测试;
22)构建卷积神经网络模型,构建的卷积神经网络模型为一个7层的网络模型,包含4个卷积层和3个全连接层,第一个卷积层的卷积核大小为5*5,填充为2,其余卷积层的卷积核大小为3*3,填充为1,卷积核数目分别为96、192、384和384,步长均为2;前两个全连接层的神经元个数为4096,最后一个全连接层的神经元个数为28;池化层的核为2*2,步长为2;
23)训练卷积神经网络模型,一共迭代20次,基础学习率为0.001,每隔5次学习率下降10倍,每次迭代结束保存一次模型,选择最后一次迭代的模型作为关键点预测模型;关键点预测模型输出一个长度为14的序列[(pre_x1,pre_y1),(pre_x2,pre_y2),...,(pre_xt,pre_yt),...,(pre_x14,pre_y14)],(pre_xt,pre_yt)代表第t块参照骨的关键点的横坐标和纵坐标预测值;
步骤3:将步骤1和步骤2结合,提取出14块参照骨的兴趣区域;具体包括:
31)对于第t块参照骨来说,其边框大小为sizeBone(t),关键点坐标为(pre_xt,pre_yt),计算参照骨兴趣区域的左上坐标和右下坐标,公式为:
Figure FDA0002796498240000031
其中xleft(t)为第t块参照骨的左上坐标的横坐标,ytop(t)为第t块参照骨的左上坐标的纵坐标,xright(t)为第t块参照骨的右下坐标的横坐标,ybottom(t)为第t块参照骨的右下坐标的纵坐标;
32)通过参照骨的左上坐标和右下坐标,将参照骨的兴趣区域提取出来,公式为:
ROI(t)=img[xleft(t):xright(t)][ytop(t):ybottom(t)] (3-2)
其中ROI(t)为第t块参照骨兴趣区域的二维序列,img为手腕部X光片图像的二维序列。
CN201910222145.9A 2019-03-22 2019-03-22 基于形状信息和卷积神经网络的chn法兴趣区域提取方法 Active CN109961044B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910222145.9A CN109961044B (zh) 2019-03-22 2019-03-22 基于形状信息和卷积神经网络的chn法兴趣区域提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910222145.9A CN109961044B (zh) 2019-03-22 2019-03-22 基于形状信息和卷积神经网络的chn法兴趣区域提取方法

Publications (2)

Publication Number Publication Date
CN109961044A CN109961044A (zh) 2019-07-02
CN109961044B true CN109961044B (zh) 2021-02-02

Family

ID=67024634

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910222145.9A Active CN109961044B (zh) 2019-03-22 2019-03-22 基于形状信息和卷积神经网络的chn法兴趣区域提取方法

Country Status (1)

Country Link
CN (1) CN109961044B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110782470B (zh) * 2019-11-04 2023-03-28 浙江工业大学 一种基于形状信息的腕骨区域分割方法
CN112365411B (zh) * 2020-10-20 2024-02-20 浙江工业大学 一种基于位置点匹配的手腕骨兴趣区域修复方法
CN112489005B (zh) * 2020-11-26 2021-11-09 推想医疗科技股份有限公司 骨分割方法及装置、骨折检出方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8649577B1 (en) * 2008-11-30 2014-02-11 Image Analysis, Inc. Automatic method and system for measurements of bone density and structure of the hip from 3-D X-ray imaging devices
CN107767419A (zh) * 2017-11-07 2018-03-06 广州深域信息科技有限公司 一种人体骨骼关键点检测方法及装置
CN107871316A (zh) * 2017-10-19 2018-04-03 浙江工业大学 一种基于深度神经网络的x光片手骨兴趣区域自动提取方法
CN107895367A (zh) * 2017-11-14 2018-04-10 中国科学院深圳先进技术研究院 一种骨龄识别方法、系统及电子设备
CN108985148A (zh) * 2018-05-31 2018-12-11 成都通甲优博科技有限责任公司 一种手部关键点检测方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8649577B1 (en) * 2008-11-30 2014-02-11 Image Analysis, Inc. Automatic method and system for measurements of bone density and structure of the hip from 3-D X-ray imaging devices
CN107871316A (zh) * 2017-10-19 2018-04-03 浙江工业大学 一种基于深度神经网络的x光片手骨兴趣区域自动提取方法
CN107767419A (zh) * 2017-11-07 2018-03-06 广州深域信息科技有限公司 一种人体骨骼关键点检测方法及装置
CN107895367A (zh) * 2017-11-14 2018-04-10 中国科学院深圳先进技术研究院 一种骨龄识别方法、系统及电子设备
CN108985148A (zh) * 2018-05-31 2018-12-11 成都通甲优博科技有限责任公司 一种手部关键点检测方法及装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Bone Age Assessment Based on Two-Stage Deep Neural Networks;Meicheng Chu等;《2018 Digital Image Computing: Techniques and Applications (DICTA)》;20181213;第1-6页 *
Deep learning for automated skeletal bone age assessment in X-ray images;C.Spampinato等;《Medical Image Analysis》;20161029;第36卷;第41-51页 *
Skeletal Bone Age Assessment Based on Deep Convolutional Neural Networks;Pengyi等;《PCM 2018: Advances in Multimedia Information Processing – PCM 2018》;20180919;第408-417页 *
一种新的指腕骨ROI的定位算法研究_基于k余弦和形状信息;冉隆科等;《计算机工程与应用》;20110421;第47卷(第12期);第169-172页 *
骨龄X射线图像的手骨兴趣区域定位研究;宋日刚;《计算机应用与软件》;20140715;第31卷(第7期);第226-228页 *

Also Published As

Publication number Publication date
CN109961044A (zh) 2019-07-02

Similar Documents

Publication Publication Date Title
CN109961044B (zh) 基于形状信息和卷积神经网络的chn法兴趣区域提取方法
CN110443205B (zh) 一种手部图像分割方法及装置
CN108364280A (zh) 结构裂缝自动化描绘及宽度精准测量方法与设备
JP6136537B2 (ja) 画像処理装置、画像処理方法、画像処理制御プログラム、および記録媒体
CN107688829A (zh) 一种基于支持向量机的识别系统及识别方法
CN111080591A (zh) 基于编码解码结构结合残差模块的医学图像分割方法
CN112488244B (zh) 一种利用热力图进行点标注方式的密集分布小目标害虫自动计数方法
CN111882555B (zh) 基于深度学习的网衣检测方法、装置、设备及存储介质
CN110782470B (zh) 一种基于形状信息的腕骨区域分割方法
CN114494775A (zh) 视频切分方法、装置、设备及存储介质
CN116229265A (zh) 一种自动无损提取大豆植株表型的方法
CN116645592A (zh) 一种基于图像处理的裂缝检测方法和存储介质
CN110874835B (zh) 作物叶部病害抗性鉴定方法、系统、电子设备及存储介质
CN110472640B (zh) 一种目标检测模型预测框处理方法及装置
CN106447654A (zh) 基于统计相似性和双向显著性保真度的图像重定向质量评价方法
CN113920324B (zh) 图像识别方法、装置、电子设备及存储介质
CN115861409A (zh) 大豆叶面积测算方法、系统、计算机设备及存储介质
CN115033721A (zh) 基于大数据的图像检索方法
CN113920147A (zh) 基于深度学习的遥感影像建筑物提取方法及设备
CN108171683B (zh) 一种采用软件自动识别的细胞计数方法
CN110490170B (zh) 一种人脸候选框提取方法
CN116934761A (zh) 一种乳胶手套缺陷自适应检测方法
JP3749726B1 (ja) 周期性ノイズ下での低コントラスト欠陥検査方法、繰返しパターン下での低コントラスト欠陥検査方法
CN111627036A (zh) 图像区域校正方法、装置、设备及存储介质
CN106845550B (zh) 一种基于多模板的图像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant