CN109961044A - 基于形状信息和卷积神经网络的chn法兴趣区域提取方法 - Google Patents
基于形状信息和卷积神经网络的chn法兴趣区域提取方法 Download PDFInfo
- Publication number
- CN109961044A CN109961044A CN201910222145.9A CN201910222145A CN109961044A CN 109961044 A CN109961044 A CN 109961044A CN 201910222145 A CN201910222145 A CN 201910222145A CN 109961044 A CN109961044 A CN 109961044A
- Authority
- CN
- China
- Prior art keywords
- bone
- referring
- sequence
- width
- shape information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/033—Recognition of patterns in medical or anatomical images of skeletal patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/117—Biometrics derived from hands
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
基于形状信息和卷积神经网络的CHN法兴趣区域提取方法,包括:步骤1参照骨边界框大小确定,步骤2参照骨关键点定位。CHN法通过评估14块参照骨的成熟指征来计算骨龄,该方法符合中国当代青少年的生长发育规律。本发明在保证参照骨兴趣区域提取准确的同时,还保证其具有较强的普适性。参照骨边框大小主要是根据手腕部的形状信息来确定手指及手腕的宽度,根据不同的权重得到14块参照骨的边界框大小;参照骨关键点定位主要是通过一个自建的卷积神经网络模型进行回归预测,得到14块参照骨的关键点坐标。在获取到参照骨边框大小及其坐标以后,就可以将参照骨的兴趣区域提取出来。
Description
技术领域
本发明涉及CHN法兴趣区域提取方法。
背景技术
CHN法通过评估14块参照骨的成熟指征来计算骨龄,该方法符合中国当代青少年的生长发育规律。CHN法的14块参照骨为掌骨1、掌骨3、掌骨5、近节指骨1、近节指骨3、近节指骨5、中节指骨3、中节指骨5、远节指骨1、远节指骨3、远节指骨5、钩骨、头状骨和桡骨。
目前兴趣区域提取方法大多是基于边缘检测和角点检测来实现的,这些方法实现简单,可以准确地提取出参照骨的兴趣区域,但是它们于手腕部的摆放方式、摆放位置及图像质量等因素敏感,没有普适性。本发明在保证参照骨兴趣区域提取准确的同时,还保证其具有较强的普适性。
发明内容
本发明要克服现有技术的上述缺点,提供一种基于形状信息和卷积神经网络的CHN法兴趣区域提取方法。
本发明解决技术问题采用如下技术方案:
基于形状信息和卷积神经网络的CHN法兴趣区域提取方法,包括以下步骤:
步骤1:根据手腕部的形状信息来确定手指及手腕的宽度,针对不同的参照骨,手指或手腕的宽度乘以相应的权重获取参照骨的边框大小;
步骤2:通过对一个自建的卷积神经网络进行训练,得到关键点预测模型。
步骤3:将步骤1和步骤2结合,提取出14块参照骨的兴趣区域。
步骤1具体包括:
1)手腕部X光片图像进行二值化处理,通过阈值将手腕与背景区分出来,阈值计算的公式为:
其中,w为X光片图像的宽度,h为X光片图像的高度,(xi,yj)为X光图像中的像素点坐标,gray(xi,yj)为在坐标(xi,yj)上的灰度值。通过公式(2-1)计算出的阈值将手腕和背景区分出来,手腕部分使用白色像素点填充,背景部分使用黑色像素点填充,得到二值化后的图像,二值化的公式为:
其中,0代表黑色像素填充,255代表白色像素点填充,通过公式(2-2)得到二值化后的图像;
2)从上往下,每隔10像素点对二值化图片从左向右进行扫描,找到形状信息序列B[m],其公式为:
其中m为图像的纵坐标,其值从0以10步长递增,达到图像的宽度w为止,Fmi为在m行中第i个最大连续横坐标序列[xstart,xstart+1,...,xend]的宽度,n为最大连续横坐标序列的个数,最大连续横坐标序列应满足公式(2-3),通过公式(2-4)计算得出。
gary(xi,ym)=255,i∈[start,end] (2-3)
F=xend-xstart,xstart<xend (2-4)
3)根据n将形状信息序列B[m]分成包含一个最大连续横坐标序列宽度的形状信息序列B1[m]、包含两个最大连续横坐标序列宽度的形状信息序列B2[m]和包含四个最大连续横坐标序列宽度的形状信息序列B4[m]。
4)对于形状信息序列B1[m],计算相邻形状信息序列中最大连续横坐标序列宽度的偏差,如果偏差大于8时,则当前最大连续横坐标序列宽度为手腕的宽度wristWidth,公式为:
5)对于形状信息序列B2[m],计算所有形状信息序列中宽度最大的第二个最大连续横坐标序列,该最大连续横坐标序列宽度为第一指骨的宽度firstWidth,公式为:
6)对于形状信息序列B4[m],计算所有形状信息序列中宽度最大的第一个最大连续横坐标序列,该最大连续横坐标序列宽度为第五指骨的宽度fifthWidth,公式为:
7)对于形状信息序列B4[m],计算所有形状信息序列中宽度最大的第三个最大连续横坐标序列,该最大连续横坐标序列宽度为第三指骨的宽度thirdWidth,公式为:
8)在得到wristWidth、firstWidth、thirdWidth和fifthWidth后,根据各块参照骨的形状特征乘以不同的权重就可以得到各块参照骨的边界框大小,公式为:
其中boneSize(t)为参照骨边框大小值,t为参照骨的类型的序号,其值从1开始到14结束,分别代表远节指骨5、中节指骨5、近节指骨5、掌骨5、远节指骨3、中节指骨3、近节指骨3、掌骨3、远节指骨1、近节指骨1、掌骨1、钩骨、头状骨和桡骨,根据不同的参照骨选取不同的权重,通过公式(2-9)计算得到参照骨的边界框大小。
步骤2具体包括:
1)在手腕部X光片上标定14块参照骨的关键点坐标,构建参照骨关键点数据集,一共标定8000张,其中6000张用于训练,2000张用于测试。
2)构建卷积神经网络模型,本发明构建的卷积神经网络模型为一个7层的网络模型,包含4个卷积层和3个全连接层,第一个卷积层的卷积核大小为5*5,填充为2,其余卷积层的卷积核大小为3*3,填充为1,卷积核数目分别为96、192、384和384,步长均为2;前两个全连接层的神经元个数为4096,最后一个全连接层的神经元个数为28;池化层的核为2*2,步长为2。
3)训练卷积神经网络模型,一共迭代20次,基础学习率为0.001,每隔5次学习率下降10倍,每次迭代结束保存一次模型,选择最后一次迭代的模型作为本发明的关键点预测模型。关键点预测模型输出一个长度为14的序列[(pre_x1,pre_y1),(pre_x2,pre_y2),...,(pre_xt pre_yt),...,(pre_x14pre_y14)],(pre_xtpre_yt)代表第t块参照骨的关键点的横坐标和纵坐标预测值。
步骤3具体包括:
1)对于第t块参照骨来说,其边框大小为sizeBone(t),关键点坐标为(pre_xtpre_yt),计算参照骨兴趣区域的左上坐标和右下坐标,公式为:
其中xleft(t)为第t块参照骨的左上坐标的横坐标,ytop(t)为第t块参照骨的左上坐标的纵坐标,xright(t)为第t块参照骨的右下坐标的横坐标,ybottom(t)为第t块参照骨的右下坐标的纵坐标。
2)通过参照骨的左上坐标和右下坐标,将参照骨的兴趣区域提取出来,公式为:
ROI(t)=img[xleft(t):xright(t)][ytop(t):ybottom(t)] (2-11)
其中ROI(t)为第t块参照骨兴趣区域的二维序列,img为手腕部X光片图像的二维序列。
本发明具有如下有益效果:
(1)准确地提取出CHN法所需的14块参照骨兴趣区域。
(2)对于手腕部的摆放方式、摆放位置及图像质量等因素不敏感,具有普适性。
附图说明
图1a~图1c是本发明方法的基于手腕部形状信息的扫描流程图,其中图1a是需要扫描的区域图,图1b是扫描的过程图,图1c是扫描后最大连续横坐标序列结果图。
图2a~图2d是本发明的14块参照骨的提取结果图,其中图2a是手腕左偏的参照骨提取结果图,图2b是标准手腕的参照骨提取结果图,图2c是偏小手腕的参照骨提取结果图,图2d是第五指骨弯曲的手腕的参照骨提取结果图。
图3是本发明的总体流程图。
具体实施方式
下面结合附图对本发明的技术方案作进一步阐述。
基于形状信息和卷积神经网络的CHN法兴趣区域提取方法,包括如下步骤:
步骤1:根据手腕部的形状信息来确定手指及手腕的宽度,针对不同的参照骨,手指或手腕的宽度乘以相应的权重获取参照骨的边框大小;
步骤2:通过对一个自建的卷积神经网络进行训练,得到关键点预测模型。
步骤3:将步骤1和步骤2结合,提取出14块参照骨的兴趣区域。
步骤1具体包括:
1)手腕部X光片图像进行二值化处理,通过阈值将手腕与背景区分出来,阈值计算的公式为:
其中,w为X光片图像的宽度,h为X光片图像的高度,(xi,yj)为X光图像中的像素点坐标,gray(xi,yj)为在坐标(xi,yj)上的灰度值。通过公式(2-1)计算出的阈值将手腕和背景区分出来,手腕部分使用白色像素点填充,背景部分使用黑色像素点填充,得到二值化后的图像,二值化的公式为:
其中,0代表黑色像素填充,255代表白色像素点填充,通过公式(2-2)得到二值化后的图像;
2)从上往下,每隔10像素点对二值化图片从左向右进行扫描,找到形状信息序列B[m],其公式为:
其中m为图像的纵坐标,其值从0以10步长递增,达到图像的宽度w为止,Fmi为在m行中第i个最大连续横坐标序列[xstart,xstart+1,...,xend]的宽度,n为最大连续横坐标序列的个数,最大连续横坐标序列应满足公式(2-3),通过公式(2-4)计算得出。
gary(xi,ym)=255,i∈[start,end] (2-3)
F=xend-xstart,xstart<xend (2-4)
3)根据n将形状信息序列B[m]分成包含一个最大连续横坐标序列宽度的形状信息序列B1[m]、包含两个最大连续横坐标序列宽度的形状信息序列B2[m]和包含四个最大连续横坐标序列宽度的形状信息序列B4[m]。
4)对于形状信息序列B1[m],计算相邻形状信息序列中最大连续横坐标序列宽度的偏差,如果偏差大于8时,则当前最大连续横坐标序列宽度为手腕的宽度wristWidth,公式为:
5)对于形状信息序列B2[m],计算所有形状信息序列中宽度最大的第二个最大连续横坐标序列,该最大连续横坐标序列宽度为第一指骨的宽度firstWidth,公式为:
6)对于形状信息序列B4[m],计算所有形状信息序列中宽度最大的第一个最大连续横坐标序列,该最大连续横坐标序列宽度为第五指骨的宽度fifthWidth,公式为:
7)对于形状信息序列B4[m],计算所有形状信息序列中宽度最大的第三个最大连续横坐标序列,该最大连续横坐标序列宽度为第三指骨的宽度thirdWidth,公式为:
8)在得到wristWidth、firstWidth、thirdWidth和fifthWidth后,根据各块参照骨的形状特征乘以不同的权重就可以得到各块参照骨的边界框大小,公式为:
其中boneSize(t)为参照骨边框大小值,t为参照骨的类型的序号,其值从1开始到14结束,分别代表远节指骨5、中节指骨5、近节指骨5、掌骨5、远节指骨3、中节指骨3、近节指骨3、掌骨3、远节指骨1、近节指骨1、掌骨1、钩骨、头状骨和桡骨,根据不同的参照骨选取不同的权重,通过公式(2-9)计算得到参照骨的边界框大小。
步骤2具体包括:
1)在手腕部X光片上标定14块参照骨的关键点坐标,构建参照骨关键点数据集,一共标定8000张,其中6000张用于训练,2000张用于测试。
2)构建卷积神经网络模型,本发明构建的卷积神经网络模型为一个7层的网络模型,包含4个卷积层和3个全连接层,第一个卷积层的卷积核大小为5*5,填充为2,其余卷积层的卷积核大小为3*3,填充为1,卷积核数目分别为96、192、384和384,步长均为2;前两个全连接层的神经元个数为4096,最后一个全连接层的神经元个数为28;池化层的核为2*2,步长为2。
3)训练卷积神经网络模型,一共迭代20次,基础学习率为0.001,每隔5次学习率下降10倍,每次迭代结束保存一次模型,选择最后一次迭代的模型作为本发明的关键点预测模型。关键点预测模型输出一个长度为14的序列[(pre_x1,pre_y1),(pre_x2,pre_y2),...,(pre_xt pre_yt),...,(pre_x14pre_y14)],(pre_xtpre_yt)代表第t块参照骨的关键点的横坐标和纵坐标预测值。
步骤3具体包括:
1)对于第t块参照骨来说,其边框大小为sizeBone(t),关键点坐标为(pre_xtpre_yt),计算参照骨兴趣区域的左上坐标和右下坐标,公式为:
其中xleft(t)为第t块参照骨的左上坐标的横坐标,ytop(t)为第t块参照骨的左上坐标的纵坐标,xright(t)为第t块参照骨的右下坐标的横坐标,ybottom(t)为第t块参照骨的右下坐标的纵坐标。
2)通过参照骨的左上坐标和右下坐标,将参照骨的兴趣区域提取出来,公式为:
ROI(t)=img[xleft(t):xright(t)][ytop(t):ybottom(t)] (2-11)
其中ROI(t)为第t块参照骨兴趣区域的二维序列,img为手腕部X光片图像的二维序列。
最后应说明的是:以上实施方式仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施方式对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施方式技术方案的精神和范围。
Claims (1)
1.基于形状信息和卷积神经网络的CHN法兴趣区域提取方法,其包括以下步骤:
步骤1:根据手腕部的形状信息来确定手指及手腕的宽度,针对不同的参照骨,手指或手腕的宽度乘以相应的权重获取参照骨的边框大小;具体包括:
11)手腕部X光片图像进行二值化处理,通过阈值将手腕与背景区分出来,阈值计算的公式为:
其中,w为X光片图像的宽度,h为X光片图像的高度,(xi,yj)为X光图像中的像素点坐标,gray(xi,yj)为在坐标(xi,yj)上的灰度值。通过公式(2-1)计算出的阈值将手腕和背景区分出来,手腕部分使用白色像素点填充,背景部分使用黑色像素点填充,得到二值化后的图像,二值化的公式为:
其中,0代表黑色像素填充,255代表白色像素点填充,通过公式(2-2)得到二值化后的图像;
12)从上往下,每隔10像素点对二值化图片从左向右进行扫描,找到形状信息序列B[m],其公式为:
其中m为图像的纵坐标,其值从0以10步长递增,达到图像的宽度w为止,Fmi为在m行中第i个最大连续横坐标序列[xstart,xstart+1,...,xend]的宽度,n为最大连续横坐标序列的个数,最大连续横坐标序列应满足公式(2-3),通过公式(2-4)计算得出。
gary(xi,ym)=255,i∈[start,end] (2-3)
F=xend-xstart,xstart<xend (2-4)
13)根据n将形状信息序列B[m]分成包含一个最大连续横坐标序列宽度的形状信息序列B1[m]、包含两个最大连续横坐标序列宽度的形状信息序列B2[m]和包含四个最大连续横坐标序列宽度的形状信息序列B4[m]。
14)对于形状信息序列B1[m],计算相邻形状信息序列中最大连续横坐标序列宽度的偏差,如果偏差大于8时,则当前最大连续横坐标序列宽度为手腕的宽度wristWidth,公式为:
15)对于形状信息序列B2[m],计算所有形状信息序列中宽度最大的第二个最大连续横坐标序列,该最大连续横坐标序列宽度为第一指骨的宽度firstWidth,公式为:
16)对于形状信息序列B4[m],计算所有形状信息序列中宽度最大的第一个最大连续横坐标序列,该最大连续横坐标序列宽度为第五指骨的宽度fifthWidth,公式为:
17)对于形状信息序列B4[m],计算所有形状信息序列中宽度最大的第三个最大连续横坐标序列,该最大连续横坐标序列宽度为第三指骨的宽度thirdWidth,公式为:
18)在得到wristWidth、firstWidth、thirdWidth和fifthWidth后,根据各块参照骨的形状特征乘以不同的权重就可以得到各块参照骨的边界框大小,公式为:
其中boneSize(t)为参照骨边框大小值,t为参照骨的类型的序号,其值从1开始到14结束,分别代表远节指骨5、中节指骨5、近节指骨5、掌骨5、远节指骨3、中节指骨3、近节指骨3、掌骨3、远节指骨1、近节指骨1、掌骨1、钩骨、头状骨和桡骨,根据不同的参照骨选取不同的权重,通过公式(2-9)计算得到参照骨的边界框大小;
步骤2:通过对一个自建的卷积神经网络进行训练,得到关键点预测模型;具体包括:
21)在手腕部X光片上标定14块参照骨的关键点坐标,构建参照骨关键点数据集,一共标定8000张,其中6000张用于训练,2000张用于测试。
22)构建卷积神经网络模型,本发明构建的卷积神经网络模型为一个7层的网络模型,包含4个卷积层和3个全连接层,第一个卷积层的卷积核大小为5*5,填充为2,其余卷积层的卷积核大小为3*3,填充为1,卷积核数目分别为96、192、384和384,步长均为2;前两个全连接层的神经元个数为4096,最后一个全连接层的神经元个数为28;池化层的核为2*2,步长为2。
23)训练卷积神经网络模型,一共迭代20次,基础学习率为0.001,每隔5次学习率下降10倍,每次迭代结束保存一次模型,选择最后一次迭代的模型作为本发明的关键点预测模型。关键点预测模型输出一个长度为14的序列[(pre_x1,pre_y1),(pre_x2,pre_y2),...,(pre_xt,pre_yt),...,(pre_x14,pre_y14)],(pre_xt,pre_yt)代表第t块参照骨的关键点的横坐标和纵坐标预测值。
步骤3:将步骤1和步骤2结合,提取出14块参照骨的兴趣区域;具体包括:
31)对于第t块参照骨来说,其边框大小为sizeBone(t),关键点坐标为(pre_xt,pre_yt),计算参照骨兴趣区域的左上坐标和右下坐标,公式为:
其中xleft(t)为第t块参照骨的左上坐标的横坐标,ytop(t)为第t块参照骨的左上坐标的纵坐标,xright(t)为第t块参照骨的右下坐标的横坐标,ybottom(t)为第t块参照骨的右下坐标的纵坐标。
32)通过参照骨的左上坐标和右下坐标,将参照骨的兴趣区域提取出来,公式为:
ROI(t)=img[xleft(t):xright(t)][ytop(t):ybottom(t)] (2-11)
其中ROI(t)为第t块参照骨兴趣区域的二维序列,img为手腕部X光片图像的二维序列。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910222145.9A CN109961044B (zh) | 2019-03-22 | 2019-03-22 | 基于形状信息和卷积神经网络的chn法兴趣区域提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910222145.9A CN109961044B (zh) | 2019-03-22 | 2019-03-22 | 基于形状信息和卷积神经网络的chn法兴趣区域提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109961044A true CN109961044A (zh) | 2019-07-02 |
CN109961044B CN109961044B (zh) | 2021-02-02 |
Family
ID=67024634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910222145.9A Active CN109961044B (zh) | 2019-03-22 | 2019-03-22 | 基于形状信息和卷积神经网络的chn法兴趣区域提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109961044B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110782470A (zh) * | 2019-11-04 | 2020-02-11 | 浙江工业大学 | 一种基于形状信息的腕骨区域分割方法 |
CN112365411A (zh) * | 2020-10-20 | 2021-02-12 | 浙江工业大学 | 一种基于位置点匹配的手腕骨兴趣区域修复方法 |
CN112489005A (zh) * | 2020-11-26 | 2021-03-12 | 推想医疗科技股份有限公司 | 骨分割方法及装置、骨折检出方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8649577B1 (en) * | 2008-11-30 | 2014-02-11 | Image Analysis, Inc. | Automatic method and system for measurements of bone density and structure of the hip from 3-D X-ray imaging devices |
CN107767419A (zh) * | 2017-11-07 | 2018-03-06 | 广州深域信息科技有限公司 | 一种人体骨骼关键点检测方法及装置 |
CN107871316A (zh) * | 2017-10-19 | 2018-04-03 | 浙江工业大学 | 一种基于深度神经网络的x光片手骨兴趣区域自动提取方法 |
CN107895367A (zh) * | 2017-11-14 | 2018-04-10 | 中国科学院深圳先进技术研究院 | 一种骨龄识别方法、系统及电子设备 |
CN108985148A (zh) * | 2018-05-31 | 2018-12-11 | 成都通甲优博科技有限责任公司 | 一种手部关键点检测方法及装置 |
-
2019
- 2019-03-22 CN CN201910222145.9A patent/CN109961044B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8649577B1 (en) * | 2008-11-30 | 2014-02-11 | Image Analysis, Inc. | Automatic method and system for measurements of bone density and structure of the hip from 3-D X-ray imaging devices |
CN107871316A (zh) * | 2017-10-19 | 2018-04-03 | 浙江工业大学 | 一种基于深度神经网络的x光片手骨兴趣区域自动提取方法 |
CN107767419A (zh) * | 2017-11-07 | 2018-03-06 | 广州深域信息科技有限公司 | 一种人体骨骼关键点检测方法及装置 |
CN107895367A (zh) * | 2017-11-14 | 2018-04-10 | 中国科学院深圳先进技术研究院 | 一种骨龄识别方法、系统及电子设备 |
CN108985148A (zh) * | 2018-05-31 | 2018-12-11 | 成都通甲优博科技有限责任公司 | 一种手部关键点检测方法及装置 |
Non-Patent Citations (5)
Title |
---|
C.SPAMPINATO等: "Deep learning for automated skeletal bone age assessment in X-ray images", 《MEDICAL IMAGE ANALYSIS》 * |
MEICHENG CHU等: "Bone Age Assessment Based on Two-Stage Deep Neural Networks", 《2018 DIGITAL IMAGE COMPUTING: TECHNIQUES AND APPLICATIONS (DICTA)》 * |
PENGYI等: "Skeletal Bone Age Assessment Based on Deep Convolutional Neural Networks", 《PCM 2018: ADVANCES IN MULTIMEDIA INFORMATION PROCESSING – PCM 2018》 * |
冉隆科等: "一种新的指腕骨ROI的定位算法研究_基于k余弦和形状信息", 《计算机工程与应用》 * |
宋日刚: "骨龄X射线图像的手骨兴趣区域定位研究", 《计算机应用与软件》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110782470A (zh) * | 2019-11-04 | 2020-02-11 | 浙江工业大学 | 一种基于形状信息的腕骨区域分割方法 |
CN110782470B (zh) * | 2019-11-04 | 2023-03-28 | 浙江工业大学 | 一种基于形状信息的腕骨区域分割方法 |
CN112365411A (zh) * | 2020-10-20 | 2021-02-12 | 浙江工业大学 | 一种基于位置点匹配的手腕骨兴趣区域修复方法 |
CN112365411B (zh) * | 2020-10-20 | 2024-02-20 | 浙江工业大学 | 一种基于位置点匹配的手腕骨兴趣区域修复方法 |
CN112489005A (zh) * | 2020-11-26 | 2021-03-12 | 推想医疗科技股份有限公司 | 骨分割方法及装置、骨折检出方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109961044B (zh) | 2021-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230410495A1 (en) | Tooth detection and labeling | |
CN109961044A (zh) | 基于形状信息和卷积神经网络的chn法兴趣区域提取方法 | |
CN104346617B (zh) | 一种基于滑动窗口和深度结构提取特征的细胞检测方法 | |
CN109345508A (zh) | 一种基于两阶段神经网络的骨龄评价方法 | |
CN105678806B (zh) | 一种基于Fisher判别的生猪行为轨迹自动跟踪方法 | |
CN109767440A (zh) | 一种面向深度学习模型训练和学习的影像图像数据扩充方法 | |
CN102509286B (zh) | 一种医学图像目标区域勾画方法 | |
CN107563388A (zh) | 一种基于深度信息预分割的卷积神经网络物体识别方法 | |
CN111612856B (zh) | 用于彩色眼底图像的视网膜新生血管检测方法及成像方法 | |
CN109635812B (zh) | 图像的实例分割方法及装置 | |
JP6853419B2 (ja) | 情報処理装置、情報処理方法、コンピュータプログラム | |
CN107392929A (zh) | 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法 | |
CN112990365B (zh) | 一种面向遥感图像语义分割的深度学习模型的训练方法 | |
CN111626141A (zh) | 基于生成图像的人群计数模型建立方法、计数方法及系统 | |
CN110751029A (zh) | 基于最大曲率自适应指静脉纹路提取方法 | |
CN106169173A (zh) | 一种图像插值方法 | |
CN115861409B (zh) | 大豆叶面积测算方法、系统、计算机设备及存储介质 | |
JP4978227B2 (ja) | 画像検出装置 | |
CN114648806A (zh) | 一种多机制自适应的眼底图像分割方法 | |
CN110782470B (zh) | 一种基于形状信息的腕骨区域分割方法 | |
CN114838664A (zh) | 一种基于黑皮鸡枞菌的菌盖尺寸原位测量方法 | |
Qin et al. | Predicting tongue shapes from a few landmark locations | |
CN109784345A (zh) | 一种基于无尺度深度网络的农业害虫检测方法 | |
CN106845558A (zh) | 路面检测的方法和装置 | |
CN116884036A (zh) | 基于YOLOv5DA的生猪姿态检测方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |