CN114494183B - 一种基于人工智能的髋臼半径自动测量方法及系统 - Google Patents
一种基于人工智能的髋臼半径自动测量方法及系统 Download PDFInfo
- Publication number
- CN114494183B CN114494183B CN202210085095.6A CN202210085095A CN114494183B CN 114494183 B CN114494183 B CN 114494183B CN 202210085095 A CN202210085095 A CN 202210085095A CN 114494183 B CN114494183 B CN 114494183B
- Authority
- CN
- China
- Prior art keywords
- pixel
- hip joint
- acetabular
- segmentation
- radius
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 25
- 238000000691 measurement method Methods 0.000 title claims description 13
- 230000011218 segmentation Effects 0.000 claims abstract description 86
- 210000004394 hip joint Anatomy 0.000 claims abstract description 68
- 210000000588 acetabulum Anatomy 0.000 claims abstract description 51
- 238000013528 artificial neural network Methods 0.000 claims abstract description 45
- 238000000034 method Methods 0.000 claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000005259 measurement Methods 0.000 claims abstract description 21
- 230000008569 process Effects 0.000 claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims description 52
- 238000010586 diagram Methods 0.000 claims description 28
- 238000012360 testing method Methods 0.000 claims description 23
- 238000007781 pre-processing Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000010606 normalization Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 10
- 210000001621 ilium bone Anatomy 0.000 claims description 7
- 238000003062 neural network model Methods 0.000 claims description 7
- 210000003689 pubic bone Anatomy 0.000 claims description 7
- 210000000689 upper leg Anatomy 0.000 claims description 7
- 230000000399 orthopedic effect Effects 0.000 description 15
- 238000011176 pooling Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 210000000988 bone and bone Anatomy 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000001624 hip Anatomy 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 208000035965 Postoperative Complications Diseases 0.000 description 1
- 238000012274 Preoperative evaluation Methods 0.000 description 1
- 206010052428 Wound Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000642 iatrogenic effect Effects 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Public Health (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Geometry (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Quality & Reliability (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
一种基于人工智能的髋臼半径自动测量方法及系统,涉及髋臼半径测量技术领域,用以解决现有技术不能对人体髋臼半径进行准确地自动测量的问题。本发明的技术要点包括:通过CT获取患者的医学影像数据并对其进行标注,对经过标注的多张CT影像进行预处理,基于训练的基于2D Unet神经网络的分割模型将髋关节结构分割出来,并通过预训练的基于3D Unet神经网络的识别模型对髋臼上的特征点进行识别,从而计算髋臼窝的半径,完成髋臼半径的测量。本发明可用于骨科术前的手术规划,可以使得之后的手术过程更精准,更个性化,并发症更低。本发明具有强大的临床应用前景和价值。
Description
技术领域
本发明涉及髋臼半径测量技术领域,具体涉及一种基于人工智能的髋臼半径自动测量方法及系统。
背景技术
骨科学研究较其他医学学科研究具有其鲜明的特点和困境。1、在骨科学的基础理论中,材料学和力学占据了极大部分,但由于医学专业及培养方式的局限性,绝大多数医生并不了解相应的材料学和工程学原理,也就存在理论与实践脱节等情况;2、骨科疾病患者中,需要手术治疗的患者达到90%以上,为专业性极强的外科科室,需要许多的精细操作与临床经验;3、骨科所需的手术器械种类之多、细节之繁复是其他科室所不具备的;与其他外科不同,绝大多数骨科手术患者(90%以上)都需要内固定物、外固定物等生物医学材料的辅助,如进行骨折后的复位内固定、复位外固定、关节置换等,这使骨科医师需具备扎实的理论知识和丰富的临床经验,其中临床经验需长时间的积累,学习曲线较长。数字骨科技术是近年来新兴的一种高科技制造业技术,是通过计算机进行辅助的数字处理和图像处理骨科基础与临床中的实际问题。据Cabitza等人统计,人工智能领域出版物过去20年里发表文章数目增加了10倍,这表明人工智能领域正处于高速发展的阶段。随着数据聚合和深度学习算法的空前发展,人工智能(AI)正在慢慢改变医学领域。尤其是骨科领域,其特别适合利用大数据的力量,并且可为骨科医生在临床工作中提供重要的见解,数字骨科技术的出现不仅可以解决上述问题,更能使骨科的诊疗方式朝着个性化、微创化、精准化、远程化及智能化的方向发展。尽管数字骨科人工智能在骨科手术领域相对较新,但对于未来打算进行临床实践的骨科医生来说,意识到并充分理解数字骨科及人工智能是至关重要的。
但是,现有研究中对于人体髋关节部位中髋臼半径的自动测量少之又少,从而使得医生在手术前不能实现对髋臼半径准确地自动测量,进而使得无法避免传统骨科手术的不精准、不可预知和可重复性低的技术难题。
发明内容
鉴于以上问题,本发明提出一种基于人工智能的髋臼半径自动测量方法及系统,用以解决现有技术不能对人体髋臼半径进行准确地自动测量的问题。
根据本发明的一方面,提供一种基于人工智能的髋臼半径自动测量方法,该方法包括以下步骤:
步骤一、采集多个患者对应其人体髋关节部位的多张CT影像,并在CT影像上对髋关节结构进行标注;所述髋关节结构包括股骨、耻骨、骼骨和髋臼;
步骤二、对经过标注的多张CT影像进行预处理,并将预处理后的多张CT影像分为训练集和测试集;
步骤三、将训练集输入2D Unet神经网络模型进行训练,获得训练好的基于2DUnet神经网络的分割模型;
步骤四、将测试集输入训练好的基于2D Unet神经网络的分割模型,获得髋关节结构分割结果;所述髋关节结构分割结果包括髋关节结构像素矩阵和背景像素矩阵;
步骤五、将所述髋关节结构像素矩阵输入预训练的基于3D Unet神经网络的识别模型中进行识别,获得髋臼上的特征点;所述特征点包括髋臼的上缘顶点和下缘顶点;
步骤六、根据所述特征点计算髋臼窝的半径,完成测试集中髋臼半径的测量。
进一步地,步骤二中所述预处理包括:对CT影像的图像像素值进行归一化处理;利用双线性插值方法将每个患者对应的堆叠在一起的多张CT影像改变为虚拟正方体,从而获得虚拟正方体对应的三维像素矩阵。
进一步地,步骤四的具体步骤包括:
步骤四一、采用三个2D Unet神经网络对虚拟正方体分别从前后、左右、上下三个方向进行分割,获得对应的三个三维像素矩阵;
步骤四二、将三个三维像素矩阵进行合并,获得合并的三维像素矩阵;
步骤四三、将合并的三维像素矩阵展开为一维数组,根据OTSU阈值分割方法获得分割阈值;
步骤四四、将合并的三维像素矩阵中像素值大于等于分割阈值的像素点设为1,小于分割阈值的像素点设为0,完成髋关节结构与背景的分割。
进一步地,步骤四三的具体步骤包括:
步骤四三一、对于一维数组对应的灰度值区间内每一个灰度值,将其作为阈值将图像分割为两部分;
步骤四三二、计算每一部分所占比例和平均灰度值;
步骤四三三、根据每一部分所占比例和平均灰度值计算两部分之间的类间方差;所述类间方差的计算公式为:
δ2=ω0ω1(μ0-μ1)2
式中,δ表示类间方差;ω0、ω1分别每一部分所占比例;μ0、μ1分别表示每一部分平均灰度值;
步骤四三四、选择类间方差最大值对应的灰度值作为分割阈值。
进一步地,步骤五中基于3D Unet神经网络的识别模型为在基础3D Unet网络的最后一层添加一层用于生成热力图,将所述髋关节结构像素矩阵输入基于3D Unet神经网络的识别模型后输出热力图,热力图中每一个像素点的像素值表示该像素点作为特征点的概率,选择概率最大值所对应的像素点即为特征点。
进一步地,步骤六的具体步骤包括:首先,计算髋臼的上缘顶点和下缘顶点之间的直线距离;然后,根据每个像素点代表的实际物理长宽和各个CT影像之间的厚度计算获得髋臼窝直径,从而获得髋臼半径;其中,髋臼窝直径d的计算公式为:
式中,L表示髋臼的上缘顶点和下缘顶点之间的直线距离;k、p表示每个像素点代表的实际物理长宽;q表示各个CT影像之间的厚度。
根据本发明的另一方面,提供一种基于人工智能的髋臼半径自动测量系统,该系统包括:
图像采集模块,其配置成采集多个患者对应其人体髋关节部位的多张CT影像,并在CT影像上对髋关节结构进行标注;所述髋关节结构包括股骨、耻骨、骼骨和髋臼;
预处理模块,其配置成对经过标注的多张CT影像进行预处理,并将预处理后的多张CT影像分为训练集和测试集;
分割模型训练模块,其配置成将训练集输入2D Unet神经网络模型进行训练,获得训练好的基于2D Unet神经网络的分割模型;
分割模块,其配置成将测试集输入训练好的基于2D Unet神经网络的分割模型,获得髋关节结构分割结果;所述髋关节结构分割结果包括髋关节结构像素矩阵和背景像素矩阵;
特征点识别模块,其配置成将所述髋关节结构像素矩阵输入预训练的基于3DUnet神经网络的识别模型中进行识别,获得髋臼上的特征点;所述特征点包括髋臼的上缘顶点和下缘顶点;
半径测量模块,其配置成根据所述特征点计算髋臼窝的半径,完成测试集中髋臼半径的测量;具体过程包括:首先,计算髋臼的上缘顶点和下缘顶点之间的直线距离;然后,根据每个像素点代表的实际物理长宽和各个CT影像之间的厚度计算获得髋臼窝直径,从而获得髋臼半径,其中,髋臼窝直径d的计算公式为:
式中,L表示髋臼的上缘顶点和下缘顶点之间的直线距离;k、p表示每个像素点代表的实际物理长宽;q表示各个CT影像之间的厚度。
进一步地,所述预处理模块中所述预处理包括:对CT影像的图像像素值进行归一化处理;利用双线性插值方法将每个患者对应的堆叠在一起的多张CT影像改变为虚拟正方体,从而获得虚拟正方体对应的三维像素矩阵。
进一步地,所述分割模块中将测试集输入训练好的基于2D Unet神经网络的分割模型,获得髋关节结构分割结果的具体过程包括:
步骤四一、采用三个2D Unet神经网络对虚拟正方体分别从前后、左右、上下三个方向进行分割,获得对应的三个三维像素矩阵;
步骤四二、将三个三维像素矩阵进行合并,获得合并的三维像素矩阵;
步骤四三、将合并的三维像素矩阵展开为一维数组,根据OTSU阈值分割方法获得分割阈值;具体步骤包括:首先,对于一维数组对应的灰度值区间内每一个灰度值,将其作为阈值将图像分割为两部分;然后,计算每一部分所占比例和平均灰度值;然后,根据每一部分所占比例和平均灰度值计算两部分之间的类间方差,所述类间方差的计算公式为:
δ2=ω0ω1(μ0-μ1)2
式中,δ表示类间方差;ω0、ω1分别每一部分所占比例;μ0、μ1分别表示每一部分平均灰度值;最后,选择类间方差最大值对应的灰度值作为分割阈值;
步骤四四、将合并的三维像素矩阵中像素值大于等于分割阈值的像素点设为1,小于分割阈值的像素点设为0,完成髋关节结构与背景的分割。
进一步地,所述特征点识别模块中基于3D Unet神经网络的识别模型为在基础3DUnet网络的最后一层添加一层用于生成热力图,将所述髋关节结构像素矩阵输入基于3DUnet神经网络的识别模型后输出热力图,热力图中每一个像素点的像素值表示该像素点作为特征点的概率,选择概率最大值所对应的像素点即为特征点。
本发明的有益技术效果是:
本发明通过CT获取患者的医学影像数据并对其进行标注,对经过标注的多张CT影像进行预处理,基于训练的基于2D Unet神经网络的分割模型将髋关节结构分割出来,并通过预训练的基于3D Unet神经网络的识别模型对髋臼上的特征点进行识别,从而计算髋臼窝的半径,完成髋臼半径的测量。本发明可用于骨科术前的手术规划,从而使得之后的手术过程更精准,更个性化,并发症更低。本发明具有强大的临床应用前景和价值。
附图说明
本发明可以通过参考下文中结合附图所给出的描述而得到更好的理解,所述附图连同下面的详细说明一起包含在本说明书中并且形成本说明书的一部分,而且用来进一步举例说明本发明的优选实施例和解释本发明的原理和优点。
图1是本发明实施例一种基于人工智能的髋臼半径自动测量方法的流程图;
图2是本发明另一实施例一种基于人工智能的髋臼半径自动测量方法的流程图;
图3是本发明实施例中CT断层标注示例图;
图4是本发明实施例中对髋关节部位进行标注后的三维重建结果示例图;
图5是本发明实施例中插值过程示意图;
图6是本发明实施例中双线性插值算法示意图;
图7是本发明实施例中2D Unet网络结构示意图;
图8是本发明实施例中3D Unet网络结构示意图;
图9是本发明实施例一种基于人工智能的髋臼半径自动测量系统的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,在下文中将结合附图对本发明的示范性实施方式或实施例进行描述。显然,所描述的实施方式或实施例仅仅是本发明一部分的实施方式或实施例,而不是全部的。基于本发明中的实施方式或实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式或实施例,都应当属于本发明保护的范围。
本发明实施例提供一种基于人工智能的髋臼半径自动测量方法,如图1所示,该方法包括以下步骤:
步骤一、采集多个患者对应其人体髋关节部位的多张CT影像,并在CT影像上对髋关节结构进行标注;髋关节结构包括股骨、耻骨、骼骨和髋臼;
步骤二、对经过标注的多张CT影像进行预处理,并将预处理后的多张CT影像分为训练集和测试集;
步骤三、将训练集输入2D Unet神经网络模型进行训练,获得训练好的基于2DUnet神经网络的分割模型;
步骤四、将测试集输入训练好的基于2D Unet神经网络的分割模型,获得髋关节结构分割结果;髋关节结构分割结果包括髋关节结构像素矩阵和背景像素矩阵;
步骤五、将髋关节结构像素矩阵输入预训练的基于3D Unet神经网络的识别模型中进行识别,获得髋臼上的特征点;特征点包括髋臼的上缘顶点和下缘顶点;
步骤六、根据特征点计算髋臼窝的半径,完成测试集中髋臼半径的测量。
本实施例中,可选地,预处理包括:对CT影像的图像像素值进行归一化处理;利用双线性插值方法将每个患者对应的堆叠在一起的多张CT影像改变为虚拟正方体,从而获得虚拟正方体对应的三维像素矩阵。
本实施例中,可选地,步骤四的具体步骤包括:
步骤四一、采用三个2D Unet神经网络对虚拟正方体分别从前后、左右、上下三个方向进行分割,获得对应的三个三维像素矩阵;
步骤四二、将三个三维像素矩阵进行合并,获得合并的三维像素矩阵;
步骤四三、将合并的三维像素矩阵展开为一维数组,根据OTSU阈值分割方法获得分割阈值;
步骤四四、将合并的三维像素矩阵中像素值大于等于分割阈值的像素点设为1,小于分割阈值的像素点设为0,完成髋关节结构与背景的分割。
本实施例中,可选地,步骤四三的具体步骤包括:
步骤四三一、对于一维数组对应的灰度值区间内每一个灰度值,将其作为阈值将图像分割为两部分;
步骤四三二、计算每一部分所占比例和平均灰度值;
步骤四三三、根据每一部分所占比例和平均灰度值计算两部分之间的类间方差;类间方差的计算公式为:
δ2=ω0ω1(μ0-μ1)2
式中,δ表示类间方差;ω0、ω1分别每一部分所占比例;μ0、μ1分别表示每一部分平均灰度值;
步骤四三四、选择类间方差最大值对应的灰度值作为分割阈值。
本实施例中,可选地,步骤五中基于3D Unet神经网络的识别模型为在基础3DUnet网络的最后一层添加一层用于生成热力图,将髋关节结构像素矩阵输入基于3D Unet神经网络的识别模型后输出热力图,热力图中每一个像素点的像素值表示该像素点作为特征点的概率,选择概率最大值所对应的像素点即为特征点。
本实施例中,可选地,步骤六的具体步骤包括:首先,计算髋臼的上缘顶点和下缘顶点之间的直线距离;然后,根据每个像素点代表的实际物理长宽和各个CT影像之间的厚度计算获得髋臼窝直径,从而获得髋臼半径;其中,髋臼窝直径d的计算公式为:
式中,L表示髋臼的上缘顶点和下缘顶点之间的直线距离;k、p表示每个像素点代表的实际物理长宽;q表示各个CT影像之间的厚度。
本发明另一实施例提供一种基于人工智能的髋臼半径自动测量方法,如图2所示,该方法包括以下步骤:
一、髋关节部分的全自动三维重建,包括:
1)数据收集;
根据本发明实施例,对哈尔滨医科大学附属第一医院收集的、多于200例的骨科髋关节部位CT数据进行编号和整理;选取其中符合标准、将进行过手术或CT扫描范围过广/过少等问题CT数据排除,得到完整的用于机器学习的数据集。
2)数据标注;
根据本发明实施例,由专业医生对股骨、耻骨、骼骨进行像素级标注,CT断层标注如图3所示,由手动标注结果进行三维重建后的结果如图4所示;依据此标准对所有髋关节CT数据进行标注。
3)机器学习训练与测试;
根据本发明实施例,在得到所有标注好的数据和标签之后,首先将数据按照6:2:2的比例对数据进行划分,得到训练集、验证集、测试集。在划分数据集之后对数据进行预处理。
预处理分为三步:a)在得到一个病人的髋关节CT序列之后,将所有的CT序列堆叠在一起,如通常每张CT大小为512*512,每个CT序列为100-300张之间不等,在这里设定有Z张CT,将其堆叠之后形成一个512*512*Z大小的长方体。
b)对每一张CT片子的像素值进行归一化,将图像的像素值缩放到0-1之间,方便后续采用深度学习的方法进行处理。本实施例中,采用根据窗位窗宽的归一化方法,归一化公式为:
Imagenormalization=(Imageoriginal-WindowLevel)/WindowWidth+0.5
其中,Imageoriginal为原始图像,Imagenormalization为归一化后的图像,WindowLevel为窗位,WindowWidth为窗宽,窗位和窗宽两个参数都可以直接在CT数据中读取得到,最后为了保证得到的数值在0-1之间,在后面再加上0.5。
c)在得到堆叠后归一化的CT数据之后,需要应用插值方法将512*512*Z大小的长方体数据插值改变形状到512*512*512大小,变成一个正方体,如图5所示。
本实施例中,采用双线性插值方法。双线性插值核心思想是在两个方向上分别进行一次线性插值,本发明在堆叠归一化后的CT正方体中分别在上下相邻两层中各取两个点,共四个点为Q11、Q12、Q21、Q22,如图6所示。
要得到未知函数f在点P=(x,y)的值,已知函数f在Q11=(x1,y1)、Q12=(x1,y2)、Q21=(x2,y1)、Q22=(x2,y2)四个点的值,该四个点的值即为上下两层中所选取四个点的像素值。首先在x轴方向上进行插值,得到:
然后在y轴方向上进行线性插值,得到:
最终得到:
经过双线性插值,使原来的512*512*Z大小的长方体堆叠CT变为512*512*512大小的正方体。
以上完成了对CT图像的预处理工作,得到了归一化标准化之后512*512*512大小的三维矩阵,然后将该矩阵输入到神经网络模型中进行处理,得到髋关节的分割结果。
在完成数据预处理之后,需要构建模型完成对髋关节的自动分割。在上一步得到的512*512*512大小的正方体块之后,采用三个2D的Unet神经网络对正方体块从前后、左右、上下三个方向进行分割,Unet网络结构如图7所示,Unet网络分为左侧编码结构和右侧解码结构,其中:编码结构包括4个卷积层,4个池化层;通过一个卷积层作为连接模块连接解码结构和编码结构,同时在编码结构中每一次的池化层之后通过连接的方式与对应层的编码结构中的卷积层相连;解码结构包括4个卷积层和4个上采样模块。在Unet结构中卷积层使用Relu激活函数,池化层应用最大池化方式,最后的输出层中使用Sigmoid激活函数。
在3个Unet网络预测结束之后得到3个512*512*512的结果,在这里需要将这三个结果合并起来,合并方法采取像素值相加的方式,如下式所示:
V=V1+V2+V3
其中,V为最终合并的结果,V1为前后方向得到的预测结果,V2为左右方向得到的预测结果,V3为上下三个方向得到的结果。
在得到V之后,根据OTSU阈值分割方法得到一个阈值。首先将512*512*512大小的立方体展开为一维数组,其中,灰度值的区间为[0,m],对于[0,m]间的每一个灰度t,将它作为阈值将图像分割为灰度为[0,t]以及[t+1,m]两部分;然后计算每一部分的所占比例ω0、ω1,每一部分的平均灰度值μ0、μ1以及总的平均灰度值μ;然后计算他们的类间方差:
δ2=ω0(μ0-μ)2+ω1(ω1-μ)2=ω0ω1(μ0-μ1)2
最后选择类间方差最大时对应的阈值t作为最终的阈值。
在得到阈值之后,根据阈值,像素值大于等于阈值设为1,小于阈值设为0,这样将预测结果中的像素值变为0或1,其中,1代表分割结果,0代表背景,得到最终的分割结果。
当每得到一例新数据之后都经过数据预处理进行像素归一化并堆叠成512*512*512大小,然后经过网络模型预测,得到最终的髋关节结构分割预测结果,即一个512*512*512大小的矩阵。
二、根据预测结果识别髋臼上的特征点,进而计算髋臼的半径。
设计新的网络模型用于从512*512*512分割结果矩阵中识别髋臼上的特征点,即髋臼的上缘顶点、髋臼的下缘顶点。
本实施例中,采用基本的3D Unet网络,在其最后一层添加一层用于生成热力图,热力图中每一个像素的像素值表示该点作为特征点的概率,基本3D Unet网络结构如图8所示,3D Unet网络在结构上与2D Unet网络基本一致,最主要的区别是将2D Unet中的2D卷积更换为了3D卷积,以应用于3D数据的分割或其他任务。3D Unet网络也分为左侧编码结构和右侧解码结构,其中:编码结构包括4个卷积层,4个池化层;通过一个卷积层作为连接模块连接解码结构和编码结构,同时在编码结构中每一次的池化层之后通过连接的方式与对应层的编码结构中的卷积层相连;解码结构包括4个卷积层和4个上采样模块。在这里对应的卷积层由2D Unet中的2D卷积变换为3D卷积,池化层同理。在Unet网络结构中卷积层使用Relu激活函数,池化层应用最大池化方式,最后的输出层中使用Sigmoid激活函数。
通过输入髋关节的分割结果,最后输出髋臼上特征点识别的热力图,通过识别热力图中的最大概率点所在的位置,即可得到所需的特征点。即3D Unet网络模型的输入为上一步骤中预测得到的髋关节分割结果,输出为对应的热力图。
在得到最终所需的特征点之后,计算髋臼窝的半径。具体步骤包括:
首先,按照之前插值时的顺序,依次还原回原始CT大小,将512*512*512的预测结果正方体还原为512*512*Z的原始堆叠CT大小。进一步得到预测结果中两点的位置,计算出两点之间的直线距离,计算公式为:
其中,L为两点之间的距离,(x1,y1,z1)为点1的坐标,(x2,y2,z2)为点2的坐标。在得到两点之间的距离后,再从CT中读取出来每个像素代表的长和宽以及每层CT之间的厚度k、p、q,那么得到髋臼窝直径为:
其中,半径为r=d/2。
本发明另一实施例提供一种基于人工智能的髋臼半径自动测量系统,如图9所示,该系统包括:
图像采集模块110,其配置成采集多个患者对应其人体髋关节部位的多张CT影像,并在CT影像上对髋关节结构进行标注;髋关节结构包括股骨、耻骨、骼骨和髋臼;
预处理模块120,其配置成对经过标注的多张CT影像进行预处理,并将预处理后的多张CT影像分为训练集和测试集;
分割模型训练模块130,其配置成将训练集输入2D Unet神经网络模型进行训练,获得训练好的基于2D Unet神经网络的分割模型;
分割模块140,其配置成将测试集输入训练好的基于2D Unet神经网络的分割模型,获得髋关节结构分割结果;髋关节结构分割结果包括髋关节结构像素矩阵和背景像素矩阵;
特征点识别模块150,其配置成将髋关节结构像素矩阵输入预训练的基于3D Unet神经网络的识别模型中进行识别,获得髋臼上的特征点;特征点包括髋臼的上缘顶点和下缘顶点;
半径测量模块160,其配置成根据特征点计算髋臼窝的半径,完成测试集中髋臼半径的测量;具体过程包括:首先,计算髋臼的上缘顶点和下缘顶点之间的直线距离;然后,根据每个像素点代表的实际物理长宽和各个CT影像之间的厚度计算获得髋臼窝直径,从而获得髋臼半径,其中,髋臼窝直径d的计算公式为:
式中,L表示髋臼的上缘顶点和下缘顶点之间的直线距离;k、p表示每个像素点代表的实际物理长宽;q表示各个CT影像之间的厚度。
本实施例中,可选地,预处理模块120中预处理包括:对CT影像的图像像素值进行归一化处理;利用双线性插值方法将每个患者对应的堆叠在一起的多张CT影像改变为虚拟正方体,从而获得虚拟正方体对应的三维像素矩阵。
本实施例中,可选地,分割模块140中将测试集输入训练好的基于2D Unet神经网络的分割模型,获得髋关节结构分割结果的具体过程包括:
步骤四一、采用三个2D Unet神经网络对虚拟正方体分别从前后、左右、上下三个方向进行分割,获得对应的三个三维像素矩阵;
步骤四二、将三个三维像素矩阵进行合并,获得合并的三维像素矩阵;
步骤四三、将合并的三维像素矩阵展开为一维数组,根据OTSU阈值分割方法获得分割阈值;具体步骤包括:首先,对于一维数组对应的灰度值区间内每一个灰度值,将其作为阈值将图像分割为两部分;然后,计算每一部分所占比例和平均灰度值;然后,根据每一部分所占比例和平均灰度值计算两部分之间的类间方差,类间方差的计算公式为:
δ2=ω0ω1(μ0-μ1)2
式中,δ表示类间方差;ω0、ω1分别每一部分所占比例;μ0、μ1分别表示每一部分平均灰度值;最后,选择类间方差最大值对应的灰度值作为分割阈值;
步骤四四、将合并的三维像素矩阵中像素值大于等于分割阈值的像素点设为1,小于分割阈值的像素点设为0,完成髋关节结构与背景的分割。
本实施例中,可选地,特征点识别模块150中基于3D Unet神经网络的识别模型为在基础3D Unet网络的最后一层添加一层用于生成热力图,将髋关节结构像素矩阵输入基于3D Unet神经网络的识别模型后输出热力图,热力图中每一个像素点的像素值表示该像素点作为特征点的概率,选择概率最大值所对应的像素点即为特征点。
本发明提出一种基于人工智能的髋臼半径自动测量方法及系统,可在术前利用计算机辅助对患者进行手术设计,根据扫描患者关节、脊柱、创伤数据、输入病理特点(年龄,骨质情况,身高,体重等)为患者精准匹配型号,虚拟截骨角度、置钉角度、矫形程度、复位减压过程、预估关节置换型号,从而帮助完善手术方案规划,制定个性化手术方案并模拟手术过程,以使复杂骨折能容易复位,肿瘤能准确切除,畸形可理想矫形,假体能精确制作移植等。根据本发明所提出的系统,只需要在系统内输入患者的影像学资料,即可协助临床医生进行术前规划,实现改良与创新,从而使得之后的手术变得更精准,更个性化,并发症更低。随着数字骨科技术的发展,其在骨科临床中的应用不断扩展,已成为实现精准化,个性化治疗的重要手段,为临床工作提供强有力的指导,降低手术难度,提高手术效率,促进患者更好更快的康复,具有强大的临床应用前景和价值。
本发明通过CT获取患者的医学影像数据,依靠人工智能技术导入自动重建三维模型并进行云计算,可实现自动储存、归类、检索等功能,最终制定个性化的手术方案。系统识别患者影像学资料并综合考虑髋臼的前后径、上下径和覆盖率,自动匹配最合适的臼杯,识别股骨髓腔大小,并同时综合腿长,偏距等因素,自动匹配最合适的股骨柄并给出截骨高度、角度等。从而实现术前精准规划,虚拟截骨并安放假体过程,供临床医生参考施行。该手术规划系统具有相当明显的优越性,有效解决了传统手术方式精准性、安全性、预知性和可重复性低的技术难题,同时可以减少假体备货物流成本,减少手术器械准备属量,降低工作成本。通过精确术前评估,精密手术规划,精细手术作业和精良术后处理而达到最佳治疗效果,可最大限度避免医源性失误,提升关节置换等骨科手术的精准度与安全性,可重复性强,能有效降低假体周围骨折、假体位置不良或脱位、双下肢不等长等术后并发症的发生率,该系统能协助临床医生进行术式的改良与创新,缩短年轻医师的学习曲线。这一新型诊疗模式将彻底改变传统骨科,使骨科手术变得更加精准、更加个性化,最终实现骨科手术的“可视化”、“标准化”及“自动化”。
尽管根据有限数量的实施例描述了本发明,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本发明的范围内,可以设想其它实施例。对于本发明的范围,对本发明所做的公开是说明性的,而非限制性的,本发明的范围由所附权利要求书限定。
Claims (9)
1.一种基于人工智能的髋臼半径自动测量方法,其特征在于,包括以下步骤:
步骤一、采集多个患者对应其人体髋关节部位的多张CT影像,并在CT影像上对髋关节结构进行标注;所述髋关节结构包括股骨、耻骨、骼骨和髋臼;
步骤二、对经过标注的多张CT影像进行预处理,并将预处理后的多张CT影像分为训练集和测试集;
步骤三、将训练集输入2D Unet神经网络模型进行训练,获得训练好的基于2D Unet神经网络的分割模型;
步骤四、将测试集输入训练好的基于2D Unet神经网络的分割模型,获得髋关节结构分割结果;所述髋关节结构分割结果包括髋关节结构像素矩阵和背景像素矩阵;
步骤五、将所述髋关节结构像素矩阵输入预训练的基于3D Unet神经网络的识别模型中进行识别,获得髋臼上的特征点;所述特征点包括髋臼的上缘顶点和下缘顶点;
步骤六、根据所述特征点计算髋臼窝的半径,完成测试集中髋臼半径的测量;具体步骤包括:计算髋臼的上缘顶点和下缘顶点之间的直线距离;根据每个像素点代表的实际物理长宽和各个CT影像之间的厚度计算获得髋臼窝直径,从而获得髋臼半径;其中,髋臼窝直径d的计算公式为:
式中,L表示髋臼的上缘顶点和下缘顶点之间的直线距离;k、p表示每个像素点代表的实际物理长宽;q表示各个CT影像之间的厚度。
2.根据权利要求1所述的一种基于人工智能的髋臼半径自动测量方法,其特征在于,步骤二中所述预处理包括:对CT影像的图像像素值进行归一化处理;利用双线性插值方法将每个患者对应的堆叠在一起的多张CT影像改变为虚拟正方体,从而获得虚拟正方体对应的三维像素矩阵。
3.根据权利要求2所述的一种基于人工智能的髋臼半径自动测量方法,其特征在于,步骤四的具体步骤包括:
步骤四一、采用三个2D Unet神经网络对虚拟正方体分别从前后、左右、上下三个方向进行分割,获得对应的三个三维像素矩阵;
步骤四二、将三个三维像素矩阵进行合并,获得合并的三维像素矩阵;
步骤四三、将合并的三维像素矩阵展开为一维数组,根据OTSU阈值分割方法获得分割阈值;
步骤四四、将合并的三维像素矩阵中像素值大于等于分割阈值的像素点设为1,小于分割阈值的像素点设为0,完成髋关节结构与背景的分割。
4.根据权利要求3所述的一种基于人工智能的髋臼半径自动测量方法,其特征在于,步骤四三的具体步骤包括:
步骤四三一、对于一维数组对应的灰度值区间内每一个灰度值,将其作为阈值将图像分割为两部分;
步骤四三二、计算每一部分所占比例和平均灰度值;
步骤四三三、根据每一部分所占比例和平均灰度值计算两部分之间的类间方差;所述类间方差的计算公式为:
δ2=ω0ω1(μ0-μ1)2
式中,δ表示类间方差;ω0、ω1分别每一部分所占比例;μ0、μ1分别表示每一部分平均灰度值;
步骤四三四、选择类间方差最大值对应的灰度值作为分割阈值。
5.根据权利要求4所述的一种基于人工智能的髋臼半径自动测量方法,其特征在于,步骤五中基于3D Unet神经网络的识别模型为在基础3D Unet网络的最后一层添加一层用于生成热力图,将所述髋关节结构像素矩阵输入基于3D Unet神经网络的识别模型后输出热力图,热力图中每一个像素点的像素值表示该像素点作为特征点的概率,选择概率最大值所对应的像素点即为特征点。
6.一种基于人工智能的髋臼半径自动测量系统,其特征在于,包括:
图像采集模块,其配置成采集多个患者对应其人体髋关节部位的多张CT影像,并在CT影像上对髋关节结构进行标注;所述髋关节结构包括股骨、耻骨、骼骨和髋臼;
预处理模块,其配置成对经过标注的多张CT影像进行预处理,并将预处理后的多张CT影像分为训练集和测试集;
分割模型训练模块,其配置成将训练集输入2D Unet神经网络模型进行训练,获得训练好的基于2D Unet神经网络的分割模型;
分割模块,其配置成将测试集输入训练好的基于2D Unet神经网络的分割模型,获得髋关节结构分割结果;所述髋关节结构分割结果包括髋关节结构像素矩阵和背景像素矩阵;
特征点识别模块,其配置成将所述髋关节结构像素矩阵输入预训练的基于3D Unet神经网络的识别模型中进行识别,获得髋臼上的特征点;所述特征点包括髋臼的上缘顶点和下缘顶点;
半径测量模块,其配置成根据所述特征点计算髋臼窝的半径,完成测试集中髋臼半径的测量;具体过程包括:首先,计算髋臼的上缘顶点和下缘顶点之间的直线距离;然后,根据每个像素点代表的实际物理长宽和各个CT影像之间的厚度计算获得髋臼窝直径,从而获得髋臼半径,其中,髋臼窝直径d的计算公式为:
式中,L表示髋臼的上缘顶点和下缘顶点之间的直线距离;k、p表示每个像素点代表的实际物理长宽;q表示各个CT影像之间的厚度。
7.根据权利要求6所述的一种基于人工智能的髋臼半径自动测量系统,其特征在于,所述预处理模块中所述预处理包括:对CT影像的图像像素值进行归一化处理;利用双线性插值方法将每个患者对应的堆叠在一起的多张CT影像改变为虚拟正方体,从而获得虚拟正方体对应的三维像素矩阵。
8.根据权利要求7所述的一种基于人工智能的髋臼半径自动测量系统,其特征在于,所述分割模块中将测试集输入训练好的基于2D Unet神经网络的分割模型,获得髋关节结构分割结果的具体过程包括:
步骤四一、采用三个2D Unet神经网络对虚拟正方体分别从前后、左右、上下三个方向进行分割,获得对应的三个三维像素矩阵;
步骤四二、将三个三维像素矩阵进行合并,获得合并的三维像素矩阵;
步骤四三、将合并的三维像素矩阵展开为一维数组,根据OTSU阈值分割方法获得分割阈值;具体步骤包括:首先,对于一维数组对应的灰度值区间内每一个灰度值,将其作为阈值将图像分割为两部分;然后,计算每一部分所占比例和平均灰度值;然后,根据每一部分所占比例和平均灰度值计算两部分之间的类间方差,所述类间方差的计算公式为:
δ2=ω0ω1(μ0-μ1)2
式中,δ表示类间方差;ω0、ω1分别每一部分所占比例;μ0、μ1分别表示每一部分平均灰度值;最后,选择类间方差最大值对应的灰度值作为分割阈值;
步骤四四、将合并的三维像素矩阵中像素值大于等于分割阈值的像素点设为1,小于分割阈值的像素点设为0,完成髋关节结构与背景的分割。
9.根据权利要求8所述的一种基于人工智能的髋臼半径自动测量系统,其特征在于,所述特征点识别模块中基于3D Unet神经网络的识别模型为在基础3D Unet网络的最后一层添加一层用于生成热力图,将所述髋关节结构像素矩阵输入基于3D Unet神经网络的识别模型后输出热力图,热力图中每一个像素点的像素值表示该像素点作为特征点的概率,选择概率最大值所对应的像素点即为特征点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210085095.6A CN114494183B (zh) | 2022-01-25 | 2022-01-25 | 一种基于人工智能的髋臼半径自动测量方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210085095.6A CN114494183B (zh) | 2022-01-25 | 2022-01-25 | 一种基于人工智能的髋臼半径自动测量方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114494183A CN114494183A (zh) | 2022-05-13 |
CN114494183B true CN114494183B (zh) | 2024-04-02 |
Family
ID=81474670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210085095.6A Active CN114494183B (zh) | 2022-01-25 | 2022-01-25 | 一种基于人工智能的髋臼半径自动测量方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114494183B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115252233B (zh) * | 2022-07-28 | 2024-04-26 | 大连理工大学 | 基于深度学习的全髋关节置换术中髋臼杯的自动化规划方法 |
CN116993824A (zh) * | 2023-07-19 | 2023-11-03 | 北京长木谷医疗科技股份有限公司 | 髋臼旋转中心计算方法、装置、设备及可读存储介质 |
CN117009826B (zh) * | 2023-08-30 | 2024-04-02 | 北京长木谷医疗科技股份有限公司 | 一种基于深度学习的髋臼杯角度自适应确定方法及装置 |
CN117159144A (zh) * | 2023-09-06 | 2023-12-05 | 北京长木谷医疗科技股份有限公司 | 膝关节韧带重建手术机器人导航定位系统及方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106462341A (zh) * | 2014-06-12 | 2017-02-22 | 微软技术许可有限责任公司 | 用于笔和触敏计算设备交互的传感器相关 |
CN107480677A (zh) * | 2017-08-07 | 2017-12-15 | 北京深睿博联科技有限责任公司 | 一种识别三维ct图像中感兴趣区域的方法及装置 |
CN108154552A (zh) * | 2017-12-26 | 2018-06-12 | 中国科学院深圳先进技术研究院 | 一种立体腹腔镜三维模型重建方法和装置 |
CN109978838A (zh) * | 2019-03-08 | 2019-07-05 | 腾讯科技(深圳)有限公司 | 图像区域定位方法、装置和医学图像处理设备 |
CN111179350A (zh) * | 2020-02-13 | 2020-05-19 | 张逸凌 | 基于深度学习的髋关节图像处理方法及计算设备 |
CN111192245A (zh) * | 2019-12-26 | 2020-05-22 | 河南工业大学 | 一种基于U-Net网络的脑肿瘤分割网络及分割方法 |
CN111915555A (zh) * | 2020-06-19 | 2020-11-10 | 杭州深睿博联科技有限公司 | 一种3d网络模型预训练方法、系统、终端及存储介质 |
CN113077419A (zh) * | 2021-03-19 | 2021-07-06 | 零氪智慧医疗科技(天津)有限公司 | 用于髋关节ct影像识别的信息处理方法及装置 |
CN113378854A (zh) * | 2021-06-11 | 2021-09-10 | 武汉大学 | 一种融合原始点云和体素划分的点云目标检测方法 |
CN113689402A (zh) * | 2021-08-24 | 2021-11-23 | 北京长木谷医疗科技有限公司 | 基于深度学习的股骨髓腔形态识别方法、装置及存储介质 |
CN113706463A (zh) * | 2021-07-22 | 2021-11-26 | 杭州键嘉机器人有限公司 | 基于深度学习的关节影像关键点自动检测方法、装置、设备及存储介质 |
CN113763340A (zh) * | 2021-08-25 | 2021-12-07 | 中国人民解放军空军军医大学 | 基于多任务深度学习强直性脊柱炎的自动分级方法 |
CN113962927A (zh) * | 2021-09-01 | 2022-01-21 | 北京长木谷医疗科技有限公司 | 基于强化学习的髋臼杯位置调整方法、装置及存储介质 |
-
2022
- 2022-01-25 CN CN202210085095.6A patent/CN114494183B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106462341A (zh) * | 2014-06-12 | 2017-02-22 | 微软技术许可有限责任公司 | 用于笔和触敏计算设备交互的传感器相关 |
CN107480677A (zh) * | 2017-08-07 | 2017-12-15 | 北京深睿博联科技有限责任公司 | 一种识别三维ct图像中感兴趣区域的方法及装置 |
CN108154552A (zh) * | 2017-12-26 | 2018-06-12 | 中国科学院深圳先进技术研究院 | 一种立体腹腔镜三维模型重建方法和装置 |
CN109978838A (zh) * | 2019-03-08 | 2019-07-05 | 腾讯科技(深圳)有限公司 | 图像区域定位方法、装置和医学图像处理设备 |
CN110458813A (zh) * | 2019-03-08 | 2019-11-15 | 腾讯科技(深圳)有限公司 | 图像区域定位方法、装置和医学图像处理设备 |
CN111192245A (zh) * | 2019-12-26 | 2020-05-22 | 河南工业大学 | 一种基于U-Net网络的脑肿瘤分割网络及分割方法 |
CN111179350A (zh) * | 2020-02-13 | 2020-05-19 | 张逸凌 | 基于深度学习的髋关节图像处理方法及计算设备 |
CN111915555A (zh) * | 2020-06-19 | 2020-11-10 | 杭州深睿博联科技有限公司 | 一种3d网络模型预训练方法、系统、终端及存储介质 |
CN113077419A (zh) * | 2021-03-19 | 2021-07-06 | 零氪智慧医疗科技(天津)有限公司 | 用于髋关节ct影像识别的信息处理方法及装置 |
CN113378854A (zh) * | 2021-06-11 | 2021-09-10 | 武汉大学 | 一种融合原始点云和体素划分的点云目标检测方法 |
CN113706463A (zh) * | 2021-07-22 | 2021-11-26 | 杭州键嘉机器人有限公司 | 基于深度学习的关节影像关键点自动检测方法、装置、设备及存储介质 |
CN113689402A (zh) * | 2021-08-24 | 2021-11-23 | 北京长木谷医疗科技有限公司 | 基于深度学习的股骨髓腔形态识别方法、装置及存储介质 |
CN113763340A (zh) * | 2021-08-25 | 2021-12-07 | 中国人民解放军空军军医大学 | 基于多任务深度学习强直性脊柱炎的自动分级方法 |
CN113962927A (zh) * | 2021-09-01 | 2022-01-21 | 北京长木谷医疗科技有限公司 | 基于强化学习的髋臼杯位置调整方法、装置及存储介质 |
Non-Patent Citations (1)
Title |
---|
"人工智能辅助全髋关节置换术三维规划 系统的研发及临床应用研究";吴东等;《中国修复重建外科杂志》;第34卷(第9期);第1077-1084页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114494183A (zh) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114494183B (zh) | 一种基于人工智能的髋臼半径自动测量方法及系统 | |
CN112957126B (zh) | 基于深度学习的单髁置换术前规划方法和相关设备 | |
WO2022042459A1 (zh) | 基于深度学习的全膝关节置换术的术前规划方法、系统和介质 | |
WO2022183719A1 (zh) | 基于深度学习的全髋关节置换翻修术前规划方法和设备 | |
KR102533364B1 (ko) | 프로세서를 사용하여 특정 뼈에 대한 외상 판을 제작하기 위한 방법 | |
JP2021168987A (ja) | 骨再建及び整形外科インプラント | |
WO2022037696A1 (zh) | 基于深度学习的骨骼分割方法和系统 | |
CN114155286B (zh) | 一种骨骼ct图像的解剖形态和材料力学特性模板库的个性化配准方法 | |
KR20180103903A (ko) | 관성 측정 유닛 캘리브레이션(imu calibration) | |
CN105608741A (zh) | 预测颌面骨整形术后软组织容貌变化的计算机仿真方法 | |
AU2020101836A4 (en) | A method for generating femoral x-ray films based on deep learning and digital reconstruction of radiological image | |
CN107016666A (zh) | 基于坐标体系的骨盆ct三维重建的图像后处理方法 | |
CN108597017A (zh) | 一种基于测量参数的骨骼变形模板构建方法 | |
WO2024001140A1 (zh) | 一种椎体亚区域分割方法、装置及存储介质 | |
CN114711796A (zh) | 双下肢负重位力线测量及诊断系统及智能化测量方法 | |
CN114332378B (zh) | 基于二维医学影像的人体骨骼三维模型获取方法及系统 | |
CN110037797B (zh) | 基于3d打印技术的全血管腔内导板设计方法 | |
CN116616893A (zh) | 一种骨盆植入物通道的自动定位方法 | |
CN117350143A (zh) | 一种心脏房室瓣置换术后力学环境的评估方法 | |
CN115252233A (zh) | 基于深度学习的全髋关节置换术中髋臼杯的自动化规划方法 | |
CN111563899B (zh) | 一种髋关节ct图像中骨的分割方法 | |
CN109145977B (zh) | 一种基于朴素贝叶斯的骨骼受损类型判别方法 | |
JP5936111B2 (ja) | 関節対の可動域予測装置 | |
CN111127636A (zh) | 一种智能的复杂关节内骨折桌面级三维诊断系统 | |
WO2015037978A1 (en) | An anatomical model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |