CN114612391A - 基于深度学习的全髋关节术后腿长差的计算方法及系统 - Google Patents
基于深度学习的全髋关节术后腿长差的计算方法及系统 Download PDFInfo
- Publication number
- CN114612391A CN114612391A CN202210173929.9A CN202210173929A CN114612391A CN 114612391 A CN114612391 A CN 114612391A CN 202210173929 A CN202210173929 A CN 202210173929A CN 114612391 A CN114612391 A CN 114612391A
- Authority
- CN
- China
- Prior art keywords
- hip joint
- leg length
- length difference
- ischial
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000002414 leg Anatomy 0.000 title claims abstract description 158
- 210000004394 hip joint Anatomy 0.000 title claims abstract description 151
- 238000013135 deep learning Methods 0.000 title claims abstract description 71
- 238000004364 calculation method Methods 0.000 title claims abstract description 45
- 230000002146 bilateral effect Effects 0.000 claims abstract description 80
- 238000000034 method Methods 0.000 claims abstract description 44
- 238000001356 surgical procedure Methods 0.000 claims abstract description 41
- 210000001624 hip Anatomy 0.000 claims abstract description 36
- 238000011540 hip replacement Methods 0.000 claims abstract description 33
- 230000002980 postoperative effect Effects 0.000 claims abstract description 21
- 238000003062 neural network model Methods 0.000 claims description 25
- 238000013528 artificial neural network Methods 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 20
- 230000011218 segmentation Effects 0.000 claims description 14
- 210000000528 lesser trochanter Anatomy 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 11
- 210000000689 upper leg Anatomy 0.000 claims description 11
- 238000011084 recovery Methods 0.000 abstract description 21
- 238000011156 evaluation Methods 0.000 abstract description 19
- 239000003814 drug Substances 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 14
- 210000002239 ischium bone Anatomy 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 210000000988 bone and bone Anatomy 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 210000003141 lower extremity Anatomy 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 241000083513 Punctum Species 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000011551 log transformation method Methods 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于深度学习的全髋关节术后腿长差的计算方法及系统,涉及医学技术领域,能够实现对全髋关节置换手术的患者术后情况进行准确评估,方法包括:获取髋关节置换手术术后的患者的髋关节图像;基于深度学习的目标识别网络,识别髋关节图像中的双侧股骨区域、坐骨区域、位于双侧股骨区域的第一关键点位置以及位于坐骨区域的第二关键点位置;根据第一关键点位置、第二关键点位置和坐骨区域,确定患者的双腿腿长差。所述系统执行所述方法。本发明基于髋关节置换手术术后的患者的髋关节图像,计算髋关节置换手术术后患者的双腿腿长差,并根据患者双腿腿长差,实现对进行髋关节置换手术术后的患者的恢复情况的准确评估。
Description
技术领域
本发明涉及医学技术领域,尤其涉及一种基于深度学习的全髋关节术后腿长差的计算方法及系统。
背景技术
在医学领域中髋关节置换手术的术后评估对于手术的成功率起着非常重要的作用,因此提供准确的术后评估是非常重要的。
目前主要的术前评估方式为人工通过各种工具进行测量,效率低而且准确性无法保证,因此亟需提供一种更便捷更准确的术后评估的方法。
发明内容
本发明提供的基于深度学习的全髋关节术后腿长差的计算方法及系统,用于现有技术中存在的上述问题,基于髋关节置换手术术后的患者的髋关节图像,计算髋关节置换手术术后患者的双腿腿长差,并根据患者双腿腿长差,实现对进行髋关节置换手术术后的患者的恢复情况的准确评估。
本发明提供的一种基于深度学习的全髋关节术后腿长差的计算方法,包括:获取髋关节置换手术术后的患者的髋关节图像;基于深度学习的目标识别网络,识别所述髋关节图像中的双侧股骨区域、坐骨区域、位于所述双侧股骨区域的第一关键点位置以及位于所述坐骨区域的第二关键点位置;根据所述第一关键点位置、所述第二关键点位置和所述坐骨区域,确定所述患者的双腿腿长差。
根据本发明提供的一种基于深度学习的全髋关节术后腿长差的计算方法,所述目标识别网络基于点识别神经网络以及分割神经网络训练得到;或者,基于包括堆叠沙漏网络结构、分割Segment-Head网络以及关键点Keypoint-Head网络的预设神经网络模型训练得到。
根据本发明提供的一种基于深度学习的全髋关节术后腿长差的计算方法,所述根据所述关键点位置和所述坐骨区域,确定所述患者的双腿腿长差,包括:所述基于深度学习的目标识别网络,识别所述髋关节图像中的双侧股骨区域、坐骨区域、位于所述双侧股骨区域的第一关键点位置以及位于所述坐骨区域的第二关键点位置,包括:将所述髋关节图像输入至目标识别网络,得到所述髋关节图像中的双侧股骨区域以及坐骨区域;将所述双侧股骨区域的双侧股骨小转子对应的第一下缘点位以及第二下缘点位确定为所述第一关键点位置,将坐骨区域双侧的第一泪滴点位以及第二泪滴点位确定为所述第二关键点位置。
根据本发明提供的一种基于深度学习的全髋关节术后腿长差的计算方法,所述基于深度学习的目标识别网络,识别所述髋关节图像中的双侧股骨区域、坐骨区域、位于所述双侧股骨区域的第一关键点位置以及位于所述坐骨区域的第二关键点位置,包括:将所述髋关节图像输入至目标识别网络,得到所述髋关节图像中的双侧股骨区域以及坐骨区域;将所述双侧股骨区域的双侧股骨小转子对应的第一下缘点位以及第二下缘点位确定为所述第一关键点位置,将坐骨区域双侧第一最低点以及第二最低点确定为所述第二关键点位置。
根据本发明提供的一种基于深度学习的全髋关节术后腿长差的计算方法,所述根据所述第一关键点位置、所述第二关键点位置和所述坐骨区域,确定所述患者的双腿腿长差,包括:根据所述第一下缘点位、所述第二下缘点位和坐骨结节线,确定所述双腿腿长差;或者,根据所述第一下缘点位、所述第二下缘点位和双侧泪滴点位连线,确定所述双腿腿长差;其中,所述双侧泪滴点位连线是根据所述第一泪滴点位和所述第二泪滴点位确定的;所述坐骨结节线是根据所述第一最低点以及所述第二最低点确定的。
根据本发明提供的一种基于深度学习的全髋关节术后腿长差的计算方法,所述根据所述第一下缘点位、所述第二下缘点位和坐骨结节线,确定所述双腿腿长差,包括:确定所述第一下缘点位与所述坐骨结节线之间的第一最短距离;确定所述第二下缘点位与所述坐骨结节线之间的第二最短距离;根据所述第一最短距离和所述第二最短距离之间的差值,确定所述双腿腿长差。
根据本发明提供的一种基于深度学习的全髋关节术后腿长差的计算方法,所述根据所述第一下缘点位、所述第二下缘点位和双侧泪滴点位连线,确定所述双腿腿长差,包括:确定所述第一下缘点位与所述双侧泪滴点位连线之间的第三最短距离;确定所述第二下缘点位与所述双侧泪滴点位连线之间的第四最短距离;根据所述第三最短距离和所述第四最短距离之间的差值,确定所述双腿腿长差。
本发明还提供一种基于深度学习的全髋关节术后腿长差的计算系统,包括:获取模块、识别模块以及计算模块;所述获取模块,用于获取髋关节置换手术术后的患者的髋关节图像;所述识别模块,用于基于深度学习的目标识别网络,识别所述髋关节图像中的双侧股骨区域、坐骨区域、位于所述双侧股骨区域的第一关键点位置以及位于所述坐骨区域的第二关键点位置;所述计算模块,用于根据所述第一关键点位置、所述第二关键点位置和所述坐骨区域,确定所述患者的双腿腿长差。
本发明还提供一种电子设备,包括处理器和存储有计算机程序的存储器,所述处理器执行所述程序时实现如上述任一种所述基于深度学习的全髋关节术后腿长差的计算方法。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述基于深度学习的全髋关节术后腿长差的计算方法。
本发明提供的基于深度学习的全髋关节术后腿长差的计算方法及系统,基于髋关节置换手术术后的患者的髋关节图像,计算髋关节置换手术术后患者的双腿腿长差,并根据患者双腿腿长差,实现对进行髋关节置换手术术后的患者的恢复情况的准确评估。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的基于深度学习的全髋关节术后腿长差的计算方法的流程示意图;
图2是本发明提供的识别出的髋关节图像中的双侧股骨小转子下缘点位的示意图;
图3是本发明提供的识别出的髋关节图像中的双侧泪滴点位的示意图;
图4是本发明提供的髋关节图像中的坐骨区域的示意图;
图5是本发明提供的预设神经网络模型的结构示意图;
图6是本发明提供的目标识别网络的结构示意图;
图7是本发明提供的髋关节图像中的坐骨区域的双侧最低点的位置示意图;
图8是本发明提供的髋关节图像中的坐骨结节线的示意图;
图9是本发明提供的髋关节图像中的双侧泪滴点位连线的示意图;
图10是本发明提供的确定腿长差的示意图之一;
图11是本发明提供的确定腿长差的示意图之二;
图12是本发明提供的基于深度学习的全髋关节术后腿长差的计算系统的结构示意图;
图13是本发明提供的电子设备的实体结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是本发明提供的基于深度学习的全髋关节术后腿长差的计算方法的流程示意图,如图1所示,方法包括:
S1、获取髋关节置换手术术后的患者的髋关节图像;
S2、基于深度学习的目标识别网络,识别髋关节图像中的双侧股骨区域、坐骨区域、位于双侧股骨区域的第一关键点位置以及位于坐骨区域的第二关键点位置;
S3、根据第一关键点位置、第二关键点位置和坐骨区域,确定患者的双腿腿长差。
需要说明的是,上述方法的执行主体可以是计算机设备。
可选地,在髋关节置换手术完毕后医生会基于髋关节置换手术术后患者的髋关节图像来对患者做术后评估,通过对髋关节置换手术术后患者的髋关节图像中的关键点位置(包括位于双侧股骨区域的第一关键点位置以及位于坐骨区域的第二关键点位置)、双侧股骨区域及坐骨区域进行识别,实现对髋关节置换手术术后患者的恢复情况进行评估。
首先,获取髋关节置换手术术后患者的髋关节图像,具体地,可以通过对进行髋关节置换手术术后患者的髋关节进行X光片拍摄、电子计算机断层扫描(ComputedTomography,CT)或磁共振(Magnetic Resonance Imaging,MRI)获取该患者的髋关节图像。
其次,对得到的髋关节置换手术术后患者的髋关节图像进行关键点及目标区域识别,找到髋关节图像中的双侧股骨区域、坐骨区域、位于双侧股骨区域的第一关键点位置以及位于坐骨区域的第二关键点位置,例如,可以通过将该髋关节图像输入到预先训练完成的目标识别网络来识别髋关节图像中的双侧股骨区域、坐骨区域、位于双侧股骨区域的第一关键点位置以及位于坐骨区域的第二关键点位置。
最后,根据上述识别出来的髋关节图像中的坐骨区域、位于双侧股骨区域的第一关键点位置以及位于坐骨区域的第二关键点位置,确定该患者的双腿腿长差。
需要说明的是,该患者的双腿腿长差,可以用于对进行髋关节置换手术的患者的股骨假体的安装位置的准确性进行分析,以实现对进行髋关节置换手术术后的患者的恢复情况进行准确评估。
本发明提供的基于深度学习的全髋关节术后腿长差的计算方法,基于髋关节置换手术术后的患者的髋关节图像,计算髋关节置换手术术后患者的双腿腿长差,并根据患者双腿腿长差,实现对进行髋关节置换手术术后的患者的恢复情况的准确评估。
进一步地,在一个实施例中,目标识别网络基于点识别神经网络以及分割神经网络训练得到;或者,
基于包括堆叠沙漏网络结构、分割Segment-Head网络以及关键点Keypoint-Head网络的预设神经网络模型训练得到。
进一步地,在一个实施例中,步骤S2可以具体包括:
S21、将髋关节图像输入至目标识别网络,得到髋关节图像中的双侧股骨区域以及坐骨区域;
S22、将双侧股骨区域的双侧股骨小转子对应的第一下缘点位以及第二下缘点位确定为第一关键点位置,将坐骨区域双侧的第一泪滴点位以及第二泪滴点位确定为第二关键点位置。
可选地,如图2-图4所示,将髋关节图像输入预先训练好的目标识别网络中以识别进行髋关节置换手术术后患者的髋关节图像中双侧股骨区域的双侧股骨小转子分别对应的第一下缘点、第二下缘点的位置(即双侧股骨小转子下缘点位,如图2中第一下缘点位A1点和第二下缘点位A2点),双侧的第一泪滴点位、第二泪滴点位(即双侧泪滴点位,如图3中第一泪滴点位D1和第二泪滴点位D2)以及坐骨区域(如图4所示),其中目标识别网络可以具体由点识别神经网络以及分割神经网络训练而成,也可以是由预设神经网络模型(包括堆叠沙漏网络结构(Stacked Hourglass Networks,SHM)、分割Segment-Head网络和关键点Keypoint-Head网络)训练而成。
具体地,可以利用目标识别网络中点识别神经网络,对提前标注好的该患者髋关节图像中的双侧股骨小转子下缘点位以及双侧泪滴点位进行识别,以获取该患者术后髋关节图像中的双侧股骨小转子分别对应的第一下缘点位、第二下缘点位、第一泪滴点位和第二泪滴点位;并利用目标识别网络中的分割神经网络将髋关节置换手术术后患者的髋关节图像转化为0-255灰度图,对图像的每个像素点进行类别分类,例如可以将图像的每个像素点,按照坐骨区域和背景区域进行类别分类,以确定髋关节置换手术术后患者髋关节图像中的坐骨区域,需要说明的是,双侧股骨区域的识别方法与坐骨区域的识别方法相同,本发明对此不作具体限定。
其中,点识别神经网络可以具体为目标定位网络LocNet、图像分割网络SegNet、区域卷积神经网络R-CNN、快速区域卷积神经网络Fast R-CNN、区域全卷积神经网络R-FCN以及目标检测网络SSD。
其中,分割神经网络可以具体为全卷积神经网络FCN、SegNet、空洞卷积神经网络、高效神经网络ENet、实例分割网络DeepMask等。
训练预设神经网络模型得到目标识别网络,具体步骤如下:
首先,获取髋关节置换手术术后患者的髋关节图像数据集;
其次,将髋关节图像数据集输入至预设神经网络模型进行训练,确定模型输出结果;
最后,基于输出结果和损失函数调整预设神经网络模型的参数,直至确定训练完成的深度学习模型;
其中,损失函数是基于分割Segment-Head网络对应的损失函数和第一权重,以及关键点Keypoint-Head网络对应的损失函数和第二权重确定的。
可以理解的是,在获取髋关节图像数据集之前,可以对收集的髋关节置换手术术后患者的髋关节图像进行预处理。图像格式可以为医学数字图像与通讯(Digital Imagingand Communications in Medicine,DICOM)格式文件。
在实际执行中,先将髋关节置换手术术后患者的髋关节图像的图像格式转换为JPG格式,转换后的图像会存在尺寸大小不一、对比度多样化的问题。
针对尺寸不一的问题,将图像直接缩放至目标像素会出现图像变形,并且导致后续测量不准确,所以可以采用如下方式进行处理:以图像较长的一边缩放至目标像素的比例为准对图片进行等比例缩放,然后对缩放后的图像进行补零操作,以避免转换后的图像存在变形的问题。其中,目标像素可以设置为512×512像素。
针对对比度多样化的问题,可以采用如下方式进行处理:
一、根据每张图像像素值的分布情况,做均值处理。然后对所有图像进行阈值筛选,将筛选得到的对比度异常的图像做对比度增强的操作,使得所有图像处于同一对比度范围。
二、通过gamma变换将图像对比度多样化,增加数据的多种场景,以适应未知对比度的场景。
上述图像处理方式均可以增加图像清晰度,减少噪点。当然,在其他实施例中,图像处理方式也可以表现为其他形式,包括但不限于利用拉普拉斯算子进行图像增强或基于对象Log变换的图像增强等,具体可根据实际需要决定,本发明对此不作具体限定。
对于非DICOM格式图片,利用深度学习根据髋关节图像上的参照标尺校准整个髋关节图像的比例尺,保证后续测量数据的准确性。,对于带标尺的髋关节图像,可以直接参照已知尺寸的标尺,矫正髋关节图像。对于不带标尺的髋关节图像,可以参照已知尺寸的髋臼杯外径,矫正髋关节图像。
可选地,预处理操作完成后,可以获取髋关节置换手术术后患者的髋关节图像数据集。数据集包含关键点位置和区域分割两个部分组成。关键点位置包含每个髋关节图像中的四个关键点,即双侧股骨小转子对应的第一下缘点位、第二下缘点位、双侧的第一泪滴点位、第二泪滴点位;区域分割指的是目标分割区域为坐骨区域以及双侧股骨区域。由于在训练预设神经网络模型时,需要将训练结果与真实值不断迭代来减小误差,提高预测准确性。所以在模型训练之前,可以将髋关节图像数据集按照目标比例划分为训练集、验证集和测试集。例如,训练集、验证集和测试集的目标比例可以设置为6:2:2。
具体地,根据不同的神经网络结构搭建深度学习模型,并将训练集输入至预设神经网络模型进行训练,直至各神经网络收敛,得到初始神经网络模型。根据测试集对初始神经网络模型进行优化,得到训练完成的最优神经网络模型,并确定最优神经网络模型的权重参数。再将验证集输入至训练完成的最优神经网络模型中进行验证,验证最优神经网络模型的输出结果。在训练过程中使用多权重损失函数进行误差计算,并使用反向传播算法,不断更新模型的权重参数,直至预设神经网络模型达到预期目标,最终完成训练。
可选地,本发明中的损失函数包括两部分,分别对应关键点位置和区域分割结果对应的误差。为提高预设神经网络模型的预测准确性,在训练过程中通过观察关键点位置对应的误差函数和区域分割对应的误差函数的权重变化,直至可以平衡二者误差。
其中,损失函数对应了两个不同的神经网络结构和不同的权重。
在实际执行中,如图5所示,预设神经网络模型的网络结构可以包括SHM网络、Segment-Head网络和Keypoint-Head网络。预设神经网络模型采用Adam优化器,Adam结合自适应学习率的梯度下降算法(Adagrad)和动量梯度下降算法的优点,既能适应稀疏梯度(即自然语言和计算机视觉问题),又能缓解梯度震荡的问题。
预设神经网络模型的损失函数与两个head对应,Keypoint-Head的损失函数为平均绝对值误差(MAE),即所有网络预测点与金标准中对应点的差值绝对值的平均。Segment-Head的损失函数为Dice系数+BCEloss损失函数。总的损失函数为aMAE+b(Dice+BCEloss),a为第一权重,b为第二权重,可以平衡关键点和区域分割之间的误差。
预设神经网络模型通过如下指标进行评估:Keypoints的评估指标引用人体关键点评估指标oks,Segment的评估指标为Dice系数。
在得到目标神经网络模型之后,基于目标神经网络模型的SHM网络和Segment-Head网络识别髋关节置换手术术后的患者的髋关节图像中的坐骨区域以及双侧股骨区域,以识别双侧股骨区域为例,具体地:
如图6所示,Hourglass结构是经典编码Encoder-解码Decoder结构,Encoder结构由卷积和池化组成,Decoder由反卷积和卷积组成,通过SHM网络提取到第一特征后,Keypoint-Head和Segment-Head共享特征提取层,并在此基础上分别先通过两次卷积进一步提取第二特征,最后通过1×1卷积改变通道数,输出为logits层,Segment-Head通过对logits层做softmax归一化,提取最大概率值对应的区域为最后的分割结果,即双侧股骨区域。
基于SHM网络和Keypoint-Head网络识别髋关节置换手术术后的患者的髋关节图像中的第一关键点位置及第二关键点位置,具体地:
如图6所示,通过SHM网络提取到第一特征后,Keypoint-Head和Segment-Head共享特征提取层,并在此基础上分别先通过两次卷积进一步提取第三特征,最后通过1×1卷积改变通道数,输出为logits层。Keypoint-Head通过生成热力heatmap图,将热力图中最大概率值点为特征点,即关键点(包括第一下缘点位、第二下缘点位、第一泪滴点位和第二泪滴点位),将第一下缘点位以及第二下缘点位,作为第一关键点位置,以及将第一泪滴点位和第二泪滴点位,作为第二关键点位置。
本发明提供的基于深度学习的全髋关节术后腿长差的计算方法,结合深度学习方法识别髋关节置换手术术后的患者的髋关节图像中的关键点位置及目标区域,为后续实现对患者术后的双腿腿长差的计算,进而实现对进行髋关节置换手术的患者术后恢复情况的快速、准确评估奠定了基础。
进一步地,在一个实施例中,步骤S2还可以具体包括
S23、将髋关节图像输入至目标识别网络,得到髋关节图像中的双侧股骨区域以及坐骨区域;
S24、将双侧股骨区域的双侧股骨小转子对应的第一下缘点位以及第二下缘点位确定为第一关键点位置,将坐骨区域双侧最低点(包括双侧第一最低点以及第二最低点)确定为第二关键点位置。
可选地,在基于目标识别网络基于上述过程得到双侧股骨区域的双侧股骨小转子对应的第一下缘点位、第二下缘点位以及坐骨区域之后,基于识别出来的坐骨区域可以确定坐骨区域双侧第一最低点以及第二最低点,并将第一最低点以及第二最低点作为第二关键点位置。
本发明提供的基于深度学习的全髋关节术后腿长差的计算方法,结合深度学习方法识别髋关节置换手术术后的患者的髋关节图像中的关键点位置及目标区域,为后续实现对患者术后的双腿腿长差的计算,进而实现对进行髋关节置换手术的患者术后恢复情况的快速、准确评估奠定了基础。
进一步地,在一个实施例中,步骤S3可以具体包括:
S31、根据第一下缘点位、第二下缘点位和坐骨结节线,确定双腿腿长差;或者
S32、根据第一下缘点位、第二下缘点位和双侧泪滴点位连线,确定双腿腿长差;
其中,双侧泪滴点位连线是根据第一泪滴点位和第二泪滴点位确定的;
坐骨结节线是根据第一最低点以及第二最低点确定的。
可选地,在识别出髋关节置换手术术后的患者的髋关节图像的坐骨区域之后,通过确定坐骨区域的双侧第一最低点及第二最低点,以获取坐骨结节线,具体地:
利用图像处理技术从分割出来的坐骨区域提取出双侧第一最低点及第二最低点,即取双侧坐骨区域的最低点,并沿双侧最低点画一条水平的直线,具体如图7所示。
而后再将上述得到的水平直线绕双侧最低点(假设为第一最低点)进行旋转(最低点在左侧时逆时针旋转,在右侧时顺时针),直到与坐骨区域产生第二个相交点为止,该相交点即为坐骨区域双侧第二最低点,具体如图8所示,将第一最低点和该相交点进行连接得到坐骨结节线CD。
或者,在获取坐骨区域之后,确定坐骨区域的坐骨边缘点集。并对坐骨区域的每一行像素点进行自动扫描。扫描方式如下:
步骤1、通过水平扫描线从坐骨区域底部开始往上扫描,每上升一行像素点就判断扫描线是否经过坐骨边缘的像素点。在确定扫描线第一次经过坐骨边缘对应的第一像素点的情况下,扫描线停止上移。或者在判断扫描线上的点存在于坐骨边缘点集中的情况下,扫描线停止上移,并确定第一像素点,该第一像素点假设为第一最低点。
步骤2、以第一像素点为旋转中心,每旋转一度就判断扫描线是否经过坐骨边缘的像素点。在确定扫描线第一次经过坐骨边缘对应的第二像素点的情况下,扫描线停止旋转。或者在判断扫描线上的点存在于坐骨边缘点集中的情况下,扫描线停止上移,并确定第二像素点,该第二像素点即为第二最低点。
步骤3、将第一像素点与第二像素点的连线确定为坐骨结节线。
根据上述识别出来的髋关节置换手术术后患者的髋关节图像中的双侧股骨小转子对应的第一下缘点位、第二下缘点位和坐骨结节线CD,确定该患者双腿腿长差。
或者,根据上述识别出来的髋关节置换手术术后患者的髋关节图像中的双侧股骨小转子对应的第一下缘点位、第二下缘点位和双侧泪滴点位连线,确定该患者的双腿腿长差,其中,双侧泪滴点位连线是通过连接第一泪滴点位和第二泪滴点位之后得到的,参见图9,双侧泪滴点位连线用直线ab表示。
本发明提供的基于深度学习的全髋关节术后腿长差的计算方法,利用深度学习方法对髋关节置换手术术后患者的髋关节图像中的相应关键点以及目标区域进行识别并计算腿长差,为后续基于该腿长差实现对进行髋关节置换手术的患者术后恢复情况的快速评估奠定了基础。
进一步地,在一个实施例中,步骤S31可以具体包括:
S311、确定第一下缘点位与坐骨结节线之间的第一最短距离;
S312、确定第二下缘点位与坐骨结节线之间的第二最短距离;
S313、根据第一最短距离和第二最短距离之间的差值,确定双腿腿长差。
可选地,如图10所示,假设,上述识别出来的进行髋关节置换手术术后患者的髋关节图像中的双侧股骨小转子下缘点位分别为A1,A2和坐骨结节线为CD。
而后从双侧小转子下缘点位A1,A2分别到坐骨结节线CD做垂线,得到第一线段A1a1以及第二线段A2a2,第一线段之间的距离也即是第一下缘点位A1与坐骨结节线之间的第一最短距离,第二线段之间的距离即是第二下缘点位A2与坐骨结节线之间的第二最短距离。
根据第一线段A1a1的距离和第二线段A2a2的距离,计算第一线段A1a1和第二线段A2a2之间的差值,将该差值的绝对值作为患者下肢实际长度差,也即是双腿腿长差,该腿长差可以用来评估患者的股骨假体安装位置的准确性,进而判断患者在关节置换手术术后下肢腿长恢复情况,其中,A1a1、A2a2的长度值位于坐骨结节线CD以下为正值,以上为负值。
本发明提供的基于深度学习的全髋关节术后腿长差的计算方法,利用深度学习方法对髋关节置换手术术后患者髋关节的髋关节图像中的相应关键点(第一下缘点位和第二下缘点位)以及坐骨区域进行识别并计算腿长差,以实现对进行全髋关节置换手术的患者术后恢复情况的快速评估。
进一步地,在一个实施例中,步骤S32可以具体包括:
S321、确定第一下缘点位与双侧泪滴点位连线之间的第三最短距离;
S322、确定第二下缘点位与双侧泪滴点位连线之间的第四最短距离;
S323、根据第三最短距离和第四最短距离之间的差值,确定双腿腿长差。
可选地,如图11所示,假设,上述识别出来的进行髋关节置换手术术后患者的髋关节图像中的双侧股骨小转子下缘点位分别为A1,A2,将第一泪滴点位D1和第二泪滴点位D2连接后得到双侧泪滴点位连线ab。
而后从双侧小转子下缘点位A1,A2分别到双侧泪滴点位连线ab做垂线,得到第三线段A1b1以及第四线段A2b2,第三线段之间的距离也即是第一下缘点位A1与双侧泪滴点位连线ab之间的第三最短距离,第四线段之间的距离即是第二下缘点位A2与双侧泪滴点位连线ab之间的第四最短距离。
根据第三线段A1b1的距离和第四线段A2b2的距离,计算第三线段A1b1和第四线段A2b2之间的差值,将该差值的绝对值作为患者下肢实际长度差,也即是双腿腿长差,该腿长差可以用来评估患者的股骨假体安装位置的准确性,进而判断患者在关节置换手术术后下肢腿长恢复情况。
如,根据上述得到的髋关节置换手术术后患者的双腿腿长差,对进行髋关节置换手术患者的术后恢复情况进行评估,若腿长差在预设范围内(例如小于3mm),则确定进行全髋关节置换手术的患者术后恢复良好。
本发明提供的基于深度学习的全髋关节术后腿长差的计算方法,利用深度学习方法对髋关节置换手术术后患者髋关节的髋关节图像中的相应关键点(第一下缘点位、第二下缘点位、第一泪滴点位和第二泪滴点位)进行识别并计算腿长差,以实现对进行全髋关节置换手术的患者术后恢复情况的快速评估。
下面对本发明提供的基于深度学习的全髋关节术后腿长差的计算系统进行描述,下文描述的基于深度学习的全髋关节术后腿长差的计算系统与上文描述的基于深度学习的全髋关节术后腿长差的计算方法可相互对应参照。
图12是本发明提供的基于深度学习的全髋关节术后腿长差的计算系统的结构示意图,如图12所示,包括:
获取模块1210、识别模块1211以及计算模块1212;
获取模块1210,用于获取髋关节置换手术术后的患者的髋关节图像;
识别模块1211,用于基于深度学习的目标识别网络,识别髋关节图像中的双侧股骨区域、坐骨区域、位于双侧股骨区域的第一关键点位置以及位于坐骨区域的第二关键点位置;
计算模块1212,用于根据第一关键点位置、第二关键点位置和坐骨区域,确定患者的双腿腿长差。
本发明提供的基于深度学习的全髋关节术后腿长差的计算系统,基于髋关节置换手术术后的患者的髋关节图像,计算髋关节置换手术术后患者的双腿腿长差,并根据患者双腿腿长差,实现对进行髋关节置换手术术后的患者的恢复情况的准确评估。
进一步地,在一个实施例中,识别模块1211,还可以具体用于:
将髋关节图像输入至目标识别网络,得到髋关节图像中的双侧股骨区域以及坐骨区域;
将双侧股骨区域的双侧股骨小转子对应的第一下缘点位以及第二下缘点位确定为第一关键点位置,将坐骨区域双侧的第一泪滴点位以及第二泪滴点位确定为第二关键点位置,
其中,目标识别网络基于点识别神经网络以及分割神经网络训练得到;或者,
基于包括堆叠沙漏网络结构、分割Segment-Head网络以及关键点Keypoint-Head网络的预设神经网络模型训练得到。
本发明提供的基于深度学习的全髋关节术后腿长差的计算系统,结合深度学习方法识别髋关节置换手术术后的患者的髋关节图像中的关键点位置及目标区域,为后续实现对患者术后的双腿腿长差的计算,进而实现对进行髋关节置换手术的患者术后恢复情况的快速、准确评估奠定了基础。
进一步地,在一个实施例中,识别模块1211,还可以具体用于:
将所述髋关节图像输入至目标识别网络,得到所述髋关节图像中的双侧股骨区域以及坐骨区域;
将所述双侧股骨区域的双侧股骨小转子对应的第一下缘点位以及第二下缘点位确定为所述第一关键点位置,将坐骨区域双侧第一最低点以及第二最低点确定为所述第二关键点位置。
本发明提供的基于深度学习的全髋关节术后腿长差的计算系统,结合深度学习方法识别髋关节置换手术术后的患者的髋关节图像中的关键点位置及目标区域,为后续实现对患者术后的双腿腿长差的计算,进而实现对进行髋关节置换手术的患者术后恢复情况的快速、准确评估奠定了基础。
进一步地,在一个实施例中,计算模块1212,还可以具体用于:
根据所述第一下缘点位、所述第二下缘点位和坐骨结节线,确定所述双腿腿长差;或者
根据所述第一下缘点位、所述第二下缘点位和双侧泪滴点位连线,确定所述双腿腿长差;
其中,所述双侧泪滴点位连线是根据所述第一泪滴点位和所述第二泪滴点位确定的;
所述坐骨结节线是根据所述第一最低点以及所述第二最低点确定的。
本发明提供的基于深度学习的全髋关节术后腿长差的计算系统,利用深度学习方法对髋关节置换手术术后患者的髋关节图像中的相应关键点以及目标区域进行识别并计算腿长差,为后续基于该腿长差实现对进行髋关节置换手术的患者术后恢复情况的快速评估奠定了基础。
进一步地,在一个实施例中,计算模块1212,还可以具体用于:
确定所述第一下缘点位与所述坐骨结节线之间的第一最短距离;
确定所述第二下缘点位与所述坐骨结节线之间的第二最短距离;
根据所述第一最短距离和所述第二最短距离之间的差值,确定所述双腿腿长差。
本发明提供的基于深度学习的全髋关节术后腿长差的计算系统,利用深度学习方法对髋关节置换手术术后患者髋关节的髋关节图像中的相应关键点(第一下缘点位和第二下缘点位)以及坐骨区域进行识别并计算腿长差,以实现对进行全髋关节置换手术的患者术后恢复情况的快速评估。
进一步地,在一个实施例中,计算模块1212,还可以具体用于:
确定所述第一下缘点位与所述双侧泪滴点位连线之间的第三最短距离;
确定所述第二下缘点位与所述双侧泪滴点位连线之间的第四最短距离;
根据所述第三最短距离和所述第四最短距离之间的差值,确定所述双腿腿长差。
本发明提供的基于深度学习的全髋关节术后腿长差的计算系统,利用深度学习方法对髋关节置换手术术后患者髋关节的髋关节图像中的相应关键点(第一下缘点位、第二下缘点位、第一泪滴点位和第二泪滴点位)进行识别并计算腿长差,以实现对进行全髋关节置换手术的患者术后恢复情况的快速评估。
图13是本发明提供的一种电子设备的实体结构示意图,如图13所示,该电子设备可以包括:处理器(processor)1310、通信接口(communication interface)1311、存储器(memory)1312和总线(bus)1313,其中,处理器1310,通信接口1311,存储器1312通过总线1313完成相互间的通信。处理器1310可以调用存储器1312中的逻辑指令,以执行如下方法:
获取髋关节置换手术术后的患者的髋关节图像;
基于深度学习的目标识别网络,识别髋关节图像中的双侧股骨区域、坐骨区域、位于双侧股骨区域的第一关键点位置以及位于坐骨区域的第二关键点位置;
根据第一关键点位置、第二关键点位置和坐骨区域,确定患者的双腿腿长差。此外,上述的存储器中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机电源屏(可以是个人计算机,服务器,或者网络电源屏等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-onlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
进一步地,本发明公开一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的基于深度学习的全髋关节术后腿长差的计算方法,例如包括:
获取髋关节置换手术术后的患者的髋关节图像;
基于深度学习的目标识别网络,识别髋关节图像中的双侧股骨区域、坐骨区域、位于双侧股骨区域的第一关键点位置以及位于坐骨区域的第二关键点位置;
根据第一关键点位置、第二关键点位置和坐骨区域,确定患者的双腿腿长差。
另一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的基于深度学习的全髋关节术后腿长差的计算方法,例如包括:
获取髋关节置换手术术后的患者的髋关节图像;
基于深度学习的目标识别网络,识别髋关节图像中的双侧股骨区域、坐骨区域、位于双侧股骨区域的第一关键点位置以及位于坐骨区域的第二关键点位置;
根据第一关键点位置、第二关键点位置和坐骨区域,确定患者的双腿腿长差。
以上所描述的系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机电源屏(可以是个人计算机,服务器,或者网络电源屏等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于深度学习的全髋关节术后腿长差的计算方法,其特征在于,包括:
获取髋关节置换手术术后的患者的髋关节图像;
基于深度学习的目标识别网络,识别所述髋关节图像中的双侧股骨区域、坐骨区域、位于所述双侧股骨区域的第一关键点位置以及位于所述坐骨区域的第二关键点位置;
根据所述第一关键点位置、所述第二关键点位置和所述坐骨区域,确定所述患者的双腿腿长差。
2.根据权利要求1所述的基于深度学习的全髋关节术后腿长差的计算方法,其特征在于,所述目标识别网络基于点识别神经网络以及分割神经网络训练得到;或者,
基于包括堆叠沙漏网络结构、分割Segment-Head网络以及关键点Keypoint-Head网络的预设神经网络模型训练得到。
3.根据权利要求1所述的基于深度学习的全髋关节术后腿长差的计算方法,其特征在于,所述基于深度学习的目标识别网络,识别所述髋关节图像中的双侧股骨区域、坐骨区域、位于所述双侧股骨区域的第一关键点位置以及位于所述坐骨区域的第二关键点位置,包括:
将所述髋关节图像输入至目标识别网络,得到所述髋关节图像中的双侧股骨区域以及坐骨区域;
将所述双侧股骨区域的双侧股骨小转子对应的第一下缘点位以及第二下缘点位确定为所述第一关键点位置,将坐骨区域双侧的第一泪滴点位以及第二泪滴点位确定为所述第二关键点位置。
4.根据权利要求1所述的基于深度学习的全髋关节术后腿长差的计算方法,其特征在于,所述基于深度学习的目标识别网络,识别所述髋关节图像中的双侧股骨区域、坐骨区域、位于所述双侧股骨区域的第一关键点位置以及位于所述坐骨区域的第二关键点位置,包括:
将所述髋关节图像输入至目标识别网络,得到所述髋关节图像中的双侧股骨区域以及坐骨区域;
将所述双侧股骨区域的双侧股骨小转子对应的第一下缘点位以及第二下缘点位确定为所述第一关键点位置,将坐骨区域双侧第一最低点以及第二最低点确定为所述第二关键点位置。
5.根据权利要求3所述的基于深度学习的全髋关节术后腿长差的计算方法,其特征在于,所述根据所述第一关键点位置、所述第二关键点位置和所述坐骨区域,确定所述患者的双腿腿长差,包括:
根据所述第一下缘点位、所述第二下缘点位和坐骨结节线,确定所述双腿腿长差;或者
根据所述第一下缘点位、所述第二下缘点位和双侧泪滴点位连线,确定所述双腿腿长差;
其中,所述双侧泪滴点位连线是根据所述第一泪滴点位和所述第二泪滴点位确定的;
所述坐骨结节线是根据所述第一最低点以及所述第二最低点确定的。
6.根据权利要求5所述的基于深度学习的全髋关节术后腿长差的计算方法,其特征在于,所述根据所述第一下缘点位、所述第二下缘点位和坐骨结节线,确定所述双腿腿长差,包括:
确定所述第一下缘点位与所述坐骨结节线之间的第一最短距离;
确定所述第二下缘点位与所述坐骨结节线之间的第二最短距离;
根据所述第一最短距离和所述第二最短距离之间的差值,确定所述双腿腿长差。
7.根据权利要求5所述的基于深度学习的全髋关节术后腿长差的计算方法,其特征在于,所述根据所述第一下缘点位、所述第二下缘点位和双侧泪滴点位连线,确定所述双腿腿长差,包括:
确定所述第一下缘点位与所述双侧泪滴点位连线之间的第三最短距离;
确定所述第二下缘点位与所述双侧泪滴点位连线之间的第四最短距离;
根据所述第三最短距离和所述第四最短距离之间的差值,确定所述双腿腿长差。
8.一种基于深度学习的全髋关节术后腿长差的计算系统,其特征在于,包括:获取模块、识别模块以及计算模块;
所述获取模块,用于获取髋关节置换手术术后的患者的髋关节图像;
所述识别模块,用于基于深度学习的目标识别网络,识别所述髋关节图像中的双侧股骨区域、坐骨区域、位于所述双侧股骨区域的第一关键点位置以及位于所述坐骨区域的第二关键点位置;
所述计算模块,用于根据所述第一关键点位置、所述第二关键点位置和所述坐骨区域,确定所述患者的双腿腿长差。
9.一种电子设备,包括处理器和存储有计算机程序的存储器,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7任一项所述基于深度学习的全髋关节术后腿长差的计算方法。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述基于深度学习的全髋关节术后腿长差的计算方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210173929.9A CN114612391A (zh) | 2022-02-24 | 2022-02-24 | 基于深度学习的全髋关节术后腿长差的计算方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210173929.9A CN114612391A (zh) | 2022-02-24 | 2022-02-24 | 基于深度学习的全髋关节术后腿长差的计算方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114612391A true CN114612391A (zh) | 2022-06-10 |
Family
ID=81859560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210173929.9A Pending CN114612391A (zh) | 2022-02-24 | 2022-02-24 | 基于深度学习的全髋关节术后腿长差的计算方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114612391A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115252233A (zh) * | 2022-07-28 | 2022-11-01 | 大连理工大学 | 基于深度学习的全髋关节置换术中髋臼杯的自动化规划方法 |
-
2022
- 2022-02-24 CN CN202210173929.9A patent/CN114612391A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115252233A (zh) * | 2022-07-28 | 2022-11-01 | 大连理工大学 | 基于深度学习的全髋关节置换术中髋臼杯的自动化规划方法 |
CN115252233B (zh) * | 2022-07-28 | 2024-04-26 | 大连理工大学 | 基于深度学习的全髋关节置换术中髋臼杯的自动化规划方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11887311B2 (en) | Method and apparatus for segmenting a medical image, and storage medium | |
Bi et al. | Automatic liver lesion detection using cascaded deep residual networks | |
CN114742747B (zh) | 基于深度学习的髋关节置换术后影像的评估方法及系统 | |
CN114419618B (zh) | 基于深度学习的全髋关节置换术前规划系统 | |
US20220351501A1 (en) | Three-dimensional target detection and model training method and device, and storage medium | |
CN112037200A (zh) | 一种医学影像中解剖特征自动识别与模型重建方法 | |
CN112862824A (zh) | 新型冠状病毒肺炎病灶检测方法、系统、装置和存储介质 | |
Liu et al. | A fully automatic segmentation algorithm for CT lung images based on random forest | |
CN114648492A (zh) | 基于深度学习的全髋关节术后偏心距的计算方法及系统 | |
EP3961561A1 (en) | Method for designing a module for image segmentation | |
CN111784704B (zh) | Mri髋关节炎症分割与分类自动定量分级序贯方法 | |
CN113724203B (zh) | 应用于oct图像中目标特征分割的模型训练方法及装置 | |
US11263494B2 (en) | Classification device, classification method, program, and information recording medium | |
CN111598144B (zh) | 图像识别模型的训练方法和装置 | |
CN105389821A (zh) | 一种基于云模型和图割相结合的医学图像分割方法 | |
CN112690774A (zh) | 一种基于磁共振影像的卒中复发预测方法和系统 | |
CN114612391A (zh) | 基于深度学习的全髋关节术后腿长差的计算方法及系统 | |
CN116402824A (zh) | 基于儿童骨龄x光片的内分泌异常检测方法 | |
CN113838048B (zh) | 一种十字交叉韧带术前止点中心定位及韧带长度计算方法 | |
CN113240699B (zh) | 图像处理方法及装置,模型的训练方法及装置,电子设备 | |
CN114565554A (zh) | 一种基于超声冠状面图像的x光图像配准方法及装置 | |
CN113610746A (zh) | 一种图像处理方法、装置、计算机设备及存储介质 | |
CN115375787A (zh) | 伪影校正方法、计算机设备及可读存储介质 | |
CN111126424A (zh) | 一种基于卷积神经网络的超声图像分类方法 | |
CN113888751A (zh) | 一种关节关键点的识别方法、装置及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |