CN115937543A - 一种基于神经网络的骨盆影像关键点识别方法及系统 - Google Patents
一种基于神经网络的骨盆影像关键点识别方法及系统 Download PDFInfo
- Publication number
- CN115937543A CN115937543A CN202211710564.5A CN202211710564A CN115937543A CN 115937543 A CN115937543 A CN 115937543A CN 202211710564 A CN202211710564 A CN 202211710564A CN 115937543 A CN115937543 A CN 115937543A
- Authority
- CN
- China
- Prior art keywords
- key point
- image
- training
- point identification
- key
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
本发明公开的一种基于神经网络的骨盆影像关键点识别方法及系统,包括:获取训练用CT图像;对训练用CT图像进行关键点标注,并截取包含关键点的大概率置信区域;将截取的大概率置信区域作为训练样本对构建的关键点识别模型进行训练,训练过程中,计算关键点识别模型识别出的关键点与标注的关键点之间的欧式距离误差;当欧式距离误差小于等于设定值时,关键点识别模型训练完成,获得训练好的关键点识别模型;通过训练好的关键点识别模型对待识别的CT图像进行骨盆影像关键点识别,获得关键点识别结果。能够对骨盆关键点进行准确识别。
Description
技术领域
本发明涉及图像识别技术领域,尤其涉及一种基于神经网络的骨盆影像关键点识别方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
通过对骨盆中的关键点进行定位,并计算关键点之间的信息,能够直观的反映骨盆的生理状态,例如通过检测得到的第一骶骨中点与左、右髂前上棘的位置关系判断骨盆是否有旋转位移,通过髂前上棘与髂后上棘计算髂骨翼宽度等等。
现有的骨盆关键点定位包括人工标注和自动标注两种,人工标注存在较多的主观因素影响,会因为不同人的视力、判别标准不同、经验不同而导致检测位置误差较大,且工作量大、耗时长,检测位置缺少准确性;而现有的骨盆关键点的自动标注方法,通常是采用关键点识别模型对关键点进行识别,仅是依靠关键点自身的信息,而没有应用到关键点周围的环境信息,导致关键点的定位准确度不高。
故发明人认为,现有的骨盆关键点识别方法,均不能实现对骨盆关键点的快速准确识别。
发明内容
本发明为了解决上述问题,提出了一种基于神经网络的骨盆影像关键点识别方法及系统,实现了对骨盆影像关键点的快速准确识别。
为实现上述目的,本发明采用如下技术方案:
第一方面,提出了一种基于神经网络的骨盆影像关键点识别方法,包括:
获取训练用CT图像;
对训练用CT图像进行关键点标注,并截取包含关键点的大概率置信区域;
将截取的大概率置信区域作为训练样本对构建的关键点识别模型进行训练,训练过程中,计算关键点识别模型识别出的关键点与标注的关键点之间的欧式距离误差;
当欧式距离误差小于等于设定值时,关键点识别模型训练完成,获得训练好的关键点识别模型;
通过训练好的关键点识别模型对待识别的CT图像进行骨盆影像关键点识别,获得关键点识别结果。
第二方面,提出了一种基于神经网络的骨盆影像关键点识别系统,包括:
图像获取模块,用于获取训练用CT图像;
图像标注模块,用于对训练用CT图像进行关键点标注,并截取包含关键点的大概率置信区域;
关键点识别模型训练模块,用于将截取的大概率置信区域作为训练样本对构建的关键点识别模型进行训练,训练过程中,计算关键点识别模型识别出的关键点与标注的关键点之间的欧式距离误差,当欧式距离误差小于等于设定值时,关键点识别模型训练完成,获得训练好的关键点识别模型;
关键点识别模块,用于通过训练好的关键点识别模型对待识别的CT图像进行骨盆影像关键点识别,获得关键点识别结果。
第三方面,提出了一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成一种基于神经网络的骨盆影像关键点识别方法所述的步骤。
第四方面,提出了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成一种基于神经网络的骨盆影像关键点识别方法所述的步骤。
与现有技术相比,本发明的有益效果为:
本发明通过对待识别的CT图像进行关键点的初始识别,获得关键点的初始识别结果,进而根据关键点的初始识别结果确定包含关键点的待识别的大概率置信区域,通过关键点识别模型对待识别的大概率置信区域进行识别,获得最终的关键点识别结果,在对关键点识别时,即利用了关键点自身的信息,又利用了关键点周围的环境信息,提高了关键点识别的准确性。
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为实施例1公开的数据增强示意图;
图2为实施例1公开的应用阶段的配准单元示意图;
图3为实施例1公开的应用阶段示意图;
图4为实施例1公开的检测后骨盆关键点对比示意图。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例1
为了实现对骨盆关键点的快速准确识别,在该实施例中公开了一种基于神经网络的骨盆影像关键点识别方法,包括:
S1:获取训练用CT图像。
获取训练用CT图像,并对图像进行归一化处理。
S2:对训练用CT图像进行关键点标注,并截取包含关键点的大概率置信区域。
对归一化处理后的训练用CT图像进行数据增强,数据增强的过程为:
对训练用CT图像进行关键点标注,并在每个关键点周围随机截取大量的适当大小的大概率置信区域,如图1所示。
S3:将截取的大概率置信区域作为训练样本对构建的关键点识别模型进行训练,训练过程中,计算关键点识别模型识别出的关键点与标注的关键点之间的欧式距离误差;当欧式距离误差小于等于设定值时,关键点识别模型训练完成,获得训练好的关键点识别模型。
其中,设定值可以限定为4mm。
关键点识别模型以大概率置信区域为输入,以关键点识别结果为输出,采用卷积神经网络模型构建获得。
将截取的大概率置信区域作为训练样本,将大概率置信区域中关键点的坐标作为训练用标签,对构建的关键点识别模型进行训练。
训练时,将训练样本划分为训练集和验证集,其中,验证集为训练集中的训练用CT图像进行骨盆关键点标注后的大概率置信区域,利用训练集对构建的关键点识别模型进行训练,利用验证集对训练过程中模型的泛化能力进行验证。
将训练样本输入构建的关键点识别模型中,对关键点识别模型进行训练时,计算关键点识别模型识别出的关键点与大概率置信区域中标注的关键点之间的欧式距离误差,当欧式距离误差小于等于设定值时,视为关键点检测成功,关键点识别模型训练完成,获得训练好的关键点识别模型,当欧式距离误差大于设定值时,视为关键点检测失败,继续对关键点识别模型进行训练,直至达到设定的最大训练轮数,关键点识别模型训练完成。
其中,设定值根据构建的关键点识别模型及训练样本的大小等因素进行调整,对比关键点识别模型识别出的关键点坐标与验证集中预先标注的关键点坐标,当两轮检测坐标偏差最大的部分达到设定值之下时,训练完成。
S4:通过训练好的关键点识别模型对待识别的CT图像进行骨盆影像关键点识别,获得关键点识别结果。
在应用阶段,训练好的关键点识别模型用于对待识别的CT图像进行骨盆影像关键点的识别,如图3所示,包括:
S41:将待识别的CT图像与作为训练样本的大概率置信区域进行循环配准,对关键点进行初始识别,获得关键点的初始识别结果,进而确定包含关键点的待识别的大概率置信区域,如图2所示。
具体的,将待识别的CT图像与作为训练样本的大概率置信区域进行循环配准,对关键点进行初始识别时,循环配准取得最优配准的条件为:所有识别出的关键点与作为训练样本的大概率置信区域中标注的关键点间的欧式距离均小于设定阈值。
大概率置信区域需要与2倍的设定阈值相等,该设定阈值可以为256个像素。
此外,包含关键点的待识别的大概率置信区域以该关键点的初始识别结果为中心确定。
且配准方法采用刚性配准。
S42:通过训练好的关键点识别模型对待识别的大概率置信区域进行识别,获得关键点识别结果,如图4所示。
本实施例公开的一种基于神经网络的骨盆影像关键点识别方法,通过对待识别的CT图像进行关键点的初始识别,获得关键点的初始识别结果,进而根据关键点的初始识别结果确定包含关键点的待识别的大概率置信区域,通过关键点识别模型对待识别的大概率置信区域进行识别,获得最终的关键点识别结果,在对关键点识别时,即利用了关键点自身的信息,又利用了关键点周围的环境信息,提高了关键点识别的准确性,可以节省大量的人工识别时间,缩短学习周期,降低骨盆关键点检测失误的发生概率,自动精准定量分析,提高准确性、安全性,较大程度的避免人工的主观性。
实施例2
在该实施例中,公开了一种基于神经网络的骨盆影像关键点识别系统,包括:
图像获取模块,用于获取训练用CT图像;
图像标注模块,用于对训练用CT图像进行关键点标注,并截取包含关键点的大概率置信区域;
关键点识别模型训练模块,用于将截取的大概率置信区域作为训练样本对构建的关键点识别模型进行训练,训练过程中,计算关键点识别模型识别出的关键点与标注的关键点之间的欧式距离误差,当欧式距离误差小于等于设定值时,关键点识别模型训练完成,获得训练好的关键点识别模型;
关键点识别模块,用于通过训练好的关键点识别模型对待识别的CT图像进行骨盆影像关键点识别,获得关键点识别结果。
实施例3
在该实施例中,公开了一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成实施例1公开的基于神经网络的骨盆影像关键点识别方法所述的步骤。
实施例4
在该实施例中,公开了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成实施例1公开的基于神经网络的骨盆影像关键点识别方法所述的步骤。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。
Claims (10)
1.一种基于神经网络的骨盆影像关键点识别方法,其特征在于,包括:
获取训练用CT图像;
对训练用CT图像进行关键点标注,并截取包含关键点的大概率置信区域;
将截取的大概率置信区域作为训练样本对构建的关键点识别模型进行训练,训练过程中,计算关键点识别模型识别出的关键点与标注的关键点之间的欧式距离误差;
当欧式距离误差小于等于设定值时,关键点识别模型训练完成,获得训练好的关键点识别模型;
通过训练好的关键点识别模型对待识别的CT图像进行骨盆影像关键点识别,获得关键点识别结果。
2.如权利要求1所述的一种基于神经网络的骨盆影像关键点识别方法,其特征在于,对构建的关键点识别模型进行训练时,若欧式距离误差大于设定值,则将模型训练至设定的最大训练轮数。
3.如权利要求1所述的一种基于神经网络的骨盆影像关键点识别方法,其特征在于,关键点识别模型以大概率置信区域为输入,以关键点识别结果为输出,采用卷积神经网络模型构建获得。
4.如权利要求1所述的一种基于神经网络的骨盆影像关键点识别方法,其特征在于,通过训练好的关键点识别模型对待识别的CT图像进行骨盆影像关键点识别的过程为:
将待识别的CT图像与作为训练样本的大概率置信区域进行循环配准,对关键点进行初始识别,获得关键点的初始识别结果,进而确定包含关键点的待识别的大概率置信区域;
通过训练好的关键点识别模型对待识别的大概率置信区域进行识别,获得关键点识别结果。
5.如权利要求4所述的一种基于神经网络的骨盆影像关键点识别方法,其特征在于,包含关键点的待识别的大概率置信区域以该关键点的初始识别结果为中心。
6.如权利要求4所述的一种基于神经网络的骨盆影像关键点识别方法,其特征在于,将待识别的CT图像与作为训练样本的大概率置信区域进行循环配准,对关键点进行初始识别时,识别出的关键点与作为训练样本的大概率置信区域中标注的关键点间的欧式距离小于设定阈值。
7.如权利要求4所述的一种基于神经网络的骨盆影像关键点识别方法,其特征在于,配准为刚性配准。
8.一种基于神经网络的骨盆影像关键点识别系统,其特征在于,包括:
图像获取模块,用于获取训练用CT图像;
图像标注模块,用于对训练用CT图像进行关键点标注,并截取包含关键点的大概率置信区域;
关键点识别模型训练模块,用于将截取的大概率置信区域作为训练样本对构建的关键点识别模型进行训练,训练过程中,计算关键点识别模型识别出的关键点与标注的关键点之间的欧式距离误差,当欧式距离误差小于等于设定值时,关键点识别模型训练完成,获得训练好的关键点识别模型;
关键点识别模块,用于通过训练好的关键点识别模型对待识别的CT图像进行骨盆影像关键点识别,获得关键点识别结果。
9.一种电子设备,其特征在于,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成权利要求1-7任一项所述的一种基于神经网络的骨盆影像关键点识别方法的步骤。
10.一种计算机可读存储介质,其特征在于,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-7任一项所述的一种基于神经网络的骨盆影像关键点识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211710564.5A CN115937543A (zh) | 2022-12-29 | 2022-12-29 | 一种基于神经网络的骨盆影像关键点识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211710564.5A CN115937543A (zh) | 2022-12-29 | 2022-12-29 | 一种基于神经网络的骨盆影像关键点识别方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115937543A true CN115937543A (zh) | 2023-04-07 |
Family
ID=86699097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211710564.5A Pending CN115937543A (zh) | 2022-12-29 | 2022-12-29 | 一种基于神经网络的骨盆影像关键点识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115937543A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117422721A (zh) * | 2023-12-19 | 2024-01-19 | 天河超级计算淮海分中心 | 一种基于下肢ct影像的智能标注方法 |
-
2022
- 2022-12-29 CN CN202211710564.5A patent/CN115937543A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117422721A (zh) * | 2023-12-19 | 2024-01-19 | 天河超级计算淮海分中心 | 一种基于下肢ct影像的智能标注方法 |
CN117422721B (zh) * | 2023-12-19 | 2024-03-08 | 天河超级计算淮海分中心 | 一种基于下肢ct影像的智能标注方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106778737A (zh) | 一种车牌矫正方法、装置和一种视频采集装置 | |
CN110807491A (zh) | 车牌图像清晰度模型训练方法、清晰度检测方法及装置 | |
CN105303179A (zh) | 指纹识别方法、装置 | |
CN108537218B (zh) | 一种答题卡的识别处理方法及装置 | |
CN101073090A (zh) | 用于虹膜识别的多级可变域分解方法和系统 | |
US20100202669A1 (en) | Iris recognition using consistency information | |
US20080298648A1 (en) | Method and system for slap print segmentation | |
US20080101662A1 (en) | Print matching method and apparatus using pseudo-ridges | |
US20080273769A1 (en) | Print matching method and system using direction images | |
WO2020038138A1 (zh) | 样本标注方法及装置、损伤类别的识别方法及装置 | |
CN111931548B (zh) | 人脸识别系统、建立人脸识别数据的方法及人脸识别方法 | |
CN105279492A (zh) | 虹膜识别的方法和装置 | |
CN115937543A (zh) | 一种基于神经网络的骨盆影像关键点识别方法及系统 | |
CN111626177A (zh) | 一种pcb元件识别方法及装置 | |
CN111144372A (zh) | 车辆检测方法、装置、计算机设备和存储介质 | |
CN107516285A (zh) | 一种基于蓝牙定位和活体监测的课堂签到方法 | |
CN112766275A (zh) | 印章文字识别方法、装置、计算机设备和存储介质 | |
CN113496183B (zh) | 指纹匹配方法、装置、电子设备及可读存储介质 | |
CN116629270B (zh) | 基于考试大数据以及文本语义的主观题评分方法和装置 | |
KR102333453B1 (ko) | 지문 및 얼굴 영상을 이용한 스마트폰 기반 신원확인 방법 | |
CN112215304A (zh) | 一种用于地理影像拼接的灰度影像匹配方法及装置 | |
US11393248B2 (en) | Data detection method and device, computer equipment and storage medium | |
CN114092542A (zh) | 一种基于二维视觉的螺栓测量方法以及系统 | |
CN113869364A (zh) | 图像处理方法、装置、电子设备及介质 | |
CN113128543A (zh) | 图像匹配方法、应用测试方法及装置和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |