CN117152407A - 一种头影测量标志点自动定位方法 - Google Patents
一种头影测量标志点自动定位方法 Download PDFInfo
- Publication number
- CN117152407A CN117152407A CN202310876770.1A CN202310876770A CN117152407A CN 117152407 A CN117152407 A CN 117152407A CN 202310876770 A CN202310876770 A CN 202310876770A CN 117152407 A CN117152407 A CN 117152407A
- Authority
- CN
- China
- Prior art keywords
- positioning
- heat map
- network model
- head shadow
- shadow image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000005259 measurement Methods 0.000 title claims abstract description 42
- 230000008878 coupling Effects 0.000 claims abstract description 18
- 238000010168 coupling process Methods 0.000 claims abstract description 18
- 238000005859 coupling reaction Methods 0.000 claims abstract description 18
- 230000009466 transformation Effects 0.000 claims abstract description 17
- 238000012549 training Methods 0.000 claims description 136
- 238000003062 neural network model Methods 0.000 claims description 106
- 230000006870 function Effects 0.000 claims description 33
- 239000003550 marker Substances 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 25
- 238000000605 extraction Methods 0.000 claims description 16
- 238000010586 diagram Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 13
- 238000012795 verification Methods 0.000 claims description 12
- 238000012423 maintenance Methods 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000003672 processing method Methods 0.000 claims description 4
- 230000003416 augmentation Effects 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 abstract description 6
- 238000005457 optimization Methods 0.000 abstract 1
- 210000003128 head Anatomy 0.000 description 187
- 238000004458 analytical method Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 6
- 210000000988 bone and bone Anatomy 0.000 description 5
- 238000003759 clinical diagnosis Methods 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 4
- 210000004283 incisor Anatomy 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 210000001847 jaw Anatomy 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 210000003781 tooth socket Anatomy 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004872 soft tissue Anatomy 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 241000083547 Columella Species 0.000 description 1
- 208000032170 Congenital Abnormalities Diseases 0.000 description 1
- 206010061619 Deformity Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008226 craniofacial development Effects 0.000 description 1
- 230000009650 craniofacial growth Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 210000000613 ear canal Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 210000001154 skull base Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本申请提供一种头影测量标志点自动定位方法,包括:将待定位的头影图像输入至第一定位网络模型中提取特征,得到第一定位热图;将待定位的头影图像输入至数字相邻点耦合变换整体优化网络(即第二定位网络模型)中,专注于数字相邻标志点之间的联系,进行特征提取得到第二定位热图;将头影图像输入至医学几何关联点耦合变换针对优化网络中(即第三定位网络模型),专注于标志点之间的医学关系和几何关系,进行特征提取得到第三定位热图,将第一定位热图、第二定位热图和第三定位热图解码得到整体优化标志点定位结果,得到最终标志点精确定位结果。本申请实现头影图像的自动标注,减轻了医生的标注负担,提高头影测量的速度和精度。
Description
技术领域
本申请涉及医学图像处理技术领域,尤其涉及一种头影测量标志点自动定位方法。
背景技术
在临床诊断和治疗中,头影测量的标志点仍多依靠专业医生根据医学理论和个人临床诊断经验进行手工定位,定位过程繁琐耗时,需要大量的人力资源和时间。而且,手工定位的主观性和随机性较强,由于不同医生所接受的培训和个人的临床经验背景不同,医生对标志点定位的结果存在差异,受人眼、标注工具的限制,同一个医生两次标注同一个X线片的结果也很难保证完全一致。且由于后续测量分析和治疗规划要在各标志点的精确定位的基础上进行,因此,手工定位的主观性和随机性带来的人为误差可能会对头影测量分析结果造成严重的影响。
发明内容
有鉴于此,本申请的目的在于提出一种头影测量标志点自动定位方法,以解决头影测量手工定位的主观性和随机性带来的人为误差可能会对头影测量分析结果造成严重的影响的问题。
基于上述目的,本申请提供了一种头影测量标志点自动定位方法,包括:
将待定位的头影图像输入至第一预设定位网络模型中,得到第一定位热图;
将待定位的头影图像输入至第二预设定位网络模型中,得到第二定位热图;
将待定位的头影图像输入至第三预设定位网络模型中,得到第三定位热图;
将所述第一定位热图、第二定位热图和第三定位热图融合,形成目标定位热图;对所述目标定位热图进行解码,得到目标定位热图对应的坐标。
可选地,第一预设定位网络模型的训练过程,包括:
将训练集中的每个头影图像输入至神经网络模型中,基于监督学习的训练方法对所述神经网络模型进行迭代训练,直至迭代轮数达到迭代轮数阈值,将验证集中的每个头影图像输入到每轮训练的所述神经网络模型中,选择定位性能最优的所述神经网络模型作为所述第一预设定位网络模型;其中,所述神经网络模型为由特征提取模块和分辨率保持模块搭建形成;
对于每一轮迭代训练执行如下操作:
将所述训练集中的当前头影图像输入至所述神经网络模型中,得到当前头影图像的第一预测热图;
利用损失函数计算当前图像对应的真实热图与所述第一预测热图的第一误差值,根据所述第一误差值调整所述神经网络模型的参数,将调整参数后的所述神经网络模型作为下一轮的神经网络模型。
可选地,所述第二预设定位网络模型的训练过程,包括:
将所述训练集中的每个头影图像输入至神经网络模型中,基于监督学习的训练方法,利用第一耦合变换算法对所述神经网络模型进行迭代训练,直至迭代轮数达到迭代轮数阈值,将验证集中的每个头影图像输入到每轮训练的所述神经网络模型中,选择定位性能最优的所述神经网络模型作为所述第二训练模型;其中,所述神经网络模型为由特征提取模块和分辨率保持模块搭建形成;
对于每一轮迭代训练执行如下操作:
获取当前头影图像的所有标志点,所述标志点包括标志点编号、标志点位置;
将当前头影图像进行水平镜像翻转,并将相邻的所述标志点编号组成数据对,将所述数据对内的标志点位置进行耦合变换,形成第一训练头影图像和所述第一训练头影图像对应的真实热图;
将所述第一训练头影图像输入至所述神经网络模型中,得到当前头影图像的第二预测热图;
利用损失函数计算所述第一训练头影图像对应的真实热图与所述第二预测热图的第二误差值,根据所述第二误差值调整所述神经网络模型的参数,将调整参数后的所述神经网络模型作为下一轮的神经网络模型。
可选地,所述第三预设定位网络模型的训练过程,包括:
将所述训练集中的每个头影图像输入至所述神经网络模型中,基于监督学习的训练方法,利用第二耦合变换算法对神经网络模型进行迭代训练,直至迭代轮数达到迭代轮数阈值,将验证集中的每个头影图像输入到每轮训练的所述神经网络模型中,选择定位性能最优的所述神经网络模型作为所述第三预设定位网络模型;其中,所述神经网络模型为由特征提取模块和分辨率保持模块搭建形成;
对于每一轮迭代训练执行如下操作:
获取当前头影图像的所有标志点;
将当前头影图像进行水平镜像翻转,确定与待优化标志点的呈医学关系和几何位置关系的标志点集合;
根据医学关系和几何位置关系将所述标志点集合中的标志点的位置进行耦合变换,形成第二训练头影图像和所述第二训练头影图像对应的真实热图;
将所述第二训练头影图像输入至所述神经网络模型中,得到当前头影图像的第三预测热图;
利用损失函数计算所述第二训练头影图像对应的真实热图与所述第三预测热图的第三误差值,根据所述第三误差值调整所述神经网络模型的参数,将调整参数后的所述神经网络模型作为下一轮的神经网络模型。
可选地,所述训练集的获取过程,包括:
获取训练数据,对所述训练数据进行预处理,得到训练集。
可选地,所述训练数据包括多张带有坐标标记点的初始头影图像;
所述对所述训练数据进行预处理,得到训练集,包括:
将所述初始头影图像中未有坐标标记点的部分进行裁剪,得到第一头影图像;
利用限制对比度自适应直方图均衡处理方法对所述第一头影图像进行处理,得到第二头影图像;
对所述第二头影图像进行增广处理,得到目标头影图像;
根据所述目标头影图像的所述坐标标记点,生成真实热图;
将所有所述目标头影图像、所述真实热图的尺寸进行调整,形成训练集。
可选地,根据所述目标头影图像的所述坐标标记点,生成真实热图,包括:
获取所述坐标标记点的像素位置信息;
基于所述坐标标记点的像素位置信息,利用未归一化高斯函数生成真实热图。
可选地,所述未归一化高斯函数为:
其中,Hk(i,j)是头影图像(i,j)像素位置为第k个标志点的置信度,(mk,nk)代表第k个标志点的真实坐标。
可选地,所述对所述目标定位热图进行解码,包括:
根据热图解码公式对所述目标定位热图进行解码;所述热图解码公式为:
其中,为模型输出的定位热图,/>代表热图解码所得的头影标志点坐标。
可选地,所述根据预设标志点,将所述第一定位热图、第二定位热图和第三定位热图融合,形成目标定位热图,包括:
根据预设标志点分别在所述第一定位热图、第二定位热图和第三定位热图中选择与预设标志点对应的定位最清晰的热图进行融合,形成所述目标定位热图。
从上面所述可以看出,本申请提供的一种头影测量标志点自动定位方法,将待定位的头影图像输入至第一预设定位网络模型中,得到第一定位热图;通过第一预设定位网络模型实现对待定位的头影图像中进行初步定位,得到初始热图(第一定位热图);将待定位的头影图像输入至第二预设定位网络模型中,得到第二定位热图;通过第二预设定位网络模型实现对待定位的头影图像中部分标志点进行定位,得到第二定位热图,可进一步地用于对初始热图中不清晰的标志点进行优化;将待定位标志点的头影图像输入至第三预设定位网络模型中,得到第三定位热图;通过第三预设定位网络模型对待定位的头影图像中部分标志点进行定位,得到第三定位热图,可进一步地用于对初始热图中不清晰的标志点进行优化;将所述第一定位热图、第二定位热图和第三定位热图融合,形成目标定位热图;通过将第一定位热图、第二定位热图和第三定位热图进行融合,也即选择每个定位热图中定位点最优的定位点作为最终的标志点,形成精确度最高的目标定位热图,从而根据目标定位热图得到该头影图像的定位热图的坐标,从而实现头影图像的自动标注,减轻了医生的标注负担,提高头影测量的速度,解决了手工标注方法存在的医生个人主观性或标注工具带来的误差的问题,且提高头影标志点定位的精度。
附图说明
为了更清楚地说明本申请或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例的一种头影测量标志点自动定位方法流程示意图;
图2为本申请实施例的训练集形成过程流程示意图;
图3为本申请实施例的第一预设定位网络模型训练过程的流程示意图;
图4为本申请实施例的神经网络模型的架构示意图;
图5为本申请实施例的第二预设定位网络模型训练过程的流程示意图;
图6为本申请实施例的第三预设定位网络模型训练过程的流程示意图;
图7为本申请实施例的一种头影测量标志点自动定位装置结构示意图;
图8为本申请实施例的一种电子设备硬件结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本申请进一步详细说明。
需要说明的是,除非另外定义,本申请实施例使用的技术术语或者科学术语应当为本申请所属领域内具有一般技能的人士所理解的通常意义。本申请实施例中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
相关技术中,X线头影测量分析是指对头颅侧位X线片中牙颌、颅面各标志点绘制线角进行测量分析,从而深入了解牙颌、颅面软硬组织的结构,在骨骼结构层面实现对牙颌、颅面的检查和诊断,目前已经广泛应用于颅面生长发育研究、畸形诊断、正畸治疗和颌面外科手术规划等医学任务中。头影测量分析是在定位的各标志点的基础上进行线和角度的测量分析,因此准确定位头颅侧位X线片中各标志点是头影测量分析的一个关键步骤。
尽管X线头影测量技术已相当成熟且已广泛应用在医学中,但在目前国内的临床诊断和治疗中,头影测量的标志点仍多依靠专业医生根据医学理论和个人临床诊断经验进行手工定位,定位过程繁琐耗时,需要大量的人力资源和时间。而且,手工定位的主观性和随机性较强,由于不同医生所接受的培训和个人的临床经验背景不同,医生对标志点定位的结果存在差异,受人眼、标注工具的限制,同一个医生两次标注同一个X线片的结果也很难保证完全一致。由于后续测量分析和治疗规划要在各标志点的精确定位的基础上进行,因此,手工定位的主观性和随机性带来的人为误差可能会对头影测量分析结果造成严重的影响。针对以上标志点手工定位存在的问题,研究开发X线头影标志点自动精确定位的方法意义重大。
随着人工智能的不断发展和成熟,在当下人口老龄化严重和医护人员资源短缺的环境中,人工智能被逐渐应用在医疗领域,减轻医务人员的工作负担,提高医疗体系的工作效率,一定程度缓解医疗资源供需的矛盾。
针对上述问题,本申请实施例通过将待定位的头影图像输入至第一预设定位网络模型中,得到第一定位热图;通过第一预设定位网络模型实现对待定位的头影图像中标志点进行初步定位,得到初始热图(第一定位热图);将待定位的头影图像输入至第二预设定位网络模型中,得到第二定位热图;通过第二预设定位网络模型实现对待定位的头影图像中部分标志点进行定位,得到第二定位热图,可进一步地用于对初始热图中不清晰的标志点进行优化;将待定位标志点的头影图像输入至第三预设定位网络模型中,得到第三定位热图;通过第三预设定位网络模型对待定位的头影图像中部分标志点进行定位,得到第三定位热图,可进一步地用于对初始热图中不清晰的标志点进行优化;将所述第一定位热图、第二定位热图和第三定位热图融合,形成目标定位热图;通过将第一定位热图、第二定位热图和第三定位热图进行融合,也即选择每个定位热图中定位点最优的定位点作为最终的标志点,形成精确度最高的目标定位热图,从而根据目标定位热图得到该头影图像的标志点的坐标,从而实现头影图像的自动标注,减轻了医生的标注负担,提高头影测量的速度,解决了手工标注方法存在的医生个人主观性或标注工具带来的误差的问题,且提高头影标志点定位的精度。
以下结合附图详细说明本申请的实施例。
图1示出了本申请实施例的一种头影测量标志点自动定位方法流程示意图。
参照图1,本申请实施例提供了一种头影测量标志点自动定位方法,包括以下步骤:
步骤S100、将待定位的头影图像输入至第一预设定位网络模型中,得到第一定位热图。
在本步骤中,第一预设定位网络模型是通过训练集,利用监督学习算法对神经网络模型进行迭代训练形成。通过第一预设定位网络模型对待定位的头影图像中的标志点进行初步定位,得到第一定位热图,即得到初始定位热图,也即本步骤中首先对头影图像进行初步定位,便于后续对待定位的头影图像根据初始定位热图选择定位标志点更加清晰的定位热图,以便于得到更加精准的标志点的定位结果。
图2为本申请实施例的训练集形成过程流程示意图。
在一些实施例中,参照图2,所述训练集的获取过程,包括:
获取训练数据,对所述训练数据进行预处理,得到训练集。
进一步地,所述训练数据包括多张带有坐标标记点的初始头影图像;
所述对所述训练数据进行预处理,得到训练集,包括以下步骤:
步骤S101、将所述初始头影图像中未有坐标标记点的部分进行裁剪,得到第一头影图像。
在本步骤中,所述训练数据为医学专家已标注好带有标记点的初始头影图像,示例性的,标记点为19个点,其标记点位置为:1.蝶鞍点:蝶鞍影像的中心点;2.鼻根点:皇额缝的最前点;3.眶点:眶下缘的最低点;4.耳点:机械耳点,外耳道最上点;5.上齿槽座点;前鼻棘与上齿槽缘间的骨部最凹点;6.下齿槽座点:下齿槽缘与须前点间的骨部最凹点;7.颏前点:骨颏部最前点;8.颏下点:下领联合轮廓的最下点;9.颏顶点:颏前点与颏下点间的中点;10.下领角点:下领支平面与下领角平面交角的分角线与下领角的交点;11.下中切牙切端下中切牙切缘的最前点;12上中切牙切端:上中切牙切缘的最前点;13.上唇突点:上唇之最突点;14.下唇突点:下唇之最突点;15.鼻下点:鼻小柱与上唇的连接点;16.软组织频前点:颜部软组织的最前点;17.后鼻棘:硬聘后部骨棘之尖;18.前鼻棘:前皇棘之尖;19.关节点:颅底外侧与下领课突颈后缘的交点。上述相邻编号之间具有关联性,将其相邻点称之为医学关联点。将头影图像的上半部未带有标记点的盖骨区域进行裁剪,也即将头影图像中不含有标记点的冗余部分裁剪,使标记点在头影图像中分布相对均匀,并且裁剪后的所有头影图像尺寸大小保持一致,裁剪后对得到的裁剪图像进行检查,保证剩余结构的完整性,从而得到完整的第一头影图像。
步骤S102、利用限制对比度自适应直方图均衡处理方法对所述第一头影图像进行处理,得到第二头影图像。
在本步骤中,通过限制对比度自适应直方图均衡处理方法将第一头影图像进行图像细节处理,从而平衡头影图像中不同区域的灰度,增强头影图像的细节结构和特征,增强头影图像的细节同时抑制噪声,有利于神经网络的学习。
步骤S103、对所述第二头影图像进行增广处理,得到目标头影图像。
在本步骤中,由于医学专家对训练数据进行标注,样本较少。因此,通过将第二头影图像进行随机旋转、随机缩放、随机去除标志点等操作,以实现增加头影图像样本的多样性,便于神经网络更好的学习,提高神经网络的鲁棒性和泛化能力。示例性的,将第二头影图像进行随机旋转,旋转角度范围为:-45°-45°;将第二头影图像进行随机缩放,其中缩放比例范围为:0.65-1.35;将第二头影图像进行随机去除标志点操作,其去除标志点为部分去除。通过对第二头影图像进行处理,得到目标头影图像,该目标头影图像具有多样性,便于神经网络更好的学习。
步骤S104、根据所述目标头影图像的所述坐标标记点,生成真实热图。
在本步骤中,通过获取所述坐标标记点的像素位置信息;基于所述坐标标记点的像素位置信息,利用未归一化高斯函数生成真实热图。
进一步地,所述未归一化高斯函数为:
其中,Hk(i,j)是头影图像(i,j)像素位置为第k个标志点的置信度,(mk,nk)代表第k个标志点的真实坐标。
具体地,通过根据目标头影图像的坐标标志点的像素位置信息,以坐标点为中心利用高斯函数生成真实热图,真实热图代表标志点位于某个像素位置的伪概率或置信度,用以准确标注头影图像,提高了头影标志点定位的精度,以辅助医生的诊断和治疗方案制定提供了可靠的辅助和参考。
步骤S105、将所有所述目标头影图像、所述真实热图的尺寸进行调整,形成训练集。
在本步骤中,目标头影图像和真实热图的尺寸大小相同,通过对目标头影图像、真实热图的尺寸进行调整使其适应与神经网络模型的输入要求的大小,更有助于神经网络模型的学习。
图3示出了第一预设定位网络模型训练过程的流程示意图。
在一些实施例中,参照图3,所述第一预设定位网络模型的训练过程,包括:
将训练集中的每个头影图像输入至神经网络模型中,基于监督学习的训练方法对所述神经网络模型进行迭代训练,直至迭代轮数达到迭代轮数阈值,将验证集中的每个头影图像输入到每轮训练的所述神经网络模型中,选择定位性能最优的所述神经网络模型作为所述第一预设定位网络模型;其中,所述神经网络模型为由特征提取模块和分辨率保持模块搭建形成;
对于每一轮迭代训练执行如下操作:
步骤S110、将所述训练集中的当前头影图像输入至所述神经网络模型中,得到当前头影图像的第一预测热图;
步骤S112、利用损失函数计算当前图像对应的真实热图与所述第一预测热图的第一误差值,根据所述第一误差值调整所述神经网络模型的参数,将调整参数后的所述神经网络模型作为下一轮的神经网络模型。
具体地,在本实施例中,由于头影标志点定位是一个精细的任务,要求细致的位置信息,对高分辨率表征的要求高;同时,标志点定位的X线片分辨率高,细节信息丰富。因此,通过特征提取模型和分辨率保持模型搭建神经网络模型,在始终保持高分辨率特征的同时,融合神经网络提取的多尺度特征,完成X线头影标志点定位。
图4示出了神经网络模型的架构示意图。
参照图4,特征提取模型为特征提取骨干网络模块(也即模块1),采用在ImageNet数据集上预训练的经典特征提取网络DenseNet121提取头影图像不同尺度的特征,特征提取骨干网络每个卷积阶段最后一层输出的特征图与高分辨率特征保持模块中提取的对应尺寸的特征图一起作为高分辨率特征保持模块下一步卷积阶段的输入。分辨率保持模型为高分辨率特征保持模块(也即模块2),在高分辨率特征保持模块融合特征提取骨干网络模块提取的不同尺寸特征的同时,采用类似HRNet的结构始终保持图像的高分辨率特征,避免下采样过程损失的高分辨率特征对最终特征提取带来的影响。高分辨率保持模块没有采用大部分高分辨率网络采用的上采样恢复高分辨率的串行结构,而是采用并行结构,从一个高分辨率子网开始,不断增加由高向低的分辨率子网,形成多个阶段,将多个子网并行连接,在始终保持头影图像的高分辨率特征的同时利用相同深度和相似水平的低分辨率特征增强高分辨率特征的表示,保证头影图像高分辨率信息不受损失,并行的多分辨率子网络反复交换信息,融合多尺度特征,适合处理X线片高分辨率图像。根据标志点定位任务的特点及头影X线片分辨率高的特点搭建了合适的高分辨率头影标志点定位神经网络模型。该模型可以始终保持图像的高分辨率特征,同时融合提取的多尺度的特征,保证图像特征的充分提取和利用,避免了下采样过程中损失的高分辨率特征对X线头影标志点定位结果的影响。
进一步地,本实施例中为了帮助神经网络模型充分学习,预先设定训练迭代轮数阈值,及损失函数。采用有监督训练的方式训练神经网络模型。高分辨率模型提取头影图像中不同尺度的特征,神经网络模型的最后一层卷积的输出为神经网络模型预测热图。计算损失函数衡量预测热图和真实热图的差距,根据损失函数不断更新模型的参数,直到达到预先训练迭代轮数阈值。将验证集中的每个头影图像输入到每轮训练的所述神经网络模型中,选择定位性能最优的所述神经网络模型作为第一预设定位网络模型。每一个像素点为一个监督信息,增加了许多监督样本,有利于更好地训练模型,增加了模型的空间泛化能力。
由于不同的头影标志点定位的难度不同,本步骤的损失函数采用常用的均方误差(MSE)损失函数,为了更好地定位不同定位难度的标志点,在损失函数中设置权重矩阵,加大模型对定位难度高的点的关注度,有利于更好地训练模型,提高模型的定位精度。其中,损失函数公式如下:
其中,K代表头影图像的标志点的数量,W代表真实热图的长度,H代表真实热图的宽度,代表均方误差损失,hi,j,k代表真实热图在(i,j)位置的值,代表预测热图在(i,j)位置的值,ak为第k个头影图像标志点的权重。
不同的头影测量任务所需标注的标志点的数量不同,为了满足不同医学标志点定位任务的需求,本实施例中的待定位数量、损失函数可单独设置,方便动态调整,有利于模型更好学习,提高X线头影定位网络模型的性能。
其中,真实热图也即标签,例如,在图像中对应的坐标处进行标记的标签。
步骤S200、将待定位的头影图像输入至第二预设定位网络模型中,得到第二定位热图。
在本步骤中,第二预设定位网络模型是通过训练集,基于监督学习的训练方法,利用第一耦合变换算法对神经网络模型进行迭代训练形成。第二预设定位网络模型对待定位的头影图像进行定位,得到第二定位热图,其第二预设定位网络模型中对待定位的头影图像的标志点与第一预设定位网络模型中对待定位的头影图像的标志点设置不同,通过两个定位网络模型,可实现对待定位头影图像的标志点定位更加精准。示例性的,其第二预设定位网络模型中可用于优化初始定位效果差的标志点的定位结果,通过将待标定的头影图像输入至第二预设定位网络中,根据对初始定位的标志点标记结果,通过第二预设定位网络对待标定的头影图像的标定结果进行优化,得到第二定位热图,进一步提高头影标志点定位的准确率。
图5示出了第二预设定位网络模型训练过程的流程示意图。
在一些实施例中,参照图5,所述第二预设定位网络的训练过程,包括:
将所述训练集中的每个头影图像输入至神经网络模型中,基于监督学习的训练方法,利用第一耦合变换算法对所述神经网络模型进行迭代训练,直至迭代轮数达到迭代轮数阈值,将验证集中的每个头影图像输入到每轮训练的所述神经网络模型中,选择定位性能最优的所述神经网络模型作为所述第二训练模型;其中,所述神经网络模型为由特征提取模块和分辨率保持模块搭建形成;
对于每一轮迭代训练执行如下操作:
步骤S201、获取当前头影图像的所有标志点,所述标志点包括标志点编号、标志点位置;
步骤S202、将当前头影图像进行水平镜像翻转,并将相邻的所述标志点编号组成数据对,将所述数据对内的标志点位置进行耦合变换,形成第一训练头影图像和所述第一训练头影图像对应的真实热图;
步骤S203、将所述第一训练头影图像输入至所述神经网络模型中,得到当前头影图像的第二预测热图;
步骤S204、利用损失函数计算当前图像对应的真实热图与所述第二预测热图的第二误差值,根据所述第二误差值调整所述神经网络模型的参数,将调整参数后的所述神经网络模型作为下一轮的神经网络模型。
具体地,在本实施例中,每个标志点的选取和定义都是基于一定的医学背景,含有特定的医学含义,示例性的,数字相邻的标志点在医学含义方面具有一定的联系和相似性,并且在几何位置关系上大部分数字相邻的标志点都存在解剖学上的对称关系,因此,这些标志点附近的图像纹理结构特征也有一定的联系。可见上述实施例带有编号的标志点处,相邻编号的标志点具有一定的联系和相似性。
示例性的,根据标志点数字编号的相邻性确定关联的头影标志点。头影标志点定位任务共包含19个标志点(可见上述实施例中举例的19个标志点),以50%的概率随机将头影图像和标志点进行水平对称翻转,同时,保持第19个标志点的位置不变,将剩余18个标志点按照数字上相邻的原则进行两两位置互换,高分辨率模型提取头影图像中不同尺度的特征,神经网络模型的最后一层卷积的输出为神经网络模型预测热图。计算损失函数衡量预测热图和真实热图的差距,根据损失函数不断更新神经网络模型的参数,直到达到预先训练迭代轮数阈值。将验证集中的每个头影图像输入到每轮训练的所述神经网络模型中,选择定位性能最优的所述神经网络模型作为所述第二预设定位网络模型;每一个像素点为一个监督信息,增加了许多监督样本,有利于更好地训练模型,增加了模型的空间泛化能力;且实现了头影标志点定位精度的针对性强化;节省了计算资源,提高了头影标志点定位的速度。其中,损失函数可采用第一预训练模型的损失函数;且本实施例中的预设迭代训练轮数可采用第一预训练模型设定的预设迭代训练轮数。
步骤S300、将待定位的头影图像输入至第三预设定位网络模型中,得到第三定位热图。
在本步骤中,第三预设定位网络模型是通过训练集,基于监督学习的训练方法,利用第二耦合变换算法对神经网络模型进行迭代训练形成。第三预设定位网络模型对待定位的头影图像进行定位,得到第三定位热图,其第三预设定位网络模型中对待定位的头影图像的标志点与第一预设定位网络模型和第二预设定位网络模型中对待定位的头影图像的标志点设置不同,通过三个定位网络模型,可实现对待定位头影图像的标志点定位更加精准。
示例性的,第三预设定位网络模型还可用于优化筛选出第二预设定位网络模型中定位效果没有达到阈值的投影标志点,其中,第二预设定位网络中定位效果没有达到阈值的投影标志点称为待优化标志点。通过将待标定的对应的头影图像输入至第三预设定位网络模型中,根据第二定位热图的标志点定位结果,通过第三预设定位网络对第二预设定位网络中的热图对应的标志点定位进行优化,生成新的热图,进一步提高头影标志点定位的准确率。
图6示出了第三预训练模型训练过程流程示意图。
在一些实施例中,参照图6,所述第三预设定位网络模型的训练过程,包括:
将所述训练集中的每个头影图像输入至所述神经网络模型中,基于监督学习的训练方法,利用第二耦合变换算法对神经网络模型进行迭代训练,直至迭代轮数达到迭代轮数阈值,将验证集中的每个头影图像输入到每轮训练的所述神经网络模型中,选择定位性能最优的所述神经网络模型作为所述第三预设定位网络模型;其中,所述神经网络模型为由特征提取模型和分辨率保持模型搭建形成;
对于每一轮迭代训练执行如下操作:
步骤S301、获取当前头影图像的所有标志点;
步骤S302、将当前头影图像进行水平镜像翻转,确定与待优化标志点的呈医学关系和几何位置关系的标志点集合;
步骤S303、根据所述医学关系和几何位置关系将所述标志点集合中的标志点的位置进行耦合变换,形成第二训练头影图像和所述第二训练头影图像对应的真实热图;
步骤S304、将所述训练集中的当前头影图像输入至所述神经网络模型中,得到当前头影图像的第三预测热图;
步骤S305、利用损失函数计算所述第二训练头影图像对应的真实热图与所述第三预测热图的第三误差值,根据所述第三误差值调整所述神经网络模型的参数,将调整参数后的所述神经网络模型作为下一轮的神经网络模型。
具体地,在本实施例中,根据筛选出来的待优化的头影标志点的医学含义,寻找与其联系密切的标志点;同时,观察待优化标志点与其他标志点的几何位置关系,检查是否存在与之成正三角形、水平对称或相对位置距离不变等特殊位置关系的标志点;根据医学关系和几何位置关系为每一个待优化的标志点确定耦合训练的标志点集合。医学关系采用示例说明,具体如:医学中对头影10号标志点的定义为下颌角点,即下颌支平面与下颌角平面交角的分角线与下颌角的交点。10号点和19号点的连线近似为定义中所述的下颌支平面,10号点和9号点的连线近似为定义中所述的下颌角平面,根据10号点的医学定义,9号点和19号点与10号点存在一定的医学关系。示例性的,头影标志点定位任务共包含19个标志点,以50%的概率随机将头影图像和标志点进行水平对称翻转,将该待测标志点与其对应的标志点集合中的标志点进行耦合变换,高分辨率模型提取头影图像中不同尺度的特征,神经网络模型的最后一层卷积的输出为神经网络模型预测热图。计算损失函数衡量预测热图和真实热图的差距,根据损失函数不断更新模型的参数,直到达到预先训练迭代轮数阈值。将验证集中的每个头影图像输入到每轮训练的所述神经网络模型中,选择定位性能最优的所述神经网络模型作为所述第三预设定位网络模型。每一个像素点为一个监督信息,增加了许多监督样本,有利于更好地训练模型,增加了模型的空间泛化能力;且实现了头影标志点定位精度的针对性强化;节省了计算资源,提高了头影标志点定位的速度。其中,损失函数可采用第一预训练模型的损失函数;且本实施例中的预设迭代训练轮数可采用第一预训练模型设定的预设迭代训练轮数。
步骤S400、根据预设标志点,将所述第一定位热图、第二定位热图和第三定位热图融合,形成目标定位热图。
在本步骤中,所述根据预设标志点,将所述第一定位热图、第二定位热图和第三定位热图融合,形成目标定位热图,包括:
根据预设标志点分别在所述第一定位热图、第二定位热图和第三定位热图中选择与预设标志点对应的定位最清晰的热图进行融合,形成所述目标定位热图。
具体地,包括根据预设标志点,在所述第一定位热图、第二定位热图和第三定位热图中选择与预设标志点对应的最清晰的定位标志点作为目标定位标志点;根据所述目标定位标志点,形成所述目标定位热图,以便于目标定位热图进行解码,得到头影图像对应的坐标,以便于对头影图像的标志点进行自动定位。
步骤S500、对所述目标定位热图进行解码,得到目标定位热图对应的坐标。
在本步骤中,所述对所述目标定位热图进行解码,包括:
根据热图解码公式对所述目标定位热图进行解码;所述热图解码公式为:
其中,为模型输出的定位热图,/>代表热图解码所得的头影标志点坐标。
具体地,通过对目标定位热图进行解码,可得到预设标志点的准确定位坐标,可根据头影测量标志点的坐标,对所述待测试的头影图像进行标记,得到标记好的头影图像。
进一步地,根据头影测量标志点的坐标,还原到原始X线头影中,完成头影标志点的定位与描绘,实现头影标志点定位的可视化,增强可读性,有利于辅助医生的诊断和制定治疗方案。
本申请中,基于神经网络和头影解剖学相关知识实现头影标测量志点的自动准确定位,神经网络模型的应用可以实现头影X线片的批量处理,减轻了医生的标注负担,提高头影测量的速度;同时,训练模型实现自动标注可以避免手工标注方法存在的医生个人主观性或标注工具带来的误差,提高头影标志点定位的精度。
需要说明的是,本申请实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本申请实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
需要说明的是,上述对本申请的一些实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于上述实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
基于同一发明构思,与上述任意实施例方法相对应的,本申请还提供了一种头影测量标志点自动定位装置。
图7示出了本申请实施例的一种头影测量标志点自动定位装置结构示意图。
参考图7,所述一种头影测量标志点自动定位装置,包括:
第一训练模块401,用于将待定位的头影图像输入至第一预设定位网络模型中,得到第一定位热图;
第二训练模块402,用于将待定位的头影图像输入至第二预设定位网络模型中,得到第二定位热图;
第三训练模块403,用于将待定位的头影图像输入至第三预设定位网络模型中,得到第三定位热图;
生成模块404,用于将所述第一定位热图、第二定位热图和第三定位热图融合,形成目标定位热图;
解码模块405,用于对所述目标定位热图进行解码,得到目标定位热图对应的坐标。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本申请时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
上述实施例的装置用于实现前述任一实施例中相应的一种头影测量标志点自动定位方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本申请还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上任意一实施例所述的一种头影测量标志点自动定位方法。
图8示出了本实施例所提供的一种更为具体的电子设备硬件结构示意图,该设备可以包括:处理器1010、存储器1020、输入/输出接口1030、通信接口1040和总线1050。其中处理器1010、存储器1020、输入/输出接口1030和通信接口1040通过总线1050实现彼此之间在设备内部的通信连接。
处理器1010可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
存储器1020可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1020中,并由处理器1010来调用执行。
输入/输出接口1030用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口1040用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线1050包括一通路,在设备的各个组件(例如处理器1010、存储器1020、输入/输出接口1030和通信接口1040)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器1010、存储器1020、输入/输出接口1030、通信接口1040以及总线1050,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
上述实施例的电子设备用于实现前述任一实施例中相应的一种头影测量标志点自动定位方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本申请还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上任一实施例所述的一种头影测量标志点自动定位方法。
本实施例的计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上任一实施例所述的一种头影测量标志点自动定位方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本申请的范围(包括权利要求)被限于这些例子;在本申请的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本申请实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本申请实施例难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本申请实施例难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本申请实施例的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本申请的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本申请实施例。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本申请的具体实施例对本申请进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本申请实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本申请实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种头影测量标志点自动定位方法,其特征在于,包括:
将待定位的头影图像输入至第一预设定位网络模型中,得到第一定位热图;
将待定位的头影图像输入至第二预设定位网络模型中,得到第二定位热图;
将待定位的头影图像输入至第三预设定位网络模型中,得到第三定位热图;
根据预设标志点,将所述第一定位热图、第二定位热图和第三定位热图融合,形成目标定位热图;
对所述目标定位热图进行解码,得到目标定位热图对应的坐标。
2.根据权利要求1所述的方法,其特征在于,所述第一预设定位网络模型的训练过程,包括:
将训练集中的每个头影图像输入至神经网络模型中,基于监督学习的训练方法对所述神经网络模型进行迭代训练,直至迭代轮数达到迭代轮数阈值,将验证集中的每个头影图像输入到每轮训练的所述神经网络模型中,选择定位性能最优的所述神经网络模型作为所述第一预设定位网络模型;其中,所述神经网络模型为由特征提取模块和分辨率保持模块搭建形成;
对于每一轮迭代训练执行如下操作:
将所述训练集中的当前头影图像输入至所述神经网络模型中,得到当前头影图像的第一预测热图;
利用损失函数计算当前图像对应的真实热图与所述第一预测热图的第一误差值,根据所述第一误差值调整所述神经网络模型的参数,将调整参数后的所述神经网络模型作为下一轮的神经网络模型。
3.根据权利要求1所述的方法,其特征在于,所述第二预设定位网络模型的训练过程,包括:
将所述训练集中的每个头影图像输入至神经网络模型中,基于监督学习的训练方法,利用第一耦合变换算法对所述神经网络模型进行迭代训练,直至迭代轮数达到迭代轮数阈值,将验证集中的每个头影图像输入到每轮训练的所述神经网络模型中,选择定位性能最优的所述神经网络模型作为所述第二训练模型;其中,所述神经网络模型为由特征提取模块和分辨率保持模块搭建形成;
对于每一轮迭代训练执行如下操作:
获取当前头影图像的所有标志点,所述标志点包括标志点编号、标志点位置;
将当前头影图像进行水平镜像翻转,并将相邻的所述标志点编号组成数据对,将所述数据对内的标志点位置进行耦合变换,形成第一训练头影图像和所述第一训练头影图像对应的真实热图;
将所述第一训练头影图像输入至所述神经网络模型中,得到当前头影图像的第二预测热图;
利用损失函数计算所述第一训练头影图像对应的真实热图与所述第二预测热图的第二误差值,根据所述第二误差值调整所述神经网络模型的参数,将调整参数后的所述神经网络模型作为下一轮的神经网络模型。
4.根据权利要求1所述的方法,其特征在于,所述第三预设定位网络模型的训练过程,包括:
将所述训练集中的每个头影图像输入至所述神经网络模型中,基于监督学习的训练方法,利用第二耦合变换算法对神经网络模型进行迭代训练,直至迭代轮数达到迭代轮数阈值,将验证集中的每个头影图像输入到每轮训练的所述神经网络模型中,选择定位性能最优的所述神经网络模型作为所述第三预设定位网络模型;其中,所述神经网络模型为由特征提取模块和分辨率保持模块搭建形成;
对于每一轮迭代训练执行如下操作:
获取当前头影图像的所有标志点;
将当前头影图像进行水平镜像翻转,确定与待优化标志点的呈医学关系和几何位置关系的标志点集合;
根据所述医学关系和几何位置关系将所述标志点集合中的标志点的位置进行耦合变换,形成第二训练头影图像和所述第二训练头影图像对应的真实热图;
将所述第二训练头影图像输入至所述神经网络模型中,得到当前头影图像的第三预测热图;
利用损失函数计算所述第二训练头影图像对应的真实热图与所述第三预测热图的第三误差值,根据所述第三误差值调整所述神经网络模型的参数,将调整参数后的所述神经网络模型作为下一轮的神经网络模型。
5.根据权利要求1所述的方法,其特征在于,所述训练集的获取过程,包括:
获取训练数据,对所述训练数据进行预处理,得到训练集。
6.根据权利要求5所述的方法,其特征在于,所述训练数据包括多张带有坐标标记点的初始头影图像;
所述对所述训练数据进行预处理,得到训练集,包括:
将所述初始头影图像中未有坐标标记点的部分进行裁剪,得到第一头影图像;
利用限制对比度自适应直方图均衡处理方法对所述第一头影图像进行处理,得到第二头影图像;
对所述第二头影图像进行增广处理,得到目标头影图像;
根据所述目标头影图像的所述坐标标记点,生成真实热图;
将所有所述目标头影图像、所述真实热图的尺寸进行调整,形成训练集。
7.根据权利要求6所述的方法,其特征在于,根据所述目标头影图像的所述坐标标记点,生成真实热图,包括:
获取所述坐标标记点的像素位置信息;
基于所述坐标标记点的像素位置信息,利用未归一化高斯函数生成真实热图。
8.根据权利要求7所述的方法,其特征在于,所述未归一化高斯函数为:
其中,Hk(i,j)是头影图像(i,j)像素位置为第k个标志点的置信度,(mk,nk)代表第k个标志点的真实坐标。
9.根据权利要求1所述的方法,其特征在于,所述对所述目标定位热图进行解码,包括:
根据热图解码公式对所述目标定位热图进行解码;所述热图解码公式为:
其中,为模型输出的定位热图,/>代表热图解码所得的头影标志点坐标。
10.根据权利要求1所述的方法,其特征在于,所述根据预设标志点,将所述第一定位热图、第二定位热图和第三定位热图融合,形成目标定位热图,包括:
根据预设标志点分别在所述第一定位热图、第二定位热图和第三定位热图中选择与预设标志点对应的定位最清晰的热图进行融合,形成所述目标定位热图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310876770.1A CN117152407A (zh) | 2023-07-17 | 2023-07-17 | 一种头影测量标志点自动定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310876770.1A CN117152407A (zh) | 2023-07-17 | 2023-07-17 | 一种头影测量标志点自动定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117152407A true CN117152407A (zh) | 2023-12-01 |
Family
ID=88885678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310876770.1A Pending CN117152407A (zh) | 2023-07-17 | 2023-07-17 | 一种头影测量标志点自动定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117152407A (zh) |
-
2023
- 2023-07-17 CN CN202310876770.1A patent/CN117152407A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021174939A1 (zh) | 人脸图像的获取方法与系统 | |
CN110956635B (zh) | 一种肺段分割方法、装置、设备及存储介质 | |
CN104978764B (zh) | 三维人脸网格模型处理方法和设备 | |
Wang et al. | Automatic analysis of lateral cephalograms based on multiresolution decision tree regression voting | |
US11557391B2 (en) | Systems and methods for human pose and shape recovery | |
WO2021189843A1 (zh) | Ct图像椎骨定位方法、装置、设备及介质 | |
CN109063584B (zh) | 基于级联回归的面部特征点定位方法、装置、设备及介质 | |
WO2023078309A1 (zh) | 目标特征点提取方法、装置、计算机设备和存储介质 | |
CN109584327B (zh) | 人脸老化模拟方法、装置以及设备 | |
WO2024011943A1 (zh) | 基于深度学习的膝关节髌骨置换三维术前规划方法及系统 | |
CN108320325A (zh) | 牙列模型的生成方法及装置 | |
CN112382359B (zh) | 患者注册方法、装置、电子设备及计算机可读介质 | |
CN113269862A (zh) | 场景自适应的精细三维人脸重建方法、系统、电子设备 | |
KR20160004865A (ko) | 치과 시술 시뮬레이션을 위한 얼굴모델 생성 방법 | |
CN112790879B (zh) | 一种牙齿模型的牙轴坐标系构建方法及系统 | |
CN113902851A (zh) | 一种人脸三维重建方法、装置、电子设备及存储介质 | |
CN108573192B (zh) | 匹配人脸的眼镜试戴方法和装置 | |
CN113241155B (zh) | 一种头颅侧位片中标志点的获取方法及系统 | |
CN113421333B (zh) | 牙齿局部坐标系确定方法和系统、设备及计算机存储介质 | |
CN112562070A (zh) | 基于模板匹配的颅缝早闭手术切割坐标生成系统 | |
CN113902853A (zh) | 一种人脸三维重建方法、装置、电子设备及存储介质 | |
CN109087357A (zh) | 扫描定位方法、装置、计算机设备及计算机可读存储介质 | |
CN110751026B (zh) | 视频处理方法及相关装置 | |
CN117152407A (zh) | 一种头影测量标志点自动定位方法 | |
WO2022233137A1 (zh) | 三维网格重建方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |