CN116721309A - 一种口腔语义模型训练方法、口腔锥形束ct图像的优化方法及装置 - Google Patents
一种口腔语义模型训练方法、口腔锥形束ct图像的优化方法及装置 Download PDFInfo
- Publication number
- CN116721309A CN116721309A CN202310695757.6A CN202310695757A CN116721309A CN 116721309 A CN116721309 A CN 116721309A CN 202310695757 A CN202310695757 A CN 202310695757A CN 116721309 A CN116721309 A CN 116721309A
- Authority
- CN
- China
- Prior art keywords
- cbct
- oral
- image
- acquiring
- oral cavity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 210000000214 mouth Anatomy 0.000 title claims abstract description 41
- 238000012549 training Methods 0.000 title claims abstract description 21
- 238000005457 optimization Methods 0.000 title description 4
- 238000007408 cone-beam computed tomography Methods 0.000 claims abstract description 117
- 230000011218 segmentation Effects 0.000 claims abstract description 38
- 230000003902 lesion Effects 0.000 claims abstract description 20
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 9
- 210000000988 bone and bone Anatomy 0.000 claims description 8
- 239000003086 colorant Substances 0.000 claims description 6
- 239000000463 material Substances 0.000 claims description 5
- 210000002569 neuron Anatomy 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 4
- 239000000945 filler Substances 0.000 claims description 3
- 238000002059 diagnostic imaging Methods 0.000 abstract description 2
- 208000004480 periapical periodontitis Diseases 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000011144 upstream manufacturing Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 208000019786 dental pulp disease Diseases 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003239 periodontal effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 210000001738 temporomandibular joint Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7753—Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种口腔语义模型训练方法、口腔锥形束CT图像的优化方法及装置,属于医学成像技术领域,包括:从预设二维CBCT图像集中获取若干连续的第一CBCT图像和若干连续的第二CBCT图像;根据所述第二CBCT图像获取对应的值分割图;获取所述第一CBCT图像中不变的提取特征以缩小口腔语义模型在所述第二CBCT图像对应的值分割图上的标记范围;将所述第二CBCT图像对应的值分割图输入口腔语义模型直到输出的模型损失值不再减小。本发明通过获取若干连续的第一CBCT图像和若干连续的第二CBCT图像,并根据第二CBCT图像获取对应的值分割图,提高了口腔语义模型对口腔中出现的各个区域识别的准确性,有助于对牙齿病变部位的识别。
Description
技术领域
本发明涉及一种口腔语义模型训练方法、口腔锥形束CT图像的优化方法及装置,属于医学成像技术领域。
背景技术
锥形束计算机断层扫描(CBCT)是一种以二维(2D)探测器为中心的锥形X射线束的医学图像采集技术。将源探测器系统围绕物体(病人)旋转一圈,以产生一系列二维图像,这些图像在三维(3D)数据集中可利用3D医学图像的软件(如:ITK-SNAP)重建。锥形束计算机断层扫描(CBCT)非常适合牙颌面部CT(锥形束CT)扫描。这项技术为牙科医生提供了执行特定诊断和临床任务的完整解决方案,包括种植规划、颞下颌关节评估、面部骨折、齿槽外科、正颌外科和牙周外科。根尖周炎是牙髓病的主要疾病。
在人工智能飞速发展的今天,出现了一些深度学习的方法,通过设计卷积神经网络模型,对锥形束CT进行语义分割,用于辅助牙科医生进行根尖周炎诊断。但现有的根尖周炎(病变)分割模型,如Unet、ResNet没有考虑根尖周炎在口腔中出现的区域灵活、大量无标记CBCT图像、连续CBCT图像的时空信息。在进行根尖周炎诊断标记时,这些方法用于临床诊断的精度有待提高。
发明内容
本发明的目的在于克服现有技术中的不足,提供一种口腔语义模型训练方法、口腔锥形束CT图像的优化方法及装置,能够对牙齿病变区域进行准确标记,降低病变被掩盖的可能性,有助于对牙齿病变部位的识别。
为达到上述目的/为解决上述技术问题,本发明是采用下述技术方案实现的:
第一方面,一种口腔语义模型训练方法,包括:
从预设二维CBCT图像集中获取若干连续的第一CBCT图像和若干连续的第二CBCT图像;
根据所述第二CBCT图像获取对应的值分割图;
获取所述第一CBCT图像中不变的提取特征以缩小口腔语义模型在所述第二CBCT图像对应的值分割图上的标记范围;
将所述第二CBCT图像对应的值分割图输入口腔语义模型直到输出的模型损失值不再减小。
进一步地,所述二维CBCT图像集的预设方法包括:
获取不同个体的口腔锥形束3D模型;
根据同一个体的口腔锥形束3D模型获取若干连续的CBCT截面图像作为二维CBCT图像集。
更进一步地,所述根据所述第二CBCT图像获取对应的值分割图的方法包括:
获取所述第二CBCT图像对应的个体口腔锥形束3D模型;
对个体口腔锥形束3D模型上的目标区域进行分类语义标记;
将目标区域中不同类别的语义标记添加不同的数值。
更进一步地,所述对个体口腔锥形束3D模型上的目标区域进行分类语义标记的方法包括:
对个体口腔锥形束3D模型上的目标区域添加不同的颜色,不同的颜色标记不同的语义信息;
其中,黑色代表背景;红色代表病变、蓝色代表骨骼、黄色充代表填材料及修复体、青色代表牙齿。
更进一步地,所述将目标区域中不同类别的语义标记添加不同的数值包括数值0~4;其中,0代表背景;1代表病变;2代表骨骼;3代表填充材料及修复体;4代表牙齿。
进一步地,所述获取所述第一CBCT图像中不变的提取特征以缩小口腔语义模型在所述第二CBCT图像对应的值分割图上的标记范围的方法包括:
依次获取相邻两张第一CBCT图像提取特征的对比损失;
根据相邻两张第一CBCT图像提取特征的对比损失获取序列损失,直到序列损失不再减小。
进一步地,所述对比损失函数为:
其中,Cii是对角项,用于指导神经元在不同的增强下产生相同的输出;Cij为互相关矩阵,
ZA和ZB分别为相邻的两张第一CBCT图像的提取特征;
i,j分别为相邻两张CBCT图像的特征像素点。
更进一步地,所述序列损失为:
其中,W为滑动窗口长度;为对比损失。
第二方面,一种口腔语义模型训练装置,包括:
第一获取模块,用于从预设二维CBCT图像集中获取若干连续的第一CBCT图像和若干连续的第二CBCT图像;
第二获取模块,用于根据所述第二CBCT图像获取对应的值分割图;
第一学习模块,用于获取所述第一CBCT图像中不变的提取特征以缩小口腔语义模型在所述第二CBCT图像对应的值分割图上的标记范围;
第二学习模块,用于将所述第二CBCT图像对应的值分割图输入口腔语义模型直到输出的模型损失值不再减小。
第三方面,一种口腔锥形束CT图像的优化方法,包括:
获取目标个体的待优化口腔锥形束CT图像;
将所述待优化口腔锥形束CT图像输入预先训练好的口腔语义模型中,获取带有标记的口腔锥形束CT图像;
所述口腔语义模型是通过上述的方法训练得到的。
与现有技术相比,本发明所达到的有益效果:
本发明通过获取若干连续的第一CBCT图像和若干连续的第二CBCT图像,并根据第二CBCT图像获取对应的值分割图,利用第一CBCT图像中不变的提取特征以缩小口腔语义模型在值分割图的标记范围,提高了口腔语义模型对口腔中出现的各个区域识别的准确性,能够对牙齿病变区域进行准确标记,降低病变被掩盖的可能性,有助于对牙齿病变部位的识别,解决了当前在进行根尖周炎诊断标记时,标记准确度低的问题。
附图说明
图1是本发明实施例提供的一种口腔语义模型训练方法的流程图;
图2是本发明实施例提供的一种口腔语义模型训练方法的口腔语义模型整体架构图;
图3是本发明实施例提供的一种口腔语义模型训练方法的自监督上游任务工作原理图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
实施例1
如图1所示,一种口腔语义模型训练方法,包括:
从预设二维CBCT图像集中获取若干连续的第一CBCT图像和若干连续的第二CBCT图像;其中,二维CBCT图像集的预设方法包括:
获取不同个体的口腔锥形束3D模型;
根据同一个体的口腔锥形束3D模型获取若干连续的CBCT截面图像作为二维CBCT图像集;具体的,从3D医学图像软件中,将每个个体的口腔锥形束3D模型截取为一系列二维CBCT矢状面(图像),本实例采用的3D医学图像软件为ITK-SNAP;
从预设二维CBCT图像集中获取到同一个体的第一CBCT图像的数量大于第二CBCT图像的数量,将若干连续的第一CBCT图像存入文件夹1中,将若干连续的第二CBCT图像存入文件夹2中,本实施例中,获取15张连续的第一CBCT图像,获取5张连续的第二CBCT图像。
根据第二CBCT图像获取对应的值分割图,具体的:
对文件1和文件夹2中的第一CBCT图像和第二CBCT图像进行标准化处理,标准化处理的公式为:
其中,I为图像像素点取值的均值;std为图像像素点取值的方差;y为标准化处理后的图像;i、j、k定位第i个通道、第j行、第k列的像素点;
x为图像的像素矩阵;n为通道数;r*c为图像的分辨率大小;
使用代码将经过标准化处理的CBCT图像统一为固定大小;
获取第二CBCT图像对应的个体口腔锥形束3D模型,具体的,在ITK-SNAP软件中,获取文件夹2中5张连续的第二CBCT图像对应的个体口腔锥形束3D模型切面,对根尖周病变相关区域以种子点阈值增长和人工核对来实现半自动化分割标记和校准;
对个体口腔锥形束3D模型上的根尖周病变相关区域进行分类语义标记;具体的,对个体口腔锥形束3D模型上的根尖周病变相关区域添加不同的颜色,不同的颜色标记不同的语义信息;其中,黑色代表背景;红色代表病变、蓝色代表骨骼、黄色充代表填材料及修复体、青色代表牙齿;
将根尖周病变相关区域中不同类别的语义标记添加不同的数值包括数值0~4;其中,0代表背景;1代表病变;2代表骨骼;3代表填充材料及修复体;4代表牙齿;得到与第二CBCT图像对应的值分割图,将值分割图存入文件夹2的子目录2中;将5张连续的第二CBCT图像重新存入文件夹2的子目录1中,子目录1中5张连续的第二CBCT图像为未经语义标记的图像,即CBCT原图;
将文件夹2中的图像进行数据增强,使数量扩充为原来的10倍;数据增强方法有:缩小0.8倍、缩小0.9倍、放大1.1倍、放大1.2倍、顺时针旋转5度、顺时针旋转10度、逆时针旋转5度、逆时针旋转10度、左右翻转;增强后的图像统一为文件夹2中图像的同样大小;
口腔语义模型包括Unet编码器、上游任务序列学习机制、Unet解码器、注意力机制、下游任务序列学习机制:
将文件夹1中的15张连续的第一CBCT图像作为用于自监督上游任务学习的第一数据集;设置学习率、迭代次数和滑动窗口大小、批量大小等参数;
将文件夹2中的5张连续的第二CBCT图像和5张连续的值分割图作为用于自监督下游任务学习的第二数据集,将第二数据集划分为训练集、验证集和测试集;设置学习率、迭代次数和滑动窗口大小、批量大小等参数。
获取第一CBCT图像中不变的提取特征以缩小口腔语义模型在第二CBCT图像对应的值分割图上的标记范围,具体的:
如图3所示,依次获取相邻两张第一CBCT图像提取特征的对比损失;其中,Unet编码器用于对第一数据集进行特征提取,它由几个重复的块组成,每一个块包括卷积操作层和池化(下采样)层以及激活函数,即每一个块重复应用两个3x3卷积,一个校正的线性单元(ReLU)和一个2x2最大池化层;
使用上述Unet编码器,共享此编码器相同参数和权重,通过对比式的自监督学习,以学习同一个体连续的第一CBCT图像中不变的特征;根据有效编码假设,即神经元可以通过减少神经元之间冗余的尖峰码进行通信,通过同一个体连续的图像间对比式的自监督学习,共享Unet编码器可以学习到同一个体连续的第一CBCT图像中相似的非冗余的信息,从而缩小要标记的特征范围,更有效定位分割位置;
根据相邻两张第一CBCT图像提取特征的对比损失获取序列损失,直到序列损失不再减小;
对比损失函数为:
其中,Cii是对角项,用于指导神经元在不同的增强下产生相同的输出;Cij为互相关矩阵,
ZA和ZB分别为相邻的两张第一CBCT图像的提取特征;
i,j分别为相邻两张CBCT图像的特征像素点。
序列损失为:
其中,W为滑动窗口长度;比如滑动窗口长度为5,代表相邻两张连续的图像有4对;k为第k对;为每对的对比损失。
将第二CBCT图像对应的值分割图输入口腔语义模型直到输出的模型损失值不再减小;具体的,对自监督下游任务计算输出损失,并将损失反向传播以更新模型参数,损失函数为:
其中,M为分割类别(背景、病变、骨骼、充填材料及修复体、牙齿5个类别),c为分割类别c;yic为符号函数(0或1),如果观测样本像素点i属于分割类别c,则符号函数取1,否则取0;pic为观测样本像素点i属于分割类别c的预测概率。
直到模型收敛且保证没有过拟合,即可完成训练,保证没有过拟合的方法为将第二数据集中的验证集Dice分数与训练集损失值进行比较;Dice分数可表示为:
其中,图像分割标准Dice系数的取值范围为0-1,越接近1说明构建的模型越好,pred是像素点的预测值,true是真实标签值。
如图2所示,自监督下游任务序列学习机制:选取同一个体滑动窗口大小张连续的图像,这些图像来自于文件夹2,使用上述自监督上游任务预训练过的Unet编码器,并使用带有ConvGRU单元和注意力机制的Unet解码器对Unet编码器提取到的特征进行解码;ConvGRU参数效率高、门控单元简洁,可自适应地学习同一病人滑动窗口大小张连续图像的长期和短期的序列信息;在数学上,ConvGRU被定义为:
zt=σ(ωzx*xt+ωzh*ht-1+bz);
rt=σ(ωrx*xt+ωrh*ht-1+br);
ot=tanh(ωox*xt+ωoh*(rt⊙ht-1)+bo;
ht=zt⊙ht-1+(1-zt)⊙ot;
其中,运算符*和⊙代表卷积和元素积;
tanh和σ分别代表双曲正切函数和sigmoid函数;
ω和b是卷积核和偏差项;
隐藏状态ht被用作输出和下一时间步的循环状态ht-1;
初始循环状态h0是一个全零张量。
Unet解码器的输入为Unet编码器的输出特征,它由几个重复的块组成,每一个块包括反卷积层(上采样)、重复应用两个3x3卷积以及与左侧相同的激活函数组成;每一层输出的CBCT图像特征映射与同层编码器的上一层的特征映射进行拼接;在最后一层,使用1x1卷积将每个分量特征向量映射到所需的分割类别数(背景、病变、骨骼、充填材料及修复体、牙齿5个类别);
注意力机制:注意力机制的关键在于注意力门(AG)的设计,Unet解码器某层特征图g与其上一层的Unet编码部分特征图xl作为AG的输入;g层次更深,分辨率更低,通道数更多,xl层次更浅,对CBCT图像识别的分辨率更高;g与xl通过AG后,将他们的结果进行拼接,更好学到CBCT图像低级特征与高级特征;由于g为xl的下一层,尺寸大小是xl的一半,为了节省计算开销,对xl进行下采样;拼接结果进入ReLU层,sigmoid操作,通过resampler(重采样)得到注意力系数(权重)α。最后将α×xl得到从而抑制CBCT图像特征空间中的不相关区域,突出CBCT图像特定局部区域的显著特征。
实施例2
一种口腔语义模型训练装置,包括:
第一获取模块,用于从预设二维CBCT图像集中获取若干连续的第一CBCT图像和若干连续的第二CBCT图像;
第二获取模块,用于根据第二CBCT图像获取对应的值分割图;
第一学习模块,用于获取第一CBCT图像中不变的提取特征以缩小口腔语义模型在第二CBCT图像对应的值分割图上的标记范围;
第二学习模块,用于将第二CBCT图像对应的值分割图输入口腔语义模型直到输出的模型损失值不再减小。
实施例3
一种口腔锥形束CT图像的优化方法,包括:
获取目标个体的待优化口腔锥形束CT图像;
将待优化口腔锥形束CT图像输入预先训练好的口腔语义模型中,获取带有标记的口腔锥形束CT图像;
口腔语义模型是通过上述的方法训练得到的。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (10)
1.一种口腔语义模型训练方法,其特征在于,包括:
从预设二维CBCT图像集中获取若干连续的第一CBCT图像和若干连续的第二CBCT图像;
根据所述第二CBCT图像获取对应的值分割图;
获取所述第一CBCT图像中不变的提取特征以缩小口腔语义模型在所述第二CBCT图像对应的值分割图上的标记范围;
将所述第二CBCT图像对应的值分割图输入口腔语义模型直到输出的模型损失值不再减小。
2.根据权利要求1所述的口腔语义模型训练方法,其特征在于,所述二维CBCT图像集的预设方法包括:
获取不同个体的口腔锥形束3D模型;
根据同一个体的口腔锥形束3D模型获取若干连续的CBCT截面图像作为二维CBCT图像集。
3.根据权利要求2所述的口腔语义模型训练方法,其特征在于,所述根据所述第二CBCT图像获取对应的值分割图的方法包括:
获取所述第二CBCT图像对应的个体口腔锥形束3D模型;
对个体口腔锥形束3D模型上的目标区域进行分类语义标记;
将目标区域中不同类别的语义标记添加不同的数值。
4.根据权利要求3所述的口腔语义模型训练方法,其特征在于,所述对个体口腔锥形束3D模型上的目标区域进行分类语义标记的方法包括:
对个体口腔锥形束3D模型上的目标区域添加不同的颜色,不同的颜色标记不同的语义信息;
其中,黑色代表背景;红色代表病变、蓝色代表骨骼、黄色充代表填材料及修复体、青色代表牙齿。
5.根据权利要求4所述的口腔语义模型训练方法,其特征在于,所述将目标区域中不同类别的语义标记添加不同的数值包括数值0~4;其中,0代表背景;1代表病变;2代表骨骼;3代表填充材料及修复体;4代表牙齿。
6.根据权利要求1所述的口腔语义模型训练方法,其特征在于,所述获取所述第一CBCT图像中不变的提取特征以缩小口腔语义模型在所述第二CBCT图像对应的值分割图上的标记范围的方法包括:
依次获取相邻两张第一CBCT图像提取特征的对比损失;
根据相邻两张第一CBCT图像提取特征的对比损失获取序列损失,直到序列损失不再减小。
7.根据权利要求6所述的口腔语义模型训练方法,其特征在于,所述对比损失函数为:
其中,Cii是对角项,用于指导神经元在不同的增强下产生相同的输出;Cij为互相关矩阵,
ZA和ZB分别为相邻的两张第一CBCT图像的提取特征;
i,j分别为相邻两张CBCT图像的特征像素点。
8.根据权利要求6所述的口腔语义模型训练方法,其特征在于,所述序列损失为:
其中,W为滑动窗口长度;为对比损失。
9.一种口腔语义模型训练装置,其特征在于,包括:
第一获取模块,用于从预设二维CBCT图像集中获取若干连续的第一CBCT图像和若干连续的第二CBCT图像;
第二获取模块,用于根据所述第二CBCT图像获取对应的值分割图;
第一学习模块,用于获取所述第一CBCT图像中不变的提取特征以缩小口腔语义模型在所述第二CBCT图像对应的值分割图上的标记范围;
第二学习模块,用于将所述第二CBCT图像对应的值分割图输入口腔语义模型直到输出的模型损失值不再减小。
10.一种口腔锥形束CT图像的优化方法,其特征在于,包括:
获取目标个体的待优化口腔锥形束CT图像;
将所述待优化口腔锥形束CT图像输入预先训练好的口腔语义模型中,获取带有标记的口腔锥形束CT图像;
所述口腔语义模型是通过上述权利要求1~8任一项所述的方法训练得到的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310695757.6A CN116721309A (zh) | 2023-06-13 | 2023-06-13 | 一种口腔语义模型训练方法、口腔锥形束ct图像的优化方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310695757.6A CN116721309A (zh) | 2023-06-13 | 2023-06-13 | 一种口腔语义模型训练方法、口腔锥形束ct图像的优化方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116721309A true CN116721309A (zh) | 2023-09-08 |
Family
ID=87864240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310695757.6A Pending CN116721309A (zh) | 2023-06-13 | 2023-06-13 | 一种口腔语义模型训练方法、口腔锥形束ct图像的优化方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116721309A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110311116A1 (en) * | 2010-06-17 | 2011-12-22 | Creighton University | System and methods for anatomical structure labeling |
CN113628223A (zh) * | 2021-08-05 | 2021-11-09 | 杭州隐捷适生物科技有限公司 | 基于深度学习的牙科cbct三维牙齿分割方法 |
US20210365736A1 (en) * | 2020-05-15 | 2021-11-25 | Retrace Labs | Dental Image Quality Prediction Platform Using Domain Specific Artificial Intelligence |
CN114330367A (zh) * | 2021-12-30 | 2022-04-12 | 科大讯飞股份有限公司 | 一种基于句子的语义相似度获得方法、装置以及设备 |
US20220122255A1 (en) * | 2019-12-19 | 2022-04-21 | Brainlab Ag | Medical image analysis using machine learning and an anatomical vector |
WO2023077816A1 (zh) * | 2021-11-03 | 2023-05-11 | 中国华能集团清洁能源技术研究院有限公司 | 边界优化的遥感图像语义分割方法、装置、设备及介质 |
-
2023
- 2023-06-13 CN CN202310695757.6A patent/CN116721309A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110311116A1 (en) * | 2010-06-17 | 2011-12-22 | Creighton University | System and methods for anatomical structure labeling |
US20220122255A1 (en) * | 2019-12-19 | 2022-04-21 | Brainlab Ag | Medical image analysis using machine learning and an anatomical vector |
US20210365736A1 (en) * | 2020-05-15 | 2021-11-25 | Retrace Labs | Dental Image Quality Prediction Platform Using Domain Specific Artificial Intelligence |
CN113628223A (zh) * | 2021-08-05 | 2021-11-09 | 杭州隐捷适生物科技有限公司 | 基于深度学习的牙科cbct三维牙齿分割方法 |
WO2023077816A1 (zh) * | 2021-11-03 | 2023-05-11 | 中国华能集团清洁能源技术研究院有限公司 | 边界优化的遥感图像语义分割方法、装置、设备及介质 |
CN114330367A (zh) * | 2021-12-30 | 2022-04-12 | 科大讯飞股份有限公司 | 一种基于句子的语义相似度获得方法、装置以及设备 |
Non-Patent Citations (2)
Title |
---|
NUHAD A HASSAN等: "CBCT Analysis of Edentulous Mandibular Symphysis in Iraqi Patients for Treatment with Implant-Supported Overdentures, Cross-Sectional Singlr-Center Study", 《CLINICAL, COSMETIC AND INVESTIGATIONAL DENTISTRY》, 3 May 2023 (2023-05-03), pages 79 - 86 * |
邹旭: "图像关键点检测方法与应用研究", 《中国博士学位论文全文数据库信息科技辑》, 15 February 2023 (2023-02-15), pages 138 - 124 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108648172B (zh) | 一种基于3D-Unet的CT图肺结节检测系统 | |
US20210322136A1 (en) | Automated orthodontic treatment planning using deep learning | |
CN108921851B (zh) | 一种基于3d对抗网络的医学ct图像分割方法 | |
US10991091B2 (en) | System and method for an automated parsing pipeline for anatomical localization and condition classification | |
CN107203989A (zh) | 基于全卷积神经网络的端对端胸部ct图像分割方法 | |
Kumar et al. | Descriptive analysis of dental X-ray images using various practical methods: A review | |
CN113744275B (zh) | 一种基于特征变换的三维cbct牙齿图像的分割方法 | |
CN110246580A (zh) | 基于神经网络和随机森林的颅侧面影像分析方法和系统 | |
CN114926470A (zh) | 一种基于深度学习的阻生齿医学图像分割系统和方法 | |
Al Nassan et al. | A customized convolutional neural network for dental bitewing images segmentation | |
Salunke et al. | Customized convolutional neural network to detect dental caries from radiovisiography (RVG) images | |
AU2021100684A4 (en) | DEPCADDX - A MATLAB App for Caries Detection and Diagnosis from Dental X-rays | |
CN113554607A (zh) | 一种牙体检测模型、生成方法及牙体分割方法 | |
Hossain et al. | Cavit: Early stage dental caries detection from smartphone-image using vision transformer | |
CN117153394A (zh) | 一种预测恒牙发育的方法及系统 | |
CN116721309A (zh) | 一种口腔语义模型训练方法、口腔锥形束ct图像的优化方法及装置 | |
CN115761226A (zh) | 一种口腔影像分割识别方法、装置、电子设备和存储介质 | |
Brahmi et al. | Exploring the role of Convolutional Neural Networks (CNN) in dental radiography segmentation: A comprehensive Systematic Literature Review | |
Chin et al. | Dentition labeling and root canal recognition using ganand rule-based system | |
Almalki et al. | Denoised encoder-based residual U-net for precise teeth image segmentation and damage prediction on panoramic radiographs | |
Sousa et al. | Learning to segment the lung volume from CT scans based on semi-automatic ground-truth | |
Hossen et al. | Object Detection on Dental X-ray Images Using Region-Based Convolutional Neural Networks | |
CN113822904B (zh) | 一种图像标注装置、方法及可读存储介质 | |
Khaleghi et al. | Neural network performance evaluation of simulated and genuine head-and-neck computed tomography images to reduce metal artifacts | |
CN116975779A (zh) | 基于神经网络的口腔全景片特征识别方法、系统及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |