CN113313722B - 一种牙根图像交互标注方法 - Google Patents
一种牙根图像交互标注方法 Download PDFInfo
- Publication number
- CN113313722B CN113313722B CN202110648218.8A CN202110648218A CN113313722B CN 113313722 B CN113313722 B CN 113313722B CN 202110648218 A CN202110648218 A CN 202110648218A CN 113313722 B CN113313722 B CN 113313722B
- Authority
- CN
- China
- Prior art keywords
- loss function
- interaction
- segmentation
- labeling
- root image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种牙根图像交互标注方法,具体内容为:输入原始的牙根图像;在牙根图像的牙根顶部增加一个交互点,用于自动分割的初始定位;将交互点和原始的牙根图像一起输入基于U‑Net的带有改进后损失函数的神经网络,进行自动分割,得到分割结果,作为标注结果。本发明通过改进后的损失函数,使得神经网络在分割预测时更加关注到交互点,同时更加关注到预测分割得到的形状信息,从而得到牙根图像更准确的自动分割结果,以达到交互标注更好地辅助标注人员完成标注工作。本发明通过对自动分割神经网络的损失函数进行改进,使得神经网络更好的完成自动分割并辅助完成标注工作。
Description
技术领域
本发明涉及牙根图像交互标注网络领域,具体涉及一种牙根图像交互标注方法。
背景技术
根管治疗主要针对牙齿内部,是治疗急性牙髓炎最有效的一种治疗方法。通过清除牙髓腔内的坏死组织,接着在消毒后重新填充牙髓腔,以解除病变组织对牙神经的压迫刺激,并且防止牙齿的情况进一步恶化。牙龈根管填充会存在过长,过短和恰好三种情况,在医学领域分别被称为冲,恰和嵌,不恰当的填充结果会造成不可估量的后期影响。目前,医学领域对于根管填充状态的评判任然依赖于医师的个人判断,一方面,人工判断的错误概率无法得到保证,另一方面,检测的速度慢,效率低下,占用医师的治疗时间。
而医学图像分割目的是将医学图像中具有某些特殊含义的部分分割出来,提取相关特征,为临床诊疗和病理学研究提供可靠的依据,辅助医生作更为准确的诊断。
图像分割为了获得高质量的图像分割结果,通常需要用户提供三分图或者用户交互性的输入前景和背景线条,随后通过建立最优化模型传播信息到整个图像,从而完成图像分割。目前牙根图像分割受到多重因素的影响:(1)医生时间和精力的大量投入;(2)牙根与组织之间界限的模糊不清;(3)人体头部骨骼对牙根图像的影响等,极大的导致人力和资源的消耗,并且无法保证图像分割的准确率。
发明内容
本发明的目的是为了克服现有技术存在的缺点和不足,而提供一种牙根图像交互标注方法,以解决上述背景技术中提出的问题。
本发明具体是基于对医学图像分类领域的经典U-Net网络加以损失函数上的改进,使得神经网络更好的辅助完成针对牙根图像的标注工作。
一种牙根图像交互标注方法,包括如下步骤:
S1、输入原始的牙根图像;
S2、在牙根图像的牙根顶部增加一个交互点,用于自动分割的初始定位;
S3、将步骤S2中的交互点和原始的牙根图像一起输入基于U-Net的带有改进后损失函数的神经网络,进行自动分割,得到分割结果,作为标注结果。
步骤S1中,所述的原始的牙根图像包括牙根。
步骤S3中,所述的基于U-Net的带有改进后损失函数的神经网络包括:U-Net网络和改进后损失函数。
将步骤S2中的交互点和原始的牙根图像一起输入基于U-Net的带有改进后损失函数的神经网络,进行自动分割,得到分割结果,具体包括:
S3.1、计算U-Net网络预测的分割结果的最高点和步骤S2中的交互点(即牙根的最高点)的欧式距离。
S3.2、计算U-Net网络预测的分割结果的轮廓形状和标准分割结果的轮廓形状的傅里叶描述子差值;
S3.3、将S3.1得到的欧式距离和S3.2得到的傅里叶描述子差值计算得出改进后损失函数;
S3.4、通过步骤S3.3的改进后的损失函数迭代训练U-Net网络,得到U-Net网络的参数值;
S3.5通过步骤S3.4确定的U-Net网络的参数值,对新输入带交互点的牙根图像通过U-Net网络进行自动分割,作为标注结果。
步骤S3.3中,改进后损失函数为:
loss表示改进后获得的最终损失函数,crossentropyloss表示交叉熵损失函数,α和β为比例系数,根据实际情况选取,Distance为交互点与U-Net网络分割结果的最高点的欧氏距离,ΔZ(k)表示傅里叶描述子的差值,k表示变量,用于输出闭合曲线不同位置的形状信息。
本发明通过的改进后的损失函数,使得神经网络在分割预测时更加关注到交互点,同时更加关注到预测分割得到的形状信息,从而得到牙根图像更准确的自动分割结果。
与现有技术相比,本发明具有如下优点:
本发明通过改进后的损失函数,使得神经网络在分割预测时更加关注到交互点,同时更加关注到预测分割得到的形状信息,从而得到牙根图像更准确的自动分割结果,以达到交互标注更好地辅助标注人员完成标注工作。本发明通过对自动分割神经网络的损失函数进行改进,使得神经网络更好的完成自动分割并辅助完成标注工作。
附图说明
图1是本发明牙根图像交互标注方法的流程图;
图2是本发明具体过程的描述图;
图3是本发明最高点和交互点距离的示意图;
图4是本发明损失函数的优化图;
图5是本发明的网络和U-Net网络不同评价标准的结果对比图;
图6是本发明的网络和U-Net网络以及人工标注的分割结果对比图。
具体实施方式
如图1所示,一种牙根图像交互标注方法,包括如下步骤:
S1、输入原始图像。
S2、在牙根顶部增加一个交互点,用于后续分割的初始定位。
S3、将步骤S2中的交互点和原始图像一起输入基于U-Net的带有改进后损失函数的神经网络,进行自动分割。
S4、计算神经网络预测的分割结果的最高点和交互点(即牙根的最高点)的距离。
S5、计算神经网络预测的分割结果的轮廓形状和标准分割结果的轮廓形状的傅里叶描述子差值。
S6、将S4和S5得到的新的距离损失和形状差值损失与交叉熵损失相乘得到新的损失函数,即为改进后的损失函数。
S7、通过步骤S6的改进后的损失函数。使得神经网络在分割预测时更加关注到交互点,同时更加关注到预测分割得到的形状信息,从而得到牙根图像更准确的自动分割结果。
在S2中,对原始图像增加了一个头部顶点的标注,用于后续分割的初始定位,实现交互标注。
在S3中,输入网络的图像由原始图像改进为原始图像(三通道)和交互点(单通道)输入。
在S4中,计算神经网络预测的分割结果的最高点和交互点(即牙根的最高点)的距离提供定位,并且与比例系数α相乘将距离结果映射在0~10之间。
在S5中,提取神经网络预测的分割结果的轮廓形状和标准分割结果的轮廓形状,计算神经网络预测的分割结果的轮廓形状和标准分割结果的轮廓形状的傅里叶描述子差值限制预测分割图像的形状,并且与比例系数β相乘使得结果映射在0~10之间。
在S6中,实现了更加关注交互点和预测分割形状信息的损失函数,具体的模型方法为:
定位方法:
设神经网络预测的分割结果的最高点为A,初始坐标为(xA,yA),交互点为B,初始坐标为(xB,yB),可以得到最高点距离公式,Distance表示A,B两点的欧氏距离:
并且通过与比例系数相乘将结果映射在0~10之间,α即为比例系数(α>0):
得到的D即为距离损失。
限制形状方法:
一维边界轮廓曲线坐标序列的傅里叶变化如下:
k:变量,用于输出闭合曲线不同位置的形状信息
N:在一个闭合曲线上所取的样本点个数
z(n):单个样本点坐标
j:虚数单位
Z(k):闭合曲线取值k处的形状信息
设神经网络预测的分割结果的轮廓形状的傅里叶描述子为ZA(k),标准分割结果的轮廓形状的傅里叶描述子为ZB(k),可以得到傅里叶描述子的差值ΔZ(k),ΔZ(k)的表达式为:
ΔZ(k)=|ZA(k)-ZB(k)|
并且通过与比例系数相乘将结果映射在0~10之间,β即为比例系数(β>0):
得到的Z即为形状差值损失。
损失函数:
设改进前损失函数为交叉熵损失函数(crossentropyloss),改进后损失函数为loss:
如图2所示,网络具体方法为:
1)输入原始图像,在牙根顶部增加一个交互点,用于后续分割的初始定位。
2)将步骤1)中的交互点和原始图像一起输入基于U-Net的带有改进后损失函数的神经网络,进行自动分割。
交互点作为一个单独图片和原始图像一块输入(标注点的图片是单通道的,原图三通道),共四通道输入网络。
网络结构可以看成两个部分:
1.Encoder:通过卷积和下采样来降低图像尺寸提取一些浅显的特征;
2.Decoder:通过卷积和上采样来获取一些深层次的特征;
3.损失函数:通过最高点和交互点距离与傅里叶描述子差值实现,增加网络对有用信息的关注。
使神经网络在分割预测增加对交互点和预测分割得到的形状信息的关注,每个批次的训练数据送入模型后,通过前向传播输出预测值,损失函数会计算出预测值和真实值之间的差异值(损失值)。得到损失值之后,模型通过反向传播更新各个参数,降低真实值与预测值之间的损失,使得模型生成的预测值往真实值方向靠拢。
3)计算神经网络预测的分割结果的最高点和交互点(即标准分割结果的最高点)的距离。
如图3所示,为最高点和交互点距离示意图。设神经网络预测的分割结果的最高点为A,初始坐标为(xA,yA),交互点为B,初始坐标为(xB,yB),可以得到最高点距离公式,Distance表示A,B两点的欧氏距离:
并且通过与比例系数相乘将结果映射在0~10之间,α即为比例系数(α>0):
得到的D即为距离损失。
通过对损失函数的这一步改进,训练模型可以更好的关注头部顶点,通过减少标准和预测的距离大小D,起到对自动分割图像的定位作用。
4)提取神经网络预测的分割结果的轮廓形状和标准分割结果的轮廓形状,计算神经网络预测的分割结果的轮廓形状和标准分割结果的轮廓形状的傅里叶描述子差值。如图4所示,为损失函数优化图。
首先,我们设定物体的形状轮廓是一条闭合的曲线,沿边界曲线均匀取N个点,假定其中一个点为z(n),n=0,1,......,N-1,它的复数形式的坐标为z(n)=x(n)+iy(n),n=0,1,......,N-1,当N取足够大时,傅里叶描述子能够完全提取形状信息,并恢复物体的形状,它的周期是这个闭合曲线的周长。该以曲线周长作为周期的函数能够通过傅里叶级数表示。在傅里叶级数里面的多个系数Z(k)与闭合边界曲线的形状有着直接关系,将其定义为傅里叶描述子。
我们知道傅里叶系数有一个特性就是能量向低频集中,所以,仅根据少数的参数值便能够对各个物体的边缘线进行确定,以完成物体形状特征的识别与判断。傅里叶描述子与边界轮廓曲线的起始点位置,形状的大小,方向有着直接关系的。为此我们需要归一化初步得到的傅里叶描述子,进而使傅里叶描述子具有旋转,平移和尺度变换不变性的特性:
一维边界轮廓曲线坐标序列的傅里叶变化如下;
k:变量,用于输出闭合曲线不同位置的形状信息
N:在一个闭合曲线上所取的样本点个数
z(n):单个样本点坐标
j:虚数单位
Z(k):闭合曲线取值k处的形状信息
设神经网络预测的分割结果的轮廓形状的傅里叶描述子为ZA(k),标准分割结果的轮廓形状的傅里叶描述子为ZB(k),可以得到傅里叶描述子的差值:
ΔZ(k)=|ZA(k)-ZB(k)|
并且通过与比例系数相乘将结果映射在0~10之间,β即为比例系数(β>0):
得到的Z即为形状差值损失。
通过对损失函数的这一步改进,训练模型可以更好的将标准分割图像和预测分割图像的形状差值计入损失函数,限制预测分割图像的形状,得到更贴近的分割结果。
5)在原有的损失函数中加入通过步骤3)的神经网络预测的分割结果的最高点和交互点的距离与通过步骤4)的傅里叶描述子差值,得到损失函数。设改进前损失函数为交叉熵损失函数(cross entropy loss),改进后损失函数为
6)通过步骤5)的改进后的损失函数,使得神经网络在分割预测时更加关注到交互点,同时更加关注到预测分割得到的形状信息,从而得到牙根图像更准确的自动分割结果,以达到交互标注更好地辅助标注人员完成标注工作。
如图2所示,为本发明具体过程的描述图,其中,分割结果A是未经修改损失函数U-Net网络的分割结果,可以观察到其与原始图像真实的分割结果相差较大,而分割结果B是修改了损失函数U-Net网络的分割结果,可以观察到其与原始图像真实的分割结果比较相近。
如图5所示,为本发明的网络和U-Net网络不同评价标准的结果对比图,其中,评价指标有准确率(ACC),敏感性(se),特异性(sp),F1分数(f1),jaccard相似系数(js),骰子系数(dc)。由图表可知修改了损失函数的(交互标注方法)网络的所有指标都优于未修改的(U-Net)网络。
如图6所示,为本发明的网络和U-Net网络以及人工标注的分割结果对比图,其中,第一列图像为人工标注的分割结果,第二列图像为U-Net网络的分割结果,第三列图像为本发明网络的分割结果。并共计有5组对比图。由图表可知,本发明网络的分割结果相较于U-Net网络的分割结果更接近于人工标注的分割结果。
以上所述的本发明的实施方式,并不构成对本发明保护范围的限定。任何在本发明的精神原则之内所作出的修改、等同替换和改进等,均应包含在本发明的权利要求保护范围之内。
Claims (3)
1.一种牙根图像交互标注方法,其特征在于,包括如下步骤:
S1、输入原始的牙根图像;
S2、在牙根图像的牙根顶部增加一个交互点,用于自动分割的初始定位;
S3、将步骤S2中的交互点和原始的牙根图像一起输入基于U-Net的带有改进后损失函数的神经网络,进行自动分割,得到分割结果,作为标注结果,具体包括:
S3.1、计算U-Net网络预测的分割结果的最高点和步骤S2中的交互点的欧式距离;
S3.2、计算U-Net网络预测的分割结果的轮廓形状和标准分割结果的轮廓形状的傅里叶描述子差值;
S3.3、将S3.1得到的欧式距离和S3.2得到的傅里叶描述子差值计算得出改进后损失函数;
改进后损失函数loss为:
crossentropyloss表示交叉熵损失函数,α和β为比例系数,根据实际情况选取,Distance为交互点与U-Net网络分割结果的最高点的欧氏距离,
ΔZ(k)表示傅里叶描述子的差值,k表示变量;
S3.4、通过步骤S3.3的改进后的损失函数迭代训练U-Net网络,得到U-Net网络的参数值;
S3.5通过步骤S3.4确定的U-Net网络的参数值,对新输入带交互点的牙根图像通过U-Net网络进行自动分割,作为标注结果。
2.根据权利要求1所述的牙根图像交互标注方法,其特征在于,步骤S1中,所述的原始的牙根图像包括牙根。
3.根据权利要求1所述的牙根图像交互标注方法,其特征在于,步骤S3中,所述的基于U-Net的带有改进后损失函数的神经网络包括:U-Net网络和改进后损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110648218.8A CN113313722B (zh) | 2021-06-10 | 2021-06-10 | 一种牙根图像交互标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110648218.8A CN113313722B (zh) | 2021-06-10 | 2021-06-10 | 一种牙根图像交互标注方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113313722A CN113313722A (zh) | 2021-08-27 |
CN113313722B true CN113313722B (zh) | 2023-09-12 |
Family
ID=77378007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110648218.8A Active CN113313722B (zh) | 2021-06-10 | 2021-06-10 | 一种牙根图像交互标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113313722B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116503389B (zh) * | 2023-06-25 | 2023-10-20 | 南京邮电大学 | 牙根外吸收自动检测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019000455A1 (zh) * | 2017-06-30 | 2019-01-03 | 上海联影医疗科技有限公司 | 图像分割的方法及系统 |
CN109816661A (zh) * | 2019-03-22 | 2019-05-28 | 电子科技大学 | 一种基于深度学习的牙齿ct图像分割方法 |
CN111047613A (zh) * | 2019-12-30 | 2020-04-21 | 北京小白世纪网络科技有限公司 | 基于分支注意力及多模型融合的眼底血管分割方法 |
CN112001333A (zh) * | 2020-08-27 | 2020-11-27 | 中广核贝谷科技有限公司 | 一种基于集装箱x射线图像的智能识别方法 |
CN112614127A (zh) * | 2020-12-31 | 2021-04-06 | 北京朗视仪器有限公司 | 一种基于端到端的交互式三维cbct牙齿图像分割算法 |
CN112801057A (zh) * | 2021-04-02 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备和存储介质 |
WO2021097055A1 (en) * | 2019-11-14 | 2021-05-20 | Nec Laboratories America, Inc. | Domain adaptation for semantic segmentation via exploiting weak labels |
-
2021
- 2021-06-10 CN CN202110648218.8A patent/CN113313722B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019000455A1 (zh) * | 2017-06-30 | 2019-01-03 | 上海联影医疗科技有限公司 | 图像分割的方法及系统 |
CN109816661A (zh) * | 2019-03-22 | 2019-05-28 | 电子科技大学 | 一种基于深度学习的牙齿ct图像分割方法 |
WO2021097055A1 (en) * | 2019-11-14 | 2021-05-20 | Nec Laboratories America, Inc. | Domain adaptation for semantic segmentation via exploiting weak labels |
CN111047613A (zh) * | 2019-12-30 | 2020-04-21 | 北京小白世纪网络科技有限公司 | 基于分支注意力及多模型融合的眼底血管分割方法 |
CN112001333A (zh) * | 2020-08-27 | 2020-11-27 | 中广核贝谷科技有限公司 | 一种基于集装箱x射线图像的智能识别方法 |
CN112614127A (zh) * | 2020-12-31 | 2021-04-06 | 北京朗视仪器有限公司 | 一种基于端到端的交互式三维cbct牙齿图像分割算法 |
CN112801057A (zh) * | 2021-04-02 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
基于YCbCr颜色空间和局部纹理加权的阴影去除方法;郑颖等;《电脑知识与技术》;第9卷(第32期);7349-7353+7357 * |
Also Published As
Publication number | Publication date |
---|---|
CN113313722A (zh) | 2021-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jang et al. | A fully automated method for 3D individual tooth identification and segmentation in dental CBCT | |
Imak et al. | Dental caries detection using score-based multi-input deep convolutional neural network | |
BR112020012292A2 (pt) | previsão automatizada de formato de raiz 3d com o uso de métodos de aprendizado profundo | |
WO2020063986A1 (zh) | 三维模型生成方法、装置、设备和存储介质 | |
Kumar et al. | Descriptive analysis of dental X-ray images using various practical methods: A review | |
CN110097557B (zh) | 基于3D-UNet的医学图像自动分割方法及系统 | |
CN114757960B (zh) | 一种基于cbct图像的牙齿分割与重建方法及存储介质 | |
CN113139977B (zh) | 一种基于YOLO和U-Net的口腔曲断影像智齿分割方法 | |
Kong et al. | Automated maxillofacial segmentation in panoramic dental x-ray images using an efficient encoder-decoder network | |
Chen et al. | MSLPNet: multi-scale location perception network for dental panoramic X-ray image segmentation | |
CN113628223B (zh) | 基于深度学习的牙科cbct三维牙齿分割方法 | |
CN113344950A (zh) | 一种深度学习结合点云语义的cbct图像牙齿分割方法 | |
CN106214175B (zh) | 一种估算三维牙轴的方法和装置 | |
CN113313722B (zh) | 一种牙根图像交互标注方法 | |
CN113221945A (zh) | 基于口腔全景片和双重注意力模块的龋齿识别方法 | |
CN116152500A (zh) | 一种基于深度学习的全自动牙齿cbct图像分割方法 | |
Mohammad et al. | Region-based segmentation and classification of Mandibular First Molar Tooth based on Demirjian’s method | |
CN115953534A (zh) | 三维重建方法、装置、电子设备及计算机可读存储介质 | |
Nader et al. | Automatic teeth segmentation on panoramic X-rays using deep neural networks | |
CN113160151B (zh) | 基于深度学习及注意力机制的全景片龋齿深度识别方法 | |
CN109949299A (zh) | 一种心脏医学图像自动分割方法 | |
Shi et al. | Semantic decomposition network with contrastive and structural constraints for dental plaque segmentation | |
Chen et al. | Detection of various dental conditions on dental panoramic radiography using Faster R-CNN | |
CN113393470A (zh) | 一种牙齿全自动分割方法 | |
CN117011318A (zh) | 一种牙齿ct图像三维分割方法、系统、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |