CN113139977B - 一种基于YOLO和U-Net的口腔曲断影像智齿分割方法 - Google Patents

一种基于YOLO和U-Net的口腔曲断影像智齿分割方法 Download PDF

Info

Publication number
CN113139977B
CN113139977B CN202110442986.8A CN202110442986A CN113139977B CN 113139977 B CN113139977 B CN 113139977B CN 202110442986 A CN202110442986 A CN 202110442986A CN 113139977 B CN113139977 B CN 113139977B
Authority
CN
China
Prior art keywords
image
wisdom
yolo
net
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110442986.8A
Other languages
English (en)
Other versions
CN113139977A (zh
Inventor
杨旸
景相宜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN202110442986.8A priority Critical patent/CN113139977B/zh
Publication of CN113139977A publication Critical patent/CN113139977A/zh
Application granted granted Critical
Publication of CN113139977B publication Critical patent/CN113139977B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Abstract

一种基于YOLO和U‑Net的口腔曲断影像智齿分割方法,步骤为:1.对口腔曲断影像进行图像预处理,对预处理后图像中的智齿进行位置标注得到位置标签,并划分训练集和测试集;2.利用图像和位置标签训练YOLO模型,设置空间位置的置信度阈值,得到智齿的空间位置信息;3.基于智齿的空间位置信息进行切片处理,将得到的所有包含智齿的切片进行预处理,预处理后对训练集的切片进行像素级的类别标注;4.训练集的切片图像和位置标签训练U‑Net模型,设置像素类别的置信度阈值进行二值化,得到智齿的像素级分类信息,完成智齿分割;本发明通过两阶段实现口腔曲断影像的智齿分割,有效提升智齿的定位精度、缩小智齿分割的计算开销,提升口腔曲断影像智齿分割的速度和精度。

Description

一种基于YOLO和U-Net的口腔曲断影像智齿分割方法
技术领域
本发明涉及医学图像分割技术领域,具体涉及一种基于YOLO和U-Net的口腔曲断影像智齿分割方法。
背景技术
牙齿是人类重要器官之一,且由智齿引起的问题在口腔疾病占据了相当一部分比例,智齿的生长状态也是需要对其进行手术移除与否的重要依据;同时,在法医学中,智齿对年龄的判定有着至关重要的作用。因此相比于其他牙齿,选取智齿作为研究目标具有更广泛的受众与更高的临床应用价值。同时,口腔医学影像在国内最普遍的形式为口腔曲断图像。
2015年,Long Jonathan等人[1]提出全卷积网络,可以对图像进行像素级的分类,从而解决了语义级别的图像分割问题。此工作是深度学习应用于图像分割的开山之作。然而,全卷积网络在对图像进行分割时,上采样层将特征恢复到原图像的大小,此过程会导致像素定位不精确,从而影响分割结果的准确性。
针对上述局限性,Olaf Ronneberger等人[2]提出了U-net网络结构,U-net是基于FCN的一种语义分割网络,适用于做医学图像的分割。U-net网络结构与FCN网络结构相似,也是分为下采样阶段和上采样阶段,网络结构中只有卷积层和池化层,没有全连接层,网络中较浅的高分辨率层用来解决像素定位的问题,较深的层用来解决像素分类的问题,从而可以实现图像语义级别的分割。
然而,U-Net直接应用于口腔曲断影像智齿分割中,存在以下两个问题:(1)在特征较为复杂的口腔曲断影像中,由于智齿与其余牙齿的结构相似只是空间位置不同,U-Net可以捕捉牙齿的形态特征,但无法准确捕捉智齿的空间位置特征,因此单纯使用U-Net无法得到准确的智齿分割结果;(2)口腔曲断影像尺寸较大,而智齿的占比较小,单颗智齿仅占全片约0.6%的面积,使用U-Net对口腔曲断影像直接进行智齿分割会导致大部分算力浪费在没有智齿的背景区域。
[1]E.Shelhamer,J.Long,and T.Darrell,“Fully convolutional networks forsemantic segmentation,”IEEE Transactions on Pattern Analysis and MachineIntelligence,2016.
[2]O.Ronneberger,P.Fischer,and T.Brox,“U-net:Convolutional networksfor biomedical image segmentation,”in International Conference on MedicalImage Computing and Com-puter-Assisted Intervention,pp.234–241,Springer,2015.
发明内容
为了解决现有基于U-Net的口腔曲断影像智齿分割应用中存在的问题,本发明的目的在于提供一种基于YOLO(“你只看一次”算法)和U-Net的口腔曲断影像智齿分割方法,用于分割,在连通成分分析方面比现有方法的查准率和查全率都有效提高。
为达到以上目的,本发明采用如下技术方案:
一种基于YOLO和U-Net的口腔曲断影像智齿分割方法,首先对口腔曲断影像进行图像预处理,对预处理后图像中的智齿进行位置标注得到位置标签,并划分训练集和测试集;随后利用图像和位置标签训练YOLO模型,设置空间位置的置信度阈值,得到智齿的空间位置信息;然后基于智齿的空间位置信息进行切片处理,将得到的所有包含智齿的切片进行预处理,预处理后对训练集的切片进行像素级的类别标注;最后采用训练集的切片图像和位置标签训练U-Net模型,设置像素类别的置信度阈值进行二值化,最终得到智齿的像素级分类信息,完成智齿分割;具体包括如下步骤:
步骤1:对原始的口腔曲断影像进行图像预处理,提升图像质量;对预处理后图像中的智齿进行空间位置的手工标注得到使用智齿区域左上坐标和右下坐标表示的位置标签,并将图像和标签按照7:3的比例划分为训练集和测试集;
步骤2:为检测智齿空间位置,使用基于C语言的Darknet框架搭建YOLO模型,将训练集输入YOLO模型进行训练;完成训练后,将测试集输入YOLO模型得到目标检测预测结果,与位置标签进行比较,计算目标检测的精度;
步骤3:将训练集和测试集中包含智齿的区域进行切割,得到包含智齿的局部切片,训练集的切片是由手工标注得到,测试集包含智齿的切片是YOLO模型预测的结果;对所有切片进行预处理,提升切片图像的质量,并对训练集和测试集的切片进行像素级标注,得到用于U-Net图像分割的新数据集;
步骤4:使用基于Python的Keras框架搭建U-Net模型,将训练集切片输入U-Net模型进行训练;完成训练后,将测试集切片输入U-Net模型得到智齿分割结果,与位置标签进行比较,计算智齿分割的精度;最后设置阈值,对分割结果进行二值化处理。
步骤1所述的对原始的口腔曲断影像进行图像预处理的具体方式为,直方图均衡结合Gamma系数为1.6的Gamma变换,以均衡图像的灰度并放大特征。
优选的,步骤1所述的对预处理后图像中的智齿进行空间位置的手工标注的过程中,利用了智齿的位置在所有牙齿边缘的特点,对标注框进行了尺寸设计,强化了智齿的特征。
优选的,步骤2所述的基于C语言的Darknet框架搭建YOLO模型,设置的超参数为:设置学习率为0.0001,迭代次数为20000,优化器为Adam,激活函数为Leaky ReLU。
优选的,步骤3所述的对所有切片进行预处理,具体操作为尺寸归一化、直方图均衡。
优选的,步骤4所述的基于Python的Keras框架搭建U-Net模型,设置的超参数为:设置学习率为0.0005,迭代次数为200,优化器为Adam,激活函数为ReLU。
本发明采用的基于YOLO和U-Net的口腔曲断影像智齿分割方法与已有技术相比创新点如下:
1)解决了U-Net空间定位能力不足的问题:相比于单纯依靠U-Net从口腔曲断影像中分割智齿的方法,本发明将分割过程中的智齿空间定位独立出来,使用目标检测的算法实现,同时由于智齿在所有牙齿中的边缘位置,基于这个特性进行标注,可以有效的提取智齿的空间位置;基于51张口腔曲断影像训练的YOLO模型,可以在测试集上达到97%的精度,远远高于单纯使用U-Net所得到的定位精度,同时由于分割过程在切片中进行,切片外的背景区域不会有任何假阳性的分割结果,同样提升了分割的精度;
2)解决了U-Net应用于大图片的小物体分割中的低效问题:由于单颗智齿前景面积仅占全片的约0.6%,近97%的区域都是无关的背景,通过YOLO目标检测得到预测的切片后,智齿前景面积约占切片的35%,简化了U-Net完成智齿分割的计算量,同时通过目标检测过程剔除了特征较为相似的其他牙齿,降低了分割过程中的噪声。
附图说明
图1为本发明基于YOLO和U-Net的口腔曲断影像智齿分割方法的流程图。
图2为步骤2中使用YOLO模型进行目标检测的输出图,方框中标题为“智齿”部分为输出的智齿区域的可视图,箭头所指区域为智齿区域的局部放大图。
图3(a)为步骤3中像素级类别标注的经过尺寸归一化后的智齿区域,图3(b)为步骤3中像素级类别标注的智齿对应的标签,白色部分为前景,黑色部分为背景。
图4(a)为齿分割结果的经过尺寸归一化后的智齿区域,图4(b)为齿分割结果的智齿对应的标签,图4(c)为齿分割结果的U-Net的分割结果。
具体实施方式
以下结合附图及具体实施例,对本发明作进一步的详细描述。
本发明一种基于YOLO和U-Net的口腔曲断影像智齿分割方法,图1为方法流程图,包括如下步骤:
步骤1:
口腔曲断影像预处理是为了消除由于影像科医生的个人习惯或不同型号的设备造成的影像偏差,同时对图像中的牙齿部分进行特征增强,预处理主要包含两个阶段:
1)对口腔曲断影像进行直方图均衡处理,将图像的灰度均匀的分散到0-255之间,使灰度的分布更加均匀,增加图像的对比度;
2)对直方图均衡处理后的影像进行Gamma变换,压缩图像中灰度较低的部分,拉伸灰度高的部分,突出牙齿在影像中的特征,本发明中的幂次γ取值1.6。
完成预处理后,对影像进行空间位置标注,由于使用YOLO进行目标检测是为了对智齿进行定位,所以标注过程考虑到智齿在牙齿中处于边缘位置的特性,将智齿旁边的空白区域和智齿一同构成标签,通过标注过程提升训练和测试过程的精度。
随后对处理后的影像和标签按照7:3的比例划分训练集和测试集。
步骤2:
使用基于C语言的Darknet框架构建YOLO模型,将数据集格式转换为PASCALVOC2007,训练过程中,YOLO的损失函数由以下函数表示:
Lossyolo=Losscoord+Lossconf+Lossclass
Losscoord表示检测框位置预测的损失函数,形式为:
Figure BDA0003035689810000061
其中,λcoord表示检测框位置的损失函数所占的权重,此处取5;S2表示的是对图片进行切割的网格数量,此处取7的平方49;B表示的是预测框的数量,此处取2;(xi,yi)、(wi,hi)分别是第i个预测的检测框的中心点坐标和宽高,
Figure BDA0003035689810000062
Figure BDA0003035689810000063
是标签中目标的中心点坐标和宽高;
Lossconf表示检测框存在目标物体的置信度,形式为:
Figure BDA0003035689810000064
其中,λnoobj表示的是没有物体的背景区域误判时的损失权重,为了更加突出前景的损失,本发明中的值为0.5,表示对背景区域进行抑制;Ci表示预测第i个网格中存在目标的置信度,
Figure BDA0003035689810000065
表示的是标签中第i个网格存在目标的置信度;
Lossclass表示目标类别的置信度,形式为:
Figure BDA0003035689810000071
其中,pi(c)表示的是预测第i个网格中包含类别c的置信度,
Figure BDA0003035689810000072
表示的是标签中第i个网格中包含类别c的置信度。
训练过程使用Darknet-53模型作为主干网络,学习率设置为0.0001,迭代次数设置为20000,优化器设置为Adam,激活函数设置为Leaky ReLU,输入120个训练样本对YOLO模型进行训练,得到收敛后的权重,并将测试集中的52个样本输入训练好的YOLO模型,设定置信度阈值为0.6,得到满足阈值智齿区域的预测结果的精度为96.7%,同时获取各个输出结果的中心点坐标和宽高。如图2所示,方框中标题为“智齿”的部分为输出的智齿区域的可视图,箭头所指区域为智齿区域的局部放大图。
步骤3:
基于智齿区域的预测结果和手工标注的标签,对口腔曲断影像进行切割,从每张影像中获取0-4个智齿切片,并对所有切片进行预处理,预处理包含以下两个阶段:
1)为满足U-Net输入尺寸一致的要求,对切片进行尺寸归一化,本发明中尺寸归一化后的切片大小为为512×512;如图3(a)和图4(a)所示。
2)对归一化后的切片进行步骤2所述的直方图均衡;
完成预处理后,分别对训练集和测试集中的智齿切片进行像素级标注,标签为二值图像,灰度255为前景,0为背景,如图3(b)和图4(b)所示,得到用于智齿分割任务的新训练集和测试集;
步骤4:
使用基于Python的Keras框架搭建U-Net模型,调整输入和输出相关的尺寸设置,选用Focal Loss作为训练U-Net的损失函数,Focal Loss的形式如下:
Figure BDA0003035689810000081
其中,i,j表示图片中的像素点,n表示图片编号,图片总数为N,
Figure BDA0003035689810000082
Figure BDA0003035689810000083
分别表示第n张图片在像素点i,j处的真值和预测值,α是平衡前景与背景比例的参数,在本发明中设置为0.75;γ是平衡样本类内复杂度的参数,在本发明中设置为2.0;
训练过程使用的学习率设置为0.0005,迭代次数设置为200,优化器设置为Adam,激活函数设置为ReLU,输入128个训练样本对U-Net模型进行训练,得到收敛后的权重,并将测试集中的56个样本输入训练好的U-Net模型,得到智齿分割的预测结果Dice系数为0.8827,并得到每个输入对应的分割结果灰度图像;图4(a)是输入样本,图4(b)是像素级分类的标签,图4(c)是U-Net输出结果。
最后设置判断前景与背景的阈值为0.6,对灰度图像进行二值化处理,得到最后仅包含前景与背景的二值图像,即最终的分割结果。

Claims (6)

1.一种基于YOLO和U-Net的口腔曲断影像智齿分割方法,其特征在于:首先对口腔曲断影像进行图像预处理,对预处理后图像中的智齿进行位置标注得到位置标签,并划分训练集和测试集;随后利用图像和位置标签训练YOLO模型,设置空间位置的置信度阈值,得到智齿的空间位置信息;然后基于智齿的空间位置信息进行切片处理,将得到的所有包含智齿的切片进行预处理,预处理后对训练集的切片进行像素级的类别标注;最后采用训练集的切片图像和位置标签训练U-Net模型,设置像素类别的置信度阈值进行二值化,最终得到智齿的像素级分类信息,完成智齿分割;具体包括如下步骤:
步骤1:对原始的口腔曲断影像进行图像预处理,提升图像质量;对预处理后图像中的智齿进行空间位置的手工标注得到使用智齿区域左上坐标和右下坐标表示的位置标签,并将图像和标签按照7:3的比例划分为训练集和测试集;
步骤2:为检测智齿空间位置,使用基于C语言的Darknet框架搭建YOLO模型,将训练集输入YOLO模型进行训练;完成训练后,将测试集输入YOLO模型得到目标检测预测结果,与位置标签进行比较,计算目标检测的精度;
步骤3:将训练集和测试集中包含智齿的区域进行切割,得到包含智齿的局部切片,训练集的切片是由手工标注得到,测试集包含智齿的切片是YOLO模型预测的结果;对所有切片进行预处理,提升切片图像的质量,并对训练集和测试集的切片进行像素级标注,得到用于U-Net图像分割的新数据集;
步骤4:使用基于Python的Keras框架搭建U-Net模型,将训练集切片输入U-Net模型进行训练;完成训练后,将测试集切片输入U-Net模型得到智齿分割结果,与位置标签进行比较,计算智齿分割的精度;最后设置阈值,对分割结果进行二值化处理。
2.根据权利要求1所述的一种基于YOLO和U-Net的口腔曲断影像智齿分割方法,其特征在于:步骤1所述的对原始的口腔曲断影像进行图像预处理的具体方式为,直方图均衡结合Gamma系数为1.6的Gamma变换,以均衡图像的灰度并放大特征。
3.根据权利要求1所述的一种基于YOLO和U-Net的口腔曲断影像智齿分割方法,其特征在于:步骤1所述的对预处理后图像中的智齿进行空间位置的手工标注的过程中,利用了智齿的位置在所有牙齿边缘的特点,对标注框进行了尺寸设计,强化了智齿的特征。
4.根据权利要求1所述的一种基于YOLO和U-Net的口腔曲断影像智齿分割方法,其特征在于:步骤2所述的基于C语言的Darknet框架搭建YOLO模型,设置的超参数为:设置学习率为0.0001,迭代次数为20000,优化器为Adam,激活函数为Leaky ReLU。
5.根据权利要求1所述的一种基于YOLO和U-Net的口腔曲断影像智齿分割方法,其特征在于:步骤3所述的对所有切片进行预处理,具体操作为尺寸归一化、直方图均衡。
6.根据权利要求1所述的一种基于YOLO和U-Net的口腔曲断影像智齿分割方法,其特征在于:步骤4所述的基于Python的Keras框架搭建U-Net模型,设置的超参数为:设置学习率为0.0005,迭代次数为200,优化器为Adam,激活函数为ReLU。
CN202110442986.8A 2021-04-23 2021-04-23 一种基于YOLO和U-Net的口腔曲断影像智齿分割方法 Active CN113139977B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110442986.8A CN113139977B (zh) 2021-04-23 2021-04-23 一种基于YOLO和U-Net的口腔曲断影像智齿分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110442986.8A CN113139977B (zh) 2021-04-23 2021-04-23 一种基于YOLO和U-Net的口腔曲断影像智齿分割方法

Publications (2)

Publication Number Publication Date
CN113139977A CN113139977A (zh) 2021-07-20
CN113139977B true CN113139977B (zh) 2022-12-27

Family

ID=76812283

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110442986.8A Active CN113139977B (zh) 2021-04-23 2021-04-23 一种基于YOLO和U-Net的口腔曲断影像智齿分割方法

Country Status (1)

Country Link
CN (1) CN113139977B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822904B (zh) * 2021-09-03 2023-08-08 上海爱乐慕健康科技有限公司 一种图像标注装置、方法及可读存储介质
CN113643297B (zh) * 2021-10-18 2021-12-21 四川大学 一种基于神经网络的计算机辅助牙龄分析方法
CN114862771B (zh) * 2022-04-18 2023-04-18 四川大学 一种基于深度学习网络的智齿识别和分类方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3432217A1 (fr) * 2017-07-21 2019-01-23 Dental Monitoring Procede d'analyse d'une image d'une arcade dentaire
EP3462373A1 (en) * 2017-10-02 2019-04-03 Promaton Holding B.V. Automated classification and taxonomy of 3d teeth data using deep learning methods
CN109816661A (zh) * 2019-03-22 2019-05-28 电子科技大学 一种基于深度学习的牙齿ct图像分割方法
CN109859203A (zh) * 2019-02-20 2019-06-07 福建医科大学附属口腔医院 基于深度学习的缺陷牙齿图像识别方法
CN110473243A (zh) * 2019-08-09 2019-11-19 重庆邮电大学 基于深度轮廓感知的牙齿分割方法、装置及计算机设备
JP2019208832A (ja) * 2018-06-04 2019-12-12 聖士 田島 歯科分析システムおよび歯科分析x線システム
CN111292313A (zh) * 2020-02-28 2020-06-16 湖北咿呀医疗投资管理股份有限公司 补牙质量评测方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3432217A1 (fr) * 2017-07-21 2019-01-23 Dental Monitoring Procede d'analyse d'une image d'une arcade dentaire
EP3462373A1 (en) * 2017-10-02 2019-04-03 Promaton Holding B.V. Automated classification and taxonomy of 3d teeth data using deep learning methods
JP2019208832A (ja) * 2018-06-04 2019-12-12 聖士 田島 歯科分析システムおよび歯科分析x線システム
CN109859203A (zh) * 2019-02-20 2019-06-07 福建医科大学附属口腔医院 基于深度学习的缺陷牙齿图像识别方法
CN109816661A (zh) * 2019-03-22 2019-05-28 电子科技大学 一种基于深度学习的牙齿ct图像分割方法
CN110473243A (zh) * 2019-08-09 2019-11-19 重庆邮电大学 基于深度轮廓感知的牙齿分割方法、装置及计算机设备
CN111292313A (zh) * 2020-02-28 2020-06-16 湖北咿呀医疗投资管理股份有限公司 补牙质量评测方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Automatic Segmentation of Individual Tooth in Dental CBCT Images From Tooth Surface Map by a Multi-Task FCN;Yanlin C.等;《IEEE Access》;20200506;第97296-97309页 *
人工智能在口腔颌面医学影像中的研究探讨;王蓉 等;《口腔医学研究》;20200731;第619-621页 *

Also Published As

Publication number Publication date
CN113139977A (zh) 2021-07-20

Similar Documents

Publication Publication Date Title
CN113139977B (zh) 一种基于YOLO和U-Net的口腔曲断影像智齿分割方法
CN111798462B (zh) 一种基于ct图像的鼻咽癌放疗靶区自动勾画方法
CN112488234B (zh) 一种基于注意力池化的端到端组织病理图像分类方法
CN110310287B (zh) 基于神经网络的危及器官自动勾画方法、设备和存储介质
CN110415230B (zh) 一种基于深度学习的ct切片图像语义分割系统及方法
CN108537751B (zh) 一种基于径向基神经网络的甲状腺超声图像自动分割方法
CN113450328B (zh) 基于改进神经网络的医学图像关键点检测方法及系统
CN107766874B (zh) 一种超声容积生物学参数的测量方法及测量系统
CN113554665A (zh) 一种血管分割方法及装置
WO2021027152A1 (zh) 基于条件生成对抗网络合成图像的方法及相关设备
CN113298780B (zh) 一种基于深度学习的儿童骨龄评估方法及系统
CN112651929B (zh) 基于三维全卷积神经网络及区域生长的医学影像器官分割方法及系统
CN113223005A (zh) 一种甲状腺结节自动分割及分级的智能系统
CN113344950A (zh) 一种深度学习结合点云语义的cbct图像牙齿分割方法
CN116188474B (zh) 基于图像语义分割的三级淋巴结构识别方法和系统
CN114022872A (zh) 基于动态神经网络的多种类农作物叶病识别方法
CN111461121A (zh) 一种基于yolov3网络的电表示数识别方法
CN113643297B (zh) 一种基于神经网络的计算机辅助牙龄分析方法
CN115601330A (zh) 一种基于多尺度空间反向注意力机制的结肠息肉分割方法
CN110033448B (zh) 一种aga临床图像的ai辅助雄秃汉密尔顿分级预测分析方法
CN114581474A (zh) 一种基于宫颈癌ct影像的临床靶区自动勾画方法
CN114092699A (zh) 基于迁移学习的群猪图像分割的方法及系统
CN114092467A (zh) 一种基于轻量化卷积神经网络的划痕检测方法及系统
CN115311491A (zh) 一种基于课程学习及空间注意力的骨折假阳性筛除方法
CN111127391B (zh) 一种基于甲状腺超声视频流动态识别结节良恶性的装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant