CN117769391A - 在自然头位上拍摄的三维cbct影像中基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法 - Google Patents
在自然头位上拍摄的三维cbct影像中基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法 Download PDFInfo
- Publication number
- CN117769391A CN117769391A CN202180101157.1A CN202180101157A CN117769391A CN 117769391 A CN117769391 A CN 117769391A CN 202180101157 A CN202180101157 A CN 202180101157A CN 117769391 A CN117769391 A CN 117769391A
- Authority
- CN
- China
- Prior art keywords
- point
- head
- image
- machine learning
- tooth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 189
- 238000010801 machine learning Methods 0.000 title claims abstract description 130
- 238000000034 method Methods 0.000 title claims abstract description 96
- 238000003745 diagnosis Methods 0.000 title claims abstract description 89
- 238000007408 cone-beam computed tomography Methods 0.000 title abstract description 33
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 95
- 238000009795 derivation Methods 0.000 claims abstract description 40
- 210000003128 head Anatomy 0.000 claims description 231
- 210000000515 tooth Anatomy 0.000 claims description 182
- 210000004373 mandible Anatomy 0.000 claims description 44
- 210000001061 forehead Anatomy 0.000 claims description 39
- 230000001815 facial effect Effects 0.000 claims description 28
- 238000006073 displacement reaction Methods 0.000 claims description 18
- 241000282465 Canis Species 0.000 claims description 15
- 210000000988 bone and bone Anatomy 0.000 claims description 13
- 210000003464 cuspid Anatomy 0.000 claims description 12
- 210000004283 incisor Anatomy 0.000 claims description 11
- 230000036346 tooth eruption Effects 0.000 claims description 11
- 210000001847 jaw Anatomy 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 8
- 210000000214 mouth Anatomy 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 2
- 210000003781 tooth socket Anatomy 0.000 claims description 2
- 210000001331 nose Anatomy 0.000 description 33
- 238000001514 detection method Methods 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 6
- 210000002295 maxillary tooth Anatomy 0.000 description 5
- 210000003625 skull Anatomy 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 210000001142 back Anatomy 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 210000000537 nasal bone Anatomy 0.000 description 3
- 206010061274 Malocclusion Diseases 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 210000003298 dental enamel Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012887 quadratic function Methods 0.000 description 2
- 241000569510 Spino Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 210000004513 dentition Anatomy 0.000 description 1
- 238000010130 dispersion processing Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 210000002050 maxilla Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003254 palate Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C7/00—Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
- A61C7/002—Orthodontic computer assisted systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/51—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Surgery (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Epidemiology (AREA)
- Theoretical Computer Science (AREA)
- Primary Health Care (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Dentistry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Physiology (AREA)
- Pulmonology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
Abstract
本发明涉及基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法。更详细而言,本发明涉及采用机器学习算法从在自然头位拍摄的锥形束计算机断层扫描(CBCT)影像数据中获取被检者头部计测图像,为了导出用于牙齿矫正精密诊断的十三个诊断参数,在所述头部计测图像上能够精密且迅速地检测多个计测点的基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法。
Description
技术领域
本发明涉及基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法。更详细而言,本发明涉及采用机器学习算法和影像分析处理技术,从在自然头位(Natural headposition)状态下进行锥形束计算机断层扫描(CBCT)的影像数据中获取被检者头部计测图像,为了导出用于牙齿矫正精密诊断的十三个参数,在所述头部计测图像上能够精密且迅速地检测多个计测点的基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法。
背景技术
一般而言,将齿列不正确且上下的牙齿咬合异常的状态称为错颌畸形,为了将这样的错颌畸形制成为正常咬合,可以执行牙齿矫正治疗。另外,在进行用于牙齿矫正的精密诊断或治疗计划构建时,需要进行在被检者头部计测图像上检测作为在解剖学上预先确定的解剖学计测点(anatomical landmark)的作业。
以往X射线(X-ray)影像中存在画面失真现象或不清楚等问题,近来为了改进这样的问题而实施有从通过锥形束计算机断层扫描(Cone-Beam Computer Tomography;CBCT)设备拍摄的被检者的头部医疗影像数据中获取三维CBCT图像,并基于此检测用于导出用于牙齿矫正诊断的参数的计测点的研究。尤其是,最近研究中作为锥形束断层扫描(CBCT)图像分析方法提出了利用经由作为在额头和鼻子的边界区域中最低的鼻根点(Nasion点)且相对于地面垂直的鼻根点真实垂直平面(Nasion True Vertical Plane,NTVP)以及经由所述鼻根点(Nasion点)且相对于地面水平的真实水平面(True Horizontal Plane,THP),来确认前后骨骼关系以及牙齿的凸出程度的方法。
在现有技术中,为了导出牙齿矫正诊断参数,需要由医疗人员等熟练的作业者在多个CBCT图像上以手动方式检测约50个以上的多个计测点,但是这样的方法中计测点检测方法和检测准确度会根据作业者的熟练度有差异,因此不易进行准确的矫正诊断,并且所述计测点检测时间需要约30分钟以上的较长时间,因此存在诊疗效率低下的问题。
为了解决如上所述的问题,亟需提供基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法,其在牙齿矫正诊断领域中导入机器学习算法,从在自然头位(Naturalhead position)状态下进行锥形束计算机断层扫描(CBCT)的影像数据中获取被检者头部计测图像,为了导出用于牙齿矫正精密诊断的、相较于以往减少的数量的参数,在所述头部计测图像上精密且迅速地检测多个计测点,从而能够提高诊疗效率。
发明内容
技术问题
本发明的目的在于提供一种基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法,其采用机器学习算法从在自然头位(Natural head position)状态下进行锥形束计算机断层扫描(CBCT)的影像数据中获取被检者头部计测图像,为了导出用于牙齿矫正精密诊断的、相较于以往减少数量的十三个参数,在所述头部计测图像上精密且迅速地导出多个计测点,从而能够提高诊疗效率。
技术方案
为了解决所述技术问题,本发明可以提供一种用于牙齿矫正诊断的头部计测参数导出方法,
其为利用头部诊断用头部计测图像的基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法,所述头部诊断用头部计测图像是从在自然头位状态下对被检者分别获取包括矢状面头部图像、冠状面头部图像、口腔全息图像以及前齿截面图像的诊断用头部计测图像的步骤中提取的,其特征在于,所述方法包括:基于机器学习算法检测多个计测点,以在所述头部计测图像上导出用于牙齿矫正诊断的十三个参数的步骤;以及导出与检测出的所述多个计测点之间的距离或角度对应的十三个参数的步骤。
其中,所述十三个参数可以包括上颚骨的凸出度、下颚骨的凸出度、颏前点的凸出度、下颚骨中心的位移程度、上颚中切齿中心的位移程度、下颚中切齿中心的位移程度、从经由作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion点)的水平面(THP;TrueHorizontal Plane,真实水平平面)到右侧犬齿下端点的垂直距离、从所述THP到左侧犬齿下端点的垂直距离、从所述THP到右侧上颚第一大臼齿的垂直距离、从所述THP到左侧上颚第一大臼齿的垂直距离、上颚中切齿倾斜度、下颚中切齿倾斜度以及相对于所述THP的下颚骨的垂直倾斜度,以提供用于牙齿矫正诊断的信息。
并且,所述机器学习算法将矢状面头部图像分割为,从前头部到鼻缝点(rhinion)之间设置的区域、从所述鼻缝点到上部牙齿之间的区域、从所述上部牙齿到下颚骨颏下点(Menton)之间的区域以及从所述下颚骨颏下点到颌关节骨(articulare)之间的区域,从而检测用于导出所述十三个参数的多个计测点。
此外,所述机器学习算法将冠状面头部图像可以分割为,从前头部到鼻缝点(rhinion)之间的区域以及下颚骨区域,从而检测用于导出所述十三个参数的多个计测点。
并且,所述机器学习算法可以包括:在口腔全息图像中采用基于区域的卷积神经网络(Region based convolutional neural networks,R-CNN)机器学习模型来感测整个牙齿中的个别区域的过程;在感测出的所述整个牙齿的每个个别区域检测表示牙齿的位置的牙齿计测点的过程;通过分析检测出的所述牙齿计测点的位置,将整个牙齿分类为上颚牙齿和下颚牙齿的过程;根据从颜面部中央线到检测出的所述牙齿计测点的水平距离,依次地向每个右侧上颚牙齿、左侧上颚牙齿、右侧下颚牙齿以及左侧下颚牙齿赋予编号的过程;以及通过分析所述赋予编号的牙齿,在包括前齿、犬齿以及第一大臼齿的特定牙齿中检测用于导出参数的多个计测点的过程。
此外,所述机器学习算法在矢状面头部图像上可以检测作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion),以及作为在将位于上颚骨的前鼻棘(Anteriornasal spine)和上颚前齿齿槽点(Prosthion)连接的线中最深的部分的A点(A point,A),通过测量作为经由所述鼻根点的垂直面的真实垂直平面(Nasion true vertical plane,NTVP)和所述A点之间的距离,来导出上颚骨的凸出度。
并且,所述机器学习算法在矢状面头部图像上可以检测作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion),以及作为在将下颚前齿的齿槽点(Infradentale)和颏前点Pog连接的最深的部分的B点(B point,B),通过测量作为经由所述鼻根点的垂直面的真实垂直平面(Nasion true vertical plane,NTVP)和所述B点之间的距离,来导出下颚骨的凸出度。
并且,所述机器学习算法在矢状面头部图像上可以检测作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion),以及从下颚骨最向前方凸出的颏前点(Pogonion,Pog),通过测量作为经由所述鼻根点的垂直面的真实垂直平面(Nasion true verticalplane,NTVP)和所述颏前点之间的距离,来导出颏前点的凸出度。
并且,所述机器学习算法在冠状面头部图像上可以检测作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion),以及作为在下颚骨中最低的位点的颏下点(Menton),通过测量作为经由所述鼻根点的垂直面的真实垂直平面(Nasion truevertical palne,NTVP)和所述颏下点之间的距离,来导出下颚骨中心的位移程度。
并且,所述机器学习算法在冠状面头部图像上可以检测作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion),以及在口腔全息图像上的上颚中切齿中央点,通过测量作为经由所述鼻根点的垂直面的真实垂直平面(Nasion true vertical plane,NTVP)和所述上颚中切齿中央点之间的距离,来导出上颚中切齿中心的位移程度。
并且,所述机器学习算法在冠状面头部图像上可以检测作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion),以及在口腔全息图像上的下颚中切齿中央点,通过测量作为经由所述鼻根点的垂直面的真实垂直平面(Nasion true vertical plane,NTVP)和所述下颚中切齿中央点之间的距离,来导出下颚中切齿中心的位移程度。
并且,所述机器学习算法在冠状面头部图像上可以检测作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion),以及在口腔全息图像上的右侧犬齿下端点,导出作为经由所述鼻根点的水平面的真实水平平面(True horizontal plane,THP)和所述右侧犬齿下端点之间的垂直距离。
并且,所述机器学习算法在冠状面头部图像上可以检测作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion),以及在口腔全息图像上的左侧犬齿下端点,导出作为经由所述鼻根点的水平面的真实水平平面(True horizontal plane,THP)和所述左侧犬齿下端点之间的垂直距离。
并且,所述机器学习算法在冠状面头部图像上可以检测作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion),以及在口腔全息图像上的上颚右侧第一大臼齿下端点,通过作为经由所述鼻根点的水平面的真实水平平面(True horizontal plane,THP)和所述上颚右侧第一大臼齿下端点之间的距离,来导出从THP到右侧上颚第一大臼齿的垂直距离。
并且,所述机器学习算法在冠状面头部图像上可以检测作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion),以及在口腔全息图像上的上颚左侧第一大臼齿下端点,通过作为经由所述鼻根点的水平线的真实水平平面(True horizontal plane,THP)和所述上颚左侧第一大臼齿下端点之间的距离,来导出从THP到上颚左侧第一大臼齿的垂直距离。
并且,所述机器学习算法在冠状面头部图像上可以检测作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion),以及在前齿截面图像上的上颚前齿上端点和上颚前齿下端点,通过将作为经由所述鼻根点的水平面的真实水平平面(True horizontalplane,THP)和所述上颚前齿上端点以及所述上颚前齿下端点之间连接的矢量之间的角度,来导出上颚中切齿的倾斜度。
并且,所述机器学习算法在矢状面头部图像上可以检测作为在下颚骨中最低的位点的颏下点(Menton),作为在下颚骨中最大曲率位点的下颌角点(Gonion),以及在前齿截面图像上的下颚前齿上端点和下颚前齿下端点,通过将所述颏下点和所述下颌角点之间连接的颏下点-下颌角点(MeGo)线,以及将所述下颚前齿上端点和所述下颚前齿下端点之间连接的矢量之间的角度,来导出下颚中切齿的倾斜度。
并且,在所述机器学习算法中,在矢状面头部图像上可以检测作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion),作为在下颚骨中最低的位点的颏下点(Menton),以及作为在下颚骨中最大曲率位点的下颌角点(Gonion),通过将作为经由所述鼻根点的水平面的真实水平平面(True horizontal plane,THP)和所述颏下点以及所述下颌角点之间连接的MeGo线之间的角度,来导出相对于THP的下颚骨的垂直倾斜度。
本发明还包括:与导出的所述十三个参数对应地诊断被检者的颜面部形状或咬合状态的步骤。
其中,在对应于导出的所述十三个参数而诊断被检者的咬合状态的情况下,可以分别分类为上颚骨和下颚骨的前后咬合状态处于较为正常范围的状态、上颚骨相较于下颚骨较为凸出的状态以及下颚骨相较于上颚骨较为凸出的状态并进行诊断。
并且,在对应于导出的所述十三个参数而诊断被检者的颜面部形状的情况下,可以分别分类为颜面部长度处于正常范围的状态、颜面部长度处于比正常范围更短的状态以及颜面部长度处于比正常范围更长的状态并进行诊断。
进一步,本发明可以提供一种用于牙齿矫正诊断的参数导出程序,所述导出程序安装在计算装置或可计算的云服务器中,被程序化为自动执行如下的步骤:将头部诊断用头部计测图像作为输入数据,且将所述多个诊断点作为输出数据进行检测的步骤,其中从用于牙齿矫正诊断的头部计测参数导出方法的获取诊断用头部计测图像中提取所述头部诊断用头部计测图像;以及所述导出程序导出与检测出的所述多个诊断点之间的距离或角度对应的十三个参数的步骤。
发明效果
根据本发明的基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法,采用机器学习算法从在自然头位(Natural head position)进行锥形束计算机断层扫描(CBCT)的影像数据中,提取包括相对于被检者在矢状面(sagittal plane)以及冠状面(coronalplane)方向上的头部图像、前齿截面图像以及口腔全息图像的多个诊断用头部计测图像,并且为了从所述图像中提取参数,自动地检测预先确定的计测点位置,从而能够以数十秒以内的水平迅速处理牙齿矫正诊断作业。
根据本发明的基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法,基于从在自然头位(Natural head position)进行拍摄的锥形束计算机断层扫描(CBCT)的头部计测图像上检测出的计测点,为了顺畅地确认矢状面上的前后骨骼关系以及牙齿的凸出程度,选择和导出相较于现有技术减少的十三个诊断参数,从而能够简化用于所述计测点检测的机器学习算法并缩短牙齿矫正诊断所需时间。
进一步,根据本发明的基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法,通过基于机器学习算法的诊断用头部计测图像提取以及所述图像上的计测点检测来导出十三个参数,从而不仅提供自动诊断被检者的颜面部形状或咬合状态的功能,而且与所述导出的参数对应地自动设计用于被检者的适配型牙科矫正装置等能够进一步扩大其应用范围。
附图说明
图1示出根据本发明的基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法的流程图。
图2示出根据本发明的基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法中获取关于被检者的诊断用头部计测图像的过程。
图3示出在诊断用头部计测图像上的多个计测点的位置。
图4示出通过机器学习算法在矢状面头部图像上检测多个计测点的过程。
图5示出通过机器学习算法在冠状面头部图像上检测多个计测点的过程。
图6至图10示出通过机器学习算法在口腔全息图像上检测多个计测点的过程。
图11和图12示出应用根据本发明的基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法的图形用户界面(GUI)画面。
具体实施方式
以下,参照附图对本发明的优选的实施例进行详细的说明。但是,本发明并不限定于在此说明的实施例,而是还可以具体化为其他形态。反而是,在此介绍的实施例是为使所披露的内容更加彻底且完整,并且能够向本领域的技术人员充分地传递本发明的技术思想而提供。在整个说明书的范围内,相同的附图标记表示相同的结构要素。
图1示出根据本发明的基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法的流程图。
如图1所示,根据本发明的基于机器学习的头部计测参数导出方法包括:步骤S100,在从将被检者的头部位于自然头位(Natural head position)的状态下通过牙科用锥形束计算机断层扫描装置(Cone-Beam Computed Tomograph;CBCT)拍摄的CBCT影像数据中,获取包括相对于被检者分别在矢状面(Sagittal plane)以及冠状面(Coronal plane)方向上的头部图像、垂直方向上的头部图像、口腔全息图像以及前齿截面图像的诊断用头部计测图像;步骤S200,基于机器学习算法检测多个计测点,以在所述诊断用头部计测图像上导出用于牙齿矫正诊断的十三个参数;步骤S300,导出与所述检测出的多个计测点之间的距离或角度对应的十三个参数。
并且,根据本发明的基于机器学习的头部计测参数导出方法追加地包括:步骤S400,与所述导出的十三个参数对应地诊断被检者的颜面部形状或咬合状态。
图2示出根据本发明的基于机器学习的头部计测参数导出方法中获取关于被检者的诊断用头部计测图像的过程。
如图2所示,在获取所述诊断用头部计测图像的步骤S100中,从利用锥形束计算机断层扫描装置进行拍摄并获取的CBCT影像数据10中,分别获取包括相对于被检者左右分割的矢状面(Sagittal plane)方向头部图像20、将被检者区分为前方和后方的冠状面方向(Coronal plane)头部图像30、口腔全息图像40以及前齿截面图像50的多个诊断用头部计测图像。
在获取所述诊断用头部计测图像的步骤S100中,使用牙科用锥形束计算机断层扫描装置(CBCT)来获取针对被检者的全区域上的三维头部医疗影像数据。所述CBCT影像数据10基于机器学习算法而满足所述医疗用数字影像和通信标准(Digital Imaging andCommunications in Medicine,DICOM)规范,对于所述CBCT影像数据,利用机器学习算法中输入的图像提取功能或一般的DICOM查看器(DICOM Viewer)的图像提取功能来获取诊断用头部计测图像。
其中,所述CBCT影像数据10被提取为包括矢状面头部图像20、冠状面头部图像30、口腔全息图像40以及前齿截面图像50的诊断用头部计测图像,其中,矢状面头部图像20以及冠状面头部图像30分别被分类为作为将颅骨骨组织内部进行投射并显示其的模式的矢状面骨模式图像20a以及冠状面骨模式图像30a被提取,并且,考虑到被检者颅骨骨组织的深度或密度等,被分类为作为可显示外部形态的模式的矢状面深度模式图像20b以及冠状面深度模式图像30b被提取。
随后,在检测所述多个计测点的步骤S200中,通过机器学习算法自动地检测所述诊断用头部计测图像上的多个计测点,以导出用于牙齿矫正诊断的参数。在现有技术中,由牙科专家医师等熟练者在所述诊断用头部计测图像上以手动方式指定计测点,如上所述的方法存在有其准确度根据作业者的熟练度而发生偏差,并且计测点检测时间需要约30分钟乃至1小时的长时间而诊疗效率降低的问题。
另外,在本发明中,通过使用颜面轮廓自动分析模型和包括R-CNN(Region basedConvolutional Neural Network)等的机器学习算法,可以在所述诊断用头部计测图像上自动感测预先确定的多个计测点。其结果,在导出所述十三个参数的步骤S300中导出与在多个计测点之间所定义的距离或角度对应地选择的十三个参数,并通过所述导出的十三个参数来感测被检者的颜面状态或口腔状态,从而执行针对被检者的牙齿矫正诊断。
在现有技术中,为了导出牙齿矫正诊断参数,需要在所述诊断用头部计测图像上检测超过约50个的多个头部计测计测点,而在本发明中,通过严选用于有效地诊断被检者的矢状前后骨骼关系、咬合状态以及牙齿凸出程度等的十三个参数,能够大幅地减少为了导出所述参数而需要检测的计测点数量,由此简化用于实现其的机器学习算法并缩短矫正诊断所需时间。
本发明人在以牙齿矫正诊断为目的的头部计测分析方法中,代替以往广泛地执行的使用Wits分析法或Rickett分析法或McNamara分析法等,而是提出在自然头位(Naturalhead position)拍摄的影像中使用作为经由一般而言作为鼻梁开始的部分的鼻根点(Nasion点,N点)的垂直面的Nasion True Vertical Plane(NTVP)或者作为经由所述鼻根点的水平面的THP(True horizontal plane),来相较于以往能够大幅地减少计测点数量的同时,容易地诊断被检者的前后颚关系的方法,通过将其应用到机器学习算法,能够迅速且有效地实现多个计测点检测过程。
图3示出在矢状面头部图像20、冠状面头部图像30、口腔全息图像40以及前齿截面图像50上用于导出十三个参数的多个计测点的位置。
如图3所示,在计测点检测步骤S200中,基于机器学习算法而利用机器学习算法和影像分析处理技术来自动地检测预先确定的计测点,以从在诊断用头部计测图像获取步骤S100获取的矢状面头部图像20、冠状面头部图像30以及口腔全息图像40中导出所述十三个参数。
其中,为了针对被检者提供用于牙齿矫正诊断的信息,作为所述十三个参数导出:上颚骨的凸出度、下颚骨的凸出度、颏前点的凸出度、下颚骨中心的位移程度、上颚中切齿中心的位移程度、下颚中切齿中心的位移程度、从经由作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion点)的水平面(THP;True Horizontal Plane)到右侧犬齿下端点的垂直距离、从所述THP到左侧犬齿下端点的垂直距离、从所述THP到右侧上颚第一大臼齿的垂直距离、从所述THP到左侧上颚第一大臼齿的垂直距离、上颚中切齿倾斜度、下颚中切齿倾斜度以及相对于所述THP的下颚骨的垂直倾斜度。
为此,如下表1所示,所述十三个参数由与从诊断用头部计测图像中检测出的多个计测点之间的距离或角度对应的计测点关键点(keypoint)来定义。
表1
参照图3及表1,对在各个诊断用头部计测图像上检测出的多个计测点和与所述多个计测点之间的距离或角度对应的计测点关键点以及从中导出的十三个参数进行说明。
机器学习算法在矢状面头部图像20上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion,N),以及作为在将位于上颚骨的前鼻棘(Anterior nasal spine)和上颚前齿齿槽点(Prosthion)连接的线中最低的部分的A点(A point,A),通过在所述矢状面头部图像20上的X轴方向测量作为经由所述鼻根点N的垂直面的NTVP(Nasion truevertical plane)和所述A点(A)之间的距离,来导出作为所述十三个参数中的一个参数的上颚骨的凸出度,从而能够诊断被检者的上颚骨和下颚骨的前后关系。
并且,机器学习算法在矢状面头部图像20上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion点,N)及作为在将下颚前齿的齿槽点(Infradentale)和颏前点Pog连接的最深的部分的B点(B point,B),通过在所述矢状面头部图像20上的X轴方向上测量作为经由所述鼻根点N的垂直面的NTVP(Nasion true vertical plane)和所述B点(B)之间的距离,来导出作为所述十三个参数中的一个参数的下颚骨的凸出度,从而能够诊断被检者的上颚骨和下颚骨的前后关系。
并且,机器学习算法在矢状面头部图像20上检测作为在额头和鼻子的边界区域中最低部分的鼻根点(Nasion点,N)及从下颚骨最向前方凸出的颏前点(Pogonion,Pog),通过在所述矢状面头部图像20上的X轴方向上测量作为经由所述鼻根点N的垂直面的NTVP(Nasion true vertical plane)和所述颏前点Pog之间的距离,来导出作为所述十三个参数中的一个参数的颏前点的凸出度,从而能够诊断被检者的上颚骨和下颚骨的前后关系。
并且,机器学习算法在冠状面头部图像30上检测作为在额头和鼻子的边界区域中最低部分的鼻根点(Nasion点,N),以及作为在下颚骨中最低的位点的颏下点(Menton,Me),通过在所述冠状面头部图像30上的Y轴方向上测量作为经由所述鼻根点N的垂直面的NTVP(Nasion true vertical plane)和所述颏下点Me之间的距离,来导出作为所述十三个参数中的一个参数的下颚骨中心的位移程度,从而能够诊断被检者的上颚骨和下颚骨的左右咬合关系。
并且,机器学习算法检测在冠状面头部图像30上提取的作为在额头和鼻子的边界区域中最低部分的鼻根点(Nasion点,N)及在口腔全息图像40上经由上颚中切齿中心UDM的垂直线,通过在所述冠状面头部图像上的Y轴方向上测量作为经由所述鼻根点N的垂直面的NTVP(Nasion true vertical plane)和经由所述上颚中切齿中心UDM的垂直线之间的距离,来导出作为所述十三个参数中的一个参数的上颚中切齿中心的位移程度,从而能够诊断被检者的上颚骨和下颚骨的左右咬合关系。
并且,在机器学习算法中,检测在冠状面头部图像30上提取的作为在额头和鼻子的边界区域中最低部分的鼻根点N及在口腔全息图像40上经由下颚中切齿中心LDM的垂直线,通过在所述冠状面头部图像上的Y轴方向上测量作为经由所述鼻根点N的垂直面的NTVP(Nasion true vertical plane)和经由所述下颚中切齿中心LDM的垂直线之间的距离,来导出作为所述十三个参数中的一个参数的下颚中切齿中心的位移程度,从而能够诊断被检者的上颚骨和下颚骨的左右咬合关系。
并且,机器学习算法检测在冠状面头部图像30上提取的作为在额头和鼻子的边界区域中最低的部分的鼻根点N,以及在口腔全息图像40上的上颚右侧犬齿下端点Ct(Rt),通过将作为经由所述鼻根点(Nasion)的水平面的THP(True horizontal plane)和所述上颚右侧犬齿下端点Ct(Rt)之间的垂直距离作为所述十三个参数中的一个参数导出,从而能够确认水平面和上颚右侧犬齿之间的距离。
并且,机器学习算法检测在冠状面头部图像30上提取的作为在额头和鼻子的边界区域中最低部分的鼻根点N及在口腔全息图像40上的左侧犬齿下端点Ct(Lt),通过将在所述冠状面头部图像30上的Z轴方向上的作为经由所述鼻根点的水平面的THP(Truehorizontal plane)和所述左侧犬齿下端点Ct(Lt)之间的垂直距离作为所述十三个参数中的一个参数导出,能够确认水平面和上颚左侧犬齿之间的距离。
其结果,在水平面上测量出的上颚右侧犬齿和左侧犬齿的距离需要彼此一致,如果彼此存在差异,则可以在犬齿部确认上颚骨的倾斜。
并且,机器学习算法检测在冠状面头部图像30上提取的作为在额头和鼻子的边界区域中最低的部分的鼻根点(Nasion),以及在口腔全息图像40上的上颚右侧第一大臼齿U6MB(Rt),通过将作为经由所述鼻根点的水平面的THP(True horizontal plane)和所述上颚右侧第一大臼齿U6MB(Rt)之间的垂直距离作为所述十三个参数中的一个参数导出,能够确认水平面和上颚右侧第一大臼齿之间的距离。
并且,机器学习算法检测在冠状面头部图像30上提取的作为在额头和鼻子的边界区域中最低的部分的鼻根点N,以及在口腔全息图像40上的上颚左侧第一大臼齿U6MB(Lt),通过将作为经由所述鼻根点的水平面的THP(True horizontal plane)和所述上颚左侧第一大臼齿U6MB(Lt)之间的垂直距离作为所述十三个参数中的一个参数导出,能够确认水平面和上颚左侧第一大臼齿之间的距离。
其结果,在水平面上测量出的上颚右侧第一大臼齿和上颚左侧第一大臼齿的距离需要彼此一致,如果彼此存在差异,则可以在臼齿部确认上颚骨的倾斜。
并且,机器学习算法检测在矢状面头部图像30上提取的作为在额头和鼻子的边界区域中最低的部分的鼻根点N,以及在前齿截面图像50上的上颚前齿上端点(T1)和上颚前齿下端点(T2),通过将作为经由所述鼻根点(Nasion)的水平面THP(True horizontalplane)和所述上颚前齿上端点(T1)以及所述上颚前齿下端点(T2)之间连接的矢量的角度,来将上颚中切齿的倾斜度作为所述十三个参数中的一个参数导出,从而能够诊断被检者的咬合状态。
并且,机器学习算法在矢状面头部图像30上检测作为在下颚骨中最低的位点的颏下点Me,作为在下颚骨中最大曲率位点的下颌角点Go,以及在前齿截面图像50上的下颚前齿上端点(T3)和下颚前齿下端点(T4),通过将所述颏下点Me和所述下颌角点Go之间连接的MeGo线,以及将所述下颚前齿上端点(T3)和所述下颚前齿下端点(T4)之间连接的矢量的角度,来将下颚中切齿的倾斜度作为所述十三个参数中的一个参数导出,从而能够诊断被检者的咬合状态。
并且,机器学习算法在矢状面头部图像20上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点N,作为在下颚骨中最低的位点的颏下点Me,以及作为在下颚骨中最大曲率位点的下颌角点Go,通过将作为经由所述鼻根点N的水平面的THP(True horizontalplane)以及所述颏下点Me和所述下颌角点Go之间连接的MeGo线之间的角度,来将相对于水平参考面(THP)的下颚骨的垂直倾斜度作为所述十三个参数中的一个参数导出,从而能够诊断被检者的垂直颚骨关系。
图4示出通过机器学习算法在矢状面头部图像上检测用于参数导出的多个计测点的过程。
如图4的(a)部分所示,机器学习算法为了检测多个计测点,将被检者矢状面头部图像20分割为四个关心区域(Region of Interest;ROI)。其中,所述矢状面头部图像20被分割为,在前头部上设置于两个鼻骨相遇的最下方的鼻缝点之间的第一区域21、在所述鼻缝点上设置于上颚牙齿之间的第二区域23、在所述上颚牙齿上设置于下颚骨的颏下点(Menton,Me)之间的第三区域25以及在所述下颚骨的颏下点上设置于颌关节骨(Articulare,Ar)之间的第四区域29,并在各个的四个关心区域中检测用于参数导出的多个计测点。
为此,机器学习算法为了将矢状面头部图像20分割为各个的四个关心区域,分割为沿着被检者颜面部前方显示为红色线,并且由所述第一区域21、所述第二区域23以及所述第三区域25构成的颜面部轮廓区域27,以及沿着被检者下颚骨区域显示为绿色线,并且由所述第四区域25构成的颌轮廓区域并进行提取。为了在所述矢状面头部图像20上提取颜面部轮廓区域27和由第四区域29构成的颌轮廓区域,所述矢状面头部图像20被分割为分别相对于Y轴方向水平或垂直的多个单位像素。
如图4的(a)部分所示,在矢状面头部图像20上提取被检者颜面部轮廓区域27的过程中,基于在矢状面头部图像20内任意的位点与其他相邻的像素在深度程度以及作为颅骨边界的特性方面上的相似性,来执行颜面部轮廓区域提取过程。具体而言,在所述矢状面头部图像20上,具有不是0且最大的X轴值的单位像素的坐标值D(xi,i)与位于之前行(i-1)的单位像素相比,如果满足下述的式,则被认为存在于颜面部轮廓区域27。
式1
其中,n为在所述矢状面头部图像上沿Y轴方向分割的像素的数量。
接着,为了基于从所述矢状面头部图像20获取的颜面部轮廓区域27来提取包括第四区域29的颌轮廓区域,将颏下点Me指定为起始点,如图4的(b)部分所示,在所述矢状面头部图像上将由第四区域29构成的颌轮廓区域分割为多个关心区域29s之后,计算所述多个关心区域29s中的每个的平均深度程度,通过测量所述深度程度急剧地变化的关心区域中的深度程度和颅骨的垂直面之间的实际距离来检测颌关节骨Ar。
参照图3和图4,在所述机器学习算法中,将在构成矢状面方向头部图像20的第一区域21中沿着X轴方向最低地配置的位点检测为鼻背点N,将经由所述检测出的鼻背点N且沿着Z轴方向延伸的垂直面识别为NTVP(Nasion true vertical plane),将经由所述鼻背点N且沿着Y轴方向延伸的水平线识别为THP(True horizontal plane),并由此导出参数。
并且,所述机器学习算法将在构成矢状面头部图像20的第二区域23中作为在上颚前齿部中最低的部分的位点检测为A点(A)。另外,在机器学习算法中不易识别在构成矢状面头部图像的第二区域23内上颚前齿部的形状的情况下,通过将设置在上颚前齿部上部并向牙齿前方凸出的前鼻棘点(acanthion)和上颚前齿部之间的边界区域顺滑地衔接,来补充上颚前齿部的形状。随后,在机器学习算法中,将在颜面部轮廓边界区域内在X轴方向上最低地配置的位点或在所述颜面部轮廓边界区域内斜率最小的位点检测为A点。
并且,所述机器学习算法在构成矢状面头部图像20的第三区域25上,分别检测作为在下颚骨中X轴方向上最低的位点的B点(B),作为在下颚骨中X轴方向上最高的位点的颏前点Pog,以及作为在下颚骨中Y轴方向上最低的位点的颏下点Me。
另外,在被检者的下颚骨相较于下颚前齿部向内侧凹入的情况下,将无法按照如上所述的方法顺畅地检测B点(B)和颏前点Pog,在此情况下,在机器学习算法中,将在构成矢状面头部图像20的第三区域25中在下颚骨中最凹入的位点和最凸出的位点分别检测为B点(B)以及颏前点Pog。
并且,所述机器学习算法可以检测作为在构成矢状面头部图像20的第四区域29中下颚骨的最大曲率位点的下颌角点Go。为此,在所述机器学习算法中,将经由颏下点Me且与下颚骨下部相切的切线和经由关节骨且与下颚骨的左侧部相切的切线的交叉点检测为下颌角点Go。
图5示出通过机器学习算法在冠状面方向头部图像上检测多个计测点的过程。
如图5所示,机器学习算法为了检测多个计测点,可以将冠状面头部图像30以包括两个关心区域(Region of Interest;ROI)的方式进行分割。在所述机器学习算法中,冠状面头部图像30被分割为在颜面部上作为眼睛和两个鼻骨相遇的最下方位点的鼻缝点之间中包括的第五区域31以及作为下颚骨区域的第六区域33,并分别检测头部计测计测点。
另外,由于在冠状面头部图像30和矢状面头部图像20上检测出的各个鼻根点N共享相同的Z轴位置坐标,在所述冠状面头部图像30上的Y轴位置坐标在检测鼻根点N的过程中作为主要要素起到作用。在所述冠状面头部图像20上,通过在从到/>(其中,ZN为N点的Z轴位置坐标,n为自然数)之间包括的多个单位像素中检测鼻骨区域中的左侧端坐标值(Ti)以及右侧端坐标值(T'i),由下述式2检测所述鼻根点N的Y轴位置坐标(yN)。
式2
在所述冠状面头部图像30上检测第六区域33的过程中,在机器学习算法中,检测作为经由在矢状面头部图像20上检测出的A点(A)的Z轴位置坐标(ZA)和B点的Z轴位置坐标(ZB)的中央点的Z轴位置坐标 的垂直线,以及在冠状面头部图像30上的左侧下颚骨和右侧下颚骨分别相遇的交叉点S1、S2,并将所述检测出的一对交叉点S1、S2下部区域指定为所述冠状面头部图像30上的第六区域33。
此外,检测在所述冠状面头部图像30上的第六区域33中沿Z轴方向凸出的形状的区域,并将所述区域中X轴坐标值最大的位点检测为颏下点Me。
图6至图10示出通过机器学习算法在口腔全息图像上检测多个计测点的过程。
图6示出基于机器学习算法在口腔全息图像40上采用R-CNN(Region basedconvolutional neural networks)机器学习模型,来在被检者的整个牙齿中感测每个个别牙齿区域41的过程。为了与相邻的区域彼此区分,所述个别牙齿区域41被显示为多个彼此不同的颜色。
图7示出在所述感测出的整个牙齿中,针对每个个别牙齿区域41检测表示牙齿的位置的牙齿计测点42的过程。其中,所述牙齿计测点42在Mask R-CNN模型中被检测为在检测出的整个牙齿中每个个别牙齿区域41内部的中央点。
图8示出对所述检测出的牙齿计测点42的位置进行分析,并在口腔全息图像40上将被检者整个牙齿分类为上颚牙齿40a以及下颚牙齿40b的过程。
作为用于所述分类的统计方法,根据线性回归分析(Linear regression method)方法来设定与所述检测出的多个牙齿计测点42位置分别对应的二维位置坐标,并生成经由所述坐标的二次函数43。通过感测在图7中感测出牙齿计测点42的位置和所述二次函数43的相对位置,来将所述牙齿计测点42区分为上部牙齿计测点42a和下部牙齿计测点42b,据此将在口腔全息图像40上显示的整个牙齿分类为上颚牙齿40a或下颚牙齿40b。
图9示出在口腔全息图像40上从颜面部中央线44沿着水平距离,通过在上颚牙齿40a以及下颚牙齿40b每个中检测出的到牙齿计测点42的距离计算,来向右侧上颚牙齿40a1、左侧上颚牙齿40a2、右侧下颚牙齿40b1以及左侧下颚牙齿40b2分别赋予编号的过程。
通过所述赋予编号过程在口腔全息图像40上显示的被检者的整个牙齿按照从所述颜面部中央线44到所述检测出的计测点(42,参照图8)的水平方向距离短的顺序依次地指定编号。
并且,通过所述赋予编号过程来感测从所述颜面部中央线44到相邻的两个牙齿分别检测出的牙齿计测点的距离之间存在异常的偏差,从而能够感测出缺损的牙齿40m。在图9的实施例中,通过机器学习算法可以确认出右侧上颚牙齿40a1的第一大臼齿(6号牙齿)为缺损牙齿40m。
图10示出对所述赋予编号的牙齿进行分析,并在口腔全息图像40上显示的整个牙齿中在包括前齿、犬齿以及第一大臼齿的检测对象牙齿检测用于导出参数的多个计测点的过程。
参照图9,为了导出所述十三个参数而需要检测计测点的检测对象牙齿45有:在口腔全息图像40上显示的整个牙齿中在所述右侧上颚牙齿40a1上的前齿(1号牙齿)、犬齿(3号牙齿)、第一大臼齿(6号牙齿)、在所述左侧上颚牙齿40a2上的前齿(1号牙齿)、犬齿(3号牙齿)、第一大臼齿(6号牙齿)、在所述右侧下颚牙齿40b1上的前齿(1号牙齿)以及在所述左侧下颚牙齿40a2上的前齿(1号牙齿)。
如图10所示,在机器学习算法中,通过调整包括多个检测对象牙齿45(包括前述的前齿、犬齿以及第一大臼齿)的关心区域(Region of Interest;ROI)的大小,并将与所述调整的检测对象牙齿相关的关心区域加载到CNN模型,能够在所述多个检测对象牙齿45中的每个中检测三个牙齿计测点47。
其中,在所述多个检测对象牙齿45中分别检测出的三个牙齿计测点47包括在构成牙齿的齿冠中的珐琅质(tooth enamel)部位上的左侧牙齿计测点(P1)、中央牙齿计测点(P2)以及右侧牙齿计测点(P3)。其结果,基于分别与从CNN模型中学习的检测对象牙齿45中检测出的三个牙齿计测点相关的位置坐标48,能够在口腔全息图像40上检测用于从各个检测对象牙齿45中导出参数的多个计测点。
例如,在机器学习算法中,为了检测用于导出参数的多个计测点,将在图10所示的口腔参数图像40上的上颚前齿和下颚前齿中分别检测出的三个计测点中的中央牙齿计测点(P2)的中央点定义为上颚中切齿中央点UDM以及下颚中切齿中央点LDM。
另外,在通过所述口腔全息图像40感测出的四个前齿45中分别检测三个牙齿计测点(P1,P2,P3),基于在所述四个前齿45中分别检测出的三个牙齿计测点(P1,P2,P3)来从口腔全息图像40获取前齿截面图像50(参照图3)。参照图3,机器学习算法中使用CNN模型分散处理来在所述前齿截面图像50上精密地检测上颚前齿上端点(T1)、上颚前齿下端点(T2)、下颚前齿上端点(T3)以及下颚前齿下端点(T4)。
机器学习算法通过测量将在所述前齿截面图像上检测出的上颚前齿上端点(T1)和上颚前齿下端点(T2)连接的矢量以及经由N点的水平面(NTVP)之间的角度,并测量将所述下颚前齿上端点(T3)和下颚前齿下端点(T4)连接的矢量以及MeGo线之间的角度,其结果对前齿部倾斜度进行评价,并将其作为牙齿矫正诊断参数使用。
如前所示,根据本发明的基于机器学习的牙齿矫正头部计测参数导出方法还包括:步骤S400,与在所述十三个参数导出步骤S300中导出的十三个参数对应地诊断被检者的颜面部形状或咬合状态。
其中,在与所述十三个参数对应地诊断被检者的咬合状态的情况下,在机器学习算法中,为了区分正常咬合和错颌畸形,根据在其内部存储的所述参数参考值,分别分类为上颚骨和下颚骨的前后关系处于较为正常范围的状态、上颚骨相较于下颚骨较为凸出的状态以及下颚骨相较于上颚骨较为凸出的状态并进行诊断。
并且,在与所述导出的十三个参数对应地诊断被检者的颜面部形状的情况下,在机器学习算法中,对被检者的颜面部长度程度进行分析,并为了执行矫正诊断,根据在其内部存储的所述参数参考值,分别分类为颜面部长度处于正常范围的状态、颜面部长度处于比正常范围更短的状态以及颜面部长度处于比正常范围更长的状态并进行诊断。
图11示出应用根据本发明的基于机器学习的头部计测参数导出方法的图形用户界面的画面,图12放大示出图11所示的所述图形用户界面的画面中的诊断结果显示区域。
在图11所示的采用基于机器学习的头部计测参数导出方法的图形用户界面(Graphic user interface;GUI)中,以显示器为媒介,在每当执行构成所述基于机器学习的头部计测参数导出方法的各个步骤时,将表示所述各个步骤执行过程的多个图像或输入输出图标等显示在显示器的画面。
例如,当在基于机器学习的头部计测参数导出方法中执行获取诊断用头部计测图像的步骤S100时,通过头部计测图像生成区域100将对被检者的颜面部进行3D锥形束计算机断层扫描(CBCT)的影像数据10以及从所述CBCT影像数据10提取的包括矢状面头部图像20、冠状面头部图像30、口腔全息图像40以及前齿截面图像50等的多个诊断用头部计测图像显示在显示器画面。
此外,当在基于机器学习的头部计测参数导出方法中执行检测多个计测点的步骤S200时,为了在计测点显示区域200中能够利用本发明的机器学习算法自动地检测用于导出参数的计测点,或者能够显示牙科专家医师等熟练者在所述显示器画面上直接以手动方式检测的计测点,与所述检测出的计测点对应的多种符号、图形等图标显示在显示器画面。
如图12所示,当在基于机器学习的头部计测参数导出方法中执行检测多个计测点的步骤S200时,在利用由构成所述图形用户界面(GUI)装置的处理器中输入的机器学习算法来执行导出十三个参数的步骤S300之后,通过在所述显示器画面上显示的诊断结果显示区域300来显示与所导出的十三个参数相关的信息310。
另外,如前所述,根据本发明的基于机器学习的头部计测参数导出方法还可以包括:步骤S400,与在所述十三个参数导出步骤S300中导出的十三个参数对应地诊断被检者的颜面部形状或咬合状态。
由此,当在基于机器学习的牙齿矫正导出方法中执行诊断被检者的颜面部形状或咬合状态的步骤S400时,通过诊断结果显示区域300与十三个参数对应地将针对被检者的咬合状态或颜面部形状进行自动诊断的信息320显示在显示器画面上。
例如,在被检者的上颚骨和下颚骨的前后咬合状态处于较为正常范围时,所述诊断信息被显示为“Class I”,被检者的上颚骨相较于下颚骨较为凸出的状态被显示为“Class II”,下颚骨相较于上颚骨较为凸出的状态被显示为“Class III”等语句。
并且,将与被检者颜面部形状相关的信息320显示在所述显示器画面的诊断结果显示区域300,例如,被检者颜面部长度处于正常范围的状态被显示为“Meso-cephalicfacial pattern”,颜面部长度处于比正常范围更短的状态被显示为“Brachy-cephalicfacial pattern”,颜面部长度处于比正常范围更长的状态被显示为“Dolicho-cephalicfacial pattern”等语句。
这样的头部计测参数导出方法被程序化为头部计测参数导出程序,并安装或存储在用户计算装置或可计算的云服务器,如上所述的程序被程序化为自动地执行如下的步骤:将在前述的头部计测参数导出方法的获取诊断用头部计测图像的步骤中提取的头部诊断用头部计测图像作为输入数据,且将所述多个计测点作为输出数据进行检测的步骤;以及,所述导出程序导出与所述检测出的多个计测点之间的距离或角度对应的十三个参数的步骤。
当然,将多个计测点作为输出数据进行检测的步骤和所述导出程序导出与所述检测出的多个计测点之间的距离或角度对应的十三个参数的步骤可以被程序化为,将其依次地或按步骤地根据用户的选择来执行。
如上所述,根据本发明的基于机器学习的头部计测参数导出方法,从针对被检者进行CBCT拍摄的影像数据中采用机器学习算法来获取在特定角度下提取的诊断用头部计测图像,并用于与从所述诊断用头部计测图像检测出的多个计测点对应地导出十三个参数的整个过程可以在数秒乃至数十秒内执行,因此,能够迅速、一贯且准确地实现用于牙齿矫正诊断的参数导出。
并且,在本发明的基于机器学习的头部计测参数导出方法与图形用户界面结合的情况下,通过将所述各个步骤中执行的结果显示在显示器画面,被检者以及牙科专家医师等第三方能够顺畅地确认用于牙齿矫正诊断的计测点以及十三个参数的导出过程和诊断结果。
进一步,根据本发明的基于机器学习的头部计测参数导出方法,在自动诊断被检者的颜面部形状或咬合状态并将其显示的效果的基础上,进一步具有与所述导出的十三个参数对应地自动设计用于被检者的适配型牙科矫正装置等能够进一步扩大其应用范围的优异的期待效果。
虽然本说明书中参照本发明的优选实施例进行了说明,但是相应技术领域的技术人员可以在不背离所附的权利要求书中记载的本发明的技术思想以及领域的范围内对本发明实施多样的修改以及变更。因此,只要所变形的实施基本上包括本发明的权利要求书的结构要素,则应当被认为均落入本发明的技术范围。
Claims (22)
1.一种用于牙齿矫正诊断的头部计测参数导出方法,其为利用头部诊断用头部计测图像的基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法,所述头部诊断用头部计测图像是从在自然头位状态下对被检者分别获取包括矢状面头部图像、冠状面头部图像、口腔全息图像以及前齿截面图像的诊断用头部计测图像的步骤中提取的,其特征在于,所述方法包括:
基于机器学习算法检测多个计测点,以在所述头部计测图像上导出用于牙齿矫正诊断的十三个参数的步骤;以及
导出与检测出的所述多个计测点之间的距离或角度对应的十三个参数的步骤。
2.根据权利要求1所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述十三个参数包括上颚骨的凸出度、下颚骨的凸出度、颏前点的凸出度、下颚骨中心的位移程度、上颚中切齿中心的位移程度、下颚中切齿中心的位移程度、从经由作为额头和鼻子的边界区域中最低的部分的鼻根点(Nasion点)的水平面(真实水平平面,THP)到右侧犬齿下端点的垂直距离、从所述真实水平平面THP到左侧犬齿下端点的垂直距离、从所述真实水平平面THP到右侧上颚第一大臼齿的垂直距离、从所述真实水平平面THP到左侧上颚第一大臼齿的垂直距离、上颚中切齿倾斜度、下颚中切齿倾斜度以及相对于所述真实水平平面THP的下颚骨的垂直倾斜度,以提供用于牙齿矫正诊断的信息。
3.根据权利要求1所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法将矢状面头部图像分割为从前头部到鼻缝点之间设置的区域、从所述鼻缝点到上部牙齿之间的区域、从所述上部牙齿到下颚骨颏下点之间的区域以及从所述下颚骨颏下点到颌关节骨之间的区域,从而检测用于导出所述十三个参数的多个计测点。
4.根据权利要求1所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法将冠状面头部图像分割为从前头部到鼻缝点之间的区域以及下颚骨区域,从而检测出用于导出所述十三个参数的多个计测点。
5.根据权利要求1所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,所述机器学习算法包括:
在口腔全息图像中采用基于区域的卷积神经网络R-CNN机器学习模型来感测整个牙齿中的个别区域的过程;
在感测出的所述整个牙齿的每个的个别区域检测表示牙齿的位置的牙齿计测点的过程;
通过分析检测出的所述牙齿计测点的位置,将整个牙齿分类为上颚牙齿和下颚牙齿的过程;
根据从颜面部中央线到检测出的所述牙齿计测点的水平距离,依次地向每个右侧上颚牙齿、左侧上颚牙齿、右侧下颚牙齿以及左侧下颚牙齿赋予编号的过程;以及
通过分析所述赋予编号的牙齿,在包括前齿、犬齿以及第一大臼齿的特定牙齿中检测用于导出参数的多个计测点的过程。
6.根据权利要求2所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法在矢状面头部图像上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点,以及作为在将位于上颚骨的前鼻棘和上颚前齿齿槽点连接的线中最低的部分的A点,
通过测量作为经由所述鼻根点的垂直面的鼻根点真实垂直平面NTVP和所述A点之间的距离,来导出上颚骨的凸出度。
7.根据权利要求2所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法在矢状面头部图像上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点,以及作为在将下颚前齿的齿槽点和颏前点连接的最深的部分的B点,
通过测量作为经由所述鼻根点的垂直面的鼻根点真实垂直平面NTVP和所述B点之间的距离,来导出下颚骨的凸出度。
8.根据权利要求2所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法在矢状面头部图像上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点,以及从下颚骨最向前方凸出的颏前点,
通过测量作为经由所述鼻根点的垂直面的鼻根点真实垂直平面NTVP和所述颏前点之间的距离,来导出颏前点的凸出度。
9.根据权利要求2所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法在冠状面头部图像上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点,以及作为在下颚骨中最低的位点的颏下点,
通过测量作为经由所述鼻根点的垂直面的鼻根点真实垂直平面NTVP和所述颏下点之间的距离,来导出下颚骨中心的位移程度。
10.根据权利要求2所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法在冠状面头部图像上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点,以及在口腔全息图像上的上颚中切齿中央点,
通过测量作为经由所述鼻根点的垂直面的鼻根点真实垂直平面NTVP和所述上颚中切齿中央点之间的距离,来导出上颚中切齿中心的位移程度。
11.根据权利要求2所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法在冠状面头部图像上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点,以及在口腔全息图像上的下颚中切齿中央点,
通过测量作为经由所述鼻根点的垂直面的鼻根点真实垂直平面NTVP和所述下颚中切齿中央点之间的距离,来导出下颚中切齿中心的位移程度。
12.根据权利要求2所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法在冠状面头部图像上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点,以及在口腔全息图像上的右侧犬齿下端点,
导出作为经由所述鼻根点的水平面的真实水平平面THP和所述右侧犬齿下端点之间的垂直距离。
13.根据权利要求2所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法在冠状面头部图像上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点,以及在口腔全息图像上的左侧犬齿下端点,
导出作为经由所述鼻根点的水平面的真实水平平面THP和所述左侧犬齿下端点之间的垂直距离。
14.根据权利要求2所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法在冠状面头部图像上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点,以及在口腔全息图像上的上颚右侧第一大臼齿下端点,
通过作为经由所述鼻根点的水平面的真实水平平面THP和所述上颚右侧第一大臼齿下端点之间的距离,来导出从真实水平平面THP到上颚右侧第一大臼齿的垂直距离。
15.根据权利要求2所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法在冠状面头部图像上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点,以及在口腔全息图像上的上颚左侧第一大臼齿下端点,
通过作为经由所述鼻根点的水平面的真实水平平面THP和所述上颚左侧第一大臼齿下端点之间的距离,来导出从真实水平平面THP到上颚左侧第一大臼齿的垂直距离。
16.根据权利要求2所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法在冠状面头部图像上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点,以及在前齿截面图像上的上颚前齿上端点和上颚前齿下端点,
通过将作为经由所述鼻根点的水平面的真实水平平面THP和所述上颚前齿上端点以及所述上颚前齿下端点之间连接的矢量之间的角度,来导出上颚中切齿的倾斜度。
17.根据权利要求2所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法在矢状面头部图像上检测作为在下颚骨中最低的位点的颏下点,作为在下颚骨中最大曲率位点的下颌角点,以及在前齿截面图像上的下颚前齿上端点和下颚前齿下端点,
通过将所述颏下点和所述下颌角点之间连接的颏下点-下颌角点MeGo线,以及将所述下颚前齿上端点和所述下颚前齿下端点之间连接的矢量之间的角度,来导出下颚中切齿的倾斜度。
18.根据权利要求2所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
所述机器学习算法在矢状面头部图像上检测作为在额头和鼻子的边界区域中最低的部分的鼻根点,作为在下颚骨中最低的位点的颏下点,以及作为在下颚骨中最大曲率位点的下颌角点,
通过将作为经由所述鼻根点的水平面的真实水平平面THP和所述颏下点以及所述下颌角点之间连接的颏下点-下颌角点MeGo线之间的角度,来导出相对于真实水平平面THP的下颚骨的垂直倾斜度。
19.根据权利要求1所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,还包括:
对应于导出的所述十三个参数来诊断被检者的颜面部形状或咬合状态的步骤。
20.根据权利要求19所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
在对应于导出的所述十三个参数而诊断被检者的咬合状态的情况下,分别分类上颚骨和下颚骨的前后咬合状态处于正常范围的状态、上颚骨相较于下颚骨更加凸出的状态以及下颚骨相较于上颚骨更加凸出的状态并进行诊断。
21.根据权利要求19所述的用于牙齿矫正诊断的头部计测参数导出方法,其特征在于,
在对应于导出的所述十三个参数而诊断被检者的颜面部形状的情况下,分别分类颜面部长度处于正常范围的状态、颜面部长度处于比正常范围更短的状态以及颜面部长度处于比正常范围更长的状态并进行诊断。
22.一种用于牙齿矫正诊断的头部计测参数导出程序,其特征在于,所述导出程序安装在计算装置或可计算的云服务器中,被程序化为自动执行如下的步骤:
将头部诊断用头部计测图像作为输入数据,将多个计测点作为输出数据进行检测的步骤,其中,从根据权利要求1至21中任一项所述的用于牙齿矫正诊断的头部计测参数导出方法的获取诊断用头部计测图像的步骤中提取所述头部诊断用头部计测图像;以及
导出与检测出的所述多个计测点之间的距离或角度对应的十三个参数的步骤。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210102733A KR102372962B1 (ko) | 2021-08-04 | 2021-08-04 | 자연 두부 위치에서 촬영된 3차원 cbct 영상에서 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법 |
KR10-2021-0102733 | 2021-08-04 | ||
PCT/KR2021/011012 WO2023013805A1 (ko) | 2021-08-04 | 2021-08-19 | 자연 두부 위치에서 촬영된 3차원 cbct 영상에서 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117769391A true CN117769391A (zh) | 2024-03-26 |
Family
ID=80814374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180101157.1A Pending CN117769391A (zh) | 2021-08-04 | 2021-08-19 | 在自然头位上拍摄的三维cbct影像中基于机器学习的用于牙齿矫正诊断的头部计测参数导出方法 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP4382074A1 (zh) |
JP (1) | JP2024532708A (zh) |
KR (1) | KR102372962B1 (zh) |
CN (1) | CN117769391A (zh) |
WO (1) | WO2023013805A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102536834B1 (ko) * | 2022-08-17 | 2023-05-26 | 주식회사 인비전랩 | 인공지능을 이용한 치아번호 식별 방법 및 치아 상태 판독문 생성 방법 |
CN116883428B (zh) * | 2023-07-07 | 2024-05-31 | 东北大学 | 一种下颌骨螺旋ct影像分区分割方法 |
CN118319489B (zh) * | 2024-06-12 | 2024-08-09 | 吉林大学 | 一种安全距离确定方法、装置、设备及介质 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2530220C1 (ru) * | 2013-03-18 | 2014-10-10 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Система и способ для автоматической регистрации анатомических точек в объемных медицинских изображениях |
KR101573747B1 (ko) * | 2013-12-19 | 2015-12-02 | 경희대학교 산학협력단 | 덴탈 정보 제공방법, 덴탈 정보 제공시스템 및 컴퓨터로 읽을 수 있는 기록매체 |
WO2017069231A1 (ja) * | 2015-10-23 | 2017-04-27 | 国立大学法人大阪大学 | 人体における治療後の形態予測方法及びシステム |
KR20170097929A (ko) | 2016-02-19 | 2017-08-29 | 하신희 | 치과 의료용 ct 기반 3d 데이터 생성 시스템 |
US10368814B2 (en) * | 2016-12-30 | 2019-08-06 | Carestream Dental Technology Topco Limited | Method for cephalometric analysis |
KR102085629B1 (ko) * | 2017-12-07 | 2020-03-06 | 이혜주 | 환자의 치아 및 악골 구조를 분석하는 장치 및 그 방법 |
KR102099390B1 (ko) * | 2018-08-21 | 2020-04-09 | 디디에이치 주식회사 | 교정 진단을 위한 치과 영상 분석 방법 및 이를 이용한 장치 |
KR102268433B1 (ko) * | 2019-08-08 | 2021-06-23 | 오스템임플란트 주식회사 | 치아교정 진단 방법 및 장치 |
US10898298B1 (en) * | 2020-04-08 | 2021-01-26 | Oxilio Ltd | Systems and methods for determining orthodontic treatment |
-
2021
- 2021-08-04 KR KR1020210102733A patent/KR102372962B1/ko active IP Right Grant
- 2021-08-19 EP EP21952927.8A patent/EP4382074A1/en active Pending
- 2021-08-19 WO PCT/KR2021/011012 patent/WO2023013805A1/ko active Application Filing
- 2021-08-19 JP JP2024506755A patent/JP2024532708A/ja active Pending
- 2021-08-19 CN CN202180101157.1A patent/CN117769391A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
KR102372962B9 (ko) | 2024-02-08 |
WO2023013805A1 (ko) | 2023-02-09 |
EP4382074A1 (en) | 2024-06-12 |
JP2024532708A (ja) | 2024-09-10 |
KR102372962B1 (ko) | 2022-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230320818A1 (en) | Reconstruction of a virtual computed-tomography volume to track orthodontics treatment evolution | |
EP2134290B1 (en) | Computer-assisted creation of a custom tooth set-up using facial analysis | |
JP6531115B2 (ja) | 3d頭部計測分析の方法 | |
US11734825B2 (en) | Segmentation device and method of generating learning model | |
JP6273149B2 (ja) | 顔面補正イメージ提供方法およびそのシステム | |
KR102372962B1 (ko) | 자연 두부 위치에서 촬영된 3차원 cbct 영상에서 기계 학습 기반 치아 교정 진단을 위한 두부 계측 파라미터 도출방법 | |
US20210153976A1 (en) | Method of optimization in orthodontic applications | |
US11896452B2 (en) | Method for virtual setup with mixed dentition | |
US12097064B2 (en) | Method and system for 3D cephalometric analysis | |
KR102320857B1 (ko) | 교정 디자인 방법 및 그 장치 | |
US12062170B2 (en) | System and method for classifying a tooth condition based on landmarked anthropomorphic measurements | |
US20220361992A1 (en) | System and Method for Predicting a Crown and Implant Feature for Dental Implant Planning | |
US11488305B2 (en) | Segmentation device | |
US20230419631A1 (en) | Guided Implant Surgery Planning System and Method | |
KR102302249B1 (ko) | 영상처리와 cnn을 이용한 자동 3차원 세팔로메트리 장치 및 방법 | |
Barone et al. | Geometrical modeling of complete dental shapes by using panoramic X-ray, digital mouth data and anatomical templates | |
KR102667673B1 (ko) | 치과 교정치료 계획 수립 방법 및 그 장치 | |
CN113039587A (zh) | 使用口内扫描仪获取3d数据的混合方法 | |
JP2023551897A (ja) | 歯列矯正器具における最適化の方法 | |
CN113226186B (zh) | 在牙科诊断中实时可视化患者的颅颌面区域中下颌相对于上颌的移动的装置 | |
Grochala et al. | Evaluation of Geometric Occlusal Conditions Based on the Image Analysis of Dental Plaster Models | |
JP2024109182A (ja) | 支援装置、支援方法、および支援プログラム | |
KR20240135155A (ko) | 자연 두부 위치에서 촬영된 엑스레이(X-ray) 이미지를 이용한 기계학습 기반 치아 교정 진단을 위한 두부계측 파라미터 도출방법 | |
WO2023240333A1 (en) | System, method and apparatus for personalized dental prostheses planning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |