CN113906439A - 用于确定咬合参数的方法、系统和计算机可读存储介质 - Google Patents
用于确定咬合参数的方法、系统和计算机可读存储介质 Download PDFInfo
- Publication number
- CN113906439A CN113906439A CN202080041032.XA CN202080041032A CN113906439A CN 113906439 A CN113906439 A CN 113906439A CN 202080041032 A CN202080041032 A CN 202080041032A CN 113906439 A CN113906439 A CN 113906439A
- Authority
- CN
- China
- Prior art keywords
- patient
- parameters
- articulator
- fixed
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C7/00—Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
- A61C7/002—Orthodontic computer assisted systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C11/00—Dental articulators, i.e. for simulating movement of the temporo-mandibular joints; Articulation forms or mouldings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C19/00—Dental auxiliary appliances
- A61C19/04—Measuring instruments specially adapted for dentistry
- A61C19/045—Measuring instruments specially adapted for dentistry for recording mandibular movement, e.g. face bows
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
- A61C9/0053—Optical means or methods, e.g. scanning the teeth by a laser or light beam
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Epidemiology (AREA)
- Biomedical Technology (AREA)
- Theoretical Computer Science (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Dentistry (AREA)
- Biophysics (AREA)
- Primary Health Care (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Data Mining & Analysis (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Computer Graphics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Geometry (AREA)
- Mathematical Physics (AREA)
- Heart & Thoracic Surgery (AREA)
- Computing Systems (AREA)
- Surgery (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
Abstract
一种用于确定咬合架参数的方法、系统和计算机可读存储介质。牙医可以使用诸如智能电话之类的移动设备快速且便宜地可视化患者面部和颚的3D模型,其中使用深度传感器检测深度信息。然后可以获得咬合架参数以用于基于对患者牙齿正确功能的分析的治疗计划。
Description
相关申请的交叉引用
本专利申请要求于2019年6月5日提交的美国申请No.16/431,830的权益和优先权,其出于所有目的通过引用并入本文。
技术领域
本申请一般而言涉及一种用于确定咬合参数的方法、系统和计算机可读存储介质,更具体而言,涉及一种用于利用3D面部检测方法确定患者的咬合参数的方法、系统和计算机可读存储介质。
背景技术
牙医可以使用具有上部和下部组件的咬合架,上颌和下颌铸型(cast)可以附接到这些组件上,以再现患者的上颌骨与患者的下颌骨的静态关系。这可以用于研究单个牙齿和完整牙弓以进行诊断和/或治疗计划,以及允许调整固定和可拆卸假体和牙齿修复体。
可以使用面弓来设置咬合架,其中可以确定患者的颞下颌关节的移动。在本文中,面弓可以定位在耳朵中,以通过参考使用患者耳朵的近似值来传递任意铰合轴位置。面弓也可以通过咬嘴(mouth piece)与患者面部对准。带有可调节枢轴接头的固定框架可以用于支撑面弓;并且强制驱动的定位机构用于调整枢轴接头,以提供期望的面弓位置和外观。
面弓可以将上颌弓和颞下颌关节之间的关系转移到铸型上。它可以记录铰合轴中上颌骨与外耳道的关系,并有助于在咬合架上安装上颌骨铸型。
患者还可以进行各种咀嚼移动(颚(jaw)的横向、向前/向后移动等),从而允许牙医读取面弓上的某些值以在例如商用咬合架中使用。
这需要大量时间并且给患者带来不愉快的过程。因此,在不使用物理面弓或物理咬合架的情况下快速且自动地确定咬合参数将是有用的。
美国专利No.9336336B2公开了将面部检测用于“微笑”设计应用。在该文中,可以通过提供一个或多个2D图像来为患者设计牙齿修复体,其中至少一个2D图像包括至少一个面部特征;提供患者口腔的一部分的3D虚拟模型并且相对于3D虚拟模型布置2D图像之一。3D虚拟模型和2D图像都在3D空间中进行可视化;并且在3D虚拟模型上对修复体进行建模,使得它适合至少一个2D图像的面部特征。
美国专利No.US9642686B1公开了一种使用便携式计算设备记录患者的咬合弓的特性的方法和系统。在本文中,虚拟面弓可以用于使用具有一组十字准线的面部对准图像来记录患者的咬合弓的特性。然后可以使用记录的特性来复制患者的咬合弓与实验室支架中的上颌铸型的对准,然后可以将上颌铸型移动到咬合架上,以便为患者生产定制的假牙。
PCT申请No.WO201367606公开了使用数字元件将模型铰接到物理咬合架中,其中物理研究模型布置在咬合架中并且在研究模型上确定犬线和咬合平面的方向。
美国专利申请No.8706672B2公开了一种使用面部分析创建定制牙齿的计算机辅助方法,包括获得关于待治疗的区域的数据和关于患者面部的数据、对数据进行分析以确定至少患者面部的属性,以及使用一组存储的规则创建修改后的牙齿设置,这些规则利用所确定的面部属性。
这些方法或者不利用深度信息,或者使用可能不理想的X射线图像。
发明内容
与前述相关联的现有限制以及其它限制可以通过用于确定咬合参数的方法、系统和计算机可读存储介质来克服。
在本文的一个方面,本发明可以提供一种用于确定咬合参数的方法,该方法包括:接收患者面部的图像;基于接收到的图像确定患者面部中的固定和/或移动点;基于确定的固定和/或移动点计算咬合架参数。
在本文的另一方面,该方法还可以包括以下步骤中的一个或多个步骤:(i)其中咬合架参数选自由以下各项组成的组:(1)Bonwill三角形的边,(2)髁间距离,(3)Balkwill角,(4)矢状髁路径倾斜度,(5)Bennett角,(6)初始Bennett移动,以及(7)Spee曲线,(ii)还包括根据接收到的图像重建患者面部的3D模型,(iii)还包括将患者口腔内的扫描叠加在3D模型上,(iv)其中确定步骤是通过特征分析来实现的,(v)其中特征分析包括使用深度学习确定固定和/或移动点,(vi)其中固定点包括颞下颌关节的位置。(vii)其中计算步骤是使用使用固定和/或移动点测量的几何距离和/或角度来实现的,(viii)还包括使用计算出的咬合架参数填充具有咬合值的虚拟咬合架,(ix)还包括基于咬合架参数分析牙齿的功能,(x)还包括基于咬合架参数产生修复体或治疗计划。
在又一方面,本发明可以提供一种用于确定咬合参数的计算机实现的方法,该计算机实现的方法包括:使用一个或多个计算设备和多个训练图像训练深度神经网络以将每个训练图像的至少一部分中的一个或多个固定和/或移动点映射到位置概率向量的一个或多个最高位置概率值;由一个或多个计算设备接收患者面部的包括至少一个颚的图像;使用经训练的神经网络,基于深度神经网络的一个或多个输出位置概率值识别固定和/或移动点;以及基于确定的固定和/或移动点计算咬合架参数。
在本文的另一方面,该计算机实现的方法还可以提供一种方法,其中深度神经网络是卷积神经网络。
在本文的又一方面,可以提供一种用于确定咬合参数的系统,该系统包括至少一个处理器,该处理器被配置为执行以下步骤:接收患者面部的图像;基于接收到的图像确定患者面部中的固定和/或移动点,以及基于确定的固定和/或移动点计算咬合架参数。
该系统还可以提供以下各项的一种或多种组合:(i)其中处理器还被配置为从由以下各项组成的组中选择咬合架参数:(1)Bonwill三角形的边,(2)髁间距离,(3)Balkwill角,(4)矢状髁路径倾斜度,(5)Bennett角,(6)初始Bennett移动,以及(7)Spee曲线,(ii)其中处理器还被配置为根据接收到的图像重建患者面部的3D模型,(iii)其中处理器还被配置为将患者口腔内的扫描叠加在3D模型上,(iv)其中处理器还被配置为通过特征分析确定固定和/或移动点,(v)其中特征分析包括使用深度学习来确定固定和/或移动点,(vi)其中固定点包括颞下颌关节的位置,(vii)其中处理器还被配置为基于咬合架参数产生修复体或治疗计划。
在本发明的又一方面,可以提供一种用于存储程序的非暂态计算机可读存储介质,该程序在由计算机系统执行时,使计算机系统执行过程,包括:接收患者面部的图像;基于接收到的图像确定患者面部的固定和/或移动点;以及基于确定的固定和/或移动点计算咬合架参数。
附图说明
通过下文给出的详细描述和附图将更全面地理解示例实施例,其中相似的元素由相似的附图标记表示,这些附图标记仅作为说明给出,因此不限制本文的示例实施例,其中:
图1是患者面部的透视图,图示了患者面部与三个空间平面的关系。
图2是根据本发明的示例性实施例的图示Bonwill三角形的颚的透视图。
图3a是根据本发明的示例性实施例的图示Bennett角的颚的透视图。
图3b是图示根据本发明的示例性实施例的患者口腔和嘴唇的移动的草图。
图4是根据本发明的示例性实施例的示出Spee曲线的颚的侧视图。
图5是根据本发明的示例性实施例的示出髁间距离的颚的俯视图。
图6是根据本发明的实施例的示出矢状髁路径倾斜度的颚的侧视图。
图7是根据本发明的示例性实施例的图示Balkwill角的颚的透视图。
图8是描述根据本发明的示例性实施例的方法的流程图。
图9是根据本发明的示例性实施例的图示固定点和移动点的系统的侧视图。
图10a是根据本发明的示例性实施例的图示患者口腔的第一次移动的颚的侧视图。
图10b是根据本发明的示例性实施例的图示患者口腔的第二次移动的颚的侧视图。
图11是示出根据本发明的示例性实施例的计算机系统的框图。
不同的附图可以具有至少一些可以相同的附图标记以标识相同的组件,虽然下面可能不会针对每幅图提供每个这样的组件的详细描述。
具体实施方式
根据本文描述的示例方面,可以提供一种用于确定咬合参数的方法、系统和计算机可读存储介质。
用于确定咬合参数的方法
确定特定患者的咬合参数,诸如髁间距离和Bennett角,对于修复体的生产是必不可少的。下文更详细描述的各种咬合参数提供了关于咀嚼过程期间颚移动的自然和正确过程的重要信息。获得的信息允许颚的正确咬合以及牙齿中的牙尖和凹槽位置的指示。这节省了牙医和患者的时间以及由于后期修复体的适配带来的不便。
本发明的一个目标是通过使用深度传感器拍摄的图像在空间平面中将患者口腔的部分诸如上颌弓、下颌弓和/或颞下颌关节与面部相关联。这可以用于上颌弓的牙面分析以及与下颌弓的功能关系的建立。确定咬合参数的过程可以通过使用深度传感器拍摄的图像进行数字化,从而消除对诸如物理面弓之类的复杂结构的需要。
图1图示了穿过优选地包括颚的患者面部10的3D重建的假想平面,这些平面是矢状面S、前额面F和水平面H。矢状面S是可以将患者的头部分成两部分的解剖平面。因此,将头部分成两半的矢状面是中矢状面。前额面F可以与矢状面S成直角,并且可以将头部分成前部区域和后部区域。水平面H也可以与矢状面成直角并且可以将头部分成上部区域和下部区域。
虚拟咬合架可以使牙医能够基于例如患者口腔的上下颚之间的虚拟接触点的确定位置来配置修复体和/或检查牙齿的功能。它还可以使正牙医师尤其能够在牙齿移动/移位时检测牙齿之间的碰撞,因此允许检测在进行任何移动之前的正常咬合情况与移动之后的咬合情况之间的差异。为了配置虚拟咬合架,可以从患者头部的图像中获得特定于患者的输入(特定于患者的咬合参数),所述图像包含可以用于确定患者牙列各部分之间彼此以及与颞下颌关节的相对距离的几何信息。
所述咬合参数可以包括但不限于(i)Bonwill三角形11的边11a(臂),(ii)髁间距离15(Bonwill三角形的底部),(iii)Balkwill角17,(iv)矢状髁路径倾斜度β,(v)Bennett角α,(vi)初始Bennett移动(立即向左/向右侧移),(vii)Spee曲线18。这些参数可以通过使用具有深度传感器24的相机系统22跟踪患者面部上的固定点20和/或移动点21并确定这些点与患者牙列的指定部分之间的几何距离和角度来确定,如下文所描述的。
图2图示了Bonwill三角形11,它是将下颌中切牙14切缘(或下颌残余脊的中线)的接触点连接到每个髁13的中点,并且从一个髁13到另一个髁13的等边三角形13。由于它是等边三角形,因此边11a的长度可以近似相等(通常为4英寸)。基于本文讨论的解剖特征提取方法知道左右颞下颌关节23的位置或大致位置,可以计算Bonwill三角形11的边。
图3a图示了Bennett角α,它是在下颌骨横向移动时在水平面H上观察时在矢状面S和前进的髁13的路径之间形成的角度。如图3a和图3b中所示,随着下颌骨从初始位置(M0)向左(M1)移动,在平面S与前进的髁13a的路径之间形成角度α,并且髁13a上的点p从位置P1移动到位置P2。初始Bennett移动(也称为立即侧移)是指在下颌骨开始横向移动时,两个髁都可能向该侧移位的移动;即,在非工作髁向前、向下和向内移动之前,整个下颌骨可以进行平行于铰合轴线的侧向移动。这种侧移可能难以作为孤立的移动进行,并且它可以被解释为咬合损坏(例如咬合囊或韧带劳损)的证据。
图4示出了Spee曲线,它是从前磨牙开始然后是后牙的颊尖,继续到终磨牙的下颌咬合平面的曲率。
图5图示了髁间距离15,它是患者的两个颞下颌关节23之间的距离(即髁13之间的距离)。图6是示出矢状髁路径倾斜度β的图,即由髁路径(路径P-C,随后是颞下颌关节23中的髁13)和水平参考平面H1形成的角度。这可能在患者下颌骨前伸(向前移动)的过程中发生。
图7示出了Balkwill角17,它是Bonwill三角形11和由下颌牙列的水平面限定的Balkwill三角形/咬合三角形16之间的角度。在不使用物理面弓或物理咬合架的情况下知道虚拟咬合架的这些和其它类似参数可以帮助减少在牙医工作室的治疗时间。
已经描述了示例性咬合架参数,现在将参考图8-10图示可以根据本文的至少一些示例实施例采用的过程S1000。过程S1000可以在步骤S100开始,其中可以拍摄进行预定咀嚼(masticatory)/咀嚼(chewing)移动的患者的多个图像。可以使用具有深度传感器24的相机系统22来拍摄图像。例如,使用具有深度传感器的智能电话(诸如,采用Google Tango技术的Lenovo Phab 2Pro)或彩色和深度相机的独立组合,可以捕获患者面部。深度信息可以用于重建包括颚的面部10的3D模型,如步骤S200中所示。此外,可以在患者进行预定咀嚼移动的同时捕获一系列2D图像,并且可以针对每次移动重建面部10的对应3D模型。重建可以实时完成或可以在必要时完成并用于测量。替代地,知道2D图像在位置以及它们的比例、距离和角度方面如何彼此关联,可以在不进行3D重建的情况下计算这些图像。此外,可以通过识别相关点并将它们逐帧进行比较来记录和/或跟踪移动。图像/记录可以被保存在数据库中。在示例性实施例中,图像可以在数据库中被保存并且被标记用于特定咬合位置。移动可以包括将下颚(下颌弓)推到上颚(上颌弓)前面,并在上颚与下颚接触时左右移动下颚。移动可以被确定为对应于患者咀嚼的自然移动以及可以允许收集咬合所需的几何距离和角度的移动。
在步骤S300中,可以通过特征分析来确定固定点20和/或移动点21。这可以包括使用牙齿和面部解剖结构的自然标记,优选地不使用预定的人工标记。但是,在一些实施例中,可以将预定的人工标记放置在面部和/或口腔上的预定位置,并且可以通过对预定的人工标记的识别来确定固定点20和/或移动点。可以确定这些固定点20和/或移动点21以帮助计算各种距离和角度。固定点20可以帮助确定移动期间面部的朝向。固定点20和/或移动点21可以优选地是面部或口腔上包含很少或不包含软组织的点,诸如例如在前额20a上的点、在鼻子20b下方的点,以及在头部20c的任一侧的其中颞下颌关节23锚定到的并且移动起源于的那些点。但是,一些移动点21可以包含软组织(例如,嘴唇)。
其它自然标记可以包括隆起、裂隙、牙齿的位置以及它们彼此之间的关系,人工标记可以包括贴纸、用笔绘出的色点、胶合的几何形状等。
移动点21可以指示可以测量对应于特定咀嚼移动的位移和/或最大距离的点。例如,当患者将颚移动到所需位置时(取决于正在测量的咬合参数),可以记录颚处于第一位置(例如,闭合颚)的图像,并且可以获得颚处于第二位置(例如,移动的颚)的另一个图像。例如,当患者在移动M4中移动下颚时,如图9中所示,移动点21从位置1移动到位置2。因此可以从图像中获得位置1和2之间的距离。此外,当下颚在移动M3中移动远离上颚时,如图10a和10b中所示,然后可以识别和测量点P3和P4之间的位移d1。点P3和P4可以是任何关注的点,并且可以不仅限于臼齿。例如,它们可以定义下颌中切牙切缘或下颌残嵴中线的接触点。所述点也可以位于人类的类似位置,因此可以通过特征分析/提取来确定。
在不使用预定人工标记的实施例中,可以通过解剖结构的特征分析来确定固定点20和/或移动点21。特征分析可以包括定义可以被识别并用于检测较大结构的牙列特征。特征可以包括图像上的较小点、边缘、对象和/或定义图像的不同区域的曲线或边界。在本文的示例性实施例中,特征分析可以包括机器/深度学习方法,其中可以训练计算机以基于先前分类的面部图像识别固定点20和移动点21。例如,从面部的多个图像开始,牙科医生可以通过标记关注的区域例如固定点20和/或移动点21来标记要用于训练的图像的像素。训练图像的标记可以例如通过在与关注点对应的图像上设置点来以数字方式完成。使用这组标记或分类的图像,网络体系架构/深度神经网络,诸如卷积神经网络(CNN),可以被构建并用标记的图片进行馈送,从而允许网络从中“学习”,使得网络可以产生可以自行对新图像进行分类的网络布线。在训练之后,可以给网络提供先前未见过的图像和输出,诸如包含位置概率值的位置概率向量,其中最高位置概率值可以定义固定点20的位置和/或可以获得移动点21,并且可以给出对应的反馈,使得网络可以最终优选地在没有人类帮助的情况下自行操作对图像进行分类。用于训练的图像还可以源自或以其它方式基于正在进行的患者治疗、过去的患者治疗、患者治疗的结果或其它治疗信息。
在获得固定点20和/或移动点21之后,可以使用用获得的固定点20和/或移动点21测量的几何距离和角度来获得咬合架参数的值,如步骤S400中所示。一些咬合参数可以仅使用固定点20或单个图像来测量,而其它咬合参数可以使用固定点20和移动点21或多个图像来获得。例如,在确定移动M3期间位移d1的最大位移时,可能存在描绘下颚的多个位置的多个图像。可以获得关于关注点具有最大差异的图像并且可以计算这些点之间的欧几里得距离。使用提取或识别出的表示颞下颌关节23位置的点以及位移d1和/或其它固定点20和移动点21,使用直线、角度和三角形或从例如3D重建或图像获得的空间中的坐标的欧几里德几何可以用于测量咬合参数的值。因此,计算机系统100可以被编程为借助于将深度学习特征提取或更简单的对象识别方法(诸如梯度匹配或模板匹配等)与涉及测量相关距离和角度的方法相结合的算法来重复执行这些步骤。
用于牙齿测量的其它系统和方法可以包括由Matov等人的标题为“System andmethod for facilitating automated dental measurements and diagnostics”的美国专利No US8126726B2中教导的系统和方法,该专利通过引用整体并入本文,就像在本文完全阐述一样。
在获得咬合参数的值之后,可以用所述值填充虚拟咬合架,如步骤S500中所示。然后可以使用填充的虚拟咬合架来完成治疗过程,步骤S600,诸如创建修复体或分析患者牙齿12的正确功能。此外,所获得的值可以例如无线地传输到CAD/CAM软件,其中这些值可以被集成并用于计算修复体或其它牙科或正畸器具的功能正确的建议。
此外,面部10的3D重建可以与诸如使用口内扫描仪取得的患者口腔的3D测量/扫描结果之类的口内数据记录叠加,以便例如使修复体或治疗计划和/或治疗计划的结果可视化。可以通过识别两个数据中的公共区域(诸如牙齿)并将数据沿着公共区域覆盖在一起来完成叠加。
优选地,与使用物理面弓和/或物理虚拟咬合架时大约45分钟相比,过程S1000可以在短时间段(例如,几秒到2分钟)内完成。此外,可以实现潜在更高的精度,并且该过程还可以优选地显著降低咬合和用户错误的成本,从而导致更高的应用率。此外,该过程也可以让患者感到舒适,从而提高客户对牙医的满意度。
用于确定咬合参数的系统
在描述图9的系统1之后,现在将参考图11,图11示出了可以根据本文的至少一些示例实施例采用的计算机系统100的框图。虽然本文可以根据该示例性计算机系统100来描述各种实施例,但是在阅读该描述之后,相关领域的(一个或多个)技术人员可以清楚如何使用其它计算机系统和/或体系架构来实现本公开。
在一个示例实施例中,计算机系统可以包括相机系统22,该相机系统22可以在几种深度感测原理之一下操作,所述深度感测原理包括例如(i)结构光、(ii)飞行时间(ToF)和/或(iii)立体原理。对于采用结构光的相机,可以使用光源将已知图案投射到患者或患者头部上,并且接收器可以检测反射图案的变形,以基于几何形状来计算深度图。对于采用飞行时间(ToF)原理的相机,光源可以发出脉冲,并且传感器可以检测来自患者的脉冲的反射,以便记录其飞行时间。知道这一点和光速不变,系统可以计算出患者头部上的点有多远。替代地,可以发送经调制的光源,并且可以检测从患者反射的光的相变。对于采用立体原理的相机,可以将多个相机放置在不同位置来捕获患者头部的多个图像,并且可以基于几何形状来计算深度图。这种深度信息可以用于在治疗期间跟踪患者头部。
计算机系统100还可以包括至少一个计算机处理器122、用户接口126和输入单元130。在一个示例性实施例中,输入单元130可以由牙医与显示单元128(诸如监视器)一起使用,以发送关于捕获面部图像、重建面部10的3D图像、确定固定点20和移动点21和/或计算咬合架值的指令或请求。它们还可以用于治疗计划,包括例如修复体的创建。在本文的另一个示例性实施例中,输入单元130是要在触摸屏接口(未示出)上使用的手指或触控笔。输入单元130可以替代地是手势/语音识别设备、轨迹球、鼠标或其它输入设备(诸如键盘或触控笔)。在一个示例中,显示单元128、输入单元130和计算机处理器122可以共同形成用户接口126。
计算机处理器122可以包括例如中央处理单元、多处理单元、专用集成电路(“ASIC”)、现场可编程门阵列(“FPGA”)等。处理器122可以连接到通信基础设施124(例如,通信总线或网络)。在本文的实施例中,处理器122可以接收自动捕获面部图像、自动将图像存储在数据库中、自动重建面部10的3D模型、自动确定固定点20和移动点21、自动计算和填写咬合架参数和/或自动产生治疗计划、修复或分析牙齿12的功能的请求。处理器122然后可以加载所述指令并执行加载的指令,诸如使用数据库或人工智能(AI)来获得治疗以供显示。
用于确定咬合架参数的一个或多个步骤/过程可以以计算机可读程序指令的形式存储在非暂态存储设备上。为了执行过程,处理器122将存储在存储设备上的适当指令加载到存储器中,然后执行加载的指令。
计算机系统100还可以包括主存储器132,其可以是随机存取存储器(“RAM”),并且还可以包括辅助存储器134。辅助存储器134可以包括例如硬盘驱动器136和/或可移动存储驱动器138(例如,软盘驱动器、磁带驱动器、光盘驱动器、闪存驱动器等)。可移动存储驱动器138可以以众所周知的方式从可移动存储单元140读取和/或写入可移动存储单元140。可移动存储单元140可以是例如软盘、磁带、光盘、闪存设备等,其可以由可移动存储驱动器138写入和读取。可移动存储单元140可以包括存储计算机可执行软件指令和/或数据的非暂态计算机可读存储介质。
在另外的替代实施例中,辅助存储器134可以包括存储要加载到计算机系统100中的计算机可执行程序或其它指令的其它计算机可读介质。此类设备可以包括可移动存储单元144和接口142(例如,程序盒和盒接口);可移动存储器芯片(例如,可擦除可编程只读存储器(“EPROM”)或可编程只读存储器(“PROM”))和相关联的存储器插座;以及允许软件和数据从可移动存储单元144传送到计算机系统100的其它部分的其它可移动存储单元144和接口142。
计算机系统100还可以包括通信接口146,其使得软件和数据能够在计算机系统100和外部设备之间传送。这种接口可以包括调制解调器、网络接口(例如,以太网卡或无线接口)、通信端口(例如,通用串行总线(“USB”)端口或端口)、个人计算机存储卡国际协会(“PCMCIA”)接口、等。经由通信接口146传送的软件和数据可以是信号的形式,其可以是电子、电磁、光学或可以能够由通信接口146发送和/或接收的另一种类型的信号。可以经由通信路径148(例如,信道)将信号提供给通信接口146。通信路径148可以携带信号,并且可以使用电线或电缆、光纤、电话线、蜂窝链路、射频(“RF”)链路等来实现。通信接口146可以用于在计算机系统100与远程服务器或基于云的存储(未示出)之间传送软件或数据或其它信息。
一个或多个计算机程序或计算机控制逻辑可以存储在主存储器132和/或辅助存储器134中。还可以经由通信接口146接收计算机程序。计算机程序可以包括计算机可执行指令,计算机可执行指令在由计算机处理器122执行时使计算机系统100执行如下文所描述的方法。
在另一个实施例中,软件可以存储在非瞬态计算机可读存储介质中,并使用可移动存储装置驱动器138、硬盘驱动器136和/或通信接口146加载到计算机系统100的主存储器132和/或辅助存储器134中。当控制逻辑(软件)由处理器122执行时,使计算机系统100,并且更一般地,用于确定咬合架参数的系统执行本文描述的所有或一些方法。
在另一个示例实施例中,计算机系统100可以是移动设备,诸如智能电话,其具有可以由用户参与以提议和可视化牙科和正畸治疗的应用。
鉴于本描述,对于(一个或多个)相关领域的技术人员来说,其它硬件布置的实施方式以便执行本文描述的功能将是清晰的。
Claims (22)
1.一种用于确定咬合参数的方法,所述方法包括:
接收患者面部的图像;
基于接收到的图像确定患者面部中的固定和/或移动点,
基于确定的固定和/或移动点计算咬合架参数。
2.根据权利要求1所述的方法,其中咬合架参数选自由以下各项组成的组:(i)Bonwill三角形的边,(ii)髁间距离,(iii)Balkwill角,(iv)矢状髁路径倾斜度,(v)Bennett角,(vi)初始Bennett移动,以及(vii)Spee曲线。
3.根据权利要求1所述的方法,还包括根据接收到的图像重建患者面部的3D模型。
4.根据权利要求1所述的方法,还包括将患者口内腔的扫描叠加在3D模型上。
5.根据权利要求1所述的方法,其中通过特征分析来实现确定步骤。
6.根据权利要求5所述的方法,其中特征分析包括使用深度学习来确定固定和/或移动点。
7.根据权利要求1所述的方法,其中固定点包括颞下颌关节的位置。
8.根据权利要求1所述的方法,其中使用几何距离和/或角度来实现计算步骤,几何距离和/或角度是使用固定和/或移动点测量的。
9.根据权利要求1所述的方法,还包括使用计算出的咬合架参数填充具有咬合值的虚拟咬合架。
10.根据权利要求1所述的方法,还包括基于咬合架参数分析牙齿的功能。
11.根据权利要求1所述的方法,还包括基于咬合架参数产生修复体或治疗计划。
12.一种用于确定咬合参数的计算机实现的方法,所述方法包括:
由所述一个或多个计算设备接收患者面部的包括至少一个颚的图像;
使用经训练的神经网络,基于深度神经网络的一个或多个输出位置概率值来识别固定和/或移动点,以及
基于确定的固定和/或移动点计算咬合架参数。
13.根据权利要求12所述的方法,包括使用一个或多个计算设备和多个训练图像来训练神经网络,以将每个训练图像的至少一部分中的一个或多个固定和/或移动点映射到位置概率向量的一个或多个最高位置概率值,以及其中深度神经网络是卷积神经网络。
14.一种用于确定咬合参数的系统,所述系统包括至少一个处理器,所述处理器被配置为执行以下步骤:
接收患者面部的图像;
基于接收到的图像确定患者面部中的固定和/或移动点,以及
基于确定的固定和/或移动点计算咬合架参数。
15.根据权利要求14所述的系统,其中所述处理器还被配置为从由以下各项组成的组中选择咬合架参数:(i)Bonwill三角形的边,(ii)髁间距离,(iii)Balkwill角,(iv)矢状髁路径倾斜度,(v)Bennett角,(vi)初始Bennett移动,以及(vii)Spee曲线。
16.根据权利要求14所述的系统,其中所述处理器还被配置为根据接收到的图像重建患者面部的3D模型。
17.根据权利要求14所述的系统,其中所述处理器还被配置为将患者的口内腔的扫描叠加在3D模型上。
18.根据权利要求14所述的系统,其中所述处理器还被配置为通过特征分析来确定固定和/或移动点。
19.根据权利要求18所述的系统,其中所述特征分析包括使用深度学习来确定固定和/或移动点。
20.根据权利要求14所述的系统,其中固定点包括颞下颌关节的位置。
21.根据权利要求14所述的系统,其中所述处理器还被配置为基于咬合架参数产生修复体或治疗计划。
22.一种存储程序的非暂态计算机可读存储介质,所述程序在由计算机系统执行时,使所述计算机系统执行包括以下的过程:
接收患者面部的图像;
基于接收到的图像确定患者面部中的固定和/或移动点,以及
基于确定的固定和/或移动点计算咬合架参数。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/431,830 US11000349B2 (en) | 2019-06-05 | 2019-06-05 | Method, system and computer readable storage media for determining articulation parameters |
US16/431,830 | 2019-06-05 | ||
PCT/US2020/036230 WO2020247699A1 (en) | 2019-06-05 | 2020-06-05 | Method, system and computer readable storage media for determining articulation parameters |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113906439A true CN113906439A (zh) | 2022-01-07 |
Family
ID=71846480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080041032.XA Pending CN113906439A (zh) | 2019-06-05 | 2020-06-05 | 用于确定咬合参数的方法、系统和计算机可读存储介质 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11000349B2 (zh) |
EP (1) | EP3979946A1 (zh) |
JP (1) | JP2022535273A (zh) |
KR (1) | KR20220017467A (zh) |
CN (1) | CN113906439A (zh) |
CA (1) | CA3141336A1 (zh) |
WO (1) | WO2020247699A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11842484B2 (en) | 2021-01-04 | 2023-12-12 | James R. Glidewell Dental Ceramics, Inc. | Teeth segmentation using neural networks |
US11473927B2 (en) * | 2020-02-05 | 2022-10-18 | Electronic Arts Inc. | Generating positions of map items for placement on a virtual map |
US20210321872A1 (en) * | 2020-04-15 | 2021-10-21 | Align Technology, Inc. | Smart scanning for intraoral scanners |
US11213373B1 (en) * | 2021-05-14 | 2022-01-04 | Oxilio Ltd | Methods and systems for modeling mandibular motion |
WO2023009732A1 (en) * | 2021-07-28 | 2023-02-02 | Visionx, Llc | Computer-implemented method and system for tooth setup |
JP2024029381A (ja) * | 2022-08-22 | 2024-03-06 | 株式会社モリタ製作所 | データ生成装置、データ生成方法、およびデータ生成プログラム |
JP2024029382A (ja) * | 2022-08-22 | 2024-03-06 | 株式会社モリタ製作所 | データ生成装置、データ生成方法、およびデータ生成プログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8126726B2 (en) | 2004-02-27 | 2012-02-28 | Align Technology, Inc. | System and method for facilitating automated dental measurements and diagnostics |
US9492245B2 (en) * | 2004-02-27 | 2016-11-15 | Align Technology, Inc. | Method and system for providing dynamic orthodontic assessment and treatment profiles |
US20080176182A1 (en) | 2006-10-05 | 2008-07-24 | Bruce Willard Hultgren | System and method for electronically modeling jaw articulation |
GB0707454D0 (en) | 2007-04-18 | 2007-05-23 | Materialise Dental Nv | Computer-assisted creation of a custom tooth set-up using facial analysis |
CA2790243C (en) * | 2010-02-25 | 2019-03-26 | 3Shape A/S | Dynamic virtual articulator |
BR112012021294B1 (pt) * | 2010-02-25 | 2021-07-20 | 3Shape A/S | Método implementado por computador de usar um articulador virtual dinâmico para simular oclusão de dentes |
RU2593741C2 (ru) | 2010-06-29 | 2016-08-10 | Зшейп А/С | Способ и система расположения двухмерных изображений |
JP5676325B2 (ja) * | 2010-08-10 | 2015-02-25 | 伊藤 秀文 | 情報処理装置、情報処理方法、及びプログラム |
US8620045B2 (en) * | 2010-10-15 | 2013-12-31 | Bruce William Adams | System , method and article for measuring and reporting craniomandibular biomechanical functions |
BE1020425A5 (nl) | 2011-11-08 | 2013-10-01 | Guy Adriaens Dental Labo Bvba | Werkwijze voor het vervaardigen van een gebitelement of hulpmiddel voor het aanpassen van het gebit, facebow en articulator. |
US20130204600A1 (en) * | 2012-02-06 | 2013-08-08 | Tarun Mehra | Virtual articulator |
US9642686B1 (en) | 2014-06-02 | 2017-05-09 | Whip-Mix Corporation | Method and system for recording characteristics of the occlusal arch of a patient using a portable computing device |
KR101840444B1 (ko) | 2016-05-04 | 2018-03-20 | 주식회사 메디트 | 치과용 3차원 데이터 처리장치 및 그 방법 |
US11432919B2 (en) * | 2016-08-11 | 2022-09-06 | John P. Stipek, SR. | Physical and virtual systems for recording and simulating dental motion having 3D curvilinear guided pathways and timing controls |
US10973611B2 (en) * | 2017-03-20 | 2021-04-13 | Align Technology, Inc. | Generating a virtual depiction of an orthodontic treatment of a patient |
-
2019
- 2019-06-05 US US16/431,830 patent/US11000349B2/en active Active
-
2020
- 2020-06-05 KR KR1020227000103A patent/KR20220017467A/ko active Search and Examination
- 2020-06-05 CN CN202080041032.XA patent/CN113906439A/zh active Pending
- 2020-06-05 WO PCT/US2020/036230 patent/WO2020247699A1/en unknown
- 2020-06-05 CA CA3141336A patent/CA3141336A1/en active Pending
- 2020-06-05 EP EP20747535.1A patent/EP3979946A1/en active Pending
- 2020-06-05 JP JP2021572018A patent/JP2022535273A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
CA3141336A1 (en) | 2020-12-10 |
US11000349B2 (en) | 2021-05-11 |
EP3979946A1 (en) | 2022-04-13 |
JP2022535273A (ja) | 2022-08-05 |
WO2020247699A1 (en) | 2020-12-10 |
US20200383752A1 (en) | 2020-12-10 |
KR20220017467A (ko) | 2022-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11000349B2 (en) | Method, system and computer readable storage media for determining articulation parameters | |
US11751981B2 (en) | Dynamic virtual articulator for simulating occlusion of teeth | |
US11633265B2 (en) | Dynamic virtual articulator for simulating occlusion of teeth | |
JP5671734B2 (ja) | 顔面解析を用いた特注歯セットアップのコンピュータ支援作成 | |
EP2750624B1 (fr) | Procédé de conception d'un appareil orthodontique | |
US8422751B2 (en) | Method and apparatus for generating virtual teeth, and recording media storing program performing the method | |
CN113543740A (zh) | 用于引导口腔内扫描的方法和系统 | |
KR100954552B1 (ko) | 디지털 데이터를 통한 교합상태 판단방법 및 디지털교합기 | |
JP2017221329A (ja) | 2次元画像を用いて生体の下顎開閉軸とバーチャル咬合器の開閉軸を一致させる方法 | |
US20240033057A1 (en) | Real-time bite articulation | |
KR20200021261A (ko) | 동명 치아 특성을 이용하는 치과용 캐드 장치 및 그 구동방법 | |
US20240299131A1 (en) | Motion adjustment prediction system | |
KR102472029B1 (ko) | 가상 교합기를 제공하는 디바이스 및 방법 | |
WO2023240333A1 (en) | System, method and apparatus for personalized dental prostheses planning | |
KR20240013207A (ko) | 덴탈 아치의 모델을 취득하기 위한 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |