CN116583243A - 使用几何深度学习对牙科扫描图进行自动化处理 - Google Patents
使用几何深度学习对牙科扫描图进行自动化处理 Download PDFInfo
- Publication number
- CN116583243A CN116583243A CN202180082162.2A CN202180082162A CN116583243A CN 116583243 A CN116583243 A CN 116583243A CN 202180082162 A CN202180082162 A CN 202180082162A CN 116583243 A CN116583243 A CN 116583243A
- Authority
- CN
- China
- Prior art keywords
- model
- digital
- machine learning
- coordinate system
- mesh
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 36
- 238000013135 deep learning Methods 0.000 title abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 280
- 238000010801 machine learning Methods 0.000 claims abstract description 57
- 230000011218 segmentation Effects 0.000 claims abstract description 57
- 238000004140 cleaning Methods 0.000 claims abstract description 37
- 238000013461 design Methods 0.000 claims abstract description 29
- 238000013528 artificial neural network Methods 0.000 claims description 111
- 230000008569 process Effects 0.000 claims description 103
- 238000012795 verification Methods 0.000 claims description 40
- 230000008859 change Effects 0.000 claims description 8
- 230000008439 repair process Effects 0.000 claims description 8
- 238000012986 modification Methods 0.000 claims description 4
- 230000004048 modification Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 abstract description 3
- 238000009877 rendering Methods 0.000 abstract description 2
- 238000003745 diagnosis Methods 0.000 abstract 1
- 238000012549 training Methods 0.000 description 99
- 238000012360 testing method Methods 0.000 description 46
- 230000001815 facial effect Effects 0.000 description 28
- 238000010200 validation analysis Methods 0.000 description 27
- 238000013527 convolutional neural network Methods 0.000 description 26
- 230000006870 function Effects 0.000 description 25
- 230000009467 reduction Effects 0.000 description 17
- 238000004519 manufacturing process Methods 0.000 description 16
- 238000004422 calculation algorithm Methods 0.000 description 13
- 238000013136 deep learning model Methods 0.000 description 13
- 230000008901 benefit Effects 0.000 description 11
- 230000026676 system process Effects 0.000 description 10
- 238000011282 treatment Methods 0.000 description 9
- 210000002455 dental arch Anatomy 0.000 description 8
- 238000011161 development Methods 0.000 description 8
- 230000018109 developmental process Effects 0.000 description 8
- 238000013507 mapping Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 6
- 238000010968 computed tomography angiography Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 238000000275 quality assurance Methods 0.000 description 5
- 238000009966 trimming Methods 0.000 description 5
- 238000012952 Resampling Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 210000004283 incisor Anatomy 0.000 description 4
- 230000014759 maintenance of location Effects 0.000 description 4
- 238000002620 method output Methods 0.000 description 4
- 230000001575 pathological effect Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000010146 3D printing Methods 0.000 description 3
- 241000282465 Canis Species 0.000 description 3
- 210000004763 bicuspid Anatomy 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000004040 coloring Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 2
- 239000002775 capsule Substances 0.000 description 2
- 210000003464 cuspid Anatomy 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 235000012209 glucono delta-lactone Nutrition 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241001397173 Kali <angiosperm> Species 0.000 description 1
- 206010061274 Malocclusion Diseases 0.000 description 1
- 102000002111 Neuropilin Human genes 0.000 description 1
- 108050009450 Neuropilin Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 210000004513 dentition Anatomy 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000003826 tablet Substances 0.000 description 1
- 238000003856 thermoforming Methods 0.000 description 1
- 230000036346 tooth eruption Effects 0.000 description 1
- 238000011269 treatment regimen Methods 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C7/00—Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
- A61C7/002—Orthodontic computer assisted systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C13/00—Dental prostheses; Making same
- A61C13/0003—Making bridge-work, inlays, implants or the like
- A61C13/0004—Computer-assisted sizing or machining of dental prostheses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C7/00—Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
- A61C7/002—Orthodontic computer assisted systems
- A61C2007/004—Automatic construction of a set of axes for a tooth or a plurality of teeth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Epidemiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Processing Or Creating Images (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种应用于各种牙科过程和5解决方案的机器学习或几何深度学习。具体地,生成对抗网络将机器学习应用于微笑设计——完成的微笑、器具渲染、扫描清理、修复器具设计、牙冠和牙桥设计以及虚拟拆除。顶点和边缘分类将机器学习应用于牙龈与牙齿检测、牙齿类型分割以及托架和其他口腔正畸硬件。回归将机器学习应用于坐标系、诊断、案例复杂性和对处理持续时间的0预测。自动化编码器和聚类将机器学习应用于对医生或技术人员和偏好的分组。
Description
背景技术
机器学习用于多种工业和领域,以便使过程和各种任务自动化和改善。在牙科领域(包括口腔正畸学)中,许多过程和任务都是手动执行的,并且可能依赖于用户反馈或交互来完成。机器学习可以用于牙科领域,以便使此类过程和任务自动化、部分自动化或改善。
发明内容
实施方案使用机器学习应用于各种牙科过程和解决方案。具体地,生成对抗网络实施方案将机器学习应用于微笑设计——完成的微笑、器具渲染、扫描清理、修复器具设计、牙冠和牙桥设计以及虚拟拆除。顶点和边缘分类实施方案将机器学习应用于牙龈与牙齿检测、牙齿类型分割以及托架和其他口腔正畸硬件。回归实施方案将机器学习应用于坐标系、诊断、案例复杂性和对处理持续时间的预测。自动化编码器和聚类实施方案将机器学习应用于对医生(或技术人员)和偏好的分组。
附图说明
图1是用于接收和处理基于3D扫描图的数字模型的系统的图。
图2示出了相同模型的原始(左)版本以及经清洁的牙龈修剪/桥接(右)版本。
图3提供了模型开发/训练和模型部署的流程图。
图4示出了包括裂耗(左)和受损牙齿(右)的病理特征。
图5是训练流水线的概览。
图6是模型的推理(部署)的方法工作流,其中发生器产生给定的干净数据点和不干净数据点。
图7是训练流水线的概览。
图8是模型的推理(部署)的方法工作流,其中发生器产生给定的干净数据点和不干净数据点。
图9示出了“良好”分型面的六个示例。
图10示出了通过暂时损坏自动化代码的特定行而产生的“不良”分型面或退化分型面的六个示例。
图11是对NN的可操作使用以对通过模具分型面和未通过模具分型面进行辨别。
图12是为了回归测试自动化代码模块中的一个模块(例如,分型面生成代码)的目的的可操作用例。
图13是在生产系统的背景中确定分型面是否适用于牙科修复器具的可操作用例。
图14是对NN的可操作使用以对通过模具分型面和未通过模具分型面进行辨别。
图15是对NN的可操作使用以在回归测试的背景中对通过模具分型面和未通过模具分型面进行辨别。
图16是在生产系统的背景中确定分型面是否适用于牙科修复器具的可操作用例。
图17示出了正确的中心夹具放置(左)对比不正确的中心夹具放置(右)的2D图像。
图18是其中创建3D网格组件的可操作使用。
图19(左侧)示出了已被分型面正确地对分的牙齿的视图,并且(右侧)示出了已被分型面不正确地对分的牙齿的视图。
图20示出了与图19相同种类的数据样本,不同的是该阴性样本(左图)对应于向舌侧侵占太远的分型面。
图21是在模具分型面的背景中对图18的更详细的使用。
图22是验证过程。
图23是图22中的过程的绘画作品。
图24示出了已被分型面对分的左上侧门牙(牙齿10)的三十个视图。
图25示出了已被分型面正确地对分的右上方犬齿(牙齿6)的三十个视图。
图26是分割过程。
图27示出了一些上牙弓和下牙弓的分割结果的示例。
图28是用于分割的训练流水线。
图29是用于分割的测试流水线。
图30示出了牙齿坐标系预测。
图31是用于预测坐标系的训练流水线。
图32是用于预测坐标系的测试流水线。
图33示出了对第二磨牙右上方牙弓(UNS=1)的预测。
图34是将机器学习用于对提供者和偏好进行分组的过程。
具体实施方式
几何深度学习(GDL)或机器学习方法用于处理针对若干牙科和口腔正畸过程和任务的牙科扫描图。对GDL的使用可以例如使这些过程和任务自动化、部分自动化或改善。除了在以下节中描述的实施方案之外,以下是用于牙科和口腔正畸应用的GDL的示例性使用。
对迁移学习的使用:该方法可以在缺乏良好训练数据的情况下使用迁移学习。该方法可以使用针对具有足够训练数据的牙齿类型预先训练的模型作为基础模型,并且完全地或部分地微调其权重,以创建适用于使用第一(数据不足)牙齿类型工作的新模型。
对其他模态的使用:GDL可以与多视图二维(2D)投影一起使用,例如,多视图卷积神经网络(MVCNN)。
多个模态一起使用:该方法可以创建使用来自全部或一些模态的机器的流水线来创建混合流水线。该流水线能够摄取具有多个模态的数据。
图1是用于使用GDL来接收和处理基于口内三维(3D)扫描图或物理模型扫描图的数字3D模型的系统10的图示。系统10包括处理器20,该处理器接收牙齿(12)的来自口内3D牙齿扫描图或牙齿印模扫描图的数字3D模型。系统10还可包括电子显示装置16(诸如液晶显示器(LCD)装置)以及用于接收用户命令或其他信息的输入装置18。在美国专利7,956,862和7,605,817中公开了基于来自多个视图的图像集来生成数字3D图像或模型的系统,这两个专利都如同全文陈述一样以引用方式并入本文。这些系统可使用口内扫描仪来从牙齿或其他口内结构的多个视图中获得数字图像,并且处理这些数字图像以生成表示扫描的牙齿的数字3D模型。系统10可以用例如台式电脑、笔记本电脑或平板电脑来实现。系统10可通过网络从本地或从远程接收3D扫描图。
I.生成——生成对抗网络(GAN)
这些实施方案包括例如如下部分。
修复最终微笑设计:使用生成对抗网络来基于初始3D网格创建最终微笑的3D网格。
修复器具设计:使用生成对抗网络(GAN)来基于最终微笑设计的3D网格创建修复器具。
牙冠和牙桥设计:使用GAN来提供在处理过程中对器具(支架、托架等)外观进行显示的能力。
虚拟拆除:使用GAN来基于对包含器具(托架、保持器或其他硬件)的牙弓的初始3D扫描图生成不具有器具的扫描的牙弓网格,并且另选地使用机器学习分割模块来识别存在于扫描的牙弓中的托架、保持器或其他硬件。然后可以使用GAN或3D网格处理来从扫描网格中移除器具。
A.网格清理
这些实施方案包括用于牙科扫描图的自动化3D网格清理的方法。存在三种主要方法:3D网格处理方法;深度学习方法;以及采用一些3D网格处理元件和一些深度学习元件的组合方法。
第1节:用于牙科扫描清理的3D网格处理。
该方法接收由具有其3D网格的多种特征的多种口内扫描仪和实验室扫描仪生成的原始(清理前)数字牙齿模型。该方法利用标准的、一般性3D网格修复技术来保证避免在后续运算中的网格处理问题的特定网格质量。该方法还使用定制的口腔正畸/牙科领域特定算法,诸如模型基部去除和部分牙龈修剪/桥接,如图2所示,其示出了相同模型的原始(左图)以及经清洁的牙龈修剪/桥接(右图)版本。这些自动化清理结果可以通过使用现货供应的或定制的网格操纵软件的手动交互来被进一步精修。因此,网格清理可以包括例如通过去除特征、添加特征或执行其他清理技术来修改网格或模型。
第2节:用于牙科扫描清理的深度学习。
随着获取更多数据,机器学习方法和特别是深度学习方法的性能开始达到或超过显式编程方法的性能。深度学习方法的显著优点在于消除了对手工特征的需求,因为其可以通过训练过程直接从数据使用较高维潜在或隐藏特征的若干非线性函数的组合来推理若干可用的特征。当试图解决网格清理问题时,可能期望使用诸如PointNet、PointCNN、MeshCNN和FeaStNetre等方法对3D网格直接运算。
深度学习算法具有两个主要开发步骤:1)模型训练和2)模型部署。
模型训练使用历史案例数据的多个原始(清理前)和经清理的数字3D模型。将原始的或经部分清理的3D模型输入到深度学习框架中,该深度学习框架已被架构来生成预测的、改善的经清理3D模型。可选地,可以将数据增强应用于输入模型来增加输入到深度学习模型中的数据量。一些数据增强技术包括网格平移和旋转、均匀和非均匀缩放、边缘翻转以及向网格顶点添加随机噪声。接下来,通过迭代地调整一组权重以使预测的和实际经清理的数字3D模型之间的差异最小化的过程来训练该模型。然后通过生成用于在训练期间未使用的预留的一组案例的经清理的网格并且将这些生成的3D网格与用于实际案例数据的经清理的网格进行比较,对受过训练的模型进行评估。
模型部署阶段使用在模型训练期间开发的受过训练的模型。受过训练的模型将用于新的从未见过的案例的原始数字3D模型作为输入,并且生成用于该案例的经清理的3D模型。
图3提供了以下模型开发/训练和模型部署方法的流程图,如本文进一步所述。
模型开发/训练:
1.输入:历史案例数据的3D模型(22)。
2.可选的数据增强(24)。
3.训练深度学习模型(26)。
4.对照真实数据评估生成的经清理的3D网格(28)。
模型部署:
1.输入:新案例的数字3D模型(30)。
2.运行受过训练的深度学习模型(32)。
3.生成所提议的经清理的3D网格(34)。
第3节:组合方法(3D网格处理+深度学习)。
如在第2节中所述,可以使用深度学习来从输入扫描生成经清理的网格,而无需任何已明确编程的3D网格处理步骤。然而,一些网格清理运算(例如,空洞填充、移除三角形相交以及孤岛去除)是良好定义的网格运算,并且是相比于使用深度学习而言使用3D网格处理方法可能更有效实现的。相反,该方法可以实现使用深度学习来代替在第1节中所述的一些但不是全部的网格处理步骤的组合方法。例如,深度学习可以用于识别在网格中的牙龈线,从而允许去除在牙龈线下方的多余材料。深度学习还可以用于识别在牙科扫描图中的病理特征(参见图4),包括凹陷、受损牙齿、裂耗和退缩。一旦检测到,可以使用3D网格处理算法来修复这些特征,或者可以训练深度学习模型来直接修复病理特征。图4示出了包括裂耗(左图)和受损牙齿(右图)的病理特征。
B.使用推理进行网格清理
这些方法使用GAN和GDL来基于从数据学习到的趋势自动化手动网格清理过程。在网格中的缺陷包括拓扑空洞、非平滑表面等。在这些方法中,机器学习方法用于构建在未清洁状态中的网格到在其清洁状态中的网格之间的映射。该映射是通过对抗训练学习的,并且在给定对应的未清洁的源网格的情况下具体体现在经清理的网格的条件分布中。使用在未清洁状态中使用口内扫描图获得的点云的数据集(称为数据点)和在它们经过清洁过程之后的对应网格来训练模型,该清洁过程由半自动化软件程序或由受过培训的人完全手动地完成。
该机器学习模型稍后可以用作其他几何运算的预处理步骤。例如,在数字口腔正畸学的情况下,该模型可以用于在坐标系中使输入点云标准化,该坐标系有助于在不需要人在循环中的情况下进行处理。这有效地和显著地减少了每种情况的处理时间以及对培训用于执行该任务的人类工作者的需要。另外,因为机器学习模型是在由多个受过培训的人生成的数据上训练的,所以当与单个人自己相比时,其可能实现更高的准确度。
图5示出了该方法的训练流水线的高级工作流。因为鉴别器仅用于帮助训练发生器,所以在推理(部署)期间不使用鉴别器。鉴别器(36)学习对{不干净、干净}数据点的元组进行分类,而发生器(38)学习生成伪造的干净数据点来欺骗鉴别器。
图6是模型的推理(部署)的方法工作流,其中发生器(40)在给定不干净数据点(44)的情况下产生给定的干净数据点(42)。在该阶段中,不再需要鉴别器。
以下是在该工作流中的阶段:
1.预处理。
a.(可选的)缩减/增强:该方法可以使用点云缩减技术,诸如随机下采样、覆盖感知采样或其他网格简化技术(如果网格可用)来降低点云的尺寸,便于较快推理。该方法还可以使用网格插值技术来增强点云的尺寸,以实现较高的粒度。
2.模型推理:
预处理的网格/点云通过机器学习模型,并且获得生成的网格/点云。下面提供与对机器学习模型的使用有关的步骤。
a.模型的训练:该模型具体体现为张量的集合(称为模型权重)。这些模型权重的有意义的值通过训练过程来学习。这些权重完全随机地初始化。
训练过程使用训练数据,该训练数据是一组成对的不干净和经清洁的网格/点云。假设该数据在创建模型之前是可用的。
该模型具有两个主要部件:一个是发生器,另一个是鉴别器。发生器接收网格/点云并且生成另一个网格/点云。该生成的网格/点云具有一些期望的几何特征。鉴别器获得所生成的网格/点云并且赋予其分数。鉴别器还被给定对应的真实经清洁的网格/点云并且给出另一个分数。对抗损失对这两个分数之间的相异性进行编码。总损失函数还可以包括其他组件。可以引入一些组件来实施基于规则的特定问题的约束。
该方法将从训练数据集中随机选择的批量传递到模型中并且计算损失函数。该方法从所计算出的损失函数来推理梯度,并且更新模型的权重。在模型训练期间,更新发生器来最小化总函数,并且更新鉴别器来最大化总函数。重复该过程预定义的迭代次数,或者直到满足特定的客观标准。
b.模型的验证:除了训练之外,通常不断地验证模型来监控训练中可能的问题,诸如过拟合。
该方法假设在训练开始时存在可用的验证集。该数据集类似于训练数据集,因为该数据集是一组成对的不干净和经清洁的网格/点云。
在设定数量的训练迭代之后,该方法在整个模型中传递验证集并且计算损失函数值。该值用作该模型在未见过的数据上的一般化程度的度量。验证损失值可以用作停止训练过程的标准。
c.模型的测试:模型的测试通常发生在未见过的数据点上,这些数据点不具有相关联的真实经清洁的网格/点云。这在部署中完成。
C.牙科修复预测
这些方法使用GAN和GDL来基于从训练集学习到的趋势在给定表示网格的初始状态的网格的情况下在牙科修复已经发生之后预测网格。
在这些方法中,机器学习方法用于构建在未清洁状态中的网格到在其清洁状态中的网格之间的映射。该映射是通过对抗训练学习的,并且在给定对应于初始状态的网格的情况下具体体现在修复的牙齿的网格的条件分布中。使用在未修复的初始状态中使用口内扫描获得的点云的数据集(称为数据点)和在它们经过修复过程之后的对应网格来训练模型。
推理机器学习模型稍后可以用于微笑预测,这可以使口腔正畸医生能够在已经在软件中完成修复过程之后向患者示出修复的牙弓的最终状态。
图7示出了该方法的训练的高级工作流。因为鉴别器仅用于帮助训练发生器,所以在推理(部署)期间不使用鉴别器。鉴别器(46)学习对{不干净、干净}数据点的元组进行分类,而发生器(48)学习生成伪造的干净数据点来欺骗鉴别器。
图8是模型的推理(部署)的方法工作流,其中发生器(50)在给定不干净数据点(54)的情况下产生给定的干净数据点(52)。在该阶段中,不再需要鉴别器。
以下是在该工作流中的阶段:
1.预处理:
a.(可选的)缩减/增强:该方法可以使用点云缩减技术,诸如随机下采样、覆盖感知采样或其他网格简化技术(如果网格可用)来降低点云的尺寸,便于较快推理。该方法还可以使用网格插值技术来增强点云的尺寸,以实现较高的粒度。
2.模型推理:
预处理的网格/点云通过机器学习模型,并且获得生成的网格/点云。下面提供与对机器学习模型的使用有关的步骤。
a.模型的训练:该模型具体体现为张量的集合(称为模型权重)。这些模型权重的有意义的值通过训练过程来学习。这些权重完全随机地初始化。
训练过程使用训练数据,该训练数据是一组成对的不干净和经清洁的网格/点云。假设该数据在创建模型之前是可用的。
该模型具有两个主要部件:一个是发生器,另一个是鉴别器。发生器接收网格/点云并且生成另一个网格/点云,该生成的网格/点云具有一些期望的几何特征。鉴别器获得所生成的网格/点云并且赋予其分数。鉴别器还被给定对应的真实经清洁的网格/点云并且给出另一个分数。对抗损失对这两个分数之间的相异性进行编码。
总损失函数还可以包括其他组件。可以引入一些组件来实施基于规则的特定问题约束。
该方法将从训练数据集中随机选择的批量传递到模型中并且计算损失函数。该方法从所计算出的损失函数来推理梯度,并且更新模型的权重。在模型训练期间,更新发生器来最小化总函数,并且更新鉴别器来最大化总函数。重复该过程预定义的迭代次数,或者直到满足特定的客观标准。
b.模型的验证:除了训练之外,通常不断地验证模型来监控训练中可能的问题,诸如过拟合。
该方法假设在训练开始时存在可用的验证集。该数据集类似于训练数据集,因为该数据集是一组成对的不干净和经清洁的网格/点云。
在设定数量的训练迭代之后,该方法在整个模型中传递验证集并且计算损失函数值。该值用作该模型在未见过的数据上的一般化程度的度量。验证损失值可以用作停止训练过程的标准。
c.模型的测试:模型的测试通常发生在未见过的数据点上,这些数据点不具有相关联的真实经清洁的网格/点云。这在部署中完成。
D.牙科修复验证
这些方法确定用于创建牙科修复器具的组件的验证状态。这些方法可以便于自动化修复器具生产流水线。存在至少两个实施方案:1)使用GraphCNN来将类标签(即,通过或失败)应用于3D网格组件的实施方案,以及2)使用CNN来将类标签(即,通过或失败)应用于表示3D网格组件的一个或多个视图的一组一个或多个2D光栅图像的实施方案。
每个实施方案使用神经网络(NN)来对待用于牙科修复器具的组件的表示的两个或更多个状态进行辨别,可选地为了确定是否该组件可合格用于构建该器具。
这些实施方案可以对完成的牙科修复器具执行质量保证(QA)。在一些生产流水线中,有资格的人员必须对完成的器具进行检查并且给予通过/未通过的确定。这些实施方案可以自动化验证修复器具的过程并且消除努力的最大剩余“隐藏的工厂”中的一个工厂,从而在许多情况下将例如一到两天的流水线过程缩短至半小时。
这些实施方案可以验证牙科修复器具和/或完成的牙科修复器具的组件。使用这些实施方案用于此类QA过程的优点在于,与通过手动检查可能的情况相比,NN可以更快和更有效地对生成的组件和放置的组件的质量进行评估,从而允许QA过程在规模上远超过几个专家。作为另一个优点,与通过手动检查可能的情况相比,NN可以产生对组件的形状或放置的质量的更准确的确定,例如,如果NN识别出人会错过的细微异常。作为再一个优点,对NN的使用和对该NN的结果的检查可以有助于人类操作员接受培训来识别正确的器具组件设计。以这种方式,知识可以被转移至新的人类专家。
在另一个应用中,这些实施方案支持针对生成和/或放置组件的代码而创建广泛的自动化回归测试框架。该另一个应用的优点在于,使全面的回归测试成为可能。这些实施方案使回归测试框架能够自动地验证几十个经处理的案例的输出,并且每当开发者选择运行测试时都可以这样做。
实施方案1——使用3D数据
例如可以部分地使用开源工具包MeshCNN来实现Graph CNN(GCNN),来实现这些实施方案。MeshCNN具有输入网格并且向该网格分配类标签的样本程序。样本程序具有可能的类的长列表。MeshCNN附带的样本程序能够对这些3D网格进行分类,以便分配适当的标签。MeshCNN进行了调整来对待用于牙科修复器具(即,模具分型面)的创建中的组件的两个或更多个状态(例如,通过/未通过)进行辨别。
实施方案2——使用2D光栅图像
该具体实施类似于实施方案1的具体实施,不同的是用CNN替换GCNN。CNN受训练以对2D光栅图像进行分类。对于给定的组件,CNN将受训练以识别组件(例如,分型面)自身的3D几何结构的一组不同视图中的每个视图,结合在最终器具设计中表示的其他特征或它们的组合;仅与输入牙体结构有关,或与两者有关。用例如商业CAD工具Geomagic Wrap或开源软件工具(诸如Blender)产生这些2D光栅图像。
应用1——回归测试
作为概念验证,MeshCNN用于训练NN以对“通过”模具分型面的示例和“未通过”分型面的示例进行辨别。“通过”和“未通过”是可以由专家确定的主观标签,并且不同专家之间可以有差别。该类型的标签与例如狗的ImageNet图像的“狗”标签形成对比。“狗”标签是客观的并且不涉及任何专家意见。
这些实施方案的NN可以结合到回归测试系统中,用于测试代码的质量,该代码自动生产待用于生产牙科修复器具的部件。通常,回归测试用于确定对代码或输入的最近改变是否负面地影响系统的输出。在这种情况下,需要能够改变自动化代码的几行并且快速地确定这些改变是否对我们的测试案例套装的输出具有任何不利影响。可以存在几十个测试案例。可以手动检查该几十个测试案例的输出,但是就技术人员或其他人员手动检查全部测试案例的输出所要求的时间而言,成本很高。本实施方案的优点是提高该过程的效率。在代码改变之后,即使36个测试案例中的1个测试案例未能产生合格的结果,来自该实施方案的NN也被设计成检测该错误。
应用2——修复生产流水线
作为另一个应用,NN可以用在回归测试之外,并且可以应用作为在生产中的QA步骤。目前,有资格的人员必须手动检查与牙科器具的创建相关联的3D数据。存在制造过程的若干阶段,在这些阶段中,必须验证这些数据。
在一个实施方案中,NN用于验证“模具分型面”的正确性,“模具分型面”是修复器具的重要组件。正确形成分型面是很重要的。该新NN在逐颗牙齿的基础上检查分型面,观察分型面对分每颗牙齿的方式。
组件生成和放置
这些实施方案对自动化代码的输出进行运算。自动化代码可以具体体现名称为“牙齿修复牙科器具的自动化创建(Automated Creation of Tooth Restoration DentalAppliances)”的PCT专利申请号PCT/IB2020/054778以及名称为“牙齿修复牙科器具的基于神经网络的生成和放置(Neural Network-Based Generation and Placement of ToothRestoration Dental Appliances)”的美国临时专利申请号63/030144中的一些或全部内容。这些输出中的一些输出是生成的组件。所生成的组件的不完全列表包括:模具分型面、齿龈的修剪表面、面部带、切嵴、舌侧搁架、加强肋、“门和窗”以及牙间隙基质。这些输出中的其他输出是放置的组件(例如,必须平移和/或旋转来相对于患者牙齿的几何结构以特定方式对准的预制库部件)。放置的组件的不完全列表包括:门牙对准特征、通气孔、后卡扣夹钳、牙门铰链和牙门卡扣。技术人员必须检查自动化输出来确保所生成的组件正确形成并且确保所放置的库组件正确定位。来自本实施方案的NN可以用于确定组件是否正确地形成或放置。优点是为技术人员节省时间,并且通过发现技术人员可能忽略的在组件的形状或放置方面的错误,从而可以产生较高质量的牙科修复器具。存在某些特别重要的组件,诸如模具分型面。模具分型面形成了器具的许多后续形成的基础。如果在模具分型面中存在错误,则发现该错误以及在器具创建过程的早期发现该错误是有很有价值的。
用于两个实施方案的机器学习
机器学习系统具有两个运算阶段:1)训练和2)验证/可操作使用。在实施方案中的NN必须在良好几何结构的示例和不良几何结构的示例上训练。我们的第一概念验证使用了3D几何结构的模具分型面。图9示出了“通过”分型面的示例。图10示出了“未通过”分型面的示例。“未通过”分型面是通过有意和暂时修改自动化代码以引入错误来产生的。
实施方案1的训练和留存验证
MeshCNN代码在牙科修复器具组成部件的该特定数据集上运行(没有修改)并且受训练以对“通过”部件和“未通过”部件进行辨别。训练数据集包含“通过”分型面的14个示例和“未通过”分型面的14个示例。“未通过”示例中的每一个示例是“通过”示例中的一个损坏的实例(即,其中代码改变以损坏所生成的分型面)。测试数据集包含6个“未通过”示例和7个“通过”示例。NN受训练20个历元,在留存验证集上实现100%的准确度。一个历元涉及迭代遍历每个示例一次。为了该概念验证具体实施,使用比生产分型面更少数量的三角形来生成分型面,以节省NN所要求的RAM并且使NN能够在普通的膝上型电脑上运行。
然后NN在留存验证数据集(即,不参与训练过程的数据样本)上测试,这是在训练机器学习模型中的定制。制备了18个“通过”样本(即,良好分型面),并且制备了18个“未通过”样本(即,不良分型面)。NN正确地对100%的这些留存验证数据样本进行分类。
实施方案1的附图
图11示出了实施方案1的元件,其中Graph CNN(GCNN)(56)用于将通过/未通过标签(58)直接应用于3D网格(60)以对通过模具分型面和未通过模具分型面进行辨别。
图12是描述使用实施方案1在回归测试和代码开发的背景中对受过训练的GCNN的可操作使用的流程图。在代码测试的背景中,全尺寸的网格和缩小尺寸的网格都是合格的。这些网格可以使用比生产系统创建器具所要求的三角形更少的三角形来生成(例如,组件可使用少10倍的三角形来生成)。图12中的流程图提供了以下方法,如本文进一步所述。
1.输入:3D网格(62)和自动化参数(64)。
a.运行受影响的代码(68)。
b.3D网格(70)。
2.输入:NN参数(66)。
a.Graph CNN(72)。
b.分型面的类标签(74)。
3.输出:如果标签==“未通过”,则输出为“失败”。否则输出“通过”(76)。
图13是描述使用实施方案1在生产制造系统的背景中对受过训练的GCNN的可操作使用的流程图,其中组件的适应性必须在组件可以用于制造牙科修复器具之前首先评估。在该后一种应用中,组件必须是全尺寸的(即,网格必须包含全部数量的三角形)。图13中的流程图提供了以下方法,如本文进一步所述。
1.输入:3D网格(78)和自动化参数(80)。
a.运行基于关键点的自动化(84)。
b.3D网格(86)。
2.输入:NN参数(82)。
a.Graph CNN(88)。
b.分型面的类标签(90)。
3.输出:如果标签==“通过”,则测试通过。否则测试失败(92)。
实施方案2的附图
图14示出了实施方案2的元件,其中CNN(94)用于通过分析3D网格的一组2D光栅图像(98)来将通过/未通过标签(96)应用于网格,该2D光栅图像取自各种视图(100)以对通过模具分型面和未通过模具分型面进行辨别。
图15是描述使用实施方案2在回归测试系统的背景中对受过训练的CNN的可操作使用的流程图。图15中的流程图提供了以下方法,如本文进一步所述。
1.输入:3D网格(102)和自动化参数(104)。
a.运行受影响的代码(108)。
b.3D网格(110)。
c.编写脚本以产生3D网格的2D光栅图像,一个图像来自网格的若干视图中的每个视图(112)。
d.2D光栅图像(114)。
2.输入:NN参数(106)。
a.CNN(116)。
b.类标签(118)。
c.累加每个图像的“通过”或“未通过”结果(120)。
3.输出:如果任何图像的标签==“未通过”,则输出“失败”。否则输出“通过”(122)。
图16是描述使用实施方案2在生产制造系统的背景中对受过训练的CNN的可操作使用的流程图,其中组件的适应性必须在组件可以用于制造牙科修复器具之前首先评估。图16中的流程图提供了以下方法,如本文进一步所述。
1.输入:3D网格(124)和自动化参数(126)。
a.运行基于关键点的自动化(130)。
b.3D网格(132)。
c.编写脚本以产生3D网格的2D光栅图像,一个图像来自网格的若干视图中的每个视图(134)。
d.2D光栅图像(136)。
2.输入:NN参数(128)。
a.CNN(138)。
b.类标签(140)。
3.输出:如果全部2D光栅图像的标签==“通过”,则测试通过。否则测试失败(142)。
图17示出了放置有中心夹具的牙弓的通过(左)和未通过(右)2D图像,其中中心夹具在左图中被正确地放置而在右图中被错误地放置。
验证
该实施方案是本文所述的其他实施方案的延伸。该实施方案向上述四个项目添加另一个项目。该实施方案使用NN来对待用于牙科修复器具的组件的表示的两个或更多个状态进行辨别,为了确定是否该组件可合格用于构建该器具,并且如果发现该组件不合格,则NN可以在一些实施方案中输出应当如何修改该组件来校正该组件的几何结构的指示。
术语“3D网格组件”用于指示:从上述组件生成的组件,从上述组件放置的组件,或旨在与快速成型、3D打印或立体光照型技术系统一起使用的另一个3D网格。该组件可以是通过布尔运算集成到成品部件中的正面特征或负面特征。该实施方案有助于向自动化特征生成提供上下文反馈,其中可以存在用于创建组件的一个算法或规则集以及用于检查该组件的质量的一个NN分类。两个组件之间的关系包括递归的“猜测和检查”机制来确保合格的结果(创建/生成>分类>重新生成>分类>……>最终设计)。
该实施方案涉及在数字牙科和牙科器具的自动化生产的背景中的3D网格组件。示例包括:修复器具、透明托盘矫治器、托架粘结托盘、舌侧托架、修复组件(例如,牙冠、义齿)、患者专用定制装置等。牙医或提供者可以将该实施方案应用于提供者已在牙科诊所中的诊疗椅边制得的数字设计。还可以有其他实施方案,例如其中自动化设计可以受益于该实施方案的任何应用,包括用于3D打印的支撑结构的自动化设计和用于部件固定的夹具的自动化设计。另外,3D打印实验室可以将该实施方案应用于原型部件,其中该部件具体体现为3D网格。制造环境可以将该实施方案应用于定制3D打印的组件,其中NN输入来源于组件的照片或通过扫描物理部件生成的网格的屏幕捕获。这将允许制造商在不使用经典3D分析软件的情况下使输出部件合格,并且可以减少或消除人类专家使输出部件合格所要求的努力。该实施方案可以通过用户与软件的交互来应用,或者该实施方案可以是在没有直接用户干预的情况下向过程提供输入的智能系统的后台运算的一部分。
该实施方案通常可用于3D网格中的问题的检测以及这些问题的自动化校正。
图18提供了该实施方案的元件。创建3D网格组件(144)。验证神经网络检查3D网格组件的2D光栅图像(从各种视图方向产生)并且确定3D网格组件是否通过(146)。如果验证神经网络给予通过的判定,则3D网格组件被清除以供在预期应用中使用(例如,模具分型面被清除以供在修复器具中使用)(148)。如果验证神经网络确定3D网格组件未通过,则验证神经网络可以在一些实施方案中输出对如何改变该3D网格组件的指示(150)。
通过以下来创建3D网格组件:如本文所述的自动化生成;如本文所述的自动化放置;由专家手动生成;由专家手动放置;或通过一些其他手段,例如,在快速成型实验室中使用CAD工具或其他设置。
该3D网格组件被输入到(例如,本文所述的那种)验证神经网络中。验证神经网络给予3D网格组件的质量的结果:通过或未通过。如果结果是通过,则3D网格组件被一起发送以用于其预期目的(例如,结合到牙科器具中)。如果结果是未通过,则验证神经网络可以在一些实施方案中输出对如何修改3D网格组件,以便使3D网格组件更靠近贴合预期的指示。
在如下所述的实施方案中,在牙弓中的每个牙齿附近检查模具分型面。如果模具分型面以不正确的方式与该牙齿相交,则该实施方案输出模具分型面应当向舌侧或面部移动的指示,以便使模具分型面更干净地对分该牙齿的外尖或切缘。模具分型面旨在分开每颗牙齿的面部分和舌部分,这意味着模具分型面应当沿牙齿的外尖顶延伸。如果模具分型面在舌侧方向上切割得太远或在面部方向上切割得太远,则模具分型面不能充分地分开每颗牙齿的面部分和舌部分。因此,模具分型面需要在该牙齿附近进行调整。自动生成模具分型面的软件具有可用于偏置靠近该牙齿的模具分型面的面部/舌侧定位的参数。该实施方案在正确的方向上对这些参数值产生增量改变,以使模具分型面更干净地对分每颗牙齿。
该实施方案可以命令改变在一些牙齿附近的模具分型面(即,在模具分型面没有正确地将牙齿对分的地方),但不命令改变在其他牙齿附近的模具分型面(即,在模具分型面正确地或更干净地将牙齿对分的地方)。
在该实施方案中,存在两个验证神经网络,一个称为舌侧偏置NN,一个称为面部偏置NN。这两个神经网络在3D牙齿几何结构的视图的2D光栅图像上训练,其中3D牙齿几何结构结合模具分型面是可视化的(参见本节I.D.中的具体实施方式)。模具分型面是3D网格组件的示例,如先前定义的。
用于创建牙齿与模具分型面有关的牙齿的2D光栅图像的选项包括以下项:
1.模具分型面可以作为3D网格绘制到场景中,连同牙齿一起,它们也是网格。
2.模具分型面可以与牙齿相交,从而得到沿牙齿的几何结构描绘该相交的轮廓的线。
3.模具分型面可以通过布尔运算的方式与牙齿相交,由此从场景中减去牙齿的一部分(例如,舌侧或面部侧)。为了清晰起见,剩余的几何结构的两个面可以被赋予颜色或不同的着色,例如蓝色和红色,或者深着色和浅着色。
4.模具分型面可以与牙齿相交,从而得到颜色编码的牙齿网格。位于模具分型面的面部侧的牙齿网格的部分被赋予例如红色或第一着色。位于模具分型面的舌侧的牙齿网格被赋予例如蓝色或与第一着色不同的第二着色。该选项在图19和图20中示出。
5.上述项中的任何或全部项的结合。
图19(左侧)示出了牙齿的视图,其中该牙齿已被分型面正确地对分。图19(右侧)示出了牙齿的视图,其中该牙齿已被分型面不正确地对分(例如,分型面在面部方向上移动得太远)。图20示出了与图19相同种类的数据样本,不同的是该阴性样本(左侧)对应于向舌侧侵占太远的分型面。
对于上述项中的每个项,都考虑了任意视图。在一些实施方案中,对多视图流水线的使用可以允许对具有所渲染的图像的任意相机位置和角度的任意数量的视图的使用。
训练:
舌侧偏置NN在两类图像上训练:1)其中模具分型面已被正确地形成并且正确地将牙齿对分的类,以及2)其中模具分型面已被错误地形成并且没有正确地将一颗或多颗牙齿对分的类。对于该示例,创建反映在牙弓中的每颗牙齿的若干任意视图的图像。该视图应当示出该牙齿与分型面有关,因为分型面与牙齿相交(根据上述列表)。这种情况可以使用上述选项4,其中分型面与牙齿相交并且在牙齿上产生例如红色和蓝色或不同的着色。
该实施方案训练舌侧偏置NN以对两类图像(即,具有通过分型面和具有未通过分型面)进行辨别。如果舌侧偏置NN在输入分型面上给予未通过的结果,则该方法知道分型面一定已经以离舌侧太远的方式将牙齿对分。该方法因此输出指示,该指示指示当模具分型面由自动化生成软件(例如,如本文所述的自动化生成软件)返工时,分型面对于该牙齿向舌侧移动太远并且应当在相反方向上略微移动。用于自动生成分型面的代码具有每颗牙齿的参数,该参数可以在舌侧或面部方向上偏置分型面。该参数可以被调整,使得分型面的下一个迭代在该牙齿的面部方向上移动一个小增量。
其他实施方案可以使用处理牙齿图像的回归网络来有效地估计在面部方向上的表面移动的量。在给定牙齿图像的情况下,回归网络可以用于估计在舌侧或面部区域中的“违规”。将该违规量转换为参数可以是可行的。在反馈回路中的该改变将降低该方法的迭代/修订次数。
面部偏置NN用与舌侧偏置NN相同的正类图像来训练,但负类图像是使用沿牙齿向面部移动太远的分型面来生成的。全部其余的训练细节基本上相同,不同的是当面部偏置NN给予未通过的判定时,则该方法知道模具分型面沿牙齿向面部移动太远,并且自动化生成软件必须被指示在舌侧方向上将模具分型面移动一个增量。
在其他实施方案中,神经网络可以受训练以隔离在舌侧或面部方向上的违规方面的异常。此类NN具有突出显示牙弓的网格/图像的最显著部分以用于其推理的能力。
在一些实施方案中,回归网络可以用于估计在面部侧上的违规量并且相应地调整对应的参数。
对受过训练的神经网络的可操作使用:
单独地分析每颗牙齿。使每颗牙齿的若干图像通过流水线,并且针对每个图像给予通过/未通过的判定。在通过该流水线呈现牙齿/分型面组合的若干图像的情况下,存在用于确定结果的不同选项。在一些实施方案中,如果若干视图中的至少一个视图给予未通过的判定,则该方法输出分型面需要在该牙齿附近进行调整的指示。在其他实施方案中,如果所分析的图像中的一些或大部分图像给予未通过的判定,则该方法输出分型面需要在该牙齿附近进行调整的指示。
在一个实施方案中,验证神经网络包括卷积神经网络(CNN)。CNN可以具体体现多种不同的网络配置,包括具有不同数量的层的网络、具有每层不同数量的节点的网络、不同使用丢弃层的网络、不同使用卷积层的网络、不同使用稠密层的网络等等。
在其他实施方案中,验证神经网络可以利用多视图CNN(MVCNN)架构的元件。简单总结一下,网络的输入使用3D场景的任意数量的图像。全部图像通过特征抽取CNN的共享副本。然后使用视图池化机制来池化这些特征并且将这些特征馈送到分类网络中,该分类网络通常是完全连接的网络。相对于标准CNN的根本差异在于,此类架构可以允许使用相同场景的多个视图。训练以具有一个改变的类似方式工作,该方法不是一次传递一个图像和标签/值,而是一次传递网格的多个视图作为图像和标签/值。
还在其他实施方案中,验证CNN(其处理2D光栅图像)可以用直接处理3D数据的神经网络(诸如MeshGAN)来替换。在其他实施方案中,验证CNN(其处理2D光栅图像)可以用GraphCNN(其直接处理3D数据)来替换。在其他实施方案中,验证CNN(其处理2D光栅图像)可以用GraphGAN(其直接处理3D数据)来替换。
一个示例将与模具分型面有关的牙齿的图像提供到1)舌侧偏置NN和2)面部偏置NN中。
1.如果两个神经网络都给予通过的判定,则模具分型面被清除以供在修复牙科器具的生产中使用。
2.如果舌侧偏置NN给予未通过的判定,并且面部偏置NN给予通过的判定,则该方法输出模具分型面在舌侧方向上移动太远的指示。模具分型面自动化生成软件必须当创建分型面的下一个迭代时,在牙齿附近在面部方向上将模具分型面调整一个增量。
3.如果舌侧偏置NN给予通过的判定,并且面部偏置NN给予未通过的判定,则该方法输出模具分型面在面部方向上移动太远的指示。模具分型面自动化生成软件必须当创建分型面的下一个迭代时,在牙齿附近在舌侧方向上将模具分型面调整一个增量。
4.如果舌侧偏置NN和面部偏置NN都给予未通过的判定,则将结果提供给人类决策者,该人类决策者决定模具分型面是否需要在牙齿附近进行调整。
该方法循环遍历每颗牙齿,确定模具分型面相对于该牙齿是否被正确地定位,或者模具分型面是否需要在牙齿附近在舌侧或面部方向上进行调整。
在其他实施方案中,该对NN包括舌侧偏置NN和面部偏置NN,其中的每个NN可用于执行2类分类,该对NN可以用单个NN来替换,该单个NN可用于执行3类分类。该3类分类NN将在来自以下3类的2D光栅图像上训练:
·类0——颜色编码的牙齿的视图,其中该牙齿已由已被有意修改为离舌侧太远的模具分型面对分。
·类1——颜色编码的牙齿的视图,其中该牙齿已由正确形成的模具分型面对分。
·类2——颜色编码的牙齿的视图,其中该牙齿已由已被有意修改为离面部太远的模具分型面对分。
该3类分类NN将从该组三个类标签来给予预测。
在其他实施方案中,可以采用N类分类NN来将N个可能的类标签中的一个类标签分配给每个数据样本,对应于器具组件(即模具分型面)的N个不同状态。
在其他实施方案中,相对于具有两个独立的NN,来自面部侧的视图和来自舌侧的视图都可以结合到一个NN中。在这种情况下,图卷积网络将获得整个牙齿网格作为输入,并且输出一个回归值,该回归值表示该特定牙齿的“径向”调整量。对此类NN(初始3D场景)的输入严格地具有比从场景渲染的几个任意渲染的图像更多的信息。
图21在模具分型面的背景中提供了图18的实施方案的更多细节。图21中的流程图提供了以下方法,如本文进一步所述。
1.输入:自动化参数(152)和患者牙齿的3D网格(154)。
a.由自动化程序生成分型面(156)。
b.使分型面与牙齿的整个牙弓相交,将所得的面弓部分着色为红色,并且将舌弓部分着色为蓝色(或将这些部分着色为其他颜色或着色)(158)。
2.从各种任意视角生成颜色细分的牙齿的N个视图(168)。
a.输入:NN参数(160)。
i.对于每个视图,运行舌侧偏置NN(162)。
b.输入:NN参数(166)。
i.对于每个视图,运行面部偏置NN。(164)。
3.对靠近Tooth_i的分型面部分的每个视图的结果以及通过的判定进行聚合(170)。
a.分型面不需要在Tooth_i附近改变(172)。
b.如果面部偏置NN输出未通过的判定并且舌侧偏置NN输出通过的判定,则记录该分型面应当在Tooth_i附近向舌侧移动(172)。
c.如果舌侧偏置NN输出未通过的判定并且面部偏置NN输出通过的判定,则记录该分型面应当在Tooth_i附近向面部移动(172)。
d.如果两个神经网络都输出未通过的判定,则在Tooth_i的位置处不采取任何动作,或者抛出异常以使人类操作员对分型面进行检查(172)。
4.对每颗牙齿调整指令进行聚合(174)。
a.反馈:将聚合的调整指令发送到软件来自动生成分型面(176),返回到步骤1.a.(156)。
b.如果不存在调整,则完成(178)。
以下是在验证组件的2D光栅图像实施方案的具体实施中使用的神经网络的一个实施方案:
model=Sequential([
Conv2D(16,3,padding='same',activation='relu',
input_shape=(IMG_HEIGHT,IMG_WIDTH,3)),
MaxPooling2D(),
Dropout(0.2),
Conv2D(32,3,padding='same',activation='relu'),
MaxPooling2D(),
Conv2D(64,3,padding='same',activation='relu'),
MaxPooling2D(),
Dropout(0.2),
Flatten(),
Dense(512,activation='relu'),
Dense(1)
])
一个实施方案使用神经网络,该神经网络在1)正确的器具组件的示例和2)已被系统地改变为不正确的器具组件的示例上训练。该神经网络使用组件的多个2D描绘(取自不同视图)来对正确的器具组件和不正确的器具组件进行辨别。
该NN可以受训练以对1)正确的分型面和2)离舌侧太远的分型面进行辨别。该NN在3个患者案例(总共54颗牙齿)上测试。在该测试中,该牙齿中有50颗牙齿产生了正确的预测,4颗牙齿产生了不正确的预测。
图22是以下验证过程的流程图,并且图23是该过程的绘画作品。
1.输入:牙齿数据(180)。
2.自动生成器具组件(182)。
3.产生与器具组件有关的患者牙齿的2D视图(184)。
4.神经网络(NN)对器具组件的2D视图进行验证(186)。
a.如果NN返回通过,则组件被清除以供在器具中使用。
b.如果NN返回失败,则在一些实施方案中该反馈可被发送到修复自动化代码来对组件设计的下一个迭代进行精修。
5.输出:准备在修复器具中使用的组件(188)。
在该方法中,神经网络受训练以验证模具分型面的正确性。该实施方案反映了2类分类,其中该神经网络是在两类数据上训练的,即其中分型面是:
类0:放置得离舌侧太远,
或
类1:正确的(既没有离舌侧太远,也没有离面部太远)。
图24中的图示出了已被分型面对分的左上侧门牙(牙齿10)的30个视图。对于该测试案例,牙齿是由已被修改为在舌侧方向上偏离0.5mm的分型面对分的。其他测试案例是围绕已被修改为在舌侧方向上偏离1.0mm的分型面而设计的。其他测试案例是围绕正确地将牙齿对分(即,既没有在舌侧方向上太远,也没有在面部方向上太远)的分型面而设计的。
所对分的牙齿的30个视图(图24)中的每个视图都通过该神经网络。该神经网络对每个视图给予预测,断定在该视图中所示的分型面是:类0“离舌侧太远”或类1“正确放置”。在该测试案例中,全部视图的真实标签是相同的:“类0”。然而,由于该特定分型面的几何结构的模糊性,神经网络未能正确地对若干视图进行分类(即,向这些视图分配“类1”的标签)。这些错误预测的视图在图示中以变灰着色示出。在图像中的该效果是使用α通道实现的。存在11个此类视图,对于这些视图,神经网络给予与真实标签不匹配的预测。剩余的19个全彩视图是在其中神经网络产生了与真实标签匹配的预测的视图。验证系统进行了在30票中有19票的多数表决,以断定分型面离舌侧太远。在该测试案例中,真实数据是可用的。
该显现神经网络的结果的方法是有利的,因为该方法组织了单个测试案例的牙齿的大量视图,并且使人能够快速浏览和掌握测试案例的结果。
图25中的图示出了已被分型面正确地对分的右上方犬齿(牙齿6)的30个视图。在这种情况下,该神经网络仅对视图中的一个视图给予不正确的预测(参见靠近图的左上侧的变灰视图)。同样对于该测试案例,在30票中有29票的多数表决产生的结果是,分型面是正确的。
神经网络在以下3类的真实数据上训练。
类0:分型面被有意修改为放置得离舌侧太远。
类1:正确的(既没有离舌侧太远,也没有离面部太远)。
类2:分型面被有意修改为放置得离面部太远。
本文所述的各种实施方案可以用于多种不同的神经网络中。实施方案2使用CNN。实施方案1使用图卷积神经网络(GraphCNN)。其他实施方案可以涉及全部来源于或部分来源于其他类型的神经网络的元件,包括以下几项:感知机(P);前馈(FF);径向基网络(RBF);深度前馈(DFF);循环神经网络(RNN);长短期记忆(LSTM);门控循环单元(GRU);自编码器(AE);变分自编码器(VAE);去噪自编码器(DAE);稀疏自编码器(SAE);胶囊自编码器(CAE);堆叠胶囊自编码器(SCAE);深度置信网络(DBN);深度卷积网络(DCN);反卷积网络(DN);生成对抗网络(GAN);液体状态机(LSM);以及神经图灵机(NTM)。
GraphCNN可以处理以3D形式(诸如3D网格)提供的牙科数据。该网格包括顶点和关于如何将顶点布置成面的指令两者。在面的定义中隐含的是关于连接该顶点的边缘的信息。
该CNN可以处理以2D光栅图像的形式提供的牙科数据。2D光栅图像可以使用颜色或着色来突出显示在牙齿解剖构造内的感兴趣区域(例如,使用红着色和蓝着色,或者浅着色和深着色来表示由于将模具分型面应用于该牙齿而产生的牙齿的面部分和舌部分)。
这些神经网络可以在已经历增强的数据上训练。在3D网格数据的情况下,增强可以涉及应用于顶点或面的随机变换或确定性变换,以便改变3D网格的形状,但不改变网格的基本身份标识。当用作训练数据时,网格形状的该变化可以有助于分类器避免过拟合。在2D光栅图像的情况下,图像可以被调整大小、拉伸、旋转、剪切或经历噪声的引入。同样地,利用3D数据,对训练数据的这些2D数据增强可以有助于神经网络在训练时避免过拟合。
本文所述的神经网络可以结合各种激活函数,诸如RELU。其他激活函数包括:二进制步骤、身份标识、逻辑和TanH。神经网络可以结合下采样技术,诸如池化和最大池化。神经网络可以使用正则化技术(诸如丢弃)来减少过拟合并且减少泛化误差。
其他验证
以下是可以受益于本文所述的验证技术的牙科器具的其他示例。
1.定制的口腔正畸矫治器(例如,舌侧托架)
在一些实施方案中,本文所述的验证技术可以应用于定制舌侧托架的设计。放置在牙齿上的舌侧托架的数字3D视图可以用于训练验证NN,该验证NN将对舌侧托架设计给予通过/未通过的判定。该反馈可以由受过培训的技术人员对其做出行动,或者该反馈可以被发送到生成舌侧托架的自动化软件,以改善舌侧托架的下一个迭代的设计。对于舌侧托架,通过描绘牙齿的周边轮廓,创建用于形成壳体的厚度,然后通过布尔运算减去牙齿,来为特定牙齿创建粘结垫。托架主体是从库中选择的,被放置在该垫上并且通过布尔加法被结合到该垫上。各种托架组件(例如,钩状物和翼部)被调节来最佳地与牙齿的特定几何结构和齿龈相适应,并且被结合到托架主体中来完成托架的数字设计,该数字设计被输出为3D几何文件。在一些实施方案中,STL格式可以用于3D几何文件。
2.非定制托架的定制间接粘结
托架是从库中选择的,并且被定制放置在牙齿上。精细调整是基于在粘结区域中的局部牙齿解剖构造来进行的,并且通过在牙齿与托架之间的粘合剂粘结线内的补偿,使对扭矩和旋转的一些定制是可能的。NN受训练来识别托架放置的差异,其中那些放置是自动化的放置或技术人员产生的放置。
3.矫治器或透明托盘矫治器(CTA)
在其他实施方案中,本文所述的验证技术可以应用于CTA的设计,例如用于设计矫治器托盘的3D数据。此类数据的示例是被称为“夹具模型”的患者牙齿的3D表示(例如,3D网格),然后其被发送到3D打印机。可以对参数(诸如修剪线的位置,附着物、咬合斜面或狭缝的几何结构和位置)进行验证。修剪线是在热成型期间矫治器被修剪的地方。更复杂的特征(局部厚度、加固肋几何结构、翼片定位等)在直接3D打印的矫治器中是可能的,可以适用本文所述的验证技术。
示出修剪线的患者的牙齿和牙龈的数字3D模型可以用于训练验证NN,该验证NN将对CTA给予通过/未通过的判定。该反馈可以由受过培训的技术人员对其做出行动,或者该反馈可以被发送到生成CTA的自动化软件,以改善CTA的下一个迭代的设计。CTA是一连串可移除的、几乎不可见的塑料托盘,其被成形为使患者的牙齿沿一连串预先确定的位置逐渐移动。
可以使用本文所述的验证技术验证的其他牙科器具包括与植入物放置有关的数据或结构,或其他类型的牙科修复(诸如贴片、牙冠或牙桥)设计。
此外,本文所述的验证技术可以用于验证托架放置,包括由人类专家进行的手动放置和由算法进行的自动化放置中的任一者或两者。
II.顶点和边缘分类
这些实施方案包括例如以下:使用机器学习分割模块来提供从扫描的牙弓中分割出硬件的能力。硬件可以是以托架、支架或其他复杂的外部人工制品的形式。
A.分割
深度学习模型用于从3D网格来对牙齿进行自动分割。该过程可以分为两个步骤:模型开发/训练和模型部署。在训练期间(图26中的流程图1),来自多个患者的未经分割的和经分割的数字3D模型两者都被输入到深度学习模型中,该深度学习模型被优化来学习使预测的牙齿分割和实际的牙齿分割之间的差异最小化的模式。在模型部署期间(图26中的流程图2),受过训练的深度学习模型用于生成对新的从未见过的案例数据的分割预测。
图26中的流程图提供了以下方法,如本文进一步所述。
模型开发/训练:
1.输入:用于历史案例数据的未经分割的和经分割的数字3D模型(190)。
2.(可选的)数据增强,以及网格清理和重采样(192)。
3.训练深度学习模型(194)。
4.评估针对真实分割数据的分割预测(196)。
模型部署:
1.输入:新案例的咬合不正的数字3D模型(198)。
2.(可选的)网格清理和重采样(200)。
3.运行受过训练的深度学习模型(202)。
4.生成所提议的分割(204)。
随着获得更多数据,机器学习方法,特别是深度学习方法的性能开始超过显式编程方法的性能。深度学习方法的显著优点在于消除了对手工特征的需求,因为其能够通过训练过程直接从数据使用较高维潜在或隐藏特征的若干非线性函数的组合来推理若干可用的特征。虽然尝试解决分割问题,但是可能期望对咬合不正3D网格进行直接运算。
用于从牙龈来对牙齿分割的深度学习:
深度学习模型使用MeshCNN从3D网格数据来执行牙齿分割。MeshCNN是用于3D三角形网格的通用深度神经网络,其可以用于诸如3D形状分类或分割的任务。该框架包括直接施加在网格边缘上的卷积层、池化层和反池化层,并且具有优于其他方法的优点,因为其对于网格旋转、缩放和平移的改变是不变的。包括MeshCNN的深度学习算法具有两个主要开发步骤:1)模型训练和2)模型部署。
1.模型训练
模型训练使用历史案例数据的多个未经分割的和经分割的数字3D模型。在使用之前,这些3D模型可以经历一些网格清理和重采样。对于我们的案例数据,执行许多标准网格清理运算,包括空洞填充、退化边缘去除、孤岛去除等。为了模型训练期间的计算效率,还执行网格抽取以将面的数量减少到较小的数量(大约3000)。为了增加用于训练深度神经网络的3D网格样本的数量,使用数据增强技术(包括非统一缩放、顶点移位和边缘翻转)。将未经分割的网格以及每个网格边缘的标签输入到MeshCNN框架中。作为深度学习模型的标准,通过迭代地调整一组权重以使预测的分割标签和实际的分割标签之间的差异最小化的过程来训练该模型。然后通过预测用于在训练期间未使用的预留的一组案例的分割标记并且测量准确度,对训练模型进行评估。在正确地将边缘识别为是属于牙齿还是属于牙龈方面,该模型实现了97%的准确度。
2.模型部署
模型部署阶段使用在步骤1的模型训练期间开发的受过训练的模型。该受过训练的模型获取新案例的未经分割的3D扫描图作为输入。在模型训练阶段期间对3D网格执行的任何网格清理或重采样也应当被应用于新的3D扫描数据。该受过训练的模型输出一组标签,该组标签指示针对每个边缘,该边缘是属于“牙龈”类还是属于“牙齿”类。
图27中示出了一些上牙弓和下牙弓的分割结果的示例。
牙齿类型分类的延伸:
上述创建的分割结果是通过假设在网格中的边缘是属于以下两个类中的一个类而生成的:(1)牙齿、(2)牙龈。另选地,边缘可以被标记为属于多个类中的一个类,例如:
1.按照牙齿类型:(1)磨牙、(2)前磨牙、(3)犬齿、(4)门牙、(5)牙龈。
2.按照牙齿类型和牙弓:(1)上牙弓磨牙、(2)上牙弓前磨牙、(3)上牙弓犬齿、(4)上牙弓门牙、(5)下牙弓磨牙、(6)下牙弓前磨牙、(7)下牙弓犬齿、(8)下牙弓门牙、(9)牙龈。
3.按照牙齿编号:(1)牙龈、(2)牙齿1、(3)牙齿2、……、(33)牙齿32。
深度学习模型诸如MeshCNN可以受训练来将边缘标记为属于多个类中的一个类。
B.使用推理的分割
该方法使用GDL来推理使用不同扫描硬件的对象扫描图的部分或片段。该方法使用机器学习方法来推理输入点云的分割。这些片段对应于各个牙齿和齿龈(牙龈)。使用使用口内扫描获得的点云的数据集(在下文称为数据点)来训练该模型,该数据集具体体现为在点云中的每个点的(x,y,z)坐标的集合以及将这些点分割成牙齿和齿龈的相关联的分割。
该映射稍后可以用于其他几何运算。例如,在数字口腔正畸学的情况下,该模型可以用于在坐标系中使输入点云标准化,该坐标系有助于在不需要在循环中具有手动输入的情况下进行处理。这有效地和显著地减少了每种情况的处理时间,并且还减少了对培训用于执行该任务的人类工作者的需要。
图28和图29示出了该方法的工作流。
图28中的流程图提供了用于训练流水线的以下方法,如本文进一步所述。
1.点云/网格(206)。
a.仅用于训练和验证,相关联的分割(212)。
2.(可选的)缩减/增强(208)。
3.(经增强的)点云/网格(210)。
a.仅用于训练和验证,相关联的分割(214)。
4.GDL机器学习模型(216)。
5.预测的分割(218)。
图29中的流程图提供了用于测试流水线的以下方法,如本文进一步所述。
1.点云/网格(220)。
2.(可选的)缩减/增强(222)。
3.(经增强的)点云/网格(224)。
4.GDL机器学习模型(226)。
5.预测的分割(228)。
在训练期间,点云和相关联的分割两者都被传入,而在测试期间,仅点云被传入。
工作流中的阶段:
1.预处理:
a.(可选的)点云缩减/增强:该方法可以使用点云缩减技术,诸如随机下采样、覆盖感知采样或其他网格简化技术(如果网格可用)来降低点云的尺寸,便于较快推理。该方法还可以使用网格插值技术来增强点云的尺寸,以实现较高的粒度。
b.(可选的)分割缩减/增强:如果点云被抽取,则通过丢弃所抽取的点来相应地抽取所得的点云的分割。如果点云是经增强的,则使用对在初始点云中的点的最近邻查询来确定新创建的点的分割标签。
2.模型推理:
(经增强的)点云通过机器学习模型,并且获得相关联的近似坐标系。下面提供与对机器学习模型的使用有关的步骤。
a.模型的训练:模型具体体现为张量的集合(称为模型权重),这些模型权重的有意义的值通过训练过程来学习。这些权重完全随机地初始化。
训练过程使用训练数据,该训练数据是一组成对的数据点和相关联的坐标系。假设该数据在创建模型之前是可用的。
该方法将从训练数据集中随机选择的批量传递到模型中并且计算损失函数。该损失函数对真实坐标系与预测的坐标系之间的相异性进行测量。
该方法从所计算出的损失函数来推理梯度,并且更新模型的权重。重复该过程预定义的迭代次数,或者直到满足特定的客观标准。
b.模型的验证:除了训练之外,通常不断地验证模型来监控训练中可能的问题,诸如过拟合。
该方法可以使用在训练开始时可用的验证集。该数据集类似于训练数据集,因为该数据集是一组成对的数据点和相关联的坐标系。
在设定数量的训练迭代之后,该方法将验证集传递给模型并且计算损失函数值。该值用作该模型在未见过的数据上的一般化程度的度量。验证损失值可以用作停止训练过程的标准。
c.模型的测试:模型的测试通常发生在未见过的数据点上,这些数据点不具有相关联的带注释的分割。
III.回归
这些实施方案包括例如如下部分。
案例复杂性:使用回归模块来对针对给定扫描的牙弓的案例的处理的复杂性程度进行分类。
案例特征:基于诸如咬合关系(类1、类2或类3)、咬合(覆/深覆合)、牙中线偏移等案例特征,使用回归模型来对扫描的牙弓网格进行分类。基于诸如咬合关系(类1、类2或类3)、咬合(覆、覆盖、前牙/后牙反)、牙中线偏置、前牙整平、空间/拥挤、牙弓形和应用的方案(伸长、扩弓、远移)等案例特征的现有标签,使用回归模型来对扫描的牙弓网格进行分类。
预测处理持续时间:使用回归模块来对针对给定扫描的牙弓的案例的处理的复杂性程度进行分类,其随后用于预测所需的护理量和处理时间。
A.坐标系
该实施方案包括用于确定3D对象相对于全局参照系的相对位姿或坐标系的机器学习方法。此类方法对诸如口腔正畸处理方案等问题具有影响。
通常使用计算几何方法来解决3D对象的位姿确定问题。从2D图像(尤其是人类和人脸)的3D位姿估计是一个被充分研究的问题。然而,在一些场景中,给定参照系的3D对象的相对位姿是重要的,并且关于3D对象的形状的信息是可用的。传统上,对形状特征的显式描述以及与模板进行匹配或与模板进行配准都用于确定位姿。例如,迭代最近点(IC)算法可以用于将观察到的目标3D形状与标准模板进行配准。然后,所推理的变换矩阵可以用于将参考模板的位姿变换为目标形状。
直接应用于3D形状表示的深度学习方法已被用于解决以下两个问题:1)对象分类;和2)语义分割或顶点/元素层面上的分类。使用类似的技术可以预测位姿或坐标系。该要求在于,模型对表示3D对象相对于全局参照系的位姿(即,位置和取向)的一组实数或变换矩阵进行预测。这可以由七个输出参数来表示,其中,3个输出参数用于平移,4个输出参数用于旋转的四元数表示。这提供的参数少于表示完整变换矩阵所要求的12个参数。然而,该表示不受限制,并且也可以使用其他表示(诸如轴角或欧拉角)。
方法:给定网格几何结构(例如,牙齿的网格表示)的大量训练数据和对应的输出变换参数作为标签,可以训练基于网格或基于点的深度学习模型,例如使用PointNet、PointCNN等。另外,在训练期间,可以在输入网格上执行数据增强,诸如对这些点进行欠采样、旋转和置换。这可以有助于从单个源生成数以千计的经增强的输入数据,从而极大增加了算法实现较高性能的机会。图30示出了牙齿坐标系预测。
以下是用于坐标系预测的示例性实施方案:一种方法是:接收3D点云或网格数据,使用机器学习算法来对给定全局参照系的相对位姿和位置进行预测;另一种方法是:接收3D点云或网格数据,使用配准算法将点云与一个或多个模板的已知集合对准,然后使用结果来确定相对于全局参照系的相对位姿和位置。
这些实施方案可以用于在该3D点云表示牙齿的情况下以及在该配准算法可以是ICP、具有点到平面距离度量的ICP等的情况下。
B.使用推理的坐标系
这些方法使用GDL来仅使用使用不同扫描硬件从对象的表面获得的点云来推理对象的取向/坐标系。
在这些方法中,机器学习方法用于推理在点云与相关联的坐标系之间的映射。此类算法的示例可以使用PointNet的修改。该方法使用使用口内扫描获得的点云的数据集(称为数据点)来训练该模型,该数据集具体体现为在点云中的每个点的(x,y,z)坐标的集合以及以六维表示具体体现的相关联的坐标系。该模型用作在点云域与坐标系域之间的回归映射,即,在给定点云的情况下,该模型推理相关联的坐标系。
该映射稍后可以用于其他几何运算。例如,在数字口腔正畸学的情况下,该模型可以用于在坐标系中使输入点云标准化,该坐标系有助于在不需要在循环中具有人的情况下进行处理。这有效地和显著地减少了每种情况的处理时间,并且还减少了对培训用于执行该任务的人类工作者的需要。
图31和图32示出了该方法的高级工作流。
图31的流程图提供了一种用于训练流水线的方法,如本文进一步所述。
1.点云/网格(230)。
a.仅用于训练和验证,坐标系(238)。
b.坐标系变换(240)。
2.(可选的)缩减/增强(232)。
3.标准化(234)。
4.标准化的点云/网格(236)。
a.仅用于训练和验证,坐标系(242)。
5.GDL机器学习模型(244)。
6.预测的坐标系(246)。
图32的流程图提供了用于测试流水线的方法,如本文进一步所述。
1.点云/网格(248)。
2.(可选的)缩减/增强(250)。
3.标准化(252)。
4.标准化的点云/网格(254)。
5.GDL机器学习模型(256)。
6.预测的坐标系(258)。
方法工作流:输入点云是通过对来自扫描的牙弓的牙齿进行分割来获得的。该点云最初在“全局坐标系”中。以下是在该工作流中的阶段:
1.预处理:
a.(可选的)点云缩减/增强:该方法可以使用点云缩减技术,诸如随机下采样、覆盖感知采样或其他网格简化技术(如果网格可用)来降低点云的尺寸,便于较快推理。该方法还可以使用网格插值技术来增强点云的尺寸,以实现较高的粒度。
b.点云标准化:该方法使用白化过程将点云的平均值带到原点并且将点云的主轴对准到X轴、Y轴、Z轴。该方法基于主成分分析(PCA)。该方法从点云中的每个点减去网格平均值,并且使用使用PCA提取的点云的自相关矩阵的特征向量组成的正交矩阵的逆来对点云进行旋转。在使点云标准化的同时,该方法还改变相关联的坐标系来反映该仿射变换。
c.坐标系确定:该坐标系被编码为六维向量。前三个被称为平移分量,该平移分量对局部坐标系的原点在全局坐标系中的位置进行编码。后三个被称为旋转分量,该旋转分量对坐标轴的取向进行编码。该转换使用凯莱变换。初始取向可以被编码为正交矩阵或一组欧拉角,并且该方法将它们取为对应的凯莱角。
2.模型推理:
该标准化的点云通过机器学习模型,并且获得相关联的近似坐标系。下面提供与对机器学习模型的使用有关的步骤。
a.模型的训练:该模型具体体现为张量的集合(称为模型权重)。这些模型权重的有意义的值通过训练过程来学习。这些权重完全随机地初始化。
训练过程使用训练数据,该训练数据是一组成对的数据点和相关联的坐标系。假设该数据在创建模型之前是可用的。
该方法将从训练数据集中随机选择的批量传递到模型中并且计算损失函数。该损失函数对真实坐标系与预测的坐标系之间的相异性进行测量。
该方法从所计算出的损失函数来推理梯度,并且更新模型的权重。重复该过程预定义的迭代次数,或者直到满足特定的客观标准。
b.模型的验证:除了训练之外,通常不断地验证模型来监控训练中可能的问题,诸如过拟合。
该方法假设在训练开始时存在可用的验证集。该数据集类似于训练数据集,因为该数据集是一组成对的数据点和相关联的坐标系。
在设定数量的训练迭代之后,该方法将验证集传递给模型并且计算损失函数值。该值用作该模型在未见过的数据上的一般化程度的度量。验证损失值可以用作停止训练过程的标准。
c.模型的测试:模型的测试通常发生在未见过的数据点上,这些数据点不具有相关联的真实坐标系。这在部署中完成。
3.(可选的)后处理:所估计的坐标系具体体现为六维向量,并且然后可以被转换为任何期望的格式,例如欧拉角。该方法还可以使用该估计的坐标系将输入网格转换为该输入网格的局部坐标,并且这些局部坐标可以然后用于在流水线中的其他运算。
以下是我们对该任务的实验设置的描述,以及这些牙齿中的一些牙齿的结果。
实验设置:
使用4:1分割来将65个案例的集合(可能部分完成)分成训练集和验证集。每个案例是点云及其相关联的带人类注释的坐标系的集合。对应于这些案例的点云具有可变的输入点密度并且它们在尺寸上也是不均匀的。仅使用点的(x,y,z)坐标作为它们的特征向量。
结果:
图33示出了针对我们的模型性能的验证集的结果中的一些结果,并且示出了对第二磨牙右上方牙弓(UNS=1)的预测。存在针对每个案例的两个图示。第一个(顶部图示)对应于对网格顶部的坐标系叠加。第二个(底部图示)对应于使用该坐标系预测的经变换的点云的差异。红色(或第一着色)用于表示对我们的机器模型的预测,并且蓝色(或与第一着色不同的第二着色)用于表示对应于验证点的真实注释。
IV。自动化编码器和聚类——对提供者和偏好进行聚类
这些实施方案包括例如如下部分。
对医生和偏好进行分组:使用诸如聚类等无监督方法,基于提供者(例如,医生、技术人员或其他人)的处理偏好对他们进行分组。处理偏好可以在处理处方表中指示,或者这些处理偏好可以基于在处理方案中的特征,诸如设置特征(例如,在计划的最终设置中的咬合校正或牙中线校正的量)、阶段性特征(例如,处理持续时间、牙齿移动方案或过度校正策略)或结果(例如,修正/改善的数量)。
使用监督方法和在现有数据中的提供者标识,基于提供者的过去偏好而为每个提供者训练推荐系统。
使用监督方法,提供者(例如,医生)的笔记的长段落被翻译或转换为设置技术人员在处理设计期间沿循的步骤的正确顺序。
图34中的流程图提供了用于提供者偏好的方法。
1.输入:提供者的历史处理信息,例如每个提供者的处理处方表(260)。
2.使用机器学习来汇总每个提供者的偏好,例如使用本文所述的机器学习技术中的任何技术(262)。
3.输出:基于提供者的偏好和过去的处理而为每个提供者定制的处理方案(264)。
在提供者偏好已由机器学习汇总之后,处理方案算法考虑那些偏好并且根据每个提供者(例如,医生)的过去处理来生成定制的未来处理方案。对处理的定制可以减少在医生和技术人员之间对计划的修改次数。下表提供了用于存储这些提供者偏好和定制的处理方案的示例性数据结构。定制的处理方案可以以其他方式和模板存储。
本文所述的方法和过程可以例如在用于由一个或多个处理器(诸如处理器20)执行的软件模块或固件模块中实现。通过该方法和过程生成的信息可以显示在显示装置(诸如显示装置16)上。如果用户交互是该方法和过程所要求的或期望的,则此类交互可以通过输入装置(诸如输入装置18)来提供。
本文所述的GDL和机器学习实施方案可以被组合,以便将GDL处理用于这些实施方案的任何组合,诸如以下。
第I节所述的网格或模型清理过程可以在第I节所述的牙科修复预测过程之前或者与其一起执行,来向牙科修复预测过程提供经清理的网格或模型。
第I节所述的网格或模型清理过程以及第II节中所述的分割过程和第III节所述的坐标系过程,可以在第I节所述的牙科修复预测过程之前或者与其一起执行,来向牙科修复预测过程提供具有分割和坐标系的经清理的网格或模型。
第I节所述的网格或模型清理过程可以在第I节所述的牙科修复验证过程之前执行,或者与第I节所述的牙科修复验证过程一起进行,来向牙科修复验证过程提供经清理的网格或模型。
第I节所述的网格或模型清理过程以及第II节所述的分割过程和第III节所述的坐标系过程,可以在第I节所述的牙科修复验证过程之前或者与其一起执行,来向牙科修复验证过程提供具有分割和坐标系的经清理的网格或模型。
第I节所述的牙科修复预测过程可以与第I节所述的牙科修复验证过程一起执行,一个过程在另一个过程之前或至少部分地同时执行。
第I节所述的网格或模型清理过程可以在第I节所述的牙科修复预测过程与第I节所述的牙科修复验证过程一起执行之前或者在第I节所述的牙科修复预测过程与第I节所述的牙科修复验证过程一起执行的同时一起执行,来向牙科修复预测和验证过程提供经清理的网格或模型。
第I节所述的网格或模型清理过程以及第II节所述的分割过程和第III节所述的坐标系过程,可以在第I节所述的牙科修复预测过程与第I节所述的牙科修复验证过程一起执行之前执行,或者在第I节所述的牙科修复预测过程与第I节所述的牙科修复验证过程一起执行的同时一起执行,来向牙科修复预测和验证过程提供经分割的并且具有坐标系的经清理的网格或模型。
第I节所述的网格或模型清理过程可以在第II节所述的分割过程之前或者与其一起执行,来向分割过程提供经清理的网格或模型。
第I节所述的网格或模型清理过程可以在第III节所述的坐标系过程之前或者与其一起执行,来向坐标系过程提供经清理的网格或模型。
第II节所述的分割过程可以与第III节所述的坐标系过程一起执行,一个过程在另一个过程之前或至少部分地同时执行,来提供既经分割的又具有坐标系的网格或模型。
第I节所述的网格或模型清理过程可以在第II节所述的分割过程与第III节所述的坐标系过程一起执行之前执行,或者在第II节所述的分割过程与第III节所述的坐标系过程一起执行的同时一起执行,来向分割过程和坐标系过程提供经清理的网格或模型。
第I节所述的网格或模型清理过程,第I节所述的牙科修复预测过程和牙科修复验证过程,第II节所述的分割过程,以及第III节所述的坐标系过程,可以在生成定制的处理方案时与第IV节所述的对提供者进行分组的过程一起选择性地使用。
Claims (19)
1.一种数字3D模型修改的计算机实现的方法,所述方法包括以下步骤:
接收口内结构的数字3D模型,其中所述模型包括待修改的特征、牙齿和齿龈中的至少一者;
对所述数字3D模型运行受过训练的机器学习模型,其中所述受过训练的机器学习模型基于历史数字3D模型,所述历史数字3D模型包括待修改的特征、分割、坐标系和牙科修复中的至少一者;以及
输出所述数字3D模型的版本,其中输出版本不含待修改的特征,包括预测的分割,包括预测的坐标系,或包括设计的修复。
2.根据权利要求1所述的计算机实现的方法,
其中所述口内结构包括待修改的特征;
其中所述受过训练的机器学习模型基于具有待修改的特征的历史数字3D模型;并且
其中所述数字3D模型的所述输出版本没有所述待修改的特征。
3.根据权利要求1所述的计算机实现的方法,
其中所述口内结构包括牙齿和齿龈;
其中所述受过训练的机器学习模型基于具有分割的历史数字3D模型;并且
其中所述数字3D模型的所述输出版本包括预测的分割。
4.根据权利要求1至3中任一项所述的计算机实现的方法,
其中所述口内结构包括牙齿;
其中所述受过训练的机器学习模型基于具有坐标系的历史数字3D模型;并且
其中所述数字3D模型的所述输出版本包括预测的坐标系。
5.根据权利要求1至4中任一项所述的计算机实现的方法,
其中所述口内结构包括牙齿;
其中所述受过训练的机器学习模型基于用于牙科修复的历史数字3D模型;并且
其中所述数字3D模型的所述输出版本包括设计的修复。
6.根据权利要求5所述的计算机实现的方法,其中所述口内结构包括牙齿和待修改的特征;
其中所述受过训练的机器学习模型基于用于牙科修复的历史数字3D模型和具有所述待修改的特征的历史数字3D模型;并且
其中所述数字3D模型的所述输出版本包括设计的修复并且不含所述待修改的特征。
7.一种验证组件的计算机实现的方法,所述组件用于牙科或口腔正畸组件,所述方法包括以下步骤:
接收用于牙科修复的数字3D组件;
对所述数字3D组件运行受过训练的机器学习模型,其中所述受过训练的机器学习模型基于用于牙科修复的历史数字3D组件;以及
输出对所述数字3D组件是否可合格用于牙科或口腔正畸修复的指示。
8.根据权利要求7所述的方法,其中所述机器学习模型为神经网络。
9.根据权利要求7所述的方法,还包括:在根据权利要求7所述的验证方法之前或者与其一起执行根据权利要求2所述的数字3D模型清理方法。
10.根据权利要求7所述的方法,还包括:在根据权利要求7所述的验证方法之前或者与其一起执行根据权利要求2所述的数字3D模型清理方法、根据权利要求3所述的数字3D模型分割方法和/或根据权利要求4所述的数字3D模型坐标系方法。
11.根据权利要求7所述的方法,还包括:在根据权利要求7所述的验证方法之前、之后或者至少部分地与其同时执行根据权利要求5所述的设计方法。
12.根据权利要求11所述的方法,还包括:在执行根据权利要求5所述的设计方法和根据权利要求7所述的验证方法之前或者与其一起执行根据权利要求2所述的数字3D模型清理方法。
13.根据权利要求12所述的方法,还包括:在执行根据权利要求5所述的设计方法和根据权利要求7所述的验证方法之前或者与其一起执行根据权利要求2所述的数字3D模型清理方法、根据权利要求3所述的数字3D模型分割方法和/或根据权利要求4所述的数字3D模型坐标系方法。
14.根据权利要求7所述的方法,还包括:输出对如何改变所述数字3D组件,以便所述数字3D组件可合格用于所述牙科修复的指示。
15.根据权利要求3所述的方法,还包括:在执行根据权利要求3所述的数字3D模型坐标系方法之前或者与其一起执行根据权利要求2所述的数字3D模型清理方法。
16.根据权利要求3所述的方法,还包括:在根据权利要求3所述的数字3D模型坐标系方法之前、之后或者至少部分地与其同时执行根据权利要求2所述的数字3D模型分割方法。
17.根据权利要求16所述的方法,还包括:在执行根据权利要求3所述的数字3D模型分割方法和根据权利要求4所述的数字3D模型坐标系方法之前或者与其一起执行根据权利要求2所述的数字3D模型清理方法。
18.一种生成定制的处理方案的计算机实现的方法,所述方法包括以下步骤:
接收提供者的历史处理信息;
对所述提供者的所述历史处理信息运行受过训练的机器学习模型;以及
为所述提供者中的每个提供者输出一个或多个定制的处理方案。
19.根据权利要求18所述的计算机实现的方法,并且还包括:在执行根据权利要求18所述的定制的处理方案的方法之前或者与其一起执行根据权利要求2所述的数字3D模型清理方法、根据权利要求3所述的数字3D模型分割方法和/或根据权利要求4所述的数字3D模型坐标系方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063124263P | 2020-12-11 | 2020-12-11 | |
US63/124,263 | 2020-12-11 | ||
PCT/IB2021/061230 WO2022123402A1 (en) | 2020-12-11 | 2021-12-02 | Automated processing of dental scans using geometric deep learning |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116583243A true CN116583243A (zh) | 2023-08-11 |
Family
ID=81974223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180082162.2A Pending CN116583243A (zh) | 2020-12-11 | 2021-12-02 | 使用几何深度学习对牙科扫描图进行自动化处理 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240008955A1 (zh) |
EP (1) | EP4260278A1 (zh) |
JP (1) | JP2023552589A (zh) |
CN (1) | CN116583243A (zh) |
WO (1) | WO2022123402A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118078471A (zh) * | 2024-04-29 | 2024-05-28 | 南京笑领科技有限公司 | 基于人工智能的三维牙冠建模方法、系统及应用 |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018144634A1 (en) | 2017-01-31 | 2018-08-09 | Swift Health Systems Inc. | Hybrid orthodontic archwires |
CN113710191A (zh) | 2019-03-01 | 2021-11-26 | 斯威夫特健康系统有限公司 | 具有咬合附件和正畸辅助物集成的间接粘接托盘 |
CN114727853B (zh) | 2019-10-31 | 2024-10-01 | 斯威夫特健康系统有限公司 | 间接正畸粘合系统和方法 |
CN113223140A (zh) * | 2020-01-20 | 2021-08-06 | 杭州朝厚信息科技有限公司 | 利用人工神经网络生成牙科正畸治疗效果的图像的方法 |
KR20230051157A (ko) | 2020-06-11 | 2023-04-17 | 스위프트 헬스 시스템즈 인코포레이티드 | 논슬라이딩 아치 구조를 구비한 교정 장치 |
EP4395688A1 (en) | 2021-09-03 | 2024-07-10 | Swift Health Systems Inc. | Method of administering adhesive to bond orthodontic brackets |
CN114219897B (zh) * | 2021-12-20 | 2024-04-30 | 山东大学 | 一种基于特征点识别的牙齿正畸结果预测方法及系统 |
USD1043994S1 (en) | 2022-01-06 | 2024-09-24 | Swift Health Systems Inc. | Archwire |
EP4307229A1 (en) * | 2022-07-15 | 2024-01-17 | 3Shape A/S | Method and system for tooth pose estimation |
WO2024121067A1 (en) * | 2022-12-05 | 2024-06-13 | 3Shape A/S | Method and system for aligning 3d representations |
EP4404139A1 (en) * | 2023-01-17 | 2024-07-24 | 3Shape A/S | Method and system for aligning 3d representations |
WO2024127304A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Transformers for final setups and intermediate staging in clear tray aligners |
WO2024127305A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Force directed graphs for final setups and intermediate staging in clear tray aligners |
WO2024127311A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Machine learning models for dental restoration design generation |
WO2024127306A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Pose transfer techniques for 3d oral care representations |
WO2024127307A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Setups comparison for final setups and intermediate staging in clear tray aligners |
WO2024127316A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Autoencoders for the processing of 3d representations in digital oral care |
WO2024127310A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Autoencoders for the validation of 3d oral care representations |
WO2024127315A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Neural network techniques for appliance creation in digital oral care |
WO2024127313A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Metrics calculation and visualization in digital oral care |
WO2024127318A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Denoising diffusion models for digital oral care |
WO2024127303A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Reinforcement learning for final setups and intermediate staging in clear tray aligners |
WO2024127302A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Geometric deep learning for final setups and intermediate staging in clear tray aligners |
WO2024127314A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Imputation of parameter values or metric values in digital oral care |
WO2024127308A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Classification of 3d oral care representations |
WO2024127309A1 (en) | 2022-12-14 | 2024-06-20 | 3M Innovative Properties Company | Autoencoders for final setups and intermediate staging in clear tray aligners |
CN116385825B (zh) * | 2023-03-22 | 2024-04-30 | 小米汽车科技有限公司 | 模型联合训练方法、装置及车辆 |
CN117095145B (zh) * | 2023-10-20 | 2023-12-19 | 福建理工大学 | 一种牙齿网格分割模型的训练方法及终端 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3503038A1 (en) * | 2017-12-22 | 2019-06-26 | Promaton Holding B.V. | Automated 3d root shape prediction using deep learning methods |
US11007040B2 (en) * | 2018-03-19 | 2021-05-18 | James R. Glidewell Dental Ceramics, Inc. | Dental CAD automation using deep learning |
CN111696192A (zh) * | 2019-03-14 | 2020-09-22 | 杭州朝厚信息科技有限公司 | 基于人工神经网络的去除牙齿三维数字模型的表面气泡的方法 |
US11238586B2 (en) * | 2019-05-02 | 2022-02-01 | Align Technology, Inc. | Excess material removal using machine learning |
-
2021
- 2021-12-02 US US18/253,699 patent/US20240008955A1/en active Pending
- 2021-12-02 WO PCT/IB2021/061230 patent/WO2022123402A1/en active Application Filing
- 2021-12-02 CN CN202180082162.2A patent/CN116583243A/zh active Pending
- 2021-12-02 EP EP21902819.8A patent/EP4260278A1/en active Pending
- 2021-12-02 JP JP2023535284A patent/JP2023552589A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118078471A (zh) * | 2024-04-29 | 2024-05-28 | 南京笑领科技有限公司 | 基于人工智能的三维牙冠建模方法、系统及应用 |
Also Published As
Publication number | Publication date |
---|---|
WO2022123402A1 (en) | 2022-06-16 |
US20240008955A1 (en) | 2024-01-11 |
EP4260278A1 (en) | 2023-10-18 |
JP2023552589A (ja) | 2023-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116583243A (zh) | 使用几何深度学习对牙科扫描图进行自动化处理 | |
US11972572B2 (en) | Intraoral scanning system with excess material removal based on machine learning | |
US11651494B2 (en) | Apparatuses and methods for three-dimensional dental segmentation using dental image data | |
JP7489964B2 (ja) | 深層学習を使用した自動化矯正治療計画 | |
US20210100643A1 (en) | Automated detection, generation and/or correction of dental features in digital models | |
WO2020185527A1 (en) | Foreign object identification and image augmentation and/or filtering for intraoral scanning | |
CA3159495A1 (en) | Systems and methods for constructing a three-dimensional model from two-dimensional images | |
CN111685899A (zh) | 基于口内图像和三维模型的牙齿正畸治疗监测方法 | |
US20240058105A1 (en) | Augmentation of 3d surface of dental site using 2d images | |
WO2023242757A1 (en) | Geometry generation for dental restoration appliances, and the validation of that geometry | |
TW202409874A (zh) | 牙齒復原自動化技術 | |
Lessard et al. | Dental restoration using a multi-resolution deep learning approach | |
WO2024127315A1 (en) | Neural network techniques for appliance creation in digital oral care | |
WO2024127316A1 (en) | Autoencoders for the processing of 3d representations in digital oral care | |
WO2024127311A1 (en) | Machine learning models for dental restoration design generation | |
US20230419631A1 (en) | Guided Implant Surgery Planning System and Method | |
WO2023242768A1 (en) | Defect detection, mesh cleanup, and mesh cleanup validation in digital dentistry | |
US20240257342A1 (en) | Three-dimensional dental model segmentation quality assessment | |
US20240277450A1 (en) | Methods and systems for interproximal adjustment | |
WO2023242763A1 (en) | Mesh segmentation and mesh segmentation validation in digital dentistry | |
US20240325124A1 (en) | Method for providing annotated synthetic image data for training machine learning models | |
WO2023242771A1 (en) | Validation of tooth setups for aligners in digital orthodontics | |
WO2023242765A1 (en) | Fixture model validation for aligners in digital orthodontics | |
WO2023242761A1 (en) | Validation for the placement and generation of components for dental restoration appliances | |
WO2024039547A1 (en) | Augmentation of 3d surface of dental site using 2d images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20240328 Address after: U.S.A. Applicant after: Shuwanuo Intellectual Property Co. Country or region after: U.S.A. Address before: American Minnesota Applicant before: 3M INNOVATIVE PROPERTIES Co. Country or region before: U.S.A. |