CN106255473B - 增强现实牙科设计方法及系统 - Google Patents
增强现实牙科设计方法及系统 Download PDFInfo
- Publication number
- CN106255473B CN106255473B CN201580009848.3A CN201580009848A CN106255473B CN 106255473 B CN106255473 B CN 106255473B CN 201580009848 A CN201580009848 A CN 201580009848A CN 106255473 B CN106255473 B CN 106255473B
- Authority
- CN
- China
- Prior art keywords
- model
- individual
- feature
- input
- dental appliance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C13/00—Dental prostheses; Making same
- A61C13/34—Making or working of models, e.g. preliminary castings, trial dentures; Dowel pins [4]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C13/00—Dental prostheses; Making same
- A61C13/0003—Making bridge-work, inlays, implants or the like
- A61C13/0004—Computer-assisted sizing or machining of dental prostheses
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C19/00—Dental auxiliary appliances
- A61C19/04—Measuring instruments specially adapted for dentistry
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
- A61C9/0053—Optical means or methods, e.g. scanning the teeth by a laser or light beam
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
- A61C9/0086—Acoustic means or methods
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Z—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
- G16Z99/00—Subject matter not provided for in other main groups of this subclass
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Public Health (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Epidemiology (AREA)
- Human Computer Interaction (AREA)
- Animal Behavior & Ethology (AREA)
- Dentistry (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Optics & Photonics (AREA)
- Medical Informatics (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- Dermatology (AREA)
- Biophysics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Primary Health Care (AREA)
- Pathology (AREA)
- Architecture (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Processing Or Creating Images (AREA)
- Dental Prosthetics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
一种用于设计个体的牙科用具的方法及系统。包括个体面部的一部分和牙弓的个体特征的3D模型被显示在3D显示器上。3D模型包括增强现实牙科用具。3D模型可通过由动作传感器、脑机接口、动作传感器和脑机接口两者、或其他传感器检测的输入来操纵。响应于姿势神经活动或其它输入,增强现实牙科用具或3D模型的其它方面被修改。响应于修改的牙科用具或其他改变,3D模型被更新,并被重新定位以提供更新的3D模型。更新的3D模型被显示在3D显示器上。该系统和方法有助于增强现实牙科用具的修改和所产生的美学效果的观察。
Description
相关申请的交叉引用
本申请要求2014年2月21日提交的美国临时专利申请No.61/942,734和2014年11月5日提交的美国临时专利申请No.62/075,665的优先权的权益,这两个专利申请都通过引用合并于此。
技术领域
本公开总体上涉及牙科用具或修复体的设计。
背景技术
目前提出的牙科用具或修复体是通过在患者口中试戴修复体的复制品或通过在牙科设计软件中包含患者的2D影像中的任一种被可视化。示例包括用于义齿设计的Densply的TruRx软件(另请参阅美国公布No.2010/0076581)和在有牙齿的个体上使用的来自3体的2D影像布置(另请参阅美国公布No.2013/0218530)。
Densply的TruRx方法是用于患者的数字化建模的市售解决方案。该方法涉及在患者的面部放置参考标记,放置口腔护罩以覆盖至少部分覆盖患者牙齿的一部分,从而在患者的面部的后续数码照片中产生空白区域。该软件使用在照片中的参考标记大小来比较患者面部的尺寸。空白区域在软件中被识别,并且用于制作义齿的所选材料和结构在数码影像的空白区域上被叠加,以便执业医生或患者能看到患者在用所选组合时看起来像什么的结果。
发明内容
本文提供一种系统,该系统集成3D成像、义齿设计软件和3D显示器来从任意角度和视角实时显示假想的义齿修复体和选项。所述系统检测输入,允许外行个体通过使用输入与个体的头部和口腔以及增强现实(“AR”)牙科用具或修复体的合成模型进行交互,该输入包括:动作和姿势、简单物理接口的操纵、以及通过脑机接口(“BCI”)(例如,脑电图仪BCI、脑磁图BCI等)的个体神经活动的测量中的一种或多种。3D显示器和对3D模型的直观手势或BCI数据的响应能力有助于该系统被外行个体使用。个体可选择针对用具的各种设计选项,诸如,牙齿形态、排列和颜色。合成模型响应于设计选项而被更新,允许所提出的牙科用具的外观被确认和改变。该系统同样提供了所提出的牙科修复体在多种面部表情、光照条件等情况下的视图。BCI数据还可与个体的在各种情绪或其他无意识状态下的经验数据相比较,以评估个体的偏好并提供建议的牙科用具。
在义齿或其他牙科用具的设计中的主要驱动器提供生理上合适的咬合。这种咬合可通过各种替换齿的组合被提供给个体。当保持在合适的位置时,咬合可由各种形状和大小的牙齿的不同组合组成(尤其是在上部和下部的牙列都被义齿或其他用具替换的情况下)。牙列的具体选择可对美学结果具有显著影响(例如,对展现出的笑容等)。因此,理想的是提供一种方法及系统,其允许个体基于包含在用具上的牙列的大小、形状和/或取向针对义齿或其他牙科用具的美学呈现进行有意义的输入。本公开的一个目的是消除或削弱设计义齿的之前方法的至少一个缺点。
在第一方面中,本公开提供了一种用于设计针对个体的牙科用具的方法及系统。个体的包括面部和牙弓的一部分的特征的3D模型被显示在3D显示器上。3D模型包括增强现实牙科用具。3D模型可通过由动作传感器、脑机接口、动作传感器和脑机接口两者、或其他传感器检测的输入来操纵。响应于姿势神经活动或其它输入,增强现实牙科用具或3D模型的其它方面被修改。3D模型响应于修改的牙科用具或其他改变而被更新,并被重新定位以提供更新的3D模型。更新的3D模型被显示在3D显示器上。该系统和方法有助于修改增强现实牙科用具并观察所产生的美学效果。
在另一方面中,本公开提供了针对患者个体设计牙科用具的方法,包括:在3D显示器上显示患者个体的3D模型,3D模型包括扫描特征和增强现实特征,扫描特征包括患者个体的牙弓以及患者个体的面部和牙弓的与用于将牙弓与面部关联的一部分,增强现实特征包括针对患者个体的牙科用具;用传感器检测输入;响应于输入修改牙科用具以提供修改的牙科用具;响应于修改的牙科用具重新定位扫描特征以提供重新定位的扫描特征;响应于修改的牙科用具和重新定位的扫描特征,更新3D模型以提供更新的3D模型;以及在3D显示器上显示更新的3D模型。
在实施例中,输入包括主动输入。
在实施例中,主动输入包括基于姿势的输入。
在实施例中,基于姿势的输入包括抓住3D显示器上的3D模型的一特征并操纵该特征。
在实施例中,抓住特征包括用手抓住特征。
在实施例中,特征包括牙科用具的牙列。
在实施例中,操纵特征包括改变牙列的角度。
在实施例中,基于姿势的输入源自患者个体。
在实施例中,基于姿势的输入源自非患者个体。
在实施例中,输入包括主动输入。
在实施例中,主动输入包括基于姿势的输入。
在实施例中,传感器包括动作传感器。
在实施例中,主动输入包括神经活动输入,并且传感器包括脑机接口。
在实施例中,神经活动输入包括修改的牙科用具的概念化。
在实施例中,神经活动输入包括修改牙科用具的概念化。
在实施例中,修改牙科用具的概念化包括概念化用手抓住显示器上的3D模型的一特征并操纵该特征。
在实施例中,特征包括牙科用具的牙列。
在实施例中,操纵特征包括改变牙列的角度。
在实施例中,主动输入包括基于姿势的输入,并且传感器包括动作传感器。
在实施例中,主动输入包括神经活动输入,并且传感器包括脑机接口。
在实施例中,神经活动输入包括来自患者个体的神经活动输入。
在实施例中,神经活动输入包括来自非患者个体的神经活动输入。
在实施例中,输入包括将扫描特征的至少一部分约束到目标位,并且修改的牙科用具包括有助于目标位的修改的特征。
在实施例中,目标位包括选定的上下颌关系。
在实施例中,选定的上下颌关系为休息位,并且牙列在休息位提供在1mm和4mm之间的息止间隙。
在实施例中,选定的上下颌关系是处于选定的牙合位,并且牙列在选定的上下颌关系提供牙合。
在实施例中,修改的特征包括牙科用具的牙列。
在实施例中,所述方法包括:用传感器检测非主动输入;响应于非主动输入修改牙科用具以提供修改的牙科用具;响应于修改的牙科用具重新定位扫描特征以提供重新定位的扫描特征;响应于修改的牙科用具和重新定位的扫描特征更新3D模型以提供更新的3D模型;以及在3D显示器上显示更新的3D模型。
在实施例中,非主动输入包括来自患者个体的非主动输入。
在实施例中,非主动输入包括来自非患者个体的非主动输入。
在实施例中,非主动输入包括神经活动输入,并且传感器包括脑机接口。
在实施例中,非主动输入包括面部表情的改变,并且传感器包括光学传感器。
在实施例中,所述方法包括:用传感器检测非主动输入;使非主动输入与偏好标准和修改的牙科用具相关联,以确定个体的偏好;修改修改的牙科用具以提供与个体的偏好相关联的建议的牙科用具;响应于建议的牙科用具重新定位扫描特征以提供建议的扫描特征;响应于建议的牙科用具和建议的扫描特征更新3D模型以提供建议的3D模型;以及在3D显示器上显示建议的3D模型。在实施例中
在实施例中,偏好标准包括个体的情绪状态。
在实施例中,偏好标准包括个体的主动输入。
在实施例中,非主动输入包括来自患者个体的非主动输入。
在实施例中,非主动输入包括来自非患者个体的非主动输入。
在实施例中,非主动输入包括神经活动输入,并且传感器包括脑机接口。
在实施例中,非主动输入包括面部表情的改变,并且传感器包括光学传感器。
在实施例中,非主动输入响应于更新的3D模型。
在实施例中,3D模型包括保存位,保存位具有面部的选定的扫描特征。
在实施例中,所述方法包括:重新定位扫描特征到保存位;响应于保存位和重新定位的扫描特征更新3D模型以提供保存位3D模型;以及在3D显示器上显示保存位3D模型。
在实施例中,扫描特征包括3D模型中的面部上的附加细节的面部的外部特征数据。
在实施例中,患者个体的面部的外部特征数据包括用于使患者个体的面部的整个面部基本上包含在3D模型中的数据。
在实施例中,所述方法包括采集扫描特征的数据。
在实施例中,采集扫描特征的数据包括对扫描特征进行光学扫描。
在实施例中,采集扫描特征的数据包括对扫描特征进行超声扫描。
在实施例中,采集扫描特征的数据包括响应于输入采集扫描特征的附加数据并更新3D模型以包括附加数据。
在实施例中,采集附加数据并更新3D模型以包括附加数据是各自持续不断地并基本上实时地被执行。
在实施例中,个体采用面部表情引起更新3D模型以包括附加数据,并且其中附加数据包括个体采用面部表情的外部特征数据。
在实施例中,输入包括神经活动输入,并且传感器包括脑机接口。
在实施例中,采集扫描特征的数据包括确定患者个体处于与个体的休息位对应的上下颌关系并且采集当上下颌关系是处于休息位时面部的数据。
在实施例中,确定患者个体处于与休息位对应的上下颌关系包括:测量个体的颚肌活动以确定上下颌关系具有最小能量使用。
在实施例中,测量颚肌活动包括将肌电图施加到个体。
在实施例中,确定患者个体处于与休息位对应的上下颌关系包括:使个体的颚肌力竭。
在实施例中,使个体的颚肌力竭包括将经皮电神经刺激施加到颚肌。
在实施例中,用于显示3D模型的数据包括当上下颌关系处于休息位时面部的数据。
在另一方面中,本公开提供了用于针对患者个体设计牙科用具的系统,包括:用于存储3D模型的计算机可读介质,3D模型包括扫描特征和增强现实特征,扫描特征包括患者个体的牙弓以及患者个体的面部和牙弓的与用于将牙弓与面部关联的一部分,增强现实特征包括针对患者个体的牙科用具;用于显示3D模型的3D显示器;用于检测输入的传感器;处理器,可操作地与计算机可读介质连接用于处理3D模型,与传感器连接用于接收输入,与3D显示器连接用于显示3D模型,处理器被配置并适于:响应于输入修改牙科用具以提供修改的牙科用具;响应于修改的牙科用具重新定位扫描特征以提供重新定位的扫描特征;响应于修改的牙科用具和重新定位的扫描特征更新3D模型以提供更新的3D模型;以及在3D显示器上显示更新的3D模型。
在实施例中,传感器包括用于检测对3D模型的基于姿势的输入的动作传感器。
在实施例中,传感器包括用于检测对3D模型的基于神经活动的输入的脑机接口。
在实施例中,传感器包括用于从第一个体输入的第一输入点和用于从第二个体输入的第二输入点。
在实施例中,传感器包括用于检测基于姿势的输入、基于面部表情的输入或基于眼睛扩张的输入的光学传感器。
在实施例中,所述系统包括与计算机可读介质通信用于采集扫描特征的数据的扫描仪。
在实施例中,扫描仪包括用于采集牙弓的数据的口内扫描仪。
在实施例中,扫描仪包括用于采集患者个体的面部的一部分的数据的口外扫描仪。
在实施例中,扫描仪包括光学扫描仪。
在实施例中,扫描仪包括超声扫描仪。
在实施例中,所述系统包括用于测量个体的下颌的肌肉活动的肌肉活动传感器。
在实施例中,肌肉活动传感器包括肌电图模块。
在实施例中,处理器与扫描仪可操作地通信,以使扫描仪采集用于模型化扫描特征的数据;并且肌肉活动传感器与处理器进行通信,用于当肌肉活动处于选定的值时引导扫描仪采集用于模型化扫描特征的数据。
在实施例中,选定的值表明休息位。
在另一方面中,本公开提供了针对患者个体设计牙科用具的方法,包括:在3D显示器上显示3D模型,该3D模型包括:扫描特征和增强现实特征,扫描特征包括患者个体的牙弓以及患者个体的面部和牙弓的与用于将牙弓与面部关联的一部分,增强现实特征包括针对患者个体的牙科用具;用动作传感器检测输入;响应于基于姿势的输入修改牙科用具以提供修改的牙科用具;响应于修改的牙科用具重新定位扫描特征;以及响应于修改的牙科用具和重新定位的扫描特征更新3D模型以提供更新的3D模型。
在实施例中,输入包括基于姿势的输入。
在另一方面中,本公开提供了针对患者个体设计牙科用具的方法,包括:在3D显示器上显示3D模型,该3D模型包括:扫描特征和增强现实特征,扫描特征包括患者个体的牙弓以及患者个体的面部和牙弓的与用于将牙弓与面部关联的一部分,增强现实特征包括针对患者个体的牙科用具;用光学传感器检测输入;响应于基于姿势的输入修改牙科用具以提供修改的牙科用具;响应于修改的牙科用具重新定位扫描特征;以及响应于修改的牙科用具和重新定位的扫描特征更新3D模型以提供更新的3D模型。
在实施例中,输入包括基于姿势的输入。
在实施例中,检测输入包括跟踪眼球运动。
在实施例中,输入包括面部表情。
在另一方面中,本公开提供了针对患者个体设计牙科用具的方法,包括:在3D显示器上显示3D模型,该3D模型包括:扫描特征和增强现实特征,扫描特征包括患者个体的牙弓以及患者个体的面部和牙弓的与用于将牙弓与面部关联的一部分,增强现实特征包括针对患者个体的牙科用具;用脑机接口检测输入;响应于基于神经活动的输入修改牙科用具以提供修改的牙科用具;响应于修改的牙科用具重新定位扫描特征;以及响应于修改的牙科用具和重新定位的扫描特征更新3D模型以提供更新的3D模型。
在另一方面中,本公开提供了用于针对患者个体设计牙科用具的系统,包括:具有存储在其上的3D模型的计算机可读介质,3D模型包括扫描特征和增强现实特征,扫描特征包括患者个体的牙弓以及患者个体的面部和牙弓的与用于将牙弓与面部关联的一部分,增强现实特征包括针对患者个体的牙科用具;用于显示3D模型的3D显示器;用于检测对3D模型的输入的动作传感器;处理器,可操作地与计算机可读介质连接用于处理3D模型,可操作地与动作传感器连接用于接收基于姿势的输入,并且与3D显示器连接用于显示3D模型,处理器被配置并适于:响应于基于姿势的输入修改牙科用具以提供修改的牙科用具;响应于修改的牙科用具重新定位扫描特征以提供重新定位的扫描特征;响应于修改的牙科用具和重新定位的扫描特征更新3D模型以提供更新的3D模型;以及在3D显示器上显示更新的3D模型。
在另一方面中,本公开提供了用于针对患者个体设计牙科用具的系统,包括:具有存储在其上的3D模型的计算机可读介质,3D模型包括扫描特征和增强现实特征,扫描特征包括患者个体的牙弓以及患者个体的面部和牙弓的与用于将牙弓与面部关联的一部分,增强现实特征包括针对患者个体的牙科用具;用于显示3D模型的3D显示器;用于检测对3D模型的基于神经活动的输入的脑机接口;处理器,可操作地与计算机可读介质连接用于处理3D模型,可操作地与脑机接口连接用于接收基于神经活动的输入,并且可操作地与3D显示器连接用于显示3D模型,处理器被配置并适于:响应于基于姿势的输入修改牙科用具以提供修改的牙科用具;响应于修改的牙科用具重新定位扫描特征以提供重新定位的扫描特征;响应于修改的牙科用具和重新定位的扫描特征更新3D模型以提供更新的3D模型;以及在3D显示器上显示更新的3D模型。
在另一方面中,本公开提供了一种具有在其上编码的指令的计算机可读介质,用于:渲染包括扫描特征和增强现实特征的3D模型,扫描特征包括患者个体的牙弓以及患者个体的面部和牙弓的与用于将牙弓与面部关联的一部分,增强现实特征包括针对患者个体的牙科用具;检测来自传感器的输入;响应于输入修改牙科用具以提供修改的牙科用具;响应于修改的牙科用具重新定位扫描特征以提供重新定位的扫描特征;响应于修改的牙科用具和重新定位的扫描特征更新3D模型以提供更新的3D模型;以及在3D显示器上显示更新的3D模型。
在实施例中,输入包括主动输入。
在实施例中,主动输入包括基于姿势的输入。
在实施例中,基于姿势的输入包括抓住3D显示器上的3D模型的一特征并操纵该特征。
在实施例中,抓住特征包括用手抓住特征。
在实施例中,特征包括牙科用具的牙列。
在实施例中,操纵特征包括改变牙列的角度。
在实施例中,基于姿势的输入源自第一个体。
在实施例中,基于姿势的输入源自第一个体和第二个体。
在实施例中,传感器包括动作传感器。
在实施例中,主动输入包括神经活动输入,并且传感器包括脑机接口。
在实施例中,神经活动输入包括修改的牙科用具的概念化。
在实施例中,神经活动输入包括修改牙科用具的概念化。
在实施例中,修改牙科用具的概念化包括:概念化用手抓住显示器上的3D模型的一特征并操纵该特征。
在实施例中,特征包括牙科用具的牙列。
在实施例中,操纵特征包括改变牙列的角度。
在实施例中,主动输入包括基于姿势的输入,并且传感器包括动作传感器。
在实施例中,神经活动输入包括来自第一个体的神经活动输入。
在实施例中,神经活动输入包括来自第一个体和第二个体的神经活动输入。
在实施例中,输入包括将扫描特征的至少一部分约束到目标位,并且修改的牙科用具包括有助于目标位的修改的特征。
在实施例中,目标位包括选定的上下颌关系。
在实施例中,选定的上下颌关系是处于休息位,并且牙列在休息位提供在1mm和4mm之间的息止间隙。
在实施例中,选定的上下颌关系是处于选定的牙合位,并且牙列在选定的上下颌关系下提供牙合。
在实施例中,修改的特征包括牙科用具的牙列。
在实施例中,在其上编码的指令包括:用传感器检测非主动输入;响应于非主动输入修改牙科用具以提供修改的牙科用具;响应于修改的牙科用具重新定位扫描特征以提供重新定位的扫描特征;响应于修改的牙科用具和重新定位的扫描特征更新3D模型以提供更新的3D模型;以及在3D显示器上显示更新的3D模型。
在实施例中,非主动输入包括来自第一个体的非主动输入。
在实施例中,非主动输入包括来自第一个体和第二个体的非主动输入。
在实施例中,非主动输入包括神经活动输入,并且传感器包括脑机接口。
在实施例中,非主动输入包括面部表情的改变,并且传感器包括光学传感器。
在实施例中,在其上编码的指令包括:用传感器检测来自第一个体的非主动输入;使非主动输入与偏好标准和修改的牙科用具相关联,以确定第一个体的偏好;修改修改的牙科用具以提供与第一个体的偏好相关联的建议的牙科用具;响应于建议的牙科用具重新定位扫描特征以提供建议的扫描特征;响应于建议的牙科用具和建议的扫描特征更新3D模型以提供建议的3D模型;以及在3D显示器上显示建议的3D模型。
在实施例中,偏好标准包括第一个体的情绪状态。
在实施例中,偏好标准包括个体的主动输入。
在实施例中,非主动输入包括来自第二个体的非主动输入,并且偏好标准包括第二个体的情绪状态。
在实施例中,非主动输入包括神经活动输入,并且传感器包括脑机接口。
在实施例中,非主动输入包括面部表情的改变,并且传感器包括光学传感器。
在实施例中,非主动输入响应于更新的3D模型。
在实施例中,3D模型包括保存位,保存位具有面部的选定的扫描特征。
在实施例中,在其上编码的指令包括:重新定位扫描特征到保存位;响应于保存位和重新定位的扫描特征更新3D模型以提供保存位的3D模型;以及在3D显示器上显示保存位的3D模型。
在实施例中,扫描特征包括用于在3D模型中在面部上的附加细节的面部的外部特征数据。
在实施例中,面部的外部特征数据包括用于使整个面部基本上包含在3D模型中的数据。
在实施例中,在其上编码的指令进一步包括用扫描仪采集扫描特征的数据
在实施例中,采集扫描特征的数据包括对扫描特征进行光学扫描。
在实施例中,采集扫描特征的数据包括对扫描特征进行超声扫描。
在实施例中,采集扫描特征的数据包括:响应于输入采集扫描特征的附加数据并更新3D模型以包括附加数据。
在实施例中,采集附加数据并更新3D模型以包括附加数据是各自持续不断地并基本上实时地被执行。
在实施例中,个体采用面部表情引起更新3D模型以包括附加数据,并且其中附加数据包括个体采用面部表情的外部特征数据。
在实施例中,输入包括神经活动输入,并且传感器包括脑机接口。
在实施例中,采集扫描特征的数据包括:确定患者个体处于与个体的休息位对应的上下颌关系并且采集当上下颌关系处于休息位时的面部数据。
在实施例中,确定患者个体处于与休息位对应的上下颌关系包括:测量个体的颚肌活动以确定上下颌关系具有最小能量使用。
在实施例中,测量颚肌活动包括:将肌电图施加到个体。
在实施例中,确定患者个体处于与休息位对应的上下颌关系包括:使个体的颚肌力竭。
在实施例中,使个体的颚肌力竭包括:将经皮电神经刺激施加到颚肌。
在实施例中,用于渲染3D模型的数据包括当上下颌关系处于休息位时面部的数据。
通过查阅下面结合附图的具体实施例的描述,本公开的其它方面和特点对于本领域技术人员将变得明显。
附图说明
现在将仅通过示例方式,参照附图描述本公开的实施例,附图中,被分配具有共同的最后两个数字的附图标记的特征对应于多幅图的相应的特征(例如,处理器12、112、212、312、412、512、612、712、812、912、1012、1112、1212、1312等)。
图1是用于显示和操纵缺齿个体的3D模型的系统的示意图;
图2是用于显示和操纵图1的3D模型的方法的流程图;
图3是图1的个体在查看图1的3D模型;
图4是上下颌关系的操纵之后图1的3D模型;
图5是所提出的牙科用具的操纵之后图1的3D模型;
图6是个体在操纵图1的3D模型;
图7是个体在操纵3D模型;
图8是个体在操纵3D模型;
图9是个体在放大3D模型;
图10是个体在缩小3D模型;
图11是个体在旋转3D模型;
图12是个体在增大3D模型中一颗牙齿的大小;
图13是个体在减小3D模型中一颗牙齿的大小;
图14是个体在增大3D模型中一颗牙齿的大小;
图15是个体在减小3D模型中一颗牙齿的大小;
图16是用于显示和操纵缺齿个体的3D模型的系统的示意图;
图17是用于显示和操纵缺齿个体的3D模型的系统的示意图;
图18是用于显示和操纵部分有齿的个体的3D模型的系统的示意图;
图19是用于显示和操纵缺齿个体的3D模型的系统的示意图;
图20是图16的个体在查看图16的3D模型;
图21是个体在操纵3D模型;
图22是个体在操纵3D模型;
图23是个体在放大3D模型;
图24是个体在缩小3D模型;
图25是个体在旋转3D模型;
图26是个体在增大3D模型中一颗牙齿的大小;
图27是个体在减小3D模型中一颗牙齿的大小;
图28是用于显示和操纵缺齿个体的3D模型的系统的示意图;
图29是用于显示和操纵图28的3D模型的方法的流程图;
图30是用于显示和操纵缺齿个体的3D模型的系统的示意图;
图31是用于显示和操纵缺齿个体的两个3D模型的系统的示意图;
图32是用于显示和操纵缺齿个体的3D模型的系统的示意图;
图33是用于采集用以制备缺齿个体的3D模型的数据并显示和操纵3D模型的系统的示意图。
图34是用于采集数据的方法的流程图,该数据用于显示和操纵图33的3D模型;
图35是系统的示意图,该系统用于采集用以制备缺齿个体的3D模型的数据,显示和操纵3D模型,并更新3D模型;
图36是更新外部特征数据之后图35的系统;
图37是用于显示、操纵和更新图35的3D模型的方法的流程图;
图38是系统的示意图,该系统用于采集用以制备缺齿个体的3D模型的数据,显示和操纵3D模型,并更新3D模型;
图39是用于显示和操纵缺齿个体的3D模型的系统的示意图;以及
图40是系统的示意图,该系统用于采集用以制备缺齿个体的3D模型的数据,显示和操纵3D模型,并更新3D模型。
具体实施方式
总体上,本公开提供了一种在用具或修复体的设计期间,用于观察牙科用具或修复体的牙列的改变的美学效果的方法及系统。
在牙科领域中当前的实践是专业人员评估个体的牙齿状况,并根据需要进行建议的治疗。在美容牙科中,牙科专业人员会提出个体需要用具的治疗。用具的设计主要是牙科专业人员和牙科实验室的职责,最小化来自个体的输入。昂贵的试戴或实物模型可通过耗时的程序由可塑造材料制成。由于这个原因,如果所提出的试戴或实物模型不令人满意,很少在选定一个实物模型之前制作好几个模型。个体可能想要替代方案,但是由于他们不是牙科实验室技术人员,他们不能完全传达他们的期望,而且“医生最清楚”的心态通常导致个体妥协的结果,不能完全实现他们的初始期望。由于设计牙科修复体的必要教育是重要的,允许个体设计他们自己的修复体不是可行的替代方案。
在目前建模软件上设计牙科修复体的技术人员在变得熟练之前通常需要数天培训,以正确使用和理解设计软件。针对需要牙科用具的外行个体进行关于这样的牙科设计软件的培训是不切实际的。因此,允许一般人能够立刻与牙科设计软件交互并且从所提出的用具中的改变直观地观察美学效果的系统将是可取的。
正在进行的牙科用具的设计所针对的个体通常对他们佩戴该用具所产生的外观进行输入感兴趣。当制备用具时,通常通过模制和铸造制备初步的模型,其是耗时、昂贵且不精确的。预测特定改变对个体展露的笑容的影响并且有效的传达该预测是有挑战性的。其结果是,按照所产生的外观提供有意义的输入给个体是有挑战性的。考虑到对他们的牙列的个体外观的影响,关于所产生的外观的满意度对积极治疗结果是至关重要的。
在试戴或最终假体的昂贵的制造之前允许个体观察并且评价所提出的用具的方法将比目前可视化治疗的方法有利。目前很多系统依靠软件将2D图像覆盖在3D模型上。这种软件往往是专业化的,对大多数外行使用和理解有困难,并且不定向到外行个体实时使用。在这种软件中牙列的操纵是通过旋转、倾斜和其他方式改变个体牙齿或牙齿组的位置和角度来完成的,以改变用具的特征而不影响所产生的咬合。另外,牙列可被其他预建模的牙列替换掉。本公开提供了包括集成有3D建模、牙科设计软件、3D显示器和传感器的实时增强现实(“AR”)的方法及系统。传感器可包括:用于接收基于姿势(例如追踪手势、追踪眼动等)的输入的动作传感器或动作捕捉装置(例如,光学动作传感器,诸如SMI眼睛追踪眼镜2无线系统的眼睛追踪传感器,诸如虚拟数据手套(CyberGlove)系统的基于手的动作捕捉装置,等),其他光学传感器,用于接收基于神经活动的输入的脑机接口(“BCI”),用于测量脉搏、体温、汗水或多种测试组合的用作测谎仪的传感器,或任何其他合适的传感器。基于手的传感器还可提供触觉反馈来模拟有形的3D模型的处理。
在本文中所描述的方法和系统中使用个体头部的一部分的3D模型。3D模型包括使牙弓和头部关联的个体牙弓和个体头部的经验数据(例如,来自3D口内光学扫描仪的用于牙弓的数据和来自3D口外光学扫描仪同时用于牙弓和头部的数据)。3D模型在三维空间中被显示(例如,通过借助Oculus Rift虚拟现实耳机、谷歌眼镜设备、全息投影等的可视化)。除了基于经验数据的部分之外,3D模型包括增强现实牙科用具。个体头部和增强现实牙科用具两者都可通过个体的手或其他姿势的使用,或通过BCI由个体操纵。动作传感器检测个体的手的动作或其他姿势以接收输入,或BCI接收输入。3D模型基于输入被操纵。在3D模型上示出的用具的特征(例如,牙齿、在义齿中牙龈的形态和其他特征等)可被抓住并操纵,或个体可在BCI的情况下想象这样做。另外,公知的手势可被用于或想象用于旋转、缩放和其他常用功能。结合眼球跟踪和BCI可允许实时同步来自两个具有公共时间戳的系统的数据,以使关注模式与情绪状态相关联。
个体或系统的另一用户(例如,保健医生或协助个体的受信任的外行)可在3D模型上对增强现实牙科用具实时进行修改。个体然后可从任意角度并以不同的缩放角度查看模型,以观察在用具中的牙齿的具体大小、形状和取向的美学结果。通过增强现实牙科用具和3D模型的操纵和修改更加广泛,个体可为用具的具体设计的改变的美学结果提供有意义的输入。这些操纵可通过直观地手势或其他姿势被完成。姿势可以是真实的姿势(在动作传感器或BCI的情况下),或是想象的姿势(在BCI的情况下)。使用BCI,想象的手部动作可以是给定用以操纵3D模型的解密的心理命令。例如,模型的AR特征和要素可推、拉、旋转、放大、缩小等以迎合个体的品味。此外,像颜色和明暗度这样的要素同样可使用心理的命令被更改。个体对3D模型的无意识反应(例如,情绪反应等)可被解释,并且该模型响应于个体的无意识反应而自动更新。无意识反应可由测量光学改变、神经活动(BCI)、脉搏、体温、汗水、多种测试的组合的用作测谎仪的传感器,或情绪状态的任何其他合适的指示器来测量。
与所提出的用具设计交互与用个体的手伸出去移动模型的牙齿或其他特征,或当使用BCI时想象伸出并移动特征或想象改变的结果一样简单。其结果是,对个体而言仅基本指令是必需的。设计软件包括关于对牙列可允许修改的预置功能限制,以确保所产生的用具具有相等牙间交错的合适的咬合,并且允许适当的生理休息位。所产生的用具将是功能性的,但是美学将被掌握在个体的手中,受到施加的约束,以确保所产生的牙科用具在静止状态时在上下牙列之间提供合适的间隙,在牙合时提供合适的上下颌关系,并且另外被功能性地优化。对所提出的用具的改变的美学结果可被实时验证,从而个体能够找到他们满意的设计。可替代地,个体可认识到他们的理想设计位于功能限制之外,因此是不可实现的。然后个体可操纵3D模型以在美学和功能之间准备合适的折中方案。模型和显示器的3D性质(包括能够从任意角度查看并具有不同的不透明度)给个体提供他们在三维空间中佩戴所提出的用具看起来如何的理解。
3D模型还可被更新以反映不同的面部表情。从先前存在的牙齿的旧照片中获得的笑容可被输入到系统中以还原个体的自然笑容。名人的笑容也可被输入以影响设计选项。个体可表达他们期望的设计结果而不必害怕来自牙科专业人员的评价和批评。同样地,第二个体可参与并提出对用具的改变。预置笑容或其他约束可被设置为美学目标和建模的牙科用具,以在维持与咬合有关的功能约束的同时达到或接近目标。附加数据可在操纵3D模型的同时被采集以提供处于给定的位置时的经验数据,诸如用当前义齿处于牙合位时的经验数据、笑容的经验数据、或个体处于生理休息位(“休息位”)时的经验数据。
根据当个体的上下颌关系是处于休息位时采集的经验数据准备的3D模型提供了处于休息位时个体的上下颌关系的精确表示(与采集处于不同位置时的数据相比并外推到休息位)。个体的真实的休息位确定3D模型的休息位。从而3D模型的休息位起因于口颌系统内的所有实体的相互关系,包括影响休息位的关节、肌肉、神经、牙龈、种植体(如果有)和牙齿(如果有)。缺少个体处于休息位时的任何数据而制备的3D模型不太可能可靠地区分休息位与习惯位置或其他位置。
休息位是沿着下颌闭合的等张路径下颌骨在空间上相对于上颌骨(在直立姿势位中相对于头部来说垂直的、前后的和侧面的)的位置。在休息位,颌肌肉组织(包括移动下颌骨的伸肌和降肌)摆出在该位置表现出最小电活动的姿势。颌肌肉组织维持休息位所需的能量开支与沿着下颌骨铰接部的路径的其他位置相比是最小的。在休息位,个体的髁状突处于中立的、不受约束的位置。
个体的休息位可根据个体被确定。休息位不能在模拟下颌运动的机械设备,诸如牙合架上被确定。下颌位或上下颌关系可受包括头部、颈部区域和背部区域的姿势问题的因素影响。个体的颞下颌关节、情绪因素和全身健康因素的内部紊乱也可导致折中的下颌位。在建立休息位之前说明这些因素通常是有利的。在一些情况下,无法说明这些因素导致错误的休息位。例如,在建立休息位之前,会不得不解决或去除因素,休息位可以用于推算咬合记录。在另一示例中,因素会使根据其他位置推算休息位进一步复杂化,从而增加采集处于休息位的个体的数据的优势。
包括处于休息位时的经验数据的3D模型有助于其他潜在有用的上下颌关系的精确确定。例如,3D模型可被应用于缺少足够牙列来建立咬合的个体例如缺齿个体的颌追踪和口外咬合的评价。如果个体有足够的牙列来建立咬合,则该数据可有助于确定自然位,在自然位会出现正中牙合(“CO”;当个体的牙齿处于最大牙尖吻合时出现,并且个体的颌处于“CO位”)。因此该数据有助于最佳神经肌肉的CO位的粗略估计。估计的CO位可被应用于为没有足够牙齿来限定咬合的个体制备义齿。
对于假牙技师或其他牙科专业人员而言在制备用具时建立CO位是很常见的。在个体缺少足够的牙列来建立CO位的情况下,必然需要推算来确定合适的上下颌关系,其中CO应当与用具一起出现。缺齿个体将缺少足够的牙列来建立CO位。一些部分有齿的个体也将缺少足够的牙列来建立CO,例如具有切齿但没有臼齿的个体。
在制备用具时基于休息位建立CO位可有助于改善并最优化包括用具的口颌系统的所得的牙齿功能、稳定性和协调性。基于休息位建立CO位还可有助于以下中的一个或多个:
-使个体的牙合设计最优化成正常牙合设计,其中正常牙合设计将为个体提供合适的功能,或对其中同样会需要个体的CO位的任何颌关系分类或咬合不正做出说明;
-使牙科美学最优化(包括牙齿形状、轮廓、在前面或后面区域两者中的结构和形态);
-当最佳生理下颌位被找到时,由于更协调的肌肉平衡,使面部化妆最优化;以及
-缓解可能的肌与骨骼牙合体征和症状,包括:头痛、耳朵充血感觉、耳鸣、眼后压力、牙齿敏感、颞下颌关节声响、咀嚼肌压痛、颈肩疼痛。
与习惯位置相比,休息位是真实的休息位。习惯位置是沿着髁突转移路径可被先前定位的所采集的上下颌位置。在给定的个体中,休息位和习惯位置会一致或非常接近。然而,由颌肌肉组织维持习惯位置所需的能量不一定是最小值,如处于休息位时。在确定缺齿个体中的CO位时,习惯位置有时被用作起始点。然而,与从休息位开始相比,从习惯位置开始会提供关于规划的牙科治疗的较不理想的结果。
3D模型通过3D技术被显示(例如,谷歌眼镜、头戴式显示器、微软全息眼镜、3D电视或监视器、全息投影等)。用来操纵3D模型的姿势可以是直观的和简单的(例如,用个体的手抓住牙齿和旋转牙齿等)。其结果是,个体能轻易操纵所产生用具的牙列以观察给定的牙列选择的美学效果。在二维显示器上执行类似的操纵将需要更高的熟练程度和抽象化。使用3D显示器使在牙齿的位置上的细微和具体的改变成为对外行个体而言易懂的,尤其是当个体不习惯在二维显示器上三维可视化和操纵(这多见于老年人,其为义齿和其他牙科用具的主要用户)。同样地,在个体与牙科专业人员之间的语言障碍对审核和操纵3D模型而言不是障碍。这可在为贫穷并且难以进入的区域中的个体设计义齿时具有应用,在这些区域多次访问专业人员是不现实的。
操纵的免提性质意味着口腔病害不太可能通过接触平板电脑表面、键盘、鼠标或其他物理接口设备传播。
第二个体可操纵3D模型,并且其中BCI或接收表明情绪状态的数据的输入的其他传感器被使用,个体的、第二个体的或两者的情绪反应可用来预测个体的、第二个体的或两者的偏好。这些偏好可被加权以有助于个体和第二个体都对其具有强烈反应的用具的设计。第二个体可连同个体操纵3D模型,或第二个体可在没有个体的参与或输入的情况下(例如,当个体不能交流或有效地为他们自己选择的情况下等)这么做。
一些先前方法的局限性由基于患者和牙齿的两个集成的2D图像的分析造成。这两个图像不共享共同的特征并且不能被用于3D模型的产生。所产生的合成图像不能从任何其他角度查看。在数码照片拍摄期间光照条件也可能不一致,从而在对患者脸部的表示中牙齿阴影的精确表示不会完全精确。所提出的假体的表示遭受在现有的义齿或修复体与患者的脸部之间参照点的缺失。另外,没有真实的3D模型,设计的功能限制更难以作为约束测试和应用。其结果是,非功能性设计可被建模而没有潜在问题的指示。最后,通过将罩放置到患者的口中用于绿屏,面部和嘴唇支持被改变,变更所产生的待被建模的美观。
先前的绿屏技术,诸如TruRx系统,涉及在个体的牙弓的顶部覆盖所提出的设计的投影。与之相比,在本文中公开的方法和系统中使用的3D模型将牙弓与面部结构联系起来。在给定位置牙弓和牙齿被嘴唇完全遮盖的情况下,3D模型仍然能够精确表示所提出的用具和其对美观的影响。
使用3D模型的好处涉及休息唇线(resting lip line)。处于休息唇线时,嘴唇是放松的并且牙齿的大部分往往全部牙齿是不可见的。通过除了口内特征(例如,通过增强现实提出的牙列)之外还应用口外特征(例如,面部特征等),即使在牙弓和用具不可见时,3D模型也提供牙齿对外部特征的影响的精确描述。
系统
图1是用于显示和操纵患者个体30的3D模型20的系统10。系统10包括处理器12和计算机可读介质14。3D模型20通过由处理器12执行指令来被渲染、操纵、更新和显示。3D模型20基于在计算机可读介质14上保持的数据。处理器12和计算机可读介质14可在相同的设备上或分离的设备上,可位于分离的网络位置或任何其他合适的配置。处理器12和计算机可读介质14的功能可在多个单个的处理器和计算机可读介质之间被分配。
系统10包括3D显示器16,该3D显示器16可操作地与处理器12通信用于显示3D模型20,以便个体30可在3D模型20上放置他们的手以在3D显示器16上操纵3D模型20,例如通过直观的姿势。在图1中,个体10正在用手39操纵3D模型20。系统10可允许个体改变3D模型20的位置或视图,改变3D模型20的选定的特征,或另外使用如在3D显示器16上所示的用于3D模型20的手势来操纵3D模型20。手势可包括用手抓住3D模型20的一部分和采用如当操纵物理模型时将被使用的类似的手势。这种操纵的示例还可包括改变在显示器上示出的3D模型20的视图,诸如,旋转、平移、放大或缩小、改变光照条件等。
3D显示器16被示出为眼镜样式的AR界面(例如,谷歌眼镜、虚拟现实眼镜、微软全息透镜、Meta太空镜片等)。眼镜AR界面允许3D模型20从个体30的视角在真实的物理环境上显示。3D显示器16投射合成环境,允许个体30在三维空间中并且实时更新地看3D模型20。眼镜样式的3D显示器16可与向个体30提供3D模型20在他们的眼前并可用他们的手或其他命令被操纵并且可从多个角度被查看的感觉的任何显示设备互换。
系统10包括动作传感器18。动作传感器18检测个体30的姿势(例如,手、头、脚等的运动)。姿势引起第一输入数据60的输入,其被提供给处理器12。第一输入数据60包括与由动作传感器18检测的个体30的姿势对应的主动行为数据62。动作传感器18监测个体30的姿势的动作、定位、位置和角度,允许个体30操纵在3D显示器16上的3D模型20。动作传感器18可检测基于任何适当的数据(例如,光学的、多普勒雷达、被动红外、层析、它们的组合等)的动作。
除了动作传感器18之外或代替动作传感器18,其他传感器可被包含在系统10中以允许个体30与3D模型20交互并且牙科设计软件除通过姿势外以其他方式(例如,通过使用眼睛运动、声音命令、面部表情等)(未示出)提供能被处理器12解释的主动行为数据62。这种传感器可基于来自个体30的光学数据或其他形式的数据的采集(例如,图39中的光学传感器1296等)。
3D模型20还可响应于除个体30外的人的主动行为数据被操纵(例如,图30的系统610等)。
图2示出了用3D模型工作的方法80。方法80包括显示3D模型82、接收输入84和响应于接收输入84而更新3D模型86。可使用系统10执行方法80。显示3D模型82和更新3D模型86可使用存储在计算机可读介质14中的数据通过由处理器12执行指令在3D显示器16上完成。接收输入84可包括由系统10的动作传感器18检测手势、其他主动输入、非主动输入、或它们的组合。
3D模型的组件
图3示出了个体30查看3D模型20。3D模型20基于扫描特征数据40和增强现实数据50被建模。3D模型20包括患者特征22和所提出的牙科用具24。患者特征22包括建模的牙弓21和建模的外部特征23。不同于图1的3D显示器16(其应用基于眼镜的界面),图3的3D模型20被示出为在没有眼镜的情况下起作用的三维投影仪(例如,全息投影仪、Musion DasHologram有限责任公司的远程呈现(TelePresence)系统、Magic Leap的数字光场(DigitalLightfiled)系统等)。这些类型的显示器或任何其他合适的显示器可被用作3D显示器16。
扫描特征数据40包括牙弓数据42、关系数据44和外部特征数据46。扫描特征数据是经验数据,例如通过用口内光学扫描仪扫描个体30的牙弓32(例如,使用图33的系统910采集等)和用口外光学扫描仪扫描个体30的外部特征34(例如,使用图33的系统910采集等)采集。虽然附加扫描特征数据40可针对给定位置提供附加精度给3D模型20,3D模型20可针对仅基于初始采集的扫描特征数据40的许多位置被操纵。在与3D模型20的会话之间的个体30的外观改变不大的情况下,相同的扫描特征数据40可跨越多个会话被应用。扫描特征数据40可从光学扫描仪、超声扫描仪、其他合适的扫描仪或应用于外部特征34的其他合适的数据采集技术被采集。
牙弓数据42有助于个体30的上颌和下颌牙弓32的建模,提供建模的牙弓21。
外部特征数据46有助于建模个体30的外部特征34的各部分。外部特征数据46的数量越大,建模的外部特征23就越广泛,相应地比缺乏附加外部特征数据的3D模型在外部特征的面部上具有更广阔的美学影响的观察(例如,见在图16中的3D模型120)。采集与牙弓数据42、关系数据44和外部特征数据46相似的数据,以及基于数据类型制备模型在WO2013/071435(其与本申请共享发明人)中进一步被讨论。用于采集数据的特征可被包括在内,诸如分别在图33、图35、图38和图40中所示的口外扫描仪992、1092、1192或1392。
关系数据44包括牙弓32的数据和外部特征34的数据(例如,面部的各部分、颈部的各部分等)。关系数据44有助于建立牙弓32之间的关系和外部特征34与牙弓32之间的关系。牙弓32的相对位置限定上下颌关系。关系数据44允许外部特征34除了基于牙列25被建模之外基于牙弓32的相对位置被建模。针对给定所提出的牙科用具24的牙合时的上下颌关系有助于建模的外部特征23的外观。给定对牙合时的特定上下颌关系的约束,牙列25将对用所提出的牙科用具24牙合时的建模的外部特征23的外观起决定作用。
关系数据44还允许3D模型20的上下颌关系基于外部特征34的位置被建模。约束可被放在建模的外部特征23如何去看。所提出的牙科用具24将被建模以引起建模的外部特征23的选定外观。约束还将应用于所提出的牙科用具24以确保所提出的牙科用具24引起的处于牙合状态时和处于休息状态时的上下颌关系都适于个体30。为最终的外观选定的建模的外部特征23可起因于包含在外部特征数据46中的位置,或基本上类似于包含在外部特征数据46中的位置。在向所提出的牙科用具24提供为个体30正确选择的牙列25和其他特征的过程中,这种位置的经验数据可增加3D模型20的有效性。可以以经验证据限定休息位,例如,如以下和在WO2013/071435(其与本申请共享发明人)中讨论的,外部特征数据46可包括个体30处于休息位时的经验数据。系统1310包括特征以有助于采集处于休息位时的经验外部特征数据46。
关系数据44有助于在3D模型20中上下颌关系的操纵,同时保持在两个建模的牙弓21之间和在建模的牙弓21与建模的外部特征23之间的精确关系。关系是精确的,因为3D模型20符合下述关系,该关系是在牙弓32之间和在牙弓32与外部特征34之间在个体30中的对应关系的反映。
增强现实数据50包括所提出的牙科用具24的表示。所示的所提出的牙科用具24是一对义齿。其他用具也可被建模(例如,单个义齿、假体、修复体等)。所提出的牙科用具24基于增强现实数据50被建模并且覆盖建模的牙弓21。所提出的牙科用具24引起在所提出的牙科用具24上由牙列25促进的处于牙间交错时建模的牙弓21之间的上下颌关系。上下颌关系以及建模的牙弓21和建模的外部特征23的最终的定位通过扫描特征数据被获知,以在3D模型20中表示牙弓32之间的上下颌关系对外部特征34的影响。
所提出的牙科用具24基于适于个体30的限定的上下颌关系(例如,提供适当的牙合和休息位等)和限定根据咬合位置的运动方向的髁角。
当用AR实时建模所提出的牙科用具24时,校验程序可便于3D模型20精确地建模所提出的上下颌关系位置以与观察到的个体30的运动相匹配。在没有戴牙科用具的情况下,个体移动他们的颌(例如,在有规律的咀嚼功能中,等)。当将3D模型20的运动与观察到的个体30的运动相比较时,可将观察到的数据与3D模型20进行比较并且如果发现不一致,则3D模型20可用上下颌牙合位置或髁角作为有用的标记被修正。校验程序可基于外部特征数据46。校验程序还可基于使用例如系统910(图33)、系统1010(图35)、系统1110(图37)、系统1310(图40)等采集的附加的外部特征数据46。
3D模型的操纵
系统10便于由个体30对3D模型20进行直观操纵,个体30可以是外行。操纵可包括改变3D模型20的视角。操纵可包括:改变患者特征22的位置、变更所提出的牙科用具24、改变基础的外部特征数据46或改变基础的增强现实数据50,以便于观察对3D模型20的美感所产生的效果,尤其是关于建模的外部特征23。约束可被应用于牙合时的上下颌关系、处于休息位时的牙列25的间隔、建模的外部特征23的外观、这些特征的组合,或依赖所提出的牙科用具24的设计目标的其他适当的特征。
当将约束应用于处于休息位时的牙列25的间隔时,在1mm和4mm之间的息止间隙可被限定,例如约2mm的息止间隙。息止间隙是处于休息位时所提出的牙科用具的上部和下部上的牙列25之间的间隙。过度或不足的息止间隙每个都扭曲面部外观。过度的息止间隙(“过近”)使下颌和嘴唇突出并且具有“坍塌”或“皱眉”的外观。不足的息止间隙(“过开”)使面部拉长,这会使嘴唇显得薄并且被拉伸,从而脸部具有整体不舒服的面容。这是由于面部肌肉的拉紧,面部肌肉因忙于试图接近合理尺寸而得不到休息。如果个体出现过开或过近的状态,则本方法和系统可被用来确定如何改变上下颌关系以实现期望的外观和适当的休息位和牙合位置。
图4示出了具有不同于3D模型20的上下颌关系的更新的3D模型20a。更新的3D模型20a起因于患者特征22的操纵。不同的上下颌关系可导致建模的外部特征23的重新定位,提供重新定位的建模的外部特征23a(并且同样地,患者特征22被重新定位到重新定位的患者特征22a)。3D模型20的上下颌关系可被操纵作为用于如在3D显示器16上显示的3D模型20并且通过动作传感器18检测的姿势或其他输入的结果。通过关系数据44的应用,建模的牙弓21相对于彼此的位置和相对于建模的外部特征23的位置可在3D模型20中被更新,跟随在上下颌关系中的改变成为更新的3D模型20a。
图5示出了更新的3D模型20b,包括修改的牙科用具24b,起因于所提出的牙科用具24的操纵并且基于修改的增强现实数据50b被建模。修改的牙科用具24b可导致牙合时不同于所提出的牙科用具24的上下颌关系。不同的上下颌关系可导致建模的外部特征23的重新定位,提供重新定位的建模的外部特征23b(并且同样地,患者特征22被重新定位到重新定位的患者特征22b)。另外,修改的牙科用具24b可在牙合时具有与所提出的牙科用具24相同的上下颌关系,但是可导致使建模的外部特征23的位置和外观不同,提供重新定位的建模的外部特征23b。所提出的牙科用具24及其组件的大小、取向、形状、色调和任何其他合适的特征也可被更新以提供修改的牙科用具24b。对牙列25或所提出的牙科用具24的其他特征的结构改变可对患者特征22有影响,因为在休息位、牙合位或其他选定的参考点的上下颌关系改变跟随所提出的牙科用具24的改变。其他特征可包括在所提出的牙科用具24和建模的牙弓21之间的接口或所提出的牙科用具24的确定所提出的牙科用具24将如何位于建模的牙弓21上的其他方面。建模的外部特征23还可被操纵以导致新的上下颌关系,该新的上下颌关系提供或接近建模的外部特征23的选定位置。对所提出的牙科用具24的改变可被约束在由个体30或第二个体(例如,在图30中的第二个体690等)限定的预设范围内。这样的约束通常是提供生理上合适的休息位或牙合位。
图6示出了个体30直接与3D模型20交互。个体30正在做姿势似乎用手39抓住3D显示器上示出的3D模型20。建模的牙弓21之间的上下颌关系、建模的外部特征23和所提出的牙科用具24可各自被操纵,并且对3D模型20的最终效果通过处理器12计算。3D模型20被更新以对在患者特征22、所提出的牙科用具24或两者中的不同做出说明。在个体30的外部特征34上的对应的不同通过在建模的外部特征23和3D模型20的对应部分中的改变被反映。抓住3D模型20的一部分和用直观的姿势操纵3D模型20实时更新3D模型20,便于比较在建模的外部特征23、牙列25或3D模型20的其它方面的美观上的这些改变的效果。
可查看针对模型20的保存位26。例如,保存位26可包括保存的面部表情(例如,微笑、皱眉等)。在保存位26中,建模的牙弓21、建模的外部特征23或两者的上下颌关系被更新以反映保存位26。所提出的牙科用具24的特征和对应的增强现实数据50可根据保存位26被更新,并且在个体30的外部特征34上的任何所产生的不同反映在3D模型20中。保存位26可包括具有牙列25的预设大小和位置的定制笑容,例如,以反映名人笑容或个体30先前具有的笑容。
保存的牙科用具27还可包含在3D模型20中。个体30可在预先安排的保存的牙科用具27之间选择并进行对保存的牙科用具27的定制变更。另外,牙齿明暗度可随着明暗度选择器29改变。新的保存的牙科用具27可在选择保存位26之间或之后被选择,以便于观察在不同的保存位26处的不同的保存的牙科用具27的相对美观。
图2的方法80在3D模型20被操纵时被应用。响应于从动作传感器18接收第一输入数据60,处理器12评估第一输入数据60是否导致对3D模型20、增强现实数据50或外部特征数据46的更新。牙弓数据42和关系数据44将保持不变。
除了如在图6中所示的抓住3D模型20之外,其他手势可被用来操纵模型20。
图7和图8示出了个体30在不用手39接触模型20的情况下操纵模型20。在图8中,仅3D模型20的所提出的牙科用具24部分被示出。以这种方式,牙列25和所提出的牙科用具24的其他方面可通过患者特征22无障碍的被更新。一旦牙列25和所提出的牙科用具24的其他特征的改变完成,患者特征22可被再次引入到3D模型20中同样地显示在3D显示器16上以便于在建模的外部特征23上观察对所提出的牙科用具24的改变的效果。
除了便于所提出的牙科用具24和患者特征22的操纵,系统可便于从多个角度、缩放和视角中的其他改变直观的观察。
图9和图10分别示出了个体30通过将两只手39移动到一起以进行放大并移开手39以进行缩小来操纵模型20。
图11图示了个体30通过旋转手39来旋转3D模型20。
图12和图13图示了个体30分别通过在3D模型20上抓住单个牙齿28和移动手39仿佛伸展或压缩单个牙齿28来放大和收缩单个牙齿28。放大单个牙齿28导致放大的单个牙齿28c以及对应的修改的牙科用具24c和更新的3D模型20c。同样地,收缩单个牙齿28导致减小的单个牙齿28d以及对应的修改的牙科用具24d和更新的3D模型20d。
图14和图15图示了个体30分别通过与图12和图13类似的但不包括抓住3D模型20的手势来放大和收缩单个牙齿28。
个体30可改变所提出的牙科用具24的牙齿的形状、大小、明暗度和位置并作为一个整体实时观察在建模的外部特征23上和在3D模型20上所产生的改变。3D模型20可从任何角度或位置被查看,便于从各个角度观察对3D模型20的改变。3D模型20可用第一面部表情被查看,面部表情更新为更新的面部表情,从而3D模型20的外部特征23相应地更新。例如,更新的面部表情从保存位26中被选择,通过操纵3D模型20的个体特征22被制备,或可基于采集的附加的外部特征数据46(例如,用分别在图33、图35、图38和图40中所示的口外扫描仪992、1092、1192或1392)被制备。在所提出的牙科用具24上的牙列25的位置被限制在预设的参数内,该参数被选择以维持选定的咬合,以便不允许牙列24如此排列以致咬合在功能范围之外。
包含在3D模型中的数据
图16示出了系统110,其中扫描特征数据40缺少外部特征数据46并且3D模型120缺少建模的外部特征23。扫描特征数据140仅包括牙弓数据142和关系数据144。
图17示出了系统210,其中3D模型220包括用于建模个体义齿238的义齿数据248。义齿数据248是个体230的当前义齿238的反映并且可通过扫描个体230的当前义齿238被采集,例如,用如包含在图33的系统910中的口外光学扫描仪992等。增强现实数据252部分基于在义齿数据248。义齿数据248可通知增强现实数据252作为为个体230重新设计义齿的起始点,通过呈现所提出的牙科用具224用于在3D模型220中检验和修改。如果个体有一对以上当前义齿,则一组以上义齿数据248可被采集并且对应数目的组的增强现实数据252将被提供。正如系统10,所提出的牙科用具224可通过3D模型20的操纵而不需要变更基础的增强现实数据252被修改。所提出的牙科用具224的牙合时的上下颌关系可与个体当前义齿238的上下颌关系相同,或从个体的当前义齿238的上下颌关系被修改(例如,提供处于休息位时牙列225之间的合适的间隔,等)。
图18示出了系统310,其中个体330具有部分牙列336。3D模型320包括部分牙列336的表示,其以部分有齿的牙弓数据343被表示。用来制备所提出的牙科用具324的增强现实数据350考虑如在部分有齿的牙弓数据343中所示的部分牙列336的存在。
脑机接口
图19是用于显示和操纵3D模型420的系统410。
图20示出了系统410和用来制备3D模型420的数据440、450。
系统410包括处理器412、计算机可读介质414和3D显示器416。个体430通过使用脑机接口(“BCI”)419与3D模型420交互。BCI 419监测个体430的表明神经活动的大脑的属性以接收神经活动数据466的输入。可被用作BCI 419的BCI系统的当前示例包括由Emotive制造的Insight和EPOC/EPOC+系统和由NeuroSky制造的MindWave系统,两者都是基于脑电图(“EEG”)并监测大脑的电活动。BCI 419可包括任何适当的BCI,其支持由个体430实时使用并且不局限于应用EEG的BCI。功能磁共振成像和磁脑电图也可用在BCI 419中以接收神经活动数据466的输入,该功能磁共振成像监测大脑中的血流量,磁脑电图监测由大脑的电活动产生的磁场。
BCI 419便于基于个体30的行为的对该行为的心理概念化的下游或对3D模型420的改变的3D模型420的响应更新,而不需要动作传感器、音频传感器或其他传感器。另外,诸如瞬目、眨眼和微笑的面部表情导致神经活动,该神经活动可通过BCI 419被接收作为输入并且可被用来更新建模的外部特征423。对建模的外部特征的这些更新可以是对保存位426的,对建模的外部特征423的位置的其他修改,或通过附加的外部特征数据446的采集(例如,如在图35的系统1010、图37的系统1110等中)。实际上由个体420采取的行为将包括行为的概念化,便于系统410的使用,其中个体420不熟悉BCI 419的使用。
神经活动数据466的输入包括主动行为数据462,对应于来自个体430的心理命令,其被提供给处理器412。一旦将个体430校准到特定的BCI 419和处理器412所需的范围,神经活动数据466包括对应于思想的主动行为数据462,对3D模型420的概念化姿势(包括身体上做出的姿势)概念化改变,或与关于3D模型420所采取的行为有关的个体430的其他心理或情绪活动。
主动行为数据462可对应于个体430的姿势的运动、定位、位置和角度,其被个体430心理上概念化(例如,输入可对应于一系列常见并且直观的概念化手势,其允许个体430对3D模型420进行旋转、平移、放大和改变光照条件等)。可被个体430概念化的这些手势和对3D模型420所产生操纵的示例可包括在使用系统10时用来操纵所提出的牙科用具24的手势或在图6至图15中所示的在模型20上的视角,尽管利用系统410,手势将仅仅被个体430概念化或想象。
系统还可结合系统10和系统410的特征被制备,提供具有动作传感器和BCI两者的系统(未示出)。来自动作传感器和来自BCI的输入可被不同地加权。另外,动作传感器输入可被用来校准BCI以便个体使用这样的系统。
图21至图27示出了个体430通过概念化改变的结果操纵模型420,导致主动行为数据462在缺乏真实姿势或概念化姿势的情况下被BCI 419接收。
图21示出了个体430通过概念化对保存位426中的一个的改变,或概念化保存位426中的一个来操纵模型420。
图22示出了个体430通过概念化在所提出的牙科用具424中的牙齿的颜色和明暗度中改变来操纵3D模型420。在图22中,仅模型420的所提出的牙科用具424部分被示出。同样的方法适用于保存的牙科用具427中的一个的选择。3D显示器416可显示针对个体430的保存位426、保存的牙科用具427和明暗度选择器429,以通过主动行为数据462聚焦和改变。可替代地,这些特征可从在3D显示器416上的显示中省略,并且个体只需概念化个体430想要看到在3D模型420上被显示的保存位426、保存的牙科用具427或在明暗度中的改变。
图23到图25分别示出了个体430通过概念化放大、缩小和旋转3D模型420来操纵模型420。
图26和图27图示了个体430分别通过概念化单个牙齿428的选择和在单个牙齿428的大小上的改变来放大和收缩单个牙齿428。
无意识响应数据
图28示出了系统510,其中BCI 519接收对应于个体530的情绪、反应或其他无意识响应的神经活动数据566的输入,提供个体530的无意识响应数据564。参照无意识响应数据564并利用校准,BCI 519便于情绪状态的评价和个体530的反应,这反过来可便于预测关于所提出的牙科用具524的个体530的偏好。
BCI 519便于接收对应于个体530的面部表情的输入,作为主动行为数据562或无意识响应数据564。个体530不需要真正微笑或另外改变面部表情来触发对3D模型520的更新。正如由BCI 519检测的概念化手势输入的神经活动数据566,对应于面部表情的神经活动数据566仅需要被概念化,无论是主动面部表情的主动行为数据562还是无意识面部表情的无意识响应数据564。面部表情起源于大脑中的神经脉冲,其通过运动神经元传输到肌肉神经接点。经充分的刺激,运动神经元释放大量的神经传导物质,该神经传导物质绑定到突触后受体并且触发导致肌肉运动的在肌肉纤维中的响应。BCI 519便于基于情绪或其他因素(例如,请求查看名人笑容、主动或非主动地采纳或概念化给定的面部表情,等)对3D模型520的敏感的并且直观的改变。
外部特征数据546可包括经验光学图像数据,其通过处理器512与来自BCI 519的神经活动数据566相关。3D模型520可以响应于神经活动数据566(例如,露出笑容、皱眉、闭上一只眼,等)被实时更新。例如,3D模型520可被更新以响应于个体530微笑和由微笑产生的神经活动数据566(无论是主动行为数据562还是无意识响应数据564)呈现对应于微笑的保存位526。由于外部特征数据546已经基于外部特征534被采集,面部表情或基于来自BCI519的数据的其他更新将不必对应于个体520目前正在做出的特定笑容。相反,对3D模型520的更新将基于先前采集的对应于相关命令的扫描特征数据540(例如,微笑、皱眉、闭上一只眼,等)。先前采集的扫描特征数据540可被包含在保存位526中。图35的系统1010和图36的系统1110包括在系统使用期间用于添加附加数据到外部特征数据的口外光学扫描仪。
处理器512可被编程以评价和量化对应于所提出的牙科用具524(牙齿形状和大小、排列、明暗度、缺陷等)的不同的假想的牙科设计元素的无意识响应数据564。增强现实数据550可基于无意识响应数据564以特定于个体530的偏好的层级顺序被组织。偏好的顺序可基于偏好标准,诸如,个体530的情绪状态或来自个体530的主动输入(或另一个体;例如,第二个体690、第二个体790、第二个体890等)。基于情绪状态的偏好标准使无意识响应数据564与情绪状态等同起来,以确定所显示的3D模型520是否导致来自个体530的限定的情绪响应。响应可以是二进制的或如下面关于统计模型所描述的更微妙,其可应用于无意识响应数据564。基于来自个体530的主动输入的偏好标准根据指导准则或由系统510的用户主动选择的约束(例如,牙列525不超过给定的宽度或在门牙上的间隔、不可避免的覆咬合、不可避免的反颌,等)测量无意识响应数据564。指导准则可被个体530或被另一人(例如,第二个体690、第二个体790、第二个体890等)应用。
可使无意识响应数据564适应统计模型(例如,序数效用函数可被估计或间隔偏好数据可被应用以提供可被统计开发的成分效用函数的估计,等)。处理器512可使用统计模型推荐具有更大概率被个体530认可的所提出的牙科用具524,通过选择保存的牙科用具527或通过修改所提出的牙科用具524。无意识响应数据564便于个体530对所提出的牙科用具524的不同排列的反应的评价和个体530的偏好的量化。统计模型可以是简单的喜欢/不喜欢模型,或可包括各种类型的不同量级和加权因数的响应(例如,怀旧、幸福、自信、兴奋、冷淡、厌恶,等),正如已经被熟知的(例如,应用于准备有效的广告宣传,等)。
正如系统410,系统还可结合系统10和系统510的特征被制备,提供具有动作传感器和BCI两者的系统,BCI响应于无意识响应数据的输入(未示出)。来自动作传感器和来自BCI的输入可被不同地加权。另外,动作传感器输入可被用来校准BCI以便个体使用这样的系统。同样地,系统可结合系统510和系统1210的特征被制备,向系统提供来自BCI和响应于无意识响应数据的输入的光学或其他传感器两者的两个无意识响应数据的数据流(未示出)。这样的系统将针对使用该系统的特定个体提供用于校准无意识响应数据的检测的交叉检查。
图29示出了与使用主动行为数据输入和无意识响应数据输入两者的3D模型一起工作的方法180(例如,与3D模型520、3D模型620、3D模型1220等)。方法180包括显示3D模型182、接收主动行为数据183的输入、以及响应于接收主动行为数据183的输入而更新3D模型186。方法180还包括接收无意识响应数据185的输入和基于无意识响应数据187如显示地排列当前3D模型。一旦完成基于无意识响应数据187如显示地排列3D模型,方法180应用用于评价对3D模型的改变是否有可能导致更积极的无意识响应188的算法。如果算法表明,比起由接收无意识响应数据185的输入所产生的数据,对3D模型的改变不可能导致更积极的无意识响应,则方法180返回显示3D模型182直到接收主动行为数据183的输入或接收无意识响应数据185的输入发生。
如果算法表明,比起由接收无意识响应数据185的输入所产生的数据,对3D模型的改变有可能导致更积极的无意识响应,则方法响应于接收无意识响应数据185的输入而开始更新3D模型186。在这种情况下,比起由接收无意识响应数据185的输入所产生的数据,更新3D模型186应用的是有可能导致更积极的无意识响应的改变。响应于接收无意识响应数据185的输入更新3D模型186可受到用户对更新3D模型186的认可,或可一确定对3D模型的改变是否有可能导致更积极的无意识响应188就自动发生。方法180可使用处理器512参照在系统510的计算机可读介质514中存储的数据被执行,利用系统610、系统1210或包括传感器以检测无意识响应数据的任何系统的对应特征。
接收非主动输入185的步骤可来自BCI、光学扫描仪、用于检测瞳孔放大、脉搏和其他因素以评价情绪状态的其他传感器、结合这些传感器的测谎仪、或测量个体的情绪状态和偏好的提供非主动输入的任何其他合适的方法。
例如,在方法180的应用中,个体30对其笑容的右侧比左侧可具有更好的反应。个体30的针对任何设计要素的偏好呈现在右侧,但是来自左侧的缺少将会被排列,并且所提出的变更可被推荐给所提出的牙科用具以提供增加积极的情绪反应的机会。这些响应可以是二元响应或更具体地依据与其他选项相比个体30多么喜欢显示的3D模型20,并且设计软件可基于偏好、不能在同一设计中共存的设计要素、约束、和其他因素建议设计要素合并或忽略。
方法180取决于数据的质量(例如,来自BCI、光学情绪检测器、测谎仪等)。适用的算法可基于序数效用函数评价、间隔偏好数据(具有成分效用函数的统计学发展评价)等。BCI的发展将进一步增加这种算法的精确度以提供每个更精确的偏好信息。
由两个个体使用
图30示出了系统610,其中第二个非患者个体690与BCI 619接合。BCI 619接收来自个体630的神经活动数据666、来自第二个体690的第二神经活动数据676,或两者。神经活动数据666可包括主动行为数据662、无意识响应数据664、或两者。第二神经活动数据676可包括第二主动行为数据672、第二无意识响应数据674、或两者。
第二主动行为数据672和第二无意识响应数据674可通过BCI 619被接收并且应用为第二个体690的心理命令、情绪状态、反应或其他神经活动。与之相比,系统510仅接收来自个体530或来自非患者个体(未示出)的主动行为数据562和无意识响应数据564。然而,由第二个体690(例如,配偶、同伴、家人、密友等)同时发生的控制和第二个体690的意见往往同样是有价值的(例如,当个体630是视觉障碍、沉默寡言等)。处理器612可以以各种方式被配置以不同地响应神经活动数据666、第二神经活动数据676或两者。以这种方式方法180可被实行,其中接收主动行为数据183的输入和接收无意识响应数据185的输入每个应用于第一输入数据660、第二输入数据670或两者,并且在第一输入数据660和第二输入数据670之间具有任何合适的加权。
处理器612可被配置以在制备所提出的牙科用具624时响应主动行为数据662和第二主动行为数据672两者,并且加权无意识响应数据664和第二无意识响应数据674两者。该配置将便于由个体630和第二个体690两者进行的控制以及响应于个体630和第二个体690两者的反应而对所提出的牙科用具624进行排序。无意识响应数据664和第二无意识响应数据674可被不同地加权。
处理器612可被配置以在制备所提出的牙科用具624时响应主动行为数据662和第二主动行为数据672两者,但是仅加权无意识响应数据664或第二无意识响应数据674。该配置将便于由个体630和第二个体690控制,但提供建议并仅测量个体630和第二个体690中的一个的无意识响应。
处理器612可被配置以仅响应主动行为数据662和第二主动行为数据672中的一个,但加权无意识响应数据664和第二无意识响应数据674两者。该配置将便于仅由个体630和第二个体690中的一个控制,但是在制备所提出的牙科用具624时将对个体630和第二个体690两者的无意识响应做出说明。无意识响应数据664和第二无意识响应数据674可被不同地加权。
处理器612可被配置以仅响应第二主动行为数据672,并且仅加权第二无意识响应数据674。该配置将便于由第二个体690控制,并且将导致仅参照第二无意识响应数据674选定的所提出的牙科用具624。
处理器612可被配置以仅响应主动行为数据662,并且仅加权第二无意识响应数据674。该配置将便于仅由个体630控制,并且将导致仅参照第二无意识响应数据674选定的所提出的牙科用具624。
处理器612可被配置以仅响应第二主动行为数据672,并且仅加权无意识响应数据664。该配置将便于仅由第二个体690控制,并且将导致仅参照无意识响应数据664选定的所提出的牙科用具624。
图31是系统710,其中个体730和第二个体790每个提供输入数据给BCI 719。个体730在3D显示器716上查看3D模型720并且通过输入第一输入数据760借助BCI 719操纵3D模型720。个体730的第二3D模型791在第二3D显示器717上针对第二个体790被显示。第二个体790在第二3D显示器717上查看第二3D模型791并且通过输入第二输入数据770借助BCI 719操纵第二3D模型791。关于3D模型720的第一输入数据760和关于第二3D模型791的第二输入数据770的应用每个可如在本申请中其他地方所描述的。个体730可提供主动行为数据762、无意识响应数据764或两者用于操纵3D模型720。类似地并且独立于个体操纵3D模型720,第二个体790可提供主动行为数据772、无意识响应数据774或两者用于操纵第二3D模型791。可替代地,无意识响应数据764可被应用于与涉及第二3D模型791的方法180类似的方法,或第二无意识响应数据774可涉及3D模型720被应用。
图32是系统810,其中个体830和第二个体890每个通过动作传感器818与3D模型820交互。处理器812可包括指令以允许个体830和第二个体890自由地与3D模型820交互,以偏袒个体830和第二个体890中的一个,以允许个体830和第二个体890轮流或任何适当的安排。
系统还可结合系统810和系统610的特征被制备,针对个体和第二个体中的一个或两个提供具有动作传感器和BCI两者的系统(未示出)。这样的系统还可被制备,其中分离的3D模型被显示并且被个体和第二个体操纵,类似于系统710。
扫描特征数据的采集
图33是系统910,其包括与计算机可读介质914通信用于采集扫描特征数据940的扫描仪。口内光学扫描仪993用于采集来自上颌和下颌牙弓932的牙弓数据942。口外光学扫描仪992用于采集来自上颌和下颌牙弓932以及外部特征934的关系数据944。口外光学扫描仪992还用于采集来自外部特征934的外部特征数据946。在系统910中包括扫描仪便于采集扫描特征数据940和在相同的定位使用3D模型920。扫描特征数据940通过任何方法使用有线连接、无线连接、可移动介质传输等从口外光学扫描仪992和口内光学扫描仪993被提供到计算机可读存储914。
外部特征数据946可在具有或不具有在个体930的口中的义齿或其他用具的情况下被采集。在个体930的口中具有近似所提出的牙科用具924的义齿或其他用具的情况下采集外部特征数据946可改善外部特征934的建模,如被所提出的牙科用具924所影响的。附加的外部特征数据946可改善所提出的修复体的建模精确度。现有的义齿或咬合缘可在外部面部数据采集期间被放置在口中,以不同的面部表情,以改善所提出的牙科用具924和合成的建模的外部特征923之间的关系。临时材料(例如,牙蜡等)可被添加到现有的义齿以近似改善的义齿,其更接近预期的所提出的牙科用具924。
图34示出了用于采集数据用于显示和操纵3D模型的方法280。方法280包括采集扫描特征数据281、显示3D模型282、接收输入284和响应于接收输入284更新3D模型286。可使用系统910执行方法280。显示3D模型282和更新3D模型286可使用来自扫描特征数据281采集的数据、通过由处理器912执行指令在3D显示器916上完成,并且该数据被存储在计算机可读介质914中。接收输入284可包括由系统910的动作传感器918检测手势、其他主动输入、非主动输入、或它们的组合。
图35是系统1010,其包括用于更新外部特征数据1046的口外光学扫描仪1092。口外光学扫描仪1092如所示的可以是独立的单元,或可被包含作为在3D显示器1016上的面朝外成像传感器(例如,Leap或Kinect摄像系统和投影全息/覆盖要素等)。当3D模型1020正在被操纵以采集附加的外部特征数据1046以便在3D模型1020中使用时,可使用口外光学扫描仪1092。
图36是采集来自在具有更新的外部特征1034e的姿态中的个体1030的更新的外部特征数据1046e的系统1010,其在外观上与图35的外部特征1034不同,因为个体30正采用不同的面部表情。口外光学扫描仪1092正在扫描更新的外部特征1034e并且将所产生的更新的外部特征数据1046e提供给计算机可读介质1014由处理器1012使用,以渲染具有更新的患者特征1022e的更新的3D模型1020e,更新的患者特征1022e包括更新的建模的外部特征1023e。3D模型1020e是基于更新的建模的外部特征1023e的经验数据,与改变3D模型1020至接近通过更新的外部特征1034e(但没有经验数据)所示的面部表情相比较,其可有助于更新的建模的外部特征1023e的更精确的建模。
在系统1010的使用期间,个体1030可决定如在3D模型1020上所示的给定的面部表情将受益于经验数据,以更准确地反映在给定的面部表情下个体1030的外观。个体可将他们的面部表情改变至更新的外部特征1034e并激活口外光学扫描仪1092以采集更新的外部特征数据1046e,其被存储在计算机可读介质1014中。处理器1012更新3D模型1020以包含更新的外部特征数据1046e,提供更新的3D模型1020e。更新的3D模型1020e可被保存为保存位1026。在采集更新的外部特征数据1046e之前,个体1030可包括在他们的上颌和下颌牙弓1032上的义齿,其中面部表情将受益于牙列(未示出)。
图37示出了用3D模型工作并且更新3D模型的方法380。方法380包括显示3D模型382、接收输入384和响应于接收输入384更新3D模型386。另外,方法380包括接收附加的外部特征数据394并且响应于附加的外部特征数据395而更新3D模型。可使用系统1010执行方法380。显示3D模型382、更新3D模型386和响应于附加的外部特征数据395而更新3D模型可使用存储在计算机可读介质1014中、包括更新的外部特征数据1046e的数据通过由处理器1012执行指令在3D显示器1016上完成。接收输入384可包括由系统1010的动作传感器1018检测的手势、其他主动输入、非主动输入或它们的组合。
系统1010可被用来持续采集更新的外部特征数据1046e,导致3D模型1020的实时更新,以反映个体1030的当前面部表情。系统1010的该应用导致实时实践方法380,并且有效地允许个体1030查看并操纵在相同的面部表情(个体1030当前正在保持并针对所提出的牙科用具1024的存在而调整的)中展示模型1020的实时的增强现实镜像。实时数据的采集和建模可持续地或瞬间应用为被个体1030选定的。
图38是包括口外光学扫描仪1192和BCI 1119的系统1110。BCI 1119可有助于附加的外部特征数据1146的预测采集和3D模型1120的更新,以实时或在给定的情绪或其他状态下包括附加的外部特征数据1146,其他状态影响待被反映在建模的外部特征1123中的外部特征1134,导致给定的面部表情的经验数据,有助于通过3D模型1120的面部表情的更精确的建模。
BCI 1119还可有助于神经活动数据1166和附加的外部特征数据1146的比较。该比较可有助于将神经活动数据1166与可在附加的外部特征数据1146中被确认的情绪状态的精确关联。另外,系统1110的实时更新应用可有助于与未装备BCI的系统比较,诸如系统1010。BCI 1119可在沉思的精确瞬间提供在情绪响应上的反馈。
图39是系统1210,其中无意识响应数据1264被接收,而不应用BCI。无意识响应数据1264可通过光学传感器1296被采集,该光学传感器1296检测与个体1230的情绪状态有关的个体1230的面部表情和其他运动。光学传感器1296可被定向到检测微表情、瞳孔扩张和用于个体1230的情绪状态的其他可靠指示,单独或结合。另外,其他不是光学的扫描仪可接收无意识响应数据1264(未示出;例如,脉冲计、温度计等),并且无意识响应数据1264可通过多种类型的数据(未示出;例如,测谎仪的体温、脉搏和瞳孔扩张等)的组合被接收。与不使用BCI的情况下采集的无意识响应数据1264不同,系统1210功能类似于系统510,包括关于无意识响应数据1264触发保存位1226。
系统还可结合系统510和系统1210的特征被制备,提供具有光学传感器(或其他适当的非BCI传感器;例如,测谎仪的体温、脉搏和瞳孔扩张等)和BCI(未示出)两者的系统。来自BCI和来自其他传感器的输入可不同地被加权。另外,来自其他传感器的输入可被用来校准BCI以便个体使用这样的系统。
相同的硬件可执行动作传感器的功能(例如,动作传感器18、口外光学扫描仪992和光学传感器1296)。通常,与用于采集第一输入数据的扫描仪相比较,用于采集扫描特征数据的扫描仪可更昂贵并且遭受额外的工程瓶颈。然而,单一扫描仪(光学的或另外的)可被应用可用来采集扫描特征数据、主动行为数据和无意识响应数据,而不脱离在本文中所描述的方法和系统。
图40示出了系统1310,其中肌肉活动传感器1397与个体1330接合以测量个体1330的颌肌肉组织的活动。例如,肌肉活动传感器1397可以是肌电图模块。系统1310包括用于采集附加的外部特征数据1346的口外扫描仪1392。当在个体1330的颌肌肉中的肌肉使用处于最低限度时,肌肉活动传感器1397检测并将信号发送到处理器1312,以引导口外扫描仪1392采集附加的外部特征数据1346。这样,外部特征数据1346的采集可在处于休息位时被采集。另外,经皮电神经刺激模块可被应用于个体的颌肌肉组织,以使颌肌肉组织力竭并迫使上下颌关系处于休息位。
3D模型1320可被用来检查咬合信息。对于缺齿个体1330,这将可能在他们的口中什么也没有、仅有上面的咬合缘,或上面和下面的咬合缘或义齿(只要在期望的咬合定位之前口内对象不互相接触)。当个体1330闭合他们的颌时,处理器1312将有助于确定个体1330是否正咬合在适当的咬合位置,其可被用作扫描特征数据1340的进一步的确认。正如WO2013/071435,其与本申请共享发明人,肌电图在各种位置评价面部肌肉活动,或经皮电神经刺激以迫使休息位,各自有助于在休息位中的数据的采集。当将适当的约束限定在个体1330能够在保持生理方面的咬合一致性的同时做出调整的范围内时,该信息可被考虑。
在一些情况下,成像仅包括唯一的上颌数据。不需要咬合信息来仅建模上面的门牙。这不改变数据采集输入,除了前述的涉及下颌弓的牙弓数据的下颌部分和关系数据的该部分之外。
仅示例
在前面的描述中,为了解释的目的,给出了很多细节,来提供对实施例的透彻理解。然而,对本领域技术人员来说很明显的是,并不需要这些特定的细节。在一些实例中,至于本文描述的实施例是实施为软件例程、硬件电路、固件还是其组合,并不提供特定细节。
本公开的实施例可表示为存储在机器可读介质(也称作其中嵌入有计算机可读程序代码的计算机可读介质、处理器可读介质或计算机可使用的介质)中的计算机程序产品。机器可读介质可以是任何适当的有形、非瞬时性介质,包括磁性的、光学的或电的存储介质,包括磁盘、压缩盘只读存储器(CD-ROM)、存储设备(易失或非易失)或类似存储机制。机器可读介质可包含各种指令集、代码序列、配置信息或其它数据,这些数据在被执行时,促使处理器执行根据本公开实施例的方法中的步骤。本领域普通技术人员将认识到,其它对于实施所描述的实施方式来说必要的指令和操纵也可存储在机器可读介质上。存储在机器可读介质上的指令可由处理器或其它适当的处理设备执行,并可与电路接合以执行所描述的任务。
以上描述的实施例意在仅为示例。可由本领域技术人员对特定实施例作出变更、修改和变型,而不偏离仅由所附权利要求限定的范围。
Claims (107)
1.一种设计用于患者个体的牙科用具的方法,包括:
在3D显示器上显示所述患者个体的3D模型,所述3D模型包括:扫描特征和增强现实特征,所述扫描特征包括所述患者个体的牙弓以及所述患者个体的面部和牙弓的用于将所述牙弓与所述面部关联的一部分,所述增强现实特征包括针对所述患者个体的牙科用具;
用传感器检测非主动输入,其中(i)所述非主动输入包括神经活动输入且所述传感器包括脑机接口,或者(ii)所述非主动输入包括面部表情的改变且所述传感器包括光学传感器;
响应于所述非主动输入修改所述牙科用具以提供修改的牙科用具;
响应于所述修改的牙科用具重新定位所述扫描特征以提供重新定位的扫描特征;
响应于所述修改的牙科用具和所述重新定位的扫描特征,更新所述3D模型以提供更新的3D模型;以及
在所述3D显示器上显示所述更新的3D模型。
2.根据权利要求1所述的方法,进一步包括:
用所述传感器检测主动输入;
响应于所述主动输入修改所述牙科用具以提供所述修改的牙科用具;
响应于所述修改的牙科用具重新定位所述扫描特征以提供所述重新定位的扫描特征;
响应于所述修改的牙科用具和所述重新定位的扫描特征,更新所述3D模型以提供所述更新的3D模型;以及
在所述3D显示器上显示所述更新的3D模型。
3.根据权利要求2所述的方法,其中所述主动输入包括基于姿势的输入。
4.根据权利要求3所述的方法,其中所述基于姿势的输入包括抓住所述3D显示器上的所述3D模型的一特征并操纵所述特征。
5.根据权利要求4所述的方法,其中抓住所述特征包括用手抓住所述特征。
6.根据权利要求4所述的方法,其中所述特征包括所述牙科用具的牙列。
7.根据权利要求6所述的方法,其中操纵所述特征包括改变所述牙列的角度。
8.根据权利要求3所述的方法,其中所述基于姿势的输入源自所述患者个体。
9.根据权利要求3所述的方法,其中所述基于姿势的输入源自非患者个体。
10.根据权利要求3所述的方法,其中所述传感器包括动作传感器。
11.根据权利要求2所述的方法,其中所述主动输入包括神经活动输入,并且所述传感器包括脑机接口。
12.根据权利要求11所述的方法,其中所述神经活动输入包括所述修改的牙科用具的概念化。
13.根据权利要求11所述的方法,其中所述神经活动输入包括修改所述牙科用具的概念化。
14.根据权利要求13所述的方法,其中修改所述牙科用具的概念化包括:概念化用手抓住所述显示器上的所述3D模型的一特征并操纵所述特征。
15.根据权利要求11所述的方法,其中所述特征包括所述牙科用具的牙列。
16.根据权利要求15所述的方法,其中操纵所述特征包括改变所述牙列的角度。
17.根据权利要求11所述的方法,其中所述主动输入包括基于姿势的输入,并且所述传感器包括动作传感器。
18.根据权利要求11所述的方法,其中所述神经活动输入包括来自所述患者个体的神经活动输入。
19.根据权利要求11所述的方法,其中所述神经活动输入包括来自非患者个体的神经活动输入。
20.根据权利要求1所述的方法,其中所述输入包括将所述扫描特征的至少一部分约束到目标位置,并且所述修改的牙科用具包括有助于所述目标位置的修改的特征。
21.根据权利要求20所述的方法,其中所述目标位置包括选定的上下颌关系。
22.根据权利要求21所述的方法,其中所述选定的上下颌关系为休息位,并且所述牙科用具包括牙列,所述牙列在所述休息位提供在1mm和4mm之间的息止间隙。
23.根据权利要求21所述的方法,其中所述选定的上下颌关系是处于选定的牙合位,并且所述牙科用具包括牙列,所述牙列在所述选定的上下颌关系下提供牙合。
24.根据权利要求21所述的方法,其中所述修改的特征包括所述牙科用具的牙列。
25.根据权利要求1所述的方法,其中所述非主动输入包括来自所述患者个体的非主动输入。
26.根据权利要求1所述的方法,其中所述非主动输入包括来自非患者个体的非主动输入。
27.根据权利要求1所述的方法,进一步包括:
使所述非主动输入与偏好标准和所述修改的牙科用具相关联,以确定个体的偏好;
修改所述修改的牙科用具以提供与所述个体的所述偏好相关联的建议的牙科用具;
响应于所述建议的牙科用具重新定位所述扫描特征以提供建议的扫描特征;
响应于所述建议的牙科用具和建议的扫描特征,更新所述3D模型以提供建议的3D模型;以及
在所述3D显示器上显示所述建议的3D模型。
28.根据权利要求27所述的方法,其中所述偏好标准包括所述个体的情绪状态。
29.根据权利要求27所述的方法,其中所述偏好标准包括所述个体的主动输入。
30.根据权利要求27所述的方法,其中所述非主动输入包括来自所述患者个体的非主动输入。
31.根据权利要求27所述的方法,其中所述非主动输入包括来自非患者个体的非主动输入。
32.根据权利要求1所述的方法,其中所述3D模型包括保存位,所述保存位具有所述面部的选定的扫描特征。
33.根据权利要求32所述的方法,进一步包括:
重新定位所述扫描特征到所述保存位;
响应于所述保存位和重新定位的扫描特征更新所述3D模型以提供保存位3D模型;以及
在所述3D显示器上显示所述保存位3D模型。
34.根据权利要求1所述的方法,其中所述扫描特征包括所述3D模型中的所述面部上的附加细节的所述面部的外部特征数据。
35.根据权利要求34所述的方法,其中所述患者个体的面部的所述外部特征数据包括用于使所述患者个体的面部的整个面部包含在所述3D模型中的数据。
36.根据权利要求1所述的方法,进一步包括采集所述扫描特征的数据。
37.根据权利要求36所述的方法,其中采集所述扫描特征的数据包括对所述扫描特征进行光学扫描。
38.根据权利要求36所述的方法,其中采集所述扫描特征的数据包括对所述扫描特征进行超声扫描。
39.根据权利要求36所述的方法,其中采集所述扫描特征的数据包括:响应于所述非主动输入采集所述扫描特征的附加数据并更新所述3D模型以包括所述附加数据。
40.根据权利要求39所述的方法,其中采集附加数据并更新所述3D模型以包括所述附加数据是各自持续不断地并实时地被执行。
41.根据权利要求39所述的方法,其中所述患者个体采用面部表情引起更新所述3D模型以包括所述附加数据,并且其中所述附加数据包括所述患者个体采用所述面部表情的外部特征数据。
42.根据权利要求36所述的方法,其中采集所述扫描特征的数据包括:确定所述患者个体处于与所述患者个体的休息位对应的上下颌关系并且采集当所述上下颌关系处于所述休息位时所述面部的数据。
43.根据权利要求42所述的方法,其中确定所述患者个体处于与所述休息位对应的上下颌关系包括:测量所述患者个体的颚肌活动以确定上下颌关系具有最小能量使用。
44.根据权利要求43所述的方法,其中测量所述颚肌活动包括:将肌电图施加到所述患者个体。
45.根据权利要求42所述的方法,其中确定所述患者个体处于与所述休息位对应的上下颌关系包括:使所述患者个体的颚肌力竭。
46.根据权利要求45所述的方法,其中使所述患者个体的颚肌力竭包括:将经皮电神经刺激施加到所述颚肌。
47.根据权利要求1所述的方法,其中用于显示所述3D模型的数据包括当所述患者个体的上下颌关系是处于休息位时所述面部的数据。
48.根据权利要求1所述的方法,其中所述非主动输入源自至少两个个体。
49.一种用于设计用于患者个体的牙科用具的系统,包括:
用于存储3D模型的计算机可读介质,所述3D模型包括扫描特征和增强现实特征,所述扫描特征包括所述患者个体的牙弓以及所述患者个体的面部和牙弓的用于将所述牙弓与所述面部关联的一部分,所述增强现实特征包括针对所述患者个体的牙科用具;
用于显示所述3D模型的3D显示器;
用于检测非主动输入的传感器,其中(i)所述非主动输入包括神经活动输入且所述传感器包括脑机接口,或者(ii)所述非主动输入包括面部表情的改变且所述传感器包括光学传感器;
处理器,可操作地与所述计算机可读介质连接用于处理所述3D模型,与所述传感器连接用于检测所述非主动输入,并且与所述3D显示器连接用于显示所述3D模型,所述处理器被配置并适于:
响应于所述非主动输入修改所述牙科用具以提供修改的牙科用具;
响应于所述修改的牙科用具重新定位所述扫描特征以提供重新定位的扫描特征;
响应于所述修改的牙科用具和所述重新定位的扫描特征,更新所述3D模型以提供更新的3D模型;以及
在所述3D显示器上显示所述更新的3D模型。
50.根据权利要求49所述的系统,其中所述传感器包括用于检测对所述3D模型的基于姿势的输入的动作传感器。
51.根据权利要求49所述的系统,其中所述传感器包括用于从第一个体进行非主动输入的第一输入点和用于从第二个体进行非主动输入的第二输入点。
52.根据权利要求49所述的系统,其中所述光学传感器检测基于姿势的输入或基于眼睛扩张的输入。
53.根据权利要求49所述的系统,进一步包括与所述计算机可读介质通信用于采集所述扫描特征的数据的扫描仪。
54.根据权利要求53所述的系统,其中所述扫描仪包括用于采集所述牙弓的数据的口内扫描仪。
55.根据权利要求53所述的系统,其中所述扫描仪包括用于采集所述患者个体的所述面部的所述一部分的数据的口外扫描仪。
56.根据权利要求53所述的系统,其中所述扫描仪包括光学扫描仪。
57.根据权利要求53所述的系统,其中所述扫描仪包括超声扫描仪。
58.根据权利要求53所述的系统,进一步包括用于测量所述患者个体的下颌的肌肉活动的肌肉活动传感器。
59.根据权利要求58所述的系统,其中所述肌肉活动传感器包括肌电图模块。
60.根据权利要求58所述的系统,其中:
所述处理器与所述扫描仪可操作地通信,以使所述扫描仪采集用于模型化所述扫描特征的数据;并且
所述肌肉活动传感器与所述处理器进行通信,用于当所述肌肉活动处于选定的值时引导所述扫描仪采集用于模型化所述扫描特征的数据。
61.根据权利要求60所述的系统,其中所述选定的值表明休息位。
62.一种在其上编码有指令的计算机可读介质,所述指令用于:
渲染包括扫描特征和增强现实特征的3D模型,所述扫描特征包括患者个体的牙弓以及所述患者个体的面部和牙弓的用于将所述牙弓与所述面部关联的一部分,并且所述增强现实特征包括针对所述患者个体的牙科用具;
检测来自传感器的非主动输入,其中(i)所述非主动输入包括神经活动输入且所述传感器包括脑机接口,或者(ii)所述非主动输入包括面部表情的改变且所述传感器包括光学传感器;
响应于所述非主动输入修改所述牙科用具以提供修改的牙科用具;
响应于所述修改的牙科用具重新定位所述扫描特征以提供重新定位的扫描特征;
响应于所述修改的牙科用具和所述重新定位的扫描特征,更新所述3D模型以提供更新的3D模型;以及
在3D显示器上显示所述更新的3D模型。
63.根据权利要求62所述的计算机可读介质,在其上编码的所述指令进一步包括:
用所述传感器检测主动输入;
响应于所述主动输入修改所述牙科用具以提供所述修改的牙科用具;
响应于所述修改的牙科用具重新定位所述扫描特征以提供所述重新定位的扫描特征;
响应于所述修改的牙科用具和所述重新定位的扫描特征,更新所述3D模型以提供所述更新的3D模型;以及
在所述3D显示器上显示所述更新的3D模型。
64.根据权利要求63所述的计算机可读介质,其中所述主动输入包括基于姿势的输入。
65.根据权利要求64所述的计算机可读介质,其中所述基于姿势的输入包括抓住所述3D显示器上的所述3D模型的一特征并操纵所述特征。
66.根据权利要求65所述的计算机可读介质,其中抓住所述特征包括用手抓住所述特征。
67.根据权利要求65所述的计算机可读介质,其中所述特征包括所述牙科用具的牙列。
68.根据权利要求67所述的计算机可读介质,其中操纵所述特征包括改变所述牙列的角度。
69.根据权利要求64所述的计算机可读介质,其中所述基于姿势的输入源自第一个体。
70.根据权利要求64所述的计算机可读介质,其中所述基于姿势的输入源自第一个体和第二个体。
71.根据权利要求64所述的计算机可读介质,其中所述传感器包括动作传感器。
72.根据权利要求63所述的计算机可读介质,其中所述主动输入包括神经活动输入,并且所述传感器包括脑机接口。
73.根据权利要求72所述的计算机可读介质,其中所述神经活动输入包括所述修改的牙科用具的概念化。
74.根据权利要求72所述的计算机可读介质,其中所述神经活动输入包括修改所述牙科用具的概念化。
75.根据权利要求74所述的计算机可读介质,其中修改所述牙科用具的概念化包括:概念化用手抓住所述显示器上的所述3D模型的一特征并操纵所述特征。
76.根据权利要求72所述的计算机可读介质,其中所述特征包括所述牙科用具的牙列。
77.根据权利要求76所述的计算机可读介质,其中操纵所述特征包括改变所述牙列的角度。
78.根据权利要求72所述的计算机可读介质,其中所述主动输入包括基于姿势的输入,并且所述传感器包括动作传感器。
79.根据权利要求72所述的计算机可读介质,其中所述神经活动输入包括来自第一个体的神经活动输入。
80.根据权利要求72所述的计算机可读介质,其中所述神经活动输入包括来自第一个体和第二个体的神经活动输入。
81.根据权利要求62所述的计算机可读介质,其中所述输入包括将所述扫描特征的至少一部分约束到目标位置,并且所述修改的牙科用具包括有助于所述目标位置的修改的特征。
82.根据权利要求81所述的计算机可读介质,其中所述目标位置包括选定的上下颌关系。
83.根据权利要求82所述的计算机可读介质,其中所述选定的上下颌关系是处于休息位,并且所述牙科用具包括牙列,所述牙列在所述休息位提供在1mm和4mm之间的息止间隙。
84.根据权利要求82所述的计算机可读介质,其中所述选定的上下颌关系是处于选定的牙合位,并且所述牙科用具包括牙列,所述牙列在所述选定的上下颌关系下提供牙合。
85.根据权利要求82所述的计算机可读介质,其中所述修改的特征包括所述牙科用具的牙列。
86.根据权利要求62所述的计算机可读介质,其中所述非主动输入包括来自第一个体的非主动输入。
87.根据权利要求62所述的计算机可读介质,其中所述非主动输入包括来自第一个体和第二个体的非主动输入。
88.根据权利要求62所述的计算机可读介质,在其上编码的所述指令进一步包括:
使所述非主动输入与偏好标准和所述修改的牙科用具相关联,以确定第一个体的偏好;
修改所述修改的牙科用具以提供与所述第一个体的所述偏好相关联的建议的牙科用具;
响应于所述建议的牙科用具重新定位所述扫描特征以提供建议的扫描特征;
响应于所述建议的牙科用具和建议的扫描特征,更新所述3D模型以提供建议的3D模型;以及
在所述3D显示器上显示所述建议的3D模型。
89.根据权利要求88所述的计算机可读介质,其中所述偏好标准包括所述第一个体的情绪状态。
90.根据权利要求88所述的计算机可读介质,其中所述偏好标准包括个体的主动输入。
91.根据权利要求88所述的计算机可读介质,其中所述非主动输入包括来自第二个体的非主动输入,并且所述偏好标准包括所述第二个体的情绪状态。
92.根据权利要求62所述的计算机可读介质,其中所述3D模型包括保存位,所述保存位具有所述面部的选定的扫描特征。
93.根据权利要求92所述的计算机可读介质,在其上编码的所述指令进一步包括:
重新定位所述扫描特征到所述保存位;
响应于所述保存位和重新定位的扫描特征更新所述3D模型以提供保存位3D模型;以及
在所述3D显示器上显示所述保存位3D模型。
94.根据权利要求62所述的计算机可读介质,其中所述扫描特征包括所述3D模型中的所述面部上的附加细节的所述面部的外部特征数据。
95.根据权利要求94所述的计算机可读介质,其中所述面部的所述外部特征数据包括用于使整个面部包含在所述3D模型中的数据。
96.根据权利要求62所述的计算机可读介质,在其上编码的所述指令进一步包括用扫描仪采集所述扫描特征的数据。
97.根据权利要求96所述的计算机可读介质,其中采集所述扫描特征的数据包括对所述扫描特征进行光学扫描。
98.根据权利要求96所述的计算机可读介质,其中采集所述扫描特征的数据包括对所述扫描特征进行超声扫描。
99.根据权利要求96所述的计算机可读介质,其中采集所述扫描特征的数据包括:响应于所述非主动输入采集所述扫描特征的附加数据并更新所述3D模型以包括所述附加数据。
100.根据权利要求99所述的计算机可读介质,其中采集附加数据并更新所述3D模型以包括所述附加数据是各自持续不断地并实时地被执行的。
101.根据权利要求99所述的计算机可读介质,其中所述患者个体采用面部表情引起更新所述3D模型以包括所述附加数据,并且其中所述附加数据包括所述患者个体采用所述面部表情的外部特征数据。
102.根据权利要求96所述的计算机可读介质,其中采集所述扫描特征的数据包括:确定所述患者个体处于与所述患者个体的休息位对应的上下颌关系并且采集当所述上下颌关系处于所述休息位时所述面部的数据。
103.根据权利要求102所述的计算机可读介质,其中确定所述患者个体处于与所述休息位对应的上下颌关系包括:测量所述患者个体的颚肌活动以确定上下颌关系具有最小能量使用。
104.根据权利要求103所述的计算机可读介质,其中测量所述颚肌活动包括:将肌电图施加到所述患者个体。
105.根据权利要求102所述的计算机可读介质,其中确定所述患者个体处于与所述休息位对应的上下颌关系包括:使所述患者个体的颚肌力竭。
106.根据权利要求105所述的计算机可读介质,其中使所述患者个体的颚肌力竭包括:将经皮电神经刺激施加到所述颚肌。
107.根据权利要求62所述的计算机可读介质,其中用于渲染所述3D模型的数据包括当所述上下颌关系处于所述休息位时所述面部的数据。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461942734P | 2014-02-21 | 2014-02-21 | |
US61/942,734 | 2014-02-21 | ||
US201462075665P | 2014-11-05 | 2014-11-05 | |
US62/075,665 | 2014-11-05 | ||
PCT/CA2015/000101 WO2015123759A1 (en) | 2014-02-21 | 2015-02-20 | Augmented reality dental design method and system |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106255473A CN106255473A (zh) | 2016-12-21 |
CN106255473B true CN106255473B (zh) | 2020-08-07 |
Family
ID=53877465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580009848.3A Active CN106255473B (zh) | 2014-02-21 | 2015-02-20 | 增强现实牙科设计方法及系统 |
Country Status (8)
Country | Link |
---|---|
US (2) | US10166091B2 (zh) |
EP (1) | EP3107484B1 (zh) |
JP (1) | JP6635929B2 (zh) |
KR (1) | KR20160143654A (zh) |
CN (1) | CN106255473B (zh) |
AU (1) | AU2015221370A1 (zh) |
CA (1) | CA2940238C (zh) |
WO (1) | WO2015123759A1 (zh) |
Families Citing this family (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2979226B1 (fr) * | 2011-08-31 | 2014-11-21 | Maxime Jaisson | Procede de conception d'un appareil dentaire |
DE102014215103C5 (de) * | 2014-07-31 | 2022-12-29 | Sirona Dental Systems Gmbh | Verfahren zur virtuellen Nachbearbeitung eines Gingivamodells |
KR20170047251A (ko) * | 2014-08-29 | 2017-05-04 | 케어스트림 헬스 인코포레이티드 | 치아 가상 모형 베이스를 위한 방법 및 장치 |
AU2015342962A1 (en) | 2014-11-06 | 2017-06-29 | Shane MATT | Three dimensional imaging of the motion of teeth and jaws |
US20170020636A1 (en) * | 2015-04-16 | 2017-01-26 | Hadi Akeel | System and method for robotic digital scanning of teeth |
DE102015222782A1 (de) * | 2015-11-18 | 2017-05-18 | Sirona Dental Systems Gmbh | Verfahren zur Visualisierung einer Zahnsituation |
US11284969B2 (en) * | 2016-03-16 | 2022-03-29 | Easyrx, Llc. | System and method for ordering and manufacturing customized dental appliances and the tracking of orthodontic products |
US10210661B2 (en) * | 2016-04-25 | 2019-02-19 | Microsoft Technology Licensing, Llc | Location-based holographic experience |
US20190231493A1 (en) * | 2016-06-20 | 2019-08-01 | Carestream Dental Technology Topco Limited | Dental restoration assessment using virtual model |
US10304190B2 (en) | 2016-06-29 | 2019-05-28 | 3M Innovative Properties Company | Virtual model of articulation from intra-oral scans |
US10507087B2 (en) | 2016-07-27 | 2019-12-17 | Align Technology, Inc. | Methods and apparatuses for forming a three-dimensional volumetric model of a subject's teeth |
CN106406875B (zh) * | 2016-09-09 | 2019-11-15 | 华南理工大学 | 基于自然手势的虚拟数字雕塑方法 |
US10660728B2 (en) * | 2016-10-20 | 2020-05-26 | Baliram Maraj | Systems and methods for dental treatment utilizing mixed reality and deep learning |
DE102016121687A1 (de) * | 2016-11-11 | 2018-05-17 | Ident-Ce Gbr | Intraoralscanner und Verfahren zur digitalen Zahnabformung im zahnmedizinischen Bereich |
US10467815B2 (en) * | 2016-12-16 | 2019-11-05 | Align Technology, Inc. | Augmented reality planning and viewing of dental treatment outcomes |
US10695150B2 (en) * | 2016-12-16 | 2020-06-30 | Align Technology, Inc. | Augmented reality enhancements for intraoral scanning |
FI20166026L (fi) * | 2016-12-23 | 2018-06-24 | Planmeca Oy | Jäljityskappaleet leuan kovakudoksen liikkeiden jäljittämiseksi |
CN108268120B (zh) * | 2016-12-29 | 2020-07-28 | 同方威视技术股份有限公司 | 基于vr或ar的图像数据处理方法、设备和安检系统 |
US11024064B2 (en) * | 2017-02-24 | 2021-06-01 | Masimo Corporation | Augmented reality system for displaying patient data |
CN111010865B (zh) | 2017-02-24 | 2023-07-25 | 梅西莫股份有限公司 | 用于显示医疗监测数据的系统 |
US10973611B2 (en) | 2017-03-20 | 2021-04-13 | Align Technology, Inc. | Generating a virtual depiction of an orthodontic treatment of a patient |
KR102559598B1 (ko) | 2017-05-08 | 2023-07-25 | 마시모 코오퍼레이션 | 동글을 이용하여 의료 시스템을 네트워크 제어기에 페어링하기 위한 시스템 |
IT201700064643A1 (it) * | 2017-06-13 | 2018-12-13 | Andrea Radaelli | Metodo di modifica del design di un prodotto attraverso l'elaborazione di parametri biometrici e successiva realizzazione del prodotto attraverso tecnologie digitali. |
JP7176723B2 (ja) * | 2017-07-13 | 2022-11-22 | 雅興 西村 | 耳抜き補助具及びセット |
KR102006610B1 (ko) * | 2017-07-27 | 2019-08-05 | 키튼플래닛 주식회사 | 증강 현실을 이용한 양치 가이드 정보 제공 방법 및 장치 |
US11723579B2 (en) | 2017-09-19 | 2023-08-15 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement |
US10657726B1 (en) | 2017-10-02 | 2020-05-19 | International Osseointegration Ai Research And Training Center | Mixed reality system and method for determining spatial coordinates of dental instruments |
US11033361B2 (en) | 2017-10-19 | 2021-06-15 | Ormco Corporation | Methods for orthodontic treatment planning with augmented visual analysis |
US10109114B1 (en) * | 2017-11-29 | 2018-10-23 | SmileDirectClub LLC | Technologies for merging three-dimensional models of dental impressions |
US11717686B2 (en) | 2017-12-04 | 2023-08-08 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement to facilitate learning and performance |
US10980613B2 (en) * | 2017-12-29 | 2021-04-20 | Align Technology, Inc. | Augmented reality enhancements for dental practitioners |
EP3731749A4 (en) | 2017-12-31 | 2022-07-27 | Neuroenhancement Lab, LLC | NEURO-ACTIVATION SYSTEM AND METHOD FOR ENHANCING EMOTIONAL RESPONSE |
DE102018100439A1 (de) * | 2018-01-10 | 2019-07-11 | Kulzer Gmbh | Virtuelle 3D-Darstellung des Mundraums |
CN108305689A (zh) * | 2018-01-18 | 2018-07-20 | 成都贝施美医疗科技股份有限公司 | 牙齿修复效果生成方法及装置 |
CN112074870A (zh) * | 2018-01-25 | 2020-12-11 | 脸谱科技有限责任公司 | 重构的手部状态信息的可视化 |
US10813727B2 (en) | 2018-01-26 | 2020-10-27 | Align Technology, Inc. | Diagnostic intraoral tracking |
EP3527163B1 (en) * | 2018-02-20 | 2020-07-08 | Ivoclar Vivadent AG | Computer implemented method for modifying a digital three-dimensional model of a dentition |
EP3629337A1 (en) * | 2018-09-28 | 2020-04-01 | Ivoclar Vivadent AG | Rendering of dental models |
US10803675B2 (en) * | 2018-02-20 | 2020-10-13 | Ivoclar Vivadent Ag | Dental model attributes transfer |
KR102052026B1 (ko) * | 2018-03-16 | 2019-12-05 | 서울여자대학교 산학협력단 | 홀로그램 투영장치 및 그 방법 |
US20190175388A1 (en) | 2018-04-17 | 2019-06-13 | Amy Dianne Urban | Mandible support device for use with a positive airflow pressure device |
US11364361B2 (en) | 2018-04-20 | 2022-06-21 | Neuroenhancement Lab, LLC | System and method for inducing sleep by transplanting mental states |
ES2936080T3 (es) * | 2018-05-22 | 2023-03-14 | Dental Monitoring | Procedimiento de análisis de una situación dental |
EP3572029B1 (fr) * | 2018-05-22 | 2022-09-21 | Dental Monitoring | Dispositif d'analyse d'une situation dentaire |
US11553988B2 (en) | 2018-06-29 | 2023-01-17 | Align Technology, Inc. | Photo of a patient with new simulated smile in an orthodontic treatment review software |
US11357576B2 (en) * | 2018-07-05 | 2022-06-14 | Dentsply Sirona Inc. | Method and system for augmented reality guided surgery |
EP3849410A4 (en) | 2018-09-14 | 2022-11-02 | Neuroenhancement Lab, LLC | SLEEP ENHANCEMENT SYSTEM AND METHOD |
IT201800011117A1 (it) * | 2018-12-14 | 2020-06-14 | Marco Farronato | Sistema e metodo per la visualizzazione di un sito anatomico in realta' aumentata |
EP3689287B1 (en) * | 2019-01-30 | 2022-07-27 | DENTSPLY SIRONA Inc. | System for proposing and visualizing dental treatments |
EP3689218B1 (en) * | 2019-01-30 | 2023-10-18 | DENTSPLY SIRONA Inc. | Method and system for guiding an intra-oral scan |
ES2886876T3 (es) * | 2019-03-08 | 2021-12-21 | Exocad Gmbh | Modelado implementado por ordenador de una pieza de prótesis dental individualizada para el paciente |
US11707344B2 (en) * | 2019-03-29 | 2023-07-25 | Align Technology, Inc. | Segmentation quality assessment |
EP3725231B1 (en) | 2019-04-17 | 2021-07-21 | Sirona Dental Systems GmbH | Apparatus for real-time visualizing a movement of a lower jaw versus an upper jaw in a craniomaxillofacial area of a patient in dental diagnostics |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
CN110269715B (zh) * | 2019-06-20 | 2020-10-30 | 温州医科大学附属口腔医院 | 一种基于ar的根管监测方法及系统 |
CN110705349A (zh) * | 2019-08-26 | 2020-01-17 | 深圳壹账通智能科技有限公司 | 基于微表情的客户满意度识别方法、装置、终端及介质 |
KR102107019B1 (ko) * | 2020-02-24 | 2020-05-28 | 대구보건대학교산학협력단 | 치아조각 실습시스템 및 이를 이용한 치아조각 실습방법 |
CN111759506B (zh) * | 2020-07-23 | 2021-12-07 | 茵伯特(上海)医疗技术有限公司 | 一种种植牙全数字化种植修复方法及系统 |
ES2903244A1 (es) * | 2020-09-30 | 2022-03-31 | Movum Tech S L | Procedimiento para generacion de una cabeza y una dentadura virtuales en cuatro dimensiones |
US20220168075A1 (en) * | 2020-12-01 | 2022-06-02 | Marc Lemchen | Methods for Improving Intraoral Dental Scans |
US20220218438A1 (en) * | 2021-01-14 | 2022-07-14 | Orthosnap Corp. | Creating three-dimensional (3d) animation |
US11361062B1 (en) | 2021-03-02 | 2022-06-14 | Bank Of America Corporation | System and method for leveraging microexpressions of users in multi-factor authentication |
US11468713B2 (en) | 2021-03-02 | 2022-10-11 | Bank Of America Corporation | System and method for leveraging a time-series of microexpressions of users in customizing media presentation based on users# sentiments |
EP4079258A1 (en) * | 2021-04-23 | 2022-10-26 | DENTSPLY SIRONA Inc. | Dental scanning |
KR102685528B1 (ko) * | 2022-01-03 | 2024-07-15 | 연세대학교 산학협력단 | 미소 및 치아 상태 인식을 위한 이미지 분석 방법 및 전자 장치 |
KR102481893B1 (ko) | 2022-02-17 | 2022-12-27 | 대구보건대학교산학협력단 | 증강현실 기반의 치아 형태학 실습 시스템과, 및 이를 이용한 증강현실 기반의 치아 형태학 실습방법 |
CN115120372B (zh) * | 2022-05-25 | 2023-04-14 | 北京大学口腔医学院 | 一种三维修复体形态和位置确定方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102170841A (zh) * | 2008-08-26 | 2011-08-31 | 安迪·博扬久 | 牙科骨植入物、用于植入牙科骨植入物的方法以及用于制造牙科骨植入物的方法和系统 |
CN102933171A (zh) * | 2010-02-25 | 2013-02-13 | 3形状股份有限公司 | 动态虚拟咬合架 |
CN103079494A (zh) * | 2010-06-29 | 2013-05-01 | 3形状股份有限公司 | 2d图像布置 |
CA2855645A1 (en) * | 2011-11-15 | 2013-05-23 | Trispera Dental Inc. | Method and system for acquiring data from an individual for preparing a 3d model |
WO2013120955A1 (en) * | 2012-02-14 | 2013-08-22 | 3Shape A/S | Modeling a digital design of a denture |
Family Cites Families (85)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4235594A (en) | 1979-04-02 | 1980-11-25 | Robert Schwartz | Prefabricated bite block structure |
EP0667753B1 (en) | 1992-11-09 | 2000-01-19 | Ormco Corporation | Custom orthodontic appliance forming method and apparatus |
JP3469268B2 (ja) | 1993-03-16 | 2003-11-25 | 有限会社デンタルシンクタンク | 下顎位計測・表示方法 |
JPH09206319A (ja) * | 1996-02-02 | 1997-08-12 | Technol Res Assoc Of Medical & Welfare Apparatus | 有床義歯設計支援装置 |
IL120867A0 (en) | 1997-05-20 | 1997-09-30 | Cadent Ltd | Computer user interface for orthodontic use |
US6152731A (en) | 1997-09-22 | 2000-11-28 | 3M Innovative Properties Company | Methods for use in dental articulation |
JPH11101935A (ja) * | 1997-09-26 | 1999-04-13 | Canon Inc | 注視状態検出装置及び電子機器の制御装置 |
US7234937B2 (en) | 1999-11-30 | 2007-06-26 | Orametrix, Inc. | Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics |
EP1301140B2 (en) | 2000-04-19 | 2017-07-05 | OraMetrix, Inc. | Bending machine for a medical device |
US6302689B1 (en) | 2001-03-27 | 2001-10-16 | Louis J. Mayo | Disposable impression trays for edentulous dental ridges |
US9421074B2 (en) | 2001-04-13 | 2016-08-23 | Orametrix, Inc. | Unified three dimensional virtual craniofacial and dentition model and uses thereof |
US7717708B2 (en) | 2001-04-13 | 2010-05-18 | Orametrix, Inc. | Method and system for integrated orthodontic treatment planning using unified workstation |
US8021147B2 (en) | 2001-04-13 | 2011-09-20 | Orametrix, Inc. | Method and system for comprehensive evaluation of orthodontic care using unified workstation |
KR20090115884A (ko) * | 2001-10-31 | 2009-11-09 | 이마그노시스 가부시키가이샤 | 의료용 시뮬레이션장치 |
JP2003135488A (ja) | 2001-11-07 | 2003-05-13 | Shiyuukai | 義 歯 |
EP1551430A2 (en) | 2002-10-15 | 2005-07-13 | Allergan, Inc. | Botulinum toxin dental therapies and procedures |
ATE372095T1 (de) | 2003-03-18 | 2007-09-15 | Dentalgeraete Condylator Gerbe | Dentalmedizinische vorrichtung zur registrierung der position der kiefer eines patienten in bezug auf einander mittels registrierplatten |
US7474932B2 (en) | 2003-10-23 | 2009-01-06 | Technest Holdings, Inc. | Dental computer-aided design (CAD) methods and systems |
US20080177197A1 (en) * | 2007-01-22 | 2008-07-24 | Lee Koohyoung | Method and apparatus for quantitatively evaluating mental states based on brain wave signal processing system |
US7322824B2 (en) | 2004-08-17 | 2008-01-29 | Schmitt Stephen M | Design and manufacture of dental implant restorations |
US11428937B2 (en) * | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
KR20070061979A (ko) | 2005-12-12 | 2007-06-15 | 최대균 | 한국인 상악 및 하악 무치악궁에 적합한 예비인상용 트레이및 이의 제작방법 |
US20070183572A1 (en) | 2006-01-13 | 2007-08-09 | Arielle Drummond | Apparatus and method for manufacturing a mandibular advancement device |
US7813591B2 (en) | 2006-01-20 | 2010-10-12 | 3M Innovative Properties Company | Visual feedback of 3D scan parameters |
US20090305185A1 (en) | 2008-05-05 | 2009-12-10 | Lauren Mark D | Method Of Designing Custom Articulator Inserts Using Four-Dimensional Data |
US8487962B2 (en) | 2006-03-06 | 2013-07-16 | D4D Technologies, Llc | Augmented reality system for a dental laboratory |
BRPI0714019A2 (pt) | 2006-07-06 | 2012-12-04 | Smithkline Beecham Corp | sistema e método para a fabricação de dentaduras completas e parciais |
CN100569195C (zh) | 2006-09-15 | 2009-12-16 | 李晓峰 | 可描述牙齿咬合关系的精细个性化头颅模型的制造方法 |
JP5374382B2 (ja) | 2007-01-10 | 2013-12-25 | ノベル バイオケア サーヴィシィズ アーゲー | 歯科用計画および生産のための方法およびシステム |
GB0707454D0 (en) | 2007-04-18 | 2007-05-23 | Materialise Dental Nv | Computer-assisted creation of a custom tooth set-up using facial analysis |
AU2008256518B2 (en) | 2007-05-25 | 2014-02-06 | Nobel Biocare Services Ag | Method and system for dental planning |
EP2171689B1 (en) | 2007-06-29 | 2020-06-03 | Midmark Corporation | Synchronized views of video data and three-dimensional model data |
DE102007030768A1 (de) | 2007-07-02 | 2009-01-08 | Sirona Dental Systems Gmbh | Vermessungseinrichtung und Verfahren zur 3D-Vermessung von Zahnmodellen |
WO2009042888A2 (en) | 2007-09-26 | 2009-04-02 | D4D Technologies, Llc | Method for producing a crown for an implant abutment |
US20120088208A1 (en) | 2007-10-19 | 2012-04-12 | Cagenix Incorporated | Method for Defining a Dental Framework Design Volume |
US10307221B2 (en) | 2007-12-21 | 2019-06-04 | 3M Innovative Properties Company | Orthodontic treatment monitoring based on reduced images |
KR20100138950A (ko) | 2008-02-22 | 2010-12-31 | 글락소스미스클라인 엘엘씨 | 맞춤형 의치 제공 시스템 및 방법 |
US20100323329A1 (en) * | 2008-02-22 | 2010-12-23 | Smithkline Beecham Corporation | Apparatus and Method for Manufacturing Customized Dentures |
WO2009116663A1 (ja) * | 2008-03-21 | 2009-09-24 | Takahashi Atsushi | 三次元デジタル拡大鏡手術支援システム |
US8070489B2 (en) | 2008-03-28 | 2011-12-06 | Global Dental Impression Trays, Inc. | Integrated modular dental measuring apparatus and method for dentures |
US8092215B2 (en) | 2008-05-23 | 2012-01-10 | Align Technology, Inc. | Smile designer |
US8386061B2 (en) | 2008-06-02 | 2013-02-26 | Dentsply International Inc. | Methods for designing a customized dental prosthesis using digital images of a patient |
US8219438B1 (en) * | 2008-06-30 | 2012-07-10 | Videomining Corporation | Method and system for measuring shopper response to products based on behavior and facial expression |
US9408679B2 (en) | 2008-07-03 | 2016-08-09 | Align Technology, Inc. | Method, apparatus and system for use in dental procedures |
JP5233456B2 (ja) | 2008-07-14 | 2013-07-10 | 和田精密歯研株式会社 | 歯冠設計方法および歯冠作製方法 |
KR101666691B1 (ko) * | 2008-11-20 | 2016-10-17 | 얼라인 테크널러지, 인크. | 매개변수를 가지는 부착물을 포함하는 교정 시스템 및 방법 |
JP5495415B2 (ja) | 2008-12-16 | 2014-05-21 | 株式会社吉田製作所 | 下顎前歯部運動追尾システム、下顎前歯部運動追尾装置および顎関節雑音分析装置 |
WO2010105628A2 (en) | 2009-03-20 | 2010-09-23 | 3Shape A/S | System and method for effective planning, visualization, and optimization of dental restorations |
EP3473208B1 (en) | 2010-02-19 | 2020-08-19 | 3Shape A/S | Method of composing and designing a set of teeth |
US8730309B2 (en) * | 2010-02-23 | 2014-05-20 | Microsoft Corporation | Projectors and depth cameras for deviceless augmented reality and interaction |
JP2011177451A (ja) * | 2010-03-03 | 2011-09-15 | Gc Corp | 歯科診断システム及び歯科治療システム |
US9226801B2 (en) | 2010-03-08 | 2016-01-05 | Ibur, Llc | Custom linkable imaging and multifunctional tray |
WO2011118839A1 (ja) * | 2010-03-24 | 2011-09-29 | 株式会社アドバンス | 歯科用補綴物計測加工システム |
DE102010036436A1 (de) | 2010-03-29 | 2011-09-29 | Degudent Gmbh | Verfahren und Anordnung zum Bilden eines Dentalmodells |
US8805048B2 (en) * | 2010-04-01 | 2014-08-12 | Mark Batesole | Method and system for orthodontic diagnosis |
US20110247214A1 (en) | 2010-04-08 | 2011-10-13 | Specialty Appliance Works, Inc. | Methods for forming progressive aligners |
KR101844549B1 (ko) | 2010-07-12 | 2018-04-02 | 쓰리세이프 에이/에스 | 질감 특징을 이용한 객체의 3d 모형제작 |
US9411910B2 (en) * | 2010-07-12 | 2016-08-09 | Centre De Recherche Medico Dentaire Am Inc. | Dental analysis method and system |
US8643569B2 (en) | 2010-07-14 | 2014-02-04 | Zspace, Inc. | Tools for use within a three dimensional scene |
US9569891B2 (en) | 2010-07-16 | 2017-02-14 | Tyoterveyslaitos | Method, an apparatus and an arrangement for visualizing information |
JP5824045B2 (ja) | 2010-07-23 | 2015-11-25 | ノベル バイオケア サーヴィシィズ アーゲー | 歯科補綴物設計での表面処置 |
US8396744B2 (en) * | 2010-08-25 | 2013-03-12 | The Nielsen Company (Us), Llc | Effective virtual reality environments for presentation of marketing materials |
US8594820B2 (en) | 2010-09-17 | 2013-11-26 | Nobel Biocare Services Ag | Prosthesis manipulation in dental prosthesis design |
JP2012089112A (ja) * | 2010-09-22 | 2012-05-10 | Nikon Corp | 画像表示装置 |
US8620045B2 (en) | 2010-10-15 | 2013-12-31 | Bruce William Adams | System , method and article for measuring and reporting craniomandibular biomechanical functions |
US20150037760A1 (en) | 2010-11-03 | 2015-02-05 | Timothy C. Thompson | System and Process for Duplication of Dentures |
US9402698B2 (en) | 2010-11-03 | 2016-08-02 | Global Dental Service LLC | Systems and processes for forming anatomical features in dentures |
US20160008108A1 (en) | 2010-11-03 | 2016-01-14 | Timothy C. Thompson | System and Processes for Optimization for Dentures |
US9213784B2 (en) | 2010-11-03 | 2015-12-15 | Global Dental Science Llc | System and process for optimization of dentures |
WO2012090211A1 (en) | 2010-12-29 | 2012-07-05 | Santiago Jeevan Kumar | Augmented reality computer model facebow system for use in dentistry |
US8860688B2 (en) | 2011-03-02 | 2014-10-14 | Smart Technologies Ulc | 3D interactive input system and method |
US20120276502A1 (en) | 2011-04-29 | 2012-11-01 | Geodigm Corporation | Design and manufacture of dentures |
US20130093829A1 (en) | 2011-09-27 | 2013-04-18 | Allied Minds Devices Llc | Instruct-or |
WO2014015378A1 (en) | 2012-07-24 | 2014-01-30 | Nexel Pty Ltd. | A mobile computing device, application server, computer readable storage medium and system for calculating a vitality indicia, detecting an environmental hazard, vision assistance and detecting disease |
EP3473207B1 (en) | 2012-10-18 | 2022-03-23 | 3Shape A/S | System and method of designing a dental component |
US20140253432A1 (en) | 2013-01-21 | 2014-09-11 | Holly Tina Ferguson | Sensor-monitored, 3d, interactive holographic freespace control unit (hfcu) and associated components |
US20140247260A1 (en) | 2013-03-01 | 2014-09-04 | Indiana University Research & Technology Corporation | Biomechanics Sequential Analyzer |
KR101680995B1 (ko) | 2013-03-15 | 2016-11-29 | 인텔 코포레이션 | 생물 물리학적 신호의 수집된 시간적 및 공간적 패턴에 기초한 뇌-컴퓨터 인터페이스(bci) 시스템 |
CN103226658B (zh) | 2013-04-16 | 2016-05-04 | 江苏物联网研究发展中心 | 牙齿诊断修复辅助系统 |
US9158889B2 (en) | 2013-04-26 | 2015-10-13 | Oral4D Systems Ltd. | Electronic dental charting |
WO2014194066A1 (en) | 2013-05-30 | 2014-12-04 | Charles Anthony Smith | Hud object design and method |
EP3019913A4 (en) | 2013-07-10 | 2017-03-08 | Real View Imaging Ltd. | Three dimensional user interface |
US9955895B2 (en) * | 2013-11-05 | 2018-05-01 | The Research Foundation For The State University Of New York | Wearable head-mounted, glass-style computing devices with EOG acquisition and analysis for human-computer interfaces |
US20150301733A1 (en) * | 2014-04-21 | 2015-10-22 | William Carl Acevedo | Method and apparatus for providing state identification |
US9763757B2 (en) * | 2014-05-19 | 2017-09-19 | National Dentex, Llc | Method for creating a virtual oral-maxillofacial anatomical representation |
-
2015
- 2015-02-20 CA CA2940238A patent/CA2940238C/en active Active
- 2015-02-20 EP EP15751686.5A patent/EP3107484B1/en active Active
- 2015-02-20 JP JP2016553583A patent/JP6635929B2/ja active Active
- 2015-02-20 WO PCT/CA2015/000101 patent/WO2015123759A1/en active Application Filing
- 2015-02-20 CN CN201580009848.3A patent/CN106255473B/zh active Active
- 2015-02-20 KR KR1020167025734A patent/KR20160143654A/ko not_active Application Discontinuation
- 2015-02-20 AU AU2015221370A patent/AU2015221370A1/en not_active Abandoned
- 2015-02-20 US US15/120,348 patent/US10166091B2/en active Active
-
2018
- 2018-11-15 US US16/192,461 patent/US10912634B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102170841A (zh) * | 2008-08-26 | 2011-08-31 | 安迪·博扬久 | 牙科骨植入物、用于植入牙科骨植入物的方法以及用于制造牙科骨植入物的方法和系统 |
CN102933171A (zh) * | 2010-02-25 | 2013-02-13 | 3形状股份有限公司 | 动态虚拟咬合架 |
CN103079494A (zh) * | 2010-06-29 | 2013-05-01 | 3形状股份有限公司 | 2d图像布置 |
CA2855645A1 (en) * | 2011-11-15 | 2013-05-23 | Trispera Dental Inc. | Method and system for acquiring data from an individual for preparing a 3d model |
WO2013120955A1 (en) * | 2012-02-14 | 2013-08-22 | 3Shape A/S | Modeling a digital design of a denture |
Also Published As
Publication number | Publication date |
---|---|
JP2017512087A (ja) | 2017-05-18 |
JP6635929B2 (ja) | 2020-01-29 |
EP3107484A4 (en) | 2017-11-15 |
US10166091B2 (en) | 2019-01-01 |
EP3107484B1 (en) | 2022-03-30 |
CN106255473A (zh) | 2016-12-21 |
KR20160143654A (ko) | 2016-12-14 |
US20170065379A1 (en) | 2017-03-09 |
WO2015123759A1 (en) | 2015-08-27 |
CA2940238C (en) | 2023-01-03 |
US20190083212A1 (en) | 2019-03-21 |
US10912634B2 (en) | 2021-02-09 |
EP3107484A1 (en) | 2016-12-28 |
AU2015221370A1 (en) | 2016-09-15 |
CA2940238A1 (en) | 2015-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106255473B (zh) | 增强现实牙科设计方法及系统 | |
EP3050534B1 (en) | Dental variation tracking and prediction | |
US11759091B2 (en) | Device for visualizing an interior of a patient's mouth | |
JP6869586B2 (ja) | 増強現実を用いた歯磨きガイド情報の提供方法および装置 | |
Baker et al. | Objective assessment of the contribution of dental esthetics and facial attractiveness in men via eye tracking | |
JP5676325B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
TWI728374B (zh) | 牙齒虛擬編輯方法、系統、電腦設備和儲存媒體 | |
WO2016148297A1 (ja) | 歯科診療システム及び口腔内カメラ | |
AU2015342962A1 (en) | Three dimensional imaging of the motion of teeth and jaws | |
US20150302581A1 (en) | Method and device for cosmetic dental analysis | |
CN112469358B (zh) | 用于分析牙齿状况的方法 | |
US11666417B2 (en) | Method for analysing a dental situation | |
JP2021105878A (ja) | 咀嚼支援システム | |
Ganss et al. | Validation of motion tracking as tool for observational toothbrushing studies | |
Sakr et al. | Digitized dentistry: Technology that peaked up the professionality of dental practitioners | |
JP2022170354A (ja) | 推定装置、推定方法、および推定用プログラム | |
Salloum | Three-dimensional outcomes of twin-block appliance treatment and the influence of the postured wax bite | |
van der Geld | Smiling and speaking in a dental perspective. A dental and psychological approach to the smile line, tooth display, and smile attractiveness. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1229678 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |