JP6635929B2 - 拡張現実歯科設計方法およびシステム - Google Patents

拡張現実歯科設計方法およびシステム Download PDF

Info

Publication number
JP6635929B2
JP6635929B2 JP2016553583A JP2016553583A JP6635929B2 JP 6635929 B2 JP6635929 B2 JP 6635929B2 JP 2016553583 A JP2016553583 A JP 2016553583A JP 2016553583 A JP2016553583 A JP 2016553583A JP 6635929 B2 JP6635929 B2 JP 6635929B2
Authority
JP
Japan
Prior art keywords
model
person
data
input
dental
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016553583A
Other languages
English (en)
Other versions
JP2017512087A (ja
JP2017512087A5 (ja
Inventor
ジョージ・カウバーン
スティーヴン・カウバーン
エリン・レノア・デラウ
Original Assignee
トリスペラ デンタル インコーポレイテッド
トリスペラ デンタル インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トリスペラ デンタル インコーポレイテッド, トリスペラ デンタル インコーポレイテッド filed Critical トリスペラ デンタル インコーポレイテッド
Publication of JP2017512087A publication Critical patent/JP2017512087A/ja
Publication of JP2017512087A5 publication Critical patent/JP2017512087A5/ja
Application granted granted Critical
Publication of JP6635929B2 publication Critical patent/JP6635929B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/34Making or working of models, e.g. preliminary castings, trial dentures; Dowel pins [4]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0086Acoustic means or methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Epidemiology (AREA)
  • Human Computer Interaction (AREA)
  • Veterinary Medicine (AREA)
  • Dentistry (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Neurology (AREA)
  • Acoustics & Sound (AREA)
  • Biophysics (AREA)
  • Neurosurgery (AREA)
  • Dermatology (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Processing Or Creating Images (AREA)
  • Dental Prosthetics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

関連出願の相互参照
本出願は、参照により本明細書に組み込まれている、2014年2月21日に出願した米国特許仮出願第61/942,734号、および2014年11月5日に出願した米国特許仮出願第62/075,665号の優先権の利益を主張するものである。
本開示は一般に、歯科器具または歯科修復物の設計に関する。
現在、歯科器具案または歯科修復物は、患者の口内の修復物のレプリカで試みることによって、または患者の2D画像を歯科デザイナーソフトウェアに含めることによって可視化される。例として、義歯設計用のDensply's TruRxソフトウェア(米国特許出願第2010/0076581号もまた参照)、および歯がある人用の3Shapeによる2D画像構成(米国特許出願第2013/0218530号もまた参照)が含まれる。
Densply's TruRx法は、患者のデジタルモデリングのための市販ソリューションである。この方法は、患者の顔に基準印を置き、マウスシールドを適所に配置して患者の歯の少なくとも一部分を覆い、それによって、その後の患者の顔のデジタル写真中に空領域を作り出すことを含む。ソフトウェアは、写真中の基準印サイズを用いて患者の顔の寸法を比較する。空領域はソフトウェアで識別され、義歯を作るための選択された材料および構造が、選択された組合せによって患者がどのように見え得るかという結果が開業医または患者に分かるように、デジタル画像の空領域に重ね合わされる。
米国特許出願第2010/0076581号 米国特許出願第2013/0218530号 WO 2013/071435
本明細書では、3D画像化と、歯科デザイナーソフトウェアと、仮想歯科修復物および選択肢をリアルタイムで任意の角度および視点から表示する3D表示装置とを一体化するシステムが提示される。このシステムは入力を検知して、素人である人が人の頭および口の複合モデルと、拡張現実(「AR」)歯科器具または歯科修復物とに相互に作用することを、身振りおよびジェスチャ、簡単な物理的インターフェースの操作、またはブレインコンピュータインターフェース(「BCI」)(たとえば、脳波計BCI、脳磁図BCIなど)による人の神経活動の測定、のうちの1つまたはそれ以上を含む入力を使用することによって、可能にする。3D表示装置と、直感的な手のジェスチャまたは3DモデルのBCIデータに対する応答性とにより、このシステムを素人である人が使用することが容易になる。その人は、歯の形態、配列、および色などの器具の様々な設計選択肢を選ぶことができる。複合モデルは、設計選択肢に応じて更新されて、歯科器具案の外見が確認および変更されることを可能にする。システムは同様に、歯科修復物案の視像を多くの顔の表現、照明条件などで提供する。BCIデータはまた、人の様々な感情状態または他の非自発的状態における実験的なデータと比較して、その人の好みを評価し、提案された歯科器具を提供することもできる。
義歯または他の歯科器具の設計では主に、生理学的に適切な咬合を提供している。このような咬合は、置換歯の様々な組合せによって人に提供することができる。咬合は、適切な姿勢にとどまりながら、歯の形状とサイズの様々な異なる組合せで成り立ち得る(特に、上下の歯列が両方とも義歯または他の器具に置き換えられる場合に)。義歯の個々の選択は、美的な結果に(たとえば、得られる微笑などに)重大な影響を及ぼし得る。したがって、ある人が、器具に含まれる歯列のサイズ、形状および/または向きに基づいて、義歯または他の歯科器具を美しく見せることに意味のある情報を得られるようにする方法およびシステムを提供することが望ましい。本開示の目的は、義歯を設計するためのこれまでの手法の少なくとも1つの不利点を回避または緩和することである。
第1の態様では、本開示は、人の歯科器具を設計する方法およびシステムを提供する。顔の一部および歯列弓を含む人の容貌の3Dモデルが3D表示装置に表示される。3Dモデルは拡張現実歯科器具を含む。3Dモデルは、動きセンサ、ブレインコンピュータインターフェース、その両方、または他のセンサで検出された入力によって操作することができる。ジェスチャ、神経活動、または他の入力に応じて、3Dモデルの拡張現実歯科器具または他の態様が修正される。3Dモデルは、修正された歯科器具または他の変更に応じて更新され、再配置されて、更新3Dモデルが提供される。更新3Dモデルは3D表示装置に表示される。このシステムおよび方法は、拡張現実歯科器具の修正と、結果として得られる美的効果の観察とをしやすくする。
別の態様では、本開示は、患者の人の3Dモデルを3D表示装置に表示するステップであって、3Dモデルが、患者の人の歯列弓、ならびに患者の人の顔および歯列弓の、歯列弓を顔と関係付けるための部分を含むスキャン容貌と、患者の人の歯科器具を含む拡張現実容貌とを含む、ステップと、センサで入力を検出するステップと、入力に応じて歯科器具を修正して、修正歯科器具を提供するステップと、修正歯科器具に応じてスキャン容貌を再配置して、再配置スキャン容貌を提供するステップと、修正歯科器具および再配置スキャン容貌に応じて3Dモデルを更新して、更新3Dモデルを提供するステップと、更新3Dモデルを3D表示装置に表示するステップとを含む、患者の人の歯科器具を設計する方法を提供する。
一実施形態では、入力が自発的入力を含む。
一実施形態では、自発的入力がジェスチャによる入力を含む。
一実施形態では、ジェスチャによる入力が、3D表示装置上での3Dモデルの容貌をつかむこと、および容貌を操作することを含む。
一実施形態では、容貌をつかむことが、容貌を手でつかむことを含む。
一実施形態では、容貌が歯科器具の歯列を含む。
一実施形態では、容貌を操作することが、歯列のアンギュレーションを変更することを含む。
一実施形態では、ジェスチャによる入力が患者の人に由来する。
一実施形態では、ジェスチャによる入力が患者以外の人に由来する。
一実施形態では、入力が自発的入力を含む。
一実施形態では、自発的入力がジェスチャによる入力を含む。
一実施形態では、センサが動きセンサを含む。
一実施形態では、自発的入力が神経活動入力を含み、センサがブレインコンピュータインターフェースを含む。
一実施形態では、神経活動入力が修正歯科器具の概念化を含む。
一実施形態では、神経活動入力が、歯科器具を修正することの概念化を含む。
一実施形態では、歯科器具を修正することの概念化が、表示装置上での3Dモデルの容貌を手でつかみ容貌を操作することの概念化を含む。
一実施形態では、容貌が歯科器具の歯列を含む。
一実施形態では、容貌を操作することが、歯列のアンギュレーションを変更することを含む。
一実施形態では、自発的入力がジェスチャによる入力を含み、センサが動きセンサを含む。
一実施形態では、自発的入力が神経活動入力を含み、センサがブレインコンピュータインターフェースを含む。
一実施形態では、神経活動入力が患者の人からの神経活動入力を含む。
一実施形態では、神経活動入力が患者以外の人からの神経活動入力を含む。
一実施形態では、入力が、スキャン容貌の少なくとも一部分を目標姿勢に制約することを含み、修正歯科器具が、目標姿勢を助長する修正機能を含む。
一実施形態では、目標姿勢が選択上下顎関係を含む。
一実施形態では、選択上下顎関係が安静位にあり、歯列が安静位において1から4mmの間の安静空隙を得る。
一実施形態では、選択上下顎関係が選択咬合姿勢にあり、歯列が、選択上下顎関係において咬合を得る。
一実施形態では、修正容貌が歯科器具の歯列を含む。
一実施形態では、方法が、センサで非自発的入力を検出するステップと、非自発的入力に応じて歯科器具を修正して、修正歯科器具を提供するステップと、修正歯科器具に応じてスキャン容貌を再配置して、再配置スキャン容貌を提供するステップと、修正歯科器具および再配置スキャン容貌に応じて3Dモデルを更新して、更新3Dモデルを提供するステップと、更新3Dモデルを3D表示装置に表示するステップとをさらに含む。
一実施形態では、非自発的入力が患者の人からの非自発的入力を含む。
一実施形態では、非自発的入力が患者以外の人からの非自発的入力を含む。
一実施形態では、非自発的入力が神経活動入力を含み、センサがブレインコンピュータインターフェースを含む。
一実施形態では、非自発的入力が顔表情の変化を含み、センサが光学センサを含む。
一実施形態では、方法が、センサで非自発的入力を検出するステップと、非自発的入力を好み基準および修正歯科器具と相関させて、人の好みを決定するステップと、修正歯科器具を修正して、人の好みと相関させた提案歯科器具を提供するステップと、提案歯科器具に応じてスキャン容貌を再配置して、提案スキャン容貌を提供するステップと、提案歯科器具および提案スキャン容貌に応じて3Dモデルを更新して、提案3Dモデルを提供するステップと、提案3Dモデルを3D表示装置に表示するステップとを含む。
一実施形態では、好み基準が人の感情状態を含む。
一実施形態では、好み基準が人の自発的入力を含む。
一実施形態では、非自発的入力が患者の人からの非自発的入力を含む。
一実施形態では、非自発的入力が患者以外の人からの非自発的入力を含む。
一実施形態では、非自発的入力が神経活動入力を含み、センサがブレインコンピュータインターフェースを含む。
一実施形態では、非自発的入力が顔表情の変化を含み、センサが光学センサを含む。
一実施形態では、非自発的入力が更新3Dモデルに対応する。
一実施形態では、3Dモデルが保存姿勢を含み、保存姿勢が顔の選択スキャン容貌を有する。
一実施形態では、方法が、スキャン容貌を保存姿勢に再配置するステップと、保存姿勢および再配置スキャン容貌に応じて3Dモデルを更新して、保存姿勢3Dモデルを提供するステップと、保存姿勢3Dモデルを3D表示装置に表示するステップとをさらに含む。
一実施形態では、スキャン容貌が、3Dモデルにおける顔のさらなる細部に関する顔の外的容貌データを含む。
一実施形態では、患者の人の顔の外的容貌データが、患者の人の顔の顔全体を3Dモデルに実質的に含めるためのデータを含む。
一実施形態では、方法が、スキャン容貌のデータを取得するステップをさらに含む。
一実施形態では、スキャン容貌のデータを取得するステップが、スキャン容貌を光学的にスキャンするステップを含む。
一実施形態では、スキャン容貌のデータを取得するステップが、スキャン容貌を超音波でスキャンするステップを含む。
一実施形態では、スキャン容貌のデータを取得するステップが、入力に応じてスキャン容貌の追加データを取得するステップと、追加データを含むように3Dモデルを更新するステップとを含む。
一実施形態では、追加データを取得するステップと、追加データを含むように3Dモデルを更新するステップとがそれぞれ連続して、かつ実質的にリアルタイムで実行される。
一実施形態では、人がある顔表情をすることが、追加データを含むように3Dモデルを更新することになり、追加データが、顔表情をする人の外的容貌データを含む。
一実施形態では、入力が神経活動入力を含み、センサがブレインコンピュータインターフェースを含む。
一実施形態では、スキャン容貌のデータを取得するステップが、患者の人が人の安静位に対応する上下顎関係にあることを確認するステップと、上下顎関係が安静位にあるときに顔のデータを取得するステップとを含む。
一実施形態では、患者の人が安静位に対応する上下顎関係にあることを確認するステップが、人の顎筋肉活動を測定して、エネルギー使用が最小限である上下顎関係を確認するステップを含む。
一実施形態では、顎筋肉活動を測定するステップが、人に筋電図検査を適用するステップを含む。
一実施形態では、患者の人が安静位に対応する上下顎関係にあることを確認するステップが、人の顎筋肉を疲弊させるステップを含む。
一実施形態では、人の顎筋肉を疲弊させるステップが、顎筋肉に経皮的電気神経刺激を加えるステップを含む。
一実施形態では、3Dモデルを表示するためのデータが、上下顎関係が安静位にあるときの顔のデータを含む。
別の態様では、本開示は、3Dモデルを保存するためのコンピュータ可読媒体であって、3Dモデルが、患者の人の歯列弓、および患者の人の顔の部分、および歯列弓を顔と関係付けるための歯列弓を含むスキャン容貌と、患者の人の歯科器具を含む拡張現実容貌とを含む、コンピュータ可読媒体と、3Dモデルを表示する3D表示装置と、入力を検出するセンサと、3Dモデルを処理するためのコンピュータ可読媒体、入力を受け取るセンサ、および3Dモデルを表示する3D表示装置と動作可能に接続されたプロセッサであって、入力に応じて歯科器具を修正して、修正歯科器具を提供するように、修正歯科器具に応じてスキャン容貌を再配置して、再配置スキャン容貌を提供するように、修正歯科器具および再配置スキャン容貌に応じて3Dモデルを更新して、更新3Dモデルを提供するように、かつ更新3Dモデルを3D表示装置に表示するように構成され適合されるプロセッサとを備える、患者の人の歯科器具を設計するシステムを提供する。
一実施形態では、センサが、3Dモデルに対するジェスチャによる入力を検出する動きセンサを含む。
一実施形態では、センサが、3Dモデルに対する神経活動による入力を検出するブレインコンピュータインターフェースを含む。
一実施形態では、センサが、第1の人からの入力に対する第1の入力点と、第2の人からの入力に対する第2の入力点とを含む。
一実施形態では、センサが、ジェスチャによる入力、顔表情による入力、または瞳孔拡張による入力を検出する光学センサを含む。
一実施形態では、システムが、スキャン容貌のデータを取得するためのコンピュータ可読媒体と連絡しているスキャナを含む。
一実施形態では、スキャナが、歯列弓のデータを取得する口腔内スキャナを含む。
一実施形態では、スキャナが、患者の人の顔の一部分のデータを取得する口腔外スキャナを含む。
一実施形態では、スキャナが光学スキャナを含む。
一実施形態では、スキャナが超音波スキャナを含む。
一実施形態では、システムが、人の顎の筋肉活動を測定する筋肉活動センサを含む。
一実施形態では、筋肉活動センサが筋電図検査モジュールを含む。
一実施形態では、プロセッサが、スキャン容貌をモデル化するためのデータをスキャナで取得するために、スキャナと動作可能に通信し、筋肉活動センサが、筋肉活動がある選択値にあるときに、スキャン容貌をモデル化するためのデータを取得するようにスキャナに指示するためにプロセッサと連絡している。
一実施形態では、選択値が安静位を表す。
別の態様では、本開示は、3Dモデルを3D表示装置に表示するステップであって、3Dモデルが、患者の人の歯列弓、および患者の人の顔の部分、および歯列弓を顔と関係付けるための歯列弓を含むスキャン容貌と、患者の人の歯科器具を含む拡張現実容貌とを含む、ステップと、動きセンサで入力を検出するステップと、ジェスチャによる入力に応じて歯科器具を修正して、修正歯科器具を提供するステップと、修正歯科器具に応じてスキャン容貌を再配置するステップと、修正歯科器具および再配置スキャン容貌に応じて3Dモデルを更新して、更新3Dモデルを提供するステップとを含む、患者の人の歯科器具を設計する方法を提供する。
一実施形態では、入力がジェスチャによる入力を含む。
別の態様では、本開示は、3Dモデルを3D表示装置に表示するステップであって、3Dモデルが、患者の人の歯列弓、および患者の人の顔の部分、および歯列弓を顔と関係付けるための歯列弓を含むスキャン容貌と、患者の人の歯科器具を含む拡張現実容貌とを含む、ステップと、光学センサで入力を検出するステップと、ジェスチャによる入力に応じて歯科器具を修正して、修正歯科器具を提供するステップと、修正歯科器具に応じてスキャン容貌を再配置するステップと、修正歯科器具および再配置スキャン容貌に応じて3Dモデルを更新して、更新3Dモデルを提供するステップとを含む、患者の人の歯科器具を設計する方法を提供する。
一実施形態では、入力がジェスチャによる入力を含む。
一実施形態では、入力を検出するステップが眼の動きを追跡するステップを含む。
一実施形態では、入力が顔表情を含む。
別の態様では、本開示は、3Dモデルを3D表示装置に表示するステップであって、3Dモデルが、患者の人の歯列弓、および患者の人の顔の部分、および歯列弓を顔と関係付けるための歯列弓を含むスキャン容貌と、患者の人の歯科器具を含む拡張現実容貌とを含む、ステップと、ブレインコンピュータインターフェースで入力を検出するステップと、神経活動による入力に応じて歯科器具を修正して、修正歯科器具を提供するステップと、修正歯科器具に応じてスキャン容貌を再配置するステップと、修正歯科器具および再配置スキャン容貌に応じて3Dモデルを更新して、更新3Dモデルを提供するステップとを含む、患者の人の歯科器具を設計する方法を提供する。
別の態様では、本開示は、3Dモデルが保存されたコンピュータ可読媒体であって、3Dモデルが、患者の人の歯列弓、および患者の人の顔の部分、および歯列弓を顔と関係付けるための歯列弓を含むスキャン容貌と、患者の人の歯科器具を含む拡張現実容貌とを含む、コンピュータ可読媒体と、3Dモデルを表示する3D表示装置と、3Dモデルで入力を検出する動きセンサと、3Dモデルを処理するためのコンピュータ可読媒体と動作可能に接続され、ジェスチャによる入力を受け取る動きセンサ、および3Dモデルを表示する3D表示装置と動作可能に接続されたプロセッサであって、ジェスチャによる入力に応じて歯科器具を修正して、修正歯科器具を提供するように、修正歯科器具に応じてスキャン容貌を再配置して、再配置スキャン容貌を提供するように、修正歯科器具および再配置スキャン容貌に応じて3Dモデルを更新して、更新3Dモデルを提供するように、かつ更新3Dモデルを3D表示装置に表示するように構成され適合されるプロセッサとを含む、患者の人の歯科器具を設計するシステムを提供する。
別の態様では、本開示は、3Dモデルが保存されたコンピュータ可読媒体であって、3Dモデルが、患者の人の歯列弓、および患者の人の顔の部分、および歯列弓を顔と関係付けるための歯列弓を含むスキャン容貌と、患者の人の歯科器具を含む拡張現実容貌とを含む、コンピュータ可読媒体と、3Dモデルを表示する3D表示装置と、3Dモデルで神経活動による入力を検出するブレインコンピュータインターフェースと、3Dモデルを処理するためのコンピュータ可読媒体と動作可能に接続され、神経活動による入力を受け取るブレインコンピュータインターフェースと動作可能に接続され、3Dモデルを表示する3D表示装置と動作可能に接続されたプロセッサであって、ジェスチャによる入力に応じて歯科器具を修正して、修正歯科器具を提供するように、修正歯科器具に応じてスキャン容貌を再配置して、再配置スキャン容貌を提供するように、修正歯科器具および再配置スキャン容貌に応じて3Dモデルを更新して、更新3Dモデルを提供するように、かつ更新3Dモデルを3D表示装置に表示するように構成され適合されるプロセッサとを含む、患者の人の歯科器具を設計するシステムを提供する。
別の態様では、本開示は、スキャン容貌および拡張現実容貌を備える3Dモデルをレンダリングするための命令であって、3Dモデルが、患者の人の歯列弓、および患者の人の顔の部分、および歯列弓を顔と関係付けるための歯列弓を含むスキャン容貌と、患者の人の歯科器具を含む拡張現実容貌とを含む、命令と、センサから入力を検出するための命令と、入力に応じて歯科器具を修正して、修正歯科器具を提供するための命令と、修正歯科器具に応じてスキャン容貌を再配置して、再配置スキャン容貌を提供するための命令と、修正歯科器具および再配置スキャン容貌に応じて3Dモデルを更新して、更新3Dモデルを提供するための命令と、更新3Dモデルを3D表示装置に表示するための命令とがコード化されている、コンピュータ可読媒体を提供する。
一実施形態では、入力が自発的入力を含む。
一実施形態では、自発的入力がジェスチャによる入力を含む。
一実施形態では、ジェスチャによる入力が、3D表示装置上での3Dモデルの容貌をつかむこと、およびその容貌を操作することを含む。
一実施形態では、容貌をつかむことが、容貌を手でつかむことを含む。
一実施形態では、容貌が歯科器具の歯列を含む。
一実施形態では、容貌を操作することが、歯列のアンギュレーションを変更することを含む。
一実施形態では、ジェスチャによる入力が第1の人に由来する。
一実施形態では、ジェスチャによる入力が第1の人および第2の人に由来する。
一実施形態では、センサが動きセンサを含む。
一実施形態では、自発的入力が神経活動入力を含み、センサがブレインコンピュータインターフェースを含む。
一実施形態では、神経活動入力が修正歯科器具の概念化を含む。
一実施形態では、神経活動入力が、歯科器具を修正することの概念化を含む。
一実施形態では、歯科器具を修正することの概念化が、表示装置上での3Dモデルの容貌を手でつかみ容貌を操作することの概念化を含む。
一実施形態では、容貌が歯科器具の歯列を含む。
一実施形態では、容貌を操作することが、歯列のアンギュレーションを変更することを含む。
一実施形態では、自発的入力がジェスチャによる入力を含み、センサが動きセンサを含む。
一実施形態では、神経活動入力が第1の人からの神経活動入力を含む。
一実施形態では、神経活動入力が第1の人および第2の人からの神経活動入力を含む。
一実施形態では、入力が、スキャン容貌の少なくとも一部分を目標姿勢に制約することを含み、修正歯科器具が、目標姿勢を助長する修正機能を含む。
一実施形態では、目標姿勢が選択上下顎関係を含む。
一実施形態では、選択上下顎関係が安静位にあり、歯列が安静位において1から4mmの間の安静空隙を得る。
一実施形態では、選択上下顎関係が選択咬合姿勢にあり、歯列が、選択上下顎関係において咬合を得る。
一実施形態では、修正容貌が歯科器具の歯列を含む。
一実施形態では、コンピュータ可読媒体にコード化されている命令が、センサで非自発的入力を検出すること、非自発的入力に応じて歯科器具を修正して、修正歯科器具を提供すること、修正歯科器具に応じてスキャン容貌を再配置して、再配置スキャン容貌を提供すること、修正歯科器具および再配置スキャン容貌に応じて3Dモデルを更新して、更新3Dモデルを提供すること、および更新3Dモデルを3D表示装置に表示することを含む。
一実施形態では、非自発的入力が第1の人からの非自発的入力を含む。
一実施形態では、非自発的入力が第1の人および第2の人からの非自発的入力を含む。
一実施形態では、非自発的入力が神経活動入力を含み、センサがブレインコンピュータインターフェースを含む。
一実施形態では、非自発的入力が顔表情の変化を含み、センサが光学センサを含む。
一実施形態では、コンピュータ可読媒体にコード化されている命令が、センサで第1の人からの非自発的入力を検出すること、非自発的入力を好み基準および修正歯科器具と相関させて、第1の人の好みを決定すること、修正歯科器具を修正して、第1の人の好みと相関させた提案歯科器具を提供すること、提案歯科器具に応じてスキャン容貌を再配置して、提案スキャン容貌を提供すること、提案歯科器具および提案スキャン容貌に応じて3Dモデルを更新して、提案3Dモデルを提供すること、および提案3Dモデルを3D表示装置に表示することを含む。
一実施形態では、好み基準が第1の人の感情状態を含む。
一実施形態では、好み基準が人の自発的入力を含む。
一実施形態では、非自発的入力が第2の人からの非自発的入力を含み、好み基準が第2の人の感情状態を含む。
一実施形態では、非自発的入力が神経活動入力を含み、センサがブレインコンピュータインターフェースを含む。
一実施形態では、非自発的入力が顔表情の変化を含み、センサが光学センサを含む。
一実施形態では、非自発的入力が更新3Dモデルに対応する。
一実施形態では、3Dモデルが、顔の選択スキャン容貌を有する保存姿勢を含む。
一実施形態では、コンピュータ可読媒体にコード化されている命令が、スキャン容貌を保存姿勢に再配置すること、保存姿勢および再配置スキャン容貌に応じて3Dモデルを更新して、保存姿勢3Dモデルを提供すること、および保存姿勢3Dモデルを3D表示装置に表示することを含む。
一実施形態では、スキャン容貌が、3Dモデルにおける顔のさらなる細部に関する顔の外的容貌データを含む。
一実施形態では、顔の外的容貌データが、顔全体を3Dモデルに実質的に含めるためのデータを含む。
一実施形態では、そこにコード化されている命令が、スキャン容貌のデータをスキャナで取得することをさらに含む。
一実施形態では、スキャン容貌のデータを取得することが、スキャン容貌を光学的にスキャンすることを含む。
一実施形態では、スキャン容貌のデータを取得することが、スキャン容貌を超音波でスキャンすることを含む。
一実施形態では、スキャン容貌のデータを取得することが、入力に応じてスキャン容貌の追加データを取得すること、および追加データを含むように3Dモデルを更新することを含む。
一実施形態では、追加データを取得すること、および追加データを含むように3Dモデルを更新することがそれぞれ連続して、かつ実質的にリアルタイムで実行される。
一実施形態では、人がある顔表情をすることが、追加データを含むように3Dモデルを更新することになり、この追加データが、その顔表情をする人の外的容貌データを含む。
一実施形態では、入力が神経活動入力を含み、センサがブレインコンピュータインターフェースを含む。
一実施形態では、スキャン容貌のデータを取得することが、患者の人がその人の安静位に対応する上下顎関係にあることを確認すること、および上下顎関係が安静位にあるときに顔のデータを取得することを含む。
一実施形態では、患者の人が安静位に対応する上下顎関係にあることを確認することが、人の顎筋肉活動を測定して、エネルギー使用が最小限である上下顎関係を確認することを含む。
一実施形態では、顎筋肉活動を測定することが、その人に筋電図検査を適用することを含む。
一実施形態では、患者の人が安静位に対応する上下顎関係にあることを確認することが、その人の顎筋肉を疲弊させることを含む。
一実施形態では、人の顎筋肉を疲弊させることが、顎筋肉に経皮的電気神経刺激を加えることを含む。
一実施形態では、3Dモデルをレンダリングするためのデータが、上下顎関係が安静位にあるときの顔のデータを含む。
本開示の他の態様および特徴は、特定の実施形態についての以下の説明を添付の図と併せて見直すことによって、当業者に明らかになろう。
ここで、本開示の実施形態について添付の図を参照して、単なる例示として説明する。図では、参照数字の最後に2つの共通数字がある参照数字を共有する諸機能は、複数の図にまたがって合致する機能に対応する(たとえば、プロセッサ12、112、212、312、412、512、612、712、812、912、1012、1112、1212、1312など)。
歯のない人の3Dモデルを表示および操作するシステムの概略図である。 図1の3Dモデルを表示および操作する方法のフローチャートである。 図1の3Dモデルを見る図1の人の図である。 上下顎関係を操作した後の図1の3Dモデルの図である。 歯科器具案の操作後の、図1の3Dモデルの図である。 図1の3Dモデルを操作する人の図である。 3Dモデルを操作する人の図である。 3Dモデルを操作する人の図である。 3Dモデルをズーム拡大する人の図である。 3Dモデルをズーム縮小する人の図である。 3Dモデルを回転させる人の図である。 3Dモデルの1つの歯のサイズを大きくする人の図である。 3Dモデルの1つの歯のサイズを小さくする人の図である。 3Dモデルの1つの歯のサイズを大きくする人の図である。 3Dモデルの1つの歯のサイズを小さくする人の図である。 歯のない人の3Dモデルを表示および操作するシステムの概略図である。 歯のない人の3Dモデルを表示および操作するシステムの概略図である。 部分的に歯のある人の3Dモデルを表示および操作するシステムの概略図である。 歯のない人の3Dモデルを表示および操作するシステムの概略図である。 図16の3Dモデルを見る図16の人の図である。 3Dモデルを操作する人の図である。 3Dモデルを操作する人の図である。 3Dモデルをズーム拡大する人の図である。 3Dモデルをズーム縮小する人の図である。 3Dモデルを回転させる人の図である。 3Dモデルの1つの歯のサイズを大きくする人の図である。 3Dモデルの1つの歯のサイズを小さくする人の図である。 歯のない人の3Dモデルを表示および操作するシステムの概略図である。 図28の3Dモデルを表示および操作する方法のフローチャートである。 歯のない人の3Dモデルを表示および操作するシステムの概略図である。 歯のない人の2つの3Dモデルを表示および操作するシステムの概略図である。 歯のない人の3Dモデルを表示および操作するシステムの概略図である。 歯のない人の3Dモデルを用意するためのデータを取得し、3Dモデルを表示および操作するシステムの概略図である。 図33の3Dモデルを表示および操作するためのデータを取得する方法のフローチャートである。 歯のない人の3Dモデルを用意するためのデータを取得し、3Dモデルを表示および操作し、3Dモデルを更新するシステムの概略図である。 外的容貌データを更新後の図35のシステムの図である。 図35の3Dモデルを表示、操作、および更新する方法のフローチャートである。 歯のない人の3Dモデルを用意するためのデータを取得し、3Dモデルを表示および操作し、3Dモデルを更新するシステムの概略図である。 歯のない人の3Dモデルを表示および操作するシステムの概略図である。 歯のない人の3Dモデルを用意するためのデータを取得し、3Dモデルを表示および操作し、3Dモデルを更新するシステムの概略図である。
一般に、本開示は、歯科器具または歯科修復物の、歯列の変化の美的効果を器具または修復物の設計中に観察する方法およびシステムを提供する。
歯科分野における現在の慣行は、ある人の歯の状態を専門家が評価し、必要に応じて治療を勧めるというものである。美的歯学では歯科専門家が、器具が必要になる治療を人に提示する。この器具の設計は、主として歯科専門家および歯科技工室の責任であり、その人からの情報は最小限しかない。高価なモックアップまたは試適は、時間のかかる手順によって成形用材料から作ることができる。この理由により、提示された試適またはモックアップが望ましいものでない場合に、2、3個以上のモックアップを1つが決められるまでに作り出すことはまれである。その人は代わりのものを望むかもしれないが、熟練した歯科技工室の技能者ではないので自分の要望を完全に伝えることができず、「医者が最もよく知っている」という考え方により、一般には妥協の産物がその人に残されて、その人の当初の望みが完全にはかなえられない。自分自身の修復物を設計する権限をその人に与えることは、歯科修復物を設計するのに必要な教育がかなりのものであるので、実際的な選択肢ではない。
現在のモデリングソフトウェアで歯科修復物を設計する当業者は一般に、熟練者になる前に、設計ソフトウェアを正しく使用し理解するための数日の訓練を必要とする。歯科器具を必要とする素人である人に、このような歯科設計ソフトウェアに対する訓練をすることは実際的ではない。したがって、歯科設計ソフトウェアとすぐに対話する能力と、器具案の変更による美的結果を直感的に観察する能力とを普通の人に与えるシステムが望ましい。
歯科器具を設計してもらっている人は一般に、その器具を付けた結果として得られる自分の外見の情報もらうことに興味がある。器具を用意するときに、時間がかかり、高価で、不正確である予備モデルが成形および鋳造によって用意されることが多い。その人の得られる微笑に及ぼす特定の変更の効果を予測すること、およびその予測を有効に伝えることは困難である。そのため、結果として得られる自分の外見に関する意味のある情報をその人に提供することは困難である。その人の歯列の外見に及ぼす影響を考えると、結果として得られる外見に関する満足感は、肯定的な治療結果に極めて重要である。
費用のかかる試適または最終の装具の製作の前に、器具案を人が観察および評価することを可能にする方法は、現在の治療可視化の方法と比べて有利である。多くの現在のシステムは、2D画像を3Dモデルに重ね合わせるソフトウェアに依拠している。このようなソフトウェアは特殊化されていることが多く、ほとんどの素人には使用および理解することが困難であり、素人である人によるリアルタイム使用向けにはなっていない。このようなソフトウェアでの歯列の操作は、個々の歯または歯の群の姿勢およびアンギュレーションを回転させ、傾け、またはそれとは別に変更して、結果として得られる咬合に影響を及ぼすことなく器具の機能を変更することによって行われる。さらに歯列は、別の事前モデル化歯列に転換することもできる。本開示は、3Dモデリング、歯科設計ソフトウェア、3D表示装置、およびセンサと一体化したリアルタイム拡張現実(「AR」)を含む方法およびシステムを提供する。このセンサは、ジェスチャに基づく入力を受け取るための(たとえば、手のジェスチャを追跡する、眼の動きを追跡するなどの)動きセンサまたは動き捕捉デバイス(たとえば、光学動きセンサ、SMI Eye Tracking Glasses 2 Wirelessシステムなどの視標追跡センサ、CyberGloveシステムなどの手首装着型動き捕捉デバイスなど)、他の光学センサ、神経活動に基づく入力を受け取るためのブレインコンピュータインターフェース(「BCI」)、脈拍、体温、もしくは発汗を測定するための、またはポリグラフとして使用される複数の試験の組合せのためのセンサ、または他の任意の適切なセンサを含むことができる。手首装着型センサはまた、身体3Dモデルの取扱いをシミュレーションするための触覚フィードバックを与えることもできる。
人の頭の部分の3Dモデルが、本明細書に記載の方法およびシステムに使用される。3Dモデルは、人の歯列弓の、および歯列弓を頭部と関連づける人の頭部の、経験的データを含む(たとえば、3D口腔内光学スキャナからの歯列弓のデータ、および3D顎外光学スキャナからの歯列弓と頭部一緒のデータ)。3Dモデルは3次元で表示される(たとえば、Oculus Rift仮想現実ヘッドセット、Google Glassデバイス、ホログラフィック投射などによる可視化によって)。経験的データに基づく部分に加えて、3Dモデルは拡張現実歯科器具を含む。人の頭部も拡張現実歯科器具も、人の手もしくは他のジェスチャを用いることによって、またはBCIによって、人が操作することができる。動きセンサが人の手の動きもしくは他のジェスチャを検出して入力を受け取り、またはBCIが入力を受け取る。3Dモデルは、その入力に基づいて操作される。3Dモデルに示された器具の機能(たとえば、歯、歯列内の歯肉遊離縁および他の歯茎の機能など)は、把持および操作することができ、あるいはBCIの場合では、そうすることを人が想像することができる。加えて、よく知られている手のジェスチャは、回転、ズーム拡大縮小、および他の一般的な機能のために使用すること、または想像することができる。視標追跡とBCIを組み合わせることにより、両システムからのデータを共通タイムスタンプとリアルタイム同期させて、注目パターンを感情状態と相関させることが可能になり得る。
拡張現実歯科器具の変更は、その人が、またはシステムの他のユーザ(たとえば、健康管理開業医、またはその人を補助する信用のおける素人)が、リアルタイムで3Dモデルに加えることができる。その人は次に、モデルを任意の角度から、また変化するズーム角で眺めて、器具内の歯の特定のサイズ、形状、および向きの美的結果を観察することができる。拡張現実歯科器具および3Dモデルのより広い操作および修正によって、人は、器具の特定の設計への変更の美的結果に意味のある情報をもたらすことができる。これらの操作は、直感的な手および他のジェスチャによって実現することができる。このジェスチャは、実際のジェスチャでも(動きセンサまたはBCIの場合)想像したジェスチャでも(BCIの場合)でもよい。BCIを使用すると、想像した手の動きが解読され、メンタルコマンドが与えられて3Dモデルを操作することができる。モデルのAR機能および要素は、人の好みによって、たとえば押す、引っ張る、回転させる、ズーム拡大する、ズーム縮小することなどができる。加えて、色および濃淡などの要素も同様に、メンタルコマンドを用いて変更することができる。3Dモデルに対する人の非自発的反応(たとえば、感情的な反応など)が明らかにされ、モデルは、人の非自発的反応に応じて自動的に更新され得る。非自発的反応は測定することが、光学的変化、神経活動(BCI)、脈拍、体温、発汗を測定するセンサ、ポリグラフとして使用される複数の試験の組合せ、または他の任意の適切な感情状態のインジケータによって可能である。
器具設計案と相互作用することは、モデルの歯または他の機能に人の手を伸ばし動かすという簡単なことであり、またはBCIが使用される場合には、機能に手を伸ばし動かすことを想像する、もしくは変更の結果を想像するという簡単なことである。そのため、その人への基本的な指示しか必要とされない。設計ソフトウェアは、結果として得られる器具が、均等な相互嵌合による適切な咬合を有するように、歯列の許容変更に対する事前設定機能制限を含み、適切な生理学的安静位を可能にする。結果として得られる器具は機能的であるが、美学はその人の掌中にあり、結果として得られる歯科器具が安静状態で上側と下側の歯列間に適切な隙間を設けること、咬合時の適切な上下顎関係を実現すること、そうでなければ機能的に最適化されることを保証するために課される制約を受ける。器具案への変更の美的結果は、リアルタイムで検証することができ、人は、満足のいく設計を見出すことができる。あるいは、人は、自分の理想的な設計が機能上の制限の外側にあり、したがって達成可能ではないことを認識することができる。この場合その人は、3Dモデルを操作して、美学と機能性の間に適切な妥協点を用意することができる。任意の角度から見る、また変化する不透明度のレベルで見る機能を含む、モデルおよび表示装置の3Dの性質が人に、器具案によって自分が3次元でどのように見えるかについての理解をもたらす。
3Dモデルはまた、異なる顔の表現を反映するように更新することもできる。以前から存在する歯の古い写真から導出された微笑をシステムに入力して、人の自然な微笑を復元することができる。著名人の微笑もまた入力されて、設計選択肢に影響を及ぼし得る。その人は、歯科専門家による判定または批評を心配せずに、自分の所望の設計結果を表現することができる。同様に、第2の人が参加し、器具への変更を提案することもできる。事前設定微笑または他の制約事項を美的目標として設定することができ、また歯科器具を、咬合に関する機能上の制約事項を守りながらその目標に到達するように、または近づくように成形することができる。3Dモデルを操作しながら追加データを取得して、微笑の、または生理学的な安静位(「安静位」)でのその人の、現在の義歯による咬合位での経験的データなど、所与の位における経験的データを得ることができる。
人の上下顎関係が安静位にあるときに取得された経験的データにより用意された3Dモデルは、安静位における人の上下顎関係を正確に提示する(別の位でデータを取得し安静位に外挿することとは異なる)。人の実際の安静位が3Dモデルの安静位を決定する。それによって3Dモデルの安静位は、安静位に影響を及ぼす関節、筋肉、神経、歯茎、インプラント(もしあれば)、および歯(もしあれば)を含む顎口腔系の中の全ての実体の相互関係を明らかにする。安静位における人のデータを何も用いずに用意された3Dモデルは、安静位を習慣位または他の位と確実に区別する可能性があまりない。
安静位は、上顎に対する下顎の空間内の(直立姿勢維持位の頭に対して垂直、前後方向、および横方向の)、下顎閉鎖の等張経路に沿った位である。安静位では、下顎を動かす伸筋および下制筋を含む顎筋肉が、最小の電気的活動を作用させる位置の姿勢になる。安静位を維持するのに必要な、顎筋肉によるエネルギーの消費は、下顎ヒンジ連結の経路に沿う他の位と比べて最少である。安静位では、人の関節丘は中立、無拘束位にある。
人の安静位は、その人に関して決定することができる。安静位は、下顎の動きをシミュレーションする歯科咬合器などの機械デバイスによって決定することができない。下顎位または上下顎関係は、頭部、首頸部領域、および背中領域の姿勢の問題を含む諸要因による影響を受け得る。人の側頭下顎関節の内部乱れ、感情的要因、および全身的健康要因もまた、下顎位不全の一因となり得る。安静位を確立する前に、これらの要因を明らかにすることが一般に有益である。場合によっては、これらの要因を明らかにしないと間違った安静位になる。たとえば、ある要因が、噛み合わせ(bite registration)に外挿するのに使用できる安静位を確立する前に、対処または除去されなければならない可能性がある。別の例では、ある要因が、別の位から安静位を外挿することをさらに複雑にして、人のデータを安静位で取得することの有利性が増す可能性がある。
安静位における経験的データを含む3D法は、他の潜在的に有効な上下顎関係の正確な決定をしやすくする。たとえば、3D法は、咬合を確立するのに十分な歯列がない人、たとえば歯のない人の顎運動測定(jaw tracking)および顎外咬合評価に適用することができる。そのデータは、咬合を確立するのに十分な歯列を人が持っている場合に中心咬合(「CO」、これは、人の歯が最大咬頭嵌合にあり、人の顎が「CO位」にあるときに見出される)が見出される自然位の決定をしやすくすることができる。すなわちデータは、最適神経筋CO位の見積もりをしやすくすることができる。見積もられたCO位は、咬合を画成するのに十分な歯を持たない人の義歯を用意するのに利用することができる。
歯科医または他の歯科専門家にとって、器具を用意するときにCO位を確立することが一般的である。CO位を確立するのに十分な歯列を人が欠いている場合、器具と一緒にCOが見出されるべき適切な上下顎関係を決定するのに外挿が必然的に必要になる。歯のない人は、CO位を確立するのに十分な歯列を欠くことになる。部分的に歯のある一部の人、たとえば、門歯はあるが臼歯がない人もまた、COを確立するのに十分な歯列を欠くことになる。
器具を用意するときに安静位に基づいてCO位を確立することにより、その器具を含む顎口腔系の、結果として得られる歯の機能、安定性および調和の改善と最適化が容易になり得る。安静位に基づいてCO位を確立することによりまた、以下のうちの1つまたはそれ以上が容易になり得る。
-正常な咬合面系に向けて人の咬合面系を最適化することであり、正常な咬合面系が適切な機能をその人にもたらし、または、どんな顎関係分類または不正咬合も明らかにすることであり、人のCO位ではそれだけ必要とし得る、
-歯の美学の最適化(前方領域と後方領域の両方の歯の形状、輪郭、解剖学組的構造および形態を含む)、
-最適な生理学的下顎位が見出された場合に、より調和した筋肉のバランスによる顔用化粧品の最適化、または
-頭痛、耳詰まり感、耳鳴り、眼の奥の圧迫、歯の知覚敏感、側頭下顎関節音、咀嚼筋圧痛、首と肩の痛みを含む、起こり得る筋骨格咬合徴候および症状の緩和。
安静位は、習慣位とは異なる真の安静位である。習慣位は、下顎頭並進経路に沿って前方に位置し得る獲得上下顎位である。ある特定の人では、安静位と習慣位は一致するか、または非常に近い可能性がある。しかし、習慣位を維持するために顎筋肉に必要とされるエネルギーは、必ずしも安静位のように最小限とは限らない。習慣位は場合によって、歯のない人のCO位を決定する出発点として用いられる。しかし、習慣位から始めると、歯科治療を計画することに関して、安静位から始めるよりも望ましくない結果になる可能性がある。
3Dモデルは、3D技法(たとえば、Google Glass、Oculus Rift、Microsoft HoloLens、3Dテレビ受像機またはモニタ、ホログラフィックプロジェクションなど)によって表示される。3Dモデルを操作するのに用いられるジェスチャは、直感的で簡単なものにすることができる(たとえば、人の手で歯をつかみ、歯を回転させるなど)。そのため人は、器具案の歯列を容易に操作して、所与の歯列選択の美的効果を観察することができる。同様の操作を2次元表示装置に対して行うには、より高い技能および抽象化が必要になる。3D表示装置を使用すると、歯の姿勢の微細で特殊な変更が素人である人にとって、特にその人が2次元表示装置上での3次元の視覚化および操作になれていない場合に(これは、義歯および他の歯科器具の主なユーザである高齢者においてより一般的であろう)、実行可能なものになる。同様に、その人と歯科専門家の間の言葉の障壁が、3Dモデルを見直しおよび操作することの障害にならない。これは、専門家が何度も訪問することが実際的ではない貧困地域、または近づきにくい地域の人の義歯を設計する場合に当てはまり得る。
操作のハンズフリー性は、タブレット表面、キーボード、マウス、または他の物理的インターフェースデバイスとの接触を通して感染症が広がりにくいことを意味する。
第2の人が3Dモデルを操作することができ、また感情状態を表すデータの入力を受け取るBCIまたは他のセンサが使用される場合には、前記の人、第2の人、または両者の感情の反応を利用して、前記の人、第2の人、または両者の好みを予測することができる。これらの好みは重み付けして、前記の人と第2の人の両方に強い反応があった器具の設計を推進することができる。第2の人は、前記の人と一緒に3Dモデルを操作することができ、あるいは、第2の人は、前記の人の参加または入力がなくてもそうすることができる(たとえば、前記の人が意見交換することができない、または自分たち自身のために効果的に選択することができない場合など)。
以前のいくつかの方法の限界は、患者と歯の2つの統合2D画像に基づいた解析に起因する。2つの画像は共通の容貌を共有せず、3Dモデルの生成のために使用することができない。結果として得られる複合画像は、他のどの角度からも見えない。また、デジタル写真の撮影中の照明条件も一貫性がないことがあり、患者の顔を表現する際の歯シェーディングの正確な表現が、完全には正確ではない可能性がある。補綴案の表現は、既存の歯列または修復物と患者の顔との間の基準点を欠いている。加えて、真の3Dモデルがないと、設計の機能上の制限は、制約として試験すること、および適用することが困難である。そのため非機能的な設計が、潜在的な問題の表示なしでモデル化されることになり得る。最後に、グリーンスクリーン用の遮蔽物を患者の口の中に入れることによって顔および唇が変えられて、結果として得られる、モデル化されるべき美学が変わる。
TruRxシステムなどの以前のグリーンスクリーン技術は、設計案の投影像を人の歯列弓の最上部に重ね合わせることを含む。対照的に、本明細書で開示された方法およびシステムに使用される3Dモデルは、歯列弓を顔の構造と関連づける。歯列弓と歯が所与の姿勢の唇によって完全に覆い隠される場合に、3Dモデルは依然として、器具案およびその美学上の効果を正確に表現することができる。
3Dモデルを使用することの利点は、安静時唇線と関係がある。安静時唇線では、唇は弛緩しており、歯の大部分が、多くの場合に全部が、見えない。口腔内特徴(たとえば、拡張現実によって提案された歯列)に加えて、口腔外構造(たとえば、顔の特徴など)を適用することによって、3Dモデルは、歯列弓および器具がたとえ見えなくても、外的容貌に対する歯の効果の正確な描写を実現する。
システム
図1は、患者である人30の3Dモデル20を表示および操作するシステム10である。システム10は、プロセッサ12およびコンピュータ可読媒体14を含む。3Dモデル20は、プロセッサ12によって命令を実行することによりレンダリングされ、操作され、更新され、表示される。3Dモデル20は、コンピュータ可読媒体14に保持されたデータに基づいている。プロセッサ12およびコンピュータ可読媒体14は、同一のデバイス上にあっても異なるデバイス上にあってもよく、異なるネットワーク位置にあってよく、または他の任意の適切な構成とすることができる。プロセッサ12およびコンピュータ可読媒体14の諸機能は、複数の個別のプロセッサおよびコンピュータ可読媒体に割り振ることができる。
システム10は、人30が自分の手を3Dモデル20の上に置いて3D表示装置16による3Dモデル20をたとえば直感的なジェスチャによって操作できるように、3Dモデル20を表示するためのプロセッサ12と動作可能に通信する3D表示装置16を含む。図1で人30は、3Dモデル20を手39で操作している。システム10は、人が、3D表示装置16に示された3Dモデル20に向けたジェスチャを用いて、3Dモデル20の姿勢または視像を変更すること、3Dモデル20の選択された容貌を変更すること、またはそれとは別に3Dモデル20を操作することを可能にし得る。ジェスチャは、3Dモデル20の一部分を手でつかむこと、および物理的なモデルを操作する場合に用いられるのと同様の手のジェスチャを適用することを含み得る。このような操作の例にはまた、表示装置に示された3Dモデル20の、回転、パニング、ズーム拡大または縮小、照明条件の変更などの視像の変更も含まれ得る。
3D表示装置16は、眼鏡型ARインターフェース(たとえば、Google Glass、Oculus Rift、Microsoft HoloLens、Meta Spaceglassesなど)として示されている。眼鏡型ARインターフェースは、3Dモデル20が実際の物理的環境の上に、人30の観点から表示されることを可能にする。3D表示装置16は、複合環境を投影して、人30が3Dモデル20を3次元で、リアルタイム更新によって見ることを可能にする。眼鏡型3D表示装置16は、3Dモデル20が自分の目の前にあり、自分の手または他の命令で操作することができ、多数の角度から見ることができるという感覚を人30に与える、任意の表示デバイスと交換可能である。
システム10は動きセンサ18を含む。動きセンサ18は、人30のジェスチャ(たとえば、手、頭、足などの動き)を検出する。このジェスチャは、プロセッサ12に供給される第1の入力データ60の入力になる。第1の入力データ60は、動きセンサ18で検出された人30のジェスチャに対応する自発的動作データ62を含む。動きセンサ18は、人30のジェスチャの動き、位置、姿勢および角度を監視して、人30が3D表示装置16による3Dモデル20を操作することを可能にする。動きセンサ18は、任意の適切なデータ(たとえば、光学、ドップラーレーダ、受動IR、断層撮影、これらの組合せなど)に基づいて動きを検出することができる。
動きセンサ18に加えて、または動きセンサ18の代わりに他のセンサがシステム10に含められて、人30が、プロセッサ12が解釈できる自発的動作データ62を供給するために、ジェスチャとは別の方法によって3Dモデル20および歯科設計ソフトウェアと対話することが可能になり得る(たとえば、眼の動き、音声コマンド、顔表情などを用いることなどによって)(図示せず)。このようなセンサは、人30からの光学データまたは他の形式のデータを捕捉することに基づくことができる(たとえば図39の光学センサ1296など)。
3Dモデル20はまた、人30以外の人からの自発的動作データに応じて操作することもできる(たとえば、図30のシステム610など)。
図2は、3Dモデルを用いて作業する方法80を示す。方法80は、3Dモデルを表示するステップ82と、入力を受け取るステップ84と、入力84を受け取るステップに対応して3Dモデルを更新するステップ86とを含む。方法80は、システム10を使用して実行することができる。3Dモデルを表示するステップ82、および3Dモデルを更新するステップ86は、コンピュータ可読媒体14に保存されたデータを使用してプロセッサ12で命令を実行することによって、3D表示装置16で完了することができる。入力を受け取るステップ84は、システム10の動きセンサ18による手のジェスチャ、他の自発的入力、非自発的入力、または各入力の組合せを検出することを含み得る。
3Dモデルの構成要素
図3は、3Dモデル20を見る人30を示す。3Dモデル20は、スキャン容貌データ40および拡張現実データ50に基づいてモデル化される。3Dモデル20は、患者容貌22および歯科器具案24を含む。患者容貌22は、モデル化歯列弓21およびモデル化外的容貌23を含む。眼鏡ベースのインターフェースを適用する図1の3D表示装置16とは異なり、図3の3Dモデル20は、眼鏡なしで機能する3次元プロジェクタ(たとえば、ホログラフィックプロジェクタ、Musion Das Hologram LtdのTelePresenceシステム、Magic LeapのDigital Lightfieldシステムなど)として示されている。これらのタイプの表示装置のどちらか、または他の任意の適切な表示装置が3D表示装置16として使用され得る。
スキャン容貌データ40は歯列弓データ42、関係データ44、および外的容貌データ46を含む。スキャン容貌データ40は経験的データであり、たとえば、口腔内光学スキャナによって人30の歯列弓32をスキャンすることによって取得され(たとえば、図33のシステム910などを使用して取得され)、また口腔外光学スキャナによって人30の外的容貌34をスキャンすることによって取得される(たとえば、図33のシステム910などを使用して取得される)。追加スキャン容貌データ40により所与の姿勢の3Dモデル20がさらに正確になるが、3Dモデル20は、初めに取得されたスキャン容貌データ40だけに基づいて、多くの姿勢に向けて操作することができる。人30の外見は、3Dモデル20によるセッション間でさほど変化しないが、同じスキャン容貌データ40を多数のセッションにわたって適用することができる。スキャン容貌データ40は、光学スキャナ、超音波スキャナ、他の適切なスキャナ、または外的容貌34に適用される他の適切なデータ取得技法により取得することができる。
歯列弓データ42は、人30の上顎および下顎の歯列弓32のモデル化を容易にし、それによってモデル化歯列弓21が得られる。
外的容貌データ46は、人30の外的容貌34の各部分のモデル化を容易にする。外的容貌データ46の量が多ければ多いほど、それに応じて外的容貌面に対する美的効果を、付加的な外的容貌データを欠いている3Dモデルよりも広く観察することによって、モデル化外的容貌23がより広範になる(たとえば、図16の3Dモデル120参照)。歯列弓データ42、関係データ44、および外的容貌データ46に類似しているデータを取得し、データの種類に基づいてモデルを用意するステップについては、本明細書と発明者を共有するWO 2013/071435でさらに論じられている。図33、35、38、および40それぞれに示された口腔外センサ992、1092、1192または1392などの、データを取得するための機能を含むことができる。
関係データ44は、歯列弓データ32のデータ、および外的容貌34のデータ(たとえば、顔の部分および首の部分など)を含む。関係データ44により、歯列弓32間、および外的容貌34と歯列弓32の間の関係が確立しやすくなる。歯列弓32の相対姿勢は、上下顎関係を画定する。関係データ44は、外的容貌34が歯列弓32の相対姿勢に基づいてモデル化されることを、歯列25に基づいてモデル化されることに加えて可能にする。所与の歯科器具案24の咬合時の上下顎関係は、モデル化された外的容貌23の外見に寄与する。特定の咬合時の上下顎関係に対する制約を考えると、歯列25は、歯科器具案24による咬合時のモデル化外的容貌23の外見を決めることになる。
関係データ44はまた、3Dモデル20の上下顎関係が外的容貌34の姿勢に基づいてモデル化されることを可能にする。モデル化外的容貌23がどう見えるようになるかについての制約を置くことができる。歯科器具案24は、モデル化外的容貌23の選択された外見になるようにモデル化される。制約はまた、歯科器具案24がもたらす咬合時と安静時の上下顎関係が両方とも人30にとって確実に適切になるように、歯科器具案24に適用される。結果として得られる外見のために選択されたモデル化外的容貌23は、外的容貌データ46に含まれる姿勢から得られるか、または外的容貌データ46に含まれる姿勢と実質的に類似している可能性がある。このような姿勢の経験的データは、歯列25と、人30のために適正に選択された他の特徴とを有する歯科器具案24を提供する場合に、3Dモデル20の有効性を増大させる。安静位は、たとえば以下で、また本明細書と発明者を共有するWO 2013/071435で論じられているように、経験的証拠によって画定することができ、外的容貌データ46には、安静位における人30の経験的データが含まれ得る。システム1310は、安静位における経験的外的容貌データ46を取得しやすくする特徴を含む。
関係データ44は、2つのモデル化歯列弓21間の、およびモデル化歯列弓21とモデル化外的容貌23の間の正確な関係を維持しながら、3Dモデル20の上下顎関係の操作を容易にする。これらの関係は、3Dモデル20が、人30における歯列弓32間の、および歯列弓32と外的容貌34の間の対応関係を反映する関係と一致するという点で、正確である。
拡張現実データ50は、歯科器具案24の表現を含む。図示の歯科器具案24は1対の義歯である。他の器具もまたモデル化することができる(たとえば、単一の義歯、補綴物、修復物など)。歯科器具案24は、拡張現実データ50に基づいてモデル化され、モデル化歯列弓21に重ね合わされる。歯科器具案24により、歯科器具案24上の歯列25によって容易になった嵌合における、モデル化歯列弓21間の上下顎関係が得られる。上下顎関係、ならびにモデル化歯列弓21およびモデル化外的容貌23の結果として得られる姿勢は、スキャン容貌データによって伝えられて、歯列弓32間の上下顎関係が外的容貌34に及ぼす効果が3Dモデル20で表現される。
歯科器具案24は、人30にとって適切な画定上下顎関係と(たとえば、適切な咬合位および安静位という条件などで)、咬合位からの動き方向を画定する下顎頭角度とに基づく。歯科器具案24をリアルタイムでARによってモデル化する場合、検証手順により、上下顎関係位置案を3Dモデル20が正確にモデル化して、人30の観察された動きと整合することを助長することができる。歯科器具を装着せずに、人は自分の顎を動かす(たとえば、通常の噛む機能などで)。観察データは3Dモデル20と比較することができ、不整合性が発見された場合には、3Dモデル20は、3Dモデル20の動きを人30の観察された動きと比較するときの有用な目印として上下顎咬合位または下顎頭角度を用いて、補正することができる。検証手順は、外的容貌データ46に基づくことができる。検証手順はまた、たとえばシステム910(図33)、システム1010(図35)、システム1110(図37)、システム1310(図40)などを使用して取得された追加外的容貌データ46に基づくこともできる。
3Dモデルの操作
システム10は、素人であり得る人30による3Dモデル20の直感的操作をしやすくする。操作は、3Dモデル20の見え方を変更することを含み得る。操作には、特にモデル化外的容貌23に関して、3Dモデル20の美学に対して得られる効果を観察しやすくするために、患者容貌22の姿勢を変更すること、歯科器具案24を変えること、下にある外的容貌データ46を変更すること、または下にある拡張現実データ50を変更することが含まれ得る。制約は、咬合時の上下顎姿勢、安静位における歯列25のスペーシング、モデル化外的容貌23の外見、これらの特徴の組合せに、または歯科器具案24を設計する目標に応じて他の適切な特徴に、適用することができる。
制約を安静位における歯列25のスペーシングに適用する場合、1から4mmの間の安静空隙、たとえば約2mmの安静空隙を画定することができる。安静空隙とは、歯科器具案の安静位における上部と下部の歯列25間の隙間のことである。過度の、または不十分な安静空隙はそれぞれ、顔の外見をゆがめる。過度の安静空隙(閉じすぎ)では、下顎および唇が突出することになり、「虚脱状態」または「渋面」の外見になる。不十分な安静空隙(「開きすぎ」)では顔が長くなり、そのため唇が薄く引き伸ばされて見えることになり、顔は全体的に不快に見える。これは、顔の筋肉が適切な寸法に近づこうとしているときに静止できない顔の筋肉の緊張による。人が開きすぎ、または閉じすぎの状態にある場合に、本方法およびシステムを用いて、所望の外見、ならびに適切な安静位および咬合位を得るための上下顎関係の変え方を決定することもできる。
図4は、上下顎関係が3Dモデル20とは異なる更新3Dモデル20aを示す。更新3Dモデル20aは、患者容貌22を操作することから得られる。その異なる上下顎関係がモデル化外的容貌23を再配置することになって、再配置モデル化外的容貌23aを得ることができる(また同様に、患者容貌22は再配置患者容貌22aに再配置される)。3Dモデル20の上下顎関係は、3D表示装置16上に表示され動きセンサ18で検出された、3Dモデル20に向けられたジェスチャまたは他の入力の結果として操作することができる。関係データ44を適用することによって、モデル化歯列弓21の互いの姿勢、およびモデル化外的容貌23に対する姿勢は、更新3Dモデル20aに対する上下顎関係の変化に追従して、3Dモデル20において更新することができる。
図5は、歯科器具案24を操作することにより得られ、修正拡張現実データ50bに基づいてモデル化された修正歯科器具24bを含む、更新3Dモデル20bを示す。修正歯科器具24bは、歯科器具案24とは異なる咬合時の上下顎関係をもたらすことができる。異なる上下顎関係がモデル化外的容貌23を再配置することになって、再配置モデル化外的容貌23bを得ることができる(また同様に、患者容貌22は再配置患者容貌22bに再配置される)。加えて、修正歯科器具24bは、歯科器具案24として同じ咬合時の上下顎関係を有し得るが、それにもかかわらず、モデル化外的容貌23の姿勢および外見が異なることになって、再配置モデル化外的容貌23bが得られる。歯科器具案24およびその構成要素のサイズ、向き、形状、色調、および他の任意の適切な特徴はまた、修正歯科器具24bを得るために更新することもできる。歯科器具案24の歯列25または他の特徴に対する構造的変更は、安静位、咬合位、または他の選択基準点における上下顎関係が、歯科器具案24への変更に追従して変化するという点で、患者容貌22に効果を及ぼし得る。他の特徴には、歯科器具案24とモデル化歯列弓21の間のインターフェース、または、歯科器具案24がモデル化歯列弓21にどのように載るかを決定する、歯科器具案24の他の態様が含まれ得る。モデル化外的容貌23はまた、モデル化外的容貌23の選択された姿勢を実現するか、またはそれに近づく新しい上下顎関係になるように操作することもできる。歯科器具案24への変更は、人30、または第2の人(たとえば、図30の第2の人690など)によって画定された事前設定限度内に制約することができる。このような制約は一般に、生理学的に適切な安静位または咬合位を与えるものである。
図6は、3Dモデル20と直接対話する人30を示す。人30は、3D表示装置に示された3Dモデル20をあたかも手39でつかむかのようなジェスチャをしている。モデル化歯列弓21間の上下顎関係、モデル化外的容貌23、および歯科器具案24はそれぞれ操作することができ、3Dモデル20に結果として生じる効果は、プロセッサ12で計算することができる。3Dモデル20は、患者容貌22の違い、歯科器具案24の違い、または両方を説明するために更新される。人30の外的容貌34における対応する違いが、モデル化外的容貌23の違い、および3Dモデル20の対応する部分の違いに反映される。3Dモデル20の一部分をつかみ、直感的なジェスチャで3Dモデル20を操作すると、3Dモデル20がリアルタイムで更新されて、これらの変更がモデル化外的容貌23の美学、歯列25、または3Dモデル20の他の態様に及ぼす諸効果を比較しやすくなる。
モデル20の保存姿勢26が視認のために利用可能であり得る。保存姿勢26は、たとえば、保存された顔表情(たとえば微笑、渋面など)を含み得る。保存姿勢26において、モデル化歯列弓21の上下顎関係、モデル化外的容貌23、または両方が、保存姿勢26を反映するように更新される。歯科器具案24の特徴、および対応する拡張現実データ50は、保存姿勢26と、3Dモデル20に反映された人30の外的容貌34に対する、結果として生じたあらゆる違いとにより更新することができる。保存姿勢26は、たとえば著名人の微笑、または人30に以前にあった微笑を反映するために、歯列25のサイズおよび位置が事前設定されたカスタム微笑を含むことができる。
保存歯科器具27もまた、3Dモデル20に含めるために入手できる可能性がある。人30は、事前構成された保存歯科器具27の中から選択すること、および保存歯科器具27にカスタム変更を加えることができる。加えて、歯の濃淡を濃淡セレクタ29によって変えることができる。新たな保存歯科器具27は、保存姿勢26を選択する前または後に選択して、異なる保存姿勢26における異なる保存歯科器具27の相対的美学を観察しやすくすることができる。
図2の方法80は、3Dモデル20が操作されるときに適用される。動きセンサ18から第1の入力データ60を受け取ることに応じて、プロセッサ12は、第1の入力データ60が3Dモデル20、拡張現実データ50または外的容貌データ46を更新することになるかどうかを評価する。歯列弓データ42および回転データ44は、一定のままになる。
図6に示される3Dモデル20をつかむことに加えて、他の手のジェスチャを用いてモデル20を操作することもできる。
図8は、手39がモデル20に触れることなくモデル20を操作する人30を示す。図8には、3Dモデル20の歯科器具案24部分だけが示されている。このようにして、歯科器具案24の歯列25および他の態様は、患者容貌22による障害なしに更新することができる。歯科器具案24の歯列25または他の特徴への変更が完了した後、患者容貌22は、3D表示装置16に表示されるときに3Dモデル20に再導入して、歯科器具案24への変更がモデル化外的容貌23に及ぼす効果を観察しやすくすることができる。
歯科器具案24および患者容貌22の操作をしやすくすることに加えて、システムは、複数の角度から直感的に見ること、ズーム拡大縮小、および他の見え方の変更をしやすくすることができる。
図9および図10はそれぞれ、2つの手39を離すように動かしてズーム拡大することによって、および手39を一緒にするように動かしてズーム縮小することによって、モデル20を操作する人30を示す。
図11は、手39を回すことによって3Dモデル20を回転させている人30を示す。
図12および図13はそれぞれ、3Dモデル20の単一の歯28をつかみ、あたかも単一の歯28を引き伸ばす、または押し縮めるように手39を動かすことによって単一の歯28を拡大および圧縮している人30を示す。単一の歯28を拡大すると、拡大された単一の歯28c、ならびに対応する修正歯科器具24cおよび更新3Dモデル20cが得られる。同様に、単一の歯28を圧縮すると、縮小された単一の歯28d、ならびに対応する修正歯科器具24dおよび更新3Dモデル20dが得られる。
図14および図15はそれぞれ、図12および図13のものと類似しているが3Dモデル20をつかむことは含まない手のジェスチャによって、単一の歯28を拡大および圧縮している人30を示す。
人30は、歯科器具案24の歯の形状、サイズ、濃淡および姿勢を変更し、その結果として生じるモデル化外的容貌23および3Dモデル20の変化を全体としてリアルタイムで観察することができる。3Dモデル20は、任意の角度または位置から見て、3Dモデル20への変更を様々な角度から観察しやすくすることができる。3Dモデル20は、第1の顔表情で見ることができ、この顔表情は更新顔表情に更新することができ、それに応じて3Dモデル20の外的容貌23を更新することができる。更新顔表情は、たとえば、保存姿勢26から選択し、3Dモデル20の個々の容貌22を操作することによって用意することができ、あるいは、(たとえば、図33、35、38、および40にそれぞれ示される口腔外スキャナ992、1092、1192、または1392を用いて)取得される追加外的容貌データ46に基づいて用意することができる。歯科器具案24上の歯列25の姿勢は、選択された咬合を維持するように選択される事前設定パラメータの内側に制限され、その結果、咬合が機能的限度から外れるように歯列25が配置されることが許容されなくなる。
3Dモデルに含まれるデータ
図16は、スキャン容貌データ40が外的容貌データ46を欠き、3Dモデル120がモデル化外的容貌23を欠いている、システム110を示す。スキャン容貌データ140は、歯列弓データ142および関連データ144だけを含む。
図17は、3Dモデル220が、人の義歯238をモデル化するための義歯データ248を含む、システム210を示す。義歯データ248は、人230の現在の義歯238を表し、たとえば図33のシステム910に含まれる口腔外光学スキャナ992などを用いて人230の現在の義歯238をスキャンすることによって、取得することができる。拡張現実データ252は、義歯データ248に部分的に基づく。義歯データ248は拡張現実データ252を、歯科器具案224を3Dモデル220の見直し、および修正のために提示することによって、人230の義歯を再設計するための出発点として伝えることができる。人が1対よりも多い現在使用中の義歯を有している場合には、1セットよりも多い義歯データ248を取得することができ、対応するセット数の拡張現実データ252が提供される。システム10と同様に、歯科器具案224は、3Dモデル20を操作することによって、下にある拡張現実データ252を変えなくても修正することができる。歯科器具案224の咬合時の上下顎関係は、その人の現在使用中の義歯238のものと同一にすることができ、あるいはその人の現在使用中の義歯238のものから修正することができる(たとえば、安静位で歯列225間に適切なスペーシングを設けるなどのために)。
図18は、人330が不完全な歯列336を有するシステム310を示す。3Dモデル320は、不完全に歯のある歯列弓データ343として表現されている、不完全な歯列336の表現を含む。歯科器具案324を用意するために使用される拡張現実データ350は、不完全に歯のある歯列弓データ343として示された不完全な歯列336が存在することを考慮に入れている。
ブレインコンピュータインターフェース
図19は、3Dモデル420を表示および操作するためのシステム410である。
図20は、3Dモデル420を用意するために使用されるシステム410およびデータ440、450を示す。
システム410は、プロセッサ412、コンピュータ可読媒体414、および3D表示装置416を含む。人430は、ブレインコンピュータインターフェース(「BCI」)419を使用することによって3Dモデル420と対話する。BCI 419は、神経活動データ466の入力を受け取るために、人430の神経活動を示す脳の特性を監視する。BCI 419として使用できるBCIシステムの現在の例には、Emotive製のInsightシステムおよびEPOC/EPOC+システム、ならびにNeuroSky製のMindWaveシステムが含まれ、これらは両方とも脳波記録法(「EEG」)に基づいており、脳の電気活動状態を監視する。BCI 419は、人430によるリアルタイム使用を支援する任意の適切なBCIを含むことができ、EEGを適用するBCIに限定されない。脳内の血流を監視する機能的核磁気共鳴画像法、および脳の電気活動により生じる磁場を監視する磁気脳波記録法もまた、神経活動データ466の入力を受け取るためにBCI 419に使用することができる。
BCI 419は、3Dモデル420に対する動作または変更の精神的概念化の下流で人30の動作に基づいた動きセンサ、音声センサ、または他のセンサを必要とせずに、3Dモデル420の応答性のよい更新をしやすくする。加えて、まばたき、ウインク、微笑などの顔表情が、BCI 419で入力として受け取ることができる、またモデル化外的容貌423を更新するために使用できる、神経活動をもたらす。モデル化外的容貌のこのような更新は、保存姿勢426に対するもの、モデル化外的容貌423の姿勢への他の修正に対するもの、または追加外的容貌データ446の取得を通すものとすることができる(たとえば、図35のシステム1010、図37のシステム1110などにおけるように)。人420によって実際に取られる動作は動作の概念化を含み、それによって、人420がBCI 419の使用に不慣れである場合にシステム410が使いやすくなる。
神経活動データ466の入力は、人430からのメンタルコマンドに対応する自発的動作データ462を含み、これはプロセッサ412に供給される。特定のBCI 419およびプロセッサ412に必要な程度に人430に対して較正されると、神経活動データ466は、考えていること、概念化ジェスチャ(物理的になされるジェスチャを含む)、3Dモデル420に対する概念化変更、または他の、3Dモデル420に関して取られる動作に関連した人430の精神的または感情的活動状態に対応する、自発的動作データ462を含む。
自発的動作データ462は、人430によって頭の中で概念化されている人430のジェスチャの動き、位置、姿勢、および角度に対応することができる(たとえば、入力は、人430が3Dモデル420の照明状態を回転、パン、拡大および変更することなどを可能にする、一連の一般的で直感的な概念化された手のジェスチャに対応し得る)。人430が概念化できるこのようなジェスチャと、結果として得られる3Dモデル420に対する操作との例には、歯科器具案24を操作するために用いられる、またはシステム10を使用する場合に図6から図15に示されたモデル20の透視図を操作するために用いられる、手のジェスチャが含まれ得るが、システム410では、ジェスチャは人430によって単に概念化されるか、または想像されるにすぎない。
システムはまた、システム10とシステム410の特徴を結合して用意して、動きセンサもBCI(図示せず)も持つシステムを提供することもできる。動きセンサおよびBCIからの入力は、別々に重み付けすることができる。加えて、動きセンサ入力は、このようなシステムを使用してBCIを人に対して較正するのに使用することができる。
図21から図27は、実際のジェスチャまたは概念化ジェスチャなしでBCI 419で受け取られる自発的動作データ462がもたらされる、変更の結果の概念化によってモデル420を操作する人430を示す。
図21は、保存姿勢426のうちの1つへの変更を概念化する、または保存姿勢426のうちの1つを概念化することによってモデル420を操作する、人430を示す。
図22は、歯科器具案424の歯の色および濃淡の変更を概念化することによって3Dモデル420を操作する人430を示す。図22には、モデル420の歯科器具案424部分だけが示されている。同じ手法が、保存歯科器具427のうちの1つを選択することに適用される。3D表示装置416は、人430が自発的動作データ462に注目し変更するための保存姿勢426、保存歯科器具427、および濃淡セレクタ429を見せることができる。別法として、これらの特徴は、3D表示装置416による表示から省略することができ、人は、どの保存姿勢426、保存歯科器具427、または濃淡の変化が3Dモデル420上に表示されるのを人430が見たいかを概念化するだけでよい。
図23から図25はそれぞれ、3Dモデル420をズーム拡大する、ズーム縮小する、および回転させることを概念化することによってモデル420を操作する人430を示す。
図26および図27はそれぞれ、単一の歯428の選択、および単一の歯428のサイズの変更を概念化することによって単一の歯428を拡大および圧縮する人430を示す。
非自発的反応データ
図28は、BCI 519が人530の感情、反応、または他の非自発的反応に対応する神経活動データ566の入力を受け取って、人530の非自発的反応データ564を供給する、システム510を示す。非自発的反応データ554を参照して、また較正によって、BCI 519は、人530の感情状態および反応を評価しやすくし、ひいては、歯科器具案524に関して、人530の好みを予測しやすくすることができる。
BCI 519は、人530の顔表情に対応する入力を、自発的動作データ562または非自発的反応データ564のいずれかとして受け取りやすくする。人530は、3Dモデル520の更新を起動するために実際に微笑したり、それとは別に顔表情を変えたりしなくてもよい。BCI 519で検出される概念化された手のジェスチャ入力の神経活動データ566と同様に、顔表情に対応する神経活動データ566は、自発的顔表情の自発的動作データ562であろうと非自発的顔表情の非自発的反応データ564であろうと、概念化されるだけでよい。顔表情は、運動神経を通って神経筋接合部まで伝わる脳内の神経インパルスから生じる。適切な刺激によって運動神経は、シナプス後受容体に結合し筋繊維の反応を引き起こす多量の神経伝達物質を放出し、その結果として筋肉運動が生じる。BCI 519は、感情または他の要因(たとえば、著名人の微笑を見る要求、自発的または非自発的な採択、所与の顔表情の概念化など)に基づいて、3Dモデル520への反応的で直感的な変更をしやすくする。
外的容貌データ546は、プロセッサ512によってBCI 519からの神経活動データ566と互いに関係付けられる、経験的光学画像データを含むことができる。3Dモデル520は、神経活動データ566(たとえば、微笑を見せる、顔をしかめる、片目を閉じるなど)に応じて、リアルタイムで更新することができる。たとえば、3Dモデル520は、微笑する人530に応じた微笑に対応する、かつ微笑から神経活動データ566を生成する(自発的動作データ562であろうと非自発的反応データ564であろうと)、保存姿勢526を呈するように更新することができる。外的容貌データ546がすでに外的容貌534に基づいて取得されているので、BCI 519からのデータに基づく顔表情または他の更新は必ずしも、人520が現在作っている特定の微笑に対応しない。むしろ、3Dモデル520の更新は、関連コマンド(たとえば、微笑する、顔をしかめる、片目を閉じるなど)に対応する、以前に取得されたスキャン容貌データ540に基づく。以前に取得されたスキャン容貌データ540は、保存姿勢526に含めることができる。図35のシステム1010および図36のシステム1110は、システムの使用中に付加データを外的容貌データに追加するための口腔外光学スキャナを含む。
プロセッサ512は、歯科器具案524の様々な仮想歯科設計要素(歯の形状およびサイズ、配置、濃淡、欠陥など)に対応する非自発的反応データ564を評価および定量化するようにプログラムすることができる。拡張現実データ550は、非自発的反応データ564に基づいて、人530に特有の好みの階層順に構成することができる。好みの順序は、人530の感情状態などの好みの基準、または人530(または他の人、たとえば、第2の人690、第2の人790、第2の人890など)からの自発的入力に基づくことができる。感情状態に基づく好みの基準は、非自発的反応データ564を感情状態と同等とみなして、表示された3Dモデル520が画定された感情的反応を人530から誘発するかどうかについて判定する。応答は、2進法でも、非自発的反応データ564に適用できる統計モデルに関して以下で説明されるように、より微妙であってもよい。人530からの自発的入力に基づく好み基準により、システム510のユーザによって自発的に選択される指針または制約(たとえば、所与の前歯の幅またはスペーシングを超えない歯列525、必要なオーバーバイト、必要なアンダーバイトなど)と比べて、非自発的反応データ564を測定する。指針は、人530によって、または他の人(たとえば、第2の人690、第2の人790、第2の人890など)によって適用され得る。
非自発的反応データ564は、統計モデルに嵌め込むことができる(たとえば、順序効用関数を推定することができ、または間隔好みデータを適用して、統計的に開発できる要素効用部分価値関数(component utility part-worth function)の推定値を得ることができるなど)。プロセッサ512は、この統計モデルを用いて、人530に承認される可能性が高い歯科器具案524を、保存歯科器具527を選択することによって、または歯科器具案524を修正することによって推奨することができる。非自発的反応データ564は、歯科器具案524の異なる配置に対する人530の反応の評価、および人530の好みの定量化をしやすくする。統計モデルは、簡単な好き/嫌いモデルとすること、または、よく知られている(たとえば、効果的な宣伝を用意することに適用することで)、異なる大きさおよび重み係数の様々な種類の反応(たとえば、郷愁、幸福、自信、興奮、無関心、嫌悪感など)を含むことができる。
システム410と同様に、システムはまた、システム10とシステム510の機能を結合して用意して、動きセンサと、非自発的反応データの入力に応答するBCI(図示せず)との両方を持つシステムを提供することもできる。動きセンサおよびBCIからの入力は、別々に重み付けすることができる。加えて、動きセンサ入力は、このようなシステムを使用してBCIを人に対して較正するのに使用することができる。同様に、システムはまた、システム510とシステム1210の機能を結合して用意して、BCIと、非自発的反応データの入力に応答する光学センサまたは他のセンサとの両方からの非自発的反応データの2つのストリームを持つシステム(図示せず)を提供することもできる。このようなシステムでは、システムを使用する特定の人の非自発的反応データの検出を較正するクロスチェックを行う。
図29は、自発的動作データ入力と非自発的反応データ入力の両方を使用する3Dモデルを用いて(たとえば、3Dモデル520、3Dモデル620、3Dモデル1220などを用いて)作業する方法180を示す。方法180は、3Dモデルを表示するステップ182と、自発的動作データの入力を受け取るステップ183と、自発的動作データの入力を受け取るステップ183に対応して3Dモデルを更新するステップ186とを含む。方法180はまた、非自発的反応データの入力を受け取るステップ185と、非自発的反応データに基づいて表示される現在の3Dモデルをランク付けするステップ187を含む。非自発的反応データ187に基づいて表示される3Dモデルをランク付けすることが完了すると、方法180は、3Dモデルへの変更がより多くの肯定的な非自発的反応を誘発する可能性があるかどうかを評価するステップ188のアルゴリズムを適用する。このアルゴリズムで、3Dモデルへの変更が、非自発的反応データの入力を受け取るステップ185から得られたデータよりも多くの肯定的な非自発的反応を誘発する可能性がないと示された場合、方法180は、自発的動作データの入力を受け取るステップ183、または非自発的反応データの入力を受け取るステップ185のどちらかが行われるまで、3Dモデルを表示するステップ182に戻る。
アルゴリズムで、3Dモデルへの変更が、非自発的反応データの入力を受け取るステップ185から得られたデータよりも多くの肯定的な非自発的反応を誘発する可能性があると示された場合、方法は、非自発的反応データの入力を受け取るステップ185に対応して3Dモデルを更新するステップ186へ進む。この場合、3Dモデルを更新するステップ186は、非自発的反応データの入力を受け取るステップ185から得られたデータよりも多くの肯定的な非自発的反応を誘発する可能性がある変更を適用する。非自発的反応データの入力を受け取るステップ185に応じて3Dモデルを更新するステップ186は、3Dモデルを更新するステップ186を承認するユーザに支配されるか、または3Dモデルへの変更がより多くの肯定的な非自発的反応を誘発する可能性があるかどうかを判定するステップ188によって自動的に行われてよい。方法180は、システム510のコンピュータ可読媒体514に保存されたデータを参照しプロセッサ512を使用して、システム610、システム1210の対応する機能によって、または非自発的反応データを検出するセンサを含む任意のシステムによって、実行することができる。
非自発的反応データを受け取るステップ185は、BCI、光学スキャナ、瞳孔拡張、脈拍、および感情状態を評価するための他の要素を検出する他のセンサ、このようなセンサを組み合わせるポリグラフ、または非自発的入力を提供する人の感情状態および好みを測定するのに適切な他の任意の手法によるものでよい。
方法180の適用の際に、人30は、たとえば、自分の微笑の左側に対するよりも右側に対してよりよく反応する可能性がある。人30のどの設計要素に対する好みも右側にあるが、左側から欠けているものがランク付けされ、また肯定的な感情反応の確率を増すように変更案を歯科器具案に推奨することもできる。これらの反応は2値の反応でも、人30が、表示された3Dモデル20を他の選択肢と比べてどれだけ好むかという面でより詳細でもよく、また設計ソフトウェアにより、好み、同じ設計の中で共存できない設計要素、制約、および他の要因に基づいて取り込むかまたは除外するための設計要素を提案することもできる。
方法180は、(たとえば、BCI、光学感情検出器、ポリグラフなどからの)データの品質に依存する。適用可能なアルゴリズムは、通常の効用関数推定値、間隔好みデータ(統計的に開発できる要素効用部分価値関数の推定値と共に)などに基づくことができる。BCIの開発により、このようなアルゴリズムの精度はさらに向上して、あらゆるより正確な優先的情報が得られることになる。
2人による使用
図30は、第2の患者以外の人690がBCI 619と結ばれているシステム610を示す。BSI 619は、神経活動データ666を人630から受け取り、第2の神経活動データ676を第2の人690から受け取り、または両方を受け取る。神経活動データ666は、自発的動作データ662、非自発的反応データ664、または両方を含み得る。第2の神経活動データ676は、第2の自発的動作データ672、第2の非自発的反応データ674、または両方を含み得る。
第2の自発的動作データ672および第2の非自発的反応データ674は、BCI 619で受け取られ、第2の人690のメンタルコマンド、感情状態、反応または他の神経活動として適用することができる。対照的にシステム510は、自発的動作データ562および非自発的反応データ564を人530、または患者以外の人(図示せず)のみから受け取る。しかし、第2の人690(たとえば、配偶者、パートナー、家族、親友など)による同時制御、およびその人の意見もまた有益であることが多い(たとえば、人630が視覚障害を持つ、無口であるなどの場合)。プロセッサ612は、神経活動データ666、第2の神経活動データ676、または両方に別々に応答するよう様々に構成することができる。このようにして方法180は実施することができ、自発的動作データの入力を受け取るステップ183、および非自発的反応データ185の入力を受け取るステップ185はそれぞれ、第1の入力データ660、第2の入力データ670、または両方に適用され、第1の入力データ660と第2の入力データ670の間には適切な任意の重み付けが用いられる。
プロセッサ612は、自発的動作データ662と第2の自発的動作データ672の両方に応答するように、また歯科器具案624を用意しているときに非自発的反応データ664と第2の非自発的反応データ674の両方に重み付けするように、構成することができる。この構成が、人630と第2の人690の両方による制御をしやすくし、またこれらの人の反応に応じた歯科器具案624のランク付けをしやすくする。非自発的反応データ664および第2の非自発的反応データ674は、別々に重み付けすることができる。
プロセッサ612は、自発的動作データ662と第2の自発的動作データ672の両方に応答するように構成することができるが、歯科器具案624を用意するときには、非自発的反応データ664または第2の非自発的反応データ674のみに重み付けするように構成することができる。この構成は、人630と第2の人690の両方による制御をしやすくするが、提案が得られ、人630または第2の人690の一方だけの非自発的反応を測定する。
プロセッサ612は、自発的動作データ662または第2の自発的動作データ672の一方だけに応答するように、しかし非自発的反応データ664と第2の非自発的反応データ674にはその両方に重み付けするように、構成することができる。この構成は、人630または第2の人690の一方だけによる制御をしやすくするが、歯科器具案624を用意するときには、人630と第2の人690の両方の非自発的反応を明らかにする。非自発的反応データ664および第2の非自発的反応データ674は、別々に重み付けすることができる。
プロセッサ612は、第2の自発的動作データ672だけに応答するように、また第2の非自発的反応データ674だけに重み付けするように、構成することができる。この構成は、第2の人690による制御をしやすくし、第2の非自発的反応データ674だけを参照して選択された歯科器具案624が得られることになる。
プロセッサ612は、自発的動作データ662だけに応答するように、また第2の非自発的反応データ674だけに重み付けするように、構成することができる。この構成は、人630だけによる制御をしやすくし、第2の非自発的反応データ674だけを参照して選択された歯科器具案624が得られることになる。
プロセッサ612は、第2の自発的動作データ672だけに応答するように、また非自発的反応データ664だけに重み付けするように、構成することができる。この構成は、第2の人690だけによる制御をしやすくし、非自発的反応データ664だけを参照して選択された歯科器具案624が得られることになる。
図31は、人730および第2の人790がそれぞれBCI 719への入力データを提供するシステム710である。人730は、3D表示装置716によって3Dモデル720を見ると共に、BCI 719を介して第1の入力データ760を入力することによって、3Dモデル720を操作する。人730の第2の3Dモデル791が、第2の人790のために第2の3D表示装置717に表示される。第2の人790は、第2の3D表示装置717によって第2の3Dモデル791を見ると共に、BCI 719を介して第2の入力データ770を入力することによって、第2の3Dモデル791を操作する。3Dモデル720に関する第1の入力データ760と、第2の3Dモデル791に関する第2の入力データ770との適用はそれぞれ、本出願の別のところに記載の通りとすることができる。人730は、3Dモデル720を操作するための自発的動作データ762、非自発的反応データ764、または両方を提供することができる。同様に、また3Dモデル720を操作する人とは別個に、第2の人790は、3Dモデル791を操作するための自発的動作データ772、非自発的反応データ774、または両方を提供することができる。別法として、非自発的反応データ764は、方法180と類似している方法に、第2の3Dモデル791に関して適用することができ、あるいは第2の非自発的反応データ774は、3Dモデル720に関して適用することができる。
図32は、人830および第2の人890がそれぞれ、動きセンサ818を介して3Dモデル820と対話するシステム810である。プロセッサ812は、人830および第2の人890の両方が3Dモデル830と自由に対話できるようにする命令、人830および第2の人890の一方に向けて付勢する命令、人830と第2の人890が交替できるように、または適切な任意の配置ができるようにする命令を含むことができる。
システムはまた、システム810とシステム610の機能を結合して用意して、人と第2の人の一方または両方のための動きセンサとBCIの両方を持つシステム(図示せず)を提供することもできる。システム710と同様に、別々の3Dモデルが表示される、また人および第2の人によって操作されるようなシステムもまた用意することができる。
スキャン容貌データの取得
図33は、スキャン容貌データ940を取得するための、コンピュータ可読媒体914と連絡しているスキャナを含む、システム910である。口腔内光学スキャナ993は、上下顎歯列弓932から歯列弓データ942を取得するためのものである。口腔外光学スキャナ992は、上下顎歯列弓932、ならびに外的容貌934から関係データ944を取得するためのものである。口腔外光学スキャナ992はまた、外的容貌934から外的容貌データ946を取得するためのものでもある。システム910にスキャナを含むことが、スキャン容貌データ940を取得しやすくし、また同じ位置で3Dモデル920を使用しやすくする。スキャン容貌データ940は、口腔外光学スキャナ992および口腔内光学スキャナ993からコンピュータ可読メモリ914まで、有線接続、無線接続、取外し可能媒体の移送などを使用する任意の方法によって供給される。
外的容貌データ946は、義歯または他の器具が人930の口の中にあってもなくても取得することができる。歯科器具案924に近い義歯または他の器具が人930の口の中にある状態で外的容貌データ946を取得することにより、歯科器具案924によって影響を受ける外的容貌934のモデル化を改善することができる。追加外的容貌データ946は、修復案のモデル化精度を改善することができる。外面顔データ取り込み中に、既存の義歯または咬合堤を異なる顔表情で口の中に入れて、歯科器具案924と、結果として得られるモデル化外的容貌923との間の関係を改善することもできる。一時的な材料(たとえば、歯科用ワックス)を既存の義歯に追加して、予想歯科器具案924に近い、改善された義歯に近づけることもできる。
図34は、データを取得する、3Dモデルを表示する、および操作する方法280を示す。方法280は、スキャン容貌データを取得するステップ281と、3Dモデルを表示するステップ282と、入力を受け取るステップ284と、入力を受け取るステップ284に対応して3Dモデルを更新するステップ286とを含む。方法280は、システム910を使用して実行することができる。3Dモデルを表示するステップ282、および3Dモデルを更新するステップ286は、スキャン容貌データ281から取得された、コンピュータ可読媒体914に保存されているデータを使用してプロセッサ912で命令を実行することによって、3D表示装置916で完了することができる。入力を受け取るステップ284は、システム910の動きセンサ918による手のジェスチャ、他の自発的入力、非自発的入力、または各入力の組合せを検出することを含み得る。
図35は、外的容貌データ1046を更新するための口腔外光学スキャナ1092を含むシステム1010である。口腔外光学スキャナ1092は、図示のように独立型ユニットであっても、外向き撮像センサとして3D表示装置1016に含まれてもよい(たとえばLeapまたはKinectカメラシステム、および投影ホログラフィ/オーバレイ要素など)。3Dモデル1020用の追加外的容貌データ1046を取得するために3Dモデル1020が操作されている間、口腔外光学スキャナ1092を使用することができる。
図36は、人1030が異なる顔表情をしている点で外見が図35の外的容貌1034と異なる、更新外的容貌1034eを有するポーズで人1030から更新外的容貌データ1046eを取得するシステム1010である。口腔外光学スキャナ1092は、更新モデル化外的容貌1023eを含む、更新患者容貌1022eを有する更新3Dモデル1020eをレンダリングするために、更新外的容貌1034eをスキャンし、その結果得られた更新外的容貌データ1046eをプロセッサ1012用のコンピュータ可読媒体1014に供給している。3Dモデル1020eは、更新モデル化外的容貌1023eの経験的データに基づいており、更新外的容貌1034eで示されるが経験的データを用いずに近づく顔表情へと3Dモデル1020を動かすことと比較して、更新モデル化外的容貌1023eのより正確なモデル化をしやすくし得る。
システム1010の使用中、人1030は、3Dモデル1020に示された所与の顔表情が経験的データの恩恵を受けて、その所与の顔表情における人1030の外見をより正確に反映することになると判断することができる。人は、自分の顔表情を更新外的容貌1034eに変え、口腔外光学スキャナ1092を作動させて更新外的容貌データ1046eを取得することができ、このデータはコンピュータ可読媒体1014に保存される。プロセッサ1012は、更新外的容貌データ1046eを含むように3Dモデル1020を更新して更新3Dモデル1020eを提供する。更新3Dモデル1020eは、保存姿勢1026として保存することができる。人1030は、顔表情が歯列(図示せず)の恩恵を受ける場合、更新外的容貌データ1046eを取得する前に、その上下顎歯列弓1032に義歯を含むことができる。
図37は、3Dモデルを用いて作業し、3Dモデルを更新する方法380を示す。方法380は、3Dモデルを表示するステップ382と、入力を受け取るステップ384と、入力を受け取るステップ384に対応して3Dモデルを更新するステップ386とを含む。加えて、方法380は、追加外的容貌データを受け取るステップ394と、追加外的容貌データに対応して3Dモデルを更新するステップ395とを含む。方法380は、システム1010を使用して実行することができる。3Dモデルを表示するステップ382と、3Dモデルを更新するステップ386と、追加外的容貌データに対応して3Dモデルを更新するステップ395とは、更新外的容貌データ1046eを含む、コンピュータ可読媒体1014に保存されているデータを使用してプロセッサ1012で命令を実行することによって、3D表示装置1016で完了することができる。入力を受け取るステップ384は、システム1010の動きセンサ1018による手のジェスチャの検出、他の自発的入力の検出、非自発的入力の検出、または入力の組合せの検出を含み得る。
システム1010は、更新外的容貌データ1046eを連続して取得するように使用して、人1030の現在の顔表情を反映するための3Dモデル1020のリアルタイム更新をすることになり得る。システム1010をこうして適用すると、方法380をリアルタイムで実施することになると共に、人1030が現在保持しており、歯科器具案1024が存在することを考慮して調整される、同じ顔表情のモデル1020を見せているリアルタイム拡張現実ミラーを人1030が見る、また操作することを実際上可能にする。リアルタイムデータ取得およびモデル化は、人1030によって選択される通りに連続して、または一時的に適用することもできる。
図38は、口腔外光学スキャナ1192およびBCI 1119を含むシステム1110である。BCI 1119は、追加外的容貌データ1146をリアルタイムで含めるために、またはモデル化外的容貌1123に反映されるべき外的容貌1134に影響を及ぼす所与の感情状態もしくは他の状態において含めるために、追加外的容貌データ1146の予測取得および3Dモデル1120の更新をしやすくし、その結果として所与の顔表情の経験的データが得られ、3Dモデル1120によって顔表情のより正確なモデル化がしやすくなり得る。
BCI 1119はまた、神経活動データ1166を追加外的容貌データ1146と比較しやすくすることもできる。この比較により、神経活動データ1166を、追加外的容貌データ1146中に認められ得る感情状態と正確に相関させやすくすることができる。加えて、システム1110のリアルタイム更新適用は、システム1010などの非BCI装備システムと比較して、しやすくすることが可能である。BCI 1119は、黙想の的確な一瞬の間に感情反応のフィードバックを行うことができる。
図39は、非自発的反応データ1264がBCIを適用せずに受け取られるシステム1210である。非自発的反応データ1264は、顔表情と、人1230の感情状態に関連する、人1230の他の動きとを検出する光学センサ1296によって取得することができる。光学センサ1296は、微表情と、瞳孔拡張と、人1230の感情状態の他の確実なインジケータとを単独または組合せで検出することに向けることができる。加えて、光学式ではない他のスキャナが非自発的反応データ1264を受け取ることができ(図示せず、たとえば、脈拍計、体温計など)、この非自発的反応データ1264は、複数の種類のデータの組合せで受け取られ得る(図示せず、たとえば、体温、脈拍、瞳孔拡張のポリグラフなど)。BCIを使用せずに取得される非自発的反応データ1264は別にして、システム1210は、非自発的反応データ1264に対して保存姿勢1226を起動することを含め、システム510と同様に機能する。
システムはまた、システム510とシステム1210の機能を結合して用意して、光学センサ(または他の適切な非BCIセンサ、たとえば、体温、脈拍、瞳孔拡張のポリグラフなど)もBCI(図示せず)も持つシステムを提供することもできる。BCIおよび他のセンサからの入力は、別々に重み付けすることができる。加えて、他のセンサからの入力は、このようなシステムを使用してBCIを人に対して較正するのに使用することができる。
同一のハードウェアが、動きセンサ(たとえば、動きセンサ18、口腔外光学スキャナ992、および光学スキャナ1296)の機能を実行することができる。一般に、スキャン容貌データを取得するスキャナは、第1の入力データを取得するスキャナと比較して、より高価であり、付加的な技術ボトルネックの影響を受ける可能性がある。しかしスキャン容貌データ、自発的動作データ、および非自発的反応データを取得するのに利用可能な単一のスキャナ(光学式または別方式)を、本明細書に記載の方法およびシステムから逸脱することなく適用することができる。
図40は、人1330の顎筋系の活動を測定するために筋活動センサ1397が人1330と結合されているシステム1310を示す。筋活動センサ1397は、たとえば筋電図検査モジュールとすることができる。システム1310は、追加外的容貌データ1346を取得するための口腔外スキャナ1392を含む。筋活動センサ1397は、人1330の顎筋肉の筋使用が最小限のときを検出し、口腔外スキャナ1392に追加外的容貌データ1346を取得するように指示する信号をプロセッサ1312へ送る。そのため、外的容貌データ1346は、安静位において取得することができる。加えて、経皮的電気神経刺激モジュールを人の顎筋系に適用して顎筋系を疲弊させ、上下顎関係を強制的に安静位にすることもできる。
3Dモデル1320は、咬合情報を検査するのに使用することができる。歯のない人1330では、これは、その人の口の中に何もない、上咬合堤だけがある、または上下咬合堤もしくは義歯がある状態で可能である(口腔内のものが所望の咬合位置より先に互いに接触しない限り)。人1330が自分の顎を閉じるとき、プロセッサ1312は、人1330が適切な咬合位置で噛んでいるかどうかの判定をしやすくし、この位置は、スキャン容貌データ1340のさらなる確認として使用することもできる。本出願と発明者を共有するWO 2013/071435と同様に、様々な位置で顔筋肉活動を評価するための筋電図検査、または安静位を強制するための経皮的電気神経刺激はそれぞれ、安静位におけるデータの取得をしやすくする。この情報は、人1330が咬合の生理学的態様を安定に保ちながら調整をその範囲内で行うことができる適切な制約を画定するときに、考慮することもできる。
場合によっては、撮像は上顎データだけを含む。咬合情報は、上前歯だけをモデル化するのには不要である。この情報は、前述の歯列弓データの下顎部分と、下顎歯列弓に関係がある関係データの部分とは別にして、データ取得入力を変えない。
単なる例
前の記述では、説明を目的として、実施形態の完全な理解が得られるように多くの詳細が示されている。しかし、当業者にはこれらの具体的な詳細が不要であることは明らかであろう。事例によっては、本明細書に記載の実施形態がソフトウェアルーチンとして、ハードウェア回路として、ファームウェアとして、またはこれらの組合せとして実施されるかどうかに関して、具体的な詳細が提示されていない。
本開示の実施形態は、機械可読媒体(コンピュータ可読媒体、プロセッサ可読媒体、またはコンピュータ可読プログラムコードが中に具現化されているコンピュータ使用可能媒体、とも呼ばれる)に保存されたコンピュータプログラム製品として提示することができる。機械可読媒体は、磁気、光学、または電気的記憶媒体を含む、任意の適切な有形の持続性媒体とすることができ、これには、ディスケット、コンパクトディスク読取り専用メモリ(CD-ROM)、メモリデバイス(揮発性または不揮発性)または類似の記憶媒体が含まれる。機械可読媒体は、命令、コードシーケンス、構成情報、または他のデータの様々なセットを含むことができ、これらが実行されると、プロセッサが本開示の一実施形態による方法の各ステップを実行する。当業者には、記述された実施態様を実施するのに必要な他の命令および操作もまた、機械可読媒体に保存できることが理解されよう。機械可読媒体に保存された命令は、プロセッサまたは他の適切な処理デバイスによって実行することができ、また回路と連係して、記述されたタスクを実行することができる。
上述の実施形態は単なる例とするものである。改変、修正および変形は、当業者により、本明細書に添付の特許請求の範囲によってのみ画定されている範囲から逸脱することなく、特定の実施形態に対して行うことができる。
10 システム
16 3D表示装置3D表示装置
20 3Dモデル
20a 更新3Dモデル
20b 更新3Dモデル
20c 更新3Dモデル
20d 更新3Dモデル
21 モデル化歯列弓
22 患者容貌
22a 再配置患者容貌
23 モデル化外的容貌
23a 再配置モデル化外的容貌
23b 再配置モデル化外的容貌
24 歯科器具案
24b 修正歯科器具
24c 修正歯科器具
24d 修正歯科器具
25 歯列
26 保存姿勢
27 保存歯科器具
28 単一の歯
28c 拡大された単一の歯
28d 縮小された単一の歯
29 濃淡セレクタ
30 人
32 歯列弓
34 外的容貌
39 手
40 スキャン容貌データ
42 歯列弓データ
44 関係データ
46 外的容貌データ
50 拡張現実データ
50b 修正拡張現実データ
60 第1の入力データ
62 自発的動作データ
110 システム
120 3Dモデル
140 スキャン容貌データ
142 歯列弓データ
144 関連データ
210 システム
220 3Dモデル
224 歯科器具案
225 歯列
238 義歯
248 義歯データ
252 拡張現実データ
310 システム
320 3Dモデル
324 歯科器具案
330 人
334 不完全に歯のある歯列弓データ
336 不完全な歯列
343 歯列弓データ
350 拡張現実データ
410 システム
416 3D表示装置
419 ブレインコンピュータインターフェース(BCI)
420 3Dモデル
424 歯科器具案
426 保存姿勢
427 保存歯科器具
430 人
440 データ
446 追加外的容貌データ
450 データ
462 自発的動作データ
466 神経活動データ
510 システム
514 コンピュータ可読媒体
520 3Dモデル
524 歯科器具案
530 人
534 外的容貌
540 以前に取得されたスキャン容貌データ
546 外的容貌データ
550 拡張現実データ
562 自発的動作データ
564 非自発的反応データ
566 神経活動データ
610 システム
616 3D表示装置
620 3Dモデル
630 人
660 第1の入力データ
662 自発的動作データ
664 非自発的反応データ
666 神経活動データ
670 第2の入力データ
672 第2の自発的動作データ
674 第2の非自発的反応データ
676 第2の神経活動データ
690 第2の人
710 システム
716 3D表示装置
717 第2の3D表示装置
720 3Dモデル
730 人
760 第1の入力データ
762 自発的動作データ
764 非自発的反応データ
770 第2の入力データ
772 自発的動作データ
774 非自発的反応データ
790 第2の人
791 第2の3Dモデル
810 システム
816 3D表示装置
820 3Dモデル
830 人
890 第2の人
910 システム
914 コンピュータ可読メモリ
920 3Dモデル
923 モデル化外的容貌
924 歯科器具案
930 人
932 上下顎歯列弓
934 外的容貌
940 スキャン容貌データ
942 歯列弓データ
944 関係データ
946 外的容貌データ
992 口腔外光学スキャナ
993 口腔内光学スキャナ
1010 システム
1020 3Dモデル
1024 歯科器具案
1030 人
1032 上下顎歯列弓
1034 外的容貌
1034e 更新外的容貌データ
1046 外的容貌データ
1092 口腔外光学スキャナ
1110 システム
1120 3Dモデル
1123 モデル化外的容貌
1134 外的容貌
1146 追加外的容貌データ
1166 神経活動データ
1192 口腔外光学スキャナ
1210 システム
1216 3D表示装置
1220 3Dモデル
1226 保存姿勢
1230 人
1264 非自発的反応データ
1310 システム
1320 3Dモデル
1330 人
1346 追加外的容貌データ
1392 口腔外スキャナ
1397 筋活動センサ

Claims (22)

  1. 患者の人の歯科器具を設計するシステムの作動方法であって、
    前記患者の人の3Dモデルを前記システムの3D表示装置に表示するステップであって、前記3Dモデルが、
    前記患者の人の歯列弓、ならびに前記患者の人の顔および前記歯列弓の、前記歯列弓を前記顔と関係付けるための部分を含むスキャン容貌と、
    前記患者の人の歯科器具を含む拡張現実容貌とを含む、ステップと、
    前記システムのセンサで入力を検出するステップであって、前記入力が前記患者の人からの非自発的入力を含み、前記非自発的入力が神経活動入力を含み、前記センサがブレインコンピュータインターフェースを含み、および/または、前記非自発的入力が顔表情の変化を含み、前記センサが光学センサおよび/または動きセンサを含む、ステップと、
    前記システムによって、前記入力に応じて前記3Dモデル内の前記歯科器具を修正するステップと、
    前記システムによって、修正歯科器具に応じて前記3Dモデル内の前記スキャン容貌を再配置するステップと、
    前記システムによって、前記修正歯科器具および再配置スキャン容貌に応じて前記3Dモデルを更新するステップと、
    前記システムによって、更新3Dモデルを前記3D表示装置に表示するステップとを含む、システムの作動方法。
  2. 前記入力が自発的入力をさらに含む、請求項1に記載のシステムの作動方法。
  3. 前記自発的入力が、前記3D表示装置上での前記3Dモデルの容貌をつかむこと、および前記容貌を操作することを含む、ジェスチャによる入力を含む、および/または、
    前記自発的入力が、前記修正歯科器具の概念化または前記歯科器具を修正することの概念化を含む、神経活動入力を含み、前記歯科器具を修正することの概念化が、前記3D表示装置上での前記3Dモデルの容貌を手でつかみ前記容貌を操作することの概念化を含み、前記センサがブレインコンピュータインターフェースを含む、請求項2に記載のシステムの作動方法。
  4. 前記システムによって、前記非自発的入力を好み基準および前記修正歯科器具と相関させて、前記人の好みを決定するステップと、
    前記システムによって、前記修正歯科器具を、前記人の前記好みと相関させた提案歯科器具として修正するステップと、
    前記システムによって、前記提案歯科器具に応じて前記スキャン容貌を、提案スキャン容貌として再配置するステップと、
    前記システムによって、前記提案歯科器具および提案スキャン容貌に応じて前記3Dモデルを、提案3Dモデルとして更新するステップと、
    前記システムによって、前記提案3Dモデルを前記3D表示装置に表示するステップとをさらに含む、請求項2に記載のシステムの作動方法。
  5. 前記自発的入力が前記患者の人から生じる、および/または前記入力が患者以外の人から生じる、請求項〜4のいずれか一項に記載のシステムの作動方法。
  6. 前記入力が、前記スキャン容貌の少なくとも一部分を目標姿勢に制約することを含み、前記修正歯科器具が、前記目標姿勢を助長する修正機能を含む、請求項に記載のシステムの作動方法。
  7. 前記目標姿勢が選択上下顎関係を含む、請求項6に記載のシステムの作動方法。
  8. 前記容貌が前記歯科器具の歯列を含み、前記選択上下顎関係が安静位にあり、歯列が前記安静位において1から4mmの間の安静空隙を得る、または、
    前記容貌が前記歯科器具の歯列を含み、前記選択上下顎関係が選択咬合姿勢にあり、歯列が、前記選択上下顎関係において咬合を得る、または、
    前記容貌が前記歯科器具の歯列を含み、前記容貌を操作することが、前記歯列のアンギュレーションを変更することを含む、請求項7に記載のシステムの作動方法。
  9. 前記3Dモデルが保存姿勢を含み、前記保存姿勢が前記顔の選択スキャン容貌を有する、請求項1〜8のいずれか一項に記載のシステムの作動方法。
  10. 前記システムによって、前記スキャン容貌を前記保存姿勢に再配置するステップと、
    前記システムによって、前記保存姿勢および前記再配置スキャン容貌に応じて前記3Dモデルを更新して、保存姿勢3Dモデルを提供するステップと、
    前記システムによって、前記保存姿勢3Dモデルを前記3D表示装置に表示するステップとをさらに含む、請求項9に記載のシステムの作動方法。
  11. 前記スキャン容貌が、前記3Dモデルにおける前記顔のさらなる細部に関する前記顔の外的容貌データを含む、請求項1〜10のいずれか一項に記載のシステムの作動方法。
  12. 前記人がある顔表情をすることが、追加データを含むように前記3Dモデルを更新することになり、前記追加データが、前記顔表情をする前記人の外的容貌データを含む、請求項1〜11のいずれか一項に記載のシステムの作動方法。
  13. 前記システムによって、前記スキャン容貌のデータを取得するステップをさらに含む、請求項1〜12のいずれか一項に記載のシステムの作動方法。
  14. 前記スキャン容貌のデータを取得するステップが、前記システムによって、前記患者の人が前記人の安静位に対応する上下顎関係にあることを確認するステップと、前記システムによって、前記上下顎関係が前記安静位にあるときに前記顔のデータを取得するステップとを含む、請求項13に記載のシステムの作動方法。
  15. 前記患者の人が前記安静位に対応する上下顎関係にあることを確認するステップが、前記システムによって、前記人の顎筋肉活動を測定して、エネルギー使用が最小限である上下顎関係を確認するステップを含む、または、
    前記患者の人が前記安静位に対応する上下顎関係にあることを確認するステップが、前記システムによって、前記人の顎筋肉に経皮的電気神経刺激を加えるステップを含む、請求項14に記載のシステムの作動方法。
  16. 前記3Dモデルを表示するためのデータが、上下顎関係が安静位にあるときの前記顔のデータを含む、請求項1〜15のいずれか一項に記載のシステムの作動方法。
  17. 患者の人の歯科器具を設計するシステムであって、
    3Dモデルを保存するためのコンピュータ可読媒体であって、前記3Dモデルが、前記患者の人の歯列弓、ならびに前記患者の人の顔および前記歯列弓の、前記歯列弓を前記顔と関係付けるための部分を含むスキャン容貌と、前記患者の人の歯科器具を含む拡張現実容貌とを含む、コンピュータ可読媒体と、
    前記3Dモデルを表示する3D表示装置と、
    入力を検出するセンサであって、前記入力が非自発的入力を含み、前記非自発的入力が神経活動入力を含み、前記センサがブレインコンピュータインターフェースを含み、および/または、前記非自発的入力が顔表情の変化を含み、前記センサが光学センサおよび/または動きセンサを含む、センサと、
    前記3Dモデルを処理するための前記コンピュータ可読媒体、前記入力を検出する前記センサ、および前記3Dモデルを表示する前記3D表示装置と動作可能に接続されたプロセッサであって、
    前記入力に応じて前記歯科器具を修正して、修正歯科器具を提供するように、
    前記修正歯科器具に応じて前記スキャン容貌を再配置して、再配置スキャン容貌を提供するように、
    前記修正歯科器具および前記再配置スキャン容貌に応じて前記3Dモデルを更新して、更新3Dモデルを提供するように、かつ
    前記更新3Dモデルを前記3D表示装置に表示するように構成され適合されるプロセッサとを備える、システム。
  18. 前記センサが、前記3Dモデルに対するジェスチャによる入力を検出する動きセンサを含む、および/または
    前記センサが、第1の人からの入力に対する第1の入力点と、第2の人からの入力に対する第2の入力点とを備える、および/または、
    前記センサが、ジェスチャによる入力、または瞳孔拡張による入力を検出する光学センサを含む、請求項17に記載のシステム。
  19. 前記スキャン容貌のデータを取得するための前記コンピュータ可読媒体と連絡しているスキャナ、および/または前記人の顎の筋肉活動を測定する筋肉活動センサをさらに備える、請求項17または18に記載のシステム。
  20. 前記プロセッサが、前記スキャン容貌をモデル化するためのデータを前記スキャナで取得するために、前記スキャナと動作可能に通信し、
    前記筋肉活動センサが、前記筋肉活動がある選択値にあるときに、前記スキャン容貌をモデル化するためのデータを取得するように前記スキャナに指示するために前記プロセッサと連絡している、請求項19に記載のシステム。
  21. 前記選択値が安静位を表す、請求項20に記載のシステム。
  22. 請求項1〜16のいずれか一項に記載の方法を実行するために符号化された命令を有するコンピュータ可読媒体。
JP2016553583A 2014-02-21 2015-02-20 拡張現実歯科設計方法およびシステム Active JP6635929B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461942734P 2014-02-21 2014-02-21
US61/942,734 2014-02-21
US201462075665P 2014-11-05 2014-11-05
US62/075,665 2014-11-05
PCT/CA2015/000101 WO2015123759A1 (en) 2014-02-21 2015-02-20 Augmented reality dental design method and system

Publications (3)

Publication Number Publication Date
JP2017512087A JP2017512087A (ja) 2017-05-18
JP2017512087A5 JP2017512087A5 (ja) 2018-03-22
JP6635929B2 true JP6635929B2 (ja) 2020-01-29

Family

ID=53877465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016553583A Active JP6635929B2 (ja) 2014-02-21 2015-02-20 拡張現実歯科設計方法およびシステム

Country Status (8)

Country Link
US (2) US10166091B2 (ja)
EP (1) EP3107484B1 (ja)
JP (1) JP6635929B2 (ja)
KR (1) KR20160143654A (ja)
CN (1) CN106255473B (ja)
AU (1) AU2015221370A1 (ja)
CA (1) CA2940238C (ja)
WO (1) WO2015123759A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102107019B1 (ko) * 2020-02-24 2020-05-28 대구보건대학교산학협력단 치아조각 실습시스템 및 이를 이용한 치아조각 실습방법
KR102481893B1 (ko) * 2022-02-17 2022-12-27 대구보건대학교산학협력단 증강현실 기반의 치아 형태학 실습 시스템과, 및 이를 이용한 증강현실 기반의 치아 형태학 실습방법

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2979226B1 (fr) * 2011-08-31 2014-11-21 Maxime Jaisson Procede de conception d'un appareil dentaire
DE102014215103C5 (de) * 2014-07-31 2022-12-29 Sirona Dental Systems Gmbh Verfahren zur virtuellen Nachbearbeitung eines Gingivamodells
WO2016030754A1 (en) * 2014-08-29 2016-03-03 Trophy Method and apparatus for dental virtual model base
AU2015342962A1 (en) 2014-11-06 2017-06-29 Shane MATT Three dimensional imaging of the motion of teeth and jaws
US20170020636A1 (en) * 2015-04-16 2017-01-26 Hadi Akeel System and method for robotic digital scanning of teeth
DE102015222782A1 (de) * 2015-11-18 2017-05-18 Sirona Dental Systems Gmbh Verfahren zur Visualisierung einer Zahnsituation
US11284969B2 (en) * 2016-03-16 2022-03-29 Easyrx, Llc. System and method for ordering and manufacturing customized dental appliances and the tracking of orthodontic products
US10210661B2 (en) * 2016-04-25 2019-02-19 Microsoft Technology Licensing, Llc Location-based holographic experience
US20190231493A1 (en) * 2016-06-20 2019-08-01 Carestream Dental Technology Topco Limited Dental restoration assessment using virtual model
US10304190B2 (en) 2016-06-29 2019-05-28 3M Innovative Properties Company Virtual model of articulation from intra-oral scans
US10507087B2 (en) 2016-07-27 2019-12-17 Align Technology, Inc. Methods and apparatuses for forming a three-dimensional volumetric model of a subject's teeth
CN106406875B (zh) * 2016-09-09 2019-11-15 华南理工大学 基于自然手势的虚拟数字雕塑方法
US10660728B2 (en) * 2016-10-20 2020-05-26 Baliram Maraj Systems and methods for dental treatment utilizing mixed reality and deep learning
DE102016121687A1 (de) * 2016-11-11 2018-05-17 Ident-Ce Gbr Intraoralscanner und Verfahren zur digitalen Zahnabformung im zahnmedizinischen Bereich
US10467815B2 (en) * 2016-12-16 2019-11-05 Align Technology, Inc. Augmented reality planning and viewing of dental treatment outcomes
US10695150B2 (en) * 2016-12-16 2020-06-30 Align Technology, Inc. Augmented reality enhancements for intraoral scanning
FI20166026L (fi) * 2016-12-23 2018-06-24 Planmeca Oy Jäljityskappaleet leuan kovakudoksen liikkeiden jäljittämiseksi
CN108268120B (zh) * 2016-12-29 2020-07-28 同方威视技术股份有限公司 基于vr或ar的图像数据处理方法、设备和安检系统
US11024064B2 (en) * 2017-02-24 2021-06-01 Masimo Corporation Augmented reality system for displaying patient data
CN111010865B (zh) 2017-02-24 2023-07-25 梅西莫股份有限公司 用于显示医疗监测数据的系统
US10973611B2 (en) 2017-03-20 2021-04-13 Align Technology, Inc. Generating a virtual depiction of an orthodontic treatment of a patient
JP7159208B2 (ja) 2017-05-08 2022-10-24 マシモ・コーポレイション ドングルを使用することによって医療システムをネットワークコントローラとペアリングするためのシステム
IT201700064643A1 (it) * 2017-06-13 2018-12-13 Andrea Radaelli Metodo di modifica del design di un prodotto attraverso l'elaborazione di parametri biometrici e successiva realizzazione del prodotto attraverso tecnologie digitali.
JP7176723B2 (ja) * 2017-07-13 2022-11-22 雅興 西村 耳抜き補助具及びセット
KR102006610B1 (ko) * 2017-07-27 2019-08-05 키튼플래닛 주식회사 증강 현실을 이용한 양치 가이드 정보 제공 방법 및 장치
EP3684463A4 (en) 2017-09-19 2021-06-23 Neuroenhancement Lab, LLC NEURO-ACTIVATION PROCESS AND APPARATUS
US10657726B1 (en) 2017-10-02 2020-05-19 International Osseointegration Ai Research And Training Center Mixed reality system and method for determining spatial coordinates of dental instruments
US11033361B2 (en) 2017-10-19 2021-06-15 Ormco Corporation Methods for orthodontic treatment planning with augmented visual analysis
US10109114B1 (en) * 2017-11-29 2018-10-23 SmileDirectClub LLC Technologies for merging three-dimensional models of dental impressions
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
US10980613B2 (en) * 2017-12-29 2021-04-20 Align Technology, Inc. Augmented reality enhancements for dental practitioners
EP3731749A4 (en) 2017-12-31 2022-07-27 Neuroenhancement Lab, LLC NEURO-ACTIVATION SYSTEM AND METHOD FOR ENHANCING EMOTIONAL RESPONSE
DE102018100439A1 (de) * 2018-01-10 2019-07-11 Kulzer Gmbh Virtuelle 3D-Darstellung des Mundraums
CN108305689A (zh) * 2018-01-18 2018-07-20 成都贝施美医疗科技股份有限公司 牙齿修复效果生成方法及装置
WO2019147956A1 (en) * 2018-01-25 2019-08-01 Ctrl-Labs Corporation Visualization of reconstructed handstate information
KR20200115580A (ko) * 2018-01-26 2020-10-07 얼라인 테크널러지, 인크. 구강 내 진단 스캔 및 추적
US10803675B2 (en) * 2018-02-20 2020-10-13 Ivoclar Vivadent Ag Dental model attributes transfer
EP3527163B1 (en) * 2018-02-20 2020-07-08 Ivoclar Vivadent AG Computer implemented method for modifying a digital three-dimensional model of a dentition
EP3629337A1 (en) * 2018-09-28 2020-04-01 Ivoclar Vivadent AG Rendering of dental models
KR102052026B1 (ko) * 2018-03-16 2019-12-05 서울여자대학교 산학협력단 홀로그램 투영장치 및 그 방법
US20190175388A1 (en) 2018-04-17 2019-06-13 Amy Dianne Urban Mandible support device for use with a positive airflow pressure device
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
EP3572029B1 (fr) * 2018-05-22 2022-09-21 Dental Monitoring Dispositif d'analyse d'une situation dentaire
EP3572030B1 (fr) * 2018-05-22 2022-11-02 Dental Monitoring Procede d'analyse d'une situation dentaire
US11553988B2 (en) 2018-06-29 2023-01-17 Align Technology, Inc. Photo of a patient with new simulated smile in an orthodontic treatment review software
US11357576B2 (en) * 2018-07-05 2022-06-14 Dentsply Sirona Inc. Method and system for augmented reality guided surgery
CA3112564A1 (en) 2018-09-14 2020-03-19 Neuroenhancement Lab, LLC System and method of improving sleep
IT201800011117A1 (it) * 2018-12-14 2020-06-14 Marco Farronato Sistema e metodo per la visualizzazione di un sito anatomico in realta' aumentata
EP3689218B1 (en) * 2019-01-30 2023-10-18 DENTSPLY SIRONA Inc. Method and system for guiding an intra-oral scan
EP3689287B1 (en) 2019-01-30 2022-07-27 DENTSPLY SIRONA Inc. System for proposing and visualizing dental treatments
ES2886876T3 (es) * 2019-03-08 2021-12-21 Exocad Gmbh Modelado implementado por ordenador de una pieza de prótesis dental individualizada para el paciente
US11707344B2 (en) * 2019-03-29 2023-07-25 Align Technology, Inc. Segmentation quality assessment
EP3725231B1 (en) 2019-04-17 2021-07-21 Sirona Dental Systems GmbH Apparatus for real-time visualizing a movement of a lower jaw versus an upper jaw in a craniomaxillofacial area of a patient in dental diagnostics
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
CN110269715B (zh) * 2019-06-20 2020-10-30 温州医科大学附属口腔医院 一种基于ar的根管监测方法及系统
CN110705349A (zh) * 2019-08-26 2020-01-17 深圳壹账通智能科技有限公司 基于微表情的客户满意度识别方法、装置、终端及介质
CN111759506B (zh) * 2020-07-23 2021-12-07 茵伯特(上海)医疗技术有限公司 一种种植牙全数字化种植修复方法及系统
ES2903244A1 (es) * 2020-09-30 2022-03-31 Movum Tech S L Procedimiento para generacion de una cabeza y una dentadura virtuales en cuatro dimensiones
US20220168075A1 (en) * 2020-12-01 2022-06-02 Marc Lemchen Methods for Improving Intraoral Dental Scans
US20220218438A1 (en) * 2021-01-14 2022-07-14 Orthosnap Corp. Creating three-dimensional (3d) animation
US11361062B1 (en) 2021-03-02 2022-06-14 Bank Of America Corporation System and method for leveraging microexpressions of users in multi-factor authentication
US11468713B2 (en) 2021-03-02 2022-10-11 Bank Of America Corporation System and method for leveraging a time-series of microexpressions of users in customizing media presentation based on users# sentiments
EP4079258A1 (en) * 2021-04-23 2022-10-26 DENTSPLY SIRONA Inc. Dental scanning
KR20230105172A (ko) * 2022-01-03 2023-07-11 연세대학교 산학협력단 미소 및 치아 상태 인식을 위한 이미지 분석 방법 및 전자 장치
CN115120372B (zh) * 2022-05-25 2023-04-14 北京大学口腔医学院 一种三维修复体形态和位置确定方法

Family Cites Families (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4235594A (en) 1979-04-02 1980-11-25 Robert Schwartz Prefabricated bite block structure
JP3380553B2 (ja) 1992-11-09 2003-02-24 オルムコ コーポレイション 注文歯科矯正器具形成方法及び装置
JP3469268B2 (ja) 1993-03-16 2003-11-25 有限会社デンタルシンクタンク 下顎位計測・表示方法
JPH09206319A (ja) * 1996-02-02 1997-08-12 Technol Res Assoc Of Medical & Welfare Apparatus 有床義歯設計支援装置
IL120867A0 (en) 1997-05-20 1997-09-30 Cadent Ltd Computer user interface for orthodontic use
US6152731A (en) 1997-09-22 2000-11-28 3M Innovative Properties Company Methods for use in dental articulation
JPH11101935A (ja) * 1997-09-26 1999-04-13 Canon Inc 注視状態検出装置及び電子機器の制御装置
US7234937B2 (en) 1999-11-30 2007-06-26 Orametrix, Inc. Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics
EP2258303B1 (en) 2000-04-19 2013-09-18 OraMetrix, Inc. System for creating an individual three-dimensional virtual tooth model
US6302689B1 (en) 2001-03-27 2001-10-16 Louis J. Mayo Disposable impression trays for edentulous dental ridges
US8021147B2 (en) 2001-04-13 2011-09-20 Orametrix, Inc. Method and system for comprehensive evaluation of orthodontic care using unified workstation
US9421074B2 (en) 2001-04-13 2016-08-23 Orametrix, Inc. Unified three dimensional virtual craniofacial and dentition model and uses thereof
US7717708B2 (en) 2001-04-13 2010-05-18 Orametrix, Inc. Method and system for integrated orthodontic treatment planning using unified workstation
EP1449489A4 (en) * 2001-10-31 2009-03-11 Imagnosis Inc MEDICAL SIMULATION APPARATUS AND THREE-DIMENSIONAL IMAGE DISPLAY CONTROL METHOD INCLUDED IN THIS MEDICAL SIMULATION APPARATUS
JP2003135488A (ja) 2001-11-07 2003-05-13 Shiyuukai 義 歯
WO2004035011A2 (en) 2002-10-15 2004-04-29 Allergan, Inc. Botulinum toxin dental therapies and procedures
EP1603484B1 (de) 2003-03-18 2007-09-05 Dentalgeräte "Condylator", Gerber, Peter T. Dentalmedizinische vorrichtung zur registrierung der position der kiefer eines patienten in bezug auf einander mittels registrierplatten
US7474932B2 (en) 2003-10-23 2009-01-06 Technest Holdings, Inc. Dental computer-aided design (CAD) methods and systems
US20080177197A1 (en) * 2007-01-22 2008-07-24 Lee Koohyoung Method and apparatus for quantitatively evaluating mental states based on brain wave signal processing system
US7322824B2 (en) 2004-08-17 2008-01-29 Schmitt Stephen M Design and manufacture of dental implant restorations
US11428937B2 (en) * 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
KR20070061979A (ko) 2005-12-12 2007-06-15 최대균 한국인 상악 및 하악 무치악궁에 적합한 예비인상용 트레이및 이의 제작방법
US20070183572A1 (en) 2006-01-13 2007-08-09 Arielle Drummond Apparatus and method for manufacturing a mandibular advancement device
US7912257B2 (en) 2006-01-20 2011-03-22 3M Innovative Properties Company Real time display of acquired 3D dental data
US20090305185A1 (en) 2008-05-05 2009-12-10 Lauren Mark D Method Of Designing Custom Articulator Inserts Using Four-Dimensional Data
US8487962B2 (en) 2006-03-06 2013-07-16 D4D Technologies, Llc Augmented reality system for a dental laboratory
US20090287332A1 (en) 2006-07-06 2009-11-19 Prasad Adusumilli System and method for manufacturing full and partial dentures
CN100569195C (zh) 2006-09-15 2009-12-16 李晓峰 可描述牙齿咬合关系的精细个性化头颅模型的制造方法
CN101578076B (zh) 2007-01-10 2013-10-23 诺贝尔生物服务公司 用于牙设计和制备的方法和系统
GB0707454D0 (en) 2007-04-18 2007-05-23 Materialise Dental Nv Computer-assisted creation of a custom tooth set-up using facial analysis
EP2156350A1 (en) 2007-05-25 2010-02-24 Nobel Biocare Services AG Method and system for dental planning
EP2171689B1 (en) 2007-06-29 2020-06-03 Midmark Corporation Synchronized views of video data and three-dimensional model data
DE102007030768A1 (de) 2007-07-02 2009-01-08 Sirona Dental Systems Gmbh Vermessungseinrichtung und Verfahren zur 3D-Vermessung von Zahnmodellen
WO2009042888A2 (en) 2007-09-26 2009-04-02 D4D Technologies, Llc Method for producing a crown for an implant abutment
US20120088208A1 (en) 2007-10-19 2012-04-12 Cagenix Incorporated Method for Defining a Dental Framework Design Volume
JP5416132B2 (ja) 2007-12-21 2014-02-12 スリーエム イノベイティブ プロパティズ カンパニー 低減画像に基づく歯科矯正治療モニタリング
US20100323329A1 (en) * 2008-02-22 2010-12-23 Smithkline Beecham Corporation Apparatus and Method for Manufacturing Customized Dentures
JP2011517801A (ja) 2008-02-22 2011-06-16 グラクソスミスクライン・リミテッド・ライアビリティ・カンパニー 特注義歯を提供するシステムおよび方法
US8253778B2 (en) * 2008-03-21 2012-08-28 Takahashi Atsushi Three-dimensional digital magnifier operation supporting system
US8070489B2 (en) 2008-03-28 2011-12-06 Global Dental Impression Trays, Inc. Integrated modular dental measuring apparatus and method for dentures
US8092215B2 (en) 2008-05-23 2012-01-10 Align Technology, Inc. Smile designer
US8386061B2 (en) 2008-06-02 2013-02-26 Dentsply International Inc. Methods for designing a customized dental prosthesis using digital images of a patient
US8219438B1 (en) * 2008-06-30 2012-07-10 Videomining Corporation Method and system for measuring shopper response to products based on behavior and facial expression
US9408679B2 (en) 2008-07-03 2016-08-09 Align Technology, Inc. Method, apparatus and system for use in dental procedures
JP5233456B2 (ja) 2008-07-14 2013-07-10 和田精密歯研株式会社 歯冠設計方法および歯冠作製方法
KR101497761B1 (ko) * 2008-08-26 2015-03-05 앤디 보이안기우 치아용 골 임플란트, 치아용 골 임플란트를 식립하기 위한 방법 및 치아용 골 임플란트를 제조하기 위한 방법 및 시스템
EP3406222B1 (en) * 2008-11-20 2021-11-10 Align Technology, Inc. Orthodontic systems and methods including parametric attachments
JP5495415B2 (ja) 2008-12-16 2014-05-21 株式会社吉田製作所 下顎前歯部運動追尾システム、下顎前歯部運動追尾装置および顎関節雑音分析装置
CA2755555C (en) * 2009-03-20 2018-09-11 3Shape A/S System and method for effective planning, visualization, and optimization of dental restorations
JP2013519461A (ja) 2010-02-19 2013-05-30 3シェイプ アー/エス 一組の歯を構成かつ設計する方法
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
JP5859986B2 (ja) 2010-02-25 2016-02-16 3シェイプ アー/エス 動的仮想咬合器
JP2011177451A (ja) 2010-03-03 2011-09-15 Gc Corp 歯科診断システム及び歯科治療システム
US9226801B2 (en) 2010-03-08 2016-01-05 Ibur, Llc Custom linkable imaging and multifunctional tray
JP5815962B2 (ja) * 2010-03-24 2015-11-17 株式会社アドバンス 歯科用補綴物計測加工システム
DE102010036436A1 (de) 2010-03-29 2011-09-29 Degudent Gmbh Verfahren und Anordnung zum Bilden eines Dentalmodells
US8805048B2 (en) * 2010-04-01 2014-08-12 Mark Batesole Method and system for orthodontic diagnosis
US20110247214A1 (en) 2010-04-08 2011-10-13 Specialty Appliance Works, Inc. Methods for forming progressive aligners
CN103079494B (zh) 2010-06-29 2016-09-14 3形状股份有限公司 2d图像布置
JP6363341B2 (ja) 2010-07-12 2018-07-25 3シェイプ アー/エス テクスチャ的特徴を用いる物体の3dモデル化方法
US9411910B2 (en) * 2010-07-12 2016-08-09 Centre De Recherche Medico Dentaire Am Inc. Dental analysis method and system
US8643569B2 (en) 2010-07-14 2014-02-04 Zspace, Inc. Tools for use within a three dimensional scene
US9569891B2 (en) 2010-07-16 2017-02-14 Tyoterveyslaitos Method, an apparatus and an arrangement for visualizing information
WO2012010259A1 (en) 2010-07-23 2012-01-26 Nobel Biocare Services Ag Surface manipulation in dental prosthesis design
US8396744B2 (en) * 2010-08-25 2013-03-12 The Nielsen Company (Us), Llc Effective virtual reality environments for presentation of marketing materials
US8594820B2 (en) 2010-09-17 2013-11-26 Nobel Biocare Services Ag Prosthesis manipulation in dental prosthesis design
JP2012089112A (ja) * 2010-09-22 2012-05-10 Nikon Corp 画像表示装置
US8620045B2 (en) 2010-10-15 2013-12-31 Bruce William Adams System , method and article for measuring and reporting craniomandibular biomechanical functions
US20150037760A1 (en) 2010-11-03 2015-02-05 Timothy C. Thompson System and Process for Duplication of Dentures
US9402698B2 (en) 2010-11-03 2016-08-02 Global Dental Service LLC Systems and processes for forming anatomical features in dentures
US20160008108A1 (en) 2010-11-03 2016-01-14 Timothy C. Thompson System and Processes for Optimization for Dentures
US9213784B2 (en) 2010-11-03 2015-12-15 Global Dental Science Llc System and process for optimization of dentures
WO2012090211A1 (en) 2010-12-29 2012-07-05 Santiago Jeevan Kumar Augmented reality computer model facebow system for use in dentistry
US8860688B2 (en) 2011-03-02 2014-10-14 Smart Technologies Ulc 3D interactive input system and method
US20120276502A1 (en) 2011-04-29 2012-11-01 Geodigm Corporation Design and manufacture of dentures
US20130093829A1 (en) 2011-09-27 2013-04-18 Allied Minds Devices Llc Instruct-or
CA2855645C (en) * 2011-11-15 2020-06-23 Trispera Dental Inc. Method and system for acquiring data from an individual for preparing a 3d model
ES2675567T3 (es) * 2012-02-14 2018-07-11 3Shape A/S Modelado de un diseño digital de una prótesis dental
WO2014015378A1 (en) 2012-07-24 2014-01-30 Nexel Pty Ltd. A mobile computing device, application server, computer readable storage medium and system for calculating a vitality indicia, detecting an environmental hazard, vision assistance and detecting disease
ES2917382T3 (es) 2012-10-18 2022-07-08 3Shape As Sistema y procedimiento para diseñar un componente dental
US20140253432A1 (en) 2013-01-21 2014-09-11 Holly Tina Ferguson Sensor-monitored, 3d, interactive holographic freespace control unit (hfcu) and associated components
US20140247260A1 (en) 2013-03-01 2014-09-04 Indiana University Research & Technology Corporation Biomechanics Sequential Analyzer
US20160103487A1 (en) 2013-03-15 2016-04-14 Glen J. Anderson Brain computer interface (bci) system based on gathered temporal and spatial patterns of biophysical signals
CN103226658B (zh) 2013-04-16 2016-05-04 江苏物联网研究发展中心 牙齿诊断修复辅助系统
US9158889B2 (en) 2013-04-26 2015-10-13 Oral4D Systems Ltd. Electronic dental charting
US10217285B2 (en) 2013-05-30 2019-02-26 Charles Anthony Smith HUD object design and method
EP3019913A4 (en) 2013-07-10 2017-03-08 Real View Imaging Ltd. Three dimensional user interface
US9955895B2 (en) * 2013-11-05 2018-05-01 The Research Foundation For The State University Of New York Wearable head-mounted, glass-style computing devices with EOG acquisition and analysis for human-computer interfaces
US20150301733A1 (en) * 2014-04-21 2015-10-22 William Carl Acevedo Method and apparatus for providing state identification
US9763757B2 (en) * 2014-05-19 2017-09-19 National Dentex, Llc Method for creating a virtual oral-maxillofacial anatomical representation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102107019B1 (ko) * 2020-02-24 2020-05-28 대구보건대학교산학협력단 치아조각 실습시스템 및 이를 이용한 치아조각 실습방법
KR102481893B1 (ko) * 2022-02-17 2022-12-27 대구보건대학교산학협력단 증강현실 기반의 치아 형태학 실습 시스템과, 및 이를 이용한 증강현실 기반의 치아 형태학 실습방법

Also Published As

Publication number Publication date
CA2940238A1 (en) 2015-08-27
CN106255473A (zh) 2016-12-21
EP3107484A4 (en) 2017-11-15
US10912634B2 (en) 2021-02-09
CN106255473B (zh) 2020-08-07
US20190083212A1 (en) 2019-03-21
US20170065379A1 (en) 2017-03-09
EP3107484A1 (en) 2016-12-28
AU2015221370A1 (en) 2016-09-15
JP2017512087A (ja) 2017-05-18
US10166091B2 (en) 2019-01-01
EP3107484B1 (en) 2022-03-30
WO2015123759A1 (en) 2015-08-27
KR20160143654A (ko) 2016-12-14
CA2940238C (en) 2023-01-03

Similar Documents

Publication Publication Date Title
JP6635929B2 (ja) 拡張現実歯科設計方法およびシステム
US11704876B2 (en) Mobile device for viewing of dental treatment outcomes
US10265149B2 (en) Method and system for modeling the mandibular kinematics of a patient
Baker et al. Objective assessment of the contribution of dental esthetics and facial attractiveness in men via eye tracking
EP2918240B1 (en) Digital dentistry
JP6869586B2 (ja) 増強現実を用いた歯磨きガイド情報の提供方法および装置
JP5676325B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2017512087A5 (ja)
US20150302581A1 (en) Method and device for cosmetic dental analysis
Hickman et al. Eye fixations when viewing faces
KR20180126015A (ko) 얼굴 특징 스캐닝 시스템들 및 방법들
ES2933803T3 (es) Dispositivo de análisis de una situación dental
Schendel et al. Image fusion in preoperative planning
Zou et al. Changes in anteroposterior position and inclination of the maxillary incisors after surgical-orthodontic treatment of skeletal class III malocclusions
Lin et al. A novel three-dimensional smile analysis based on dynamic evaluation of facial curve contour
Prahm et al. 3D body image perception and pain visualization tool for upper limb amputees
Sakr et al. Digitized dentistry: Technology that peaked up the professionality of dental practitioners
Amirkhanov et al. Visual analytics in dental aesthetics
CN111031898A (zh) 与咬合相关的人体系统特定特征的识别和规划矫正的方法
McEntire Three-dimensional soft tissue changes upon smiling
Mohindra A Mini Review of Using the Oralift Appliance and a Pilot Study to See if 3D Imaging Techniques Could Improve Outcomes
JP2022170354A (ja) 推定装置、推定方法、および推定用プログラム
JP2022170352A (ja) 推定装置、推定方法、および推定用プログラム

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20161019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181217

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191217

R150 Certificate of patent or registration of utility model

Ref document number: 6635929

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250