JP7224361B2 - 患者の歯列の3次元モデルをカメラによって記録された患者の顔の画像に整合させるための方法 - Google Patents

患者の歯列の3次元モデルをカメラによって記録された患者の顔の画像に整合させるための方法 Download PDF

Info

Publication number
JP7224361B2
JP7224361B2 JP2020543902A JP2020543902A JP7224361B2 JP 7224361 B2 JP7224361 B2 JP 7224361B2 JP 2020543902 A JP2020543902 A JP 2020543902A JP 2020543902 A JP2020543902 A JP 2020543902A JP 7224361 B2 JP7224361 B2 JP 7224361B2
Authority
JP
Japan
Prior art keywords
image
patient
camera
dentition
rendered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020543902A
Other languages
English (en)
Other versions
JP2021514232A (ja
Inventor
マルセル ランセル,
ロラント メルツィンガー,
ニコラス デゲン,
ガボル シェレス,
バルトロビッチ ネマニャ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ivoclar Vivadent AG
Original Assignee
Ivoclar Vivadent AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ivoclar Vivadent AG filed Critical Ivoclar Vivadent AG
Publication of JP2021514232A publication Critical patent/JP2021514232A/ja
Application granted granted Critical
Publication of JP7224361B2 publication Critical patent/JP7224361B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/34Making or working of models, e.g. preliminary castings, trial dentures; Dowel pins [4]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • Dentistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Description

本発明は、患者の歯列の3次元モデルを、カメラによって記録された患者の顔の画像に整合させるためのコンピュータ実装方法に関し、画像は、口の開口部を含み、コンピュータ実装方法は、画像の記録の間に、患者の顔に対するカメラの位置付けを推定するステップと、歯列の3次元モデルデータを処理する仮想カメラを使用して、歯列の2次元画像をレンダリングするステップとを含み、仮想カメラは、カメラの推定された位置付けを使用して動作している。
患者の歯列の3次元モデルは、歯科治療または任意の他の歯科修正が計画される前の歯列の現在の状態を表す基礎として生成される歯列のデジタル3次元モデルである。したがって、歯列の3次元モデルは、カメラによって記録される口の開口部の画像内の歯列に対応する。歯列の3次元モデルは、通常、患者の口腔の走査および/または写真技術による獲得によって、もしくは印象トレーの中に化合物材料を鋳造することにおいて印象として得られる歯列の形状を走査することによって取得されている。
本発明は、歯科的拡張現実アプリケーション内で使用され、例えば、計画された歯科治療後の、定位置に歯の位置矯正デバイスを伴うまたは歯列の現在の状態の任意の他の修正を含む、歯列の現在の状態の任意の修正の結果である歯の状況をプレビューし得る。患者の歯列の修正された状態(例えば、歯科治療後)は、本願では、「歯の状況」と称される。歯科治療は、歯列の3次元モデルから開始しかつ治療後の歯の状況の修正された3次元モデルを作成するコンピュータ実装歯科治療設計ツールを使用して、計画されることができる。別の選択肢は、歯列の物理的モデルを作成することと、これを任意の歯科改変状態に修正し、次いで走査される計画された歯の状況の物理的モデルを取得することである。計画された歯の状況は、1つまたは複数の新しい歯科補綴物もしくは他の歯科修復物、または、例えば歯科ブレースの使用による歯の位置の矯正の結果としての矯正された歯の配列を含み得る。本願の意味における「歯の状況」はまた、歯の位置の矯正治療の間(位置矯正デバイス(例えば、歯科ブレースおよびリテーナ)が歯の上の定位置にあるとき)の患者の歯列の状態も含む。
歯科医および患者にとって、修正された歯の状況を伴う顔の外観の視覚的印象を得ること、すなわち、患者の顔の画像内に修正された歯の状況を可視化させることは、着目に値する。また、歯の位置矯正デバイス(例えば、歯科ブレースおよびリテーナ)を含む、歯科治療の間の外観も、そのような治療を受けることを決意する前の患者にとって、重要であり得る。この目的のために、歯科治療によって修正される歯列の仮想プレビュー(仮想モックアップ)および/またはブレース/リテーナを装着する患者のプレビューが、歯科医のために役立ち、また、最も好ましい審美的結果を得るための治療計画を相互作用的に修正する過程においても使用され得る。
この意味において、歯の状況の3次元モデルを、カメラによってとられた画像の中にオーバーレイすることが、WO第2017/085160号A2においてすでに提案されており、説明される方法では、生体認証顔基準点が、カメラによって記録された画像内で自動的に識別され、認識された顔点は、分析され、画像内の患者の頭部の配向を判定し、画像内の口の開口部の面積を識別する。3次元モデルは、次いで、これが画像内の患者の顔の判定された配向に適合するように、配向および整合され、画像の口の開口部の中にオーバーレイされる。歯の状況の2次元画像が3次元モデルから生成される方法に関する詳細は、開示されていない。実践では、この方法は、おおまかな整合を可能にするが、仮想的歯列の位置は、あまり精密かつロバストではない。
請求項1のプリアンブルの基礎を形成するUS第9,775,491号B2が、歯の状況の3次元モデルをカメラによって記録される患者の顔の画像に整合させるためのコンピュータ実装方法を開示している。この方法では、患者の口腔の3次元モデルが、取得される。この3次元モデルは、歯科修復物を適用し、かつ、歯科修復物の適用後の患者の歯列の歯の状況の3次元モデルを取得することによって、歯科医術治療計画において修正される。口の開口部を含む患者の顔の2次元画像が、取得される。次いで、患者の歯列に対する画像を記録したカメラの位置付けが、推定される。本願の文脈では、「カメラの位置付け」は、空間内の3次元位置x、y、zと、患者の顔に対するカメラの角度配向とを含んでいる。推定された位置付けを使用する仮想カメラは、2次元画像を取得するように歯の状況の3次元モデルを処理しており、仮想カメラに可視である歯の状況の3次元モデルの一部が、選択される。仮想カメラによってレンダリングされた画像は、カメラによってとられた画像の中にオーバーレイされ、表示される。カメラの位置付けを推定することは、多くの場合、実際のカメラの位置付けからの仮想カメラの位置付けのすでにあるわずかな逸脱が、カメラによって記録された画像の口の開口部内における歯列の可視化の非現実的な効果をもたらすため、可視化の満足する結果をもたらさないことが見出されている。カメラによってとられた画像内の口腔の配向からの歯の状況のレンダリングされた画像の配向のすでにあるわずかな逸脱が、合成される画像内にぎこちない審美的印象をもたらし得る。この理由のために、患者の歯列の3次元モデルを、口の開口部内の歯列の一部を示す患者の顔の画像に精密に整合させることが可能であることが、望ましくあり得、そのような整合はまた、次いで、患者の顔の画像内に正確に位置付けられた様式で歯列の3次元モデルから導出される修正された歯の状況を可視化するためにも使用され得る。
国際公開第2017/085160号 米国特許第9,775,491号明細書
患者の歯列の3次元モデルを、精密かつ信頼性のある整合を確実にするカメラによってとられた口の開口部を含む患者の顔の2次元画像に対して整合させるための方法を改良することが、本発明の目的である。
この目的は、請求項1に記載の特徴を備えるコンピュータ実装方法によって達成される。本発明の好ましい実施形態が、従属請求項に提示される。
患者の歯列の3次元モデルを患者の顔の画像に整合させるためのコンピュータ実装方法では、患者の歯列の3次元モデルが、読み出される。このモデルは、患者の口腔を走査することによって、または、印象材料で充填される印象トレーによって得られた歯列の印象を走査することによって、事前に作成されている。患者の歯列のそのような3次元モデルは、これが、例えば、義歯または他の歯科修復物を追加することによる、もしくは、例えば歯の位置の矯正による別の様式で歯の状況を修正することによるデジタル歯科治療計画を開発するための基礎を形成するときに、いずれにせよ、任意の方法によってすでに存在し得る。
歯列の3次元モデルは、次いで、仮想カメラによって、歯列の2次元画像としてレンダリングされ、仮想カメラは、患者の顔の画像を記録するときの実際のカメラの位置付けと一致すると推定される推定された位置付けを想定して動作される。
患者の顔の画像(画像は、顔全体を含む必要はなく、口の開口部の領域で十分である)およびレンダリングされた画像は、次いで、個別の画像内で縁検出ならびに/もしくは色ベースの歯の尤度判定を実施することによって、個別の画像内の口の開口部の内側の歯列面積における特徴検出を実行することによって別個に処理される。検出される特徴(縁または歯の尤度)に関して、または、検出された特徴(縁および歯の尤度)の各々に関して、これは、2つの検出された特徴画像(一方は、カメラ画像から結果として生じ、他方は、レンダリングされた画像から結果として生じる)をもたらし、これは、次いで、検出された特徴画像間の逸脱の測定値を計算するために使用される。理想的には、推定された位置付けが、顔画像を記録するときにすでにカメラの実際の位置付けと一致していた場合、検出される特徴(縁または歯の尤度パターン)が、2つの画像内で同じ位置にあり、したがって、2つの画像内に検出される特徴の逸脱が存在しないため、逸脱の測定値は、ゼロまたは非常に小さくなり得る。しかしながら、実践では、仮想カメラの推定された位置付けが使用されるときには、最初に、ある逸脱が、存在する。この理由のために、本方法は、仮想カメラの位置付けを新しい推定される位置付けに変動させ続け、新しい推定された位置を用いる仮想カメラを使用して、新しいレンダリングされる画像を生成する前述のステップを繰り返し、この新しい位置付けの逸脱の測定値を計算する。新しい推定された位置付けにおける新しい2次元画像をレンダリングし、新しくレンダリングされた画像における特徴を検出し、逸脱の測定値を計算するこれらのステップは、次いで、最適化プロセスにおいて反復的に繰り返され、逸脱測定値を最小化し、仮想カメラの最良に適合する位置付けを判定する。
患者の顔の画像を記録するときに、実際のカメラの位置付けに最良適合を与えるために仮想カメラの位置付けを最適化するためのコンピュータ実装方法において使用されるのに適した多くの反復的数値最適化アルゴリズムが、存在する。1つの選択肢は、勾配降下最適化アルゴリズムを使用することである。この分野の当業者は、そのようなプログラムされた最適化アルゴリズムに精通しているため、この点に関するさらなる詳細は、本明細書では規定されない。
また、逸脱測定値を最小化する代わりに、合致スコアと称され得る逸脱測定値の逆数が、最大化され得ることも、明らかである。「逸脱(または誤差)測定値が最小化される」かまたは「合致スコアが最大化されるか」どうかは、異なる用語を用いた同一のプロセスの呼称にすぎない。
色ベースの歯の尤度判定を用いた特徴検出は、画素の実際の色値が、歯に関して予期される予期された色範囲に適合する程度を判定することによる画像の各画素への歯の尤度値(0~1、または、0~100%)の割当である。例えば、画素の色が、歯に関して予期される確率分布のコア面積内にある場合、1の色ベースの歯の尤度値が、割り当てられ、他の色値全てに関して、割り当てられる歯の尤度が、小さくなるほど、色値は、期待値からより遠くに離れる。事実上、これは、画像内の、実際には歯に属する画素の大部分に1を割り当て、色ベースの歯の尤度の検出された特徴画像が、事実上、黒および白の歯の形状画像であり、歯に属する画素が、1または1に近接する値を有し、歯の外側の画素が、0もしくはゼロに近接する値になるように、他の全てのものに小さい値または0を割り当てる。歯の尤度はまた、分析された色空間内の歯の色確率分布内におけるその位置を判定することによって、画素の色値に直接割り当てられ得る。
好ましい実施形態では、歯列面積内での特徴検出は、画像内の唇の線の内側(視認可能な口の内側の面積の境界線)を検出することによって、かつ、検出された唇の線内の面積のみをさらに分析することによって、患者の顔の画像の口の開口部に制限される。唇の線はまた、歯列の3次元モデルからレンダリングされた2次元画像の中にオーバーレイされ、唇の線の内側の領域のみが、該特徴検出によって分析される。これは、個別の画像内の歯列の特徴のみが、仮想カメラに関する最良に適合する位置付けを見出すための最適化プロセスにおいて利用され、患者の顔のいかなる他の特徴も、利用されないことを確実にする。
好ましい実施形態では、特徴検出は、2つの画像内で、縁検出のみを実施することによって実行される。縁検出は、通常はいくつかの明確に画定された一直線の縁を有する人工物体のための画像分析方法として公知である。本発明に関連して、縁が、隣接する歯の間に、歯の切縁に、および歯肉と歯との間の境界線に存在するヒトの歯列の画像においても、縁を識別することが可能であることが見出されている。縁検出は、画像処理の分野において公知であるソーベルフィルタまたはラプラスフィルタによって実行されることができる。
好ましい実施形態では、検出された縁は、水平縁と、垂直縁とに、それらの平均方向に基づいて細分され、水平方向および垂直方向は、相互に対して垂直であり、座標系を画定する。検出された縁は、それらの平均方向が水平方向または垂直方向により近接しているかどうかに基づいて、水平縁と、垂直縁とに細分されてもよい。好ましい実施形態では、垂直縁および水平縁は、異なる加重でレンダリングされた画像内の縁からの、カメラによってとられた画像内の縁の逸脱の測定値の計算において扱われ得る。さらに、逸脱の測定値の計算において、一方の像においては水平縁に属するが他方においては垂直縁に属する画素(またはその逆もまた然り)の縁特徴は、相殺するものではなく、むしろ逸脱の測定値へのこの画素の高寄与をもたらすはずである。
純粋な縁検出方法に対する代替として、特徴検出は、縁検出および色ベースの歯の尤度判定を実施することによって、本発明の方法において実行され得、検出された縁画像の差異から、および、検出された歯の尤度画像の差異から、逸脱の組み合わせられた測定値が、計算され、これは、次いで、反復的な最小化プロセスにおいて最小化され、最良に適合する位置付けを見出す。例えば、検出された縁画像および色ベースの歯の尤度画像に関して、逸脱の2つの測定値が、最初に、別個に判定され、逸脱の単一の測定値に組み合わせられてもよい。
好ましい実施形態では、逸脱の測定値は、カメラによって記録された患者の顔の画像の検出された特徴画像と、レンダリングされた画像の検出された特徴画像との間の差異画像を形成することによって、かつ、差異画像の全ての画素にわたる差異画像の絶対値を積分することによって、計算される。検出された特徴が、個別の画像内の同一の位置にある場合、個別の検出された特徴は、理想的合致の場合では差異画像内の全ての画素の強度の絶対値の和がゼロになるように、差異画像内で相互に相殺する。
本発明は、カメラによって記録される患者の顔の画像内の、歯科治療または任意の他の歯科修正の修正による、患者の歯列の3次元モデルから典型的には取得される歯の状況の3次元モデルから2次元画像を可視化させるためのコンピュータ実装方法をさらに提供し、画像は、患者の口の開口部を含み、患者の歯列の歯の状況の3次元モデルは、本発明に従って上記に説明される方法を実施することによって、カメラによって記録される患者の顔の画像に整合される。次いで、歯の状況の2次元画像は、仮想カメラの最良に適合する位置付けを使用して、歯の状況の3次元モデルデータに仮想カメラを適用することによってレンダリングされ、レンダリングされた画像は、カメラによってとられた患者の顔の画像の中にオーバーレイされる。次いで、歯の状況のオーバーレイされたレンダリングされた2次元画像を伴う、カメラによってとられた患者の顔の結果として生じる画像が、ディスプレイ上に表示される。
好ましい実施形態では、歯の状況のレンダリングされた2次元画像をオーバーレイする前に、カメラによってとられた患者の顔の画像の唇の線内の面積が、上側歯アーチと下側歯アーチとの間の領域内の画素から生成される口腔背景によって置換される。歯の状況のレンダリングされた2次元画像のオーバーレイの前のそのような中間色背景の生成は、例えば、歯の状況のレンダリングされた2次元画像のオーバーレイ前にカメラ画像の唇の線内の領域が口腔背景によって置換されていない場合に、歯の状況が、カメラによってとられた画像内の「古い」歯が依然としてオーバーレイの後も視認可能である短くされた歯を含む場合に、重要となる。
本発明によると、上記に定義されるように、カメラによって記録される患者の顔の画像内の歯の状況の3次元モデルデータからレンダリングされた患者の歯の状況の2次元画像を可視化させるためのシステムもまた提供され、画像は、口の開口部を含み、システムは、カメラと、コンピューティングデバイスとを備え、コンピューティングデバイスは、ディスプレイと、カメラおよびディスプレイに動作可能に接続され、カメラによって記録された患者の顔の画像内の歯の状況の3次元モデルから取得される2次元画像を可視化するための方法を実行するように配列される。
本発明による方法は、個々の画像に関して実行されることができる。代替として、本方法はまた、カメラによって記録されるビデオの後続のビデオフレームに関しても実行されることができる。後者の場合では、患者は、その頭部をカメラに対して移動させ得、ビデオフレーム毎に、歯の状況のレンダリングされた2次元画像が、患者の顔の画像内に示され得る一方で、顔は、移動(回転)し、歯の状況のレンダリングされた画像が、患者の顔の画像の口の開口部内の正しい位置に画像のシーケンス内の画像毎に示される。この方法は、患者が、顔をカメラに対して顔を向け得、同時に、歯の状況のレンダリングされた画像が、口の開口部の中にオーバーレイされ、視点毎に正しい様式で位置付けられている状態で、その顔をディスプレイ上で見え得るように、リアルタイムで実行されることができる。
本方法は、タブレット型コンピュータ上で実装されることができ、タブレット型コンピュータは、例えば、通常また、患者が、タブレット型コンピュータを保持し、患者がタブレットのディスプレイ上のその顔の像に目を向け得る間、カメラが、顔を記録することを可能にし得、その顔をタブレットに対して向け、所望されるように全ての視認方向からの口の開口部内の歯の状況のレンダリングされた2次元画像を可視化し得るように、カメラを装備する。
例えば、本願は以下の項目を提供する。
(項目1)
患者の歯列の3次元モデル(6)を、カメラ(3)によって記録された前記患者の顔の画像に整合させるためのコンピュータ実装方法であって、前記画像は、口の開口部を含み、前記方法は、
前記画像の記録の間に、前記患者の顔に対する前記カメラ(3)の位置付けを推定するステップと、
前記歯列の3次元モデル(6)を処理する仮想カメラ(8)を使用して、前記歯列の2次元画像(7)をレンダリングするステップであって、前記仮想カメラ(8)は、前記カメラ(3)の前記推定された位置付けを使用して動作している、ステップと
を含み、
前記患者の前記歯列の3次元モデル(6)を読み出すステップと、
前記推定された位置付けにおける前記歯列の前記3次元モデルを処理する前記仮想カメラ(8)を使用して、前記患者の前記歯列の2次元画像(7)をレンダリングするステップと、
前記カメラ(3)によって記録された前記患者の画像(1)の前記口の開口部内の歯列面積において、および、前記レンダリングされた画像(7)において、個別の画像内で縁検出および/または色ベースの歯の尤度判定を実施することによって特徴検出を実行し、それらの各検出された特徴に関する検出された特徴画像を形成するステップと、
前記カメラ(3)によってとられた画像の検出された特徴画像と、前記レンダリングされた画像の検出された特徴画像との間の逸脱の測定値を計算するステップと、
前記仮想カメラ(8)の位置付けを新しい推定された位置付けに変動させ、最適化プロセスにおける前述の3つのステップを繰り返し、前記逸脱の測定値を最小化し、前記仮想カメラ(8)の最良に適合する位置付けを判定するステップと
をさらに含むことによって特徴付けられる、コンピュータ実装方法。
(項目2)
前記逸脱の測定値を判定する前に、前記顔の画像は、分析され、前記口の開口部を囲む唇の線を検出し、前記唇の線の内側の画素のみが、前記カメラによって記録された画像内の前記逸脱の測定値を判定するために選択され、前記唇の線はまた、前記歯列の前記3次元モデルからレンダリングされた前記2次元画像の中にオーバーレイされ、前記唇の線の内側の領域のみが、前記逸脱の測定値を判定するために使用されることを特徴とする、項目1に記載のコンピュータ実装方法。
(項目3)
特徴検出が、縁検出のみを実施することによって実行されることを特徴とする、項目1または2に記載のコンピュータ実装方法。
(項目4)
前記検出された縁は、それらの平均方向に基づいて、水平縁と、垂直縁とに細分されることを特徴とする、項目3に記載のコンピュータ実装方法。
(項目5)
特徴検出が、縁検出および色ベースの歯の尤度判定を実施することによって実行され、逸脱の組み合わせられた測定値が、前記検出された縁画像および前記検出された色ベースの歯の尤度画像から計算されることを特徴とする、項目1または2に記載のコンピュータ実装方法。
(項目6)
特徴検出が、色ベースの歯の尤度判定のみを実施することによって実行されることを特徴とする、項目1または2に記載のコンピュータ実装方法。
(項目7)
前記逸脱の測定値は、前記カメラ(3)によってとられた前記患者の顔の画像の検出された特徴画像と、前記レンダリングされた画像の検出された特徴画像との差異画像を形成することによって、かつ、前記差異画像の全ての画素にわたる前記差異画像の強度の絶対値を積分することによって、計算されることを特徴とする、前記項目のいずれかに記載のコンピュータ実装方法。
(項目8)
カメラによって記録された患者の顔の画像内の歯の状況の3次元モデルから取得される2次元画像を可視化させるためのコンピュータ実装方法であって、前記画像は、前記患者の口の開口部を含み、前記歯の状況の3次元モデルは、前記患者の歯列の3次元モデルに基づき、前記歯列の3次元モデルと比較して、歯科治療または任意の他の歯科修正に起因する修正を含み、前記方法は、
前記患者の歯列の3次元モデルを、前記項目のいずれかに記載の方法を実施することによって、前記カメラ(3)によって記録された前記患者の顔の画像に整合させるステップと、
前記仮想カメラのための前記判定された最良に適合する位置付けを使用する前記仮想カメラ(8)を使用して、前記歯の状況の3次元モデルから前記歯の状況の2次元画像(7)をレンダリングするステップと、
前記仮想カメラを使用してレンダリングされた前記歯の状況の2次元画像を、前記カメラによって記録された前記患者の顔の画像の中にオーバーレイするステップと、
前記カメラによってとられた前記患者の顔の画像を、前記歯の状況の前記オーバーレイされたレンダリングされた2次元画像とともに、ディスプレイ(2)上に表示するステップと
を含む、コンピュータ実装方法。
(項目8)
項目2に従属するとき、前記歯の状況のレンダリングされた2次元画像のオーバーレイの前に、前記唇の線内の口腔背景画像領域が、下側アーチと上側歯アーチとの間の領域内に前記口の開口部を含む画像から生成され、前記カメラによって記録された前記患者の顔の画像内の前記唇の線内の前記画像領域は、前記生成された口腔背景画像領域によって置換される、項目7に記載のコンピュータ実装方法。
(項目9)
項目2に従属するとき、前記オーバーレイするステップの前に、前記カメラによって記録された前記患者の顔の画像内で検出される前記唇の線は、前記レンダリングされた画像に伝送され、前記レンダリングされた画像の中にオーバーレイされ、前記レンダリングされた画像内の前記唇の線の外側の全ての画素が、除外され、それによって、前記口の開口部に対応する前記レンダリングされた画像の面積を切り取ることを特徴とする、項目7または8に記載のコンピュータ実装方法。
(項目10)
カメラによって記録された患者の顔の画像内の歯の状況の3次元モデルデータからレンダリングされた前記患者の前記歯の状況の2次元画像を可視化させるためのシステムであって、前記画像は、前記口の開口部を含み、前記システムは、
カメラ(3)と、
ディスプレイと、
前記カメラ(3)および前記ディスプレイに動作可能に接続され、項目7~9のいずれかに記載の方法を実行するように配列されるコンピューティングデバイス(2)と
を備える、システム。
本発明は、ここで、図面に関連して実施例を参照して説明される。
図1は、患者の口領域の画像、記録された画像の口の開口部領域の検出された縁画像ならびに仮想カメラによってレンダリングされた口領域の画像の3つの反復、レンダリングされた画像内で検出された縁、カメラによって記録された画像内で検出された縁と、レンダリングされた画像内で検出された個別の縁との差異、ならびに3つの反復に関する逸脱の対応する測定値を含む図を示す。
図2は、図1に類似する図を示し、検出された縁画像に加えて、色ベースの歯の尤度画像、カメラによって記録された画像の歯の尤度画像と、仮想カメラによってレンダリングされた画像との差異とを含む。
図3は、ディスプレイと患者の口の開口部領域を記録するためのカメラとを含むコンピューティングデバイスの図と、それから口の開口部面積内の歯の状況の2次元画像がレンダリングされた患者の歯列の3次元モデルの略図とを示す。
本発明は、ここで、最初に、概して、本発明の方法を実行するときに使用される構成要素および要素の略図を示す図3を参照して説明される。本発明は、カメラによって記録された患者の顔の画像に患者の歯列の3次元モデルを整合させるためのコンピュータ実装方法である。第1の重要な要素は、患者の歯列6の3次元モデルである。歯列のそのような3次元モデルは、患者の口腔の走査および/または写真技術による獲得によって、または、印象トレーにおける塑性材料の印象として得られる歯列の形状を走査することによって、取得されている。図3の略図では、患者の歯の状況の3次元モデルは、上顎歯列6に象徴される。
図3の略図に見られることができるように、コンピューティングデバイス2(例えば、タブレット型コンピュータ)に接続されるカメラ3が、口の開口部を含む患者の顔の画像を記録する。仮想カメラ8が、コンピューティングデバイス内で使用され、3次元モデル6に作用し、患者の歯列の2次元画像7をレンダリングし、患者の顔に対する実際のカメラ3の推定された位置が、仮想カメラ8の位置のための開始点として使用される。カメラ3の推定された位置が、顔に対する実際のカメラ3の真の位置から逸脱するため、カメラ3によって記録された画像1と、仮想カメラ8によってレンダリングされた画像7との間に、ある逸脱が、存在する。
下記により詳細に説明されるように、仮想カメラ8の位置付けは、反復的最適化プロセスにおいて変動され、反復的最適化プロセスは、一方では、カメラによって記録された画像の口の開口部内の歯列の検出された特徴と、他方では、仮想カメラによってレンダリングされた歯列の3次元モデルの画像内の検出された特徴とを利用する。個別の検出された特徴画像間の逸脱または誤差の測定値が、計算され、反復的最適化プロセスにおいて連続的に最小化され、仮想カメラの最良に適合する位置付けを判定する。仮想カメラのこの最良に適合する位置付けは、次いで、例えば計画された歯科治療によって修正されかつ本願では歯の状況の3次元モデルと称される歯列の修正された3次元モデル上で使用されることができる。このように、患者の歯列の3次元モデルから導出され、置換された義歯、歯科修復物、または矯正された歯の位置を含み得る歯の状況の3次元モデルが、ディスプレイ上に表示される患者の顔の画像の口の開口部の中に正確に位置付けられた状態で可視化されることができる。
歯列の画像内での特徴検出の実施例が、図1に図示され、縁が、歯列の個別の画像内で検出される。図1では、患者の口の開口部を含む画像が、左手側の1行目に示される。この画像では、唇の線が、検出され、唇の線の内側の領域が、手順においてさらに分析される唯一の領域である口の開口部領域として選択される。唇の線の内側の口の開口部のこの画像領域では、縁検出が、実施され、これは、図1の左手側の上部の、カメラによって記録された画像の下方のグラフィックに示される検出された縁画像をもたらす。検出された縁は、大部分が、隣接する歯の間の境界線、切縁、および、歯の基部ならびに歯肉が衝合する境界線である。図1の2列目は、上部の1列目の患者の口の開口部の画像を記録するときにカメラ3が有していた推定された位置付けにおける、患者の歯列の3次元モデルに仮想カメラを適用することによって作成されている上部のレンダリングされた画像を示す。カメラによって記録された画像内で検出された唇の線は、抽出され、レンダリングされた画像に伝送され、その中にオーバーレイされ、レンダリングされた画像内で歯列の口の開口部領域を選択する。この選択された口の開口部領域において、縁検出が、カメラによって記録された画像におけるものと同一の様式で実施され、これは、2列目の2行目に示される検出された縁画像をもたらす。
1列目と2列目との間の、2行目において検出された縁間の逸脱の測定値を判定するために、カメラによって記録された画像の検出された縁画像と、レンダリングされた画像の検出された縁画像との間の差異画像が、形成され、これは、3行目の2列目に示される。見られることができるように、検出された縁が、カメラの推定された位置付けの不正確度に起因して、2つの検出された縁画像の中に厳密に同一の様式で位置付けられないため、いくつかの逸脱が、存在する。逸脱の測定値が、差異画像から計算される。この実施例では、逸脱の測定値は、差異画像内の全ての画素の強度の絶対値を積分することによって計算される。この逸脱の測定値は、図1において誤差と呼ばれ、図1の最下行内の棒グラフの通りである。
数値最適化プロセスが、ここで、第1の反復において、仮想カメラの位置付けを新しい推定される位置付けに変動させる。次いで、新しい推定された位置付けを使用して歯列の3次元モデルから対応する画像をレンダリングし、レンダリングされた画像内の縁検出をし、カメラによって記録された画像内で検出された縁と、第1の反復のレンダリングされた画像内で検出された縁との間の差異画像を形成するプロセスが、図1の3列目に図示されるように繰り返される。3行目に見られることができるように、カメラによってとられた画像の検出された縁画像と、レンダリングされた画像との間の差異画像は、個別の画像内の検出された縁が、すでにより良好な一致状態にあるため、低減された強度を示す。この概略図は、非常に単純化されており、実際には、はるかにより多数の反復を要することに留意されたく、例えば、勾配降下最適化アルゴリズムが使用される場合、位置付け変数は、当分野において周知であるように、すでに多くの反復を要求する勾配を数値的に判定するように変動される。
図1では、第2の反復例が、最後の列に示されている。3行目における差異画像では、積分された強度がさらに低減され、これは、推定された初期位置における誤差と比較して、逸脱の測定値も、同様に、低減され、最下行に示されているように、すでに大幅により小さくなっていることを意味する。この数値最適化プロセスは、さらなる反復がさらに、逸脱の測定値を所与または所定の計算の正確度の範囲内に低減しないように繰り返される。最小化された逸脱の測定値に対応する仮想カメラの位置付けは、仮想カメラの最良に適合する位置付けとして記憶される。
図2は、患者の口の開口部を含む実際の画像を記録したカメラの位置付けに適合するように仮想カメラの位置付けを最適化する反復的な最適化プロセスに関するさらなる図である。上の3行は、図1に示されるような、カメラによって記録された画像内、および反復的にレンダリングされた画像内の検出された縁間の同一の縁検出画像および差異画像を示す。加えて、4行目は、唇の線内の口の開口部における、個別の画像内での色ベースの歯の尤度判定の結果を示す。この色ベースの歯の尤度判定では、各画素の色値に関して、それが歯の表面要素に属する確率が、判定される。例えば、予期される歯の色値に関する正規化された確率密度関数が、利用可能である場合、この確率は、確率分布内の色値の場所から直接得られることができる。このように、歯の色は、歯肉および口腔の背景の色と区別される。結果として、画像内で視認可能な歯は、画像内に灰色の要素を殆ど伴わない黒色または主に黒色の物体のままである。5行目には、カメラによって記録された画像の検出された色ベースの歯の尤度画像と、レンダリングされた画像の検出された色ベースの歯の尤度画像との間の差異画像が、示されている。また、色ベースの歯の尤度画像間の差異は、最適化プロセスの連続する反復例において、顕著ではなくなってきている。逸脱の測定値は、次いで、例えば、上記に説明されるように、差異画像の全ての画素にわたる強度の絶対値を積分することによって、検出された縁の差異からの第1の逸脱の測定値として形成されることができる。同一の手順が、第2の逸脱の測定値に関する色ベースの歯の尤度画像の差異画像に適用されることができ、第1の逸脱の測定値および第2の逸脱の測定値は、次いで、図2の最終行において誤差と呼ばれる単一の逸脱の測定値に組み合わせられ得る。
このように、患者の顔の画像を記録するときのカメラ3の位置付けは、患者の歯列の3次元モデルをレンダリングする仮想カメラの対応する位置付けによって概算され、最適な整合に到達することができる。仮想カメラの最良に適合する位置付けは、次いで、さらなるステップにおいて使用されることができる。患者の歯列の現在のステータスを表す歯列の3次元モデルから開始し、歯の状況の3次元モデルと異なる歯の状況の修正された3次元モデルが、例えば、潜在的な歯科治療の結果を反映させるために、使用されることができる。潜在的な歯科治療を含めた後の歯の状況の3次元モデルは、例えば、個別の原歯に取って代わる1つまたは複数の義歯、または、任意の他の歯科修復物を有し得る。歯の状況のさらなる実施例は、歯科ブレースを使用する歯の位置付けの矯正治療後の、結果として生じる矯正された歯列であってもよい。歯の状況のさらなる実施例は、原歯列に基づき得るが、歯列の歯の定位置にある歯位置矯正デバイス(例えば、歯科ブレースおよびリテーナ)を含んでもよい。歯科治療による任意の修正前の原状態を示す歯の状況の3次元モデルは、本発明に関連するさらなる使用のために保たれる一方で、治療後の歯の状況の修正された3次元モデルは、さらなる使用のために別個に保たれる。修正された3次元モデルは、患者に関する歯の状況の3次元モデルと称される。仮想カメラは、次いで、カメラの以前に判定された最良に適合する位置付けを使用して、歯の状況のこの3次元モデルに適用され、歯の状況の画像をレンダリングしてもよい。このレンダリングされた画像は、カメラによってとられた画像の口の開口部領域の中に挿入またはオーバーレイされ、歯の状況の可視化を提供し得る。
以下において、逸脱の測定値Eが、検出された縁画像の差異画像から、差異画像内に留まる強度の積分された絶対値として計算され得る方法の実施例が、与えられる。
Figure 0007224361000001
E:誤差(逸脱の測定値)
i:ピクセル
n:ピクセル数
e(X):画像Xの縁画像
P:カメラによって記録された画像
R:レンダリングされた画像
水平縁および垂直縁以外に、改良された逸脱の測定値を考慮して、色ベースの歯の尤度値が、以下のように計算されることができる。
Figure 0007224361000002
式中、
w:加重
(X):画像X(PまたはR)の水平縁画像
(X):画像X(PまたはR)の垂直縁画像
t(X):画像Xの歯の尤度画像。これは色区画化に基づき得る。
X=P(カメラによって記録される画像);X=R(レンダリングされた画像)
歯の尤度画像が、単純化された様式で、図2の4行目に図示されている。

Claims (7)

  1. 後続の画像のビデオシーケンス内のカメラによって記録された患者の顔の画像の中オーバーレイされた2次元画像を可視化するためのコンピュータ実装方法であって、画像は、前記患者の口の開口部を含み、前記2次元画像は、歯の状況の3次元モデルからレンダリングされ、前記歯の状況の3次元モデルは、前記患者の歯列の3次元モデルに基づき、前記歯列の3次元モデルと比較して、歯科治療または任意の他の歯科修正に起因する修正を含み、前記方法は、前記ビデオシーケンスの各画像に対して、
    前記カメラ(3)によって記録された前記患者の顔の画像に前記患者の歯列の3次元モデルを整合させるステップであって、前記カメラ(3)によって記録された前記患者の顔の画像に前記患者の歯列の3次元モデルを整合させるステップは、
    (a)前記画像を記録する間に、前記患者の顔に対する前記カメラ(3)の位置付けを推定するステップと、
    (b)前記患者の前記歯列の3次元モデル(6)を読み出すステップと、
    (c)前記推定された位置付けにおける前記歯列の前記3次元モデルを処理する仮想カメラ(8)を使用して、前記患者の前記歯列の2次元画像(7)をレンダリングするステップと、
    (d)個別の画像内で縁検出および/または色ベースの歯の尤度判定を実行することによって、前記カメラ(3)によって記録された前記患者の画像(1)の前記口の開口部内の歯列面積において、および、前記レンダリングされた画像(7)において、特徴検出を実行し、前記検出された特徴に対して検出された特徴画像を形成するステップと、
    (e)前記顔の画像を分析することにより、前記口の開口部を囲む唇の線を検出するステップであって、前記唇の線の内側の画素のみが前記カメラによって記録された画像内の前記逸脱の測定値を決定するために選択され、前記唇の線は、前記歯列の3次元モデルからレンダリングされた前記2次元画像の中にオーバーレイされ、前記唇の線の内側の領域のみが前記逸脱の測定値を決定するために使用される、ステップと、
    (f)前記カメラ(3)によってとられた画像の検出された特徴画像と前記レンダリングされた画像の検出された特徴画像との間の逸脱の測定値を計算するステップと、
    (g)前記仮想カメラ(8)の位置付けを新しい推定された位置付けに変動させ、最適化プロセスにいて前記ステップ(c)~(f)を繰り返すことにより、前記逸脱の測定値を最小化することにより、前記仮想カメラ(8)の最も良く適合する位置付けを決定するステップと
    実行することによって行われる、ステップと、
    前記仮想カメラのための前記決定された最も良く適合する位置付けを使用する前記仮想カメラ(8)を使用して、前記歯の状況の3次元モデルから前記歯の状況の2次元画像(7)をレンダリングするステップと、
    前記仮想カメラを使用してレンダリングされた前記歯の状況の2次元画像前記カメラによって記録された前記患者の顔の画像の中にオーバーレイするステップと、
    前記カメラによってとられた前記患者の顔の画像を、前記歯の状況の前記オーバーレイされたレンダリングされた2次元画像とともに、ディスプレイ(2)上に表示するステップと
    を含み、
    前記歯の状況のレンダリングされた2次元画像をオーバーレイする前に、
    前記唇の線内の口腔背景画像領域が、下側アーチと上側歯アーチとの間の領域内に前記口の開口部を含む画像から生成され、前記カメラによって記録された前記患者の顔の画像内の前記唇の線内の画像領域は、前記生成された口腔背景画像領域によって置換され、
    前記カメラによって記録された前記患者の顔の画像内で検出される前記唇の線は、前記レンダリングされた画像に伝送され、前記レンダリングされた画像の中にオーバーレイされ、前記レンダリングされた画像内の前記唇の線の外側の全ての画素が除外され、これにより、前記口の開口部に対応する前記レンダリングされた画像の面積を切り取る、コンピュータ実装方法。
  2. 検出のみを実行することによって特徴検出が実行されることを特徴とする、請求項に記載のコンピュータ実装方法。
  3. 前記検出された縁は、各細分において検出された縁の平均方向が水平方向または垂直方向のいずれに近いかに基づいて、逸脱の測定値を計算するために、水平縁垂直縁とに細分されることを特徴とする、請求項に記載のコンピュータ実装方法。
  4. 検出および色ベースの歯の尤度判定を実行することによって特徴検出が実行され、逸脱の組み合わせられた測定値が、前記検出された縁画像および前記検出された色ベースの歯の尤度画像から計算されることを特徴とする、請求項に記載のコンピュータ実装方法。
  5. ベースの歯の尤度判定のみを実行することによって特徴検出が実行されることを特徴とする、請求項に記載のコンピュータ実装方法。
  6. 前記逸脱の測定値は、前記カメラ(3)によってとられた前記患者の顔の画像の検出された特徴画像前記レンダリングされた画像の検出された特徴画像との差異画像を形成することによって、かつ、前記差異画像の全ての画素にわたる前記差異画像の強度の絶対値を積分することによって、計算されることを特徴とする、請求項1~5のいずれか一項に記載のコンピュータ実装方法。
  7. 後続の画像のビデオシーケンス内のカメラによって記録された患者の顔の画像の中オーバーレイされた前記患者の前記歯の状況の2次元画像を可視化するためのシステムであって、画像は、前記口の開口部を含み、前記2次元画像は、歯の状況の3次元モデルデータからレンダリングされ、前記システムは、
    カメラ(3)と、
    ディスプレイと、
    前記カメラ(3)および前記ディスプレイに動作可能に接続されているコンピューティングデバイス(2)であって、請求項に記載の方法を実行するように構成されているコンピューティングデバイス(2)と
    を備える、システム。
JP2020543902A 2018-02-21 2019-02-13 患者の歯列の3次元モデルをカメラによって記録された患者の顔の画像に整合させるための方法 Active JP7224361B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18157809.7A EP3530232B1 (en) 2018-02-21 2018-02-21 Method for aligning a three-dimensional model of a dentition of a patient to an image of the face of the patient recorded by a camera
EP18157809.7 2018-02-21
PCT/EP2019/053557 WO2019162164A1 (en) 2018-02-21 2019-02-13 Method for aligning a three-dimensional model of a dentition of a patient to an image of the face of the patient

Publications (2)

Publication Number Publication Date
JP2021514232A JP2021514232A (ja) 2021-06-10
JP7224361B2 true JP7224361B2 (ja) 2023-02-17

Family

ID=61256655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020543902A Active JP7224361B2 (ja) 2018-02-21 2019-02-13 患者の歯列の3次元モデルをカメラによって記録された患者の顔の画像に整合させるための方法

Country Status (8)

Country Link
US (1) US11544861B2 (ja)
EP (1) EP3530232B1 (ja)
JP (1) JP7224361B2 (ja)
CN (1) CN111727022B (ja)
CA (1) CA3091942A1 (ja)
DK (1) DK3530232T3 (ja)
ES (1) ES2882585T3 (ja)
WO (1) WO2019162164A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201802402D0 (en) * 2018-02-14 2018-03-28 Littlejohn Alexander Apparatus and method for prosthodontics
EP4103103B1 (en) * 2020-02-11 2024-02-14 Align Technology, Inc. At home progress tracking using phone camera
CN111931843A (zh) * 2020-08-10 2020-11-13 深圳爱舒笑科技有限公司 一种基于图像处理的监控牙齿位置的方法
EP3984495B1 (de) * 2020-10-13 2024-08-21 Ivoclar Vivadent AG Verfahren zum gestalten einer dentalen restauration
CN112807108B (zh) * 2021-01-27 2022-03-01 清华大学 一种正畸矫治过程中的牙齿矫治状态的检测方法
US20220248957A1 (en) * 2021-02-05 2022-08-11 Abdullalbrahim ABDULWAHEED Remote Patient Medical Evaluation Systems and Methods
EP4080454B1 (en) * 2021-04-23 2024-08-07 Ivoclar Vivadent AG Method for exporting a three-dimensional esthetic dental design model from an augmented reality application to a computer-aided design application
US11633260B1 (en) 2022-06-03 2023-04-25 Sdc U.S. Smilepay Spv Positioning individual three-dimensional model teeth based on two-dimensional images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183471A (ja) 2009-02-09 2010-08-19 Skyworkers:Kk 印刷物の画像識別方法および装置
JP2013531531A (ja) 2010-06-29 2013-08-08 3シェイプ アー/エス 2d画像配置
US20140379356A1 (en) 2013-06-20 2014-12-25 Rohit Sachdeva Method and system for integrated orthodontic treatment planning using unified workstation
US20170049311A1 (en) 2015-08-20 2017-02-23 Align Technology Inc. Photograph-based assessment of dental treatments and procedures

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070242066A1 (en) * 2006-04-14 2007-10-18 Patrick Levy Rosenthal Virtual video camera device with three-dimensional tracking and virtual object insertion
US9775491B2 (en) 2013-03-08 2017-10-03 3Shape A/S Visualising a 3D dental restoration on a 2D image
EP3229723B1 (en) * 2014-12-09 2020-12-09 Biomet 3I, LLC Robotic device for dental surgery
DE102015222782A1 (de) 2015-11-18 2017-05-18 Sirona Dental Systems Gmbh Verfahren zur Visualisierung einer Zahnsituation
CN105581851A (zh) * 2016-02-29 2016-05-18 深圳市古安泰自动化技术有限公司 可视化洗牙器
CN105919684A (zh) * 2016-05-27 2016-09-07 穆檬檬 一种建立三维牙颌融合模型的方法
CN107139456B (zh) * 2017-05-17 2019-08-20 上海联泰科技股份有限公司 三维物体数据的分层方法、3d打印方法及设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183471A (ja) 2009-02-09 2010-08-19 Skyworkers:Kk 印刷物の画像識別方法および装置
JP2013531531A (ja) 2010-06-29 2013-08-08 3シェイプ アー/エス 2d画像配置
US20140379356A1 (en) 2013-06-20 2014-12-25 Rohit Sachdeva Method and system for integrated orthodontic treatment planning using unified workstation
US20170049311A1 (en) 2015-08-20 2017-02-23 Align Technology Inc. Photograph-based assessment of dental treatments and procedures

Also Published As

Publication number Publication date
WO2019162164A1 (en) 2019-08-29
ES2882585T3 (es) 2021-12-02
US11544861B2 (en) 2023-01-03
CA3091942A1 (en) 2019-08-29
DK3530232T3 (da) 2021-08-02
US20210366136A1 (en) 2021-11-25
EP3530232A1 (en) 2019-08-28
EP3530232B1 (en) 2021-04-28
CN111727022A (zh) 2020-09-29
CN111727022B (zh) 2022-07-15
JP2021514232A (ja) 2021-06-10

Similar Documents

Publication Publication Date Title
JP7224361B2 (ja) 患者の歯列の3次元モデルをカメラによって記録された患者の顔の画像に整合させるための方法
JP7386215B2 (ja) 歯列メッシュ矯正具除去のための方法および装置
JP7289026B2 (ja) ハイブリッドメッシュセグメンテーションのための方法及び装置
US10980621B2 (en) Dental design transfer
CN109414306B (zh) 用于口内扫描的历史扫描参考
CN107427189B (zh) 口内图像的自动选择和锁定
KR101799878B1 (ko) 2d 영상 장치
US8532355B2 (en) Lighting compensated dynamic texture mapping of 3-D models
EP3593755B1 (en) Computer program product for planning, visualization and optimization of dental restorations
WO2019215550A1 (en) Simulated orthodontic treatment via augmented visualization in real-time
JP2010524529A (ja) 顔面解析を用いた特注歯セットアップのコンピュータ支援作成
EP3629336A1 (en) Dental design transfer
CN113039587B (zh) 使用口内扫描仪获取3d数据的混合方法
CN112017280A (zh) 一种生成具有颜色纹理信息的数字化牙齿模型的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230207

R150 Certificate of patent or registration of utility model

Ref document number: 7224361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150