JP2023505396A - 上顎歯と顔面骨格との間の空間関係を決定する技術 - Google Patents

上顎歯と顔面骨格との間の空間関係を決定する技術 Download PDF

Info

Publication number
JP2023505396A
JP2023505396A JP2022560416A JP2022560416A JP2023505396A JP 2023505396 A JP2023505396 A JP 2023505396A JP 2022560416 A JP2022560416 A JP 2022560416A JP 2022560416 A JP2022560416 A JP 2022560416A JP 2023505396 A JP2023505396 A JP 2023505396A
Authority
JP
Japan
Prior art keywords
image
patient
marker
model
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022560416A
Other languages
English (en)
Inventor
ジョン ウッド、デイビッド
アネス オスネス、セシリー
ジェームズ キーリング、アンドリュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mimetrik Solutions Ltd
Original Assignee
Mimetrik Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mimetrik Solutions Ltd filed Critical Mimetrik Solutions Ltd
Publication of JP2023505396A publication Critical patent/JP2023505396A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/34Making or working of models, e.g. preliminary castings, trial dentures; Dowel pins [4]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/0006Impression trays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20124Active shape model [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20204Removing film grain; Adding simulated film grain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Image Processing (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Image Analysis (AREA)
  • Dental Prosthetics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

コンピュータで実施される方法は、患者(P)の上顎歯(U1)を代表する3Dモデルを受け取る工程と、患者(P)の顔の複数の画像を受け取る工程とを備えている。この方法はまた、受け取った複数の画像に基づき患者の顔モデル(200)を生成する工程と、決定された顔モデル(200)と、受け取った上顎歯(U1)の3Dモデルと、複数の画像とに基づき、患者(P)の上顎歯(U1)と患者(P)の顔面骨格との間の空間関係を決定する工程と、を備えている。

Description

本発明は、上顎歯(アッパーティース)と顔面骨格(フェイシャルスケルトン)との間の空間関係(スペーシアルリレーションシップ)を決定するコンピュータ実装方法、および上顎歯と顔面骨格との間の空間関係を決定するシステムに関する。
歯科治療において、上顎歯(上歯)と頭蓋骨との間の関係を記録することはしばしば重要である。歯の外観や機能などの因子は、上顎歯と頭蓋骨との間の関係によって、特に上顎歯と顔面骨格との間の関係によって、影響されることがある。例えば、歯と頭蓋骨との間のアライメント(位置合わせ。位置関係)が考慮されていないと、歯自体はまっすぐでも、アイラインに対して魅力的ではないアライメントを示してしまうことがある。このような問題は、歯の摩耗が激しい患者の場合、さらに深刻になる虞れがある。上顎歯を頭蓋骨に関連付けることで、歯科補綴物を製作する際に、咬合平面、正中線、および咬合面垂直寸法が顔貌に調和することを保証することができる。
Hartley, R. and Zisserman, A., 2003.Multiple view geometry incomputer vision. Cambridge university press Wu,Yue,およびQiang Ji.「Facial Landmark Detection: A Literature Survey」.インターナショナル・ジャーナル・オブ・コンピュータ・ビジョン、 127.2(2018):115-142 Fischler, M.A. and Bolles, R.C.,1981、Random sampleconsensus: a paradigm for modelfitting with applications to image analysis and automatedcartography(ランダムサンプルコンセンサス:モデルフィッティングのためのパラダイム、画像解析と自動地図作成への応用)、Communicationsof the ACM, 24(6), pp.381-395
従来では、フェイスボウ(facebow)やイヤボウ(earbow)を使用することで上顎歯と頭蓋骨との間の関係をキャプチャ(把握)することで、当該関係は、上顎歯および下顎歯(下歯)のストーンモデル(石造模型)を取り付けた歯科咬合器に転送されていた。しかし、ほとんどの歯科医師養成プログラムの要素であるにも関わらず、フェイスボウは複雑で高価であるとともに、誤差が生じやすいので、一般歯科ではほとんど使用されていない。
本開示の目的は、上記の困難、および本明細書の説明に対して当業者に明らかである他の困難を克服することにある。本開示の更なる目的は、上顎歯と顔面骨格との間の関係を決定(判定)するための費用対効果の高い正確な手段を提供することにある。
本発明によれば、添付の特許請求の範囲に規定されるような装置および方法が提供される。本発明の他の特徴は、従属請求項、および以下に続く説明から明らかになるであろう。
本開示の第1態様によれば、以下を備えているコンピュータ実装の方法が提供される。
患者の上顎歯を代表する3Dモデル(三次元模型)を受け取る工程と、
患者の顔の複数の画像(イメージ)を受け取る工程と、
受け取られた複数の画像に基づき、患者の顔モデル(フェイシャルモデル。顔面模型)を生成する工程と、
決定された顔モデル、上顎歯を代表する受け取られた3Dモデル、および複数の画像に基づき、患者の上顎歯と患者の顔面骨格との間の空間関係(スペーシアルリレーションシップ)を決定する工程と。
上顎歯と顔面骨格との間の空間関係を決定する工程は、顔モデルに対するカメラ姿勢(カメラポーズ)を決定する工程と、上顎歯を代表する3Dモデルに対する画像の最適アライメント(最適位置合わせ)をカメラ姿勢に基づき決定する工程と、を備えていることができる。
最適アライメントを決定する工程は、画像の各々について、画像がキャプチャ(撮影)されたカメラ姿勢(カメラポーズ)と、患者の上顎歯を代表する3Dモデルと顔モデルとの間の推定空間関係とに基づき、3Dシーンをレンダリング(レンダー)する工程と、カメラ姿勢に基づき、レンダリングされた3Dシーンから2D(二次元)レンダリングを抽出する(取り出す)工程と、2Dレンダリングを画像と比較することで、2Dレンダリングと画像との間の差異のレベルを示すコストスコアを決定する工程と、を備えてもよい。最適アライメントを決定する工程は、最適化器(オプティマイザ)を、好ましくは非線形最適化器を用いることで、複数の画像に亘って最適アライメントを反復して得る工程を備えてもよい。
コストスコアは、レンダリングと画像との間で計算される相互情報スコアを備えて構成されてもよい。コストスコアは、レンダリングと画像とから抽出された対応する画像特徴同士の類似度スコア(類似性スコア。シミラリティスコア)を備えて構成されてもよい。画像特徴は、コーナー特徴であってもよい。画像特徴は、エッジであってもよい。画像特徴は、画像勾配特徴であってもよい。類似度スコアは、ユークリッド距離、ランダムサンプリング、または1対1(ワンツーワンネス)のうちの1つであってもよい。相互情報スコアを計算する前に、レンダリングと2D画像は前処理されてもよい。レンダリングと2D画像に、畳み込み(コンボリューション)やフィルタを適用してもよい。
コストスコアは、2Dレンダリングと2D画像との間の最接近一致スコア(クローゼストマッチ得点)を備えて構成されてもよい。最接近一致スコアは、2Dレンダリングからの2D特徴と、2D画像からの2D特徴と、の比較に基づいてもよい。
コストスコアは、レンダリングされた3Dシーンから、2D画像特徴を抽出する工程と、抽出された特徴を、レンダリングされた3Dシーンに再投影する工程と、2D画像から画像特徴を抽出する工程と、2D画像から抽出された特徴を、レンダリングされた3Dシーンに再投影する工程と、3D空間において再投影された特徴同士間の差を示す類似度尺度(シミラリティメジャー。類似性測定値)を計算する工程と、によって計算される2D-3D-2D-2Dコスト(2d-3d-2d-2dコスト)を備えてもよい。
コストスコアは、複数の2D画像の連続する画像同士間の画素(ピクセル)を追跡することで計算されるオプティカルフローコストを備えてもよい。オプティカルフローコストは、密なオプティカルフローに基づくものであってもよい。追跡された画素は、オクルードされ(隠され)ていると判定された画素を除外してもよい。
コストスコアを決定する工程は、異なる抽出された特徴および/または類似度尺度(シミラリティメジャー)に基づき、複数の異なるコストスコアを決定する工程を備えてもよい。最適化器による各反復で用いられるコストスコアは、異なってもよい。コストスコアは、コストスコアの第1選択と、コストスコアの第2選択とを交互に繰り返してもよい。第1選択および第2選択のうちの一方は2D-3D-2D-2Dコストを備えており、他方は備えていない。
顔モデルは、3Dモーファブルメッシュであってもよい。顔モデルを生成する工程は、画像から複数の顔ランドマークを検出する工程と、3Dモーファブルメッシュを顔ランドマークにフィッティング(適合)させる工程と、を備えてもよい。患者の口に対応する位置には、3Dモーファブルメッシュの穴があってもよい。この穴は、画像のセグメンテーションと、上顎歯との識別とを支援することができる。
複数の画像は、患者の上顎歯のうちの少なくとも一部を備えていてもよい。上顎歯を代表する3Dモデルは、上顎歯の3Dモデルであってもよい。
複数の画像は、マーカーのうちの少なくとも一部を備えていてもよい。マーカーは、印象トレイに結合されてもよい。印象トレイは、患者の口の中(口腔内)に配置されてもよい。マーカーは、患者の口の外側(口腔外)に配置されてもよい。印象トレイは、上顎歯の印象(インプレッション)をキャプチャするべく使用されてもよい。上顎歯を代表する3Dモデルは、印象トレイの3Dモデルであってもよい。印象トレイの3Dモデルは、マーカーを備えてもよい。印象トレイの3Dモデルは、マーカーを備えなくてもよく、歯と顔面骨格との間の空間関係は、マーカーと印象トレイとの間の所定の(プレデターミンド。予め定められた)空間関係に基づき決定されてもよい。印象トレイの更なる任意の特徴は、第5態様を参照して以下に定義されるとともに、任意の組み合わせで第1態様と組み合わされてもよい。
複数の画像は、第1画像セットと第2画像セットとを備えて構成されてもよい。第1画像セットは、顔の3Dモデルを生成するべく使用されてもよい。第2画像セットの画像はそれぞれ、患者Pの上顎歯のうちの少なくとも一部を備えているとともに、上顎歯と顔面骨格との間の空間関係を決定するべく用いられてもよい。第2画像セットの画像はそれぞれ、マーカーのうちの少なくとも一部を備えているとともに、上顎歯と顔面骨格との間の空間関係を決定するべく用いられてもよい。
複数の画像のうちの画像のカメラ姿勢(カメラポーズ)を決定する工程は、画像に示される表情(エクスプレッション)に一致(マッチ)するように3Dモーファブルメッシュをモーフィングする工程と、モーフィングされた3Dモーファブルメッシュに基づきカメラ姿勢を決定する工程と、を備えていてもよい。画像および/または2Dレンダリングは、表情フィッティング顔モデルを用いてマスキングされてもよい。
本開示の第2態様によれば、プロセッサとメモリとを備えているシステムが提供される。メモリは、プロセッサによって実行されると本明細書に規定される方法のうちのいずれかをシステムに実行させる命令を格納(記憶)する。
本開示の第3態様によれば、コンピュータデバイスによって実行されるとコンピュータデバイスを本明細書に規定されるように構成させるか、および/またはコンピュータデバイスに本明細書に規定される方法のうちのいずれかを実行させる、命令をその上に記録した有形で非一時的な(非一過性の)コンピュータ可読記憶媒体が提供される。
本開示の第4態様によれば、プログラムがコンピュータによって実行されるときにコンピュータに本明細書に記載の方法のうちのいずれかを実行させる命令を備えている、コンピュータプログラム製品が提供される。
本開示の第5態様によれば、以下を備えている歯科印象トレイが提供される。
印象材(インプレッションマテリアル)を保持するように構成された本体と、および
前記本体に結合されているマーカー部(マーカーポーション)であって、前記本体が前記患者の口の中に受け入れられたときにマーカー部は前記患者の口の外に配置されるように構成されており、前記マーカー部はマーカーを備えている、マーカー部と、を歯科印象トレイは備えている。
歯科印象トレイは、修復歯科学および/または歯列矯正歯科学での使用に適していてもよい。本体は、修復歯科で使用するための印象をキャプチャするべく十分な量の印象材を保持する大きさの凹部を備えていてもよい。歯科印象トレイは、フルアーチ印象をキャプチャするように構成されてもよい。歯科印象トレイは、片側(シングルサイデッド)であってもよい。歯科印象トレイは、患者の歯の、好ましくは上顎歯の、単一アーチの印象をキャプチャするように構成されてもよい。
歯科印象トレイは、本体から延びるハンドルを備えてもよい。マーカー部は、ハンドル上に配置されている。マーカー部は、ハンドルの遠位端に配置されてもよい。
マーカー部(マーカーポーション)は、複数のマーカーセクションを備えていてもよい。各マーカーセクションは、マーカーを備えている。マーカー部は、ハンドルの反対側面同士から横方向に延びる一対のマーカーセクションを備えて構成されてもよい。
マーカー部は、マーカーが形成された平面部を備えて構成されてもよい。平面部は、本体が患者の口内に配置されたときに、実質的な垂直平面(実質的に垂直な平面)内に配置されてもよい。
マーカー部は、好適にはマーカー部を備えているハンドルは、本体に対して着脱可能であってもよい。マーカー部は、好適にはマーカー部を備えているハンドルは、本体との一体的に形成されていてもよい。
マーカーは、視覚的に特徴的な模様(ディスティンクティブパターン)を備えて構成されていてもよい。
本開示の第6態様によれば、歯科印象トレイのためのマーカーハンドルが提供される。前記ハンドルは以下を備えている。
歯科印象トレイの本体に取り付けられるように構成された取付部と、および
本体が患者の口の中に受け入れられたときに患者の口の外に配置されるように構成されたマーカー部であって、マーカー部はマーカーを備えている、マーカー部と。
マーカーハンドルの更なる好ましい特徴は、第5態様に関連して上記で定義されるとともに、任意の組み合わせで組み合わせることができる。
本発明をより良く理解するべく、そして同じものの例がどのように実施され得るかを示すために、次に、例としてのみ、添付の概略図面を参照することにする。
患者の上顎歯と顔面骨格との間の空間関係を決定する、第1例示的な方法の概略フローチャート。 患者の2D画像をキャプチャする例示的な方法を示す概略的な斜視図。 図1および図2の例示的な方法をさらに詳細に示す概略フローチャート。 3D顔モデルをフィッティングさせた患者の例示的な顔の画像。 図1~図4の例示的な方法をさらに詳細に説明する概略フローチャート。 図1~図5の例示的な方法をさらに詳細に示す概略フローチャート。 図1~図6の例示的な方法をさらに詳細に説明する概略図。 患者の上顎歯と下顎歯との間の空間関係を決定するための例示的なシステムの概略ブロック図。 上顎歯の3Dモデルが向けられた、例示的な3D顔モデルの画像。 例示的な歯科印象トレイおよび例示的なマーカーハンドルの画像。 例示的な歯科印象トレイおよび例示的なマーカーハンドルの画像。 例示的な歯科印象トレイおよび例示的なマーカーハンドルの画像。 患者の上顎歯と顔面骨格との間の空間関係を決定する、例示的な方法の概略方法。
図面において、対応する参照文字は、対応する構成要素を示す。当業者は、図中の要素が単純化および明確化のために図示されているので、必ずしも縮尺通りに描かれていないことを理解するであろう。例えば、図中のいくつかの要素の寸法は、様々な例示的な実施例の理解を深めるべく、他の要素に対して誇張されている場合がある。また、商業的に実現可能な例において有用であるかまたは必要であって一般的であるがよく理解されている要素は、これらの様々な例示的な例の視界をあまり妨げないようにするべく、描かれていないことが多い。
概要において、本開示の実施例は、顔の複数の2D画像と、3Dスキャンから得られた上顎歯の3Dモデルとに基づき、上顎歯と顔面骨格との間の空間関係を決定する手段を提供する。複数の2D画像は、上顎歯の3Dモデルを、2D画像から生成された顔の3Dモデルとアライメントするべく使用されてもよい。いくつかの例では、複数の2D画像は、患者の顔の周りを移動するカメラによってキャプチャされた動画(ビデオ。映像)で構成されている。
図1は、上顎歯と顔面骨格との間の空間関係を決定する方法の一例を示す。
ブロックS11において、患者の上顎歯の3Dモデルが受け取られる。上顎歯の3Dモデルは、適切な3D歯科スキャナを使用することで得られてもよい。例えば、本出願人の係属中の英国特許出願GB1913469.1に記載された歯科スキャナを使用してもよい。歯科スキャナは、上顎歯から採取された印象を、印象から鋳造されたストーンモデルを、または印象とストーンモデルとの組み合わせを、スキャンするべく使用されてもよい。
更なる実施例では、3Dモデルは、他の市販のスキャナによって得られてもよく、それは、ストーンモデルをスキャンするか、または患者の口の中に配置するのに適した口腔内スキャナの形態をとるかのいずれかである。
3Dモデルは、STLまたはPLY形式のデータファイル、または3Dモデルを保存するのに適した他のデータ形式の形態をとってもよい。
ブロックS12において、患者の顔の複数の2D画像が受け取られる。
図2は、複数の画像をキャプチャする方法の一例を示す。図2に示すように、複数の画像は、例えばスマートフォン100のカメラであってもよいような単一のカメラ101によってキャプチャされてもよい。カメラ101は、所定の(予め定められた)フレームレートで画像をキャプチャするような動画キャプチャモードに置かれてもよい。次に、カメラ101は、患者Pの顔の周りの円弧A1に移動される。患者Pの上顎歯U1は、患者Pが唇同士を離しているか、または他の標準的な歯科唇後退法が採用されているので、少なくとも部分的にカメラによって見えている。図2の例では、下顎歯L2も見えるが、これは本明細書に記載される方法には必要ではない。従って、複数の画像がキャプチャされるとともに、各画像は、患者Pの上顎歯U1のうちの少なくとも一部を備えている。
図2の例は、スマートフォン100のカメラ101を例示しているが、任意の適切なカメラを採用することができる。
一実施例では、カメラ101は、2D画像をキャプチャする前に較正される。特に、カメラ101は、カメラ101のレンズおよび画像センサのパラメータを決定または推定するべく較正処理を受けることがあるので、これらのパラメータは、レンズ歪みおよびバレリング(barrelling。半径歪み(ラジアルディストーション)とも呼ばれる)などの現象を補正するとともに、正確な3Dシーン再構成を可能にするべく使用することができる。較正処理はまた、カメラ101の焦点距離および光学中心を決定してもよい。較正処理は、既知の寸法および形状を有する対象物の画像をキャプチャするとともに、それに基づきレンズおよび画像センサのパラメータを推定する工程を備えてもよい。カメラを較正する例示的な方法は、非特許文献1に記載されているとおりであってよく、その内容は参照によって本明細書に組み込まれる。
ブロックS13において、患者Pの顔の3Dモデルが生成される。一実施例では、キャプチャされた画像の全てが最適化器(オプティマイザ)に渡されるとともに、最適化器は単一の顔モデルを画像の全てにフィッティングさせる。顔モデルは、3Dモーファブルメッシュであってもよい。
これについては、図3を参照してさらに詳細に説明する。
ブロックS31において、3Dモーファブルメッシュが提供される。3Dモーファブルメッシュは、例えば、複数の顔の3Dスキャンから得られた顔メッシュの学習セットに対して、主成分分析などの次元削減を行うことで得られる顔の一般的なモデルである。一例では、20個~50個の主成分を有するメッシュが使用されるが、その数は変化してもよい。
ブロックS32において、複数の顔ランドマークが画像から検出される。顔ランドマークは、学習されたニューラルネットワークまたは他の機械学習されたランドマーク検出器を用いて検出されてもよい。例示的なランドマーク検出方法には非特許文献2があり、その内容は参照によって組み込まれる。
ブロックS33において、顔の患者固有の3Dモデルが生成されるように、3Dモーファブルメッシュはランドマークにフィッティングされる。これは、例えば、顔フィッティングアルゴリズムを使用することで、主成分のそれぞれについて平均からの偏差の値を導出する工程を備えていることができる。
図4は、患者Pの顔にフィッティングさせた、例示的な3Dモーファブルメッシュ200を示す。3Dモーファブルメッシュは、口腔内領域をカバーしない場合がある。すなわち、患者Pの口Mに対応する位置で、3Dモーファブルメッシュ200に穴が開いていてもよい。
他の顔フィッティング技術が採用されてもよく、それは例えばランドマークに加えて、顔のテクスチャ情報に依存してもよいことは理解されよう。さらに、他の実施例では、3Dモデルは、3Dモーファブルメッシュにテクスチャをフィッティングさせてもよい。
一例では、モーファブルメッシュとフィッティング技術は、4dfaceツールキット(http://www.4dface.io/)の一部として利用可能なものに基づいてもよい。
一実施例では、複数の画像は、第1画像セットと第2画像セットとを備えている。第1キャプチャ動画であってもよい第1画像セットは、それぞれ患者Pの顔を示しているが、上顎歯U1を備えてもよいし、備えなくてもよい。その後、第1画像セットは、顔の3Dモデルを生成するべく使用されてもよい。第2キャプチャ動画であってもよい第2画像セットは、各々、患者Pの上顎歯U1のうちの少なくとも一部を備えている。次に、第2画像セットは、上顎歯U1の3Dモデルを顔モデルにアライメントするべく使用されてよい。しかしながら、他の例では、顔の3Dモデルの生成と、顔モデルに対する上顎歯U1のその後のアライメントとに、単一の画像セット(例えば、単一の動画)が使用されてもよい。
図1に戻ると、ブロックS14において、顔の3Dモデルに対する上顎歯の空間アライメント(スペ-シアルアライメント)が決定される。顔の3Dモデルに関して上顎歯をアライメントする方法は、図5~図7を参照して以下に詳細に説明される。
図5は、図1のブロックS14の処理をさらに詳細に示している。
ブロックS51において、顔に対するカメラ姿勢、および顔の表情が、キャプチャ画像の各々について計算される。特に、画像のそれぞれについて、画像に示される表情に一致するように、3Dモーファブルメッシュがモーフィングされる。そして、3Dモーファブルメッシュに基づきカメラ姿勢を導出する。特に、カメラ101のパラメータ(例えば焦点距離、光学中心)が既知であり、画像に示される表情におけるメッシュの3D形状が既知であるので、例えば、上記で参照した非特許文献1で説明したように、画像キャプチャ時のカメラの位置が導出されることができる。
ブロックS52では、上顎歯U1のうちの少なくとも一部を示すキャプチャ画像(キャプチャされた画像)を、顔の3Dモデルに対する上顎歯の3Dモデルにアライメントする。上顎歯U1を顔モデルにアライメントするための変換Tは、キャプチャされた2D画像のすべてまたはサブセットに亘って、同時に最適化される。各画像は、顔モデルに対して同じ空間関係で上顎歯を必然的に示すので、キャプチャ画像は、複数の異なる視点から示された同じ関係を実質的に示していることになる。したがって、キャプチャされたすべての画像に対して、最もフィッティング度(適合度)の高いアライメントが導出される。
次に、上顎歯の3Dモデルをキャプチャ画像にアライメントする方法について、図6および図7を参照しながら説明する。
ブロックS61において、カメラ姿勢Cおよびモデル(U1)姿勢の現在の推定(エスティメイト。推定値)に基づき、シーンSの3Dレンダリングが実行される。この結果、カメラ位置(C)の推定から見た、シーンの現在の推定の2Dレンダリング画像(R)が得られる。
ブロックS62において、レンダリング画像Rは、モデル姿勢およびカメラ姿勢の現在の推定を得点化するように、2Dキャプチャ画像(I)と比較される。キャプチャ画像Iとレンダリング画像Rとの間の類似度が高いほど、推定が正しいという可能性が高くなる。
レンダリング画像Rとキャプチャ画像Iとの類似度を評価するべく、類似度メトリクスが計算されてもよい。類似度メトリクスは、コストスコアを出力してもよく、より高いコストスコアは、レンダリング画像Rとキャプチャ画像Iとの間のより高い相違度を示す。いくつかの例では、キャプチャ画像Iおよびレンダリング画像Rは、表情フィッティング顔モデルを使用することで自動的にマスクされることによって、コストスコアにおいて口腔内領域のみが考慮されるようにすることができる。
一例として、レンダリング画像Rとキャプチャ画像Iとの間で、相互情報スコア(MIスコア。ミューチュアルインフォメーション得点)が計算される。相互情報MIは、レンダリング画像Rおよびキャプチャ画像Iに直接基づき、計算されてもよい。しかし、更なる例では、レンダリング画像Rおよびキャプチャ画像Iは、相互情報MIスコアの有効性を高めるべく、相互情報MIの計算の前に異なる方法で処理されてもよい。例えば、ソーベル勾配処理のようなフィルタが、レンダリング画像Rおよびキャプチャ画像Iに適用されてもよい。もしくは、機械学習されたまたは設計された、別の画像畳み込みが、レンダリング画像Rおよびキャプチャ画像Iに適用されてもよい。
一実施例では、レンダリング画像Rおよびキャプチャ画像Iのそれぞれについて特徴抽出が行われることで、そのレンダリング画像Rおよびキャプチャ画像Iから顕著な特徴(例えば、領域またはパッチ)が抽出される。例えば、レンダリング画像Rおよびキャプチャ画像Iの各々からエッジ点または領域を抽出するべく、エッジ抽出法が適用される。別の例では、レンダリング画像Rおよびキャプチャ画像Iの各々からコーナー点または領域を抽出するべく、コーナー抽出法が適用される。更なる例では、別の特徴が抽出されてもよい。例えば、画像勾配特徴が抽出されてもよい。または、例えば畳み込みニューラルネットワークで学習されたような、他の機械学習された顕著な特徴が抽出されてもよい。
レンダリング画像Rとキャプチャ画像Iからそれぞれ抽出された対応する顕著な特徴は、次に、それらの間の類似度を決定するべく、マッチングされる。例えば、マッチングは、抽出された点同士間のユークリッド距離のような類似度尺度を採用してもよい。類似度尺度には、非特許文献3で議論されているような抽出点のランダムサンプリングや、または1対1のような尺度などを採用してもよい。
更なる例では、本明細書で2D-3D-2D-2Dコストと呼ばれるコストは、以下のように計算される。
まず、2D特徴(エッジ/コーナー/機械学習されたまたは人間が設計した畳み込み)が現在の3Dレンダリング推測の2D画像(R)から抽出され、その結果、点セットA2が得られる。次に、これらの2D特徴が3Dレンダリングに再投影されることで、3D点セット(点セットA3)が得られる。
2Dカメラ画像(キャプチャ画像I)において、対応する2D特徴(点セットB2)が抽出される。次に、点セットB2と点セットA2との間の対応が、一般的には最近点探索を使用することで割り当てられるが、これは最も近い類似度因子で補強されることもある。その後、同等の3D対応(A3)が計算されることで、2D-3D対応B2-A3セットとなる。ここで課題は点A3(A2′と呼ばれる)の2D再投影誤差を最小にすることであり、B2-A2′が最小になるようにカメラ姿勢またはモデル姿勢を最適化することによって行われる。
概念的には、このスコアは、3Dモデル上にエッジ点(または他の顕著な点)をマークする工程と、2Dカメラ画像上の最も近いエッジ点を見つける工程とを備える。次に、これらの3Dエッジ点の再投影が2D画像点に一致するように、モデルを移動させる工程を備えている。
3Dモデル上にマークされたエッジ点と、それに対応するカメラ画像の2D点とは、各反復において真に対応する可能性が高くなるので、全処理は反復的に繰り返される。
更なるコストは、レンダリング画像R(これもシルエットレンダリングなどの前処理がされている場合がある)から2D特徴を抽出する工程と、カメラ画像から2D特徴を抽出する工程とである。2つの画像同士間の最接近一致(クローゼストマッチ)が見つかると、現在のコストスコアとして使用されるとともに、それが最適化器(オプティマイザ)に直接フィードバックされることで、モデル姿勢(またはカメラ姿勢)を少し調整するとともにレンダリングを再計算することができる。この方法は、対応が反復ごとに更新されることで対応距離が最適化器を導くためのスコアとして使用される事項において、2D-3D-2D-2Dコストとは異なる。これに対し、2D-3D-2D-2Dコストは、現在の対応セットを最小化するべく反復する(すなわち内側ループ)とともに、次にレンダリングを再計算することで新しい対応を得て再び反復する(外側ループ)ことで計算される。
別のコストスコアは、オプティカルフローを使用することで計算されるかもしれない。オプティカルフローは、シーケンス内の連続したフレーム同士間の画素を追跡する技術である。フレームは連続的に記録されるので、レンダリング画像Rの画素の追跡位置が、キャプチャ画像Iの画素の追跡位置とは大きく異なる場合、モデルとカメラ姿勢との推定が不正確であることを示している。
一実施例では、オプティカルフロー予測は、前方(フォワード。前向き)に、すなわち、キャプチャされた動画の先行するフレームに基づき実施される。一実施例では、オプティカルフロー予測は、後方(バックワード。後ろ向き)に実施される。すなわち、後続のフレームに基づくオプティカルフロー予測が計算され得るように、動画のフレームの順序は逆転される。
一例では、密なオプティカルフロー技法が採用される。密なオプティカルフローは、画像内の画素のサブセットに対して計算されてもよい。例えば、画素は、その画素の位置に基づき、カメラの光学中心から延びるベクトルに対して実質的に直交する平面内に存在すると仮定される画素に限定されてもよい。一例では、画素は、顔にフィッティングされた顔モデルに基づき、患者Pの顔によって(例えば、鼻によって)隠されていると判定(決定)されてもよい。そのような画素は、その後、オプティカルフローによって追跡されなくなる可能性がある。
一例では、異なる抽出された特徴および/または類似度尺度に基づき複数の異なるコストスコアを決定するように、上述の方法の複数が適用される。
ブロックS61およびS62の処理は、複数のキャプチャ画像に対して実施される。例えば、処理は、キャプチャ画像のすべてについて実施されてもよい。しかし、他の例では、キャプチャ画像のサブセットが選択されてもよい。例えば、キャプチャされた画像のサブサンプルが選択されてもよい。サブサンプルは、1個おきのキャプチャ画像、3個おきのキャプチャ画像、または10個おきのキャプチャ画像などの、規則的なサブサンプルであってよい。
従って、モデルの推定位置およびカメラの推定位置に基づき、各キャプチャ画像とその対応するレンダリング画像との間の類似度を反映する複数のコストスコアが導出される。
一例では、連続するフレーム同士間の推定カメラ姿勢の差は、追加のコストスコアとして計算されてもよい。言い換えれば、現在の画像の推定カメラ姿勢と、前にキャプチャされたフレームと、の間の距離が計算されてもよい。および/または、現在の画像の推定カメラ姿勢と、その後にキャプチャされたフレームと、の間の距離が計算されてもよい。画像は連続してキャプチャされるので、連続するフレーム同士間のカメラ姿勢の大きな差は、不正確な推定を示す。
ブロックS63において、画像の各々のコストスコアが非線形最適化器に供給されるので、この非線形最適化器はブロックS61およびS62の処理を反復するとともに、各反復においてカメラ姿勢およびモデル姿勢を調節する。各画像を同時に最適化する解が得られる。反復は、収束閾値に到達したときに停止する。一実施例では、採用される非線形最適化器は、レーベンベルグ-マルカールト(Levenberg-Marquardt)アルゴリズムである。他の例では、Eigen(http://eigen.tuxfamily.org/)、Ceres(http://ceres-solver.org/)、またはnlopt(https://nlopt.readthedocs.io)などのソフトウェアライブラリから、他のアルゴリズムが採用され得る。
一実施例では、最初の反復で使用するべく、顔面骨格に対する歯の3Dモデルの位置の初期推定が提供される。例えば位置の初期推定は、歯の通常または正常な位置に基づき、例えば顔モデルの唇の下の所定の距離と、唇から後ろの所定の距離と、に基づき、取られてもよい。他の例では、初期推定は、例えば、キャプチャされた画像において3Dモデルのキーポイントを特定することで、ユーザ入力によって提供されてもよい。キーポイントの例としては、犬歯の先端や歯肉乳頭が挙げられる。
更なる例では、各反復で使用されるコストスコアは異なってもよい。言い換えれば、上述のスコアの選択が各反復において計算されるとともに、その選択は反復ごとに異なってもよい。例えば、本方法は、上記スコアの第1選択と、上記スコアの第2選択と、を交互に行うことができる。一例では、第1選択および第2選択のうちの一方は2D-3D-2D-2Dコストを備えているが、他方はそうではない。上記のような方法で様々なコストメトリクスを使用することで、よりロバストな解(ソリューション)が見出される可能性がある。
従って、出力は、上顎歯の3Dモデルを、患者固有の顔モデルに対する正しい空間関係にする単一の3D変換、Tである。一例が図9に示されている。
変換Tに基づき、アラ・トラル・ライン(ala-tragal-line)、正中線(ミッドライン)、および瞳孔間ラインなどの、古典的なランドマークを自動的に識別することができる。これらは、ユーザが選択したデジタル咬合器において上顎歯U1のモデルを正しく方向付けるべく、CAD設計ソフトウェアに渡すことができる。または歯科設計を支援するべく、患者固有の顔モデル(これはOBJファイルまたは同様のものとして、CADソフトウェアにインポートできる)と共に、使用することができる。
図8は、上顎歯と下顎歯との間の空間関係を決定するための例示的なシステム400を示す。システム400は、コントローラ410を備えて構成されている。コントローラは、プロセッサまたはフィールドプログラマブルゲートアレイ(FPGA)、グラフィック処理ユニット(GPU)等の他の計算要素で構成されてもよい。いくつかの例では、コントローラ410は、複数の計算要素で構成されている。システムはまた、メモリ420を備えている。メモリ420は、システム400の動作に必要な任意の情報を、一時的または恒久的に記憶するための任意の適切な記憶装置を備えて構成されてもよい。メモリ420は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、フラッシュストレージ、ディスクドライブ、および任意の他のタイプの適切な記憶媒体で構成されてもよい。メモリ420は、コントローラ410によって実行されると、システム400に本明細書に規定される方法のいずれかを実行させる命令を格納する。更なる例では、システム400は、ディスプレイと、マウスおよびキーボードまたはタッチスクリーンなどの入力手段とを備えていてもよい、ユーザインタフェース430を備えている。ユーザインタフェース430は、GUI300を表示するように構成されてもよい。更なる例では、システム400は、それぞれがコントローラとメモリとを備えるとともにネットワークを介して接続された複数のコンピューティングデバイスを備えて構成されてもよい。
次に、更なる例示的な方法を、図10および図11を参照して説明する。
図10A~図10Cは、例示的な印象トレイ500を示す。印象トレイ500は、印象材501を保持するように形作られた凹部521を画定する印象トレイ本体520を備えている。印象トレイ500は、印象材501に患者の上顎歯Uの印象をキャプチャするように、患者Pの口内に挿入するように構成されている。
印象トレイ500は、修復歯科学および/または歯列矯正歯科学で使用するのに適した印象をキャプチャするように構成されている。言い換えれば、印象トレイ500によってキャプチャされた印象は、クラウン、ブリッジ、インプラント、歯列矯正などの設計を備えている治療計画に使用することができる適切な品質である。したがって、凹部521は、修復歯科学および/または歯列矯正歯科で使用するための印象をキャプチャするべく十分な量の印象材501を保持する大きさであってよい。
凹部521は、フルアーチ印象、すなわち患者の上顎歯Uのすべてをキャプチャする印象、をキャプチャする大きさであってよい。言い換えれば、凹部521は、患者の歯のアーチに一般的な形状で実質的に対応するとともに、したがって、平面視でほぼ半円形に見えることがある。凹部521は、印象トレイ500の周辺前壁521aによって画定されてもよい。凹部521はまた、使用時に患者の舌を収容する隆起した中央部分521bを備えていてもよい。
さらに、印象トレイ500は、患者の上顎歯Uのみの印象を印象材501にキャプチャするように構成されてもよい。言い換えれば、いくつかの例では、印象トレイ500は両側トレイ(ダブルサイデッドトレイ。両面トレイ)ではなく、代わりに片側トレイ(シングルサイデッドトレイ。片面トレイ)である。この片側トレイは、浅い「咬合印象」トレイとは対照的である。ここで、浅い「咬合印象」トレイは、上下の前歯の迅速で部分的な印象を同時にキャプチャするべく使用される一方、修復歯科での使用に適した印象をもたらさない。
印象トレイ本体520の前部領域502は、ハンドルを受け入れるように構成されたソケット(図示せず)のような受け入れ部を備えている。図10B~図10Cは、従来ハンドル503を示す。使用時、ハンドル503は、患者Pの口から前方に突出する。
図10A~図10Bは、従来ハンドル503の代わりにソケットに挿入可能な例示的なマーカーハンドル510を示す。マーカーハンドル510は、印象トレイ本体520から突出するように配置されたハンドル本体511と、マーカー部(マーカーポーション)512とを備えて構成されている。一実施例では、マーカー部512は、印象トレイ本体520から最も遠位に存在するハンドル本体511の端部に配置されている。従来ハンドル503またはマーカーハンドル510はそれぞれ、ハンドルを本体に取り付けるための取付部(アタッチメントポーション)504を備えている。例えば、取付部504は、従来ハンドル503またはマーカーハンドル510をソケットに固定するための弾力的な柔軟部505を備えて構成されている。
マーカー部(マーカーポーション)512は、複数のマーカーセクション513を備えて構成されている。例えば、マーカー部512は、ハンドル本体511の反対側面同士から横方向に延びる一対のマーカーセクション513A,513Bを備えて構成されてもよい。マーカーセクション513A,513Bはそれぞれ、ハンドル本体511が延びる方向に対して概ね直交する方向に向けられた平面部を備えていてもよい。したがって、マーカーセクション513A,513Bは、印象トレイ500が患者Pの口の中に配置されたときに、実質的な垂直平面である平面を提供する。各マーカーセクション513A,513Bは、マーカー514を備えている。例えば、マーカー514は、複数の特徴的な模様(ディスティンクティブパターン)および/または色を備えて構成されている。
次に、マーカーハンドル510を有する印象トレイ500を採用する例示的な方法について、図11を参照して説明する。
ブロックS1101において、マーカーハンドル510が取り付けられた印象トレイ500を用いて、患者の上顎歯Uの印象(インプレッション)がキャプチャされる。さらに詳細には、印象材(インプレッションマテリアル)501が印象トレイ本体520の凹部521に挿入されるとともに、マーカーハンドル510はソケットに取り付けられる。次いで、マーカー514A,514Bが概ね垂直な平面内に存在するとともに口の前で見えるように、印象トレイ500は口の中に挿入される。
ブロックS1102において、患者の顔の複数の画像が受け取られる。ここで、画像は、上述した位置に存在するマーカーハンドルを示している。例えば、印象トレイ500を使用することで印象が患者の上顎歯Uに対して採取されている間、複数の画像は、図2に関して本明細書で説明した方法でキャプチャされてもよい。一例では、歯科医は、歯科助手が画像をキャプチャする間、印象材が口腔内でセットされるように印象トレイを所定の位置に支持してもよい。歯科医師は、患者に噛ませるのではなく、印象のキャプチャを制御することができるので、高品質の印象がキャプチャされることを保証する。
ブロックS1103では、マーカーハンドル510を備えている、ブロックS1001で使用される印象トレイ500のアセンブリの3Dモデルが取得される。一例では、3Dモデルは、カラー3Dモデルである。このモデルは、本明細書で議論された3Dスキャナを使用することで得られてもよい。
ブロックS1104において、顔モデルが生成される。例えば、モデルは、図1~図8に関して本明細書で議論されるように生成されてもよい。
ブロックS1105において、印象トレイ500の3Dモデルは、顔モデルに対してアライメントされる。アライメントは、実質的に本明細書で論じられるように実施されてもよい。しかしながら、上顎歯のうちの少なくとも一部を示す画像に基づき上顎歯の3Dモデルを顔モデルにアライメントするのではなく、マーカー514A、514Bに基づき印象トレイの3Dモデルを画像にアライメントする。言い換えれば、画像の各々に示されるマーカーの位置によって、顔モデルと、マーカーとの間に、ひいてはユーザの上顎歯Uの印象を備えている印象トレイ500の残りの部分との間に、最適アライメントが導出される。したがって、患者の上顎歯と顔面骨格との間のアライメントが導出される。
いくつかの例では、顔モデルの生成と、顔モデルに対する印象トレイの3Dモデルのアライメントとのために、別々のキャプチャ画像のセットを使用することができる。しかしながら、他の例では、顔の3Dモデルの生成と、顔モデルに対する印象トレイ500のその後のアライメントとに、単一の画像セット(例えば、単一の動画)が使用されてもよい。
マーカー514は、QRコード(登録商標)に類似したブロックのパターンとして示されているが、画像内で容易に識別できる視覚的に特徴的な特徴を提供するべく、異なるパターンまたは配置が採用され得ることが理解されよう。さらに、図9に2つのマーカー514A,514Bが示されているが、より多くのまたはより少ないマーカーが表示されてもよいことが理解されよう。マーカー514は平面上に表示されているが、更なる実施例では、湾曲したマーカーが採用されてもよいことが理解されよう。湾曲したマーカーは、ユーザの顔の周りで湾曲していてもよい。湾曲したマーカーは、ひげのような外観を与えるように、長尺状(細長いもの)であってもよい。
さらに、図9の例では、印象トレイ500は、マーカーハンドル510が印象トレイ本体520のソケットに取り付け可能であるが、更なる例では、印象トレイおよびハンドルは一体的に形成されてもよい。
更なる実施例では、マーカーハンドル510無しの印象トレイ本体520の3Dモデルを得ることができる。特に、マーカーハンドル510が所定のサイズおよび形状であるとともに、したがって印象トレイ本体520に対して所定の空間関係を有するという事実によって、マーカーハンドル510のマーカー514A,514Bと、印象トレイ本体520との間の空間関係が予め知られていてもよい。従って、マーカー514A,514Bを顔面骨格にアライメントすることで(例えば、マーカーの画像に基づき、またはマーカーハンドル510の別の3Dスキャンに基づき)、印象トレイ本体520の位置を所定の空間関係に基づき推論することができる。これは、印象トレイ本体520を収容できるがマーカーハンドル510を収容できない3D歯科スキャナの使用を、容易にし得る。
有利には、上述のシステムおよび方法は、フェイスボウの使用の必要性を回避するとともに、代わりに例えば携帯電話カメラを介してキャプチャされた動画フッテージに依存する、上顎歯と顔面骨格とのアライメントを決定する方法を提供する。したがって、より簡単な操作で安価なソリューションが提供されるとともに、このソリューションは上顎歯の高品質3Dモデルの利用可能性を利用する。
有利には、印象トレイを備えているシステムおよび方法は、特徴的なマーカーに基づく2D-3Dアライメントを容易にするロバストなソリューション(堅牢な解決策)を提供し得る。さらに、修復歯科学および/または歯列矯正歯科学での使用に適した高品質なフルアーチ印象(全顎印象)と、マーカーを示す2D画像と、のキャプチャは、典型的な歯科ワークフローに有利にフィッティングするように同時に行われ得る。
本明細書に記載される実施例の少なくともいくつかは、部分的または全体的に、専用の特殊目的ハードウェアを使用することで構築されてもよい。本明細書で使用される「構成要素」、「モジュール」、または「ユニット」などの用語は、特定のタスクを実行するかまたは関連する機能を提供する、ディスクリートまたは集積構成要素の形態の回路、フィールドプログラマブルゲートアレイ(FPGA)、またはアプリケーション特定集積回路(ASIC)などのハードウェア装置を備えている場合があるが、これらに限定されるわけではない。いくつかの例では、説明された要素は、有形で永続的なアドレス指定可能な記憶媒体に常駐するように構成されてもよく、1つまたは複数のプロセッサ上で実行されるように構成されてもよい。これらの機能的要素は、いくつかの例では、一例として、ソフトウェア構成要素などの構成要素、オブジェクト指向ソフトウェア構成要素、クラス構成要素、およびタスク構成要素、処理、関数、属性、手続き、サブルーチン、プログラムコードのセグメント、ドライバー、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ、および変数を備えてもよい。例示的な実施例は、本明細書で論じた構成要素、モジュール、およびユニットを参照して説明したが、このような機能要素は、より少ない要素に結合されてもよいし、追加の要素に分離されてもよい。オプションの特徴の様々な組み合わせが本明細書で説明されたが、説明された特徴は、任意の適切な組み合わせで組み合わされてもよいことが理解されるであろう。特に、任意の1つの実施例の特徴は、そのような組み合わせが相互に排他的である場合を除き、適宜、任意の他の実施例の特徴と組み合わされてもよい。本明細書を通じて、用語「を備えている」または「からなる」は、指定された成分(複数可)を備えているが、他の成分の存在を排除するものでないことを意味する。
本願に関連して本明細書と同時またはそれ以前に提出され、本明細書とともに公開されているすべての論文および文書に注意が向けられ、すべてのかかる論文および文書の内容は、参照することで本明細書に組み込まれる。
本明細書(添付の請求項、要約書、および図面を備えている)に開示された特徴の全て、および/またはそのように開示された方法または処理の全ての工程は、かかる特徴および/または工程のうちの少なくとも一部が相互に排他的である組み合わせを除いて、任意の組み合わせで組み合わせることが可能である。
本明細書(添付の請求項、要約、および図面を備えている)に開示された各特徴は、明示的に別段の記載がない限り、同一、同等、または類似の目的を果たす代替の特徴に置き換えることができる。したがって、明示的に別段の記載がない限り、開示された各特徴は、同等または類似の特徴の一般的な一連の一例のみである。
本発明は、前述の実施形態(複数可)の詳細に限定されない。本発明は、本明細書(添付の特許請求の範囲、要約書、および図面を備えている)に開示された特徴の任意の新規なもの、または任意の新規な組み合わせ、あるいはそのように開示された任意の方法または処理の工程の任意の新規なもの、または任意の新規な組み合わせに及ぶ。

Claims (29)

  1. コンピュータに実装される方法であって、前記方法は、
    患者の上顎歯を代表する3Dモデルを受け取る工程と、
    前記患者の顔の複数の画像を受け取る工程と、
    受け取られた複数の前記画像に基づき、前記患者の顔モデルを生成する工程と、
    決定された前記顔モデル、受け取られた前記上顎歯の前記3Dモデル、および複数の前記画像に基づき、前記患者の前記上顎歯と、前記患者の顔面骨格との間の空間関係を決定する工程と、
    を備えている、方法。
  2. 前記上顎歯と前記顔面骨格との間の前記空間関係を決定する工程は、
    前記顔モデルに対するカメラ姿勢を決定する工程と、および
    前記カメラ姿勢に基づき、前記上顎歯を代表する前記3Dモデルに対する前記画像の最適アライメントを決定する工程と、
    を備えている、請求項1に記載の方法。
  3. 前記最適アライメントを決定する工程は、2D画像の各々について、
    前記画像がキャプチャされたカメラ姿勢の現在の推定と、前記上顎歯を代表する前記3Dモデルと前記顔モデルとの間の推定空間関係とに基づき、3Dシーンをレンダリングする工程と、
    前記カメラ姿勢の現在の前記推定に基づき、レンダリングされた前記3Dシーンから2Dレンダリングを抽出する工程と、および
    前記2Dレンダリングを前記画像と比較することで、前記2Dレンダリングと前記画像との間の差のレベルを示すコストスコアを決定する工程と、
    を備えている、請求項2に記載の方法。
  4. 前記方法はさらに、非線形最適化器を使用することで、複数の前記画像に亘って前記最適アライメントを反復して得る工程を備えている、
    請求項3に記載の方法。
  5. 前記コストスコアは、前記レンダリングと前記画像との間で計算された相互情報スコアを備えている、
    請求項3または4に記載の方法。
  6. 前記コストスコアは、前記レンダリングと前記画像とから抽出された対応する画像特徴同士の類似度スコアを備えている、
    請求項3~5のいずれか1項に記載の方法。
  7. 前記画像特徴はコーナー特徴、エッジ特徴、または画像勾配特徴である、
    請求項6に記載の方法。
  8. 前記類似度スコアはユークリッド距離、ランダムサンプリング、または1対1のうちの1つである、
    請求項6または7に記載の方法。
  9. 前記コストスコアは、
    レンダリングされた前記3Dシーンから2D画像特徴を抽出する工程と、
    抽出された前記2D画像特徴を、レンダリングされた前記3Dシーンに再投影する工程と、
    前記2D画像から画像特徴を抽出する工程と、
    前記2D画像から抽出された前記画像特徴を、レンダリングされた前記3Dシーンに再投影する工程と、
    3D空間に再投影された特徴同士の差を示す類似度指標を計算する工程と、
    によって計算された2D-3D-2D-2Dコストを備えている、
    請求項3~8のいずれか1項に記載の方法。
  10. 前記コストスコアは、複数の前記2D画像の連続する画像同士間の画素を追跡することで計算されるオプティカルフローコストを備えている、
    請求項3~9のいずれか1項に記載の方法。
  11. 前記方法はさらに、異なる抽出された特徴と類似度尺度とのうちの少なくとも一方に基づき、複数の異なるコストスコアを決定する工程を備えている、
    請求項3~10のいずれか1項に記載の方法。
  12. 請求項4に従属する場合、前記非線形最適化器によって各反復で使用されるコストスコア同士は異なる、
    請求項3~11のいずれか1項に記載の方法。
  13. 前記顔モデルは3Dモーファブルメッシュであり、
    前記顔モデルを生成する工程は、
    前記画像から複数の顔ランドマークを検出する工程と、
    前記3Dモーファブルメッシュを前記顔ランドマークにフィッティングさせる工程と、
    を備えている、請求項1~12のいずれか1項に記載の方法。
  14. 前記3Dモーファブルメッシュは、前記患者の口に対応する位置に穴を備えている、
    請求項13に記載の方法。
  15. 複数の前記画像は、前記患者の前記上顎歯のうちの少なくとも一部を備えており、
    前記患者の前記上顎歯を代表する前記3Dモデルは、前記患者の前記上顎歯の3Dモデルである、
    請求項1~13のいずれか1項に記載の方法。
  16. 複数の前記画像は、マーカーのうちの少なくとも一部を備えており、
    前記マーカーは、前記患者の口内に配置された印象トレイに結合されており、
    前記マーカーは前記患者の口外に配置されており、
    前記上顎歯を代表する前記3Dモデルは、前記印象トレイの3Dモデルである、
    請求項1~14のいずれか1項に記載の方法。
  17. 前記印象トレイの前記3Dモデルは、前記マーカーを備えている、
    請求項16に記載の方法。
  18. 前記印象トレイの前記3Dモデルは、前記マーカーを備えておらず、
    前記歯と顔面骨格との間の前記空間関係は、前記マーカーと前記印象トレイとの間の予め定められた空間関係に基づき決定される、
    請求項16に記載の方法。
  19. 複数の前記画像は、第1画像セットおよび第2画像セットを備えており、
    前記第1画像セットは、前記顔の前記3Dモデルを生成するべく使用されており、
    前記第2画像セットのそれぞれの画像は、前記患者の前記上顎歯のうちの少なくとも一部またはマーカーを備えているとともに、前記上顎歯と前記顔面骨格との間の前記空間関係を決定するべく使用される、
    請求項1~18のいずれか1項に記載の方法。
  20. 複数の前記画像のうちの画像のカメラ姿勢を決定する工程は、
    前記画像に示される表情に一致するように3Dモーファブルメッシュをモーフィングする工程と、
    モーフィングされた前記3Dモーファブルメッシュに基づき、前記カメラ姿勢を決定する工程と、
    を備えている、請求項2に従属するときの請求項13または14に記載の方法。
  21. プロセッサとメモリとを備えているシステムであって、
    前記メモリは、前記プロセッサによって実行されると前記システムに請求項1~20のいずれか1項に記載の方法を実行させるコンピュータ可読命令を記憶する、
    システム。
  22. コンピュータデバイスによって実行されたときに前記コンピュータデバイスに請求項1~20のいずれか1項に記載の方法を実行させる命令を記録した、
    有形で非一時的なコンピュータ読取可能な記憶媒体。
  23. 修復歯科学または歯列矯正歯科学において使用するための歯科印象をキャプチャするための歯科印象トレイであって、前記歯科印象トレイは、
    前記歯科印象をキャプチャするための印象材を保持するように構成された本体と、および
    前記本体に結合されるマーカー部であって、前記本体が患者の口の中に受け入れられるときに前記マーカー部は前記患者の前記口の外に配置されるように構成されており、前記マーカー部はマーカーを備えている、前記マーカー部と、
    を備えている、歯科印象トレイ。
  24. 前記歯科印象トレイは、フルアーチ印象をキャプチャするように構成されている、
    請求項23に記載の歯科印象トレイ。
  25. 前記歯科印象トレイは、前記患者の歯の単一アーチの印象をキャプチャするように構成されている、
    請求項23または24に記載の歯科印象トレイ。
  26. 前記歯科印象トレイはさらに、前記本体から延びるハンドルを備えており、
    前記マーカー部は前記ハンドル上に配置されている、
    請求項23~25のいずれか1項に記載の歯科印象トレイ。
  27. 前記マーカー部は、前記マーカーが形成される平面部を備えており、および
    前記平面部は、前記本体が前記患者の口の中に配置されたときに実質的な垂直平面内に配置されている、
    請求項23~26のいずれか1項に記載の歯科印象トレイ。
  28. 前記マーカー部は、前記本体に対して着脱可能にされている、
    請求項23~27のいずれか1項に記載の歯科印象トレイ。
  29. 修復歯科学または歯列矯正歯科学で使用するための歯科印象をキャプチャするための歯科印象トレイのためのマーカーハンドルであって、前記マーカーハンドルは、
    前記歯科印象トレイの本体に取り付けられるように構成された取付部と、および
    前記本体が患者の口の中に受け入れられたときに前記患者の前記口の外に配置されるように構成されたマーカー部であって、前記マーカー部はマーカーを備えている、前記マーカー部と、
    を備えている、マーカーハンドル。
JP2022560416A 2019-12-09 2020-12-08 上顎歯と顔面骨格との間の空間関係を決定する技術 Pending JP2023505396A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1918008.2 2019-12-09
GBGB1918008.2A GB201918008D0 (en) 2019-12-09 2019-12-09 Determining spatial relationship between upper teeth and facial skeleton
PCT/GB2020/053142 WO2021116671A1 (en) 2019-12-09 2020-12-08 Determining spatial relationship between upper teeth and facial skeleton

Publications (1)

Publication Number Publication Date
JP2023505396A true JP2023505396A (ja) 2023-02-08

Family

ID=69171930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022560416A Pending JP2023505396A (ja) 2019-12-09 2020-12-08 上顎歯と顔面骨格との間の空間関係を決定する技術

Country Status (9)

Country Link
US (1) US11980513B2 (ja)
EP (1) EP4073757A1 (ja)
JP (1) JP2023505396A (ja)
KR (1) KR20220114012A (ja)
CN (1) CN114830179A (ja)
AU (1) AU2020400331A1 (ja)
CA (1) CA3160881A1 (ja)
GB (1) GB201918008D0 (ja)
WO (1) WO2021116671A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0707454D0 (en) 2007-04-18 2007-05-23 Materialise Dental Nv Computer-assisted creation of a custom tooth set-up using facial analysis
WO2009140582A2 (en) 2008-05-16 2009-11-19 Geodigm Corporation Method and apparatus for combining 3d dental scans with other 3d data sets
CN102933171B (zh) 2010-02-25 2016-01-13 3形状股份有限公司 动态虚拟咬合架
US20140379356A1 (en) * 2013-06-20 2014-12-25 Rohit Sachdeva Method and system for integrated orthodontic treatment planning using unified workstation
KR101840444B1 (ko) 2016-05-04 2018-03-20 주식회사 메디트 치과용 3차원 데이터 처리장치 및 그 방법
ES2683085B2 (es) * 2017-02-24 2019-04-25 Dmr Dental S L Procedimiento de escaneo de un rostro humano para una alineacion entre el rostro y los dientes de una persona y conjunto de marcadores para su ejecucion
WO2018175486A1 (en) 2017-03-20 2018-09-27 Align Technology, Inc. Generating a virtual depiction of an orthodontic treatment of a patient

Also Published As

Publication number Publication date
CA3160881A1 (en) 2021-06-17
AU2020400331A1 (en) 2022-06-09
US20230009652A1 (en) 2023-01-12
US11980513B2 (en) 2024-05-14
WO2021116671A1 (en) 2021-06-17
EP4073757A1 (en) 2022-10-19
GB201918008D0 (en) 2020-01-22
CN114830179A (zh) 2022-07-29
KR20220114012A (ko) 2022-08-17

Similar Documents

Publication Publication Date Title
US10779719B2 (en) Alignment of three-dimensional data collected in dental sessions, and applications thereof
CN109414306B (zh) 用于口内扫描的历史扫描参考
CN111727022B (zh) 用于将患者的牙列的三维模型与患者的面部图像对准的方法
US10043287B2 (en) Automatic restitching of 3D surfaces
CN109717966B (zh) 用于牙齿整形的影像仿真方法及其影像仿真装置
US20220378548A1 (en) Method for generating a dental image
US20230012297A1 (en) Determining Spatial Relationship Between Upper and Lower Teeth
WO2020136241A1 (en) 3d segmentation for mandible and maxilla
US11044400B1 (en) Frame stitching in human oral cavity environment using intraoral camera
CN113039587B (zh) 使用口内扫描仪获取3d数据的混合方法
JP2023505396A (ja) 上顎歯と顔面骨格との間の空間関係を決定する技術
US20230013902A1 (en) System and Method for Correcting for Distortions of a Diagnostic Image
Wirtz et al. Automatic model-based 3-D reconstruction of the teeth from five photographs with predefined viewing directions
EP4276765A1 (en) Method to correct scale of dental impressions
EP4287202A1 (en) Digital dental impressions
EP4328861A2 (en) Jaw movements data generation apparatus, data generation method, and data generation program
EP4404139A1 (en) Method and system for aligning 3d representations
WO2024121067A1 (en) Method and system for aligning 3d representations
WO2023203385A1 (en) Systems, methods, and devices for facial and oral static and dynamic analysis
WO2023222547A1 (en) Automated methods for designing and fabricating an intra-oral appliance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240927