JP2023505397A - 上顎歯と下顎歯との間の空間関係の決定 - Google Patents
上顎歯と下顎歯との間の空間関係の決定 Download PDFInfo
- Publication number
- JP2023505397A JP2023505397A JP2022560417A JP2022560417A JP2023505397A JP 2023505397 A JP2023505397 A JP 2023505397A JP 2022560417 A JP2022560417 A JP 2022560417A JP 2022560417 A JP2022560417 A JP 2022560417A JP 2023505397 A JP2023505397 A JP 2023505397A
- Authority
- JP
- Japan
- Prior art keywords
- image
- teeth
- patient
- determining
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 93
- 210000000515 tooth Anatomy 0.000 claims description 109
- 238000009877 rendering Methods 0.000 claims description 21
- 210000004871 mandibular tooth Anatomy 0.000 claims description 20
- 210000002295 maxillary tooth Anatomy 0.000 claims description 20
- 230000003287 optical effect Effects 0.000 claims description 14
- 230000003068 static effect Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 9
- 238000011524 similarity measure Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 5
- 230000001419 dependent effect Effects 0.000 claims description 2
- 210000001847 jaw Anatomy 0.000 description 10
- 210000000214 mouth Anatomy 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 239000004575 stone Substances 0.000 description 5
- 230000001055 chewing effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 1
- 208000006440 Open Bite Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000004373 mandible Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000018984 mastication Effects 0.000 description 1
- 238000010077 mastication Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000000272 proprioceptive effect Effects 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C13/00—Dental prostheses; Making same
- A61C13/34—Making or working of models, e.g. preliminary castings, trial dentures; Dowel pins [4]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C19/00—Dental auxiliary appliances
- A61C19/04—Measuring instruments specially adapted for dentistry
- A61C19/05—Measuring instruments specially adapted for dentistry for determining occlusion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Epidemiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Veterinary Medicine (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Architecture (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
コンピュータで実施される方法は、患者(P)の上顎歯(U1)の3Dモデルと、患者(P1)の下顎歯(L1)の3Dモデルとを受け取る工程と、複数の2D画像を受け取る工程とを備えている。各2D画像は、患者(P)の上顎歯(U1)および下顎歯(L1)のうちの少なくとも一部を代表する。本方法はさらに、2D画像に基づき、患者(P)の上顎歯(U1)と下顎歯(L1)との間の空間関係を決定する工程を備えている。
Description
本発明は、上顎歯(アッパーティース)と下顎歯(ロウワーティース)との間の空間関係(スペ-シアルリレーションシップ)を決定するコンピュータ実装方法、および上顎歯と下顎歯との間の空間関係を決定するシステムに関する。
歯科治療において、上顎歯(上歯)と下顎歯(下歯)との関係を記録することはしばしば重要である。これは、最大歯間位置や他の歯間位置のような静的関係である場合がある。また、典型的な咀嚼運動や他の顎運動など、動きにおいて歯がどのように機能するかを記録することも重要である。例えば、上顎歯と下顎歯との間の関係やそれらの相対的な動きに関する知識は、クラウンやブリッジなどの歯科補綴物の製作に役立つ。よってそれら知識によれば歯科技工士は、補綴物が口の中で自然に感じられるとともに、過度のストレスを受けないことを保証することができる。
Hartley, R. and Zisserman, A., 2003.Multiple view geometry in computer vision. Cambridge university press
Fischler, M.A. and Bolles, R.C., 1981、Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography(ランダムサンプルコンセンサス:モデルフィッティングのためのパラダイム、画像解析と自動地図作成への応用)、Communications of the ACM, 24(6), pp.381-395
Walls, A.W.G., Wassell, R.W. and Steele, J.G., 1991.A comparison of two methods for locating the intercuspal position (ICP) whilst mounting casts on an articulator(咬合器にモデルを装着しながら、犬歯間位(ICP)を位置決めするための2つの方法の比較)。Journal of oral rehabilitation(口腔リハビリテーション学会誌),18(1),pp.43-48
Ullman,S.,1976.The Interpretation of Structure from Motion (No. AI-M-476). Massachusetts Inst of Tech Cambridge Artificial Intelligence Lab
これらの関係を決定(判定)する従来の方法は、エラーが発生しやすく、コストがかかる場合がある。例えば、上顎歯と下顎歯との間の静的関係を決定するには、上顎歯の印象(インプレッション)と下顎歯の印象とからそれぞれ鋳造された2つの流し込みストーンモデル(石造模型)を、一緒にクランピングする(挟み込む)ことで実施することができる。しかし、これは歯科技工士がそれらモデルを適切に位置決めすることに依存しているとともに、クランプ工程でオープンバイト(開咬)などのアライメントエラー(位置合わせ誤差)が発生する虞れがある。また、歯科咬合器を使用する場合にも、同様の問題が発生する虞れがある。
最新のデジタル方式では、高価な3Dスキャン装置(三次元走査エクイップメント)が必要になるとともに、従来の方式と比較して精度が向上しない場合がある。これは、動的な動きを記録する方法では、患者の口の中(口腔内)に器具を配置する必要があるので、固有感覚フィードバックが乱れることによって、不自然な顎の動きになってしまうことが一因と考えられる。
本開示の目的は、上記の困難、および本明細書の説明に対して当業者に明らかである他の困難を克服することにある。上顎歯と下顎歯との間の静的または動的な関係を決定するための費用対効果の高い正確な手段を提供することが、本開示の更なる目的である。
本発明によれば、添付の特許請求の範囲に規定されるような装置および方法が提供される。本発明の他の特徴は、従属請求項、および以下に続く説明から明らかになるであろう。
本開示の第1態様によれば、以下を備えているコンピュータ実装方法が提供される。
患者の上顎歯の3Dモデル(三次元模型)と、患者の下顎歯の3Dモデルとを受け取る工程と、
複数の2D画像(二次元イメージ)を受け取る工程であって、各2D画像は患者の上顎歯および下顎歯のうちの少なくとも一部を代表する、複数の2D画像を受け取る工程と、
2D画像に基づき、患者の上顎歯と下顎歯との間の空間関係(スペ-シアルリレーションシップ。空間的関係)を決定する工程と。
患者の上顎歯の3Dモデル(三次元模型)と、患者の下顎歯の3Dモデルとを受け取る工程と、
複数の2D画像(二次元イメージ)を受け取る工程であって、各2D画像は患者の上顎歯および下顎歯のうちの少なくとも一部を代表する、複数の2D画像を受け取る工程と、
2D画像に基づき、患者の上顎歯と下顎歯との間の空間関係(スペ-シアルリレーションシップ。空間的関係)を決定する工程と。
2D画像に基づき、患者の上顎歯と下顎歯との間の空間関係を決定する工程は、上顎歯の3Dモデルおよび下顎歯の3Dモデルのうちの一方(1つ)に対する2D画像の最適アライメント(最適位置合わせ)を決定する工程と、上顎歯の3Dモデルおよび下顎歯の3Dモデルのうちの一方と、患者の上顎歯の3Dモデルおよび下顎歯の3Dモデルのうちの他方と、の間の最適アライメントを決定する工程と、を備えていることができる。
最適アライメントを決定する工程は、2D画像の各々について、2D画像がキャプチャ(撮影)されたカメラ姿勢(カメラポーズ)の現在の推定(カレントエスティメイト。現在の推定値)と、患者の上顎歯の3Dモデルと下顎歯の3Dモデルとの間の空間関係とに基づき、3Dシーン(scene)をレンダリング(レンダー)する工程と、カメラ姿勢の現在の推定に基づき、レンダリングされた3Dシーンから2Dレンダリングを抽出する(取り出す)工程と、2Dレンダリングを2D画像と比較することで、2Dレンダリングと2D画像との間の差のレベルを示すコストスコアを決定する工程と、を備えているものであってもよい。最適アライメントを決定する工程は、最適化器(オプティマイザ)を、好ましくは非線形最適化器を使用することで、2D画像のすべてに亘って最適アライメントを反復して得る工程を備えてもよい。
コストスコアは、2Dレンダリングと2D画像との間で計算される相互情報スコアを備えてもよい。コストスコアは、2Dレンダリングと2D画像とから抽出された対応する画像特徴同士の類似度スコア(類似性得点。シミラリティスコア)を備えて構成されてもよい。画像特徴は、コーナー特徴であってもよい。画像特徴は、エッジであってもよい。画像特徴は、画像勾配特徴であってもよい。類似度スコアは、ユークリッド距離、ランダムサンプリング、1対1(ワンツーワンネス)のうちの1つであってよい。相互情報スコアを計算する前に、レンダリングおよび2D画像は前処理されてもよい。レンダリングおよび2D画像に、畳み込み(コンボリューション)やフィルタを適用してもよい。
コストスコアは、2Dレンダリングと2D画像との間の最接近一致スコア(クローゼストマッチ得点)を備えて構成されてもよい。最接近一致スコアは、2Dレンダリングからの2D特徴と、2D画像からの2D特徴と、の比較に基づいてもよい。
コストスコアは、2D-3D-2D-2Dコスト(2d-3d-2d-2dコスト)を備えてもよい。2D-3D-2D-2Dコストは、レンダリングされた3Dシーンから、2D画像特徴を抽出する工程と、抽出された特徴を、レンダリングされた3Dシーンに再投影(リ・プロジェクティング)する工程と、2D画像から画像特徴を抽出する工程と、2D画像から抽出された特徴を、レンダリングされた3Dシーンに再投影する工程と、3D空間に再投影された特徴同士間の差を示す類似度尺度(シミラリティメジャー。類似性測定値)を計算する工程と、によって計算される。
コストスコアは、複数の2D画像の連続する画像同士間の画素(ピクセル)を追跡することで計算されるオプティカルフローコストを備えてもよい。オプティカルフローコストは、密なオプティカルフローに基づくものであってもよい。追跡された画素は、オクルードされ(隠され)ていると判定された画素を除外してもよい。
コストスコアを決定する工程は、異なる抽出された特徴および/または類似度尺度に基づき、複数の異なるコストスコアを決定する工程を備えてもよい。最適化器による各反復で使用されるコストスコア同士は、異なってもよい。コストスコアは、コストスコアの第1選択と、コストスコアの第2選択とを交互に繰り返してもよい。第1選択および第2選択のうちの一方は2D-3D-2D-2Dコストを備えており、他方は備えていない。
複数の2D画像はそれぞれ、実質的に同じ静的アライメントにある上顎歯および下顎歯を示すことができる。
複数の2D画像はそれぞれ、患者の上顎歯および下顎歯のうちの少なくとも一部を備えていてもよい。複数の2D画像は、患者の頭部の周囲でカメラを移動させながらキャプチャしてもよい。
複数の2D画像はそれぞれ、患者の上顎歯および下顎歯のうちの少なくとも一部を備えていてもよい。複数の2D画像は、患者の頭部の周囲でカメラを移動させながらキャプチャしてもよい。
複数の2D画像はそれぞれ、咬合状態(オクルージョン)にある患者の上顎歯の歯科モデルおよび患者の下顎歯の歯科モデルのうちの少なくとも一部を備えていることができる。複数の2D画像は、咬合状態に保持された患者の上顎歯のモデルおよび患者の下顎歯のモデルの周囲でカメラを移動させながらキャプチャされてもよい。上顎歯のモデルは、マーカーを備えていてもよい。下顎歯のモデルは、マーカーを備えていてもよい。上顎歯の3Dモデルおよび下顎歯の3Dモデルのうちの一方(1つ)に対する2D画像の最適アライメントの決定は、歯科モデルに配置されたマーカーに基づき行われてもよい。
本方法は、第1位置における患者の上顎歯と下顎歯との間の第1空間関係を決定する工程と、第2位置における患者の上顎歯と下顎歯との間の第2空間関係を決定する工程と、第1空間関係と第2空間関係との間の空間変換(スペ-シアルトランスフォーメーション。空間的変換)を決定する工程と、を備えてもよい。空間変換を決定する工程は、横方向ヒンジ軸を決定する工程を備えてもよい。第1位置は、閉じ位置(クローズドポジション)であってもよい。第2位置は、開き位置(オープンポジション)であってもよい。
複数の2D画像は、複数の2D画像セットを備えてよく、各2D画像セットは、異なる複数の視点からの患者の顔の複数の同時キャプチャされた画像(同時キャプチャ画像)を備えてよい。複数の2D画像は、異なる視点から同時にキャプチャされた、動いている上顎歯および下顎歯の動画(ビデオ。映像)を備えて構成されてもよい。本方法は、各2D画像セットに基づき空間関係を決定する工程を備えてもよい。本方法は、各2D画像セットにおいて、下顎歯の3Dモデルに接触している上顎歯の3Dモデルの領域を決定する工程と、上顎歯または下顎歯の3Dモデル上にその決定された領域を表示する工程とを備えてもよい。
本開示の第2態様によれば、プロセッサとメモリとを備えているシステムが提供される。メモリは、プロセッサによって実行されると本明細書に規定される方法のうちのいずれかをシステムに実行させる命令を格納(記憶)する。
本発明のさらなる態様によれば、コンピュータデバイスによって実行されるとコンピュータデバイスを本明細書に規定するように構成させるか、および/またはコンピュータデバイスに本明細書に規定する方法のうちのいずれかを実行させる、命令をその上に記録した有形で非一時的な(非一過性の)コンピュータ可読記憶媒体が提供される。
本発明のさらなる態様によれば、プログラムがコンピュータによって実行されるときにコンピュータに本明細書に記載の方法のうちのいずれかを実行させる命令を備えている、コンピュータプログラム製品が提供される。
本発明をより良く理解するべく、そして同じものの例がどのように実施され得るかを示すために、次に、例としてのみ、添付の概略図面を参照する。
図面において、対応する参照文字は、対応する構成要素を示す。当業者は、図中の要素が単純化および明確化のために図示されているので、必ずしも縮尺通りに描かれていないことを理解するであろう。例えば、図中のいくつかの要素の寸法は、様々な例示的な実施例の理解を深めるべく、他の要素に対して誇張されている場合がある。また、商業的に実現可能な例において有用であるかまたは必要である一般的であるがよく理解されている要素は、これらの様々な例示的な例の視界をあまり妨げないようにするべく、描かれていないことが多い。
概要において、本開示の実施例は、複数の2D画像に基づき、上顎歯と下顎歯との間の空間関係を決定する手段を提供する。各画像は、上顎歯および下顎歯のうちの少なくとも一部を備えている。複数の2D画像は、上顎歯の3Dモデルを下顎歯の3Dモデルにアライメントするべく使用されてもよい。いくつかの例では、複数の2D画像は、患者の顔の周りを移動するカメラによってキャプチャされた動画を備えているか、または咬合に保持されている上顎歯および下顎歯のキャストストーンモデルを備えている。他の例では、複数の2D画像は、患者の顔の複数の同時にキャプチャされた動画を備えており、同時にキャプチャされた動画の各々は、異なる視点からキャプチャされている。
図1は、上顎歯と下顎歯との間の空間関係を決定する方法の一例を示す図である。図1の例では、空間関係は、最大歯間位置のような静的空間関係である。
ブロックS11において、患者の上顎歯の3Dモデルは受け取られる。ブロックS12では、患者の下顎歯の3Dモデルは受け取られる。
ブロックS11において、患者の上顎歯の3Dモデルは受け取られる。ブロックS12では、患者の下顎歯の3Dモデルは受け取られる。
上顎歯と下顎歯の3Dモデルは、適切な3D歯科スキャナを使用することで得ることができる。例えば、本出願人の係属中の英国特許出願GB1913469.1に記載された歯科スキャナを使用してもよい。歯科スキャナは、上顎歯および下顎歯から採取された印象(インプレッション)を、印象から鋳造されたストーンモデルを、または印象とストーンモデルとの組み合わせを、スキャンするべく使用されてもよい。
さらなる例では、3Dモデルは、ストーンモデルをスキャンするか、または患者の口内に配置するのに適した口腔内スキャナの形態をとる、他の市販のスキャナによって得られてもよい。
3Dモデルはそれぞれ、STL形式またはPLY形式、または3Dモデルを格納するのに適した他のデータ形式のデータファイルの形態をとってもよい。
ブロックS13において、複数の2D画像がキャプチャされる。2D画像の各々は、所望の静的空間関係で保持された、上顎歯の少なくとも一部と下顎歯の一部とを備えている。
ブロックS13において、複数の2D画像がキャプチャされる。2D画像の各々は、所望の静的空間関係で保持された、上顎歯の少なくとも一部と下顎歯の一部とを備えている。
図2は、複数の2D画像をキャプチャする方法の一例を示す図である。図2に示すように、複数の2D画像は、例えばスマートフォン100のカメラであってもよいような単一のカメラ101によってキャプチャ(撮像)されてもよい。カメラ101は、所定の(予め定められた)フレームレートで画像をキャプチャするような動画キャプチャモードに置かれてもよい。次に、カメラ101は、所望の静的空間関係で上顎歯U1および下顎歯L1を保持している患者Pの顔の周りで、弧A1を描くように移動される。上顎歯U1および下顎歯L1は、患者Pが唇同士を離して保持しているか、またはそれらが他の標準的な歯科手段によって引っ込んでいるので、少なくとも部分的にカメラによって見えている。従って、複数の2D画像がキャプチャされるとともに、各2D画像は患者の上顎歯および下顎歯のうちの少なくとも一部を備える。
一実施例では、カメラ101は、2D画像をキャプチャする前に較正される。特に、カメラ101は、カメラ101のレンズおよび画像センサのパラメータを決定または推定するべく較正処理を受けることがあるので、これらのパラメータは、レンズ歪みおよびバレリング(barrelling。半径歪み(ラジアルディストーション)とも呼ばれる)などの現象を補正するとともに、正確な3Dシーン再構成を可能にするべく使用することができる。較正処理はまた、カメラ101の焦点距離および光学中心を決定してもよい。較正処理は、既知の寸法および形状を有する対象物の画像をキャプチャするとともに、それに基づきレンズおよび画像センサのパラメータを推定する工程を備えてもよい。カメラを較正する例示的な方法は、非特許文献1に記載されているとおりであってよく、その内容は参照によって本明細書に組み込まれる。
図1に戻ると、ブロックS14において、上顎歯と下顎歯との空間アライメント(スペ-シアル位置関係。空間的位置関係)が決定される。2D画像は、上顎歯および下顎歯の3Dモデル同士をアライメントするべく使用される。それによって、そのようなモデル同士の空間アライメントは、キャプチャ画像(キャプチャされた画像)に示されるように、モデル同士の相対的アライメントに対応する。2D画像を使用することで上顎歯と下顎歯とをアライメントする方法について、図3~図5を参照して以下に詳細に説明する。
図3は、図1のブロックS14の処理をさらに詳細に示す図である。この処理は、カメラ101によってキャプチャされた各2D画像における上顎歯と下顎歯との姿勢(ポーズ)と、カメラ姿勢(すなわち、カメラ101の位置)と、を推定する。
第1工程S31では、上顎歯に対するカメラ姿勢を決定するように、キャプチャ画像が上顎歯にアライメントされる。一例では、カメラ101によるキャプチャ画像のうち、第1キャプチャ画像のカメラ姿勢の初期推測が受け取られる。これは、ユーザ入力を介して-例えば、ユーザインタフェースを介してモデルを第1キャプチャ画像にアライメントするようにモデルをドラッグするユーザによって-実施されてもよい。別の例では、標準化された動画化プロトコルが使用されてもよい。例えば、画像をキャプチャするユーザは、カメラ101を患者Pの顔の或る部分に向けた状態で動画を開始するように指示されてもよく、これによって、第1画像のおおよその姿勢が知られるようになる。
第2工程S32では、下顎歯L1を上顎歯U1にアライメントするための変換Tlowerは、キャプチャされた全ての2D画像に亘って同時に最適化される。したがって、下顎歯L1および上顎歯U1のアライメントの決定が行われる。いくつかの例では、カメラ姿勢および変換Tlowerは、その後、同時に反復的に最適化される。
次に、3Dモデルを2D画像にアライメントする方法について、図4および図5を参照して説明する。
ブロックS41において、カメラ姿勢Cおよびモデル(上顎歯U1)姿勢の現在の推定に基づき、シーンSの3Dレンダリングが実行される。この結果、カメラ位置(C)の推定から見た、シーンの現在の推定の2Dレンダリング画像(R)が得られる。
ブロックS41において、カメラ姿勢Cおよびモデル(上顎歯U1)姿勢の現在の推定に基づき、シーンSの3Dレンダリングが実行される。この結果、カメラ位置(C)の推定から見た、シーンの現在の推定の2Dレンダリング画像(R)が得られる。
ブロックS42において、レンダリング画像Rは、モデル姿勢およびカメラ姿勢の現在の推定をスコア化するように、2Dキャプチャ画像(I)と比較される。キャプチャ画像Iとレンダリング画像Rとの間の類似度が高いほど、推定が正しいという可能性が高くなる。
レンダリング画像Rとキャプチャ画像Iとの類似度を評価するべく、類似度メトリクスが計算されてもよい。類似度メトリクスはコストスコアを出力してもよく、より高いコストスコアは、レンダリング画像Rとキャプチャ画像Iとの間のより高い相違度を示す。
一例では、相互情報スコア(MIスコア。ミューチュアルインフォメーション得点)が、レンダリング画像Rとキャプチャ画像Iとの間で計算される。相互情報MIは、レンダリング画像Rおよびキャプチャ画像Iに直接基づき、計算されてもよい。しかし、さらなる例では、相互情報MIスコアの効果を高めるべく、レンダリング画像Rおよびキャプチャ画像Iは、相互情報MIの計算前に異なる方法で処理されることができる。例えば、ソーベル勾配処理のようなフィルタが、レンダリング画像Rおよびキャプチャ画像Iに適用されてもよい。もしくは、機械学習されたまたは設計された、別の画像畳み込みが、レンダリング画像Rおよびキャプチャ画像Iに適用されてもよい。
一例では、レンダリング画像Rおよびキャプチャ画像Iのそれぞれについて、そのレンダリング画像Rおよびキャプチャ画像Iから顕著な特徴(例えば、領域またはパッチ)を抽出するように、特徴抽出が実施される。例えば、レンダリング画像Rおよびキャプチャ画像Iの各々からエッジ点または領域を抽出するべく、エッジ抽出法が適用される。別の例では、レンダリング画像Rおよびキャプチャ画像Iの各々からコーナー点または領域を抽出するべく、コーナー抽出法が適用される。例えば、画像勾配特徴が抽出されてもよい。または、例えば畳み込みニューラルネットワークで学習されたような、他の機械学習された顕著な特徴が抽出されてもよい。
レンダリング画像Rとキャプチャ画像Iとからそれぞれ抽出された対応する顕著な特徴は、次に、それら同士間の類似度を決定するべくマッチングされる。例えば、マッチングは、抽出された点同士間のユークリッド距離のような類似度尺度(シミラリティメジャー)を採用してもよい。類似度尺度には、非特許文献2で議論されているような抽出点のランダムサンプリングや、または1対1のような尺度などを採用してもよい。
更なる例では、本明細書で2D-3D-2D-2Dコストと呼ばれるコストは、以下のように計算される。
まず、2D特徴(エッジ/コーナー/機械学習されたまたは人間が設計した畳み込み)は現在の3Dレンダリング推測の2D画像(R)から抽出され、その結果、点セットA2が生成される。次に、これらの2D特徴が3Dレンダリングに再投影されることで、3D点セット(点セットA3)が得られる。
まず、2D特徴(エッジ/コーナー/機械学習されたまたは人間が設計した畳み込み)は現在の3Dレンダリング推測の2D画像(R)から抽出され、その結果、点セットA2が生成される。次に、これらの2D特徴が3Dレンダリングに再投影されることで、3D点セット(点セットA3)が得られる。
2Dカメラ画像(キャプチャ画像I)において、対応する2D特徴(点セットB2)が抽出される。次に、B2とA2との間の対応が、一般的には最近点探索を用いて割り当てられるが、これは、最も近い類似度因子で補強されることもある。その後、同等の3D対応(A3)が計算されることで、2D-3D対応B2-A3セットとなる。ここで課題は点A3(A2′と呼ばれる)の2D再投影誤差を最小にすることであり、B2-A2′が最小になるようにカメラ姿勢またはモデル姿勢を最適化することによって行われる。
概念的には、このスコアは、3Dモデル上にエッジ点(または他の顕著な点)をマークする工程と、2Dカメラ画像上の最も近いエッジ点を見つける工程とを備える。次に、これらの3Dエッジ点の再投影が2D画像点に一致するように、モデルを移動させる工程を備えている。
3Dモデル上にマークされたエッジ点と、それに対応するカメラ画像の2D点とは、各反復においてますます真に対応する可能性が高くなるので、全処理は反復的に繰り返し行われる。
さらなるコストは、レンダリング画像R(これもシルエットレンダリングなどの前処理がされている場合がある)から2D特徴を抽出する工程と、カメラ画像から2D特徴を抽出する工程とである。2つの画像同士間の最接近一致(クローゼストマッチ)が見つかると、現在のコストスコアとして使用されるとともに、それが最適化器(オプティマイザ)に直接フィードバックされることで、モデル姿勢(またはカメラ姿勢)を少し調整するとともにレンダリングを再計算することができる。この方法は、対応が反復ごとに更新されることで対応距離が最適化器を導くためのスコアとして使用される事項において、2D-3D-2D-2Dコストとは異なる。これに対し、2D-3D-2D-2Dコストは、現在の対応セットを最小化するべく反復する(すなわち内側ループ)とともに、次にレンダリングを再計算することで新しい対応を得て再び反復する(外側ループ)ことで計算される。
別のコストスコアは、オプティカルフローを使用することで計算されるかもしれない。オプティカルフローは、シーケンス中の連続したフレーム同士間の画素を追跡する技術である。フレームが連続的に記録されるので、レンダリング画像Rにおける画素の追跡位置が、キャプチャ画像Iにおける画素の追跡位置とは著しく異なる場合、モデルとカメラ姿勢との推定は不正確であることを示す。
一実施例では、オプティカルフロー予測は、前方(フォワード。前向き)に、すなわち、キャプチャされた動画の先行フレームに基づき実施される。一実施例では、オプティカルフロー予測は、後方(バックワード。後ろ向き)に実施される、すなわち、後続のフレームに基づくオプティカルフロー予測が計算され得るように、動画のフレームの順序は逆転される。
一例では、密なオプティカルフロー技法が採用される。密なオプティカルフローは、画像内の画素のサブセットに対して計算されてもよい。例えば、画素は、その画素の位置に基づき、カメラの光学中心から延びるベクトルに対して実質的に直交する平面内に存在すると仮定される画素に限定されてもよい。一例では、画素は、顔にフィッティング(適合)された顔モデルに基づき、患者Pの顔によって(例えば、鼻によって)隠されていると判定(決定)されてもよい。そのような画素は、その後、オプティカルフローによって追跡されなくなることがある。
一例では、異なる抽出された特徴および/または類似度尺度に基づき、複数の異なるコストスコアを決定するように、上述の方法のうちの複数が適用される。
ブロックS41およびS42の処理は、複数のキャプチャ画像(撮像画像)に対して実施される。例えば、処理は、キャプチャ画像のすべてについて実施されてもよい。しかし、他の例では、キャプチャ画像のサブセットが選択されてもよい。例えば、キャプチャ画像のサブサンプルが選択されてもよい。サブサンプルは、1個おきのキャプチャ画像、3個おきのキャプチャ画像、または10個おきのキャプチャ画像などの、規則的なサブサンプルであってよい。
ブロックS41およびS42の処理は、複数のキャプチャ画像(撮像画像)に対して実施される。例えば、処理は、キャプチャ画像のすべてについて実施されてもよい。しかし、他の例では、キャプチャ画像のサブセットが選択されてもよい。例えば、キャプチャ画像のサブサンプルが選択されてもよい。サブサンプルは、1個おきのキャプチャ画像、3個おきのキャプチャ画像、または10個おきのキャプチャ画像などの、規則的なサブサンプルであってよい。
従って、モデル推定位置およびカメラ推定位置に基づき、各キャプチャ画像とその対応するレンダリング画像との間の類似度を反映する、複数のコストスコアが導出される。
一例では、連続するフレーム同士間の推定カメラ姿勢の差は、追加のコストスコアとして計算されてもよい。言い換えれば、現在の画像の推定カメラ姿勢と、前にキャプチャされたフレームと、の間の距離が計算されてもよい。および/または、現在の画像の推定カメラ姿勢と、その後にキャプチャされたフレームと、の間の距離が計算されてもよい。画像は連続してキャプチャされるので、連続するフレーム同士間のカメラ姿勢の大きな差は、不正確な推定を示す。
一例では、連続するフレーム同士間の推定カメラ姿勢の差は、追加のコストスコアとして計算されてもよい。言い換えれば、現在の画像の推定カメラ姿勢と、前にキャプチャされたフレームと、の間の距離が計算されてもよい。および/または、現在の画像の推定カメラ姿勢と、その後にキャプチャされたフレームと、の間の距離が計算されてもよい。画像は連続してキャプチャされるので、連続するフレーム同士間のカメラ姿勢の大きな差は、不正確な推定を示す。
ブロックS43において、各画像のコストスコアが非線形最適化器に供給されるので、ブロックS41およびS42の処理を反復するとともに、各反復でカメラ姿勢およびモデル姿勢を調整する。キャプチャ画像のそれぞれについて、同時に最適化する解が得られる。反復は、収束閾値に到達したときに停止する。一例として、採用される非線形最適化器は、レーベンベルグ-マルカールト(Levenberg-Marquardt)アルゴリズムである。他の例では、Eigen(http://eigen.tuxfamily.org/)、Ceres(http://ceres-solver.org/)、またはnlopt(https://nlopt.readthedocs.io)などのソフトウェアライブラリから、他のアルゴリズムが採用され得る。
さらなる例では、各反復で使用されるコストスコアは異なってもよい。言い換えれば、上述のスコアの選択が各反復で計算されるとともに、その選択は反復ごとに異なってもよい。例えば、本方法は、上記スコアの第1選択と、上記スコアの第2選択と、を交互に行うことができる。一例では、第1選択および第2選択のうちの一方は2D-3D-2D-2Dコストを備えているが、他方はそうではない。上述の方法で様々なコストメトリクスを使用することで、よりロバストなソリューションが見出され得る。
図6は、上顎歯と下顎歯との間の空間関係を決定する方法の更なる実施例を示す図である。図6は、図1~図5を参照して上述した方法に実質的に対応する。しかしながら、カメラ101を患者Pの顔の周りに通過させるのではなく、代わりに、カメラ101を上顎歯のモデルU2および下顎歯のモデルL2の周りに移動させる。モデルU2,L2は、患者Pの上顎歯U1と下顎歯L1とを採取した歯科印象(歯型)から鋳造される。さらに、モデルU2,L2は、歯科技工士の手Hによって咬合状態で保持される。この方法は、経験豊富な施術者による歯間位置の手による咬合は比較的正確であることを利用した(非特許文献3)。さらに、モデルU2,L2の歯は唇によって隠されていないので、正確なアライメントが容易になると思われる。
一実施例では、歯科モデル(U2,L2)のうちの一方または両方に、マーカーを付けてもよい。マーカーは、例えば、QRコード(登録商標)または色付きマークの形態をとることができる。マーカーは、スキャンされた3Dモデルの一部を形成する必要はない。従って、歯科モデル(U2、L2)がスキャンされた後に、マーカーは歯科モデル(U2、L2)に適用されることができる。マーカーは、次に、標準的な「運動から構造」(ストラクチャ-フロム-モーション)の技法を使用することで、モデルに対するカメラ姿勢を決定するべく使用される。例えば、その技術は、非特許文献4に示された技術であってもよい。従って、この技術は、上記で示した第1工程S31に置き換えることができる。
図7は、患者の横方向水平軸(THA。トランスバースホリゾンタルアクシス)を決定する方法の一例を示している。これは、図8Aおよび図8Bに示されており、それぞれ、顎12が閉じた位置と、顎12が開いた位置と、に存在する患者の頭蓋骨10を示している。横方向水平軸THA11は、口の純粋な回転開閉中に下顎が当該ヒンジ軸上で回転する可能性のあるヒンジ軸(ヒンジ軸線)である。図8Bでは、上顎歯U1と下顎歯L1とを静的に離して保持するべく、装置13が上顎歯U1と下顎歯L1との間に挿入されている。装置13は、前方治具またはデプロイメント装置であってもよい。
図7のブロックS71では、図8Aに示すように、顎12がほぼ閉じた位置にある状態で、上顎歯U1と下顎歯L1との空間関係が決定される。ブロックS72では、例えば図8Bに示すように、顎12が開き位置(最大20mm開)にある状態で、上顎歯U1と下顎歯L1との空間関係が決定される。それぞれの場合において、下顎骨は、セントリック(中心)に姿勢設定されてもよい。
ブロックS73において、2つの空間アライメントにおける上顎歯U1に対する下顎歯L1の異なる位置に基づき、横方向水平軸THAは決定される。
一例では、横方向水平軸THAは、共通の座標系を作成するべく、上顎歯U1の両方のスキャンにおける複数の点(例えば、3点)をアライメントさせることで決定される。次に、下顎歯L1のスキャンにおける複数の点の、閉じ位置から開き位置への移動を表す3×4変換行列が計算される。そして、変換行列の左上3×3の部分行列を用いて、回転軸の向きと、軸周りの回転の度合いとを計算することができる。
一例では、横方向水平軸THAは、共通の座標系を作成するべく、上顎歯U1の両方のスキャンにおける複数の点(例えば、3点)をアライメントさせることで決定される。次に、下顎歯L1のスキャンにおける複数の点の、閉じ位置から開き位置への移動を表す3×4変換行列が計算される。そして、変換行列の左上3×3の部分行列を用いて、回転軸の向きと、軸周りの回転の度合いとを計算することができる。
この軸の空間位置(スペ-シアルロケーション。空間的位置)は無限に存在するとともに、それぞれ回転の後に異なる並進ベクトルが適用される。横方向水平軸THAの位置を見つけるべく、開始位置から終了位置まで点が追跡される。そして、算出された軸に一致する方向に並進ベクトルを拘束する解(ソリューション)を求める。この解は、閉形式数学(例えば、特異値分解)によって、または勾配降下法などの他の開放型最適化手法によって、求めることができる。これによって、軸上の点に相当するベクトルと、軸に沿った並進ベクトルの大きさと、が得られる。後者のベクトルは、理論的にはゼロであるべきである。
さらなる例では、顎を様々な開き度合で保持するべく、例えば様々な厚さの治具またはデプロイメント(ディプログラマ)を使用することで、複数の位置について上顎歯および下顎歯の空間アライメントを決定することができる。これによって、ヒンジ軸を計算するべく、複数の空間アライメントを使用することができる。
別の実施例では、上顎歯U1と下顎歯L1との間の空間関係は、突出性または側方静的登録において決定される。そのような登録から、前方または側方ガイダンスが推定され得る。したがって、様々な静的姿勢における歯の空間アライメントの決定に基づき、動的な顎の動きの推定がなされ得る。
ここで図9に目を向けると、本開示の別の実施例が図示されている。この実施例では、2つのカメラ200A、200Bが採用される。上述した実施例とは対照的に、カメラ200A,200Bは、固定された位置に設けられている。すなわち、カメラ200A,200Bは、互いに対して固定されており、画像キャプチャ時に移動することはない。例えば、カメラ200A,200Bは、適切なスタンド、治具等の支持機構(図示せず)によって、固定位置に支持されていてもよい。
カメラ200A,200Bは、各カメラが異なる視点を有するように配置され、したがって、口の異なる部分の画像をキャプチャする。各カメラ200の視線は、点線201A,201Bで表されている。例えば、図9において、カメラ200Aは、患者Pの顔の右側をキャプチャ(撮像)するように配置されている。カメラ200Bは、患者Pの顔の左側をキャプチャするように配置されている。
カメラ200A,200Bは、同期して動作するように構成されている。すなわち、カメラ200A,200Bは、特定の時間指標(タイムインデックス)で同時に画像をキャプチャすることができる。従って、カメラ200A,200Bは、患者Pの口の2つの同時にキャプチャされた視点を提供する。
図10は、カメラ200A,200Bを用いて、例えば上顎歯U1と下顎歯L1との間の空間関係を決定する方法を示している。
ブロックS1001において、カメラ200A,200Bは、同期画像をキャプチャする。ブロックS1002において、上顎歯U1および下顎歯L1の空間アライメントは、時間指標について、当該時間指標においてキャプチャ画像に基づき計算される。
ブロックS1001において、カメラ200A,200Bは、同期画像をキャプチャする。ブロックS1002において、上顎歯U1および下顎歯L1の空間アライメントは、時間指標について、当該時間指標においてキャプチャ画像に基づき計算される。
上述したように、図1~図6の方法では、カメラ101によってキャプチャされた全ての画像において、上顎歯U1および下顎歯L1が同じ空間アライメントに留まると仮定される。よって、カメラ101が患者の顔の周りを通過するときのカメラ101によってまたは咬合に保持されたモデルによって、キャプチャされた複数の画像に基づき最適アライメント解(ソリューション)が見いだされる。
これに対し、図9~図10の方法では、カメラ200A,200Bによって同期してキャプチャされた各セット(各組)の画像が同時にキャプチャされたことで、必然的に上顎歯U1および下顎歯L2は同じ空間アライメントで表示される。したがって、図1~図6に関連して上述した方法を、同期キャプチャ画像の各セットに適用することで、時間指標ごとにアライメントが決定されるようにしてもよい。
これによって、上顎歯U1と下顎歯L2との間の空間アライメント(スペーシアル位置関係)を動的に決定することができる。フレームごとにコストの2個(またはそれ以上個)のセットを得て組み合わせることで、最適化のロバスト性および収束特性が改善され得る。したがって、歯の1つのみのスナップショット(すなわち、2つ以上の同時画像から)は、3Dスキャンをロバストにアライメントすることができる。したがって、(例えば、咀嚼しながら)動いている上顎歯U1および下顎歯L2の動画をキャプチャすることで、上顎歯U1と下顎歯L2との間の相互作用の記録を導出することができる。この記録を使用することで、歯科技工士は、クラウンなどの補綴物を患者の咀嚼運動に調和するように設計することを保証できる。
一例では、各時間指標(タイムインデックス)における上顎歯U1と下顎歯L2との間の接触は、GUIを介してユーザに表示され得る。例えば、図11Aは、下顎歯L1の3Dモデル301を表示しているGUI300を示す。特定の時間指標T1において上顎歯U1に接触している下顎歯L1の領域302は、強調表示(ハイライト)されている。例えば、領域302は、GUI300上で異なる色で表示されてもよい。図11Bは、異なる時間指標T2における同じ3Dモデル301を示しているとともに、この時点では下顎歯L1と上顎歯U1との接触がより多くなっている。GUI300は、各時間指標における上顎歯U1/下顎歯L1間の接触を順次表示することで、キャプチャ画像全体を通じて上顎歯U1/下顎歯L1間の接触を示すアニメーション動画を表示するようにしてもよい。したがって、歯科技工士は、例えば咀嚼動作中の上顎歯U1/下顎歯L1間の接触を容易に理解することができるので、ユーザが適切な補綴物を設計することを支援することができる。さらに、データは歯科CADパッケージにインポートされることで、患者の顎の動きに調和した診断と補綴物の設計とを可能にすることができる。
上記の例では、2台のカメラ200A,200Bが使用されているが、他の例では、より多くのカメラが患者Pの口の周りに配置されるとともに、画像を同期してキャプチャするように構成されてもよい。そのような例では、図1~図6に関連して上に概説した方法は、複数のカメラによって特定の時間指標でキャプチャされた全ての画像に適用されてもよい。
図12は、上顎歯と下顎歯との間の空間関係を決定するための例示的なシステム400を示す。システム400は、コントローラ410を備えて構成されている。コントローラは、プロセッサまたはフィールドプログラマブルゲートアレイ(FPGA)、グラフィック処理ユニット(GPU)等の他の計算要素で構成されてもよい。いくつかの例では、コントローラ410は、複数の計算要素で構成されている。システムはまた、メモリ420を備えている。メモリ420は、システム400の動作に必要な任意の情報を、一時的または恒久的に記憶するための任意の適切な記憶装置を備えて構成されてもよい。メモリ420は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、フラッシュストレージ、ディスクドライブ、および任意の他のタイプの適切な記憶媒体で構成されてもよい。メモリ420は、コントローラ410によって実行されると、システム400に本明細書に規定される方法のいずれかを実行させる命令を格納する。さらなる例では、システム400は、ディスプレイと、マウスおよびキーボードまたはタッチスクリーンなどの入力手段とを備えていてもよい、ユーザインタフェース430を備えている。ユーザインタフェース430は、GUI300を表示するように構成されてもよい。さらなる例では、システム400は、それぞれがコントローラとメモリとを備えてネットワークを介して接続された複数のコンピューティングデバイスを備えて構成されてもよい。
本発明の範囲内で、本明細書で論じた実施例に様々な変更を加えることができる。例えば、3Dモデルおよび2D画像が受け取られる順序が変更されてもよいことが理解されるであろう。例えば、2D画像は、3Dモデルのスキャンの前にキャプチャされ得る。上記の例は、カメラに対する上顎歯の位置を決定するとともに、その決定された上顎歯の位置に下顎歯をアライメントすることを議論している。しかし代わりに、上顎歯を下顎歯にアライメントする前に、下顎歯の位置はカメラに対して決定されてもよいことが理解されよう。
本明細書では、スマートフォン100のカメラ101を参照するが、任意の適切な携帯カメラが採用され得ることが理解されよう。
有利には、上述のシステムおよび方法は、3Dスキャンを介して得られる歯の形状の事前知識を利用する、上顎歯と下顎歯とのアライメント(位置関係)を決定する方法を提供する。これによって、スマートフォンに存在するようなカメラによってキャプチャされた動画に基づき、空間関係を決定することができる。したがって、一般の歯科医師が使用するものを超えるような高価な専門機器を必要としない。さらに、上述の方法およびシステムは、有利には、機器を口腔内に設置する必要がないので、それによって、患者は顎を自然に動かすことができる。
有利には、上述のシステムおよび方法は、3Dスキャンを介して得られる歯の形状の事前知識を利用する、上顎歯と下顎歯とのアライメント(位置関係)を決定する方法を提供する。これによって、スマートフォンに存在するようなカメラによってキャプチャされた動画に基づき、空間関係を決定することができる。したがって、一般の歯科医師が使用するものを超えるような高価な専門機器を必要としない。さらに、上述の方法およびシステムは、有利には、機器を口腔内に設置する必要がないので、それによって、患者は顎を自然に動かすことができる。
本明細書に記載された実施例の少なくともいくつかは、部分的または全体的に、専用の特殊用途のハードウェアを使用することで構築することができる。本明細書で使用される「構成要素」、「モジュール」、または「ユニット」などの用語は、特定のタスクを実行するかまたは関連する機能を提供する、ディスクリートまたは集積構成要素の形態の回路、フィールドプログラマブルゲートアレイ(FPGA)、またはアプリケーション特定集積回路(ASIC)などのハードウェア装置を備えていることができるが、これらに限定されるわけではない。いくつかの例では、説明された要素は、有形で永続的なアドレス指定可能な記憶媒体に常駐するように構成されてもよく、1つまたは複数のプロセッサ上で実行されるように構成されてもよい。これらの機能的要素は、いくつかの例では、一例として、ソフトウェア構成要素、オブジェクト指向ソフトウェア構成要素、クラス構成要素、およびタスク構成要素などの構成要素、処理、関数、属性、手続き、サブルーチン、プログラムコードのセグメント、ドライバー、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ、および変数を備えてもよい。例示的な実施例は、本明細書で論じた構成要素、モジュール、およびユニットを参照して説明したが、このような機能要素は、より少ない要素に結合されてもよいし、追加の要素に分離されてもよい。オプションの特徴の様々な組み合わせが本明細書で説明されたが、説明された特徴は、任意の適切な組み合わせで組み合わされてもよいことが理解されるであろう。特に、任意の1つの実施例の特徴は、そのような組み合わせが相互に排他的である場合を除き、適宜、任意の他の実施例の特徴と組み合わされてもよい。本明細書を通じて、用語「備えている」または「からなる」は、指定された成分(複数可)を備えているが、他の成分の存在を排除するものでないことを意味する。
本願に関連して本明細書と同時またはそれ以前に提出され、本明細書とともに公開されているすべての論文および文書に注意が向けられ、すべてのかかる論文および文書の内容は、参照することで本明細書に組み込まれる。
本明細書(添付の請求項、要約、および図面を備えている)に開示された特徴のすべて、および/またはそのように開示された任意の方法または処理の工程のすべては、そのような特徴および/または工程のうちの少なくとも一部が相互に排他的である組み合わせを除いて、任意の組み合わせで組み合わせることが可能である。
本明細書(添付の請求項、要約、および図面を備えている)に開示された各特徴は、明示的に別段の記載がない限り、同一、同等、または類似の目的を果たす代替の特徴に置き換えることができる。したがって、明示的に別段の記載がない限り、開示された各特徴は、同等または類似の特徴の一般的な一連の一例のみである。
本発明は、前述の実施形態の詳細に限定されるものではない。本発明は、本明細書(添付の特許請求の範囲、要約書、および図面を備えている)に開示された特徴の新規なもの、または新規な組み合わせ、あるいはそのように開示された任意の方法または処理の工程の新規なもの、または新規な組み合わせに及ぶ。
Claims (22)
- コンピュータに実装される方法であって、前記方法は、
患者の上顎歯の3Dモデルと、前記患者の下顎歯の3Dモデルとを受け取る工程と、
複数の2D画像を受け取る工程であって、各2D画像は前記患者の前記上顎歯および前記下顎歯のうちの少なくとも一部を代表する、複数の前記2D画像を受け取る工程と、
前記2D画像に基づき、前記患者の前記上顎歯と前記下顎歯との間の空間関係を決定する工程と、
を備えている、方法。 - 前記2D画像に基づき、前記患者の前記上顎歯と前記下顎歯との間の前記空間関係を決定する工程は、
前記上顎歯の前記3Dモデルおよび前記下顎歯の前記3Dモデルのうちの一方に対する前記2D画像の最適アライメントを決定する工程と、
前記上顎歯の前記3Dモデルおよび前記下顎歯の前記3Dモデルのうちの前記一方と、前記患者の前記上顎歯の前記3Dモデルおよび前記下顎歯の前記3Dモデルのうちの他方と、の間の最適アライメントを決定する工程と、
を備えている、請求項1に記載の方法。 - 前記最適アライメントを決定する工程は、前記2D画像の各々について、
前記2D画像がキャプチャされたカメラ姿勢の現在の推定に基づくとともに、前記患者の前記上顎歯の前記3Dモデルと前記下顎歯の前記3Dモデルとの間の前記空間関係に基づき、3Dシーンをレンダリングする工程と、
前記カメラ姿勢の現在の前記推定に基づき、レンダリングされた前記3Dシーンから2Dレンダリングを抽出する工程と、および
前記2Dレンダリングを前記2D画像と比較することで、前記2Dレンダリングと前記2D画像との間の差のレベルを示すコストスコアを決定する工程と、
を備えている、請求項2に記載の方法。 - 前記方法はさらに、非線形最適化器を使用することで、前記2D画像のすべてに亘って前記最適アライメントを反復して得る工程を備えている、
請求項3に記載の方法。 - 前記コストスコアは、前記2Dレンダリングと前記2D画像との間で計算された相互情報スコアを備えている、
請求項3または4に記載の方法。 - 前記コストスコアは、前記2Dレンダリングと前記2D画像とから抽出された対応する画像特徴同士の類似度スコアを備えている、
請求項3~5のいずれか1項に記載の方法。 - 前記画像特徴はコーナー特徴、エッジ特徴、または画像勾配特徴である、
請求項6に記載の方法。 - 前記類似度スコアはユークリッド距離、ランダムサンプリング、または1対1のうちの1つである、
請求項6または7に記載の方法。 - 前記コストスコアは2D-3D-2D-2Dコストを備えており、前記2D-3D-2D-2Dコストは、
レンダリングされた前記3Dシーンから、2D画像特徴を抽出する工程と、
抽出された前記2D画像特徴を、レンダリングされた前記3Dシーンに再投影する工程と、
前記2D画像から画像特徴を抽出する工程と、
前記2D画像から抽出された前記画像特徴を、レンダリングされた前記3Dシーンに再投影する工程と、
3D空間に再投影された特徴同士の差を示す類似度尺度を計算する工程と、
によって計算される、
請求項3~8のいずれか1項に記載の方法。 - 前記コストスコアは、複数の前記2D画像の連続する画像同士間の画素を追跡することで計算されるオプティカルフローコストを備えている、
請求項3~9のいずれか1項に記載の方法。 - 前記方法はさらに、異なる抽出された特徴と類似度尺度とのうちの少なくとも一方に基づき、複数の異なるコストスコアを決定する工程を備えている、
請求項3~10のいずれか1項に記載の方法。 - 請求項4に従属する場合、前記非線形最適化器によって各反復で使用されるコストスコア同士は、異なる、
請求項3~11のいずれか1項に記載の方法。 - 複数の前記2D画像は、それぞれ、実質的に同じ静的アライメントにある前記上顎歯および前記下顎歯を示す、
請求項3~11のいずれか1項に記載の方法。 - 複数の前記2D画像はそれぞれ、前記患者の前記上顎歯および前記下顎歯のうちの少なくとも一部を備えている、
請求項1~13のいずれか1項に記載の方法。 - 複数の前記2D画像はそれぞれ、咬合している前記患者の前記上顎歯の歯科モデルと前記下顎歯の歯科モデルとのうちの少なくとも一部を備えている、
請求項1~13のいずれか1項に記載の方法。 - 前記方法はさらに、対応する歯科モデル上に配置されたマーカーに基づき、前記上顎歯の前記3Dモデルと前記下顎歯の前記3Dモデルとのうちの一方に対する前記2D画像の最適アライメントを決定する工程を備えている、
請求項15に記載の方法。 - 前記方法はさらに、
第1位置にある前記患者の前記上顎歯と前記下顎歯との間の第1空間関係を決定する工程と、
第2位置にある前記患者の前記上顎歯と前記下顎歯との間の第2空間関係を決定する工程と、
前記第1空間関係と前記第2空間関係との間の空間変換を決定する工程と、
を備えている、請求項1~16のいずれか1項に記載の方法。 - 前記空間変換を決定する工程は、横方向ヒンジ軸を決定する工程を備えている、
請求項17に記載の方法。 - 複数の前記2D画像は複数の2D画像セットを備えており、
前記各2D画像セットは、異なる複数の視点からの前記患者の顔の複数の同時キャプチャ画像を備えており、および
前記方法はさらに、前記各2D画像セットに基づき前記空間関係を決定する工程を備えている、
請求項1~13のいずれか1項に記載の方法。 - 前記方法はさらに、
前記各2D画像セットにおいて、前記下顎歯の前記3Dモデルに接触している前記上顎歯の前記3Dモデルの領域を決定する工程と、
前記上顎歯または前記下顎歯の前記3Dモデル上に、前記領域を表示する工程と、
を備えている、請求項19に記載の方法。 - プロセッサとメモリとを備えているシステムであって、
前記メモリは、前記プロセッサによって実行されると前記システムに請求項1~20のいずれか1項に記載の方法を実行させるコンピュータ可読命令を記憶している、
システム。 - コンピュータデバイスによって実行されると前記コンピュータデバイスに請求項1~20のいずれか1項に記載の方法を実行させる命令を記録した、
有形で非一時的なコンピュータ読取可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GBGB1918006.6A GB201918006D0 (en) | 2019-12-09 | 2019-12-09 | Determining spatial relationship between upper and lower teeth |
GB1918006.6 | 2019-12-09 | ||
PCT/GB2020/053143 WO2021116672A1 (en) | 2019-12-09 | 2020-12-08 | Determining spatial relationship between upper and lower teeth |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023505397A true JP2023505397A (ja) | 2023-02-08 |
Family
ID=69171864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022560417A Pending JP2023505397A (ja) | 2019-12-09 | 2020-12-08 | 上顎歯と下顎歯との間の空間関係の決定 |
Country Status (9)
Country | Link |
---|---|
US (1) | US20230012297A1 (ja) |
EP (1) | EP4072463A1 (ja) |
JP (1) | JP2023505397A (ja) |
KR (1) | KR20220116217A (ja) |
CN (1) | CN114786614A (ja) |
AU (1) | AU2020402644A1 (ja) |
CA (1) | CA3160915A1 (ja) |
GB (1) | GB201918006D0 (ja) |
WO (1) | WO2021116672A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113842216B (zh) * | 2021-12-01 | 2022-02-22 | 极限人工智能有限公司 | 一种上下牙对合模拟方法、装置及电子设备 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6152731A (en) * | 1997-09-22 | 2000-11-28 | 3M Innovative Properties Company | Methods for use in dental articulation |
US8442283B2 (en) * | 2006-08-30 | 2013-05-14 | Anatomage Inc. | Patient-specific three-dimensional dentition model |
WO2009089127A1 (en) * | 2008-01-04 | 2009-07-16 | 3M Innovative Properties Company | Image signatures for use in motion-based three-dimensional reconstruction |
US8896592B2 (en) * | 2009-08-21 | 2014-11-25 | Align Technology, Inc. | Digital dental modeling |
CN105007856B (zh) * | 2013-03-11 | 2018-08-03 | 卡尔斯特里姆保健公司 | 用于咬合配准的方法和系统 |
US9393087B2 (en) * | 2013-08-01 | 2016-07-19 | Align Technology, Inc. | Methods and systems for generating color images |
US10076389B2 (en) * | 2015-02-13 | 2018-09-18 | Align Technology, Inc. | Three-dimensional tooth modeling using a two-dimensional x-ray image |
EP3527163B1 (en) * | 2018-02-20 | 2020-07-08 | Ivoclar Vivadent AG | Computer implemented method for modifying a digital three-dimensional model of a dentition |
US10779917B2 (en) * | 2018-02-20 | 2020-09-22 | Ivoclar Vivadent Ag | Computer implemented method for modifying a digital three-dimensional model of a dentition |
PL236744B1 (pl) * | 2018-04-13 | 2021-02-08 | Szczerbaniewicz Joanna Przychodnia Stomatologiczna Kodent | Urządzenie pomiarowe i sposób rejestracji położenia zębów |
-
2019
- 2019-12-09 GB GBGB1918006.6A patent/GB201918006D0/en not_active Ceased
-
2020
- 2020-12-08 CA CA3160915A patent/CA3160915A1/en active Pending
- 2020-12-08 EP EP20825226.2A patent/EP4072463A1/en active Pending
- 2020-12-08 CN CN202080085515.XA patent/CN114786614A/zh active Pending
- 2020-12-08 WO PCT/GB2020/053143 patent/WO2021116672A1/en unknown
- 2020-12-08 JP JP2022560417A patent/JP2023505397A/ja active Pending
- 2020-12-08 KR KR1020227023598A patent/KR20220116217A/ko unknown
- 2020-12-08 US US17/783,193 patent/US20230012297A1/en active Pending
- 2020-12-08 AU AU2020402644A patent/AU2020402644A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
GB201918006D0 (en) | 2020-01-22 |
US20230012297A1 (en) | 2023-01-12 |
WO2021116672A1 (en) | 2021-06-17 |
EP4072463A1 (en) | 2022-10-19 |
KR20220116217A (ko) | 2022-08-22 |
CA3160915A1 (en) | 2021-06-17 |
AU2020402644A1 (en) | 2022-06-09 |
CN114786614A (zh) | 2022-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6055033B2 (ja) | 表面走査情報を用いることによる歯科用3次元x線データセットからのアーチファクトの低減及び除去 | |
KR20150120066A (ko) | 패턴 프로젝션을 이용한 왜곡 보정 및 정렬 시스템, 이를 이용한 방법 | |
JP2011253376A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
US10043287B2 (en) | Automatic restitching of 3D surfaces | |
CN110740687B (zh) | X射线照相装置 | |
CN106034203B (zh) | 拍摄终端的图像处理方法及其装置 | |
CN109717966B (zh) | 用于牙齿整形的影像仿真方法及其影像仿真装置 | |
JP2005326247A (ja) | 校正装置及び校正方法並びに校正プログラム | |
JP5901447B2 (ja) | 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラム | |
JP2021514232A (ja) | 患者の歯列の3次元モデルをカメラによって記録された患者の顔の画像に整合させるための方法 | |
JP2023505397A (ja) | 上顎歯と下顎歯との間の空間関係の決定 | |
JP2022516487A (ja) | 下顎と上顎の3dセグメンテーション | |
JP2007288295A (ja) | 観察位置追従式映像提示装置及び観察位置追従式映像提示プログラム,映像提示装置及び映像提示プログラム | |
JP2009258005A (ja) | 三次元測定装置及び三次元測定方法 | |
JP2005031044A (ja) | 三次元誤差測定装置 | |
KR20080050283A (ko) | 3차원 모션 데이터 생성을 위한 상관 관계 추출 방법과이를 이용한 실사 배경 영상에 인체형 캐릭터의 용이한합성을 위한 모션 캡쳐 시스템 및 방법 | |
US11980513B2 (en) | Determining spatial relationship between upper teeth and facial skeleton | |
EP4276765A1 (en) | Method to correct scale of dental impressions | |
EP4287202A1 (en) | Digital dental impressions | |
Ghanoum et al. | Panoramic view of human jaw under ambiguity intraoral camera movement | |
Rodrigues | Fast 3D reconstruction using structured light methods | |
CN114299244A (zh) | 一种基于智能手机的口腔三维重建方法、系统和存储介质 | |
JP5593243B2 (ja) | 立体画像処理システム、立体画像処理装置および立体画像処理方法 | |
IL224345A (en) | A device and method for spatial separation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231127 |