JP2022550712A - 3次元測定値における誤差の検出のための方法、システムおよびコンピュータ可読記憶媒体 - Google Patents
3次元測定値における誤差の検出のための方法、システムおよびコンピュータ可読記憶媒体 Download PDFInfo
- Publication number
- JP2022550712A JP2022550712A JP2022518845A JP2022518845A JP2022550712A JP 2022550712 A JP2022550712 A JP 2022550712A JP 2022518845 A JP2022518845 A JP 2022518845A JP 2022518845 A JP2022518845 A JP 2022518845A JP 2022550712 A JP2022550712 A JP 2022550712A
- Authority
- JP
- Japan
- Prior art keywords
- images
- neural network
- defects
- patient
- dentition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000005259 measurement Methods 0.000 title claims abstract description 37
- 238000001514 detection method Methods 0.000 title description 5
- 230000007547 defect Effects 0.000 claims abstract description 77
- 238000013528 artificial neural network Methods 0.000 claims abstract description 63
- 230000009471 action Effects 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims description 43
- 210000004513 dentition Anatomy 0.000 claims description 31
- 230000003287 optical effect Effects 0.000 claims description 31
- 230000036346 tooth eruption Effects 0.000 claims description 31
- 238000013527 convolutional neural network Methods 0.000 claims description 23
- 230000000306 recurrent effect Effects 0.000 claims description 20
- 210000003296 saliva Anatomy 0.000 claims description 17
- 239000008280 blood Substances 0.000 claims description 14
- 210000004369 blood Anatomy 0.000 claims description 14
- 239000011521 glass Substances 0.000 claims description 7
- 239000000919 ceramic Substances 0.000 claims description 5
- 230000000873 masking effect Effects 0.000 claims description 4
- 230000002123 temporal effect Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 238000012937 correction Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 6
- 238000003702 image correction Methods 0.000 description 6
- 230000002452 interceptive effect Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 210000002105 tongue Anatomy 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 4
- 210000004195 gingiva Anatomy 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 210000000214 mouth Anatomy 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000011505 plaster Substances 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000001373 regressive effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 230000035899 viability Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0082—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
- A61B5/0088—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4538—Evaluating a particular part of the muscoloskeletal system or a particular medical condition
- A61B5/4542—Evaluating the mouth, e.g. the jaw
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4538—Evaluating a particular part of the muscoloskeletal system or a particular medical condition
- A61B5/4542—Evaluating the mouth, e.g. the jaw
- A61B5/4547—Evaluating teeth
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C7/00—Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
- A61C7/002—Orthodontic computer assisted systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
- A61C9/0053—Optical means or methods, e.g. scanning the teeth by a laser or light beam
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Pathology (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Epidemiology (AREA)
- Radiology & Medical Imaging (AREA)
- Physical Education & Sports Medicine (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Rheumatology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Fuzzy Systems (AREA)
Abstract
歯の3次元測定中に画像中の欠陥を検出するための方法、システムおよびコンピュータ可読記憶媒体。オペレータは歯科用カメラを使用して歯をスキャンしてもよく、訓練されたディープニューラルネットワークは、欠陥を有する入力画像の一部を自動的に検出し、かつ講じられる補正措置のためにそれらの欠陥に関する出力情報を生成してもよい。【選択図】図7
Description
関連出願の相互参照
本特許出願は、2019年9月24日に出願された米国特許出願第16/579,995号の利益および優先権を主張するものであり、この米国出願は全ての目的のために参照により本明細書に組み込まれる。
本特許出願は、2019年9月24日に出願された米国特許出願第16/579,995号の利益および優先権を主張するものであり、この米国出願は全ての目的のために参照により本明細書に組み込まれる。
本出願は一般に3次元(3D)測定値における誤差を検出するための方法、システムおよびコンピュータ可読記憶媒体に関し、より詳細にはディープラーニング方法を利用して3D測定値における誤差を検出するための方法、システムおよびコンピュータ可読記憶媒体に関する。
歯科開業医は肉眼で口腔内画像などの3D画像における誤差を検出するように訓練されている場合がある。これらの誤差は、例えば口腔内スキャナー/カメラのガラス内の凹凸(例えば、引っ掻き傷、息による曇り、唾液滴など)、スキャンされている歯の表面にある異物の存在(例えば、唾液の泡または血液)、測定環境における有害な条件(例えば、太陽光またはサージカルライト)ならびに口腔内スキャナーの誤作動(例えば、カメラのセンサにおける画素の欠陥)などの妨害因子によって引き起こされる画像中の欠陥/妨害であってもよい。測定/スキャンプロセス中に誤差が認識されない場合には、その測定は完了することができなかったり、正確性が低くなったり、あるいは繰り返しの中断により著しく遅延したりすることがある。
しかしこれらの誤差ならびに誤差の原因は、経験豊富な歯科医師および未経験の歯科医師のどちらにとっても検出するのが難しい場合がある。多くの場合、測定プロセスのより後の時点または記録条件の従来もしくは手動の検査によってのみそれらに気づくことがある。より具体的には、誤差のいくつかは非常に区別がつけにくいため、従来の方法では誤差を常に存在し得る一般的なセンサノイズおよび較正誤差から区別することができない(例えば、カメラのガラスの表面にある小さい引っ掻き傷は測定データ中に小さい「バンプ」を生じさせることがあり、前記「バンプ」はセンサノイズの高さと同様の高さを有する)。しかし誤差は系統的であるため、それを常にさらなる画像によって平均化することができるわけではない。他のより深刻な誤差は実際に、従来の検査により問題を認識させ、次いで取得プロセスを停止させることができる。しかし従来/手動の方法では誤差の原因を診断することができない場合があり、従来もしくは手動の手法を用いて必要とされる複雑さを伴うフィルタの実装は手に負えない。
他方で自動の誤差検出は、好適な対策を講じるために誤った測定値の早期指標を与えることができる。
米国特許第9788917B2号は、自動化歯科矯正診断および治療計画に人工知能を用いるための方法を開示している。この方法は、患者によって動作されるように構成された口腔内イメージャを提供する工程と、歯科矯正状態に関する患者データを受信する工程と、歯科矯正治療から得られた情報を含むかそれへのアクセスを有するデータベースにアクセスする工程と、歯科矯正状態の電子モデルを生成する工程と、少なくとも1つのコンピュータプログラムに、患者データを分析して歯科矯正治療から得られた情報に基づいて歯科矯正状態の少なくとも1つの診断および治療計画を特定するように命令する工程とを含んでもよい。
米国特許出願公開第20190026893A1号は、歯科矯正アライナーの形状を評価するための方法であって、分析画像上に表されている歯に関する歯の属性の値および/または分析画像に関する画像属性の少なくとも1つの値を決定するために、分析画像をディープラーニング装置にサブミットする方法を開示している。
PCT出願のPCT/EP2018/055145は、修復物を構築するための方法であって、歯の状態を歯科用カメラによって測定し、かつ歯の状態の3次元(3D)モデルを生成する方法を開示している。次いでコンピュータ支援検出アルゴリズムを歯の状態の3Dモデルに適用してもよく、修復物の種類、歯の本数または修復物の位置が自動的に決定される。
米国特許出願公開第20180028294A1号は、ディープラーニングを用いた歯科用CAD自動化のための方法を開示している。この方法は、患者の歯列データセットの少なくとも1つの部分を表している患者のスキャンデータを受信する工程と、訓練されたディープニューラルネットワークを用いて患者のスキャンにおいて1つ以上の歯の特徴を特定する工程とを含んでもよい。ここでは設計自動化は、完全なスキャンが生成された後に行ってもよい。しかし、この方法により実際のスキャンプロセスは向上しない。
上記に関連する既存の限界ならびに他の限界は、ディープラーニング方法を利用して3D測定値における誤差を検出するための方法、システムおよびコンピュータ可読記憶媒体によって克服することができる。これらの3D測定値としては口腔内測定値が挙げられるが、そのような測定値に限定されなくてもよい。例えば硬膏模型に関する測定値などの口腔外測定値を含めてもよい。
本明細書中の一態様では、本発明は、1つ以上の計算装置によって患者の歯列の個々の画像を受信する工程と、患者の歯列の個々の画像をセマンティック領域および/または誤差領域に対応する領域にセグメンテーションすることにより訓練されたディープニューラルネットワークの1つ以上の出力ラベル値を用いて前記欠陥を自動的に特定する工程と、特定された欠陥を補正するための1つ以上の補正措置を決定する工程と、患者の歯列の個々の画像を組み合わせて補正された大域的3D画像を形成する工程とを含む、3次元測定中に欠陥を検出するためのコンピュータ実装方法を提供することができる。出力ラベル値は確率値であってもよい。
本明細書中の別の態様では、本コンピュータ実装方法は、以下の1つ以上の組み合わせをさらに含んでもよい。(i)個々の画像は個々の3次元光学画像である、(ii)個々の画像は時間的な一連の画像として受信される、(iii)個々の画像は患者の歯列の3D測定データおよび色データを含む、(iv)特定された誤差領域の関連性の指標は対応するセマンティック領域に基づいている、(v)各訓練用画像の少なくとも1つの部分にある1つ以上の欠陥を確率ベクトルの1つ以上の確率値に対応付けするように1つ以上の計算装置および複数の個々の訓練用画像を用いてディープニューラルネットワークを訓練する工程であって、訓練する工程は、個々の訓練用画像および/または個々の訓練用画像の画素をセマンティックデータ型および/または誤差データ型に対応する1つ以上のクラスに分類することにより画素レベルで行う工程をさらに含む、(vi)セマンティックデータ型は、歯、頬、唇、舌、歯肉、充填物およびセラミックからなる群から選択され、誤差データ型は、曇り、引っ掻き傷、唾液滴、汚れ、血液、ハイライト、環境照明、測定距離、画素の欠陥からなる群から選択される、(vii)個々の画像のレジストレーション前に欠陥に対応する位置をマスクアウトすることにより欠陥を補正する工程をさらに含む、(viii)所定の重みを用いて欠陥に対応する位置の寄与を部分的に含めることにより欠陥を補正する工程をさらに含む、(ix)欠陥に対応する歯科用カメラのパラメータを自動的に調整することにより欠陥を補正する工程をさらに含む、(x)前記パラメータは歯科用カメラの露光時間、光強度およびガラス温度を含む、(xi)ユーザに警告を中継することおよび/または誤差に関するレポートを生成することにより欠陥を示す工程をさらに含む、(xii)ディープニューラルネットワークは、畳み込みニューラルネットワーク(CNN)、回帰型ニューラルネットワーク(RNN)および回帰型畳み込みニューラルネットワーク(回帰型CNN)からなる群から選択されるネットワークである。
本発明のさらに別の態様では、コンピュータシステムによって実行された場合にコンピュータシステムに、1つ以上の計算装置によって患者の歯列の個々の画像を受信する工程と、患者の歯列の個々の画像をセマンティック領域および/または誤差領域に対応する領域にセグメンテーションすることにより訓練されたディープニューラルネットワークの1つ以上の出力確率値を用いて患者の歯列の前記個々の画像中の欠陥を自動的に特定する工程と、特定された欠陥を補正するための1つ以上の補正措置を決定する工程と、患者の歯列の個々の画像を組み合わせて補正された大域的3D画像を形成する工程とを含む手順を実行させるプログラムを記憶している非一時的コンピュータ可読記憶媒体を提供することができる。
さらに、1つ以上の計算装置によって患者の歯列の個々の画像を受信し、患者の歯列の個々の画像をセマンティック領域および/または誤差領域に対応する領域にセグメンテーションすることにより訓練されたディープニューラルネットワークの1つ以上の出力ラベル値を用いて患者の歯列の前記個々の画像中の欠陥を自動的に特定し、特定された欠陥を補正するための1つ以上の補正措置を決定し、かつ患者の歯列の個々の画像を組み合わせて補正された大域的3D画像を形成するように構成されたプロセッサを備える、3次元測定中に欠陥を検出するための装置を提供することができる。
例示的な実施形態は、本明細書において以下に与えられている詳細な説明および添付の図面からより十分に理解されるであろう。図面において同様の要素は同様の符号によって表されており、これらは単に例示として与えられており、従って本明細書中の例示的な実施形態を限定するものではない。
図面の中の異なる図は少なくともいくつかの符号を有する場合があるが、それらは同じ構成要素を特定するために同じである場合があり、そのような構成要素のそれぞれの詳細な説明は各図に関して以下に提供されていない場合がある。
本明細書に記載されている例示的な態様に従って、ディープラーニング方法を利用して3D測定値における誤差を検出するための方法、システムおよびコンピュータ可読記憶媒体を提供することができる。
3D測定値における誤差を検出するためのシステム
患者の口腔の正確な3D測定は患者の歯の表面にある唾液滴または血液などの因子によって妨げられる場合がある。本明細書に記載されているシステムは好ましくは個々の3次元光学画像2(図1)などの画像を得ることができ、ここでは各3次元光学画像2は好ましくは歯の測定された表面の3D測定データおよび色データを含み、かつ好ましくは直接的な口腔内スキャンにより口腔内において連続的に記録される。これは例えば歯科医院もしくは診療所において行われてもよく、歯科医師または歯科技工士によって行われてもよい。また当該画像は、患者の歯の印象のスキャンまたは一連の記憶された画像から間接的に得てもよい。好ましくは時間的な一連の画像において得られたこれらの画像を用いてコンピュータ実装システムは、患者歯列の正確なスキャンを容易にするために画像中の誤差/欠陥15を自動的に特定および/または補正してもよい。本明細書ではこの補正はリアルタイムで行ってもよい。また当然ながら当該画像は個々の2次元(2D)画像、RGB画像、距離画像(2.5次元、2.5D)、4チャネル画像(RGB-D)であってもよく、ここでは深度および色は完全に位置合わせされていなくてもよく、すなわち深度画像およびカラー画像は異なる期間で取得されてもよい。
スキャンプロセスでは複数の個々の画像を生成してもよく、次いで少なくとも2枚の個々の画像の一連の画像8または複数の一連の画像8を組み合わせて全体的/大域的3D画像10を形成してもよい(図3)。より具体的には、図1に示すように矩形の形態で示されている個々の3次元光学画像2は、測定中に測定経路4に沿って物体1に対して移動させることができるスキャナー/歯科用カメラ3によって得てもよい。歯科用カメラ3は、例えば縞投影法を用いて物体1を測定する手持ち式カメラであってもよい。3D測定の他の方法は当業者によって理解され得る。破線で示されている第1の画像6と第2の画像7との間の重なり合っている領域5は、コンピュータを用いて記録条件が満たされているか否かを決定するために確認され、満たされている場合に3次元光学画像2を組み合わせて大域的3D画像10を形成してもよい。記録条件としては、特徴的ジオメトリの適切なサイズ、適切なうねり、適切な粗さおよび/または適切な数および配置が挙げられる。しかし、記録条件の確認と同じ従来の方法で妨害因子によって引き起こされた個々の3次元光学画像2中の誤差/欠陥15を決定するようにコンピュータをプログラムすることは難しい場合がある。他方でニューラルネットワークは、誤差15の原因を認識し、かつ影響を受けた領域を切り離す(スキャンプロセスが中断されずに進行することができるように)か、あるいはユーザに補正のために提案される措置と共に診断を与えるための複雑なタスクを学習することができる。前記妨害因子としては、口腔内スキャナー/カメラのガラス内の凹凸(例えば、引っ掻き傷、息による曇り、唾液滴など)、スキャンされている歯の表面にある異物の存在(例えば、唾液の泡、血液、汚れ)、測定環境における有害な条件(例えば、太陽光またはサージカルライト、歯からの測定距離/角度)ならびに口腔内スキャナーの誤作動(例えば、カメラのセンサにおける画素の欠陥、欠陥のあるLED)が挙げられる。また前記妨害因子はそれ自体を誤差/欠陥15とみなしもよく、画像中に現れる場合がある。例えば、血液によって引き起こされる個々の3次元光学画像2中の欠陥15(唾液滴などの他の流体によって引き起こされるものと同様であってもよい)は、個々の3次元光学画像2中にハイライトおよび反射として現れ、測定において誤差を生じさせる場合がある。例えば血液によって引き起こされる欠陥15は、血液によって覆われた領域に局所的であってもよい。従って血液を除去する際に、欠陥15も除去することができる。従って欠陥15および誤差という用語は以後、欠陥/誤差/妨害/歪みをまとめて指すために使用する場合があり、前記個々の3次元光学画像2中に現れる妨害因子は非常に区別がつけにくいため、時として肉眼によって見逃される場合があり、スキャンプロセスにおける複数の中断の存在による患者の歯列の不正確な測定、患者の歯列の時間のかかる測定(従ってスキャン装置の再位置決めが必要となる)および/または患者の歯列の不可能な測定(カメラのガラスが曇った場合など)という結果に至る場合がある。
従って本システムは、好ましくはリアルタイムで3次元光学画像2中の誤差/欠陥15を自動的に認識および/または補正するように、複数の訓練用データセットを用いてディープニューラルネットワークなどのニューラルネットワークを訓練してもよい。従って大域的3D画像10に伝播される大域的欠陥17を、図4の補正された大域的3D画像9に示されているように減少または排除してもよく、かつ/またはより少ない中断であるか中断しないことによりスキャンフローを向上させてもよい。例えば本システムは、画素レベルで欠陥15を検出して曇り、引っ掻き傷、唾液滴、汚れ、血液、ハイライトなどに対応するラベルでラベル付けするか、あるいは画像レベルで欠陥15を検出して環境照明、測定距離などのラベルでラベル付けしてもよい。また本システムはセマンティックデータ(コンテキスト目的のため)を特定し、かつ3次元光学画像2中の歯、頬、唇、舌、歯肉、充填物、セラミックに対応するラベルでラベル付けしてもよい。さらに本システムは補正措置を決定し、かつ/または誤差を検出した際に前記決定した補正措置を適用してもよく、当該誤差は好ましくはコンテキストアウェアで決定される(すなわち、コンテキストは適当な補正方法を選択するために重要であり得る。例えば頬に対応するスキャン部分の必要とされる正確性は歯の正確性よりも非常に低い場合があるため、頬または歯肉の表面にある唾液は無視してもよい)。
図2は、一実施形態に係る患者の歯列の個々の3次元光学画像2から歯の情報を認識するためのシステム200のブロック図を示す。システム200は歯科用カメラ3、訓練モジュール204、画像補正モジュール206、コンピュータシステム100およびデータベース202を備えていてもよい。別の実施形態では、データベース202、画像補正モジュール206および/または訓練モジュール204はコンピュータシステム100の一部であってもよく、かつ/または補正措置に基づいて歯科用カメラ3のパラメータを直接および/または間接的に調整できるものであってもよい。コンピュータシステム100は少なくとも1つのコンピュータプロセッサ122、ユーザインタフェース126および入力装置130も備えていてもよい。コンピュータプロセッサは様々な要求を受信してもよく、かつ記憶装置に記憶されている適当な命令をメモリにロードし、次いでロードした命令を実行してもよい。コンピュータシステム100は、ソフトウェアおよびデータをコンピュータシステム100と外部装置との間で転送するのを可能にする通信インタフェース146も備えていてもよい。
コンピュータシステム100は歯科用カメラ3などの外部装置またはユーザ(図示せず)から誤差検出要求を受信してもよく、かつ前記誤差を検出するための適当な命令をロードしてもよい。あるいはコンピュータシステムは独立して、要求を待つことなく個々の3次元光学画像2を受信した際に前記誤差を検出してもよい。
一実施形態ではコンピュータシステム100は、データベース202(これは例えば複数の個々の3次元光学画像2を含んでいてもよい)からの多くの訓練用データセットを使用して、訓練モジュール204の一部であってもよい1つ以上のディープニューラルネットワークを訓練してもよい。いくつかの実施形態では、システム200は畳み込みニューラルネットワーク(CNN)、回帰型ニューラルネットワーク(RNN)および回帰型畳み込みニューラルネットワーク(回帰型CNN)などの各種ディープラーニングニューラルネットワークを含むニューラルネットワークモジュール(図示せず)を備えていてもよい。例示的な回帰型CNNモデルは、Courtney J.Spoererら,「回帰型畳み込みニューラルネットワーク:生物学的物体認識のより良好なモデル(Recurrent Convolutional Neural Networks:A Better Model of Biological Object Recognition)」(Front.Psychol,2017年9月12日)という表題の刊行物に記載されており、これはあたかも本明細書に完全に記載されているかのように、その全体が参照により本明細書に組み込まれる。
ニューラルネットワークへの訓練用データセットおよび/または入力は前処理されていてもよい。例えば3D測定値と共に色データを処理するために、較正を適用してカラー画像を3D表面と位置合わせしてもよい。さらに合成回転、拡大縮小などの標準的なデータ拡張手順を訓練用データセットおよび/または入力に適用してもよい。
訓練モジュール204は、ラベルを有する訓練用データセットを使用してディープニューラルネットワークの学習プロセスを監視してもよい。特徴を記述するためにラベルを使用してもよい。ラベル値は例えば確率値または確率ベクトルであってもよい。訓練モジュール204は逆に、ラベル付けされていない訓練用データセットを使用して生成ディープニューラルネットワークを訓練してもよい。
訓練用データセットは、誤差/欠陥15を特定するように訓練モジュール204の1つ以上のディープニューラルネットワークを訓練するために設計されていてもよい。例えば唾液滴によって引き起こされる個々の3次元光学画像2中の誤差を検出するようにディープニューラルネットワークを訓練するために、唾液滴によって引き起こされる欠陥15を有する複数の現実の個々の3次元光学画像データセットを特に唾液滴のための訓練用データセットとして使用してもよい。セマンティックデータ(例えば歯肉11)を認識するようにディープニューラルネットワークを訓練するための別の例では、特に歯肉のための訓練用データセット群を形成するために1つ以上の歯肉を有する現実の歯科用患者からの別の複数の訓練用データセットを選択する。従ってデータベース202は、例えば各誤差データ型のための1つの群および/または各セマンティックデータ型のための1つの群である異なる訓練用データセット群を含んでいてもよい。
本発明の一実施形態では、訓練モジュール204はリアルタイムで1つ以上のディープニューラルネットワークを訓練してもよい。いくつかの実施形態では、コンピュータシステム100が誤差を検出するために1つ以上の予め訓練されたディープニューラルネットワークを容易に使用することができるように、訓練モジュール204は、データベース202からの訓練用データセットを用いて1つ以上のディープニューラルネットワークを予め訓練してもよい。次いでそれは検出された誤差の補正のために、検出された誤差に関する情報および/または個々の3次元光学画像2を好ましくは自動的かつリアルタイムで画像補正モジュール206に送信してもよい。本明細書の後に記載されている所定の補正措置および/または人工知能を用いて得られた補正措置を用いて、検出された誤差を補正してもよい。例えば検出された誤差、対応するセマンティックデータ、対応する補正を含む各診断用データセットならびに科学文献、教科書からのデータ、ユーザからの入力などと共に過去の補正の診断用データセットに基づいて、画像補正モジュール206は、1つ以上の検出された誤差のために1つ以上の補正措置を特定、提案および/または実行するように構成されていてもよい。補正措置は例えば、所定の重みを使用することにより誤差を有する部分から得られた最終的な個々の3次元光学画像への寄与を計算することを含んでもよい。歯科計画において人工知能を用いるためのシステムは、「自動化歯科矯正診断および治療計画において人工知能を用いるための方法およびシステム(Methods and systems for employing artificial intelligence in automated orthodontic diagnosis and treatment planning)」という発明の名称の米国特許第9788917B2号に記載されており、この特許はあたかも本明細書に完全に記載されているかのように、その全体が参照により本明細書に組み込まれる。当然ながら、ユーザに通知すること、歯科用カメラ3パラメータを変更することなどの他の非人工知能補正措置を用いてもよい。
データベース202は、対応する個々の3次元光学画像2と共にディープニューラルネットワークおよび特定された誤差に関するデータも記憶していてもよい。さらにコンピュータシステム100は表示装置126および入力装置130を有していてもよく、これらを用いてユーザは要求をサブミットすること、および特定された欠陥15を受信して再考することなどの機能を行ってもよい。
システム200の他の実施形態は異なる構成要素および/またはさらなる構成要素を備えていてもよい。さらにこれらの機能は、本明細書に記載されているものとは異なるように当該構成要素に分散されていてもよい。
図5は本発明の一実施形態に係るディープニューラルネットワーク300などのニューラルネットワークの構造を示すブロック図を示す。それは入力層302、1つ以上の隠れ層304および出力層306を含むいくつかの層を有していてもよい。各層は小さい円によって示されている1つ以上のノード308からなっていてもよい。情報は入力層302から出力層306へ、すなわち左から右方向に流れてもよいが、他の実施形態ではそれは右から左であったりそれらの両方であったりしてもよい。例えば回帰型ネットワークは、一連の画像8において新しいデータを処理する場合に前に観察されたデータを考慮してもよく(例えば、前の画像を考慮して現在の画像をセグメンテーションしてもよく)、非回帰型ネットワークは個々に新しいデータを処理してもよい。ノード308は入力および出力を有してもよく、入力層308のノードはパッシブであってもよく、これはそれらがデータを修正しなくてもよいことを意味する。例えば入力層302のノード308はそれぞれ、それらの入力に対して単一の値(例えば画素値)を受信し、かつそれらの複数の出力への値を複製してもよい。逆に隠れ層304および出力層306のノードはアクティブであってもよく、従ってデータを修正することができる。例示的な構造では、入力層302からの各値を複製して隠れノードの全てに送信してもよい。隠れノードに到着した値に重みを掛けてもよく、これは隠れノードのそれぞれに関連づけられた所定の数のセットであってもよい。次いで重み付けされた入力を合計して単一の数を生成してもよい。
本発明に係る一実施形態では、ディープニューラルネットワーク300は、曇り、引っ掻き傷、唾液滴、汚れ、血液、ハイライトなどのいくつかの欠陥15を検出した場合に、個々の3次元光学画像2の画素を入力として使用してもよい。個々の3次元光学画像2はカラー画像であってもよい。本明細書では、入力層302中のノードの数は個々の3次元光学画像2中の画素の数に等しくてもよい。例示的な一実施形態では、1つのニューラルネットワークを全ての欠陥15のために使用してもよく、別の実施形態では、異なるネットワークを異なる欠陥15のために使用してもよい。別の例では、ディープニューラルネットワーク300は、環境光および測定距離によって引き起こされる欠陥などのいくつかの欠陥15を検出した場合に、個々の画素の代わりに個々の3次元光学画像2を分類してもよい。さらなる実施形態では、入力は4番目ごとの画素などのサブサンプリングされた入力であってもよい。さらに別の実施形態では、ディープニューラルネットワークはカラー画像、深度測定値、加速度などの歯科用カメラ3によって取得された複数のデータならびに露光時間、アパーチャなどの装置パラメータを入力として有していてもよい。それは回帰型畳み込みニューラルネットワークを用いることなどにより取得されたデータの時間的な一連の画像も組み入れてもよい(いくつかの欠陥15は単一画像を用いて検出するのが難しい場合があるため)。欠陥15は場合によっては、主として歯が画像から画像へと変わっている間に同じ画像位置に留まっている特徴的歪みから見えるものであってもよい。これは、例えば曇りなどの妨害因子ならびにより少ない程度で引っ掻き傷に当てはまる。回帰型ネットワークは一連の画像8におけるそのような特徴を認識するのに非常に適している場合がある。ディープニューラルネットワークはラベルを出力してもよく、この出力は、例えば特定のカテゴリに属している各画素入力の1つ以上の確率値を含む確率ベクトルであってもよい。例えば当該出力は確率値を含む確率ベクトルを含んでもよく、ここでは最も高い確率値は欠陥15を定めてもよい。ディープニューラルネットワークはどんな付加された確率も含まないラベル値のマップも出力してもよい。さらに異なる分類を達成してもよい。例えば第1の分類は欠陥カテゴリ、例えば引っ掻き傷、息による曇り、唾液の泡、血液、汚れ、太陽光、サージカルライト、歯からの測定距離、カメラのセンサにおける画素の欠陥などのうちの1つ以上を含んでもよい。別の分類はセマンティックカテゴリ、例えば歯、頬、唇、舌、歯肉、充填物、セラミックなどのうちの1つ以上を含んでもよい。各分類のためにディープニューラルネットワークを作成することができる。
考察されているように、ディープニューラルネットワークは畳み込みニューラルネットワーク(CNN)、回帰型ニューラルネットワーク(RNN)および回帰型畳み込みニューラルネットワーク(回帰型CNN)などであってもよい。
3D測定値における誤差を検出するための方法
ここまで図2のシステム200について説明してきたが、次に本明細書中の例示的な実施形態の少なくともいくつかに係るプロセスS400を示す図6Aを参照する。
プロセスS400は、訓練用データセット中の目的の領域を得て所定のラベルでラベル付けすることにより開始してもよい(工程S402)。例えば図6Bに示されているサンプル画像412上のサンプル欠陥414(前記サンプル画像414は暗室で撮影され、妨害因子が存在しない場合は黒色になる)は引っ掻き傷としてラベル付けしてもよい。訓練用画像のラベル付けは、例えば目的の点に対応する画像上にドットを設定することによりデジタルで行ってもよい。
セマンティクスを個々の3次元光学画像2に割り当てるために、訓練用データにラベル付けしてもよい。これは、色もしくは深度情報のために画素ごとのレベルで行ってもよい。あるいは単一画像のために、完全な3Dモデルのメッシュをカットして対応する画素ごとのラベルを計算してもよい。さらにラベル付けプロセスを自動化することができるように、前記メッシュをセグメンテーションしてもよい。ラベル付けするために必要とされる作業量を減らすためにメッシュにラベル付けしてもよく、かつこれらのラベルを単一画像の対応する画素に移してもよい。それ以外のものにはどれにもラベルを割り当てずに、これらのラベルにより歯、頬、唇、舌、歯肉、充填物、セラミックを区別してもよい。測定に無関係なものは、頬、唇、舌およびラベル付けされていないデータであってもよい。
欠陥ラベルを個々の3次元光学画像2に割り当てるために、訓練用データにもラベル付けしてもよい。これも画像もしくは深度情報のために画素ごとのレベルで行ってもよい。例えば、曇り、引っ掻き傷、唾液滴、汚れ、血液、ハイライトのために画素レベルで、環境照明、測定距離、アパーチャなどの他の情報のために画像レベルで訓練用データにラベル付けしてもよい。
セマンティックラベルは欠陥15のためのマーカーと重複していてもよく、例えば「歯+唾液」、「歯+血液」、「歯+引っ掻き傷」および「歯」などのラベルを達成してもよく、これらのラベルを「頬+引っ掻き傷」などの他のラベルから区別してもよく、すなわち歯の表面にある唾液滴(これは関連する欠陥であってもよい)を頬の表面にある唾液滴(これは無関係の欠陥であってもよい)から区別してもよい。このようにして、誤った通知を回避してもよい。
一実施形態では、計算量を最適化し、かつネットワーク実行可能性を高めるために、相互相関、オプティカルフロー、エッジ検出器、差分画像および移動平均を含む画像処理フィルタなどの特定の効率的に計算可能なフィルタを入力データに適用してもよく、同じかより低い画素解像度を有する得られたフィルタ処理した画像をディープニューラルネットワーク300にさらなる入力として供給してもよい。ニューラルネットワークの入力層は、画像フィルタからのさらなる画素ごとの情報を処理するために、さらなるノードを含んでいてもよい。
このラベル付けまたは分類された画像のセットを用いて、ネットワークが新しい画像を自らセグメンテーションすることができるネットワーク配線を行うことができるように、ディープニューラルネットワーク300を構築してラベル付けされた画像を供給し、それによりネットワークがそれから「学習する」のを可能にしてもよい。
セグメンテーションの別のオプションとして、画像ごとのベースまたは画素ごとのベースでのセグメンテーションは、画素ごとのレベルよりも僅かに高いレベルで(「スーパー画素ごとの」レベルで、すなわち「スーパー画素」は画像の通常の画素よりも大きい画像の部分である)、分類することを含んでもよい。
プロセスS400の命令およびアルゴリズムは、確率ベクトルの1つ以上の出力確率値に基づいて1つ以上の欠陥15を検出するように訓練用データセットを用いて1つ以上のディープニューラルネットワークを訓練する(工程S404)ために、コンピュータシステム100のメモリに記憶されていてもよく、かつプロセッサ122によってロードされて実行されてもよい。例えば環境光に対応する確率ベクトルの確率値の1つが90%である場合、ニューラルネットワークは個々の3次元の画像における欠陥15の1つとして過剰な環境光を検出してもよい。別の例では、引っ掻き傷の位置に対応する確率値が高い場合に、ニューラルネットワークは引っ掻き傷の位置として対応する位置を特定する。従ってネットワークが新しい画像を自らセグメンテーションすることができるネットワーク配線を行うことができるように、ディープニューラルネットワークを構築し、かつネットワークがそれから「学習する」のを可能にするラベル付けされた画像を供給してもよい。
訓練する工程は1回、複数回または断続的に行ってもよい。また訓練する工程は「半教師あり」または「自己教師あり」であってもよい。例えば第1の訓練する工程後に、ディープニューラルネットワークは前に見たことのない画像を受信または取得してもよく、かつ出力を得てもよく、ネットワークが好ましくは自ら動作して最終的に人間の助けなしに画像を分類することができるように対応するフィードバックを与えてもよい。これは画素レベルまたは画像レベルで行ってもよい。例えば画像レベルでは、環境光を有する画像および環境光を有しない画像を画像が環境光を有する確率を示す確率値を有する確率ベクトルに対応付けするように、ディープニューラルネットワーク300を訓練してもよい。従って画像が環境光を有することを示している確率値はベクトルにおいて最も高くてもよい。従って、個々の3次元光学画像2の一連の画像8がディープニューラルネットワーク300に入力された場合に、ディープニューラルネットワークが画像が属するカテゴリ(環境光を有するまたは有しない)を示している各画像のために得られた確率ベクトルを返することができるように、ディープニューラルネットワーク300を訓練してもよい。
訓練する工程後に、ディープニューラルネットワークは歯科用カメラ3から個々の3次元光学画像の一連の画像8を取得または受信してリアルタイムでセグメンテーションしてもよく(工程S406)、かつ画像中の欠陥15を検出してもよい(工程408)。前記欠陥15を検出したら、補正モジュール206は欠陥15を補正し(工程S410)、かつ/または補正措置を提案してもよい。これは、(個々の3次元光学画像の)連続的な画像レジストレーションあるいは大域的画像レジストレーション(同時に取得された全ての画像8のレジストレーション)、モデル表面再構成および/またはモデルテクスチャ生成などのその後の処理工程においてリアルタイムで行ってもよい。補正は欠陥位置に対応する信頼できないデータ点をマスキングアウトすること、および/または影響を受けていないデータ点が妨害因子によって導入される誤差を無効にするのを可能にするためにより小さい重みを有するデータを使用することにより行ってもよい。
図7は、歯科用カメラ3が口腔内で歯12を記録し、かつ欠陥15を含む画像の一連の画像8を生成する本発明の一実施形態を示す。画像の一連の画像18をディープニューラルネットワーク300に入力し、次いでこのネットワークは欠陥15を検出して欠陥15に対応する位置16にラベル付けする。次の工程では、レジストレーションモジュール500を用いる画像のレジストレーション前にそれらをマスキングアウトすることにより位置16を好ましくは無視する。別の工程では、完全に再構成された三角メッシュ/完全に再構成された3D画像/補正された大域的3D画像9を、再構成モジュール502を用いてマスクされた画像から得てもよい。また前記再構成モジュール502を使用して、所定の重みを用いて重み付け手段により欠陥15に対応する位置16からの寄与を部分的に含めることにより完全に再構成された三角メッシュ9を生成してもよい。また前記再構成モジュールを使用して同じ重み付け機構を用いて再構成された三角メッシュ9のためにカラーのテクスチャを生成してもよい。
図8は、ディープニューラルネットワークが出力する情報を制御装置600が使用して今後見つかる/現在見つかっている欠陥15を減らすか無くすために、検出された欠陥15に対応する歯科用カメラのパラメータを自動的に調整するように、ディープニューラルネットワークが情報(欠陥15の位置16を示す二値画像または講じられる補正措置の指標など)またはそれ以外の情報を出力し、例えば当該出力に基づいて、歯科用カメラ3の露光時間または光強度を自動的に増加または減少させることができ、かつ/またはカメラのガラス(または場合によっては鏡)の温度を上げて曇りを減少/除去することができる本発明の別の実施形態を示す。本明細書中の一実施形態では、調整の程度は欠陥15の関連性および/またはサイズ/量に基づいていてもよい。
図9は、ディープニューラルネットワーク300がユーザへの警告に関する情報を発行する本発明のさらに別の実施形態を示す。この警告は取得装置700に伝播されてもよく、この装置は補正措置を講じるために、クラウドネットワークまたはインターネットなどのネットワーク702を介して顧客サポートなどのクライアントによってアクセスすることができるレポートを生成してもよい。
3D測定値における誤差を検出するためのコンピュータシステム
ここまで図6AのプロセスS400について説明してきたが、次に本明細書中の例示的な実施形態の少なくともいくつかに従って用いることができるコンピュータシステム100のブロック図を示す図10を参照する。この例示的なコンピュータシステム100に関して様々な実施形態が本明細書に記載されている場合があるが、本明細書を読んだ後に、他のコンピュータシステムおよび/またはアーキテクチャを用いて本発明を実行する方法が当業者には明らかになるであろう。
コンピュータシステム100は訓練モジュール204、データベース202および/または画像補正モジュール206を備えていてもそれらとは分離されていてもよい。これらのモジュールはハードウェア、ファームウェアおよび/またはソフトウェアに実装されていてもよい。当該コンピュータシステムは少なくとも1つのコンピュータプロセッサ122、ユーザインタフェース126および入力装置130も備えていてもよい。入力装置130は例示的な一実施形態において、欠陥15を検出することに関する命令または要求を送信するためにモニターなどの表示装置128と共に歯科医師によって使用されてもよい。本明細書中の別の例示的な実施形態では、入力装置130はタッチスクリーンインタフェース(図示せず)上で使用される指またはスタイラスである。入力装置130は代わりとしてジェスチャ/音声認識装置、トラックボール、マウスあるいはキーボードまたはスタイラスなどの他の入力装置であってもよい。一例では、表示装置128、入力装置130およびコンピュータプロセッサ122はまとめてユーザインタフェース126を形成してもよい。
コンピュータプロセッサ122としては、例えば中央処理装置、多重処理装置、特定用途向けIC(「ASIC」)またはフィールドプログラマブルゲートアレイ(「FPGA」)などが挙げられる。プロセッサ122は通信インフラ124(例えば、通信バスまたはネットワーク)に接続されていてもよい。本明細書中の一実施形態では、プロセッサ122は3D測定の要求を受信してもよく、かつ画像中の欠陥15を自動的に検出し、訓練モジュール204、データベース202および画像補正モジュール206を用いて画像中の前記欠陥15を自動的に補正してもよい。プロセッサ122は、コンピュータ可読プログラム命令の形態で非一時的記憶装置に記憶されている対応する命令をロードし、かつロードした命令を実行することによりこれを達成してもよい。
コンピュータシステム100は、ランダムアクセスメモリ(「RAM」)であってもよい主記憶装置132をさらに備えていてもよく、かつ補助記憶装置134も備えていてもよい。補助記憶装置134は、例えばハードディスクドライブ136および/または取外し可能なストレージドライブ138を含んでいてもよい。取外し可能なストレージドライブ138は周知の方法で、取外し可能な記憶装置140から読み出し、かつ/またはそこに書き込んでもよい。取外し可能な記憶装置140は例えば、取外し可能なストレージドライブ138によって書き込みおよび読み出し可能なフロッピーディスク、磁気テープ、光ディスクおよびフラッシュメモリ装置などであってもよい。取外し可能な記憶装置140は、コンピュータ実行可能ソフトウェア命令および/またはデータを記憶している非一時的コンピュータ可読記憶媒体を含んでもよい。
さらなる他の実施形態では、補助記憶装置134は、コンピュータ実行可能プログラムまたはコンピュータシステム100の中にロードされる他の命令を記憶している他のコンピュータ可読媒体を含んでいてもよい。そのような装置は、取外し可能な記憶装置144およびインタフェース142(例えば、プログラムカートリッジおよびカートリッジインタフェース)、取外し可能なメモリチップ(例えば、消去可能プログラム可能リードオンリーメモリ(「EPROM」)またはプログラム可能リードオンリーメモリ(「PROM」))および関連するメモリソケット、他の取外し可能な記憶装置144ならびにソフトウェアおよびデータを取外し可能な記憶装置144からコンピュータシステム100の他の部分に転送するのを可能にするインタフェース142を備えていてもよい。
コンピュータシステム100は、ソフトウェアおよびデータをコンピュータシステム100と外部装置との間で転送するのを可能にする通信インタフェース146も備えていてもよい。そのようなインタフェースとしては、モデム、ネットワークインタフェース(例えば、イーサネットカード、無線インタフェース、インターネットを通じたクラウドホスティングサービスなど)、通信ポート(例えば、ユニバーサル・シリアル・バス(「USB」)ポートまたはファイアワイヤ(登録商標)ポート)、パーソナルコンピュータメモリカード国際協会(「PCMCIA」:Personal Computer Memory Card International Association)インタフェースおよびブルートゥース(登録商標)などが挙げられる。通信インタフェース146を介して転送されるソフトウェアおよびデータは信号の形態であってもよく、この信号は、通信インタフェース146によって送信および/または受信することができるようにしてもよい電子信号、電磁信号、光信号または別の種類の信号であってもよい。信号は、通信路148(例えばチャネル)を介して通信インタフェース146に提供されてもよい。通信路148は信号を運んでもよく、かつワイヤまたはケーブル、ファイバーオプティクス、電話線、セルラーリンクまたは無線周波数(「RF」)リンクなどを用いて実装されていてもよい。コンピュータシステム100とリモートサーバまたはクラウドベースのストレージとの間でソフトウェアまたはデータあるいは他の情報を転送するために、通信インタフェース146を使用してもよい。
1つ以上のコンピュータプログラムまたはコンピュータ制御ロジックは、主記憶装置132および/または補助記憶装置134に記憶されていてもよい。またコンピュータプログラムは通信インタフェース146を介して受信されてもよい。コンピュータプログラムは、コンピュータプロセッサ122によって実行された場合にコンピュータシステム100に本明細書に記載されている方法を実行させるコンピュータ実行可能命令を含んでいてもよい。
別の実施形態では、ソフトウェアは非一時的コンピュータ可読記憶媒体に記憶され、かつ取外し可能なストレージドライブ138、ハードディスクドライブ136および/または通信インタフェース146を用いてコンピュータシステム100の主記憶装置132および/または補助記憶装置134の中にロードされてもよい。制御ロジック(ソフトウェア)はプロセッサ122によって実行された場合に、コンピュータシステム100およびより一般にスキャン妨害を検出するための本システムに、本明細書に記載されている方法の全てまたはいくつかを実行させる。
本明細書に記載されている機能を実行させるための他のハードウェアおよびソフトウェア構成の実装は、本明細書を考慮すれば当業者には明らかであろう。
Claims (17)
- 1つ以上の計算装置によって患者の歯列の個々の画像を受信する工程と、
前記患者の歯列の前記個々の画像をセマンティック領域および/または誤差領域に対応する領域にセグメンテーションすることにより訓練されたディープニューラルネットワークの1つ以上の出力ラベル値を用いて前記欠陥を自動的に特定する工程と、
前記特定された欠陥を補正するための1つ以上の補正措置を決定する工程と、
前記患者の歯列の前記個々の画像を組み合わせて補正された大域的3D画像を形成する工程と
を含む、3次元測定中に欠陥を検出するためのコンピュータ実装方法。 - 前記個々の画像は個々の3次元光学画像である、請求項1に記載の方法。
- 前記個々の画像は時間的な一連の画像として受信される、請求項2に記載の方法。
- 前記個々の画像は前記患者の歯列の3D測定データおよび色データを含む、請求項3に記載の方法。
- 前記特定された誤差領域の関連性の指標は対応するセマンティック領域に基づいている、請求項1に記載の方法。
- 各訓練用画像の少なくとも1つの部分にある1つ以上の欠陥を1つ以上のラベル値と対応付けするように、前記1つ以上の計算装置および複数の個々の訓練用画像を用いて前記ディープニューラルネットワークを訓練する工程
をさらに含み、
前記訓練する工程は、前記個々の訓練用画像および/または前記個々の訓練用画像の画素をセマンティックデータ型および/または誤差データ型に対応する1つ以上のクラスに分類することにより画素レベルで行う、
請求項1に記載の方法。 - 前記セマンティックデータ型は、歯、頬、唇、舌、歯肉、充填物およびセラミックからなる群から選択され、前記誤差データ型は、曇り、引っ掻き傷、唾液滴、汚れ、血液、ハイライト、環境照明、測定距離、画素の欠陥からなる群から選択される、請求項6に記載の方法。
- 前記個々の画像のレジストレーション前に前記欠陥に対応する位置をマスクアウトすることにより前記欠陥を補正する工程をさらに含む、請求項1に記載の方法。
- 所定の重みを用いて前記欠陥に対応する前記位置の寄与を部分的に含めることにより前記欠陥を補正する工程をさらに含む、請求項1に記載の方法。
- 前記欠陥に対応する歯科用カメラのパラメータを自動的に調整することにより前記欠陥を補正する工程をさらに含む、請求項1に記載の方法。
- 前記パラメータは前記歯科用カメラの露光時間、光強度およびガラス温度を含む、請求項10に記載の方法。
- ユーザに警告を中継することおよび/または前記誤差に関するレポートを生成することにより前記欠陥を示す工程をさらに含む、請求項1に記載の方法。
- 前記ディープニューラルネットワークは、畳み込みニューラルネットワーク(CNN)、回帰型ニューラルネットワーク(RNN)および回帰型畳み込みニューラルネットワーク(回帰型CNN)からなる群から選択されるネットワークである、請求項1に記載の方法。
- 前記個々の画像は個々の2次元(2D)画像である、請求項1に記載の方法。
- コンピュータシステムによって実行された場合に、前記コンピュータシステムに、
1つ以上の計算装置によって患者の歯列の個々の画像を受信する工程と、
前記患者の歯列の前記個々の画像をセマンティック領域および/または誤差領域に対応する領域にセグメンテーションすることにより訓練されたディープニューラルネットワークの1つ以上の出力ラベル値を用いて前記患者の歯列の前記個々の画像中の欠陥を自動的に特定する工程と、
前記特定された欠陥を補正するための1つ以上の補正措置を決定する工程と、
前記患者の歯列の前記個々の画像を組み合わせて補正された大域的3D画像を形成する工程と
を含む手順を実行させるプログラムを記憶している非一時的コンピュータ可読記憶媒体。 - 1つ以上の計算装置によって患者の歯列の個々の画像を受信し、
前記患者の歯列の前記個々の画像をセマンティック領域および/または誤差領域に対応する領域にセグメンテーションすることにより訓練されたディープニューラルネットワークの1つ以上の出力ラベル値を用いて前記患者の歯列の前記個々の画像中の欠陥を自動的に特定し、
前記特定された欠陥を補正するための1つ以上の補正措置を決定し、かつ
前記患者の歯列の前記個々の画像を組み合わせて補正された大域的3D画像を形成する
ように構成されたプロセッサを備える、3次元測定中に欠陥を検出するためのシステム。 - 前記ディープニューラルネットワークは、畳み込みニューラルネットワーク(CNN)、回帰型ニューラルネットワーク(RNN)および回帰型畳み込みニューラルネットワーク(回帰型CNN)からなる群から選択されるネットワークである、請求項16に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/579,995 US11291404B2 (en) | 2019-09-24 | 2019-09-24 | Method, system and computer readable storage media for the detection of errors in three-dimensional measurements |
US16/579,995 | 2019-09-24 | ||
PCT/US2020/051930 WO2021061606A1 (en) | 2019-09-24 | 2020-09-22 | Method, system and computer readable storage media for the detection of errors in three-dimensional measurements |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022550712A true JP2022550712A (ja) | 2022-12-05 |
Family
ID=73139375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022518845A Pending JP2022550712A (ja) | 2019-09-24 | 2020-09-22 | 3次元測定値における誤差の検出のための方法、システムおよびコンピュータ可読記憶媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11291404B2 (ja) |
EP (1) | EP4046131A1 (ja) |
JP (1) | JP2022550712A (ja) |
KR (1) | KR20220066899A (ja) |
CN (1) | CN114365184A (ja) |
CA (1) | CA3150027A1 (ja) |
WO (1) | WO2021061606A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11238586B2 (en) * | 2019-05-02 | 2022-02-01 | Align Technology, Inc. | Excess material removal using machine learning |
JP7348754B2 (ja) * | 2019-06-03 | 2023-09-21 | キヤノン株式会社 | 画像処理装置及びその制御方法、プログラム、記憶媒体 |
KR20210053052A (ko) * | 2019-11-01 | 2021-05-11 | 엘지전자 주식회사 | 컬러 복원방법 및 장치 |
TWI712396B (zh) * | 2020-01-16 | 2020-12-11 | 中國醫藥大學 | 口腔缺陷模型之修補方法及口腔缺陷模型之修補系統 |
US11842484B2 (en) | 2021-01-04 | 2023-12-12 | James R. Glidewell Dental Ceramics, Inc. | Teeth segmentation using neural networks |
US11393077B2 (en) * | 2020-05-13 | 2022-07-19 | Adobe Inc. | Correcting dust and scratch artifacts in digital images |
CA3237340A1 (en) * | 2021-11-04 | 2023-05-11 | Schlumberger Canada Limited | Automatic well log correction |
CN114533325B (zh) * | 2022-02-24 | 2024-02-06 | 北京大学口腔医学院 | 基于动度监测的平坦黏膜扫描和光学整塑方法及系统 |
CN117808737B (zh) * | 2023-11-02 | 2024-05-14 | 江阴市精成数控有限公司 | 轴承缺陷管理系统 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9788917B2 (en) | 2010-03-17 | 2017-10-17 | ClearCorrect Holdings, Inc. | Methods and systems for employing artificial intelligence in automated orthodontic diagnosis and treatment planning |
EP2866644B1 (en) | 2012-06-27 | 2023-11-08 | 3Shape A/S | 3d intraoral scanner measuring fluorescence |
US11363938B2 (en) * | 2013-03-14 | 2022-06-21 | Ormco Corporation | Feedback control mechanism for adjustment of imaging parameters in a dental imaging system |
US10507087B2 (en) * | 2016-07-27 | 2019-12-17 | Align Technology, Inc. | Methods and apparatuses for forming a three-dimensional volumetric model of a subject's teeth |
US11291532B2 (en) | 2016-07-27 | 2022-04-05 | James R. Glidewell Dental Ceramics, Inc. | Dental CAD automation using deep learning |
JP7089507B2 (ja) | 2016-09-26 | 2022-06-22 | エフ・ホフマン-ラ・ロシュ・アクチェンゲゼルシャフト | Pd-1軸阻害剤への応答を予測すること |
FR3069361B1 (fr) | 2017-07-21 | 2019-08-23 | Dental Monitoring | Procede d'analyse d'une image d'une arcade dentaire |
ES2914600T3 (es) * | 2018-01-30 | 2022-06-14 | Dental Monitoring | Método de análisis de una representación de una arcada dental |
CN112106109A (zh) | 2018-02-16 | 2020-12-18 | 3 形状股份有限公司 | 具有表面区分的口腔内扫描 |
-
2019
- 2019-09-24 US US16/579,995 patent/US11291404B2/en active Active
-
2020
- 2020-09-22 EP EP20803306.8A patent/EP4046131A1/en active Pending
- 2020-09-22 CA CA3150027A patent/CA3150027A1/en active Pending
- 2020-09-22 CN CN202080063523.4A patent/CN114365184A/zh active Pending
- 2020-09-22 KR KR1020227009933A patent/KR20220066899A/ko active Search and Examination
- 2020-09-22 JP JP2022518845A patent/JP2022550712A/ja active Pending
- 2020-09-22 WO PCT/US2020/051930 patent/WO2021061606A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
EP4046131A1 (en) | 2022-08-24 |
CN114365184A (zh) | 2022-04-15 |
WO2021061606A1 (en) | 2021-04-01 |
CA3150027A1 (en) | 2021-04-01 |
KR20220066899A (ko) | 2022-05-24 |
US20210085238A1 (en) | 2021-03-25 |
US11291404B2 (en) | 2022-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022550712A (ja) | 3次元測定値における誤差の検出のための方法、システムおよびコンピュータ可読記憶媒体 | |
US10685259B2 (en) | Method for analyzing an image of a dental arch | |
US11651494B2 (en) | Apparatuses and methods for three-dimensional dental segmentation using dental image data | |
US11314983B2 (en) | Method for analyzing an image of a dental arch | |
US20210353152A1 (en) | Automatic generation of orthodontic or prosthodontic prescription | |
US20210358124A1 (en) | Method for analyzing an image of a dental arch | |
US11250580B2 (en) | Method, system and computer readable storage media for registering intraoral measurements | |
US11049248B2 (en) | Method for analyzing an image of a dental arch | |
US10755409B2 (en) | Method for analyzing an image of a dental arch | |
US20220222910A1 (en) | Method for generating a model of a dental arch | |
US20230337898A1 (en) | Oral image processing method, oral diagnostic device for performing operation according thereto, and computer-readable storage medium in which program for performing method is stored | |
US20240041569A1 (en) | Method for analyzing an image of a dental arch | |
CN111937038B (zh) | 用于3d扫描对象表面的至少一部分的方法和光学3d扫描仪 | |
US20220215547A1 (en) | Method for analyzing an image of a dental arch | |
US20240177397A1 (en) | Generation of dental renderings from model data | |
US20220202532A1 (en) | Method for evaluating an orthodontic aligner | |
WO2023014995A1 (en) | Intuitive intraoral scanning | |
WO2023028339A1 (en) | Intraoral scanner real time and post scan visualizations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230920 |