JP2022550712A - 3次元測定値における誤差の検出のための方法、システムおよびコンピュータ可読記憶媒体 - Google Patents

3次元測定値における誤差の検出のための方法、システムおよびコンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP2022550712A
JP2022550712A JP2022518845A JP2022518845A JP2022550712A JP 2022550712 A JP2022550712 A JP 2022550712A JP 2022518845 A JP2022518845 A JP 2022518845A JP 2022518845 A JP2022518845 A JP 2022518845A JP 2022550712 A JP2022550712 A JP 2022550712A
Authority
JP
Japan
Prior art keywords
images
neural network
defects
patient
dentition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022518845A
Other languages
English (en)
Inventor
シュナーベル,ルウェン
シュナイダー,サッシャ
アダムソン,アンダース
メイヤー,マルセル
Original Assignee
デンツプライ シロナ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by デンツプライ シロナ インコーポレイテッド filed Critical デンツプライ シロナ インコーポレイテッド
Publication of JP2022550712A publication Critical patent/JP2022550712A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • A61B5/4547Evaluating teeth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Fuzzy Systems (AREA)

Abstract

歯の3次元測定中に画像中の欠陥を検出するための方法、システムおよびコンピュータ可読記憶媒体。オペレータは歯科用カメラを使用して歯をスキャンしてもよく、訓練されたディープニューラルネットワークは、欠陥を有する入力画像の一部を自動的に検出し、かつ講じられる補正措置のためにそれらの欠陥に関する出力情報を生成してもよい。【選択図】図7

Description

関連出願の相互参照
本特許出願は、2019年9月24日に出願された米国特許出願第16/579,995号の利益および優先権を主張するものであり、この米国出願は全ての目的のために参照により本明細書に組み込まれる。
本出願は一般に3次元(3D)測定値における誤差を検出するための方法、システムおよびコンピュータ可読記憶媒体に関し、より詳細にはディープラーニング方法を利用して3D測定値における誤差を検出するための方法、システムおよびコンピュータ可読記憶媒体に関する。
歯科開業医は肉眼で口腔内画像などの3D画像における誤差を検出するように訓練されている場合がある。これらの誤差は、例えば口腔内スキャナー/カメラのガラス内の凹凸(例えば、引っ掻き傷、息による曇り、唾液滴など)、スキャンされている歯の表面にある異物の存在(例えば、唾液の泡または血液)、測定環境における有害な条件(例えば、太陽光またはサージカルライト)ならびに口腔内スキャナーの誤作動(例えば、カメラのセンサにおける画素の欠陥)などの妨害因子によって引き起こされる画像中の欠陥/妨害であってもよい。測定/スキャンプロセス中に誤差が認識されない場合には、その測定は完了することができなかったり、正確性が低くなったり、あるいは繰り返しの中断により著しく遅延したりすることがある。
しかしこれらの誤差ならびに誤差の原因は、経験豊富な歯科医師および未経験の歯科医師のどちらにとっても検出するのが難しい場合がある。多くの場合、測定プロセスのより後の時点または記録条件の従来もしくは手動の検査によってのみそれらに気づくことがある。より具体的には、誤差のいくつかは非常に区別がつけにくいため、従来の方法では誤差を常に存在し得る一般的なセンサノイズおよび較正誤差から区別することができない(例えば、カメラのガラスの表面にある小さい引っ掻き傷は測定データ中に小さい「バンプ」を生じさせることがあり、前記「バンプ」はセンサノイズの高さと同様の高さを有する)。しかし誤差は系統的であるため、それを常にさらなる画像によって平均化することができるわけではない。他のより深刻な誤差は実際に、従来の検査により問題を認識させ、次いで取得プロセスを停止させることができる。しかし従来/手動の方法では誤差の原因を診断することができない場合があり、従来もしくは手動の手法を用いて必要とされる複雑さを伴うフィルタの実装は手に負えない。
他方で自動の誤差検出は、好適な対策を講じるために誤った測定値の早期指標を与えることができる。
米国特許第9788917B2号は、自動化歯科矯正診断および治療計画に人工知能を用いるための方法を開示している。この方法は、患者によって動作されるように構成された口腔内イメージャを提供する工程と、歯科矯正状態に関する患者データを受信する工程と、歯科矯正治療から得られた情報を含むかそれへのアクセスを有するデータベースにアクセスする工程と、歯科矯正状態の電子モデルを生成する工程と、少なくとも1つのコンピュータプログラムに、患者データを分析して歯科矯正治療から得られた情報に基づいて歯科矯正状態の少なくとも1つの診断および治療計画を特定するように命令する工程とを含んでもよい。
米国特許出願公開第20190026893A1号は、歯科矯正アライナーの形状を評価するための方法であって、分析画像上に表されている歯に関する歯の属性の値および/または分析画像に関する画像属性の少なくとも1つの値を決定するために、分析画像をディープラーニング装置にサブミットする方法を開示している。
PCT出願のPCT/EP2018/055145は、修復物を構築するための方法であって、歯の状態を歯科用カメラによって測定し、かつ歯の状態の3次元(3D)モデルを生成する方法を開示している。次いでコンピュータ支援検出アルゴリズムを歯の状態の3Dモデルに適用してもよく、修復物の種類、歯の本数または修復物の位置が自動的に決定される。
米国特許出願公開第20180028294A1号は、ディープラーニングを用いた歯科用CAD自動化のための方法を開示している。この方法は、患者の歯列データセットの少なくとも1つの部分を表している患者のスキャンデータを受信する工程と、訓練されたディープニューラルネットワークを用いて患者のスキャンにおいて1つ以上の歯の特徴を特定する工程とを含んでもよい。ここでは設計自動化は、完全なスキャンが生成された後に行ってもよい。しかし、この方法により実際のスキャンプロセスは向上しない。
上記に関連する既存の限界ならびに他の限界は、ディープラーニング方法を利用して3D測定値における誤差を検出するための方法、システムおよびコンピュータ可読記憶媒体によって克服することができる。これらの3D測定値としては口腔内測定値が挙げられるが、そのような測定値に限定されなくてもよい。例えば硬膏模型に関する測定値などの口腔外測定値を含めてもよい。
本明細書中の一態様では、本発明は、1つ以上の計算装置によって患者の歯列の個々の画像を受信する工程と、患者の歯列の個々の画像をセマンティック領域および/または誤差領域に対応する領域にセグメンテーションすることにより訓練されたディープニューラルネットワークの1つ以上の出力ラベル値を用いて前記欠陥を自動的に特定する工程と、特定された欠陥を補正するための1つ以上の補正措置を決定する工程と、患者の歯列の個々の画像を組み合わせて補正された大域的3D画像を形成する工程とを含む、3次元測定中に欠陥を検出するためのコンピュータ実装方法を提供することができる。出力ラベル値は確率値であってもよい。
本明細書中の別の態様では、本コンピュータ実装方法は、以下の1つ以上の組み合わせをさらに含んでもよい。(i)個々の画像は個々の3次元光学画像である、(ii)個々の画像は時間的な一連の画像として受信される、(iii)個々の画像は患者の歯列の3D測定データおよび色データを含む、(iv)特定された誤差領域の関連性の指標は対応するセマンティック領域に基づいている、(v)各訓練用画像の少なくとも1つの部分にある1つ以上の欠陥を確率ベクトルの1つ以上の確率値に対応付けするように1つ以上の計算装置および複数の個々の訓練用画像を用いてディープニューラルネットワークを訓練する工程であって、訓練する工程は、個々の訓練用画像および/または個々の訓練用画像の画素をセマンティックデータ型および/または誤差データ型に対応する1つ以上のクラスに分類することにより画素レベルで行う工程をさらに含む、(vi)セマンティックデータ型は、歯、頬、唇、舌、歯肉、充填物およびセラミックからなる群から選択され、誤差データ型は、曇り、引っ掻き傷、唾液滴、汚れ、血液、ハイライト、環境照明、測定距離、画素の欠陥からなる群から選択される、(vii)個々の画像のレジストレーション前に欠陥に対応する位置をマスクアウトすることにより欠陥を補正する工程をさらに含む、(viii)所定の重みを用いて欠陥に対応する位置の寄与を部分的に含めることにより欠陥を補正する工程をさらに含む、(ix)欠陥に対応する歯科用カメラのパラメータを自動的に調整することにより欠陥を補正する工程をさらに含む、(x)前記パラメータは歯科用カメラの露光時間、光強度およびガラス温度を含む、(xi)ユーザに警告を中継することおよび/または誤差に関するレポートを生成することにより欠陥を示す工程をさらに含む、(xii)ディープニューラルネットワークは、畳み込みニューラルネットワーク(CNN)、回帰型ニューラルネットワーク(RNN)および回帰型畳み込みニューラルネットワーク(回帰型CNN)からなる群から選択されるネットワークである。
本発明のさらに別の態様では、コンピュータシステムによって実行された場合にコンピュータシステムに、1つ以上の計算装置によって患者の歯列の個々の画像を受信する工程と、患者の歯列の個々の画像をセマンティック領域および/または誤差領域に対応する領域にセグメンテーションすることにより訓練されたディープニューラルネットワークの1つ以上の出力確率値を用いて患者の歯列の前記個々の画像中の欠陥を自動的に特定する工程と、特定された欠陥を補正するための1つ以上の補正措置を決定する工程と、患者の歯列の個々の画像を組み合わせて補正された大域的3D画像を形成する工程とを含む手順を実行させるプログラムを記憶している非一時的コンピュータ可読記憶媒体を提供することができる。
さらに、1つ以上の計算装置によって患者の歯列の個々の画像を受信し、患者の歯列の個々の画像をセマンティック領域および/または誤差領域に対応する領域にセグメンテーションすることにより訓練されたディープニューラルネットワークの1つ以上の出力ラベル値を用いて患者の歯列の前記個々の画像中の欠陥を自動的に特定し、特定された欠陥を補正するための1つ以上の補正措置を決定し、かつ患者の歯列の個々の画像を組み合わせて補正された大域的3D画像を形成するように構成されたプロセッサを備える、3次元測定中に欠陥を検出するための装置を提供することができる。
例示的な実施形態は、本明細書において以下に与えられている詳細な説明および添付の図面からより十分に理解されるであろう。図面において同様の要素は同様の符号によって表されており、これらは単に例示として与えられており、従って本明細書中の例示的な実施形態を限定するものではない。
患者の歯列の個々の画像のスキャン/記録を示す口腔の上面図のスケッチである。 本発明の一実施形態に係るシステムのハイレベルブロック図である。 本発明の一実施形態に係る、それらの欠陥が除去されていない状態の個々の画像から形成された歯列の大域的3D画像の斜視図である。 本発明の一実施形態に係る、それらの欠陥が除去されている状態の個々の画像から形成された歯列の補正された大域的3D画像の斜視図である。 一実施形態に係るディープニューラルネットワークなどのニューラルネットワークの構造を示すハイレベルブロック図である。 本発明の一実施形態に係る方法を示すフローチャートである。 本発明の一実施形態に係る訓練する工程ためのサンプル画像である。 本発明の一実施形態を示すブロック図である。 本発明の別の実施形態を示す別のブロック図である。 本発明の一実施形態を示すさらに別のブロック図である。 本発明の例示的な実施形態に係るコンピュータシステムを示すブロック図である。
図面の中の異なる図は少なくともいくつかの符号を有する場合があるが、それらは同じ構成要素を特定するために同じである場合があり、そのような構成要素のそれぞれの詳細な説明は各図に関して以下に提供されていない場合がある。
本明細書に記載されている例示的な態様に従って、ディープラーニング方法を利用して3D測定値における誤差を検出するための方法、システムおよびコンピュータ可読記憶媒体を提供することができる。
3D測定値における誤差を検出するためのシステム
患者の口腔の正確な3D測定は患者の歯の表面にある唾液滴または血液などの因子によって妨げられる場合がある。本明細書に記載されているシステムは好ましくは個々の3次元光学画像2(図1)などの画像を得ることができ、ここでは各3次元光学画像2は好ましくは歯の測定された表面の3D測定データおよび色データを含み、かつ好ましくは直接的な口腔内スキャンにより口腔内において連続的に記録される。これは例えば歯科医院もしくは診療所において行われてもよく、歯科医師または歯科技工士によって行われてもよい。また当該画像は、患者の歯の印象のスキャンまたは一連の記憶された画像から間接的に得てもよい。好ましくは時間的な一連の画像において得られたこれらの画像を用いてコンピュータ実装システムは、患者歯列の正確なスキャンを容易にするために画像中の誤差/欠陥15を自動的に特定および/または補正してもよい。本明細書ではこの補正はリアルタイムで行ってもよい。また当然ながら当該画像は個々の2次元(2D)画像、RGB画像、距離画像(2.5次元、2.5D)、4チャネル画像(RGB-D)であってもよく、ここでは深度および色は完全に位置合わせされていなくてもよく、すなわち深度画像およびカラー画像は異なる期間で取得されてもよい。
スキャンプロセスでは複数の個々の画像を生成してもよく、次いで少なくとも2枚の個々の画像の一連の画像8または複数の一連の画像8を組み合わせて全体的/大域的3D画像10を形成してもよい(図3)。より具体的には、図1に示すように矩形の形態で示されている個々の3次元光学画像2は、測定中に測定経路4に沿って物体1に対して移動させることができるスキャナー/歯科用カメラ3によって得てもよい。歯科用カメラ3は、例えば縞投影法を用いて物体1を測定する手持ち式カメラであってもよい。3D測定の他の方法は当業者によって理解され得る。破線で示されている第1の画像6と第2の画像7との間の重なり合っている領域5は、コンピュータを用いて記録条件が満たされているか否かを決定するために確認され、満たされている場合に3次元光学画像2を組み合わせて大域的3D画像10を形成してもよい。記録条件としては、特徴的ジオメトリの適切なサイズ、適切なうねり、適切な粗さおよび/または適切な数および配置が挙げられる。しかし、記録条件の確認と同じ従来の方法で妨害因子によって引き起こされた個々の3次元光学画像2中の誤差/欠陥15を決定するようにコンピュータをプログラムすることは難しい場合がある。他方でニューラルネットワークは、誤差15の原因を認識し、かつ影響を受けた領域を切り離す(スキャンプロセスが中断されずに進行することができるように)か、あるいはユーザに補正のために提案される措置と共に診断を与えるための複雑なタスクを学習することができる。前記妨害因子としては、口腔内スキャナー/カメラのガラス内の凹凸(例えば、引っ掻き傷、息による曇り、唾液滴など)、スキャンされている歯の表面にある異物の存在(例えば、唾液の泡、血液、汚れ)、測定環境における有害な条件(例えば、太陽光またはサージカルライト、歯からの測定距離/角度)ならびに口腔内スキャナーの誤作動(例えば、カメラのセンサにおける画素の欠陥、欠陥のあるLED)が挙げられる。また前記妨害因子はそれ自体を誤差/欠陥15とみなしもよく、画像中に現れる場合がある。例えば、血液によって引き起こされる個々の3次元光学画像2中の欠陥15(唾液滴などの他の流体によって引き起こされるものと同様であってもよい)は、個々の3次元光学画像2中にハイライトおよび反射として現れ、測定において誤差を生じさせる場合がある。例えば血液によって引き起こされる欠陥15は、血液によって覆われた領域に局所的であってもよい。従って血液を除去する際に、欠陥15も除去することができる。従って欠陥15および誤差という用語は以後、欠陥/誤差/妨害/歪みをまとめて指すために使用する場合があり、前記個々の3次元光学画像2中に現れる妨害因子は非常に区別がつけにくいため、時として肉眼によって見逃される場合があり、スキャンプロセスにおける複数の中断の存在による患者の歯列の不正確な測定、患者の歯列の時間のかかる測定(従ってスキャン装置の再位置決めが必要となる)および/または患者の歯列の不可能な測定(カメラのガラスが曇った場合など)という結果に至る場合がある。
従って本システムは、好ましくはリアルタイムで3次元光学画像2中の誤差/欠陥15を自動的に認識および/または補正するように、複数の訓練用データセットを用いてディープニューラルネットワークなどのニューラルネットワークを訓練してもよい。従って大域的3D画像10に伝播される大域的欠陥17を、図4の補正された大域的3D画像9に示されているように減少または排除してもよく、かつ/またはより少ない中断であるか中断しないことによりスキャンフローを向上させてもよい。例えば本システムは、画素レベルで欠陥15を検出して曇り、引っ掻き傷、唾液滴、汚れ、血液、ハイライトなどに対応するラベルでラベル付けするか、あるいは画像レベルで欠陥15を検出して環境照明、測定距離などのラベルでラベル付けしてもよい。また本システムはセマンティックデータ(コンテキスト目的のため)を特定し、かつ3次元光学画像2中の歯、頬、唇、舌、歯肉、充填物、セラミックに対応するラベルでラベル付けしてもよい。さらに本システムは補正措置を決定し、かつ/または誤差を検出した際に前記決定した補正措置を適用してもよく、当該誤差は好ましくはコンテキストアウェアで決定される(すなわち、コンテキストは適当な補正方法を選択するために重要であり得る。例えば頬に対応するスキャン部分の必要とされる正確性は歯の正確性よりも非常に低い場合があるため、頬または歯肉の表面にある唾液は無視してもよい)。
図2は、一実施形態に係る患者の歯列の個々の3次元光学画像2から歯の情報を認識するためのシステム200のブロック図を示す。システム200は歯科用カメラ3、訓練モジュール204、画像補正モジュール206、コンピュータシステム100およびデータベース202を備えていてもよい。別の実施形態では、データベース202、画像補正モジュール206および/または訓練モジュール204はコンピュータシステム100の一部であってもよく、かつ/または補正措置に基づいて歯科用カメラ3のパラメータを直接および/または間接的に調整できるものであってもよい。コンピュータシステム100は少なくとも1つのコンピュータプロセッサ122、ユーザインタフェース126および入力装置130も備えていてもよい。コンピュータプロセッサは様々な要求を受信してもよく、かつ記憶装置に記憶されている適当な命令をメモリにロードし、次いでロードした命令を実行してもよい。コンピュータシステム100は、ソフトウェアおよびデータをコンピュータシステム100と外部装置との間で転送するのを可能にする通信インタフェース146も備えていてもよい。
コンピュータシステム100は歯科用カメラ3などの外部装置またはユーザ(図示せず)から誤差検出要求を受信してもよく、かつ前記誤差を検出するための適当な命令をロードしてもよい。あるいはコンピュータシステムは独立して、要求を待つことなく個々の3次元光学画像2を受信した際に前記誤差を検出してもよい。
一実施形態ではコンピュータシステム100は、データベース202(これは例えば複数の個々の3次元光学画像2を含んでいてもよい)からの多くの訓練用データセットを使用して、訓練モジュール204の一部であってもよい1つ以上のディープニューラルネットワークを訓練してもよい。いくつかの実施形態では、システム200は畳み込みニューラルネットワーク(CNN)、回帰型ニューラルネットワーク(RNN)および回帰型畳み込みニューラルネットワーク(回帰型CNN)などの各種ディープラーニングニューラルネットワークを含むニューラルネットワークモジュール(図示せず)を備えていてもよい。例示的な回帰型CNNモデルは、Courtney J.Spoererら,「回帰型畳み込みニューラルネットワーク:生物学的物体認識のより良好なモデル(Recurrent Convolutional Neural Networks:A Better Model of Biological Object Recognition)」(Front.Psychol,2017年9月12日)という表題の刊行物に記載されており、これはあたかも本明細書に完全に記載されているかのように、その全体が参照により本明細書に組み込まれる。
ニューラルネットワークへの訓練用データセットおよび/または入力は前処理されていてもよい。例えば3D測定値と共に色データを処理するために、較正を適用してカラー画像を3D表面と位置合わせしてもよい。さらに合成回転、拡大縮小などの標準的なデータ拡張手順を訓練用データセットおよび/または入力に適用してもよい。
訓練モジュール204は、ラベルを有する訓練用データセットを使用してディープニューラルネットワークの学習プロセスを監視してもよい。特徴を記述するためにラベルを使用してもよい。ラベル値は例えば確率値または確率ベクトルであってもよい。訓練モジュール204は逆に、ラベル付けされていない訓練用データセットを使用して生成ディープニューラルネットワークを訓練してもよい。
訓練用データセットは、誤差/欠陥15を特定するように訓練モジュール204の1つ以上のディープニューラルネットワークを訓練するために設計されていてもよい。例えば唾液滴によって引き起こされる個々の3次元光学画像2中の誤差を検出するようにディープニューラルネットワークを訓練するために、唾液滴によって引き起こされる欠陥15を有する複数の現実の個々の3次元光学画像データセットを特に唾液滴のための訓練用データセットとして使用してもよい。セマンティックデータ(例えば歯肉11)を認識するようにディープニューラルネットワークを訓練するための別の例では、特に歯肉のための訓練用データセット群を形成するために1つ以上の歯肉を有する現実の歯科用患者からの別の複数の訓練用データセットを選択する。従ってデータベース202は、例えば各誤差データ型のための1つの群および/または各セマンティックデータ型のための1つの群である異なる訓練用データセット群を含んでいてもよい。
本発明の一実施形態では、訓練モジュール204はリアルタイムで1つ以上のディープニューラルネットワークを訓練してもよい。いくつかの実施形態では、コンピュータシステム100が誤差を検出するために1つ以上の予め訓練されたディープニューラルネットワークを容易に使用することができるように、訓練モジュール204は、データベース202からの訓練用データセットを用いて1つ以上のディープニューラルネットワークを予め訓練してもよい。次いでそれは検出された誤差の補正のために、検出された誤差に関する情報および/または個々の3次元光学画像2を好ましくは自動的かつリアルタイムで画像補正モジュール206に送信してもよい。本明細書の後に記載されている所定の補正措置および/または人工知能を用いて得られた補正措置を用いて、検出された誤差を補正してもよい。例えば検出された誤差、対応するセマンティックデータ、対応する補正を含む各診断用データセットならびに科学文献、教科書からのデータ、ユーザからの入力などと共に過去の補正の診断用データセットに基づいて、画像補正モジュール206は、1つ以上の検出された誤差のために1つ以上の補正措置を特定、提案および/または実行するように構成されていてもよい。補正措置は例えば、所定の重みを使用することにより誤差を有する部分から得られた最終的な個々の3次元光学画像への寄与を計算することを含んでもよい。歯科計画において人工知能を用いるためのシステムは、「自動化歯科矯正診断および治療計画において人工知能を用いるための方法およびシステム(Methods and systems for employing artificial intelligence in automated orthodontic diagnosis and treatment planning)」という発明の名称の米国特許第9788917B2号に記載されており、この特許はあたかも本明細書に完全に記載されているかのように、その全体が参照により本明細書に組み込まれる。当然ながら、ユーザに通知すること、歯科用カメラ3パラメータを変更することなどの他の非人工知能補正措置を用いてもよい。
データベース202は、対応する個々の3次元光学画像2と共にディープニューラルネットワークおよび特定された誤差に関するデータも記憶していてもよい。さらにコンピュータシステム100は表示装置126および入力装置130を有していてもよく、これらを用いてユーザは要求をサブミットすること、および特定された欠陥15を受信して再考することなどの機能を行ってもよい。
システム200の他の実施形態は異なる構成要素および/またはさらなる構成要素を備えていてもよい。さらにこれらの機能は、本明細書に記載されているものとは異なるように当該構成要素に分散されていてもよい。
図5は本発明の一実施形態に係るディープニューラルネットワーク300などのニューラルネットワークの構造を示すブロック図を示す。それは入力層302、1つ以上の隠れ層304および出力層306を含むいくつかの層を有していてもよい。各層は小さい円によって示されている1つ以上のノード308からなっていてもよい。情報は入力層302から出力層306へ、すなわち左から右方向に流れてもよいが、他の実施形態ではそれは右から左であったりそれらの両方であったりしてもよい。例えば回帰型ネットワークは、一連の画像8において新しいデータを処理する場合に前に観察されたデータを考慮してもよく(例えば、前の画像を考慮して現在の画像をセグメンテーションしてもよく)、非回帰型ネットワークは個々に新しいデータを処理してもよい。ノード308は入力および出力を有してもよく、入力層308のノードはパッシブであってもよく、これはそれらがデータを修正しなくてもよいことを意味する。例えば入力層302のノード308はそれぞれ、それらの入力に対して単一の値(例えば画素値)を受信し、かつそれらの複数の出力への値を複製してもよい。逆に隠れ層304および出力層306のノードはアクティブであってもよく、従ってデータを修正することができる。例示的な構造では、入力層302からの各値を複製して隠れノードの全てに送信してもよい。隠れノードに到着した値に重みを掛けてもよく、これは隠れノードのそれぞれに関連づけられた所定の数のセットであってもよい。次いで重み付けされた入力を合計して単一の数を生成してもよい。
本発明に係る一実施形態では、ディープニューラルネットワーク300は、曇り、引っ掻き傷、唾液滴、汚れ、血液、ハイライトなどのいくつかの欠陥15を検出した場合に、個々の3次元光学画像2の画素を入力として使用してもよい。個々の3次元光学画像2はカラー画像であってもよい。本明細書では、入力層302中のノードの数は個々の3次元光学画像2中の画素の数に等しくてもよい。例示的な一実施形態では、1つのニューラルネットワークを全ての欠陥15のために使用してもよく、別の実施形態では、異なるネットワークを異なる欠陥15のために使用してもよい。別の例では、ディープニューラルネットワーク300は、環境光および測定距離によって引き起こされる欠陥などのいくつかの欠陥15を検出した場合に、個々の画素の代わりに個々の3次元光学画像2を分類してもよい。さらなる実施形態では、入力は4番目ごとの画素などのサブサンプリングされた入力であってもよい。さらに別の実施形態では、ディープニューラルネットワークはカラー画像、深度測定値、加速度などの歯科用カメラ3によって取得された複数のデータならびに露光時間、アパーチャなどの装置パラメータを入力として有していてもよい。それは回帰型畳み込みニューラルネットワークを用いることなどにより取得されたデータの時間的な一連の画像も組み入れてもよい(いくつかの欠陥15は単一画像を用いて検出するのが難しい場合があるため)。欠陥15は場合によっては、主として歯が画像から画像へと変わっている間に同じ画像位置に留まっている特徴的歪みから見えるものであってもよい。これは、例えば曇りなどの妨害因子ならびにより少ない程度で引っ掻き傷に当てはまる。回帰型ネットワークは一連の画像8におけるそのような特徴を認識するのに非常に適している場合がある。ディープニューラルネットワークはラベルを出力してもよく、この出力は、例えば特定のカテゴリに属している各画素入力の1つ以上の確率値を含む確率ベクトルであってもよい。例えば当該出力は確率値を含む確率ベクトルを含んでもよく、ここでは最も高い確率値は欠陥15を定めてもよい。ディープニューラルネットワークはどんな付加された確率も含まないラベル値のマップも出力してもよい。さらに異なる分類を達成してもよい。例えば第1の分類は欠陥カテゴリ、例えば引っ掻き傷、息による曇り、唾液の泡、血液、汚れ、太陽光、サージカルライト、歯からの測定距離、カメラのセンサにおける画素の欠陥などのうちの1つ以上を含んでもよい。別の分類はセマンティックカテゴリ、例えば歯、頬、唇、舌、歯肉、充填物、セラミックなどのうちの1つ以上を含んでもよい。各分類のためにディープニューラルネットワークを作成することができる。
考察されているように、ディープニューラルネットワークは畳み込みニューラルネットワーク(CNN)、回帰型ニューラルネットワーク(RNN)および回帰型畳み込みニューラルネットワーク(回帰型CNN)などであってもよい。
3D測定値における誤差を検出するための方法
ここまで図2のシステム200について説明してきたが、次に本明細書中の例示的な実施形態の少なくともいくつかに係るプロセスS400を示す図6Aを参照する。
プロセスS400は、訓練用データセット中の目的の領域を得て所定のラベルでラベル付けすることにより開始してもよい(工程S402)。例えば図6Bに示されているサンプル画像412上のサンプル欠陥414(前記サンプル画像414は暗室で撮影され、妨害因子が存在しない場合は黒色になる)は引っ掻き傷としてラベル付けしてもよい。訓練用画像のラベル付けは、例えば目的の点に対応する画像上にドットを設定することによりデジタルで行ってもよい。
セマンティクスを個々の3次元光学画像2に割り当てるために、訓練用データにラベル付けしてもよい。これは、色もしくは深度情報のために画素ごとのレベルで行ってもよい。あるいは単一画像のために、完全な3Dモデルのメッシュをカットして対応する画素ごとのラベルを計算してもよい。さらにラベル付けプロセスを自動化することができるように、前記メッシュをセグメンテーションしてもよい。ラベル付けするために必要とされる作業量を減らすためにメッシュにラベル付けしてもよく、かつこれらのラベルを単一画像の対応する画素に移してもよい。それ以外のものにはどれにもラベルを割り当てずに、これらのラベルにより歯、頬、唇、舌、歯肉、充填物、セラミックを区別してもよい。測定に無関係なものは、頬、唇、舌およびラベル付けされていないデータであってもよい。
欠陥ラベルを個々の3次元光学画像2に割り当てるために、訓練用データにもラベル付けしてもよい。これも画像もしくは深度情報のために画素ごとのレベルで行ってもよい。例えば、曇り、引っ掻き傷、唾液滴、汚れ、血液、ハイライトのために画素レベルで、環境照明、測定距離、アパーチャなどの他の情報のために画像レベルで訓練用データにラベル付けしてもよい。
セマンティックラベルは欠陥15のためのマーカーと重複していてもよく、例えば「歯+唾液」、「歯+血液」、「歯+引っ掻き傷」および「歯」などのラベルを達成してもよく、これらのラベルを「頬+引っ掻き傷」などの他のラベルから区別してもよく、すなわち歯の表面にある唾液滴(これは関連する欠陥であってもよい)を頬の表面にある唾液滴(これは無関係の欠陥であってもよい)から区別してもよい。このようにして、誤った通知を回避してもよい。
一実施形態では、計算量を最適化し、かつネットワーク実行可能性を高めるために、相互相関、オプティカルフロー、エッジ検出器、差分画像および移動平均を含む画像処理フィルタなどの特定の効率的に計算可能なフィルタを入力データに適用してもよく、同じかより低い画素解像度を有する得られたフィルタ処理した画像をディープニューラルネットワーク300にさらなる入力として供給してもよい。ニューラルネットワークの入力層は、画像フィルタからのさらなる画素ごとの情報を処理するために、さらなるノードを含んでいてもよい。
このラベル付けまたは分類された画像のセットを用いて、ネットワークが新しい画像を自らセグメンテーションすることができるネットワーク配線を行うことができるように、ディープニューラルネットワーク300を構築してラベル付けされた画像を供給し、それによりネットワークがそれから「学習する」のを可能にしてもよい。
セグメンテーションの別のオプションとして、画像ごとのベースまたは画素ごとのベースでのセグメンテーションは、画素ごとのレベルよりも僅かに高いレベルで(「スーパー画素ごとの」レベルで、すなわち「スーパー画素」は画像の通常の画素よりも大きい画像の部分である)、分類することを含んでもよい。
プロセスS400の命令およびアルゴリズムは、確率ベクトルの1つ以上の出力確率値に基づいて1つ以上の欠陥15を検出するように訓練用データセットを用いて1つ以上のディープニューラルネットワークを訓練する(工程S404)ために、コンピュータシステム100のメモリに記憶されていてもよく、かつプロセッサ122によってロードされて実行されてもよい。例えば環境光に対応する確率ベクトルの確率値の1つが90%である場合、ニューラルネットワークは個々の3次元の画像における欠陥15の1つとして過剰な環境光を検出してもよい。別の例では、引っ掻き傷の位置に対応する確率値が高い場合に、ニューラルネットワークは引っ掻き傷の位置として対応する位置を特定する。従ってネットワークが新しい画像を自らセグメンテーションすることができるネットワーク配線を行うことができるように、ディープニューラルネットワークを構築し、かつネットワークがそれから「学習する」のを可能にするラベル付けされた画像を供給してもよい。
訓練する工程は1回、複数回または断続的に行ってもよい。また訓練する工程は「半教師あり」または「自己教師あり」であってもよい。例えば第1の訓練する工程後に、ディープニューラルネットワークは前に見たことのない画像を受信または取得してもよく、かつ出力を得てもよく、ネットワークが好ましくは自ら動作して最終的に人間の助けなしに画像を分類することができるように対応するフィードバックを与えてもよい。これは画素レベルまたは画像レベルで行ってもよい。例えば画像レベルでは、環境光を有する画像および環境光を有しない画像を画像が環境光を有する確率を示す確率値を有する確率ベクトルに対応付けするように、ディープニューラルネットワーク300を訓練してもよい。従って画像が環境光を有することを示している確率値はベクトルにおいて最も高くてもよい。従って、個々の3次元光学画像2の一連の画像8がディープニューラルネットワーク300に入力された場合に、ディープニューラルネットワークが画像が属するカテゴリ(環境光を有するまたは有しない)を示している各画像のために得られた確率ベクトルを返することができるように、ディープニューラルネットワーク300を訓練してもよい。
訓練する工程後に、ディープニューラルネットワークは歯科用カメラ3から個々の3次元光学画像の一連の画像8を取得または受信してリアルタイムでセグメンテーションしてもよく(工程S406)、かつ画像中の欠陥15を検出してもよい(工程408)。前記欠陥15を検出したら、補正モジュール206は欠陥15を補正し(工程S410)、かつ/または補正措置を提案してもよい。これは、(個々の3次元光学画像の)連続的な画像レジストレーションあるいは大域的画像レジストレーション(同時に取得された全ての画像8のレジストレーション)、モデル表面再構成および/またはモデルテクスチャ生成などのその後の処理工程においてリアルタイムで行ってもよい。補正は欠陥位置に対応する信頼できないデータ点をマスキングアウトすること、および/または影響を受けていないデータ点が妨害因子によって導入される誤差を無効にするのを可能にするためにより小さい重みを有するデータを使用することにより行ってもよい。
図7は、歯科用カメラ3が口腔内で歯12を記録し、かつ欠陥15を含む画像の一連の画像8を生成する本発明の一実施形態を示す。画像の一連の画像18をディープニューラルネットワーク300に入力し、次いでこのネットワークは欠陥15を検出して欠陥15に対応する位置16にラベル付けする。次の工程では、レジストレーションモジュール500を用いる画像のレジストレーション前にそれらをマスキングアウトすることにより位置16を好ましくは無視する。別の工程では、完全に再構成された三角メッシュ/完全に再構成された3D画像/補正された大域的3D画像9を、再構成モジュール502を用いてマスクされた画像から得てもよい。また前記再構成モジュール502を使用して、所定の重みを用いて重み付け手段により欠陥15に対応する位置16からの寄与を部分的に含めることにより完全に再構成された三角メッシュ9を生成してもよい。また前記再構成モジュールを使用して同じ重み付け機構を用いて再構成された三角メッシュ9のためにカラーのテクスチャを生成してもよい。
図8は、ディープニューラルネットワークが出力する情報を制御装置600が使用して今後見つかる/現在見つかっている欠陥15を減らすか無くすために、検出された欠陥15に対応する歯科用カメラのパラメータを自動的に調整するように、ディープニューラルネットワークが情報(欠陥15の位置16を示す二値画像または講じられる補正措置の指標など)またはそれ以外の情報を出力し、例えば当該出力に基づいて、歯科用カメラ3の露光時間または光強度を自動的に増加または減少させることができ、かつ/またはカメラのガラス(または場合によっては鏡)の温度を上げて曇りを減少/除去することができる本発明の別の実施形態を示す。本明細書中の一実施形態では、調整の程度は欠陥15の関連性および/またはサイズ/量に基づいていてもよい。
図9は、ディープニューラルネットワーク300がユーザへの警告に関する情報を発行する本発明のさらに別の実施形態を示す。この警告は取得装置700に伝播されてもよく、この装置は補正措置を講じるために、クラウドネットワークまたはインターネットなどのネットワーク702を介して顧客サポートなどのクライアントによってアクセスすることができるレポートを生成してもよい。
3D測定値における誤差を検出するためのコンピュータシステム
ここまで図6AのプロセスS400について説明してきたが、次に本明細書中の例示的な実施形態の少なくともいくつかに従って用いることができるコンピュータシステム100のブロック図を示す図10を参照する。この例示的なコンピュータシステム100に関して様々な実施形態が本明細書に記載されている場合があるが、本明細書を読んだ後に、他のコンピュータシステムおよび/またはアーキテクチャを用いて本発明を実行する方法が当業者には明らかになるであろう。
コンピュータシステム100は訓練モジュール204、データベース202および/または画像補正モジュール206を備えていてもそれらとは分離されていてもよい。これらのモジュールはハードウェア、ファームウェアおよび/またはソフトウェアに実装されていてもよい。当該コンピュータシステムは少なくとも1つのコンピュータプロセッサ122、ユーザインタフェース126および入力装置130も備えていてもよい。入力装置130は例示的な一実施形態において、欠陥15を検出することに関する命令または要求を送信するためにモニターなどの表示装置128と共に歯科医師によって使用されてもよい。本明細書中の別の例示的な実施形態では、入力装置130はタッチスクリーンインタフェース(図示せず)上で使用される指またはスタイラスである。入力装置130は代わりとしてジェスチャ/音声認識装置、トラックボール、マウスあるいはキーボードまたはスタイラスなどの他の入力装置であってもよい。一例では、表示装置128、入力装置130およびコンピュータプロセッサ122はまとめてユーザインタフェース126を形成してもよい。
コンピュータプロセッサ122としては、例えば中央処理装置、多重処理装置、特定用途向けIC(「ASIC」)またはフィールドプログラマブルゲートアレイ(「FPGA」)などが挙げられる。プロセッサ122は通信インフラ124(例えば、通信バスまたはネットワーク)に接続されていてもよい。本明細書中の一実施形態では、プロセッサ122は3D測定の要求を受信してもよく、かつ画像中の欠陥15を自動的に検出し、訓練モジュール204、データベース202および画像補正モジュール206を用いて画像中の前記欠陥15を自動的に補正してもよい。プロセッサ122は、コンピュータ可読プログラム命令の形態で非一時的記憶装置に記憶されている対応する命令をロードし、かつロードした命令を実行することによりこれを達成してもよい。
コンピュータシステム100は、ランダムアクセスメモリ(「RAM」)であってもよい主記憶装置132をさらに備えていてもよく、かつ補助記憶装置134も備えていてもよい。補助記憶装置134は、例えばハードディスクドライブ136および/または取外し可能なストレージドライブ138を含んでいてもよい。取外し可能なストレージドライブ138は周知の方法で、取外し可能な記憶装置140から読み出し、かつ/またはそこに書き込んでもよい。取外し可能な記憶装置140は例えば、取外し可能なストレージドライブ138によって書き込みおよび読み出し可能なフロッピーディスク、磁気テープ、光ディスクおよびフラッシュメモリ装置などであってもよい。取外し可能な記憶装置140は、コンピュータ実行可能ソフトウェア命令および/またはデータを記憶している非一時的コンピュータ可読記憶媒体を含んでもよい。
さらなる他の実施形態では、補助記憶装置134は、コンピュータ実行可能プログラムまたはコンピュータシステム100の中にロードされる他の命令を記憶している他のコンピュータ可読媒体を含んでいてもよい。そのような装置は、取外し可能な記憶装置144およびインタフェース142(例えば、プログラムカートリッジおよびカートリッジインタフェース)、取外し可能なメモリチップ(例えば、消去可能プログラム可能リードオンリーメモリ(「EPROM」)またはプログラム可能リードオンリーメモリ(「PROM」))および関連するメモリソケット、他の取外し可能な記憶装置144ならびにソフトウェアおよびデータを取外し可能な記憶装置144からコンピュータシステム100の他の部分に転送するのを可能にするインタフェース142を備えていてもよい。
コンピュータシステム100は、ソフトウェアおよびデータをコンピュータシステム100と外部装置との間で転送するのを可能にする通信インタフェース146も備えていてもよい。そのようなインタフェースとしては、モデム、ネットワークインタフェース(例えば、イーサネットカード、無線インタフェース、インターネットを通じたクラウドホスティングサービスなど)、通信ポート(例えば、ユニバーサル・シリアル・バス(「USB」)ポートまたはファイアワイヤ(登録商標)ポート)、パーソナルコンピュータメモリカード国際協会(「PCMCIA」:Personal Computer Memory Card International Association)インタフェースおよびブルートゥース(登録商標)などが挙げられる。通信インタフェース146を介して転送されるソフトウェアおよびデータは信号の形態であってもよく、この信号は、通信インタフェース146によって送信および/または受信することができるようにしてもよい電子信号、電磁信号、光信号または別の種類の信号であってもよい。信号は、通信路148(例えばチャネル)を介して通信インタフェース146に提供されてもよい。通信路148は信号を運んでもよく、かつワイヤまたはケーブル、ファイバーオプティクス、電話線、セルラーリンクまたは無線周波数(「RF」)リンクなどを用いて実装されていてもよい。コンピュータシステム100とリモートサーバまたはクラウドベースのストレージとの間でソフトウェアまたはデータあるいは他の情報を転送するために、通信インタフェース146を使用してもよい。
1つ以上のコンピュータプログラムまたはコンピュータ制御ロジックは、主記憶装置132および/または補助記憶装置134に記憶されていてもよい。またコンピュータプログラムは通信インタフェース146を介して受信されてもよい。コンピュータプログラムは、コンピュータプロセッサ122によって実行された場合にコンピュータシステム100に本明細書に記載されている方法を実行させるコンピュータ実行可能命令を含んでいてもよい。
別の実施形態では、ソフトウェアは非一時的コンピュータ可読記憶媒体に記憶され、かつ取外し可能なストレージドライブ138、ハードディスクドライブ136および/または通信インタフェース146を用いてコンピュータシステム100の主記憶装置132および/または補助記憶装置134の中にロードされてもよい。制御ロジック(ソフトウェア)はプロセッサ122によって実行された場合に、コンピュータシステム100およびより一般にスキャン妨害を検出するための本システムに、本明細書に記載されている方法の全てまたはいくつかを実行させる。
本明細書に記載されている機能を実行させるための他のハードウェアおよびソフトウェア構成の実装は、本明細書を考慮すれば当業者には明らかであろう。

Claims (17)

  1. 1つ以上の計算装置によって患者の歯列の個々の画像を受信する工程と、
    前記患者の歯列の前記個々の画像をセマンティック領域および/または誤差領域に対応する領域にセグメンテーションすることにより訓練されたディープニューラルネットワークの1つ以上の出力ラベル値を用いて前記欠陥を自動的に特定する工程と、
    前記特定された欠陥を補正するための1つ以上の補正措置を決定する工程と、
    前記患者の歯列の前記個々の画像を組み合わせて補正された大域的3D画像を形成する工程と
    を含む、3次元測定中に欠陥を検出するためのコンピュータ実装方法。
  2. 前記個々の画像は個々の3次元光学画像である、請求項1に記載の方法。
  3. 前記個々の画像は時間的な一連の画像として受信される、請求項2に記載の方法。
  4. 前記個々の画像は前記患者の歯列の3D測定データおよび色データを含む、請求項3に記載の方法。
  5. 前記特定された誤差領域の関連性の指標は対応するセマンティック領域に基づいている、請求項1に記載の方法。
  6. 各訓練用画像の少なくとも1つの部分にある1つ以上の欠陥を1つ以上のラベル値と対応付けするように、前記1つ以上の計算装置および複数の個々の訓練用画像を用いて前記ディープニューラルネットワークを訓練する工程
    をさらに含み、
    前記訓練する工程は、前記個々の訓練用画像および/または前記個々の訓練用画像の画素をセマンティックデータ型および/または誤差データ型に対応する1つ以上のクラスに分類することにより画素レベルで行う、
    請求項1に記載の方法。
  7. 前記セマンティックデータ型は、歯、頬、唇、舌、歯肉、充填物およびセラミックからなる群から選択され、前記誤差データ型は、曇り、引っ掻き傷、唾液滴、汚れ、血液、ハイライト、環境照明、測定距離、画素の欠陥からなる群から選択される、請求項6に記載の方法。
  8. 前記個々の画像のレジストレーション前に前記欠陥に対応する位置をマスクアウトすることにより前記欠陥を補正する工程をさらに含む、請求項1に記載の方法。
  9. 所定の重みを用いて前記欠陥に対応する前記位置の寄与を部分的に含めることにより前記欠陥を補正する工程をさらに含む、請求項1に記載の方法。
  10. 前記欠陥に対応する歯科用カメラのパラメータを自動的に調整することにより前記欠陥を補正する工程をさらに含む、請求項1に記載の方法。
  11. 前記パラメータは前記歯科用カメラの露光時間、光強度およびガラス温度を含む、請求項10に記載の方法。
  12. ユーザに警告を中継することおよび/または前記誤差に関するレポートを生成することにより前記欠陥を示す工程をさらに含む、請求項1に記載の方法。
  13. 前記ディープニューラルネットワークは、畳み込みニューラルネットワーク(CNN)、回帰型ニューラルネットワーク(RNN)および回帰型畳み込みニューラルネットワーク(回帰型CNN)からなる群から選択されるネットワークである、請求項1に記載の方法。
  14. 前記個々の画像は個々の2次元(2D)画像である、請求項1に記載の方法。
  15. コンピュータシステムによって実行された場合に、前記コンピュータシステムに、
    1つ以上の計算装置によって患者の歯列の個々の画像を受信する工程と、
    前記患者の歯列の前記個々の画像をセマンティック領域および/または誤差領域に対応する領域にセグメンテーションすることにより訓練されたディープニューラルネットワークの1つ以上の出力ラベル値を用いて前記患者の歯列の前記個々の画像中の欠陥を自動的に特定する工程と、
    前記特定された欠陥を補正するための1つ以上の補正措置を決定する工程と、
    前記患者の歯列の前記個々の画像を組み合わせて補正された大域的3D画像を形成する工程と
    を含む手順を実行させるプログラムを記憶している非一時的コンピュータ可読記憶媒体。
  16. 1つ以上の計算装置によって患者の歯列の個々の画像を受信し、
    前記患者の歯列の前記個々の画像をセマンティック領域および/または誤差領域に対応する領域にセグメンテーションすることにより訓練されたディープニューラルネットワークの1つ以上の出力ラベル値を用いて前記患者の歯列の前記個々の画像中の欠陥を自動的に特定し、
    前記特定された欠陥を補正するための1つ以上の補正措置を決定し、かつ
    前記患者の歯列の前記個々の画像を組み合わせて補正された大域的3D画像を形成する
    ように構成されたプロセッサを備える、3次元測定中に欠陥を検出するためのシステム。
  17. 前記ディープニューラルネットワークは、畳み込みニューラルネットワーク(CNN)、回帰型ニューラルネットワーク(RNN)および回帰型畳み込みニューラルネットワーク(回帰型CNN)からなる群から選択されるネットワークである、請求項16に記載のシステム。

JP2022518845A 2019-09-24 2020-09-22 3次元測定値における誤差の検出のための方法、システムおよびコンピュータ可読記憶媒体 Pending JP2022550712A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/579,995 US11291404B2 (en) 2019-09-24 2019-09-24 Method, system and computer readable storage media for the detection of errors in three-dimensional measurements
US16/579,995 2019-09-24
PCT/US2020/051930 WO2021061606A1 (en) 2019-09-24 2020-09-22 Method, system and computer readable storage media for the detection of errors in three-dimensional measurements

Publications (1)

Publication Number Publication Date
JP2022550712A true JP2022550712A (ja) 2022-12-05

Family

ID=73139375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022518845A Pending JP2022550712A (ja) 2019-09-24 2020-09-22 3次元測定値における誤差の検出のための方法、システムおよびコンピュータ可読記憶媒体

Country Status (7)

Country Link
US (1) US11291404B2 (ja)
EP (1) EP4046131A1 (ja)
JP (1) JP2022550712A (ja)
KR (1) KR20220066899A (ja)
CN (1) CN114365184A (ja)
CA (1) CA3150027A1 (ja)
WO (1) WO2021061606A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11238586B2 (en) * 2019-05-02 2022-02-01 Align Technology, Inc. Excess material removal using machine learning
JP7348754B2 (ja) * 2019-06-03 2023-09-21 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
KR20210053052A (ko) * 2019-11-01 2021-05-11 엘지전자 주식회사 컬러 복원방법 및 장치
TWI712396B (zh) * 2020-01-16 2020-12-11 中國醫藥大學 口腔缺陷模型之修補方法及口腔缺陷模型之修補系統
US11842484B2 (en) 2021-01-04 2023-12-12 James R. Glidewell Dental Ceramics, Inc. Teeth segmentation using neural networks
US11393077B2 (en) * 2020-05-13 2022-07-19 Adobe Inc. Correcting dust and scratch artifacts in digital images
CA3237340A1 (en) * 2021-11-04 2023-05-11 Schlumberger Canada Limited Automatic well log correction
CN114533325B (zh) * 2022-02-24 2024-02-06 北京大学口腔医学院 基于动度监测的平坦黏膜扫描和光学整塑方法及系统
CN117808737B (zh) * 2023-11-02 2024-05-14 江阴市精成数控有限公司 轴承缺陷管理系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9788917B2 (en) 2010-03-17 2017-10-17 ClearCorrect Holdings, Inc. Methods and systems for employing artificial intelligence in automated orthodontic diagnosis and treatment planning
EP2866644B1 (en) 2012-06-27 2023-11-08 3Shape A/S 3d intraoral scanner measuring fluorescence
US11363938B2 (en) * 2013-03-14 2022-06-21 Ormco Corporation Feedback control mechanism for adjustment of imaging parameters in a dental imaging system
US10507087B2 (en) * 2016-07-27 2019-12-17 Align Technology, Inc. Methods and apparatuses for forming a three-dimensional volumetric model of a subject's teeth
US11291532B2 (en) 2016-07-27 2022-04-05 James R. Glidewell Dental Ceramics, Inc. Dental CAD automation using deep learning
JP7089507B2 (ja) 2016-09-26 2022-06-22 エフ・ホフマン-ラ・ロシュ・アクチェンゲゼルシャフト Pd-1軸阻害剤への応答を予測すること
FR3069361B1 (fr) 2017-07-21 2019-08-23 Dental Monitoring Procede d'analyse d'une image d'une arcade dentaire
ES2914600T3 (es) * 2018-01-30 2022-06-14 Dental Monitoring Método de análisis de una representación de una arcada dental
CN112106109A (zh) 2018-02-16 2020-12-18 3 形状股份有限公司 具有表面区分的口腔内扫描

Also Published As

Publication number Publication date
EP4046131A1 (en) 2022-08-24
CN114365184A (zh) 2022-04-15
WO2021061606A1 (en) 2021-04-01
CA3150027A1 (en) 2021-04-01
KR20220066899A (ko) 2022-05-24
US20210085238A1 (en) 2021-03-25
US11291404B2 (en) 2022-04-05

Similar Documents

Publication Publication Date Title
JP2022550712A (ja) 3次元測定値における誤差の検出のための方法、システムおよびコンピュータ可読記憶媒体
US10685259B2 (en) Method for analyzing an image of a dental arch
US11651494B2 (en) Apparatuses and methods for three-dimensional dental segmentation using dental image data
US11314983B2 (en) Method for analyzing an image of a dental arch
US20210353152A1 (en) Automatic generation of orthodontic or prosthodontic prescription
US20210358124A1 (en) Method for analyzing an image of a dental arch
US11250580B2 (en) Method, system and computer readable storage media for registering intraoral measurements
US11049248B2 (en) Method for analyzing an image of a dental arch
US10755409B2 (en) Method for analyzing an image of a dental arch
US20220222910A1 (en) Method for generating a model of a dental arch
US20230337898A1 (en) Oral image processing method, oral diagnostic device for performing operation according thereto, and computer-readable storage medium in which program for performing method is stored
US20240041569A1 (en) Method for analyzing an image of a dental arch
CN111937038B (zh) 用于3d扫描对象表面的至少一部分的方法和光学3d扫描仪
US20220215547A1 (en) Method for analyzing an image of a dental arch
US20240177397A1 (en) Generation of dental renderings from model data
US20220202532A1 (en) Method for evaluating an orthodontic aligner
WO2023014995A1 (en) Intuitive intraoral scanning
WO2023028339A1 (en) Intraoral scanner real time and post scan visualizations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230920