JP2022516488A - 歯の位置合わせを用いた歯のセグメンテーション - Google Patents

歯の位置合わせを用いた歯のセグメンテーション Download PDF

Info

Publication number
JP2022516488A
JP2022516488A JP2021537957A JP2021537957A JP2022516488A JP 2022516488 A JP2022516488 A JP 2022516488A JP 2021537957 A JP2021537957 A JP 2021537957A JP 2021537957 A JP2021537957 A JP 2021537957A JP 2022516488 A JP2022516488 A JP 2022516488A
Authority
JP
Japan
Prior art keywords
model image
tooth
segmentation
model
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021537957A
Other languages
English (en)
Other versions
JPWO2020136243A5 (ja
Inventor
デルフィン レイナード
グザヴィエ リポッシュ
ヤニック グリネック
ジャン パスカル ヤコブ
パスカル ナルシス
サブリナ キャプロン-リシャール
オード ラガルデール
Original Assignee
トロフィー エスアーエス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トロフィー エスアーエス filed Critical トロフィー エスアーエス
Publication of JP2022516488A publication Critical patent/JP2022516488A/ja
Publication of JPWO2020136243A5 publication Critical patent/JPWO2020136243A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4064Arrangements for generating radiation specially adapted for radiation diagnosis specially adapted for producing a particular type of beam
    • A61B6/4085Cone-beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • A61B6/512Intraoral means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • A61C9/006Optical means or methods, e.g. scanning the teeth by a laser or light beam projecting one or more stripes or patterns on the teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • A61C2007/004Automatic construction of a set of axes for a tooth or a plurality of teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Epidemiology (AREA)
  • General Engineering & Computer Science (AREA)
  • Pulmonology (AREA)
  • Quality & Reliability (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

患者の歯列の3Dモデル画像をセグメント化する方法は、患者の歯列の第1の3Dモデル画像を取得し、第1の3Dモデル画像の第1のセグメンテーションを取得し、ここで第1のセグメンテーションは、第1の3Dモデルの1つ以上の歯に少なくとも歯の表面輪郭及び歯のラベルを供給する。患者の歯列の第2の3Dモデル画像が取得される。第1の3Dモデルの各セグメント化された歯の表面輪郭は、第2の3Dモデルの対応する歯の表面輪郭に位置合わせされる。第2の3Dモデル画像の第2のセグメンテーションは、位置合わせされた歯の表面輪郭に従って取得され、ここで第2のセグメンテーションは同様に、第2の3Dモデル画像の1つ以上の歯に少なくとも歯の表面輪郭及び歯のラベル付けを供給する。セグメント化された第2の3Dモデル画像は、表示され、送信され、又は記憶される。

Description

本開示は、一般的には歯科撮像に関し、特に口腔内特徴のセグメンテーションのための方法及び装置に関する。
光学的口腔内スキャンは、歯列物体の輪郭を生成し、歯、歯茎、及びその他の口腔内構造の視覚化を改善するのに役立っている。表面輪郭情報は、歯の状態の評価に特に役立ち得て、修復歯科などの様々なタイプの歯科手順に対する価値が認識されている。これは、歯科医が様々な問題を特定し、患者の歯と支持構造に関連する別の測定値と観察を検証するのを支援する価値あるツールを提供し得る。表面輪郭情報を使用して、個々の歯などの歯列構成要素の3Dモデルを生成することもでき、次に、個々の歯に関連する位置と向きの情報を使用して、歯科矯正治療の進行状況を評価し得る。
歯科矯正及び別の修復手順では、患者歯列のモデルは、最初に様々なプロセスの段階で、口腔内スキャナから取得され得る表面輪郭情報を使用して生成される。モデルは、表面輪郭を示すスキャンされた画像コンテンツから形成された点群又はメッシュとして形成され得る。次に、いくつかの標準化されたメトリックは、比較のためにモデルに適用され得て、治療レジメンの全体的な進捗状況を追跡し得る。
モデルを分析して使用するプロセスの一部は、歯のセグメンテーションである。セグメンテーションにより、モデルとその特徴の中から個々の歯が識別され得て、その向きを治療評価の一部として正確に分析することを可能とする。少なくとも、セグメンテーションは、点群又はメッシュに沿ったものなど、モデルの各位置で歯を定義し、歯のラベルを識別する。セグメンテーションはまた、歯頚部限界、歯の咬頭及び窩などの特徴を識別し得る。セグメンテーションは更に、歯の軸(近遠心及び主軸)を決定するために必要な情報を提供し得る。例えば、セグメンテーションにより、施術者は歯冠を識別して分離し、歯の別の可視部分を歯茎及び関連する支持構造から区別するのを可能にする。
従来のセグメンテーション手法は時間がかかる場合があり、エラーを修正し、又は結果の曖昧さを解決するために、手動介入を必要とする場合が多い。モデルが患者に対して生成される度に、例えば、手順が進行している間の様々な間隔で、セグメンテーション処理を繰り返す必要があり、プロセス全体に時間とコストがかかり、治療の進行状況を適切に評価することが困難になる場合がある。
米国特許第8670521号明細書 米国特許第5999587号明細書 米国特許第5270926号明細書 米国特許出願公開第2013/0120532号明細書 米国特許出願公開第2013/0120533号明細書 米国特許出願公開第2003/0039389号明細書
トーマス クロンフェルド(Thomas Kronfeld)ら著、「仮想的歯鋳型に基づくスネークベースの歯のセグメンテーション(Snake-Based Segmentation of Teeth from Virtual Dental Casts)」、コンピュータ支援設計と応用(Computer-Aided Design&applications、第7(a)巻、2010年 ページ(Page,D.L.)ら著、「高速マシンウォーターシェドを用いた知覚ベースの3D三角メッシュセグメンテーション(Perception-based 3D Triangle Mesh Segmentation Using Fast Marching Watershed)」、コンピュータヴィジョンとパターン認識についてのコンピュータソサエティカンファレンス会議録(Proc.CVPI)、米国電気電子学会(IEEE)、2003年、第3巻 ムーン(M.J.Moon)著、「歯のデジタルモデルに対する自動セグメンテーションのソフトウェア開発評価(Evaluation of software developed for automated segmentation of digital dental models」、IADR ジェネラルセッション、2011年 アクフーンダリ(Akhoondali)著、「高速自動セグメンテーションとCT-スキャンデータにおける歯列の視覚化(Rapid Automatic Segmentation and Visualization of Teeth in CT-Scan Data)」、応用科学ジャーナル(Journal of Applied Sciences)、2009年、pp2031-2044 ガオ(Gao)著、「歯のCTスキャン画像のための歯領域分割(Tooth Region Separation for Dental CT Images)」、2008年第3回 収束及び合成情報技術(Convergence and Hybrid Information Technology)の国際会議の議事録、2008年、pp897-901 pointclouds.orgのWebサイトのdocumentation/tutorials/normal_estimation.php ルス(Rusu,R.B.)著、「人間住環境における日課操作のための意味論的3Dオブジェクトマップ(Semantic 3D Object Maps for Everyday Manipulation in Human Living Environments」、人工知能(Kunstl Intell)、2009年8月17日
本開示の目的は、修復及び歯科矯正撮像における改善された歯のセグメンテーション及びワークフローの必要性に対処することである。本開示の実施形態は、全体的な治療計画及び以前のセグメンテーション結果から利用可能な追加のレバレッジを用いてセグメンテーション処理を支持する。
これらの目的は、例示的な例としてのみ所与され、そのような目的は、本発明の1つ以上の実施形態の例示であり得る。開示された方法によって本質的に達成される別の望ましい目的及び利点が生じてもよく、又は当業者に明らかになってもよい。本発明は、添付の請求項によって定義される。
本開示の1つの態様によると、患者の歯列の3Dモデル画像をセグメント化する方法が提供され、
a)患者の歯列の第1の3Dモデル画像を取得し、第1の3Dモデル画像のセグメンテーションを取得することであって、ここで第1のセグメンテーションは、第1の3Dモデル画像の1つ以上の歯に少なくとも歯の表面輪郭及び歯のラベルを供給すること、
b)患者の歯列の第2の3Dモデル画像を取得することであって、第2の3Dモデル画像は表面を有すること、
c)第1の3Dモデル画像の1つ以上のセグメント化された歯の表面輪郭を第2の3Dモデル画像の表面に位置合わせすること、
d)第2の3Dモデル画像の第2のセグメンテーションを、位置合わせされた歯の表面輪郭に従って取得することであって、ここで第2のセグメンテーションは同様に、第2の3Dモデル画像の1つ以上の歯に少なくとも歯の表面輪郭及び歯のラベル付けを供給すること、そして、
e)セグメント化された第2の3Dモデル画像を記憶すること、を含む。
本発明の前述の及びその他の目的、特徴、及び利点は、添付の図面に描かれているような本発明の実施形態の以下のより具体的な記述から明らかになるであろう。
図面の要素は、必ずしも互いに一定の縮尺ではない。
本開示の一実施形態による、一連の反射率画像から3Dビューを取得するための表面輪郭撮像装置を示す概略図である。 多色反射率画像データキャプチャ用のビデオカメラとして、また関連する投影及び撮像機能を実行するためのスキャナとして動作し得る撮像装置を示す概略図である。 一連の構造化された光画像から生成された点群画像を示す。 一連の構造化された光画像から生成された点群画像を示す。 本開示の一実施形態による、全体的なワークフローシーケンスの概要を与える論理フロー図である。 図5からの位置合わせプロセスのシーケンスを拡張し、補足する論理フロー図である。 下顎の第1のモデルからの歯のセグメンテーションの例を示す。 図7と同じ歯列の、引き続き得られた第2のモデルの歯のセグメンテーションを示す。 第1のモデルを第2のモデルに位置合わせするための特徴マッチングの結果を示す。 本開示の一実施形態による歯の例を使用する処理ステップを示す。
以下は、好ましい実施形態の詳細な説明であり、図面が参照され、図面において同じ参照番号はいくつかの図面のそれぞれにおいて構造の同じ要素を識別する。
本開示の文脈で使用される場合、「第1」「第2」などの用語は、必ずしも何らかの順序、連続性、又は優先的な関係を示すものではなく、そうではないと明示されない限り、単純に1つのステップ、要素、又は要素のセットを他のものからより明確に区別するために使用される。
本開示の文脈において、「観察者」、「オペレータ」、及び「ユーザ」という用語は同等であると見なされ、観察医、技術者、又は歯科画像などの画像をディスプレイモニタ上で観察し操作する別の人物を指す。「オペレータ命令」又は「観察者命令」は、観察者によって、例えば、スキャナのボタンをクリックするか、コンピュータマウスを使用するか、タッチスクリーン又はキーボード入力などによって入力された明示的なコマンドから取得される。
本開示の文脈において、用語「対象(subject)」は、一般に、光学システムの「物体(object)」として撮像される患者を示すために使用される。したがって、用語「対象」及び「物体」は、撮像された患者を指すときに交換可能に使用され得る。対象又は物体は、代替的に、歯科印象又は歯科印象から得られたキャスト又は別のモデルであり得る。
本開示の文脈において、「信号通信状態」という句は、2つ以上のデバイス及び/又は構成要素が、あるタイプの信号経路上を移動する信号を介して互いに通信することができることを示す。信号通信は有線又は無線であり得る。信号は、通信、パワー、データ、又はエネルギー信号であり得る。信号経路は、第1のデバイス及び/又は構成要素と第2のデバイス及び/又は構成要素との間の物理的、電気的、磁気的、電磁的、光学的、有線、及び/又は無線接続を含んでもよい。信号経路はまた、第1のデバイス及び/又は構成要素と第2のデバイス及び/又は構成要素との間に追加のデバイス及び/又は構成要素を含んでもよい。
メッシュ表現は、CBCT又は構造化された光などの3Dボリューム放射線撮影法、及び口腔内スキャナを使用した別の反射率撮像を使用し、又は放射線撮影と反射撮像の組み合わせを使用して供給され得る。
「3Dモデル」、「モデル」、「モデル画像」、「3Dモデル画像」、「点群」、「3Dメッシュ」、及び「メッシュ」という用語は、撮像された歯の3D表面輪郭を視覚的に表す画像構造について、本開示の文脈において同義語として使用されてもよい。密な点群は、表面輪郭表現のためのボリューム撮像技術分野の当業者に既知の手法を使用して形成され、一般に、表面特徴に対応する空間内の点を識別する方法に関連する。密な点群は、例えば、1つ以上の反射率画像から再構成された輪郭データを使用して生成され得る。メッシュは取得した同じ表面輪郭を使用して生成され、歯と歯茎の表面のポリゴンモデルの基礎として機能する頂点を特定できる。3D表面のメッシュと点群の表現は、倍率に応じて同じ視覚的外観を有し得て、しかしながら、メッシュの頂点と点群内の特定の点の計算された座標は、同一である必要はない。
CBCT装置を使用して、患者の歯列の3Dモデル画像を生成するために使用可能な3Dボリュームコンテンツを取得し得る。撮像技術分野の当業者によく知られているように、CBCT装置は、X線源及び検出器を対象の周りで回転させ、一連の放射線2D投影画像を有するセットを対象の周りの異なる角度で取得する。次に、再構成プロセスを使用して、対象又は物体の再構成された3Dボリューム画像を2D投影画像のセットを用いて形成する。
本発明の譲受人に譲渡された、Bothorelらによる「Method for Generating an Intraoral Volume Image」と題する米国特許第8670521号を、CBCT装置の動作の詳細情報に関して参照する。本開示の一実施形態によるモデルを形成するために、CBCT装置は、典型的には、患者の歯列の歯型又はインプリントをスキャンするために用いられる。
CBCT撮像装置及びそのようなシステムを使用して3Dボリューム画像を取得するために用いられる撮像アルゴリズムは、診断撮像技術分野で周知であり、したがって、本出願では詳細に説明されていない。CBCT撮像装置の動作で得られる2D投影画像から3Dボリューム画像を形成するためのいくつかの例示的なアルゴリズム及びアプローチは、例えば、Ningらの「Method of and System for Cone-Beam Tomography Reconstruction」と題された米国特許第5,999,587号の開示において、かつTamの「Method and Apparatus for Reconstructing a Three-Dimensional Computerized Tomography(CT)Image of an Object from Incomplete Cone Beam Data」と題された米国特許第5,270,926号の開示において判明され得る。
典型的な用途では、コンピュータ又は別のタイプの専用論理プロセッサは、画像結果を観察するための1つ以上のディスプレイとともに、CBCTシステムの一部として、画像データを取得し、処理し、かつ記憶するための制御論理プロセッサとして機能し得る。前述のように、CBCTシステムから取得された3Dボリュームは、患者の歯列のモデルを生成するために使用することができ、これは、後でより詳細に説明するように、メッシュ又は点群の形であり得る。
図1の概略図は、本開示の一実施形態による、一連の反射率画像からモデル生成用の3Dコンテンツを取得するために使用され得る表面輪郭撮像装置90を示す。撮像装置16、典型的には手持ちデジタルカメラ、色深度カメラ、手持ち3Dスキャナ、又は口腔内3Dスキャナは、患者12の口を通してスキャンされ、複数の反射率画像及び関連する深度情報を有するセットを取得する。制御論理プロセッサ80は、プログラムされた命令を実行するように構成可能で、撮像装置16及びディスプレイ84と信号通信状態にある。プロセッサ80は、撮像装置16から画像データを取得し、この画像データを深度情報とともに処理して、個々の3Dビュー92を生成する。次に、制御論理プロセッサ80は、スキャンされた3Dビューを組み合わせて、ディスプレイ84上に、複合3Dモデル表面94を生成し、記憶し、必要に応じてレンダリングする。
図2は、撮像装置70を示す概略図であり、多色反射率画像データキャプチャ用のビデオカメラ24、ならびに構造化された光パターン46を用いて表面輪郭を特徴付けるために使用される関連する投影及び撮像機能を実行するスキャナ28として動作し得る。手持ち撮像装置70は、本開示の一実施形態による、輪郭スキャン及び画像キャプチャ機能の両方のための画像取得用のビデオカメラ24を使用する。制御論理プロセッサ80、又はカメラ24の一部であり得る別のタイプのコンピュータは、構造化された光を生成する照明アレイ10の動作を制御し、光を表面位置に向け、撮像センサアレイ30の動作を制御する。表面20から、例えば歯22からの画像データは、撮像センサアレイ30から取得され、ビデオ画像データとしてメモリ72に記憶される。撮像センサアレイ30は、対物レンズ34を含む感知装置40の一部であり、ビデオ画像コンテンツを取得するための要素と関連付けられる。制御論理プロセッサ80は、画像を取得するカメラ24構成要素との信号通信状態において、受信された画像データを処理し、マッピングをメモリ72に記憶する。次に、メモリ72から得られた画像は、必要に応じてレンダリングされ、ディスプレイ74に表示され、ディスプレイ74は、本明細書に記載の処理の一部分に使用される別のコンピュータ75の一部であってもよい。メモリ72はまた、表示バッファを含み得る。運動センサなどの1つ以上のセンサ42もまた、スキャナ28回路の一部として設けられ得る。
構造化された光撮像では、線又は別の形状のパターンが、照明アレイ10から物体の表面に向かって、所定の角度から投影される。次に、照らされた表面位置から投影されたパターンは、別の角度から、三角測量を利用して、輪郭画像として観察され、輪郭線の外観に基づき表面情報を分析する。位相シフトは、そこでは投影されたパターンが新しい場所で追加の測定値を取得するために空間的に段階的シフトされ、通常、構造化された光撮像の一部として適用され、表面の輪郭マッピングを完了し、輪郭画像の全体的な解像度を向上させるために使用される。限定ではなく例として、表面輪郭の特徴付けのための構造化された光パターンの使用は、本発明の譲受人に譲渡された、米国特許出願公開第2013/0120532号及び米国特許出願公開第2013/0120533号に記載され、両方とも「3D INTRAORAL MEASUREMENTS USING OPTICAL MULTILINE METHOD」と題されて、その全体は本明細書に組み込まれる。
メッシュ/点群としての3D表面画像の生成
物体相対座標系内のカメラの瞬間位置と光線の瞬間位置を画像が取得されたときに知ることにより、コンピュータ及びソフトウェアは三角測量法を使用して、平面に対する多数の照らされた表面点の座標を計算し得る。平面が移動して最終的に物体の表面の一部又はすべてと交差すると、増加する複数の点の座標が累積される。この画像取得の結果として、頂上点又は頂点の点群が識別され、ボリューム内の3D表面の範囲を表すために使用され得る。次に点群内の点は、物体の3次元表面上の実際の測定点を表す。メッシュは、例えば、点群上の点を、表面形状を特徴付ける個々の合同なポリゴン面(通常は三角形の面)を定義する頂点として連結することによって代わりに構築され得る。次に、完全な3D表面画像モデルは、メッシュによって供給される表面輪郭情報をカメラ、例えば図2のカメラ24から得られる単色又は多色画像コンテンツと組み合わせることによって形成され得る。
多色画像コンテンツは、多くの方法で供給され得て、例えば、異なる原色の照明を一度に1色ずつ使用して得られた一連の画像を備えた単一のモノクロ撮像センサの使用を含む。代替的に、カラー撮像センサが使用され得る。
制御論理プロセッサ80での画像処理は、構造化された光撮像からの線スキャンデータを使用して、あるいは点群又はメッシュデータ又はCBCTボリューム画像データを使用して、3D輪郭表面モデルを生成し得る。例として、図3と図4は、一連の構造化された光画像から生成された点群又はメッシュ150を示す。点群コンテンツの更なる処理を使用して、代替の輪郭表面モデルとしてメッシュを生成し得る。
別のタイプの反射率撮像を用いて、3D表面モデルを生成するのに使用される口腔内表面輪郭データを取得し得ることに留意する必要がある。表面輪郭情報は、飛行時間型撮像又は範囲撮像方法、例えば、多視点画像からの3次元形状復元(structure-from-motion)処理を用いて取得され得る。
セグメンテーション方法
メッシュ画像又は別のタイプの3D表面画像のセグメンテーション問題に対処するための様々なアプローチが、例えば、以下のように提案される。
(i)Thomas Kronfeldらによる記事「Snake-Based Segmentation of Teeth from Virtual Dental Casts」(Computer-Aided Design&applications、7(a)、2010年)に記載された方法は、1回の処理反復ですべての歯と歯茎の表面を分離しようとする動的輪郭セグメンテーション方法を採用する。しかしながら、説明されるアプローチは、トポロジ非依存性方法ではなく、特に顎のメッシュに欠けている歯がある場合には失敗する場合がある。
(ii)Page,D.L.らによる「Perception-based 3D Triangle Mesh Segmentation Using Fast Marching Watershed」(Proc.CVPI volII 2003年)と題した記事は、メッシュセグメンテーションに高速マーチングウォータシェッド(Fast Marching Watershed)法を使用することを記載している。記載された高速マーチングウォータシェッド法は、ユーザに手動でシード点を入力することを要求する。シード点は、セグメンテーション下の領域の輪郭の両側に配置されなければならない。その後、この方法は、シード情報を用いて、1つのステップですべての領域をセグメント化することを試みる。顎メッシュセグメンテーションについて、このタイプの方法では、各歯と同様に歯茎も同時にセグメント化する。これにより、この方法はあまり望ましくないとされるが、それは、歯を歯茎領域からセグメント化することが、通常、歯同士を互いからセグメント化するタスクに必要となるものとは異なるパラメータ及び処理を必要とするためである。別のセグメンテーション要件を備える異なるタイプの歯列構成要素について異なるセグメンテーション戦略を用いることで、パフォーマンスがより良くなり得る。
(iii)M.J.Moonは、自身の論文「Evaluation of software developed for automated segmentation of digital dental models」を裏付けるために、セグメンテーションプロセスを2つのステップ、すなわち、歯茎構造から歯を分離することと、アーチ構造全体を個々の歯物体へセグメンテーションすることとに分解するソフトウェアツールを使用した。Moonの論文で使用されたソフトウェアツールは、メッシュの最大曲率を見つけ出し、歯をセグメント化するために使用するマージン頂点を得るために、ユーザに曲率閾値を手動で選択することを要求する。ソフトウェアはまた、誤ったセグメンテーション結果を除去するために、ユーザに手動でマージンを編集するよう要求する。このソフトウェアは、形状および位置特徴付けの分析を目的とし、歯茎領域からの歯領域の分離にカラー情報を採用することは検討していない。
(iv)Jones,T.N.らによる「Manipulation a digital dentition model to form models of individual dentition components」と題した、米国特許出願第20030039389A1号は、隣接する歯を表す歯列モデルの一部分を分離する方法を開示する。
セグメンテーションワークフロー
本開示の一実施形態は、歯のセグメンテーションのための改善されたワークフローを提供し、それは以前の歯のセグメンテーションデータを利用して、セグメンテーションプロセスを前進及び効率化する。
図5の簡略化されたワークフロー論理図は、歯の位置合わせを使用して3D表面モデルのセグメンテーションを取得するための全体的なワークフローシーケンスの概要を示す。最初の取得ステップS810において、患者の歯列の第1の3D表面モデル画像が取得される。例えば、第1のモデルは、患者の治療を開始する前に最初に形成された3Dメッシュ仮想モデルであり得る。取得される表面輪郭の特徴付けは、口腔内スキャナからのものであり得るか、又は患者の歯列のインプリント又は歯型のCBCTスキャンから計算され得る。代替的に、口腔内スキャナとCBCT情報を組み合わせて、3Dモデル画像の表面輪郭を取得し得る。
最初のセグメンテーションステップS820は、第1の3Dモデル画像に対して実行され、結果として生じるセグメンテーションデータは、その後の使用のために記憶される。最初のセグメンテーションステップS820は、第1の3Dモデル画像からの個々の歯のセグメンテーションを、歯冠から決定された歯のラベル付け及び軸情報とともに提供する。3Dメッシュ又は別の表面輪郭モデルを使用して、かなりの数の特徴がセグメンテーションの一部として、各歯について識別され得て、例えば、軸(近遠心、前庭舌側、主軸)、咬頭、窩、最大輪郭、歯頚部限界などが挙げられる。
歯のセグメンテーションに関する別の参照は、これによって以下でなされる。
Akhoondaliらの「Rapid Automatic Segmentation and Visualization of Teeth in CT-Scan Data」、Journal of Applied Sciences、pp2031-2044、(2009)、及び、
Gaoらの「Tooth Region Separation for Dental CT Images」、2008年第3回Convergence and Hybrid Information Technologyの国際会議の議事録、pp897-901、(2008)
後続の取得ステップS830が実行され、第2の3Dモデル画像、患者の更新された表面輪郭特徴付けを備えたメッシュ又は点群として表面を示す3D仮想モデルを取得する。次に、位置合わせプロセスS840は、効率化されたセグメンテーション処理のために、ステップS820の最初の歯のセグメンテーション及びステップS830からの第2の3Dモデルデータを入力として受け取る。モデル内位置合わせステップS850が実行され、第1の3Dモデル画像の主要な特徴が第2の3Dモデル画像に粗く位置合わせされ、次に第1の3Dモデル画像の各歯が第2の3Dモデル画像の表面に位置合わせされる。次に、レバレッジセグメンテーションステップS860は、ステップS850から位置合わせ情報を取得し、セグメンテーションを実行して、第1の3Dモデル画像の各セグメント化された歯に対応する第2のモデル3D画像の各歯に関するラベル付け及び軸情報を提供する。必要に応じて、次に表示ステップS870は、セグメント化されたコンテンツを表示する。セグメント化されたコンテンツは、更に、又は代替的に送信され得る。
図6の論理フロー図は、図5からの位置合わせプロセスS840のシーケンスを拡張し、補足する。最初のセグメンテーションステップS820の結果と取得ステップS830からの第2の3Dモデル画像を取得して、最初の特徴位置合わせステップS842は、第2のモデルの特定の特徴を最初のセグメンテーション結果に位置合わせする。例えば、第1の3Dモデル画像からのセグメント化された臼歯は、第2のモデルからの臼歯と位置合わせされ得る。第1のセグメント化されたモデルから第2のスキャンで取得されたボリュームへの臼歯の位置合わせは、一般的に簡単であり、それは臼歯の位置が、通常、歯科矯正治療では変わらないためである。位置合わせは、ICP(反復最接近点)手法など、様々な画像マッチング方法のいずれかを使用できる。
図6の最初の特徴位置合わせステップS842に続いて、歯の位置ステップS844は、追加の歯の配置を実行して、第2の3Dモデル画像上に歯の最良の位置を見つける。
特徴マッチングアルゴリズムは、この機能に使用され得る。本開示の一実施形態によると、特徴マッチングは臼歯から始まり、歯ごとに進み、個々の特徴を、撮像技術分野の当業者によく知られている適切な特徴マッチングアルゴリズムを使用してマッチングする。
特徴マッチングアルゴリズム
表面輪郭の各点の法線情報は、コンピュータグラフィックスのよく知られた手法を使用して推定され得て、例えばpointclouds.orgのWebサイトのdocumentation/tutorials/normal_estimation.phpで説明される。探索点では、点の局所近傍が定義される。共分散行列は、点の局所近傍を使用して計算される。共分散行列Cは次の形式で行う。
Figure 2022516488000002
ここで、kは局所近傍内の点の数であり、p値は点座標であり、バーpは局所近傍内の点からの平均点位置である。上付き文字「T」は、行列の転置を示す。
この正方、対称3×3共分散行列は、特徴マッチング計算のための固有ベクトルと関連する固有値を提供し得る。点の局所近傍の最小二乗当てはめを、楕円を使用して実行する場合、楕円軸は固有ベクトルであり、軸の長さは対応する固有値に関連する。共分散行列の最小の固有値は最短の楕円軸を表し、関連する固有ベクトルは局所法線の方向を示す。次に局所法線の向きは、必要に応じてフリップされ、スキャナからの観察方向に一致され得る。次に、この局所法線は探索点に割り当てられ得て、これにより、法線とカラーを使用した表面輪郭の計算が可能になる。
画像データから成長表面輪郭への法線とカラーを使用した表面輪郭のステッチ手順は、次の一般的なステップを有する。
(i)1セットの特徴記述子を、画像データからの法線とカラーを使用して、表面輪郭ごとに、及び成長表面輪郭について推定する。表面輪郭の特徴記述子は、剛体変換(回転/並行移動)に対して不変である局所表面記述を表す。例えば、高速点特徴ヒストグラム(Fast Point Feature Histogram)(FPFH)は、表面輪郭の探索点ごとに法線を使用して計算され得る。これは、例えば、Rusu,R.B.による、「Semantic 3D Object Maps for Everyday Manipulation in Human Living Environments」(2009年8月17日)によって記述される。点群からのカラー情報を含む別の記述子もまた使用され得る。
(ii)特徴記述子の両方のセットを使用して、特徴マッチングを実行し、相対配置とスコアを生成する。法線を有する移動表面輪郭からの特徴記述子のセットと、法線を有するターゲット表面輪郭からの特徴記述子のセットとの間の特徴マッチングは、特徴記述子間の対応の生成を伴う。FPFH特徴記述子はヒストグラムであり、距離は2つの特徴記述子間のヒストグラム差のノルムとして定義され得る。対応は、1つの特徴記述子から別の特徴記述子のセットまでの最小距離として定義される。次に、特徴マッチングは、対応のグループの選択を含み、相対配置を生成する。このステップは通常、ランダムサンプルコンセンサス(RANSAC)アルゴリズムを使用して実行され、このアルゴリズムは、3つの対応をランダムに選択して候補相対変換を計算し、この候補相対変換と一致する対応の数を計数することからなる。対応は、2つの特徴記述子で形成され、1つは移動体からのもので、もう1つは法線を有するターゲット点群からのものである。各特徴記述子は探索点に対応する。対応は、候補相対変換を使用して移動された移動探索点が、ターゲット探索点から事前定義された距離内にある場合に候補相対変換に一致する。一致した対応の数が最も多い候補相対変換が、最終的な相対配置になる。スコアは、最終的な相対配置の品質を示し、対応する一致した対応の数になり得る。
(iii)スコアに基づき相対配置を受け入れ、又は拒否する。相対配置は、スコアが所定の閾値を下回っている場合に拒否される場合がある。この場合、スティッチング処理は不可能であり、画像データは破棄される。
(iv)反復最接近点アルゴリズムを使用して相対配置をリファインメント処理(refine)し、距離測定値を生成する。反復最接近点(ICP)アルゴリズムを使用した相対配置のリファインメントは、移動表面輪郭とターゲット表面輪郭の間の点対応を、相対配置が移動表面輪郭に適用されたときに最接近の一致を見つけることにより定義する。一致間の最小二乗距離の最小化により、相対配置が更新される。次に、点対応の選択と相対配置の更新は、コンバージェンスまで、又は事前定義された反復回数に達するまで反復される。距離の測定は、最終的に更新された相対配置に対応する、最小二乗距離の最小化に使用されるコスト関数の値にし得る。
(v)生成された距離測定に基づいて、相対配置を受け入れ、又は拒否する。更新された相対配置は、距離測定が所定の閾値を下回っている場合に拒否され得る。この場合、スティッチング処理は不可能であり、画像データは破棄される。それ以外の場合、スティッチング処理は成功する。
検証ステップS845は、位置合わせステップS842からの一致した構造との形状及び関係の測定値を使用して、位置の妥当性の可能性を検査する。必要な調整は、必要に応じて行うことができる。検証ステップS845が精度に対する所定の条件を満たさない場合、探索領域は、面積縮小ステップS846で縮小され、歯の位置ステップS844は繰り返し、縮小された領域上で再配置を試みる。例えば、探索領域は、ステップS844でのその後の再処理のために、顎構造の左又は右の部分に制限され得る。検証ステップS845が成功すると、位置合わせ保存ステップS848が実行され、歯の位置合わせ結果が保存される。位置合わせ結果は、位置合わせ行列を含むことができ、それは歯を第1の3Dモデル画像から第2の3Dモデル画像に変換する。処理のこの段階で、第2の3D取得からの各歯は、第1のモデルからの対応する歯に位置合わせされる。次に、その後の処理は、歯の位置と形状の情報をリファインメント処理し、第1のモデルに対して確立されたセグメンテーションを使用して第2のモデルのセグメンテーションを供給する。
位置合わせプロセスS840の段階が完了すると、セグメント化されていない第2の3Dモデル画像の構造は、第1のモデルの対応するセグメント化された構造に関連付けられ、又は相関される。次に、後続の処理での歯の形状と軸の向きの更なるリファインメントは、第2のモデルのセグメンテーションを完了するのに役立つ。
図6のプロセスに続き、配置定義ステップS852は、歯の配置結果を使用して、第2のモデルの歯の形状を更に定義する。頚部限界リファインメントステップS854は、第2の3Dモデル画像における各歯の歯の形状をより正確に定義する。第2のモデルの位置合わせされた歯ごとに、ステップS852及びS854の手順は、第1の3Dモデル画像の歯の頸部限界を第2の3Dモデル画像に投影し、必要に応じて、頚部限界の定義を、画像処理技術分野の当業者によく知られている多くの曲率検出手法のいずれかを使用してリファインする。次に、第2の3Dモデル画像の対応する歯の表面輪郭は、投影された頚部限界又はリファインされた頚部限界を使用して抽出され得る。
図6のセグメンテーション処理を完了するために、ラベル付け及び軸定義ステップS862は、第2のモデルからの歯に番号又は別のラベルを割り当て、第1のモデルの歯の軸及び別の特徴(咬頭など)に位置合わせ行列を適用して、第2のモデルの歯の軸及び別の特徴を識別する。このステップは、第2のモデルの各歯のセグメンテーションに使用される、位置、軸、及び頚部限界を含むデータを取得して保存する。完全なセグメンテーションステップS866は、第2のモデルの最終的なセグメンテーション処理を実行し、セグメント化されたモデルを生成する。次に、表示ステップS870は、第2のモデルセグメンテーションの表示レンダリング、記憶、又は送信を提供する。
図7は、下顎の第1の3Dモデル画像からの歯のセグメンテーションの一例を示す。図8は、その後に得られた、同じ歯列の第2の3Dモデル画像の歯のセグメンテーションを示す。特徴マッチングアルゴリズムの結果として、第1のモデルの各歯は第2のモデルに位置合わせされ得る。
図9は、第1のモデルを第2のモデルに位置合わせするための特徴マッチングの結果を示す。
図10は、処理ステップを単一の歯(歯47)の一例を使用して示す。図1101は、第1の3Dモデル画像でセグメント化された歯47を示す。図1102は、第2のモデルに位置合わせされた第1のモデルの歯47を示す。図1103は、歯47(ISO番号付け)の第1と第2の3Dモデル画像でそれぞれ検出された頚部限界C1とC2を示す。頚部限界C2曲率は、第2の3Dモデル画像に対して計算される。図1104は、第2のモデルのリファインされた頚部限界C2’を示し、歯47をセグメント化可能にする。
本発明は、現在好ましい実施形態を特に参照して詳細に記載されているが、様々な変更及び修正は、本発明の趣旨及び範囲内で実施され得ることが理解されるであろう。
したがって、現在開示されている実施形態は、すべてにおいて例示的であり、限定的ではないと見なされる。本発明の範囲は、添付の特許請求によって示され、その等価の意味及び範囲内にあるすべての変更は、そこに含有されることが意図されている。
本発明は、1つ以上の実装に関して説明されているが、変更及び/又は修正は、添付の特許請求の範囲の趣旨及び範囲から逸脱することなく、説明された実施例に対して行うことができる。更に、本発明の特定の特徴は、いくつかの実装のうちの1つに関して開示されているが、そのような特徴は、任意の所与の又は特定の機能にとって望ましく、有利であり得るように、別の実装の1つ以上の別の特徴と組み合わされ得る。用語「少なくとも1つ」を使用して、列挙された項目の1つ以上を選択し得ることを意味する。用語「約」は、列挙されている値が、その変更により、説明された実施形態に対してプロセス又は構造の不一致をもたらさない限り、少し変更され得ることを示す。最後に、「例示的な」は、それが理想であることを暗示するというよりも、その記述が一つの例として使われていることを示す。本発明の別の実施形態は、本明細書に開示された本発明の仕様及び実行の考慮から、当業者には明かであろう。仕様及び例が例示的なものとしてのみ解釈され、本発明の真の範囲及び趣旨は以下の請求項によって示されており、その等価物の意味及び範囲内に入るすべての変化がそこに包含されることが意図されている。

Claims (15)

  1. 患者の歯列の3Dモデル画像をセグメント化する方法であって、
    a)前記患者の歯列の第1の3Dモデル画像を取得し、前記第1の3Dモデル画像のセグメンテーションである第1のセグメンテーションを取得することであって、ここで前記第1のセグメンテーションは、前記第1の3Dモデル画像の1つ以上の歯に少なくとも歯の表面輪郭及び歯のラベルを供給することと、
    b)前記患者の歯列の第2の3Dモデル画像を取得することであって、前記第2の3Dモデル画像は表面を有することと、
    c)前記第1の3Dモデル画像の少なくとも1つのセグメント化された歯の表面輪郭を前記第2の3Dモデル画像の前記表面に位置合わせすることと、
    d)前記第2の3Dモデル画像の第2のセグメンテーションを前記位置合わせされた歯の表面輪郭に従って取得することであって、ここで前記第2のセグメンテーションは、前記第2の3Dモデル画像の1つ以上の歯に少なくとも歯の表面輪郭及び歯のラベル付けを供給することと、
    e)前記セグメント化された第2の3Dモデル画像を記憶することと、を含む、
    方法。
  2. f)前記第1の3Dモデル画像の少なくとも1つの歯について歯の特徴を識別し、前記第2の3Dモデル画像の対応する歯の特徴を前記第1の3Dモデル画像の前記識別された少なくとも1つの歯の特徴に基づいて識別することを更に含む、
    請求項1に記載の方法。
  3. 前記第1の3Dモデル画像の少なくとも1つの歯について前記識別された歯の特徴は、軸、咬頭、又は窩のうちの少なくとも1つを含む、請求項2に記載の方法。
  4. 前記第1の3Dモデル画像を取得することは、口腔内スキャナ又はコーンビームコンピュータ断層撮影法のうちの少なくとも1つから複数の画像を取得することを含む、請求項1に記載の方法。
  5. 前記第2の3Dモデル画像を取得することは、口腔内スキャナ又はコーンビームコンピュータ断層撮影法のうちの少なくとも1つから複数の画像を取得することを含む、請求項1に記載の方法。
  6. 前記第1のセグメンテーションを取得することは、前記少なくとも1つの歯の頚部限界を識別することを含む、請求項1に記載の方法。
  7. 前記第2のセグメンテーションを取得することは、
    (i)前記第1の3Dモデル画像の少なくとも1つの歯の頚部限界を前記第2の3Dモデル画像に投影すること、及び、
    (ii)前記第2の3Dモデル画像の前記対応する歯の表面輪郭を、前記投影された頚部限界を使用して抽出すること、を更に含む、
    請求項6に記載の方法。
  8. 前記投影された頚部限界を曲率検出を使用してリファインメント処理した後に、前記抽出ステップを行うことを更に含む、請求項7に記載の方法。
  9. 前記第1の3Dモデル画像の各セグメント化された歯の輪郭を前記第2の3Dモデル画像の対応する輪郭に位置合わせすることは、特徴マッチングアルゴリズムを使用することを含む、請求項1に記載の方法。
  10. 前記第1の3Dモデル画像のセグメント化された歯を前記第2の3Dモデル画像の対応する輪郭に位置合わせすることは、前記特徴マッチングアルゴリズムが適用される前記第2の3Dモデル画像の領域を定義することを含む、請求項9に記載の方法。
  11. 前記第1の3Dモデル画像の各セグメント化された歯の輪郭を前記第2の3Dモデル画像の対応する輪郭に位置合わせすることは、前記第1の3Dモデル画像の少なくとも1つの臼歯を前記第2の3Dモデル画像の対応する特徴に位置合わせすることを更に含む、請求項9に記載の方法。
  12. 歯の位置合わせを、反復最接近点アルゴリズムを使用してリファインメント処理することを更に含む、請求項11に記載の方法。
  13. 患者の歯列の3Dモデル画像をセグメント化する方法であって、
    a)前記患者の歯列の第1の3Dモデル画像を、口腔内スキャナを使用して取得し、前記第1の3Dモデル画像のセグメンテーションを生成することであって、ここで前記セグメンテーションは、前記第1の3Dモデルの複数の歯に少なくとも歯の表面輪郭及び歯のラベルを供給することと、
    b)前記患者の歯列の第2の3Dモデル画像を取得することであって、前記第2の3Dモデル画像は表面を有することと、
    c)前記第1の3Dモデル画像の各セグメント化された歯の表面輪郭を前記第2の3Dモデル画像の前記表面に位置合わせすることと、
    d)前記第2の3Dモデル画像の第2のセグメンテーションを前記位置合わせされた歯の表面輪郭に従って取得することであって、ここで前記第2のセグメンテーションは同様に、前記第2の3Dモデル画像の複数の歯に少なくとも歯の表面輪郭及び歯のラベル付けを供給することと、
    e)前記第1の3Dモデル画像の少なくとも1つの歯について歯の特徴を識別し、前記第2の3Dモデル画像の対応する歯の特徴を前記第1の3Dモデル画像の前記識別された少なくとも1つの歯の特徴に基づいて識別することと、
    f)前記セグメント化された第2の3Dモデル画像を記憶することと、を含む、
    方法。
  14. 前記第2のセグメンテーションを取得することは、前記第2の3Dモデル画像の1つ以上の歯の軸の向きを取得することを更に含む、請求項13に記載の方法。
  15. 患者の歯列の3Dモデル画像を生成するための装置であって、
    a)患者の歯列の複数の画像を取得するように構成された口腔内スキャナと、
    b)前記口腔内スキャナと信号通信状態にあり、プログラムされた命令を実行して、
    (i)前記患者の歯列の第1の3Dモデル画像を取得し、前記第1の3Dモデル画像のセグメンテーションを取得し、ここで前記セグメンテーションは、前記第1の3Dモデル画像の少なくとも1つの歯に少なくとも歯の表面輪郭及び歯のラベルを供給し、
    (ii)前記患者の歯列の第2の3Dモデル画像を取得し、前記第2の3Dモデル画像は表面を有し、
    (iii)前記第1の3Dモデル画像の各セグメント化された歯の表面輪郭を前記第2の3Dモデル画像の前記表面に位置合わせし、
    (iv)前記第2の3Dモデル画像の第2のセグメンテーションを前記位置合わせされた歯の表面輪郭に従って取得し、ここで前記第2のセグメンテーションは同様に、前記第2の3Dモデル画像の少なくとも1つの歯に少なくとも歯の表面輪郭及び歯のラベル付けを供給する、ように構成可能なプロセッサと、
    c)前記セグメント化された第2の3Dモデル画像を表示するために前記プロセッサと信号通信にあるディスプレイと、を含む、
    装置。

JP2021537957A 2018-12-28 2019-12-27 歯の位置合わせを用いた歯のセグメンテーション Pending JP2022516488A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18306870.9 2018-12-28
EP18306870.9A EP3673864A1 (en) 2018-12-28 2018-12-28 Tooth segmentation using tooth registration
PCT/EP2019/087083 WO2020136243A1 (en) 2018-12-28 2019-12-27 Tooth segmentation using tooth registration

Publications (2)

Publication Number Publication Date
JP2022516488A true JP2022516488A (ja) 2022-02-28
JPWO2020136243A5 JPWO2020136243A5 (ja) 2023-01-10

Family

ID=65200553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021537957A Pending JP2022516488A (ja) 2018-12-28 2019-12-27 歯の位置合わせを用いた歯のセグメンテーション

Country Status (4)

Country Link
US (1) US11961238B2 (ja)
EP (1) EP3673864A1 (ja)
JP (1) JP2022516488A (ja)
WO (1) WO2020136243A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023204509A1 (ko) * 2022-04-20 2023-10-26 주식회사 메디트 3차원 스캐너의 3차원 이미지 모델의 생성과 정렬을 위한 전자 장치, 방법 및 기록 매체
JP7508152B2 (ja) 2020-08-20 2024-07-01 イマゴワークス インコーポレイテッド 歯科用3次元データ位置合わせ自動化方法、及びこれをコンピュータで実行させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3958213A1 (en) * 2020-08-20 2022-02-23 Imagoworks Inc. Automated method for aligning 3d dental data and computer readable medium having program for performing the method
US20220079714A1 (en) * 2020-09-11 2022-03-17 Align Technology, Inc. Automatic segmentation quality assessment for secondary treatment plans
CN114972360A (zh) * 2021-02-18 2022-08-30 无锡时代天使医疗器械科技有限公司 牙齿的计算机断层扫描图像的分割方法
US11278377B1 (en) 2021-06-02 2022-03-22 Oxilio Ltd System and method for performing digital separation of teeth
EP4280155A1 (en) * 2022-05-16 2023-11-22 Institut Straumann AG Improved manufacturing of dental implants based on digital scan data alignment
CN115457093B (zh) * 2022-08-24 2024-03-22 北京百度网讯科技有限公司 一种牙齿图像的处理方法、装置、电子设备及存储介质
CN116934821B (zh) * 2023-09-15 2023-12-22 深圳市家鸿口腔医疗股份有限公司 一种个性化假牙三维图像模型配准方法及系统
CN117830317B (zh) * 2024-03-05 2024-06-18 天津医科大学口腔医院 基于图像处理的正畸自动检测方法及系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5270926A (en) 1990-12-21 1993-12-14 General Electric Company Method and apparatus for reconstructing a three-dimensional computerized tomography (CT) image of an object from incomplete cone beam projection data
US6409504B1 (en) 1997-06-20 2002-06-25 Align Technology, Inc. Manipulating a digital dentition model to form models of individual dentition components
US5999587A (en) 1997-07-03 1999-12-07 University Of Rochester Method of and system for cone-beam tomography reconstruction
US20150305830A1 (en) * 2001-04-13 2015-10-29 Orametrix, Inc. Tooth positioning appliance and uses thereof
US8416984B2 (en) * 2011-01-20 2013-04-09 Carestream Health, Inc. Automatic tooth charting using digital images
US8670521B2 (en) 2011-06-02 2014-03-11 Carestream Health, Inc. Method for generating an intraoral volume image
US9295532B2 (en) 2011-11-10 2016-03-29 Carestream Health, Inc. 3D intraoral measurements using optical multiline method
US9349182B2 (en) 2011-11-10 2016-05-24 Carestream Health, Inc. 3D intraoral measurements using optical multiline method
US9135498B2 (en) * 2012-12-14 2015-09-15 Ormco Corporation Integration of intra-oral imagery and volumetric imagery
US20140227655A1 (en) * 2013-02-12 2014-08-14 Ormco Corporation Integration of model data, surface data, and volumetric data
US9626462B2 (en) * 2014-07-01 2017-04-18 3M Innovative Properties Company Detecting tooth wear using intra-oral 3D scans
US10136972B2 (en) * 2016-06-30 2018-11-27 Align Technology, Inc. Historical scan reference for intraoral scans
CN108665533A (zh) * 2018-05-09 2018-10-16 西安增材制造国家研究院有限公司 一种通过牙齿ct图像和三维扫描数据重建牙列的方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7508152B2 (ja) 2020-08-20 2024-07-01 イマゴワークス インコーポレイテッド 歯科用3次元データ位置合わせ自動化方法、及びこれをコンピュータで実行させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体
WO2023204509A1 (ko) * 2022-04-20 2023-10-26 주식회사 메디트 3차원 스캐너의 3차원 이미지 모델의 생성과 정렬을 위한 전자 장치, 방법 및 기록 매체

Also Published As

Publication number Publication date
US20220122264A1 (en) 2022-04-21
WO2020136243A1 (en) 2020-07-02
EP3673864A1 (en) 2020-07-01
US11961238B2 (en) 2024-04-16

Similar Documents

Publication Publication Date Title
JP2022516488A (ja) 歯の位置合わせを用いた歯のセグメンテーション
US11903788B2 (en) Multifaceted registration of intraoral scans
KR102224657B1 (ko) 구강내 스캔 중 관심 구역의 식별
US7912257B2 (en) Real time display of acquired 3D dental data
JP2022000211A (ja) 歯列メッシュ矯正具除去のための方法および装置
JP2019524367A (ja) ハイブリッドメッシュセグメンテーションのための方法及びシステム
WO2008128700A1 (en) Computer-assisted creation of a custom tooth set-up using facial analysis
US10810738B1 (en) Marker-less alignment of digital 3D face and jaw models
CN112106109A (zh) 具有表面区分的口腔内扫描
JP2022516487A (ja) 下顎と上顎の3dセグメンテーション
WO2020037582A1 (en) Graph-based key frame selection for 3-d scanning
JP7245335B2 (ja) 口腔内スキャナを使用して3dデータを取得する混合方法
US20220101618A1 (en) Dental model superimposition using clinical indications
WO2020136245A1 (en) 3d printing optimization using clinical indications
WO2024121067A1 (en) Method and system for aligning 3d representations
Matsopoulos et al. Image registration based on lifting process: an application to digital subtraction radiography
KR20220061001A (ko) 데이터 처리 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230911

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231027

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240419