JP2023512083A - ニューラルネットワークを用いた歯群のセグメンテーション - Google Patents

ニューラルネットワークを用いた歯群のセグメンテーション Download PDF

Info

Publication number
JP2023512083A
JP2023512083A JP2022546425A JP2022546425A JP2023512083A JP 2023512083 A JP2023512083 A JP 2023512083A JP 2022546425 A JP2022546425 A JP 2022546425A JP 2022546425 A JP2022546425 A JP 2022546425A JP 2023512083 A JP2023512083 A JP 2023512083A
Authority
JP
Japan
Prior art keywords
digital
computer
implemented method
labeled
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022546425A
Other languages
English (en)
Inventor
アザミコフ,セルゲイ
チェルノコフ,ヒョードル
トルストフ,アンドレイ
ニコルスキー,セルゲイ
Original Assignee
ジェームズ アール. グライドウェル デンタル セラミックス,インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/778,406 external-priority patent/US11931213B2/en
Priority claimed from US17/140,739 external-priority patent/US11842484B2/en
Application filed by ジェームズ アール. グライドウェル デンタル セラミックス,インコーポレーテッド filed Critical ジェームズ アール. グライドウェル デンタル セラミックス,インコーポレーテッド
Publication of JP2023512083A publication Critical patent/JP2023512083A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/34Making or working of models, e.g. preliminary castings, trial dentures; Dowel pins [4]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • A61C13/0004Computer-assisted sizing or machining of dental prostheses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2023512083000001
デジタルモデル内の歯群をデジタル的にセグメント化するコンピュータ実施方法およびシステムは、患者の歯列の3Dデジタルモデルからパノラマ画像を生成することと、第1の訓練済みニューラルネットワークを用いて、パノラマ画像をラベル付けし、ラベル付きパノラマ画像を提供することと、ラベル付きパノラマ画像を3Dデジタルモデル内の対応する粗いデジタル表面三角形ラベルにマッピングし、ラベル付き3Dデジタルモデルを提供することと、ラベル付き3Dデジタルモデルをセグメント化し、セグメント化3Dデジタルモデルを提供することと、を含む。パノラマ画像を生成するコンピュータ実施方法およびシステムは、訓練済みニューラルネットワークを用いて、患者の歯列の2D深度マップからデジタル歯群に対応するデジタル歯牙バウンディング領域を決定することと、スプラインによってデジタル歯牙バウンディング領域を接続することと、サンプリングされたスプライン点からサンプリングデジタル表面点を決定することと、各サンプリングデジタル表面点に対応する関連デジタル表面点を決定することと、を含む。
【選択図】図1

Description

本出願は、2020年1月31日に出願された、米国実用特許出願第16/778,406号明細書、および2021年1月4日に出願された、米国実用特許出願第17/140,739号明細書に対する優先権およびそれらの利益を主張する。それらの開示は全体が全ての目的のために本明細書において参照により組み込まれる。
専門歯科技工所は、通例、歯科医によって提供された患者別指示に基づいて歯科補綴物を設計するために、コンピュータ支援設計(CAD:computer-aided design)を用いる。
典型的な作業フローでは、歯科技工所は患者の口腔状況に関する情報を歯科医から受け取る。CAD/CAMシステムを用いるために、患者の歯列のデジタルモデルがプロセスへの入力として用いられる。デジタルモデル内の個別歯群および歯肉区域をセグメント化し、ラベル付けすることが望ましくなり得る。しかし、歯群をラベル付けし、精密な歯牙境界および歯肉境界を見出すことは困難になり得る。手動セグメンテーションの伝統的なアプローチは遅くて煩わしく、誤りを起こしやすくなり得る。最近のアプローチはさほど煩わしくはなくなり得るが、デジタルモデル内の、歯群、および関心のある他の領域の、不正確な、および/または欠落した境界を生み出し得る。
デジタルモデル内の歯群をデジタル的にセグメント化するコンピュータ実施方法(computer-implemented method)は、患者の歯列の少なくとも部分の患者走査データの3Dデジタルモデルを受け取ることと、3Dデジタルモデルからパノラマ画像を生成することと、第1の訓練済みニューラルネットワークを用いて、パノラマ画像の1つまたは複数の領域をラベル付けし、ラベル付きパノラマ画像を提供することと、ラベル付きパノラマ画像の1つまたは複数の領域を3Dデジタルモデル内の1つまたは複数の対応する粗いデジタル表面三角形ラベルにマッピングし、ラベル付き3Dデジタルモデルを提供することと、ラベル付き3Dデジタルモデルをセグメント化し、セグメント化3Dデジタルモデルを提供することと、を含む。
デジタルモデル内の歯群をデジタル的にセグメント化するためのシステムは、プロセッサと、ステップを遂行するためにプロセッサによって実行可能な命令を含むコンピュータ可読記憶媒体と、を備え、ステップは、患者の歯列の少なくとも部分の患者走査データの3Dデジタルモデルを受け取ることと、3Dデジタルモデルからパノラマ画像を生成することと、第1の訓練済みニューラルネットワークを用いて、パノラマ画像の1つまたは複数の領域をラベル付けし、ラベル付きパノラマ画像を提供することと、ラベル付きパノラマ画像の1つまたは複数の領域を3Dデジタルモデル内の1つまたは複数の対応する粗いデジタル表面三角形ラベルにマッピングし、ラベル付き3Dデジタルモデルを提供することと、ラベル付き3Dデジタルモデルをセグメント化し、セグメント化3Dデジタルモデルを提供することと、を含むことができる。
デジタルモデルをセグメント化するための実行可能コンピュータプログラム命令を記憶する非一時的コンピュータ可読媒体であって、コンピュータプログラム命令は、患者の歯列の少なくとも部分の患者走査データの3Dデジタルモデルを受け取ることと、3Dデジタルモデルからパノラマ画像を生成することと、第1の訓練済みニューラルネットワークを用いて、パノラマ画像の1つまたは複数の領域をラベル付けし、ラベル付きパノラマ画像を提供することと、ラベル付きパノラマ画像の1つまたは複数の領域を3Dデジタルモデル内の1つまたは複数の対応する粗いデジタル表面三角形ラベルにマッピングし、ラベル付き3Dデジタルモデルを提供することと、ラベル付き3Dデジタルモデルをセグメント化し、セグメント化3Dデジタルモデルを提供することと、を含むことができる。
パノラマ画像を生成するコンピュータ実施方法は、患者の歯列の少なくとも部分の患者走査データの2D深度マップを受け取ることと、訓練済みニューラルネットワークを用いて、1本または複数本のデジタル歯群に対応する1つまたは複数のデジタル歯牙バウンディング領域を決定することと、スプラインによって1つまたは複数のデジタル歯牙バウンディング領域を接続することと、スプライン上の1つまたは複数のスプライン点をサンプリングすることと、1つまたは複数のサンプリングされたスプライン点から1つまたは複数のサンプリングデジタル表面点を決定することと、各サンプリングデジタル表面点に対応する1つまたは複数の関連デジタル表面点を決定することと、を含むことができる。
歯群および歯肉のデジタルモデルの斜視図を示す。 いくつかの実施形態における畳み込みニューラルネットワークの一例の図を示す。 いくつかの実施形態におけるYOLOネットワークの少なくとも部分の一例の図を示す。 いくつかの実施形態におけるU-Netネットワークの少なくとも部分の例の図を示す。 いくつかの実施形態におけるU-Netネットワークの少なくとも部分の例の図を示す。 ピラミッドアテンションネットワークの一例の図である。 ピラミッドアテンション特徴の一例の図である。 グローバルアテンションアップサンプル特徴の一例の図である。 ResNetニューラルネットワークの一例の図である。 ResNetニューラルネットワークの部分の一例の図である。 いくつかの実施形態における列および行を示す重ね合わせられた図を伴うパノラマ画像の一例を示す図である。 2D深度マップの一例の画像を示す。 標識付き2D深度マップの一例の画像を示す。 例示されたバウンディング領域を伴う1本または複数本のデジタル歯群を有するデジタル歯列弓の画像を示す図である。 例示されたバウンディング領域およびデジタルバウンディングボックス中心を伴う1本または複数本のデジタル歯群を有するデジタル歯列弓の画像を示す図である。 デジタルバウンディングボックス中心を示す図である。 スプラインによって互いに接続された1つまたは複数のデジタル歯牙バウンディング領域中心を示す。 スプライン上のサンプリング点を有するデジタルモデルの一例を示す図である。 連続平滑スプライン上のサンプリング点に対応するサンプルデジタル表面点を有するデジタルモデルの一例を示す図である。 追加のサンプル点を有するデジタルモデルの一例を示す図である。 サンプル深度点から延びる複数本の光線を有するデジタルモデルの一例を示す図である。 例示された行および列を伴うパノラマ画像の一例を示す図である。 深度情報を有するパノラマ画像の一例を示す図である。 標識付きデジタル歯牙バウンディング領域を有するパノラマ画像の一例を示す図である。 1つまたは複数のデジタルバウンディング領域を含むことができるパノラマ画像の例を示す図である。 1つまたは複数のデジタルバウンディング領域を含むことができるパノラマ画像の例を示す図である。 3Dデジタルモデルへのマッピングのいくつかの実施形態における一例を示す図である。 不確実領域を識別する例を示す図である。 不確実領域を識別する例を示す図である。 2つの三角形を接続する辺における曲率を決定する一例を示す図である。 辺の曲率の平均を決定するいくつかの実施形態における一例を示す図である。 三角形を合併した後のセグメントのいくつかの実施形態における一例を示す図である。 セグメント化デジタル表面の一例を示す図である。 いくつかの実施形態における多数のセグメントを包含するデジタル表面メッシュのいくつかの実施形態における一例を示す。 いくつかの実施形態における2点セグメンテーションの例を示す図である。 いくつかの実施形態における2点セグメンテーションの例を示す図である。 いくつかの実施形態における2点セグメンテーションの例を示す図である。 いくつかの実施形態における2点セグメンテーションの例を示す図である。 いくつかの実施形態における2点セグメンテーションの例を示す図である。 いくつかの実施形態における2点セグメンテーションの例を示す図である。 いくつかの実施形態における2点セグメンテーションの例を示す図である。 いくつかの実施形態における境界ループの一部分の一例を示す図である。 双対グラフの頂点の図の一例を示す図である。 デジタル歯群および歯肉領域の完全にセグメント化され、ラベル付けされたセットの一例を示す図である。 いくつかの実施形態におけるデジタルモデル内の歯群をデジタル的にセグメント化するコンピュータ実施方法の一例のフローチャートを示す図である。 いくつかの実施形態におけるパノラマ画像を生成するコンピュータ実施方法の一例のフローチャートを示す図である。 いくつかの実施形態における例示的な処理システムの図を示す。
本説明の目的のために、本開示の実施形態の特定の態様、利点、および新規の特徴が本明細書において説明される。本開示の方法、装置、およびシステムはけっして限定であると解釈されてはならない。それよりむしろ、本開示は、様々な開示された実施形態の、全ての新規の、および自明でない特徴および態様を、単独で、ならびに相互の様々な組み合わせおよび部分的組み合わせで対象にする。方法、装置、およびシステムはいかなる特定の態様もしくは特徴またはそれらの組み合わせにも限定されず、また、本開示の実施形態は、いかなる1つまたは複数の特定の利点が存在することも、または問題が解決されることも必要としない。
本開示の実施形態のうちのいくつかの動作は、提示の便宜のために特定の連続した順序で説明されるが、以下において記載される特定の言語セットによって特定の順序付けが必要とされない限り、この説明の仕方は再配列を包含することを理解されたい。例えば、順次に説明される動作は、場合によっては、再配列されるか、または同時に遂行されてもよい。さらに、簡単にするために、添付の図面は、本開示の方法が他の方法と併せて用いられ得る様々な仕方を示していない場合がある。加えて、説明は、時として、本開示の方法を説明するために、「提供する(provide)」または「達成する(achieve)」のような用語を用いる。これらの用語に対応する実際の動作は特定の実装形態に応じて変化し得、当業者によって容易に認識可能である。
実施形態によっては、コンピュータ実施方法は、患者の歯列の少なくとも部分の患者走査データの3Dデジタルモデルを受け取ることと、3Dデジタルモデルからパノラマ画像を生成することと、第1の訓練済みニューラルネットワークを用いて、パノラマ画像の1つまたは複数の領域をラベル付けし、ラベル付きパノラマ画像を提供することと、ラベル付きパノラマ画像の1つまたは複数の領域を3Dデジタルモデル内の1つまたは複数の対応する粗いデジタル表面三角形ラベルにマッピングし、ラベル付き3Dデジタルモデルを提供することと、ラベル付き3Dデジタルモデルをセグメント化し、セグメント化3Dデジタルモデルを提供することと、を含むことができる。代替的に、実施形態によっては、コンピュータ実施方法は、パノラマ画像を受け取ることと、第1の訓練済みニューラルネットワークを用いて、パノラマ画像の1つまたは複数の領域をラベル付けし、ラベル付きパノラマ画像を提供することと、ラベル付きパノラマ画像の1つまたは複数の領域を3Dデジタルモデル内の1つまたは複数の対応する粗いデジタル表面三角形ラベルにマッピングし、ラベル付き3Dデジタルモデルを提供することと、ラベル付き3Dデジタルモデルをセグメント化し、セグメント化3Dデジタルモデルを提供することと、を含むことができる。
実施形態によっては、コンピュータ実施方法は、患者の歯列の少なくとも部分の患者走査データの3Dデジタルモデル(「デジタルモデル」)を受け取ることを含むことができる。図1は、限定するものではないが、例えば、光学走査、CT走査等を含む、当該技術分野において既知の任意の走査技法を用いて物理的印象を走査することによって生成することができるデジタルモデル100の一例を示す。デジタルモデル100はまた、例えば、患者の歯列の口腔内走査によって生成することもできる。一例が、全体が本明細書において参照により組み込まれる、Nikolskiyらへの米国特許出願公開第20180132982(A1)号明細書に記載されている。従来のスキャナは、通例、走査中に物理的印象/患者の歯列の形状を3次元で取り込み、形状を3次元デジタルモデルにデジタル化する。デジタルモデル100は、例えば、物理的印象/患者の歯列の形状に対応するトポロジによる複数の相互接続されたポリゴンを含むことができる。実施形態によっては、ポリゴンは2つ以上のデジタル三角形を含むことができる。実施形態によっては、走査プロセスは、例えば、Newport Beach, CalifのGlidewell Laboratoriesによって提供されているFastDesign(商標)歯科設計ソフトウェアなどの、歯科修復設計ソフトウェアと共に使用するのに適し得るSTL、PLY、またはCTMファイルを生成することができる。
ニューラルネットワーク
実施形態によっては、コンピュータ実施方法は1つまたは複数の訓練済みニューラルネットワークを用いることができる。ニューラルネットワークは、機械学習の部分である計算モデルである。ニューラルネットワークは、通例、層の形で編成されたノードを含む。ノードの層は、例えば、入力層、1つまたは複数の隠れ層、および出力層を含むことができる。1つを超える隠れ層 - 通例、さらに多くの隠れ層 - を有するニューラルネットワークはディープニューラルネットワーク(deep neural network)(「DNN」)である。1つの層からの情報を処理し、次の層に提供することができる。
実施形態によっては、DNNは、ディープニューラルネットワークの隠れ層のうちの少なくとも1つにおいて一般的な行列乗算の代わりに畳み込みを用いるネットワークである、畳み込みニューラルネットワーク(convolutional neural network)(「CNN」)であることができる。畳み込み層は、カーネル関数を以前の層の値の部分セットに適用することによってその出力値を算出することができる。コンピュータ実施方法は、訓練データに基づいてカーネル関数の重みを調整することによってCNNを訓練することができる。同じカーネル関数を、特定の畳み込み層において各値を算出するために用いることができる。CNNを用いる1つの利点は、訓練の間により少数の重みを学習することを含むことができる。CNNを用いることの別の利点は、例えば、辺の特徴を検出することであることができる。
図2はいくつかの実施形態におけるCNNの一例を示す。CNNは、第1の畳み込み層202などの、1つまたは複数の畳み込み層を含むことができる。第1の畳み込み層202は、カーネル204などのカーネル(フィルタとも称される)を入力画像203などの入力画像にわたって適用し、任意選択的に、活性化関数を適用し、第1のカーネル出力208などの1つまたは複数の畳み込み出力を生成することができる。第1の畳み込み層202は1つまたは複数の特徴チャネルを含むことができる。カーネル204などのカーネル、および任意選択的に、活性化関数の適用は畳み込み出力206などの第1の畳み込み出力をもたらすことができる。次に、カーネルはストライド長に基づいて入力画像203内のピクセルの次のセットへ進み、カーネル204、および任意選択的に、活性化関数を適用し、第2のカーネル出力をもたらすことができる。カーネルは、それが入力画像203内の全てのピクセルに適用されるまでこのように進められ得る。このように、CNNは、1つまたは複数の特徴チャネルを含むことができる、第1の畳み込み画像206を生成することができる。第1の畳み込み画像206は、実施形態によっては、207などの1つまたは複数の特徴チャネルを含むことができる。場合によっては、活性化関数は、例えば、RELU活性化関数であることができる。他の種類の活性化関数を用いることもできる。
CNNはまた、第1のプーリング層212などの1つまたは複数のプーリング層を含むことができる。第1のプーリング層はプーリングフィルタ214などのフィルタを第1の畳み込み画像206に適用することができる。任意の種類のフィルタを用いることができる。例えば、フィルタは、最大値フィルタ(フィルタが適用されたピクセルの最大値を出力する)、または平均値フィルタ(フィルタが適用されたピクセルの平均値を出力する)であることができる。1つまたは複数のプーリング層は入力行列のサイズをダウンサンプリングし、低減することができる。例えば、第1のプーリング層212は、第1のプーリングフィルタ214を適用し、第1のプーリング画像216を提供することによって、第1の畳み込み画像206を低減する/ダウンサンプリングすることができる。第1のプーリング画像216は1つまたは複数の特徴チャネル217を含むことができる。CNNは、任意選択的に、1つまたは複数の追加の畳み込み層(および活性化関数)ならびにプーリング層を適用することができる。例えば、CNNは、第2の畳み込み層218、および任意選択的に、活性化関数を適用し、1つまたは複数の特徴チャネル219を含むことができる第2の畳み込み画像220を出力することができる。第2のプーリング層222がプーリングフィルタを第2の畳み込み画像220に適用し、1つまたは複数の特徴チャネルを含むことができる第2のプーリング画像224を生成することができる。CNNは、1つまたは複数の畳み込み層(および活性化関数)ならびに1つまたは複数の対応するプーリング層を含むことができる。CNNの出力は、任意選択的に、1つまたは複数の全結合層230の部分であることができる、全結合層へ送信され得る。1つまたは複数の全結合層は出力予測224などの出力予測を提供することができる。実施形態によっては、出力予測224は、例えば、歯群および周囲組織のラベルを含むことができる。
CNNは異なる仕方で構造化され、用いられ得る。例えば、You Only Look Once(「YOLO」)ネットワークの一例の詳細が、You Only Look Once: Unified, Real-Time Object Detection, by Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi, submitted 8 Jun 2015, last revised 9 May 2016, v5において説明されている。同文献の全体は参照により本明細書に組み込まれる。YOLOネットワークのさらなる詳細が、YOLO9000: Better, Faster, Stronger, by Joseph Redmon, Ali Farhadi, University of Washington, Allen Institute for AI, published 25 Dec 2016, arXivにおいて見出され得る。同文献の全体は参照により本明細書に組み込まれる。YOLOネットワークの一例の詳細は、YOLOv3: An Incremental Improvement, by Joseph Redmon and Ali Farhadi, University of Washington, published 2018, ArXivにおいても説明されている。同文献の全体は参照により本明細書に組み込まれる。訓練済みYOLOネットワークは、例えば、患者の歯列の2Dデジタルモデルを受け取り、各デジタル歯牙の周りのデジタル歯牙バウンディング領域としてのデジタルバウンディングボックスを有するデジタルモデルを出力することができる。
上述されたとおりのYOLOv3ネットワーク(以下、「YOLOネットワーク」)は、複数のバウンディングボックス、およびバウンディングボックスごとのクラス確率を予測する1つまたは複数の畳み込みネットワークを含むことができる。実施形態によっては、YOLOネットワークは入力画像をS x Sグリッドに分割することができる。グリッドセルの各々はB個のバウンディングボックスを予測することができ、バウンディングボックスのための信頼スコアを決定することができる。信頼スコアは、バウンディングボックスが物体を包含するというモデルの信頼、および予測されたボックスの精度を指示することができる。信頼は次式のように表すことができる。
Figure 2023512083000002
ここで、IOUはintersection over unionである。
実施形態によっては、YOLOはディメンション(dimension)クラスタを、バウンディングボックスを予測するためのアンカーボックスとして用いることができる。例えば、YOLOはバウンディングボックスのための4つの座標:t、t、t、tを予測することができる。セルが画像の左上隅部から(C,C)だけオフセットしており、プライア(prior)バウンディングボックスが幅pおよび高さpを有する場合には、予測は以下のものに対応することができる:
=σ(t)+c
=σ(t)+c
Figure 2023512083000003
Figure 2023512083000004
ここで、フィルタ適用場所に対するボックス中心座標は、シグモイド関数(σを与える)を用いて予測される。実施形態によっては、YOLOは、ロジスティック回帰を遂行することによって各バウンディングボックスの物体らしさ(objectness)スコアを予測することができる。プライアバウンディングボックスが、どの他のプライアバウンディングボックスよりも大きくグラウンドトゥルース物体と重なる場合には、結果は1になることができる。最良ではないが、0.5などの閾値を超えてグラウンドトゥルース物体と重なるプライアバウンディングボックスは無視することができる。他の閾値を用いることもでき、例えば、ユーザ設定可能ファイルにおいて設定することができる。グラウンドトゥルース物体に割り当てられないプライアバウンディングボックスは物体らしさについての損失を被るが、座標またはクラス予測については損失を被らない。実施形態によっては、各ボックスは、マルチラベル分類を利用することによってバウンディングボックス内のクラスを予測することができる。例えば、独立したロジスティック分類器を用いることができる。クラス予測のためのバイナリクロスエントロピー損失を訓練において用いることができる。YOLOはスケールにわたって予測を行うことができる。例えば、YOLOは3つの異なるスケールにおいてボックスを予測することができる。スケールから特徴を抽出することができる。いくつかの畳み込み層をベース特徴抽出器に追加することができる。最終畳み込み層は、3Dテンソル符号化バウンディングボックス、物体らしさ、およびクラス予測を予測することができる。テンソルは、N x N x [(各スケールにおけるボックスの数)*(4+1+(クラス予測の数))]であることができる。例えば、各スケールにおけるボックスの数は3であることができ、クラス予測数は80個のクラス予測であることができる。YOLOは以前の2つの層から特徴マップを得、特徴マップをアップサンプリングすることができる。例えば、YOLOは特徴マップを2倍アップサンプリングすることができる。別の以前の特徴マップが、アップサンプリングされた特徴マップと連結され、複合特徴マップを提供することができる。1つまたは複数の畳み込み層を追加し、複合特徴マップを処理し、2倍のサイズの第2のテンソルを提供することができる。同じ目的を最後に遂行し、最終スケールのためのボックスを予測することができる。プライアバウンディングボックス値を決定するためにk平均クラスタリングを用いることができる。例えば、9つのクラスタおよび3つのスケールを用いることができ、クラスタはスケールにわたって均等に分割される。
実施形態によっては、YOLOは1つまたは複数の畳み込み層を用いて特徴抽出を遂行することができる。畳み込み層のうちの1つまたは複数は、任意選択的に、残差演算を含むことができる。図3はYOLO特徴抽出の一例を示す。以下のものは、各層において遂行される演算を一例として指示する:
Figure 2023512083000005
層310は2回遂行され得、層314は8回遂行され得、層318は8回遂行され得、層322は4回遂行され得、ネットワーク全体のための畳み込みの総数は53回の畳み込みになる。avgpoolはグローバル(global)であることができる。他の構成および変形もYOLOネットワークにおいて企図される。実施形態によっては、訓練済みのYOLOネットワークは画像を受け取り、画像内の各特徴の周りのバウンディング領域を提供することができる。特徴は訓練中に規定することができる。YOLOの訓練は、損失関数を最小化することを含むことができる。損失関数は、物体が特定のグリッドセル内にあるとき、分類誤りにペナルティを与えるのみである。損失関数は、特定の予測因子がグラウンドトゥルースボックスの原因となる場合には、バウンディングボックス座標誤りにペナルティを与える。例えば、特定の予測因子が特定のグリッドセル内の全ての予測因子の最も高いIOUを有する場合である。
実施形態によっては、コンピュータ実施方法はセマンティックセグメンテーションネットワークを用いることができる。セマンティックセグメンテーションネットワークは、ピクセルごとのセグメンテーションを提供する任意のニューラルネットワークであることができる。セマンティックセグメンテーションネットワークのいくつかの例としては、DeconvNet、FPN、DeepLabV3、U-Net、およびピラミッドアテンションネットワークを挙げることができる。
実施形態によっては、コンピュータ実施方法は、例えば、U-Netをセマンティックセグメンテーションネットワークとして用いることができる。U-Netは、生医学画像セグメンテーションのために用いることができる畳み込みニューラルネットワークであり、U-Net: Convolutional Networks for Biomedical Image Segmentation, by Olaf Ronneberger, Philipp Fischer, and Thomas Brox, Computer Science Department and BIOSS Centre for Biological Signalling Studies, University of Freiburg, Germany, arXiv, 18 May 2015において説明されている。同文献の全体は参照により本明細書に組み込まれる。標準的なCNNは、通例、収縮層として知られる、1つまたは複数の畳み込み/プーリング層を含む。U-Netアーキテクチャは1つまたは複数の畳み込み/プーリング収縮層を1つまたは複数の畳み込み/アップサンプリング層と組み合わせることができる。それゆえ、U-Netアーキテクチャは解像度出力を増大させることができる。位置特定は、収縮経路からの高解像度の特徴を、アップサンプリングされた出力と組み合わせることによって達成することができる。U-Netアーキテクチャはまた、コンテキスト情報をより高い解像度の層に提供するための多数の特徴チャネルを含むことができる。実施形態によっては、膨張経路は収縮経路と対称であることができ、これにより、U字状アーキテクチャをもたらす。
図4(a)は、いくつかの実施形態における収縮経路402および膨張経路404を含むU-Net CNNの一例を示す。収縮経路402は、第1の畳み込み層406などの、1つまたは複数の畳み込み層を含むことができる。各畳み込み層は、第1の畳み込み410などの、1回または複数回の畳み込みを遂行することができる。畳み込みは任意のサイズのカーネルを利用することができる。実施形態によっては、例えば、3×3のカーネルを、1回または複数回の畳み込みを遂行するために用いることができる。実施形態によっては、各畳み込み層は2回の畳み込みを遂行することができる。
実施形態によっては、各畳み込みは特徴マップを生成することができ、各特徴マップは1つまたは複数の特徴チャネルを含むことができる。実施形態によっては、収縮経路内の畳み込み層内の各畳み込みは同数の特徴チャネルを維持することができる。例えば、ネットワークは、画像解像度、およびn個の数の特徴チャネルを有することができる入力画像401を受け取ることができる。畳み込み層406において、第1の畳み込み410は第1の特徴マップ411などのnチャネル特徴マップを提供することができ、第2の畳み込み413は最後の特徴マップ412などのnチャネル特徴マップを提供することができる。第1の特徴マップ411および最後の特徴マップ412はどちらもnチャネルを含むことができる。実施形態によっては、各畳み込みはパディングされなくてもよい。実施形態によっては、1回または複数回の畳み込みをパディングすることができる。1回または複数回の畳み込みの各々の後には、ReLuなどの活性化関数、または当該技術分野において既知の他の活性化関数が続くこともできる。
U-Net CNNはまた、第1のプーリング演算408などのプーリング演算を遂行することを含むこともできる。いくつかの実施形態におけるプーリング演算は各特徴マップをダウンサンプリングすることができる。プーリング演算は、実施形態によっては、特定の畳み込み層における最後の畳み込みの後に生成された最後の特徴マップに対して遂行することができる。例えば、図4(a)では、第1のプーリング演算408を最後の特徴マップ412に対して遂行することができ、結果は次の畳み込み層416への畳み込み層入力414になることができる。第1のプーリング演算408は当該技術分野において既知の任意のプーリング演算であることができる。例えば、実施形態によっては、第1のプーリング演算408は最大値プーリング演算であることができる。実施形態によっては、第1のプーリング演算408は平均値プーリング演算であることができる。プーリング演算は任意の値であることができる。例えば、実施形態によっては、プーリング演算は、2のストライドを有する2×2プーリング演算であることができる。
実施形態によっては、各プーリング演算の後に、任意選択的に、追加の畳み込み層およびプーリング演算が続くことができる。例えば、第1のプーリング演算408の後に第2の畳み込み層416が続くことができ、その後に第3の畳み込み層418、および第4の畳み込み層427が続くことができ、各畳み込み層の間にプーリング演算を有する。実施形態によっては、収縮経路402内の畳み込み層ごとに特徴チャネルの数を倍増することができる。例えば、第2の畳み込み層416は特徴チャネルの数を第1の畳み込み層406のものの2倍に倍増することができ、第3の畳み込み層418は特徴チャネルの数を第2の畳み込み層416のものの2倍に倍増することができ、第4の畳み込み層427は特徴チャネルの数を第3の畳み込み層418のものの2倍に倍増することができる。これは、収縮経路402内の各畳み込み層によってもたらされた特徴マップごとに2*n個の特徴チャネルを提供することができる。例えば、例として、第1の畳み込み層406は、1つのチャネルを有する入力画像を受け取ることができ、1回または複数回の畳み込みを遂行した後に、64個のチャネルを有する特徴マップを作成することができ、第2の畳み込み層416は、1回または複数回の畳み込みを遂行した後に、128個のチャネルを有する特徴マップを提供することができ、第3の畳み込み層418は、1回または複数回の畳み込みを遂行した後に、256個のチャネルを有する特徴マップを提供することができ、第4の畳み込み層418は、512個のチャネルを有する特徴マップを提供することができる。画像の寸法は各畳み込みにおいて低減され得る。例えば、入力画像は572×572の解像度を有することができる。第1の畳み込み410は、570×570の解像度を有する特徴マップ411を提供することができる。第2の畳み込みは、568×568の解像度を有する最後の特徴マップ412を提供することができる。実施形態によっては、畳み込み層の間の各プーリング演算は解像度を1/2に減少させることができる。例えば、第1のプーリング演算408は、568×568の解像度を有する最後の特徴マップ412を、284×284の解像度を有する畳み込み層入力414に低減することができる。
U-Net CNNは収縮経路402内の最終プーリング演算422を最終収縮経路畳み込み層427に対して遂行することができる。U-Net CNNは畳み込み層426において1回または複数回の畳み込みを遂行することができる。実施形態によっては、畳み込み層426への入力は1024個の特徴チャネルと共に32×32の解像度を有することができる。畳み込み層426からの出力は、1024個の特徴チャネルと共に28×28の解像度を有する特徴マップになることができる。
U-Net CNNは膨張経路404内で特徴マップのアップサンプリングを遂行することができる。膨張経路404は、アップサンプリング層425などの、1つまたは複数のアップサンプリング層を含むことができる。各アップサンプリング層は特徴チャネルの数を半減させることができる。例えば、アップサンプリング424は畳み込み層426からの最後の特徴マップのための特徴チャネルの数を半減させ、特徴マップ428を提供することができる。アップサンプリングは、例えば、2×2逆畳み込みであることができる。各アップサンプリング層は収縮経路からのトリミングされた特徴マップを連結することができる。例えば、アップサンプリング層425は、収縮経路424からのトリミングされた特徴マップ430を、アップサンプリングされた特徴マップ428に連結するための連結演算429を遂行することができる。各アップサンプリングは以前のアップサンプリング層からの特徴マップの解像度を倍増することができる。例えば、アップサンプリング424は畳み込み層426からの特徴マップ解像度を倍増し、特徴マップ428を提供することができる。一例として、畳み込み層426からの最後の特徴マップが28×28である場合には、特徴マップ428はアップサンプリング424の後に56×56になることができる。各アップサンプリング層はまた、1回または複数回の畳み込みを遂行することもでき、畳み込みの各々の後には、ReLUなどの活性化関数、または当該技術分野において既知の任意の他の活性化関数が続くことができる。各アップサンプリング層内の畳み込みは、例えば、3×3畳み込みであることができる。U-Net CNNは1×1畳み込みを最終アップサンプリング層内の最後の畳み込みとして遂行することができる。例えば、最終アップサンプリング層432は、実施形態によっては、例えば、出力セグメントマップ435を提供することができる最後の畳み込み434を含むことができる。実施形態によっては、出力セグメンテーションマップ435は、例えば、388×388の解像度を有し、2つのチャネルを含むことができる。
図4(b)はU-netニューラルネットワーク4000の別の実施形態を示す。U-Netニューラルネットワーク4000は入力画像4002などの入力画像を受け取り、1つまたは複数の畳み込み層において1回または複数回の畳み込みを遂行することができる。実施形態によっては、U-netニューラルネットワークは収縮経路4006などの収縮経路および膨張経路4021などの膨張経路を含むことができる。入力画像は任意の解像度のものであることができ、任意の数のチャネルを含むことができる。例えば、図において、入力画像4002はnチャネルと共に512×512の入力画像解像度を有することができる(「N×512×512」)。実施形態によっては、収縮経路4006内の畳み込み層4004などの図中の各下向きの矢印は、当該技術分野において既知のLeakyReLU活性化関数およびInstanceNormなどの正規化と共に4×4畳み込み(ストライド2×2)を含むことができる。実施形態によっては、畳み込み層はプーリングも含むことができる。実施形態によっては、膨張経路4021内の逆畳み込み層4032などの各上向きの矢印は、当該技術分野において既知のReLU活性化関数およびInstanceNormなどの正規化と共に4×4逆畳み込み(ストライド2×2、パディング3×3)を含むことができる。実施形態によっては、畳み込み層はアップサンプリングも含むことができる。
実施形態によっては、収縮経路4006内の各畳み込み層はその入力画像の解像度を半減させることができる。例えば、第1の畳み込み層4004は、入力画像4002を受け取り、128×256×256の解像度(256×256の画像解像度を有する128個のチャネル)を有することができる第1の特徴マップ4008を出力することができる。実施形態によっては、各畳み込み層の後の出力特徴マップを別の畳み込み層に入力することができる。例えば、第1の畳み込み層4002から出力された第1の特徴マップ4008は第2の畳み込み層4005に入力することができ、該畳み込み層は、245×128×128の解像度を有する第2の特徴マップ4010を提供することができる。第2の特徴マップ4010は第3の畳み込み層4007に入力することができ、該畳み込み層は、512×64×64の解像度を有する第3の特徴マップ4012を出力することができる。第3の特徴マップ4012は第4の畳み込み層4009に入力することができ、該畳み込み層は、1024×32×32の解像度を有する第4の特徴マップ4014を出力することができる。第4の特徴マップ4014は第5の畳み込み層4011に入力することができ、該畳み込み層は、1024×16×16の解像度を有する第5の特徴マップ4016を出力することができる。第5の特徴マップ4016は第6の畳み込み層4013に入力することができ、該畳み込み層は、1024×8×8の解像度を有する第6の特徴マップ4018を出力することができる。第6の特徴マップ4018は第7の畳み込み層4015に入力することができ、該畳み込み層は、1024×4×4の解像度を有する第7の特徴マップ4020を出力することができる。
実施形態によっては、膨張経路4021内の各逆畳み込み層はその入力画像の解像度を倍増することができる。実施形態によっては、1つまたは複数の逆畳み込み層は、逆畳み込み後に収縮経路からのトリミングされた特徴マップを連結することができる。実施形態によっては、各逆畳み込み層の後の出力特徴マップを別の逆畳み込み層に入力することができる。
例えば、第1の逆畳み込み層4032は、特徴マップ4020を受け取り、逆畳み込みを遂行し、第6の特徴マップ4018を連結し(4030)、2048×8×8の解像度(8×8の画像解像度を有する2048個のチャネル)を有することができる第1の逆畳み込み特徴マップ4038を出力することができる。第2の逆畳み込み層4033は、第1の逆畳み込み特徴マップ4038を受け取り、逆畳み込みを遂行し、第5の特徴マップ4016を連結し、2048×16×16の解像度を有する第2の逆畳み込み特徴マップ4036を出力することができる。第3の逆畳み込み層4031は、第2の逆畳み込み特徴マップ4036を受け取り、逆畳み込みを遂行し、第4の特徴マップ4014を連結し、2048×32×32の解像度を有する第3の逆畳み込み特徴マップ4034を出力することができる。第4の逆畳み込み層4039は、第3の逆畳み込み特徴マップ4034を受け取り、逆畳み込みを遂行し、第5の特徴マップ4012を連結することができ、1024×64×64の解像度を有する第4の逆畳み込み特徴マップ4042を出力することができる。第5の逆畳み込み層4037は、第4の逆畳み込み特徴マップ4042を受け取り、逆畳み込みを遂行し、第5の特徴マップ4010を連結することができ、512×128×128の解像度を有する第5の逆畳み込み特徴マップ4040を出力することができる。第6の逆畳み込み層4035は、第5の逆畳み込み特徴マップ4040を受け取り、逆畳み込みを遂行し、第5の特徴マップ4008を連結することができ、256×256×256の解像度を有する第6の逆畳み込み特徴マップ4048を出力することができる。第7の逆畳み込み層4044は第6の逆畳み込み特徴マップ4048を受け取ることができ、畳み込みを遂行することができ、1×512×512の解像度を有する第7の逆畳み込み特徴マップ4050を出力することができる。
実施形態によっては、各逆畳み込み層に先行してアップサンプリングが行われ得る。
実施形態によっては、U-Net CNNの訓練は、特徴マップにわたるピクセルごとのソフトマックスによるエネルギー関数を決定することができ、それを交差エントロピー損失関数と組み合わせる。ここで、ソフトマックスは次式である:
Figure 2023512083000006
ここで、a(x)はピクセル位置xにおける特徴チャネルkにおける活性化であり、Kはクラスの数でありp(x)は近似最大関数である。交差エントロピーは、次式によって1からのpl(x)(x)の各位置における偏差にペナルティを与えることができる:
E=Σx∈Ω w(x) log pl(x)(x)
ここで、l:Ω→{1,…,K}であり、w:Ω→Rは重みマップである。接触したセル同士の間の分離境界は、モルフォロジー的なものである演算によって決定することができる。重みマップは次式のように決定することができる:
w(x)=w(x)+w*exp(-(d(x)+d(x))/2σ
ここで、w:Ω→Rは、クラス頻度をバランスさせる重みマップであり、d:Ω→Rは、最も近いセル境界までの距離であり、d:Ω→Rは、2番目に近いセルまでの距離である。初期重みは、理想的には、特徴マップが、単位に近い分散を有するように選定される。初期重みは、
Figure 2023512083000007
の標準偏差を有するガウス分布から得ることができる。ここで、Nは1つのニューロンの入来ノードの数である。
実施形態によっては、セマンティックセグメンテーションネットワークはピラミッドアテンションネットワーク(Pyramid Attention Network)(「PAN」)であることができる。PANの一例が、Pyramid Attention Network for Semantic Segmentation by Hanchao Li, Rengfei Xiong, Jie An and Lingxue Wang, arXiv:1805.10180v3, submitted Nov 25, 2018において説明されている。同文献の全体は参照により本明細書に組み込まれる。他のPANアーキテクチャを用いることもできる。PANは、受容野を増大させ、ピクセル位置特定の詳細を効果的に回復するために、符号器および復号器を特徴ピラミッドアテンション(Feature Pyramid Attention)(「FPA」)特徴およびグローバルアテンションアップサンプル(Global Attention Upsample)(「GAU」)特徴と共に含むことができる。実施形態によっては、GAUは、例えば、識別多重解像度特徴表現を選択するためのPANの復号器ブランチの部分であることができる。
図5(a)はいくつかの実施形態におけるPANの一例を示す。PANは符号器5002などの符号器を含むことができる。実施形態によっては、符号器は入力画像5001などの入力画像を受け取ることができる。符号器は1つまたは複数の段を含むことができ、各段は、例えば、入力データに対してダウンサンプリング演算を遂行することができる層の組み合わせであることができる。符号化の間に、各段は、異なるレベルの特徴マップを構成する特徴のアレイ(テンソル)をもたらすことができる。各段は、特徴層に対応する1つまたは複数の出力特徴マップを提供することができる。実施形態によっては、FPA特徴は符号器と復号器との間にあることができる。実施形態によっては、復号器は、例えば、32個のチャネルを含むことができる。
実施形態によっては、符号器は任意の種類のResNetアーキテクチャであることができる。ResNetアーキテクチャの一例が、ResNets, by Pablo Ruiz-Harvard University, August 2018において説明されている。同文献の全体は参照により本明細書に組み込まれる。実施形態によっては、符号器はResNet-101符号器であることができる。実施形態によっては、ResNet-101符号器の異なる段は特定の数のチャネルの特徴マップを出力することができる。例えば、ResNet-101では、例えば、Conv-1 5004は64チャネル特徴マップを出力することができ、Res-2 5008は256チャネル特徴マップを出力することができ、Res-3 5010は512チャネル特徴マップを出力することができ、Res-4 5012は1024チャネル特徴マップを出力することができ、Res-5 5014は2048チャネル特徴マップを出力することができる。
好ましい実施形態では、符号器はResNet-34符号器であることができる。実施形態によっては、ResNet-34符号器は、畳み込み段Conv-1 5004、およびそれに続く、Res-2 5008、Res-3 5010、Res-4 5012、およびRes-5 5014などの1つまたは複数の段などの、1つまたは複数の段を含むことができる。ResNet-34符号器において、例えば、Conv-1 5004は64チャネル特徴マップを出力することができ、Res-2 5008は64チャネル特徴マップを出力することができ、Res-3 5010は128チャネル特徴マップを出力することができ、Res-4 5012は256チャネル特徴マップを出力することができ、Res-5 5014は512チャネル特徴マップを出力することができる。
図6(a)はResNet-34ニューラルネットワークの一例を示す。入力画像6002を第1のResNet畳み込み層Conv-1 6004に提供することができる。実施形態によっては、第1のResNet畳み込み層は、64個のチャネルおよび2のストライドを有する7×7畳み込みであることができる。実施形態によっては、この後に、2のストライドを有するプーリングステップ6006が続くことができる。ResNetニューラルネットワークのいくつかの実施形態は、例えば、1回または複数回の3×3畳み込みを各々遂行することができ、2回の畳み込みごとに入力をバイパスする、4つの追加のResNet段、または層を含むことができる。高さおよび幅の寸法(すなわち、画像解像度)、ならびにチャネルの数(特徴マップの寸法)は各段内で同じままであることができる。
図6(a)は、5つの段:Conv-1 6004、Res-2 6010、Res-3 6012、Res-4 6014、およびRes-5 6016を含むことができるResNet-34ニューラルネットワークの一例を示す。Res-2 6010、Res-3 6012、Res-4 6014、およびRes-5 6016段内の各ブロックは、直列に遂行される3×3畳み込みの対を表す(すなわち、第1の畳み込みの出力は各ボックス内の第2の畳み込みの入力になっている)。例えば、第1のブロック6018は、直列に遂行される第1のRes-2畳み込み6020および第2のRes-2畳み込み6022を含むことができる。実施形態によっては、1つまたは複数のResNet段の第1のブロック内の第1の畳み込みはストライドを1から2に増大させることができる。例えば、段Res-3 6012内の第1のRes-3畳み込み6024、段Res-4 6014内の第1のRes-4畳み込み6026、および段Res-5 6016内の第1のRes-5畳み込み6027は2のストライドを各々用いることができ、残りの畳み込みは1のストライドを用いる。実施形態によっては、ResNet段はバイパスを遂行することができる。バイパスにおいて、第1のブロックの入力は第1のブロックの出力に加算され、合計は次のブロックへの入力として提供される。例えば、図6(a)に例示されるように、第1のブロック6018への入力はバイパス6028を経由して第1のブロックをバイパスし、第1のブロック6018の出力に加算される。次に、この合計は次のブロック6040への入力として提供される。
図6(b)はバイパスの一例をより詳細に示す。第1のブロック6050は第1のブロック入力特徴マップ6052を受け取ることができる。入力画像6052は、例えば、3×3畳み込みなどの第1の畳み込み6054を受け、第1の畳み込み出力6056を提供することができ、第1の畳み込み出力6056は第2の畳み込み6058を受け、第1のブロック出力6060を提供することができる。ResNetニューラルネットワークは、バイパス6062を経由して、第1のブロック入力特徴マップ6052を第1のブロック出力6060と合計し、合計を第2のブロック6066への第2のブロック入力特徴マップ6064として提供することができる。このパターンを、図6(a)に例示されるように、ResNet段全体を通して繰り返すことができる。
図6(a)を参照すると、Conv-1 6004の段は、7×7、64チャネル、ストライド2の畳み込みを遂行した後に、112×112の画像サイズを出力することができる。Res-2 6010の段は、各ブロックが2回の3×3、64チャネル畳み込みを遂行する、3つのブロックを含み、56×56の画像サイズを出力することができる。Res-3 6012の段は、各ブロックが2回の3×3、128チャネル畳み込みを遂行する、4つのブロックを含み、28×28の画像サイズを出力することができる。Res-4 6014の段は、各ブロックが2回の3×3、256チャネル畳み込みを遂行する、6つのブロックを含み、14×14の画像サイズを出力することができる。Res-5 6016の段は、各ブロックが2回の3×3、512チャネル畳み込みを遂行する、3つのブロックを含み、7×7の画像サイズを出力することができる。最後に、プーリング段6029は、実施形態によっては、平均値プーリング、1000-d fc、ソフトマックスを遂行し、1×1の画像サイズを出力することができる。
図5(a)に例示されるように、ResNet段の出力は、実施形態によっては、符号器の次の段に入力することができる。加えて、特定の段の出力はGAUにも入力することができる。例えば、Res-2 5008の出力はRes-3 5010に入力するとともに、GAU-3 5016にも入力することができ、Res-3 5010の出力はRes-4 5012に入力するとともに、GAU-2 5018にも入力することができ、Res-4 5012の出力はRes-5 5014に入力するとともに、GAU-1 5020にも入力することができる。実施形態によっては、符号器の最後の段の出力特徴マップはFPAに入力することができる。例えば、Res-5 5014の出力特徴マップはFPA5022に入力することができる。
実施形態によっては、FPAは、U字状構造を用いることによって3つのピラミッドスケールからの特徴を組み合わせることができる。実施形態によっては、FPAは異なるスケールのコンテキスト特徴を完全畳み込みネットワーク(fully convolutional network)(「FCN」)ベースのピクセル予測フレームワーク内に埋め込むことができる。図5(b)はいくつかの実施形態におけるFPAの一例を示す。FPA5030は、例えば、Resnet 5032などの符号器ネットワークからの特徴マップ5034を受け取ることができる。特徴マップの解像度は、実施形態によっては、例えば、32×32であることができる。実施形態によっては、FPAは、ダウンサンプリング、およびその後に続くアップサンプリングを含むことができる。例えば、FPA5030はダウンサンプリングブランチ5038およびアップサンプリングブランチ5040を含むことができる。実施形態によっては、ダウンサンプリングブランチ5038は、7×7畳み込みを遂行することができる、第1のダウンサンプル畳み込み5048、5×5畳み込みを遂行することができる、第2のダウンサンプル畳み込み5050、および、3×3畳み込みを遂行することができる、第3のダウンサンプル畳み込み5052などの1つまたは複数の畳み込み層を含むことができる。高レベルの特徴マップはより低い解像度を有するため、大きいカーネルサイズは計算の複雑性を増大させない。実施形態によっては、ピラミッド構造は、ステップごとに、異なってスケーリングされた情報を統合することができ、例えば、それが、コンテキスト特徴の隣接するスケールをより精密に組み込むことを可能にする。各ダウンサンプル畳み込みの出力は、同じフィルタサイズを有する別の畳み込み層に供給することができる。例えば、第3のダウンサンプル畳み込み5052の出力は3×3畳み込み5054に入力することができ、第2のダウンサンプル畳み込み5050の出力は5×5畳み込み5056に入力することができ、第1のダウンサンプル畳み込み5048の出力は7×7畳み込み5058に入力することができる。実施形態によっては、アップサンプリングブランチは、増大していく特徴マップ解像度を含むことができる。例えば、実施形態によっては、解像度は、第1のアップサンプルブランチ段5042において4×4であることができ、第2のアップサンプルブランチ段5044において8×8であることができ、第3のアップサンプルブランチ段5046において32×32であることができる。各アップサンプリングブランチは、例えば、図に例示されるように、実施形態によっては、連結を含むことができる。畳み込みネットワークからの元の特徴は、例えば、1×1畳み込みを遂行することができる、畳み込み層5072などの畳み込み層を通過した後に、例えば、ピクセル毎乗算器5070において、ピクセルごとに乗算され得る。ピラミッド構造の1つまたは複数の利点は、例えば、少なくとも、異なるスケールのコンテキスト情報を融合させ、高レベル特徴マップのためのピクセルレベルのアテンションを作り出すことを含むことができる。
実施形態によっては、FPAは、グローバルプーリング5060、1×1畳み込み5062、およびアップサンプリング5064を含むことができる、グローバルプーリングブランチ5036などのグローバルプーリングブランチを含むことができる。
提供されているフィルタおよび解像度サイズは単なる例にすぎない。フィルタおよび解像度サイズは任意の好適な値であることができる。ダウンサンプリングおよびアップサンプリングブランチは、実施形態によっては、より多数またはより少数の段を含むことができる。実施形態によっては、全ての畳み込み層の後にバッチ正規化が行われる。
実施形態によっては、FPAは、図5(a)に示される復号器5074などの、復号器への入力を提供することができる。図に示されるように、実施形態によっては、復号器はまた、例えば、GAU-1 5020、GAU-2 5018、およびGAU-3 5016などの、1つまたは複数のGAUからの入力を受け取ることができる。実施形態によっては、FPA 5022はその出力を、復号器5074への、およびGAU-1 5020への入力として提供することができる。GAU-1 5020はまた、Res-4 5012などのResNet層からの入力を受け取ることができる。実施形態によっては、GAU-2 5018は、例えば、Res-3 5010などの対応するResNet層からの、および第1の復号器段5076などの第1の復号器段からの入力を受け取ることができる。実施形態によっては、GAU-3は、上述されたとおりのRes-2 5008からの、および第2の復号器段5078からの入力を受け取ることができる。実施形態によっては、第3の復号器段5080がGAU-3 5016の出力を第2の復号器段5078からの出力と合計することができる。実施形態によっては、各復号器段はその入力の合計を遂行することができる。
実施形態によっては、各GAUは、例えば、カテゴリ位置特定の詳細を選択するのを助けることができる低レベル特徴のグローバルコンテキストを提供することができるグローバル平均値プーリングを遂行することを含むことができる。図5(c)は、GAU50100などの、GAUの一例を示す。実施形態によっては、GAUは、低レベル特徴50101などの1つまたは複数の低レベル特徴に対して、例えば、畳み込み50102などの畳み込みを遂行することができる。実施形態によっては、畳み込み層50102は、例えば、例として、CNNからの特徴マップのチャネルを低減することができる3×3畳み込みであることができる。実施形態によっては、高レベル特徴50104などの高レベル特徴からのグローバルコンテキストをグローバルプーリング50106においてプーリングすることができ、グローバルプーリング50106は、例えば、特徴マップ50108などの1つまたは複数の特徴マップを提供することができる。実施形態によっては、特徴マップ50108は、例えば、C×1×1の解像度を有することができる。ここで、Cはチャネルの数を表すことができる。実施形態によっては、GAUは、低レベル特徴を乗算され得るバッチ正規化およびReLU非線形性を用いた畳み込みを通じて高レベル特徴からグローバルコンテキストを生成することができる。例えば、実施形態によっては、畳み込み層50110は、バッチ正規化およびReLU非線形性を用いた1×1畳み込みを提供することができる。該畳み込みは、乗算器50112において、畳み込み層50102からの低レベル特徴を乗算され得、例えば、重み付き低レベル特徴50114などの1つまたは複数の重み付き低レベル特徴を提供する。実施形態によっては、高レベル特徴を重み付き低レベル特徴に加算することができる。例えば、実施形態によっては、高レベル特徴50104を合計50116において重み付き低レベル特徴50114に加算することができる。このようなGAUの1つまたは複数の利点は、例えば、異なるスケールの特徴マップを展開し、高レベル特徴を用いて案内情報を低レベル特徴マップに提供することを含むことができる。実施形態によっては、PANはセグメント化画像5075を提供することができる。
実施形態によっては、ResNetは、例えば、特徴マップを抽出する膨張畳み込み方略を用いてImageNet上で事前訓練することができる。例えば、実施形態によっては、2の膨張畳み込み率がres5bブロックに適用される。これは、例えば、ResNetからの出力サイズが入力画像の1/16である特徴マップをもたらすことができる。ResNet-101およびResNet-34の実装形態の場合には、7×7畳み込み層を、例えば、3つの3×3畳み込み層に置換することができる。実施形態によっては、訓練は、当該技術分野において既知のポリ学習率(poly learning rate)を含むことができる。例えば、初期率に(1-iter/max_iter)powerを乗算することができる。ここで、powerは0.9であり、初期率は4e-3である。実施形態によっては、ネットワークは、バッチサイズ16、モーメンタム0.9、および重み減衰0.0001を有するミニバッチ確率的勾配降下(stochastic gradient descent)(「SGD」)を用いて訓練することができる。実施形態によっては、例えば、カテゴリにわたる各ピクセルにおける交差エントロピー誤差を損失関数として適用することができる。訓練の間には、例えば、全てのデータセットについてのランダム左右反転および0.5~2のランダムスケーリングを用いることができる。実施形態によっては、特に、3×3カーネルのサイズの畳み込みに対して、平均値プーリングの方が最大値プーリングより好ましくなり得る。実施形態によっては、ストライドは、例えば、16であることができる。PANを用いることの1つまたは複数の利点は、例えば、性能の改善を含むことができる。
実施形態によっては、コンピュータ実施方法は、1つまたは複数のニューラルネットワークの1つまたは複数の特徴を実施すること、含むこと、および/または遂行することができる。実施形態によっては、コンピュータ実施方法は1つまたは複数のニューラルネットワークを訓練することができる。特定の値が1つまたは複数のニューラルネットワークにおける1つまたは複数の特徴のために議論されているが、値は単なる例として提供されているにすぎない。他の好適な値および変形を用いることもできる。
パノラマ画像
実施形態によっては、コンピュータ実施方法は訓練済みニューラルネットワークを用いて3Dデジタルモデルからパノラマ画像を生成することができる。パノラマ画像は、例えば、1つまたは複数の列および1つまたは複数の行を含む2Dラスタ画像であることができる。実施形態によっては、コンピュータ実施方法は2Dパノラマ画像内の各列および行を生成することができる。パノラマ画像は、有利に、例えば、デジタルモデル内のより多くのデジタル歯群をより多くの側から示すことができる。パノラマ画像は、有利に、例えば、全ての歯群の舌側および頬側の両方の歯肉-クラウンマージンを示す単一の画像であることができる。図7は、行5102および列5104などの、列および行の重ね合わせられた図を伴うパノラマ画像の一例を示す。図7に示される列および行の数は例示のみを目的としている。実施形態によっては、所望の列および行の数は、構成ファイル内で、または両方の値のための入力フィールドなどのグラフィカルユーザインターフェース要素を通じて設定することができる。実施形態によっては、コンピュータ実施方法は、例えば、列および行の所望の数を構成ファイルからロードすることができる。列および行の数が多いほどパノラマ画像の解像度を増大させることができる。一例として、列の数が、例えば、2048に設定され、行の数が、例えば、320に設定される場合には、このとき、パノラマ画像は2048×320(幅掛ける高さ)になることができる。これは、コンピュータ実施方法がスプライン上の2048個のサンプルを取得することを意味することができる。寸法が小さいほど処理が速くなることができ、その一方で、寸法が大きいほど良好な空間解像度をもたらすことができる。1つの利点は、速度と空間解像度との間の選択を行うことができることを含むことができる。
実施形態によっては、ニューラルネットワークは、各デジタル歯牙が、例えば、長方形状境界などの、標識付きデジタル歯牙バウンディング領域で標識されている、1本または複数本のデジタル歯群を有するデジタル歯列弓の少なくとも部分の1つまたは複数の2D深度マップを含むことができる2D深度マップ訓練データセットを提供することによって訓練することができる。標識付きデジタル歯牙バウンディング領域のための他の形状を用いることもできる。コンピュータ実施方法のいくつかの実施形態は、任意選択的に、3Dデジタルモデルから2D画像を生成することを含むことができる。実施形態によっては、2D画像は2D深度マップであることができる。2D深度マップは、各ピクセル内に、ピクセルを通過する線に沿った正投影カメラから物体までの距離を包含する2D画像を含むことができる。例えば、物体は、実施形態によっては、例えば、デジタル顎モデル表面であることができる。実施形態によっては、入力は、例えば、顎などの、患者の歯列の3Dデジタルモデル(「デジタルモデル」)などの物体、およびカメラ配向を含むことができる。実施形態によっては、カメラ配向は咬合方向に基づいて決定することができる。咬合方向は咬合平面と垂直であり、咬合平面は、当該技術分野において既知の任意の技法を用いてデジタルモデルのために決定することができる。例えば、1つの技法が、AN AUTOMATIC AND ROBUST ALGORITHM OF REESTABLISHMENT OF DIGITAL DENTAL OCCLUSION, by Yu-Bing Chang, James J. Xia, Jaime Gateno, Zixiang Xiong, Fellow, IEEE, Xiaobo Zhou, and Stephen T.C. Wong in IEEE TRANSACTIONS ON MEDICAL IMAGING, VOL. 29, NO. 9, SEPTEMBER 2010において説明されている。同文献の全体は本明細書において参照により組み込まれる。代替的に、実施形態によっては、咬合方向は、例えば、本明細書において説明されるように、ユーザがマウスまたはタッチスクリーンなどの入力デバイスを用いてディスプレイ上のデジタルモデルを操作することによって指定され得る。実施形態によっては、咬合方向は、例えば、NikolskiyらのPROCESSING DIGITAL DENTAL IMPRESSION、米国特許出願公開第16/451,968号明細書において説明されている咬合軸法を用いて決定することができる。同出願の全体は本明細書において参照により組み込まれる。
2D深度マップは、例えば、zバッファまたは光線追跡法を含む、当該技術分野において既知の任意の技法を用いて生成することができる。例えば、実施形態によっては、コンピュータ実施方法は、例えば、各ピクセル(j,k)の深度を最大長に、およびピクセル色を背景色に初期化することができる。コンピュータ実施方法は、3Dデジタルモデルなどのデジタル表面上へのポリゴンの投影内のピクセルごとに、ピクセル(j,k)に対応する(x,y)におけるポリゴンの深度zを決定することができる。z<ピクセル(j,k)の深度である場合には、このとき、ピクセルの深度を深度zに設定する。「z」は、カメラの中心視軸はカメラのz軸の方向にあるという約束を指すことができるが、必ずしもシーンの絶対的なz軸を指すとは限らない。実施形態によっては、コンピュータ実施方法はまた、例えば、ピクセル色を背景色以外の何らかのものに設定することもできる。実施形態によっては、ポリゴンは、例えば、デジタル三角形であることができる。実施形態によっては、マップ内の深度はピクセルごとのものであることができる。図8は、いくつかの実施形態におけるデジタルモデルの2D深度マップの一例を示す。
訓練データセットを生成するために、訓練データセット内の各2D深度マップ内の各デジタル歯牙をデジタル歯牙バウンディング領域によって標識することができる。図9は、標識付きデジタル歯牙バウンディング領域702を有する2D深度マップ700の一例を示す。2D深度マップ内のデジタル歯牙ごとの標識付きデジタル歯牙バウンディング領域は、実施形態によっては、例えば、ユーザまたは技術者によって手動で、あるいは自動プロセスによって標識され得る。実施形態によっては、コンピュータ実施方法は2D深度マップ訓練セットをニューラルネットワークに提供し、2D深度マップ訓練済みニューラルネットワークを提供することができる。2D深度マップ訓練済みニューラルネットワークは、実施形態によっては、1つまたは複数の2D深度マップを受け取り、2D深度マップ内のデジタル歯牙ごとのデジタル歯牙バウンディング領域を自動的に生成することができる。実施形態によっては、コンピュータ実施方法は、長方形またはボックスとして形状設定された、標識付きデジタル歯牙バウンディング領域を各々有する、1つまたは複数の2D深度マップを用いてYOLOネットワークを訓練することができる。実施形態によっては、コンピュータ実施方法は、それが2D深度マップ内で見えるとおりの各デジタル歯牙の全体形状に従うよう形状設定された、標識付きデジタル歯牙バウンディング領域を各々有する、1つまたは複数の2D深度マップを用いてセマンティックセグメンテーションネットワークを訓練することができる。例えば、実施形態によっては、コンピュータ実施方法は、CNN、U-Net CNN、またはPANニューラルネットワークを訓練することができる。実施形態によっては、訓練データセットは、例えば、10,000個の2D深度マップ画像を含むことができる。例えば、実施形態によっては、他の好適な数の2D深度マップ画像を訓練データセットとして用いることもできる。
訓練後に、実施形態によっては、2D深度マップ訓練済みニューラルネットワークは、デジタル歯列弓を各々有する1つまたは複数の標識のない2D深度マップを受け取り、各デジタル歯列弓の少なくとも部分内のデジタル歯牙ごとのデジタル歯牙バウンディング領域を提供することができる。実施形態によっては、コンピュータ実施方法は、例えば、訓練済みニューラルネットワークを用いて各デジタル歯牙の周りのデジタル歯牙バウンディング領域を大まかに規定することができる。各デジタル歯牙バウンディング領域は、咬合方向から見たときの、各歯の位置の大まかな近似を提供することができる。図10(a)は、各デジタル歯牙の周りのデジタル歯牙バウンディング領域を含む1本または複数本のデジタル歯牙を有するデジタル歯列弓を有するデジタルモデル800の一例を示す。本例では、デジタル歯牙バウンディング領域は、咬合方向806から見たときのデジタル歯牙804の境界となるデジタルバウンディングボックス802である。バウンディングボックス802が示されているが、各デジタル歯牙バウンディング領域は、実施形態によっては、特定のデジタル歯牙の境界となるための任意の好適な形状および/またはサイズのものであることができる。
実施形態によっては、2D深度マップ訓練済みニューラルネットワークは、上述されたとおりの2D深度マップ訓練済み畳み込みニューラルネットワークである。実施形態によっては、2D深度マップ訓練済みCNNは、上述されたとおりの2D深度マップ訓練済みYOLOネットワークであることができる。訓練済み2D深度マップYOLOネットワークは2D深度マップを受け取ることができ、2D深度マップの少なくとも部分内におけるデジタル歯牙ごとのデジタル歯牙バウンディング領域を提供することができる。コンピュータ実施方法は、例えば、実施形態によっては、デジタル歯牙バウンディング領域によって境界された全てのピクセルを固有ラベルでラベル付けすることができる。訓練済み2D深度マップYOLOネットワークによって提供されるデジタル歯牙バウンディング領域は、例えば、デジタル歯牙バウンディングボックスであることができる。
実施形態によっては、2D深度マップ訓練済みニューラルネットワークは2D深度マップ訓練済みセマンティックセグメンテーションネットワークである。実施形態によっては、2D深度マップ訓練済みセマンティックセグメンテーションネットワークは、上述されたとおりの2D深度マップ訓練済みU-Netであることができる。実施形態によっては、2D深度マップ訓練済みセマンティックセグメンテーションネットワークは、上述されたとおりのPANネットワークである。訓練済み2D深度マップセマンティックセグメンテーションネットワークは2D深度マップを受け取ることができ、2D深度マップの少なくとも部分内におけるデジタル歯牙ごとのデジタル歯牙バウンディング領域を提供することができる。コンピュータ実施方法は、例えば、実施形態によっては、デジタル歯牙バウンディング領域によって境界された全てのピクセルを単一のラベルでラベル付けすることができる。訓練済み2D深度マップセマンティックセグメンテーションネットワークによって提供されるデジタル歯牙バウンディング領域は、概して、例えば、2D深度マップ内の対応するデジタル歯牙の形状に従うよう形状設定することができる。それゆえ、訓練済み2D深度マップセマンティックセグメンテーションネットワークはピクセルごとのセグメント化/ラベル付けを提供することができる。
ラベルは、例えば、各歯を別のものと、ならびに/あるいは各歯を周囲の歯齦および歯肉と区別することができる。例えば、YOLOネットワークは訓練および適用がより高速になり得るが、セマンティックセグメンテーションネットワークが提供することができるピクセルごとのラベル付けを提供し得ない。それゆえ、2D深度マップ訓練済みYOLOネットワークは、実施形態によっては、パノラマ画像を生成するためにふさわしくなり得る。しかし、例えば、実施形態によっては、2D深度マップ訓練済みセマンティックセグメンテーションネットワークを、パノラマ画像を生成するために用いることもできる。実施形態によっては、各デジタル歯牙は、そのサイズおよびデジタル歯列弓内の場所に基づいて識別され得る。
実施形態によっては、コンピュータ実施方法はデジタル歯牙バウンディング領域のうちの1つまたは複数を互いに接続することができる。実施形態によっては、コンピュータ実施方法はバウンディング領域中心のうちの1つまたは複数を互いに接続することができる。実施形態によっては、コンピュータ実施方法は各デジタル歯牙バウンディング領域の中心を決定することができる。デジタル歯牙バウンディング領域中心は、例えば、実施形態によっては、デジタル歯牙バウンディング領域の幾何学中心であることができる。図10(b)は、デジタル歯牙バウンディング領域がデジタル歯牙804のためのデジタルバウンディングボックス802である一例を示す。コンピュータ実施方法はデジタルバウンディングボックス中心808を決定することができる。デジタルバウンディングボックス中心808は、例えば、実施形態によっては、デジタルバウンディングボックス802の幾何学中心であることができる。図10(c)は、デジタルバウンディングボックス802のデジタルバウンディングボックス中心808などの図10(a)からのデジタルモデル800のデジタルバウンディングボックス中心の一例を示す。
実施形態によっては、コンピュータ実施方法は、スプラインを、1つまたは複数のデジタル歯牙バウンディング領域中心を通過させることによって、近傍のデジタル歯牙バウンディング領域中心を接続することができる。実施形態によっては、コンピュータ実施方法は、スプラインが滑らかな凸包を形成するよう、スプラインを通過させるための1つまたは複数のデジタル歯牙バウンディング領域中心を選択することができる。実施形態によっては、コンピュータ実施方法はスプラインを、デジタル歯牙バウンディング領域中心の全てを通過させることができる。実施形態によっては、スプラインは平滑スプラインであることができる。実施形態によっては、近傍のデジタル歯牙バウンディング領域は互いに隣接している。これは、デジタル歯牙バウンディング領域が、近傍の、または隣接した歯群のものであるためであり得る。2つのデジタル歯牙バウンディング領域中心の間のスプラインは当該技術分野において既知の任意の技法を用いて決定することができる。例えば、2つのデジタル歯牙バウンディング領域中心の間の好適なスプラインは3次エルミートスプラインを含むことができる。3次エルミートスプラインは、例えば、実施形態によっては、隣接したデジタル歯牙バウンディング領域中心の位置、および2つのデジタル歯牙バウンディング領域中心の各々における1次導関数を含むことができる。それゆえ、コンピュータ実施方法は、デジタル歯牙バウンディング領域中心のうちの2つ以上を通る連続スプラインを形成するよう互いに接続された1つまたは複数のスプラインを提供することができる。コンピュータ実施方法は当該技術分野において既知の任意の技法を用いてスプラインを決定することができる。例えば、実施形態によっては、スプラインは、あらゆる中心点における接線を決定し、次に、あらゆる2つのデジタル歯牙バウンディング領域中心の間におけるスプラインをベジエ曲線として構築することによって決定することができる。実施形態によっては、デジタル歯牙バウンディング領域中心が1つの隣接した近傍のデジタル歯牙バウンディング領域中心のみを有する場合には、コンピュータ実施方法は直線を滑らかに延長し、隣接した近傍のデジタル歯牙バウンディング領域中心を有しない側でスプラインを連続させることができる。
図10(d)は、第1のスプライン812によって互いに接続された第1のバウンディングボックス中心808および第2のバウンディングボックス中心810などの1つまたは複数のデジタル歯牙バウンディング領域中心の一例を示す。図はまた、第2のスプライン814が第2のデジタルバウンディングボックス中心810を第3のデジタルバウンディングボックス中心816と接続する様子も示している。一方の隣接者を欠く、第1のバウンディングボックス中心808の場合には、コンピュータ実施方法は第1のスプライン812を直線824において延長することができる。同様に、一方の隣接者を欠く、最後のバウンディングボックス中心822の場合には、コンピュータ実施方法は最後のスプライン826を直線828において延長することができる。コンピュータ実施方法は、このように、近傍のデジタルバウンディングボックス中心を接続して連続スプライン820にすることができる。上述されたように、スプラインは連続平滑スプラインであることができる。
実施形態によっては、コンピュータ実施方法はスプライン上の1つまたは複数の点をサンプリングすることができる。実施形態によっては、コンピュータ実施方法は、パノラマ画像内の所望の列の数に基づいてサンプリングするべき点の数を決定することができる。例えば、実施形態によっては、サンプル点の数は、実施形態によっては、列の数と同じであることができる。コンピュータ実施方法は、実施形態によっては、ユーザ設定可能な数のサンプル点をサンプリングすることができる。サンプルの数は、実施形態によっては、構成ファイルから設定され、ロードされるか、またはユーザが入力デバイスを用いて値をGUIの入力フィールドに入力することによって設定され得る。サンプルの数は任意の好適な値であることができ、より高いサンプリング数は、より高い解像度のパノラマ画像に対応し、より低いサンプリング数は、より低い解像度であるが、より高速に生成されるパノラマ画像に対応する。一例として、サンプリング点の数は2048であることができる。図11は、デジタルモデル906上に投影された連続平滑スプライン904上のサンプリング点902の一例を示す。
実施形態によっては、コンピュータ実施方法は、スプライン上のサンプリング点に対応するサンプリングデジタル表面点を決定することができる。実施形態によっては、コンピュータ実施方法は、サンプリング点を3Dデジタルモデル上に投影することによってサンプリングデジタル表面点を決定することができる。図12(a)は、3Dデジタルモデル1006のための連続平滑スプライン1004上のサンプリング点に対応するサンプルデジタル表面点1002の一例を示す。実施形態によっては、コンピュータ実施方法は、スプライン上のサンプリング点においてスプラインと直交し、デジタルモデル内の咬合方向と平行なサンプル平面を決定し、スプライン上のサンプリング点における平面とデジタル表面との交差を決定することによって、スプライン上のサンプリング点に対応するサンプリングデジタル表面点を決定することができる。例えば、図12(a)に例示されるように、コンピュータ実施方法は、サンプリングデジタル表面点1002において連続平滑スプライン1004と直交し、咬合方向1010と平行であるサンプル平面1008を決定することができる。
実施形態によっては、コンピュータ実施方法は、サンプリングデジタル表面点に関連付けられた1つまたは複数のデジタル表面点を決定することができる。実施形態によっては、コンピュータ実施方法は、サンプリングデジタル表面点ごとに、サンプリングデジタル表面点において連続平滑スプラインと直交し、デジタルモデル内の咬合方向と平行なサンプル平面を決定するか、または決定されたサンプル平面を用いることができる。
実施形態によっては、コンピュータ実施方法は、サンプリングデジタル表面点を、サンプリングデジタル表面点深度光線に沿ってサンプル深度点までサンプリングデジタル表面点深度分、咬合方向に沿って下方へ移動させることができる。例えば、コンピュータ実施方法は、サンプリングデジタル表面点1002を、サンプル点深度光線1012に沿ってサンプル深度点1014へ、実施形態によっては、咬合方向1010に沿ってサンプル点深度光線1012に沿って下方へ移動させることができる。サンプル点深度光線は、実施形態によっては、咬合方向と平行であることができる。実施形態によっては、コンピュータ実施方法はサンプリングデジタル表面点をサンプル平面内で移動させることができる。例えば、サンプリングデジタル表面点1002はサンプル平面1008内で移動させられ得る。実施形態によっては、サンプル点深度は、例えば、サンプリングデジタル表面点から咬合方向に沿って15mmであることができる。他の好適なサンプル点深度を用いることもできる。
実施形態によっては、コンピュータ実施方法はサンプル深度点からデジタル表面への1本または複数本の光線を決定し、サンプリングデジタル表面点に関連付けられた1つまたは複数のデジタル表面点を決定することができる。実施形態によっては、コンピュータ実施方法は、光線を、サンプル平面内でサンプル深度点から3Dデジタルモデルのデジタル表面へサンプル点深度光線に対して異なる角度で延ばすことによって、1本または複数本の光線を決定することができる。実施形態によっては、コンピュータ実施方法は傾斜角範囲内で傾斜角を形成することができる。実施形態によっては、傾斜角範囲はサンプル点深度光線に対して-45度~+45度であることができる。傾斜角範囲は、例えば、コンピュータ実施方法が読み込むことができる構成ファイル内で設定され得るユーザ設定可能な値であり、および/または例えば、ユーザがGUIの使用を通じて入力デバイスを用いることによって入力され得る。実施形態によっては、コンピュータ実施方法は、パノラマ画像内の所望の行の数に基づいて生成するべきサンプル深度点からの光線の数を決定することができる。実施形態によっては、コンピュータ実施方法はサンプル深度点からの光線の数をパノラマ画像内の所望の行の数に設定することができる。実施形態によっては、コンピュータ実施方法はサンプル深度点からの1本または複数本の光線のための傾斜角増分を決定することができる。実施形態によっては、傾斜角増分は(総傾斜角範囲)/(所望の列の数)として決定することができる。例えば、所望の列の数が320に設定され、総傾斜角範囲が-45度~+45度に設定される場合には、このとき、傾斜角増分は(90度)/(320)になり、これは0.28度になるであろう。
実施形態によっては、コンピュータ実施方法は、サンプル点深度光線を形成し、およびサンプル点深度光線の両側の1つまたは複数の傾斜角を傾斜角増分の倍数として決定し、サンプル深度点から3Dデジタルモデルの少なくともデジタル表面へ延びる1本または複数本の光線を決定することができる。本例では、コンピュータ実施方法は1本または複数本の光線をサンプル点深度光線の両側において0.28度の倍数として決定するであろう。1本または複数本の光線は、例えば、実施形態によっては、サンプル平面内にあることができる。コンピュータ実施方法は、サンプリングデジタル表面点に関連付けられたデジタル表面点を、光線と交差するデジタル表面点として決定することができる。コンピュータ実施方法は、サンプル点深度光線の両側で範囲の終了に達するまで、1本または複数本の光線およびそれらの対応する交差デジタル表面点を決定することができる。
例えば、図12(a)に例示されるように、コンピュータ実施方法は、サンプル点深度光線1012から第1の正の傾斜角1018をなす第1の正の傾斜角の光線1016、およびサンプル点深度光線1012から第1の負の傾斜角をなす第1の負の傾斜角の光線1020を決定することができる。第1の正の傾斜角1018および第1の負の傾斜角は、それらはどちらも、光線が延ばされる第1の傾斜角であるため、傾斜角増分値であることができる。第2の正および負の傾斜角の光線は、サンプル点深度光線1012からプラス/マイナス2*(傾斜角増分)の角度をなし、第3の正および負の傾斜角の光線は、サンプル点深度光線1012からプラス/マイナス3*(傾斜角増分)の角度をなす、などとなるであろう。コンピュータ実施方法は第1の正の傾斜角の光線1016とデジタルモデル1006のデジタル表面との交点における第1のデジタル表面点1022を決定することができ、第1の負の傾斜角の光線1020とデジタルモデル1006のデジタル表面との交点における第2のデジタル表面点1024を決定することができる。第1のデジタル表面点1022および第2のデジタル表面点1024はサンプリングデジタル表面点1002に関連付けられ得る。単一のサンプル点および2つの光線のみが例示のために示されているが、異なる角度をなすさらに多くの光線が可能である。実施形態によっては、スプライン上のサンプル点の数は、例えば、2100であることができ、光線の数は、例えば、320であることができる。例えば、図12(b)は、スプライン1054上でサンプリングされたサンプル点1052などの追加のサンプル点を有するデジタルモデル1050を示す。サンプル点1052は、サンプル点1052に対応する深度点から延びる光線1056などの1本または複数本の光線を有することができる。図12(c)は、サンプル点1052のためのサンプル深度点から延びる光線1056などの複数本の光線を示す。
実施形態によっては、パノラマ画像の中心行がサンプリングデジタル表面点を含むことができる。実施形態によっては、各サンプリングデジタル表面点およびその関連デジタル表面点はパノラマ画像内の列であることができる。実施形態によっては、中心行の一方の側の行は、正の傾斜角の光線に対応するデジタル表面点を含むことができ、中心行の他方の側の行は、負の傾斜角の光線に対応するデジタル表面点を含むことができる。実施形態によっては、全てのサンプリングデジタル表面点のための光線を構築するために同じ傾斜角増分値を用いることができる。実施形態によっては、各サンプリングデジタル表面点のサンプル深度点の深度は同じである。実施形態によっては、中心行は、サンプル点深度光線に対して0の傾斜角をなす光線に対応する。
図13は、例示のみを目的として示されるパノラマ画像の一例を示す。中心行1102は、例えば、サンプリングデジタル表面点1103などの、サンプリングデジタル表面点を含むことができる。列1105内のデジタル表面点は、サンプリングデジタル表面点1103に関連付けられたデジタル表面点である。コンピュータ実施方法は、サンプリングデジタル表面点1103のサンプル深度点から傾斜角増分の異なる倍数をなして延びる光線から列1105内のデジタル表面点を決定することができる。実施形態によっては、例えば、行1104内のデジタル表面点は、正の傾斜角の光線から決定されたものであることができ、行1106内のデジタル表面点は、負の傾斜角の光線から決定されたデジタル表面点であることができる。例えば、第1の正の行1110は、サンプル点深度光線に対して
傾斜角=1*(傾斜角増分)
を有する第1の正の光線と交差するデジタル表面点を含むことができる。例えば、第1の負の行1112は、サンプル点深度光線に対して
傾斜角=-1*(傾斜角増分)
を有する第1の負の光線と交差するデジタル表面点を含むことができる。実施形態によっては、傾斜角増分は、構成ファイル内で、またはユーザが、例えば、GUIを用いることによって編集可能な入力フィールドを通じて指定され得る。コンピュータ実施方法は、例えば、実施形態によっては、設定された傾斜角増分から行の数を決定することができる。
パノラマ画像はサンプリングデジタル表面点ごとの深度情報およびその関連デジタル表面点を包含することができる。実施形態によっては、コンピュータ実施方法はデジタル表面点の深度をデジタル表面点からサンプル深度点までのその対応する光線の長さとして決定することができる。実施形態によっては、コンピュータ実施方法はサンプリング/関連デジタル表面点の深度を、サンプリング/関連デジタル表面点からサンプル深度点まで延びるサンプル点深度光線の長さとして決定することができる。実施形態によっては、コンピュータ実施方法はパノラマ画像の各ピクセルの深度を記憶することができる。実施形態によっては、コンピュータ実施方法は深度情報を輝度として記憶することができる。例えば、実施形態によっては、より明るい色のピクセルは、カメラ視野により近いデジタル表面領域を表し、より暗い色のピクセルは、カメラ視野からより遠いデジタル表面領域を表す。図14は、深度情報を有するパノラマ画像の一例を示す。例えば、より暗い領域1202は、より明るい領域1204などのより明るい領域よりもカメラから遠い。代替的に、実施形態によっては、より明るい色のピクセルは、カメラ視野からより遠いデジタル表面領域を表すことができ、より暗い色のピクセルは、カメラにより近いデジタル表面領域を表すことができる。
正および負の傾斜角の呼称は、サンプル点深度光線の一方の側の光線を他方の側の光線と区別するために用いられており、呼称は入れ替えることができることが留意される。例えば、実施形態によっては、行1104内のデジタル表面点は、負の傾斜角の光線から決定されたものであることができ、行1106内のデジタル表面点は、正の傾斜角の光線から決定されたデジタル表面点であることができる。
パノラマ画像を用いる少なくとも1つの利点は、例えば、光線が、例えば、正射影図の場合のように平行になり、斜視図の場合のように発散する代わりに、各歯の歯根に向かって集束するため、歯牙-歯肉境界の視認性の改善を含むことができる。これは、歯群、および歯肉などの、他の領域の境界の精度を改善することができる。
ラベル付け
コンピュータ実施方法のいくつかの実施形態は、訓練済みニューラルネットワークを用いて、入力画像の1つまたは複数の領域をラベル付けし、ラベル付き画像を提供することを含むことができる。
実施形態によっては、訓練済みニューラルネットワークは任意の種類のニューラルネットワークであることができる。実施形態によっては、ニューラルネットワークは、例えば、上述されたとおりのCNNであることができる。実施形態によっては、ニューラルネットワークは、例えば、上述されたとおりのYOLOニューラルネットワークであることができる。実施形態によっては、ニューラルネットワークは、例えば、セマンティックセグメンテーションネットワークであることができる。実施形態によっては、セマンティックセグメンテーションネットワークは、例えば、上述されたとおりのU-Netニューラルネットワークであることができる。実施形態によっては、セマンティックセグメンテーションは、例えば、上述されたとおりのPANニューラルネットワークであることができる。
実施形態によっては、ニューラルネットワークは、各デジタル歯牙が、例えば、標識付きデジタル歯牙バウンディング領域で標識されている、1本または複数本のデジタル歯群を含むことができるデジタル歯列の少なくとも部分の1つまたは複数の画像を含むことができる訓練データセットを提供することによって訓練することができる。実施形態によっては、訓練データセットは、各デジタル歯牙が、標識付きデジタル歯牙バウンディング領域で標識されている、1つまたは複数のパノラマ画像を含むことができる。パノラマ訓練データセットを用いて訓練されたニューラルネットワークはパノラマ画像訓練済みニューラルネットワークになることができる。
実施形態によっては、標識付きデジタル歯牙バウンディング領域は、例えば、長方形状境界であることができる。しかし、他の形状を標識付きデジタル歯牙バウンディング領域として用いることもできる。訓練データセット内の各画像内の各デジタル歯牙はデジタル歯牙バウンディング領域で標識されている。図15は、標識付きデジタル歯牙バウンディング領域1302を有するパノラマ画像1300の一例を示す。パノラマ画像内のデジタル歯牙ごとの標識付きデジタル歯牙バウンディング領域は、実施形態によっては、手動で、あるいは自動プロセスによって標識され得る。実施形態によっては、訓練データセットは、例えば、パノラマ画像などの、10,000個の画像を含むことができる。例えば、実施形態によっては、他の好適な数のパノラマ画像を訓練データセットとして用いることもできる。任意のニューラルネットワークの訓練は教師ありまたは教師なしであることができる。
実施形態によっては、YOLOネットワークは、それに、長方形またはボックスとして形状設定された標識付きデジタル歯牙バウンディング領域を提供することによって訓練することができる。実施形態によっては、U-NetまたはPANニューラルネットワークなどのセマンティックセグメンテーションネットワークは、それらに、パノラマ画像内の各デジタル歯牙の形状に従うよう標識された標識付きデジタル歯牙バウンディング領域を提供することによって訓練することができる。
実施形態によっては、訓練済みニューラルネットワークは、例えば、上述されたとおりのパノラマ画像訓練済みCNNであることができる。実施形態によっては、訓練済みニューラルネットワークは、例えば、上述されたとおりのパノラマ画像訓練済みYOLOニューラルネットワークであることができる。実施形態によっては、訓練済みニューラルネットワークは、例えば、パノラマ画像訓練済みセマンティックセグメンテーションネットワークであることができる。実施形態によっては、訓練済みセマンティックセグメンテーションネットワークは、例えば、上述されたとおりのパノラマ画像訓練済みU-Netニューラルネットワークであることができる。実施形態によっては、訓練済みセマンティックセグメンテーションは、例えば、上述されたとおりのパノラマ画像訓練済みPANニューラルネットワークであることができる。代替的に、実施形態によっては、訓練済みニューラルネットワークは2D深度マップ訓練済みニューラルネットワークであることができる。
パノラマ画像が例として説明されているが、実施形態によっては、訓練データセットは、代替的に、各デジタル歯牙が標識付きデジタル歯牙バウンディング領域で標識された1つまたは複数の2D深度マップを含むことができる。2D深度マップ訓練データセットを用いて訓練されたニューラルネットワークは2D深度マップ訓練済みニューラルネットワークになることができ、例えば、訓練データセットが1つまたは複数の2D深度マップを含むことを除いて、例えば、パノラマ画像に関して説明されたのと同じ仕方で訓練することができる。
実施形態によっては、コンピュータ実施方法は訓練済みニューラルネットワークを用いて入力画像の1つまたは複数の領域をラベル付けし、ラベル付き画像を提供することができる。例えば、実施形態によっては、コンピュータ実施方法は入力画像を受け取り、1つまたは複数の訓練済みニューラルネットワークを用いて、入力画像の1つまたは複数の領域をラベル付けし、ラベル付き画像を提供することができる。実施形態によっては、訓練済みニューラルネットワークはパノラマ画像訓練済みニューラルネットワークであることができる。実施形態によっては、コンピュータ実施方法はパノラマ画像を受け取り、1つまたは複数のパノラマ訓練済みニューラルネットワークを用いて、パノラマ画像の1つまたは複数の領域をラベル付けし、ラベル付きパノラマ画像を提供することができる。
代替的に、実施形態によっては、コンピュータ実施方法は2D深度マップを受け取り、1つまたは複数の2D深度マップ訓練済みニューラルネットワークを用いて、2D深度マップの1つまたは複数の領域をラベル付けし、ラベル付き2D深度マップを提供することができる。
実施形態によっては、訓練済みニューラルネットワークは1つまたは複数の画像を受け取り、画像内のデジタル歯牙ごとのデジタル歯牙バウンディング領域を生成することができる。コンピュータ実施方法は、例えば、実施形態によっては、デジタル歯牙バウンディング領域によって境界された全てのピクセルを固有ラベルでラベル付けすることができる。例えば、実施形態によっては、パノラマ画像訓練済みニューラルネットワークは1つまたは複数のパノラマ画像を受け取り、パノラマ画像内のデジタル歯牙ごとのデジタル歯牙バウンディング領域を自動的に生成することができる。
例えば、実施形態によっては、パノラマ画像訓練済みYOLOネットワークはパノラマ画像を受け取ることができ、パノラマ画像の少なくとも部分内のデジタル歯牙ごとのデジタル歯牙バウンディング領域を提供することができる。コンピュータ実施方法は、例えば、実施形態によっては、デジタル歯牙バウンディング領域によって境界された全てのピクセルを固有ラベルでラベル付けすることができる。パノラマ画像訓練済みYOLOネットワークによって提供されるデジタル歯牙バウンディング領域は、例えば、デジタル歯牙バウンディングボックスであることができる。例えば、パノラマ画像訓練済みYOLOネットワークは、図14に例示されるパノラマ画像を受け取り、デジタルバウンディング領域1402などの、1つまたは複数のデジタルバウンディング領域を含むことができる図16(a)に例示されるとおりのラベル付きパノラマ画像を出力することができる。コンピュータ実施方法は、例えば、実施形態によっては、デジタル歯牙バウンディング領域によって境界された全てのピクセルを固有ラベルでラベル付けし、ピクセルごとのラベル付けを提供することができる。これは、ニューラルネットワークセグメント化、または大まかなセグメント化とも称され得る。
実施形態によっては、U-NetニューラルネットワークまたはPANニューラルネットワークなどのパノラマ画像訓練済みセマンティックセグメンテーションネットワークはパノラマ画像を受け取ることができ、パノラマ画像の少なくとも部分内のデジタル歯牙ごとのデジタル歯牙バウンディング領域を提供することができる。例えば、U-NetまたはPANなどのパノラマ画像訓練済みセマンティックセグメンテーションネットワークは、図14に例示されるパノラマ画像を受け取り、デジタル歯牙バウンディング領域1404などの図16(b)に例示されるとおりのラベル付きパノラマ画像を出力することができる。コンピュータ実施方法は、例えば、実施形態によっては、デジタル歯牙バウンディング領域によって境界された全てのピクセルを固有ラベルでラベル付けし、ピクセルごとのラベル付けを提供することができる。これは、ニューラルネットワークセグメント化、または大まかなセグメント化とも称され得る。
実施形態によっては、2D深度マップ訓練済みニューラルネットワーク(例えば、CNN、YOLO、セマンティックセグメンテーション、または任意の他の種類のニューラルネットワーク)は2D深度マップ画像を受け取ることができ、パノラマ画像訓練済みニューラルネットワークに関して説明されたようにパノラマ画像の少なくとも部分内のデジタル歯牙ごとのデジタル歯牙バウンディング領域を提供することができる。コンピュータ実施方法は、例えば、実施形態によっては、デジタル歯牙バウンディング領域によって境界された全てのピクセルを固有ラベルでラベル付けすることができる。
実施形態によっては、ラベルを有する2Dラベルマップは2D深度マップと同じ寸法のものであることができる。
実施形態によっては、コンピュータ実施方法は、ラベル付きパノラマ画像の1つまたは複数の領域を3Dデジタルモデル内の1つまたは複数の対応する粗いデジタル表面ポリゴンラベルにマッピングし、ラベル付き3Dデジタルモデルを提供することを含むことができる。実施形態によっては、コンピュータ実施方法は仮想光線を2Dラベルマップの各ピクセルに通し、光線が通り抜けたデジタル表面ポリゴンにピクセルラベルと同じラベルをラベル付けすることができる。実施形態によっては、コンピュータ実施方法は仮想光線をあらゆるデジタル表面ポリゴンに通し、それが通過するピクセルのラベルに基づいて各デジタル表面ポリゴンをラベル付けすることができる。実施形態によっては、コンピュータ実施方法は2D画像からの全てのラベル付き領域を、任意の不確実領域を含む、3Dデジタルモデルメッシュに投影することができる。実施形態によっては、コンピュータ実施方法は1つまたは複数のラベルなしデジタル表面ポリゴンを、最も近いデジタル表面ポリゴンと同じラベルでラベル付けすることができる。実施形態によっては、デジタル表面ポリゴンは、例えば、デジタル表面三角形であることができる。
実施形態によっては、このマッピングは、例えば、ラベル付きパノラマ画像デジタル歯牙境界領域を3Dデジタルモデル上に投影することを含むことができる。実施形態によっては、コンピュータ実施方法はデジタル歯牙バウンディングボックスを角柱として投影することができる。パノラマ画像は、光線を用いて3Dデジタルモデルから生成されたため、コンピュータ実施方法は同じ光線を用いてデジタル歯牙バウンディングボックスを3Dデジタルモデルに逆にマッピングすることができる。実施形態によっては、コンピュータ実施方法は各デジタル歯牙バウンディングボックスの4つの隅部を決定することができる。隅部ごとに、コンピュータ実施方法は、実施形態によっては、隅部を通過する光線を決定することができる。実施形態によっては、コンピュータ実施方法は、実施形態によっては、平面内の光線の各セットをそれらの対応する深度点に接続することができる。実施形態によっては、コンピュータ実施方法は、構築された角柱内にあるあらゆるデジタル表面を、例えば、単一の歯に属するものとして粗くラベル付けされるようラベル付けすることができる。実施形態によっては、コンピュータ実施方法は、構築された角柱内にあるあらゆるデジタル表面ポリゴン(実施形態によっては、デジタル表面三角形であることができる)を同じラベルでラベル付けすることができる。実施形態によっては、コンピュータ実施方法は、各構築された角柱を異なるラベルでラベル付けすることができる。実施形態によっては、コンピュータ実施方法は、ボックス内のあらゆる光線と交差するデジタル表面を個々にラベル付けすることができる。
図17はマッピングのいくつかの実施形態における一例を示す。図に例示されるように、マッピングは、例えば、例として、デジタル歯牙バウンディングボックス1502などのラベル付きパノラマ画像デジタル歯牙境界領域を、例えば、3Dデジタルモデル1500などの、3Dデジタルモデル上に投影することを含むことができる。コンピュータ実施方法はデジタル歯牙バウンディングボックス1502の第1のデジタル歯牙バウンディングボックス隅部1504を決定することができる。コンピュータ実施方法は、第1の光線1506を、第1のデジタル歯牙バウンディングボックス隅部1504へ延び、および/またはそれを通って延びる光線として決定することができる。同様に、コンピュータ実施方法は第2のデジタル歯牙バウンディングボックス隅部1508を決定することができる。コンピュータ実施方法は、第2の光線1510を、第2のデジタル歯牙バウンディングボックス隅部1508へ延び、および/またはそれを通って延びる光線として決定することができる。構成により、第1の光線1506および第2の光線1510は、パノラマ画像の生成に関する本開示のセクションにおいて説明されるように、同じ平面内にある。パノラマ画像内において、例えば、第1の光線1506および第2の光線1510は同じ列内にある。したがって、第1の光線1506および第2の光線1510は深度点1512において会する。コンピュータ実施方法は、対応する第3の光線1516を伴う第3のデジタル歯牙バウンディングボックス隅部1513、および対応する第4の光線1520を伴う第4のデジタル歯牙バウンディングボックス隅部1518を同様に決定することができる。第3の光線1516および第4の光線1520は構成により同じ平面内にあり、したがって、それらの独自の対応する深度点において会する。実施形態によっては、コンピュータ実施方法は、角柱内にあるあらゆるデジタル表面点を、例えば、同じラベルでラベル付けすることができる。実施形態によっては、コンピュータ実施方法はデジタル歯牙バウンディングボックス内のあらゆる光線を個々にラベル付けすることができる。実施形態によっては、コンピュータ実施方法は、ボックスの内側部分を経由する光線をラベル付けすることができる。
実施形態によっては、コンピュータ実施方法は1つまたは複数の不確実領域を決定することができる。不確実領域は、ニューラルネットワークが、1つまたは複数の領域をラベル付けするために十分な情報を提供しない場合、またはニューラルネットワークが、信頼できない情報を生成する場合に生じ得る。これは、例えば、デジタル歯牙バウンディング領域の辺において発生し得る。実施形態によっては、コンピュータ実施方法は、パノラマ画像または2D深度マップのために、例えば、デジタル歯牙バウンディング領域内の表面点の任意の境界からユーザ設定可能な不確実領域バッファ距離内にある全てのデジタル表面点を1つまたは複数の不確実領域の部分として決定することができる。YOLOネットワークの場合には、例えば、デジタル歯牙バウンディング領域はデジタル歯牙バウンディングボックスであることができる。距離は、実施形態によっては、デジタル表面に沿ったものである。実施形態によっては、不確実領域バッファ距離は、例えば、6mmであることができる。他の好適な距離を用いることもでき、不確実領域バッファ距離は、例えば、記憶され、構成ファイルからロードされるか、または例えば、実施形態によっては、ユーザが入力デバイスを用いることによって、グラフィカルユーザインターフェース(Graphical User Interface)(「GUI」)に入力され得る、ユーザ設定可能な値であることができる。
不確実領域は、例えば、ニューラルネットワークに与えられた画像上で視認可能でない全てのデジタル表面ポリゴン(例えば、デジタル表面三角形)のために生じ得る。上述されたように、コンピュータ実施方法は、実施形態によっては、不確実領域を説明することができる。例えば、実施形態によっては、コンピュータ実施方法は不確実領域をラベルなしのまま残すか、またはそれらを不確実領域であるとラベル付けすることができる。図18(a)は、コンピュータ実施方法が不確実領域を識別する様子の一例を示す。図において、訓練済みニューラルネットワークはデジタル歯牙境界領域1602などのデジタル歯牙境界領域を決定することができる。コンピュータ実施方法は、例えば、ポリゴンが全て視認可能である、確実領域1604などの、デジタル歯牙境界領域1602内の確実領域をラベル付けすることができる。コンピュータ実施方法は、距離1605に基づく不確実領域1606および距離1603に基づく不確実領域1607などの、不確実領域を決定し、例えば、不確実領域をラベルなしとして残すか、またはそれを不確実としてラベル付けすることによって、領域を不確実として指示することができる。16(b)は、2D画像をラベル付き3Dデジタルモデルにマッピングする様子を示す。ラベル付き3Dデジタルモデルにおいて、コンピュータ実施方法は、第1のラベル付きデジタル表面領域1614、ラベルなし(もしくは不確実としてラベル付けされた)領域1616、および第2のラベル付きデジタル表面領域1618を決定することができる。例えば、第3のラベル付きデジタル表面領域1620等などの、追加のラベル付き領域が存在することもできる。不確実領域は、実施形態によっては、セグメンテーションの間にラベル付き領域に変換することができる。例えば、コンピュータ実施方法は、実施形態によっては、幾何学的セグメンテーションの間に不確実領域をラベル付けすることができる。
実施形態によっては、コンピュータ実施方法はラベル付き3Dデジタルモデルをセグメント化し、セグメント化3Dデジタルモデルを提供することができる。実施形態によっては、コンピュータ実施方法は、ニューラルネットワークがパノラマ画像/2D深度マップからラベル付きパノラマ画像/2Dラベルマップを生成した後に、3Dデジタルモデルをセグメント化することができる。実施形態によっては、コンピュータ実施方法は、当該技術分野において既知の任意の種類のセグメンテーション技法を用いてラベル付き3Dデジタルモデルからセグメント化3Dデジタルモデルを生成することができる。実施形態によっては、コンピュータ実施方法は、例えば、曲率ベースのセグメンテーションを遂行することができる。
実施形態によっては、コンピュータ実施方法はモルフォロジー収縮操作を1つまたは複数のラベル付き領域に適用することができる。1つまたは複数のラベル付き領域は、実施形態によっては、ラベル付き歯肉領域を含むことができる。実施形態によっては、コンピュータ実施方法はモルフォロジー収縮操作を2Dラベルマップまたはラベル付き3Dデジタルモデルのどちらかに対して遂行することができる。実施形態によっては、コンピュータ実施方法は以下のようにモルフォロジー収縮操作を2Dラベルマップに対して遂行することができる:2Dラベルマップのピクセルのために、ユーザ設定可能な半径(例えば、5ピクセル)内の1つまたは複数の近くのピクセルを評価し、1つまたは複数の近くのピクセルが同じラベルを有しない場合には、このとき、コンピュータ実施方法は特定のピクセルおよびその周囲のピクセルをラベルなしとして指定することができる。実施形態によっては、コンピュータ実施方法はこのプロセスを2Dラベルマップの1つまたは複数のピクセルのために繰り返すことができる。実施形態によっては、コンピュータ実施方法は以下のようにモルフォロジー収縮操作をラベル付き3Dデジタルモデルに対して遂行することができる:ラベル付き3Dデジタルモデルの特定のポリゴン(例えば、デジタル三角形など)のために、特定のポリゴン(例えば、デジタル三角形)のユーザ設定可能な半径(例えば、5mm)内の1つまたは複数の近くのポリゴン(例えば、デジタル三角形など)を評価し、1つまたは複数の近くのポリゴンが同じラベルを有しない場合には、このとき、コンピュータ実施方法は特定のポリゴンおよびその周囲のポリゴンをラベルなしとして指定することができる。実施形態によっては、コンピュータ実施方法はこのプロセスをラベル付き3Dデジタルモデルの1つまたは複数のポリゴンのために繰り返すことができる。実施形態によっては、コンピュータ実施方法はモルフォロジー収縮操作を、歯肉領域を含む、あらゆるラベル付き領域に適用することができる。
実施形態によっては、1つまたは複数のラベルなしデジタル表面ポリゴンが残り得る。1つまたは複数のラベルなしデジタル表面ポリゴンは、デジタル表面ポリゴンの総数がピクセルの数よりも多い場合に生じ得る。1つまたは複数のラベルなしデジタル表面ポリゴンは、ラベルを決定することができなかった1つまたは複数の塞がれたデジタル表面ポリゴンによって生じ得る。1つまたは複数のラベルなしデジタル表面ポリゴンはモルフォロジー収縮によって生じ得る。
曲率ベースのセグメンテーション
実施形態によっては、曲率ベースのセグメンテーションはデジタルモデル内のデジタル表面領域の曲率決定を含むことができる。実施形態によっては、コンピュータ実施方法はデジタルモデルを受け取り、デジタル表面領域の曲率を決定することができる。コンピュータ実施方法は任意の技法を用いてデジタル表面領域の曲率を決定することができる。実施形態によっては、曲率決定はコンピュータ実施方法によって自動的に遂行され得る。
実施形態によっては、デジタル表面領域は三角形を含む。三角形の曲率は、三角形の辺の曲率の平均、または三角形の頂点の曲率の平均を取ることによって決定することができる。
実施形態によっては、コンピュータ実施方法は、その辺の曲率の平均を取ることによって三角形の曲率を決定することができる。図19は、2つの三角形1788および1790を接続する辺1786における曲率を決定する一例を示す。実施形態によっては、コンピュータ実施方法は、図示のように、デジタル表面メッシュ内の特定の三角形1790とその隣接した近傍の三角形1788との間の辺1786において形成された二面角1792に基づいて辺1786における曲率を決定することができる。二面角1792は、2つの隣接した三角形1790および1788によって形成された辺1786と垂直である第3の平面1794内で2つの隣接した三角形1788および1790の間に形成された角度としてコンピュータ実施方法によって決定され得る。例えば、実施形態によっては、コンピュータ実施方法はsin(φ)を取ることができる。ここで、φは2つの隣接した三角形1790および1788の間の二面角1792である。コンピュータ実施方法はこの曲率関数を全ての三角形の辺において繰り返すことができる。
代替的に、実施形態によっては、コンピュータ実施方法は、三角形の頂点の曲率の平均を取ることによって三角形の曲率を決定することができる。例えば、実施形態によっては、コンピュータ実施方法は、任意選択的に、探索空間を減少させるために接続情報を用いて、Pの周りの頂点の近傍(サイズN)を選択することによって各頂点Pにおける曲率を決定することができる。コンピュータ実施方法は二次曲面パッチF(x,y,z)=0を点の近傍上に適合させることができる。コンピュータ実施方法はパッチ上へのPの投影Pを決定することができ、これにより、F(P)=0である。コンピュータ実施方法はPにおけるFの曲率特性を決定し、曲率特性をPにあてがうことができる。
実施形態によっては、各データ(x,y,z)がFの表面上に完璧に位置することにならないため、コンピュータ実施方法は、例えば、二次形式ax+by+cz+2exy+2fyz+2gzx+2lx+2my+2nz+d=0を用いることができる。コンピュータ実施方法は、形式A=DDの10x10実対称固有値問題から、パッチ表面(a,b,c,e,f,g,l,m,n,d)の係数を決定することができる。ここで、DはN x10計画行列であり、その各行は
Figure 2023512083000008
によって構築される。ここで、i=1,…,Nである。行列は10個の実固有値および10個の対応する固有ベクトルを有することができる。最も小さい固有値λに対応する固有ベクトルの係数が、Pの周りで点群を局所的に最も良好に近似する二次曲面の係数a、b、c、e、f、g、l、m、n、dである。コンピュータ実施方法は、F(x,y,z)=ax+by+cz+exy+fyz+gxz+lx+my+nz+d=0、Rにおける陰関数二次曲面とし、これにより、1階偏導関数がF=2ax+ey+gz+l、F=2by+ex+fz+m、およびF=2cz+fy+gx+nになるようにすることによって、a、b、c、e、f、g、l、m、nを用いて値E、F、G、L、M、Nを決定する。係数E、F、Gは、
Figure 2023512083000009
Figure 2023512083000010
、および
Figure 2023512083000011
として決定される。2階偏導関数が、Fxx=2a、Fyy=2b、Fzz=2c、Fxy=Fyx=e、Fyz=Fzy=f、およびFxz=Fzx=gであり、勾配の大きさが
Figure 2023512083000012
であるため、このとき、第二基本形式の係数L、M、Nは次式となる:
Figure 2023512083000013
次に、コンピュータ実施方法はE、F、G、L、M、Nから行列AおよびBを:
Figure 2023512083000014
および
Figure 2023512083000015
として決定し、主曲率kおよびkを行列B-1*Aの固有値として決定する。
コンピュータ実施方法は、選択されたスカラ関数を主曲率kおよびkに適用し、選択された曲率関数(selected curvature function)(「SCF」)を決定することができる。例えば、主曲率kおよびkのために、コンピュータ実施方法は、ガウス曲率(K)をK=kとして、または平均曲率(H)をH=1/2(k+k)として決定することができる。
曲率を決定するどちらの方法の半径も、評価対象の頂点の近傍における、平均して、60個を含むそれ以下のデジタル頂点であることができ、ユーザ選択可能な値であることができる。より少数の点およびより小さい半径の選択はより高速な計算をもたらすことができ、その一方で、より多数の点およびより大きい半径を選択することはより精密な曲率の推定を与えることができる。コンピュータ実施方法は、例えば、デジタル表面メッシュの全ての頂点のために繰り返され得る。
実施形態によっては、コンピュータ実施方法はデジタル歯科印象表面全体を1つまたは複数のデジタルセグメントにセグメント化することができる。実施形態によっては、コンピュータ実施方法は曲率ベースのセグメンテーションを用いてデジタル歯科印象表面を3次元(3D)でセグメント化することができる。これは、例えば、ウォーターシェッドセグメンテーションを含むことができる。セグメンテーションは、実施形態によっては、コンピュータ実施方法によって自動的に遂行され得る。
実施形態によっては、デジタル歯科印象表面は、辺および頂点において接続し、デジタル表面メッシュを形成する1つまたは複数の三角形を含むことができる。実施形態によっては、コンピュータ実施方法はデジタル表面メッシュ内のあらゆる三角形の曲率を決定する。コンピュータ実施方法は、上述されたように、特定の三角形の頂点の平均曲率、または特定の三角形の辺の平均曲率のいずれかを決定することによって、各特定の三角形の曲率を決定することができる。
一実施形態では、コンピュータ実施方法は、本開示において上述されたように、特定の三角形の辺の各々における曲率を決定し、辺の曲率の平均を算出することによって、特定の三角形の曲率を決定することができる。図20(a)は、特定の三角形2402が第1の辺2405、第2の辺2407、および2409における第3の辺を含む、辺の曲率の平均を決定するいくつかの実施形態における一例を示す。コンピュータ実施方法は、特定の三角形2402と、隣接した三角形2408との間の二面角に基づいて第1の辺2405における曲率を決定することができる。コンピュータ実施方法は、特定の三角形2402と、隣接した三角形2406との間の本開示において説明されたとおりの二面角に基づいて第2の辺2407における曲率を決定することができる。コンピュータ実施方法は、特定の三角形2402と、隣接した三角形2404との間の二面角に基づいて第3の辺2409における曲率を決定することができる。次に、コンピュータ実施方法は第1の辺2405、第2の辺2407、および2409における第3の辺の曲率の平均を決定し、特定の三角形2402の曲率を決定することができる。コンピュータ実施方法は、実施形態によっては、例えば、特定の三角形2402の曲率をルックアップ表内に記憶することができる。コンピュータ実施方法はデジタル表面メッシュ内のあらゆる三角形を用いてこのプロセスを繰り返し、デジタル表面メッシュ内の各三角形における曲率を決定することができる。
実施形態によっては、コンピュータ実施方法はユーザ選択可能な正または負の符号を各三角形の曲率にあてがうことができる。例えば、曲率が最も凸状の辺に設定される場合には、このとき、任意の凹状領域は負の符号をあてがわれ、任意の凸状領域は正の符号をあてがわれる。曲率が最も凹状の辺に設定される場合には、このとき、任意の凸状領域は負の符号をあてがわれ、任意の凹状領域は正の符号をあてがわれる。凹状/凸状はデジタル表面の法線に対して定義することができる。デジタル表面の外側に向いた表面法線については、コンピュータ実施方法は、例えば、正の値を凸状の辺に、および負の値を凹状の辺にあてがうことができる。デジタル表面の内側に向いた法線については、コンピュータ実施方法は、例えば、正の値を凸状の辺に、および負の値を凹状の辺にあてがうことができる。実施形態によっては、セグメント境界は、デジタル表面に沿った最大曲率に対応する。
各特定の三角形の曲率を決定した後に、コンピュータ実施方法は3D曲率ベースのセグメンテーションに基づいて三角形をセグメント化することができる。実施形態によっては、ウォーターシェッドセグメンテーションが用いられる。例えば、実施形態によっては、コンピュータ実施方法は三角形ごとの曲率を決定する。各三角形の曲率は、実施形態によっては、ルックアップ表内に記憶され得る。コンピュータ実施方法は、評価対象の特定の三角形として、最小曲率を有する三角形から開始することができる。コンピュータ実施方法は、例えば、ルックアップ表から、評価対象の特定の三角形の近傍における三角形の曲率を探索することができる。実施形態によっては、コンピュータ実施方法はルックアップ表から近傍の三角形の曲率を決定することができる。評価対象の特定の三角形よりも大きい曲率を有する任意の近傍の三角形は、評価対象の特定の三角形が属するセグメントに追加することができる。特定の三角形の曲率よりも小さい曲率を有する任意の近傍の三角形は特定の三角形のセグメントに追加されない。次に、コンピュータ実施方法は近傍の三角形を評価対象の次の特定の三角形として選択し、プロセスをあらゆる三角形のために繰り返す。実施形態によっては、セグメントが、あるラベルに帰属させられる十分に大きい数(例えば、過半数または任意の他のユーザ設定可能な値)の三角形を包含する場合には、このとき、コンピュータ実施方法はセグメントをそのラベルに指定することができる。
図20(a)は三角形のウォーターシェッドセグメンテーションのいくつかの実施形態における一例を示す。本明細書において説明されたように、コンピュータ実施方法はデジタル表面メッシュ内の三角形のうちの全ての曲率を決定する。一実施形態では、コンピュータ実施方法は三角形の曲率をルックアップ表内に記憶する。コンピュータ実施方法は、最小曲率を有する三角形、例えば、特定の三角形2402を識別する。実施形態によっては、コンピュータ実施方法は、ルックアップ表を用いて最小曲率を有する三角形を決定することができる。コンピュータ実施方法は近傍の三角形2404、2408、および2406の曲率を決定する。実施形態によっては、コンピュータ実施方法はルックアップ表から近傍の三角形の曲率を決定することができる。本例では、近傍の三角形2406が三角形2402の曲率と比べてより大きい曲率を有する場合には、このとき、近傍の三角形2406は、特定の三角形2402と同じウォーターシェッドの部分と考えることができる。コンピュータ実施方法は、図20(a)に例示されるように、デジタル表面三角形2402を三角形2406と組み合わせ、セグメント2411などの単一のセグメントにする。
次に、コンピュータ実施方法は、例えば、近傍の三角形2404の曲率を特定の三角形2402の曲率と比較することができる。例えば、近傍の三角形2408の曲率が最小曲率(すなわち、2402の曲率)よりも大きい場合には、このとき、三角形2408は、三角形2402を包含するセグメント2411と合併される。図20(b)に例示されるように、三角形2408を合併した後にセグメント2412が形成される。
近傍の三角形が、問題の特定の三角形2402よりも低い曲率を有する場合には、このとき、近傍の三角形はコンピュータ実施方法によって、特定の三角形2402を包含するセグメントと合併されない。例えば、近傍の三角形2404が、三角形2402よりも低い曲率を有する場合には、このとき、2404は、特定の三角形2402が属するセグメント2412と合併されない。
第1の特定の三角形を処理した後に、コンピュータ実施方法は、第1の特定の三角形の近傍の三角形であることができる新たな特定の三角形に移る。コンピュータ実施方法は、評価対象の新たな特定の三角形を用いてセグメンテーションを決定することを繰り返し、デジタル表面全体をセグメント化することができる。図20(c)は、例えば、セグメント2416を含むセグメント化デジタル表面メッシュ2414の一例を示す。
三角形のセグメンテーションを遂行した後に、デジタル表面メッシュは、図21に例示されるように、多数のセグメントを包含することができる。実施形態によっては、セグメントの数は、任意選択的に、2つ以上のセグメントを互いに合併することによってコンピュータ実施方法によって低減され得る。実施形態によっては、コンピュータ実施方法は小さいセグメントを、それらの平均曲率、平均サイズ、面積、周長、周長対面積比、および/または他の幾何学的因子などの幾何学的属性に基づいて、より大きいものに合併することができる。実施形態によっては、コンピュータ実施方法は、不確実領域を除いて、別個のラベルに帰属させられた2つのセグメントを合併しない。実施形態によっては、コンピュータ実施方法は、各合併の後に、合併されたセグメントをその部分のうちの1つと同じラベルに帰属させることができる。実施形態によっては、コンピュータ実施方法は、合併前のセグメントが両方とも不確実領域であった場合にのみ、合併されたセグメントを不確実領域としてラベル付けすることができる。合併は、実施形態によっては、コンピュータ実施方法によって自動的に遂行され得る。
実施形態によっては、コンピュータ実施方法はあらゆる2つの近傍のセグメントのために合併優先順位を決定する。コンピュータ実施方法は2つの近傍のセグメントの合併優先順位をそれらの属性に基づいて決定することができる。2つのセグメントがそれらの属性に基づいて合併することができる場合には、このとき、実施形態によっては、コンピュータ実施方法は幾何学的因子に基づいて優先順位を決定する。例えば、コンピュータ実施方法は、1)各セグメントの内部、およびそれらの共通境界上の平均曲率(境界上とセグメントの内部との曲率の差が小さいセグメントの方が早く合併する)、ならびに2)2つのセグメントの、共通境界の長さと最小周長との比(より大きい比を有するセグメントの方が早く合併する)に基づいて優先順位を決定することができる。
実施形態によっては、コンピュータ実施方法は優先順位を優先順位キュー内に記憶することができる。コンピュータ実施方法は、キューから最も高い優先順位を抽出し、対応する2つのセグメントを合併し、キュー内における新たに形成されたセグメントとそれらの隣接者との間の優先順位を更新することができる。コンピュータ実施方法は、2つのセグメントをそれ以上合併することができなくなるまで、このプロセスを繰り返すことができる。
実施形態によっては、例えば、不確実領域に帰属させられたセグメントが存在しなくなるまで、より小さいセグメントを合併することができる。
実施形態によっては、コンピュータ実施方法は、ラベル付き3Dデジタルモデルに対して曲率ベースのセグメンテーションを遂行した後に、ラベル付き3Dデジタルモデルからセグメント化3Dデジタルモデルを提供することができる。
2点セグメンテーション
実施形態によっては、コンピュータ実施方法は2点セグメンテーションを遂行することができる。例えば、実施形態によっては、コンピュータ実施方法はラベル付き3Dデジタルモデルを受け取り、2点セグメンテーションを遂行し、セグメント化3Dデジタルモデルを提供することができる。実施形態によっては、ラベル付き3Dデジタルモデルは、上述されたとおりの1つまたは複数のニューラルネットワークによって遂行されたラベル付けの結果である。ラベル付き3Dデジタルモデル上のラベルは局部的な歯の領域を規定することができる。これらは、ラベル付き3Dデジタルモデル内の各デジタル歯牙の大まかな境界を提供するのを助けることができる。いくつかの実施形態における2点セグメンテーションの1つまたは複数の例を、NikolskiyらのSEMI-AUTOMATIC TOOTH SEGMENTATION、米国特許出願公開第16/778,406号明細書において見出すことができる。同出願の全体は参照により本明細書に組み込まれる。
実施形態によっては、コンピュータ実施方法は、患者の歯列のラベル付き3Dデジタルモデルを受け取り、1つまたは複数のラベル付き領域の中心点を決定し、1つまたは複数のラベル付き領域の中心点を接続するための最良適合放物線を構築し、平面が中心点を包含し、中心点において最良適合放物線と直交するよう、各中心点における平面を構築し、平面ごとに、平面がセグメント境界と交差する舌側の点および頬側の点を決定し、舌側の点および頬側の点を接続するための平面の両側の第1および第2の経路を構築することができる。実施形態によっては、コンピュータ実施方法は、各中心点における平面を構築する代わりに、(例えば、図12(a)からのサンプル平面1008などの)各中心点に対応するサンプル平面を利用または再利用することができる。
図20(a)~図20(g)は2点セグメンテーションの一例を示す。図22(a)に例示されるように、コンピュータ実施方法は、例えば、1つまたは複数のラベル付き領域2002を包含するラベル付き3Dデジタルモデル2000を受け取ることができる。コンピュータ実施方法は、咬合方向2012から見たときの、ラベル付き領域2002などの、ラベル付き領域ごとの中心点2004などの中心点を決定することができる。これは、図22(b)に例示されるとおりの中心点を提供することができる。コンピュータ実施方法は、例えば、放物線などの、最良適合解析曲線などの最良適合の滑らかな曲線によって1つまたは複数の中心点を連結することができる。図22(c)に例示されるように、コンピュータ実施方法は、咬合方向2012から見たときの1つまたは複数のラベル付き領域の中心点を接続する放物線2010などの最良適合放物線を構築することができる。最良適合放物線を決定するために、コンピュータ実施方法は最小二乗平面を決定する。例えば、中心点の場合には、コンピュータ実施方法は中心点を平面上に投影する。例えば、図22(d)に例示されるように、中心点8502(図において黒点として示されている)が最小二乗平面内に配列されている。コンピュータ実施方法は平面内の第1の方向における第1のx軸8504を生成し、平面内のx軸に対して90度の第1のy軸8506を決定する。コンピュータ実施方法は、当該技術分野において既知の二次最小二乗回帰を用いて式y=ax+bx+cにおける係数a、b、およびcを決定する。例えば、放物線8508は、係数a、b、およびcを決定した後にコンピュータ実施方法によって決定され得る。次に、コンピュータ実施方法は、例えば、放物線8508と中心点8502とのずれを決定する。コンピュータ実施方法はユーザ選択可能な数のx軸方向のためにステップを繰り返す。例えば、コンピュータ実施方法は、対応するy軸8512を伴う新たなx軸8510へのx軸の回転によってx軸8504を回転させ、放物線8514を決定することができる。実施形態によっては、x軸方向の数は、ユーザ選択可能な、および/または既定の値であることができる。実施形態によっては、x軸方向の数は、例えば、100であることができる。コンピュータ実施方法は、非常に鋭い放物線を回避するために、例えば、aが150メートル-1以下である最小のずれを有する放物線を選択することができる。実施形態によっては、コンピュータ実施方法は、任意選択的に、任意の値であることができる、ユーザ選択可能な、および/または既定の最大中心点距離よりも遠くに位置する中心点を除外する。実施形態によっては、最大中心点距離は、例えば、5mmであることができる。図22(c)に例示されるように、コンピュータ実施方法は最良適合放物線2010によって中心点を連結することができる。
図22(e)に例示されるように、コンピュータ実施方法は、中心点2004などの各中心点における分離領域2020などの平面を、分離領域2020が中心点2004を包含し、中心点2004において最良適合放物線2010と直交するよう構築することができる。実施形態によっては、コンピュータ実施方法は、平面を構築する代わりに、例えば、図12(a)からのサンプル平面1008などの各中心点に対応するサンプル平面を利用または再利用することができる。
図22(f)に例示されるように、例えば、コンピュータ実施方法は、平面2030などの平面ごとに、平面2030が第1のセグメント経路2036および第2のセグメント経路2072と交差する舌側の点2032および頬側の点2034を決定することができる。図22(g)は、放物線2059が通り抜ける中心点2051を有するデジタル歯牙2050を示す。コンピュータ実施方法は、舌側の点2052および頬側の点2062を接続するための、分離領域2057の第1の側の第1の経路2053および分離領域2057の第2の側の第2の経路2056を構築している。
実施形態によっては、第1のセグメント経路2053および第2のセグメント経路2056は、例えば、顔側の点2062または舌側の点2052のどちらかを初期デジタル表面点として用い、当該技術分野において既知のダイクストラの最短経路アルゴリズムを用いて決定することができる。実施形態によっては、コンピュータ実施方法は、例えば、分離領域2057の第1の側2054のデジタル表面点の間の辺のみを評価することによって最短経路アルゴリズムを用いて第1のセグメント経路2053を決定することができる。実施形態によっては、コンピュータ実施方法は、例えば、デジタル表面点として第2の側2058のデジタル表面点の間の辺のみを評価することによって最短経路アルゴリズムを用いて第2のセグメント経路2056を決定することができる。実施形態によっては、コンピュータ実施方法は、例えば、以下のことを遂行することができる:
1.初期デジタル表面点を設定する。実施形態によっては、初期デジタル表面点は顔側の点2062であることができる。代替的に、実施形態によっては、初期デジタル表面点は舌側の点2052であることができる。
2.分離領域2057の一方の側の全てのデジタル表面点を未訪問として標識する。全ての未訪問のデジタル表面点の未訪問のセットを生成する。実施形態によっては、一方の側は第1の側2054であることができる。代替的に、実施形態によっては、一方の側は第2の側2058であることができる。
3.一方の側のあらゆるデジタル表面点に仮の距離値を指定する。初期デジタル表面点のための仮の距離値は0に指定され、一方の側の全ての他のデジタル表面点のための仮の距離値は、例えば、無限大、あるいは可能な限り高い、または全ての辺の長さの合計よりも大きい値に指定される。初期デジタル表面点を現在のデジタル表面点として設定する。
4.現在のデジタル表面点のために、一方の側の全ての未訪問の近傍のデジタル表面点を考慮し、現在のデジタル表面点を通るそれらの算出された仮の距離(例えば、現在のデジタル表面点と特定の未訪問の近傍のデジタル表面点との間の辺長)を決定する。実施形態によっては、算出された仮の距離は、デジタル表面の曲率に基づいて現在のデジタル表面点と特定の未訪問の近傍のデジタル表面点との間の辺長を決定することができる。実施形態によっては、コンピュータ実施方法は、例えば、辺長の決定において角度依存性因子を含むことができる。例えば、実施形態によっては、コンピュータ実施方法は仮の距離を次式として決定することができる:
f(e)=|e|exp(k・sin α)、またはf(e)=|e|exp(k・α
ここで、f(e)は現在のデジタル表面点と特定の未訪問の近傍のデジタル表面点との間のアルゴリズムのための辺eの長さであり、|e|は辺の2つの端部の間の3Dのユークリッド距離であり、kは、例えば、実施形態によっては、1.8などの、定数である。定数kの大きさが大きいほど、より高い曲率の領域を通過する経路を選ぶことをもたらし得る。定数の符号は、凹状または凸状のどちらの辺がアルゴリズムによって選ばれることになるのかを規定することができ、αは辺eにおける三角形表面の二面角であり、sin αは、例えば、実施形態によっては、例えば、α自体よりも発見が計算的に速くなり得る、その角度の正弦である。実施形態によっては、αおよび/またはsin αは、例えば、角度依存性因子であることができる。歯牙と歯肉との間の境界は、表面の残部よりも大幅に高い曲率を有することができる。辺長f(e)=|e|exp(k・sin α)を用いる場合、デジタル歯牙-歯肉線境界領域内の辺の長さは他の領域内よりも大幅に小さい。したがって、コンピュータ実施方法はデジタル歯牙-歯肉線接合部に沿った最短経路を決定することができる。
5.新たに算出された仮の距離を現在の指定された値と比較し、より小さいものを指定する。例えば、現在のデジタル表面点Aが6の距離で標識されており、それを近傍のデジタル表面点Bと接続する辺が長さ2を有する場合には、このとき、Aを通るBまでの距離は6+2=8になる。Bが、8よりも大きい距離で以前に標識されていた場合には、このとき、それを8に変更する。さもなければ、現在の値を維持する。
6.現在のデジタル表面点の未訪問の近傍のもののうちの全てを考慮した後に、現在のデジタル表面点を訪問済みとして標識し、それを未訪問のセットから削除する。訪問済みのデジタル表面点は二度とチェックされない。
7.目的地のデジタル表面点が訪問済みと標識されている場合(2つの特定のデジタル表面点の間のルートを計画するとき)、あるいは未訪問のセット内のデジタル表面点の間の最も小さい仮の距離が、例えば、無限大、または可能な限り高い、もしくは全ての辺長の合計よりも大きい値である場合には(完全なトラバースを計画するとき;初期デジタル表面点と残りの未訪問のデジタル表面点との間の接続が存在しないときに生じる)、このとき、停止する。アルゴリズムは終了した。
さもなければ、最も小さい仮の距離で標識された未訪問のデジタル表面点を選択し、それを新たな「現在のデジタル表面点」として設定し、ステップ4へ戻る。
目的地のデジタル表面点が、全ての「未訪問の」デジタル表面点のうちの最も小さい仮の距離を有すると(およびそれゆえ、次の「現在」として選択され得るであろうとなると)、アルゴリズムは停止することができる。
コンピュータ実施方法は分離領域2057の他方の側でステップを繰り返すことができる(これは、同時に、または順次に遂行され得る)。このように、コンピュータ実施方法は、第1の側2054に沿った第1のセグメント経路2053および第2の側2058に沿った第2のセグメント経路2056を決定することができる。第1のセグメント経路2053および第2のセグメント経路2056は、例えば、実施形態によっては、デジタル表面三角形の辺であり得る。
実施形態によっては、第1のセグメント経路2053は顔側の三角形の辺2066の一方の側および舌側の三角形の辺2064の一方の側に接続する。実施形態によっては、第2のセグメント経路406は顔側の三角形の辺2066の他方の側および舌側の三角形の辺2064の他方の側に接続する。接続された第1のセグメント経路2053、第2のセグメント経路2056、顔側の三角形の辺2066、および舌側の三角形の辺2064は、実施形態によっては、合わせて境界ループを形成することができる。境界ループは、実施形態によっては、閉じられ、例えば、包囲された内部ループ領域2068を有することができる。
実施形態によっては、コンピュータ実施方法は、第1のセグメント経路および第2のセグメント経路からセグメント化デジタル歯牙を提供することをさらに含むことができる。図22(f)に例示されるように、コンピュータ実施方法は、第1のセグメント経路2036および第2のセグメント経路2072からセグメント化デジタル歯牙2070を提供することを含むことができる。これは、例えば、例として、第1のセグメント経路2036および第2のセグメント経路2072によって形成された境界ループ2074内のデジタル表面三角形を決定することによって、デジタル歯牙2070のデジタル表面を提供することを含むことができる。
図23(A)は、境界ループ502の部分内のデジタル歯牙領域504および境界ループ502の部分の外部のデジタル非歯牙領域506を有する境界ループ502の部分を示す一例を示す。デジタル歯牙領域504およびデジタル非歯牙領域506は、例えば、それぞれ、デジタル表面三角形508およびデジタル表面三角形514などの、デジタル表面三角形を含むことができる。
実施形態によっては、デジタル歯牙のデジタル表面を決定するコンピュータ実施方法は、元のデジタル表面三角形の双対グラフを生成することを含むことができる。コンピュータ実施方法は、双対グラフの頂点が元のデジタル表面のデジタル表面三角形に対応し、双対グラフの辺が、共有されたデジタル表面三角形の辺が境界ループの部分である所を除いて、共有されたデジタル表面三角形の辺に対応するよう、双対グラフを生成することができる。例えば、図23(B)に例示されるように、コンピュータ実施方法はデジタルモデル500の部分内のデジタル表面三角形514のための双対グラフの頂点512を生成することができる。コンピュータ実施方法は、例えば、共有されたデジタル表面三角形の辺518のための双対グラフの辺516を生成することができる。コンピュータ実施方法は、共有されたデジタル表面三角形の辺520のための双対グラフの辺を生成しない。なぜなら、辺520は境界ループ502の部分であるからである。コンピュータ実施方法はこのプロセスをデジタルモデル内のあらゆるデジタル表面三角形のために繰り返すことができる。このように、コンピュータ実施方法は、実施形態によっては、デジタルモデルのデジタル表面のための双対グラフを生成することができる。実施形態によっては、各双対グラフの辺はあらゆる元の表面の辺を横断することができるが、どの双対グラフの辺も境界ループを横断しない。実施形態によっては、双対グラフは、例えば、境界ループによって分離された内部双対グラフ領域および外部双対グラフ領域を含むことができる。内部双対グラフ領域は、境界ループによって包囲された、相互接続された双対グラフ領域であることができ、外部双対グラフ領域は、境界ループの外部における相互接続された双対グラフ領域であることができる。境界ループは、実施形態によっては、内部双対グラフ領域を外部双対グラフ領域から分離することができる。例えば、図23(B)に例示されるように、双対グラフは、境界ループ502によって分離された内部双対グラフ領域522および外部双対グラフ領域524を含むことができる。
実施形態によっては、デジタル歯牙表面を決定することは、双対グラフ上の探索を遂行することを含むことができる。コンピュータ実施方法は、例えば、双対グラフの頂点の間の相互接続に基づいてデジタル歯牙表面を決定することができる。実施形態によっては、探索は、例えば、従来知られている幅優先探索であることができる。幅優先探索では、コンピュータ実施方法は、例えば、双対グラフおよび出発点となる頂点の根をロードすることができる。実施形態によっては、出発点となる双対グラフの根の頂点は任意の双対グラフの頂点であることができる。コンピュータ実施方法は、次の深度レベルへ移る前に現在の深度における全ての近傍の双対グラフの頂点を調査し、それらを発見済みとしてラベル付けすることができる。次に、コンピュータ実施方法は次の深度レベルへ進み、例えば、未発見の双対グラフの頂点がそれ以上存在しなくなるまでプロセスを繰り返すことができる。コンピュータ実施方法は、このように、双対グラフの相互接続された頂点を決定し、発見済み双対グラフを決定することができる。幅優先探索技法は、例えば、1つまたは複数のトンネルを有することなくデジタル歯牙に適用することができる。実施形態によっては、コンピュータ実施方法は、従来知られている幅優先探索を以下のように決定することができる:
手順Breadth_First_Search(Dual_Graph,start_vert)は以下のとおりである。
Qをキューとする
start_vertを発見済みとしてラベル付けする
Q.enqueue(start_vert)
Qが空でない間、以下を行う
v:=Q.dequeue()

Dual_Graph.adjacentEdges(v)内のvからyまでの全ての辺について、以下を行う
yが発見済みとしてラベル付けされていない場合には、このとき、
yを発見済みとしてラベル付けする
y.parent:=v
Q.enqueue(y)
実施形態によっては、探索は、例えば、従来知られている深さ優先探索であることができる。深さ優先探索では、コンピュータ実施方法は、例えば、双対グラフおよび出発点となる頂点の根をロードすることができる。実施形態によっては、出発点となる頂点の根は任意の双対グラフの頂点であることができる。実施形態によっては、コンピュータ実施方法は、双対グラフ上の従来知られている深さ優先探索を以下のように遂行することができる:入力は、例えば、グラフDual_Graph、G、およびGの頂点vertであることができ、出力は、例えば、発見済みとしてラベル付けされたvertから到達可能なあらゆる頂点であることができる。深さ優先探索技法は、例えば、1つまたは複数のトンネルを有することなくデジタル歯牙に適用することができる。実施形態によっては、コンピュータ実施方法は、従来知られている深さ優先探索を以下のように決定することができる:
手順Depth_First_Search(Dual_Graph,vert)は以下のとおりである。
vertを発見済みとしてラベル付けする
Dual_Graph.adjacentEdges(vert)内の頂点からyまでの全ての有向辺について、以下を行う
vert yが発見済みとしてラベル付けされていない場合には、このとき、
Depth_First_Search(Dual_Graph,y)を再帰的に呼び出す
実施形態によっては、コンピュータ実施方法は、例えば、双対グラフ上の深さ優先探索を以下のように遂行することができる:
手順Depth_First_Search_Iterative(Dual_Graph,vert)は以下のとおりである。
Sをスタックとする
S.push(vert)
Sが空でない間、以下を行う
vert = S.pop()
vertが発見済みとしてラベル付けされていない場合には、このとき、
vertを発見済みとしてラベル付けする
Dual_graph.adjacentEdges(vert)内のvertからyまでの全ての辺について、以下を行う
S.push(y)
実施形態によっては、例えば、発見済み双対グラフが境界ループ内にある場合、および/または出発点となる双対グラフの根の頂点が境界ループ内にあった場合には、このとき、コンピュータ実施方法は、発見済み双対グラフが内部の双対グラフの領域であり、それゆえ、デジタル歯牙に属すると決定するであろう。コンピュータ実施方法は、全ての他の双対グラフの頂点を、外部の双対グラフに属し、したがって、デジタル歯肉および他の周囲のデジタル歯群のものと決定することができる。実施形態によっては、例えば、発見済み双対グラフが境界ループの外部にある場合、および/または出発点となる双対グラフの根の頂点が境界ループの外部にあった場合には、このとき、コンピュータ実施方法は、発見済み双対グラフが外部の双対グラフの領域であり、それゆえ、デジタル歯肉および他の周囲のデジタル歯群に属すると決定することができる。コンピュータ実施方法は、全ての他の双対グラフ頂点は内部の双対グラフの領域に属し、したがって、デジタル歯牙のものであると決定することができる。コンピュータ実施方法は、発見済み双対グラフの頂点に基づいて、例えば、実施形態によっては、デジタル歯牙のデジタル表面、および周囲の歯群および歯肉領域に属するデジタル表面を決定することができる。最終ラベルは、実施形態によっては、例えば、歯1、歯2、歯3等などの歯の番号、および歯肉を含むことができる。実施形態によっては、各歯を他の歯群および歯肉領域と区別することができる。図24は、デジタルモデル2200内のデジタル歯牙2202および歯肉領域2204などのデジタル歯群および歯肉領域の、完全にセグメント化され、ラベル付けされたセットの一例を示す。
実施形態によっては、受け取られたラベル付き3Dデジタルモデルは、任意選択的に、セグメント化3Dデジタルモデルであることもできる。実施形態によっては、セグメント化3Dデジタルモデルは、曲率ベースのセグメンテーションを用いてセグメント化されたものであることができる。実施形態によっては、セグメント化デジタルモデルは、当該技術分野において既知の任意の技法を用いてセグメント化され得る。
実施形態によっては、曲率ベースのセグメント化モデルは、例えば、実施形態によっては、2点セグメンテーションを遂行することによって、より精密にすることができる。2点セグメンテーションの1つの利点は、例えば、精度の改善を含むことができる。
1つまたは複数の特徴の1つまたは複数の利点は、例えば、セグメント化され、ラベル付けもされたデジタル歯群を、歯肉などの、ラベル付けされ、セグメント化された非歯群領域と共に有するデジタルモデルを提供することを含むことができる。パノラマ画像を用いる1つまたは複数の利点は、例えば、より正確な境界を含むことができる。パノラマ画像を用いる1つまたは複数の利点は、例えば、頬側および舌側の両方からの歯群の特徴、ならびに歯肉との境界を保持することを含むことができ、その一方で、2D深度マップなどの標準的な視像上では、例えば、頬側または舌側あるいはそれらの両方は完全に、または部分的に塞がれ、したがって、ニューラルネットワークはそれらを見てセグメント化することができない。2D深度マップなどの標準的な視像では、例えば、歯群と歯肉との間の境界は、全ての歯群のために、および全ての側から視認可能でない。これは、歯群が境界を塞ぐ(隠す)ために生じ得る。さらに、問題はより一般的である:取得される単純な視像が何であろうと(透視投影を用いたものであろうと、または正投影カメラを用いたものであろうと)、一部の境界は視認可能でなくなる。パノラマ画像を用いる1つまたは複数の利点は、例えば、頬側および舌側の両方からの歯群の特徴、ならびに歯肉との境界を保持することを含むことができる。
図25(a)は、デジタルモデル内の歯群をデジタル的にセグメント化するコンピュータ実施方法の一例を示す。本方法は、2302において、患者の歯列の少なくとも部分の患者走査データの3Dデジタルモデルを受け取ることと、2304において、3Dデジタルモデルからパノラマ画像を生成すること(または代替的に、受け取ること)と、2306において、第1の訓練済みニューラルネットワークを用いて、パノラマ画像の1つまたは複数の領域をラベル付けし、ラベル付きパノラマ画像を提供することと、2308において、ラベル付きパノラマ画像の1つまたは複数の領域を3Dデジタルモデル内の1つまたは複数の対応する粗いデジタル表面三角形ラベルにマッピングし、ラベル付き3Dデジタルモデルを提供することと、2310において、ラベル付き3Dデジタルモデルをセグメント化し、セグメント化3Dデジタルモデルを提供することと、を含むことができる。実施形態によっては、コンピュータ実施方法は、代替的に、2304において、3Dデジタルモデルから通常の2D深度マップ画像を生成するか、または受け取ることができる。図8に、通常の2D深度マップ画像の一例が示されている。
図25(a)のコンピュータ実施方法は以下の特徴のうちの1つまたは複数を、様々な実施形態において、単独で、または組み合わせて含むことができる。パノラマ画像の1つまたは複数の領域をラベル付けし、ラベル付きパノラマ画像を提供するために、第1のニューラルネットワークを訓練することをさらに含む、請求項1に記載の方法。ラベル付き3Dデジタルモデルは1つまたは複数の不確実領域を含むことができる。セグメント化3Dデジタルモデルは、1つまたは複数の個別歯牙領域、および非歯牙領域を含むことができる。第1の訓練済みニューラルネットワークは第1の畳み込みニューラルネットワークを含むことができる。第1の畳み込みニューラルネットワークはU-Netニューラルネットワークを含むことができる。第1の畳み込みニューラルネットワークはYOLOニューラルネットワークを含むことができる。3Dデジタルモデルをセグメント化することは、ラベル付き3Dデジタルモデルを幾何学的にセグメント化することを含むことができる。幾何学的セグメント化は曲率ベースのセグメンテーションを含むことができる。幾何学的セグメント化は2点セグメンテーションを含むことができる。パノラマ画像を生成することは、第2の訓練済みニューラルネットワークを用いて、1本または複数本のデジタル歯群に対応する1つまたは複数のデジタル歯牙バウンディング領域を決定することと、スプラインによって1つまたは複数のデジタル歯牙バウンディング領域を接続することと、スプライン上の1つまたは複数のスプライン点をサンプリングすることと、1つまたは複数のサンプリングされたスプライン点から1つまたは複数のサンプリングデジタル表面点を決定することと、各サンプリングデジタル表面点に対応する1つまたは複数の関連デジタル表面点を決定することと、を含むことができる。本方法は、各デジタル歯牙バウンディング領域のデジタル歯牙バウンディング領域中心を決定することをさらに含むことができ、1つまたは複数のデジタル歯牙バウンディング領域を接続することは、デジタル歯牙バウンディング領域中心を接続することを含むことができる。第2の訓練済みニューラルネットワークはYOLOニューラルネットワークを含むことができる。第2の訓練済みニューラルネットワークはU-net畳み込みニューラルネットワークを含むことができる。各サンプリングデジタル表面点およびその対応する関連デジタル表面点はパノラマ画像内の列であることができる。1つまたは複数の関連デジタル表面点を決定することは、各サンプリングデジタル表面点のサンプル深度点を決定することと、サンプル深度点から、咬合方向から傾斜角をなしてサンプル平面内で延びる1本または複数本のそれぞれの光線と交差する1つまたは複数のデジタル表面点を決定することであって、サンプル平面がスプラインおよび咬合方向と直交する、決定することと、を含むことができる。1つまたは複数の傾斜角は傾斜角範囲内であることができ、傾斜角範囲は-45度~+45度であることができる。
図25(b)は、パノラマ画像を生成するコンピュータ実施方法の一例を示す。本方法は、2350において、患者の歯列の少なくとも部分の患者走査データの2D深度マップを受け取ることと、2352において、訓練済みニューラルネットワークを用いて、1本または複数本のデジタル歯群に対応する1つまたは複数のデジタル歯牙バウンディング領域を決定することと、2354において、スプラインによって1つまたは複数のデジタル歯牙バウンディング領域を接続することと、2356において、スプライン上の1つまたは複数のスプライン点をサンプリングすることと、2358において、1つまたは複数のサンプリングされたスプライン点から1つまたは複数のサンプリングデジタル表面点を決定することと、2360において、各サンプリングデジタル表面点に対応する1つまたは複数の関連デジタル表面点を決定することと、を含むことができる。
図25(b)における方法は、以下の任意選択的な特徴のうちの1つまたは複数を、単独で、または組み合わせて含むことができる。本方法は、各デジタル歯牙バウンディング領域のデジタル歯牙バウンディング領域中心を決定することをさらに含むことができ、1つまたは複数のデジタル歯牙バウンディング領域を接続することは、デジタル歯牙バウンディング領域中心を接続することを含むことができる。第2の訓練済みニューラルネットワークはYOLOニューラルネットワークを含むことができる。第2の訓練済みニューラルネットワークはU-net畳み込みニューラルネットワークを含むことができる。各サンプリングデジタル表面点およびその対応する関連デジタル表面点はパノラマ画像内の列であることができる。1つまたは複数の関連デジタル表面点を決定することは、各サンプリングデジタル表面点のサンプル深度点を決定することと、サンプル深度点から、咬合方向から傾斜角をなしてサンプル平面内で延びる1本または複数本のそれぞれの光線と交差する1つまたは複数のデジタル表面点を決定することであって、サンプル平面がスプラインおよび咬合方向と直交する、決定することと、を含むことができる。1つまたは複数の傾斜角は傾斜角範囲内であることができ、傾斜角範囲は-45度~+45度であることができる。
いくつかの実施形態は処理システムを含むことができる。処理システムは、プロセッサと、ステップを遂行することができるプロセッサによって実行可能な命令を含むコンピュータ可読記憶媒体と、を含むことができ、ステップは、患者の歯列の少なくとも部分の患者走査データの3Dデジタルモデルを受け取ることと、3Dデジタルモデルからパノラマ画像を生成することと、第1の訓練済みニューラルネットワークを用いて、パノラマ画像の1つまたは複数の領域をラベル付けし、ラベル付きパノラマ画像を提供することと、ラベル付きパノラマ画像の1つまたは複数の領域を3Dデジタルモデル内の1つまたは複数の対応する粗いデジタル表面三角形ラベルにマッピングし、ラベル付き3Dデジタルモデルを提供することと、ラベル付き3Dデジタルモデルをセグメント化し、セグメント化3Dデジタルモデルを提供することと、を含む。代替的に、実施形態によっては、プロセッサステップによって実行可能な命令は、パノラマ画像を受け取ることと、第1の訓練済みニューラルネットワークを用いて、パノラマ画像の1つまたは複数の領域をラベル付けし、ラベル付きパノラマ画像を提供することと、ラベル付きパノラマ画像の1つまたは複数の領域を3Dデジタルモデル内の1つまたは複数の対応する粗いデジタル表面三角形ラベルにマッピングし、ラベル付き3Dデジタルモデルを提供することと、ラベル付き3Dデジタルモデルをセグメント化し、セグメント化3Dデジタルモデルを提供することと、を含むことができる。
本開示において説明される1つまたは複数の特徴は処理システムの部分であり、および/または処理システム上で遂行され得る。
図26はいくつかの実施形態における処理システム14000を示す。システム14000は、プロセッサ14030と、本開示において説明される1つまたは複数のステップを遂行するためにプロセッサによって実行可能な命令を有するコンピュータ可読記憶媒体14034と、を含むことができる。
実施形態によっては、1つまたは複数のステップは、例えば、ユーザによって遂行され得る。実施形態によっては、1つまたは複数の特徴は、ユーザによって、例えば、ディスプレイ上のデジタルモデルを見ている間に入力デバイスを用いて遂行され得る。実施形態によっては、コンピュータ実施方法は、入力デバイスが、ディスプレイ上に表示されたデジタルモデルを操作することを可能にすることができる。例えば、実施形態によっては、コンピュータ実施方法は、デジタルモデルを回転させ、変倍し、移動させ、および/または当該技術分野において知られているとおりの任意の仕方で別様に操作することができる。実施形態によっては、1つまたは複数の特徴は、ユーザによって、入力デバイスを用いて遂行され得る。実施形態によっては、1つまたは複数のステップは、例えば、ユーザが別のボタンを選択することなどの、当該技術分野において既知の技法を用いて開始され得る。実施形態によっては、1つまたは複数の特徴は、ユーザの介入を有することなく、自動的に遂行され得る。
実施形態によっては、コンピュータ実施方法はディスプレイ上にデジタルモデルを表示し、例えば、マウス、またはディスプレイ上のタッチスクリーンなどの入力デバイスから入力を受け付けることができる。例えば、コンピュータ実施方法は開始コマンドを受け付けることができる。コンピュータ実施方法は、開始コマンドを受け付けると、本開示において説明される1つまたは複数の特徴を用いて1つまたは複数のステップを遂行することができる。コンピュータ実施方法は、操作コマンドを受け付けると、デジタルモデルを回転させ、変倍し、移動させ、および/または当該技術分野において知られているとおりの任意の仕方で別様に操作することができる。
本明細書において開示される特徴のうちの1つまたは複数は、手動またはユーザ介入を有することなく、自動的に遂行および/または達成され得る。本明細書において開示される特徴のうちの1つまたは複数はコンピュータ実施方法によって遂行され得る。開示される特徴 - 限定するものではないが、任意の方法およびシステムを含む - はコンピューティングシステムにおいて実施され得る。例えば、これらの機能を遂行するために用いられるコンピューティング環境14042は、1つまたは複数のコンピューティングデバイスを含むコンピューティングシステムに組み込まれ得る種々のコンピューティングデバイス(例えば、デスクトップコンピュータ、ラップトップコンピュータ、サーバコンピュータ、タブレットコンピュータ、ゲーミングシステム、モバイルデバイス、プログラム可能自動化コントローラ、ビデオカード等)のうちの任意のものであることができる。実施形態によっては、コンピューティングシステムはクラウドベースのコンピューティングシステムであり得る。
例えば、コンピューティング環境14042は1つまたは複数の処理装置14030およびメモリ14032を含み得る。処理装置はコンピュータ実行可能命令を実行する。処理装置14030は、中央処理装置(CPU:central processing unit)、特定用途向け集積回路(ASIC:application-specific integrated circuit)内のプロセッサ、または任意の他の種類のプロセッサであることができる。実施形態によっては、1つまたは複数の処理装置14030は、例えば、複数のコンピュータ実行可能命令を並列に実行することができる。多重処理システムでは、処理能力を増大させるために、複数の処理装置がコンピュータ実行可能命令を実行する。例えば、代表的なコンピューティング環境は、中央処理装置、ならびにグラフィック処理装置または共処理装置を含み得る。有形メモリ14032は、処理装置によってアクセス可能な、揮発性メモリ(例えば、レジスタ、キャッシュ、RAM)、不揮発性メモリ(例えば、ROM、EEPROM、フラッシュメモリ等)、または両者の何らかの組み合わせであり得る。メモリは、処理装置による実行に適したコンピュータ実行可能命令の形態の、本明細書において説明される1つまたは複数の革新を実施するソフトウェアを記憶する。
コンピューティングシステムは追加の特徴を有し得る。例えば、実施形態によっては、コンピューティング環境は、ストレージ14034、1つまたは複数の入力デバイス14036、1つまたは複数の出力デバイス14038、および1つまたは複数の通信接続14037を含む。バス、コントローラ、またはネットワークなどの相互接続機構がコンピューティング環境の構成要素を相互接続する。通例、オペレーティングシステムソフトウェアが、コンピューティング環境内で実行する他のソフトウェアのための動作環境を提供し、コンピューティング環境の構成要素の活動を協調させる。
有形ストレージ14034は着脱式または非着脱式であり得、磁気ディスク、磁気テープもしくはカセット、CD-ROM、DVDなどの磁気または光媒体、または情報を非一時的な仕方で記憶するために用いることができ、コンピューティング環境内でアクセスすることができる任意の他の媒体を含む。ストレージ14034は、本明細書において説明される1つまたは複数の革新を実施するソフトウェアのための命令を記憶する。
入力デバイスは、例えば、キーボード、マウス、ペン、またはトラックボールなどの、タッチ入力デバイス、音声入力デバイス、走査デバイス、様々なセンサのうちの任意のもの、入力をコンピューティング環境に提供する別のデバイス、あるいはこれらの組み合わせであり得る。映像符号化のためには、入力デバイスは、カメラ、ビデオカード、TVチューナカード、またはアナログもしくはデジタル形式の映像入力を受け入れる同様のデバイス、あるいは映像サンプルをコンピューティング環境内に読み込むCD-ROMまたはCD-RWであり得る。出力デバイスは、ディスプレイ、プリンタ、スピーカ、CDライタ、またはコンピューティング環境からの出力を提供する別のデバイスであり得る。
通信接続は、別のコンピューティングエンティティへの通信媒体を通じた通信を可能にする。通信媒体は、コンピュータ実行可能命令、音声もしくは映像入力もしくは出力、または変調データ信号内の他のデータなどの、情報を伝達する。変調データ信号は、信号内に情報を符号化するような仕方でその特性のうちの1つまたは複数を設定または変更させた信号である。限定ではなく、例として、通信媒体は、電気、光、RF、または他の搬送波を用いることができる。
本開示の方法はいずれも、1つまたは複数のコンピュータ可読記憶媒体14034(例えば、1つまたは複数の光媒体ディスク、揮発性メモリ構成要素(DRAMもしくはSRAMなど)、または不揮発性メモリ構成要素(フラッシュメモリもしくはハードドライブなど))上に記憶され、コンピュータ(例えば、スマートフォン、コンピューティングハードウェアを含む他のモバイルデバイス、またはプログラム可能自動化コントローラを含む、任意の市販のコンピュータ)上で実行されるコンピュータ実行可能命令として実施され得る(例えば、コンピュータ実行可能命令はコンピュータシステムの1つまたは複数のプロセッサに本方法を遂行させる)。用語、コンピュータ可読記憶媒体は、信号および搬送波などの、通信接続を含まない。本開示の技法を実施するためのコンピュータ実行可能命令、および本開示の実施形態の実施中に作成され、用いられる任意のデータはいずれも、1つまたは複数のコンピュータ可読記憶媒体14034上に記憶され得る。コンピュータ実行可能命令は、例えば、専用ソフトウェアアプリケーション、またはウェブブラウザもしくは他のソフトウェアアプリケーション(リモートコンピューティングアプリケーションなど)を介してアクセスもしくはダウンロードされるソフトウェアアプリケーションの部分であることができる。このようなソフトウェアは、例えば、単一のローカルコンピュータ(例えば、任意の好適な市販のコンピュータ)上、あるいは1つまたは複数のネットワークコンピュータを用いてネットワーク環境内で(例えば、インターネット、ワイドエリアネットワーク、ローカルエリアネットワーク、クライアント-サーバネットワーク(クラウドコンピューティングネットワークなど)、または他のこのようなネットワークを介して)実行され得る。
明確にするために、ソフトウェアベースの実装形態の特定の選択された態様のみが説明される。当該技術分野においてよく知られた他の詳細は省略される。例えば、本開示の技術はいかなる特定のコンピュータ言語またはプログラムにも限定されないことを理解されたい。例えば、本開示の技術は、C++、Java、Perl、Python、JavaScript、Adobe Flash、または任意の他の好適なプログラミング言語で書かれたソフトウェアによって実施され得る。同様に、本開示の技術はいかなる特定のコンピュータまたは種類のハードウェアにも限定されない。好適なコンピュータおよびハードウェアの特定の詳細はよく知られており、本開示において詳細に記載される必要はない。
本明細書において説明される任意の機能性は、ソフトウェアの代わりに、少なくとも部分的に、1つまたは複数のハードウェア論理構成要素によって遂行され得ることも十分に理解されたい。例えば、限定するものではないが、用いることができるハードウェア論理構成要素の例示的な種類としては、フィールドプログラマブルゲートアレイ(FPGA:Field-programmable Gate Array)、特定プログラム向け集積回路(ASIC:Program-specific Integrated Circuit)、特定プログラム向け標準製品(ASSP:Program-specific Standard Product)、システムオンチップシステム(SOC:System-on-a-chip)、複合プログラム可能論理デバイス(CPLD:Complex Programmable Logic Device)などが挙げられる。
さらに、(例えば、コンピュータに本開示の方法のうちの任意のものを遂行させるためのコンピュータ実行可能命令を含む)ソフトウェアベースの実施形態はいずれも、好適な通信手段を通じてアップロードされるか、ダウンロードされるか、または遠隔からアクセスされ得る。このような好適な通信手段は、例えば、インターネット、ワールドワイドウェブ、イントラネット、ソフトウェアアプリケーション、ケーブル(光ファイバケーブルを含む)、磁気通信、電磁通信(RF、マイクロ波、および赤外線通信を含む)、電子通信、あるいは他のこのような通信手段を含む。
本開示の原理が適用され得る多くの可能な実施形態に鑑みると、例示された実施形態は単なる例にすぎず、本開示の範囲を限定するものと解釈されるべきでないことを認識されたい。
100 デジタルモデル
202 第1の畳み込み層
203 入力画像
204 カーネル
206 畳み込み出力、第1の畳み込み画像
207 特徴チャネル
208 第1のカーネル出力
212 第1のプーリング層
214 第1のプーリングフィルタ
216 第1のプーリング画像
217 特徴チャネル
218 第2の畳み込み層
219 特徴チャネル
220 第2の畳み込み画像
222 第2のプーリング層
224 第2のプーリング画像
224 出力予測
230 全結合層
302 層
304 層
306 層
307 残差
308 層
310 層
311 残差
312 層
314 層
315 残差
316 層
318 層
319 残差
320 層
322 層
323 残差
401 入力画像
402 収縮経路
404 膨張経路
406 第1の畳み込み層
408 第1のプーリング演算
410 第1の畳み込み
411 第1の特徴マップ
412 最後の特徴マップ
413 第2の畳み込み
414 畳み込み層入力
416 第2の畳み込み層
418 第3の畳み込み層
422 最終プーリング演算
424 アップサンプリング
425 アップサンプリング層
426 畳み込み層
427 第4の畳み込み層、最終収縮経路畳み込み層
428 特徴マップ
429 連結演算
430 特徴マップ
432 最終アップサンプリング層
434 最後の畳み込み
435 出力セグメントマップ
500 デジタルモデル
502 境界ループ
504 デジタル歯牙領域
506 デジタル非歯牙領域
508 デジタル表面三角形
512 頂点
514 デジタル表面三角形
516 辺
518 辺
520 辺
522 内部双対グラフ領域
524 外部双対グラフ領域
700 2D深度マップ
702 標識付きデジタル歯牙バウンディング領域
800 デジタルモデル
802 デジタルバウンディングボックス
804 デジタル歯牙
806 咬合方向
808 デジタルバウンディングボックス中心、第1のバウンディングボックス中心
810 第2のバウンディングボックス中心、第2のデジタルバウンディングボックス中心
812 第1のスプライン
814 第2のスプライン
816 第3のデジタルバウンディングボックス中心
820 連続スプライン
822 最後のバウンディングボックス中心
824 直線
826 最後のスプライン
828 直線
902 サンプリング点
904 連続平滑スプライン
906 デジタルモデル
1002 サンプリングデジタル表面点
1004 連続平滑スプライン
1006 3Dデジタルモデル
1008 サンプル平面
1010 咬合方向
1012 深度光線、サンプル点深度光線
1014 サンプル深度点
1016 第1の正の傾斜角の光線
1018 第1の正の傾斜角
1020 第1の負の傾斜角の光線
1022 第1のデジタル表面点
1024 第2のデジタル表面点
1050 デジタルモデル
1052 サンプル点
1054 スプライン
1056 光線
1102 中心行
1103 サンプリングデジタル表面点
1104 行
1105 列
1106 行
1110 第1の正の行
1112 第1の負の行
1202 より暗い領域
1204 より明るい領域
1300 パノラマ画像
1302 標識付きデジタル歯牙バウンディング領域
1402 デジタルバウンディング領域
1404 デジタル歯牙バウンディング領域
1500 3Dデジタルモデル
1502 デジタル歯牙バウンディングボックス
1504 第1のデジタル歯牙バウンディングボックス隅部
1506 第1の光線
1508 第2のデジタル歯牙バウンディングボックス隅部
1510 第2の光線
1512 深度点
1513 第3のデジタル歯牙バウンディングボックス隅部
1516 第3の光線
1518 第4のデジタル歯牙バウンディングボックス隅部
1520 第4の光線
1602 デジタル歯牙境界領域
1603 距離
1604 確実領域
1605 距離
1606 不確実領域
1607 不確実領域
1614 第1のラベル付きデジタル表面領域
1616 ラベルなし領域
1618 第2のラベル付きデジタル表面領域
1620 第3のラベル付きデジタル表面領域
1786 辺
1788 三角形
1790 三角形
1792 二面角
1794 第3の平面
2000 ラベル付き3Dデジタルモデル
2002 ラベル付き領域
2004 中心点
2010 放物線
2012 咬合方向
2020 分離領域
2030 平面
2032 舌側の点
2034 頬側の点
2036 第1のセグメント経路
2050 デジタル歯牙
2051 中心点
2052 舌側の点
2053 第1の経路、第1のセグメント経路
2054 第1の側
2056 第2の経路、第2のセグメント経路
2057 分離領域
2058 第2の側
2059 放物線
2062 頬側の点、顔側の点
2064 辺
2066 辺
2068 内部ループ領域
2070 セグメント化デジタル歯牙
2072 第2のセグメント経路
2074 境界ループ
2200 デジタルモデル
2202 デジタル歯牙
2204 歯肉領域
2402 特定の三角形
2404 隣接した三角形、近傍の三角形
2405 第1の辺
2406 隣接した三角形、近傍の三角形
2407 第2の辺
2408 隣接した三角形、近傍の三角形
2409 第3の辺
2010 最良適合放物線
2411 セグメント
2412 セグメント
2414 セグメント化デジタル表面メッシュ
2416 セグメント
4000 U-netニューラルネットワーク
4002 入力画像
4004 畳み込み層、第1の畳み込み層
4005 第2の畳み込み層
4006 収縮経路
4007 第3の畳み込み層
4008 第1の特徴マップ
4009 第4の畳み込み層
4010 第2の特徴マップ
4011 第5の畳み込み層
4012 第3の特徴マップ
4013 第6の畳み込み層
4014 第4の特徴マップ
4015 第7の畳み込み層
4016 第5の特徴マップ
4018 第6の特徴マップ
4020 第7の特徴マップ
4021 膨張経路
4031 第3の逆畳み込み層
4032 第1の逆畳み込み層
4033 第2の逆畳み込み層
4034 第3の逆畳み込み特徴マップ
4035 第6の逆畳み込み層
4036 第2の逆畳み込み特徴マップ
4037 第5の逆畳み込み層
4038 第1の逆畳み込み特徴マップ
4039 第4の逆畳み込み層
4040 第5の逆畳み込み特徴マップ
4042 第4の逆畳み込み特徴マップ
4044 第7の逆畳み込み層
4048 第6の逆畳み込み特徴マップ
4050 第7の逆畳み込み特徴マップ
5001 入力画像
5002 符号器
5004 Conv-1
5008 Res-2
5010 Res-3
5012 Res-4
5014 Res-5
5016 GAU-3
5018 GAU-2
5020 GAU-1
5022 FPA
5030 FPA
5032 Resnet
5034 特徴マップ
5036 グローバルプーリングブランチ
5038 ダウンサンプリングブランチ
5040 アップサンプリングブランチ
5042 第1のアップサンプルブランチ段
5044 第2のアップサンプルブランチ段
5046 第3のアップサンプルブランチ段
5048 第1のダウンサンプル畳み込み
5050 第2のダウンサンプル畳み込み
5052 第3のダウンサンプル畳み込み
5054 3×3畳み込み
5056 5×5畳み込み
5058 7×7畳み込み
5060 グローバルプーリング
5062 1×1畳み込み
5064 アップサンプリング
5070 ピクセル毎乗算器
5072 畳み込み層
5074 復号器
5075 セグメント化画像
5076 第1の復号器段
5078 第2の復号器段
5080 第3の復号器段
5102 行
5104 列
6002 入力画像
6004 第1のResNet畳み込み層Conv-1
6006 プーリングステップ
6010 Res-2
6012 Res-3
6014 Res-4
6016 Res-5
6018 第1のブロック
6020 第1のRes-2畳み込み
6022 第2のRes-2畳み込み
6024 第1のRes-3畳み込み
6026 第1のRes-4畳み込み
6027 第1のRes-5畳み込み
6028 バイパス
6029 プーリング段
6040 次のブロック
6050 第1のブロック
6052 第1のブロック入力特徴マップ、入力画像
6054 第1の畳み込み
6056 第1の畳み込み出力
6058 第2の畳み込み
6060 第1のブロック出力
6062 バイパス
6064 第2のブロック入力特徴マップ
6066 第2のブロック
8502 中心点
8504 第1のx軸
8506 第1のy軸
8508 放物線
8510 x軸
8512 y軸
8514 放物線
14000 処理システム
14030 プロセッサ、処理装置
14032 メモリ、有形メモリ
14034 コンピュータ可読記憶媒体、ストレージ、有形ストレージ
14036 入力デバイス
14037 通信接続
14038 出力デバイス
14042 コンピューティング環境
50100 GAU
50101 低レベル特徴
50102 畳み込み、畳み込み層
50104 高レベル特徴
50106 グローバルプーリング
50108 特徴マップ
50110 畳み込み層
50112 乗算器
50114 重み付き低レベル特徴
50116 合計

Claims (21)

  1. デジタルモデル内の歯群をデジタル的にセグメント化するコンピュータ実施方法であって、
    患者の歯列の少なくとも部分の患者走査データの3Dデジタルモデルを受け取ることと、
    前記3Dデジタルモデルからパノラマ画像を生成することと、
    第1の訓練済みニューラルネットワークを用いて、前記パノラマ画像の1つまたは複数の領域をラベル付けし、ラベル付きパノラマ画像を提供することと、
    前記ラベル付きパノラマ画像の1つまたは複数の領域を前記3Dデジタルモデル内の1つまたは複数の対応する粗いデジタル表面三角形ラベルにマッピングし、ラベル付き3Dデジタルモデルを提供することと、
    前記ラベル付き3Dデジタルモデルをセグメント化し、セグメント化3Dデジタルモデルを提供することと、
    を含む方法。
  2. 前記パノラマ画像の1つまたは複数の領域をラベル付けし、ラベル付きパノラマ画像を提供するために、前記第1の訓練済みニューラルネットワークを訓練することをさらに含む、請求項1に記載の方法。
  3. 前記ラベル付き3Dデジタルモデルが1つまたは複数の不確実領域を含む、請求項1に記載の方法。
  4. 前記セグメント化3Dデジタルモデルが、1つまたは複数の個別歯牙領域、および非歯牙領域を含む、請求項1に記載の方法。
  5. 前記第1の訓練済みニューラルネットワークが第1の畳み込みニューラルネットワークを含む、請求項1に記載の方法。
  6. 前記第1の訓練済みニューラルネットワークがセマンティックセグメンテーションニューラルネットワークを含む、請求項1に記載の方法。
  7. 前記第1の訓練済みニューラルネットワークがYOLOニューラルネットワークを含む、請求項1に記載の方法。
  8. 前記3Dデジタルモデルをセグメント化することが、前記ラベル付き3Dデジタルモデルを幾何学的にセグメント化することを含む、請求項1に記載の方法。
  9. 前記幾何学的にセグメント化することが曲率ベースのセグメンテーションを含む、請求項8に記載の方法。
  10. 前記幾何学的にセグメント化することが2点セグメンテーションを含む、請求項8に記載の方法。
  11. 前記パノラマ画像を生成することが、
    第2の訓練済みニューラルネットワークを用いて、1本または複数本のデジタル歯群に対応する1つまたは複数のデジタル歯牙バウンディング領域を決定することと、
    スプラインによって前記1つまたは複数のデジタル歯牙バウンディング領域を接続することと、
    前記スプライン上の1つまたは複数のスプライン点をサンプリングすることと、
    前記1つまたは複数のサンプリングされたスプライン点から1つまたは複数のサンプリングデジタル表面点を決定することと、
    各サンプリングデジタル表面点に対応する1つまたは複数の関連デジタル表面点を決定することと、
    を含む、請求項1に記載の方法。
  12. 各デジタル歯牙バウンディング領域のデジタル歯牙バウンディング領域中心を決定することをさらに含み、前記1つまたは複数のデジタル歯牙バウンディング領域を接続することが、前記デジタル歯牙バウンディング領域中心を接続することを含む、請求項11に記載の方法。
  13. 前記第2の訓練済みニューラルネットワークがYOLOニューラルネットワークを含む、請求項11に記載の方法。
  14. 前記第2の訓練済みニューラルネットワークがセマンティックセグメンテーションニューラルネットワークを含む、請求項11に記載の方法。
  15. 前記各サンプリングデジタル表面点およびその対応する関連デジタル表面点が前記パノラマ画像内の列を含む、請求項11に記載の方法。
  16. 1つまたは複数の関連デジタル表面点を決定することが、
    各サンプリングデジタル表面点のサンプル深度点を決定することと、
    前記サンプル深度点から、咬合方向から1つまたは複数の傾斜角をなしてサンプル平面内で延びる1本または複数本のそれぞれの光線と交差する1つまたは複数のデジタル表面点を決定することであって、前記サンプル平面が前記スプラインおよび前記咬合方向と直交する、決定することと、
    を含む、請求項11に記載の方法。
  17. 前記1つまたは複数の傾斜角が傾斜角範囲内であり、前記傾斜角範囲が-45度~+45度である、請求項11に記載の方法。
  18. デジタルモデル内の歯群をデジタル的にセグメント化するためのシステムであって、
    プロセッサと、
    ステップを遂行するために前記プロセッサによって実行可能な命令を含むコンピュータ可読記憶媒体と、
    を備え、前記ステップが、
    患者の歯列の少なくとも部分の患者走査データの3Dデジタルモデルを受け取ることと、
    前記3Dデジタルモデルからパノラマ画像を生成することと、
    第1の訓練済みニューラルネットワークを用いて、前記パノラマ画像の1つまたは複数の領域をラベル付けし、ラベル付きパノラマ画像を提供することと、
    前記ラベル付きパノラマ画像の1つまたは複数の領域を前記3Dデジタルモデル内の1つまたは複数の対応する粗いデジタル表面三角形ラベルにマッピングし、ラベル付き3Dデジタルモデルを提供することと、
    前記ラベル付き3Dデジタルモデルをセグメント化し、セグメント化3Dデジタルモデルを提供することと、
    を含む、システム。
  19. 前記パノラマ画像を生成することが、
    第2の訓練済みニューラルネットワークを用いて、1本または複数本のデジタル歯群に対応する1つまたは複数のデジタル歯牙バウンディング領域を決定することと、
    スプラインによって前記1つまたは複数のデジタル歯牙バウンディング領域を接続することと、
    前記スプライン上の1つまたは複数のスプライン点をサンプリングすることと、
    前記1つまたは複数のサンプリングされたスプライン点から1つまたは複数のサンプリングデジタル表面点を決定することと、
    各サンプリングデジタル表面点に対応する1つまたは複数の関連デジタル表面点を決定することと、
    を含む、請求項18に記載のシステム。
  20. パノラマ画像を生成するコンピュータ実施方法であって、
    患者の歯列の少なくとも部分の患者走査データの2D深度マップを受け取ることと、
    訓練済みニューラルネットワークを用いて、1本または複数本のデジタル歯群に対応する1つまたは複数のデジタル歯牙バウンディング領域を決定することと、
    スプラインによって前記1つまたは複数のデジタル歯牙バウンディング領域を接続することと、
    前記スプライン上の1つまたは複数のスプライン点をサンプリングすることと、
    前記1つまたは複数のサンプリングされたスプライン点から1つまたは複数のサンプリングデジタル表面点を決定することと、
    各サンプリングデジタル表面点に対応する1つまたは複数の関連デジタル表面点を決定することと、
    を含む方法。
  21. デジタルモデルをセグメント化するための実行可能コンピュータプログラム命令を記憶する非一時的コンピュータ可読媒体であって、前記コンピュータプログラム命令が、
    患者の歯列の少なくとも部分の患者走査データの3Dデジタルモデルを受け取ることと、
    前記3Dデジタルモデルからパノラマ画像を生成することと、
    第1の訓練済みニューラルネットワークを用いて、前記パノラマ画像の1つまたは複数の領域をラベル付けし、ラベル付きパノラマ画像を提供することと、
    前記ラベル付きパノラマ画像の1つまたは複数の領域を前記3Dデジタルモデル内の1つまたは複数の対応する粗いデジタル表面三角形ラベルにマッピングし、ラベル付き3Dデジタルモデルを提供することと、
    前記ラベル付き3Dデジタルモデルをセグメント化し、セグメント化3Dデジタルモデルを提供することと、
    を含む、非一時的コンピュータ可読媒体。
JP2022546425A 2020-01-31 2021-01-29 ニューラルネットワークを用いた歯群のセグメンテーション Pending JP2023512083A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US16/778,406 2020-01-31
US16/778,406 US11931213B2 (en) 2020-01-31 2020-01-31 Semi-automatic system and method using boundary loop segments for segmenting teeth
US17/140,739 2021-01-04
US17/140,739 US11842484B2 (en) 2021-01-04 2021-01-04 Teeth segmentation using neural networks
PCT/US2021/015820 WO2021155230A1 (en) 2020-01-31 2021-01-29 Teeth segmentation using neural networks

Publications (1)

Publication Number Publication Date
JP2023512083A true JP2023512083A (ja) 2023-03-23

Family

ID=77079206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022546425A Pending JP2023512083A (ja) 2020-01-31 2021-01-29 ニューラルネットワークを用いた歯群のセグメンテーション

Country Status (3)

Country Link
EP (1) EP4096569A4 (ja)
JP (1) JP2023512083A (ja)
WO (1) WO2021155230A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115797192A (zh) * 2021-09-10 2023-03-14 Oppo广东移动通信有限公司 一种图像处理方法、电子设备及计算机存储介质
CN114119635B (zh) * 2021-11-23 2024-05-24 电子科技大学成都学院 一种基于空洞卷积的脂肪肝ct图像分割方法
CN114504397B (zh) * 2022-02-15 2023-08-22 南京铖联激光科技有限公司 一种可摘局部义齿智能设计方法
CN114714626B (zh) * 2022-04-02 2023-08-15 北京大学口腔医学院 一种义齿3d打印支架的设计方法、装置及可存储介质
CN114663769B (zh) * 2022-04-07 2023-04-18 杭州电子科技大学 一种基于YOLO v5的水果识别方法
CN114677516B (zh) * 2022-05-27 2022-12-09 杭州键嘉医疗科技股份有限公司 一种基于深度神经网络的口腔下颌管自动分割方法
CN117765002A (zh) * 2022-06-24 2024-03-26 杭州朝厚信息科技有限公司 口腔全景片的分割方法
CN116485809B (zh) * 2022-07-01 2023-12-15 山东财经大学 基于自注意力与感受野调整的牙齿实例分割方法及系统
CN116168808A (zh) * 2022-12-02 2023-05-26 广州黑格智造信息科技有限公司 牙龈线提取方法、牙科器械的制作方法、设备及介质
CN117314868B (zh) * 2023-10-10 2024-03-19 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) 一种基于YOLOv5的钢卷端面缺陷检测方法、装置和介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8929635B2 (en) * 2011-07-21 2015-01-06 Carestream Health, Inc. Method and system for tooth segmentation in dental images
US10238277B2 (en) * 2016-05-26 2019-03-26 Dental Smartmirror, Inc. Curing dental material using lights affixed to an intraoral mirror, and applications thereof
CN110769777B (zh) * 2017-06-16 2023-08-11 阿莱恩技术有限公司 牙齿类型和萌出状态的自动检测
US11443423B2 (en) * 2018-10-30 2022-09-13 Dgnct Llc System and method for constructing elements of interest (EoI)-focused panoramas of an oral complex
US11931213B2 (en) * 2020-01-31 2024-03-19 James R. Glidewell Dental Ceramics, Inc. Semi-automatic system and method using boundary loop segments for segmenting teeth

Also Published As

Publication number Publication date
EP4096569A4 (en) 2024-06-19
WO2021155230A1 (en) 2021-08-05
EP4096569A1 (en) 2022-12-07

Similar Documents

Publication Publication Date Title
US11842484B2 (en) Teeth segmentation using neural networks
JP2023512083A (ja) ニューラルネットワークを用いた歯群のセグメンテーション
CN110458939B (zh) 基于视角生成的室内场景建模方法
CN107997778B (zh) 在计算机断层扫描血管造影术中基于深度学习的骨移除
CN110443842B (zh) 基于视角融合的深度图预测方法
Tagliasacchi et al. 3d skeletons: A state‐of‐the‐art report
US20210174543A1 (en) Automated determination of a canonical pose of a 3d objects and superimposition of 3d objects using deep learning
CA3123509A1 (en) Automated semantic segmentation of non-euclidean 3d data sets using deep learning
CN108122239A (zh) 使用深度分割的图像数据中的对象检测
US20110216975A1 (en) Up-Sampling Binary Images for Segmentation
US11853892B2 (en) Learning to segment via cut-and-paste
EP3872761A2 (en) Analysing objects in a set of frames
US20240189079A1 (en) Semi-automatic tooth segmentation
Saovana et al. Automated point cloud classification using an image-based instance segmentation for structure from motion
JP2024518045A (ja) ニューラルネットワークマージン提案
CN113111740A (zh) 一种遥感图像目标检测的特征编织方法
Cao et al. Orienting raw point sets by global contraction and visibility voting
Matrone et al. Explaining AI: understanding deep learning models for heritage point clouds
US20220318989A1 (en) Automatic Clean Up of Jaw Scans
US20220277457A1 (en) Segmentating a tubular feature
US20230218370A1 (en) Automatic determination of trim-line for aligners
TWI307057B (en) A method for rendering three-dimension volume data
Karara et al. 3D Point Cloud Semantic Augmentation: Instance Segmentation of 360° Panoramas by Deep Learning Techniques. Remote Sens. 2021, 13, 3647
US20240233146A1 (en) Image processing using neural networks, with image registration
US20230177722A1 (en) Apparatus and method with object posture estimating

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231114