JP2019531783A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2019531783A5 JP2019531783A5 JP2019511584A JP2019511584A JP2019531783A5 JP 2019531783 A5 JP2019531783 A5 JP 2019531783A5 JP 2019511584 A JP2019511584 A JP 2019511584A JP 2019511584 A JP2019511584 A JP 2019511584A JP 2019531783 A5 JP2019531783 A5 JP 2019531783A5
- Authority
- JP
- Japan
- Prior art keywords
- dimensional image
- stack
- label map
- image
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003062 neural network model Methods 0.000 claims description 22
- 230000011218 segmentation Effects 0.000 claims description 20
- 210000003484 anatomy Anatomy 0.000 claims description 14
- 230000004931 aggregating Effects 0.000 claims description 7
- 238000003384 imaging method Methods 0.000 claims description 5
- 230000001537 neural Effects 0.000 claims description 5
- 230000000875 corresponding Effects 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 238000007637 random forest analysis Methods 0.000 description 4
- 210000003932 Urinary Bladder Anatomy 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000007408 cone-beam computed tomography Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 210000000664 Rectum Anatomy 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001419 dependent Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000000799 fluorescence microscopy Methods 0.000 description 1
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 210000000056 organs Anatomy 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 238000001959 radiotherapy Methods 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Description
[005]
機械学習技術における最近の進歩では、画像内の低コントラスト部分やより低品質の画像ののより正確なセグメンテーションのように改善された画像セグメンテーションを行う。例えば、様々な機械学習アルゴリズムでは、医用画像の各ピクセルまたはボクセルが表す解剖学的構造を(例えば、その可能性を推定することによって)予測するために、機械、コンピュータ、またはコンピュータプログラムを「トレーニング(train)」することができる。そのような予測または推定は通常、入力として医用画像の1つまたは複数の特徴を使用する。したがって、セグメンテーションのパフォーマンスは利用可能な特徴の種類に大きく依存する。例えば、ランダムフォレスト(RF:Random Forest)法が画像セグメンテーションの目的に使用されており、ある程度成功している。RFモデルは、トレーニングサンプルのセットから異なる特徴を抽出することに基づいて構築することができる。しかしながら、RF法で使用される特徴は手動で設計される必要があり、ある種類の器官の輪郭を描くことに特有のものである。さまざまなセグメンテーション応用に最適な特徴の組み合わせを設計するのは面倒で時間がかかる。
機械学習技術における最近の進歩では、画像内の低コントラスト部分やより低品質の画像ののより正確なセグメンテーションのように改善された画像セグメンテーションを行う。例えば、様々な機械学習アルゴリズムでは、医用画像の各ピクセルまたはボクセルが表す解剖学的構造を(例えば、その可能性を推定することによって)予測するために、機械、コンピュータ、またはコンピュータプログラムを「トレーニング(train)」することができる。そのような予測または推定は通常、入力として医用画像の1つまたは複数の特徴を使用する。したがって、セグメンテーションのパフォーマンスは利用可能な特徴の種類に大きく依存する。例えば、ランダムフォレスト(RF:Random Forest)法が画像セグメンテーションの目的に使用されており、ある程度成功している。RFモデルは、トレーニングサンプルのセットから異なる特徴を抽出することに基づいて構築することができる。しかしながら、RF法で使用される特徴は手動で設計される必要があり、ある種類の器官の輪郭を描くことに特有のものである。さまざまなセグメンテーション応用に最適な特徴の組み合わせを設計するのは面倒で時間がかかる。
[008]
本開示のある実施形態は、三次元画像をセグメンテーションするための装置に関する。この装置は、撮像装置によって取得された三次元画像を受け取る入力インターフェースを含むことができる。この装置は、三次元画像を記憶するように構成された少なくとも1つの記憶装置をさらに含むことができる。この装置は、また、三次元画像の第1の平面から二次元画像の第1のスタックを生成し、三次元画像の第2の平面から二次元画像の第2のスタックを生成するように構成された画像プロセッサを含むことができる。画像プロセッサは、少なくとも1つのニューラルネットワークモデルを使用して二次元画像の第1のスタックと第2のスタックをセグメンテーションするようにさらに構成されることができる。画像プロセッサは、また、第1のスタックと第2のスタックからのセグメンテーション結果を集約することによって三次元画像のラベルマップを決定するように構成されることができる。
本開示のある実施形態は、三次元画像をセグメンテーションするための装置に関する。この装置は、撮像装置によって取得された三次元画像を受け取る入力インターフェースを含むことができる。この装置は、三次元画像を記憶するように構成された少なくとも1つの記憶装置をさらに含むことができる。この装置は、また、三次元画像の第1の平面から二次元画像の第1のスタックを生成し、三次元画像の第2の平面から二次元画像の第2のスタックを生成するように構成された画像プロセッサを含むことができる。画像プロセッサは、少なくとも1つのニューラルネットワークモデルを使用して二次元画像の第1のスタックと第2のスタックをセグメンテーションするようにさらに構成されることができる。画像プロセッサは、また、第1のスタックと第2のスタックからのセグメンテーション結果を集約することによって三次元画像のラベルマップを決定するように構成されることができる。
[024]
本明細書で使用されるとき、セグメント化されるかまたはトレーニングデータとして使用されることになる「3D医用画像」又は「3D画像」は、CT、磁気共鳴イメージング(MRI)、機能的MRI(例えば、fMRI、DCE−MRI、および拡散MRI)、コーンビームコンピュータ断層撮影(CBCT)、スパイラルCT、陽電子放出断層撮影(PET)、単光子放出型コンピュータ断層撮影(SPECT)、X線、光断層撮影、蛍光イメージング、超音波イメージング、放射線治療ポータルイメージング、等のような、任意の種類の画像診断法によって取得された3D画像データセットを指す。さらに、本明細書では、「機械学習アルゴリズム」とは、既存の情報または知識に基づいてモデルまたはパターンを学習し、新しい情報または知識の入力を使用して出力を予測または推定することができる任意のアルゴリズムを指す。
本明細書で使用されるとき、セグメント化されるかまたはトレーニングデータとして使用されることになる「3D医用画像」又は「3D画像」は、CT、磁気共鳴イメージング(MRI)、機能的MRI(例えば、fMRI、DCE−MRI、および拡散MRI)、コーンビームコンピュータ断層撮影(CBCT)、スパイラルCT、陽電子放出断層撮影(PET)、単光子放出型コンピュータ断層撮影(SPECT)、X線、光断層撮影、蛍光イメージング、超音波イメージング、放射線治療ポータルイメージング、等のような、任意の種類の画像診断法によって取得された3D画像データセットを指す。さらに、本明細書では、「機械学習アルゴリズム」とは、既存の情報または知識に基づいてモデルまたはパターンを学習し、新しい情報または知識の入力を使用して出力を予測または推定することができる任意のアルゴリズムを指す。
[026]
畳み込みニューラルネットワーク(CNN)は、教師あり学習によってトレーニングすることができる一種の機械学習アルゴリズムである。CNNモデルのアーキテクチャには、入力を出力に変換する個別の層のスタックが含まれている。異なる層の例は、1つまたは複数のコンボリューション層、非線形演算子層(整流線形単位(ReLu)関数、シグモイド関数、または双曲線正接関数など)、プーリングまたはサブサンプリング層、全結合層、および/または最終損失層を含むことができる。各層は、1つの上流層と1つの下流層を接続してもよい。入力は入力層と見なすことができ、出力は最終出力層と考えることができる。
畳み込みニューラルネットワーク(CNN)は、教師あり学習によってトレーニングすることができる一種の機械学習アルゴリズムである。CNNモデルのアーキテクチャには、入力を出力に変換する個別の層のスタックが含まれている。異なる層の例は、1つまたは複数のコンボリューション層、非線形演算子層(整流線形単位(ReLu)関数、シグモイド関数、または双曲線正接関数など)、プーリングまたはサブサンプリング層、全結合層、および/または最終損失層を含むことができる。各層は、1つの上流層と1つの下流層を接続してもよい。入力は入力層と見なすことができ、出力は最終出力層と考えることができる。
[032]
開示された実施形態によれば、CNNモデルをトレーニングするために、トレーニング処理は少なくとも1組のトレーニング画像を使用する。トレーニング画像の各セットは、解剖学的構造を3D画像のボクセルの各々に関連付ける3D画像およびその対応する3Dグラウンドトルースラベルマップ(3D ground truth label map)を含み得る。限定されない実施例として、3D画像は、隣接する2D画像の順次スタックに分割することができる。そして、3Dグラウンドトルースラベルマップは、隣接する2D画像の順次スタックにそれぞれ対応する順次2Dグラウンドトルースラベルマップからなる。本明細書で使用されるように、トレーニング画像は既にセグメント化された画像であり、グラウンドトゥルースラベルマップはトレーニング画像の代表的な画像スライスの各ピクセルについて既知の解剖学的構造ラベルを提供する。言い換えれば、グラウンドトゥルースラベルマップのピクセルは、既知の解剖学的構造と関連している。隣接する2D画像のスタックが奇数個の画像を含む場合、グラウンドトルースラベルマップは、スタックの中央の画像の構造ラベルを提供する。あるいは、隣接する2D画像のスタックが偶数の画像を含む場合、グラウンドトルースラベルマップは、スタックの2つの中央画像のうちの一方の構造ラベルを提供する。
開示された実施形態によれば、CNNモデルをトレーニングするために、トレーニング処理は少なくとも1組のトレーニング画像を使用する。トレーニング画像の各セットは、解剖学的構造を3D画像のボクセルの各々に関連付ける3D画像およびその対応する3Dグラウンドトルースラベルマップ(3D ground truth label map)を含み得る。限定されない実施例として、3D画像は、隣接する2D画像の順次スタックに分割することができる。そして、3Dグラウンドトルースラベルマップは、隣接する2D画像の順次スタックにそれぞれ対応する順次2Dグラウンドトルースラベルマップからなる。本明細書で使用されるように、トレーニング画像は既にセグメント化された画像であり、グラウンドトゥルースラベルマップはトレーニング画像の代表的な画像スライスの各ピクセルについて既知の解剖学的構造ラベルを提供する。言い換えれば、グラウンドトゥルースラベルマップのピクセルは、既知の解剖学的構造と関連している。隣接する2D画像のスタックが奇数個の画像を含む場合、グラウンドトルースラベルマップは、スタックの中央の画像の構造ラベルを提供する。あるいは、隣接する2D画像のスタックが偶数の画像を含む場合、グラウンドトルースラベルマップは、スタックの2つの中央画像のうちの一方の構造ラベルを提供する。
[035]
開示された実施形態によれば、少なくとも1つのトレーニングされたCNNモデルが3D画像をセグメント化するために使用される。限定されない実施例として、3D画像は、複数の隣接する2D画像の形態に分割されてもよいし、複数の隣接する2D画像の形態で提供されてもよい。例えば、解剖学的平面に沿った一連の隣接する2D画像のスタックは、セグメント化されるべき3D画像から取得され得る。隣接する2D画像の一連のスタックは連続していて、スタックの中間画像が一緒になって実質的に全体の3D画像を構成するように1つ以上の重なり合う画像を有していてもよい。シリーズの各スタックはトレーニングされたCNNモデルに入力されて、スタックの中央の画像の2D出力ラベルマップを決定する。2D隣接画像のスタックの中間画像の2Dラベルマップに基づいて、3Dラベルマップを決定することができる。限定されない実施例として、3Dラベルマップは、隣接する2D画像のスタックの解剖学的平面に直交する軸に沿って中間画像のシーケンスに従って中間画像の2Dラベルマップを集約することによって得られてもよい。
開示された実施形態によれば、少なくとも1つのトレーニングされたCNNモデルが3D画像をセグメント化するために使用される。限定されない実施例として、3D画像は、複数の隣接する2D画像の形態に分割されてもよいし、複数の隣接する2D画像の形態で提供されてもよい。例えば、解剖学的平面に沿った一連の隣接する2D画像のスタックは、セグメント化されるべき3D画像から取得され得る。隣接する2D画像の一連のスタックは連続していて、スタックの中間画像が一緒になって実質的に全体の3D画像を構成するように1つ以上の重なり合う画像を有していてもよい。シリーズの各スタックはトレーニングされたCNNモデルに入力されて、スタックの中央の画像の2D出力ラベルマップを決定する。2D隣接画像のスタックの中間画像の2Dラベルマップに基づいて、3Dラベルマップを決定することができる。限定されない実施例として、3Dラベルマップは、隣接する2D画像のスタックの解剖学的平面に直交する軸に沿って中間画像のシーケンスに従って中間画像の2Dラベルマップを集約することによって得られてもよい。
[047]
図3に示すように、CNNモデル10は、一般に、2つの部分、すなわち第1の特徴抽出部20と第2のピクセル単位ラベリング部30とを含むことができる。特徴抽出部20は、隣接する2D画像22の入力スタックの1つまたは複数の特徴を抽出することができる。特徴抽出部は、畳み込みニューラルネットワーク24を使用して、隣接する2D画像22の入力スタックを受け取り、その入力スタックの特徴を表す少なくとも1つの特徴ベクトルまたは行列を出力する。ピクセル単位ラベリング部30は、特徴抽出部20の出力を用いて、隣接する2D画像22の入力スタックの中間画像26の2Dラベルマップ32を予測する。ピクセル単位ラベリング部30は、以下でさらに詳細に説明されるように、パッチベースのアプローチおよび完全マッピングアプローチのような任意の適切なアプローチを使用して実行することができる。
図3に示すように、CNNモデル10は、一般に、2つの部分、すなわち第1の特徴抽出部20と第2のピクセル単位ラベリング部30とを含むことができる。特徴抽出部20は、隣接する2D画像22の入力スタックの1つまたは複数の特徴を抽出することができる。特徴抽出部は、畳み込みニューラルネットワーク24を使用して、隣接する2D画像22の入力スタックを受け取り、その入力スタックの特徴を表す少なくとも1つの特徴ベクトルまたは行列を出力する。ピクセル単位ラベリング部30は、特徴抽出部20の出力を用いて、隣接する2D画像22の入力スタックの中間画像26の2Dラベルマップ32を予測する。ピクセル単位ラベリング部30は、以下でさらに詳細に説明されるように、パッチベースのアプローチおよび完全マッピングアプローチのような任意の適切なアプローチを使用して実行することができる。
[059]
別の限定されない実施例として、コンボリューション層および/またはプーリング層の後に、1つまたは複数の完全に接続された層29を追加することができる。完全に接続された層は、前の層のすべてのアクティベーションマップまたは機能マップと完全に接続されている。例えば、全結合層は、最後のコンボリューション層または最後のプーリング層の出力をベクトル形式の入力として取り、高レベルの決定を実行し、深さ次元に沿って配置された特徴ベクトルを出力することができる。出力ベクトルは、出力層と呼ばれることがある。ベクトルは、CNNモデル10の画像22の入力スタック内の解剖学的構造の情報を含むことができる。
別の限定されない実施例として、コンボリューション層および/またはプーリング層の後に、1つまたは複数の完全に接続された層29を追加することができる。完全に接続された層は、前の層のすべてのアクティベーションマップまたは機能マップと完全に接続されている。例えば、全結合層は、最後のコンボリューション層または最後のプーリング層の出力をベクトル形式の入力として取り、高レベルの決定を実行し、深さ次元に沿って配置された特徴ベクトルを出力することができる。出力ベクトルは、出力層と呼ばれることがある。ベクトルは、CNNモデル10の画像22の入力スタック内の解剖学的構造の情報を含むことができる。
[062]
いくつかの実施形態では、パッチベースのアプローチが、隣接する2D画像22の入力スタックの中間画像26の2Dラベルマップ32を予測するために使用される。隣接する2D画像のスタック内の各画像は、それぞれが中央ピクセルを有する、重なり合ったまたは重ならない長方形パッチに同じように分割される。これにより、隣接する2D画像パッチのスタックが生成される。2D画像パッチのスタックは、トレーニングデータとCNNモデル10の入力の両方として使用することができる。パッチは、パッチの中央ピクセルが一緒になって実質的に全体の2D画像を構成するように設計することができる。CNNモデル10は、例えば中央ピクセルによって表される解剖学的構造を予測するなど、パッチの各スタックの中間パッチの中央ピクセルを分類することができる。例えば、CNNモデル10は、スタック内の中間パッチの中央ピクセルの特徴ベクトルを予測することができ、それによって中央ピクセルの解剖学的構造を分類することを可能にする。このような分類は、隣接する2D画像パッチの全てのスタックの中間パッチの全ての中央ピクセルが分類又はラベル付けされるまで繰り返し実行され、それにより隣接する2D画像のスタックの中間画像のセグメンテーションが達成される。
いくつかの実施形態では、パッチベースのアプローチが、隣接する2D画像22の入力スタックの中間画像26の2Dラベルマップ32を予測するために使用される。隣接する2D画像のスタック内の各画像は、それぞれが中央ピクセルを有する、重なり合ったまたは重ならない長方形パッチに同じように分割される。これにより、隣接する2D画像パッチのスタックが生成される。2D画像パッチのスタックは、トレーニングデータとCNNモデル10の入力の両方として使用することができる。パッチは、パッチの中央ピクセルが一緒になって実質的に全体の2D画像を構成するように設計することができる。CNNモデル10は、例えば中央ピクセルによって表される解剖学的構造を予測するなど、パッチの各スタックの中間パッチの中央ピクセルを分類することができる。例えば、CNNモデル10は、スタック内の中間パッチの中央ピクセルの特徴ベクトルを予測することができ、それによって中央ピクセルの解剖学的構造を分類することを可能にする。このような分類は、隣接する2D画像パッチの全てのスタックの中間パッチの全ての中央ピクセルが分類又はラベル付けされるまで繰り返し実行され、それにより隣接する2D画像のスタックの中間画像のセグメンテーションが達成される。
[063]
上述したパッチベースのアプローチでは、隣接する2D画像22の入力スタックの中間画像26のピクセル単位のラベリングは、中間画像26全体を構成する全ての中央ピクセルが分類されるときに実行される。
上述したパッチベースのアプローチでは、隣接する2D画像22の入力スタックの中間画像26のピクセル単位のラベリングは、中間画像26全体を構成する全ての中央ピクセルが分類されるときに実行される。
[072]
いくつかの実施形態では、隣接する2D画像のスタックは、3、5、7、または任意の適切な奇数のような、奇数の画像を含む。そのような場合、グラウンドトゥルースラベルマップは、スタックの中間画像の各ピクセルに対して既知の解剖学的構造ラベルを提供する。他の実施形態では、隣接する2D画像のスタックは、2、4、6、または任意の適切な偶数のような、偶数の画像を含む。そのような場合、グラウンドトゥルースラベルマップは、スタックの2つの中間画像のうちの1つの各ピクセルについて既知の解剖学的構造ラベルを提供する。
いくつかの実施形態では、隣接する2D画像のスタックは、3、5、7、または任意の適切な奇数のような、奇数の画像を含む。そのような場合、グラウンドトゥルースラベルマップは、スタックの中間画像の各ピクセルに対して既知の解剖学的構造ラベルを提供する。他の実施形態では、隣接する2D画像のスタックは、2、4、6、または任意の適切な偶数のような、偶数の画像を含む。そのような場合、グラウンドトゥルースラベルマップは、スタックの2つの中間画像のうちの1つの各ピクセルについて既知の解剖学的構造ラベルを提供する。
[083]
図5に示すように、画像処理装置200は、画像処理部221、メモリ222、医用画像データベース225、画像データ記憶装置226、入出力インターフェース227、ネットワークインターフェース228、および画像ディスプレイ229を含む。
図5に示すように、画像処理装置200は、画像処理部221、メモリ222、医用画像データベース225、画像データ記憶装置226、入出力インターフェース227、ネットワークインターフェース228、および画像ディスプレイ229を含む。
[0111]
ステップ548において、セグメンテーションユニット103は最終的な3Dラベルマップを決定する。3つの解剖学的平面について決定された3つの3Dラベルマップを融合することによって最終的な3Dラベルマップを決定することができる。いくつかの実施形態では、融合された3Dラベルマップのボクセルのラベル付けは、多数決によって決定されてもよい。例えば、3つの3Dラベルマップのうち2つが解剖学的構造として3D画像のボクセルをラベル付けする場合、融合された3Dラベルマップの対応するボクセルは同じ解剖学的構造に関連付けられていると決定される。他の実施形態では、融合3Dラベルマップのボクセルは、3つの3Dラベルマップ内の対応するボクセルについて推定された最大尤度または確率に基づいて決定される。例えば、第1の3Dラベルマップが、ボクセルは0.5の確率で膀胱を表すと決定し、第2の3Dラベルマップが、ボクセルは0.4の確率で前立腺を表すと決定し、第3の3Dラベルマップが、ボクセルは0.2の確率で直腸を表すと決定したならば、そのボクセルは融合された3Dラベルマップでは膀胱を表すものとしてラベル付けされる。本明細書に記載されるように、画像セグメンテーション処理500Bにおいて決定された3つの3Dラベルマップを融合するために任意の適切な方法が使用されてもよい。
ステップ548において、セグメンテーションユニット103は最終的な3Dラベルマップを決定する。3つの解剖学的平面について決定された3つの3Dラベルマップを融合することによって最終的な3Dラベルマップを決定することができる。いくつかの実施形態では、融合された3Dラベルマップのボクセルのラベル付けは、多数決によって決定されてもよい。例えば、3つの3Dラベルマップのうち2つが解剖学的構造として3D画像のボクセルをラベル付けする場合、融合された3Dラベルマップの対応するボクセルは同じ解剖学的構造に関連付けられていると決定される。他の実施形態では、融合3Dラベルマップのボクセルは、3つの3Dラベルマップ内の対応するボクセルについて推定された最大尤度または確率に基づいて決定される。例えば、第1の3Dラベルマップが、ボクセルは0.5の確率で膀胱を表すと決定し、第2の3Dラベルマップが、ボクセルは0.4の確率で前立腺を表すと決定し、第3の3Dラベルマップが、ボクセルは0.2の確率で直腸を表すと決定したならば、そのボクセルは融合された3Dラベルマップでは膀胱を表すものとしてラベル付けされる。本明細書に記載されるように、画像セグメンテーション処理500Bにおいて決定された3つの3Dラベルマップを融合するために任意の適切な方法が使用されてもよい。
[0113]
図8Aに示すように、セグメンテーションユニット103は、1つより多い解剖学的平面(例えば、軸平面、矢状平面、冠状平面)に沿って隣接する2D画像のスタックを使用してトレーニングされたCNNモデルを受信する。3つの解剖学的平面に沿ってセグメント化されるべき3D医用画像から生成された隣接する2D画像の3つの一連のスタックは、2Dラベルマップを得るためにトレーニングされたCNNモデルに独立して入力する。あるいは、3つの解剖学的平面に沿った3つの一連の隣接する2D画像のスタックを組み合わせ、例えば1つずつ積み重ね、そして同じトレーニングされたCNNモデルに入力してもよい。上述したように、各解剖学的平面に沿った一連の隣接する2D画像のスタックの中間画像の2Dラベルマップは、3Dラベルマップを得るために、集積することができ、例えば、解剖学的平面に直交する軸に沿って積み重ねることができる。したがって、図8Aに示すように、3つの異なる解剖学的平面に対応する隣接する画像の3つの一連のスタックに基づいて、3D画像の3つの3Dラベルマップを得る。上述したように、3つの3Dラベルマップを融合して3D医用画像の最終的な3Dラベルマップを生成する。
図8Aに示すように、セグメンテーションユニット103は、1つより多い解剖学的平面(例えば、軸平面、矢状平面、冠状平面)に沿って隣接する2D画像のスタックを使用してトレーニングされたCNNモデルを受信する。3つの解剖学的平面に沿ってセグメント化されるべき3D医用画像から生成された隣接する2D画像の3つの一連のスタックは、2Dラベルマップを得るためにトレーニングされたCNNモデルに独立して入力する。あるいは、3つの解剖学的平面に沿った3つの一連の隣接する2D画像のスタックを組み合わせ、例えば1つずつ積み重ね、そして同じトレーニングされたCNNモデルに入力してもよい。上述したように、各解剖学的平面に沿った一連の隣接する2D画像のスタックの中間画像の2Dラベルマップは、3Dラベルマップを得るために、集積することができ、例えば、解剖学的平面に直交する軸に沿って積み重ねることができる。したがって、図8Aに示すように、3つの異なる解剖学的平面に対応する隣接する画像の3つの一連のスタックに基づいて、3D画像の3つの3Dラベルマップを得る。上述したように、3つの3Dラベルマップを融合して3D医用画像の最終的な3Dラベルマップを生成する。
Claims (24)
- 三次元画像をセグメンテーションするためのコンピュータ実施方法であって、
前記方法は、
撮像装置により取得された前記三次元画像を受け取ることと、
前記三次元画像の第1の解剖学的平面から隣接する二次元画像の第1のスタックを生成し、前記三次元画像の第2の解剖学的平面から隣接する二次元画像の第2のスタックを生成することと、
プロセッサにより、第1の畳み込みニューラルネットワークモデルを用いて前記二次元画像の前記第1のスタックをセグメンテーションし、第2の畳み込みニューラルネットワークモデルを用いて前記二次元画像の前記第2のスタックをセグメンテーションすることと、
前記プロセッサにより、前記第1のスタックからの前記セグメンテーション結果および前記第2のスタックからの前記セグメンテーション結果をそれぞれ集約することにより、前記三次元画像の第1のラベルマップおよび第2のラベルマップを決定することと、
前記プロセッサにより、前記三次元画像の前記第1のラベルマップと前記第2のラベルマップとを融合して前記三次元画像の最終的なラベルマップを生成することと
を有することを特徴とする方法。 - 請求項1記載の方法において、
前記三次元画像の第3の解剖学的平面から隣接する二次元画像の第3のスタックを生成することと、
第3の畳み込みニューラルネットワークモデルを用いて前記二次元画像の前記第3のスタックをセグメンテーションすることと、
前記第3のスタックからの前記セグメンテーション結果を集約することにより、前記三次元画像の第3のラベルマップを決定することと
を更に有し、
前記三次元画像の前記最終的なラベルマップを生成することは、前記三次元画像の前記第1のラベルマップと前記第2のラベルマップと前記第3のラベルマップとを融合して前記三次元画像の前記最終的なラベルマップを生成することを含む
ことを特徴とする方法。 - 請求項1記載の方法において、
前記第1の解剖学的平面および前記第2の解剖学的平面は、それぞれ前記三次元画像の軸平面、矢状面、冠状面から選択される
ことを特徴とする方法。 - 請求項1記載の方法において、
前記二次元画像の前記第1のスタックと前記第2のスタックをセグメンテーションすることは、前記三次元画像のボクセルに対する複数のラベルを決定することを含む
ことを特徴とする方法。 - 請求項4記載の方法において、
前記三次元画像の前記第1のラベルマップと前記第2のラベルマップとを融合して前記三次元画像の前記最終的なラベルマップを生成することは、前記複数のラベルの中で最も高い確率値を有するラベルを前記ボクセルに割り当てることを含む
ことを特徴とする方法。 - 請求項1記載の方法において、
前記第1の畳み込みニューラルネットワークモデル及び前記第2の畳み込みニューラルネットワークモデルは、深層畳み込みニューラルネットワークモデルである
ことを特徴とする方法。 - 請求項1記載の方法において、
前記三次元画像は、患者の解剖学的構造を示す医用画像であり、
前記ラベルマップは、前記三次元画像の各ボクセルに解剖学的構造を関連付ける
ことを特徴とする方法。 - 請求項1記載の方法において、
少なくとも1つの三次元トレーニング画像を用いて前記第1の畳み込みニューラルネットワークモデル及び前記第2の畳み込みニューラルネットワークモデルをトレーニングすることを更に含む
ことを特徴とする方法。 - 三次元画像をセグメンテーションするための装置であって、
前記装置は、
撮像装置によって取得された前記三次元画像を受け取る入力インターフェースと、
前記三次元画像を記憶するように構成された少なくとも1つの記憶装置と、
前記三次元画像の第1の解剖学的平面から隣接する二次元画像の第1のスタックを生成し、前記三次元画像の第2の解剖学的平面から隣接する二次元画像の第2のスタックを生成し、
第1の畳み込みニューラルネットワークモデルを用いて前記二次元画像の前記第1のスタックをセグメンテーションし、第2の畳み込みニューラルネットワークモデルを用いて前記二次元画像の前記第2のスタックをセグメンテーションし、
前記第1のスタックからの前記セグメンテーション結果および前記第2のスタックからの前記セグメンテーション結果をそれぞれ集約することにより、前記三次元画像の第1のラベルマップおよび第2のラベルマップを決定し、
前記三次元画像の前記第1のラベルマップと前記第2のラベルマップとを融合して前記三次元画像の最終的なラベルマップを生成する
ように構成されている画像プロセッサと
を有することを特徴とする装置。 - 請求項9記載の装置において、
前記画像プロセッサは、更に、
前記三次元画像の第3の解剖学的平面から隣接する二次元画像の第3のスタックを生成し、
第3の畳み込みニューラルネットワークモデルを用いて前記二次元画像の前記第3のスタックをセグメンテーションし、
前記第3のスタックからの前記セグメンテーション結果を集約して、前記三次元画像の第3のラベルマップを決定する
ように構成され、
前記三次元画像の前記最終的なラベルマップを生成することは、前記三次元画像の前記第1のラベルマップと前記第2のラベルマップと前記第3のラベルマップとを融合して前記三次元画像の前記最終的なラベルマップを生成することを含む
ことを特徴とする装置。 - 請求項9記載の装置において、
前記第1の解剖学的平面および前記第2の解剖学的平面は、それぞれ前記三次元画像の軸平面、矢状面、冠状面から選択される
ことを特徴とする装置。 - 請求項9記載の装置において、
前記二次元画像の前記第1のスタックと前記第2のスタックをセグメンテーションすることは、前記三次元画像のボクセルに対する複数のラベルを決定することを含む
ことを特徴とする装置。 - 請求項12記載の装置において、
前記三次元画像の前記第1のラベルマップと前記第2のラベルマップとを融合することは、前記複数のラベルの中で最も高い確率値を有するラベルを前記ボクセルに割り当てることを含む
ことを特徴とする装置。 - 請求項9記載の装置において、
前記第1の畳み込みニューラルネットワークモデル及び前記第2の畳み込みニューラルネットワークモデルは、深層畳み込みニューラルネットワークモデルである
ことを特徴とする装置。 - 請求項9記載の装置において、
前記三次元画像は患者の解剖学的構造を示す医用画像であり、前記ラベルマップは前記三次元画像の各ボクセルに解剖学的構造を関連付けている
ことを特徴とする装置。 - 請求項9記載の装置において、
前記画像プロセッサは、更に、少なくとも1つの三次元トレーニング画像を用いて前記第1の畳み込みニューラルネットワークモデル及び前記第2の畳み込みニューラルネットワークモデルをトレーニングするように構成されている
ことを特徴とする装置。 - 少なくとも1つのプロセッサにより実行されたときに、前記少なくとも1つのプロセッサが三次元画像をセグメンテーションする方法を実行するような命令を含む非一時的コンピュータ可読媒体であって、
前記方法は、
撮像装置により取得された前記三次元画像を受け取ることと、
前記三次元画像の第1の解剖学的平面から隣接する二次元画像の第1のスタックを生成し、前記三次元画像の第2の解剖学的平面から隣接する二次元画像の第2のスタックを生成することと、
前記少なくとも1つのプロセッサにより、第1の畳み込みニューラルネットワークモデルを用いて前記二次元画像の前記第1のスタックをセグメンテーションし、第2の畳み込みニューラルネットワークモデルを用いて前記二次元画像の前記第2のスタックをセグメンテーションすることと、
前記少なくとも1つのプロセッサにより、前記第1のスタックからの前記セグメンテーション結果および前記第2のスタックからの前記セグメンテーション結果をそれぞれ集約することにより、前記三次元画像の第1のラベルマップおよび第2のラベルマップを決定することと、
前記少なくとも1つのプロセッサにより、前記三次元画像の前記第1のラベルマップと前記第2のラベルマップとを融合して前記三次元画像の最終的なラベルマップを生成することを含む
を有することを特徴とする非一時的コンピュータ可読媒体。 - 請求項17記載の非一時的コンピュータ可読媒体において、
前記方法は、
前記三次元画像の第3の解剖学的平面から隣接する二次元画像の第3のスタックを生成することと、
第3の畳み込みニューラルネットワークモデルを用いて前記二次元画像の前記第3のスタックをセグメンテーションすることと、
前記第3のスタックからの前記セグメンテーション結果を集約することによって、前記三次元画像の第3のラベルマップを決定することと
を更に有し、
前記三次元画像の前記最終的なラベルマップを生成することは、前記三次元画像の前記第1のラベルマップと前記第2のラベルマップと前記第3のラベルマップとを融合して前記三次元画像の前記最終的なラベルマップを生成することを含む
ことを特徴とする非一時的コンピュータ可読媒体。 - 請求項17記載の非一時的コンピュータ可読媒体において、
前記第1の解剖学的平面および前記第2の解剖学的平面は、それぞれ前記三次元画像の軸平面、矢状面、冠状面から選択される
ことを特徴とする非一時的コンピュータ可読媒体。 - 請求項17記載の非一時的コンピュータ可読媒体において、
前記二次元画像の前記第1のスタックと前記第2のスタックをセグメンテーションすることは、前記三次元画像のボクセルに対する複数のラベルを決定することを含む
ことを特徴とする非一時的コンピュータ可読媒体。 - 請求項20記載の非一時的コンピュータ可読媒体において、
前記三次元画像の前記第1のラベルマップと前記第2のラベルマップとを融合することは、前記複数のラベルの中で最も高い確率値を有するラベルを前記ボクセルに割り当てることを含む
ことを特徴とする非一時的コンピュータ可読媒体。 - 請求項17記載の非一時的コンピュータ可読媒体において、
前記第1の畳み込みニューラルネットワークモデル及び前記第2の畳み込みニューラルネットワークモデルは、深層畳み込みニューラルネットワークモデルである
ことを特徴とする非一時的コンピュータ可読媒体。 - 請求項17記載の非一時的コンピュータ可読媒体において、
前記三次元画像は、患者の解剖学的構造を示す医用画像であり、
前記ラベルマップは、前記三次元画像の各ボクセルに解剖学的構造を関連付ける
ことを特徴とする非一時的コンピュータ可読媒体。 - 請求項17記載の非一時的コンピュータ可読媒体において、
前記方法は、
少なくとも1つの三次元トレーニング画像を用いて前記第1の畳み込みニューラルネットワークモデル及び前記第2の畳み込みニューラルネットワークモデルをトレーニングすることを更に含む
ことを特徴とする非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/248,628 | 2016-08-26 | ||
US15/248,628 US9965863B2 (en) | 2016-08-26 | 2016-08-26 | System and methods for image segmentation using convolutional neural network |
PCT/US2017/048271 WO2018039380A1 (en) | 2016-08-26 | 2017-08-23 | Systems and methods for image segmentation using convolutional neural network |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020174419A Division JP2021035502A (ja) | 2016-08-26 | 2020-10-16 | 畳み込みニューラルネットワークを用いた画像セグメンテーションのためのシステムおよび方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019531783A JP2019531783A (ja) | 2019-11-07 |
JP2019531783A5 true JP2019531783A5 (ja) | 2021-08-05 |
JP6932182B2 JP6932182B2 (ja) | 2021-09-08 |
Family
ID=59791166
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019511584A Active JP6932182B2 (ja) | 2016-08-26 | 2017-08-23 | 畳み込みニューラルネットワークを用いた画像セグメンテーションのためのシステムおよび方法 |
JP2020174419A Withdrawn JP2021035502A (ja) | 2016-08-26 | 2020-10-16 | 畳み込みニューラルネットワークを用いた画像セグメンテーションのためのシステムおよび方法 |
JP2021139654A Pending JP2022001261A (ja) | 2016-08-26 | 2021-08-30 | 畳み込みニューラルネットワークを用いた画像セグメンテーションのためのシステムおよび方法 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020174419A Withdrawn JP2021035502A (ja) | 2016-08-26 | 2020-10-16 | 畳み込みニューラルネットワークを用いた画像セグメンテーションのためのシステムおよび方法 |
JP2021139654A Pending JP2022001261A (ja) | 2016-08-26 | 2021-08-30 | 畳み込みニューラルネットワークを用いた画像セグメンテーションのためのシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (3) | US9965863B2 (ja) |
EP (1) | EP3504680B1 (ja) |
JP (3) | JP6932182B2 (ja) |
CN (1) | CN109923582B (ja) |
AU (1) | AU2017315684B2 (ja) |
RU (1) | RU2720070C1 (ja) |
WO (1) | WO2018039380A1 (ja) |
Families Citing this family (104)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10586400B2 (en) * | 2018-02-23 | 2020-03-10 | Robert E Douglas | Processing 3D medical images to enhance visualization |
US9965863B2 (en) | 2016-08-26 | 2018-05-08 | Elekta, Inc. | System and methods for image segmentation using convolutional neural network |
EP3513381A1 (en) * | 2016-09-18 | 2019-07-24 | Yeda Research and Development Co. Ltd | Systems and methods for generating 3d images based on fluorescent illumination |
CN109964249A (zh) * | 2016-09-21 | 2019-07-02 | 皇家飞利浦有限公司 | 用于对身体部分的自适应轮廓勾画的装置 |
US10402943B2 (en) * | 2016-10-20 | 2019-09-03 | Htc Corporation | Image enhancement device and method for convolutional network apparatus |
WO2018077747A1 (en) * | 2016-10-25 | 2018-05-03 | Koninklijke Philips N.V. | A method and apparatus for segmenting a two-dimensional image of an anatomical structure |
US10582907B2 (en) * | 2016-10-31 | 2020-03-10 | Siemens Healthcare Gmbh | Deep learning based bone removal in computed tomography angiography |
WO2018091486A1 (en) * | 2016-11-16 | 2018-05-24 | Ventana Medical Systems, Inc. | Convolutional neural networks for locating objects of interest in images of biological samples |
US10733506B1 (en) | 2016-12-14 | 2020-08-04 | Waymo Llc | Object detection neural network |
US10699184B2 (en) * | 2016-12-29 | 2020-06-30 | Facebook, Inc. | Updating predictions for a deep-learning model |
JP6987508B2 (ja) * | 2017-02-20 | 2022-01-05 | オムロン株式会社 | 形状推定装置及び方法 |
US10580131B2 (en) * | 2017-02-23 | 2020-03-03 | Zebra Medical Vision Ltd. | Convolutional neural network for segmentation of medical anatomical images |
WO2018209057A1 (en) * | 2017-05-11 | 2018-11-15 | The Research Foundation For The State University Of New York | System and method associated with predicting segmentation quality of objects in analysis of copious image data |
US10242292B2 (en) | 2017-06-13 | 2019-03-26 | Digital Surgery Limited | Surgical simulation for training detection and classification neural networks |
US10783394B2 (en) | 2017-06-20 | 2020-09-22 | Nvidia Corporation | Equivariant landmark transformation for landmark localization |
US10713537B2 (en) | 2017-07-01 | 2020-07-14 | Algolux Inc. | Method and apparatus for joint image processing and perception |
CN108022238B (zh) * | 2017-08-09 | 2020-07-03 | 深圳科亚医疗科技有限公司 | 对3d图像中对象进行检测的方法、计算机存储介质和系统 |
KR101995900B1 (ko) * | 2017-09-11 | 2019-07-04 | 뉴로핏 주식회사 | 3차원 뇌지도 생성 방법 및 프로그램 |
US10803984B2 (en) | 2017-10-06 | 2020-10-13 | Canon Medical Systems Corporation | Medical image processing apparatus and medical image processing system |
US11517197B2 (en) | 2017-10-06 | 2022-12-06 | Canon Medical Systems Corporation | Apparatus and method for medical image reconstruction using deep learning for computed tomography (CT) image noise and artifacts reduction |
US10614574B2 (en) * | 2017-10-16 | 2020-04-07 | Adobe Inc. | Generating image segmentation data using a multi-branch neural network |
EP3489627B1 (en) * | 2017-11-24 | 2020-08-19 | Leica Geosystems AG | True to size 3d-model conglomeration |
BR112020014201A2 (pt) | 2018-01-10 | 2020-12-01 | Institut de Recherche sur les Cancers de l'Appareil Digestif - IRCAD | sistema e método de segmentação automática de uma imagem médica 3d por uma ou várias redes neurais através de convolução estruturada de acordo com a geometria anatômica da imagem médica 3d |
US11551362B2 (en) | 2018-01-10 | 2023-01-10 | Institut De Recherche Sur Les Cancers De I | Automatic segmentation process of a 3D medical image by several neural networks through structured convolution according to the geometry of the 3D medical image |
US10885630B2 (en) | 2018-03-01 | 2021-01-05 | Intuitive Surgical Operations, Inc | Systems and methods for segmentation of anatomical structures for image-guided surgery |
US10223611B1 (en) * | 2018-03-08 | 2019-03-05 | Capital One Services, Llc | Object detection using image classification models |
EP3547254A1 (de) * | 2018-03-29 | 2019-10-02 | Siemens Healthcare GmbH | Analyse-verfahren und analyseeinheit zur ermittlung radiologischer ergebnisdaten |
CN108764241A (zh) * | 2018-04-20 | 2018-11-06 | 平安科技(深圳)有限公司 | 分割股骨近端的方法、装置、计算机设备和存储介质 |
US10555779B2 (en) * | 2018-04-27 | 2020-02-11 | Medtronic Navigation, Inc. | System and method for a tracked procedure |
US10736699B2 (en) | 2018-04-27 | 2020-08-11 | Medtronic Navigation, Inc. | System and method for a tracked procedure |
US11234666B2 (en) * | 2018-05-31 | 2022-02-01 | Canon Medical Systems Corporation | Apparatus and method for medical image reconstruction using deep learning to improve image quality in position emission tomography (PET) |
WO2019241659A1 (en) * | 2018-06-15 | 2019-12-19 | Subtle Medical, Inc. | Systems and methods for magnetic resonance imaging standardization using deep learning |
JP7089071B2 (ja) * | 2018-06-15 | 2022-06-21 | シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド | 単一ディープニューラルネットワークをエンドツーエンド訓練法で使用する検体容器特徴付け |
US11927736B2 (en) | 2018-06-15 | 2024-03-12 | Siemens Healthcare Diagnostics Inc. | Methods and apparatus for fine-grained HIL index determination with advanced semantic segmentation and adversarial training |
EP3586748B1 (de) * | 2018-06-26 | 2020-06-24 | Siemens Healthcare GmbH | Verfahren zum betreiben eines medizinischen bildgebungsgeräts sowie bildgebungsgerät |
JP6954719B2 (ja) | 2018-07-06 | 2021-10-27 | シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング | 検査ボリュームの差分画像データセットの決定 |
CN110728627A (zh) * | 2018-07-16 | 2020-01-24 | 宁波舜宇光电信息有限公司 | 图像降噪方法、装置、系统和存储介质 |
CN108986891A (zh) * | 2018-07-24 | 2018-12-11 | 北京市商汤科技开发有限公司 | 医疗影像处理方法及装置、电子设备及存储介质 |
WO2020028257A2 (en) | 2018-07-30 | 2020-02-06 | Hyperfine Research, Inc. | Deep learning techniques for magnetic resonance image reconstruction |
CN113557526A (zh) | 2018-08-15 | 2021-10-26 | 海珀菲纳股份有限公司 | 用于抑制磁共振图像中的伪影的深度学习技术 |
CN109146899A (zh) * | 2018-08-28 | 2019-01-04 | 众安信息技术服务有限公司 | Ct图像的危及器官分割方法及装置 |
US10311337B1 (en) * | 2018-09-04 | 2019-06-04 | StradVision, Inc. | Method and device for providing integrated feature map using ensemble of multiple outputs from convolutional neural network |
CN110766693B (zh) * | 2018-09-06 | 2022-06-21 | 北京连心医疗科技有限公司 | 一种基于多模型神经网络联合预测放疗结构位置的方法 |
CN110889853B (zh) * | 2018-09-07 | 2022-05-03 | 天津大学 | 基于残差-注意力深度神经网络的肿瘤分割方法 |
JP7129870B2 (ja) * | 2018-10-01 | 2022-09-02 | 富士フイルム株式会社 | 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム |
CN109360210B (zh) | 2018-10-16 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 图像分割方法、装置、计算机设备及存储介质 |
EP3644275A1 (en) * | 2018-10-22 | 2020-04-29 | Koninklijke Philips N.V. | Predicting correctness of algorithmic segmentation |
US10504027B1 (en) * | 2018-10-26 | 2019-12-10 | StradVision, Inc. | CNN-based learning method, learning device for selecting useful training data and test method, test device using the same |
CN111126115B (zh) * | 2018-11-01 | 2024-06-07 | 顺丰科技有限公司 | 暴力分拣行为识别方法和装置 |
US11301748B2 (en) | 2018-11-13 | 2022-04-12 | International Business Machines Corporation | Automatic feature extraction from aerial images for test pattern sampling and pattern coverage inspection for lithography |
EP3881230A2 (en) * | 2018-11-14 | 2021-09-22 | Intuitive Surgical Operations, Inc. | Convolutional neural networks for efficient tissue segmentation |
KR101981202B1 (ko) * | 2018-12-11 | 2019-05-22 | 메디컬아이피 주식회사 | 의료영상 재구성 방법 및 그 장치 |
US11995854B2 (en) * | 2018-12-19 | 2024-05-28 | Nvidia Corporation | Mesh reconstruction using data-driven priors |
US11017542B2 (en) * | 2018-12-21 | 2021-05-25 | Beijing Voyager Technology Co., Ld. | Systems and methods for determining depth information in two-dimensional images |
WO2020138128A1 (ja) * | 2018-12-26 | 2020-07-02 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
TWI697010B (zh) * | 2018-12-28 | 2020-06-21 | 國立成功大學 | 醫療矢面影像的取得方法、神經網路的訓練方法及計算機裝置 |
WO2020133354A1 (en) * | 2018-12-29 | 2020-07-02 | Shenzhen Malong Technologies Co., Ltd. | 3d segmentation network and 3d refinement module |
CN110613480B (zh) * | 2019-01-14 | 2022-04-26 | 广州爱孕记信息科技有限公司 | 基于深度学习的胎儿超声动态影像检测方法及系统 |
CN110322435A (zh) * | 2019-01-20 | 2019-10-11 | 北京工业大学 | 一种基于深度学习的胃癌病理图像癌变区域分割方法 |
US10373317B1 (en) * | 2019-01-22 | 2019-08-06 | StradVision, Inc. | Learning method and learning device for attention-driven image segmentation by using at least one adaptive loss weight map to be used for updating HD maps required to satisfy level 4 of autonomous vehicles and testing method and testing device using the same |
US11062459B2 (en) | 2019-02-07 | 2021-07-13 | Vysioneer INC. | Method and apparatus for automated target and tissue segmentation using multi-modal imaging and ensemble machine learning models |
EP3938799A2 (en) | 2019-03-14 | 2022-01-19 | Hyperfine, Inc. | Deep learning techniques for generating magnetic resonance images from spatial frequency data |
CN109978037B (zh) * | 2019-03-18 | 2021-08-06 | 腾讯科技(深圳)有限公司 | 图像处理方法、模型训练方法、装置、和存储介质 |
CN109978852B (zh) * | 2019-03-22 | 2022-08-16 | 邃蓝智能科技(上海)有限公司 | 基于深度学习的微小组织器官的放疗影像靶区勾画方法及系统 |
EP3726460B1 (en) * | 2019-04-06 | 2023-08-23 | Kardiolytics Inc. | Autonomous segmentation of contrast filled coronary artery vessels on computed tomography images |
CN110473192B (zh) * | 2019-04-10 | 2021-05-14 | 腾讯医疗健康(深圳)有限公司 | 消化道内镜图像识别模型训练及识别方法、装置及系统 |
CN110059608B (zh) | 2019-04-11 | 2021-07-06 | 腾讯科技(深圳)有限公司 | 一种物体检测方法、装置、电子设备和存储介质 |
EP3959650A4 (en) * | 2019-04-23 | 2023-05-17 | The Johns Hopkins University | ABDOMINAL MULTIORGAN SEGMENTATION WITH ORGAN WEAKNESS NETWORKS |
US11410016B2 (en) | 2019-04-26 | 2022-08-09 | Alibaba Group Holding Limited | Selective performance of deterministic computations for neural networks |
CN110084309B (zh) * | 2019-04-30 | 2022-06-21 | 北京市商汤科技开发有限公司 | 特征图放大方法、装置和设备及计算机可读存储介质 |
CN110189309B (zh) * | 2019-05-21 | 2021-06-15 | 上海商汤智能科技有限公司 | 一种图像处理方法及装置、电子设备和存储介质 |
US11062183B2 (en) * | 2019-05-21 | 2021-07-13 | Wipro Limited | System and method for automated 3D training content generation |
CN110110130B (zh) * | 2019-05-21 | 2021-03-02 | 山东财经大学 | 基于卷积特征与加权随机游走的个性化标签推荐方法及系统 |
CN110245710B (zh) * | 2019-06-18 | 2022-11-29 | 腾讯科技(深圳)有限公司 | 语义分割模型的训练方法、语义分割方法及装置 |
WO2021002356A1 (ja) * | 2019-07-02 | 2021-01-07 | コニカミノルタ株式会社 | 放射線画像判定装置、検査システム及びプログラム |
US11308623B2 (en) | 2019-07-09 | 2022-04-19 | The Johns Hopkins University | System and method for multi-scale coarse-to-fine segmentation of images to detect pancreatic ductal adenocarcinoma |
JP2021015425A (ja) * | 2019-07-11 | 2021-02-12 | 富士通株式会社 | 学習方法、学習プログラム及び学習装置 |
US11100684B2 (en) | 2019-07-11 | 2021-08-24 | Canon Medical Systems Corporation | Apparatus and method for artifact detection and correction using deep learning |
CN110363168A (zh) * | 2019-07-19 | 2019-10-22 | 山东浪潮人工智能研究院有限公司 | 一种基于卷积神经网络的三维立体图识别系统 |
US11238580B2 (en) | 2019-08-29 | 2022-02-01 | Varian Medical Systems International Ag | Systems and methods for image cropping and anatomical structure segmentation in medical imaging |
WO2021061795A1 (en) | 2019-09-23 | 2021-04-01 | Canoo Inc. | Fractional slot electric motors with coil elements having rectangular cross-sections |
US11581087B2 (en) * | 2019-10-23 | 2023-02-14 | GE Precision Healthcare LLC | Method, system and computer readable medium for automatic segmentation of a 3D medical image |
US11410302B2 (en) * | 2019-10-31 | 2022-08-09 | Tencent America LLC | Two and a half dimensional convolutional neural network for predicting hematoma expansion in non-contrast head computerized tomography images |
CN110989901B (zh) * | 2019-11-29 | 2022-01-18 | 北京市商汤科技开发有限公司 | 图像定位的交互显示方法及装置、电子设备和存储介质 |
CN114730476A (zh) | 2019-12-03 | 2022-07-08 | 美国西门子医疗系统股份有限公司 | 有限角度重建的网络确定 |
CN111062944B (zh) * | 2019-12-10 | 2020-08-14 | 北京推想科技有限公司 | 网络模型训练方法及装置、图像分割方法及装置 |
CN111103275B (zh) * | 2019-12-24 | 2021-06-01 | 电子科技大学 | Pat先验信息辅助的基于cnn和自适应ekf的动态fmt重建方法 |
CN113129427B (zh) * | 2019-12-31 | 2023-05-09 | 久瓴(上海)智能科技有限公司 | 建筑模型处理方法、装置、计算机设备及可读存储介质 |
WO2021177374A1 (ja) * | 2020-03-04 | 2021-09-10 | 株式会社Kompath | 画像処理装置、画像処理モデル生成装置、学習用データ生成装置、及びプログラム |
CN111311592B (zh) * | 2020-03-13 | 2021-10-08 | 中南大学 | 一种基于深度学习的三维医学图像自动分割方法 |
JP7399785B2 (ja) | 2020-05-15 | 2023-12-18 | キヤノンメディカルシステムズ株式会社 | 磁気共鳴イメージング装置およびプログラム |
CN111829535B (zh) | 2020-06-05 | 2022-05-03 | 阿波罗智能技术(北京)有限公司 | 生成离线地图的方法、装置、电子设备和存储介质 |
US11645733B2 (en) | 2020-06-16 | 2023-05-09 | Bank Of America Corporation | System and method for providing artificial intelligence architectures to people with disabilities |
JPWO2021260928A1 (ja) * | 2020-06-26 | 2021-12-30 | ||
CN114494221A (zh) * | 2020-07-14 | 2022-05-13 | 上海商汤智能科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
US11361508B2 (en) * | 2020-08-20 | 2022-06-14 | Qualcomm Incorporated | Object scanning using planar segmentation |
WO2022045277A1 (ja) * | 2020-08-31 | 2022-03-03 | グローリー株式会社 | 画像処理装置、画像処理システム、画像処理方法、およびプログラム |
CN116261743A (zh) * | 2020-09-27 | 2023-06-13 | 上海联影医疗科技股份有限公司 | 用于生成放射治疗计划的系统和方法 |
US12008403B2 (en) | 2021-01-22 | 2024-06-11 | Bank Of America Corporation | System for electronic identification of attributes for performing maintenance, monitoring, and distribution of designated resources |
CN112950774A (zh) * | 2021-04-13 | 2021-06-11 | 复旦大学附属眼耳鼻喉科医院 | 一种三维建模装置、手术规划系统及教学系统 |
US20230011759A1 (en) * | 2021-07-07 | 2023-01-12 | Canon Medical Systems Corporation | Apparatus, method, and non-transitory computer-readable storage medium for improving image quality of a medical image volume |
KR102615545B1 (ko) * | 2021-07-16 | 2023-12-19 | 오스템임플란트 주식회사 | 상악동 영상 제공 장치와 방법 및 그 학습 방법 |
JP7315935B1 (ja) * | 2022-02-16 | 2023-07-27 | 国立大学法人大阪大学 | 予測支援システム、予測支援方法及び予測支援プログラム |
CN116071555B (zh) * | 2023-03-15 | 2023-06-23 | 同心智医科技(北京)有限公司 | 一种建立WMHs分割模型的方法、WMHs分割方法及装置 |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3788847B2 (ja) * | 1997-06-23 | 2006-06-21 | 東芝医用システムエンジニアリング株式会社 | 画像処理装置 |
CA2324602C (en) * | 1998-03-20 | 2012-07-24 | Barbara Ann Karmanos Cancer Institute | Multidimensional detection and characterization of pathologic tissues |
GB0114157D0 (en) * | 2001-06-11 | 2001-08-01 | Canon Kk | 3D Computer modelling apparatus |
US6901277B2 (en) | 2001-07-17 | 2005-05-31 | Accuimage Diagnostics Corp. | Methods for generating a lung report |
KR100607985B1 (ko) | 2004-06-12 | 2006-08-02 | 삼성전자주식회사 | 기록/재생 장치 및 그 정보 저장 매체 |
US7555155B2 (en) * | 2005-01-27 | 2009-06-30 | Cambridge Research & Instrumentation, Inc. | Classifying image features |
WO2008069762A1 (en) * | 2006-12-06 | 2008-06-12 | Agency For Science, Technology And Research | Method for identifying a pathological region of a scan, such as an ischemic stroke region of an mri scan |
WO2008133951A2 (en) | 2007-04-24 | 2008-11-06 | Massachusetts Institute Of Technology | Method and apparatus for image processing |
JP5667066B2 (ja) * | 2008-11-05 | 2015-02-12 | コーニンクレッカ フィリップス エヌ ヴェ | Mrスキャンの自動シーケンシャルプランニング |
US8731255B2 (en) * | 2008-11-05 | 2014-05-20 | University Of Louisville Research Foundation, Inc. | Computer aided diagnostic system incorporating lung segmentation and registration |
US20100177190A1 (en) * | 2008-12-16 | 2010-07-15 | Ann-Shyn Chiang | Microscopy system with revolvable stage |
US8391603B2 (en) * | 2009-06-18 | 2013-03-05 | Omisa Inc. | System and method for image segmentation |
US9319640B2 (en) | 2009-12-29 | 2016-04-19 | Kodak Alaris Inc. | Camera and display system interactivity |
US8390648B2 (en) | 2009-12-29 | 2013-03-05 | Eastman Kodak Company | Display system for personalized consumer goods |
US20110157218A1 (en) | 2009-12-29 | 2011-06-30 | Ptucha Raymond W | Method for interactive display |
US8805043B1 (en) * | 2010-04-02 | 2014-08-12 | Jasjit S. Suri | System and method for creating and using intelligent databases for assisting in intima-media thickness (IMT) |
CN101819679B (zh) * | 2010-04-19 | 2011-12-07 | 李楚雅 | 三维医学图像分割方法 |
US9087259B2 (en) * | 2010-07-30 | 2015-07-21 | Koninklijke Philips N.V. | Organ-specific enhancement filter for robust segmentation of medical images |
CN103180878B (zh) * | 2010-10-25 | 2017-03-22 | 皇家飞利浦电子股份有限公司 | 用于医学图像的分割的系统 |
CN103841894B (zh) * | 2011-04-18 | 2017-06-27 | 开创治疗股份有限公司 | 器官与解剖结构的图像分割 |
US8977629B2 (en) | 2011-05-24 | 2015-03-10 | Ebay Inc. | Image-based popularity prediction |
JP6357108B2 (ja) * | 2012-02-01 | 2018-07-11 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 被写体画像ラベリング装置、方法及びプログラム |
US9230320B2 (en) * | 2012-03-30 | 2016-01-05 | University Of Louisville Research Foundation, Inc. | Computer aided diagnostic system incorporating shape analysis for diagnosing malignant lung nodules |
JP6033697B2 (ja) * | 2013-02-01 | 2016-11-30 | 株式会社Nttドコモ | 画像評価装置 |
US9542626B2 (en) | 2013-09-06 | 2017-01-10 | Toyota Jidosha Kabushiki Kaisha | Augmenting layer-based object detection with deep convolutional neural networks |
KR102204437B1 (ko) * | 2013-10-24 | 2021-01-18 | 삼성전자주식회사 | 컴퓨터 보조 진단 방법 및 장치 |
US9202144B2 (en) | 2013-10-30 | 2015-12-01 | Nec Laboratories America, Inc. | Regionlets with shift invariant neural patterns for object detection |
US9354778B2 (en) | 2013-12-06 | 2016-05-31 | Digimarc Corporation | Smartphone-based methods and systems |
CN103955942A (zh) * | 2014-05-22 | 2014-07-30 | 哈尔滨工业大学 | 一种基于svm的2d图像的深度图提取方法 |
US10417554B2 (en) | 2014-05-22 | 2019-09-17 | Lee J. Scheffler | Methods and systems for neural and cognitive processing |
US9378435B1 (en) * | 2014-06-10 | 2016-06-28 | David Prulhiere | Image segmentation in optical character recognition using neural networks |
WO2015192246A1 (en) | 2014-06-19 | 2015-12-23 | Bitlit Media Inc | Method and system for identifying books on a bookshelf |
US9558268B2 (en) | 2014-08-20 | 2017-01-31 | Mitsubishi Electric Research Laboratories, Inc. | Method for semantically labeling an image of a scene using recursive context propagation |
US9740710B2 (en) * | 2014-09-02 | 2017-08-22 | Elekta Inc. | Systems and methods for segmenting medical images based on anatomical landmark-based features |
US9959486B2 (en) * | 2014-10-20 | 2018-05-01 | Siemens Healthcare Gmbh | Voxel-level machine learning with or without cloud-based support in medical imaging |
US9536167B2 (en) | 2014-12-10 | 2017-01-03 | Ricoh Co., Ltd. | Realogram scene analysis of images: multiples for scene analysis |
US10219737B2 (en) | 2014-12-11 | 2019-03-05 | Skin Depth Inc. | Topical product dispensing tool |
KR102307356B1 (ko) | 2014-12-11 | 2021-09-30 | 삼성전자주식회사 | 컴퓨터 보조 진단 장치 및 방법 |
US9710716B2 (en) | 2014-12-16 | 2017-07-18 | Sighthound, Inc. | Computer vision pipeline and methods for detection of specified moving objects |
US9368110B1 (en) | 2015-07-07 | 2016-06-14 | Mitsubishi Electric Research Laboratories, Inc. | Method for distinguishing components of an acoustic signal |
US10521902B2 (en) * | 2015-10-14 | 2019-12-31 | The Regents Of The University Of California | Automated segmentation of organ chambers using deep learning methods from medical imaging |
CN105825509A (zh) * | 2016-03-17 | 2016-08-03 | 电子科技大学 | 基于3d卷积神经网络的脑血管分割方法 |
US9965863B2 (en) | 2016-08-26 | 2018-05-08 | Elekta, Inc. | System and methods for image segmentation using convolutional neural network |
-
2016
- 2016-08-26 US US15/248,628 patent/US9965863B2/en active Active
-
2017
- 2017-08-23 CN CN201780066346.3A patent/CN109923582B/zh active Active
- 2017-08-23 JP JP2019511584A patent/JP6932182B2/ja active Active
- 2017-08-23 EP EP17761992.1A patent/EP3504680B1/en active Active
- 2017-08-23 RU RU2019108610A patent/RU2720070C1/ru active
- 2017-08-23 AU AU2017315684A patent/AU2017315684B2/en active Active
- 2017-08-23 WO PCT/US2017/048271 patent/WO2018039380A1/en unknown
-
2018
- 2018-03-26 US US15/935,077 patent/US10134141B2/en active Active
- 2018-10-16 US US16/161,796 patent/US10346986B2/en active Active
-
2020
- 2020-10-16 JP JP2020174419A patent/JP2021035502A/ja not_active Withdrawn
-
2021
- 2021-08-30 JP JP2021139654A patent/JP2022001261A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019531783A5 (ja) | ||
Yamashita et al. | Convolutional neural networks: an overview and application in radiology | |
Sun et al. | Saunet: Shape attentive u-net for interpretable medical image segmentation | |
JP6932182B2 (ja) | 畳み込みニューラルネットワークを用いた画像セグメンテーションのためのシステムおよび方法 | |
US11379985B2 (en) | System and computer-implemented method for segmenting an image | |
Song et al. | PET image super-resolution using generative adversarial networks | |
JP6884853B2 (ja) | ニューラルネットワーク法を用いた画像セグメンテーション | |
US20180116620A1 (en) | Deep Learning Based Bone Removal in Computed Tomography Angiography | |
Zabihollahy et al. | Fully automated segmentation of left ventricular scar from 3D late gadolinium enhancement magnetic resonance imaging using a cascaded multi‐planar U‐Net (CMPU‐Net) | |
Vivanti et al. | Patient-specific and global convolutional neural networks for robust automatic liver tumor delineation in follow-up CT studies | |
WO2017158575A1 (en) | Method and system for processing a task with robustness to missing input information | |
CN110706214B (zh) | 融合条件随机与残差的三维U-Net大脑肿瘤分割方法 | |
US20220058798A1 (en) | System and method for providing stroke lesion segmentation using conditional generative adversarial networks | |
WO2016134125A1 (en) | Image segmentation via multi-atlas fusion with context learning | |
Jung et al. | Deep learning for medical image analysis: Applications to computed tomography and magnetic resonance imaging | |
Shi et al. | Prostate segmentation in CT images via spatial-constrained transductive lasso | |
CN107567638B (zh) | 对解剖结构的基于模型的分割 | |
Ji et al. | Automated intervertebral disc segmentation using deep convolutional neural networks | |
EP3884501A1 (en) | Interactive iterative image annotation | |
US20230005158A1 (en) | Medical image segmentation and atlas image selection | |
Wu et al. | Semiautomatic segmentation of glioma on mobile devices | |
Wu et al. | Difficulty-aware brain lesion segmentation from mri scans | |
Li et al. | Segmentation evaluation with sparse ground truth data: Simulating true segmentations as perfect/imperfect as those generated by humans | |
Mansour et al. | Kidney segmentations using cnn models | |
US12026934B2 (en) | Systems and methods for training a convolutional neural network that is robust to missing input information |