JP2023540910A - 病変検出のための共同訓練を伴う接続機械学習モデル - Google Patents

病変検出のための共同訓練を伴う接続機械学習モデル Download PDF

Info

Publication number
JP2023540910A
JP2023540910A JP2023513602A JP2023513602A JP2023540910A JP 2023540910 A JP2023540910 A JP 2023540910A JP 2023513602 A JP2023513602 A JP 2023513602A JP 2023513602 A JP2023513602 A JP 2023513602A JP 2023540910 A JP2023540910 A JP 2023540910A
Authority
JP
Japan
Prior art keywords
lesion
neural network
convolutional neural
type
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023513602A
Other languages
English (en)
Inventor
チョアン ソン,
ニルス グスタフ トーマス ベングトソン,
リチャード アラン デュレイ カラノ,
デーヴィッド ビー. クレイトン,
デ クレスピニー, アレキサンダー スティーヴン ジェームズ チャンピオン
ローラ ガエターノ,
アニサ プリヤ クリシュナン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Genentech Inc
Original Assignee
Genentech Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Genentech Inc filed Critical Genentech Inc
Publication of JP2023540910A publication Critical patent/JP2023540910A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本明細書に開示される実施形態は、一般に、病変検出のための共同訓練を用いて接続された機械学習モデルに関する。特に、本開示の態様は、三次元磁気共鳴撮像(MRI)画像にアクセスすることであって、三次元MRI画像が被験者の脳の領域を表示し、脳の領域が、少なくとも第1のタイプの病変および第2のタイプの病変を含む、三次元磁気共鳴撮像(MRI)画像にアクセスすることと、三次元MRI画像を、第1の畳み込みニューラルネットワークおよび第2の畳み込みニューラルネットワークを含む機械学習モデルに入力することと、三次元MRI画像を入力として取り込む第1の畳み込みニューラルネットワークを使用して、第1のタイプの病変の第1のセグメンテーションマスクを生成することと、三次元MRI画像を入力として取り込む第2の畳み込みニューラルネットワークを使用して、第2のタイプの病変の第2のセグメンテーションマスクを生成することと、第1のセグメンテーションマスクおよび第2のセグメンテーションマスクを出力することと、に関する。【選択図】図2

Description

関連出願の相互参照
本出願は、あらゆる目的のためにその全体が参照により本明細書に組み込まれる、米国仮特許出願第63/073,686号(2020年9月2日に出願)の利益および優先権を主張する。
背景
多発性硬化症(MS)は、中枢神経系に影響を及ぼす疾患である。疾患の結果としてMSを有する被験者の脳に病変が形成される。大部分の場合、MSは、最初は再発寛解型MSとして現れ、空間的および時間的な分離を特徴とする。例えば、被験者は、種々の身体領域および/または種々の機能系に影響を及ぼしている複数の症候性エピソードを経験することがある。別の例として、被験者は、中枢神経系の種々の部分の病変を経験することがある。さらに別の例として、被験者は、症状を経験し、系に対応しない脳領域に病変を有することがある。経時的に、MS被験者の病変サイズおよび数は、頻繁に増加し、疾患の悪化を反映する。再発寛解型MSは、典型的には、最終的には二次性進行型MSに進行し、その間に症状および脳の健康の漸進的な悪化が、不連続な症候性再発および回復エピソードではなく観察される。原発性進行型MSも同様に、漸進的な症状の悪化および脳の分解を特徴とするが、この診断は、再発性寛解型を以前に経験していない被験者に限定される。
磁気共鳴イメージング(MRI)は、(脳サイズ変化を介して)新たな(造影剤増強された)病変、古い病変、および脳萎縮の視覚化を提供することができる。これらのメトリックは、MS診断をサポートし、MSの予後を促進し、MS治療を選択し、MS治療を評価するための基盤である。MRI画像は、特定の画像外観をもたらす無線周波数パルスおよび勾配の特定の設定であるMRIシーケンスを使用して生成される。3つの主要なMRIシーケンスタイプは、T1シーケンス、T2シーケンス、および流体減衰反転回復法(FLAIR)シーケンスを含む。
T1 MRIは、比較的迅速に収集され、構造情報を提供することができる。軸索破壊およびニューロン死を示す斑である黒孔は、T1スキャンでは暗く見える。T2 MRIは、総疾患負担を示すために頻繁に使用される。新たな病変および古い病変は、T2スキャンでは高強度領域として現れる。FLAIR MRIは、脳室および脳脊髄液がFLAIR MRIで暗くなる(T2 MRIでは明るい)ことを除いて、T2 MRIと同様である。したがって、(例えば、脳梁において)心室付近に現れる病変は、FLAIR MRIでより視認可能である。
場合によっては、活動性病変の視認性を改善するために1つ以上のMRIスキャンを収集する前に、造影剤(例えば、ガドリニウム)を被験者(例えば、静脈内)に投与する。血液脳関門が無傷である場合、造影剤は中枢神経系に入らない。血液脳関門が破壊されると、造影剤は、中枢神経系に移動することができ、炎症領域に局在する。造影剤は、T1 MRIでは高強度として見える。
従来、放射線科医は、MRIスキャンに手動で注釈を付ける。しかしながら、配列タイプの違いに加えて種々の深度および視点についてスキャンが収集されることを考えると、注釈を付けるための多くのスキャンがある。さらに、放射線科医全体で注釈に大きなばらつきがある。したがって、効率および一貫性を改善するために、MRI画像を処理することができる自動化された技術を識別することが有利であろう。
概要
いくつかの実施形態では、コンピュータ実施方法が提供される。三次元磁気共鳴イメージング(MRI)画像がアクセスされる。三次元MRI画像は、少なくとも第1のタイプの病変(例えば、T1非増強病変)および第2のタイプの病変(T1 Gd-増強病変)を含む被験者の脳の領域を表示する。三次元MRI画像は、第1の畳み込みニューラルネットワークおよび第2の畳み込みニューラルネットワークを含む機械学習モデルに入力される。第1の畳み込みニューラルネットワークは、第1の畳み込みニューラルネットワークの1つ以上の層と第2の畳み込みニューラルネットワークの1つ以上の層との間の1つ以上のクロスネットワーク接続を用いて第2の畳み込みネットワークに接続される。第1のタイプの病変の第1のセグメンテーションマスクは、三次元MRI画像を入力として取り込む第1の畳み込みニューラルネットワークを使用して生成される。第1のセグメンテーションマスクは、第1のタイプの病変の表示の周りの第1の推定セグメンテーション境界を含む。第2のタイプの病変の第2のセグメンテーションマスクは、三次元MRI画像を入力として取り込む第2の畳み込みニューラルネットワークを使用して生成される。第2のセグメンテーションマスクは、第2のタイプの病変の表示の周りの第2の推定セグメンテーション境界を含む。第1のセグメンテーションマスクおよび第2のセグメンテーションマスクは、並行して生成され、抽出された特徴のセットは、第1のセグメンテーションマスクおよび第2のセグメンテーションマスクが生成される間に1つ以上のクロスネットワーク接続にわたって共有される。第1のセグメンテーションマスクおよび第2のセグメンテーションマスクが出力される。
いくつかの実施形態では、第1の畳み込みニューラルネットワークは、第1の畳み込みニューラルネットワークの符号化ブロックから第2の畳み込みニューラルネットワークの符号化ブロックへの1つ以上のクロスネットワーク接続を用いて第2の畳み込みネットワークに接続される。
いくつかの実施形態では、第1の畳み込みニューラルネットワークは、第1の畳み込みニューラルネットワークの復号ブロックから第2の畳み込みニューラルネットワークの復号ブロックへの1つ以上のクロスネットワーク接続を用いて第2の畳み込みネットワークに接続される。
いくつかの実施形態では、クロスネットワーク接続のそれぞれは、特徴変換ブロックおよび圧縮ブロックを含む。
いくつかの実施形態では、コンピュータ実施方法は、第1のセグメンテーションマスクおよび第2のセグメンテーションマスクからの情報を組み合わせることによって最終画像マスクを生成することを含むことができる。最終画像マスクは、第1のタイプの病変と第2のタイプの病変との組み合わせを表す病変の新たなセットの表示の周りの推定セグメンテーション境界を含む。最終画像マスクが出力される。
いくつかの実施形態では、第1の畳み込みニューラルネットワークおよび第2の畳み込みネットワークは、Tversky損失と重み付きバイナリ交差エントロピー損失との組み合わせを含む損失関数を使用して訓練された。
いくつかの実施形態では、第1の畳み込みニューラルネットワークは、第1のタイプの病変および第2のタイプの病変を含む種々のタイプの病変の表示の周りのセグメンテーション境界に関連付けられた注釈を有する複数の医用画像を含む訓練データのセットを使用して識別された複数のモデルパラメータを含む。複数のモデルパラメータは、損失関数を最小化することに基づいて訓練データのセットを使用して識別される。
いくつかの実施形態では、第2の畳み込みニューラルネットワークは、訓練データのセットを使用して識別された複数のモデルパラメータを含む。第2の畳み込みニューラルネットワークは、第2の畳み込みニューラルネットワークの複数のモデルパラメータが損失関数を最小化することに基づいて訓練データのセットを使用して協調的に識別されるように、第1の畳み込みニューラルネットワークと共同訓練される。
いくつかの実施形態では、損失関数は、第1のタイプの病変と第2のタイプの病変との間の任意の重複、および第1の畳み込みニューラルネットワークおよび第2の畳み込みニューラルネットワークからの偽陽性の寄与に対するペナルティ項をさらに含む。
いくつかの実施形態では、第1の畳み込みニューラルネットワークおよび第2の畳み込みネットワークはU-Netである。
いくつかの実施形態では、第1の畳み込みニューラルネットワークは、符号化ブロックおよび復号ブロックの3つの層を含む。
いくつかの実施形態では、第2の畳み込みニューラルネットワークは、符号化ブロックおよび復号ブロックの3つの層を含む。
いくつかの実施形態では、三次元MRI画像は、チャネル次元に沿って積層された複数の連続スライスを含む。スライスは、第1のタイプのMRIシーケンスを使用して生成された第1の三次元MRIスライス(例えば、T1造影剤後)、第2のタイプのMRIシーケンスを使用して生成された第2の三次元MRIスライス(例えば、T1造影剤前)、および第3のタイプのMRIシーケンスを使用して生成された第3の三次元MRIスライス(例えば、流体減衰反転回復法)を含む。
いくつかの実施形態では、第1の三次元MRIスライスおよび第2の三次元スライスは、造影剤増強を捕捉するために正規化される。正規化は、第1の三次元MRIスライス体積および第2の三次元スライス体積の双方をzスコア化するために第2の三次元スライスの平均および標準偏差を使用することを含む。
いくつかの実施形態では、コンピュータ実施方法は、第1のセグメンテーションマスクを使用して第1のタイプの病変の数のカウントを決定すること、および第2のセグメンテーションマスクを使用して第2のタイプの病変の数のカウントを決定することを含み得る。
いくつかの実施形態では、コンピュータ実施方法は、第1のセグメンテーションマスクを使用して第1のタイプの病変の数のカウントを決定すること、第2のセグメンテーションマスクを使用して第2のタイプの病変の数のカウントを決定すること、および/または最終画像マスクを使用して病変の新たなセット内の病変の数のカウントを決定することを含み得る。
いくつかの実施形態では、コンピュータ実施方法は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスクを使用して、1つ以上の病変サイズまたは病変負荷を決定することを含むことができる。
いくつかの実施形態では、コンピュータ実施方法は、以前のMRIに対応するデータにアクセスすることと、第1のセグメンテーションマスク、第2のセグメンテーションマスク、ならびに/または最終画像マスクおよびデータを使用して1つ以上の病変の量、サイズまたは累積サイズの変化を決定することと、変化を表す出力を生成することと、を含むことができる。
いくつかの実施形態では、コンピュータ実施方法は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスクに基づいて治療方針を変更することを推奨することを含むことができる。
いくつかの実施形態では、コンピュータ実施方法は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスクに少なくとも部分的に基づいて、多発性硬化症の被験者の可能な診断または確認された診断に対応する出力を提供することを含むことができる。
いくつかの実施形態では、コンピュータ実施方法は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスクに少なくとも部分的に基づいて、多発性硬化症を有する被験者を診断することを含むことができる。
いくつかの実施形態では、コンピュータ実施方法は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスクに少なくとも部分的に基づいて、治療反応を評価および/または予測することを含むことができる。
いくつかの実施形態では、コンピュータ実施方法が提供される。三-次元MRI画像がアクセスされる。三次元MRI画像は、少なくとも第1のタイプの病変および第2のタイプの病変を含む被験者の脳の領域を表示する。三次元MRI画像は、第2の畳み込みニューラルネットワークに接続された第1の畳み込みニューラルネットワークを含む機械学習モデルに入力される。第1のタイプの病変の第1のセグメンテーションマスクは、三次元MRI画像を入力として取り込む第1の畳み込みニューラルネットワークを使用して生成される。第2のタイプの病変の第2のセグメンテーションマスクは、三次元MRI画像上の第1のセグメンテーションマスクを入力としてとる第2の畳み込みニューラルネットワークを使用して生成される。最終画像マスクは、第1のセグメンテーションマスクおよび第2のセグメンテーションマスクからの情報を組み合わせることによって生成される。最終画像マスクは、第1のタイプの病変の表示の周りの第1の推定セグメンテーション境界および/または第2のタイプの病変の表示の周りの第2の推定セグメンテーション境界を含む。最終画像マスクが出力される。
本開示のいくつかの実施形態は、1つ以上のデータプロセッサを含むシステムを含む。システムは、命令を含む非一時的コンピュータ可読記憶媒体であって、命令が、1つ以上のデータプロセッサ上で実行されると、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部を実行させる、非一時的コンピュータ可読記憶媒体をさらに含むことができる。
いくつかの実施形態では、非一時的な機械可読記憶媒体に有形に具現化されたコンピュータプログラム製品が提供される。コンピュータプログラム製品は、1つ以上のデータプロセッサに、本明細書に開示された方法のうちの1つ以上の一部または全部を実行させるように構成された命令群を含むことができる。
様々な実施形態にかかる、複数の接続されたネットワークを有するモデルを使用して画像内の種々のタイプの病変の表示をセグメント化するための例示的なコンピューティング環境を示している。
様々な実施形態にかかる、非増強病変の表示をセグメント化するために使用される第1の改変U-NetおよびGd増強病変の表示をセグメント化するために使用される第2の改変U-Netを含む例示的なモデルを示している。
様々な実施形態にかかる、複数の接続されたネットワークを有するモデルを使用して画像内の種々のタイプの病変の表示をセグメント化するための例示的なプロセス環境を示している。
データセットについての総T1非増強病変体積および総T1ガドリニウム(Gd)増強病変体積の例示的なヒストグラムを示している。
3人の被験者の脳の一部の磁気共鳴イメージング(MRI)画像のグラウンドトゥルースと比較した、モデルからの例示的な予測病変セグメント化を示している。
3つの時点のそれぞれにおける2つの治療群についてのT1 Gd増強病変カウントについての例示的な結果を示している。
経験的アプローチを使用するグラウンドトゥルースマスクおよび同じ経験的アプローチを使用するモデル予測マスクからのT1非増強病変カウントの例示的な結果を示している。
詳細な説明
I.概要
本開示は、医用画像の自動病変セグメンテーションのための技術を説明する。より具体的には、本開示の実施形態は、深層学習ネットワーク間の接続を有する共同訓練された深層学習ネットワークを使用して、医用画像(例えば、造影前後のT1w画像)内の種々のタイプの病変(例えば、非増強T1病変およびガドリニウム(Gd)増強T1病変)の表示をセグメント化するための技術を提供する。
MSでは、T2高強度病変の表示をセグメント化するために様々な深層学習モデルが開発されており、最近、T1 Gd増強病変の表示をセグメント化するために別個の深層学習モデルが開発された。しかしながら、2つの独立した深層学習モデルの使用は、特に造影剤増強が低い病変について、T1非増強病変タイプおよびGd増強病変タイプの表示の不連続/非重複性を十分に捕捉せず、偽陽性(FP)病変の数の増加をもたらす。病変の有病率とサイズの不均衡が大きいため、多クラスの設定で双方の病変の表示をセグメント化するために1つの深層学習モデルを使用することは、深層学習モデルが有病率の高い病変タイプの表示のみをセグメント化するように学習するため困難である。さらに、これらの2つのタイプのT1病変は、それらの形状特性にかなりの差があり、MSにおいて互いに隣接して発生しない可能性があるため、これらの2つのタイプのT1病変のセグメント化表示に必要な特徴の重複が少ない可能性がある。
これらの制限および問題に対処するために、本実施形態の自動化されたオブジェクトセグメンテーションのための技術は、非増強T1病変およびGd増強T1病変などの種々のタイプの病変の表示をセグメント化するために共同訓練された複数の(例えば、2つ以上)深層学習ネットワークを利用する。例えば、データ処理システムは、三次元MRI画像にアクセスする。三次元MRI画像は、被験者の脳の領域を表示し、脳の領域は、少なくとも第1のタイプの病変(例えば、非増強病変)および第2のタイプの病変(例えば、Gd増強病変)を含む。三次元MRI画像は、第2の畳み込みニューラルネットワークに接続された第1の畳み込みニューラルネットワークなどの複数の接続されたネットワークを含む機械学習モデルに入力される。第1の畳み込みニューラルネットワークは、第1の畳み込みニューラルネットワークの1つ以上の層と第2の畳み込みニューラルネットワークの1つ以上の層との間の1つ以上のクロスネットワーク接続を用いて第2の畳み込みネットワークに接続されてもよい。第1の畳み込みニューラルネットワークは、三次元MRI画像を入力として使用して、第1のタイプの病変の第1のセグメンテーションマスクを生成するように構成される。第1のセグメンテーションマスクは、第1のタイプの病変の表示の周りの第1の推定セグメンテーション境界を含む。第2の畳み込みニューラルネットワークは、三次元MRI画像を入力として使用して、第2のタイプの病変の第2のセグメンテーションマスクを生成するように構成される。第2のセグメンテーションマスクは、第2のタイプの病変の表示の周りの第2の推定セグメンテーション境界を含む。第1のセグメンテーションマスクおよび第2のセグメンテーションマスクは並行して生成され、抽出された特徴のセットは、第1のセグメンテーションマスクおよび第2のセグメンテーションマスクが生成される間にクロスネットワーク接続にわたって共有される。第1のセグメンテーションマスクおよび第2のセグメンテーションマスクが出力され、下流においてさらに分析されることができる(例えば、第1および第2のセグメンテーションマスクを使用して各タイプの病変の数を決定するために使用される)。
II.医用画像をセグメント化するための技術
画像セグメンテーションは、形状、サイズ、色などの種々の特徴の類似性を示す部分に画像を分離する手順である。病変の表示のセグメンテーションは、身体の領域(例えば、脳)内の病変のサイズおよび位置の視覚化を可能にし、治療の分析についての基礎を提供することもできる。病変セグメンテーションのゴールドスタンダードは、長い間手動セグメンテーションであり、これは時間がかかり、労働集約的であり、したがって大規模な研究には適していない。病変セグメンテーションのプロセスを完全にまたは部分的に自動化しようとするかなりの研究が行われてきた。例えば、閾値処理、領域拡大、ファジークラスタリング、ウォーターシェッドアルゴリズムの使用などの画像セグメンテーション技術は、脳の白質(WM)、灰白質(GM)、および脳脊髄液(CSF)などの正常組織の表示から異常組織(例えば、病変)の表示を分離するために使用されてきた。それにもかかわらず、セグメンテーションのプロセスは、病変の表示の形状、位置、およびサイズの多様性のために依然として困難である。
本明細書では、複数の三次元畳み込みニューラルネットワーク(CNN)を使用して病変の表示をセグメント化し、病変セグメンテーション(例えば、T1 Gd増強病変セグメンテーション)に基づいて治療反応を抽出するモデルを組み込むエンドツーエンド方法について説明する。開発されたモデルは、計算的に軽量であり(例えば、平均的なデスクトップコンピューティングデバイス上で実行し、例えば数分以内などのオンデマンドで予測を返すことができる)、三次元スキャンの複雑さ、様々な病変タイプ間の極端な不均衡、および入力画像の異種性(例えば、可変密度およびオブジェクトサイズ)に対応するように考案された。本明細書で使用される場合、「スキャン」は、被験者の身体を通る単一の平面上の信号のグラフィカル表現である。このモデルは、閾値化法、エッジベースのセグメンテーション法、または領域ベースのセグメンテーション法などの手動介入(例えば、シードの手動選択または境界ボックスの手動識別)に依存する従来のアルゴリズムと同等の病変セグメンテーション性能を有し、グラウンドトゥルース手動読み取りとの高い相関を実証する。
次いで、病変セグメンテーションによって得られた予測または病変情報は、単独で、または他の要因と組み合わせて使用されて、病変(例えば、いくつかのT1非増強病変および/またはT1 Gd増強病変)の数を決定し、および/または1つ以上の病変サイズまたは病変負担(病変負荷と呼ばれることもある)を決定することができる。本方法はまた、被験者の治療の臨床的有効性および/または予後を評価するために使用されることができる。本方法はまた、予測およびデータを使用して1つ以上の病変の量、サイズ、または累積サイズの変化を決定し、その変化を表す出力を生成するために使用されることができる。モデルの出力は、予測に基づいて治療方針の変更を推奨するためにさらに使用されることができる。本方法はまた、被験者の診断を提供するために、例えば、予測に少なくとも部分的に基づいて多発性硬化症の被験者の可能な診断または確認された診断に対応する出力を提供するために、または予測に少なくとも部分的に基づいて多発性硬化症を有する被験者を診断するために使用されることができる。
II.A.例示的なコンピューティング環境
図1は、様々な実施形態にかかる、複数の接続されたネットワークを有するモデルを使用して画像内の種々のタイプの病変の表示をセグメント化するための例示的なコンピューティング環境100(すなわち、データ処理システム)を示している。図1に示すように、この例におけるコンピューティング環境100によって実行されるセグメント化は、いくつかの段階、すなわち、画像取得段階105、モデル訓練段階110、セグメンテーション段階115、および分析段階120を含む。
画像取得段階105は、被験者の様々な部分の入力画像135(例えば、MRI画像)を取得するための1つ以上のイメージングシステム130(例えば、MRIイメージングシステム)を含む。イメージングシステム130は、MRIなどの放射線イメージング技術を使用して入力画像135を取得するように構成される。イメージングシステム130は、イメージングシステム130のそれぞれに関連する特性(例えば、輝度、コントラスト、および空間解像度)に基づいて被験者内の様々な構造および機能の間の差を決定し、一連の二次元画像を生成することができる。一連の二次元画像がスキャナのコンピュータによって収集されると、二次元画像は、被験者または被験者の一部の三次元画像を再構成するためにコンピュータ分析によって一緒にデジタル的に「積層」されることができる。二次元画像および/または再構成三次元入力画像135は、基本構造(例えば、器官)ならびに可能性のある病変または異常のより容易な識別および位置特定を可能にする。各二次元画像および/または再構成三次元入力画像135は、セッション時間および被験者に対応し、被験者の内部領域を表示することができる。各二次元画像および/または再構成三次元入力画像135は、さらに、標準化されたサイズ、解像度、および/または倍率であってもよい。
モデル訓練段階110は、他の段階によって使用されるべき1つ以上のモデル140a~140n(「n」はモデルの総数を表す)(本明細書では個別にモデル140と呼ばれてもよく、まとめてモデル140と呼ばれてもよい)を構築して訓練する。モデル140は、例えば、初期ニューラルネットワーク、残差ニューラルネットワーク(「Resnet」)、U-Net、V-Net、シングルショットマルチボックス検出器(「SSD」)ネットワーク、または例えば、長期短期記憶(「LSTM」)モデルもしくはゲーティッドリカレントユニット(「GRU」)モデルなどのリカレントニューラルネットワーク(「RNN」)、またはそれらの任意の組み合わせなどの畳み込みニューラルネットワーク(「CNN」)などの複数のネットワークを含む機械学習(「ML」)モデルとすることができる。モデル140はまた、三次元CNN(「3DCNN」)、動的時間圧伸(「DTW」)技術、隠れマルコフモデル(「HMM」)など、またはそのような技術のうちの1つもしくは複数の組み合わせ、例えば、CNN-HMMもしくはMCNN(マルチスケール畳み込みニューラルネットワーク)など、画像からのオブジェクト検出および/またはセグメンテーションにおいて訓練された任意の他の適切なMLモデルとすることができる。コンピューティング環境100は、種々のタイプの病変の表示をセグメント化するために、同じタイプのモデルまたは種々のタイプのモデルを使用することができる。特定の例では、モデル140は、各ネットワークを訓練するために、組み合わされた非対称損失関数、例えば、Tversky損失と重み付きバイナリ交差エントロピー(wBCE)損失との組み合わせによって構築される。モデル140内のネットワークの共同訓練の場合、ネットワークの損失に加えて、病変タイプ間の重複およびネットワークからの偽陽性の寄与に対してペナルティ項が追加されることができる。
この例においてモデル140を訓練するために、訓練画像145は、デジタル画像を取得し、画像を訓練用の訓練画像145aのサブセット(例えば、90%)および検証用の訓練画像145bのサブセット(例えば、10%)に分割し、訓練画像145aのサブセットおよび訓練画像145bのサブセットを前処理し、訓練画像145aのサブセットを拡張し、場合によっては、訓練画像145aのサブセットにラベル150によって注釈を付けることによって生成される。訓練画像145aのサブセットは、1つ以上のイメージングモダリティ(例えば、MRI T1、T2、プロトン密度(PD)、またはFLAIR)から取得される。場合によっては、訓練画像145aのサブセットは、1つ以上のイメージングモダリティに関連するデータベース、画像システム(例えば、1つ以上のイメージングシステム130)などのデータ記憶構造から取得される。各画像は、1つ以上の病変を表示する。
分割は、ランダムに(例えば、90/10%または70/30%)実行されてもよく、または、分割は、サンプリングバイアスおよびオーバーフィッティングを最小限に抑えるために、K-分割交差検証、一個抜き交差検証、一群抜き交差検証、入れ子交差検証などのより複雑な検証技術にしたがって実行されてもよい。前処理は、バイアスまたは利得フィールドとして知られるMRI画像データに存在する低周波強度の不均一性を補正するためのバイアスフィールド補正を含むことができる。場合によっては、前処理は、剛性位置合わせを使用してMNIテンプレート画像(例えば、MNI空間)へのMRIベースライン画像変換を識別することを含んでもよい。場合によっては、前処理は、ベースラインおよび頭蓋骨剥離へのフォローアップ訪問の厳密な位置合わせを含んでもよい。場合によっては、前処理は、全ての特徴を同じスケール(例えば、同じサイズスケールまたは同じカラースケールまたは彩度スケール)に置くための標準化または正規化をさらに含むことができる。特定の例では、画像は、所定の画素(例えば、2500画素)の最小サイズ(幅または高さ)または所定の画素(例えば、3000画素)の最大サイズ(幅または高さ)でサイズ変更され、元のアスペクト比を維持する。
増強を使用して、データセット内に画像の修正バージョンを作成することによって、訓練画像145aのサブセットのサイズを人工的に拡大することができる。画像データ増強は、元の画像と同じクラスに属するデータセット内の画像の変換バージョンを作成することによって実行されることができる。変換は、シフト、フリップ、ズームなどの画像操作の分野からの動作の範囲を含む。場合によっては、動作は、モデル140が訓練画像145aのサブセットから利用可能な状況外の状況下で実行することができることを保証するために、ランダム消去、シフト、輝度、回転、ガウスぼかし、および/または弾性変換を含む。
注釈付けは、訓練画像145aのサブセットの各画像内の1つ以上の病変の表示の存在を確認し、1つ以上の病変にラベル150を提供する、例えば、注釈ソフトウェアを使用して、1つ以上の病変の表示を含むように人間によって確認された領域の周りに境界ボックス(グラウンドトゥルース)またはセグメンテーション境界を描く、1人以上の人間(放射線科医または病理学者などの注釈者)によって手動で実行されることができる。特定の例では、境界ボックスまたはセグメンテーション境界は、病変である確率が50%を超える事例についてのみ描画されることができる。複数の注釈者によって注釈付けされる画像については、全ての注釈者からの境界ボックスまたはセグメンテーション境界が使用されてもよい。場合によっては、注釈データは、病変のタイプをさらに示すことができる。例えば、様々なタイプの病変について、注釈データは、T2高強度病変またはT1低強度病変などのタイプを示すことができる。
場合によっては、訓練画像145のサブセットは、訓練データセット(すなわち、訓練画像145aのサブセット)内に含まれるように注釈者デバイスに送信されてもよい。入力は、(例えば)画像が関心のあるオブジェクト(例えば、病変、器官など)を表示しているかどうか;画像内に示された病変の数およびタイプ;および画像内の表示された各病変の周囲(境界ボックスまたはセグメンテーション境界)を示すマウス、トラックパッド、スタイラスおよび/またはキーボードを使用して(例えば、放射線科医によって)注釈者デバイスに提供されることができる。注釈者デバイスは、提供された入力を使用して各画像のラベル150を生成するように構成されることができる。例えば、ラベル150は、画像内に表示された病変の数および/またはタイプ;表示された各病変のタイプ分類;特定のタイプの表示された各病変の数;ならびに画像内の1つ以上の識別された病変の周囲および/またはマスクを含むことができる。場合によっては、ラベル150は、医用画像上にオーバーレイされた1つ以上の識別された病変の周囲および/またはマスクをさらに含むことができる。
場合によっては、モデル140は、訓練され、脳の三次元(3D)パッチのデジタル画像を処理するために使用される。訓練データは、それぞれが1つ以上の病変の少なくとも一部を表示する訓練用MRI画像の第1のサブセットと、それぞれが任意の病変の表示を欠く訓練用MRI画像の第2のサブセットとを含む。訓練データは、種々のMRIシーケンスタイプを使用して生成された画像を含むことができる。例えば、訓練データセットは、T1シーケンス、T2シーケンス、およびFLAIRシーケンスを使用して生成された三次元MRI画像を含むことができる。訓練データは、病変を表示するMRI画像および病変を表示しないMRI画像のラベルを含むことができる。ラベルは、データベースまたはプロバイダシステムから受信されたデータから受信、識別、または導出されることができる。ラベルデータは、(例えば)単一の画像について、画像が病変の少なくとも一部を表示するかどうか、画像に少なくとも部分的に表示された病変の量、病変の少なくとも一部を表示する画像(例えば、特定のボクセル)内の位置、画像内または画像内の特定の位置に少なくとも部分的に表示された病変のタイプ(例えば、増強病変または非増強病変)などに関する指示を含むことができる。
モデル140を訓練するために使用される訓練データは、ガドリニウム(Gd)などの造影剤が被験者に投与された後に収集されたMRI画像、1つ以上の造影剤増強病変(Gd増強病変と呼ばれる)の少なくとも一部を示すMRI画像、造影剤が被験者に投与されることなく収集されたMRI画像、造影剤が被験者に投与される前に収集されたMRI画像、および/またはいかなる造影剤増強病変も表示しないMRI画像を含むことができる。例えば、モデル140は、造影剤が最近被験者に投与されていない状態で収集された画像のみ、造影剤が最近被験者に投与された後に収集された画像のみ、または双方のタイプの画像のいくつかに対して訓練されることができる。造影剤が投与された後に収集された画像は、場合によっては、血液脳関門が無傷である状況で、および/または所与のスキャンが造影剤が移動した脳領域を示さない場合、いかなる増強病変も示さないことがあることが理解されよう。
特定の事例では、モデル140は、重み付きバイナリ交差エントロピー(wBCE)損失またはTversky損失を使用して訓練される。Tversky損失は、予測における偽陽性を減少させることができ、wBCEは、より小さな病変を識別するのに役立つことができる。さらに、Tversky損失とwBCE損失の組み合わせが使用されて損失を計算することができる。Tversky損失には、以下の式(1)が使用されることができる:
上記式(1)において、
ボクセルiが病変クラス(例えば、T1非増強、Gd増強)に属するモデル予測確率であり、
ボクセルが病変クラスに属さない確率である。同様に、
ボクセルが病変クラスに属するか否かをグラウンドトゥルース注釈で示す。βは、偽陽性(FP)からの寄与を重み付けし、(1-β)は、偽陰性(FN)からの寄与を重み付けする。wBCEには、以下の式(2)が使用されることができる:
上記の式(2)において、gおよびpは、それぞれグラウンドトゥルースおよびモデル予測病変マスクを表す。小さな病変を検出するための感度を改善するために、wBCE損失が追加されることができる。しかしながら、wBCEは、FPの増加をもたらすことができる。これを説明するために、Tversky損失項においてFPがFNよりも大きく重み付けされることができる。損失は、式(3)を使用して計算される:
共同訓練の場合、複数のネットワークの損失に加えて、以下の式(4)を使用して、2つの病変タイプの重複およびネットワークからの偽陽性の寄与について項が追加されることができる:
上記式(4)において、
T1非増強病変およびGd増強病変をセグメント化するためのトップモデルおよびボトムモデルの損失に対応し、
病変を非増強するための予測モデルおよびグラウンドトゥルース(GT)マスクに対応し、
Gd増強病変についての予測モデルおよびGTマスクに対応する。
Gd増強病変のより低い有病率を説明するために
重み付けされることができる。
モデル140の訓練プロセスは、モデル140のハイパーパラメータを選択することと、モデル140の損失関数または誤差関数を最小化するモデルパラメータ(例えば、重みおよび/またはバイアス)のセットを見つけるために、画像145aのサブセットからモデル140に画像を入力する反復動作を実行することとを含む。ハイパーパラメータは、モデル140の挙動を制御するために調整または最適化されることができる設定である。ほとんどのモデルは、メモリまたは実行コストなどのモデルの種々の態様を制御するハイパーパラメータを明示的に定義する。しかしながら、モデルを特定のシナリオに適合させるために、追加のハイパーパラメータが定義されることができる。例えば、ハイパーパラメータは、モデルの隠れユニットの数、モデルの学習率、畳み込みカーネル幅、またはモデルのカーネルの数を含むことができる。訓練の各反復は、モデルパラメータのセットを使用する損失関数または誤差関数の値が、前の反復におけるモデルパラメータの異なるセットを使用する損失関数または誤差関数の値よりも小さくなるように、(ハイパーパラメータの定義されたセットによって構成された)モデル140のモデルパラメータのセットを見つけることを含むことができる。損失関数または誤差関数は、モデル140を使用して推論された出力と、ラベル150を使用して画像に注釈付けされたグラウンドトゥルースセグメンテーション境界との間の差を測定するように構築されることができる。
モデルパラメータのセットが識別されると、モデル140は、訓練されており、訓練画像145bのサブセット(試験または検証のデータセット)を使用して検証されることができる。検証プロセスは、ハイパーパラメータを調整し、最終的に最適なハイパーパラメータのセットを見つけるために、K-分割交差検証、一個抜き交差検証、一群抜き交差検証、入れ子交差検証などの検証技術を使用して、訓練画像145bのサブセットからモデル140に画像を入力する反復動作を含む。最適なハイパーパラメータのセットが得られると、訓練画像145bのサブセットからの画像の予約された試験セットがモデル140に入力されて出力(この例では、1つ以上の病変の表示の周りのセグメンテーション境界)が取得され、Bland-Altman法およびスピアマンのランク相関係数などの相関技術を使用し、誤差、精度、適合率、再現率、受信者動作特性曲線(ROC)などの性能メトリックを計算して、出力がグラウンドトゥルースセグメンテーション境界に対して評価される。
理解されるべきであるように、他の訓練/検証機構が想定され、コンピューティング環境100内に実装されてもよい。例えば、モデルは、訓練されてもよく、ハイパーパラメータは、訓練画像145aのサブセットからの画像上で調整されてもよく、訓練画像145bのサブセットからの画像は、モデルの性能を試験および評価するためにのみ使用されてもよい。さらに、本明細書に記載の訓練機構は、新たなモデル140の訓練に焦点を当てているが、これらの訓練機構はまた、他のデータセットから訓練された既存のモデル140を微調整するために利用されることもできる。例えば、場合によっては、モデル140は、他のオブジェクトもしくは生物学的構造の画像を使用して、または他の被験者もしくは研究(例えば、ヒトトライアルまたはマウス実験)からの切片から事前訓練されていてもよい。それらの場合、モデル140は、転移学習に使用され、入力画像135を使用して再訓練/検証されることができる。
モデル訓練段階110は、複数のネットワーク(例えば、第2のU-Netに接続された第1のU-Net)を含む1つ以上の訓練されたセグメンテーションモデル165を含む訓練されたモデルを出力する。1つ以上の医用入力画像135は、セグメンテーション段階115内のセグメンテーションコントローラ170によって取得される。様々な例では、医用入力画像135は、三次元MRI画像である。三次元MRI画像のそれぞれは、被験者の脳の同じ領域を表示する。脳の領域は、少なくとも第1のタイプの病変(例えば、T1非増強病変)および第2のタイプの病変(例えば、T1 Gd増強病変)を含む。各三次元MRI画像は、完全なMRI画像の三次元パッチを含む。三次元パッチは、完全な三次元MRI画像のボクセルのサブセットとすることができる。場合によっては、第1の三次元MRI画像は、第2の三次元MRI画像を生成するために使用される第2のタイプのMRIシーケンスとは異なる第1のタイプのMRIシーケンスを使用して生成されることができる。特定の場合には、異なるMRIシーケンスを使用して得られた三次元MRI画像が積層され、同時にセグメンテーションモデル165への入力として使用されることができる。例えば、FLAIR、T1造影前、およびT1造影後などの異なるMRIシーケンスを使用して生成された複数(例えば、3)の連続スライスが、チャネル次元に沿って積層され、セグメンテーションモデル165への入力として同時に使用されることができる。
場合によっては、三次元MRI画像は、セグメンテーションモデル165に入力される前に前処理される。例えば、FLAIR MRI画像は、強度再スケーリングおよびzスコア化されることができる。さらに、T1造影前画像に対するT1造影後画像における病変の強度の増加を捕捉するために、体積が一緒に正規化されることができる(例えば、体積間の強度関係を維持して再スケーリングされる)。双方の体積が、造影前スキャンにおける脳の平均および標準偏差を使用してzスコア化されることができる。あるいは、シーケンス内の相対造影剤が所与の出力タスクに十分である場合、T1造影後画像およびT1造影前画像は、FLAIR MRI画像と同様に、zスコアによって独立して正規化されることができる。
セグメンテーションコントローラ170は、複数の接続されたネットワークを含む訓練されたセグメンテーションモデル165を使用して各三次元MRI画像を処理するためのプロセスを含む。訓練されたセグメンテーションモデル165は、スキャナに、またはクラウド環境内のソフトウェアとして展開されることができる。場合によっては、複数の接続ネットワークは、第1の畳み込みニューラルネットワークの1つ以上の層と第2の畳み込みニューラルネットワークの1つ以上の層との間の1つ以上のクロスネットワーク接続を用いて第2の畳み込みニューラルネットワークに接続された第1の畳み込みニューラルネットワークを含む。クロスネットワーク接続は、第1のタイプの病変(例えば、非増強病変)の病変特徴を促進して、第2のタイプの病変(例えば、Gd増強病変)をセグメント化するための特徴の選択に影響を及ぼすことができる。例では、種々のタイプの病変をセグメント化するための特徴は、主に大きいまたはリム増強病変のために緩く結合されるだけであるため、クロスネットワーク接続は、複数の接続されたネットワークの縮小経路上にのみ追加され、複数の接続されたネットワークの拡張経路上には追加されない場合がある。第1のタイプの病変の病変特徴を適合させて、第2のタイプの病変のセグメント化に関連するようにするために、特徴変換(例えば、3×3×3)および圧縮(例えば、1×1×1)ブロックが追加されることもできる。圧縮ブロックは、畳み込み層、バッチノルム層、および活性化層のセットを含むことができる。圧縮ブロックの出力は、第2の畳み込みニューラルネットワークの第1の畳み込みニューラルネットワークと同様のレベルで符号化ブロックの出力に連結されることができる。次いで、連結された特徴は、第2のタイプの病変をセグメント化するために、第2の畳み込みニューラルネットワークの次のレベルの符号化ブロックへの入力として提供されることができる。
いくつかの実施形態では、複数の接続されたネットワークは、各画像を並列に処理する。各画像が並列に処理される場合、複数の接続されたネットワークは、各画像を同時にまたは実質的に同時に処理し、抽出された特徴のセットは、第1のセグメンテーションマスクおよび第2のセグメンテーションマスクの生成中に1つ以上のクロスネットワーク接続にわたって共有される。クロスネットワーク接続を使用して第1のタイプの病変(例えば、T1非増強病変)をセグメント化するための第1の畳み込みニューラルネットワークを第2のタイプの病変(例えば、T1 Gd増強病変)をセグメント化するための第2の畳み込みニューラルネットワークに接続するこの設計構成は、その逆または共有層を使用する代わりに有利である。第2のタイプの病変の有病率はより低い可能性があるため、他の可能な構成において第2のタイプの病変が存在しない場合、使用可能な情報はほとんどない可能性がある。処理は、三次元MRI画像を入力として取り込む第1の畳み込みニューラルネットワークを使用して、第1のタイプの病変の第1のセグメンテーションマスクを生成することを含む。第1のセグメンテーションマスクは、第1のタイプの病変の表示の周りの第1の推定セグメンテーション境界を含む。処理は、三次元MRI画像を入力として取り込む第2の畳み込みニューラルネットワークを使用して、第2のタイプの病変の第2のセグメンテーションマスクを生成することをさらに含む。第2のセグメンテーションマスクは、第2のタイプの病変の表示の周りの第2の推定セグメンテーション境界を含む。セグメンテーションコントローラ170は、第1のセグメンテーションマスクおよび第2のセグメンテーションマスクからの情報を組み合わせることによって最終画像マスク175を生成することができる。最終画像マスク175は、第1のタイプの病変と第2のタイプの病変との組み合わせを表す新たな一組の領域の表示の周りの推定セグメンテーション境界を含む。セグメンテーションコントローラ170は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスク175を出力するためのプロセスをさらに含む。
他の実施形態では、複数の接続されたネットワークは、カスケード型配置(例えば、順次または実質的に順次)で各画像を処理し、抽出された特徴のセットは、先行ネットワークからの後続ネットワークと共有される。処理は、(i)三次元MRI画像を入力として取り込む第1の畳み込みニューラルネットワークを使用して、第1のタイプの病変の第1のセグメンテーションマスクを生成することと、(ii)三次元MRI画像上の第1のセグメンテーションマスクを入力として取り込む第2の畳み込みニューラルネットワークを使用して、第2のタイプの病変の第2のセグメンテーションマスクを生成することと、(iii)第1のセグメンテーションマスクおよび第2のセグメンテーションマスクからの情報を組み合わせることによって最終画像マスク175を生成することと、を含む。最終画像マスク175は、第1のタイプの病変の表示の周りの第1の推定セグメンテーション境界および/または第2のタイプの病変の周りの第2の推定セグメンテーション境界を含む。セグメンテーションコントローラ170は、最終画像マスク175を出力するためのプロセスをさらに含む。
第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスク175は、分析段階120内の分析コントローラ180に送信されてもよい。分析コントローラ180は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスク175を取得または受信し、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスク175に基づいて分析結果185を決定するプロセスを含む。分析コントローラ180は、第1のセグメンテーションマスクを使用して第1のタイプの病変の数、第2のセグメンテーションマスクを使用して第2のタイプの病変の数、および/または最終画像マスク175を使用して病変の新たなセット内の病変の数を決定するプロセスをさらに含んでもよい。分析コントローラ180は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスク175を使用して、1つ以上の病変サイズまたは病変負荷を決定するプロセスをさらに含んでもよい。分析コントローラ180は、以前のMRIに対応するデータにアクセスし、第1のセグメンテーションマスク、第2のセグメンテーションマスク、ならびに/または最終画像マスク175およびデータを使用して、1つ以上の病変の量、サイズまたは累積サイズの変化を決定し、変化を表す出力を生成するプロセスをさらに含んでもよい。分析コントローラ180は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスク175に基づいて、治療方針の変更を推奨するプロセスをさらに含んでもよい。分析コントローラ180は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスク175に少なくとも部分的に基づいて、多発性硬化症の被験者の可能な診断または確認された診断に対応する出力を提供するためのプロセスをさらに含むことができる。分析コントローラ180は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスク175に少なくとも部分的に基づいて、多発性硬化症を有する被験者を診断するためのプロセスをさらに含むことができる。分析コントローラ180は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスク175に少なくとも部分的に基づいて、治療反応を評価および/または予測するプロセスをさらに含むことができる。
本明細書に開示される機械学習モデルは、様々なタイプの病変の表示を検出するために訓練および使用されることができることが理解されよう。例えば、非増強T2病変が検出されることができ、増強T1病変が検出されることができるなどである。場合によっては、本明細書に開示される機械学習モデルは、訓練され、黒孔を検出するために使用されてもよい。
いくつかの実施形態では、血管追跡を使用して偽陽性予測が低減されることができる。血管は、Gd増強病変の偽陽性のかなりの割合に寄与することができる。領域成長は、T1造影後画像における脳内のボクセルの上位3パーセンタイル(>=97番目)の強度を有するボクセルに使用されることができる。最大の血管樹が保持されることができ、脳の境界が増強されることができる。所定の閾値(例えば、30%)を超えて血管樹に重なる病変が除去されて、偽陽性の数を低減することができる。
明示的に示されていないが、コンピューティング環境100は、開発者に関連付けられた開発者デバイスをさらに含むことができることが理解されよう。開発者デバイスからコンピューティング環境100の構成要素への通信は、モデルに使用される入力画像のタイプ、使用されるモデルの数およびタイプ、各モデルのハイパーパラメータ、例えば学習率および隠れ層の数、データ要求をフォーマットする方法、使用される訓練データ(例えば、および訓練データへのアクセス方法)および使用される検証技術、および/またはコントローラプロセスを構成する方法を示すことができる。
II.B.複数の接続ネットワークを含む例示的なモデル
図2に示す例示的な実施形態では、機械学習モデル内の複数のネットワークが集合的に使用されて、三次元MRI画像に表示された種々のタイプの病変を検出することができる。図2は、非増強病変をセグメント化するために使用される第1の改変U-Net205と、Gd増強病変をセグメント化するために使用される第2の改変U-Net210とを含む例示的なモデル200を示している。改変U-Net205;210は、3つのレベルを有して比較的浅い。改変U-Net205;210は、それぞれ、縮小経路215(符号器)および拡張経路220(復号器)を含み、これらはネットワークにu字形アーキテクチャを与える。縮小経路215の各符号化ブロック225は、畳み込み(3×3×3カーネル)層、バッチノルム層、および正規化線形ユニット(ReLU)活性化層の2つのセットから構成される。改変U-Net205;210は、訓練中にドロップアウト層を使用して、逆伝播中に勾配を容易に伝播するためのオーバーフィッティングおよび残差接続を回避する。各ネットワークは、縮小経路215内の特徴を抽出し、各スケールでの特徴マップの数は徐々に増加する。特徴マップは、スライス次元に沿った限られたカバレッジを説明するために、異方性カーネル230(1×3×3)を用いたストライド畳み込みを使用してダウンサンプリングされる。これに対応して、縮小経路215において、特徴マップは、補間層235を使用してアップサンプリングされる(1×2×2)。きめ細かい詳細を有する縮小経路215からのスキップ特徴は、アップサンプリングされた意味的特徴と連結され、結合された特徴は、縮小経路215において使用されるものと同様の残差畳み込みブロック240を使用して洗練される。最上位レベルの復号ブロック特徴は、中間レベルからアップサンプリングされた洗練された特徴と連結され、最終的な畳み込み層および活性化層を通過して、病変セグメンテーション確率を生成する。
改変U-Net205;210は、非増強病変をセグメント化するための第1の改変U-Net 205の符号化ブロックからGd増強病変をセグメント化するための第2の改変U-Net 210の符号化ブロックへのクロスネットワーク接続245によって連結されている。クロスネットワーク接続245は、第1の改変U-Net 205の復号ブロックを第2の改変U-Net 210の復号ブロックにさらに接続してもよい。これらのクロスネットワーク接続245は、非増強病変特徴がGd増強病変特徴に影響を及ぼすことを可能にする。抽出された特徴は、非増強病変の表示についての第1のセグメンテーションマスクがGd増強病変の表示についての第2のセグメンテーションマスクと並行して生成されることができるように、クロスネットワーク接続245にわたって共有されることができる。非増強病変をセグメント化するための第1の改変U-Net 205を、クロスネットワーク接続245を使用してGd増強病変をセグメント化するための第2の改変U-Net 210に接続するこの設計構成は、その逆または共有層を使用する代わりに有利である。これは、Gd増強病変の有病率が低いためであり、これは、他の可能な構成においてGd増強病変が存在しない場合に使用可能な情報がないことを意味する。さらに、改変U-Net205;210は、損失関数を最小化することによって共同訓練されることができる。ペナルティ項は、病変タイプ間の任意の重複および改変U-Net205;210からの偽陽性の寄与について損失関数に含めることができ、より小さく、弱く増強する病変に対する偽陽性の減少をもたらす。
例では、種々のタイプの病変をセグメント化するための特徴は、主に大きいまたはリム増強病変のために緩く結合されるだけであるため、クロスネットワーク接続245は、縮小経路215上にのみ追加され、拡張経路220上には追加されない。特徴変換(3×3×3)および圧縮(1×1×1)ブロック250もまた、非増強病変特徴を適合させてGd増強病変のセグメント化に関連させるために追加される。ブロック250のそれぞれは、畳み込み層、バッチノルム層、および活性化層のセットを含む。圧縮ブロック250の出力は、第2の改変U-Net205の第1の改変U-Net210における225と同様のレベルで符号化ブロックの出力に連結される。次いで、連結された特徴は、Gd増強病変をセグメント化するために、改変U-Net 210の次のレベルの符号化ブロックへの入力として提供される。
II.C.例示的なプロセス
図3は、様々な実施形態にかかる、複数の接続されたネットワークを有するモデルを使用して画像内の種々のタイプの病変の表示をセグメント化するための例示的なプロセス環境を示している。ブロック302において、被験者の脳を表示する三次元MRI画像がアクセスされる。被験者の脳は、少なくとも第1のタイプの病変(例えば、T1非増強病変)および第2のタイプの病変(例えば、T1 Gd増強病変)を含む。三次元MRI画像は、イメージングシステム(例えば、イメージングシステム130)からセグメンテーションコントローラ(例えば、セグメンテーションコントローラ170)によってアクセスされることができる。
ブロック304において、三次元MRI画像は、第1の畳み込みニューラルネットワーク(例えば、第1の改変U-Net205)を含み、第2の畳み込みニューラルネットワーク(例えば、第2の改変U-Net210)を含む機械学習モデルに入力される。第1の畳み込みニューラルネットワークは、第1の畳み込みニューラルネットワークの1つ以上の層と第2の畳み込みニューラルネットワークの1つ以上の層との間の1つ以上のクロスネットワーク接続を用いて第2の畳み込みニューラルネットワークに接続される。クロスネットワーク接続は、第1の畳み込みニューラルネットワークのブロックの符号化から第2の畳み込みニューラルネットワークのブロックの符号化までであってもよい。さらに、クロスネットワーク接続は、第1の畳み込みニューラルネットワークの復号ブロックから第2の畳み込みニューラルネットワークの復号ブロックまでであってもよい。クロスネットワーク接続のそれぞれは、特徴変換ブロックおよび圧縮ブロックを含むことができる。
ブロック306において、三次元MRI画像を入力として取り込む第1の畳み込みニューラルネットワークを使用して、第1のタイプの病変の第1のセグメンテーションマスクが生成される。第1のセグメンテーションマスクは、第1のタイプの病変の表示の周りの推定セグメンテーション境界を含む。
ブロック308において、三次元MRI画像を入力として取り込む第2の畳み込みニューラルネットワークを使用して、第2のタイプの病変の第2のセグメンテーションマスクが生成される。第2のセグメンテーションマスクは、第2のタイプの病変の表示の周りの第2の推定セグメンテーション境界を含む。第1のセグメンテーションマスクおよび第2のセグメンテーションマスクは、並行して生成され、抽出された特徴のセットは、第1のセグメンテーションマスクおよび第2のセグメンテーションマスクが生成される間に1つ以上のクロス接続ネットワーク接続にわたって共有される。
ブロック310において、第1のセグメンテーションマスクおよび第2のセグメンテーションマスクが出力される。第1のタイプの病変の数は、第1のセグメンテーションマスクを使用して決定されることができ、および/または第2のタイプの病変の数は、第2のセグメンテーションマスクを使用して決定されることができる。第1のセグメンテーションマスクおよび/または第2のセグメンテーションマスクを使用して、1つ以上の病変サイズまたは病変負荷が決定されることができる。以前のMRIに対応するデータがアクセスされることができ、第1のセグメンテーションマスクおよび/または第2のセグメンテーションマスクおよびデータを使用して1つ以上の病変の量、サイズまたは累積サイズの変化が決定されることができ、変化を表す出力が生成されることができる。第1のセグメンテーションマスクおよび/または第2のセグメンテーションマスクに基づいて、治療方針の変更が推奨されることができる。追加的または代替的に、第1のセグメンテーションマスクおよび/または第2のセグメンテーションマスクに少なくとも部分的に基づいて、多発性硬化症の被験者の可能な診断または確認された診断に対応する出力が提供されてもよい。被験者は、第1のセグメンテーションマスクおよび/または第2のセグメンテーションマスクに少なくとも部分的に基づいて、多発性硬化症と診断されることができる。場合によっては、治療反応は、第1のセグメンテーションマスクおよび/または第2のセグメンテーションマスクに少なくとも部分的に基づいて評価および/または予測されることができる。
III.実施例
様々な実施形態において実行されるシステムおよび方法は、以下の実施例を参照することによって、より良好に理解することができる。
III.A.実施例1.-病変セグメンテーション
深層学習を用いた多発性硬化症の臨床トライアルにおけるT1 Gd増強病変負担に対する治療反応の検出。
III.A.i.背景
オクレリズマブ(OCR)は、再発性および原発性進行型形態のMSの治療のために承認されたヒト化抗CD20+モノクローナル抗体である。OCRは、T1 Gd増強病変の数の減少によって示されるように、炎症の新たな領域の発生を抑制する。病変の深層学習(DL)ベースのセグメンテーションは、これらの手動読み取りを自動化する可能性を有する;より迅速且つ再現性のある定量化を可能にする。
III.A.ii.材料および方法
再発寛解型多発性硬化症(RRMS)患者における2つの同一の第III相、多施設、無作為化、二重盲検、ダブルダミー、および並行群トライアルのMRIデータセットを使用して、病変セグメンテーションモデルが開発された。(Opera 1:NCT01247324、n=898;Opera 2:NCT01412333、n=905)。様々な製造業者からの1.5T(約0.8%)および3T(約0.2%)スキャナでデータが取得された。T1w(造影前後)、T2w、FLAIRおよび約1×1×3mm3の解像度を有するPD画像を含む標準化された従来の脳MRIが、ベースライン、24、48および96週で実施された。軸方向3mmT1重み付けスライス(3Dスポイル勾配エコー、繰り返し時間=28~30ms、エコー時間=5~11ms、フリップ角度=27~30)を、Gd注入前およびGd注入後に取得した(0.1mmol/kg、10分の注入後遅延)。2D高速スピンエコー、反復時間=4000~6190ms、エコー時間=74~91msおよびエコートレイン長=7~11によって、軸方向3mmのT2増強スライスを取得した。MRIデータの前処理は、バイアスフィールド補正、MNIテンプレートへのベースライン画像の剛性位置合わせ、ベースラインへのフォローアップ訪問および頭蓋骨剥離の剛性位置合わせを含んでいた。
トライアルの一部として収集された手動エキスパート注釈は、セグメンテーションモデルを訓練するためのグラウンドトゥルース(GT)マスクとして使用された。T2高強度病変は、半自動化アプローチを使用してセグメント化され、最初の自動化されたセグメント化は、専門の神経放射線科医によって手動で補正され、最終的なT2病変マスクを生成した。T1低強度/非増強病変の初期セグメンテーションは、T1w強度が白質のボクセルの大部分よりも低いT2病変マスク内の領域を含み、造影後スキャンでGd増強を示さなかった。次いで、この初期マスクを専門家のリーダーが手動で修正して、最終的なT1非増強病変マスクを作成した。Gd増強病変を手作業でセグメント化した。ここでの造影剤増強は、造影後スキャンでの少なくとも20%の強度の増加として定義され、3ボクセルの最小サイズ閾値が非増強病変と増強病変の双方に使用された。新たなT1非増強病変を、参照時点およびフォローアップ時点での病変セグメンテーションの差に基づいて識別し、続いて、セグメンテーション変動性および位置ずれの可能性に起因する偽の差を補正するために専門家読影者によってレビューした。
III.A.iii.ネットワークアーキテクチャ
モデルのネットワークアーキテクチャは、図2に関して本明細書に示され説明される。一般に、モデルは、非増強病変をセグメント化するために使用される第1の改変U-NetおよびGd増強病変をセグメント化するために使用される第2の改変U-Netを含んでいた。第1の改変U-Netは、第1の改変U-Netの符号化ブロックから第2の改変U-Netの符号化ブロックへの複数のクロスネットワーク接続を用いて第2の改変U-Netに接続される。各クロスネットワーク接続は、特徴変換ブロックおよび圧縮ブロックを含む。
III.A.iv.ネットワーク訓練およびその後の推論
ネットワークを共同訓練するために、Opera Iトライアルからの画像が使用され、訓練および検証のために、70%~30%のデータ分割が使用された。ネットワークを、Opera IIトライアルの画像に対して試験した。
FLAIR画像を強度再スケーリングし、zスコア化した。造影前画像に対する造影後T1w画像における病変の強度の増加を捕捉するために、これらの体積を一緒に正規化し、すなわち、体積と双方の体積との間の強度関係を維持して再スケーリングし、造影前スキャンにおける脳の平均および標準偏差を使用してzスコア化した。モデルは、FLAIRからの3つの連続したスライス、T1w造影前後の画像で訓練され、個々の構成の双方のネットワークの入力として使用されるチャネル次元に沿って積層された。共同構成の場合、T1 Gd増強病変をセグメント化するための第2のネットワークは、T1w前後の造影剤画像のみを受信し、FLAIR関連情報は、クロスネットワーク接続に沿って主に伝達される。256×256×60の所与の入力形状に対して、スライディングウィンドウアプローチを使用して、3つのスライスの58のスタックを作成した。任意の病変(非増強またはGd増強)を含むスタックのみを訓練および検証セットに保持した。ネットワークパラメータは、アダム最適化器(初期学習率1e-4、β=0.9、β=0.999)を使用して50エポック、バッチサイズ6で最適化した。
MSにおける病変をセグメント化するための組み合わせ損失関数から達成される非対称損失関数のより良好な性能および潜在的な利点のために、個々のネットワークを訓練するために、Tversky損失(式(1)を参照)および重み付きバイナリ交差エントロピー(wBCE)損失(式(2)を参照)の組み合わせが作成された。ハイパーパラメータαおよびβを、式(3)を使用して実験において微調整した。共同訓練のために、2つのネットワークの損失に加えて、式(4)を使用して、2つの病変タイプの任意の重複および双方のネットワークからの偽陽性の寄与についてペナルティ項を追加した。
推論のために、マルチモーダル入力は、訓練中と同じように処理された;3D体積を3つのスライスのスタックに分割し、全てのスタックについてモデル予測を得た。全てのスライスについて、同じスライスが上、下および中央のスライスとして3つの隣接スタックの一部であることによって、3つの予測が得られた。予測確率を0.5で閾値化し、多数決を使用して3つの予測を組み合わせた。これは偽陽性を減少させるのに役立ち、端部に向かうスライスは異なる方法で処理された。モデルは、TensorFlowのKerasを使用してPythonで実装された。
Gd増強病変に対する偽陽性の有意な割合が血管に由来するため、偽陽性を減少させるために血管追跡を行った。領域成長は、T1造影後画像における脳内のボクセルの上位3パーセンタイル(>=97番目)の強度を有するボクセルに対して使用された。脳の境界に沿った最大血管樹および増強が保持された。血管樹に30%を超えて重なる病変を除去した。
III.A.v.評価
モデルを、ボクセル当たりレベルでのセグメント化性能および病変レベルでの検出性能について評価した。予測体積およびGT体積の平均ダイス係数(DC)、陽性予測値(PPV)、感度、絶対体積差(AVD)およびピアソンの相関係数を、セグメンテーション性能を評価するためのメトリックとして使用した。DCは、予測およびグラウンドトゥルースバイナリマスクの重複を測定するためのメトリックであり、以下の式(5)によって定義される:
TPは、モデル予測とグラウンドトゥルースマスクとの重複に対応する真陽性であり、FPは偽陽性であり、FNは偽陰性である。DC値は、0から1までの範囲であり、0は重複がないことを示し、1は完全な重複を示す。全体平均DCに加えて、低、中、および高総病変負荷の体積の平均DCを評価した。
PPVまたは適合率は、TPおよびFPの合計に対するボクセルワイズTPの比であり、式(6)に示すように、モデルによって正しく予測されたボクセルの割合の尺度である。
感度または再現率は、TPとFNとの和に対するTPの比であり、式(7)に示すように、モデルによって正しくセグメント化されたグラウンドトゥルースボクセルのパーセンテージである。
AVDは、グラウンドトゥルース体積に対する予測されたグラウンドトゥルース体積とグラウンドトゥルース体積との絶対差の割合である。それは、式(8)に示すように、グラウンドトゥルース量に対するモデルによるオーバーまたはアンダーセグメンテーションの尺度を与える。
個々の病変は、グラウンドトゥルースおよび予測マスクにおいて接続された成分(18接続性カーネルを有する)として識別された。検出された病変が真の病変と見なされるためには、それは3ボクセルの最小サイズを有し、グラウンドトゥルースと少なくとも10%重複する。病変検出性能を評価するために、病変PPV(LPPV)、病変真陽性率(LTPR)、病変偽陽性率(LFPR)、およびモデルによって予測された病変の数とグラウンドトゥルースマスク内の病変の数とのピアソンの相関係数を評価メトリックとして使用した。モデルによって予測された病変の中のFP病変の割合の尺度であるLFPRを除く全ての検出メトリックについて高い値が望ましい。
III.A.vi.イメージングエンドポイントの再現
イメージングエンドポイントを再現する実験を行うために、モデル予測マスクと手動のニューロ放射線科医の読み取りとの比較は、(モデルの訓練にはOpera 1からの画像が使用されたため)Opera 2の画像でのみ行われた。R(Rバージョン4.0.1、R Foundation for Statistical Computing)を用いて統計分析を行った。
訓練されたモデルが既知のT1 Gd増強エンドポイントを再現することができるかどうかを調べるために、治療(オクレリズマブ)におけるGd増強病変の平均数および平均病変数の減少パーセントを、24、48および96週目に対照(インターフェロンβ)群と比較して推定した。T1 Gd増強エンドポイントを決定する際の公知の分析方法と同様に、治療群、ベースラインT1 Gd増強病変(存在または非存在)、ベースライン拡大障害状態スケールスコア(<4.0対≧4.0)、および地理的領域(米国対世界の残り)を独立変数として用いて、Gd増強病変の数の負の二項回帰を行った。
GT連続病変マスクから新たなT1非増強病変の数を推定するための形態学的操作に基づいて、自動化されたヒューリスティックアプローチを開発して、神経放射線科医の読影による元の分析で報告された値を厳密に近似した。次いで、このアプローチをモデル予測マスクに適用し、全てのフォローアップ時点にわたる新たなT1非増強病変の平均数および対照群と比較した場合のオクリズマブ群の減少率を推定した。既知の分析方法論におけるように、治療群、ベースラインT1低強度病変カウント、ベースラインEDSS(<4.0対≧4.0)および地理的地域(米国対世界の残り)を独立変数として、新たなT1非増強病変の数に対して負の二項回帰を行った。
図4は、Opera 2データセットについての総T1非増強病変体積(ml)および総T1 Gd増強病変体積(ml)を示している。被験者のサブセットのみがGd増強病変を有し、T1 Gd増強病変は、典型的にはT1非増強病変よりも小さかった。神経放射線科医の読影によるGTマスクによれば、T1 Gd増強病変は、ベースラインにおいて患者の約40%に存在し、全時点にわたって体積の約16~18%に存在した(ベースライン、24週、48週、および96週)。病変負荷は、より小さいサイズに向かって大きく傾斜していた。T1非増強病変負荷は、0.012ml~68.86mlの範囲であり、中央値は1.56mlであり、T1 Gd増強病変負荷は0.012ml~7.47mlの範囲であり、中央値は0.213mlであった。体積の71%が0.5mlの最大Gd増強病変負荷を有し、体積の72%が4mlの最大T1非増強病変負荷を有した。
試験セット上の双方の病変タイプについて別々に共同訓練されたモデルのセグメンテーション性能を表1に要約する。双方のネットワークは、平均ダイス係数(DC)およびGTとモデル予測全病変負荷との間のピアソンの相関によって分かるように、GTにおける手動注釈とモデル予測マスクとの間の良好な一致を有していた。概して、個別訓練モデルは、共同訓練モデルよりも僅かに良好な感度を有していた(T1非増強病変については0.74対0.7およびGd増強病変については0.78対0.69);共同訓練モデルは、DC(0.72対0.73、0.72対0.75)、陽性予測値(PPV;0.74対0.8、0.71対0.87)および絶対体積差(AVD;0.29対0.26、0.69対0.31)を改善した。最終平均DCは、Gd増強病変セグメンテーションについて0.78であり、病変の約23%が≦10ボクセルのサイズであった。([1]I.Coronado,R.E.Gabr およびa.P.A.Narayana.,「Deep learning segmentation of gadoliniumenhancing lesions in multiple sclerosis」,Multiple Sclerosis Journal,no.May,2020 および[2]G.Brugnara,F.Isensee,U.Neuberger,D.Bonekamp,J.Petersen,R.Diem,B.Wildemann,S.Heiland,W.Wick,M.Bendszus,K.Maier-Hein およびP.Kickingereder,「Automated volumetric assessment with artificial neural networks might enable a more accurate assessment of disease burden in patients with multiple sclerosis」,European Radiology,vol.30,no.4,pp.2356-64,2020と比較して、それらは、それぞれ病変セグメンテーションについて、0.77および0.91のDCを達成した。[2]では、14mm/ボクセルよりも小さい全ての病変を除外したが、これはここでの高いDCを説明する可能性がある)。
試験セットに対するモデルの検出性能を表2に要約する。双方のモデルは、検出性能の同様の傾向を示し、個別訓練モデルは、僅かに良好な病変真陽性率(LTPR;0.83対0.79、0.96対0.91)を有し、共同訓練モデルは、より良好なLPPV(0.89対0.92、0.76対0.93)および病変偽陽性率(LFPR;0.17対0.13、0.25対0.06)を有する。ピアソンの高い相関係数から分かるように、GTからの病変カウントと様々なモデルのモデル予測マスクとの間には良好な一致があった。共同訓練は、過剰セグメンテーションおよびGd増強病変セグメンテーションについてのFPの低減に大いに役立った。これは、血管追跡を使用したFP減少後にさらに改善され、手動のGT注釈にしたがって、Gd増強病変を含まない体積の誤った予測を減少させた。
図5は、3人の被験者についての脳の一部のMRI画像についてのGTと比較したモデルからの予測病変セグメンテーションを示している。GTと予測されたT1非増強病変およびGd増強病変との重複は、モデルがMRI画像における病変サイズおよび位置を正確に予測することを示唆している。
さらに、Gd増強病変についての様々な病変サイズのバケットの検出性能を調べた(表3)。結果は、GT病変カウント、TP値、感度、FP値(括弧内の数は、GT注釈におけるGd増強病変を含まなかったデータセットのFP病変の数に対応する)、偽陽性率(FDR)、およびダイス値の計算を含む。FPRとも呼ばれる偽発見率(FDR)は、0.03ml(または10ボクセル)未満の病変では高く、病変サイズが増加するにつれて大幅に減少する。DCはまた、病変サイズの増加とともに類似の傾向を示した。この分析に基づいて、高いFDRと低い感度とのバランスをとるためには、0.03mlの検出閾値が好ましいであろう。しかしながら、これはまた、病変の23%を排除する。(性能は、最小病変サイズのバケットを除いて、[3] Z.Karimaghaloo,H.Rivaz,D.L.Arnold,D.L.CollinsおよびT.Arbel,「Temporal Hierarchical Adaptive Texture CRF for Automatic Detection of Gadolinium-Enhancing Multiple Sclerosis Lesions in Brain MRI」,IEEE Transactions on Medical Imaging,vol.34,no.6,pp.1227-1241,2015の表IIIに報告されているものに匹敵する。本実施例は、長手方向情報を使用せず、[3]と比較してより大きな訓練セット(8x)を有した。これはまた、病変サイズのバケットは異なるが、[1]の表2に匹敵する)。
様々な病変サイズに対するT1非増強病変セグメンテーションモデルの検出性能を表4に示し、Gd増強病変セグメンテーションのための個別訓練モデルおよび共同訓練モデルの双方について表5に示す。
III.B.実施例2.-治療間の病変変化
深層学習を用いた多発性硬化症の臨床トライアルにおけるT1 Gd増強病変負担に対する治療反応の検出。
III.B.i.考察
疾患の進行を遅らせるために所与の治療薬が多発性硬化症の治療に有効であるかどうかを予測するために、臨床試験中に病変が頻繁に評価される。特に、試験エンドポイントは、試験期間中に病変カウントおよび/または病変サイズ(例えば、累積病変サイズ)がどの程度変化したかを調べることが多い。試験期間中に特定の治療が実施された場合に観察された変化は、試験期間中に治療またはベースライン治療が実施されなかった場合に観察された対応する変化と比較されることができる。
この実施例のデータは、インターフェロン-ベータと比較して、オクレリズマブを投与した場合のT1非増強病変カウントの変化を比較する。共同訓練モデルが使用されて、造影剤投与後に収集されたT1非増強画像およびT1 Gd増強画像を処理した。各モデルは、Opera 1データセットを使用して訓練され、Opera 2データセットを使用して試験された。各被験者およびイメージングセッションについて、評価されたモデル予測は、T1 Gd増強病変の数であった。治療実施から24週、48週および96週でMRIを実施した。各治療群について、フォローアップ時点での病変の数をその時点でのMRIスキャンの数で割って計算した。
図6Aに示すように、臨床データは、T1 Gd増強病変カウントが3つの時点のそれぞれで2つの治療群間で有意に異なることを示した。GTマスクの場合、追跡調査時点の減少は、24、48、および96週でそれぞれ93%、96%、および96%であった。モデル予測を使用すると、個々の追跡調査時点で、減少は24、48、および96週でそれぞれ79%、84%、および90%であった。
図6Bは、経験的アプローチを使用したGTマスクおよび同じ経験的アプローチを使用したモデル予測マスクからのT1非増強病変カウントの結果を示している。GTマスクに対する経験的アプローチを使用すると、減少は対照群の4.78からオクリズマブ群の3.73まで22%であった。このモデルは、経験的アプローチを使用するGTマスクよりも少ない病変を予測する傾向があった。モデル予測に基づいて、新たなT1非増強病変の数は、対照群では3.36、治療群では2.51であった。さらに、新たなT1非増強病変の数は、追加のベースラインイメージングおよび臨床共変量による負の二項回帰において群間で有意に異なっていた。GTマスクからの治療群と対照群との間で、新たなT1非増強病変の平均数が約22%減少した。モデル予測を使用する場合、減少率は約25%であり、GTマスクからの減少に匹敵する。しかしながら、元の手動分析では約60%のパーセント減少があったため、新たなT1非増強病変を識別するために使用された経験的アプローチは改善を必要とする。
IV.さらなる考察
本開示のいくつかの実施形態は、1つ以上のデータプロセッサを含むシステムを含む。いくつかの実施形態では、システムは、命令を含む非一時的コンピュータ可読記憶媒体であって、命令が、1つ以上のデータプロセッサ上で実行されると、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部および/または1つ以上のプロセスの一部または全部を実行させる、非一時的コンピュータ可読記憶媒体を含む。本開示のいくつかの実施形態は、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部および/または1つ以上のプロセスの一部または全部を実行させるように構成された命令を含む、非一時的機械可読記憶媒体において有形に具現化されたコンピュータプログラム製品を含む。
使用された用語および表現は、限定ではなく説明の用語として使用され、そのような用語および表現の使用において、示されて説明された特徴の均等物またはその一部を除外する意図はないが、特許請求の範囲に記載された発明の範囲内で様々な変更が可能であることが認識される。したがって、特許請求の範囲に記載された本発明は、実施形態および任意の特徴によって具体的に開示されているが、本明細書に開示された概念の変更および変形は、当業者によってあてにされてもよく、そのような変更および変形は、添付の特許請求の範囲によって定義される本発明の範囲内にあると見なされることを理解されたい。
その後の説明は、好ましい例示的な実施形態のみを提供し、本開示の範囲、適用可能性または構成を限定することを意図しない。むしろ、好ましい例示的な実施形態のその後の説明は、様々な実施形態を実装するための可能な説明を当業者に提供する。添付の特許請求の範囲に記載の趣旨および範囲から逸脱することなく、要素の機能および配置に様々な変更を加えることができることが理解される。
実施形態の完全な理解を提供するために、以下の説明において具体的な詳細が与えられる。しかしながら、これらの具体的な詳細なしで実施形態が実施されることができることが理解されよう。例えば、回路、システム、ネットワーク、プロセス、および他の構成要素は、実施形態を不必要に詳細に不明瞭にしないために、ブロック図形式の構成要素として示されてもよい。他の例では、実施形態を不明瞭にすることを避けるために、周知の回路、プロセス、アルゴリズム、構造、および技術が不必要な詳細なしに示されてもよい。
V.例示的な実施形態
以下において使用されるように、一連の例への任意の言及は、それらの例のそれぞれへの言及として選言的に理解されるべきである(例えば、「実施例1~4」は、「実施例1、2、3または4」と理解されるべきである)。
実施例1は、コンピュータ実施方法であって、三次元磁気共鳴イメージング(MRI)画像にアクセスすることであって、三次元MRI画像が被験者の脳の領域を表示し、脳の領域が、少なくとも第1のタイプの病変と第2のタイプの病変とを含む、三次元磁気共鳴イメージング(MRI)画像にアクセスすることと、三次元MRI画像を、第1の畳み込みニューラルネットワークおよび第2の畳み込みニューラルネットワークを含む機械学習モデルに入力することであって、第1の畳み込みニューラルネットワークが、第1の畳み込みニューラルネットワークの1つ以上の層と第2の畳み込みニューラルネットワークの1つ以上の層との間の1つ以上のクロスネットワーク接続を用いて第2の畳み込みニューラルネットワークに接続されている、三次元MRI画像を、第1の畳み込みニューラルネットワークおよび第2の畳み込みニューラルネットワークを含む機械学習モデルに入力することと、三次元MRI画像を入力として取り込む第1の畳み込みニューラルネットワークを使用して、第1のタイプの病変の第1のセグメンテーションマスクを生成することであって、第1のセグメンテーションマスクが、第1のタイプの病変の表示の周りの第1の推定セグメンテーション境界を含む、第1のタイプの病変の第1のセグメンテーションマスクを生成することと、三次元MRI画像を入力として取り込む第2の畳み込みニューラルネットワークを使用して、第2のタイプの病変の第2のセグメンテーションマスクを生成することであって、第2のセグメンテーションマスクが、第2のタイプの病変の表示の周りの第2の推定セグメンテーション境界を含み、第1のセグメンテーションマスクおよび第2のセグメンテーションマスクが、並行して生成され、第1のセグメンテーションマスクおよび第2のセグメンテーションマスクが生成される間に、抽出された特徴のセットが1つ以上のクロスネットワーク接続にわたって共有される、第2のタイプの病変の第2のセグメンテーションマスクを生成することと、第1のセグメンテーションマスクおよび第2のセグメンテーションマスクを出力することと、を含むコンピュータ実施方法である。
実施例2は、第1の畳み込みニューラルネットワークが、第1の畳み込みニューラルネットワークの符号化ブロックから第2の畳み込みニューラルネットワークの符号化ブロックへの1つ以上のクロスネットワーク接続を用いて第2の畳み込みニューラルネットワークに接続される、実施例1に記載のコンピュータ実施方法である。
実施例3は、第1の畳み込みニューラルネットワークが、第1の畳み込みニューラルネットワークの復号ブロックから第2の畳み込みニューラルネットワークの復号ブロックへの1つ以上のクロスネットワーク接続を用いて第2の畳み込みニューラルネットワークに接続される、実施例1または実施例2に記載のコンピュータ実施方法である。
実施例4は、クロスネットワーク接続のそれぞれが、特徴変換ブロックおよび圧縮ブロックを含む、実施例1~3に記載のコンピュータ実施方法である。
実施例5は、第1のセグメンテーションマスクおよび第2のセグメンテーションマスクからの情報を組み合わせることによって最終画像マスクを生成することであって、最終画像マスクが、第1のタイプの病変と第2のタイプの病変との組み合わせを表す病変の新たなセットの表示の周りの推定セグメンテーション境界を含む、最終画像マスクを生成することと、最終画像マスクを出力することと、をさらに含む、実施例1~4のいずれか一項に記載のコンピュータ実施方法である。
実施例6は、第1のタイプの病変がT1非増強病変であり、第2のタイプの病変がT1 Gd増強病変である、実施例1~5のいずれか一項に記載のコンピュータ実施方法である。
実施例7は、第1の畳み込みニューラルネットワークおよび第2の畳み込みニューラルネットワークが、Tversky損失と重み付きバイナリ交差エントロピー損失との組み合わせを含む損失関数を使用して訓練された、実施例1~6のいずれか一項に記載のコンピュータ実施方法である。
実施例8は、第1の畳み込みニューラルネットワークが、第1のタイプの病変および第2のタイプの病変を含む種々のタイプの病変の周りのセグメンテーション境界に関連付けられた注釈を有する複数の医用画像を含む訓練データのセットを使用して識別された複数のモデルパラメータを含み、複数のモデルパラメータが、損失関数を最小化することに基づいて訓練データのセットを使用して識別される、実施例1~7に記載のコンピュータ実施方法である。
実施例9は、第2の畳み込みニューラルネットワークが、訓練データのセットを使用して識別された複数のモデルパラメータを含み、第2の畳み込みニューラルネットワークが、第2の畳み込みニューラルネットワークの複数のモデルパラメータが、損失関数を最小化することに基づいて訓練データのセットを使用して協調的に識別されるように、第1の畳み込みニューラルネットワークと共同訓練される、実施例1~8に記載のコンピュータ実施方法である。
実施例10は、損失関数が、第1のタイプの病変と第2のタイプの病変との間の任意の重複、ならびに第1の畳み込みニューラルネットワークおよび第2の畳み込みニューラルネットワークからの偽陽性の寄与に対するペナルティ項をさらに含む、実施例1~9に記載のコンピュータ実施方法である。
実施例11は、第1の畳み込みニューラルネットワークおよび第2の畳み込みニューラルネットワークがU-Netである、実施例1~10のいずれか一項に記載のコンピュータ実施方法である。
実施例12は、第1の畳み込みニューラルネットワークが、符号化ブロックおよび復号ブロックの3つの層を含む、実施例1~11に記載のコンピュータ実施方法である。
実施例13は、第2の畳み込みニューラルネットワークが、符号化ブロックおよび復号ブロックの3つの層を含む、実施例1~12に記載のコンピュータ実施方法である。
実施例14は、三次元MRI画像が、チャネル次元に沿って積層された複数の隣接するスライスを含み、隣接するスライスが、第1のタイプのMRIシーケンスを使用して生成された第1の三次元MRIスライス、第2のタイプのMRIシーケンスを使用して生成された第2の三次元MRIスライス、および第3のタイプのMRIシーケンスを使用して生成された第3の三次元MRIスライスを含む、実施例1~13のいずれか一項に記載のコンピュータ実施方法である。
実施例15は、第1のタイプのMRIシーケンスが造影後T1であり、第2のタイプのMRIシーケンスが造影前T1であり、第3のタイプのMRIシーケンスが流体減衰反転回復法である、実施例1~14に記載のコンピュータ実施方法である。
実施例16は、第1の三次元MRIスライスおよび第2の三次元MRIスライスが造影剤を捕捉するために正規化され、正規化が、第2の三次元MRIスライスの平均および標準偏差を使用して、第1の三次元MRIスライス体積および第2の三次元スライス体積の双方をzスコア化することを含む、実施例1~15に記載のコンピュータ実施方法である。
実施例17は、第1のセグメンテーションマスクを使用して第1のタイプの病変の数のカウントを決定すること、および第2のセグメンテーションマスクを使用して第2のタイプの病変の数のカウントを決定することをさらに含む、実施例1~16のいずれか一項に記載のコンピュータ実施方法である。
実施例18は、第1のセグメンテーションマスクを使用して第1のタイプの病変の数のカウントを決定すること、第2のセグメンテーションマスクを使用して第2のタイプの病変の数のカウントを決定すること、および/または最終画像マスクを使用して病変の新たなセット内の病変の数のカウントを決定することをさらに含む、実施例1~17に記載のコンピュータ実施方法である。
実施例19は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスクを使用して、1つ以上の病変サイズまたは病変負荷を決定することをさらに含む、実施例1~18のいずれか一項に記載のコンピュータ実施方法である。
実施例20は、以前のMRIに対応するデータにアクセスすることと、第1のセグメンテーションマスク、第2のセグメンテーションマスク、ならびに/または最終画像マスクおよびデータを使用して、1つ以上の病変の量、サイズ、または累積サイズの変化を決定することと、変化を表す出力を生成することと、をさらに含む、実施例1~19のいずれか一項に記載のコンピュータ実施方法である。
実施例21は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスクに基づいて、治療方針を変更することを推奨することをさらに含む、実施例1~20のいずれか一項に記載のコンピュータ実施方法である。
実施例22は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスクに少なくとも部分的に基づいて、多発性硬化症の被験者の可能な診断または確認された診断に対応する出力を提供することをさらに含む、実施例1~21のいずれか一項に記載の方法である。
実施例23は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスクに少なくとも部分的に基づいて、多発性硬化症を有する被験者を診断することをさらに含む、実施例1~22のいずれか一項に記載の方法である。
実施例24は、第1のセグメンテーションマスク、第2のセグメンテーションマスク、および/または最終画像マスクに少なくとも部分的に基づいて、治療反応を評価および/または予測することをさらに含む、実施例1~23のいずれか一項に記載の方法である。
実施例25は、コンピュータ実施方法であって、三次元磁気共鳴イメージング(MRI)画像にアクセスすることであって、三次元MRI画像が被験者の脳の領域を示し、脳の領域が、少なくとも第1のタイプの病変および第2のタイプの病変を含む、三次元磁気共鳴イメージング(MRI)画像にアクセスすることと、三次元MRI画像を、第2の畳み込みニューラルネットワークに接続された第1の畳み込みニューラルネットワークを含む機械学習モデルに入力することと、三次元MRI画像を入力として取り込む第1の畳み込みニューラルネットワークを使用して、第1のタイプの病変の第1のセグメンテーションマスクを生成することと、三次元MRI画像上で第1のセグメンテーションマスクを入力として取り込む第2の畳み込みニューラルネットワークを使用して、第2のタイプの病変の第2のセグメンテーションマスクを生成することと、第1のセグメンテーションマスクおよび第2のセグメンテーションマスクからの情報を組み合わせることによって最終画像マスクを生成することであって、最終画像マスクが、第1のタイプの病変の表示の周りの第1の推定セグメンテーション境界および/または第2のタイプの病変の表示の周りの第2の推定セグメンテーション境界を含む、最終画像マスクを生成することと、最終画像マスクを出力することと、を含む、コンピュータ実施方法である。
実施例26は、1つ以上のデータプロセッサと、命令を含む非一時的なコンピュータ可読記憶媒体であって、命令が、1つ以上のデータプロセッサ上で実行されると、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部を実行させる、非一時的なコンピュータ可読記憶媒体とを備えるシステムである。
実施例27は、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部を実行させるように構成された命令を含む、非一時的機械可読記憶媒体において有形に具現化されたコンピュータプログラム製品である。

Claims (27)

  1. コンピュータ実施方法であって、
    三次元磁気共鳴イメージング(MRI)画像にアクセスすることであって、前記三次元MRI画像が被験者の脳の領域を表示し、前記脳の前記領域が、少なくとも第1のタイプの病変および第2のタイプの病変を含む、三次元磁気共鳴イメージング(MRI)画像にアクセスすることと、
    前記三次元MRI画像を、第1の畳み込みニューラルネットワークおよび第2の畳み込みニューラルネットワークを含む機械学習モデルに入力することであって、前記第1の畳み込みニューラルネットワークが、前記第1の畳み込みニューラルネットワークの1つ以上の層と前記第2の畳み込みニューラルネットワークの1つ以上の層との間の1つ以上のクロスネットワーク接続を用いて前記第2の畳み込みニューラルネットワークに接続されている、前記三次元MRI画像を、第1の畳み込みニューラルネットワークおよび第2の畳み込みニューラルネットワークを含む機械学習モデルに入力することと、
    前記三次元MRI画像を入力として取り込む前記第1の畳み込みニューラルネットワークを使用して、前記第1のタイプの病変の第1のセグメンテーションマスクを生成することであって、前記第1のセグメンテーションマスクが、前記第1のタイプの病変の表示の周りの第1の推定セグメンテーション境界を含む、前記第1のタイプの病変の第1のセグメンテーションマスクを生成することと、
    前記三次元MRI画像を入力として取り込む前記第2の畳み込みニューラルネットワークを使用して、前記第2のタイプの病変の第2のセグメンテーションマスクを生成することであって、前記第2のセグメンテーションマスクが、前記第2のタイプの病変の表示の周りの第2の推定セグメンテーション境界を含み、前記第1のセグメンテーションマスクおよび前記第2のセグメンテーションマスクが、並行して生成され、前記第1のセグメンテーションマスクおよび前記第2のセグメンテーションマスクが生成される間に、抽出された特徴のセットが、前記1つ以上のクロスネットワーク接続にわたって共有される、前記第2のタイプの病変の第2のセグメンテーションマスクを生成することと、
    前記第1のセグメンテーションマスクおよび前記第2のセグメンテーションマスクを出力することと
    を含む、コンピュータ実施方法。
  2. 前記第1の畳み込みニューラルネットワークが、前記第1の畳み込みニューラルネットワークの符号化ブロックから前記第2の畳み込みニューラルネットワークの符号化ブロックへの前記1つ以上のクロスネットワーク接続を用いて前記第2の畳み込みニューラルネットワークに接続される、請求項1に記載のコンピュータ実施方法。
  3. 前記第1の畳み込みニューラルネットワークが、前記第1の畳み込みニューラルネットワークの復号ブロックから前記第2の畳み込みニューラルネットワークの復号ブロックへの前記1つ以上のクロスネットワーク接続を用いて前記第2の畳み込みニューラルネットワークに接続される、請求項1または2に記載のコンピュータ実施方法。
  4. 前記クロスネットワーク接続のそれぞれが、特徴変換ブロックおよび圧縮ブロックを含む、請求項1~3のいずれか一項に記載のコンピュータ実施方法。
  5. 前記第1のセグメンテーションマスクおよび前記第2のセグメンテーションマスクからの情報を組み合わせることによって最終画像マスクを生成することであって、前記最終画像マスクが、前記第1のタイプの病変と前記第2のタイプの病変との組み合わせを表す、病変の新たなセットの表示の周りの推定セグメンテーション境界を含む、最終画像マスクを生成することと、
    前記最終画像マスクを出力することと
    をさらに含む、請求項1~4のいずれか一項に記載のコンピュータ実施方法。
  6. 前記第1のタイプの病変がT1非増強病変であり、前記第2のタイプの病変がT1 Gd増強病変である、請求項1~5のいずれか一項に記載のコンピュータ実施方法。
  7. 前記第1の畳み込みニューラルネットワークおよび前記第2の畳み込みニューラルネットワークが、Tversky損失と重み付きバイナリ交差エントロピー損失との組み合わせを含む損失関数を使用して訓練された、請求項1~6のいずれか一項に記載のコンピュータ実施方法。
  8. 前記第1の畳み込みニューラルネットワークが、前記第1のタイプの病変および前記第2のタイプの病変を含む種々のタイプの病変の周りのセグメンテーション境界に関連付けられた注釈を有する複数の医用画像を含む訓練データのセットを使用して識別された複数のモデルパラメータを含み、前記複数のモデルパラメータが、前記損失関数を最小化することに基づいて前記訓練データのセットを使用して識別される、請求項7に記載のコンピュータ実施方法。
  9. 前記第2の畳み込みニューラルネットワークが、前記訓練データのセットを使用して識別された複数のモデルパラメータを含み、前記第2の畳み込みニューラルネットワークは、前記第2の畳み込みニューラルネットワークの前記複数のモデルパラメータが、前記損失関数を最小化することに基づいて前記訓練データのセットを使用して協調的に識別されるように、前記第1の畳み込みニューラルネットワークと共同訓練される、請求項8に記載のコンピュータ実施方法。
  10. 前記損失関数が、前記第1のタイプの病変と前記第2のタイプの病変との間の任意のオーバーラップ、ならびに前記第1の畳み込みニューラルネットワークおよび前記第2の畳み込みニューラルネットワークからの偽陽性の寄与に対するペナルティ項をさらに含む、請求項9に記載のコンピュータ実施方法。
  11. 前記第1の畳み込みニューラルネットワークおよび前記第2の畳み込みニューラルネットワークがU-Netである、請求項1~10のいずれか一項に記載のコンピュータ実施方法。
  12. 前記第1の畳み込みニューラルネットワークが、符号化ブロックおよび復号ブロックの3つの層を含む、請求項11に記載のコンピュータ実施方法。
  13. 前記第2の畳み込みニューラルネットワークが、符号化ブロックおよび復号ブロックの3つの層を含む、請求項11または12に記載のコンピュータ実施方法。
  14. 前記三次元MRI画像が、チャネル次元に沿って積層された複数の隣接するスライスを含み、前記隣接するスライスが、第1のタイプのMRIシーケンスを使用して生成された第1の三次元MRIスライス、第2のタイプのMRIシーケンスを使用して生成された第2の三次元MRIスライス、および第3のタイプのMRIシーケンスを使用して生成された第3の三次元MRIスライスを含む、請求項1~13のいずれか一項に記載のコンピュータ実施方法。
  15. 前記第1のタイプのMRIシーケンスが造影後T1であり、前記第2のタイプのMRIシーケンスが造影前T1であり、前記第3のタイプのMRIシーケンスが流体減衰反転回復法である、請求項14に記載のコンピュータ実施方法。
  16. 前記第1の三次元MRIスライスおよび前記第2の三次元MRIスライスが、造影剤増強を捕捉するために正規化され、前記正規化が、前記第2の三次元MRIスライスの平均および標準偏差を使用して、第1の三次元MRIスライス体積および第2の三次元スライス体積の双方をzスコア化することを含む、請求項14または15に記載のコンピュータ実施方法。
  17. 前記第1のセグメンテーションマスクを使用して前記第1のタイプの病変の数のカウントを決定すること、および前記第2のセグメンテーションマスクを使用して前記第2のタイプの病変の数のカウントを決定することをさらに含む、請求項1~16のいずれか一項に記載のコンピュータ実施方法。
  18. 前記第1のセグメンテーションマスクを使用して前記第1のタイプの病変の数のカウントを決定すること、前記第2のセグメンテーションマスクを使用して前記第2のタイプの病変の数のカウントを決定すること、および/または前記最終画像マスクを使用して前記病変の新たなセット内の病変の数のカウントを決定することをさらに含む、請求項5に記載のコンピュータ実施方法。
  19. 前記第1のセグメンテーションマスク、前記第2のセグメンテーションマスク、および/または前記最終画像マスクを使用して、1つ以上の病変サイズまたは病変負荷を決定することをさらに含む、請求項1~18のいずれか一項に記載のコンピュータ実施方法。
  20. 以前のMRIに対応するデータにアクセスすることと、
    前記第1のセグメンテーションマスク、前記第2のセグメンテーションマスク、ならびに/または前記最終画像マスクおよび前記データを使用して、1つ以上の病変の量、サイズ、または累積サイズの変化を決定することと、
    前記変化を表す出力を生成することと
    をさらに含む、請求項1~19のいずれか一項に記載のコンピュータ実施方法。
  21. 前記第1のセグメンテーションマスク、前記第2のセグメンテーションマスク、および/または前記最終画像マスクに基づいて、治療方針を変更することを推奨することをさらに含む、請求項1~20のいずれか一項に記載のコンピュータ実施方法。
  22. 前記第1のセグメンテーションマスク、前記第2のセグメンテーションマスク、および/または前記最終画像マスクに少なくとも部分的に基づいて、多発性硬化症の被験者の可能な診断または確認された診断に対応する出力を提供することをさらに含む、請求項1~21のいずれか一項に記載の方法。
  23. 前記第1のセグメンテーションマスク、前記第2のセグメンテーションマスク、および/または前記最終画像マスクに少なくとも部分的に基づいて、多発性硬化症を有する前記被験者を診断することをさらに含む、請求項1~22のいずれか一項に記載の方法。
  24. 前記第1のセグメンテーションマスク、前記第2のセグメンテーションマスク、および/または前記最終画像マスクに少なくとも部分的に基づいて、治療反応を評価および/または予測することをさらに含む、請求項1~23のいずれか一項に記載の方法。
  25. コンピュータ実施方法であって、
    三次元磁気共鳴イメージング(MRI)画像にアクセスすることであって、前記三次元MRI画像が被験者の脳の領域を表示し、前記脳の前記領域が、少なくとも第1のタイプの病変および第2のタイプの病変を含む、三次元磁気共鳴イメージング(MRI)画像にアクセスすることと、
    前記三次元MRI画像を、第2の畳み込みニューラルネットワークに接続された第1の畳み込みニューラルネットワークを含む機械学習モデルに入力することと、
    前記三次元MRI画像を入力として取り込む前記第1の畳み込みニューラルネットワークを使用して、前記第1のタイプの病変の第1のセグメンテーションマスクを生成することと、
    前記三次元MRI画像上で前記第1のセグメンテーションマスクを入力として取り込む前記第2の畳み込みニューラルネットワークを使用して、前記第2のタイプの病変の第2のセグメンテーションマスクを生成することと、
    前記第1のセグメンテーションマスクおよび前記第2のセグメンテーションマスクからの情報を組み合わせることによって最終画像マスクを生成することであって、前記最終画像マスクが、前記第1のタイプの病変の表示の周りの第1の推定セグメンテーション境界および/または前記第2のタイプの病変の表示の周りの第2の推定セグメンテーション境界を含む、最終画像マスクを生成することと、
    前記最終画像マスクを出力することと
    を含む、コンピュータ実施方法。
  26. システムであって、
    1つ以上のデータプロセッサと、
    命令を含む非一時的コンピュータ可読記憶媒体であって、前記命令が、前記1つ以上のデータプロセッサ上で実行されると、前記1つ以上のデータプロセッサに、ここに開示された1つ以上の方法の一部または全部を実行させる、非一時的コンピュータ可読記憶媒体と
    を備える、システム。
  27. 1つ以上のデータプロセッサに、ここに開示された1つ以上の方法の一部または全部を実行させるように構成された命令を含む、非一時的機械可読記憶媒体において有形に具現化されたコンピュータプログラム製品。
JP2023513602A 2020-09-02 2021-08-31 病変検出のための共同訓練を伴う接続機械学習モデル Pending JP2023540910A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063073686P 2020-09-02 2020-09-02
US63/073,686 2020-09-02
PCT/US2021/048486 WO2022051290A1 (en) 2020-09-02 2021-08-31 Connected machine-learning models with joint training for lesion detection

Publications (1)

Publication Number Publication Date
JP2023540910A true JP2023540910A (ja) 2023-09-27

Family

ID=78000790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023513602A Pending JP2023540910A (ja) 2020-09-02 2021-08-31 病変検出のための共同訓練を伴う接続機械学習モデル

Country Status (6)

Country Link
US (1) US20230281809A1 (ja)
EP (1) EP4208848A1 (ja)
JP (1) JP2023540910A (ja)
KR (1) KR20230059799A (ja)
CN (1) CN116097302A (ja)
WO (1) WO2022051290A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11688517B2 (en) * 2020-10-30 2023-06-27 Guerbet Multiple operating point false positive removal for lesion identification
US11436724B2 (en) 2020-10-30 2022-09-06 International Business Machines Corporation Lesion detection artificial intelligence pipeline computing system
US11749401B2 (en) 2020-10-30 2023-09-05 Guerbet Seed relabeling for seed-based segmentation of a medical image
US11688063B2 (en) 2020-10-30 2023-06-27 Guerbet Ensemble machine learning model architecture for lesion detection
CN114926396B (zh) * 2022-04-13 2023-06-20 四川大学华西医院 一种精神障碍类磁共振图像初步筛查模型构建方法
US20230367850A1 (en) * 2022-05-10 2023-11-16 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for mri data processing
WO2024014728A1 (en) * 2022-07-11 2024-01-18 Samsung Electronics Co., Ltd. Method and system for optimizing neural networks (nn) for on-device deployment in an electronic device
GB2621332B (en) * 2022-08-08 2024-09-11 Twinn Health Ltd A method and an artificial intelligence system for assessing an MRI image
WO2024137096A1 (en) * 2022-12-20 2024-06-27 GE Precision Healthcare LLC Automated organ segmentation output quality assessment
CN116012385B (zh) * 2023-03-28 2023-06-09 同心智医科技(北京)有限公司 Mr灌注图像的脑缺血分割方法、装置及存储介质
CN117173489B (zh) * 2023-09-27 2024-08-02 宁波大学 多中心mri图像分类方法
CN117973496B (zh) * 2024-02-19 2024-07-05 苏州慧维智能医疗科技有限公司 局部病变医疗图像生成模型的训练方法、系统及应用

Also Published As

Publication number Publication date
WO2022051290A1 (en) 2022-03-10
US20230281809A1 (en) 2023-09-07
EP4208848A1 (en) 2023-07-12
KR20230059799A (ko) 2023-05-03
CN116097302A (zh) 2023-05-09

Similar Documents

Publication Publication Date Title
JP2023540910A (ja) 病変検出のための共同訓練を伴う接続機械学習モデル
US20240221162A1 (en) Three dimensional object segmentation of medical images localized with object detection
Zhao et al. A novel U-Net approach to segment the cardiac chamber in magnetic resonance images with ghost artifacts
Dogan et al. A two-phase approach using mask R-CNN and 3D U-Net for high-accuracy automatic segmentation of pancreas in CT imaging
Parekh et al. Multiparametric deep learning tissue signatures for a radiological biomarker of breast cancer: Preliminary results
CN115496771A (zh) 一种基于脑部三维mri图像设计的脑肿瘤分割方法
Al Khalil et al. On the usability of synthetic data for improving the robustness of deep learning-based segmentation of cardiac magnetic resonance images
Zhan et al. LR-cGAN: Latent representation based conditional generative adversarial network for multi-modality MRI synthesis
Ma et al. MRI image synthesis with dual discriminator adversarial learning and difficulty-aware attention mechanism for hippocampal subfields segmentation
Nizamani et al. Advance brain tumor segmentation using feature fusion methods with deep U-Net model with CNN for MRI data
Lustermans et al. Optimized automated cardiac MR scar quantification with GAN‐based data augmentation
Tummala et al. Liver tumor segmentation from computed tomography images using multiscale residual dilated encoder‐decoder network
Jafari et al. LMISA: A lightweight multi-modality image segmentation network via domain adaptation using gradient magnitude and shape constraint
Gheorghiță et al. Improving robustness of automatic cardiac function quantification from cine magnetic resonance imaging using synthetic image data
CN114926487A (zh) 多模态影像脑胶质瘤靶区分割方法、系统及设备
Lim et al. Motion artifact correction in fetal MRI based on a Generative Adversarial network method
Li et al. Deep attention super-resolution of brain magnetic resonance images acquired under clinical protocols
Tong et al. Automatic lumen border detection in IVUS images using dictionary learning and kernel sparse representation
Gu et al. Cross-modality image translation: CT image synthesis of MR brain images using multi generative network with perceptual supervision
Luo et al. Deep learning models for ischemic stroke lesion segmentation in medical images: A survey
Xu et al. Bi-MGAN: bidirectional T1-to-T2 MRI images prediction using multi-generative multi-adversarial nets
Ren et al. Prostate segmentation in MRI using transformer encoder and decoder framework
CN116129184A (zh) 多期相病灶分类方法、装置、设备及可读存储介质
Bashkanov et al. Automatic detection of prostate cancer grades and chronic prostatitis in biparametric MRI
Tan et al. A Multi-Scale Fusion and Transformer Based Registration Guided Speckle Noise Reduction for OCT Images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240827