JP2023507109A - 医用画像による自動化された腫瘍識別およびセグメンテーション - Google Patents

医用画像による自動化された腫瘍識別およびセグメンテーション Download PDF

Info

Publication number
JP2023507109A
JP2023507109A JP2022536546A JP2022536546A JP2023507109A JP 2023507109 A JP2023507109 A JP 2023507109A JP 2022536546 A JP2022536546 A JP 2022536546A JP 2022536546 A JP2022536546 A JP 2022536546A JP 2023507109 A JP2023507109 A JP 2023507109A
Authority
JP
Japan
Prior art keywords
tumor
segmentation
subject
organ
medical images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022536546A
Other languages
English (en)
Other versions
JPWO2021126370A5 (ja
Inventor
ニルス グスタフ トーマス ベングトソン,
リチャード アラン デュレイ カラノ,
デ クレスピニー, アレクサンダー ジェームズ スティーブン チャンピオン
ジル オズボーン フレデリックソン,
モハメド スカンダー ジェマー,
Original Assignee
ジェネンテック, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジェネンテック, インコーポレイテッド filed Critical ジェネンテック, インコーポレイテッド
Publication of JP2023507109A publication Critical patent/JP2023507109A/ja
Publication of JPWO2021126370A5 publication Critical patent/JPWO2021126370A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4848Monitoring or testing the effects of treatment, e.g. of medication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Geometry (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

医用画像は、医用画像内の領域のセットを識別するマスクを生成するために検出ネットワークに入力され、検出ネットワークは、マスク内で識別された各領域が対象内の1つ以上の腫瘍のうちの1つの腫瘍の描写を含むと予測する。各領域について、医用画像の領域は、対象内に存在する腫瘍の1つ以上の腫瘍セグメンテーション境界を生成するために腫瘍セグメンテーションネットワークを使用して処理される。各腫瘍について、および複数の臓器固有セグメンテーションネットワークを使用することによって、腫瘍の少なくとも一部が位置する臓器が決定される。出力は、1つ以上の腫瘍セグメンテーション境界および1つ以上の腫瘍の少なくとも一部が位置する臓器の位置に基づいて生成される。【選択図】図3

Description

関連出願の相互参照
本出願は、2019年12月20日に出願された米国仮特許出願第62/952,008号および2020年3月16日に出願された米国仮特許出願第62/990,348号の利益および優先権を主張する。これらの出願のそれぞれは、あらゆる目的のためにその全体が参照により本明細書に組み込まれる。
医用イメージング(例えば、CTスキャン、X線またはMRIスキャン)は、癌(例えば、肺癌、乳癌など)の診断および処置を支援するために腫瘍検出に広く使用されている。多くの場合、医療従事者は、腫瘍のサイズまたは容積の変化を測定することによって、薬物および/または処置レジメンの有効性を評価する。固形腫瘍の応答評価基準(RECIST)は、癌対象の処置応答を評価するための標準化された方法であり、新規腫瘍薬承認の規制基準の一部である。RECISTは、訓練された専門家(例えば、放射線科医)からかなりの時間を必要とする。具体的には、注釈器は、最大5個の標的病変および最大10個の非標的病変を手動で(例えば、放射線科医によって)識別することである。注釈器は、標的病変の断面が描写される各スキャンにおける各標的病変の周囲を識別し、各標的病変の断面直径を記録する。次いで、全ての標的病変について定量的メトリック(例えば、最長直径の合計)が決定される。非標的病変は、定性的に評価され、非標的病変がスキャンで観察されるかどうか、および明確な変化があるかどうかを示す。スキャンは、複数の時点で収集されることができ、標的病変および非標的病変のメトリックが各時点について決定されることができる。次いで、ある期間にわたるメトリックの変化が使用されて、疾患が進行しているおよび/または効果的に処置されている程度を評価することができる。
しかしながら、RECISTにはいくつかの制限がある。すなわち、RECISTは、非常に頻繁に各対象について腫瘍の小さなサブセット(例えば、5~10未満)のみを測定するので、本方法は、疾患全体の「負荷」を説明しない。この技術は、最大5個の腫瘍のサイズのみが追跡されることを考えると、多数の病変(例えば、5つを超える病変)を含むように転移した癌を有する対象の疾患進行および/または処置有効性を正確に評価することができない。さらにまた、病変選択の変動性のために標的病変の選択にも不整合があり、これは、同じ対象内であっても腫瘍負荷の異なる評価につながる有意な読み取り装置内および読み取り装置間の変動を引き起こす。例えば、病変の異なるセットは、(例えば、不注意に)異なる時点にわたって識別されることがある。さらに、多くの腫瘍は、CT上で不均一な外観を有することが多く、位置、サイズ、および形状によって変化する可能性がある。例えば、肺病変は、空洞型または石灰化型とすることができ、骨転移は、(例えば)溶解型(骨格組織を破壊する)または芽球型(異常な骨成長)型をとることができ、各病変型は、異なる構造的および視覚的外観に関連しているため、高い病変の変動性に起因して、疾患の病期および/または前記病変型の各病変を完全な読み取り値を得ずに評価することは困難である。したがって、より包括的なデータセットおよびより客観的な技術を用いて腫瘍の成長および/または転移を評価する自動化技術を識別することが有利であろう。
本開示は、一貫しており、対象の疾患負荷全体を説明する腫瘍検出および測定の自動化された方法を提供することによって、少なくとも上記の制限を解決しようと試みる。
本明細書に記載の技術は、1つ以上の医用画像を使用して生物学的対象を識別およびセグメンテーションするための方法を開示する。
いくつかの実施形態では、対象の少なくとも1つ以上の医用画像にアクセスするコンピュータ実装方法が提供される。1つ以上の医用画像は、
検出ネットワークに入力されて、1つ以上の画像内の領域のセットを識別する1つ以上のマスクを生成する。検出ネットワークは、1つ以上のマスクにおいて識別された領域のセットの各領域が対象内の腫瘍の描写を含むと予測する。領域のセットの各領域について、1つ以上の医用画像の領域は、対象内に存在する腫瘍の1つ以上の腫瘍セグメンテーション境界を生成するために腫瘍セグメンテーションネットワークを使用して処理される。腫瘍の少なくとも一部がその中に位置する臓器は、1つ以上の腫瘍の各腫瘍について、複数の臓器固有セグメンテーションネットワークを使用することによって決定される。次いで、1つ以上の腫瘍セグメンテーション境界および臓器位置に基づいて出力が生成される。
いくつかの実施形態では、対象の1つ以上の医用画像にアクセスする別のコンピュータ実装方法が提供される。1つ以上の医用画像に存在する腫瘍病変のセットについての臓器位置のセットもアクセスされる。1つ以上の医用画像および臓器位置のセットは、複数の治療的処置のうちの1つに関連するネットワークに入力されて、対象がその処置を受けた他の以前の対象と比較して特定の処置の良好な候補であるかどうかを表すスコアを生成する。次いで、スコアは、対象および複数の処置のうちの各処置の生存率の評価のために返される。
いくつかの実施形態では、1つ以上のデータプロセッサと、1つ以上のデータプロセッサ上で実行されると、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部を実行させる命令を含む非一時的コンピュータ可読記憶媒体と、を含む、システムが提供される。
いくつかの実施形態では、非一時的機械可読記憶媒体に有形に具現化され、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部を実行させるように構成された命令を含むコンピュータプログラム製品が提供される。
本開示は、以下の添付の図面と併せて説明される:
多段ニューラルネットワークプラットフォームを使用して医用画像を使用、収集、および処理するための例示的な対話システムを示している。
検出された生物学的オブジェクトのパッチおよび境界ボックスのセットを含む例示的な画像スタックを示している。
2人以上の対象間の1つ以上のペアワイズ比較を生成するための例示的なシステムを示している。
多段ニューラルネットワークプラットフォームを使用して医用画像を処理するための例示的な方法を示している。
腫瘍検出のための例示的な画像のセットを示している。最左側パネルは、前処理後の軸方向スライスの全身スキャンを示し、右側パネルは、軸方向スライス内の肺、肝臓、および縦隔領域について、境界ボックス検出ネットワークによって自動的に生成およびラベル付けされた、検出された境界ボックスを示している。
軸方向CTスキャンを使用した腫瘍セグメンテーションの例を示している。上側パネルのそれぞれは、腫瘍の決定された領域を示している。対応する下側パネルは、腫瘍の例示的なセグメンテーション境界を示している。
RECISTを使用した手動評価を例示的な訓練セットの自動化された方法と比較するプロットを示している。パネルA:いくつかの識別された病変についての比較、パネルB:決定された最長径の和(SLD)についての比較。
RECISTを使用した手動評価を例示的な試験セットの自動化された方法と比較するプロットを示している。パネルA:いくつかの識別された病変についての比較、パネルB:決定されたSLDについての比較。
例示的な訓練セットについて、放射線科医によって実施された完全読影を使用して識別された病変の数を、自動化された方法を使用して識別された病変の数と比較するプロットを示している。
1人以上の放射線科医によって実施された完全読影を使用して識別された病変の容積を、例示的な訓練セットの自動化された方法を使用して識別された病変の容積と比較するプロットを示している。
例示的な訓練セットについて、完全読影を使用して識別された病変の容積の平均および中央値を、自動化された方法を使用して識別された病変の容積と比較するプロットを示している。パネルA:平均容積データ。パネルB:中央容積データ。
例示的な訓練セットについてのカプラン・マイヤー曲線を示している。パネルA:手動評価されたRECISTによって導出されたSLDであって、導出されたSLDに基づいて四分位に分割されている、パネルB:手動評価されたRECISTによって導出された病変の数であって、病変の数に基づいて四分位に分割されている。パネルC:自動化された方法によって導出された総SLDであって、導出された総SLDに基づいて四分位に分割されている。
例示的な訓練セットについてのカプラン・マイヤー曲線を示している。パネルA:自動化された方法によって導出された総容積であって、四分位によって分割されている、パネルB:自動化された方法によって導出された病変の数であって、四分位によって分割されている。
例示的な訓練セットについて肺領域内に位置する病変を使用したカプラン・マイヤー曲線を示している。パネルA:自動化された方法によって導出された肺病変の容積であって、四分位によって分割されている、パネルB:自動化された方法によって導出された肺病変の数であって、四分位によって分割されている。
例示的な訓練セットについてのカプラン・マイヤー曲線を示している。パネルA:自動化された方法によって導出された肝臓関与の尺度であって、四分位によって分割されている、パネルB:自動化された方法によって導出された骨関与の尺度であって、四分位によって分割されている。
例示的な検証セットについてのカプラン・マイヤー曲線を示している。パネルA:手動評価されたRECISTによって導出されたSLDであって、四分位によって分割されている、パネルB:手動評価されたRECISTによって導出された病変の数であって、四分位によって分割されている。
例示的な検証セットについてのカプラン・マイヤー曲線を示している。パネルA:手動評価されたRECISTによって導出されたSLDであって、四分位によって分割されている、パネルB:自動化された方法によって導出された総SLDであって、四分位によって分割されている、パネルC:自動化された方法によって導出された総容積であって、四分位によって分割されている。
例示的な検証セットについてのカプラン・マイヤー曲線を示している。パネルA:自動化された方法によって導出された総腫瘍容積であって、四分位によって分割されている、パネルB:自動化された方法によって導出された病変の数であって、四分位によって分割されている。
例示的な検証セットについて肺領域内に位置する病変を使用したカプラン・マイヤー曲線を示している。パネルA:自動化された方法によって導出された肺病変の容積であって、四分位によって分割されている、パネルB:自動化された方法によって導出された肺病変の数であって、四分位によって分割されている。
例示的な検証セットについての自動化された方法によって導出された腎臓関与の尺度についてのカプラン・マイヤー曲線を示している。腎臓関与についてのデータは、四分位によって分割された。
自動検出およびセグメンテーション方法を使用した軸方向CTスキャンからの腫瘍検出およびセグメンテーションの例を示している。左上パネルは、下側プロットに関連する病変のセグメンテーションを有する、肝臓において検出された3つの病変を示している。同様に、右上パネルは、肺/縦隔において検出された4つの病変を、それらの関連するセグメンテーションとともに示している。下側パネルの2つの例は、それぞれ、腎臓および肺空間における検出された病変を示している。
行ごとに左から右へのセグメンテーションの例を示している:放射線科医の注釈、問題UNetβ=10、問題UNetβ==2、確率的UNetとして実装される、腫瘍セグメンテーションネットワークの結合。
別の例示的な試験セットについてのカプラン・マイヤー曲線を示している。パネルA:手動評価されたRECISTによって導出されたSLDであって、四分位によって分割されている、パネルB:自動化された方法によるSLDであって、四分位によって分割されている。
添付の図面において、同様の構成要素および/または特徴は、同じ参照ラベルを有することができる。さらに、同じ種類の様々な構成要素は、参照ラベルの後に同様の構成要素を区別するダッシュおよび第2のラベルを続けることによって区別されることができる。本明細書において第1の参照ラベルのみが使用される場合、説明は、第2の参照ラベルに関係なく、同じ第1の参照ラベルを有する同様の構成要素のいずれかに適用可能である。
I.概要
最近の画像分析の取り組みは、腫瘍の検出およびセグメンテーションを行うことによって放射線科医のワークフローを支援することができる自動化されたアルゴリズムを開発することに焦点を当てている。最近の方法は、単一の軸方向CTセクションにおけるRECIST病変の検出および/またはセグメント化に焦点を当てている。これらの最近の取り組みは、より高く、より変化しやすい腫瘍負荷量を被る進行期の対象とは対照的に、腫瘍スクリーニングのために、単一の切片上、または単一の臓器(例えば、肺において)においてのみ腫瘍をセグメンテーションするために制限されている。
本明細書に記載されるように、技術は、(例えば、CTまたはMRIスキャンなど)対象の1つ以上の画像スキャンを分析するために使用される。各画像スキャンは、異なるスライス(例えば、異なる軸方向スライス)に対応する画像のセットを含むことができる。第1のニューラルネットワークが使用されて、画像スキャン内の各画像について、特定の種類の生物学的オブジェクト(例えば、腫瘍)の描写を含む各領域を検出することができる。第1のニューラルネットワーク(すなわち、境界ボックス検出ニューラルネットワーク)は、RetinaNetなどの畳み込みニューラルネットワークおよび/または3次元ニューラルネットワークを含むことができる。第1のニューラルネットワークは、各領域を、描写された生物学的オブジェクトおよび場合によっては所定サイズのパディングを含む境界ボックスとして定義するように構成されることができる(例えば、ボックスの幅は、生物学的オブジェクト描写の推定最大幅+2倍のパディングであるように定義されるように)。第1のニューラルネットワークは、(例えば、個々の画像ごとに領域を画定するために)個々の焦点によって画像スキャンを処理するが、コンテキストを提供するために個々のスキャンの上方のスライスを描写するスキャンおよび個々のスキャンの下方のスライスを描写する別のスキャンを使用するように構成されることができる。
第2のニューラルネットワーク(例えば、セグメンテーションニューラルネットワーク)は、画像スキャンのより小さい部分を処理して個々のオブジェクトをセグメント化するように構成されることができる。より具体的には、第1のニューラルネットワークによって処理された画像の1つ以上のトリミング部分は、第2のニューラルネットワークに入力されることができる。各トリミング部分は、特定の画像に対して定義された境界ボックスに対応することができる。トリミング部分は、(例えば)境界ボックスの面積に等しい面積、または境界ボックス+パディングの面積に等しい面積を有することができる。第2のニューラルネットワークは、隣接するスライスを表す他の画像から対応する部分を受信するように構成されてもよい。第2のニューラルネットワークは、UNetなどの畳み込みおよび/または3次元ニューラルネットワークを含むことができる。第2のニューラルネットワークの出力は、各ボックスについて、画像に描写されたオブジェクト断面の断面の円周または面積に対応すると推定される画素のセットを識別することができる。
場合によっては、オブジェクトセグメンテーションは、画像にわたって位置合わせおよび/または平滑化される。次いで、個々のオブジェクトの3次元表現が取得されることができる。
ニューラルネットワーク(例えば、第1のニューラルネットワーク、第2のニューラルネットワーク、または別のニューラルネットワーク)は、オブジェクトの環境を推定するように構成されることができる。例えば、ネットワークは、生物学的オブジェクトが対象の肺、肝臓、骨、縦隔または他の位置内にある確率を出力することができる。確率は、独立して評価されることができる(例えば、その場合、確率は、様々な確率にわたって合計が1になる必要はない)。コンテキストを予測することは、セグメンテーション、位置合わせ、および/または他の処理を容易にすることができる。例えば、特定の種類の生物学的オブジェクト(例えば、腫瘍)は、一般に、異なる環境において異なる特性を有することができる。したがって、環境予測は、オブジェクトセグメンテーションを生成し、および/または他の画像処理を実行するために、どのタイプの画像特徴が使用されるかを通知することができる。場合によっては、ネットワークは、特定の種類のオブジェクトを真に描写する画像の推定確率を出力する。
場合によっては、第3のニューラルネットワークは、画像内の関心のある位置の第2のセグメンテーションを実行することによって、生物学的オブジェクトの環境を決定することができる。例えば、第3のニューラルネットワークは、肺、肝臓、腎臓、および/または対象に対応する別の位置のセグメンテーションを(例えば、2次元および/または3次元マスクの形態で)出力することができる。場合によっては、第3のニューラルネットワークは、関心のある単一の位置をセグメント化するように訓練されてもよく、追加のニューラルネットワークは、関心のある追加の位置をセグメント化するように構成されてもよい。例えば、第3のニューラルネットワークは、肺のセグメンテーションを出力することができ、第4のニューラルネットワークは、肝臓のセグメンテーションを出力することができ、第5のニューラルネットワークは、腎臓のセグメンテーションを出力することができる。
2次元セグメンテーションまたは3次元セグメンテーションのいずれかを使用して、1つ以上のオブジェクト固有の統計量が生成されて、各推定オブジェクト描写を特徴付けることができる。1つ以上のオブジェクト固有の統計量は、(例えば)面積、最長寸法長または円周長を含むことができる。スキャンごとに1つ以上のスキャン固有の統計量が生成されることができる。スキャン固有の統計量は、(例えば)スキャンごとに検出されたオブジェクトの数、スキャンごとに検出されたオブジェクトの数に基づく統計量(例えば、平均値、中央値または最大値)、オブジェクト固有の統計量に基づく統計量(例えば、平均値、中央値または最大値)、または各スキャンにわたって検出されたオブジェクトの量に基づく統計量(例えば、平均値、中央値または最大値)を含むことができる。(例えば)全てのスキャンにわたって検出されたオブジェクトの総数(例えば、所与の対象に関連する)、全てのスキャンにわたって検出されたオブジェクトの最長寸法長の合計、および/または全てのスキャンにわたって検出されたオブジェクトの累積量など、対象レベルの統計量がさらに生成されることができる。
スキャン固有、オブジェクト固有の統計量、および/または対象レベルの統計量が出力されることができる。場合によっては、統計量は、時点および対象識別子に関連して記憶されることができる。次いで、統計量は、経時的に追跡および比較されて、医学的症状が進行している程度、所与の処置の有効性および/または所与の対象の予後を推定することができる。
II.定義
本明細書で使用される場合、「医用画像」は、対象の体内の画像を指す。医用画像は、CT、MRI、および/またはX線画像を含むことができる。医用画像は、対象の組織、臓器、および/または解剖学的領域全体の一部を描写することができる。医用画像は、対象の胴体、胸部、腹部および/または骨盤の一部を描写することができる。医用画像は、対象の全身を描写することができる。医用画像は、2次元画像を含むことができる。
本明細書で使用される場合、「全身イメージング」は、対象の全身をまとめて描写する画像のセットを収集することを指す。画像のセットは、対象の第1の端部(例えば、前端)から第2の端部(例えば、後端)まで広がる仮想「スライス」に関連付けられた画像を含むことができる。画像のセットは、対象の少なくとも脳領域、胸部領域、腹部領域、および骨盤領域の仮想スライスを含むことができる。
本明細書で使用される場合、「画像スタック」は、隣接する仮想スライスのセットを描写する画像のセットを指す。したがって、画像のセットは、(例えば)異なる深度に関連付けられることができる。画像スタックは、(例えば)少なくとも2つの画像または少なくとも3つの画像を含むことができる。画像スタックは、下画像、中間画像、および上画像を含むことができ、中間画像に関連付けられた深度は、下画像と上画像の深度の間にある。下画像および上画像は、中間画像の処理に関連するコンテキスト情報を提供するために使用されることができる。
本明細書で使用される場合、(例えば、「オブジェクト」とも呼ばれる)「生物学的オブジェクト」は、生物学的構造および/または生物学的構造に関連する1つ以上の関心領域を指す。例示的な生物学的構造は、対象の1つ以上の生物学的細胞、臓器および/または組織を含むことができる。オブジェクトは、これらの識別された生物学的構造および/または識別された生物学的構造内のもしくは識別された生物学的構造に接続された類似の構造(例えば、対象のより大きな身体の正常細胞、臓器および/または組織内で識別された複数の腫瘍細胞および/または組織)のいずれかを含むことができる(ただし、これらに限定されない)。
本明細書で使用される場合、「マスク」は、検出されたオブジェクトまたは他の関心領域の表面領域を表す画像または他のデータファイルを指す。マスクは、1つ以上の関心領域(例えば、1つ以上の検出されたオブジェクト)を示す非ゼロ強度の画素と、背景を示すゼロ強度の画素とを含むことができる。
本明細書で使用される場合、「バイナリマスク」は、各画素値が2つの値(例えば、0または1)のうちの1つに設定されるマスクを指す。ゼロの強度値は、対応する画素が背景の一部であることを示すことができ、非ゼロの強度値(例えば、1の値)は、対応する画素が関心領域の一部であることを示すことができる。
本明細書で使用される場合、「3Dマスク」は、3次元画像内のオブジェクトの完全な表面領域を指す。3Dマスクを形成するために、オブジェクトの複数のバイナリマスクが組み合わせられることができる。3Dマスクは、オブジェクトまたは他の関心領域の容積、密度、および空間内の位置に関する情報をさらに提供することができる。
本明細書で使用される場合、「セグメンテーション」は、(2次元または3次元)画像または他のデータファイル内のオブジェクトまたは関心領域の位置および形状を決定することを指す。セグメンテーションは、画像内のオブジェクトの領域または周囲を描写する画素のセットを決定することを含むことができる。セグメンテーションは、オブジェクトのバイナリマスクを生成することを含むことができる。セグメンテーションは、オブジェクトの3Dマスクを生成するために、オブジェクトに対応する複数のバイナリマスクを処理することをさらに含むことができる。
本明細書で使用される場合、「セグメンテーション境界」は、画像内のオブジェクトの推定された周囲長を指す。セグメンテーション境界は、オブジェクトのエッジの位置を決定するために画像の特徴が分析されるセグメンテーションプロセス中に生成されることができる。セグメンテーション境界は、バイナリマスクによってさらに表されてもよい。
本明細書で使用される場合、「処置」は、治療、薬剤および/または放射線を処方もしくは適用すること、および/または(例えば、医学的症状の進行を遅らせるために、医学的症状の進行を停止させるために、医学的症状の重症度および/もしくは程度を軽減するために、ならびに/または医学的症状を治癒するために)医学的症状を処置する目的で外科的手順を処方もしくは実行することを指す。
III.例示的な対話システム
図1Aは、多段ニューラルネットワークプラットフォームを使用するために医用画像を使用、収集、および処理するための例示的な対話システムを示している。この特定の例では、対話システムは、医用画像内の腫瘍生物学的構造および臓器の描写を特定してセグメント化するように特に構成されている。
A.入力データ
1つ以上のイメージングシステム101(例えば、CT装置、MRI装置、および/またはX線装置)が使用されて、医用画像102(例えば、CT、MRI、および/またはX線画像)の1つ以上のセットを生成することができる。イメージングシステム101は、画像のセット内の各画像がセット内の他の画像に対して異なる深度、位置、および/または視点に関連付けられるように、複数の画像が収集されるときに焦点および/または位置を反復的に調整するように構成されることができる。イメージングシステム201は、光源(例えば、電動式および/またはX線源)、光検出器(例えば、カメラ)、レンズ、対物レンズ、フィルタ、磁石、(例えば、磁場の不均一性を補正するための)シムコイル、(例えば、磁気共鳴信号を局在化するための)勾配システムおよび/または(例えば、試料を励起し、得られた核磁気共鳴信号を検出するための)RFシステムを含むことができる。
画像102の各セットは、撮像セッション、セッション日付および対象に対応することができる。対象は、ヒトまたは動物の対象を含むことができる。対象は、特定の疾患(例えば、癌)と診断されていてもよく、および/または1つ以上の腫瘍を有していてもよい。
画像102の各セットは、対応する対象の内部を描写することができる。場合によっては、各画像は、少なくとも対象の関心領域(例えば、1つ以上の臓器、胸部領域、腹部領域、および/または骨盤領域)を描写する。
画像102のセットの各画像は、それぞれがセット内の他の画像に描写された他の平面に平行な平面を描写するように、同じ視野角をさらに有することができる。場合によっては、画像のセットのそれぞれは、平面に非平行な(例えば、垂直な)軸に沿った異なる距離に対応することができる。例えば、画像102のセットは、対象の前後軸に沿った異なる位置に対応する水平仮想スライスのセットに対応することができる。画像102のセットは、(例えば、まとめてまたは個別に)前処理されてもよい。例えば、前処理は、画素強度を正規化すること、画像を互いにまたは別の基準点/画像に位置合わせすること、画像を均一なサイズにトリミングすること、および/または明暗画素を区別するためにコントラストを調整することを含むことができる。場合によっては、画像102のセットは、3次元(3D)画像構造を生成するために処理されることができる。次いで、3D画像構造が使用されて、仮想スライスの異なる角度に対応する画像の別のセットを生成することができる。
B.訓練データ
イメージングシステム101の少なくとも一方によって収集されたいくつかの医用画像は、訓練データセットに含まれて、1つ以上のニューラルネットワーク(例えば、境界ボックス検出ネットワークおよびセグメンテーションネットワーク)を訓練するための訓練画像を含むことができる。訓練画像は、訓練されたネットワークが使用される対象と比較して、他の対象と関連付けられてもよい。
各訓練画像は、本明細書に記載の医用画像102の1つ以上の特性を有することができ、画像が腫瘍および/または臓器を描写するかどうかおよび/または画像が腫瘍および/または臓器を描写する場所を示す注釈データと関連付けられることができる。この注釈データを識別するために、イメージングシステム101によって収集された画像は、注釈装置103に利用される(例えば、送信される)ことができる。
画像は、注釈装置103において提示されてもよく、注釈ユーザ(例えば、放射線科医など)は、(例えば)画像が任意の腫瘍(または1つ以上の特定の種類の臓器)を描写するかどうか;画像に示された腫瘍の数;注釈器によって注釈付けされている(例えば、概説されている)腫瘍の数;1つ以上の腫瘍および/または1つ以上の特定の種類の臓器のそれぞれの周囲長を示す(例えば)マウス、トラックパッド、スタイラスおよび/またはキーボードを使用して入力を提供してもよい。
注釈装置103は、入力を(例えば)ラベルデータ104に変換することができる。各ラベルデータセットは、対応する画像データセットと関連付けられることができる。ラベルデータ104は、画像が腫瘍および/または1つ以上の特定の種類の臓器を含むかどうかを示すことができる。ラベルデータ104は、腫瘍および/または臓器の空間的特徴(例えば、周囲および/または領域)を識別することによって、画像内に位置する腫瘍および/または臓器の場所をさらに示すことができる。例えば、ラベルデータ104は、示された腫瘍のセットのそれぞれの周囲と関連付けられた座標を識別する座標のセットを含むことができる。別の例として、ラベルデータ104は、訓練画像内のどの画素(またはボクセル)が示された腫瘍の周囲および/または領域に対応するかに関する指示を含むことができる。
空間的特徴は、複数のオブジェクトについてさらに識別されることができる。場合によっては、ラベルデータ104は、訓練画像内に描写された全ての腫瘍、臓器、および/または他の生物学的オブジェクトの空間的特徴を識別することができる(ただし、識別する必要はない)。例えば、訓練画像が10個の腫瘍を描写する場合、ラベルデータ104は、10個の腫瘍のそれぞれについて、または描写された腫瘍のうちの2個だけについて周囲長を識別することができる。そのような場合、オブジェクトの不完全なサブセットは、所定の選択基準に基づいて選択されることができる(ただし、選択される必要はない)。例えば、注釈ユーザは、閾値腫瘍長および/または閾値腫瘍容積を満たすおよび/または関心領域内(例えば、1つ以上の特定の臓器内)の腫瘍の描写のみをマークするように指示されていてもよい。
ラベルデータ104は、注釈器からの入力に基づいて識別される腫瘍のタイプ、位置、および/またはサイズを表すことができる腫瘍分類をさらに識別することができる。例えば、特定のラベルは、示された腫瘍が特定の臓器(例えば、肝臓)に対応する画像102の領域内にあることを示すことができる。ラベルデータ104は、特定のラベルが実際に関心のある腫瘍または臓器に対応する確率をさらに含むことができる。確率値は、腫瘍長、腫瘍容積、対象との位置、および/または特定のラベルを腫瘍または臓器に対応するものとして識別する注釈ユーザの数に基づいて計算されることができる。
ラベルデータ104は、画像スキャンの各画像について、腫瘍または臓器の描写を含む各領域を検出するために、1つ以上のニューラルネットワークを訓練するために使用されることができる。訓練されたニューラルネットワークは、それぞれのスキャンのそれぞれに対応する画像スタックを使用して(例えば、個々の画像ごとに特定の領域を画定するために)個々の焦点によって画像スキャンを処理することによって、示された腫瘍または臓器を含むと識別された各領域を描写するように構成されることができる。
C.境界ボックス検出ネットワーク
ニューラルネットワーク処理システム120は、画像102および対応するラベルデータ104の1つ以上のセットを受信するように構成されることができる。画像の1つ以上のセットの各画像は、最初に前処理コントローラ105によって前処理されてもよい。例えば、異なる領域の全てを示す集約画像を生成するために、対象の異なる領域を示す1つ以上の画像がスティッチングされてもよい。場合によっては、集約画像は、対象の「全身」ビューを描写する。別の例として、1つ以上の画像は、所定のサイズにスケーリングおよび/またはトリミングされてもよい。さらに別の例では、1つ以上の画像は、(例えば、画像内の位置合わせマーキング、相関ベースの技術、またはエントロピーベースの技術を使用して)セット内に含まれる別の画像または基準画像に位置合わせされることができる。別の例では、1つ以上の画像の画素強度は、正規化または標準化方法によって調整されることができる。場合によっては、画像102のセットは、前処理技術を受けない。
前処理された画像は、境界ボックス検出コントローラ106に利用されることができ、境界ボックス検出コントローラは、本明細書で説明するように、境界ボックス検出ネットワークの機能および動作の全てを制御および/または実行することができる。境界ボックス検出ネットワークは、腫瘍の描写を含む画像102のセット内の領域(例えば、境界ボックス)を識別するように構成された畳み込みニューラルネットワーク、逆-畳み込みニューラルネットワーク、または3次元ニューラルネットワークとすることができる。境界ボックス検出ニューラルネットワークによって識別される領域は、1つ以上の矩形または超矩形の領域を含むことができる。
境界ボックス検出コントローラ106は、検出パラメータ107のセットを学習するように境界ボックス検出ネットワークを訓練するために、訓練画像および対応する注釈を使用することができる。検出パラメータ107は、畳み込みネットワーク内のノード間の重みを含むことができる。ペナルティ関数は、検出された境界ボックスの一部が腫瘍の描写を完全に含まない場合、および/またはさらなる水平点および/または垂直点の間のパディングが下限閾値未満および/または上限閾値より大きい場合にペナルティを導入するように設定されることができる。場合によっては、ペナルティ関数は、所定のズーム範囲よりも大きいまたは小さい境界ボックスに対してペナルティを課すように構成されている。ペナルティ関数は、焦点損失を含むことができる。(その全体があらゆる目的のために参照により本明細書に組み込まれる、Lin,T.Y.、Goyal,P.、Girshick,R.、He,K.、Dollar,P.「Focal loss for dense object detection.」 ICCV 2017,pp.2980-2988(2017)に定義されているような)焦点損失は、クラス不均衡に対処するために、ならびに腫瘍のタグ知覚変動に起因する予測困難な症例に向けて検出タスクの訓練を「リフォーカス」するために使用されることができる。
訓練が行われることができ、および/または境界ボックス検出ネットワークは、1つ以上の固定ハイパーパラメータを使用して定義されることができる。例えば、ハイパーパラメータは、学習率、層ごとのノードの数、層の数などを含むことができる。
境界ボックス検出ネットワークは、各画像102内の潜在的な腫瘍描写に対応する1つ以上の境界ボックス108を検出することができる。境界ボックスの検出は、境界ボックスを位置特定するために各画像の画像スタックを使用することを含むことができる。例えば、(撮像深度に応じて順次番号付けされた)特定の撮像セッション中に100枚の画像が収集された場合、第7の画像内の境界ボックスを検出すると、第6の画像、第7の画像、および第8の画像を含むように画像スタックが定義されることができる。画像スタックは、1つ以上の方向に2つ以上の隣接画像を含むことができる(例えば、第7の画像内の境界ボックスを検出するときに第3から第11の画像を含むように)。
画像スタックの特徴は、1つ以上の領域が腫瘍および/または臓器を含むかどうかおよび/または1つ以上の領域が腫瘍および/または臓器を含む場所を決定するときにコンテキスト情報を提供するために使用される。特徴は、画像スタック内の画像にわたって延在する3次元特徴を含むことができる。例えば、特徴(例えば、学習された特徴)が画像スタック全体にわたって同様の位置(例えば、上部仮想スライス、下部仮想スライス、および中央仮想スライスの組み合わせ)に存在する場合、境界ボックス検出ネットワークは、特徴に対応する(例えば、含む)画像領域が腫瘍の境界ボックスを表すと決定することができる。代替例として、画像スタックの中央スライスの特徴が画像スタックの上部スライスまたは下部スライスのいずれにも存在しない場合、境界ボックス検出ネットワークは、特徴に対応する画像領域が画像の背景(すなわち、腫瘍以外の任意の生物学的構造)に対応し、境界ボックスを示さないと決定することができる。場合によっては、境界ボックス検出ネットワークは、検出された各境界ボックスに確率値をさらに割り当てることができる。境界ボックスの確率値が閾値を超えない場合、境界ボックスは、背景として破棄されてもよい。
境界ボックス検出ネットワークは、境界ボックスのマージンが腫瘍に対応する領域の各エッジからの少なくとも一定量のパディング(例えば、10px、15px、または別の適切な量)を含むように、検出された各境界ボックス108をさらに処理することができる。場合によっては、量パディングは、(例えば、検出されたオブジェクト描写の左、上、右、および下に最も遠い画素と交差する初期ボックスを生成し、所定のパディングを使用して、または画像境界に遭遇するまでボックスを拡張するように)事前定義される。他の例では、均一な境界ボックスサイズを維持するために、様々な程度のパディングが追加される。
境界ボックスデータ108は、(例えば、2つ以上のコーナー座標、1つ以上のエッジの座標などとして)各境界ボックスの定義および/または対応する画像もしくは画像のセットの1つ以上の識別子(例えば、画像の識別子、対象、撮像日など)を含むことができる。
1つの画像内の境界ボックスの位置は、別の画像内の境界ボックスの位置に関連することができることが理解されよう。この依存性を伝えるために画像スタックが使用されてもよいが、他の処理がさらにまたは代替的に使用されてもよい。例えば、境界ボックス検出ニューラルネットワークへの入力は、(同じ撮像セッションおよび同じ対象に対応する)以前に処理された画像から検出された1つ以上の境界ボックスのそれぞれの識別を含むことができる。別の例として、境界ボックス出力は、1つ以上の他の隣接する画像からの境界ボックス検出に基づいて、1つの画像に対応する境界ボックス検出を修正(例えば、平行移動、サイズ変更、削除、または追加)するために後処理されてもよい。
図1Bは、単一の生物学的オブジェクト125のための境界ボックスのセットを描写する例示的な画像スタックを示している。画像スタックは、少なくとも画像121、画像122、および画像123を含むことができ、画像スタックの各画像は、対象の領域の異なる軸方向視点を示す。場合によっては、画像スタックは、図に示されていない追加の画像を含むことができる。画像スタック内の各画像は、特定の画像内の生物学的オブジェクト125の可能な位置を描写する境界ボックスをさらに含むことができ、その結果、各境界ボックスが同じ生物学的オブジェクト125の存在を識別するため、各境界ボックスは、画像スタック内の他の画像に含まれる対応する境界ボックスに関連することができる。例えば、画像121は、画像121の少なくとも一部をカバーする境界ボックス121Aを含み、画像122は、画像122の少なくとも対応する部分をカバーする境界ボックス122Aを含み、その結果、境界ボックス121Aおよび境界ボックス122Aは、関連する境界ボックスであり、それぞれ、第1の軸方向視点および第2の軸方向視点から生物学的オブジェクト125の第1の可能な位置および第2の可能な位置を描写すると予測された領域を含む。他の例では、生物学的オブジェクト125は、画像スタック内の画像の少なくともサブセット(例えば、1つ以上)内で検出されないことがあり、したがって、画像スタック内の画像のサブセットは、生物学的オブジェクト125の関連する境界ボックスを含まないことがある。
さらに、画像スタック内の関連する境界ボックスの正確な位置(例えば、座標のセットによって表される)、表面積、および/または形状に差があってもよい。この例では、生物学的オブジェクト125の大部分が画像122内に位置すると推定されるため、境界ボックス121Aの表面積は、境界ボックス122Aの表面積よりも小さくてもよい。関連する境界ボックスのそれぞれの位置は、画像スタック内の画像の1つ以上の異なる軸方向視点からの同じ生物学的オブジェクト125の対応する位置を説明する1つ以上の変形(例えば、x平面、y平面、またはその双方において)をさらに含むことができる。
場合によっては、画像スタックの関連する境界ボックスのセットの識別に応答して、関連する境界ボックスのそれぞれについて検出領域が決定される。例えば、画像121は、境界ボックス121Aを囲む検出領域121Bを含むことができる。検出領域は、画像スタック内の各画像に対して同じサイズおよび同じ位置内であってもよい。いくつかの実施形態では、検出領域のサイズおよび位置は、画像スタックの中央スライス(例えば、この場合、画像122)内の境界ボックスの位置から決定されることができる。検出領域は、追加のパディングとともに識別された境界ボックスのそれぞれの全体を含むように構成されることができる。場合によっては、検出領域は、境界ボックス検出ネットワークとは別個の別のニューラルネットワークによって決定されてもよい。
D.腫瘍セグメンテーションネットワーク
図1Aに戻って参照すると、境界ボックスデータ108は、本明細書に記載されるように、腫瘍セグメンテーションネットワークの機能または動作の全てを制御および/または実行することができる腫瘍セグメンテーションコントローラ109に送信されることができる。腫瘍セグメンテーションネットワークは、境界ボックス検出ネットワークの訓練中に決定された少なくとも予測境界ボックスデータの訓練データセットを使用して訓練されることができる。セグメンテーションパラメータ110のセット(例えば、重み)は、訓練中に学習されることができる。図示の例では、腫瘍セグメンテーションネットワークは、(例えば)腫瘍の描写を検出およびセグメント化するように構成された、ニューラル畳み込みニューラルネットワークまたは3次元ニューラルネットワークとすることができる。場合によっては、腫瘍セグメンテーションネットワークは、ニューラルネットワークを含まず、代わりに(例えば)クラスタリング技術(例えば、K-ミーンズ技術)、ヒストグラムベースの技術、エッジ検出技術、領域成長技術および/またはグラフ分割技術を使用してもよい。腫瘍セグメンテーションネットワークは、検出された各境界ボックス108内で腫瘍をセグメント化するように構成されることができる。
画像102のセット内の各医用画像について、境界ボックス108は、(例えば)それぞれの画像に関連付けられた境界ボックスの識別情報(例えば、頂点の座標および/またはエッジ座標)とともに、境界ボックスに対応する画像の1つ以上の部分、または画像の全体を含む。いくつかの実施形態では、中間処理(図示せず)が実行されて、境界ボックス108によって囲まれた画像102の領域のみに対応するトリミングされた画像のセット(例えば、本明細書では検出領域と呼ばれる)を生成することができる。所与の画像に対して複数の境界ボックスが定義されている場合、腫瘍セグメンテーションネットワークは、入力として各対応する検出領域を受信し、検出領域を別々に処理することができる。
検出領域は、図1Bに示すように、標的腫瘍のフォーカスビューを提供することができる。場合によっては、検出領域は、所定のサイズであってもよい。そのような場合、検出領域は、検出領域の所定のサイズを維持するために、追加のパディングとして境界ボックスに対応する領域に隣接する領域の別のセットを含むことができる。他の場合では、境界ボックスが所定のサイズよりも大きい場合(例えば、400画素または200画素×200画素)、境界ボックスに対応する領域は、各ウィンドウが別個の検出領域に対応するように、2つ以上のウィンドウ(例えば、所定のサイズのもの、および/または所定のサイズ以下のもの)に分割される。そのような場合、単一の境界ボックスに対応する検出領域は、画像の重複部分を含むことができる。
境界ボックスが画像スタック全体に広がる場合(図1Bに示すように)、画像スタック内の各画像に対して別個の検出領域が画定されることができる。いくつかの実施形態では、検出領域の処理は、境界ボックスデータ108を腫瘍セグメンテーションコントローラ109に送信する前に境界ボックス検出ネットワークによって実行される。
腫瘍セグメンテーションコントローラ109は、各検出領域の特徴(例えば、画素強度の変動)をさらに識別および評価して、腫瘍に対応する周囲、エッジおよび/または輪郭のセットを識別するように構成された腫瘍セグメンテーションネットワークを実装する。腫瘍セグメンテーションネットワークによって識別された特徴は、境界ボックス検出ネットワークによって識別された特徴と類似性を有してもよく、および/または境界ボックス検出ネットワークによって識別された特徴と異なっていてもよい。双方のネットワークは、腫瘍に対応する画像の領域を識別するように訓練されることができるが、異なる特徴は、比較的大きな構造と比較して比較的小さな構造を検出するのに有用であり得る。場合によっては、腫瘍セグメンテーションネットワークは、(例えば)画素強度、画素色、および/または任意の他の適切な画像特徴を分析することによって、オブジェクトの位置を検出することを学習することができる。例として、腫瘍セグメンテーションネットワークは、(例えば、領域固有のメトリックを所定の閾値と比較することによって決定されるように)高コントラスト、大強度範囲および/または高強度変動を有する領域を検出するために画像を分析することによってオブジェクトのエッジを識別することができる。腫瘍セグメンテーションネットワークは、異なる受容野に対応する(したがって、異なる画素の集合の表現を分析する)ノードを含むことができる。したがって、ネットワークは、少なくともいくつかの異なるタイプの特徴を検出および使用することを学習することができる。
場合によっては、腫瘍セグメンテーションネットワークは、画像スタック内の他の画像によって提供される空間的状況を利用して、腫瘍に対応するエッジおよび/または輪郭のセットを識別することができる。画像スタックは、(例えば)3つの画像を含むことができ、中央画像は、腫瘍が検出される画像である。
腫瘍セグメンテーションネットワークは、識別されたエッジおよび/または輪郭を使用して、所与の検出領域内の腫瘍の全表面領域に対応する2-次元(例えば、バイナリ)腫瘍マスク110をさらに生成することができる。腫瘍マスク110は、腫瘍のいかなる部分も描写していると識別されない画素にわたって0の値を有するように定義されることができる。腫瘍の一部を描写していると識別される画素には、1つの値(例えば、バイナリマスクの場合)または別の値が割り当てられることができる。
場合によっては、バイナリ腫瘍マスク110は、各バイナリ腫瘍マスク110が腫瘍の異なる軸方向視点に対応するように、画像スタック内の各画像に対して生成される。そのような場合、後処理コントローラ111は、バイナリ腫瘍マスク110のセットを集約して、腫瘍の3次元の位置決めおよび形状を表す3D腫瘍マスク110を構築することができる。
E.臓器固有セグメンテーションネットワーク
場合によっては、ニューラルネットワーク処理システム120は、臓器固有セグメンテーションネットワークを実装するように構成された臓器セグメンテーションコントローラ111を含むことができる。臓器固有セグメンテーションネットワークは、(例えば)畳み込みニューラルネットワークおよび/または3次元ニューラルネットワークを含むことができる。例示的な畳み込みニューラルネットワークは、VGG 16、U-Net、および/またはResNet18ネットワークを含むことができる。臓器固有セグメンテーションネットワークは、対象に対応する医用画像を分析し、画像内に描写された1つ以上の臓器をセグメント化するように構成されることができる。そのような場合、1つ以上の臓器固有セグメンテーションネットワークのそれぞれは、(例えば、訓練中に学習されたパラメータを介して)特定のタイプの臓器をセグメント化するように構成されることができる。例示的な関心臓器は、(例えば)肝臓、または肺、または腎臓、または膵臓などとすることができる。
場合によっては、臓器固有セグメンテーションネットワークは、セグメンテーションプロセスの一部として、深さ方向および点方向の畳み込みなどの一連の畳み込みを実行するように構成されることができる。そのような場合、特定の寸法に沿った1つ以上の膨張がさらに実行されることができる。特定の寸法は、第3の寸法、第4の寸法などであってもよい。場合によっては、腫瘍セグメンテーションネットワークは、複製フィルタなどの1つ以上のフィルタを適用することもできる。
図示の例では、臓器セグメンテーションコントローラ111は、特定のタイプの臓器を検出するように構成された臓器固有セグメンテーションネットワークを制御することができる。臓器固有セグメンテーションネットワークは、訓練画像と、訓練画像の少なくともいくつかのそれぞれの中のどの部分が特定のタイプの臓器を描写するかを示す注釈とを含む訓練データセットを使用して訓練されることができる。訓練データセットは、境界ボックス検出ネットワークおよび腫瘍セグメンテーションネットワークによって使用される訓練データセットとは別個であってもよい。訓練データセットは、特定の関心臓器についての複数の医用画像および対応する注釈および/またはセグメンテーション境界(例えば、注釈装置103によって生成される)を含むことができる。臓器セグメンテーションパラメータ112のセット(例えば、重み)が訓練中に学習されることができる。場合によっては、前処理コントローラ105は、同じ医用画像102のセットを境界ボックス検出コントローラ106と臓器セグメンテーションコントローラ111の双方に送信してもよい。
訓練された臓器固有セグメンテーションネットワークは、臓器を検出するために画像および/または前処理された画像のセットのそれぞれを処理するために使用されることができる。特定の種類の臓器を検出するために使用される画像は、境界ボックス検出コントローラ106に提供される画像102のセットと同じ(または異なる)であってもよく、その結果、画像は、臓器セグメンテーションコントローラ111に同時に提供される。画像のセットは、1つ、2つ、または3つの画像を含む複数の(例えば、重複)サブセットに分割されることができる。例えば、サブセットは、サブセットごとに3つの画像およびサブセットごとに1つの画像のシフトを有するように定義されることができる。場合によっては、画像は、画像を対象の「全身」ビューを描写する3D画像に位置合わせするために前処理を受けることができる。
各画像内で、臓器固有セグメンテーションネットワークは、所与の画像が特定の種類の臓器を描写しているかどうかを示し、臓器の描写の周囲をさらに識別することができる。臓器固有セグメンテーションネットワークの出力は、(例えば)特定のタイプの臓器を描写しない画素についてはゼロの値を有し、特定のタイプの臓器を描写する画素については非ゼロの値を有する臓器マスク113を含むことができる。場合によっては、関心臓器の異なる仮想スライス(例えば、視点)に対応する複数の2次元臓器マスクが生成されることができる。これらの2次元臓器マスクが集約されて、各臓器について3D臓器マスクを生成することができる。
後処理コントローラ114は、腫瘍マスク110および臓器マスク113を個別におよび/またはまとめて処理して、統計量および/または記述子を生成することができる。例えば、各腫瘍について、後処理コントローラ114は、腫瘍の体積を識別することができ、腫瘍が任意の臓器(そして、もしそうであれば、どのタイプの臓器)の内部にあるかどうかをさらに識別することができる。後処理コントローラ114は、(2次元または3次元腫瘍マスクを)さらに処理して、対象の総腫瘍容積および/または密度および/または最長寸法の合計などの対象レベルの腫瘍統計量を計算することができる。場合によっては、最長寸法の合計は、最長直径の合計であってもよく、最長直径が各腫瘍について計算され、合計されて最長直径の合計を形成する。場合によっては、後処理コントローラ114は、別の例示的な統計量として、対応する関心臓器の質量と比較した腫瘍の質量のパーセンテージを識別することができる。
ニューラルネットワーク処理システム120は、記述子および/または統計量をユーザ装置に出力することができる。さらに、1つ以上の腫瘍マスクおよび/または1つ以上の臓器マスクの表現が送信されることができる。例えば、対象について検出された各腫瘍および/または臓器の周囲を識別するオーバーレイを有する元の画像の描写を含む画像が生成されることができる。場合によっては、後処理コントローラ114は、対象レベルの腫瘍統計量をさらに処理(例えば、処理のために別のモデルおよび/またはコントローラに送信する)して、1つ以上の処置方法を用いて生存確率のスコアを生成してもよい。
図1Aに示す対話システムは、腫瘍を検出し、様々な腫瘍が異なる臓器内にあるかどうかを決定することに関するが、代替実施形態は、他の種類の生物学的オブジェクトを検出することに関することができる。例えば、第1のネットワークは、脳病変を検出するように訓練されてもよく、他のネットワークは、病変がどの脳領域に位置するかを決定することができるように、様々な脳領域を検出するように訓練されてもよい。したがって、代替実施形態は、少なくとも腫瘍セグメンテーションネットワークを、医用画像内の他の生物学的構造をセグメント化するように訓練された異なるセグメンテーションニューラルネットワークによって置き換えることができる。
IV.予測ネットワークシステム
図2は、処置方法の有効性に基づいて対象の生存の確率についてのスコアを予測するために、ニューラルネットワーク処理システム120からの1つ以上の出力要素(例えば、臓器マスク)を使用することができる例示的な予測ニューラルネットワークシステム200を示している。有効性は、処置方法を行う前の対象の1つ以上の特徴(例えば、腫瘍の体積または密度に関して測定される疾患の進行など)によって決定されることができる。
これらのスコアを予測することが所望される場合、ニューラルネットワーク処理システム120は、1つ以上の医用画像202および臓器マスク204を予測ニューラルネットワークシステム200に利用することができる。画像202は、セクションIIIで論じるように、境界ボックス検出ネットワークおよび腫瘍セグメンテーションネットワークによって使用される同じ画像のサブセットとすることができる。場合によっては、画像202は、カウント、容積、および/または腫瘍の位置などの対応するメトリックをさらに含むことができる。臓器マスク204は、臓器固有セグメンテーションニューラルネットワークによって生成された少なくとも1つ以上の臓器マスクをさらに含むことができる。場合によっては、ニューラルネットワーク処理システム120は、腫瘍セグメンテーションネットワークによって生成された腫瘍マスク(図示せず)を予測ニューラルネットワークシステム200にさらに利用することができる。
図示の例では、予測ネットワークコントローラ206は、ニューラルネットワーク処理システム120に記載された境界ボックス検出ネットワークおよび腫瘍セグメンテーションネットワークとは異なるニューラルネットワークであってもよい予測ニューラルネットワークの、本明細書に記載の任意の動作を制御および/または実行するように構成されてもよい。予測ネットワークコントローラ206は、予測ニューラルネットワークを訓練して、比較可能な1つ以上の対象ペアに対応する画像を使用して、対象の1つ以上の処置方法に関連する生存率または死亡率を予測することができる。
(例えば)第1の対象および第2の対象が双方とも同じ処置方法を受けたことがあり、第1の対象が第2の対象と比較して処置を受けた後に異なる生存期間を有する場合、対象ペアは、同等であると見なされることができる。逆に、第1の生存期間が特定の期間(例えば、臨床試験のある期間)についてのみ追跡されたが、第1の生存期間に関する追加のデータが特定の期間の後に収集されず、第2の対象が少なくとも第1の生存期間が追跡された特定の期間の後である第2の生存期間を有するように、第1の対象が決定的でない第1の生存期間を有する場合、対象ペアは、同等であると見なされない。したがって、可能な全ての対象のペアリングが同等であると考えられるわけではない。
訓練中に、予測パラメータ208のセット(例えば、重み)が予測ニューラルネットワークについて決定されることができる。訓練データ要素は、比較可能な対象ペアの各対象に関連する少なくとも1つ以上の入力画像またはメトリック(例えば、検出された全ての生物学的オブジェクトの累積容積)と、処置が行われた後の各対象の生存期間を測定するメトリックとを含むことができる。各対象の生存期間に基づくスコアおよび/またはランクもまた、訓練データ要素内に含まれることができる。スコアおよび/またはランクは、行われた処置を使用する対象の生存の可能性に対応することができる。訓練は、ペアの対象間の訓練中のスコアの差を最大化する損失関数を利用することができ、その結果、第1の対象は、第2の対象と比較して、処置を使用して生存する最良の可能性を有すると決定される。
基準対象データ210は、複数の基準対象の各対象が、複数の基準対象と比較して単一の対象の生存期間に基づくランクなどの対象レベルの統計量をさらに含むことができるように、少なくとも行われた処置方法、生存期間および複数の基準対象の各対象に対する1つ以上の対象レベルメトリック(例えば、多数の腫瘍、腫瘍の位置、SLDまたは腫瘍の体積)を含むデータベースとすることができる。ランクは、1から、複数の基準対象のそれぞれについて相対死亡リスク(例えば、対象が処置後に生存する可能性、または対象の予想される生存期間として表される)を予測する、複数の基準対象の中の対象の総数までの範囲の値kとすることができる。各対象の生存期間は、疾患の診断または対象の処置期間の開始のいずれかから測定されることができる。場合によっては、複数の基準対象の少なくとも一部が死亡していてもよい。基準対象データ210は、具体的には、行われた処置方法によって基準対象をグループ分けすることができる。
特定の処置方法を使用して関心対象の生存率を予測する場合、予測ニューラルネットワークは、各ペアが関心対象および異なる基準対象を含むように、基準対象データ210から関心対象との比較可能性の基準を満たす1人以上の基準対象を選択して、少なくとも1つ以上の対象ペアを形成することができる。
次いで、予測ネットワークは、関心対象を選択された基準対象のそれぞれと比較することによって、所与の対象の予測スコア212を決定することができる。予測スコア212は、関心対象の生存の確率および/または長さを示す任意の適切なメトリック(例えば、パーセンテージまたは期間)とすることができる。基準対象との比較は、処置方法を受ける前の各基準対象に関連する1つ以上の特徴を、関心対象に関連する同じ特徴と比較することを含むことができる。場合によっては、ランク付けは、対象のランク値が対象の生存の可能性を示すことができるように、1つ以上の対象ペアについて生成されることができる。例えば、ランク値が最も低い対象は、処置方法を使用して生存の可能性が最も低いと予測されることができる。ランク値は、1つ以上の対象ペアの各対象についての腫瘍の総数、容積、または密度および/または位置から決定されることができる。
予測スコア212は、少なくとも関心対象が基準対象と比較してランキング内に入る場所に基づいて、関心対象について計算されることができる。次いで、処置方法が関心対象に有効であり得るかどうかおよび/またはどの程度まで有効であり得るかが予測されることができる。
V.例示的な高レベルプロセス
図3は、医用画像を処理するために多段ニューラルネットワークプラットフォームを使用するための例示的なプロセス300のフローチャートを示している。プロセス300は、1つ以上のコンピューティングシステムを使用して実行されることができる。
プロセス300は、訓練データセットがアクセスされるブロック305において開始する。訓練データセットは、複数の訓練要素を含む。訓練要素は、対象に対応する医用画像のセット(例えば、CT画像)と、医用画像のセット内の生物学的オブジェクトの存在を識別する注釈データとを含む。注釈データは、生物学的オブジェクトの存在を示すラベルと、(生物学的オブジェクトが存在する場合)生物学的オブジェクトの一般的な位置(例えば、肝臓、腎臓、膵臓など)とを含む。注釈データは、1つ以上の生物学的オブジェクトの存在が含まれないように不完全であり得る。場合によっては、医用画像は、少なくとも2人以上の放射線科医からの注釈に基づく注釈データの2つ以上の異なるセットに対応することができる。そのような場合、同じ画像に対応する注釈データの異なるセットは、1つ以上の追加の生物学的オブジェクトの識別若しくはその欠如、および/または1つ以上の生物学的オブジェクトの注釈サイズおよび/またはオブジェクト周囲の違いなどの不一致を含む。訓練データセットは、セクションIIIに開示されているように、1つ以上のイメージングシステムおよび1つ以上の注釈装置を使用して生成されていてもよい。
ブロック310において、訓練データセットを使用して多段ニューラルネットワークプラットフォームが訓練される。多段ニューラルネットワークプラットフォームは、境界ボックス検出ネットワークおよび生物学的構造セグメンテーションネットワークを含むことができる。場合によっては、ニューラルネットワークプラットフォームは、1つ以上の臓器固有セグメンテーションネットワークをさらに含む。
境界ボックス検出ネットワークは、生物学的オブジェクトに対応する領域の境界ボックスを検出するように訓練されることができる。特に、境界ボックス検出ネットワークを訓練することは、画像内の生物学的オブジェクトに対応する各領域に対して境界ボックスを定義することを含む。生物学的オブジェクトのそれぞれは、(例えば、複数のオブジェクトが画像のセットにわたって識別される場合)境界領域が所与のオブジェクトに対応することを示すためにさらにラベル付けされることができる。場合によっては、ラベルはまた、対象内の生物学的オブジェクトの位置を含むことができる。
生物学的構造セグメンテーションネットワーク(これは、図1Aに記載された腫瘍セグメンテーションネットワークと同様である)は、描写された生物学的オブジェクトの境界および総面積を識別するように訓練される。セグメンテーションネットワークの訓練は、追加の訓練データセットにアクセスすることを含むことができる。追加の訓練データセットは、放射線科医によって生成されたラベル付きセグメンテーションデータとともに、最初にアクセスされた訓練データセットの全ての訓練データ要素を含むことができる。ラベル付けされたセグメンテーションデータは、生物学的オブジェクトのバイナリマスクまたは3次元マスクのいずれかを含むことができる。場合によっては、セグメンテーションネットワークは、検出ネットワークによって生成された偽陽性(例えば、背景領域をオブジェクトとして誤ってラベル付けする)をさらに補正するように訓練される。
画素ごとの交差エントロピー損失、ダイス係数損失、または化合物損失を使用して、訓練がさらに実行されることができる。損失関数は、平均二乗誤差、中央二乗誤差、平均絶対誤差、および/またはエントロピーベースの誤差に基づくことができる(ただし、これらに限定されない)。
検証データセットはまた、その訓練と一致して多段ニューラルネットワークプラットフォームの性能を評価するためにアクセスされてもよい。検証データセットは、訓練データセットとは別個の医用画像および対応する注釈データの別のセットであってもよい。検証データセットの医用画像内の生物学的オブジェクトの識別とセグメンテーションの双方について目標精度に到達した場合、訓練セッションを終了することができる。
ブロック315において、対象および/または単一の撮像セッションに対応する医用画像のセットがアクセスされる。医用画像のセットは、対象の胸部領域、腹部領域、および/または「全身」領域を描写することができる。場合によっては、胸部領域に対応する第1の医用画像、腹部領域に対応する第2の医用画像、および骨盤領域に対応する第3の医用画像がスティッチングされて、対象の「全身」領域に対応する第4の医用画像を生成することができる。
医用画像は、セクションIII.Aに開示されているような1つ以上のイメージングシステムを使用して生成されることができる。場合によっては、1つ以上のイメージングシステムは、対象の領域の異なる視点に対応する画像を生成するように構成されてもよい。そのような場合、複数の医用画像は、特定の領域の別個の仮想スライスを描写することができる。
ブロック320において、医用画像のセットは、境界ボックス検出ネットワークに利用される。各画像は、1つ以上の境界ボックスを識別するために分析される。各境界ボックスは、標的生物学的オブジェクトに対応する画像領域を識別することができる。画像の分析は、画像の上方の領域および/またはビューに対応する第1の仮想スライスと、画像の下方の領域および/またはビューに対応する第2の仮想スライスとの使用を含むことができ、第1の仮想スライスおよび第2の仮想スライスは、標的生物学的オブジェクトに対応する領域を決定するための追加の空間的コンテキストを提供する。
場合によっては、境界ボックスは、標的生物学的オブジェクトに対応する識別された領域を囲むマージンのセット(例えば、10pxのパディング)を含むことができる。生物学的オブジェクトに対応する2つ以上の領域が画像内で識別される場合、境界ボックス検出ネットワークは、画像の2つ以上の境界ボックスを識別することができる。
ブロック325において、医用画像に対応する1つ以上の境界ボックスがセグメンテーションネットワークに利用される。セグメンテーションネットワークは、境界ボックスに対応する各領域のズームインされたビューを示す検出領域のセットを生成するために医用画像をトリミングすることができる。検出領域は、領域が均一サイズよりも小さい場合、検出領域が境界ボックスに対応する領域とともに追加のパディングを含むことができるように、均一サイズを割り当てられることができる。領域が均一サイズよりも大きい場合、境界ボックスに対応する領域は、2つ以上の検出領域に分割されてもよい。境界ボックスに対応する複数の検出領域の場合、境界ボックスに対応する領域は、ウィンドウのいくつかが領域の重複するサブセットを含むように、スライドウィンドウのセットに分割されてもよい。
境界ボックスに関連付けられた各検出領域について、生物学的構造セグメンテーションネットワークは、生物学的オブジェクトを位置特定し、生物学的オブジェクトに対応する第1のバイナリマスクを生成するために、検出領域の画像特徴を評価することができる。所与の画像に対して複数の境界ボックスが識別される場合、生物学的構造セグメンテーションネットワークは、対応する生物学的オブジェクトを描写する境界ボックスのそれぞれ内の領域を識別することができる。バイナリマスクは、生物学的オブジェクトごとに生成されてもよい。場合によっては、生物学的オブジェクトの異なる視点を描写する画像を使用して、生物学的オブジェクトに対して2つ以上のバイナリマスクが生成されることができる。
ブロック330において、3Dマスクを生成するために、(例えば、後処理を介して)同じオブジェクトに対応する1つ以上のバイナリマスクが処理されることができる。1つ以上のバイナリマスクのそれぞれおよび各3Dマスクは、単一の生物学的オブジェクトに対応することができる。したがって、例えば、所与の対象の撮像セッションに対して複数の3Dマスクが生成されることができ、各3Dマスクは、複数の生物学的オブジェクトのうちの1つに対応する。
バイナリマスクのセットを処理することは、セクションIII.Dに記載されているように、バイナリマスクを集約してオブジェクトの3D構造を形成することを含むことができる。バイナリマスクのいくつかは、重複領域をさらに含むことができるため、セグメンテーションネットワークは、重複領域を考慮するように1つ以上のバイナリマスクの領域を調整することができ、および/または冗長な視点を描写することができる1つ以上のバイナリマスクを含まないように選択することができる。
ブロック335において、(例えば、ブロック315からアクセスされると)1つ以上のマスクに対応する医用画像は、生物学的オブジェクトの位置を決定するために1つ以上の臓器固有セグメンテーションネットワークに利用される。各臓器固有セグメンテーションネットワークは、特定の関心臓器(例えば、肝臓、腎臓など)に対応することができ、画像内の特定の関心臓器を識別するように訓練されることができる。臓器固有セグメンテーションネットワークは、画像のセットを受信および処理して、対応する関心臓器の位置を識別することができる。対応する関心臓器が検出された場合、ネットワークは、対応する臓器のマスクをさらに生成することができる。生成された臓器マスクは、バイナリマスクおよび/または3次元マスクであってもよい。
ブロック340において、1つ以上の測定基準を決定するために1つ以上のマスク(例えば、1つ以上の3D生物学的オブジェクトマスク、1つ以上の2次元生物学的オブジェクトマスクおよび/または1つ以上の臓器マスク)が分析される。メトリックは、生物学的オブジェクトの特性を含むことができる。例えば、メトリックは、オブジェクトカウント、オブジェクトの位置および/または種類、特定の位置および/または種類についてのオブジェクトのカウント、1つ以上のオブジェクトのサイズ、オブジェクトの平均サイズ、オブジェクトの累積サイズ、および/または1つ以上の種類の腫瘍のそれぞれの中のオブジェクトの数を含むことができる。
場合によっては、メトリックは、オブジェクトの容積、最長寸法のオブジェクトの長さ、および/またはオブジェクトの断面積などのオブジェクトの1つ以上の空間的属性を含む。1つ以上の空間的属性がさらに使用されて、所与の対象内で検出された全てのオブジェクトについて対象レベルの統計量を生成することができる。対象レベルの統計量は、(例えば)所与の対象の累積オブジェクト容積、所与の対象の最長寸法のオブジェクト長の合計(例えば、最長直径の合計など)、および/または所与の対象の検出されたオブジェクトの累積断面積を含むことができる。
場合によっては、メトリックは、相対メトリック(例えば、パーセンテージまたは絶対変化)を生成するために、以前の撮像日中に収集された同じ対象の医用画像に関連付けられた別のメトリックと比較される。メトリックは、出力されることができる(例えば、別の装置に送信され、および/またはユーザに提示される)。次いで、出力は、(例えば)医療専門家および/または放射線科医によって分析されることができる。場合によっては、メトリックは、1つ以上のマスクの描写とともに出力される。
メトリックは、(例えば、1つ以上の記憶されたルールを使用するコンピューティングシステムにおいて、および/またはユーザを介して)対象の診断および/または処置有効性を予測するために使用されることができる。例えば、累積生物学的オブジェクト容積などの対象レベルの統計量が使用されて、(例えば、累積容積に対応する範囲を決定することによって)疾患段階を決定することができる。別の例として、生物学的オブジェクトの容積および/またはカウントの相対的変化が1つ以上の閾値と比較されて、現在および/または以前の処置が有効であったかどうかを推定することができる。
場合によっては、メトリックが使用されて、予測ニューラルネットワークによって計算された対象の生存確率に基づいて、1つ以上の処置方法のスコアを予測することができる。スコアは、累積オブジェクト容積および/またはオブジェクトの最長寸法の長さの合計などの1つ以上の空間的属性を使用して予測されることができる。場合によっては、生存の確率についての1つ以上のスコアが生成されて、対象および/または処置のセットをランク付けすることができる。そのような場合、ランキングを決定するために、対象および/または処置のスコアは、別の対象および/または別の処置の1つ以上のスコアと比較されることができる。対象固有ランキングは、所与の処置が行われた他の以前の対象に対して所与の処置についての生存確率が最も高い少なくとも1人以上の対象を識別することができる。処置固有ランキングは、他の処置と比較して所与の対象について成功(例えば、生存)の可能性が最も高い処置を識別することができる。場合によっては、対象固有ランク付けおよび/または処置固有ランク付けもまた、出力として返される。
VI.例示的な実装例
VI.A.実装例1
VI.A.1.腫瘍の自動識別およびセグメンテーションのためのパイプライン
全身CTスキャンからの腫瘍セグメンテーションは、境界ボックス検出ネットワーク(以下のステップ1で論じる)および腫瘍セグメンテーションネットワーク(ステップ2~3で論じる)からなる検出およびセグメンテーションの自動化された方法を使用して行われた。
VI.A.1.a.ステップ1:境界ボックス検出
RetinaNetアーキテクチャを有する境界ボックス検出ネットワーク(本明細書では「検出ネットワーク」と呼ばれる)が使用されて、医用画像の領域が腫瘍を描写するかどうかを予測し、画像の領域内の腫瘍の一般的な空間位置を識別する境界ボックスを生成し、腫瘍を描写する各一般的な空間位置に対する部位ラベルの確率を提供した。検出ネットワークの訓練において、全ての畳み込みが分離可能な畳み込みに変更されたという点で、公開されているRetinaNetアーキテクチャから修正が行われた。各医用画像について、3つの連続する軸方向CTスライス(固定解像度なし)のセットを含む画像スタックが検出ネットワークの入力として使用された。検出ネットワークは、画像スタック内に含まれる各スライス内の腫瘍を含む領域を検出し、検出された領域のそれぞれについて境界ボックスを生成し、それらを以下の利用可能な部位ラベルの1つに帰属させるように訓練された:肺、縦隔、骨、肝臓、およびその他。図4は、(i)対象の前処理された全身スキャンを示す画像の例示的なセット、(ii)対象の軸方向スライス内の縦隔部位に対応すると予測される腫瘍を識別する境界ボックスおよび肺部位に対応すると予測される腫瘍を識別する境界ボックス、および(iii)対象の別の軸方向スライス内の肝臓部位に対応すると予測される腫瘍を識別する境界ボックスを示している。
検出ネットワークは、(i)中央軸方向スライス上の腫瘍の一般的な空間位置を表す境界ボックスの提案座標、および(ii)各部位ラベル(肺、縦隔、骨、肝臓、その他)カテゴリの確率を出力した。出力は、図4に示すように、CTスキャンの各スライスに境界ボックスを有するように連結された。3つの連続する軸方向CTスライスのそれぞれは、512×512のサイズであった。訓練は、放射線科医が識別したRECIST標的病変および非標的病変の周りに境界ボックスを有する軸方向CTスライスの48,000個の放射線科医注釈付き画像に対して、IMPower150臨床試験からの1,202人の対象からの対応する部位位置で行われた。ハイパーパラメータは、バッチサイズ0.16、学習率0.01、およびオプティマイザADAMの使用を含んでいた。検出ネットワークは、IMpower131臨床試験(969人の対象)に対して検証された。RECIST読影に対する病変レベル感度は、0.94であった。ボクセルレベルの感度は、0.89であった。
VI.A.1.b.ステップ2:腫瘍セグメンテーション
腫瘍セグメンテーションネットワーク(例えば、この例では、確率的U-Netとして実装された)が使用されて、腫瘍を描写する検出ネットワークによって識別された各境界ボックス内の領域(例えば、および/またはマスク値が正および/または1に等しい領域に対応する部分)を識別した。図5に示すように、6つの画像のそれぞれは、検出ネットワークによって識別された境界ボックスに対応し、輪郭が描かれた領域のそれぞれは、腫瘍セグメンテーションネットワークを使用して決定された腫瘍セグメンテーションを識別する。腫瘍セグメンテーションネットワークの訓練において、全ての畳み込みが分離可能な畳み込みに置き換えられたという点で、公開された確率的U-Netアーキテクチャから修正が行われた。腫瘍セグメンテーションネットワークは、各境界ボックス内の領域の16個の予測を平均して、読影者間の変動を模倣し、予測の分散を減少させるように構成された。したがって、各予測は、同じ病変に注釈付けする(または注釈付けしないことを選択する)ときに異なる放射線科医が使用する異なる方法または基準に対応し、次いで、16個の平均予測が使用されて、画像内の各ボクセルに対する予測を平均し、平均予測が.5、または何らかの他の閾値よりも大きい場合に各ボクセルを腫瘍の一部として決定することによって「コンセンサス」を生成した。軸方向スライスのそれぞれが、1つ以上の暫定前処理技術(例えば、トリミング)を受けた検出された境界ボックスと相関するように、0.7×0.7mmサイズの3つの軸方向スライス(すなわち、256×256画素)を腫瘍セグメンテーションネットワークの入力として使用された。
腫瘍セグメンテーションネットワークは、腫瘍を描写する各境界ボックス内の領域を識別する中央軸方向スライスのセグメンテーションを出力した。腫瘍セグメンテーションネットワークは、ある放射線科医および2D RECISTからの容積測定RECIST読影からのIMpower150において、1,091人の対象からの腫瘍マスクを用いて67,340枚の画像に対して訓練された。ハイパーパラメータの例は、バッチサイズ4、学習率0.0001、およびオプティマイザADAMの使用を含んでいた。例示的なネットワークは、IMpower131(969人の対象;0.7×0.7mm画像を有する51,0000枚の256×256画像)に対して検証された。0.82のダイススコア(ネットワークからの16を超える予測の平均を使用)が、検証データセット(IMpower131からの51,000枚の画像)に偽陽性がないと仮定して計算された。
VI.A.1.c.ステップ3:臓器固有セグメンテーション
ステップ2において腫瘍セグメンテーションネットワークから出力されたセグメンテーションが使用されて、ステップ1において境界ボックス検出ネットワークによって提案された腫瘍の一般的な空間位置を確認/補正した。対象の全身CTスキャンは、別々の臓器セグメンテーションネットワークによる処理のための入力とされた。この実装例では、臓器セグメンテーションネットワークは、複数の畳み込みニューラルネットワークからなっていた。個々の臓器分割ネットワークのそれぞれが訓練されて、臓器固有セグメンテーションを行い、全身CTスキャンにおける臓器の位置を識別する臓器マスクを返した。臓器固有セグメンテーションは、関心臓器、例えば、右肺、左肺、肝臓、脾臓、腎臓、骨および膵臓のそれぞれについて異なる臓器セグメンテーションネットワークを訓練することによって達成された。各臓器固有セグメンテーションネットワークは、各層にバッチ正規化および漏洩ReLU活性化を含む3D U-Netアーキテクチャを有していた。腎臓、脾臓、および膵臓用の臓器固有セグメンテーションネットワークは、具体的には腎臓用のKits19(あらゆる目的のためにその全体が参照により本明細書に組み込まれるHeller,N.ら「The KiTS19 Challenge Data:300 Kidney Tumor Cases with Clinical Context,CT Semantic Segmentations,and Surgical Outcomes」(2019)におけるデータセットなど)、ならびに脾臓および膵臓用の医療デカスロン(これもまた、参照によりその全体があらゆる目的のために本明細書に組み込まれる、Simpson,A.L.ら「A large annotated medical image dataset for the development and evaluation of segmentation algorithms」(2019)に記載されているように)を完成させるために、訓練のために公的に利用可能なデータセットを使用した。骨セグメンテーションネットワークのグラウンドトゥルースは、形態学的演算に基づいていた。
臓器固有セグメンテーションネットワークのそれぞれについて、入力は、2×2×2mmのボクセルサイズに再サンプリングされた(ステップ1~2からの軸方向スライスの連結の)256×256×256 CTボリュームであった。各臓器固有セグメンテーションネットワークの出力は、各臓器について同じサイズの臓器マスクであった。各ネットワークのグラウンドトゥルースは、同じボクセルサイズを有する256×256×256の対応する臓器マスクであった。ハイパーパラメータは、バッチサイズ4、学習率0.0001、およびオプティマイザADAMの使用を含んでいた。回転、並進およびズームの組み合わせによるデータ増強が使用されて、より堅牢なセグメンテーションのためにデータセットを増強し、過剰適合を回避した。本明細書に記載のように訓練された臓器固有セグメンテーションネットワークの初期バージョンは、以下の結果をもたらした:肺:0.951;肝臓:0.964;腎臓:0.938;脾臓:0.932;膵臓:0.815;骨:0.917(形態学的演算を使用して生成されたグラウンドトゥルース)。
VI.A.2.時間分離ペアワイズ比較
VI.A.2.a.概要
CTスキャン、臓器固有セグメンテーション、および本明細書に記載の技術が、腫瘍の自動検出およびセグメンテーションと併せてさらに使用されて、いくつかの他の予測および推定値を生成し、臨床医がどの処置を処方するかを決定するのを支援した。自動化されたパイプラインを使用して1つ以上の腫瘍および/または「全身」腫瘍量が識別されると、所与の腫瘍学的適応症に対する多数の潜在的処置のそれぞれを所与として、全生存、無増悪生存、または他の同様のメトリックに関して、多数のメトリックのうちの1つによるモデルによって、対象の生存可能性が予測された。モデルは、所与の対象に対する処置のランキングを出力して、最長生存時間を提供した処置を識別した。あるいは、モデルは、所与の治療で最長生存時間を経験する可能性が高い対象を識別するために対象のランキングを出力した。
VI.A.2.b.モデルアーキテクチャおよび訓練
2人の対象AおよびBを考えると、少なくとも1人の対象について転帰(全生存)が観察されると仮定された。一般性を失うことなく、(Tと表される)観察された対象Aについての結果、および(Tと表される)対象Bについての結果が打ち切られるか、またはT>Tで死亡すると仮定した。
ネットワークへの入力は、対象AおよびBの双方について1つ以上の臓器固有セグメンテーションネットワークを使用して得られたCTスキャンおよび臓器マスク(例えば、肝臓、肺、腎臓、骨、膵臓および脾臓)であった。臓器固有セグメンテーションネットワークのアーキテクチャは、膨張VGG16、ResNet18、または同様のネットワークであり、分離可能な畳み込みは、各対象についてN個の要素(例えば、1000)を有するスコアベクトルを出力した。膨張は、一般に、あらゆる目的のためにその全体が参照により本明細書に組み込まれる、Carreira,JおよびZisserman,A.「Que Vadis,Action Recognition?A New Model and the Kinetics Dataset」 In:CVPR(2017)に記載された技術にしたがって行われた。しかしながら、この実装例では、分離可能な畳み込みが2つのステップで実行された(最初に奥行方向畳み込み、続いて点状畳み込み)。しかしながら、従来の畳み込みのために3次元に沿って膨張するだけでなく、膨張は2ステップに分けられた。深さ方向の畳み込みのために、膨張が3次元に沿って実行され、次いで複製フィルタが1回適用され、平均が4次元(入力フィルタの数)に沿って計算された。点状畳み込みのために、最初の2次元にわたって平均が決定され、膨張が3次元に沿って行われ、複製が4次元で行われた。上記の変更は、機能モデル性能を達成しながら、ネットワークを用いた大きな(画素/ボクセルカウントによる)3D全身CTの処理を容易にした。
訓練中、対象AおよびB(SおよびS)について得られたスコアが比較された。訓練手順は、データサンプルにわたる損失L=exp(S)/exp(S)+exp(S)を最小化することを目的とした。訓練データは、処置群によって分けられた、IMpower150臨床試験の818名の対象からの42,195ペアの同等の対象を含んでいた。ハイパーパラメータの選択は、学習率(Ir)=0.0001、バッチサイズ=4、およびオプティマイザADAMの使用を含んでいた。ペアワイズ比較の実施例モデルの結果は、ペアワイズ比較の74%がGO29436(IMpower150)の3つの処置群からの143人の対象の試験(検証)セットにおいて正確であったことを示している。これらの結果について、処置群内の対象についてのみ比較を行った。
VI.A.3.結果
訓練および試験データセットに対する自動化された方法の性能は、RECISTおよび「全身」腫瘍量の手動注釈を使用して決定された。RECIST読影が、各対象について識別された病変の数および全病変の容積のベースライン計算として双方のデータセットに対して行われた。
図6Aは、訓練データセット(IMpower150)について、RECIST読影によって導出された病変の数(プロットのx軸に示す)と自動検出およびセグメンテーション法によって決定された病変の数(y軸に示す)とを比較する相関プロットを示している。図6Bは、RECISTによって導出された腫瘍負荷量(例えば、全ての特定された病変の総容積として測定される)(プロットのx軸に示す)と自動化された方法によって識別された腫瘍に対する腫瘍負荷量(プロットのy軸に示す)とを比較する別のプロットを示している。双方のプロットは右方向の傾きを示しており、これは、RECIST読影が、病変の数および病変の総容積のより低い範囲について自動化された方法からのデータと最も高い相関を有したことを示している。2つの技術の病変数の予測の差に基づいて計算された標準偏差および標準誤差は、それぞれ2.95および0.091であった。2つの技術の総腫瘍容積の予測の差に基づいて計算された標準偏差および標準誤差は、それぞれ5.2we+01および2.40であった。図7A~図7Bは、RECIST読影を使用して決定された病変の平均数をx軸に示し、自動化された方法を使用して決定された病変の数をy軸に示した、試験データセット(IMpower131)の同様の相関プロットを示している。試験データセットに関して、病変数の2つの技術の予測間の差に基づいて計算された標準偏差および標準誤差は、それぞれ6.05および0.24であった。2つの技術の総病変容積の予測の差に基づいて計算された標準偏差および標準誤差は、それぞれ5.22e+01であり、標準誤差は2.40であった。
訓練データセット(IMpower150)は、RECIST読影で行われるように単一のスライスのみに注釈を付けるのではなく、放射線科医による各腫瘍の手動注釈を介して対象の全腫瘍負荷を決定することを含む完全読影を行うためにさらに使用された。図8は、y軸が放射線科医(例えば、完全読影の場合)によって決定された病変の数に対応し、x軸が対象のセットについてRECISTによって決定された病変の数に対応するプロットを示している。プロットの各点は、完全読影およびRECIST読影の双方を受けた合計15人の対象についての訓練データセット内の対象を表す。完全読影は、RECIST読影と比較してより多い量の病変を識別するため、プロットは、RECIST読影と完全読影との間の一致をほとんど示さない。2つの技術の予測の差に基づいて計算された標準偏差および標準誤差は、6.64であり、標準誤差は0.30であった。
自動化された方法と放射線科医によって行われた完全読影との間でさらに比較が行われて、対象の全腫瘍負荷量を決定した。図9は、各点がIMpower150訓練データセット内の対象を表すように、放射線科医によって実行された完全読影によって決定された全病変容積(y軸に示す)と自動化された方法によって決定された全病変容積(x軸に示す)との間の相関プロットを示している。プロットに示すように、訓練対象のセットから各対象について複数の読影を計算した。図10A~図10Bは、自動化された方法によって決定された平均および中央総病変容積(それぞれx軸上に示されている)と、各対象についての完全読影によって決定された平均および中央総病変容積(それぞれy軸上に示されている)とを比較するプロットを示している。図8~図9と同様に、双方のプロットの各点は、訓練データセット内の対象を表す。プロットに示されるように、自動化された方法は、一般に、完全読影と同じまたはそれを超える容積の病変を識別した。
識別された病変の数および算出された病変の総容積が使用されて、所与の期間にわたる対象の生存確率を予測するように、訓練および試験データセットに表された対象についても予後データが収集された。より具体的には、訓練データセットの対象は、RECIST技術を使用して検出された病変の様々な統計量に基づいて特定のクラスタに割り当てられ、様々な統計量が生存を予測するかどうかを実証するために各クラスタについて生存曲線が計算された。図11A~図14Bは、訓練データセットの例示的な予後データを示すカプラン・マイヤー曲線を示している。
図11Aは、RECISTによって識別された病変に対するSLD計算に基づいてクラスタ化された対象の生存確率を示している。図11Bは、RECISTによって識別された病変の数に基づいてクラスタ化された対象の生存確率を示している。プロットのy軸は、生存確率に対応し、x軸は、経過時間(例えば、数日で測定される)に対応する。第1四分位(Q1)が上位25%の病変数および/またはSLDスコアを有する対象に対応し、第2四分位(Q2)が次の25%以内の対象に対応し、第3四分位(Q3)が次の25%以内の対象に対応し、第4四分位(Q4)が下位25%以内の対象に対応するように、クラスタが決定された。プロットに示すように、直径和SLDの第1四分位以内の対象および病変数の第1四分位以内の対象は、第4四分位以内の対象と比較して生存の確率が低い。したがって、自動的に検出された病変の空間統計量は、生存予後を予測するようである。
代わりに、図11Cは、開示された自動化された方法から決定された対象の生存確率を示すカプラン・マイヤー曲線を示している。図11Cは、自動化された方法によって決定された、ある期間にわたる対象の生存確率を示すプロットを示している。図11Cに関連するクラスタリングに関して、対象は、全腫瘍負荷量に対する総SLDに基づいてクラスタリングされた。図12A~図12Bは、さらに、自動化された方法によっても決定される総容積および識別された病変の数に基づく対象の生存確率のプロットを示している。大量の病変または多数の病変のいずれかによって測定される高い腫瘍量は、対象の生存確率の低下と相関することが明らかである。
病変の特定された位置を使用して、図13A~図14Bに示す訓練データセット内の対象の自動腫瘍検出およびセグメンテーションに基づく統計量によって予後(例えば、生存の確率)が予測される程度を評価した。具体的には、図13A~図13Bは、対象の生存率を示す一連のカプラン・マイヤー曲線を示している。対象群は、肺病変の容積(対応するAプロットに示す)および肺病変の数(対応するBプロットに示す)に基づいて定義した。注目すべきことに、生存曲線は、対象群間で異なり、病変容積および病変数が生存メトリックを予測することを示唆した。図14A~図14Bは、それぞれ対象の肺および骨領域への病変(例えば、転移)の広がりに基づく対象の生存率を示している。生存率は、病変が対象の肺領域または骨領域のいずれにも存在しない場合、より高いとして報告された。
図15A~図19は、試験データセットに関する例示的な予後データのカプラン・マイヤー曲線を同様に示している。図15、図16、図17、および図18は、それぞれ、図10、図11、図12、および図13と同じラベル変数(例えば、生存確率に対応するy軸および経過日数に対応するx軸)および方法に対応する。図19は、試験データセット中の対象の腎臓領域の転移に基づく対象の生存確率を示している。
試験データセットは、訓練データセットとは異なる対象セットからの異なる画像を含み、訓練データセットのホールドアウト部分から導出された結果を外部的に検証するために使用されたことが理解されよう。特に、図15A~図19に示すプロットは、RECISTまたは完全読影と比較して、自動化された方法によって決定された場合、生存率と腫瘍の位置および/または総量もしくは容積との間のより大きな相関を示す対象の予後を示している。
VI.B.実装例2
VI.B.1.概要
この実装例は、境界ボックス検出および腫瘍セグメンテーションの自動化された方法を使用して、進行した転移性疾患(すなわち、病変が複数の臓器にわたって広がる)を有する対象における全身診断用CTスキャンに対する完全な3次元腫瘍負荷を識別する。この方法は、臓器固有セグメンテーションを使用してセグメント化された腫瘍の位置を識別せず、または臓器マスクを生成しなかったという点で実装例1とは異なる。
実装された方法は、病変の検出およびタグ付けのためのRetinaNetとして実装された境界ボックス検出ネットワークに基づいており、検出された病変のセグメント化を可能にする確率的UNetのアンサンブルとして実装された腫瘍セグメンテーションネットワークが続いた。
提示された研究は、2つの多施設臨床試験を使用して開発され、364の臨床施設にわたる2,171人の進行した非小細胞肺癌対象からの84,000を超えるRECIST病変が識別された。結果として、この方法は、病院施設にわたるスキャン取得の読影者間の変動性および不均一性を考慮した。本開示に記載の自動境界ボックス検出および腫瘍セグメンテーション技術を使用して識別された腫瘍は、手動で識別されたRECIST腫瘍およびボクセルレベルで手動でセグメント化された標的病変と比較された。さらに、ベースライン腫瘍量の全自動推定値は、対象の全生存に対する腫瘍量の予後値に関して放射線科医の手動測定と比較された。
結果は、35,000個を超える腫瘍を含む969人の対象のホールドアウトセットにおけるRECIST標的病変の最先端の検出およびセグメンテーション性能を示している。さらに、結果は、全身腫瘍量が、対象の全生存期間の予後因子として臨床的有用性を有し得ることを示している。提案された方法は、診断放射線学ワークフローにおいて腫瘍評価を合理化するために使用されることができ、さらに開発される場合、放射線科医が連続的に適用された場合に治療に対する応答を評価することを潜在的に可能にすることができる。
VI.B.2.方法
本開示に記載の技術が使用されて、全身CTスキャンから総腫瘍量を識別した。このアプローチは、境界ボックス検出、腫瘍セグメンテーション、および後処理の3つのステップを含み、得られたエンドツーエンドの方法は、利用可能なCTデータおよびRECIST注釈の様々な性質をキャプチャした。
検出ステップは、境界ボックス検出ネットワークを利用し、RetinaNetとして実装され、境界ボックスおよび病変タグを使用して標的病変と非標的病変の双方を識別した。RetinaNetは、非常に高速なオブジェクト検出を提供する単段階検出手法を使用する。全身CTスキャンがしばしば200を超える軸方向スライスを含むことを考えると、効率的な処理は、非常に有利であった。
セグメンテーションステップでは、標的病変の2Dセグメンテーションのみに基づいて、確率的UNetのセットとして実装された腫瘍セグメンテーションネットワークが、妥当な軸方向病変セグメンテーションのアンサンブルを生成した。
転移性癌対象の腫瘍セグメンテーションは、読影者の主観を受けやすい傾向があり、したがって所与の病変に対する単一のグラウンドトゥルースは存在し得ない。確率的UNet[8]は、低次元潜在空間からセグメンテーション変異体をサンプリングすることを可能にするメモリ効率的な生成的セグメンテーションを可能にする。セグメンテーションのための確率的UNetの使用は、あらゆる目的のためにその全体が参照により本明細書に組み込まれる、Kohl,S.ら「A probabilistic U-Net for segmentation of ambiguous images」Advances in Neural Information Processing Systems(NIPS 2018)pp.6965-6975(2018)においてさらに説明されている。したがって、確率的UNetは、読影者から読影者への注釈の変動性を模倣して選択された。
モデルのこの部分は、読影者間の変動性と放射線科医の区分間の全体的な一致との間でトレードオフするアンサンブルの生成を可能にした。後処理ステップは、予測された2Dセグメンテーションを結合して、統一された全身3D腫瘍マスクを生成した。さらに、後処理はまた、本発明者らのマルチサイトデータセットで遭遇する画像取得パラメータの変動性(異なる情報制限およびスキャン間での信号対雑音比の変化をもたらした)に対処した。この自動化技術を介して検出された腫瘍は、放射線科医が選択された標的病変および非標的病変の周りのマーキングされた境界ボックスを概説した手動技術を介して検出された腫瘍と比較された。
VI.B.2.a.腫瘍検出
この実装例で評価されたデータでは、腫瘍位置タグは、臓器全体で高度に不均衡であり、肺病変は、訓練データセットおよび試験データセットのそれぞれ45%および40%を占めたが、128個の位置がタグの0.5%未満を占めた。焦点損失は、クラス不均衡に対処するために使用された。
ResNet-50-FPNを有するRetinaNetが使用されて、腫瘍を軸方向に検出した。(あらゆる目的のためにその全体が参照により本明細書に組み込まれる、Lin,T.Y.,Dollar,P.,Girshick,R.,He,K.,Hariharan,B.,Belongie,S.「Feature pyramid networks for object detection」 CVPR(2017)を参照されたい)。非最大抑制では、画像あたりのオブジェクトの最大数は32に設定され、アンカーの数は9に設定された。ここで、32は、単一の軸方向スライス内で合理的に予想されることができる腫瘍の数の上限を表す。中央スライスの周りに空間的コンテキストを提供するために、モデルは、3つの特徴チャネルとして供給される3つの軸方向スライスを入力として受信するように構成された。多くのタグの有病率が低いため、クラスは、肺、肝臓、骨、縦隔および他の場所に単純化された。
試験設定では、RetinaNetは、全ての軸方向スライスに順次適用された。予測された境界ボックスは、偽陰性を最小限に抑えるために前のスライスおよび次のスライスに拡張された。
VI.B.2.b.腫瘍セグメンテーション
実験は、β=2;5;10で行われ、独立型、または交差もしくは結合アンサンブリングを有した。
β=2および=10の2つのマスクの結合を使用して最良の結果が得られた。
訓練損失の変化βは、損失のカルバックライブラー発散項に異なる重みを提供することを可能にし、したがって、セグメンテーション変異体の潜在空間をスパンすることに異なる重要性を与える。このパラメータは、ヒト読影者の多様性を模倣する腫瘍セグメンテーション変異体の生成またはコンセンサスセグメンテーションの生成を可能にした。
訓練データセットは、スキャンごとに2人の放射線科医からのRECIST標的病変セグメンテーションおよびいくつかのスキャンの3Dセグメンテーションを使用して構築された。画像は、0.7×0.7mmの面内解像度に再サンプリングされ、これらの病変の周りに256×256×3画素のパッチを構築された。前のスライスおよび次のスライスが空間的コンテキストとして使用された。入力よりも大きなパッチ、すなわち0.5×0.5mmの面内解像度の180×180画素が採用された。この選択は、評価されるデータが多くの大きな病変を示す進行期癌を表すために行われた。
試験設定では、検出された病変(例えば、検出された境界ボックスによって提供されるように)を中心とし、次いで確率的UNetの入力解像度に再サンプリングされたパッチが、図20に示すようにセグメント化された。検出された腫瘍がパッチサイズよりも大きい場合、スライドウィンドウが使用されて、検出された腫瘍全体をセグメント化した。
VI.B.2.c.全身評価
取得プロトコルは、同じ施設内であっても、病院ごと、機械ごとに異なる。結果として、ボクセルサイズは、データセットにおいて可変であった(0.6から1.45mmの面内および0.62から5mmの範囲のスライス厚)。これらの差は、信号対雑音比(SNR)の変動を誘発し、高解像度スキャンでのみ検出されることができる腫瘍のセグメンテーションをもたらすことができる。全てのCTスキャンから抽出された情報を均一化するために、SNRの差を説明し、10mmを超える高さの腫瘍のみを維持するために、立方体の3×3×5mm構造化要素を使用して腫瘍マスクにバイナリ閉鎖を適用した。
VI.B.3.実験および結果
VI.B.3.a.データ
データセットは、2つの無作為化臨床試験からの合計14,205の診断コンピュータ断層撮影スキャンからの84kを超える病変からなった。訓練データおよび試験データが試験ごとに分割された。第1の試験(Socinski,M.A.ら「Atezolizumab for First-Line Treatment of Metastatic Nonsquamous NSCLC」 N Engl J Med 378,2288-2301(2018)に記載されている臨床試験NCT02366143)は、利用可能な1,202人の進行期非扁平上皮非小細胞肺癌対象を含んでいた。この第1の試験データセットが訓練に使用された。第2の試験(臨床試験NCT02367794)は、969人の進行期扁平上皮非小細胞肺癌対象を含み、ホールドアウトセットとして使用された。データは、364の固有の部位(訓練セット238、試験セット237)にわたって収集され、合計27人の異なる放射線科医が注釈を付けた。したがって、データは、有意な対象、画像取得、および読影者間の変動性を提供する。
各試験について、対象は、訓練セットで合計7861回のスキャンおよび試験セットで6344回のスキャンのために平均6.5回来院した。各スキャンは、RECIST 1.1基準にしたがって2人の放射線科医によって読影された。腫瘍注釈は、標的病変の2D病変セグメンテーションおよび非標的病変の境界ボックスからなっていた。合計で、全ての来院および放射線科医にわたって、訓練セットでは48,470個、試験データでは35,247個の注釈付き腫瘍があった。さらに、各識別された標的および非標的腫瘍について、表1に詳述されているように、140個の可能な位置ラベルから利用可能な病変タグを識別した。2D注釈に加えて、4,342回の来院(対象あたり2回の来院)は、標的腫瘍のみの容積セグメンテーションをもたらした。全身カバレッジは、訓練セットにおけるスクリーニング時の1,127名の対象および試験セットにおける914名の対象の全身評価に使用可能であった。
Figure 2023507109000002
VI.B.3.b.結果
実装例。腫瘍検出およびタグ付けのためのRetinaNetは、PyTorchおよびADAMオプティマイザを使用して実装された。ResNet-50-FPNは、ImageNetの事前訓練モデルを使用して初期化された。学習率は、1e-4、バッチサイズは、16に設定された。ネットワークは、416,000回の反復で訓練された。
確率的UNetは、PyTorchおよびADAMオプティマイザを使用して実装された。学習率は、1e-5に設定され、バッチサイズは、4に設定された。2つのバージョンは、訓練損失においてβ=2および10で保持された。ネットワークは、50エポックについて訓練された。
検出およびセグメンテーションの性能。表2および表1における検出のための画像あたりの平均病変およびクラスレベル感度。感度は、画像あたり平均0.89「偽陽性」(FP)を有して得られた。RECIST注釈が不完全であるため、これらのFPは、実際には注釈のない病変であり得る。Yan,K.ら:MULAN:Multitask Universal Lesion Analysis Network for Joint Lesion Detection,Tagging,and Segmentationのように、0.5、1、2および4のFP/画像(88.4%)で感度の平均値が導出された。In:Frangi,A.F.,Schnabel,J.A.,Davatzikos,C.,Alberola-Lopez,C.,Fichtinger,G.(eds.)MICCAI 2019.LNCS,vol.11769,pp.194-202.Springer,Cham(2019)およびLiao,F.,Liangら:Evaluate the malignancy of pulmonary nodules using the 3D deep leaky noisy-or network.IEEE Trans.Neural Netw.Learn.Syst.(2019)。
Figure 2023507109000003
セグメンテーションのために、統計量は、試験セットにおける平均ボクセルレベルの感度およびRECIST病変の推定された最長寸法に対する平均誤差を含んでいた。
ベースラインスキャンからの生存の予測。訓練データから推定された腫瘍検出およびセグメンテーションモデルを使用して、検出およびセグメント化された全ての病変上の最長寸法に沿った長さが、試験データセット内の各対象のベースラインスキャンから計算された。生存時間をアウトカム変数として、図22の右パネルは、(試験セットの対象について)モデルごとに抽出されたベースラインSLDの経験的四分位に基づくカプラン・マイヤープロットを示している。比較のために、同じ対象について、左パネルは、RECISTによって導出されたSLDの経験的四分位に基づくカプラン・マイヤープロットを示している。図から分かるように、RECIST基準にしたがって放射線科医の注釈を通して生成されたものと比較して、自動化された方法は、腫瘍負荷量の処置前生存リスクプロファイルをほぼ再現した。
VI.B.4.解釈
結果は、多段セグメンテーションプラットフォームの強力な性能を例示している。完全自動アルゴリズムは、標準的な診断用全身CTスキャンで腫瘍の3Dセグメンテーションを首尾よく識別および実行した。この方法論は、放射線科医と比較して検出およびセグメンテーションに優れた性能を示し、重要なことに、複数の異なる臓器の腫瘍に良好に機能した。これらの結果は、この技術が、検査のための初期腫瘍量評価を提供することによって放射線科医のための強力な支援ツールであり得ることを示しており、これは、精度、再現性および速度を改善するはずである。さらに、アルゴリズムは、(典型的には、放射線科医が評価するには時間がかかりすぎる)全身腫瘍容積などのメトリックを生成し、これは、臨床試験のための予後診断ツールまたは新規エンドポイントとして価値があり、臨床放射線診療で使用するための対象の疾患のより完全なビューを提供する。
VII.さらなる考察
本開示のいくつかの実施形態は、1つ以上のデータプロセッサを含むシステムを含む。いくつかの実施形態では、システムは、1つ以上のデータプロセッサ上で実行されると、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部および/または1つ以上のプロセスの一部または全部を実行させる命令を含む非一時的コンピュータ可読記憶媒体を含む。本開示のいくつかの実施形態は、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部および/または1つ以上のプロセスの一部または全部を実行させるように構成された命令を含む、非一時的機械可読記憶媒体において有形に具現化されたコンピュータプログラム製品を含む。
使用された用語および表現は、限定ではなく説明の用語として使用され、そのような用語および表現の使用において、示されて説明された特徴の均等物またはその一部を除外する意図はないが、特許請求の範囲に記載された発明の範囲内で様々な変更が可能であることが認識される。したがって、特許請求の範囲に記載された本発明は、実施形態および任意の特徴によって具体的に開示されているが、本明細書に開示された概念の変更および変形は、当業者によってあてにされてもよく、そのような変更および変形は、添付の特許請求の範囲によって定義される本発明の範囲内にあると見なされることを理解されたい。
その後の説明は、好ましい例示的な実施形態のみを提供し、本開示の範囲、適用可能性または構成を限定することを意図しない。むしろ、好ましい例示的な実施形態のその後の説明は、様々な実施形態を実装するための可能な説明を当業者に提供する。添付の特許請求の範囲に記載の趣旨および範囲から逸脱することなく、要素の機能および配置に様々な変更を加えることができることが理解される。
実施形態の完全な理解を提供するために、以下の説明において具体的な詳細が与えられる。しかしながら、これらの具体的な詳細なしで実施形態が実施されることができることが理解されよう。例えば、回路、システム、ネットワーク、プロセス、および他の構成要素は、実施形態を不必要に詳細に不明瞭にしないために、ブロック図形式の構成要素として示されてもよい。他の例では、実施形態を不明瞭にすることを避けるために、周知の回路、プロセス、アルゴリズム、構造、および技術が不必要な詳細なしに示されてもよい。

Claims (33)

  1. コンピュータ実装方法であって、
    対象の1つ以上の医用画像にアクセスすることと、
    前記1つ以上の医用画像を検出ネットワークに入力して、前記1つ以上の医用画像内の領域のセットを識別する1つ以上のマスクを生成することであって、前記検出ネットワークが、前記1つ以上のマスク内で識別された前記領域のセットの各領域が前記対象内の1つ以上の腫瘍のうちの1つの腫瘍の描写を含むと予測する、入力して生成することと、
    前記領域のセットの各領域について、腫瘍セグメンテーションネットワークを使用して前記1つ以上の医用画像の前記領域を処理して、前記対象内に存在する前記腫瘍の1つ以上の腫瘍セグメンテーション境界を生成することと、
    前記1つ以上の腫瘍の各腫瘍について、複数の臓器固有セグメンテーションネットワークを使用することによって、前記腫瘍の少なくとも一部が位置する臓器を決定することと、
    前記1つ以上の腫瘍セグメンテーション境界および前記1つ以上の腫瘍の少なくとも一部が位置する前記臓器の位置に基づいて出力を生成することと、を含む、方法。
  2. 前記領域を処理して、前記1つ以上の腫瘍セグメンテーション境界を生成することが、
    複数の2D医用画像のそれぞれについて、前記1つ以上の腫瘍セグメンテーション境界のうちの腫瘍セグメンテーション境界である、その中の前記腫瘍の1つのセグメンテーション境界を識別することと、
    複数の2D医用画像に関連付けられた前記セグメンテーション境界に基づいて3次元セグメンテーション境界を画定することであって、前記出力が、前記3次元セグメンテーション境界を含むかまたは示す、画定することと、を含む、請求項1に記載の方法。
  3. 前記1つ以上の腫瘍セグメンテーション境界のそれぞれが、示された前記腫瘍の2次元断面のセグメンテーション境界線であるように画定され、前記出力が前記1つ以上の腫瘍セグメンテーション境界を含むかまたは示す、請求項1に記載の方法。
  4. 前記1つ以上の腫瘍の各腫瘍について、前記1つ以上の腫瘍セグメンテーション境界のうちの1つの腫瘍セグメンテーション境界に基づいて、空間的属性を決定することであって、前記空間的属性が、
    腫瘍の体積、
    特定の寸法もしくは最長寸法に沿った腫瘍の長さ、および/または
    腫瘍の断面積を含む、決定することと、
    前記空間的属性に基づいて、前記1つ以上の腫瘍の対象レベルの腫瘍統計量を計算することであって、前記出力が前記対象レベルの腫瘍統計量を含む、計算することと、をさらに含む、請求項1に記載の方法。
  5. 前記1つ以上の腫瘍が複数の腫瘍を含み、前記1つ以上の腫瘍の各腫瘍について決定された前記空間的属性が、最長寸法に沿った前記腫瘍の長さを含み、前記対象レベルの腫瘍統計量が、前記腫瘍の長さの合計を含む、請求項4に記載の方法。
  6. 前記対象レベルの腫瘍統計量と前記対象に関連する他の腫瘍統計量との間のパーセンテージまたは絶対差を決定することであって、前記他の腫瘍統計量が、前記対象の1つ以上の他の医用画像の分析に基づいて生成されており、前記1つ以上の他の医用画像のそれぞれが、前記1つ以上の医用画像が収集された時点よりも前のベンチマーク時点で収集されており、前記出力が、前記パーセンテージまたは絶対差を含むか、または前記パーセンテージまたは絶対差に基づく、決定することをさらに含む、請求項1に記載の方法。

  7. 前記パーセンテージまたは絶対差を1つ以上の所定の閾値のそれぞれと比較することと、
    前記閾値比較に基づいて、予後、処置応答または疾患状態の推定値を決定することであって、前記出力が前記推定された予後、処置応答または疾患状態を含む、決定することと、をさらに含む、請求項6に記載の方法。
  8. 前記1つ以上の医用画像が、1つ以上のコンピュータ断層撮影(CT)画像を含む、請求項1に記載の方法。
  9. 前記1つ以上の医用画像が、全身または胴体のCT画像を含む、請求項1に記載の方法。
  10. 前記1つ以上の医用画像が、1つ以上のMRI画像を含む、請求項1に記載の方法。
  11. 前記検出ネットワークが、焦点損失を使用するように構成されている、請求項1に記載の方法。
  12. 前記腫瘍セグメンテーションネットワークが、分離可能な畳み込みを含む修正U-Netを含む、請求項1に記載の方法。
  13. 前記複数の臓器固有セグメンテーションネットワークのそれぞれが、分離可能な畳み込みを含む修正U-Netを含む、請求項1に記載の方法。
  14. 前記1つ以上の腫瘍の各腫瘍について、前記臓器内に位置することに基づいて決定することであって、前記出力が前記臓器固有カウントを含む、決定することをさらに含む、請求項1に記載の方法。
  15. ユーザによって、前記1つ以上の医用画像をコンピュータに入力することと、
    前記コンピュータによって、前記腫瘍セグメンテーション境界の少なくとも1つの視覚的表現を提示することと、をさらに含む、請求項1に記載の方法。
  16. CT装置によって前記1つ以上の医用画像を取り込むことをさらに含む、請求項1に記載の方法。
  17. 医師によって、がんの有無および任意の関連する臓器位置の予備診断を提供することであって、前記予備診断が前記出力に基づいて決定されている、提供することをさらに含む、請求項1に記載の方法。
  18. 医師によって、前記出力に基づいて処置推奨を提供することをさらに含む、請求項1に記載の方法。
  19. コンピュータ実装方法であって、
    対象の1つ以上の医用画像をローカルコンピュータからコンピュータネットワークにわたって位置するリモートコンピュータに送信することであって、前記リモートコンピュータが、
    前記1つ以上の医用画像を検出ネットワークに入力して、前記1つ以上の医用画像内の領域のセットを識別する1つ以上のマスクを生成することであって、前記検出ネットワークが、前記1つ以上のマスク内で識別された前記領域のセットの各領域が、前記対象内の1つ以上の腫瘍のうちの1つの腫瘍の描写を含むと予測する、入力して生成することと、
    前記領域のセットの各領域について、腫瘍セグメンテーションネットワークを使用して前記1つ以上の医用画像の前記領域を処理して、前記対象内に存在する前記腫瘍の1つ以上の腫瘍セグメンテーション境界を生成することと、
    前記1つ以上の腫瘍の各腫瘍について、複数の臓器固有セグメンテーションネットワークを使用することによって、前記腫瘍の少なくとも一部が位置する臓器を決定することとを行うように構成されている、送信することと、前記1つ以上の腫瘍セグメンテーション境界および前記1つ以上の腫瘍の少なくとも一部が位置する前記臓器の位置に基づく結果を受信することと、を含む、方法。
  20. MRI装置またはCT装置によって前記1つ以上の医用画像を取り込むことをさらに含む、請求項19に記載の方法。
  21. コンピュータ実装方法であって、
    対象の1つ以上の医用画像にアクセスすることと、
    前記1つ以上の医用画像に存在する腫瘍病変のセットについての臓器位置のセットにアクセスすることと、
    前記1つ以上の医用画像および前記臓器位置のセットを、複数の治療的処置のうちの1つに関連するネットワークに入力して、前記対象が他の治療的処置と比較して特定の治療的処置のための良好な候補であるかどうかを表すスコアを生成することと、
    前記スコアを返すことと、を含む、方法。
  22. 前記1つ以上の医用画像に存在する前記腫瘍病変のセットについての前記臓器位置のセットにアクセスすることが、
    前記1つ以上の医用画像のうちの少なくとも1つを検出ネットワークに入力して、前記対象内の1つ以上の腫瘍病変を示すと予測されることを示す前記1つ以上の医用画像の領域のセットを識別する1つ以上のマスクを生成することと、
    前記腫瘍病変のセットの各腫瘍について、複数の臓器固有セグメンテーションネットワークを使用することによって、前記腫瘍の少なくとも一部が位置する臓器を決定することと、を含む、請求項21に記載の方法。
  23. 前記検出ネットワークが、比較可能な対象ペアのセットを用いて訓練され、比較可能な対象ペアが、前記治療的処置を受けたことがあり、前記治療的処置を受けた後に異なる期間生存しており、前記訓練することが、前記ペアの前記対象間の訓練中の前記スコアの差を最大化する損失関数を使用することを含む、請求項22に記載の方法。
  24. 訓練中に使用される損失関数が、L=-exp(S)/exp(S)+exp(S)を含む、請求項23に記載の方法。
  25. 前記複数の臓器固有セグメンテーションネットワークのそれぞれが、膨張VGG 16または膨張ResNet 18ネットワークを含む、請求項22に記載の方法。
  26. 前記複数の臓器固有セグメンテーションネットワークのそれぞれが、深さ方向に続いて点方向の畳み込みを含む、請求項22に記載の方法。
  27. ユーザによって、前記1つ以上の医用画像をコンピュータに入力することと、
    前記コンピュータによって、前記治療的処置が前記対象にとって適切であるかどうかの推奨を提示すること、とをさらに含む、請求項22に記載の方法。
  28. MRI装置またはCT装置によって前記1つ以上の医用画像を取り込むことをさらに含む、請求項22に記載の方法。
  29. 医師によって、前記治療的処置が前記対象にとって有益であることを示す前記スコアに応答する前記治療的処置を指示することと、をさらに含む、請求項22に記載の方法。
  30. コンピュータ実装方法であって、
    対象の1つ以上の医用画像をローカルコンピュータからコンピュータネットワークにわたって位置するリモートコンピュータに送信することであって、前記リモートコンピュータが、
    前記1つ以上の医用画像に存在する腫瘍病変のセットについての臓器位置のセットにアクセスすることと、
    前記1つ以上の医用画像および前記臓器位置のセットを、複数の治療的処置のうちの1つに関連するネットワークに入力して、前記対象が他の治療的処置と比較して特定の治療的処置のための良好な候補であるかどうかを表すスコアを生成することと、
    を行うように構成されている、送信することと、
    前記ローカルコンピュータにおいて前記リモートコンピュータから前記スコアを受信することとを含む、方法。
  31. CT装置またはMRI装置によって前記1つ以上の医用画像を取り込むことをさらに含む、請求項30に記載の方法。
  32. システムであって、
    1つ以上のデータプロセッサと、
    前記1つ以上のデータプロセッサ上で実行されると、前記1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部を実行させる命令を含む非一時的コンピュータ可読記憶媒体と、を備える、システム。
  33. 1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部を実行させるように構成された命令を含む、非一時的機械可読記憶媒体において有形に具現化されたコンピュータプログラム製品。
JP2022536546A 2019-12-20 2020-10-27 医用画像による自動化された腫瘍識別およびセグメンテーション Pending JP2023507109A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962952008P 2019-12-20 2019-12-20
US62/952,008 2019-12-20
US202062990348P 2020-03-16 2020-03-16
US62/990,348 2020-03-16
PCT/US2020/057542 WO2021126370A1 (en) 2019-12-20 2020-10-27 Automated tumor identification and segmentation with medical images

Publications (2)

Publication Number Publication Date
JP2023507109A true JP2023507109A (ja) 2023-02-21
JPWO2021126370A5 JPWO2021126370A5 (ja) 2023-10-31

Family

ID=73452323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022536546A Pending JP2023507109A (ja) 2019-12-20 2020-10-27 医用画像による自動化された腫瘍識別およびセグメンテーション

Country Status (6)

Country Link
US (1) US20220319008A1 (ja)
EP (1) EP4078510A1 (ja)
JP (1) JP2023507109A (ja)
KR (1) KR20220117236A (ja)
CN (1) CN114830175A (ja)
WO (1) WO2021126370A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11636592B2 (en) * 2020-07-17 2023-04-25 International Business Machines Corporation Medical object detection and identification via machine learning
US11580337B2 (en) * 2020-11-16 2023-02-14 International Business Machines Corporation Medical object detection and identification
CN113538530B (zh) * 2021-07-09 2024-03-01 深圳市深光粟科技有限公司 一种耳部医学图像分割方法、装置、电子设备及存储介质
CN113554642B (zh) * 2021-08-12 2022-03-11 北京安德医智科技有限公司 对病灶鲁棒的脑区定位方法及装置、电子设备和存储介质
CN114027794B (zh) * 2021-11-09 2023-06-30 新乡医学院 基于DenseNet网络的病理图像的乳腺癌区域检测方法及系统
CN114170206B (zh) * 2021-12-13 2023-01-24 上海派影医疗科技有限公司 兼顾空间信息相关性的乳腺病理图像癌变性质判读方法及装置
WO2023114364A1 (en) * 2021-12-17 2023-06-22 Bluware, Inc. Probability cube to probability cube enhancement for deep learning artificial intelligence
CN114565761B (zh) * 2022-02-25 2023-01-17 无锡市第二人民医院 一种基于深度学习的肾透明细胞癌病理图像肿瘤区域的分割方法
WO2024010882A1 (en) * 2022-07-06 2024-01-11 The Johns Hopkins University System and method for coarse-to-fine segmentation of images to detect kidney and renal growths
CN115439473B (zh) * 2022-11-04 2023-04-07 北京精诊医疗科技有限公司 一种基于交互分组注意机制的多期相占位分类方法
CN115919464B (zh) * 2023-03-02 2023-06-23 四川爱麓智能科技有限公司 肿瘤定位方法、系统、装置及肿瘤发展预测方法
CN116416239B (zh) * 2023-04-13 2024-03-12 中国人民解放军海军军医大学第一附属医院 胰腺ct图像分类方法、图像分类模型、电子设备及介质
CN116703837B (zh) * 2023-05-24 2024-02-06 北京大学第三医院(北京大学第三临床医学院) 一种基于mri图像的肩袖损伤智能识别方法及装置
CN116758048B (zh) * 2023-07-06 2024-02-27 河北大学 基于Transformer的PET/CT瘤周特征提取系统及提取方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11094058B2 (en) * 2015-08-14 2021-08-17 Elucid Bioimaging Inc. Systems and method for computer-aided phenotyping (CAP) using radiologic images
US11551353B2 (en) * 2017-11-22 2023-01-10 Arterys Inc. Content based image retrieval for lesion analysis

Also Published As

Publication number Publication date
KR20220117236A (ko) 2022-08-23
US20220319008A1 (en) 2022-10-06
EP4078510A1 (en) 2022-10-26
CN114830175A (zh) 2022-07-29
WO2021126370A1 (en) 2021-06-24

Similar Documents

Publication Publication Date Title
JP2023507109A (ja) 医用画像による自動化された腫瘍識別およびセグメンテーション
Vivanti et al. Automatic detection of new tumors and tumor burden evaluation in longitudinal liver CT scan studies
EP3365869B1 (en) System and method for image registration in medical imaging system
EP2916738B1 (en) Lung, lobe, and fissure imaging systems and methods
Vivanti et al. Patient-specific and global convolutional neural networks for robust automatic liver tumor delineation in follow-up CT studies
Abdolali et al. Automatic segmentation of maxillofacial cysts in cone beam CT images
US11443433B2 (en) Quantification and staging of body-wide tissue composition and of abnormal states on medical images via automatic anatomy recognition
Alilou et al. A comprehensive framework for automatic detection of pulmonary nodules in lung CT images
El-Baz et al. Appearance analysis for the early assessment of detected lung nodules
US20170178307A1 (en) System and method for image registration in medical imaging system
US20080021301A1 (en) Methods and Apparatus for Volume Computer Assisted Reading Management and Review
Chlebus et al. Deep learning based automatic liver tumor segmentation in CT with shape-based post-processing
Sun et al. Juxta-vascular nodule segmentation based on flow entropy and geodesic distance
US20150065868A1 (en) System, method, and computer accessible medium for volumetric texture analysis for computer aided detection and diagnosis of polyps
Ramasamy et al. Machine learning in cyber physical systems for healthcare: brain tumor classification from MRI using transfer learning framework
CN115210755A (zh) 解决训练数据中遗漏注释的类别不同损失函数
Dhalia Sweetlin et al. Patient-Specific Model Based Segmentation of Lung Computed Tomographic Images.
CN112529900A (zh) 匹配乳腺图像中roi的方法、装置、终端与存储介质
Ma et al. Automatic pulmonary ground‐glass opacity nodules detection and classification based on 3D neural network
Delmoral et al. Segmentation of pathological liver tissue with dilated fully convolutional networks: A preliminary study
Les et al. Adaptive two-way sweeping method to 3D kidney reconstruction
US20220076421A1 (en) Method for identifying bone images
Valarmathi et al. Deep Learning Model for Automated Kidney Stone Detection using VGG16
Saad et al. Automated delineation of non‐small cell lung cancer: A step toward quantitative reasoning in medical decision science
CN115004225A (zh) 弱监督病灶分割

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231023

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231023