JP2022550413A - マルチクラス画像セグメンテーションのための深層多重倍率ネットワーク - Google Patents

マルチクラス画像セグメンテーションのための深層多重倍率ネットワーク Download PDF

Info

Publication number
JP2022550413A
JP2022550413A JP2022520017A JP2022520017A JP2022550413A JP 2022550413 A JP2022550413 A JP 2022550413A JP 2022520017 A JP2022520017 A JP 2022520017A JP 2022520017 A JP2022520017 A JP 2022520017A JP 2022550413 A JP2022550413 A JP 2022550413A
Authority
JP
Japan
Prior art keywords
network
patch
segmentation
feature maps
biomedical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022520017A
Other languages
English (en)
Inventor
トーマス フックス
デヴィッド ジューン ホ
Original Assignee
メモリアル スローン ケタリング キャンサー センター
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by メモリアル スローン ケタリング キャンサー センター filed Critical メモリアル スローン ケタリング キャンサー センター
Publication of JP2022550413A publication Critical patent/JP2022550413A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本明細書には、深層多重倍率ネットワーク(DMMN)が記載される。マルチクラス組織セグメンテーションアーキテクチャは、より正確な予測を行うために、複数の倍率からパッチのセットを処理する。教師ありトレーニングの場合、部分的アノテーションを用いてアノテータの負担を低減することができる。マルチエンコーダ、マルチデコーダおよびマルチ連結を用いたセグメンテーションアーキテクチャは、乳房データセットに対し、他のセグメンテーションアーキテクチャよりも性能が優れており、病理学者がマージン標本における乳がんを評価するのを容易にするために用いることができる。

Description

関連出願の相互参照
本出願は、参照によりその全体が援用される、2019年10月2日に出願された、「Deep Multi-Magnification Networks for Multi-Class Breast Cancer Image Segmentation」と題する米国仮特許出願第62/909,401号の優先権の利益を主張する。
コンピュータビジョンアルゴリズムを用いて、デジタル画像上の様々な特徴を認識および検出することができる。生物医学的画像における特徴の検出は、生物医学的画像の潜在的に大きな解像度およびサイズに起因して、大量のコンピューティングリソースおよび時間を消費する場合がある。
乳がんは、米国における女性に最も一般的ながんのうちの1つである。外科的処置のマージンステータスを解析することは、手術成績の評価に重要であり、乳がん患者の未来の治療を暗に示す。組織の解析は、病理学者が関心対象のマージンを有するガラススライドを調べることによって手動で行われる。デジタル病理学は、ガラススライドをデジタル化し、全体スライド画像を生成する手段を提供した。計算病理学は、特にディープラーニングの進歩により、全体スライド画像が自動的に解析され、病理学者を支援することを可能にする。全体スライド画像は、通常、データのギガピクセルを含み、このため、画像を全体スライドレベルで処理することは実際的でない。現行のディープラーニング技法のほとんどは、画像をパッチレベルで処理するが、個々のパッチを単一の倍率における狭い視野で見ることによって、不良な結果を生じる場合がある。
本明細書に提示されるのは、病理学者が自身の顕微鏡を用いてスライドを見る方式に類似させた深層多重倍率ネットワーク(DMMN)である。マルチクラス組織セグメンテーションアーキテクチャは、より正確な予測を行うために、複数の倍率からパッチのセットを処理する。教師ありトレーニングの場合、部分的アノテーションを用いてアノテータの負担を低減することができる。マルチエンコーダ、マルチデコーダおよびマルチ連結を用いたセグメンテーションアーキテクチャは、乳房データセットに対し、他のセグメンテーションアーキテクチャよりも性能が優れており、病理学者がマージン標本における乳がんを評価するのを容易にするために用いることができる。
本開示の少なくとも1つの態様は、多重倍率エンコーダ-デコーダ連結ネットワークを用いた生物医学的画像をセグメンテーションするシステムおよび方法を対象とする。1つまたは複数のプロセッサを有するコンピューティングシステムは、病理組織学的画像作成器から導出された生物医学的画像を識別することができる。生物医学的画像は、複数のタイルに分割することができる。複数のタイルの各タイルは、生物医学的画像の一部分に対応することができる。コンピューティングシステムは、対応する複数の拡大係数を用いて、生物医学的画像の複数のタイルのうちの少なくとも1つのタイルから複数のパッチを作成することができる。複数のパッチは、複数の拡大係数のうちの第1の拡大係数の第1のパッチと、複数の拡大係数のうちの第2の拡大係数の第2のパッチと、複数の拡大係数のうちの第3の拡大係数の第3のパッチとを有することができる。
加えて、コンピューティングシステムは、少なくとも1つのタイルから、セグメンテーションモデルを複数のパッチに適用することができる。セグメンテーションモデルは、対応する複数の拡大係数のための複数のネットワークを含むことができる。複数のネットワークは、第1の拡大係数のパッチのための第1のネットワークを含むことができる。第1のネットワークはエンコーダの第1のセットおよびデコーダの第1のセットを有し、第1のパッチを、第1の拡大係数の特徴マップの第1のセットに変換することができる。第1のセットの各デコーダは、連続ネットワークからの特徴マップを結合する連結器を有することができる。複数のネットワークは、第2の拡大係数のパッチのための第2のネットワークを含むことができる。第2のネットワークはエンコーダの第2のセットおよびデコーダの第2のセットを有し、第2のパッチを、第1の拡大係数の特徴マップの第2のセットに変換することができる。第2のセットの各エンコーダは、第1のネットワークにおける第1のセットの対応するデコーダの連結器に出力特徴マップをフィードすることができる。複数のネットワークは、第3の拡大係数のパッチのための第3のネットワークを含むことができる。第3のネットワークはエンコーダの第3のセットおよびデコーダの第3のセットを有し、第2のパッチを、第3の拡大係数の特徴マップの第3のセットに変換することができる。第3のセットのエンコーダのうちの少なくとも1つは、第1のネットワークにおける第1のセットの対応するデコーダの連結器に出力特徴マップをフィードすることができる。コンピューティングシステムは、セグメンテーションモデルの複数のネットワークのうちの第1のネットワークによって出力された特徴マップの第1のセットを用いて第1の拡大係数の少なくとも1つのタイルに対応するセグメンテーションされたタイルを生成することができる。
本開示の少なくとも1つの態様は、生物医学的画像をセグメンテーションするための多重倍率エンコーダ-デコーダ連結ネットワークのトレーニングを対象とする。1つまたは複数のプロセッサを有するコンピューティングシステムは、トレーニングデータセットを識別することができる。トレーニングデータセットは、病理組織学的画像作成器から導出されたサンプル生物医学的画像を含むことができる。サンプル生物医学的画像は、複数のタイルに分割することができる。複数のタイルの各タイルは、サンプル生物医学的画像の一部分に対応することができる。サンプル生物医学的画像は関心領域を有することができる。トレーニングデータセットは、関心領域の一部分をラベル付けするアノテーションを含むことができる。アノテーションは、サンプル生物医学的画像内の関心領域の少なくとも一部分がセグメンテーションされることを示すことができる。コンピューティングシステムは、対応する複数の拡大係数を用いて、サンプル生物医学的画像の複数のタイルの各タイルから複数のパッチを作成することができる。複数のパッチは、複数の拡大係数のうちの第1の拡大係数の第1のパッチと、複数の拡大係数のうちの第2の拡大係数の第2のパッチと、複数の拡大係数のうちの第3の拡大係数の第3のパッチとを有することができる。
加えて、コンピューティングシステムは、少なくとも1つのタイルからの複数のパッチにセグメンテーションモデルを適用することができる。セグメンテーションモデルは、対応する複数の拡大係数のための複数のネットワークを含むことができる。複数のネットワークは、第1の拡大係数のパッチのための第1のネットワークを含むことができる。第1のネットワークはエンコーダの第1のセットおよびデコーダの第1のセットを有し、第1のパッチを、第1の拡大係数の特徴マップの第1のセットに変換することができる。第1のセットの各デコーダは、連続ネットワークからの特徴マップを結合する連結器を有することができる。複数のネットワークは、第2の拡大係数のパッチのための第2のネットワークを含むことができる。第2のネットワークはエンコーダの第2のセットおよびデコーダの第2のセットを有し、第2のパッチを、第1の拡大係数の特徴マップの第2のセットに変換することができる。第2のセットの各エンコーダは、第1のネットワークにおける第1のセットの対応するデコーダの連結器に出力特徴マップをフィードすることができる。複数のネットワークは、第3の拡大係数のパッチのための第3のネットワークを含むことができる。第3のネットワークはエンコーダの第3のセットおよびデコーダの第3のセットを有し、第2のパッチを、第3の拡大係数の特徴マップの第3のセットに変換することができる。
更に、コンピューティングシステムは、生物医学的画像の複数のタイルにわたってセグメンテーションモデルの複数のネットワークの第1のネットワークによって出力された特徴マップの第1のセットを用いてセグメンテーションされた生物医学的画像を生成することができる。コンピューティングシステムは、サンプル生物医学的画像における関心領域の一部分をラベル付けするアノテーションに基づいて、セグメンテーションされた生物医学的画像と、サンプル生物医学的画像との間のエラーメトリックを決定することができる。コンピューティングシステムは、エラーメトリックに基づいて、セグメンテーションモデルの複数のネットワークにおける少なくとも1つのパラメータを変更することができる。
本開示の少なくとも1つの態様は、生物医学的画像をセグメンテーションするシステムおよび方法を対象とする。1つまたは複数のプロセッサを有するコンピューティングシステムは、生物医学的画像の少なくとも1つのタイルについて、第1の拡大係数における第1のパッチおよび第2の拡大係数における第2のパッチを識別することができる。コンピューティングシステムは、トレーニングされたセグメンテーションモデルを第1のパッチおよび第2のパッチに適用して、セグメンテーションされたタイルを生成することができる。トレーニングされたセグメンテーションモデルは複数のネットワークを含むことができる。複数のネットワークは、第1の拡大係数における第1のパッチを用いて複数の第1の特徴マップを生成するための第1のネットワークを含むことができる。複数のネットワークは、第2の拡大係数における第2のパッチおよび第1のネットワークからの1つまたは複数の第1の特徴マップを用いて第2の特徴マップを生成するための第2のネットワークを含むことができる。コンピューティングシステムは、生物医学的画像の少なくとも1つのタイル内の関心領域を識別するセグメンテーションされたタイルを記憶することができる。
いくつかの実施形態では、セグメンテーションモデルの複数のネットワークは、第3のネットワークを含むことができる。第3のネットワークは、第3の拡大係数における少なくとも1つのタイルの第3のパッチを用いて複数の第3の特徴マップを生成することができる。第3のネットワークは、複数の第3の特徴マップを第2のネットワークの対応する複数のデコーダに提供して、第2の特徴マップを生成することができる。
いくつかの実施形態では、第2のネットワークは、対応する複数の列にわたって配置された複数のデコーダを含むことができる。複数のデコーダの各々は、第1のネットワークからの複数の第1のマップの対応する特徴マップを処理することができる。いくつかの実施形態では、第1のネットワークは、対応する複数の列にわたって配置された複数のエンコーダを含むことができる。複数のエンコーダの各々は、複数の第1のネットワークの対応する特徴マップを、第2のネットワークにおけるそれぞれのデコーダに提供することができる。いくつかの実施形態では、第2のネットワークは、第2の特徴マップを生成する際、第1のネットワークからの複数の第1の特徴マップを対応する複数の中間特徴マップと組み合わせる複数の連結器を備えることができる。
いくつかの実施形態では、コンピューティングシステムは、対応する複数の拡大係数における複数のパッチに適用されるセグメンテーションモデルを適用することによる複数のセグメンテーションされたタイルを用いて、セグメンテーションされた生物医学的画像を生成することができる。各パッチは、生物医学的画像の複数のタイルの対応するタイルから識別することができる。いくつかの実施形態では、コンピューティングシステムは、病理組織学的画像作成器から導出された生物医学的画像を取得することができる。生物医学的画像は、複数のタイルに分割することができる。複数のタイルの各タイルは、生物医学的画像の一部分に対応する。
本開示の少なくとも1つの態様は、生物医学的画像をセグメンテーションためのネットワークをトレーニングするシステムおよび方法を対象とする。1つまたは複数のプロセッサを有するコンピューティングシステムは、トレーニングデータセットを識別することができる。トレーニングデータセットは、サンプル生物医学的画像からの少なくとも1つのサンプルタイルを含むことができる。サンプル生物医学的画像は関心領域を有することができる。トレーニングデータセットは、関心領域の少なくとも一部分をラベル付けするアノテーションを含むことができる。アノテーションは、少なくとも1つのサンプルタイル内の関心領域の少なくとも一部分を示すことができる。コンピューティングシステムは、サンプル生物医学的画像の少なくとも1つのサンプルタイルについて、第1の拡大係数における第1のパッチおよび第2の拡大係数における第2のパッチを生成することができる。コンピューティングシステムは、第1のパッチ、第2のパッチ、および少なくとも1つのサンプルタイルのアノテーションを用いてセグメンテーションモデルをトレーニングすることができる。セグメンテーションモデルは複数のネットワークを含むことができる。複数のネットワークは、第1の拡大係数における第1のパッチを用いて複数の第1の特徴マップを生成するための第1のネットワークを含むことができる。複数のネットワークは、第2の拡大係数における第2のパッチおよび第1のネットワークからの1つまたは複数の第1の特徴マップを用いて第2の特徴マップを生成するための第2のネットワークを含むことができる。第2の特徴マップに対応するセグメンテーションされたタイルをアノテーションと比較することができる。
いくつかの実施形態では、コンピューティングシステムは、関心領域の一部分をラベル付けするアノテーションに基づいて、セグメンテーションされたタイルとサンプルタイルとの間のエラーメトリックを決定することによって、セグメンテーションモデルをトレーニングすることができる。いくつかの実施形態では、コンピューティングシステムは、エラーメトリックを用いてセグメンテーションモデルの複数のネットワークにおける少なくとも1つのパラメータを更新することによってセグメンテーションモデルをトレーニングすることができる。
いくつかの実施形態では、セグメンテーションモデルの複数のネットワークは、第3のネットワークを含むことができる。第3のネットワークは、第3の拡大係数における少なくとも1つのタイルの第3のパッチを用いて複数の第3の特徴マップを生成することができる。第3のネットワークは、複数の第3の特徴マップを第2のネットワークの対応する複数のデコーダに提供して、第2の特徴マップを生成することができる。
いくつかの実施形態では、第2のネットワークは、対応する複数の列にわたって配置された複数のデコーダを含むことができる。複数のデコーダの各々は、第1のネットワークからの複数の第1のマップの対応する特徴マップを処理することができる。いくつかの実施形態では、第1のネットワークは、対応する複数の列にわたって配置された複数のエンコーダを含むことができる。複数のエンコーダの各々は、複数の第1のネットワークの対応する特徴マップを、第2のネットワークにおけるそれぞれのデコーダに提供することができる。
いくつかの実施形態では、第2のネットワークは、第2の特徴マップを生成する際、第1のネットワークからの複数の第1の特徴マップを対応する複数の中間特徴マップと組み合わせる複数の連結器を備えることができる。いくつかの実施形態では、トレーニングデータセットのアノテーションは、サンプル生物医学的画像内の関心領域の全体未満の部分をラベル付けすることができる。アノテーションは、関心領域の全体の縁部から分離させることができる。
いくつかの実施形態では、コンピューティングシステムは、対応する複数の拡大係数における複数のパッチに適用されるセグメンテーションモデルを適用することによる複数のセグメンテーションされたタイルを用いて、セグメンテーションされた生物医学的画像を生成することができる。各パッチは、サンプル生物医学的画像の複数のタイルの対応するタイルから識別することができる。いくつかの実施形態では、サンプル生物医学的画像は、病理組織学的画像作成器から導出することができる。サンプル生物医学的画像は、複数のタイルに分割することができる。複数のタイルの各タイルは、サンプル生物医学的画像の一部分に対応することができる。
本開示の上記のおよび他の目的、態様、特徴および利点は、添付の図面と合わせて以下の説明を参照することによってより明らかとなり、より良好に理解される。
深層単一倍率ネットワーク(DSMN)および深層多重倍率ネットワーク(DMMN)間の比較。(a)深層単一倍率ネットワークは、限られた視野で単一の倍率からのみパッチを見る。(b)深層多重倍率ネットワークは、より広い視野を有するように複数の倍率からパッチのセットを見ることができる。 深層多重倍率ネットワークを用いた提案される方法のブロック図。本方法の第1のステップは、トレーニング全体スライド画像を部分的にアノテーションすることである。部分的アノテーションからトレーニングパッチを抽出し、クラス間のピクセル数の平衡をとった後、深層多重倍率ネットワークがトレーニングされる。トレーニングされたネットワークは、全体スライド画像のマルチクラス組織セグメンテーションのために用いられる。 部分的アノテーションの例。(a)乳がんデータセットからの全体スライド画像。(b)(a)における全体スライド画像の部分的にアノテーションされた画像。ここで、複数の組織サブタイプは、別個の色でアノテーションされ、白色領域はラベル付けされない。 (a)における深層単一倍率ネットワークおよび(b)~(d)における深層多重倍率ネットワークを用いたマルチクラス組織セグメンテーションのためのCNNアーキテクチャ。(a)単一エンコーダ単一デコーダ(SESD)は、単一の倍率からのパッチを利用してセグメンテーション予測パッチを生成するアーキテクチャである。(b)多重エンコーダ単一デコーダ(MESD)は、様々な倍率の複数のパッチを利用するが、セグメンテーション予測パッチを生成するデコーダを1つしか有しないアーキテクチャである。(c)多重エンコーダ多重デコーダ単一連結(MEMDSC)は、様々な倍率の複数のパッチを利用するアーキテクチャであるが、特徴マップはセグメンテーション予測パッチを生成する最終層においてのみ連結される。(d)多重エンコーダ多重デコーダ多重連結(MEMDMC)は、様々な倍率の複数のパッチを利用するアーキテクチャであり、特徴マップは、20×デコーダのための特徴マップを強化するために中間層の間に連結される。 トレーニング乳房データセット内の弾性変形を用いたクラス平衡。(a)弾性変形前のクラス間のアノテーションされたピクセル数。(b)弾性変形後のクラス間のアノテーションされたピクセル数。 TNBCデータセットに対するセグメンテーション予測。(a)~(f)は、全体スライド画像のサムネイルバージョンであり、(g)~(l)は、10×の倍率における1024×1024ピクセルのサイズを有するズームイン画像である。(a)および(g)はオリジナル画像であり、(b)および(h)は部分的アノテーションであり、(c)および(i)は単一エンコーダ単一デコーダ(SESD)アーキテクチャを用いたセグメンテーション予測であり、(d)および(j)は多重エンコーダ単一デコーダ(MESD)アーキテクチャを用いたセグメンテーション予測であり、(e)および(k)は多重エンコーダ多重デコーダ単一連結(MEMDSC)アーキテクチャを用いたセグメンテーション予測であり、(f)および(l)は多重エンコーダ多重デコーダ多重連結(MEMDMC)アーキテクチャを用いたセグメンテーション予測である。 TNBCデータセットに対するセグメンテーション予測。(a)~(f)は、全体スライド画像のサムネイルバージョンであり、(g)~(l)は、10×の倍率における1024×1024ピクセルのサイズを有するズームイン画像である。(a)および(g)はオリジナル画像であり、(b)および(h)は部分的アノテーションであり、(c)および(i)は単一エンコーダ単一デコーダ(SESD)アーキテクチャを用いたセグメンテーション予測であり、(d)および(j)は多重エンコーダ単一デコーダ(MESD)アーキテクチャを用いたセグメンテーション予測であり、(e)および(k)は多重エンコーダ多重デコーダ単一連結(MEMDSC)アーキテクチャを用いたセグメンテーション予測であり、(f)および(l)は多重エンコーダ多重デコーダ多重連結(MEMDMC)アーキテクチャを用いたセグメンテーション予測である。 乳房マージンデータセットに対するセグメンテーション予測。(a)~(f)は、全体スライド画像のサムネイルバージョンであり、(g)~(l)は、10×の倍率における1024×1024ピクセルのサイズを有するズームイン画像である。(a)および(g)はオリジナル画像であり、(b)および(h)は包括的アノテーションであり、(c)および(i)は単一エンコーダ単一デコーダ(SESD)アーキテクチャを用いたセグメンテーション予測であり、(d)および(j)は多重エンコーダ単一デコーダ(MESD)アーキテクチャを用いたセグメンテーション予測であり、(e)および(k)は多重エンコーダ多重デコーダ単一連結(MEMDSC)アーキテクチャを用いたセグメンテーション予測であり、(f)および(l)は多重エンコーダ多重デコーダ多重連結(MEMDMC)アーキテクチャを用いたセグメンテーション予測である。 乳房マージンデータセットに対するセグメンテーション予測。(a)~(f)は、全体スライド画像のサムネイルバージョンであり、(g)~(l)は、10×の倍率における1024×1024ピクセルのサイズを有するズームイン画像である。(a)および(g)はオリジナル画像であり、(b)および(h)は包括的アノテーションであり、(c)および(i)は単一エンコーダ単一デコーダ(SESD)アーキテクチャを用いたセグメンテーション予測であり、(d)および(j)は多重エンコーダ単一デコーダ(MESD)アーキテクチャを用いたセグメンテーション予測であり、(e)および(k)は多重エンコーダ多重デコーダ単一連結(MEMDSC)アーキテクチャを用いたセグメンテーション予測であり、(f)および(l)は多重エンコーダ多重デコーダ多重連結(MEMDMC)アーキテクチャを用いたセグメンテーション予測である。 深層単一倍率ネットワーク(DSMN)および深層多重倍率ネットワーク(DMMN)間の比較。(a)DSMNは、限られた視野で単一の倍率からパッチを見る。(b)DMMNは、より広い視野を有するように複数の倍率からパッチのセットを見る。DMMNは、より正確な予測のために、より高い倍率からの細胞特徴およびより低い倍率からの構造的成長パターンの両方を学習することができる。 深層多重倍率ネットワークを用いた提案される方法のブロック図。本方法の第1のステップは、トレーニング全体スライド画像を部分的にアノテーションすることである。部分的アノテーションからトレーニングパッチを抽出し、クラス間のピクセル数の平衡をとった後、深層多重倍率ネットワークがトレーニングされる。トレーニングされたネットワークは、全体スライド画像のマルチクラス組織セグメンテーションのために用いられる。 部分的アノテーションの例。(a)乳房組織からの全体スライド画像。(b)部分的にアノテーションされた画像。ここで、複数の組織サブタイプは、別個の色でアノテーションされ、白色領域はラベル付けされない。 (a)において単一の倍率および深層多重倍率ネットワーク(DMMN)を利用し、(b)~(e)において様々な倍率における複数のパッチを利用する、深層単一倍率ネットワーク(DSMN)のマルチクラス組織セグメンテーションのためのCNNアーキテクチャ。(a)U-NetはDSMNアーキテクチャとして用いられる。(b)単一エンコーダ単一デコーダ(DMMN-S2)は、複数のパッチが連結され、U-Netアーキテクチャへの入力として用いられるDMMNアーキテクチャである。(c)多重エンコーダ単一デコーダ(DMMN-MS)は、1つのみのデコーダを有するDMMNアーキテクチャである。(d)多重エンコーダ多重デコーダ単一連結(DMMN-M2S)は、複数の倍率からの特徴マップが最終層においてのみ連結されるDMMNアーキテクチャである。(e)提案される多重エンコーダ多重デコーダ多重連結(DMMN-M3)は、最も高い倍率のデコーダにおける特徴マップを強化するために中間層の間に特徴マップが連結されるDMMNアーキテクチャである。 トレーニング乳房データセット内の弾性変形を用いたクラス平衡。 2つの深層単一倍率ネットワーク(DSMN)、SegNetおよびU-Net、ならびに4つの深層多重倍率ネットワーク(DMMN)、単一エンコーダ単一デコーダ(DMMN-S2)、多重エンコーダ単一デコーダ(DMMN-MS)、多重エンコーダ多重デコーダ単一連結(DMMN-M2S)、ならびに提案される多重エンコーダ多重デコーダ多重連結(DMMN-M3)を用いた、データセット-Iに対するセグメンテーション予測。(a)~(h)は、全体スライド画像のサムネイルバージョンであり、(i)~(p)は、10×の倍率における1024×1024ピクセルのサイズを有する浸潤性乳管がん(IDC)に対するズームイン画像である。 2つの深層単一倍率ネットワーク(DSMN)、SegNetおよびU-Net、ならびに4つの深層多重倍率ネットワーク(DMMN)、単一エンコーダ単一デコーダ(DMMN-S2)、多重エンコーダ単一デコーダ(DMMN-MS)、多重エンコーダ多重デコーダ単一連結(DMMN-M2S)、ならびに提案される多重エンコーダ多重デコーダ多重連結(DMMN-M3)を用いた、データセット-Iに対するセグメンテーション予測。(a)~(h)は、全体スライド画像のサムネイルバージョンであり、(i)~(p)は、10×の倍率における1024×1024ピクセルのサイズを有する良性上皮(benign epithelial)に対するズームイン画像である。 2つの深層単一倍率ネットワーク(DSMN)、SegNetおよびU-Net、ならびに4つの深層多重倍率ネットワーク(DMMN)、単一エンコーダ単一デコーダ(DMMN-S2)、多重エンコーダ単一デコーダ(DMMN-MS)、多重エンコーダ多重デコーダ単一連結(DMMN-M2S)、ならびに提案される多重エンコーダ多重デコーダ多重連結(DMMN-M3)を用いた、データセット-IIに対するセグメンテーション予測。(a)~(h)は、全体スライド画像のサムネイルバージョンであり、(i)~(p)は、10×の倍率における1024×1024ピクセルのサイズを有する非浸潤性乳管がん(DCIS)に対するズームイン画像である。 2つの深層単一倍率ネットワーク(DSMN)、SegNetおよびU-Net、ならびに4つの深層多重倍率ネットワーク(DMMN)、単一エンコーダ単一デコーダ(DMMN-S2)、多重エンコーダ単一デコーダ(DMMN-MS)、多重エンコーダ多重デコーダ単一連結(DMMN-M2S)、ならびに提案される多重エンコーダ多重デコーダ多重連結(DMMN-M3)に基づき、データセット-Iに対するがん腫、良性上皮、間質、壊死、脂肪および背景のセグメンテーションを評価する混同行列。 2つの深層単一倍率ネットワーク(DSMN)、SegNetおよびU-Net、ならびに4つの深層多重倍率ネットワーク(DMMN)、単一エンコーダ単一デコーダ(DMMN-S2)、多重エンコーダ単一デコーダ(DMMN-MS)、多重エンコーダ多重デコーダ単一連結(DMMN-M2S)、ならびに提案される多重エンコーダ多重デコーダ多重連結(DMMN-M3)に基づき、データセット-IIに対するがん腫、良性上皮および間質のセグメンテーションを評価する混同行列。壊死、脂肪および背景は、評価されるピクセルの欠如に起因してデータセット-IIに対する評価から除外される。 多重倍率エンコーダ-デコーダ連結ネットワークを用いて生物医学的画像をセグメンテーションするための例示的なシステムのブロック図を示す。 セグメンテーションモデルをトレーニングするための部分的アノテーションを用いた例示的な生物医学的画像を示す。 生物医学的画像をセグメンテーションするためのセグメンテーションモデルにおけるネットワークの畳込みブロックのブロック図を示す。 生物医学的画像をセグメンテーションするためのセグメンテーションモデルにおけるネットワークの逆畳込みブロックのブロック図を示す。 セグメンテーションモデルにおけるネットワークの終端畳込みブロックのブロック図を示す。 生物医学的画像をセグメンテーションするためのセグメンテーションモデルにおけるネットワークのブロック図を示す。 生物医学的画像をセグメンテーションするためのセグメンテーションモデルのブロック図を示す。 多重倍率エンコーダ-デコーダ連結ネットワークを用いて生物医学的画像をセグメンテーションする方法の流れ図を示す。 多重倍率エンコーダ-デコーダ連結ネットワークを用いて生物医学的画像をセグメンテーションするためのモデルをトレーニングする方法の流れ図を示す。 サーバデバイスと通信するクライアントデバイスを含むネットワーク環境の実施形態を示すブロック図である。 クラウドサービスプロバイダと通信するクライアントデバイスを含むクラウドコンピューティング環境を示すブロック図である。 本明細書に記載の方法およびシステムとの関連で有用なコンピューティングデバイスの実施形態を示すブロック図である。
以下は、生物医学的画像をセグメンテーションするためのシステムおよび方法に関連する様々な概念およびその実施形態のより詳細な説明である。上記で紹介し、以下で更に詳細に論じる様々な概念は、多数の方式のうちの任意のもので実施することができることを理解されたい。なぜなら、開示される概念は、いかなる特定の実施方式にも限定されないためである。特定の実施態様および応用形態の例は、主に例示の目的で提供される。
セクションAは、マルチクラス乳がん画像セグメンテーションのための深層多重倍率ネットワークのための第1の手法を記載する。
セクションBは、マルチクラス乳がん画像セグメンテーションのための深層多重倍率ネットワークのための第2の手法を記載する。
セクションCは、多重倍率、多重エンコーダ、多重デコーダおよび多重連結ネットワークを用いた生物医学的画像をセグメンテーションするためのシステムおよび方法を記載する。
セクションDは、本明細書に記載の様々なコンピューティング関連の実施形態を実施するのに有用とすることができるネットワーク環境およびコンピューティング環境を記載する。
A. マルチクラス乳がん画像セグメンテーションのための深層多重倍率ネットワークのための第1の手法
I. 序論
乳がんは、診断される最も一般的ながんであり、米国における女性のがんによる死亡の第2の主要な原因である。米国における女性の約12%が生涯の間に乳がんと診断される。早期の乳がん患者は多くの場合、乳房温存手術、またはがんを含む乳房組織の一部分を除去する腫瘍摘出手術を受ける。通常、補助放射線療法と組み合わされる腫瘍摘出手術は、生存率の観点で、乳房切除と等しく、美容上の結果が改善することが示されている。手術中、外科医の目標は、がん腫瘍全体、および腫瘍を取り囲む良性組織の縁部を除去することである。腫瘍摘出手術標本のための外科的マージンを評価するための一般的な方法は、外科医が、がんを含む主要な塊が除去された後、腫瘍摘出手術腔の壁から組織の更なるセグメントを切除することを伴う。外科医が術中に特定のマージンを指定することを可能にするこの「腔薄切(cavity shave)」方法は、より低い割合の陽性マージン(インク付けされたマージンに腫瘍が存在する)、およびより低い割合の再切除に関連している。手術切除の完全性を判断するために、腫瘍摘出手術標本の縁部、すなわちマージンが、病理学者によって顕微鏡により評価される。がんの局所再発のリスクを最小限にするために、陰性マージン(マージンに接触するがんが見つからない)を達成することが重要である。マージン標本の病理学的解析は、病理学者が事例あたりおよそ20~40個の組織学的スライドを調べることを伴い、このプロセスは時間がかかり、冗長であり得る。組織学的ガラススライドをデジタル走査する能力の増大に伴い、計算的病理学手法は、マージン標本の全体スライド画像(WSI)を評価することによってこのプロセスの効率および精度を潜在的に改善し得る。最終的に、追加の手術の必要性を判断するために、病理学者によるマージンの正確な解析が重要である。
WSIを解析するために様々な手法が用いられてきた。ほとんどのモデルは、デジタルスライドにおける対象(すなわち、組織学的特徴)の位置特定、検出、分類およびセグメンテーションを含む。組織病理学的特徴は、核特徴、細胞/間質構造、または組織等のパターンベースの識別情報を含む。計算病理学は、サイズ、形状、それらの関係性等の、核特徴を抽出するために、核セグメンテーションにおいて用いられてきた。核セグメンテーションは、核密度が高い領域を見つけるために、適応閾値処理およびモルフォロジー演算によって行われる。乳がんのグレード分類方法は、ベイズ分類器および領域知識からの構造制約を用いた腺および核のセグメンテーションによって展開することができる。重なり合った核およびリンパ球をセグメンテーションするために、領域、境界および形状に基づく統合された動的輪郭を提示することができる。これらの核セグメンテーションに基づく手法は、がん領域の核および構造の形状がWSIにおいて捕捉された組織において大きな変動を有する場合があるため、困難である。
大きなトレーニングデータセットの利用可能性、およびグラフィック処理装置(GPU)の進化に起因して、自動画像解析のために機械学習のタイプの深層学習を用いることができる。非線形活性化関数を用いた深層から構成された深層学習モデルは、より精緻な特徴を学習することを可能にする。特に、画像における畳込みニューラルネットワーク(CNN)学習空間特徴は、画像分類、物体検出および意味論的セグメンテーションにおける優れた成果を示した。完全畳込みネットワーク(FCN)は、ピクセル単位の分類とも呼ばれる意味論的セグメンテーションのために用いることができ、画像内の対象のロケーション、サイズおよび形状を理解することができる。FCNは、エンコーダおよびデコーダから構成され、ここで、エンコーダは入力画像の低次元特徴を抽出し、デコーダは、低次元特徴を利用してセグメンテーション予測を生成する。意味論的セグメンテーションは、生物学的構造を自動的にセグメンテーションするために医療画像において用いられてきた。例えば、U-Netは、顕微鏡画像において細胞をセグメンテーションするのに用いられる。U-Netアーキテクチャは、空間情報を保持するためにエンコーダからデコーダまで特徴マップを転送する連結を有する。このアーキテクチャは、生物医学的画像に対するより正確なセグメンテーション予測を示した。
深層学習は、計算病理学コミュニティにおいて用いることができる。研究者らは、単純な3層CNNを用いることによる、WSIにおける浸潤性乳がん検出の自動識別を示した。間質領域を解析することにより、乳房組織スライドを浸潤性がんまたは良性に分類する方法は、CNNを用いることを含むことができる。マルチインスタンス学習ベースのCNNは、CNNが15,187人の患者からの44,732個のWSIによってトレーニングされる場合に100%の感度を達成する。パブリック病理学データセットの利用可能性は、計算病理学のための多くの深層学習手法を開発することに寄与する。例えば、リンパ節転移を検出するための乳がんデータセットがCAMELYON challengeのためにリリースされ、乳がんデータセットを解析するためのいくつかの深層学習技法が開発されている。
WSIに対し深層学習を用いることの1つの難点は、単一のWSI全体のサイズが、GPUに入れて処理するには大きすぎることである。予めトレーニングされたCNNによって処理されるように画像をダウンサンプリングすることができるが、WSIにおける臨床診断に必要な重大な詳細は失われる。これを解決するために、通常、スライドレベルの手法の代わりに、パッチベースの手法が用いられる。ここで、パッチは、WSIから抽出され、CNNによって処理される。スライドレベルで分類するためにマルチクラスロジスティック回帰が辿るパッチベースのプロセスを用いることができる。CAMELYON 16 challengeの勝者は、Otsu閾値処理技法を用いて組織領域を抽出し、パッチベースのモデルをトレーニングして腫瘍パッチおよび非腫瘍パッチを分類する。性能を増大させるために、腫瘍パッチと非腫瘍パッチとの間のクラス平衡、ならびに、回転、フリップ、およびカラージッタリング等のデータ拡張技法を用いることができる。加えて、CAMELYON 17 challengeの勝者は、より正確な予測のためにパッチ重複戦略を開発する。パッチは、乳房WSIにおけるサブタイプをセグメンテーションするために、同じ倍率の境界領域を含む追加のより大きなパッチと共に処理することができる。代替的に、パッチ間の表現を共有するために、WSIにおけるパッチから生成された特徴を収集する表現-集約CNNが開発されている。パッチベースの手法は、(1)病理学者が狭い視野でパッチレベルのスライドを見ず、(2)スライドを正確に解析するために複数の倍率でスライドを見るようにズームレベルを頻繁に切り替えるため、現実的でない。
より現実的なCNNを開発するために、複数の倍率でパッチのセットを入力し、視野を増大させ、他の倍率からの更なる情報を提供することが必要とされる。図1は、深層単一倍率ネットワーク(DSMN)および深層多重倍率ネットワーク(DMMN)間の差を示す。図1(a)におけるDSMNへの入力は、20×の単一の倍率における256×256ピクセルのサイズを有する単一のパッチであり、これにより視野が制限される。図1(b)におけるDMMNへの入力は、20×、10×および5×の複数の倍率における256×256ピクセルのサイズを有するパッチのセットであり、より広い視野を可能にする。DMMNは、より広い視野で複数の倍率を提供することによって、病理学者が顕微鏡を用いてスライドを見る方式を模倣することができ、これにより、より正確な解析を生じさせることができる。
複数の倍率を用いて全体スライド画像を解析するいくつかの手法が存在する。バイナリセグメンテーションCNNを用いて、CAMELYONデータセット内の腫瘍領域をセグメンテーションすることができる。この作業では、異なる倍率の4つのエンコーダが実装されるが、1つのデコーダのみを用いて最終セグメンテーション予測を生成する。異なる倍率の3つのエキスパートネットワークから構成されたCNNアーキテクチャ、入力パッチに基づいて特定の倍率を強調するための重みを自動的に選択するための重み付けネットワーク、および最終セグメンテーション予測を生成するための集約ネットワークも用いることができる。ここで、中間特徴マップは3つのエキスパートネットワーク間で共有されず、これは複数の倍率からの特徴マップの利用を制限する可能性がある。
本開示において、マージン標本において見つかった乳がんを識別することを目標に、乳房組織の画像内で複数のサブタイプを正確にセグメンテーションするための深層多重倍率ネットワーク(DMMN)が提示される。DMMNアーキテクチャは、中間層内でより豊富な特徴マップを有するように、複数のエンコーダ、複数のデコーダ、およびデコーダ間の複数の連結を有する。DMMNをトレーニングするために、アノテーションの負担を低減するようにWSIを部分的にアノテーションすることができる。部分的アノテーションによってトレーニングされたDMMNモデルは、各サブタイプの特徴を学習するのみでなく、サブタイプ間の形態学的関係も学習することができ、これは優れたセグメンテーション性能につながる。多重倍率モデルは、2つの乳房データセットに対し試験され、モデルが他のアーキテクチャよりも一貫して性能が優れていることを観測する。この方法を用いて乳房マージン画像上のがん領域を自動的にセグメンテーションし、患者のマージンステータスの診断を支援し、未来の治療を決定することができる。深層多重倍率ネットワークは、より正確なセグメンテーション予測のために様々な倍率の特徴マップを組み合わせるように開発することができ、部分的アノテーションを用いて病理学者のアノテーション時間を節減し、それでもなお高い性能を達成することができる。
II. 方法
図2は、方法のブロック図を示す。目標は、深層多重倍率ネットワーク(DMMN)を用いて乳房マージン画像におけるがん領域をセグメンテーションすることである。乳房マージン画像は、大きながん領域を含んでいない。したがって、大きながん領域を含む別の乳がんデータセットをトレーニングデータセットとして用いることができる。まず第1に、手動のアノテーションがCクラスのトレーニングデータセットに対し行われる。このアノテーションは、部分的に、効率的で高速なプロセスのために行われることに留意されたい。マルチクラスセグメンテーションDMMNをトレーニングするために、全体スライド画像および対応するアノテーションからパッチが抽出される。抽出されたパッチを用いてDMMNをトレーニングする前に、弾性変形を用いてレアクラスに属するパッチを増倍させ、クラス間のピクセル数の平衡をとることができる。トレーニングステップが行われた後、乳がん画像のマルチクラスセグメンテーションのためにモデルを用いることができる。
部分的アノテーション
教師あり学習にはアノテーションの大きなセットが必要とされるが、これは通常、病理学者の時間および労力を必要とするコストの高いステップである。特に、画像サイズのギガピクセルスケールに起因して、全体スライド画像内の全てのピクセルをラベル付けする包括的なアノテーションは実用的でない。CAMELYONデータセット等のパブリックデータセットを用いて多くの作業が行われるが、パブリックデータセットは特定の用途のために設計されたものであり、他の用途には一般化されない場合がある。乳房トレーニングデータセット上の複数の組織サブタイプをセグメンテーションするために、画像を部分的にセグメンテーションすることができる。
部分的アノテーションの場合、サブタイプ間の密接した境界領域にアノテーションする一方で、これらのラベル付けされていない領域の厚みを最小限にし、クロッピングなしで全体サブタイプコンポーネントをアノテーションすることを回避することができる。特に境界領域における、重複部分および後続の不正確なラベリングのない包括的アノテーションは、領域が互いにシームレスにマージすることを考えると困難である可能性がある。加えて、完全で包括的なラベル付けに必要とされる時間は莫大である。これらのラベル付けされていない境界領域の厚みを最小限にすることによって、部分的アノテーションによってトレーニングされるCNNモデルは、サブタイプ間の空間関係を学習し、正確なセグメンテーション境界を生成することができる。これは、異なるサブタイプのアノテーションされた領域が過度に広く離間され、このため、それらの間の空間的関係性をトレーニングするのに適していない部分的アノテーションとは異なる。この手法は、アノテーションの労力を低減するために、全体スライド画像のサブ領域における包括的アノテーションも示すが、サブタイプコンポーネントがクロッピングされている場合、CNNモデルは異なるサブタイプの成長パターンを学習することができない。ここで、CNNモデルに全てのサブタイプの成長パターンを学習させるため、各サブタイプコンポーネントを全体的にアノテーションすることができる。図3(a)および図3(b)は、熟練した病理学者が1つの全体スライド画像を部分的にアノテーションするのに概ね30分を費やし得る部分的アノテーションの例を示す。図3(b)における白色領域がラベル付けされていないことに留意されたい。
トレーニングパッチ抽出
全体スライド画像は、通常、畳込みニューラルネットワークを用いてスライドレベルにおいて処理するには過度に大きい。例えば、最も小さなマージンWSIの寸法は、43,824ピクセル×31,159ピクセルであり、これは13億ピクセル超である。WSIを解析するために、パッチベースの方法が用いられる。この方法では、画像から抽出されたパッチがCNNによって処理され、次に、出力がスライドレベル解析のために組み合わされる。パッチベースの方法の1つの限界は、スライドを調査しながらズームレベルを切り替える病理学者を模倣しないことである。対照的に、パッチベースの方法は、限られた視野で単一の倍率でのみパッチを見る。
顕微鏡を用いて病理学者が行うことに類似させるために、多重倍率パッチのセットを抽出してDMMNをトレーニングすることができる。この作業において、ターゲットパッチのサイズは、WSIにおいて解析されるように設定することができ、20×の倍率において256×256ピクセルとすることができる。ターゲットパッチを解析するために、20×において1024×1024ピクセルのサイズを有する入力パッチが画像から抽出され、ここで、ターゲットパッチは入力パッチの中心に位置する。この入力パッチから、3つの多重倍率パッチのセットが抽出される。第1のパッチは、20×において256×256ピクセルのサイズを有する入力パッチの中心から抽出され、これはターゲットパッチと同じロケーションおよび倍率である。第2のパッチは、512×512ピクセルのサイズを有する入力パッチの中心から抽出され、10×において256×256ピクセルのサイズとなるように係数2でダウンサンプリングされる。最後に、第3のパッチは、5×において256×256ピクセルのサイズになるように係数4で入力パッチをダウンサンプリングすることによって生成される。異なる倍数における3つのパッチのセットは、256×256ピクセルのサイズを有するターゲットパッチにおいてがんをセグメンテーションするためのDMMNに対する入力となる。入力パッチは、対応するターゲットパッチにおける1%を超えるピクセルがアノテーションされている場合、トレーニング画像から抽出される。xおよびy方向へのストライドは、ターゲットパッチの重複を回避するために256ピクセルである。
クラス平衡
クラス平衡は、正確な性能のためにCNNをトレーニングするために必須のステップである。1つのクラスにおけるトレーニングパッチの数が別のクラスにおけるトレーニングパッチの数よりも多い場合、CNNはマイナークラスからの特徴を適切に学習することができない。この作業では、アノテーションにおいてクラス不平衡が観測される。例えば、がん領域におけるアノテーションされたピクセルの数は、良性上皮領域におけるアノテーションされたピクセルの数よりも多い。クラス間の平衡をとるために、弾性変形を用いてマイナークラスに属するトレーニングパッチを増倍させる。
生物学的構造の曲がりくねった形状に起因して、弾性変形が、生物医学的画像におけるデータ拡張技法として広く用いられている。パッチに対し弾性変形を行うために、パッチにおける格子点のセットが選択され、σの標準偏差を有する正規分布によってランダムに変位される。格子点の変位に従って、パッチ内の全てのピクセルがバイキュービック補間によって変位される。格子点は、17×17およびσ=4によって設定することができる。
増倍されるパッチの数は、クラス間のピクセル数の平衡をとるために注意深く選択される必要がある。ここで、rcとして表されるクラスcの弾性変形レートは、パッチを増倍させるときのクラスの順位を決定するために、クラスcおよびクラス順位について増倍されるパッチ数として定義することができる。レートは、各クラスにおけるピクセル数に基づいて選択することができる。レートは、非負の整数であり、レートが0である場合、弾性変形は実行されない。クラス順位は、用途に基づいて決定することができる。例えば、がん領域における正確なセグメンテーションを所望する場合、がんのクラスは他のクラスよりも高い順位を有する。パッチを増倍させるために、各パッチは、パッチがcに分類されたピクセルラベルを含む場合、クラスcに分類される必要がある。パッチが複数のクラスにおけるピクセルを含む場合、より高いクラス順位を有するクラスがパッチのクラスとなる。パッチが分類された後、パッチのrc数が、弾性変形を用いてクラスc内のパッチ毎に増倍される。クラス平衡が行われると、全てのパッチを用いてCNNをトレーニングする。
CNNアーキテクチャ
図4(a)~図4(d)は、がんセグメンテーションのための様々なCNNアーキテクチャを示す。入力パッチのサイズが256×256ピクセルであり、出力予測のサイズが256×256ピクセルであることに留意されたい。CONV_BLOCKは、1のパディングを有する3×3のカーネルサイズを有する畳込み層の2つのセットを含み、一連の正規化線形ユニット(ReLU)活性化関数が後続する。CONV_TR_uは、転置畳込み層を含み、ReLU活性化関数が後続する。ここで、uはアップサンプリングレートである。CONV_TR_4は、一連の2つのCONV_TR_2から構成されることに留意されたい。CONV_FINALは、1のパディングを有する3×3のカーネルサイズを有する畳込み層、ReLU活性化関数、およびC個のチャネルを出力するための1×1のカーネルサイズを有する畳込み層を含む。最終セグメンテーション予測は、ソフトマックス演算を用いて生成される。
緑色の矢印は、係数2による最大プール演算であり、赤い矢印は、中心クロップ演算であり、ここでクロップレートは赤色で書かれている。中心クロップ演算は、次の演算に向けて特徴マップのサイズおよび倍率を適合させるためにクロップレートによって全てのチャネルにおける特徴マップの中心領域をクロッピングする。中心クロップ演算中、クロップレートがそれぞれ2および4である場合、クロップされた特徴マップの幅および高さは、入力特徴マップの幅および高さの半分および4分の1になる。
図4(a)における単一エンコーダ単一デコーダ(SESD)アーキテクチャは、20×における単一の倍率パッチを用いて対応するセグメンテーション予測を生成する。この実施は、チャネル数が2分の1に低減することを除いてU-Netと同じであることに留意されたい。図4(b)における多重エンコーダ単一デコーダ(MESD)アーキテクチャは、20×、10×および5×の倍率について複数のエンコーダを用いるが、セグメンテーション予測を生成するために単一のデコーダのみを用いる。図4(c)における多重エンコーダ多重デコーダ単一連結(MEMDSC)アーキテクチャは、20×、10×および5×の倍率について複数のエンコーダおよび対応するデコーダを有するが、連結は、エンコーダ-デコーダアーキテクチャの端部においてのみ行われる。他のアーキテクチャとの公平な比較のために重み付けCNNは除外されることに留意されたい。最後に、図4(d)における多重エンコーダ多重デコーダ多重連結(MEMDMC)アーキテクチャは、複数のエンコーダおよびデコーダを有し、20×デコーダのための特徴マップを強化するためにデコーダにおける複数の層間の連結を有する。
CNNトレーニング
セクションII-Cからの平衡をとられたパッチのセットを用いてマルチクラスセグメンテーションCNNをトレーニングする。重み付けされたクロスエントロピーを、パッチにおけるN個のピクセルおよびC個のクラスでのトレーニング損失関数として用いることができる。
Figure 2022550413000002
(1)
ここで、
Figure 2022550413000003
および
Figure 2022550413000004
は、それぞれクラスcのための2次元グランドトゥルースおよびセグメンテーション予測である。
Figure 2022550413000005
は、ピクセルロケーションpにおけるクラスcのためのバイナリグランドトゥルース値であり、0または1であり、
Figure 2022550413000006
は、0~1のピクセルロケーションpにおけるクラスcのためのセグメンテーション予測値である。式1において、クラスcのための重みであるwcは以下のように定義される。
Figure 2022550413000007
(2)
ここで、Ncは、トレーニングセット内のクラスcのためのピクセル数である。ラベル付けされていないピクセルはトレーニング損失関数に寄与しないことに留意されたい。5×10-5の学習レート、0.99の運動量、および10-4の重み減衰を有する確率的勾配降下法(SGD)を、最適化のために20エポックにわたって用いることができる。検証画像における最高平均IOU(mIOU:mean intersection-over-union)を有するCNNモデルが最終モデルとして選択される。トレーニング中、回転、垂直および平行フリップ、明るさ、コントラスト、ならびにカラージッタリングを用いたデータ拡張が用いられる。
マルチクラスセグメンテーション
乳房画像に対するマルチクラス組織セグメンテーションは、トレーニングされたCNNを用いて行うことができる。各ピクセルにおける最終的なラベルは、C個のクラス間の最も大きな予測値を有するクラスとして選択される。1024×1024ピクセルのサイズを有する入力パッチが全体スライド画像から抽出され、セクションII-Bに記載のプロセスによって、20×、10×および5×の倍率における256×256ピクセルのサイズを有する3つのパッチのセットが生成される。3つのパッチのセットは、トレーニングされたCNNによって処理される。256×256ピクセルのサイズを有するセグメンテーション予測は、入力パッチの中心ロケーションに位置する。入力パッチは、WSI全体を処理するためにxおよびy方向において256ピクセルのストライドを用いてWSIの左上角部から抽出される。WSIの境界においてゼロパディングを行い、入力パッチを抽出する。セグメンテーションプロセスを加速するために、背景領域を除去するためのオプションとして、パッチを抽出する前にOtsu閾値処理技法を用いることができる。
III. 実験結果
このアーキテクチャの目的は、乳房マージンデータセットにおけるがん領域をセグメンテーションすることである。乳房マージンデータセットからの画像は、小さながん領域を有するか、またはがん領域を有しない。大きな浸潤性乳管がん(IDC)領域を含むトリプルネガティブ乳がん(TNBC)データセットを用いて、CNNモデルをトレーニングすることができる。TNBCデータセットおよび乳房マージンデータセットにおける全ての全体スライド画像は、ヘマトキシリン-エオジン(H&E)染色され、Memorial Sloan Kettering Cancer Centerからデジタル化された。TNBCデータセットは、Aperio XTによって走査され、ここで、20×におけるミクロン毎ピクセル(MPP)は、0.4979であり、乳房マージンデータセットは、Aperio AT2によって走査され、ここで20×におけるMPPは0.5021である。
38個の画像がTNBCデータセットから部分的にアノテーションされた。TNBCデータセットは、26個のトレーニング画像、6個の検証画像、および6個の試験画像として分割された。TNBCデータセットにおいて、がん、良性上皮、背景、間質、壊死および脂肪である6つのクラス(C=6)を用いることができる。背景は、組織でない領域として定義されることに留意されたい。ここで、全体スライド画像のピクセルのうちの5.48%がアノテーションされた。クラス間のアノテーションされたピクセル数の平衡をとるために、値r2=10、r1=2、r5=3、r3=1、r4=0およびr6=0が実験的に設定され、ここで、r1、r2、r3、r4、r5およびr6は、それぞれ、がん、良性上皮、背景、間質、壊死および脂肪の弾性変形レートである。がん領域を正確にセグメンテーションし、良性上皮を分離して誤ったセグメンテーションを低減するために、良性上皮が最も高いクラス順位として選択され、がん、壊死および背景がそれに続いた。図5は、弾性変形を用いてクラス間のアノテーションされたピクセル数の平衡がとられることを示す。単一のNVIDIA GeForce GTX TITAN X GPUを用いると、トレーニングプロセスは、約3日かかった。
図6および図7は、単一エンコーダ単一デコーダ(SESD)アーキテクチャ、多重エンコーダ単一デコーダ(MESD)アーキテクチャ、多重エンコーダ多重デコーダ単一連結(MEMDSC)アーキテクチャ、および提案される多重エンコーダ多重デコーダ多重連結(MEMDMC)アーキテクチャの、スライドレベルおよび10×倍率の両方のマルチクラスセグメンテーション予測を示す。ここで、がんは赤色、良性上皮は青色、背景は黄色、間質は緑色、壊死は灰色、脂肪は橙色でラベル付けされる。図6(b)、図6(h)および図7(b)、図7(h)における白色領域はラベル付けされていないことに留意されたい。脂肪領域は、それらのピクセル強度に起因して背景として予測されることが観測されたため、Otsu閾値処理技法はTNBCデータセットに対するセグメンテーションには用いられない。Otsu閾値処理技法がなければ、1つのWSIに対するセグメンテーションは、単一のGPUを用いて約15分かかる。SESDは、正確なセグメンテーション予測を行うには視野が狭いため、サブタイプ間の正確な境界を生成しないことが観測されている。MESDは、場合によっては、がんと良性上皮とを区別することができない。MEMDSCおよびMEMDMCは、TNBC画像のための正確なセグメンテーション予測を生成する。
乳房マージン画像は、同じマルチクラスセグメンテーションモデルを用いて処理された。全てのがん領域は、正確な評価のために包括的にアノテーションされた。図8および図9は、乳房マージン画像におけるセグメンテーション予測を、スライドレベルおよび10×の倍率の両方で示す。乳房マージン画像のがんセグメンテーションは、がん領域は赤色、良性上皮、背景、間質、壊死および脂肪を含む非がん領域は黄色でラベル付けされるように行うことができる。Otsu閾値処理技法は、全体スライド画像を傾ける前に、乳房マージン画像に対しがん領域をセグメンテーションする処理時間を低減するために用いられた。Otsu閾値処理技法を用いると、1つのWSIに対するセグメンテーションは、単一のGPUを用いて約2分かかる。SESDは、不正確な境界を用いたセグメンテーション予測を依然として生成する。大きな非がん領域は、MEMDSCによって、がんとして誤ってセグメンテーションされることが観測されている。MESDおよびMEMDMCは、乳房マージン画像のためのがん領域に対する正確なセグメンテーションを生成する。
予測は、IOU(intersection-over-union)、リコールおよび精度を用いて数値的に評価された。IOU、リコールおよび精度は以下のように定義される。
Figure 2022550413000008
(3)
Figure 2022550413000009
(4)
Figure 2022550413000010
(5)
ここで、NTP、NFPおよびNFNは、それぞれ、真陽性、偽陽性および偽陰性のピクセル数である。表I、表IIおよび表IIIは、それぞれ、TNBCデータセットにおけるIOU、リコールおよび精度値を示す。表I、表IIおよび表IIIにおける評価は、部分的にアノテーションされたTNBC画像を用いて行われたことに留意されたい。方法(MEMDMC)は他のアーキテクチャよりも性能が優れている。特に、がんおよび良性上皮を分離することは、類似の形態学的パターンに起因して困難であることが知られているが、この方法は、がんおよび良性上皮の両方について最高IOUを有する。表IVは、乳房マージンデータセットにおけるがん領域に対する4つのモデルにおけるIOU、リコールおよび精度を示す。モデルは、TNBCデータセットに対しトレーニングされ、乳房マージン画像が試験セットのために確保された。10個の乳房マージン画像内のピクセルの0.188%のみががんとして網羅的にラベル付けされたことに留意されたい。SESDおよびMEMDSCは、多くの非がん領域ががんとしてセグメンテーションされることに起因して低精度の値を有する。MESDは、乳房マージン画像におけるがん領域のセグメンテーションに成功することができるが、TNBCデータセットにおいて良好にセグメンテーションしない。この数値的解析は、提案されるMEMDMCモデルが両方のデータセットに対し良好ながんセグメンテーション性能を有することを示し、モデルが未知のデータセットに対して一般化することに成功することができることを証明する。
表1 TNBCデータセットにおけるIOU(Intersection Over Union)
Figure 2022550413000011


表II TNBCデータセットにおけるリコール
Figure 2022550413000012


表III TNBCデータセットにおける精度
Figure 2022550413000013


表IV 乳房マージンデータセットにおけるがん領域についてのIOU(Intersection Over Union)、リコールおよび精度
Figure 2022550413000014
IV. 結論
本明細書には、全体スライド画像における正確なマルチクラス組織セグメンテーションのための深層多重倍率ネットワーク(DMMN)が記載されている。モデルは、アノテータのための時間および労力を低減するために部分的にアノテーションされた画像によってトレーニングされる。アノテーションが部分的に行われたが、モデルは、クラス内の空間特性のみでなく、クラス間の空間関係も学習可能であった。DMMNアーキテクチャは、より正確な予測を行うためにより広い視野を有するように、20×、10×および5×の全ての倍率を見る。10×および5×のデコーダにおける中間特徴マップを20×のデコーダに転送して特徴マップを強化することによって、以前のDMMNを改善することも可能であった。
実施態様により、複数の乳房データセットにおける優れたセグメンテーション性能を達成した。特に、乳房マージン画像における自動がんセグメンテーションを用いて、患者の未来の治療を決定することができる。モデルは、主に浸潤性乳管がんによってトレーニングされたため、乳房画像に存在する低グレードの高分化型がんのセグメンテーションに成功しない場合があることが観測されている。将来的に、トレーニング中に様々ながん構造が含まれるより正確なDMMNモデルを開発することができる。
B. マルチクラス乳がん画像セグメンテーションのための深層多重倍率ネットワークのための第2の手法
I. 序論
乳がんは女性が診断される最も一般的ながんである。米国における女性の約12%が生涯の間に乳がんと診断される。病理学者は、腫瘍成長パターンおよび核細胞特徴を含む多岐にわたる形態学的特徴に基づいて乳がんを診断する。乳房組織の病理学的評価は、患者の臨床管理を指定し、予後情報を提供する。多岐にわたる生検および手術標本からの乳房組織が病理学者によって評価される。例えば、早期の乳がん患者は多くの場合、乳房温存手術、またはがんを含む乳房組織の一部分を除去する腫瘍摘出手術を受ける。手術切除の完全性を判断するために、腫瘍摘出手術標本の縁部、すなわちマージンが、病理学者によって顕微鏡により評価される。がんの局所再発のリスクを最小限にするために、陰性マージン(マージンに接触するがんが見つからない)を達成することが重要である。追加の手術の必要性を判断するために、病理学者によるマージンの正確な解析が重要である。マージン標本の病理学的解析は、病理学者が事例あたりおよそ20~40個の組織学的スライドを調べることを伴い、このプロセスは時間がかかり、冗長であり得る。組織学的ガラススライドをデジタル走査する能力の増大に伴い、計算的病理学手法は、標本の全体スライド画像(WSI)を評価することによってこのプロセスの効率および精度を潜在的に改善し得る。
WSIを解析するために様々な手法が用いられてきた。ほとんどのモデルは、デジタルスライドにおける対象(すなわち、組織学的特徴)の位置特定、検出、分類およびセグメンテーションを含む。組織病理学的特徴は、核特徴、細胞/間質構造、または組織等のパターンベースの識別情報を含む。計算病理学は、サイズ、形状、それらの関係性等の、核特徴を抽出するために、核セグメンテーションにおいて用いられてきた。核セグメンテーションは、核密度が高い領域を見つけるために、適応閾値処理およびモルフォロジー演算によって行われる。乳がんのグレード分類方法は、ベイズ分類器および領域知識からの構造制約を用いた腺および核のセグメンテーションによって展開することができる。重なり合った核およびリンパ球をセグメンテーションするために、領域、境界および形状に基づく統合されたアクティブな輪郭が提示される。前立腺組織における腺セグメンテーションおよび分類方法が導入される。ここでは、核、細胞質および管腔からの構造的特徴およびコンテキスト特徴を用いて、アーチファクト、正常な腺および腺がんを分類する。これらの核セグメンテーションに基づく手法は、がん領域の核および構造の形状がWSIにおいて捕捉された組織において大きな変動を有する場合があるため、困難である。
近年、大きなトレーニングデータセットの利用可能性、およびグラフィック処理装置(GPU)の進化に起因して、自動画像解析のために機械学習のタイプの深層学習が用いられてきた。非線形活性化関数を有する深層から構成された深層学習モデルは、より精緻な特徴を学習することを可能にする。特に、画像における畳込みニューラルネットワーク(CNN)学習空間特徴は、画像分類、物体検出および意味論的セグメンテーションにおける優れた成果を示した。ピクセル単位の分類とも呼ばれる意味論的セグメンテーションのために開発された完全畳込みネットワーク(FCN)は、画像内の対象のロケーション、サイズおよび形状を理解することができる。FCNは、エンコーダおよびデコーダから構成され、ここで、エンコーダは入力画像の低次元特徴を抽出し、デコーダは、低次元特徴を利用してセグメンテーション予測を生成する。セグメンテーション予測を改善するために、SegNetは最大アンプーリング層を導入し、ここで、エンコーダにおける最大プールインデックスが記憶され、デコーダにおける対応するアップサンプリング層において用いられる。意味論的セグメンテーションは、生物学的構造を自動的にセグメンテーションするために医療画像において用いられてきた。例えば、U-Netは、顕微鏡画像において細胞をセグメンテーションするのに用いられる。U-Netアーキテクチャは、空間情報を保持するためにエンコーダからデコーダまで特徴マップを転送する連結を有する。このアーキテクチャは、生物医学的画像に対するより正確なセグメンテーション予測を示した。
近年、深層学習は、計算病理学コミュニティにおいて高い注目を受けている。研究者らは、単純な3層CNNを用いることによる、WSIにおける浸潤性乳がん検出の自動識別を示した。CNNを用いて間質領域を解析することにより、乳房組織スライドを浸潤性がんまたは良性に分類する方法が説明される。更に近年、複数インスタンス学習ベースのCNNは、CNNが15,187人の患者からの44,732個のWSIによってトレーニングされる場合に100%の感度を達成する。パブリック病理学データセットの利用可能性は、計算病理学のための多くの深層学習手法を開発することに寄与する。例えば、リンパ節転移を検出するための乳がんデータセットがCAMELYON challengeのためにリリースされ、乳がんデータセットを解析するためにいくつかの深層学習技法が開発されている。
WSIに対し深層学習を用いることの1つの難点は、単一のWSI全体のサイズが、GPUに入れて処理するには大きすぎることである。予めトレーニングされたCNNによって処理されるように画像をダウンサンプリングすることができるが、WSIにおける臨床診断に必要な重大な詳細は失われる。これを解決するために、通常、スライドレベルの手法の代わりに、パッチベースの手法が用いられる。ここで、パッチは、WSIから抽出され、CNNによって処理される。スライドレベルで分類するためにマルチクラスロジスティック回帰が辿るパッチベースのプロセスが記載される。CAMELYON 16 challengeの勝者は、Otsu閾値処理技法を用いて組織領域を抽出し、パッチベースのモデルをトレーニングして腫瘍パッチおよび非腫瘍パッチを分類する。性能を増大させるために、腫瘍パッチと非腫瘍パッチとの間のクラス平衡、ならびに、回転、フリップ、およびカラージッタリング等のデータ拡張技法が用いられる。加えて、CAMELYON 17 challengeの勝者は、より正確な予測のためにパッチ重複戦略を開発する。パッチは、乳房WSIにおけるサブタイプをセグメンテーションするために、同じ倍率の境界領域を含む追加のより大きなパッチと共に処理される。代替的に、パッチ間の表現を共有するために、WSIにおけるパッチから生成された特徴を収集する表現-集約CNNが開発されている。パッチベースの手法は、(1)病理学者が狭い視野でパッチレベルのスライドを見ず、(2)複数の倍率からスライド上の様々な特徴を抽出するようにズームレベルを頻繁に切り替えるため、現実的でない。
より現実的なCNNを開発するために、複数の倍率でパッチのセットを入力し、視野を増大させ、他の倍率から更なる情報を提供することが必要とされる。高倍率パッチは、核特徴等の細胞レベルにおける詳細を提供するのに対し、低倍率パッチは、良性および悪性プロセスの組織タイプおよび構造的成長パターンの分布を実証する。図1は、深層単一倍率ネットワーク(DSMN)および深層多重倍率ネットワーク(DMMN)間の差を示す。図10(a)におけるDSMNへの入力は、20×の単一の倍率における256×256ピクセルのサイズを有する単一のパッチであり、これにより視野が制限される。図10(b)におけるDMMNへの入力は、20×、10×および5×の複数の倍率における256×256ピクセルのサイズを有するパッチのセットであり、より広い視野を可能にする。DMMNは、より広い視野で複数の倍率を提供することによって、病理学者が顕微鏡を用いてスライドを見る方式を模倣することができ、これにより、より正確な解析を生じさせることができる。
複数の倍率を用いて組織サンプルからの画像を解析するいくつかの作業が存在する。多重入力多重出力CNNは、複数の分解能で入力画像を解析して、蛍光顕微鏡画像において細胞をセグメンテーションすることによって導入される。同様に、染色認識マルチスケールCNNが、例えば組織学画像における細胞セグメンテーションのために更に設計される。CAMELYONデータセットにおいて腫瘍領域をセグメンテーションするために、バイナリセグメンテーションCNNが記載される。この作業では、異なる倍率の4つのエンコーダが実装されるが、1つのデコーダのみを用いて最終セグメンテーション予測を生成する。更に近年、異なる倍率の3つのエキスパートネットワークから構成されたCNNアーキテクチャ、入力パッチに基づいて特定の倍率を強調するための重みを自動的に選択する重み付けネットワーク、および最終セグメンテーション予測を生成する集約ネットワークが開発されている。ここで、特徴マップは、最後の層まで3つのエキスパートネットワーク間で共有されず、これは複数の倍率からの特徴マップの利用を制限する可能性がある。アーキテクチャはより低い倍率で設計され、中心クロップ特徴マップはより低い倍率であり、次に、連結中にサイズおよび倍率を合わせるように、クロップされた特徴マップがアップサンプリングされる。これもまた、より低い倍率においてクロップされた境界領域における特徴マップの利用を制限する可能性がある。
本明細書には、乳房組織の画像における複数のサブタイプを正確にセグメンテーションするための深層多重倍率ネットワーク(DMMN)が提示される。DMMNアーキテクチャは、中間層内でより豊富な特徴マップを有するように、複数のエンコーダ、複数のデコーダ、およびデコーダ間の複数の連結を有する。より低い倍率における特徴マップを完全に利用するために、中間特徴マップは連結中に中心をクロップすることができる。各層において中間特徴マップを連結することによって、複数の倍率からの特徴マップを用いて正確なセグメンテーション予測を生成することができる。DMMNをトレーニングするために、アノテーションの負担を低減する際と同様にWSIを部分的にアノテーションすることができる。部分的アノテーションによってトレーニングされたDMMNモデルは、各サブタイプの特徴を学習するのみでなく、サブタイプ間の形態学的関係、特に1つのサブタイプから境界領域上の別のサブタイプへの遷移も学習することができ、これは優れたセグメンテーション性能につながる。多重倍率モデルは、2つの乳房データセットに対し試験することができ、モデルが他のアーキテクチャよりも一貫して性能が優れていることを観測することができる。本方法を用いて乳房画像上のがん領域を自動的にセグメンテーションし、患者のステータスの診断を支援し、未来の治療を決定することができる。この作業の主な寄与は以下である。(1)より正確なセグメンテーション予測のために様々な倍率の特徴マップを組み合わせる深層多重倍率ネットワーク、および(2)病理学者のアノテーション時間を節減し、それでもなお高い性能を達成するための部分的アノテーションの導入。
II. 提案される方法
図11は、提案される方法のブロック図を示す。目標は、深層多重倍率ネットワーク(DMMN)を用いて乳房画像における複数のサブタイプをセグメンテーションすることである。まず第1に、手動のアノテーションがC個のクラスのトレーニングデータセットに対し行われる。ここで、このアノテーションは、部分的に、効率的で高速なプロセスのために行われる。マルチクラスセグメンテーションDMMNをトレーニングするために、パッチは全体スライド画像(WSI)および対応するアノテーションから抽出される。抽出されたパッチを用いてDMMNをトレーニングする前に、弾性変形を用いてレアクラスに属するパッチを増倍させ、クラス間のアノテーションされたピクセル数の平衡をとることができる。トレーニングステップが行われた後、乳がん画像のマルチクラスセグメンテーションのためにモデルを用いることができる。
部分的アノテーション
教師あり学習にはアノテーションの大きなセットが必要とされるが、これは通常、病理学者の時間および労力を必要とするコストの高いステップである。特に、画像サイズのギガピクセルスケールに起因して、WSI内の全てのピクセルをラベル付けする包括的なアノテーションは実用的でない。CAMELYONデータセット等のパブリックデータセットを用いて多くの作業が行われるが、パブリックデータセットは特定の用途のために設計されたものであり、他の用途には一般化されない場合がある。乳房トレーニングデータセット上の複数の組織サブタイプをセグメンテーションするために、画像を部分的にアノテーションすることができる。
部分的アノテーションの場合、(1)サブタイプ間の密接した境界領域にアノテーションする一方でこれらのラベル付けされていない領域の厚みを最小限にし、(2)クロッピングなしで全体サブタイプコンポーネントをアノテーションすることを回避することができる。特に境界領域における、重複部分および後続の不正確なラベリングのない包括的アノテーションは、領域が互いにシームレスにマージすることを考えると困難である可能性がある。加えて、完全で包括的なラベル付けに必要とされる時間は莫大である。これらのラベル付けされていない境界領域の厚みを最小限にすることによって、部分的アノテーションによってトレーニングされるCNNモデルは、1つのサブタイプから別のサブタイプへの遷移等のサブタイプ間の空間関係を学習し、正確なセグメンテーション境界を生成することができる。これは、異なるサブタイプのアノテーションされた領域が過度に広く離間され、このため、それらの間の空間的関係性をトレーニングするのに適していない場合に行われる部分的アノテーションとは異なる。この作業は、アノテーションの労力を低減するために、WSIのサブ領域における包括的アノテーションも示唆するが、サブタイプコンポーネントがクロッピングされている場合、CNNモデルは異なるサブタイプの成長パターンを学習することができない。CNNモデルに全てのサブタイプの成長パターンを学習させるため、各サブタイプコンポーネントを全体的にアノテーションすることができる。図12(a)は、熟練した病理学者が1つのWSIを部分的にアノテーションするのに概ね30分を費やし得る部分的アノテーションの例を示す。図12(b)における白色領域がラベル付けされていないことに留意されたい。
トレーニングパッチ抽出
全体スライド画像は、通常、畳込みニューラルネットワークを用いてスライドレベルにおいて処理するには過度に大きい。WSIを解析するために、パッチベースの方法が用いられる。ここで、画像から抽出されたパッチは、CNNによって処理され、次に、出力がスライドレベル解析のために組み合わされる。パッチベースの方法の1つの制限は、限られた視野で単一の倍率でのみパッチを見ることである。
より広い視野を得るために、多重倍率パッチのセットを抽出してDMMNをトレーニングする。ターゲットパッチのサイズは、WSIにおいて解析されるように設定することができ、20×の倍率において256×256ピクセルとすることができる。ターゲットパッチを解析するために、20×における1024×1024ピクセルのサイズを有する入力パッチが画像から抽出され、ここで、ターゲットパッチは入力パッチの中心に位置する。この入力パッチから、3つの多重倍率パッチのセットが抽出される。第1のパッチは、20×において256×256ピクセルのサイズを有する入力パッチの中心から抽出され、これはターゲットパッチと同じロケーションおよび倍率である。第2のパッチは、512×512ピクセルのサイズを有する入力パッチの中心から抽出され、10×において256×256ピクセルのサイズとなるように係数2でダウンサンプリングされる。最後に、第3のパッチは、5×において256×256ピクセルのサイズになるように係数4で入力パッチをダウンサンプリングすることによって生成される。異なる倍数における3つのパッチのセットは、256×256ピクセルのサイズを有するターゲットパッチにおいてがんをセグメンテーションするためのDMMNに対する入力となる。入力パッチは、対応するターゲットパッチにおける1%を超えるピクセルがアノテーションされている場合、トレーニング画像から抽出される。xおよびy方向へのストライドは、ターゲットパッチの重複を回避するために256ピクセルである。ターゲットパッチは複数のクラスラベルを有する場合があることに留意されたい。
クラス平衡
クラス平衡は、正確な性能のためにCNNをトレーニングするために必須のステップである。1つのクラスにおけるトレーニングパッチの数が別のクラスにおけるトレーニングパッチの数よりも多い場合、CNNはマイナークラスからの特徴を適切に学習することができない。この作業では、アノテーションにおいてクラス不均衡が観測される。例えば、がん領域におけるアノテーションされたピクセルの数は、良性上皮領域におけるアノテーションされたピクセルの数よりも多い。クラス間の平衡をとるために、弾性変形を用いてマイナークラスに属するトレーニングパッチを増倍させる。
生物学的構造の曲がりくねった形状に起因して、弾性変形は、生物医学的画像におけるデータ拡張として広く用いられている。パッチに対し弾性変形を行うために、パッチにおける格子点のセットが選択され、σの標準偏差を有する正規分布によってランダムに変位される。格子点の変位に従って、パッチ内の全てのピクセルがバイキュービック補間によって変位される。格子点は、核の過剰な歪みにより特徴を失うことを回避するために、経験的に、17×17およびσ=4に設定することができる。
増倍されるパッチの数は、クラス間のピクセル数の平衡をとるために注意深く選択される必要がある。ここで、パッチを増倍させるときのクラスの順位を決定するために、クラスcおよびクラス順位について増倍されるパッチ数となるように、弾性変形レートをクラスcについて定義することができ、これはrcとして表される。レートは、各クラスにおけるピクセル数に基づいて選択することができる。レートは、非負の整数であり、レートが0である場合、弾性変形は実行されない。クラス順位は、用途に基づいて決定することができる。例えば、がん領域における正確なセグメンテーションを所望する場合、がんのクラスは他のクラスよりも高い順位を有する。パッチを増倍させるために、各パッチは、パッチがcに分類されたピクセルラベルを含む場合、クラスcに分類される必要がある。パッチが複数のクラスにおけるピクセルを含む場合、より高いクラス順位を有するクラスがパッチのクラスとなる。パッチが分類された後、パッチのrc数が、弾性変形を用いてクラスc内のパッチ毎に増倍される。クラス平衡が行われると、全てのパッチを用いてCNNをトレーニングする。
CNNアーキテクチャ
図13は、マルチクラス組織セグメンテーションのための深層単一倍率ネットワーク(DSMN)および深層多重倍率ネットワーク(DMMN)のアーキテクチャを示す。入力パッチのサイズは256×256ピクセルであり、出力予測のサイズは256×256ピクセルである。CONV_BLOCKは、1のパディングを有する3×3のカーネルサイズを有する畳込み層の2つのセットを含み、一連の正規化線形ユニット(ReLU)活性化関数が後続する。CONV_TR_uは、転置畳込み層を含み、ReLU活性化関数が後続する。ここで、uはアップサンプリングレートである。CONV_TR_4は、一連の2つのCONV_TR2から構成されることに留意されたい。CONV_FINALは、1のパディングを有する3×3のカーネルサイズを有する畳込み層、ReLU活性化関数、およびC個のチャネルを出力するための1×1のカーネルサイズを有する畳込み層を含む。最終セグメンテーション予測は、ソフトマックス演算を用いて生成される。緑色の矢印は、係数2による最大プール演算であり、赤い矢印は、中心クロップ演算であり、ここでクロップレートは赤色で書かれている。中心クロップ演算は、次の演算に向けて特徴マップのサイズおよび倍率を適合させるためにクロップレートによって全てのチャネルにおける特徴マップの中心領域をクロッピングする。中心クロップ演算中、クロップレートがそれぞれ2および4である場合、クロップされた特徴マップの幅および高さは、入力特徴マップの幅および高さの半分および4分の1になる。
図13(a)におけるオリジナルU-Netアーキテクチャは、20×における単一の倍率パッチを用いて対応するセグメンテーション予測を生成する。図13(b)における単一エンコーダ単一デコーダ(DMMN-S2)アーキテクチャは、20×、10×および5×の倍率における複数のパッチを用いるが、これらは連結され、U-Netアーキテクチャに対する入力として用いられる。作業によって動機付けられた図13(c)における多重エンコーダ単一デコーダ(DMMN-MS)アーキテクチャは、20×、10×および5×の倍率における複数のエンコーダを用いるが、エンコーダから10×および5×における特徴マップを転送することによって、20×における単一のデコーダのみを用いる。作業によって動機付けられた図13(d)における多重エンコーダ多重デコーダ単一連結(DMMN-M2S)アーキテクチャは、20×、10×および5×の倍率について複数のエンコーダおよび対応するデコーダを有するが、連結は、エンコーダ-デコーダ対の端部においてのみ行われる。ここで、他のアーキテクチャとの公平な比較のために重み付けCNNは除外される。最後に、図13(e)における提案される多重エンコーダ多重デコーダ多重連結(DMMN-M3)アーキテクチャは、複数のエンコーダおよびデコーダを有し、10×および5×におけるデコーダから20×におけるデコーダに特徴マップを強化するために複数の層におけるデコーダ間の連結を有する。加えて、10×および5×におけるデコーダから20×におけるデコーダに特徴マップを転送して、10×および5×における特徴を可能な限り多く抽出している間、中心クロップ演算を用いることができる。DMMN-MSおよびDMMN-M2Sが、10×および5×レベルにおいて中心クロップ演算を用い、ここで、連結前のクロップ領域は、より低い倍率における特徴抽出プロセスを制限する可能性があることに留意されたい。
CNNトレーニング
上記からの平衡をとられたパッチのセットを用いてマルチクラスセグメンテーションCNNをトレーニングする。重み付けされたクロスエントロピーが、パッチにおけるN個のピクセルおよびC個のクラスでのトレーニング損失関数として用いられる。
Figure 2022550413000015
(1)
ここで、
Figure 2022550413000016
および
Figure 2022550413000017
は、それぞれクラスcのための2次元グランドトゥルースおよびセグメンテーション予測である。
Figure 2022550413000018
は、ピクセルロケーションpにおけるクラスcのためのバイナリグランドトゥルースであり、0または1であり、
Figure 2022550413000019
は、0~1のピクセルロケーションpにおけるクラスcのためのセグメンテーション予測値である。式1において、クラスcのための重みであるwcは以下のように定義される。
Figure 2022550413000020
(2)
ここで、Ncは、トレーニングセット内のクラスcのためのピクセル数である。ラベル付けされていないピクセルはトレーニング損失関数に寄与しない。20エポックにわたる、5×10-5の学習レート、0.99の運動量、および10-4の重み減衰を有する確率的勾配降下法(SGD)を最適化のために用いることができる。検証画像における最高平均IOU(mIOU:mean intersection-over-union)を有するCNNモデルが最終モデルとして選択される。トレーニング中、ランダム回転、垂直および平行フリップ、明るさ、コントラスト、ならびにカラージッタリングを用いたデータ拡張が用いられる。
マルチクラスセグメンテーション
乳房画像に対するマルチクラス組織セグメンテーションは、トレーニングされたCNNを用いて行うことができる。各ピクセルにおける最終的なラベルは、C個のクラス間の最も大きな予測値を有するクラスとして選択される。1024×1024ピクセルのサイズを有する入力パッチがWSIから抽出され、上記に記載のプロセスによって、20×、10×および5×の倍率における256×256ピクセルのサイズを有する3つのパッチのセットが生成される。3つのパッチのセットは、トレーニングされたCNNによって処理される。256×256ピクセルのサイズを有するセグメンテーション予測は、入力パッチの中心ロケーションに位置する。入力パッチは、WSI全体を処理するためにxおよびy方向において256ピクセルのストライドを用いてWSIの左上角部から抽出される。WSIの境界においてゼロパディングを行い、入力パッチを抽出する。セグメンテーションプロセスを加速するために、背景領域を除去するためのオプションとして、パッチを抽出する前にOtsu閾値処理技法を用いることができる。セグメンテーション中、前処理ステップは用いられない。
III. 実験結果
2つの乳房データセット、データセット-Iおよびデータセット-IIを用いて、様々なマルチクラス組織セグメンテーション方法をトレーニングし、評価した。データセット-Iは、浸潤性乳管がん(IDC)を含むトリプルネガティブ乳がん(TNBC)を有する全体スライド画像(WSI)から構成される。データセット-IIは、様々な組織学的グレードのIDCおよび非浸潤性乳管がん(DCIS)を含む腫瘍摘出手術および乳房マージンからのWSIから構成される。データセットIおよびデータセットIIにおける全てのWSIは異なる患者からのものであり、ヘマトキシリン-エオジン(H&E)染色され、Memorial Sloan Kettering Cancer Centerからデジタル化された。データセット-Iは、Aperio XTによってデジタル化され、ここで、20×におけるミクロン毎ピクセル(MPP)は、0.4979であり、データセット-IIは、Aperio AT2によってデジタル化され、ここで20×におけるMPPは0.5021である。データセット-IにおけるWSIは、2人の病理学者によって部分的にアノテーションされ、データセット-IIにおけるWSIは別の病理学者によって部分的にアノテーションされた。
モデルをトレーニングするために、データセット-Iからの32個のトレーニング画像が用いられた。ここで、検証のために6つの画像が分離された。トレーニング中、データセット-IIからの画像は用いられなかった。発明者らの作業において、トレーニングWSIのピクセルのうちの5.34%のみがアノテーションされた。発明者らのモデルは、がん、良性上皮、背景、間質、壊死および脂肪である6つのクラス(C=6)を予測することができる。背景は、組織でない領域として定義されることに留意されたい。クラス間のアノテーションされたピクセル数の平衡をとるために、以下のパラメータを、r2=10、r1=2、r5=3、r3=1、r4=0およびr6=0となるように設定することができ、ここで、r1、r2、r3、r4、r5およびr6は、それぞれ、がん、良性上皮、背景、間質、壊死および脂肪の弾性変形レートである。がん領域を正確にセグメンテーションし、良性の上皮を分離して誤ったセグメンテーションを低減することが望ましい場合があるため、良性上皮が最も高いクラス順位として選択され、がん、壊死および背景がそれに続いた。図14は、弾性変形を用いてクラス間のアノテーションされたピクセル数の平衡がとられることを示す。2つの深層単一倍率ネットワーク(DSMN)、SegNetアーキテクチャおよびU-Netアーキテクチャ、ならびに4つの深層多重倍率ネットワーク(DMMN)、単一エンコーダ単一デコーダ(DMMN-S2)アーキテクチャ、多重エンコーダ単一デコーダ(DMMN-MS)アーキテクチャ、多重エンコーダ多重デコーダ単一連結(DMMN-M2S)アーキテクチャ、ならびに提案される多重エンコーダ多重デコーダ多重連結(DMMN-M3)アーキテクチャをトレーニングすることができる。畳込み層の数、ダウンサンプリングおよびアップサンプリング層の数、ならびにチャネルの数は、この実験において用いられるSegNetアーキテクチャおよび元のU-Netアーキテクチャ間で同じままである。また、DMMN-MS、DMMN-M2SおよびDMMN-M3におけるチャネルの数は、元のU-Netアーキテクチャから2分の1に低減される。表Vは、比較されるモデル、トレーニング可能パラメータの数、およびセグメンテーション時間を列挙し、ここで、セグメンテーション時間は、図15において、単一のNVIDIA GeForce GTX TITAN X GPUを用いて31,500個のパッチを有する53,711×38,380ピクセルのサイズの全体スライド画像に対し測定された。
表V マルチクラスセグメンテーションモデルのトレーニング可能パラメータの数および計算時間
Figure 2022550413000021
データセット-Iからの55個の試験画像およびデータセット-IIからの34個の試験画像が処理され、様々なモデルが評価された。図15、図16および図17は、SegNetアーキテクチャ、U-Netアーキテクチャ、DMMN-S2アーキテクチャ、DMMN-MSアーキテクチャ、DMMN-M2Sアーキテクチャ、および本発明により提案されるDMMN-M3アーキテクチャのマルチクラスセグメンテーション予測を、スライドレベルおよび10×倍率の両方で示す。組織サブタイプは、がんは赤色、良性上皮は青色、背景は黄色、間質は緑色、壊死は灰色、脂肪は橙色等、別個の色でラベル付けされる。図15(b)、図15(j)、図16(b)、図16(j)および図17(b)、図17(j)における白色領域はラベル付けされていない。モデルは、背景雑音に対し敏感であり、背景領域における誤ったセグメンテーションにつながることが観測されるため、Otsu閾値処理技法を用いて、異なるスキャナからデジタル化されたデータセット-IIからWSIの前景領域においてのみパッチを抽出した。図17(c)~図17(f)、図17(i)~図17(l)における白色領域は、Otsu技法によって除去される。
予測は、以下のように定義されるIOU(intersection-over-union)、リコールおよび精度を用いて数値的に評価された。
Figure 2022550413000022
(3)
Figure 2022550413000023
(4)
Figure 2022550413000024
(4)
ここで、NTP、NFPおよびNFNは、それぞれ、真陽性、偽陽性および偽陰性のピクセル数である。表VIおよび表VIIは、それぞれデータセット-Iおよびデータセット-IIにおける平均IOU(mIOU)、平均リコール(mRecall)および平均精度(mPrecision)を示す。表VIおよびVIIにおけるピクセルレベルの評価は、部分的にアノテーションされたグランドトゥルース画像によって行われた。図13および図14は、それぞれデータセット-Iおよびデータセット-IIにおけるモデルからの混同行列を示す。壊死、脂肪および背景は、図19および表VIIにおけるデータセット-IIに対する評価から除外される。なぜなら、(1)データセット-IIは大きな壊死領域を含まず、(2)脂肪および背景領域のほとんどがOtsu技法に起因してセグメンテーションされなかったためである。
表VI データセット-Iにおける平均IOU、リコールおよび精度
Figure 2022550413000025


表VII データセット-IIにおける平均IOU、リコールおよび精度
Figure 2022550413000026

データセット-Iにおける本発明の視覚的および数値的評価に基づいて、両方のDSMNが、それらの狭い視野に起因して、図15(k)、図15(l)および図11(k)、図11(l)に示すサブタイプ間でブロックノイズのある(blocky)境界を有した。複数の倍率からのパッチがモデル内で早期に連結されることにより、複数の倍率からの様々な特徴を完全に抽出することができないため、DMMN-S2も、図15(m)および図16(m)に示すサブタイプ間でブロックノイズのある境界を有した。これらのブロックノイズのある予測は、表VIにおける低mIOU、低mRecallおよび低mPrecisionにつながった。DMMN-MSおよびDMMN-M2Sは、サブタイプ間のより平滑な境界を有したが、サブタイプ全体を通じて一貫した予測を有していなかった。例えば、DMMN-MSおよびDMMN-M2Sは、図18(d)、図18(e)によれば、壊死の予測に成功することができない。発明者らの提案されるDMMN-M3は、図18(f)に示す全てのサブタイプ全体にわたって正確な予測を示し、表VIにおける最良のmIOU、mRecallおよびmPrecisionにつながった。
発明者らのモデルは、データセット-Iに対しトレーニングされ、発明者らの試験セットのために、異なる病理学者によってアノテーションされるデータセット-II内の画像が確保された。本発明者らは、依然として、図17(k)、図17(l)、図17(m)に示すデータセット-IIに対するSegNet、U-NetおよびDMMN-S2によって行われる予測におけるブロックノイズのある境界を観測した。本発明者らは、大きな領域が図17(g)、図17(o)において良性上皮として誤ってセグメンテーションされる、DMMN-M2Sによる予測が成功しなかったことに気がついた。DMMN-MSおよびDMMN-M3は、図17(n)、図17(p)に示す最良の予測を生成した。mIOU、mRecallおよびmPrecisionに基づく数値解析はU-NetおよびDMMN-M3間で比較可能であるが、図17(a)~図17(p)における視覚的解析は、部分的にアノテーションされたグランドトゥルースによって捕捉されない劇的な差を示す。図17(a)~図17(p)は、サブタイプ間のより平滑でより明確な境界を有する提案されたDMMN-M3が、包括的にアノテーションされたグランドトゥルースを有する最新技術よりも性能が優れていることを実証している。
IV. 結論
深層多重倍率ネットワーク(DMMN)が、全体スライド画像における正確なマルチクラス組織セグメンテーションについて記載されている。モデルは、アノテータのための時間および労力を低減するために部分的にアノテーションされた画像によってトレーニングされる。アノテーションが部分的に行われたが、発明者らのモデルは、クラス内の空間特性のみでなく、クラス間の空間関係も学習可能であった。発明者らのDMMNアーキテクチャは、複数の倍率からの特徴マップに基づいてより正確な予測を行うためにより広い視野を有するように、20×、10×および5×の全ての倍率を見る。DMMNは、10×および5×におけるデコーダから20×におけるデコーダに中間特徴マップを転送して特徴マップを強化することによって改善することが可能であった。発明者らの実施態様は、患者の未来の治療を決定するのに用いることができる、乳房データセットに対する優れたセグメンテーション性能を達成した。1つの主要な課題は、発明者らのモデルは、主に浸潤性乳管がんによってトレーニングされたため、乳房画像に存在する低グレードの高分化型がんのセグメンテーションに成功しない場合があることである。また、発明者らのモデルは、全体スライド画像が他のスキャナによってデジタル化される場合、背景領域における誤ったセグメンテーションにつながる可能性がある背景雑音に対し敏感である可能性があることも観測される。トレーニング中に様々ながん構造および背景雑音パターンが含まれる、より正確なDMMNモデルを開発することができる。
C. 生物医学的画像をセグメンテーションするために、多重倍率エンコーダ-デコーダ連結ネットワークを用いて生物医学的画像をセグメンテーションしネットワークをトレーニングするためのシステムおよび方法
図20(a)を参照すると、例示的な実施形態による、多重倍率エンコーダ-デコーダ連結ネットワークを用いて生物医学的画像をセグメンテーションするための環境またはシステム2000のブロック図が示される。概観において、システム2000は、少なくとも1つの画像セグメンテーションシステム2002と、少なくとも1つのイメージャ2004と、少なくとも1つのディスプレイ2006とを備えることができる。画像セグメンテーションシステム2002、イメージャ2004およびディスプレイ2006は、互いに通信可能に結合することができる。画像セグメンテーションシステム2002は、数ある中でも、少なくとも1つのパッチ生成器2008と、少なくとも1つのモデル適用器2010と、少なくとも1つのモデルトレーナ2012と、少なくとも1つのセグメンテーションモデル2014と、少なくとも1つのトレーニングデータセット2016とを備えることができる。セグメンテーションモデル2014は、ネットワーク2018A~Nのセット(以後、全般的にネットワーク2018と呼ばれる)を含むことができる。
上記で列挙したシステム2000におけるコンポーネントの各々は、ハードウェア(例えば、メモリと結合された1つまたは複数のプロセッサ)または本明細書においてセクションBに詳述するようなハードウェアおよびソフトウェアの組合せを用いて実施することができる。システム2000内のコンポーネントの各々は、本明細書において、図1(a)~図4(d)および図5(a)~図9(l)と併せて説明されるようなセクションA、および図10(a)~図13(e)と併せて説明されるようなセクションBに詳述される機能を実施または実行することができる。例えば、セグメンテーションモデル2014は、図4(d)または図13(e)と併せて本明細書に論じられるアーキテクチャの機能を実施するかまたは有することができる。
更なる詳細において、イメージャ2004(本明細書において、場合によっては、顕微鏡イメージャまたは撮像デバイスと呼ばれる)は、少なくとも1つの生物医学的画像2020A(本明細書において、取得画像とも呼ばれる)を取得または生成することができる。生物医学的画像2020Aは、例えば、数ある中でも、ヘマトキシリン-エオジン(H&E)染色、ヘモジデリン染色、スダン染色、シッフ染色、コンゴレッド染色、グラム染色、チール-ネールゼン染色、オーラミン-ローダミン染色、トリクロム染色、銀染色およびライト染色を有する組織学的セクションとすることができる。イメージャ2004は、組織病理学的調査を行うために、被検体(例えば、人間、動物または植物)からの組織セクションから生物医学的画像2020Aを取得することができる。組織サンプルは、人間または動物の被検体の場合、筋肉組織、結合組織、上皮組織または神経組織等、被検体の任意の部分からのものとすることができる。生物医学的画像2020Aを取得するために用いられる組織サンプルは、数ある中でも、腫瘍成長、病変または外傷等の関心領域を有することができる。いくつかの実施形態では、イメージャ2004は、数ある中でも、光学顕微鏡、共焦点顕微鏡、蛍光顕微鏡、燐光顕微鏡、電子顕微鏡を用いる等の顕微鏡技法に従って生物医学的画像2020Aを取得することができる。取得または生成時に、イメージャ2004は、生物医学的画像2020Aを画像セグメンテーションシステム2002に送信または提供することができる。
イメージャ2004は、生物医学的画像2020Aを用いてサンプル生物医学的画像2020Bを生成することができる。サンプル生物医学的画像2020Bの生成時に、イメージャ2004は、トレーニングデータセット2016の一部として記憶するために、サンプル生物医学的画像2020Bを画像セグメンテーションシステム2002に提供することができる。サンプル生物医学的画像2020Bは、生物医学的画像2020Aに関連して上記で論考した技法のうちの1つを用いた染色による組織学的セクションとすることができる。加えて、サンプル生物医学的画像2020Bは、教師あり学習技法に従ってセグメンテーションモデル2014をトレーニングおよび更新するためにトレーニングデータセット2016の一部として含めることができる。
図20(b)を参照すると、例示的な実施形態によるサンプル生物医学的画像2020Bの例の図が示されている。サンプル生物医学的画像2020Bは、少なくとも1つのアノテーション2024A~N(以後、包括的にアノテーション2024と呼ばれる)に関連付けることができる。いくつかの実施形態では、アノテーション2024は、サンプル生物医学的画像2020Bを調査する病理学者によって手動で準備することができる。アノテーション2024は、サンプル生物医学的画像2020B内の各関心領域2026A~N(以後、包括的に関心領域2026と呼ばれる)の少なくとも一部分を示すかまたは他の形でラベル付けすることができる。いくつかの実施形態では、アノテーション2024は、サンプル生物医学的画像2020B内の関心領域2026のエリア、寸法または座標(例えば、ピクセル座標)を指定または定義することができる。
各関心領域2026は、サンプル生物医学的画像2020Bを生成するのに用いられる撮像された組織サンプルにおける腫瘍、病変または他の外傷に対応することができる。いくつかの実施形態では、各関心領域2026は、撮像された組織サンプルにおける異なるタイプ(本明細書において場合によってはサブタイプと呼ばれる)の特徴に対応することができる。各アノテーション2024は、関心領域2026の異なるタイプの特徴にも対応することができる。例えば、撮像された組織サンプルにおける特徴のタイプは、数ある中でも、がん組織、良性上皮組織、間質組織、壊死組織および脂肪組織を含むことができる。示す例において、サンプル生物医学的画像2020Bは、第1のアノテーション2024Aを用いて部分的にラベル付けされた第1の関心領域2026Aを含むことができる。加えて、サンプル生物医学的画像2020Bは、第2のアノテーション2024Bを用いて部分的にラベル付けされた第2の関心領域2026Bを含むことができる。
アノテーション2024は、サンプル生物医学的画像2020B内の対応する関心領域2026を完全にラベル付けするか、または(例えば、示されるように)部分的にラベル付けすることができる。完全にラベル付けされているとき、アノテーション2024は、サンプル生物医学的画像2020B内の対応する関心領域2026をカバーするかまたは実質的に(例えば、90%以上)カバーすることができる。逆に、部分的にラベル付けされているとき、アノテーション2024は、サンプル生物医学的画像2020B内の関心領域2026の一部分(完全未満)を定義することができる。加えて、各アノテーション2024によって定義される部分は、関心領域2026の少なくとも1つの縁部2028と分離させることができる。縁部2028は、2つ以上の関心領域2026の外周または境界を定義することができる。アノテーション2024は、縁部2028から分離距離2030A~N(以後、包括的に分離距離2030と呼ばれる)だけ分離または離して配置することができる。示す例において、関心領域2026Aを部分的にラベル付けする第1のアノテーション2024Aは、縁部2028から第1の距離2030Aだけ分離することができる。更に、関心領域2026Bを部分的にラベル付けする第2のアノテーション2024Bは、縁部2028から第2の距離2030Bだけ分離することができる。アノテーション2024を用いて関心領域2026を部分的にラベル付けすることによって、アノテーション2024の生成に消費される時間を低減することができる。更に、セグメンテーションモデル2014は、関心領域2026の異なるタイプの特徴間の空間関係を学習し、より正確で精密な結果を生成することができる。
図20(a)に戻ると、画像セグメンテーションシステム2002自体、ならびにパッチ生成器2008、モデル適用器2010およびモデルトレーナ2012等の内部のコンポーネントが、ランタイムモードおよびトレーニングモードを有することができる。トレーニングモード下で、画像セグメンテーションシステム2002は、セグメンテーションされた画像2020’と比較してトレーニングデータセット2016を用いてセグメンテーションモデル2014をトレーニングすることができる。ランタイムモード下では、画像セグメンテーションシステム2020は、セグメンテーションモデル2014を取得された生物医学的画像2020Aに適用して、セグメンテーションされた画像2020’を生成することができる。
画像セグメンテーションシステム2002上で実行されているパッチ生成器2008は、取得された生物医学的画像2020Aまたはサンプル生物医学的画像2020B(共に全体として生物医学的画像2020と呼ばれる)を受信するか、取り出すか、または他の形で識別することができる。ランタイムモード下では、パッチ生成器2008は、イメージャ2004から取得した生物医学的画像2020Aを識別することができる。サンプル生物医学的画像2020Bと対照的に、取得した生物医学的画像2020Aは、任意の関連アノテーション2024が欠如している場合がある。取得した生物医学的画像2020Aは、トレーニングデータセット2016のサンプル生物医学的画像2020Bと異なる場合がある。逆に、トレーニングモード下では、パッチ生成器2008は、トレーニングデータセット2016にアクセスして、サンプル生物医学的画像2020Bを識別することができる。サンプル生物医学的画像2020Bは、関心領域2026をラベル付けするアノテーション2024のセットのうちの少なくとも1つに関連付けることができる。
生物医学的画像2020の識別により、パッチ生成器2008は、セグメンテーションモデル2014にフィードするための生物医学的画像2020を処理することができる。パッチ生成器2008は、生物医学的画像2020からタイル2022A~Nのセット(以後、包括的にタイル2022と呼ばれる)を生成することができる。パッチ生成器2008は、生物医学的画像2020をタイル2022のセットに区分けまたは分割することができる。各タイル2022は、生物医学的画像2020の一部分に対応することができる。部分は、相互に排他的であってもよく、または部分的に重複していてもよい。いくつかの実施形態では、タイル2022に対応する生物医学的画像2020の部分は、重複なしとすることができる。いくつかの実施形態では、タイル2022に対応する生物医学的画像2020の部分は、部分的に重複することができる。生物医学的画像2020から生成された隣接タイル2022は、互いに重複比率(例えば、10~90%)だけ重複することができる。
いくつかの実施形態では、パッチ生成器2008は、ネガティブスペースに対応する生物医学的画像2020の1つまたは複数の領域を識別または検出することができる。ネガティブスペースの識別は、特徴検出アルゴリズムに従って行うことができる。生物医学的画像2020のネガティブスペース領域には、微小解剖サンプルまたは標本の任意の部分が欠如している場合がある。例えば、ネガティブスペースは、ヌルもしくは白色、または実質的にヌルもしくは白色(例えば、少なくとも90%)の生物医学的画像2020の領域に対応することができる。ネガティブスペースの検出時に、パッチ生成器2008は、タイル2022のセットの生成からネガティブスペースに対応する生物医学的画像2020の領域を除去することができる。
生物医学的画像2002からのタイル2022毎に、パッチ生成器2008は、拡大係数の対応するセットを用いてパッチ2036A~Nのセット(以後、包括的にパッチ2036と呼ばれる)を生成または作成することができる。各パッチ2036は、タイル2022が拡大係数のうちの1つにおいて生成された生物医学的画像2020の部分に対応することができる。各拡大係数は、タイル2022を(例えば、タイル2022内の画像の分解能を増大させることによって)拡大するか、またはタイル2022を(例えば、タイル2022内の画像の分解能を減少させることによって)縮小する量、数または比率を指定することができる。各パッチ2036を作成するために、パッチ生成器2008は、対応する拡大係数をタイル2022に適用することができる。パッチ2036を生成するために用いられる拡大係数は、例えば1×~300×の範囲をとることができる。生成されるパッチ2036の数は、2~数百の範囲をとることができる。例えば、生物医学的画像2020からの同じタイル2022を用いて、第1のパッチ2036Aは、20×の拡大係数にすることができ、第2のパッチ2036Aは10×の倍率にすることができ、第3のパッチ2036Cは20×の拡大係数にすることができる。
いくつかの実施形態では、パッチ生成器2008は、生物医学的画像2020の同じタイル2022のための別の拡大係数における別のパッチ2036を用いて1つの拡大係数において1つのパッチ2036を生成することができる。パッチ生成器2008は、生物医学的画像2020Aの1つのタイル2022からの第1の拡大係数を適用することによって、第1のパッチ2036Aを生成することができる。生成時に、パッチ生成器2008は、第1のパッチ2036Aの一部分を識別することができる。部分は、例えば、パッチ2036の中心部分、左部分、右部分、上部分、下部分、左上部分、右上部分、左下部分、右下部分または任意の他のサブセクションに対応することができる。識別された部分において、パッチ生成器2008は、第2の拡大係数を適用して第2のパッチ2036Bを生成することができる。いくつかの実施形態では、パッチ生成器2008は、第1のパッチ2036Aの識別された部分をダウンサンプリング(またはアップサンプリング)して、第2の拡大係数において第2のパッチ2036Bを生成することができる。パッチ生成器2008は、部分の識別およびサンプリングを繰り返して、パッチ2036のセットを生成することができる。いくつかの実施形態では、繰返しは、生物医学的画像2020のタイル2022のためにパッチ生成器2008によって生成されるパッチ2036の数に対し定義することができる。
画像セグメンテーションシステム2002において実行されるモデル適用器2010は、画像セグメンテーションシステム2002においてセグメンテーションモデル2014を維持および確立することができる。モデル適用器2010は、セグメンテーションモデル2014を各パッチ2036に適用することができる。セグメンテーションモデル2014の適用は、ランタイムモードおよびトレーニングモードの両方において行うことができる。適用時、モデル適用器2010は、生物医学的画像2020の各タイル2022からのパッチ2036のセットをセグメンテーションモデル2014にフィードまたは入力することができる。いくつかの実施形態では、モデル適用器2010は、パッチ2036に帰属する拡大係数のためにセグメンテーションモデル2014の対応するネットワーク2018に各パッチ2036をフィードすることができる。例えば、モデル適用器2010は、第1の拡大係数における第1のパッチ2036Aを第1のネットワーク2018Aに、第2の拡大係数における第2のパッチ2036Bを第2のネットワーク2018Bに、および第3の拡大係数における第3のパッチ2036Cを第3のネットワーク2018Cにフィードすることができ、以下同様である。各タイル2022を適用することによって、モデル適用器2010は、セグメンテーションされた画像2020’のための対応するタイル2022’を生成することができる。セグメンテーションされたタイル2022’は、タイル2022内の関心領域2026を識別することができる。セグメンテーションモデル2014およびネットワーク2018の機能および構造の詳細は、本明細書において図20(c)~図20(g)と併せて提供される。
図20(c)を参照すると、例示的な実施形態によるセグメンテーションモデル2014のネットワーク2018のうちの1つにおいて、畳込みブロック2032(本明細書において場合によってはエンコーダと呼ばれる)のブロック図が示される。畳込みブロック2032の1つまたは複数のインスタンスを、セグメンテーションモデル2014の各ネットワーク2018に含めることができる。概観において、畳込みブロック2032は、変換層2034A~Nのセットを含むことができる。変換層2034A~Nのセットは、数ある中でも、1つまたは複数の畳込み層2034Aおよび1つまたは複数の正規化層2034B、ならびに1つまたは複数の活性化層2034C(本明細書において正規化線形ユニットとも呼ばれる)を含むことができる。いくつかの実施形態では、変換層2034A~Nのセットは、1つまたは複数の正規化層2034Bが欠如している場合がある。畳込みブロック2032は、入力として、(図示のような)特徴マップのセット、またはパッチ2036のうちの1つを有することができる。畳込みブロック2032の変換層2034A~Nのセットは、特徴マップ2038のセットまたはパッチ2036のうちの1つ等の入力に任意の順序(図示されるもの等)で適用することができる。入力特徴マップ2038のセットは、畳込みブロック2032があるネットワーク2018に入力されるパッチ2036と同じ分解能を有することができる。分解能は、特徴マップ2038またはパッチ2036の各次元におけるピクセル数に対応するかまたはこれを定義することができる。入力特徴マップ2038のセットは、同じまたは異なるネットワーク2018の別のコンポーネントの、パッチ2036のうちの1つの処理から結果として得られる出力とすることができる。
畳込みブロック2032の畳込み層2034Aは、1つまたは複数のフィルタ(場合によっては、カーネルまたは特徴検出器と呼ばれる)を含むことができる。畳込み層2034Aは、特徴マップ2038の入力セットに1つまたは複数のフィルタを適用することができる。各フィルタは、所定のストライド(例えば、1~64の範囲をとる)における所定のサイズにわたって畳込み層2034Aの入力に適用して出力を生成する機能とすることができる。フィルタの機能は、入力に適用する1つまたは複数のパラメータ(場合によっては重みと呼ばれる)を含むことができる。1つまたは複数のパラメータは、トレーニングによって設定、調整または変更することができる。各フィルタは、所定のサイズ(例えば、3×3×1~1024×1024×3の範囲をとる)とすることができる。フィルタのサイズおよび数は、いずれのネットワーク2018に畳込み層2034Aのインスタンスが含まれるかに依拠して異なる場合がある。畳込み層2034Aのパラメータを、所定のストライドに従って入力(例えば、特徴マップ2038の入力セット)に繰り返し適用して出力を生成することができる。
畳込みブロック2032の正規化層2034Bは、以前の変換層2034A~N(例えば、図示するような畳込み層2034A)の出力に適用する少なくとも1つの関数を含むことができる。正規化層2034Bの関数は、入力に適用する1つまたは複数のパラメータを含むことができる。関数は、トレーニングによって設定、調整または変更することができる。正規化層2034Bは、入力の値の範囲を識別することができる。値の範囲から、正規化層2034Bは、入力の最小値、最大値、最小値と最大値との間の差を識別することができる。正規化層2034Bは、最小値、最大値、最小値と最大値との間の差に基づいて(例えば、線形関数として)、変換係数を決定することができる。次に、正規化層2034Bは、全ての入力に対し変換係数を適用(例えば、乗算)して出力を形成することができる。
畳込みブロック2032の活性化層2034Cは、以前の変換層2034A~N(例えば、図示するような畳込み層2034Aまたは正規化層2034B)の出力に適用する少なくとも1つの関数を含むことができる。活性化層2034Cの関数は、数ある中でも、恒等関数、単位階段関数、双曲線関数、逆三角関数(arcus function)、正規化線形関数(max(0,x))等の活性化関数とすることができる。関数は、トレーニングによって設定、調整または変更することができる。活性化関数は非線形であってもよい。活性化層2034Cは、図示するような畳込み層2034A等の以前の変換層2034A~Nにおけるフィルタのうちの1つの出力に各々が対応する全てsの入力をトラバースすることができる。トラバース中、活性化層2034Cは、活性化関数を入力に適用して、特徴マップ2038’の出力セットを生成することができる。活性化関数に起因して、活性化層2034Cの出力は入力に対し非線形である場合がある。
変換層2034A~Nのセットを特徴マップ2038のセットまたはパッチ2036のうちの1つに適用することによって、畳込みブロック2032は出力として特徴マップ2038’のセットを生成することができる。生成により、畳込みブロック2032は、(例えば水平矢印によって示されるように)セグメンテーションモデル2014の同じネットワーク2018に沿って特徴マップ2038’の出力セットをフィードまたは提供することができる。畳込みブロック2032は、(例えば下方の垂直矢印によって示されるように)セグメンテーションモデル2014の異なる拡大係数について特徴マップ2038’の出力セットをネットワーク2018にフィードまたは提供することができる。特徴マップ2038’の出力セットは、畳込みブロック2032があるネットワーク2018に入力される特徴マップ2038の入力セットおよびパッチ2036と同じ分解能を有することができる。
図20(d)を参照すると、例示的な実施形態によるセグメンテーションモデル2014のネットワーク2018のうちの1つにおいて、逆畳込みブロック2040(本明細書において場合によってはデコーダと呼ばれる)のブロック図が示される。逆畳込みブロック2040の1つまたは複数のインスタンスを、セグメンテーションモデル2014の各ネットワーク2018に含めることができる。概観において、逆畳込みブロック2040は、変換層2042A~Nのセットを含むことができる。変換層2042A~Nのセットは、数ある中でも、1つまたは複数のアップサンプリング層2042A、1つまたは複数の畳込み層2042B、1つまたは複数の正規化層2042C、および1つまたは複数の活性化層2042D(本明細書において正規化線形ユニットとも呼ばれる)を含むことができる。いくつかの実施形態では、変換層2042A~Nのセットは、1つまたは複数の正規化層2042Bが欠如している場合がある。逆畳込みブロック2040は、入力として、特徴マップ2038のセットを有することができる。逆畳込みブロック2040の変換層2042A~Nのセットは、特徴マップ2038のセット等の入力に任意の順序(図示されるもの等)で適用することができる。入力特徴マップ2038のセットは、逆畳込みブロック2040があるネットワーク2018に入力されるパッチ2036と同じ分解能またはサイズを有することができる。入力特徴マップ2038のセットは、ネットワーク2018に入力される、パッチ2036のうちの1つの処理からの、同じまたは異なるネットワーク2018の別のコンポーネントの結果として得られる出力とすることができる。
逆畳込みブロック2040のアップサンプリング層2042Aは、特徴マップ2038の入力セットの分解能を目標分解能まで増大させることができる。目標分解能は、特徴マップ2038’の結果として得られる出力セットがフィードされるセグメンテーションモデル2014内の別のネットワーク2018の分解能に等しくすることができる。いくつかの実施形態では、アップサンプリング層2042Aは、特徴マップ2038の入力セットの分解能を識別することができる。識別により、アップサンプリング層2042Aは、分解能と目標分解能との間の差を決定することができる。差の決定により、アップサンプリング層2042Aは、特徴マップ2038の入力セットに対しゼロパディングを行い、目標分解能との差だけ分解能を増大させることができる。アップサンプリング層2042Aは、特徴マップ2038のゼロパディングされた入力セットに補間フィルタを適用して、ゼロパディングから生じる不連続性を平滑化することができる。補間フィルタは、目標分解能と同じサイズとすることができる。
逆畳込みブロック2040の転置畳込み層2042Bは、1つまたは複数のフィルタ(場合によっては、カーネルまたは特徴検出器と呼ばれる)を含むことができる。畳込み層2042Bは、特徴マップ2038の入力セットに1つまたは複数のフィルタを適用することができる。各フィルタは、所定のストライド(例えば、1~64の範囲をとる)における所定のサイズにわたって転置畳込み層2042Bの入力に適用して出力を生成する機能とすることができる。フィルタの機能は、入力に適用する1つまたは複数のパラメータ(場合によっては重みと呼ばれる)を含むことができる。畳込みブロック2032における畳込み層2034Aにおけるパラメータに対し、逆畳込みブロック2040の転置畳込み層2042Bにおけるフィルタのパラメータは、転置または反転(疑似反転)されている場合がある。フィルタの1つまたは複数のパラメータは、トレーニングによって設定、調整または変更することができる。逆畳込みブロック2040の転置畳込み層2042Bにおけるフィルタのパラメータの調整は、畳込みブロック2032における畳込み層2034Aにおけるフィルタのパラメータの調整に依拠することができる。各フィルタは、所定のサイズ(例えば、3×3×1~1024×1024×3の範囲をとる)とすることができる。フィルタのサイズおよび数は、いずれのネットワーク2018に畳込み層2042Bのインスタンスが含まれるかに依拠して異なる場合がある。畳込み層2042Bのパラメータを、所定のストライドに従って入力(例えば、特徴マップ2038の入力セット)に繰り返し適用して出力を生成することができる。
逆畳込みブロック2040の正規化層2042Cは、以前の変換層2042A~N(例えば、図示するような転置畳込み層2042B)の出力に適用する少なくとも1つの関数を含むことができる。正規化層2042Cの関数は、入力に適用する1つまたは複数のパラメータを含むことができる。関数は、トレーニングによって設定、調整または変更することができる。正規化層2042Cは、入力の値の範囲を識別することができる。値の範囲から、正規化層2042Cは、入力の最小値、最大値、最小値と最大値との間の差を識別することができる。正規化層2042Cは、最小値、最大値、最小値と最大値との間の差に基づいて(例えば、線形関数として)、変換係数を決定することができる。次に、正規化層2042Cは、全ての入力に対し変換係数を適用(例えば、乗算)して出力を形成することができる。
逆畳込みブロック2040の活性化層2042Dは、以前の変換層2042A~N(例えば、図示するような転置畳込み層2042Bまたは正規化層2042C)の出力に適用する少なくとも1つの関数を含むことができる。活性化層2042Dの関数は、数ある中でも、恒等関数、単位階段関数、双曲線関数、アーカス関数、正規化線形関数(max(0,x))等の活性化関数とすることができる。関数は、トレーニングによって設定、調整または変更することができる。活性化関数は非線形であってもよい。活性化層2042Dは、畳込み層2042B等の以前の変換層2042A~Nにおけるフィルタのうちの1つの出力に各々が対応する全ての入力をトラバースすることができる。トラバース中、活性化層2042Dは、活性化関数を入力に適用して、特徴マップ2038’の出力セットを生成することができる。活性化関数に起因して、活性化層2048Bの出力は入力に対し非線形である場合がある。
変換層2042A~Nのセットを入力特徴マップ2038のセットに適用することによって、逆畳込みブロック2040は出力として特徴マップ2038’のセットを生成することができる。生成により、逆畳込みブロック2040は、(例えば上方の垂直矢印によって示されるように)セグメンテーションモデル2014の異なる拡大係数について特徴マップ2038’の出力セットをネットワーク2018にフィードまたは提供することができる。特徴マップ2038’の出力セットは、逆畳込みブロック2040が特徴マップ2038’の出力セットをフィードするネットワーク2018の特徴マップ2038の入力セットと同じ分解能を有することができる。
図20(e)を参照すると、例示的な実施形態によるセグメンテーションモデル2014における終端畳込みブロック2046のブロック図が示されている。終端畳込みブロック2046の1つまたは複数のインスタンスを、セグメンテーションモデル2014に含めることができる。概観において、終端畳込みブロック2046は、変換層2048A~Nのセットを含むことができる。変換層2048A~Nのセットは、数ある中でも、1つまたは複数の初期畳込み層2048A、1つまたは複数の活性化層2048B、1つまたは複数の最終畳込み層2048C、および1つまたは複数の回帰層2048Dを含むことができる。終端畳込みブロック2046は、入力として、特徴マップ2038のセットを有することができる。終端畳込みブロック2046の変換層2048A~Nのセットは、ネットワーク2018のうちの1つによって出力された、特徴マップ2038’のセット等の入力に任意の順序(図示されるもの等)で適用することができる。特徴マップ2038’のセットは、ネットワーク2018に入力される、パッチ2036のうちの1つおよび他の入力特徴マップ2038の処理からの、ネットワーク2018のうちの1つの結果として得られる出力とすることができる。
終端畳込みブロック2046の初期畳込み層2048Aは、1つまたは複数のフィルタ(場合によっては、カーネルまたは特徴検出器と呼ばれる)を含むことができる。畳込み層2048Aは、終端畳込みブロック2046に入力された特徴マップ2038’のセットに1つまたは複数のフィルタを適用することができる。各フィルタは、所定のストライド(例えば、1~64の範囲をとる)における所定のサイズにわたって畳込み層2048Aの入力に適用して出力を生成する機能とすることができる。フィルタの機能は、入力に適用する1つまたは複数のパラメータ(場合によっては重みと呼ばれる)を含むことができる。1つまたは複数のパラメータは、トレーニングによって設定、調整または変更することができる。各フィルタは、所定のサイズ(例えば、3×3×1~1024×1024×3の範囲をとる)とすることができる。サイズおよびフィルタ数は、終端畳込みブロック2046への入力として特徴マップ2038’のセットを提供するネットワーク2018に依拠して異なる場合がある。畳込み層2048Aのパラメータは、所定のストライドに従って出力を生成するように入力(例えば、特徴マップ2038’のセット)に繰り返し適用することができる。
終端畳込みブロック2046の活性化層2048Bは、以前の変換層2048A~N(例えば、初期畳込み層2048A)の出力に適用する少なくとも1つの関数を含むことができる。活性化層2048Bの関数は、数ある中でも、恒等関数、単位階段関数、双曲線関数、またはアーカス関数、正規化線形関数(max(0,x))等の活性化関数とすることができる。関数は、トレーニングによって設定、調整または変更することができる。活性化関数は非線形であってもよい。活性化層2048Bは、初期畳込み層2048A等の以前の変換層2048A~Nにおけるフィルタのうちの1つの出力に各々が対応する全ての入力をトラバースすることができる。トラバース中、活性化層2048Bは、活性化関数を入力に適用して、特徴マップの出力セットを生成することができる。活性化関数に起因して、活性化層2048Bの出力は入力に対し非線形である場合がある。
終端畳込みブロック2046の最終畳込み層2048Cは、1つまたは複数のフィルタ(場合によっては、カーネルまたは特徴検出器と呼ばれる)を含むことができる。畳込み層2048Cは、活性化層2048Bの出力に1つまたは複数のフィルタを適用することができる。各フィルタは、所定のストライド(例えば、1~64の範囲をとる)における所定のサイズにわたって畳込み層2048Cの入力に適用して出力を生成する機能とすることができる。フィルタの機能は、入力に適用する1つまたは複数のパラメータ(場合によっては重みと呼ばれる)を含むことができる。1つまたは複数のパラメータは、トレーニングによって設定、調整または変更することができる。各フィルタは、所定のサイズ(例えば、3×3×1~1024×1024×3の範囲をとる)とすることができる。サイズおよびフィルタ数は、終端畳込みブロック2046への入力として特徴マップ2038’のセットを提供するネットワーク2018に依拠して異なる場合がある。畳込み層2048Cのパラメータは、所定のストライドに従って出力を生成するように入力(例えば、特徴マップ2038’のセット)に繰り返し適用することができる。
終端畳込みブロック2046の回帰層2048Dは、以前の変換層2048A~N(例えば、最終畳込み層2048C)の出力に適用する少なくとも1つの関数を含むことができる。回帰層2048Dの関数は、数ある中でも、ソフトマックス関数(本明細書によって、場合によっては、正規化指数関数または多項式ロジスティック回帰と呼ばれる)等のロジスティック活性化関数とすることができる。関数は、トレーニングによって設定、調整または変更することができる。活性化関数は非線形であってもよい。回帰層2048Dは、最終畳込み層2048C等の以前の変換層2048A~Nにおけるフィルタのうちの1つの出力に各々が対応する全ての入力をトラバースすることができる。トラバース中、回帰層2048Dは、活性化関数を入力に適用して、特徴マップの出力セットを生成することができる。ロジスティック活性化関数に起因して、回帰層2048Dの出力は入力に対し非線形である場合がある。
変換層2048A~Nのセットを特徴マップ2038’のセットに適用することによって、終端畳込みブロック2046は、セグメンテーションされた画像2020’のための対応するタイル2022’を生成することができる。出力タイル2022’は、終端畳込みブロック2046に対する入力として提供された特徴マップ2038’のセットと同じ分解能を有することができる。そして、出力タイル2022’は、入力として特徴マップ2038’のセットを提供するネットワーク2018によって出力された元のパッチ2036と同じ分解能および大きさの係数を有することもできる。追加のタイル2022’の生成は、生物医学的画像2020に対応するセグメンテーションされた画像2020’を用いることができる。
図20(f)を参照すると、例示的な実施形態によるセグメンテーションモデル2014のネットワーク2018のうちの1つのブロック図が示されている。ネットワーク2018のインスタンスをセグメンテーションモデル2014に含めることができる。加えて、ネットワーク2018の異なるインスタンスは、例に示されるコンポーネントまたは入力/出力接続のうちの少なくともいくつかを含むかまたはこれらが欠如している場合がある。概観において、ネットワーク2018およびそのコンポーネントは、行2054A~Nのセット(以後、包括的に行2054と呼ばれる)および列2056A~Nのセット(以後、包括的に列2056と呼ばれる)に分割、編成または配列することができる。ネットワーク2018は、出力として特徴マップ2038’の1つまたは複数のセット(概ね上に示される)を有することができる。ネットワーク2018は、生物医学的画像2020におけるタイル2022のパッチ2036のうちの1つ(概ね左側に示される)と、入力として他のネットワーク2018から出力された特徴マップ2038’のセット(概ね下に示される)とを有することができる。
ネットワーク2018は、異なる複数の行2054(本明細書において、場合によってはチャネルと呼ばれる)にわたって配列された1つまたは複数の畳込みブロック2032および1つまたは複数の逆畳込みブロック2040を有することができる。各行2054は、同じ分解能またはサイズの処理された特徴マップのフィードフォワードに対応することができる。サイズは、特徴マップの各次元におけるピクセル数に対応するかまたはこれを定義することができる。例えば、第1の行2054Aは2つの畳込みブロック2032(一方が概ね左に向かって、他方が概ね右に向かって示される)を有することができる。第1の行2054Aにおける畳込みブロック2032によって処理および出力される特徴マップは、同じ分解能とすることができる。同様に、第2の行2054Bは同じ分解能の特徴マップをフィードフォワードすることができ、第3の行2054Cは同じ分解能の特徴マップをフィードフォワードすることができ、第4の行2054D以降も同様である。逆に、異なる行2054における特徴マップは異なる分解能とすることができる。例えば、第2の行2054Bに沿ってフィードフォワードされた特徴マップは、第1の行2054Aに沿ってフィードフォワードされた特徴マップと異なる分解能を有することができる。各行2054は、少なくとも1つの畳込みブロック2032を含むことができる。第1の行2054Aよりも下の行2054B~N等の行2054のうちの少なくともいくつかは、少なくとも1つの逆畳込みブロック2040を含むことができる。
ネットワーク2018は、異なる複数の列2056にわたって配列された1つまたは複数の畳込みブロック2032および1つまたは複数の逆畳込みブロック2040を有することができる。各列2056は、畳込みブロック2032のうちの1つまたは逆畳込みブロック2040のうちの1つによる処理の後に1つの分解能(または1つの行2054)から別の分解能(または別の行2054)に、処理された特徴マップを上方または下方にフィードすることに対応することができる。例えば、第1の列2056Aは、処理された特徴マップが、各行2054において第1の畳込みブロック2032によって処理された後に1つの行から別の行に渡される第1のインスタンスに対応することができる。同様に、第2の列2056Bは、特徴マップが、第3の行2054Cにおいて畳込みブロック2032によって、または第4の行2054Dにおいて逆畳込みブロック2040によって処理された後に1つの行から別の行に渡される第2のインスタンスに対応することができる。
畳込みブロック2032および逆畳込みブロック2040に加えて、ネットワーク2018は、1つまたは複数のプーリングユニット2058(場合によっては、本明細書においてプーリング演算子と呼ばれる)を含むことができる。各プーリングユニット2058は、複数の行2054間にまたがることができるか、または(例えば、図示するように)行2054のうちの1つにあり、1つの行2054から別の行2054にフィードすることができる。各プーリングユニット2058は、同じ行2054内の(例えば、図示されるような)畳込みブロック2032または逆畳込みブロック2040のうちの1つによって処理される特徴マップを取り出すか、受信するか、または他の形で識別することができる。プーリングユニット2058は、識別された特徴マップにプーリング演算を適用することができる。プーリング演算は、例えば、所定の係数(例えば、2~10)によって最大プーリングして特徴マップにおける各セットパッチ内の最高の値を選択するか、または平均プーリングして、特徴マップにおけるセットパッチ内の平均値を決定することを含むことができる。プーリング演算の適用により、プーリングユニット2058は、特徴マップが提供される行2054と同じ分解能の特徴マップを生成することができる。特徴マップの結果として得られるセットのサイズは、特徴マップの入力セットよりも小さいサイズを有することができる。
更に、ネットワーク2018は、1つまたは複数のクロッピングユニット2060(本明細書において、場合によってはクロップ演算子またはクロッパと呼ばれる)を含むことができる。各クロッピングユニット2060は、(例えば、図示されるような)畳込みブロック2032または同じ行2054内の逆畳込みブロック2040のうちの1つによって処理される特徴マップを取り出すか、受信するか、または他の形で識別することができる。クロッピングユニット2060は、所定のクロッピングレート(例えば、2~10)で、識別された特徴マップに対しクロッピング演算を適用または実行することができる。クロッピング演算の実行時に、クロッピングユニット2060は、特徴マップの一部分を識別することができる。この部分は、例えば、特徴マップの中心部分、左部分、右部分、上部分、下部分、左上部分、右上部分、左下部分、右下部分または任意の他のサブセクションに対応することができる。いずれの部分がクロッピングユニット2060によって識別されるかは、パッチ生成器2008によってパッチ2036を生成するために識別される部分と同じとすることができる。クロッピング演算の適用により、クロッピングユニット2060は、(例えば、概ね上部に向かって示されるように)特徴マップ2038’が提供されるネットワーク2018と同じ分解能の特徴マップ2038’を生成することができる。特徴マップの結果として得られるセットのサイズは、特徴マップの入力セットよりも大きいサイズを有することができる。
加えて、ネットワーク2018は、1つまたは複数の連結ユニット2062(本明細書において、場合によっては連結器またはアグリゲータと呼ばれる)を含むことができる。各連結ユニット2062は、(例えば、図示されるような)後続の逆畳込みブロック2040または同じ行2054内の畳込みブロック2032によって処理される前に2つ以上の特徴マップを連結するか、結びつけるか、または他の形で加えることができる。いくつかの実施形態では、連結ユニット2062は、同じ行2054内の特徴マップの結果として得られるセットを処理することになる逆畳込みブロック2040の一部とすることができる。各受信した特徴マップは、セグメンテーションモデル2014内の別のネットワーク2018からのものとすることができる。入力特徴マップを受信すると、連結ユニット2062は特徴マップを結合して、行2054に沿ってフィードフォワードするための、結果として得られる特徴マップのセットを生成することができる。連結ユニット2062による特徴マップ(例えば、特徴マップ2038’)の結合は、数ある中でも、連結、加重和および加算を含むことができる。結果として得られる特徴マップのセットは、入力について、ネットワーク2018における追加の処理のために(例えば、図示されるように)逆畳込みブロック2040にフィードフォワードすることができる。
複数の行2054および列2056にわたるネットワーク2018のコンポーネントの配置により、ネットワーク2018は、行2054および列2056にわたって配置された1つまたは複数の入力および出力も有することができる。第1の行2054Aは、入力として、生物医学的画像2020のタイル2022からのパッチ2036のうちの1つを有し、出力として、結果として得られる特徴マップ2038’のセットを有することができる。第2のおよび後続の列2056B~N(例えば、第2の列2056B、第3の列2056C、第4の列2056D)は各々、入力としてより低い拡大係数に関連付けられたネットワーク2018等の他のネットワーク2018からの結果として得られる特徴マップ2038’のセットを有することができる。加えて、第2のおよび後続の列2056B~Nは各々、出力として、より高い拡大係数に関連付けられたネットワーク2018等の他のネットワーク2018への出力として内部のコンポーネントによって出力された、結果として得られる特徴マップ2038’のセットを有することができる。
図20(g)を参照すると、例示的な実施形態によるセグメンテーションモデル2014のブロック図が示されている。セグメンテーションモデル2014は、図示されるように、第1のネットワーク2018A、第2のネットワーク2018Bおよび第3のネットワーク2018C等のネットワーク2018のセットを含むことができる。各ネットワーク2018は、図20(f)と併せて本明細書に記載されるコンポーネントおよび接続を含むかまたは除外することができる。図示されるように、第1のネットワーク2018Aは、任意のクロッピングユニット2060が欠如している場合があるのに対し、第2のネットワーク2018Bおよび第3のネットワーク2018Cは各々、連結ユニット2062が欠如している場合がある。3つのネットワーク2018A~Cが示されているが、セグメンテーションモデル2014は任意の数のネットワーク2018を有することができる。
セグメンテーションモデル2014の外側から、各ネットワーク2018は、入力として、生物医学的画像2020のタイル2022のうちの1つから対応する拡大係数におけるパッチ2036のうちの1つを有することができる。パッチ2036は、各ネットワーク2018の第1の行2054Aにフィードすることができる。例えば、図示されるように、第1の拡大係数(例えば、20×)におけるパッチ2036Aは、入力として第1のネットワーク2018Aの第1の行2054Aにフィードすることができ、第2の拡大係数(例えば、10×)におけるパッチ2036Bは、入力として第2のネットワーク2018Bの第1の行2054Aにフィードすることができ、第3の拡大係数(例えば、20×)におけるパッチ2036は、入力として第3のネットワーク2018Cの第1の行2054Aにフィードすることができる。加えて、各ネットワーク2018自体が拡大係数のうちの1つに対応してもよく、または拡大係数のうちの1つに関連付けられてもよい。例えば、第1のネットワーク2018Aは第1の拡大係数(例えば、20×)に関連付けることができ、第2のネットワーク2018Bは第2の拡大係数(例えば、10×)に関連付けることができ、第3のネットワーク2018Cは第3の拡大係数(例えば、20×)に関連付けることができ、以下同様である。
セグメンテーションモデル2014において、ネットワーク2018の入力および出力を互いにフィードすることができる。より低い拡大係数のネットワーク2018の出力を、最も高い拡大係数のネットワーク2018の入力としてフィードすることができる。例えば、示すように、各列2056からの(10×の拡大係数に関連付けられた)第2のネットワーク2018Bからの特徴マップ2038’の結果として得られるセットは、(20×の拡大係数に関連付けられた)第1のネットワーク2018Aの対応する列2056の連結ユニット2062への入力として提供することができる。いくつかの実施形態では、更に低い拡大係数のネットワーク2018の出力を、シフト2064を有する拡大係数のネットワーク2018の入力としてフィードすることができる。シフト2064は、入力として、より低い拡大係数のネットワーク2018からより高い拡大係数のネットワーク2018の別の列2056への1つの列2056の特徴マップ2038’の出力セットの転送を定義することができる。シフト2064は、特徴マップ2038’の出力セットがフィードされる次のコンポーネントの分解能またはサイズにおける相違を計上することができる。例えば、第3のネットワーク2018Cの各列2056からの特徴マップ2038’の結果として得られるセットは、第1のネットワーク2018Aにわたる1つの列2056における連結ユニット2062への入力としてフィードすることができる。示されるように、第3のネットワーク2018Cにおける第3の列2056Cからの特徴マップ2038’の結果として得られるセットは、第1のネットワーク2018Aの第2の列2056Bへの入力としてフィードすることができる。
更に、第1のネットワーク2018Aの第1の行2054Aの出力において、セグメンテーションモデル2014は、終端畳込みブロック2046を有することができる。第1のネットワーク2018Aの第1の行2054Aの出力は、終端畳込みブロック2046への入力としてフィードすることができる。終端畳込みブロック2046の変換層2048A~Nを適用して、セグメンテーションされた生物医学的画像2020’のためのタイル2022’を生成することができる。タイル2022’は、第1のネットワーク2018Aにフィードされるパッチ2036Aと同じ分解能および拡大係数とすることができる。生物医学的画像2020の更なるタイル2022からパッチ2036にセグメンテーションモデル2014のネットワーク2018を適用することによって、セグメンテーションされた画像2020’のための追加のタイル2022’を生成することができる。
再び図20(a)を参照すると、モデル適用器2010は、生物医学的画像2020のタイル2022から生成されたパッチ2036にセグメンテーションモデル2014を適用して、セグメンテーションされた画像2020’を生成することができる。モデル適用器2010は、セグメンテーションされた画像2020’のためのタイル2022’として終端畳込みブロック2046の出力を用いることができる。パッチ2036へのセグメンテーションモデル2014の適用の繰返しにより、モデル適用器2010は、タイル2022’を集約して、セグメンテーションされた画像2020’を構築することができる。セグメンテーションされた画像2020’は、生物医学的画像2020内の関心領域2026の1つまたは複数のインジケーションを有することができる。各インジケーションは、生物医学的画像2020における関心領域2026のうちの少なくとも1つに対応することができる。いくつかの実施形態では、セグメンテーションされた画像2020’は、数ある中でも、がん、良性上皮、背景、間質、壊死および脂肪組織等の関心領域2026のタイプ毎に異なるインジケーション(例えば、色、シェーディングまたは別の視覚マーカにより示される)を有することができる。
いくつかの実施形態では、モデル適用器2010は、生物医学的画像2020またはセグメンテーションされた画像2020’を提示のためにディスプレイ2006に提供することができる。ディスプレイ2006は、モデル適用器2010によって提供される画像セグメンテーションシステム2002によって出力された画像(例えば、図示されるように、生物医学的画像2020Aもしくは2020Bまたはセグメンテーションされた画像2020’)を提示またはレンダリングすることができる。ディスプレイ2006は、数ある中でも、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)モニタ、および陰極線管(CRT)等の任意のモニタを含むことができる。ディスプレイ2006は画像セグメンテーションシステム2002と通信可能に結合することができ、画像セグメンテーションシステム2002から画像をレンダリングおよび出力することができる。いくつかの実施形態では、モデル適用器2010は、画像セグメンテーションシステム2002にアクセス可能なデータベースにおいて、生物医学的画像2020’(または生物医学的画像2020’の個々のタイル2022’)を記憶することができる。
画像セグメンテーションシステム2002において実行されるモデルトレーナ2012は、トレーニングデータセット2016を用いてセグメンテーションモデル2014をトレーニングすることができる。セグメンテーションモデル2014のトレーニングは、画像セグメンテーションシステム2002がトレーニングモードにあるときに行うことができる。セグメンテーションモデル2014のトレーニングは、サンプル生物医学的画像2020Bを用いてセグメンテーションモデル2014によって生成されたセグメンテーションされた画像2020’と併せて行うことができる。モデルトレーナ2012は、セグメンテーションモデル2014をサンプル生物医学的画像2020Bに適用することにより生成されたセグメンテーションされた画像2020’(またはセグメンテーションされたタイル2022’)を識別することができる。トレーニングデータセット2016から、モデルトレーナ2012は、サンプル生物医学的画像2020Bおよびアノテーション2024のセットも識別することができる。いくつかの実施形態では、モデルトレーナ2012は、比較対象のセグメンテーションされたタイル2022’に対応するサンプル生物医学的画像2020B内のタイル2022を識別することができる。識別により、モデルトレーナ2012は、セグメンテーションされた画像2020’を、セグメンテーションされた画像2020’を生成するのに用いられたサンプル生物医学的画像2020Bのためのアノテーション2024と比較することができる。上記で論考されたように、アノテーション2024は、サンプル生物医学的画像2020内の関心領域2026に対し完全または部分的とすることができる。いくつかの実施形態では、モデルトレーナ2021は、セグメンテーションされた画像2020’内の関心領域2026に対するインジケーションを、関心領域のタイプについてのアノテーション2024と比較することができる。
セグメンテーションされた画像2020’をアノテーション2024のセットと比較することによって、モデルトレーナ2012は、セグメンテーションされた画像2020’とアノテーション2024との間の少なくとも1つの損失メトリックを計算するかまたは他の形で決定することができる。損失メトリックは、セグメンテーションされた画像2020’とアノテーション2024との間の少なくとも1つの差を示すことができ、例えば、数ある中でも、二乗平均平方根誤差、相対二乗平均平方根誤差、および加重交差エントロピーとすることができる。セグメンテーションされた画像2020’とアノテーション2024との比較は、ピクセル単位とすることができ、損失メトリックはピクセル単位でも計算することができる。いくつかの実施形態では、モデルトレーナ2012は、セグメンテーションされた画像2020’のピクセルおよびアノテーション2024の全てまたは少なくとも一部分にわたる損失メトリックを決定することができる。いくつかの実施形態では、モデルトレーナ2012は、セグメンテーションされた画像2020’と、関心領域2026の各タイプについてのアノテーション2024との間の損失メトリックを決定することができる。
損失メトリックの計算により、モデルトレーナ2012は、セグメンテーションモデル2014のネットワーク2018におけるパラメータのうちの少なくとも1つを更新することができる。いくつかの実施形態では、モデルトレーナ2012は、関心領域2026の各タイプについて計算された損失メトリックを用いて、ネットワーク2018におけるパラメータのうちの少なくとも1つを更新することができる。損失メトリックを用いて更新されるパラメータは、数ある中でも、畳込みブロック2032の変換層2034A~N、逆畳込みブロック2040の変換層2042A~N、および終端畳込みブロック2046の変換層2048A~Nにおけるものとすることができる。
いくつかの実施形態では、モデルトレーナ2012は、損失メトリックの現在の決定と、損失メトリックの以前の決定との比較に基づいて、セグメンテーションモデル2014が収束したかどうかを判断することができる。2つの損失メトリック間の差が閾値よりも大きい場合、モデルトレーナ2012は、セグメンテーションモデル2014のトレーニングを継続することができる。そうではなく、差が閾値以下である場合、モデルトレーナ2012はトレーニングを停止することができる。いくつかの実施形態では、セグメンテーションモデル2014のトレーニングは、複数の反復(例えば、10~100の範囲をとる)にわたってセット学習率(例えば、10-6~10-4の範囲をとる)、運動量(例えば、0.5~1の範囲をとる)、および重み減衰(例えば、10-6~10-4の範囲をとる)を有する目的関数(例えば、確率的勾配降下法(SGD))を用いて定義することができる。
図20(h)を参照すると、例示的な実施形態による、多重倍率エンコーダ-デコーダ連結ネットワークを用いて生物医学的画像をセグメンテーションする方法2070の流れ図が示される。方法2070は、図20(a)~図20(g)または図16(a)~図16(d)と併せて説明されたコンポーネントのうちの任意のものを用いて実施、実践または実行することができる。概要において、コンピューティングシステムは、生物医学的画像を識別することができる(572)。コンピューティングシステムは、複数の拡大係数においてパッチを作成することができる(574)。コンピューティングシステムはセグメンテーションモデルを適用することができる(576)。コンピューティングシステムは、セグメンテーションされた画像を生成することができる(578)。
更なる詳細において、コンピューティングシステム(例えば、画像セグメンテーションシステム2002)は、生物医学的画像(例えば、取得された生物医学的画像2020A)を識別することができる(572)。生物医学的画像2020は、例えば、ヘマトキシリン-エオジン(H&E)染色等で染色された組織学的セクションとすることができる。撮像デバイス(例えば、イメージャ2004)は、組織病理学的調査を行うために被検体からの組織セクションから生物医学的画像を取得することができる。生物医学的画像を取得するために用いられる組織サンプルは、数ある中でも、腫瘍成長、病変または外傷等の関心領域を有することができる。コンピューティングシステムによって識別される生物医学的画像は、任意の関連付けられたアノテーション(例えば、アノテーション2024)が欠如している場合がある。コンピューティングシステムは、生物医学的画像をタイル(例えば、タイル2022)のセットに分割することができる。各タイルは、生物医学的画像の一部分に対応することができる。
コンピューティングシステムは、複数の拡大係数においてパッチ(例えば、パッチ2036)を作成することができる(574)。各パッチは、異なる拡大係数における生物医学的画像の一部分に対応することができる。拡大係数は、対応するタイルを拡大する量、数または比率を定義することができる。タイルから各パイルを作成するために、コンピューティングシステムは対応する倍率を同じタイルに適用することができる。
コンピューティングシステムは、セグメンテーションモデル(例えば、セグメンテーションモデル2014)を適用することができる(576)。セグメンテーションモデルの適用は、生物医学的画像の各タイルから作成されたパッチのセットに対するものとすることができる。セグメンテーションモデルは、パッチを作成するために用いられる拡大係数のセットに対応するネットワーク(例えば、ネットワーク2018)のセットを含むことができる。各ネットワークは、エンコーダ(例えば、畳込みブロック2032)のセットと、デコーダ(例えば、逆畳込みブロック2040)のセットとを含むことができる。各エンコーダは、特徴マップを変換するための変換層(例えば、変換層2034A~N)のセットを有することができる。各デコーダは、特徴マップを変換するための変換層(例えば、変換層2042A~N)のセットを有することができる。最も高い拡大係数(例えば、第1のネットワーク2018A)に対応するネットワークにおいて、各デコーダは、他のネットワークからの特徴マップを組み合わせる連結器(例えば、連結ユニット2062)も有することができる。エンコーダおよびデコーダを用いて、各ネットワークは、対応する拡大係数における入力パッチを、結果として得られる特徴マップ(例えば、特徴マップ2038’)のセットに変換することができる。
コンピューティングシステムは、セグメンテーションされた画像(例えば、生物医学的画像2020’)を生成することができる(578)。セグメンテーションモデルは、最大の拡大係数を有するネットワークからの結果として得られる特徴マップのセットを、セグメンテーションされた画像(例えば、セグメンテーションされた画像2020’)のためのタイル(例えば、タイル2022’)に変換するための最終エンコーダ(例えば、終端畳込みブロック2046)も有することができる。セグメンテーションされた画像を適用することによって、コンピューティングシステムはセグメンテーションされた画像を生成することができる。コンピューティングシステムは、表示のためにセグメンテーションされた画像をレンダリングすることができる。コンピューティングシステムは、セグメンテーションされた画像をデータベースに記憶することができる。
図20(i)を参照すると、例示的な実施形態による、多重倍率エンコーダ-デコーダ連結ネットワークを用いて生物医学的画像をセグメンテーションするためにモデルをトレーニングする方法2080の流れ図が示される。方法2080は、図20(a)~図20(g)または図16(a)~図16(d)と併せて説明されたコンポーネントのうちの任意のものを用いて実施、実践または実行することができる。概要において、コンピューティングシステムは、サンプル生物医学的画像(582)を識別することができる。コンピューティングシステムは、複数の拡大係数においてパッチを作成することができる(584)。コンピューティングシステムはセグメンテーションモデルを適用することができる(586)。コンピューティングシステムは、セグメンテーションされた画像を生成することができる(588)。コンピューティングシステムは、部分的アノテーションに対する損失を決定することができる(590)。コンピューティングシステムはセグメンテーションモデルを更新することができる(592)。
更なる詳細において、コンピューティングシステム(例えば、画像セグメンテーションシステム2002)は、サンプル生物医学的画像(例えば、サンプル生物医学的画像2020B)を識別することができる(582)。(582)の機能は、サンプル生物医学的画像に関するものを除いて、方法2070の(570)の機能に類似することができる。サンプル生物医学的画像は、アノテーション(例えば、アノテーション2024)のセットに関連付けることができる。アノテーションは、サンプル生物医学的画像における関心領域(例えば、関心領域2026)の少なくとも一部分を示すかまたはラベル付けすることができる。各アノテーションは、数ある中でも、がん組織、良性上皮組織、間質組織、壊死組織および脂肪組織等の異なるタイプの関心領域に対応することができる。部分的にアノテーションするとき、アノテーションは、分離距離(例えば、距離2030)だけ関心領域の境界から分離することができる。
コンピューティングシステムは、複数の拡大係数においてパッチ(例えば、パッチ2036)を作成することができる(584)。(584)の機能は、上記で詳述した方法2070の(574)の機能に類似することができる。コンピューティングシステムは、セグメンテーションモデル(例えば、セグメンテーションモデル2014)を適用することができる(586)。(586)の機能は、上記で詳述した方法2070の(576)の機能に類似することができる。コンピューティングシステムは、セグメンテーションされた画像(例えば、セグメンテーションされた画像2020’)を生成することができる(588)。(588)の機能は、上記で詳述した方法2070の(578)の機能に類似することができる。
コンピューティングシステムは、部分的アノテーションに対する損失を決定することができる(590)。コンピューティングシステムは、サンプル生物医学的画像にセグメンテーションモデルを適用することによって生成されたセグメンテーションされた画像(例えば、セグメンテーションされた画像2020’)を、サンプル生物医学的画像のための部分的アノテーションと比較することができる。比較において、コンピューティングシステムは、セグメンテーションされた画像におけるインジケーションと、サンプル生物医学的画像のためのアノテーションにおけるラベル付けとの間の損失を決定または計算することができる。比較はピクセル単位とすることができ、決定される損失メトリックはピクセル単位とすることができる。コンピューティングシステムはセグメンテーションモデルを更新することができる(592)。決定された損失を用いて、コンピューティングシステムは、エンコーダまたはデコーダのうちの1つ等においてセグメンテーションモデルのネットワークの少なくとも1つのパラメータを変更または更新することができる。
D. コンピューティングおよびネットワーク環境
セクションAに記載の方法およびシステムに関連する動作環境および関連システムコンポーネント(例えば、ハードウェア要素)の態様を説明することが有用であり得る。図21(a)を参照すると、ネットワーク環境の実施形態が示される。概要において、図示される探索ネットワーク環境は、1つまたは複数のネットワーク2104を介して1つまたは複数のサーバ2106a~1506n(包括的に、サーバ2106、ノード2106またはリモートマシン2106とも呼ばれる)と通信する1つまたは複数のクライアント2102a~2102n(包括的に、ローカルマシン2102、クライアント2102、クライアントノード2102、クライアントマシン2102、クライアントコンピュータ2102、クライアントデバイス2102、エンドポイント2102、またはエンドポイントノード2102とも呼ばれる)を含む。いくつかの実施形態では、クライアント2102は、サーバによって提供されるリソースへのアクセスを求めるクライアントノードとして、および他のクライアント2102a~1602nのためのホスティングされたリソースへのアクセスを提供するサーバとしての両方で機能する能力を有する。
図21(a)は、クライアント2102とサーバ2106との間のネットワーク2104を示すが、クライアント2102およびサーバ2106は同じネットワーク2104上にあることができる。いくつかの実施形態では、クライアント2102とサーバ2106との間に複数のネットワーク2104が存在する。これらの実施形態のうちの1つにおいて、ネットワーク2104’(図示せず)はプライベートネットワークとすることができ、ネットワーク2104はパブリックネットワークとすることができる。これらの実施形態のうちの別のものにおいて、ネットワーク2104はプライベートネットワークとすることができ、ネットワーク2104’はパブリックネットワークとすることができる。これらの実施形態のうちの更に別のものにおいて、ネットワーク2104および2104’の両方をプライベートネットワークとすることができる。
ネットワーク2104は有線または無線リンクを介して接続することができる。有線リンクは、デジタル加入者線(DSL)、同軸ケーブル線または光ファイバ線を含むことができる。無線リンクは、ブルートゥース(登録商標)、Wi-Fi、NFC、RFID、世界規模相互運用マイクロ波アクセス(WiMAX)、赤外線チャネル、または衛星帯を含むことができる。無線リンクは、1G、2G、3Gまたは4Gとして適格な規格を含むモバイルデバイス間の通信に用いられる任意のセルラネットワーク規格も含むことができる。ネットワーク規格は、国際電気通信連合によって維持管理されている仕様等の仕様または規格を満たすことによって、モバイル電気通信規格の1つまたは複数の世代として適格となり得る。例えば、3G規格は、国際モバイル電気通信-2000(IMT-2000)仕様に対応することができ、4G規格は、国際モバイル電気通信アドバンスト(IMT-Advanced)仕様に対応することができる。セルラネットワーク規格の例として、AMPS、GSM、GPRS、UMTS、LTE、LTE Advanced、Mobile WiMAXおよびWiMAX-Advancedが挙げられる。セルラネットワーク規格は、様々なチャネルアクセス方法、例えば、FDMA、TDMA、CDMAまたはSDMAを用いることができる。いくつかの実施形態では、異なるタイプのデータを異なるリンクおよび規格を介して送信することができる。他の実施形態では、同じタイプのデータを異なるリンクおよび規格を介して送信することができる。
ネットワーク2104は、任意のタイプおよび/または形態のネットワークとすることができる。ネットワーク2104の地理的範囲は広く変動する場合があり、ネットワーク2104は、ボディエリアネットワーク(BAN)、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、例えば、イントラネット、メトロポリタンエリアネットワーク(MAN)、広域ネットワーク(WAN)またはインターネットとすることができる。ネットワーク2104のトポロジは任意の形態をとることができ、例えば、以下のもの、すなわち、ポイントツーポイント、バス、スター、リング、メッシュまたはツリーのうちの任意のものを含むことができる。ネットワーク2104は、仮想であり、他のネットワーク2104’の1つまたは複数の層の上にあるオーバーレイネットワークとすることができる。ネットワーク2104は、本明細書に記載の動作をサポートすることが可能な、当業者に既知の任意のそのようなネットワークトポロジとすることができる。ネットワーク2104は、例えば、イーサネットプロトコル、インターネットプロトコルスイート(TCP/IP)、ATM(非同期転送モード)技法、同期型光ネットワーク(SONET)プロトコルまたは同期デジタル階層(SDH)プロトコルを含む異なる複数の技法および層またはプロトコルスタックを利用することができる。TCP/IPインターネットプロトコルスイートは、アプリケーション層、トランスポート層、インターネット層(例えば、IPv6を含む)またはリンク層を含むことができる。ネットワーク2104は、ある種のブロードキャストネットワーク、電気通信ネットワーク、データ通信ネットワークまたはコンピュータネットワークであってもよい。
いくつかの実施形態では、システムは、論理的にグルーピングされたサーバ2106を含むことができる。これらの実施形態のうちの1つにおいて、サーバの論理グループは、サーバファーム2107またはマシンファーム2107と呼ばれる場合がある。これらの実施形態のうちの別のものにおいて、サーバ2106は、地理的に分散している場合がある。他の実施形態において、マシンファーム2107は、単一のエンティティとして管理されてもよい。更に他の実施形態において、マシンファーム2107は複数のマシンファーム38を含む。各マシンファーム2107内のサーバ2106は、異種とすることができる。サーバ2106またはマシン2106のうちの1つまたは複数は、オペレーティングシステムプラットフォーム(例えば、ワシントン州レッドモンド所在のMicrosoft Corp.によって製造されたWINDOWS NT(登録商標))の1つのタイプに従って動作することができる一方で、他のサーバ2106のうちの1つまたは複数は、別のタイプのオペレーティングシステムプラットフォーム(例えば、Unix、Linux(登録商標)またはMac OS X)に従って動作することができる。
1つの実施形態において、マシンファーム2107内のサーバ2106を、関連付けられたストレージシステムと共に、高密度ラックシステム内に格納し、企業のデータセンタ内に配置することができる。この実施形態において、このようにサーバ2106を一元管理することによって、サーバ2106および高性能ストレージシステムをローカライズされた高性能ネットワーク上に配置することにより、システム管理性、データセキュリティ、システムの物理的セキュリティ、およびシステム性能を改善することができる。サーバ2106およびストレージシステムを集中化し、これらを高度システム管理ツールと結合することによって、サーバリソースのより効率的な使用が可能になる。
各マシンファーム2107のサーバ2106は、同じマシンファーム2107内で別のサーバ2106に物理的に近接する必要がない。このため、マシンファーム2107として論理的にグループ化されるサーバ2106のグループは、広域ネットワーク(WAN)接続またはメトロポリタンエリアネットワーク(MAN)接続を用いて相互接続することができる。例えば、マシンファーム2107は、異なる大陸、または大陸、国、州、市、キャンパスもしくは部屋の異なる領域に物理的に位置するサーバ2106を含むことができる。マシンファーム2107内のサーバ2106間のデータ送信速度は、サーバ2106がローカルエリアネットワーク(LAN)接続または何らかの形の直接接続を用いて接続される場合に増大させることができる。加えて、異種マシンファーム2107は、オペレーティングシステムのタイプに従って動作する1つまたは複数のサーバ2106を含むことができる一方、1つまたは複数の他のサーバ2106は、オペレーティングシステムではなく1つまたは複数のタイプのハイパーバイザを実行する。これらの実施形態において、ハイパーバイザを用いて、仮想ハードウェアをエミュレートし、物理的ハードウェアを分割し、物理的ハードウェアを仮想化し、コンピューティング環境へのアクセスを提供する仮想マシンを実行することができ、複数のオペレーティングシステムがホストコンピュータにおいて同時に実行されることを可能にする。ネイティブハイパーバイザは、ホストコンピュータ上で直接実行することができる。ハイパーバイザは、カリフォルニア州パロアルト所在のVMWare, Inc.によって製造されたVMware ESX/ESXi、Citrix Sysems, Incが開発を統括しているオープンソース製品であるXenハイパーバイザ、Microsft他によって提供されたHYPER-Vハイパーバイザを含むことができる。ホストハイパーバイザは、第2のソフトウェアレベルでオペレーティングシステム内で実行することができる。ホストハイパーバイザの例として、VMware WorkstationおよびVIRTUALBOXを挙げることができる。
マシンファーム2107の管理は非集中型であってもよい。例えば、1つまたは複数のサーバ2106は、マシンファーム2107のための1つまたは複数の管理サービスをサポートするためのコンポーネント、サブシステムおよびモジュールを含むことができる。これらの実施形態のうちの1つにおいて、1つまたは複数のサーバ2106は、フェイルオーバ、データ複製、およびマシンファーム2107のロバスト性の増大の技法を含む、動的データの管理の機能を提供する。各サーバ2106は、持続性ストア、およびいくつかの実施形態では動的ストアと通信することができる。
サーバ2106は、ファイルサーバ、アプリケーションサーバ、ウェブサーバ、プロキシサーバ、アプライアンス、ネットワークアプライアンス、ゲートウェイ、ゲートウェイサーバ、仮想化サーバ、展開サーバ、SSL VPNサーバまたはファイアウォールとすることができる。1つの実施形態において、サーバ2106は、リモートマシンまたはノードと呼ばれる場合がある。別の実施形態において、複数のノードは、任意の2つの通信サーバ間の経路内にある場合がある。
図21(b)を参照すると、クラウドコンピューティング環境が示されている。クラウドコンピューティング環境は、クライアント2102に、ネットワーク環境によって提供される1つまたは複数のリソースを提供することができる。クラウドコンピューティング環境は、1つまたは複数のネットワーク2104を介してクラウド2108と通信する1つまたは複数のクライアント2102a~2102nを含むことができる。クライアント2102は、例えば、シッククライアント、シンクライアント、およびゼロクライアントを含むことができる。シッククライアントは、クラウド2108またはサーバ2106から切り離されているときであっても、少なくとも何らかの機能を提供することができる。シンクライアントまたはゼロクライアントは、クラウド2108またはサーバ2106への接続に依拠して機能を提供することができる。ゼロクライアントは、クラウド2108または他のネットワーク2104またはサーバ2106に依拠してクライアントデバイスのためのオペレーティングシステムデータを取り出すことができる。クラウド2108は、バックエンドプラットフォーム、例えば、サーバ2106、ストレージ、サーバファームまたはデータセンタを含むことができる。
クラウド2108は、パブリック、プライベートまたはハイブリッドとすることができる。パブリッククラウドは、クライアント2102またはクライアントの所有者に対する第三者によって維持管理されているパブリックサーバ2106を含むことができる。上記または他の箇所で開示されるように、サーバ2106は、現場から離れて遠隔の地理的ロケーションに位置してもよい。パブリッククラウドは、パブリックネットワークを介してサーバ2106に接続することができる。プライベートクラウドは、クライアント2102またはクライアントの所有者によって物理的に維持管理されているプライベートサーバ2106を含むことができる。プライベートクラウドは、プライベートネットワーク2104を介してサーバ2106に接続することができる。ハイブリッドクラウド2108は、プライベートネットワーク2104およびパブリックネットワーク2104の両方と、サーバ2106とを含むことができる。
クラウド2108は、クラウドベースの配信、例えばサービスとしてのソフトウェア(SaaS)2110、サービスとしてのプラットフォーム(PaaS)2112、およびサービスとしてのインフラストラクチャ(IaaS)2114を含むこともできる。IaaSは、ユーザが料金を払って特定の期間に必要なインフラストラクチャリソースを使用することを指すことができる。IaaSプロバイダは、大きなプールから、ストレージ、ネットワーキング、サーバまたは仮想化リソースを提供し、必要に応じてより多くのリソースにアクセスすることによってユーザが迅速にスケールアップすることを可能にすることができる。PaaSプロバイダは、例えば、ストレージ、ネットワーキング、サーバ、または仮想化、ならびに例えばオペレーティングシステム、ミドルウェアまたはランタイムリソース等の追加のリソースを含む、IaaSによって提供される機能を提供することができる。PaaSの例は、ワシントン州レッドモンド所在のMicrosoft Corporationによって提供されるWINDOWS AZURE、Google Inc.により提供されるGoogle App Engine、およびカリフォルニア州サンフランシスコ所在のHeroku、Inc.によって提供されるHEROKUを含む。SaaSプロバイダは、ストレージ、ネットワーキング、サーバ、仮想化、オペレーティングシステム、ミドルウェアまたはランタイムリソースを含む、PaaSが提供するリソースを提供することができる。いくつかの実施形態では、SaaSプロバイダは、例えばデータおよびアプリケーションリソースを含む追加のリソースを提供することができる。
クライアント2102は、例えば、Amazon Elastic Compute Cloud(EC2)、オープンクラウドコンピューティングインタフェース(OCCI)、クラウドインフラストラクチャ管理インタフェース(CIMI)、またはOpenStack標準規格を含む1つまたは複数のIaaS標準規格によってIaaSリソースにアクセスすることができる。いくつかのIaaS標準規格によって、クライアントはHTTPを通じてリソースにアクセスすることができ、Representational State Transfer(REST)プロトコルまたはSimple Object Access Protocol(SOAP)を使用することができる。クライアント2102は、異なるPaaSインタフェースを有するPaaSリソースにアクセスすることができる。いくつかのPaaSインタフェースは、HTTPパッケージ、標準Java API、JavaMail API、Java Data Objects(JDO)、Java Persistence API(JPA)、Python API、例えばRack for Ruby、WSGI for Python、もしくはPSGI for Perlを含む異なるプログラミング言語のためのウェブインテグレーションAPI、またはREST、HTTP、XML、もしくは他のプロトコルに構築可能な他のAPIを使用する。クライアント2102は、ウェブブラウザによって提供されたウェブベースのユーザインタフェースの使用を通じてSaaSリソースにアクセスすることができる。クライアント2102は、備えているスマートフォンまたはタブレットアプリケーションを通じてSaaSリソースにアクセスすることもできる。クライアント2102は、クライアントオペレーティングシステムを通じてSaaSリソースにアクセスすることもできる。
いくつかの実施形態では、IaaS、PaaSまたはSaaSリソースへのアクセスを認証することができる。例えば、サーバまたは認証サーバは、セキュリティ証明書、HTTPSまたはAPI鍵を介してユーザを認証することができる。API鍵は、例えばAdvanced Encryption Standard(AES)等の様々な暗号化標準規格を含むことができる。データリソースを、Transport Layer Security(TLS)またはSecure Sockets Layer(SSL)を通じて送ることができる。
クライアント2102およびサーバ2106は、任意のタイプおよび形態のネットワークにおける通信、ならびに本明細書に記載の動作の実行が可能な任意のタイプおよび形態のコンピューティングデバイス、例えばコンピュータ、ネットワークデバイスまたはアプライアンスとして展開および/またはこれらにおいて実行することができる。図21(c)および図21(d)は、クライアント2102またはサーバ2106の実施形態を実施するのに有用なコンピューティングデバイス2100のブロック図を示す。図21(c)および図21(d)に示すように、各コンピューティングデバイス2100は、中央処理装置2121およびメインメモリユニット2122を備える。図21(c)に示すように、コンピューティングデバイス2100は、記憶装置2128と、インストールデバイス2116と、ネットワークインタフェース2118と、I/Oコントローラ2123と、表示デバイス2124a~1124nと、キーボード2126と、ポインティングデバイス2127、例えばマウスを備えることができる。記憶装置2128は、限定ではないが、オペレーティングシステムおよび/またはソフトウェア2120を含むことができる。図21(d)に示すように、各コンピューティングデバイス2100は、追加のオプション要素、例えば、メモリポート2103、ブリッジ2170、1つまたは複数の入力/出力デバイス2130a~1130n(包括的に、参照符号2130を用いて参照される)と、中央処理装置2121と通信するキャッシュメモリ2140とを更に備えることができる。
中央処理装置2121は、メインメモリユニット2122からフェッチされる命令に応答し、これを処理する任意の論理回路である。多くの実施形態において、中央処理装置2121はマイクロプロセッサユニットによって提供される。コンピューティングデバイス2100は、これらのプロセッサのうちの任意のもの、または本明細書に記載のように動作することが可能な任意の他のプロセッサに基づくことができる。中央処理装置2121は、命令レベルの並列性、スレッドレベルの並列性、異なるレベルのキャッシュ、およびマルチコアプロセッサを利用することができる。マルチコアプロセッサは、単一のコンピューティングコンポーネントにおける2つ以上の処理装置を含むことができる。
メインメモリユニット2122は、データを格納することができ、かつマイクロプロセッサ2121が記憶場所に直接アクセスできるようにする1つまたは複数のメモリチップを含むことができる。メインメモリユニット2122は揮発性で、ストレージ2128メモリより高速であり得る。メインメモリユニット2122は、ダイナミックランダムアクセスメモリ(DRAM)、あるいは、スタティックランダムアクセスメモリ(SRAM)、バーストSRAMもしくは同期バーストSRAM(BSRAM)、高速ページモードDRAM(FPM DRAM)、エンハンストDRAM(EDRAM)、拡張データ出力RAM(EDO RAM)、拡張データ出力DRAM(EDO DRAM)、バースト拡張データ出力DRAM(BEDO DRAM)、シングルデータレートシンクロナスDRAM(SDR SDRAM)、ダブルデータレートSDRAM(DDR SDRAM)、ダイレクトラムバスDRAM(DRDRAM)、またはエクストリームデータレートDRAM(XDR DRAM)を含む任意の変形体とすることができる。いくつかの実施形態では、メインメモリ2122またはストレージ2128は不揮発性であり、例えば、不揮発性リードアクセスメモリ(NVRAM)、フラッシュメモリ不揮発性スタティックRAM(nvSRAM)、強誘電RAM(FeRAM)、磁気抵抗RAM(MRAM)、相変化メモリ(PRAM)、導電性ブリッジRAM(CBRAM)、シリコン-酸化物-窒化物-酸化物-シリコン(SONOS)、抵抗RAM(RRAM)、レーストラック、ナノRAM(NRAM)、またはMillipedeメモリとすることができる。メインメモリ2122は、前述したメモリチップのうちのいずれか、または本明細書に記載の通りに動作可能な任意の他の使用可能なメモリチップに基づくことができる。図21(c)に示す実施形態において、プロセッサ2121は、システムバス2150(以下で、より詳細に説明する)を介してメインメモリ2122と通信する。図21(d)は、プロセッサがメモリポート2103を介してメインメモリ2122と直接通信するコンピューティングデバイス2100の実施形態を示す。例えば、図21(d)において、メインメモリ2122はDRDRAMとすることができる。
図21(d)は、メインプロセッサ2121が、バックサイドバスと呼ばれることもある二次バスを介してキャッシュメモリ2140と直接通信する実施形態を示す。他の実施形態において、メインプロセッサ2121は、システムバス2150を使用してキャッシュメモリ2140と通信する。キャッシュメモリ2140は、通常、メインメモリ2122よりも高速の応答時間を有し、通常、SRAM、BSRAM、またはEDRAMによって提供される。図21(d)に示す実施形態において、プロセッサ2121は、ローカルシステムバス2150を介して様々なI/Oデバイス2130と通信する。様々なバスを使用して、中央処理装置2121を、PCIバス、PCI-Xバス、PCI-Expressバス、またはNuBusを含むI/Oデバイス2130のうちのいずれかに接続することができる。I/Oデバイスがビデオディスプレイ2124である実施形態の場合、プロセッサ2121は、Advanced Graphics Port(AGP)を使用してディスプレイ2124またはディスプレイ2124用のI/Oコントローラ2123と通信することができる。図21(d)は、メインプロセッサ2121が、I/Oデバイス2130bまたは他のプロセッサ2121’とHYPERTRANSPORT、RAPIDIO、またはINFINIBAND通信技術を介して直接通信するコンピュータ2100の実施形態を示す。図21(d)はまた、ローカルバスと直接通信とを組み合わせ、プロセッサ2121がローカル相互接続バスを使用してI/Oデバイス2130aと通信するが、I/Oデバイス2130bとは直接通信する実施形態を示す。
様々なI/Oデバイス2130a~1130nがコンピューティングデバイス2100内に存在してもよい。入力デバイスは、キーボード、マウス、トラックパッド、トラックボール、タッチパッド、タッチマウス、マルチタッチタッチパッドおよびタッチマウス、マイクロフォン、マルチアレイマイクロフォン、ドローイングタブレット、カメラ、一眼レフカメラ(SLR)、デジタルSLR(DSLR)、CMOSセンサ、加速度計、赤外線光センサ、圧力センサ、磁力計センサ、角速度センサ、深度センサ、近接センサ、周囲光センサ、ジャイロセンサ、または他のセンサを含むことができる。出力デバイスは、ビデオディスプレイ、グラフィックディスプレイ、スピーカ、ヘッドフォン、インクジェットプリンタ、レーザプリンタ、および3Dプリンタを含むことができる。
デバイス2130a~1130nは、備えている複数の入力または出力デバイスの組合せを含むことができる。いくつかのデバイス2130a~1130nは、入力および出力のいくつかを組み合わせることによってジェスチャ認識入力を可能にする。いくつかのデバイス2130a~1130nは、認証および他のコマンドを含む異なる目的のための入力として利用することができる顔認識を提供する。いくつかのデバイス2130a~1130nは音声認識および入力を提供する。更なるデバイス2130a~1130nは、例えば、触覚フィードバックデバイス、タッチスクリーンディスプレイ、またはマルチタッチディスプレイを含む入力能力および出力能力の両方を有する。タッチスクリーン、マルチタッチディスプレイ、タッチパッド、タッチマウス、または他の接触感知デバイスは、例えば、静電容量式、表面静電容量式、投影静電容量式タッチ(PCT)、インセル静電容量式、抵抗、赤外線、導波路、分散信号タッチ(DST)、インセル光学、表面音響波(SAW)、屈曲波タッチ(BWT)、または力ベースの感知技術を含む異なる技術を使用して、接触を感知することができる。いくつかのマルチタッチデバイスにより、表面との2つ以上の接触点が可能になるため、例えば、ピンチ、スプレッド、回転、スクロール、または他のジェスチャを含む高度な機能が可能になり得る。テーブルトップまたは壁等にあるものを含むいくつかのタッチスクリーンデバイスは、他の電子デバイスと対話することもできる。いくつかのI/Oデバイス2130a~1130n、ディスプレイデバイス2124a~1124n、またはデバイスの群は、拡張現実デバイスであってもよい。図21(c)に示すように、I/OデバイスをI/Oコントローラ2123によって制御することができる。I/Oコントローラは、例えば、キーボード2126およびポインティングデバイス2127、例えばマウスまたは光学ペン等の1つまたは複数のI/Oデバイスを制御することができる。更に、I/Oデバイスは、コンピューティングデバイス2100のストレージおよび/またはインストール媒体2116を提供することもできる。更に他の実施形態において、コンピューティングデバイス2100は、携帯用USB記憶装置を受け入れるUSB接続部(図示せず)を提供することができる。更なる実施形態において、I/Oデバイス2130は、システムバス2150と外部通信バス、例えばUSBバス、SCSIバス、ファイアワイヤバス、イーサネットバス、ギガビットイーサネットバス、ファイバチャネルバス、またはサンダーボルトバスとの間のブリッジであってもよい。
いくつかの実施形態では、ディスプレイデバイス2124a~1124nをI/Oコントローラ2123に接続することができる。ディスプレイデバイスは、例えば、液晶ディスプレイ(LCD)、薄膜トランジスタLCD(TFT-LCD)、ブルー相LCD、電子ペーパ(e-インク)ディスプレイ、フレキシブルディスプレイ、発光ダイオードディスプレイ(LED)、デジタル光処理(DLP)ディスプレイ、シリコン上液晶(LCOS)ディスプレイ、有機発光ダイオード(OLED)ディスプレイ、アクティブマトリクス有機発光ダイオード(AMOLED)ディスプレイ、液晶レーザディスプレイ、時分割光シャッタ(TMOS)ディスプレイ、または3Dディスプレイを含むことができる。3Dディスプレイの例として、例えば立体視、偏光フィルタ、アクティブシャッタ、または裸眼立体視を使用することができる。ディスプレイデバイス2124a~1124nは、頭部装着ディスプレイ(HMD)であってもよい。いくつかの実施形態では、ディスプレイデバイス2124a~1124nまたは対応するI/Oコントローラ2123は、OPENGLまたはDIRECTX APIまたは他のグラフィックライブラリによって制御されてもよく、またはこれらのハードウェアサポートを有していてもよい。
いくつかの実施形態では、コンピューティングデバイス2100は、それぞれ同一または異なる種類および/または形態であり得る複数のディスプレイデバイス2124a~1124nを含むことができ、またはこれらに接続することができる。このようにして、I/Oデバイス2130a~1130nおよび/またはI/Oコントローラ2123のうちのいずれかが、コンピューティングデバイス2100による複数のディスプレイデバイス2124a~1124nの接続および使用をサポートし、可能にし、または提供するための、任意の種類および/または形態の適切なハードウェア、ソフトウェア、またはハードウェアおよびソフトウェアの組合せを含むことができる。例えば、コンピューティングデバイス2100は、ディスプレイデバイス2124a~1124nをインタフェース接続、通信、接続、またはその他の方法で使用するための、任意の種類および/または形態のビデオアダプタ、ビデオカード、ドライバ、および/またはライブラリを含むことができる。1つの実施形態において、ビデオアダプタは、複数のディスプレイデバイス2124a~1124nにインタフェース接続するための複数のコネクタを含むことができる。他の実施形態において、コンピューティングデバイス2100は、ディスプレイデバイス2124a~1124nのうちの1つまたは複数にそれぞれ接続された複数のビデオアダプタを含むことができる。いくつかの実施形態では、コンピューティングデバイス2100のオペレーティングシステムの任意の部分を、複数のディスプレイ2124a~1124nを使用するように構成することができる。他の実施形態において、ディスプレイデバイス2124a~1124nのうちの1つまたは複数を、ネットワーク2104を介してコンピューティングデバイス2100に接続された1つまたは複数の他のコンピューティングデバイス2100aまたは2100bによって提供することができる。いくつかの実施形態において、ソフトウェアを、別のコンピュータのディスプレイデバイスをコンピューティングデバイス2100の第2のディスプレイデバイス2124aとして使用するように設計および構成することができる。
再び図21(c)を参照すると、コンピューティングデバイス2100は、オペレーティングシステムまたは他の関連ソフトウェアを格納するため、およびソフトウェア2120に関連する任意のプログラム等のアプリケーションソフトウェアプログラムを格納するための記憶装置2128(例えば、1つまたは複数のハードディスクドライブまたはリダンダントアレイオブインディペンデントディスク)を含むことができる。記憶装置2128の例として、例えば、ハードディスクドライブ(HDD)、光学ドライブ、ソリッドステートドライブ(SSD)、USBフラッシュドライブ、またはデータの格納に適した任意の他のデバイスが挙げられる。いくつかの記憶装置は、例えば、ハードディスクとソリッドステートキャッシュとを組み合わせたソリッドステートハイブリッドドライブを含む複数の揮発性および不揮発性メモリを含むことができる。いくつかの記憶装置2128は、不揮発性、可変、また読出し専用記憶装置であってよい。いくつかの記憶装置2128は、内部記憶装置であり、バス2150を介してコンピューティングデバイス2100に接続することができる。いくつかの記憶装置2128は、外部記憶装置であり、外部バスを提供するI/Oデバイス2130を介してコンピューティングデバイス2100に接続することができる。いくつかの記憶装置2128は、ネットワーク2104上のネットワークインタフェース2118を介して、コンピューティングデバイス2100に接続することができる。いくつかのクライアントデバイス2100は、不揮発性記憶装置2128を必要としなくてもよく、シンクライアントまたはゼロクライアント2102であってもよい。いくつかの記憶装置2128は、インストールデバイス2116として使用することもでき、ソフトウェアおよびプログラムのインストールに適していてもよい。
クライアントデバイス2100は、アプリケーション配布プラットフォームからソフトウェアまたはアプリケーションをインストールすることもできる。アプリケーション配布プラットフォームにより、クライアントデバイス2102へのソフトウェアのインストールを容易にすることができる。アプリケーション配布プラットフォームは、クライアント2102a~2102nがネットワーク2104を通じてアクセス可能な、サーバ2106またはクラウド2108上のアプリケーションのリポジトリを含むことができる。アプリケーション配布プラットフォームは、様々な開発者により開発され提供されるアプリケーションを含むことができる。クライアントデバイス2102のユーザは、アプリケーション配布プラットフォームを介してアプリケーションを選択、購入、および/またはダウンロードすることができる。
更に、コンピューティングデバイス2100は、標準電話線LANまたはWANリンク(例えば、802.11、T1、T3、ギガビットイーサネット、インフィニバンド)、ブロードバンド接続(例えば、ISDN、フレームリレー、ATM、ギガビットイーサネット、イーサネットオーバーSONET、ADSL、VDSL、BPON、GPON、FiOSを含む光ファイバ)、無線接続、または上記のいずれかもしくは全ての何らかの組合せを含むが、これらに限定されない様々な接続を通じて、ネットワーク2104にインタフェース接続するネットワークインタフェース2118を含むことができる。様々な通信プロトコル(例えば、TCP/IP、イーサネット、ARCNET、SONET、SDH、ファイバ分散データインタフェース(FDDI)、IEEE802.11a/b/g/n/ac CDMA、GSM、WiMax、および直接非同期接続)を使用して、接続を確立することができる。1つの実施形態において、コンピューティングデバイス2100は、任意の種類および/または形態のゲートウェイまたはトンネルプロトコル、例えばSecure Socket Layer(SSL)またはTransport Layer Security(TLS)を介して他のコンピューティングデバイス2100’と通信する。ネットワークインタフェース2118は、内蔵ネットワークアダプタ、ネットワークインタフェースカード、PCMCIAネットワークカード、EXPRESS CARDネットワークカード、カードバスネットワークアダプタ、無線ネットワークアダプタ、USBネットワークアダプタ、モデム、または通信および本明細書に記載の動作を実行可能なコンピューティングデバイス2100を任意の種類のネットワークにインタフェース接続するのに適した任意の他のデバイスを含むことができる。
図21(b)および図21(c)に示す種類のコンピューティングデバイス2100は、タスクのスケジューリングおよびシステムリソースへのアクセスを制御するオペレーティングシステムの制御下で動作することができる。コンピューティングデバイス2100は、任意のバージョンのMICROSOFT WINDOWSオペレーティングシステム、異なるリリースのUnixおよびLinuxオペレーティングシステム、任意のバージョンのMacintoshコンピュータ用MAC OS、任意の組込みオペレーティングシステム、任意のリアルタイムオペレーティングシステム、任意のオープンソースオペレーティングシステム、任意の専用オペレーティングシステム、モバイルコンピューティングデバイス用の任意のオペレーティングシステム、またはコンピューティングデバイスで動作可能かつ本明細書に記載の動作を実行可能な任意の他のオペレーティングシステム等の任意のオペレーティングシステムで動作することができる。一般的なオペレーティングシステムとして、限定ではないが、数ある中でも、全てワシントン州レッドモンド所在のMicrosoft Corporationにより製造された、WINDOWS 2000、WINDOWS Server 2012、WINDOWS CE、WINDOWS Phone、WINDOWS XP、WINDOWS VISTA、WINDOWS 7、WINDOWS RT、およびWINDOWS 8、カリフォルニア州クパチーノ所在のApple,Inc.により製造されたMAC OSおよびiOS、無料で利用できるオペレーティングシステムであるLinux、例えば、英国ロンドン所在のCanonical Ltd.により配布されたLinux Mintディストリビューション(「distro」)もしくはUbuntu、またはUnixもしくは他のUnix等由来のオペレーティングシステム、ならびに、カリフォルニア州マウンテンビュー所在のGoogleにより設計されたAndroidが挙げられる。例えばGoogleによるCHROME OSを含むいくつかのオペレーティングシステムを、例えば、CHROMEBOOKSを含むゼロクライアントまたはシンクライアントで使用してもよい。
コンピュータシステム2100は、任意のワークステーション、電話、デスクトップコンピュータ、ラップトップまたはノート型コンピュータ、ネットブック、タブレット、サーバ、携帯用コンピュータ、携帯電話、スマートフォン、または他の携帯型電気通信デバイス、メディアプレイデバイス、ゲームシステム、モバイルコンピューティングデバイス、または任意の他の種類および/もしくは形態の通信可能なコンピューティングデバイス、電気通信デバイス、またはメディアデバイスであってよい。コンピュータシステム2100は、本明細書に記載の動作を実行するのに十分なプロセッサ電力およびメモリ容量を有する。いくつかの実施形態では、コンピューティングデバイス2100は、デバイスに整合する異なるプロセッサ、オペレーティングシステム、および入力デバイスを有することができる。
いくつかの実施形態では、コンピューティングデバイス2100はゲームシステムである。いくつかの実施形態では、コンピューティングデバイス2100はデジタルオーディオプレーヤである。いくつかのデジタルオーディオプレーヤは、例えば、デジタルアプリケーション配布プラットフォームからのアプリケーションによって利用可能になるゲームシステムまたは任意の機能を含む他の機能を有することができる。いくつかの実施形態では、コンピューティングデバイス2100は、備えているファイルフォーマットをサポートする、携帯型メディアプレーヤまたはデジタルオーディオプレーヤである。いくつかの実施形態では、コンピューティングデバイス2100はタブレットである。他の実施形態において、コンピューティングデバイス2100は電子書籍リーダである。いくつかの実施形態では、通信デバイス2102は、デバイスの組合せ、例えば、デジタルオーディオプレーヤまたは携帯型メディアプレーヤと組み合わせたスマートフォンを含む。例えば、これらの実施形態のうちの1つはスマートフォンである。更に別の実施形態において、通信デバイス2102は、ウェブブラウザおよびマイクロフォンおよびスピーカシステム、例えばテレフォニーヘッドセットを備えたラップトップまたはデスクトップコンピュータである。これらの実施形態において、通信デバイス2102は、ウェブ対応で、電話を受け、電話をかけることができる。いくつかの実施形態では、ラップトップまたはデスクトップコンピュータは、ビデオチャットおよびビデオ通話を可能にするウェブカメラまたは他のビデオキャプチャデバイスも備える。いくつかの実施形態では、通信デバイス2102は、ウェアラブルモバイルコンピューティングデバイスである。
いくつかの実施形態では、一般にネットワーク管理の一部として、ネットワーク2104における1つまたは複数のマシン2102、2106のステータスをモニタする。これらの実施形態のうちの1つにおいて、マシンのステータスは、負荷情報(例えば、マシン上のプロセスの数、CPUおよびメモリの利用)、ポート情報(例えば、利用可能な通信ポートおよびポートアドレスの数)、またはセッションステータス(例えば、プロセスの持続時間および種類、プロセスがアクティブであるかアイドルであるか)の特定を含むことができる。これらの実施形態のうちの別のものにおいて、この情報を複数の測定基準で特定することができ、複数の測定基準を、負荷分散の決定、ネットワークトラフィック管理、ネットワーク障害回復、および本明細書に記載の本解決策の動作のいずれかの態様に少なくとも部分的に適用することができる。前述した動作環境およびコンポーネントの態様は、本明細書に開示されるシステムおよび方法の文脈において明らかになろう。
モジュールを含む本明細書の記載は、画像セグメンテーションシステムの態様の構造的独立性を強調し、画像セグメンテーションシステムの動作および応答性の1つのグループを示す。類似の全体動作を実行する他のグループは、本出願の範囲内にあると理解される。モジュールは、非一時的コンピュータ可読ストレージ媒体上のハードウェアにおいておよび/またはコンピュータ命令として実施することができ、モジュールは、様々なハードウェアまたはコンピュータベースの構成要素にわたって分散することができる。
例示的で非限定的なモジュール実施要素は、本明細書において決定された任意の値を提供するセンサ、本明細書において決定された値に先行する任意の値を提供するセンサ、通信チップを含むデータリンクおよび/またはネットワークハードウェア、振動結晶、通信リンク、ケーブル、ツイストペア配線、同軸配線、シールド配線、送信機、受信機および/または送受信機、論理回路、ハードワイヤード論理回路、モジュール仕様に従って構成された特に非一時的な状態における再構成可能論理回路、少なくとも電気、油圧もしくは空気圧アクチュエータを含む任意のアクチュエータ、ソレノイド、オペアンプ、アナログ制御要素(ばね、フィルタ、積分器、加算器、除算器、利得要素)および/またはデジタル制御要素を含む。
様々な実施形態の非限定的な例が本明細書に開示される。本明細書に開示される1つの実施形態からの特徴は、当業者が理解するように、本明細書に開示される別の実施形態の特徴と組み合わせることができる。
本明細書において利用されるとき、用語「概ね」、「約」、「実質的に」および類似の用語は、本開示の主題が関連する技術分野の当業者による一般的かつ受け入れられた用法と調和する広い意味を有することを意図したものである。本開示を考察する当業者には、これらの用語が、記載される特定の特徴の説明を可能にすることを意図したものであり、それらの特徴の範囲を、提供された通りの精密な数値範囲に限定することを意図したものではないことが理解されよう。したがって、これらの用語は、記載される主題の非実質的または些細な変更または変形が、本開示の範囲内であるとみなされることを示すものと解釈されるべきである。
本開示のために、用語「結合された」は、2つの部品の互いに対する直接的または間接的な接合を意味する。そのような接合は、静止的性質であってもよいし、または可動的性質であってもよい。そのような接合は、2つの部品または2つの部品および任意の更なる中間部品が互いと単一ボディとして一体に形成されることによって達成されてもよいし、あるいは2つの部品または2つの部品および任意の更なる中間部品が互いに取り付けられることによって達成されてもよい。そのような接合は、永久的な性質であってもよいし、または取り外し可能もしくは解放可能な性質であってもよい。
様々な要素の向きは、他の例示的な実施形態によれば異なる場合もあり、そのようなバリエーションは本開示に包含されることが意図されていることに留意されたい。開示される実施形態の特徴は、他の開示される実施形態に組み込むことができることが認識される。
重要な点として、様々な例示的実施形態に示されている、装置またはその構成要素の構造および配置は、実例的なものにすぎないことに留意されたい。本開示においてはごく少数の実施形態を詳しく説明したが、開示される主題の新規の教示および利点から著しく逸脱することなく多数の変更(例えば、種々の要素のサイズ、寸法、構造、形状、および割合、パラメータの値、取り付け配置、材料の使用、色、向き等のバリエーション)が可能であることが、本開示を検討する当業者には容易に理解されるであろう。例えば、一体形成されるとして示されている要素が複数の部品または要素から構築されてもよく、要素の位置が逆転されるかまたは他の形で変更されてもよく、別個の要素または位置の性質または数が修正または変更されてもよい。任意のプロセスまたは方法ステップの順番または順序は、代替の実施形態に従って変更または並び替えされてもよい。本開示の範囲から逸脱することなく、様々な例示的実施形態の設計、作動条件、および配置に対して、他の代用、変更、交換、および省略を行うことも可能である。
発明の様々な実施形態を本明細書に説明および例示したが、当業者は、本明細書に説明されている機能を行うための、ならびに/または、本明細書に説明されている結果および/もしくは本明細書に説明されている利点のうち1つもしくは複数を得るための、他の様々な機構ならびに/または構造を容易に想像するであろうし、そのようなバリエーションならびに/または修正の各々は、本明細書に説明されている発明の実施形態の範囲内に入るものと考えられる。より一般的には、本明細書に説明されているパラメータ、寸法、材料、および構成は、特に断りのない限り、いずれも例示的なものであると意図されていること、ならびに、実際のパラメータ、寸法、材料、および/または構成は、本発明の教示が用いられる具体的な用途によって異なることが、当業者に容易に理解されるであろう。当業者は、本明細書に説明されている発明の具体的な実施形態に対する多数の均等物を、ルーチンの実験のみを用いて、認識するかまたは確認できるであろう。したがって、上記の実施形態は例としてのみ提示されていること、ならびに、具体的に説明および特許請求されている以外にも、添付の特許請求の範囲およびその均等物の範囲内において発明の実施形態が行われ得ることが、理解されるべきである。本開示の発明の実施形態は、本明細書に説明されている個々の特徴、システム、物品、材料、キット、および/または方法に関する。加えて、そのような特徴、システム、物品、材料、キット、および/または方法のうち2つまたはそれ以上の任意の組合せは、そのような特徴、システム、物品、材料、キット、および/または方法が互いに相反しないのであれば、本開示の発明の範囲内に含まれる。
また、本明細書に説明されている技術は、その少なくとも1つの実施例が提供されている方法として実施されてもよい。方法の一部として行われる行為は、特に断りがない限り、任意の好適なやり方で順序付けされてもよい。したがって、実施形態は、例示と異なる順序で行為が行われるように構築されてもよく、これには、例示的実施形態においては逐次的な行為として示されているものであっても、いくつかの行為を同時に行うことが含まれ得る。
本明細書および特許請求の範囲で使用される不定冠詞「1つの(a)」および「1つの(an)」は、そうでないことが明記されない限り、「少なくとも1つ」を意味すると理解されるべきである。本明細書および特許請求の範囲において用いられるとき、「または」は、上記で定義されているように「および/または」と同じ意味を有すると理解されるべきである。例えば、列挙中の項目を分ける際に、「または」または「および/または」は、包括的、すなわち少なくとも1つを含むが、複数の要素のうちまたは要素の列挙のうち2つ以上も含み、かつ、列挙されていない追加的項目を含んでもよいと解釈されるべきである。そうでないことが明記されている用語、例えば「~のうち1つのみ」または「~のうち厳密に1つ」等のみが、複数の要素または要素の列挙のうち厳密に1つの要素を含むことを意味する。全体として、本明細書において使用される「または」という用語は、「いずれか」、「~のうち1つ」、「~のうち1つのみ」、または「~のうち厳密に1つ」等、排他的な用語が先行している場合にのみ、排他的な代替物(すなわち「一方または他方であるが両方ではない」)を示すものと解釈されるべきである。
本明細書および特許請求の範囲において用いられるとき、1つまたは複数の要素の列挙に関する「少なくとも1つ」という句は、その要素の列挙内の要素のうち任意の1つまたは複数から選択される少なくとも1つの要素を意味するが、要素の列挙内に具体的に列挙されているあらゆる要素のうち少なくとも1つを必ずしも含むわけではなく、かつ、要素の列挙内の要素の任意の組合せを除外するわけではないことが、理解されるべきである。この定義はまた、「少なくとも1つ」の句が指す要素の列挙内に具体的に特定されている要素と関係していてもしていなくても、具体的に特定されているそれら要素と異なる要素が任意で存在し得ることも可能にする。ゆえに、非限定的な例として、「AおよびBのうち少なくとも1つ」(または、同等である「AまたはBのうち少なくとも1つ」、または、同等である「Aおよび/またはBのうち少なくとも1つ」)は、1つの実施形態において、Bがない(かつ、B以外の要素を含んでもよい)、2つ以上を含んでもよい少なくとも1つのAを指すことができ;別の実施形態において、Aがない(かつ、A以外の要素を含んでもよい)、2つ以上を含んでもよい少なくとも1つのBを指すことができ;また別の実施形態において、2つ以上を含んでもよい少なくとも1つのAと、2つ以上を含んでもよい少なくとも1つのB(かつ、他の要素を含んでもよい)を指すことができる等である。

Claims (21)

  1. 生物医学的画像をセグメンテーションする方法であって、
    1つまたは複数のプロセッサを有するコンピューティングシステムによって、生物医学的画像の少なくとも1つのタイルについて、第1の拡大係数における第1のパッチおよび第2の拡大係数における第2のパッチを識別することと、
    前記コンピューティングシステムによって、トレーニングされたセグメンテーションモデルを前記第1のパッチおよび前記第2のパッチに適用して、セグメンテーションされたタイルを生成することであって、前記トレーニングされたセグメンテーションモデルは複数のネットワークを含み、前記複数のネットワークは、
    前記第1の拡大係数における前記第1のパッチを用いて複数の第1の特徴マップを生成するための第1のネットワーク、および
    前記第2の拡大係数における前記第2のパッチおよび前記第1のネットワークからの前記1つまたは複数の第1の特徴マップを用いて第2の特徴マップを生成するための第2のネットワーク
    を含む、生成することと、
    前記コンピューティングシステムによって、前記生物医学的画像の前記少なくとも1つのタイル内の関心領域を識別する前記セグメンテーションされたタイルを記憶することと、
    を含む、方法。
  2. 前記セグメンテーションモデルの前記複数のネットワークは、
    第3の拡大係数における前記少なくとも1つのタイルの第3のパッチを用いて複数の第3の特徴マップを生成することと、
    前記複数の第3の特徴マップを前記第2のネットワークの対応する複数のデコーダに提供して、前記第2の特徴マップを生成することと、
    を行うための第3のネットワークを備える、請求項1に記載の方法。
  3. 前記第2のネットワークは、対応する複数の列にわたって配置された複数のデコーダを備え、前記複数のデコーダの各々は、前記第1のネットワークからの前記複数の第1のマップの対応する特徴マップを処理するためのものである、請求項1に記載の方法。
  4. 前記第1のネットワークは、対応する複数の列にわたって配置された複数のエンコーダを備え、前記複数のエンコーダの各々は、前記複数の第1のネットワークの対応する特徴マップを前記第2のネットワークにおけるそれぞれのデコーダに提供するためのものである、請求項1に記載の方法。
  5. 前記第2のネットワークは、前記第2の特徴マップを生成する際、前記第1のネットワークからの前記複数の第1の特徴マップを対応する複数の中間特徴マップと組み合わせる複数の連結器を備える、請求項1に記載の方法。
  6. 前記コンピューティングシステムによって、対応する複数の拡大係数における複数のパッチに適用される前記セグメンテーションモデルを適用することによる複数のセグメンテーションされたタイルを用いて、セグメンテーションされた生物医学的画像を生成することを更に含み、各パッチは、前記生物医学的画像の前記複数のタイルの対応するタイルから識別される、請求項1に記載の方法。
  7. 前記コンピューティングシステムによって、病理組織学的画像作成器から導出された前記生物医学的画像を取得することを更に含み、前記生物医学的画像は複数のタイルに分割され、前記複数のタイルの各タイルは、前記生物医学的画像の一部分に対応する、請求項1に記載の方法。
  8. 生物医学的画像をセグメンテーションするためのネットワークをトレーニングする方法であって、
    1つまたは複数のプロセッサを有するコンピューティングシステムによって、
    サンプル生物医学的画像からの少なくとも1つのサンプルタイルであって、前記サンプル生物医学的画像は関心領域を有する、サンプルタイル、および
    前記関心領域の少なくとも一部分をラベル付けするアノテーションであって、前記少なくとも1つのサンプルタイル内の前記関心領域の少なくとも一部分を示す、アノテーション
    を含むトレーニングデータセットを識別することと、
    前記コンピューティングシステムによって、前記サンプル生物医学的画像の前記少なくとも1つのサンプルタイルについて、第1の拡大係数における第1のパッチおよび第2の拡大係数における第2のパッチを生成することと、
    前記コンピューティングシステムによって、前記第1のパッチ、前記第2のパッチ、および前記少なくとも1つのサンプルタイルの前記アノテーションを用いてセグメンテーションモデルをトレーニングすることであって、前記セグメンテーションモデルは複数のネットワークを含み、前記複数のネットワークは、
    前記第1の拡大係数における前記第1のパッチを用いて複数の第1の特徴マップを生成するための第1のネットワーク、および
    前記第2の拡大係数における前記第2のパッチおよび前記第1のネットワークからの前記1つまたは複数の第1の特徴マップを用いて第2の特徴マップを生成するための第2のネットワークであって、セグメンテーションされたタイルは、前記アノテーションと比較した前記第2の特徴マップに対応する、第2のネットワーク
    を含む、トレーニングすることと、
    を含む、方法。
  9. 前記セグメンテーションモデルをトレーニングすることは、
    前記コンピューティングシステムによって、前記関心領域の前記一部分をラベル付けする前記アノテーションに基づいて、前記セグメンテーションされたタイルと前記サンプルタイルとの間のエラーメトリックを決定することと、
    前記コンピューティングシステムによって、前記エラーメトリックを用いて前記セグメンテーションモデルの前記複数のネットワークにおける少なくとも1つのパラメータを更新することと、
    を更に含む、請求項8に記載の方法。
  10. 前記セグメンテーションモデルの前記複数のネットワークは、
    第3の拡大係数における前記少なくとも1つのタイルの第3のパッチを用いて複数の第3の特徴マップを生成することと、
    前記複数の第3の特徴マップを前記第2のネットワークの対応する複数のデコーダに提供して、前記第2の特徴マップを生成することと、
    を行うための第3のネットワークを備える、請求項8に記載の方法。
  11. 前記第2のネットワークは、対応する複数の列にわたって配置された複数のデコーダを備え、前記複数のデコーダの各々は、前記第1のネットワークからの前記複数の第1のマップの対応する特徴マップを処理するためのものである、請求項8に記載の方法。
  12. 前記第1のネットワークは、対応する複数の列にわたって配置された複数のエンコーダを備え、前記複数のエンコーダの各々は、前記複数の第1のネットワークの対応する特徴マップを前記第2のネットワークにおけるそれぞれのデコーダに提供するためのものである、請求項8に記載の方法。
  13. 前記トレーニングデータセットの前記アノテーションは、前記サンプル生物医学的画像内の前記関心領域の全体未満の部分をラベル付けし、前記アノテーションは前記関心領域の前記全体の縁部から分離される、請求項8に記載の方法。
  14. 前記コンピューティングシステムによって、対応する複数の拡大係数における複数のパッチに適用される前記セグメンテーションモデルを適用することによる複数のセグメンテーションされたタイルを用いて、セグメンテーションされた生物医学的画像を生成することを更に含み、各パッチは、前記生物医学的画像の前記複数のタイルの対応するタイルから識別される、請求項8に記載の方法。
  15. 前記サンプル生物医学的画像は、病理組織学的画像作成器から導出され、前記サンプル生物医学的画像は複数のタイルに分割され、前記複数のタイルの各タイルは、前記サンプル生物医学的画像の一部分に対応する、請求項8に記載の方法。
  16. 生物医学的画像をセグメンテーションするためのシステムであって、
    メモリと結合された1つまたは複数のプロセッサを有するコンピューティングシステムを備え、前記コンピューティングシステムは、
    生物医学的画像の少なくとも1つのタイルについて、第1の拡大係数における第1のパッチおよび第2の拡大係数における第2のパッチを識別することと、
    トレーニングされたセグメンテーションモデルを前記第1のパッチおよび前記第2のパッチに適用して、セグメンテーションされたタイルを生成することであって、前記トレーニングされたセグメンテーションモデルは複数のネットワークを含み、前記複数のネットワークは、
    前記第1の拡大係数における前記第1のパッチを用いて複数の第1の特徴マップを生成するための第1のネットワーク、および
    前記第2の拡大係数における前記第2のパッチおよび前記第1のネットワークからの前記1つまたは複数の第1の特徴マップを用いて第2の特徴マップを生成するための第2のネットワーク
    を含む、生成することと、
    前記生物医学的画像の前記少なくとも1つのタイル内の関心領域を識別する前記セグメンテーションされたタイルを記憶することと、
    を行うように構成される、システム。
  17. 前記セグメンテーションモデルの前記複数のネットワークは、
    第3の拡大係数における前記少なくとも1つのタイルの第3のパッチを用いて複数の第3の特徴マップを生成することと、
    前記複数の第3の特徴マップを前記第2のネットワークの対応する複数のデコーダに提供して、前記第2の特徴マップを生成することと、
    を行うための第3のネットワークを備える、請求項16に記載のシステム。
  18. 前記第2のネットワークは、対応する複数の列にわたって配置された複数のデコーダを備え、前記複数のデコーダの各々は、前記第1のネットワークからの前記複数の第1のマップの対応する特徴マップを処理するためのものである、請求項16に記載のシステム。
  19. 前記第1のネットワークは、対応する複数の列にわたって配置された複数のエンコーダを備え、前記複数のエンコーダの各々は、前記複数の第1のネットワークの対応する特徴マップを前記第2のネットワークにおけるそれぞれのデコーダに提供するためのものである、請求項16に記載のシステム。
  20. 前記コンピューティングシステムは、対応する複数の拡大係数における複数のパッチに適用される前記セグメンテーションモデルを適用することによる複数のセグメンテーションされたタイルを用いて、セグメンテーションされた生物医学的画像を生成するように更に構成され、各パッチは、前記サンプル生物医学的画像の前記複数のタイルの対応するタイルから識別される、請求項16に記載のシステム。
  21. 前記コンピューティングシステムは、病理組織学的画像作成器から導出された前記生物医学的画像を取得するように更に構成され、前記生物医学的画像は複数のタイルに分割され、前記複数のタイルの各タイルは、前記生物医学的画像の一部分に対応する、請求項16に記載のシステム。
JP2022520017A 2019-10-02 2020-10-02 マルチクラス画像セグメンテーションのための深層多重倍率ネットワーク Pending JP2022550413A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962909401P 2019-10-02 2019-10-02
US62/909,401 2019-10-02
PCT/US2020/054102 WO2021067833A1 (en) 2019-10-02 2020-10-02 Deep multi-magnification networks for multi-class image segmentation

Publications (1)

Publication Number Publication Date
JP2022550413A true JP2022550413A (ja) 2022-12-01

Family

ID=72944274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022520017A Pending JP2022550413A (ja) 2019-10-02 2020-10-02 マルチクラス画像セグメンテーションのための深層多重倍率ネットワーク

Country Status (8)

Country Link
US (2) US11501434B2 (ja)
EP (1) EP4038572A1 (ja)
JP (1) JP2022550413A (ja)
KR (1) KR20220077142A (ja)
CN (1) CN114787857A (ja)
AU (1) AU2020358969A1 (ja)
CA (1) CA3152934A1 (ja)
WO (1) WO2021067833A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019183596A1 (en) * 2018-03-23 2019-09-26 Memorial Sloan Kettering Cancer Center Systems and methods for multiple instance learning for classification and localization in biomedical imagining
JP2023507865A (ja) * 2019-10-10 2023-02-28 コーニンクレッカ フィリップス エヌ ヴェ 医用画像のセグメント化
US11393194B2 (en) * 2020-08-11 2022-07-19 International Business Machines Corporation Selective analysis for field boundary detection
DE102020123505A1 (de) * 2020-09-09 2022-03-10 Carl Zeiss Microscopy Gmbh Mikroskopiesystem und verfahren zum erzeugen eines übersichtsbildes
DE102020123504A1 (de) 2020-09-09 2022-03-10 Carl Zeiss Microscopy Gmbh Mikroskopiesystem und verfahren zum erzeugen eines hdr-bildes
CN113342396B (zh) * 2021-06-07 2023-05-05 金陵科技学院 Android系统图像识别中目标可前置选择的方法
CN113496496B (zh) * 2021-07-07 2023-04-07 中南大学 基于多种损失和多尺度特征的mri影像海马体区域分割方法
CN113538394B (zh) * 2021-07-26 2023-08-08 泰康保险集团股份有限公司 一种图像分割方法、装置、电子设备及存储介质
TWI813177B (zh) * 2022-02-24 2023-08-21 國立臺南大學 病理組織影像分類方法與電腦程式產品
CN115082500B (zh) * 2022-05-31 2023-07-11 苏州大学 基于多尺度与局部特征引导网络的角膜神经纤维分割方法
CN117372911A (zh) * 2022-06-28 2024-01-09 北京三星通信技术研究有限公司 图像处理方法、装置、电子设备及存储介质
US11978185B1 (en) * 2022-11-22 2024-05-07 Pramana, Inc. System and methods for color gamut normalization for pathology slides
CN117557557B (zh) * 2024-01-09 2024-04-26 广州锟元方青医疗科技有限公司 一种基于细胞核分割模型的甲状腺病理切片细胞检测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7738683B2 (en) * 2005-07-22 2010-06-15 Carestream Health, Inc. Abnormality detection in medical images
US9235891B2 (en) * 2011-01-10 2016-01-12 Rutgers, The State University Of New Jersey Boosted consensus classifier for large images using fields of view of various sizes
EP3146463B1 (en) * 2014-05-23 2020-05-13 Ventana Medical Systems, Inc. Systems and methods for detection of biological structures and/or patterns in images
WO2018125580A1 (en) * 2016-12-30 2018-07-05 Konica Minolta Laboratory U.S.A., Inc. Gland segmentation with deeply-supervised multi-level deconvolution networks
JP2020510463A (ja) * 2017-01-27 2020-04-09 アーテリーズ インコーポレイテッド 全層畳み込みネットワークを利用する自動化されたセグメンテーション
BR112019022447A2 (pt) * 2017-04-27 2020-06-09 Bober Miroslaw sistema e método para análise de imagem funduscópica automatizada

Also Published As

Publication number Publication date
US20230100881A1 (en) 2023-03-30
US20210133966A1 (en) 2021-05-06
KR20220077142A (ko) 2022-06-08
WO2021067833A1 (en) 2021-04-08
EP4038572A1 (en) 2022-08-10
AU2020358969A1 (en) 2022-04-07
CN114787857A (zh) 2022-07-22
CA3152934A1 (en) 2021-04-08
US11501434B2 (en) 2022-11-15

Similar Documents

Publication Publication Date Title
JP2022550413A (ja) マルチクラス画像セグメンテーションのための深層多重倍率ネットワーク
JP7384960B2 (ja) 腫瘍を識別するための畳み込みニューラルネットワークを用いた組織像の処理
US11810677B2 (en) Systems and methods for multiple instance learning for classification and localization in biomedical imaging
US11893732B2 (en) Computer supported review of tumors in histology images and post operative tumor margin assessment
CN112771581B (zh) 用于对免疫疗法和放射疗法的分割、结果预测和纵向应答监测的多模态、多分辨率深度学习神经网络
US20220084660A1 (en) Artificial intelligence processing system and automated pre-diagnostic workflow for digital pathology
US11176412B2 (en) Systems and methods for encoding image features of high-resolution digital images of biological specimens
WO2021011581A1 (en) Image-based predictive model for lung cancer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240805