JP7201681B2 - 単一チャネル全細胞セグメンテーションのためのシステム及び方法 - Google Patents

単一チャネル全細胞セグメンテーションのためのシステム及び方法 Download PDF

Info

Publication number
JP7201681B2
JP7201681B2 JP2020527819A JP2020527819A JP7201681B2 JP 7201681 B2 JP7201681 B2 JP 7201681B2 JP 2020527819 A JP2020527819 A JP 2020527819A JP 2020527819 A JP2020527819 A JP 2020527819A JP 7201681 B2 JP7201681 B2 JP 7201681B2
Authority
JP
Japan
Prior art keywords
nuclear
processor
image
segmentation
cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020527819A
Other languages
English (en)
Other versions
JP2021503666A (ja
Inventor
ユーセフ・アル-コファヒ
ミラベラ・ルス
Original Assignee
モレキュラー デバイシーズ, エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by モレキュラー デバイシーズ, エルエルシー filed Critical モレキュラー デバイシーズ, エルエルシー
Publication of JP2021503666A publication Critical patent/JP2021503666A/ja
Application granted granted Critical
Publication of JP7201681B2 publication Critical patent/JP7201681B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/693Acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20152Watershed segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20156Automatic seed setting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本明細書で開示される主題は、一般に、生体サンプルの画像の全細胞セグメンテーションに関し、より具体的には、1つ以上の非核細胞マーカー染色剤で染色された生体サンプルの画像の単一チャネル全細胞セグメンテーションに関する。
細胞は、全ての生物における基本的な構造的、機能的、及び生物学的ユニットである。さらに、細胞には、幾つかの細胞内区画(核、細胞質、及び膜など)及びオルガネラ(ミトコンドリアなど)が含まれる。細胞を画像化、セグメント化、及び研究する能力は、学術調査及び臨床研究の中心である。1つの例は、正常状態及び病的状態における細胞動態を理解するための研究である。別の例は、細胞に対する様々な薬物治療条件の効果を測定することが重要である創薬である。別の例は、タイムラプス顕微鏡を使用して生細胞の細胞動態を研究するための生細胞画像化である。高解像度蛍光顕微鏡の最近の進歩は、細胞及びそれらの細胞内構造の詳細な可視化への道を開いた。顕微鏡法の進歩は、コンピューティング機能の進歩、並びに正確な高処理量の細胞分析を可能にする画像セグメンテーションのためのコンピュータビジョン及び画像処理の技術の発達を伴ってきた。
細胞セグメンテーション、特に全細胞セグメンテーションは、過去数十年にわたって多くの研究の焦点となってきた。本明細書で使用されるセグメンテーションとの用語は、細胞などの生物学的ユニットの境界の識別を指す。例えば、全細胞セグメンテーションでは、細胞の境界及び核、細胞質、及び/又は膜などの細胞の細胞内区画が、サンプル画像内に描かれている。全細胞セグメンテーションプロセスにより、サンプル画像は輪郭を描かれた領域を有するセグメント化画像に変換される。サンプル画像は、顕微鏡、例えば蛍光顕微鏡を使用して得ることができる。正確なセグメンテーションを達成することは、サンプル画像の複雑さ及び明確な境界を有さない組織構造の高密度さのために、しばしば困難になる可能性がある。特定の分析技術では、セグメンテーションを使用して、バイオマーカーの定量化及び特徴抽出(形態学的特徴及び表現型など)のための領域及び/又はユニットを特定する。例えば、細胞分析ワークフローには、細胞セグメンテーション、細胞レベルの定量化、及びデータ分析が含まれ得る。細胞セグメンテーションステップは、複数の構造マーカーを使用して、異なる細胞内区画をセグメント化し、次いで全細胞セグメンテーションで細胞境界を描くことができる。第2のステップでは、各バイオマーカーを細胞レベル(各細胞に対する平均又は合計強度など)及び細胞内レベルの両方で定量化する。そして、これらの細胞レベルの測定値は通常、データ分析段階の初めに画像レベル又は対象レベルで集計される。全細胞セグメンテーションは詳細な細胞レベルの定量化を容易にするが、既存の細胞分析ワークフローは幾つかの欠点を有する。例えば、細胞セグメンテーションステップからのエラーにより、定量化エラーが発生することがある。さらに、画像の詳細な細胞セグメンテーション及び細胞レベルの定量化は時間がかかる場合があり、処理時間は、組織の特徴及び画像内の細胞の数に応じて画像間で異なり得る。さらに、時間がかかる細胞セグメンテーションの手動による確認がしばしば必要になる。
細胞セグメンテーションのための幾つかの技術が一般的に使用されている。全細胞セグメンテーションのための既存の技術は、セグメンテーションを実行するために機器(顕微鏡など)の2つ以上のチャネルに依存する場合が多く、本明細書では「2チャネル全細胞セグメンテーション」又は「マルチチャネル全細胞セグメンテーション」と呼ぶ。例えば、既存の技術の多くは、第1チャネルにおける核を特異的に染色する核細胞マーカーと、全細胞セグメンテーションのための第1チャネルとは異なる第2チャネルにおける1つ以上の非核細胞マーカーと、の両方の使用に依存している。核細胞マーカーとは対照的に、非核細胞マーカーは、核を特異的に染色しない細胞マーカー、例えば、膜及び/又は細胞質マーカーを指す。従って、このような2チャネル又はマルチチャネル全細胞セグメンテーション技術は、核細胞マーカーのために確保された第1チャネルと、非核細胞マーカーのための第2及び/又はさらなるチャネルと、を備えた2つ以上のチャネルを必要とする。
しかしながら、多くの顕微鏡のチャネルの数は限られていることを考えると、セグメンテーションには単一のチャネルのみを使用して、残りのチャネルを異なる生物学的現象の研究に使用される他の分析バイオマーカーに利用できるようにすることが非常に望ましい。さらに、特に生細胞の画像化では、本明細書で「単一チャネル全細胞セグメンテーション」と呼ばれる、顕微鏡などの機器の単一チャネルを使用して全細胞セグメンテーションを実行し、核細胞マーカーが細胞に及ぼす毒性効果と、それらの使用により生じる可能性のある形態の変化とにより、核を特異的に染色する核細胞マーカー(DAPI(4’,6-ジアミジノ-2-フェニルインドール)など)の使用を避けたいという要望がしばしばある。
幾つかの既存の単一チャネル細胞セグメンテーション技術は、強度及び/又は形態などの画像特徴に依存している。例えば、ウォーターシェッド変換は、接触する/重なり合う細胞又は核を分離し、細胞の画像をセグメント化するために使用されてきた画像処理技術である。ウォーターシェッド変換を使用すると、サンプル画像を3次元の位相幾何学的表面(topological surface)としてモデル化することができ、画像内の画素の値(明るさ又はグレーレベルなど)は地理的な高さを表す。細胞の画像をセグメント化するために使用されてきた他の画像処理技術には、形態学ベースの技術、例えば、細胞又は核に対して塊(blob)のような形状を仮定するブロブベースの検出が含まれる。動的輪郭モデル及び/又はヘビアルゴリズムも使用されている。しかしながら、これらの既存の技術は、細胞に関連する変動のために、正確な全細胞セグメンテーションを可能にしない。
例えば、異なる組織タイプの組織学における変動のために、セグメンテーションは、特定の組織タイプの用途に対する有意な適応及び最適化なしに正確なセグメンテーションを生成しない場合がある。セグメンテーション技術により、画像が過剰にセグメント化される(例えば、単一の細胞として表示されるものが実際には細胞の一部にすぎない)か、又は少なくセグメント化される(例えば、単一の細胞として表示されるものが実際には幾つかの異なる細胞の組み合わせであり得る)場合があることに留意されたい。さらに、画像の1つの領域に適したセグメンテーションパラメータは、同じ画像の他の領域ではうまく機能しない場合がある。従って、既存の技術は、多くの形態学的変動を有する多数の細胞のセグメンテーションには十分に堅牢ではない可能性がある。さらに、細胞はしばしば異なるマーカーで染色され、異なる倍率で画像化されるため、細胞の形状及び外観に大きなばらつきが生じ、セグメンテーション結果が低下する可能性がある。
より最近では、深層学習ベースの技術が生物医学的画像分析の分野において大きな関心を集めている。これらの機械学習技術(画素分類など)は、細胞セグメンテーションにも適用されている。例えば、深層学習モデルを使用して、3つのチャネルから異なる分類の細胞を識別した。しかしながら、細胞境界の実際のセグメンテーションは実行されなかった。
従って、生体サンプルの画像の単一チャネル全細胞セグメンテーション、より具体的には、非核細胞マーカーで染色された生体サンプルの画像の単一チャネル全細胞セグメンテーションを実行するための改善されたシステム及び方法を開発することが非常に望ましい。
最初に特許請求の範囲に記載された主題と範囲が相応する特定の実施形態を以下に要約する。これらの実施形態は、特許請求の範囲に記載される主題の範囲を限定することを意図しておらず、むしろこれらの実施形態は、可能な実施形態の簡単な要約を提供することのみを意図している。実際に、本開示は、以下に記載される実施形態と同様又は異なる場合がある様々な形態を包含し得る。
一実施形態において、1つ以上の非核細胞マーカー染色剤で染色された生体サンプルのサンプル画像を、輪郭を描かれた核及び細胞質領域を有する1つ以上の細胞を含むセグメント化画像に変換するためのコンピュータ実施方法が提供される。この方法は、(a)命令を実行するように構成されたプロセッサと、プロセッサに動作可能に結合されたメモリ又はストレージデバイスであって、メモリ及びストレージデバイスのうちの少なくとも1つは、生体サンプルの複数のトレーニング画像を含むトレーニングデータから生成されるモデルであって、トレーニング画像は、核、細胞、及びバックグラウンドの少なくとも1つとして識別された領域を含む、モデル;1つ以上の非核細胞マーカー染色剤で染色された生体サンプルのサンプル画像;及びプロセッサ実行可能命令;を格納するように構成される、メモリ又はストレージデバイスと、を有するコンピュータシステムを提供することと、(b)メモリ又はストレージデバイス内で、モデル及び1つ以上の非核細胞マーカー染色剤で染色された生体サンプルのサンプル画像にアクセスすることと、(c)モデルをサンプル画像に適用することにより、予測された核領域を含む核確率マップと、予測された細胞領域を含む細胞確率マップと、を生成することと、(d)プロセッサにより、核確率マップからバイナリ核マスクを抽出することと、(e)プロセッサにより、バイナリ核マスクから核種(nuclei seeds)マップを抽出することであって、核種マップは、輪郭を描かれた核領域によって分離された、抽出された個々の核種を含む、ことと、(f)プロセッサにより、抽出された核種をサンプル画像に適用することと、(g)サンプル画像を、輪郭を描かれた核及び細胞質領域を有する1つ以上の細胞を含むセグメント化画像に変換することと、を含む。
別の実施形態では、1つ以上の非核細胞マーカー染色剤で染色された生体サンプルのサンプル画像を、輪郭を描かれた核及び細胞質領域を有する1つ以上の細胞を含むセグメント化画像に変換するためのコンピュータシステムが提供される。このコンピュータシステムは、命令を実行するように構成されたプロセッサと、プロセッサに動作可能に結合されたメモリ又はストレージデバイスと、を含み、メモリ及びストレージデバイスのうちの一方又は両方は、生体サンプルの複数のトレーニング画像を含むトレーニングデータから生成されるモデルであって、トレーニング画像は、核、細胞、及びバックグラウンドの少なくとも1つとして識別された領域を含む、モデル;1つ以上の非核細胞マーカー染色剤で染色された生体サンプルのサンプル画像;及び、プロセッサによって実行されたときに、(a)メモリ又はストレージデバイス内で、モデル及び1つ以上の非核細胞マーカー染色剤で染色された生体サンプルのサンプル画像にアクセスすることと、(b)モデルをサンプル画像に適用することにより、予測された核領域を含む核確率マップと、予測された細胞領域を含む細胞確率マップと、を生成することと、(c)プロセッサにより、核確率マップからバイナリ核マスクを抽出することと、(d)プロセッサにより、バイナリ核マスクから核種マップを抽出することであって、核種マップは、輪郭を描かれた核領域によって分離された、抽出された個々の核種を含む、ことと、(f)プロセッサにより、抽出された核種をサンプル画像に適用することと、(g)サンプル画像を、輪郭を描かれた核及び細胞質領域を有する1つ以上の細胞を含むセグメント化画像に変換することと、を含む動作の実行を引き起こす、プロセッサ実行可能命令;を格納するように構成される。
本開示のこれら及び他の特徴、態様、及び利点は、同様の符号が図面全体を通じて同様の部分を表す添付図面を参照して以下の詳細な説明を読むと、よりよく理解されるであろう。
本開示の実施形態による画像化システムの概略図である。 本開示の実施形態によるコンピューティング装置のブロック図を示す。 本開示の実施形態による深層学習ネットワークアーキテクチャを示す。 本開示の実施形態に従って構築された、核、細胞、及びバックグラウンドラベルに対するトレーニング又は予測モデルの結果を示す。 本開示の実施形態による単一チャネル全細胞セグメンテーションワークフローを示す。 本開示の実施形態による、例示的な入力及び変換された画像を伴う、図5に対応する単一チャネル全細胞セグメンテーションワークフローを示す。 本開示の実施形態による、サンプル画像を細胞確率マップ及び核確率マップに変換するステップを示すブロック図である。 本開示の実施形態による、核確率マップからバイナリ核マスクを抽出するステップを示すブロック図である。 本開示の実施形態による、バイナリ核マスクから、輪郭を描かれた核領域によって分離された個々の核種を有する核種マップを抽出するステップを示すブロック図である。 本開示の実施形態による、抽出された核種をサンプル画像に適用するステップを示すブロック図である。 本開示の実施形態による、細胞セグメンテーション品質スコアを計算するために使用されるアルゴリズムを示す。 図12A~図12Dは、異なる倍率で撮られ、様々な非核細胞マーカーで染色されたサンプル画像の例を示す。図12Aでは、サンプル画像は10倍の倍率で撮られ、dsRedで染色されている。図12Bでは、サンプル画像は10倍の倍率で撮られ、TexasRedで染色されている。図12Cでは、サンプル画像は20倍の倍率で撮られ、Cy5で染色されている。図12Dでは、サンプル画像は20倍の倍率で撮られ、dsRedで染色されている。 図13A~図13Dは、表1の例に対するセグメンテーション結果を示す。図13Aは、半自動化グラウンドトゥルースセグメンテーションを使用したセグメンテーション結果を示す。図13Bは、本開示の実施形態による、深層学習ベースのアプローチを使用したセグメンテーション結果を示す。図13C及び図13Dはそれぞれ、図13A及び図13Bの白いボックスの領域のクローズアップを示す。 図14A~図14Dは、表1の別の例に対するセグメンテーション結果を示す。図14Aは、半自動化グラウンドトゥルースセグメンテーションを使用したセグメンテーション結果を示す。図14Bは、本開示の実施形態による、深層学習ベースのアプローチを使用したセグメンテーション結果を示す。図14C及び図14Dはそれぞれ、図14A及び図14Bの白いボックスの領域のクローズアップを示す。 図15A~図15Dは、表1のさらに別の例に対するセグメンテーション結果を示す。図15Aは、半自動化グラウンドトゥルースセグメンテーションを使用したセグメンテーション結果を示す。図15Bは、本開示の実施形態による、深層学習ベースのアプローチを使用したセグメンテーション結果を示す。図15C及び図15Dはそれぞれ、図15A及び図15Bの白いボックスの領域のクローズアップを示す。 本開示の実施形態による、表1の実験1からの合計1666のセグメント化細胞に対する細胞レベル品質スコアのヒストグラムの結果を示す。 本開示の実施形態による、深層学習ベースのアプローチの交差検証実験の結果を示す。 図18A~図18Dは、半自動化グラウンドトゥルースセグメンテーション結果(図18A)と、本開示の実施形態による、深層学習ベースのアプローチを使用したセグメンテーション結果(図18B)と、の比較の例を示し、図18C及び図18Dはそれぞれ、図18A及び図18Bの白いボックスの領域のクローズアップを示す。
本開示の実施形態は、例えば、無傷の器官又は組織、あるいは器官又は組織の代表的な部分を含む、インサイチュで実行され得る。インサイチュ分析は、生物、器官、組織サンプル、又は細胞培養を含む様々な供給源から得られた細胞を含み得る。それらの分析は、細胞がそれらの生物学的環境から取り出された場合に得ることが困難な標本データを提供することができる。標本内の細胞がそれらの自然組織環境から乱されている場合、そのようなものを取得することは不可能である場合がある。
本開示の全細胞セグメンテーションは、既存のセグメンテーション技術が直面する多くの課題を解決した。本開示のシステム及び方法の利点には、それだけには限定されないが、(a)セグメント化に単一のチャネルを使用する、(b)個々のサンプルのパラメータをカスタマイズする必要なしに、異なるマーカーで染色され、異なる倍率で画像化されたサンプルに適用可能である、(c)クラスター化された細胞が分離され、細胞境界が明確に描かれており、またグラウンドトゥルースセグメンテーションと同等の精度を有する全細胞セグメンテーションを提供することが含まれる。
[システム概要]
本技術は、画像分析のためのシステム及び方法を提供する。特定の実施形態では、本技術は、過去に取得された画像、例えば、デジタルに保存された画像とともに遡及的研究において使用され得ることが想定される。他の実施形態では、画像は、物理的サンプルから取得されてもよい。そのような実施形態では、本技術は、画像取得システムとともに使用することができる。本技術に従って動作することができる例示的な撮像システム10を図1に示す。一般に、撮像システム10は、信号を検出し、その信号を下流のプロセッサによって処理され得るデータに変換する撮像素子12を含む。撮像素子12は、画像データを作成するための様々な物理的原理に従って動作することができ、蛍光顕微鏡、明視野顕微鏡、又は適切な撮像様式に適合されたデバイスを含むことができる。しかしながら、一般に、撮像素子12は、ここでは写真フィルムなどの従来の媒体又はデジタル媒体の何れかにおいて組織マイクロアレイ上の複数のサンプルとして示されている、細胞の集団14を含む生体サンプルを示す画像データを作成する。本明細書で使用する場合、「標本」、「生体標本」、「生体材料」、又は「生体サンプル」との用語は、哺乳動物などの任意の生体系から単離された又はその中にある体液(血液、血漿、血清、又は尿など)、器官、組織、生検、画分、及び細胞を含むがそれらに限定されない、生体組織を含む生体対象から得られた又はその中にある材料、又は対象から得られた液体を指す。標本、生体標本、生体サンプル、及び/又は生体材料はまた、生体サンプル、標本、又は組織を含む材料の断面(器官又は組織の断面部分など)を含むことがあり、また、生体サンプルからの抽出物、例えば、体液(血液又は尿など)からの抗原を含むことがある。標本、生体標本、生体サンプル、及び/又は生体材料は、スライドの一部として画像化されてもよい。
撮像素子12は、システム制御回路16の制御下で動作する。システム制御回路16は、照明源制御回路、タイミング回路、サンプルの動きに関連してデータ取得を調整するための回路、光源及び検出器の位置を制御するための回路などの広範囲の回路を含み得る。本文脈において、システム制御回路16はまた、システム制御回路16によって、又はシステム10の関連するコンポーネントによって実行されるプログラム及びルーチンを格納するための、磁気、電子、又は光学ストレージ媒体などのコンピュータ可読メモリ素子を含むことができる。格納されたプログラム又はルーチンは、本技術の全て又は一部を実行するためのプログラム又はルーチンを含んでもよい。
撮像素子12によって取得された画像データは、例えば、取得されたデータ又は信号をデジタル値に変換するためなどの様々な目的のために撮像素子12によって処理され、データ取得回路18に提供され得る。データ取得回路18は、デジタルダイナミックレンジの調整、データの平滑化又は鮮鋭化、並びにデータストリーム及びファイルのコンパイルなど、必要に応じて、幅広い処理機能を実行することができる。
データ取得回路18はまた、取得した画像データをデータ処理回路20に転送することもでき、そこで追加の処理及び分析を実行することができる。従って、データ処理回路20は、順序付け、鮮鋭化、平滑化、特徴認識などを含むがこれらに限定されない画像データの実質的な分析を実行することができる。さらに、データ処理回路20は、1つ以上のサンプル源(マルチウェルプレートの複数のウェルなど)に対するデータを受け取ることができる。処理された画像データは、撮像システム10内に配置され得るか、又は、撮像システム10から遠く離れて配置され、かつ/又はオペレータワークステーション22などオペレータのために再構築及び表示され得る、画像保管通信システムなどの短期又は長期のストレージデバイスに格納されてもよい。
再構成された画像を表示することに加えて、オペレータワークステーション22は、通常はシステム制御回路16とのインターフェースを介して、撮像システム10の上述の動作及び機能を制御することができる。オペレータワークステーション22は、汎用又は特定用途向けコンピュータ24などの1つ以上のプロセッサベースのコンポーネントを含んでもよい。プロセッサベースのコンポーネントに加えて、コンピュータ24は、磁気及び光学大容量ストレージデバイス、RAMチップなどの内部メモリを含む様々なメモリ及び/又はストレージコンポーネントを含むことができる。メモリ及び/又はストレージコンポーネントは、オペレータワークステーション22又はシステム10の関連するコンポーネントによって実行される、本明細書に記載の技術を実行するためのプログラム及びルーチンを格納するために使用され得る。あるいは、プログラム及びルーチンは、コンピュータのアクセス可能なストレージ、及び/又は、オペレータワークステーション22から遠く離れているがコンピュータ24上に存在するネットワーク及び/又は通信インターフェースによってアクセス可能なメモリに格納されてもよい。コンピュータ24はまた、様々な入力/出力(I/O)インターフェース、並びに様々なネットワーク又は通信インターフェースを含むことができる。様々なI/Oインターフェースは、構成情報を閲覧及び入力するため、及び/又は撮像システム10を操作するために使用され得る、ディスプレイ26、キーボード28、マウス30、及びプリンタ32などのユーザーインターフェースデバイスとの通信を可能にし得る。様々なネットワーク及び通信インターフェースは、局所的及び広域の両方のイントラネット及びストレージネットワーク、並びにインターネットへの接続を可能にし得る。様々なI/O及び通信インターフェースは、適切に又は必要に応じて、ワイヤ、ライン、又は適切なワイヤレスインターフェース(WIFI、Bluetooth、又は携帯電話インターフェースを含む)を利用することができる。
撮像システム10には、複数のオペレータワークステーション22を設けることができる。例えば、撮像スキャナ又はステーションは、画像データ取得手順に含まれるパラメータの調整を可能にするオペレータワークステーション22を含むことができ、一方で、異なるオペレータワークステーション22が、結果及び再構成された画像を操作、増強、及び閲覧するために提供され得る。従って、本明細書に記載される画像処理、セグメント化、及び/又は増強技術は、生の、処理された、又は部分的に処理された画像データにアクセスし、本明細書に記載されたステップ及び機能を実行して画像出力を改善するか又は追加の出力の種類(生データ、強度値、細胞プロファイルなど)を提供する完全に分離された独立したワークステーションなどにおいて、撮像システムから遠隔で実行することができる。
さらに、開示された出力はまた、システム10を介して提供されてもよいことを理解されたい。例えば、システム10は、開示された技術に基づいてメトリック又は値を生成し、そのような値の他の指標をシステム10によって表示又は提供することができる。
開示された実施形態の少なくとも1つの態様では、本明細書に開示されたシステム及び方法は、非一時的コンピュータ可読媒体などのコンピュータ可読媒体に格納された1つ以上のプログラムの制御下で、1つ以上のコンピュータ又はプロセッサベースのコンポーネントによって実行され得る。図2は、本開示の態様を実施するために使用され得る例示的なコンピューティング装置40のブロック図を示す。少なくとも1つの例示的な態様では、システム制御回路16、データ取得回路18、データ処理回路20、オペレータワークステーション22、及び他の開示されたデバイス、コンポーネント、及びシステムは、コンピューティング装置40のインスタンス又はレプリカを使用して実装され得るか、又はコンピューティング装置40の任意の数のインスタンス又はレプリカ間で結合又は分散され得る。
コンピューティング装置40は、コンピュータ可読プログラムコード、少なくとも1つのコンピュータ可読媒体44に格納された機械可読実行可能命令、又は、実行されたときに本開示の実施形態の全て又は一部を含む本明細書に記載されたプロセス及び方法を実施及び実行するように構成されたプロセッサ実行可能命令(ファームウェア又はソフトウェアなど)を含むことができる。コンピュータ可読媒体44は、コンピューティング装置40のメモリデバイスとすることができる。メモリデバイスは、ランダムアクセスメモリ(RAM)などの揮発性メモリ、及び/又は、読み取り専用メモリ(ROM)などの不揮発性メモリを含むことができる。メモリデバイスは、様々な情報を格納してもよく、様々な目的に使用されてもよい。代替の態様では、コンピュータ可読プログラムコードは、装置40の外部、又は装置40から遠く離れたメモリに格納することができる。メモリは、磁気媒体、半導体媒体、光学媒体、又はコンピュータによって読み取り可能かつ実行可能であり得る任意の媒体を含むことができる。コンピューティング装置40はまた、ROM、フラッシュメモリ、ハードドライブ、又は任意の他の適切な光学、磁気、又はソリッドステートストレージ媒体などのストレージデバイス46(不揮発性ストレージなど)を含み得る。ストレージデバイス46は、データ(例えば、入力データ、処理結果など)、命令(例えば、データを処理するためのソフトウェア又はファームウェア)などを格納することができる。コンピューティング装置40はまた、メモリ又は他のコンピュータ可読媒体44及び/又はストレージデバイス46が動作可能に結合された1つ以上のプロセッサ42を含むことができ、メモリ又は少なくとも1つのコンピュータ可読媒体44に格納されたコンピュータ可読プログラムコードを実行する。少なくとも1つの態様では、コンピューティング装置40は、1つ以上の入力又は出力デバイスを含み、例えば、撮像システム10に含まれる他のコンポーネントを操作し得る上述のオペレータワークステーション22などのユーザーインターフェース48と一般的に呼ばれ得るものを含む、例示的な撮像システム10のコンポーネント間の通信を可能にするか、又はコンピューティング装置40からの入力又は出力を撮像システム10の他のコンポーネントに、若しくは撮像システム10の他のコンポーネントから提供することができる。
[トレーニングモデルの開発]
本開示の特定の実施形態によれば、トレーニングモデルが開発され、単一チャネル全細胞セグメンテーションワークフローで使用される。トレーニングモデルは、深層学習フレームワーク上に構築され得る深層学習モデルであることができる。深層学習フレームワークのネットワークアーキテクチャは、畳み込み(convolution)及び逆畳み込み(deconvolution)層のカスケードを使用して画像又は画素ラベルの予測に使用することができる画像機能の階層(低レベルから高レベル)を学習する、畳み込みニューラルネットワークであり得る。Mxnetライブラリ及びU-netアーキテクチャを使用して、深層学習フレームワークにおいて複数の分類又はラベルの画素レベルの予測を計算することができる。
特定の実施形態において、全細胞セグメンテーションにおける深層学習モデルは、mxnetを使用してpythonで実装され得、一方で、核種マップ及び輪郭を描かれた領域を有する細胞セグメンテーションは、ITKを使用してpython及びC++で開発され得る。深層学習モデルは、nvidiaグラフィックカードTesla K80を使用して、Ubuntuベースのamazonクラウド環境(AWS)でトレーニングすることができる。深層学習モデルのトレーニングは、エポック毎に約11~13分かかることがあるが、ここでエポックは、フルトレーニングセットの1パスであり、交差検証の集団(fold)毎に約6時間かかる。トレーニング済みモデル及び後処理ステップを新しい画像に適用することは、画像毎に約4~6秒かかり得る。
図3は、U-netアーキテクチャが使用される本開示の実施形態による深層学習ネットワークアーキテクチャを示す。深層学習トレーニングモデルは160×160画素の画像パッチを使用して生成され、核、細胞、及びバックグラウンドラベルを含む3つの異なるラベルを予測する。図3に示すように、160×160画素の入力画像パッチから、一連の5つの畳み込み(convolution)及びプーリング(pooling)ステップが適用される。畳み込みカーネルのサイズは3×3であり、5つの層に対するフィルター数はそれぞれ、32、64、128、128、及び256である。従って、最下層は5×5の画像になる。
トレーニングは反復的に進行し、反復/エポックの数は経験的に約30~50の範囲に設定される。各トレーニングの反復において、目標は、損失関数が最小になるようにネットワークの重みを推定することである。より具体的には、以下の式(1)に示すように、l、l、及びlはそれぞれ、トレーニングデータセットにおける核、細胞、及びバックグラウンドラベルを示し、p、p、及びpはそれぞれ、核、細胞及びバックグラウンドに対する深層学習アーキテクチャの予測を示す。そして、損失関数f(x)は、予測及び示されたラベルの二乗平均平方根偏差(RSMD)として定義され得る。損失関数には、以下の式(1)のように、異なるラベル間の関係の制約を含めることができ、ここで、w、w、w、及びwは、様々なラベルに関連付けられた重みを表す。重みは1に等しい場合がある。
Figure 0007201681000001
図4は、本開示の実施形態に従って構築された、核、細胞、及びバックグラウンドラベルに対するトレーニング又は予測モデル403(深層学習モデルなど)の結果を示す。3つのラベルにはそれぞれ独自の顕著な特徴があり、その特徴を利用して深層学習モデルを構築する。例えば、核は細胞体と比較してより低い強度の信号を有し得る。一般に、核の強度範囲は、画像のバックグラウンドの強度範囲に近い。より明るい細胞体(すなわち、細胞質)のテクスチャパターンは、使用されるマーカーに基づいて、画像毎に変化し得る。図4に示すように、ラベル402でラベル付けされたトレーニング画像401は、後続の画像処理のためのトレーニングセット(すなわち、トレーニングデータ)として使用され得る。
特定の実施形態では、トレーニングに使用される画像は前処理されてもよい。例として、不均一な照明を補正するために、画像のバックグラウンドを抑制してもよい。例えば、トップハットフィルタリングを200×200のカーネルサイズで適用してもよい。画像の倍率(故に画素サイズ)の違いを明らかにするために、画像を約10倍(画素サイズ=0.65×0.65μmなど)になるように低解像度処理してもよい。その後、入力画像を、各辺から8画素の重なりがある176×176画素の重なり合ったパッチに分割してもよい。従って、内部の160×160画素のみが各パッチに固有である。トレーニングデータは、元のパッチを90度回転させることで拡張することができる。さらに任意で、左右反転したパッチをトレーニングデータに含めることができる。生成されたトレーニングモデルは、ファイルに保存され、コンピューティング装置40のメモリ又はストレージデバイスに格納され、後続のステップ、例えば、本明細書で後述するステップ501又は601で使用され得る。
[単一チャネル全細胞セグメンテーションワークフロー]
図5は、本開示の実施形態による単一チャネル全細胞セグメンテーションワークフローを示す。図6は、本開示の実施形態による、例示的な入力及び変換された画像を伴う、図5に対応する単一チャネル全細胞セグメンテーションワークフローを示す。
図7は、サンプル画像を細胞確率マップ及び核確率マップに変換するための、それぞれ図5及び図6のステップ501/601として示される深層学習変換ステップに含まれるステップを示すブロック図を示す。ステップ701において、サンプル画像、例えば、任意に前処理されてもよい図5及び図6のサンプル画像51/61は、コンピューティング装置40のプロセッサ42などのプロセッサに提供される。ステップ702において、サンプル画像はパッチに分割され、例えば、一実施形態では、サンプル画像は176×176パッチに分割される。サンプル画像は、目的の用途に適した他のサイズのパッチに分割してもよい。ステップ703において、パッチの各画素に、適用されたトレーニング/予測モデルに基づいた予測ラベルが割り当てられる。ラベルは、核、細胞、及びバックグラウンドラベルを含むがこれらに限定されないラベルの群から選択することができる。ステップ704において、割り当てられたラベルを含むパッチが縫い合わされて、割り当てられた各ラベルを有する完全な予測画像を形成する。ステップ705において、プロセッサは、割り当てられた予測ラベルに基づいて、核確率マップ、例えば、それぞれ図5及び図6の核確率マップ52/62と、細胞確率マップ、例えば、それぞれ図5及び図6の細胞確率マップ53/63と、を抽出する。
図5及び図6に示すように、生成された核確率マップ52/62は、核確率マップ52/62及び細胞確率マップ53/63の隣の確率スケールバーによって示されるように、他の細胞領域と比較して画像内のより明るい領域として核を示し得る。核確率マップにおけるより明るい領域の画素はまた、核である確率がより高い画素とも呼ばれ得る。従って、核は、核確率マップにおいてより高い確率を有するこれらの画素によって定義され得る。後続の核二値化変換ステップ502/602では、バイナリ核マスク54/64が核確率マップから抽出される。幾つかの実施形態では、核確率マップの画像閾値処理は、核マスクを抽出するのに十分であり得る(例えば、0.5より高い確率)。しかしながら、画像閾値処理アプローチには欠点があり得る。第一に、画像閾値処理を使用すると、核であると誤って分類された画像アーチファクトが原因で、誤陽性が発生する可能性がある。第二に、隣接する細胞の核は、複数の核を含む大きな連結成分を形成する可能性がある。従って、本開示では、核確率マップからバイナリ核マスクを抽出するための改善された機能をプロセッサに提供する方法が想定される。
図8は、核確率マップからバイナリ核マスクを抽出するための、図5及び図6の核二値化変換ステップ502/602に含まれるステップを示すブロック図を示す。
ステップ801において、前のステップ501/601から生成された核確率マップ52/62がプロセッサに提供される。核確率マップは複数の画素を含み、各画素は割り当てられた核である確率を有する。核確率マップにおける画素の確率は、0~100%の連続確率スケールから選択された値である。従って、核確率マップは、「連続スケール核確率マップ」と呼ばれることがある。本明細書で使用される場合、「連続スケール」は、最小値及び最大値を有するスケールを指し、連続スケール上の値は、最小値と最大値との間の任意の値を取ることができる。例えば、連続確率スケールは0~100%の値を有することができ、画素の確率は0~100%のスケールに沿ってどこかに数値が割り当てられる。
ステップ802において、プロセッサは、核確率マップ上で異なるサイズを有する核を識別するように構成される。特定の実施形態では、ブロブ検出が実行される。本明細書で使用される場合、「ブロブ検出」は、画像又はデジタル対象内の塊のような核を含む領域の識別を指す。例えば、異なるサイズを有する核を検出するために、核確率マップにおいて塊のような核を含む領域が識別される。ブロブ検出を実行することは、ラプラシアン・オブ・ガウシアン(LoG)ブロブ検出器の使用をさらに含み得る。一実施形態では、マルチレベル(又はマルチスケール)のラプラシアン・オブ・ガウシアン(LoG)ブロブ検出器を複数のスケールで適用して、塊のような核を含む識別された領域を強調する。ラプラシアン・オブ・ガウシアンブロブ検出器は、予測される核の期待される形態並びに強度プロファイルを考慮する。複数のスケールでラプラシアン・オブ・ガウシアンフィルターを適用すると、異なるサイズを有する核の検出が向上する。2次元画像Iを仮定すると、スケールσでの任意の画素(x、y)におけるラプラシアン・オブ・ガウシアン(LoG)は、式(2)に示すように定式化される。
Figure 0007201681000002
上記の関数は、最初にスケールσでガウシアンフィルターによって画像Iを畳み込み、その後、ガウシアンフィルターで処理された画像上でラプラシアン微分演算子を計算することによって実施される。
ステップ803において、プロセッサは、マルチレベルの閾値処理、例えばマルチレベルのOtsu閾値処理を、異なるサイズを有する核の識別された領域に適用する。マルチレベルの閾値処理は、自動で又はユーザー入力を使用して実行され得る。異なるサイズを有する核の識別された領域にマルチレベルの閾値処理を適用する際に、3つのレベルを割り当てることができ、各レベルはそれぞれ、画像のバックグラウンド、薄暗い核(ブロブ)、及び明るい核(ブロブ)を定義する。
ステップ804において、プロセッサは、ステップ803で定義された画像のバックグラウンド、薄暗い核、及び明るい核の割り当てられたレベルをそれぞれ有する各画素にバイナリ値を割り当てる。各画素のバイナリ値は、バイナリスケールから選択された値である。本明細書で使用される場合、「バイナリスケール」は、スケールが別個のバイナリデジットの対(例えば、「0」と「1」、「1」と「2」、「+」と「-」の対、又は「オン」と「オフ」の対など)のみを有するスケールを指し、バイナリ値は、バイナリスケール上の2つのバイナリデジットの1つとしてのみ選択することができる。バイナリデジットの表現の例は、単に例示の目的で与えられており、当業者に知られている様々な別個のバイナリデジットの他の対が使用され得ることを理解されたい。幾つかの実施形態では、薄暗い核と明るい核とを組み合わせて、1つのバイナリ値を割り当てることができる。例えば、バックグラウンド画素に「0」のバイナリ値を割り当て、薄暗い核と明るい核とを組み合わせて「1」のバイナリ値を割り当てることができる。
ステップ805において、プロセッサは、核確率マップの画素に割り当てられたバイナリ値に基づいて、連続スケール核確率マップ52/62からバイナリ核マスク54/64を抽出する。画素が0~100%の連続スケール内のどこかにある確率値を有する核確率マップとは異なり、抽出されたバイナリ核マスク54/64における画素は、バイナリスケール上の2つのバイナリデジットの1つとなるように選択された確率値のみを有する。従って、抽出されたバイナリ核マスクはまた、「バイナリスケール核マスク」とも呼ばれる。連続スケール核確率マップ52/62をバイナリスケール核マスク54/64に変換することで、プロセッサは非常に効率的な方法で画像処理を実行することができ、はるかに高速な画像処理が可能になる。全体として、現在の技術では、数秒のうちに大きな画像を処理することができる。これらの改善は、研究中の細胞が画像化、例えば生細胞の画像化の過程で急速かつ動的に変化する可能性がある用途にとって特に重要である。
再び図5及び図6を参照すると、後続の核分離変換ステップ503/603において、プロセッサはさらに、抽出されたバイナリ核マスク54/64を核種マップ55/65に変換する。ステップ502/602から得られた抽出されたバイナリ核マスク54/64は、画像のバックグラウンドから分離された核を含む。しかしながら、バイナリ核マスクはまた、大きな多核接続構成要素を形成する接触核を含むこともある。ワークフローの後続のステップで細胞セグメンテーションの核種としてこれらの多核接続構成要素を使用すると、隣接する細胞が望ましくない状態で結合される。従って、本開示の実施形態によれば、核種マップ55/65は、バイナリ核マスクからさらに抽出され、核種マップは、輪郭を描かれた核領域によって分離された個々の核種を有する。
図9は、輪郭を描かれた核領域によって分離された個々の核種を有する核種マップへのバイナリ核マスクの変換に含まれるステップ、例えば、図5及び図6のステップ503/603を示すブロック図を示す。形状ベースのウォーターシェッドセグメンテーションアプローチが説明の目的で図9に示されているが、本開示の実施形態に従って他のアプローチが使用され得ることを理解されたい。ステップ901において、バイナリ核マスクの距離変換が決定されて、バイナリ核マスクにおける各画素の値がバックグラウンドからの画素のユークリッド距離に等しい距離マップ画像が生成される。次に、ステップ902において、拡張h-minima変換が距離マップ画像に適用される。これは、レベルhでH-minima変換を適用することで始まり、その深さが値h未満である距離マップ画像における全ての局所最小値を抑える。ステップ903において、プロセッサは、抑えられた局所最小値を有する結果として生じる画像の局所最小値を抽出する。パラメータhはユーザー又はコンピュータによって設定され得、そのデフォルト値は約3μmである。ステップ904において、シード(seeded)ウォーターシェッド変換が逆距離変換に適用され、ステップ903で抽出された局所最小値を核種として使用する。ステップ904の結果は、輪郭を描かれた核領域によって分離された個々の核種を有する核種マップである。
再び図5及び図6を参照すると、細胞増強変換ステップ504/604及び細胞描写変換ステップ505/605は、輪郭を描かれた核及び細胞質領域を有する1つ以上の細胞を有するセグメント化画像57/67にサンプル画像を変換するワークフローの最終ステップを示す。
細胞増強変換ステップ、例えば、図5及び図6のステップ504/604は任意のステップであることを理解されたい。ステップ504/604において、サンプル画像51/61は、細胞増強変換プロセスを介して、増強されたサンプル画像56/66に変換される。図5及び図6の深層学習変換ステップ502/602においてサンプル画像から生成された細胞確率マップ53/63がここで、細胞増強変換ステップ504/604においてサンプル画像に再度適用される。一実施形態では、細胞確率マップ53/63とサンプル画像51/61との間の画素レベルの重み付けが実行される。例えば、プロセッサは、細胞確率マップ内の画素値を重みとして使用して、画素レベルの重み付けをサンプル画像強度に適用し、増強されたサンプル画像を生成することができる。サンプル画像51/61、又は増強されたサンプル画像56/66は、細胞描写変換ステップ、例えば、図5及び図6のステップ505/605においてプロセッサによってさらに使用される。
細胞確率マップを単独で使用することは、プロセッサが輪郭を描かれた領域で識別された1つ以上の細胞を有するセグメント化画像にサンプル画像を変換することを可能にするのに十分ではないことに留意されたい。プロセッサの機能を改善し、プロセッサがサンプル画像又は増強されたサンプル画像に対して単一チャネル全細胞セグメンテーションを実行することを可能にするために、図5及び図6のステップ503/603で抽出された核種マップがプロセッサに提供される。プロセッサは、図5及び図6のステップ504/604に従って、個々の核種を有する核種マップを抽出し、図5及び図6のステップ505/605中に、抽出された核種をサンプル画像又は増強されたサンプル画像に適用することができる。結果として、サンプル画像又は増強されたサンプル画像は、核及び細胞質領域を含むがそれらに限定されない、輪郭を描かれた細胞及び/又は細胞内領域を有する1つ以上の細胞を含むセグメント化画像に変換される。図6の例示的な画像67に示すように、細胞及び/又は細胞内区画の境界の輪郭が描かれている。画像中の細胞及び/又は細胞内区画の境界は白黒の線画で示されているが、特定の実施形態では、境界は異なる細胞輪郭を表すために異なる色で描くことができることを理解されたい。
図10は、図5及び図6のステップ504/604に含まれる変換ステップの一実施形態を示すブロック図である。任意のステップ1001において、サンプル画像は、強度調整のためにプロセッサによって、例えば、ノイズ除去、不均一なバックグラウンド照明などのバックグラウンド照明の補正、又は再スケーリング(ログスペースでの再スケーリングなど)、又はそれらの任意の組み合わせによって前処理される。
任意のステップ1002において、プロセッサは、細胞確率マップ内の画素値を重みとして使用して、画素レベルの重み付けをサンプル画像強度に適用し、サンプル画像を増強されたサンプル画像に変換する。
ステップ1003において、プロセッサは、画像のバックグラウンドを決定し、全ての細胞の期待される面積に基づいてバックグラウンドラベルを割り当てる。プロセッサは、抽出された核種をサンプル画像又は増強されたサンプル画像に適用する。細胞の期待される面積は、核種マップにおいて抽出された核種の数に基づいて決定され得、各細胞に対する期待される平均面積は1つの核種が1つの細胞に対応するとの仮定に基づく。マルチレベルの閾値処理、例えばマルチレベルのOtsu閾値処理もまた、画像に適用することができる。期待される細胞面積に最も近いと推定される面積に対応するように、最適なOtsu閾値が選択される。期待される細胞面積に対応しない領域には、バックグラウンドラベルが割り当てられる。
ステップ1004において、輪郭を描かれた核領域によって分離された個々の核種を含む抽出された核種マップとともに、ステップ1003からの割り当てられたバックグラウンドラベルが、画像のシードウォーターシェッドセグメンテーションで使用される。このアプローチにより、細胞の識別及び分離が可能になる。画像内の核ごとに、そのアプローチは対応する細胞を識別する。
本開示の実施形態による単一チャネル全細胞セグメンテーションワークフローは、既存の技術では容易に得ることができない改善された機能、例えば、輪郭を描かれた核及び細胞質領域で識別された1つ以上の個々の細胞を有するセグメント化画像に1つ以上の非核細胞マーカー染色剤で染色された生体サンプルのサンプル画像を変換するプロセッサの画像処理能力を、プロセッサに提供する。さらに、本開示の技術は、既存の技術が直面する複数の技術的課題を成功裏に解決した。例えば、本開示の技術は、プロセッサに、顕微鏡の単一チャネルを使用して単一チャネル全細胞セグメンテーションを実行する能力を提供する。これは、チャネルの1つが核特異的細胞マーカー染色剤で使用するために確保されている2つ以上のチャネルを使用するセグメンテーション技術とは対照的である。
本開示の実施形態によれば、サンプルは、細胞核を特異的に染色しない非核細胞マーカー染色剤のみで染色されるため、核特異的細胞マーカー染色剤のために確保されたチャネルの必要性を排除し、多くの機器の限られた数のチャネルの使用を最大化する。さらに、核特異的細胞マーカー染色剤を使用する必要性を排除することにより、現在の技術は、生細胞の画像化を含むがこれに限定されない様々な技術分野において顕著な技術改善を提供し、核細胞マーカー染色剤の細胞、特に生細胞の画像化を受けている細胞に対する潜在的に有害な毒性効果を回避することができる。
本明細書で言及され、本開示全体を通して使用されるように、「核特異的細胞マーカー染色剤」との用語はまた、「核細胞マーカー染色剤」、「核マーカー染色剤」、又は「核染色剤」と呼ばれることもあり、具体的に細胞核を染色し得る。幾つかの実施形態では、核細胞マーカー染色剤は、DAPI染色剤である。幾つかの実施形態では、核細胞マーカー染色剤は、核DNAに特異的な蛍光染料などの核特異的染料又は染色剤を含み得る。幾つかの実施形態では、核細胞マーカー染色剤は、細胞の核に特異的な細胞マーカータンパク質を検出し、核及びその構造の形態及び動態の研究を助けることができる核細胞マーカー抗体を含み得る。核に特異的な細胞マーカータンパク質には、ASH2L、ATP2A2、CALR、CD3EAP、CENPA、COL1A1、DDIT3、EIF6、ESR1、ESR2、GAPDH、H2AFX、H2AFZ、HIF1A、HIST1H4A、Ki67、LaminA/C、MYC、NOP2、NOS2、NR3C1、NUP98、pCREB、SIRT1、SRSF2、又はTNF、又はそれらの任意の組み合わせが含まれるが、これらに限定されない。
本明細書で言及され、本開示全体を通して使用されるように、「非核細胞マーカー染色剤」との用語はまた、「非核マーカー染色剤」又は「非核染色剤」と呼ばれることもある。本開示による幾つかの実施形態では、核細胞マーカー染色剤は、DAPI染色剤であり、非核細胞マーカー染色剤は、DAPIではない染色剤(すなわち、非DAPI染色剤)である。幾つかの実施形態では、非核細胞マーカー染色剤は、核DNAに特異的でない蛍光染料などの染料又は染色剤を含み得る。幾つかの実施形態では、非核細胞マーカー染色剤はまた、非核細胞マーカー、例えば、細胞の核に特異的でない非核細胞マーカータンパク質を検出する非核細胞マーカー抗体も含み得る。幾つかの実施形態では、非核細胞マーカーは、NaKATPase、PMCA、パンカドヘリン(pan-Cadherin)、CD98、CD45、ATP2A2、C3、CD40L、CD27、CD40、ESR1、CD95、DIg4、Grb2、FADD、GAPDH、LCK、MAPT、IL6、メンブリン、NOS3、RYR1、P4HB、RAIDD、CALRなどを含むがこれらに限定されない任意の原形質膜マーカー、及び、ACTB、AHR、CALR、DDIT3、DLg4、ESR1、GAPDH、HIF1A、HSPA1A、NOS2、NOS3T、NR3C1、MAPT、RYR1などを含むがこれらに限定されない任意の細胞質マーカーなどの構造マーカーを含む。非核細胞マーカーの他の非限定的な例は、ACTC1、ACTC2、HSPB1、KRT17、MAP1LC3B、NFATC2、TNNT2、TUBA1A、TUBB3、FP3、S6、pS6、CFP4、Glul、CFP5、pS6235、CFP6、CFP7、FOXO3a、CFPS、pAkt、CFP9、pGSK3beta、パンケラチン(pan-Keratin)など、及び意図されている特定の用途に特異的な他の非核細胞マーカーを含むが、これらに限定されない。1つの個々の非核細胞マーカー染色剤が全細胞区画を染色しない場合、非核細胞マーカー染色剤の組み合わせを同じチャネルで使用して均一な染色を提供することができることを理解されたい。多種多様な非核細胞マーカー染色剤が当業者に知られており、本開示による非核細胞マーカー染色剤の範囲内であることが意図されることも理解されたい。
本開示によって提供される追加の利点には、例えば、技術が様々な細胞タイプ及びサンプルに適用可能であることが含まれる。さらに、以下の実施例セクションに示すように、本開示の実施形態に従って、多種多様な非核細胞マーカー染色剤で染色され、様々な倍率で画像化されたサンプルは、ワークフローへの追加の変更の必要なしに、同じ全細胞セグメンテーションワークフローにかけることができる。カスタマイズされた変更を排除することで、プロセッサははるかに高速で効率的な方法で画像処理を実行することができ、これは、画像化の過程で細胞が急速かつ動的に変化するような用途で重要である。
[セグメンテーション結果の評価]
特定の実施形態では、セグメンテーション結果の評価が実行されてもよい。コンピューティング装置40は評価ユニットを含み、評価ユニットは品質管理(QC)評価を実行するように構成され、品質スコアの形でQC評価結果を提供する。QC評価は、例えば類似性メトリックなどのメトリックに基づくことができる。類似性メトリックは、例えば、細胞セグメンテーション結果をゴールドスタンダード(又はグラウンドトゥルース)細胞セグメンテーション結果と比較するためのメトリックとして定義された細胞セグメンテーション類似性メトリックを含み得る。グラウンドトゥルース細胞セグメンテーションは、以下の実施例セクションで説明するような、自動又は半自動のグラウンドトゥルース細胞セグメンテーションであり得る。幾つかの実施形態では、細胞セグメンテーション類似性メトリックは、セグメント化画像に適用され、細胞セグメンテーションの品質又は良さを評価し、細胞セグメンテーション品質スコアを生成する。セグメント化画像が1つ又は幾つかのセグメント化された対象を含む幾つかの実施形態では、バイナリ類似性メトリック(ダイスオーバーラップ比メトリックなど)を使用することができる。セグメント化画像が多数のセグメント化された対象(数百又は数千のセグメント化された細胞など)を含む特定の実施形態では、バイナリ類似性メトリックは十分ではなく、図11のアルゴリズムによって定義される細胞セグメンテーション類似性メトリックがQC評価に使用され得る。
[データセット]
以下の表1は、実施例セクションで使用されるデータセット及び実験条件の詳細を示す。データセットは、本開示の態様によるモデルのトレーニング、又は本開示の実施形態によるセグメンテーション方法のテストの何れかのために使用された。
Figure 0007201681000003
表1では、6つのプレート(プレート#1~6)からのデータを含むデータセットが使用され、各プレートは、96のウェルマイクロプレート(簡潔のために「プレート」と呼ばれる)で複数のアッセイを受けたサンプルの画像を含む。細胞体/細胞質を識別するための非核細胞マーカー染色剤としての蛍光染料で、サンプルを染色した。表1では、dsRed、Cy5、TexasRedなどの蛍光染料を使用した。しかしながら、他の用途では、それらの特定の用途に適した非核細胞マーカー染色剤を使用することができる。その意図された用途による適切な細胞マーカー染色剤の選択は、当業者の知識の範囲内である。画像を、GEのINCellアナライザーシステムを使用して取得した。プレートを、10倍(画素サイズ0.65×0.65)及び20倍(画素サイズ0.325×0.325)を含む様々な倍率でスキャンした。40倍及び60倍(データは示されていない)を含むがこれらに限定されない他の倍率が使用されてもよい。倍率に関係なく、各画像のサイズは2048×2048画素であった。各プレートにおけるウェルの小さなサブセット(例えば、各プレートの1列又は2列)のみを実験で使用した。表1の実験1~3には、それぞれ合計123の画像があった。他の数の画像が使用されてもよいことを理解されたい。画像の数の選択及びその意図される用途によるデータセットの選択は、当業者の知識の範囲内である。図12A~図12Dは、様々な非核細胞マーカーで染色され、異なる倍率で撮られたサンプル画像の例を示す:(A)10倍、dsRedチャネル;(B)10倍、TexasRedチャネル;(C)20倍、Cy5チャネル;及び(D)20倍、dsRedチャネル。
トレーニングモデル、例えば深層学習ベースのモデルを生成するために、グラウンドトゥルースセグメンテーションと呼ばれるセグメント化画像のセットが使用される。トレーニングモデルを生成するプロセスは、「モデルのトレーニング」と呼ばれることがある。グラウンドトゥルースセグメンテーションは、モデルをトレーニングするため、並びにトレーニングモデルを使用してセグメンテーションの結果を評価するために使用することができる。理想的には、人間の専門家がそのようなグラウンドトゥルースセグメンテーションを作成する。しかしながら、画像には数百の細胞が含まれる可能性があるため、これには非常に時間がかかる。この制限を克服するために、本開示の態様によるモデルは、自動的に得られた準最適セグメンテーション(「自動グラウンドトゥルースセグメンテーション」と呼ばれる)を使用してトレーニングされる。幾つかの実施形態では、核特異的マーカー染色剤及び非核細胞マーカー染色剤の両方で染色されたサンプル画像が、以前に開発された2チャネル細胞セグメンテーション技術を受け、モデルをトレーニングする際に自動グラウンドトゥルースセグメンテーションとして使用される2チャネルセグメンテーションを生成する。
特定の実施形態では、自動的に生成されたグラウンドトゥルースセグメンテーションに加えて、専門家によって画像が半自動的にセグメント化され(「半自動グラウンドトゥルースセグメンテーション」と呼ばれる)、自動セグメンテーション結果を検証するために使用され得る。半自動グラウンドトゥルースセグメンテーションの場合、専門家はソフトウェア(例えば、オープンソースソフトウェアであるCellProfiler)を使用して、初期の準最適セグメンテーションを生成することができる。次に、専門家はソフトウェアを使用して、細胞を分割、結合、追加、及び削除することにより、セグメンテーション結果を手動で調整/編集することができる。
表1は、3つの実験を要約する(実験1~3)。3つの実験全てにおいて、自動化された2チャネルのグラウンドトゥルースセグメンテーションが深層学習モデルのトレーニングに使用された。データセットは、トレーニングに使用されるデータセット(すなわち、トレーニングセット)、テストに使用されるデータセット(すなわち、テストセット)、及びそれぞれの実験のセグメンテーション結果の検証に使用されるデータセットに別々に分割することができる。
[実験1:セグメンテーション]
実験1では、表1のプレート#1~5が使用され、合計108のサンプル画像が得られた。108の画像のうち、10の画像をテストセットとして使用し、残りの98の画像をさらにトレーニングセット(88画像)と検証セット(10画像)とに分割した。テストセットの10の画像のセグメンテーション結果を、それらを半自動グラウンドトゥルースセグメンテーションと比較することによって評価した。図13A~図13Dは、表1の実験1の1つのサンプルに対するセグメンテーション結果を示す。図13A(左上の列)は、半自動グラウンドトゥルースセグメンテーションを受けた画像のセグメンテーション結果を示す。図13B(右上の列)は、本開示の実施形態によるセグメンテーション技術を受けた画像のセグメンテーション結果を示す。図13C及び図13D(最下行)はそれぞれ、図13A及び図13Bの白いボックス内の領域のクローズアップを示す。2つのセグメンテーション結果で高い類似性が観察された。
図14A~図14Dは、表1の実験1の別の例に対するセグメンテーション結果を示す。図14A(左上の列)は、半自動グラウンドトゥルースセグメンテーションを受けた画像のセグメンテーション結果を示す。図14B(右上の列)は、本開示の実施形態によるセグメンテーションを受けた画像のセグメンテーション結果を示す。図14C及び図14D(最下行)はそれぞれ、図14A及び14Bの白いボックス内の領域のクローズアップを示す。
図15A~図15Dは、表1の実験1のさらに別の例に対するセグメンテーション結果を示す。図15A(左上の列)は、半自動グラウンドトゥルースセグメンテーションを受けた画像のセグメンテーション結果を示す。図15B(右上の列)は、本開示の実施形態によるセグメンテーションを受けた画像のセグメンテーション結果を示す。図15C及び15D(最下行)はそれぞれ、図15A及び図15Bの白いボックス内の領域のクローズアップを示す。
細胞セグメンテーション結果の品質をさらに評価するために、細胞セグメンテーション類似性メトリックをセグメント化画像に適用して、本開示の実施形態による単一チャネル全細胞セグメンテーション結果を、自動グラウンドトゥルースセグメンテーション及び/又は半自動グラウンドトゥルースセグメンテーション結果を含むグラウンドトゥルースセグメンテーション結果と定量的に比較することができる。細胞セグメンテーション類似性メトリックは、図11のアルゴリズムによって定義され得る。実験1では、10のテスト画像が半自動グラウンドトゥルースセグメンテーションを受けた。本開示の実施形態に従って、全ての画像における合計1666の細胞が、単一チャネル全細胞セグメンテーションを受けた。次に、個々の細胞のセグメンテーション結果を同じ細胞の対応するグラウンドトゥルースセグメンテーションと比較することにより、1666の細胞の個々の細胞ごとにセグメンテーション品質スコアを決定した。
図16は、実験1のサンプル画像における細胞に対する細胞レベルのセグメンテーション品質スコアのヒストグラムを示す。全体的な(平均の)細胞レベルのセグメンテーション品質スコアは、約0.87であることが分かった。セグメンテーション結果を2チャネルのセグメンテーション結果と比較することによる全体的な細胞レベルのスコアは、平均スコアが約0.86であった。比較のために、2チャネルのセグメンテーション結果を半自動グラウンドトゥルースセグメンテーションと比較すると、平均スコアは約0.93であった。
細胞レベルのセグメンテーション品質スコアに加えて、画像レベルの品質スコアがまた、図11に記載されたワークフローに従って画像レベルで平均化することによって決定された。画像レベルのセグメンテーション品質評価の結果を表2に示す。
Figure 0007201681000004
表2は、本開示の実施形態による、実験1におけるサンプルのセグメンテーション結果を示す。表2に示すように、10の画像(画像ID#1~10)が選択され、3つのセグメンテーション比較が実行された。第一のセグメンテーション結果セットは、専門家がソフトウェアを使用して手動でセグメンテーションを編集又は変更する、専門家によって実行される半自動セグメンテーションによって開発された。これは、表2では「グラウンドトゥルースセグメンテーション」と呼ばれている。第二のセグメンテーション結果セットは、以前に開発された2チャネルセグメンテーション技術を適用することにより自動的に生成され、表2では「2チャネルセグメンテーション」と呼ばれている。第三のセグメンテーション結果セットは、本開示の実施形態による単一チャネル全細胞セグメンテーション技術によって開発され、表2では「深層学習セグメンテーション」と呼ばれている。深層学習セグメンテーションの結果を、2チャネルセグメンテーション(左の列「2チャネルに対する深層学習の類似性」)、並びに、半自動グラウンドトゥルースセグメンテーション(中央の列「グラウンドトゥルースに対する深層学習の類似性」)と比較し、平均画像レベルの品質スコアはそれぞれ、0.85及び0.86であった。比較のために、単一チャネル全細胞セグメンテーションで使用されるモデルをトレーニングするために使用された2チャネルセグメンテーションの結果を、半自動グラウンドトゥルースセグメンテーションの結果と比較した(表2の右の列、グラウンドトゥルースに対する2チャネルの類似性」)。比較の結果、平均画像レベルのスコアは0.93であった。
[実験2:交差検証]
図17は、交差検証実験の結果-表1の実験2の結果を示す。この実験では、10の集団の交差検証を行って、受信者動作曲線(ROC)を構築した。次に、交差検証を使用して、核確率マップ及び細胞確率マップの曲線下面積(AUC)及び精度(ACC)を評価した。交差検証では、表1(実験2)の最初の5つのプレート#1~5から取得した108の独立したサンプル画像を使用した。各交差検証の反復で、画像は3つの重なり合わない画像セットに分割された:トレーニングセット(88画像)、検証セット(10画像)、及びテストセット(10画像)。
表3は、図17の受信者動作曲線の曲線下面積(「AUC」)及び精度(「ACC」)の結果を示す。核及び細胞の両方に対するAUCは0.95よりも大きく、ACCは核及び細胞に対してそれぞれ、約0.915及び0.878である。ACC値は、0.50の閾値を使用して決定される。全ての核に1つのバイナリ値が割り当てられ、全ての細胞の残りに他のバイナリ値が割り当てられていると仮定すると、AUC及びACCはバイナリ核マスクで決定されることに留意されたい。
Figure 0007201681000005
表4は、異なるデータセット(プレート)に対するセグメンテーション精度の要約を示す。4つのデータセットに対する全体的な精度は、約0.84と計算された。
Figure 0007201681000006
[実験3:モデル又はネットワークのトレーニング]
表1のプレート#1~5からの合計108の画像を、モデル/ネットワーク、例えば、深層学習モデルをトレーニングするために使用した。実験3の108の画像を、トレーニングセットとしての98の画像と、検証セットとしての10の画像とに分割した。次に、モデル/ネットワークを、テストセットとしての表1のプレート#6からの15の画像を使用してテストした。テストデータセットに対して利用可能な半自動グラウンドトゥルースセグメンテーションがなかったため、2チャネルセグメンテーションが生成され、専門家による定性的評価の後にグラウンドトゥルースセグメンテーションとして使用された。前のセクションで説明した実験1に示したようなプロセスを適用すると、全体的な細胞レベルのセグメンテーション品質スコアは約0.84と決定された。次に、画像レベルのセグメンテーション品質スコアを、図11に示すようなアルゴリズムで定義された類似性メトリックを使用して、各画像に対する細胞レベルの品質スコアを平均化することによって決定した。
表5は、第6のプレートからの15の画像に対する画像レベルのセグメンテーション品質スコアの結果を示す。ほとんどの画像レベルのセグメンテーション品質スコアの範囲は約0.8と約0.9との間であり、平均の画像レベルのセグメンテーション品質スコアは約0.84であり、同じプレート#6に対する全体的な細胞レベルのセグメンテーション品質スコアと同様である。結果は専門家によって批評され、承認された。
Figure 0007201681000007
図18A~図18Dは、表1の実験3の例に対する半自動グラウンドトゥルースセグメンテーションと、本開示の態様による全細胞セグメンテーションとの比較を示す。図18A(左上の列)は、半自動グラウンドトゥルースセグメンテーションを受けた画像のセグメンテーション結果を示す。図18B(右上の列)は、本開示の実施形態によるセグメンテーションを受けた画像のセグメンテーション結果を示す。図18C及び図18D(最下行)はそれぞれ、図18A及び図18Bの白いボックス内の領域のクローズアップを示す。
実施例セクションの定性的及び定量的結果の両方は、本開示の実施形態によるセグメンテーション技術が、グラウンドトゥルースセグメンテーションと同等の精度を提供し、1つ以上の非核細胞マーカー染色剤で染色された生体サンプルのサンプル画像を、輪郭を描かれた核及び細胞質領域を有する1つ以上の細胞を含むセグメント化画像に変換し、単一チャネルを利用してセグメンテーションを達成するというさらなる利点を有することを実証する。従って、本開示に示される技術は、改善された技術的解決策を明確に提供し、細胞の研究を含むがこれに限定されない分野において既存の技術が直面する課題を解決する。
この書面による説明は、開示の一部として、また、任意のデバイス又はシステムの作成及び使用、及び組み込まれた方法の実行を含む開示された実装を当業者が実施できるようにするために、最良のモードを含む例を使用する。特許可能な範囲は特許請求の範囲によって定義され、当業者が思い付く他の例を含み得る。そのような他の例は、特許請求の範囲の文言と異ならない構造要素を有する場合、又は特許請求の範囲の文言と実質的には異ならない同等の構造要素を含む場合は、特許請求の範囲内にあることが意図される。
10 撮像システム
12 撮像素子
14 細胞の集団
16 システム制御回路
18 データ取得回路
20 データ処理回路
22 オペレータワークステーション
24 コンピュータ
26 ディスプレイ
28 キーボード
30 マウス
32 プリンタ
40 コンピューティング装置
42 プロセッサ
44 メモリデバイス
46 ストレージデバイス
48 ユーザーインターフェース

Claims (16)

  1. 1つ以上の非核細胞マーカー染色剤で染色された生体サンプルのサンプル画像を、輪郭を描かれた核及び細胞質領域を有する1つ以上の細胞を含むセグメント化画像に変換するためのコンピュータ実施方法であって、
    (a)命令を実行するように構成されたプロセッサと、
    前記プロセッサに動作可能に結合されたメモリ又はストレージデバイスであって、前記メモリ及び前記ストレージデバイスのうちの少なくとも1つは、
    生体サンプルの複数のトレーニング画像を含むトレーニングデータから生成されるモデルであって、前記トレーニング画像は、核、細胞、及びバックグラウンドの少なくとも1つとして識別された領域を含む、モデル;
    1つ以上の非核細胞マーカー染色剤で染色された前記生体サンプルの前記サンプル画像;及び
    プロセッサ実行可能命令;
    を格納するように構成される、メモリ又はストレージデバイスと、
    を有するコンピュータシステムを提供することと、
    (b)前記メモリ又は前記ストレージデバイス内で、前記モデル及び1つ以上の非核細胞マーカー染色剤で染色された前記生体サンプルの前記サンプル画像にアクセスすることと、
    (c)前記モデルを前記サンプル画像に適用することにより、予測された核領域を含む核確率マップと、予測された細胞領域を含む細胞確率マップと、を生成することと、
    (d)前記プロセッサにより、前記核確率マップからバイナリ核マスクを抽出することと、
    (e)前記プロセッサにより、前記バイナリ核マスクから核種マップを抽出することであって、前記核種マップは、輪郭を描かれた核領域によって分離された、抽出された個々の核種を含む、ことと、
    (f)前記プロセッサにより、前記抽出された核種を前記サンプル画像に適用することと、
    (g)前記サンプル画像を、輪郭を描かれた核及び細胞質領域を有する1つ以上の細胞を含む前記セグメント化画像に変換することと、
    を含む、方法。
  2. 前記サンプル画像は複数の画素を含み、ステップ(c)は、バックグラウンド画素、細胞画素、又は核画素である前記複数の画素の各画素の確率スケールを決定することをさらに含む、請求項1に記載の方法。
  3. 前記確率スケールは連続スケールである、請求項2に記載の方法。
  4. ステップ(d)は、ブロブ検出及びマルチレベルの閾値処理のうちの少なくとも1つを実行することをさらに含む、請求項1に記載の方法。
  5. 前記核確率マップ上で異なるサイズを有する核の領域を識別することと、
    識別された前記核の領域にマルチレベルの閾値処理を適用することと、
    前記核確率マップ内の複数の画素の各画素にバイナリ値を割り当てることと、
    前記核確率マップから前記バイナリ核マスクを抽出することと、
    をさらに含む、請求項4に記載の方法。
  6. ステップ(e)は、形状ベースのウォーターシェッドセグメンテーションを実行することをさらに含む、請求項1に記載の方法。
  7. 前記プロセッサにより、前記バイナリ核マスクの逆距離変換を決定することと、
    前記プロセッサにより、決定された前記逆距離変換に拡張h-minima変換を適用することと、
    前記プロセッサにより、前記バイナリ核マスクから局所最小値を抽出することと、
    前記プロセッサにより、前記局所最小値をシードとして使用して、決定された前記逆距離変換にシードウォーターシェッド変換を適用することと、
    をさらに含む、請求項6に記載の方法。
  8. 前記拡張h-minima変換を適用することは、深さhでH-minima変換を適用して、h未満の深さを有する局所最小値を抑えることと、前記抑えられた局所最小値を有する結果として得られる画像から局所最小値を抽出することと、を含む、請求項7に記載の方法。
  9. 前記深さhはユーザー定義の値である、請求項8に記載の方法。
  10. 前記深さhは3μmのデフォルト値を有する、請求項8に記載の方法。
  11. 前記サンプル画像は強度調整のために前処理され、前記前処理は、前記プロセッサにより、
    前記サンプル画像のノイズ除去;
    前記サンプル画像のバックグラウンド照明補正:及び
    前記サンプル画像の再スケーリング;
    のステップの少なくとも1つを実行することを含む、請求項1に記載の方法。
  12. 前記サンプル画像は、画素レベルの重み付けを前記サンプル画像に適用することによって生成された、増強されたサンプル画像である、請求項1に記載の方法。
  13. ステップ(g)は、前記画像のバックグラウンドを決定することと、マルチレベルの閾値処理に基づいてバックグラウンドラベルを割り当てることと、をさらに含む、請求項1に記載の方法。
  14. 前記マルチレベルの閾値処理は、
    前記プロセッサにより、前記核確率マップ内の幾つかの核領域と、前記細胞確率マップ内の細胞領域の期待される面積と、を識別するステップと、
    前記プロセッサにより、前記細胞領域の期待される面積に最も近いと推定される面積をもたらす閾値を選択することと、
    によって実行される、請求項13に記載の方法。
  15. ステップ(g)は、割り当てられたバックグラウンドラベルと、輪郭を描かれた核領域によって分離された個々の核種を含む抽出された核種と、を使用してシードウォーターシェッドセグメンテーションを実行することをさらに含む、請求項12に記載の方法。
  16. 1つ以上の非核細胞マーカー染色剤で染色された生体サンプルのサンプル画像を、輪郭を描かれた核及び細胞質領域を有する1つ以上の細胞を含むセグメント化画像に変換するためのコンピュータシステムであって、
    命令を実行するように構成されたプロセッサと、
    前記プロセッサに動作可能に結合されたメモリ又はストレージデバイスと、
    を含み、前記メモリ及び前記ストレージデバイスのうちの一方又は両方は、
    生体サンプルの複数のトレーニング画像を含むトレーニングデータから生成されるモデルであって、前記トレーニング画像は、核、細胞、及びバックグラウンドの少なくとも1つとして識別された領域を含む、モデル;
    1つ以上の非核細胞マーカー染色剤で染色された前記生体サンプルの前記サンプル画像;及び
    プロセッサ実行可能命令であって、前記プロセッサによって実行されたときに、
    (a)前記メモリ又は前記ストレージデバイス内で、前記モデル及び1つ以上の非核細胞マーカー染色剤で染色された前記生体サンプルの前記サンプル画像にアクセスすることと、
    (b)前記モデルを前記サンプル画像に適用することにより、予測された核領域を含む核確率マップと、予測された細胞領域を含む細胞確率マップと、を生成することと、
    (c)前記プロセッサにより、前記核確率マップからバイナリ核マスクを抽出することと、
    (d)前記プロセッサにより、前記バイナリ核マスクから核種マップを抽出することであって、前記核種マップは、輪郭を描かれた核領域によって分離された、抽出された個々の核種を含む、ことと、
    (f)前記プロセッサにより、前記抽出された核種を前記サンプル画像に適用することと、
    (g)前記サンプル画像を、輪郭を描かれた核及び細胞質領域を有する1つ以上の細胞を含む前記セグメント化画像に変換することと、
    を含む動作の実行を引き起こす、プロセッサ実行可能命令;
    を格納するように構成される、コンピュータシステム。
JP2020527819A 2017-11-16 2018-11-15 単一チャネル全細胞セグメンテーションのためのシステム及び方法 Active JP7201681B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/814,511 2017-11-16
US15/814,511 US10789451B2 (en) 2017-11-16 2017-11-16 System and method for single channel whole cell segmentation
PCT/US2018/061242 WO2019099641A1 (en) 2017-11-16 2018-11-15 System and method for single channel whole cell segmentation

Publications (2)

Publication Number Publication Date
JP2021503666A JP2021503666A (ja) 2021-02-12
JP7201681B2 true JP7201681B2 (ja) 2023-01-10

Family

ID=65041854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020527819A Active JP7201681B2 (ja) 2017-11-16 2018-11-15 単一チャネル全細胞セグメンテーションのためのシステム及び方法

Country Status (5)

Country Link
US (1) US10789451B2 (ja)
EP (1) EP3711020A1 (ja)
JP (1) JP7201681B2 (ja)
CN (1) CN111448582A (ja)
WO (1) WO2019099641A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11443426B2 (en) * 2018-01-18 2022-09-13 Nantomics, Llc Real-time whole slide pathology image cell counting
US11024025B2 (en) * 2018-03-07 2021-06-01 University Of Virginia Patent Foundation Automatic quantification of cardiac MRI for hypertrophic cardiomyopathy
EP3895122A1 (en) * 2018-12-13 2021-10-20 Verily Life Sciences LLC Systems and methods for automated cell segmentation and labeling in immunofluorescence microscopy
AU2020273186A1 (en) 2019-04-11 2021-12-02 Agilent Technologies, Inc. User interface configured to facilitate user annotation for instance segmentation within biological sample
US11276172B2 (en) * 2019-05-03 2022-03-15 Huron Technologies International Inc. Image diagnostic system, and methods of operating thereof
JP7195220B2 (ja) * 2019-06-17 2022-12-23 富士フイルム株式会社 学習装置、学習装置の作動方法、および学習装置の作動プログラム
JP7195233B2 (ja) * 2019-07-18 2022-12-23 富士フイルム株式会社 機械学習モデルの運用装置とその作動方法および作動プログラム、並びに機械学習モデルの学習装置とその作動方法および作動プログラム
CN110794569B (zh) * 2019-11-14 2021-01-26 武汉兰丁智能医学股份有限公司 细胞微型显微图像采集装置及图像识别方法
WO2021108732A1 (en) * 2019-11-25 2021-06-03 Essenlix Corporation Efficient training and accuracy improvement of imaging based assay
CN111145209B (zh) * 2019-12-26 2023-06-02 推想医疗科技股份有限公司 一种医学图像分割方法、装置、设备及存储介质
US20210217173A1 (en) * 2020-01-15 2021-07-15 Ricoh Company, Ltd. Normalization and enhancement of mri brain images using multiscale filtering
CN111369615B (zh) * 2020-02-21 2023-05-23 苏州优纳医疗器械有限公司 一种基于多任务卷积神经网络的细胞核中心点检测方法
CN111429468A (zh) * 2020-03-18 2020-07-17 合肥凯碧尔高新技术有限公司 细胞核分割方法、装置、设备及存储介质
US11741371B2 (en) * 2020-03-20 2023-08-29 International Business Machines Corporation Automatically generating diverse text
CN111951221B (zh) * 2020-07-13 2023-10-31 清影医疗科技(深圳)有限公司 一种基于深度神经网络的肾小球细胞图像识别方法
CN112184696B (zh) * 2020-10-14 2023-12-29 中国科学院近代物理研究所 一种细胞核和细胞器计数及其面积计算方法与系统
WO2022093906A1 (en) * 2020-10-29 2022-05-05 Paige Ai, Inc. Systems and methods for processing images to determine image-based computational biomarkers from liquid specimens
CN113160109B (zh) * 2020-12-15 2023-11-07 宁波大学 反背景差分的细胞图像分割方法
GB202106025D0 (en) * 2021-04-27 2021-06-09 Imperial College Innovations Ltd Method & apparatus for processing microscope images of cells and tissue structures
CN113192047A (zh) * 2021-05-14 2021-07-30 杭州迪英加科技有限公司 一种基于深度学习的自动判读ki67病理切片的方法
CN113450363B (zh) * 2021-06-10 2023-05-02 西安交通大学 一种基于标签校正的元学习细胞核分割系统及方法
JPWO2023008526A1 (ja) * 2021-07-29 2023-02-02
CN114764789B (zh) * 2022-03-30 2024-05-21 广州锟元方青医疗科技有限公司 病理细胞的量化方法、系统、装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012099070A (ja) 2010-11-05 2012-05-24 Glory Ltd 被写体検出方法および被写体検出装置
JP2013238459A (ja) 2012-05-14 2013-11-28 Tokyo Univ Of Science 癌細胞領域抽出装置、方法、及びプログラム
US20170249548A1 (en) 2016-02-26 2017-08-31 Google Inc. Processing cell images using neural networks

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050136549A1 (en) * 2003-10-30 2005-06-23 Bioimagene, Inc. Method and system for automatically determining diagnostic saliency of digital images
US8280134B2 (en) * 2008-09-22 2012-10-02 Cambridge Research & Instrumentation, Inc. Multi-spectral imaging including at least one common stain
US8488863B2 (en) * 2008-11-06 2013-07-16 Los Alamos National Security, Llc Combinational pixel-by-pixel and object-level classifying, segmenting, and agglomerating in performing quantitative image analysis that distinguishes between healthy non-cancerous and cancerous cell nuclei and delineates nuclear, cytoplasm, and stromal material objects from stained biological tissue materials
US8175369B2 (en) * 2008-12-12 2012-05-08 Molecular Devices, Llc Multi-nucleated cell classification and micronuclei scoring
CA2899714C (en) 2013-03-15 2020-10-27 Ventana Medical Systems, Inc. Tissue object-based machine learning system for automated scoring of digital whole slides
US8995740B2 (en) * 2013-04-17 2015-03-31 General Electric Company System and method for multiplexed biomarker quantitation using single cell segmentation on sequentially stained tissue
EP3146463B1 (en) * 2014-05-23 2020-05-13 Ventana Medical Systems, Inc. Systems and methods for detection of biological structures and/or patterns in images
CA2994911C (en) * 2015-09-02 2022-07-05 Ventana Medical Systems, Inc. Automated analysis of cellular samples having intermixing of analytically distinct patterns of analyte staining
US20170091948A1 (en) 2015-09-30 2017-03-30 Konica Minolta Laboratory U.S.A., Inc. Method and system for automated analysis of cell images
US9613254B1 (en) 2015-09-30 2017-04-04 General Electric Company Quantitative in situ characterization of heterogeneity in biological samples
US10078895B2 (en) * 2015-12-30 2018-09-18 Case Western Reserve University Prediction of recurrence of non-small cell lung cancer with tumor infiltrating lymphocyte (TIL) graphs
US10083340B2 (en) * 2016-01-26 2018-09-25 Ge Healthcare Bio-Sciences Corp. Automated cell segmentation quality control
CN106296712B (zh) 2016-08-23 2018-09-21 四川木牛流马智能科技有限公司 全自动神经嵴细胞显微图像分割系统及方法
CN107256558B (zh) * 2017-05-18 2019-12-17 深思考人工智能机器人科技(北京)有限公司 一种无监督式的宫颈细胞图像自动分割方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012099070A (ja) 2010-11-05 2012-05-24 Glory Ltd 被写体検出方法および被写体検出装置
JP2013238459A (ja) 2012-05-14 2013-11-28 Tokyo Univ Of Science 癌細胞領域抽出装置、方法、及びプログラム
US20170249548A1 (en) 2016-02-26 2017-08-31 Google Inc. Processing cell images using neural networks

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Fuyong Xing, et al.,An Automatic Learning-Based Framework for Robust Nucleus Segmentation,IEEE Transactions on Medical Imaging,2016年,Volume: 35, Issue: 2,https://ieeexplore.ieee.org/document/7274740

Also Published As

Publication number Publication date
US10789451B2 (en) 2020-09-29
EP3711020A1 (en) 2020-09-23
CN111448582A (zh) 2020-07-24
WO2019099641A1 (en) 2019-05-23
US20190147215A1 (en) 2019-05-16
JP2021503666A (ja) 2021-02-12

Similar Documents

Publication Publication Date Title
JP7201681B2 (ja) 単一チャネル全細胞セグメンテーションのためのシステム及び方法
US20230127698A1 (en) Automated stereology for determining tissue characteristics
Al-Kofahi et al. A deep learning-based algorithm for 2-D cell segmentation in microscopy images
US10529072B2 (en) Systems and methods for detection of structures and/or patterns in images
US10706535B2 (en) Tissue staining quality determination
US10275880B2 (en) Image processing method and system for analyzing a multi-channel image obtained from a biological tissue sample being stained by multiple stains
Ruusuvuori et al. Evaluation of methods for detection of fluorescence labeled subcellular objects in microscope images
US10083340B2 (en) Automated cell segmentation quality control
JP2022504870A (ja) 細胞の分類のためのシステムおよび方法
Dzyubachyk et al. Automated analysis of time-lapse fluorescence microscopy images: from live cell images to intracellular foci
US10423820B2 (en) Systems and methods for automatic generation of training sets for machine interpretation of images
Nurzynska et al. CAS: Cell annotation software–research on neuronal tissue has never been so transparent
Niederlein et al. Image analysis in high content screening
US20220058369A1 (en) Automated stereology for determining tissue characteristics
Kar et al. Assessment of deep learning algorithms for 3D instance segmentation of confocal image datasets
Kuo et al. Automated assessment in HER-2/neu immunohistochemical expression of breast cancer
Mabaso Automatic approach for spot detection in microscopy imaging based on image processing and statistical analysis
Qidwai et al. Color-based fuzzy classifier for automated detection of cancerous cells in histopathological analysis
Chai Using machine learning techniques on digitised histopathological images to distinguish lipoma (LP) from atypical lipomatous tumours (ALT)
Navakauskien˙ e et al. Computational Methods for Protein Localization Analysis
NELSON Mathematical morphology for quantification in biological & medical image analysis
Hollandi Applications of deep learning in single-cell analysis

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20211110

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221222

R150 Certificate of patent or registration of utility model

Ref document number: 7201681

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150