JP7427080B2 - 細胞検出およびセグメンテーションのための弱教師ありマルチタスク学習 - Google Patents

細胞検出およびセグメンテーションのための弱教師ありマルチタスク学習 Download PDF

Info

Publication number
JP7427080B2
JP7427080B2 JP2022516626A JP2022516626A JP7427080B2 JP 7427080 B2 JP7427080 B2 JP 7427080B2 JP 2022516626 A JP2022516626 A JP 2022516626A JP 2022516626 A JP2022516626 A JP 2022516626A JP 7427080 B2 JP7427080 B2 JP 7427080B2
Authority
JP
Japan
Prior art keywords
probability map
nuclear
neural network
voronoi
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022516626A
Other languages
English (en)
Other versions
JP2022547722A (ja
Inventor
ザー,アリレザ・チャマン
ニエ,ヤオ
Original Assignee
ベンタナ メディカル システムズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベンタナ メディカル システムズ, インコーポレイテッド filed Critical ベンタナ メディカル システムズ, インコーポレイテッド
Publication of JP2022547722A publication Critical patent/JP2022547722A/ja
Application granted granted Critical
Publication of JP7427080B2 publication Critical patent/JP7427080B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Description

関連出願
[関連出願への相互参照]
本出願は、2019年10月14日に出願された「WEAKLY SUPERVISED MULTI-TASK LEARNING FOR CELL DETECTION AND SEGMENTATION」という名称の米国仮特許出願第62/914,966号の優先権および利益を主張し、その全内容は、あらゆる目的のために参照により本明細書に組み込まれる。
本願発明の一実施例は、例えば、細胞検出およびセグメンテーションのための弱教師ありマルチタスク学習に関する。
本開示は、生物学的画像分析に関し、特に、弱教師あり転移学習およびマルチタスクスケジューラを使用して細胞をセグメント化および検出するためのシステムおよび方法に関する。
組織切片、血液、細胞培養物などの生物学的検体の分析では、染色またはアッセイの1つ以上の組み合わせによって生物学的検体が染色されることが多く、次いで、染色された生物学的検体は、さらに分析するために観察またはイメージングされる。染色またはアッセイされた生物学的検体を観察することは、疾患の診断、処置に対する応答の評価、および疾患と戦うための新たな薬物の開発を含む様々なプロセスを可能にする。例えば、リンパ球、癌細胞、癌細胞核などの生物学的画像(例えば、組織病理画像)における特定のオブジェクトまたは構造の同定は、多くの場合、生物学的画像が得られた患者における疾患の等級付けまたは診断の前提条件である。これらのオブジェクトまたは構造の存在、程度、サイズ、形状および他の形態学的外観は、疾患の存在または重症度の重要な指標とすることができる。さらに、特定のオブジェクトまたは構造(細胞または細胞核など)の数または比率は、いくつかの疾患症状に対して診断的意義を有し、特定のオブジェクトまたは構造を正確に同定する必要性をさらに動機付ける。
生物学的画像の取得では、画像データの複数のチャネル、例えばRGBカラーチャネルが導出されることができ、各観察されたチャネルは、複数の信号の混合物を含む。この画像データの処理は、画像データの1つ以上の観察されたチャネルから特定の染色の濃度を判定するために使用される色分離、スペクトル非混合、色逆畳み込みなどの方法を含むことができる。ディスプレイ上に示される自動化された方法によって処理された画像データについて、または観察者によって観察されるアッセイについて、組織の色と染色の色との間の関係が判定されて、染色された組織におけるバイオマーカー分布のモデルを判定することができる。局所的な染色の存在および量は、組織において照会されるバイオマーカーの存在および濃度を示すことができる。免疫組織化学(IHC)スライド染色は、組織切片の細胞中の特定のタンパク質(例えば、バイオマーカー)を同定するために利用されることができる1つの技術であり、生体組織中の癌性細胞および免疫細胞などの異なる種類の細胞の研究に広く使用されている。例えば、PMS2 IHC核染色結腸直腸癌(CRC)画像では、様々な形状およびサイズ(例えば、細長く高度にクラスタ化された)で褐色に染色された陽性腫瘍核、淡褐色に弱く染色された陽性腫瘍核、および青色に染色された陰性腫瘍核を同定および/または定量して、Lynch症候群(LS)患者をDNAミスマッチ修復不全(dMMR)患者と区別することができる。
様々な実施形態では、データ処理システムによって、1つ以上の細胞の複数の画像にアクセスすることと、データ処理システムによって、複数の画像から3つのラベルを抽出することであって、3つのラベルが、ボロノイ変換、ローカルクラスタリング、およびリペールコードの適用を使用して抽出される、3つのラベルを抽出することと、データ処理システムのマルチタスクスケジューラによって、3つのラベルに対応する3つの損失関数に基づいて畳み込みニューラルネットワークモデルを訓練することと、畳み込みニューラルネットワークモデルによって、3つの損失関数を用いた訓練に基づいて、複数の画像のそれぞれについて核確率マップおよび背景確率マップを生成することと、データ処理システムによって、核確率マップおよび背景確率マップを提供することと、を含む、コンピュータ実装方法が提供される。
様々な実施形態では、データ処理システムによって、1つ以上の細胞の複数の画像にアクセスすることと、データ処理システムによって、複数の画像から3つのラベルを抽出することであって、3つのラベルが、ボロノイ変換、ローカルクラスタリング、およびリペールコードの適用を使用して抽出される、3つのラベルを抽出することと、データ処理システムのマルチタスクスケジューラによって、3つのラベルに対応する3つの損失関数に基づいて畳み込みニューラルネットワークモデルを訓練することであって、畳み込みニューラルネットワークモデルが複数のモデルパラメータを含む、畳み込みニューラルネットワークモデルを訓練することと、畳み込みニューラルネットワークモデルによって、3つの損失関数を用いた訓練に基づいて、複数の画像のそれぞれについて核確率マップおよび背景確率マップを生成することと、データ処理システムによって、核確率マップおよび背景確率マップを3つのラベルと比較することと、データ処理システムによって、3つの損失関数を最小化するために、核確率マップおよび背景確率マップを3つのラベルと比較することに基づいて、複数のモデルパラメータを更新することと、データ処理システムによって、更新された複数のモデルパラメータを有する訓練された畳み込みニューラルネットワークモデルを提供することと、を含む、コンピュータ実装方法が提供される。
いくつかの実施形態では、複数の画像は、核点ラベルを含む。
いくつかの実施形態では、ボロノイ変換は、1つ以上の細胞間の稜線を抽出する。
いくつかの実施形態では、ローカルクラスタリングは、ボロノイ変換によって作成された各細胞またはポリゴン内の各画素の核点ラベルまでの距離である距離変換特徴と連結されたRGBチャネル色特徴に基づいて背景および核クラスタを局所的に抽出するためにk平均クラスタリングアルゴリズムを適用することを含む。
いくつかの実施形態では、畳み込みニューラルネットワークモデルは、修正されたU-Netモデルを含む。
いくつかの実施形態では、訓練することは、訓練反復ごとに、マルチタスクスケジューラによって、3つの損失関数のうちの1つを選択することと、データ処理システムによって、選択された損失関数の勾配に基づいて畳み込みニューラルネットワークモデルの1つ以上の重みを更新することと、を含む。
いくつかの実施形態では、損失関数は、
Figure 0007427080000001
である場合にボロノイラベルに関連付けられた損失関数、
Figure 0007427080000002
である場合にリペールラベルに関連付けられた損失関数、および
Figure 0007427080000003
である場合にローカルクラスタラベルに関連付けられた損失関数を選択することに基づいてマルチタスクスケジューラによって選択され、ここで、
Figure 0007427080000004
は、訓練反復のインデックスである。
いくつかの実施形態では、核確率マップおよび背景確率マップを生成および提供することは、核確率マップおよび背景確率マップ、セグメンテーションバイナリマスクおよび検出された細胞の座標にargmaxおよび極大値関数を適用することを含む。
様々な実施形態では、データ処理システムによって、1つ以上の細胞の複数の画像を取得することと、複数の画像を、ボロノイ変換、ローカルクラスタリング、およびリペールコードの適用に対応する少なくとも3つの損失関数の組み合わせを使用して構築された畳み込みニューラルネットワークモデルに入力することと、畳み込みニューラルネットワークモデルによって、複数の画像のそれぞれについて核確率マップおよび背景確率マップを生成することと、データ処理システムによって、核確率マップおよび背景確率マップを提供することと、を含む、コンピュータ実装方法が提供される。
いくつかの実施形態では、ボロノイ変換は、1つ以上の細胞間の稜線を抽出する。
いくつかの実施形態では、ローカルクラスタリングは、ボロノイ変換によって作成された各細胞またはポリゴン内の各画素の核点ラベルまでの距離である距離変換特徴と連結されたRGBチャネル色特徴に基づいて背景および核クラスタを局所的に抽出するためにk平均クラスタリングアルゴリズムを適用することを含む。
いくつかの実施形態では、畳み込みニューラルネットワークモデルは、修正されたU-Netモデルを含む。
いくつかの実施形態では、畳み込みニューラルネットワークモデルは、ボロノイ変換、ローカルクラスタリング、およびリペールコードの適用を使用して抽出された少なくとも3つのラベルを有する複数の医療画像を含む訓練データのセットを使用して識別された複数のパラメータを含み、複数のモデルパラメータは、少なくとも3つの損失関数を最小化することに基づいて訓練データのセットを使用して識別される。
いくつかの実施形態では、訓練データのセットを使用することは、訓練反復ごとに、マルチタスクスケジューラによって、3つの損失関数のうちの1つを選択することと、データ処理システムによって、選択された損失関数の勾配に基づいて畳み込みニューラルネットワークモデルの複数のパラメータのうちの1つ以上を更新することと、を含む。
いくつかの実施形態では、損失関数は、
Figure 0007427080000005
である場合にボロノイラベルに関連付けられた損失関数、
Figure 0007427080000006
である場合にリペールラベルに関連付けられた損失関数、および
Figure 0007427080000007
である場合にローカルクラスタラベルに関連付けられた損失関数を選択することに基づいてマルチタスクスケジューラによって選択され、ここで、
Figure 0007427080000008
は、訓練反復のインデックスである。
いくつかの実施形態では、核確率マップおよび背景確率マップを生成および提供することは、核確率マップおよび背景確率マップ、セグメンテーションバイナリマスクおよび検出された細胞の座標にargmaxおよび極大値関数を適用することを含む。
いくつかの実施形態では、1つ以上のデータプロセッサと、1つ以上のデータプロセッサ上で実行されると、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部を実行させる命令を含む非一時的コンピュータ可読記憶媒体と、を含むシステムが提供される。
いくつかの実施形態では、非一時的機械可読記憶媒体に有形に具現化され、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部を実行させるように構成された命令を含むコンピュータプログラム製品が提供される。
使用された用語および表現は、限定ではなく説明の用語として使用され、そのような用語および表現の使用において、示されて説明された特徴の均等物またはその一部を除外する意図はないが、特許請求の範囲に記載された発明の範囲内で様々な変更が可能であることが認識される。したがって、特許請求の範囲に記載された本発明は、実施形態および任意の特徴によって具体的に開示されているが、本明細書に開示された概念の変更および変形は、当業者によってあてにされてもよく、そのような変更および変形は、添付の特許請求の範囲によって定義される本発明の範囲内にあると見なされることを理解されたい。
本開示は、以下の添付の図面と併せて説明される:
様々な実施形態にかかる、自動化された細胞セグメンテーションおよび検出のための例示的なコンピューティング環境を示している。 様々な実施形態にかかる、提案されたアルゴリズムの概要を示している。 様々な実施形態にかかる例示的なU-Netを示している。 様々な実施形態にかかる、提案されたローカルクラスタリングアルゴリズム対グローバルクラスタリングアルゴリズムの性能を示している。 以下の試料試験画像(左画像)、CRFなしの[1]で提案されたアルゴリズムに基づくオーバーレイされたセグメンテーションマスク(中央画像)、および本アルゴリズム(右画像)によるセグメンテーション性能を示している:(a)細長細胞を含む正常組織領域、(b)高度にクラスタリングされた細胞を含む濾胞内領域、(c)染色されていない細胞を含む正常組織領域、および(d)様々な実施形態に従って弱くおよび強く染色された腫瘍領域。
I.概要
本開示は、自動化された細胞セグメンテーションおよび検出のための技術を記載する。より具体的には、本開示の様々な実施形態は、転移学習およびマルチタスクスケジューラを使用して細胞をセグメント化および検出するためのシステムおよび方法を提供する。
単一細胞のセグメンテーションおよび検出は、生物学的画像における病理の分析に向けた基本的なステップである。細胞の集団および密度、形態学的情報、ならびに染色品質メトリックは、診断目的および/または染色品質測定のために生物学的試料(例えば、組織スライド)中のセグメント化および検出された細胞から取得されることができる情報の例である。深層学習法に基づく細胞セグメンテーションにおける最近の研究は、色分離、スペクトル非混合、および色逆畳み込みなどの従来の画像処理方法と比較して、より良好な性能を報告している。ラベルを付けやすいオブジェクト(例えば、車、木、動物など)の分類およびセグメンテーションなどのタスクと比較して、細胞検出およびインスタンスセグメンテーションは、さらなる課題に直面する。例えば、染色された細胞は、背景に対するコントラストの大きな変動を有する。高度にクラスタリングされた細胞は、接触しているかまたは重なっている境界を有し、個別にセグメント化することが困難である。最も重要なことには、細胞インスタンスセグメンテーションのために画素レベルのグラウンドトゥルースを取得することは、極めて労働集約的である。
これらの制限および問題に対処するために、本実施形態の自動化された単一細胞セグメンテーションおよび検出のための技術は、自動化されたエンドツーエンドの単一細胞セグメンテーションおよび検出のための弱教師ありマルチタスク学習アルゴリズムの使用を含む。本開示の1つの例示的な実施形態は、1つ以上の細胞の複数の画像にアクセスすることと、複数の画像から3つのラベルを抽出することであって、3つのラベルが、ボロノイ変換、ローカルクラスタリング、およびリペールコードの適用を使用して抽出される、3つのラベルを抽出することと、マルチタスクスケジューラによって、3つのラベルに対応する3つの損失関数に基づいて畳み込みニューラルネットワークモデルを訓練することと、畳み込みニューラルネットワークモデルによって、3つの損失関数を用いた訓練に基づいて複数の画像のそれぞれについて核確率マップおよび背景確率マップを生成することと、核確率マップおよび背景確率マップを提供することと、を含む方法に関する。特定の実施形態では、核確率マップおよび背景確率マップを生成および提供することは、核確率マップおよび背景確率マップ、セグメンテーションバイナリマスクおよび検出された細胞の座標にargmaxおよび極大値関数を適用することを含む。
II.定義
本明細書で使用される場合、動作が何かに「基づく」場合、これは、動作が何かの少なくとも一部に少なくとも部分的に基づくことを意味する。
本明細書で使用される場合、「実質的に(substantially)」、「およそ(approximately)」、および「約(about)」という用語は、当業者によって理解されるように、大部分が指定されるものであるが、必ずしも完全には指定されないもの(および完全に指定されるものを含む)として定義される。任意の開示された実施形態では、「実質的に」、「およそ」、または「約」という用語は、指定されたものの「[パーセンテージ]以内」で置き換えられることができ、パーセンテージは、0.1、1、5、および10%を含む。
III.自動化された細胞セグメンテーションおよび検出のための技術
画像セグメンテーションは、形状、サイズ、色などの異なる特徴の類似性を示す画像の類似部分を分離する手順である。細胞のセグメンテーションは、生物学的試料内の細胞のサイズおよび位置の視覚化を可能にし、細胞による染色取り込みの分析の基礎を提供することもできる。細胞セグメンテーションのゴールドスタンダードは、長い間手動セグメンテーションであり、これは時間がかかり、労働集約的であり、したがって大規模な研究には適していない。細胞セグメンテーションのプロセスを完全にまたは部分的に自動化しようとするかなりの研究が行われてきた。例えば、閾値処理、領域拡張、ファジークラスタリング、流域アルゴリズムの使用などの画像セグメンテーション技術は、異常細胞(例えば、癌性細胞)を正常細胞(例えば、リンパ球)から分離するために使用されてきた。それにもかかわらず、セグメンテーションのプロセスは、細胞の形状、位置、およびサイズの多様性のために依然として困難である。
ボロノイ変換、色クラスタラベリング、およびリペールコードを使用して取得された画素レベルラベルからの情報を組み合わせるマルチタスクスケジューリング技術は、正確な細胞セグメンテーションおよび検出を改善するのに役立つことができる。
本明細書では、畳み込みニューラルネットワーク(CNN)を使用して画像(例えば、染色された組織の画像)から細胞をセグメント化して検出するモデルを組み込むエンドツーエンドの方法について説明する。開発されたモデルは、計算的に軽量であり、染色技術の変動性、癌細胞と正常細胞との間の極端な不均衡、および入力画像の不均一性に対応するように考案された。このモデルは、注釈付けの労力を増加させることなく、従来のアルゴリズムよりも改善された細胞セグメンテーションおよび検出の性能を有する。
III.A.例示的なコンピューティング環境
図1は、様々な実施形態にかかる、深層畳み込みニューラルネットワークを使用した細胞セグメンテーションおよび検出のための例示的なコンピューティング環境100を示している。コンピューティング環境100は、畳み込みニューラルネットワーク(CNN)モデルを訓練して実行するための深層CNNシステム105を含むことができる。より具体的には、CNNシステム105は、それぞれのCNNモデルを訓練することができる分類器サブシステム110a-nを含むことができる。いくつかの実施形態では、分類器サブシステム110a-nに対応する各CNNモデルは、入力画像要素115a-nのセット内の1つ以上の画像(例えば、生物学的試料のスライド上の視野(FOV)からの画像)に基づいて別々に訓練される。いくつかの実施形態では、入力画像要素115a-nのセットのそれぞれは、生物学的試料内の細胞を示す1つ以上のデジタル画像を含むことができる。入力画像要素115a-nのセットのそれぞれは、画像に対応する基礎となる画像データが収集された単一の被験者および1日に対応することができる。入力画像要素115a-nのセットは、1つ以上の訓練入力画像要素115a-d、検証入力画像要素115e-g、およびラベルなし入力画像要素115h-nを含むことができる。訓練グループ、検証グループ、およびラベル化されていないグループに対応する入力画像要素は、同時にアクセスされる必要はないことが理解されよう。例えば、初期訓練および検証入力画像要素は、最初にアクセスされ、モデルを訓練するために使用されてもよく、ラベル化されていない入力画像要素は、その後、モデルの試験のために(例えば、単一または複数の後続の時間に)アクセスまたは受信されてもよい。
場合によっては、CNNモデルは、弱教師あり訓練を使用して訓練されることができ、訓練入力画像要素115a-dおよび検証入力画像要素115e-gのそれぞれは、細胞(例えば、細胞の核の中心)の「正しい」解釈を識別する1つ以上の細胞点ラベルと関連付けられることができる。CNNモデルは、訓練入力画像要素115a-d(および訓練の進行を監視するための検証入力画像要素115e-h)、1つ以上の損失関数、および/または勾配降下法を使用して訓練されることができる。
いくつかの実施形態では、分類器サブシステム110a-nは、特徴抽出器120、パラメータデータストア125、分類器130、および訓練器135を含み、これらは、訓練データ(例えば、訓練入力画像要素115a-d)に基づいてCNNモデルを訓練し、弱教師訓練中にCNNモデルのパラメータを最適化するためにまとめて使用される。いくつかの実施形態では、分類器サブシステム110a-nは、入力層において訓練入力画像要素115a-dから訓練データにアクセスする。特徴抽出器120は、訓練データを前処理して、訓練入力画像要素115a-dの関連する特徴(例えば、エッジ)を抽出することができる。様々な実施形態では、特徴抽出器120は、マルチタスクスケジューラを使用して細胞点ラベルに少なくとも3つの変換および/または符号化を適用して、細胞の特徴またはラベルを抽出するように実装される。少なくとも3つの変換および/または符号化は、稜線を抽出するためのボロノイ変換、核の画素レベルのラベルを抽出するためのローカルクラスタリング、および拡張中心符号化としてのリペールコードの適用を含むことができる。分類器130は、抽出された特徴を受信し、1つ以上のCNNモデル内の隠れ層のセットに関連する重みに従って、特徴を、1つ以上の細胞をセグメント化して検出する1つ以上の出力メトリックに変換することができる。訓練器135は、訓練入力画像要素115a-dに対応する訓練データを使用して、1つ以上のパラメータの学習を容易にすることによって特徴抽出器120および/または分類器130を訓練することができる。例えば、訓練器135は、分類器130によって使用されるCNNモデルの隠れ層のセットに関連付けられた重みの学習を容易にするために、バックプロパゲーション技術を使用することができる。バックプロパゲーションは、例えば、確率的勾配降下(SGD)アルゴリズムを使用して、ボロノイ特徴、リペール特徴、および色クラスタ特徴からの損失のうちの1つ以上を使用して隠れ層のパラメータを累積的に更新することができる。学習されたパラメータは、例えば、重み、バイアス、および/または他の隠れ層関連パラメータを含むことができ、これらは、パラメータデータストア125に記憶されることができる。
訓練されたCNNモデルまたは訓練されたCNNモデルのアンサンブル(「CNNアンサンブル」)が展開されて、ラベル化されていない入力画像要素115h-nを処理し、1つ以上の細胞をセグメント化して検出することができる。より具体的には、特徴抽出器120の訓練バージョンは、分類器130の訓練バージョンによって処理されることができるラベルなし入力画像要素の特徴表現を生成することができる。いくつかの実施形態では、分類器サブシステム110a-n内のCNNモデルの拡張を活用する1つ以上の畳み込みブロック、畳み込み層、残差ブロック、またはピラミッド層に基づいて、ラベルなし入力画像要素115h-nから画像特徴が抽出されることができる。特徴は、画像の特徴ベクトルなどの特徴表現に編成されることができる。CNNモデルは、CNNモデルの完全接続層を含む隠れ層におけるパラメータの分類およびその後の調整に基づいて特徴タイプを学習するように訓練されることができる。いくつかの実施形態では、畳み込みブロック、畳み込み層、残差ブロック、またはピラミッド層によって抽出された画像特徴は、1つ以上の画像処理動作が実行された(例えば、エッジ検出、鮮明画像分解)画像の1つ以上の部分を表す値の行列である特徴マップを含む。これらの特徴マップは、1つ以上の細胞に関する予測に対応するセグメンテーションマスクを出力する、CNNモデルの完全接続層による処理のために平坦化されることができる。
例えば、入力画像要素は、CNNモデルの入力層に供給されることができる。入力層は、特定の画素に対応するノードを含むことができる。第1の隠れ層は、隠れノードのセットを含むことができ、隠れノードのそれぞれは、複数の入力層ノードに接続される。後続の隠れ層内のノードも同様に、複数の画素またはボクセルに対応する情報を受信するように構成されることができる。したがって、隠れ層は、複数の画素にわたって延びる特徴を検出するように学習するように構成されることができる。1つ以上の隠れ層のそれぞれは、畳み込みブロック、畳み込み層、残差ブロック、またはピラミッド層を含むことができる。CNNモデルは、1つ以上の完全接続層(例えば、ソフトマックス層)をさらに含むことができる。
訓練入力画像要素115a-d、検証入力画像要素115e-gおよび/またはラベルなし入力画像要素115h-nの少なくとも一部は、1つ以上のイメージングシステム160を使用して収集されてそこから受信されたデータを含むことができ、またはそこから導出されることができる。イメージングシステム160は、画像データ(例えば、スライドのFOV画像)を収集するように構成されたシステムを含むことができる。イメージングシステム160は、顕微鏡を含むことができる。顕微鏡は、スライドガラスなどの媒体上で染色された組織および/またはスライドの画像を撮像するように構成されることができる。場合によっては、訓練入力画像要素115a-dおよび/または検証入力画像要素115e-gに関連付けられた細胞点ラベルは、受信されていてもよく、または1つ以上のプロバイダシステム170から受信されたデータから導出されてもよく、そのそれぞれは、特定の被験者に関連付けられた(例えば)医師、看護師、病院、薬剤師などに関連付けられてもよい。受信データは、(例えば)特定の被験者に対応する1つ以上の医療記録を含むことができる。医療記録は、(例えば)被験者に関連付けられた1つ以上の入力画像要素が収集された時間またはその後の定義された期間に対応する期間に関して、被験者が腫瘍を有したかどうか、および/または被験者の腫瘍の進行の段階を示す専門家の診断または特徴付けを示すことができる。受信データは、被験者に関連付けられた1つ以上の入力画像要素内の細胞または細胞核の中心の位置の画素をさらに含むことができる。したがって、医療記録は、各訓練/検証入力画像要素に関して、1つ以上の細胞点ラベルを識別することを含むことができるか、または識別するために使用されることができる。医療記録は、被験者が受けていた1つ以上の処置(例えば、薬物)および被験者が処置を受けていた期間のそれぞれをさらに示すことができる。場合によっては、1つ以上の分類器サブシステムに入力される画像は、プロバイダシステム170から受信される。例えば、プロバイダシステム170は、イメージングシステム160から画像を受信し、次いでその画像を(例えば、被験者識別子および1つ以上のラベルとともに)CNNシステム105に送信することができる。
いくつかの実施形態では、イメージングシステム160のうちの1つ以上で受信または収集されたデータは、プロバイダシステム170のうちの1つ以上で受信または収集されたデータと集約されてもよい。例えば、CNNシステム105は、イメージングシステム160から受信した画像データをプロバイダシステム170から受信した細胞点ラベルデータと関連付けるために、被験者および/または期間の対応するまたは同一の識別子を識別することができる。CNNシステム105は、メタデータまたは自動画像分析をさらに使用してデータを処理し、どの分類器サブシステムに特定のデータ成分を供給するかを判定することができる。例えば、イメージングシステム160から受信した画像データは、複数のスライドおよび/またはアッセイに対応することができる。メタデータ、自動アライメントおよび/または画像処理は、各画像について、画像がどのスライドおよび/またはアッセイに対応するかを示すことができる。
いくつかの実施形態では、コンピューティング環境100は、CNNシステム105の1回以上の反復(例えば、各反復は、モデルの1回の実行および/またはモデルの出力の1回の生成に対応する)の性能を要求および/または調整しているユーザに関連付けられることができるユーザデバイス180をさらに含むことができる。ユーザは、医師、調査者(例えば、臨床試験に関連付けられた)、患者、医療専門家などに対応することができる。したがって、場合によっては、プロバイダシステム170は、ユーザデバイス180を含み、および/またはユーザデバイスとして機能してもよいことが理解されよう。各反復は、ユーザと異なる可能性がある(ただし、そうである必要はない)特定の被験者(例えば、人)に関連付けられてもよい。反復の要求は、特定の被験者に関する情報(例えば、識別されていない患者識別子などの被験者の名前または他の識別子)を含むおよび/または伴うことができる。反復の要求は、被験者に対応する入力画像データなどのデータを収集する1つ以上の他のシステムの識別子を含むことができる。場合によっては、ユーザデバイス180からの通信は、特定の被験者のセットに表された各被験者について反復を実行する要求に対応して、セットのそれぞれの識別子を含む。
要求を受信すると、CNNシステム105は、ラベルなし入力画像要素の(例えば、被験者の識別子を含む)要求を、1つ以上の対応するイメージングシステム160および/またはプロバイダシステム170に送信することができる。次いで、訓練されたCNNモデルまたはCNNアンサンブルは、ラベル化されていない入力画像要素を処理して、1つ以上の細胞をセグメント化および検出することができる。識別された各被験者についての結果は、分類器サブシステム110a-nによって展開された1つ以上の訓練されたCNNモデルからの細胞セグメント化および検出を含むことができるか、またはそれに基づくことができる。例えば、細胞セグメンテーションおよび検出は、1つ以上の訓練されたCNNの完全接続層によって生成された出力を含むことができ、またはそれに基づくことができる。場合によっては、そのような出力は、(例えば)ソフトマックス関数を使用してさらに処理されてもよい。さらに、出力および/またはさらに処理された出力は、次いで、集約技術(例えば、ランダムフォレスト集約)を使用して集約され、1つ以上の被験者特有のメトリックを生成することができる。1つ以上の結果(例えば、アッセイ特異的出力および/または1つ以上の被験者特異的出力および/またはそれらの処理されたバージョンを含む)は、ユーザデバイス180に送信および/または利用されることができる。場合によっては、CNNシステム105とユーザデバイス180との間の通信の一部または全部は、ウェブサイトなどのネットワークおよびインターフェースを介して行われる。CNNシステム105は、認証分析に基づいて結果、データ、および/または処理リソースへのアクセスをゲーティングすることができることが理解されよう。
明示的に示されていないが、コンピューティング環境100は、開発者に関連付けられた開発者デバイスをさらに含むことができることが理解されよう。開発者デバイスからの通信は、CNNシステム105内の各CNNモデルにどのタイプの入力画像要素が使用されるべきか、使用されるべきニューラルネットワークの数、隠れ層およびハイパーパラメータの数を含む各ニューラルネットワークの構成、ならびにデータ要求がどのようにフォーマットされるべきか、および/またはどの訓練データが使用されるべきか(例えば、および訓練データへのアクセス方法)を示すことができる。
III.B.マルチタスクスケジューラ
図2は、細胞点ラベルに基づく画素レベルのラベル抽出と、損失スケジューラを使用し、ResNetエンコーダを有するU-Netモデルに基づくマルチタスク深層学習方法とを含む予測アルゴリズムの概要を示している。いくつかの実施形態では、入力画像205は、画像ソース(例えば、図1に関して説明したように、イメージングシステム160またはプロバイダシステム170)から取得される。画像は、画素値の1つ以上の配列または行列として構成されることができる。所与の画素位置は、一般的な強度値および/または1つ以上の階調および/または色(例えば、RGB値)のそれぞれに関連する強度値に(例えば)関連付けられることができる。入力画像205は、細胞の中心または細胞の核の中心にある1つ以上の画素を識別する細胞点ラベル210でラベル付けされることができる。
様々な実施形態では、以下の3つの変換/符号化が細胞点ラベル210に適用される:(i)ボロノイ変換215、(ii)ローカルクラスタリング220、および(iii)リペールコード225。ボロノイ変換215は、細胞間の稜線を抽出し、各細胞の周囲にポリゴンを形成する。これらの線は、高度にクラスタリングされた細胞が一緒に併合されないようにするのに役立つ。ローカルクラスタリング220は、点ラベル、入力画像205、およびボロノイラベルに基づいて、核の画素レベルのラベルを抽出する。抽出された各ボロノイ細胞(ポリゴン)について、k平均クラスタリングアルゴリズムが使用されて、ボロノイ細胞内の各画素の核点ラベルまでの距離である距離変換特徴と連結されたRGBチャネル色特徴に基づいて背景および核クラスタを局所的に抽出する。このローカルk平均を使用して、点ラベルの周りに位置し、背景との高い局所色コントラストを有する核画素が抽出される。リペールコード225は、細胞についての拡張中心符号化として使用される(リペールコードは、H.Liangら、「Enhanced Center Coding for Cell Detection with Convolutional Neural Networks」arXiv preprint arXiv:1904.08864(2019)に詳細に記載されており、これは、あらゆる目的のために本明細書に組み込まれる)。抽出されたリペールコード225は、背景画素がゼロ値を有するようにするために色クラスタマスクによって乗算されてもよい。
次いで、抽出された3つのラベル、すなわちフィルタ処理されたリペール、ローカル色クラスタ、およびボロノイラベル(図2参照)が、U-Netモデル230の2つの出力チャネルである核および背景確率マップと比較される。この比較は、訓練プロセスにおける3つの損失LRepel、LVor、およびLClustによって行われる。場合によっては、実施例1に関して本明細書で詳細に記載される式(1-3)において定義されるように、バイナリラベル(ボロノイおよび色クラスタ)に交差エントロピー損失関数が使用され、リペールコードラベルに平均二乗誤差(MSE)損失関数が使用された。それに基づいてモデル230が訓練されている3つの異なる損失があるため、損失が組み合わせられ、各訓練反復においてモデルの重みが更新される必要がある。マルチタスクスケジューラ235は、損失を組み合わせてモデル230の重みを更新するために使用される。場合によっては、各訓練反復において、3つの損失(LRepel、LVor、およびLClust)のうちの1つが選択され、その特定の損失の勾配に基づいてモデルの重みが更新される。
Figure 0007427080000009
が訓練反復のインデックスであると仮定される場合、スケジューラ235は、実施例1に関して本明細書で詳細に記載される式(4)において定義されるように、
Figure 0007427080000010
である場合にボロノイ損失、
Figure 0007427080000011
である場合にリペール損失、および
Figure 0007427080000012
である場合に色クラスタ損失を選択する。
III.C.セグメンテーションおよび検出のための例示的なU-NET
セグメンテーションは、エンコーダ部分が、核および背景確率マップを生成するためにImageNetデータセット上で事前訓練されたResNet50の畳み込み層で置き換えられる修正されたU-Netを使用して、入力画像から個別に特徴を抽出する。図3に示すように、U-Net300は、縮小経路305および拡張経路310を含むことができ、これらは、それにU字形アーキテクチャを与える。縮小経路305は、畳み込み(例えば、3×3の畳み込み(パッドなしの畳み込み))の繰り返し適用を含むCNNネットワークであり、それぞれの畳み込みの後に正規化線形ユニット(ReLU)およびダウンサンプリングのための最大プーリング演算(例えば、ストライド2の2×2最大プーリング)が続く。各ダウンサンプリングステップまたはプーリング動作において、特徴チャネルの数は2倍にされることができる。縮小の間、画像データの空間情報は縮小され、特徴情報は増加される。拡張経路310は、縮小経路305からの特徴および空間情報を組み合わせるCNNネットワークである(縮小経路305からの特徴マップのアップサンプリング)。特徴マップのアップサンプリングの後には、チャネル数を半分にする一連のアップコンボリューション(アップサンプリング演算子)、縮小経路305からの対応して切り取られた特徴マップとの連結、それぞれが正規化線形ユニット(ReLU)の後に続く畳み込み(例えば、2つの3×3畳み込み)の反復適用、ならびに核および背景確率マップを生成するための最終的な畳み込み(例えば、1つの1×1畳み込み)が続く。局所化するために、縮小経路305からの高解像度特徴は、拡張経路310からのアップサンプリングされた出力と組み合わされる。U-Net300は、いかなる完全接続層もない各畳み込みの有効部分を使用し、すなわち、核および背景確率マップは、入力画像において完全なコンテキストが利用可能な画素のみを含み、縮小ブロック中に学習されたコンテキスト特徴と拡張ブロックで学習された位置特定特徴とをリンクするスキップ接続を使用する。
IV.実施例
様々な実施形態において実装されるシステムおよび方法は、以下の実施例を参照することによってよりよく理解されることができる。
IV.A.実施例1.-細胞検出およびセグメンテーションのための弱教師ありマルチタスク学習
細胞の検出およびセグメンテーションは、デジタル病理画像の下流の全ての分析にとって基本的である。しかしながら、単一細胞セグメンテーションのための画素レベルのグラウンドトゥルースを取得することは、極めて労働集約的である。この課題を克服するために、画像データから利用可能な点ラベルに基づいてボロノイ、リペール、およびローカル色クラスタラベルを抽出し、ボロノイ、リペール、およびローカル色クラスタラベルと転移学習(ImageNetで事前訓練されたResNet)とを使用してU-Netモデルを訓練することによって、自動化されたエンドツーエンドの深層学習単一細胞検出およびセグメンテーションアルゴリズムが以下のように開発された。従来の細胞セグメンテーションおよび検出技術と比較して、設計されたアルゴリズムは、注釈付けの努力を増加させることなく、細胞検出およびセグメンテーションにおいて有意な改善を示す。
IV.B.データセット
設計したアルゴリズムは、免疫組織化学(IHC)PMS2染色結腸直腸癌および扁桃組織スライドで訓練され、検証され、試験された。データセットは、スライド内の腫瘍、腫瘍周囲、正常組織、濾胞内および濾胞間領域をカバーする、0.5μm/画素の解像度で256枚の512×512の画像を含む。このデータセットは、検出およびセグメンテーションタスクのための豊富な種類の核、例えば、疎なまたは高度にクラスタリングされた空間分布を有する、異なる形状およびサイズの陽性細胞(濃いまたは薄い茶色がかった染色)および陰性細胞(青みがかった染色)を有していた。
IV.C.前処理および増強
データセットは、訓練(80%)、検証(10%)、および試験(10%)に分割され、各セットが全てのタイプの組織領域(例えば、腫瘍、腫瘍周囲組織、正常組織など)を有することを確認した。原画像から250×250画素の小パッチが抽出された。訓練セットのサイズを増加させるために、水平方向および垂直方向のフリップ、ランダムなサイズ変更、アフィン変換、回転およびトリミングを含むデータ増強を行った。これは、約3000枚の小さい画像の訓練セットをもたらした。最後の前処理ステップとして、訓練セットは、平均減算およびRGBチャネルの標準偏差による除算によって別々に正規化された。同じ正規化が検証および試験セットの画像に適用された。
IV.D.ラベル抽出
例示的な細胞セグメンテーションおよび検出の課題を克服するために、設計されたアルゴリズムは、弱教師あり方法で設計された。例えば、3つの変換/符号化が細胞点ラベル(例えば、FOV内の各細胞の核の中心にある点ラベル)に適用された。(i)ボロノイ変換、(ii)ローカルクラスタリング、および(iii)リペールコード。図2は、細胞点ラベルに基づく画素レベルのラベル抽出と、損失スケジューラを使用し、ResNetエンコーダを有するU-Netモデルに基づくマルチタスク深層学習方法とを含む、設計されたアルゴリズムの概要を示している。ボロノイ変換は、細胞間の稜線を抽出し、各細胞の周囲にポリゴンを形成する。これらの線は、高度にクラスタリングされた細胞が一緒に併合されないようにするのに役立つ。ローカルクラスタリングは、点ラベル、原画像、およびボロノイラベルに基づいて、核の画素レベルのラベルを抽出する。抽出された各ボロノイ細胞(ポリゴン)について、k平均クラスタリングアルゴリズムが使用されて、ボロノイ細胞内の各画素の核点ラベルまでの距離である距離変換特徴と連結されたRGBチャネル色特徴に基づいて背景および核クラスタを局所的に抽出する。このローカルk平均を使用して、点ラベルの周りに位置し、背景との高い局所色コントラストを有する核画素が抽出される。従来のグローバル色クラスタリング技術と比較して、ローカルクラスタリング手法は、弱く染色された核の色クラスタラベルの品質を大幅に改善する。図4は、従来のセグメンテーションアルゴリズムにおいて使用されるグローバルクラスタリングアルゴリズムと比較した場合のローカルクラスタリングアルゴリズムの性能を示している。示されるように、弱く染色された細胞は、ローカルクラスタリングアプローチを通して十分に保持されたが、グローバルクラスタリングアプローチは、弱く染色された細胞の大部分を検出するのに失敗する。
リペール符号化は、ピークが細胞中心点ラベルに位置する2次元減衰関数を定義する細胞のための拡張中心符号化である(例えば、あらゆる目的のために本明細書に組み込まれる、H.Liangら、「Enhanced Center Coding for Cell Detection with Convolutional Neural Networks」arXiv preprint arXiv:1904.08864(2019)を参照)。一般的に使用されるガウスおよび近接符号化と比較して、リペールコードは、隣接する細胞までの距離がより短い細胞に対してより速く減衰する。したがって、リペールコードは、セグメンテーションタスクにおけるより良好な細胞分離を促進すると同時に、検出タスクのためのより良好な中心位置特定を促進するために、設計されたアルゴリズムにおいて利用される。さらに、より良好な核境界描写を促進するために、抽出されたリペールコードは、ローカル画素クラスタリングラベルマスクと乗算されて、リペールコードマップにおいて背景画素が0値を有することを確実にし、これは、図2において「フィルタリングされたリペール」と呼ばれる。
IV.E.モデル
U-Netモデルが使用され、エンコーダ部分は、ImageNetデータセットで事前訓練されたResNet50の畳み込み層で置き換えられた。例えば、あらゆる目的のために本明細書に組み込まれる、O.Ronneberger、P.Fischer、およびT.Brox、「U-net:Convolutional networks for biomedical image segmentation」、International Conference on Medical image computing and computer-assisted intervention.Springer,Cham,2015;K.Heら、「Deep residual learning for image recognition」、Proceedings of the IEEE conference on computer vision and pattern recognition.2016;およびO.Russakovskyら、「Imagenet large scale visual recognition challenge」、International journal of computer vision 115.3(2015):211-252を参照されたい。
IV.E.マルチタスクスケジューラ
抽出された3つのラベル、すなわちフィルタ処理されたリペール、ローカルな色クラスタ、およびボロノイラベル(図2参照)が、U-Netモデルの2つの出力チャネルである核および背景確率マップと比較された。この比較は、以下の訓練プロセスにおける3つの損失によって行われた:式(1~3)において定義されるように、バイナリラベル(ボロノイおよび色クラスタ)には交差エントロピー損失関数が使用され、リペールコードラベルには平均二乗誤差(MSE)損失関数が使用された:
Figure 0007427080000013
(1)
Figure 0007427080000014
(2)
Figure 0007427080000015
(3)
ここで、oは、モデル出力確率マップであり、tは、対応するターゲット、すなわちボロノイ、リペール、またはローカル画素クラスタラベルである。(図1のボロノイ部分領域内の黒画素によって示されるように)ボロノイ損失関数において、赤線(背景として使用)と緑ドット(前景として使用)とによって示される画素のみが含まれるように、(2)の無視セットの画素は無視される。
単一のモデルを訓練するために3つの異なる損失が使用されるため、各訓練反復においてモデルの重みを更新するためにそれらを組み合わせる戦略が必要である。マルチタスク学習問題の場合、タスクの性質が非常に異なる可能性があるため、ナイーブ加算は最適な解決策ではない場合がある。この問題に対処するために、マルチタスクスケジューラが提案されている。具体的には、各訓練反復では、3つの損失のうちの1つのみが、以下の規則を使用してモデル重みを更新するために使用される:以下の式(4)のように、
Figure 0007427080000016
が訓練反復のインデックスであると仮定し、スケジューラは、
Figure 0007427080000017
である場合にボロノイ損失、
Figure 0007427080000018
である場合にリペール損失、および
Figure 0007427080000019
である場合に色クラスタ損失を選択する。
Figure 0007427080000020
(4)
ここで、
Figure 0007427080000021
は、
Figure 0007427080000022
回目の訓練反復において選択された損失であり、
Figure 0007427080000023
は、
Figure 0007427080000024
である場合に値
Figure 0007427080000025
をとり、そうでない場合に
Figure 0007427080000026
をとるインジケータ関数である。データセットは、各エポックに対して小バッチが抽出される前にランダムにシャッフルされたため、各データ点は、3つのタイプの損失/タスク全てに寄与する機会を有する。このマルチタスクスケジューラは、次のセクションで説明するように、従来のナイーブな損失の合計と比較して、個々のタスクごとにより良好な性能を示している。バイナリセグメンテーションマスクは、出力確率マップに適用されるargmax関数を使用して生成され、これは、画素値を、核の確率値が背景よりも高い場合には1に設定し、そうでない場合には0に設定する。さらに、細胞は、最大フィルタを使用して核出力確率マップにおいて2.5μmの最小距離で極大値の位置を見つけることによって検出される(例えば、あらゆる目的のために本明細書に組み込まれる、S.van der Waltら、「scikit-image:Image processing in Python」、PeerJ 2:e453(2014)を参照されたい)。
IV.F.セグメンテーションおよび検出の結果
セグメンテーションおよび検出を実行するために、8,150エポックの小さいバッチサイズ、および60900回の総訓練反復を使用して、モデルがPyTorchにおいて訓練された(例えば、あらゆる目的のために本明細書に組み込まれる、A.Paszkeら、「Automatic Differentiation in PyTorch」、NIPS Autodiff Workshop,2017を参照されたい)。L.Wright、「New Deep Learning Optimizer,Ranger:Synergistic combination of RAdam+LookAhead for the best of both」(2019)に記載されているようなレンジオプティマイザが使用されて、パラメータを更新して訓練の性能を改善した。0.001の学習率が使用された。リペールコードについて、H.Liangら、「Enhanced Center Coding for Cell Detection with Convolutional Neural Networks」、arXiv preprint arXiv:1904.08864(2019)の式(4)に基づいて、
Figure 0007427080000027
、および
Figure 0007427080000028
が使用された。
設計されたアルゴリズムは、92.9%の画素レベル精度、79.1%の画素レベルF1スコア、0.784の物体レベルDiceスコア、0.599の物体レベル集約Jacardインデックス(AJI)スコア、94.1%の検出適合率、92.5%の検出再現率、および0.998の検出一致相関係数(CCC、あらゆる目的のために本明細書に組み込まれる、I.Lawrence、およびK.Lin、「A concordance correlation coefficient to evaluate reproducibility」、Biometrics(1989):255-268において定義されるように、
Figure 0007427080000029
を有していた。セグメンテーション性能メトリックは、あらゆる目的のために本明細書に組み込まれる、H.Quら、「Weakly Supervised Deep Nuclei Segmentation using Points Annotation in Histopathology Images」、International Conference on Medical Imaging with Deep Learning(IMDL),2019 [1]において定義されるように使用された。検出適合率および再現率メトリックは、それぞれ、TP/(TP+FP)およびTP/(TP+FN)として定義され、ここで、TP、FP、およびFNは、真陽性、偽陽性、および偽陰性の細胞の数である。H.Quら、「Weakly Supervised Deep Nuclei Segmentation using Points Annotation in Histopathology Images」、International Conference on Medical Imaging with Deep Learning(IMDL),2019における提案されたアルゴリズムと比較して、設計されたアルゴリズムは、注釈付けの努力を増加させることなく、細胞セグメンテーションおよび検出の著しい改善を示す。H.Quら、「Weakly Supervised Deep Nuclei Segmentation using Points Annotation in Histopathology Images」、International Conference on Medical Imaging with Deep Learning(IMDL),2019において使用された、条件付きランダムフィールド(CRF)後処理ステップは除外される。
マルチタスクスケジューラ法の性能は、あらゆる目的のために本明細書に組み込まれる、A.Kendall、Y.Gal、およびR.Cipolla「Multi-task learning using uncertainty to weigh losses for scene geometry and semantics」、Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.2018 [2]において提案された不確実性を使用したマルチタスク学習法と個別に比較された。結果に基づいて、マルチタスクスケジューラ法は、学習可能な重みを有する追加の損失層が3つの損失を組み合わせるように定義されたタスク不確実性法と比較して、より良好な性能を示す。セグメンテーションおよび検出の結果は、以下の表1および2に要約される。
図5は、いくつかの試料試験画像と、原画像上にオーバーレイされたセグメンテーションマスクとを含む、H.Quら、「Weakly Supervised Deep Nuclei Segmentation using Points Annotation in Histopathology Images」、International Conference
Figure 0007427080000030
Figure 0007427080000031
on Medical Imaging with Deep Learning(IMDL),2019における提案されたアルゴリズムと比較した、設計されたアルゴリズムのインスタンスセグメンテーション性能を示している。具体的には、図5は、以下を示している:(a)細長細胞を有する対照領域、(b)陰性腫瘍細胞を含む対照領域、(c)高度にクラスタリングされた細胞を有する組織領域、および(d)弱く十分に染色された細胞を有する腫瘍領域。アルゴリズムは、これらの様々なタイプの細胞のセグメンテーションにおいて良好に機能した。
V.さらなる考察
本開示のいくつかの実施形態は、1つ以上のデータプロセッサを含むシステムを含む。いくつかの実施形態では、システムは、1つ以上のデータプロセッサ上で実行されると、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部および/または1つ以上のプロセスの一部または全部を実行させる命令を含む非一時的コンピュータ可読記憶媒体を含む。本開示のいくつかの実施形態は、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部および/または1つ以上のプロセスの一部または全部を実行させるように構成された命令を含む、非一時的機械可読記憶媒体において有形に具現化されたコンピュータプログラム製品を含む。
使用された用語および表現は、限定ではなく説明の用語として使用され、そのような用語および表現の使用において、示されて説明された特徴の均等物またはその一部を除外する意図はないが、特許請求の範囲に記載された発明の範囲内で様々な変更が可能であることが認識される。したがって、特許請求の範囲に記載された本発明は、実施形態および任意の特徴によって具体的に開示されているが、本明細書に開示された概念の変更および変形は、当業者によってあてにされてもよく、そのような変更および変形は、添付の特許請求の範囲によって定義される本発明の範囲内にあると見なされることを理解されたい。
その後の説明は、好ましい例示的な実施形態のみを提供し、本開示の範囲、適用可能性または構成を限定することを意図しない。むしろ、好ましい例示的な実施形態のその後の説明は、様々な実施形態を実装するための可能な説明を当業者に提供する。添付の特許請求の範囲に記載の趣旨および範囲から逸脱することなく、要素の機能および配置に様々な変更を加えることができることが理解される。
実施形態の完全な理解を提供するために、以下の説明において具体的な詳細が与えられる。しかしながら、これらの具体的な詳細なしで実施形態が実施されることができることが理解されよう。例えば、回路、システム、ネットワーク、プロセス、および他の構成要素は、実施形態を不必要に詳細に不明瞭にしないために、ブロック図形式の構成要素として示されてもよい。他の例では、実施形態を不明瞭にすることを避けるために、周知の回路、プロセス、アルゴリズム、構造、および技術が不必要な詳細なしに示されてもよい。

Claims (37)

  1. データ処理システムによって、1つ以上の細胞の複数の画像にアクセスすることと、
    前記データ処理システムによって、前記複数の画像から3つのラベルを抽出することであって、前記3つのラベルが、ボロノイ変換、ローカルクラスタリング、およびリペールコードの適用を使用して抽出される、3つのラベルを抽出することと、
    前記データ処理システムのマルチタスクスケジューラによって、前記3つのラベルに対応する3つの損失関数に基づいて畳み込みニューラルネットワークモデルを訓練することであって、畳み込みニューラルネットワークモデルが複数のモデルパラメータを含む、畳み込みニューラルネットワークモデルを訓練することと、
    前記畳み込みニューラルネットワークモデルによって、前記3つの損失関数を用いた前記訓練に基づいて、前記複数の画像のそれぞれについて核確率マップおよび背景確率マップを生成することと、
    前記データ処理システムによって、前記核確率マップおよび前記背景確率マップを前記3つのラベルと比較することと、
    前記データ処理システムによって、前記3つの損失関数を最小化するために、前記核確率マップおよび前記背景確率マップを前記3つのラベルと比較することに基づいて、前記複数のモデルパラメータを更新することと、
    前記データ処理システムによって、更新された前記複数のモデルパラメータを有する訓練された畳み込みニューラルネットワークモデルを提供することと、
    を含み、
    前記訓練することが、訓練反復ごとに、前記マルチタスクスケジューラによって、前記3つの損失関数のうちの1つを選択することと、前記データ処理システムによって、選択された前記損失関数の勾配に基づいて前記畳み込みニューラルネットワークモデルの1つ以上の重みを更新することと、を含む、方法。
  2. 前記複数の画像が核点ラベルを含む、請求項1に記載の方法。
  3. 前記ボロノイ変換が、前記1つ以上の細胞間の稜線を抽出する、請求項1または2に記載の方法。
  4. 前記ローカルクラスタリングが、前記ボロノイ変換によって作成された各細胞またはポリゴン内の各画素の前記核点ラベルまでの距離である距離変換特徴と連結されたRGBチャネル色特徴に基づいて背景および核クラスタを局所的に抽出するためにk平均クラスタリングアルゴリズムを適用することを含む、請求項2に記載の方法。
  5. 前記畳み込みニューラルネットワークモデルが、修正されたU-Netモデルを含む、請求項1~4のいずれか一項に記載の方法。
  6. 前記損失関数が、
    である場合にボロノイラベルに関連付けられた損失関数、
    である場合にリペールラベルに関連付けられた損失関数、および
    である場合にローカルクラスタラベルに関連付けられた損失関数を選択することに基づい
    て前記マルチタスクスケジューラによって選択され、ここで、
    が、前記訓練反復のインデックスである、請求項1から5のいずれか一項に記載の方法。
  7. 前記核確率マップおよび前記背景確率マップを生成することが、前記核確率マップおよび前記背景確率マップ、セグメンテーションバイナリマスクおよび検出された細胞の座標にargmaxおよび極大値関数を適用することを含む、請求項1~6のいずれか一項に記載の方法。
  8. 1つ以上のデータプロセッサに、動作を実行させるように構成された命令を含むコンピュータプログラムであって、前記動作が、
    データ処理システムによって、1つ以上の細胞の複数の画像にアクセスすることと、
    前記データ処理システムによって、前記複数の画像から3つのラベルを抽出することであって、前記3つのラベルが、ボロノイ変換、ローカルクラスタリング、およびリペールコードの適用を使用して抽出される、3つのラベルを抽出することと、
    前記データ処理システムのマルチタスクスケジューラによって、前記3つのラベルに対応する3つの損失関数に基づいて畳み込みニューラルネットワークモデルを訓練することであって、前記畳み込みニューラルネットワークモデルが複数のモデルパラメータを含む、畳み込みニューラルネットワークモデルを訓練することと、
    前記畳み込みニューラルネットワークモデルによって、前記3つの損失関数を用いた前記訓練に基づいて、前記複数の画像のそれぞれについて核確率マップおよび背景確率マップを生成することと、
    前記データ処理システムによって、前記核確率マップおよび前記背景確率マップを前記3つのラベルと比較することと、
    前記データ処理システムによって、前記3つの損失関数を最小化するために、前記核確率マップおよび前記背景確率マップを前記3つのラベルと比較することに基づいて、前記複数のモデルパラメータを更新することと、
    前記データ処理システムによって、更新された前記複数のモデルパラメータを有する訓練された畳み込みニューラルネットワークモデルを提供することと、
    を含み、
    前記訓練することが、訓練反復ごとに、前記マルチタスクスケジューラによって、前記3つの損失関数のうちの1つを選択することと、前記データ処理システムによって、選択された前記損失関数の勾配に基づいて前記畳み込みニューラルネットワークモデルの1つ以上の重みを更新することと、を含む、コンピュータプログラム。
  9. 前記複数の画像が核点ラベルを含む、請求項8に記載のコンピュータプログラム。
  10. 前記ボロノイ変換が、前記1つ以上の細胞間の稜線を抽出する、請求項8または9に記載のコンピュータプログラム。
  11. 前記ローカルクラスタリングが、前記ボロノイ変換によって作成された各細胞またはポリゴン内の各画素の前記核点ラベルまでの距離である距離変換特徴と連結されたRGBチャネル色特徴に基づいて背景および核クラスタを局所的に抽出するためにk平均クラスタリングアルゴリズムを適用することを含む、請求項9に記載のコンピュータプログラム。
  12. 前記損失関数が、
    である場合にボロノイラベルに関連付けられた損失関数、
    である場合にリペールラベルに関連付けられた損失関数、および
    である場合にローカルクラスタラベルに関連付けられた損失関数を選択することに基づいて前記マルチタスクスケジューラによって選択され、ここで、
    が、前記訓練反復のインデックスである、請求項8~11のいずれか一項に記載のコンピュータプログラム。
  13. 前記核確率マップおよび前記背景確率マップを生成することが、前記核確率マップおよび前記背景確率マップ、セグメンテーションバイナリマスクおよび検出された細胞の座標にargmaxおよび極大値関数を適用することを含む、請求項8~12のいずれか一項に記載のコンピュータプログラム。
  14. 1つ以上のデータプロセッサと、
    前記1つ以上のデータプロセッサ上で実行されると、前記1つ以上のデータプロセッサに、動作を実行させる命令を含む非一時的コンピュータ可読記憶媒体と、
    を備え、前記動作が、
    データ処理システムによって、1つ以上の細胞の複数の画像にアクセスすることと、
    前記データ処理システムによって、前記複数の画像から3つのラベルを抽出することであって、前記3つのラベルが、ボロノイ変換、ローカルクラスタリング、およびリペールコードの適用を使用して抽出される、3つのラベルを抽出することと、
    前記データ処理システムのマルチタスクスケジューラによって、前記3つのラベルに対応する3つの損失関数に基づいて畳み込みニューラルネットワークモデルを訓練することであって、前記畳み込みニューラルネットワークモデルが複数のモデルパラメータを含む、畳み込みニューラルネットワークモデルを訓練することと、
    前記畳み込みニューラルネットワークモデルによって、前記3つの損失関数を用いた前記訓練に基づいて、前記複数の画像のそれぞれについて核確率マップおよび背景確率マップを生成することと、
    前記データ処理システムによって、前記核確率マップおよび前記背景確率マップを前記3つのラベルと比較することと、
    前記データ処理システムによって、前記3つの損失関数を最小化するために、前記核確率マップおよび前記背景確率マップを前記3つのラベルと比較することに基づいて、前記複数のモデルパラメータを更新することと、
    前記データ処理システムによって、更新された前記複数のモデルパラメータを有する訓練された畳み込みニューラルネットワークモデルを提供することと、
    を含み、
    前記訓練することが、訓練反復ごとに、前記マルチタスクスケジューラによって、前記3つの損失関数のうちの1つを選択することと、前記データ処理システムによって、選択された前記損失関数の勾配に基づいて前記畳み込みニューラルネットワークモデルの1つ以上の重みを更新することと、を含む、システム。
  15. 前記複数の画像が核点ラベルを含む、請求項14に記載のシステム。
  16. 前記ボロノイ変換が、前記1つ以上の細胞間の稜線を抽出する、請求項15に記載のシステム。
  17. 前記ローカルクラスタリングが、前記ボロノイ変換によって作成された各細胞またはポ
    リゴン内の各画素の前記核点ラベルまでの距離である距離変換特徴と連結されたRGBチャネル色特徴に基づいて背景および核クラスタを局所的に抽出するためにk平均クラスタリングアルゴリズムを適用することを含む、請求項16に記載のシステム。
  18. 前記損失関数が、
    である場合にボロノイラベルに関連付けられた損失関数、
    である場合にリペールラベルに関連付けられた損失関数、および
    である場合にローカルクラスタラベルに関連付けられた損失関数を選択することに基づいて前記マルチタスクスケジューラによって選択され、ここで、
    が、前記訓練反復のインデックスである、請求項14~17のいずれか一項に記載のシステム。
  19. 前記核確率マップおよび前記背景確率マップを生成することが、前記核確率マップおよび前記背景確率マップ、セグメンテーションバイナリマスクおよび検出された細胞の座標にargmaxおよび極大値関数を適用することを含む、請求項14~18のいずれか一項に記載のシステム。
  20. データ処理システムによって、1つ以上の細胞の複数の画像を取得することと、
    前記複数の画像を、ボロノイ変換、ローカルクラスタリング、およびリペールコードの適用に対応する少なくとも3つの損失関数の組み合わせを使用して構築された畳み込みニューラルネットワークモデルに入力することと、
    前記畳み込みニューラルネットワークモデルによって、前記複数の画像のそれぞれについて核確率マップおよび背景確率マップを生成することと、
    前記データ処理システムによって、前記核確率マップおよび前記背景確率マップを提供することと、
    を含み、
    前記畳み込みニューラルネットワークモデルが、前記ボロノイ変換、前記ローカルクラスタリング、および前記リペールコードの適用を使用して抽出された少なくとも3つのラベルを有する複数の医療画像を含む訓練データのセットを使用して識別された複数のモデルパラメータを含み、
    前記複数のモデルパラメータが、前記少なくとも3つの損失関数を最小化することに基づいて前記訓練データのセットを使用して識別され、
    前記訓練データのセットを使用することが、訓練反復ごとに、マルチタスクスケジューラによって、前記3つの損失関数のうちの1つを選択することと、前記データ処理システムによって、前記選択された損失関数の勾配に基づいて前記畳み込みニューラルネットワークモデルの前記複数のモデルパラメータのうちの1つ以上を更新することと、を含む、方法。
  21. 前記ボロノイ変換が、前記1つ以上の細胞間の稜線を抽出する、請求項20に記載の方法。
  22. 前記ローカルクラスタリングが、前記ボロノイ変換によって作成された各細胞またはポリゴン内の各画素の核点ラベルまでの距離である距離変換特徴と連結されたRGBチャネル色特徴に基づいて背景および核クラスタを局所的に抽出するためにk平均クラスタリングアルゴリズムを適用することを含む、請求項20または21に記載の方法。
  23. 前記畳み込みニューラルネットワークモデルが、修正されたU-Netモデルを含む、請求項20~22のいずれか一項に記載の方法。
  24. 前記損失関数が、
    である場合にボロノイラベルに関連付けられた損失関数、
    である場合にリペールラベルに関連付けられた損失関数、および
    である場合にローカルクラスタラベルに関連付けられた損失関数を選択することに基づいて前記マルチタスクスケジューラによって選択され、ここで、
    が、前記訓練反復のインデックスである、請求項20から23のいずれか一項に記載の方法。
  25. 前記核確率マップおよび前記背景確率マップを生成および提供することが、前記核確率マップおよび前記背景確率マップ、セグメンテーションバイナリマスクおよび検出された細胞の座標にargmaxおよび極大値関数を適用することを含む、請求項20~24のいずれか一項に記載の方法。
  26. 1つ以上のデータプロセッサに、動作を実行させるように構成された命令を含むコンピュータプログラムであって、前記動作が、
    データ処理システムによって、1つ以上の細胞の複数の画像を取得することと、
    前記複数の画像を、ボロノイ変換、ローカルクラスタリング、およびリペールコードの適用に対応する少なくとも3つの損失関数の組み合わせを使用して構築された畳み込みニューラルネットワークモデルに入力することと、
    前記畳み込みニューラルネットワークモデルによって、前記複数の画像のそれぞれについて核確率マップおよび背景確率マップを生成することと、
    前記データ処理システムによって、前記核確率マップおよび前記背景確率マップを提供することと、
    を含み、
    前記畳み込みニューラルネットワークモデルが、前記ボロノイ変換、前記ローカルクラスタリング、および前記リペールコードの適用を使用して抽出された少なくとも3つのラベルを有する複数の医療画像を含む訓練データのセットを使用して識別された複数のモデルパラメータを含み、
    前記複数のモデルパラメータが、前記少なくとも3つの損失関数を最小化することに基づいて前記訓練データのセットを使用して識別され、
    前記訓練データのセットを使用することが、訓練反復ごとに、マルチタスクスケジューラによって、前記3つの損失関数のうちの1つを選択することと、前記データ処理システムによって、選択された前記損失関数の勾配に基づいて前記畳み込みニューラルネットワークモデルの前記複数のモデルパラメータのうちの1つ以上を更新することと、を含む、コンピュータプログラム。
  27. 前記ボロノイ変換が、前記1つ以上の細胞間の稜線を抽出する、請求項26に記載のコンピュータプログラム。
  28. 前記ローカルクラスタリングが、前記ボロノイ変換によって作成された各細胞またはポリゴン内の各画素の核点ラベルまでの距離である距離変換特徴と連結されたRGBチャネル色特徴に基づいて背景および核クラスタを局所的に抽出するためにk平均クラスタリングアルゴリズムを適用することを含む、請求項26または27に記載のコンピュータプログラム。
  29. 前記畳み込みニューラルネットワークモデルが、修正されたU-Netモデルを含む、請求項26~28のいずれか一項に記載のコンピュータプログラム。
  30. 前記損失関数が、
    である場合にボロノイラベルに関連付けられた損失関数、
    である場合にリペールラベルに関連付けられた損失関数、および
    である場合にローカルクラスタラベルに関連付けられた損失関数を選択することに基づいて前記マルチタスクスケジューラによって選択され、ここで、
    が、前記訓練反復のインデックスである、請求項26から29のいずれか一項に記載のコンピュータプログラム。
  31. 前記核確率マップおよび前記背景確率マップを生成および提供することが、前記核確率マップおよび前記背景確率マップ、セグメンテーションバイナリマスクおよび検出された細胞の座標にargmaxおよび極大値関数を適用することを含む、請求項26~30のいずれか一項に記載のコンピュータプログラム。
  32. 1つ以上のデータプロセッサと、
    前記1つ以上のデータプロセッサ上で実行されると、前記1つ以上のデータプロセッサに、動作を実行させる命令を含む非一時的コンピュータ可読記憶媒体と、を備え、前記動作が、
    データ処理システムによって、1つ以上の細胞の複数の画像を取得することと、
    前記複数の画像を、ボロノイ変換、ローカルクラスタリング、およびリペールコードの適用に対応する少なくとも3つの損失関数の組み合わせを使用して構築された畳み込みニューラルネットワークモデルに入力することと、
    前記畳み込みニューラルネットワークモデルによって、前記複数の画像のそれぞれについて核確率マップおよび背景確率マップを生成することと、
    前記データ処理システムによって、前記核確率マップおよび前記背景確率マップを提供することと、を含み、
    前記畳み込みニューラルネットワークモデルが、前記ボロノイ変換、前記ローカルクラスタリング、および前記リペールコードの適用を使用して抽出された少なくとも3つのラベルを有する複数の医療画像を含む訓練データのセットを使用して識別された複数のモデルパラメータを含み、
    前記複数のモデルパラメータが、前記少なくとも3つの損失関数を最小化することに基づいて前記訓練データのセットを使用して識別され、
    前記訓練データのセットを使用することが、訓練反復ごとに、マルチタスクスケジューラによって、前記3つの損失関数のうちの1つを選択することと、前記データ処理システムによって、選択された前記損失関数の勾配に基づいて前記畳み込みニューラルネットワークモデルの前記複数のモデルパラメータのうちの1つ以上を更新することと、を含む、システム。
  33. 前記ボロノイ変換が、前記1つ以上の細胞間の稜線を抽出する、請求項32に記載のシステム。
  34. 前記ローカルクラスタリングが、前記ボロノイ変換によって作成された各細胞またはポリゴン内の各画素の核点ラベルまでの距離である距離変換特徴と連結されたRGBチャネル色特徴に基づいて背景および核クラスタを局所的に抽出するためにk平均クラスタリングアルゴリズムを適用することを含む、請求項32または33に記載のシステム。
  35. 前記畳み込みニューラルネットワークモデルが、修正されたU-Netモデルを含む、請求項3234のいずれか一項に記載のシステム。
  36. 前記損失関数が、
    である場合にボロノイラベルに関連付けられた損失関数、
    である場合にリペールラベルに関連付けられた損失関数、および
    である場合にローカルクラスタラベルに関連付けられた損失関数を選択することに基づいて前記マルチタスクスケジューラによって選択され、ここで、
    が、前記訓練反復のインデックスである、請求項32から35のいずれか一項に記載のシステム。
  37. 前記核確率マップおよび前記背景確率マップを生成および提供することが、前記核確率マップおよび前記背景確率マップ、セグメンテーションバイナリマスクおよび検出された
    細胞の座標にargmaxおよび極大値関数を適用することを含む、請求項3236のいずれか一項に記載のシステム。
JP2022516626A 2019-10-14 2020-10-14 細胞検出およびセグメンテーションのための弱教師ありマルチタスク学習 Active JP7427080B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962914966P 2019-10-14 2019-10-14
US62/914,966 2019-10-14
PCT/US2020/055550 WO2021076605A1 (en) 2019-10-14 2020-10-14 Weakly supervised multi-task learning for cell detection and segmentation

Publications (2)

Publication Number Publication Date
JP2022547722A JP2022547722A (ja) 2022-11-15
JP7427080B2 true JP7427080B2 (ja) 2024-02-02

Family

ID=73040369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022516626A Active JP7427080B2 (ja) 2019-10-14 2020-10-14 細胞検出およびセグメンテーションのための弱教師ありマルチタスク学習

Country Status (5)

Country Link
US (1) US20220237789A1 (ja)
EP (1) EP4046061A1 (ja)
JP (1) JP7427080B2 (ja)
CN (1) CN114600155A (ja)
WO (1) WO2021076605A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3812783A1 (en) * 2019-10-23 2021-04-28 Novum engineerING GmbH Estimating a battery state from electrical impedance measurements using convolutional neural network means
CN112699937B (zh) * 2020-12-29 2022-06-21 江苏大学 基于特征引导网络的图像分类与分割的装置、方法、设备及介质
CN113269778B (zh) * 2021-06-21 2022-11-29 复旦大学 基于迭代的图像弱监督分割方法
CN117496512B (zh) * 2024-01-02 2024-03-22 广州锟元方青医疗科技有限公司 宫颈tct切片的多类型细胞核标注及多任务处理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277349A (ja) 2005-03-29 2006-10-12 Canon Inc 近接点算出方法および装置
CN109034365A (zh) 2018-07-06 2018-12-18 电子科技大学 深度学习模型的训练方法及装置
CN109669973A (zh) 2018-12-27 2019-04-23 深算科技(重庆)有限公司 一种基于分布式动态训练系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277349A (ja) 2005-03-29 2006-10-12 Canon Inc 近接点算出方法および装置
CN109034365A (zh) 2018-07-06 2018-12-18 电子科技大学 深度学习模型的训练方法及装置
CN109669973A (zh) 2018-12-27 2019-04-23 深算科技(重庆)有限公司 一种基于分布式动态训练系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LIANG, Haoyi、外4名,Enhanced Center Coding for Cell Detection with Convolutional Neural Networks,Computer Vision and Pattern Recognition,ARXIV.ORG,2019年04月18日,pp.1-9,[2023年03月09日検索],インターネット<URL:https://arxiv.org/pdf/1904.08864.pdf>
QU, Hui、外6名,Weakly Supervised Deep Nuclei Segmentation using Points Annotation in Histopathology Images,Proceedings of Machine Learning Research 102,2019年07月08日,pp.390-400,[2023年03月09日検索],インターネット<URL:http://proceedings.mlr.press/v102/qu19a/qu19a.pdf>
RAMESH, Nisha、外1名,Cell Segmentation Using a Similarity Interface With a Multi-Task Convolutional Neural Network,IEEE Journal of Biomedical and Health In formatics,IEEE,2018年12月07日,VOL. 23, NO. 4,pp.1457-1468,[2023年03月09日検索],インターネット<URL:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8567919&tag=1>

Also Published As

Publication number Publication date
EP4046061A1 (en) 2022-08-24
JP2022547722A (ja) 2022-11-15
WO2021076605A1 (en) 2021-04-22
CN114600155A (zh) 2022-06-07
US20220237789A1 (en) 2022-07-28

Similar Documents

Publication Publication Date Title
US11756318B2 (en) Convolutional neural networks for locating objects of interest in images of biological samples
Marsh et al. Deep learning global glomerulosclerosis in transplant kidney frozen sections
Valindria et al. Reverse classification accuracy: predicting segmentation performance in the absence of ground truth
JP7427080B2 (ja) 細胞検出およびセグメンテーションのための弱教師ありマルチタスク学習
CN113454733A (zh) 用于预后组织模式识别的多实例学习器
CN114730463A (zh) 用于组织图像分类的多实例学习器
Iqbal et al. Developing a brain atlas through deep learning
US20220058839A1 (en) Translation of images of stained biological material
JP7422235B2 (ja) 腫瘍検出および分析を支援するための非腫瘍セグメンテーション
Xu et al. Using transfer learning on whole slide images to predict tumor mutational burden in bladder cancer patients
Song et al. Hybrid deep autoencoder with Curvature Gaussian for detection of various types of cells in bone marrow trephine biopsy images
Hoorali et al. IRUNet for medical image segmentation
CN117015796A (zh) 处理组织图像的方法和用于处理组织图像的系统
Razavi et al. Minugan: Dual segmentation of mitoses and nuclei using conditional gans on multi-center breast h&e images
Bozkurt et al. Skin strata delineation in reflectance confocal microscopy images using recurrent convolutional networks with attention
Shankara et al. Detection of lung cancer using convolution neural network
Kalyani et al. Deep learning-based detection and classification of adenocarcinoma cell nuclei
Delmoral et al. Segmentation of pathological liver tissue with dilated fully convolutional networks: A preliminary study
Afzal et al. Prediction of Conversion from CIS to Clinically Definite Multiple Sclerosis Using Convolutional Neural Networks
Yancey Deep Feature Fusion for Mitosis Counting
CN113870194A (zh) 深层特征和浅层lbp特征融合的乳腺肿瘤超声图像处理装置
Shahzad et al. Semantic segmentation of anaemic RBCs using multilevel deep convolutional encoder-decoder network
Barzekar et al. Multiclass Semantic Segmentation to Identify Anatomical Sub-Regions of Brain and Measure Neuronal Health in Parkinson's Disease
Saranyaraj et al. Early prediction of breast cancer based on the classification of HER‐2 and ER biomarkers using deep neural network
Prajapati Nuclei Detection and Segmentation in Cervical Cytology Images Using Convolutional Neural Networks

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240123

R150 Certificate of patent or registration of utility model

Ref document number: 7427080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150