JP6941123B2 - 適応型追加学習を用いた細胞のアノテーション法及びアノテーションシステム - Google Patents

適応型追加学習を用いた細胞のアノテーション法及びアノテーションシステム Download PDF

Info

Publication number
JP6941123B2
JP6941123B2 JP2018568681A JP2018568681A JP6941123B2 JP 6941123 B2 JP6941123 B2 JP 6941123B2 JP 2018568681 A JP2018568681 A JP 2018568681A JP 2018568681 A JP2018568681 A JP 2018568681A JP 6941123 B2 JP6941123 B2 JP 6941123B2
Authority
JP
Japan
Prior art keywords
cell
image
class
pixels
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018568681A
Other languages
English (en)
Other versions
JP2019521443A (ja
Inventor
ヨンミャン チャン,
ヨンミャン チャン,
ジンウェン ズー,
ジンウェン ズー,
Original Assignee
コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド
コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド, コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド filed Critical コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド
Publication of JP2019521443A publication Critical patent/JP2019521443A/ja
Application granted granted Critical
Publication of JP6941123B2 publication Critical patent/JP6941123B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Description

本出願は、2016年6月30日に出願されたアメリカ特許仮出願第62/356883号及び2016年6月30日に出願されたアメリカ特許仮出願第62/356916号の優先権を主張するものであり、それらの全内容を参照により本出願に援用する。
本開示は、新たなクラスの細胞画像を受け取りつつ連続的に学習プロセスを行い、時間と共に細胞画像の新たなクラスの数を増加して予想する能力を徐々に拡張することができ、例えば、病理分析において細胞画像への自動的なアノテーションに適用することができる方法及びシステムに関する。
細胞の本体を正確に抽出することは、がん細胞の更なる病理分析のための細胞特性の定量化に大いに役立つ。実際には、細胞画像データには以下の問題がある:組織の種類、ブロックのカット、染色方法、設備及び病院の違いに起因して外観が多種多様である;細胞画像データは時間を掛けて徐々に収集されており、収集されたデータは通常均一化されていないので、例えば、ある種の細胞画像は、他の種の細胞画像よりも大きい。
画像の分類作業には、教師付き機械学習アルゴリズムがしばしば用いられる。しかし、機械学習アルゴリズムには、未解決の問題が残されている。その1つが、そのような固定されたモデルは静的なスナップショットのデータを用いて訓練されるので、新たなクラス及びクラス内のデータが利用可能となるような前述の状況に適合させることができない、という問題である。
したがって、新たなクラスの細胞画像が到着したとき及び/または新たなクラスの細胞画像を受け取ったときに連続的に学習プロセスを行い、新たなクラスの細胞画像に対する予測能力を徐々に拡張する細胞検出システムがあれば望ましい。
細胞のアノテーション法が開示され、前記方法は、細胞の検出に供する少なくとも1枚の新たな細胞画像を受け取ることと、前記少なくとも1枚の新たな細胞画像から細胞特徴を抽出することと、前記抽出した細胞特徴を各クラスの細胞特徴のマトリクスと比較して、最も近いクラスを予測することであって、前記細胞特徴のマトリクスは、少なくとも、細胞画像を少なくとも1枚有する初期訓練データから生成されている、と、前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴から、前記予測した最も近いクラスに対応する分類器を用いて細胞ピクセルを検出し、尤度マップを生成することと、前記尤度マップから個々の細胞を区分けすることによって前記少なくとも1枚の細胞画像から個々の細胞を抽出することと、前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に機械アノテーションを行って、細胞、非細胞ピクセル及び/または細胞境界を識別することと、前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に付した前記機械アノテーションの信頼度レベルを算出することと、前記信頼度レベルが所定の閾値よりも低い場合は、前記機械アノテーションを修正することと、を有する。
細胞アノテーションのためのコンピューター読み取り可能なコードを記憶するコンピュータープログラムが開示され、前記プログラムはコンピューターにより実行可能であり、コンピューターに以下を有するプロセスを実行させる:細胞の検出に供する少なくとも1枚の新たな細胞画像を受け取ることと、前記少なくとも1枚の新たな細胞画像から細胞特徴を抽出することと、前記抽出した細胞特徴を各クラスの細胞特徴のマトリクスと比較して、最も近いクラスを予測することであって、前記細胞特徴のマトリクスは、少なくとも、細胞画像を少なくとも1枚有する初期訓練データから生成されている、と、前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴から、前記予測した最も近いクラスに対応する分類器を用いて細胞ピクセルを検出し、尤度マップを生成することと、前記尤度マップから個々の細胞を区分けすることによって前記少なくとも1枚の細胞画像から個々の細胞を抽出することと、前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に機械アノテーションを行って、細胞、非細胞ピクセル及び/または細胞境界を識別することと、前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に付した前記機械アノテーションの信頼度レベルを算出することと、前記信頼度レベルが所定の閾値よりも低い場合は、前記機械アノテーションを修正すること。
細胞アノテーションシステムが開示され、前記システムは、以下を行うよう構成された少なくとも1つのプロセッサーを有する:細胞の検出に供する少なくとも1枚の新たな細胞画像を受け取り、前記少なくとも1枚の新たな細胞画像から細胞特徴を抽出し、前記抽出した細胞特徴を各クラスの細胞特徴のマトリクスと比較して、最も近いクラスを予測し、前記細胞特徴のマトリクスは、少なくとも、細胞画像を少なくとも1枚有する初期訓練データから生成されており、前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴から、前記予測した最も近いクラスに対応する分類器を用いて細胞ピクセルを検出し、尤度マップを生成し、前記尤度マップから個々の細胞を区分けすることによって前記少なくとも1枚の細胞画像から個々の細胞を抽出し、前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に機械アノテーションを行って、細胞、非細胞ピクセル及び/または細胞境界を識別し、前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に付した前記機械アノテーションの信頼度レベルを算出し、前記信頼度レベルが所定の閾値よりも低い場合は、前記機械アノテーションを修正する。
細胞アノテーションのための適応型追加学習法が開示され、前記方法は、細胞画像の複数のクラスのそれぞれについて、細胞特徴のマトリクスを生成することと、細胞画像の前記複数のクラスのそれぞれの細胞特徴の1つ以上を同定することと、追加の細胞画像を受け取ると、細胞画像の前記複数のクラスのそれぞれについての前記1つ以上の細胞特徴を更新することと、細胞画像の前記複数のクラスのそれぞれについて、複数の分類器を構築することであって、前記複数の分類器のそれぞれが1つ以上の細胞特徴に対応している、と、細胞画像の前記複数のクラスのそれぞれについての前記複数の分類器のそれぞれを重み付けすることと、新たな細胞画像を取得することと、前記複数のクラスから、前記細胞画像が属するクラスを同定し、いずれのクラスも同定されない場合は、新たなクラスを作成することと、前記細胞画像が前記複数のクラスから同定されたクラスに属する場合は、細胞画像から特徴を抽出して、分類誤り率が所定の閾値よりも小さい場合は、前記抽出した特徴を用いて前記複数のクラスから同定されたクラス用の新たな分類器を生成し、前記分類誤り率が前記閾値よりも大きい場合は、前記抽出した特徴を前記新たなクラスに分類することと、前記新たな分類器を生成する場合は、前記新たな分類器を前記複数のクラスから同定されたクラス用の前記複数の分類器の一つに付け加えることと、を有する。
細胞アノテーションのための適応型追加学習のためのコンピューター読み取り可能なコードを記憶するコンピュータープログラムを含む非一時的なコンピューター読み取り可能な媒体が開示され、前記プログラムはコンピューターにより実行可能であり、コンピューターに以下を有するプロセスを実行させる:細胞画像の複数のクラスのそれぞれについて、細胞特徴のマトリクスを生成することと、細胞画像の前記複数のクラスのそれぞれの細胞特徴の1つ以上を同定することと、追加の細胞画像を受け取ると、細胞画像の前記複数のクラスのそれぞれについての前記1つ以上の細胞特徴を更新することと、細胞画像の前記複数のクラスのそれぞれについて、複数の分類器を構築することであって、前記複数の分類器のそれぞれが1つ以上の細胞特徴に対応している、と、細胞画像の前記複数のクラスのそれぞれについての前記複数の分類器のそれぞれを重み付けすることと、新たな細胞画像を取得することと、前記複数のクラスから、前記細胞画像が属するクラスを同定し、いずれのクラスも同定されない場合は、新たなクラスを作成することと、前記細胞画像が前記複数のクラスから同定されたクラスに属する場合は、細胞画像から特徴を抽出して、分類誤り率が所定の閾値よりも小さい場合は、前記抽出した特徴を用いて前記複数のクラスから同定されたクラス用の新たな分類器を生成し、前記分類誤り率が前記閾値よりも大きい場合は、前記抽出した特徴を前記新たなクラスに分類することと、前記新たな分類器を生成する場合は、前記新たな分類器を前記複数のクラスから同定されたクラス用の前記複数の分類器の一つに付け加えること。
細胞アノテーションのための適応型追加学習システムが開示され、前記システムは、以下を行うよう構成された少なくとも1つのプロセッサーを有する:細胞画像の複数のクラスのそれぞれについて、細胞特徴のマトリクスを生成し、細胞画像の前記複数のクラスのそれぞれの細胞特徴の1つ以上を同定し、追加の細胞画像を受け取ると、細胞画像の前記複数のクラスのそれぞれについての前記1つ以上の細胞特徴を更新し、細胞画像の前記複数のクラスのそれぞれについて、複数の分類器を構築し、前記複数の分類器のそれぞれが1つ以上の細胞特徴に対応しており、細胞画像の前記複数のクラスのそれぞれについての前記複数の分類器のそれぞれを重み付けし、新たな細胞画像を取得し、前記複数のクラスから、前記細胞画像が属するクラスを同定し、いずれのクラスも同定されない場合は、新たなクラスを作成し、前記細胞画像が前記複数のクラスから同定されたクラスに属する場合は、細胞画像から特徴を抽出して、分類誤り率が所定の閾値よりも小さい場合は、前記抽出した特徴を用いて前記複数のクラスから同定されたクラス用の新たな分類器を生成し、前記分類誤り率が前記閾値よりも大きい場合は、前記抽出した特徴を前記新たなクラスに分類し、前記新たな分類器を生成する場合は、前記新たな分類器を前記複数のクラスから同定されたクラス用の前記複数の分類器の一つに付け加える。
上記の概括的な記載及び以下の詳細な記載は、どちらも例示及び説明のためのものであり、請求項に記載の発明についてさらなる説明の提供を目的としたものであると理解すべきである。
添付の図面は、本発明のさらなる理解のために含められたものであり、本明細書に組み込まれ、その一部を構成する。図面は、本発明の実施形態を説明するものであり、明細書と共に本発明の原理を説明する役割を果たす。
例示的実施形態に係る適応型追加学習を用いた細胞アノテーションシステムを示すフローチャートである。 例示的実施形態に係る連続学習中に、オンラインで種々のクラスにグループ分けされた細胞画像を示す図である。 例示的実施形態に係る連続学習プロセス中に、どのようにして細胞画像が種々のクラスにグループ分けされるのかを示す線図である。 例示的実施形態に従って得られた細胞画像の尤度マップを示す図である。 例示的実施形態に係る後処理の後にラベル付けされた細胞を示す図である。 あるクラスの細胞画像の細胞検出に適用した場合の追加学習の性能を示す実験結果であり、例示的実施形態に従って訓練画像を追加していくにつれ、検出の正確度が徐々に改善することが示されている。 細胞画像の到着または細胞画像を受け取りによりシステムが学習していくにつれて、システムの総合性能が徐々に改善することを示す実験結果であり、最初は、初期訓練用として画像が1枚のみ与えられ、その後、システムは平均で85%の正確度を達成することができた。連続学習の過程で性能が徐々に改善している。破線は、正確度の改善についての統計的な傾向であり、実線は、システムにより達成された正確度の平均である。 例示的実施形態に係る細胞画像の機械アノテーションの結果の例であり、輪郭は、機械により自動的にアノテーションされた細胞の境界である。
ここで、本発明の好ましい実施形態について詳細に述べ、その例を添付の図面に示す。図面及び明細書において、同一または類似の部材の参照には、可能な限り同一の参照番号を用いる。
例示的実施形態によれば、教師なし学習を用いて画像の特徴の類似度に従った細胞画像のクラスを学習することができるシステム及び方法が開示され、到着または受け取った新たな細胞画像は、種々のクラスモデルに自己体系化される。
例示的実施形態によれば、他の既知のシステムとは大きく異なるデータマッピング機能が開示される。例えば、実施形態によれば、他の既知のシステムではニューラルネットワークを用いた非線形マッピングを用いられるのに対して、本システムでは、細胞検出性能を大幅に強化することが可能なデータ相違度を尺度に用いることができる。
例示的実施形態によれば、細胞画像データは、種々のモダリティや種々の身体の部位から、画像染色やバックグラウンドノイズ、細胞のサイズや形に大きなばらつきがあるものを徐々に収集することができる。また、データのクラスは、しばしば均一化されていない。既知の機械学習アルゴリズムの多くは、例えば、学習データが一度に利用できることを想定しており、これは上述の状況には適さない。
例示的実施形態によれば、本開示は、到着したデータから学習していくことにより細胞アノテーションの実際の状況に適合するインテリジェントなシステムを提供するものであり、セルアノテーションに関していくつかの利点をもたらすが、それには以下が含まれる:(1)機械によるラベル付けの結果の信頼度を測定するので、エンドユーザーが手作業による修正の要否を決定する手助けとなる;(2)データの相違分布によって前回まで未知だった特徴の尤度が評価され、これは、学習プロセスを徐々に該未知の特徴に注目するように仕向けるのに効果的である;(3)予測応答の尤度を測定が、重なった細胞の区分けに効果的に役立つ;(4)分類器の数が所定の閾値に達したときは、弱い分類器を自動的に取り除く;(5)画像ノイズおよび異常な値の影響がオフセットされる方法で、細胞画像のクラスタリングにおいて2枚の画像間の類似度が測定される;(6)細胞画像を自動的に種々の細胞クラスにグループ分けするので、エンドユーザーは、細胞画像の細胞種及びモダリティを知る必要が無い;(7)システムは、初期学習には1枚のラベル付き画像しか必要とせず、連続的な学習プロセスの過程で性能が徐々に改善される;(8)到着した画像が未知のクラスに属している場合でも、システムは、例えば本明細書に示す統計的に85%を超えるような高い正確度で細胞のラベルを予測することができるので、人によるラベル付け作業が大幅に削減される。
(オンラインでのクラスクラスタリング)
図1は、例示的実施形態に係る、適応型追加学習を用いたセルアノテーションシステム100を示すフローチャートである。例示的実施形態によれば、例えば、システム100は、種々のブロックまたはモジュールで構成することができる。例えば、システム100は、特徴抽出モジュール110と、クラス同定モジュール120と、学習予測モジュール130と、予測モジュール140と、学習モジュール150とを有しうる。これらのシステム及び/またはモジュール100、110、120、130、140及び150は、メモリー、プロセッサー、オペレーティングシステム及び/またはソフトウェア、並びに/または任意のグラフィカルインターフェイス(GUI)及び/またはディスプレイを備えるコンピューターまたは処理装置を1つ以上有しうる。例示的実施形態によれば、例えば、各モジュール110、120、130、140、150は、例えばスタンドアローンのコンピューター装置等の1台のコンピューター装置に集約したり、1台以上のコンピューター装置に含めたりすることができ、これら1台以上のコンピューター装置は、それぞれメモリー、プロセッサー、オペレーティングシステム及び/またはソフトウェア、並びにグラフィカルインターフェイス(GUI)またはディスプレイを備える。
例示的実施形態によれば、システム100は以下のように構成される。ステップ1では、抽出モジュール110において初期訓練データを受け取る。例えば、例示的実施形態によれば、システム100は、まず、2〜3個程度のラベル付きサンプルを用いて事前モデルを学習する。これを追加学習の出発点として、訓練プロセスが実行されるたびに当該モデルが更新される。ステップ2では、初期訓練データ(原細胞画像)の特徴抽出を行う。ステップ2では、この機能により細胞画像の特徴が抽出され、当該特徴は、予測モジュール130及び/または学習モジュール150の両方において用いることができる。
例示的実施形態によれば、オンラインクラスタリングモジュール120は、ステップ3では、クラスの同定を行うが、これには、到着した細胞画像が、未知のクラスに属するのか既存(または既知)のクラスに属するのかの判定が含まれうる。ステップ4では、クラス中心的特徴(class pivot feature)のモジュールまたはデータベースが提供されるが、これは、細胞画像の各クラスの中心的特徴を保持するマトリクスであってよく、入力画像のクラスの同定に用いることができる。ステップ5では、クラスの同定が行われるが、これには、到着した細胞画像が、未知のクラスに属するのか既存(または既知)のクラスに属するのかの判定が含まれうる。
例示的実施形態によれば、ステップ6では、システム100が、検出に供する細胞画像のストリームを受け取る。ステップ7では、特徴抽出が行われ、細胞の特徴が抽出されるが、抽出された特徴は、学習モジュール150及び予測モジュール130の両方において用いることができる。
ステップ8では、クラス中心的特徴が生成され、各クラスの細胞画像の特徴が抽出されて、クラス中心的特徴モジュールまたはデータベース(ステップ4)である「クラス中心的特徴」に特徴ベクトルが保存される。ステップ9では、クラスモデルの選択が行われるが、これには、特徴類似度マッチングにより所与の細胞画像に最も近いクラスを見つけ出すことが含まれうる。ステップ10では、訓練済み分類器を用いて所与の細胞画像から細胞ピクセルを検出する予測が行われ、例えば尤度マップとして出力されうる。ステップ11では、処理後抽出が行われ、予測ステップで出力された尤度マップから細胞を区分けすることにより、所与の細胞画像から個々の細胞が抽出される。
例示的実施形態によれば、ステップ12では、ステップ11の出力を用いて機械アノテーション(または後処理)を行うことができ、細胞及び非細胞ピクセル並びに細胞輪郭をマークすることができる。ステップ13では、予測の信頼度を算出することができ、機械による検出の結果について信頼度レベル(パーセント)が得られる。ステップ14では、ラベルの修正を行うことができ、これには、信頼度レベルが一定の閾値またはレベルよりも低い場合や、画像が未知のクラスに属する場合に、手作業の介入により機械によるラベル付けの結果を修正することが含まれうる。ステップ15では、最終アノテーションが行われ、これには、病理分析やさらなる学習のためのフィードバックに用いることのできるアノテーションの結果が含まれうる。ステップ16では、クラス中心的特徴が更新され、これには、あるクラスに属する追加画像が訓練に関与している場合に、当該クラスの中心的特徴を更新することが含まれうる。
例示的実施形態によれば、ステップ17では、クラスが同定され、そのクラスの弱い分類器を訓練することができる。このクラスのデータが連続的に到着することで、各クラスのデータについての学習能力を表す一連の重み分布関数を作り出すことができる。ステップ18では、学習プロセスの過程で新たなモデルが学習されて、分類器の数が閾値を超えた場合に、過度の執着(over obsessive)を防ぎ、到着する新たな画像に徐々に適応するように、使われなくなった分類器を取り除く。ステップ19では、クラスモデルが作成され、すべての弱分類器を含むデータ構造が、クラスに従って索引付けされる。
例示的実施形態によれば、システム100には、追加学習の仕組みを持つ既知のシステムとは異なる以下のような特徴がある:
(1)機械によるラベル付けの結果についての信頼度の測定;
(2)データ相違度の分布により、未知の特徴の尤度が測定される;
(3)細胞画像のクラスタリングにおける2枚の画像間の類似度の測定;
(4)予測応答の尤度の測定;及び
(5)細胞画像が種々のクラスに自動的にグループ分けされる。
例示的実施形態によれば、例えば、ここに開示される方法及びシステムは、細胞画像のアノテーションに関していくつかの利点をもたらすが、それには以下が含まれる:
(1)細胞画像が自動的に種々のクラスにグループ分けされるので、エンドユーザーは、細胞画像の細胞種及びモダリティを知る必要が無い;
(2)システムは、初期学習に1枚のラベル付き画像しか必要とせず、その性能は連続的な学習プロセスの過程で徐々に改善される;
(3)到着した画像が未知のクラスに属する場合でも、システムは高い正確度で細胞のラベルを予測することができるので、人によるラベル付け作業が大幅に削減される。
(4)機械によるラベル付けの結果の信頼度を測定するので、エンドユーザーが手作業による修正の要否を決定する手助けとなる;
(5)データの相違分布によって前回まで未知だった特徴の尤度が評価され、これは、学習プロセスを徐々に該未知の特徴に注目するように仕向けるのに効果的である;
(6)予測応答の尤度の測定が、重なった細胞の区分けに効果的に役立つ;
(7)分類器の数が所定の閾値に達したときに、弱い分類器が自動的に取り除かれる;
(8)細胞画像のクラスタリングにおいて2枚の画像間の類似度を測定するので、画像ノイズおよび異常な値の影響がオフセットされる。
例示的実施形態によれば、図2に示すように、連続的な学習プロセスの過程で、入力された細胞画像は、オンラインクラスクラスタリングにより、画像類似度に従って種々のクラス200にグループ分けされる。これは、細胞画像の多種多様な外観に対応するためである。例示的実施形態によれば、各クラスは分類器を伴い、これは新たな細胞画像の到着によって追加的に構築されて行き、徐々に更新される。
例示的実施形態によれば、本明細書に開示するシステム及び方法では、画像のグループ分けに以下のような色分布に基づく方法を用いることができる。例えば、H(a)をk個のヒストグラムビンを持つ画像aのヒストグラム、H(b)を画像bのヒストグラムとすると、画像中の色は、k個の色を含む個別の色空間にマッピングすることができ、色ヒストグラムH(a)は、ベクトル[h(a)・・・h(a)]、H(b)はベクトル[h(b)・・・h(b)]となる。
例示的実施形態によれば、2枚の画像の類似度は、2つのヒストグラム間のユークリッド距離により測定(または算出)することができる。ユークリッド距離は、小さな変形であっても感度に問題が生じることに注意すべきである。例えば、ベクトルの1つの1つの値に異常がある場合、これが結果の距離に反映されうる。したがって、ヒストグラムによる2枚の画像間の類似度を測定には、以下の測定法を用いることができる。
Figure 0006941123
例示的実施形態によれば、オンラインクラスクラスタリングは、2つのモジュール:クラスの同定と新たなクラスの生成、からなるものであってよい。新たなデータが到着すると、クラス同定モジュール(ステップ5)は、式(1)を用いて、新たに到着したデータが既存のクラスに属するかどうかを検証する。D(H(a),H(b))が予め定められた閾値よりも大きい場合、到着したデータは未知のクラスに属するので、ステップ8で抽出したクラス中心的特徴を用いて新たなクラスが作られる。
(細胞画像の追加学習)
例示的実施形態によれば、細胞画像は種々のクラスにグループ分けされるものの、連続的な学習プロセスの過程でデータが徐々に収集されていくにつれ、時間と共にクラス内での画像のばらつきが発生する。例示的実施形態によれば、このような動的な問題を解決するには、図3に示すように、適応型の追加学習300を用いることができる。適応型の追加学習300は、各クラスについて分類器のセットを構築することによるアンサンブル法を用いることができ、これは、あるクラスについての分類誤りの総数が最小化するように、αと、h中の各分類器毎のスカラー定数とを選択するものである:
Figure 0006941123
式中、
Figure 0006941123
であり、
Tは、時間tにおいて集まる分類器の数であり、
Figure 0006941123
は、それぞれデータXの特徴及びラベルである。αは、分類器hにどの程度の信頼を置くことできるかの重みを付ける。
本明細書に開示する方法及びシステムと一般的なアンサンブル法(例えば、エイダブーストまたは「適応型ブースト」)との違いは、新たなデータ(細胞画像)が到着するたびに分類器を訓練するためのサンプルを描くことである。t+1におけるデータを学習する場合、tにおけるデータから学習した知識をt+1における学習プロセスに転移することができる。例えば、2つのデータセットが、
Figure 0006941123
であるとすると、この2つのデータセット間の相違は、距離を尺度として、例えば以下のようなユークリッド距離を用いて測定することができる。
Figure 0006941123
式中、Kは特徴の数であり、2つのデータセットで、特徴ベクトルの長さは等しいものとする。参照データセットに対する相違が大きいデータセットは、参照データセットからの未知のサンプルとして存在することが多い。したがって、サイズnの参照データセットに対するサイズmのデータセットの相違は、以下のように定義することができる。
Figure 0006941123
式中、oは、参照データセットにおけるdのインデックスである。時間tにおける訓練データに対する時間t+1における訓練データの相違の分布は、以下のように再帰的に推定することができる。
Figure 0006941123
例示的実施形態によれば、式(5)の相違分布は、新たなデータが到着する度に繰り返し改変される。相違が大きいほど、分布が高くなる。相違分布値が大きいデータサンプルは、未知のサンプル(または新たな画像)であることが多い。未知のサンプルは、t−1におけるサンプルに対して相違が大きいので、tにおいて探索される可能性がより高い。
例示的実施形態によれば、追加学習は、分類器の訓練とモデルの更新からなる。訓練される分類器は、上記の理論に基づく学習済み分類器である。例えば、あるクラス用の分類器の数が予め定めた閾値を超える場合、弱い分類器を取り除く(または削除する)ことができる。これは、例えば、モデル更新ステップ(ステップ18)において行うことができる。例示的実施形態によれば、学習アルゴリズムは、以下のように記述することができる。
1.現在時間tにおける細胞画像Iを取得する。
2.式(1)を用いてIが属するクラスを同定する;Iが未知のクラスに属する場合は、クラスインデックスcの新たなクラスを作成する。
3.Iからn例の特徴セット:X=(x,y)、j=1〜nを抽出する。
4.式(5)により、Xt−1、X及びPt−1を用いてPを得る。
5.Xを用いて分類器hを訓練し、分類の誤り率を得る。
Figure 0006941123
6.式(2)を用いて信頼度ファクターαを算出する。
7.線形結合により時間tにおけるクラスc用の分類器を形成する。
Figure 0006941123
8.分類誤りをまとめる(integrate)ことによりデータ相違分布を調整する。
Figure 0006941123
9.
Figure 0006941123
の大きさが予め設定した閾値に達した場合は、
Figure 0006941123
からαが最小となるhを削除することにより分類器を取り除く。
10.tをt+1に増加する。
11.新たな画像It+1を取得した場合は、ステップ1に戻る。
(予測)
例示的実施形態によれば、予測とは、学習済みモデルを用いて機械による検出の結果を得ることである。入力画像Iを取得し、特徴セットXを用いてIから特徴を抽出し、Iが属する最も近いクラス、例えばクラスcを見つけ出し、クラスcに紐づけされた弱分類器のセット、例えば{α>0、t=1〜T}を見つけ出し、以下のような多数決スキームにより予測応答を取得する。
Figure 0006941123
式中、Nは計数演算子である。分類器{α、t=1〜T}は、上記のような追加学習アプローチにより学習することができる。
例示的実施形態によれば、新たに到着したデータを評価する場合、ステップ9において、クラスモデルの選択により、当該到着したデータに最も適合する既存のクラスが見つけ出される。予測モジュール130は、式(9)を用いた図4Aに示すような尤度マップ400と、到着したデータが新たなクラスに属するのか既存のクラスに属するのかを示す情報とを出力する。後処理モジュール(ステップ11)は、図4Bに示すような機械によるラベル付けの結果410を生成する。
(対話型ラベリング)
前節で説明したように、上記のような予測に供する細胞画像の入力があれば、システム100は、それに適応するのに最も適したクラスの分類器を見つけ出し、当該分類器により、以下により算出される信頼度スコアSとともに細胞検出の結果(図1のステップ12)を生成する。
Figure 0006941123
式中、Mはピクセル総数、
Figure 0006941123
は、ピクセルxが細胞ピクセルに分類される確率であって、
Figure 0006941123
は、ピクセルxが(細胞ピクセルでは無い)背景ピクセルに分類される確率であり、Cは、入力画像が新たなクラスに属するのか既存のクラスに属するのかを示す情報により求められる係数である。この情報は、図1のステップ10の出力の1つである。Sが予め定めた閾値よりも大きい場合、最新の学習済みモデルを用いた機械によるラベルは信頼できるものである。そうでない場合は、細胞によってはラベルを決定できる程度に信頼できるものではない。この場合、図1のステップ14に示すように、人及び/または手作業の介入によって、ソフトウェアユーザーインターフェースを介して機械によるラベル付けの結果を対話形式で修正することができる。最終的なラベル付けの結果は、さらなる病理分析に用いることができる。同時に、ステップ6において抽出された細胞画像及びステップ15で得られた結果は、細胞画像が属するクラス(ステップ5及び8において同定または生成されたもの)用の分類器を作成及び更新する追加学習(ステップ17)へのフィードバックとすることができる。
例示的実施形態によれば、あるクラスの細胞の学習に使われた細胞画像の数が増えるにつれ、システムは、長期に渡る学習の過程で、徐々にクラス内の画像のばらつきに適応していく。その結果、検出の正確度も徐々に改善される。図1のステップ16に示されるクラス中心的特徴の更新は、以下のように移動平均により更新されうる。
Figure 0006941123
式中、
Figure 0006941123
は、それぞれ時間t及びt+1におけるクラスcの特徴ベクトルである。
図5は、あるクラスの細胞画像の細胞検出に適用した場合の追加学習の性能を示す実験結果500であり、例示的実施形態に従って訓練画像が追加されるにつれて、検出の正確度が徐々に改善されることが示されている。
図6は、細胞画像の到着または受け取りによって、システムが学習を行うにつれてシステムの総合的な性能が改善されることを示す実験結果600であり、最初は、初期訓練用として画像が1枚のみ与えられ、その後、システムは平均で85%の正確度を達成することができた。連続学習の過程で性能が徐々に改善されている。破線は、正確度の改善についての統計的な傾向であり、実線は、システムにより達成された正確度の平均である。
図7は、例示的実施形態に係る細胞画像の機械によるアノテーションの結果700の例であり、輪郭は、機械により自動的にアノテーションされた細胞の境界である。
例示的実施形態によれば、細胞アノテーションのためのコンピューター読み取り可能なコードを記憶するコンピュータープログラムを含む非一時的なコンピューター読み取り可能な媒体が開示され、当該プログラムはコンピューターにより実行可能であり、コンピューターに以下を有するプロセスを実行させる:細胞の検出に供する少なくとも1枚の新たな細胞画像を受け取ることと;前記少なくとも1枚の新たな細胞画像から細胞特徴を抽出することと;前記抽出した細胞特徴を各クラスの細胞特徴のマトリクスと比較して、最も近いクラスを予測することであって、前記細胞特徴のマトリクスは、少なくとも、細胞画像を少なくとも1枚有する初期訓練データから生成されている、と;前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴から、前記予測した最も近いクラスを用いて細胞ピクセルを検出し、尤度マップを生成することと;前記尤度マップから個々の細胞を区分けすることによって前記少なくとも1枚の細胞画像から個々の細胞を抽出することと;前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に機械アノテーションを行って、細胞、非細胞ピクセル及び/または細胞境界を識別することと、前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に付した前記機械アノテーションの信頼度レベルを算出することと;前記信頼度レベルが所定の閾値よりも低い場合は、前記機械アノテーションを修正すること。
例示的実施形態によれば、細胞アノテーションのためのコンピューター読み取り可能なコードを記憶するコンピュータープログラムを含む非一時的なコンピューター読み取り可能な媒体が開示され、当該プログラムはコンピューターにより実行可能であり、コンピューターに以下を有するプロセスを実行させる:細胞画像の複数のクラスのそれぞれについて、細胞特徴のマトリクスを生成することと;細胞画像の前記複数のクラスのそれぞれの細胞特徴の1つ以上を同定することと;追加の細胞画像を受け取ると、細胞画像の前記複数のクラスのそれぞれについての前記1つ以上の細胞特徴を更新することと;細胞画像の前記複数のクラスのそれぞれについて、複数の分類器を構築することであって、前記複数の分類器のそれぞれが1つ以上の細胞特徴に対応している、と;細胞画像の前記複数のクラスのそれぞれについての前記複数の分類器のそれぞれを重み付けすることと;新たな細胞画像を取得することと;前記複数のクラスから、前記細胞画像が属するクラスを同定し、いずれのクラスも同定されない場合は、新たなクラスを作成することと;前記細胞画像が前記複数のクラスから同定されたクラスに属する場合は、細胞画像から特徴を抽出して、分類誤り率が所定の閾値よりも小さい場合は、前記抽出した特徴を用いて前記複数のクラスから同定されたクラス用の新たな分類器を生成し、前記分類エラー率が前記閾値よりも大きい場合は、前記抽出した特徴を前記新たなクラスに分類することと;前記新たな分類器を生成する場合は、前記新たな分類器を前記複数のクラスから同定されたクラス用の前記複数の分類器の一つに付け加えること。
コンピューター読み取り可能な記録媒体は、磁気記録媒体、光磁気記録媒体または将来開発されるであろうその他のあらゆる記録媒体であってよく、これらはすべて全く同様に本発明に適用可能であるとみなされる。一次複製品や二次複製品その他を含めたこのような媒体の複製は、紛れもなく上記の媒体と同等であるとみなされる。また、本発明の一実施形態がソフトウェアとハードウェアの組み合わせであった場合でも、それは本発明のコンセプトから逸脱するものでは全く無い。本発明は、そのソフトウェア部分が記録媒体に予め書き込まれており、動作中に必要に応じて読み出される形で実施されうる。
本発明の範囲及び精神から逸脱しない限り、本発明の構造に様々な改良や変形を加えうることは、当業者にとって明白であろう。以上より、本発明は、以下のクレーム及びその均等の範囲内である限り、本発明の改良例や変形例も包含するものとされる。

Claims (17)

  1. 細胞のアノテーション法であって、
    細胞の検出に供する少なくとも1枚の新たな細胞画像を受け取ることと、
    前記少なくとも1枚の新たな細胞画像から細胞特徴を抽出することと、
    前記抽出した細胞特徴を各クラスの細胞特徴のマトリクスと比較して、最も近いクラスを予測することであって、前記細胞特徴のマトリクスは、少なくとも、細胞画像を少なくとも1枚有する初期訓練データから生成されている、と、
    前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴から、前記予測した最も近いクラスに対応する分類器を用いて細胞ピクセルを検出し、尤度マップを生成することと、
    前記尤度マップから個々の細胞を区分けすることによって前記少なくとも1枚の細胞画像から個々の細胞を抽出することと、
    前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に機械アノテーションを行って、細胞、非細胞ピクセル及び/または細胞境界を識別することと、
    前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に付した前記機械アノテーションの信頼度レベルを算出することと、
    前記信頼度レベルが所定の閾値よりも低い場合は、前記機械アノテーションを修正することと、
    を有する方法。
  2. 前記信頼度レベルに基づいて、病理分析またはさらなる学習用フィードバックのための最終アノテーションを生成することであって、信頼度レベルが前記所定の閾値よりも低い場合は、前記機械アノテーションを手作業で修正すること、
    を有する、請求項1に記載の方法。
  3. 前記最終アノテーションに基づいて、各クラスの細胞画像についての細胞特徴のマトリクスを更新すること、
    を有する、請求項2に記載の方法。
  4. 前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴の前記細胞特徴のマトリクスとの比較は、類似度マッチングにより行い、前記類似度マッチングは、
    以下を用いてヒストグラム間のユークリッド距離を求めることと、
    Figure 0006941123
    (式中、H(a)は、画像aのヒストグラム、H(b)は、画像bのヒストグラムであり、k個のヒストグラムビンを持つ。)
    画像中の色をk個の色を含む個別の色空間にマッピングすることであって、色ヒストグラムH(a)は、ベクトル[h(a)・・・h(a)]、H(b)はベクトル[h(b)・・・h(b)]となる、とを有し、
    D(H(a),H(b))が予め定められた閾値よりも大きい場合、画像は未知のクラスに属し、前記予め定められた閾値よりも小さい場合、画像は既知のクラスに属する、
    請求項1から3のいずれか一項に記載の方法。
  5. 前記信頼度レベルの算出は、
    以下の信頼度スコアSを算出すること、
    Figure 0006941123
    (式中、Mは、ピクセル総数、
    Figure 0006941123
    は、ピクセルxが細胞ピクセルに分類される確率であって、
    Figure 0006941123
    は、ピクセルxが(細胞ピクセルでは無い)背景ピクセルに分類される確率であり、
    Cは、前記少なくとも1枚の画像が新たなクラスに属するのか既存のクラスに属するのかを示す情報により求められる係数である。)
    を有する、請求項1から4のいずれか一項に記載の方法。
  6. Sが予め定めた閾値よりも大きい場合、前記機械アノテーションは、最新の学習済みモデルを用いて信頼できるものであり、Sが前記予め定めた閾値よりも小さい場合、前記最新の学習済みモデルは、前記少なくとも1枚の新たな細胞画像の細胞のラベルを決定できる程度に信頼できるものではない、請求項5に記載の方法。
  7. 細胞アノテーションのためのコンピューター読み取り可能なコードを記憶するコンピュータープログラムであって、前記プログラムはコンピューターにより実行可能であり、コンピューターに以下を有するプロセスを実行させる:
    細胞の検出に供する少なくとも1枚の新たな細胞画像を受け取ることと、
    前記少なくとも1枚の新たな細胞画像から細胞特徴を抽出することと、
    前記抽出した細胞特徴を各クラスの細胞特徴のマトリクスと比較して、最も近いクラスを予測することであって、前記細胞特徴のマトリクスは、少なくとも、細胞画像を少なくとも1枚有する初期訓練データから生成されている、と、
    前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴から、前記予測した最も近いクラスに対応する分類器を用いて細胞ピクセルを検出し、尤度マップを生成することと、
    前記尤度マップから個々の細胞を区分けすることによって前記少なくとも1枚の細胞画像から個々の細胞を抽出することと、
    前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に機械アノテーションを行って、細胞、非細胞ピクセル及び/または細胞境界を識別することと、
    前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に付した前記機械アノテーションの信頼度レベルを算出することと、
    前記信頼度レベルが所定の閾値よりも低い場合は、前記機械アノテーションを修正すること。
  8. 前記信頼度レベルに基づいて、病理分析またはさらなる学習用フィードバックのための最終アノテーションを生成することであって、信頼度レベルが前記所定の閾値よりも低い場合は、前記機械アノテーションを手作業で修正すること、
    を有する、請求項7に記載のプログラム。
  9. 前記最終アノテーションに基づいて、各クラスの細胞画像についての細胞特徴のマトリクスを更新すること、
    を有する、請求項8に記載のプログラム。
  10. 前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴の前記細胞特徴のマトリクスとの比較は、類似度マッチングにより行い、前記類似度マッチングは、
    以下を用いてヒストグラム間のユークリッド距離を求めることと、
    Figure 0006941123
    (式中、H(a)は、画像aのヒストグラム、H(b)は、画像bのヒストグラムであり、k個のヒストグラムビンを持つ。)
    画像中の色をk個の色を含む個別の色空間にマッピングすることであって、色ヒストグラムH(a)は、ベクトル[h(a)・・・h(a)]、H(b)はベクトル[h(b)・・・h(b)]となる、とを有し、
    D(H(a),H(b))が予め定められた閾値よりも大きい場合、画像は未知のクラスに属し、前記予め定められた閾値よりも小さい場合、画像は既知のクラスに属する、
    請求項7から9のいずれか一項に記載のプログラム。
  11. 前記信頼度レベルの算出は、
    以下の信頼度スコアSを算出すること、
    Figure 0006941123
    (式中、Mは、ピクセル総数、
    Figure 0006941123
    は、ピクセルxが細胞ピクセルに分類される確率であって、
    Figure 0006941123
    は、ピクセルxが(細胞ピクセルでは無い)背景ピクセルに分類される確率であり、
    Cは、前記少なくとも1枚の画像が新たなクラスに属するのか既存のクラスに属するのかを示す情報により求められる係数である。)
    を有する、請求項7から10のいずれか一項に記載のプログラム。
  12. Sが予め定めた閾値よりも大きい場合、前記機械アノテーションは、最新の学習済みモデルを用いて信頼できるものであり、Sが前記予め定めた閾値よりも小さい場合、前記最新の学習済みモデルは、前記少なくとも1枚の新たな細胞画像の細胞のラベルを決定できる程度に信頼できるものではない、請求項11に記載のプログラム。
  13. 細胞アノテーションシステムであって、
    以下を行うよう構成された少なくとも1つのプロセッサーを有する:
    細胞の検出に供する少なくとも1枚の新たな細胞画像を受け取り、
    前記少なくとも1枚の新たな細胞画像から細胞特徴を抽出し、
    前記抽出した細胞特徴を各クラスの細胞特徴のマトリクスと比較して、最も近いクラスを予測し、前記細胞特徴のマトリクスは、少なくとも、細胞画像を少なくとも1枚有する初期訓練データから生成されており、
    前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴から、前記予測した最も近いクラスに対応する分類器を用いて細胞ピクセルを検出し、尤度マップを生成し、
    前記尤度マップから個々の細胞を区分けすることによって前記少なくとも1枚の細胞画像から個々の細胞を抽出し、
    前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に機械アノテーションを行って、細胞、非細胞ピクセル及び/または細胞境界を識別し、
    前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に付した前記機械アノテーションの信頼度レベルを算出し、
    前記信頼度レベルが所定の閾値よりも低い場合は、前記機械アノテーションを修正する。
  14. 前記信頼度レベルに基づいて、病理分析またはさらなる学習用フィードバックのための最終アノテーションを生成し、信頼度レベルが前記所定の閾値よりも低い場合は、前記機械アノテーションを手作業で修正し、
    前記最終アノテーションに基づいて、各クラスの細胞画像についての細胞特徴のマトリクスを更新する、
    ように構成された少なくとも1つのプロセッサーを有する、請求項13に記載のシステム。
  15. 前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴の前記細胞特徴のマトリクスとの比較は、類似度マッチングにより行い、前記類似度マッチングは、
    以下を用いてヒストグラム間のユークリッド距離を求めることと、
    Figure 0006941123
    (式中、H(a)は、画像aのヒストグラム、H(b)は、画像bのヒストグラムであり、k個のヒストグラムビンを持つ。)
    画像中の色をk個の色を含む個別の色空間にマッピングすることであって、色ヒストグラムH(a)は、ベクトル[h(a)・・・h(a)]、H(b)はベクトル[h(b)・・・h(b)]となる、とを有し、
    D(H(a),H(b))が予め定められた閾値よりも大きい場合、画像は未知のクラスに属し、前記予め定められた閾値よりも小さい場合、画像は既知のクラスに属する、
    請求項13又は14に記載のシステム。
  16. 前記信頼度レベルの算出は、
    以下の信頼度スコアSを算出すること、
    Figure 0006941123
    (式中、Mは、ピクセル総数、
    Figure 0006941123
    は、ピクセルxが細胞ピクセルに分類される確率であって、
    Figure 0006941123
    は、ピクセルxが(細胞ピクセルでは無い)背景ピクセルに分類される確率であり、
    Cは、前記少なくとも1枚の画像が新たなクラスに属するのか既存のクラスに属するのかを示す情報により求められる係数である。)
    を有する、請求項13から15のいずれか一項に記載のシステム。
  17. Sが予め定めた閾値よりも大きい場合、前記機械アノテーションは、最新の学習済みモデルを用いて信頼できるものであり、Sが前記予め定めた閾値よりも小さい場合、前記最新の学習済みモデルは、前記少なくとも1枚の新たな細胞画像の細胞のラベルを決定できる程度に信頼できるものではない、請求項16に記載のシステム。
JP2018568681A 2016-06-30 2017-06-27 適応型追加学習を用いた細胞のアノテーション法及びアノテーションシステム Active JP6941123B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662356883P 2016-06-30 2016-06-30
US201662356916P 2016-06-30 2016-06-30
US62/356,883 2016-06-30
US62/356,916 2016-06-30
PCT/US2017/039378 WO2018005413A1 (en) 2016-06-30 2017-06-27 Method and system for cell annotation with adaptive incremental learning

Publications (2)

Publication Number Publication Date
JP2019521443A JP2019521443A (ja) 2019-07-25
JP6941123B2 true JP6941123B2 (ja) 2021-09-29

Family

ID=60785454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018568681A Active JP6941123B2 (ja) 2016-06-30 2017-06-27 適応型追加学習を用いた細胞のアノテーション法及びアノテーションシステム

Country Status (4)

Country Link
US (1) US10853695B2 (ja)
EP (1) EP3478728A4 (ja)
JP (1) JP6941123B2 (ja)
WO (1) WO2018005413A1 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6465876B2 (ja) 2013-06-28 2019-02-06 ディー−ウェイブ システムズ インコーポレイテッド データの量子処理のためのシステムおよび方法
CN108351987A (zh) 2015-08-19 2018-07-31 D-波系统公司 用于使用绝热量子计算机进行机器学习的系统和方法
JP7134949B2 (ja) 2016-09-26 2022-09-12 ディー-ウェイブ システムズ インコーポレイテッド サンプリングサーバからサンプリングするためのシステム、方法、及び装置
US11531852B2 (en) * 2016-11-28 2022-12-20 D-Wave Systems Inc. Machine learning systems and methods for training with noisy labels
WO2019118644A1 (en) 2017-12-14 2019-06-20 D-Wave Systems Inc. Systems and methods for collaborative filtering with variational autoencoders
CN108615007B (zh) * 2018-04-23 2019-07-19 深圳大学 基于特征张量的三维人脸识别方法、装置及存储介质
US11386346B2 (en) 2018-07-10 2022-07-12 D-Wave Systems Inc. Systems and methods for quantum bayesian networks
EP3611654A1 (en) * 2018-08-15 2020-02-19 Koninklijke Philips N.V. System and method for analysis of microscopic image data and for generating an annotated data set for classifier training
US11087177B2 (en) * 2018-09-27 2021-08-10 Salesforce.Com, Inc. Prediction-correction approach to zero shot learning
US11461644B2 (en) * 2018-11-15 2022-10-04 D-Wave Systems Inc. Systems and methods for semantic segmentation
US11144748B2 (en) * 2018-12-07 2021-10-12 IOT Technology, LLC. Classification system
US11468293B2 (en) 2018-12-14 2022-10-11 D-Wave Systems Inc. Simulating and post-processing using a generative adversarial network
US11900264B2 (en) 2019-02-08 2024-02-13 D-Wave Systems Inc. Systems and methods for hybrid quantum-classical computing
US11625612B2 (en) 2019-02-12 2023-04-11 D-Wave Systems Inc. Systems and methods for domain adaptation
JP7079745B2 (ja) * 2019-03-08 2022-06-02 日立Astemo株式会社 演算装置
CN110031960B (zh) * 2019-05-30 2021-06-22 上海商汤智能科技有限公司 自动调节方法及装置
CN110210560B (zh) * 2019-05-31 2021-11-30 北京市商汤科技开发有限公司 分类网络的增量训练方法、分类方法及装置、设备及介质
JP7486079B2 (ja) * 2019-06-25 2024-05-17 パナソニックIpマネジメント株式会社 情報処理方法、及び、情報処理システム
CN110532408A (zh) * 2019-08-28 2019-12-03 广州金域医学检验中心有限公司 病理切片管理方法、装置、计算机设备及存储介质
JP6916849B2 (ja) * 2019-09-13 2021-08-11 株式会社クレスコ 情報処理装置、情報処理方法および情報処理プログラム
CN110781788B (zh) * 2019-10-18 2020-12-25 中国科学技术大学 一种基于少量标注的野外机器人地面分类方法及系统
CN111144488B (zh) * 2019-12-27 2023-04-18 之江实验室 一种基于邻近共同预测的病理切片视野分类提升方法
JP2021110974A (ja) * 2020-01-06 2021-08-02 株式会社日立製作所 モデルを再利用する方法
US11727269B2 (en) 2020-01-08 2023-08-15 International Business Machines Corporation Dual model incremental learning
EP3876193A1 (de) * 2020-03-02 2021-09-08 Euroimmun Medizinische Labordiagnostika AG Bildverarbeitungsverfahren zum anzeigen von zellen mehrerer gesamtbilder
CN111488927B (zh) * 2020-04-08 2023-07-21 中国医学科学院肿瘤医院 分类阈值确定方法、装置、电子设备及存储介质
CN111178458B (zh) * 2020-04-10 2020-08-14 支付宝(杭州)信息技术有限公司 分类模型的训练、对象分类方法及装置
KR102241724B1 (ko) * 2020-05-22 2021-04-19 주식회사 루닛 레이블 정보를 보정하는 방법 및 시스템
KR102246266B1 (ko) * 2020-06-08 2021-04-29 주식회사 루닛 레이블 정보에 대한 피드백을 제공하는 방법 및 시스템
CN112148909B (zh) * 2020-09-18 2024-03-29 微梦创科网络科技(中国)有限公司 搜索相似图片的方法及系统
KR102467047B1 (ko) * 2020-11-18 2022-11-15 (주)휴톰 어노테이션 평가 방법 및 장치
WO2022130516A1 (ja) * 2020-12-15 2022-06-23 日本電信電話株式会社 アノテーション装置、アノテーション方法およびアノテーションプログラム
TWI795787B (zh) * 2021-05-24 2023-03-11 鴻海精密工業股份有限公司 自編碼器的訓練方法、細胞數量檢測方法及相關設備
CN113486925A (zh) * 2021-06-07 2021-10-08 北京鹰瞳科技发展股份有限公司 模型训练方法、眼底图像生成方法、模型评估方法及装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4965725B1 (en) 1988-04-08 1996-05-07 Neuromedical Systems Inc Neural network based automated cytological specimen classification system and method
US6163622A (en) * 1997-12-18 2000-12-19 U.S. Philips Corporation Image retrieval system
US20020165839A1 (en) * 2001-03-14 2002-11-07 Taylor Kevin M. Segmentation and construction of segmentation classifiers
JP2003030656A (ja) 2001-07-13 2003-01-31 Inst Of Physical & Chemical Res 追加学習可能なパターン分離装置
US20040199482A1 (en) 2002-04-15 2004-10-07 Wilson Scott B. Systems and methods for automatic and incremental learning of patient states from biomedical signals
US20050027664A1 (en) 2003-07-31 2005-02-03 Johnson David E. Interactive machine learning system for automated annotation of information in text
WO2008005426A2 (en) 2006-06-30 2008-01-10 University Of South Florida Computer-aided pathological diagnosis system
US7844558B2 (en) 2006-10-05 2010-11-30 Siemens Corporation Incremental learning of nonlinear regression networks for machine condition monitoring
US8165407B1 (en) * 2006-10-06 2012-04-24 Hrl Laboratories, Llc Visual attention and object recognition system
EP2283463B1 (en) 2008-05-30 2014-10-29 GE Healthcare Bio-Sciences Corp. System and method for detecting and eliminating one or more defocused or low contrast-to-noise ratio images
GB0909461D0 (en) 2009-06-02 2009-07-15 Ge Healthcare Uk Ltd Image analysis
WO2010148346A2 (en) * 2009-06-19 2010-12-23 The Regents Of The University Of California Three-dimensional cell adhesion matrix
US8676826B2 (en) 2011-06-28 2014-03-18 International Business Machines Corporation Method, system and program storage device for automatic incremental learning of programming language grammar
US9025811B1 (en) * 2013-01-02 2015-05-05 Google Inc. Performing image similarity operations using semantic classification
US9488639B2 (en) * 2013-02-25 2016-11-08 Flagship Biosciences, Inc. Cell-based tissue analysis
ES2641480T3 (es) 2013-03-15 2017-11-10 Ventana Medical Systems, Inc. Sistema de aprendizaje automático basado en objetos de tejido para puntuación automatizada de portaobjetos digitales completos
US9064149B1 (en) * 2013-03-15 2015-06-23 A9.Com, Inc. Visual search utilizing color descriptors
JP2014219801A (ja) * 2013-05-07 2014-11-20 株式会社東芝 車両判別装置
US10083368B2 (en) 2014-01-28 2018-09-25 Qualcomm Incorporated Incremental learning for dynamic feature database management in an object recognition system
AU2015261891A1 (en) 2014-05-23 2016-10-13 Ventana Medical Systems, Inc. Systems and methods for detection of biological structures and/or patterns in images
CN104102837A (zh) 2014-07-11 2014-10-15 天津工业大学 一种用于软测量建模的增量学习集成算法

Also Published As

Publication number Publication date
US20190180147A1 (en) 2019-06-13
WO2018005413A1 (en) 2018-01-04
EP3478728A4 (en) 2019-07-17
EP3478728A1 (en) 2019-05-08
US10853695B2 (en) 2020-12-01
JP2019521443A (ja) 2019-07-25

Similar Documents

Publication Publication Date Title
JP6941123B2 (ja) 適応型追加学習を用いた細胞のアノテーション法及びアノテーションシステム
EP3171332B1 (en) Methods and systems for inspecting goods
US10896351B2 (en) Active machine learning for training an event classification
WO2018108129A1 (zh) 用于识别物体类别的方法及装置、电子设备
CN110570389B (zh) 车辆损伤识别方法及装置
CN109189767B (zh) 数据处理方法、装置、电子设备及存储介质
US20180300576A1 (en) Semi-automatic labelling of datasets
JP5558412B2 (ja) 識別器を特定のシーン内のオブジェクトを検出するように適応させるためのシステム及び方法
JP2019091443A (ja) オープンセット認識方法と装置及びコンピュータ可読記憶媒体
CN111008643B (zh) 基于半监督学习的图片分类方法、装置和计算机设备
US11334992B2 (en) Computer-implemented method to increase the accuracy of machine learning models for medical image processing
JP6897749B2 (ja) 学習方法、学習システム、および学習プログラム
EP3620958A1 (en) Learning method, learning device for detecting lane through lane model and testing method, testing device using the same
WO2013182298A1 (en) Method for annotating images
CN110458022B (zh) 一种基于域适应的可自主学习目标检测方法
CN112149717A (zh) 基于置信度加权的图神经网络训练方法及装置
EP4100866A1 (en) Automated assessment of endoscopic disease
CN115497124A (zh) 身份识别方法和装置及存储介质
CN110059743B (zh) 确定预测的可靠性度量的方法、设备和存储介质
US20230297886A1 (en) Cluster targeting for use in machine learning
Raja et al. A Novel Feature Selection based Ensemble Decision Tree Classification Model for Predicting Severity Level of COPD
KR20200124887A (ko) 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치
CN112861962B (zh) 样本处理方法、装置、电子设备和存储介质
CN112784691A (zh) 一种目标检测模型训练方法、目标检测方法和装置
CN113378707A (zh) 对象识别方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190318

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210903

R150 Certificate of patent or registration of utility model

Ref document number: 6941123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150