JP2019521443A - 適応型追加学習を用いた細胞のアノテーション法及びアノテーションシステム - Google Patents
適応型追加学習を用いた細胞のアノテーション法及びアノテーションシステム Download PDFInfo
- Publication number
- JP2019521443A JP2019521443A JP2018568681A JP2018568681A JP2019521443A JP 2019521443 A JP2019521443 A JP 2019521443A JP 2018568681 A JP2018568681 A JP 2018568681A JP 2018568681 A JP2018568681 A JP 2018568681A JP 2019521443 A JP2019521443 A JP 2019521443A
- Authority
- JP
- Japan
- Prior art keywords
- cell
- class
- image
- features
- new
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/695—Preprocessing, e.g. image segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
Description
図1は、例示的実施形態に係る、適応型追加学習を用いたセルアノテーションシステム100を示すフローチャートである。例示的実施形態によれば、例えば、システム100は、種々のブロックまたはモジュールで構成することができる。例えば、システム100は、特徴抽出モジュール110と、クラス同定モジュール120と、学習予測モジュール130と、予測モジュール140と、学習モジュール150とを有しうる。これらのシステム及び/またはモジュール100、110、120、130、140及び150は、メモリー、プロセッサー、オペレーティングシステム及び/またはソフトウェア、並びに/または任意のグラフィカルインターフェイス(GUI)及び/またはディスプレイを備えるコンピューターまたは処理装置を1つ以上有しうる。例示的実施形態によれば、例えば、各モジュール110、120、130、140、150は、例えばスタンドアローンのコンピューター装置等の1台のコンピューター装置に集約したり、1台以上のコンピューター装置に含めたりすることができ、これら1台以上のコンピューター装置は、それぞれメモリー、プロセッサー、オペレーティングシステム及び/またはソフトウェア、並びにグラフィカルインターフェイス(GUI)またはディスプレイを備える。
(1)機械によるラベル付けの結果についての信頼度の測定;
(2)データ相違度の分布により、未知の特徴の尤度が測定される;
(3)細胞画像のクラスタリングにおける2枚の画像間の類似度の測定;
(4)予測応答の尤度の測定;及び
(5)細胞画像が種々のクラスに自動的にグループ分けされる。
(1)細胞画像が自動的に種々のクラスにグループ分けされるので、エンドユーザーは、細胞画像の細胞種及びモダリティを知る必要が無い;
(2)システムは、初期学習に1枚のラベル付き画像しか必要とせず、その性能は連続的な学習プロセスの過程で徐々に改善される;
(3)到着した画像が未知のクラスに属する場合でも、システムは高い正確度で細胞のラベルを予測することができるので、人によるラベル付け作業が大幅に削減される。
(4)機械によるラベル付けの結果の信頼度を測定するので、エンドユーザーが手作業による修正の要否を決定する手助けとなる;
(5)データの相違分布によって前回まで未知だった特徴の尤度が評価され、これは、学習プロセスを徐々に該未知の特徴に注目するように仕向けるのに効果的である;
(6)予測応答の尤度の測定が、重なった細胞の区分けに効果的に役立つ;
(7)分類器の数が所定の閾値に達したときに、弱い分類器が自動的に取り除かれる;
(8)細胞画像のクラスタリングにおいて2枚の画像間の類似度を測定するので、画像ノイズおよび異常な値の影響がオフセットされる。
例示的実施形態によれば、細胞画像は種々のクラスにグループ分けされるものの、連続的な学習プロセスの過程でデータが徐々に収集されていくにつれ、時間と共にクラス内での画像のばらつきが発生する。例示的実施形態によれば、このような動的な問題を解決するには、図3に示すように、適応型の追加学習300を用いることができる。適応型の追加学習300は、各クラスについて分類器のセットを構築することによるアンサンブル法を用いることができ、これは、あるクラスについての分類誤りの総数が最小化するように、αと、h中の各分類器毎のスカラー定数とを選択するものである:
Tは、時間tにおいて集まる分類器の数であり、
1.現在時間tにおける細胞画像Itを取得する。
2.式(1)を用いてItが属するクラスを同定する;Itが未知のクラスに属する場合は、クラスインデックスcの新たなクラスを作成する。
3.Itからn例の特徴セット:Xt=(xj,yj)、j=1〜nを抽出する。
4.式(5)により、Xt−1、Xt及びPt−1を用いてPtを得る。
5.Xtを用いて分類器htを訓練し、分類の誤り率を得る。
7.線形結合により時間tにおけるクラスc用の分類器を形成する。
10.tをt+1に増加する。
11.新たな画像It+1を取得した場合は、ステップ1に戻る。
例示的実施形態によれば、予測とは、学習済みモデルを用いて機械による検出の結果を得ることである。入力画像Itを取得し、特徴セットXtを用いてItから特徴を抽出し、Itが属する最も近いクラス、例えばクラスcを見つけ出し、クラスcに紐づけされた弱分類器のセット、例えば{αtht>0、t=1〜T}を見つけ出し、以下のような多数決スキームにより予測応答を取得する。
前節で説明したように、上記のような予測に供する細胞画像の入力があれば、システム100は、それに適応するのに最も適したクラスの分類器を見つけ出し、当該分類器により、以下により算出される信頼度スコアSとともに細胞検出の結果(図1のステップ12)を生成する。
Claims (36)
- 細胞のアノテーション法であって、
細胞の検出に供する少なくとも1枚の新たな細胞画像を受け取ることと、
前記少なくとも1枚の新たな細胞画像から細胞特徴を抽出することと、
前記抽出した細胞特徴を各クラスの細胞特徴のマトリクスと比較して、最も近いクラスを予測することであって、前記細胞特徴のマトリクスは、少なくとも、細胞画像を少なくとも1枚有する初期訓練データから生成されている、と、
前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴から、前記予測した最も近いクラスを用いて細胞ピクセルを検出し、尤度マップを生成することと、
前記尤度マップから個々の細胞を区分けすることによって前記少なくとも1枚の細胞画像から個々の細胞を抽出することと、
前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に機械アノテーションを行って、細胞、非細胞ピクセル及び/または細胞境界を識別することと、
前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に付した前記機械アノテーションの信頼度レベルを算出することと、
前記信頼度レベルが所定の閾値よりも低い場合は、前記機械アノテーションを修正することと、
を有する方法。 - 前記信頼度レベルに基づいて、病理分析またはさらなる学習用フィードバックのための最終アノテーションを生成することであって、信頼度レベルが前記所定の閾値よりも低い場合は、前記機械アノテーションを手作業で修正すること、
を有する、請求項1に記載の方法。 - 前記最終アノテーションに基づいて、各クラスの細胞画像についての細胞特徴のマトリクスを更新すること、
を有する、請求項2に記載の方法。 - 前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴の前記細胞特徴のマトリクスとの比較は、類似度マッチングにより行い、前記類似度マッチングは、
以下を用いてヒストグラム間のユークリッド距離を求めることと、
画像中の色をk個の色を含む個別の色空間にマッピングすることであって、色ヒストグラムH(a)は、ベクトル[h1(a)・・・hk(a)]、H(b)はベクトル[h1(b)・・・hk(b)]となる、とを有し、
D(H(a),H(b))が予め定められた閾値よりも大きい場合、画像は未知のクラスに属し、前記予め定められた閾値よりも小さい場合、画像は既知のクラスに属する、
請求項1に記載の方法。 - 前記信頼度レベルの算出は、
以下の信頼度スコアSを算出すること、
Cは、前記少なくとも1枚の画像が新たなクラスに属するのか既存のクラスに属するのかを示す情報により求められる係数である。)
を有する、請求項1に記載の方法。 - Sが予め定めた閾値よりも大きい場合、前記機械アノテーションは、最新の学習済みモデルを用いて信頼できるものであり、Sが前記予め定めた閾値よりも小さい場合、前記最新の学習済みモデルは、前記少なくとも1枚の新たな細胞画像の細胞のラベルを決定できる程度に信頼できるものではない、請求項5に記載の方法。
- 細胞アノテーションのためのコンピューター読み取り可能なコードを記憶するコンピュータープログラムを含む非一時的なコンピューター読み取り可能な媒体であって、前記プログラムはコンピューターにより実行可能であり、コンピューターに以下を有するプロセスを実行させる:
細胞の検出に供する少なくとも1枚の新たな細胞画像を受け取ることと、
前記少なくとも1枚の新たな細胞画像から細胞特徴を抽出することと、
前記抽出した細胞特徴を各クラスの細胞特徴のマトリクスと比較して、最も近いクラスを予測することであって、前記細胞特徴のマトリクスは、少なくとも、細胞画像を少なくとも1枚有する初期訓練データから生成されている、と、
前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴から、前記予測した最も近いクラスを用いて細胞ピクセルを検出し、尤度マップを生成することと、
前記尤度マップから個々の細胞を区分けすることによって前記少なくとも1枚の細胞画像から個々の細胞を抽出することと、
前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に機械アノテーションを行って、細胞、非細胞ピクセル及び/または細胞境界を識別することと、
前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に付した前記機械アノテーションの信頼度レベルを算出することと、
前記信頼度レベルが所定の閾値よりも低い場合は、前記機械アノテーションを修正すること。 - 前記信頼度レベルに基づいて、病理分析またはさらなる学習用フィードバックのための最終アノテーションを生成することであって、信頼度レベルが前記所定の閾値よりも低い場合は、前記機械アノテーションを手作業で修正すること、
を有する、請求項7に記載のコンピューター読み取り可能な媒体。 - 前記最終アノテーションに基づいて、各クラスの細胞画像についての細胞特徴のマトリクスを更新すること、
を有する、請求項8に記載のコンピューター読み取り可能な媒体。 - 前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴の前記細胞特徴のマトリクスとの比較は、類似度マッチングにより行い、前記類似度マッチングは、
以下を用いてヒストグラム間のユークリッド距離を求めることと、
画像中の色をk個の色を含む個別の色空間にマッピングすることであって、色ヒストグラムH(a)は、ベクトル[h1(a)・・・hk(a)]、H(b)はベクトル[h1(b)・・・hk(b)]となる、とを有し、
D(H(a),H(b))が予め定められた閾値よりも大きい場合、画像は未知のクラスに属し、前記予め定められた閾値よりも小さい場合、画像は既知のクラスに属する、
請求項7に記載のコンピューター読み取り可能な媒体。 - 前記信頼度レベルの算出は、
以下の信頼度スコアSを算出すること、
Cは、前記少なくとも1枚の画像が新たなクラスに属するのか既存のクラスに属するのかを示す情報により求められる係数である。)
を有する、請求項7に記載のコンピューター読み取り可能な媒体。 - Sが予め定めた閾値よりも大きい場合、前記機械アノテーションは、最新の学習済みモデルを用いて信頼できるものであり、Sが前記予め定めた閾値よりも小さい場合、前記最新の学習済みモデルは、前記少なくとも1枚の新たな細胞画像の細胞のラベルを決定できる程度に信頼できるものではない、請求項11に記載のコンピューター読み取り可能な媒体。
- 細胞アノテーションシステムであって、
以下を行うよう構成された少なくとも1つのプロセッサーを有する:
細胞の検出に供する少なくとも1枚の新たな細胞画像を受け取り、
前記少なくとも1枚の新たな細胞画像から細胞特徴を抽出し、
前記抽出した細胞特徴を各クラスの細胞特徴のマトリクスと比較して、最も近いクラスを予測し、前記細胞特徴のマトリクスは、少なくとも、細胞画像を少なくとも1枚有する初期訓練データから生成されており、
前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴から、前記予測した最も近いクラスを用いて細胞ピクセルを検出し、尤度マップを生成し、
前記尤度マップから個々の細胞を区分けすることによって前記少なくとも1枚の細胞画像から個々の細胞を抽出し、
前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に機械アノテーションを行って、細胞、非細胞ピクセル及び/または細胞境界を識別し、
前記少なくとも1枚の新たな細胞画像から抽出した個々の細胞に付した前記機械アノテーションの信頼度レベルを算出し、
前記信頼度レベルが所定の閾値よりも低い場合は、前記機械アノテーションを修正する。 - 前記信頼度レベルに基づいて、病理分析またはさらなる学習用フィードバックのための最終アノテーションを生成し、信頼度レベルが前記所定の閾値よりも低い場合は、前記機械アノテーションを手作業で修正し、
前記最終アノテーションに基づいて、各クラスの細胞画像についての細胞特徴のマトリクスを更新する、
ように構成された少なくとも1つのプロセッサーを有する、請求項13に記載のシステム。 - 前記少なくとも1枚の新たな細胞画像の抽出した細胞特徴の前記細胞特徴のマトリクスとの比較は、類似度マッチングにより行い、前記類似度マッチングは、
以下を用いてヒストグラム間のユークリッド距離を求めることと、
画像中の色をk個の色を含む個別の色空間にマッピングすることであって、色ヒストグラムH(a)は、ベクトル[h1(a)・・・hk(a)]、H(b)はベクトル[h1(b)・・・hk(b)]となる、とを有し、
D(H(a),H(b))が予め定められた閾値よりも大きい場合、画像は未知のクラスに属し、前記予め定められた閾値よりも小さい場合、画像は既知のクラスに属する、
請求項13に記載のシステム。 - 前記信頼度レベルの算出は、
以下の信頼度スコアSを算出すること、
Cは、前記少なくとも1枚の画像が新たなクラスに属するのか既存のクラスに属するのかを示す情報により求められる係数である。)
を有する、請求項13に記載のシステム。 - Sが予め定めた閾値よりも大きい場合、前記機械アノテーションは、最新の学習済みモデルを用いて信頼できるものであり、Sが前記予め定めた閾値よりも小さい場合、前記最新の学習済みモデルは、前記少なくとも1枚の新たな細胞画像の細胞のラベルを決定できる程度に信頼できるものではない、請求項16に記載のシステム。
- 細胞アノテーションのための適応型追加学習法であって、
細胞画像の複数のクラスのそれぞれについて、細胞特徴のマトリクスを生成することと、
細胞画像の前記複数のクラスのそれぞれの細胞特徴の1つ以上を同定することと、
追加の細胞画像を受け取ると、細胞画像の前記複数のクラスのそれぞれについての前記1つ以上の細胞特徴を更新することと、
細胞画像の前記複数のクラスのそれぞれについて、複数の分類器を構築することであって、前記複数の分類器のそれぞれが1つ以上の細胞特徴に対応している、と、
細胞画像の前記複数のクラスのそれぞれについての前記複数の分類器のそれぞれを重み付けすることと、
新たな細胞画像を取得することと、
前記複数のクラスから、前記細胞画像が属するクラスを同定し、いずれのクラスも同定されない場合は、新たなクラスを作成することと、
前記細胞画像が前記複数のクラスから同定されたクラスに属する場合は、細胞画像から特徴を抽出して、分類誤り率が所定の閾値よりも小さい場合は、前記抽出した特徴を用いて前記複数のクラスから同定されたクラス用の新たな分類器を生成し、前記分類誤り率が前記閾値よりも大きい場合は、前記抽出した特徴を前記新たなクラスに分類することと、
前記新たな分類器を生成する場合は、前記新たな分類器を前記複数のクラスから同定されたクラス用の前記複数の分類器の一つに付け加えることと、
を有する、方法。 - 前記複数の分類器は、
クラスの分類誤りの総数が最小化されるように、αと、h中の各分類器のスカラー定数とを選択すること、
Tは、時間tにおいて集まる分類器の数であり、
を有する、請求項18に記載の方法。 - 新たな細胞画像が到着する度に、前記複数の分類器を訓練することであって、t+1におけるデータを学習する際に、tにおけるデータから学習した知識をt+1における学習プロセスに転移すること、
を有する、請求項19に記載の方法。 - 2つのデータセット、
請求項20に記載の方法。 - サイズnの参照データセットに対する大きさmのデータセットの相違は、以下のように定義することができる
- 前記相違分布は、新たなデータが到着する度に繰り返し改変される、
請求項22に記載の方法。 - 相違分布値が予め定めた閾値よりも大きいデータサンプルを、それまで未知だった画像として分類すること、
を有する、請求項23に記載の方法。 - 細胞アノテーションのための適応型追加学習のためのコンピューター読み取り可能なコードを記憶するコンピュータープログラムを含む非一時的なコンピューター読み取り可能な媒体であって、前記プログラムはコンピューターにより実行可能であり、コンピューターに以下を有するプロセスを実行させる:
細胞画像の複数のクラスのそれぞれについて、細胞特徴のマトリクスを生成することと、
細胞画像の前記複数のクラスのそれぞれの細胞特徴の1つ以上を同定することと、
追加の細胞画像を受け取ると、細胞画像の前記複数のクラスのそれぞれについての前記1つ以上の細胞特徴を更新することと、
細胞画像の前記複数のクラスのそれぞれについて、複数の分類器を構築することであって、前記複数の分類器のそれぞれが1つ以上の細胞特徴に対応している、と、
細胞画像の前記複数のクラスのそれぞれについての前記複数の分類器のそれぞれを重み付けすることと、
新たな細胞画像を取得することと、
前記複数のクラスから、前記細胞画像が属するクラスを同定し、いずれのクラスも同定されない場合は、新たなクラスを作成することと、
前記細胞画像が前記複数のクラスから同定されたクラスに属する場合は、細胞画像から特徴を抽出して、分類誤り率が所定の閾値よりも小さい場合は、前記抽出した特徴を用いて前記複数のクラスから同定されたクラス用の新たな分類器を生成し、前記分類誤り率が前記閾値よりも大きい場合は、前記抽出した特徴を前記新たなクラスに分類することと、
前記新たな分類器を生成する場合は、前記新たな分類器を前記複数のクラスから同定されたクラス用の前記複数の分類器の一つに付け加えること。 - 前記複数の分類器は、
クラスの分類誤りの総数が最小化されるように、αと、h中の各分類器のスカラー定数とを選択すること、
Tは、時間tにおいて集まる分類器の数であり、
を有する、請求項25に記載のコンピューター読み取り可能な媒体。 - 新たな細胞画像が到着する度に、前記複数の分類器を訓練することであって、t+1におけるデータを学習する際に、tにおけるデータから学習した知識をt+1における学習プロセスに転移すること、
を有する、請求項26に記載のコンピューター読み取り可能な媒体。 - 2つのデータセット、
請求項27に記載のコンピューター読み取り可能な媒体。 - サイズnの参照データセットに対する大きさmのデータセットの相違は、以下のように定義することができる
- 新たなデータが到着する度に前記相違分布を繰り返し改変することと、
相違分布値が予め定めた閾値よりも大きいデータサンプルを、それまで未知だった画像として分類すること、
を有する、請求項29に記載のコンピューター読み取り可能な媒体。 - 細胞アノテーションのための適応型追加学習システムであって、
以下を行うよう構成された少なくとも1つのプロセッサーを有する:
細胞画像の複数のクラスのそれぞれについて、細胞特徴のマトリクスを生成し、
細胞画像の前記複数のクラスのそれぞれの細胞特徴の1つ以上を同定し、
追加の細胞画像を受け取ると、細胞画像の前記複数のクラスのそれぞれについての前記1つ以上の細胞特徴を更新し、
細胞画像の前記複数のクラスのそれぞれについて、複数の分類器を構築し、前記複数の分類器のそれぞれが1つ以上の細胞特徴に対応しており、
細胞画像の前記複数のクラスのそれぞれについての前記複数の分類器のそれぞれを重み付けし、
新たな細胞画像を取得し、
前記複数のクラスから、前記細胞画像が属するクラスを同定し、いずれのクラスも同定されない場合は、新たなクラスを作成し、
前記細胞画像が前記複数のクラスから同定されたクラスに属する場合は、細胞画像から特徴を抽出して、分類誤り率が所定の閾値よりも小さい場合は、前記抽出した特徴を用いて前記複数のクラスから同定されたクラス用の新たな分類器を生成し、前記分類誤り率が前記閾値よりも大きい場合は、前記抽出した特徴を前記新たなクラスに分類し、
前記新たな分類器を生成する場合は、前記新たな分類器を前記複数のクラスから同定されたクラス用の前記複数の分類器の一つに付け加える。 - 前記複数の分類器は、
クラスの分類誤りの総数が最小化されるように、αと、h中の各分類器のスカラー定数とを選択すること、
Tは、時間tにおいて集まる分類器の数であり、
を有する、請求項31に記載のシステム。 - 新たな細胞画像が到着する度に、前記複数の分類器を訓練し、t+1におけるデータを学習する際に、tにおけるデータから学習した知識をt+1における学習プロセスに転移する、
ように構成された少なくとも1つのプロセッサーを有する、請求項32に記載のシステム。 - 2つのデータセット、
請求項33に記載のシステム。 - サイズnの参照データセットに対する大きさmのデータセットの相違は、以下のように定義することができる
- 新たなデータが到着する度に前記相違分布を繰り返し改変し、
相違分布値が予め定めた閾値よりも大きいデータサンプルを、それまで未知だった画像として分類する、
ように構成された少なくとも1つのプロセッサーを有する、請求項35に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662356883P | 2016-06-30 | 2016-06-30 | |
US201662356916P | 2016-06-30 | 2016-06-30 | |
US62/356,916 | 2016-06-30 | ||
US62/356,883 | 2016-06-30 | ||
PCT/US2017/039378 WO2018005413A1 (en) | 2016-06-30 | 2017-06-27 | Method and system for cell annotation with adaptive incremental learning |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019521443A true JP2019521443A (ja) | 2019-07-25 |
JP6941123B2 JP6941123B2 (ja) | 2021-09-29 |
Family
ID=60785454
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018568681A Active JP6941123B2 (ja) | 2016-06-30 | 2017-06-27 | 適応型追加学習を用いた細胞のアノテーション法及びアノテーションシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10853695B2 (ja) |
EP (1) | EP3478728A4 (ja) |
JP (1) | JP6941123B2 (ja) |
WO (1) | WO2018005413A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021043881A (ja) * | 2019-09-13 | 2021-03-18 | 株式会社クレスコ | 情報処理装置、情報処理方法および情報処理プログラム |
KR102241724B1 (ko) * | 2020-05-22 | 2021-04-19 | 주식회사 루닛 | 레이블 정보를 보정하는 방법 및 시스템 |
KR102246266B1 (ko) * | 2020-06-08 | 2021-04-29 | 주식회사 루닛 | 레이블 정보에 대한 피드백을 제공하는 방법 및 시스템 |
WO2021140884A1 (ja) * | 2020-01-06 | 2021-07-15 | 株式会社日立製作所 | モデルを再利用する方法及びコンピュータシステム |
KR20220068316A (ko) * | 2020-11-18 | 2022-05-26 | (주)휴톰 | 어노테이션 평가 방법 및 장치 |
WO2022130516A1 (ja) * | 2020-12-15 | 2022-06-23 | 日本電信電話株式会社 | アノテーション装置、アノテーション方法およびアノテーションプログラム |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3014534A4 (en) | 2013-06-28 | 2017-03-22 | D-Wave Systems Inc. | Systems and methods for quantum processing of data |
CN108351987A (zh) | 2015-08-19 | 2018-07-31 | D-波系统公司 | 用于使用绝热量子计算机进行机器学习的系统和方法 |
WO2018058061A1 (en) | 2016-09-26 | 2018-03-29 | D-Wave Systems Inc. | Systems, methods and apparatus for sampling from a sampling server |
US11531852B2 (en) * | 2016-11-28 | 2022-12-20 | D-Wave Systems Inc. | Machine learning systems and methods for training with noisy labels |
US11586915B2 (en) | 2017-12-14 | 2023-02-21 | D-Wave Systems Inc. | Systems and methods for collaborative filtering with variational autoencoders |
CN108615007B (zh) * | 2018-04-23 | 2019-07-19 | 深圳大学 | 基于特征张量的三维人脸识别方法、装置及存储介质 |
US11386346B2 (en) | 2018-07-10 | 2022-07-12 | D-Wave Systems Inc. | Systems and methods for quantum bayesian networks |
EP3611654A1 (en) * | 2018-08-15 | 2020-02-19 | Koninklijke Philips N.V. | System and method for analysis of microscopic image data and for generating an annotated data set for classifier training |
US11087177B2 (en) * | 2018-09-27 | 2021-08-10 | Salesforce.Com, Inc. | Prediction-correction approach to zero shot learning |
US11461644B2 (en) * | 2018-11-15 | 2022-10-04 | D-Wave Systems Inc. | Systems and methods for semantic segmentation |
US11144748B2 (en) * | 2018-12-07 | 2021-10-12 | IOT Technology, LLC. | Classification system |
US11468293B2 (en) | 2018-12-14 | 2022-10-11 | D-Wave Systems Inc. | Simulating and post-processing using a generative adversarial network |
US11900264B2 (en) | 2019-02-08 | 2024-02-13 | D-Wave Systems Inc. | Systems and methods for hybrid quantum-classical computing |
US11625612B2 (en) | 2019-02-12 | 2023-04-11 | D-Wave Systems Inc. | Systems and methods for domain adaptation |
JP7079745B2 (ja) * | 2019-03-08 | 2022-06-02 | 日立Astemo株式会社 | 演算装置 |
CN110031960B (zh) * | 2019-05-30 | 2021-06-22 | 上海商汤智能科技有限公司 | 自动调节方法及装置 |
CN110210560B (zh) * | 2019-05-31 | 2021-11-30 | 北京市商汤科技开发有限公司 | 分类网络的增量训练方法、分类方法及装置、设备及介质 |
WO2020261700A1 (ja) * | 2019-06-25 | 2020-12-30 | パナソニックIpマネジメント株式会社 | 情報処理方法、及び、情報処理システム |
CN110532408A (zh) * | 2019-08-28 | 2019-12-03 | 广州金域医学检验中心有限公司 | 病理切片管理方法、装置、计算机设备及存储介质 |
CN110781788B (zh) * | 2019-10-18 | 2020-12-25 | 中国科学技术大学 | 一种基于少量标注的野外机器人地面分类方法及系统 |
CN111144488B (zh) * | 2019-12-27 | 2023-04-18 | 之江实验室 | 一种基于邻近共同预测的病理切片视野分类提升方法 |
US11727269B2 (en) | 2020-01-08 | 2023-08-15 | International Business Machines Corporation | Dual model incremental learning |
EP3876193A1 (de) * | 2020-03-02 | 2021-09-08 | Euroimmun Medizinische Labordiagnostika AG | Bildverarbeitungsverfahren zum anzeigen von zellen mehrerer gesamtbilder |
CN111488927B (zh) * | 2020-04-08 | 2023-07-21 | 中国医学科学院肿瘤医院 | 分类阈值确定方法、装置、电子设备及存储介质 |
CN111178458B (zh) * | 2020-04-10 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 分类模型的训练、对象分类方法及装置 |
CN112148909B (zh) * | 2020-09-18 | 2024-03-29 | 微梦创科网络科技(中国)有限公司 | 搜索相似图片的方法及系统 |
TWI795787B (zh) * | 2021-05-24 | 2023-03-11 | 鴻海精密工業股份有限公司 | 自編碼器的訓練方法、細胞數量檢測方法及相關設備 |
CN113486925B (zh) * | 2021-06-07 | 2024-07-16 | 北京鹰瞳科技发展股份有限公司 | 模型训练方法、眼底图像生成方法、模型评估方法及装置 |
FR3130427B1 (fr) * | 2022-05-03 | 2024-04-19 | Idemia Identity & Security France | Procédé de génération d’une image de paume à partir d’images de paume partielles |
FR3144371A1 (fr) | 2022-12-27 | 2024-06-28 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Procédé de traitement d’une image d’un échantillon comportant des particules biologiques |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020159641A1 (en) * | 2001-03-14 | 2002-10-31 | Whitney Paul D. | Directed dynamic data analysis |
JP2014219801A (ja) * | 2013-05-07 | 2014-11-20 | 株式会社東芝 | 車両判別装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4965725B1 (en) | 1988-04-08 | 1996-05-07 | Neuromedical Systems Inc | Neural network based automated cytological specimen classification system and method |
US6163622A (en) * | 1997-12-18 | 2000-12-19 | U.S. Philips Corporation | Image retrieval system |
JP2003030656A (ja) | 2001-07-13 | 2003-01-31 | Inst Of Physical & Chemical Res | 追加学習可能なパターン分離装置 |
US20040199482A1 (en) | 2002-04-15 | 2004-10-07 | Wilson Scott B. | Systems and methods for automatic and incremental learning of patient states from biomedical signals |
US20050027664A1 (en) * | 2003-07-31 | 2005-02-03 | Johnson David E. | Interactive machine learning system for automated annotation of information in text |
US8077958B2 (en) | 2006-06-30 | 2011-12-13 | University Of South Florida | Computer-aided pathological diagnosis system |
US7844558B2 (en) | 2006-10-05 | 2010-11-30 | Siemens Corporation | Incremental learning of nonlinear regression networks for machine condition monitoring |
US8165407B1 (en) * | 2006-10-06 | 2012-04-24 | Hrl Laboratories, Llc | Visual attention and object recognition system |
WO2009145723A1 (en) * | 2008-05-30 | 2009-12-03 | Ge Healthcare Bio-Sciences Corp | System and method for detecting and eliminating one or more defocused or low contrast-to-noise ratio images |
GB0909461D0 (en) | 2009-06-02 | 2009-07-15 | Ge Healthcare Uk Ltd | Image analysis |
US9296988B2 (en) * | 2009-06-19 | 2016-03-29 | The Regents Of The University Of California | Three-dimensional cell adhesion matrix |
US8676826B2 (en) | 2011-06-28 | 2014-03-18 | International Business Machines Corporation | Method, system and program storage device for automatic incremental learning of programming language grammar |
US9025811B1 (en) * | 2013-01-02 | 2015-05-05 | Google Inc. | Performing image similarity operations using semantic classification |
US9488639B2 (en) | 2013-02-25 | 2016-11-08 | Flagship Biosciences, Inc. | Cell-based tissue analysis |
US9064149B1 (en) * | 2013-03-15 | 2015-06-23 | A9.Com, Inc. | Visual search utilizing color descriptors |
EP2973397B1 (en) | 2013-03-15 | 2017-08-02 | Ventana Medical Systems, Inc. | Tissue object-based machine learning system for automated scoring of digital whole slides |
US10083368B2 (en) | 2014-01-28 | 2018-09-25 | Qualcomm Incorporated | Incremental learning for dynamic feature database management in an object recognition system |
EP3146463B1 (en) * | 2014-05-23 | 2020-05-13 | Ventana Medical Systems, Inc. | Systems and methods for detection of biological structures and/or patterns in images |
CN104102837A (zh) | 2014-07-11 | 2014-10-15 | 天津工业大学 | 一种用于软测量建模的增量学习集成算法 |
-
2017
- 2017-06-27 EP EP17821044.9A patent/EP3478728A4/en active Pending
- 2017-06-27 JP JP2018568681A patent/JP6941123B2/ja active Active
- 2017-06-27 WO PCT/US2017/039378 patent/WO2018005413A1/en unknown
- 2017-06-27 US US16/306,490 patent/US10853695B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020159641A1 (en) * | 2001-03-14 | 2002-10-31 | Whitney Paul D. | Directed dynamic data analysis |
JP2014219801A (ja) * | 2013-05-07 | 2014-11-20 | 株式会社東芝 | 車両判別装置 |
Non-Patent Citations (2)
Title |
---|
CHRISTOPH SOMMER ET AL: "Learning-based mitotic cell detection in histopathological images", PROCEEDINGS OF THE 21ST INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION (ICPR2012), JPN6021018028, 15 November 2012 (2012-11-15), US, pages 2306 - 2309, XP032329813, ISSN: 0004508183 * |
MICHAEL NALISNIK ET AL: "An interactive learning framework for scalable classification of pathology images", 2015 IEEE INTERNATIONAL CONFERENCE ON BIG DATA (BIG DATA), JPN6021018027, 1 November 2015 (2015-11-01), US, pages 928 - 935, ISSN: 0004508182 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021043881A (ja) * | 2019-09-13 | 2021-03-18 | 株式会社クレスコ | 情報処理装置、情報処理方法および情報処理プログラム |
WO2021140884A1 (ja) * | 2020-01-06 | 2021-07-15 | 株式会社日立製作所 | モデルを再利用する方法及びコンピュータシステム |
KR102241724B1 (ko) * | 2020-05-22 | 2021-04-19 | 주식회사 루닛 | 레이블 정보를 보정하는 방법 및 시스템 |
US11710552B2 (en) | 2020-05-22 | 2023-07-25 | Lunit Inc. | Method and system for refining label information |
KR102246266B1 (ko) * | 2020-06-08 | 2021-04-29 | 주식회사 루닛 | 레이블 정보에 대한 피드백을 제공하는 방법 및 시스템 |
KR20220068316A (ko) * | 2020-11-18 | 2022-05-26 | (주)휴톰 | 어노테이션 평가 방법 및 장치 |
KR102467047B1 (ko) | 2020-11-18 | 2022-11-15 | (주)휴톰 | 어노테이션 평가 방법 및 장치 |
WO2022130516A1 (ja) * | 2020-12-15 | 2022-06-23 | 日本電信電話株式会社 | アノテーション装置、アノテーション方法およびアノテーションプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2018005413A1 (en) | 2018-01-04 |
US20190180147A1 (en) | 2019-06-13 |
US10853695B2 (en) | 2020-12-01 |
EP3478728A4 (en) | 2019-07-17 |
EP3478728A1 (en) | 2019-05-08 |
JP6941123B2 (ja) | 2021-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6941123B2 (ja) | 適応型追加学習を用いた細胞のアノテーション法及びアノテーションシステム | |
CN106682696B (zh) | 基于在线示例分类器精化的多示例检测网络及其训练方法 | |
JP5558412B2 (ja) | 識別器を特定のシーン内のオブジェクトを検出するように適応させるためのシステム及び方法 | |
CN109189767B (zh) | 数据处理方法、装置、电子设备及存储介质 | |
CN109977895B (zh) | 一种基于多特征图融合的野生动物视频目标检测方法 | |
US7783581B2 (en) | Data learning system for identifying, learning apparatus, identifying apparatus and learning method | |
WO2020164278A1 (zh) | 一种图像处理方法、装置、电子设备和可读存储介质 | |
JP6897749B2 (ja) | 学習方法、学習システム、および学習プログラム | |
CN111008643B (zh) | 基于半监督学习的图片分类方法、装置和计算机设备 | |
CN111325260B (zh) | 数据处理方法及装置、电子设备、计算机可读介质 | |
CN112766218B (zh) | 基于非对称联合教学网络的跨域行人重识别方法和装置 | |
WO2013182298A1 (en) | Method for annotating images | |
JP2017107386A (ja) | 事例選択装置、分類装置、方法、及びプログラム | |
CN113128550A (zh) | 用于数据有效的主动机器学习的设备和计算机实现的方法 | |
CN112115996A (zh) | 图像数据的处理方法、装置、设备及存储介质 | |
CN112182269A (zh) | 图像分类模型的训练、图像分类方法、装置、设备及介质 | |
CN111444816A (zh) | 一种基于Faster RCNN的多尺度密集行人检测方法 | |
CN111414930B (zh) | 深度学习模型训练方法及装置、电子设备及存储介质 | |
CN115497124A (zh) | 身份识别方法和装置及存储介质 | |
US11829442B2 (en) | Methods and systems for efficient batch active learning of a deep neural network | |
CN113987243A (zh) | 一种图像聚档方法、图像聚档装置和计算机可读存储介质 | |
CN111967383A (zh) | 年龄估计方法、年龄估计模型的训练方法和装置 | |
CN112784691B (zh) | 一种目标检测模型训练方法、目标检测方法和装置 | |
CN111860441B (zh) | 基于无偏深度迁移学习的视频目标识别方法 | |
CN112989869B (zh) | 人脸质量检测模型的优化方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190318 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210810 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6941123 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |