JP2020205063A - コンテキストフィーチャを用いた画像解析システム - Google Patents
コンテキストフィーチャを用いた画像解析システム Download PDFInfo
- Publication number
- JP2020205063A JP2020205063A JP2020136840A JP2020136840A JP2020205063A JP 2020205063 A JP2020205063 A JP 2020205063A JP 2020136840 A JP2020136840 A JP 2020136840A JP 2020136840 A JP2020136840 A JP 2020136840A JP 2020205063 A JP2020205063 A JP 2020205063A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- context
- image
- features
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010191 image analysis Methods 0.000 title claims abstract description 55
- 238000000034 method Methods 0.000 claims abstract description 207
- 238000012549 training Methods 0.000 claims description 176
- 210000004027 cell Anatomy 0.000 claims description 94
- 230000006870 function Effects 0.000 claims description 69
- 210000004698 lymphocyte Anatomy 0.000 claims description 61
- 239000012472 biological sample Substances 0.000 claims description 58
- 210000004881 tumor cell Anatomy 0.000 claims description 45
- 238000004364 calculation method Methods 0.000 claims description 37
- 238000012360 testing method Methods 0.000 claims description 29
- 238000004458 analytical method Methods 0.000 claims description 28
- 238000003860 storage Methods 0.000 claims description 20
- 238000003384 imaging method Methods 0.000 claims description 10
- 239000000090 biomarker Substances 0.000 claims description 8
- 238000012935 Averaging Methods 0.000 claims description 7
- 230000002730 additional effect Effects 0.000 claims description 4
- 238000003703 image analysis method Methods 0.000 claims description 4
- 239000002131 composite material Substances 0.000 claims 1
- 239000000284 extract Substances 0.000 claims 1
- 238000010186 staining Methods 0.000 description 64
- 210000004940 nucleus Anatomy 0.000 description 52
- 238000012706 support-vector machine Methods 0.000 description 37
- WZUVPPKBWHMQCE-UHFFFAOYSA-N Haematoxylin Chemical compound C12=CC(O)=C(O)C=C2CC2(O)C1C1=CC=C(O)C(O)=C1OC2 WZUVPPKBWHMQCE-UHFFFAOYSA-N 0.000 description 34
- 206010028980 Neoplasm Diseases 0.000 description 30
- 238000009826 distribution Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 29
- 210000001519 tissue Anatomy 0.000 description 27
- 201000011510 cancer Diseases 0.000 description 26
- 102000015694 estrogen receptors Human genes 0.000 description 22
- 108010038795 estrogen receptors Proteins 0.000 description 22
- 239000000523 sample Substances 0.000 description 18
- 206010006187 Breast cancer Diseases 0.000 description 12
- 208000026310 Breast neoplasm Diseases 0.000 description 12
- 238000013459 approach Methods 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 11
- 239000013598 vector Substances 0.000 description 11
- 238000001514 detection method Methods 0.000 description 10
- 238000010606 normalization Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 210000003855 cell nucleus Anatomy 0.000 description 9
- 238000004590 computer program Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 238000002360 preparation method Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000007637 random forest analysis Methods 0.000 description 5
- 201000010099 disease Diseases 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 4
- 230000002055 immunohistochemical effect Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000002380 cytological effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 108091028043 Nucleic acid sequence Proteins 0.000 description 2
- NKANXQFJJICGDU-QPLCGJKRSA-N Tamoxifen Chemical compound C=1C=CC=CC=1C(/CC)=C(C=1C=CC(OCCN(C)C)=CC=1)/C1=CC=CC=C1 NKANXQFJJICGDU-QPLCGJKRSA-N 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000009261 endocrine therapy Methods 0.000 description 2
- 229940034984 endocrine therapy antineoplastic and immunomodulating agent Drugs 0.000 description 2
- 210000004907 gland Anatomy 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 102000004169 proteins and genes Human genes 0.000 description 2
- 108090000623 proteins and genes Proteins 0.000 description 2
- 238000004445 quantitative analysis Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 108020004711 Nucleic Acid Probes Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 210000001789 adipocyte Anatomy 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000004071 biological effect Effects 0.000 description 1
- 239000003181 biological factor Substances 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 210000002390 cell membrane structure Anatomy 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000010224 classification analysis Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 239000000975 dye Substances 0.000 description 1
- 238000004043 dyeing Methods 0.000 description 1
- YQGOJNYOYNNSMM-UHFFFAOYSA-N eosin Chemical compound [Na+].OC(=O)C1=CC=CC=C1C1=C2C=C(Br)C(=O)C(Br)=C2OC2=C(Br)C(O)=C(Br)C=C21 YQGOJNYOYNNSMM-UHFFFAOYSA-N 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000003494 hepatocyte Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 210000005229 liver cell Anatomy 0.000 description 1
- 210000005265 lung cell Anatomy 0.000 description 1
- 210000001165 lymph node Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000000663 muscle cell Anatomy 0.000 description 1
- 210000004882 non-tumor cell Anatomy 0.000 description 1
- 230000008689 nuclear function Effects 0.000 description 1
- 230000006911 nucleation Effects 0.000 description 1
- 238000010899 nucleation Methods 0.000 description 1
- 239000002853 nucleic acid probe Substances 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 210000003699 striated muscle Anatomy 0.000 description 1
- 210000002948 striated muscle cell Anatomy 0.000 description 1
- 210000002536 stromal cell Anatomy 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 229960001603 tamoxifen Drugs 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Biological Materials (AREA)
- Apparatus Associated With Microorganisms And Enzymes (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Processing (AREA)
Abstract
Description
本明細書においては2014年8月4日出願の米国仮特許出願第62/032897号の利益が主張され、この出願はその全体が参照により援用される。
本開示内容は、特に組織学の分野の生体画像の自動解析の分野に関する。
−デジタル画像中の一又は複数のオブジェクトを自動的に又は半自動的に同定するためにデジタル画像を解析すること;
−各オブジェクトについて、前記オブジェクトの第1のオブジェクトフィーチャの第1のオブジェクトフィーチャ値を同定するために、デジタル画像を解析すること;
−各々が、デジタル画像中の複数のオブジェクトの第1のオブジェクトフィーチャ値又はその他のオブジェクトフィーチャ値から導出されるものであるか、又はデジタル画像の複数のピクセルから導出されるものである、一又は複数の第1のコンテキストフィーチャ値を計算するために、デジタル画像を解析すること;
−デジタル画像中の一又は複数のオブジェクトの各々の第1のオブジェクトフィーチャ値と、前記デジタル画像の一又は複数の第1のコンテキストフィーチャ値の両方を、第1のクラシファイヤに入力すること;
−第1のクラシファイヤを実行し、それにより第1のクラシファイヤが各オブジェクトの第1のオブジェクトフィーチャ値と一又は複数の第1のコンテキストフィーチャ値とを、前記オブジェクトについて、前記オブジェクトがオブジェクトクラスのメンバーである第1の可能性を自動的に決定するための入力として使用すること
を含む方法を、プロセッサに実施させる。
例えば、特定のスライドは、染色フェーズの間に細胞スライドの第2の半分より細胞スライドの第1の半分に染色の大部分が蓄積するように位置決めされたものである。結果として、スライドの第1の半分を表す第1のFOV内のすべてのオブジェクトは、−平均で−前記スライドの第2の半分を表す第2のFOVのオブジェクトより、前記染色の結果として高い強度値を有する。このような染色のアーチファクトは、前記小区域の各々について別々にコンテキストフィーチャ値を計算することにより、簡単に平均化することができる。他の例によれば、第1のFOVは、第2のFOVとは異なる組織切片を含んでもよい。第1のFOVの組織切片内の細胞の大部分は、陽性又は陰性に染色された腫瘍細胞からなっていてよく、第2のFOV内の細胞の大部分はリンパ球からなっていてよい。したがって、細胞型の分布率は、異なるFOVでは異なり、したがってデジタル画像の異なる小区域では異なることがある。
a)各オブジェクトについて、前記オブジェクトの第2のオブジェクトフィーチャの第2のオブジェクトフィーチャ値を同定するために、デジタル画像を解析すること;
b)各々が、デジタル画像中の複数のオブジェクトの第2のオブジェクトフィーチャ値又は他のオブジェクトフィーチャ値から導出されるものであるか、又はデジタル画像の複数のピクセルから導出されるものである、一又は複数の第2のコンテキストフィーチャ値を計算するために、デジタル画像を解析すること;
c)一又は複数のオブジェクトの各々の第2のオブジェクトフィーチャ値と、前記デジタル画像の一又は複数の第2のコンテキストフィーチャ値の両方を、第2のクラシファイヤに入力すること;
d)オブジェクトの各々について、オブジェクトの第2のオブジェクトフィーチャ値及び一又は複数の第2のコンテキストフィーチャ値を使用することにより、オブジェクトクラスのメンバーである第2の可能性を自動的に決定するために、第2のクラシファイヤを実行すること;並びに
e)オブジェクトの各々について、前記オブジェクトについて計算された第1及び第2の可能性に基づいて、オブジェクトクラスのメンバーである合成された可能性を計算すること
を含む。
具体例を、SVMに関する図8の説明に示すが、教師付き学習クラシファイヤの他のあらゆる形態が同様に適用可能である。
−各オブジェクトがオブジェクトクラスのメンバーであるさらなる可能性をそれぞれ計算するために、さらなるオブジェクトフィーチャの各々について工程a)からd)を繰り返すこと;及び
−オブジェクトの各々について、少なくとも第1及び第2の可能性並びにさらなる可能性の各々に基づいてオブジェクトクラスのメンバーである合成された可能性を計算すること
を含む。
複数のオブジェクトフィーチャ値を考慮することは、オブジェクト分類の精度を向上させることができるという利点を有しうる。
i.オブジェクトによって表わされる染色又はオブジェクトに結合したバイオマーカーの量と相関する、オブジェクトの強度値;
ii.オブジェクトの直径;
iii.オブジェクトのサイズ、例えばオブジェクトが占める面積又はピクセル数;
iv.オブジェクトの形状プロパティ;
v.オブジェクトのテクスチャプロパティ
vi.一つのオブジェクトから次の隣接オブジェクトまでの距離
のうちの一つである。
別の例によれば、乳がんのストローマ細胞は、通常細長の形状を有し、多くの線状構造(又は線状テクスチャ)を有する区域内に位置している。いくつかの腫瘍細胞は、スライド切断プロセスにより、やはり細長の外観を有し、しかし周囲の区域は線状テクスチャを持たない。したがって、局所的な周囲区域のテクスチャを、ストーマと腫瘍細胞を区別するための一つのオブジェクトフィーチャとして使用することができる。線状テクスチャは、その区域の勾配方向ヒストグラムのエントロピー(情報理論用語)によって特徴付けることができる。コンテキストフィーチャは、画像全体の勾配方向ヒストグラム のエントロピーでありうる。
−デジタル画像内のすべてのオブジェクト内部で変動する、及び/又は
−スライド全体の画像である同じデジタル画像のオブジェクト内部で変動する、及び/又は
−スライド全体の画像の小区画である同じデジタル画像内部で変動する。
−画像は、同じ生体に由来する異なる組織試料を示し、その組織型は、分類に使用されるオブジェクトフィーチャに影響する;及び/又は
−画像は、異なる生体に由来する異なる組織試料を示し、その種メンバーシップは、分類に使用されるオブジェクトフィーチャに影響する、及び/又は
−画像は、異なる試料処理プロトコールにより処理される異なる組織試料を示し、試料処理プロトコールは、分類に使用されるオブジェクトフィーチャに影響する、及び/又は
−画像は異なる染色プロトコールにより処理される異なる組織試料を示し、染色プロトコールは、分類に使用されるオブジェクトフィーチャに影響する。
−未訓練バージョンの第1のクラシファイヤにより、記憶媒体から複数のデジタル訓練画像を読むことであって、各訓練デジタル画像がそれぞれ一又は複数の異なるオブジェクトクラスのオブジェクトを表わす複数のピクセルブロブを含み、各ピクセルブロブがオブジェクトクラスのメンバー又は非メンバーとして注釈付けされる、読むこと、
−注釈付けされた各ピクセルブロブについて、前記ピクセルブロブの第1のオブジェクトフィーチャの訓練第1オブジェクトフィーチャ値を同定するために、訓練デジタル画像の各々を解析すること、
−一又は複数の訓練第1コンテキストフィーチャ値を計算するために、訓練デジタル画像の各々を解析することであって、各訓練第1コンテキストフィーチャ値が、前記訓練デジタル画像内の複数のピクセルブロブの訓練第1オブジェクトフィーチャ値又はその他訓練オブジェクトフィーチャ値から導出されるものであるか、又は訓練デジタル画像の複数のピクセルから導出されるものである、解析すること、
−ピクセルブロブの各々について、少なくとも注釈付け、訓練第1オブジェクトフィーチャ値及び一又は複数の訓練第1コンテキストフィーチャ値を未訓練バージョンの第1のクラシファイヤに入力することにより、未訓練バージョンの第1のクラシファイヤを訓練することであって、それにより第1のクラシファイヤを生成し、第1のクラシファイヤは、前記オブジェクトの第1のオブジェクトフィーチャ値の、前記特定のオブジェクトクラスのメンバーであるとして注釈付けされたピクセルブロブの訓練第1オブジェクトフィーチャ値に対する類似性が、前記特定のオブジェクトクラスのメンバーでないとして注釈付けされたピクセルブロブの訓練第1オブジェクトフィーチャ値に対する類似性より高い場合に、オブジェクトが特定のオブジェクトクラスのメンバーであるより高い可能を計算するように構成されており、これにより可能性が、第1の又はその他のコンテキストフィーチャ値に含まれる画像内コンテキスト情報にさらに依存する、訓練すること
によって生成される。
−デジタル画像中のオブジェクトを自動的に又は半自動的に同定するためにデジタル画像を解析すること;
−各オブジェクトについて、前記オブジェクトの第1のオブジェクトフィーチャの第1のオブジェクトフィーチャ値を同定するために、デジタル画像を解析すること;
−各々が、デジタル画像中の複数のオブジェクトの第1のオブジェクトフィーチャ値又はその他のオブジェクトフィーチャ値から導出されるものであるか、又はデジタル画像の複数のピクセルから導出されるものである、一又は複数の第1のコンテキストフィーチャ値を計算するために、デジタル画像を解析すること;
−デジタル画像中のオブジェクトの各々の第1のオブジェクトフィーチャ値と、前記デジタル画像の一又は複数の第1のコンテキストフィーチャ値の両方を、第1のクラシファイヤに入力すること;
−第1のクラシファイヤを実行し、それにより第1のクラシファイヤが各オブジェクトの第1のオブジェクトフィーチャ値と一又は複数の第1のコンテキストフィーチャ値とを、前記オブジェクトについて、前記オブジェクトがオブジェクトクラスのメンバーである第1の可能性を自動的に決定するための入力として使用すること
を含む。
未訓練バージョンのクラシファイヤは、特定の分類アプローチに従って分類を実施するために特に適合されたプログラムロジック(例えばニューラルネットワーク、サポートベクターマシンなどに基づく)であるが、これはまだ、訓練済みバージョンのクラシファイヤによって同定されるべきオブジェクトクラスのオブジェクトインスタンスを含む訓練データセットについて訓練されていない。したがって、訓練済みバージョンのクラシファイヤは、訓練フェーズの間に、注釈付き訓練データセットに含まれる情報、例えばそれぞれ「腫瘍細胞」、「リンパ球」又はその他の細胞型のクラスメンバーであるとして注釈付けされた数百又は数千のピクセルブロブを含むデジタル画像を使用することにより修正された、プログラムロジックのバージョンである。
好ましい実施形態によれば、画像解析は、それぞれの、オブジェクトフィーチャに特異的な解析器により複数のオブジェクトフィーチャを解析するように構成される。特定のオブジェクトが一つのオブジェクトクラス内のメンバーである全体の可能性は、オブジェクトが特定のオブジェクトクラスのメンバーである最終的な、合成された可能性のスコアを得るために、すべてのオブジェクトフィーチャに特異的な可能性を処理することにより導出される。実施形態によれば、「解析器機能」が解析器として実装される。
「オブジェクトプロパティ」又は「オブジェクトフィーチャ」は、デジタル画像内部のオブジェクトを前記クラスのメンバーであるとして同定するために使用することのできる特定のクラスのオブジェクトのプロパティを指す。前記プロパティの例には、オブジェクト内部のすべてのピクセルのサイズ、形状及び平均強度が含まれる。好ましくは、オブジェクトプロパティは、デジタル画像内部で前記クラスのメンバーであるオブジェクトのピクセル表現をはっきりと同定するオブジェクトクラスのフィーチャである。例えば、同じ画像内においてリンパ球は通常がん細胞より小さいため、ER染色された乳がん画像において、核のサイズはリンパ球を同定するための重要なオブジェクトプロパティである。絶対的な核サイズは、異なる患者又は組織切片において若干変動することがあり、したがって異なる細胞スライドから得られたデジタル画像内で変動しうる。しかしながら、各患者及び各組織切片において、リンパ球の核は、少なくとも平均で、同じ特定のデジタル画像又は前記画像の小区域内部においてがん細胞核より小さいであろう。特定の画像のコンテキストフィーチャ値を計算することにより、関連するオブジェクトフィーチャの説明力は向上しうる。
したがって、コンテキストフィーチャがオブジェクトフィーチャの統計的平均として導出される実施形態によれば、訓練プロセスは、同じデジタル画像内の他のオブジェクトと比較して、オブジェクトが特定のオブジェクトフィーチャの大きな量を割りつけたか又は小さな量を割り付けたかを確実に示すデジタル画像のコンテキストフィーチャ値を有する少なくとも一つのオブジェクトフィーチャを、自動的に同定及び学習することを含む。したがって、それ自体のコンテキストフィーチャ値は、例えばコンテキストフィーチャ値が特定のオブジェクトの特徴を示さないために、特定のオブジェクトのクラスメンバーシップに関する予測力を欠いていることがある。むしろ、コンテキストフィーチャ値は、画像内の複数のオブジェクト又は複数のピクセルから導出されるオブジェクトフィーチャ値であり、それによりコンテキストフィーチャ値は、−特定のオブジェクトフィーチャのオブジェクトのオブジェクトフィーチャ値と一緒にクラシファイヤに入力された場合− 前記オブジェクトのフィーチャ値の予測力を向上させる。
前記フィーチャは、特定のオブジェクトフィーチャに対する特定のコンテキストフィーチャの明確な割り付けを回避できるため、有利でありうる。代わりに、クラシファイヤのプログラマーは、訓練フェーズの間にそのためのコンテキストフィーチャ値が計算され、かつクラシファイヤの入力として使用される、複数のグローバルプロパティを定義してもよい。コンテキストフィーチャ値は、クラシファイヤが訓練されたオブジェクトフィーチャ、又は別のオブジェクトフィーチャ又は画像全体の、複数の値から得られる統計的値とすることができる。訓練フェーズの間に、クラシファイヤは、オブジェクトフィーチャとコンテキストフィーチャのうちの一又は複数との間の関係を非明示的に特定するモデルを構築する。オブジェクトフィーチャに特異的なクラシファイヤのモデルは、前述のオブジェクトフィーチャ及びそれに関連するコンテキストフィーチャ値のみを考慮するとき、特定のオブジェクトの「オブジェクトフィーチャ」値とコンテキストフィーチャ値とを数学的に組み合わせ、異なるオブジェクトクラスラベルで注釈付けされた訓練ピクセルブロブを最適に分離する可能性値を導出する方法を説明する。このような可能性は、クラスメンバーシップに関する元のオブジェクトフィーチャに特異的な可能性の洗練されたバージョンを表す。このことは、オブジェクトのオブジェクトフィーチャ値の予測力が、オブジェクトが一つのオブジェクトクラスメンバーである可能性を予測するために使用され、それにより、フィーチャに特異的なクラシファイヤの可能性の計算が、オブジェクトタイプの差異以外の要因によって生じたばらつきを平均化するコンテキストフィーチャ値に含まれる情報も考慮することにより、洗練される。
いくつかの実施形態によれば、計算されるオブジェクトのプロパティの一つは、サイズ、例えば直径又はオブジェクト中のピクセル総数である。関連づけられるコンテキストフィーチャ値は、画像内のすべてのオブジェクトの強度値の算術的ミーン値又はメジアン値である。コンテキストフィーチャは、特定のオブジェクトが、画像領域内の他のすべてのオブジェクトの平均強度より明るい強度を有するか又は暗い強度を有するかを示すことができ、それにより、強度値のばらつきは、部分的には異なる細胞型のクラスの生物学的/細胞学的差異により生じ、部分的には染色及び試料処理アーチファクトにより生じうる。
いくつかの実施形態によれば、クラシファイヤ又はクラシファイヤの処理モジュールは、コンテキストフィーチャを、デジタル画像の複数のオブジェクトのフィーチャ値の統計的平均として又はデジタル画像内の複数のピクセルのフィーチャ値の統計的平均として計算するための機能又はプログラムロジックを実装する。
本明細書に開示される種々の方法及びシステムの実施形態は、互いに自由に組み合わせることができる。
−オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャであって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
−オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャであって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又は一グループのピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより計算する。
オブジェクトフィーチャ(群)は、経験的に同定することができるか、又は例えば高度なフィーチャ発見方法により若しくは最小冗長性及び最大関連性(mRMR)ルールにより自動的に同定することができる。これら実施形態のいずれにおいても、少なくとも一つのコンテキストフィーチャは、異なる画像内の同じオブジェクトフィーチャ、例えばオブジェクトフィーチャのグループ統計間における画像間のばらつきを捉えることのできるフィーチャとすることができる。
実施形態によれば、クラシファイヤ機能は、本発明の種々の実施形態について本明細書に記載されるクラシファイヤである。
−オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャであって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
−オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャであって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又は一グループのピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより行われ、
事前訓練されたクラシファイヤ関数によって生成されるオブジェクトがオブジェクトのあるクラスに属する可能性が、コンテキスト認識フィーチャである、方法。この実施形態では、オブジェクトフィーチャは、経験的に同定することができるか、又は例えば高度なフィーチャ発見方法により若しくは最小冗長性及び最大関連性(mRMR)ルールにより自動的に同定することができる。これら実施形態のいずれにおいても、少なくとも一つのコンテキストフィーチャは、異なる画像内の同じオブジェクトフィーチャ、例えばオブジェクトフィーチャのグループ統計間における画像間のばらつきを捉えることができる。
−オブジェクトの少なくとも一つのコンテキスト認識フィーチャであって
・オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャであって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
・オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャであって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又は一グループのピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより得られるコンテキスト認識フィーチャ、並びに
−オブジェクトの追加フィーチャ
を組み合わせることにより行われる。
オブジェクトフィーチャ(群)は、経験的に同定することができるか、又は例えば高度なフィーチャ発見方法により若しくは最小冗長性及び最大関連性(mRMR)ルールにより自動的に同定することができる。これら実施形態のいずれにおいても、少なくとも一つのコンテキストフィーチャは、異なる画像内の同じオブジェクトフィーチャ、例えばオブジェクトフィーチャのグループ統計間における画像間のばらつきを捉えることのできるフィーチャとすることができる。これら実施形態のいずれにおいても、オブジェクトの追加フィーチャは、追加のオブジェクトフィーチャでよい、及び/又は追加のコンテキスト認識フィーチャでよい。オブジェクトの追加フィーチャのうちの少なくとも一つが追加のコンテキスト認識フィーチャである場合、追加のコンテキスト認識フィーチャは個別のコンテキスト認識クラシファイヤにより決定される。別の実施形態では、生物学的試料の試験画像内のオブジェクトを同定する方法が提供され、この方法は、オブジェクトがオブジェクトのあるクラスに属する可能性を計算することによりエンドクラシファイヤ機能を実施するようにプログラムされた生体画像解析デバイス上でオブジェクトを解析することを含み、上記可能性の計算は、オブジェクトのコンテキスト認識フィーチャとオブジェクトの少なくとも一つの追加フィーチャを組み合わせることにより行われ、エンドクラシファイヤ機能は前出の方法のいずれかによって訓練される。例示的実施形態では、事前訓練されたクラシファイヤが、コンテキスト認識フィーチャを計算するために使用された。
−オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャであって、画像のコンテキストにおいてオブジェクトにの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
−オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャであって、各々が、オブジェクトフィーチャが抽出された画像内部のオブジェクトのグループ又はグループピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより行われ、
オブジェクトフィーチャ(群)は、経験的に同定することができるか、又は例えば高度なフィーチャ発見方法により若しくは最小冗長性及び最大関連性(mRMR)ルールにより自動的に同定することができる。これら実施形態のいずれにおいても、少なくとも一つのコンテキストフィーチャは、異なる画像内の同じオブジェクトフィーチャ、例えばオブジェクトフィーチャのグループ統計間における画像間のばらつきを捉えることのできるフィーチャとすることができる。
プロセッサ;及び
プロセッサに連結された、コンピュータで実行可能な命令を記憶するメモリであって、前記命令は、プロセッサによって実行されると、プロセッサに、前出の実施形態のいずれかの方法を含む工程を実施させる。
システムは、任意選択的に、生物学的試料の画像を取り込み、かつ生物学的試料の画像を生体画像解析デバイスへ伝送するように適合されたデバイスをさらに含むことができる。例えば、画像がデジタル的に生体画像解析デバイスに直接送信されるように、顕微鏡又は全スライドスキャナを動作可能に生体画像解析デバイスにリンクさせることができる。これに加えて又は代えて、顕微鏡又は全スライドスキャナは、画像のデジタルコピーを保存するように適合され、かつデジタル画像を生体画像解析デバイスへ伝送するようにさらに適合された非一時的なコンピュータ可読記憶媒体を備えることができるか、又はそのような記憶媒体に接続されうる。
本発明は、生物学的試料の画像内部のオブジェクトのコンテキスト認識フィーチャを使用して異なる生物学的試料間の画像間のばらつきを補償する、コンピュータ実装方法、システム、及び装置に関する。クラシファイヤが、生物学的試料の画像内のオブジェクトについてコンテキスト認識フィーチャを計算するために使用される。クラシファイヤは、三要素の枠組み、即ち:
(1)画像内部のオブジェクトをはっきりと特徴付ける少なくとも一つのオブジェクトフィーチャを同定すること;
(2)画像間のばらつきに起因するフィーチャ値のばらつきを明示的に特徴付けることのできる、オブジェクトフィーチャに関連付けられる一セットのコンテキストフィーチャを同定すること;及び
(3) オブジェクトフィーチャ及びそれに関連付けられるコンテキストフィーチャを用いて基礎クラシファイヤを訓練し、オブジェクトがあるクラスに属する度合いを表わす数値(コンテキスト認識フィーチャ)を生成すること
に基づいて訓練される。
次いで、試験画像内部の試験オブジェクトに関するオブジェクトフィーチャとコンテキストフィーチャの同じセットを事前訓練されたクラシファイヤに入力し、試験オブジェクトのコンテキスト認識フィーチャを計算することができる。次いで、計算されたコンテキスト認識フィーチャをエンドクラシファイヤが使用して、オブジェクトがオブジェクトの特定のクラスに属する可能性を計算することができる。
本発明の方法、システム、及び装置は、生物学的試料の画像を解析するために有用である。本明細書において使用される用語「生物学的試料」は、細胞を含む生物体に由来する任意の試料を意味し、これには例えば、顕微鏡による画像化のために調製された組織学的又は細胞学的試料が含まれる。特定の一実施形態では、生物学的試料は、画像化媒体(例えば顕微鏡スライド)上に載せられて、生物学的試料内部の構造を差次的に標識するコントラスト剤により染色された組織学的又は細胞学的試料である。例示的なコントラスト剤には、例えば、異なる巨大分子構造を差次的に染色する染料(例えばヘマトキシリン及びエオシン)及び生物学的試料内部の特定の分子に結合する分子標識(例えば特定のタンパク質に対する抗体又は特定のDNA若しくはRNA配列に対する核酸プローブ)が含まれる。生物学的試料は、顕微鏡下で可視化されるか、又は全スライドスキャナによってスキャンされ、そのデジタル画像が取り込まれる。
本発明の方法、システム、及び装置はすべて、ここに開示される方法に従って生物学的試料の画像を解析するように機能する生体画像解析デバイスを含む。生体画像解析デバイスは、少なくとも、プロセッサ及びプロセッサに連結されたメモリを含み、メモリは、プロセッサによって実行されると、プロセッサに工程を実行させるコンピュータで実行可能な命令を記憶する。
本明細書において使用される用語「オブジェクトフィーチャ」は、オブジェクトがその中に位置している画像内部においてオブジェクトを同定するために使用することのできる個々のオブジェクトのプロパティを指す。オブジェクトフィーチャの例には、オブジェクト内部のすべてのピクセルのサイズ、形状及び平均強度が含まれる。
本明細書において使用される用語「コンテキストフィーチャ」は、画像内の一グループのオブジェクト又は一グループのピクセルのプロパティを説明するフィーチャであって、そのグループのオブジェクトの種類の画像間のばらつきを補償するために有効なフィーチャを指す。
本明細書において使用される場合、オブジェクトフィーチャに関連付けられるコンテキストフィーチャは、画像の複数の複数のオブジェクト又はピクセルから導出される、オブジェクトフィーチャの画像間のばらつきを平均化することのできるフィーチャである。これにより、コンテキストフィーチャは、クラスメンバーシップ以外の要因により生じ、一般に画像間のばらつきを生じさせるオブジェクトフィーチャのばらつきも平均化することができる。
オブジェクトフィーチャとそれらに関連付けられるコンテキストフィーチャは、「コンテキスト認識フィーチャ」を生成するようにクラシファイヤを訓練するために使用される。本明細書において使用される用語「コンテキスト認識フィーチャ」は、クラシファイヤによって生成される、オブジェクトがあるクラスに属する度合いを表す数値を指す。有用なクラシファイヤの例には、サポートベクターマシンクラシファイヤ、ランダムフォレストランダムフォレストクラシファイヤ、ニューラルネットワーク、及びファジールールベースのシステムが含まれる。
場合によっては、オブジェクトを同定するために単一のコンテキスト認識フィーチャが十分でありうる。しかしながら、多くの場合、オブジェクトを同定するためには様々な要因が必要である。一実施形態では、オブジェクトの同定を実施するためにエンドクラシファイヤが使用される。エンドクラシファイヤは、オブジェクトの他のフィーチャと共にコンテキスト認識フィーチャを取り込んで、オブジェクトがオブジェクトのあるクラスに属する可能性を計算する。エンドクラシファイヤとして有用なクラシファイヤの例には、サポートベクターマシンクラシファイヤ、ランダムフォレストランダムフォレストクラシファイヤ、ニューラルネットワーク、及びファジールールベースのシステムが含まれる。一実施形態では、複数のコンテキスト認識フィーチャが、オブジェクトを同定するためにエンドクラシファイヤによって使用される。他の実施形態では、エンドクラシファイヤは、少なくとも一つのコンテキスト認識フィーチャと少なくとも一つのオブジェクトフィーチャとを組み合わせる。
「画像内のばらつき」は、特定のデジタル画像内部の、複数のオブジェクト、例えばピクセルブロブのオブジェクトフィーチャ値のばらつきを示す。これにより、デジタル画像は、例えば、スライド全体の画像又はその小区域とすることができる。反対に、「画像間のばらつき(inter−image variation)」及び「画像間のばらつき(cross−image variation)」は、異なるデジタル画像のオブジェクトのオブジェクトフィーチャ値のばらつきを示す。
ER染色された画像の解析において、陰性がん細胞と陽性がん細胞とを区別することは、それら二つのクラスが色に極端な違いを有するため、比較的簡単である。しかしながら、ヘマトキシリンによって染色された陰性がん細胞と他の非がん性細胞、特にリンパ球とを区別することは、それら二つのクラスの間の色の違いがわずかであるために困難で、若干の染色のばらつきが、分類性能に有意な影響を有しうる。加えて、がん細胞のサイズのばらつきも、分類にサイズのフィーチャを使用することを困難にする。
本発明の実施形態は、個々のオブジェクト情報及びコンテキスト情報を取り込んで、画像間のばらつきについて補償された精密な可能性(コンテキスト認識フィーチャ)を計算する。実施形態によれば、そのようなフィーチャを計算するための一般的な枠組みは三つの工程からなる:
工程1.画像内部でオブジェクトをはっきりと特徴付けるオブジェクトフィーチャを同定する。
工程2.特定のオブジェクトフィーチャに関連付けられ、画像間のばらつきに起因するフィーチャ値のばらつきを明確に特徴付けることのできる一セットのコンテキストフィーチャを同定する。
工程3.上記オブジェクト及びコンテキストフィーチャを用いてベースクラシファイヤを訓練する。オブジェクトが所与のクラスに属している可能性を示すベースクラシファイヤの数値出力は、「コンテキスト認識」フィーチャと呼ばれる。
この工程において、分類の間に評価されなければならないフィーチャ(「プロパティ」)が同定される。
実際のオブジェクト分類を開始するにはまず、同定するべき細胞又は細胞下オブジェクトの各オブジェクトフィーチャについて、それぞれのクラシファイヤをつくらなければならない。これは、一又は複数の訓練画像内の数百又は場合によっては数千のピクセルブロブ又は他の構造に、いずれのオブジェクトクラスに前記ピクセルブロブ又は構造が属するかを示す注釈を付すことにより行うことができる。例えば、ピクセルブロブは、DAB染色の結果得られた、細胞全体を示す褐色のブロブである、任意の種類の核のヘマトキシリン染色の結果得られた(いくつかの種類の核において他よりも強度の高い)青色のブロブである、又は膜構造、細胞クラスターなどである。
加えて、未訓練バージョンの第2のクラシファイヤ712、例えばSVM又は他のいずれかの形態の教師付き学習アルゴリズムは、訓練デジタル画像を解析してすべての核のピクセルブロブを同定し、すべてのピクセルブロブの平均の「青色」の強度値を訓練デジタル画像の第2のコンテキストフィーチャ値として計算することができる。個々のオブジェクトの強度値及び訓練第2のコンテキストフィーチャ値は共に、第2のクラシファイヤ712(「青色の強度に基づくクラシファイヤ」とも呼ばれる)を訓練するための入力として使用される。他の実施形態では、関連の「色」は青(ヘマトキシリン)ではなく褐色(例えばDAB染色)又はグレイスケールの値である。
一又は複数のオブジェクトフィーチャに特異的なクラシファイヤ710、712を訓練した後、各分析器を、新しい未知のデジタル画像又はそのサブ領域、例えばユーザにより選択されたFOVに適用する。分類方法は、例えばプロセッサとデジタル画像を格納するメモリ及び/又は非一時的記憶媒体とを備える画像解析システムに実装することができる。画像解析アプリケーションは、特定のオブジェクトが前記クラスのメンバー(例えば「リンパ球」又は「腫瘍細胞」)のメンバーであるか否かを自動的に同定するように構成することができる。
まず、画像解析システム又は第1のクラシファイヤ710のサブモジュールが、工程602において、デジタル画像内のオブジェクトを自動的に又は半自動的に同定するためにデジタル画像を解析する。次に工程604において、画像解析システム又はサブモジュールが、各オブジェクトについて、前記オブジェクトの第1のオブジェクトフィーチャ(「核の直径」)の第1のオブジェクトフィーチャ値702を同定するために、デジタル画像を解析する。工程602では、デジタル画像は、第1のコンテキストフィーチャ値704を同定するために解析される。第1のコンテキストフィーチャ値は、デジタル画像内のオブジェクトのそれぞれの第1のオブジェクトフィーチャ値の、コンテキスト情報、例えばデジタル画像内の複数のオブジェクト又はピクセルのオブジェクトフィーチャ値から導出される「予測される」又は「平均の」第1のオブジェクトフィーチャ値との関連を示す。例えば、特定の第1のオブジェクトフィーチャ値が有する情報と、割り付けられたコンテキストフィーチャ値との組み合わせは、前記オブジェクトの直径が前記デジタル画像内のすべてのオブジェクト(青色のピクセルブロブ)の直径の45%である。オブジェクトフィーチャ値とそれに関連付けられるコンテキストフィーチャ値の両方は、訓練フェーズでつくられたクラシファイヤのモデルによって評価され、それらは共に「コンテキスト認識フィーチャ」の値、即ちオブジェクトが特定のオブジェクトクラスのメンバーである可能性を示すデータ値に寄与する。特定の画像又はサブ領域の細胞及びオブジェクトが通常より大きい場合、絶対値のみが考慮されるとすれば、したがってリンパ球は「リンパ球クラス」のメンバーとして同定されない可能性がある。しかしながら、関連情報により、他のすべてのオブジェクト(即ち、リンパ球又は腫瘍細胞でありうるピクセルブロブ)と比較した場合のその相対的直径が平均より小さいことから、オブジェクトはリンパ球(典型的には腫瘍細胞より小さなサイズを有する)である可能性が高いと判明する。
画像解析システムは、すべてのオブジェクトフィーチャに特異的なクラシファイヤの計算された可能性を、合成された可能性718を計算するための入力とするプログラムロジックの一部、例えばエンドクラシファイヤ又は可能性を集計するように構成された他のいずれかのプログラムロジックを備えるか、又はそれに動作可能に連結される。いくつかの実施形態では、エンドクラシファイヤは、さらに追加のオブジェクトフィーチャ(コンテキストフィーチャを含まない)を、合成された可能性(「全体」)を計算するための入力とする。合成された可能性は、特定のオブジェクトが特定のオブジェクトクラス、例えば「リンパ球」のメンバーである可能性全体を示す。合成された可能性が閾値、例えば50%を超える場合、オブジェクトはそれぞれのオブジェクトクラス、例えば「リンパ球」のメンバーであるとして自動的に同定される。
いくつかの実施形態によれば、合成された可能性718は、すべてのオブジェクトフィーチャに特異的な可能性の算術的ミーン値、例えば(サイズに基づく可能性714+青色の強度に基づくメンバーシップの可能性716)/2として計算される。他の実施形態によれば、合成された可能性718の計算はもっと複雑である。例えば、オブジェクトフィーチャに特異的な可能性710、712は、それぞれのオブジェクトフィーチャの予測力に従って重み付けすることができ、それにより重みは事前に規定されるか又は合成された可能性を計算するエンドクラシファイヤの訓練フェーズの間に自動的に決定される。データ値714、716を、可能性の値でなく、オブジェクトが特定のクラスに属する可能性を示す他の形態の数値とすることも可能である。
SVMを訓練することは、クラス内のばらつきが最小化されたデータ点のそれぞれのオブジェクトフィーチャ値に従ってデータ点を分離することのできるp−1次元の超平面を同定することを意味する。訓練されたSVMは線形クラシファイヤを表わす。データを分類しうる多くの超平面が存在する。最良の超平面としての一つの妥当な選択は、二つのクラス間に最大の分離、又はマージンを表すものである。したがって、超平面は、各側の最寄りのデータ点までの距離が最大となるように選択される。このような超平面が存在する場合、それは最大マージン超平面として知られ、結果として得られる「訓練された」SVMは、最大マージンクラシファイヤとも呼ばれる線形クラシファイヤである。
いくつかの訓練データ
がある場合、式
[式中、
は1又は−1である]の1セットのデータ点は、データ点
が属するオブジェクトクラスを示す。一つのデータ点は、例えば、訓練画像内の一つのピクセルブロブであるか、又は解析される試験画像内の一つのオブジェクトである。オブジェクトは、例えば、任意の種類の細胞型の核又は細胞を同定する汎用核検出又は細胞検出アルゴリズムの出力とすることができる。
各データ点
は、
−次元の実ベクトルである。
各次元は、同定されるオブジェクトクラスのオブジェクトフィーチャ又は関連するコンテキストフィーチャ、例えば「絶対核直径」と「画像内のすべての核ブロブの核直径のメジアン値」;又は「絶対青色強度」と「画像内のすべての核ブロブの青色強度のメジアン値」;又は「絶対的な核ブロブの丸み」と「画像内のすべての核ブロブの平均的な核の丸み」;又は「次の隣接細胞までの絶対距離」と「次の隣接細胞までの平均距離」などに対応する。画像内のすべての核ブロブがオブジェクトとして考慮されず、すべての核ブロブのサブセットがオブジェクトとして考慮されてもよい。例えば、最小サイズ又は最大強度値のすべての核ブロブを、選択的にオブジェクトとして考慮することができる。
を有する点を、
を有する点から分離する最大マージン超平面が同定されなければならない。いずれの超平面も、点のセット
として記述することができ、このセットは、
[式中、
は点乗算を表し、
は超平面に対する(必ずしも正規化されていない)法線ベクトルを表す]を満たす。パラメータ
は、原点からの法線ベクトル
に沿った超平面のオフセットを決定する。
訓練データが線形分離される場合、間に点を有さない、データを分離する二つの超平面が選択され、前記超平面の距離が最大化される。それらにより画定される区域は、「マージン」と呼ばれる。三つの超平面は、等式
及び
により記載することができる。
であり、これにより
が最小化される。データ点がマージン内に入らないようにするために、以下の定数を加える:各
について、
第1のオブジェクトクラスの
又は
第2のオブジェクトクラスの
これは、以下のように記述することができる:
(任意の
について)
に従い、(in
)
を最小化する。
この最適化問題は、それが平方根を含む
,
のノルムに依存するため、困難である。幸いなことに、解を変更することなく(元の等式と修正された等式の最小値は同じ
及び
を有する)、
を
で置換することにより(数学的利便性のために係数
が使用される)等式を変更することが可能である。これは、二次計画最適化の問題である。さらに明瞭には:
であり、これは(任意の
について)
に従う。
ラグランジュ乗数
を導入することにより、以前の制約型問題は、
と表現することができる。
として分離することのできるすべての点は、対応する
をゼロに設定することが必要であるため、無関係である。この問題は、標準的な二次計画技術及びプログラムにより解決できる。「固定の」カルーシュ−クーン−タッカー条件は、解が訓練ベクトル
の一次結合として表現できることを示している。
数個のみであろう。対応する
はまさしくサポートベクトルであり、マージン上に位置し、
を満たす。このことから、サポートベクトルも
を満たすことを導くことができ、これによりオフセット
を規定することができる。
は
及び
に依存し、したがって試料内の各データ点について変動する。実際には、すべての
サポートベクトルを平均化することがよりロバストである。というのは、試料の平均が、集団のミーン値の不偏推定量:
であるためである。
[式中、
が腫瘍細胞である場合
であり、
がリンパ球である場合
である]に従って計算することができる。各データ点
は、2次元の実ベクトル
であり、
はi番目のオブジェクトの核の直径の値であり、
は、
が属する画像内のすべてのオブジェクトの核の平均直径である。
(i=1、2、…、n)が、複数の異なる画像に由来するものでありうることに注意されたい。各画像は対応する
値を有し、この値は同じ画像に属するすべてのデータ点に同じであるが、画像間では変動しうる。
オフセット「b」は、
に従って計算され、これは実数であり、−1.07である。
オブジェクト#15の核の直径:5.34μmを同定する;前記データ値は、オブジェクトの「プロパティ値」又は「オブジェクトフィーチャ値」とも呼ばれる。
画像内のすべてのオブジェクトの核の平均直径を同定する:画像内の144のオブジェクトのすべての直径の和)/144=(866.88μm)/144=6.02μm。
CAW(サイズ、#15)=−1.07−8.69*#15の核の直径+2.85*画像の平均的な核の直径
CAW(サイズ、#15)=−1.07−8.69*5.34μm+2.85*6.02μm=−1.07−46,40[μm]+17,16[μm]=−30,31。
これにより、単位[μm]は無視される。「画像の平均的な核の直径」は、「コンテキストフィーチャ」又は「コンテキストフィーチャ」とも呼ばれる。上記等式は、訓練されたSVMクラシファイヤの「モデル」と呼ぶこともできる。
この特定の実施例では、画像内の「褐色のブロブ」がコンテキストフィーチャを計算するためのオブジェクトとして使用される。褐色のブロブは、実際には主に腫瘍細胞核である。非常に稀なケースのみにおいて、リンパ球の核が褐色に染色されることがある。したがって、褐色ブロブのメジアン値サイズは、腫瘍細胞核サイズのミーン値の良好な推定値である。
合計で210の視野(FOV)画像が、81のスライド全体(WS)のER染色した乳がん画像から抽出され、その中で陰性腫瘍細胞とリンパ球が手作業により訓練データとして注釈付けされた。コンテキスト認識サイズ及びコンテキスト認識青色の暗さの両方を計算するように訓練された線形SVMモデルは、オブジェクトフィーチャが最大の重みを取ることを示し、このことは、結果として得られるコンテキスト認識フィーチャが通常、対応するオブジェクトフィーチャと同じプロパティを説明することを示す。一方、コンテキストフィーチャの重みは、オブジェクトフィーチャとは反対の符号を有し、このことは、訓練により補償メカニズムが学習されることを示す。この方法を確認するために、93の試験FOVを、さらに31のスライド全体画像から抽出し、手作業により同様に注釈付ける。ROC曲線が、各フィーチャの説明力並びにエンドクラシファイヤの性能を評価するために使用され、この場合x軸が一方のクラスの偽の分類比であり、y軸が他方のクラスの真の分類比である。
コンテキスト認識サイズ=−1.96−8.37*サイズ+1.53*がん細胞のサイズの推定値、即ち、
w=[−8.37 1.53]、b=−1.96;
及び
コンテキスト認識青色の暗さ=1.70+8.22*青色の暗さ−4.28*がん細胞染色の推定値、即ちA、w=[8.22 −4.28]、b=1.70。
画像間の染色のばらつき及び生物学的ばらつきは、病理組織画像の量的解析について大きな困難性を課す。画像間における染色の見た目の一貫性を向上させようとする色分布アラインメントのアプローチは、クラス間の色の差異がわずかであり;色分布の差異が染色のばらつきではなくオブジェクト分布率によって生じている場合、分類の問題に適さない。本明細書は、標準的なクラシファイヤの利用によりオブジェクトフィーチャとコンテキストフィーチャを取り込む汎用方法を記載しており、画像間のばらつきについて補償されたコンテキスト認識フィーチャを導出するために学習モデルが使用される。この方法を使用して、広範なフィーチャのばらつき問題に対処することができる。方法の有効性は、ER染色された乳がん画像の解析に関する核分類の問題において実証される。
[1]American Cancer Association, "Tumor Markers Fact Sheet". Available at http://www.cancer.gov/about-cancer/diagnosis-staging/diagnosis/tumor-markers-fact-sheet
[2] J. Shawe-Taylor, N. Cristianini, [Kernel methods for pattern analysis], Cambridge University Press, Cambridge, UK (2004).
[3] Breiman, Leo, "Random Forests," Machine Learning 45 (1), 5-32 (2001)
[4] Gurcan, M. N., Boucheron, L. E., Can, A., Madabhushi, A., Rajpoot, N. M., and Yener, B., "Histopathological image analysis: A review," Biomedical Engineering, IEEE Reviews in 2, pp. 147-171 (2009).
[5] Macenko, M., Niethammer, M., Marron, J., Borland, D.,Woosley, J. T., Guan, X., Schmitt, C., and Thomas, N. E., "A method for normalizing histology slides for quantitative analysis," in Biomedical Imaging: From Nano to Macro, 2009.ISBI’09.IEEE International Symposium on, pp. 1107-1110, IEEE (2009).
[6] Bagc1, U. and Bai, L., "Registration of standardized histological images in feature space," in Proc.SPIE Medical Imaging 6914, pp. 69142V-1 (2008).
[7] Basavanhally, A. and Madabhushi, A., "Em-based segmentation-driven color standardization of digitized histopathology," in Proc.SPIE Medical Imaging, pp. 86760G-86760G, International Society for Optics and Photonics (2013).
[8] B.E.Bejnordi, N. Timofeeva, I. Otte-Holler, N. Karssemeijer and J. AWM van der Laak, "Quantitative analysis of stain variability in histology slides and an algorithm for standardization," in Proc.SPIE 9041, Medical Imaging 2014: Digital Pathology, 904108 (March 20, 2014); doi: 10.1117/12.2043683.
[9] Ruifrok, A. C. and Johnston, D. A., "Quantification of histochemical staining by color deconvolution.," Analytical and quantitative cytology and histology / the International Academy of Cytology [and] American, Society of Cytology 23 (4), pp. 291-299 (2001).
[10] O. Dor and Y. Reich, "Enhancing learning algorithms to support data with short sequence features by automated features discovery," Knowledge-Based Systems, v52, pp. 114-132 (2013).
[11] Peng, H.C., Long, F., and Ding, C., "Feature selection based on mutual information: criteria of max-dependency, max-relevance, and min-redundancy," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 27, No. 8, pp. 1226-1238, 2005.
[12] M. Sezgin and B. Sankur (2004)."Survey over image thresholding techniques and quantitative performance evaluation".Journal of Electronic Imaging 13 (1): 146-165.
[13] Nobuyuki Otsu (1979) "A threshold selection method from gray-level histograms" IEEE Trans.Sys., Man., Cyber.9 (1): 62-66. Doi:0.1109/TSMC.1979.4310076
画像間の染色のばらつき及び生物学的ばらつきは、病理組織画像の量的解析について大きな困難性を課す。画像間における染色の見た目の一貫性を向上させようとする色分布アラインメントのアプローチは、クラス間の色の差異がわずかであり;色分布の差異が染色のばらつきではなくオブジェクト分布率によって生じている場合、分類の問題に適さない。本明細書は、標準的なクラシファイヤの利用によりオブジェクトフィーチャとコンテキストフィーチャを取り込む汎用方法を記載しており、画像間のばらつきについて補償されたコンテキスト認識フィーチャを導出するために学習モデルが使用される。この方法を使用して、広範なフィーチャのばらつき問題に対処することができる。方法の有効性は、ER染色された乳がん画像の解析に関する核分類の問題において実証される。
<さらなる実施態様>
[実施態様1]
生物学的試料の画像(102、104、106、108)内のオブジェクトのコンテキスト認識フィーチャ(216、218、714、716)を自動的に計算する方法であって、クラシファイヤ機能(210、212、710、712)を実施するようにプログラムされた生体画像解析デバイス上において画像を解析することを含み、クラシファイヤ機能は、オブジェクトの少なくとも一つのコンテキスト認識フィーチャを:
−オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャ(202、206、702、706)であって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
−オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャ(204、208、704、708)であって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより計算する、方法。
[実施態様2]
オブジェクトフィーチャが、経験的に、又は高度なフィーチャ発見方法により、又は最小冗長性及び最大関連性(mRMR)ルールにより同定される、実施態様1に記載の方法。
[実施態様3]
少なくとも一つのコンテキストフィーチャは、異なる画像における同じオブジェクトフィーチャの画像間のばらつきを取り込むことができる、実施態様1又は2に記載の方法。
[実施態様4]
少なくとも一つのコンテキストフィーチャがオブジェクトフィーチャのグループ統計である、実施態様1から3のいずれか一項に記載の方法。
[実施態様5]
−コンテキスト認識フィーチャが、クラシファイヤ機能により生成される数値であって、オブジェクトがあるクラスに属する度合いを表す数値を表し、及び/又は
−画像が生物学的試料の画像若しくは組織スライド全体であるか、又は画像が生物学的試料の画像の小区域若しくは組織スライド全体である、
実施態様1から4のいずれか一項に記載の方法。
[実施態様6]
画像から少なくとも一つのオブジェクトフィーチャと少なくとも一つのコンテキストフィーチャとを抽出するために、画像解析デバイスにより画像を自動的に又は半自動的に解析することをさらに含む、実施態様1から5のいずれか一項に記載の方法。
[実施態様7]
少なくとも一つのコンテキスト認識フィーチャの計算が、クラシファイヤ機能により、複数のオブジェクトクラスのうちの一つに対するオブジェクトのメンバーシップ以外の要因により生じるオブジェクトフィーチャのばらつきを平均化するためのコンテキストフィーチャを使用することを含む、実施態様1から6のいずれか一項に記載の方法。
[実施態様8]
さらに:
−画像を解析し、少なくとも一つのコンテキストフィーチャを、画像内の複数のオブジェクトのオブジェクトフィーチャから導出されるものとして、又は複数のオブジェクトの別のオブジェクトフィーチャから導出されるものとして、又は画像の複数のピクセルから導出されるものとして、計算すること
を含む、実施態様1から7のいずれか一項に記載の方法。
[実施態様9]
さらに:
−画像を解析してさらなるクラシファイヤ機能を実施すること
を含み、さらなるクラシファイヤ機能は、オブジェクトの少なくとも一つのさらなるコンテキスト認識フィーチャを:
−オブジェクトから、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易い少なくとも一つのさらなるオブジェクトフィーチャを抽出すること;及び
−さらなるオブジェクトフィーチャに関連付けられる少なくとも一つのさらなるコンテキストフィーチャであって、各々が、さらなるオブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示すさらなるコンテキストフィーチャを抽出すること、
−少なくとも一つのさらなるオブジェクトフィーチャと少なくとも一つのさらなるコンテキストフィーチャを組み合わせること
により計算する、実施態様1から8のいずれか一項に記載の方法。
[実施態様10]
さらに:
−未訓練バージョンのクラシファイイング機能を、正確に一つのオブジェクトフィーチャと前記一つのオブジェクトフィーチャに関連付けられる一又は複数のコンテキストフィーチャとについて訓練することにより、前記クラシファイヤ機能を生成することであって、クラシファイヤ機能によるオブジェクトのうちの一つのコンテキスト認識フィーチャの計算が、前記オブジェクトの一つのオブジェクトフィーチャの値を使用すること、及び関連付けられたコンテキストフィーチャの各々の値を入力として使用すること、及び他のいずれのオブジェクトフィーチャの値も入力として用いないことを含む、クラシファイヤ機能を生成すること;及び/又は
−未訓練バージョンのさらなるクラシファイイング機能を、正確に一つのさらなるオブジェクトフィーチャと前記一つのさらなるオブジェクトフィーチャに関連付けられる一又は複数のさらなるコンテキストフィーチャとについて訓練することにより、前記さらなるクラシファイヤ機能を生成することであって、さらなるクラシファイヤ機能によるオブジェクトのうちの一つのさらなるコンテキスト認識フィーチャの計算が、前記オブジェクトの一つのさらなるオブジェクトフィーチャの値を使用すること、及び関連付けられたさらなるコンテキストフィーチャの各々の値を入力として使用すること、及び他のいずれのオブジェクトフィーチャの値も入力として用いないことを含む、さらなるクラシファイヤ機能を生成すること
を含む、実施態様9に記載の方法。
[実施態様11]
−コンテキストフィーチャ値が、デジタル画像の一グループのオブジェクト又は一グループのピクセルから導出された、画像間のばらつきによって生じた画像内のオブジェクトのオブジェクトフィーチャのばらつきを補償することのできる値である、実施態様1から10のいずれか一項に記載の方法。
[実施態様12]
オブジェクトフィーチャが:
i. オブジェクトの強度値;
ii. オブジェクトの直径;
iii. オブジェクトのサイズ;
iv. 形状プロパティ;
v. 一つのオブジェクトから次の隣接オブジェクトまでの距離;
vi. テクスチャプロパティ
のうちの一つである、実施態様1から11のいずれか一項に記載の方法。
[実施態様13]
オブジェクトとコンテキストフィーチャが:
−手作業により特定されるか;又は
−高度なフィーチャ発見方法によって特定されるか;又は
−最小冗長性及び最大関連性(mRMR)ルールによって特定される、
実施態様1から12のいずれか一項に記載の方法。
[実施態様14]
−コンテキスト認識フィーチャの計算が、複数のオブジェクトクラスのうちの一つに対するオブジェクトのメンバーシップ以外の要因により生じたオブジェクトフィーチャのばらつきを平均化するためのコンテキストフィーチャを使用することを含む、及び/又は、
−クラシファイヤ機能を訓練することが、オブジェクトを分類するためにオブジェクトフィーチャを使用するクラシファイヤ機能の分類精度を向上させることのできるコンテキストフィーチャを同定することを含み、同定されたコンテキストフィーチャは、複数のオブジェクトクラスのうちの一つに対するオブジェクトのメンバーシップ以外の要因により生じたオブジェクトフィーチャのばらつきを平均化することにより分類精度を向上させる、
実施態様1から13のいずれか一項に記載の方法。
[実施態様15]
クラシファイヤ機能を事前訓練することをさらに含み、生物学的試料の複数の異なる画像に由来するオブジェクトの訓練セットを、生体画像解析デバイス上において解析することを含み、生体画像解析デバイスが、訓練セットの各オブジェクトについてオブジェクトがオブジェクトのあるクラスに属する可能性を計算することにより、クラシファイヤ訓練機能を実施するようにプログラムされ、前記可能性の計算が:
−オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャであって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
−オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャであって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより行われ、
事前訓練されたクラシファイヤ機能によって生成される、オブジェクトがオブジェクトのあるクラスに属する可能性が、コンテキスト認識フィーチャである、実施態様1から14のいずれか一項に記載の方法。
[実施態様16]
生体画像解析デバイスのエンドクラシファイヤ機能を訓練して画像のオブジェクトを同定することをさらに含み、生体画像解析デバイス上において複数の異なる画像由来のオブジェクトの訓練セットを解析することを含み、生体画像解析デバイスは、訓練の各オブジェクトについて、オブジェクトがオブジェクトのあるクラスに属する可能性を計算することにより、エンドクラシファイヤ訓練機能を実施するようにプログラムされており、前記可能性の計算が:
−オブジェクトの少なくとも一つのコンテキスト認識フィーチャであって、
・オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャであって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
・オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャであって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより得られたコンテキスト認識フィーチャ、並びに
−オブジェクトの追加フィーチャ
を組み合わせることにより行われる、実施態様1から15のいずれか一項に記載の方法。
[実施態様17]
オブジェクトの追加フィーチャが、オブジェクトのさらなるオブジェクトフィーチャ又はオブジェクトのさらなるコンテキスト認識フィーチャであり、さらなるコンテキスト認識フィーチャが、さらなるクラシファイヤ機能により:
・画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易い、オブジェクトから抽出される少なくとも一つのさらなるオブジェクトフィーチャ;及び
・さらなるオブジェクトフィーチャに関連付けられる少なくとも一つのさらなるコンテキストフィーチャであって、各々が、さらなるオブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示す、少なくとも一つのさらなるコンテキストフィーチャ
を組み合わせることにより計算される、実施態様16に記載の方法。
[実施態様18]
エンドクラシファイヤの訓練が、複数の異なるクラシファイヤのうちそれぞれにより計算されたコンテキスト認識フィーチャを組み合わせることを含み、各クラシファイヤがそれぞれの単一のオブジェクトフィーチャと一又は複数の関連するコンテキストフィーチャとについて訓練される、実施態様17に記載の方法。
[実施態様19]
生物学的試料の画像のオブジェクトのコンテキスト認識フィーチャ(204、208)を計算するように生体画像解析デバイスのクラシファイヤ機能を事前訓練する方法であって、生体画像解析デバイス上において、生物学的試料の複数の異なる画像由来のオブジェクトの訓練セットを解析することを含み、生体画像解析デバイスは、訓練セットの各オブジェクトについて、オブジェクトがオブジェクトのあるクラスに属する可能性を計算することにより、クラシファイヤ訓練機能を実施するようにプログラムされており、前記可能性の計算が:
−オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャであって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
−オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャであって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより行われ、
事前訓練されたクラシファイヤ関数によって生成される、オブジェクトがオブジェクトのあるクラスに属する可能性が、コンテキスト認識フィーチャである、方法。
[実施態様20]
オブジェクトフィーチャが、経験的に、又は高度なフィーチャ発見方法により、又は最小冗長性及び最大関連性(mRMR)ルールにより、同定される、実施態様19に記載の方法。
[実施態様21]
少なくとも一つのコンテキストフィーチャは、異なる画像における同じオブジェクトフィーチャの画像間のばらつきを取り込むことができる、実施態様19又は20に記載の方法。
[実施態様22]
少なくとも一つのコンテキストフィーチャがオブジェクトフィーチャのグループ統計である、実施態様19から21のいずれか一項に記載の方法。
[実施態様23]
画像のオブジェクトを同定するように生体画像解析デバイスのエンドクラシファイヤ機能を訓練する方法であって、生体画像解析デバイス上において、複数の異なる画像由来のオブジェクトの訓練セットを解析することを含み、生体画像解析デバイスは、訓練の各オブジェクトについて、オブジェクトがオブジェクトのあるクラスに属する可能性を計算することにより、エンドクラシファイヤ訓練機能を実施するようにプログラムされており、前記可能性の計算が:
−オブジェクトの少なくとも一つのコンテキスト認識フィーチャであって:
・オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャであって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
・オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャであって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより得られたコンテキスト認識フィーチャ、並びに
−オブジェクトの追加フィーチャ
を組み合わせることにより行われる、方法。
[実施態様24]
オブジェクトの少なくとも一つの追加フィーチャが追加オブジェクトフィーチャである、実施態様23に記載の方法。
[実施態様25]
オブジェクトフィーチャが、経験的に、又は高度なフィーチャ発見方法により、又は最小冗長性及び最大関連性(mRMR)ルールにより、同定される、実施態様24に記載の方法。
[実施態様26]
少なくとも一つのコンテキストフィーチャは、異なる画像における同じオブジェクトフィーチャの画像間のばらつきを取り込むことができる、実施態様24又は25に記載の方法。
[実施態様27]
少なくとも一つのコンテキストフィーチャがオブジェクトフィーチャのグループ統計である、実施態様24から26のいずれか一項に記載の方法。
[実施態様28]
オブジェクトの少なくとも一つの追加フィーチャが追加コンテキスト認識フィーチャである、実施態様24から27のいずれか一項に記載の方法。
[実施態様29]
別個のコンテキスト認識クラシファイヤが、追加コンテキスト認識フィーチャを計算するように訓練される、実施態様28に記載の方法。
[実施態様30]
試験画像内のオブジェクトを同定する方法であって、試験画像内のオブジェクトのコンテキスト認識フィーチャを計算するためのクラシファイヤ機能を実施するようにプログラムされた生体画像解析デバイス上で試験画像を解析することを含み、前記計算が:
−オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャであって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
−オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャであって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより行われる、方法。
[実施態様31]
オブジェクトフィーチャが、経験的に、又は高度なフィーチャ発見方法により、又は最小冗長性及び最大関連性(mRMR)ルールにより、同定される、実施態様30に記載の方法。
[実施態様32]
少なくとも一つのコンテキストフィーチャは、異なる画像における同じオブジェクトフィーチャの画像間のばらつきを取り込むことができる、実施態様30又は31に記載の方法。
[実施態様33]
少なくとも一つのコンテキストフィーチャがオブジェクトフィーチャのグループ統計である、実施態様30から32のいずれか一項に記載の方法。
[実施態様34]
エンドクラシファイヤが、コンテキスト認識フィーチャと、試験画像内のオブジェクトの追加フィーチャとを組み合わせて、オブジェクトがあるクラスに属する可能性を計算する、実施態様30から33のいずれか一項に記載の方法。
[実施態様35]
少なくとも一つの追加フィーチャが、オブジェクトから抽出された追加オブジェクトフィーチャである、実施態様34に記載の方法。
[実施態様36]
オブジェクトの少なくとも一つの追加フィーチャが追加のコンテキスト認識フィーチャである、実施態様34又は35に記載の方法。
[実施態様37]
別個のコンテキスト認識クラシファイヤが、追加コンテキスト認識フィーチャを計算するように訓練される、実施態様34から36のいずれか一項に記載の方法。
[実施態様38]
生物学的試料の試験画像内のオブジェクトを同定する方法であって、オブジェクトがオブジェクトのあるクラスに属する可能性を計算することによりエンドクラシファイヤ機能を実施するようにプログラムされた生体画像解析デバイス上でオブジェクトを解析することを含み、上記可能性の計算が、オブジェクトのコンテキスト認識フィーチャとオブジェクトの少なくとも一つの追加フィーチャを組み合わせることにより行われ、エンドクラシファイヤ機能が、実施態様23から29のいずれか一項に記載の方法に従って訓練される、方法。
[実施態様39]
事前訓練されたクラシファイヤがコンテキスト認識フィーチャを計算する、実施態様38に記載の方法。
[実施態様40]
生物学的試料の画像内のオブジェクを同定するためのシステムであって、生体画像解析デバイスを備え、生体画像解析デバイスが:
プロセッサ;及び
プロセッサに連結された、コンピュータで実行可能な命令を記憶するメモリであって、前記命令は、プロセッサによって実行されると、プロセッサに、実施態様1から36のいずれか一項に記載の方法を含む工程を実施させるメモリ
を備えるシステム。
[実施態様41]
生体画像解析デバイス又は生物学的試料の画像をデジタル方式で記憶することのできる非一時的なコンピュータ可読記憶媒体に動作可能に連結された画像化装置をさらに備える、実施態様40に記載のシステム。
[実施態様42]
生物学的試料の画像をデジタル方式で記憶する非一時的なコンピュータ可読記憶媒体をさらに備える、実施態様41に記載のシステム。
[実施態様43]
プロセッサにより実行されて、実施態様1から39のいずれか一項に記載の方法を含む工程を実施するコンピュータで実行可能な命令を記憶するための非一時的なコンピュータ可読記憶媒体。
[実施態様44]
生物学的試料のデジタル画像(102−108)内の特定のオブジェクトクラスに属するオブジェクトを同定するための画像解析システムであって、プロセッサとメモリを備え、メモリが、プロセッサにより実行されるとき、プロセッサに、
−デジタル画像中のオブジェクトを自動的に又は半自動的に同定するためにデジタル画像を解析すること(602);
−各オブジェクトについて、前記オブジェクトの第1のオブジェクトフィーチャの第1のオブジェクトフィーチャ値(202、702)を同定するために、デジタル画像を解析すること(604);
−第1のコンテキストフィーチャ値(204、704)を計算するためにデジタル画像を解析することであって、第1のコンテキストフィーチャ値が、デジタル画像内の複数のオブジェクトの第1のオブジェクトフィーチャ値又はその他のオブジェクトフィーチャ値から導出されるものであるか、又はデジタル画像の複数のピクセルから導出されるものである、デジタル画像を解析すること(606);
−デジタル画像中のオブジェクトの第1のオブジェクトフィーチャ値と、前記デジタル画像の第1のコンテキストフィーチャ値の両方を、第1のクラシファイヤ(210、710)に入力すること(608);
−第1のクラシファイヤを実行することであって、それにより第1のクラシファイヤが各オブジェクトの第1のオブジェクトフィーチャ値と第1のコンテキストフィーチャ値とを、前記オブジェクトについて、前記オブジェクトがオブジェクトクラスのメンバーである第1の可能性(216,714)を自動的に決定するための入力として使用する、実行すること(610)
を含む方法を実施させる、解釈可能な命令を含む画像解析システム。
[実施態様45]
第1の可能性の決定が、第1のクラシファイヤにより、複数のオブジェクトクラスのうちの一つに対するオブジェクトのメンバーシップ以外の要因により生じる第1のオブジェクトフィーチャ値のばらつきを平均化するために、第1のコンテキストフィーチャ値を使用することを含む、実施態様44に記載のシステム。
[実施態様46]
方法がさらに:
a)各オブジェクトについて、前記オブジェクトの第2のオブジェクトフィーチャの第2のオブジェクトフィーチャ値(206、706)を同定するために、デジタル画像を解析すること;
b)各々が、デジタル画像内の複数のオブジェクトの第2のオブジェクトフィーチャ値又はその他のオブジェクトフィーチャ値から導出されるものであるか、又はデジタル画像の複数のピクセルから導出されるものである、一又は複数の第2のコンテキストフィーチャ値(208、708)を計算するために、デジタル画像を解析すること(708);
c)オブジェクトの各々の第2のオブジェクトフィーチャ値と、前記デジタル画像の第2のコンテキストフィーチャ値の両方を、第2のクラシファイヤ(212、712)に入力すること;
d)オブジェクトの各々について、オブジェクトの第2のオブジェクトフィーチャ値及び一又は複数の第2のコンテキストフィーチャ値を使用することにより、オブジェクトクラスのメンバーである第2の可能性(218、716)を自動的決定するために、第2のクラシファイヤを実行すること;並びに
−オブジェクトの各々について、前記オブジェクトについて計算された第1及び第2の可能性に基づいて、オブジェクトクラスのメンバーである合成された可能性(718)を計算すること
を含む、実施態様44又は45に記載のシステム。
[実施態様47]
オブジェクトクラスの各オブジェクトが、少なくとも一つのさらなるオブジェクトフィーチャを割り付けており、システムが、第1及び第2のクラシファイヤを備え、さらにさらなるプロパティの各々のためのさらなるクラシファイヤをさらに備え、方法がさらに:
−各オブジェクトがオブジェクトクラスのメンバーであるさらなる可能性をそれぞれ計算するために、さらなるプロパティの各々について工程a)からd)を繰り返すこと;及び
−オブジェクトの各々について、第1及び第2の可能性並びにさらなる可能性の各々に基づいてオブジェクトクラスのメンバーである合成された可能性を計算すること
を含む、実施態様46に記載のシステム。
[実施態様48]
−デジタル画像が生物学的試料の画像又は組織スライド全体であるか;又は
−デジタル画像が、生物学的試料の画像内部の小区域又は組織スライド全体の内部の小区域である、
実施態様44から47のいずれか一項に記載のシステム。
[実施態様49]
方法が:
−プロパティのうちの一又は複数に関して、前記デジタル画像の他の小区域内のオブジェクトより不均一性の低いオブジェクトを有するデジタル画像の小区域を、自動的に又は手動で同定することにより、小区域を選択すること;及び
−同定された小区域を、第1、第2及び/又はさらなるコンテキストフィーチャ値が計算されるデジタル画像として使用すること
を含む、実施態様48に記載のシステム。
[実施態様50]
−第1のコンテキストフィーチャ値が、画像間のばらつきによって生じた第1のオブジェクトフィーチャ値のばらつきを示す;及び/又は
−第2のコンテキストフィーチャ値が、画像間のばらつきによって生じた第2のオブジェクトフィーチャ値のばらつきを示す;及び/又は
−さらなるコンテキストフィーチャ値の各々が、画像間のばらつきによって生じたそれぞれのさらなるオブジェクトフィーチャ値のばらつきを示す、
実施態様44から49のいずれか一項に記載のシステム。
[実施態様51]
−第1のコンテキストフィーチャ値の計算が、デジタル画像内の複数のオブジェクト又はピクセルの第1のオブジェクトフィーチャ値の統計的平均を計算することを含む;及び/又は
−第2のコンテキストフィーチャ値の計算が、デジタル画像内の複数のオブジェクト又はピクセルの第2のオブジェクトフィーチャ値の統計的平均を計算することを含む;及び/又は
−さらなるコンテキストフィーチャ値の各々の計算が、デジタル画像内の複数のオブジェクト又はピクセルのさらなるオブジェクトフィーチャ値それぞれの統計的平均を計算することを含む、
実施態様44から50のいずれか一項に記載のシステム。
[実施態様52]
オブジェクトクラスが、リンパ球、腫瘍細胞、特定の組織型の細胞、特定のバイオマーカーで陽性に染色された細胞、前記細胞型のうちのいずれか一つの核のうちの一つである、実施態様44から51のいずれか一項に記載のシステム。
[実施態様53]
−第1のオブジェクトフィーチャが:
i.染色又はオブジェクトに結合したバイオマーカーの量と相関する、オブジェクトの強度値;
ii.オブジェクトの直径;
iii.オブジェクトのサイズ;
iv.形状プロパティ;
v.一つのオブジェクトから次の隣接オブジェクトまでの距離;
vi.テクスチャプロパティ;
のうちの一つであり、
−第2及び/又はさらなるオブジェクトフィーチャが解析される場合、第2のオブジェクトフィーチャ又はさらなるオブジェクトフィーチャはプロパティiからviの残りのうちの一つである、
実施態様44から52のいずれか一項に記載のシステム。
[実施態様54]
それぞれのクラシファイヤに入力される値を有する第1、第2及び/又はさらなるプロパティが:
−手作業により特定されるか;又は
−高度なフィーチャ発見方法によって特定されるか;又は
−最小冗長性及び最大関連性(mRMR)ルールによって特定される、
実施態様44から54のいずれか一項に記載のシステム。
[実施態様55]
オブジェクトの第1、第2及び/又はさらなるオブジェクトフィーチャが:
−デジタル画像内のすべてのオブジェクト内で変動する、及び/又は
−スライド全体の画像である同じデジタル画像のオブジェクト内で変動する、及び/又は
−スライド全体の画像の小区画である同じデジタル画像内で変動する、及び/又は
−同じ生物体の異なる組織試料から得られた異なるデジタル画像に属するオブジェクト内で変動する;及び/又は
−同じ種の異なる個体内で変動する、
実施態様44から55のいずれか一項に記載のシステム。
[実施態様56]
方法が、第1のクラシファイヤを:
−未訓練バージョンの第1のクラシファイヤにより、記憶媒体から複数のデジタル訓練画像を読むことであって、各訓練デジタル画像がそれぞれ一又は複数の異なるオブジェクトクラスのオブジェクトを表わす複数のピクセルブロブを含み、各ピクセルブロブがオブジェクトクラスのメンバー又は非メンバーとして注釈付けされる、読むこと、
−注釈付けされた各ピクセルブロブについて、前記ピクセルブロブの第1のオブジェクトフィーチャの訓練第1オブジェクトフィーチャ値を同定するために、訓練デジタル画像の各々を解析すること、
−訓練第1コンテキストフィーチャ値を計算するために、訓練デジタル画像の各々を解析することであって、訓練第1コンテキストフィーチャ値が、前記訓練デジタル画像内の複数のピクセルブロブの訓練第1オブジェクトフィーチャ値又はその他訓練オブジェクトフィーチャ値から導出されるものであるか、又は訓練画像の複数のピクセルから導出されるものである、解析すること、
−ピクセルブロブの各々について、少なくとも注釈付け、訓練第1オブジェクトフィーチャ値及び訓練第1コンテキストフィーチャ値を未訓練バージョンの第1のクラシファイヤに入力することにより、未訓練バージョンの第1のクラシファイヤを訓練することであって、それにより第1のクラシファイヤを生成し、第1のクラシファイヤは、前記オブジェクトの第1のオブジェクトフィーチャ値の、前記特定のオブジェクトクラスのメンバーであるとして注釈付けされたピクセルブロブの訓練第1オブジェクトフィーチャ値に対する類似性が、前記特定のオブジェクトクラスのメンバーでないとして注釈付けされたピクセルブロブの訓練第1オブジェクトフィーチャ値に対する類似性より高い場合に、オブジェクトが特定のオブジェクトクラスのメンバーであるより高い可能を計算するように構成されており、これにより可能性が、第1の又はその他のコンテキストフィーチャ値に含まれる画像内コンテキスト情報にさらに依存する、訓練すること
によって生成することをさらに含む、実施態様44から55のいずれか一項に記載のシステム。
[実施態様57]
−第1のクラシファイヤの第1の可能性の計算が、第1のクラシファイヤにより、複数のオブジェクトクラスのうちの一つに対するオブジェクトのメンバーシップ以外の要因により生じた第1のオブジェクトフィーチャ値のばらつきを平均化するために、第1のコンテキストフィーチャ値を使用することを含み、
−未訓練バージョンの第1のクラシファイヤの訓練が、第1のクラシファイヤにより、オブジェクトを分類するために第1のオブジェクトフィーチャを用いて第1のクラシファイヤの分類精度を向上させることのできる複数のプロパティのうちの一つを同定することを含み、同定されたプロパティが、分類精度を、複数のオブジェクトクラスのうちの一つに対するオブジェクトのメンバーシップ以外の要因により生じた第1のオブジェクトフィーチャ値のばらつきを平均化することにより向上させ、訓練が、前記オブジェクトの第1のオブジェクトフィーチャ値を入力として使用することにより、同定されたプロパティについて計算された入力コンテキストフィーチャ値が、オブジェクトについて計算された可能性を調節するように、第1のクラシファイヤのクラシファイヤモデルを修正することを含む、
実施態様44から56のいずれか一項に記載のシステム。
[実施態様58]
画像解析のプロセッサによって実施される、生物学的試料44−58のデジタル画像内の特定のオブジェクトクラスに属するオブジェクトを同定するための画像解析方法であって:
−デジタル画像中のオブジェクトを自動的に又は半自動的に同定するためにデジタル画像を解析すること(602);
−各オブジェクトについて、前記オブジェクトの第1のオブジェクトフィーチャの第1のオブジェクトフィーチャ値(702)を同定するために、デジタル画像を解析すること(604);
−各々が、デジタル画像中の複数のオブジェクトの第1のオブジェクトフィーチャ値又はその他のオブジェクトフィーチャ値から導出されるものであるか、又はデジタル画像の複数のピクセルから導出されるものである、一又は複数の第1のコンテキストフィーチャ値(704)を計算するために、デジタル画像を解析すること(606);
−デジタル画像中のオブジェクトの各々の第1のオブジェクトフィーチャ値及び前記デジタル画像の第1のコンテキストフィーチャ値の両方を、第1のクラシファイヤ(710)に入力すること(608);
−第1のクラシファイヤを実行し、それにより第1のクラシファイヤが各オブジェクトの第1のオブジェクトフィーチャ値と一又は複数の第1のコンテキストフィーチャ値とを、前記オブジェクトについて、前記オブジェクトがオブジェクトクラスのメンバーである第1の可能性(714)を自動的に決定するための入力として使用すること(610)
を含む方法。
Claims (58)
- 生物学的試料の画像(102、104、106、108)内のオブジェクトのコンテキスト認識フィーチャ(216、218、714、716)を自動的に計算する方法であって、クラシファイヤ機能(210、212、710、712)を実施するようにプログラムされた生体画像解析デバイス上において画像を解析することを含み、クラシファイヤ機能は、オブジェクトの少なくとも一つのコンテキスト認識フィーチャを:
−オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャ(202、206、702、706)であって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
−オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャ(204、208、704、708)であって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより計算する、方法。 - オブジェクトフィーチャが、経験的に、又は高度なフィーチャ発見方法により、又は最小冗長性及び最大関連性(mRMR)ルールにより同定される、請求項1に記載の方法。
- 少なくとも一つのコンテキストフィーチャは、異なる画像における同じオブジェクトフィーチャの画像間のばらつきを取り込むことができる、請求項1又は2に記載の方法。
- 少なくとも一つのコンテキストフィーチャがオブジェクトフィーチャのグループ統計である、請求項1から3のいずれか一項に記載の方法。
- −コンテキスト認識フィーチャが、クラシファイヤ機能により生成される数値であって、オブジェクトがあるクラスに属する度合いを表す数値を表し、及び/又は
−画像が生物学的試料の画像若しくは組織スライド全体であるか、又は画像が生物学的試料の画像の小区域若しくは組織スライド全体である、
請求項1から4のいずれか一項に記載の方法。 - 画像から少なくとも一つのオブジェクトフィーチャと少なくとも一つのコンテキストフィーチャとを抽出するために、画像解析デバイスにより画像を自動的に又は半自動的に解析することをさらに含む、請求項1から5のいずれか一項に記載の方法。
- 少なくとも一つのコンテキスト認識フィーチャの計算が、クラシファイヤ機能により、複数のオブジェクトクラスのうちの一つに対するオブジェクトのメンバーシップ以外の要因により生じるオブジェクトフィーチャのばらつきを平均化するためのコンテキストフィーチャを使用することを含む、請求項1から6のいずれか一項に記載の方法。
- さらに:
−画像を解析し、少なくとも一つのコンテキストフィーチャを、画像内の複数のオブジェクトのオブジェクトフィーチャから導出されるものとして、又は複数のオブジェクトの別のオブジェクトフィーチャから導出されるものとして、又は画像の複数のピクセルから導出されるものとして、計算すること
を含む、請求項1から7のいずれか一項に記載の方法。 - さらに:
−画像を解析してさらなるクラシファイヤ機能を実施すること
を含み、さらなるクラシファイヤ機能は、オブジェクトの少なくとも一つのさらなるコンテキスト認識フィーチャを:
−オブジェクトから、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易い少なくとも一つのさらなるオブジェクトフィーチャを抽出すること;及び
−さらなるオブジェクトフィーチャに関連付けられる少なくとも一つのさらなるコンテキストフィーチャであって、各々が、さらなるオブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示すさらなるコンテキストフィーチャを抽出すること、
−少なくとも一つのさらなるオブジェクトフィーチャと少なくとも一つのさらなるコンテキストフィーチャを組み合わせること
により計算する、請求項1から8のいずれか一項に記載の方法。 - さらに:
−未訓練バージョンのクラシファイイング機能を、正確に一つのオブジェクトフィーチャと前記一つのオブジェクトフィーチャに関連付けられる一又は複数のコンテキストフィーチャとについて訓練することにより、前記クラシファイヤ機能を生成することであって、クラシファイヤ機能によるオブジェクトのうちの一つのコンテキスト認識フィーチャの計算が、前記オブジェクトの一つのオブジェクトフィーチャの値を使用すること、及び関連付けられたコンテキストフィーチャの各々の値を入力として使用すること、及び他のいずれのオブジェクトフィーチャの値も入力として用いないことを含む、クラシファイヤ機能を生成すること;及び/又は
−未訓練バージョンのさらなるクラシファイイング機能を、正確に一つのさらなるオブジェクトフィーチャと前記一つのさらなるオブジェクトフィーチャに関連付けられる一又は複数のさらなるコンテキストフィーチャとについて訓練することにより、前記さらなるクラシファイヤ機能を生成することであって、さらなるクラシファイヤ機能によるオブジェクトのうちの一つのさらなるコンテキスト認識フィーチャの計算が、前記オブジェクトの一つのさらなるオブジェクトフィーチャの値を使用すること、及び関連付けられたさらなるコンテキストフィーチャの各々の値を入力として使用すること、及び他のいずれのオブジェクトフィーチャの値も入力として用いないことを含む、さらなるクラシファイヤ機能を生成すること
を含む、請求項9に記載の方法。 - −コンテキストフィーチャ値が、デジタル画像の一グループのオブジェクト又は一グループのピクセルから導出された、画像間のばらつきによって生じた画像内のオブジェクトのオブジェクトフィーチャのばらつきを補償することのできる値である、請求項1から10のいずれか一項に記載の方法。
- オブジェクトフィーチャが:
i. オブジェクトの強度値;
ii. オブジェクトの直径;
iii. オブジェクトのサイズ;
iv. 形状プロパティ;
v. 一つのオブジェクトから次の隣接オブジェクトまでの距離;
vi. テクスチャプロパティ
のうちの一つである、請求項1から11のいずれか一項に記載の方法。 - オブジェクトとコンテキストフィーチャが:
−手作業により特定されるか;又は
−高度なフィーチャ発見方法によって特定されるか;又は
−最小冗長性及び最大関連性(mRMR)ルールによって特定される、
請求項1から12のいずれか一項に記載の方法。 - −コンテキスト認識フィーチャの計算が、複数のオブジェクトクラスのうちの一つに対するオブジェクトのメンバーシップ以外の要因により生じたオブジェクトフィーチャのばらつきを平均化するためのコンテキストフィーチャを使用することを含む、及び/又は、
−クラシファイヤ機能を訓練することが、オブジェクトを分類するためにオブジェクトフィーチャを使用するクラシファイヤ機能の分類精度を向上させることのできるコンテキストフィーチャを同定することを含み、同定されたコンテキストフィーチャは、複数のオブジェクトクラスのうちの一つに対するオブジェクトのメンバーシップ以外の要因により生じたオブジェクトフィーチャのばらつきを平均化することにより分類精度を向上させる、
請求項1から13のいずれか一項に記載の方法。 - クラシファイヤ機能を事前訓練することをさらに含み、生物学的試料の複数の異なる画像に由来するオブジェクトの訓練セットを、生体画像解析デバイス上において解析することを含み、生体画像解析デバイスが、訓練セットの各オブジェクトについてオブジェクトがオブジェクトのあるクラスに属する可能性を計算することにより、クラシファイヤ訓練機能を実施するようにプログラムされ、前記可能性の計算が:
−オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャであって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
−オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャであって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより行われ、
事前訓練されたクラシファイヤ機能によって生成される、オブジェクトがオブジェクトのあるクラスに属する可能性が、コンテキスト認識フィーチャである、請求項1から14のいずれか一項に記載の方法。 - 生体画像解析デバイスのエンドクラシファイヤ機能を訓練して画像のオブジェクトを同定することをさらに含み、生体画像解析デバイス上において複数の異なる画像由来のオブジェクトの訓練セットを解析することを含み、生体画像解析デバイスは、訓練の各オブジェクトについて、オブジェクトがオブジェクトのあるクラスに属する可能性を計算することにより、エンドクラシファイヤ訓練機能を実施するようにプログラムされており、前記可能性の計算が:
−オブジェクトの少なくとも一つのコンテキスト認識フィーチャであって、
・オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャであって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
・オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャであって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより得られたコンテキスト認識フィーチャ、並びに
−オブジェクトの追加フィーチャ
を組み合わせることにより行われる、請求項1から15のいずれか一項に記載の方法。 - オブジェクトの追加フィーチャが、オブジェクトのさらなるオブジェクトフィーチャ又はオブジェクトのさらなるコンテキスト認識フィーチャであり、さらなるコンテキスト認識フィーチャが、さらなるクラシファイヤ機能により:
・画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易い、オブジェクトから抽出される少なくとも一つのさらなるオブジェクトフィーチャ;及び
・さらなるオブジェクトフィーチャに関連付けられる少なくとも一つのさらなるコンテキストフィーチャであって、各々が、さらなるオブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示す、少なくとも一つのさらなるコンテキストフィーチャ
を組み合わせることにより計算される、請求項16に記載の方法。 - エンドクラシファイヤの訓練が、複数の異なるクラシファイヤのうちそれぞれにより計算されたコンテキスト認識フィーチャを組み合わせることを含み、各クラシファイヤがそれぞれの単一のオブジェクトフィーチャと一又は複数の関連するコンテキストフィーチャとについて訓練される、請求項17に記載の方法。
- 生物学的試料の画像のオブジェクトのコンテキスト認識フィーチャ(204、208)を計算するように生体画像解析デバイスのクラシファイヤ機能を事前訓練する方法であって、生体画像解析デバイス上において、生物学的試料の複数の異なる画像由来のオブジェクトの訓練セットを解析することを含み、生体画像解析デバイスは、訓練セットの各オブジェクトについて、オブジェクトがオブジェクトのあるクラスに属する可能性を計算することにより、クラシファイヤ訓練機能を実施するようにプログラムされており、前記可能性の計算が:
−オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャであって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
−オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャであって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより行われ、
事前訓練されたクラシファイヤ関数によって生成される、オブジェクトがオブジェクトのあるクラスに属する可能性が、コンテキスト認識フィーチャである、方法。 - オブジェクトフィーチャが、経験的に、又は高度なフィーチャ発見方法により、又は最小冗長性及び最大関連性(mRMR)ルールにより、同定される、請求項19に記載の方法。
- 少なくとも一つのコンテキストフィーチャは、異なる画像における同じオブジェクトフィーチャの画像間のばらつきを取り込むことができる、請求項19又は20に記載の方法。
- 少なくとも一つのコンテキストフィーチャがオブジェクトフィーチャのグループ統計である、請求項19から21のいずれか一項に記載の方法。
- 画像のオブジェクトを同定するように生体画像解析デバイスのエンドクラシファイヤ機能を訓練する方法であって、生体画像解析デバイス上において、複数の異なる画像由来のオブジェクトの訓練セットを解析することを含み、生体画像解析デバイスは、訓練の各オブジェクトについて、オブジェクトがオブジェクトのあるクラスに属する可能性を計算することにより、エンドクラシファイヤ訓練機能を実施するようにプログラムされており、前記可能性の計算が:
−オブジェクトの少なくとも一つのコンテキスト認識フィーチャであって:
・オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャであって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
・オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャであって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより得られたコンテキスト認識フィーチャ、並びに
−オブジェクトの追加フィーチャ
を組み合わせることにより行われる、方法。 - オブジェクトの少なくとも一つの追加フィーチャが追加オブジェクトフィーチャである、請求項23に記載の方法。
- オブジェクトフィーチャが、経験的に、又は高度なフィーチャ発見方法により、又は最小冗長性及び最大関連性(mRMR)ルールにより、同定される、請求項24に記載の方法。
- 少なくとも一つのコンテキストフィーチャは、異なる画像における同じオブジェクトフィーチャの画像間のばらつきを取り込むことができる、請求項24又は25に記載の方法。
- 少なくとも一つのコンテキストフィーチャがオブジェクトフィーチャのグループ統計である、請求項24から26のいずれか一項に記載の方法。
- オブジェクトの少なくとも一つの追加フィーチャが追加コンテキスト認識フィーチャである、請求項24から27のいずれか一項に記載の方法。
- 別個のコンテキスト認識クラシファイヤが、追加コンテキスト認識フィーチャを計算するように訓練される、請求項28に記載の方法。
- 試験画像内のオブジェクトを同定する方法であって、試験画像内のオブジェクトのコンテキスト認識フィーチャを計算するためのクラシファイヤ機能を実施するようにプログラムされた生体画像解析デバイス上で試験画像を解析することを含み、前記計算が:
−オブジェクトから抽出された少なくとも一つのオブジェクトフィーチャであって、画像のコンテキストにおいてオブジェクトの特徴を示し、かつ画像間のばらつきの影響を受け易いオブジェクトフィーチャと;
−オブジェクトフィーチャに関連付けられる少なくとも一つのコンテキストフィーチャであって、各々が、オブジェクトフィーチャが抽出された画像内部の一グループのオブジェクト又はピクセルの特徴を示す、コンテキストフィーチャと
を組み合わせることにより行われる、方法。 - オブジェクトフィーチャが、経験的に、又は高度なフィーチャ発見方法により、又は最小冗長性及び最大関連性(mRMR)ルールにより、同定される、請求項30に記載の方法。
- 少なくとも一つのコンテキストフィーチャは、異なる画像における同じオブジェクトフィーチャの画像間のばらつきを取り込むことができる、請求項30又は31に記載の方法。
- 少なくとも一つのコンテキストフィーチャがオブジェクトフィーチャのグループ統計である、請求項30から32のいずれか一項に記載の方法。
- エンドクラシファイヤが、コンテキスト認識フィーチャと、試験画像内のオブジェクトの追加フィーチャとを組み合わせて、オブジェクトがあるクラスに属する可能性を計算する、請求項30から33のいずれか一項に記載の方法。
- 少なくとも一つの追加フィーチャが、オブジェクトから抽出された追加オブジェクトフィーチャである、請求項34に記載の方法。
- オブジェクトの少なくとも一つの追加フィーチャが追加のコンテキスト認識フィーチャである、請求項34又は35に記載の方法。
- 別個のコンテキスト認識クラシファイヤが、追加コンテキスト認識フィーチャを計算するように訓練される、請求項34から36のいずれか一項に記載の方法。
- 生物学的試料の試験画像内のオブジェクトを同定する方法であって、オブジェクトがオブジェクトのあるクラスに属する可能性を計算することによりエンドクラシファイヤ機能を実施するようにプログラムされた生体画像解析デバイス上でオブジェクトを解析することを含み、上記可能性の計算が、オブジェクトのコンテキスト認識フィーチャとオブジェクトの少なくとも一つの追加フィーチャを組み合わせることにより行われ、エンドクラシファイヤ機能が、請求項23から29のいずれか一項に記載の方法に従って訓練される、方法。
- 事前訓練されたクラシファイヤがコンテキスト認識フィーチャを計算する、請求項38に記載の方法。
- 生物学的試料の画像内のオブジェクを同定するためのシステムであって、生体画像解析デバイスを備え、生体画像解析デバイスが:
プロセッサ;及び
プロセッサに連結された、コンピュータで実行可能な命令を記憶するメモリであって、前記命令は、プロセッサによって実行されると、プロセッサに、請求項1から36のいずれか一項に記載の方法を含む工程を実施させるメモリ
を備えるシステム。 - 生体画像解析デバイス又は生物学的試料の画像をデジタル方式で記憶することのできる非一時的なコンピュータ可読記憶媒体に動作可能に連結された画像化装置をさらに備える、請求項40に記載のシステム。
- 生物学的試料の画像をデジタル方式で記憶する非一時的なコンピュータ可読記憶媒体をさらに備える、請求項41に記載のシステム。
- プロセッサにより実行されて、請求項1から39のいずれか一項に記載の方法を含む工程を実施するコンピュータで実行可能な命令を記憶するための非一時的なコンピュータ可読記憶媒体。
- 生物学的試料のデジタル画像(102−108)内の特定のオブジェクトクラスに属するオブジェクトを同定するための画像解析システムであって、プロセッサとメモリを備え、メモリが、プロセッサにより実行されるとき、プロセッサに、
−デジタル画像中のオブジェクトを自動的に又は半自動的に同定するためにデジタル画像を解析すること(602);
−各オブジェクトについて、前記オブジェクトの第1のオブジェクトフィーチャの第1のオブジェクトフィーチャ値(202、702)を同定するために、デジタル画像を解析すること(604);
−第1のコンテキストフィーチャ値(204、704)を計算するためにデジタル画像を解析することであって、第1のコンテキストフィーチャ値が、デジタル画像内の複数のオブジェクトの第1のオブジェクトフィーチャ値又はその他のオブジェクトフィーチャ値から導出されるものであるか、又はデジタル画像の複数のピクセルから導出されるものである、デジタル画像を解析すること(606);
−デジタル画像中のオブジェクトの第1のオブジェクトフィーチャ値と、前記デジタル画像の第1のコンテキストフィーチャ値の両方を、第1のクラシファイヤ(210、710)に入力すること(608);
−第1のクラシファイヤを実行することであって、それにより第1のクラシファイヤが各オブジェクトの第1のオブジェクトフィーチャ値と第1のコンテキストフィーチャ値とを、前記オブジェクトについて、前記オブジェクトがオブジェクトクラスのメンバーである第1の可能性(216,714)を自動的に決定するための入力として使用する、実行すること(610)
を含む方法を実施させる、解釈可能な命令を含む画像解析システム。 - 第1の可能性の決定が、第1のクラシファイヤにより、複数のオブジェクトクラスのうちの一つに対するオブジェクトのメンバーシップ以外の要因により生じる第1のオブジェクトフィーチャ値のばらつきを平均化するために、第1のコンテキストフィーチャ値を使用することを含む、請求項44に記載のシステム。
- 方法がさらに:
a)各オブジェクトについて、前記オブジェクトの第2のオブジェクトフィーチャの第2のオブジェクトフィーチャ値(206、706)を同定するために、デジタル画像を解析すること;
b)各々が、デジタル画像内の複数のオブジェクトの第2のオブジェクトフィーチャ値又はその他のオブジェクトフィーチャ値から導出されるものであるか、又はデジタル画像の複数のピクセルから導出されるものである、一又は複数の第2のコンテキストフィーチャ値(208、708)を計算するために、デジタル画像を解析すること(708);
c)オブジェクトの各々の第2のオブジェクトフィーチャ値と、前記デジタル画像の第2のコンテキストフィーチャ値の両方を、第2のクラシファイヤ(212、712)に入力すること;
d)オブジェクトの各々について、オブジェクトの第2のオブジェクトフィーチャ値及び一又は複数の第2のコンテキストフィーチャ値を使用することにより、オブジェクトクラスのメンバーである第2の可能性(218、716)を自動的決定するために、第2のクラシファイヤを実行すること;並びに
−オブジェクトの各々について、前記オブジェクトについて計算された第1及び第2の可能性に基づいて、オブジェクトクラスのメンバーである合成された可能性(718)を計算すること
を含む、請求項44又は45に記載のシステム。 - オブジェクトクラスの各オブジェクトが、少なくとも一つのさらなるオブジェクトフィーチャを割り付けており、システムが、第1及び第2のクラシファイヤを備え、さらにさらなるプロパティの各々のためのさらなるクラシファイヤをさらに備え、方法がさらに:
−各オブジェクトがオブジェクトクラスのメンバーであるさらなる可能性をそれぞれ計算するために、さらなるプロパティの各々について工程a)からd)を繰り返すこと;及び
−オブジェクトの各々について、第1及び第2の可能性並びにさらなる可能性の各々に基づいてオブジェクトクラスのメンバーである合成された可能性を計算すること
を含む、請求項46に記載のシステム。 - −デジタル画像が生物学的試料の画像又は組織スライド全体であるか;又は
−デジタル画像が、生物学的試料の画像内部の小区域又は組織スライド全体の内部の小区域である、
請求項44から47のいずれか一項に記載のシステム。 - 方法が:
−プロパティのうちの一又は複数に関して、前記デジタル画像の他の小区域内のオブジェクトより不均一性の低いオブジェクトを有するデジタル画像の小区域を、自動的に又は手動で同定することにより、小区域を選択すること;及び
−同定された小区域を、第1、第2及び/又はさらなるコンテキストフィーチャ値が計算されるデジタル画像として使用すること
を含む、請求項48に記載のシステム。 - −第1のコンテキストフィーチャ値が、画像間のばらつきによって生じた第1のオブジェクトフィーチャ値のばらつきを示す;及び/又は
−第2のコンテキストフィーチャ値が、画像間のばらつきによって生じた第2のオブジェクトフィーチャ値のばらつきを示す;及び/又は
−さらなるコンテキストフィーチャ値の各々が、画像間のばらつきによって生じたそれぞれのさらなるオブジェクトフィーチャ値のばらつきを示す、
請求項44から49のいずれか一項に記載のシステム。 - −第1のコンテキストフィーチャ値の計算が、デジタル画像内の複数のオブジェクト又はピクセルの第1のオブジェクトフィーチャ値の統計的平均を計算することを含む;及び/又は
−第2のコンテキストフィーチャ値の計算が、デジタル画像内の複数のオブジェクト又はピクセルの第2のオブジェクトフィーチャ値の統計的平均を計算することを含む;及び/又は
−さらなるコンテキストフィーチャ値の各々の計算が、デジタル画像内の複数のオブジェクト又はピクセルのさらなるオブジェクトフィーチャ値それぞれの統計的平均を計算することを含む、
請求項44から50のいずれか一項に記載のシステム。 - オブジェクトクラスが、リンパ球、腫瘍細胞、特定の組織型の細胞、特定のバイオマーカーで陽性に染色された細胞、前記細胞型のうちのいずれか一つの核のうちの一つである、請求項44から51のいずれか一項に記載のシステム。
- −第1のオブジェクトフィーチャが:
i.染色又はオブジェクトに結合したバイオマーカーの量と相関する、オブジェクトの強度値;
ii.オブジェクトの直径;
iii.オブジェクトのサイズ;
iv.形状プロパティ;
v.一つのオブジェクトから次の隣接オブジェクトまでの距離;
vi.テクスチャプロパティ;
のうちの一つであり、
−第2及び/又はさらなるオブジェクトフィーチャが解析される場合、第2のオブジェクトフィーチャ又はさらなるオブジェクトフィーチャはプロパティiからviの残りのうちの一つである、
請求項44から52のいずれか一項に記載のシステム。 - それぞれのクラシファイヤに入力される値を有する第1、第2及び/又はさらなるプロパティが:
−手作業により特定されるか;又は
−高度なフィーチャ発見方法によって特定されるか;又は
−最小冗長性及び最大関連性(mRMR)ルールによって特定される、
請求項44から54のいずれか一項に記載のシステム。 - オブジェクトの第1、第2及び/又はさらなるオブジェクトフィーチャが:
−デジタル画像内のすべてのオブジェクト内で変動する、及び/又は
−スライド全体の画像である同じデジタル画像のオブジェクト内で変動する、及び/又は
−スライド全体の画像の小区画である同じデジタル画像内で変動する、及び/又は
−同じ生物体の異なる組織試料から得られた異なるデジタル画像に属するオブジェクト内で変動する;及び/又は
−同じ種の異なる個体内で変動する、
請求項44から55のいずれか一項に記載のシステム。 - 方法が、第1のクラシファイヤを:
−未訓練バージョンの第1のクラシファイヤにより、記憶媒体から複数のデジタル訓練画像を読むことであって、各訓練デジタル画像がそれぞれ一又は複数の異なるオブジェクトクラスのオブジェクトを表わす複数のピクセルブロブを含み、各ピクセルブロブがオブジェクトクラスのメンバー又は非メンバーとして注釈付けされる、読むこと、
−注釈付けされた各ピクセルブロブについて、前記ピクセルブロブの第1のオブジェクトフィーチャの訓練第1オブジェクトフィーチャ値を同定するために、訓練デジタル画像の各々を解析すること、
−訓練第1コンテキストフィーチャ値を計算するために、訓練デジタル画像の各々を解析することであって、訓練第1コンテキストフィーチャ値が、前記訓練デジタル画像内の複数のピクセルブロブの訓練第1オブジェクトフィーチャ値又はその他訓練オブジェクトフィーチャ値から導出されるものであるか、又は訓練画像の複数のピクセルから導出されるものである、解析すること、
−ピクセルブロブの各々について、少なくとも注釈付け、訓練第1オブジェクトフィーチャ値及び訓練第1コンテキストフィーチャ値を未訓練バージョンの第1のクラシファイヤに入力することにより、未訓練バージョンの第1のクラシファイヤを訓練することであって、それにより第1のクラシファイヤを生成し、第1のクラシファイヤは、前記オブジェクトの第1のオブジェクトフィーチャ値の、前記特定のオブジェクトクラスのメンバーであるとして注釈付けされたピクセルブロブの訓練第1オブジェクトフィーチャ値に対する類似性が、前記特定のオブジェクトクラスのメンバーでないとして注釈付けされたピクセルブロブの訓練第1オブジェクトフィーチャ値に対する類似性より高い場合に、オブジェクトが特定のオブジェクトクラスのメンバーであるより高い可能を計算するように構成されており、これにより可能性が、第1の又はその他のコンテキストフィーチャ値に含まれる画像内コンテキスト情報にさらに依存する、訓練すること
によって生成することをさらに含む、請求項44から55のいずれか一項に記載のシステム。 - −第1のクラシファイヤの第1の可能性の計算が、第1のクラシファイヤにより、複数のオブジェクトクラスのうちの一つに対するオブジェクトのメンバーシップ以外の要因により生じた第1のオブジェクトフィーチャ値のばらつきを平均化するために、第1のコンテキストフィーチャ値を使用することを含み、
−未訓練バージョンの第1のクラシファイヤの訓練が、第1のクラシファイヤにより、オブジェクトを分類するために第1のオブジェクトフィーチャを用いて第1のクラシファイヤの分類精度を向上させることのできる複数のプロパティのうちの一つを同定することを含み、同定されたプロパティが、分類精度を、複数のオブジェクトクラスのうちの一つに対するオブジェクトのメンバーシップ以外の要因により生じた第1のオブジェクトフィーチャ値のばらつきを平均化することにより向上させ、訓練が、前記オブジェクトの第1のオブジェクトフィーチャ値を入力として使用することにより、同定されたプロパティについて計算された入力コンテキストフィーチャ値が、オブジェクトについて計算された可能性を調節するように、第1のクラシファイヤのクラシファイヤモデルを修正することを含む、
請求項44から56のいずれか一項に記載のシステム。 - 画像解析のプロセッサによって実施される、生物学的試料44−58のデジタル画像内の特定のオブジェクトクラスに属するオブジェクトを同定するための画像解析方法であって:
−デジタル画像中のオブジェクトを自動的に又は半自動的に同定するためにデジタル画像を解析すること(602);
−各オブジェクトについて、前記オブジェクトの第1のオブジェクトフィーチャの第1のオブジェクトフィーチャ値(702)を同定するために、デジタル画像を解析すること(604);
−各々が、デジタル画像中の複数のオブジェクトの第1のオブジェクトフィーチャ値又はその他のオブジェクトフィーチャ値から導出されるものであるか、又はデジタル画像の複数のピクセルから導出されるものである、一又は複数の第1のコンテキストフィーチャ値(704)を計算するために、デジタル画像を解析すること(606);
−デジタル画像中のオブジェクトの各々の第1のオブジェクトフィーチャ値及び前記デジタル画像の第1のコンテキストフィーチャ値の両方を、第1のクラシファイヤ(710)に入力すること(608);
−第1のクラシファイヤを実行し、それにより第1のクラシファイヤが各オブジェクトの第1のオブジェクトフィーチャ値と一又は複数の第1のコンテキストフィーチャ値とを、前記オブジェクトについて、前記オブジェクトがオブジェクトクラスのメンバーである第1の可能性(714)を自動的に決定するための入力として使用すること(610)
を含む方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022162165A JP7466606B2 (ja) | 2014-08-04 | 2022-10-07 | コンテキストフィーチャを用いた画像解析システム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462032897P | 2014-08-04 | 2014-08-04 | |
US62/032,897 | 2014-08-04 | ||
JP2017506348A JP2017524196A (ja) | 2014-08-04 | 2015-08-04 | コンテキストフィーチャを用いた画像解析システム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017506348A Division JP2017524196A (ja) | 2014-08-04 | 2015-08-04 | コンテキストフィーチャを用いた画像解析システム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022162165A Division JP7466606B2 (ja) | 2014-08-04 | 2022-10-07 | コンテキストフィーチャを用いた画像解析システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020205063A true JP2020205063A (ja) | 2020-12-24 |
JP7335855B2 JP7335855B2 (ja) | 2023-08-30 |
Family
ID=53800969
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017506348A Withdrawn JP2017524196A (ja) | 2014-08-04 | 2015-08-04 | コンテキストフィーチャを用いた画像解析システム |
JP2020136840A Active JP7335855B2 (ja) | 2014-08-04 | 2020-08-13 | コンテキストフィーチャを用いた画像解析システム |
JP2022162165A Active JP7466606B2 (ja) | 2014-08-04 | 2022-10-07 | コンテキストフィーチャを用いた画像解析システム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017506348A Withdrawn JP2017524196A (ja) | 2014-08-04 | 2015-08-04 | コンテキストフィーチャを用いた画像解析システム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022162165A Active JP7466606B2 (ja) | 2014-08-04 | 2022-10-07 | コンテキストフィーチャを用いた画像解析システム |
Country Status (6)
Country | Link |
---|---|
US (1) | US10565429B2 (ja) |
EP (2) | EP3178035B1 (ja) |
JP (3) | JP2017524196A (ja) |
AU (1) | AU2015299073A1 (ja) |
CA (1) | CA2951600C (ja) |
WO (1) | WO2016020391A2 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10410096B2 (en) * | 2015-07-09 | 2019-09-10 | Qualcomm Incorporated | Context-based priors for object detection in images |
EP3136289A1 (en) * | 2015-08-28 | 2017-03-01 | Thomson Licensing | Method and device for classifying an object of an image and corresponding computer program product and computer-readable medium |
US10108779B2 (en) * | 2015-12-15 | 2018-10-23 | Leica Biosystems Imaging, Inc. | Automatic nuclear segmentation |
US10055669B2 (en) * | 2016-08-12 | 2018-08-21 | Qualcomm Incorporated | Methods and systems of determining a minimum blob size in video analytics |
CN107786867A (zh) * | 2016-08-26 | 2018-03-09 | 原相科技股份有限公司 | 基于深度学习架构的图像辨识方法及系统 |
US10726573B2 (en) | 2016-08-26 | 2020-07-28 | Pixart Imaging Inc. | Object detection method and system based on machine learning |
CN107785016A (zh) * | 2016-08-31 | 2018-03-09 | 株式会社东芝 | 训练神经网络辅助模型的方法和装置及语音识别方法和装置 |
JPWO2018128091A1 (ja) * | 2017-01-05 | 2019-11-07 | コニカミノルタ株式会社 | 画像解析プログラム及び画像解析方法 |
KR102535909B1 (ko) * | 2017-03-12 | 2023-05-23 | 일리티카 엘엘씨 | 디지털 분자 분석 |
JP6862538B2 (ja) * | 2017-04-14 | 2021-04-21 | 株式会社日立ハイテク | 撮像装置および形態特徴データ表示方法 |
US11443179B2 (en) * | 2017-05-19 | 2022-09-13 | Tata Consultancy Services Limited | Simultaneous multi-class learning for data classification |
US11410073B1 (en) * | 2017-05-31 | 2022-08-09 | The Mathworks, Inc. | Systems and methods for robust feature selection |
WO2019079526A1 (en) * | 2017-10-17 | 2019-04-25 | Gnommme Llc | IMAGE SELECTION BASED ON THE CONTEXT |
WO2019102042A1 (en) * | 2017-11-27 | 2019-05-31 | Deciphex | Automated screening of histopathology tissue samples via classifier performance metrics |
ES2684373B2 (es) * | 2017-12-19 | 2019-05-27 | Univ Leon | Procedimiento y sistema de vision artificial para la descripcion y clasificacion automatica de tejidos no patologicos del sistema cardiovascular humano |
WO2019169157A1 (en) * | 2018-02-28 | 2019-09-06 | Visiongate, Inc. | Morphometric detection of malignancy associated change |
EP3844771A1 (en) | 2018-08-31 | 2021-07-07 | Ventana Medical Systems, Inc. | Contextually adaptive digital pathology interface |
US10769432B2 (en) * | 2018-10-10 | 2020-09-08 | Drvision Technologies Llc | Automated parameterization image pattern recognition method |
GB2582644A (en) * | 2019-03-29 | 2020-09-30 | Symetrica Ltd | Nuclear radiation monitoring apparatus and method |
CN114521268A (zh) * | 2019-10-07 | 2022-05-20 | 松下知识产权经营株式会社 | 分类系统、分类方法以及程序 |
US12079950B2 (en) * | 2020-02-14 | 2024-09-03 | Tencent Technology (Shenzhen) Company Limited | Image processing method and apparatus, smart microscope, readable storage medium and device |
US11379697B2 (en) | 2020-05-20 | 2022-07-05 | Bank Of America Corporation | Field programmable gate array architecture for image analysis |
US11295430B2 (en) | 2020-05-20 | 2022-04-05 | Bank Of America Corporation | Image analysis architecture employing logical operations |
KR20230027164A (ko) * | 2020-06-19 | 2023-02-27 | 페이지.에이아이, 인크. | 조직 맵 시각화를 생성하기 위해 전자 이미지를 처리하는 시스템 및 방법 |
CN113050594B (zh) * | 2021-03-11 | 2022-04-19 | 北京航空航天大学 | 一种矢量喷管控制系统的多信息融合故障诊断方法及系统 |
US11960576B2 (en) * | 2021-07-20 | 2024-04-16 | Inception Institute of Artificial Intelligence Ltd | Activity recognition in dark video based on both audio and video content |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004042392A1 (ja) * | 2002-11-07 | 2004-05-21 | Fujitsu Limited | 画像解析支援方法、画像解析支援プログラムおよび画像解析支援装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2200457C (en) * | 1994-09-20 | 2001-08-14 | Shih-Jong J. Lee | Biological analysis system self-calibration apparatus |
US8542899B2 (en) * | 2006-11-30 | 2013-09-24 | Definiens Ag | Automatic image analysis and quantification for fluorescence in situ hybridization |
US7958068B2 (en) * | 2007-12-12 | 2011-06-07 | International Business Machines Corporation | Method and apparatus for model-shared subspace boosting for multi-label classification |
US10013638B2 (en) * | 2008-08-14 | 2018-07-03 | Ping Zhang | Cancer diagnostic method and system |
US20170105668A1 (en) * | 2010-06-07 | 2017-04-20 | Affectiva, Inc. | Image analysis for data collected from a remote computing device |
WO2013106842A2 (en) * | 2012-01-13 | 2013-07-18 | The Charles Stark Draper Laboratory, Inc. | Stem cell bioinformatics |
US20140036054A1 (en) * | 2012-03-28 | 2014-02-06 | George Zouridakis | Methods and Software for Screening and Diagnosing Skin Lesions and Plant Diseases |
JP5984559B2 (ja) * | 2012-07-31 | 2016-09-06 | オリンパス株式会社 | 壊死細胞領域検出装置及びその方法、壊死細胞領域検出プログラム |
JP5668090B2 (ja) * | 2013-01-09 | 2015-02-12 | キヤノン株式会社 | 医療診断支援装置及び医療診断支援方法 |
JP5907125B2 (ja) * | 2013-07-25 | 2016-04-20 | 富士ゼロックス株式会社 | 画像処理装置、プログラム及び画像処理システム |
WO2015054666A1 (en) * | 2013-10-10 | 2015-04-16 | Board Of Regents, The University Of Texas System | Systems and methods for quantitative analysis of histopathology images using multi-classifier ensemble schemes |
US9002085B1 (en) * | 2013-10-22 | 2015-04-07 | Eyenuk, Inc. | Systems and methods for automatically generating descriptions of retinal images |
ES2701092T5 (es) | 2014-02-24 | 2022-05-12 | Ventana Med Syst Inc | Procedimientos, kits y sistemas para puntuar la respuesta inmunitaria al cáncer por detección simultánea de CD3, CD8, CD20 y FOXP3 |
US9922433B2 (en) * | 2015-05-29 | 2018-03-20 | Moira F. Schieke | Method and system for identifying biomarkers using a probability map |
WO2017031099A1 (en) * | 2015-08-20 | 2017-02-23 | Ohio University | Devices and methods for classifying diabetic and macular degeneration |
-
2015
- 2015-08-04 AU AU2015299073A patent/AU2015299073A1/en not_active Abandoned
- 2015-08-04 CA CA2951600A patent/CA2951600C/en active Active
- 2015-08-04 EP EP15748219.1A patent/EP3178035B1/en active Active
- 2015-08-04 WO PCT/EP2015/067972 patent/WO2016020391A2/en active Application Filing
- 2015-08-04 JP JP2017506348A patent/JP2017524196A/ja not_active Withdrawn
- 2015-08-04 EP EP20197555.4A patent/EP3779779A1/en active Pending
-
2017
- 2017-02-06 US US15/425,894 patent/US10565429B2/en active Active
-
2020
- 2020-08-13 JP JP2020136840A patent/JP7335855B2/ja active Active
-
2022
- 2022-10-07 JP JP2022162165A patent/JP7466606B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004042392A1 (ja) * | 2002-11-07 | 2004-05-21 | Fujitsu Limited | 画像解析支援方法、画像解析支援プログラムおよび画像解析支援装置 |
Non-Patent Citations (1)
Title |
---|
MAREK KOWEL, PAWEL FILIPCZUK: "Nuclei Segmentaion for Computer-Aided Diagnosis of Breast Cancer", INTERNATIONAL JOURNAL OF APPLIED MATHEMATICS AND COMPUTER SCIENCE, vol. 24, no. 1, JPN7021004349, 2014, pages 13 - 31, XP055224554, ISSN: 0004919073, DOI: 10.2478/amcs-2014-0002 * |
Also Published As
Publication number | Publication date |
---|---|
EP3779779A1 (en) | 2021-02-17 |
WO2016020391A2 (en) | 2016-02-11 |
JP7335855B2 (ja) | 2023-08-30 |
JP7466606B2 (ja) | 2024-04-12 |
US20170243051A1 (en) | 2017-08-24 |
CA2951600A1 (en) | 2016-02-11 |
EP3178035A2 (en) | 2017-06-14 |
WO2016020391A3 (en) | 2016-03-31 |
CA2951600C (en) | 2022-12-06 |
US10565429B2 (en) | 2020-02-18 |
EP3178035B1 (en) | 2020-09-23 |
JP2023024969A (ja) | 2023-02-21 |
AU2015299073A1 (en) | 2016-12-15 |
JP2017524196A (ja) | 2017-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7335855B2 (ja) | コンテキストフィーチャを用いた画像解析システム | |
CN113454733B (zh) | 用于预后组织模式识别的多实例学习器 | |
US11756318B2 (en) | Convolutional neural networks for locating objects of interest in images of biological samples | |
US20200342597A1 (en) | Deep-learning systems and methods for joint cell and region classification in biological images | |
Swiderska-Chadaj et al. | Impact of rescanning and normalization on convolutional neural network performance in multi-center, whole-slide classification of prostate cancer | |
US10489904B2 (en) | Assessing risk of breast cancer recurrence | |
Campanella et al. | Towards machine learned quality control: A benchmark for sharpness quantification in digital pathology | |
JP2023512560A (ja) | 機械学習アルゴリズムを訓練し、患者のプライバシーを維持するための連合学習システム | |
CN112703531A (zh) | 生成组织图像的注释数据 | |
Sikpa et al. | Automated detection and quantification of breast cancer brain metastases in an animal model using democratized machine learning tools | |
US20240087122A1 (en) | Detecting tertiary lymphoid structures in digital pathology images | |
Marcuzzo et al. | Automated Arabidopsis plant root cell segmentation based on SVM classification and region merging | |
Salvi et al. | cyto‐Knet: An instance segmentation approach for multiple myeloma plasma cells using conditional kernels | |
Perlo et al. | Dysplasia grading of colorectal polyps through convolutional neural network analysis of whole slide images | |
Guachi-Guachi et al. | Convolutional neural networks applied to microtomy: Identifying the trimming-end cutting routine on paraffin-embedded tissue blocks | |
US20220358650A1 (en) | Systems and methods to process electronic images to provide localized semantic analysis of whole slide images | |
Roszkowiak et al. | System for quantitative evaluation of DAB&H-stained breast cancer biopsy digital images (CHISEL) | |
Selcuk et al. | Automated HER2 Scoring in Breast Cancer Images Using Deep Learning and Pyramid Sampling | |
Davidson et al. | Grey Level Texture Features for Segmentation of Chromogenic Dye RNAscope from Breast Cancer Tissue | |
Polejowska et al. | Impact of Visual Image Quality on Lymphocyte Detection Using YOLOv5 and RetinaNet Algorithms | |
US20230230242A1 (en) | Correcting differences in multi-scanners for digital pathology images using deep learning | |
Walkowski | Transfer Learning and Cloud Computing Used for Nervous System Tumors Detection. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200911 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201023 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220119 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221007 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221007 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221019 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221025 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20221118 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20221122 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230110 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230221 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230818 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7335855 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |