JP2021506003A - How to store and retrieve digital pathology analysis results - Google Patents

How to store and retrieve digital pathology analysis results Download PDF

Info

Publication number
JP2021506003A
JP2021506003A JP2020530584A JP2020530584A JP2021506003A JP 2021506003 A JP2021506003 A JP 2021506003A JP 2020530584 A JP2020530584 A JP 2020530584A JP 2020530584 A JP2020530584 A JP 2020530584A JP 2021506003 A JP2021506003 A JP 2021506003A
Authority
JP
Japan
Prior art keywords
image
pixels
superpixels
derived
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020530584A
Other languages
Japanese (ja)
Other versions
JP7197584B2 (en
Inventor
ブレドノ,イェルク
ロルサクル,アウラヌチ
Original Assignee
ベンタナ メディカル システムズ, インコーポレイテッド
ベンタナ メディカル システムズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベンタナ メディカル システムズ, インコーポレイテッド, ベンタナ メディカル システムズ, インコーポレイテッド filed Critical ベンタナ メディカル システムズ, インコーポレイテッド
Publication of JP2021506003A publication Critical patent/JP2021506003A/en
Priority to JP2022200094A priority Critical patent/JP2023030033A/en
Application granted granted Critical
Publication of JP7197584B2 publication Critical patent/JP7197584B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Image Analysis (AREA)

Abstract

本開示は、とりわけ、不規則形状を有する生体と関連付けられた情報の分析、格納、および/または読み出しを行う自動化システムおよび方法を対象とする。いくつかの実施形態において、これらのシステムおよび方法では、入力画像中の位置特定された色、質感、および/または強度に基づいて、入力画像を複数の副領域に分割するが、各副領域は、生物学的に意味あるデータを表す。The present disclosure is specifically directed to automated systems and methods for analyzing, storing, and / or retrieving information associated with living organisms having irregular shapes. In some embodiments, these systems and methods divide the input image into multiple sub-regions based on the localized color, texture, and / or intensity in the input image, where each sub-region , Represents biologically meaningful data.

Description

[0001]本願は、2017年12月6日に出願された米国仮特許出願第62/595,143号の出願日の利益を主張するものであり、そのすべての開示内容が参照により本明細書に組み込まれる。 [0001] The present application claims the benefit of the filing date of US Provisional Patent Application No. 62 / 595,143 filed on December 6, 2017, all of which are disclosed herein by reference. Is incorporated into.

本願発明の一実施例は、例えば、デジタル病理学分析結果の格納および読み出し方法に関する。 One embodiment of the present invention relates to, for example, a method for storing and retrieving digital pathological analysis results.

[0002]デジタル病理学は、コンピュータ画面上で解釈可能なデジタル画像へと病理組織または病理細胞のガラススライド全体をスキャンすることを伴う。これらの画像は後で、画像処理アルゴリズムによる処理または病理学者による解釈がなされることになる。組織切片(実質的に透明)を検査するため、細胞成分に選択的に結び付く色付き組織化学的ステインを用いて組織切片が作成される。臨床医またはコンピュータ支援診断(CAD)アルゴリズムによる着色または染色細胞構造の使用によって、疾患の形態学的マーカを識別するとともに、これに応じた治療を進める。アッセイを観察することによって、疾患の診断、処置への反応の評価、および疾患と闘う新たな医薬品の開発といった多様なプロセスが可能になる。 [0002] Digital pathology involves scanning an entire glass slide of pathological tissue or cells into a digital image that can be interpreted on a computer screen. These images will later be processed by an image processing algorithm or interpreted by a pathologist. To examine tissue sections (substantially transparent), tissue sections are created using colored histochemical stains that selectively bind to cellular components. The use of colored or stained cell structures by clinicians or computer-aided diagnosis (CAD) algorithms is used to identify morphological markers of the disease and proceed with treatment accordingly. By observing the assay, a variety of processes are possible, such as diagnosing the disease, assessing the response to treatment, and developing new medicines to combat the disease.

[0003]免疫組織化学的(IHC)スライド染色は、組織切片の細胞中のタンパク質を識別するのに利用可能であるため、生物組織中のがん細胞および免疫細胞等、さまざまな種類の細胞の研究に広く用いられている。このため、免疫反応研究の場合に、がん細胞中の免疫細胞(T細胞またはB細胞等)の異なる発現のバイオマーカの分布および局在を理解する研究においては、IHC染色が使用され得る。たとえば、腫瘍は、免疫細胞の浸潤物を含むことが多く、これが腫瘍の成長を防止する場合もあれば、腫瘍の増殖を優先させる場合もある。 [0003] Immunohistochemical (IHC) slide staining can be used to identify proteins in cells of tissue sections, so that various types of cells, such as cancer cells and immune cells in biological tissues, Widely used in research. Therefore, in the case of immune response studies, IHC staining can be used in studies to understand the distribution and localization of biomarkers of different expression of immune cells (T cells, B cells, etc.) in cancer cells. For example, tumors often contain infiltrates of immune cells, which may prevent tumor growth or prioritize tumor growth.

[0004]特に顕微鏡下で観察した場合に形態学的に悪性と見られる細胞中の遺伝学的異常または発がん遺伝子の増幅等の状態の有無の確認には、in−situハイブリダイゼーション(ISH)を使用可能である。ISHでは、標的遺伝子配列または転写物に対してアンチセンスの標識DNAまたはRNAプローブ分子を採用することにより、細胞または組織サンプル内の目標とする核酸標的遺伝子を検出または位置特定する。ISHは、ガラススライド上に固定された細胞または組織サンプル中の所与の標的遺伝子へと特にハイブリダイズ可能な標識核酸プローブに対して、当該細胞または組織サンプルを曝露することにより実行される。複数の異なる核酸タグで標識済みの複数の核酸プローブに対して細胞または組織サンプルを曝露することにより、複数の標的遺伝子を同時に分析可能である。発光波長が異なる標識を利用することにより、単一の標的細胞または組織サンプルに対して、1回のステップで同時多色分析が実行され得る。 [0004] In-situ hybridization (ISH) is used to confirm the presence or absence of genetic abnormalities in cells or conditions such as amplification of carcinogenic genes, which are considered to be morphologically malignant, especially when observed under a microscope. It can be used. ISH detects or locates a target nucleic acid target gene in a cell or tissue sample by adopting an antisense labeled DNA or RNA probe molecule for the target gene sequence or transcript. ISH is performed by exposing the cell or tissue sample to a labeled nucleic acid probe that is particularly hybridizable to a given target gene in the cell or tissue sample immobilized on a glass slide. Multiple target genes can be analyzed simultaneously by exposing cell or tissue samples to multiple nucleic acid probes labeled with multiple different nucleic acid tags. By utilizing labels with different emission wavelengths, simultaneous multicolor analysis can be performed in a single step on a single target cell or tissue sample.

本願発明の一実施例は、例えば、デジタル病理学分析結果の格納および読み出し方法に関する。 One embodiment of the present invention relates to, for example, a method for storing and retrieving digital pathological analysis results.

[0005]本開示は、とりわけ、不規則形状を有する生体(たとえば、線維芽細胞またはマクロファージ)と関連付けられたデータを分析および格納する自動化システムおよび方法に関する。また、本開示は、中解像度(mid−resolutionまたはmedium−resolution)分析手法すなわち類似特性(たとえば、染色強度、染色有無、および/または質感)を有するピクセルを「副領域」にグループ化する手法を用いて、生体と関連付けられたデータを分析および格納する自動化システムおよび方法に関する。 [0005] The present disclosure relates, among other things, to automated systems and methods for analyzing and storing data associated with living organisms having irregular shapes (eg, fibroblasts or macrophages). The present disclosure also provides a medium resolution (mid-resolution or medium-resolution) analytical method, i.e., a method of grouping pixels with similar characteristics (eg, staining intensity, staining presence or absence, and / or texture) into "subregions". It relates to automated systems and methods for analyzing and storing data associated with living organisms.

[0006]デジタル病理学においては、ガラススライドに搭載され、バイオマーカの識別のために染色された生物標本(たとえば、組織標本)から画像が取得される。生物学的サンプルは、高倍率の顕微鏡下で評価すること、または、関心生体を検出して分類するデジタル病理学アルゴリズムによって自動的に分析することが可能である。たとえば、関心物体としては、細胞、血管、腺、組織領域等が可能である。如何なる導出情報も、データベースに格納されて後で読み出されるようになっていてもよく、当該データベースは、関心生物学的構造の有無、空間的関係、および/または染色の特性の統計値を含んでいてもよい。当業者には当然のことながら、明確に区別された細胞(たとえば、腫瘍細胞または免疫細胞)の分析結果の格納および読み出しは、比較的容易である。このような細胞は、各細胞の中心位置の点により表され、データベースに格納され得るためである(たとえば、図4参照)。同様に、サイズおよび形状が明確に定義された生体(たとえば、血管)は、簡単な外形により表され、この外形の座標がデータベースに格納されて、後で読み出しおよび/または別途分析が行われ得る(本明細書においては、「ポリゴン」または「ポリゴン輪郭」とも称する)。 [0006] In digital pathology, images are taken from biological specimens (eg, tissue specimens) mounted on glass slides and stained to identify biomarkers. Biological samples can be evaluated under a high magnification microscope or automatically analyzed by a digital pathology algorithm that detects and classifies organisms of interest. For example, the object of interest can be cells, blood vessels, glands, tissue regions, and the like. Any derived information may be stored in a database for later retrieval, which contains statistics on the presence or absence of biological structures of interest, spatial relationships, and / or staining properties. You may. As a matter of course to those skilled in the art, it is relatively easy to store and retrieve the analysis results of clearly distinguished cells (eg, tumor cells or immune cells). This is because such cells are represented by points at the center of each cell and can be stored in a database (see, eg, FIG. 4). Similarly, organisms with well-defined size and shape (eg, blood vessels) are represented by a simple outline, the coordinates of this outline are stored in a database and can be retrieved and / or analyzed separately later. (In this specification, it is also referred to as "polygon" or "polygon contour").

[0007]一方、一部の関心生物学的構造(たとえば、線維芽細胞またはマクロファージ)は、不規則形状を有する。この種の細胞のグループは、互いの周りまたは他の細胞の周りに延びている場合がある(図5参照)。結果として、観察者または自動化アルゴリズムによって個別に、これら不規則形状の細胞を正確に識別するのは、困難な場合が多い。その代わりに、これらの細胞は、個々の細胞の識別なく、それぞれの染色細胞質または膜の局在のみによって識別されることが非常に多い。 [0007] On the other hand, some biological structures of interest (eg, fibroblasts or macrophages) have an irregular shape. Groups of cells of this type may extend around each other or around other cells (see Figure 5). As a result, it is often difficult to accurately identify these irregularly shaped cells individually by an observer or an automated algorithm. Instead, these cells are very often identified solely by the localization of their respective stained cytoplasm or membrane, without identification of individual cells.

[0008]このような不規則形状の構造は、高解像度分析を用いて分析および格納可能と考えられるが、このような手法では、相当のコンピュータリソース(演算時間および/または格納のリソース)が必要になることが多い。実際、関心生物学的構造のすべてのピクセル情報(たとえば、すべてのピクセルの分析結果)を格納する高解像度分析手法は、消費するソフトウェアおよびハードウェアリソース(たとえば、情報を処理または表示するメモリおよびプロセッサ)があまりにも多く、結局のところ、特定の生体に関して意味ある結果を提供できないと考えられる。 [0008] Such irregularly shaped structures are considered analytic and storable using high resolution analysis, but such techniques require considerable computer resources (calculation time and / or storage resources). Often becomes. In fact, high-resolution analysis techniques that store all pixel information for biological structures of interest (eg, analysis results for all pixels) consume software and hardware resources (eg, memory and processors that process or display the information). ) Too many, and after all, it is thought that it cannot provide meaningful results for a particular organism.

[0009]このような不規則構造は、低解像度分析を用いて分析することも可能と考えられ、このような低解像度データ表現では、複数の個々の細胞を単一のオブジェクトへと「一括化」して、データベースに格納するようにしてもよい。一例として、図6Aおよび図6Bは、望ましくない領域の「孔」(青緑色、640)を除外して一群の関連細胞を囲む大きなポリゴン外形(赤色、630)により表される腫瘍(黄色、620)および線維芽細胞(紫色、610)について染色されたIHC画像の一例を示している。本例においては、さまざまな特徴(たとえば、形状、サイズ、染色強度等)を有する多くの個々の細胞を含み得る大きな領域(赤色外形、630)に対して、分析結果が平均化される。たとえば、図6Bに関しては、外形規定されたFAP陽性面積が928.16μmで、計算された線維芽細胞活性化タンパク質(FAP)陽性平均強度は0.26を有する。このように大きなピクセル面積領域における平均強度を所与として、0.26という平均強度は、この画像においてFAP陽性全体を示すとともに代表するには粗すぎる。任意特定の理論に縛られることを望むことなく、この低解像度分析手法は、格納結果が下流処理において後で利用される場合には、精度の低下につながり得ると考えられる。このため、このような染色細胞の不均質性により、この方法は、このような関心生物学的構造の領域の実際の詳細を局所的に提示しないと考えられる。 [0009] Such irregular structures could also be analyzed using low resolution analysis, and such low resolution data representation "groups" multiple individual cells into a single object. It may be stored in the database. As an example, FIGS. 6A and 6B show a tumor (yellow, 620) represented by a large polygonal outline (red, 630) that surrounds a group of related cells, excluding "pores" (turquoise, 640) in unwanted regions. ) And fibroblasts (purple, 610) are shown as an example of stained IHC images. In this example, the analysis results are averaged over a large area (red outline, 630) that can contain many individual cells with different characteristics (eg, shape, size, staining intensity, etc.). For example, for FIG. 6B, the contoured FAP positive area is 928.16 μm 2 and the calculated fibroblast activated protein (FAP) positive average intensity is 0.26. Given the average intensity in such a large pixel area region, an average intensity of 0.26 is too coarse to show and represent the overall FAP positivity in this image. Without wishing to be bound by any particular theory, it is believed that this low resolution analysis technique can lead to reduced accuracy if the stored results are later used in downstream processing. Therefore, due to the heterogeneity of such stained cells, it is believed that this method does not locally present the actual details of such regions of biological structure of interest.

[00010]上述の高解像度および低解像度分析方法とは対照的に、本開示は、中解像度分析手法を用いて、画像特性(たとえば、質感、強度、または色のうちの少なくとも1つ)が類似する複数の副領域へと画像をセグメント化することにより、不規則形状の細胞に対応するデータを導出するシステムおよび方法を提供する。 [00010] In contrast to the high-resolution and low-resolution analytical methods described above, the present disclosure uses medium-resolution analytical techniques to resemble image properties (eg, at least one of texture, intensity, or color). A system and a method for deriving data corresponding to irregularly shaped cells are provided by segmenting an image into a plurality of subregions.

[00011]上記を考慮して、本開示の一態様は、少なくとも1つのステインを有する生物標本の画像から導出された画像分析データを格納する方法であって、(a)画像から、1つまたは複数の特徴測定基準を導出するステップと、(b)画像を複数の副領域にセグメント化するステップであり、各副領域が、染色有無、染色強度、または局所質感のうちの少なくとも1つにおいて実質的に均一なピクセルを含む、ステップと、(c)複数のセグメント化副領域に基づいて、複数の表現オブジェクトを生成するステップと、(d)複数の表現オブジェクトそれぞれを導出特徴測定基準と関連付けるステップと、(e)関連付け導出特徴測定基準と併せて、各表現オブジェクトの座標をデータベースに格納するステップと、を含む、方法である。当業者には当然のことながら、少なくともステップ(a)および(b)は、如何なる順序で実行されるようになっていてもよい。いくつかの実施形態において、画像を複数の副領域にセグメント化するステップは、スーパーピクセルを導出することを含む。いくつかの実施形態において、スーパーピクセルは、ピクセルを局所k平均クラスタリングでグループ化し、(ii)連結成分アルゴリズムを用いて小さな分離領域を大きな最近接スーパーピクセルへと統合することにより導出される。任意特定の理論に縛られることを望むことなく、(副領域としての)スーパーピクセルは、それぞれが知覚的に矛盾のない単位となるように、すなわち、スーパーピクセル中のすべてのピクセルの色および質感が均一となり得るように、知覚的に意味あるものと考えられる。いくつかの実施形態において、連結成分標識化では、画像をスキャンし、ピクセル連結度に基づいて、そのピクセルを成分へとグループ化する。すなわち、連結成分のすべてのピクセルが類似のピクセル強度値を共有し、何らかの方法で互いに連結されている。 [00011] In view of the above, one aspect of the present disclosure is a method of storing image analysis data derived from an image of a biological specimen having at least one stain, wherein (a) one or one from the image. A step of deriving a plurality of feature metrics and (b) a step of segmenting the image into a plurality of subregions, each subregion being substantially in at least one of the presence or absence of staining, the staining intensity, or the local texture. A step containing uniformly uniform pixels, (c) a step of generating multiple representation objects based on multiple segmented subregions, and (d) a step of associating each of the multiple representation objects with a derived feature metric. A method that includes (e) a step of storing the coordinates of each representation object in a database, along with an association-derived feature metric. As a matter of course to those skilled in the art, at least steps (a) and (b) may be performed in any order. In some embodiments, the step of segmenting an image into multiple subregions involves deriving superpixels. In some embodiments, superpixels are derived by grouping pixels by local k-means clustering and (ii) integrating small separation regions into large closest superpixels using a connected component algorithm. Without wishing to be bound by any particular theory, superpixels (as sub-regions) are perceptually consistent units, i.e. the color and texture of all pixels in the superpixel. Is considered to be perceptually meaningful so that can be uniform. In some embodiments, connected component labeling scans an image and groups the pixels into components based on pixel connectivity. That is, all the pixels of the connected component share similar pixel intensity values and are somehow connected to each other.

[00012]いくつかの実施形態において、画像を複数の副領域にセグメント化するステップは、サンプリンググリッドを画像に重ね合わせることであり、サンプリンググリッドが、所定のサイズおよび形状を有する非重畳エリアを規定する、ことを含む。いくつかの実施形態において、副領域は、M×Nのサイズを有し、Mが、50ピクセル〜100ピクセルの範囲であり、Nが50ピクセル〜およそ100ピクセルの範囲である。 [00012] In some embodiments, the step of segmenting the image into multiple subregions is to superimpose the sampling grid on the image, where the sampling grid defines a non-superimposed area having a predetermined size and shape. Including that. In some embodiments, the subregion has a size of M × N, where M ranges from 50 pixels to 100 pixels and N ranges from 50 pixels to approximately 100 pixels.

[00013]いくつかの実施形態において、表現オブジェクトは、所定の染色強度閾値を満たす副領域の外形を含む。いくつかの実施形態において、表現オブジェクトは、種子点を含む。いくつかの実施形態において、種子点は、複数の副領域それぞれの重心を演算することにより導出される。いくつかの実施形態において、導出特徴測定基準は、染色強度であり、各生成表現オブジェクト外形内のすべてのピクセルの平均染色強度が演算される。いくつかの実施形態において、導出特徴測定基準は、発現スコアであり、各生成副領域内のエリアに対応する平均発現スコアが複数の生成表現オブジェクトと関連付けられる。いくつかの実施形態において、この方法は、データベースから、格納座標および関連付け特徴測定基準データを読み出すステップと、読み出しデータを画像に投影するステップとをさらに含む。いくつかの実施形態において、対応する副領域内の分析結果(たとえば、強度、面積)は、当該副領域のピクセルデータを表す平均ピクセル測定結果の形態で格納可能である。 [00013] In some embodiments, the representation object comprises a subregion outline that meets a predetermined staining intensity threshold. In some embodiments, the representation object comprises a seed point. In some embodiments, seed points are derived by calculating the centroids of each of the plurality of subregions. In some embodiments, the derived feature metric is the staining intensity, and the average staining intensity of all pixels within each generated representation object outline is calculated. In some embodiments, the derived feature metric is the expression score, and the average expression score corresponding to the area within each generation subregion is associated with the plurality of generation expression objects. In some embodiments, the method further comprises reading stored coordinates and associated feature metrics data from the database and projecting the read data onto an image. In some embodiments, the analysis results (eg, intensity, area) within the corresponding sub-region can be stored in the form of average pixel measurement results representing the pixel data of the sub-region.

[00014]いくつかの実施形態において、生物学的サンプルは、膜ステインにより染色される。いくつかの実施形態において、生物学的サンプルは、膜ステインおよび核ステインにより染色される。いくつかの実施形態において、生物学的サンプルは、少なくともFAPにより染色され、1つまたは複数の導出特徴測定基準が、FAP染色強度またはFAP百分率正値性の少なくとも一方を含む。いくつかの実施形態においては、副領域内のすべてのピクセルに関して、平均FAP百分率正値性が計算される。いくつかの実施形態においては、副領域内のすべてのピクセルに関して、平均FAP染色強度が計算される。いくつかの実施形態において、サンプルは、FAPおよびH&Eにより染色される。いくつかの実施形態において、サンプルは、FAPならびに別の核もしくは膜ステインにより染色される。 [00014] In some embodiments, the biological sample is stained with membrane stain. In some embodiments, the biological sample is stained with membrane stain and nuclear stain. In some embodiments, the biological sample is stained with at least FAP and one or more derived feature metrics include at least one of FAP staining intensity or FAP percentage positive. In some embodiments, the average FAP percentage positiveness is calculated for all pixels in the subdomain. In some embodiments, the average FAP staining intensity is calculated for all pixels in the subregion. In some embodiments, the sample is stained with FAP and H & E. In some embodiments, the sample is stained with FAP as well as another core or membrane stain.

[00015]いくつかの実施形態において、入力として受信された画像は最初、画像チャネル画像(たとえば、特定のステインの画像チャネル画像)へと分離される。いくつかの実施形態においては、画像分析に先立って、関心領域が選択される。 [00015] In some embodiments, the image received as input is initially separated into an image channel image (eg, an image channel image of a particular stain). In some embodiments, the region of interest is selected prior to image analysis.

[00016]本開示の別の態様は、少なくとも1つのステインを含む生物学的サンプルの画像から、不規則形状の細胞に対応するデータを導出するシステムであって、(i)1つまたは複数のプロセッサと、(ii)1つまたは複数のプロセッサに結合されたメモリであり、1つまたは複数のプロセッサにより実行された場合に、(a)画像から、1つまたは複数の特徴測定基準を導出することと、(b)画像内の複数の副領域を生成することであり、各副領域が、色、輝度、および/または質感から選択される類似特質を備えたピクセルを有する、ことと、(c)複数の生成副領域に基づいて、一連の表現オブジェクトを演算することと、(d)画像からの1つまたは複数の導出特徴測定基準を一連の演算表現オブジェクトそれぞれの計算座標と関連付けることと、を含む動作を1つまたは複数のプロセッサに実行させるコンピュータ実行可能命令を格納した、メモリと、を備えた、システムである。いくつかの実施形態において、副領域は、(i)隣り合うピクセル、(ii)知覚的に意味ある類似の特性(たとえば、色、輝度、および/または質感)を有するピクセル、および(iii)生物学的特性(たとえば、生物学的構造、生物学的構造の染色特性、細胞特性、細胞のグループ)に関して実質的に均質なピクセルをグループ化することによって形成される。いくつかの実施形態において、副領域のピクセルは、関心生体(たとえば、不規則形状の細胞であり、線維芽細胞およびマクロファージが挙げられるが、これらに限定されない)に関して、類似の特性および記述統計値を有する。 [00016] Another aspect of the present disclosure is a system for deriving data corresponding to irregularly shaped cells from an image of a biological sample containing at least one stain, wherein (i) one or more. A processor and (ii) a memory coupled to one or more processors that, when executed by one or more processors, (a) derive one or more feature metrics from the image. And (b) to generate multiple sub-regions in the image, each sub-region having pixels with similar qualities selected from color, brightness, and / or texture. c) compute a series of representation objects based on multiple generated subregions, and (d) associate one or more derived feature metrics from the image with the computational coordinates of each of the sequence representation objects. A system comprising a memory that stores computer-executable instructions that cause one or more processors to perform operations including. In some embodiments, the subregions are (i) adjacent cells, (ii) pixels with perceptually meaningful similar properties (eg, color, brightness, and / or texture), and (iii) organisms. It is formed by grouping pixels that are substantially homogeneous with respect to biological properties (eg, biological structure, staining properties of biological structure, cell properties, groups of cells). In some embodiments, the pixels in the subregion have similar properties and descriptive statistics with respect to the organism of interest (eg, irregularly shaped cells, including, but not limited to, fibroblasts and macrophages). Has.

[00017]いくつかの実施形態において、画像を複数の副領域にセグメント化することは、スーパーピクセルを導出することを含む。いくつかの実施形態において、スーパーピクセルは、グラフベースの手法または勾配上昇ベースの手法の一方を用いて導出される。いくつかの実施形態において、スーパーピクセルは、ピクセルを局所k平均クラスタリングでグループ化し、(ii)連結成分アルゴリズムを用いて小さな分離領域を大きな最近接スーパーピクセルへと統合することにより導出される。 [00017] In some embodiments, segmenting an image into multiple subregions involves deriving superpixels. In some embodiments, superpixels are derived using either a graph-based approach or a gradient rise-based approach. In some embodiments, superpixels are derived by grouping pixels by local k-means clustering and (ii) integrating small separation regions into large closest superpixels using a connected component algorithm.

[00018]いくつかの実施形態において、表現オブジェクトは、所定の染色強度閾値を満たす副領域の外形を含む。いくつかの実施形態において、表現オブジェクトは、種子点を含む。いくつかの実施形態において、このシステムは、1つまたは複数の導出特徴測定基準および関連付け計算表現オブジェクトの座標をデータベースに格納する命令をさらに含む。いくつかの実施形態において、1つまたは複数の導出特徴測定基準は、百分率正値性、Hスコア、または染色強度から選択される少なくとも1つの発現スコアを含む。いくつかの実施形態において、不規則形状の細胞に対応するデータは、画像内の関心領域に対して導出される。いくつかの実施形態において、関心領域は、医療専門家によりアノテーションされた画像のエリアである。 [00018] In some embodiments, the representation object comprises a subregion outline that meets a predetermined staining intensity threshold. In some embodiments, the representation object comprises a seed point. In some embodiments, the system further includes instructions for storing the coordinates of one or more derived feature metrics and associated computational representation objects in the database. In some embodiments, one or more derived feature metrics include at least one expression score selected from percentage positiveness, H-score, or staining intensity. In some embodiments, the data corresponding to the irregularly shaped cells is derived for the region of interest in the image. In some embodiments, the area of interest is the area of the image annotated by a healthcare professional.

[00019]本開示の別の態様は、不規則形状を有する生体と関連付けられたデータを分析する命令を格納した非一時的コンピュータ可読媒体であって、命令が、(a)生物学的サンプルの画像から1つまたは複数の特徴測定基準を導出する命令であり、生物学的サンプルが、少なくとも1つのステインを含む、命令と、(b)類似特質を有するピクセルのグループ化によって画像を一連の副領域に分割する命令であり、特質が、色、輝度、および/または質感から選択される、命令と、(c)一連の分割副領域に基づいて、複数の表現オブジェクトを演算する命令と、(d)画像からの1つまたは複数の導出特徴測定基準を複数の演算表現オブジェクトそれぞれの計算座標と関連付ける命令と、を含む、非一時的コンピュータ可読媒体である。 [00019] Another aspect of the present disclosure is a non-temporary computer-readable medium containing instructions for analyzing data associated with an irregularly shaped organism, wherein the instructions are (a) of a biological sample. An instruction that derives one or more feature metrics from an image, in which the biological sample contains at least one stain, and (b) a series of subordinates to the image by grouping pixels with similar traits. An instruction that divides into regions, the characteristics of which are selected from color, brightness, and / or texture, and (c) an instruction that calculates a plurality of representation objects based on a series of division sub-regions. d) A non-temporary computer-readable medium that includes an instruction that associates one or more derived feature metrics from an image with the calculated coordinates of each of a plurality of computational representation objects.

[00020]いくつかの実施形態において、画像を一連の副領域に分割することは、スーパーピクセルを演算することを含む。いくつかの実施形態において、スーパーピクセルは、正規化カットアルゴリズム、凝集型クラスタリングアルゴリズム、クイックシフトアルゴリズム、ターボピクセルアルゴリズム、または単純線形反復クラスタリングアルゴリズムのうちの1つを用いて演算される。いくつかの実施形態において、スーパーピクセルは、単純反復クラスタリングを用いて生成され、スーパーピクセルサイズパラメータが、およそ40ピクセル〜およそ400ピクセルに設定され、稠密度パラメータが、およそ10〜およそ100に設定される。いくつかの実施形態において、スーパーピクセルは、ピクセルを局所k平均クラスタリングでグループ化し、(ii)連結成分アルゴリズムを用いて小さな分離領域を大きな最近接スーパーピクセルへと統合することにより演算される。 [00020] In some embodiments, dividing an image into a series of sub-regions involves computing superpixels. In some embodiments, superpixels are calculated using one of a normalized cut algorithm, a cohesive clustering algorithm, a quickshift algorithm, a turbopixel algorithm, or a simple linear iterative clustering algorithm. In some embodiments, superpixels are generated using simple iterative clustering, with the superpixel size parameter set to about 40 pixels to about 400 pixels and the density parameter set to about 10 to about 100. To. In some embodiments, superpixels are calculated by grouping the pixels by local k-means clustering and using (ii) the connected component algorithm to integrate the small separation regions into the larger closest superpixels.

[00021]いくつかの実施形態において、生物学的サンプルは、少なくともFAPにより染色され、1つまたは複数の導出特徴測定基準が、FAP染色強度またはFAP百分率正値性の少なくとも一方を含む。いくつかの実施形態においては、副領域内のすべてのピクセルに関して、平均FAP百分率正値性が計算される。いくつかの実施形態においては、副領域内のすべてのピクセルに関して、平均FAP染色強度が計算される。いくつかの実施形態において、表現オブジェクトは、ポリゴン外形および種子点の少なくとも一方を含む。いくつかの実施形態において、メモリは、1つまたは複数の導出特徴測定基準および関連付け計算表現オブジェクトの座標をデータベースに格納する命令を含む。いくつかの実施形態において、メモリは、格納情報を生物学的サンプルの画像に投影する命令をさらに含む。 [00021] In some embodiments, the biological sample is stained with at least FAP and one or more derived feature metrics include at least one of FAP staining intensity or FAP percentage positive. In some embodiments, the average FAP percentage positiveness is calculated for all pixels in the subdomain. In some embodiments, the average FAP staining intensity is calculated for all pixels in the subregion. In some embodiments, the representation object comprises at least one of a polygon outline and a seed point. In some embodiments, the memory includes instructions for storing the coordinates of one or more derived feature metrics and association computational representation objects in the database. In some embodiments, the memory further comprises an instruction to project the stored information onto an image of a biological sample.

[00022]本出願人らは、本明細書に記載のシステムおよび方法が、関心物体ごとに単一の位置または外形では規定不可能な生体の分析結果を格納する改良されたソリューションを提供することを示した。さらに、本出願人らは、本明細書に記載のシステムおよび方法が、ピクセルレベルの高解像度分析手法と比較して、分析結果を格納する格納空間を低減可能であると考える。特定のピクセルおよびその周りのピクセルの分析結果が一体的に副領域に格納され、副領域中のピクセルが類似の特性または特質(たとえば、色、輝度、質感)を有するためである。さらに、本出願人らは、数千個のピクセルから、分析結果の読み出しおよび報告の大幅な高速化を可能にするより少数で扱いやすい数の副領域へと、生成副領域が画像の複雑性を低減可能であることから、上記システムおよび方法が演算上効率的であると考える。また、本出願人らは、分析結果の格納および表現に対して、副領域が小さ過ぎることも大き過ぎることもないため、表現上効率的であるとも考える。最後に、本出願人らは、特に低解像度分析手法と比較して、本明細書に開示のシステムおよび方法が精度を向上可能であると考える。生成副領域は、大領域表現からの情報の格納と比較して、生物学的に関連する関心物体の特性または統計学的情報を記述するためである(すなわち、副領域は、染色有無、染色強度、および質感が可能な限り均一なピクセルを含む)。上記および他の利点については、本明細書において別途説明される。 [00022] Applicants provide an improved solution in which the systems and methods described herein store biological analysis results that cannot be defined in a single position or outline for each object of interest. showed that. In addition, Applicants believe that the systems and methods described herein can reduce the storage space for storing analysis results as compared to pixel-level high-resolution analysis techniques. This is because the analysis results of a specific pixel and the pixels around it are integrally stored in the sub-region, and the pixels in the sub-region have similar characteristics or characteristics (for example, color, brightness, texture). In addition, Applicants have generated image complexity from thousands of pixels to a smaller and more manageable number of subregions that allow for significantly faster retrieval and reporting of analysis results. Therefore, it is considered that the above system and method are computationally efficient. Applicants also consider that the sub-regions are neither too small nor too large for the storage and representation of the analysis results, which is expressively efficient. Finally, Applicants believe that the systems and methods disclosed herein can improve accuracy, especially as compared to low resolution analytical techniques. The generated subregion is to describe the characteristics or statistical information of the biologically relevant object of interest as compared to the storage of information from the large domain representation (ie, the subregion is stained, stained, stained. Includes pixels where the intensity and texture are as uniform as possible). The above and other advantages are described separately herein.

[00023]本開示の特徴の全般的な理解のため、図面を参照する。図面全体を通して、同一要素の識別には、同じ参照番号を使用している。 [00023] Reference is made to the drawings for a general understanding of the features of the present disclosure. The same reference numbers are used to identify the same elements throughout the drawing.

[00024]いくつかの実施形態に係る、画像取得デバイスおよびコンピュータシステムを具備する代表的なデジタル病理学システムを示した図である。[00024] FIG. 6 shows a typical digital pathology system comprising an image acquisition device and a computer system according to some embodiments. [00025]いくつかの実施形態に係る、デジタル病理学システムまたはデジタル病理学ワークフローにおいて利用し得るさまざまなモジュールを示した図である。[00025] FIG. 5 illustrates various modules available in a digital pathology system or digital pathology workflow, according to some embodiments. [00026]いくつかの実施形態に係る、生成副領域によって画像分析データおよび関連する画像分析データを導出するさまざまなステップを示したフローチャートである。[00026] FIG. 5 is a flow chart showing various steps for deriving image analysis data and related image analysis data by a generation subregion, according to some embodiments. [00027]いくつかの実施形態に係る、高レベル解像度での肝臓がん細胞のデジタル病理学画像の一例を示した図であって、画像分析処理および分類の後、分析結果を(たとえば、細胞の中心に位置付けられたアノテーションポイント(赤色=陽性染色腫瘍細胞(410)、緑色=陰性染色腫瘍細胞(420))として)データベースから格納および読み出しを行って表示可能であり、各アノテーションポイントが読み出し情報(たとえば、関心生物学的構造の有無、空間的関係、および染色の特性の記述統計値)を含み得る、図である。[00027] A diagram showing an example of digital pathological images of liver cancer cells at a high level resolution according to some embodiments, after image analysis processing and classification, the analysis results (eg, cells). Annotation points (red = positive stained tumor cells (410), green = negative stained tumor cells (420)) can be stored and read from the database and displayed, and each annotation point can display read information. It may include (eg, descriptive statistics of the presence or absence of biological structures of interest, spatial relationships, and staining properties). [00028]図5Aは、異なる外観(たとえば、細胞の不規則なサイズ、形状、および境界)と形態学的に異質な線維芽細胞の外観であって、正常な線維芽細胞を示した図である。図5Bは、異なる外観(たとえば、細胞の不規則なサイズ、形状、および境界)と形態学的に異質な線維芽細胞の外観を示した図である。図5Cは、異なる外観(たとえば、細胞の不規則なサイズ、形状、および境界)と形態学的に異質な線維芽細胞の外観であって、正常な活性化線維芽細胞のヘマトキシリンおよびエオシン染色(H&E)画像を示した図である。図5Dは、異なる外観(たとえば、細胞の不規則なサイズ、形状、および境界)と形態学的に異質な線維芽細胞の外観であって、活性化線維芽細胞のヘマトキシリンおよびエオシン染色(H&E)画像を示した図である。[00028] FIG. 5A is a diagram showing normal fibroblasts with different appearances (eg, irregular size, shape, and boundaries of cells) and morphologically heterogeneous appearances of fibroblasts. is there. FIG. 5B shows the appearance of morphologically heterogeneous fibroblasts with different appearances (eg, irregular size, shape, and boundaries of cells). FIG. 5C shows the appearance of morphologically heterogeneous fibroblasts with different appearances (eg, irregular size, shape, and boundaries of cells), with hematoxylin and eosin staining of normal activated fibroblasts (eg H & E) It is a figure which showed the image. FIG. 5D shows the appearance of morphologically heterogeneous fibroblasts with different appearances (eg, irregular size, shape, and boundaries of cells), with hematoxylin and eosin staining (H & E) of activated fibroblasts. It is a figure which showed the image. [00029]図6Aは、腫瘍細胞と関連付けられた線維芽細胞の免疫組織化学(IHC)の一例を示した図であって、線維芽細胞(610)が紫色に染色され、腫瘍(620)が黄色に染色され、線維芽細胞が他の細胞に接触するとともに、他の細胞の反対側または周囲に延びた非常に不規則な形状を有し得る、図である。 [00030]図6Bは、青緑色の陽性線維芽細胞発現および除外領域(孔、640)を備えたエリアの低解像度ポリゴン外形(赤色、630)の一例を示した図である。[00029] FIG. 6A shows an example of fibroblast immunohistochemistry (IHC) associated with tumor cells, where fibroblasts (610) are stained purple and tumors (620) It is a diagram that stains yellow and can have a very irregular shape extending to the opposite side or perimeter of other cells as well as the fibroblasts in contact with other cells. [00030] FIG. 6B shows an example of a low resolution polygon outline (red, 630) in an area with turquoise positive fibroblast expression and exclusion regions (pores, 640). [00031]本明細書に記載の中解像度手法を用いた画像データと関連付けし得る単純な形状(たとえば、円形)の副領域(710)を示した図である。[00031] FIG. 6 shows a subregion (710) of a simple shape (eg, a circle) that can be associated with image data using the medium resolution technique described herein. [00032]IHC画像上で線維芽細胞領域のSLICを用いて生成されたスーパーピクセルの一例を示した図である。[00032] It is a figure which showed an example of the super pixel generated by using SLIC of a fibroblast region on an IHC image. [00033]腫瘍細胞(830)が黄色に染色され、線維芽細胞(840)が紫色に染色された高倍率の元のIHC画像を示した図である。[00033] FIG. 6 shows a high magnification original IHC image in which tumor cells (830) were stained yellow and fibroblasts (840) were stained purple. [00034]いくつかの実施形態に係る、規則化パラメータの調整前の正方形に類似して見えるスーパーピクセルの最初の形状を示した図である。[00034] FIG. 5 shows the initial shape of a superpixel that looks similar to a square before adjustment of the regularization parameters, according to some embodiments. [00035]いくつかの実施形態に係る、SLICアルゴリズムの規則化パラメータが調整されたスーパーピクセルの最終表現を示した図である。[00035] FIG. 5 shows the final representation of superpixels with adjusted regularization parameters of the SLIC algorithm, according to some embodiments. [00036]いくつかの実施形態に係る、関心領域(線維芽細胞領域)に属する副領域(ここでは、スーパーピクセル)のポリゴン外形(黒色、910)を示した図である。[00036] It is a figure which showed the polygon outer shape (black, 910) of the sub-region (here, superpixel) belonging to the region of interest (fibroblast region) which concerns on some embodiments. [00037]いくつかの実施形態に係る、関心生体(線維芽細胞)に属する副領域(スーパーピクセル)のポリゴン外形(黒色、920)および中心種子(緑色ドット、930)を示した図である。[00037] It is a figure which showed the polygon outer shape (black, 920) and the central seed (green dot, 930) of the sub-region (super pixel) belonging to the organism of interest (fibroblast) which concerns on some embodiments. [00038]線維芽細胞(1010)用の線維芽細胞活性化タンパク質(FAP)により紫色に染色され、上皮腫瘍(1020)用のパンサイトケラチン(PanCK)により黄色に染色された頭頚部がん組織の全スライドIHC画像の一例を示した図である。[00038] Head and neck cancer tissue stained purple with fibroblast-activating protein (FAP) for fibroblasts (1010) and yellow with pancytokeratin (PanCK) for epithelial tumors (1020) It is a figure which showed an example of all slide IHC images of. [00039]データベースに格納可能な線維芽細胞領域に属するスーパーピクセル(青色、1030)の分析結果が付与されたポリゴン外形の一例を示した図である。[00039] It is a figure which showed an example of the polygon outer shape which was given the analysis result of the superpixel (blue, 1030) belonging to the fibroblast region which can be stored in a database. [00040]データベースに格納可能な線維芽細胞領域に属するスーパーピクセル(赤色、1140)の分析結果が付与された中心種子の一例を示した図である。[00040] It is a figure which showed an example of the central seed to which the analysis result of the superpixel (red, 1140) belonging to the fibroblast region which can be stored in a database was given. [00041]全スライドスーパーピクセルから読み出されたFAP強度のヒストグラムプロットの一例を示した図である。[00041] FIG. 6 shows an example of a histogram plot of FAP intensities read from all slide superpixels. [00042]いくつかの実施形態に係る、領域選択のステップを示したフローチャートである。[00042] It is a flowchart which showed the step of area selection which concerns on some embodiments. [00043]生物学的サンプルの画像内の6つの異なるアノテーション形状および領域を示した図である。[00043] FIG. 6 shows six different annotation shapes and regions in an image of a biological sample. [00044](i)高解像度分析手法および(ii)本明細書に記載の例示的な中解像度(副領域)手法を用いて決定されたFAP+面積間のFAP陽性面積の割合の一致を示した図である。[00044] Concordance of FAP positive area ratios between FAP + area determined using (i) high resolution analytical techniques and (ii) exemplary medium resolution (subregion) techniques described herein was shown. It is a figure.

[00045]別段の明確な指定のない限り、2つ以上のステップまたは動作を含む本明細書に請求の如何なる方法においても、そのステップまたは動作の順序は、当該ステップまたは動作が列挙された順序に必ずしも限定されないことが了解されるものとする。 [00045] Unless otherwise expressly specified, in any method claimed herein that includes two or more steps or actions, the order of the steps or actions shall be in the order in which the steps or actions are listed. It shall be understood that it is not necessarily limited.

[00046]本明細書において、単数の用語「a」、「an」、および「the」は、文脈上の別段の明確な指定のない限り、複数の指示対象を含む。同様に、単語「または(or)」は、文脈上の別段の明確な指定のない限り、「および(and)」を含むことが意図される。用語「含む(includes)」は、「AまたはBを含む(includes A or B)」がA、B、またはAおよびBを含むことを意味するように、包含的に定義される。 [00046] As used herein, the singular terms "a", "an", and "the" include a plurality of referents unless expressly specified in the context. Similarly, the word "or" is intended to include "and" unless otherwise explicitly specified in the context. The term "includes" is defined inclusively to mean that "includes A or B" includes A, B, or A and B.

[00047]本明細書および特許請求の範囲において、「または(or)」は、上記定義の「および/または(and/or)」と同じ意味を有することが了解されるものとする。たとえば、リストにおいて項目を分離する場合、「または(or)」または「および/または(and/or)」は、包含的であるものと解釈され、多数または一覧の要素と、任意選択として付加的なリスト外の項目と、のうちの少なくとも1つを包含し、また、2つ以上を包含することも可能であるものとする。「〜のうちの1つだけ(only one of)」もしくは「〜のうちのちょうど1つだけ(exactly one of)」等の別段の明確な指定がなされた用語または特許請求の範囲において使用される「〜から成る(consisting of)」という用語のみ、多数または一覧の要素のうちのちょうど1つの要素の包含を表す。一般的に、本明細書における用語「または(or)」は、「either」、「one of」、「only one of」、または「exactly one of」等の排他的な用語が先行する場合に排他的な選択肢(すなわち、「一方または他方であるが、両方ではない(one or the other but not both)」)を示す旨の解釈のみがなされるものとする。特許請求の範囲において使用される「〜から本質的に成る(consisting essentially of)」は、特許法の分野において使用される場合の通常の意味を有するものとする。 [00047] As used herein and in the claims, it is understood that "or" has the same meaning as "and / or (and / or)" as defined above. For example, when separating items in a list, "or (or)" or "and / or (and / or)" is interpreted as inclusive, with many or list elements and optionally additional. It is possible to include at least one of the items not on the list, and to include two or more of them. Used in terms or claims with other explicit specifications, such as "only one of" or "exactly one of". Only the term "consisting of" refers to the inclusion of just one element of many or list elements. In general, the term "or" as used herein is exclusive when preceded by an exclusive term such as "eacher", "one of", "only one of", or "exactly one of". (Ie, one or the other, but not both (one or the other but not both) "). As used in the claims, "consisting essentially of" shall have the usual meaning when used in the field of patent law.

[00048]用語「備える(comprising)」、「含む(including)」、「有する(having)」等は、区別なく使用され、同じ意味を有する。同様に、「備える(comprises)」、「含む(includes)」、「有する(has)」等は、区別なく使用され、同じ意味を有する。具体的に、これらの用語はそれぞれ、「備える(comprising)」の米国特許法における一般的な定義と矛盾なく定義されているため、「少なくとも以下の(at least the following)」を意味するオープンな用語として解釈され、また、付加的な特徴、限界、態様等を除外しないものと解釈される。このため、たとえば「構成要素a、b、およびcを有するデバイス(a device having components a, b, and c)」は、当該デバイスが少なくとも構成要素a、b、およびcを具備することを意味する。同様に、表現「ステップa、b、およびcを含む方法(a method involving steps a, b, and c)」は、当該方法が少なくともステップa、b、およびcを含むことを意味する。さらに、本明細書においては、ステップおよびプロセスが特定の順序で説明される可能性があるものの、当業者であれば、ステップおよびプロセスの順序が変動し得ることが認識されよう。 [00048] The terms "comprising", "inclusion", "having" and the like are used interchangeably and have the same meaning. Similarly, "comprises", "includes", "has" and the like are used without distinction and have the same meaning. Specifically, each of these terms is open, meaning "at least the following," because each of these terms is defined consistently with the general definition of "comprising" in 35 USC. It is interpreted as a term and does not exclude additional features, limitations, aspects, etc. For this reason, for example, "a device having components a, b, and c" means that the device includes at least the components a, b, and c. .. Similarly, the expression "method invoking steps a, b, and c" means that the method comprises at least steps a, b, and c. Moreover, although the steps and processes may be described herein in a particular order, those skilled in the art will recognize that the order of the steps and processes can vary.

[00049]本明細書および特許請求の範囲において、表現「少なくとも1つ(at least one)」は、一覧の1つまたは複数の要素を参照して、要素一覧における要素のうちのいずれか1つまたは複数から選択される少なくとも1つの要素を意味するが、要素一覧に具体的に掲載されたありとあらゆる要素のうちの少なくとも1つを必ずしも含まず、また、要素一覧における要素の如何なる組み合わせも除外しないことが了解されるものとする。また、この定義によれば、表現「少なくとも1つ(at least one)」が参照する要素一覧内で具体的に識別された要素と関係するか否かに関わらず、これらの要素以外の要素が任意選択として存在し得る。このため、非限定的な一例として、「AおよびBのうちの少なくとも1つ(at least one of A and B)」(または同等に、「AまたはBのうちの少なくとも1つ(at least one of A or B)」もしくは「Aおよび/またはBのうちの少なくとも1つ(at least one of A and/or B)」)は、一実施形態において、少なくとも1つ(任意選択として、2つ以上)のA(Bは存在せず(任意選択として、B以外の要素を含む))、別の実施形態において、少なくとも1つ(任意選択として、2つ以上)のB(Aは存在せず(任意選択として、A以外の要素を含む))、さらに別の実施形態において、少なくとも1つ(任意選択として、2つ以上)のAおよび少なくとも1つ(任意選択として、2つ以上)のB(任意選択として、他の要素を含む)等を表し得る。 [00049] As used herein and in the claims, the expression "at least one" refers to one or more elements of the list and is any one of the elements in the element list. Or, it means at least one element selected from a plurality of elements, but does not necessarily include at least one of all the elements specifically listed in the element list, and does not exclude any combination of elements in the element list. Shall be understood. Also, according to this definition, elements other than these elements may or may not relate to the specifically identified elements in the element list referenced by the expression "at least one". Can exist as an optional choice. Therefore, as a non-limiting example, "at least one of A and B (at least one of A and B)" (or equivalently, "at least one of A or B (at least one of)". "A or B)" or "at least one of A and / or B (at least one of A and / or B)") in one embodiment (two or more as an option). A (B does not exist (optionally, includes elements other than B)), and in another embodiment, at least one (optionally, two or more) B (A does not exist (optional)). (Including elements other than A as an option)), and in yet another embodiment, at least one (two or more as an optional option) A and at least one (two or more as an optional option) B (optional). As a choice, other elements may be included) and the like.

[00050]本明細書において、用語「生物学的サンプル(biological sample)」(本明細書においては、用語「生物標本(biological specimen)」もしくは「標本(specimen)」と区別なく使用される)または「組織サンプル(tissue sample)」(本明細書においては、用語「組織標本(tissue specimen)」と区別なく使用される)は、ウイルスを含む任意の有機体から得られた生体分子(タンパク質、ペプチド、核酸、脂質、糖質、またはこれらの組み合わせ等)を含む任意のサンプルを表す。有機体の他の例としては、哺乳類(たとえば、ヒト、猫、犬、馬、牛、および豚等の家畜動物、ならびにマウス、ラット、および霊長類等の実験動物)、昆虫、環形動物、クモ形類動物、有袋動物、爬虫類、両生類、バクテリア、および菌類が挙げられる。生物学的サンプルには、組織サンプル(たとえば、組織切片および組織の針生検標本)、細胞サンプル(たとえば、パップ塗抹標本もしくは血液塗抹標本等の細胞学的塗抹標本または顕微解剖により得られた細胞のサンプル)、または細胞分画、細胞片、もしくは細胞小器官(たとえば、細胞を溶解させ、遠心分離等によって細胞成分を分離したもの)を含む。生物学的サンプルの他の例としては、血液、血清、尿、精液、糞便物質、脳脊髄液、間質液、粘液、涙、汗、膿、(たとえば、外科生検もしくは針生検により得られた)生検組織、乳頭吸引液、耳垢、母乳、膣液、唾液、スワブ(口腔スワブ等)、または第1の生物学的サンプルから導出された生体分子を含む任意の物質が挙げられる。特定の実施形態において、本明細書における用語「生物学的サンプル(biological sample)」は、被験者から得られた腫瘍またはその一部から作成されたサンプル(均質化または液化サンプル)を表す。 [00050] In the present specification, the term "biological sample" (used herein without distinction from the term "biological specimen" or "specimen") or A "tissue sample" (used herein indistinguishable from the term "tissue specimen") is a biomolecule (protein, peptide) obtained from any organism, including a virus. , Nucleic acid, lipid, sugar, or a combination thereof, etc.). Other examples of organisms include mammals (eg, domestic animals such as humans, cats, dogs, horses, cows, and pigs, and laboratory animals such as mice, rats, and primates), insects, ring-shaped animals, and arachnids. Examples include arachnids, bagging animals, reptiles, amphibians, bacteria, and fungi. Biological samples include tissue samples (eg, tissue sections and needle biopsy specimens of tissue), cell samples (eg, cytological smears such as Pap or blood smears, or cells obtained by microanalysis. Samples), or cell fractions, cell debris, or organelles (eg, cells lysed and cell components separated by centrifugation or the like). Other examples of biological samples are blood, serum, urine, semen, fecal matter, cerebrospinal fluid, interstitial fluid, mucus, tears, sweat, pus, (eg, obtained by surgical biopsy or needle biopsy). T) Biopsy tissue, papillary inhalation fluid, ear stains, breast milk, vaginal fluid, saliva, swabs (oral swabs, etc.), or any substance containing biomolecules derived from a first biological sample. In certain embodiments, the term "biological sample" herein refers to a sample (homogenized or liquefied sample) made from a tumor or portion thereof obtained from a subject.

[00051]本明細書において、用語「バイオマーカ(biomarker)」または「マーカ(marker)」は、何らかの生物学的状態または条件の測定可能なインジケータを表す。特に、バイオマーカは、特に染色可能で、細胞の生物学的特徴(たとえば、細胞の種類または細胞の生理学的状態)を示すタンパク質またはペプチド(たとえば、表面タンパク質)であってもよい。免疫細胞マーカは、哺乳類の免疫反応に関する特徴を選択的に示すバイオマーカである。バイオマーカは、疾患もしくは病気の処置に対する身体の反応の決定または被験者が疾患もしくは病気に罹りやすくされているかの判定に用いられるようになっていてもよい。がんに関して、バイオマーカは、体内のがんの有無を示す生物学的物質を表す。バイオマーカは、腫瘍から分泌される分子またはがんの存在に対する身体の具体的反応であってもよい。がんの診断、予後診断、および疫学には、遺伝子バイオマーカ、後成的バイオマーカ、プロテオームバイオマーカ、グリコミックバイオマーカ、および撮像バイオマーカを使用可能である。このようなバイオマーカは、血液または血清等の非侵襲的に収集された生体液において検査され得る。複数の遺伝子およびタンパク質ベースのバイオマーカが患者ケアにおいてすでに使用されており、AFP(肝臓がん)、BCR−ABL(慢性骨髄性白血病)、BRCA1/BRCA2(乳がん/卵巣がん)、BRAF V600E(黒色腫/大腸がん)、CA−125(卵巣がん)、CA19.9(膵臓がん)、CEA(大腸がん)、EGFR(非小細胞肺がん)、HER−2(乳がん)、KIT(消化管間質系腫瘍)、PSA(前立腺特異抗原)、S100(黒色腫)、その他多くが挙げられるが、これらに限定されない。バイオマーカは、(早期がんを識別する)診断法および/または(がんの進行の予想ならびに/または特定の処置に対する被験者の反応および/もしくはがんの再発の可能性の予測を行う)予後診断法として有用と考えられる。 [00051] As used herein, the term "biomarker" or "marker" refers to a measurable indicator of any biological condition or condition. In particular, the biomarker may be a protein or peptide (eg, a surface protein) that is particularly stainable and exhibits the biological characteristics of the cell (eg, cell type or physiological state of the cell). Immune cell markers are biomarkers that selectively indicate features of a mammalian immune response. Biomarkers may be used to determine the body's response to a disease or treatment of a disease or to determine whether a subject is vulnerable to a disease or disease. With respect to cancer, biomarkers represent biological substances that indicate the presence or absence of cancer in the body. The biomarker may be a molecule secreted by the tumor or a specific response of the body to the presence of cancer. Genetic biomarkers, epigenetic biomarkers, proteome biomarkers, glicocom biomarkers, and imaging biomarkers can be used for cancer diagnosis, prognosis, and epidemiology. Such biomarkers can be tested in non-invasively collected biofluids such as blood or serum. Multiple gene and protein-based biomarkers have already been used in patient care, including AFP (liver cancer), BCR-ABL (chronic myeloid leukemia), BRCA1 / BRCA2 (breast / ovarian cancer), BRAF V600E ( Black tumor / colorectal cancer), CA-125 (ovarian cancer), CA19.9 (pancreatic cancer), CEA (colorectal cancer), EGFR (non-small cell lung cancer), HER-2 (breast cancer), KIT ( Gastrointestinal stromal tumors), PSA (Prostate Specific Antigen), S100 (Breast Cancer), and many others, but are not limited to these. Biomarkers provide diagnostic methods (identifying early-stage cancer) and / or prognosis (predicting the progression of cancer and / or the subject's response to specific treatments and / or the likelihood of cancer recurrence). It is considered to be useful as a diagnostic method.

[00052]本明細書において、用語「画像データ(image data)」は、本明細書における理解の通り、光学センサまたはセンサアレイ等によって生物学的組織サンプルから取得された生の画像データまたは前処理された画像データを含む。特に、画像データは、ピクセル行列を含んでいてもよい。本明細書において、用語「免疫組織化学(immunohistochemistry)」は、抗体等の特定の結合剤との抗原の相互作用を検出してサンプル中の抗原の有無または分布を決定する方法を表す。サンプルは、抗体−抗原結合を可能にする条件下で抗体と接触される。抗体−抗原結合は、抗体に接合された検出可能な標識による検出(直接検出)または主抗体と特異的に結合する副抗体に接合された検出可能な標識による検出(間接検出)が可能である。本明細書において、「マスク(mask)」は、デジタル画像の派生語であって、マスクの各ピクセルが2進値(たとえば、「1」もしくは「0」(または、「真」もしくは「偽」))として表される。デジタル画像に前記マスクを重ねることにより、デジタル画像に適用される別途処理ステップにおいては、2進値のうちの特定の1つのマスクピクセルにマッピングされたデジタル画像のすべてのピクセルが隠蔽、削除、あるいは無視またはフィルタリング除去される。たとえば、真あるいは偽の閾値を上回る強度値を元の画像のすべてのピクセルに割り当て、「偽」でマスクされたピクセルが重なるすべてのピクセルを除去することによって、元のデジタル画像からマスクが生成され得る。「マルチチャネル画像」は、本明細書における理解の通り、異なるスペクトル帯における蛍光あるいは検出可能性によってマルチチャネル画像のチャネルのうちの1つを構成する特定の蛍光染料、量子ドット、色原体等によって、核および組織構造等の異なる生物学的構造が同時に染色される生物学的組織サンプルから得られたデジタル画像を含む。 [00052] As used herein, the term "image data" is, as understood herein, raw image data or preprocessing obtained from a biological tissue sample by an optical sensor or sensor array or the like. Includes image data. In particular, the image data may include a pixel matrix. As used herein, the term "immunohistochemistry" refers to a method of detecting the interaction of an antigen with a particular binder, such as an antibody, to determine the presence or absence or distribution of the antigen in a sample. The sample is contacted with the antibody under conditions that allow antibody-antigen binding. The antibody-antigen binding can be detected by a detectable label attached to the antibody (direct detection) or by a detectable label attached to a sub-antibody that specifically binds to the main antibody (indirect detection). .. As used herein, "mask" is a derivative of a digital image in which each pixel of the mask is a binary value (eg, "1" or "0" (or "true" or "false"). )). By overlaying the mask on the digital image, in a separate processing step applied to the digital image, all pixels of the digital image mapped to one particular mask pixel of the binary value are hidden, deleted, or hidden. Ignored or filtered out. For example, a mask is generated from the original digital image by assigning an intensity value above the true or false threshold to all pixels in the original image and removing all pixels where the "false" masked pixels overlap. obtain. A "multi-channel image", as understood herein, is a specific fluorescent dye, quantum dot, chromogen, etc. that constitutes one of the channels of a multi-channel image by fluorescence or detectability in different spectral bands. Includes digital images obtained from biological tissue samples that simultaneously stain different biological structures such as nuclear and tissue structures.

[00053]概要
[00054]本出願人らは、たとえば線維芽細胞またはマクロファージ等、不規則形状を有する生体の分析結果をデータベース等の非一時的メモリに格納するシステムおよび方法を開発した。分析結果は、データベースまたはメモリから後で読み出され、他の下流プロセスにおいてさらに分析または使用されるようになっていてもよい。また、分析結果は、入力画像または他の導出画像に投影されるようになっていてもよいし、他の手段により視覚化されるようになっていてもよい。また、本開示は、(たとえば、単純形状のサイズの増減またはスーパーピクセルアルゴリズムのパラメータの調整によって)生成副領域のサイズを調整可能とすることによって、調整可能な詳細レベルでの分析結果の格納および報告を容易化し得る。このことは、関心グローバル領域からの平均的な分析結果が保存される本明細書に記載の低解像度分析手法と比較して、効率および精度を向上可能であると考えられる。
[00053] Overview
[00054] Applicants have developed a system and method for storing the analysis results of an irregularly shaped organism such as fibroblasts or macrophages in a non-temporary memory such as a database. The results of the analysis may later be read from the database or memory for further analysis or use in other downstream processes. In addition, the analysis result may be projected onto an input image or another derived image, or may be visualized by other means. The present disclosure also stores analysis results at an adjustable level of detail by allowing the size of the generated subregions to be adjusted (eg, by increasing or decreasing the size of the simple shape or adjusting the parameters of the Superpixel algorithm). May facilitate reporting. This is believed to be able to improve efficiency and accuracy as compared to the low resolution analysis techniques described herein in which average analysis results from the global area of interest are stored.

[00055]本明細書に別途記載の通り、開示のシステムおよび方法は、局所的に類似する小さな領域(副領域)を用いて分析結果を格納する中解像度分析手法に基づく。副領域としては、単純形状(たとえば、円形、正方形)も可能であるし、複雑形状(たとえば、スーパーピクセル)も可能であり、スライド全体にまたがる各小領域の局所的な分析結果を格納するのに利用される。本中解像度手法により規定される副領域は、類似(または、均質)の特性(たとえば、染色有無(すなわち、特定のステインの有無)、染色強度(すなわち、ステインの相対強度(または、量))、局所質感(すなわち、画像または画像の選択領域における色または強度の空間的配置に関する情報))を有するピクセルをグループ化して、不規則形状の物体の識別を可能にする。いくつかの実施形態において、中解像度手法における副領域は、およそ50〜およそ100ピクセルの範囲のサイズまたはおよそ2,500ピクセル〜およそ10,000ピクセルのピクセル面積を有する。当然のことながら、副領域は、如何なるサイズを有していてもよく、このサイズは、実施される分析の種類および/または調査される細胞の種類に基づいていてもよい。 [00055] As described separately herein, the disclosed systems and methods are based on medium resolution analytical techniques that store analytical results using locally similar small regions (subregions). The sub-regions can be simple shapes (eg, circles, squares) or complex shapes (eg, superpixels) to store local analysis of each subregion across the entire slide. Used for. The sub-regions defined by this medium resolution technique are similar (or homogeneous) properties (eg, with or without staining (ie, with or without specific stains), staining intensity (ie, relative intensity (or amount) of stain)). , Grouping pixels with local texture (ie, information about the spatial arrangement of colors or intensities in the image or selection area of the image) to allow identification of irregularly shaped objects. In some embodiments, the sub-region in the medium resolution approach has a size in the range of about 50 to about 100 pixels or a pixel area of about 2,500 pixels 2 to about 10,000 pixels 2 . Of course, the subregion may have any size, which size may be based on the type of analysis performed and / or the type of cell being investigated.

[00056]当業者には当然のことながら、中レベル手法は、本明細書に記載の高解像度分析手法と低解像度分析手法との間にあるため、データが副領域レベルで収集されるとともに、副領域は、低解像度手法における関心領域よりも比例的に小さく、また、高解像度分析手法におけるピクセルよりも明らかに大きい。「高解像度分析」は、画像データがピクセルレベルまたは実質的にピクセルレベルで取り込まれることを意味する。一方、「低解像度分析」は、少なくとも500ピクセル×500ピクセルのサイズを有する領域または250,000ピクセルより大きなサイズを有するエリア等、領域レベル分析を表す。当業者には当然のことながら、低解像度分析手法は、多くの生体(たとえば、複数の不規則形状の細胞)を包含することになる。 [00056] As a matter of course to those skilled in the art, the medium-level method is between the high-resolution analysis method and the low-resolution analysis method described herein, so that data is collected at the subregion level as well as being collected. The sub-region is proportionally smaller than the region of interest in the low-resolution technique and clearly larger than the pixels in the high-resolution analysis technique. "High resolution analysis" means that image data is captured at the pixel level or substantially at the pixel level. On the other hand, "low resolution analysis" represents an area level analysis, such as an area having a size of at least 500 pixels x 500 pixels or an area having a size greater than 250,000 pixels 2 . As a matter of course to those skilled in the art, low resolution analytical techniques will involve many living organisms (eg, cells of multiple irregular shapes).

[00057]本開示は、線維芽細胞またはマクロファージ等、不規則な形状および/またはサイズを有する生体の分析および格納を表し得る。本開示は、線維芽細胞またはマクロファージに限定されず、サイズまたは形状が十分に規定されていない任意の生体へと拡張可能であることが了解されるものとする。 [00057] The present disclosure may represent the analysis and storage of living organisms with irregular shapes and / or sizes, such as fibroblasts or macrophages. It is understood that the present disclosure is not limited to fibroblasts or macrophages and can be extended to any organism whose size or shape is not well defined.

[00058]線維芽細胞に関して、これは、動物の組織において細胞外基質およびコラーゲンで構成された構造骨組または間質を構成する細胞である。これらの細胞は、動物において最も一般的な種類の結合組織であり、創傷治癒に重要である。線維芽細胞は、さまざまな形状およびサイズのほか、活性化および非活性化の形態となる(たとえば、図5A〜図5D参照)。線維芽細胞が活性化形態である(接尾辞「blast」が代謝的に活性な細胞を表す)一方、線維化関連細胞は、低活性と考えられる。ただし、線維芽細胞および線維化関連細胞の両者が異なるものとして指定されず、単に線維芽細胞と称する場合もある。線維芽細胞は、粗面小胞体の豊富さおよび相対的に大きなサイズによって、線維化関連細胞から形態学的に区別可能である。さらに、線維芽細胞は、それぞれの隣接細胞と接触すると考えられ、これらの接触は、分離細胞の形態を歪ませ得る付着と考えられる。本明細書に提示の中解像度分析手法は、これらの形態学的差異を考慮することができ、線維芽細胞、マクロファージ、および他の不規則な生体に関する情報を格納するのに最適と考えられる。 [00058] With respect to fibroblasts, they are the cells that make up the structural skeleton or stroma composed of extracellular matrix and collagen in animal tissues. These cells are the most common type of connective tissue in animals and are important for wound healing. Fibroblasts come in a variety of shapes and sizes, as well as activated and deactivated forms (see, eg, FIGS. 5A-5D). Fibroblasts are in the activated form (the suffix "blast" represents metabolically active cells), while fibrosis-related cells are considered hypoactive. However, both fibroblasts and fibrosis-related cells are not designated as different, and may be simply referred to as fibroblasts. Fibroblasts are morphologically distinguishable from fibrosis-related cells by the abundance and relatively large size of the rough endoplasmic reticulum. In addition, fibroblasts are thought to come into contact with their respective adjacent cells, and these contacts are considered attachments that can distort the morphology of isolated cells. The medium resolution analytical techniques presented herein can take into account these morphological differences and are considered optimal for storing information about fibroblasts, macrophages, and other irregular organisms.

[00059]図1には、いくつかの実施形態に係る、標本を撮像および分析するデジタル病理学システム200を示している。デジタル病理学システム200は、撮像装置12(たとえば、標本を載せた顕微鏡スライドをスキャンする手段を有する装置)およびコンピュータ14を備えることにより、撮像装置12およびコンピュータが一体的に(たとえば、ネットワーク20を介して直接または間接的に)通信可能に結合されていてもよい。コンピュータシステム14には、デスクトップコンピュータ、ラップトップコンピュータ、タブレット等、デジタル電子回路、ファームウェア、ハードウェア、メモリ、コンピュータ記憶媒体、コンピュータプログラムもしくは命令セット(たとえば、プログラムがメモリまたは記憶媒体に格納されている場合)、1つもしくは複数のプロセッサ(プログラムされたプロセッサを含む)、ならびにその他任意のハードウェア、ソフトウェア、もしくはファームウェアモジュール、またはこれらの組み合わせを含み得る。たとえば、図1に示されるコンピュータシステム14は、表示装置16および筐体18を有するコンピュータを備えていてもよい。コンピュータは、2進形態のデジタル画像を(メモリ内など、ローカルに、サーバ、または別のネットワーク接続デバイスに)格納可能である。また、デジタル画像は、行列状のピクセルへと分割可能である。ピクセルは、ビット深度により規定された1つまたは複数のビットのデジタル値を含み得る。当業者には当然のことながら、他のコンピュータデバイスまたはシステムが利用されるようになっていてもよく、また、本明細書に記載のコンピュータシステムは、付加的な構成要素(たとえば、標本分析装置、顕微鏡、他の撮像システム、自動化スライド作成機器等)に対して通信可能に結合されていてもよい。これらの付加的な構成要素および利用可能な種々コンピュータ、ネットワーク等の一部については、本明細書において別途説明される。 [00059] FIG. 1 shows a digital pathology system 200 for imaging and analyzing specimens, according to some embodiments. The digital pathology system 200 includes an imaging device 12 (for example, a device having means for scanning a microscope slide on which a specimen is placed) and a computer 14, so that the imaging device 12 and the computer are integrally (for example, a network 20). They may be communicably coupled (directly or indirectly) through. The computer system 14 contains digital electronic circuits, firmware, hardware, memory, computer storage media, computer programs or instruction sets (eg, programs are stored in memory or storage media, such as desktop computers, laptop computers, tablets, etc.). If), it may include one or more processors (including programmed processors), as well as any other hardware, software, or firmware module, or a combination thereof. For example, the computer system 14 shown in FIG. 1 may include a computer having a display device 16 and a housing 18. A computer can store a binary digital image (locally, such as in memory, on a server, or on another network-attached device). Also, the digital image can be divided into matrix pixels. Pixels may contain digital values of one or more bits defined by bit depth. Other computer devices or systems may, of course, be utilized by those skilled in the art, and the computer systems described herein are additional components (eg, sample analyzers). , Microscopes, other imaging systems, automated slide creation devices, etc.) may be communicatively coupled. Some of these additional components and the various computers, networks, etc. available are described separately herein.

[00060]一般的に、撮像装置12(または、予備スキャン画像がメモリに格納された他の画像源)としては、1つまたは複数の画像取り込み装置が挙げられるが、これに限定されない。画像取り込み装置には、カメラ(たとえば、アナログカメラ、デジタルカメラ等)、光学素子(たとえば、1つまたは複数のレンズ、センサ焦点レンズ群、顕微鏡対物レンズ等)、撮像センサ(たとえば、電荷結合素子(CCD)、相補型金属酸化膜半導体(CMOS)画像センサ等)、写真フィルム等を含み得るが、これらに限定されない。デジタルの実施形態において、画像取り込み装置は、オンザフライフォーカシングを証明するように協働する複数のレンズを具備し得る。画像センサ(たとえば、CCDセンサ)が標本のデジタル画像を取り込み可能である。いくつかの実施形態において、撮像装置12は、明視野撮像システム、マルチスペクトル撮像(MSI)システム、または蛍光顕微鏡システムである。デジタル化された組織データは、たとえばVENTANA MEDICAL SYSTEMS,Inc.(Tucson、Arizona)によるVENTANA iScan HTスキャナ等の画像スキャンシステムまたは他の好適な撮像機器により生成されるようになっていてもよい。付加的な撮像デバイスおよびシステムについては、本明細書において別途説明される。当業者には当然のことながら、撮像装置12により取得されるデジタルカラー画像は従来、原色ピクセルで構成され得る。各色付きピクセルは、それぞれ同数のビットを含む3つのデジタル成分上でコード化可能であり、各成分が原色(一般的には、赤色、緑色、または青色で、用語「RGB」成分としても表される)に対応する。 [00060] Generally, the image pickup device 12 (or another image source in which the preliminary scan image is stored in the memory) includes, but is not limited to, one or more image capture devices. The image capture device includes a camera (for example, an analog camera, a digital camera, etc.), an optical element (for example, one or more lenses, a sensor focal lens group, a microscope objective lens, etc.), and an imaging sensor (for example, a charge-coupled device (CCD). ), Complementary metal oxide semiconductor (CMOS) image sensor, etc.), photographic film, etc., but is not limited thereto. In a digital embodiment, the image capture device may include multiple lenses that work together to prove on-the-fly focusing. An image sensor (eg, a CCD sensor) can capture a digital image of the specimen. In some embodiments, the imaging device 12 is a brightfield imaging system, a multispectral imaging (MSI) system, or a fluorescence microscopy system. Digitized tissue data can be obtained, for example, from VENTANA MEDICAL SYSTEMS, Inc. It may be generated by an image scanning system such as a VENTANA iScan HT scanner by (Tucson, Arizona) or other suitable imaging device. Additional imaging devices and systems are described separately herein. As a matter of course to those skilled in the art, the digital color image acquired by the image pickup apparatus 12 may conventionally be composed of primary color pixels. Each colored pixel can be encoded on three digital components, each containing the same number of bits, and each component is a primary color (generally red, green, or blue, also represented as the term "RGB" component. Corresponds to.

[00061]図2は、上記開示のデジタル病理学システムにおいて利用されるさまざまなモジュールの概要を示している。いくつかの実施形態において、デジタル病理学システムは、1つもしくは複数のプロセッサ203ならびに少なくとも1つのメモリ201を有するコンピュータデバイス200またはコンピュータ実装方法を採用しており、少なくとも1つのメモリ201は、1つまたは複数のプロセッサによる実行によって、1つまたは複数のモジュール(たとえば、モジュール202および205〜209)における命令(または、格納データ)を1つまたは複数のプロセッサに実行させる非一時的コンピュータ可読命令を格納している。 [00061] FIG. 2 outlines the various modules utilized in the digital pathology system disclosed above. In some embodiments, the digital pathology system employs a computer device 200 or computer mounting method having one or more processors 203 and at least one memory 201, with at least one memory 201 being one. Or stores non-temporary computer-readable instructions that cause one or more processors to execute instructions (or stored data) in one or more modules (eg, modules 202 and 205-209) by execution by multiple processors. doing.

[00062]図2および図3を参照して、本開示は、たとえば線維芽細胞またはマクロファージ等、不規則形状を有する生体の分析および/またはデータベース等の非一時的メモリへの分析結果の格納を行うコンピュータ実装方法を提供する。この方法は、たとえば(a)画像取得モジュール202を動作させて、マルチチャネル画像データ(たとえば、1つまたは複数のステインにより染色された生物学的サンプルの取得画像)を生成または受信するステップ(ステップ300)と、(b)画像分析モジュール205を動作させて、取得画像内の特徴から1つまたは複数の測定基準を導出するステップ(ステップ310)と、(c)セグメント化モジュール206を動作させて、取得画像を複数の副領域にセグメント化するステップ(ステップ320)と、(d)表現オブジェクト生成モジュール207を動作させて、副領域を識別するポリゴン、中心種子、または他のオブジェクトを生成するステップ(ステップ330)と、(e)標識化モジュール208を動作させて、1つまたは複数の導出測定基準を生成表現オブジェクトと関連付けるステップ(ステップ340)と、(f)表現オブジェクトおよび関連する測定基準をデータベース209に格納するステップ(ステップ350)とを含んでいてもよい。当業者には当然のことながら、ワークフローには、付加的なモジュールまたはデータベースが組み込まれていてもよい。たとえば、画像処理モジュールの動作によって、特定のフィルタを取得画像に適用するようにしてもよいし、組織サンプル内の特定の組織学的および/または形態学的構造を識別するようにしてもよい。また、関心領域選択モジュールの利用によって、分析する画像の特定の部分を選択するようにしてもよい。同様に、分離モジュールの動作によって、特定のステインまたはバイオマーカに対応する画像チャネル画像を提供するようにしてもよい。 [00062] With reference to FIGS. 2 and 3, the present disclosure stores analysis of living organisms having irregular shapes, such as fibroblasts or macrophages, and / or storage of analysis results in non-temporary memory such as databases. Provides a computer implementation method to do. In this method, for example, (a) the image acquisition module 202 is operated to generate or receive multichannel image data (for example, an acquired image of a biological sample stained with one or more stains) (step). 300) and (b) the step (step 310) of operating the image analysis module 205 to derive one or more metrics from the features in the acquired image, and (c) operating the segmentation module 206. , A step of segmenting the acquired image into a plurality of sub-regions (step 320) and (d) a step of operating the expression object generation module 207 to generate a polygon, a central seed, or another object that identifies the sub-region. (Step 330), (e) run the labeling module 208 to associate one or more derived metrics with the generated representation object (step 340), and (f) the representation object and associated metrics. It may include a step (step 350) to be stored in the database 209. As a matter of course to those skilled in the art, the workflow may include additional modules or databases. For example, the behavior of the image processing module may apply a particular filter to the acquired image or identify a particular histological and / or morphological structure within the tissue sample. In addition, a specific part of the image to be analyzed may be selected by using the region of interest selection module. Similarly, the operation of the separation module may be to provide an image channel image corresponding to a particular stain or biomarker.

[00063]画像取得モジュール
[00064]いくつかの実施形態において、デジタル病理学システム200は、最初のステップとして、図2を参照するに、画像取得モジュール202を動作させて、1つまたは複数のステインを有する生物学的サンプルの画像または画像データを取り込む。いくつかの実施形態において、受信または取得画像は、RGB画像またはマルチスペクトル画像(たとえば、多重化明視野および/または暗視野画像)である。いくつかの実施形態において、取り込まれた画像は、メモリ201に格納される。
[00063] Image acquisition module
[00064] In some embodiments, the digital pathology system 200, as a first step, operates the image acquisition module 202, with reference to FIG. 2, a biological sample having one or more stains. Import the image or image data of. In some embodiments, the received or acquired image is an RGB image or a multispectral image (eg, a multiplexed brightfield and / or darkfield image). In some embodiments, the captured image is stored in memory 201.

[00065]画像または画像データ(本明細書においては、区別なく使用される)は、実時間等で撮像装置12により取得されるようになっていてもよい。いくつかの実施形態において、画像は、本明細書に記載の通り、標本を載せた顕微鏡スライドの画像データを取り込み可能な顕微鏡等の器具から取得される。いくつかの実施形態において、画像は、画像タイルをスキャンし得るような2DスキャナまたはVENTANA DP 200スキャナ等のラインごとに画像をスキャン可能なラインスキャナを用いて取得される。あるいは、画像は、事前に取得(たとえば、スキャン)され、メモリ201に格納された(または、この点に関して、ネットワーク20経由でサーバから読み出された)画像であってもよい。 [00065] The image or image data (used in this specification without distinction) may be acquired by the image pickup apparatus 12 in real time or the like. In some embodiments, the image is obtained from an instrument such as a microscope capable of capturing image data of a microscope slide on which the specimen is placed, as described herein. In some embodiments, the image is acquired using a line scanner capable of scanning the image line by line, such as a 2D scanner capable of scanning image tiles or a VENTANA DP 200 scanner. Alternatively, the image may be an image previously acquired (eg, scanned) and stored in memory 201 (or, in this regard, read from a server via network 20).

[00066]生物学的サンプルは、1つまたは複数のステインの適用により染色されていてもよく、結果として画像または画像データは、1つまたは複数のステインそれぞれに対応する信号を含む。このため、本明細書に記載のシステムおよび方法は、単一のステイン(たとえば、ヘマトキシリン)の推定または正規化が可能であるが、生物学的サンプル内のステインの数に制限はない。実際、生物学的サンプルは、任意のカウンタステインの追加または包含として、2つ以上のステインの多重アッセイにおいて染色されていてもよい。 [00066] The biological sample may be stained by application of one or more stains, resulting in the image or image data containing a signal corresponding to each of the one or more stains. As such, the systems and methods described herein are capable of estimating or normalizing a single stain (eg, hematoxylin), but are not limited in the number of stains in a biological sample. In fact, the biological sample may be stained in a multiplex assay of two or more stains as an addition or inclusion of any counterstain.

[00067]当業者には当然のことながら、生物学的サンプルは、異なる種類の核および/または細胞膜バイオマーカに対して染色されるようになっていてもよい。さまざまな目的に適したステインの選定において組織構造を染色するとともにガイドする方法は、たとえばSambrook et al.「Molecular Cloning:A Laboratory Manual(分子クローニング:実験室マニュアル)」,Cold Spring Harbor Laboratory Press(1989)およびAusubel et al.「Current Protocols in Molecular Biology(分子生物学における現在の慣習)」,Greene Publishing Associates and Wiley−Intersciences(1987)に記載されており、それぞれの開示内容が参照により本明細書に組み込まれる。 Of course to those skilled in the art, biological samples may be adapted to be stained against different types of core and / or cell membrane biomarkers. Methods for staining and guiding tissue structures in the selection of stains suitable for a variety of purposes are described, for example, in Sambrook et al. "Molecular Cloning: A Laboratory Manual (Molecular Cloning: Laboratory Manual)", Cold Spring Harbor Laboratory Press (1989) and Ausube et al. It is described in "Curent Protocols in Molecular Biology", Greene Publishing Associates and Willy-Intersciences (1987), the contents of which are incorporated herein by reference.

[00068]非限定的な一例として、いくつかの実施形態においては、線維芽細胞活性化タンパク質(FAP)を含む1つまたは複数のバイオマーカの存在に対して、組織サンプルがIHCアッセイにおいて染色される。線維芽細胞の細胞株におけるFAPの過剰発現は、悪性挙動を促進すると考えられる。腫瘍微小環境の必須成分であり、がん関連線維芽細胞(CAF)として指定されることが多い間質線維芽細胞は、増殖、血管形成、侵入、残存、および免疫抑制等の複数のメカニズムによって、腫瘍形成および進行を促進し得ることが示されている。任意特定の理論に縛られることを望むことなく、がん細胞が間質線維芽細胞を活性化させるとともにFAPの発現を誘発し、これががん細胞の増殖、侵入、および移動に影響を及ぼすと考えられる。FAPは、乳房、肺、結腸直腸、卵巣、膵臓、および頭頚部を含む人間の上皮細胞がんの90%にて、反応性間質線維芽細胞に激しく発現すると考えられる。このため、腫瘍の臨床的挙動に対して、FAPの量が重要な予後診断を提示する可能性が最も高い(これは、導出後に生成副領域または表現オブジェクトと関連付け可能なある種の測定基準の一例である)。 [00068] As a non-limiting example, in some embodiments, tissue samples are stained in an IHC assay for the presence of one or more biomarkers containing a fibroblast activating protein (FAP). To. Overexpression of FAP in fibroblast cell lines is thought to promote malignant behavior. Interstitial fibroblasts, an essential component of the tumor microenvironment and often designated as cancer-related fibroblasts (CAFs), are by multiple mechanisms such as proliferation, angiogenesis, invasion, survival, and immunosuppression. It has been shown that it can promote tumorigenesis and progression. Without wishing to be bound by any particular theory, cancer cells activate interstitial fibroblasts and induce FAP expression, which affects the growth, invasion, and migration of cancer cells. Conceivable. FAP is thought to be highly expressed in reactive stromal fibroblasts in 90% of human epithelial cell carcinomas, including breast, lung, colorectal, ovary, pancreas, and head and neck. For this reason, the amount of FAP is most likely to provide an important prognostic diagnosis for the clinical behavior of the tumor (which is a measure of certain metrics that can be associated with the generated subregion or representation object after derivation). This is an example).

[00069]色原体ステインとしては、ヘマトキシリン、エオシン、ファストレッド、または3,3’−ジアミノベンジジン(DAB)が挙げられる。また、当業者には当然のことながら、任意の生物学的サンプルが1つまたは複数のフルオロフォアにより染色されるようになっていてもよい。いくつかの実施形態において、組織サンプルは、主ステイン(たとえば、ヘマトキシリン)により染色される。いくつかの実施形態においては、特定のバイオマーカについて、組織サンプルがIHCアッセイにおいて染色される。また、サンプルは、1つまたは複数の蛍光染料により染色されるようになっていてもよい。 [00069] Chromatic stains include hematoxylin, eosin, fast red, or 3,3'-diaminobenzidine (DAB). Also, of course to those skilled in the art, any biological sample may be stained with one or more fluorophores. In some embodiments, the tissue sample is stained with a major stain (eg, hematoxylin). In some embodiments, tissue samples are stained in the IHC assay for specific biomarkers. The sample may also be dyed with one or more fluorescent dyes.

[00070]通常の生物学的サンプルは、ステインを当該サンプルに適用する自動染色/アッセイプラットフォームにおいて処理される。市場には、染色/アッセイプラットフォームとしての使用に適した多様な商品が存在しており、一例として、Ventana Medical Systems,Inc.(Tucson、AZ)のDiscovery(商標)製品がある。また、カメラプラットフォームとしては、明視野顕微鏡(Ventana Medical Systems,Inc.のVENTANA iScan HTまたはVENTANA DP 200スキャナ等)または1つもしくは複数の対物レンズおよびデジタル撮像装置を有する任意の顕微鏡が挙げられる。さまざまな波長で画像を取り込む他の技術が用いられるようになっていてもよい。当技術分野においては、染色された生物標本の撮像に適した別のカメラプラットフォームが知られており、Zeiss、Canon、Applied Spectral Imaging等の企業から市販されている。また、このようなプラットフォームは、本開示のシステム、方法、および装置における使用に対して容易に適応可能である。 [00070] Normal biological samples are processed in an automated staining / assay platform where stains are applied to the samples. There are a variety of products on the market suitable for use as staining / assay platforms, for example Ventana Medical Systems, Inc. (Tucson, AZ) Discovery ™ products are available. Camera platforms also include brightfield microscopes (such as Ventana Medical Systems, Inc.'s VENTANA iScan HT or VENTANA DP 200 Scanner) or any microscope with one or more objective lenses and digital imaging devices. Other techniques for capturing images at various wavelengths may be used. Other camera platforms suitable for imaging stained biological specimens are known in the art and are commercially available from companies such as Zeiss, Canon, and Applied Spectral Imaging. Also, such platforms are readily adaptable for use in the systems, methods, and devices of the present disclosure.

[00071]いくつかの実施形態において、入力画像は、組織領域のみが画像中に存在するようにマスクされる。いくつかの実施形態においては、非組織領域を組織領域からマスクするように組織領域マスクが生成される。いくつかの実施形態においては、組織領域を識別するとともに、背景領域(たとえば、撮像源からの白色光のみが存在する場所等、サンプルのないガラスに対応する全スライド画像の領域)を自動的または半自動的に(すなわち、最小限のユーザ入力で)除外することによって、組織領域マスクが形成されるようになっていてもよい。当業者には当然のことながら、非組織領域の組織領域からのマスキングのほか、組織マスキングモジュールは、特定の組織種または腫瘍が疑われる領域に属するものとして識別された組織の一部等、必要に応じて他の関心エリアをマスクするようにしてもよい。いくつかの実施形態においては、入力画像において非組織領域から組織領域をマスクすることにより組織領域マスキング画像を生成するのにセグメント化技術が用いられる。好適なセグメント化技術としては、先行技術から既知のものがある(「Digital Image Processing(デジタル画像処理)」,Third Edition,Rafael C.Gonzalez,Richard E.Woods,chapter 10,page 689および「Handbook of Medical Imaging(医用画像ハンドブック)」,Processing and Analysis,Isaac N.Bankman Academic Press,2000,chapter 2参照)。いくつかの実施形態においては、画像中のデジタル化組織データとスライドとの識別に画像セグメント化技術が利用されるが、この場合、組織が前景に、スライドが背景に対応する。いくつかの実施形態においては、構成要素が全スライド画像中の関心エリア(AoI)を演算することにより、分析される背景の非組織エリアの量を制限しつつ、AoI中のすべての組織領域を検出する。たとえば、組織データと非組織または背景データとの境界を決定するのに、広範な画像セグメント化技術(たとえば、HSVカラーベース画像セグメント化、Lab画像セグメント化、平均シフトカラー画像セグメント化、領域拡張、レベル設定法、高速マーチング法等)が使用され得る。また、構成要素は、セグメント化に少なくとも部分的に基づいて、組織データに対応するデジタル化スライドデータの部分の識別に使用可能な組織前景マスクを生成可能である。あるいは、構成要素は、組織データに対応しないデジタル化スライドデータの部分の識別に用いられる背景マスクを生成可能である。 [00071] In some embodiments, the input image is masked so that only tissue regions are present in the image. In some embodiments, a tissue area mask is generated to mask the non-tissue area from the tissue area. In some embodiments, the tissue region is identified and the background region (eg, the region of the entire slide image corresponding to the sampleless glass, such as where only white light from the imaging source is present) is automatically or Tissue area masks may be formed by semi-automatically (ie, with minimal user input) exclusion. Of course, those skilled in the art need masking from tissue areas of non-tissue areas, as well as tissue masking modules such as parts of tissue identified as belonging to a particular tissue type or area suspected of being a tumor. Other areas of interest may be masked accordingly. In some embodiments, segmentation techniques are used to generate a tissue region masking image by masking the tissue region from the non-tissue region in the input image. Suitable segmentation techniques are known from prior art (“Digital Image Processing”, Third Edition, Rafael C. Gonzarez, Richard E. Woods, chapter 10, page 689 and “Hand”. Medical Imaging (Medical Imaging Handbook) ”, Processing and Analisis, Isaac N. Bankman Academic Press, 2000, chapter 2). In some embodiments, image segmentation techniques are used to distinguish between digitized tissue data in images and slides, in which case the tissue corresponds to the foreground and the slides to the background. In some embodiments, the component computes the area of interest (AoI) in the entire slide image to limit the amount of background non-organizational area analyzed while covering all tissue areas in the AoI. To detect. For example, extensive image segmentation techniques (eg, HSV color-based image segmentation, Lab image segmentation, average shift color image segmentation, region expansion, level) are used to determine the boundaries between tissue data and non-organizational or background data. Setting method, high-speed marching method, etc.) can be used. The components can also generate tissue foreground masks that can be used to identify parts of digitized slide data that correspond to tissue data, at least in part based on segmentation. Alternatively, the component can generate a background mask used to identify a portion of digitized slide data that does not correspond to tissue data.

[00072]この識別は、エッジ検出等の画像分析動作によって可能となり得る。画像(たとえば、非組織領域)中の非組織背景ノイズを除去するのに、組織領域マスクが用いられるようになっていてもよい。いくつかの実施形態において、組織領域マスクの生成には、輝度が所与の閾値を上回るピクセルが1に設定され、閾値を下回るピクセルが0に設定されて、組織領域マスクが生成されるように、低分解能入力画像の輝度の演算、輝度画像の生成、輝度画像への標準偏差フィルタの適用、フィルタリング輝度画像の生成、およびフィルタリング輝度画像への閾値の適用といった動作のうちの1つまたは複数を含む(ただし、これらの動作に限定されない)。組織領域マスクの生成に関する付加的な情報および例については、「An Image Processing Method and System for Analyzing a Multi−Channel Image Obtained from a Biological Tissue Sample Being Stained by Multiple Stains(複数のステインにより染色される生物学的組織サンプルから得られたマルチチャネル画像を分析する画像処理方法およびシステム)」という名称のPCT/EP/2015/062015に開示されており、そのすべての開示内容が参照により本明細書に組み込まれる。 [00072] This identification can be made possible by an image analysis operation such as edge detection. Tissue area masks may be used to remove non-tissue background noise in images (eg, non-tissue areas). In some embodiments, the generation of the tissue area mask is such that the pixels whose brightness is above a given threshold are set to 1 and the pixels below the threshold are set to 0 so that the tissue area mask is generated. One or more of operations such as calculating the luminance of a low-resolution input image, generating a luminance image, applying a standard deviation filter to a luminance image, generating a filtering luminance image, and applying a threshold to a filtered luminance image. Includes (but is not limited to these behaviors). For additional information and examples regarding the generation of tissue area masks, see "An Image Processing Method and System For Analyzing a Multi-Channel Image System Obtiined from System System System (Multiple Tissue). An image processing method and system for analyzing a multi-channel image obtained from a tissue sample) ”is disclosed in PCT / EP / 2015/062015, the entire disclosure of which is incorporated herein by reference. ..

[00073]いくつかの実施形態においては、画像または画像データを取得すべき生物学的サンプルの部分(たとえば、線維芽細胞の濃度が高い関心領域)を選択するのに、関心領域識別モジュールが用いられるようになっていてもよい。図13は、いくつかの実施形態に係る、領域選択のステップを示したフローチャートである。ステップ420において、領域選択モジュールは、識別された関心領域または視野を受信する。いくつかの実施形態において、関心領域は、本開示のシステムまたは本開示のシステムに対して通信可能に結合された別のシステムのユーザにより識別される。あるいは、他の実施形態において、領域選択モジュールは、ストレージ/メモリから関心領域の箇所または識別情報を読み出す。いくつかの実施形態において、ステップ430に示されるように、領域選択モジュールは、たとえばPCT/EP2015/062015に記載の方法によって、視野(FOV)または関心領域(ROI)を自動的に生成するが、そのすべての開示内容が参照により本明細書に組み込まれる。いくつかの実施形態において、関心領域は、画像中または画像のいくつかの所定基準または特質に基づいてシステムにより自動的に決定される(たとえば、3つ以上のステインにより染色された生物学的サンプルの場合は、ステインを2つだけ含む画像のエリアを識別する)。ステップ440において、領域選択モジュールは、ROIを出力する。 [00073] In some embodiments, the region of interest identification module is used to select the portion of the biological sample from which the image or image data should be obtained (eg, the region of interest with a high concentration of fibroblasts). You may be able to do it. FIG. 13 is a flowchart showing the steps of region selection according to some embodiments. In step 420, the region selection module receives the identified region of interest or field of view. In some embodiments, the area of interest is identified by a user of the system of the present disclosure or another system communicatively coupled to the system of the present disclosure. Alternatively, in another embodiment, the region selection module reads the location or identification information of the region of interest from the storage / memory. In some embodiments, as shown in step 430, the region selection module automatically generates a field of view (FOV) or region of interest (ROI), eg, by the method described in PCT / EP2015 / 062015. All disclosures thereof are incorporated herein by reference. In some embodiments, the region of interest is automatically determined by the system in the image or based on some predetermined criterion or characteristic of the image (eg, a biological sample stained with three or more stains). In the case of, identify the area of the image containing only two stains). At step 440, the region selection module outputs the ROI.

[00074]画像分析モジュール
[00075]いくつかの実施形態においては、入力として受信された画像内の特徴から、特定の測定基準(たとえば、FAP陽性面積、FAP陽性強度)が導出される(ステップ300)(図3参照)。導出測定基準は、本明細書において生成される副領域と相関されるようになっていてもよく(ステップ320、330、および340)、また、測定基準(または、その平均、標準偏差等)および副領域の場所が一体としてデータベースに格納され(ステップ350)、後々の読み出しおよび/または下流処理が行われるようになっていてもよい。本明細書に記載の手順およびアルゴリズムは、線維芽細胞および/もしくはマクロファージからの測定基準の導出を含めた、さまざまな種類の細胞もしくは細胞核からの測定基準の導出、および/もしくはさまざまな種類の細胞もしくは細胞核の分類を行うように構成されていてもよい。
[00074] Image analysis module
[00075] In some embodiments, features in the image received as input derive specific metrics (eg, FAP-positive area, FAP-positive intensity) (step 300) (see FIG. 3). .. Derived metrics may be correlated with the subregions generated herein (steps 320, 330, and 340), and the metrics (or their mean, standard deviation, etc.) and The location of the sub-region may be stored in the database as a unit (step 350) for later reading and / or downstream processing. The procedures and algorithms described herein are the derivation of metrics from different types of cells or cell nuclei, including the derivation of metrics from fibroblasts and / or macrophages, and / or different types of cells. Alternatively, it may be configured to classify cell nuclei.

[00076]いくつかの実施形態において、測定基準は、入力画像内の核の検出ならびに/または検出核(検出核の周りの画像パッチ等)および/もしくは細胞膜(当然のことながら、入力画像内で利用されるバイオマーカによって決まる)からの特徴の抽出によって導出される。他の実施形態においては、細胞膜染色、細胞質染色、および/または(たとえば、膜染色エリアと非膜染色エリアとを識別するための)強調染色を分析することによって、測定基準が導出される。本明細書において、用語「細胞質染色(cytoplasmic staining)」は、細胞の細胞質領域の形態学的特質を有するパターンに配置されたピクセル群を表す。本明細書において、用語「膜染色(membrane staining)」は、細胞膜の形態学的特質を有するパターンに配置されたピクセル群を表す。本明細書において、用語「強調染色(punctate staining)」は、細胞の膜エリアに散らばったスポット/ドットとして現れる局在化した染色強度が格納されたピクセル群を表す。当業者には当然のことながら、細胞の核、細胞質、および膜は、特質が異なるため、異なる染色の組織サンプルが異なる生物学的特徴を明らかにし得る。実際、当業者には当然のことながら、細胞表面の特定の受容体は、膜または細胞質に対して局在化した染色パターンを有し得る。このため、「膜」染色パターンは、「細胞質」染色パターンとは分析的に異なる。同様に、「細胞質」染色パターンおよび「核」染色パターンも分析的に異なる。たとえば、間質細胞はFAPにより強く染色され得るが、腫瘍上皮細胞はEpCAMにより強く染色され、一方、サイトケラチンはPanCKにより染色され得る。このため、画像分析中は、異なるステインの利用によって、異なる細胞腫が差別化および区別されるようになっていてもよく、また、異なる測定基準が導出されるようになっていてもよい。 [00076] In some embodiments, the metric is the detection of nuclei in the input image and / or the detected nuclei (such as image patches around the detected nuclei) and / or the cell membrane (of course, in the input image). Derived by extracting features from (determined by the biomarkers used). In other embodiments, metrics are derived by analyzing cell membrane staining, cytoplasmic staining, and / or emphasis staining (eg, to distinguish between membrane stained and non-membrane stained areas). As used herein, the term "cytoplasmic staining" refers to a group of pixels arranged in a pattern with morphological characteristics of the cytoplasmic region of a cell. As used herein, the term "membrane staining" refers to a group of pixels arranged in a pattern with morphological characteristics of a cell membrane. As used herein, the term "punctate staining" refers to a group of pixels containing localized staining intensities that appear as spots / dots scattered in the membrane area of a cell. As a matter of course to those skilled in the art, cell nuclei, cytoplasms, and membranes have different properties, so tissue samples with different stains can reveal different biological characteristics. In fact, as will be appreciated by those skilled in the art, certain receptors on the cell surface may have a staining pattern localized to the membrane or cytoplasm. For this reason, the "membrane" staining pattern is analytically different from the "cytoplasmic" staining pattern. Similarly, the "cytoplasmic" and "nucleus" staining patterns are analytically different. For example, stromal cells can be strongly stained with FAP, while tumor epithelial cells can be strongly stained with EpCAM, while cytokeratin can be stained with PanCK. Therefore, during image analysis, the use of different stains may allow different cell tumors to be differentiated and distinguished, or different metrics may be derived.

[00077]1つまたは複数のステインを有する生物学的サンプルの画像中の核、細胞膜、および細胞質の識別および/またはスコアリングを行う方法については、米国特許第7,760,927号(「’927特許」)に記載されており、そのすべての開示内容が参照により本明細書に組み込まれる。たとえば、’927特許は、バイオマーカにより染色された生物組織の入力画像中の複数のピクセルを同時に識別する自動化方法であって、細胞質および細胞膜ピクセルの同時識別のための入力画像の前景における複数のピクセルの第1の色平面を考慮するステップであり、入力画像が、当該入力画像の背景部分を除去するとともに当該入力画像のカウンタ染色成分を除去するように処理済みである、ステップと、デジタル画像の前景において細胞質と細胞膜のピクセル間の閾値レベルを決定するステップと、である場合に、前景からの選択ピクセルおよびその8つの隣接ピクセルを用いて、同時に、選択ピクセルがデジタル画像における細胞質ピクセルであるか、細胞膜ピクセルであるか、または遷移ピクセルであるかを、決定閾値レベルを用いて決定するステップと、を含む、方法を記載する。さらに、’927特許は、選択ピクセルおよびその8つの隣接ピクセルを用いて同時に決定するステップが、選択ピクセルとその8つの隣接ピクセルとの積の平方根を決定することと、積を決定閾値レベルと比較することと、比較に基づいて、細胞膜用の第1のカウンタ、細胞質用の第2のカウンタ、または遷移ピクセル用の第3のカウンタをインクリメントすることと、第1のカウンタ、第2のカウンタ、または第3のカウンタが所定の最大値を超えているかを判定し、超えている場合は、所定の最大値を超えたカウンタに基づいて、選択ピクセルを分類することと、を含む旨を記載する。核のスコアリングのほか、’927特許は、それぞれ演算細胞質ピクセル体積指標、細胞質ピクセル中央値強度、膜ピクセル体積、および膜ピクセル中央値強度等に基づく細胞質および膜のスコアリングに関する例を提供する。 [00077] US Pat. No. 7,760,927 ("'". For methods of identifying and / or scoring nuclei, cell membranes, and cytoplasms in images of biological samples with one or more stains. 927 patents ”), the entire disclosure of which is incorporated herein by reference. For example, the '927 patent is an automated method for simultaneously identifying multiple pixels in an input image of biological tissue stained with biomarkers, with multiple in the foreground of the input image for simultaneous identification of cytoplasmic and cell membrane pixels. A step of considering the first color plane of a pixel, a step in which the input image has been processed to remove a background portion of the input image and a counter-staining component of the input image, and a digital image. The step of determining the threshold level between the pixels of the cytoplasm and the cell membrane in the foreground, and where the selected pixels from the foreground and their eight adjacent pixels are used, at the same time, the selected pixels are the cytoplasmic pixels in the digital image. A method is described that includes a step of determining, whether it is a cell membrane pixel or a transition pixel, using a determination threshold level. In addition, the '927 patent states that the step of simultaneously determining the selected pixel and its eight adjacent pixels determines the square root of the product of the selected pixel and its eight adjacent pixels, and compares the product to the determination threshold level. And, based on the comparison, incrementing the first counter for the cell membrane, the second counter for the cytoplasm, or the third counter for the transition pixel, and the first counter, the second counter, Alternatively, it is determined whether or not the third counter exceeds the predetermined maximum value, and if it exceeds the predetermined maximum value, it is described that the selected pixels are classified based on the counter that exceeds the predetermined maximum value. .. In addition to nuclear scoring, the '927 patent provides examples of cytoplasmic and membrane scoring based on computational cytoplasmic pixel volume index, cytoplasmic median intensity, membrane pixel volume, membrane pixel median intensity, etc., respectively.

[00078]膜、核、および他の関心細胞特徴の識別および/またはスコアリングを行う別の方法がPCT公開WO2017/037180(「’180公開」)に記載されており、そのすべての開示内容が参照により本明細書に組み込まれる。さらに、’180公開は、膜染色の領域が細胞質染色および/または強調染色と混合された場合の生物学的サンプル中の関心検体の膜染色を定量化する方法を記載する。これを実現するため、’180公開は、(A)検体染色パターンに基づいて、組織または細胞学的サンプルのデジタル画像を複数の異なる領域にセグメント化するステップであり、複数の領域が、少なくとも1つの複合染色領域すなわち少なくとも1つの第2の生物学的区画中の検体陽性染色と混合された第1の生物学的区画中の検体陽性染色を有する画像の領域を含み、前記第1の生物学的区画および前記少なくとも1つの第2の生物学的区画が、分析的に異なる、ステップと、(B)ステップ(A)とは別個に、候補生物学的区画すなわち少なくとも第1の生物学的区画に対応するデジタル画像中のピクセルクラスタを識別するステップと、(C)ステップ(A)および(B)とは別個に、検体染色に対応するピクセルクラスタを高強度ビン、低強度ビン、および背景強度ビンにセグメント化することによって検体強度マップを生成するステップと、(D)複合染色領域内の候補生物学的区画を検体強度マップからの適当なビンと整合させて、各複合染色領域の分析的に関連する部分を識別するステップと、(E)複合染色領域の分析的に関連する部分における検体染色を定量化するステップと、によって、分析的に異なる生物学的区画の検体染色と染色が混合された領域(たとえば、(i)瀰漫性膜染色が細胞質染色と混合された領域または(ii)瀰漫性膜染色が強調染色と混合された領域)における生物学的区画の検体染色を定量化する方法を記載する。そして、区画または染色強度定量化のエリアが決定され得るように、任意の識別区画中のピクセルを定量化可能である。また、’180公開は、膜固有発現レベルのスコアリングを記載する。 [00078] Another method for identifying and / or scoring membrane, nucleus, and other cell features of interest is described in PCT Publication WO 2017/037180 (“'180 Publication”), the entire disclosure of which is described. Incorporated herein by reference. In addition, the '180 publication describes a method of quantifying membrane staining of a specimen of interest in a biological sample when the area of membrane staining is mixed with cytoplasmic staining and / or emphasis staining. To achieve this, the '180 publication is a step of (A) segmenting a digital image of a tissue or cytological sample into a plurality of different regions based on a sample staining pattern, with the plurality of regions being at least one. A region of an image having a sample-positive stain in a first biological compartment mixed with a composite stained region, i.e. a sample-positive stain in at least one second biological compartment, comprising the first biology. The candidate biological compartment, i.e. at least the first biological compartment, is separate from the step and (B) step (A), where the compartment and the at least one second biological compartment are analytically different. Separately from the step of identifying the pixel cluster in the digital image corresponding to (C) and (A) and (B), the pixel cluster corresponding to the sample staining is divided into high-intensity bins, low-intensity bins, and background intensity. The steps to generate a sample intensity map by segmenting into bins and (D) matching the candidate biological compartments within the composite staining region with the appropriate bins from the sample intensity map are analytical for each composite staining region. Specimen staining and staining of analytically different biological compartments are mixed by the step of identifying the part associated with (E) and the step of quantifying the sample staining in the analytically related part of the complex staining region. Quantify specimen staining of biological compartments in these regions (eg, (i) regions where diffuse membrane staining is mixed with cytoplasmic staining or (ii) regions where diffuse membrane staining is mixed with emphasis staining). Describe the method. Pixels in any discriminating compartment can then be quantified so that the compartment or area of staining intensity quantification can be determined. The '180 publication also describes scoring of membrane-specific expression levels.

[00079]いくつかの実施形態において、スコアリングは、分類された核に関して実行され、特定のバイオマーカの百分率正値性測定基準またはHスコア測定基準が得られる。核を識別することによって、対応する細胞が識別され得る。他の実施形態においては、関連する核それぞれを周囲の染色膜と関連付けることによって、細胞がスコアリングされる。核の周りの染色膜の有無に基づいて、たとえば非染色(核の周りに染色膜が見つからない)、部分染色(細胞の核の一部が染色膜に囲まれる)、または完全染色(核の全体が染色膜に囲まれる)として細胞が分類されるようになっていてもよい。 [00079] In some embodiments, scoring is performed on the classified nuclei to obtain a percentage positive or H-score metric for a particular biomarker. By identifying the nucleus, the corresponding cell can be identified. In other embodiments, cells are scored by associating each of the associated nuclei with the surrounding staining membrane. Based on the presence or absence of a stained membrane around the nucleus, for example, unstained (no stained membrane found around the nucleus), partial staining (part of the cell nucleus is surrounded by a stained membrane), or complete staining (of the nucleus) The cells may be classified as (whole surrounded by a staining membrane).

[00080]いくつかの実施形態においては、最初に候補核を識別した後、腫瘍核と非腫瘍核とを自動的に区別することによって、腫瘍核が自動的に識別される。当技術分野においては、組織の画像中の候補核を識別する多くの方法が知られている。たとえば、放射対称に基づく方法であって、本明細書に記載の通り、Ruifrok et al.により記述されたカラーデコンボリューションを用いて取得されたヘマトキシリン画像チャネルまたはバイオマーカ画像チャネル等に対して、同じく本明細書に記載の通り、Parvin et al.の放射対称に基づく方法を適用することにより自動候補核検出が実行され得る。例示的な一実施形態においては、本発明の譲受人に譲渡された同時係属特許出願WO2014/140085A1に記載の通り、放射対称に基づく核検出動作が使用され、そのすべての内容が参照により本明細書に組み込まれる。他の方法が米国特許出願公開第2017/0140246号に記載されており、その開示内容が参照により本明細書に組み込まれる。 [00080] In some embodiments, tumor nuclei are automatically identified by first identifying candidate nuclei and then automatically distinguishing between tumor nuclei and non-tumor nuclei. Many methods are known in the art to identify candidate nuclei in tissue images. For example, a method based on radial symmetry, as described herein, Ruiflok et al. For hematoxylin image channels, biomarker image channels, and the like obtained using the color deconvolution described in the above, as described herein, Paravin et al. Automatic candidate nucleus detection can be performed by applying a method based on the radial symmetry of. In one exemplary embodiment, a nuclear detection operation based on radial symmetry is used as described in Simultaneously Pending Patent Application WO2014 / 140855A1 assigned to the assignee of the present invention, all of which is hereby referenced Incorporated into the book. Other methods are described in U.S. Patent Application Publication No. 2017/01/40246, the disclosure of which is incorporated herein by reference.

[00081]候補核は、識別された後、腫瘍核を他の候補核から区別するように別途分析される。他の候補核は、(たとえば、リンパ球核および間質核の識別によって)さらに分類されるようになっていてもよい。いくつかの実施形態においては、学習済みの教師あり分類器が腫瘍核の識別に適用される。たとえば、学習済み教師あり分類器は、核の特徴に関するトレーニングによって腫瘍核を識別した後、テスト画像において候補核を腫瘍核または非腫瘍核として分類するように適用される。任意選択として、学習済み教師あり分類器は、別途トレーニングによって、リンパ球核および間質核等、異なるクラスの非腫瘍核を区別するようにしてもよい。いくつかの実施形態において、腫瘍核の識別に用いられる学習済み教師あり分類器は、ランダムフォレスト分類器である。たとえば、ランダムフォレスト分類器のトレーニングは、(i)腫瘍および非腫瘍核のトレーニングセットを生成し、(ii)それぞれの核の特徴を抽出し、(iii)抽出した特徴に基づいて腫瘍核と非腫瘍核とを区別するようにランダムフォレスト分類器をトレーニングすることによって行われ得る。そして、トレーニングしたランダムフォレスト分類器の適用により、テスト画像において、核を腫瘍核および非腫瘍核に分類するようにしてもよい。任意選択として、ランダムフォレスト分類器は、別途トレーニングによって、リンパ球核および間質核等、異なるクラスの非腫瘍核を区別するようにしてもよい。 [00081] Candidate nuclei are identified and then analyzed separately to distinguish tumor nuclei from other candidate nuclei. Other candidate nuclei may be further classified (eg, by identification of lymphocyte nuclei and stromal nuclei). In some embodiments, a trained supervised classifier is applied to identify tumor nuclei. For example, a trained supervised classifier is applied to identify tumor nuclei by training on nuclear features and then classify candidate nuclei as tumor nuclei or non-tumor nuclei on test images. Optionally, the trained supervised classifier may be trained separately to distinguish between different classes of non-tumor nuclei, such as lymphocyte nuclei and stromal nuclei. In some embodiments, the trained supervised classifier used to identify tumor nuclei is a random forest classifier. For example, training in a random forest classifier would (i) generate a training set of tumor and non-tumor nuclei, (ii) extract the characteristics of each nucleus, and (iii) extract the characteristics of the tumor nuclei and non-tumor nuclei. This can be done by training a random forest classifier to distinguish it from tumor nuclei. Then, by applying a trained random forest classifier, the nuclei may be classified into tumor nuclei and non-tumor nuclei in the test image. Optionally, the random forest classifier may be trained separately to distinguish between different classes of non-tumor nuclei, such as lymphocyte nuclei and stromal nuclei.

[00082]いくつかの実施形態において、入力として受信された画像は、核中心(種子)の検出および/または核のセグメント化を行うように処理される。たとえば、当業者に共通して既知の技術を用いた放射対称投票に基づいて核中心を検出する命令が与えられるようになっていてもよい(Parvin,Bahram,et al.「Iterative voting for inference of structural saliency and characterization of subcellular events(構造的特徴の推定および細胞内事象の特性化のための反復投票)」,Image Processing,IEEE Transactions on 16.3(2007):615−623(すべての開示内容が参照により本明細書に組み込まれる)参照)。いくつかの実施形態においては、放射対称を用いた核の検出によって核の中心が検出された後、細胞中心の周りのステインの強度に基づいて核が分類される。たとえば、画像内で画像の大きさが演算されるようになっていてもよく、選択領域内の大きさの合計を加算することによって、各ピクセルにおける1つまたは複数の投票が蓄積される。核の実際の場所を表す領域中の局所中心を見つけるのに、平均シフトクラスタリングが用いられるようになっていてもよい。放射対称投票に基づく核検出は、カラー画像強度データに対して実行され、核が、サイズおよび偏心度が変動する楕円形状の斑点であるという推測的な領域知識を明示的に使用する。これを実現するため、入力画像中の色強度と併せて、画像勾配情報も放射対称投票に使用され、適応セグメント化プロセスとの組み合わせによって、細胞核の正確な検出および位置特定を行う。本明細書において、「勾配(gradient)」は、たとえば特定のピクセルを囲むピクセル集合の強度値勾配を考慮することにより前記特定ピクセルに対して計算されたピクセルの強度勾配である。各勾配は、デジタル画像の2つの直交エッジによってx軸およびy軸が規定される座標系に対して、特定の「配向」を有していてもよい。たとえば、核種子検出には、細胞核の内側に存在すると仮定され、細胞核の位置特定の開始点として機能する点として種子を規定することを伴う。第1のステップでは、放射対称に基づく高堅牢な手法を用いて細胞核に類似する楕円形状の斑点、構造を検出することにより、各細胞核と関連付けられた種子点を検出する。放射対称手法は、カーネルベースの投票手順を用いることにより、勾配画像上で動作する。投票カーネルを通じて投票を蓄積した各ピクセルを処理することによって、投票応答行列が生成される。カーネルは、当該特定ピクセルにおいて演算された勾配方向、最大および最小核サイズの予想範囲、ならびに投票カーネル角度(通常、[π/4,π/8]の範囲)に基づく。結果としての投票空間において、所定の閾値よりも高い投票値を有する極大の場所は、種子点として保存される。無関係な種子については、後続のセグメント化または分類プロセスにおいて破棄されるようになっていてもよい。 [00082] In some embodiments, the image received as input is processed to perform nuclear center (seed) detection and / or nuclear segmentation. For example, a command to detect a nuclear center may be given based on a radiosymmetric vote using a technique commonly known to those skilled in the art (Parvin, Bahram, et al., "Institute of Electrical and Electronics Engineer of". Structural saliency and symmetry of subcellular events (repeated voting for estimation of structural features and characterization of intracellular events) ”, Image Processing, IEEE Transitions on 16.3 (2007): 61 (2007). (Incorporated herein by reference)). In some embodiments, the nuclear center is detected by detection of the nucleus using radial symmetry, after which the nucleus is classified based on the intensity of stain around the cell center. For example, the size of the image may be calculated within the image, and by adding the sum of the sizes within the selected area, one or more votes at each pixel are accumulated. Mean shift clustering may be used to find local centers in the region that represent the actual location of the nucleus. Nuclear detection based on radial symmetry voting is performed on color image intensity data and explicitly uses speculative domain knowledge that the nucleus is an elliptical spot that varies in size and eccentricity. To achieve this, image gradient information, along with color intensity in the input image, is also used for radiosymmetric voting and, in combination with an adaptive segmentation process, provides accurate detection and localization of cell nuclei. As used herein, a "gradient" is a pixel intensity gradient calculated for a particular pixel, for example by considering the intensity value gradient of a set of pixels surrounding the particular pixel. Each gradient may have a particular "orientation" with respect to a coordinate system whose x-axis and y-axis are defined by the two orthogonal edges of the digital image. For example, nuclear seed detection involves defining seeds as points that are assumed to be inside the cell nucleus and serve as a starting point for locating the cell nucleus. In the first step, seed points associated with each cell nucleus are detected by detecting elliptical spots and structures similar to cell nuclei using a highly robust technique based on radial symmetry. The radial symmetry method operates on a gradient image by using a kernel-based voting procedure. A voting response matrix is generated by processing each pixel that has accumulated votes through the voting kernel. The kernel is based on the gradient direction calculated at the particular pixel, the expected range of maximum and minimum nucleus sizes, and the voting kernel angle (usually the range [π / 4, π / 8]). In the resulting voting space, the maximal locations with voting values above a predetermined threshold are stored as seed points. Unrelated seeds may be discarded in subsequent segmentation or classification processes.

[00083]当業者に既知の他の技術を用いて核が識別されるようになっていてもよい。たとえば、H&EまたはIHC画像の一方の特定の画像チャネルから画像の大きさが演算されるようになっていてもよく、また、特定された大きさの周りの各ピクセルには、当該ピクセルの周りの領域内の大きさの合計に基づく多くの投票が割り当てられていてもよい。あるいは、平均シフトクラスタリング演算の実行によって、核の実際の場所を表す投票画像内の局所中心を見つけるようにしてもよい。他の実施形態においては、核セグメント化の使用により、形態学的演算および局所閾値化を介した当該核の現在既知の中心に基づいて、核全体をセグメント化するようにしてもよい。さらに他の実施形態においては、モデルベースのセグメント化の利用によって、核を検出するようにしてもよい(すなわち、トレーニングデータセットから核の形状モデルを学習し、これを先行知識として用いることにより、テスト画像において核をセグメント化する)。 [00083] The nucleus may be identified using other techniques known to those of skill in the art. For example, the size of an image may be calculated from one particular image channel of an H & E or IHC image, and each pixel around the specified size is around that pixel. Many votes may be assigned based on the total size within the area. Alternatively, the average shift clustering operation may be performed to find the local center in the voting image that represents the actual location of the nucleus. In other embodiments, the use of nuclear segmentation may be used to segment the entire nucleus based on the currently known center of the nucleus via morphological arithmetic and local thresholding. In yet other embodiments, the use of model-based segmentation may be used to detect nuclei (ie, by learning a nuclei shape model from a training dataset and using it as prior knowledge. Segment the nucleus in the test image).

[00084]いくつかの実施形態において、核はその後、それぞれについて個別に演算された閾値を用いてセグメント化される。たとえば、核領域のピクセル強度が変動すると考えられることから、識別された核の周りの領域におけるセグメント化には、大津法が用いられるようになっていてもよい。当業者には当然のことながら、大津法は、クラス内分散を最小限に抑えることにより最適な閾値を決定するのに用いられるが、当業者には既知である。より具体的に、大津法は、クラスタリングベースの画像閾値化すなわちグレーレベル画像の2値画像への減縮を自動的に実行するのに用いられる。アルゴリズムは、画像が二峰性ヒストグラムに従う2クラスのピクセル(前景ピクセルおよび背景ピクセル)を含むものと仮定する。そして、(ペアワイズ2乗距離の合計が一定であるため)2つのクラスの結合散布(クラス内分散)が最小または等価になるように分離する最適な閾値を計算することによって、それぞれのクラス内分散が最大となる。 [00084] In some embodiments, the nuclei are then segmented using individually calculated thresholds for each. For example, the Otsu method may be used for segmentation in the region around the identified nucleus because the pixel intensity of the nuclear region is expected to fluctuate. Of course to those skilled in the art, the Otsu method is used to determine the optimal threshold by minimizing intraclass variance, but is known to those skilled in the art. More specifically, the Otsu method is used to automatically perform clustering-based image thresholding, i.e. reduction of gray level images to binary images. The algorithm assumes that the image contains two classes of pixels (foreground and background pixels) that follow a bimodal histogram. Then, by calculating the optimal threshold for separating the two classes so that the combined dispersion (intraclass variance) of the two classes is minimal or equivalent (because the sum of the pairwise squared distances is constant), each intraclass variance Is the maximum.

[00085]いくつかの実施形態において、これらのシステムおよび方法は、非腫瘍細胞の核を識別する画像中の識別核のスペクトルおよび/または形状の特徴を自動的に分析することを含む。たとえば、第1のステップにおいては、第1のデジタル画像中で斑点が識別されるようになっていてもよい。本明細書において、「斑点(blob)」としては、たとえば一部の特性(たとえば、強度またはグレー値)が一定であるか、または、所定の値範囲内で変動するデジタル画像の領域が可能である。ある意味では、斑点中のすべてのピクセルが互いに類似すると考えられる。たとえば、デジタル画像上の位置の関数の導関数に基づく差分法および極値に基づく方法を用いて斑点が識別されるようになっていてもよい。核斑点は、おそらくは第1のステインにより染色された核によって生成されたことをピクセルおよび/または外形状が示す斑点である。たとえば、斑点の放射対称の評価によって、当該斑点を核斑点として識別すべきか、その他任意の構造(たとえば、染色アーチファクト)として識別すべきかを判定することも可能である。たとえば、斑点が非常に長い形状であり、放射対称ではない場合、前記斑点は、核斑点としてではなく、染色アーチファクトとして識別されるようになっていてもよい。本実施形態によれば、「核斑点」と識別された斑点は、候補核として識別され、前記核斑点が核を表すかを判定するようにさらに分析可能なピクセル集合を表していてもよい。いくつかの実施形態においては、任意の種類の核斑点が「識別核」として直接使用される。いくつかの実施形態においては、識別核または核斑点にフィルタリング演算が適用されて、バイオマーカ陽性腫瘍細胞に属さない核を識別するとともに、識別済みの核一覧から前記識別非腫瘍核を除去するか、または、最初から前記核を識別核一覧に追加しない。たとえば、識別核斑点の付加的なスペクトルおよび/または形状の特徴の分析によって、核または核斑点が腫瘍細胞の核であるか否かを判定するようにしてもよい。たとえば、リンパ球の核は、他の組織細胞(たとえば、肺細胞)の核よりも大きい。腫瘍細胞が肺組織に由来する場合は、正常な肺の細胞核の平均的なサイズまたは直径よりもはるかに大きな最小サイズまたは直径のすべての核斑点を識別することによって、リンパ球の核が識別される。リンパ球の核に関する識別核斑点は、識別済みの核の集合から除去(すなわち、「フィルタリング除去」)されるようになっていてもよい。非腫瘍細胞の核のフィルタリング除去によって、この方法の精度は向上し得る。バイオマーカによれば、ある程度までは非腫瘍細胞もバイオマーカを表し得るため、腫瘍細胞に由来しない第1のデジタル画像において強度信号を生成可能である。腫瘍細胞に属さない核を識別して、識別済みの核全体からフィルタリング除去することにより、バイオマーカ陽性腫瘍細胞を識別する精度が向上し得る。上記および他の方法が米国特許出願公開第2017/0103521号に記載されており、そのすべての開示内容が参照により本明細書に組み込まれる。いくつかの実施形態においては、種子が検出されたら、局所適応閾値化方法が用いられるようになっていてもよく、検出中心周りの斑点が生成される。いくつかの実施形態においては、他の方法が具現化されるようになっていてもよく、たとえば、マーカベースの分水嶺アルゴリズムの使用によって、検出核中心周りの核斑点を識別することも可能である。上記および他の方法が同時係属出願PCT/EP2016/051906(WO2016/120442として公開)に記載されており、そのすべての開示内容が参照により本明細書に組み込まれる。 [00085] In some embodiments, these systems and methods include automatically analyzing spectral and / or morphological features of the discriminating nuclei in images that identify the nuclei of non-tumor cells. For example, in the first step, the spots may be identified in the first digital image. As used herein, a "blob" can be, for example, a region of a digital image in which some properties (eg, intensity or gray values) are constant or fluctuate within a predetermined range of values. is there. In a sense, all the pixels in the spot are considered to be similar to each other. For example, finite difference methods based on derivatives of functions of position on a digital image and extremum-based methods may be used to identify spots. Nuclear spots are spots whose pixels and / or outer shape indicate that they were probably produced by nuclei stained with a first stain. For example, the evaluation of the radial symmetry of the spots can be used to determine whether the spots should be identified as nuclear spots or as any other structure (eg, stained artifacts). For example, if the spots have a very long shape and are not radial symmetric, the spots may be identified as stained artifacts rather than as nuclear spots. According to this embodiment, the spots identified as "nuclear spots" may represent a set of pixels that are identified as candidate nuclei and can be further analyzed to determine if the nuclear spots represent a nucleus. In some embodiments, any type of core spot is used directly as the "identifying core". In some embodiments, filtering operations are applied to the identified nuclei or nuclear spots to identify nuclei that do not belong to biomarker-positive tumor cells and to remove the identified non-tumor nuclei from the identified nuclei list. Or, do not add the nucleus to the list of identified nuclei from the beginning. For example, analysis of the additional spectral and / or shape features of the discriminating nuclear spots may be used to determine if the nucleus or nuclear spots are the nucleus of a tumor cell. For example, the core of lymphocytes is larger than the core of other tissue cells (eg, lung cells). When tumor cells are derived from lung tissue, lymphocyte nuclei are identified by identifying all nuclear spots of minimum size or diameter that are much larger than the average size or diameter of normal lung cell nuclei. To. Discriminating nuclear spots on the lymphocyte nuclei may be removed (ie, "filtering depletion") from the identified set of nuclei. Filtering and removal of nuclei of non-tumor cells can improve the accuracy of this method. According to the biomarker, non-tumor cells can also represent the biomarker to some extent, so that an intensity signal can be generated in a first digital image not derived from the tumor cells. By identifying nuclei that do not belong to tumor cells and filtering out the entire identified nuclei, the accuracy of identifying biomarker-positive tumor cells can be improved. The above and other methods are described in US Patent Application Publication No. 2017/0103521 and all disclosures thereof are incorporated herein by reference. In some embodiments, once seeds are detected, local adaptive thresholding methods may be used to generate spots around the detection center. In some embodiments, other methods may be embodied, for example, by using a marker-based watershed algorithm, it is possible to identify nuclear spots around the detection nucleus center. .. The above and other methods are described in the co-pending application PCT / EP2016 / 051906 (published as WO2016 / 120442), the entire disclosure of which is incorporated herein by reference.

[00086]このシステムは、少なくとも1つの画像特質測定基準および少なくとも1つの形態測定基準を使用して、画像内の特徴が関心構造に対応するかを判定することができる(「特徴測定基準」と総称する)。画像特質測定基準(画像内の特徴から導出)としては、たとえば色、色バランス、強度等が挙げられる。形態測定基準(画像内の特徴から導出)としては、たとえば特徴サイズ、特徴色、特徴配向、特徴形状、特徴(たとえば、隣り合う特徴)間の関係または距離、別の解剖学的構造に対する特徴の関係または距離等が挙げられる。本明細書に記載の通り、分類器のトレーニングには、画像特質測定基準、形態測定基準、および他の測定基準を使用可能である。画像特徴から導出される測定基準の具体例が以下に示される。 [00086] The system can use at least one image trait metric and at least one morphological metric to determine if a feature in an image corresponds to a structure of interest ("feature metric"). Collectively). Examples of the image characteristic measurement standard (derived from the features in the image) include color, color balance, and intensity. Morphological metrics (derived from features in an image) include, for example, feature size, feature color, feature orientation, feature shape, relationship or distance between features (eg, adjacent features), and features for another anatomy. Relationships or distances can be mentioned. As described herein, image quality metrics, morphological metrics, and other metrics can be used for classifier training. Specific examples of the measurement criteria derived from the image features are shown below.

[00087](A)形態特徴から導出される測定基準
[00088]本明細書において、「形態特徴(morphology feature)」は、たとえば核の形状または寸法を示す特徴である。任意特定の理論に縛られることを望むことなく、形態特徴は、細胞またはその核のサイズおよび形状に関する何らかの不可欠な情報を提供すると考えられる。たとえば、核斑点もしくは種子に含まれるピクセルまたは核斑点もしくは種子を囲むピクセルに対してさまざまな画像分析アルゴリズムを適用することにより、形態特徴が演算され得る。いくつかの実施形態において、形態特徴としては、面積、短軸および長軸の長さ、周長、半径、中実性等が挙げられる。
[00087] (A) Measurement criteria derived from morphological features
[00088] As used herein, a "morphological feature" is, for example, a feature that indicates the shape or size of a nucleus. Without wishing to be bound by any particular theory, morphological features are believed to provide some essential information about the size and shape of a cell or its nucleus. For example, morphological features can be calculated by applying various image analysis algorithms to the pixels contained in the nuclear spots or seeds or the pixels surrounding the nuclear spots or seeds. In some embodiments, morphological features include area, minor and major axis lengths, perimeters, radii, solidity and the like.

[00089](B)外観特徴から導出される測定基準
[00090]本明細書において、「外観特徴(appearance feature)」は、たとえば核の識別に用いられる核斑点もしくは種子に含まれるピクセルまたは核斑点もしくは種子を囲むピクセルのピクセル強度値を比較することにより特定の核に対して演算された特徴であって、比較されるピクセル強度が異なる画像チャネル(たとえば、背景チャネル、バイオマーカの染色のためのチャネル等)から導出される。いくつかの実施形態において、外観特徴から導出される測定基準は、異なる画像チャネルから演算されたピクセル強度および勾配の大きさの百分位数値(たとえば、10番目、50番目、および95番目の百分位数値)から演算される。たとえば、まず初めに、関心核を表す核斑点内の画像チャネル(たとえば、HTX、DAB、輝度という3つのチャネル)の複数のICそれぞれのピクセル値のX百分位数値(X=10、50、95)の数Pが識別される。外観特徴測定基準を演算することは、導出された測定基準が核領域の特性を表すほか、核の周りの膜領域も表し得るため、好都合と考えられる。
[00089] (B) Measurement criteria derived from appearance features
[00090] In the present specification, the "appearance feature" refers to, for example, by comparing the pixel intensity values of the pixels contained in the nuclear spots or seeds used for identifying the nucleus or the pixels surrounding the nuclear spots or seeds. Derived from image channels (eg, background channels, channels for staining biomarkers, etc.) that are calculated features for a particular nucleus and have different pixel intensities to be compared. In some embodiments, the metrics derived from the appearance features are percentiles of pixel intensity and gradient magnitude calculated from different image channels (eg, 10th, 50th, and 95th hundreds). Calculated from the percentile). For example, first of all, the X percentile value (X = 10, 50,) of the pixel value of each of the plurality of ICs of the image channels (for example, three channels of HTX, DAB, and luminance) in the nuclear spot representing the nucleus of interest. The number P of 95) is identified. It is considered convenient to calculate the appearance feature metric because the derived metric can represent the characteristics of the nuclear region as well as the membrane region around the nucleus.

[00091](C)背景特徴から導出される測定基準
[00092]「背景特徴(background feature)」は、たとえば細胞質中の外観および/もしくはステイン有無を示す特徴ならびに当該背景特徴が画像から抽出された核を含む細胞の細胞膜特徴である。たとえば、核斑点または核を表す種子を識別し、識別さされた細胞集合に直接隣り合うピクセルエリア(たとえば、核斑点境界周りの20ピクセル(およそ9ミクロン)厚のリボン)を分析することにより、この核を有する細胞に直接隣り合うエリアと一体的に、当該細胞の細胞質および膜中の外観およびステイン有無を取り込むことによって、デジタル画像に示される核および対応する細胞の背景特徴および対応する測定基準が演算され得る。これらの測定基準は、核外観特徴に類似するが、それぞれの核境界周りのおよそ20ピクセル(およそ9ミクロン)厚のリボンにおいて演算されるため、識別核を有する細胞に直接隣り合うエリアと一体的に、当該細胞の細胞質および膜中の外観およびステイン有無が取り込まれる。任意特定の理論に縛られることを望むことなく、リボンサイズが選択されるのは、核の識別に有用な情報の提供に使用可能な核周りの十分な量の背景組織エリアを当該リボンが取り込むと考えられるためである。これらの特徴は、J.Kong,et al.「A comprehensive framework for classification of nuclei in digital microscopy imaging: An application to diffuse gliomas(デジタル顕微鏡撮像における核の分類のための包括的枠組み:瀰漫性グリオーマへの適用)」,ISBI,2011,pp.2128−2131に開示の特徴と類似しており、そのすべての開示内容が参照により本明細書に組み込まれる。これらの特徴は、周囲の組織が(H&E染色組織サンプル等における)間質であるか上皮であるかを判定するのに使用可能と考えられる。また、任意特定の理論に縛られることを望むことなく、これらの背景特徴は、組織サンプルが適当な膜染色剤により染色される場合に有用な膜染色パターンを取り込むと考えられる。
[00091] (C) Measurement criteria derived from background features
[00092] “Background features” are, for example, features that indicate appearance and / or the presence or absence of stain in the cytoplasm and cell membrane features of cells containing nuclei extracted from the image. For example, by identifying a seed that represents a nuclear spot or nucleus and analyzing a pixel area that is directly adjacent to the identified cell assembly (eg, a 20 pixel (approximately 9 micron) thick ribbon around the nuclear spot boundary). Background features and corresponding metrics of the nucleus and corresponding cells shown in digital images by capturing the cytoplasm and in-membrane appearance and stain presence of the cell, integrally with the area directly adjacent to the cell bearing the nucleus. Can be calculated. These metrics are similar to nuclear appearance features, but are calculated on a ribbon approximately 20 pixels (approximately 9 microns) thick around each nuclear boundary, so they are integrated with the area directly adjacent to the cell with the discriminant nucleus. The appearance and presence or absence of stain in the cytoplasm and membrane of the cell are incorporated into the cell. Without wishing to be bound by any particular theory, the ribbon size is chosen so that the ribbon captures a sufficient amount of background tissue area around the nucleus that can be used to provide useful information for identifying the nucleus. This is because it is considered. These features are characterized by J. Kong, et al. "A comprehensive framework for framework of glioma in digital microscopic imaging: An application to glioma: application to gliomas: application to gliomas: application to gliomas: application to gliomas, application to gliomas, gliomas, gliomas, gliomas, gliomas, gliomas, gliomas, gliomas, gliomas, gliomas, gliomas, gliomas. Similar to the characteristics of the disclosures in 2128-2131, all disclosures are incorporated herein by reference. These features may be useful in determining whether the surrounding tissue is stromal or epithelial (such as in H & E stained tissue samples). Also, without wishing to be bound by any particular theory, these background features are believed to incorporate membrane staining patterns that are useful when tissue samples are stained with a suitable membrane stain.

[00093](D)色から導出される測定基準
[00094]いくつかの実施形態において、色から導出される測定基準としては、色比率R/(R+G+B)または色主成分が挙げられる。他の実施形態において、色から導出される測定基準としては、各色の局所統計値(平均/中央値/分散/標準偏差)および/または局所画像ウィンドウ中の色強度相関が挙げられる。
[00093] (D) Metrics derived from color
[00094] In some embodiments, the metric derived from color includes a color ratio R / (R + G + B) or a color principal component. In other embodiments, color-derived metrics include local statistics (mean / median / variance / standard deviation) and / or color intensity correlation in the local image window for each color.

[00095](E)強度特徴から導出される測定基準
[00096]ある特定の特性値を有する隣り合う細胞群は、病理組織学的スライド画像において表されるグレーの色付き細胞の黒白の色調間に設定される。色特徴の相関がサイズクラスのインスタンスを規定するため、これら色付き細胞の強度は、その周囲の暗色細胞のクラスタから影響を受ける細胞を決定する。質感特徴の例がPCT公開WO2016/075095に記載されており、そのすべての開示内容が参照により本明細書に組み込まれる。
[00095] (E) Metrics derived from strength characteristics
[00096] Adjacent cell populations with certain characteristic values are set between the black and white tones of the gray colored cells represented in the histopathological slide image. The intensity of these colored cells determines the cells affected by the cluster of dark cells surrounding them, as the correlation of color features defines size class instances. Examples of texture features are described in PCT Publication WO 2016/075095, the entire disclosure of which is incorporated herein by reference.

[00097](F)空間特徴
[00098]いくつかの実施形態において、空間特徴としては、細胞の局所密度、2つの隣り合う検出細胞間の平均距離、および/または細胞からセグメント化領域までの距離が挙げられる。
[00097] (F) Spatial features
[00098] In some embodiments, spatial features include local density of cells, the average distance between two adjacent detection cells, and / or the distance from the cell to the segmented region.

[00099](G)核特徴から導出される測定基準
[000100]当業者には当然のことながら、測定基準は、核特徴からも導出され得る。このような核特徴の演算は、Xing et al.「Robust Nucleus/Cell Detection and Segmentation in Digital Pathology and Microscopy Images: A Comprehensive Review(デジタル病理学・顕微鏡画像における堅牢な核/細胞検出およびセグメント化:包括的レビュー)」,IEEE Rev Biomed Eng 9,234−263,January 2016に記載されており、そのすべての開示内容が参照により本明細書に組み込まれる。当然のことながら、特徴の演算の基礎としては、当業者に既知の他の特徴も考慮および使用され得る。
[00099] (G) Metrics derived from nuclear features
[000100] Of course to those skilled in the art, metrics can also be derived from nuclear features. Calculations of such nuclear features are performed by Xing et al. "Robust Nucleus / Cell Detection and Segmentation in Digital Pathology and Microscopy Images: A Comprehensive Review: A Comprehensive Review (Digital Pathology / Microscopic Imaging) Robust Nucleus / Cell Detection and Segmentation in Digital Pathology / Microscopic Imaging" 263, January 2016, the entire disclosure of which is incorporated herein by reference. Of course, other features known to those of skill in the art may also be considered and used as the basis for the calculation of features.

[000101]特徴測定基準の導出後は、特徴の単独での使用またはトレーニングデータとの併用によって(たとえば、トレーニング中は、当業者に既知の手順に従って観察専門家により与えられるグランドトゥルース識別情報と併せて、例示的な細胞が提示される)、核または細胞を分類するようにしてもよい。いくつかの実施形態において、このシステムは、バイオマーカごとのトレーニングセットまたは基準スライドセットに少なくとも部分的に基づいてトレーニングされた分類器を具備し得る。当業者には当然のことながら、バイオマーカごとの分類器のトレーニングには、さまざまなスライドセットを使用可能である。したがって、単一のバイオマーカに対して、トレーニング後に単一の分類器が得られる。また、当業者には当然のことながら、異なるバイオマーカから得られる画像データ間にはばらつきがあるため、異なるバイオマーカごとに異なる分類器をトレーニングすることによって、未知のテストデータに対するより優れた性能を保証することができ、テストデータのバイオマーカ種が把握されることになる。トレーニング対象の分類器は、スライド解釈に対して、たとえば組織の種類、染色プロトコル、および他の関心特徴におけるトレーニングデータのばらつきの最良の取り扱い方法に少なくとも部分的に基づいて選択可能である。 [000101] After deriving the feature metrics, either by feature alone or in combination with training data (eg, during training, combined with grand truth identification information provided by an observation expert according to procedures known to those of skill in the art). An exemplary cell is presented), the nucleus or cell may be classified. In some embodiments, the system may comprise a classifier trained at least partially based on a per-biomarker training set or reference slide set. As a matter of course to those skilled in the art, various slide sets can be used for training the classifier for each biomarker. Therefore, for a single biomarker, a single classifier is obtained after training. Also, of course, those skilled in the art will have variations between image data obtained from different biomarkers, so training different classifiers for different biomarkers will result in better performance against unknown test data. Can be guaranteed, and the biomarker species of the test data will be known. The trainable classifier can be selected for slide interpretation, at least in part, based on the best treatment of variability in training data, for example in tissue type, staining protocol, and other features of interest.

[000102]いくつかの実施形態において、分類モジュールは、サポートベクターマシン(「SVM」)である。一般的に、SVMは分類技術であって、非線形の場合のカーネルにより非線形入力データセットが高次元線形特徴空間に変換される統計的学習理論に基づく。任意特定の理論に縛られることを望むことなく、サポートベクターマシンは、カーネル関数Kによって、2つの異なるクラスを表すトレーニングデータセットEを高次元空間に投影すると考えられる。この変換データ空間においては、クラス分離を最大化するようにクラスを分離する平坦線(識別超平面)が生成され得るように、非線形データが変換される。その後、Kによってテストデータが高次元空間に投影され、超平面に対する位置に基づいて分類される。カーネル関数Kは、データが高次元空間に投影される方法を規定する。 [000102] In some embodiments, the classification module is a support vector machine (“SVM”). In general, SVM is a classification technique based on statistical learning theory in which the non-linear case kernel transforms a non-linear input dataset into a high-dimensional linear feature space. Without wishing to be bound by any particular theory, support vector machines are thought to project training datasets E representing two different classes into higher dimensional space by means of kernel function K. In this transformed data space, the nonlinear data is transformed so that flat lines (discriminating hyperplanes) that separate the classes can be generated so as to maximize class separation. The K then projects the test data into a higher dimensional space and classifies it based on its position relative to the hyperplane. The kernel function K defines how data is projected into higher dimensional space.

[000103]他の実施形態においては、AdaBoostアルゴリズムを用いて分類が実行される。AdaBoostは、多くの弱い分類器を組み合わせて強い分類器を生成する適応アルゴリズムである。弱い分類器と考えられる個々の質感特徴Φj(j∈{1,・・・,K})それぞれについて確率密度関数を生成するのに、トレーニング段階において病理学者により識別された画像ピクセル(たとえば、特定のステインを有するピクセルまたは特定の組織種に属するピクセル)が用いられる。その後、ベイズの定理の使用によって、Φjごとに、弱い学習器を構成する尤度シーンLj=(Cj,1j∈{1,・・・,K})を生成する。これらがAdaBoostアルゴリズムにより結合されて、強い分類器Πj=ΣTi=1αjiljiとなるが、すべてのピクセルcj∈Cjについて、Πj(cj)は、ピクセルcjがクラスωTに属する結合尤度であり、αjiは、特徴Φiのトレーニング中に決定される重みであり、Tは、反復回数である。 [000103] In other embodiments, classification is performed using the AdaBoost algorithm. AdaBoost is an adaptive algorithm that combines many weak classifiers to produce a strong classifier. Image pixels identified by a pathologist during the training phase (eg, specific) to generate a probability density function for each individual texture feature Φj (j ∈ {1, ..., K}) that is considered a weak classifier. Pixels with stains or pixels belonging to a particular tissue species) are used. Then, by using Bayes' theorem, the likelihood scene Lj = (Cj, 1j ∈ {1, ..., K}) constituting the weak learner is generated for each Φj. These are combined by the AdaBoost algorithm to give a strong classifier Πj = ΣTi = 1αjilji, but for all pixels cj ∈ Cj, Πj (cj) is the coupling likelihood that pixel cj belongs to class ωT, and αji is , A weight determined during training of feature Φi, where T is the number of iterations.

[000104]いくつかの実施形態においては、導出ステイン強度値、特定の核の数、または他の分類結果の使用によって、百分率正値性またはHスコア等のさまざまなマーカ発現スコア(本明細書においては、用語「発現スコア」と区別なく使用される)を決定するようにしてもよい(すなわち、分類特徴から、発現スコアが計算されるようになっていてもよい)。スコアリング方法は、本発明の譲受人に譲渡された2013年12月19日出願の同時係属特許出願WO2014/102130A1「Image analysis for breast cancer prognosis(乳がん予知のための画像分析)」および2014年3月12日出願のWO2014/140085A1「Tissue object−based machine learning system for automated scoring of digital whole slides(デジタル・ホール・スライドの自動採点のための組織物体に基づく機械学習システム)」においてさらに詳しく記載されており、それぞれのすべての内容が参照により本明細書に組み込まれる。たとえば、バイオマーカ陽性腫瘍細胞/バイオマーカ陽性非腫瘍細胞の数に少なくとも部分的に基づいて、スコア(たとえば、ホールスライドスコア)を決定可能である。いくつかの実施形態においては、検出された核斑点ごとに、平均斑点強度、色、および幾何学的特徴(検出核斑点の面積および形状等)が演算されるようになっていてもよく、核斑点が腫瘍核および非腫瘍細胞の核に分類される。識別核出力の数は、腫瘍核の計数により示される通り、FOVにおいて検出されたバイオマーカ陽性腫瘍細胞の総数に対応する。 [000104] In some embodiments, different marker expression scores such as percentage positiveness or H-score, depending on the derived stain intensity value, the number of specific nuclei, or the use of other classification results (as used herein). May be used to determine the term "expression score" (i.e., the classification feature may allow the expression score to be calculated). The scoring method is as follows: Simultaneous pending patent application WO2014 / 102130A1 "Image analysis for breast cancer prediction (image analysis for breast cancer prediction)" filed on December 19, 2013 and 2014 3 WO2014 / 14085A1 filed on 12th May 2014, "Tisse invention-based machine learning system for automatic scoring of digital color slides" (detailed description in machine learning system for automatic scoring of digital hall slides) All the contents of each are incorporated herein by reference. For example, a score (eg, whole slide score) can be determined based at least in part on the number of biomarker-positive tumor cells / biomarker-positive non-tumor cells. In some embodiments, the average spot intensity, color, and geometric features (such as the area and shape of the detected nuclear spots) may be calculated for each detected nuclear spot, and the nucleus. The spots are classified into tumor nuclei and non-tumor cell nuclei. The number of discriminative nuclear outputs corresponds to the total number of biomarker-positive tumor cells detected in the FOV, as indicated by the count of tumor nuclei.

[000105]いくつかの実施形態においては、この場合もFAPによる染色に関して、特徴測定基準が導出されるとともに、FAP陽性または陰性細胞(たとえば、ポジティブまたはネガティブ染色の間質細胞)の割合(たとえば、百分率正値性発現スコア)が明らかとなり得るように分類器がトレーニングされる。いくつかの実施形態においては、腫瘍細胞の10%以下の染色エリアにスコア0が割り当てられ、腫瘍細胞の11%超〜25%以下のエリアに1が割り当てられ、腫瘍細胞の26%超〜50%以下のエリアに2が割り当てられ、腫瘍細胞の51%超のエリアに3が割り当てられるようになっていてもよい。染色強度に関しては、ゼロ/弱染色(ネガティブ制御)にスコア0が割り当てられ、ネガティブ制御レベルよりも明らかに強い弱染色に1が割り当てられ、中程度の強度の染色に2が割り当てられ、強染色に3が割り当てられるようになっていてもよい。いくつかの実施形態においては、3以上の最終スコアがFAPの陽性発現を示すものと認識されていてもよい。 [000105] In some embodiments, characteristic metrics are also derived for FAP staining and the percentage of FAP positive or negative cells (eg, positive or negative stained stromal cells) (eg, for example). The classifier is trained so that the percentage positive expression score) can be revealed. In some embodiments, less than 10% of the tumor cells are assigned a score of 0, more than 11% to less than 25% of the tumor cells are assigned a score of 1, and more than 26% to 50 of the tumor cells. 2 may be assigned to an area of% or less, and 3 may be assigned to an area of more than 51% of tumor cells. For staining intensity, zero / weak staining (negative control) is assigned a score of 0, weak staining that is clearly stronger than the negative control level is assigned 1, 2 is assigned to medium intensity staining, and strong staining is assigned. 3 may be assigned to. In some embodiments, a final score of 3 or higher may be recognized as indicating positive expression of FAP.

[000106]セグメント化モジュール
[000107]中解像度分析手法では、生物学的に意味ある関心領域を取り込むように規定された入力画像内の副領域を生成するセグメント化アルゴリズムを採用する。画像分析モジュール205による入力画像からの測定基準の導出(ステップ310)の後には、セグメント化生成モジュール206の利用によって、入力画像を複数の副領域にセグメント化する(ステップ320)。
[000106] Segmentation module
[000107] The medium resolution analytical technique employs a segmentation algorithm that produces subregions within the input image that are defined to capture the biologically meaningful region of interest. After deriving the measurement reference from the input image by the image analysis module 205 (step 310), the input image is segmented into a plurality of subregions by using the segmentation generation module 206 (step 320).

[000108]いくつかの実施形態においては、単一のチャネル画像(たとえば、分離FAP画像中の「紫色」チャネル)上でセグメント化が実行される。分離方法は、当業者に既知である(たとえば、Zimmermann「Spectral Imaging and Linear Unmixing in Light Microscopy(光学顕微鏡法におけるスペクトル撮像および線形分離)」,Adv Biochem Engin/Biotechnol(2005)95:245−265およびC.L.Lawson and R.J.Hanson「Solving least squares Problems(最小2乗問題の解法)」,Prentice Hall,1974,Chapter 23,p.161に線形分離が記載されており、そのすべての開示内容が参照により本明細書に組み込まれる)。本明細書においては、他の分離方法が開示される(Ruifok et. al.「Quantification of histochemical staining by color deconvolution(カラーデコンボリューションによる組織化学的染色の定量化)」,Anal Quant Cytol Histol.2001 Aug;23(4):291−9(すべての開示内容が参照により本明細書に組み込まれる)も参照)。 [000108] In some embodiments, segmentation is performed on a single channel image (eg, the "purple" channel in the separated FAP image). Separation methods are known to those skilled in the art (eg, Zimmermann "Spectral Imaging and Linear Imaging in Light Microscopy", Adv Biochem Engin / Biotechn / Biotechn / Biotechn. C. L. Lawson and R.J. Hanson, "Solving first microscopes (solving the least squares problem)", Prentice Hall, 1974, Chapter 23, p.161 describes linear separations, all of which are disclosed. The contents are incorporated herein by reference). In the present specification, other separation methods are disclosed (Ruifok et. Al. "Quantification of histochemical staining by color deconvolution (quantification of histochemical staining by color deconvolution)", Anal Quant Cylt 200 23 (4): 291-9 (see also, all disclosures are incorporated herein by reference).

[000109]いくつかの実施形態において、生成された副領域は、所定のサイズまたは画像処理アルゴリズム内に指定の範囲(たとえば、本明細書に記載の通り、SLICスーパーピクセル生成アルゴリズムのパラメータ)内のサイズを有する入力画像のエリアの情報を取り込む。 [000109] In some embodiments, the generated subregions are within a given size or within a specified range within the image processing algorithm (eg, parameters of the SLIC superpixel generation algorithm, as described herein). Captures information about the area of the input image that has a size.

[000110]いくつかの実施形態において、入力画像は、所定の形状、サイズ、面積、および/または間隔を有する副領域にセグメント化される。たとえば、副領域(710)は、図7に示されるように、長円形、円形、正方形、長方形等であってもよい。いくつかの実施形態において、長円形、円形、正方形、または長方形の副領域は、50ピクセル〜およそ100ピクセルの範囲のサイズを有していてもよいし、類似の特性または特質(たとえば、色、輝度、および/または質感)を有するピクセル群が選択されるように、その他何らかのサイズを有していてもよい。いくつかの実施形態において、副領域は、重なり合わず、サンプリンググリッドを介して生成されるようになっていてもよい。本明細書において、用語「サンプリンググリッド(sampling grid)」は、均一間隔で画像に重ね合わされ、最終的には画像内の点に重ならない点を位置特定するのに用いられる水平線および垂直線のネットワークに関する。いくつかの実施形態においては、水平線および垂直線により確立された任意数の隣り合う位置が画像セグメントの規定に用いられるようになっていてもよい。いくつかの実施形態において、副領域は、分析用の関連領域の代表サンプル(たとえば、不規則形状の細胞が支配的な特徴であるエリア)を取り込むように画像全体に分布する。 [000110] In some embodiments, the input image is segmented into subregions with a given shape, size, area, and / or spacing. For example, the sub-region (710) may be oval, circular, square, rectangular or the like, as shown in FIG. In some embodiments, the oval, circular, square, or rectangular subregion may have a size in the range of 50 pixels to approximately 100 pixels and has similar properties or properties (eg, color,). It may have some other size so that a group of pixels with brightness and / or texture) is selected. In some embodiments, the subregions may not overlap and may be generated via a sampling grid. As used herein, the term "sampling grid" is a network of horizontal and vertical lines that are superimposed on an image at uniform intervals and ultimately used to locate points that do not overlap points in the image. Regarding. In some embodiments, any number of adjacent positions established by horizontal and vertical lines may be used to define the image segment. In some embodiments, the subregions are distributed throughout the image to capture representative samples of relevant regions for analysis (eg, areas where irregularly shaped cells are the dominant feature).

[000111]他の実施形態において、入力画像は、グローバル閾値化フィルタ、局所適応閾値化フィルタ、形態学的演算、および分水嶺変換等、一連のアルゴリズムを画像に適用することによってセグメント化される。これらのフィルタは、順次動作するようになっていてもよいし、当業者が必要と考える任意の順序で動作するようになっていてもよい。当然のことながら、所望の結果が実現されるまで、任意のフィルタが反復的に適用されるようになっていてもよい。いくつかの実施形態においては、入力画像への第1のフィルタの適用によって、(無染色または略無染色の組織サンプル中の領域に対応する)白色の画像領域の除去等、核を有する可能性が低い領域を除去する。いくつかの実施形態において、これは、グローバル閾値化フィルタを適用することによって実現される。いくつかの実施形態において、グローバル閾値化は、(たとえば、グレースケールチャネルに類似する)第1の主成分チャネル上で演算された中央値および/または標準偏差に基づく。グローバル閾値を求めることによって、核が存在しない可能性が高い無染色または略無染色の領域を表す任意の白色画像領域が破棄され得ると考えられる。その後、画像へのフィルタの適用によって、アーチファクト(たとえば、小さな斑点、小さな切れ目、他の小さな物体)の選択的な除去および/または孔の充填を行う。いくつかの実施形態においては、形態学的演算子の適用によって、アーチファクトの除去および/または孔の充填を行う。いくつかの実施形態においては、入力として導入される2値画像(たとえば、先行するフィルタリングステップの結果としての2値画像)に基づいて、距離に基づく分水嶺が適用される。 [000111] In another embodiment, the input image is segmented by applying a set of algorithms to the image, such as a global thresholding filter, a locally adaptive thresholding filter, a morphological calculation, and a watershed transformation. These filters may operate sequentially, or may operate in any order that one of ordinary skill in the art deems necessary. Of course, any filter may be applied iteratively until the desired result is achieved. In some embodiments, the application of the first filter to the input image may have nuclei, such as removal of white image regions (corresponding to regions in unstained or substantially unstained tissue samples). Remove areas with low. In some embodiments, this is achieved by applying a global thresholding filter. In some embodiments, global thresholding is based on the median and / or standard deviation calculated on the first principal component channel (eg, similar to a grayscale channel). By determining the global threshold, it is believed that any white image region representing an unstained or nearly unstained region that is likely to have no nuclei can be discarded. The image is then filtered to selectively remove and / or fill holes with artifacts (eg, small spots, small cuts, other small objects). In some embodiments, morphological operators are applied to remove artifacts and / or fill holes. In some embodiments, a distance-based watershed is applied based on a binary image introduced as input (eg, a binary image as a result of a preceding filtering step).

[000112]いくつかの実施形態において、入力画像は、スーパーピクセルにセグメント化される。スーパーピクセルアルゴリズムは、知覚的に意味あるエンティティを表す多くのセグメント(ピクセル群)へと画像を分割すると考えられる。各スーパーピクセルは、低レベルグループ化プロセスによって得られ、知覚的に矛盾のない単位を有する。すなわち、スーパーピクセルに含まれる生体中のすべてのピクセルが染色有無(たとえば、スーパーピクセルに存在するピクセルが特定種のステインのものである)、染色強度(たとえば、ピクセルが一定の相対強度値または値の範囲を有する)、および質感(たとえば、ピクセルが色または強度に関する特定の空間配置を有する)について可能な限り均一である。各スーパーピクセルの局所分析結果は、デジタル病理学画像上に分析結果を表すように格納および報告可能である。 [000112] In some embodiments, the input image is segmented into superpixels. The superpixel algorithm is thought to divide an image into many segments (pixel groups) that represent perceptually meaningful entities. Each superpixel is obtained by a low level grouping process and has a perceptually consistent unit. That is, all the pixels in the living body contained in the superpixel are stained (for example, the pixel existing in the superpixel is of a certain type of stain) and the staining intensity (for example, the pixel is a constant relative intensity value or value). (Has a range of), and texture (eg, pixels have a specific spatial arrangement with respect to color or intensity) is as uniform as possible. The local analysis results for each superpixel can be stored and reported to represent the analysis results on a digital pathological image.

[000113]スーパーピクセルは、色、輝度、および質感等の特質が類似するピクセルの集まりである。画像は、ピクセルの複数の組み合わせ特質を含み、元画像のエッジ情報を保存可能な一定数のスーパーピクセルで構成可能である。単一のピクセルと比較して、スーパーピクセルは、豊富な特質情報を含み、画像の後処理の複雑性を大幅に低減するとともに、画像セグメント化の速度を大幅に向上可能である。また、スーパーピクセルは、小さな近傍モデルによる確率の推定および決定にも有用である。 [000113] A superpixel is a collection of pixels with similar characteristics such as color, brightness, and texture. The image contains multiple combinatorial properties of pixels and can be composed of a fixed number of superpixels that can store the edge information of the original image. Compared to a single pixel, superpixels contain a wealth of property information, which can significantly reduce the complexity of image post-processing and significantly increase the speed of image segmentation. Superpixels are also useful for estimating and determining probabilities with small neighborhood models.

[000114]スーパーピクセルアルゴリズムは、ピクセルを類似サイズの意味ある原子領域へとグループ化する方法である。任意特定の理論に縛られることを望むことなく、スーパーピクセルは、画像内の重要な境界に位置することが多く、顕著な物体特徴を含む場合には基準外または一意の形状を帯びる傾向にあることから、効果的と考えられる。中解像度分析における情報の取得および格納の要望と矛盾することなく、スーパーピクセルは、ピクセルレベルとオブジェクトレベルとの間に位置付けられ、画像オブジェクトを包括的に表すことなく、知覚的に意味あるピクセル群を表すことによって、ピクセルよりも多くの情報をもたらす。スーパーピクセルは、短い演算時間で画像を過剰セグメント化する画像セグメント化の一形態と理解され得る。スーパーピクセルの外形は、画像中のほとんどの構造が保護されるため、自然な画像境界に十分従うことが分かっている。各ピクセルではなく各スーパーピクセルについて画像特徴が演算されることから、後続の処理タスクは、複雑性および演算時間が抑えられる。このため、スーパーピクセルは、画像セグメント化等のオブジェクトレベルでの分析の前処理ステップとして有用と考えられる。 [000114] The superpixel algorithm is a method of grouping pixels into meaningful atomic regions of similar size. Without wishing to be bound by any particular theory, superpixels are often located at important boundaries in the image and tend to take on non-standard or unique shapes if they contain prominent object features. Therefore, it is considered to be effective. Consistent with the desire to obtain and store information in medium-resolution analysis, superpixels are positioned between the pixel level and the object level, and are a group of perceptually meaningful pixels without a comprehensive representation of image objects. Brings more information than a pixel by representing. Superpixels can be understood as a form of image segmentation that oversegments an image in a short computational time. The outer shape of superpixels has been found to well follow natural image boundaries, as most structures in the image are protected. Subsequent processing tasks are less complex and less time consuming because image features are calculated for each superpixel rather than each pixel. For this reason, superpixels are considered useful as a pre-processing step for object-level analysis such as image segmentation.

[000115]任意特定の理論に縛られることを望むことなく、スーパーピクセルは、たとえば色または形状が類似する特質を有する稠密かつ均一なピクセル群を形成することによって、画像を過剰セグメント化すると考えられる。過去には、複数のスーパーピクセル手法が開発されている。これらは、(i)グラフベースの手法および(ii)勾配上昇ベースの手法に分類可能である。グラフベースの手法においては、各ピクセルがグラフ中のノードと考えられる。すべてのノード対間には、それぞれの類似性に比例するエッジ重みが規定される。そして、グラフ上に規定されるコスト関数の公式化および最小化によって、スーパーピクセルセグメントを抽出する。勾配上昇ベースの手法においては、特徴空間へのピクセルの反復的なマッピングによって、クラスタを表す高密度領域を描く。各反復は、各クラスタの精緻化によって、収束までにより優れたセグメント化を得る。 [000115] Without wishing to be bound by any particular theory, superpixels are thought to oversegment an image, for example by forming dense and uniform pixels with similar qualities of color or shape. .. In the past, multiple superpixel methods have been developed. These can be classified into (i) graph-based methods and (ii) gradient rise-based methods. In a graph-based approach, each pixel is considered a node in the graph. Edge weights proportional to their similarity are defined between all node pairs. Then, the superpixel segment is extracted by formulating and minimizing the cost function specified on the graph. In the ascending gradient approach, iterative mapping of pixels to feature space draws a dense region representing clusters. Each iteration obtains better segmentation until convergence by refining each cluster.

[000116]正規化カット、凝集型クラスタリング、クイックシフト、およびターボピクセルアルゴリズム等、多くのスーパーピクセルアルゴリズムが開発されている。正規化カットアルゴリズムは、輪郭および質感キューを使用し、分割境界のエッジ上に規定されるコスト関数を最小化することによって、全ピクセルのグラフを再帰的に分割する。これにより、非常に規則的で、視覚的に快いスーパーピクセルが得られる(Jianbo Shi and Jitendra Malik「Normalized cuts and image segmentation(正規化カットおよび画像セグメント化)」,IEEE Transactions on Pattern Analysis and Machine Intelligence,(PAMI),22(8):888−905,Aug 2000(すべての開示内容が参照により本明細書に組み込まれる)参照)。Alastair Moore,Simon Prince,Jonathan Warrell,Umar Mohammed,and Graham Jones「Superpixel Lattices(スーパーピクセル格子)」,IEEE Computer Vision and Pattern Recognition (CVPR),2008は、より小さな垂直または水平領域へと画像を分割する最適経路またはシームを見つけることによって、グリッドに従うスーパーピクセルを生成する方法を記載する。最適経路は、グラフカット法を用いることにより見つかる。(Shai Avidan and Ariel Shamir「Seam carving for content−aware image resizing(内容を意識した画像サイズ調整のためのシームカービング)」,ACM Transactions on Graphics (SIGGRAPH),26(3),2007(開示内容が参照により本明細書に組み込まれる)参照)。クイックシフト(A.Vedaldi and S.Soatto「Quick shift and kernel methods for mode seeking(モード探索のためのクイックシフトおよびカーネル方法)」,European Conference on Computer Vision(ECCV),2008(開示内容が参照により本明細書に組み込まれる)参照)は、モード探索セグメント化方式を使用する。これは、medoid shift手順を用いてセグメント化を初期化する。その後、Parzen密度推定値を増大させる最も近い隣接点へと特徴空間の各点を移動させる。ターボピクセル法では、レベルセットベースの幾何学的フローを用いて、一組の種子位置を徐々に拡張させる(A.Levinshtein,A.Stere,K.Kutulakos,D.Fleet,S.Dickinson,and K.Siddiqi「Turbopixels: Fast superpixels using geometric flows(ターボピクセル:幾何学的フローを用いた高速スーパーピクセル)」,IEEE Transactions on Pattern Analysis and Machine Intelligence(PAMI),2009(開示内容が参照により本明細書に組み込まれる)参照)。幾何学的フローは、画像平面上でスーパーピクセルを規則的に分布させることを目的として、局所的な画像勾配に依拠する。ターボピクセルスーパーピクセルは、他の方法と異なり、均一なサイズ、稠密性、および境界追従を有するように制約される。スーパーピクセルを生成するさらに他の方法については、Radhakrishna Achanta「SLIC Superpixels Compared to State−of−the−art(最新技術との比較によるSLICスーパーピクセル)」,Journal of Latex Class Files,Vol.6,No.1,December 2011に記載されている(そのすべての開示内容が参照により本明細書に組み込まれる)。 [000116] Many superpixel algorithms have been developed, including normalized cuts, aggregated clustering, quickshifts, and turbopixel algorithms. The normalized cut algorithm recursively splits the graph for all pixels by using contour and texture cues and minimizing the cost function defined on the edges of the split boundary. This results in very regular and visually pleasing superpixels (Jianbo Sh and Jitendra Malik "Normalized cuts and image segmentation", IEEE Transition Engineering Technology). (PAMI), 22 (8): 888-905, Aug 2000 (see, all disclosures are incorporated herein by reference). Alastair Moore, Simon Prince, Johann Warrell, Umar Mohammed, and Graham Jones "Superpixel Lattices", IEEE Computer Vision 2 Division from IEEE Computer Vision and Pattern Describes how to generate superpixels that follow a grid by finding the optimal path or seam. The optimal path can be found by using the graph cut method. (Shai Avidan and Ariel Shamir "Seam carving for content-aware image resizing", ACM Transitions on Graphics (see SIGGRAPH), ACM Transitions on Graphics (SIGGRAPH) Incorporated herein by)). Quick Shift (A. Vedaldi and S. Soutto "Quick shift and kernel methods for mode seeding", European Conference on Computer Vision (details in EC2) (Incorporated in) uses the mode search segmentation method. It initializes the segmentation using the mediad shift procedure. It then moves each point in the feature space to the closest adjacent point that increases the Parzen density estimate. The turbopixel method uses a level set-based geometric flow to gradually expand a set of seed positions (A. Levinshtein, A. Stereo, K. Kuturakos, D. Fleet, S. Dickinson, and K. .Siddiqi "Turbopixels: Fast superpixels using geometric flows", IEEE Transitions on Pattern Analysis in IEEE (Notes) See (embedded)). Geometric flow relies on a local image gradient for the purpose of regularly distributing superpixels on the image plane. Turbopixel Superpixels, unlike other methods, are constrained to have uniform size, denseness, and boundary tracking. For yet another method of generating superpixels, see Radhaklishna Achanta "SLIC Superpixels Compared to State-of-the-art", Journal of Latex Class Files. 6, No. 1, December 2011 (all disclosures thereof are incorporated herein by reference).

[000117]単純線形反復クラスタリング(SLIC)と称するスーパーピクセルアルゴリズムが導入されているが、これは、最先端のスーパーピクセル法と比較して、境界追従および効率の両者において優れている。SLICには、2つのステップがある。第1には、局所k平均クラスタリング(KMC)法によってピクセルをグループ化することによりスーパーピクセルを生成するが、その距離は、データおよび空間距離と統合されたユークリッド距離として測定される。第2には、連結成分アルゴリズム(CCA)の使用によって、生成された微小分離領域を最も近い大きなスーパーピクセルとして統合することにより除去する。 [000117] A superpixel algorithm called simple linear iterative clustering (SLIC) has been introduced, which is superior in both boundary tracking and efficiency compared to the state-of-the-art superpixel method. SLIC has two steps. First, superpixels are generated by grouping pixels by the local k-means clustering (KMC) method, the distance being measured as an Euclidean distance integrated with data and spatial distance. Second, it is removed by integrating the generated micro-separation regions as the closest large superpixels by using the Connected Component Algorithm (CCA).

[000118]k平均クラスタリングは、n個の観察結果をk個のクラスタに分割することを目的としており、各観察結果は、平均に最も近いクラスタに属して、クラスタのプロトタイプとして機能する。連結成分標識化は、画像をピクセルごとに(上から下、左から右に)スキャンし、連結ピクセル領域すなわち同じ強度値Vの集合を共有する隣り合うピクセルの領域を識別することによって機能する(2値画像の場合はV={1}であるが、グレーレベル画像において、Vは、ある範囲の値を取る(たとえば、V={51、52、53、・・・、77、78、79、80}))。連結成分標識化は、2値画像またはグレーレベル画像に対して機能し、連結度の異なる尺度が可能である。ただし、以下では、2値入力画像および8連結度を仮定する。連結成分標識化の演算子は、V={1}となる点p(ここで、pは、スキャンプロセスの任意の段階で標識化されるピクセルを示す)まで、行に沿って移動することにより画像をスキャンする。これが真の場合は、スキャン中に通過済みのpの4つの隣接ピクセル(すなわち、(i)pの左方、(ii)上方、ならびに(iiiおよびiv)2つの上側対角関係の隣接ピクセル)を検査する。この情報に基づいて、pの標識化を以下のように行う。4つの隣接ピクセルがすべて0の場合は、新たなラベルをpに割り当て、隣接ピクセルが1つだけV={1}の場合は、そのラベルをpに割り当て、隣接ピクセルが2つ以上V={1}の場合は、ラベルのうちの1つをpに割り当てて、同等物を書き留める。 [000118] k-means clustering aims to divide n observations into k clusters, each observation belonging to the cluster closest to the mean and acting as a prototype of the cluster. Connected component labeling works by scanning the image pixel by pixel (top to bottom, left to right) to identify connected pixel regions, that is, regions of adjacent pixels that share the same set of intensity values (V). In the case of a binary image, V = {1}, but in a gray level image, V takes a range of values (for example, V = {51, 52, 53, ..., 77, 78, 79). , 80}))). Connected component labeling works for binary or gray level images, allowing different measures of connectivity. However, in the following, a binary input image and eight degree of connection are assumed. The connected component labeling operator is by moving along a line to the point p where V = {1}, where p indicates the pixel to be labeled at any stage of the scanning process. Scan the image. If this is true, the four adjacent pixels of p that have passed during the scan (ie, (i) to the left of p, (ii) above, and (iii and iv) two upper diagonal adjacent pixels). Inspect. Based on this information, p is labeled as follows. If all four adjacent pixels are 0, a new label is assigned to p, and if only one adjacent pixel is V = {1}, that label is assigned to p, and two or more adjacent pixels V = { In the case of 1}, assign one of the labels to p and write down the equivalent.

[000119]スキャンの完了後は、同等ラベル対が同等物クラスに格納され、一意のラベルが各クラスに割り当てられる。最終ステップとして、画像に第2のスキャンがなされるが、この間は、その同等物クラスに割り当てられたラベルによって各ラベルが置き換えられる。表示のため、各ラベルは、異なるグレーレベルまたは色であってもよい。 [000119] After the scan is complete, the equivalent label pair is stored in the equivalent class and a unique label is assigned to each class. As a final step, a second scan is made on the image, during which each label is replaced by the label assigned to its equivalent class. For display purposes, each label may have a different gray level or color.

[000120]SLICは、スーパーピクセルの生成のためのk平均の適応であるが、2つの重要な差異がある。(i)スーパーピクセルのサイズに比例した領域に探索空間を制限することによって、最適化における距離計算の回数が劇的に少なくなる(これによって、スーパーピクセルの数kとは無関係に、ピクセル数の複雑性が線形に小さくなると考えられる)。(ii)重み付け距離尺度が色と空間近接性とを組み合わせると同時に、スーパーピクセルのサイズおよび稠密度を制御する(Achanta,et al.「SLIC Superpixels Compared to State−of−the−Art Superpixel Methods(最先端のスーパーピクセル法との比較によるSLICスーパーピクセル)」,IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.34,No.l1,November 2012(すべての開示内容が参照により本明細書に組み込まれる)参照)。 [000120] SLIC is an adaptation of k-means for the generation of superpixels, but there are two important differences. (I) By limiting the search space to a region proportional to the size of the superpixels, the number of distance calculations in the optimization is dramatically reduced (thus, regardless of the number of superpixels k, the number of pixels. Complexity is expected to decrease linearly). (Ii) The weighted distance scale combines color and spatial proximity while controlling the size and density of superpixels (Achanta, et al. "SLIC Superpixels Compared to State-of-the-Art Superpixel Methods". SLIC Super Pixel by Comparison with Advanced Super Pixel Method) ”, IEEE Transitions on Pattern Accessibility and Machine Intelligence, Vol. 34, No. l1, November 2012 (all disclosures are incorporated herein by reference). ).

[000121]SLICでは、CIELAB色空間のL*a*b値ならびにそれぞれのx座標およびy座標により規定される5D空間における画像ピクセルを考慮する。5D空間におけるピクセルは、画像平面における色類似性および近接性を統合した適応k平均クラスタリングに基づいてクラスタリングされる。このクラスタリングは、L*a*b空間における色類似性(dc)およびx、y空間におけるピクセル近接性(ds)を測定した距離尺度Dに基づく。後者は、スーパーピクセルの数(k)で除した画像ピクセルの総数の平方根を規定するグリッド間隔(S)によって正規化される。スーパーピクセルの稠密性および規則性は、定数mによって制御される。このパラメータは、空間距離(dc)とスペクトル距離(ds)との間の重み付け基準として機能する。mが大きいほど空間近接性の重みが増え、画像中のスペクトル外形に対する境界の追従が低下したより稠密なスーパーピクセルが得られる。 [000121] SLIC considers the L * a * b values in the CIELAB color space and the image pixels in the 5D space defined by their respective x and y coordinates. Pixels in 5D space are clustered based on adaptive k-means clustering that integrates color similarity and proximity in the image plane. This clustering is based on a distance scale D that measures color similarity (dc) in L * a * b space and pixel proximity (ds) in x, y space. The latter is normalized by a grid spacing (S) that defines the square root of the total number of image pixels divided by the number of superpixels (k). The density and regularity of superpixels is controlled by the constant m. This parameter serves as a weighting criterion between the spatial distance (dc) and the spectral distance (ds). The larger m is, the heavier the weight of spatial proximity is, and the denser superpixels can be obtained with less boundary tracking to the spectral outline in the image.

[000123]SLICアルゴリズムは、以下のように適用され得る。Nを所与の画像(または、その関心部分もしくは領域)のピクセル数とし、kを生成するスーパーピクセル数とする。次に、SLICアルゴリズムの主要なステップは、以下の通りである。 [000123] The SLIC algorithm can be applied as follows. Let N p be the number of pixels in a given image (or part or region of interest), and let k be the number of superpixels to generate. Next, the main steps of the SLIC algorithm are as follows.

[000124](1)クラスタ中心を初期化する。規則的なグリッド上のk個のクラスタ中心を [000124] (1) Initialize the cluster center. K cluster centers on a regular grid

ピクセルだけ離隔させた後、3×3近傍において勾配が最小の位置まで、これらのクラスタ中心を移動させる。任意特定の理論に縛られることを望むことなく、これは、スーパーピクセルの中心をエッジに設定しないようにするとともに、ノイズの多いピクセルにスーパーピクセルの種子を設定する機会を減らすためと考えられる。 After being separated by pixels, the centers of these clusters are moved to the position where the gradient is minimal near 3x3. Without wishing to be bound by any particular theory, this is thought to avoid setting the center of the superpixel to the edge and reducing the chances of setting the seed of the superpixel to a noisy pixel.

[000125](2)ピクセルを割り当てる。局所KMCによって、局所探索空間における最も近いクラスタ中心に各ピクセルを指定する。
[000126](3)クラスタ中心を更新する。対応するクラスタにおける全ピクセルの平均として、各クラスタ中心を設定する。
[000125] (2) Allocate pixels. The local KMC specifies each pixel at the center of the closest cluster in the local search space.
[000126] (3) Update the cluster center. Set each cluster center as the average of all pixels in the corresponding cluster.

[000127](4)クラスタが変化しなくなるまで、または、別の所与の基準が満たされるまで、ステップ(2)および(3)を繰り返す。
[000128](5)後処理。分離領域のサイズが最小サイズSmin未満の場合は、CCAの使用により、分離領域を近くのスーパーピクセルに再度割り当てる。
[000127] (4) Steps (2) and (3) are repeated until the cluster remains unchanged or another given criterion is met.
[000128] (5) Post-processing. If the size of the separation area is less than the minimum size S min , the separation area is reassigned to nearby superpixels by using CCA.

[000129]SLIC法のステップ(2)においては、局所KMCが適用されるが、この場合は、探索エリアがその場所を網羅する最も近いクラスタ中心と各ピクセルが関連付けられる。従来のKMCにおいて、各クラスタ中心の探索エリアは、全画像であるため、画像中の各クラスタ中心からすべてのピクセルまでの距離が計算される。ただし、局所KMCにおいては、クラスタ中心の探索空間が局所的な2S×2S正方形領域に限定される。したがって、SLICでは、各クラスタ中心からその探索エリア内のピクセルまでの距離しか演算しない。 [000129] In step (2) of the SLIC method, local KMC is applied, in which case each pixel is associated with the nearest cluster center whose search area covers the location. In the conventional KMC, since the search area at the center of each cluster is the entire image, the distance from the center of each cluster in the image to all the pixels is calculated. However, in the local KMC, the search space at the center of the cluster is limited to the local 2S × 2S square area. Therefore, SLIC only calculates the distance from the center of each cluster to the pixels in its search area.

[000130]局所KMCにおいては、クラスタリングにおいてユークリッド距離が使用される。zを空間位置が(x,y)のi番目のクラスタ中心のデータとする。zを当該中心の探索エリア内のピクセルの強度とする。そして、このピクセルと中心との間の統合距離は、以下の通りである。 [000130] In local KMC, Euclidean distance is used in clustering. The z i is the spatial position and (x i, y i) i th cluster center data. Let z j be the intensity of the pixels in the central search area. And the integration distance between this pixel and the center is as follows.

[000132]ここで、d=|z−z|および [000132] Here, d f = | z i − z j | and

はそれぞれ、強度およびピクセルと中心との間の距離であり、mは、統合距離Dに対するdおよびdの相対的な寄与を重み付けする正則化パラメータである。mが大きくなることは、dがdよりも有意であることを示す。これら2つの距離の寄与を直接記述する同等の統合距離Dは、以下により与えられ得る。 Each is the distance between the strength and the pixel and the center, m is the regularization parameter which weights the relative contributions of d f and d s for the integrated distance D I. A larger m indicates that d s is more significant than d f . These two integrated distance D I of directly describing equivalent contribution of distance can be given below.

[000134]ここで、Nは全画面の平均強度であり、w∈[0,1]は正則化パラメータである。これに関連して、wおよび(1−w)はそれぞれ、正規化強度とDにおける各空間距離との比である。 [000134] Here, N f is the average intensity of the entire screen, and w ∈ [0, 1] is a regularization parameter. In this connection, w and (1-w), respectively, the ratio of the respective spatial distance in the normalized intensity and D I.

[000135]いくつかの実施形態において、SLICアルゴリズムのパラメータkは、略等しいサイズのスーパーピクセルの数を指定する。いくつかの実施形態において、稠密度パラメータmは、スーパーピクセルの均質性と境界追従とのトレードオフを制御するように設定可能である。任意特定の理論に縛られることを望むことなく、稠密度パラメータを変更することによって、規則的な形状のスーパーピクセルが非質感領域に生成され、高度に不規則なスーパーピクセルが質感領域に生成され得ると考えられる。この場合も、任意特定の理論に縛られることを望むことなく、パラメータmは、色類似性と空間近接性との間の相対的重要性の重み付けを可能にすると考えられる。mが大きい場合は、空間近接性がより重要であり、結果としてのスーパーピクセルがより稠密となる(すなわち、面積対周長比が小さくなる)。mが小さい場合は、結果としてのスーパーピクセルが画像境界に対してより緊密に追従するものの、サイズおよび形状は不規則になる。 [000135] In some embodiments, the parameter k of the SLIC algorithm specifies the number of superpixels of approximately equal size. In some embodiments, the density parameter m can be set to control the trade-off between superpixel homogeneity and boundary tracking. By changing the density parameter, without wanting to be bound by any particular theory, regular shaped superpixels are generated in the non-textured area and highly irregular superpixels are generated in the textured area. It is thought to get. Again, without wishing to be bound by any particular theory, the parameter m would be considered to allow weighting of relative importance between color similarity and spatial proximity. When m is large, spatial proximity is more important and the resulting superpixels are denser (ie, the area-to-perimeter ratio is smaller). If m is small, the resulting superpixels will follow the image boundaries more closely, but will be irregular in size and shape.

[000136]いくつかの実施形態においては、スーパーピクセルのサイズおよび稠密度の両パラメータが調整される。いくつかの実施形態においては、およそ40ピクセル〜およそ400ピクセルの範囲のスーパーピクセルサイズが使用される。他の実施形態においては、およそ60ピクセル〜およそ300ピクセルの範囲のスーパーピクセルサイズが使用される。さらに他の実施形態においては、およそ70ピクセル〜およそ250ピクセルの範囲のスーパーピクセルサイズが使用される。さらに別の実施形態においては、およそ80ピクセル〜およそ200ピクセルの範囲のスーパーピクセルサイズが使用される。 [000136] In some embodiments, both superpixel size and density parameters are adjusted. In some embodiments, superpixel sizes ranging from about 40 pixels to about 400 pixels are used. In other embodiments, superpixel sizes ranging from about 60 pixels to about 300 pixels are used. In yet another embodiment, superpixel sizes in the range of about 70 pixels to about 250 pixels are used. In yet another embodiment, superpixel sizes ranging from about 80 pixels to about 200 pixels are used.

[000137]いくつかの実施形態において、稠密度パラメータは、およそ10〜およそ100の範囲である。他の実施形態において、稠密度パラメータは、およそ20〜およそ90の範囲である。他の実施形態において、稠密度パラメータは、およそ40〜およそ80の範囲である。他の実施形態において、稠密度パラメータは、およそ50〜およそ80の範囲である。 [000137] In some embodiments, the density parameter ranges from approximately 10 to approximately 100. In other embodiments, the density parameter ranges from approximately 20 to approximately 90. In other embodiments, the density parameter ranges from about 40 to about 80. In other embodiments, the density parameter ranges from about 50 to about 80.

[000138]図8Aは、本明細書に記載の通り、SLICを用いて生成されたスーパーピクセルの一例を示しており、重畳および間隙なく、関心領域の位置特定された特質に適するようにスーパーピクセルがセグメント化されている。さらに、各スーパーピクセル副領域は、バイオマーカ発現の存在の局所強度(810)および方向(820)に応じて、特定の最終形状を有する。このため、スーパーピクセルは、このような関心生物学的構造に対して知覚的に意味がある。図8B、図8C、および図8Dはそれぞれ、高倍率の元のIHC画像、スーパーピクセル生成プロセスの初期化、および局所的に均質な最終スーパーピクセルを示しており、それぞれの形状の規則性は、上述の通り、SLICアルゴリズムの技術的パラメータによって調整済みである。 [000138] FIG. 8A shows an example of superpixels generated using SLIC, as described herein, superpixels to suit the localized attributes of the region of interest, without superposition and gaps. Is segmented. In addition, each superpixel subregion has a particular final shape, depending on the local intensity (810) and direction (820) of the presence of biomarker expression. For this reason, superpixels are perceptually meaningful for such biological structures of interest. 8B, 8C, and 8D show the original IHC image at high magnification, the initialization of the superpixel generation process, and the locally homogeneous final superpixels, respectively, and the regularity of their shapes is As mentioned above, it has been adjusted by the technical parameters of the SLIC algorithm.

[000139]表現オブジェクト生成モジュール
[000140]副領域生成モジュールによって副領域が生成された(ステップ320)後は、モジュール207を用いて、副領域ごとに表現オブジェクトまたは関心点が決定される(ステップ330)。いくつかの実施形態において、表現オブジェクトは、関心細胞または関心細胞群(たとえば、線維芽細胞またはマクロファージ)に関する副領域またはスーパーピクセルの外形である。他の実施形態において、表現オブジェクトは、種子点である。本明細書に記載の通り、本開示の目的は、類似の染色有無、染色強度、および/または局所質感を有する副領域に基づいて関心細胞(不規則形状の細胞)を特性化するとともに、これらの均質特性の副領域を自動的にデータベースに保存することである。表現オブジェクトまたはその座標は、生成副領域を格納する1つの方法である。図9Aおよび図9Bは、関心生体を含むスーパーピクセルのポリゴン外形および中心種子の例を提供する。
[000139] Representation object generation module
[000140] After the subregion is generated by the subregion generation module (step 320), the expression object or the point of interest is determined for each subregion using the module 207 (step 330). In some embodiments, the representation object is a subregion or superpixel outline for a cell of interest or a group of cells of interest (eg, fibroblasts or macrophages). In other embodiments, the representation object is a seed point. As described herein, an object of the present disclosure is to characterize cells of interest (irregularly shaped cells) based on subregions with similar staining presence, staining intensity, and / or local texture, and these. It is to automatically save the subregion of the homogeneity property of. The representation object or its coordinates is one way to store the generated subregion. 9A and 9B provide examples of superpixel polygon outlines and central seeds containing living organisms of interest.

[000141]いくつかの実施形態においては、色または質感が異なる副領域を分離するとともに、画像中の支配的なエッジと一致する境界を形成するアルゴリズムが利用されるため、関心生体(たとえば、線維芽細胞またはマクロファージ等、サイズまたは形状が不規則な細胞)を表す境界が生成される。いくつかの実施形態においては、ステインを有さない副領域が除外され、閾値量のステインを含む副領域のみが表現オブジェクトとして提供されるように、閾値化アルゴリズム(たとえば、大津法、平均クラスタリング等)がステインチャネル画像に適用されるようになっていてもよい。いくつかの実施形態においては、閾値パラメータ(たとえば、病理学専門家により提供される閾値染色パラメータ)を用いて、副領域の2値マスクが生成されるようになっていてもよい。いくつかの実施形態においては、(i)関心物体を表す可能性が低い副領域が(ii)関心物体を有する細胞を表す副領域から分離されるように画像を強化するように設計された一連のフィルタを適用することによって、セグメント化が実現される。アーチファクトの除去、小さな斑点の除去、小さな切れ目の除去、孔の充填、および大きな斑点の分割のため、付加的なフィルタが選択的に適用されるようになっていてもよい。 [000141] In some embodiments, algorithms are utilized that separate subregions of different colors or textures and form boundaries that match the dominant edges in the image, and thus the organism of interest (eg, fibers). Boundaries representing cells of irregular size or shape, such as blasts or macrophages, are generated. In some embodiments, a thresholding algorithm (eg, Otsu method, average clustering, etc.) is used to exclude sub-regions that do not have stains and provide only sub-regions that contain a threshold amount of stain as representation objects. ) May be applied to the stain channel image. In some embodiments, threshold parameters (eg, threshold staining parameters provided by a pathologist) may be used to generate a binary mask of the subregion. In some embodiments, a series designed to enhance the image so that (i) a subregion that is unlikely to represent an object of interest is separated from (ii) a subregion that represents a cell that has the object of interest. Segmentation is achieved by applying the filter of. Additional filters may be selectively applied to remove artifacts, remove small spots, remove small cuts, fill holes, and divide large spots.

[000142]いくつかの実施形態においては、ステインチャネルの2値画像中の(無染色または略無染色の組織サンプル中の領域に対応する)白色の画像領域の除去等によって、不規則形状の細胞を識別する副領域を有する可能性が低い領域が除去される。いくつかの実施形態において、これは、グローバル閾値化フィルタを適用することによって実現される。閾値化は、強度が何らかの閾値(ここでは、グローバル閾値)を上回るか下回る場合に、値1または0をすべてのピクセルに割り当てることによって、強度画像(I)を2値画像(I’)へと変換するのに用いられる方法である。言い換えると、強度値に応じてピクセルを分割するのに、グローバル閾値化が適用される。いくつかの実施形態において、グローバル閾値化は、(たとえば、グレースケールチャネルに類似する)第1の主成分チャネル上で演算された中央値および/または標準偏差に基づく。グローバル閾値を求めることによって、不規則形状の細胞が存在しない可能性が高い無染色または略無染色の領域を表す任意の白色画像領域が破棄され得ると考えられる。 [000142] In some embodiments, irregularly shaped cells, such as by removal of a white image region (corresponding to a region in an unstained or substantially unstained tissue sample) in a binary image of a stain channel. Regions that are unlikely to have sub-regions that identify the are removed. In some embodiments, this is achieved by applying a global thresholding filter. Thresholding turns an intensity image (I) into a binary image (I') by assigning a value of 1 or 0 to all pixels when the intensity is above or below some threshold (here, the global threshold). The method used to convert. In other words, global thresholding is applied to divide the pixels according to the intensity value. In some embodiments, global thresholding is based on the median and / or standard deviation calculated on the first principal component channel (eg, similar to a grayscale channel). By determining the global threshold, it is believed that any white image region representing an unstained or substantially unstained region that is likely to be free of irregularly shaped cells can be discarded.

[000143]いくつかの実施形態においては、FAPステインに関して、1)紫色チャネルを分離し、2)紫色チャネルの閾値化によってFAP陽性領域を識別し、3)紫色チャネルに対してスーパーピクセルセグメント化を適用し、4)特徴測定基準をスーパーピクセルオブジェクトに付与することによって、境界が形成され得る。いくつかの実施形態において、FAP陽性領域の有無は、病理学者から得られたグランドトゥルースに基づいてトレーニングされた教師あり生成ルールを用いて識別されるようになっていてもよい。いくつかの実施形態においては、画像のトレーニングセット上での閾値の識別等によって、FAP陽性閾値パラメータが病理学者により供給されるようになっていてもよい。そして、この閾値パラメータを用いることにより、2値マスクが生成されるようになっていてもよい。これらの方法は、Auranuch Lorsakul et al.「Automated whole−slide analysis of multiplex−brightfield IHC images for cancer cells and carcinoma−associated fibroblasts(がん細胞およびがん関連線維芽細胞に関する多重化−明視野IHC画像の自動全スライド分析)」,Proc.SPIE 10140,Medical Imaging 2017:Digital Pathology,1014007(2017/03/01)に詳しく記載されており、そのすべての開示内容が参照により本明細書に組み込まれる。 [000143] In some embodiments, with respect to FAP stains, 1) the purple channels are separated, 2) the FAP positive regions are identified by thresholding the purple channels, and 3) superpixel segmentation for the purple channels Boundaries can be formed by applying and 4) applying feature metrics to superpixel objects. In some embodiments, the presence or absence of a FAP-positive region may be identified using supervised generation rules trained on the basis of grand truth obtained from a pathologist. In some embodiments, FAP positive threshold parameters may be provided by the pathologist, such as by identifying thresholds on a training set of images. Then, a binary mask may be generated by using this threshold parameter. These methods are described in Auranuch Losakul et al. "Automate-slide-slide-analysis of multiplex-brightfield IHC images for cancer cells and carcinoma-associated fibroblasts" (cancer cells) It is described in detail in SPIE 10140, Medical Imaging 2017: Digital Pathology, 1014007 (2017/03/01), the entire disclosure of which is incorporated herein by reference.

[000144]いくつかの実施形態においては、副領域の境界がトレースされる。たとえば、副領域の外部境界のほか、副領域の内側または間の「孔」の外部境界をトレースするアルゴリズムが提供されていてもよい。いくつかの実施形態において、副領域の境界は、bwboundariesと称するmatlab関数を用いて境界トレースを形成することにより生成される(https://www.mathworks.com/help/images/ref/bwboundaries.html)。 [000144] In some embodiments, subregion boundaries are traced. For example, an algorithm may be provided that traces the outer boundaries of the sub-region, as well as the outer boundaries of the "holes" inside or between the sub-regions. In some embodiments, the boundaries of the subregions are generated by forming boundary traces using a matlab function called bwboundaries (html: //www.mathworks.com/help/images/ref/bwboundaries. html).

[000145]境界形成の後、境界トレースは、x、y座標から成るポリゴン外形に変換される。トレース境界のx、y座標は、メモリまたはデータベースに格納されるようになっていてもよく、たとえば、副領域オブジェクトのトレース境界の全ピクセルの行および列座標が決定および格納されるようになっていてもよい。 [000145] After boundary formation, the boundary trace is transformed into a polygon outline consisting of x, y coordinates. The x, y coordinates of the trace boundary may be stored in memory or database, for example, the row and column coordinates of all pixels of the trace boundary of the subregion object are determined and stored. You may.

[000146]いくつかの実施形態においては、各副領域の重心または質量中心の計算または演算によって、種子点が導出される。当業者には、不規則なオブジェクトの重心を決定する方法が既知である。計算後は、副領域の重心の標識化ならびに/または種子のx、y座標のメモリもしくはデータベースへの格納が行われる。いくつかの実施形態において、重心または質量中心の位置は、入力画像に重ね合わされていてもよい。 [000146] In some embodiments, the calculation or calculation of the center of gravity or mass center of each subregion derives seed points. Those skilled in the art will know how to determine the centroid of an irregular object. After the calculation, the center of gravity of the sub-region is labeled and / or the x and y coordinates of the seed are stored in the memory or database. In some embodiments, the position of the center of gravity or locating the center of mass may be superimposed on the input image.

[000147]標識化モジュール
[000148]セグメント化モジュール206を用いて副領域が生成され、モジュール207を用いて表現オブジェクトが演算された後は、標識化モジュール208を用いて、画像分析モジュール202から導出された測定基準等(ステップ310)、表現オブジェクトのアノテーション、標識化、またはデータとの関連付けがなされる(ステップ330)。標識化モジュール208は、本明細書に記載の通り、データを格納する非一時的メモリであるデータベース209を生成するようにしてもよい。いくつかの実施形態において、データベース209は、入力として受信された画像、任意のポリゴンおよび/もしくは種子点の座標、ならびに画像分析による任意の関連データもしくはラベルを格納する(図11参照)。
[000147] Labeling module
[000148] After the sub-region is generated by using the segmentation module 206 and the representation object is calculated by using the module 207, the measurement reference and the like derived from the image analysis module 202 by using the labeling module 208 ( Step 310), the representation object is annotated, labeled, or associated with the data (step 330). The labeling module 208 may generate database 209, which is a non-temporary memory for storing data, as described herein. In some embodiments, the database 209 stores the image received as input, the coordinates of any polygon and / or seed point, and any relevant data or label from image analysis (see FIG. 11).

[000149]この点に関しては、画像のセグメント化副領域ごとに、データベクトルが格納されるようになっていてもよい。たとえば、任意の表現オブジェクトおよび関連する画像分析データを含めて、副領域ごとに、データベクトルが格納されるようになっていてもよい。一例として、データ点「a」、「b」、および「c」が表現オブジェクトの座標であり、「x」、「y」、および「z」が画像分析により導出された測定基準(または、特定の副領域に対応する測定基準の平均)である場合、データベースは、[a,b,c,x,y,z]、[a,b,c,x,y,z]、[a,b,c,x,y,z]といったデータベクトルを格納することになる。ここで、Nは、セグメント化モジュール206により生成された副領域の数である。 [000149] In this regard, a data vector may be stored for each segmentation subregion of the image. For example, a data vector may be stored for each sub-region, including any representation object and associated image analysis data. As an example, the data points "a", "b", and "c" are the coordinates of the representation object, and "x", "y", and "z" are the metrics (or specific) derived by image analysis. The database is [a, b, c, x, y, z] 1 , [a, b, c, x, y, z] 2 , [a] if it is the average of the metrics corresponding to the subregions of , B, c, x, y, z] N and other data vectors will be stored. Here, N is the number of subregions generated by the segmentation module 206.

[000150]いくつかの実施形態において、画像分析モジュールからのデータは、画像内の個々のピクセルを表す。当業者には当然のことながら、特定の副領域内のすべてのピクセルのデータは、平均化によって、副領域内のピクセルデータの平均値を与え得る。たとえば、個々のピクセルはそれぞれ、一定の強度を有していてもよい。特定の副領域におけるすべてのピクセルの強度は、平均化によって、当該副領域の平均ピクセル強度を与え得る。当該副領域の当該平均ピクセルは、当該副領域の表現オブジェクトと関連付けられていてもよく、また、当該データが一体としてメモリに格納されていてもよい。 [000150] In some embodiments, the data from the image analysis module represents individual pixels in the image. As a matter of course to those skilled in the art, the data of all pixels in a particular sub-region can be averaged to give the average value of the pixel data in the sub-region. For example, each individual pixel may have a certain intensity. The intensities of all pixels in a particular sub-region can be averaged to give the average pixel strength of that sub-region. The average pixel of the sub-region may be associated with the representation object of the sub-region, or the data may be stored as a unit in the memory.

[000151]FAPによる染色に関して、FAP陽性面積は、別の特徴/測定結果がスーパーピクセルオブジェクトに付与され得る。FAP陽性面積は、設定閾値を上回るFAP強度を有するピクセルの合計を参照する。閾値の選択については、Auranuch Lorsakul et al.「Automated whole−slide analysis of multiplex−brightfield IHC images for cancer cells and carcinoma−associated fibroblasts(がん細胞およびがん関連線維芽細胞に関する多重化−明視野IHC画像の自動全スライド分析)」,Proc.SPIE 10140,Medical Imaging 2017:Digital Pathology,1014007(2017/03/01)に記載されており、そのすべての開示内容が参照により本明細書に組み込まれる。 [000151] For staining with FAP, the FAP positive area can be given another feature / measurement result to the superpixel object. The FAP positive area refers to the total number of pixels having FAP intensity above the set threshold. For selection of thresholds, see Auranuch Lorsakal et al. "Automate-slide-slide-analysis of multiplex-brightfield IHC images for cancer cells and carcinoma-associated fibroblasts" (cancer cells) SPIE 10140, Medical Imaging 2017: Digital Pathology, 1014007 (2017/03/01), the entire disclosure of which is incorporated herein by reference.

[000152]標識化モジュールにより格納されるデータの一例として、また、FAPバイオマーカによる生物学的サンプルの染色に関して、副領域内のFAPステインの平均強度は、特定の副領域の画像分析により導出されるようになっていてもよく、また、当該FAPステイン強度は、当該副領域の任意の表現オブジェクトの座標と併せて、データベースに格納されるようになっていてもよい。同様に、画像分析によって、FAP発現スコア等、副領域の特定の発現スコアが導出されるようになっていてもよく、また、当該副領域の当該FAP発現スコアは、当該特定の副領域の表現オブジェクトと併せて格納されるようになっていてもよい。任意の副領域内の画像部分の平均強度スコアおよび平均発現スコアのほか、他のパラメータが格納されるようになっていてもよく、種子点間の距離、識別腫瘍細胞と不規則形状の細胞との間の距離(たとえば、腫瘍細胞と線維芽細胞との間の距離)、およびFAP陽性面積が挙げられるが、これらに限定されない。 [000152] As an example of the data stored by the labeling module, and for staining biological samples with FAP biomarkers, the average intensity of FAP stains within the subregion is derived by image analysis of the particular subregion. The FAP stain intensity may be stored in the database together with the coordinates of any representation object in the sub-region. Similarly, by image analysis, a specific expression score of a sub-region such as a FAP expression score may be derived, and the FAP expression score of the sub-region is an expression of the specific sub-region. It may be stored together with the object. In addition to the average intensity score and average expression score of the image portion in any subregion, other parameters may be stored, such as the distance between seed points, discriminating tumor cells and irregularly shaped cells. Distances between (eg, distances between tumor cells and fibroblasts), and FAP-positive areas are, but are not limited to.

[000153]いくつかの実施形態において、一例としては、対応するスーパーピクセル内で演算された分析結果(たとえば、平均局所強度、ポジティブ染色面積)がそれぞれの対応するポリゴン外形および種子に付与される。全スライド画像の場合は、それぞれの分析結果が付与されたこれら表現オブジェクト(たとえば、ポリゴン外形および種子)がxy座標にてデータベースに格納される。図10Aは、線維芽細胞(1010)用の線維芽細胞活性化タンパク質(FAP)により紫色に染色され、上皮腫瘍(1020)用のパンサイトケラチン(PanCK)により黄色に染色された頭頚部がん組織の全スライドIHC画像の一例を示している。図10Bおよび図11はそれぞれ、データベースに格納可能な線維芽細胞領域に属するスーパーピクセルの分析結果が付与されたポリゴン外形および種子の例を示している。 [000153] In some embodiments, as an example, analytical results calculated within the corresponding superpixels (eg, average local intensity, positive staining area) are given to each corresponding polygon outline and seed. In the case of all slide images, these representation objects (for example, polygon outlines and seeds) to which the respective analysis results are given are stored in the database in xy coordinates. FIG. 10A is a head and neck cancer stained purple with fibroblast-activating protein (FAP) for fibroblasts (1010) and yellow with pancytokeratin (PanCK) for epithelial tumors (1020). An example of all slide IHC images of tissue is shown. 10B and 11 show examples of polygon outlines and seeds with analysis results of superpixels belonging to the fibroblast region that can be stored in the database, respectively.

[000154]データ読み出しまたは投影モジュール
[000155]当業者には当然のことながら、格納された分析結果および関連する生物学的特徴は、後で読み出し可能であり、データは、さまざまなフォーマット(たとえば、分析結果のヒストグラムプロット)で報告または視覚化されるようになっていてもよい。より具体的に、表現オブジェクトの座標データおよび関連する画像分析データは、データベース209から読み出され、別途分析に用いられるようになっていてもよい。いくつかの実施形態において、また、一例として、表現オブジェクトは、全スライド画像内またはユーザアノテーション領域中の分析結果の視覚化または報告のため、データベースから読み出し可能である。図12に示されるように、全スライドスーパーピクセルから読み出されたFAP強度のヒストグラム中のプロットによって、関連付けまたは付与された画像分析結果を報告可能である。あるいは、全スライド画像、視野画像、または別途精査用に医療専門家によりアノテーションされた画像の一部においてデータを視覚化可能である。
[000154] Data Read or Projection Module
[000155] As a matter of course to those skilled in the art, the stored analytical results and associated biological features can be retrieved later and the data are reported in various formats (eg, histogram plots of the analytical results). Alternatively, it may be visualized. More specifically, the coordinate data of the representation object and the related image analysis data may be read from the database 209 and used separately for analysis. In some embodiments, and as an example, the representation object is readable from the database for visualization or reporting of analysis results within the entire slide image or in the user annotation area. As shown in FIG. 12, the associated or assigned image analysis results can be reported by plots in the histogram of FAP intensity read from all slide superpixels. Alternatively, the data can be visualized in a full slide image, a field image, or a portion of an image separately annotated by a healthcare professional for scrutiny.

[000156]本開示の実施形態を実現する他の構成要素
[000157]本開示のシステム200は、組織標本に対して1つまたは複数の作成プロセスを実行可能な標本処理装置に接続されていてもよい。作成プロセスとしては、標本の脱パラフィン化、標本の調節(たとえば、細胞調節)、標本の染色、抗原読み出しの実行、免疫組織化学染色(標識化を含む)もしくは他の反応の実行、ならびに/またはin−situハイブリダイゼーション(たとえば、SISH、FISH等)染色(標識化を含む)もしくは他の反応の実行のほか、顕微鏡法、微量分析法、質量分光法、または他の分析方法のために標本を作成する他のプロセスが挙げられるが、これらに限定されない。
[000156] Other components that implement the embodiments of the present disclosure.
[000157] The system 200 of the present disclosure may be connected to a sample processing device capable of performing one or more preparation processes on a tissue sample. Preparation processes include deparaffinization of specimens, preparation of specimens (eg, cell regulation), staining of specimens, performing antigen readout, immunohistochemical staining (including labeling) or other reactions, and / or Specimens for in-situ hybridization (eg, SISH, FISH, etc.) staining (including labeling) or performing other reactions, as well as microscopy, microanalysis, mass spectroscopy, or other analytical methods. Other processes to create include, but are not limited to.

[000158]処理装置は、固定剤を標本に塗布可能である。固定剤としては、架橋剤(アルデヒド(たとえば、ホルムアルデヒド、パラホルムアルデヒド、およびグルタルアルデヒド)のほか、非アルデヒド架橋剤等)、酸化剤(たとえば、四酸化オスミウムおよびクロム酸等の金属イオンおよび錯体)、タンパク質変性剤(たとえば、酢酸、メタノール、およびエタノール)、メカニズムが未知の固定剤(たとえば、塩化第二水銀、アセトン、およびピクリン酸)、組み合わせ試薬(たとえば、カルノワ固定剤、メタカン、ブアン液、B5固定剤、ロスマン液、およびジャンドル液)、マイクロ波、および混合固定剤(たとえば、排除体積固定剤および蒸気固定剤)が挙げられる。 [000158] The treatment device can apply the fixative to the specimen. Fixatives include cross-linking agents (aldehydes (eg, formaldehyde, paraformaldehyde, and glutaaldehyde) as well as non-aldehyde cross-linking agents, etc.), oxidizing agents (eg, metal ions and complexes such as osmium tetroxide and chromium acid) Protein denaturants (eg, acetic acid, methanol, and ethanol), fixatives of unknown mechanism (eg, mercuric chloride, acetone, and picric acid), combination reagents (eg, Carnois fixatives, metacan, Buan solution, B5). Fixants, Rothman's solution, and Jundle's solution), microwaves, and mixed fixatives (eg, exclusion volume fixatives and steam fixatives).

[000159]標本がパラフィンに埋め込まれたサンプルの場合、このサンプルは、適当な脱パラフィン化液を用いることにより脱パラフィン化され得る。パラフィンが除去された後は、任意数の物質が連続して標本に適用され得る。これらの物質としては、前処理用(たとえば、タンパク質架橋の逆転、核酸の曝露等)、変性用、ハイブリダイゼーション用、洗浄用(たとえば、ストリンジェンシ洗浄)、検出用(たとえば、視覚またはマーカ分子のプローブへのリンク)、増幅用(たとえば、タンパク質、遺伝子等の増幅)、カウンタ染色用、封入用等が可能である。 [000159] If the sample is a sample embedded in paraffin, this sample can be deparaffinized by using a suitable deparaffinizing solution. After the paraffin is removed, any number of substances can be applied to the specimen in succession. These substances include pretreatment (eg, protein cross-linking reversal, nucleic acid exposure, etc.), denaturation, hybridization, washing (eg, stringency washing), detection (eg, visual or marker molecules). (Link to probe), for amplification (for example, amplification of proteins, genes, etc.), for counter staining, for encapsulation, etc.

[000160]標本処理装置は、広範な物質を標本に適用可能である。これらの物質としては、ステイン、プローブ、試薬、洗浄液、および/または調節剤が挙げられるが、これらに限定されない。これらの物質としては、流体(たとえば、気体、液体、または気体/液体混合物)等が可能である。流体としては、溶媒(たとえば、極性溶媒、非極性溶媒等)、溶液(たとえば、水溶液または他種の溶液)等が可能である。試薬としては、ステイン、湿潤剤、抗体(たとえば、モノクローナル抗体、ポリクローナル抗体等)、抗原回復液(たとえば、水性または非水性の抗原緩衝液、抗原回復緩衝剤等)が挙げられるが、これらに限定されない。プローブとしては、検出可能な標識またはレポータ分子に付着した単離核酸または単離合成オリゴヌクレオチドが可能である。標識としては、放射性同位体、酵素基質、補因子、リガンド、化学発光または蛍光剤、ハプテン、および酵素が挙げられる。 [000160] Specimen processing equipment can apply a wide range of substances to specimens. These materials include, but are not limited to, stains, probes, reagents, cleaning solutions, and / or modifiers. These substances can be fluids (eg, gases, liquids, or gas / liquid mixtures) and the like. As the fluid, a solvent (for example, a polar solvent, a non-polar solvent, etc.), a solution (for example, an aqueous solution or a solution of another kind) or the like can be used. Reagents include, but are limited to, stains, wetting agents, antibodies (eg, monoclonal antibodies, polyclonal antibodies, etc.), antigen recovery solutions (eg, aqueous or non-aqueous antigen buffers, antigen recovery buffers, etc.). Not done. The probe can be an isolated nucleic acid or an isolated synthetic oligonucleotide attached to a detectable label or reporter molecule. Labels include radioisotopes, enzyme substrates, cofactors, ligands, chemical luminescent or fluorescent agents, haptens, and enzymes.

[000161]標本処理装置としては、Ventana Medical Systems,Inc.が販売するBENCHMARK XT器具およびSYMPHONY器具のような自動化装置が可能である。Ventana Medical Systems,Inc.は、自動分析を実行するシステムおよび方法を開示した多くの米国特許の譲受人であり、米国特許第5,650,327号、第5,654,200号、第6,296,809号、第6,352,861号、第6,827,901号、および第6,943,029号、ならびに米国特許出願公開第2003/0211630号および第2004/0052685号を含み、それぞれのすべての内容が参照により本明細書に組み込まれる。あるいは、標本は、手動で処理され得る。 [000161] As a sample processing apparatus, Ventana Medical Systems, Inc. Automation devices such as Benchmark XT appliances and SYMPHONY appliances sold by are possible. Ventana Medical Systems, Inc. Is the assignee of many US patents that have disclosed systems and methods for performing automated analysis, US Pat. Nos. 5,650,327, 5,654,200, 6,296,809, No. Including 6,352,861, 6,827,901, and 6,943,029, and US Patent Application Publications 2003/0211630 and 2004/0052685, all of which are referenced. Is incorporated herein by. Alternatively, the specimen can be processed manually.

[000162]標本が処理された後、ユーザは、標本支持スライドを撮像装置に移送することができる。いくつかの実施形態において、撮像装置は、明視野撮像スライドスキャナである。明視野撮像装置の1つとして、Ventana Medical Systems,Inc.が販売するiScan HT and DP200(Griffin)明視野スキャナがある。自動化された実施形態において、撮像装置は、「IMAGING SYSTEM AND TECHNIQUES(撮像システムおよび技法)」という名称の国際特許出願PCT/US2010/002772号(特許公開WO2011/049608)または2011年9月9日に出願された「IMAGING SYSTEMS,CASSETTES, AND METHODS OF USING THE SAME(撮像システム、カセット、およびこれらの使用方法)」という名称の米国特許出願第61/533,114号に開示されるようなデジタル病理学デバイスである。国際特許出願PCT/US2010/002772および米国特許出願第61/533,114号のすべてが参照により本明細書に組み込まれる。 [000162] After the specimen has been processed, the user can transfer the specimen support slides to the imaging device. In some embodiments, the imaging device is a brightfield imaging slide scanner. As one of the bright-field imaging devices, Ventana Medical Systems, Inc. There is an iScan HT and DP200 (Griffin) brightfield scanner for sale by. In an automated embodiment, the imaging device is an international patent application PCT / US2010 / 002772 (Patent Publication WO2011 / 049608) or September 9, 2011, entitled "IMAGING SYSTEM AND TECHNIQUES". Digital pathology as disclosed in US Patent Application No. 61 / 533,114 entitled "IMAGING SYSTEMS, CASSETTES, AND METHODS OF USING THE SAME" (imaging system, cassette, and how to use them). It is a device. All of International Patent Application PCT / US2010 / 002772 and US Patent Application No. 61 / 533,114 are incorporated herein by reference.

[000163]撮像システムまたは装置は、マルチスペクトル撮像(MSI)システムまたは蛍光顕微鏡システムであってもよい。ここで用いられる撮像システムは、MSIである。MSIは一般的に、ピクセルレベルで画像のスペクトル分布にアクセス可能とすることにより、コンピュータ化顕微鏡ベースの撮像システムを病理標本の分析に備える。多様なマルチスペクトル撮像システムが存在するが、これらのシステムすべてに共通する動作的態様は、マルチスペクトル画像を構成する能力である。マルチスペクトル画像とは、電磁スペクトル全体の特定の波長または特定のスペクトル帯域幅において画像データを取り込んだものである。これらの波長は、光学フィルタまたは赤外線(IR)等の可視光範囲を超える波長における電磁放射光線を含む所定のスペクトル成分を選択可能な他の器具の使用により選別されるようになっていてもよい。 [000163] The imaging system or device may be a multispectral imaging (MSI) system or a fluorescence microscopy system. The imaging system used here is MSI. MSI generally prepares a computerized microscope-based imaging system for the analysis of pathological specimens by making the spectral distribution of the image accessible at the pixel level. There are a variety of multispectral imaging systems, but a common behavioral aspect of all of these systems is the ability to compose multispectral images. A multispectral image is one that captures image data at a specific wavelength or a specific spectral bandwidth of the entire electromagnetic spectrum. These wavelengths may be selected by the use of optical filters or other instruments capable of selecting predetermined spectral components, including electromagnetic radiation at wavelengths beyond the visible light range, such as infrared (IR). ..

[000164]MSIシステムとしては、光学撮像システムが挙げられ、その一部が、所定数Nの離散光帯域を規定するように調節可能なスペクトル選択システムを含む。この光学システムは、光検出器上に広帯域光源で透過照射される組織サンプルを撮像するように構成されていてもよい。光学撮像システムは、一実施形態において、たとえば顕微鏡等の拡大システムを含んでいてもよく、当該光学システムの1つの光出力と空間的に大略位置合わせされた1本の光軸を有する。このシステムは、異なる離散スペクトル帯において画像が取得されるように(たとえば、コンピュータプロセッサによって)スペクトル選択システムが調整または調節されるように、組織の一連の画像を構成する。また、この装置は、ディスプレイも含んでいてもよく、このディスプレイにおいて、取得された一連の画像から少なくとも1つの視覚的に知覚可能な組織の画像が現れる。スペクトル選択システムは、回折格子、薄膜干渉フィルタ等の一群の光学フィルタ、またはユーザ入力もしくは予めプログラムされたプロセッサのコマンドのいずれかに応答して、光源からサンプルを通じて検出器へと透過した光のスペクトルから特定の通過帯域を選択するように構成されたその他任意のシステム等、光分散要素を含んでいてもよい。 [000164] MSI systems include optical imaging systems, some of which include a spectrum selection system that is adjustable to define a discrete optical band of a predetermined number N. The optical system may be configured to image a tissue sample transmitted and irradiated by a broadband light source on a photodetector. In one embodiment, the optical imaging system may include a magnifying system such as a microscope and has one optical axis that is roughly spatially aligned with one optical output of the optical system. The system constructs a series of images of tissue such that the spectrum selection system is tuned or tuned so that images are acquired in different discrete bands of spectrum (eg, by a computer processor). The device may also include a display, on which an image of at least one visually perceptible tissue appears from the acquired series of images. The spectrum selection system responds to either a group of optical filters such as gratings, thin film interference filters, or user input or pre-programmed processor commands to spectrum the light transmitted from the source through the sample to the detector. It may include an optical grating element, such as any other system configured to select a particular pass band from.

[000165]代替実施態様において、スペクトル選択システムは、N個の離散スペクトル帯に対応する複数の光出力を規定する。この種のシステムは、光学システムからの透過光出力を取り込み、識別されたスペクトル帯において、この識別されたスペクトル帯に対応する光路に沿ってサンプルを検出システム上で撮像するように、N本の空間的に異なる光路に沿って、この光出力の少なくとも一部を空間的に方向転換させる。 [000165] In an alternative embodiment, the spectrum selection system defines multiple optical outputs corresponding to N discrete bands of spectrum. This type of system captures the transmitted light output from the optical system, and in the identified spectral band, N lines of samples are taken on the detection system along the optical path corresponding to this identified spectral band. At least a portion of this light output is spatially redirected along spatially different optical paths.

[000166]本明細書に記載の主題および動作の実施形態は、デジタル電子回路またはコンピュータソフトウェア、ファームウェア、もしくはハードウェア(本明細書に開示の構造およびその構造的同等物を含む)、あるいはこれらのうちの1つまたは複数の組み合わせにて実装され得る。本明細書に記載の主題の実施形態は、1つまたは複数のコピュータプログラム、すなわち、データ処理装置による実行またはデータ処理装置の動作の制御ためにコンピュータ記憶媒体上に符号化されたコンピュータプログラム命令の1つまたは複数のモジュールとして実装され得る。本明細書に記載のモジュールはいずれも、プロセッサにより実行されるロジックを含んでいてもよい。本明細書において、「ロジック(logic)」は、プロセッサの動作に影響を及ぼすように適用され得る命令信号および/またはデータの形態を有する如何なる情報をも表す。ソフトウェアは、ロジックの一例である。 [000166] Embodiments of the subject matter and operation described herein are digital electronic circuits or computer software, firmware, or hardware, including the structures disclosed herein and their structural equivalents, or these. It can be implemented in one or more combinations of them. Embodiments of the subject matter described herein are one or more computer programs, i.e., computer program instructions encoded on a computer storage medium for execution by a data processor or control of the operation of the data processor. It can be implemented as one or more modules. Any of the modules described herein may include logic executed by a processor. As used herein, "logic" refers to any information having a form of instruction signal and / or data that may be applied to affect the operation of the processor. Software is an example of logic.

[000167]コンピュータ記憶媒体としては、コンピュータ可読記憶装置、コンピュータ可読記憶基板、ランダムもしくは順次アクセス・メモリアレイもしくはデバイス、またはこれらのうちの1つまたは複数の組み合わせも可能であるし、これらに含まれることも可能である。さらに、コンピュータ記憶媒体は、伝搬信号ではないが、人工的に生成された伝搬信号として符号化されたコンピュータプログラム命令の供給源または宛先が可能である。また、コンピュータ記憶媒体としては、1つまたは複数の別個の物理的構成要素または媒体(たとえば、複数のCD、ディスク、または他の記憶装置)も可能であるし、これらに含まれることも可能である。本明細書に記載の動作は、1つまたは複数のコンピュータ可読記憶装置に格納されたデータまたは他の供給源から受信されたデータに対してデータ処理装置により実行される動作として実装され得る。 [000167] The computer storage medium can be, and includes, computer-readable storage devices, computer-readable storage boards, random or sequential access memory arrays or devices, or combinations thereof. It is also possible. Further, the computer storage medium can be a source or destination of computer program instructions encoded as artificially generated propagating signals, although not propagating signals. The computer storage medium can also be, or can include, one or more separate physical components or media (eg, multiple CDs, disks, or other storage devices). is there. The operations described herein can be implemented as operations performed by a data processor with respect to data stored in one or more computer-readable storage devices or data received from other sources.

[000168]用語「プログラムされたプロセッサ」は、データを処理するためのあらゆる種類の装置、デバイス、および機械を含み、一例として、プログラム可能なマイクロプロセッサ、コンピュータ、システム・オン・チップ、またはこれらのうちの複数、もしくは組み合わせが挙げられる。装置としては、専用論理回路(たとえば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路))が挙げられる。また、装置としては、ハードウェアのほか、対象のコンピュータプログラムのための実行環境を生成するコード(たとえば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、クロスプラットフォーム・ランタイム環境、仮想機械、またはこれらのうちの1つもしくは複数の組み合わせを構成するコード)が挙げられる。この装置および実行環境は、ウェブサービス、分散型コンピューティング、およびグリッドコンピューティング・インフラストラクチャ等、種々異なるコンピューティングモデル・インフラストラクチャを実現することができる。 [000168] The term "programmed processor" includes all types of devices, devices, and machines for processing data, such as programmable microprocessors, computers, system-on-chips, or these. Multiple or combinations of them can be mentioned. Examples of the device include a dedicated logic circuit (for example, FPGA (field programmable gate array) or ASIC (application specific integrated circuit)). The device can also be hardware, as well as code that generates an execution environment for the target computer program (eg, processor firmware, protocol stack, database management system, operating system, cross-platform runtime environment, virtual machine, or Codes that make up one or more combinations of these). The device and execution environment can implement a variety of different computing model infrastructures, including web services, distributed computing, and grid computing infrastructure.

[000169]コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、またはコードとしても知られる)は、コンパイラ型またはインタープリタ型言語、宣言型または手続き型言語等、如何なる形態のプログラミング言語でも記述可能であり、また、単体プログラムまたはモジュール、コンポーネント、サブルーチン、オブジェクト、もしくはコンピューティング環境における使用に適した他のユニット等、如何なる形態でも展開可能である。コンピュータプログラムは、ファイルシステムのファイルに対応していてもよいが、必ずしもその必要はない。プログラムは、他のプログラムもしくはデータ(たとえば、マークアップ言語文書に格納された1つまたは複数のスクリプト)を保持するファイルの一部、対象のプログラムに専用の1つのファイル、または複数の調整されたファイル(たとえば、1つもしくは複数のモジュール、サブプログラム、もしくはコードの一部を格納したファイル)に格納され得る。コンピュータプログラムは、1つのコンピュータ上または1つのサイトに位置付けられた複数のコンピュータもしくは複数のサイトに分散され、通信ネットワークにより相互接続された複数のコンピュータ上で実行されるように展開され得る。 [000169] Computer programs (also known as programs, software, software applications, scripts, or code) can be written in any form of programming language, including compiler or interpreter languages, declarative or procedural languages. It can also be deployed in any form, such as a single program or module, component, subroutine, object, or other unit suitable for use in a computing environment. The computer program may, but does not necessarily, support files in the file system. A program is part of a file that holds other programs or data (eg, one or more scripts stored in a markup language document), one file dedicated to the target program, or multiple tailors. It can be stored in a file (eg, a file containing one or more modules, subprograms, or parts of code). The computer program may be distributed on one computer or on multiple computers or sites located on one site and deployed to run on multiple computers interconnected by a communication network.

[000170]本明細書に記載のプロセスおよびロジックフローは、1つまたは複数のコンピュータプログラムを実行し、入力データに対する動作および出力の生成によって動作を実行する1つまたは複数のプログラム可能なプロセッサにより実行され得る。これらのプロセスおよびロジックフローは、専用論理回路(たとえば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路))により実行され得る。また、装置は、専用論理回路(たとえば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路))として実装され得る。 [000170] The processes and logic flows described herein are performed by one or more programmable processors that execute one or more computer programs and perform operations by producing operations on input data and output. Can be done. These processes and logic flows can be performed by dedicated logic circuits (eg FPGAs (Field Programmable Gate Arrays) or ASICs (Application Specific Integrated Circuits)). The device may also be implemented as a dedicated logic circuit (eg FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit)).

[000171]コンピュータプログラムの実行に適したプロセッサとしては、一例として、汎用および専用マイクロプロセッサの両者、ならびに任意の種類のデジタルコンピュータの任意の1つまたは複数のプロセッサが挙げられる。一般的に、プロセッサは、リードオンリーメモリ、ランダムアクセスメモリ、またはその両者から命令およびデータを受信することになる。コンピュータの必須要素は、命令に従って動作を実行するプロセッサならびに命令およびデータを格納する1つもしくは複数のメモリデバイスである。また、一般的に、コンピュータは、データを格納する1つまたは複数の大容量記憶装置(たとえば、磁気、光磁気ディスク、または光ディスク)を含むか、あるいは、1つまたは複数の大容量記憶装置に対するデータの受信、送信、または両者を行うように動作結合されることになる。ただし、コンピュータは、そのようなデバイスを必ずしも有する必要がない。さらに、コンピュータは、別のデバイス(たとえば、携帯電話、携帯情報端末(PDA)、モバイルオーディオもしくはビデオプレーヤ、ゲームコンソール、全地球測位システム(GPS)受信機、または携帯型記憶装置(たとえば、ユニバーサルシリアルバス(USB)フラッシュドライブ)、あるいはその他多くのデバイス)に埋め込まれ得る。コンピュータプログラム命令およびデータを記憶するのに適したデバイスとしては、あらゆる形態の不揮発性メモリ、媒体、およびメモリデバイスが挙げられ、一例として、半導体メモリデバイス(たとえば、EPROM、EEPROM、およびフラッシュメモリデバイス)、磁気ディスク(たとえば、内部ハードディスクもしくはリムーバブルディスク)、光磁気ディスク、ならびにCD−ROMおよびDVD−ROMディスクを含む。プロセッサおよびメモリは、専用論理回路による補完または専用論理回路への組み込みがなされ得る。 [000171] Suitable processors for executing computer programs include, for example, both general purpose and dedicated microprocessors, as well as any one or more processors of any type of digital computer. In general, the processor will receive instructions and data from read-only memory, random access memory, or both. Essential elements of a computer are a processor that performs operations according to instructions and one or more memory devices that store instructions and data. Also, in general, a computer includes one or more mass storage devices (eg, magnetic, magneto-optical disk, or optical disk) that store data, or for one or more mass storage devices. The operations will be combined to receive, transmit, or both of the data. However, the computer does not necessarily have to have such a device. In addition, the computer may be another device (eg, a mobile phone, mobile information terminal (PDA), mobile audio or video player, game console, global positioning system (GPS) receiver, or portable storage device (eg, universal serial). It can be embedded in a bus (USB) flash drive) or many other devices). Suitable devices for storing computer program instructions and data include all forms of non-volatile memory, media, and memory devices, such as semiconductor memory devices (eg, EPROM, EEPROM, and flash memory devices). , Magnetic disks (eg, internal hard disks or removable disks), magneto-optical disks, and CD-ROM and DVD-ROM disks. The processor and memory may be complemented by a dedicated logic circuit or incorporated into a dedicated logic circuit.

[000172]ユーザとの相互作用を可能にするため、本明細書に記載の主題の実施形態は、ユーザに情報を表示する表示装置(たとえば、LCD(液晶ディスプレイ)、LED(発光ダイオード)ディスプレイ、もしくはOLED(有機発光ダイオード)ディスプレイ)ならびにユーザがコンピュータに入力を与え得るキーボードおよびポインティングデバイス(たとえば、マウスもしくはトラックボール)を有するコンピュータ上に実装され得る。いくつかの実施態様においては、情報の表示およびユーザからの入力の受け付けにタッチスクリーンが使用され得る。また、ユーザとの相互作用を可能にするため、他の種類のデバイスも同様に使用され得る。たとえば、ユーザに提供されるフィードバックとしては、任意の形態の感覚フィードバック(たとえば、視覚的フィードバック、聴覚的フィードバック、または触覚的フィードバック)が可能であり、ユーザからの入力は、音響入力、音声入力、または触覚入力等、任意の形態で受け取られ得る。また、コンピュータは、ユーザが使用するデバイスに対する文書の送信および受信(たとえば、ウェブブラウザから受けた要求に応じてユーザのクライアントデバイス上のウェブブラウザにウェブページを送ること)によって、ユーザと相互作用可能である。 [000172] In order to allow interaction with the user, embodiments of the subject described herein are display devices that display information to the user (eg, LCD (LCD), LED (Light Emitting Diode) displays, etc. Alternatively, it can be implemented on a computer having an OLED (organic light emitting diode) display) and a keyboard and pointing device (eg, mouse or trackball) that allows the user to give input to the computer. In some embodiments, a touch screen may be used to display information and accept input from the user. Also, other types of devices may be used as well to allow interaction with the user. For example, the feedback provided to the user can be any form of sensory feedback (eg, visual feedback, auditory feedback, or tactile feedback), and the user input can be acoustic input, audio input, Alternatively, it can be received in any form such as tactile input. The computer can also interact with the user by sending and receiving documents to the device used by the user (eg, sending a web page to a web browser on the user's client device in response to a request received from the web browser). Is.

[000173]本明細書に記載の主題の実施形態は、バックエンドコンポーネント(たとえば、データサーバ)、ミドルウェアコンポーネント(たとえば、アプリケーションサーバ)、またはフロントエンドコンポーネント(たとえば、本明細書に記載の主題の一実施態様とユーザが相互作用し得るグラフィカルユーザインターフェースもしくはウェブブラウザを有するクライアントコンピュータ)を含むコンピュータシステム、あるいは1つまたは複数のこのようなバックエンド、ミドルウェア、またはフロントエンドコンポーネントの任意の組み合わせにて実現され得る。システムの構成要素は、如何なる形態または媒体のデジタルデータ通信(たとえば、通信ネットワーク)によっても相互接続され得る。通信ネットワークの例としては、ローカルエリアネットワーク(「LAN」)およびワイドエリアネットワーク(「WAN」)、相互接続ネットワーク(たとえば、インターネット)、ならびにピア・ツー・ピアネットワーク(たとえば、アドホック・ピア・ツー・ピアネットワーク)が挙げられる。たとえば、図1のネットワーク20は、1つまたは複数のローカルエリアネットワークを含み得る。 [000173] An embodiment of a subject described herein is a back-end component (eg, a data server), a middleware component (eg, an application server), or a front-end component (eg, one of the subjects described herein). Implemented in a computer system that includes a graphical user interface or web browser that allows the user to interact with the embodiment, or in any combination of one or more such backends, middleware, or frontend components. Can be done. The components of the system can be interconnected by digital data communication in any form or medium (eg, a communication network). Examples of communication networks are local area networks (“LAN”) and wide area networks (“WAN”), interconnect networks (eg, the Internet), and peer-to-peer networks (eg, ad hoc peer-to-two). Peer network). For example, the network 20 in FIG. 1 may include one or more local area networks.

[000174]コンピュータシステムは、如何なる数のクライアントおよびサーバをも含み得る。クライアントおよびサーバは一般的に、互いに遠隔であって、通常は、通信ネットワークを通じて相互作用する。クライアントおよびサーバの関係は、それぞれのコンピュータ上で実行され、互いにクライアント−サーバ関係を有するコンピュータプログラムによって生じる。いくつかの実施形態においては、サーバが(たとえば、クライアントデバイスと相互作用するユーザへのデータの表示およびユーザからのユーザ入力の受け付けを目的として)クライアントデバイスにデータ(たとえば、HTMLページ)を送信する。クライアントデバイスで生成されたデータ(たとえば、ユーザ相互作用の結果)は、サーバにおいてクライアントデバイスから受信され得る。 [000174] A computer system can include any number of clients and servers. Clients and servers are generally remote from each other and typically interact through communication networks. The client-server relationship is created by computer programs that run on their respective computers and have a client-server relationship with each other. In some embodiments, the server sends data (eg, an HTML page) to the client device (eg, for the purpose of displaying data to the user interacting with the client device and accepting user input from the user). .. Data generated on the client device (eg, the result of user interaction) can be received from the client device on the server.

[000175]付加的な分離方法/任意選択的な分離モジュール
[000176]分離は、混合ピクセルの測定スペクトルが一群の構成スペクトルすなわち端成分および一組の対応する断片すなわち個体に分解されて、当該ピクセルに存在する各端成分の割合を示す手順である。具体的に、分離プロセスでは、標準型の組織およびステインの組み合わせに関して周知の基準スペクトルを用いて、ステイン固有のチャネルを抽出することにより、個々のステインの局所濃度を決定することができる。分離では、制御画像から読み出された基準スペクトルまたは観察中の画像から推定された基準スペクトルを使用するようにしてもよい。各入力ピクセルのコンポーネント信号を分離することによって、H&E画像におけるヘマトキシリンチャネルおよびエオシンチャネルまたはIHC画像におけるジアミノベンジジン(DAB)チャネルおよびカウンタステイン(たとえば、ヘマトキシリン)チャネル等、ステイン固有のチャネルを読み出しおよび分析可能となる。用語「分離(unmixing)」および「カラーデコンボリューション(color deconvolution)」(または、「デコンボリューション(deconvolution)」)等(たとえば、「deconvolving」、「unmixed」)は、当技術分野において区別なく使用される。いくつかの実施形態において、多重画像は、線形分離を用いる分離モジュールによって分離される。線形分離については、たとえばZimmermann「Spectral Imaging and Linear Unmixing in Light Microscopy(光学顕微鏡法におけるスペクトル撮像および線形分離)」,Adv Biochem Engin/Biotechnol(2005)95:245−265およびC.L.Lawson and R.J.Hanson「Solving least squares Problems(最小2乗問題の解法)」,PrenticeHall,1974,Chapter 23,p.161に記載されており、そのすべての開示内容が参照により本明細書に組み込まれる。線形ステイン分離においては、任意のピクセルにおける測定スペクトル(S(λ))がステインスペクトル成分の線形混合と考えられ、当該ピクセルにおいて表される個々のステインの色基準(R(λ))の割合または重み(A)の合計に等しい。
[000175] Additional Separation Method / Optional Separation Module
[000176] Separation is a procedure in which the measurement spectrum of a mixed pixel is decomposed into a group of constituent spectra or endmembers and a set of corresponding fragments or individuals to indicate the proportion of each endmember present in the pixel. Specifically, the separation process can determine local concentrations of individual stains by extracting stain-specific channels using well-known reference spectra for standard tissue and stain combinations. The separation may use a reference spectrum read from the control image or a reference spectrum estimated from the image being observed. By separating the component signal of each input pixel, stain-specific channels such as hematoxylin and eosin channels in H & E images or diaminobenzidine (DAB) and counterstain (eg, hematoxylin) channels in IHC images can be read and analyzed. It becomes. The terms "unmixing" and "color deconvolution" (or "deconvolution"), etc. (eg, "deconvolving", "unmixed") are used interchangeably in the art. To. In some embodiments, the multiplex images are separated by a separation module that uses linear separation. For linear separation, for example, Zimmermann "Spectral Imaging and Linear Microscope", Adv Biochem Engin / Biotechnol (2005) 95: 25. L. Lawson and R. J. Hanson, "Solving first squares Problems", Plentice Hall, 1974, Chapter 23, p. It is described in 161 and all the disclosures thereof are incorporated herein by reference. In linear stain separation, the measurement spectrum (S (λ)) at any pixel is considered to be a linear mixture of stain spectrum components, and is the proportion of the color reference (R (λ)) of each stain represented at that pixel. Equal to the sum of the weights (A).

[000177]S(λ)=A・R(λ)+A・R(λ)+A・R(λ)・・・A・R(λ)
[000178]より一般的には、以下のような行列の形態で表し得る。
[000177] S (λ) = A 1 · R 1 (λ) + A 2 · R 2 (λ) + A 3 · R 3 (λ) ... A i · R i (λ)
[000178] More generally, it can be expressed in the form of a matrix as follows.

[000179]S(λ)=ΣA・R(λ)またはS=R・A
[000180]取得されたM個のチャネル画像およびN個の個別ステインが存在する場合は、本明細書において導出される通り、M×N行列Rの列が最適色系であり、N×1ベクトルAが個別ステインの割合の未知数であり、M×1ベクトルSがピクセルにおいて測定されたマルチチャネルスペクトルベクトルである。これらの式において、各ピクセルの信号(S)は、多重画像および基準スペクトルすなわち最適色系の取得中に測定され、本明細書に記載の通りに導出される。さまざまなステインの寄与(A)は、測定スペクトルにおける各点への寄与を計算することによって決定可能である。いくつかの実施形態においては、以下一組の式を解くことにより測定スペクトルと計算スペクトルとの2乗差を最小化する逆最小2乗フィッティング手法を用いて解が得られる。
[000179] S (λ) = ΣA i · R i (λ) or S = R · A
[000180] In the presence of the acquired M channel images and N individual stains, the sequence of the M × N matrix R is the optimal color system and is an N × 1 vector, as derived herein. A is an unknown number of individual stain ratios, and M × 1 vector S is a multi-channel spectrum vector measured in pixels. In these equations, the signal (S) for each pixel is measured during acquisition of the multiplex image and reference spectrum or optimal color system and is derived as described herein. The contribution of the various stains ( Ai ) can be determined by calculating the contribution to each point in the measurement spectrum. In some embodiments, a solution is obtained using an inverse least squares fitting technique that minimizes the square difference between the measured spectrum and the calculated spectrum by solving the following set of equations.

[000181][∂Σ{S(λ)−Σ・R(λ)}2]/∂A=0
[000182]この式において、jは検出チャネルの数を表し、iはステインの数に等しい。線形方程式の解では、条件付き分離によって、重み(A)の合計が1になることが多い。
[000181] [∂Σ j {S (λ j ) -Σ i A i · R ij )} 2] / ∂A i = 0
[000182] In this equation, j represents the number of detection channels and i is equal to the number of stains. In the solution of linear equations, conditional separation often results in a sum of weights (A) of 1.

[000183]他の実施形態においては、2014年5月28日に出願された「Image Adaptive Physiologically Plausible Color Separation(画像適応的な生理学的に妥当な色分離)」という名称のWO2014/195193に記載された方法を用いて分離が実現されるが、そのすべての開示内容が参照により本明細書に組み込まれる。一般的に、WO2014/195193は、反復的に最適化された基準ベクトルを用いて入力画像のコンポーネント信号を分離することによる分離方法を記載する。いくつかの実施形態においては、アッセイの特質に固有の予想結果または理想的結果に対して、アッセイからの画像データの相関によって、品質測定基準が決定される。低品質画像または理想的結果に対する相関が不十分な場合は、行列Rの1つまたは複数の基準列ベクトルが調整され、生理学的および解剖学的要件に整合する良質の画像を相関が示すまで、調整された基準ベクトルを用いて分離が反復的に繰り返される。測定画像データに適用されて品質測定基準を決定するルールを規定するのに、解剖学的情報、生理学的情報、およびアッセイ情報が用いられるようになっていてもよい。この情報には、組織の染色方法、染色を意図した組織内構造もしくは染色を意図しなかった組織内構造、ならびに処理対象のアッセイに固有の構造、ステイン、およびマーカ間の関係を含む。反復的プロセスによって、関心構造および生物学的に関連する情報を正確に識別し、ノイズも不要なスペクトルも一切ないため分析に適した画像を生成し得るステイン固有のベクトルが得られる。基準ベクトルは、探索空間内で調整される。探索空間は、基準ベクトルがステインを表すのに取り得る値の範囲を規定する。探索空間は、既知または一般に発生する問題を含む多様な代表的トレーニングアッセイをスキャンし、当該トレーニングアッセイに対して、高品質な基準ベクトル集合を決定することにより決定されるようになっていてもよい。 [000183] In another embodiment, described in WO 2014/195193, entitled "Image Adaptive Physiological Color Separation", filed May 28, 2014. Separation is achieved using the above methods, all of which are incorporated herein by reference. In general, WO2014 / 195193 describes a separation method by separating the component signals of an input image using iteratively optimized reference vectors. In some embodiments, the correlation of image data from the assay to expected or ideal results specific to the nature of the assay determines quality metrics. If the correlation to poor quality images or ideal results is inadequate, until one or more reference sequence vectors in matrix R are adjusted to show good quality images that match physiological and anatomical requirements. The separation is iteratively repeated with the adjusted reference vector. Anatomical, physiological, and assay information may be used to define the rules that are applied to the measured image data to determine quality metrics. This information includes the method of staining the tissue, the tissue structure intended for staining or the tissue structure not intended for staining, and the relationships between the assay-specific structures, stains, and markers to be treated. The iterative process provides a stain-specific vector that can accurately identify structures of interest and biologically relevant information and produce images suitable for analysis with no noise or unwanted spectra. The reference vector is adjusted in the search space. The search space defines the range of values that the reference vector can take to represent a stain. The search space may be determined by scanning a variety of representative training assays, including known or commonly occurring problems, and determining a high quality reference vector set for the training assay. ..

[000184]他の実施形態においては、2015年2月23日に出願された「Group Sparsity Model for Image Unmixing(画像分離のためのグループスパーシティモデル)」という名称のWO2015/124772に記載された方法を用いて分離が実現されるが、そのすべての開示内容が参照により本明細書に組み込まれる。一般的に、WO2015/124772は、グループスパーシティフレームワークを用いた分離を記載しており、複数のコロケーションマーカからのステイン寄与の割合が「同一グループ」内でモデル化され、複数の非コロケーションマーカからのステイン寄与の割合が異なるグループにおいてモデル化されて、複数のコロケーションマーカの共局在化情報をモデル化グループスパーシティフレームワークに与えるとともに、グループラッソを用いてモデル化フレームワークを解くことにより、各グループ内の最小2乗解を生み出す。この最小2乗解は、コロケーションマーカの分離に対応し、グループの中で、非コロケーションマーカの分離に対応するスパース解を生み出す。さらに、WO2015/124772は、生物学的組織サンプルから得られた画像データを入力し、複数のステインそれぞれのステイン色を記述した基準データを電子メモリから読み出し、生物学的組織サンプルにおいて局在化可能なステインをそれぞれ含み、グループラッソ基準のためのグループをそれぞれ構成し、少なくとも1つが2以上のサイズを有するステイン群を記述したコロケーションデータを電子メモリから読み出し、基準データを基準行列として用いることにより、分離画像を得るためのグループラッソ基準の解を計算することによる分離方法を記載する。いくつかの実施形態において、画像を分離する方法は、局在化マーカからのステイン寄与の割合が単一のグループ内で割り当てられ、非局在化マーカからのステイン寄与の割合が別個のグループ内で割り当てられるグループスパーシティモデルを生成するステップと、分離アルゴリズムを用いてグループスパーシティモデルを解くことにより、各グループ内で最小2乗解を生み出すステップとを含んでいてもよい。 [000184] In another embodiment, the method described in WO 2015/124772, entitled "Group Sparseness Model for Image Unising", filed February 23, 2015. Separation is achieved using, the entire disclosure of which is incorporated herein by reference. In general, WO2015 / 124772 describes separation using a group spasity framework, where the percentage of stain contributions from multiple collocation markers is modeled within the "same group" and multiple non-collocation markers. By giving co-localization information of multiple collocation markers to the modeling group spasity framework and solving the modeling framework using group lasso, modeled in groups with different percentages of stain contribution from , Produce a minimum squared solution within each group. This least squares solution corresponds to the separation of collocation markers and, within the group, produces a sparse solution corresponding to the separation of non-collocation markers. Further, WO2015 / 124772 can input image data obtained from a biological tissue sample, read reference data describing the stain color of each of a plurality of stains from an electronic memory, and localize the reference data in the biological tissue sample. By reading the collocation data describing the stain groups having at least one size of 2 or more from the electronic memory and using the reference data as the reference matrix. The separation method by calculating the solution of the group lasso standard for obtaining the separation image is described. In some embodiments, the method of separating images assigns the percentage of stain contributions from localized markers within a single group and the percentage of stain contributions from delocalized markers within separate groups. It may include a step of generating a group spasity model assigned in and a step of generating a least squares solution in each group by solving the group spasity model using a separation algorithm.

[000185]実施例−高解像度分析法と中解像度分析法とのFAP陽性面積の比較
[000186]以下を用いた実験によって、FAP陽性面積の結果の精度を比較した。
[000187]1)FAP陽性高解像度分析。この測定のため、0.465マイクロメートルのピクセルサイズの空間解像度にて、高倍率(20X)で閾値化後のすべてのFAP陽性ピクセルが蓄積された。その後、関心領域のピクセルごとのFAP陽性面積として、予備アノテーション領域から選択された報告面積が求められた。
[000185] Example-Comparison of FAP positive areas between high resolution and medium resolution analysis methods
[000186] The accuracy of the FAP positive area results was compared by experiments using:
[000187] 1) FAP positive high resolution analysis. For this measurement, all FAP-positive pixels after thresholding at high magnification (20X) were accumulated at a spatial resolution of pixel size of 0.465 micrometers. After that, the reported area selected from the preliminary annotation area was obtained as the FAP positive area for each pixel of the area of interest.

[000188]2)予備アノテーション領域において、FAPスーパーピクセルオブジェクト、種子、またはポリゴン外形のFAP陽性面積を合計することにより、本明細書に記載の中解像度分析手法を用いて測定されるFAP陽性面積が計算された。 [000188] 2) In the preliminary annotation region, the FAP positive area measured using the medium resolution analysis technique described herein is obtained by summing the FAP positive areas of the FAP superpixel object, seed, or polygon outline. calculated.

[000189]両方法に従って、異なる形状(大小、円形、または変わった形状等)をそれぞれ有する6つの異なるアノテーションエリア(図14参照)が分析された。図15および以下の表に示される通り、これら2つの方法を用いて測定されたFAP陽性面積の比較結果に大きな差はなかった(R=0.99、p<0.001)。 [000189] Six different annotation areas (see FIG. 14), each with a different shape (large or small, circular, or unusual shape, etc.), were analyzed according to both methods. As shown in FIG. 15 and the table below, there was no significant difference in the comparison results of FAP positive areas measured using these two methods (R 2 = 0.99, p <0.001).

[000190]結論として、特定のアノテーションにおいてスーパーピクセル内で演算された面積特徴を合計した場合、その面積の合計値は、当該アノテーション内で高解像度分析手法により直接計算した面積に等しい。FAP陽性面積の結果は、アノテーション領域が異なる形状での2つの方法(スーパーピクセルの有無)による演算には大きな差がないことを示している。 [000190] In conclusion, when summing the area features calculated within a superpixel for a particular annotation, the total area is equal to the area directly calculated within the annotation by the high resolution analytical technique. The FAP positive area results show that there is no significant difference in the calculations by the two methods (with or without superpixels) with different annotation regions.

[000191]本明細書における言及および/または出願データシートにおける掲載の対象となる米国特許、米国特許出願公開、米国特許出願、外国特許、外国特許出願、および非特許刊行物はすべて、その全内容が参照により本明細書に組み込まれる。種々特許、出願、および公開の概念を採用する必要に応じて、さらに別の実施形態を提供するように、実施形態の態様が改良され得る。 [000191] All U.S. patents, U.S. patent application publications, U.S. patent applications, foreign patents, foreign patent applications, and non-patent publications subject to reference and / or publication in the application datasheet herein are in their entirety. Is incorporated herein by reference. The embodiments may be modified to provide yet another embodiment as needed to adopt the concepts of various patents, applications, and publications.

[000192]以上、多くの例示的実施形態を参照して本開示を説明したが、本開示の原理の主旨および範囲に含まれるその他多くの改良形態および実施形態が当業者により考案され得ることが了解されるものとする。より詳細には、本開示の主旨から逸脱することなく、上記開示内容、図面、および添付の特許請求の範囲内において、主題の組み合せ構成の構成要素部品および/または配置における合理的な変形および改良が可能である。構成要素部品および/または配置における変形および改良のほか、当業者には、代替的な使用も明らかとなるであろう。 [000192] Although the present disclosure has been described with reference to many exemplary embodiments, many other improvements and embodiments within the spirit and scope of the principles of the present disclosure may be devised by those skilled in the art. It shall be understood. More specifically, without departing from the gist of the present disclosure, within the scope of the above disclosure, drawings, and accompanying claims, reasonable modifications and improvements in the component parts and / or arrangement of the subject combination configuration. Is possible. In addition to deformations and improvements in component parts and / or placement, those skilled in the art will also see alternative use.

Claims (32)

少なくとも1つのステインを有する生物標本の画像から導出された画像分析データを格納する方法であって、
(a)前記画像から、1つまたは複数の特徴測定基準(feature metrics)を導出するステップと、
(b)前記画像を複数の副領域(sub-regions)にセグメント化するステップであり、各副領域が、染色有無、染色強度、または局所質感(local texture)のうちの少なくとも1つにおいて実質的に均一なピクセルを含む、ステップと、
(c)前記複数のセグメント化副領域に基づいて、複数の表現オブジェクトを生成するステップと、
(d)前記複数の表現オブジェクトそれぞれを前記導出特徴測定基準と関連付けるステップと、
(e)前記関連付け導出特徴測定基準と併せて(along with)、各表現オブジェクトの座標をデータベースに格納するステップと、
を含む、方法。
A method of storing image analysis data derived from an image of a biological specimen having at least one stain.
(A) A step of deriving one or more feature metrics from the image, and
(B) The step of segmenting the image into a plurality of sub-regions, where each sub-region is substantially in at least one of the presence or absence of staining, the staining intensity, or the local texture. Including uniform pixels, steps and
(C) A step of generating a plurality of representation objects based on the plurality of segmentation subregions, and
(D) A step of associating each of the plurality of representation objects with the derived feature metric,
(E) A step of storing the coordinates of each representation object in the database together with the association derived feature metric (along with).
Including methods.
前記画像を前記複数の副領域にセグメント化するステップが、スーパーピクセルを導出することを含む、請求項1に記載の方法。 The method of claim 1, wherein the step of segmenting the image into the plurality of subregions comprises deriving a superpixel. 前記スーパーピクセルが、(i)ピクセルを局所k平均クラスタリングでグループ化し、(ii)連結成分(connected components)アルゴリズムを用いて小さな分離領域(isolated regions)を大きな最近(nearest)接スーパーピクセルへと統合することにより導出される、請求項2に記載の方法。 The superpixels (i) group pixels by local k-means clustering and (ii) integrate small isolated regions into large nearest tangent superpixels using the connected components algorithm. The method according to claim 2, which is derived by the above method. 前記画像を前記複数の副領域にセグメント化するステップが、サンプリンググリッドを前記画像に重ね合わせることであり、前記サンプリンググリッドが、所定のサイズおよび形状を有する非重畳エリアを規定する、ことを含む、請求項1〜3のいずれか一項に記載の方法。 The step of segmenting the image into the plurality of subregions comprises overlaying the sampling grid on the image, wherein the sampling grid defines a non-overlapping area having a predetermined size and shape. The method according to any one of claims 1 to 3. 前記副領域が、M×Nのサイズを有し、Mが、50ピクセル〜100ピクセルの範囲であり、Nが50ピクセル〜およそ100ピクセルの範囲である、請求項1〜4のいずれか一項に記載の方法。 Any one of claims 1 to 4, wherein the subregion has a size of M × N, M is in the range of 50 pixels to 100 pixels, and N is in the range of 50 pixels to approximately 100 pixels. The method described in. 前記表現オブジェクトが、所定の染色強度閾値を満たす副領域の外形を含む、請求項1〜5のいずれか一項に記載の方法。 The method according to any one of claims 1 to 5, wherein the representation object includes an outer shape of a sub-region that satisfies a predetermined dyeing intensity threshold. 前記表現オブジェクトが、種子点(seed points)を含む、請求項1〜6のいずれか一項に記載の方法。 The method according to any one of claims 1 to 6, wherein the representation object includes seed points. 前記種子点が、前記複数の副領域それぞれの重心を演算することにより導出される、請求項7に記載の方法。 The method according to claim 7, wherein the seed point is derived by calculating the center of gravity of each of the plurality of sub-regions. 前記導出特徴測定基準が、染色強度を含み、各生成表現オブジェクト外形内のすべてのピクセルの平均染色強度が演算される、請求項6に記載の方法。 The method of claim 6, wherein the derived feature metrics include staining intensity and the average staining intensity of all pixels within the outline of each generated representation object is calculated. 前記導出特徴測定基準が、発現(expression)スコアを含み、各生成副領域内のエリアに対応する平均発現スコアが前記複数の生成表現オブジェクト(generated plurality of representational object)と関連付けられた、請求項1〜7のいずれか一項に記載の方法。 Claim 1 wherein the derived feature metric includes an expression score and an average expression score corresponding to an area within each generation subregion is associated with the generated plurality of representational object. The method according to any one of 7 to 7. 前記データベースから、前記格納座標および関連付け特徴測定基準データを読み出すステップと、前記読み出しデータを前記画像に投影するステップとをさらに含む、請求項1〜7のいずれか一項に記載の方法。 The method according to any one of claims 1 to 7, further comprising a step of reading the stored coordinates and the association feature measurement reference data from the database and a step of projecting the read data onto the image. 少なくとも1つのステインを含む生物学的サンプルの画像から、不規則形状の細胞に対応するデータを導出するシステムであって、(i)1つまたは複数のプロセッサと、(ii)前記1つまたは複数のプロセッサに結合されたメモリであり、前記1つまたは複数のプロセッサにより実行された場合に、
(a)前記画像から、1つまたは複数の特徴測定基準を導出することと、
(b)前記画像内の複数の副領域を生成することであり、各副領域が、色、輝度、および/または質感から選択される類似特性を備えたピクセルを有する、ことと、
(c)前記複数の生成副領域に基づいて、一連の表現オブジェクトを演算することと、
(d)前記画像からの前記1つまたは複数の導出特徴測定基準を前記一連の演算表現オブジェクトそれぞれの計算座標と関連付けることと、
を含む動作を当該システムに実行させるコンピュータ実行可能命令を格納した、メモリと、を備えた、システム。
A system for deriving data corresponding to irregularly shaped cells from images of biological samples containing at least one stain, wherein (i) one or more processors and (ii) the one or more. Memory combined to one of the above processors, when executed by one or more of the above processors
(A) Derivation of one or more feature measurement criteria from the image, and
(B) To generate a plurality of sub-regions in the image, each sub-region having pixels with similar properties selected from color, brightness, and / or texture.
(C) Computing a series of representation objects based on the plurality of generated sub-regions,
(D) Associating the one or more derived feature metrics from the image with the calculated coordinates of each of the series of computational representation objects.
A system with memory, which stores computer executable instructions that cause the system to perform operations including.
前記画像を前記複数の副領域に分割することが、スーパーピクセルを導出することを含む、請求項12に記載のシステム。 12. The system of claim 12, wherein dividing the image into the plurality of subregions comprises deriving superpixels. 前記スーパーピクセルが、グラフベースの手法または勾配上昇ベースの手法の一方を用いて導出される、請求項12または13に記載のシステム。 12. The system of claim 12 or 13, wherein the superpixels are derived using either a graph-based approach or a gradient climb-based approach. 前記スーパーピクセルが、(i)ピクセルを局所k平均クラスタリングでグループ化し、(ii)連結成分アルゴリズムを用いて小さな分離領域を大きな最近接スーパーピクセルへと統合することにより導出される、請求項12〜14のいずれか一項に記載のシステム。 The superpixels are derived by (i) grouping the pixels by local k-means clustering and (ii) integrating a small separation region into a large closest superpixel using a connected component algorithm. The system according to any one of 14. 前記表現オブジェクトが、所定の染色強度閾値を満たす副領域の外形を含む、請求項12〜15のいずれか一項に記載のシステム。 The system according to any one of claims 12 to 15, wherein the representation object includes an outer shape of a sub-region that satisfies a predetermined staining intensity threshold. 前記表現オブジェクトが、種子点を含む、請求項12〜16のいずれか一項に記載のシステム。 The system according to any one of claims 12 to 16, wherein the representation object includes a seed point. 前記動作が、前記1つまたは複数の導出特徴測定基準および関連付け計算表現オブジェクトの座標をデータベースに格納することをさらに含む、請求項12〜17のいずれか一項に記載のシステム。 The system according to any one of claims 12 to 17, wherein the operation further comprises storing the coordinates of the one or more derived feature metrics and association computational representation objects in a database. 前記1つまたは複数の導出特徴測定基準が、百分率正値性(percent positivity)、Hスコア、および染色強度から選択される少なくとも1つの発現スコアを含む、請求項12〜18のいずれか一項に記載のシステム。 One of claims 12-18, wherein the one or more derived feature metrics include at least one expression score selected from percent positivity, H-score, and staining intensity. Described system. 前記画像内の関心領域に関して、不規則形状の細胞に対応するデータが導出される、請求項12〜19のいずれか一項に記載のシステム。 The system according to any one of claims 12 to 19, wherein data corresponding to irregularly shaped cells are derived with respect to the region of interest in the image. 前記関心領域が、医療専門家によりアノテーションされた前記画像のエリアである、請求項20に記載のシステム。 The system of claim 20, wherein the area of interest is an area of the image annotated by a medical professional. 不規則形状を有する生体と関連付けられたデータを分析する命令を格納した非一時的コンピュータ可読媒体であって、前記命令が、
(a)生物学的サンプルの画像から1つまたは複数の特徴測定基準を導出する命令であり、前記生物学的サンプルが、少なくとも1つのステイン(stain)を含む、命令と、
(b)類似特性を有するピクセルのグループ化によって前記画像を一連の副領域に分割する命令であり、前記特性が、色、輝度、および/または質感から選択される、命令と、
(c)前記一連の分割副領域に基づいて、複数の表現オブジェクトを演算する命令と、
(d)前記画像からの前記1つまたは複数の導出特徴測定基準を前記複数の演算表現オブジェクトそれぞれの計算座標と関連付ける命令と、
を含む、非一時的コンピュータ可読媒体。
A non-transitory computer-readable medium containing instructions for analyzing data associated with a living body having an irregular shape.
(A) An instruction to derive one or more feature metrics from an image of a biological sample, wherein the biological sample contains at least one stain.
(B) A command that divides the image into a series of subregions by grouping pixels with similar characteristics, the characteristic being selected from color, brightness, and / or texture.
(C) An instruction for calculating a plurality of expression objects based on the series of division subregions, and
(D) An instruction for associating the one or more derived feature measurement criteria from the image with the calculated coordinates of each of the plurality of arithmetic expression objects.
Non-transitory computer-readable media, including.
前記画像を前記一連の副領域に分割することが、スーパーピクセルを演算することを含む、請求項22に記載の非一時的コンピュータ可読媒体。 22. The non-transitory computer-readable medium of claim 22, wherein dividing the image into the series of sub-regions comprises computing superpixels. 前記スーパーピクセルが、正規化カットアルゴリズム(cuts algorithm)、凝集型(agglomerative)クラスタリングアルゴリズム、クイックシフトアルゴリズム、ターボピクセルアルゴリズム、または単純線形反復クラスタリングアルゴリズムのうちの1つを用いて演算される、請求項22または23に記載の非一時的コンピュータ可読媒体。 22. The superpixel is calculated using one of a normalized cuts algorithm, an agglomerative clustering algorithm, a quickshift algorithm, a turbopixel algorithm, or a simple linear iterative clustering algorithm. Alternatively, the non-temporary computer-readable medium according to 23. 前記スーパーピクセルが、単純反復クラスタリングを用いて生成され、スーパーピクセルサイズパラメータが、およそ40ピクセル〜およそ400ピクセルに設定され、稠密度パラメータが、およそ10〜およそ100に設定された、請求項22〜24のいずれか一項に記載の非一時的コンピュータ可読媒体。 22. To claim 22, the superpixels were generated using simple iterative clustering, the superpixel size parameter was set to about 40 pixels to about 400 pixels, and the density parameter was set to about 10 to about 100. The non-temporary computer-readable medium according to any one of 24. 前記スーパーピクセルが、(i)ピクセルを局所k平均クラスタリングでグループ化し、(ii)連結成分アルゴリズムを用いて小さな分離領域を大きな最近接スーパーピクセルへと統合することにより演算される、請求項22〜25のいずれか一項に記載の非一時的コンピュータ可読媒体。 22. To claim 22, the superpixels are calculated by (i) grouping pixels by local k-means clustering and (ii) integrating small separation regions into large closest superpixels using a concatenated component algorithm. The non-transitory computer-readable medium according to any one of 25. 前記生物学的サンプルが、少なくともFAPにより染色され、前記1つまたは複数の導出特徴測定基準が、FAP染色強度またはFAP百分率正値性の少なくとも一方を含む、請求項22〜26のいずれか一項に記載の非一時的コンピュータ可読媒体。 Any one of claims 22-26, wherein the biological sample is stained with at least FAP and the one or more derived feature metrics comprises at least one of FAP staining intensity or FAP percentage positiveness. Non-temporary computer-readable medium described in. 副領域内のすべてのピクセルに関して、平均FAP百分率正値性が計算される、請求項27に記載の非一時的コンピュータ可読媒体。 28. The non-transitory computer-readable medium of claim 27, wherein the average FAP percentage positiveness is calculated for all pixels in the subdomain. 副領域内のすべてのピクセルに関して、平均FAP染色強度が計算される、請求項27に記載の非一時的コンピュータ可読媒体。 28. The non-transitory computer-readable medium of claim 27, wherein the average FAP staining intensity is calculated for all pixels in the sub-region. 前記表現オブジェクトが、ポリゴン外形および種子点の少なくとも一方を含む、請求項22〜26のいずれか一項に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium according to any one of claims 22 to 26, wherein the representation object includes at least one of a polygon outline and a seed point. 前記1つまたは複数の導出特徴測定基準および関連付け計算表現オブジェクトの座標をデータベースに格納する命令をさらに含む、請求項22〜26のいずれか一項に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of any one of claims 22-26, further comprising an instruction to store the coordinates of the one or more derived feature metrics and association computational representation objects in a database. 格納情報を前記生物学的サンプルの前記画像に投影する命令をさらに含む、請求項31に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium of claim 31, further comprising an instruction to project the stored information onto the image of the biological sample.
JP2020530584A 2017-12-06 2018-12-04 Methods for storing and retrieving digital pathology analysis results Active JP7197584B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022200094A JP2023030033A (en) 2017-12-06 2022-12-15 Method for storing and reading out digital pathology analysis result

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762595143P 2017-12-06 2017-12-06
US62/595,143 2017-12-06
PCT/EP2018/083434 WO2019110561A1 (en) 2017-12-06 2018-12-04 Method of storing and retrieving digital pathology analysis results

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022200094A Division JP2023030033A (en) 2017-12-06 2022-12-15 Method for storing and reading out digital pathology analysis result

Publications (2)

Publication Number Publication Date
JP2021506003A true JP2021506003A (en) 2021-02-18
JP7197584B2 JP7197584B2 (en) 2022-12-27

Family

ID=64604651

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020530584A Active JP7197584B2 (en) 2017-12-06 2018-12-04 Methods for storing and retrieving digital pathology analysis results
JP2022200094A Pending JP2023030033A (en) 2017-12-06 2022-12-15 Method for storing and reading out digital pathology analysis result

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022200094A Pending JP2023030033A (en) 2017-12-06 2022-12-15 Method for storing and reading out digital pathology analysis result

Country Status (4)

Country Link
EP (1) EP3721372A1 (en)
JP (2) JP7197584B2 (en)
CN (2) CN111448569B (en)
WO (1) WO2019110561A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102579826B1 (en) * 2022-12-09 2023-09-18 (주) 브이픽스메디칼 Method, apparatus and system for providing medical diagnosis assistance information based on artificial intelligence

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112347823B (en) * 2019-08-09 2024-05-03 中国石油天然气股份有限公司 Deposition phase boundary identification method and device
JP2022546430A (en) 2019-08-28 2022-11-04 ベンタナ メディカル システムズ, インコーポレイテッド Label-free assessment of biomarker expression by vibrational spectroscopy
WO2021167984A1 (en) * 2020-02-17 2021-08-26 10X Genomics, Inc. Systems and methods for machine learning features in biological samples
CN112070041B (en) * 2020-09-14 2023-06-09 北京印刷学院 Living body face detection method and device based on CNN deep learning model
JPWO2022107435A1 (en) * 2020-11-20 2022-05-27
CN112785713A (en) * 2021-01-29 2021-05-11 广联达科技股份有限公司 Method, device and equipment for arranging light sources and readable storage medium
CN113469939B (en) * 2021-05-26 2022-05-03 透彻影像(北京)科技有限公司 HER-2 immunohistochemical automatic interpretation system based on characteristic curve
US11830622B2 (en) 2021-06-11 2023-11-28 International Business Machines Corporation Processing multimodal images of tissue for medical evaluation
CN113763370A (en) * 2021-09-14 2021-12-07 佰诺全景生物技术(北京)有限公司 Digital pathological image processing method and device, electronic equipment and storage medium
CN115201092B (en) * 2022-09-08 2022-11-29 珠海圣美生物诊断技术有限公司 Method and device for acquiring cell scanning image
CN116188423B (en) * 2023-02-22 2023-08-08 哈尔滨工业大学 Super-pixel sparse and unmixed detection method based on pathological section hyperspectral image
CN117272393B (en) * 2023-11-21 2024-02-02 福建智康云医疗科技有限公司 Method for checking medical images across hospitals by scanning codes in regional intranet

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008104432A (en) * 2006-10-27 2008-05-08 Mitsui Eng & Shipbuild Co Ltd Flow cytometer having cell sorting and treating function and method for sorting and treating live cell
JP2009528835A (en) * 2006-03-06 2009-08-13 ゼティク テクノロジーズ リミテッド Methods and compositions for identifying cellular phenotypes
WO2012105281A1 (en) * 2011-01-31 2012-08-09 日本電気株式会社 Information processing system, information processing method, information processing device and method for control of same, and recording medium storing control program for same
JP2013540991A (en) * 2010-08-27 2013-11-07 ユニバーシティ・オブ・チューリッヒ Novel diagnostic and therapeutic targets in inflammation and / or cardiovascular disease
JP2015516985A (en) * 2012-04-27 2015-06-18 ミレニアム ファーマシューティカルズ, インコーポレイテッドMillennium Pharmaceuticals, Inc. Anti-GCC antibody molecules and their use to test susceptibility to GCC targeted therapy
JP2016503167A (en) * 2012-12-28 2016-02-01 ザ ユニバーシティー オブ メルボルン Image analysis for breast cancer prediction
WO2016150873A1 (en) * 2015-03-20 2016-09-29 Ventana Medical Systems, Inc. System and method for image segmentation
US20170091937A1 (en) * 2014-06-10 2017-03-30 Ventana Medical Systems, Inc. Methods and systems for assessing risk of breast cancer recurrence

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5595707A (en) 1990-03-02 1997-01-21 Ventana Medical Systems, Inc. Automated biological reaction apparatus
US6582962B1 (en) 1998-02-27 2003-06-24 Ventana Medical Systems, Inc. Automated molecular pathology apparatus having independent slide heaters
US6296809B1 (en) 1998-02-27 2001-10-02 Ventana Medical Systems, Inc. Automated molecular pathology apparatus having independent slide heaters
US20030211630A1 (en) 1998-02-27 2003-11-13 Ventana Medical Systems, Inc. Automated molecular pathology apparatus having independent slide heaters
US8050868B2 (en) * 2001-03-26 2011-11-01 Cellomics, Inc. Methods for determining the organization of a cellular component of interest
US20050136549A1 (en) * 2003-10-30 2005-06-23 Bioimagene, Inc. Method and system for automatically determining diagnostic saliency of digital images
US7760927B2 (en) 2003-09-10 2010-07-20 Bioimagene, Inc. Method and system for digital image based tissue independent simultaneous nucleus cytoplasm and membrane quantitation
JP4496943B2 (en) * 2004-11-30 2010-07-07 日本電気株式会社 Pathological diagnosis support apparatus, pathological diagnosis support program, operation method of pathological diagnosis support apparatus, and pathological diagnosis support system
EP1978486B1 (en) * 2005-05-13 2016-12-21 Tripath Imaging, Inc. Method of image analysis based on chromogen separation
CA2776527C (en) 2009-10-19 2014-08-05 Ventana Medical Systems, Inc. Imaging system and techniques
CA2899714C (en) 2013-03-15 2020-10-27 Ventana Medical Systems, Inc. Tissue object-based machine learning system for automated scoring of digital whole slides
JP6110992B2 (en) 2013-06-03 2017-04-05 ベンタナ メディカル システムズ, インコーポレイテッド Image-adaptive physiologically relevant color separation
CN103426169B (en) * 2013-07-26 2016-12-28 西安华海盈泰医疗信息技术有限公司 A kind of dividing method of medical image
CA2932892C (en) * 2014-01-28 2020-09-22 Ventana Medical Systems, Inc. Adaptive classification for whole slide tissue segmentation
EP3108448B1 (en) 2014-02-21 2019-05-15 Ventana Medical Systems, Inc. Group sparsity model for image unmixing
EP3108446B1 (en) 2014-02-21 2019-03-20 Ventana Medical Systems, Inc. Medical image analysis for identifying biomarker-positive tumor cells
EP3175389B1 (en) 2014-07-28 2024-05-15 Ventana Medical Systems, Inc. Automatic glandular and tubule detection in histological grading of breast cancer
WO2016075096A1 (en) 2014-11-10 2016-05-19 Ventana Medical Systems, Inc. Classifying nuclei in histology images
JP6654634B2 (en) * 2014-12-03 2020-02-26 ベンタナ メディカル システムズ, インコーポレイテッド Methods, systems and devices for quantitatively analyzing heterogeneous biomarker distributions
WO2016120442A1 (en) 2015-01-30 2016-08-04 Ventana Medical Systems, Inc. Foreground segmentation and nucleus ranking for scoring dual ish images
CA2994911C (en) 2015-09-02 2022-07-05 Ventana Medical Systems, Inc. Automated analysis of cellular samples having intermixing of analytically distinct patterns of analyte staining

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009528835A (en) * 2006-03-06 2009-08-13 ゼティク テクノロジーズ リミテッド Methods and compositions for identifying cellular phenotypes
JP2008104432A (en) * 2006-10-27 2008-05-08 Mitsui Eng & Shipbuild Co Ltd Flow cytometer having cell sorting and treating function and method for sorting and treating live cell
JP2013540991A (en) * 2010-08-27 2013-11-07 ユニバーシティ・オブ・チューリッヒ Novel diagnostic and therapeutic targets in inflammation and / or cardiovascular disease
WO2012105281A1 (en) * 2011-01-31 2012-08-09 日本電気株式会社 Information processing system, information processing method, information processing device and method for control of same, and recording medium storing control program for same
JP2015516985A (en) * 2012-04-27 2015-06-18 ミレニアム ファーマシューティカルズ, インコーポレイテッドMillennium Pharmaceuticals, Inc. Anti-GCC antibody molecules and their use to test susceptibility to GCC targeted therapy
JP2016503167A (en) * 2012-12-28 2016-02-01 ザ ユニバーシティー オブ メルボルン Image analysis for breast cancer prediction
US20170091937A1 (en) * 2014-06-10 2017-03-30 Ventana Medical Systems, Inc. Methods and systems for assessing risk of breast cancer recurrence
WO2016150873A1 (en) * 2015-03-20 2016-09-29 Ventana Medical Systems, Inc. System and method for image segmentation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
RADHAKRISHNA ACHANTA ET AL.: "SLIC Superpixels Compared to State-of-the-Art Superpixel Methods", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. Volume: 34, Issue: 11, JPN6021038399, 29 May 2012 (2012-05-29), US, pages 2274 - 2281, ISSN: 0004776497 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102579826B1 (en) * 2022-12-09 2023-09-18 (주) 브이픽스메디칼 Method, apparatus and system for providing medical diagnosis assistance information based on artificial intelligence

Also Published As

Publication number Publication date
CN117038018A (en) 2023-11-10
CN111448569A (en) 2020-07-24
CN111448569B (en) 2023-09-26
JP2023030033A (en) 2023-03-07
WO2019110561A1 (en) 2019-06-13
EP3721372A1 (en) 2020-10-14
JP7197584B2 (en) 2022-12-27

Similar Documents

Publication Publication Date Title
US11682192B2 (en) Deep-learning systems and methods for joint cell and region classification in biological images
JP7197584B2 (en) Methods for storing and retrieving digital pathology analysis results
JP7273215B2 (en) Automated assay evaluation and normalization for image processing
JP7231631B2 (en) Methods for calculating tumor spatial heterogeneity and intermarker heterogeneity
US11842483B2 (en) Systems for cell shape estimation
JP2022023912A (en) Computer scoring based on primary stain and immunohistochemistry images
JP2022504870A (en) Systems and methods for cell classification
JP2018502279A (en) Classification of nuclei in histological images
EP3867868A1 (en) Image enhancement to enable improved nuclei detection and segmentation
JP2017509871A (en) Medical image analysis to identify biomarker positive tumor cells
US20220351860A1 (en) Federated learning system for training machine learning algorithms and maintaining patient privacy
US11959848B2 (en) Method of storing and retrieving digital pathology analysis results
EP3729369A2 (en) Computational pathology approach for retrospective analysis of tissue-based companion diagnostic driven clinical trial studies
JP2021524575A (en) Quantification of signals in stain aggregates

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221215

R150 Certificate of patent or registration of utility model

Ref document number: 7197584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150