JP6819445B2 - Information processing equipment, control methods, and programs - Google Patents
Information processing equipment, control methods, and programs Download PDFInfo
- Publication number
- JP6819445B2 JP6819445B2 JP2017088231A JP2017088231A JP6819445B2 JP 6819445 B2 JP6819445 B2 JP 6819445B2 JP 2017088231 A JP2017088231 A JP 2017088231A JP 2017088231 A JP2017088231 A JP 2017088231A JP 6819445 B2 JP6819445 B2 JP 6819445B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- layer
- tissue
- information processing
- duct
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Biological Materials (AREA)
Description
本発明は、病理画像の画像解析に関する。 The present invention relates to image analysis of pathological images.
人や動物を診断する方法の1つとして、病理画像を用いた病理診断が行われている。病理画像とは、人や動物の体内の組織をカメラで撮像することで得られる画像である。 As one of the methods for diagnosing humans and animals, pathological diagnosis using pathological images is performed. A pathological image is an image obtained by photographing a tissue in the body of a human or an animal with a camera.
そして、病理画像のデータ(以下、病理画像データ)を画像解析することで病変の検出などを行う技術が開発されている。例えば特許文献1は、腺管内の核の分布によって腺管の異形度を評価し、その評価結果を出力する技術を開示している。 Then, a technique for detecting a lesion or the like by image analysis of pathological image data (hereinafter, pathological image data) has been developed. For example, Patent Document 1 discloses a technique for evaluating the degree of deformity of a gland duct based on the distribution of nuclei in the gland duct and outputting the evaluation result.
病理診断に利用できる指標は、腺管の異形度だけではない。本発明者は、病理診断に利用できる新たな指標を見出した。本発明の目的の一つは、病理診断に利用できる新たな指標を病理画像データから得る技術を提供することである。 The degree of glandular dysplasia is not the only index that can be used for pathological diagnosis. The present inventor has found a new index that can be used for pathological diagnosis. One of the objects of the present invention is to provide a technique for obtaining a new index that can be used for pathological diagnosis from pathological image data.
本発明の情報処理装置は、1)病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出手段と、2)前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出手段と、を有する。 The information processing apparatus of the present invention is composed of 1) a first layer composed of normal gland ducts and a tumor gland duct from a tissue region included in the pathological image data by image processing the pathological image data. It has a detection means for detecting the second layer, and 2) a calculation means for calculating an index value based on the thickness or area of the first layer and the second layer.
本発明の制御方法は、コンピュータによって実行される。当該制御方法は、1)病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出ステップと、2)前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出ステップと、を有する。 The control method of the present invention is executed by a computer. The control method is as follows: 1) By image processing the pathological image data, a first layer composed of normal gland ducts and a second layer composed of tumor gland ducts are selected from the tissue region included in the pathological image data. It has a detection step for detecting and 2) a calculation step for calculating an index value based on the thickness or area of the first layer and the second layer.
本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。 The program of the present invention causes a computer to execute each step of the control method of the present invention.
本発明によれば、病理診断に利用できる新たな指標を病理画像データから得る技術が提供される。 According to the present invention, there is provided a technique for obtaining a new index that can be used for pathological diagnosis from pathological image data.
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また各ブロック図において、特に説明がない限り、各ブロックは、ハードウエア単位の構成ではなく機能単位の構成を表している。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all drawings, similar components are designated by the same reference numerals, and description thereof will be omitted as appropriate. Further, in each block diagram, unless otherwise specified, each block represents a functional unit configuration rather than a hardware unit configuration.
[実施形態1]
図1は、実施形態1の情報処理装置2000の動作を概念的に例示する図である。なお、図1は、情報処理装置2000の理解を容易にするためにその動作の一例を示しているにすぎず、情報処理装置2000の機能を何ら限定するものではない。
[Embodiment 1]
FIG. 1 is a diagram conceptually illustrating the operation of the
情報処理装置2000は、病理画像データ10を画像処理する。病理画像データ10は、診断対象の人その他の動物(以下、患者)の体内の組織をカメラで撮像することで得られる画像データである。より具体的には、例えば病理画像データ10は、患者の体内から組織を採取し、その組織を顕微鏡で拡大し、拡大された組織をカメラで撮像することによって得られる。
The
情報処理装置2000は、病理画像データ10に含まれる組織を表す画像領域(以下、組織領域)から、正常な腺管で構成される層(以下、第1層)と、腫瘍腺管で構成される層(以下、第2層)を検出する。例えば図1の病理画像データ10では、組織領域20から、第1層22と第2層24が検出される。ここで、腫瘍腺管は、例えば「腺頸部に位置する増殖部を逸脱して腫瘍細胞が増殖した腺管」として定義される。なお、増殖部では腺管が腫瘍か非腫瘍か判別が難しいため、腫瘍が含まれる腺管をすべて腫瘍腺管として扱うのではなく、腫瘍が多く含まれる腺管を腫瘍腺管として扱ってもよい。正常な腺管は、腫瘍腺管以外の腺管である。
The
情報処理装置2000は、検出した第1層22と第2層24とに基づく指標値を算出する。例えば情報処理装置2000は、第1層22と第2層24の厚さ、又は検出した第1層22と第2層24の面積に基づく指標値を算出する。
The
このように本実施形態の情報処理装置2000によれば、病理画像データ10から、正常腺管で構成される第1層22と、腫瘍腺管で構成される第2層24とが検出され、これら検出された第1層22と第2層24に基づく指標値が算出される。このように、本実施形態の情報処理装置2000によれば、病理診断に利用できる新たな指標が提供される。
As described above, according to the
例えば上記指標値は、腫瘍が組織表面からどの程度の深さまで浸潤しているか(浸潤の深さ)を定量的に表すための指標として利用できる。浸潤の深さは、転移・再発リスクの評価や、治療方法の選択をする上で重要な因子であり、これを定量的に表すことは臨床的に意義がある。 For example, the above index value can be used as an index for quantitatively expressing how deep the tumor has invaded from the tissue surface (depth of infiltration). The depth of infiltration is an important factor in assessing the risk of metastasis / recurrence and selecting a treatment method, and it is clinically significant to express this quantitatively.
以下、本実施形態についてさらに詳細を述べる。 Hereinafter, the present embodiment will be described in more detail.
<機能構成の例>
図2は、情報処理装置2000の機能構成を例示するブロック図である。情報処理装置2000は、検出部2020及び算出部2040を有する。検出部2020は、病理画像データ10を画像処理することで、病理画像データ10に含まれる組織領域20から、正常腺管で構成される第1層22、及び腫瘍腺管で構成される第2層24を検出する。算出部2040は、検出した第1層22及び第2層24に基づく指標値を算出する。
<Example of functional configuration>
FIG. 2 is a block diagram illustrating the functional configuration of the
<情報処理装置2000のハードウエア構成の例>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
<Example of hardware configuration of
Each functional component of the
図3は、情報処理装置2000を実現するための計算機1000を例示する図である。計算機1000は、任意の種類の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
FIG. 3 is a diagram illustrating a
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。プロセッサ1040は、CPU(Central Processing Unit)や GPU(Graphics Processing Unit)などの演算処理装置である。メモリ1060は、RAM(Random Access Memory)などで実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、ROM、又はメモリカードなどで実現される補助記憶装置である。ただしストレージデバイス1080は、RAM など、主記憶装置の実現に用いられるハードウエアと同様のハードウエアで実現されてもよい。
The
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボード、マウス、又はディスプレイ装置などが接続される。
The input /
ネットワークインタフェース1120は、WAN(Wide Area Network)や LAN(Local Area Network)などの通信網に接続するためのインタフェースである。
The
ストレージデバイス1080は情報処理装置2000の各機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、そのプログラムモジュールに対応する各機能を実現する。
The
<処理の流れ>
図4は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。情報処理装置2000は、病理画像データ10を取得する(S102)。検出部2020は、病理画像データ10を画像処理することで、病理画像データ10に含まれる組織領域20から、正常腺管で構成される第1層22、及び腫瘍腺管で構成される第2層24を検出する(S104)。算出部2040は、検出した第1層22及び第2層24に基づく指標値を算出する(S106)。
<Processing flow>
FIG. 4 is a flowchart illustrating a flow of processing executed by the
<病理画像データ10の取得:S102>
情報処理装置2000は、画像解析の対象とする病理画像データ10を取得する(S102)。情報処理装置2000が病理画像データ10を取得する方法は任意である。例えば情報処理装置2000は、病理画像データ10が記憶されている記憶装置にアクセスすることで、病理画像データ10を取得する。病理画像データ10が記憶されている記憶装置は、病理画像データ10を生成するカメラの内部に設けられていてもよいし、そのカメラの外部に設けられていてもよい。また例えば、情報処理装置2000は、カメラから送信される病理画像データ10を受信することで、病理画像データ10を取得してもよい。
<Acquisition of pathological image data 10: S102>
The
<第1層22及び第2層24の検出:S104>
検出部2020は、病理画像データ10に含まれる組織領域20から、第1層22及び第2層24を検出する(S104)。第1層22及び第2層24の検出は、例えば図5に示す流れで行われる。図5は、組織領域20から第1層22及び第2層24を検出する処理の流れを例示するフローチャートである。
<Detection of
The
検出部2020は、病理画像データ10から組織領域20を抽出する(S202)。検出部2020は、組織領域20から腺管を表す領域(以下、腺管領域)を抽出する(S204)。検出部2020は、組織領域20から抽出された各腺管領域を、正常腺管の腺管領域と、腫瘍腺管の腺管領域に分類する(S206)。検出部2020は、S206による分類の結果に基づき、組織領域20から第1層22と第2層24を検出する(S208)。
The
以下、図5のフローチャートにおける各ステップについてさらに詳細に説明する。 Hereinafter, each step in the flowchart of FIG. 5 will be described in more detail.
<組織領域20の抽出:S202>
検出部2020は、病理画像データ10から組織領域20を抽出する(S202)。ここで、病理画像データ10に含まれる組織には、ヘマトキシリン・エオシン染色が施されているとする。
<Extraction of tissue area 20: S202>
The
病理画像データ10において、組織領域20以外の画像領域は、染色された組織が含まれない部分であり、いわゆる背景領域として扱える。一方、病理画像データ10において、組織領域20は前景領域として扱える。そこで検出部2020は、病理画像データ10について背景分離を行い、その結果として得られる前景領域を、組織領域20として抽出する。
In the
まず検出部2020は、染色のばらつきが小さくなるように、病理画像データ10の色補正(例えばガンマ補正)を行う。そして検出部2020は、病理画像データ10を前景領域と背景領域に分け、前景領域を組織領域20として抽出する。背景分離の具体的な方法には、既存の種々の方法を利用できる。なお、病理画像データ10の色補正は必ずしも行う必要はない。
First, the
ここで、検出部2020は、背景分離を行う際、病理画像データ10に対して膨張処理を行うことが好ましい。図6は、膨張処理の効果を例示する図である。図6において、膨張処理を行わずに背景分離を行うと、組織表面周辺の窪んだ部分が組織領域20に含まれない。一方、膨張処理後に背景分離を行うと、組織表面周辺の窪んだ部分も組織領域20に含まれるようになる。よって、膨張処理を行うことで、組織表面周辺の窪んだ部分に存在する腺管領域が、後述する腺管領域の抽出対象から除外されてしまうことを防ぐことができる。つまり、組織表面にある腺管領域も後述の処理で抽出できるようになる。
Here, it is preferable that the
<腺管領域の抽出:S204>
検出部2020は、組織領域20から腺管領域を抽出する(S204)。そのために、まず検出部2020は、組織領域20から、腺管領域の境界線であると推測される線(以下、候補境界線)を抽出する。組織領域20には、ここで抽出される候補境界線で囲われる閉領域が1つ以上含まれる。そこで検出部2020は、これら1つ以上の閉領域それぞれについて、腺管領域であるか否かを判定する。そして検出部2020は、腺管領域であると判定された閉領域を、腺管領域として抽出する。
<Extraction of gland duct region: S204>
The
<<候補境界線の抽出>>
検出部2020は、組織領域20に含まれるエッジを検出するエッジ検出を行い、検出されたエッジを候補境界線として抽出する。ここでは、エッジとして扱うのは、ヘマトキシリンで染色された画像領域である。例えば検出部2020は、病理画像データ10をヘマトキシリン、エオシン、白、及び赤の4値で構成される画像に変換する(4値化する)ことにより、病理画像データ10から、ヘマトキシリンで染色された画像領域を得る。なお、エッジ検出の具体的な方法には既存の技術を利用することができる。
<< Extraction of candidate boundaries >>
The
エッジ検出の際、検出部2020は、エッジ強調フィルタを利用してエッジを強調する処理を行ってもよい。これにより、例えば腺管領域の境界線の一部が途切れて写ってしまっている場合であっても、その途切れてしまっている部分をつなげることができるため、このような腺管領域を病理画像データ10から検出できるようになる。
At the time of edge detection, the
エッジ強調の強さ(エッジ強調フィルタのパラメタ)は、予め静的に定められていてもよいし、検出部2020によって動的に決定されてもよい。後者の場合、検出部2020は、病理画像データ10から得られる情報を利用してエッジ強調の強さを決定する。例えば検出部2020は、ヘマトキシリンで染色された領域の面積 Sh と、エオシンで染色された領域の面積 Se とに基づいて、エッジ強調の強さを決定する。より具体的には、Sh/(Sh+Se) の値が小さいほど、エッジ強調の強さを強くする。こうすることで、病理画像データ10の中にヘマトキシリンで染色された部分が少ないほどその部分が増える(エッジを強調される)ように病理画像データ10が補正される。
The strength of edge enhancement (parameter of the edge enhancement filter) may be statically determined in advance, or may be dynamically determined by the
ここで、検出部2020は、候補境界線の抽出を行う前に、組織領域20からリンパ球領域で表される画像領域(以下、リンパ球領域)を除去する処理を行うことが好適である。リンパ球もヘマトキシリンで染色されるため、リンパ球領域もエッジ検出処理によってエッジとして抽出されてしまう可能性があるためである。
Here, it is preferable that the
病理画像データ10からリンパ球領域を検出する方法には、様々な方法を利用することができる。例えば検出部2020は、機械学習を利用して病理画像データ10からリンパ球領域を検出する。具体的には、リンパ球領域をラベリングした教師データを利用することで、画像データからリンパ球領域を検出する検出器を予め作成しておく。そして検出部2020は、この検出器に病理画像データ10を入力することで得られるリンパ球領域を、病理画像データ10から除去する。上記機械学習には、ディープラーニングを利用することが好適である。
Various methods can be used for detecting the lymphocyte region from the
<<腺管領域であるか否かの判定>>
検出部2020は、候補境界線で囲まれた閉領域それぞれについて、腺管領域であるか否かの判定を行う。図7は、腺管領域であるか否かの判定が行われた後の病理画像データ10を概念的に例示する図である。図7において、閉領域30は点線の枠で囲われている領域であり、腺管領域32は実線の枠で囲われている領域である。図7において、病理画像データ10に含まれる閉領域30の一部が、腺管領域32として検出されている。
<< Judgment of whether or not it is a ductal region >>
The
閉領域30が腺管領域32であるか否かの判定は、例えば機械学習を利用して実現する。例えば、腺管領域をラベリングした画像データを教師データとして利用することで、閉領域が腺管領域であるか否かを識別する識別器を作成しておく。識別器は、例えばサポートベクタマシンとして実現する。
The determination of whether or not the closed
識別器は、閉領域30の内部や周辺から得られる特徴量に基づいて、閉領域30が腺管領域であるか否かを識別する。例えばこの特徴量としては、1)閉領域30内におけるリンパ球領域の面積の割合、2)閉領域30内における白色領域の面積の割合、3)閉領域30内における間質領域の面積の割合、4)閉領域30内における細胞質の面積の割合、5)閉領域30内の白色領域における灰色領域の面積の割合、6)閉領域30の周辺領域におけるリンパ球領域の面積の割合、及び7)閉領域30の周辺領域における細胞核領域の面積の割合のうち、いずれか1つ以上を利用することができる。なお、周辺領域については後述する。
The discriminator discriminates whether or not the closed
ここで、閉領域30における白色領域は、閉領域30に含まれる画素のうち、所定の第1閾値以上の輝度を持つ画素で構成される画像領域である。例えば検出部2020は、前述した4値化が施された病理画像データ10を用い、4値化された閉領域30に含まれる白色の画素で構成される領域を、白色領域として抽出する。第1閾値は任意の値とすることができる。第1閾値は、検出部2020に予め設定されていてもよいし、検出部2020からアクセス可能な記憶装置に記憶させておいてもよい。
Here, the white region in the
閉領域30における灰色領域は、閉領域30に含まれる画素のうち、上記第1閾値以上かつ第2閾値以下の輝度を持つ画素で構成される画像領域である。つまり、灰色領域は、白色領域を構成する画素のうち、比較的輝度が低い画素で構成される画像領域である。第2閾値は、第1閾値以上の任意の値とすることができる。第2閾値は、検出部2020に予め設定されていてもよいし、検出部2020からアクセス可能な記憶装置に記憶させておいてもよい。
The gray area in the
閉領域30内における間質領域は、例えば次のようにして得られる領域である。まず検出部2020は、病理画像データ10をヘマトキシリン、エオシン、白、及び赤の4値で構成される画像に4値化することにより、病理画像データ10から、エオシンで染色された画像領域を得る。ただし、既に病理画像データ10を4値化した画像が生成されている場合には、その画像を利用できる。そして検出部2020は、エオシンで染色された画像領域のうち、色相の値が所定の閾値以上の画像領域であって、なおかつ閉領域30内にある画像領域を、閉領域30内における間質領域として得る。
The interstitial region in the
上記閾値は、予め定められている値であってもよいし、動的に決定される値であってもよい。後者の場合、例えば検出部2020は、次のようにして上記閾値を決定する。まず検出部2020は、細胞核領域の複数の画素(例えば100個の画素)の色の平均色を算出する。上記平均色は、細胞核領域の複数の画素の R 値の平均値、G の値の平均値、及び B の値の平均値で構成される色である。検出部2020は、病理画像データ10の各画素の色と上記平均色とについて、R 値、G 値、及び B 値で構成される3次元座標におけるユークリッド距離を算出する。そして、このユークリッド距離が0以上255以下の範囲となるように正規化する。このように各画素について算出したユークリッド距離を正規化して得られる値で構成される画像データを、距離画像データと呼ぶ。検出部2020は、距離画像データについて、所定値より小さい画素で構成される画像領域 S を特定する。
The threshold value may be a predetermined value or a dynamically determined value. In the latter case, for example, the
さらに検出部2020は、病理画像データ10について、エオシンで染色されており、なおかつ色相が閾値 t より大きい画像領域 R を特定する。検出部2020は、閾値 t を小さくしながら画像領域 R の特定を繰り返し、画像領域 R と S が重なるようにする。そして、画像領域 R と S が重なった時の閾値 t 又は重なる直前の閾値 t を、閉領域30内における間質領域を得るための閾値とする。なお、閾値 t の初期値は、例えば色相の最大値とする。
Further, the
ここで、距離画像データから得られた画像領域 S は、おおまかに推定した腺管領域を表す。よって、上述の方法により、色相が高いエオシン領域であって、なおかつおおまかに推定した腺管領域と重ならない領域が、間質領域として得られる。 Here, the image region S obtained from the distance image data represents a roughly estimated duct region. Therefore, by the above method, an eosin region having a high hue and a region that does not overlap with the roughly estimated gland duct region can be obtained as an interstitial region.
閉領域30内における細胞質領域は、閉領域30内の領域のうち、間質領域を除いた部分である。
The cytoplasmic region in the
閉領域30の周辺領域は、例えば閉領域30を囲む所定の幅の領域として定義される。図8は、閉領域30の周辺領域を例示する図である。図8において、周辺領域40は、閉領域30を囲む幅 d の領域である。
The peripheral region of the
リンパ球領域を特定する方法は、前述した通りである。また、周辺領域40内の細胞核領域は、周辺領域40からリンパ球領域を除去した領域である。
The method for identifying the lymphocyte region is as described above. The cell nucleus region in the
<腺管領域の分類:S206>
検出部2020は、抽出された腺管領域32を、正常な腺管領域と腫瘍の腺管領域とに分類する(S206)。そのために、検出部2020は、1つの腺管領域32の周辺領域40に含まれる各細胞核について、正常な細胞の細胞核であるか腫瘍細胞の細胞核であるかを判別する。そして検出部2020は、或る腺管領域32の周辺領域40に含まれる正常な細胞の細胞核の数と腫瘍細胞の細胞核の数とに基づいて、その腺管領域32が正常な腺管領域と腫瘍の腺管領域のどちらであるかを識別する。
<Classification of gland duct region: S206>
The
正常な細胞の細胞核と腫瘍細胞の細胞核を識別する方法には、様々な方法を利用できる。例えばこの識別には、機械学習を利用できる。この場合、例えば、正常な細胞の細胞核を表す画像データと腫瘍細胞の細胞核を表す画像データそれぞれを教師データとして利用することで、正常な細胞の細胞核と腫瘍細胞の細胞核を識別する識別器を予め構成しておく。そして、検出部2020は、この識別器に対して腺管領域32の周辺領域40を入力することで、周辺領域40に含まれる各細胞核について、正常な細胞の細胞核と腫瘍細胞の細胞核のどちらであるかの識別結果を得る。上記機械学習には、ディープラーニングを利用することが好適である。
Various methods can be used to distinguish between the cell nuclei of normal cells and the cell nuclei of tumor cells. For example, machine learning can be used for this identification. In this case, for example, by using the image data representing the cell nuclei of normal cells and the image data representing the cell nuclei of tumor cells as teacher data, a discriminator that discriminates between the cell nuclei of normal cells and the cell nuclei of tumor cells is prepared in advance. Configure it. Then, the
ここで、上記識別器は、細胞核を正常な細胞の細胞核と腫瘍細胞の細胞核に識別するだけでなく、細胞核を1)リンパ球の細胞核、2)リンパ球以外の正常な細胞の細胞核、3)腫瘍細胞の細胞核のいずれかに識別してもよい。この場合、上記識別器は、前述したリンパ球領域の除去にも利用することができる。 Here, the discriminator not only discriminates the cell nucleus into the cell nucleus of a normal cell and the cell nucleus of a tumor cell, but also 1) the cell nucleus of a lymphocyte, 2) the cell nucleus of a normal cell other than a lymphocyte, and 3). It may be identified in any of the cell nuclei of tumor cells. In this case, the discriminator can also be used to remove the lymphocyte region described above.
なお、細胞核を識別する方法は、機械学習を利用する方法に限定されず、既存の種々の方法を利用することもできる。 The method for identifying cell nuclei is not limited to the method using machine learning, and various existing methods can also be used.
前述したように、検出部2020は、腺管領域32の周辺領域40に含まれる正常な細胞の細胞核の数と腫瘍細胞の細胞核の数とに基づいて、その腺管領域32が正常な腺管領域と腫瘍の腺管領域のどちらであるかを識別する。その具体的な方法は様々である。例えば検出部2020は、腺管領域32の周辺領域40に含まれる細胞核の総数に対する、その周辺領域40に含まれる正常な細胞の細胞核の数の比率を算出する。そして、検出部2020は、算出した比率が所定値以上である場合に、その腺管領域32が正常な腺管領域であると判別する。一方、検出部2020は、算出した比率が所定値未満である場合に、その腺管領域32が腫瘍の腺管領域であると判別する。なお、「腺管領域32の周辺領域40に含まれる細胞核の総数」からは、リンパ球の細胞核の数を除いてもよい。
As described above, the
上記所定値を定める方法は様々である。例えば上記所定値は、医師の経験などに基づいて人手で設定される。その他にも例えば、上記所定値は、機械学習を利用して設定される。後者の場合、例えば腺管領域の画像データに、正常な腺管領域と腫瘍の腺管領域のどちらが含まれるかをラベリングした画像データを教師データとして用い、その画像データに含まれる腺管領域の周辺領域から検出される正常な細胞の細胞核の数と腫瘍細胞の細胞核の数とをカウントすることで、正常な腺管領域と腫瘍の腺管領域とを識別するための上記所定値を決定する。 There are various methods for determining the above-mentioned predetermined value. For example, the above predetermined value is manually set based on the experience of a doctor or the like. In addition, for example, the above-mentioned predetermined value is set by using machine learning. In the latter case, for example, image data labeled as to whether the image data of the gland duct region includes the normal duct region or the duct region of the tumor is used as the teacher data, and the image data of the duct region included in the image data is used. By counting the number of cell nuclei of normal cells detected from the peripheral region and the number of cell nuclei of tumor cells, the above-mentioned predetermined value for distinguishing between the normal duct region and the duct region of the tumor is determined. ..
<第1層22と第2層24の検出:S208>
検出部2020は、S206による分類の結果に基づき、組織領域20から第1層22と第2層24を検出する(S208)。前述したように、第1層22は、正常腺管の領域で構成される画像領域である。一方、第2層24は、腫瘍腺管の領域で構成される画像領域である。
<Detection of
The
<<第1層22の検出>>
検出部2020は、正常腺管の領域と腫瘍腺管の領域の間の境界線を(以下、第1境界線)を特定する。第1境界線は、例えば以下の方法で特定される。
<< Detection of
The
まず検出部2020は、病理画像データ10を構成する画素のマトリクスの各列について、組織の表面(組織領域20と背景領域との境界線)から最も遠い、腫瘍腺管の腺管領域の画素を検出する。図9は、組織の表面から最も遠い、腫瘍腺管の腺管領域の画素を検出する方法を概念的に例示する図である。図9には、病理画像データ10を構成する画素のマトリクスにおいて、同一列上に、3つの腫瘍腺管の腺管領域と、1つの正常腺管の腺管領域が存在する。そこで、検出部2020は、組織表面から最も遠い腫瘍腺管の腺管領域(上から3つ目の腺管領域)の下端の画素を、「組織の表面から最も遠い、腫瘍腺管の腺管領域の画素」として検出する。
First, the
検出部2020は、上述の方法で各列から検出した画素を連結して、第1境界線を特定する。例えばこの連結は、線形補完によって行う。
The
ここで、検出部2020は、生成した第1境界線を平滑化する処理を行うことが好適である。例えばこの平滑化は、Lowess フィルタなどの種々の平滑化フィルタを利用して行うことができる。
Here, it is preferable that the
検出部2020は、特定した第1境界線と、組織領域20の外枠(組織領域20と背景領域の境界線)で閉じられた画像領域を、腫瘍腺管の腺管領域で構成される第1層22として検出する。図10は、第1層22を例示する図である。
The
<<第2層24の検出>>
検出部2020は、第2層24を検出するために、正常腺管の腺管領域と、組織領域20に含まれる腺管領域以外の画像領域との間の境界線(以下、第2境界線)を生成する。第2境界線は、第1境界線と同様の方法で例えば以下の方法で生成できる。具体的には、検出部2020は、病理画像データ10を構成する画素のマトリクスの各列について、組織の表面から最も遠い、正常腺管の腺管領域の画素を検出する。次に、検出部2020は、各列から検出した画素を連結して、第2境界線を生成する。なお、第1境界線と同様に、第2境界線についても平滑化を行うことが好適である。
<< Detection of
In order to detect the
検出部2020は、第1境界線、第2境界線、及び組織領域20の外枠で閉じられた画像領域を、第2層24として検出する。図11は、第2層24を例示する図である。
The
<指標値の算出:S104>
算出部2040は、検出部2020によって検出された第1層22と第2層24に基づく指標値を算出する。この指標値としては、様々なものを採用できる。例えば算出部2040は、第1層22と第2層24の面積、又は検出した第1層22と第2層24の厚さに基づく指標値を算出する。前者の場合、例えば算出部2040は、腺管領域の層全体(第1層22と第2層24を合わせた領域)の面積に対する第1層22の面積の割合を指標値として算出する。例えば第1層22の面積を S1、第2層24の面積を S2 とおけば、指標値は S1/(S1+S2) となる。その他にも例えば、算出部2040は、第2層24の面積に対する第1層22の面積の比率(S1/S2)を指標値としてもよい。
<Calculation of index value: S104>
The
一方、第1層22と第2層24の厚さから指標値を算出する場合、例えば情報処理装置2000は、腺管領域の層全体の厚さに対する第1層22の厚さを指標値として算出する。例えば第1層22の厚さを T1 、腺管領域の層全体の厚さを Ta とおけば、指標値は T1/Ta となる。その他にも例えば、算出部2040は、第2層24の厚さ T2 に対する第1層22の厚さ T1 の比率(T1/T2)を指標値としてもよい。
On the other hand, when the index value is calculated from the thicknesses of the
ここで、層の厚さを定める方法は様々である。例えば算出部2040は、病理画像データ10を構成する画素のマトリクスにおける各列について第1層22の厚さを算出し、算出された各列における厚さの統計値(平均値、最大値、又は最小値など)を、第1層22の厚さとする。第2層24の厚さや腺管領域の層全体の厚さについても同様である。
Here, there are various methods for determining the thickness of the layer. For example, the
なお、指標値は必ずしも割合や比率で表される必要はない。例えば情報処理装置2000は、第1層22と第1層22の面積や厚さそのものを指標値としてもよい。
The index value does not necessarily have to be expressed as a ratio or ratio. For example, the
[実施形態2]
図12は、実施形態2の情報処理装置2000を例示するブロック図である。以下で説明する事項を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様である。
[Embodiment 2]
FIG. 12 is a block diagram illustrating the
実施形態2の情報処理装置2000は出力制御部2060を有する。算出部2040によって算出された指標値に基づいて、出力装置に所定の出力を行わせる。
The
出力制御部2060は、算出部2040によって算出された指標値を必ず出力してもよいし、算出された指標値が所定の条件を満たす場合にのみその指標値を出力してもよい。例えば所定の条件は、指標値が所定の閾値以上の場合や、指標値が所定の閾値以下である場合などである。
The
指標値と閾値との関係は、指標値をどのような値として算出するかによって決まる。例えば指標値として、腺管領域の層全体の面積や厚さに対する、腫瘍腺管の腺管領域の層(第1層22)の面積や厚さを利用する場合、組織領域20に腫瘍腺管が多く含まれるほど指標値が大きくなる傾向にある。そこで、例えば「指標値が所定の閾値以上である」という条件が満たされた場合に、出力制御部2060が指標値を出力するようにする。
The relationship between the index value and the threshold value is determined by what kind of value the index value is calculated as. For example, when the area and thickness of the gland duct region layer (first layer 22) of the tumor duct region is used as an index value with respect to the area and thickness of the entire layer of the gland duct region, the
なお、上記所定の閾値は、予め出力制御部2060に設定されていてもよいし、出力制御部2060からアクセス可能な記憶装置に記憶させておいてもよい。
The predetermined threshold value may be set in advance in the
出力制御部2060が指標値を出力する態様は様々である。例えば出力制御部2060は、ディスプレイ装置の表示画面に指標値を表示させる。この場合、出力制御部2060は、ディスプレイ装置を制御する。その他にも例えば、出力制御部2060は、スピーカから音声で指標値を出力させる。この場合、出力制御部2060はスピーカを制御する。その他にも例えば、出力制御部2060は、記憶装置に指標値を記憶させる。この場合、出力制御部2060は、記憶装置を制御する。
There are various modes in which the
指標値は、いわゆる生データとしてそのまま出力されてもよいし、加工されて出力されてもよい。後者の場合、例えば出力制御部2060は、複数算出された指標値をまとめて表やグラフの形式で出力する。例えば、算出部2040が、同一の患者から得られた複数の病理画像データ10それぞれを用いて、指標値を算出するとする。この場合、出力制御部2060は、複数の病理画像データ10を用いて算出された各指標値で、表やグラフを作成する。その他にも例えば、出力制御部2060は、同一の患者について過去に算出された1つ以上の指標値で、表やグラフを作成する。
The index value may be output as it is as so-called raw data, or may be processed and output. In the latter case, for example, the
その他にも例えば、出力制御部2060は、指標値が前述した所定の条件を満たした場合に、所定のメッセージ(例えば警告メッセージ)を出力するように構成されていてもよい。
In addition, for example, the
<ハードウエア構成>
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。また、本実施形態の情報処理装置2000を実現する計算機1000の入出力インタフェース1100には、出力制御部2060によって制御される種々のハードウエア(ディスプレイ装置やスピーカなど)が接続されていてもよい。
<Hardware configuration>
The hardware configuration of the computer that realizes the
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。 Although the embodiments of the present invention have been described above with reference to the drawings, these are examples of the present invention, and a combination of the above embodiments or various configurations other than the above can be adopted.
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出手段と、
前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出手段と、を有する情報処理装置。
2. 前記検出手段は、
前記組織領域から複数の腺管領域を抽出し、前記抽出された複数の腺管領域それぞれが、正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別し、
各正常腺管の領域の位置及び各腫瘍腺管の領域の位置を用いて、前記第1層と前記第2層の境界を算出する、1.に記載の情報処理装置。
3. 前記腺管領域が正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別する処理はディープラーニングを用いて行われる、2.に記載の情報処理装置。
4. 前記組織領域は、ヘマトキシリンを用いた染色が行われた組織の画像領域であり、
前記検出手段は、前記組織領域から、ヘマトキシリンで染色された画像領域によって囲まれた閉領域を抽出し、前記閉領域の特徴に基づいて前記閉領域が前記腺管領域であるか否かを判別することで、前記腺管領域の抽出を行う、2.又は3.に記載の情報処理装置。
5. 前記閉領域の特徴は、前記閉領域におけるリンパ球領域の割合、前記閉領域における白色領域の割合、前記白色領域における灰色領域の割合、前記閉領域における間質領域の割合、前記閉領域における細胞質領域の割合、前記閉領域の周辺におけるリンパ球領域の割合、及び前記閉領域の周辺における細胞核領域の割合のうち、いずれか1つ以上を含む、4.に記載の情報処理装置。
6. 前記検出手段は、前記組織領域からリンパ球領域を除去し、前記リンパ球領域が除去された組織領域から前記閉領域を抽出する、4.又は5.に記載の情報処理装置。
7. 前記リンパ球領域を除去する処理はディープラーニングを用いて行われる、6.に記載の情報処理装置。
8. 前記組織領域は、ヘマトキシリン・エオシン染色が行われた組織の画像領域であり、
前記検出手段は、
ヘマトキシリンで染色された画像領域とエオシンで染色された画像領域との割合に基づいて、前記ヘマトキシリンで染色された画像領域の強調処理を行い、
前記強調処理が行われた後の前記病理画像データから前記閉領域の抽出を行う、4.乃至7.いずれか一つに記載の情報処理装置。
9. 前記算出手段によって算出された指標値が所定の条件を満たす場合に所定の出力を行う出力制御手段を有する、1.乃至8.いずれか一つに記載の情報処理装置。
Some or all of the above embodiments may also be described, but not limited to:
1. 1. A detection means for detecting a first layer composed of normal ducts and a second layer composed of tumor ducts from a tissue region included in the pathological image data by image processing the pathological image data. ,
An information processing device having a calculation means for calculating an index value based on the thickness or area of the first layer and the second layer.
2. 2. The detection means
A plurality of ductal regions are extracted from the tissue region, and it is determined whether each of the extracted ductal regions is a normal duct region or a tumor duct region.
1. The boundary between the first layer and the second layer is calculated using the position of the region of each normal duct and the location of the region of each tumor duct. The information processing device described in.
3. 3. 2. The process of determining whether the gland duct region is a normal duct region or a tumor duct region is performed by using deep learning. The information processing device described in.
4. The tissue region is an image region of a tissue stained with hematoxylin.
The detection means extracts a closed region surrounded by a hematoxylin-stained image region from the tissue region, and determines whether or not the closed region is the gland duct region based on the characteristics of the closed region. By doing so, the glandular canal region is extracted. Or 3. The information processing device described in.
5. The characteristics of the closed region are the ratio of the lymphocyte region in the closed region, the ratio of the white region in the closed region, the ratio of the gray region in the white region, the ratio of the interstitial region in the closed region, and the cytoplasm in the closed region. 4. Includes any one or more of the proportion of the region, the proportion of the lymphocyte region around the closed region, and the proportion of the cell nucleus region around the closed region. The information processing device described in.
6. The detection means removes the lymphocyte region from the tissue region and extracts the closed region from the tissue region from which the lymphocyte region has been removed. Or 5. The information processing device described in.
7. The treatment for removing the lymphocyte region is performed using deep learning. The information processing device described in.
8. The tissue region is an image region of a tissue stained with hematoxylin and eosin.
The detection means
Based on the ratio of the hematoxylin-stained image region to the eosin-stained image region, the hematoxylin-stained image region is enhanced.
3. Extract the closed region from the pathological image data after the enhancement treatment is performed. To 7. The information processing device according to any one.
9. 1. It has an output control means that outputs a predetermined value when the index value calculated by the calculation means satisfies a predetermined condition. ~ 8. The information processing device according to any one.
10. コンピュータによって実行される制御方法であって、
病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出ステップと、
前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出ステップと、を有する制御方法。
11. 前記検出ステップにおいて、
前記組織領域から複数の腺管領域を抽出し、前記抽出された複数の腺管領域それぞれが、正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別し、
各正常腺管の領域の位置及び各腫瘍腺管の領域の位置を用いて、前記第1層と前記第2層の境界を算出する、10.に記載の制御方法。
12. 前記腺管領域が正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別する処理はディープラーニングを用いて行われる、11.に記載の制御方法。
13. 前記組織領域は、ヘマトキシリンを用いた染色が行われた組織の画像領域であり、
前記検出ステップにおいて、前記組織領域から、ヘマトキシリンで染色された画像領域によって囲まれた閉領域を抽出し、前記閉領域の特徴に基づいて前記閉領域が前記腺管領域であるか否かを判別することで、前記腺管領域の抽出を行う、11.又は12.に記載の制御方法。
14. 前記閉領域の特徴は、前記閉領域におけるリンパ球領域の割合、前記閉領域における白色領域の割合、前記白色領域における灰色領域の割合、前記閉領域における間質領域の割合、前記閉領域における細胞質領域の割合、前記閉領域の周辺におけるリンパ球領域の割合、及び前記閉領域の周辺における細胞核領域の割合のうち、いずれか1つ以上を含む、13.に記載の制御方法。
15. 前記検出ステップにおいて、前記組織領域からリンパ球領域を除去し、前記リンパ球領域が除去された組織領域から前記閉領域を抽出する、13.又は14.に記載の制御方法。
16. 前記リンパ球領域を除去する処理はディープラーニングを用いて行われる、15.に記載の制御方法。
17. 前記組織領域は、ヘマトキシリン・エオシン染色が行われた組織の画像領域であり、
前記検出ステップにおいて、
ヘマトキシリンで染色された画像領域とエオシンで染色された画像領域との割合に基づいて、前記ヘマトキシリンで染色された画像領域の強調処理を行い、
前記強調処理が行われた後の前記病理画像データから前記閉領域の抽出を行う、13.乃至16.いずれか一つに記載の制御方法。
18. 前記算出ステップにおいて算出された指標値が所定の条件を満たす場合に所定の出力を行う出力制御ステップを有する、10.乃至17.いずれか一つに記載の制御方法。
10. A control method performed by a computer
A detection step of detecting a first layer composed of normal ducts and a second layer composed of tumor ducts from a tissue region included in the pathological image data by image processing the pathological image data. ,
A control method comprising a calculation step of calculating an index value based on the thickness or area of the first layer and the second layer.
11. In the detection step
A plurality of ductal regions are extracted from the tissue region, and it is determined whether each of the extracted ductal regions is a normal duct region or a tumor duct region.
10. The boundary between the first layer and the second layer is calculated using the position of the region of each normal duct and the location of the region of each tumor duct. The control method described in.
12. The process of determining whether the gland duct region is a normal duct region or a tumor duct region is performed by using deep learning. The control method described in.
13. The tissue region is an image region of a tissue stained with hematoxylin.
In the detection step, a closed region surrounded by a hematoxylin-stained image region is extracted from the tissue region, and whether or not the closed region is the glandular region is determined based on the characteristics of the closed region. By doing so, the glandular region is extracted. Or 12. The control method described in.
14. The characteristics of the closed region are the ratio of the lymphocyte region in the closed region, the ratio of the white region in the closed region, the ratio of the gray region in the white region, the ratio of the interstitial region in the closed region, and the cytoplasm in the closed region. 13. Includes one or more of the proportion of regions, the proportion of lymphocyte regions around the closed region, and the proportion of cell nucleus regions around the closed region. The control method described in.
15. 13. In the detection step, the lymphocyte region is removed from the tissue region and the closed region is extracted from the tissue region from which the lymphocyte region has been removed. Or 14. The control method described in.
16. The treatment for removing the lymphocyte region is performed using deep learning. The control method described in.
17. The tissue region is an image region of a tissue stained with hematoxylin and eosin.
In the detection step
Based on the ratio of the hematoxylin-stained image region to the eosin-stained image region, the hematoxylin-stained image region is enhanced.
The closed region is extracted from the pathological image data after the enhancement treatment is performed. To 16. The control method according to any one.
18. 10. It has an output control step that outputs a predetermined output when the index value calculated in the calculation step satisfies a predetermined condition. ~ 17. The control method according to any one.
19. 10.乃至18.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。 19. 10. ~ 18. A program that causes a computer to execute each step of the control method described in any one of them.
10 病理画像データ
20 組織領域
22 第1層
24 第2層
30 閉領域
32 腺管領域
40 周辺領域
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1080 しストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース
2000 情報処理装置
2020 検出部
2040 算出部
2060 出力制御部
10
Claims (11)
前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出手段と、を有する情報処理装置。 A detection means for detecting a first layer composed of normal ducts and a second layer composed of tumor ducts from a tissue region included in the pathological image data by image processing the pathological image data. ,
An information processing device having a calculation means for calculating an index value based on the thickness or area of the first layer and the second layer.
前記組織領域から複数の腺管領域を抽出し、前記抽出された複数の腺管領域それぞれが、正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別し、
各正常腺管の領域の位置及び各腫瘍腺管の領域の位置を用いて、前記第1層と前記第2層の境界を算出する、請求項1に記載の情報処理装置。 The detection means
A plurality of ductal regions are extracted from the tissue region, and it is determined whether each of the extracted ductal regions is a normal duct region or a tumor duct region.
The information processing apparatus according to claim 1, wherein the boundary between the first layer and the second layer is calculated by using the position of the region of each normal duct and the position of the region of each tumor duct.
前記検出手段は、前記組織領域から、ヘマトキシリンで染色された画像領域によって囲まれた閉領域を抽出し、前記閉領域の特徴に基づいて前記閉領域が前記腺管領域であるか否かを判別することで、前記腺管領域の抽出を行う、請求項2又は3に記載の情報処理装置。 The tissue region is an image region of a tissue stained with hematoxylin.
The detection means extracts a closed region surrounded by an image region stained with hematoxylin from the tissue region, and determines whether or not the closed region is the glandular region based on the characteristics of the closed region. The information processing apparatus according to claim 2 or 3, wherein the glandular tube region is extracted by the method.
前記検出手段は、
ヘマトキシリンで染色された画像領域とエオシンで染色された画像領域との割合に基づいて、前記ヘマトキシリンで染色された画像領域の強調処理を行い、
前記強調処理が行われた後の前記病理画像データから前記閉領域の抽出を行う、請求項4乃至7いずれか一項に記載の情報処理装置。 The tissue region is an image region of a tissue stained with hematoxylin and eosin.
The detection means
Based on the ratio of the hematoxylin-stained image region to the eosin-stained image region, the hematoxylin-stained image region is enhanced.
The information processing apparatus according to any one of claims 4 to 7, wherein the closed region is extracted from the pathological image data after the enhancement treatment is performed.
病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出ステップと、
前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出ステップと、を有する制御方法。 A control method performed by a computer
A detection step of detecting a first layer composed of normal ducts and a second layer composed of tumor ducts from a tissue region included in the pathological image data by image processing the pathological image data. ,
A control method comprising a calculation step of calculating an index value based on the thickness or area of the first layer and the second layer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017088231A JP6819445B2 (en) | 2017-04-27 | 2017-04-27 | Information processing equipment, control methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017088231A JP6819445B2 (en) | 2017-04-27 | 2017-04-27 | Information processing equipment, control methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018185265A JP2018185265A (en) | 2018-11-22 |
JP6819445B2 true JP6819445B2 (en) | 2021-01-27 |
Family
ID=64357242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017088231A Active JP6819445B2 (en) | 2017-04-27 | 2017-04-27 | Information processing equipment, control methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6819445B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020139842A (en) * | 2019-02-28 | 2020-09-03 | ソニー株式会社 | Information processing device, information processing method, and information processing system |
JP7482894B2 (en) | 2019-04-12 | 2024-05-14 | インベニオ イメージング、インコーポレイテッド | Imaging system for detection of intraoperative contrast agents in tissue - Patents.com |
JPWO2022049663A1 (en) * | 2020-09-02 | 2022-03-10 | ||
CN116523919B (en) * | 2023-07-04 | 2023-09-12 | 武汉楚精灵医疗科技有限公司 | Method and device for determining abnormal degree coefficient of gland duct |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2622725B2 (en) * | 1988-07-25 | 1997-06-18 | 東亜医用電子株式会社 | Image processing method for extracting glandular cavity of gastric tissue |
JP2001059842A (en) * | 1999-08-25 | 2001-03-06 | Nec Corp | Pathological diagnostic apparatus |
JP2004286666A (en) * | 2003-03-24 | 2004-10-14 | Olympus Corp | Pathological diagnosis support apparatus and pathological diagnosis support program |
JP2005352571A (en) * | 2004-06-08 | 2005-12-22 | Olympus Corp | Image processing device |
JP5151403B2 (en) * | 2007-11-06 | 2013-02-27 | 日本電気株式会社 | Poorly differentiated cancer detection module, pathological image diagnosis support apparatus including the module, program, and recording medium |
JP2009210409A (en) * | 2008-03-04 | 2009-09-17 | Kddi Corp | Method and device for image area division |
WO2010041423A1 (en) * | 2008-10-09 | 2010-04-15 | 日本電気株式会社 | Histopathologic diagnosis support system, histopathologic diagnosis support program, and histopathologic diagnosis support method |
JP5387146B2 (en) * | 2009-06-03 | 2014-01-15 | 日本電気株式会社 | Pathological tissue image analysis apparatus, pathological tissue image analysis method, pathological tissue image analysis program |
WO2013187148A1 (en) * | 2012-06-15 | 2013-12-19 | オリンパス株式会社 | Image processing device, microscope system, endoscope system, and image processing method |
-
2017
- 2017-04-27 JP JP2017088231A patent/JP6819445B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018185265A (en) | 2018-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10909682B2 (en) | Method and device for detecting pulmonary nodule in computed tomography image, and computer-readable storage medium | |
CN109791693B (en) | Digital pathology system and related workflow for providing visualized whole-slice image analysis | |
JP6660313B2 (en) | Detection of nuclear edges using image analysis | |
CN109978890B (en) | Target extraction method and device based on image processing and terminal equipment | |
CN110705583B (en) | Cell detection model training method, device, computer equipment and storage medium | |
JP6819445B2 (en) | Information processing equipment, control methods, and programs | |
Gurcan et al. | Image analysis for neuroblastoma classification: segmentation of cell nuclei | |
US9607376B2 (en) | Method and apparatus for image scoring and analysis | |
CN107038704B (en) | Retina image exudation area segmentation method and device and computing equipment | |
CN108629761B (en) | Breast cancer image identification method and device and user terminal | |
JP5804220B1 (en) | Image processing apparatus and image processing program | |
KR20150051711A (en) | Apparatus and method for extracting skin area for blocking harmful content image | |
CN111091571A (en) | Nucleus segmentation method and device, electronic equipment and computer-readable storage medium | |
CN107146231B (en) | Retinal image bleeding area segmentation method and device and computing equipment | |
JP6743066B2 (en) | Tissue sample analysis technology | |
CN107123124B (en) | Retina image analysis method and device and computing equipment | |
JP2016507229A5 (en) | ||
CN110880177A (en) | Image identification method and device | |
Valous et al. | Multistage histopathological image segmentation of Iba1-stained murine microglias in a focal ischemia model: methodological workflow and expert validation | |
CN110473176B (en) | Image processing method and device, fundus image processing method and electronic equipment | |
Vyavahare et al. | Segmentation using region growing algorithm based on CLAHE for medical images | |
Oprisescu et al. | Automatic pap smear nuclei detection using mean-shift and region growing | |
WO2021139447A1 (en) | Abnormal cervical cell detection apparatus and method | |
Zulfikar et al. | Android application: skin abnormality analysis based on edge detection technique | |
US20230005148A1 (en) | Image analysis method, image analysis device, image analysis system, control program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6819445 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |