JP6819445B2 - Information processing equipment, control methods, and programs - Google Patents

Information processing equipment, control methods, and programs Download PDF

Info

Publication number
JP6819445B2
JP6819445B2 JP2017088231A JP2017088231A JP6819445B2 JP 6819445 B2 JP6819445 B2 JP 6819445B2 JP 2017088231 A JP2017088231 A JP 2017088231A JP 2017088231 A JP2017088231 A JP 2017088231A JP 6819445 B2 JP6819445 B2 JP 6819445B2
Authority
JP
Japan
Prior art keywords
region
layer
tissue
information processing
duct
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017088231A
Other languages
Japanese (ja)
Other versions
JP2018185265A (en
Inventor
弘泰 齊賀
弘泰 齊賀
朝春 喜友名
朝春 喜友名
慶子 吉原
慶子 吉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2017088231A priority Critical patent/JP6819445B2/en
Publication of JP2018185265A publication Critical patent/JP2018185265A/en
Application granted granted Critical
Publication of JP6819445B2 publication Critical patent/JP6819445B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Description

本発明は、病理画像の画像解析に関する。 The present invention relates to image analysis of pathological images.

人や動物を診断する方法の1つとして、病理画像を用いた病理診断が行われている。病理画像とは、人や動物の体内の組織をカメラで撮像することで得られる画像である。 As one of the methods for diagnosing humans and animals, pathological diagnosis using pathological images is performed. A pathological image is an image obtained by photographing a tissue in the body of a human or an animal with a camera.

そして、病理画像のデータ(以下、病理画像データ)を画像解析することで病変の検出などを行う技術が開発されている。例えば特許文献1は、腺管内の核の分布によって腺管の異形度を評価し、その評価結果を出力する技術を開示している。 Then, a technique for detecting a lesion or the like by image analysis of pathological image data (hereinafter, pathological image data) has been developed. For example, Patent Document 1 discloses a technique for evaluating the degree of deformity of a gland duct based on the distribution of nuclei in the gland duct and outputting the evaluation result.

特開2010−281636号公報Japanese Unexamined Patent Publication No. 2010-281636

病理診断に利用できる指標は、腺管の異形度だけではない。本発明者は、病理診断に利用できる新たな指標を見出した。本発明の目的の一つは、病理診断に利用できる新たな指標を病理画像データから得る技術を提供することである。 The degree of glandular dysplasia is not the only index that can be used for pathological diagnosis. The present inventor has found a new index that can be used for pathological diagnosis. One of the objects of the present invention is to provide a technique for obtaining a new index that can be used for pathological diagnosis from pathological image data.

本発明の情報処理装置は、1)病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出手段と、2)前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出手段と、を有する。 The information processing apparatus of the present invention is composed of 1) a first layer composed of normal gland ducts and a tumor gland duct from a tissue region included in the pathological image data by image processing the pathological image data. It has a detection means for detecting the second layer, and 2) a calculation means for calculating an index value based on the thickness or area of the first layer and the second layer.

本発明の制御方法は、コンピュータによって実行される。当該制御方法は、1)病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出ステップと、2)前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出ステップと、を有する。 The control method of the present invention is executed by a computer. The control method is as follows: 1) By image processing the pathological image data, a first layer composed of normal gland ducts and a second layer composed of tumor gland ducts are selected from the tissue region included in the pathological image data. It has a detection step for detecting and 2) a calculation step for calculating an index value based on the thickness or area of the first layer and the second layer.

本発明のプログラムは、本発明の制御方法が有する各ステップをコンピュータに実行させる。 The program of the present invention causes a computer to execute each step of the control method of the present invention.

本発明によれば、病理診断に利用できる新たな指標を病理画像データから得る技術が提供される。 According to the present invention, there is provided a technique for obtaining a new index that can be used for pathological diagnosis from pathological image data.

実施形態1の情報処理装置の動作を概念的に例示する図である。It is a figure which conceptually illustrates the operation of the information processing apparatus of Embodiment 1. 実施形態1の情報処理装置の機能構成を例示するブロック図である。It is a block diagram which illustrates the functional structure of the information processing apparatus of Embodiment 1. 情報処理装置を実現するための計算機を例示する図である。It is a figure which illustrates the computer for realizing the information processing apparatus. 実施形態1の情報処理装置によって実行される処理の流れを例示するフローチャートである。It is a flowchart which illustrates the flow of the process executed by the information processing apparatus of Embodiment 1. 組織領域から第1層及び第2層を検出する処理の流れを例示するフローチャートである。It is a flowchart which illustrates the flow of the process of detecting the 1st layer and the 2nd layer from a tissue area. 膨張処理の効果を例示する図である。It is a figure which illustrates the effect of the expansion process. 腺管領域であるか否かの判定が行われた後の病理画像データを概念的に例示する図である。It is a figure which conceptually illustrates the pathological image data after the determination whether or not it is a duct region. 閉領域の周辺領域を例示する図である。It is a figure which illustrates the peripheral area of a closed area. 組織の表面から最も遠い、腫瘍腺管の腺管領域の画素を検出する方法を概念的に例示する図である。It is a figure which conceptually illustrates the method of detecting the pixel of the duct region of a tumor duct farthest from the surface of a tissue. 第1層を例示する図である。It is a figure which illustrates the 1st layer. 第2層を例示する図である。It is a figure which illustrates the 2nd layer. 実施形態2の情報処理装置の機能構成を例示する図である。It is a figure which illustrates the functional structure of the information processing apparatus of Embodiment 2.

以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また各ブロック図において、特に説明がない限り、各ブロックは、ハードウエア単位の構成ではなく機能単位の構成を表している。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all drawings, similar components are designated by the same reference numerals, and description thereof will be omitted as appropriate. Further, in each block diagram, unless otherwise specified, each block represents a functional unit configuration rather than a hardware unit configuration.

[実施形態1]
図1は、実施形態1の情報処理装置2000の動作を概念的に例示する図である。なお、図1は、情報処理装置2000の理解を容易にするためにその動作の一例を示しているにすぎず、情報処理装置2000の機能を何ら限定するものではない。
[Embodiment 1]
FIG. 1 is a diagram conceptually illustrating the operation of the information processing apparatus 2000 of the first embodiment. Note that FIG. 1 merely shows an example of the operation of the information processing apparatus 2000 in order to facilitate understanding, and does not limit the functions of the information processing apparatus 2000 at all.

情報処理装置2000は、病理画像データ10を画像処理する。病理画像データ10は、診断対象の人その他の動物(以下、患者)の体内の組織をカメラで撮像することで得られる画像データである。より具体的には、例えば病理画像データ10は、患者の体内から組織を採取し、その組織を顕微鏡で拡大し、拡大された組織をカメラで撮像することによって得られる。 The information processing device 2000 performs image processing on the pathological image data 10. The pathological image data 10 is image data obtained by photographing a tissue in the body of a person or other animal (hereinafter referred to as a patient) to be diagnosed with a camera. More specifically, for example, pathological image data 10 is obtained by collecting tissue from the patient's body, magnifying the tissue with a microscope, and imaging the magnified tissue with a camera.

情報処理装置2000は、病理画像データ10に含まれる組織を表す画像領域(以下、組織領域)から、正常な腺管で構成される層(以下、第1層)と、腫瘍腺管で構成される層(以下、第2層)を検出する。例えば図1の病理画像データ10では、組織領域20から、第1層22と第2層24が検出される。ここで、腫瘍腺管は、例えば「腺頸部に位置する増殖部を逸脱して腫瘍細胞が増殖した腺管」として定義される。なお、増殖部では腺管が腫瘍か非腫瘍か判別が難しいため、腫瘍が含まれる腺管をすべて腫瘍腺管として扱うのではなく、腫瘍が多く含まれる腺管を腫瘍腺管として扱ってもよい。正常な腺管は、腫瘍腺管以外の腺管である。 The information processing apparatus 2000 is composed of an image region (hereinafter, tissue region) representing a tissue included in the pathological image data 10, a layer composed of normal gland ducts (hereinafter, first layer), and a tumor duct. Layer (hereinafter referred to as the second layer) is detected. For example, in the pathological image data 10 of FIG. 1, the first layer 22 and the second layer 24 are detected from the tissue region 20. Here, the tumor duct is defined as, for example, "a duct in which tumor cells proliferate outside the proliferative part located in the glandular neck". Since it is difficult to distinguish whether a duct is a tumor or a non-tumor in the proliferating part, it is possible to treat a duct containing a large amount of tumor as a tumor duct instead of treating all the ducts containing a tumor as a tumor duct. Good. Normal ducts are ducts other than tumor ducts.

情報処理装置2000は、検出した第1層22と第2層24とに基づく指標値を算出する。例えば情報処理装置2000は、第1層22と第2層24の厚さ、又は検出した第1層22と第2層24の面積に基づく指標値を算出する。 The information processing apparatus 2000 calculates an index value based on the detected first layer 22 and second layer 24. For example, the information processing apparatus 2000 calculates an index value based on the thickness of the first layer 22 and the second layer 24, or the detected area of the first layer 22 and the second layer 24.

このように本実施形態の情報処理装置2000によれば、病理画像データ10から、正常腺管で構成される第1層22と、腫瘍腺管で構成される第2層24とが検出され、これら検出された第1層22と第2層24に基づく指標値が算出される。このように、本実施形態の情報処理装置2000によれば、病理診断に利用できる新たな指標が提供される。 As described above, according to the information processing apparatus 2000 of the present embodiment, the first layer 22 composed of normal gland ducts and the second layer 24 composed of tumor ducts are detected from the pathological image data 10. Index values based on the detected first layer 22 and second layer 24 are calculated. As described above, according to the information processing apparatus 2000 of the present embodiment, a new index that can be used for pathological diagnosis is provided.

例えば上記指標値は、腫瘍が組織表面からどの程度の深さまで浸潤しているか(浸潤の深さ)を定量的に表すための指標として利用できる。浸潤の深さは、転移・再発リスクの評価や、治療方法の選択をする上で重要な因子であり、これを定量的に表すことは臨床的に意義がある。 For example, the above index value can be used as an index for quantitatively expressing how deep the tumor has invaded from the tissue surface (depth of infiltration). The depth of infiltration is an important factor in assessing the risk of metastasis / recurrence and selecting a treatment method, and it is clinically significant to express this quantitatively.

以下、本実施形態についてさらに詳細を述べる。 Hereinafter, the present embodiment will be described in more detail.

<機能構成の例>
図2は、情報処理装置2000の機能構成を例示するブロック図である。情報処理装置2000は、検出部2020及び算出部2040を有する。検出部2020は、病理画像データ10を画像処理することで、病理画像データ10に含まれる組織領域20から、正常腺管で構成される第1層22、及び腫瘍腺管で構成される第2層24を検出する。算出部2040は、検出した第1層22及び第2層24に基づく指標値を算出する。
<Example of functional configuration>
FIG. 2 is a block diagram illustrating the functional configuration of the information processing apparatus 2000. The information processing device 2000 has a detection unit 2020 and a calculation unit 2040. The detection unit 2020 performs image processing on the pathological image data 10 to obtain a first layer 22 composed of normal gland ducts and a second layer composed of tumor ducts from the tissue region 20 included in the pathological image data 10. Layer 24 is detected. The calculation unit 2040 calculates the index value based on the detected first layer 22 and second layer 24.

<情報処理装置2000のハードウエア構成の例>
情報処理装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、情報処理装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
<Example of hardware configuration of information processing device 2000>
Each functional component of the information processing apparatus 2000 may be realized by hardware (eg, a hard-wired electronic circuit) that realizes each functional component, or a combination of hardware and software (eg, example). It may be realized by a combination of an electronic circuit and a program that controls it). Hereinafter, a case where each functional component of the information processing apparatus 2000 is realized by a combination of hardware and software will be further described.

図3は、情報処理装置2000を実現するための計算機1000を例示する図である。計算機1000は、任意の種類の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、情報処理装置2000を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。 FIG. 3 is a diagram illustrating a calculator 1000 for realizing the information processing apparatus 2000. The calculator 1000 is any kind of calculator. For example, the computer 1000 is a personal computer (PC), a server machine, a tablet terminal, a smartphone, or the like. The computer 1000 may be a dedicated computer designed to realize the information processing device 2000, or may be a general-purpose computer.

計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。プロセッサ1040は、CPU(Central Processing Unit)や GPU(Graphics Processing Unit)などの演算処理装置である。メモリ1060は、RAM(Random Access Memory)などで実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、ROM、又はメモリカードなどで実現される補助記憶装置である。ただしストレージデバイス1080は、RAM など、主記憶装置の実現に用いられるハードウエアと同様のハードウエアで実現されてもよい。 The computer 1000 includes a bus 1020, a processor 1040, a memory 1060, a storage device 1080, an input / output interface 1100, and a network interface 1120. The bus 1020 is a data transmission line for the processor 1040, the memory 1060, the storage device 1080, the input / output interface 1100, and the network interface 1120 to transmit and receive data to and from each other. The processor 1040 is an arithmetic processing unit such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The memory 1060 is a main storage device realized by RAM (Random Access Memory) or the like. The storage device 1080 is an auxiliary storage device realized by a hard disk, an SSD (Solid State Drive), a ROM, a memory card, or the like. However, the storage device 1080 may be realized by the same hardware as the hardware used for realizing the main storage device, such as RAM.

入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボード、マウス、又はディスプレイ装置などが接続される。 The input / output interface 1100 is an interface for connecting the computer 1000 and the input / output device. For example, a keyboard, mouse, display device, or the like is connected to the input / output interface 1100.

ネットワークインタフェース1120は、WAN(Wide Area Network)や LAN(Local Area Network)などの通信網に接続するためのインタフェースである。 The network interface 1120 is an interface for connecting to a communication network such as WAN (Wide Area Network) or LAN (Local Area Network).

ストレージデバイス1080は情報処理装置2000の各機能を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、そのプログラムモジュールに対応する各機能を実現する。 The storage device 1080 stores a program module that realizes each function of the information processing device 2000. The processor 1040 reads each of these program modules into the memory 1060 and executes them to realize each function corresponding to the program module.

<処理の流れ>
図4は、実施形態1の情報処理装置2000によって実行される処理の流れを例示するフローチャートである。情報処理装置2000は、病理画像データ10を取得する(S102)。検出部2020は、病理画像データ10を画像処理することで、病理画像データ10に含まれる組織領域20から、正常腺管で構成される第1層22、及び腫瘍腺管で構成される第2層24を検出する(S104)。算出部2040は、検出した第1層22及び第2層24に基づく指標値を算出する(S106)。
<Processing flow>
FIG. 4 is a flowchart illustrating a flow of processing executed by the information processing apparatus 2000 of the first embodiment. The information processing device 2000 acquires the pathological image data 10 (S102). The detection unit 2020 performs image processing on the pathological image data 10 to obtain a first layer 22 composed of normal gland ducts and a second layer composed of tumor ducts from the tissue region 20 included in the pathological image data 10. Layer 24 is detected (S104). The calculation unit 2040 calculates an index value based on the detected first layer 22 and second layer 24 (S106).

<病理画像データ10の取得:S102>
情報処理装置2000は、画像解析の対象とする病理画像データ10を取得する(S102)。情報処理装置2000が病理画像データ10を取得する方法は任意である。例えば情報処理装置2000は、病理画像データ10が記憶されている記憶装置にアクセスすることで、病理画像データ10を取得する。病理画像データ10が記憶されている記憶装置は、病理画像データ10を生成するカメラの内部に設けられていてもよいし、そのカメラの外部に設けられていてもよい。また例えば、情報処理装置2000は、カメラから送信される病理画像データ10を受信することで、病理画像データ10を取得してもよい。
<Acquisition of pathological image data 10: S102>
The information processing apparatus 2000 acquires the pathological image data 10 to be image-analyzed (S102). The method by which the information processing apparatus 2000 acquires the pathological image data 10 is arbitrary. For example, the information processing device 2000 acquires the pathological image data 10 by accessing the storage device in which the pathological image data 10 is stored. The storage device in which the pathological image data 10 is stored may be provided inside the camera that generates the pathological image data 10, or may be provided outside the camera. Further, for example, the information processing apparatus 2000 may acquire the pathological image data 10 by receiving the pathological image data 10 transmitted from the camera.

<第1層22及び第2層24の検出:S104>
検出部2020は、病理画像データ10に含まれる組織領域20から、第1層22及び第2層24を検出する(S104)。第1層22及び第2層24の検出は、例えば図5に示す流れで行われる。図5は、組織領域20から第1層22及び第2層24を検出する処理の流れを例示するフローチャートである。
<Detection of first layer 22 and second layer 24: S104>
The detection unit 2020 detects the first layer 22 and the second layer 24 from the tissue region 20 included in the pathological image data 10 (S104). The detection of the first layer 22 and the second layer 24 is performed, for example, in the flow shown in FIG. FIG. 5 is a flowchart illustrating a flow of processing for detecting the first layer 22 and the second layer 24 from the tissue area 20.

検出部2020は、病理画像データ10から組織領域20を抽出する(S202)。検出部2020は、組織領域20から腺管を表す領域(以下、腺管領域)を抽出する(S204)。検出部2020は、組織領域20から抽出された各腺管領域を、正常腺管の腺管領域と、腫瘍腺管の腺管領域に分類する(S206)。検出部2020は、S206による分類の結果に基づき、組織領域20から第1層22と第2層24を検出する(S208)。 The detection unit 2020 extracts the tissue region 20 from the pathological image data 10 (S202). The detection unit 2020 extracts a region representing a gland duct (hereinafter, gland duct region) from the tissue region 20 (S204). The detection unit 2020 classifies each gland duct region extracted from the tissue region 20 into a duct region of a normal duct and a duct region of a tumor duct (S206). The detection unit 2020 detects the first layer 22 and the second layer 24 from the tissue region 20 based on the result of classification by S206 (S208).

以下、図5のフローチャートにおける各ステップについてさらに詳細に説明する。 Hereinafter, each step in the flowchart of FIG. 5 will be described in more detail.

<組織領域20の抽出:S202>
検出部2020は、病理画像データ10から組織領域20を抽出する(S202)。ここで、病理画像データ10に含まれる組織には、ヘマトキシリン・エオシン染色が施されているとする。
<Extraction of tissue area 20: S202>
The detection unit 2020 extracts the tissue region 20 from the pathological image data 10 (S202). Here, it is assumed that the tissue included in the pathological image data 10 is stained with hematoxylin / eosin.

病理画像データ10において、組織領域20以外の画像領域は、染色された組織が含まれない部分であり、いわゆる背景領域として扱える。一方、病理画像データ10において、組織領域20は前景領域として扱える。そこで検出部2020は、病理画像データ10について背景分離を行い、その結果として得られる前景領域を、組織領域20として抽出する。 In the pathological image data 10, the image region other than the tissue region 20 is a portion that does not include the stained tissue and can be treated as a so-called background region. On the other hand, in the pathological image data 10, the tissue region 20 can be treated as a foreground region. Therefore, the detection unit 2020 separates the background of the pathological image data 10 and extracts the foreground region obtained as a result as the tissue region 20.

まず検出部2020は、染色のばらつきが小さくなるように、病理画像データ10の色補正(例えばガンマ補正)を行う。そして検出部2020は、病理画像データ10を前景領域と背景領域に分け、前景領域を組織領域20として抽出する。背景分離の具体的な方法には、既存の種々の方法を利用できる。なお、病理画像データ10の色補正は必ずしも行う必要はない。 First, the detection unit 2020 performs color correction (for example, gamma correction) of the pathological image data 10 so that the variation in staining becomes small. Then, the detection unit 2020 divides the pathological image data 10 into a foreground region and a background region, and extracts the foreground region as the tissue region 20. As a concrete method of background separation, various existing methods can be used. It is not always necessary to perform color correction of the pathological image data 10.

ここで、検出部2020は、背景分離を行う際、病理画像データ10に対して膨張処理を行うことが好ましい。図6は、膨張処理の効果を例示する図である。図6において、膨張処理を行わずに背景分離を行うと、組織表面周辺の窪んだ部分が組織領域20に含まれない。一方、膨張処理後に背景分離を行うと、組織表面周辺の窪んだ部分も組織領域20に含まれるようになる。よって、膨張処理を行うことで、組織表面周辺の窪んだ部分に存在する腺管領域が、後述する腺管領域の抽出対象から除外されてしまうことを防ぐことができる。つまり、組織表面にある腺管領域も後述の処理で抽出できるようになる。 Here, it is preferable that the detection unit 2020 performs an expansion process on the pathological image data 10 when performing background separation. FIG. 6 is a diagram illustrating the effect of the expansion treatment. In FIG. 6, when the background separation is performed without performing the expansion treatment, the recessed portion around the tissue surface is not included in the tissue region 20. On the other hand, when the background is separated after the expansion treatment, the recessed portion around the tissue surface is also included in the tissue region 20. Therefore, by performing the expansion treatment, it is possible to prevent the gland duct region existing in the recessed portion around the tissue surface from being excluded from the extraction target of the gland duct region described later. That is, the gland duct region on the tissue surface can also be extracted by the treatment described later.

<腺管領域の抽出:S204>
検出部2020は、組織領域20から腺管領域を抽出する(S204)。そのために、まず検出部2020は、組織領域20から、腺管領域の境界線であると推測される線(以下、候補境界線)を抽出する。組織領域20には、ここで抽出される候補境界線で囲われる閉領域が1つ以上含まれる。そこで検出部2020は、これら1つ以上の閉領域それぞれについて、腺管領域であるか否かを判定する。そして検出部2020は、腺管領域であると判定された閉領域を、腺管領域として抽出する。
<Extraction of gland duct region: S204>
The detection unit 2020 extracts the gland duct region from the tissue region 20 (S204). Therefore, the detection unit 2020 first extracts a line presumed to be the boundary line of the gland duct region (hereinafter referred to as a candidate boundary line) from the tissue region 20. The tissue region 20 includes one or more closed regions surrounded by the candidate boundaries extracted here. Therefore, the detection unit 2020 determines whether or not each of these one or more closed regions is a ductal region. Then, the detection unit 2020 extracts the closed region determined to be the gland duct region as the gland duct region.

<<候補境界線の抽出>>
検出部2020は、組織領域20に含まれるエッジを検出するエッジ検出を行い、検出されたエッジを候補境界線として抽出する。ここでは、エッジとして扱うのは、ヘマトキシリンで染色された画像領域である。例えば検出部2020は、病理画像データ10をヘマトキシリン、エオシン、白、及び赤の4値で構成される画像に変換する(4値化する)ことにより、病理画像データ10から、ヘマトキシリンで染色された画像領域を得る。なお、エッジ検出の具体的な方法には既存の技術を利用することができる。
<< Extraction of candidate boundaries >>
The detection unit 2020 performs edge detection for detecting an edge included in the tissue region 20, and extracts the detected edge as a candidate boundary line. Here, what is treated as an edge is an image region stained with hematoxylin. For example, the detection unit 2020 was stained with hematoxylin from the pathological image data 10 by converting (quadrupling) the pathological image data 10 into an image composed of four values of hematoxylin, eosin, white, and red. Get the image area. It should be noted that existing technology can be used as a specific method for edge detection.

エッジ検出の際、検出部2020は、エッジ強調フィルタを利用してエッジを強調する処理を行ってもよい。これにより、例えば腺管領域の境界線の一部が途切れて写ってしまっている場合であっても、その途切れてしまっている部分をつなげることができるため、このような腺管領域を病理画像データ10から検出できるようになる。 At the time of edge detection, the detection unit 2020 may perform a process of emphasizing the edge by using an edge enhancement filter. As a result, for example, even if a part of the boundary line of the gland duct region is interrupted and captured, the interrupted portion can be connected, so that such a duct region can be used as a pathological image. It can be detected from the data 10.

エッジ強調の強さ(エッジ強調フィルタのパラメタ)は、予め静的に定められていてもよいし、検出部2020によって動的に決定されてもよい。後者の場合、検出部2020は、病理画像データ10から得られる情報を利用してエッジ強調の強さを決定する。例えば検出部2020は、ヘマトキシリンで染色された領域の面積 Sh と、エオシンで染色された領域の面積 Se とに基づいて、エッジ強調の強さを決定する。より具体的には、Sh/(Sh+Se) の値が小さいほど、エッジ強調の強さを強くする。こうすることで、病理画像データ10の中にヘマトキシリンで染色された部分が少ないほどその部分が増える(エッジを強調される)ように病理画像データ10が補正される。 The strength of edge enhancement (parameter of the edge enhancement filter) may be statically determined in advance, or may be dynamically determined by the detection unit 2020. In the latter case, the detection unit 2020 determines the strength of edge enhancement using the information obtained from the pathological image data 10. For example, the detection unit 2020 determines the strength of edge enhancement based on the area Sh of the hematoxylin-stained area and the area Se of the eosin-stained area. More specifically, the smaller the value of Sh / (Sh + Se), the stronger the strength of edge enhancement. By doing so, the pathological image data 10 is corrected so that the smaller the portion stained with hematoxylin in the pathological image data 10, the larger the portion (the edge is emphasized).

ここで、検出部2020は、候補境界線の抽出を行う前に、組織領域20からリンパ球領域で表される画像領域(以下、リンパ球領域)を除去する処理を行うことが好適である。リンパ球もヘマトキシリンで染色されるため、リンパ球領域もエッジ検出処理によってエッジとして抽出されてしまう可能性があるためである。 Here, it is preferable that the detection unit 2020 performs a process of removing the image region represented by the lymphocyte region (hereinafter, lymphocyte region) from the tissue region 20 before extracting the candidate boundary line. This is because lymphocytes are also stained with hematoxylin, so that the lymphocyte region may also be extracted as an edge by the edge detection process.

病理画像データ10からリンパ球領域を検出する方法には、様々な方法を利用することができる。例えば検出部2020は、機械学習を利用して病理画像データ10からリンパ球領域を検出する。具体的には、リンパ球領域をラベリングした教師データを利用することで、画像データからリンパ球領域を検出する検出器を予め作成しておく。そして検出部2020は、この検出器に病理画像データ10を入力することで得られるリンパ球領域を、病理画像データ10から除去する。上記機械学習には、ディープラーニングを利用することが好適である。 Various methods can be used for detecting the lymphocyte region from the pathological image data 10. For example, the detection unit 2020 detects a lymphocyte region from the pathological image data 10 by using machine learning. Specifically, a detector that detects a lymphocyte region from image data is created in advance by using teacher data that labels the lymphocyte region. Then, the detection unit 2020 removes the lymphocyte region obtained by inputting the pathological image data 10 into the detector from the pathological image data 10. It is preferable to use deep learning for the above machine learning.

<<腺管領域であるか否かの判定>>
検出部2020は、候補境界線で囲まれた閉領域それぞれについて、腺管領域であるか否かの判定を行う。図7は、腺管領域であるか否かの判定が行われた後の病理画像データ10を概念的に例示する図である。図7において、閉領域30は点線の枠で囲われている領域であり、腺管領域32は実線の枠で囲われている領域である。図7において、病理画像データ10に含まれる閉領域30の一部が、腺管領域32として検出されている。
<< Judgment of whether or not it is a ductal region >>
The detection unit 2020 determines whether or not each of the closed regions surrounded by the candidate boundary line is a ductal region. FIG. 7 is a diagram conceptually illustrating the pathological image data 10 after the determination as to whether or not it is a ductal region is performed. In FIG. 7, the closed region 30 is a region surrounded by a dotted line frame, and the gland duct region 32 is a region surrounded by a solid line frame. In FIG. 7, a part of the closed region 30 included in the pathological image data 10 is detected as the ductal region 32.

閉領域30が腺管領域32であるか否かの判定は、例えば機械学習を利用して実現する。例えば、腺管領域をラベリングした画像データを教師データとして利用することで、閉領域が腺管領域であるか否かを識別する識別器を作成しておく。識別器は、例えばサポートベクタマシンとして実現する。 The determination of whether or not the closed region 30 is the ductal region 32 is realized by using, for example, machine learning. For example, by using the image data labeled with the gland duct region as teacher data, a discriminator for identifying whether or not the closed region is the gland duct region is created. The classifier is realized as, for example, a support vector machine.

識別器は、閉領域30の内部や周辺から得られる特徴量に基づいて、閉領域30が腺管領域であるか否かを識別する。例えばこの特徴量としては、1)閉領域30内におけるリンパ球領域の面積の割合、2)閉領域30内における白色領域の面積の割合、3)閉領域30内における間質領域の面積の割合、4)閉領域30内における細胞質の面積の割合、5)閉領域30内の白色領域における灰色領域の面積の割合、6)閉領域30の周辺領域におけるリンパ球領域の面積の割合、及び7)閉領域30の周辺領域における細胞核領域の面積の割合のうち、いずれか1つ以上を利用することができる。なお、周辺領域については後述する。 The discriminator discriminates whether or not the closed region 30 is a ductal region based on the feature amount obtained from the inside or the periphery of the closed region 30. For example, as this feature amount, 1) the ratio of the area of the lymphocyte region in the closed region 30, 2) the ratio of the area of the white region in the closed region 30, and 3) the ratio of the area of the stromal region in the closed region 30. 4) Percentage of cytoplasmic area within the closed region 30, 5) Percentage of gray area in the white region within the closed region 30, 6) Percentage of lymphocyte area in the peripheral region of the closed region 30, and 7 ) Any one or more of the ratio of the area of the cell nucleus region to the peripheral region of the closed region 30 can be used. The peripheral area will be described later.

ここで、閉領域30における白色領域は、閉領域30に含まれる画素のうち、所定の第1閾値以上の輝度を持つ画素で構成される画像領域である。例えば検出部2020は、前述した4値化が施された病理画像データ10を用い、4値化された閉領域30に含まれる白色の画素で構成される領域を、白色領域として抽出する。第1閾値は任意の値とすることができる。第1閾値は、検出部2020に予め設定されていてもよいし、検出部2020からアクセス可能な記憶装置に記憶させておいてもよい。 Here, the white region in the closed region 30 is an image region composed of pixels having a brightness equal to or higher than a predetermined first threshold value among the pixels included in the closed region 30. For example, the detection unit 2020 uses the above-mentioned quaternized pathological image data 10 to extract a region composed of white pixels included in the quaternized closed region 30 as a white region. The first threshold value can be any value. The first threshold value may be set in advance in the detection unit 2020, or may be stored in a storage device accessible from the detection unit 2020.

閉領域30における灰色領域は、閉領域30に含まれる画素のうち、上記第1閾値以上かつ第2閾値以下の輝度を持つ画素で構成される画像領域である。つまり、灰色領域は、白色領域を構成する画素のうち、比較的輝度が低い画素で構成される画像領域である。第2閾値は、第1閾値以上の任意の値とすることができる。第2閾値は、検出部2020に予め設定されていてもよいし、検出部2020からアクセス可能な記憶装置に記憶させておいてもよい。 The gray area in the closed area 30 is an image area composed of pixels having a brightness equal to or higher than the first threshold value and lower than the second threshold value among the pixels included in the closed area 30. That is, the gray region is an image region composed of pixels having relatively low brightness among the pixels constituting the white region. The second threshold value can be any value equal to or higher than the first threshold value. The second threshold value may be set in advance in the detection unit 2020, or may be stored in a storage device accessible from the detection unit 2020.

閉領域30内における間質領域は、例えば次のようにして得られる領域である。まず検出部2020は、病理画像データ10をヘマトキシリン、エオシン、白、及び赤の4値で構成される画像に4値化することにより、病理画像データ10から、エオシンで染色された画像領域を得る。ただし、既に病理画像データ10を4値化した画像が生成されている場合には、その画像を利用できる。そして検出部2020は、エオシンで染色された画像領域のうち、色相の値が所定の閾値以上の画像領域であって、なおかつ閉領域30内にある画像領域を、閉領域30内における間質領域として得る。 The interstitial region in the closed region 30 is a region obtained as follows, for example. First, the detection unit 2020 obtains an eosin-stained image region from the pathological image data 10 by quaternizing the pathological image data 10 into an image composed of four values of hematoxylin, eosin, white, and red. .. However, if an image obtained by digitizing the pathological image data 10 has already been generated, that image can be used. Then, the detection unit 2020 sets an image region having a hue value equal to or higher than a predetermined threshold value among the image regions stained with eosin and being within the closed region 30 as an interstitial region within the closed region 30. Get as.

上記閾値は、予め定められている値であってもよいし、動的に決定される値であってもよい。後者の場合、例えば検出部2020は、次のようにして上記閾値を決定する。まず検出部2020は、細胞核領域の複数の画素(例えば100個の画素)の色の平均色を算出する。上記平均色は、細胞核領域の複数の画素の R 値の平均値、G の値の平均値、及び B の値の平均値で構成される色である。検出部2020は、病理画像データ10の各画素の色と上記平均色とについて、R 値、G 値、及び B 値で構成される3次元座標におけるユークリッド距離を算出する。そして、このユークリッド距離が0以上255以下の範囲となるように正規化する。このように各画素について算出したユークリッド距離を正規化して得られる値で構成される画像データを、距離画像データと呼ぶ。検出部2020は、距離画像データについて、所定値より小さい画素で構成される画像領域 S を特定する。 The threshold value may be a predetermined value or a dynamically determined value. In the latter case, for example, the detection unit 2020 determines the threshold value as follows. First, the detection unit 2020 calculates the average color of the colors of a plurality of pixels (for example, 100 pixels) in the cell nucleus region. The average color is a color composed of an average value of R values, an average value of G values, and an average value of B values of a plurality of pixels in the cell nucleus region. The detection unit 2020 calculates the Euclidean distance in the three-dimensional coordinates composed of the R value, the G value, and the B value for the color of each pixel of the pathological image data 10 and the average color. Then, the Euclidean distance is normalized so as to be in the range of 0 or more and 255 or less. The image data composed of the values obtained by normalizing the Euclidean distance calculated for each pixel in this way is called the distance image data. The detection unit 2020 identifies an image region S composed of pixels smaller than a predetermined value for the distance image data.

さらに検出部2020は、病理画像データ10について、エオシンで染色されており、なおかつ色相が閾値 t より大きい画像領域 R を特定する。検出部2020は、閾値 t を小さくしながら画像領域 R の特定を繰り返し、画像領域 R と S が重なるようにする。そして、画像領域 R と S が重なった時の閾値 t 又は重なる直前の閾値 t を、閉領域30内における間質領域を得るための閾値とする。なお、閾値 t の初期値は、例えば色相の最大値とする。 Further, the detection unit 2020 identifies an image region R in which the pathological image data 10 is stained with eosin and whose hue is larger than the threshold value t. The detection unit 2020 repeatedly identifies the image area R while reducing the threshold value t so that the image areas R and S overlap. Then, the threshold value t when the image regions R and S overlap or the threshold value t immediately before the overlap is set as the threshold value for obtaining the interstitial region in the closed region 30. The initial value of the threshold value t is, for example, the maximum value of hue.

ここで、距離画像データから得られた画像領域 S は、おおまかに推定した腺管領域を表す。よって、上述の方法により、色相が高いエオシン領域であって、なおかつおおまかに推定した腺管領域と重ならない領域が、間質領域として得られる。 Here, the image region S obtained from the distance image data represents a roughly estimated duct region. Therefore, by the above method, an eosin region having a high hue and a region that does not overlap with the roughly estimated gland duct region can be obtained as an interstitial region.

閉領域30内における細胞質領域は、閉領域30内の領域のうち、間質領域を除いた部分である。 The cytoplasmic region in the closed region 30 is a portion of the region in the closed region 30 excluding the interstitial region.

閉領域30の周辺領域は、例えば閉領域30を囲む所定の幅の領域として定義される。図8は、閉領域30の周辺領域を例示する図である。図8において、周辺領域40は、閉領域30を囲む幅 d の領域である。 The peripheral region of the closed region 30 is defined as, for example, a region having a predetermined width surrounding the closed region 30. FIG. 8 is a diagram illustrating a peripheral region of the closed region 30. In FIG. 8, the peripheral region 40 is a region having a width d surrounding the closed region 30.

リンパ球領域を特定する方法は、前述した通りである。また、周辺領域40内の細胞核領域は、周辺領域40からリンパ球領域を除去した領域である。 The method for identifying the lymphocyte region is as described above. The cell nucleus region in the peripheral region 40 is a region in which the lymphocyte region is removed from the peripheral region 40.

<腺管領域の分類:S206>
検出部2020は、抽出された腺管領域32を、正常な腺管領域と腫瘍の腺管領域とに分類する(S206)。そのために、検出部2020は、1つの腺管領域32の周辺領域40に含まれる各細胞核について、正常な細胞の細胞核であるか腫瘍細胞の細胞核であるかを判別する。そして検出部2020は、或る腺管領域32の周辺領域40に含まれる正常な細胞の細胞核の数と腫瘍細胞の細胞核の数とに基づいて、その腺管領域32が正常な腺管領域と腫瘍の腺管領域のどちらであるかを識別する。
<Classification of gland duct region: S206>
The detection unit 2020 classifies the extracted duct region 32 into a normal duct region and a tumor duct region (S206). Therefore, the detection unit 2020 determines whether each cell nucleus contained in the peripheral region 40 of one ductal region 32 is a cell nucleus of a normal cell or a cell nucleus of a tumor cell. Then, the detection unit 2020 sets the glandular region 32 as a normal glandular region based on the number of cell nuclei of normal cells and the number of cell nuclei of tumor cells contained in the peripheral region 40 of a certain glandular region 32. Identify which is the ductal region of the tumor.

正常な細胞の細胞核と腫瘍細胞の細胞核を識別する方法には、様々な方法を利用できる。例えばこの識別には、機械学習を利用できる。この場合、例えば、正常な細胞の細胞核を表す画像データと腫瘍細胞の細胞核を表す画像データそれぞれを教師データとして利用することで、正常な細胞の細胞核と腫瘍細胞の細胞核を識別する識別器を予め構成しておく。そして、検出部2020は、この識別器に対して腺管領域32の周辺領域40を入力することで、周辺領域40に含まれる各細胞核について、正常な細胞の細胞核と腫瘍細胞の細胞核のどちらであるかの識別結果を得る。上記機械学習には、ディープラーニングを利用することが好適である。 Various methods can be used to distinguish between the cell nuclei of normal cells and the cell nuclei of tumor cells. For example, machine learning can be used for this identification. In this case, for example, by using the image data representing the cell nuclei of normal cells and the image data representing the cell nuclei of tumor cells as teacher data, a discriminator that discriminates between the cell nuclei of normal cells and the cell nuclei of tumor cells is prepared in advance. Configure it. Then, the detection unit 2020 inputs the peripheral region 40 of the gland duct region 32 to this discriminator, so that each cell nucleus contained in the peripheral region 40 is either a normal cell nucleus or a tumor cell nucleus. Obtain the identification result of whether or not there is. It is preferable to use deep learning for the above machine learning.

ここで、上記識別器は、細胞核を正常な細胞の細胞核と腫瘍細胞の細胞核に識別するだけでなく、細胞核を1)リンパ球の細胞核、2)リンパ球以外の正常な細胞の細胞核、3)腫瘍細胞の細胞核のいずれかに識別してもよい。この場合、上記識別器は、前述したリンパ球領域の除去にも利用することができる。 Here, the discriminator not only discriminates the cell nucleus into the cell nucleus of a normal cell and the cell nucleus of a tumor cell, but also 1) the cell nucleus of a lymphocyte, 2) the cell nucleus of a normal cell other than a lymphocyte, and 3). It may be identified in any of the cell nuclei of tumor cells. In this case, the discriminator can also be used to remove the lymphocyte region described above.

なお、細胞核を識別する方法は、機械学習を利用する方法に限定されず、既存の種々の方法を利用することもできる。 The method for identifying cell nuclei is not limited to the method using machine learning, and various existing methods can also be used.

前述したように、検出部2020は、腺管領域32の周辺領域40に含まれる正常な細胞の細胞核の数と腫瘍細胞の細胞核の数とに基づいて、その腺管領域32が正常な腺管領域と腫瘍の腺管領域のどちらであるかを識別する。その具体的な方法は様々である。例えば検出部2020は、腺管領域32の周辺領域40に含まれる細胞核の総数に対する、その周辺領域40に含まれる正常な細胞の細胞核の数の比率を算出する。そして、検出部2020は、算出した比率が所定値以上である場合に、その腺管領域32が正常な腺管領域であると判別する。一方、検出部2020は、算出した比率が所定値未満である場合に、その腺管領域32が腫瘍の腺管領域であると判別する。なお、「腺管領域32の周辺領域40に含まれる細胞核の総数」からは、リンパ球の細胞核の数を除いてもよい。 As described above, the detection unit 2020 has a gland duct in which the glandular region 32 is normal, based on the number of cell nuclei of normal cells and the number of cell nuclei of tumor cells contained in the peripheral region 40 of the glandular region 32. Identify whether it is a region or a ductal region of the tumor. There are various specific methods. For example, the detection unit 2020 calculates the ratio of the number of cell nuclei of normal cells contained in the peripheral region 40 to the total number of cell nuclei contained in the peripheral region 40 of the ductal region 32. Then, the detection unit 2020 determines that the gland duct region 32 is a normal gland duct region when the calculated ratio is equal to or higher than a predetermined value. On the other hand, when the calculated ratio is less than a predetermined value, the detection unit 2020 determines that the duct region 32 is the duct region of the tumor. The number of lymphocyte cell nuclei may be excluded from the "total number of cell nuclei contained in the peripheral region 40 of the gland duct region 32".

上記所定値を定める方法は様々である。例えば上記所定値は、医師の経験などに基づいて人手で設定される。その他にも例えば、上記所定値は、機械学習を利用して設定される。後者の場合、例えば腺管領域の画像データに、正常な腺管領域と腫瘍の腺管領域のどちらが含まれるかをラベリングした画像データを教師データとして用い、その画像データに含まれる腺管領域の周辺領域から検出される正常な細胞の細胞核の数と腫瘍細胞の細胞核の数とをカウントすることで、正常な腺管領域と腫瘍の腺管領域とを識別するための上記所定値を決定する。 There are various methods for determining the above-mentioned predetermined value. For example, the above predetermined value is manually set based on the experience of a doctor or the like. In addition, for example, the above-mentioned predetermined value is set by using machine learning. In the latter case, for example, image data labeled as to whether the image data of the gland duct region includes the normal duct region or the duct region of the tumor is used as the teacher data, and the image data of the duct region included in the image data is used. By counting the number of cell nuclei of normal cells detected from the peripheral region and the number of cell nuclei of tumor cells, the above-mentioned predetermined value for distinguishing between the normal duct region and the duct region of the tumor is determined. ..

<第1層22と第2層24の検出:S208>
検出部2020は、S206による分類の結果に基づき、組織領域20から第1層22と第2層24を検出する(S208)。前述したように、第1層22は、正常腺管の領域で構成される画像領域である。一方、第2層24は、腫瘍腺管の領域で構成される画像領域である。
<Detection of first layer 22 and second layer 24: S208>
The detection unit 2020 detects the first layer 22 and the second layer 24 from the tissue region 20 based on the result of classification by S206 (S208). As described above, the first layer 22 is an image region composed of a region of the normal gland duct. On the other hand, the second layer 24 is an image region composed of a region of the tumor gland duct.

<<第1層22の検出>>
検出部2020は、正常腺管の領域と腫瘍腺管の領域の間の境界線を(以下、第1境界線)を特定する。第1境界線は、例えば以下の方法で特定される。
<< Detection of first layer 22 >>
The detection unit 2020 identifies the boundary line between the region of the normal duct and the region of the tumor duct (hereinafter referred to as the first boundary line). The first boundary line is specified by, for example, the following method.

まず検出部2020は、病理画像データ10を構成する画素のマトリクスの各列について、組織の表面(組織領域20と背景領域との境界線)から最も遠い、腫瘍腺管の腺管領域の画素を検出する。図9は、組織の表面から最も遠い、腫瘍腺管の腺管領域の画素を検出する方法を概念的に例示する図である。図9には、病理画像データ10を構成する画素のマトリクスにおいて、同一列上に、3つの腫瘍腺管の腺管領域と、1つの正常腺管の腺管領域が存在する。そこで、検出部2020は、組織表面から最も遠い腫瘍腺管の腺管領域(上から3つ目の腺管領域)の下端の画素を、「組織の表面から最も遠い、腫瘍腺管の腺管領域の画素」として検出する。 First, the detection unit 2020 determines the pixels of the duct region of the tumor duct, which is the farthest from the surface of the tissue (the boundary line between the tissue region 20 and the background region), for each row of the pixel matrix constituting the pathological image data 10. To detect. FIG. 9 is a diagram conceptually illustrating a method of detecting pixels in the ductal region of a tumor duct, which is farthest from the surface of the tissue. In FIG. 9, in the matrix of pixels constituting the pathological image data 10, three tumor ductal duct regions and one normal ductal duct region are present in the same row. Therefore, the detection unit 2020 sets the pixel at the lower end of the duct region of the tumor duct farthest from the tissue surface (third duct region from the top) to "the duct of the tumor duct farthest from the tissue surface". Detected as "pixels in the area".

検出部2020は、上述の方法で各列から検出した画素を連結して、第1境界線を特定する。例えばこの連結は、線形補完によって行う。 The detection unit 2020 connects the pixels detected from each row by the above method to specify the first boundary line. For example, this connection is performed by linear interpolation.

ここで、検出部2020は、生成した第1境界線を平滑化する処理を行うことが好適である。例えばこの平滑化は、Lowess フィルタなどの種々の平滑化フィルタを利用して行うことができる。 Here, it is preferable that the detection unit 2020 performs a process of smoothing the generated first boundary line. For example, this smoothing can be performed by using various smoothing filters such as a Lowess filter.

検出部2020は、特定した第1境界線と、組織領域20の外枠(組織領域20と背景領域の境界線)で閉じられた画像領域を、腫瘍腺管の腺管領域で構成される第1層22として検出する。図10は、第1層22を例示する図である。 The detection unit 2020 comprises an image region closed by the identified first boundary line and the outer frame of the tissue area 20 (the boundary line between the tissue area 20 and the background area), and is composed of a glandular region of the tumor gland duct. Detected as 1 layer 22. FIG. 10 is a diagram illustrating the first layer 22.

<<第2層24の検出>>
検出部2020は、第2層24を検出するために、正常腺管の腺管領域と、組織領域20に含まれる腺管領域以外の画像領域との間の境界線(以下、第2境界線)を生成する。第2境界線は、第1境界線と同様の方法で例えば以下の方法で生成できる。具体的には、検出部2020は、病理画像データ10を構成する画素のマトリクスの各列について、組織の表面から最も遠い、正常腺管の腺管領域の画素を検出する。次に、検出部2020は、各列から検出した画素を連結して、第2境界線を生成する。なお、第1境界線と同様に、第2境界線についても平滑化を行うことが好適である。
<< Detection of second layer 24 >>
In order to detect the second layer 24, the detection unit 2020 has a boundary line between the gland duct region of the normal duct and an image region other than the duct region included in the tissue region 20 (hereinafter, the second boundary line). ) Is generated. The second boundary line can be generated in the same manner as the first boundary line, for example, by the following method. Specifically, the detection unit 2020 detects the pixels in the glandular region of the normal gland duct farthest from the surface of the tissue for each row of the pixel matrix constituting the pathological image data 10. Next, the detection unit 2020 connects the pixels detected from each row to generate a second boundary line. It is preferable to smooth the second boundary line as well as the first boundary line.

検出部2020は、第1境界線、第2境界線、及び組織領域20の外枠で閉じられた画像領域を、第2層24として検出する。図11は、第2層24を例示する図である。 The detection unit 2020 detects the image region closed by the outer frame of the first boundary line, the second boundary line, and the tissue area 20 as the second layer 24. FIG. 11 is a diagram illustrating the second layer 24.

<指標値の算出:S104>
算出部2040は、検出部2020によって検出された第1層22と第2層24に基づく指標値を算出する。この指標値としては、様々なものを採用できる。例えば算出部2040は、第1層22と第2層24の面積、又は検出した第1層22と第2層24の厚さに基づく指標値を算出する。前者の場合、例えば算出部2040は、腺管領域の層全体(第1層22と第2層24を合わせた領域)の面積に対する第1層22の面積の割合を指標値として算出する。例えば第1層22の面積を S1、第2層24の面積を S2 とおけば、指標値は S1/(S1+S2) となる。その他にも例えば、算出部2040は、第2層24の面積に対する第1層22の面積の比率(S1/S2)を指標値としてもよい。
<Calculation of index value: S104>
The calculation unit 2040 calculates an index value based on the first layer 22 and the second layer 24 detected by the detection unit 2020. Various index values can be adopted. For example, the calculation unit 2040 calculates an index value based on the area of the first layer 22 and the second layer 24 or the detected thickness of the first layer 22 and the second layer 24. In the former case, for example, the calculation unit 2040 calculates the ratio of the area of the first layer 22 to the area of the entire layer of the gland duct region (the area where the first layer 22 and the second layer 24 are combined) as an index value. For example, if the area of the first layer 22 is S1 and the area of the second layer 24 is S2, the index value is S1 / (S1 + S2). In addition, for example, the calculation unit 2040 may use the ratio of the area of the first layer 22 to the area of the second layer 24 (S1 / S2) as an index value.

一方、第1層22と第2層24の厚さから指標値を算出する場合、例えば情報処理装置2000は、腺管領域の層全体の厚さに対する第1層22の厚さを指標値として算出する。例えば第1層22の厚さを T1 、腺管領域の層全体の厚さを Ta とおけば、指標値は T1/Ta となる。その他にも例えば、算出部2040は、第2層24の厚さ T2 に対する第1層22の厚さ T1 の比率(T1/T2)を指標値としてもよい。 On the other hand, when the index value is calculated from the thicknesses of the first layer 22 and the second layer 24, for example, the information processing apparatus 2000 uses the thickness of the first layer 22 as the index value with respect to the thickness of the entire layer of the gland duct region. calculate. For example, if the thickness of the first layer 22 is T1 and the thickness of the entire layer of the gland duct region is Ta, the index value is T1 / Ta. In addition, for example, the calculation unit 2040 may use the ratio (T1 / T2) of the thickness T1 of the first layer 22 to the thickness T2 of the second layer 24 as an index value.

ここで、層の厚さを定める方法は様々である。例えば算出部2040は、病理画像データ10を構成する画素のマトリクスにおける各列について第1層22の厚さを算出し、算出された各列における厚さの統計値(平均値、最大値、又は最小値など)を、第1層22の厚さとする。第2層24の厚さや腺管領域の層全体の厚さについても同様である。 Here, there are various methods for determining the thickness of the layer. For example, the calculation unit 2040 calculates the thickness of the first layer 22 for each column in the matrix of pixels constituting the pathological image data 10, and calculates the statistical value (mean value, maximum value, or maximum value) of the thickness in each column. The minimum value, etc.) is defined as the thickness of the first layer 22. The same applies to the thickness of the second layer 24 and the thickness of the entire layer of the ductal region.

なお、指標値は必ずしも割合や比率で表される必要はない。例えば情報処理装置2000は、第1層22と第1層22の面積や厚さそのものを指標値としてもよい。 The index value does not necessarily have to be expressed as a ratio or ratio. For example, the information processing apparatus 2000 may use the area or thickness of the first layer 22 and the first layer 22 as an index value.

[実施形態2]
図12は、実施形態2の情報処理装置2000を例示するブロック図である。以下で説明する事項を除き、実施形態2の情報処理装置2000は、実施形態1の情報処理装置2000と同様である。
[Embodiment 2]
FIG. 12 is a block diagram illustrating the information processing apparatus 2000 of the second embodiment. Except for the matters described below, the information processing apparatus 2000 of the second embodiment is the same as the information processing apparatus 2000 of the first embodiment.

実施形態2の情報処理装置2000は出力制御部2060を有する。算出部2040によって算出された指標値に基づいて、出力装置に所定の出力を行わせる。 The information processing device 2000 of the second embodiment has an output control unit 2060. Based on the index value calculated by the calculation unit 2040, the output device is made to perform a predetermined output.

出力制御部2060は、算出部2040によって算出された指標値を必ず出力してもよいし、算出された指標値が所定の条件を満たす場合にのみその指標値を出力してもよい。例えば所定の条件は、指標値が所定の閾値以上の場合や、指標値が所定の閾値以下である場合などである。 The output control unit 2060 may always output the index value calculated by the calculation unit 2040, or may output the index value only when the calculated index value satisfies a predetermined condition. For example, the predetermined condition is a case where the index value is equal to or more than a predetermined threshold value, a case where the index value is equal to or less than a predetermined threshold value, and the like.

指標値と閾値との関係は、指標値をどのような値として算出するかによって決まる。例えば指標値として、腺管領域の層全体の面積や厚さに対する、腫瘍腺管の腺管領域の層(第1層22)の面積や厚さを利用する場合、組織領域20に腫瘍腺管が多く含まれるほど指標値が大きくなる傾向にある。そこで、例えば「指標値が所定の閾値以上である」という条件が満たされた場合に、出力制御部2060が指標値を出力するようにする。 The relationship between the index value and the threshold value is determined by what kind of value the index value is calculated as. For example, when the area and thickness of the gland duct region layer (first layer 22) of the tumor duct region is used as an index value with respect to the area and thickness of the entire layer of the gland duct region, the tumor duct region 20 is the tumor duct. The index value tends to increase as the amount of is contained. Therefore, for example, when the condition that "the index value is equal to or higher than a predetermined threshold value" is satisfied, the output control unit 2060 outputs the index value.

なお、上記所定の閾値は、予め出力制御部2060に設定されていてもよいし、出力制御部2060からアクセス可能な記憶装置に記憶させておいてもよい。 The predetermined threshold value may be set in advance in the output control unit 2060, or may be stored in a storage device accessible from the output control unit 2060.

出力制御部2060が指標値を出力する態様は様々である。例えば出力制御部2060は、ディスプレイ装置の表示画面に指標値を表示させる。この場合、出力制御部2060は、ディスプレイ装置を制御する。その他にも例えば、出力制御部2060は、スピーカから音声で指標値を出力させる。この場合、出力制御部2060はスピーカを制御する。その他にも例えば、出力制御部2060は、記憶装置に指標値を記憶させる。この場合、出力制御部2060は、記憶装置を制御する。 There are various modes in which the output control unit 2060 outputs the index value. For example, the output control unit 2060 displays an index value on the display screen of the display device. In this case, the output control unit 2060 controls the display device. In addition, for example, the output control unit 2060 outputs an index value by voice from the speaker. In this case, the output control unit 2060 controls the speaker. In addition, for example, the output control unit 2060 stores the index value in the storage device. In this case, the output control unit 2060 controls the storage device.

指標値は、いわゆる生データとしてそのまま出力されてもよいし、加工されて出力されてもよい。後者の場合、例えば出力制御部2060は、複数算出された指標値をまとめて表やグラフの形式で出力する。例えば、算出部2040が、同一の患者から得られた複数の病理画像データ10それぞれを用いて、指標値を算出するとする。この場合、出力制御部2060は、複数の病理画像データ10を用いて算出された各指標値で、表やグラフを作成する。その他にも例えば、出力制御部2060は、同一の患者について過去に算出された1つ以上の指標値で、表やグラフを作成する。 The index value may be output as it is as so-called raw data, or may be processed and output. In the latter case, for example, the output control unit 2060 collectively outputs a plurality of calculated index values in the form of a table or a graph. For example, assume that the calculation unit 2040 calculates an index value using each of the plurality of pathological image data 10 obtained from the same patient. In this case, the output control unit 2060 creates a table or a graph with each index value calculated using the plurality of pathological image data 10. In addition, for example, the output control unit 2060 creates a table or a graph with one or more index values calculated in the past for the same patient.

その他にも例えば、出力制御部2060は、指標値が前述した所定の条件を満たした場合に、所定のメッセージ(例えば警告メッセージ)を出力するように構成されていてもよい。 In addition, for example, the output control unit 2060 may be configured to output a predetermined message (for example, a warning message) when the index value satisfies the predetermined condition described above.

<ハードウエア構成>
実施形態2の情報処理装置2000を実現する計算機のハードウエア構成は、実施形態1と同様に、例えば図3によって表される。ただし、本実施形態の情報処理装置2000を実現する計算機1000のストレージデバイス1080には、本実施形態の情報処理装置2000の機能を実現するプログラムモジュールがさらに記憶される。また、本実施形態の情報処理装置2000を実現する計算機1000の入出力インタフェース1100には、出力制御部2060によって制御される種々のハードウエア(ディスプレイ装置やスピーカなど)が接続されていてもよい。
<Hardware configuration>
The hardware configuration of the computer that realizes the information processing apparatus 2000 of the second embodiment is represented by, for example, FIG. 3 as in the first embodiment. However, the storage device 1080 of the computer 1000 that realizes the information processing device 2000 of the present embodiment further stores a program module that realizes the function of the information processing device 2000 of the present embodiment. Further, various hardware (display device, speaker, etc.) controlled by the output control unit 2060 may be connected to the input / output interface 1100 of the computer 1000 that realizes the information processing device 2000 of the present embodiment.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記各実施形態の組み合わせ、又は上記以外の様々な構成を採用することもできる。 Although the embodiments of the present invention have been described above with reference to the drawings, these are examples of the present invention, and a combination of the above embodiments or various configurations other than the above can be adopted.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1. 病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出手段と、
前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出手段と、を有する情報処理装置。
2. 前記検出手段は、
前記組織領域から複数の腺管領域を抽出し、前記抽出された複数の腺管領域それぞれが、正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別し、
各正常腺管の領域の位置及び各腫瘍腺管の領域の位置を用いて、前記第1層と前記第2層の境界を算出する、1.に記載の情報処理装置。
3. 前記腺管領域が正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別する処理はディープラーニングを用いて行われる、2.に記載の情報処理装置。
4. 前記組織領域は、ヘマトキシリンを用いた染色が行われた組織の画像領域であり、
前記検出手段は、前記組織領域から、ヘマトキシリンで染色された画像領域によって囲まれた閉領域を抽出し、前記閉領域の特徴に基づいて前記閉領域が前記腺管領域であるか否かを判別することで、前記腺管領域の抽出を行う、2.又は3.に記載の情報処理装置。
5. 前記閉領域の特徴は、前記閉領域におけるリンパ球領域の割合、前記閉領域における白色領域の割合、前記白色領域における灰色領域の割合、前記閉領域における間質領域の割合、前記閉領域における細胞質領域の割合、前記閉領域の周辺におけるリンパ球領域の割合、及び前記閉領域の周辺における細胞核領域の割合のうち、いずれか1つ以上を含む、4.に記載の情報処理装置。
6. 前記検出手段は、前記組織領域からリンパ球領域を除去し、前記リンパ球領域が除去された組織領域から前記閉領域を抽出する、4.又は5.に記載の情報処理装置。
7. 前記リンパ球領域を除去する処理はディープラーニングを用いて行われる、6.に記載の情報処理装置。
8. 前記組織領域は、ヘマトキシリン・エオシン染色が行われた組織の画像領域であり、
前記検出手段は、
ヘマトキシリンで染色された画像領域とエオシンで染色された画像領域との割合に基づいて、前記ヘマトキシリンで染色された画像領域の強調処理を行い、
前記強調処理が行われた後の前記病理画像データから前記閉領域の抽出を行う、4.乃至7.いずれか一つに記載の情報処理装置。
9. 前記算出手段によって算出された指標値が所定の条件を満たす場合に所定の出力を行う出力制御手段を有する、1.乃至8.いずれか一つに記載の情報処理装置。
Some or all of the above embodiments may also be described, but not limited to:
1. 1. A detection means for detecting a first layer composed of normal ducts and a second layer composed of tumor ducts from a tissue region included in the pathological image data by image processing the pathological image data. ,
An information processing device having a calculation means for calculating an index value based on the thickness or area of the first layer and the second layer.
2. 2. The detection means
A plurality of ductal regions are extracted from the tissue region, and it is determined whether each of the extracted ductal regions is a normal duct region or a tumor duct region.
1. The boundary between the first layer and the second layer is calculated using the position of the region of each normal duct and the location of the region of each tumor duct. The information processing device described in.
3. 3. 2. The process of determining whether the gland duct region is a normal duct region or a tumor duct region is performed by using deep learning. The information processing device described in.
4. The tissue region is an image region of a tissue stained with hematoxylin.
The detection means extracts a closed region surrounded by a hematoxylin-stained image region from the tissue region, and determines whether or not the closed region is the gland duct region based on the characteristics of the closed region. By doing so, the glandular canal region is extracted. Or 3. The information processing device described in.
5. The characteristics of the closed region are the ratio of the lymphocyte region in the closed region, the ratio of the white region in the closed region, the ratio of the gray region in the white region, the ratio of the interstitial region in the closed region, and the cytoplasm in the closed region. 4. Includes any one or more of the proportion of the region, the proportion of the lymphocyte region around the closed region, and the proportion of the cell nucleus region around the closed region. The information processing device described in.
6. The detection means removes the lymphocyte region from the tissue region and extracts the closed region from the tissue region from which the lymphocyte region has been removed. Or 5. The information processing device described in.
7. The treatment for removing the lymphocyte region is performed using deep learning. The information processing device described in.
8. The tissue region is an image region of a tissue stained with hematoxylin and eosin.
The detection means
Based on the ratio of the hematoxylin-stained image region to the eosin-stained image region, the hematoxylin-stained image region is enhanced.
3. Extract the closed region from the pathological image data after the enhancement treatment is performed. To 7. The information processing device according to any one.
9. 1. It has an output control means that outputs a predetermined value when the index value calculated by the calculation means satisfies a predetermined condition. ~ 8. The information processing device according to any one.

10. コンピュータによって実行される制御方法であって、
病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出ステップと、
前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出ステップと、を有する制御方法。
11. 前記検出ステップにおいて、
前記組織領域から複数の腺管領域を抽出し、前記抽出された複数の腺管領域それぞれが、正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別し、
各正常腺管の領域の位置及び各腫瘍腺管の領域の位置を用いて、前記第1層と前記第2層の境界を算出する、10.に記載の制御方法。
12. 前記腺管領域が正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別する処理はディープラーニングを用いて行われる、11.に記載の制御方法。
13. 前記組織領域は、ヘマトキシリンを用いた染色が行われた組織の画像領域であり、
前記検出ステップにおいて、前記組織領域から、ヘマトキシリンで染色された画像領域によって囲まれた閉領域を抽出し、前記閉領域の特徴に基づいて前記閉領域が前記腺管領域であるか否かを判別することで、前記腺管領域の抽出を行う、11.又は12.に記載の制御方法。
14. 前記閉領域の特徴は、前記閉領域におけるリンパ球領域の割合、前記閉領域における白色領域の割合、前記白色領域における灰色領域の割合、前記閉領域における間質領域の割合、前記閉領域における細胞質領域の割合、前記閉領域の周辺におけるリンパ球領域の割合、及び前記閉領域の周辺における細胞核領域の割合のうち、いずれか1つ以上を含む、13.に記載の制御方法。
15. 前記検出ステップにおいて、前記組織領域からリンパ球領域を除去し、前記リンパ球領域が除去された組織領域から前記閉領域を抽出する、13.又は14.に記載の制御方法。
16. 前記リンパ球領域を除去する処理はディープラーニングを用いて行われる、15.に記載の制御方法。
17. 前記組織領域は、ヘマトキシリン・エオシン染色が行われた組織の画像領域であり、
前記検出ステップにおいて、
ヘマトキシリンで染色された画像領域とエオシンで染色された画像領域との割合に基づいて、前記ヘマトキシリンで染色された画像領域の強調処理を行い、
前記強調処理が行われた後の前記病理画像データから前記閉領域の抽出を行う、13.乃至16.いずれか一つに記載の制御方法。
18. 前記算出ステップにおいて算出された指標値が所定の条件を満たす場合に所定の出力を行う出力制御ステップを有する、10.乃至17.いずれか一つに記載の制御方法。
10. A control method performed by a computer
A detection step of detecting a first layer composed of normal ducts and a second layer composed of tumor ducts from a tissue region included in the pathological image data by image processing the pathological image data. ,
A control method comprising a calculation step of calculating an index value based on the thickness or area of the first layer and the second layer.
11. In the detection step
A plurality of ductal regions are extracted from the tissue region, and it is determined whether each of the extracted ductal regions is a normal duct region or a tumor duct region.
10. The boundary between the first layer and the second layer is calculated using the position of the region of each normal duct and the location of the region of each tumor duct. The control method described in.
12. The process of determining whether the gland duct region is a normal duct region or a tumor duct region is performed by using deep learning. The control method described in.
13. The tissue region is an image region of a tissue stained with hematoxylin.
In the detection step, a closed region surrounded by a hematoxylin-stained image region is extracted from the tissue region, and whether or not the closed region is the glandular region is determined based on the characteristics of the closed region. By doing so, the glandular region is extracted. Or 12. The control method described in.
14. The characteristics of the closed region are the ratio of the lymphocyte region in the closed region, the ratio of the white region in the closed region, the ratio of the gray region in the white region, the ratio of the interstitial region in the closed region, and the cytoplasm in the closed region. 13. Includes one or more of the proportion of regions, the proportion of lymphocyte regions around the closed region, and the proportion of cell nucleus regions around the closed region. The control method described in.
15. 13. In the detection step, the lymphocyte region is removed from the tissue region and the closed region is extracted from the tissue region from which the lymphocyte region has been removed. Or 14. The control method described in.
16. The treatment for removing the lymphocyte region is performed using deep learning. The control method described in.
17. The tissue region is an image region of a tissue stained with hematoxylin and eosin.
In the detection step
Based on the ratio of the hematoxylin-stained image region to the eosin-stained image region, the hematoxylin-stained image region is enhanced.
The closed region is extracted from the pathological image data after the enhancement treatment is performed. To 16. The control method according to any one.
18. 10. It has an output control step that outputs a predetermined output when the index value calculated in the calculation step satisfies a predetermined condition. ~ 17. The control method according to any one.

19. 10.乃至18.いずれか一つに記載の制御方法の各ステップをコンピュータに実行させるプログラム。 19. 10. ~ 18. A program that causes a computer to execute each step of the control method described in any one of them.

10 病理画像データ
20 組織領域
22 第1層
24 第2層
30 閉領域
32 腺管領域
40 周辺領域
1000 計算機
1020 バス
1040 プロセッサ
1060 メモリ
1080 ストレージデバイス
1080 しストレージデバイス
1100 入出力インタフェース
1120 ネットワークインタフェース
2000 情報処理装置
2020 検出部
2040 算出部
2060 出力制御部
10 Pathological image data 20 Tissue area 22 1st layer 24 2nd layer 30 Closed area 32 Glandular area 40 Peripheral area 1000 Computer 1020 Bus 1040 Processor 1060 Memory 1080 Storage device 1080 Storage device 1100 Input / output interface 1120 Network interface 2000 Information processing Device 2020 Detection unit 2040 Calculation unit 2060 Output control unit

Claims (11)

病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出手段と、
前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出手段と、を有する情報処理装置。
A detection means for detecting a first layer composed of normal ducts and a second layer composed of tumor ducts from a tissue region included in the pathological image data by image processing the pathological image data. ,
An information processing device having a calculation means for calculating an index value based on the thickness or area of the first layer and the second layer.
前記検出手段は、
前記組織領域から複数の腺管領域を抽出し、前記抽出された複数の腺管領域それぞれが、正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別し、
各正常腺管の領域の位置及び各腫瘍腺管の領域の位置を用いて、前記第1層と前記第2層の境界を算出する、請求項1に記載の情報処理装置。
The detection means
A plurality of ductal regions are extracted from the tissue region, and it is determined whether each of the extracted ductal regions is a normal duct region or a tumor duct region.
The information processing apparatus according to claim 1, wherein the boundary between the first layer and the second layer is calculated by using the position of the region of each normal duct and the position of the region of each tumor duct.
前記腺管領域が正常腺管の領域と腫瘍腺管の領域のどちらであるかを判別する処理はディープラーニングを用いて行われる、請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the process of determining whether the gland duct region is a normal duct region or a tumor duct region is performed by using deep learning. 前記組織領域は、ヘマトキシリンを用いた染色が行われた組織の画像領域であり、
前記検出手段は、前記組織領域から、ヘマトキシリンで染色された画像領域によって囲まれた閉領域を抽出し、前記閉領域の特徴に基づいて前記閉領域が前記腺管領域であるか否かを判別することで、前記腺管領域の抽出を行う、請求項2又は3に記載の情報処理装置。
The tissue region is an image region of a tissue stained with hematoxylin.
The detection means extracts a closed region surrounded by an image region stained with hematoxylin from the tissue region, and determines whether or not the closed region is the glandular region based on the characteristics of the closed region. The information processing apparatus according to claim 2 or 3, wherein the glandular tube region is extracted by the method.
前記閉領域の特徴は、前記閉領域におけるリンパ球領域の割合、前記閉領域における白色領域の割合、前記白色領域における灰色領域の割合、前記閉領域における間質領域の割合、前記閉領域における細胞質領域の割合、前記閉領域の周辺におけるリンパ球領域の割合、及び前記閉領域の周辺における細胞核領域の割合のうち、いずれか1つ以上を含む、請求項4に記載の情報処理装置。 The characteristics of the closed region are the ratio of the lymphocyte region in the closed region, the ratio of the white region in the closed region, the ratio of the gray region in the white region, the ratio of the interstitial region in the closed region, and the cytoplasm in the closed region. The information processing apparatus according to claim 4, further comprising one or more of a ratio of regions, a ratio of lymphocyte regions around the closed region, and a ratio of cell nucleus regions around the closed region. 前記検出手段は、前記組織領域からリンパ球領域を除去し、前記リンパ球領域が除去された組織領域から前記閉領域を抽出する、請求項4又は5に記載の情報処理装置。 The information processing apparatus according to claim 4 or 5, wherein the detection means removes a lymphocyte region from the tissue region and extracts the closed region from the tissue region from which the lymphocyte region has been removed. 前記リンパ球領域を除去する処理はディープラーニングを用いて行われる、請求項6に記載の情報処理装置。 The information processing apparatus according to claim 6, wherein the process of removing the lymphocyte region is performed by using deep learning. 前記組織領域は、ヘマトキシリン・エオシン染色が行われた組織の画像領域であり、
前記検出手段は、
ヘマトキシリンで染色された画像領域とエオシンで染色された画像領域との割合に基づいて、前記ヘマトキシリンで染色された画像領域の強調処理を行い、
前記強調処理が行われた後の前記病理画像データから前記閉領域の抽出を行う、請求項4乃至7いずれか一項に記載の情報処理装置。
The tissue region is an image region of a tissue stained with hematoxylin and eosin.
The detection means
Based on the ratio of the hematoxylin-stained image region to the eosin-stained image region, the hematoxylin-stained image region is enhanced.
The information processing apparatus according to any one of claims 4 to 7, wherein the closed region is extracted from the pathological image data after the enhancement treatment is performed.
前記算出手段によって算出された指標値が所定の条件を満たす場合に所定の出力を行う出力制御手段を有する、請求項1乃至8いずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 8, further comprising an output control means that outputs a predetermined value when the index value calculated by the calculation means satisfies a predetermined condition. コンピュータによって実行される制御方法であって、
病理画像データを画像処理することで、前記病理画像データに含まれる組織領域から、正常腺管で構成される第1層と、腫瘍腺管で構成される第2層とを検出する検出ステップと、
前記第1層と前記第2層の厚さ又は面積に基づく指標値を算出する算出ステップと、を有する制御方法。
A control method performed by a computer
A detection step of detecting a first layer composed of normal ducts and a second layer composed of tumor ducts from a tissue region included in the pathological image data by image processing the pathological image data. ,
A control method comprising a calculation step of calculating an index value based on the thickness or area of the first layer and the second layer.
請求項10に記載の制御方法の各ステップをコンピュータに実行させるプログラム。 A program that causes a computer to execute each step of the control method according to claim 10.
JP2017088231A 2017-04-27 2017-04-27 Information processing equipment, control methods, and programs Active JP6819445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017088231A JP6819445B2 (en) 2017-04-27 2017-04-27 Information processing equipment, control methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017088231A JP6819445B2 (en) 2017-04-27 2017-04-27 Information processing equipment, control methods, and programs

Publications (2)

Publication Number Publication Date
JP2018185265A JP2018185265A (en) 2018-11-22
JP6819445B2 true JP6819445B2 (en) 2021-01-27

Family

ID=64357242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017088231A Active JP6819445B2 (en) 2017-04-27 2017-04-27 Information processing equipment, control methods, and programs

Country Status (1)

Country Link
JP (1) JP6819445B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020139842A (en) * 2019-02-28 2020-09-03 ソニー株式会社 Information processing device, information processing method, and information processing system
JP7482894B2 (en) 2019-04-12 2024-05-14 インベニオ イメージング、インコーポレイテッド Imaging system for detection of intraoperative contrast agents in tissue - Patents.com
JPWO2022049663A1 (en) * 2020-09-02 2022-03-10
CN116523919B (en) * 2023-07-04 2023-09-12 武汉楚精灵医疗科技有限公司 Method and device for determining abnormal degree coefficient of gland duct

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2622725B2 (en) * 1988-07-25 1997-06-18 東亜医用電子株式会社 Image processing method for extracting glandular cavity of gastric tissue
JP2001059842A (en) * 1999-08-25 2001-03-06 Nec Corp Pathological diagnostic apparatus
JP2004286666A (en) * 2003-03-24 2004-10-14 Olympus Corp Pathological diagnosis support apparatus and pathological diagnosis support program
JP2005352571A (en) * 2004-06-08 2005-12-22 Olympus Corp Image processing device
JP5151403B2 (en) * 2007-11-06 2013-02-27 日本電気株式会社 Poorly differentiated cancer detection module, pathological image diagnosis support apparatus including the module, program, and recording medium
JP2009210409A (en) * 2008-03-04 2009-09-17 Kddi Corp Method and device for image area division
WO2010041423A1 (en) * 2008-10-09 2010-04-15 日本電気株式会社 Histopathologic diagnosis support system, histopathologic diagnosis support program, and histopathologic diagnosis support method
JP5387146B2 (en) * 2009-06-03 2014-01-15 日本電気株式会社 Pathological tissue image analysis apparatus, pathological tissue image analysis method, pathological tissue image analysis program
WO2013187148A1 (en) * 2012-06-15 2013-12-19 オリンパス株式会社 Image processing device, microscope system, endoscope system, and image processing method

Also Published As

Publication number Publication date
JP2018185265A (en) 2018-11-22

Similar Documents

Publication Publication Date Title
US10909682B2 (en) Method and device for detecting pulmonary nodule in computed tomography image, and computer-readable storage medium
CN109791693B (en) Digital pathology system and related workflow for providing visualized whole-slice image analysis
JP6660313B2 (en) Detection of nuclear edges using image analysis
CN109978890B (en) Target extraction method and device based on image processing and terminal equipment
CN110705583B (en) Cell detection model training method, device, computer equipment and storage medium
JP6819445B2 (en) Information processing equipment, control methods, and programs
Gurcan et al. Image analysis for neuroblastoma classification: segmentation of cell nuclei
US9607376B2 (en) Method and apparatus for image scoring and analysis
CN107038704B (en) Retina image exudation area segmentation method and device and computing equipment
CN108629761B (en) Breast cancer image identification method and device and user terminal
JP5804220B1 (en) Image processing apparatus and image processing program
KR20150051711A (en) Apparatus and method for extracting skin area for blocking harmful content image
CN111091571A (en) Nucleus segmentation method and device, electronic equipment and computer-readable storage medium
CN107146231B (en) Retinal image bleeding area segmentation method and device and computing equipment
JP6743066B2 (en) Tissue sample analysis technology
CN107123124B (en) Retina image analysis method and device and computing equipment
JP2016507229A5 (en)
CN110880177A (en) Image identification method and device
Valous et al. Multistage histopathological image segmentation of Iba1-stained murine microglias in a focal ischemia model: methodological workflow and expert validation
CN110473176B (en) Image processing method and device, fundus image processing method and electronic equipment
Vyavahare et al. Segmentation using region growing algorithm based on CLAHE for medical images
Oprisescu et al. Automatic pap smear nuclei detection using mean-shift and region growing
WO2021139447A1 (en) Abnormal cervical cell detection apparatus and method
Zulfikar et al. Android application: skin abnormality analysis based on edge detection technique
US20230005148A1 (en) Image analysis method, image analysis device, image analysis system, control program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R150 Certificate of patent or registration of utility model

Ref document number: 6819445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150