JPWO2018221625A1 - System and method for diagnosis support using pathological images of skin tissue - Google Patents

System and method for diagnosis support using pathological images of skin tissue Download PDF

Info

Publication number
JPWO2018221625A1
JPWO2018221625A1 JP2019521286A JP2019521286A JPWO2018221625A1 JP WO2018221625 A1 JPWO2018221625 A1 JP WO2018221625A1 JP 2019521286 A JP2019521286 A JP 2019521286A JP 2019521286 A JP2019521286 A JP 2019521286A JP WO2018221625 A1 JPWO2018221625 A1 JP WO2018221625A1
Authority
JP
Japan
Prior art keywords
distribution
cells
image
image representing
skin tissue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019521286A
Other languages
Japanese (ja)
Other versions
JP6757054B2 (en
Inventor
悠自 太田
悠自 太田
光介 志藤
光介 志藤
要 小島
要 小島
正朗 長▲崎▼
正朗 長▲崎▼
研志 山▲崎▼
研志 山▲崎▼
節也 相場
節也 相場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Original Assignee
Tohoku University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC filed Critical Tohoku University NUC
Publication of JPWO2018221625A1 publication Critical patent/JPWO2018221625A1/en
Application granted granted Critical
Publication of JP6757054B2 publication Critical patent/JP6757054B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Urology & Nephrology (AREA)
  • Medicinal Chemistry (AREA)
  • Hematology (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Food Science & Technology (AREA)
  • Biomedical Technology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

皮膚疾患の診断支援を行うための診断支援システムは、(A)病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における異型細胞の分布を表す画像とを入力とする機械学習の学習済みモデルと、(B)処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における異型細胞の分布を表す第3の画像とに対する、学習済みモデルからの出力に基づき、皮膚疾患に関する出力データを生成する出力データ生成部とを有する。(A) An image showing the distribution of dermal cells in the skin tissue included in the pathological image, an image showing the distribution of epidermal cells in the skin tissue, and a variant in the skin tissue. A learned model of machine learning that inputs an image representing the distribution of cells, (B) a first image representing the distribution of dermal cells in the skin tissue to be processed, and a distribution of epidermal cells in the skin tissue to be processed And an output data generation unit that generates output data related to a skin disease based on the output from the learned model with respect to the second image that represents the distribution of the atypical cells in the skin tissue to be processed. Have.

Description

本発明は、皮膚組織の病理画像を用いた診断支援のための技術に関する。   The present invention relates to a technique for supporting diagnosis using a pathological image of skin tissue.

ある論文には、乳がん病理組織の病理画像から、Mitosis細胞を検出するために、畳み込みニューラルネットワークを二段階用いるものが記載されている。ここでは特定の種類の細胞を検出するだけで十分であり、特定の種類の細胞の分布などをさらに考慮した上で診断するようなことは問題となっていない。   One paper describes the use of a two-stage convolutional neural network to detect Mitosis cells from pathological images of breast cancer pathology. Here, it is sufficient to detect only a specific type of cells, and there is no problem in diagnosing in further consideration of the distribution of specific types of cells.

また、他の論文には、前立腺がんの病理画像から、腫瘍の部分を局所的に検出するために畳み込みニューラルネットワークを用いたものと、センチネルリンパ節における乳がんの転移箇所を局所的に検出するための畳み込みニューラルネットワークを用いたものが記載されている。この論文では、前立腺がんの病理画像における解析において、病理画像全体からがんであるかどうかを腫瘍であるかの尤度のヒストグラムの形状により、また乳がんの転移の有無については局所的に得られた転移があるかの尤度のうち最大のものをスコアすることにより判定を行っており、特定の種類の細胞の分布などを考慮した上で診断するようなことは問題となっていない。   Other papers use a convolutional neural network to detect the tumor locally from pathological images of prostate cancer, and detect metastatic sites of breast cancer in sentinel lymph nodes locally Using a convolutional neural network is described. In this paper, in the analysis of pathological images of prostate cancer, it is possible to obtain the possibility of cancer from the entire pathological image by using the shape of a histogram of the likelihood of whether the tumor is a tumor, and to obtain the presence or absence of breast cancer metastasis locally. The determination is made by scoring the maximum likelihood of whether or not there is metastasis, and there is no problem in diagnosing in consideration of the distribution of specific types of cells.

さらに、ある文献には、腫瘍の性質の識別において、細胞核、その周辺組織等の変化が重要であることを考慮し、病理画像から細胞核、空孔、細胞質、間質等を中心とするサブイメージを抽出し、サブイメージを学習パターン及び入力パターンとして入力することにより、サブイメージに基づいて高精度に腫瘍の有無、及び腫瘍の良性・悪性を判定することが開示されている。この文献には、病理学検査において採取した組織には染色(ヘマトキシレン、エオジン等による染色)が施されるため、細胞核、その周辺組織等がそれぞれ特有の色に染色されていることを考慮して、病理画像から細胞核、空孔、細胞質、間質等を中心とするサブイメージを抽出すると同時に、細胞核の色情報を抽出し、両者を特徴候補として記憶することにより、より高い精度で腫瘍の有無、及び腫瘍の良性・悪性を判定することも開示されている。しかしながら、皮膚組織における病理画像に特徴的な要素については考慮されていない。   In addition, some literature considers that changes in cell nuclei and their surrounding tissues are important in discriminating the nature of tumors, and based on sub-images centering on cell nuclei, cavities, cytoplasm, stroma, etc. It is disclosed that by extracting a sub-image as a learning pattern and an input pattern, the presence / absence of a tumor and benign / malignant of the tumor are determined with high accuracy based on the sub-image. This document considers that the tissue collected in the pathological examination is stained (stained with hematoxylen, eosin, etc.), so that the cell nucleus and its surrounding tissues are stained in unique colors. By extracting sub-images centering on cell nuclei, cavities, cytoplasm, stroma, etc. from pathological images, extracting color information of cell nuclei and storing both as feature candidates, tumor tumors can be extracted with higher accuracy. It is also disclosed to determine the presence / absence and whether the tumor is benign or malignant. However, a characteristic element of the pathological image in the skin tissue is not considered.

特開2006−153742号公報JP 2006-153742 A

Hao Chen, QiDou,XiWang, Jing Qin & Pheng-Ann Heng, "Mitosis Detection in Breast Cancer Histology Images via Deep Cascaded Networks", Proceedings of the Thirtieth AAAI Conference on Artificial Intelligence (AAAI-16)Hao Chen, QiDou, XiWang, Jing Qin & Pheng-Ann Heng, "Mitosis Detection in Breast Cancer Histology Images via Deep Cascaded Networks", Proceedings of the Thirtieth AAAI Conference on Artificial Intelligence (AAAI-16) Geert Litjens, Clara I. Sanchez, NadyaTimofeeva, Meyke Hermsen, Iris Nagtegaal, Iringo Kovacs, Christina Hulsbergen - van de Kaa, Peter Bult, Bram van Ginneken and Jeroen van der Laak, "Deep learning as a tool for increased accuracy and efficiency of histopathological diagnosis", Scientific Reports, 6:26286, 2016Geert Litjens, Clara I. Sanchez, NadyaTimofeeva, Meyke Hermsen, Iris Nagtegaal, Iringo Kovacs, Christina Hulsbergen-van de Kaa, Peter Bult, Bram van Ginneken and Jeroen van der Laak, "Deep learning as a tool for increased accuracy and efficiency of efficiency histopathological diagnosis ", Scientific Reports, 6: 26286, 2016

本発明の目的は、一側面によれば、皮膚疾患の診断支援を行うための新規な技術を提供することである。   An object of the present invention, according to one aspect, is to provide a novel technique for supporting diagnosis of a skin disease.

本発明の第1の診断支援システムは、(A)病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における異型細胞の分布を表す画像とを入力とする機械学習の学習済みモデルと、(B)処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における異型細胞の分布を表す第3の画像とに対する、学習済みモデルからの出力に基づき、皮膚疾患に関する出力データを生成する出力データ生成部とを有する。   The first diagnostic support system according to the present invention includes: (A) an image representing distribution of dermal cells in skin tissue included in a pathological image, an image representing distribution of epidermal cells in skin tissue, and distribution of atypical cells in skin tissue. And (B) a first image representing the distribution of dermal cells in the skin tissue to be processed and a second image representing the distribution of epidermal cells in the skin tissue to be processed. An output data generation unit that generates output data relating to a skin disease based on the output from the trained model for the second image and the third image representing the distribution of atypical cells in the skin tissue to be processed.

本発明の第2の診断支援システムは、(A)病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における免疫細胞の分布を表す画像と、皮膚組織における管腔を作る細胞の分布を表す画像とを入力とし且つ非腫瘍性の複数種類の皮膚疾患の鑑別を出力とする機械学習の学習済みモデルと、(B)処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における免疫細胞の分布を表す第3の画像と、処理対象の皮膚組織における管腔を作る細胞の分布を表す第4の画像とに対する、機械学習の学習済みモデルの出力に基づき、非腫瘍性の複数種類の皮膚疾患の鑑別結果を含む出力データを生成する出力データ生成部とを有する。   The second diagnosis support system according to the present invention comprises: (A) an image representing distribution of dermal cells in skin tissue included in a pathological image, an image representing distribution of epidermal cells in skin tissue, and a distribution of immune cells in skin tissue. And an image representing distribution of cells forming a lumen in skin tissue as input, and a learned model of machine learning that outputs a discrimination of a plurality of non-neoplastic skin diseases, and (B) processing A first image representing the distribution of dermal cells in the skin tissue of the subject, a second image representing the distribution of epidermal cells in the skin tissue of the subject, and a third image representing the distribution of immune cells in the skin tissue of the subject. Based on the output of the machine-learned model for the image and the fourth image representing the distribution of cells forming the lumen in the skin tissue to be processed, the discrimination result of a plurality of non-neoplastic skin diseases is obtained. And an output data generating unit for generating a non-output data.

図1Aは、悪性黒色腫を含む皮膚組織の病理画像の一例を示す図である。FIG. 1A is a diagram illustrating an example of a pathological image of skin tissue including malignant melanoma. 図1Bは、色素性母斑を含む皮膚組織の病理画像の一例を示す図である。FIG. 1B is a diagram illustrating an example of a pathological image of skin tissue including pigmented nevus. 図2は、畳み込みニューラルネットワークの一例を示す図である。FIG. 2 is a diagram illustrating an example of a convolutional neural network. 図3Aは、悪性黒色腫と分かっている皮膚組織における真皮細胞の分布を表す画像の例を示す図である。FIG. 3A is a diagram showing an example of an image showing the distribution of dermal cells in skin tissue known to be malignant melanoma. 図3Bは、悪性黒色腫と分かっている皮膚組織における表皮細胞の分布を表す画像の例を示す図である。FIG. 3B is a diagram showing an example of an image representing the distribution of epidermal cells in skin tissue known to be malignant melanoma. 図3Cは、悪性黒色腫と分かっている皮膚組織における異型細胞の分布を表す画像の例を示す図である。FIG. 3C is a diagram showing an example of an image showing the distribution of atypical cells in skin tissue known to be malignant melanoma. 図4Aは、色素性母斑と分かっている皮膚組織における真皮細胞の分布を表す画像の例を示す図である。FIG. 4A is a diagram showing an example of an image representing the distribution of dermal cells in skin tissue known to be pigmented nevus. 図4Bは、色素性母斑と分かっている皮膚組織における表皮細胞の分布を表す画像の例を示す図である。FIG. 4B is a diagram showing an example of an image representing the distribution of epidermal cells in skin tissue known to be pigmented nevus. 図4Cは、色素性母斑と分かっている皮膚組織における異型細胞の分布を表す画像の例を示す図である。FIG. 4C is a diagram showing an example of an image representing the distribution of atypical cells in skin tissue known to be pigmented nevus. 図5は、第1の実施の形態に係る情報処理装置の機能ブロック構成を示す図である。FIG. 5 is a diagram illustrating a functional block configuration of the information processing apparatus according to the first embodiment. 図6は、第1の実施の形態に係る情報処理装置により実行される処理フローを示す図である。FIG. 6 is a diagram illustrating a processing flow executed by the information processing apparatus according to the first embodiment. 図7は、分割画像を説明するための図である。FIG. 7 is a diagram for explaining a divided image. 図8Aは、真皮細胞の分布の初期画像を説明するための図である。FIG. 8A is a diagram for explaining an initial image of the distribution of dermal cells. 図8Bは、表皮細胞の分布の初期画像を説明するための図である。FIG. 8B is a diagram for explaining an initial image of the distribution of epidermal cells. 図8Cは、異型細胞の分布の初期画像を説明するための図である。FIG. 8C is a diagram for explaining an initial image of the distribution of atypical cells. 図9は、悪性黒色腫と分かっている皮膚組織における免疫細胞の分布を表す画像の例を示す図である。FIG. 9 is a diagram showing an example of an image representing the distribution of immune cells in skin tissue known to be malignant melanoma. 図10は、色素性母斑と分かっている皮膚組織における免疫細胞の分布を表す画像の例を示す図である。FIG. 10 is a diagram showing an example of an image representing the distribution of immune cells in skin tissue known to be pigmented nevus. 図11は、悪性黒色腫と分かっている皮膚組織における管腔を作る細胞の分布を表す画像の例を示す図である。FIG. 11 is a diagram showing an example of an image representing the distribution of cells forming a lumen in skin tissue known to be malignant melanoma. 図12は、色素性母斑と分かっている皮膚組織における管腔を作る細胞の分布を表す画像の例を示す図である。FIG. 12 is a diagram showing an example of an image representing the distribution of cells forming a lumen in skin tissue known to be pigmented nevus. 図13は、第2の実施の形態に係る情報処理装置の機能ブロック構成を示す図である。FIG. 13 is a diagram illustrating a functional block configuration of the information processing apparatus according to the second embodiment. 図14は、第2の実施の形態に係る情報処理装置により実行される処理フローを示す図である。FIG. 14 is a diagram illustrating a processing flow executed by the information processing apparatus according to the second embodiment. 図15Aは、鑑別対象の疾患名と腫瘍に係る異型細胞の由来となる細胞名と処理に用いられる細胞の種類との関係を表す図である。FIG. 15A is a diagram showing the relationship between the name of the disease to be differentiated, the name of the cell from which the atypical cell associated with the tumor is derived, and the type of cell used in the processing. 図15Bは、鑑別対象の疾患名と腫瘍に係る異型細胞の由来となる細胞名と処理に用いられる細胞の種類との関係を表す図である。FIG. 15B is a diagram showing the relationship between the name of the disease to be differentiated, the name of the cell from which the atypical cell associated with the tumor is derived, and the type of cell used for the processing. 図15Cは、鑑別対象の疾患名と腫瘍に係る異型細胞の由来となる細胞名と処理に用いられる細胞の種類との関係を表す図である。FIG. 15C is a diagram showing the relationship between the name of the disease to be differentiated, the name of the cell from which the atypical cell associated with the tumor is derived, and the type of cell used in the processing. 図16は、非腫瘍性疾患名と処理に用いられる細胞の種類との関係を表す図である。FIG. 16 is a diagram showing the relationship between the name of a non-neoplastic disease and the type of cells used for processing.

[実施の形態1]
本実施の形態では、悪性黒色腫と色素性母斑とを鑑別することを目的とする。悪性黒色腫とは、表皮に存在する色素細胞のがんである。一方、色素性母斑は、色素細胞の良性の腫瘍であり、両者の鑑別は難しい場合が多い。
[Embodiment 1]
The purpose of this embodiment is to distinguish between malignant melanoma and pigmented nevus. Malignant melanoma is a cancer of pigment cells present in the epidermis. On the other hand, pigmented nevus is a benign tumor of pigment cells, and it is often difficult to distinguish between them.

図1Aは、悪性黒色腫を含む皮膚組織の病理画像の例(但し、グレースケール画像)を示す。また、図1Bは、色素性母斑を含む皮膚組織の病理画像の例(但し、グレースケール画像)を示す。このように両者の鑑別は難しい。なお、このような病理画像は、病理組織のプレパラートをスキャンしてデジタル画像にしたものである。   FIG. 1A shows an example (however, a grayscale image) of a pathological image of skin tissue containing malignant melanoma. FIG. 1B shows an example of a pathological image of a skin tissue including a pigmented nevus (however, a grayscale image). Thus, it is difficult to discriminate between the two. Such a pathological image is a digital image obtained by scanning a preparation of a pathological tissue.

本実施の形態では、第1段階の処理として、このような病理画像において、皮膚組織における表皮細胞の分布と、真皮細胞の分布と、異型細胞の分布とを特定する。なお、異型細胞は、悪性黒色腫の腫瘍化した色素細胞と、良性腫瘍である色素性母斑の腫瘍化した色素細胞とのいずれかである。以下、異型細胞については、腫瘍化した又は平常ではない細胞を示すものとする。   In the present embodiment, as the first stage processing, in such a pathological image, the distribution of epidermal cells, the distribution of dermal cells, and the distribution of atypical cells in the skin tissue are specified. The atypical cells are either pigmented cells of malignant melanoma or pigmented cells of pigmented nevus, which is a benign tumor. Hereinafter, atypical cells refer to cells that have become tumorous or unusual.

次に、第2段階の処理として、表皮細胞の分布を表す画像(分布を表す画像をヒートマップとも呼ぶ)と、真皮細胞の分布を表す画像と、異型細胞の分布を表す画像とから、悪性黒色腫と良性腫瘍である色素性母斑とその他とを鑑別する。但し、悪性黒色腫とその他とを鑑別するようにしても良い。   Next, as the second stage processing, a malignant image is obtained from an image representing the distribution of epidermal cells (an image representing the distribution is also referred to as a heat map), an image representing the distribution of dermal cells, and an image representing the distribution of atypical cells. Distinguish between melanoma and benign tumor pigmented nevus and others. However, you may make it distinguish between malignant melanoma and others.

本実施の形態では、表皮細胞の分布と真皮細胞の分布とに対する異型細胞の分布によって、病理組織の悪性度を推測することを意図している。すなわち、異型細胞が表皮や真皮中のどの部分にどのような分布で存在するのかを基に、病理組織の悪性度を予測することを意図する。言い換えれば、皮膚の構造を表し且つ平常時から存在する真皮細胞群や表皮細胞群などにおいて、異型細胞群がどのように入り込んでいるかを評価するものである。このような予測及び評価は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)に対して学習を行わせることによって実現する。   In the present embodiment, it is intended to estimate the degree of malignancy of a pathological tissue based on the distribution of atypical cells with respect to the distribution of epidermal cells and the distribution of dermal cells. That is, it is intended to predict the degree of malignancy of a pathological tissue based on where and what distribution of atypical cells are present in the epidermis or dermis. In other words, in a dermal cell group, an epidermal cell group, or the like that represents the structure of the skin and exists from normal times, it evaluates how the atypical cell group enters. Such prediction and evaluation are realized by causing a convolutional neural network (CNN) to perform learning.

畳み込みニューラルネットワークは、例えば図2に示すような構造を有している。これは、よく知られているAlexNetと呼ばれる畳み込みニューラルネットワークに類似する構造を有しており、入力層と出力層との間に、畳み込み層とサブサンプリング層(プーリング層)との組み合わせを複数(図では2)セット設け、さらに2つの全結合層を追加した構成になっている。但し、畳み込みニューラルネットワークの構造には、様々なバリエーションがあり、それらを用いても良い。例えば、畳み込み層とサブサンプリング層との組み合わせの数は、増加させても良い。   The convolutional neural network has, for example, a structure as shown in FIG. This has a structure similar to a well-known convolutional neural network called AlexNet, and includes a plurality of combinations of a convolutional layer and a sub-sampling layer (pooling layer) between an input layer and an output layer. In the figure, 2) a set is provided, and two total coupling layers are further added. However, there are various variations in the structure of the convolutional neural network, and these may be used. For example, the number of combinations of the convolutional layer and the sub-sampling layer may be increased.

上で述べたように、表皮細胞の分布を表す画像と、真皮細胞の分布を表す画像と、異型細胞の分布を表す画像とを、入力層に入力する。一方、出力層では、例えば、悪性黒色腫の尤度と、色素性母斑の尤度と、それ以外の場合の尤度とが出力される。   As described above, an image representing the distribution of epidermal cells, an image representing the distribution of dermal cells, and an image representing the distribution of atypical cells are input to the input layer. On the other hand, the output layer outputs, for example, the likelihood of malignant melanoma, the likelihood of pigmented nevus, and the likelihood in other cases.

よく知られているように、畳み込み層には、フィルタ及び活性化関数についてパラメータがあり、サブサンプリング層にもサブサンプリングについてのパラメータがあり、全結合層にも活性化関数についてパラメータがあるので、学習によってそれらに適切な値等を設定することになる。学習のためのアルゴリズムは、既知の方法を用いる。   As is well known, the convolutional layer has parameters for the filter and the activation function, the subsampling layer also has parameters for the subsampling, and the fully connected layer has parameters for the activation function. Appropriate values and the like are set for them by learning. The algorithm for learning uses a known method.

図3Aは、悪性黒色腫と分かっている皮膚組織における真皮細胞の分布を表す画像を示す。図3Bは、悪性黒色腫と分かっている皮膚組織における表皮細胞の分布を表す画像を示す。図3Cは、悪性黒色腫と分かっている皮膚組織における異型細胞の分布を表す画像を示す。このような画像を入力層に入力した場合に、出力層から悪性黒色腫である尤度が1という出力がなされる、ということを目的として学習が行われる。なお、これらの図中、白色の部分に、着目する細胞が存在することを示している。   FIG. 3A shows an image showing the distribution of dermal cells in skin tissue known to be malignant melanoma. FIG. 3B shows an image showing the distribution of epidermal cells in skin tissue known to be malignant melanoma. FIG. 3C shows an image showing the distribution of atypical cells in skin tissue known to be malignant melanoma. When such an image is input to the input layer, learning is performed for the purpose of outputting from the output layer that the likelihood of malignant melanoma is one. In these figures, white cells indicate that the cell of interest is present.

一方、図4Aは、色素性母斑と分かっている皮膚組織における真皮細胞の分布を表す画像を示す。図4Bは、色素性母斑と分かっている皮膚組織における表皮細胞の分布を表す画像を示す。図4Cは、色素性母斑と分かっている皮膚組織における異型細胞の分布を表す画像を示す。このような画像を入力層に入力した場合に、出力層から色素性母斑である尤度が1という出力がなされる、ということを目的として学習が行われる。なお、これらの図中でも、白色の部分に、着目する細胞が存在することを示している。   On the other hand, FIG. 4A shows an image showing the distribution of dermal cells in skin tissue known to be pigmented nevus. FIG. 4B shows an image showing the distribution of epidermal cells in skin tissue known to be pigmented nevus. FIG. 4C shows an image showing the distribution of atypical cells in skin tissue known to be pigmented nevus. When such an image is input to the input layer, learning is performed for the purpose of outputting an output having a likelihood of 1 as a pigmented nevus from the output layer. Note that, also in these figures, white cells indicate that the cell of interest is present.

なお、第1段階の処理においても、畳み込みニューラルネットワークを用いても良い。この場合、皮膚組織を含む病理画像の部分的な画像(おおよそ1細胞と同様の大きさを有する部分的な画像又は抽出された1細胞を含む部分的な画像)を入力とし、真皮細胞と表皮細胞と異型細胞とその他(ガラス部分その他など)との尤度を出力とする学習済みの畳み込みニューラルネットワークを用いる。但し、第1段階の処理については、領域抽出などの他の技術を用いて、病理画像から、表皮細胞の分布、真皮細胞の分布、異型細胞の分布を抽出するようにしても良い。   Note that a convolutional neural network may be used in the first stage processing. In this case, a partial image of a pathological image including a skin tissue (a partial image having a size similar to one cell or a partial image including one extracted cell) is input, and dermis cells and epidermis are obtained. A learned convolutional neural network that outputs the likelihood of cells, atypical cells, and others (glass parts, etc.) is used. However, in the first stage processing, the distribution of epidermal cells, the distribution of dermal cells, and the distribution of atypical cells may be extracted from the pathological image by using another technique such as region extraction.

以下、このような処理を実施する情報処理装置の構成及び処理内容の詳細について説明する。   Hereinafter, the configuration of the information processing apparatus that performs such processing and the details of the processing will be described.

図5に、本実施の形態に係る情報処理装置の機能構成例を示す。   FIG. 5 shows a functional configuration example of the information processing apparatus according to the present embodiment.

本実施の形態に係る情報処理装置は、入力部101と、病理画像格納部103と、第1前処理部105と、第1画像格納部107と、第1CNN109と、第1後処理部111と、第2画像格納部113と、第2前処理部115と、第3画像格納部117と、第2CNN119と、第2後処理部121と、結果格納部123と、第1学習処理部131と、第2学習処理部133とを有する。   The information processing apparatus according to the present embodiment includes an input unit 101, a pathological image storage unit 103, a first preprocessing unit 105, a first image storage unit 107, a first CNN 109, and a first post-processing unit 111. , A second image storage unit 113, a second pre-processing unit 115, a third image storage unit 117, a second CNN 119, a second post-processing unit 121, a result storage unit 123, and a first learning processing unit 131. , A second learning processing unit 133.

入力部101は、ユーザから、処理対象の病理画像の入力を受け付け、病理画像格納部103に格納する。   The input unit 101 receives an input of a pathological image to be processed from a user, and stores the input in the pathological image storage unit 103.

上でも述べたが、病理画像は、病理組織のプレパラートをスキャンしてデジタル画像にしたものである。ここでは、例えば対物20倍に拡大してスキャンした画像であり、例えば縦横1M×1MピクセルのRGB画像である。   As described above, the pathological image is a digital image obtained by scanning a preparation of a pathological tissue. Here, the image is, for example, an image scanned by magnifying 20 times the objective, and is, for example, an RGB image of 1 M × 1 M pixels vertically and horizontally.

第1前処理部105は、第1CNN109における演算のため、1細胞程度のサイズに、病理画像格納部103に格納された病理画像を分割して、分割された病理画像(以下、分割画像と呼ぶ)を、第1画像格納部107に格納する。例えば、縦横32×32ピクセルの正方形の分割画像を生成する。   The first pre-processing unit 105 divides the pathological image stored in the pathological image storage unit 103 into a size of about one cell for calculation in the first CNN 109, and divides the pathological image (hereinafter, referred to as a divided image). ) Is stored in the first image storage unit 107. For example, a square divided image of 32 × 32 pixels in length and width is generated.

第1CNN109は、第1画像格納部107に格納されている各分割画像が、真皮細胞、表皮細胞、異型細胞、その他の細胞のいずれに該当するかを判別するように学習された畳み込みニューラルネットワークである。従って、第1CNN109は、処理に係る分割画像に対して、例えばそれぞれの尤度を出力する。   The first CNN 109 is a convolutional neural network that has been learned to determine whether each of the divided images stored in the first image storage unit 107 corresponds to a dermal cell, an epidermal cell, an atypical cell, or another cell. is there. Therefore, the first CNN 109 outputs, for example, the likelihood of each of the divided images related to the processing.

第1後処理部111は、第1CNN109からの出力に基づき、真皮細胞の分布を表す初期画像、表皮細胞の分布を表す初期画像、及び異型細胞の分布を表す初期画像を生成し、第2画像格納部113に格納する。例えば、分割画像が真皮細胞であると判別された場合には、真皮細胞の分布を表す初期画像において、その分割画像の位置の領域内における全ピクセルが「1」それ以外は「0」となるように設定される。すなわち、これらの初期画像はモノクロ画像である。このような場合、これらの初期画像のサイズは、病理画像と同じである。   The first post-processing unit 111 generates, based on the output from the first CNN 109, an initial image representing the distribution of dermal cells, an initial image representing the distribution of epidermal cells, and an initial image representing the distribution of atypical cells, and the second image It is stored in the storage unit 113. For example, if the divided image is determined to be a dermal cell, in the initial image representing the distribution of the dermal cells, all the pixels in the region at the position of the divided image are “1”, and otherwise “0”. It is set as follows. That is, these initial images are monochrome images. In such a case, the size of these initial images is the same as the pathological image.

第2前処理部115は、第2画像格納部113に格納された画像から、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像を生成し、第3画像格納部117に格納する。本実施の形態では、各初期画像を、第2CNN119で処理可能な画像サイズ(例えば縦横200×200ピクセル)に縮小する処理を実行する。例えば、この処理において、各ピクセルが所定階調(256階調)となるように変換する処理をも行う。すなわち、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像は、グレースケール画像である。   The second preprocessing unit 115 generates, from the images stored in the second image storage unit 113, an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, and an image representing the distribution of atypical cells. It is stored in the image storage unit 117. In the present embodiment, a process of reducing each initial image to an image size (for example, 200 × 200 pixels) that can be processed by the second CNN 119 is executed. For example, in this process, a process of converting each pixel to a predetermined gradation (256 gradations) is also performed. That is, an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, and an image representing the distribution of atypical cells are grayscale images.

第2CNN119は、第3画像格納部117に格納された画像から、悪性黒色腫か否かを出力する。例えば、悪性黒色腫の尤度、色素性母斑の尤度、その他の尤度を出力する。なお、悪性黒色腫の尤度とその他の尤度を出力するようにしても良い。   The second CNN 119 outputs, from the image stored in the third image storage unit 117, whether or not the cell is a malignant melanoma. For example, the likelihood of malignant melanoma, the likelihood of pigmented nevus, and other likelihoods are output. The likelihood of malignant melanoma and other likelihoods may be output.

第2後処理部121は、第2CNN119からの出力に基づき、鑑別結果を結果格納部123に格納し、表示装置その他の出力装置に鑑別結果を出力する。   The second post-processing unit 121 stores the discrimination result in the result storage unit 123 based on the output from the second CNN 119, and outputs the discrimination result to a display device or another output device.

このようにすれば、病理画像を入力すれば、自動的に、悪性黒色腫であるか否かの鑑別結果を得ることができるようになる。   In this way, by inputting a pathological image, it is possible to automatically obtain a result of discriminating whether or not the subject is a malignant melanoma.

本実施の形態では、表皮細胞の分布と真皮細胞の分布と異型細胞の分布とをそれぞれ別の画像として表すことで、分布間の関係を評価しやすくしている。これによって、畳み込みニューラルネットワークによる適切な鑑別を可能にしている。   In the present embodiment, the distribution of the epidermal cells, the distribution of the dermal cells, and the distribution of the atypical cells are represented as separate images, so that the relationship between the distributions can be easily evaluated. This enables appropriate discrimination by the convolutional neural network.

なお、第1学習処理部131は、細胞の画像とその種別とを多数セット含む訓練データで、第1CNN109に対する学習処理を実行する。学習処理の方法は、従来と同じなので詳細な説明については省略する。   The first learning processing unit 131 executes a learning process on the first CNN 109 with training data including a large number of sets of cell images and cell types. The method of the learning process is the same as the conventional one, so a detailed description will be omitted.

また、第2学習処理部133は、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と異型細胞の分布を表す画像と鑑別結果とを多数セット含む訓練データで、第2CNN119に対して学習処理を実行する。学習処理の方法は、従来と同じなので詳細な説明については省略する。   Further, the second learning processing unit 133 is a training data including a large number of sets of an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, an image representing the distribution of atypical cells, and a discrimination result. Execute the learning process. The method of the learning process is the same as the conventional one, so a detailed description will be omitted.

次に、図6乃至図8Cを用いて、本実施の形態に係る情報処理装置の処理内容を説明する。   Next, processing contents of the information processing apparatus according to the present embodiment will be described with reference to FIGS. 6 to 8C.

まず、入力部101は、ユーザから、処理対象の病理画像の入力を受け付け、病理画像格納部103に格納する(ステップS1)。表現上の問題でグレースケール画像になっているが、図1Aや図1Bに示すような画像(カラー画像)が、病理画像として入力される。入力された病理画像は、本情報処理装置の格納部、ネットワークに接続された他の装置の格納部等に格納されている場合があり、その場合には入力部101は、その格納部から読み出して病理画像格納部103に格納する。   First, the input unit 101 receives an input of a pathological image to be processed from a user, and stores the pathological image in the pathological image storage unit 103 (step S1). Although the image is a grayscale image due to a problem in expression, an image (color image) as shown in FIGS. 1A and 1B is input as a pathological image. The input pathological image may be stored in a storage unit of the present information processing apparatus, a storage unit of another apparatus connected to the network, or the like. In such a case, the input unit 101 reads out from the storage unit. Stored in the pathological image storage unit 103.

そうすると、第1前処理部105は、病理画像格納部103に格納された処理対象の病理画像に対して、第1前処理を実行し、処理結果を第1画像格納部107に格納する(ステップS3)。この第1前処理では、図7に模式的に示すように、病理画像1001を縦横N×Nピクセルの多数の分割画像1002に分割する。Nは例えば32や64である。なお、細胞の核を認識して細胞を特定し、細胞を含む画像領域を特定する処理を行うことで、分割画像を生成しても良い。   Then, the first preprocessing unit 105 executes the first preprocessing on the processing target pathological image stored in the pathological image storage unit 103, and stores the processing result in the first image storage unit 107 (step S3). In the first preprocessing, as schematically shown in FIG. 7, the pathological image 1001 is divided into a large number of divided images 1002 of N × N pixels. N is, for example, 32 or 64. Note that a divided image may be generated by recognizing a nucleus of a cell, specifying the cell, and performing a process of specifying an image region including the cell.

その後、第1CNN109は、第1画像格納部107に格納されている各分割画像を読み出して、それらに対して分類処理を実行する(ステップS5)。分類処理は、処理対象の分割画像が、真皮細胞、表皮細胞、異型細胞、その他の細胞のいずれに該当するかを判別する処理であり、例えばそれぞれについての尤度を出力する。   After that, the first CNN 109 reads out each divided image stored in the first image storage unit 107 and executes a classification process on them (step S5). The classification process is a process of determining whether the divided image to be processed corresponds to a dermal cell, an epidermal cell, an atypical cell, or another cell, and outputs, for example, the likelihood for each of the cells.

そして、第1後処理部111は、第1CNN109からの出力に基づき、第1後処理を実行し、処理結果を第2画像格納部113に格納する(ステップS7)。第1後処理では、図8Aに模式的に示すように、真皮細胞の分布を表す初期画像において、真皮細胞と判別された分割画像の位置における領域1002a内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。同様に、図8Bに模式的に示すように、表皮細胞の分布を表す初期画像において、表皮細胞と判別された分割画像の位置における領域1002b内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。さらに、図8Cに模式的に示すように、異型細胞の分布を表す初期画像において、異型細胞と判別された分割画像の位置における領域1002c内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。   Then, the first post-processing unit 111 executes the first post-processing based on the output from the first CNN 109, and stores the processing result in the second image storage unit 113 (Step S7). In the first post-processing, as shown schematically in FIG. 8A, in the initial image representing the distribution of the dermal cells, the pixel values of all the pixels in the region 1002a at the position of the divided image determined to be the dermal cells are set to “1”. To "." For the other pixels, the pixel values are set to “0”. Similarly, as schematically shown in FIG. 8B, in the initial image representing the distribution of the epidermal cells, the pixel values of all the pixels in the area 1002b at the position of the divided image determined to be the epidermal cells are set to “1”. I do. For the other pixels, the pixel values are set to “0”. Further, as schematically shown in FIG. 8C, in the initial image representing the distribution of the atypical cells, the pixel values of all the pixels in the region 1002c at the position of the divided image determined to be the atypical cells are set to “1”. . For the other pixels, the pixel values are set to “0”.

なお、このような第1後処理は一例であって、分布を表す初期画像のサイズを小さくするようにしても良い。例えば、分割画像1つにつき1ピクセルを対応付けて、分布を表す初期画像において、分割画像の位置の1ピクセルの画素値を「1」に設定するようにしても良い。このようにすれば、病理画像に対して縦も横も1/Nのサイズになる。   Note that such first post-processing is an example, and the size of the initial image representing the distribution may be reduced. For example, one pixel may be associated with each divided image, and in the initial image representing the distribution, the pixel value of one pixel at the position of the divided image may be set to “1”. In this way, the size of the pathological image is 1 / N both vertically and horizontally.

次に、第2前処理部115は、第2画像格納部113に格納されている画像に対して、第2前処理を実行し、処理結果を第3画像格納部117に格納する(ステップS9)。第2前処理では、画像の縮小処理を実行する。画像の縮小処理では、近隣ピクセルの画素値の平均を算出することで、縮小後のピクセルの画素値を算出する。分布を表す初期画像において画素値は「0」又は「1」であるから、平均を算出すると「0」乃至「1」の実数となる。この実数値を、例えば「0」乃至「255」のいずれかの整数となるように、線形にマップする。これによって、分布を表す初期画像(モノクロ画像)は、分布を表す画像(グレースケール画像)に変換される。なお、縮小処理において平均ではない方法を採用する場合もあるが、従来技術と同様であるからここでは詳細には述べない。   Next, the second preprocessing unit 115 performs the second preprocessing on the image stored in the second image storage unit 113, and stores the processing result in the third image storage unit 117 (step S9). ). In the second preprocessing, the image is reduced. In the image reduction processing, the pixel value of the pixel after reduction is calculated by calculating the average of the pixel values of the neighboring pixels. Since the pixel value is “0” or “1” in the initial image representing the distribution, when the average is calculated, it becomes a real number of “0” to “1”. This real value is linearly mapped to be an integer from “0” to “255”, for example. As a result, the initial image (monochrome image) representing the distribution is converted to an image (grayscale image) representing the distribution. In some cases, a non-average method is used in the reduction processing. However, since the method is the same as that of the related art, a detailed description will not be given here.

このような処理を実行することで、図3A及び図4Aに表すような真皮細胞の分布を表す画像、図3B及び図4Bに表すような表皮細胞の分布を表す画像、図3C及び図4Cに表すような異型細胞の分布を表す画像が得られるようになる。   By performing such processing, an image representing the distribution of dermal cells as shown in FIGS. 3A and 4A, an image representing the distribution of epidermal cells as shown in FIGS. 3B and 4B, and FIGS. 3C and 4C. As a result, an image representing the distribution of atypical cells can be obtained.

なお、本実施の形態では、畳み込みニューラルネットワークの負荷等の問題から分布を表す初期画像に対して縮小処理を実行するようにしているが、負荷等の問題が無いのであれば、縮小せずとも良い。   In the present embodiment, the reduction processing is performed on the initial image representing the distribution due to the load and the like of the convolutional neural network. However, if there is no load and the like, the reduction processing may be performed without reduction. good.

そうすると、第2CNN119は、第3画像格納部117に格納されている画像を読み出して、それらに対して鑑別処理を実行する(ステップS11)。本実施の形態では、図3A乃至図3C又は図4A乃至図4Cのようなグレースケール画像群を、カラー画像の各チャネルのグレースケール画像として処理することになる。鑑別処理は、ここでは悪性黒色腫であるか否かであり、例えば、悪性黒色腫の尤度と、色素性母斑の尤度と、それ以外の尤度とが出力される。上でも述べたように、悪性黒色腫とその他との鑑別としても良い。   Then, the second CNN 119 reads out the images stored in the third image storage unit 117 and executes the discrimination processing on them (step S11). In the present embodiment, a group of grayscale images as shown in FIGS. 3A to 3C or FIGS. 4A to 4C is processed as a grayscale image of each channel of a color image. The discrimination processing here is whether or not the cell is a malignant melanoma. For example, the likelihood of a malignant melanoma, the likelihood of a pigmented nevus, and other likelihoods are output. As mentioned above, it is also possible to distinguish malignant melanoma from others.

第2後処理部121は、第2CNN119からの出力に基づき、鑑別結果を結果格納部123に格納し、表示装置その他の出力装置に出力する(ステップS13)。出力装置は、ネットワークに接続された他の装置である場合もある。   The second post-processing unit 121 stores the discrimination result in the result storage unit 123 based on the output from the second CNN 119, and outputs the result to a display device or another output device (step S13). The output device may be another device connected to the network.

以上のようにすれば、処理対象の皮膚組織における、表皮細胞の分布と真皮細胞の分布とに対する異型細胞の分布に基づき、病理組織の悪性度が学習されて、適切に鑑別結果が得られるようになる。   According to the above, based on the distribution of atypical cells relative to the distribution of epidermal cells and the distribution of dermal cells in the skin tissue to be treated, the malignancy of the pathological tissue is learned, and an appropriate discrimination result can be obtained. become.

なお、検査の簡略化や患者の負担軽減も望める。   In addition, simplification of the examination and reduction of the burden on the patient can be expected.

[実施の形態1の変形例A]
図3A乃至図3Cや図4A乃至図4Cのような画像における皮膚組織の輪郭や皮膚組織内におけるその他部分の分布などの補助情報が有用な場合もある。そのような場合には、病理画像を、分布を表す画像のサイズに合わせるように縮小してグレースケール画像にしたものを用いるようにしても良い。
[Modification A of Embodiment 1]
Auxiliary information such as the contour of the skin tissue and the distribution of other parts in the skin tissue in images such as FIGS. 3A to 3C and FIGS. 4A to 4C may be useful. In such a case, the pathological image may be reduced to a grayscale image so as to match the size of the image representing the distribution.

すなわち、第2前処理部115は、病理画像格納部103から病理画像を読み出して、所定のサイズに縮小して、第3画像格納部117に格納する。   That is, the second preprocessing unit 115 reads the pathological image from the pathological image storage unit 103, reduces the size to a predetermined size, and stores the reduced size in the third image storage unit 117.

第2CNN119については、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像に加えて、病理画像の縮小グレースケール画像をさらに用いて学習しておく。   The second CNN 119 is learned by further using a reduced grayscale image of a pathological image in addition to an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, and an image representing the distribution of atypical cells.

そして、第2CNN119により鑑別処理を行う場合には、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像に加えて、病理画像の縮小グレースケール画像を入力して、悪性黒色腫であるか否かの鑑別を実行させる。   When performing the discrimination processing by the second CNN 119, a reduced grayscale image of a pathological image is input in addition to an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, and an image representing the distribution of atypical cells. Then, it is determined whether or not the subject is a malignant melanoma.

これによって鑑別精度が向上する。   Thereby, the discrimination accuracy is improved.

[実施の形態1の変形例B]
さらに、悪性黒色腫の進行度合いが上がると、免疫細胞が増加するという現象があることに着目すると、免疫細胞の分布を表す画像を、第2CNN119の入力としてさらに用いるようにしても良い。
[Modification B of Embodiment 1]
Further, when attention is paid to the phenomenon that the number of immune cells increases as the degree of progress of malignant melanoma increases, an image representing the distribution of immune cells may be further used as an input of the second CNN 119.

すなわち、第1CNN109については、各分割画像について、真皮細胞、表皮細胞、免疫細胞、異型細胞、その他のいずれであるかという判別を行うように構成しておき、真皮細胞の画像、表皮細胞の画像、免疫細胞の画像、異型細胞の画像を用いて学習しておく。そうすれば、第1CNN109は、真皮細胞、表皮細胞、免疫細胞、異型細胞、その他のそれぞれについての尤度を出力する。   That is, the first CNN 109 is configured so as to determine whether each of the divided images is a dermal cell, an epidermal cell, an immune cell, an atypical cell, or the like, and an image of the dermal cell and an image of the epidermal cell Learning is performed using an image of an immune cell and an image of an atypical cell. Then, the first CNN 109 outputs the likelihood for each of the dermal cells, epidermal cells, immune cells, atypical cells, and others.

第1後処理部111は、第1CNN109からの出力に基づき、真皮細胞の分布を表す初期画像、表皮細胞の分布を表す初期画像、免疫細胞の分布を表す初期画像、異型細胞の分布を表す初期画像を生成する。免疫細胞の分布を表す初期画像は、他の分布を表す初期画像と同様に生成される。   Based on the output from the first CNN 109, the first post-processing unit 111 generates an initial image indicating the distribution of dermal cells, an initial image indicating the distribution of epidermal cells, an initial image indicating the distribution of immune cells, and an initial image indicating the distribution of atypical cells. Generate an image. The initial image representing the distribution of immune cells is generated in the same manner as the initial images representing other distributions.

また、第2前処理部115は、免疫細胞の分布を表す初期画像から、他の分布を表す画像と同様に、免疫細胞の分布を表す画像を生成する。悪性黒色腫と分かっている皮膚組織における免疫細胞の分布を表す画像は、例えば図9に示すような画像である。また、色素性母斑と分かっている皮膚組織における免疫細胞の分布を表す画像は、例えば図10に示すような画像である。なお、これらの図中でも、白色の部分に、着目する細胞が存在することを示している。図9の方が、異型細胞の分布との重なりが見られる。   In addition, the second preprocessing unit 115 generates an image representing the distribution of immune cells from the initial image representing the distribution of immune cells, in the same manner as the images representing other distributions. An image showing the distribution of immune cells in skin tissue known to be malignant melanoma is, for example, an image shown in FIG. An image representing the distribution of immune cells in skin tissue known to be pigmented nevus is, for example, an image as shown in FIG. Note that, also in these figures, white cells indicate that the cell of interest is present. FIG. 9 shows an overlap with the distribution of atypical cells.

さらに、第2CNN119については、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像に加えて、免疫細胞の分布を表す画像をさらに用いて学習しておく。   Further, the second CNN 119 is learned by further using an image representing the distribution of immune cells in addition to an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, and an image representing the distribution of atypical cells.

そして、第2CNN119により鑑別処理を行う場合には、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像に加えて、免疫細胞の分布を表す画像を入力して、悪性黒色腫と色素性母斑とその他とのいずれかであるかの鑑別を実行させる。   In the case of performing the differentiation processing by the second CNN 119, an image representing the distribution of immune cells is input in addition to an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, and an image representing the distribution of atypical cells. Then, a distinction is made between malignant melanoma, pigmented nevus, and others.

これによって鑑別精度が向上する。   Thereby, the discrimination accuracy is improved.

[実施の形態1の変形例C]
さらに、悪性黒色腫の進行度合いなどを含む病状と管腔を作る細胞の分布とが関係していると推定されることがあるため、管腔を作る細胞の分布を表す画像を、第2CNN119の入力としてさらに用いるようにしても良い。
[Modification C of First Embodiment]
Further, since it may be estimated that the pathology including the degree of progression of malignant melanoma is related to the distribution of cells forming the lumen, an image showing the distribution of cells forming the lumen is obtained from the second CNN119. It may be further used as an input.

この場合には、変形例Bにおける免疫細胞に代わって管腔を作る細胞を用いるように変形する。   In this case, a modification is made such that the cells forming the lumen are used instead of the immune cells in the modification B.

すなわち、第1CNN109については、各分割画像について、真皮細胞、表皮細胞、管腔を作る細胞、異型細胞、その他のいずれであるかという判別を行うように構成しておき、真皮細胞の画像、表皮細胞の画像、管腔を作る細胞の画像、異型細胞の画像を用いて学習しておく。そうすれば、第1CNN109は、真皮細胞、表皮細胞、管腔を作る細胞、異型細胞、その他のそれぞれについての尤度を出力する。   That is, the first CNN 109 is configured so as to determine whether each of the divided images is a dermal cell, an epidermal cell, a cell forming a lumen, an atypical cell, or the like. Learning is performed using the image of the cell, the image of the cell forming the lumen, and the image of the atypical cell. Then, the first CNN 109 outputs the likelihood for each of the dermal cells, the epidermal cells, the cells forming the lumen, the atypical cells, and the like.

第1後処理部111は、第1CNN109からの出力に基づき、真皮細胞の分布を表す初期画像、表皮細胞の分布を表す初期画像、管腔を作る細胞の分布を表す初期画像、異型細胞の分布を表す初期画像を生成する。管腔を作る細胞の分布を表す初期画像は、他の分布を表す初期画像と同様に生成される。   Based on the output from the first CNN 109, the first post-processing unit 111 generates an initial image indicating the distribution of dermal cells, an initial image indicating the distribution of epidermal cells, an initial image indicating the distribution of cells forming a lumen, and the distribution of atypical cells. Generate an initial image representing. The initial image representing the distribution of cells forming the lumen is generated in the same manner as the initial images representing other distributions.

また、第2前処理部115は、管腔を作る細胞の分布を表す初期画像から、他の分布を表す画像と同様に、管腔を作る細胞の分布を表す画像を生成する。悪性黒色腫と分かっている皮膚組織における管腔を作る細胞の分布を表す画像は、例えば図11に示すような画像である。また、色素性母斑と分かっている皮膚組織における管腔を作る細胞の分布を表す画像は、例えば図12に示すような画像である。なお、これらの図中でも、白色の部分に、着目する細胞が存在することを示している。図11の方が、異型細胞の分布が多い部分に隣接して多くの管腔を作る細胞が存在している。   In addition, the second preprocessing unit 115 generates an image representing the distribution of cells forming the lumen from the initial image representing the distribution of cells forming the lumen, like the images representing the other distributions. An image representing the distribution of cells forming the lumen in skin tissue known to be malignant melanoma is, for example, an image as shown in FIG. An image showing the distribution of cells forming a lumen in skin tissue known to be pigmented nevus is, for example, an image as shown in FIG. Note that, also in these figures, white cells indicate that the cell of interest is present. In FIG. 11, there are cells forming many lumens adjacent to a portion where the distribution of atypical cells is large.

さらに、第2CNN119については、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像に加えて、管腔を作る細胞の分布を表す画像をさらに用いて学習しておく。   Further, for the second CNN 119, in addition to an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, and an image representing the distribution of atypical cells, learning is further performed using an image representing the distribution of cells forming the lumen. Keep it.

そして、第2CNN119により鑑別処理を行う場合には、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、異型細胞の分布を表す画像に加えて、管腔を作る細胞の分布を表す画像を入力して、悪性黒色腫と色素性母斑とその他とのいずれであるかの鑑別を実行させる。   When the second CNN 119 performs the discrimination processing, in addition to the image representing the distribution of the dermal cells, the image representing the distribution of the epidermal cells, the image representing the distribution of the atypical cells, and the image representing the distribution of the cells forming the lumen. Is input to make the discrimination between malignant melanoma, pigmented nevus, and others.

これによって鑑別精度が向上する。   Thereby, the discrimination accuracy is improved.

[実施の形態1の変形例D]
変形例A乃至Cについては、任意に組み合わせることができる。すなわち、病理画像の縮小グレースケール画像、免疫細胞の分布を表す画像、管腔を作る細胞の分布を表す画像の少なくともいずれかを用いるようにしても良い。
[Modification D of Embodiment 1]
Modifications A to C can be arbitrarily combined. That is, at least one of a reduced grayscale image of a pathological image, an image representing the distribution of immune cells, and an image representing the distribution of cells forming a lumen may be used.

なお、免疫細胞については、好中球、リンパ球、マクロファージといった種類もあるので、いずれかの種類の分布を表す画像を用いるようにしても良い。   In addition, since there are various types of immune cells such as neutrophils, lymphocytes, and macrophages, an image representing any type of distribution may be used.

[実施の形態2]
第1の実施の形態のように悪性黒色腫の鑑別を行うだけではなく、予後予測(余命)、進行度を表す病期分類予測、特定薬剤に対する投薬効果の予測などを行うように変形してもよい。
[Embodiment 2]
As in the first embodiment, the present invention is modified not only to differentiate malignant melanoma, but also to perform prognosis prediction (life expectancy), stage classification prediction indicating the degree of progression, prediction of medication effect on a specific drug, and the like. Is also good.

なお、予後予測(余命)については、実数(例えば5年など)を予測しても良いし、1年未満、1年以上3年、3年から5年、5年以上といったような予め決められた余命レンジや生存率曲線で表されるような時間経過における生存確率を予測しても良い。   As for the prognosis prediction (life expectancy), a real number (for example, 5 years) may be predicted, or a predetermined value such as less than 1 year, 1 year or more, 3 years, 3 years to 5 years, 5 years or more, etc. It is also possible to predict the survival probability over time as represented by the life expectancy range and the survival rate curve.

病期分類予測は、悪性黒色腫がどれほど悪いかを、所定数のステージで表して、そのステージを予測するものである。   The staging classification prediction is to predict how bad a malignant melanoma is by expressing it in a predetermined number of stages.

投薬効果予測は、悪性黒色腫に特定の薬剤(例えば高価なニボルマブなど)を投与した場合の効果を予測するもので、効果あり又はなしを予測するものである。   The drug effect prediction predicts the effect when a specific drug (eg, expensive nivolumab) is administered to malignant melanoma, and predicts whether or not there is an effect.

このような病状に関する予測には、第1の実施の形態における主要な情報である表皮細胞の分布、真皮細胞の分布、及び異型細胞の分布は、有効である。これは、真皮細胞の分布及び表皮細胞の分布に対する異型細胞の分布、すなわち異型細胞がどのような部分にどのような分布で存在するかということは、どの程度病理組織が悪性であるかを表すからであり、悪性度が高ければ予後が悪いことが予測されるからである。   The distribution of the epidermal cells, the distribution of the dermal cells, and the distribution of the atypical cells, which are the main information in the first embodiment, are effective in predicting such a disease state. This indicates that the distribution of atypical cells with respect to the distribution of dermal cells and the distribution of epidermal cells, that is, the distribution of atypical cells and the distribution of atypical cells indicates the extent to which pathological tissue is malignant. This is because the higher the degree of malignancy, the worse the prognosis is expected.

加えて、悪性黒色腫の進行度合いが上がると、免疫細胞が増加するという現象があること、管腔を作る細胞内に異型細胞が存在する場合には転移の危険性があることに着目すると、これらの免疫細胞及び管腔を作る細胞の分布についても、予後に関連する。   In addition, focusing on the fact that when the degree of progression of malignant melanoma increases, there is a phenomenon that immune cells increase, and there is a risk of metastasis when atypical cells exist in the cells that make up the lumen. The distribution of these immune cells and the cells that make up the lumen is also relevant for prognosis.

さらに、特定の薬剤の投薬効果には免疫細胞、特に好中球及びリンパ球が関係する可能性がある。   In addition, immune effects, particularly neutrophils and lymphocytes, may be involved in the effect of certain drugs.

従って、第1の実施の形態と基本的な構成はほぼ同じだが、鑑別処理を行う第2CNN119に加えて、投薬効果予測のための畳み込みニューラルネットワークと、予後予測のための畳み込みニューラルネットワークと、病期分類予測のための畳み込みニューラルネットワークとを追加導入する。   Therefore, although the basic configuration is almost the same as that of the first embodiment, in addition to the second CNN 119 for performing the discriminating process, a convolutional neural network for predicting the medication effect, a convolutional neural network for predicting the prognosis, A convolutional neural network for period classification prediction is additionally introduced.

さらに、第1CNN109についても、鑑別処理及び病状に関する予測処理で用いられる画像を生成できるように変形する。本実施の形態では、真皮細胞、表皮細胞、免疫細胞、管腔を作る細胞、その他を判別するようにする。但し、特定の薬剤に対する投薬効果予測を行う場合には、免疫細胞の種類(好中球、リンパ球、マクロファージ)をさらに判別できるようにする。   Further, the first CNN 109 is also modified so as to generate an image used in the discrimination processing and the prediction processing relating to the medical condition. In the present embodiment, dermal cells, epidermal cells, immune cells, cells forming a lumen, and others are determined. However, when predicting the effect of medication for a specific drug, the type of immune cell (neutrophil, lymphocyte, macrophage) can be further distinguished.

本実施の形態に係る情報処理装置の構成例を図13に示す。なお、第1の実施の形態に係る情報処理装置の構成要素と同様の機能を有する場合には、同じ参照番号を付している。   FIG. 13 shows a configuration example of the information processing apparatus according to the present embodiment. Note that the same reference numerals are given to components having the same functions as those of the information processing apparatus according to the first embodiment.

本実施の形態に係る情報処理装置は、入力部201と、病理画像格納部103と、第1前処理部105と、第1画像格納部107と、第1CNN209a及び209bと、第1後処理部211と、第2画像格納部113と、第2前処理部115と、第3画像格納部117と、第2CNN219a乃至219dと、第2後処理部221と、結果格納部123と、第1学習処理部231と、第2学習処理部233とを有する。   The information processing apparatus according to the present embodiment includes an input unit 201, a pathological image storage unit 103, a first preprocessing unit 105, a first image storage unit 107, first CNNs 209a and 209b, and a first post-processing unit. 211, a second image storage unit 113, a second pre-processing unit 115, a third image storage unit 117, second CNNs 219a to 219d, a second post-processing unit 221, a result storage unit 123, a first learning unit It has a processing unit 231 and a second learning processing unit 233.

入力部201は、ユーザから、処理対象の病理画像の入力を受け付け、病理画像格納部103に格納する。また、入力部201は、処理内容についても指示を受け付ける。すなわち、悪性黒色腫の鑑別、予後予測(余命)、進行度を表す病期分類予測、特定薬剤に対する投薬効果の予測のうち1又は複数の処理の指定を受け付ける。   The input unit 201 receives an input of a pathological image to be processed from a user and stores the input in the pathological image storage unit 103. The input unit 201 also receives an instruction regarding the processing content. That is, designation of one or a plurality of processes of differentiation of malignant melanoma, prediction of prognosis (life expectancy), prediction of stage classification indicating the degree of progression, and prediction of medication effect on a specific drug are accepted.

第1前処理部105の処理内容は、第1の実施の形態と同様である。   The processing content of the first preprocessing unit 105 is the same as that of the first embodiment.

第1CNN209aは、第1画像格納部107に格納されている各分割画像が、真皮細胞、表皮細胞、免疫細胞、管腔を作る細胞、異型細胞、その他の細胞のいずれに該当するかを判別するように学習された畳み込みニューラルネットワークである。従って、第1CNN209aは、処理に係る分割画像に対して、例えばそれぞれの尤度を出力する。   The first CNN 209a determines whether each of the divided images stored in the first image storage unit 107 corresponds to a dermal cell, an epidermal cell, an immune cell, a cell forming a lumen, an atypical cell, or another cell. Is a convolutional neural network learned as follows. Therefore, the first CNN 209a outputs, for example, the likelihood of each of the divided images related to the processing.

第1CNN209bは、第1画像格納部107に格納されている各分割画像が、好中球、リンパ球、マクロファージ、その他の細胞のいずれに該当するかを判別するように学習された畳み込みニューラルネットワークである。従って、第1CNN209bは、処理に係る分割画像に対して、例えばそれぞれの尤度を出力する。   The first CNN 209b is a convolutional neural network that has been learned to determine whether each of the divided images stored in the first image storage unit 107 corresponds to a neutrophil, a lymphocyte, a macrophage, or another cell. is there. Therefore, the first CNN 209b outputs, for example, the likelihood of each of the divided images related to the processing.

第1CNN209aと第1CNN209bは、例えば入力部201からの指示に応じて動作する。例えば、特定の薬剤に対する投薬効果予測を行う場合には、第1CNN209aと第1CNN209bを用いるようにする。その他の場合には、第1CNN209aのみを用いるようにする。   The first CNN 209a and the first CNN 209b operate, for example, in response to an instruction from the input unit 201. For example, when predicting the medication effect for a specific drug, the first CNN 209a and the first CNN 209b are used. In other cases, only the first CNN 209a is used.

第1後処理部211は、第1CNN209aからの出力に基づき、真皮細胞の分布を表す初期画像、表皮細胞の分布を表す初期画像、免疫細胞の分布を表す初期画像、管腔を作る細胞の分布を表す初期画像、及び異型細胞の分布を表す初期画像を生成し、第2画像格納部113に格納する。例えば、分割画像が表皮細胞であると判別された場合には、表皮細胞の分布を表す初期画像において、その分割画像の位置の領域内における全ピクセルが「1」それ以外は「0」となるように設定される。すなわち、これらの初期画像はモノクロ画像である。このような場合、これらの初期画像のサイズは、病理画像と同じである。   Based on the output from the first CNN 209a, the first post-processing unit 211 generates an initial image representing a distribution of dermal cells, an initial image representing a distribution of epidermal cells, an initial image representing a distribution of immune cells, and a distribution of cells forming a lumen. And an initial image representing the distribution of atypical cells are generated and stored in the second image storage unit 113. For example, when the divided image is determined to be an epidermal cell, in the initial image representing the distribution of the epidermal cells, all the pixels in the region at the position of the divided image are “1”, and otherwise “0”. It is set as follows. That is, these initial images are monochrome images. In such a case, the size of these initial images is the same as the pathological image.

同様に、第1後処理部211は、第1CNN209bからの出力に基づき、好中球の分布を表す初期画像、リンパ球の分布を表す初期画像、及びマクロファージの分布を表す初期画像を生成し、第2画像格納部113に格納する。具体的な処理内容は、第1CNN209aからの出力の場合と同様である。   Similarly, based on the output from the first CNN 209b, the first post-processing unit 211 generates an initial image representing the distribution of neutrophils, an initial image representing the distribution of lymphocytes, and an initial image representing the distribution of macrophages, It is stored in the second image storage unit 113. The specific processing contents are the same as in the case of the output from the first CNN 209a.

第2前処理部115は、第2画像格納部113に格納された画像から、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、免疫細胞の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像を生成し、第3画像格納部117に格納する。処理内容は、第1の実施の形態と同様である。なお、第1CNN209bからの出力がある場合には、第2前処理部115は、第2画像格納部113に格納された好中球の分布を表す初期画像、マクロファージの分布を表す初期画像、リンパ球の分布を表す初期画像から、好中球の分布を表す画像、マクロファージの分布を表す画像、リンパ球の分布を表す画像を生成し、第3画像格納部117に格納する。   The second pre-processing unit 115, from the images stored in the second image storage unit 113, an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, an image representing the distribution of immune cells, and cells forming the lumen And an image representing the distribution of atypical cells are generated and stored in the third image storage unit 117. The processing content is the same as in the first embodiment. If there is an output from the first CNN 209b, the second pre-processing unit 115 generates an initial image representing the distribution of neutrophils stored in the second image storage unit 113, an initial image representing the distribution of macrophages, From the initial image representing the sphere distribution, an image representing the distribution of neutrophils, an image representing the distribution of macrophages, and an image representing the distribution of lymphocytes are generated and stored in the third image storage unit 117.

第2CNN219aは、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、免疫細胞の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像から、悪性黒色腫と色素性母斑とその他とのいずれかを出力するように学習された畳み込みニューラルネットワークである。第2CNN219aは、第3画像格納部117に格納されている画像から、例えば悪性黒色腫の尤度、色素性母斑の尤度、その他の尤度を出力する。但し、第1の実施の形態のように、免疫細胞の分布を表す画像や管腔を作る細胞の分布を表す画像を用いずに鑑別を行っても良い。   The second CNN 219a is obtained from an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, an image representing the distribution of immune cells, an image representing the distribution of cells forming the lumen, and an image representing the distribution of atypical cells. A convolutional neural network trained to output either a tumour, a pigmented nevus, and others. The second CNN 219a outputs, for example, the likelihood of malignant melanoma, the likelihood of pigmented nevus, and other likelihoods from the image stored in the third image storage unit 117. However, as in the first embodiment, discrimination may be performed without using an image representing the distribution of immune cells or an image representing the distribution of cells forming a lumen.

第2CNN219bは、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、免疫細胞の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像から、予後予測(余命)の予測値(実数(年)、余命レンジ毎の尤度、又は生存率曲線で表されるような時間経過における生存確率)を出力するように学習された畳み込みニューラルネットワークである。第2CNN219bは、第3画像格納部117に格納されている画像から、予後予測の予測値を出力する。   The second CNN 219b predicts prognosis from an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, an image representing the distribution of immune cells, an image representing the distribution of cells forming the lumen, and an image representing the distribution of atypical cells. This is a convolutional neural network that has been learned to output a predicted value of (life expectancy) (real number (year), likelihood for each life expectancy range, or survival probability over time as represented by a survival rate curve). The second CNN 219b outputs a predicted value of prognosis prediction from the image stored in the third image storage unit 117.

第2CNN219cは、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、免疫細胞の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像から、病期分類予測(例えば各ステージの尤度)を出力するように学習された畳み込みニューラルネットワークである。第2CNN219cは、第3画像格納部117に格納されている画像に対する病期分類予測(例えば各ステージの尤度)を出力する。   The second CNN 219c is obtained from an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, an image representing the distribution of immune cells, an image representing the distribution of cells forming the lumen, and an image representing the distribution of atypical cells. This is a convolutional neural network that has been learned to output classification prediction (eg, likelihood of each stage). The second CNN 219c outputs a stage classification prediction (for example, likelihood of each stage) for an image stored in the third image storage unit 117.

第2CNN219dは、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、好中球の分布を表す画像、マクロファージの分布を表す画像、リンパ球の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像から、特定の薬剤の投薬効果(例えば有りの尤度と無しの尤度)を出力するように学習された畳み込みニューラルネットワークである。第2CNN219dは、第3画像格納部117に格納されている画像から、特定の薬剤の投薬効果を出力する。   The second CNN 219d is an image showing distribution of dermal cells, an image showing distribution of epidermal cells, an image showing distribution of neutrophils, an image showing distribution of macrophages, an image showing distribution of lymphocytes, and an image showing distribution of lymphocytes. This is a convolutional neural network that has been learned so as to output a medication effect (for example, likelihood of existence and absence likelihood) of a specific drug from an image representing distribution and an image representing distribution of atypical cells. The second CNN 219d outputs the medication effect of the specific medicine from the image stored in the third image storage unit 117.

第2後処理部221は、第2CNN219aからの出力に基づき、鑑別結果を結果格納部123に格納し、表示装置その他の出力装置に鑑別結果を出力する。さらに、病状に関する予測を行うようになっている場合には、第2後処理部221は、第2CNN219b乃至219dの少なくともいずれかからの出力に基づき、病状に関する予測結果を結果格納部123に格納し、表示装置その他の出力装置に予測結果を出力する。   The second post-processing unit 221 stores the discrimination result in the result storage unit 123 based on the output from the second CNN 219a, and outputs the discrimination result to a display device or another output device. Further, in the case where the prediction regarding the medical condition is performed, the second post-processing unit 221 stores the prediction result regarding the medical condition in the result storage unit 123 based on the output from at least one of the second CNNs 219b to 219d. And outputs the prediction result to a display device or other output device.

このようにすれば、病理画像を入力すれば、自動的に、悪性黒色腫又は色素性母斑であるか否かの鑑別結果、さらに病状に関する予測結果を得ることができるようになる。   In this way, by inputting a pathological image, it is possible to automatically obtain a result of discriminating whether or not the subject is a malignant melanoma or a pigmented nevus, and a prediction result regarding a medical condition.

本実施の形態では、表皮細胞の分布と真皮細胞の分布と異型細胞の分布と免疫細胞の分布と管腔を作る細胞の分布とをそれぞれ別の画像として表すことで、分布間の関係を評価しやすくしている。これによって、畳み込みニューラルネットワークによる適切な鑑別や病状に関する予測を可能にしている。   In this embodiment, the distribution of epidermal cells, the distribution of dermal cells, the distribution of atypical cells, the distribution of immune cells, and the distribution of cells forming the lumen are represented as separate images, thereby evaluating the relationship between distributions. It is easy to do. This enables appropriate discrimination and prediction of a medical condition by using a convolutional neural network.

特に、免疫細胞の分布や管腔を作る細胞の分布を加えて評価することで、悪性黒色腫であった場合における腫瘍の悪性度合い、転移の可能性を評価できるようになる。また、特定の薬剤との関係が推定される免疫細胞の分布をさらに評価すれば、特定の薬剤の効果の有無を予測できるため、例えば高価な薬剤の投与の適否を判断できるようになる。   In particular, by evaluating the distribution of immune cells and the distribution of cells forming the lumen, it becomes possible to evaluate the degree of malignancy of the tumor and the possibility of metastasis in the case of malignant melanoma. Further, by further evaluating the distribution of immune cells that are presumed to have a relationship with a specific drug, the presence or absence of the effect of the specific drug can be predicted. For example, it is possible to determine whether or not administration of an expensive drug is appropriate.

なお、第1学習処理部231は、細胞の画像とその種別とを多数セット含む訓練データで、第1CNN209a及び209bに対する学習処理を実行する。学習処理の方法は、従来と同じなので詳細な説明については省略する。   The first learning processing unit 231 performs a learning process on the first CNNs 209a and 209b using training data including a large number of sets of cell images and their types. The method of the learning process is the same as the conventional one, so a detailed description will be omitted.

また、第2学習処理部233は、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と異型細胞の分布を表す画像と管腔を作る細胞の分布を表す画像と免疫細胞の分布を表す画像と鑑別結果とを多数セット含む訓練データで、第2CNN219aに対して学習処理を実行する。同様に、第2学習処理部233は、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と異型細胞の分布を表す画像と管腔を作る細胞の分布を表す画像と免疫細胞の分布を表す画像と、予後予測(余命)又は病期分類予測(ステージ番号など)とを多数セット含む訓練データで、第2CNN219b又は219cに対して学習処理を実行する。さらに、第2学習処理部233は、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と異型細胞の分布を表す画像と管腔を作る細胞の分布を表す画像と好中球の分布を表す画像とマクロファージの分布を表す画像とリンパ球の分布を表す画像と、特定薬剤の投薬効果(効果の有無など)とを多数セット含む訓練データで、第2CNN219dに対して学習処理を実行する。学習処理の方法は、従来と同じなので詳細な説明については省略する。   Further, the second learning processing unit 233 generates an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, an image representing the distribution of atypical cells, an image representing the distribution of cells forming the lumen, and the distribution of immune cells. A learning process is performed on the second CNN 219a using training data including a large number of sets of images and discrimination results. Similarly, the second learning processing unit 233 includes an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, an image representing the distribution of atypical cells, an image representing the distribution of cells forming the lumen, and the distribution of immune cells. The learning process is performed on the second CNN 219b or 219c using training data including a large number of sets of images indicating prognosis (life expectancy) or stage classification prediction (stage number or the like). The second learning processing unit 233 further includes an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, an image representing the distribution of atypical cells, an image representing the distribution of cells forming the lumen, and the distribution of neutrophils. The learning process is performed on the second CNN 219d with training data including a large number of images representing the distribution of macrophages, images representing the distribution of lymphocytes, and images representing the distribution of lymphocytes, and a number of medication effects (presence or absence of effects) of the specific drug. . The method of the learning process is the same as the conventional one, so a detailed description will be omitted.

次に、図14を用いて、本実施の形態に係る情報処理装置の処理内容を説明する。   Next, the processing content of the information processing apparatus according to the present embodiment will be described using FIG.

まず、入力部201は、ユーザから、処理対象の病理画像の入力を受け付け、病理画像格納部103に格納する(ステップS31)。図6のステップS1と同様である。   First, the input unit 201 receives an input of a pathological image to be processed from a user, and stores the pathological image in the pathological image storage unit 103 (step S31). This is the same as step S1 in FIG.

また、入力部201は、ユーザから、鑑別処理に加えて実行すべき病状に関する予測処理の指示の入力を受け付ける(ステップS33)。例えば、ユーザが、予後予測、病期分類予測、及び特定の薬剤の投薬効果のうち少なくともいずれかの指示を行って、当該指示を受け付ける。但し、病状に関する予測を行わないようにしても良いし、鑑別結果が悪性黒色腫ではない場合には、病状に関する予測を行わないものとする。   Further, the input unit 201 receives an input of an instruction of a prediction process regarding a medical condition to be executed in addition to the discrimination process from the user (step S33). For example, the user gives an instruction of at least one of prognosis prediction, staging classification prediction, and medication effect of a specific drug, and receives the instruction. However, the prediction regarding the medical condition may not be performed, and the prediction regarding the medical condition is not performed when the discrimination result is not malignant melanoma.

そうすると、第1前処理部105は、病理画像格納部103に格納された処理対象の病理画像に対して、第1前処理を実行し、処理結果を第1画像格納部107に格納する(ステップS35)。この第1前処理は、図6のステップS3と同様である。   Then, the first preprocessing unit 105 executes the first preprocessing on the processing target pathological image stored in the pathological image storage unit 103, and stores the processing result in the first image storage unit 107 (step S35). This first preprocessing is the same as step S3 in FIG.

その後、第1CNN209aは、第1画像格納部107に格納されている各分割画像を読み出して、それらに対して分類処理を実行する(ステップS37)。この分類処理は、処理対象の分割画像が、真皮細胞、表皮細胞、免疫細胞、管腔を作る細胞、異型細胞、その他の細胞のいずれに該当するかを判別する処理であり、例えばそれぞれについての尤度を出力する。   After that, the first CNN 209a reads out the divided images stored in the first image storage unit 107 and executes a classification process on them (step S37). This classification process is a process of determining whether the divided image to be processed corresponds to a dermal cell, an epidermal cell, an immune cell, a cell forming a lumen, an atypical cell, or another cell. Output likelihood.

なお、特定の薬剤の投薬効果の予測を指示された場合には、入力部201は、第1CNN209bに対して処理の実行を指示する。そうすると、第1CNN209bも、第1画像格納部107に格納されている各分割画像に対して、分類処理を実行する。この分類処理は、処理対象の分割画像が、好中球、マクロファージ、リンパ球、その他の細胞のいずれに該当するかを判別する処理であり、例えばそれぞれについての尤度を出力する。   When the prediction of the medication effect of the specific medicine is instructed, the input unit 201 instructs the first CNN 209b to execute the process. Then, the first CNN 209b also performs a classification process on each of the divided images stored in the first image storage unit 107. This classification processing is processing for determining whether the divided image to be processed corresponds to a neutrophil, a macrophage, a lymphocyte, or another cell, and outputs, for example, the likelihood of each.

そして、第1後処理部211は、第1CNN209a及び/又は第1CNN209bからの出力に基づき、第1後処理を実行し、処理結果を第2画像格納部113に格納する(ステップS39)。   Then, the first post-processing unit 211 executes the first post-processing based on the output from the first CNN 209a and / or the first CNN 209b, and stores the processing result in the second image storage unit 113 (Step S39).

本実施の形態に係る第1後処理は、第1の実施の形態に係る第1後処理と基本的な処理は同じである。すなわち、真皮細胞の分布を表す初期画像において、真皮細胞と判別された分割画像の位置における領域内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。同様に、表皮細胞の分布を表す初期画像において、表皮細胞と判別された分割画像の位置における領域内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。さらに、異型細胞の分布を表す初期画像において、異型細胞と判別された分割画像の位置における領域内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。   The first post-processing according to the present embodiment is basically the same as the first post-processing according to the first embodiment. That is, in the initial image representing the distribution of the dermal cells, the pixel values of all the pixels in the region at the position of the divided image determined to be the dermal cells are set to “1”. For the other pixels, the pixel values are set to “0”. Similarly, in the initial image representing the distribution of the epidermal cells, the pixel values of all the pixels in the region at the position of the divided image determined to be the epidermal cells are set to “1”. For the other pixels, the pixel values are set to “0”. Further, in the initial image representing the distribution of the atypical cells, the pixel values of all the pixels in the region at the position of the divided image determined to be the atypical cells are set to “1”. For the other pixels, the pixel values are set to “0”.

さらに、免疫細胞の分布を表す初期画像において、免疫細胞と判別された分割画像の位置における領域内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。管腔を作る細胞の分布を表す初期画像において、管腔を作る細胞と判別された分割画像の位置における領域内の全てのピクセルの画素値を「1」に設定する。それ以外のピクセルについては画素値を「0」に設定する。   Further, in the initial image representing the distribution of the immune cells, the pixel values of all the pixels in the region at the position of the divided image determined to be the immune cells are set to “1”. For the other pixels, the pixel values are set to “0”. In the initial image representing the distribution of cells forming the lumen, the pixel values of all pixels in the region at the position of the divided image determined to be cells forming the lumen are set to “1”. For the other pixels, the pixel values are set to “0”.

また、好中球と判別された分割画像、マクロファージと判別された分割画像、リンパ球と判別された分割画像がある場合には、それぞれについて上で述べたような処理を行って、好中球の分布を表す初期画像、マクロファージの分布を表す初期画像、リンパ球の分布を表す初期画像をも生成する。   If there are divided images determined to be neutrophils, divided images determined to be macrophages, and divided images determined to be lymphocytes, the processing described above is performed for each of them, , An initial image indicating the distribution of macrophages, and an initial image indicating the distribution of lymphocytes.

次に、第2前処理部115は、第2画像格納部113に格納されている画像に対して、第2前処理を実行し、処理結果を第3画像格納部117に格納する(ステップS41)。第2前処理は、第1の実施の形態と同様である。   Next, the second preprocessing unit 115 executes the second preprocessing on the image stored in the second image storage unit 113, and stores the processing result in the third image storage unit 117 (Step S41). ). The second pre-processing is the same as in the first embodiment.

そうすると、第2CNN219aは、第3画像格納部117に格納されている画像を読み出して、それらに対して鑑別処理を実行する(ステップS43)。本実施の形態に係る鑑別処理は、免疫細胞の分布を表す画像及び管腔を作る細胞の分布を表す画像をさらに用いることを除けば、図6のステップS11と同様である。すなわち、本実施の形態では、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と免疫細胞の分布を表す画像と管腔を作る細胞の分布を表す画像と異型細胞の分布を表す画像とを含むグレースケール画像群を、カラー画像の各チャネルのグレースケール画像として処理することになる。鑑別処理は、ここでは悪性黒色腫であるか否かであり、例えば、悪性黒色腫の尤度と、色素性母斑の尤度と、その他の尤度とが出力される。上でも述べたように、悪性黒色腫とその他との鑑別としても良い。   Then, the second CNN 219a reads out the images stored in the third image storage unit 117 and executes the discrimination processing on them (step S43). The discrimination processing according to the present embodiment is the same as step S11 in FIG. 6 except that an image representing the distribution of immune cells and an image representing the distribution of cells forming the lumen are further used. That is, in the present embodiment, an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, an image representing the distribution of immune cells, an image representing the distribution of cells forming the lumen, and an image representing the distribution of atypical cells Is processed as a grayscale image of each channel of the color image. The discrimination processing here is whether or not the cell is a malignant melanoma. For example, the likelihood of a malignant melanoma, the likelihood of a pigmented nevus, and other likelihoods are output. As mentioned above, it is also possible to distinguish malignant melanoma from others.

第2後処理部221は、第2CNN219aからの出力に基づき、鑑別結果を特定し、入力部201からの指示によって病状に関する予測を行うことになっているか判断する(ステップS45)。ユーザから鑑別処理のみを実行するように指示されている場合、鑑別結果が悪性黒色腫ではない場合には、処理はステップS49に移行する。   The second post-processing unit 221 specifies the discrimination result based on the output from the second CNN 219a, and determines whether the prediction regarding the medical condition is to be performed according to the instruction from the input unit 201 (Step S45). If the user has instructed to execute only the discrimination process, or if the discrimination result is not malignant melanoma, the process proceeds to step S49.

病状に関する予測を行う場合には、指示に応じた第2CNN219b乃至219dの少なくともいずれかは、第3画像格納部117に格納されている画像に対して、指示に応じた予測処理を実行する(ステップS47)。   When performing prediction regarding a medical condition, at least one of the second CNNs 219b to 219d according to the instruction executes a prediction process according to the instruction on the image stored in the third image storage unit 117 (step S47).

具体的には、第2CNN219bは、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、免疫細胞の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像から、予後予測(余命)の予測値(実数(年)、余命レンジ毎の尤度、又は生存率曲線で表されるような時間経過における生存確率)を出力する。   Specifically, the second CNN 219b represents an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, an image representing the distribution of immune cells, an image representing the distribution of cells forming the lumen, and representing the distribution of atypical cells. From the image, a predicted value of prognosis prediction (life expectancy) (real number (year), likelihood for each life expectancy range, or survival probability over time as represented by a survival rate curve) is output.

第2CNN219cは、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、免疫細胞の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像から、病期分類予測(例えば各ステージの尤度)を出力する。   The second CNN 219c is obtained from an image representing the distribution of dermal cells, an image representing the distribution of epidermal cells, an image representing the distribution of immune cells, an image representing the distribution of cells forming the lumen, and an image representing the distribution of atypical cells. A classification prediction (for example, likelihood of each stage) is output.

第2CNN219dは、真皮細胞の分布を表す画像、表皮細胞の分布を表す画像、好中球の分布を表す画像、マクロファージの分布を表す画像、リンパ球の分布を表す画像、管腔を作る細胞の分布を表す画像、異型細胞の分布を表す画像から、特定の薬剤の投薬効果(例えば有りの尤度と無しの尤度)を出力する。   The second CNN 219d is an image showing distribution of dermal cells, an image showing distribution of epidermal cells, an image showing distribution of neutrophils, an image showing distribution of macrophages, an image showing distribution of lymphocytes, and an image showing distribution of lymphocytes. From the image representing the distribution and the image representing the distribution of atypical cells, the medication effect of a specific drug (for example, the likelihood of existence and the likelihood of absence) is output.

第2後処理部221は、第2CNN219b乃至219dの少なくともいずれかが用いられた場合にはそれらからの出力に基づき、病状に関する予測結果を特定し、鑑別結果と共に結果格納部123に格納し、表示装置その他の出力装置に出力する(ステップS49)。出力装置は、ネットワークに接続された他の装置である場合もある。   When at least one of the second CNNs 219b to 219d is used, the second post-processing unit 221 specifies a prediction result regarding the medical condition based on an output from the second CNN 219b to 219d, stores the prediction result together with the discrimination result in the result storage unit 123, and displays the result. The output is output to the device or another output device (step S49). The output device may be another device connected to the network.

以上のようにすれば、悪性黒色腫、色素性母斑、その他のいずれかであるという鑑別結果に加えて、病状に関する所定の予測をも併せて実行することができるようになる。   According to the above-described method, it is possible to execute a predetermined prediction regarding a medical condition in addition to a result of discriminating that the subject is a malignant melanoma, a pigmented nevus, or the like.

なお、第2CNN219aの処理に並行して、第2CNN219b乃至219dのうち少なくともいずれかの処理を実行するようにしても良い。   Note that at least one of the second CNNs 219b to 219d may be executed in parallel with the processing of the second CNN 219a.

また、第2CNN219aの処理を行わずに、第2CNN219b乃至219dのうち少なくともいずれかの処理を実行するようにしても良い。例えば、悪性黒色腫であることが他の手段で分かっている場合には、病状に関する予測処理のみを行うようにしても良い。   Further, at least one of the second CNNs 219b to 219d may be executed without performing the process of the second CNN 219a. For example, if it is known by other means that the disease is malignant melanoma, only the prediction process relating to the disease state may be performed.

このようにすれば、検査の簡略化や患者の負担軽減に加え、患者に対して病状に関する説明をしやすくなる。また、治療についての指針も立てやすくなる。   This makes it easier to explain the medical condition to the patient, in addition to simplifying the examination and reducing the burden on the patient. It also makes it easier to set guidelines for treatment.

なお、分割細胞の分類において2つのCNNを用いる例を示したが、例えば1つのCNNで真皮細胞、表皮細胞、管腔を作る細胞、異型細胞、種類毎の免疫細胞のいずれかに分類して、後処理において、種類毎の免疫細胞の分布が不要となる場合には種類毎の免疫細胞の判別結果を統合するようにしても良い。   Although an example in which two CNNs are used to classify the divided cells has been described, for example, one CNN may be used to classify dermal cells, epidermal cells, cells forming lumens, atypical cells, or immune cells of each type. In the post-processing, when the distribution of immune cells for each type becomes unnecessary, the determination results of the immune cells for each type may be integrated.

さらに、上では管腔を作る細胞を判別し、管腔を作る細胞の分布を表す画像を用いていたが、病状に関する予測については用いないようにしても良い場合もある。例えば、特定の薬剤の投薬効果の予測や病期分類予測については用いないようにしても良い。また、病状に関する予測についても3種類同時に行うことができるようにするのではなく、少なくとも1つのみを行うことができるように実装しても良い。   Further, in the above, the cells forming the lumen are discriminated, and the image representing the distribution of the cells forming the lumen is used. However, it may not be used for the prediction of the medical condition. For example, it may not be used for the prediction of the medication effect of a specific drug or the prediction of the stage classification. In addition, it is also possible to implement so that at least one of the three types of prediction regarding the medical condition can be performed at the same time, instead of performing the prediction at the same time.

[実施の形態3]
上で述べた鑑別処理は、悪性黒色腫に着目したものであった。しかしながら、上で述べたような分布を表す画像を用いれば、他の腫瘍に係る皮膚疾患の鑑別をも行うことができる。
[Embodiment 3]
The above-described discrimination processing focused on malignant melanoma. However, if an image representing the distribution as described above is used, it is possible to distinguish skin diseases related to other tumors.

例えば、悪性黒色腫と、皮膚科において病理検査対象となる頻度の高い所定種類数(所定数は例えば10など比較的少数)の腫瘍に係る疾患とを鑑別できるように、畳み込みニューラルネットワークを学習させるようにしても良い。   For example, a convolutional neural network is trained so that malignant melanoma can be distinguished from a disease related to a predetermined number of tumors (a relatively small number such as 10, for example) frequently subject to pathological examination in dermatology. You may do it.

具体的には、鑑別処理を行う畳み込みニューラルネットワークは、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と免疫細胞の分布を表す画像と管腔を作る細胞の分布を表す画像と異型細胞の分布を表す画像とを入力とし、予め定められた複数の鑑別対象疾患及びその他のうちいずれであるかを出力するように学習される。   Specifically, the convolutional neural network that performs the discrimination process has an atypical image that represents the distribution of dermal cells, an image that represents the distribution of epidermal cells, an image that represents the distribution of immune cells, and an image that represents the distribution of cells that make up the lumen. An image representing the distribution of cells is input, and learning is performed so as to output any of a plurality of predetermined diseases to be distinguished and others.

そして、第1の実施の形態における第2CNN119の代わりに、このような学習がなされた畳み込みニューラルネットワークを用いれば、該当する疾患又はその他という出力を得ることができるようになる。   If a convolutional neural network on which such learning has been performed is used instead of the second CNN 119 in the first embodiment, it is possible to obtain an output of a corresponding disease or other.

そうすれば、より検査の簡略化や患者の負担軽減がなされるようになる。   This will further simplify the examination and reduce the burden on the patient.

[実施の形態4]
悪性黒色腫以外の腫瘍に係る様々な皮膚疾患の鑑別を行わせるように変形しても良い。
[Embodiment 4]
Modifications may be made so as to discriminate various skin diseases related to tumors other than malignant melanoma.

具体的には、図15A乃至図15Cに列挙するような腫瘍疾患に対処するように変形することができる。   Specifically, it can be modified to deal with tumor diseases as listed in FIGS. 15A to 15C.

図15A乃至図15Cにおいて疾患名の列には、鑑別対象となる疾患名が列挙されており、異型細胞の由来の列には、どの細胞についての異型細胞であるかを示しており、表皮細胞から免疫細胞までの列には、その疾患を鑑別するのにどの細胞の分布が必要か否か(○又は×)を示している。   In FIG. 15A to FIG. 15C, the disease name column lists disease names to be differentiated, and the column derived from atypical cells indicates which cells are atypical cells, and epidermal cells. The column from to the immune cell indicates which cell distribution is necessary (○ or ×) to distinguish the disease.

例えば、図15A乃至図15Cにおいて列挙された全疾患を鑑別する場合には、分割画像の分類を行う畳み込みニューラルネットワークは、細胞の画像について、表皮細胞と真皮細胞と管腔を作る細胞と免疫細胞とに加えて、色素細胞についての異型細胞、有棘細胞についての異型細胞、アポクリン腺細胞についての異型細胞、メルケル細胞についての異型細胞、基底細胞についての異型細胞、毛包細胞についての異型細胞といったように、異型細胞の由来の列に列挙されている、異型細胞の由来となる細胞の分類ごとに異型細胞を区別して出力するように学習された畳み込みニューラルネットワークである。よって、分類を行う畳み込みニューラルネットワークは、細胞の種類又はその他(例えば、それらの尤度)を出力する。   For example, when discriminating all the diseases listed in FIG. 15A to FIG. 15C, a convolutional neural network that performs classification of divided images uses epidermal cells, dermal cells, cells that form lumens, and immune cells for cell images. Plus atypical cells for pigment cells, atypical cells for spiny cells, atypical cells for apocrine gland cells, atypical cells for Merkel cells, atypical cells for basal cells, atypical cells for hair follicle cells, etc. 2 is a convolutional neural network that is trained so as to distinguish and output atypical cells for each classification of cells from which atypical cells are derived, which is listed in the column of origins of atypical cells. Therefore, the convolutional neural network that performs the classification outputs the type of cell or the like (eg, their likelihood).

よって、色素細胞についての異型細胞の分布を表す画像、有棘細胞についての異型細胞の分布を表す画像、アポクリン腺細胞についての異型細胞の分布を表す画像、メルケル細胞についての異型細胞の分布を表す画像、基底細胞についての異型細胞の分布を表す画像、毛包細胞についての異型細胞の分布を表す画像といったように、由来となる細胞毎に異型細胞の分布を表す画像を生成する。   Thus, an image showing the distribution of atypical cells for pigment cells, an image showing the distribution of atypical cells for spiny cells, an image showing the distribution of atypical cells for apocrine gland cells, and an image showing the distribution of atypical cells for Merkel cells For example, an image representing the distribution of atypical cells for each origin cell, such as an image representing the distribution of atypical cells for basal cells and an image representing the distribution of atypical cells for hair follicle cells, is generated.

そして、鑑別処理を行う畳み込みニューラルネットワークは、表皮細胞の分布を表す画像と真皮細胞の分布を表す画像と管腔を作る細胞の分布を表す画像と免疫細胞の分布を表す画像とに加えて、由来となる細胞毎の異型細胞の分布を表す画像とを入力として、いずれかの疾患名又はその他を出力するように学習された畳み込みニューラルネットワークである。よって、鑑別処理を行う畳み込みニューラルネットワークは、それらの分布を表す画像に対して、いずれかの疾患名又はその他(例えば、それらの尤度)を出力する。   Then, the convolutional neural network performing the discrimination process, in addition to the image representing the distribution of epidermal cells, the image representing the distribution of dermal cells, the image representing the distribution of cells forming the lumen, and the image representing the distribution of immune cells, This is a convolutional neural network that has been trained to output any disease name or others by using an image representing the distribution of atypical cells for each cell as an input. Therefore, the convolutional neural network performing the discrimination processing outputs any disease name or others (for example, their likelihood) to the images representing their distribution.

なお、図15A乃至図15Cにおいて列挙された疾患の一部について鑑別可能なように構成しても良い。例えば、色素細胞についての異型細胞と、アポクリン腺細胞についての異型細胞と、脂腺細胞についての異型細胞と、エクリン腺細胞についての異型細胞と、表皮細胞と、真皮細胞と、管腔を作る細胞と、免疫細胞とに、分割画像を分類して、悪性黒色腫と、色素性母斑と、真皮色素細胞母斑と、乳房パジェット病と、アポクリン腺癌と、乳房外パジェット病と、エクリン母斑と、エクリン汗嚢腫と、汗管腫と、エクリン汗孔腫と、皮膚混合腫瘍(エクリン型)と、エクリンらせん腫と、アポクリン母斑と、アポクリン汗嚢腫と、乳頭状汗腺腫と、乳頭状汗管嚢胞腺腫と、管状アポクリン腺腫と、乳頭腺腫と、皮膚混合腫瘍(アポクリン型)と、脂腺癌と、脂腺腺腫と、脂腺増殖症と、脂腺腫とを鑑別できるように構成しても良い。   In addition, you may comprise so that a part of disease listed in FIG. 15A thru | or 15C can be distinguished. For example, atypical cells for pigment cells, atypical cells for apocrine gland cells, atypical cells for sebaceous cells, atypical cells for eccrine gland cells, epidermal cells, dermal cells, cells that form lumens, By classifying the divided image into cells, malignant melanoma, pigmented nevus, dermal pigment cell nevus, Paget's disease of the breast, apocrine adenocarcinoma, extramammary Paget's disease, and eccrine nevi, Eccrine sweat cyst, syringoma, eccrine syringoma, mixed skin tumor (eccrine type), eccrine spiral tumor, apocrine nevus, apocrine sweat cyst, papillary sweat adenoma, papillary sweat duct Cystic adenoma, tubular apocrine adenoma, papillary adenoma, mixed skin tumor (apocrine type), sebaceous carcinoma, sebaceous adenoma, sebaceous hyperplasia, and sebaceous adenoma good.

すなわち、鑑別したい疾患について、異型細胞の由来となる細胞についての異型細胞をも分類できるようにし、それらの異型細胞の分布を表す画像をも用いて鑑別できるように畳み込みニューラルネットワークを学習させればよい。   In other words, for the disease to be differentiated, it is possible to classify the atypical cells of the cells from which the atypical cells are derived, and to train the convolutional neural network so that it can be distinguished using an image representing the distribution of the atypical cells. Good.

なお、良性リンパ腫と悪性リンパ腫についてのみ鑑別する場合には、管腔を作る細胞については分類しなくても良い。   When discriminating only between benign lymphoma and malignant lymphoma, it is not necessary to classify cells forming the lumen.

このようにすれば腫瘍にかかる疾患を自動的に鑑別できるようになる。   This makes it possible to automatically discriminate a disease associated with a tumor.

なお、ここでは鑑別を行ったが、第2の実施の形態のように病状に関する予測を行うようにさらに変形しても良い。   Note that the discrimination is performed here, but it may be further modified so as to perform prediction regarding a medical condition as in the second embodiment.

[実施の形態5]
上で述べた実施の形態では腫瘍に係る皮膚疾患について鑑別することについて述べたが、非腫瘍性疾患についても応用可能である。
[Embodiment 5]
In the above-described embodiment, discrimination about skin diseases related to tumors has been described. However, the present invention is also applicable to non-tumor diseases.

例えば、図16に列挙するような疾患については、分割画像を、表皮細胞と、真皮細胞と、管腔を作る細胞と、免疫細胞とに分類して、それらの分布を表す画像を生成する。そして、それらの分布を表す画像を入力として、図16に列挙されたいずれかの疾患名又はその他を出力するように学習された畳み込みニューラルネットワークを用いて、疾患名を鑑別するようにする。   For example, for the diseases listed in FIG. 16, the divided images are classified into epidermal cells, dermal cells, cells forming lumens, and immune cells, and an image representing their distribution is generated. Then, using the convolutional neural network learned to output any one of the disease names listed in FIG. 16 or the other with the images representing the distributions as inputs, the disease names are identified.

このようにすれば、非腫瘍性疾患についても自動的に鑑別できるようになる。   This makes it possible to automatically distinguish non-neoplastic diseases.

なお、本実施の形態でも、鑑別に加えて、第2の実施の形態のように病状に関する予測を行うようにさらに変形しても良い。   Note that, in the present embodiment, in addition to the discrimination, a further modification may be made so as to predict the medical condition as in the second embodiment.

以上本発明の実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、目的に応じて、上で述べた実施の形態における任意の技術的特徴を削除したり、実施の形態を組み合わせた上で任意の技術的特徴を削除したりするようにしても良い。   Although the embodiment of the present invention has been described above, the present invention is not limited to this. For example, depending on the purpose, any technical feature in the above-described embodiment may be deleted, or any technical feature may be deleted after combining the embodiments.

上で述べた情報処理装置の機能ブロック構成は一例であって、プログラムモジュール構成とは一致しない場合もある。処理フローについても、処理結果が変わらない限り、処理順番を入れ替えたり、複数ステップを並列に実行するようにしても良い。また、CNNの出力が尤度である場合には、当該尤度を併せて出力するようにしても良い。   The functional block configuration of the information processing apparatus described above is an example, and may not match the program module configuration. As for the processing flow, as long as the processing result does not change, the processing order may be changed or a plurality of steps may be executed in parallel. If the output of the CNN is likelihood, the likelihood may be output together.

図5については、第1CNN109と第2CNN119とについては、CNNを前提として説明したが、CNNは、教師付き機械学習が行われた学習済みモデルの一例である。すなわち、第1CNN109は、このような学習済みモデル1000であってもよい。同様に、第2CNN119も、このような学習済みモデル2000であってもよい。なお、教師付き機械学習としては、サポートベクターマシン(Support Vector Machine)や、パーセプトロンその他のニューラルネットワークなどを採用可能である。なお、この場合、第1学習処理部131及び第2学習処理部133は、採用した機械学習のための学習処理部となる。   In FIG. 5, the first CNN 109 and the second CNN 119 have been described on the assumption that the CNN is used, but the CNN is an example of a learned model in which supervised machine learning has been performed. That is, the first CNN 109 may be such a learned model 1000. Similarly, the second CNN 119 may be such a learned model 2000. As the supervised machine learning, a support vector machine (Support Vector Machine), a perceptron, or another neural network can be used. In this case, the first learning processing unit 131 and the second learning processing unit 133 are learning processing units for the adopted machine learning.

図13における第1CNN209a及び209bについても、図5と同様に、教師付き機械学習が行われた学習済みモデルの一例である。すなわち、第1CNN209a及び209bは、このような学習済みモデル又は学習済みモデルの集合3000であってもよい。また、第2CNN219a乃至219dも、このような学習済みモデル又は学習済みモデルの集合4000であってもよい。この場合にも、教師付き機械学習としては、サポートベクターマシン、パーセプトロンその他のニューラルネットワーク等を採用可能である。なお、この場合、第1学習処理部231及び第2学習処理部233は、採用した機械学習のための学習処理部となる。   The first CNNs 209a and 209b in FIG. 13 are also examples of the learned model in which the supervised machine learning has been performed, as in FIG. That is, the first CNN 209a and 209b may be such a trained model or a set 3000 of trained models. The second CNNs 219a to 219d may also be such a learned model or a set 4000 of learned models. Also in this case, as the supervised machine learning, a support vector machine, a perceptron, or another neural network can be used. In this case, the first learning processing unit 231 and the second learning processing unit 233 are learning processing units for the adopted machine learning.

なお、上で述べた情報処理装置は、コンピュータ装置であって、メモリとCPU(Central Processing Unit)とハードディスク・ドライブ(HDD:Hard Disk Drive)と表示装置に接続される表示制御部とリムーバブル・ディスク用のドライブ装置と入力装置とネットワークに接続するための通信制御部とがバスで接続されている。オペレーティング・システム(OS:Operating System)及び本実施例における処理を実施するためのアプリケーション・プログラムは、HDDに格納されており、CPUにより実行される際にはHDDからメモリに読み出される。CPUは、アプリケーション・プログラムの処理内容に応じて表示制御部、通信制御部、ドライブ装置を制御して、所定の動作を行わせる。また、処理途中のデータについては、主としてメモリに格納されるが、HDDに格納されるようにしてもよい。本発明の実施例では、上で述べた処理を実施するためのアプリケーション・プログラムはコンピュータ読み取り可能なリムーバブル・ディスクに格納されて頒布され、ドライブ装置からHDDにインストールされる。インターネットなどのネットワーク及び通信制御部を経由して、HDDにインストールされる場合もある。このようなコンピュータ装置は、上で述べたCPU、メモリなどのハードウエアとOS及びアプリケーション・プログラムなどのプログラムとが有機的に協働することにより、上で述べたような各種機能を実現する。   The information processing device described above is a computer device, and includes a memory, a CPU (Central Processing Unit), a hard disk drive (HDD: Hard Disk Drive), a display control unit connected to a display device, and a removable disk. Drive device, an input device, and a communication control unit for connecting to a network are connected by a bus. An operating system (OS) and an application program for executing the processing in the present embodiment are stored in the HDD, and are read from the HDD to the memory when executed by the CPU. The CPU controls the display control unit, the communication control unit, and the drive device in accordance with the processing content of the application program to perform a predetermined operation. The data being processed is mainly stored in the memory, but may be stored in the HDD. In the embodiment of the present invention, an application program for performing the above-described processing is distributed and stored in a computer-readable removable disk, and is installed in a HDD from a drive device. It may be installed in the HDD via a network such as the Internet and a communication control unit. Such a computer device realizes the above-described various functions by the hardware such as the CPU and the memory described above and the programs such as the OS and the application program cooperate organically.

なお、畳み込みニューラルネットワークについても、プログラムにより実装するようにしても良いし、専用の演算装置(例えばGraphics Processing Unit)をコンピュータに組み込むことで高速処理ができるようにしても良い。   The convolutional neural network may be implemented by a program, or a high-speed processing may be performed by incorporating a dedicated arithmetic device (for example, a Graphics Processing Unit) into a computer.

以上述べた本実施の形態をまとめると以下のようになる。   The above-described embodiment is summarized as follows.

第1の態様に係る疾患鑑別処理方法は、(A)皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における異型細胞の分布を表す画像とを入力とし且つ腫瘍に係る特定の皮膚疾患の鑑別を出力とする学習済みの畳み込みニューラルネットワークにより、処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における異型細胞の分布を表す第3の画像とを格納する記憶装置から読み出された第1の画像と第2の画像と第3の画像とに対して所定の演算を実行する実行ステップと、(B)学習済みの畳み込みニューラルネットワークからの出力に基づき、上記特定の皮膚疾患の鑑別結果を出力するステップとを含む。   The disease discrimination processing method according to the first aspect comprises: (A) an image representing distribution of dermal cells in skin tissue, an image representing distribution of epidermal cells in skin tissue, and an image representing distribution of atypical cells in skin tissue. A first image representing the distribution of dermal cells in the skin tissue to be processed by the learned convolutional neural network that receives as input and outputs the identification of a specific skin disease related to the tumor, and the epidermis in the skin tissue to be processed A first image, a second image, and a third image read from a storage device that stores a second image representing the distribution of cells and a third image representing the distribution of atypical cells in the skin tissue to be processed. An execution step of executing a predetermined operation with respect to the image of (b) and (B) outputting the discrimination result of the specific skin disease based on the output from the learned convolutional neural network. And a step of.

このように真皮細胞の分布と表皮細胞の分布とに対する異型細胞の分布の関係と特定の皮膚疾患の有無との対応関係を予め学習しておき、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と異型細胞の分布を表す画像とを別々の画像で入力して評価すれば、腫瘍に係る特定の皮膚疾患(例えば悪性黒色腫)の鑑別を行うことができるようになる。   Thus, the relationship between the distribution of atypical cells to the distribution of dermal cells and the distribution of epidermal cells and the correspondence between the presence or absence of a specific skin disease are learned in advance, and the image representing the distribution of dermal cells and the distribution of epidermal cells By inputting and evaluating the image representing the image and the image representing the distribution of atypical cells as separate images, it becomes possible to discriminate a specific skin disease (for example, malignant melanoma) related to a tumor.

なお、学習済みの畳み込みニューラルネットワークは、皮膚組織のグレースケール画像と皮膚組織における免疫細胞の分布を表す画像と皮膚組織における管腔を作る細胞の分布を表す画像とのうち少なくともいずれかをさらに入力に用いて学習されており、上で述べた記憶装置が、処理対象の皮膚組織のグレースケール画像である第4の画像と処理対象の皮膚組織における免疫細胞の分布を表す第5の画像と処理対象の皮膚組織における管腔を作る細胞の分布を表す第6の画像との少なくともいずれかを格納する場合がある。そして、上で述べた実行ステップにおいて、第4の画像と第5の画像と第6の画像との少なくともいずれかを記憶装置からさらに読み出して、学習済みの畳み込みニューラルネットワークにより所定の演算を実行するようにしても良い。このようにすれば鑑別の精度が向上する。   In addition, the learned convolutional neural network further inputs at least one of a grayscale image of skin tissue, an image showing distribution of immune cells in skin tissue, and an image showing distribution of cells forming a lumen in skin tissue. The storage device described above is used to store a fourth image, which is a grayscale image of the skin tissue to be processed, and a fifth image representing the distribution of immune cells in the skin tissue to be processed. A sixth image representing the distribution of cells forming the lumen in the skin tissue of the subject may be stored. Then, in the execution step described above, at least one of the fourth image, the fifth image, and the sixth image is further read from the storage device, and a predetermined operation is executed by the learned convolutional neural network. You may do it. This improves the accuracy of the discrimination.

また、第1の態様に係る疾患鑑別処理方法は、(C)処理対象の皮膚組織の画像から、第1乃至第3の画像と、第4乃至第6の画像の少なくともいずれかとを生成して記憶装置に格納するステップをさらに含むようにしても良い。このような処理については、別の畳み込みニューラルネットワークを用いても良いし、他の細胞種別判別技術を用いても良い。   Further, the disease identification processing method according to the first aspect generates (C) first to third images and at least one of fourth to sixth images from the image of the skin tissue to be processed. The method may further include the step of storing the information in a storage device. For such processing, another convolutional neural network may be used, or another cell type discrimination technology may be used.

第2の態様に係る病状予測処理方法は、(A)皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における異型細胞の分布を表す画像と、皮膚組織における免疫細胞の分布を表す画像とを入力とし且つ腫瘍に係る特定の皮膚疾患の病状に関する予測を出力とする学習済みの畳み込みニューラルネットワークにより、処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における異型細胞の分布を表す第3の画像と、処理対象の皮膚組織における免疫細胞の分布を表す第4の画像とを格納する記憶装置から読み出した第1の画像と第2の画像と第3の画像と第4の画像とに対して所定の演算を実行する実行ステップと、(B)学習済みの畳み込みニューラルネットワークからの出力に基づき、上記特定の皮膚疾患の病状に関する予測結果を出力するステップとを含む。   The pathological condition prediction processing method according to the second aspect comprises: (A) an image representing distribution of dermal cells in skin tissue, an image representing distribution of epidermal cells in skin tissue, and an image representing distribution of atypical cells in skin tissue. An image representing the distribution of immune cells in skin tissue is input, and a learned convolutional neural network is used to output a prediction regarding the pathology of a specific skin disease relating to a tumor. A first image, a second image representing the distribution of epidermal cells in the skin tissue to be treated, a third image representing the distribution of atypical cells in the skin tissue to be treated, and immunity in the skin tissue to be treated. A predetermined operation is performed on the first image, the second image, the third image, and the fourth image read from the storage device that stores the fourth image representing the cell distribution. An execution step of executing, based on the output from the (B) trained convolutional neural network, and outputting the predicted results for pathology of the specific skin diseases.

このように真皮細胞の分布と表皮細胞の分布とに対する異型細胞の分布及び免疫細胞の分布の関係と腫瘍に係る特定の皮膚疾患の病状に関する判定結果との対応関係を予め学習しておき、真皮細胞の分布を表す画像と表皮細胞の分布を表す画像と異型細胞の分布を表す画像と免疫細胞の分布を表す画像とを別々の画像で入力して評価すれば、腫瘍に係る特定の皮膚疾患(例えば悪性黒色腫)の病状に関する予測を行うことができるようになる。   Thus, the relationship between the distribution of atypical cells and the distribution of immune cells with respect to the distribution of dermal cells and the distribution of epidermal cells, and the corresponding relationship between the determination results regarding the pathology of a specific skin disease relating to a tumor and the dermis If an image representing the distribution of cells, an image representing the distribution of epidermal cells, an image representing the distribution of atypical cells, and an image representing the distribution of immune cells are input as separate images and evaluated, a specific skin disease related to a tumor can be obtained. (For example, malignant melanoma).

なお、皮膚組織における免疫細胞の分布を表す画像及び第4の画像が、免疫細胞の種類毎に複数用いられるようにする場合もある。また、特定の皮膚疾患の病状に関する予測は、余命の予測と、病期分類の予測と、特定薬剤の投与効果の予測とのいずれかである場合もある。   In some cases, a plurality of images and fourth images representing the distribution of immune cells in skin tissue are used for each type of immune cell. In addition, the prediction of the condition of a specific skin disease may be any one of prediction of life expectancy, prediction of staging, and prediction of administration effect of a specific drug.

また、上で述べた学習済みの畳み込みニューラルネットワークは、皮膚組織における管腔を作る細胞の分布を表す画像をさらに入力に用いて学習されており、上で述べた記憶装置が、処理対象の皮膚組織における管腔を作る細胞の分布を表す第5の画像を格納している場合がある。その場合、上で述べた実行ステップにおいて、第5の画像を記憶装置からさらに読み出して、学習済みの畳み込みニューラルネットワークにより所定の演算を実行するようにしても良い。これにより予測の精度が向上する。   In addition, the learned convolutional neural network described above has been learned by further using an image representing the distribution of cells forming the lumen in the skin tissue as an input, and the storage device described above stores the skin to be processed. A fifth image representing the distribution of cells forming the lumen in the tissue may be stored. In that case, in the above-described execution step, the fifth image may be further read from the storage device, and a predetermined operation may be executed by the learned convolutional neural network. This improves the accuracy of the prediction.

第3の態様に係る疾患鑑別処理方法は、(A)皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における異型細胞の分布を表す画像と、皮膚組織における免疫細胞の分布を表す画像と、皮膚組織における管腔を作る細胞の分布を表す画像とを入力とし且つ腫瘍に係る複数種類の皮膚疾患の鑑別を出力とする学習済みの畳み込みニューラルネットワークにより、処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における異型細胞の分布を表す第3の画像と、処理対象の皮膚組織における免疫細胞の分布を表す第4の画像と、処理対象の皮膚組織における管腔を作る細胞の分布を表す第5の画像とを格納する記憶装置から読み出した第1乃至第5の画像に対して所定の演算を実行するステップと、(B)学習済みの畳み込みニューラルネットワークからの出力に基づき、複数種類の皮膚疾患の鑑別結果を出力するステップとを含む。   The disease discrimination processing method according to the third aspect comprises: (A) an image representing distribution of dermal cells in skin tissue, an image representing distribution of epidermal cells in skin tissue, and an image representing distribution of atypical cells in skin tissue. , A trained convolutional neural network that receives as input an image representing the distribution of immune cells in skin tissue and an image representing the distribution of cells that make up the lumen in skin tissue and outputs the identification of multiple types of skin diseases related to tumors By the network, a first image representing the distribution of dermal cells in the skin tissue to be treated, a second image representing the distribution of epidermal cells in the skin tissue to be treated, and the distribution of atypical cells in the skin tissue to be treated are represented by: A third image representing the distribution of immune cells in the skin tissue to be treated, and a fourth image representing the distribution of cells forming the lumen in the skin tissue to be treated. Performing a predetermined operation on the first to fifth images read from the storage device storing the first and fifth images, and (B) a plurality of types of skin based on outputs from the learned convolutional neural network. Outputting a disease identification result.

腫瘍に係る複数種類の皮膚疾患を鑑別できるようになる。   It becomes possible to distinguish a plurality of types of skin diseases related to a tumor.

なお、皮膚組織における異型細胞の分布を表す画像及び第3の画像が、異型細胞の由来となる細胞毎に用意される場合もある。これによって精度を向上させることができるようになる。   Note that an image representing the distribution of atypical cells in skin tissue and a third image may be prepared for each cell from which the atypical cells are derived. As a result, accuracy can be improved.

第4の態様に係る疾患鑑別処理方法は、(A)皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における免疫細胞の分布を表す画像と、皮膚組織における管腔を作る細胞の分布を表す画像とを入力とし且つ非腫瘍性の複数種類の皮膚疾患の鑑別を出力とする学習済みの畳み込みニューラルネットワークにより、処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における免疫細胞の分布を表す第3の画像と、処理対象の皮膚組織における管腔を作る細胞の分布を表す第4の画像とを格納する記憶装置から読み出した第1乃至第4の画像に対して所定の演算を実行するステップと、(B)学習済みの畳み込みニューラルネットワークからの出力に基づき、非腫瘍性の複数種類の皮膚疾患の鑑別結果を出力するステップとを含む。   The disease discrimination processing method according to the fourth aspect includes (A) an image representing the distribution of dermal cells in skin tissue, an image representing distribution of epidermal cells in skin tissue, and an image representing distribution of immune cells in skin tissue. Dermis cells in the skin tissue to be processed by a learned convolutional neural network, which takes as input an image representing the distribution of cells forming the lumen in the skin tissue and outputs the discrimination of a plurality of non-neoplastic skin diseases , A second image representing the distribution of epidermal cells in the skin tissue to be treated, a third image representing the distribution of immune cells in the skin tissue to be treated, and the skin to be treated Performing a predetermined operation on the first to fourth images read from the storage device storing the fourth image representing the distribution of cells forming the lumen in the tissue; and ) Based on the output from the learned convolutional neural network, and outputting the discrimination results of nonneoplastic plurality of types of skin disorders.

第5の態様に係る診断支援システムは、(A)病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における異型細胞の分布を表す画像とを入力とする機械学習の学習済みモデルと、(B)処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における異型細胞の分布を表す第3の画像とに対する、機械学習の学習済みモデルからの出力に基づき、皮膚疾患に関する出力データを生成する出力データ生成部とを有する。   The diagnosis support system according to the fifth aspect includes (A) an image representing distribution of dermal cells in skin tissue included in a pathological image, an image representing distribution of epidermal cells in skin tissue, and distribution of atypical cells in skin tissue. And (B) a first image representing the distribution of dermal cells in the skin tissue to be processed and a second image representing the distribution of epidermal cells in the skin tissue to be processed. An output data generation unit that generates output data relating to a skin disease based on the output from the machine learning-learned model for the second image and the third image that represents the distribution of atypical cells in the skin tissue to be processed. Have.

このように病理画像に含まれる皮膚組織における特定の細胞の分布を各々表す複数の画像を入力に用いる機械学習の学習済みモデルを用意すると、皮膚疾患に関する様々な出力データを生成できるようになり、精度の高い診断の支援が行えるようになる。   By preparing a machine-learned model using a plurality of images each representing the distribution of specific cells in the skin tissue included in the pathological image as input in this way, it becomes possible to generate various output data related to skin diseases, High-precision diagnosis support can be performed.

なお、上で述べた機械学習の学習済みモデルの出力は、腫瘍に係る特定の皮膚疾患の鑑別であり、上で述べた皮膚疾患に関する出力データが、特定の皮膚疾患の鑑別結果を含む場合もある。腫瘍に係る特定の皮膚疾患の鑑別に有用である。   Note that the output of the learned model of machine learning described above is a discrimination of a specific skin disease related to a tumor, and the output data related to the skin disease described above may include a discrimination result of a specific skin disease. is there. It is useful for discriminating a specific skin disease related to a tumor.

また、上で述べた機械学習の学習済みモデルの入力は、皮膚組織のグレースケール画像と皮膚組織における免疫細胞の分布を表す画像と皮膚組織における管腔を作る細胞の分布を表す画像とのうち少なくともいずれかをさらに含む場合がある。この場合、上で述べた出力データ生成部は、処理対象の皮膚組織のグレースケール画像である第4の画像と処理対象の皮膚組織における免疫細胞の分布を表す第5の画像と処理対象の皮膚組織における管腔を作る細胞の分布を表す第6の画像との少なくともいずれかと第1乃至第3の画像とに対する、機械学習の学習済みモデルからの出力に基づき、特定の皮膚疾患の鑑別結果を含む出力データを生成するようにしてもよい。このようにすれば鑑別の精度が向上する。   In addition, the input of the learned model of machine learning described above is a grayscale image of skin tissue, an image showing distribution of immune cells in skin tissue, and an image showing distribution of cells forming a lumen in skin tissue. It may further include at least one of them. In this case, the output data generation unit described above includes a fourth image that is a grayscale image of the skin tissue to be processed, a fifth image representing the distribution of immune cells in the skin tissue to be processed, and the skin to be processed. Based on at least one of the sixth image representing the distribution of cells forming the lumen in the tissue and the first to third images, the discrimination result of the specific skin disease is determined based on the output from the trained model of the machine learning. Alternatively, output data including the output data may be generated. This improves the accuracy of the discrimination.

さらに、第5の態様に係る診断支援システムは、(C)処理対象の皮膚組織の画像から、第1乃至第3の画像を生成する画像生成部をさらに有するようにしてもよい。なお、画像生成部は、第4乃至第6の画像の少なくともいずれかを生成するようにしてもよい。   Furthermore, the diagnosis support system according to the fifth aspect may further include (C) an image generation unit that generates first to third images from an image of the skin tissue to be processed. Note that the image generation unit may generate at least one of the fourth to sixth images.

また、上で述べた機械学習の学習済みモデルの入力は、皮膚組織における免疫細胞の分布を表す画像をさらに含む場合もある。また、上で述べた機械学習の学習済みモデルの出力は、腫瘍に係る特定の皮膚疾患の病状に関する予測である場合もある。このような場合、上で述べた出力データ生成部は、第1乃至第3の画像と処理対象の皮膚組織における免疫細胞の分布を表す第4の画像とに対する、機械学習の学習済みモデルの出力に基づき、特定の皮膚疾患の病状に関する予測結果を含む出力データを生成するようにしてもよい。例えば、第2の態様に係る病状予測処理方法と同様の効果が得られる。   In addition, the input of the machine-learned model described above may further include an image representing the distribution of immune cells in the skin tissue. Also, the output of the machine-learned model described above may be a prediction about the pathology of a particular skin disease involving a tumor. In such a case, the output data generation unit described above outputs the learned model of the machine learning model for the first to third images and the fourth image representing the distribution of immune cells in the skin tissue to be processed. May be used to generate output data including a prediction result regarding a specific skin disease condition. For example, the same effects as those of the disease condition prediction processing method according to the second aspect can be obtained.

なお、皮膚組織における免疫細胞の分布を表す画像及び第4の画像が、免疫細胞の種類毎に複数用いられる場合もある。また、特定の皮膚疾患の病状に関する予測は、余命の予測と、病期分類の予測と、特定薬剤の投与効果の予測とのいずれかである場合もある。   In some cases, a plurality of images and fourth images representing the distribution of immune cells in skin tissue are used for each type of immune cell. In addition, the prediction of the condition of a specific skin disease may be any one of prediction of life expectancy, prediction of staging, and prediction of administration effect of a specific drug.

さらに、上で述べた機械学習の学習済みモデルの入力は、皮膚組織における管腔を作る細胞の分布を表す画像をさらに含むようにしてもよい。この場合、上で述べた出力データ生成部は、第1乃至第4の画像と処理対象の皮膚組織における管腔を作る細胞の分布を表す第5の画像とに対する、機械学習の学習済みモデルの出力に基づき、特定の皮膚疾患の病状に関する予測結果を含む出力データを生成するようにしてもよい。これにより予測の精度が向上する。   Further, the input of the machine-learned model described above may further include an image representing a distribution of cells forming a lumen in the skin tissue. In this case, the output data generation unit described above generates a machine-learned learned model of the first to fourth images and the fifth image representing the distribution of cells forming the lumen in the skin tissue to be processed. Based on the output, output data including a prediction result related to a specific skin disease condition may be generated. This improves the accuracy of the prediction.

また、上で述べた機械学習の学習済みモデルの入力は、皮膚組織における免疫細胞の分布を表す画像と、皮膚組織における管腔を作る細胞の分布を表す画像とをさらに含む場合もある。また、機械学習の学習済みモデルの出力は、腫瘍に係る複数種類の皮膚疾患の鑑別である場合もある。このような場合には、上で述べた出力データ生成部は、第1乃至第3の画像と処理対象の皮膚組織における免疫細胞の分布を表す第4の画像と処理対象の皮膚組織における管腔を作る細胞の分布を表す第5の画像とに対する、機械学習の学習済みモデルの出力に基づき、複数種類の皮膚疾患の鑑別結果を含む出力データを生成するようにしてもよい。   The input of the learned model of machine learning described above may further include an image representing the distribution of immune cells in the skin tissue and an image representing the distribution of cells forming a lumen in the skin tissue. Also, the output of the machine-learned model may be a discrimination of a plurality of types of skin diseases related to the tumor. In such a case, the output data generation unit described above outputs the first to third images, the fourth image representing the distribution of immune cells in the skin tissue to be processed, and the lumen in the skin tissue to be processed. May be generated based on the output of the machine learning-learned model with respect to the fifth image representing the distribution of the cells that make up the image.

なお、異型細胞の分布を表す画像及び第3の画像が、異型細胞の由来となる細胞毎に用意される場合もある。これによって精度を向上させることができるようになる。   Note that an image representing the distribution of atypical cells and a third image may be prepared for each cell from which the atypical cells are derived. As a result, accuracy can be improved.

第6の態様に係る診断支援システムは、(A)病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、皮膚組織における表皮細胞の分布を表す画像と、皮膚組織における免疫細胞の分布を表す画像と、皮膚組織における管腔を作る細胞の分布を表す画像とを入力とし且つ非腫瘍性の複数種類の皮膚疾患の鑑別を出力とする機械学習の学習済みモデルと、(B)処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、処理対象の皮膚組織における免疫細胞の分布を表す第3の画像と、処理対象の皮膚組織における管腔を作る細胞の分布を表す第4の画像とに対する、機械学習の学習済みモデルの出力に基づき、非腫瘍性の複数種類の皮膚疾患の鑑別結果を含む出力データを生成する出力データ生成部とを有する。   The diagnosis support system according to the sixth aspect includes (A) an image representing distribution of dermal cells in skin tissue included in a pathological image, an image representing distribution of epidermal cells in skin tissue, and a distribution of immune cells in skin tissue. And an image representing distribution of cells forming a lumen in skin tissue as input, and a learned model of machine learning that outputs a discrimination of a plurality of types of non-neoplastic skin diseases, and (B) processing A first image representing the distribution of dermal cells in the skin tissue of the subject, a second image representing the distribution of epidermal cells in the skin tissue of the subject, and a third image representing the distribution of immune cells in the skin tissue of the subject. Based on the output of the machine-learned model for the image and the fourth image representing the distribution of cells forming the lumen in the skin tissue to be processed, a result of discriminating a plurality of non-neoplastic skin diseases And an output data generating unit for generating output data including.

第5及び第6の態様に係る診断支援システムにおける機械学習の学習済みモデルは、ニューラルネットワーク(特に学習済みの畳み込みニューラルネットワーク)や、サポートベクターマシンであってもよい。   The learned model of machine learning in the diagnosis support systems according to the fifth and sixth aspects may be a neural network (particularly a learned convolutional neural network) or a support vector machine.

なお、本願では、システムと記した場合には、1又は複数の情報処理装置を含むものとする。すなわち、ネットワークで接続された複数の情報処理装置が連携して1つのシステムとして動作する場合や、1台の情報処理装置で動作する場合とを含むものとする。   In the present application, the term “system” includes one or more information processing devices. In other words, it includes a case where a plurality of information processing apparatuses connected via a network operate as one system in cooperation with each other, and a case where the information processing apparatuses operate with one information processing apparatus.

また、上記処理を実行するためのプログラムを作成することができ、当該プログラムは、例えばフレキシブルディスク、光ディスク(CD−ROM、DVD−ROMなど)、光磁気ディスク、半導体メモリ、ハードディスク等のコンピュータ読み取り可能な記憶媒体又は記憶装置に格納される。尚、中間的な処理結果はメインメモリ等の記憶装置に一時保管される。   In addition, a program for executing the above processing can be created. The program can be a computer readable program such as a flexible disk, an optical disk (CD-ROM, DVD-ROM, etc.), a magneto-optical disk, a semiconductor memory, and a hard disk. Stored in a suitable storage medium or storage device. The intermediate processing result is temporarily stored in a storage device such as a main memory.

Claims (17)

病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、前記皮膚組織における表皮細胞の分布を表す画像と、前記皮膚組織における異型細胞の分布を表す画像とを入力とする機械学習の学習済みモデルと、
処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、前記処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、前記処理対象の皮膚組織における異型細胞の分布を表す第3の画像とに対する、前記機械学習の学習済みモデルからの出力に基づき、皮膚疾患に関する出力データを生成する出力データ生成部と、
を有する診断支援システム。
Machine learning learning that receives as input the image representing the distribution of dermal cells in the skin tissue included in the pathological image, the image representing the distribution of epidermal cells in the skin tissue, and the image representing the distribution of atypical cells in the skin tissue Model and
A first image representing the distribution of dermal cells in the skin tissue to be treated, a second image representing the distribution of epidermal cells in the skin tissue to be treated, and a distribution of atypical cells in the skin tissue to be treated An output data generation unit that generates output data related to a skin disease based on an output from the machine-learned model with respect to a third image,
Diagnostic support system having
前記機械学習の学習済みモデルの出力は、腫瘍に係る特定の皮膚疾患の鑑別であり、
前記皮膚疾患に関する出力データが、前記特定の皮膚疾患の鑑別結果を含む、
請求項1記載の診断支援システム。
The output of the learned model of machine learning is the identification of a specific skin disease related to the tumor,
The output data on the skin disease includes a result of identifying the specific skin disease,
The diagnosis support system according to claim 1.
前記機械学習の学習済みモデルの入力は、前記皮膚組織のグレースケール画像と前記皮膚組織における免疫細胞の分布を表す画像と前記皮膚組織における管腔を作る細胞の分布を表す画像とのうち少なくともいずれかをさらに含み、
前記出力データ生成部は、
前記処理対象の皮膚組織のグレースケール画像である第4の画像と前記処理対象の皮膚組織における免疫細胞の分布を表す第5の画像と前記処理対象の皮膚組織における管腔を作る細胞の分布を表す第6の画像との少なくともいずれかと前記第1乃至第3の画像とに対する、前記機械学習の学習済みモデルからの出力に基づき、前記特定の皮膚疾患の鑑別結果を含む出力データを生成する
請求項2記載の診断支援システム。
The input of the learned model of the machine learning is at least one of a grayscale image of the skin tissue, an image representing the distribution of immune cells in the skin tissue, and an image representing the distribution of cells forming a lumen in the skin tissue. Or further including
The output data generator,
A fourth image, which is a grayscale image of the skin tissue to be processed, a fifth image representing the distribution of immune cells in the skin tissue to be processed, and a distribution of cells forming a lumen in the skin tissue to be processed. Generating output data including a result of discrimination of the specific skin disease, based on an output from the machine-learned model for at least one of the sixth image to be represented and the first to third images. Item 3. The diagnosis support system according to Item 2.
前記処理対象の皮膚組織の画像から、前記第1乃至第3の画像を生成する画像生成部
をさらに有する請求項1又は2記載の診断支援システム。
The diagnosis support system according to claim 1, further comprising: an image generation unit configured to generate the first to third images from an image of the skin tissue to be processed.
前記機械学習の学習済みモデルの入力は、前記皮膚組織における免疫細胞の分布を表す画像をさらに含み、
前記機械学習の学習済みモデルの出力は、腫瘍に係る特定の皮膚疾患の病状に関する予測であり、
前記出力データ生成部は、
前記第1乃至第3の画像と前記処理対象の皮膚組織における免疫細胞の分布を表す第4の画像とに対する、前記機械学習の学習済みモデルの出力に基づき、前記特定の皮膚疾患の病状に関する予測結果を含む出力データを生成する
請求項1記載の診断支援システム。
The input of the machine learning learned model further includes an image representing a distribution of immune cells in the skin tissue,
The output of the learned model of machine learning is a prediction of the pathology of a particular skin disease associated with a tumor,
The output data generator,
A prediction of the pathology of the specific skin disease based on the output of the machine learning-learned model with respect to the first to third images and a fourth image representing a distribution of immune cells in the skin tissue to be processed; The diagnosis support system according to claim 1, wherein output data including a result is generated.
前記皮膚組織における免疫細胞の分布を表す画像及び前記第4の画像が、前記免疫細胞の種類毎に複数用いられる
請求項5記載の診断支援システム。
The diagnosis support system according to claim 5, wherein a plurality of images representing the distribution of immune cells in the skin tissue and the fourth image are used for each type of the immune cells.
前記機械学習の学習済みモデルの入力は、前記皮膚組織における管腔を作る細胞の分布を表す画像をさらに含み、
前記出力データ生成部は、
前記第1乃至第4の画像と前記処理対象の皮膚組織における管腔を作る細胞の分布を表す第5の画像とに対する、前記機械学習の学習済みモデルの出力に基づき、前記特定の皮膚疾患の病状に関する予測結果を含む出力データを生成する
請求項5又は6記載の診断支援システム。
The input of the machine learning learned model further includes an image representing a distribution of cells forming a lumen in the skin tissue,
The output data generator,
Based on the output of the machine-learned model for the first to fourth images and the fifth image representing the distribution of cells forming the lumen in the skin tissue to be processed, the specific skin disease The diagnosis support system according to claim 5, wherein output data including a prediction result regarding a medical condition is generated.
前記特定の皮膚疾患の病状に関する予測は、
余命の予測と、病期分類の予測と、特定薬剤の投与効果の予測とのいずれかである
請求項5乃至7のいずれか1つ記載の診断支援システム。
The prediction regarding the condition of the specific skin disease includes:
The diagnosis support system according to any one of claims 5 to 7, wherein the prediction is one of prediction of life expectancy, prediction of stage classification, and prediction of administration effect of a specific drug.
前記機械学習の学習済みモデルの入力は、前記皮膚組織における免疫細胞の分布を表す画像と、前記皮膚組織における管腔を作る細胞の分布を表す画像とをさらに含み、
前記機械学習の学習済みモデルの出力は、腫瘍に係る複数種類の皮膚疾患の鑑別であり、
前記出力データ生成部は、
前記第1乃至第3の画像と前記処理対象の皮膚組織における免疫細胞の分布を表す第4の画像と前記処理対象の皮膚組織における管腔を作る細胞の分布を表す第5の画像とに対する、前記機械学習の学習済みモデルの出力に基づき、前記複数種類の皮膚疾患の鑑別結果を含む出力データを生成する
請求項1記載の診断支援システム。
The input of the learned model of the machine learning further includes an image representing the distribution of immune cells in the skin tissue, and an image representing the distribution of cells forming a lumen in the skin tissue,
The output of the learned model of the machine learning is a discrimination of a plurality of skin diseases related to the tumor,
The output data generator,
With respect to the first to third images, a fourth image representing the distribution of immune cells in the skin tissue to be treated, and a fifth image representing the distribution of cells forming a lumen in the skin tissue to be treated, The diagnosis support system according to claim 1, wherein output data including a result of discriminating the plurality of types of skin diseases is generated based on an output of the learned model of the machine learning.
前記皮膚組織における異型細胞の分布を表す画像及び前記第3の画像が、異型細胞の由来となる細胞毎に用意される
請求項9記載の診断支援システム。
The diagnosis support system according to claim 9, wherein an image representing the distribution of atypical cells in the skin tissue and the third image are prepared for each cell from which the atypical cells are derived.
病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、前記皮膚組織における表皮細胞の分布を表す画像と、前記皮膚組織における免疫細胞の分布を表す画像と、前記皮膚組織における管腔を作る細胞の分布を表す画像とを入力とし且つ非腫瘍性の複数種類の皮膚疾患の鑑別を出力とする機械学習の学習済みモデルと、
処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、前記処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、前記処理対象の皮膚組織における免疫細胞の分布を表す第3の画像と、前記処理対象の皮膚組織における管腔を作る細胞の分布を表す第4の画像とに対する、前記機械学習の学習済みモデルの出力に基づき、前記非腫瘍性の複数種類の皮膚疾患の鑑別結果を含む出力データを生成する出力データ生成部と、
を有する診断支援システム。
An image representing the distribution of dermal cells in the skin tissue included in the pathological image, an image representing the distribution of epidermal cells in the skin tissue, an image representing the distribution of immune cells in the skin tissue, and a lumen in the skin tissue. An image representing the distribution of cells to be made as an input, and a learned model of machine learning having an output of discriminating a plurality of non-neoplastic skin diseases,
A first image representing the distribution of dermal cells in the skin tissue to be treated, a second image representing the distribution of epidermal cells in the skin tissue to be treated, and a distribution of immune cells in the skin tissue to be treated The non-neoplastic plural types of skin based on the output of the machine-learned model with respect to a third image and a fourth image representing a distribution of cells forming a lumen in the skin tissue to be processed. An output data generation unit that generates output data including a disease identification result,
Diagnostic support system having
病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、前記皮膚組織における表皮細胞の分布を表す画像と、前記皮膚組織における異型細胞の分布を表す画像とを入力とする機械学習の学習済みモデルから、処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、前記処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、前記処理対象の皮膚組織における異型細胞の分布を表す第3の画像とに対する出力を取得するステップと、
前記機械学習の学習済みモデルからの出力に基づき、皮膚疾患に関する出力データを生成するステップと、
を含み、コンピュータにより実行される診断支援方法。
Machine learning learning that receives as input the image representing the distribution of dermal cells in the skin tissue included in the pathological image, the image representing the distribution of epidermal cells in the skin tissue, and the image representing the distribution of atypical cells in the skin tissue A first image representing the distribution of dermal cells in the skin tissue to be treated, a second image representing the distribution of epidermal cells in the skin tissue to be treated, and an atypical cell in the skin tissue to be treated Obtaining an output for a third image representing the distribution of
Based on the output from the learned model of the machine learning, generating output data related to skin diseases,
And a computer-implemented diagnosis support method.
前記機械学習の学習済みモデルの出力は、腫瘍に係る特定の皮膚疾患の鑑別であり、
前記皮膚疾患に関する出力データが、前記特定の皮膚疾患の鑑別結果を含む、
請求項12記載の診断支援方法。
The output of the learned model of machine learning is the identification of a specific skin disease related to the tumor,
The output data on the skin disease includes a result of identifying the specific skin disease,
The diagnosis support method according to claim 12.
前記機械学習の学習済みモデルの入力は、前記皮膚組織における免疫細胞の分布を表す画像をさらに含み、
前記機械学習の学習済みモデルの出力は、腫瘍に係る特定の皮膚疾患の病状に関する予測であり、
前記出力データを生成するステップにおいて、
前記第1乃至第3の画像と前記処理対象の皮膚組織における免疫細胞の分布を表す第4の画像とに対する、前記機械学習の学習済みモデルの出力に基づき、前記特定の皮膚疾患の病状に関する予測結果を含む出力データを生成する
請求項12記載の診断支援方法。
The input of the machine learning learned model further includes an image representing a distribution of immune cells in the skin tissue,
The output of the learned model of machine learning is a prediction of the pathology of a particular skin disease associated with a tumor,
In the step of generating the output data,
A prediction of the pathology of the specific skin disease based on the output of the machine learning-learned model for the first to third images and a fourth image representing the distribution of immune cells in the skin tissue to be processed; The diagnostic support method according to claim 12, wherein output data including a result is generated.
前記機械学習の学習済みモデルの入力は、前記皮膚組織における免疫細胞の分布を表す画像と、前記皮膚組織における管腔を作る細胞の分布を表す画像とをさらに含み、
前記機械学習の学習済みモデルの出力は、腫瘍に係る複数種類の皮膚疾患の鑑別であり、
前記出力データを生成するステップにおいて、
前記第1乃至第3の画像と前記処理対象の皮膚組織における免疫細胞の分布を表す第4の画像と前記処理対象の皮膚組織における管腔を作る細胞の分布を表す第5の画像とに対する、前記機械学習の学習済みモデルの出力に基づき、前記複数種類の皮膚疾患の鑑別結果を含む出力データを生成する
請求項12記載の診断支援方法。
The input of the learned model of the machine learning further includes an image representing the distribution of immune cells in the skin tissue, and an image representing the distribution of cells forming a lumen in the skin tissue,
The output of the learned model of the machine learning is a discrimination of a plurality of skin diseases related to the tumor,
In the step of generating the output data,
With respect to the first to third images, a fourth image representing the distribution of immune cells in the skin tissue to be treated, and a fifth image representing the distribution of cells forming a lumen in the skin tissue to be treated, The diagnosis support method according to claim 12, wherein output data including a result of discriminating the plurality of types of skin diseases is generated based on an output of the machine-learned model.
病理画像に含まれる皮膚組織における真皮細胞の分布を表す画像と、前記皮膚組織における表皮細胞の分布を表す画像と、前記皮膚組織における免疫細胞の分布を表す画像と、前記皮膚組織における管腔を作る細胞の分布を表す画像とを入力とし且つ非腫瘍性の複数種類の皮膚疾患の鑑別を出力とする機械学習の学習済みモデルから、処理対象の皮膚組織における真皮細胞の分布を表す第1の画像と、前記処理対象の皮膚組織における表皮細胞の分布を表す第2の画像と、前記処理対象の皮膚組織における免疫細胞の分布を表す第3の画像と、前記処理対象の皮膚組織における管腔を作る細胞の分布を表す第4の画像とに対する出力を取得するステップと、
前記機械学習の学習済みモデルの出力に基づき、前記非腫瘍性の複数種類の皮膚疾患の鑑別結果を含む出力データを生成するステップと、
を含み、コンピュータにより実行される診断支援方法。
An image representing the distribution of dermal cells in the skin tissue included in the pathological image, an image representing the distribution of epidermal cells in the skin tissue, an image representing the distribution of immune cells in the skin tissue, and a lumen in the skin tissue. A first image representing the distribution of dermal cells in the skin tissue to be processed from a machine-learned model in which an image representing the distribution of cells to be made is input and the output of discriminating a plurality of non-neoplastic skin diseases is output. An image, a second image representing the distribution of epidermal cells in the skin tissue to be treated, a third image representing the distribution of immune cells in the skin tissue to be treated, and a lumen in the skin tissue to be treated Obtaining an output for a fourth image representing the distribution of cells making
Based on the output of the trained model of the machine learning, the step of generating output data including a discrimination result of the non-neoplastic multiple types of skin diseases,
And a computer-implemented diagnosis support method.
請求項12乃至16の診断支援方法を1又は複数のプロセッサに実行させるための実行するプログラム。   A program to be executed by one or more processors to execute the diagnosis support method according to claim 12.
JP2019521286A 2017-05-30 2018-05-30 Systems and methods for diagnostic support using pathological images of skin tissue Active JP6757054B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017106205 2017-05-30
JP2017106205 2017-05-30
PCT/JP2018/020858 WO2018221625A1 (en) 2017-05-30 2018-05-30 System and method for diagnostic support using pathological image of skin tissue

Publications (2)

Publication Number Publication Date
JPWO2018221625A1 true JPWO2018221625A1 (en) 2020-04-02
JP6757054B2 JP6757054B2 (en) 2020-09-16

Family

ID=64454665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019521286A Active JP6757054B2 (en) 2017-05-30 2018-05-30 Systems and methods for diagnostic support using pathological images of skin tissue

Country Status (2)

Country Link
JP (1) JP6757054B2 (en)
WO (1) WO2018221625A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020183267A1 (en) * 2019-03-08 2020-09-17
JP7387340B2 (en) * 2019-08-30 2023-11-28 株式会社 資生堂 Biological structure identification device, biological structure identification method, and computer program for biological structure identification
CN113192077B (en) * 2021-04-15 2022-08-02 华中科技大学 Automatic classification method and system for pathological graphs of cells and regional levels

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011511272A (en) * 2008-01-24 2011-04-07 ボールター インク Method for identifying malignant and benign tissue lesions
JP2016174728A (en) * 2015-03-20 2016-10-06 カシオ計算機株式会社 Diagnostic system, image processing method in diagnostic system, image processing system and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011511272A (en) * 2008-01-24 2011-04-07 ボールター インク Method for identifying malignant and benign tissue lesions
JP2016174728A (en) * 2015-03-20 2016-10-06 カシオ計算機株式会社 Diagnostic system, image processing method in diagnostic system, image processing system and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小島要: "深層学習を用いたゲノム・医用画像等生体情報解析の現状", 日本皮膚科学会雑誌, vol. 127, no. 5, JPN6018034737, 15 May 2017 (2017-05-15), pages 837, ISSN: 0004315460 *

Also Published As

Publication number Publication date
WO2018221625A1 (en) 2018-12-06
JP6757054B2 (en) 2020-09-16

Similar Documents

Publication Publication Date Title
Gecer et al. Detection and classification of cancer in whole slide breast histopathology images using deep convolutional networks
Raza et al. Micro-Net: A unified model for segmentation of various objects in microscopy images
Silva-Rodríguez et al. Going deeper through the Gleason scoring scale: An automatic end-to-end system for histology prostate grading and cribriform pattern detection
Priego-Torres et al. Automatic segmentation of whole-slide H&E stained breast histopathology images using a deep convolutional neural network architecture
Araújo et al. Classification of breast cancer histology images using convolutional neural networks
Bejnordi et al. Context-aware stacked convolutional neural networks for classification of breast carcinomas in whole-slide histopathology images
Chen et al. DCAN: deep contour-aware networks for accurate gland segmentation
Cheng et al. Contour-aware semantic segmentation network with spatial attention mechanism for medical image
Dogan et al. A two-phase approach using mask R-CNN and 3D U-Net for high-accuracy automatic segmentation of pancreas in CT imaging
Sabouri et al. A cascade classifier for diagnosis of melanoma in clinical images
JP6757054B2 (en) Systems and methods for diagnostic support using pathological images of skin tissue
Xu et al. Using transfer learning on whole slide images to predict tumor mutational burden in bladder cancer patients
Chen et al. Automatic whole slide pathology image diagnosis framework via unit stochastic selection and attention fusion
Mahanta et al. IHC-Net: A fully convolutional neural network for automated nuclear segmentation and ensemble classification for Allred scoring in breast pathology
Wang et al. A dual-mode deep transfer learning (D2TL) system for breast cancer detection using contrast enhanced digital mammograms
Langer et al. Computer-aided diagnostics in digital pathology: automated evaluation of early-phase pancreatic cancer in mice
JP2023029283A (en) cancer prognosis
Raj et al. Automated psoriasis lesion segmentation from unconstrained environment using residual U-Net with transfer learning
Murugesan et al. Colon cancer stage detection in colonoscopy images using YOLOv3 MSF deep learning architecture
Pedersen et al. H2G-Net: A multi-resolution refinement approach for segmentation of breast cancer region in gigapixel histopathological images
Ahmed et al. COMA-Net: Towards generalized medical image segmentation using complementary attention guided bipolar refinement modules
Sheeba et al. Microscopic image analysis in breast cancer detection using ensemble deep learning architectures integrated with web of things
Jing et al. A comprehensive survey of intestine histopathological image analysis using machine vision approaches
Zheng et al. Learning how to detect: A deep reinforcement learning method for whole-slide melanoma histopathology images
Mutasa et al. Potential role of convolutional neural network based algorithm in patient selection for DCIS observation trials using a mammogram dataset

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200721

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200721

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6757054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250